My logbook : 屋久島暮らし残照録  
  Home > 目次 > 記事  
  偏見ご免のたわごと編:  No.223
生成系AI例えばChatGPT_そのひとの作業成果がはっきり分からない  2023.05.01
  例えばある特殊で難しい作業で製品を作れる画期的な装置が開発された。あるひと達がその製品を企画し、あるひと達が設計し試作し試験をして、工場であるオペレーターがその装置の操作し製造と検査をやらせて製品が作り出されるようになった。無ければいままでのレベルの製品しか作れなかったのだが、新製品はその装置があったから開発が出来た。

私はこういうはなしをするのはChatGPTがその画期的な装置と似ていると思うからである。しかし新製品を作り出すに誰が何をしどういう装置などがどういうことをしたかよく分かる感じがするのだが、ChatGPTを利用する場合、その出力・成果物を得たとして、その利用者の作業あるいは実際の仕事つまりその利用者の能力による成果がどれなのかよく分からない感じがするのである。

何が利用者のした作業で何がChatGPTのした作業なのか明確にしてくれないと、偉そうな人間にみんな成りすまして表面的に実力がありそうに見えながら実はたいした能力のない人間だったということになりかねない。ChatGPTという道具があってそれをどう使ってこういう知識を得たということを明示してくれて、それを知ったうえで自分はどう考え行動し自分の成果物にしたのかが分かるようにしてくれないと、その利用者の実力の成果物かどうか判断しがたい。その利用者が為したことだけがそのひとの能力で作業したものである。それをはっきりさせるようなChatGPTとその利用システムにならないと、私は不安である。能力のない邪悪な人間が世界を牛耳るようなことになるのはご免である。

何か道具を発明すれば、それがひとあるいは人類を傷つける可能性がある。よく聞くはなしだがナイフを発明したらそれがひとを殺す道具になったり使い方を誤って自分が怪我をすることになったわけである。ChatGPTも新しい道具であるが、ChatGPT自身で自分の危険性を判断し安全に動作するレベルにはないから、いまいろいろ懸念が言われたりしているものと思われる。

それなら考えられる危険な利用方法や反応動作について網羅的にリストアップすることを続けながら、安全な道具にしていかなければならないわけである。完璧に近い状態になるまでは、それなりの利用制限や禁止が必要ではないかという気がする。また自動車では例えば米国にMVSSのような安全基準があるが、生成系AIでも国家安全基準の制定とか、原子力規制委員会みたいな生成系AI規制委員会みたいなものが必要かも知れない。


補足1: 将来、国民は二分されるか_下記関連記事の補足の転載
2021.10.04
自分の思いをAIにしてその利用者を支配する人間。ただ提供されたAIを利用する人間。このように国民は二分されるようにならないかと気になる。ある価値観でAIを開発し世の中に提供する人間になるか、提供されたAIに疑問を感じることなくそれを信じて利用するだけの人間になるかということだが、生まれたときからAIに支配されて育った人間がどういう道筋で支配する側になれるのだろうか。AIを創り運用する貴族とそのAIの言う通り働く奴隷というような世襲階級社会が出現しやしないかなどと、もう自分には関係ないと思えども気になる。

補足2: 三つのAIチャットを試してみた_EdgeでのBingが使いづらい
2023.05.11
今日、ChatGPT、GoogleのBardとBingのAIチャットを試してみた。この中ではBingが使いづらい。Microsoftの思惑の方が利用者の使い勝手より優先されている印象である。使い勝手としてはChatGPTとBardがメイン画面で広く見易いしチャット以外のごちゃごちゃした表示がないので私としては利用しやすかった。

補足3: CAISがAIのリスクに警鐘_そのニュースの紹介
2023.06.04
人工知能(AI)の安全性を検証する米国の非営利団体「センター・フォー・AIセーフティー(CAIS)」が、AIには人類を滅亡させるリスクがあるとし、警鐘を鳴らした。その5月30日付で発表した「AIによる(人類)絶滅のリスクを軽減することは、パンデミックや核戦争などの社会的なリスクと同様に、世界の優先事項であるべきです」という声明には、AI研究の第一人者として知られるジェフリー・ヒントン氏や、対話AI「ChatGPT」を開発した米オープンAIのサム・アルトマンCEOやグーグルの幹部など、350人以上が共同で署名した。


(関連記事)
屋久島暮らし残照録・偏見ご免のたわごと編:
  No.102  ロボットあるいはAI_将来どうなる  (2021.10.04)
. 
 
  back