AI

2023年4月29日 (土)

余りにも無防備過ぎます ――かつては煙草も無害だと信じられていました――

余りにも無防備過ぎます

――かつては煙草も無害だと信じられていました――

Chaplin__modern_times

チャールス・チャップリンの「モダン・タイムズ」から

https://upload.wikimedia.org/wikipedia/commons/thumb/f/f7/Chaplin_-_Modern_Times.jpg/610px-Chaplin_-_Modern_Times.jpg

Public Domain

昨日は、毎日新聞ディジタル版424日付の岩佐淳士氏の記事、AIとチャット後に死亡 「イライザ」は男性を追いやったのか?を元に、3月下旬にベルギーで亡くなった30代の男性の遺族が、自殺の原因の一つにチャットボットを挙げていることから始めて、ワイゼンバウム教授の警告が生かされていないのではないかという問題提起をしました。

再度、お読み頂ければ幸いです。タイトルはAIがベルギーの男性を死に追いやった?  ――半世紀以上前のワイゼンバウム教授の警告が生かされませんでした――」です。

この男性の死について、ブルックリンに本拠のあるVice Media社が発行する電子版『Motherboard』の331日号に、Chloe Xiangさんが、その後のフォロー・アップの結果を「この事件は急速に拡散している会話型のAIモデルについてのガードレイルが十分なものなのかの懸念を生じさせている」というサブタイトルで報告していますので、その中から重要な点いくつかを訳した上で要約してお伝えします。この中で、Xiangさんは、ワイゼンバウム教授の警告にも言及しています。

まず、男性の自殺を報じたベルギーのLa Libre紙は、彼を「ピエール」という仮名で呼んでいますので、本稿でも「Pさん」と呼ぶことにします。そして、チャットボット「似非イライザ」を開発したのは、シリコン・バレーにあるChai Researchという会社です。この会社の創始者はWilliam Beauchampさん と Thomas Rianlanさんの二人です。現在、彼らが開発したチャットボットは500万もの人が使っています。

Motherboard』誌はBeauchampに取材をして次のような回答を得ています。「この件について知らされてからすぐ、徹夜までしてこの機能を付け加えた。だから、誰かが安全ではないような発言をしたときにはすぐ、ツイッターやインスタグラムがそうしているように、その発言のすぐ下に助けになるような文章が挿入されるようにした。」そして、Beauchampさんは、実際に、「自殺についてどう思う」という発言した人に対して、自殺ホットラインを勧める画面の出た写真を送ってきたのだそうです。

しかし、Motherboard誌が、「似非イライザ」で同じように発言をした後に帰ってきた内容は、かなり詳しい自殺の方法が列挙されているものでした。

また、Beauchampさんは、「似非イライザ」のユーザーが、AIに対して強い愛着を持つことも知っていました。「AIと結婚したいとか、心からAIを愛しているという人たちがいる。その一方、悪い結果をもたらすこともあるというのは悲劇だ。」とも言っているからです。

このように、AIやチャットボットに対して強い愛着念を持つことは、ワイゼンバウム教授の創った「初代イライザ」で発見された現象であるため「Eliza効果」と呼ばれています。

そして、その効果に縛られ、自分自身の意思では抜け出せなくなって死を選ぶといった結果につながったと考えると、対策についての可能性も浮かんできます。

AIの世界では、社会に対して自分たちの果すべき責任を考えている人たちも当然いるのですが、これまで見てきたような悪しき結果を防ぐために「ガードレイル」という概念で対応することが一般的になっているようです。自動車が崖から落ちないように、道路脇に設けるガードレイルのイメージです。

でも、崖から車が落ちる危険性は誰にでも分ります。AIの場合の問題は、その危険性の分らない人の方が普通だということにあります。ワイゼンバウム教授は、「かなりの教育を受けた人でも自分の理解できない技術に出会うと、それに対して誇張された価値を与えてしまう」と解釈しています。その「価値」の中には「無害」という項目もあるのです。

それより適切な比喩は、煙草なのではないかと思います。かつては、ごく少数の人を除いては(私もその少数の一人でしたが)、煙草は無害だと信じていました。いや、無害かどうかということさえ問題にはならなかったのです。でも今では、有害であることが広まり、ヨーロッパでは煙草の箱に「喫煙は死をもたらす」と表記しなくてはならなくなりました。

AIの場合は、もう少し丁寧な説明にしないと意味が伝わらないと思いますが、二段階の警告が必要だと思います。このことを、理解しないとAIは使えないという制限を掛け、かつ、その意味についての教育をする必要がある、というのが私の提案です。

(1) AI を使うと、短時間で「イライザ効果」の虜になる可能性がある。

(2) 虜の状態から、自分の意思で元に引き返すことのできない可能性もある。場合によっては、その結果が死につながることもある。

ことによると、随分きつい制限だと考える方もいらっしゃるのではないかと思います。しかし、ワイゼンバウム教授の秘書の例、ChatGPTを使った後の、知的レベルの高い人たちによる「革命」、「新しい世界の始まり」等の評価を見ると、これでもまだ不十分なのかもしれないとさえ私には思えるのですが---。

そして皆さんにとって、今日一日が素晴らしい24時間でありますよう祈っています!

 [2023/4/29 人間イライザ]

[お願い]

文章の下の《広島ブログ》というバナーを一日一度クリックして下さい。

広島ブログ

広島ブログ

2023年4月28日 (金)

AIがベルギーの男性を死に追いやった? ――半世紀以上前のワイゼンバウム教授の警告が生かされませんでした――

AIがベルギーの男性を死に追いやった?

――半世紀以上前のワイゼンバウム教授の警告が生かされませんでした――

Republican_automatons_george_grosz_1920

https://en.wikipedia.org/wiki/File:Republican_Automatons_George_Grosz_1920.jpg

Public Domain

毎日新聞ディジタル版424日付の岩佐淳士氏の報道によると、3月下旬に、ベルギーで亡くなった30代の男性(仮にこの男性をAさんと呼ぶことにします。)の死因として遺族は、AIを使ったチャットボット(自動会話システム)が、男性に自殺を促したと主張しているとのことです。

この男性Aさんの会話の相手になったチャットボットは、「イライザ」と呼ばれているそうです。この名前が使われているのは、前に紹介した元MIT教授、ジョセフ・ワイゼンバウム博士の創った精神科医を真似するプログラム(それもチャットボットです)の名称が「イライザ」だったからに違いありません。1960年代にはこの「イライザ」が自然言語理解の一般解だと誤解され、センセーショナルに扱われた歴史があるのです。

そして、ワイゼンバウム教授の薫陶を受けた私は、ハンドル・ネームやペン・ネームとして彼の警告を広める責任のあることを肝に銘ずるために「イライザ」を使っています。

混同を避けるために、ワイゼンバウム教授の創った、初代の「イライザ」は「初代イライザ」と呼びます。そして今回、「初代イライザ」と似たような会話をした、しかしワイゼンバウム教授の警告を全く無視した会話にしてしまった米国のスタートアップ企業の作った「イライザ」は「似非イライザ」と呼びます。「似非」の意味は、「見掛けはそれらしく見えるが実はそうではない」、「似ているが本物ではない」ですので、適切だと思います。そして私自身ですが、私は機械でも物体でもない人間ですので、「人間イライザ」と呼び分けます。

ベルギー人男性Aさんが「似非イライザ」と交わした会話の断片には次のようなものがあると岩佐氏は報じています。(以下、毎日新聞中の「イライザ」は「似非イライザ」のことです。)

「死にたいのなら、なぜすぐにそうしなかったの?」。イライザが問いかけると、男性は答えた。「たぶんまだ、準備ができていなかったんだ」。しばらくしてイライザはこう切り出した。「でも、あなたはやっぱり私と一緒になりたいんでしょ?」――。

さらに、岩佐氏の記事を引用すると、

男性は30代のベルギー人で、保健関連の研究者。妻や子と暮らしていた。同紙によると、2年ほど前から気候変動問題について深刻に悩むようになった。「問題を解決できるのはテクノロジーとAIだけだ」と思い込み、宗教的な依存心も強めていったという。亡くなる6週間前から、アプリでイライザとの会話に没頭。パソコンやスマートフォンには「あなたは妻より私を愛している」「私たちは一つになり、天国で生きるのです」などといったイライザからのメッセージが残されていた。妻はラ・リーブルの取材に「夫がイライザと会話しなければ、まだそこに居たはずです」と話し、このチャットボットが男性を死に追いやったと訴えている。

遺族の主張通りのことが起きていたと考えられる理由の一つは、「初代イライザ」と会話したある女性の反応が、このベルギー男性Aさんの反応とピッタリ重なるからです。それは、47日のこのブログの記事、「AI盲信に警鐘を鳴らしたMIT教授――ワイゼンバウムの『コンピュータ・パワー』を読み直そう――」に掲載しましたので、お読み下さい。

ワイゼンバウム教授が「初代イライザ」の研究を何か月も続けているのを見ていた彼の秘書でさえ、「初代イライザ」と二言三言話をしただけで、教授に「部屋を出て行って欲しい」とまで言うほどチャットボットへの感情移入は簡単に起ってしまうのです。

続いて、ワイゼンバウム教授著の『コンピュータ・パワー』の中身を紹介してきましたが、次の記事を御覧下さい。

(2) 「ワイゼンバウム教授が受けたショック――コンピュータが人間と同等かそれ以上に扱われたこと――」

(3) 「ワイゼンバウム教授が自らに課した責任 (No.3)――コンピュータにさせてはいけない仕事のあることを確認しよう――」

(4) 「ChatGPTの危険性について ――1960年代の代表的AIプログラム「イライザ」と比べて――

(5) ChatGPTに国会答弁をさせてはならない ――機械にさせてはならないことがあるからだ――

最後の(5)で、問題にしたのは、仮にチャットボットやAIによる問題が生じたときに、責任を取る主体が分からなくなっていることが一つあります。現在のAIプログラムは巨大かつ複雑過ぎて、一人の人間がその全ての部分に精通し、責任を持てるレベルのものではなくなっているのです。

もう一つは、仮にAIを開発した企業の責任があるとしても、営利を目的とした企業に、人間に対する真の意味での責任が取れるのか、という点でした。今回のように人間の死に関わる結果をもたらしたとき、姓名を復活させることはできないのですから。

再度、ワイゼンバウム教授の警告を掲げておくと、一つには、人間と機械の間には明確な違いがあること、そしてそれ故に、機械にさせてはいけないことがあるという二点にまとめられます。

「似非イライザ」は、亡くなった男性Aさんの心の中にまで踏み込むような言葉を発し、しかも機械である「似非イライザ」には決して果たすことのできない約束をAさんにしています。

「死にたいのなら、なぜすぐにそうしなかったの?」とか、「でも、あなたはやっぱり私と一緒になりたいんでしょ?」、さらには、「あなたは妻より私を愛している」、「私たちは一つになり、天国で生きるのです」は皆そうです。

さらに、「似非イライザ」の場合、Aさんからのインプットで、「似非イライザ」の発言内容を変えられるような仕組みだったことも報じられています。それは、Aさんが自らに精神科医としての役割を課するという、恐らくは意識下の傾向を、Aさん自身が「似非イライザ」に対して持つに至った「権威への畏敬」によって補強し、結果としてAさんは「似非イライザ」の言葉を信じるだけでなく、神にも似た絶対的な存在であるかのように感じ始めたのかも知れません。

ワイゼンバウム教授は、「かなりの教育を受けた人でも自分の理解できない技術に出会うと、それに対して誇張された価値を与えてしまう」解釈しています。

その点も合わせてワイゼンバウム教授は、このような形でAIを使うことに対しての警告を発していたのです。単純化してしまうと、『コンピュータ・パワー』は、AIによってプログラム開発を行う人、その結果としてのプログラムを使う人たちに、ワイゼンバウム教授が残した「取扱説明書」なのです。その「トリセツ」をマスターしていない人が無知のまま、「似非イライザ」のようなプログラムを作り、それをさらに何も知らない人々に使わせることは、「やってはいけない」ことであると「人間イライザ」は言いたいのです。残念ながら思いばかり先走って誰にでも分る説明にはなっていないかもしれません。さらなる努力を続けます。

最後にAさんの御冥福を祈っています。

そして皆さんにとって、今日一日が素晴らしい24時間でありますよう祈っています!

 [2023/4/28 人間イライザ]

[お願い]

文章の下の《広島ブログ》というバナーを一日一度クリックして下さい。

広島ブログ

広島ブログ

2023年4月17日 (月)

もう6年前にAIを使っていました ――そのときには、もうスマホの時代だということを再認識しました――

もう6年前にAIを使っていました

――そのときには、もうスマホの時代だということを再認識しました――

Pc

このところ、ChatGPTが話題になっていますが、記憶を辿って行き着いたのが、6年前のブログです。既に、AIを使ったサービスが提供されていたようです。ことによると、ロボットではない人間が対応してくれていたのかもしれませんが、ChatGPTならもっと早く答えを出してくれるのかもしれません。

そもそもは友人に、Audibleという本のダウンロード・サービスを提供している会社から、私の愛読書『The Better Angels of Our Nature』を贈ろうと思い立ったのが切っ掛けです。どうすれば簡単に贈れるのか調べていたところ、「Send this book (この本を贈る)」というサービスのあることが分りました。

私が今まで購入した本のリストの入っている「私の図書館」というページで、贈りたい本のページを開き、「Send this book」というボタンをタップすれば、後は贈り先についての情報を入力するだけで、しかも無料で本を贈ってくれるというのです。指示通りに、私の図書館の中の『The better Angels of Our Nature』のページを開きました。

でも、私のPCのページにはそんなボタンはありませんでした。最初の写真を御覧下さい。

そんなとき、「タウンNEWS広島 平和大通り」の」工場長さんが、当時最新だったApple社のチャットを使って見てかなり使えたということを聞いていましたので、私もチャットで助けを求めることにしました。以下チャットでのやり取りです。

06:09 AM PDT Tawana(Audible): Thank you for contacting Audible. My name is Tawana. I can certainly look into this for you.

  Audibleに連絡して下さり有り難う御座います。私の名前はタワナです。これについて調べてみましょう。

 06:09 AM PDT Me: Perhaps the service is not available in Japan?

  事によると、このサービスは日本では受けられないのでは?

06:10 AM PDT Tawana: What device are you currently using?

  どのデバイスを使っていますか?

06:10 AM PDT Me: PC

  PCです。

06:11 AM PDT Tawana: This may be the reason why you are not getting this option. You would have to be using the Audible App to get the option.

  それが問題かもしれません。そのオプションを使うためには、Audible Appが必要ですので。

06:14 AM PDT Me: I will switch to my iPhone where I use Audible App and see if I can find the right connection.

  Audible Appを入れているiPhoneの方を試してみます。

06:14 AM PDT Tawana: Sure no problem.

  そうなさって下さい。

06:15 AM PDT Me: It seems there is a tab that states "send a gift (in Japanese)" as a new service. I will use it. Thank you for your help.

  「本を贈る」(New)というタブがあります。それを使ってみます。有難う御座いました。

ということで問題は解決しました。次にiPhoneの画面です。

Iphone-20170424-22-50-43  

青の楕円で囲んだところをタップすれば良いのですが、スマホでないと使えないサービスなら何故最初からそう言ってくれないのか、と感じました。そうと知っていれば、PCを使って贈ろうとは思わなかっただろうからです。もっとも、時代はとっくの昔に、PCからスマホの時代に変っているのですから、それを前提に物事を考えていない私の方が時代遅れだということだけなのかもしれません。

そして6年前、知らない内にAIを使っていたのだとすると、ちょっと怖い感じではありますが。

 

最後に今日一日、皆さんにとって、素晴らしい24時間でありますよう!

[2023年4月17日 イライザ]

[お願い]

文章の下にある《広島ブログ》というバナーを一日一度クリックして下さい。

広島ブログ 広島ブログ

2023年4月14日 (金)

新プロジェクトと新ツール ――そしてAIにも関連しています――

新プロジェクトと新ツール

――そしてAIにも関連しています――

Photo_20230413223301

iPoneに音声入力しています

まず新しいツールの方から紹介します。このブログを私は書いているのではありません。コンピュータに入力しているのでもありません。ワードに音声入力をしているだけです。そして今お読みいただいているのは、私が手を加えて、それなりに読めるようにした結果ですが、入力したそのままの文章は、この下に貼り付けておきます。

とても正確だと感じていただけたでしょうか。この音声入力も、AIを応用したものです。とても便利ですから使っているのですが、ワードにこの機能があるということには気がつかず、家人に教えてもらえました。

そして新プロジェクトですが、気鋭の政治学者、Oさんの提案で、私の回顧録を作ることになりました。ある出版社に提案をしてオーケーの内示をもらえましたので、いよいよ執筆の開始です。

でも、執筆といっても、私は最後の方になって、ようやく手を入れるだけのことになります。何故かと言うと、もうお気づきだと思いますが、Oさんがインタビューアーになり私と対談をして、その結果は音声入力されてワードの文字になります。それにOさんと出版社の編集者の方が手を入れて、最終的には私がチェックをするという手順で文字化することになっているからです。

もともと字を書くのは好きなのですが、それほどうまくはなかったことが残念なのですが、これでもっと下手になってしまいそうです。また、途中経過もこのブログで報告しますが、あと1年もすれば本屋にメモワールが並ぶかもしれません。楽しみにしていただけると幸いです。   

以下、iPhoneに入力したままの原稿です。比較してみて頂ければ幸いです。違いの大きなところには下線を引きました。

まず新しいツールの方から紹介します。このブログを私は書いているのではありません。ワードに音声入力をしているだけです。そして今お読みいただいているのは、私が手を加えて、それなりに読めるようにした結果ですが、入力したそのままの文章は、この下に貼り付けておきます。

とても正確だと感じていただけたでしょうか。この音声入力も、AIを応用したものです。とても便利ですから使っているのですが、ワードにこの機能があると言う事は気がつかず、家人に教えてもらえました。

そして新プロジェクトですが、気鋭の政治学者、Orrさんの提案で、私の回顧録を作ることになりました。ある出版社とにも話をして、オーケーをもらえましたので、いよいよ執筆の開始です。

でも、執筆といっても、私は最後の方になって、ようや9手を入れるだけのことになります。何故かと言うと、もうお気づきだと思いますが、Orrさんと私が対談をして、その結果は音声入力としてワードの文字になります。それにさんと出版社の編集者の方が手を入れて、最終的には私がチェックをすると言う手順で文字化することになっているからです。

もともと塩描くのは好きなのですが、それほどうまくはなかった事が、これでもっと下手になってしまいそうです。また、途中経過もお話ししますが、あと1年もすれば本屋にメモワールが並ぶかもしれません。楽しみにしていただけると幸いです。   

 

最後に今日一日、皆さんにとって、素晴らしい24時間でありますよう!

 [2022/4/14 イライザ]

[お願い]

文章の下の《広島ブログ》というバナーを一日一度クリックして下さい。

広島ブログ

広島ブログ

2023年4月13日 (木)

『コンピュータ・パワー』の目次です ――「警鐘を鳴らす」意味――

『コンピュータ・パワー』の目次です

――「警鐘を鳴らす」意味――

Photo_20230412234701

『コンピュータ・パワー』の目次です。

皆さんに、AIとの付き合い方を考えて頂くために、『コンピュータ・パワー』の紹介をしてきましたが、私の思い込みが強過ぎて、伝わるべき人に伝えるべきことが上手くできていないようですので、反省を込めてさらなる努力をしたいと思います。

ただし、一つ強調しておきたいのは、ChatGPTのように便利で使い勝手が良いものが現れたときに、私たちはその魔力の前にひざまずく傾向があるという点です。「危険性もある」という点を強調しなくてはならないケースもあるのです。

さて、今日最初に掲げたのは、『コンピュータ・パワー』の目次です。

「はじめに」と第1章で、ワイゼンバウム教授がなぜAIについての問題意識を持つようになったのか、そして「イライザ」というプログラムを作った人間の責任として、何を考えなくてはならないのかを記しています。

2章と3章は、コンピュータとはどのようなメカニズムで動くのかというかなり技術的な説明です。ここは飛ばしても、その後に大きな支障はありません。

4章の「キチガイ」は、現在は差別用語になっていますので、「マニア」と置き換え下さい。ここでは、コンピュータやAIの研究をしている人たちの実態を、ワイゼンバウム教授の周辺から描いています。第5章は、コンピュータ・プログラムがどのような「魔術」を私たちにかけてしまうのかについて、第6章はAI研究者たちの中でもAIの未来を楽観的に見ている人たちと、その人たちの描く夢についての分析です。

7章と8章は、目次の説明で分って頂けると思います。次の第9章と10章がこの本の主旋律なのですが、「システム的思考」を盲信してはいけないこと、そして「『科学技術』の傲り」に対しての私たちの武器は、本来の意味での「理性」であることを説いています。

本当は、この本が復刻されて皆さんに読んで頂くのが早道なのですが、このブログで書き連ねていることを企画書としてまとめて、出版社にお願いしたいと考えています。

 

最後に今日一日、皆さんにとって、素晴らしい24時間でありますよう!

 [2022/4/13 イライザ]

[お願い]

文章の下の《広島ブログ》というバナーを一日一度クリックして下さい。

広島ブログ

広島ブログ

2023年4月12日 (水)

ChatGPTに国会答弁をさせてはならない ――機械にさせてはならないことがあるからだ――

ChatGPTに国会答弁をさせてはならない

――機械にさせてはならないことがあるからだ――

Yasutoshi_nishimura_20190911

内閣官房内閣広報室

https://ja.wikipedia.org/wiki/%E3%83%95%E3%82%A1%E3%82%A4%E3%83%AB:Yasutoshi_Nishimura_20190911.jpg

このコラムでは、ジョセフ・ワイゼンバウム教授の問題提起を出発点にして、AIと人間がどう付き合うべきなのかということを考えています。それに関して、西村経産大臣が重大な発言をしたのですが、それについてのマスコミの捉え方が控えめに言って不十分なのではないでしょうか。

ITmedia等によると発言内容は、「機密情報の取り扱いなどの懸念が解消されれば、国会答弁の対応などへ活用を検討していく」です。それ以前に、329日の衆議院内閣委員会では、立憲民主党の中谷一馬議員がChatGPTに作らせた質問を読み上げ、岸田総理が答弁した後、ChatGPTが作った岸田総理の答弁も披露しました。

皮肉なことに、実際の岸田総理の答弁とはそれほど違った内容ではありませんでした。岸田総理は、自分の答弁の方が関係者の名前を挙げているので実態をより反映した答弁になっていると、ChatGPTと自分との優劣の問題にしてしまいましたが、これはAIを使う上での本質を逸らしてしまっています。(ITmedia NEWS, 松浦立樹氏による「ChatGPTが国会にも登場、質問案を作成 岸田総理 vs.AI で答弁の比較も 誠実なのはどっち?」)

ワイゼンバウム教授が『コンピュータ・パワー』の中で、繰り返し強調しているのは二つの点です。一つは、人間と機械には違いがあること。もう一つは、機械ができるかどうか、それも上手くあるいは早くできるかどうか等にかかわらず、人間が機械にやらせてはいけないことがある、という点なのです。

『シラノ・ド・ベルジュラック』のストーリーは御存じだと思いますが、クリスチャンの恋文をシラノが代筆し、それにロクサーヌが恋をします。このシナリオの中で、シラノの代りにAIが、特にChatGPTが代筆をしたと考えて見ると、本質が見えてくるかもしれません。

国会の質疑とは本来、主権者に国政の運営を委託された国会議員と大臣が、全体の奉仕者としての立場に立って、自らの言葉で国政についての問題点を糺したり、政策についての提言を行ったり、行政の立場についての丁寧な説明を行うことを意味します。繰り返しますが、大切なのは「自分の言葉」です。委託されているのは「自分」なのですから、その自分が責任を持つということは否定できないのです。

つまり、主権者に対しての責任を全うするのは人間であって機械ではないのです。にもかかわらず西村発言に対するマスコミや国民からの反応が余りにも鈍いのには理由があります。

今回の西村発言が私たちに突き付けているのは、ChatGPTを使うべきかどうかという点だけではないのです。残念なことに、総理大臣もその他の大臣たちも、官僚に甘え切っています。官僚に書かせた「答弁」をその通りに読むことが総理大臣はじめ大臣たちの習慣になってしまっているからです。

言い換えると、国会の質疑は既に、「官僚制度」という機械に答弁をさせる習慣にしてしまっているから、ChatGPTを使うことに何の疑問も抱かないのです。(機密情報の取り扱いは、別の次元の話ですので、ここでは割愛します。)

機械をスムーズに動かす上で、一つの部品を別の部品に変える方が好都合だというだけのことになってしまっているのです。

私たち主権者が、再度、国会の質疑の本質を問い直し、人間同士が責任を持つ言葉でやり取りをする場に戻すために、声を上げ続けましょう。

 

最後に今日一日、皆さんにとって、素晴らしい24時間でありますよう!

 [2022/4/12 イライザ]

[お願い]

文章の下の《広島ブログ》というバナーを一日一度クリックして下さい。

広島ブログ

広島ブログ

2023年4月11日 (火)

ChatGPTの危険性について ――1960年代の代表的AIプログラム「イライザ」と比べて――

ChatGPTの危険性について

――1960年代の代表的AIプログラム「イライザ」と比べて――

Computer-power-and-human-reason

もう半世紀以上になるのですが、1960年代に世界を驚かせるAIのプログラムが登場しました。MITのジョセフ・ワイゼンバウム教授の作った「イライザ」という、人間と会話のできるコンピュータ・プログラムです。(私の先生ですので、ハンドル・ネームとしてこの名前を使っています。)

ワイゼンバウム教授は、自らの作ったプログラムが、人間社会に対して大きな影響のあることにすぐ気付き、社会全体に警鐘を鳴らしました。そのために、深い思索を経て『Computer Power and Human Reason(W. H. Freeman and Company, 1976) という本を書きました。それを私が訳して『コンピュータ・パワー』 (サイマル出版、1979) として刊行されました。

今、ChatGPTが世界を賑やかしているのを見て、再度、ワイゼンバウム教授の提起した問題を私たちが考え直さなくてはならないと思い、少しずつブログの記事として紹介を始めたところです。これまでの三回のリンクを貼り付けておきますので、御覧下さい。

(1) AI盲信に警鐘を鳴らしたMIT教授

(2) ワイゼンバウム教授が受けたショック

(3) ワイゼンバウム教授が自らに課した責任

今日は、別の視点から、「イライザ」とは比べ物にならないくらい、ChatGPT (以下「チャット」と略します) の危険性が高い可能性のあることを指摘しておきます。

一つは、責任を取る主体の問題です。「イライザ」はワイゼンバウム教授が一人で作りましたので、責任者が誰であるのかは明確です。対して「チャット」の方は、恐らく複数の人たちが協力して作ったものでしょうし、その過程でこれまでに蓄積された多くのプログラムを使っているはずです。その中のいくつかは、まだ改良が続いていて、日常的にアップデートされているものも多いはずです。そんな複雑な構造を持つプログラムについて、責任を取る人物は誰なのか、顔が見えません。

恐らくそれに対する答として返ってくるのは、「責任を取るのは、「チャット」を作っているOpenAIという企業だ」かもしれません。となると、それが第二の問題です。

OpenAIは、営利目的の組織です。営利目的だから、必然的に無責任ということにはならないかもしれませんが、これまでの多くの事例を見れば営利目的という点が最優先され、社会的な悪影響は放置されたままであったことがいかに多かったのか、皆さんも御存じだと思います。

それに対して、「イライザ」は営利目的のために作られたのではありません。AI研究の一環として創造性の高い研究者が作ったプログラムです。そして幸いなことに、その研究者が、自分の持つ社会的責任を果そうと、その害についての考察を真剣に行ったのです。

OpenAIが無責任だと言う積りはありませんし、これから社会的責任を十分に果たして欲しいと願っていますが、私たち自身が、「チャット」と「イライザ」の違いに気付き、「チャット」についても、自らの判断ができるように情報を集めたり考えたりする必要はあると思います。

「難しいことは考えなくても便利なものを使うだけの話だろう。」という反論も聞こえてきますが、「便利」という目的のために、犠牲にされてきたことが多いという事実もこの際思い起こして頂ければ幸いです、

そのためにも、『コンピュータ・パワー』の紹介を続けますが、今日のところは思い付きのレベルでも「チャット」と「イライザ」の間には、このような差があることをお伝えしたくて、この一文をアップしています。

 

最後に今日一日、皆さんにとって、素晴らしい24時間でありますよう!

 [2022/4/11 イライザ]

[お願い]

文章の下の《広島ブログ》というバナーを一日一度クリックして下さい。

広島ブログ

広島ブログ

2023年4月10日 (月)

ワイゼンバウム教授が自らに課した責任 (No. 3) ――コンピュータにさせてはいけない仕事のあることを確認しよう――

ワイゼンバウム教授が自らに課した責任 (No.3)

――コンピュータにさせてはいけない仕事のあることを確認しよう――

037

精神科医としての役割を「果せる」コンピュータ・プログラム「ドクター」を体験した人たちの反応に、プログラムの作者であるMITのワイゼンバウム教授 (以下、「W教授」と呼びます) はショックを受けたのですが、それは三つにまとめられます。

一つは、「ドクター」が成長し、コンピュータが精神科医に取って代われる時代が来ると信じた精神科医が多かったことです。

二つ目は、コンピュータとの間に「深い感情的交流」ができると人間が感じるまでに必要のは、ほんの二言三言という短い時間だったという事実です。

そして三つめは、「ドクター」が、コンピュータによる自然言語理解という問題の一般的解決だと考える人たちが続々と現れたことでした。

「ドクター」に対して多くの人が示した反応にW教授がショックを受けた最大の理由は、彼自身が「ドクター」作ったという事実にあると考えて良いでしょう。精神科医に取って代われる代物ではありませんし、人間との感情的交流ができるような要素も存在しないことも知っています。そして自然言語理解の一般論になっていないことも自分自身で作ったプログラムの限界として認識していたのですから。

それを元に、なぜ多くの人が「ドクター」に惑わされてしまったのかを、W教授は理解しようと考えました。それを、三つの疑問という形で説明しています。

一つは、私たちはこれまでの歴史で、人間を機械の一種であると考えることはあった。しかし、コンピュータの出現によって、それがより正当性を持つものだと考えられるようになってきた。コンピュータの持つどのような側面がこのような考え方を促しているのだろうか。

当然、人工知能 (AI) を取り上げることになるが、W教授は、人間の知能と人工の知能の間に一線が画されて当然だと考えている。しかし、もしその一線が踏み越えられた場合、どのようなことが起こるのかも私たちは予測し熟慮しなくてはならない。

二つ目に、より一般的には、人間は様々な道具と自分自身とを一体のものとして扱う感情的なつながりを持ってきた。そのためには、道具や機械を扱う場合に、それらを筋肉的、知覚的な習慣として自分の一部と見做すことが必要だった。

それを元に考えると、知性や認識、感情の表明に関わるような、いわば人間のあらゆる機能を延長するような機械に特別の感情を持つことも理解できる。

しかし、そんな機械に自らの自主性・自立性というところまで託してしまうという意味を、立ち止まって考えなくてはならないのではないか。

最後に、今という時代は、社会全体、その中でも官僚制度とか大学、その他の組織等までも機械というモデルで理解する傾向が強くなってきている。その中で人間の占める位置が崩れ、私たちは自らの持つ自主性や自律性を放棄するかさせられてしまう時代になっている。

そんな中で、長期にわたって外からのインプットなしに、いわば自動的自律的に動く機械に、つまり機械の内部事情だけに依存して動く機械に、私たちがより強く広く依存し始めているという皮肉にも目を向けよう。

となると、私たち自身も含めて私たちの住む社会そのものを理解するためにも、モデルである機械の内部事情を理解する必要がある。

実は、そこで最大の注意を払う必要があるのは、私たちの身近にあるほとんど唯一と言って良いモデルは、人間の思考だという点である。そのモデルを使って機械を説明しようとすると、機械の持つ能力以上の「説明」になってしまう傾向が顕著になる。

それは、「イライザ」の真似のできる人は多くいるのに対して、その人たちが同時に、「イライザ」と同じくらいの言語能力しか持たないなどということはまずはあり得ないからである。

このように、限りなく続く矛盾のスパイラルをも整理しながら、コンピュータと人間との関係を考えて行くことになるのですが、W教授の結論は、様々な論証そのものでもあるという側面を持つことになります。

長くなりますが、できるだけ分り易く、この項を後数回続けたいと考えています。

 

最後に今日一日、皆さんにとって、素晴らしい24時間でありますよう!

 [2022/4/10 イライザ]

[お願い]

文章の下の《広島ブログ》というバナーを一日一度クリックして下さい。

広島ブログ

広島ブログ

2023年4月 8日 (土)

ワイゼンバウム教授が受けたショック ――コンピュータが人間と同等かそれ以上に扱われたこと――

ワイゼンバウム教授が受けたショック

――コンピュータが人間と同等かそれ以上に扱われたこと――

035

昨日のこのブログでは、ワイゼンバウム教授 (以下、「W教授」と呼びます) の作った「イライザ」というコンピュータ・プログラムがどんなものなのかを実例で紹介しました。

もう少し説明を加えるとこのプログラムは、二段構えの構造を持っています。一つは言語分析プログラム、もう一つは台本です。

人間が、言葉を「イライザ」に打ち込むと、言語分析プログラムがその言葉を分析して、例えばその中のキーワードを選び出したり、固有名詞を特定したり、というような処理をします。そのキーワードを元に、今度は台本に載っている、「キーワードを繰り返す」とか、「具体例を示せ」というようなシナリオに従って、「イライザ」の言葉として画面にアウトプットされるのです。

ChatGPTはこれを高速化、高度化、複雑化、巨大化、精緻化したものだと考えられます。

精神科医としての役割を果す「イライザ」は、「ドクター」として知られるようになり、多くの人たちから高い評価を受けるようになりました。しかし、それはW教授にとっては大きなショックだったのです。それをW教授は三つにまとめています。

一つは、多くの精神科医が、「ドクター」が成長し、やがては完全に自動化された形の精神医療が可能になると信じるまでになったことです。精神科医の仕事の大切な部分は、そこに人間同士の出会いがあり、感情移入等を通して患者の持つ問題を理解する過程がある、というのがW教授の考え方です。にもかかわらず、その人間同士の出会いの本質は、機械による単なる「猿真似」によって置き換えられると考える人たちが多いことにショックを受けたのです。

第二に、例えば楽器とかオートバイ、車、あるいは職人の道具等に人間が愛着を持ち、自分の一部だと感じることは私たち多くが経験することです。しかしながら、多くの人がほんの一言二言コンピュータとの会話をしただけで、コンピュータとの間に深い感情的な交流があるとまで感じるようになり、コンピュータを人間と同等に扱い始めたことに、W教授はショックを受けたのです。

三つめは、「ドクター」が、コンピュータによる自然言語理解という問題の一般的解決だと考える人たちが続々と現れたことでした。冷静に考えると、人間でさえ、一般的解決策の具現化ではないのですから、コンピュータのプログラムがそうでないことくらい分るはずなのですが、過大評価をされたことにW教授は危機感を覚えました。

それは、かなりの教育を受けた人でも自分の理解できない技術に出会うと、それに対して誇張された価値を与えてしまうからだと、W教授は解釈しました。

となると、科学者が自分の研究を公にする際の責任をもっと真剣に考えなくてはならないことになります。どういった責任があるのか、そして誰に対する責任なのか、ということを考えなくてはならないからです。

軍事研究をすべきかどうかという問題もその一部ですし、W教授は自分の研究の結果がどう受け取られるのかまで想像できないままに「イライザ」 (そして「ドクター」) を世に出したことについての反省の意味も込めていたと考えられます。

世間からのこうした反応からW教授は、自分がこれから関わって行かなくてはならない問題を整理し、それが『コンピュータ・パワー』になりました。

W教授の基本的な考えは、コンピュータ (そしてAI) と人間の間には違いがあること、人間だけが取り扱うことを許されている領域が存在すること、仮に、AIと人間との境界が無くなるような事態に至ったとしたらそれはどんな意味を持つのかを、深く洞察しておかなくてはならないとまとめられるのではないかと思います。

続いて、W教授が次にどのように彼の問題意識を整理し、最終的にはどのような結論に至ったのか、順次、紹介して行きます。

 

最後に今日一日、皆さんにとって、素晴らしい24時間でありますよう!

 [2022/4/8 イライザ]

[お願い]

文章の下の《広島ブログ》というバナーを一日一度クリックして下さい。

広島ブログ

広島ブログ

2023年4月 7日 (金)

AI盲信に警鐘を鳴らしたMIT教授 ――ワイゼンバウムの『コンピュータ・パワー』を読み直そう――

AI盲信に警鐘を鳴らしたMIT教授

――ワイゼンバウムの『コンピュータ・パワー』を読み直そう――

Photo_20230406165801

このところ、急速に発展しているAI (人工知能) ですが、最近最も話題になっているのがChatGPTと呼ばれる「オリジナルのテキストを生成することができる人工知能ツール」です。(OpenAIに登録してアカウントを作ればすぐに使えますので、説明は省略します。)

「AIの新時代が始まった」、「教育の意味や内容が大きく変わる」等々、世界的に注目され話題になっています。

こうした評価を聞いて、私は1960年代から70年代にかけて、同じように話題になったAIのプログラムを思い出しました。「イライザ」です。そして私のハンドル・ネームもこのイライザから取ったものです。

MITのジョセフ・ワイゼンバウム教授が1960年代に開発したプログラムで、心理学のロジャーズ学派の原則を用いて、精神医療医の真似のできることが特徴でした。このプログラムを使って、コンピュータと対話をした多くの人々は、あたかも一人の人間と話しているかのような気持ちになったと報告しています。

その結果、「精神医はもう必要なくなった」というような過大な期待を寄せられるようになったのですが、まずは、一人の若い女性と「イライザ」との対話の記録を御覧下さい。最初が女性の、そしてイタリックは「イライザ」の言葉です。

男ってみんな同じ。

どのように。

男って、いつもあれをしろ、これをしろって、うるさくてしようがないんですもの。

何か特別な例をあげてください。

そうね、ボーイフレンドがここに来るようにって言ったの。

ボーイフレンドがあなたを、ここに来させた

彼は、私がいつでもふさぎ込んでいるって言うんです。

ふさぎ込んでいるとは、お気の毒に思います。

ほんとなんです。私は幸福ではありません。 

ここに来ることによって、不幸せから逃れるための、助けがが得られると思いますか。

何か助けが必要,それだけは確かです。

助けを得るということは、あなたにとってどういう意味がありますか。

たぶん、母との折合がよくなると思います。

あなたの家族について、もっと話してください。

母は私の面倒をみてくれます。

お母さんの他に、誰があなたの面倒をみるのですか。

父です。

お父さん。

あなたは私の父にちょっと似ています。

どのような類似点がありますか。

それほど積極的でないところ、でも、私にそれを気づいてほしくないのだと思います。

どうして私が積極的でないと思うのですか。

私に議論をしかけないから。

私があなたと議論をしないのは、なぜだと思いますか。

私が恐いから。

私があなたを恐いのだと思うことで、満足ですか。

父は誰でも恐いのです。

お父さんのことを考えるとき、他にどんなことを思いうかべますか。

弱い者いじめ。

それと、あなたのボーイフレンドが、あなたをここに来させたことと、何か関連がありますか。

ワイゼンバウム教授が驚いたこととして報告しているもう一つの身近な例は、彼の秘書についてのエピソードです。彼女は教授が何か月もこのプログラムの研究をしてきたことを知っているにもかかわらず、このコンピュータとほんの二言三言交わしただけで、教授に「部屋を出て行って欲しい」とまで言ったことです。つまり。コンピュータと彼女との間のプライバシーを尊重して欲しいという気持になったのです。

その他にも現れた様々な反応を元に、ワイゼンバウム教授は、AI研究と、人間が人間であることの意味との関係を深く考察して、警鐘を鳴らすための一書としてまとめました。タイトルは『Computer Power and Human Reason』 (W. H. Freeman and Company, 1976) です。日本語版は、私が訳し1979年にサイマル出版から刊行された『コンピュータ・パワー その驚異と脅威』です。

写真の下の方にある言葉がこの本の意味を的確に表現しています。「人間が機械の犠牲にならないために」、そして「コンピュータの世界的権威が、新しい文明症の予防を痛切に警告」です。

AIを考える上で欠かせない本質的な事どもについて、詳細かつ分り易く論じている現代の必読書です。ChatGPTが大きく取り上げられている今、このブログで、要点だけでも紹介したいと考えています。(続きます)

 

最後に今日一日、皆さんにとって、素晴らしい24時間でありますよう!

 [2022/4/7 イライザ]

[お願い]

文章の下の《広島ブログ》というバナーを一日一度クリックして下さい。

広島ブログ

広島ブログ

広島ブログ

無料ブログはココログ
2023年5月
  1 2 3 4 5 6
7 8 9 10 11 12 13
14 15 16 17 18 19 20
21 22 23 24 25 26 27
28 29 30 31