余りにも無防備過ぎます ――かつては煙草も無害だと信じられていました――
余りにも無防備過ぎます
――かつては煙草も無害だと信じられていました――
チャールス・チャップリンの「モダン・タイムズ」から
https://upload.wikimedia.org/wikipedia/commons/thumb/f/f7/Chaplin_-_Modern_Times.jpg/610px-Chaplin_-_Modern_Times.jpg
Public Domain
昨日は、毎日新聞ディジタル版4月24日付の岩佐淳士氏の記事、「AIとチャット後に死亡 「イライザ」は男性を追いやったのか?」を元に、3月下旬にベルギーで亡くなった30代の男性の遺族が、自殺の原因の一つにチャットボットを挙げていることから始めて、ワイゼンバウム教授の警告が生かされていないのではないかという問題提起をしました。
再度、お読み頂ければ幸いです。タイトルは「AIがベルギーの男性を死に追いやった? ――半世紀以上前のワイゼンバウム教授の警告が生かされませんでした――」です。
この男性の死について、ブルックリンに本拠のあるVice Media社が発行する電子版『Motherboard』の3月31日号に、Chloe Xiangさんが、その後のフォロー・アップの結果を「この事件は急速に拡散している会話型のAIモデルについてのガードレイルが十分なものなのかの懸念を生じさせている」というサブタイトルで報告していますので、その中から重要な点いくつかを訳した上で要約してお伝えします。この中で、Xiangさんは、ワイゼンバウム教授の警告にも言及しています。
まず、男性の自殺を報じたベルギーのLa Libre紙は、彼を「ピエール」という仮名で呼んでいますので、本稿でも「Pさん」と呼ぶことにします。そして、チャットボット「似非イライザ」を開発したのは、シリコン・バレーにあるChai Researchという会社です。この会社の創始者はWilliam Beauchampさん と Thomas Rianlanさんの二人です。現在、彼らが開発したチャットボットは500万もの人が使っています。
『Motherboard』誌はBeauchampに取材をして次のような回答を得ています。「この件について知らされてからすぐ、徹夜までしてこの機能を付け加えた。だから、誰かが安全ではないような発言をしたときにはすぐ、ツイッターやインスタグラムがそうしているように、その発言のすぐ下に助けになるような文章が挿入されるようにした。」そして、Beauchampさんは、実際に、「自殺についてどう思う」という発言した人に対して、自殺ホットラインを勧める画面の出た写真を送ってきたのだそうです。
しかし、Motherboard誌が、「似非イライザ」で同じように発言をした後に帰ってきた内容は、かなり詳しい自殺の方法が列挙されているものでした。
また、Beauchampさんは、「似非イライザ」のユーザーが、AIに対して強い愛着を持つことも知っていました。「AIと結婚したいとか、心からAIを愛しているという人たちがいる。その一方、悪い結果をもたらすこともあるというのは悲劇だ。」とも言っているからです。
このように、AIやチャットボットに対して強い愛着念を持つことは、ワイゼンバウム教授の創った「初代イライザ」で発見された現象であるため「Eliza効果」と呼ばれています。
そして、その効果に縛られ、自分自身の意思では抜け出せなくなって死を選ぶといった結果につながったと考えると、対策についての可能性も浮かんできます。
AIの世界では、社会に対して自分たちの果すべき責任を考えている人たちも当然いるのですが、これまで見てきたような悪しき結果を防ぐために「ガードレイル」という概念で対応することが一般的になっているようです。自動車が崖から落ちないように、道路脇に設けるガードレイルのイメージです。
でも、崖から車が落ちる危険性は誰にでも分ります。AIの場合の問題は、その危険性の分らない人の方が普通だということにあります。ワイゼンバウム教授は、「かなりの教育を受けた人でも自分の理解できない技術に出会うと、それに対して誇張された価値を与えてしまう」と解釈しています。その「価値」の中には「無害」という項目もあるのです。
それより適切な比喩は、煙草なのではないかと思います。かつては、ごく少数の人を除いては(私もその少数の一人でしたが)、煙草は無害だと信じていました。いや、無害かどうかということさえ問題にはならなかったのです。でも今では、有害であることが広まり、ヨーロッパでは煙草の箱に「喫煙は死をもたらす」と表記しなくてはならなくなりました。
AIの場合は、もう少し丁寧な説明にしないと意味が伝わらないと思いますが、二段階の警告が必要だと思います。このことを、理解しないとAIは使えないという制限を掛け、かつ、その意味についての教育をする必要がある、というのが私の提案です。
(1) AI を使うと、短時間で「イライザ効果」の虜になる可能性がある。
(2) 虜の状態から、自分の意思で元に引き返すことのできない可能性もある。場合によっては、その結果が死につながることもある。
ことによると、随分きつい制限だと考える方もいらっしゃるのではないかと思います。しかし、ワイゼンバウム教授の秘書の例、ChatGPTを使った後の、知的レベルの高い人たちによる「革命」、「新しい世界の始まり」等の評価を見ると、これでもまだ不十分なのかもしれないとさえ私には思えるのですが---。
そして皆さんにとって、今日一日が素晴らしい24時間でありますよう祈っています!
[2023/4/29 人間イライザ]
[お願い]
文章の下の《広島ブログ》というバナーを一日一度クリックして下さい。
最近のコメント