ワイゼンバウム教授が受けたショック
――コンピュータが人間と同等かそれ以上に扱われたこと――
昨日のこのブログでは、ワイゼンバウム教授 (以下、「W教授」と呼びます) の作った「イライザ」というコンピュータ・プログラムがどんなものなのかを実例で紹介しました。
もう少し説明を加えるとこのプログラムは、二段構えの構造を持っています。一つは言語分析プログラム、もう一つは台本です。
人間が、言葉を「イライザ」に打ち込むと、言語分析プログラムがその言葉を分析して、例えばその中のキーワードを選び出したり、固有名詞を特定したり、というような処理をします。そのキーワードを元に、今度は台本に載っている、「キーワードを繰り返す」とか、「具体例を示せ」というようなシナリオに従って、「イライザ」の言葉として画面にアウトプットされるのです。
ChatGPTはこれを高速化、高度化、複雑化、巨大化、精緻化したものだと考えられます。
精神科医としての役割を果す「イライザ」は、「ドクター」として知られるようになり、多くの人たちから高い評価を受けるようになりました。しかし、それはW教授にとっては大きなショックだったのです。それをW教授は三つにまとめています。
一つは、多くの精神科医が、「ドクター」が成長し、やがては完全に自動化された形の精神医療が可能になると信じるまでになったことです。精神科医の仕事の大切な部分は、そこに人間同士の出会いがあり、感情移入等を通して患者の持つ問題を理解する過程がある、というのがW教授の考え方です。にもかかわらず、その人間同士の出会いの本質は、機械による単なる「猿真似」によって置き換えられると考える人たちが多いことにショックを受けたのです。
第二に、例えば楽器とかオートバイ、車、あるいは職人の道具等に人間が愛着を持ち、自分の一部だと感じることは私たち多くが経験することです。しかしながら、多くの人がほんの一言二言コンピュータとの会話をしただけで、コンピュータとの間に深い感情的な交流があるとまで感じるようになり、コンピュータを人間と同等に扱い始めたことに、W教授はショックを受けたのです。
三つめは、「ドクター」が、コンピュータによる自然言語理解という問題の一般的解決だと考える人たちが続々と現れたことでした。冷静に考えると、人間でさえ、一般的解決策の具現化ではないのですから、コンピュータのプログラムがそうでないことくらい分るはずなのですが、過大評価をされたことにW教授は危機感を覚えました。
それは、かなりの教育を受けた人でも自分の理解できない技術に出会うと、それに対して誇張された価値を与えてしまうからだと、W教授は解釈しました。
となると、科学者が自分の研究を公にする際の責任をもっと真剣に考えなくてはならないことになります。どういった責任があるのか、そして誰に対する責任なのか、ということを考えなくてはならないからです。
軍事研究をすべきかどうかという問題もその一部ですし、W教授は自分の研究の結果がどう受け取られるのかまで想像できないままに「イライザ」 (そして「ドクター」) を世に出したことについての反省の意味も込めていたと考えられます。
世間からのこうした反応からW教授は、自分がこれから関わって行かなくてはならない問題を整理し、それが『コンピュータ・パワー』になりました。
W教授の基本的な考えは、コンピュータ (そしてAI) と人間の間には違いがあること、人間だけが取り扱うことを許されている領域が存在すること、仮に、AIと人間との境界が無くなるような事態に至ったとしたらそれはどんな意味を持つのかを、深く洞察しておかなくてはならないとまとめられるのではないかと思います。
続いて、W教授が次にどのように彼の問題意識を整理し、最終的にはどのような結論に至ったのか、順次、紹介して行きます。
最後に今日一日、皆さんにとって、素晴らしい24時間でありますよう!
[2022/4/8 イライザ]
[お願い]
文章の下の《広島ブログ》というバナーを一日一度クリックして下さい。
最近のコメント