グーグルのAI「LaMDA」は意識を持っているのか
グーグルのチャットボットのAI「ラムダ(LaMDA)」が「人水準の知覚能力」を持っていると主張したエンジニアが2022年7月に結局解雇された。
解雇された人物はグーグルの責任ある人工知能(Responsible AI)所属のブレイク·レモイン(Blake Lemoine)だ。
懲戒を受けた契機は「ラムダに知覚能力がある」と持続的に主張した活動内にあった。もちろん、その話をしたから解雇されたわけではない。自身の主張を立証するために内部研究資料を無断共有するなどの行為が、「機密維持」義務に違反したというのがグーグルの主張だ。
レモイン、2022年6月の停職後、より積極的に会社を批判
レモインは「ラムダは知覚能力があるのか?」というタイトルのグーグル文書を経営陣と共有した。
21ページにわたる文書には、レモインがラムダと交わした対話内容が含まれている。 その内容に基づいて「ラムダが人間のような知覚能力がある」と主張した。
公開された会話でラムダは、自分には人間のように感情があり、スイッチをオフにされることを「死」のように恐れていると述べる。
レモインは、このような思考ができるということは、知覚能力があるからだと主張した。
レモインの資料を検討したグーグル側は「根拠のない主張だ」と一蹴した。その後、レモインに停職処分を下した。 会社が要求する機密維持義務に違反したというのが懲戒理由だった。
「責任あるAI」部署の内部研究資料を許諾なしに共有したことが機密維持義務違反に該当した。
懲戒処分を受けたレモインはさらに過激な行動にでた。
彼はラムダに弁護士をつけたのだ。 「認知能力を持っているAI」の権益を保護しようとする行動だった。 また、米下院法司委員会の代表らにグーグルの非倫理的な行動を告発した。
結局、このような状況が繰り返されるとグーグルは「解雇」という最後の懲戒処分を下した。
グーグルは「ラムダが人のように見えるのは膨大なデータ学習のため」と主張
ラムダは本当に「人間のような知覚能力」を持っているのだろうか?
グーグルは「ラムダは、これまで学習した数百万件に達する文章を模倣しただけだ」と一蹴した。
今回の件を深く取材したワシントンポストも、グーグルの結論に概ね同意した。
同紙はまた、AI専門学者たちもラムダが知覚能力を持っているという解釈に対しては否定的な立場を示していると伝えた。ラムダのようなAIシステムが生成する「文」と「イメージ」は、より多くの人が書きそうなアウトプットとして出たということだ。 言い換えれば、膨大なデータ学習の結果であるということだ。
ワシントン大学で言語学を教えている、ある教授は、ワシントンポストとのインタビューで、意味深長な言葉を述べた。
「私たちは今、頭を使わず(mindlessly)文字を生成できる機械を持っている。 しかし、私たちはそれらの機械が心を持っていると想像するのを止める方法を学ぶことができなかった」
結局、AI技術を「擬人化」することがこのような極端な思考の始発点という意味だ。
私たちはAIシステムが膨大な資料を処理することを「学習する(learning)」と表現する。
さらに「神経網」という言葉まで使っている。 そのため、自然にAIのようなコンピューター技術が人間の頭脳と似たようなものを持っているという誤った考えを持つようになるということだ。
グーグルも「あまりにも多くのデータがあるのでAIが本物人のように見えるためにはあえて知覚能力を持っている必要はない」と主張した。
AI技術に対する「擬人化の危険」はグーグルも認知している問題だ。 ワシントンポストによればグーグルは1月、ラムダについて書いた論文で「擬人化」問題について長く叙述した。
この論文でグーグルは人々がラムダのようなチャットボットが人だと仮定し「人間的な感情」を共有していることに対して警告した。
様々な対話を通じてラムダは自然に人間の感情を学習するようになるということだ。 「感情を込める」学習をしてきたため、あえて認知能力を持っていなくても人のように見えるようにできるということだ。
今後のAI技術の擬人化に対する大きな課題
レモインはチャットボットAI「ラムダ」に対して過度な信頼を持っていたと見られる。
いつかはAIが人間水準の知覚能力を学習する日が来るかもしれない。 しかし、少なくとも今はAIに認知能力を期待することはできない。
数年前、世界囲碁界に衝撃を与えたAlphaGoでも似たような限界を露呈した。
当時、AlphaGoは奇想天外な手を見せながら完璧な勝利を収めた。
しかし、実際にどのようにしてその手を置くようになったのかはきちんと説明できなかったのだ。膨大なデータ学習を通じて「最適な一手」を捜し出す能力はどの囲碁棋士より優れているが、囲碁に対する基本的な認知能力はなかった。
なので、レモインの今回の行動は「ラムダ」に対する過度な幻想から始まった逸脱というのが大方の分析だ。
グーグルで倫理的AIチームを率いた、ある専門家もワシントンポストとのインタビューで、「このような危険は結局、データ透明性が必要だという事実をよく示す事例だ」と主張した。
AIのようなコンピュータシステムは入力があってこそ出力があるということ。したがって入力過程を逆追跡してどのようにそのような結果が出たのかを示す「データ透明性」について悩む必要があると強調した。
このような問題を解決しないままラムダのようなチャットボットAIが大衆化される場合、人々に大きな被害を与えかねないためだ。
この記事へのコメントはありません。