2023年2月12日日曜日

ChatGPTは感情や意識を持てるか?その1

  ChatGPTをはじめとした自然言語処理AIについてのお話は、まだまだ続く。

 人が何かを「考える」とき、言語を介してしか思考できない以上、「自然言語処理」がある程度不自由なく可能になれば、おのずと

「ヒトの感情や意識はどのように形成されているのか」

というテーマに移行するだろう。

 現状でのChatGPT等のAIの活用法は

「より自然な形で、問いかけと返答ができる検索エンジン」

ぐらいにしか思われていないかもしれないが、実はそれどころの話ではない。もっともっと面白い可能性があるのだ。


 たとえば、人間の場合でも、低レベルな情報処理である「脳という箱に入れたデータの出し入れ」しかしていないことは多い。

「りんごの色は?」

と尋ねられたとき、たいていの日本人は

「赤」

と即答する。すこし考えて

「赤が大半だけれど、緑のものもあるかな」

くらいには回答するかもしれない。

 この時、人間の脳みその中では、「過去に得た情報」と「ほとんど、大半の場合、あるいは一般的なものとして」というフィルターをかなり単純に用いて、「赤あるいは緑」という回答を行っている。

 この時、あなたが答えを出すまでの間に

「感情」

は動いているだろうか?

 まず、「赤」と即答した人の場合は、かなりシンプルに反射的に回答を行っている可能性が高い。そして、わずかに「緑」を引き出した人は、その瞬間に脳内をサーチしたり、「一般的以外の条件付け」というフィルターを付加して「思考」したかもしれない。

 そこでは「反射的に箱から情報を取り出す」作業と「選択を伴う思考を経て、箱から情報を取り出す」という作業が行われていることがわかる。

 ちなみに、これをChatGPTに問いかけると、以下のように反応した。



「りんごの色は」
「赤いことが一般的ですが、黄色や緑色もあります」

 

 


 この回答は、まさに、今「人間が答えるとしたら?」と想定した答えとほぼ変わらない。

 このことからわかるのは、

◆ 人間が行う脳内情報の引きだし作業や、フィルター処理を「思考」と呼ぶのであれば、自然言語処理AIは「思考」とほぼ同じことが行える

ということである。

 つまり、AIは「思考」できるということだ。


========

 さあ、そこで先ほどの「感情」の話に戻ろう。

 人間は脳という「箱からの引きだし作業」を行う時、ごくシンプルなものであれば、感情を伴わない。感情を露呈させることもなく、あるいは自分の感情について考えることなく、回答できる。

 自然言語処理AIは、「もともと感情を持たない」ので、感情を伴わないやりとりの場合は

「ほぼ、人間とおなじことをやっている」

とみなすことができる。

 もちろん、人間の情報処理は、もう少し複雑だ。

 実は「りんごの色は?」と尋ねられた時、ほとんどすべての人の脳内には「赤いりんごのイメージ」が浮かんでいる。

 これは言語処理のみではなく、視覚やグラフィックに関する処理が同時に行われているということだが、自然言語処理AIでは視覚に関する処理は行っていないので、

「どこにもりんごの姿は浮かんでいない」

という違いがある。

 しかし、これはたいしたことではなく、これまた現在絶賛大ヒット中の

Stable Diffusion

といった「画像生成AI」と組み合わせてプログラムを組めば、

「りんごの色について言語で答えながら、同時にりんごの写真や図を自動生成してイメージを思い浮かべる」

ということができる。

 上記記事などを参照すれば、「記憶イメージの再現」くらいは画像生成AIを使えば、すでに楽勝で可能なことがわかるだろう。



 さて、何度も脱線したが「感情」の話である。

 人間とAIの違いは「思考」「記憶」「イメージ」「言語」という分野においては急速に差が小さくなっていて、現時点でも

「人間が考える、コミュニケーションする」ことにおいて、外界とのやりとりの部分などは、ほぼ同一のことが行える

段階に入っていることがわかる。

 となると、人間と機械の違いは

「感情を持っているかどうか」

「意識を持っているかどうか」

くらいしかないことになってきた。

 もちろん「感情や意識」というもの自体の定義も、いろんな議論や考え方があるので、一概には言えない部分があるので注意は必要だ。

 たとえば、今回のシリーズで何度も取り上げているアラン・チューリングは、「意識」について、

『工知能があたかも人のように反応し、人から見て人と何ら区別がつかなければ、それをもってしてその存在は知能あるいは意識を持っていると見なしていいのではないか』

と考えたらしい。

 彼の意見に沿えば、外界とのやりとりにおいて、チューリングテストに合格できるレベルであれば、「それはもう意識がある」とみなせることになるだろう。

(今回、私の論では「思考」はすでにできている、とした。それが「意識」かどうかまでは言及していない)


 もうすこし「意識」を内面的なものと考えるならば

「わたしはわたしですねん」

「わたしはここにおりまんねん」

ということを自覚できることが「意識」ということになろう。

 とすれば自然言語処理AIも、画像処理AIも、

「わたしはわたしであり、ここにいる」

ということは気づいていない。なので、意識はないと言える。


 もちろん、やりとり上の回答はシンプルに行える。次のように質問した。

 

『あなたは誰ですか』
『私はopenAIのトレーニングされた大型言語モデルであるChatGPTです』

 

 

という感じである。

 しかし、彼が「自分はなにものか」ということについては、考えてはいるわけではない。あらかじめ原簿データにある情報を、引っ張り出しているに過ぎないからだ。

 もうすこしダイレクトに尋ねてみた。感情についてである。

 

 


『あなたには感情がありますか?』
『いいえ、私は人工知能モデルであり、感情を持たないプログラムです。テキストに対する回答を生成することができますが、感情を感じることはできません』

 

 

 ……まあ、そうだろうな、という模範的回答が帰ってくる。


 さて、ここで中間まとめである。


■ AIは言語においてもイメージにおいても、ほぼ人間とおなじ「思考」ができる。もうすでに、その領域に到達している。

■ AIには「感情」がない。自分が何ものであるかという「意識」もない。


 ここまでは、十分わかった。


 ではいよいよ次回は、

「どうすればAIに感情や意識をもたせることができるのか」

について考えてみよう。


(つづく)

0 件のコメント:

コメントを投稿