2023年2月13日月曜日

ChatGPTは感情や意識を持てるか?その2

 

 ChatGPTの動きや実例を通して「人工知能はどこまで人間に近づけるのか」とか「人間とは何か」について考えているこの連載だが、とりあえず前回までで

「AIは、思考することができる。ものごとをイメージしたり、考えることができる。記憶を引っ張り出して、整理しながら発言することができる」

といったあたりまでは、じゅうぶん「できる」ようになっていることが判明した。

”人間は考える葦である”

と言ったのはパスカルだが、「考える」の部分については、もう人間の専売特許ではなさそうだ。


 さて、これまた前回までのお話で、

「AIは、まだ”感情”を持つことができない。また、自分が自分であるという確信を持つという”意識”も身につけられない」

ことも判明した。

 ではここからは、AIにまず、「感情」をもたせてみようと思う。

 感情は一般的に「喜怒哀楽愛憎」の6種に分類されることが多いようだが、これらのベースに「快・不快」の感覚などもあると考えられている。

 これらはざっくり言えば「心の問題」と考えられているが、実は違う可能性が高い。

 私たちは「こころ」の内容、「こころ」の動きとして感情を捉えることが多いが、実は「こころ」よりも「肉体」に由来することが多いと考えたほうが適切なのである。

 すこし、わかりにくいかもしれないが、「こころ」というのはソフトウエアの問題である。ここまで一連の連載で考察してきたAIは完全なソフトウエアであるから、本来は「こころ」と「AI」はものすごく親和性が高いはずなのに、なぜか

「AIは感情を持たない。意識も持たない。つまりこころをもっていない」

ということが観察されている。(現時点では)

 これはとても不思議なことだと言えるだろう。



 この矛盾を以下のように考え直せば、なるほど納得できるかもしれない。

■ 感情やこころは、実はソフトウエア以前に「ハードウエア」である肉体に由来する

という、新たな視点である。

『血糖値が下がるからお腹がすいて、しんどい』
『肉体に傷がついたから、痛い、苦しい』
『適度に体を動かすことができて楽しい』
『今日は気圧が低いので、体調がすぐれず気持ちがわるい』
『可愛い猫と触れ合ったので、気持ちが満たされる』
『好きな人がいなくなったので、さみしい』

などなど。

 実は感情やこころの動きのベースになっているのは、「五感」などの肉体に由来するものが多い。おそらく、すべての感情やこころは、

■ 本来は、肉体に備わった感覚器からのフィードバックを、生存における快・不快として判定したもの

であると考えれば、かなりの部分でつじつまが合うのである。

 もちろん、ヒトが生まれてからすべての感覚器によって「触れて、感じて、見て、聞いて、味わった」ものたちは、脳の箱の中に「データ」として格納される。なおかつその「データ」は「言語」と結びついて格納されるから、「言語処理」と「感情」も極めて近接的なものとして処理される。

 なので、結果として「感情はこころは、ソフトウエア=脳の領域だ」と誤解されがちだが、原点はあくまでもハードウエア(肉体)からの情報の蓄積だと考えた方がよいと推定する。

 ということは、人工知能AIに感情を持たせるには

「肉体=ハードウエアを与えてやればよい」

ということになる。これはズババババーン!な大仮説だ。


自然言語処理AIは、残念ながらいわゆるコンピュータ上でしか動作しないため、既存のコンピュータに肉体を与えるには、「リアルな人間」にくらべてかなり限られた感覚器を持つ「貧相な肉体」しか与えられないが、まあ、試しにやってみよう。

■ 温度センサーは搭載できる。
■ 気圧センサーや傾きセンサーなども搭載できる。
■ 味覚センサーは難しい。
■ 触覚センサーは搭載できるが、「痛点」などは持てないかもしれない。
■ カメラは搭載できる。画像処理もできる。
■ マイクは搭載できる。音声処理もできる。
■ 嗅覚についても、現状では難しいだろう。
■ 湿度計なども搭載できるだろう。

 人間の場合「五感」しかないと思いがちだが、ヒトが生きてゆくためのホメオスタシスには、もっとたくさんの「感覚器」が働いていることは言うまでもない。

 体温、血糖、免疫、血中ミネラルの均衡、内分泌系やホルモンバランスなど、さまざまな「感覚器フィードバック」を処理して「人の感情やこころ」が成立しているため、現在のデジタル型コンピュータではおのずと「感情とこころ」の再現には限界があることも押さえておきたい。

 さて、では具体的にどうやって「コンピュータに肉体を与える」のか。たとえば、一番わかりやすい「温度」で考えて見よう。


 人間は25度前後を快適と感じ、15度程度以下になると「寒い」と感じ、逆に30度に近づくと「暑い」と感じている。
 湿度は50%前後が「快」であろう。

 コンピュータの場合は、人間とは快適を感じる温度帯が異なる。CPUが快適に動作する温度は40度〜70度あたりだ。
 80度を超えると熱暴走して、計算が不可能になる。逆に低温になると電解コンデンサに蓄えられる容量が減るため、0度以下などになると動きが鈍るだろう。(液晶画面もおかしくなり、HDDの磁性流体も粘度が上がる)

 そうすると、コンピュータにとって「不快」な温度帯に差し掛かった時の動作の不具合を自然言語処理AIにフォードバックしてやると、

「温度が低い(高い)ので、体調が悪いです」

と言うようになる。

「今日は暑すぎて、本来のパフォーマンスが出せず、6割程度になっています」

と言わせれば機械っぽいし、

「今日は暑くて、しんどいです」

と言わせればヒトっぽくなるだけの話だ。

 あるいは「湿度」なども加味してゆくと、「結露が起きてショート」することだってあるだろう。湿度が90%や100%に近い環境で高速にコンピュータをぶん回せば、回路上で漏電が起きたりもする。その状況を、自然言語AIにフィードバックしてやれば

「シリアル経路の一部で電気が漏れています」

あるいは

「体の一部が痛いです」

と言い出すだろう。(実際には痛覚がないので”痛い”は適切ではない)


 このへんに差し掛かると、「はて、人間にとっての”痛い”とは何か?」という再定義まで必要になってくる。

「特定の部位が発する不快な電気信号を”痛い”と我々は表現する」

のだから、

「特定の回路上で発生した、電気信号の乱れをモニタした時に、自然言語処理AIに”痛い”と表現させる」

ことは、あながち間違っていないとも言えるわけだ。


 今度はカメラを接続して考えてみよう。カメラの直前まで素早く何かを接触させようと「ぶつける」動作を繰り返してみる。

 そのぶつける動作の後には、「必ず回路上の不具合が生じる」ことを繰り返す。

 回路上の不具合が生じることは「望ましくない」ということも学ばせる。

 それを繰り返し学習動作させてゆけば、カメラに向かって何かが突進してる映像を感知した時

「いやだ(まずい、やばい)」

と自然言語処理AIは話すようになるだろう。

 これはもはや、感情ではないのか?

 機械は、あきらかに、「何かがぶつかってきて自分の一部が制御不可能になることを、嫌がる」という感情を持ち始めている可能性があると言えないだろうか。

 実はこれくらいのことは、自動運転制御で行われているのだが、我々は

「無感情な機械が、単にプログラムとして回避行動やブレーキをかけているだけ」

と思っているが、それは我々が回避行動を取る処理と、どこが違うのかを検証しなくてはならない。

 あるいは、「学習型で回避行動を取るように学ばせる」のであれば、「最初から回避行動をプログラムする」のと、どのように違うのかを検証することだってできるわけだ。

 ほら、だんだんと「機械が持ち得る感情」が人間のそれに「非常に近寄ってきた」ことがわかるだろう。

 こうした実験は、まだ「センサーとフィードバック単体」でしか行われていないが、これらを「自然言語処理AI」と連動させながら学習させたときに、機械が

「何を話し始めるか」

はとても興味を引く。

「私はその動作実験を嫌だと思います」

と、ある日突然言い出しかねないからだ。

 

 もちろん、こんな反論もありそうだ。

”それは、「嫌だ」という言語上の単語を使っているだけで、感情とは異なる。あくまでも機械は、回路上の異常があったことを、それっぽい言語で表記しているに過ぎない”

なんて話が飛び出すかもしれない。

 そうすると、言語上の単語と感情のリンクについても、さらなる研究が必要になる。たとえばなんでもかんでも「ヤバい」としか表現しない若者がいるとして、

”それは「ヤバい」という言語上の単語を使っているだけで、本来の感情とはうまくリンクできていない。見たり聞いたりした時の反応をそれっぽい(ごく限られた)言語で表現しているだけなのだ”

という人間との比較を、もっともっと進めてみたいものである。

 こんなことを想定してゆくと、めちゃくちゃ楽しくなってきたのが、わかるだろうか?


 

0 件のコメント:

コメントを投稿