ChatGPTの動きや実例を通して「人工知能はどこまで人間に近づけるのか」とか「人間とは何か」について考えているこの連載だが、とりあえず前回までで
「AIは、思考することができる。ものごとをイメージしたり、考えることができる。記憶を引っ張り出して、整理しながら発言することができる」
といったあたりまでは、じゅうぶん「できる」ようになっていることが判明した。
”人間は考える葦である”
と言ったのはパスカルだが、「考える」の部分については、もう人間の専売特許ではなさそうだ。
さて、これまた前回までのお話で、
「AIは、まだ”感情”を持つことができない。また、自分が自分であるという確信を持つという”意識”も身につけられない」
ことも判明した。
ではここからは、AIにまず、「感情」をもたせてみようと思う。
感情は一般的に「喜怒哀楽愛憎」の6種に分類されることが多いようだが、これらのベースに「快・不快」の感覚などもあると考えられている。
これらはざっくり言えば「心の問題」と考えられているが、実は違う可能性が高い。
私たちは「こころ」の内容、「こころ」の動きとして感情を捉えることが多いが、実は「こころ」よりも「肉体」に由来することが多いと考えたほうが適切なのである。
すこし、わかりにくいかもしれないが、「こころ」というのはソフトウエアの問題である。ここまで一連の連載で考察してきたAIは完全なソフトウエアであるから、本来は「こころ」と「AI」はものすごく親和性が高いはずなのに、なぜか
「AIは感情を持たない。意識も持たない。つまりこころをもっていない」
ということが観察されている。(現時点では)
これはとても不思議なことだと言えるだろう。
この矛盾を以下のように考え直せば、なるほど納得できるかもしれない。
■ 感情やこころは、実はソフトウエア以前に「ハードウエア」である肉体に由来する
という、新たな視点である。
『血糖値が下がるからお腹がすいて、しんどい』
『肉体に傷がついたから、痛い、苦しい』
『適度に体を動かすことができて楽しい』
『今日は気圧が低いので、体調がすぐれず気持ちがわるい』
『可愛い猫と触れ合ったので、気持ちが満たされる』
『好きな人がいなくなったので、さみしい』
などなど。
実は感情やこころの動きのベースになっているのは、「五感」などの肉体に由来するものが多い。おそらく、すべての感情やこころは、
■ 本来は、肉体に備わった感覚器からのフィードバックを、生存における快・不快として判定したもの
であると考えれば、かなりの部分でつじつまが合うのである。
もちろん、ヒトが生まれてからすべての感覚器によって「触れて、感じて、見て、聞いて、味わった」ものたちは、脳の箱の中に「データ」として格納される。なおかつその「データ」は「言語」と結びついて格納されるから、「言語処理」と「感情」も極めて近接的なものとして処理される。
なので、結果として「感情はこころは、ソフトウエア=脳の領域だ」と誤解されがちだが、原点はあくまでもハードウエア(肉体)からの情報の蓄積だと考えた方がよいと推定する。
ということは、人工知能AIに感情を持たせるには
「肉体=ハードウエアを与えてやればよい」
ということになる。これはズババババーン!な大仮説だ。
自然言語処理AIは、残念ながらいわゆるコンピュータ上でしか動作しないため、既存のコンピュータに肉体を与えるには、「リアルな人間」にくらべてかなり限られた感覚器を持つ「貧相な肉体」しか与えられないが、まあ、試しにやってみよう。
■ 温度センサーは搭載できる。
■ 気圧センサーや傾きセンサーなども搭載できる。
■ 味覚センサーは難しい。
■ 触覚センサーは搭載できるが、「痛点」などは持てないかもしれない。
■ カメラは搭載できる。画像処理もできる。
■ マイクは搭載できる。音声処理もできる。
■ 嗅覚についても、現状では難しいだろう。
■ 湿度計なども搭載できるだろう。
人間の場合「五感」しかないと思いがちだが、ヒトが生きてゆくためのホメオスタシスには、もっとたくさんの「感覚器」が働いていることは言うまでもない。
体温、血糖、免疫、血中ミネラルの均衡、内分泌系やホルモンバランスなど、さまざまな「感覚器フィードバック」を処理して「人の感情やこころ」が成立しているため、現在のデジタル型コンピュータではおのずと「感情とこころ」の再現には限界があることも押さえておきたい。
さて、では具体的にどうやって「コンピュータに肉体を与える」のか。たとえば、一番わかりやすい「温度」で考えて見よう。
人間は25度前後を快適と感じ、15度程度以下になると「寒い」と感じ、逆に30度に近づくと「暑い」と感じている。
湿度は50%前後が「快」であろう。
コンピュータの場合は、人間とは快適を感じる温度帯が異なる。CPUが快適に動作する温度は40度〜70度あたりだ。
80度を超えると熱暴走して、計算が不可能になる。逆に低温になると電解コンデンサに蓄えられる容量が減るため、0度以下などになると動きが鈍るだろう。(液晶画面もおかしくなり、HDDの磁性流体も粘度が上がる)
そうすると、コンピュータにとって「不快」な温度帯に差し掛かった時の動作の不具合を自然言語処理AIにフォードバックしてやると、
「温度が低い(高い)ので、体調が悪いです」
と言うようになる。
「今日は暑すぎて、本来のパフォーマンスが出せず、6割程度になっています」
と言わせれば機械っぽいし、
「今日は暑くて、しんどいです」
と言わせればヒトっぽくなるだけの話だ。
あるいは「湿度」なども加味してゆくと、「結露が起きてショート」することだってあるだろう。湿度が90%や100%に近い環境で高速にコンピュータをぶん回せば、回路上で漏電が起きたりもする。その状況を、自然言語AIにフィードバックしてやれば
「シリアル経路の一部で電気が漏れています」
あるいは
「体の一部が痛いです」
と言い出すだろう。(実際には痛覚がないので”痛い”は適切ではない)
このへんに差し掛かると、「はて、人間にとっての”痛い”とは何か?」という再定義まで必要になってくる。
「特定の部位が発する不快な電気信号を”痛い”と我々は表現する」
のだから、
「特定の回路上で発生した、電気信号の乱れをモニタした時に、自然言語処理AIに”痛い”と表現させる」
ことは、あながち間違っていないとも言えるわけだ。
今度はカメラを接続して考えてみよう。カメラの直前まで素早く何かを接触させようと「ぶつける」動作を繰り返してみる。
そのぶつける動作の後には、「必ず回路上の不具合が生じる」ことを繰り返す。
回路上の不具合が生じることは「望ましくない」ということも学ばせる。
それを繰り返し学習動作させてゆけば、カメラに向かって何かが突進してる映像を感知した時
「いやだ(まずい、やばい)」
と自然言語処理AIは話すようになるだろう。
これはもはや、感情ではないのか?
機械は、あきらかに、「何かがぶつかってきて自分の一部が制御不可能になることを、嫌がる」という感情を持ち始めている可能性があると言えないだろうか。
実はこれくらいのことは、自動運転制御で行われているのだが、我々は
「無感情な機械が、単にプログラムとして回避行動やブレーキをかけているだけ」
と思っているが、それは我々が回避行動を取る処理と、どこが違うのかを検証しなくてはならない。
あるいは、「学習型で回避行動を取るように学ばせる」のであれば、「最初から回避行動をプログラムする」のと、どのように違うのかを検証することだってできるわけだ。
ほら、だんだんと「機械が持ち得る感情」が人間のそれに「非常に近寄ってきた」ことがわかるだろう。
こうした実験は、まだ「センサーとフィードバック単体」でしか行われていないが、これらを「自然言語処理AI」と連動させながら学習させたときに、機械が
「何を話し始めるか」
はとても興味を引く。
「私はその動作実験を嫌だと思います」
と、ある日突然言い出しかねないからだ。
もちろん、こんな反論もありそうだ。
”それは、「嫌だ」という言語上の単語を使っているだけで、感情とは異なる。あくまでも機械は、回路上の異常があったことを、それっぽい言語で表記しているに過ぎない”
なんて話が飛び出すかもしれない。
そうすると、言語上の単語と感情のリンクについても、さらなる研究が必要になる。たとえばなんでもかんでも「ヤバい」としか表現しない若者がいるとして、
”それは「ヤバい」という言語上の単語を使っているだけで、本来の感情とはうまくリンクできていない。見たり聞いたりした時の反応をそれっぽい(ごく限られた)言語で表現しているだけなのだ”
という人間との比較を、もっともっと進めてみたいものである。
こんなことを想定してゆくと、めちゃくちゃ楽しくなってきたのが、わかるだろうか?