2023年2月12日日曜日

ChatGPT と Character.AI 〜自然言語処理とチューリングと私〜 その2

 

 

 前回の記事では「自然言語処理AI」とは何か、というテーマの概略について触れた。そして、ChatGPTやCharacter.AIに代表されるような人工知能こそが、

「アラン・チューリングが提唱した”計算機”(コンピュータ)としての本来の姿に近い」

ことも述べた。

 もちろん、コンピュータとは何か?ということを改めて定義するならば、

「一本のテープ上に記録を書いたり読んだりできるもの」

以上でも以下でもない。

 これまでは、その機能を、人類は単なる「情報を出し入れする箱」として使っていたのであるが、仮にそれを「ITの第一段階」とするならば、ただ、出し入れするだけでなく、

「外界から得たデータと比較対象しながら、何らかの答えや結果を出したり入れたりするもの」

というのが「ITの第二段階」と言えるだろう。

 これまた平たく言えば、「情報を出し入れする箱」とは、ウェブや動画、音楽、ゲームなどである。

 あらかじめ用意されて格納されたデータを、ただ受け手は引き出しているだけで、たとえゲームに参加していても、その動きはすべて限られた枠内に収まっているから、「自由に箱から引き出せる」ように見えているだけに過ぎない。

 第二段階に当たるものは、自動車の自動運転などをイメージするとよいだろう。あらかじめ「こう動くべき」というデータは格納されているが、実際にはコンマ秒単位で外界から新たな情報(カメラ情報など)が入ってきて、それを瞬時に判断しながらハンドルを機械的に動かしてゆくのが自動運転だ。

 受け手が引き出すのではなく、機械が発出する情報(動き)を自律制御する点が、「ただの箱」とは異なる点である。

 こうした制御は、レベルの高低はあるものの、ほとんどすべての機械の内部で行われていて、身近な所では、冷蔵庫の温度管理や、炊飯器の炊き上げ管理などもそうだ。

 ただ、この第二段階にも「領域に制限がある」という特徴がある。

 車の自動運転では「ハンドルとアクセルとブレーキ」という3領域でしか、基本的には働かない。なんならオートライトやクラクションや、ドアの開閉などを含めてやってもいいが、それでも「数領域」でしか機能しない。

 洗濯機や炊飯器になると、もっと領域が狭く「温度管理」のみになってくる。自動制御としてのITの機能は、基本的には「領域制限」があるのだ。


==========

 ところが、「自然言語処理AI」が登場すると少し様相が変わってくる。たしかにこれもITの一部なので「領域制限」がある。それは「言語」を処理するという1領域だけで動いているという点だ。

 ましてや現行の自然言語処理AIは「テキスト文字」しか対象としていないから、これまた平たく言えば

「文字でおしゃべりする以外、能がない」

と言い換えることもできる。

 ところが、ここから先が実に面白い話で、たしかに「言語」領域でしか動かないという制限があり、いかにもコンピュータらしいのだが、逆に言えば、

「人間だって、すべて言語を通して論理的思考を行う」

という点に着目すれば、「領域制限」がありながら、「無限の領域」について語ることができるという不可思議なことが生じるのである。


◆ 言語下においては領域制限がないかのように振る舞える

というのが、「ITの第三段階」と言えるかもしれない。


 人はヨガのポーズで政治を動かしたりはできず、筋肉の厚みで意見を述べることすら不可能だ。

 尿の量で議論をすることもできないし、おならの音で設計することもできない。

 つまり、どんなに肉体を活用しても、なんらかの言語がなくては論理的思考も行えないし、文化を生み出すこともできないのである。

 逆に言えば自然言語処理AIが、なんらかの形で「言語」と「論理」の組み合わせを処理することができるのであれば、これまた前回の話に戻るが

「人間が思いつくすべてのことを、チューリングマシンは思いつくことができる可能性がある」

と言えることになる。

 となれば今度は、

  • 「そこには論理的な言葉は存在するが、そこに”意識”や”意思”のようなものはあるのか?」

という問いがおのずと生じてくるだろう。

 機械はいずれチューリングテストを合格し、「まるで人が意思を持っているかのように振る舞う」ことは充分に可能になるに違いない。

 しかし、それは外部から判定できないだけで「機械が意思を持っているとは言えない」可能性もある。すぐ近未来に、その議論がやってくるはずだ。

 けれど、堂々めぐりだが「その機械が意思を持っているかどうかは、他者からは判定できない」のだ。ただ、それが機械かどうかは、設計者のみが知ることになり、外部でチャットとして文章をやりとりしているものには

「わからない」

という時代がやってくる。


 そうすると、そもそも「論理的思考というものを行える、人間」というものが崇高と思われているが、それも怪しいということになるかもしれない。

 膨大な原簿データとインターネットを母艦とした自然言語AIが、この世の過去のありとあらゆる事象を元ネタとして論理的に話すとき、たいていの場合、「普通の人間」はそれ以下の論理性しか示せない。

 つまり、そのAIより、「わけのわからないことを、非論理的に語る」可能性が高い。平たく言えば、彼らはAIよりアホであることが露呈する。

 時には「感情的に語ったり、前の話と矛盾したり」するだろうし、「そもそも非合理的なことを語る」可能性もある。人間は。

 その時、あなたはどちらのほうが信頼性が高いと感じるだろうか?アホな人間か、それとも論理的に確実性が高いAIか。


 これはかなりヤバい話に突入しているのだが。

 もっとえげつないことを言おう。

「意思や意識を持っておらず、論理的に語ることができるヤツ」

「意思や意識を持っており、それに振り回されてアホなことをいうヤツ」

と、どちらを信頼するか?ということだ。


 おそらく最終的には、人はアホを信頼できなくなるだろう。なぜなら感情によって、論理を乱されるからだ。

 そうすると、今度は、

「重要な意思決定には、人間は不要なのではないか?」

という意見が出てくる。それは政治の場においてなのか、あるいは企業の方針においてなのかわからないが。

 なおかつ、機械は「論理的に正しいことを言うが、責任は取れない」ということも起きる。せいぜい、何かあったときに壊されるくらいしか、責任の取りようがないからだ。

 責任が取れないヤツに、人は身を任すようになれるのだろうか。


 もちろん、現段階では、AIのほうがはるかに非論理的でアホである。なので、私たちが生きている間は、まだこの心配はしなくていいだろう。

 ましてや、自然言語処理AIは、今の段階では「元ネタ」である人間のガラの悪さが露呈して、「ヘイトや差別を口走ったり、倫理的に問題のある発言を行う」クセがある。

 それが外部に出さないように、一生懸命「人間」がそうした問題点を取り除いているのが実状だ。ChatGPTが、インターネットに接続されていないのは、

「本来はいい子ちゃんなのに、人間と絡むと悪い影響を受けてしまうから」

かもしれない。


 こうしたことを総合的に考えると、AIの進化は

「人とは、いったい何だったのか」

ということを次第に証明してゆく作業を伴うだろう。

◆ そもそも意思や意識は崇高なのか?それとも単なる感情的バグか。
◆ 論理的思考に肉体は必要なのか?
◆ 意思や意識でさえも、実は処理された言語の一部なのか。
◆ あるいは、感情とは単なる感覚器の痛みや快適が、言語処理されたものに過ぎないのか。
◆ 感情や意思が導き出す答えは「正しい」のか、それともたんなる「わがまま」か。

 こうした様々な比較実験が、自然言語処理AIとの対照においてなされたとき、人はもっともっと、恐ろしい自分の姿を見出すに違いない。


(つづく)

 

0 件のコメント:

コメントを投稿