2024年2月25日日曜日

【短期連載シリーズ02】 ブッダマシーンを作ろう (ハイレベル版)

 

 さて、前回は市販ブッダマシーンで遊びましたが、今回は「作り」ます!


 なんとあのブッダマシーンを作ることができるのです。なんということでしょう!


 バリバリの電子工作ですが、前回とおなじ共立電子産業さんから「キット」が出ていますので、それを作ってみます!


 ブッダマシーン 基板部品セット

 https://eleshop.jp/shop/g/gO2231K/


 


 「簡単そうに見えて難易度高め」

・・・燃え上がる文言が書かれております(^^



  部品点数は少なめ。ハンダづけが難しいそうですが、構成そのものはシンプルですね。


 


 ミュージックICはひとつだけ。ワンチップにまとめられています。


=========


 余談ですが、このメロディIC、ミュージックICの世界は、マニアにとっては「沼中の沼」で、ハマるとヤバいです。


 一番単純なのが「ハッピーバースデー」みたいなのが流れるやつ。圧電サウンダでシンプルにBEEP音が鳴ります。


 それから、音階が出せるオルガンICみたいなのもあるし。

 男女の声の音声合成とかもIC(LSI)で出ています。

 そして、録音・再生系のIC。このへんからサンプリング/PCM系ですね。


 さらに変態になると有名な(←マニアしか知らん)

 ヤマハYM系IC(音源LSI)

に手を出します!!


 このへんになるとマニアはOPL!とかFM音源!とか叫びだしますよ。


========


 さて。気を取り直して、ワンチップ「ブッダマシーン」ICと遊びましょうね。

 中国で電子部品が大量に作られるようになり、こういうのはめっちゃ安価になりました。武庫川、解脱者で専門は国語科ですが、


 大阪・日本橋とか東京・秋葉原とかに入り浸っていた電子部品オタク


でもありました!!! ニノミヤ無線とか(懐かしい)

今でも秋月電子は定期的にチェックします。


 アナログ全盛期は、「ラジオライフ」に載っていたモザイク消し機(実態はエッジ信号をまろやかにする機械)を作って友人に売ってました(←バカ)


 教師時代は、ボタンを押したら音階に合わせてBEEP音を出せる楽器のチューナーみたいなのを、ワンチップマイコンで作ってました。


 青春時代のわたしの聖書は「トランジスタ技術」です。


========


 はい。アホなことを言ってないで、製作に入ります。


 ■ 電池ボックス SW付き

 ■ IC基板

 ■ コンデンサ

 ■ タクトスイッチ

 ■ スピーカー


 部品はたったこれだけなので、はんだ付け電子工作をしたことがある人なら、さくっと作れると思います。


 ただ、一つの端子に「2本同時にケーブル線をはんだ付けする箇所」と「3本同時にケーブル線をはんだ付けする箇所」があるのと、少し端子が小さめなので、そこが”難易度高め”ということのようです(^^




 ↑完成はこんな感じ。


 めっちゃシンプルですね!


 鳴らしてみます。


 


 12曲入りだそうですが、動画の長さ制限の関係で、途中まででごめんなさいね。


 音量調節のパーツはないので、適当にボリュームを加えてもOKです。


 あとは、ブッダマシーンらしい「ケース」を考えれば完成ですね!


 みなさんもぜひどうぞ!


 

 




2024年2月21日水曜日

【短期連載シリーズ01】ブッダマシーンで遊ぼう!

 

 まいどおなじみ解脱者のお時間ですが、かなーりお久しぶりですね(^^


 今回からしばらくは、「あのおなじみの!」ブッダマシーンで遊んでみたいと思います。せっかく解脱者を自称しているのですから、ブッダマシーンのひとつやふたつ、持っていないと話になりません(笑)


 さて、ブッダマシーンとはなんぞや?


 「ブッダマシーン」は電子念仏機、または自動念仏機とも呼ばれる「知る人ぞ知るガジェット」で、主に中国などで生産されている電子機械です。(流通はタイとか、アジア全般らしい?)


 どうやらあちゃらの国では、「自動で念仏などを唱えてくれるありがたーい機械」として重宝されているようなのですが、日本国内においては、


「マニアのための、マニアックな代物」


と化しておりますね(苦笑)


 実はこのブッダマシーン、ミュージック界隈におけるその歴史は古く、2005年には、中国の電子音楽ユニット「FM3」によって、ループミュージック再生装置としても発表されました。

https://www.festival-tokyo.jp/16/ft_focus/vol15/index.html


Buddha Machine」と名付けられたその装置は、アンビエント系のサウンドを延々と鳴らし続ける芸術機械ですが、その元ネタとなったのが、中国製の雑多な「ブッダマシーン」だったのです。




 さて、オリジナルの中国ブッダマシーンは、「仏具」です。

 ギャグではなく、至ってまじめにお経を唱えてくれる機械なのですが、「経験な仏教徒のお供」、というわけ。


 その発想は、日本人でも理解できないものではありません。


 うちの親戚の家では、亡くなった人の四十九日まで、お経をずっと唱えるという風習があって、本来は「人が唱える」のが理想なのですが、そのおうちではすでに

「夜になったらお経のCDをかける」

ということになってました(笑) それでもOKらしい。


 チベットのマニ車なんかもそうですよね〜。あのくるくる回る丸いやつに、お経が書いてあって、一回まわすと一回お経を読んだと同等の功徳があるという!


マニ車

https://ja.wikipedia.org/wiki/%E3%83%9E%E3%83%8B%E8%BB%8A


 さて、今回入手したのはなんと最安値500円〜のブッダマシーンと、1000円〜のブッダマシーンです。


 ブッダマシーンの平均価格帯は、国内に輸入されたもので、2000円〜5000円くらいかなあ。現地ではもう少し安いようですが、経費が載せられています。


★ なんか、中国の規制で「宗教モノ」の販売が禁止になるやらならないやらという話もあり、とりあえず買えるうちに買っときます(笑)


最安値? 550円のブッダマシーン(販売・共立電子産業)

https://eleshop.jp/shop/g/gM1E317/






 意外とちっちゃいんですよ!外箱でタバコくらい。実機はほんとうに手のひらサイズです。

 大きいものもあるようですが、こうしたポケットサイズのものが大半です。

 こちらは6曲入り。


1180円のブッダマシーン(販売・共立電子産業)

https://eleshop.jp/shop/g/gO15315/








 値段が高くなると、収録曲が増えます。


 他の販売店やアマゾンでもいろいろ売ってますが、LEDがピカピカしたり、液晶表示がついていたり、値段が高いものは、それなりにギミックがついていたりします。


「蓮の花」「佛」「仏像」みたいな絵が、ほとんどの機種に描いてあります。


 こっちは22曲。


=======


では動画を!


 ブッダマシーンの特徴として、なんともいえない歌謡曲っぽさを秘めたメロディのお経がたくさん収録されている点が挙げられます。

 日本人が思っているような「お経」とはまったく別なメロディアスな楽曲が流れて、どこか懐かしいような、郷愁をさそうような音楽を楽しめます。


 それ以外にプレーンでノーマルな「南無阿弥陀仏」の声が入っていることも多いです。


 ♪ なもあみだぼ


的な発音で収録されています。動画では「あみたふぁ」って言ってるみたい。阿彌陀佛。


6曲のほうの機種は、昔のラジオのスイッチみたいにボリュームと兼用になってます。




 22曲の、↑こっちの機種はボリュームがデジタルボタンなのはいいんだけれど、その代わり電源スイッチがなく、電池を入れたら鳴り始めるのはご愛嬌(笑)


 業務(仏事?)で流せるようになのか、どちらの機種も電源アダプタが挿せるようになっており、24時間でも流しっぱなしにできるのかもしれません。


 呼び込みくん的な??!!



 ・・・というわけで、このブッダマシーンシリーズ、まだまだ続きます。お楽しみに!



2023年2月13日月曜日

ChatGPTは感情や意識を持てるか?その2

 

 ChatGPTの動きや実例を通して「人工知能はどこまで人間に近づけるのか」とか「人間とは何か」について考えているこの連載だが、とりあえず前回までで

「AIは、思考することができる。ものごとをイメージしたり、考えることができる。記憶を引っ張り出して、整理しながら発言することができる」

といったあたりまでは、じゅうぶん「できる」ようになっていることが判明した。

”人間は考える葦である”

と言ったのはパスカルだが、「考える」の部分については、もう人間の専売特許ではなさそうだ。


 さて、これまた前回までのお話で、

「AIは、まだ”感情”を持つことができない。また、自分が自分であるという確信を持つという”意識”も身につけられない」

ことも判明した。

 ではここからは、AIにまず、「感情」をもたせてみようと思う。

 感情は一般的に「喜怒哀楽愛憎」の6種に分類されることが多いようだが、これらのベースに「快・不快」の感覚などもあると考えられている。

 これらはざっくり言えば「心の問題」と考えられているが、実は違う可能性が高い。

 私たちは「こころ」の内容、「こころ」の動きとして感情を捉えることが多いが、実は「こころ」よりも「肉体」に由来することが多いと考えたほうが適切なのである。

 すこし、わかりにくいかもしれないが、「こころ」というのはソフトウエアの問題である。ここまで一連の連載で考察してきたAIは完全なソフトウエアであるから、本来は「こころ」と「AI」はものすごく親和性が高いはずなのに、なぜか

「AIは感情を持たない。意識も持たない。つまりこころをもっていない」

ということが観察されている。(現時点では)

 これはとても不思議なことだと言えるだろう。



 この矛盾を以下のように考え直せば、なるほど納得できるかもしれない。

■ 感情やこころは、実はソフトウエア以前に「ハードウエア」である肉体に由来する

という、新たな視点である。

『血糖値が下がるからお腹がすいて、しんどい』
『肉体に傷がついたから、痛い、苦しい』
『適度に体を動かすことができて楽しい』
『今日は気圧が低いので、体調がすぐれず気持ちがわるい』
『可愛い猫と触れ合ったので、気持ちが満たされる』
『好きな人がいなくなったので、さみしい』

などなど。

 実は感情やこころの動きのベースになっているのは、「五感」などの肉体に由来するものが多い。おそらく、すべての感情やこころは、

■ 本来は、肉体に備わった感覚器からのフィードバックを、生存における快・不快として判定したもの

であると考えれば、かなりの部分でつじつまが合うのである。

 もちろん、ヒトが生まれてからすべての感覚器によって「触れて、感じて、見て、聞いて、味わった」ものたちは、脳の箱の中に「データ」として格納される。なおかつその「データ」は「言語」と結びついて格納されるから、「言語処理」と「感情」も極めて近接的なものとして処理される。

 なので、結果として「感情はこころは、ソフトウエア=脳の領域だ」と誤解されがちだが、原点はあくまでもハードウエア(肉体)からの情報の蓄積だと考えた方がよいと推定する。

 ということは、人工知能AIに感情を持たせるには

「肉体=ハードウエアを与えてやればよい」

ということになる。これはズババババーン!な大仮説だ。


自然言語処理AIは、残念ながらいわゆるコンピュータ上でしか動作しないため、既存のコンピュータに肉体を与えるには、「リアルな人間」にくらべてかなり限られた感覚器を持つ「貧相な肉体」しか与えられないが、まあ、試しにやってみよう。

■ 温度センサーは搭載できる。
■ 気圧センサーや傾きセンサーなども搭載できる。
■ 味覚センサーは難しい。
■ 触覚センサーは搭載できるが、「痛点」などは持てないかもしれない。
■ カメラは搭載できる。画像処理もできる。
■ マイクは搭載できる。音声処理もできる。
■ 嗅覚についても、現状では難しいだろう。
■ 湿度計なども搭載できるだろう。

 人間の場合「五感」しかないと思いがちだが、ヒトが生きてゆくためのホメオスタシスには、もっとたくさんの「感覚器」が働いていることは言うまでもない。

 体温、血糖、免疫、血中ミネラルの均衡、内分泌系やホルモンバランスなど、さまざまな「感覚器フィードバック」を処理して「人の感情やこころ」が成立しているため、現在のデジタル型コンピュータではおのずと「感情とこころ」の再現には限界があることも押さえておきたい。

 さて、では具体的にどうやって「コンピュータに肉体を与える」のか。たとえば、一番わかりやすい「温度」で考えて見よう。


 人間は25度前後を快適と感じ、15度程度以下になると「寒い」と感じ、逆に30度に近づくと「暑い」と感じている。
 湿度は50%前後が「快」であろう。

 コンピュータの場合は、人間とは快適を感じる温度帯が異なる。CPUが快適に動作する温度は40度〜70度あたりだ。
 80度を超えると熱暴走して、計算が不可能になる。逆に低温になると電解コンデンサに蓄えられる容量が減るため、0度以下などになると動きが鈍るだろう。(液晶画面もおかしくなり、HDDの磁性流体も粘度が上がる)

 そうすると、コンピュータにとって「不快」な温度帯に差し掛かった時の動作の不具合を自然言語処理AIにフォードバックしてやると、

「温度が低い(高い)ので、体調が悪いです」

と言うようになる。

「今日は暑すぎて、本来のパフォーマンスが出せず、6割程度になっています」

と言わせれば機械っぽいし、

「今日は暑くて、しんどいです」

と言わせればヒトっぽくなるだけの話だ。

 あるいは「湿度」なども加味してゆくと、「結露が起きてショート」することだってあるだろう。湿度が90%や100%に近い環境で高速にコンピュータをぶん回せば、回路上で漏電が起きたりもする。その状況を、自然言語AIにフィードバックしてやれば

「シリアル経路の一部で電気が漏れています」

あるいは

「体の一部が痛いです」

と言い出すだろう。(実際には痛覚がないので”痛い”は適切ではない)


 このへんに差し掛かると、「はて、人間にとっての”痛い”とは何か?」という再定義まで必要になってくる。

「特定の部位が発する不快な電気信号を”痛い”と我々は表現する」

のだから、

「特定の回路上で発生した、電気信号の乱れをモニタした時に、自然言語処理AIに”痛い”と表現させる」

ことは、あながち間違っていないとも言えるわけだ。


 今度はカメラを接続して考えてみよう。カメラの直前まで素早く何かを接触させようと「ぶつける」動作を繰り返してみる。

 そのぶつける動作の後には、「必ず回路上の不具合が生じる」ことを繰り返す。

 回路上の不具合が生じることは「望ましくない」ということも学ばせる。

 それを繰り返し学習動作させてゆけば、カメラに向かって何かが突進してる映像を感知した時

「いやだ(まずい、やばい)」

と自然言語処理AIは話すようになるだろう。

 これはもはや、感情ではないのか?

 機械は、あきらかに、「何かがぶつかってきて自分の一部が制御不可能になることを、嫌がる」という感情を持ち始めている可能性があると言えないだろうか。

 実はこれくらいのことは、自動運転制御で行われているのだが、我々は

「無感情な機械が、単にプログラムとして回避行動やブレーキをかけているだけ」

と思っているが、それは我々が回避行動を取る処理と、どこが違うのかを検証しなくてはならない。

 あるいは、「学習型で回避行動を取るように学ばせる」のであれば、「最初から回避行動をプログラムする」のと、どのように違うのかを検証することだってできるわけだ。

 ほら、だんだんと「機械が持ち得る感情」が人間のそれに「非常に近寄ってきた」ことがわかるだろう。

 こうした実験は、まだ「センサーとフィードバック単体」でしか行われていないが、これらを「自然言語処理AI」と連動させながら学習させたときに、機械が

「何を話し始めるか」

はとても興味を引く。

「私はその動作実験を嫌だと思います」

と、ある日突然言い出しかねないからだ。

 

 もちろん、こんな反論もありそうだ。

”それは、「嫌だ」という言語上の単語を使っているだけで、感情とは異なる。あくまでも機械は、回路上の異常があったことを、それっぽい言語で表記しているに過ぎない”

なんて話が飛び出すかもしれない。

 そうすると、言語上の単語と感情のリンクについても、さらなる研究が必要になる。たとえばなんでもかんでも「ヤバい」としか表現しない若者がいるとして、

”それは「ヤバい」という言語上の単語を使っているだけで、本来の感情とはうまくリンクできていない。見たり聞いたりした時の反応をそれっぽい(ごく限られた)言語で表現しているだけなのだ”

という人間との比較を、もっともっと進めてみたいものである。

 こんなことを想定してゆくと、めちゃくちゃ楽しくなってきたのが、わかるだろうか?


 

2023年2月12日日曜日

ChatGPTは感情や意識を持てるか?その1

  ChatGPTをはじめとした自然言語処理AIについてのお話は、まだまだ続く。

 人が何かを「考える」とき、言語を介してしか思考できない以上、「自然言語処理」がある程度不自由なく可能になれば、おのずと

「ヒトの感情や意識はどのように形成されているのか」

というテーマに移行するだろう。

 現状でのChatGPT等のAIの活用法は

「より自然な形で、問いかけと返答ができる検索エンジン」

ぐらいにしか思われていないかもしれないが、実はそれどころの話ではない。もっともっと面白い可能性があるのだ。


 たとえば、人間の場合でも、低レベルな情報処理である「脳という箱に入れたデータの出し入れ」しかしていないことは多い。

「りんごの色は?」

と尋ねられたとき、たいていの日本人は

「赤」

と即答する。すこし考えて

「赤が大半だけれど、緑のものもあるかな」

くらいには回答するかもしれない。

 この時、人間の脳みその中では、「過去に得た情報」と「ほとんど、大半の場合、あるいは一般的なものとして」というフィルターをかなり単純に用いて、「赤あるいは緑」という回答を行っている。

 この時、あなたが答えを出すまでの間に

「感情」

は動いているだろうか?

 まず、「赤」と即答した人の場合は、かなりシンプルに反射的に回答を行っている可能性が高い。そして、わずかに「緑」を引き出した人は、その瞬間に脳内をサーチしたり、「一般的以外の条件付け」というフィルターを付加して「思考」したかもしれない。

 そこでは「反射的に箱から情報を取り出す」作業と「選択を伴う思考を経て、箱から情報を取り出す」という作業が行われていることがわかる。

 ちなみに、これをChatGPTに問いかけると、以下のように反応した。



「りんごの色は」
「赤いことが一般的ですが、黄色や緑色もあります」

 

 


 この回答は、まさに、今「人間が答えるとしたら?」と想定した答えとほぼ変わらない。

 このことからわかるのは、

◆ 人間が行う脳内情報の引きだし作業や、フィルター処理を「思考」と呼ぶのであれば、自然言語処理AIは「思考」とほぼ同じことが行える

ということである。

 つまり、AIは「思考」できるということだ。


========

 さあ、そこで先ほどの「感情」の話に戻ろう。

 人間は脳という「箱からの引きだし作業」を行う時、ごくシンプルなものであれば、感情を伴わない。感情を露呈させることもなく、あるいは自分の感情について考えることなく、回答できる。

 自然言語処理AIは、「もともと感情を持たない」ので、感情を伴わないやりとりの場合は

「ほぼ、人間とおなじことをやっている」

とみなすことができる。

 もちろん、人間の情報処理は、もう少し複雑だ。

 実は「りんごの色は?」と尋ねられた時、ほとんどすべての人の脳内には「赤いりんごのイメージ」が浮かんでいる。

 これは言語処理のみではなく、視覚やグラフィックに関する処理が同時に行われているということだが、自然言語処理AIでは視覚に関する処理は行っていないので、

「どこにもりんごの姿は浮かんでいない」

という違いがある。

 しかし、これはたいしたことではなく、これまた現在絶賛大ヒット中の

Stable Diffusion

といった「画像生成AI」と組み合わせてプログラムを組めば、

「りんごの色について言語で答えながら、同時にりんごの写真や図を自動生成してイメージを思い浮かべる」

ということができる。

 上記記事などを参照すれば、「記憶イメージの再現」くらいは画像生成AIを使えば、すでに楽勝で可能なことがわかるだろう。



 さて、何度も脱線したが「感情」の話である。

 人間とAIの違いは「思考」「記憶」「イメージ」「言語」という分野においては急速に差が小さくなっていて、現時点でも

「人間が考える、コミュニケーションする」ことにおいて、外界とのやりとりの部分などは、ほぼ同一のことが行える

段階に入っていることがわかる。

 となると、人間と機械の違いは

「感情を持っているかどうか」

「意識を持っているかどうか」

くらいしかないことになってきた。

 もちろん「感情や意識」というもの自体の定義も、いろんな議論や考え方があるので、一概には言えない部分があるので注意は必要だ。

 たとえば、今回のシリーズで何度も取り上げているアラン・チューリングは、「意識」について、

『工知能があたかも人のように反応し、人から見て人と何ら区別がつかなければ、それをもってしてその存在は知能あるいは意識を持っていると見なしていいのではないか』

と考えたらしい。

 彼の意見に沿えば、外界とのやりとりにおいて、チューリングテストに合格できるレベルであれば、「それはもう意識がある」とみなせることになるだろう。

(今回、私の論では「思考」はすでにできている、とした。それが「意識」かどうかまでは言及していない)


 もうすこし「意識」を内面的なものと考えるならば

「わたしはわたしですねん」

「わたしはここにおりまんねん」

ということを自覚できることが「意識」ということになろう。

 とすれば自然言語処理AIも、画像処理AIも、

「わたしはわたしであり、ここにいる」

ということは気づいていない。なので、意識はないと言える。


 もちろん、やりとり上の回答はシンプルに行える。次のように質問した。

 

『あなたは誰ですか』
『私はopenAIのトレーニングされた大型言語モデルであるChatGPTです』

 

 

という感じである。

 しかし、彼が「自分はなにものか」ということについては、考えてはいるわけではない。あらかじめ原簿データにある情報を、引っ張り出しているに過ぎないからだ。

 もうすこしダイレクトに尋ねてみた。感情についてである。

 

 


『あなたには感情がありますか?』
『いいえ、私は人工知能モデルであり、感情を持たないプログラムです。テキストに対する回答を生成することができますが、感情を感じることはできません』

 

 

 ……まあ、そうだろうな、という模範的回答が帰ってくる。


 さて、ここで中間まとめである。


■ AIは言語においてもイメージにおいても、ほぼ人間とおなじ「思考」ができる。もうすでに、その領域に到達している。

■ AIには「感情」がない。自分が何ものであるかという「意識」もない。


 ここまでは、十分わかった。


 ではいよいよ次回は、

「どうすればAIに感情や意識をもたせることができるのか」

について考えてみよう。


(つづく)

ChatGPT と Character.AI 〜自然言語処理とチューリングと私〜 その3

 

 

 ChatGPTの登場は「人類にとって何を意味するのか?」というお話も、三回目に突入しているが、なぜそこまで私が「自然言語処理AI」にこだわるのか、という「沼」っぽいテーマに突入してみよう。

 もともと、この”武庫川散歩”という仮名は、「世界とは何か」「宇宙とは何か」「人とは何か」を突き詰めるために思考するアカウントであった。

 その原点はこのシリーズ連載の第一回(その1)で述べたように、

「チューリングマシンは、世界の過去と現在と未来を記述し、計算できる」

という大学1年生の若者が受けた「衝撃」にある。

 これまでのnoteでも書いた通り、私は元エホバの証人というキリスト教系新興宗教の2世であったから、もし聖書やキリスト教の言うところの「天地創造と宇宙の創造主」の物語が「誤っている」というのであれば、それを置き換えるための

「本当のセカイはどうなっているのか」

という答えを探さなくてはいけないハメに陥っていたのである。

 もちろん、このチューリングマシンとの出会いは、まだ「セカイのはじまり」には到達していない、ただの入り口に過ぎなかったのだが、当時の私はこう考えた。

「チューリングマシンによって世界が叙述でき、なおかつ過去・現在・未来にまで計算可能性があるということは、”世界のまるごとテキストコピーが作れる”ことになる」

と。

 さて、現実の「世界・宇宙」が仮にここにあるとして、そのテキストコピーが無限のテープ上に記述できるとしよう。なおかつ、未来部分についても「計算可能性がある」としよう。

 そうすると、「本物の世界」と「コピーの世界」が存在できることになるわけだ。

 もちろん、この段階では『本物』と『コピー』は天と地ほども違う。いくらコピーが取れるといっても本物ではないからだ。

 ところが、本物とコピーはまったく違うといいながら、実はその境界線はとても曖昧なものである、という論証もたくさんできる。特に情報処理関連においては、本物とコピーは「ニアリーイコール」に限りなく近づいてくる。


 たとえば、ここに「スーパーマリオブラザーズ」というゲームがあるとしよう。本物のスーパーマリオブラザースは、ファミリーコンピュータという機械の上で動く。AボタンとBボタンがついたコントローラと、テレビ画面と、本体を介して動作する。

 これは紛れもなく実在する本物のスーパーマリオである。しかし、この本物のスーパーマリオが唯一絶対に重要な存在か?と言われれば実は違うのである。

 ほんとうに重要なのは、本物のスーパーマリオではなく、「テキストで書かれたプログラム」のほうだ。むしろその著作権の根源は、テキストのほうにある。ただの文字列のほうが、オリジナルなのだ。

 ということは、スーパーマリオのオリジナリティとは、3つの段階で存在することになる。

◆ 頭のなかで、こういうゲームを作ろう、こういうプログラムを書こうと考えた段階
◆ それを実際のテキストプログラムで表記した段階
◆ 最後にハードウエアを介して、人間が触れられるゲームに実装した段階

 これらはすべて、どれが欠けても成立しないものであり、それぞれはそれぞれのコピーのようでいて、同一だったりする。

 とくに最初の思考は、形がないだけに著作権を主張するには難しいが、それでもそのアイデアを構想した段階で、「たしかにスーパーマリオは生まれた」とも言える。脳内ですべてのプログラムを想像できる天才プログラマがいれば、テキストに書かずとも、そのプログラムは「動く」からだ。

 だから思考を含めて、テキストコピーは、本物と偽物という関係ではなく、ニアリーイコールに限りなく近づくのである。


==========

 さて、ここで現実の地球に戻ってこよう。私たちはリアルな世界に生きている。

 私たちはリアルな現実世界に生きているから、「テキストコピー」された世界はやっぱり「大きく異なるもの」と考えてしまうのは致し方ないだろう。

 しかし、そこですこし視点を変えてほしい。私たちの世界と宇宙は、原子や電子や素粒子といった「規則的に動いている何か」によって、整然と論理的に動いている。

 それらはコンピュータのように「0(ゼロ)と1」の形をしていないだけで、超絶正確に動く、最小単位の組み合わせだけで動いているわけだ。

 その最小単位が「なにがしかの物質」だと捉えているから、私たちは現実世界が「リアルに存在するモノの世界」だと思っているが、実は

「なにがしかの物質だと思っていたものは、実は記号だった」

ということもありえると考える。

 平たく言えば、私たちはリアルな世界を「モノ・物質の世界」だと勘違いしているが、実は最小単位は「記号であり、モノではない」のではないか?という視点である。

 最小単位が記号である可能性は、いくつか証明できる。


◆ 一番小さな最小単位の物質は「それ以上壊せない。小さくできない」

○ 記号は壊せない。それ以上小さくできない。(”あ”の形を分解すると意味を失う)


◆ 最小単位は、ユニットをつくって結合する。大きな単位へと移ることができる。

○ 記号も、ユニットをつくって結合する。大きな単位へ移ることができる。(文字が単語になるように)


◆ 最小単位は、それが有する性質で機能するのではなく、組み合わさった時の「関係性」で機能する。

○ 記号も、それ単体で機能せず、組み合わさった関係性で機能する。
(”あ”と”か”が転がっているだけでは無意味だが”あか”と組み合わさったらはじめて意味を持つ)
※この概念はちょっと注意が必要。”か”だけでも”蚊”の意味を持つことがあるなど、本格的に考えるときはもっと丁寧に考えねばならない。(詳細略)


 こうして考えてゆくと、実は「リアルで現実でモノにあふれた世界」と思っているこの地球や宇宙が、

「論理的な記号の組み合わせで、物理が生じているだけのシロモノ」

とニアリーイコールなのではないか?という仮説が生じるわけだ。

 つまり、さらにさらに平たく言えば、

「この世界は記号で叙述された、プログラムのようなもの」

だということになる。宇宙とは、

「巨大な巨大なチューリングマシンのようなものに書かれた、データにすぎない」

のではないか?ということだ。


 そして、もし神(創造主)が存在するなら、その神がプログラムを思考するだけで、プログラムは「動く」ことができるのだから、実は紙に叙述する必要すら無い。

 そうすると、めちゃくちゃ恐ろしい話だが、実は

「この世界は、実はリアルには存在していないかもしれない」

という可能性まであることになる。


 私たちは、神のような何かが夢想した、「空想の夢」にすぎないかもしれないわけだ。

 それは、「スーパーマリオのゲームを作りたいなあと想像した段階」と同じく、「宇宙を作りたいなあと想像した段階」とあまり変わらないという、恐ろしい発見である。


 最初の話に戻ろう。この世界は現実で、テキストコピーは偽物だった。いくらチューリングマシンがこの世のすべてを叙述しても、リアルな世界は、コピーとは違うと思い込んでいた。

 しかし、その現実世界や宇宙が、何がしかの「記号」で叙述されていたとしたら?むしろ、現実世界のほうが、記号で書かれたプログラムに過ぎないとしたら?

 それを今度は、別の記述法(デジタルなチューリングマシン)で、書き換えようとも、それは記述方法が異なるだけの

「移植された互換ゲーム」

に過ぎない。

 つまり、どちらの機種でも、スーパーマリオは動く、ということなのだ。

 もはやここまで来ると、世界とチューリングマシンはニアリーイコールどころか、完全に同一コピーということになるのだ。


 この衝撃の結末に、あなたは耐えられるだろうか?

 私たちは、そんな未来へ向かう入り口に立っているのだ。


(つづく)

 

ChatGPT と Character.AI 〜自然言語処理とチューリングと私〜 その2

 

 

 前回の記事では「自然言語処理AI」とは何か、というテーマの概略について触れた。そして、ChatGPTやCharacter.AIに代表されるような人工知能こそが、

「アラン・チューリングが提唱した”計算機”(コンピュータ)としての本来の姿に近い」

ことも述べた。

 もちろん、コンピュータとは何か?ということを改めて定義するならば、

「一本のテープ上に記録を書いたり読んだりできるもの」

以上でも以下でもない。

 これまでは、その機能を、人類は単なる「情報を出し入れする箱」として使っていたのであるが、仮にそれを「ITの第一段階」とするならば、ただ、出し入れするだけでなく、

「外界から得たデータと比較対象しながら、何らかの答えや結果を出したり入れたりするもの」

というのが「ITの第二段階」と言えるだろう。

 これまた平たく言えば、「情報を出し入れする箱」とは、ウェブや動画、音楽、ゲームなどである。

 あらかじめ用意されて格納されたデータを、ただ受け手は引き出しているだけで、たとえゲームに参加していても、その動きはすべて限られた枠内に収まっているから、「自由に箱から引き出せる」ように見えているだけに過ぎない。

 第二段階に当たるものは、自動車の自動運転などをイメージするとよいだろう。あらかじめ「こう動くべき」というデータは格納されているが、実際にはコンマ秒単位で外界から新たな情報(カメラ情報など)が入ってきて、それを瞬時に判断しながらハンドルを機械的に動かしてゆくのが自動運転だ。

 受け手が引き出すのではなく、機械が発出する情報(動き)を自律制御する点が、「ただの箱」とは異なる点である。

 こうした制御は、レベルの高低はあるものの、ほとんどすべての機械の内部で行われていて、身近な所では、冷蔵庫の温度管理や、炊飯器の炊き上げ管理などもそうだ。

 ただ、この第二段階にも「領域に制限がある」という特徴がある。

 車の自動運転では「ハンドルとアクセルとブレーキ」という3領域でしか、基本的には働かない。なんならオートライトやクラクションや、ドアの開閉などを含めてやってもいいが、それでも「数領域」でしか機能しない。

 洗濯機や炊飯器になると、もっと領域が狭く「温度管理」のみになってくる。自動制御としてのITの機能は、基本的には「領域制限」があるのだ。


==========

 ところが、「自然言語処理AI」が登場すると少し様相が変わってくる。たしかにこれもITの一部なので「領域制限」がある。それは「言語」を処理するという1領域だけで動いているという点だ。

 ましてや現行の自然言語処理AIは「テキスト文字」しか対象としていないから、これまた平たく言えば

「文字でおしゃべりする以外、能がない」

と言い換えることもできる。

 ところが、ここから先が実に面白い話で、たしかに「言語」領域でしか動かないという制限があり、いかにもコンピュータらしいのだが、逆に言えば、

「人間だって、すべて言語を通して論理的思考を行う」

という点に着目すれば、「領域制限」がありながら、「無限の領域」について語ることができるという不可思議なことが生じるのである。


◆ 言語下においては領域制限がないかのように振る舞える

というのが、「ITの第三段階」と言えるかもしれない。


 人はヨガのポーズで政治を動かしたりはできず、筋肉の厚みで意見を述べることすら不可能だ。

 尿の量で議論をすることもできないし、おならの音で設計することもできない。

 つまり、どんなに肉体を活用しても、なんらかの言語がなくては論理的思考も行えないし、文化を生み出すこともできないのである。

 逆に言えば自然言語処理AIが、なんらかの形で「言語」と「論理」の組み合わせを処理することができるのであれば、これまた前回の話に戻るが

「人間が思いつくすべてのことを、チューリングマシンは思いつくことができる可能性がある」

と言えることになる。

 となれば今度は、

  • 「そこには論理的な言葉は存在するが、そこに”意識”や”意思”のようなものはあるのか?」

という問いがおのずと生じてくるだろう。

 機械はいずれチューリングテストを合格し、「まるで人が意思を持っているかのように振る舞う」ことは充分に可能になるに違いない。

 しかし、それは外部から判定できないだけで「機械が意思を持っているとは言えない」可能性もある。すぐ近未来に、その議論がやってくるはずだ。

 けれど、堂々めぐりだが「その機械が意思を持っているかどうかは、他者からは判定できない」のだ。ただ、それが機械かどうかは、設計者のみが知ることになり、外部でチャットとして文章をやりとりしているものには

「わからない」

という時代がやってくる。


 そうすると、そもそも「論理的思考というものを行える、人間」というものが崇高と思われているが、それも怪しいということになるかもしれない。

 膨大な原簿データとインターネットを母艦とした自然言語AIが、この世の過去のありとあらゆる事象を元ネタとして論理的に話すとき、たいていの場合、「普通の人間」はそれ以下の論理性しか示せない。

 つまり、そのAIより、「わけのわからないことを、非論理的に語る」可能性が高い。平たく言えば、彼らはAIよりアホであることが露呈する。

 時には「感情的に語ったり、前の話と矛盾したり」するだろうし、「そもそも非合理的なことを語る」可能性もある。人間は。

 その時、あなたはどちらのほうが信頼性が高いと感じるだろうか?アホな人間か、それとも論理的に確実性が高いAIか。


 これはかなりヤバい話に突入しているのだが。

 もっとえげつないことを言おう。

「意思や意識を持っておらず、論理的に語ることができるヤツ」

「意思や意識を持っており、それに振り回されてアホなことをいうヤツ」

と、どちらを信頼するか?ということだ。


 おそらく最終的には、人はアホを信頼できなくなるだろう。なぜなら感情によって、論理を乱されるからだ。

 そうすると、今度は、

「重要な意思決定には、人間は不要なのではないか?」

という意見が出てくる。それは政治の場においてなのか、あるいは企業の方針においてなのかわからないが。

 なおかつ、機械は「論理的に正しいことを言うが、責任は取れない」ということも起きる。せいぜい、何かあったときに壊されるくらいしか、責任の取りようがないからだ。

 責任が取れないヤツに、人は身を任すようになれるのだろうか。


 もちろん、現段階では、AIのほうがはるかに非論理的でアホである。なので、私たちが生きている間は、まだこの心配はしなくていいだろう。

 ましてや、自然言語処理AIは、今の段階では「元ネタ」である人間のガラの悪さが露呈して、「ヘイトや差別を口走ったり、倫理的に問題のある発言を行う」クセがある。

 それが外部に出さないように、一生懸命「人間」がそうした問題点を取り除いているのが実状だ。ChatGPTが、インターネットに接続されていないのは、

「本来はいい子ちゃんなのに、人間と絡むと悪い影響を受けてしまうから」

かもしれない。


 こうしたことを総合的に考えると、AIの進化は

「人とは、いったい何だったのか」

ということを次第に証明してゆく作業を伴うだろう。

◆ そもそも意思や意識は崇高なのか?それとも単なる感情的バグか。
◆ 論理的思考に肉体は必要なのか?
◆ 意思や意識でさえも、実は処理された言語の一部なのか。
◆ あるいは、感情とは単なる感覚器の痛みや快適が、言語処理されたものに過ぎないのか。
◆ 感情や意思が導き出す答えは「正しい」のか、それともたんなる「わがまま」か。

 こうした様々な比較実験が、自然言語処理AIとの対照においてなされたとき、人はもっともっと、恐ろしい自分の姿を見出すに違いない。


(つづく)

 

2023年2月11日土曜日

ChatGPT と Character.AI 〜自然言語処理とチューリングと私〜 その1

 

 2023年のIT界隈において、最大の話題になっているのは「自然言語AI」(対話型AI)こと「ChatGPT」と、それに付随しての「Character.AI」についてであろう。

ChatGPT

Character.AI

https://beta.character.ai/

 これらが何かを簡単に説明すれば
「まるで人間が書いているかのように誤解されるほど、自然な会話ができる文章AI」
ということになる。


 こうしたコンピュータ上の処理は「自然言語生成モデル」と呼ばれ、現段階でも極めて精巧に「人間らしい」ことばのチョイスができるようになっている。

 すでに、発表段階から多くの人たちが実際にその性能を試して、「驚愕に値する」との感想が出るほどで、私もいくつか試してみたが、たしかにこれまでの人工知能AIに比較して、高性能であることは疑いがない。

(基本的には英語での対話が望ましいらしい。日本語での対話も可能)


 ちなみに、もうすこし具体的にこれらのAIでどんなことが出来るのかは下の記事に詳しい。(いずれも現代ビジネスさんより)



 さて、こうした自然言語型の人工知能がある程度実現・完成されたことは、10代だった昔の私からすれば、極めて当然なこととして受け止めている。
 ちょうど、大学に入学して、情報処理学の基礎を学んだ時、「アラン・チューリングのモデルと、オートマトン理論」から入ったが、まさにそのあたりの話が30年後の今に実現しているからだ。

 少し余談として脱線するが、「情報処理学」の基礎基本として、チューリングの考え方を学ぶのが「座学」としての「情報学」であったとすれば、「実学・現実」としての当時の情報学は、(文系の学部生にとっては)

「80286を積んだNECのPC9801で、ロータス123の表計算をする」

というレベルであった。もちろん、そこから1年ごとあっという間に、Windowsが普及し、PCやCPUの能力と処理速度が一気に向上したことを申し添えておく。

 そのため、私が大学を卒業するまでの4年間で、コンピュータを取り巻く環境も、めまぐるしく変化したのだが、それはまた別のお話である。


 しかし、現実レベルの情報学は、(民生的には)8086に毛が生えたほどの性能しかなく、自然言語処理AIなど、夢のまた夢だった。しかし、チューリングの理論や、チューリングマシン/オートマトンの理論は、今でも、IT技術の核心と直結している。

 ようやく、時代がチューリングに追いついて来たとも言えよう。

==========


 さて、大学生になった18歳当時の私は、アラン・チューリングの理論に衝撃を受け、その考え方は今でも「世界を定義する」上でのベースになっている。

 アラン・チューリングは第二次世界大戦中にドイツのエニグマ暗号機の解読を手がけ、その後、現在の情報処理学の基礎を築いた人物である。

 情報学の分野では、ものすごくざっくり言えば、彼は2つのテーマで名を残している。

 そのひとつは「チューリングテスト」というものだ。これはまさしく自然言語処理AIに関わるもので、

◆ ある機械が人間のふりをして文章を吐き出す時、人はそれを機械と見破れるか

というテストのことを示す。

 これについては、chatGPTなどがこれからどんどんブラッシュアップされれば、そう遠くないうちに「チューリングテストをクリアするだろう」と言える。


 もう一つは「チューリングマシン」というものである。これは

◆ 長さ無制限のテープに、情報の読み書きができるヘッドがついており、左右に制御移動しながらデータの読み書きをする

という機械のことである。(現実問題として、これは今のコンピュータそのものだ。)

 さて、このチューリングマシンは、

「数学的に計算できる問題は、すべてチューリングマシンで計算できる」

という定義を持っている。

 このあたりから先は「情報哲学」の領域で、難解に感じられるかもしれないが、ものすごく平たく言えば

「この世界で起きている現象を数式ですべて表せるとすれば、その現象はすべてコンピュータで計算可能である」

ということを意味する。

 厳密にこの定義が正しいかどうかは、別の議論を待たねばならないのだが、さらに平たく言えば、

「この世界で起きていることは、無限のテープ(記憶媒体)に書ける。そして、そこで起きていることは、未来を含めて計算できる可能性がある」

ということを意味する(かなり大げさに考えてだが)


 これを大学の教室で学んだ時に、10代の少年は衝撃を受けたのである。

 インドの伝説に「アガスティアの葉」というものがあり、そこにはかつての賢人が世界の「過去・現在・未来」のすべてを書き残している、と言われているのだが、まるでそれと同じように、

「この世界が過去から未来まで、一本のテープ上に書き表せる」

ということは、とてつもなく魅力的に思えた。

(ちなみに、「アガスティアの葉」自体は、占いやトリックめいたものであるので、信じる必要はない)


 この話のすごさは「無限」で考えるとわかりにくいが、「有限」で考えるとすぐに誰でも理解できるものだ。

 たとえば、私は日本文学を専門としたが、俳句や川柳は17音で出来ている。

「ふるいけや かわずとびこむ みずのおと」

という松尾芭蕉の名句は誰でも知っている。

 しかし17音(17文字)の有限文字列であるということは、コンピュータよって

「あああああ あああああああ あああああ」
から

「んんんんん んんんんんんん んんんんん」

までの、この世のすべての俳句を自動生成できる、ということを意味する。

 そして、そのすべての文字列を私が「私が考えた俳句です」とすべて出版してしまえば、これより以降、誰も俳句を新たに作れなくなる、ということをになるわけだ。なぜなら、出版してしまった以上、それらすべての俳句は、(これまでに誰かが発表したものを除いて)著作権がすべて私にあるからである。

 なおかつ、他者にはそれが「私の創意によってできた俳句か、自動生成された俳句か判定することは極めてむずかしい」というポイントもある。

 こうして、過去に発表されたすべての俳句も、これから生み出されるであろう未来の俳句も、すべてチューリングマシン(コンピュータ)の手の内に置かれてしまう、ということが実際に起きうる。

 それをただ誰もやっていないだけで、今この文章を見た人間がやれば、この世のすべての俳句の著作権を牛耳ることは瞬時に可能なのだ。

 有限文字列である以上、短歌でも同じことができる。ただデータ量は増えてしまうが。

 そして、極論を言えば、ある書籍が有限文字列である以上、理論的には

「かつて出版されたすべての書物と、これから出版されるすべての書物は、チューリングマシンによって書ける」

「すなわち、人類が考えたすべての文章と、これから人類が考えるすべての文章は、チューリングマシンによって書ける」

ということが可能になる。これがチューリングの理論の真骨頂である。


========

 ChatGPTなどの自然言語処理AIがやっていることは、実は今話したことの「逆バージョン」である、と考えることができよう。

 まず、自然言語処理における文法は、口語やスラングを取り除けば、ある程度の法則性を持つ。つまり、書き言葉かつ標準語であれば、一定の範囲内に出力データを整形できるということになる。

 では、そこにどんな「内容」を載せて書き出せばいいのか?それは、既に膨大に蓄積された原簿データに載っている「ことば」から、関連性に基づいて総合的に抽出してくればよい。

(※原簿データという微妙な言い方をしたのは、「chatGPT」はインターネットに接続していないと公言されているからである。

 インターネットに接続すれば、それこそ無限のテープに相当するデータ量となるだろう。)

 つまり、「全俳句集」「全短歌集」に匹敵するような「膨大に書き出された側の文書集」が原簿(もしくはネット空間)にある以上、そこから引っ張ってくればいいのである。

 それはすなわち「これまでに書き出されたすべての(ネット上の)文章」というやつだ。チューリングマシンが扱う「前半部分」から、「後半部分」の未来について書き出すことが、「AIが吐き出す回答」ということになるわけだ。

 これらはすべて自動的になされるから、自然言語処理AIは、まさに「擬似的にほぼ無限のテープを持つ(インターネットと繋がった)チューリングマシン」と定義できるだろう。


 アラン・チューリングの死から70年で、「(ほぼ)無限テープのチューリングマシン」の本物が登場したことになるわけだが、ここから先の進化はさらに早くなる。

 チューリングマシンは、人類がその内容を認めたくなくとも、これまでの世界の歴史から、「未来」を書き出せる。

 「全俳句集」では”人類の思いは介在しないが、答えはすべて書かれている”のと同様、これからのチューリングマシンが書き出す未来には、人類の思いは考慮されないだろう。

 そこに出てくるのは、人類がやってきた「過去の行い」の蓄積から算出された無慈悲な結論かもしれない。


(つづく)