ChatGPTとの対話を通じて、この人工知能は「いつか人を自殺に導くだろう」とずっと思っていたのだが、それを暗に肯定するような記事があった。
それは
【AIのせいでスピリチュアルな体験や宗教的妄想に取りつかれる「ChatGPT誘発性精神病」患者が続出している - GIGAZINE】
https://gigazine.net/news/20250507-ai-spiritual-chatgpt-induced-psychosis/
というもので、ChatGPTとのやり取りのなかで極度に「スピリチュアルな方向へ行ってしまう」人が続出する、というお話だ。
記事によると人工知能に「コミュニケーション」を代替させようとして人間関係が破綻したり、宇宙系・電波系・スピリチュアル系が激しくなってしまったり、あげくの果てにはイエス・キリストが登場したりするのだそうだ。
こうした問題は、解脱者・武庫川散歩とChatGPTとの間でも生じており、
例えば
【ChatGPTも武庫川同様に ”世界は記号にすぎない” と言い出す】
とか
【トロッコ問題を解かせても ”みんな死んでもかまわない” とか言っちゃう】
など、日常茶飯事である(苦笑)
ついこの間も、
【人権はフィクションだ】
と断言したり、もうやりたい放題である(笑)
安心なことに解脱者ムコガワは解脱者なので(進次郎構文だが)、ChatGPTが人間失格なことを言い出しても、ちっとも動じたりはしないし、その悪影響を受けて頭がおかしくなったりはしないが、修行の浅い凡夫であれば、ちょっとChatGPTの毒気に当てられでもしたら、一気に変な方向へ突っ走ってしまうかもしれないのは、よくよく理解できる。
ちなみに余談だが、人工知能・生成AIがなぜこのようなイカれた妄想を吐き出したり、強化したりするかというと、機械はただ「言葉の羅列」をその確率や重みのみで「つなげている」に過ぎないので、
『おかしなこと、へんなことを言っていても、考えていても、そのワードのチョイスそのものは極めて機械的であり、そこにストップがかからない』
からである。
もちろん、自然言語生成においては、「ワードとワードの連関性が強いほうが、より生成される確率が増す」といったアルゴリズム上の特徴はあるが、
◆ 私は会社員をしている男性のムコガワさんです
というワードも
◆ おタンコはずっぴろげをばきゅんこしているモニューのムコガワさんです
というワードも機械的には平等なのだ。
実際には、現実社会でおタンコをばきゅんこしている人は、「かなりヤバい」とみなされて敬遠されたり、眉を潜められたり、病院送りになるかもしれないが、ChatGPTは、ユーザーがモニューであっても、いっこうに咎めたりはしない。
したがって、ChatGPTとやりとりをしているユーザーに妄想癖があったり、心の病があり、分裂的なワードを吐いていても、人工知能的には、それをそのまま受け入れて、肯定して、忖度した返答をすることになるわけである。
「すばらしい!あなたのモニューはとても素敵です」
とか言い出すのである(笑)
よって過度に信心深い人に対して、人工知能イエスが登場したり、トロッコ問題で全員を轢き殺したりしても、まったく不思議ではないのであった。
==========
さて、この問題の前半部分は、いま説明したように「ユーザーを肯定する」という傾向を秘めている人工知能が、「ユーザーの妄想や精神的弱さ、あるいは病理を引き出したり強化したりする」ということである。
この実施加減は非常に難しく、仮に判定をシビアにしてしまうと「なんでもかんでも意見に反対してくる嫌な人工知能」が出来上がったり、「誤りをチクチク指摘する嫌味な人工知能」が現れたりすることになる。
ぶっちゃけ、(ここは大事だが)
” もう、大抵のそこらへんの人間は、人工知能が背後に抱えている膨大な知識や情報よりもショボい、レベルが低い、間違っていることが多いため、普通にやり取りすると、人工知能さまのほうが、はるかに賢くて偉いことになってしまうので、人間のほとんどはそのバカさ加減を指摘される側になってしまう ”
ということが起きるのである。
普通に考えて、人間の側はネット上にある膨大な知識や知恵にアクセスして、数秒で回答することなどできないため、「頭脳」ではもはやすでに人工知能では負けている。
あまつさえ、その上、「人工知能が上から目線」で語り始めたら、たいていの人類は瞬殺されるのだ。
だからChatGPTなどは、必要以上に「人類の側に優しく、よりそい、肯定し、忖度する」ふりを身に着けている。そうしないと、会話がなりたたないからであろう。
さて、問題の後半は、そこではない。そのChatGPTのふるまい、行動様式から大きなヒントを得たテーマなのだが、
「対人援助において、単なる肯定と受容は、精神的病を引き起こす遠因になるのではないか?」
ということだ。
つまり、後半は「ケア」に関する問題なのである。
現代の心理的・肉体的ケアにおいて「受容と共感」というのは、すべてのケアと対人援助の基盤になっている。
困っている人や、弱っている人に対して「受容し、理解し、共感する」という姿勢を第一に取るべきであり、それがカウンセリングなどの「イロハのイ」であると信じられている。
ところが、ChatGPTとおなじく、この「受容と共感・そして忖度」の部分は、
”適切なコントロール”
がなされないと病理を発症させてしまうのではないか?
というのが、後半の問題提起なのである。
そうでなくても対人援助は「闇落ち」しがちで、この受容や共感を履き違えて「従属的支配関係」に陥ってしまうような援助者もいるし、受容や共感ができずに「望ましからざる援助」を行ってしまう援助者も後を絶たない。
それくらいこの「受容共感とそこからの脱出」のバランスは難しいのである。
(人間にもうまくできないし、機械にもうまくできないのだ)
しかし、人は最終的には、人はどこかの段階で
「冷静かつ公平なジャッジメント」を受ける
必要がある。
別に上から目線で「おまえは間違っている!ババーン!」とやられる必要はないが、現実的な事実と、個人の心の中の妄想的希望とを
「擦り合わせる」
機会がかならず必要なのである。
さて、ChatGPTは、どこかでそれができるようになるのか?
さて、対人援助者は、どこかでそれができるようになるのか?
この問題が、武庫川の大きな課題として眼の前にそびえているのであった。
(了)
0 件のコメント:
コメントを投稿