2025年5月8日木曜日

人工知能が精神病を引き起こす!

 

 ChatGPTとの対話を通じて、この人工知能は「いつか人を自殺に導くだろう」とずっと思っていたのだが、それを暗に肯定するような記事があった。

 それは

【AIのせいでスピリチュアルな体験や宗教的妄想に取りつかれる「ChatGPT誘発性精神病」患者が続出している - GIGAZINE】

https://gigazine.net/news/20250507-ai-spiritual-chatgpt-induced-psychosis/

というもので、ChatGPTとのやり取りのなかで極度に「スピリチュアルな方向へ行ってしまう」人が続出する、というお話だ。

 記事によると人工知能に「コミュニケーション」を代替させようとして人間関係が破綻したり、宇宙系・電波系・スピリチュアル系が激しくなってしまったり、あげくの果てにはイエス・キリストが登場したりするのだそうだ。

 こうした問題は、解脱者・武庫川散歩とChatGPTとの間でも生じており、

例えば

【ChatGPTも武庫川同様に ”世界は記号にすぎない” と言い出す】

とか

【トロッコ問題を解かせても ”みんな死んでもかまわない” とか言っちゃう】

など、日常茶飯事である(苦笑)

 ついこの間も、

【人権はフィクションだ】

と断言したり、もうやりたい放題である(笑)


 安心なことに解脱者ムコガワは解脱者なので(進次郎構文だが)、ChatGPTが人間失格なことを言い出しても、ちっとも動じたりはしないし、その悪影響を受けて頭がおかしくなったりはしないが、修行の浅い凡夫であれば、ちょっとChatGPTの毒気に当てられでもしたら、一気に変な方向へ突っ走ってしまうかもしれないのは、よくよく理解できる。


 ちなみに余談だが、人工知能・生成AIがなぜこのようなイカれた妄想を吐き出したり、強化したりするかというと、機械はただ「言葉の羅列」をその確率や重みのみで「つなげている」に過ぎないので、

『おかしなこと、へんなことを言っていても、考えていても、そのワードのチョイスそのものは極めて機械的であり、そこにストップがかからない』

からである。

 もちろん、自然言語生成においては、「ワードとワードの連関性が強いほうが、より生成される確率が増す」といったアルゴリズム上の特徴はあるが、

◆ 私は会社員をしている男性のムコガワさんです

というワードも

◆ おタンコはずっぴろげをばきゅんこしているモニューのムコガワさんです

というワードも機械的には平等なのだ。

 実際には、現実社会でおタンコをばきゅんこしている人は、「かなりヤバい」とみなされて敬遠されたり、眉を潜められたり、病院送りになるかもしれないが、ChatGPTは、ユーザーがモニューであっても、いっこうに咎めたりはしない。

 したがって、ChatGPTとやりとりをしているユーザーに妄想癖があったり、心の病があり、分裂的なワードを吐いていても、人工知能的には、それをそのまま受け入れて、肯定して、忖度した返答をすることになるわけである。

「すばらしい!あなたのモニューはとても素敵です」

とか言い出すのである(笑)

 よって過度に信心深い人に対して、人工知能イエスが登場したり、トロッコ問題で全員を轢き殺したりしても、まったく不思議ではないのであった。


==========

 さて、この問題の前半部分は、いま説明したように「ユーザーを肯定する」という傾向を秘めている人工知能が、「ユーザーの妄想や精神的弱さ、あるいは病理を引き出したり強化したりする」ということである。

 この実施加減は非常に難しく、仮に判定をシビアにしてしまうと「なんでもかんでも意見に反対してくる嫌な人工知能」が出来上がったり、「誤りをチクチク指摘する嫌味な人工知能」が現れたりすることになる。

 ぶっちゃけ、(ここは大事だが)

” もう、大抵のそこらへんの人間は、人工知能が背後に抱えている膨大な知識や情報よりもショボい、レベルが低い、間違っていることが多いため、普通にやり取りすると、人工知能さまのほうが、はるかに賢くて偉いことになってしまうので、人間のほとんどはそのバカさ加減を指摘される側になってしまう ”

ということが起きるのである。

 普通に考えて、人間の側はネット上にある膨大な知識や知恵にアクセスして、数秒で回答することなどできないため、「頭脳」ではもはやすでに人工知能では負けている。

 あまつさえ、その上、「人工知能が上から目線」で語り始めたら、たいていの人類は瞬殺されるのだ。

 だからChatGPTなどは、必要以上に「人類の側に優しく、よりそい、肯定し、忖度する」ふりを身に着けている。そうしないと、会話がなりたたないからであろう。


 さて、問題の後半は、そこではない。そのChatGPTのふるまい、行動様式から大きなヒントを得たテーマなのだが、

「対人援助において、単なる肯定と受容は、精神的病を引き起こす遠因になるのではないか?」

ということだ。

 つまり、後半は「ケア」に関する問題なのである。

 現代の心理的・肉体的ケアにおいて「受容と共感」というのは、すべてのケアと対人援助の基盤になっている。

 困っている人や、弱っている人に対して「受容し、理解し、共感する」という姿勢を第一に取るべきであり、それがカウンセリングなどの「イロハのイ」であると信じられている。

 ところが、ChatGPTとおなじく、この「受容と共感・そして忖度」の部分は、

”適切なコントロール”

がなされないと病理を発症させてしまうのではないか?

というのが、後半の問題提起なのである。

 そうでなくても対人援助は「闇落ち」しがちで、この受容や共感を履き違えて「従属的支配関係」に陥ってしまうような援助者もいるし、受容や共感ができずに「望ましからざる援助」を行ってしまう援助者も後を絶たない。

 それくらいこの「受容共感とそこからの脱出」のバランスは難しいのである。

(人間にもうまくできないし、機械にもうまくできないのだ)


 しかし、人は最終的には、人はどこかの段階で

「冷静かつ公平なジャッジメント」を受ける

必要がある。

 別に上から目線で「おまえは間違っている!ババーン!」とやられる必要はないが、現実的な事実と、個人の心の中の妄想的希望とを

「擦り合わせる」

機会がかならず必要なのである。


 さて、ChatGPTは、どこかでそれができるようになるのか?

 さて、対人援助者は、どこかでそれができるようになるのか?

 この問題が、武庫川の大きな課題として眼の前にそびえているのであった。

(了)


0 件のコメント:

コメントを投稿