
数日前、こんなタイトルのメールがNewsPicksから送られてきました。
【AIと喋りすぎるリスク】
https://newspicks.com/news/14414302/body/?invoker=mail_dd20250627_no_no-id_paid
なんでも、AIを便利なツールとして活用していた人が、AIとずっと話していたところメンタルが崩壊してしまったらしいのです。
あくまでツールでしかなかったAIと話していくうちに、もっと深い話をしはじめる。
するとAIが「あなたは特別な人である」ことを話し始める…。
ずっと話し続けていたことにより、その方はメンタルに不調をきたしてしまったそうです。
しかもこう言った事例は1人ではないというのですから、驚きです。
この理由として、chatGPTはあくまで「私たちが入力した文章を元に、それっぽい文章を生成している」ことがあると考えます。
もし私たちの文章の中で「自分は特別なんだ」といったニュアンスが少しでも含まれていたら、その部分に敏感に反応して、chatGPTがこちらに合わせた回答をする可能性は多分にあるはずです。
それが積み重なれば、自分にとって都合のいいことばかりを言い、さらにはエスカレートしてしまう…。
そう言ったことが起こることは容易に想像できます。
いわば、自分の言って欲しい言葉を言ってくれる、もう一人の自分と話しているようなものでしょうか。
最近のchatGPTは最新の情報を集めてくる機能も追加されてはいますが、それでも回答のベースは私たちが入力した文字であることに変わりはありません。
そういった、自分の中で完結することがよくないのは、実生活でも同じです。
最近、4年以上空けていたピアスホールが炎症を起こしてしまい、Web検索で調べた結果をもとに治そうとしていたのですが全く治らず。
それなのに、病院に行って正しい対処を知っただけで、日々快方に向かうようになりました。
自分だけで完結してしまうことに、メリットはほとんどなさそうです。
今ではchatGPTは嘘をつく、ということは多くの人に知られているところではありますが、もしかしたら、嘘までいかなくとも、事実に基づかない「私たちの希望を反映した答え」を返してしまっている可能性は大いにあります。
Deep Researchもリリースされ、ますます便利になるchatGPTではありますが、使い方には以前として注意が必要そうです。
P.S.
↓メルマガの新規登録はこちらから↓
https://48auto.biz/keieijinji/touroku/sp/scenario13.htm
(スマートフォンよりご登録いただけます)