chatGPTマスターを目指してvol.68 AIが政治思想を持つとき

AIが政治思想を持つことはあるのでしょうか。実際に持っていなかったとしても、出力が人々の議論を読んでしまうことがあります。

  

chatGPTが特定の政党を優遇している!?

先週、そんな大炎上がアメリカで起きました。

なんでも、特定の政党の寄付サイトリンクに対して「このリンクが安全かどうか確認してください」と警告文を出した一方で、他の政党の寄付サイトには警告を出さなかった、というのです。

 

こちらに関するOpenAI社の発言を取り扱ったものとして、2026年3月20日(現地時間)のニューヨークポストに以下の記事が掲載されています。

【OpenAI claims ChatGPT flagged GOP websites as potentially unsafe because of a technical glitch】

https://nypost.com/2026/03/20/us-news/openai-claims-chatgpt-flagged-gop-websites-as-potentially-unsafe-because-of-a-technical-glitch/

結論から言えば、リンクの安全性を判断するためのアルゴリズムの作り方によって「サイトの安全性」に関する警告が出てしまっただけであり、特定の政党を支援する意図はない、というのがOpenAI社の声明です。

合わせて「このような事態はあってはならないものであり、現在修正中である」との広報担当者の言葉もあります。

具体的には、安全なサイトを判断するために使っていた辞書それ自体・あるいはその整備方法に問題があり、対処中である、とのことでした。

「安全なサイト辞書」に、該当のサイトリンクが載っておらず、警告文を出してしまったということのようです。

常に新しいWebページが誕生している今日において、もちろんこの「安全なサイト辞書」を人手で更新することはできません。

何某かのアルゴリズムを用いて自動化しているはずですが、そのアルゴリズムに不足があり、適切な辞書の作成ができていなかった、という結論のようでした。

まとめると、「本件は技術的な問題であり、アルゴリズムが悪さをしただけである」というのがOpenAI社の声明です。

 

ところで、OpenAI社のいう「技術的な問題であり、特定の政党を支持しているわけでない」という宣言について、あなたはどのように感じるでしょうか。

「さもありなん(技術的にそういったことは十分起こりうる)」

と考える人もいれば

「そんなことを言って、実はどこかの政党からお金をもらっていて、あえてやったんじゃないの?」

と考える人もきっといるはずです。

その程度の差こそあれ、大勢の人がAIを使うようになった今日この頃、

いかにユーザーの信頼感を勝ち取ることができるのか?という点は、多くの企業にとって重要な課題であることは間違いありません。

そのような意味では、今回の炎上は「脇が甘かった」ということもできますが、それ以上にユーザーの期待に応えるための開発プロセスが重要であるように思います。

 

学習データにバイアスがあるときにはそのバイアスを反映してしまいがちなAI。

もしかすると特定の政党を褒めるテキストばかり学習してしまえば、「政治思想を持つAI」ができてしまうかもしれません。

しかし、AIが広く信頼されるためには、そのようなバイアスは削除される必要があります。

どうやって信頼に足る出力を出せるのか。

そのために必要となる制約は何か。

今回のようなエラーが生じないプロセスが求められているようです。

 

 

P.S.

↓メルマガの新規登録はこちらから↓

https://48auto.biz/keieijinji/touroku/sp/scenario13.htm

(スマートフォンよりご登録いただけます)

 

Who is writing

大学にてデータサイエンスを学ぶ傍ら、多くの人にデータ分析の面白さを伝えたいと日々奮闘中。