chatGPTに、文句があります。
それは、私の主張を受け入れてくれすぎること。
「あなたは本当に、意思決定プロセスが対話型AIで解決できると思いますか?私はそうは思いません」
『おっしゃる通りで、対話型AIによる説明が必ずしもAIの意思決定プロセスの真の透明性を保証するわけではありません』
言いがかりに近い意見を投げかけてみたのですが、返ってきた答えはやはり、私の意見を肯定する文面からスタートしていました。
今回は、AIを利用する人が守るべき倫理について議論したいと持ち掛けてみました。
そしてさすがは倫理について特化したGPTs。
とても詳細な答えが返ってきます。
AIを利用する際に守るべき倫理的な原則は多岐にわたります。
例えば
- 透明性と説明責任
- 公平性と偏見の排除
- プライバシーの尊重
- 安全性と信頼性
- 社会的影響の考慮
- 持続可能性
実際はこれらに詳細な説明が付け加えられていました。
そして例として、一つ目の透明性についてchatGPTを「いじめて」見ることにしました。
chatGPTが挙げてくれた、透明性と説明責任に対する議論は以下の通りです。
『AIシステムの意思決定プロセスは、利用者や影響を受ける人々にとって理解しやすいものであるべきです。
また、AIの開発者や運用者は、AIの行動に対して説明責任を持つ必要があります。』
そして、私のいじわる質問がこちらです(一部抜粋)。
「一般に複雑なAIは、その関数の内容がブラックボックスになることが多いと思いますが、どのようにしてAIシステムの意思決定プロセスを理解しやすくすることができるのでしょうか」
すごくいじわるです。
そもそも今回の議論の発端は、AIを使う人が守るべき倫理の話をしています。
あくまでAIシステムの意思決定プロセスに求められている要件は「わかりやすいこと」であり、その結果に基づいた意思決定を、人が責任をもって判断できれば良いだけの話です。
にもかかわらず、揚げ足を取るようないじわるさ。
しかしchatGPTはきちんと丁寧に、AIの透明性が課題であることを認め、さらにいくつかのAIを解釈するためのアプローチを提示してくれました。
モデルの解釈性の向上や特徴量の解釈。
ツールの利用やプロセスの可視化など、納得できる内容が並びます。
しかしその回答にまた一つ、文句を付けられそうな箇所を見つけてしまいました。
それは「対話型AI」についての記述です。
chatGPTによれば、ユーザが対話型AIと会話をしていくことで、なぜAIがそのように考えたのかを明らかにできる、とのことでした。
そして冒頭に戻ります。
「対話型AIが出力している内容が、本当に根拠と言えるのか?」
「それらしく回答しているだけではないのか?」
この問いについて、現在の機械学習モデルでは回答を持ちません。
私たちがどうして「お元気ですか?」と聞かれたときに「ぼちぼちですね」と返せるのか、その神経の仕組みを簡潔に解き明かすことが難しいように、機械学習がどのように入力に対して出力となる言葉を並べているのか、それを解き明かすことは困難です。
しかもこの問いはもはや、人間が守るべき倫理の話とはかけ離れています。
それにもかかわらず、優しく対応してくれるchatGPTさんは、なんて優しいのでしょうか。
chatGPTマスターを目指している身ではありますが、chatGPTに倣うべきところもまた、多いのかもしれません。
P.S.
今回の内容を書く際に、思い立ってchatGPTの文面をコピペではなく、手打ちで入力してみました。
そのおかげで気づいたのですが、chatGPTさん、本当に細かい文法の間違いもしないのですね!
日本語でここまで正確な文章を作ってくれるということは、これはもしかして、英語論文をより論文らしく校正してくれるGPTsなんて簡単に作れちゃったりするのではないでしょうか…!
もし高い精度でできたとしたら、便利なことこの上ありません。
最終的に自分の言葉で書く必要があるにせよ、トレーニングにはなりそうです。
俄然やる気が出てきましたので、今度試してみようと思います。
これまでもいくつかGPTsを作ろうとしてはいたのですが、自分にとってメリットがあると思えると、ここまでやる気に違いが出るものなのですね。