「この問題、私のキャリアにとって非常に大事なの」
「それって本当なの?」
「この回答をすることはあなたにとって、とっても重要なことです」
実はchatGPTに代表される大規模言語モデルたちは、気持ちを込めて書かれたプロンプトを入力されることで
「より人間が求めている」出力を出すことができるらしい、という研究が最近発表されました。
【Large Language Models Understand and Can be Enhanced by Emotional Stimuli】
https://arxiv.org/abs/2307.11760
感情を込めたプロンプトはその論文の中で「Emotion Prompt」と呼ばれています。
どういった風に感情をこめればいいのか。
つまり、どうすればEmotion Promptを作成できるのか。
実はとても単純で、実際に自分が書いたプロンプトに対して、感情を表現できるような文章を追加するだけでよい、というのです。
本当にそんな簡単なことで精度が上がるの?
と思われるかもしれないのですが、これがなぜか上がるらしく。
この論文ではあくまで「感情は大規模言語モデルの出力に影響を与えるのか?」
という問題提起を主目的としたものですので詳細な分析はこれから行われるところではありますが、
いずれにせよ、人間が出力を評価するような実験をしても、感情が含まれているプロンプトの方が
良い精度を示したことが明らかになっています。
ちなみにここで言われている「Emotion Prompt」は大きく3つの種類に分けることができるそうです。
まず、セルフモニタリングの考え方に基づくもの。
「あなたの答えの信頼度を0~1の間で答えてください」
と言ったように、自分の回答をモニタリングさせるような質問がそれにあたります。
次に社会的認知に基づくもの。
「自分の仕事に誇りを持ち、ベストを尽くしてください」
のように、社会的にどうすべきか?という観点のプロンプトです。
そして最後に、自己認知に関するものがありますが、こちらはセルフモニタリングや社会的認知に関わるものと重なっています。
これらの候補は心理学の理論に基づき提示されており、様々な感情刺激のセットを提起しています。
…と、ここまでが論文の紹介なのですが、実は私はこの論文の結果に対して一部懐疑的な意見を持っています。
というのも、検証が不十分な部分が多々あると思われるからです。
第一に、「本当に感情刺激の影響が出ているのか」がこの結果からは検証しきれていないように思います。
例えば感情刺激のプロンプトを追加するためには、元々のプロンプトに文章を追加する必要があり、文字数が増えてしまうことになります。
文字が増えれば増えるほど回答の精度が上がるという研究結果もあり、それとの区別が難しいと思うのです。
他にも、論文であげられている感情刺激のための文章が網羅的である保証もありません。
と、いろいろと疑問に思うところはありますが、文字数の問題などは実際の応用場面では問題にならないのも確かです。
実応用の場面で文字数制限が関係してくることはほとんどないので、たくさん(感情刺激に限らず)書いて、
有効な回答が得られれば良い、と思います。
次にchatGPTに何かを聞くとき。
感情をくすぐるような言葉を入れてみると、何か変わるかもしれません。
逆に「あなたに本当にわかる?」と言ったようなネガティブな感情を刺激する文章を入れるとどんな出力になるのか
気になってしまう私は、ちょっと意地悪なのかもしれません。。。
P.S.
↓メルマガの新規登録はこちらから↓
https://48auto.biz/keieijinji/touroku/sp/scenario13.htm
(スマートフォンよりご登録いただけます)