chatGPTマスターを目指して vol.17 GPTに論文は書ける?
文章の要約、情報収集、果ては会話相手まで、様々な領域で私たちをサポートしてくれるchatGPT。かれらにできないことはあるのでしょうか。
chatGPTをはじめとした大規模自然言語モデルと呼ばれる「自然言語」、すなわち私たちが普段使うこの言葉をモデル化するAIたちには得意不得意があります。
例えば先週お送りしたこちらの記事。
【chatGPTマスターを目指して vol.16 研究ではどう使われている?】
https://blog.people-resource.jp/newsletter_chatgpt_vol16/
上の記事では、chatGPTがさまざまな領域で活躍している現状をお伝えしました。
きっとこれからも、どんな分野での活用が可能なのか、研究が猛スピードで進められていくことと思います。
では、chatGPTに「任せてはいけないもの」はあるのでしょうか。
chatGPTの一番の弱点は、うそをついてしまうことです。
一般にハルシネーションと呼ばれる「実際は存在しないこと」を生成してしまうという致命的なエラーが、chatGPTだけでなく様々な自然言語生成モデルで確認されています。
どのようにうそをついてしまうかというと、断片的な情報を拾うことで、それらを誤ってつなげてしまう、といった嘘をつくことが多い気がします。
例えばとある先生が「北海道大学で開催された学会でとあるシステムAについて発表した」ことがあるようなのですが、
「北海道大学」「システムA」という単語を抜き出して「システムAは北海道大学との共同研究であった」といったように生成されてしまったとのことでした。
このような問題を解決しない限り、生成AIの出力をすべて信じることはできず、そのため、chatGPTに論文を書くことは無理、と結論付けることができます。
実際にchatGPTの活用可能性についてまとめた論文でも、同様に「論文の著者としてchatGPTが名を連ねることはできない」と指摘されています。
【ChatGPT Utility in Healthcare Education, Research, and Practice: Systematic Review on the Promising Perspectives and Valid Concerns】
https://www.mdpi.com/2227-9032/11/6/887
さらにchatGPTが今後さらに活躍の場を広げるためには倫理規範等についても検討が必要である、という、純粋な機械学習の理論以外のところでの議論も必要とされているようです。
ちなみにこちらの論文で述べられているchatGPTの活用可能性。
2023年の論文でしたので、今年何か新しい調査が出ているのかなと思い調べてみたのですが、論文の形ではまだめぼしいものは無さそうです。
これだけ多くの研究が乱立していると、それをまとめるのも一苦労そうです…。
P.S.
↓メルマガの新規登録はこちらから↓
https://48auto.biz/keieijinji/touroku/sp/scenario13.htm
(スマートフォンよりご登録いただけます)