最近、機械学習と人間のかかわり方が変わってきている気がします。
これまで使ってこなかった分野で活用が進んだ(機械学習にデータ収集を頼んだり、翻訳してもらったり)、という話ももちろんあるのですが、それだけではなく学習のフェーズでも関わり方が変わってきたように思います。
例えば、実験計画の分野。
どんな条件が最適で、目的を達成するためにはどうすればいいのか?ということを仮説・検証しながら探していく分野ですが、従来はこれらの実験を立てるのは人間の役割でした。
一方最近では、適応的実験計画法という名前で、仮説を立てることからdataに基づき行ってしまおう、という研究も盛んにおこなわれています。
他にもデータのプライバシー保護の観点について、これまでは分析を行う前に人手でプライバシーが確保できるようにすることが一般的でした。
なのですが、最新の研究では、機械学習によるプライバシー漏洩を減らすため、モデルの「蒸留」と呼ばれる技術が活用されています。
(蒸留酒、美味しいですよね。)
モデルの蒸留とは、すでに学習されたモデルへの入力と出力を使って、新しい「似た」モデルを学習することを指します。
最初に学習されたモデルには、プライバシーが保護されるべきデータがたくさん反映されているのですが、新たに蒸留されて作られたモデルには含まれていません。
そのことにより、プライバシーを保護することができる、と考えられています。
ですがもちろん、蒸留モデルの作成だけではプライバシー保護に対して十分ではない、という研究も行われているため、まだまだ改善の余地は残されています。
https://neurips.cc/virtual/2023/poster/71209
(NeurIPSという機械学習のトップ国際会議より引用)
とはいえ、これまで人間が行っていた領域についても機械学習が手を伸ばしていることは間違いありません。
それをすべて機械学習に任せることなく、人間も一緒に参加する形で、よりよいモデルが発展していったらもっと素晴らしいことができるのではないかと思うと、ととてもわくわくします。
P.S.
↓メルマガの新規登録はこちらから↓
https://48auto.biz/keieijinji/touroku/sp/scenario13.htm
(スマートフォンよりご登録いただけます)