初めてのGPU

これまでより複雑なモデルを作るように発展してきた大規模言語モデルですが、ここにきてその傾向に変化が現れてきました

  

自分で決めたことをやりきる力を付けよう!

そう一念発起してから早7か月。

毎日英語や論文調査、運動を続けていて、それ自体がもちろんたくさんのメリットをもたらしてくれたのですが、この度、更なるメリットを享受することができました。

それは「(対自分比で)鍛えられた心」です。

 

どうしてパソコンは私の思い通りに動いてくれないのでしょうか。

実は今使っているノートパソコン、GPUと呼ばれる、とても高い計算性能を持っています。

ですがこれまで、実はその設定が全くわからず、一切使えていませんでした。

まさに、宝の持ち腐れです。

 

これまでも頑張ろうと思ったことはあったのです。

ですがパソコンに対して詳しくない私のことです。その道は果てしないものでした。

いつもいろいろなところで躓き、そして諦め。

まるで散らかした机を一切片づけない小学生のように、PCの環境だけをぐちゃぐちゃにして、そのまま放棄してしまっていました。

 

そんな私に転機が訪れたのが数日前。

自分の研究をこれからも同じように進めるのであれば、計算時間短縮のため、絶対にGPUを使う必要がある!

これまでも何度も挑もうとして諦めていた「設定」という高い山に、ようやく登るやる気が出てきたのです。

今までの自分と違うことと言えば、冒頭の「鍛えられた心」を持っていることです。

そしておおよそ10時間の取り組みを得て、まさに今、GPUの設定並びにGPUを使った計算が可能であることまで確認できました。

最高にいい気分です。

 

ところで、計算をとても早くこなしてくれるGPUですが、最近ではさらに高性能のTPUと呼ばれる計算機も現れています。

何故かと言えば、chatGPTに代表される自然言語モデルや、画像の生成モデル等、多くのモデルにおいて「パラメータを増やすことで精度を上げる」試みが多くなされているためです。

(機械学習においてパラメータが増えることは、計算量が増えることにほとんど等しくなっています。)

しかしここ直近では、このような流れに待ったをかける研究がたくさん現れてきました。

 

汎用性のあるモデルでなくてもいいのではないか。

何か問題に特化させることで、モデルを軽量化し、計算にかかるコストを減らすことが重要なのではないか。

そんな着眼点の研究が増え、一方で「とりあえず複雑なモデルを作ろう!」と言った研究の勢いが弱まってきたように思います。

 

企業に属していない、いち個人としては、この流れは願ったりかなったりです。

変化の早いこの機械学習の業界では、流れを見誤らないことが重要になりそうです。

 

P.S.

論文はこちらからご覧いただけます。

【Large Language Models: A Survey】

https://arxiv.org/abs/2402.06196

 

P.P.S.

↓メルマガの新規登録はこちらから↓

https://48auto.biz/keieijinji/touroku/sp/scenario13.htm

(スマートフォンよりご登録いただけます)

Who is writing

大学にてデータサイエンスを学ぶ傍ら、多くの人にデータ分析の面白さを伝えたいと日々奮闘中。