問題
問1
大規模言語モデル(LLM)において、特定のタスクやドメインに最適化するために、事前学習済みのモデルに追加でデータを与えて学習させるプロセスを何と呼ぶか。
- 転移学習
- ゼロショット学習
- ファインチューニング
- コールドスタート
正解
正解は「ウ」です。
解説
この問題の正解は「ファインチューニング」です。ファインチューニングとは、既に大量のデータで学習済みのモデル(事前学習済みモデル)に対して、特定の目的や専門分野に合わせた追加のデータセットを使って再学習させる手法のことです。これにより、汎用的なモデルを特定のタスクに特化させ、性能を向上させることができます。
例えば、一般的な文章を作成できるAIに、医療関連の論文を追加で学習させることで、医療分野に特化した高精度な文章を作成するAIに調整するようなイメージです。料理に例えるなら、市販の万能だしをベースに、自分の作りたい料理(例えば、うどん)に合わせて醤油やみりんを加えて味を微調整するようなものです。この「微調整」がファインチューニングにあたり、AIの性能を特定の方向に引き出すための重要なプロセスです。
ア(転移学習):
ある分野で学習したモデルの知識を、別の関連分野のタスクに応用する広い概念です。ファインチューニングは転移学習の一手法とされます。
イ(ゼロショット学習):
一度も学習したことのないタスクを、事前情報だけで実行しようとする手法です。追加学習は行いません。
エ(コールドスタート):
レコメンデーションシステムなどで、新規ユーザーのようにデータが全くない状態から推奨を始める際の問題点を指す言葉です。
解法のポイント
この問題を解く鍵は、「事前学習済みのモデル」に「追加でデータを与えて学習」させ、「特定のタスクに最適化する」というキーワードです。これが「ファインチューニング(微調整)」の定義そのものです。AI関連の用語は似たものが多いため、それぞれの言葉が持つ具体的な意味と違いを正確に理解しておくことが重要です。特に転移学習とファインチューニングは関連が深いですが、ファインチューニングはより具体的な「微調整」のプロセスを指す、と覚えておくと区別しやすくなります。
用語補足
大規模言語モデル(LLM):
非常に大量のテキストデータを学習し、人間のように自然な文章を生成したり理解したりできるAIモデルのことです。例えば、ChatGPTなどがこれにあたります。
事前学習済みモデル:
あらかじめ膨大なデータセットを使ってトレーニングされたモデルのことです。これをベースにすることで、ゼロから学習させるよりも効率的にAIを開発できます。
ドメイン:
ITの文脈では、特定の分野や領域を指します。例えば、「医療ドメイン」は医療分野、「金融ドメイン」は金融分野を意味します。
転移学習:
あるタスクで得た知識や学習結果を、別の関連するタスクに活用する機械学習の手法です。例えば、犬の画像認識で学習したモデルを、猫の画像認識に応用するようなケースです。


