基本情報技術者試験 令和7年度(科目A) [問1] 過去問解説

スポンサーリンク

問題

問1

大規模言語モデルを用いた自然言語処理において,事前学習済みのモデルに対して行う,ファインチューニングに関する記述として,最も適切なものはどれか。

  • 強化学習を行い,最適な結果が得られるようにする。
  • 事前学習と同じデータを繰り返し用いて学習を行い,モデルの精度を高めるようにする。
  • 大量のテキストデータを用いて学習を行い,モデルの精度を高めるようにする。
  • 特定のデータを用いて追加で学習を行い,目的とするタスクに適用できるようにする。

[出典:基本情報技術者試験 令和7年度(科目A) 問1]

正解

正解は「」です。

解説

 正解は「エ」です。「ファインチューニング(fine-tuning)」とは、事前に大規模なデータで学習されたモデルをベースにして、特定の目的やタスクに合わせた追加の学習を行うことを意味します。これは、医療文書や法律文書など特定のジャンルに特化したデータを使って学習させることで、その分野での精度を高めることを目的とします。たとえば、英語が得意な人が日本語のビジネス会話を学ぶようなもので、基本的な言語力(事前学習)はあるけれど、特定の場面(ビジネス)に適応させるためのトレーニング(ファインチューニング)を行うというイメージです。

 一方で、選択肢「ア」のような強化学習は、モデルに試行錯誤を繰り返させて報酬を最大化するような仕組みであり、ファインチューニングとは異なります。また「イ」のように同じデータを繰り返して学習させると、過学習(オーバーフィッティング)の原因となることがあります。「ウ」は、事前学習の段階で行うことであり、ファインチューニングではありません。したがって、ファインチューニングとして最も適切なのは「エ」の選択肢です。

ア(強化学習を行い…):
 強化学習はファインチューニングとは別の機械学習手法であり、報酬を最大化するための行動選択の学習に使われます。ファインチューニングは特定タスクへの適応を目的とした教師あり学習です。
イ(事前学習と同じデータを…):
 同じデータを繰り返し使うと、過学習を引き起こしやすく、実際の応用力が下がる恐れがあります。ファインチューニングでは新しい、目的に沿ったデータを使うべきです。
ウ(大量のテキストデータを用いて…):
 これはファインチューニングではなく、事前学習の説明に当たります。ファインチューニングは目的特化の追加学習であり、大量データを使う必要は必ずしもありません。

スポンサーリンク

難易度

 この問題の難易度は「やや易しい」です。大規模言語モデルやファインチューニングの基本概念を理解していれば、正解にたどり着くことができます。近年のChatGPTなどの普及で言葉自体に馴染みのある受験者も多いため、初心者でも常識的な判断で選びやすい問題です。

用語補足

ファインチューニング:
事前に学習されたAIモデルに対して、特定の目的に合わせた追加学習を行うことです。例えるなら、一般的な料理スキルを持った人が中華料理に特化した訓練を受けるようなものです。

強化学習:
行動の結果に応じた「報酬」を使って、最適な行動を学習する手法です。たとえば、迷路をゴールにたどり着けるように試行錯誤して覚えるような学習方法です。

大規模言語モデル:
大量のテキストデータをもとに学習されたAIモデルで、自然な文章を理解・生成できます。ChatGPTやBERT、GPTなどが代表例です。人間のような自然な応答を可能にします。

解法のポイント

 ファインチューニングや強化学習など、AIの学習手法にはいくつかの種類があります。それぞれの手法が「いつ」「何のために」使われるかを区別して理解することが大切です。用語の意味を日常の例で考えてイメージすると記憶に残りやすくなります。図解や実例付きの参考書で復習するのも効果的です。



タイトルとURLをコピーしました