【最新版】基本情報技術者試験 予想問題(ストラテジ) [問71] | 模擬試験で効率的に学習!

スポンサーリンク

問題

問71

AI(人工知能)技術の発展に伴い、特に大規模言語モデルを用いた生成AIの活用が企業で進んでいる。この生成AIをビジネスに導入する際の課題として、最も適切なものはどれか。

  • 生成された情報の正確性や倫理的な側面に関するリスク管理
  • 利用するために特別な高性能なハードウェアが必ず必要となること
  • 常にインターネット接続が必要であり、オフラインでは全く利用できないこと
  • 既存の業務システムとの連携が原理的に不可能であること

正解

正解は「」です。

解説

 正解は「生成された情報の正確性や倫理的な側面に関するリスク管理」です。生成AIは、大規模言語モデルを用いて自然言語で文章を生成したり、質問に答えたりすることができますが、出力される情報の正確性が常に保証されるわけではありません。例えば、誤った情報や偏った内容が生成されることがあります。また、差別的表現やプライバシー侵害のリスクなど倫理的な側面も懸念されます。企業が生成AIを導入する際には、こうしたリスクを事前に把握し、利用規程の整備や生成内容のチェック体制を設けることが重要です。

 一方で、他の選択肢は事実と異なります。生成AIは必ずしも特別な高性能ハードウェアを必要とせず、クラウドサービスを利用すれば低スペック端末でも利用可能です。また、オフライン環境でも学習済みモデルを利用できる場合があります。既存業務システムとの連携もAPIなどを通じて可能です。このように、技術的制約よりも、情報の正確性や倫理的リスクが導入の主要課題となります。

イ(利用するために特別な高性能なハードウェアが必ず必要):
 クラウドサービスを利用すれば、一般的なPCや端末でも生成AIを利用可能です。必ず高性能ハードウェアが必要というわけではありません。
ウ(常にインターネット接続が必要でオフラインでは利用不可):
 一部の生成AIモデルはローカルで動作可能であり、必ずしも常時オンラインである必要はありません。
エ(既存の業務システムとの連携が原理的に不可能):
 APIやデータ連携ツールを用いることで、既存の業務システムと連携することは可能です。原理的に不可能ではありません。

スポンサーリンク

解法のポイント

 生成AI導入の課題としては、技術的な制約よりも情報の正確性や倫理リスクが重要です。「正確性・倫理リスク管理」がキーワードとなるため、この視点で選択肢を整理すると正解を選びやすくなります。

用語補足

生成AI:
大規模言語モデルなどを利用して文章や画像、音声などを生成する人工知能技術です。例として、ChatGPTやDALL-Eがあります。

大規模言語モデル:
膨大な文章データを学習して、人間の言語を理解・生成するAIモデルです。自然な文章作成や質問応答が可能です。

リスク管理:
予測される問題や損害を事前に把握し、対応策を講じる活動です。生成AIの場合は情報の誤りや倫理的問題への対策を指します。



タイトルとURLをコピーしました