問題
問72
AI倫理に関する次の記述のうち、最も重要な視点として適切なものをすべて挙げたものはどれか。
- a. 公平性
- b. 透明性
- c. 説明責任
- d. プライバシー保護
- a, b, c, d
- a, b, c
- a, d
- b, c, d
正解
正解は「ア」です。
解説
正解は「a, b, c, d」です。AI倫理では、生成AIや機械学習モデルの導入・運用において、複数の重要な視点が求められます。まず公平性は、AIの判断が特定の個人やグループに不利益を与えないようにすることを意味します。例えば、採用システムで性別や年齢による偏りが生じないように配慮する必要があります。次に透明性は、AIがどのような根拠で判断を行っているかを理解可能にすることです。ブラックボックス化を避け、利害関係者が結果を検証できることが重要です。
さらに説明責任は、AIの出力結果や意思決定の理由を説明できる体制を整えることを指します。問題が発生した場合に誰が責任を持つのか明確にすることは、企業の信頼性向上につながります。そしてプライバシー保護は、個人情報や機密情報を適切に扱い、データ漏洩や不正利用を防ぐことです。これら4つの視点は、相互に補完しながらAI倫理の基本原則として企業活動に組み込む必要があります。
イ(a, b, c):
プライバシー保護が含まれていないため、個人情報保護の観点が欠落しています。AI倫理では個人情報の適切な取り扱いも重要です。
ウ(a, d):
透明性や説明責任が欠落しており、AIの判断過程を説明できない点が問題となります。これではブラックボックス化のリスクをカバーできません。
エ(b, c, d):
公平性が欠落しており、特定の個人やグループに偏った判断が行われるリスクが残ります。公平性はAI倫理の基本要素です。
解法のポイント
AI倫理の問題では、「公平性」「透明性」「説明責任」「プライバシー保護」の4つの基本視点をすべて理解することが重要です。選択肢を確認する際にどれか一つでも欠けていると不正解となるため、これらのキーワードを押さえて整理しましょう。
用語補足
公平性:
AIの判断が特定の個人や集団に偏らず、公正であること。例えば採用システムで性別や年齢による差別がないようにすること。
透明性:
AIの意思決定の仕組みや根拠が理解可能であること。ブラックボックス化を避け、利害関係者が判断の理由を確認できる状態を指します。
説明責任:
AIの出力や意思決定に対して責任を明確にし、問題が発生した際に対応できる体制を持つこと。
プライバシー保護:
個人情報や機密情報を適切に管理し、不正利用や漏洩を防ぐこと。例として、顧客データの匿名化やアクセス権限の管理があります。


