問題
問81
ある会社では、AIを利用した顧客データ分析システムを導入した。このシステムの利用に関する監査の観点として、最も適切なものはどれか。
- AIのアルゴリズムが、会社の利益を最大化するように設計されているか。
- AIの学習データに偏りがなく、特定の顧客グループに対して不公平な判断を行っていないか。
- AIモデルの構築に、最新のプログラミング言語が使用されているか。
- AIによる分析結果が、常に100%の精度であることを保証しているか。
正解
正解は「イ」です。
解説
正解は選択肢イです。AI(人工知能)を利用したシステムを監査する際には、従来のシステム監査の観点に加えて、「AI倫理」の観点が非常に重要になります。AIは、学習に使われたデータ(学習データ)からパターンを学び、判断を下します。もしこの学習データに偏りがあると、AIの判断も偏ったものになり、結果として特定のグループを不当に差別するなど、不公平な結果を生む可能性があります。
例えば、過去の採用データに男性しかいなかった場合、そのデータで学習したAIは「男性を優先的に採用すべき」と判断してしまうかもしれません。このように、AIが意図せず社会的なバイアスを増幅させてしまうリスクがあるため、監査では学習データが公平であるか、AIの判断プロセスが透明性を持ち説明可能であるか、といった点が重要なチェックポイントとなります。
ア(AIのアルゴリズムが、会社の利益を…):
利益の最大化は目的の一つですが、倫理や公平性を無視してはならず、監査の最重要観点とは言えません。
ウ(AIモデルの構築に、最新の…):
使用する技術の目新しさは、システムの品質や妥当性を直接示すものではなく、監査の主要な観点ではありません。
エ(AIによる分析結果が、常に100%の…):
現在の技術では、AIの予測や分析が100%の精度を持つことはほぼ不可能です。非現実的な要求であり、監査の観点として不適切です。
解法のポイント
近年注目されている「AI倫理」や「AIの公平性」という概念を知っているかがポイントです。AIは万能ではなく、学習データの質に大きく依存するという特性を理解していれば、データの偏りが不公平な判断につながるリスクを想像できます。システム監査は、技術的な正しさだけでなく、そのシステムが社会的に適切に使われているかという視点も含むため、選択肢イのような倫理的・社会的な観点が重要となります。
用語補足
AI (人工知能):
人間の知的活動をコンピュータで模倣したソフトウェアやシステムのことです。データから学習し、予測や判断を行います。
学習データ:
AIが学習するために使用する大量のデータのことです。AIの性能や判断の質は、この学習データの質と量に大きく左右されます。
アルゴリズム:
問題を解決するための計算手順や処理方法のことです。AIでは、学習や予測を行うための計算ロジックを指します。
AI倫理:
AIを開発・利用する上で遵守すべき倫理的な原則や指針のことです。プライバシー保護、公平性、透明性、説明責任などが含まれます。


