プロデジ(データ・AI)想定問題集 トップへ
科目B: 事例問題(問41〜50)

50

【事例4つづき】前問と同じF社の健康増進サービスでは、機械学習モデルで契約者の健康リスクをスコアリングし、保険料や加入可否の判断に活用することも検討されている。AI倫理・AIガバナンスの観点から、このユースケースで最も優先して組み込むべき対策として最も適切なものはどれか。

AAIモデルの予測結果を学習データの偏りや属性(年齢・性別・居住地域など)によるバイアス観点で継続的に監査し、判断根拠の説明可能性を確保する仕組みを整備し、保険料や加入可否の最終判断は人間が担保するヒューマンインザループ体制とする
Bモデルの判断をブラックボックスのまま保険料に自動反映させ、説明責任は一切負わない方針とする
C学習データのバイアス分析は一切実施せず、結果のみを運用指標として使い続ける
DAIモデルが算出したスコアを契約者本人にも関係部門にも開示せず、完全に非公開で運用する

解説

保険料や加入可否のように人の生活に大きな影響を与えるAI判断には、データバイアスの継続監査、説明可能性の確保、ヒューマンインザループによる最終判断担保という3点が不可欠です。ブラックボックス自動反映・バイアス無視・完全非公開はAI倫理および差別防止・説明責任の観点で重大な問題があり、消費者保護と社会受容性を損ないます。