AI倫理・プライバシー・説明可能なAI — AIを「正しく」使うための知識
導入
AIが採用候補者を自動選別したところ、特定の属性を持つ人を不当に排除していた——こうしたAIバイアスの事例は世界各地で報告されています。AIの活用が広がるほど、倫理的配慮と法的責任の知識が欠かせなくなっています。
くわしく知ろう
AIに関わる倫理的・法的・社会的課題の総称をELSI(Ethical, Legal and Social Issues)と呼びます。日本の総務省AI利活用ガイドラインや欧州のEU AI法が透明性・公正性・安全性の原則を定め、AI活用に法的責任が伴うことを示しています。
AIバイアスには、学習データの偏りによるデータバイアスや、モデル設計に起因するアルゴリズムバイアスがあります。利用者側も、自分の信念に合う情報だけを重視する確認バイアスによってAIの誤出力を見過ごすリスクがあります。AIが事実と異なる情報を生成するハルシネーションは医療・金融など信頼性が問われる場面での深刻なリスクです。同質意見しか届けないエコーチェンバーやフィルターバブル、精巧な偽映像のディープフェイクも社会的混乱の要因です。
XAI(説明可能なAI)とは、AIの判断根拠を人が理解できる形で示す技術を指します。入力変化で予測への影響を調べるLIMEと、各特徴量の貢献度を数値化するSHAPが代表手法です。ヒューマンインザループはAIの判断プロセスに人間が介在して最終意思決定を担う仕組みです。
個人情報保護法では、個人特定が不可能な匿名加工情報と、照合すれば特定できる状態の仮名加工情報(第三者提供は原則禁止)が区別されています。病歴・障害・犯罪歴は要配慮個人情報として明示的同意(オプトイン)が必要です。PIAはシステム設計段階からプライバシーリスクを評価する事前防止の仕組みです。
具体例
金融機関の融資審査AIにXAIを導入すると、SHAP値で「なぜこの申請者に融資を断ったか」を担当者が説明できます。最終判断はヒューマンインザループで人間が行い、PIA実施・オプトイン取得・匿名加工・バイアス定期監査をセットで運用することで、公正性と法令遵守を両立させています。
まとめ・試験ポイント
- ELSI=AIに関わる倫理的・法的・社会的課題の総称
- ハルシネーション=AIが事実と異なる情報を生成する現象(信頼性リスク)
- XAI(説明可能なAI)=判断根拠を人が理解できる形で示す技術(LIME・SHAP)
- ヒューマンインザループ=AIの判断に人間が介在して最終意思決定を担う仕組み
- 匿名加工情報=個人特定が不可能、仮名加工情報=照合すれば特定可能(内部分析用途に限定可)
- 要配慮個人情報(病歴・障害等)の取得にはオプトイン必須、PIAは設計段階から実施するのが原則
※本コンテンツは2026年3月公表の改定案 Ver.1.0 に基づく暫定版です
学習した内容を試験形式で確認しよう。ITパスポート入門試験100問に挑戦できます。
入門試験100問に挑戦する