プロフェッショナルデジタルスキル(データ・AI)試験

生成AI・RAG・AIエージェント入門 — 「使えるAI」の仕組みを正しく理解する

導入

ChatGPTに質問したら、もっともらしい嘘の情報を自信満々に返してきた――そんな体験をした方もいるのではないでしょうか。生成AIは正確な事実を検索するエンジンではなく、確率的にテキストを生み出す仕組みです。その本質を理解して使うことが、業務で「使えるAI」を実現する第一歩になります。

くわしく知ろう

LLM(大規模言語モデル)は、Transformer(トランスフォーマー)と呼ばれるアーキテクチャを基盤にしています。テキストをトークン(単語や文字のかたまり)に分割し、次に来るトークンの確率を繰り返し予測することで文章を生成します。つまり生成AIは「正解を調べる」のではなく「それらしい続きを確率的に選ぶ」という仕組みになっています。

この特性から生じる問題がハルシネーション(幻覚)です。訓練データにない事実や、最新情報・専門的な社内規程など学習していない領域でも、もっともらしい文章を生成してしまう現象を指します。対策には、情報源を明示させるプロンプト設計や、後述のRAG導入が有効です。

プロンプト設計(フューショットやCoTなど)でも精度向上は可能ですが、知識そのものが訓練データ外の場合の根本的な解決にはなりません。

RAG(検索拡張生成)は、ハルシネーション抑制と最新情報への対応を同時に実現する設計手法です。質問に関連する文書を外部知識ベースからベクトル検索で取得し、その内容をLLMへの文脈として渡してから回答を生成するという3ステップで動作します。LLMの訓練データを更新せずに済むため、頻繁に変わる社内規程や製品情報との組み合わせに向いています。

AIエージェントはPlan(計画)・Act(実行)・Observe(観察)のループを繰り返し、複数のツールを自律的に使いながらタスクを完遂します。MCP(Model Context Protocol)はエージェントが外部ツールと接続するための標準プロトコルです。

ファインチューニングはモデル自体を再訓練する手法で文体・形式の一貫性に向きます。RAGは知識更新頻度が高い場面での活用が推奨されます。

具体例

ある法律事務所が社内規程のQAシステムを構築した例を考えてみましょう。LLMのみでは訓練データに含まれない自社規程を答えられず、ハルシネーションが発生するリスクがあります。そこでRAGを導入し、規程PDFをベクトルDB化して質問に近傍の文書を検索し、その内容を文脈としてLLMに渡すことで回答精度が大幅に改善されました。

まとめ・試験ポイント

  • LLM=次トークンの確率予測でテキストを生成する仕組み。事実を検索するエンジンではない
  • ハルシネーション=訓練データにない情報をもっともらしく生成してしまう現象
  • RAGの3ステップ=外部知識ベースから検索 → 文脈として付加 → LLMで生成
  • AIエージェント=Plan-Act-Observeループを繰り返す自律的な仕組み(RAGの1ショット処理と区別する)
  • MCP(Model Context Protocol)=AIエージェントが外部ツール・APIと接続するための標準プロトコル
  • ファインチューニング vs RAG=モデル再訓練で文体統一がファインチューニング、知識更新コスト低減がRAG

※本コンテンツは2026年3月公表の改定案 Ver.1.0 に基づく暫定版です

学習した内容を試験形式で確認しよう。ITパスポート入門試験100問に挑戦できます。

入門試験100問に挑戦する