生成AI・RAG・AIエージェント入門 — 「使えるAI」の仕組みを正しく理解する
導入
ChatGPTに質問したら、もっともらしい嘘の情報を自信満々に返してきた――そんな体験をした方もいるのではないでしょうか。生成AIは正確な事実を検索するエンジンではなく、確率的にテキストを生み出す仕組みです。その本質を理解して使うことが、業務で「使えるAI」を実現する第一歩になります。
くわしく知ろう
LLM(大規模言語モデル)は、Transformer(トランスフォーマー)と呼ばれるアーキテクチャを基盤にしています。テキストをトークン(単語や文字のかたまり)に分割し、次に来るトークンの確率を繰り返し予測することで文章を生成します。つまり生成AIは「正解を調べる」のではなく「それらしい続きを確率的に選ぶ」という仕組みになっています。
この特性から生じる問題がハルシネーション(幻覚)です。訓練データにない事実や、最新情報・専門的な社内規程など学習していない領域でも、もっともらしい文章を生成してしまう現象を指します。対策には、情報源を明示させるプロンプト設計や、後述のRAG導入が有効です。
プロンプト設計(フューショットやCoTなど)でも精度向上は可能ですが、知識そのものが訓練データ外の場合の根本的な解決にはなりません。
RAG(検索拡張生成)は、ハルシネーション抑制と最新情報への対応を同時に実現する設計手法です。質問に関連する文書を外部知識ベースからベクトル検索で取得し、その内容をLLMへの文脈として渡してから回答を生成するという3ステップで動作します。LLMの訓練データを更新せずに済むため、頻繁に変わる社内規程や製品情報との組み合わせに向いています。
AIエージェントはPlan(計画)・Act(実行)・Observe(観察)のループを繰り返し、複数のツールを自律的に使いながらタスクを完遂します。MCP(Model Context Protocol)はエージェントが外部ツールと接続するための標準プロトコルです。
ファインチューニングはモデル自体を再訓練する手法で文体・形式の一貫性に向きます。RAGは知識更新頻度が高い場面での活用が推奨されます。
具体例
ある法律事務所が社内規程のQAシステムを構築した例を考えてみましょう。LLMのみでは訓練データに含まれない自社規程を答えられず、ハルシネーションが発生するリスクがあります。そこでRAGを導入し、規程PDFをベクトルDB化して質問に近傍の文書を検索し、その内容を文脈としてLLMに渡すことで回答精度が大幅に改善されました。
まとめ・試験ポイント
- LLM=次トークンの確率予測でテキストを生成する仕組み。事実を検索するエンジンではない
- ハルシネーション=訓練データにない情報をもっともらしく生成してしまう現象
- RAGの3ステップ=外部知識ベースから検索 → 文脈として付加 → LLMで生成
- AIエージェント=Plan-Act-Observeループを繰り返す自律的な仕組み(RAGの1ショット処理と区別する)
- MCP(Model Context Protocol)=AIエージェントが外部ツール・APIと接続するための標準プロトコル
- ファインチューニング vs RAG=モデル再訓練で文体統一がファインチューニング、知識更新コスト低減がRAG
※本コンテンツは2026年3月公表の改定案 Ver.1.0 に基づく暫定版です
学習した内容を試験形式で確認しよう。ITパスポート入門試験100問に挑戦できます。
入門試験100問に挑戦する