技術用語なしでAIを理解する

LLM、RAG、ファインチューニング、エージェント — AIプロジェクトで最もよく登場する概念を技術用語なしで解説。意思決定者が聞くべき質問も。

AXAI転換AIリテラシーコンサルティング

「で、そのAIは具体的に何をするんですか?」 この質問に技術用語なしで答えられてこそ、本当に理解しているということです。

技術を知らなくても判断はしなければならない

AIプロジェクトの意思決定者 — 社長、役員、チームリーダー — にとって最も居心地の悪い瞬間があります。技術チームが説明しているのに、単語は聞こえるが意味がわからない瞬間です。

「LLMベースでRAGを適用して、必要ならファインチューニングします。」

うなずきますが、頭の中は真っ白です。そしてその状態で予算を承認し、ベンダーを選定し、プロジェクトの方向性を決定します。

これは危険です。技術を自分で作る必要はありませんが、何をするのかは理解しなければなりません。そうでなければ正しい質問ができず、誤った提案を見抜けません。

この記事では、AIプロジェクトで最もよく登場する概念を技術用語なしで説明します。

大規模言語モデル — 膨大な量を読んだ新入社員

ChatGPTやClaudeのようなAIの核心である大規模言語モデル(LLM)は、たとえるならインターネット上のほぼすべての文章を読んだ新入社員です。

この新入社員は驚くべき能力を持っています。どんなテーマでももっともらしく話せ、文章を要約し、翻訳し、コードまで書きます。数千冊の本と数億のドキュメントを読んでいるからです。

しかし決定的な限界があります。

自社の社内文書は読んだことがありません。 インターネット上の一般知識は豊富ですが、自社製品のスペック、顧客の履歴、チームのプロセスは知りません。

読んだことと知っていることは違います。 たくさん読みましたが、何が正確で何が間違っているか判断できません。だから時々、非常に自信に満ちた口調で間違った答えをします。これを「ハルシネーション(幻覚)」と呼びます。

昨日起きたことを知りません。 学習は特定の時点までしか行われていないため、最新情報に弱いです。

だからこの新入社員をすぐ実務に投入すると問題が起きます。追加的な仕組みが必要です。

RAG — 新入社員に参考資料を持たせること

RAG(検索拡張生成)は複雑に見えますが、本質はシンプルです。

新入社員に答える前に、関連する文書をまず探して読ませることです。

「うちの会社の返品ポリシーは?」と聞くと、AIがすぐに答える代わりに、まず社内文書から返品ポリシーに関する内容を検索します。検索された文書を参考にして回答を作ります。

こうすることで2つが改善されます。

精度が上がります。 自分の頭の中の一般知識ではなく、実際の文書に基づいて答えるからです。

出典を確認できます。 「この回答は返品ポリシー文書の3ページに基づいています」と示せるので、人が検証しやすくなります。

ただし限界もあります。文書がめちゃくちゃなら検索結果もめちゃくちゃで、結局回答もめちゃくちゃです。AIの性能は向上させますが、文書の品質を代わりに上げてはくれません。

意思決定者が聞くべき質問:「AIに参考にさせる文書が、私たちの側でちゃんと整理されているか?」

ファインチューニング — 新入社員を自社流に再教育すること

ファインチューニングとは、汎用AIを自社の目的に合わせて追加訓練することです。

比喩を続けると、新入社員は一般的なビジネス知識は豊富ですが、自社業界の専門用語や自社のトーン&マナーに合わせた文章は書けません。ファインチューニングは、この新入社員に「うちではこうやって仕事をする」を繰り返し学習させるプロセスです。

例えば、カスタマーサポートAIを作るなら、自社の過去の対応記録数千件を学習させて、自社のトーンで回答するようにします。

しかしファインチューニングはコストと時間がかかります。そしてデータが十分でなければ効果がありません。現実的な順序はこうです:

ステップ1:汎用AIをそのまま使ってみる(コスト:ほぼゼロ)

ステップ2:RAGで自社の文書を参照させる(コスト:低〜中)

ステップ3:それでも不十分ならファインチューニングを検討(コスト:高)

ほとんどの企業はステップ2で十分な効果を得ています。ステップ3が必要なケースは思ったより少ないです。

意思決定者が聞くべき質問:「ファインチューニングは本当に必要か、それともRAGで十分か?」

AIエージェント — 新入社員に業務権限を与えること

最近最も耳にする概念です。AIエージェントは単に質問に答えるだけでなく、自ら判断し行動するAIです。

これまでのAIが「聞かれたら答える相談員」だとすれば、エージェントは「仕事を任せれば自分で処理する実務者」に近いです。

例えば「来週のミーティングの日程を調整して」と言えば、エージェントは参加者のカレンダーを確認し、空いている時間を見つけ、会議の招待を送り、必要な資料を添付します。人が各ステップを指示する必要なく、プロセス全体を自律的に実行します。

強力ですが、リスクも大きいです。判断を誤れば、行動も誤ります。 間違ったメールを送ったり、的外れな注文を入れたり、機密データを外部に送ったりする可能性があります。

そのためエージェント導入の鍵は技術ではなく権限設計です。エージェントが自律的にできる範囲と、必ず人の承認を得るべき範囲を明確に定める必要があります。

意思決定者が聞くべき質問:「このエージェントが一人で判断してよい範囲はどこまでか?」

4つの概念の関係

まとめるとこうです。

LLM(大規模言語モデル):膨大な量を読んだ汎用人材。基本エンジンです。

RAG(検索拡張生成):その人材に自社の資料を参照させる仕組み。最も一般的で実用的なカスタマイズ。

ファインチューニング:その人材を自社流に再教育。必要な時だけ、慎重に。

エージェント:その人材に実行権限まで与えること。最も強力だが最も注意が必要。

ほとんどのAIプロジェクトはLLM + RAGの組み合わせから始まります。そこで十分な価値を確認してから、必要に応じてファインチューニングやエージェントに拡張するのが現実的な道筋です。

技術用語を知ることではなく、質問を知ること

この記事を読んだ後、LLMとは何か、RAGとは何かを技術的に説明できる必要はありません。代わりに、技術チームやベンダーがこれらの用語を出したとき、正しい質問ができれば十分です。

「LLMを使います」→ 「どのモデルで、ハルシネーション問題はどう管理しますか?」 「RAGを適用します」→ 「うちの文書の状態は、それを支えられるレベルですか?」 「ファインチューニングが必要です」→ 「RAGでは対応できないのですか?データは十分ですか?」 「エージェントを作ります」→ 「自律実行の範囲と人の承認が必要な範囲はどう分かれますか?」

技術を理解することではなく、技術について判断すること。それが意思決定者のAIリテラシーです。