不用技术术语理解 AI
LLM、RAG、微调、Agent——用最通俗的方式解释 AI 项目中最常见的概念,附带决策者应该问的问题。
"那个 AI 到底在做什么?" 能不用技术术语回答这个问题,才算真正理解了。
不懂技术也得做判断
AI 项目的决策者——老板、高管、部门负责人——都有一个最不舒服的时刻:技术团队在解释,你听得到每个词,但不知道在说什么。
"我们基于 LLM 应用 RAG,必要时做微调。"
你点了点头,但脑子一片空白。然后就在这种状态下批预算、选供应商、定项目方向。
这很危险。你不需要自己造技术,但必须理解它在做什么。这样才能问对问题,筛掉不靠谱的方案。
这篇文章用零技术术语,解释 AI 项目中出现频率最高的几个概念。
大语言模型——读了海量资料的新员工
ChatGPT、Claude 这类 AI 的核心——大语言模型(LLM),打个比方就是一个读完了互联网上几乎所有文章的新员工。
这个新人能力惊人。什么话题都能聊得有模有样,能写摘要、做翻译,甚至写代码。毕竟读了几千本书和数亿份文档。
但有几个致命短板。
没读过你公司的内部文件。 公开的通用知识很丰富,但你们的产品规格、客户档案、团队流程,它一概不知。
读过不等于知道。 读得多,但分不清哪些对哪些错。所以偶尔会用非常自信的语气给出错误答案。这叫"幻觉(hallucination)"。
不知道昨天发生了什么。 训练只到某个时间点为止,对最新信息反应迟钝。
所以直接把这个新人投入实际工作会出问题,需要额外的辅助机制。
RAG——给新员工塞参考资料
RAG(检索增强生成)看起来复杂,本质很简单。
让新员工回答之前先去查相关文档。你问"我们公司的退款政策是什么?",AI 不直接从记忆回答,而是先在公司内部文档里搜索退款政策的内容,然后根据搜到的文档来组织答案。
这样有两个好处。
准确率提高了。 因为答案基于实际文档,而不是脑子里的通用知识。
可以核实来源。 它能告诉你"这个回答基于退款政策文档第 3 页",方便人工验证。
但也有局限。文档本身乱七八糟的话,搜出来的东西也乱七八糟,答案自然也不行。它能提升 AI 的表现,但不能替你提升文档质量。
决策者应该问的问题:"给 AI 参考的文档,我们整理到位了吗?"
微调——按公司的方式重新培训新员工
微调就是把通用 AI 按你的需求额外训练一遍。
继续用新员工的比喻:这个新人通用商业知识丰富,但写不出符合你们行业术语和公司风格的内容。微调就是反复教他"在我们公司是这样做事的"。
比如,做客服 AI 的话,把公司历史上几千条客服对话拿来训练,让它用你们的语气回复。
但微调费钱费时间,而且数据量不够的话效果不好。所以现实的顺序是:
第一步:直接用通用 AI 试试(成本:接近零)
第二步:用 RAG 让它参考公司文档(成本:低到中)
第三步:还不够的话再考虑微调(成本:高)
大多数企业在第二步就能获得足够的效果。需要第三步的情况比想象中少。
决策者应该问的问题:"真的需要微调,还是 RAG 就够了?"
AI Agent——给新员工办事权限
最近听到最多的概念。AI Agent 不只是回答问题,而是自己判断并采取行动的 AI。
之前的 AI 是"问了才答的顾问",Agent 更像"交代任务就自己搞定的执行者"。
比如你说"帮我安排下周的会议",Agent 会查参会者的日历、找空闲时段、发会议邀请、附上需要的材料。不需要你一步步指挥,整个流程自主完成。
很强,但风险也大。判断错了,行动也跟着错。 可能发错邮件、下错单、把敏感数据传到外面。
所以引入 Agent 的关键不是技术,是权限设计。必须明确划定哪些事它可以自主做,哪些必须经过人的审批。
决策者应该问的问题:"这个 Agent 能自主决定的边界在哪?"
四个概念的关系
总结一下。
LLM(大语言模型):读了海量资料的通才。基础引擎。
RAG(检索增强生成):让这个通才参考你的资料。最常见、最实用的定制方式。
微调:按你公司的方式重新训练这个通才。需要时才用,谨慎为上。
Agent:给这个通才执行权限。最强大,也最需要小心。
大多数 AI 项目从 LLM + RAG 组合起步。在这里验证了足够的价值之后,再根据需要扩展到微调或 Agent,这是最现实的路径。
不是懂术语,而是懂得问什么
读完这篇文章,你不需要能从技术角度解释 LLM 是什么、RAG 怎么运作。你需要的是,当技术团队或供应商抛出这些术语时,能问出正确的问题。
"我们要用 LLM" → "用哪个模型?幻觉问题怎么管控?" "我们要上 RAG" → "我们的文档状态能支撑这个吗?" "需要微调" → "RAG 搞不定吗?数据够吗?" "要做 Agent" → "自主执行和人工审批的边界怎么划?"
不是理解技术,而是对技术做出判断。这才是决策者的 AI 素养。