RAG 检索增强生成:让模型「开卷答题」

PM 视角:什么场景必须上 RAG?如何设计检索流程?落地的坑在哪里。

手段 02 / 04 · 预防
场景 A · 法律 / 合规
合同审查 / 法规查询助手
法规频繁更新,模型训练数据有截止日期,极易引用"已废除的旧条文"。
场景 B · 医疗健康
药品说明 / 用药建议助手
用药方案高度个性化,模型"通用知识"无法反映患者具体情况与医院规范。
场景 C · 产品文档
SaaS 产品技术支持机器人
产品迭代快,版本号、功能路径频繁变化,模型只记得训练时的旧版本。
PM 决策框架:什么时候必须上 RAG?
知识时效性强——政策/产品/价格频繁更新,模型训练数据赶不上
私有知识库——公司内部文档、产品手册,模型根本没见过
答错代价高——法律、医疗、金融场景,错一句可能引发事故
⚠️
闲聊/创意场景不需要——RAG 反而让回答更死板

对话对比

无 RAG(闭卷)
有 RAG(开卷)