第一篇章 · 总结回顾 · 下半页
如何缓解幻觉
· AI PM 该有的决策框架
2 / 2
第一篇章完结
🛡️
三、四种缓解策略
按场景选择,组合使用最佳
首选方案
Prompt Engineering
角色 + 约束 + 示例 + CoT。成本最低,优先使用。
局限:
无法注入模型不知道的新知识。
私有知识/实时数据
RAG 检索增强
分块→Embedding→向量检索→注入Prompt。不是"让模型学",是"临时给小抄"。
代价:
延迟 + 检索质量 + 维护成本。
调整输出多样性
Temperature / Top-P
T=0 每次一样,T=1 正常采样,T>1 更随机。
误区:
不是越高越聪明,越低越蠢。控制随机性,不是智能。
高风险/强合规场景
HILT 人工审核
AI 生成 → 人工审核 → 用户可见。冷启动期必备兜底。
代价:
人力成本 + 响应延迟。
🎯
四、AI PM 认知框架
带走这些判断,做更好的产品决策
❌
"调高 Temperature 就更聪明"
→
只是更随机,不是更智能
❌
"RAG = 让模型学习文档"
→
只是运行时临时注入上下文
❌
"模型在调用 API"
→
模型只是输出了格式化文字
❌
"重新训练就能修复错误"
→
Prompt 先试,成本低 100 倍
Prompt 够用
知识在训练数据里,格式 / 风格 / 语气问题
需要 RAG
私有知识库、实时数据、知识截止日期后的内容
需要微调
固定专业领域风格、推理范式需要改变
需要 HILT
高风险输出、品牌声誉、医疗/法律合规要求
带走这句话
大模型本质是
超大型概率预测机器
。理解它的局限,才能正确发挥它的优势。