第一篇章 · 总结回顾 · 下半页
如何缓解幻觉 · AI PM 该有的决策框架
2 / 2 第一篇章完结
🛡️
三、四种缓解策略
按场景选择,组合使用最佳
首选方案
Prompt Engineering
角色 + 约束 + 示例 + CoT。成本最低,优先使用。

局限:无法注入模型不知道的新知识。
私有知识/实时数据
RAG 检索增强
分块→Embedding→向量检索→注入Prompt。不是"让模型学",是"临时给小抄"。

代价:延迟 + 检索质量 + 维护成本。
调整输出多样性
Temperature / Top-P
T=0 每次一样,T=1 正常采样,T>1 更随机。

误区:不是越高越聪明,越低越蠢。控制随机性,不是智能。
高风险/强合规场景
HILT 人工审核
AI 生成 → 人工审核 → 用户可见。冷启动期必备兜底。

代价:人力成本 + 响应延迟。
🎯
四、AI PM 认知框架
带走这些判断,做更好的产品决策
"调高 Temperature 就更聪明" 只是更随机,不是更智能
"RAG = 让模型学习文档" 只是运行时临时注入上下文
"模型在调用 API" 模型只是输出了格式化文字
"重新训练就能修复错误" Prompt 先试,成本低 100 倍
Prompt 够用 知识在训练数据里,格式 / 风格 / 语气问题
需要 RAG 私有知识库、实时数据、知识截止日期后的内容
需要微调 固定专业领域风格、推理范式需要改变
需要 HILT 高风险输出、品牌声誉、医疗/法律合规要求
带走这句话
大模型本质是超大型概率预测机器。理解它的局限,才能正确发挥它的优势。