为什么用提示词就够了?答案在上下文窗口

PreTraining 之后:不用重新训练,把任务描述喂进去就行——但为什么?

换任务= 重新训练
PreTraining 后提示词就够了!
?
为什么?Token 推 Token
提示词 = 高质量前文前文好 → 后文好
窗口越大能放的指令越多
核心结论: 提示词够用,因为大模型支持超大上下文窗口——把任务说明、规则、样例全塞进前文,模型按前文推,效果等同于专门训练
拖动调整窗口大小,看 Token 怎么被截断
提示词 Token 全貌(黄=System / 蓝=User / 绿=示例)
❌ 窗口过小:系统指令被截断
SYSTEM(完整原文)
USER
请翻译:「大模型的上下文窗口是关键。」
AI 输出
✅ 窗口充足:完整读取所有指令
SYSTEM(完整)
你是专业翻译。将中文译为正式英文,保持语气,注意专业术语。
USER
请翻译:「大模型的上下文窗口是关键。」
AI 输出