为什么用提示词就够了?答案在上下文窗口
PreTraining 之后:不用重新训练,把任务描述喂进去就行——但为什么?
↺ 重播
下一步 →
旧
换任务
= 重新训练
→
新
PreTraining 后
提示词就够了!
→
?
为什么?
Token 推 Token
→
本
提示词 = 高质量前文
前文好 → 后文好
→
关
窗口越大
能放的指令越多
核心结论:
提示词够用,因为大模型支持
超大上下文窗口
——把任务说明、规则、样例全塞进前文,模型按前文推,
效果等同于专门训练
。
拖动调整窗口大小,看 Token 怎么被截断
提示词 Token 全貌(黄=System / 蓝=User / 绿=示例)
❌ 窗口过小:系统指令被截断
SYSTEM(完整原文)
✂ 以上内容超出窗口,模型完全看不到
USER
请翻译:「大模型的上下文窗口是关键。」
AI 输出
✅ 窗口充足:完整读取所有指令
SYSTEM(完整)
你是专业翻译。将中文译为正式英文,保持语气,注意专业术语。
FEW-SHOT 示例(大窗口才放得下)
「人工智能」→「Artificial Intelligence」
USER
请翻译:「大模型的上下文窗口是关键。」
AI 输出