模块五 · 上下文工程 · 第 1 页
上下文窗口:AI 的工作记忆
拖动滑块亲自体验窗口溢出 →

上下文窗口(Context Window)是模型一次性能"看到"的所有文字。超出窗口,它就彻底"忘了"——不是模糊,是完全看不见。

主流模型上下文窗口对比(2025)
256K
Kimi K2.5
约 20 万字
整部《三国演义》
256K
Qwen3.6-Plus
原生 256K
可扩展至 1M
400K
GPT-5
约 32 万字
Pro 用户可用
1M
Claude Sonnet 4.6
约 80 万字
整部《红楼梦》×5
1M
Gemini 2.5 Pro
约 80 万字
2M 即将支持
💰 窗口越大,费用越高:
LLM 按输入 + 输出 Token 数计费。放入一个 100 页 PDF(≈50K Token),每次对话额外多花约 ¥0.5(GPT-5 价格参考)。
多轮对话后,历史记录也会累积占满窗口——上下文是有限的、有价格的资源。

一次请求的上下文构成(128K 窗口)

0K / 128K
系统提示词对话历史上传文档当前问题预留回复
系统提示词 (10K)
对话历史 (20K)
上传文档 (可变)
当前问题 (5K)
预留回复 (10K)
窗口充足 — 剩余 83K Token 可用
模拟上传文档大小(拖动体验溢出效果) 0K Tokens
📏 窗口是有限资源。 用了就要付钱,超了就会截断——下一页看溢出时的三种处理策略。