上下文窗口(Context Window)是模型一次性能"看到"的所有文字。超出窗口,它就彻底"忘了"——不是模糊,是完全看不见。
主流模型上下文窗口对比(2025)
256K
Kimi K2.5
约 20 万字
整部《三国演义》
256K
Qwen3.6-Plus
原生 256K
可扩展至 1M
400K
GPT-5
约 32 万字
Pro 用户可用
1M
Claude Sonnet 4.6
约 80 万字
整部《红楼梦》×5
1M
Gemini 2.5 Pro
约 80 万字
2M 即将支持
💰 窗口越大,费用越高:
LLM 按输入 + 输出 Token 数计费。放入一个 100 页 PDF(≈50K Token),每次对话额外多花约 ¥0.5(GPT-5 价格参考)。
多轮对话后,历史记录也会累积占满窗口——上下文是有限的、有价格的资源。
📏
窗口是有限资源。 用了就要付钱,超了就会截断——下一页看溢出时的三种处理策略。