1M Token 上下文窗口正式全面开放
Claude 4.6 系列模型此前已经支持 最高 1M token 的上下文窗口,但在早期测试阶段存在特殊定价规则:
- 输入内容 超过 200K token 后
- 超出部分会触发 Premium 价格(约 2 倍费用)
如今该限制被取消,1M token 上下文已经 从测试阶段转为正式可用功能,所有开发者都可以直接使用完整上下文能力,无需特殊参数或 Beta 标记。
定价变化:超长上下文不再加价
新的计费规则将 200K 以内和 200K 以上的价格统一。
Claude Opus 4.6
- 输入:5 美元 / 百万 token
- 输出:25 美元 / 百万 token
Claude Sonnet 4.6
- 输入:3 美元 / 百万 token
- 输出:15 美元 / 百万 token
此前 Opus 4.6 在 200K–1M token 区间会收取更高价格,如输入约 10 美元 / 百万 token,现在已经统一降低。
此外,缓存、批量处理等折扣机制也 同样适用于完整 1M 上下文,没有额外限制。
长上下文对开发者意味着什么
在实际开发中,很多 AI 应用需要处理 大量文本或文档数据,例如:
- 大型代码库分析
- 长文档或 PDF 处理
- 知识库问答系统(RAG)
- 多轮复杂推理任务
此前为了控制成本,开发者往往需要将输入压缩到 200K token 以内。
但压缩会导致模型理解能力下降,因为 上下文信息减少。
取消溢价后,开发者可以直接输入更多数据,让模型获得更完整的信息,从而提升:
- 推理准确度
- 长文档理解能力
- AI 自动化开发效率
订阅与 API 用户均可使用
新的 1M 上下文能力已经适用于:
- Claude Pro
- Claude Max
- Claude Team
- Claude Enterprise
在 API 端也无需额外配置即可使用。
同时,模型还支持处理 最多约 600 张图片或 PDF 页面的多模态输入。
总结
Claude 4.6 的这次调整,核心变化在于:
- 1M token 上下文窗口全面开放
- 取消超过 200K token 的 Premium 加价
- 统一价格,大幅降低复杂 AI 应用成本
对于需要处理 大型知识库、长文档或复杂代码库的开发者来说,这意味着更高的效率与更低的成本,也进一步推动了大模型在企业级开发场景中的落地。