在 AI 编程的军备竞赛中,Anthropic刚刚投下了一枚足以改写战局的“核武”。
就在今日,Claude正式宣布其 100万 Token 上下文窗口 全面上线。这不仅是一个数字的堆砌,更意味着 AI 真正拥有了“超长工作记忆”。100万 Token 是什么概念?它相当于一次性读完750万个英文单词,或者把整套《哈利·波特》系列翻上7倍。

对于开发者来说,这简直是梦寐以求的“神器”。以前,面对庞大的代码库,你不得不手动切分文件、做有损摘要,生怕 AI “转头就忘”。而现在,你可以把一整个工程、数千页的合同、甚至是一整套设计系统的截图,一股脑全部塞给Claude。

更狠的是,Anthropic这次在定价上玩了一手“降维打击”。不同于某些友商超过20万 Token 就要收溢价的套路,Claude Opus4.6和Sonnet4.6实行全窗口一口价,长上下文不再是奢侈品。
面对“大海捞针”的细节检索测试,Opus4.6拿到了78.3% 的惊人高分,稳居同类模型第一。它不仅看得多,而且记得准,能精准关联海量信息中的关键逻辑。
随着Claude Code年化收入狂飙,连 OpenAI 的总裁Greg Brockman都忍不住感叹,这种不用亲手写代码的自由让人大脑卸下了重担。当 AI 的记忆不再有天花板,程序员的角色正在被重新定义——从辛苦搬砖的“码农”,变成指挥万千 AI 智能体舰队的“CEO”。
这场关于“工作记忆”的战争,Anthropic显然已经占据了高地。下一个被颠覆的,又会是谁?
.png)
发评论,每天都得现金奖励!超多礼品等你来拿
登录 在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则