收听音频版
下载 MP3

每日科技简报 — 2026年3月14日

要点速览

Anthropic宣布Opus 4.6和Sonnet 4.6的100万token上下文窗口以标准价格全面开放,打破行业长上下文溢价惯例。与此同时,SemiAnalysis创始人Dylan Patel在最新播客中深度剖析AI算力扩张的三大瓶颈——逻辑芯片、内存和电力,揭示了一个令人震惊的事实:到2030年,全球AI算力的终极瓶颈将落在ASML的EUV光刻机上,每台售价3-4亿美元,年产仅约70台。Meta的下一代AI模型"Avocado"因性能不及竞品而推迟发布,甚至考虑临时授权使用Google的Gemini。


主要报道

Anthropic百万token上下文全面开放:长上下文从奢侈品变为基础设施

Anthropic悄然移除了大模型使用中最后一道实际障碍——价格壁垒。Opus 4.6和Sonnet 4.6的完整100万token上下文窗口现以标准价格提供,不收取任何长上下文溢价

这一举措直接冲击了竞争对手的定价策略。OpenAI的GPT-5.4在超过272,000 token后收取额外费用,Google的Gemini 3.1 Pro在200,000 token后开始加价。正如Simon Willison所指出的,Anthropic实际上在说:长上下文不应该是高端功能,而应该是默认能力。

为什么重要: 此前我们多次报道过AI行业的模型能力竞争,但这次的竞争维度是定价架构。开发者现在可以将整个代码库、法律合同或研究文献集塞入单个提示词,而无需担心token成本阶梯。这意味着原本只有资金充裕的企业才能负担的用例,现在独立开发者和研究者也触手可及。预计竞争对手将面临即时的跟进压力——长上下文溢价可能撑不过这个季度。

来源:Simon Willison's Weblog


AI算力扩张的终极瓶颈:一台光刻机撑起500亿美元数据中心

SemiAnalysis创始人Dylan Patel在Dwarkesh Podcast上进行了一场长达两小时的深度对话,系统性地拆解了AI算力扩张面临的三大物理瓶颈。这是我们此前报道的"AI算力危机"话题的最新、最深入的分析。

核心发现令人震惊: 生产1吉瓦的AI芯片数据中心容量,需要约3.5台ASML的EUV(极紫外光刻)光刻机。每台售价3-4亿美元,但它支撑的数据中心经济价值约500亿美元。目前ASML年产约70台,到2030年即使在极力扩产的情况下也仅能达到略超100台。

内存危机已经到来。 Patel透露,2026年大型科技公司资本支出的约30%将流向内存——在6000亿美元的总支出中,这是一个惊人的比例。HBM(高带宽内存,一种将多层DRAM芯片垂直堆叠以获得极高数据传输速度的技术)每单位面积产出的比特数仅为普通DRAM的四分之一,这意味着智能手机和PC内存价格可能继续翻倍。Patel预测智能手机出货量可能从目前的11亿部降至5-6亿部,iPhone的物料成本可能因内存涨价增加约150美元。

关于AI实验室的竞争态势: Anthropic目前的年化收入已达约200亿美元,仅2月就新增了60亿美元ARR(年度经常性收入)。但Anthropic在算力储备上面临困境——由于此前CEO Dario Amodei的保守策略,其算力签约量明显落后于OpenAI。Patel估计Anthropic需要在年底达到约5吉瓦容量,但不得不转向"质量较低的供应商"来弥补缺口。OpenAI则因更激进的签约策略,在年底将拥有略多的算力。

太空数据中心?这十年不行。 针对Elon Musk提出的太空GPU计划,Patel直言:在芯片产能受限的世界中,最重要的是让芯片尽快产出token。将芯片送上太空会增加数月的部署延迟,这在算力最为稀缺的当下是不可接受的代价。

来源:Dwarkesh Podcast


Meta AI模型"Avocado"折戟:可能临时授权Google Gemini

纽约时报报道,Meta代号为"Avocado"的下一代基础AI模型在内部测试中表现不及Google、OpenAI和Anthropic的领先模型。虽然它超越了Meta此前的模型和Google去年3月的Gemini 2.5,但未能匹敌去年11月发布的Gemini 3.0。

John Gruber敏锐地指出了一个矛盾:Meta将发布推迟至最早5月——仅两个月后——却同时讨论临时授权Gemini。如果真的只差两个月就能发布,为什么需要授权竞品?这暗示Avocado可能是一次根本性的失败,Meta可能距离拥有自己的竞争力模型还有一年甚至更久。

为什么重要: Zuckerberg已将Meta的未来押注在AI前沿。公司今年计划支出高达1350亿美元,几乎是去年720亿的两倍。如果最终还是要像Apple一样从Google授权Gemini,那这数千亿美元的投入将面临严峻的回报质疑。

来源:Daring Fireball / NYT


快讯

  • SaaS行业深层危机: Ed Zitron发表万字长文论证,所谓"AI颠覆SaaS"的叙事实际上掩盖了更根本的问题——SaaS行业增长放缓与私募股权过度杠杆化。2018-2022年间30-40%的PE交易涉及软件公司,而这些公司的增长假设如今已站不住脚。IBM、Adobe、Salesforce等巨头的AI收入占比均为个位数百分比。(Where's Your Ed At)

  • 用Qwen 3.5做OCR: 开源模型Qwen 3.5-9B在文档OCR任务上表现出色,通过OpenRouter批量处理1000页仅需约12美分和1分钟。对历史文献数字化和敏感文档的本地处理具有重要意义。(Martin Alderson)

  • 软件"本体感觉": 一篇精彩的设计分析文章探讨了软件如何感知自身硬件维度——从iPhone侧键的Siri动画到灵动岛,再到MacBook Neo因两个USB-C口性能不同而应该"指向而非描述"端口位置。(Unsung)

  • HTTP User-Agent时代终结: 网站根据User-Agent返回不同内容已成常态。RSS阅读器服务因使用多个User-Agent获取结果而遭遇问题,Anubis等反爬虫工具使情况更加复杂。(Chris's Wiki)

  • Windows 11体验报告: 一位使用macOS二十年的用户详细记录了切换到Windows 11的体验——WSL表现不错但问题频出,键盘绑定差异令人痛苦,UI存在至少六种不同的设计语言混杂。最终还是买回了Mac。(Rakhim's blog)


值得关注

  • Anthropic算力瓶颈与收入增长的赛跑: 月增60亿美元ARR的速度下,Anthropic能否在年底前获得足够的算力来满足需求?如果不能,可能被迫"通过价格摧毁需求"——这将直接影响开发者使用体验和API可靠性。

  • 内存价格对消费电子的连锁反应: 如果DRAM价格如Patel预测继续翻倍,智能手机和PC市场将面临显著萎缩。这可能加剧公众对AI的反感情绪——"猫咪跳舞视频导致你买不起新手机"的meme可能从玩笑变成现实。

  • Meta的AI战略十字路口: Avocado模型的失利可能迫使Meta重新评估其"自研前沿模型"的战略。在OpenAI和Anthropic收入暴增、Google Gemini表现强劲的背景下,Meta是否会转向更务实的路线?

PODCAST SCRIPT

大家好,欢迎来到2026年3月14日的 YOMOO 每日AI快送。

我跟你说,今天这期节目信息量非常大,我们要聊三件大事,每一件都可能深刻改变AI行业的格局。先给你抛一个数字感受一下:一台机器,售价3到4亿美元,年产量全球只有70台,但它支撑起来的经济价值是多少呢?500亿美元。你没听错,一台机器,500亿。这台机器是什么?它为什么能卡住整个AI行业的脖子?别急,咱们一会儿细说。

先说第一件事,Anthropic干了一件非常漂亮的事情。他们把Opus 4.6和Sonnet 4.6的100万token上下文窗口完全开放了,而且重点来了,不加价。你想想这意味着什么。以前你要用大模型处理一整本书、一整个代码库、一份几百页的法律合同,token一多,价格蹭蹭往上涨。OpenAI的GPT-5.4超过27万token就开始加钱,Google的Gemini 3.1 Pro超过20万token也加价。这就好比你去吃自助餐,前面几盘随便吃,吃到第五盘突然告诉你,不好意思,后面每盘加50块。

Anthropic现在说的是什么?我这儿不设门槛,100万token,标准价,随便用。Simon Willison说得好,长上下文不应该是高端功能,它应该是默认能力。这话说到点子上了。以前只有大公司大团队才用得起的场景,现在一个独立开发者、一个研究生,也能把整个项目塞进去让AI帮忙分析。你说竞争对手慌不慌?我估计长上下文溢价这个东西,可能撑不过这个季度了。

好,咱们说回今天的重头戏,也是我开头提到的那个话题。SemiAnalysis的创始人Dylan Patel,在Dwarkesh Podcast上做了一期将近两个小时的深度访谈,把AI算力扩张的瓶颈问题拆得明明白白。

你看啊,大家都在说AI发展快,模型越来越强,但很少有人认真想过一个问题:算力从哪来?芯片从哪来?芯片又是用什么造出来的?Patel告诉你,追到源头,最终卡脖子的是一台叫EUV光刻机的设备,全世界只有一家公司能造,就是荷兰的ASML。

我给你算一笔账。要建一个1吉瓦的AI数据中心,大概需要3.5台EUV光刻机来生产里面的芯片。每台光刻机3到4亿美元,但它支撑的数据中心价值大约500亿美元。这个杠杆率简直惊人。问题是,ASML现在一年只能造大约70台,就算拼了命扩产,到2030年也就勉强超过100台。你想想,全世界的科技巨头都在疯狂建数据中心,微软在建、Google在建、Meta在建、字节跳动也在建,但源头就这么点产能,你说怎么分?

还没完,内存也出问题了。Patel透露了一个数据,2026年大型科技公司资本支出的大约30%要花在内存上。为什么?因为AI芯片需要的HBM高带宽内存,每单位面积产出的比特数只有普通内存的四分之一。这意味着什么?意味着生产AI芯片的内存,挤占了手机和电脑内存的产能。Patel预测,智能手机出货量可能从现在的11亿部降到5、6亿部,iPhone的物料成本可能因为内存涨价多出150美元。你想想,以后你换手机越来越贵,不是因为手机本身变高级了,是因为内存都被AI数据中心抢走了。网上那个段子怎么说来着?"AI生成猫咪跳舞视频导致你买不起新手机",这个玩笑可能真要变成现实了。

说到竞争格局,Patel还透露了一个很有意思的细节。Anthropic现在年化收入已经到了大约200亿美元,光2月份就新增了60亿美元的年度经常性收入,增长速度非常猛。但是呢,Anthropic有一个隐忧,就是算力储备不够。因为之前CEO Dario Amodei比较保守,签约算力的动作慢了,现在不得不找一些质量没那么好的供应商来补缺口。反观OpenAI,因为签约更激进,年底算力会多一些。所以你看,这场竞争不光是模型能力的比拼,还是算力资源的争夺战。谁手里有芯片,谁就有话语权。

对了,有人问太空数据中心行不行?马斯克不是提过把GPU送上太空吗?Patel直接泼了一盆冷水:在芯片产能这么紧缺的情况下,最重要的是让芯片尽快开始干活、产出token。你把芯片送上太空,光部署就多花好几个月,这个时间成本在当下是完全不可接受的。所以太空数据中心这个事儿,这十年就别想了。

好,说第三件大事。Meta的下一代AI模型,代号"Avocado",翻车了。纽约时报报道,这个模型在内部测试中表现不如Google、OpenAI和Anthropic的领先模型。虽然比Meta自己之前的模型强,也比去年3月的Gemini 2.5强,但打不过去年11月发布的Gemini 3.0。

这里有一个非常微妙的细节,是Daring Fireball的John Gruber发现的。Meta一边说把发布推迟到最早5月,也就是两个月以后,一边又在讨论临时授权使用Google的Gemini。你想想,如果真的只差两个月就能发布自己的模型,为什么还要花钱去授权竞争对手的产品?这说明什么?说明Avocado可能不是简单的"还差一点",而是一次根本性的失败。Meta距离拥有真正有竞争力的前沿模型,可能还要一年甚至更久。

这个问题有多严重呢?扎克伯格已经把Meta的未来押在AI上了。今年计划支出高达1350亿美元,几乎是去年720亿的两倍。如果花了这么多钱,最后还是要像苹果一样去找Google授权Gemini,那股东和投资者肯定要问一个尖锐的问题:这几千亿花哪儿去了?回报在哪里?

除了这三件大事,再快速说几条值得关注的消息。Ed Zitron发了一篇万字长文,说所谓AI颠覆SaaS的故事,其实掩盖了SaaS行业本身增长放缓和私募股权过度杠杆化的深层问题。IBM、Adobe、Salesforce这些巨头,AI收入占比都还是个位数。另外,开源模型Qwen 3.5在文档OCR上表现出色,批量处理1000页只要12美分和1分钟,这对历史文献数字化来说是个好消息。还有一篇很有意思的设计文章讨论了软件的"本体感觉",就是软件怎么感知自己运行的硬件,比如iPhone灵动岛的设计思路,推荐感兴趣的朋友去看看。

所以你看,今天这些消息串在一起,其实讲的是同一个故事:AI行业正在从"模型能力竞赛"进入"基础设施争夺战"。谁有算力、谁有芯片、谁能把成本降下来,谁就能赢。Anthropic用价格策略打开市场,但自己面临算力瓶颈。Meta砸了天量的钱,模型却不达标。而整个行业的命脉,最终握在荷兰一家光刻机公司手里。这个局面,说实话,比任何科幻小说都精彩。

如果您觉得我们的节目对您有帮助,请帮忙分享、转发给您的朋友,也欢迎直接回复邮件给我们提建议。好了,今天就到这里,我们明天见!