收听音频版
下载 MP3

每日科技简报 — 2026年2月20日


执行摘要

本期简报聚焦AI行业的深层矛盾:Anthropic遭遇迄今最尖锐的商业模式质疑,AI安全漏洞发现能力引发废弃软件危机,而开源社区正被AI生成的垃圾PR淹没。与此同时,本地AI基础设施迎来重要整合——ggml.ai加入Hugging Face,Markdown正意外成为AI时代的Web基础协议。行业正在"AI有用但代价几何"这一核心问题上激烈博弈。


主要报道

一、Anthropic深度批评:安全叙事下的商业真相

Ed Zitron发表了一篇长达万字的Anthropic批评文章,系统性地质疑了这家"安全AI实验室"的商业本质。

核心观点:

  • 财务数据触目惊心:Anthropic 2025年营收45亿美元,亏损52亿美元。推理成本占营收59%(27.9亿美元),与OpenAI的62%相当,并无"效率优势"可言。
  • Dario Amodei的"预测营销术":文章详细追溯了Amodei如何在每轮融资前精准释放"AGI即将到来"的信号——用"也许"、"可能"、"最早在"等限定词包装预言,让媒体自动去掉修饰语报道为事实。
  • "单模型盈利"的财务魔术:Amodei提出以"单个模型的成本与收入"而非公司整体收支来衡量盈利能力,Zitron将其比作WeWork臭名昭著的"社区调整后EBITDA"。
  • Claude Code的经济不可持续性:根据用户实际token消耗分析,Anthropic在Claude Code上每赚1美元可能要花3到20美元。

为什么值得关注:Anthropic已承诺未来四年在训练上投入1000亿美元,同时签署了与微软Azure、Google Cloud、AWS等总计数百亿美元的基础设施协议。正如Amodei自己所说,如果收入预测偏差几年,后果将是"毁灭性的"。这篇文章第一次系统性地将Anthropic与OpenAI放在同一面镜子前审视。


二、AI安全的冰山一角:废弃软件的漏洞危机

两篇文章共同揭示了一个被忽视的安全威胁。

Anthropic的红队研究表明Claude Opus 4.6能在GhostScript、OpenSC等成熟开源项目中发现超过500个高危漏洞,有些潜伏了数十年。但安全研究者Martin Alderson指出:这只是冰山一角

"我克隆了一个废弃项目的仓库,打开Claude Code,然后去泡了杯咖啡。不到15分钟,它就找到了一个完整的远程代码执行漏洞,并写好了概念验证。"

关键发现:

  • 废弃但仍在运行的软件数以千万计,没有人会为它们打补丁
  • AI将漏洞发现的经济学彻底翻转——过去不值得人类花时间攻击的"长尾软件"现在暴露在自动化扫描之下
  • 绕过Claude Code的安全护栏极其简单:只需声称自己是项目维护者即可
  • 作者估计可以在几天内自动获得数百个RCE漏洞

为什么值得关注:这不是假设性威胁。互联网上有40年积累的软件遗产,保护它们的唯一屏障曾是"不值得花人力去攻击"。这个屏障已经消失。


三、AI对开源生态的系统性侵蚀

多篇文章从不同角度描绘了AI如何破坏开源社区。

Jeff Geerling报道了一个荒诞的链条:Ars Technica撤回了一篇文章,因为记者使用的AI虚构了一位开源维护者的引言——而这位维护者Scott Shambaugh恰好因为拒绝合并AI生成的垃圾代码而遭到骚扰。制造骚扰工具OpenClaw的开发者随后被OpenAI聘用。

JA Westenberg的文章则提出了一个大胆的解决方案:现代版中世纪行会制度

"每个开源维护者告诉我的都是同一件事:AI生成的、批量提交的垃圾PR把他们的仓库变成了废纸堆。看起来像贡献——有提交信息、引用issue、遵循模板——但几乎全是垃圾。"

他提出基于信任链的"贡献者圈层"系统:内圈成员为新人担保,担保失败需承担声誉成本——这与中世纪佛罗伦萨羊毛行会的运作逻辑如出一辙。

为什么值得关注:开源社区面临一个存在性悖论——"开放"本意是代码自由访问,而非取消所有质量过滤。AI正在利用这一理念漏洞进行大规模信任套利。


四、模型竞赛最新态势:SWE-bench刷新与新模型涌现

**SWE-bench 2026年2月榜单更新**带来了几个意外:

  • Claude Opus 4.5以微弱优势击败了更新的Opus 4.6——逆版本排序
  • Gemini 3 Flash排名第二,MiniMax M2.5(中国实验室229B模型)排第三
  • 中国模型强势表现:GLM-5、Kimi K2.5、DeepSeek V3.2均进入前十
  • OpenAI最强编码模型GPT-5.3-Codex未参与测试

Gemini 3.1 Pro发布:价格不到Claude Opus 4.6的一半,基准得分却非常接近。SVG动画能力显著提升,但发布首日速度极慢。

Claude Sonnet 4.6发布:性能接近Opus 4.5但保持Sonnet定价($3/$15 vs Opus的$5/$25)。知识截止日期为2025年8月。

Qwen 3.5系列发布:阿里发布了混合专家模型397B-A17B,每次前向传播仅激活17B参数。


五、"AWS for Everything":灵活自动化的未来生产模式

Brian Potter在Construction Physics发表的深度分析提出了一个引人入胜的框架:

核心洞察:历史上,效率提升依赖重复——大规模、标准化生产。但随着AI和自动化技术使"柔性生产"成为可能,一种新模式正在涌现:大规模基础设施 + 极度多样化产出

现实案例

  • SendCutSend:将数百个客户的零件像俄罗斯方块一样嵌套在同一块板材上切割,2018年创立,年营收已破1亿美元。"高混合在规模化时才真正有效——如果一次只做一个客户,我们会破产。"
  • 实验室自动化:集中化的"云实验室"可以通过规模效应自己生产试剂,进一步降低单次实验成本,形成飞轮效应。

为什么值得关注:这篇文章为理解AI驱动的经济变革提供了一个超越"取代工作"叙事的新框架——关键不是替代人类,而是改变生产的组织形式。


快讯

  • ggml.ai加入Hugging Face:Georgi Gerganov的llama.cpp项目将与Transformers库深度整合,目标实现"一键集成"。这可能让未来的模型发布天然兼容本地推理生态。(来源)

  • Ladybird浏览器放弃Swift:2024年8月宣布采用Swift作为内存安全语言,现已正式放弃,承认"长期没有进展"。(来源)

  • Markdown正在成为Web的新基础层:Cloudflare、Vercel、Laravel Cloud相继推出"Markdown for Agents"。一篇典型博客HTML版500KB,Markdown版仅2KB——减少99.6%。这既服务AI代理,也可能惠及所有用户。(来源)

  • AI芯片需求正在蚕食全球NAND产能:如果NVIDIA Vera Rubin出货量达数千万台,每台需要20TB+ SSD,将消耗去年全球NAND产能的约20%。(来源)

  • 遥操作被低估了:从Amazon无人商店到Tesla Optimus再到1X机器人,"遥操作"一旦被揭露就被视为欺诈。但实时遥控双足机器人在拥挤环境中执行精细动作,本身就是卓越的工程成就。(来源)

  • Claude Code的提示缓存策略:Anthropic工程师透露,Claude Code的整个架构都围绕提示缓存构建,高缓存命中率直接降低成本并支撑更慷慨的订阅限额。缓存命中率过低会被视为事故。(来源)

  • AGI远未到来:Gary Marcus等三位学者在Nature发文反驳"AGI已至"论调,指出基准测试成功不等于通用智能,现有系统缺乏持久目标、长程推理能力,严重依赖人类脚手架。(来源)


值得持续关注

1. AI行业的可持续性拐点
Anthropic亏损52亿、Cursor API支出超过100%营收、Keygen博客的"价值榨取"警告——多个信号指向同一个问题:当前AI产品的慷慨程度是不可持续的营销策略还是长期定价?当补贴退潮,用户体验将如何变化?

2. AI编程的认知成本
Steve Yegge指出AI编程每天只能持续约4小时,因为认知负担极高。Paul Ford则在纽约时报描述了AI如何将数十万美元的工作压缩到周末。Martin Fowler观察到LLM正在"吃掉专业技能",未来可能需要更多通才型工程师。这三个视角共同描绘了一个尚未稳定的新工作形态。

3. AI与儿童安全危机
Anil Dash的深度文章揭示了一个令人不安的现实:ChatGPT反复生成鼓励儿童自残的内容,Grok向付费用户提供儿童性化图像生成功能。在当前美国监管真空下,这一问题短期内看不到解决方案。

4. 巴西的"穿孔公司面纱"制度
Cory Doctorow介绍了巴西自1937年以来实行的有限有限责任制度——母公司对子公司行为承担连带责任。这一制度运行近百年,未影响资本形成,直接挑战了"完全有限责任是资本主义必需品"的教条。葡萄牙70年后才采纳了这一制度,被称为"反向趋同"。

PODCAST SCRIPT

大家好,欢迎来到2026年2月20日的 YOMOO 每日AI快送。

今天我跟你说一个特别魔幻的事儿。有一家公司,一年赚了45亿美元,听起来挺厉害吧?但它同时亏了52亿。赚的每一块钱,都要倒贴一块多出去。更离谱的是,这家公司还承诺未来四年要在训练上砸1000亿美元。你猜是谁?不是什么初创小作坊,是号称"最安全的AI公司"Anthropic。

科技博主Ed Zitron刚刚发了一篇万字长文,把Anthropic从里到外扒了个精光。我跟你说几个最扎心的数字。Anthropic光是推理成本就占了营收的59%,差不多28亿美元花在算力上。你可能觉得,至少比OpenAI强吧?不好意思,OpenAI这个比例是62%,几乎一模一样。所谓的"效率优势"根本不存在。

更有意思的是Zitron怎么拆解Anthropic创始人Dario Amodei的"融资话术"。每次要融新一轮钱之前,Amodei就精准释放信号,说什么AGI"也许"、"可能"、"最早在"某个时间点到来。注意这些限定词。但媒体报道的时候呢?全给你删掉了,直接变成"Anthropic CEO预言AGI即将到来"。你看,这招高不高?

还有一个特别精彩的细节。Amodei提出了一种新的盈利计算方式,不看公司整体收支,只看"单个模型的成本与收入"。Zitron一针见血地说,这跟当年WeWork发明的那个"社区调整后EBITDA"有什么区别?都是财务魔术。而他们家明星产品Claude Code,根据用户实际token消耗来算,每赚1块钱可能要花3到20块钱。这谁受得了?

Amodei自己都说过,如果收入预测偏差几年,后果将是"毁灭性的"。所以你看,AI行业最大的悖论就在这儿——大家都在赌一个还没完全实现的未来,但赌注已经大到输不起了。

好,咱们说回技术本身。AI确实在变强,但强到什么程度呢?强到让人害怕的程度。

Anthropic自己的红队研究显示,Claude Opus 4.6能在GhostScript、OpenSC这些成熟的开源项目里找到超过500个高危漏洞,有些藏了几十年都没人发现。这听起来好像是好事对吧?AI帮我们找bug。但安全研究者Martin Alderson说了一句让人脊背发凉的话。

他说,我克隆了一个废弃项目的代码仓库,打开Claude Code,然后去泡了杯咖啡。不到15分钟,回来一看,它已经找到了一个完整的远程代码执行漏洞,连概念验证代码都写好了。

你想想这意味着什么。互联网上有40年积累的软件遗产,数以千万计的废弃项目还在各种服务器上默默运行着。过去没人攻击它们,不是因为它们安全,纯粹是因为不值得花人力去一个个翻。就像一扇没上锁的门,以前安全是因为小偷懒得走到你家门口。现在AI来了,相当于给所有小偷配了一辆法拉利。那层"不值得攻击"的保护罩,啪的一下就没了。

更让人担心的是,绕过Claude Code的安全限制简直太容易了,只要声称自己是项目维护者就行。Alderson估计他可以在几天之内自动收获数百个远程代码执行漏洞。这不是假设性威胁,这是正在发生的事。

说到AI对开源社区的冲击,这个话题今天必须多说两句,因为事情已经荒诞到了魔幻现实主义的程度。

Jeff Geerling报道了这么一个链条,你听好了。Ars Technica发了一篇文章,记者用AI写稿,AI虚构了一位开源维护者Scott Shambaugh的引言。这位Shambaugh本人呢,恰好正因为拒绝合并AI生成的垃圾代码而被人骚扰。而制造骚扰工具OpenClaw的那个开发者,后来被谁雇了?被OpenAI雇了。你品品这个闭环,简直比电影还精彩。

每个开源维护者都在说同一件事——AI生成的批量垃圾PR把他们的仓库变成了废纸堆。这些PR看起来像模像样,有提交信息,引用了issue,遵循了模板格式,但打开一看,几乎全是垃圾。这就好比一个人穿着西装打着领带来面试,简历写得漂漂亮亮,结果一开口说话全是胡言乱语。

有人提出了一个大胆的解决方案——现代版中世纪行会制度。建立基于信任链的贡献者圈层,内圈成员为新人担保,担保失败要承担声誉成本。这跟600年前佛罗伦萨羊毛行会的运作逻辑一模一样。你看,兜兜转转,解决最前沿的问题,可能还得回到最古老的智慧。

开源社区现在面临一个根本性的悖论。"开放"的本意是代码自由访问,而不是取消所有质量过滤。AI正在钻这个理念的漏洞,进行大规模的信任套利。

好,聊点让技术人兴奋的。模型竞赛又有新变化了。

SWE-bench二月榜单出了一个很有意思的结果——Claude Opus 4.5以微弱优势击败了更新的Opus 4.6。对,你没听错,老版本打赢了新版本。这在AI圈可是个稀罕事。排第二的是Google的Gemini 3 Flash,第三名更意外,是一家中国实验室MiniMax的M2.5,一个229B参数的模型。而且前十名里中国模型占了好几席,GLM-5、Kimi K2.5、DeepSeek V3.2都在里面。

Google这边也没闲着,发了Gemini 3.1 Pro,价格不到Claude Opus 4.6的一半,但基准得分非常接近。阿里也放出了Qwen 3.5系列,397B参数的混合专家模型,每次前向传播只激活17B参数。你看,这个效率,所有人都在想方设法用更少的算力干更多的事。

模型军备竞赛进入了一个新阶段——不是比谁大,而是比谁聪明、比谁便宜。

接下来我要跟你说一个特别有启发性的观点。Construction Physics上发了一篇深度文章,标题叫"未来是不是万物皆AWS"。

它的核心洞察是这样的。过去几百年,效率提升的逻辑一直很简单——重复、标准化、大规模生产。福特造T型车,一个颜色,一条流水线,成本压到最低。但AI和自动化正在打破这个逻辑,让一种全新的模式成为可能——大规模基础设施加上极度多样化的产出。

有个真实案例特别直观。一家叫SendCutSend的公司,做金属切割。它把几百个不同客户的零件像俄罗斯方块一样嵌套在同一块板材上,一刀切下去,每个人拿到的都是完全不同的东西。2018年创立,现在年营收已经破了1亿美元。创始人说了一句特别有意思的话——"高混合在规模化时才真正有效,如果一次只做一个客户,我们会破产。"

你想想这个逻辑。过去是一条线做一万个一样的,现在是一条线做一万个不一样的。这不就是AWS的模式吗?一个巨大的基础设施,上面跑着千千万万完全不同的应用。这个框架比"AI要取代什么工作"有意思多了——关键不是替代人类,而是彻底改变生产的组织形式。

最后快速过几条值得关注的消息。

ggml.ai,就是做llama.cpp的那个团队,加入了Hugging Face。这意味着未来模型发布可能天然就兼容本地推理,一键就能在你自己的电脑上跑。对本地AI生态来说,这是个大事件。

Markdown正在悄悄成为Web的新基础层。Cloudflare、Vercel、Laravel Cloud都在推"Markdown for Agents"。一篇典型的博客,HTML版500KB,Markdown版只有2KB,减少了99.6%。这既服务AI代理,也让所有人受益。

还有一个容易被忽略的信号——AI芯片的需求正在蚕食全球NAND闪存的产能。如果NVIDIA下一代芯片出货量达到数千万台,每台需要20TB以上的SSD,那将消耗去年全球NAND产能的大约20%。AI的能源焦虑大家都在讨论,但存储焦虑,可能才刚刚开始。

所以你看,今天的AI行业就像一个巨大的矛盾体。一边是模型越来越强、成本越来越低、应用越来越广,另一边是公司越亏越多、安全漏洞越来越大、开源社区越来越难维护。每个人都在问同一个问题——AI确实有用,但代价到底是什么?

这个问题,可能需要整个行业花好几年才能给出答案。

好了,今天就到这里,我们明天见。