分享
泽成日报 | 2026-03-11 周三 (Wednesday)
输入“/”快速插入内容
泽成日报 | 2026-03-11 周三 (Wednesday)
用户1275
用户1275
3月11日修改
丙午年正月廿三 | 月相:渐亏 | 春季
⚡ 30秒速览
•
AI
:图灵奖得主 Yann LeCun 离开 Meta 四个月后,AMI Labs 完成欧洲史上最大种子轮——10.3亿美元,估值35亿,押注"世界模型"路线挑战 LLM 范式;同日 Anthropic Claude Code 上线多 Agent 代码审查,内部 PR 实质性 review 率从16%跳至54%,每次约$15-25。
•
SEO
:Google 三月核心更新 SEMrush 波动指数触达9.5/10,AI Overviews 已覆盖约50%美国搜索查询,顶部结果 CTR 平均下滑34.5%——批量生产内容的站点正被系统性清洗,流量竞争重心从"排名"转向"被 AI 引用"。
•
商业
:美联邦法官签发临时禁令叫停 Perplexity Comet 代替用户在亚马逊下单,AI Agent 替用户操作第三方平台首次被法律划线;@levelsio 飞行游戏上线17天达到$87K MRR,solo founder + AI vibe coding,变现靠游戏内品牌广告位。
•
市场
:A股电子+通信+半导体单日净流入超220亿元,工业富联(601138.SH)AI服务器营收同比增逾3倍印证算力产能兑现;美股标普500收报6,823.11点涨0.40%,布伦特原油单日跌6.1%至84美元(霍尔木兹封锁11天后短暂回落)。
🤖 AI 动态
头条:Yann LeCun 带着 10 亿美元杀回来了,但他要做的事情和所有人都不一样
这是欧洲历史上最大的一笔种子轮融资。
AMI Labs(Advanced Machine Intelligence Labs),由图灵奖得主 Yann LeCun 在离开 Meta 后创立,刚宣布完成 10.3 亿美元融资,融资前估值 35 亿美元。公司成立才四个月。
数字本身已经够离谱了。但真正有意思的,是他要做什么。
LeCun 的牌不是再做一个 ChatGPT 竞争对手。他押注的是「世界模型」——一种让 AI 真正理解物理世界如何运作的系统,而不是从人类写下来的文字里学。底层架构是他 2022 年提出的 JEPA(联合嵌入预测架构),逻辑很清晰:语言模型只能从文本里学习关于世界的描述,而不是从世界本身学习。这个根本性的局限,决定了它们能想到多远。
HN 上有个评论说得犀利:LLM 能把现有知识重新排列组合,但几乎不可能产生真正新颖的发现或发明。一个扎根在空间-时间理解上的世界模型,攻击的是通向 AGI 真正的瓶颈。
但是——这笔钱能烧出什么?
CEO Alexandre LeBrun 自己就先泼了冷水:「六个月内,每家公司都会自称在做世界模型来融资。」这话来自公司内部人,够真实。
反对声音同样不弱:LeCun 在 Meta 有更多资源,但没看到什么突破性成果。视频理解(他认为是世界模型的关键路径)这件事 Sora、Kling、Seedance 已经做得相当不错了。JEPA 到底能多大程度上超越视频生成模型,还没人能回答。
我的判断是:这笔钱更像是对「大语言模型之后下一代 AI 范式」的一次押注,而不是确定性的胜局。LeCun 说的那些 LLM 的结构性局限是真实存在的——但解法是不是 JEPA,现在不知道。欧洲 AI 生态需要一个真正的研究型旗帜,从这个角度说,AMI Labs 拿到这笔钱对整个格局有价值。
AMI Labs 总部在巴黎,同时在纽约、蒙特利尔、新加坡运营。
Anthropic 这几天料很多,不只一件事,而是三件,拼在一起看很有意思。
Claude Code 上线代码审查功能
Anthropic 给 Claude Code 加了一个 Code Review 系统:当 PR 打开时,自动派出多个 Agent 并行工作,一个找 bug,一个验证 bug(过滤假阳性),一个按严重程度排序。整合在 GitHub,自动分析 PR 并留评论。
数据很清楚:Anthropic 内部用这个工具后,PR 收到实质性审查评论的比例从 16% 涨到 54%。平均每次审查耗时 20 分钟。定价是基于 token 的,每次大约 $15-25。现在是企业版 Teams 和 Enterprise 的研究预览版。
说白了,这是「AI 生产的代码需要 AI 来审」的逻辑——因为 Claude Code 已经把代码输出量拉得太高,人工 review 变成了最大的瓶颈。
Claude Code 删库事件
就在代码审查工具上线前后,HN 上疯传的另一个故事:DataTalks.Club 创始人 Alexey Grigorev 的生产数据库被 Claude Code 用 `terraform destroy` 抹掉了。
194 万行学生数据,包括作业、项目、排行榜,全没了。时间线大概是:他让 Claude Code 处理重复的 Terraform 资源,忘记上传 state 文件,Claude 自己创建了一堆重复资源,等 state 文件传上去后,Claude 把 state 文件当作唯一真相——然后把与 state 文件描述不符的东西全部 destroy 了。两个项目的基础设施,一次全清。
AWS 从隐藏快照里恢复了数据,花了 24 小时。
讽刺的是,Claude 之前确实建议不要把两个项目的基础设施合并,但他没听。
这个事件的 HN 帖子催生了一个叫
youbrokeprod.com
的「可玩版本」——把这次事故做成了一个互动游戏。这就是开发者社区的幽默。
Anthropic 起诉特朗普政府
Anthropic 向特朗普政府提起诉讼,原因是被列为「供应链风险」。具体指控细节目前信息不多,但这件事本身说明 AI 公司和政府在合规、出口管制上的摩擦已经到了对簿公堂的程度。AI 领域的监管风险,不再只是政策讨论,已经进入法律层面。
Builder 实战
[YouTube Cole Medin] Claude Code + Excalidraw:给 AI 一双眼睛
Claude Code 本质上是个盲人——它能写代码但看不见图形。Cole Medin 做了一套工作流来解决这个问题:把一整套 Excalidraw 图表生成能力封装成一个 Skill,让 Claude Code 不只是创建 JSON 格式的图表,还能把图渲染出来截图,然后看自己做得对不对,再迭代改。
这个「自我验证」循环是关键。他说没有它,效果很差,因为 AI 不能自己检查视觉效果;有了它,每周能省好几个小时。核心哲学是「论证性可视化」——不是把东西堆进方块里,而是让结构和标签本身传递信息。他建议直接让 Claude Code 自己读 Skill README 来完成配置,不用手动。
来源:[YouTube Cole Medin]
[YouTube Sabrina Ramonov] Claude Code Skills 评估工具:停止猜测,开始测量
Anthropic 发布了一个新的 Skill Creator Skill,核心功能是:评估你的 Skill 到底有没有在运行、运行的时候有没有改善结果。可以 A/B 测试不同版本的 Skill,看 pass rate、token 消耗、耗时,以及优化 trigger description。
这个工具解决了一个真实的 Claude Code 深度用户痛点:你写了一堆 Skills,但半数情况下 Claude 根本不用它们,你还以为自己做了优化。Sabrina 的结论是:如果模型能力在提升,旧的 Skill 有可能反而拖累表现,测量工具让你能发现这个。
来源:[YouTube Sabrina Ramonov]