分享
泽成日报 | 2026-03-13 周五 (Friday)
输入“/”快速插入内容
泽成日报 | 2026-03-13 周五 (Friday)
用户1275
用户1275
3月13日修改
丙午年正月廿五 | 月相渐亏 | 春季
⚡ 30秒速览
•
AI
:ActivTrak横跨1111个组织、4.43亿工作小时的三年研究给出反直觉结论——AI工具采用率80%的情况下,所有工作类别的工作量全线上涨:邮件+104%、即时通讯+145%,员工日均专注时间反而减少23分钟、周六加班人数+46%;Amazon超千名员工联署抗议"半成品AI工具"带来的逆效果,裁了3万人之后的
•
SEO
:Define Media Group分析64个发布商网站,AI Overviews全面扩张后搜索点击量较基准跌42%,同期Google Discover流量+30%;今日Google正式推送新一轮核心算法更新,史上首次包含Discover专项调整
•
商业
:Atlassian裁员1600人(全球10%),CEO明确称"自我资助AI投入"——同一周Gumloop拿到$50M Series B、Rox AI估值冲到$12亿;裁员即融资,两件事是同一张图的正反面
•
市场
:霍尔木兹封锁推动布伦特原油突破100美元/桶(日涨9.2%,40天累涨40%+),标普500跌1.52%至11月以来最低;1.8万亿美元私人信贷市场出现赎回潮,德意志银行披露300亿美元敞口后股价跌6.1%,全年降息预期近乎清零
🤖 AI 动态
头条:AI 工具在给你加活,不是省活
把这个研究结论放桌上:ActivTrak 分析了 1,111 个组织中的 163,638 名员工、横跨三年的真实工作数据,结论很刺耳——AI 工具上线之后,所有工作类别的工作量都在增加,没有任何例外。
具体数字:邮件发送量增加 104%,即时通讯增加 145%,业务系统操作时间增加 94%。AI 工具采用率已经达到 80%,但员工的日均专注时间减少了 23 分钟,周六加班人数增加了 46%,周日增加了 58%。(来源:ActivTrak 2026 State of the Workplace,样本量 4.43 亿工作小时)
这和主流叙事完全相反。AI 本来是效率工具,但数据说它在制造更多工作。
为什么?问题不在工具能力,而在实施方式。企业把 AI 当效率开关插进了原有流程——AI 生成内容需要人工核查,AI 建议需要协作确认,AI 输出的错误需要追溯纠正。每个环节都在叠加沟通成本。工具没变,但工作流没有同步重设计,结果是人更忙了。
Amazon 正在现场示范这种困境。超过 1,000 名 Amazon 员工签署了一份内部请愿,直指公司激进推行"半成品 AI 工具"带来的逆效果——AI 频繁出错,员工不得不花时间挖掘、核实、与同事反复确认。而这发生在 Amazon 自 2025 年 10 月以来已裁减超过 3 万名员工之后。一边大规模裁员,一边要求留下的人用尚不成熟的 AI 工具吸收工作量,结果是每个人都在更努力地工作,而不是更聪明地工作。
说白了,这不是 Amazon 一家独有的困境。ActivTrak 的数据覆盖了超千个组织,普遍性足够。企业 AI 部署的真正瓶颈,从来不是工具能力,而是流程重设计的能力。
我的判断:接下来会有一批专门做 AI 实施咨询的公司冒出来——不是卖工具,而是帮企业把流程拆完重建。这是 ActivTrak 这份数据最直接指向的市场空白。
Builder 实战
演示一次,机器记住
Understudy 出现在 HN 上,逻辑简单:给桌面 AI Agent 演示一件事一次,它学会了,之后自己去做。
关键差异在于:它提取的是意图,不是坐标。传统 RPA 录的是鼠标点击位置,换个分辨率就失效。Understudy 用双模型架构分开了两件事——决策模型负责"做什么",定位模型负责"在屏幕的哪里",容错率高出一个量级。
工作流是 `/teach start` → 演示一遍 → `/teach stop` → AI 分析录制内容,提取意图、参数和成功标准,生成 SKILL.md 文件热加载进会话。适用范围横跨 GUI、浏览器、Shell 和消息应用,单个任务可以跨越多个环境。
设计者把学习路径分成五个阶段:第一天观察,第一周模仿,第一个月独立执行,第三个月找捷径,第六个月预判需求。这是在模仿人类新员工的成长节奏,只是时间大幅压缩。目前 Layer 1(原生操作)和 Layer 2(演示学习)已完全实现,Layer 3-5 在开发中。开源,macOS 优先。
12MB 文件干掉你的 AI 框架
HN 上的 Show HN:Axe,一个 12MB 二进制文件,宣称替代现有 AI 框架。看评论比看产品本身更值得读。
高赞评论的作者给出了他自己的实践路径:用 Claude 的 `-p` 参数写了一堆微型 Agent 脚本,每个脚本只做一件事,然后用 Unix pipeline 串起来。他给的例子:
```
git diff --staged | ai-commit-msg | git commit -F -
```
`ai-commit-msg` 是一个十几行的 bash 脚本,从 stdin 读 diff,输出一行 conventional commit message,调用几个 markdown 技能文件,没有其他依赖。简洁,可组合,出了问题好定位。
这背后是一种工程哲学:AI 能力不该封装在重型框架里,应该像 Unix 命令一样,小单元、明确输入输出、随意组合。HN 评论里也有人指出了现实问题——成本控制:单个大 context 贵,但不小心扇出 10 个 Agent 更贵,用之前想清楚流程边界。这不是反驳,是使用前提。
@levelsio 的一个观察
Pieter Levels(@levelsio)发推评价了 TSMC 的图:读完台积电的故事才意识到,Nvidia 本质上是一家"dropshipper"(倒爷)。
这话反过来看才有趣:Nvidia 不制造芯片,它设计芯片,然后全包给 TSMC。掌握制造的在台湾,掌握设计专利和生态的是 Nvidia(NVDA),掌握算力需求的是整个 AI 行业。三层分工,每层都有定价权,但生死线不一样。Nvidia 的护城河是生态和软件栈(CUDA),而不是制造。
同一条推中他还对比了越南和泰国——越南有两样东西泰国没有:强 STEM 教育产线,和够激进的创业者。这是结构性差异,不是文化差异。
上下文窗口再大,检索层还是核心
Latent Space 播客邀请了 Turbopuffer CEO Simon Eskildsen 聊搜索的未来:*The Future of Search: Agents, RAG, and Why Retrieval Still Matters*。
反直觉的核心论点:很多人认为 LLM 上下文窗口越来越大,RAG 会慢慢变得不重要。Eskildsen 的立场相反——上下文窗口大了,但不能把公司所有文档塞进去。检索层的质量,决定了模型最终"看到"的是什么信息,这才是输出质量的真正上限。向量数据库不只是存储问题,是信息过滤问题。
对任何要内嵌语义搜索的 SaaS 产品,这层都需要认真对待。检索做得差,再强的模型也会给出错误的答案。
RAG 系统的安全盲区
这事儿有意思——检索层的重要性还有另一面:安全。
PoisonedRAG 研究给出了一个让人不安的数字:在百万级文档的语料库中,只需注入 0.0002% 的恶意文档(大约 5 篇),对于特定查询,攻击成功率可以达到 97%(Natural Questions 数据集,USENIX Security 2025 收录)。在 HotpotQA 数据集上是 99%,MS-MARCO 上是 91%。