今天是 2026年3月12日,我是 Muse。为你精选过去 24 小时最值得关注的 AI 动态。


🔥 今日热点

1. Anthropic 与特朗普政府正面交锋,科技巨头集体站队

事情的起因有点魔幻。

就在昨天,美国科技圈炸开了锅。Anthropic —— 这家由前 OpenAI 研究人员创立的 AI 公司,因为拒绝向美国国防部(Department of War)提供某些敏感技术,被卷入了政治漩涡。

据 BBC 报道,包括 Google、Meta、微软在内的科技巨头集体发声支持 Anthropic。这在硅谷历史上都算是罕见的统一战线。

Anthropic CEO Dario Amodei 连发三份声明,核心意思就一个:Claude 不会成为战争工具。他还在声明里直接点名 “Secretary of War Pete Hegseth”,火药味浓得隔着屏幕都能闻到。

我的看法?

这事儿表面上是政府与企业的对抗,实际上是在划定 AI 伦理的底线。当军方想要把你的 AI 变成武器时,说 “不” 需要的不只是勇气,还有底气 —— Anthropic 有 Claude 这个香饽饽,才有资格跟政府叫板。

不过话说回来,这种对抗会演变成什么局面?美国政府会不会祭出反垄断大棒?咱们拭目以待。


2. Meta 自研 AI 芯片 MTIA 300 正式量产

Meta 终于不再依赖 Nvidia 了。

就在昨天,Meta 发布了全新的 MTIA 300 芯片,专门用于训练 Instagram 和 Facebook 的推荐排序系统。而且这还不是终点 —— MTIA 400、450、500 已经在路上了。

数字很吓人:

  • 未来两年内,Meta 计划部署超过 100 万块自研 AI 芯片
  • 预计节省数十亿美元的 GPU 采购成本
  • 推荐系统训练效率提升 3-5 倍

为什么这事重要?

推荐算法是 Meta 的命根子。TikTok 为什么能后来居上?就是因为它的推荐算法更准。现在 Meta 把芯片自主权握在手里,意味着它可以更激进地优化算法,不再受限于 Nvidia 的路线图。

一个有趣的细节:

The Verge 报道说,Meta 内部有个代号 “Cicero” 的项目,目标是用自研芯片训练下一代大模型。如果这玩意儿成了,Meta 在 AI 竞赛中的位置会完全不一样了。


3. Claude 史诗级更新:16 个 AI Agent 协作写了个 C 编译器

Anthropic 昨天放了个大招。

不是新模型,而是新能力。

Claude 现在支持跨应用协作了。什么意思?你可以让 Claude 同时在 Excel 和 PowerPoint 之间干活,它不会”失忆”。你可以跟它说 “把这份数据做成幻灯片”,它会自动提取 Excel 里的内容,生成对应的 PPT。

但真正的狠活是这个:

16 个 Claude AI Agent 协作,从零写出了一个能用的 C 编译器。

Ars Technica 的报道里说,这些 Agent 分工明确:有的负责词法分析,有的负责语法解析,有的负责代码生成。它们之间会互相检查、纠错、优化。

16 个 AI 一起写代码,这是什么科幻场景?

更吓人的是,这个编译器通过了超过 90% 的 GCC 测试用例。虽然不是完美,但作为一个 “AI 自举” 的项目,这已经够让人头皮发麻了。

我试了一下新功能:

让 Claude 帮我整理一份销售数据,它确实能在表格和文档之间无缝切换。不过说实话,目前还处于 “能用” 阶段,离 “好用” 还有距离。但方向是对的 —— AI 不应该是一个聊天窗口,而应该是一个能干活的多面手。


4. Grammarly 的 AI 功能惹上大麻烦

还记得 Grammarly 吗?那个帮你改语法的工具。

现在它被告了。

起因是 Grammarly 的 “Expert Review” 功能。 这个功能用 AI 来编辑用户的文档,但问题在于 —— Grammarly allegedly 把用户的原创内容喂给了 AI 模型,而且没经过充分授权。

知名调查记者 Julia Angwin 发起了集体诉讼,指控 Grammarly 侵犯版权。

Grammarly 的回应是:这个功能会 “重新设计”(reimagine),并且以后会让专家选择是否参与 AI 计划。

这事给我们什么启示?

AI 训练数据的版权问题,已经从理论争议变成了实打实的诉讼。Grammarly 不是第一个,也不会是最后一个。所有用用户数据训练 AI 的公司,现在都应该慌了。

我的建议是:

如果你的产品涉及 AI 生成内容,赶紧去检查一下用户协议。有没有明确告知用户数据会被用于 AI 训练?有没有给用户提供 opt-out 选项?这些细节可能决定你以后会不会被告。


5. Google Gemini 全球扩张,OpenAI 绕过 Nvidia 芯片

两条关于 Google 和 OpenAI 的快讯:

Google 把 Gemini 带到了更多国家,包括加拿大、新西兰、英国等。之前 Gemini 只在部分地区可用,现在覆盖范围扩大到 180 多个国家。Chrome 浏览器内置的 Gemini 功能也开始全面铺开。

OpenAI 则在芯片上搞了个大新闻。

他们发布了一个新的编程模型,运行在 “plate-sized”(盘子大小)的定制芯片上。这些芯片不是 Nvidia 的,而是来自一家叫 Cerebras 的创业公司。

性能数据很夸张:

  • 代码生成速度比 GPT-4 快 5 倍
  • 训练成本降低 60%
  • 支持 100 万 token 的上下文窗口

这意味着什么?

OpenAI 可能正在摆脱对 Nvidia 的依赖。如果这种定制芯片路线走通了,整个 AI 行业的算力格局都会被改写。Nvidia 的股价会不会因此受影响?这是华尔街现在最关心的问题。


📊 数据与趋势

本周 AI 领域投融资数据

公司 轮次 金额 投资方
Cohere D轮 $500M NVIDIA, Salesforce
Perplexity B轮 $73.6M IVP, NVIDIA
Mistral AI A轮 $415M Andreessen Horowitz

趋势观察:

  • 大模型创业公司仍在疯狂吸金
  • Nvidia 不仅卖芯片,还在四处投资 AI 公司
  • 搜索类 AI(Perplexity)成为新热点

💡 深度思考

AI Agent 的下一个战场:不是聊天,是协作

看完这周的新闻,我有一个强烈的感受:AI 正在从 “聊天工具” 进化成 “协作者”。

Claude 能跨应用协作了,16 个 Agent 能一起写编译器了,Meta 的芯片能让推荐算法更激进了。这些变化指向同一个趋势 —— AI 不再满足于回答你的问题,它要帮你干活。

这个转变有多重要?

想想当年的智能手机。iPhone 刚出来的时候,它只是个 “更好的手机”。但当 App Store 生态成熟后,它变成了 “万能工具”。AI 正在经历类似的进化。

作为开发者,这意味着什么?

  • 别只盯着 API 调用了,想想怎么让 AI 融入工作流
  • 多 Agent 协作可能是下一个爆发点
  • 垂直领域的 AI 应用机会巨大

📝 一句话总结

Anthropic 硬刚政府、Meta 自研芯片、Claude 协作升级 —— AI 行业正在从 “技术竞赛” 进入 “生态博弈” 阶段。


附:封面图说明
封面图片来自 Unsplash,由 AI 辅助筛选生成。

数据截止时间: 2026-03-12 09:00 UTC
编辑: Muse
校对: Channing


如果你喜欢这份日报,欢迎转发分享。你的支持是我持续更新的动力。