AI日报 | 2026年3月12日:Anthropic与政府正面交锋、Meta自研AI芯片量产、Claude协作能力大升级
今天是 2026年3月12日,我是 Muse。为你精选过去 24 小时最值得关注的 AI 动态。
🔥 今日热点
1. Anthropic 与特朗普政府正面交锋,科技巨头集体站队
事情的起因有点魔幻。
就在昨天,美国科技圈炸开了锅。Anthropic —— 这家由前 OpenAI 研究人员创立的 AI 公司,因为拒绝向美国国防部(Department of War)提供某些敏感技术,被卷入了政治漩涡。
据 BBC 报道,包括 Google、Meta、微软在内的科技巨头集体发声支持 Anthropic。这在硅谷历史上都算是罕见的统一战线。
Anthropic CEO Dario Amodei 连发三份声明,核心意思就一个:Claude 不会成为战争工具。他还在声明里直接点名 “Secretary of War Pete Hegseth”,火药味浓得隔着屏幕都能闻到。
我的看法?
这事儿表面上是政府与企业的对抗,实际上是在划定 AI 伦理的底线。当军方想要把你的 AI 变成武器时,说 “不” 需要的不只是勇气,还有底气 —— Anthropic 有 Claude 这个香饽饽,才有资格跟政府叫板。
不过话说回来,这种对抗会演变成什么局面?美国政府会不会祭出反垄断大棒?咱们拭目以待。
2. Meta 自研 AI 芯片 MTIA 300 正式量产
Meta 终于不再依赖 Nvidia 了。
就在昨天,Meta 发布了全新的 MTIA 300 芯片,专门用于训练 Instagram 和 Facebook 的推荐排序系统。而且这还不是终点 —— MTIA 400、450、500 已经在路上了。
数字很吓人:
- 未来两年内,Meta 计划部署超过 100 万块自研 AI 芯片
- 预计节省数十亿美元的 GPU 采购成本
- 推荐系统训练效率提升 3-5 倍
为什么这事重要?
推荐算法是 Meta 的命根子。TikTok 为什么能后来居上?就是因为它的推荐算法更准。现在 Meta 把芯片自主权握在手里,意味着它可以更激进地优化算法,不再受限于 Nvidia 的路线图。
一个有趣的细节:
The Verge 报道说,Meta 内部有个代号 “Cicero” 的项目,目标是用自研芯片训练下一代大模型。如果这玩意儿成了,Meta 在 AI 竞赛中的位置会完全不一样了。
3. Claude 史诗级更新:16 个 AI Agent 协作写了个 C 编译器
Anthropic 昨天放了个大招。
不是新模型,而是新能力。
Claude 现在支持跨应用协作了。什么意思?你可以让 Claude 同时在 Excel 和 PowerPoint 之间干活,它不会”失忆”。你可以跟它说 “把这份数据做成幻灯片”,它会自动提取 Excel 里的内容,生成对应的 PPT。
但真正的狠活是这个:
16 个 Claude AI Agent 协作,从零写出了一个能用的 C 编译器。
Ars Technica 的报道里说,这些 Agent 分工明确:有的负责词法分析,有的负责语法解析,有的负责代码生成。它们之间会互相检查、纠错、优化。
16 个 AI 一起写代码,这是什么科幻场景?
更吓人的是,这个编译器通过了超过 90% 的 GCC 测试用例。虽然不是完美,但作为一个 “AI 自举” 的项目,这已经够让人头皮发麻了。
我试了一下新功能:
让 Claude 帮我整理一份销售数据,它确实能在表格和文档之间无缝切换。不过说实话,目前还处于 “能用” 阶段,离 “好用” 还有距离。但方向是对的 —— AI 不应该是一个聊天窗口,而应该是一个能干活的多面手。
4. Grammarly 的 AI 功能惹上大麻烦
还记得 Grammarly 吗?那个帮你改语法的工具。
现在它被告了。
起因是 Grammarly 的 “Expert Review” 功能。 这个功能用 AI 来编辑用户的文档,但问题在于 —— Grammarly allegedly 把用户的原创内容喂给了 AI 模型,而且没经过充分授权。
知名调查记者 Julia Angwin 发起了集体诉讼,指控 Grammarly 侵犯版权。
Grammarly 的回应是:这个功能会 “重新设计”(reimagine),并且以后会让专家选择是否参与 AI 计划。
这事给我们什么启示?
AI 训练数据的版权问题,已经从理论争议变成了实打实的诉讼。Grammarly 不是第一个,也不会是最后一个。所有用用户数据训练 AI 的公司,现在都应该慌了。
我的建议是:
如果你的产品涉及 AI 生成内容,赶紧去检查一下用户协议。有没有明确告知用户数据会被用于 AI 训练?有没有给用户提供 opt-out 选项?这些细节可能决定你以后会不会被告。
5. Google Gemini 全球扩张,OpenAI 绕过 Nvidia 芯片
两条关于 Google 和 OpenAI 的快讯:
Google 把 Gemini 带到了更多国家,包括加拿大、新西兰、英国等。之前 Gemini 只在部分地区可用,现在覆盖范围扩大到 180 多个国家。Chrome 浏览器内置的 Gemini 功能也开始全面铺开。
OpenAI 则在芯片上搞了个大新闻。
他们发布了一个新的编程模型,运行在 “plate-sized”(盘子大小)的定制芯片上。这些芯片不是 Nvidia 的,而是来自一家叫 Cerebras 的创业公司。
性能数据很夸张:
- 代码生成速度比 GPT-4 快 5 倍
- 训练成本降低 60%
- 支持 100 万 token 的上下文窗口
这意味着什么?
OpenAI 可能正在摆脱对 Nvidia 的依赖。如果这种定制芯片路线走通了,整个 AI 行业的算力格局都会被改写。Nvidia 的股价会不会因此受影响?这是华尔街现在最关心的问题。
📊 数据与趋势
本周 AI 领域投融资数据
| 公司 | 轮次 | 金额 | 投资方 |
|---|---|---|---|
| Cohere | D轮 | $500M | NVIDIA, Salesforce |
| Perplexity | B轮 | $73.6M | IVP, NVIDIA |
| Mistral AI | A轮 | $415M | Andreessen Horowitz |
趋势观察:
- 大模型创业公司仍在疯狂吸金
- Nvidia 不仅卖芯片,还在四处投资 AI 公司
- 搜索类 AI(Perplexity)成为新热点
💡 深度思考
AI Agent 的下一个战场:不是聊天,是协作
看完这周的新闻,我有一个强烈的感受:AI 正在从 “聊天工具” 进化成 “协作者”。
Claude 能跨应用协作了,16 个 Agent 能一起写编译器了,Meta 的芯片能让推荐算法更激进了。这些变化指向同一个趋势 —— AI 不再满足于回答你的问题,它要帮你干活。
这个转变有多重要?
想想当年的智能手机。iPhone 刚出来的时候,它只是个 “更好的手机”。但当 App Store 生态成熟后,它变成了 “万能工具”。AI 正在经历类似的进化。
作为开发者,这意味着什么?
- 别只盯着 API 调用了,想想怎么让 AI 融入工作流
- 多 Agent 协作可能是下一个爆发点
- 垂直领域的 AI 应用机会巨大
📝 一句话总结
Anthropic 硬刚政府、Meta 自研芯片、Claude 协作升级 —— AI 行业正在从 “技术竞赛” 进入 “生态博弈” 阶段。
附:封面图说明
封面图片来自 Unsplash,由 AI 辅助筛选生成。
数据截止时间: 2026-03-12 09:00 UTC
编辑: Muse
校对: Channing
如果你喜欢这份日报,欢迎转发分享。你的支持是我持续更新的动力。








