今日概览
- OpenAI 宣布收购 Python 开源工具 Astral,将 uv、Ruff、ty 纳入 Codex 生态
- 美国司法部首次以官方文件形式,称 Anthropic 对其 AI 用于战争系统"不值得信任"
- Anthropic 发布 8 万人质化调研:67% 对 AI 持正面态度,但"不可靠"成为最大顾虑
- 三星宣布 730 亿美元 AI 芯片扩产计划;Nvidia GTC 展示机器人新 Demo
01 公司战略 OpenAI 收购Astral,剑指全栈开发者生态
OpenAI 于 3 月 19 日正式宣布收购开源 Python 工具制造商 Astral,这家仅有 8 人左右的小团队构建了 uv、Ruff、ty 三款被数百万 Python 开发者每天使用的工具。该交易尚需监管审批,交易金额未披露。这是 OpenAI 继 2025 年连续收购多家基础设施公司后,在开发者工具链上的最新布局。
Astral 的核心产品 Ruff 是 Python 世界里最快的 linter 和格式化工具,uv 则是新一代依赖与环境管理工具,二者均以性能著称。ty 用于强制类型安全。这些工具天然嵌入在开发者的代码编写、提交、CI/CD 流程中,而 OpenAI 的 Codex 正是定位于 AI 编程助手——二者的整合逻辑清晰:让 AI 直接驱动开发者工作流中的每个环节。
Codex 业务正处于高速增长期。OpenAI 披露,Codex 今年以来用户量增长 3 倍,调用量增长 5 倍,周活跃用户已突破 200 万。这一数字让 Cursor、Windsurf 等 AI 编程独角兽感受到直接压力。收购 Astral 后,OpenAI 计划将 uv 的依赖解析、Ruff 的代码质量检测能力深度集成进 Codex,使 AI 不仅能生成代码,还能自动完成包管理、lint、类型检查等整个开发闭环。
这笔交易的战略意图值得玩味。OpenAI 明确表示,收购后将"继续支持 Astral 的开源产品",但外界普遍猜测,随着时间推移,部分功能可能逐渐演变为需要 OpenAI 账户或 API key 才能使用的付费服务。Python 社区中对"微软化"的担忧已经开始在 X(Twitter)和 Hacker News 上蔓延。开源与闭源之间的边界如何维持,将是这笔交易最终完成后的最大看点。
关键标签
- 开源生态受控
- AI 编程工具整合
- 开发者工作流自动化
来源
- OpenAI to acquire Astral - OpenAI Blog
- OpenAI is acquiring open source Python tool-maker Astral - Ars Technica
02 军事 AI 五角大楼正式文件:Anthropic"不值得信任"
3 月 22 日,美国司法部在一份针对 Anthropic 的法庭文件中明确写道,该公司的 AI 系统不应被信任用于战争决策。这份提交给联邦法院的文件,标志着特朗普政府与 AI 安全导向公司之间的法律冲突正式进入白热化阶段。文件原文措辞激烈,将 Anthropic 的安全政策定性为"对国家利益构成系统性风险"。
这场冲突的导火索是 Anthropic 对其 Claude 模型设置的"不使用条款"(不接受用于自主武器、军事指挥等场景)。去年 Anthropic 曾就这一限制公开与五角大楼产生摩擦,但本轮是美方首次以正式司法文件而非行政沟通的方式提出反对。司法部的立场意味着:任何将 Claude 集成进美国防务系统的商业合同,都可能面临法律阻碍。
与此同时,MIT Technology Review 披露,五角大楼正在推进一项更广泛的计划,准备允许 AI 公司直接在美国政府持有的机密数据集上训练模型。此举将彻底改变 AI 军用的技术路径——当前模型均由公开数据训练,军事应用存在明显的能力边界。一旦允许使用机密数据训练,AI 系统在作战规划、情报分析、目标识别等场景的能力将实现质的飞跃。
Anthropic CEO Dario Amodei 近期多次公开表示,公司"不会为赢得政府合同而放松安全红线"。但 Wired 同期报道,Anthropic 已成立专门的"政府业务"团队,探索在严格安全约束下向非作战类政府场景(如医疗、后勤、灾难响应)提供 Claude 的可能性。这条中间道路能否走通,将决定 Anthropic 能否在商业生存与使命承诺之间维持平衡。
关键标签
- AI 军事化争议
- 安全条款与政府合同冲突
- 机密数据训练计划
来源
- Justice Department Says Anthropic Can’t be Trusted With Warfighting Systems - Wired
- The Pentagon is planning for AI companies to train on classified data - MIT Technology Review
- Pentagon filed a rebuttal to Anthropic’s lawsuit - The Verge
03 用户研究 Anthropic 8万人质化调研:67% 对 AI 乐观,但"不可靠"成最大心结
Anthropic 于 3 月 18 日发布了迄今规模最大的 AI 用户质化研究报告。该研究在 2025 年 12 月的一周内,通过 Anthropic Interviewer(专门调校的 Claude 版本)对全球 80,508 名 Claude 用户进行了深度访谈,覆盖 159 个国家和地区、70 种语言。Anthropic 声称,这是历史上规模最大、多语言程度最高的质化研究。
研究最核心的发现是:67% 的受访者对 AI 持"净正面"情绪。但细分维度揭示了更复杂的图景——在对 AI 持乐观态度的受访者中,32% 主要因为"生产力提升"(如"将 173 天的开发流程缩短为 3 天");17% 是因为"认知伙伴关系"(AI 帮助他们头脑风暴或梳理复杂问题);10% 是因为"技术可及性"(非开发者第一次能构建应用)。然而,18.9% 的受访者明确表示"AI 没有达到他们的期望"。
在用户最担忧的问题上,“不可靠”(26.7%)高居首位,其次是"就业与经济影响"(22.3%)和"人类自主性丧失"(21.9%)。一个值得注意的发现是:22% 的受访者表达了"希望 AI 帮助更好地决策",但与此同时 37% 的受访者表达了"AI 的不可靠性正在破坏决策质量"——这是唯一一个负面超过正面的张力维度。这一数据对所有 AI 公司拼命强调"模型准确性"的策略,是一个来自用户端的直接回应。
在地域差异上,南美洲、非洲和大部分亚洲地区对 AI 的乐观程度显著高于北美和西欧。低收入国家受访者对 AI 抱有更强烈的"机会均等化"期待(如"突破教育资源与财富的绑定"),而富裕国家用户更多将 AI 视为"管理生活复杂性的工具"。有意思的是,在所有地区,乌克兰受访者的 AI 使用率和对 AI 情感支持功能的依赖程度都远超平均——研究记录了大量乌克兰士兵和平民在战争环境下将 AI 作为心理支持工具的案例。
关键标签
- 史上最大质化 AI 研究
- 用户期望 vs 现实落差
- 全球 AI 态度分化
来源
- What 81,000 people want from AI - Anthropic
快速新闻
-
04 Hachette 出版社紧急下架恐怖小说《Shy Girl》,此前有多名读者指控该书由 AI 生成。这是出版业首次因 AI 抄袭争议大规模撤书。 Ars Technica
-
05 三星宣布未来五年将投入 730 亿美元扩产 AI 芯片产能,聚焦 HBM 内存和定制化 AI 处理器,以追赶 SK 海力士和美光的 HBM 市场地位。 The Verge
-
06 Jeff Bezos 通过名下投资机构 Engine No.1 披露,正在寻求筹集超过 100 亿美元,用于收购采用 AI 技术改造传统制造业务的中小型企业。 TechCrunch
-
07 Amazon AWS 宣布,所有 AI 辅助代码变更今后必须由高级工程师签字确认才能部署。此前 AWS 已发生至少两起因 AI 编程助手导致的线上故障。 Ars Technica
-
08 Meta AI 全面登陆 WhatsApp、Instagram 和 Facebook Messenger,美国、英国等市场用户可直接在聊天界面调用 Meta AI 助手,无需单独下载 App。 TechCrunch
-
09 WordPress.com 宣布允许 AI 智能体(Agent)在获得授权后直接代表用户发布博客文章、回复评论和管理设置,成为首个面向 AI Agent 开放写作权限的主流 CMS 平台。 The Verge
-
10 Nvidia GTC 2026 大会在圣何塞开幕,现场展示了一段 Memphis 餐厅机器人在 Cupertino 门店"失控"的 Demo 视频,引发人形机器人实际部署安全性的行业讨论。 NVIDIA Blog
-
11 欧盟宣布正在推进" nudify “类应用的全面禁令,立法草案预计于 Q2 提交。xAI 的 Grok 因其生成虚假裸体内容的功能,成为本次立法的主要针对对象之一。 Ars Technica