AI战争全面爆发:Anthropic签五角大楼,OpenAI抢走合同,用户用脚投票

今日概览

01 Anthropic签五角大楼遭内部阻力,OpenAI趁虚而入

上周,美国国防部同时向Anthropic和OpenAI抛出橄榄枝,希望将两家公司的AI模型整合进美军决策系统。据MIT Technology Review今日报道,这场围绕"战争AI"的争夺战,最终以一个颇具讽刺意味的结局收场:Anthropic——这家以"伦理优先"自我标榜的公司——与五角大楼的谈判破裂,OpenAI则迅速填补了空缺,以一份被Anthropic内部称为"机会主义且粗糙"(opportunistic and sloppy)的合同抢走了Anthropic的地盘。这场戏剧性的反转,让Anthropic在AI安全领域的道德形象遭受重创:一边是创始团队反复强调的"AI不应该用于杀人",另一边却是与军方就Claude军事化应用展开的认真讨论。OpenAI则用速度证明,在商业利益面前,伦理考量可以让路。据知情人士透露,Anthropic内部对此事反应激烈,多名安全研究人员表示"无法接受"公司向军事化方向倾斜,部分人已在内部表达离职意向。讽刺的是,正是这份"破碎的道德承诺",让Anthropic在舆论上反而没有陷入太深的泥潭——它至少没有真的签下那份合同。

关键标签

来源

02 OpenAI Safety Bug Bounty剑指Agent失控:MCP成为攻击向量

3月25日,OpenAI正式推出Safety Bug Bounty项目,将传统安全漏洞赏金计划扩展到AI安全和滥用领域。这是继OpenAI 2023年推出Security Bug Bounty之后,首次专门针对AI安全风险的公开众包计划。值得注意的是,本次项目首次将MCP(Model Context Protocol)纳入重点关注范围——具体包括:第三方prompt注入与数据泄露(要求可复现率超过50%)、Agent执行禁止操作、模型产生专利推理信息等。新项目特别指出,Agentic AI风险是核心关注点,涵盖从自动化操作滥用,到通过Agent系统渗透用户敏感数据的完整攻击链。同时,OpenAI还透露,其内部AI编码Agent正在接受"失控风险"专项监控。OpenAI表示,该项目将与原有Security Bug Bounty并行运营,报告将根据范围和归属进行分流处理。Jailbreak(越狱)本身不在奖励范围内,但针对特定高风险内容的私人赏金项目(如ChatGPT Agent的生物风险专项)会另行通知。安全研究人员可通过Bugcrowd平台提交报告,OpenAI承诺对符合条件的AI安全风险给予现金奖励。

关键标签

来源

03 Anthropic掷1亿美元建生态:Accenture已培训3万人,Claude企业落地加速

3月26日,Anthropic宣布推出Claude Partner Network,并承诺初始投入1亿美元用于2026年度合作伙伴支持。该计划面向所有将Claude推向市场的组织,提供技术认证、专项工程师支持、联合市场推广以及直接资金援助。Anthropic合作伙伴负责人Steve Corfield表示:“Anthropic是全球最致力于合作伙伴生态的AI公司——今年我们将用1亿美元证明这一点。“合作的核心是新的技术认证体系,首个项目"Claude Certified Architect, Foundations"已于今日上线。同时,Anthropic推出Code Modernization starter kit,瞄准企业遗留代码库迁移和技术债务清理这一最高需求场景。参与该计划的咨询巨头已大规模行动起来:Accenture宣布已培训3万名专业人员使用Claude,Infosys向35万名员工开放Claude访问,埃森哲则宣布建立专门的Anthropic卓越中心。这场企业AI生态的争夺,本质上是Anthropic与OpenAI、Microsoft在企业市场的正面交锋——谁能在咨询伙伴生态中占据主导,谁就能获得稳定的的企业用户流量。

关键标签

来源

快速新闻