美媒披露空袭伊朗使用了AI,执行情报评估、目标识别和战场模拟等任务

2026-03-03 19:43:28

来源:军桥网

据《华尔街日报》3月1日消息,美国在此次空袭伊朗时使用了人工智能工具,这是迄今为止AI在实战中部署的最清晰的案例之一。知情人士证实,包括美国中央司令部在内的全球美军指挥机构均在使用Anthropic旗下的Claude ,执行情报评估、目标识别和战场模拟等任务。
颇具讽刺意味的是,特朗普刚刚宣布封杀Anthropic,在袭击发生前的27日下令联邦机构停止使用Anthropic开发的人工智能系统,并设定六个月的过渡期供相关机构逐步退出。然而,现实却并未立即跟随政治指令转向。就在这款AI被正式“解雇”的数小时后,它仍然出现在美军的作战系统中。
报道显示,在此次对伊朗行动中,美军使用Anthropic AI工具进行:情报评估、目标识别、打击风险分析,可以把Claude理解为一个超级参谋,决策仍然由人决策。
AI工具它不会开火,但会回答三个关键问题:
这个目标是真实吗,是不是虚拟或虚假目标?
是否属于军事设施,它的大概级别?
攻击后会不会造成连锁升级,模拟毁伤评估?
Anthropic旗下的Claude具体做了什么?
一、技术协同:Claude 与 Palantir 的「大脑 + 神经」组合
在 2026 年 2 月的伊朗空袭行动中,Claude 并非独立运作,而是通过与 Palantir AIP 平台的深度集成,形成了美军智能作战的核心引擎。这一协同模式的技术架构堪称革命性:
Palantir 的「神经中枢」作用:其 Gotham 平台整合了 20 类数据源、总量达 2.3PB 的异构信息,包括 MetaConstellation 卫星集群的光学 / 红外 / 雷达影像、电子信号监听记录、人力情报等,通过动态本体论技术构建「人员 - 地点 - 事件」知识图谱,打破情报孤岛。
Claude 的「超级大脑」定位:作为唯一获准在美军机密网络(DoD IL4/5 级别)运行的商业前沿 AI 模型,其 Gov 定制版专门优化了军事场景的长文本处理(支持 200K+ token 上下文)与多模态推理能力,分钟级处理 PB 级非结构化数据。
闭环运作机制:所有数据处理均在 AWS GovCloud 的物理隔离环境中完成,无需外部 API 调用,确保「数据 - 分析 - 决策」全链路的机密性。
二、实战三维度:从情报脱水到决策引导
1. 目标识别:穿透伪装的「火眼金睛」
Claude 通过 Palantir AIP 平台接入卫星侦察网络,展现出超越传统图像匹配的深度分析能力:
精准捕捉伊朗防空导弹发射车的微小热信号特征,结合车辆排列逻辑、伪装网痕迹的语义分析,秒级区分充气诱饵与真实目标;
基于哈梅内伊数月行动轨迹建模,生成上千种可能路径,将其临时转移路线预测准确率提升至 98.7%,直接锁定空袭窗口期;
解析波斯语加密通信内容,从信号跳变规律中提炼伊朗高层指挥体系的运作模式,为目标分级提供核心依据。
2. 战损评估:90 秒完成 4 小时工作量的「精准会计」
导弹打击后,Claude 通过实时对比攻击前后的卫星影像,生成量化评估报告:
明确标注「1 号机库彻底损毁、2 号雷达站功能丧失 40%」等具体战损数据,并自动提出二次打击建议;
采用大型语言模型驱动的自动化评估机制,将传统 BDA 流程从 4 小时压缩至 90 秒,效率提升 160 倍,这一数据已被 Palantir 2026 年白皮书证实;
结合热成像与信号消失状态,自动判定伊朗军政高层的生存状态,为后续作战调整提供实时反馈。
3. 风险模拟:运行数千次博弈的「战场预言家」
Claude 的核心价值更体现在决策前置的风险预判:
后台并行运算数千次战场博弈模拟,输出精准概率预测:「撤回无人机后伊朗防空反击概率 68%」「深入打击触发战术核武防御机制风险指数级上升」等结论;
其递归推理机制能处理复杂战场变量,如在伊朗防空系统突然开机时,90 秒内完成导弹航线重规划,配合 Palantir 的 0.3 秒指令分发,实现「发现 - 锁定 - 摧毁」的秒级闭环;
据牛津大学研究,Claude 在军事决策中最优先考量「行动成功率」,其次为「国内支持度」,对平民伤亡的敏感度相对较低,这一算法偏向直接影响了打击方案的选择。
三、争议与反思:AI 嵌入杀伤链的深层影响
此次行动最具讽刺意味的背景是:空袭发生在特朗普政府下令停用 Claude 的仅数小时后,凸显其已深度嵌入美军作战链条,难以切割。这一现象引发多重争议:
伦理红线冲突:Anthropic 曾在合同中明确禁止 Claude 用于「完全自主致命武器系统」,但此次深度参与「斩首行动」,导致其与五角大楼价值 2 亿美元的合同破裂,公司被列为「供应链风险」;
决策主导权转移:尽管美军强调「人类最终决策」,但 Claude 筛选了 90% 的战场信息并排序,其输出的「最优解」实质上框定了决策范围。正如分析师所言:「AI 没有按下按钮,却决定了按钮何时被按下」;
行业分裂与军控挑战:Anthropic 的坚守引发科技行业分裂 ——OpenAI 承接合约时保留伦理红线,而 xAI 无条件接受军方所有要求。这一分歧加剧了全球 AI 军控的治理碎片化,联合国已呼吁建立军事 AI 的「人类可控」准则。
结语:AI 重构战争的时空维度
Claude 在伊朗行动中的表现,标志着战争形态从「信息化」正式迈入「智能化」。它将情报分析从数天压缩至数秒,决策周期从小时级缩短至分钟级,作战规划从静态方案升级为动态推演。但技术跃进的背后,是算法黑箱与人类责任的边界模糊:当 AI 能预测战争走向、筛选打击目标时,「人类决策」是否已沦为程序性确认?这一问题,正成为 AI 军事化时代无法回避的核心命题。当代码成为新的“火药”,算法成为新的“战力”,未来战争的规则正在被重新改写。
相关阅读