2026年初,美军在针对委内瑞拉和伊朗的军事行动中,大量使用人工智能(AI)工具,引发全球对战争伦理与军事技术边界的深刻担忧。从情报分析到目标识别,从战术规划到自主打击,AI技术深度嵌入作战全链条,重构了现代战争的决策逻辑与作战形态。然而,这一技术狂飙的背后,是伦理失范、技术失控与霸权扩张的多重危机。

AI赋能:重塑战争形态的“双刃剑”
在针对伊朗最高领袖哈梅内伊的“史诗愤怒行动”中,美军依托“大模型决策核心(Claude)-数据融合引擎(Palantir)-协同指控框架(JADC2)-自主集群平台”的复合技术栈,首次在实战中验证了“算法压缩杀伤链”的完整逻辑。Claude模型在90分钟内处理了2.3PB的非结构化数据,生成15套打击方案,并通过兵棋推演量化评估风险,最终将行动时间压缩至11分23秒。这种效率跃升不仅体现在决策速度上,更体现在作战精度上:AI通过动态本体论建模,将目标定位误差半径从公里级压缩至500米以内,实现了对高价值目标的“精准斩首”。[page]
然而,AI的赋能并非无懈可击。在伊朗行动中,美军因使用“过时情报”误击一所小学,导致175名儿童死亡。尽管美军声称目标确认需经中将以上指挥官批准,但AI的快速决策机制可能削弱了人工核查的严谨性。此外,AI的“自动化偏见”问题也日益凸显:在巴勒斯坦战场,以色列的“薰衣草”系统因数据偏差误杀大量平民,暴露了算法歧视的致命缺陷。