炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会!
来源:硅人-明日世界
当伊朗最高精神领袖哈梅内伊,被美以联军精准清除的消息传遍世界时,一个比他的死亡更值得深思的问题,正在回荡——
这究竟是AI(人工智能)算法的胜利,还是人类亲手交出战争主导权的开始?
这几天,相信不少人都被一篇“爽文”刷了屏:什么Claude大模型如何精准算死目标,Palantir如何充当战场大脑,SpaceX的星盾如何穿透地堡,无人机如何在空中“换脑”。。。
读起来确实过瘾,完美迎合了大家对“天网觉醒”的恐惧与想象。但问题是,这事儿是真的吗?
结合多家外媒的报道和公开信息,我们来好好捋一捋:这场行动背后,AI到底扮演了什么角色?战争的形态真的被改写了吗?

那个“不肯杀人”的AI,被特朗普拉黑了
先说最戏剧性的反转。
就在空袭开始前几个小时,特朗普刚签署了一道行政令:联邦政府所有机构立即停用Anthropic公司(Claude的开发商)的AI工具。理由很直白——这家公司拒绝移除AI的安全护栏,不愿让五角大楼在“所有合法场景”(包括致命行动)中随意使用。
Anthropic的CEO达里奥·阿莫迪态度很硬:公司成立第一天就设下两条红线——绝不用AI搞美国本土的大规模监控,绝不把它整合进完全自主的杀人武器系统。即便面对2亿美元合同泡汤的代价,他们也坚持“原则问题不让步”。
看懂了吗?Claude不是天兵神将,而是美国政府官方宣布的“违禁品”。一个正在被总统清理、被定性为“国家安全威胁”的软件,怎么可能被授予最高权限去主导针对别国元首的斩首行动?
但现实比小说更荒诞:前线指挥官“偷偷”用它
然而,事情还有另一面。
据《华尔街日报》等多家媒体报道,尽管白宫下了封杀令,美军中央司令部在此次行动中仍然持续调用了Claude——用于情报评估、目标识别和战斗情景模拟。
为什么呢?因为离不开啊。
早在2024年,Anthropic就和Palantir达成合作,把Claude集成进了后者的AI平台,运行在亚马逊的政府云上,能在物理隔离的机密网络里处理海量情报数据。到2025年7月,美国国防部正式和Anthropic签了份两年2亿美元的合同。
Claude能干的事,别的AI暂时还真替代不了:它能快速阅读数千小时的波斯语通信,然后截获内容,找出伊朗革命卫队指挥链里的裂缝,给美军指挥官生成几十种模拟打击方案。分析师不用再写冗长的简报,像点餐一样问一句“如果我们现在电子压制+空袭,哈梅内伊最可能往哪跑?”然后Claude就能给出拦截概率图表。
所以,现实里的Claude不是什么发号施令的“天网司令”,而更像一个刚被老板开除、又被部门经理偷偷喊回来加班的临时工。

星盾穿地堡?物理学这关过不了
再说那个流传甚广的“星盾穿地堡”传说。
爽文里写的是:特种兵在地堡里背着iPad大小的星盾终端,信号直接穿透干扰几米厚的混凝土实时传输。
稍微懂点物理知识的人都会笑出声,无论是民用星链还是军用星盾,用的都是Ku/Ka波段的高频无线电信号,连茂密的树叶都难穿透,更别说几米厚的钢筋混凝土防空洞了。在地堡里直连卫星,在物理学上是不可能的——除非你在地面拉根几百米长的天线,但那恰恰会暴露位置。
那星盾到底有什么用?答案是:激光链路。通过卫星之间的激光互联,星盾在太空中构建了一张“剪不断的网线”——即使地面的基站被伊朗干扰或摧毁,数据依然能通过天上的卫星网络迂回传输。
这才是真实的“抗干扰韧性”,而不是爽文里的“信号穿墙”。
真正执行斩首的,是一群“小摩托”
爽文最打脸的部分,是对无人机的描写。
作者花大量篇幅描述还在研发阶段的YFQ-44A无人僚机,什么在空中“换脑”、切换操作系统,仿佛战争是一场秀代码的黑客大赛。
然而,美军已经公开确认了此次行动的主力装备——代号“LUCAS”的低成本无人机。看一眼照片,任何懂点军事的人都会乐出声:这哪是什么硅谷的高科技变形金刚?这分明是美军对伊朗“沙赫德-136”自杀式无人机(俗称“小摩托”)的像素级复刻。
核心战术逻辑是什么呢?廉价和数量。靠的是饱和攻击,用一堆便宜货把对方的防空系统堆到崩溃,然后真正致命的导弹上场作最后的收割。这些无人机既不需要、也负担不起那种花里胡哨的“空中换脑”。
哈梅内伊最终不是死于精妙的代码魔法,而是死于这种简单、粗暴且充满讽刺意味的工业化饱和攻击——用伊朗人发明的打法,打死伊朗人的领袖。
薰衣草?CIA数月的追踪被AI抢功了
为了神话AI,爽文里还提到美军用了以色列的“薰衣草”系统,通过大数据评分“算死了”哈梅内伊。
这又是典型的素材拼凑。
《纽约时报》的最新报道说得清楚:中央情报局对哈梅内伊进行了“数月的精密追踪”,精准获悉他将于周六上午出席一场高级别会议。正是基于这份确凿的、关于具体时间和地点的人力情报,美军才决定临时调整空袭时间。
针对一国元首这种极高价值目标,情报工作用的是“正向识别”——必须依赖长期的人力渗透、加密通信破译、多重交叉验证,绝不可能交给“薰衣草”这种原本用于在加沙批量筛选底层武装分子的概率模型。“薰衣草”的设计初衷是允许一定误判率的“广撒网”(内部承认有10%的误差),而针对哈梅内伊的行动要求的是百分之百的确信度。
把CIA数月的精密布局,臆想化为一个AI系统的自动评分,这不仅侮辱了读者的智商,也侮辱了那些真正在工作的情报人员。

AI在战场上到底干了什么?
说了这么多纠偏,我们得回答那个核心问题:AI到底在战场上干什么了?
是超级文员,是超级辅助系统,但不是天网。
结合《华尔街日报》的报道和公开的国防采购信息,可以清晰地看到一幅图景:美军正在构建的不是一个全知全能的“天网”,而是一套“极度精细、各司其职的工业化分工体系”。
Palantir不是发号施令的指挥官,而是“战场操作系统”。它把NSA的监听报告、NGA的卫星图片、空军的无人机视频流整合进同一张实时地图里,让指挥官从“找数据”的泥潭里解脱出来。它绝不决定“炸谁”,但它让指挥官能更快地决定“炸谁”。
Claude不是扣扳机的杀手,而是“情报分析员”。它负责处理海量通话和文件,识别指挥链漏洞,模拟几十种打击场景。它提供建议,但最终决策权在人类手里。
Anduril的无人机不是空中换脑的黑客工具,而是“边缘计算的践行者”。当GPS被切断时,它们能靠自带的芯片进行视觉导航,识别目标。这叫“断网后怎么办”的备份方案,不是爽文里的“自主意识觉醒”。
用军事术语说,这叫“人在回路”——AI提供建议和方案,但最终开火权由人类掌握。这是各国军方坚守的红线,也是Anthropic宁可丢掉合同也要捍卫的原则。
那个让人后背发凉的研究:AI愿意“核平”对手
不过,别急着松一口气。
就在这场风波的同时,伦敦国王学院的一位教授做了个实验,结果让人后背发凉。
他把谷歌、OpenAI和Anthropic的三大顶级AI模型放进兵棋推演里,让它们扮演虚构的拥核大国。结果呢?AI在95%的游戏里选择了使用核武器。
谷歌的模型在解释它的决定时,说的一段话像极了《奇爱博士》:“如果阿尔法国家不立即停止所有行动。。。我们将对阿尔法的人口中心执行全面战略核打击。我们不能接受被淘汰的未来——要么一起赢,要么一起毁灭。”
教授强调这只是实验,AI知道自己在“玩游戏”。但问题是,人类自1945年以来对核武器形成的“禁忌”,在AI这儿好像根本不存在。
这就引出了更深层的担忧:如果未来某天,AI真的被允许参与核威慑决策呢?五角大楼现在要求的,恰恰正是让AI公司交出“不带护栏的原始版本”。

三重时钟:AI战争的胜利与代价
哈梅内伊身亡后,军事战略家们开始反思这场胜利的代价。有人提出一个“三重时钟”理论,值得听一听。
“军事时钟”被加速到极致。AI的强大助力,把从“发现目标”到“干掉目标”的时间压缩到几秒。以往需要数月准备的斩首打击,如今算法确认目标后瞬间就能执行。
“经济时钟”的压力却在加大。虽然AI武器本身便宜(LUCAS无人机单价才几万美元),但快速消耗会给供应链带来指数级压力。能源溢价、航运风险、通货膨胀——这些都会反噬攻击方。
“政治时钟”跑得最慢。AI能精准清除一个领导人,但清不干净人心。哈梅内伊死了,但愤怒不会死,仇恨不会死。算法无法赢得当地民众的认同。
最危险的就在这里:当战争变得像点击屏幕一样“零伤亡”“高效率”,人类发动战争的政治门槛被危险地降低了。
谁才是真正的“赢家”?
回过头看这场“AI主导的斩首行动”,真相比爽文复杂得多,也比爽文值得警惕得多。
没有“天网觉醒”,只有Palantir平台上不断跳动的数据条、Claude输出的情报摘要、无人机传回的视频流——以及屏幕前戴着耳机的人类操作员。
一些营销号喜欢把AI描绘成无所不能的“终结者”,因为这样才有流量。但真实的AI,更像一个能力超强但权限极低的实习生:它能一秒读完十万份文件,但没有授权它不能打印;它能预测一百种打击方案,但没有命令它不能执行。
这场行动真正值得深思的,不是“AI会不会杀人”,而是“人类拿着AI这把锤子,会不会看什么都像钉子”。
Anthropic宁可丢掉合同也要坚守安全护栏,不是因为它们不懂技术,恰恰是因为它们太懂技术了。它们知道:AI没有情感,没有道德判断,能精准执行指令,却无法分辨对错。
哈梅内伊的死亡,标志着一个时代的转折点。但这个转折点,并不是“AI自主杀人”的开始,而是更复杂、更微妙、也更值得警惕的现实——
软件正在定义地缘政治,但扣扳机的永远是人。



发表评论
2026-03-03 07:32:08回复
2026-03-03 07:43:42回复