战争的样子一直在变。以前打仗是面对面拼刀枪,后来是坦克大炮对轰,再后来是导弹远距离精确打击。每一次技术进步,都让打仗的方式发生根本改变。现在,我们又站在了一个新的转折点上——人工智能开始进入战场,尤其是在空战领域,变化来得特别快。

战斗机空战向来被认为是最考验人脑和人手的事情。近距离格斗的时候,飞行员要在几秒钟里看清周围情况、判断威胁、想好对策、做出动作,这一连串事情哪个环节慢了都可能输掉。正因为这么复杂,培养一个合格的战斗机飞行员特别花钱。某国国防部门曾经算过账,培养一个能驾驶先进战斗机打仗的飞行员,要花超过1000万美元,还得用好几年时间。
但人工智能正在改变这个局面。2024年,某国空军测试飞行员学校和某个研究机构一起宣布,他们用一架改装过的试验飞机,成功完成了人类历史上第一次由人工智能系统控制的战斗机与有人驾驶战斗机的空中格斗对抗。这件事意义不小,它说明人工智能在军事航空领域的应用不再是纸上谈兵,而是有了实际突破。
与此同时,新的人工智能技术也在往军事决策的更深层次渗透。某国空军在2025年发布了一份关于人工智能的指导文件,第一次把人工智能正式写进了作战条令,明确了它在情报处理、决策辅助、作战规划这些领域怎么用。这些进展都说明一件事:人工智能和现代空战的结合,已经不是'行不行'的问题,而是'怎么推'和'推多快'的问题。
技术基础:人工智能怎么改变空战
要理解人工智能怎么改变空战,得先看看它在军事航空领域的技术路子是怎么走过来的。
早期军事人工智能主要靠规则驱动。说白了,就是把人类专家的战术知识变成一条条'如果怎么样,就怎么办'的规则。这种系统处理熟悉的情况还行,但碰到规则里没写过的新情况就抓瞎了。空战这玩意儿高度动态,对手还会故意使坏,规则库根本覆盖不过来。
后来机器学习技术起来了,特别是深度学习有了突破,给军事人工智能带来了新路子。和规则驱动不同,机器学习系统不靠人写规则,而是从大量数据里自己找规律。用在空战上,就是让人工智能通过分析海量历史空战记录、模拟对抗数据甚至真实飞行数据,自己学会什么情况下该做什么动作。
前面说的那架试验飞机的空战人工智能,走的就是这个技术路子。这个项目由某个研究机构资助,开发团队用了一年左右时间,改了超过十万行飞行关键软件的代码,在21次测试飞行中逐步完善人工智能的决策算法。测试的时候,人工智能系统能在超音速飞行条件下做出复杂机动,和人类飞行员进行高强度的空中格斗。
如果说上面这种人工智能代表的是窄领域的应用,那么大语言模型的兴起就给军事领域打开了更大的想象空间。大语言模型是基于特定架构的大规模神经网络,在海量文本数据上训练过,能深入理解和生成人类语言。
这种技术在军事上可能有几个用处。情报分析方面,可以快速处理各种来源的数据,提取关键信息生成分析报告。作战规划方面,能理解军事条令和战术原则,帮着生成作战方案建议。模拟训练方面,可以作为'智能对手'提供各种对抗场景,让飞行员训练时遇到的对手更多样。
不过也得说清楚,大语言模型在军事上还处在探索阶段。这种模型的'黑箱'特性让它的决策过程很难完全解释清楚,而军事应用对系统行为的确定性和可解释性要求特别高。所以在看得见的未来,它更可能是个'帮着人决策'的角色,而不是'自己决策'的角色。
讨论人工智能空战,核心问题之一是人工智能系统该有多大自主权。某国国防部门有个分类框架,把人工智能自主性分成好几个层级:从最底层的'人完全控制',到'人在回路里'、'人在回路上'、'人在回路外',一直到完全自主。现在大多数军事人工智能系统,包括前面说的那个格斗系统,都被设计成'人在回路里'的模式——人工智能负责具体的战术动作,但开火这样的关键决定还是由人来做。
这个设计思路反映出对人工智能军事应用风险的基本谨慎态度。有项研究做过战争模拟,发现大语言模型在游戏里和人类专家的决策模式明显不同——模型更容易冒险,在冲突升级时表现得更具攻击性。这个发现提醒我们,人工智能的决策逻辑和人有根本差异,关键环节让人来做判断是必要的安全保障。
现状分析:各国人工智能空战发展情况
在全球范围内,人工智能空战领域的竞争正在展开,各国的发展思路和进度不太一样。
某国在这个领域走在前头。这不光是技术研发深的问题,也体现在战略规划的系统性和作战实验的务实性上。他们有个'空中战斗演化'项目,2019年启动,2024年完成了人类历史上首次人工智能与人类飞行员的空中格斗对抗。还有个'协同作战飞机'计划,要搞人工智能驱动的无人僚机,打算采购超过1000架,与第五代战斗机协同作战。2025年他们还发布了人工智能指导文件,把人工智能正式纳入空军作战条令。在更高层次的作战概念上,他们推行的'马赛克战'理念也和人工智能空战密切相关——主张用大量低成本、分布式的作战单元,配上人工智能驱动的指挥控制网络,形成灵活有弹性的作战体系。

某国在人工智能军事应用上的进展也引人关注。从公开信息看,他们采取的是应用导向、快速迭代的发展策略。在无人机和'忠诚僚机'概念上,有军事媒体报道说他们在积极发展类似前面那个国家'协同作战飞机'的无人机系统。在几次航展上,他们展示了多种型号的无人战斗机模型。有分析认为,他们可能在探索把第五代战斗机和先进无人机深度整合,形成有人-无人编队作战能力。还有媒体分析说,他们在无人机蜂群技术、忠诚僚机概念方面的进展,可能让他们在跳过某些发展阶段直接进入无人机时代的路径上做出战略选择。
其他国家也在各自探索。某个国家尽管受到制裁影响,仍在推进人工智能军事应用,探索人工智能在无人机控制、精确制导武器等领域的应用。几个欧洲国家采取了更审慎的立场,在将人工智能部署于武器系统方面相对保守。另外两个国家凭借无人机产业和技术积累,在人工智能辅助情报分析、精确制导等领域有一定基础。
未来设想:人工智能空战可能怎么走
展望未来,人工智能空战的发展可能会分几个阶段。
短期来看,未来五年到十年,发展会集中在几个方向。有人-无人编队会走向成熟,飞行员可以同时控制多架无人僚机执行任务。人工智能决策辅助系统会更普及,在情报分析、任务规划、威胁评估等领域得到更广泛应用,作为'智能副官'帮人处理海量信息。在侦察、干扰、电子战这些非致命任务领域,无人系统的自主性可能会进一步提升。
中期来看,如果技术发展顺利,2030年代中后期可能看到人工智能空战能力的进一步跃升。人工智能可能从当前专注于'执行层'向'决策层'延伸,发展出能独立完成从态势感知、威胁判断到战术选择、武器运用的全流程空战系统。大量低成本人工智能无人机组成的蜂群可能成为现实,能自主协同,执行复杂战术动作。未来的空中作战体系可能形成一个以人工智能为中枢的智能网络,实现更快的发现、决策和打击节奏。
长期来看,更遥远的未来,人工智能空战可能走向几种极端形态。当双方都拥有高度自主的人工智能空战系统时,战争可能演变成人难以理解的'算法对抗'。完全自主的无人战斗机可能取代有人驾驶飞机成为空中作战的主力。人工智能系统甚至可能承担更高层级的决策功能,从战术空战扩展到战略层面的战争决策。
风险与挑战:技术进步带来的问题
人工智能空战的发展虽然前景诱人,但背后的问题也不少。
技术层面有固有局限。以深度学习为代表的人工智能技术存在'黑箱'特性,连开发者也难完全搞懂系统为什么做某个决定。在军事应用里,这种不可解释性会带来大问题。人工智能系统还容易受到对抗性攻击,攻击者通过在输入数据里加人眼难察觉的小扰动,就能诱使系统产生错误判断。还有分布偏移问题,人工智能在学习阶段接触的数据分布,可能和真实战场环境差很多,碰到没见过的'分布外'情况时,性能可能急剧下降。
伦理和法律层面也有困境。当人工智能系统参与的军事行动导致平民伤亡或违反国际法时,谁该承担责任?系统开发者?军事指挥官?还是系统本身?现有的国际法框架主要基于人类行为主体的假设,人工智能一进来,责任归属问题就变模糊了。给人工智能系统自主选择和打击目标的权限,也引发深刻伦理争议。有人觉得,让机器掌握生杀大权是对人类尊严的侵犯,是把杀人的道德责任推给了机器。
战略稳定层面可能受冲击。人工智能可能增加战争的速度和节奏,让决策窗口期大大缩短。这种情况下,领导人可能面临在极短时间内做重大决定的压力。人工智能在常规作战中的应用,也可能增加核国家在危机中使用核武器的诱惑——如果常规优势能通过人工智能快速建立,核威慑的逻辑就可能变化。还有技术扩散的问题,人工智能空战技术的扩散可能导致更多非国家行为体获得这种能力,恐怖组织用人工智能无人机搞袭击的可能性不能排除。
一个需要选择的历史时刻
人工智能与现代空战的深度融合正在展开。这既是技术演进的必然结果,也是大国军事竞争的重要变量。人工智能正在推动空战从'人主导'向'人机协同'转型。
本文的分析表明,人工智能为空战带来的变革是全方位的。它改变了战术执行的方式,重塑了作战体系的架构,甚至可能重新定义'制空权'的内涵。但这变革不是没有边界的。技术层面的固有局限,伦理法律的深刻困境,战略稳定的潜在风险,都在提醒我们:人工智能空战的发展需要在技术创新和风险管控之间找平衡。
展望未来,有几个关键趋势值得关注。第一,有人-无人编队作战模式可能在未来十年内实现实战化部署。第二,大语言模型在军事决策辅助领域的应用可能加速,但完全自主的人工智能空战系统在可预见的未来仍不太可能成为现实。第三,围绕人工智能军事应用的规范建设将变得日益紧迫。
历史告诉我们,每一次重大技术革新都会引发战争形态的深刻变化,而最终决定这些变化走向的,不只是技术本身,更是人的选择。人工智能与空战的结合,可能正是这样一个需要我们做出明智选择的历史时刻。