生成式AI在军事领域具有一定的应用潜力,但目前仍存在诸多限制,使其难以完全成为军事指挥员和操作人员的智能“助手”或“顾问”,根本原因如下:
生成式AI的知识来源于训练数据集,当面对超出训练范围的问题时,可能会产生错误或虚假信息,此现状被称为“幻觉”,有时还会出现欺骗性信息,称为“机器欺骗”。在军事指挥中,错误的信息可能会引起致命的决策失误。例如,生成式AI可能有意或无意不能准确区分战场上的真假目标,从而误导指挥员。
生成式AI只能做出最有利于实现军事目标的“纯理性”判断,但没有办法进行价值判断。例如,它难以判断军事行动是不是满足比例原则或是否会造成不必要的平民伤亡。这种缺陷使其在复杂多变的战场环境中难以完全替代人类指挥员的决策。
生成式AI需要海量数据来进行训练,而军事数据往往高度机密且难以获取。此外,战场环境复杂多变,数据的实时性和准确性很难保证,这会影响AI的性能。例如,敌方的“诈术”可能会引起AI对战场态势的误判。
生成式AI可能对战争法的根本原则造成冲击。例如,它难以区分军事目标和非军事目标,也无法完全遵守避免不必要痛苦的原则。这使得其在军事应用中需要谨慎对待,以避免违反国际法和人道主义原则。
尽管生成式AI在某些领域取得了突破,但其在军事领域的应用仍处于初级阶段。例如,美军在测试中发现,生成式AI在处理秘密级作战信息时仍存在可靠性问题。因此,目前生成式AI只能作为辅助工具,而非完全可靠的“助手”。
生成式AI的快速决策能力可能与传统的军事指挥体系不兼容。例如,它可能在极短的时间内生成大量建议,但指挥员需要时间做评估和决策。此外,过度依赖AI可能会引起指挥员失去对战场态势的直观判断能力。
军事信息的高度敏感性要求生成式AI具备极高的安全性和保密性。然而,目前的技术难以完全防止数据泄露或被敌方利用。例如,美军曾暂停在政府电脑上使用ChatGPT等生成式AI工具,以防止数据泄露。
生成式AI在军事领域具有一定的辅助作用,例如优化行动方案、缩短决策时间等,但其目前的技术水平和可靠性仍不足以完全替代人类指挥员和操作人员。未来,生成式AI可能会作为“外脑”或“参谋官”辅助决策,但其应用仍需谨慎,以确保军事行动的合法性、安全性和有效性。
上一篇:魏牌全新高山宗族申报图曝光 标配高阶智驾
下一篇:澳专家狂言:一旦中美开战福建号航母活不过一周!原因很清楚!