中文字幕97日中韩一级黄片|韩国一级成人AA片|aaa黄色三级片|激情五天婷婷丁香|日本a不卡黄中国三级黄片|综合图区亚洲日韩|精品乱子伦无码AV片|亚洲无码转2024|亚洲aⅤ免费久草青青草麻豆|蜜桃AV在线电影

軍事AI的風險隱患

軍事AI的風險隱患
在“無人化”“智能化”深度融入作戰(zhàn)與軍隊建設的今天,歐美軍事強國正加快構建“全譜系AI軍事能力”。與此同時,“信息繭房”“AI造假”等問題討論不斷。在軍事領域,人類能否信任AI,賦予其充分的戰(zhàn)場分析和決策權?這些問題值得深思和探討。

  2023年10月巴以沖突爆發(fā)后,多家媒體曝光以色列國防軍大規(guī)模使用代號“薰衣草”的AI目標識別系統(tǒng)并賦予其極大的自主權和決定權。據(jù)披露,該系統(tǒng)在沖突初期將多達萬余名巴勒斯坦人標記為疑似武裝分子。其決策過程幾乎完全自動化,操作人員僅在空襲前進行“20秒的形式審查”。更令人難以置信的是,該系統(tǒng)被允許對低級別目標使用殺傷范圍較大的“啞彈”,造成大量平民傷亡。以軍內部人士承認該系統(tǒng)存在“10%的誤差率”,但在高強度作戰(zhàn)中被默許使用。

  這一事件迅速引發(fā)廣泛熱議:在AI“眼中”,戰(zhàn)場上因識別和計算精度問題造成的誤傷和人道主義災難被等同于實驗室中的小小“誤差”,在達到作戰(zhàn)目的同時,“10%的誤差率”被默認可以接受。顯然,這些違背了國際人道主義法。聯(lián)合國秘書長古特雷斯強調:“任何影響生死的決策,都不應該交給冰冷的算法?!庇m卡斯特大學教授露西·蘇奇曼警告:“AI是由人創(chuàng)造和訓練的,人會犯錯誤,AI也會犯相同的錯誤,并且犯錯誤的速度更快、規(guī)模更大?!?/p>

  “薰衣草事件”揭示了戰(zhàn)場上AI擁有自主權帶來的嚴重后果,更折射出AI軍事化應用帶來的深層風險。

  其一,“數(shù)據(jù)偏見”問題。軍事AI的決策過程嚴重依賴訓練數(shù)據(jù),而這些數(shù)據(jù)可能包含現(xiàn)實社會中的某些偏見,例如以性別、面部特征區(qū)分不同人群等。一旦這些數(shù)據(jù)用于訓練AI,算法就會將這種有偏見的關聯(lián)性信息視為可靠的判斷依據(jù)。如果這套系統(tǒng)被部署到其他地區(qū),可能會錯誤地將具有類似特征的人群識別為目標,帶來嚴重后果。

  其二,“黑箱操作”問題。AI的“黑箱”操作特性,使其決策過程難以追溯。一旦在作戰(zhàn)指揮等關鍵場景中出現(xiàn)決策偏差,可能引發(fā)誤判甚至不必要的沖突。

  其三,監(jiān)管滯后問題。在高強度作戰(zhàn)節(jié)奏下,AI憑借遠超人類的處理速度,會倒逼指揮操作流程加速,使人類監(jiān)督難以跟上節(jié)奏,一旦算法導致武器系統(tǒng)失控,后果不堪設想。在深海、強電磁干擾環(huán)境中,若放任AI進入全自主作戰(zhàn)模式,“人在回路”的設計將淪為形式。

  最后,戰(zhàn)略失衡問題。軍事AI的進攻優(yōu)勢可能打破“進攻—防御平衡”,使AI一貫的“先發(fā)制人”被視為最佳策略,進而增加沖突風險。另外,AI與高超聲速武器、網絡戰(zhàn)等新型作戰(zhàn)力量相結合,可能打破現(xiàn)有戰(zhàn)略平衡。特別是AI驅動的致命性自主武器系統(tǒng)一旦擴散,其低門檻和易用性可能刺激新型軍備競賽,中小國家或非國家行為體也能獲得此前難以企及的精確打擊能力,將對全球戰(zhàn)略穩(wěn)定構成新挑戰(zhàn)。

機器人加速融入作戰(zhàn)鏈

  去年,美國國防高級研究計劃局(DARPA)發(fā)布“雜交體”(HyBRIDS)生物混合機器人計劃,旨在找到生物混合機器人新型設計方法,解決阻礙部署生物混合機器人系統(tǒng)的重大工程和設計問題。近年來,美大力推進仿生混合機器人技術軍事能力生成,加速融入全域作戰(zhàn)鏈。

  一是突出戰(zhàn)場威脅感知。DARPA先后發(fā)布“泰勒斯”“持久活體生物傳感器”等仿生混合機器人項目,打造戰(zhàn)場環(huán)境監(jiān)測新軍,為滿足多域戰(zhàn)條件下的情報獲取、監(jiān)視和偵察能力提供支撐。

  二是拓展認知作戰(zhàn)空間。美國持續(xù)推進“類器官”生物混合技術發(fā)展,謀求新域作戰(zhàn)能力生成。2025年2月,美國國防威脅降低局、空軍研究實驗室、海軍研究實驗室等機構聯(lián)合開展“大腦風暴”腦芯片平臺開發(fā),借助人工智能等技術,識別作戰(zhàn)人員在不同環(huán)境下的腦神經活動變化,搜集控制腦神經信號。該項目試圖通過制造“戰(zhàn)場幻覺”實現(xiàn)認知迷惑,達到不戰(zhàn)而屈人之兵的目的。

  三是增強士兵作戰(zhàn)效能。2024年底,DARPA提出“作戰(zhàn)人員警覺賦能”項目,該項目利用近紅外光譜的腦機接口技術,精確調控作戰(zhàn)人員負責執(zhí)行、記憶和決策的腦區(qū),意圖增強作戰(zhàn)人員認知能力,提升戰(zhàn)場決策效能。

保證人類最終控制

16588737964

  當前,世界主要軍事國家紛紛從戰(zhàn)略高度布局軍事AI,從中可以看出不同國家對AI軍事化應用的風險管控思考:發(fā)揮人的作用,推動人與AI協(xié)同配合。

  在戰(zhàn)略層面上,各國通過制定準則和劃分責任規(guī)范AI軍事化應用,核心原則是明確“AI是箭,人是弓”,AI用于增強、輔助而非替代人類判斷。北約發(fā)布《負責任使用AI指南》,強調在涉及致命性軍事行動時,必須保持人類對AI系統(tǒng)的最終控制權。美陸軍推出“新半人馬”模型,旨在將AI整合至指揮控制節(jié)點,由人類主導戰(zhàn)略目標與整體規(guī)劃,AI充當“決策助手”,提供相關的態(tài)勢分析和情景推演。這些設計從制度上劃定人機邊界,將重大決策權牢牢掌握在人類手中。

  在技術層面上,通過具體的“人在回路”模式將“人類監(jiān)督”深度嵌入作戰(zhàn)流程。在情報偵察環(huán)節(jié),采取“人在環(huán)外”模式,由作戰(zhàn)人員提出需求,AI完成任務;在指揮決策環(huán)節(jié),采用“人在環(huán)內”模式,人類指揮官嵌進AI作戰(zhàn)流程中,AI提供數(shù)據(jù)分析與方案模擬后,由人類指揮官作出決策并交回AI執(zhí)行;在戰(zhàn)斗環(huán)節(jié),“人在環(huán)上”模式允許一線作戰(zhàn)人員對AI武器實時控制,確保能及時干預異常行動。美軍的無人僚機項目開發(fā)“有人/無人混編戰(zhàn)術接口”,目的是增強在復雜環(huán)境下的態(tài)勢感知和人機交互能力,降低在通信不暢的情況下AI的誤判風險。

387d7cd7aca94b0f6b6b130e177b1c685da28c5e

  真正的挑戰(zhàn)在于確保人機協(xié)同的“認知一致性”。當前的人機系統(tǒng)普遍存在“認知斷層”,人類的直覺經驗與機器的算法推演可能對同一態(tài)勢產生不同解讀。為此,需要在技術上進行針對性設計,如構建龐大的軍事知識圖譜,使AI能夠理解人類的戰(zhàn)術意圖。法國陸軍的“泰坦”人機協(xié)同作戰(zhàn)計劃,設計了一套基于任務階段和壓力水平的自適應控制權分配機制。例如,在部隊開進途中對廣闊區(qū)域進行偵察時,無人機被授予較高自主權;一旦發(fā)現(xiàn)可疑目標,系統(tǒng)將自動提升決策層級,將更詳細的信息推送至人類操作員進行最終判定。

  值得注意的是,AI軍事化應用風險并非僅靠以上措施就可以完全規(guī)避。AI系統(tǒng)的決策邏輯難以被人類指揮官在短時間內完全理解,關鍵時刻仍可能出現(xiàn)“脫節(jié)”問題。因此,各國仍需探索和優(yōu)化人機協(xié)同實踐,在追求AI帶來的決策優(yōu)勢同時,化解其潛在風險。


     來源:中國軍網、解放軍報、中國國防報等綜合