蔡裕明/滑鼠點三下 戰爭就開始了?

分享:

文/蔡裕明(實踐大學會計暨稅務學系副教授兼系主任)

2026年3月,美軍在伊朗上空投下第一枚炸彈的24小時內,美軍所使用的Maven Smart 系統就完成逾千個攻擊目標的識別與建議攻擊目標。主導這個過程的,不是一間指揮中心裡面的數千名情報官員,而是少數人即完成從辨識到攻擊的確認。五角大廈首席數位暨人工智慧官史丹利(Cameron Stanley)在Palantir的發表會上說得相當直接,整個殺傷鏈現在「只剩左鍵、右鍵、左鍵」。

這句話值得反覆推敲。它不是比喻,它宣告一種新的戰爭形態,而且進一步開啟美國軍事人工智慧主導地位的全新時代。

AI戰爭示意圖。(GEMINI生成)
AI戰爭示意圖。(GEMINI生成)

或許這樣的說法或有誇大。但如果把時間往前看,就更容易理解這種變化。1991年波灣戰爭時,由史瓦茲柯夫在前線指揮,鮑威爾在華府做整體決策。到了2003年伊拉克戰爭,法蘭克斯(Tommy Franks)與邁爾斯(Richard Myers)仍是由將軍主導戰爭。然而在2026年,AI 並沒有改變克勞塞維茲意義上的「戰爭本質」,但它正在重塑指揮官行使判斷力的方式。

一場真實戰爭裡的AI測試

Maven Smart System為2017年美國五角大廈「Maven 計畫」的最新成果,由Palantir承接Google退出後的合約,整合衛星影像、無人機畫面、訊號情報等150個以上的資料來源,並嵌入Anthropic所開發的Claude大型語言模型,讓操作員可以用自然語言向系統提問,例如,打擊這個目標的最低風險時間窗口是什麼、風險為何、可能會遭遇何種報復性攻擊以及相關法律評估。

美國對伊朗的史詩怒火是這套系統首次在大規模實戰中被全面部署。美國中央司令部司令庫珀(Brad Cooper)將攻擊效率部分歸功於「先進AI工具」,Palantir 執行長卡普(Alex Karp)則明確宣稱,這是人類歷史上第一場由AI大幅強化的戰爭。

AI的角色不僅限於目標鎖定。美國網路司令部(U.S. Cyber Command)就與以色列合作,在戰爭初期的幾個小時內利用網路行動破壞伊朗的指揮、控制與通訊網路,使感測器失效並製造混亂,伊朗隨即展開報復,攻擊位於阿拉伯聯合大公國(UAE)與巴林的AWS數據中心,旨在削弱美國對支援AI系統之商用雲端基礎設施的依賴,親伊朗的網路團體也迅速動員,自行利用AI工具掃描美國關鍵基礎設施的漏洞。

然而,這場戰爭也曝露AI目標識別的風險。Maven系統輔助生成的打擊清單中,一枚美軍戰斧巡弋飛彈擊中伊朗一所女子小學,造成超過165人死亡,其中大部分是學童,五角大廈事後調查是否這是系統的誤判。

也就是說,AI會加速戰爭進程,但不必然可以更為精準打擊目標。問題不在於有沒有「人在迴路中」,而在於當AI每分鐘生成數十個目標時,人類究竟有沒有能力進行有意義的驗證?

北京的另一條路,以量代質的群蜂邏輯

美國對於AI的運用是把AI嵌入情報融合系統,中國選擇的則是把AI直接裝進無人機群。

2026年1月,解放軍在直播中展示新的無人機群作戰系統,單一士兵可以透過AI演算法,同時控制200架固定翼無人機。這些無人機能在電磁干擾環境下自主規劃飛行路徑,彼此協調分配攻擊任務,無須與操作者維持持續通訊,並且探究如何用生物行為訓練無人機群的作戰模式。

這個展示有幾個關鍵意義。第一,它直接回應烏克蘭戰場上俄軍電子戰癱瘓無人機的教訓,而具備自主抗干擾能力的無人機群,不需要依賴持續通訊也能完成任務。第二,傾向「基於效果的作戰」(Effects-Based Operations, EBO),意味著人類在作戰中實際介入的節點大幅後移,也就是只有授權部署,之後讓演算法決定誰去誰留,而且解放軍目前在AI無人機群的數量,可能已是全球領先地位。

不過,這個「領先」需要加一個問號。解放軍長期投資先進AI無人機群與大型偵察無人機,這樣的路徑不同於烏克蘭戰場揭示的現實,那就是廉價、一次性使用的FPV無人機才是消耗戰場的主力。

另一方面,AI被視為提升部隊實戰效能的重要工具,解放軍也面臨組織與作戰經驗欠缺的挑戰。然而,當AI訓練數據的規模越大,如何確保這些資訊符合政治安全與管理規範,成為開發時必須考慮的因素。

新型軍備競賽的結構

Anduril創辦人拉基(Palmer Luckey)在今年初接受訪問時指出,這場AI軍備競賽可能足堪比1940年代的核武競賽,這是一種新型態的「相互保證毀滅」。有點像,也有所差異。

核武競賽在技術上有明確的門檻,你先需要擁有核子武器,以及能夠投射核子武器的載具。然而,AI軍備競賽沒有這個門檻。從商用無人機到邊緣計算,從大型語言模型到低成本感測器,這場競賽的進入成本正在快速下降,且沒有任何擴散管制機制能有效攔截。這種技術的發展軌跡意味著,一個人未來可以指揮一支無人機軍隊,而現行的國際法與軍事指揮體系,完全沒有為這種場景建立審查或究責機制。

Robert Jervis在1978年指出,安全困境在進攻性與防禦性武器難以區分時最為嚴峻,每一方為自保而建立的能力,都被對手解讀為進攻意圖,螺旋升級因此無法自行停止。AI武器就是這個邏輯的極端案例,它沒有像核子試爆那樣的可見信號,也沒有射程那樣的可量化指標,各方只能靠採購文件和公開展示互相猜測,安全困境比冷戰更難管理。

更進一步來說,自主的軍事系統最危險的特性不是完全自主,而是速度差異,AI的決策速度遠超任何人類政治機構的反應能力。美軍目前採用的Maven將殺傷鏈從數天壓縮到數分鐘,不只是效率提升,它同時壓縮危機中所有人的緩衝時間。

AI的軍備競賽,其實還有一個被忽略的戰場,那就是資訊戰,而且它正在被AI徹底改變。在美國與伊朗的戰事當中,就可以清楚看到這種趨勢。當傳統軍力差距過大時,伊朗選擇把重心放在資訊操作上,特別是利用生成式AI來進行宣傳。像是用AI做出來的樂高動畫影片、模擬官員發言的合成音訊,甚至是大量製造的Deepfake內容,都在短時間內透過X和TikTok快速擴散,FB也可以看到這類似是而非的影像或文字。也就是說,在戰爭爆發後的幾個小時內,就已經在網路上開始「搶敘事」。

這種做法的目標,並不是單純要讓人相信某一個謊言,這是一種「廢話宣傳」。這個意思是用AI大量生成真假難辨的內容,把整個資訊空間淹沒。當訊息多到無法消化,事實查核就會跟不上,最後讓人產生一種感覺,好像什麼都不可信,也不知道該相信什麼。

換句話來說,真正的武器,不是某一則假訊息,而是「不確定性」本身。解放軍早已把「認知作戰」當成戰略的一部分,而且是行動前就會啟動的手段。如果未來台海發生危機,這種由AI驅動的資訊攻勢,很可能在第一枚飛彈發射之前就已經展開。它的目的,不只是對外宣傳,更是對內部分化社會、削弱共識,同時影響國際社會是否願意介入。

問題在於,這類AI所製造的資訊攻擊,台灣目前還沒有完整、系統性的防禦機制來應對。也就是說,戰爭的樣貌已經改變了,但我們對戰爭的想像,還停留在過去。

※本文由國戰會授權刊出

※以上言論不代表中天新聞網立場

留言衝人氣 2則留言

登入留言有機會獲得旺幣哦!
NO MESSAGE 無任何留言,趕緊搶頭香!