美國MQ-9察打一體無人機
裝備狙擊步槍的機器狗。
可遠程操控的無人坦克。
(資料圖片)
最近,隨著ChatGPT等聊天機器人的發(fā)展,人工智能及其前景再次受到全球關(guān)注。但對于人工智能在戰(zhàn)爭中的應用及其對平民的影響,人們則關(guān)注較少。在俄烏沖突前線,無人機、無人艇、巡飛彈、智能地雷等武器的大量使用,可能預示著一個人類使用自主武器系統(tǒng)進行戰(zhàn)爭的未來。
據(jù)報道,近日,一家英國智庫發(fā)布了一份報告,稱盡管公眾對AI的興趣大增主要是由于ChatGPT的發(fā)布,但各國軍方早已將注意力投向AI未來在戰(zhàn)場上的應用,尤其是能夠進行深度學習的自主武器系統(tǒng)。
現(xiàn)狀
目前仍受人類監(jiān)控
未來或有更多行動自由
自主武器系統(tǒng)是指在“重要功能”方面具有自主性的武器系統(tǒng),也就是說這種武器可以在沒有人為干預的情況下選擇(搜索或監(jiān)測、確定、跟蹤)和攻擊(攔截、使用武力對抗、抵消、損毀或破壞)目標。
在最初由人啟動或發(fā)射后,自主武器系統(tǒng)根據(jù)從傳感器接收到的環(huán)境信息,并基于概括性的“目標描述”,自行啟動或觸發(fā)攻擊。這意味著使用者并未選擇自主武器系統(tǒng)使用武力攻打的具體目標以及精確的時間和地點,甚至對此一無所知。
在各國現(xiàn)有的裝備中,許多遙控武器系統(tǒng)具有自主模式,但只能在短期內(nèi)自主運行。而且這些武器在所執(zhí)行的任務、攻擊目標的類型及其被使用的環(huán)境方面都極其受限。大部分系統(tǒng)依然受到人類操作員的實時監(jiān)控。
隨著軍事科技的發(fā)展,未來的自主武器系統(tǒng)可能在確定攻擊目標時擁有更多的行動自由,行動時不受空間和時間的嚴格限制,并應對迅速變化的情況。
觀點
國際社會需采取措施
減少AI武器風險
近日,國際紅十字會在其網(wǎng)站上刊發(fā)文章認為,自主武器系統(tǒng)的運作過程可能會給受武裝沖突影響的人(無論是平民還是戰(zhàn)斗員)帶來傷害,而且具有導致沖突升級的危險。它還會對遵守國際人道法等國際法規(guī)則特別是保護平民的敵對行動規(guī)則等提出挑戰(zhàn)。另外,用傳感器、軟件和機器程序取代了人類對生死的決定,將引發(fā)人類的根本道德關(guān)切。
專家認為,迄今為止,聯(lián)合國已有《禁止核武器條約》《不擴散核武器條約》《關(guān)于禁止發(fā)展、生產(chǎn)、儲存和使用化學武器及銷毀此種武器的公約》等條約,唯獨沒有禁止AI武器的國際法。因此,國際社會應采取以人為本的方式來處理在受沖突影響地區(qū)使用人工智能的問題。需要設立防護措施,以幫助加強現(xiàn)有保護措施并減少其他風險。
目前,國際社會對于致命性自主武器系統(tǒng)的討論集中在其是否能夠清晰區(qū)分戰(zhàn)斗人員與非戰(zhàn)斗人員,以及它是否會模糊化擊殺行為的行為主體等幾個問題上。已有一些非政府組織或游說組織,如“阻止殺手機器人運動”等,主張國際社會完全禁止致命性自主武器系統(tǒng)。不同的意見則認為可以加強國際法和國內(nèi)法方面的監(jiān)管。
據(jù)央視新聞
【鏈接】
AI武器
可分為三類
根據(jù)對人工智能的分類,目前的AI武器可以分為三類。
第一類是完全由人類決定并由人遠程操作的無人機,美國的MQ-1“捕食者”偵察機就是代表。
第二類是機器人可以自己做一定的判斷,但在執(zhí)行任務期間,人類可以中斷或取消任務,如以色列的“哈比”自殺式無人機。
第三類是人類完全不參與決策過程的自主型無人機或機器人。這類機器本質(zhì)上還是要由人來決定,即由人編程并在一定程度上讓無人機自己決策。這類無人機的最大隱患在于,可能出現(xiàn)程序錯誤而導致誤傷,自主判斷做出人類意想不到或不會讓其進行的行動,如擴大打擊范圍和強度等。
AI武器的這三種分類也源于人工智能的三種分類:弱人工智能,只能完成某一項特定任務或者解決某一特定問題;強人工智能或通用人工智能,可以像人一樣勝任任何智力性任務的智能機器;超人工智能或超級智能,可以像人類實現(xiàn)智能上的生物進化,對自身進行重編程和改進,即“遞歸自我改進功能”。
據(jù)中新網(wǎng)
來源:廈門日報
關(guān)鍵詞: