【延伸閱讀】專家警告:殺人機器人軍備競賽或導致對平民屠殺
參考消息網(wǎng)11月21日報道 英國《明星日報》網(wǎng)站11月17日發(fā)表了題為《殺人機器人軍備競賽》的報道。
一名人工智能專家透露,美國、英國、俄羅斯、以色列等國正卷入一場打造殺人機器人軍團的競賽。
從自主射擊槍械和無人機到遙控超級坦克,美國和俄羅斯的原型機器人已經(jīng)打造成功并整裝待發(fā)。而人形機器人上戰(zhàn)場也不過是幾十年內就會出現(xiàn)的事情——并為這個世界勾勒出可怕的前景。
英國設菲爾德大學的人工智能與機器人學榮譽教授諾埃爾·沙爾基對本網(wǎng)站記者說:“一場軍備競賽已經(jīng)拉開序幕。”
沙爾基說:“我們現(xiàn)在看到,美國、以色列和俄羅斯(的殺人機器人軍備競賽)已經(jīng)開始了。如果這些東西登場,那么它們隨時可能意外觸發(fā)戰(zhàn)爭。”
他還說:“怎樣才能取締它們?你完全可以把這些東西永遠擱置起來,可它們只需再充一次電就能再次啟動。”
如今,人工智能機器人正在全球掀起一股熱潮。沙爾基教授擔心,殺人機器人的研發(fā)可能也有著如此驚人的速度。因此,他正在領導一場禁止殺人機器人的全球運動。
在本網(wǎng)站披露了相關的最新進展——美國機器人做后空翻——后,這名專家警告說,俄羅斯的最新項目“絕對令人害怕”。
沙爾基表示:“還有很可怕的東西……俄羅斯人研發(fā)出了這個被稱為‘超級坦克’的東西,而它是世界上最先進的坦克,領先很多。它絕對是一個擁有巨大破壞力的龐然大物,而且他們可以遠程遙控它。他們還在努力以最快速度把它變成一種全自動的機器人。”
雖然自主武裝機器人比人形機器人領先很多年,但沙爾基教授擔心,可能出現(xiàn)的人形機器人也許會給世界帶來災難——導致對平民的大屠殺。
在警告殺人機器人的可怕后果時,沙爾基教授說:“這不可能符合戰(zhàn)爭法,它們能區(qū)分某個目標是軍事目標還是民用目標嗎?這是戰(zhàn)爭法的關鍵。”
他說:“殺死試圖投降的人也是不允許的。我知道很多人以為投降就是舉白旗,其實投降是指任何表明不再戰(zhàn)斗的姿態(tài),比如手無寸鐵地躺在地上……但機器人無法對此加以區(qū)分。我個人最大的擔心是,這會對全球安全造成怎樣的破壞——因為一場此類武器的軍備競賽已經(jīng)拉開序幕。”

資料圖片:能做后空翻的美國機器人。(英國《明星日報》網(wǎng)站)
(2017-11-21 10:14:24)


 
          






