參考消息網(wǎng)2月21日?qǐng)?bào)道 英國(guó)《經(jīng)濟(jì)學(xué)人》周刊網(wǎng)站1月25日刊登題為《自動(dòng)武器是一個(gè)規(guī)則改變者》的文章稱,相對(duì)于機(jī)器人暴動(dòng)的終極噩夢(mèng),一個(gè)更加現(xiàn)實(shí)的擔(dān)憂是人類(lèi)有可能讓自動(dòng)武器自行判斷殺人與否。有分析認(rèn)為,在競(jìng)爭(zhēng)激烈的地區(qū)執(zhí)行任務(wù)時(shí),讓機(jī)器全權(quán)負(fù)責(zé)的誘惑將變得難以阻擋。

資料圖:警員在反恐演練現(xiàn)場(chǎng)操縱機(jī)器人迅速處置突發(fā)情況。中新社記者 楊可佳 攝
文章稱,迅速到來(lái)的軍事機(jī)器人革命是空前的。這些技術(shù)帶來(lái)了倫理、法律、政策等問(wèn)題,可能構(gòu)成在某些人看來(lái)關(guān)乎生死存亡的一種危險(xiǎn)。
聯(lián)合國(guó)《特定常規(guī)武器公約》(CCW)相關(guān)會(huì)議已經(jīng)進(jìn)行了有關(guān)致命自動(dòng)武器的討論,該公約禁止或限制一些被認(rèn)為會(huì)引起不合理痛苦的武器。CCW去年11月一場(chǎng)會(huì)議召集了一批政府專(zhuān)家和阻止殺手機(jī)器人運(yùn)動(dòng)組織的非政府組織代表。阻止殺手機(jī)器人運(yùn)動(dòng)組織希望達(dá)成一項(xiàng)具有法律約束力的國(guó)際條約,禁止使用致命自動(dòng)武器,就像此前禁止集束彈藥、地雷和激光致盲武器一樣。
文章稱,棘手的是,自動(dòng)武器包括從能夠有選擇性地瞄準(zhǔn)的導(dǎo)彈到具有能夠決定打擊誰(shuí)、何時(shí)打擊以及如何打擊等認(rèn)知技能的學(xué)習(xí)型機(jī)器等一系列武器。大多數(shù)人認(rèn)為,當(dāng)使用致命武器時(shí),應(yīng)當(dāng)由人來(lái)負(fù)責(zé)啟動(dòng)。但要確定哪類(lèi)人工控制是適宜的則更為棘手,并且相關(guān)技術(shù)發(fā)展太快,導(dǎo)致國(guó)際外交無(wú)法跟上形勢(shì)。
文章稱,令情況更加復(fù)雜的是,人工智能和自動(dòng)機(jī)器最引人注目的進(jìn)展正由具有商業(yè)動(dòng)機(jī)的私企實(shí)現(xiàn)。即使能夠達(dá)成禁止軍用機(jī)器人的協(xié)議,催生自動(dòng)武器的技術(shù)也會(huì)很快普及并容易轉(zhuǎn)讓。
防務(wù)分析人士彼得·辛格指出,人工智能競(jìng)賽由不可阻擋的力量驅(qū)動(dòng):地緣競(jìng)爭(zhēng)、知識(shí)前沿領(lǐng)域的科學(xué)動(dòng)力以及追求利潤(rùn)的科技企業(yè)。因此,是否能抑制人工智能競(jìng)賽一些更令人不安的方面以及如何抑制成為問(wèn)題所在。簡(jiǎn)單來(lái)說(shuō),一個(gè)令大多數(shù)人驚恐的想法是讓能夠思考的機(jī)器自行選擇是否殺死人類(lèi)。而且,盡管有關(guān)機(jī)器人暴動(dòng)的終極噩夢(mèng)仍是科幻小說(shuō),但其他擔(dān)憂則具有現(xiàn)實(shí)性。
專(zhuān)家保羅·沙雷擔(dān)心自動(dòng)系統(tǒng)可能因代碼編寫(xiě)質(zhì)量不高或?qū)κ职l(fā)動(dòng)網(wǎng)絡(luò)攻擊而失靈。這可能致使機(jī)器人攻擊人類(lèi)部隊(duì),或?qū)е戮謩?shì)快速升級(jí),以至于人類(lèi)無(wú)法做出反應(yīng)。自動(dòng)武器的可靠性非常難以測(cè)試。會(huì)思考的機(jī)器可能以人類(lèi)操控者從未設(shè)想過(guò)的方式行事。
文章稱,美國(guó)前國(guó)防部副部長(zhǎng)詹姆斯·米勒說(shuō),如果自動(dòng)系統(tǒng)在競(jìng)爭(zhēng)激烈的地區(qū)執(zhí)行任務(wù),讓機(jī)器全權(quán)負(fù)責(zé)的誘惑將變得難以阻擋。


 
          




