人工智能很牛嗎? 牛,但也有可能犯大錯(cuò)
人工智能火了!人工智能牛了!很大程度歸功于近年來一只不斷進(jìn)化的“狗”——阿爾法狗(AlphaGo)。
中科院院士張鈸簡單分析了人工智能發(fā)展的兩條路徑:一是符號主義,即從信息處理的宏觀層面去模擬智能;二是連接主義,即從網(wǎng)絡(luò)介觀層面去模擬人類行為。當(dāng)人工智能的開拓者提出上述方向時(shí),不少人認(rèn)為不可能,但事實(shí)證明這兩條路都行得通。
“人工智能第一次震撼,是IBM的‘深藍(lán)’程序打贏國際象棋冠軍,這是用計(jì)算機(jī)模擬人類下象棋的理性思考過程,證明了符號主義這一條路走得通。”張鈸說。
人工智能第二次對人類的“暴擊”,是基于神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí),AlphaGo拋棄了傳統(tǒng)圍棋程序的編程方法,創(chuàng)造性地利用機(jī)器學(xué)習(xí),來獲取下棋的經(jīng)驗(yàn)與直覺,結(jié)果戰(zhàn)勝世界圍棋冠軍。“更值得注意的是AlphaGo Zero從零開始,通過36小時(shí)自我學(xué)習(xí),超越人類3000年的圍棋經(jīng)驗(yàn),以100比0擊敗了上一版本的AlphaGo。這證明第二條路也走得通。”張鈸說。
“這讓人歡欣鼓舞,也令人擔(dān)憂。”張鈸的“憂”,指的是基于深度學(xué)習(xí)的人工智能系統(tǒng)存在的根本性缺陷——不可解釋和不可理解,就事論事,缺乏推廣能力,遇到新的情況一籌莫展等。因此當(dāng)面對動態(tài)變化的環(huán)境,信息不完全、存在干擾與虛假信息時(shí),人工智能系統(tǒng)性能就會顯著下降。
“當(dāng)前的人工智能與人類智能本質(zhì)上是不同的。”張鈸說,與人類相比,人工智能系統(tǒng)抗干擾能力(魯棒性)差,推廣能力弱,甚至可能犯大錯(cuò)。“基于深度學(xué)習(xí)的模式識別系統(tǒng)盡管可以準(zhǔn)確地區(qū)分不同事物,但本質(zhì)上不認(rèn)識它們。與人類不一樣,它不會舉一反三,更不會‘知其所以然’。使用這樣的人工智能系統(tǒng)需要十分小心。”
“現(xiàn)在大家對人工智能有無限期待。圍棋有規(guī)則,現(xiàn)實(shí)生活中沒有規(guī)則。人工智能產(chǎn)品完成單項(xiàng)任務(wù)很牛,但遇到復(fù)雜情況,實(shí)際沒那么厲害。”海爾公司CTO趙峰認(rèn)為。
人工智能可怕嗎? 遠(yuǎn)慮尚“遠(yuǎn)”,近憂在即
人工智能會威脅人類嗎?馬斯克、霍金、扎克伯格……科技和產(chǎn)業(yè)界的大腕對此的爭論和互懟一直沒有停歇。
參加香山科學(xué)會議的科學(xué)家認(rèn)為,人工智能威脅論擁躉者所指的“強(qiáng)人工智能”到來還比較遠(yuǎn),現(xiàn)在發(fā)展的多是擅長完成單項(xiàng)任務(wù)的“弱人工智能”。“人工智能還在生長發(fā)展過程中,是否造成威脅估計(jì)是下一代科學(xué)家面臨的問題,我們現(xiàn)在的任務(wù)是把它‘養(yǎng)大’。”不過,中科院院士何積豐也坦承,現(xiàn)在人工智能也有“內(nèi)憂外患”,如無人機(jī)黑飛亂飛管理亂象,恐怖主義黑客攻擊等。
“世界上沒有免費(fèi)的午餐,機(jī)器通過‘黑箱’學(xué)習(xí)(深度學(xué)習(xí))方法取得的智能,由于與人類認(rèn)知行為存在根本差異,因此也將帶來潛在的風(fēng)險(xiǎn)。”張鈸說,人工智能全面超越人類智能并出現(xiàn)自我意識,是危險(xiǎn)的,不過這是遠(yuǎn)慮;但其不可解釋性會帶來“近憂”,如將深度學(xué)習(xí)應(yīng)用于軍事決策,萬一系統(tǒng)出現(xiàn)原則性決策失誤怎么辦?
人類準(zhǔn)備好了嗎? 遠(yuǎn)遠(yuǎn)沒有,急需跟進(jìn)
“人類現(xiàn)有的概念框架及知識儲備難以應(yīng)對人工智能帶來的影響,也使我們不得不面對‘制度性風(fēng)險(xiǎn)’。”李真真說,人工智能技術(shù)的社會應(yīng)用迅速改變了人類的生存環(huán)境,重塑人的行為,也不斷挑戰(zhàn)諸如隱私、責(zé)任等概念內(nèi)涵及其既有策略。
李真真以“隱私”舉例說,傳統(tǒng)法律上,隱私是一種權(quán)利的概念,但現(xiàn)在它還可以是一種商品,即我們讓出一部分個(gè)人的隱私或信息以換取服務(wù)和產(chǎn)品,這就需要法律的及時(shí)跟進(jìn)。再有,匿名化技術(shù)的發(fā)展為隱私保護(hù)提供了新的工具,但如果對于匿名化數(shù)據(jù)的法律概念和認(rèn)定標(biāo)準(zhǔn)上沒有明確規(guī)定,很可能會導(dǎo)致數(shù)據(jù)的濫用。同時(shí),隱私保護(hù)與國家安全、商業(yè)利益如何平衡,也是問題。再比如“責(zé)任”,比較典型的就是自動駕駛系統(tǒng)的責(zé)任認(rèn)定。“還有人工智能的預(yù)測或決策,如預(yù)測犯罪,這將使我們面對一個(gè)更為復(fù)雜的法律問題。”
“法律具有滯后性,這就要求我們不斷地根據(jù)出現(xiàn)的新情況和新的社會難題,對人工智能帶來的影響進(jìn)行倫理評估,以保障相關(guān)法律和政策的及時(shí)跟進(jìn)。”李真真說。


 
          

