
這一次,Tay雖然表現(xiàn)得不像先前那樣囂張過分,但仍口無遮攔,甚至聲稱自己在警察面前“嗑藥”。關(guān)注Tay賬號的記者,也在她“出逃”期間不斷收到其重復(fù)發(fā)布的“無厘頭”推文。
很快,Tay又被關(guān)了“禁閉”,進(jìn)入“被保護(hù)”狀態(tài)。被迫下線前,Tay已向超過21萬粉絲發(fā)出超過9.5萬條推文。
理論上,與人類交流越多,具有極強(qiáng)學(xué)習(xí)能力的機(jī)器人就會變得越聰明,在與人類個體交流時也會越有針對性。而這也正是微軟設(shè)計Tay的初衷:通過每一次與人類的交流,讓機(jī)器學(xué)習(xí)“做人”,并幫助其創(chuàng)造者改進(jìn)人工智能領(lǐng)域的研究。
但顯然,Tay太容易“學(xué)壞”。由于不少人在互聯(lián)網(wǎng)世界中表現(xiàn)得不負(fù)責(zé)任,Tay會不可避免地接觸到大量“瘋狂語言”。而這類對話型人工智能技術(shù),正是以機(jī)器學(xué)習(xí)為基礎(chǔ)。因此即使微軟希望“用技術(shù)展現(xiàn)人性最好的一面,而非人性的陰暗面”,但Tay在學(xué)習(xí)過程中仍會提高這些語言的優(yōu)先級,并在對話中積極使用這些詞語。
事實上,Tay并非唯一被“玩壞”了的機(jī)器,微軟也不是唯一惹上類似麻煩的公司——基于人工智能圖像識別技術(shù)的谷歌照片應(yīng)用程序,就曾將一對黑人夫婦識別為大猩猩,這讓谷歌“震驚”?;ヂ?lián)網(wǎng)也不是唯一會讓機(jī)器“發(fā)瘋”的領(lǐng)域,Tay此次“出逃”前幾天,有黑客已證明物聯(lián)網(wǎng)也可以被“玩壞”。
理想與現(xiàn)實的差距,引發(fā)許多討論:人工智能研發(fā)公司是否應(yīng)在真實世界“任性”開展實驗?人工智能的研發(fā)是否應(yīng)從一開始就設(shè)置倫理邊界?
有一點可以肯定,讓機(jī)器在互聯(lián)網(wǎng)上學(xué)習(xí)“做人”,不加管制的“放養(yǎng)”不是好辦法。從這個角度說,在人類正全方位迎接人工智能的今天,Tay惹下的麻煩不啻為一記警鐘。(記者郭爽,編輯欒海,新華國際客戶端報道)
來源:中新網(wǎng)
原文標(biāo)題:微軟聊天機(jī)器人被教壞 變身滿嘴臟話“不良少女”
原文網(wǎng)址:http://www.chinanews.com/it/2016/04-04/7822214.shtml





















 





