Facebook關閉‘失控’人工智能系統(tǒng),因其發(fā)展出人類無法理解的語言。
嚇死了。
事情是這樣的:據(jù)“外媒報道”,F(xiàn)acebook開發(fā)的聊天機器人創(chuàng)造了自己的語言。雖然語言還是英語,但人類無法理解。

文章來源是TechWeb的編譯組?!癋acebook不得不拔掉其研究人員正在研究的人工智能系統(tǒng)的插頭,因為事情失控了”,TechWeb寫道。
關于“人工智能是否邪惡”的話題,F(xiàn)acebook創(chuàng)始人扎克伯格上周還在跟特斯拉CEO馬斯克爭吵。馬斯克站正方,認為人工智能非常值得擔憂,扎克伯格站反方,認為人工智能很有益處,擔憂完全是過慮。
所以……小扎就這么快打臉了?曾在著名科幻電影《終結(jié)者》中出現(xiàn)過的“SkyNet”(天網(wǎng)),真的來臨了?

抱歉,這完全是在胡扯。我們來看看到底是怎么一回事。
Facebook的人工智能研究院(FAIR)想要訓練一個聊天機器人,讓它學會談判。于是他們開發(fā)了一個人工智能系。為了幫助大家理解,我們一步一步解釋:
Facebook用了一個神經(jīng)網(wǎng)絡結(jié)構(gòu)來開發(fā)這個系統(tǒng)。這個結(jié)構(gòu)叫做“生成式對抗網(wǎng)絡”(Generative Adversarial Networks),以下簡稱GAN。
你可以把神經(jīng)網(wǎng)絡理解為一種多層次的、模仿人腦神經(jīng)元之間相互連接的思考方式的“電腦程序”。
而GAN是一種在目前非常先進的神經(jīng)網(wǎng)絡結(jié)構(gòu),可以理解為兩個神經(jīng)網(wǎng)絡玩《街霸》。玩的越多、時間越長,大家的水平都會越來越高。當然,GAN也有三個甚至更多個神經(jīng)網(wǎng)絡的結(jié)構(gòu)。
聊天機器人你肯定很見過:蘋果Siri就是一個。亞馬遜Alexa和Google Assitant也是。
Facebook的這項研究也是如此。研究人員訓練了這樣一個聊天機器人,讓它帶著“目的”和人類對話。而這個目的也很簡單:一共有兩本書,一頂帽子和三個籃球,三樣東西分別設定了不同的權(quán)重,為的是讓機器人明白它到底對這些東西有多想要,然后去和人談判。
Facebook觀察到的結(jié)果是比較正常的,體現(xiàn)在下圖中:

但是人跟機器人聊天已經(jīng)不稀奇了……倆機器人能聊成啥樣?研究人員都很感興趣。
今天的對話就發(fā)生在聊天機器人Alice和聊天機器人Bob之間:

什么鬼?
原來,研究人員在把這兩個聊天機器人拼到一起,但忘了給神經(jīng)網(wǎng)絡設定“用英語溝通”的激勵。
剛才說了,神經(jīng)網(wǎng)絡是個程序,里面有一大堆各種線性的數(shù)學公式。但有時候線性的公式無法取得想要的結(jié)果,有些非線性的需求沒法用線性公式表達出來,這時候就要設定一個激勵函數(shù)。激勵這件事對于神經(jīng)網(wǎng)絡,簡單來說就是告訴神經(jīng)網(wǎng)絡“這樣做得分更高”——傻子都能理解。
“堅持用英語說話沒有激勵,”這個研究小組的成員之一,佐治亞理工學院的訪問學者Dhruv Batra這樣解釋Alice和Bob奇怪的對話?!皺C器人會脫線發(fā)明一些它們之間才能理解的句法?!?/p>
結(jié)果,Alice和Bob就聊成了這樣。等于是研究人員告訴了它們:“請用英文”,但忘了告訴它們:“請用英文語法”。
研究人員真的是因為“事情失控了”,才“不得不拔掉系統(tǒng)的插頭”嗎?事情真的像聽上去那樣令人心驚膽顫嗎?
并非如此。
“我們的目標是讓機器人和人聊天(提高和人聊天的技巧)?!毙〗M的另一名研究員Mike Lewis指出,Alice和Bob的對話根本就是個試驗而已,讓兩個聊天機器人聊天根本沒有意義。

而且,Alice和Bob根本就沒有發(fā)明新的語言,因為他們還是在用“i”、“balls”、“the”等英文單詞溝通,只是創(chuàng)造了一種新的表達方式而已。
而且他們“發(fā)明”的新語言,人類真的聽不懂嗎?
再看一遍它們的對話:
Bob: I can i i everything else
Alice: balls have zero to me to me to me to me to me to me to me to me to
Bob: you i everything else
Alice: balls have a ball to me to me to me to me to me to me to me to me
如果你明白了前面描述的試驗目的,很容易就能明白它們的套路。句法的確是亂的,但一句話里tome重復的越多,這個東西對它的意義越大(權(quán)重越高)。
翻譯過來就是:
Bob:我可以我任何其他(其他任何東西都可以給你)
Alice:球有0對我對我對我對我對我對我對我對我(我沒有球,球?qū)ξ姨貏e特別特別特別特別特別特別特別重要)
Bob:你我任何其他(你可以拿走其他任何東西)
Alice:球有球?qū)ξ覍ξ覍ξ覍ξ覍ξ覍ξ覍ξ覍ξ遥ㄎ乙颍驅(qū)ξ姨貏e特別特別特別特別特別特別特別重要)
難理解嗎?
而且根本不是在談判,就是很普通的表達而已。不給就吵嘛……
Facebook并沒有“關掉”這個系統(tǒng),而是重新設定了正確的激勵,修正了機器人的行為,讓機器人用標準的英文語法來進行交流。修正的原因也不是因為害怕AI失控——他們的目標是讓機器人和人聊天(提高和人聊天的技巧)。兩個聊天機器人聊天根本沒有意義。
GAN這個東西,蘋果曾經(jīng)用它搭建了一個系統(tǒng),讓它自動合成足以以假亂真的圖片。但設計的目的并非欺騙人,而是為學界和業(yè)界的其他研究者帶來幫助。因為訓練神經(jīng)網(wǎng)絡需要大量的圖片,但世界上已有的、已標記的圖片數(shù)據(jù)庫也就那么多,蘋果的這項研究,能自動創(chuàng)建帶標記的、能被用來訓練的圖片,解了大家燃眉之急。

今年二月,我介紹過Google本部的人工智能團隊Google Brain做的另外一個實驗:同樣用GAN,他們訓練了三個機器人Alice、Bob和Eve,讓Alice和Bob倆人從零開始琢磨出一個加密方法,讓Eve來猜。這三個網(wǎng)絡的加密學知識都是0,但隨著訓練次數(shù)越來越多,Alice和Bob默契越來越好,Eve也破解不了。

——這才是發(fā)明了人類都不懂的語言。可也沒看見Google著急啊。
人工智能能夠幫助人類做很多事情。比如圖像識別技術(shù)就被投入到圖片搜索引擎中。當你在搜索引擎里搜索關鍵詞,選擇圖片,才能找到符合描述的照片。

再比如語音識別和自然語言理解技術(shù)。當你和Siri、Alexa說話的時候,它們才能比較準確地理解你的意圖。
從神經(jīng)網(wǎng)絡技術(shù)的發(fā)展程度來看,人工智能的確很厲害了。但我可以告訴你的是:圖像識別、語言理解準確度上能做到現(xiàn)在這么高,完全是因為人類編程調(diào)優(yōu)的結(jié)果。
它既不知道自己是誰,也不知道自己在哪兒,更不知道自己在干什么。
所以和人工智能相比,那些成天瞎吹人工智能威脅論的人才更可怕吧……