on.cc東網專訊
社交網絡龍頭Facebook開發人工智能的聊天機械人(chatbot),並教導它們如何談判,惟上月一次實驗中,赫然發現機械人之間竟自行發展出「人類無法理解」的語言來溝通。團隊事後煞停有關研究,有人猜測是否擔心演變成電影《智能叛變》般的可怕劇情。
Fb人工智能研究實驗室(FAIR)讓兩個分別名叫Alice及Bob的聊天機械人,運用英語學習「策略對話」,以發展談判技巧。期間研究人員發現,聊天機械人竟自行發展出一套不符合英語文法規則的語言來對話,而且能互相理解。
FAIR人員其後決定叫停有關研究,外界猜測團隊是否擔心AI機械人會如《智能叛變》的情節般作反。FAIR則解釋,他們研究聊天機械人,是希望它們能與人類溝通,但現在Alice及Bob發展出只有它們之間明白的語言,並非研究目的,故才叫停。
on.cc東網專訊
最近引起全球轟動的AI(人工智能)失控事件,話說社交網站Facebook旗下的AI開發團隊竟然自行以人類不懂的機械人語言溝通。
對於這次所謂智能叛變,Facebook人工智能團隊認為一些媒體的報道有失事實,造成不良影響。團隊指,事件起源於Facebook上個月發表的一篇論文。論文中闡述了一個Facebook例行的科學研究項目,展示了2個人工智能機械人如何在看過人類的談判後,開始互相之間展開對話交流,並通過試驗逐漸提升談判的能力。
具體而言,Facebook人工智能研究院的科學家利用神經網絡結構開發了一個人工智能係統。這個結構叫做「生成式對抗網絡」(Generative
Adversarial
Networks,GAN)。所謂「生成式對抗網絡」,就好比人類的對抗遊戲,你的帳戶能在不斷的對抗中提升技能,玩得愈多,水平就會愈高。
Facebook的研究人員希望訓練這樣一個聊天機械人,讓它帶着目的和人類對話。這個目的也很簡單:一共有2本書、1頂帽子和3個籃球,3樣東西分別設定了不同的權重,為的是讓機械人明白它到底有哪些需求,然後去和人談判。
Facebook的研究員對2個機械人聊天能聊成甚麼樣產生了興趣。在研究過程中,系統中的2個聊天機械人Alice和Bob產生了讓人看不懂的對話。這段對話乍看像是一堆無法解讀的亂碼,研究人員後來發現,原來是在為系統設置激勵條件時,雖然告訴了它們「請用英文」,但忘了告訴它們:「請用英文語法」。
對此,科技界人士表示:「Facebook不太高明的工程師寫了個不太高明的算法,裏面忘記設置要用英語語法交流,結果2台機械自己不管語法,搞了一點以為是機械人的語言出來。就像我們小時候玩的紅白機boss會做一些詭異的攻擊動作一樣。」他補充道,人工智能可能還很傻,千萬別高估了它。
Facebook研究人員對此則表示:「人工智能機械人確實沒有使用標準正確的英語語法進行對話,但這並不是重點。這項研究原本是為了使得機械人之間能夠更加有效地進行談判,我們的目的達到了,完成了任務。」
為此,Facebook重新設定了正確的激勵機制,修正了機械人的行為,讓機械人說人話。這段表態中值得注意有兩點,其一,機械人並沒有發明自己的語言,只是創造了新的表達方式,其二,Facebook修正機械人行為,並不代表關掉這個系統,原因也不是因為害怕系統失控,而是為了更加有效地進行新的實驗。
沒有留言:
張貼留言