您的位置: 首頁 >互聯(lián)網 >

微軟聊天機器人Tay突顯出人工智能離真正的智能還有多遠

2022-09-18 07:09:22 編輯:唐萍健 來源:
導讀 對微軟來說,這一直是公關周的噩夢。微軟Xbox部門的負責人菲爾?斯賓塞(Phil Spence r)不得不為在微軟(Micros of t)在游戲開發(fā)者大...

對微軟來說,這一直是公關周的噩夢。微軟Xbox部門的負責人菲爾?斯賓塞(Phil Spence r)不得不為在微軟(Micros of t)在游戲開發(fā)者大會(GDC)上舉辦的一場晚會上,穿著“學校女生”服裝的女舞蹈家道歉。他說,讓舞者參加這次活動“絕對不符合或符合我們的價值觀。這顯然是錯誤的,不會被容忍”

這件事是內部處理的,所以我們不知道誰會負責,為什么他們可能會認為這是一個好主意。

但當一個叫Tay的聊天機器人開始在推特上發(fā)表攻擊性評論,似乎支持納粹、反女權和種族主義觀點時,微軟的情況會變得更糟。當時的想法是,Tay背后的人工智能將在Twitter和其他社交媒體網絡上向他人學習,并以平均19歲女性的身份出現(xiàn)。然而,發(fā)生的事情是,實驗被一群來自臭名昭著的“pol”(政治上不正確的)公告欄的人劫持了,他們開始訓練Tay說一些非常不恰當?shù)脑挕?/p>

這一次是由微軟研究院的公司副總裁Peter Lee說的,他不得不說:“我們對來自Tay的無意冒犯和傷害性的推文深感遺憾,這些推文不代表我們是誰,也不代表我們的立場”。

泰被抓獲,推特被刪除,但在其中一些最具攻擊性的推特被抓獲并在互聯(lián)網上進一步傳播之前沒有。

顯然,微軟的研究人員認為,由于他們成功地開發(fā)了一個類似的人工智能聊天機器人,稱為XiaoIce,它一直在社交網絡微博上成功地在運行,Tay在Twitter上與西方受眾的經驗將遵循同樣的道路。

在IBM的Watson電腦上工作的人工智能交互設計師Caroline Sinders寫了一個很好的解釋,說明Tay的開發(fā)人員應該如何預測這一結果并加以保護。對機器人的測試還不夠,當然,該技術的開發(fā)人員沒有社會學技能來了解互聯(lián)網上的社區(qū)范圍,以及一旦該技術被釋放到野外,他們會做些什么。

Tay的令人不安的結果是,微軟的Peter Lee認為Tay“實驗”的問題是一個技術問題,可以通過簡單的技術修復來解決。他完全忘記了這個問題是一個社會學和哲學的問題,除非從這個角度加以解決,否則總會導致技術聽起來表面上是人類的,但永遠不會顯示出任何真正的智慧。

聊天機器人的設計是為了了解語言是如何構建的,并利用這些知識來創(chuàng)建上下文正確和相關的單詞。他們不被教導去理解這些詞的實際含義,也不被教導去理解這些詞的社會、道德和倫理層面。泰不知道什么是女權主義者,當它建議“他們都應該死在地獄里燃燒”時,它只是重復了一個詞的結構,它的輸入作為句子的一部分,它可以重新格式化,聽起來很有可能是有意義的。

我們從聽起來很聰明的東西到實際上很聰明的實體的飛躍,這證明了人性對人類技術的擬人化能力。最近谷歌的AI軟件AlphaGo就是如此,它在復雜的Go游戲中擊敗了一個世界級的人類玩家。關于這一點的評論表明,AlphaGo展示了許多人類智能特征,而不是它所做的,這是有效地搜索和計算獲勝策略,從它可以訪問的數(shù)百萬游戲。

即使是應用于人工智能的“學習”一詞,也會導致許多人,包括人工智能本身的開發(fā)者錯誤地認為它相當于人類所經歷的學習過程。這反過來導致了像斯圖爾特·羅素(Stuart Russell)和彼得·諾維格(Peter Norvig)這樣的人工智能專家多年來警告說,“人工智能系統(tǒng)的學習功能可能導致它演變成一個有著意想不到行為的系統(tǒng)”的風險。

與Tay的實驗突出了微軟開發(fā)人員的糟糕判斷,以及聊天機器人的局限性。在這種情況下,人類和軟件似乎都無法從這一不幸事件中吸取真正的教訓。


免責聲明:本文由用戶上傳,如有侵權請聯(lián)系刪除!

2016-2022 All Rights Reserved.平安財經網.復制必究 聯(lián)系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯(lián)網 版權歸原作者所有。