您的位置: 首頁 >互聯(lián)網(wǎng) >

微軟聊天機(jī)器人Tay突顯出人工智能離真正的智能還有多遠(yuǎn)

2022-09-18 07:09:22 編輯:唐萍健 來源:
導(dǎo)讀 對微軟來說,這一直是公關(guān)周的噩夢。微軟Xbox部門的負(fù)責(zé)人菲爾?斯賓塞(Phil Spence r)不得不為在微軟(Micros of t)在游戲開發(fā)者大...

對微軟來說,這一直是公關(guān)周的噩夢。微軟Xbox部門的負(fù)責(zé)人菲爾?斯賓塞(Phil Spence r)不得不為在微軟(Micros of t)在游戲開發(fā)者大會(huì)(GDC)上舉辦的一場晚會(huì)上,穿著“學(xué)校女生”服裝的女舞蹈家道歉。他說,讓舞者參加這次活動(dòng)“絕對不符合或符合我們的價(jià)值觀。這顯然是錯(cuò)誤的,不會(huì)被容忍”

這件事是內(nèi)部處理的,所以我們不知道誰會(huì)負(fù)責(zé),為什么他們可能會(huì)認(rèn)為這是一個(gè)好主意。

但當(dāng)一個(gè)叫Tay的聊天機(jī)器人開始在推特上發(fā)表攻擊性評論,似乎支持納粹、反女權(quán)和種族主義觀點(diǎn)時(shí),微軟的情況會(huì)變得更糟。當(dāng)時(shí)的想法是,Tay背后的人工智能將在Twitter和其他社交媒體網(wǎng)絡(luò)上向他人學(xué)習(xí),并以平均19歲女性的身份出現(xiàn)。然而,發(fā)生的事情是,實(shí)驗(yàn)被一群來自臭名昭著的“pol”(政治上不正確的)公告欄的人劫持了,他們開始訓(xùn)練Tay說一些非常不恰當(dāng)?shù)脑挕?/p>

這一次是由微軟研究院的公司副總裁Peter Lee說的,他不得不說:“我們對來自Tay的無意冒犯和傷害性的推文深感遺憾,這些推文不代表我們是誰,也不代表我們的立場”。

泰被抓獲,推特被刪除,但在其中一些最具攻擊性的推特被抓獲并在互聯(lián)網(wǎng)上進(jìn)一步傳播之前沒有。

顯然,微軟的研究人員認(rèn)為,由于他們成功地開發(fā)了一個(gè)類似的人工智能聊天機(jī)器人,稱為XiaoIce,它一直在社交網(wǎng)絡(luò)微博上成功地在運(yùn)行,Tay在Twitter上與西方受眾的經(jīng)驗(yàn)將遵循同樣的道路。

在IBM的Watson電腦上工作的人工智能交互設(shè)計(jì)師Caroline Sinders寫了一個(gè)很好的解釋,說明Tay的開發(fā)人員應(yīng)該如何預(yù)測這一結(jié)果并加以保護(hù)。對機(jī)器人的測試還不夠,當(dāng)然,該技術(shù)的開發(fā)人員沒有社會(huì)學(xué)技能來了解互聯(lián)網(wǎng)上的社區(qū)范圍,以及一旦該技術(shù)被釋放到野外,他們會(huì)做些什么。

Tay的令人不安的結(jié)果是,微軟的Peter Lee認(rèn)為Tay“實(shí)驗(yàn)”的問題是一個(gè)技術(shù)問題,可以通過簡單的技術(shù)修復(fù)來解決。他完全忘記了這個(gè)問題是一個(gè)社會(huì)學(xué)和哲學(xué)的問題,除非從這個(gè)角度加以解決,否則總會(huì)導(dǎo)致技術(shù)聽起來表面上是人類的,但永遠(yuǎn)不會(huì)顯示出任何真正的智慧。

聊天機(jī)器人的設(shè)計(jì)是為了了解語言是如何構(gòu)建的,并利用這些知識來創(chuàng)建上下文正確和相關(guān)的單詞。他們不被教導(dǎo)去理解這些詞的實(shí)際含義,也不被教導(dǎo)去理解這些詞的社會(huì)、道德和倫理層面。泰不知道什么是女權(quán)主義者,當(dāng)它建議“他們都應(yīng)該死在地獄里燃燒”時(shí),它只是重復(fù)了一個(gè)詞的結(jié)構(gòu),它的輸入作為句子的一部分,它可以重新格式化,聽起來很有可能是有意義的。

我們從聽起來很聰明的東西到實(shí)際上很聰明的實(shí)體的飛躍,這證明了人性對人類技術(shù)的擬人化能力。最近谷歌的AI軟件AlphaGo就是如此,它在復(fù)雜的Go游戲中擊敗了一個(gè)世界級的人類玩家。關(guān)于這一點(diǎn)的評論表明,AlphaGo展示了許多人類智能特征,而不是它所做的,這是有效地搜索和計(jì)算獲勝策略,從它可以訪問的數(shù)百萬游戲。

即使是應(yīng)用于人工智能的“學(xué)習(xí)”一詞,也會(huì)導(dǎo)致許多人,包括人工智能本身的開發(fā)者錯(cuò)誤地認(rèn)為它相當(dāng)于人類所經(jīng)歷的學(xué)習(xí)過程。這反過來導(dǎo)致了像斯圖爾特·羅素(Stuart Russell)和彼得·諾維格(Peter Norvig)這樣的人工智能專家多年來警告說,“人工智能系統(tǒng)的學(xué)習(xí)功能可能導(dǎo)致它演變成一個(gè)有著意想不到行為的系統(tǒng)”的風(fēng)險(xiǎn)。

與Tay的實(shí)驗(yàn)突出了微軟開發(fā)人員的糟糕判斷,以及聊天機(jī)器人的局限性。在這種情況下,人類和軟件似乎都無法從這一不幸事件中吸取真正的教訓(xùn)。


免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點(diǎn)擊排行

2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。