您的位置: 首頁 >互聯(lián)網(wǎng) >

Instagram的內(nèi)容審核算法標記和禁用黑人用戶的可能性比白人用戶高50%

2020-07-28 08:35:03 編輯: 來源:國際品牌資訊

讀到:“雖然大型神經(jīng)語言模型很可能最終成為人類對自然語言理解的最終全面解決方案的重要組成部分,但它們幾乎不是解決這一巨大挑戰(zhàn)的解決方案。”

Bender尚未親自測試過GPT-3,但她說,從她看來,這是令人印象深刻的,但其架構與GPT-2大致相同。主要區(qū)別在于它的規(guī)模。

她說:“它既閃閃發(fā)亮,又大又浮華,無論從整體上還是在帶來的風險上,都沒有什么不同。”“我認為所謂的人工智能方法存在一個基本問題,該方法所依賴的數(shù)據(jù)集大于人類實際可以手動驗證的數(shù)據(jù)集。”

在一些由早期訪問用戶產(chǎn)生的OpenAI免費宣傳中,有一些例子表明了其可預測的偏見。Facebook AI負責人Jerome Pesenti發(fā)現(xiàn)了AI產(chǎn)生的一系列負面言論,這些負面言論旨在產(chǎn)生針對黑人,猶太人和女性的人性化推文。當然,這不足為奇。5月下旬發(fā)表的論文中進行的測試發(fā)現(xiàn),GPT-3表現(xiàn)出性別偏見,最有可能給亞洲人帶來較高的情感分析,而給黑人帶來較低的情感分析得分,尤其是在較小版本的模型中。OpenAI分析還顯示了特定任務的缺點,例如上下文中的詞分析(WiC)和RACE,這是一組中學和高中的考試題。

今年早些時候的測試發(fā)現(xiàn),許多受大型數(shù)據(jù)語料庫訓練的流行語言模型,例如Google的BERT和GPT-2,都表現(xiàn)出幾種形式的偏見。華盛頓大學(University of Washington)教授自然語言處理(NLP)倫理課程的本德爾(Bender)說,沒有諸如無偏見的數(shù)據(jù)集或無偏見模型之類的東西,即使精心創(chuàng)建的語言數(shù)據(jù)集也可能帶有更微妙的偏見形式。但是她堅持認為一些最佳實踐可以減少大數(shù)據(jù)集中的偏差。

一位發(fā)言人說,OpenAI正在實施Beta測試作為一種保障措施,這可能有助于發(fā)現(xiàn)問題,并補充說該公司正在對GPT-3使用毒性過濾器。發(fā)言人拒絕透露有關過濾器可能完成的工作的更多信息,但表示將在未來幾周內(nèi)分享更多細節(jié)。

可以理解的是,GPT-3在某些人中引起了驚奇,因為它似乎更接近于通用模型的思想,該模型只需少量訓練數(shù)據(jù)樣本就幾乎可以完成任何事情。OpenAI首席執(zhí)行官山姆·奧特曼(Sam Altman)發(fā)推文說,他向GPT-3展示了一個10歲的男孩,他在幾秒鐘內(nèi)說他想進入AI領域。

但奧特曼(Altman)在周日的一條推文中也表示:“ GPT-3的宣傳太多了。令人印象深刻(感謝您的贊美!),但仍然存在嚴重的弱點,有時還會犯非常愚蠢的錯誤。人工智能將改變世界,但是GPT-3只是很早的一瞥。我們還有很多事情要解決。”

OpenAI論文說,表征模型某些屬性的方法是受到Google AI倫理研究人員創(chuàng)建的用于模型報告方法的模型卡的啟發(fā)。

除了需要采用數(shù)據(jù)表或數(shù)據(jù)語句來更好地理解數(shù)據(jù)


免責聲明:本文由用戶上傳,如有侵權請聯(lián)系刪除!

精彩推薦

圖文推薦

點擊排行

2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權歸原作者所有。