2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號(hào):閩ICP備19027007號(hào)-6
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
研究人工智能對社會(huì)影響的跨學(xué)科研究中心AI Now Institute在其年度報(bào)告中呼吁禁止在某些情況下識(shí)別人們情緒的技術(shù)。研究人員特別指出,情感識(shí)別技術(shù)(affect recognition technology,也稱情感識(shí)別技術(shù))不應(yīng)該用于“影響人們生活和獲得機(jī)會(huì)”的決策,比如招聘決策或疼痛評估,因?yàn)樗粔驕?zhǔn)確,可能會(huì)導(dǎo)致有偏見的決策。
這是什么技術(shù),已經(jīng)在使用和銷售,為什么它引起關(guān)注?
面部識(shí)別的結(jié)果
至少十年來,研究人員一直在積極研究可以確定人類情感和意圖的計(jì)算機(jī)視覺算法,以及其他推論。面部表情分析至少從2003年就開始了。電腦理解情感的時(shí)間甚至更長。這項(xiàng)最新的技術(shù)依賴于被稱為“機(jī)器學(xué)習(xí)”的以數(shù)據(jù)為中心的技術(shù),這種算法通過處理數(shù)據(jù)來“學(xué)習(xí)”如何決策,從而實(shí)現(xiàn)更精確的影響識(shí)別。
解讀情感的挑戰(zhàn)
研究人員總是希望在前人的基礎(chǔ)上做新的事情。情感識(shí)別是誘人的,因?yàn)椋恢喂?,作為人類,我們甚至可以在很小的時(shí)候就相對較好地完成這一任務(wù),然而,利用計(jì)算機(jī)視覺來復(fù)制人類的技能仍然具有挑戰(zhàn)性。雖然可以用圖片做一些很了不起的事情,比如使風(fēng)格化照片讓它看起來就好像它是由一個(gè)著名的藝術(shù)家,甚至創(chuàng)建寫實(shí)的面孔——更不用說創(chuàng)建所謂的deepfakes——推斷的能力屬性等人類情感的真實(shí)形象一直感興趣的研究人員。
情緒是困難的,因?yàn)樗鼈兺Q于環(huán)境。例如,當(dāng)一個(gè)人專注于某件事的時(shí)候,他們可能看起來只是在思考。使用機(jī)器學(xué)習(xí)進(jìn)行面部識(shí)別已經(jīng)取得了很大的進(jìn)展,但是僅僅通過觀察一個(gè)人的面部來識(shí)別一個(gè)人的情緒狀態(tài)是缺少關(guān)鍵信息的。情緒不僅通過一個(gè)人的表情來表達(dá),還通過他們在哪里、在做什么來表達(dá)。即使是現(xiàn)代的機(jī)器學(xué)習(xí)算法也很難提供這些上下文線索。為了解決這一問題,人們正在積極努力增強(qiáng)人工智能技術(shù)來考慮情境,不僅是情感識(shí)別,而且是各種應(yīng)用。
閱讀員工情緒
人工智能發(fā)布的這份報(bào)告揭示了人工智能應(yīng)用于勞動(dòng)力的一些方式,以評估工人的生產(chǎn)力,甚至早在面試階段。分析面試視頻,尤其是遠(yuǎn)程求職者的面試,已經(jīng)開始了。如果管理者能從面試到評估中了解下屬的情緒,那么有關(guān)加薪、升職或任務(wù)等其他雇傭事宜的決策可能最終會(huì)受到這些信息的影響。但是還有很多其他的方法可以使用這項(xiàng)技術(shù)。
為什么擔(dān)心
這些類型的系統(tǒng)幾乎總是有公平、問責(zé)制、透明度和倫理(“命運(yùn)”)缺陷,這些缺陷融入了它們的模式匹配中。例如,一項(xiàng)研究發(fā)現(xiàn),面部識(shí)別算法認(rèn)為黑人的臉比白人的臉更憤怒,即使他們在微笑。
許多研究小組正在解決這個(gè)問題,但在這一點(diǎn)上似乎很清楚,這個(gè)問題不能只在技術(shù)層面上解決。有關(guān)人工智能命運(yùn)的問題將需要那些使用該技術(shù)的人持續(xù)和協(xié)調(diào)一致的努力,以意識(shí)到這些問題并解決它們。正如《人工智能報(bào)告》所強(qiáng)調(diào)的:“盡管人工智能倫理內(nèi)容有所增加……但倫理原則和聲明很少關(guān)注如何實(shí)施人工智能倫理,以及它們是否有效?!眻?bào)告指出,此類人工智能倫理聲明在很大程度上忽視了如何、在何處、以及由誰來實(shí)施這些準(zhǔn)則的問題。在現(xiàn)實(shí)中,很可能每個(gè)人都必須意識(shí)到這些系統(tǒng)存在的偏見和弱點(diǎn),就像我們必須意識(shí)到自己的偏見和他人的偏見一樣。
地毯式技術(shù)的問題被禁止
更準(zhǔn)確和更容易的持續(xù)監(jiān)控帶來了道德之外的其他問題。此外,還有大量與技術(shù)相關(guān)的隱私問題,從充當(dāng)警方信息源的攝像頭數(shù)量激增,到可能使敏感數(shù)據(jù)匿名化。
考慮到這些倫理和隱私問題,人們自然會(huì)呼吁禁止這些技術(shù)。當(dāng)然,如果人工智能系統(tǒng)存在學(xué)習(xí)偏見或不可靠,那么將其應(yīng)用于工作面試結(jié)果或刑事判決程序似乎是危險(xiǎn)的。然而,它也有一些有用的應(yīng)用,例如幫助識(shí)別警告信號(hào)以防止青少年自殺和檢測醉酒司機(jī)。這就是為什么即使是憂心忡忡的研究人員、監(jiān)管機(jī)構(gòu)和公民一般也不會(huì)呼吁全面禁止與人工智能相關(guān)的技術(shù)。
結(jié)合人工智能和人類的判斷
最終,技術(shù)設(shè)計(jì)師和整個(gè)社會(huì)都需要仔細(xì)研究來自人工智能系統(tǒng)的信息是如何被注入決策過程的。這些系統(tǒng)可以給出不正確的結(jié)果,就像任何其他形式的智能一樣。眾所周知,他們也不善于評估自己的信心,甚至在一些簡單的任務(wù)中,比如識(shí)別物體的能力,他們也不像人類。在解讀情緒方面也存在重大的技術(shù)挑戰(zhàn),尤其是考慮情境來推斷情緒。
如果人們依賴于一個(gè)決策不準(zhǔn)確的系統(tǒng),那么這個(gè)系統(tǒng)的用戶的情況就會(huì)更糟。眾所周知,人們往往比其他權(quán)威人士更信任這些系統(tǒng)。因此,作為一個(gè)社會(huì),我們需要在設(shè)計(jì)和應(yīng)用的過程中仔細(xì)考慮這些系統(tǒng)的公平性、可靠性、透明性和倫理性,始終讓人作為最終的決策者。
2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號(hào):閩ICP備19027007號(hào)-6
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。