您的位置: 首頁(yè) >科技 >

在企業(yè)中促進(jìn)道德AI的6個(gè)技巧

2022-08-25 11:21:31 編輯:扶珠朗 來(lái)源:
導(dǎo)讀 隨著企業(yè)探索利用機(jī)器學(xué)習(xí)(ML)和其他AI工具挖掘客戶見解,識(shí)別人才并保護(hù)公司網(wǎng)絡(luò)安全的方式,人工智能(AI)可能是數(shù)字時(shí)代最具破壞力的技術(shù)...

隨著企業(yè)探索利用機(jī)器學(xué)習(xí)(ML)和其他AI工具挖掘客戶見解,識(shí)別人才并保護(hù)公司網(wǎng)絡(luò)安全的方式,人工智能(AI)可能是數(shù)字時(shí)代最具破壞力的技術(shù)。盡管IT部門可以迅速推出并從大多數(shù)技術(shù)中受益,但有證據(jù)表明CIO在實(shí)施AI時(shí)應(yīng)格外謹(jǐn)慎,包括采用具有強(qiáng)烈道德考量的技術(shù)。

原因?人工智能遭受了很大的偏差問(wèn)題。在一個(gè)示例中,Amazon在未能公平評(píng)價(jià)女性在軟件開發(fā)人員職位和其他技術(shù)職位上的工作后,就取消了招聘工具。在另一個(gè)例子中,麻省理工學(xué)院和多倫多大學(xué)的研究人員發(fā)現(xiàn),該公司的面部識(shí)別軟件將女性(尤其是皮膚黝黑的女性)誤認(rèn)為男性。

并非只有Amazon,因?yàn)槠渌竞推渌唢L(fēng)險(xiǎn)領(lǐng)域都出現(xiàn)了AI問(wèn)題。在測(cè)試公司的Portal視頻聊天設(shè)備時(shí),F(xiàn)acebook程序經(jīng)理遇到了算法歧視。ProPublica顯示,在使用的用于預(yù)測(cè)未來(lái)罪犯的軟件偏向于非裔人。加州大學(xué)伯克利分校(UC Berkeley)對(duì)金融科技公司的一項(xiàng)研究發(fā)現(xiàn),按揭貸款的面對(duì)面決策和算法都向拉丁裔/非裔人借款人收取更高的利率。

同樣令人關(guān)注的是利潤(rùn)率周圍的歧視,這種偏見在其微妙之處是隱蔽的。在“ 代理人歧視 ”中,郵政編碼可以充當(dāng)種族的代理;選擇單詞可以代表性別;并加入有關(guān)基因突變的Facebook小組可能會(huì)使一個(gè)人處于醫(yī)療保險(xiǎn)的高風(fēng)險(xiǎn)類別,即使該信號(hào)尚未明確編碼到算法中。

顯然,人工智能遭受數(shù)字化版本的偏見折磨著現(xiàn)實(shí)世界。紐約大學(xué)AI Now研究所的聯(lián)合創(chuàng)始人 凱特·克勞福德(Kate Crawford)說(shuō),歸根結(jié)底,算法是一種“人類設(shè)計(jì)的創(chuàng)造”,它繼承了我們的偏見。根據(jù)IEEE Spectrum的說(shuō)法,這種偏差跨越了數(shù)十年。

因此,IT領(lǐng)導(dǎo)者越來(lái)越關(guān)注產(chǎn)生“可解釋的” AI。他們渴望算法的結(jié)果可以清楚地表達(dá)出來(lái),理想地滿足監(jiān)管者和業(yè)務(wù)主管的要求。但是鑒于固有的偏見,也許他們真正需要的是“ 道德的AI ”,或者以完全包容的公平性運(yùn)作的算法。


免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點(diǎn)擊排行

2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082   備案號(hào):閩ICP備19027007號(hào)-6

本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。