您的位置: 首頁 >科技 >

在企業(yè)中促進道德AI的6個技巧

2022-08-25 11:21:31 編輯:扶珠朗 來源:
導讀 隨著企業(yè)探索利用機器學習(ML)和其他AI工具挖掘客戶見解,識別人才并保護公司網(wǎng)絡(luò)安全的方式,人工智能(AI)可能是數(shù)字時代最具破壞力的技術(shù)...

隨著企業(yè)探索利用機器學習(ML)和其他AI工具挖掘客戶見解,識別人才并保護公司網(wǎng)絡(luò)安全的方式,人工智能(AI)可能是數(shù)字時代最具破壞力的技術(shù)。盡管IT部門可以迅速推出并從大多數(shù)技術(shù)中受益,但有證據(jù)表明CIO在實施AI時應(yīng)格外謹慎,包括采用具有強烈道德考量的技術(shù)。

原因?人工智能遭受了很大的偏差問題。在一個示例中,Amazon在未能公平評價女性在軟件開發(fā)人員職位和其他技術(shù)職位上的工作后,就取消了招聘工具。在另一個例子中,麻省理工學院和多倫多大學的研究人員發(fā)現(xiàn),該公司的面部識別軟件將女性(尤其是皮膚黝黑的女性)誤認為男性。

并非只有Amazon,因為其他公司和其他高風險領(lǐng)域都出現(xiàn)了AI問題。在測試公司的Portal視頻聊天設(shè)備時,F(xiàn)acebook程序經(jīng)理遇到了算法歧視。ProPublica顯示,在使用的用于預(yù)測未來罪犯的軟件偏向于非裔人。加州大學伯克利分校(UC Berkeley)對金融科技公司的一項研究發(fā)現(xiàn),按揭貸款的面對面決策和算法都向拉丁裔/非裔人借款人收取更高的利率。

同樣令人關(guān)注的是利潤率周圍的歧視,這種偏見在其微妙之處是隱蔽的。在“ 代理人歧視 ”中,郵政編碼可以充當種族的代理;選擇單詞可以代表性別;并加入有關(guān)基因突變的Facebook小組可能會使一個人處于醫(yī)療保險的高風險類別,即使該信號尚未明確編碼到算法中。

顯然,人工智能遭受數(shù)字化版本的偏見折磨著現(xiàn)實世界。紐約大學AI Now研究所的聯(lián)合創(chuàng)始人 凱特·克勞福德(Kate Crawford)說,歸根結(jié)底,算法是一種“人類設(shè)計的創(chuàng)造”,它繼承了我們的偏見。根據(jù)IEEE Spectrum的說法,這種偏差跨越了數(shù)十年。

因此,IT領(lǐng)導者越來越關(guān)注產(chǎn)生“可解釋的” AI。他們渴望算法的結(jié)果可以清楚地表達出來,理想地滿足監(jiān)管者和業(yè)務(wù)主管的要求。但是鑒于固有的偏見,也許他們真正需要的是“ 道德的AI ”,或者以完全包容的公平性運作的算法。


免責聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

精彩推薦

圖文推薦

點擊排行

2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。