您的位置: 首頁 >科技 >

如何利用人工智能消除商業(yè)中的偏見

2022-06-14 06:41:10 編輯:萬竹雄 來源:
導(dǎo)讀 CNET和CBS新聞高級制片人丹·帕特森(Dan Patterson)與Salesforce的道德人工智能實(shí)踐建筑師凱西·巴克斯特(Kathy Baxter)就企業(yè)如何使用

CNET和CBS新聞高級制片人丹·帕特森(Dan Patterson)與Salesforce的道德人工智能實(shí)踐建筑師凱西·巴克斯特(Kathy Baxter)就企業(yè)如何使用人工智能(AI)來識別偏見和更好地理解自己的過程進(jìn)行了交談。 以下是經(jīng)過編輯的采訪記錄。

凱西·巴克斯特:我預(yù)見到的一些事情是,企業(yè)能夠使用人工智能來識別他們的過程中的偏見。 所以再說一遍,如果他們看看他們的訓(xùn)練數(shù)據(jù),他們就可以看到一個模式。 例如,非裔人比高加索人更容易被拒絕貸款。 在你開始編輯培訓(xùn)數(shù)據(jù)之前,編輯你的模型,試圖消除這種不平衡、缺乏公平性的情況,先退一步,看看業(yè)務(wù)流程。 為什么會這樣? 這可能是孤立的特定地區(qū),或辦公室,或一套銷售或貸款經(jīng)理? 你怎么能修好它?

SEE:管理AI和ML的企業(yè)2019年:技術(shù)領(lǐng)導(dǎo)者期望比以前的IT項(xiàng)目更困難(技術(shù)專業(yè)研究)

我預(yù)見的一件事是,企業(yè)使用人工智能來真正更好地理解自己的業(yè)務(wù)流程,并與他們做出更公平和公正的決定。 它也可以用來真正解決我們社會中的不平等。 我們知道它們存在。 在政府政策中,如果政府使用人工智能系統(tǒng),他們往往有很多關(guān)于使用這些服務(wù)最多的人的數(shù)據(jù),這就是少數(shù)群體和窮人。 你掌握的關(guān)于一個群體的數(shù)據(jù)越多,你掌握的關(guān)于另一個群體(我們社會中最富裕的群體)的數(shù)據(jù)越少,就不太可能與這些政府服務(wù)部門互動,你就會出現(xiàn)不平衡,你就會做出不公平的決定。

那么,當(dāng)我們與人打交道時,我們?nèi)绾慰创覀兊恼咦鳛橐粋€整體? 我們?nèi)绾卧u估是什么使他們最有可能重犯? 不太可能被批準(zhǔn)保釋或假釋? 有些歷史因素不公平地影響了這些決定。 同樣,它不能只是修復(fù)數(shù)據(jù),修復(fù)模型,它需要修復(fù)我們的過程。

很多時間都在談?wù)撈纥c(diǎn),AI會來殺我們。 這確實(shí)分散了我們今天需要談?wù)摰膬?nèi)容,這是缺乏公平。 我們在創(chuàng)造這些系統(tǒng)的人中沒有足夠的多樣性。 我們對如何衡量人工智能及其決定對社會的影響沒有足夠的了解。

我們?nèi)绾卧u估和知道,我們今天比昨天做得好嗎? 很難測量一個負(fù)數(shù)。 你怎么知道,如果因?yàn)檫@些道德行為,你已經(jīng)到位,你避免了一些傷害? 這些問題很難解決,但它們是我們今天必須處理的問題。 擔(dān)心奇點(diǎn),機(jī)器人來殺我們,確實(shí)分散了我們應(yīng)該進(jìn)行的對話。

了解智能城市、人工智能、物聯(lián)網(wǎng)、VR、AR、機(jī)器人、無人機(jī)、自主駕駛等更多最黑科技創(chuàng)新。


免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

精彩推薦

圖文推薦

點(diǎn)擊排行

2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。