您的位置: 首頁 >科技 >

如何避免AI實施中的偏見 你知道嗎

2022-06-30 22:18:50 編輯:柳艷良 來源:
導讀 在大多數圈子中,偏見一詞具有明顯的負面含義。關于媒體,這意味著新聞傾向于某種方式。在科學中,這意味著先入為主的觀念導致了不準確的

在大多數圈子中,“偏見”一詞具有明顯的負面含義。關于媒體,這意味著新聞傾向于某種方式。在科學中,這意味著先入為主的觀念導致了不準確的結論。當談到人工智能時,對軟件進行編程的人的偏見 - 以及從中學習的數據 - 會導致不滿意的結果。

任何偏見都是在收集,分析或解釋數據時與現實的偏差。無論是否有意,大多數人對他們如何看待世界有一些偏見,這會影響他們對數據的解釋。由于技術在從就業(yè)到刑事司法的各個方面發(fā)揮著越來越重要的作用,因此有偏見的人工智能系統(tǒng)可以產生重大影

在人類可以信任機器來學習和解釋它們周圍的世界之前,我們必須消除AI系統(tǒng)從中學習的數據中的偏見。以下是在實施自己的AI解決方案時如何避免這種偏見。

1.從一個高度多元化的團隊開始。

任何AI系統(tǒng)的深度學習模型都將受到其背后團隊的集體經驗的限制。如果該團隊是孤立的,系統(tǒng)將根據高度不準確的模型做出判斷和預測。對于Adam Kalai來說,他是“男人是計算機程序員,女人是家庭主婦”的合著者。消除詞語嵌入,“ 消除AI中的偏見就像撫養(yǎng)孩子一樣。無論好壞,嬰兒 - 或人工智能系統(tǒng) - 都會想到你如何教它思考。它還需要一個村莊。因此,組建一個高度多樣化的團隊來領導您的AI工作。您將更有可能更早,更準確地識別細微差別。

為了減少組建團隊時的招聘偏差,請檢查招聘廣告的語言并刪除有偏見的措辭。例如,“忍者”這個詞似乎可以讓你的工作更具吸引力。然而,它可以阻止女性申請,因為 社會認為這個詞是男性化的。另一種策略是減少工作要求的數量,將其列為首選資格。這同樣會鼓勵更多的女性候選人申請 - 不是因為他們沒有這樣的證書,而是因為除非他們擁有所有這些證書,否則他們往往不會申請。最后,創(chuàng)建標準面試問題和面試后情況匯報流程,以確保貴公司的所有面試官在評估求職者時都在同一框架內工作。

2.讓您的多元化團隊教您的聊天機器人。

與人類一樣,當機器人擁有更多數據和經驗時,他們會做出更明智的選擇。“為聊天機器人收集足夠的數據以做出正確的決定。自動化代理商應該不斷學習和適應,但只有在獲得正確數據的情況下才能做到這一點,“ Linc Global首席執(zhí)行官兼聯合創(chuàng)始人方誠說。聊天機器人通過研究以前的對話來學習,因此您的團隊應該提供您的機器人數據,教導它以您希望的方式做出響應。例如,瑞典SEB 甚至教會其虛擬助手Aida檢測呼叫者語音中的沮喪語氣,此時機器人知道將呼叫者傳遞給人類代表。

為了完成類似的事情而不會成為偏見的犧牲品,您可能需要創(chuàng)建數據集,為您的機器人提供來自多個人口統(tǒng)計數據的示例。制定流程來檢測問題。無論您是使用自動化平臺還是手動查看客戶對話,都可以在客戶聊天中搜索模式。在打電話詢問特定問題時,客戶是否選擇了人類代表或更加沮喪?某些客戶角色會更頻繁地被挫敗嗎?您的聊天機器人可能會錯誤處理或誤解某種類型的客戶問題 - 或某種類型客戶的疑慮。一旦您在沮喪的客戶查詢中識別出共同的線索,您就可以為您的AI提供正確的課程所需的信息。

3.向世界展示你的AI如何思考。

在建立人們可以信任的人工智能系統(tǒng)時,透明度可能與多樣性同樣重要。目前沒有關于受AI算法決策制約的消費者權利的法律。至少公司可以做的是與消費者完全透明為什么做出決定。盡管存在共同的行業(yè)擔憂,但這并不意味著披露人工智能背后的代碼。

只需提供系統(tǒng)用于做出決策的標準。例如,如果系統(tǒng)拒絕信用申請,請說明拒絕哪些因素以及消費者可以采取哪些措施來提高他們下次獲得資格的機會。IBM推出了一項軟件服務,可以查找AI系統(tǒng)中的偏差,并確定自動決策的原因。這樣的工具可以幫助您實現透明度。

羞辱公司人工智能計劃的可能性是一個真正令人擔憂的問題。幸運的是,有很多方法可以擴展AI源數據的多樣性,并消除重大偏差。通過消除偏見,您將幫助您的公司 - 以及社會 - 真正實現AI提供的好處。


免責聲明:本文由用戶上傳,如有侵權請聯系刪除!

2016-2022 All Rights Reserved.平安財經網.復制必究 聯系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯網 版權歸原作者所有。