您的位置: 首頁 >互聯(lián)網 >

微軟推出了一款名為WhiteNoise的人工智能隱私工具

2022-09-13 05:08:02 編輯:聶育奇 來源:
導讀 在本周舉行的Build 2020開發(fā)者大會(Build 2020 developer conference)上,微軟宣布向Azure機器學習(Azure Machine Learning)添加新功...

在本周舉行的Build 2020開發(fā)者大會(Build 2020 developer conference)上,微軟宣布向Azure機器學習(Azure Machine Learning)添加新功能。Azure機器學習是一種基于云的環(huán)境,用于培訓、部署和管理人工智能模型。WhiteNoise是一個針對不同隱私的工具包,現(xiàn)在既可以在Azure上使用,也可以在GitHub的開源平臺上使用,加入了新的人工智能解釋和公平工具,以及新的數(shù)據(jù)、模型和實驗訪問控制;用于細粒度追溯和沿襲的新技術;新的機密機器學習產品;和新的工作流程責任文檔。

這一努力是微軟朝著更易于解釋、更安全、更“公平”的人工智能系統(tǒng)努力的一部分。研究表明,面部識別系統(tǒng)存在普遍的偏見,例如,人工智能存在隱私問題,因為許多模型無法使用加密數(shù)據(jù)。除了今天發(fā)布的Azure機器學習特性之外,微軟還嘗試著解決這些問題和其他挑戰(zhàn),包括人工智能偏見檢測工具、減少偏見錯誤的內部努力、人工智能道德檢查列表,以及一個就人工智能追求提供建議的委員會(Aether)。另外,微軟公司副總裁埃里克·博伊德表示,Xbox、必應、Azure以及微軟365部門的團隊都參與了今天上午發(fā)布的一些工具包的開發(fā),并親自使用了這些工具包。

“企業(yè)現(xiàn)在正在研究如何開發(fā)易于解釋和遵守規(guī)定(例如非歧視和隱私規(guī)定)的人工智能應用程序。”博伊德在接受VentureBeat電話采訪時表示:“他們需要與這些人工智能模型相結合的工具,以便更容易地解釋、理解、保護和控制數(shù)據(jù)和模型。”“我們認為,我們的人工智能方法是有區(qū)別的,它建立在深入研究的堅實基礎上,采用經過深思熟慮的方法,并致力于開源。”

WhiteNoise工具包是與哈佛大學定量社會科學和工程學院(Harvard Institute for Quantitative Social Science and School of Engineering)的研究人員合作開發(fā)的,它利用了不同的隱私,使人們能夠在保護個人信息(如姓名或出生日期)的同時,從數(shù)據(jù)中獲得見解。通常,差異隱私需要在將原始數(shù)據(jù)輸入本地機器學習模型之前向其注入少量噪聲,從而使惡意行為者難以從經過訓練的模型中提取原始文件。如果一個觀察者看到一個算法的輸出,卻不知道它是否在計算中使用了某個特定個體的信息,那么這個算法就可以被認為是差分私有的。

WhiteNoise提供一個可擴展圖書館不同私人算法和釋放機制保護隱私的查詢和統(tǒng)計,以及api定義的分析和評估分析和驗證器計算總損失數(shù)據(jù)隱私。微軟說它可以使一群醫(yī)院合作建立一個更好的預測模型在癌癥治療的療效,例如,同時幫助堅持法律要求,保護醫(yī)院信息的隱私,確保沒有個別患者數(shù)據(jù)從模型中泄露出來。

另一個由微軟人工智能和工程研究倫理委員會(Aether)支持的工具包Fairlearn,將于6月與Azure機器學習集成,旨在評估人工智能系統(tǒng)的公平性,并減輕算法中出現(xiàn)的任何不公平問題。在儀表板中,F(xiàn)airlearn定義了人工智能系統(tǒng)是否對人做出不公平的行為,主要關注兩種危害:分配危害和服務質量危害。當人工智能系統(tǒng)擴展或保留機會、資源或信息時,分配就會受到損害——例如,在招聘、學校錄取和貸款方面。服務質量危害是指一個系統(tǒng)對一個人是否像對另一個人一樣有效,即使沒有機會、資源或信息被延長或保留。

Fairlearn遵循一種被稱為“群體公平”的方法,該方法旨在發(fā)現(xiàn)哪些群體的個體有遭受傷害的風險。數(shù)據(jù)科學家指定工具包中的相關組(例如,性別、膚色和種族),它們是特定于應用程序的;群體公平是通過一組約束來形式化的,它要求人工智能系統(tǒng)的某些方面(或多個方面)的行為在群體之間具有可比性。

根據(jù)微軟的說法,專業(yè)服務公司安永;Young使用Fairlearn來評估模型輸出在生物性別方面的公平性。該工具包顯示,男性和女性的積極貸款決策之間存在15.3%的差異。Young的建模團隊隨后開發(fā)并培訓了多個矯正模型,并可視化了公平性和模型準確性之間的常見權衡。該團隊最終得到了一個最終的模型,該模型優(yōu)化并保留了總體精度,但將男性和女性之間的差異降低到了0.43%。

在新工具包的列表中,最后一個是釋義ml,它去年在alpha中首次出現(xiàn),但是今天在Azure機器學習中也可以使用。expltml合并了許多機器學習解釋技術,幫助通過可視化模型的行為和預測背后的推理來解釋。它可以推薦在任何給定用例中對模型最重要的參數(shù)(或變量),并且可以解釋為什么這些參數(shù)很重要。

博伊德說:“我們希望通過Azure機器學習向廣大客戶提供這一服務,幫助他們理解和解釋他們的模型所發(fā)生的事情。””(這些工具包),我們認為我們已經給了開發(fā)人員大量的權力真正理解他們的模型,他們可以看到他們的可解釋性[和]公平,并開始理解其他參數(shù)不滿意做出預測或搖擺的模型以不同的方式。”


免責聲明:本文由用戶上傳,如有侵權請聯(lián)系刪除!

精彩推薦

圖文推薦

點擊排行

2016-2022 All Rights Reserved.平安財經網.復制必究 聯(lián)系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯(lián)網 版權歸原作者所有。