您的位置: 首頁 >互聯網 >

谷歌引入了TensorFlow Privacy一個具有強大隱私保障的機器學習庫

2022-09-14 17:48:42 編輯:嚴民藍 來源:
導讀 谷歌今天宣布了TensorFlow Privacy,一個用于其TensorFlow機器學習框架的庫,旨在讓開發(fā)人員更容易地訓練具有強大隱私保障的AI模型。谷歌...

谷歌今天宣布了TensorFlow Privacy,一個用于其TensorFlow機器學習框架的庫,旨在讓開發(fā)人員更容易地訓練具有強大隱私保障的AI模型。谷歌說,它是開源的,不需要“隱私方面的專業(yè)知識”或基礎的數學知識。此外,使用標準TensorFlow機制的開發(fā)人員不應該改變他們的模型架構、培訓過程或過程。

它緊跟著今天發(fā)布的TensorFlow 2.0 alpha。

谷歌在一篇媒體文章中寫道:“現代機器學習正越來越多地應用于創(chuàng)造令人驚嘆的新技術和用戶體驗,其中許多涉及訓練機器負責任地從個人照片或電子郵件等敏感數據中學習。”“我們打算將TensorFlow Privacy發(fā)展成為一個擁有強大隱私保障的訓練機器學習模型的最佳技術中心。”

根據谷歌,TensorFlow Privacy是一種統(tǒng)計技術,其目的是在平衡用戶信息的同時,將準確性最大化。為了確保這一點,它使用一種改進的隨機梯度下降法(AI系統(tǒng)中優(yōu)化目標函數的迭代方法)來優(yōu)化模型,這種方法對訓練數據示例引起的多個更新進行平均,剪輯每個更新,并在最終平均值上添加噪聲。

谷歌說,TensorFlow的隱私保護可以防止對罕見細節(jié)的記憶,并保證無論用戶的數據是否用于訓練,兩種機器學習模型都是不可分辨的。

谷歌寫道:“理想情況下,經過訓練的機器學習模型的參數應該編碼一般模式,而不是具體訓練實例的事實。”“特別是對于深度學習,額外的保證可以有效地加強其他隱私技術提供的保護。”

TensorFlow Privacy是在英特爾(Intel)的HE-Transformer公開源代碼亮相之后推出的。HE-Transformer是一種“保護隱私”的工具,允許人工智能系統(tǒng)對敏感數據進行操作。它是nGraph的后端,Intel的神經網絡編譯器,基于Microsoft Research的簡單加密算術庫(SEAL)。


免責聲明:本文由用戶上傳,如有侵權請聯系刪除!

最新文章

精彩推薦

圖文推薦

點擊排行

2016-2022 All Rights Reserved.平安財經網.復制必究 聯系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯網 版權歸原作者所有。