2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
智能手機,安全攝像頭和揚聲器只是即將運行更多人工智能軟件以加速圖像和語音處理任務(wù)的設(shè)備中的一小部分。稱為量化的壓縮技術(shù)通過使深度學習模型更小以減少計算和能量成本來平滑方式。但事實證明,較小的模型使惡意攻擊者更容易欺騙AI系統(tǒng)行為不端 - 這是一個問題,因為更復雜的決策被轉(zhuǎn)移到機器上。
在一項 新的研究中,麻省理工學院和IBM的研究人員展示了壓縮的AI模型對于對抗性攻擊的脆弱程度,它們提供了一個修復:在量化過程中添加一個數(shù)學約束,以減少AI成為略微修改的圖像的可能性并錯誤分類他們所看到的。
當深度學習模型從標準32位減小到較低位長時,由于誤差放大效應(yīng),更可能錯誤分類改變的圖像:隨著每個額外的處理層,操縱圖像變得更加失真。最后,該模型更可能將一只鳥誤認為是貓,或者將一只青蛙誤認為是鹿。
研究人員表示,量化為8位或更少的模型更容易受到對抗性攻擊,隨著位寬的下降,準確度從已經(jīng)很低的30-40%下降到不到10%。但是在量化期間控制Lipschitz約束可以恢復一些彈性。當研究人員添加約束時,他們在攻擊中看到了小的性能提升,在某些情況下較小的模型優(yōu)于32位模型。
“我們的技術(shù)限制了誤差放大,甚至可以使壓縮深度學習模型比全精度模型更加穩(wěn)健,” 麻省理工學院電氣工程和計算機科學系助理教授,麻省理工 學院微系統(tǒng)技術(shù)實驗室成員 宋漢說 。“通過適當?shù)牧炕?,我們可以限制誤差。”
該團隊計劃通過在更大的數(shù)據(jù)集上進行培訓并將其應(yīng)用于更廣泛的模型來進一步改進該技術(shù)。“深入學習模型在進入互聯(lián)網(wǎng)連接設(shè)備的世界時需要快速而安全,”研究合著者,MIT-IBM Watson AI實驗室研究員Chuang Gan說。“我們的防守量化技術(shù)在兩方面都有所幫助。”
包括麻省理工學院研究生吉林在內(nèi)的研究人員將 在5月舉行的國際學習代表大會上展示他們的成果 。
在使AI模型更小,以便它們運行更快并且使用更少的能量時,Han正在使用AI本身來推動模型壓縮技術(shù)的極限。在最近的相關(guān) 工作中,Han和他的同事們展示了如何使用強化學習來根據(jù)運行模型的設(shè)備處理圖像的速度,自動找到量化模型中每層的最小位長。Han表示,與固定的8位模型相比,這種靈活的位寬方法可將延遲和能耗降低200%。研究人員將 在6月的計算機視覺和模式識別會議上展示他們的研究結(jié)果 。
2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。