您的位置: 首頁 >科技 >

人工智能系統(tǒng)如何做出對自己決策的解釋

2022-06-23 02:54:01 編輯:穆哲奇 來源:
導(dǎo)讀 人工智能經(jīng)常被提及的挑戰(zhàn)之一是無法獲得關(guān)于人工智能系統(tǒng)如何做出決策的充分理解的解釋。盡管這對于機器學(xué)習(xí)應(yīng)用程序(例如產(chǎn)品推薦或

人工智能經(jīng)常被提及的挑戰(zhàn)之一是無法獲得關(guān)于人工智能系統(tǒng)如何做出決策的充分理解的解釋。盡管這對于機器學(xué)習(xí)應(yīng)用程序(例如產(chǎn)品推薦或個性化方案)而言可能不是挑戰(zhàn),但在需要理解決策的關(guān)鍵應(yīng)用程序中使用AI都會面臨透明性和可解釋性問題。

斯坦福大學(xué)計算機科學(xué)系戰(zhàn)略研究計劃主任史蒂夫·埃格拉什(Steve Eglash)在AI Today播客的一集中,分享了有關(guān)透明和負責(zé)任的AI演變的見解和研究。Eglash教授是計算機科學(xué)系的一名工作人員,他與一小群人一起開展研究計劃,與大學(xué)以外的公司合作。這個小組幫助公司與學(xué)生共享觀點和技術(shù),與公司共享技術(shù)。在史丹佛工作之前,史蒂夫是一名電氣工程師。在這個職位上,他介于技術(shù)和科學(xué)之間。在進入學(xué)術(shù)界之前,他還曾從事過投資,政府,研究工作。

由于AI在幾乎每個行業(yè)和各級政府中都得到使用,因此深入研究AI用例的機會為斯坦福大學(xué)的學(xué)生提供了許多探索新領(lǐng)域的機會。充分了解AI的工作原理至關(guān)重要,因為我們越來越依賴于它在一系列應(yīng)用中的應(yīng)用。人工智能正在扮演關(guān)鍵任務(wù),例如自動駕駛汽車。在這些情況下,錯誤可能是致命的或?qū)е聡?yán)重的傷害或傷害。因此,更深入地研究透明和可解釋的AI系統(tǒng)可以使這些系統(tǒng)更加值得信賴和可靠。確保自動駕駛汽車等AI技術(shù)的安全至關(guān)重要。因此,我們需要能夠理解計算機如何以及為何做出決定。與此同時,

許多現(xiàn)代的AI系統(tǒng)都在神經(jīng)網(wǎng)絡(luò)上運行,而我們僅了解其基礎(chǔ)知識,因為算法本身很少提供解釋方式。缺乏解釋性通常被稱為AI系統(tǒng)的“黑匣子”。一些研究人員將注意力集中在神經(jīng)網(wǎng)絡(luò)如何工作的細節(jié)上。由于神經(jīng)網(wǎng)絡(luò)的規(guī)模,很難檢查它們的錯誤,因為神經(jīng)元之間的每個連接及其權(quán)重都會增加復(fù)雜性,使事后檢查決策變得非常困難。


免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

精彩推薦

圖文推薦

點擊排行

2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。