您的位置: 首頁 >互聯(lián)網(wǎng) >

人工智能的可解釋性仍然是一個(gè)重要的課題

2022-07-16 10:48:41 編輯:謝和素 來源:
導(dǎo)讀 為了使AI發(fā)揮其潛能并在許多領(lǐng)域(尤其是影響人們的領(lǐng)域)中廣泛部署,它需要克服黑匣子問題。如今,一個(gè)熱門研究領(lǐng)域被稱為可擴(kuò)展AI(XAI...

為了使AI發(fā)揮其潛能并在許多領(lǐng)域(尤其是影響人們的領(lǐng)域)中廣泛部署,它需要克服黑匣子問題。如今,一個(gè)熱門研究領(lǐng)域被稱為可擴(kuò)展AI(XAI),以通過可解釋性,公平性和透明性增強(qiáng)AI學(xué)習(xí)模型。

前提是,一旦AI完全具備了功能,它將導(dǎo)致業(yè)界所設(shè)想的“負(fù)責(zé)任的AI”。

大多數(shù)機(jī)器學(xué)習(xí)模型不是很聰明。他們經(jīng)過“訓(xùn)練”以識(shí)別模式和關(guān)系,但有時(shí)結(jié)果卻很奇怪。在進(jìn)行迭代時(shí),他們嘗試將各種參數(shù)與目標(biāo)函數(shù)相關(guān)聯(lián)(“是貓還是狗?”)。

XAI(可替代AI)的新興研究

是的,數(shù)據(jù)的復(fù)雜性和對(duì)抗性擾動(dòng)也會(huì)導(dǎo)致基于規(guī)則的系統(tǒng)中的錯(cuò)誤預(yù)測(cè)或決策。但是在這種情況下,可以跟蹤規(guī)則的執(zhí)行方式。太多的計(jì)算無法在機(jī)器引導(dǎo)中實(shí)現(xiàn)。XAI的目標(biāo)是提供對(duì)決策的后驗(yàn)分析,并提供消除數(shù)據(jù)和其他任務(wù)偏差的方法。

在AI的可解釋性和可解釋性的確切含義中,Meet Ghandi很好地總結(jié)了一下:

XAI有助于確保在進(jìn)行決策時(shí),訓(xùn)練數(shù)據(jù)集以及訓(xùn)練后的模型沒有任何偏差。此外,XAI有助于調(diào)試學(xué)習(xí)模型,并引起人們對(duì)各種對(duì)抗性干擾的注意,這些干擾會(huì)導(dǎo)致錯(cuò)誤的預(yù)測(cè)或決策。更重要的是,XAI將深入了解由學(xué)習(xí)模型建立的因果關(guān)系以及該模型的推理。應(yīng)該注意的一件事是,通過使學(xué)習(xí)模型更加復(fù)雜,其可解釋性降低,性能提高;因此,學(xué)習(xí)模型的性能和可解釋性之間存在反比關(guān)系。

在提出XAI技術(shù)時(shí),應(yīng)將重點(diǎn)放在學(xué)習(xí)系統(tǒng)的目標(biāo)用戶上,以使學(xué)習(xí)系統(tǒng)對(duì)其用戶值得信賴。另外,應(yīng)考慮用戶的隱私。因此,要在現(xiàn)實(shí)生活中使用AI,首先,我們需要通過解釋AI的決策來使其負(fù)責(zé),并使其透明化,從而構(gòu)成負(fù)責(zé)任或道德AI的基礎(chǔ)。

甘地提出了一些基本問題:

在AI開發(fā)中有一個(gè)激烈的爭論,即XAI將降低系統(tǒng)的性能。

因果關(guān)系不是我在其他XAI解釋中看到的標(biāo)準(zhǔn),因此我認(rèn)為這是個(gè)人觀點(diǎn)。

值得信賴,具有私密性并且對(duì)負(fù)責(zé)/道德的AI負(fù)責(zé),但目前,XAI專注于系統(tǒng)的開發(fā)人員和所有者。


免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點(diǎn)擊排行

2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082   備案號(hào):閩ICP備19027007號(hào)-6

本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。