您的位置: 首頁 >互聯(lián)網(wǎng) >

新模式可以幫助AI做出更多道德選擇

2022-07-16 20:22:41 編輯:裴環(huán)軍 來源:
導(dǎo)讀 當(dāng)前,人工智能倫理是一個(gè)熱門話題,尤其是圍繞面部識別軟件的持續(xù)爭議?,F(xiàn)在,數(shù)學(xué)家已經(jīng)開發(fā)出一種模型,該模型可以幫助企業(yè)發(fā)現(xiàn)商業(yè)...

當(dāng)前,人工智能倫理是一個(gè)熱門話題,尤其是圍繞面部識別軟件的持續(xù)爭議?,F(xiàn)在,數(shù)學(xué)家已經(jīng)開發(fā)出一種模型,該模型可以幫助企業(yè)發(fā)現(xiàn)商業(yè)AI系統(tǒng)何時(shí)可能在追求利潤時(shí)做出陰險(xiǎn)的選擇。

現(xiàn)代AI擅長優(yōu)化-查找最短路徑,完美的定價(jià)最佳點(diǎn)或公司資源的最佳分配。但是,在很多情況下,人們也會意識到做出類似決定的情況,這是盲目的,特別是在道德方面。

例如,大多數(shù)人意識到,在健康危機(jī)期間提高藥品價(jià)格會增加利潤,但從道德上講也是沒有道理的。但是,人工智能沒有道德感,因此,如果負(fù)責(zé)定價(jià)策略,這似乎是一種有前途的方法。

實(shí)際上,在英國皇家學(xué)會開放科學(xué)的最新論文中,研究人員表明,負(fù)責(zé)回報(bào)最大化的AI實(shí)際上在相當(dāng)普遍的條件下選擇不道德策略的比例不成比例。幸運(yùn)的是,他們還表明可以預(yù)測發(fā)生這種情況的情況,這可以指導(dǎo)人們?yōu)楸苊膺@種情況而修改AI的努力。

人工智能很可能會選擇不道德的策略這一事實(shí)似乎很直觀。如果您不采取行動(dòng),有許多不道德的商業(yè)慣例會獲得豐厚的回報(bào),尤其是因?yàn)楹苌儆懈偁帉κ指矣谑褂盟鼈?。盡管存在聲譽(yù)和監(jiān)管方面的強(qiáng)烈反對,但公司經(jīng)常彎腰甚至違反規(guī)則是有原因的。

但是,那些潛在的影響應(yīng)該是部署AI解決方案的公司所關(guān)注的。雖然已經(jīng)在努力將道德原則納入AI,但它們是新生的,在許多情況下,有許多潛在的策略可供選擇。通常,這些系統(tǒng)在很少或沒有人工干預(yù)的情況下進(jìn)行決策,因此很難預(yù)測可能選擇不道德方法的環(huán)境。

實(shí)際上,該論文的作者已經(jīng)從數(shù)學(xué)上證明了,旨在最大化回報(bào)的AI極有可能選擇一種不道德的策略,這被他們稱為“不道德的優(yōu)化原理”。幸運(yùn)的是,他們說風(fēng)險(xiǎn)管理人員或監(jiān)管者有可能評估該原則的影響,以幫助發(fā)現(xiàn)潛在的不道德策略。

關(guān)鍵在于將重點(diǎn)放在可能提供最大回報(bào)的策略上,因?yàn)檫@些都是優(yōu)化過程可能會采用的策略。作者建議根據(jù)回報(bào)來對策略進(jìn)行排名,然后手動(dòng)檢查排名最高的策略,以確定它們是否合乎道德。


免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點(diǎn)擊排行

2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。