您的位置: 首頁(yè) >科技 >

OpenAI安全團(tuán)隊(duì)升級(jí) 授予其董事會(huì)否決危險(xiǎn)AI的權(quán)力

2023-12-20 16:03:37 編輯:吳子承 來(lái)源:
導(dǎo)讀 當(dāng)?shù)貢r(shí)間12月18日,OpenAI在官網(wǎng)表示,正在擴(kuò)展內(nèi)部安全流程,以抵御有害人工智能的威脅。本次更新很大程度,是因?yàn)橹霸摴臼紫瘓?zhí)行官山

當(dāng)?shù)貢r(shí)間12月18日,OpenAI在官網(wǎng)表示,正在擴(kuò)展內(nèi)部安全流程,以抵御有害人工智能的威脅。本次更新很大程度,是因?yàn)橹霸摴臼紫瘓?zhí)行官山姆奧特曼被董事會(huì)霸著的一個(gè)緣由似乎與大模型安全問(wèn)題有關(guān)。在發(fā)布的內(nèi)容當(dāng)中,該公司對(duì)于最新的“準(zhǔn)備框架”也做了相關(guān)的解釋。即OpenAI跟蹤、評(píng)估、預(yù)測(cè)和防范日益強(qiáng)大的模型帶來(lái)的災(zāi)難性風(fēng)險(xiǎn)的流程。

本次公司革新之后,“新安全顧問(wèn)小組”將會(huì)位于技術(shù)團(tuán)隊(duì)之上,向領(lǐng)導(dǎo)層提出建議,并且董事會(huì)被授予否決權(quán)。在開(kāi)發(fā)中的前沿模型有準(zhǔn)備團(tuán)隊(duì),該團(tuán)隊(duì)會(huì)在模型發(fā)布之前識(shí)別和量化風(fēng)險(xiǎn),然后是超級(jí)對(duì)齊團(tuán)隊(duì),正在研究超級(jí)智能模型的理論指南。OpenAI根據(jù)4個(gè)風(fēng)險(xiǎn)類(lèi)別對(duì)每個(gè)模型進(jìn)行評(píng)級(jí):網(wǎng)絡(luò)安全、說(shuō)服、模型自主性以及CBRN。


免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點(diǎn)擊排行

2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ   備案號(hào):

本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。

郵箱:toplearningteam#gmail.com (請(qǐng)將#換成@)