您的位置: 首頁 >商業(yè)新聞 >

“沒有人工智能”:美國知名科學(xué)家呼吁停止神化AI,希望實現(xiàn)數(shù)據(jù)尊嚴(yán)

2023-04-24 14:31:26 編輯:吉功香 來源:
導(dǎo)讀 4月20號,拉尼爾發(fā)表了一篇紐約客的文章,在這個文章中說,沒有人工智能:美國知名科學(xué)家呼吁停止神化AI,實現(xiàn)數(shù)據(jù)尊嚴(yán),呼吁停止神話人功...

4月20號,拉尼爾發(fā)表了一篇紐約客的文章,在這個文章中說,“沒有人工智能”:美國知名科學(xué)家呼吁停止神化AI,實現(xiàn)數(shù)據(jù)尊嚴(yán),呼吁停止神話人功智能,需要將人工智能當(dāng)做一種全新的社會協(xié)作形式進行使用,反對訓(xùn)練更加高級的人工智能,他強調(diào)所有的數(shù)據(jù)需要嚴(yán)格的管理,以保證每一個使用者的數(shù)據(jù)安全性和隱私。

現(xiàn)在的人工智能越來越高級,有很多人使用人工智能創(chuàng)造出自己想要的內(nèi)容,比如文章和各種圖畫等等,人工智能的強大使人們比較擔(dān)憂的,現(xiàn)在的人工智能聊天機器人和各種畫圖軟件就能夠取代一部分人的工作,人工智能被看作有可能會毀滅人類,拉尼爾發(fā)表的這篇紐約課文章中,多次表達出人類對于數(shù)據(jù)方面的不重視,他強調(diào)人工智能黑箱需要盡快關(guān)閉,且停止打造更加高級的人工智能。

拉尼爾在文章中指出,任何一個新的人工智能都可能創(chuàng)造出全新的社會形態(tài),雖然現(xiàn)在的社會越來越發(fā)達,不過人工智能想要成為虛擬現(xiàn)實領(lǐng)域的開創(chuàng)者,還需要一定的時間,現(xiàn)在的人工智能屬于不容易控制的狀態(tài),這種新技術(shù)有可能會讓人類滅亡。

拉尼爾在1985年推出雅達利公司后,開始制作VR眼鏡,2006年進入微軟公司進行工作,他對于人工智能有很多的了解,認(rèn)為人工智能從1950年到2023年期間確實一步步在成長,AI人工智能現(xiàn)在越來越深化,人們很可能在沒有完全適應(yīng)人工智能的情況下,出現(xiàn)一種新的社會協(xié)作形式,在他看來,這些人工智能需要大量的數(shù)據(jù)訓(xùn)練,而現(xiàn)在這些數(shù)據(jù)幾乎沒有被很好的保護,而且有可能會出現(xiàn)數(shù)據(jù)隱私丟失或者泄露的情況。


免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點擊排行

2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ   備案號:

本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。

郵箱:toplearningteam#gmail.com (請將#換成@)