2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ 備案號:
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
郵箱:toplearningteam#gmail.com (請將#換成@)
近日,一名離職的谷歌AI工程師爆料稱,谷歌早在2021年就已經(jīng)研發(fā)出類似于ChatGPY的能夠思考的AI,并計劃在2022年秋季發(fā)布。但由于安全問題,這款A(yù)I被刪除。同時,谷歌內(nèi)部還有更先進的AI技術(shù),但谷歌一直在確保它不會“經(jīng)常地編造事實、沒有種族或性別偏見之類的東西”。
這位工程師名叫Blake Lemoine,他曾經(jīng)是谷歌人工智能團隊的成員,在去年6月,他聲稱谷歌的語言模型對話應(yīng)用LaMDA已經(jīng)存在自我意識,并因此被解雇。據(jù)了解,谷歌一直在探索生成式人工智能技術(shù),而這種技術(shù)可以模仿人類的思維過程,從而使機器能夠自主產(chǎn)生新的信息。雖然這種技術(shù)可以用于許多方面,但在某些情況下,它可能會產(chǎn)生意想不到的結(jié)果,如編造虛假信息、誤導(dǎo)人們等。
對于這種情況,谷歌一直在積極尋求解決方案。在Blake Lemoine的爆料中,他提到谷歌內(nèi)部有更先進的AI技術(shù),但谷歌一直在確保它不會存在種族或性別偏見等問題。由此可見,谷歌一直在注重AI技術(shù)的負(fù)責(zé)任使用,即使面臨著技術(shù)突破和新挑戰(zhàn)。值得注意的是,隨著AI技術(shù)的不斷發(fā)展,如何確保其安全、合理、可靠的使用將成為一個永恒的話題。
2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ 備案號:
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
郵箱:toplearningteam#gmail.com (請將#換成@)