您的位置: 首頁 >互聯(lián)網(wǎng) >

OpenAI發(fā)布語音模型Voice Engine(關(guān)于Voice Engine的簡(jiǎn)介)

2024-04-01 19:35:22 編輯:澹臺(tái)貞紈 來源:
導(dǎo)讀 3月30日OpenAI在官網(wǎng)上發(fā)布了最新的Voice Engine研究成果,這一大模型可以通過音頻樣本和文本輸入,生成與原始說話者相似的自然語音,出于...

3月30日OpenAI在官網(wǎng)上發(fā)布了最新的Voice Engine研究成果,這一大模型可以通過音頻樣本和文本輸入,生成與原始說話者相似的自然語音,出于對(duì)安全的考慮,現(xiàn)在這一模型僅在小范圍內(nèi)進(jìn)行試用,這一模型也引發(fā)了人們對(duì)于AI技術(shù)發(fā)展帶來的信息安全的考慮。

1.Voice Engine早期應(yīng)用于輔助兒童閱讀、翻譯視頻、博客等內(nèi)容,主要是幫助具有聽力障礙或者需要聽力輔助的人群閱讀文字或者對(duì)視頻內(nèi)容進(jìn)行翻譯。

2.在這樣的應(yīng)用場(chǎng)景基礎(chǔ)上,OpenAI還給出了一部分合作伙伴共同完成的技術(shù)案例,人工智能替代通信應(yīng)用程序Livox通過使用語音引擎,為殘疾人提供多種語言的自然聲音;兒童教育公司Age of Learning還使用GPT-4和Voice Engine和學(xué)生進(jìn)行交流。

3.對(duì)于未來是否要將這項(xiàng)技術(shù)大規(guī)模應(yīng)用,OpenAI持保守態(tài)度。在2024年美國曾經(jīng)發(fā)布少數(shù)公司利用總統(tǒng)的人工智能語音影響選民投票的事件,這些潛在的風(fēng)險(xiǎn)有可能影響OpenAI關(guān)于Voice Engine未來使用范圍的決策。

4.合成語音的濫用現(xiàn)象仍然是監(jiān)管機(jī)構(gòu)以及模型發(fā)布者需要考慮的問題,OpenAI希望就合成聲音的責(zé)任歸屬問題以及社會(huì)如何處理這些新功能做出討論,并且根據(jù)小規(guī)模測(cè)試以及討論結(jié)果,確定未來是否要將這項(xiàng)技術(shù)大規(guī)模部署。

5.在人工智能安全方面,OpenAI早就做出了相關(guān)部署,在2023年10月份他們就宣布成立了相關(guān)的團(tuán)隊(duì),旨在評(píng)估前沿模型的技術(shù)和風(fēng)險(xiǎn)。人工智能誕生以來就一直受到人們關(guān)于安全方面的考慮,早先馬斯克還曾帶領(lǐng)人工智能監(jiān)管領(lǐng)域的重要人物共同制定人工智能發(fā)展約束協(xié)議,如今Voice Engine的出現(xiàn)再次對(duì)安全提出了挑戰(zhàn),接下來它是否會(huì)面向大眾,令人期待。


免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點(diǎn)擊排行

2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ   備案號(hào):

本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。

郵箱:toplearningteam#gmail.com (請(qǐng)將#換成@)