2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
來自哈佛大學和麻省理工學院--Watson AI實驗室的一組研究人員創(chuàng)建了一個他們認為可以檢測文本是否由另一個AI生成的系統(tǒng)。他們希望為未來的工具奠定基礎(chǔ),以便更容易在網(wǎng)上發(fā)現(xiàn)虛假評論甚至新聞文章。
根據(jù)arXiv6月份發(fā)布的研究預印本,巨型語言模型試驗室是“支持人類檢測文本是否由模型生成的工具”。您可以點擊此處自行試用演示。
該工具背后的基本概念非常簡單:人類編寫的文本在結(jié)構(gòu)化方面更加難以預測。
由于其規(guī)模有限,該系統(tǒng)將無法“自動檢測大規(guī)模濫用” - 它旨在僅在個別情況下嗅出假文本。
該系統(tǒng)并非接近完美:通過將文本與一些常見的AI文本生成器交叉引用,它能夠?qū)?ldquo;假文本的人體檢測率從54%提高到72%而無需任何先前的培訓”。
研究人員還承認,未來的假文本生成器可以通過改變“每個單詞或句子的采樣參數(shù)使其看起來更像是它試圖模仿的語言”來輕易欺騙他們的系統(tǒng)。
2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。