您的位置: 首頁 >互聯(lián)網(wǎng) >

AI軍備競賽Meta加入:發(fā)布號稱優(yōu)于ChatGPT的開源大語言模型

2023-02-27 18:35:10 編輯:包彬全 來源:
導(dǎo)讀 Meta官網(wǎng)于當?shù)貢r間的2月24日,發(fā)布了一款新型的人工智能大型語言模型LlaMA,Meta首席AI科學(xué)家楊立昆表示,LLaMA 130億參數(shù)規(guī)模的模型性能在一些基準測試中由于OpenAI推出的GPT3。

Meta官網(wǎng)于當?shù)貢r間的2月24日,發(fā)布了一款新型的人工智能大型語言模型LlaMA,Meta首席AI科學(xué)家楊立昆表示,LLaMA 130億參數(shù)規(guī)模的模型性能在一些基準測試中由于OpenAI推出的GPT3。

從參數(shù)規(guī)模上來分析,Meta所提供的有130億,360億,70頁和330頁這4種參數(shù)規(guī)模,使用的是20種語言進行訓(xùn)練。據(jù)Meta的首席執(zhí)行官馬克扎克伯格稱LlaMA發(fā)布這一模型的宗旨就是幫助研究人員不斷的推進工作,再生成對話文本以及總結(jié)書面材料,預(yù)留蛋白質(zhì)結(jié)構(gòu),和證明數(shù)學(xué)定理等復(fù)雜的任務(wù)方面會有很大的前景。

LLaMA 130億參數(shù)規(guī)模的模型能夠在單個的CPU上運行,650億參數(shù)的模型可以和谷歌5400億參數(shù)的PaLM模型,DeepMind 700億參數(shù)的Chinchilla模型進行競爭。與OpenAI的GPT和谷歌的LaMDA機密訓(xùn)練資料和演算所不同的在于LlaMA不僅性能更好,更小,而且是基于公開資料進行訓(xùn)練的。
 


免責聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點擊排行

2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ   備案號:

本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。