2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ 備案號:
本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
Meta官網(wǎng)于當?shù)貢r間的2月24日,發(fā)布了一款新型的人工智能大型語言模型LlaMA,Meta首席AI科學(xué)家楊立昆表示,LLaMA 130億參數(shù)規(guī)模的模型性能在一些基準測試中由于OpenAI推出的GPT3。
從參數(shù)規(guī)模上來分析,Meta所提供的有130億,360億,70頁和330頁這4種參數(shù)規(guī)模,使用的是20種語言進行訓(xùn)練。據(jù)Meta的首席執(zhí)行官馬克扎克伯格稱LlaMA發(fā)布這一模型的宗旨就是幫助研究人員不斷的推進工作,再生成對話文本以及總結(jié)書面材料,預(yù)留蛋白質(zhì)結(jié)構(gòu),和證明數(shù)學(xué)定理等復(fù)雜的任務(wù)方面會有很大的前景。
LLaMA 130億參數(shù)規(guī)模的模型能夠在單個的CPU上運行,650億參數(shù)的模型可以和谷歌5400億參數(shù)的PaLM模型,DeepMind 700億參數(shù)的Chinchilla模型進行競爭。與OpenAI的GPT和谷歌的LaMDA機密訓(xùn)練資料和演算所不同的在于LlaMA不僅性能更好,更小,而且是基于公開資料進行訓(xùn)練的。
2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ 備案號:
本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。