(資料圖)
臉書(shū)母公司Meta首席執行官扎克伯格最新推出了“Meta人工智能大型語(yǔ)言模型”(Large Language Model Meta AI),簡(jiǎn)稱(chēng)“LLaMA”。
扎克伯格在社交媒體上稱(chēng),Facebook AI Research研發(fā)的LLaMA是“目前水平最高的”大型語(yǔ)言模型,目標是幫助研究人員推進(jìn)他們在人工智能(AI)領(lǐng)域的工作。
“大型語(yǔ)言模型”(LLM)可以消化大量的文本數據,并推斷文本的單詞之間的關(guān)系。隨著(zhù)計算能力的進(jìn)步,以及輸入數據集與參數空間的不斷擴大,LLM的能力也相應提高。
目前,LLM已經(jīng)被證明能高效地執行多種任務(wù),包括文本生成、問(wèn)題回答、書(shū)面材料總結等。扎克伯格稱(chēng),LLM在自動(dòng)證明數學(xué)定理、預測蛋白質(zhì)結構等更復雜的方面也有很大的發(fā)展前景。
值得一提的是,近期大火的ChatGPT就是采用LLM構建的聊天機器人。ChatGPT由GPT3.5提供支持,而GPT3.5是一款基于OpenAI 175B參數基礎模型訓練的LLM,175B是它從訓練數據中所學(xué)習、沉淀下來(lái)的內容。
Meta在官網(wǎng)介紹中稱(chēng),LLaMA有7B、13B、33B和65B四個(gè)基礎模型,在大多數基準測試中都優(yōu)于GPT3.5的前身GPT3-175B,而LLaMA-65B可與業(yè)內最佳的Chinchilla-70B和PaLM-540B競爭。
Meta還宣布,將針對學(xué)術(shù)研究者共享其模型,正在接受研究人員的申請。與之截然不同的是,谷歌旗下的DeepMind和OpenAI并不公開(kāi)訓練代碼。
根據2021年媒體的一份調查顯示,AI專(zhuān)家們通常將DeepMind、OpenAI和FAIR(Facebook AI Research)視為該領(lǐng)域的“前三甲”。
去年年底,Meta發(fā)布了另一款名為Galactica的模型,但因經(jīng)常分享偏見(jiàn)和不準確的信息而遭到下架。
責任編輯:李楠
分享到:版權聲明:凡注明來(lái)源“流媒體網(wǎng)”的文章,版權均屬流媒體網(wǎng)所有,轉載需注明出處。非本站出處的文章為轉載,觀(guān)點(diǎn)供業(yè)內參考,不代表本站觀(guān)點(diǎn)。文中圖片均來(lái)源于網(wǎng)絡(luò )收集整理,僅供學(xué)習交流,版權歸原作者所有。如涉及侵權,請及時(shí)聯(lián)系我們刪除!