Translation 翻譯文章

Meta 釋出 LLaMA 大型語言模型,助 AI 發展並平民化,只有5種人才能使用 (外電翻譯)

重點摘要

Meta 推出名為 LLaMA 的大型語言模型,有助於促進人工智慧研究,為科學家提供平民化的大型語言模型。LLaMA 可用於生成文本、對話、解決數學問題、預測蛋白質結構和回答閱讀理解問題。LLaMA 將根據個案授權,僅用於研究目的,旨在提高穩定性,減輕偏見、有害性和錯誤訊息的風險。

全文翻譯

今天 Meta 公司旗下的 Facebook 人工智慧應用研究小組公開推出了新的大型語言模型 LLaMA AI(注:羊駝)。這個模型將有助於科學界推進對深度學習這一人工智慧子領域的研究。

Meta 首席執行官馬克・祖克柏今天在 Instagram Facebook 上表示:「大型語言模型已經顯示出很大的潛力,可以生成文本、進行對話、總結文字資訊,以及進行更複雜的任務;像是如何解決數學定理,或預測蛋白質結構。Meta 致力於這種開放式的研究模式,我們將向人工智慧研究社群提供我們的新模型。」

大型語言模型是一種深度學習演算法,可以根據海量的數據,將獲得的知識識別、總結、翻譯、預測和生成文本和其他內容。深度學習使用人工神經網路來嘗試模擬人類大腦的行為。儘管這些神經網路無法匹配人類大腦的能力,但它們可以從大量數據中學習,展示出廣泛的知識。

迄今為止,大型語言模型一直需要極強大的計算基礎設施來進行訓練和運行,這使得它們對大多數研究人員不可及。Meta 表示,通過 LLaMA,可以平民化大型語言模型,這將是最重要和最有益的人工智慧形式之一。

目前最著名的大型語言模型範例是 OpenAI LLC 的 GPT-3,ChatGPT 的模型也是由它所衍生。GPT-3 以其近乎神奇的能力,在網路上掀起了轟動,能以類似人類的方式回答幾乎任何類型的問題。其他種類的大型語言模型已被用來解決數學問題、預測蛋白質結構用於藥物開發,以及回答閱讀理解問題。根據 Meta 的說法,大型語言模型正是人工智慧可以為數十億人提供潛在好處的最明顯案例之一。

在一篇部落格文章中,Meta 解釋說,訓練像 LLaMA 這樣的較小的基礎模型要容易得多,因為需要較少的計算能力來測試新方法、驗證他人的工作並探索新的用途。基礎模型通常是在大量未標記的數據集上進行訓練,這使得它們可以進行微調以應用於各種不同的任務。LLaMA 可以提供多種不同大小的選擇,從 70 億到 650 億個參數不等。

通過向研究社群提供較小的大型語言模型,Meta 希望研究人員能更好地了解這些模型的運作方式和原理,幫助提高它們的穩定性,以及減輕偏見、有害性和產生錯誤訊息的可能性等問題。

Meta 表示,為了維護完整性並防止濫用,LLaMA 將採用非商業許可證提供,也就是只能用於研究目的。此模型的使用權將按照個案授權學術研究人員、政府、民間社會和學術組織以及產業研究實驗室。

原文:Meta releases LLaMA to democratize access to large language AI models – SiliconANGLE

Author

英文 (CEFR C1 / TOEIC 985) 與西班牙文 (A2) 學習者;誤打誤撞拿到 TESOL 英文教師證照。英文從 A2 到 B2 花了四個半月。以自身經驗,至今已幫助數萬位學習者找到最適合的語言學習方式。

Subscribe
Notify of
guest
0 Comments
Inline Feedbacks
View all comments