經濟日報 App
  • 會員中心
  • 訂閱管理
  • 常見問題
  • 登出
notice-title img

經濟日報邀請你,選出最感興趣的財經大事,免費領取VIP文章,再抽千元好禮喔!



不再通知

Meta 推最新語言模型 Meta Llama 3 擁有更精準推理能力

本文共944字

經濟日報 記者彭慧明/即時報導

雲端服務業者、大型平台競爭大語言模型(LLM)地位,Meta宣布推出新一代先進開源大型語言模型Meta Llama 3,預計將可於AWS、Databricks、Google Cloud、Hugging Face、Kaggle、IBM WatsonX、Microsoft Azure、NVIDIA NIM 和 Snowflake 等平台上使用,由AMD、AWS、Dell、Intel、NVIDIA 和 Qualcomm 等硬體平台支援運作

Meta表示,致力以負責任的原則開發 Llama 3,也將提供多種資源來協助大家以負責任的方式使用,包括導入 Llama Guard 2、Code Shield 和 CyberSec Eval 2 等新的信任和安全工具

Meta新一代 Llama 3 初始的兩個模型已可廣泛使用。此版本包含預訓練和指令微調的語言模型,其中的 8B (80 億) 和 70B (700 億) 參數,可支援更多元的使用情境。新的功能包括更精準的推理能力,是目前同業中最佳的開源模型,Llama 3也將釋出供社群運用。

Meta 希望透過建立與目前專有模型並駕齊驅的最佳開放模型 Llama 3 ,回應開發人員的回饋,並提高 Llama 3 的整體實用性,同時持續領導負責任地使用並部署大型語言模型。Meta秉持及早釋出與頻繁更新的開源精神,讓社群搶先試驗這些仍在開發階段的模型。今日所推出的以文字為基礎的模型為 Llama 3系列的第一波模型。Meta 期待讓 Llama 3 在近日具備多語言和多模態、有更長的上下文語境,並繼續提升推理和編寫程式碼等核心大型語言模型能力的整體表現。

Llama 3 卓越的效能

Llama 3 中全新 8B 和 70B 參數的模型,相較於 Llama 2 有大幅的進步,並為此規模的大型語言模型立下新標準。得益於預訓練與後訓練技術的進展,Meta 的預訓練和指令微調模型是目前 8B 及 70B 參數規模的最佳模型。Meta 在後訓練程序流程的改進大幅降低錯誤拒絕率(False Rejection Rate, FRR),改善一致性,並提升模型反應的多樣性。同時,在推理、程式碼生成和指令遵循等功能亦有顯著提升,讓 Llama 3 更易於操控。

※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容

延伸閱讀

上一篇
榮成股東會/董座鄭瑛彬:2030前再投38億 導入再生能源建設
下一篇
貿聯股東會/成長主力將是高速運算與半導體 AI 最快第4季認證通過

相關

熱門

看更多

看更多

留言

完成

成功收藏,前往會員中心查看!