《電子技術應用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > AMD發(fā)布首個10億開源AI模型OLMo

AMD發(fā)布首個10億開源AI模型OLMo

用Instinct MI250 GPU集群訓練而成
2024-11-08
來源:IT之家

AMD 公司于 10 月 31 日發(fā)布博文,宣布推出首個完全開放的 10 億參數(shù)語言模型系列 AMD OLMo,為開發(fā)者和研究人員提供強大的 AI 研究工具。

AMD OLMo 模型使用從零開始訓練的 10 億參數(shù)語言模型系列(LMs),在 AMD Instinct MI250 GPU 集群上訓練,使用了超過 1.3 萬億個 tokens 進行預訓練,讓模型在處理自然語言任務時具有強大的推理能力。

OLMo 模型采用解碼器(decoder-only)架構,并通過下一個標記預測(next-token prediction)進行訓練,這種架構在生成文本和理解上下文方面表現(xiàn)出色。

0.png

與其他同類開源模型相比,AMD OLMo 在推理能力和聊天能力上表現(xiàn)優(yōu)異。尤其是在多個基準測試中,其性能與最新的 OLMo 模型相當,且計算預算僅為其一半。

11.jpg

22.jpg

33.jpg

44.jpg

OLMo 除數(shù)據(jù)中心使用外,更支持配備 NPU(Neural Processing Unit,神經處理單元)的 AMD Ryzen AI PC 能夠部署模型,使開發(fā)者能在個人設備提供 AI 功能。

AMD OLMo 是完全開源的,這意味著其他開發(fā)者和公司可以自由使用和修改這些模型,這讓其成為希望探索 AI 技術替代方案的企業(yè)的一個可行選擇。


官方訂閱.jpg

本站內容除特別聲明的原創(chuàng)文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創(chuàng)文章及圖片等內容無法一一聯(lián)系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。