回到頂端
|||
熱門: 詐騙 新聞 mlb

Technology Innovation Institute推出世界上最強大的開放式大型語言模型:Falcon 180B

中央社/ 2023.09.07 16:25

(中央社訊息服務20230907 16:25:02)• 新模型在Hugging Face開放取用大型語言模型(LLM)排行榜上位居第一 • 擁有1800億參數的模型在3.5兆個詞元(Token)上進行訓練,運算資源是Meta LLaMA 2的4倍 • Falcon 180B對研究人員和商業用戶開放取用 阿拉伯聯合大公國阿布達比--(美國商業資訊)--阿拉伯聯合大公國的Technology Innovation Institute(TII)推出Falcon 180B,這是其旗艦大型語言模型(LLM)的高階反覆運算,再次突破了生成式人工智慧的極限。這一突破性的發佈強化了阿聯在人工智慧領域的主導地位,提供Falcon 180B作為研究和商業用途的開放取用模型。 本新聞稿包含多媒體資訊。完整新聞稿請見此: https://www.businesswire.com/news/home/20230906992508/zh-HK/ 繼Falcon 40B這一開源人工智慧模型於2023年5月迅速登上Hugging Face LLM排行榜榜首並大獲成功後,阿布達比先進科技研究委員會(ATRC)的應用研究支柱TII繼續引領生成式人工智慧的發展。Falcon 40B是為研究人員和商業用戶提供的首批開源模型實例之一,並被認為是該領域具有突破性的先驅產品。 先進科技研究委員會秘書長Faisal Al Bannai閣下強調了Falcon對人工智慧領域的正向影響,並表示:「我們設想在未來世界中,人工智慧的變革力量觸手可及。我們致力於推動先進人工智慧取用的民主化,因為我們的隱私和人工智慧對人類的潛在影響不應被少數人控制。雖然我們可能不知道所有答案,但我們的決心仍然堅定不移,即展開合作並為開源社群貢獻力量,確保所有人都能共享人工智慧的益處。」 Falcon 180B擁有驚人的1800億個參數,並在3.5兆個詞元上進行了訓練,一躍成為Hugging Face預訓練LLM排行榜的榜首。它在各種基準測試中(包括推理、編碼、熟練程度和知識測試)都優於Meta的LLaMA 2等著名競爭對手。 在最好的閉源LLM中,Falcon 180B僅次於OpenAI最新的GPT 4,與Google的 PaLM 2 Large的效能不相上下,後者是為Bard提供支援的模型,但Falcon 180B只有該模型的一半大小。該模型的授權架構植基於“Falcon 180B TII License”,該許可證以Apache 2.0為基礎。 TII的AI Cross-Center部門執行主任兼代理首席研究員Ebtesam Almazrouei博士表示:「Falcon 180B的發佈體現了我們致力於推進人工智慧尖端科技的決心,我們很高興能與世界分享其無限的潛力。Falcon 180B預示著生成式人工智慧的新時代,在這個時代,科學進步的潛力可以透過開放取用資源來為明天的創新提供動力。當我們深入研究科學和科技的未開發領域時,我們的願景更超越創新;而是要孕育深刻的連結,透過合作性的突破來因應全球性挑戰。」 隨著超過1200萬開發人員採用和部署Falcon的第一個版本,這一重大升級將成為從聊天機器人到代碼生成等各個領域的首要模型。 Falcon 180B與以下主要語言相容:英語、德語、西班牙語和法語,並提供對義大利語、葡萄牙語、波蘭語、荷蘭語、羅馬尼亞語、捷克語和瑞典語的有限支援。 若要瞭解更多資訊,請造訪FalconLLM.tii.ae 來源:AETOSWire 免責聲明:本公告之原文版本乃官方授權版本。譯文僅供方便瞭解之用,煩請參照原文,原文版本乃唯一具法律效力之版本。

請前往 businesswire.com 瀏覽源版本: https://www.businesswire.com/news/home/20230906992508/zh-HK/

CONTACT: Jennifer Dewan,資深傳播總監 [email protected]

社群留言

台北旅遊新聞

台北旅遊新聞