📢 Gate廣場專屬 #WXTM创作大赛# 正式開啓!
聚焦 CandyDrop 第59期 —— MinoTari (WXTM),總獎池 70,000 枚 WXTM 等你贏!
🎯 關於 MinoTari (WXTM)
Tari 是一個以數字資產爲核心的區塊鏈協議,由 Rust 構建,致力於爲創作者提供設計全新數字體驗的平台。
通過 Tari,數字稀缺資產(如收藏品、遊戲資產等)將成爲創作者拓展商業價值的新方式。
🎨 活動時間:
2025年8月7日 17:00 - 8月12日 24:00(UTC+8)
📌 參與方式:
在 Gate廣場發布與 WXTM 或相關活動(充值 / 交易 / CandyDrop)相關的原創內容
內容不少於 100 字,形式不限(觀點分析、教程分享、圖文創意等)
添加標籤: #WXTM创作大赛# 和 #WXTM#
附本人活動截圖(如充值記錄、交易頁面或 CandyDrop 報名圖)
🏆 獎勵設置(共計 70,000 枚 WXTM):
一等獎(1名):20,000 枚 WXTM
二等獎(3名):10,000 枚 WXTM
三等獎(10名):2,000 枚 WXTM
📋 評選標準:
內容質量(主題相關、邏輯清晰、有深度)
用戶互動熱度(點讚、評論)
附帶參與截圖者優先
📄 活動說明:
內容必須原創,禁止抄襲和小號刷量行爲
獲獎用戶需完成 Gate廣場實名
比ChatGPT 大5 倍!英特爾官宣1 萬億參數AI 大模型,計劃2024 年完成
整理| 鄭麗媛
上市|CSDN(ID:CSDNnews)
眼看著ChatGPT 持續爆火了幾個月,期間微軟、谷歌、Meta 等科技巨頭接連入局,如今英特爾也終於官宣“參賽”。
上週末,在德國漢堡舉行的國際超級計算大會(ISC) 高性能會議(HPC)上,英特爾不僅展示了其在HPC 和AI 工作負載方面的領先性能,還宣布了一項出人意料的計劃:與阿貢國家實驗室攜手,用Aurora 超級計算機開發生成式AI 模型Aurora genAI,參數量將多達1 萬億!
要知道,ChatGPT 的參數規模僅為1750 億,即Aurora genAI 模型將比它至少大5 倍。
AI 模型將由Aurora 超算提供算力
據了解,英特爾Aurora genAI 模型將以兩個框架為基礎:NVIDIA 的Megatron 和微軟的DeepSpeed。
▶ Megatron:用於分佈式訓練大規模語言模型的架構,專門針對Transformer 進行了優化,不僅支持傳統分佈式訓練的數據並行,也支持模型並行。
▶ DeepSpeed:專注於優化大型深度學習模型的訓練,通過提高規模、速度、成本和可用性,釋放了訓練1000 億參數模型的能力,極大促進大型模型的訓練。
除了這兩個框架,Aurora genAI 模型還將由Aurora 超級計算機來提供算力——這台英特爾為阿貢國家實驗室設計的超級計算機,在經歷了各種推遲後,如今終於成型了。
根據目前公開的資料顯示,Aurora 超級計算機由英特爾Xeon CPU Max 和Xeon GPU Max 系列芯片提供支持,總共有10624 個節點,擁有63744 個Ponte Vecchio GPU、21248 個Sapphire Rapids 至強CPU、1024 個分佈式異步對象存儲(DAOS) 存儲節點以及10.9 PB 的DDR5 傲騰持久內存。
值得一提的是,與最初的1 Exaflop 目標相比,預計Aurora 超級計算機在今年推出時,將提供超過2 Exaflops 的雙精度浮點計算性能——比目前多次蟬聯全球超算Top500 榜首的Frontier 超級計算機(1.194 Exaflop/s)還要高。
以科學為重點的生成式AI 模型
有了算力強悍的Aurora 超算打底,注定Aurora genAI 模型的規模不會小。據英特爾官方介紹,阿貢國家實驗室正在為Aurora genAI 模型牽頭開展國際合作。
阿貢副實驗室主任Rick Stevens 表示:“該項目旨在利用Aurora 超級計算機的全部潛力,以產生一種資源,可用於能源部實驗室的下游科學,並與其他機構合作。”
總體而言,Aurora genAI 是一個以科學為重點的生成式AI 模型,因此將在通用文本、代碼、科學文本以及生物學、化學、材料科學、物理學、醫學等科學數據上進行訓練。
由此產生的AI 模型,將具有多達1 萬億個參數,包括從分子和材料的設計到數百萬個來源的綜合知識,可用於各種科學應用:系統生物學、癌症研究、氣候科學、宇宙學研究、高分子化學與材料等。除了科學之外,Aurora genAI 模型還可能用於其他領域,如金融建模、自然語言處理、機器翻譯、圖像識別和語音識別等。
計劃2024 年完成
除此之外,有關Aurora genAI 模型的更多信息英特爾尚未劇透,不過據外媒報導,英特爾計劃在2024 年開發和完成Aurora genAI 模型——如果進展順利,或許我們等待的時間並不會太久。
這一消息的發布,引來了不少人的關注,而英特爾入局AI 大模型即宣布1 萬億參數起步,更是令人期待未來GPT-4 等競品的發展:
▶ “萬億參數應該是一個特殊的極限,但你也可以持懷疑態度,說這只是一個需要關注的巨大整數。毫無疑問,如果此模型類似於GPT-4,這將增加一個數據點。但隨著各大公司宣布這個又宣布那個,我想知道我們是否會在6 月達到頂峰。”
▶ “人們正在使用H100 構建新系統,並且已經有明顯更好的AI GPU 了,如果這種情況繼續下去,NVIDIA 可能需要盡快宣布新卡以保持領先地位。”
▶ “我猜GPT-4 很快就不會在許多基準測試中繼續保持SOTA(state of the art,指在特定任務中目前表現最好的方法或模型)了,或許未來它也將在世界上最快的超級計算機上進行訓練。作為參考,OpenAI 超級計算機擁有大約10000 個GPU,而Aurora 有63744 個GPU。”
參考鏈接: