📢 Gate廣場 #MBG任务挑战# 發帖贏大獎活動火熱開啓!
想要瓜分1,000枚MBG?現在就來參與,展示你的洞察與實操,成爲MBG推廣達人!
💰️ 本期將評選出20位優質發帖用戶,每人可輕鬆獲得50枚MBG!
如何參與:
1️⃣ 調研MBG項目
對MBG的基本面、社區治理、發展目標、代幣經濟模型等方面進行研究,分享你對項目的深度研究。
2️⃣ 參與並分享真實體驗
參與MBG相關活動(包括CandyDrop、Launchpool或現貨交易),並曬出你的參與截圖、收益圖或實用教程。可以是收益展示、簡明易懂的新手攻略、小竅門,也可以是現貨行情點位分析,內容詳實優先。
3️⃣ 鼓勵帶新互動
如果你的帖子吸引到他人參與活動,或者有好友評論“已參與/已交易”,將大幅提升你的獲獎概率!
MBG熱門活動(帖文需附下列活動連結):
Gate第287期Launchpool:MBG — 質押ETH、MBG即可免費瓜分112,500 MBG,每小時領取獎勵!參與攻略見公告:https://www.gate.com/announcements/article/46230
Gate CandyDrop第55期:CandyDrop x MBG — 通過首次交易、交易MBG、邀請好友註冊交易即可分187,500 MBG!參與攻略見公告:https://www.gate.com/announcements
IT 之家今日發文表示,AI 模型盲堆體積實際上效果並不見得更好,更多要看訓練數據的質量,微軟日前最近發布了一款13 億參數的語言模型phi-1,採用“教科書等級”的高品質資料集訓練而成,據稱“實際效果勝於千億參數的GPT 3.5”。該模型以Transformer 架構為基礎,微軟團隊使用了包括來自網絡的“教科書等級”數據和以GPT-3.5 經過處理的“邏輯嚴密的內容”,以及8 個英偉達A100 GPU,在短短4 天內完成訓練。微軟團隊表示,比起增加模型的參數量,通過提高模型的訓練數據集質量,也許更能強化模型的準確率和效率,於是,他們利用高質量數據訓練出了phi-1 模型。在測試中,phi-1 的分數達到50.6%,比起1750 億參數的GPT-3.5(47%)還要好。微軟還表示,phi-1 接下來會在HuggingFace 中開源,而這不是微軟第一次開發小型LLM,此前,他們打造一款130 億參數的Orca,使用了GPT-4 合成的數據訓練而成,表現也同樣比ChatGPT 更好。