Llama 3發(fā)布剛幾天,微軟就出手截胡了?
剛剛發(fā)布的Phi-3系列小模型技術(shù)報(bào)告,引起AI圈熱議。
其中僅3.8B參數(shù)的Phi-3-mini在多項(xiàng)基準(zhǔn)測(cè)試中超過了Llama 3 8B。
為了方便開源社區(qū)使用,還特意設(shè)計(jì)成了與Llama系列兼容的結(jié)構(gòu)。
微軟這次打出“手機(jī)就能直接跑的小模型”的旗號(hào),4bit量化后的phi-3-mini在iPhone 14 pro和iPhone 15使用的蘋果A16芯片上跑到每秒12 token。
這意味著,現(xiàn)在手機(jī)上能本地運(yùn)行的最佳開源模型,已經(jīng)做到ChatGPT水平。
在技術(shù)報(bào)告中還玩了一把花活,讓phi-3-mini自己解釋為什么構(gòu)建小到手機(jī)能跑的模型很令人驚嘆。
除了mini杯之外,小杯中杯也一并發(fā)布:
Phi-3-small,7B參數(shù),為支持多語言換用了tiktoken分詞器,并額外增加10%多語種數(shù)據(jù)。
Phi-3-medium,14B參數(shù),在更多數(shù)據(jù)上訓(xùn)練,多數(shù)測(cè)試中已超越GPT-3.5和Mixtral 8x7b MoE。
(大杯他們目前不打算做)
作者陣容一看也不簡(jiǎn)單,一眼掃過去MSRA和MSR雷蒙德團(tuán)隊(duì)都投入了不少人。
那么,Phi-3系列到底有什么獨(dú)特之處呢?
根據(jù)技術(shù)報(bào)告中披露,其核心秘訣就在于數(shù)據(jù)。
去年團(tuán)隊(duì)就發(fā)現(xiàn),單純堆砌參數(shù)量并不是提升模型性能的唯一路徑。
反而是精心設(shè)計(jì)訓(xùn)練數(shù)據(jù),尤其是利用大語言模型本身去生成合成數(shù)據(jù),配合嚴(yán)格過濾的高質(zhì)量數(shù)據(jù),反而能讓中小模型的能力大幅躍升。
也就是訓(xùn)練階段只接觸教科書級(jí)別的高質(zhì)量數(shù)據(jù),Textbooks are all you need。
Phi-3也延續(xù)了這一思路,這次他們更是下了血本:
- 投喂了多達(dá)3.3萬億token的訓(xùn)練數(shù)據(jù)(medium中杯是4.8萬億)
- 大幅強(qiáng)化了數(shù)據(jù)的”教育水平”過濾
- 更多樣化的合成數(shù)據(jù),涵蓋邏輯推理、知識(shí)問答等多種技能
- 獨(dú)特的指令微調(diào)和RLHF訓(xùn)練,大幅提升對(duì)話和安全性
舉個(gè)例子,比如某一天足球比賽的結(jié)果可能對(duì)于大模型是良好的訓(xùn)練數(shù)據(jù),但微軟團(tuán)隊(duì)刪除了這些加強(qiáng)知識(shí)的數(shù)據(jù),留下更多能提高模型推理能力的數(shù)據(jù)。
這樣一來,對(duì)比Llama-2系列,就可以用更小的參數(shù)獲得更高的MMLU測(cè)試分?jǐn)?shù)了。