?通義千問推出千億級參數(shù)模型并宣布開源

4月29日,通義千問宣布首次推出千億級參數(shù)模型Qwen1.5-110B,在多項(xiàng)基準(zhǔn)測評中都創(chuàng)下當(dāng)前開源模型優(yōu)異成績。目前Qwen1.5系列已累計(jì)開源10款大模型,通義千問開源模型下載量超過700萬。

圖1.png

通義千問1100億參數(shù)模型延續(xù)了Qwen1.5系列的Transformer解碼器架構(gòu),采用了分組查詢注意力方法(GQA),使得模型在推理時(shí)更加高效。110B模型支持32K上下文長度,具備優(yōu)秀的多語言能力,支持中、英、法、德、西、俄、日、韓、越、阿拉伯等多種語言。

Qwen1.5-110B在MMLU、TheoremQA、GPQA等多個(gè)基準(zhǔn)測評中展現(xiàn)出卓越性能,基礎(chǔ)能力可與Meta剛剛發(fā)布的Llama-3-70B模型相媲美,相比通義千問720億參數(shù)開源模型也有明顯提升。研發(fā)團(tuán)隊(duì)指出,Qwen1.5-110B的預(yù)訓(xùn)練方法與同系列其他模型并無明顯差異,性能提升主要來自于參數(shù)規(guī)模的擴(kuò)增。

研發(fā)團(tuán)隊(duì)還在MT-Bench和AlpacaEval 2.0兩個(gè)測評集上對1100億參數(shù)模型的Chat版本作了評估,通義千問110B比通義千問72B的效果有顯著提升。

圖2.png

今年2月初,通義千問團(tuán)隊(duì)推出最新開源模型系列Qwen1.5,隨后在不到3個(gè)月的時(shí)間連續(xù)開出8款大語言模型,模型參數(shù)規(guī)模涵蓋5億、18億、40億、70億、140億、320億、720億、1100億;Qwen1.5系列還推出了一款基于LLM開發(fā)的代碼模型CodeQwen1.5-7B和一款混合專家模型Qwen1.5-MoE-A2.7B,均在開源社區(qū)收獲熱烈反響。

開發(fā)者可在魔搭社區(qū)ModelScope和HuggingFace等開源社區(qū)下載使用Qwen1.5-110B。據(jù)悉,目前通義千問開源模型下載量超過700萬,是最受開發(fā)者歡迎的開源大模型之一。

通義大模型的落地應(yīng)用也開啟了加速度,近期,新東方、同程旅行、長安汽車、西部機(jī)場集團(tuán)、親寶寶等多家企業(yè)宣布接入通義大模型。通義大模型開始“上天入地”支持千行百業(yè),比如,中國科學(xué)院國家天文臺人工智能組基于通義千問開源模型開發(fā)了新一代天文大模型“星語3.0”,大模型首次應(yīng)用于天文觀測領(lǐng)域;陜煤建新煤礦等十余座礦山推出由通義大模型支持的新型礦山重大風(fēng)險(xiǎn)識別處置系統(tǒng),這是大模型在礦山場景的首次規(guī)?;涞?。

編輯:孫冰

頂部