挑戰(zhàn)中國大模型?韓國推出首款開源AI推理模型——EXAONE Deep
瀟湘 / 2025-03-19 17:3359440自從深度求索發(fā)布DeepSeek開源大模型以來,開源這一股風就席卷了全球,就連曾經(jīng)一直高叫著“開源其實是一種智商稅”的百度CEO李彥宏,也在DeepSeek爆火之后坦言“DeepSeek讓我們明白要將最優(yōu)秀的模型開源。”最近,開源這股風刮到了韓國。

昨日,LG旗下的人工智能研究中心“LG AI Research”宣布推出韓國首個開源AI推理模型——EXAONE Deep,其團隊宣傳其擅長數(shù)學和代碼編程。值得一提是,EXAONE Deep“滿血版”的體積十分小巧,僅有320億參數(shù)(32B),而DeepSeek-R1“滿血版”則擁有6710億參數(shù)(671B),此外EXAONE Deep還擁有兩個輕量化模型,分別為EXAONE Deep-7.8B、EXAONE Deep-2.4B。
雖然參數(shù)少,但是膽子大啊。開發(fā)團隊進行了多項測試,依據(jù)測試結(jié)果宣稱EXAONE Deep擁有3大顯著優(yōu)勢:
1、EXAONE Deep-2.4B優(yōu)于同等規(guī)模的其他模型。2、EXAONE Deep-7.8B不僅優(yōu)于同等規(guī)模的開放權重模型,還優(yōu)于專有推理模型OpenAI o1-mini。3、EXAONE Deep-32B表現(xiàn)出與領先的開源模型相比的性能。

在第一組測試中,EXAONE Deep-32B對比了深度求索開發(fā)的DeepSeek-R1 (671B)、DeepSeek-R1-70B、DeepSeek-R1- 32B以及阿里最新開發(fā)的QwQ-32B。
測試結(jié)果顯示,EXAONE Deep-32B的數(shù)學推理能力較強,在AIME 2024/2025(美國數(shù)學邀請賽)中和其他模型不相上下,在CSAT Math 2025(韓國大學修學能力考試)中,甚至超過了DeepSeek-R1“滿血版”,不過在GPQA Diamond(跨學科博士級測試鉆石組)和LiveCodeBench編程測試中則要明顯弱于DeepSeek-R1“滿血版”。
在第二組測試中,開發(fā)團隊使用的是7.8B參數(shù)的小模型,同步對比了DeepSeek-R1-7B和8B,也加入了OpenAI-o1-mini模型,結(jié)果顯示EXAONE Deep-7.8B均勝過參數(shù)量相近的其他模型。

目前EXAONE Deep已經(jīng)正式發(fā)布,可通過Ollama之類的框架工具進行部署,因為體積較小,大家可以本地部署實測一下。
挑戰(zhàn)中國大模型?韓國推出首款開源AI推理模型——EXAONE Deep














滬公網(wǎng)安備 31010702005758號
發(fā)表評論注冊|登錄