アリババのフラッグシップLLM。18兆トークンで事前学習され、Llama-3-405Bと同等の性能(サイズは1/5)を実現し、知識、推論、数学、コーディングのベンチマークで優れた性能を発揮。
アリババのコード専用モデル。5.5兆トークンでトレーニングされ92のプログラミング言語をサポート。HumanEvalで85%を達成し、コード修復でGPT-4oと同等の性能。
アリババの推論モデル。32BパラメータのみでDeepSeek-R1(671B)と同等の性能を実現し、AIME/MATHテストでOpenAI o1-previewを上回り、VRAM要件はわずか24GB。