
その価格、Claude Opusの5分の1以下!
中国のAI企業Z.ai(智谱AI/Zhipu AI)が2月11日(現地時間)、大規模言語モデル「GLM-5」をMITライセンスで公開しました。
総パラメータ7440億のMixture-of-Experts(MoE)構成で、コーディングやエージェント系ベンチマークではAnthropic「Claude Opus 4.5」に迫るスコアを記録したとのことです(同社モデルカード等に基づく自己報告値)。
Mixture-of-Experts(MoE)とは、ざっくり言うと「専門家チーム制」のAIモデルのことです。パラメータ全体は7440億と巨大ですが、1回の処理で動くのは特定の「専門家」だけ(GLM-5では400億パラメータ分)。大人数のチームを抱えつつ、案件ごとに担当者だけ稼働させるイメージで、性能と計算コストのバランスを取る仕組み。
API利用料金は、Z.aiの開発者ドキュメントによると入力100万トークンあたり1ドル、出力100万トークンあたり3.2ドルです。Anthropicが公表しているClaude Opus 4.6(入力100万トークンあたり5ドル・出力100万トークンあたり25ドル)と比べると、入力は約5分の1、出力は約8分の1にとどまります。
GLM-5はGLM-4.5比でパラメータ規模を3550億から7440億へ拡大(うち稼働パラメータは400億)し、学習トークン数も23兆から28.5兆に増やしたとしています。長文性能と計算効率を両立するため、DeepSeek Sparse Attention(DSA)を導入したとのことです。ポストトレーニングでは非同期強化学習を大規模に回すインフラ「slime」を用いたといいます。
主要ベンチマークでは、SWE-bench Verifiedが77.8%、BrowseCompが62.0といったスコアを出したとしています。BrowseCompではClaude Opus 4.5(37.0)やGemini 3 Pro(37.8)を上回る一方、SWE-bench Verifiedなどコーディング系では自己報告スコア上Claudeが優勢な項目もあるようです。比較の一部は以下のとおりです。
| ベンチマーク | GLM-5 | Claude Opus 4.5 | GPT-5.2 (xhigh) | Gemini 3 Pro |
|---|---|---|---|---|
| SWE-bench Verified | 77.8% | 80.9% | 80.0% | 76.2% |
| AIME 2026 I | 92.7 | 93.3 | – | 90.6 |
| GPQA-Diamond | 86.0 | 87.0 | 92.4 | 91.9 |
| BrowseComp | 62.0 | 37.0 | – | 37.8 |
| τ²-Bench | 89.7 | 91.6 | 85.5 | 90.7 |
| Terminal-Bench 2.0(Terminus 2) | 56.2 / 60.7† | 59.3 | 54.0 | 54.2 |
Z.aiはGLM-5を「Vibe CodingからAgentic Engineeringへ」と位置づけ、コード断片の生成にとどまらず、複雑なシステム構築や長期間のタスク連鎖を自律的にこなす能力を重視したとしています。同社はAgent Modeで.docxや.pdf、.xlsxといった「成果物ファイル」を直接生成する機能も備えるとのことです。
Reutersによれば、GLM-5の推論(inference)はHuaweiのAscendなど国内製チップで動かす前提で開発したとのことです。技術報告でも、Huawei Ascendを含む複数の中国チップ・プラットフォームに対し、カーネルから推論フレームワークまで最適化したと述べています。
なかなか強力なモデルが出てきてくれました。GLM-5は「オープンソース最強」で、コスパは圧倒的にGLM-5が上です。ただしエージェント性能(GDPval-AA)やコーディングの最高峰ではOpus 4.6が依然リードしている状況ですね。




















