弊誌はアフィリエイト広告を利用しています。

インド国産の主権AI「Sarvam 105B」登場。1050億パラメータ、インド22言語に対応

 パラメータ6分の1でDeepSeek超え?

 インドのAIスタートアップSarvam AIが、1050億パラメータの大規模言語モデル「Sarvam 105B」を発表しました。2026年2月18日、ニューデリーで開催中の「India AI Impact Summit 2026」にて共同創業者のPratyush Kumar氏が披露したもので、TechCrunchなどが伝えています。

 Sarvam 105BはMixture-of-Experts(MoE)アーキテクチャを採用しており、推論時にトークンあたり9B(90億)のパラメータだけを有効化する仕組みだそうです。コンテキスト長は12万8000トークンです。Sarvamはインドの22言語への対応もうたっています。同社のHarveen Singh Chadha氏(LLMリサーチャー)はSNSで「既存のオープンソースモデルのファインチューニングではなく、基盤モデルをゼロから訓練した」と強調したとのことです。

 MoE(Mixture-of-Experts)とは、ざっくり言うと「巨大なモデルの中に専門家チームがたくさんいて、入力に応じて必要なメンバーだけが動く」ような仕組みのことです。全パラメータが毎回稼働するわけではないので、モデルの総パラメータ数が巨大でも実際の計算コストは抑えられるのがポイントです。

 あわせて発表した「Sarvam 30B」は300億パラメータのモデルで、こちらもMoEを採用しています。トークンあたり1B(10億)の非埋め込みパラメータのみを有効化し、効率を高めるといいます。コンテキスト長は3万2000トークンで、リアルタイムの会話AIや高スループットな用途を想定した構成だそうです。こうした仕組みがフィーチャーフォンのような比較的シンプルな端末にもAIを届ける可能性もありそうです。

  Sarvam 105B Sarvam 30B
総パラメータ数 1050億 300億
アーキテクチャ MoE(Mixture-of-Experts) MoE(Mixture-of-Experts)
アクティブパラメータ 9B/トークン(非埋め込み) 1B/トークン(非埋め込み)
コンテキスト長 12万8000トークン 3万2000トークン
語彙数 未公表 未公表
対応言語 インドの22言語(報道では「22の公式言語」) インド言語に対応(詳細は未公表)
公開形態 オープンウェイト(予定) オープンウェイト(予定)

 Sarvam AIは、105Bモデルが推論や多言語のベンチマークで中国DeepSeekの「DeepSeek-R1」を上回るスコアを記録したと主張しています。DeepSeek-R1は総パラメータ6710億(アクティブ370億)のMoEモデルで、Sarvam 105Bはパラメータ規模で見ると約6分の1にあたります。ただし現時点でこの比較は主に同社側の発表に基づくもので、研究コミュニティによる独立した検証はこれからだといいます。

 訓練にはインド政府の「IndiaAI Mission」が割り当てた計算資源を活用し、データセンター事業者YottaのインフラとNVIDIAの技術支援を受けたと各メディアが伝えています。NVIDIA H100 SXM GPUを4096基確保し、政府が補助金として約99 croreルピーを拠出したそうです。Sarvam AIは両モデルをオープンウェイトとしてHugging Faceで公開する方針で、APIアクセスやダッシュボード対応も追って提供するとしています。

 Sarvam AIはバンガロール拠点のスタートアップで、Vivek Raghavan氏とPratyush Kumar氏が共同で設立しました。資金調達額についてTechCrunchは累計4000万ドル超、Business Standardは5000万ドル超と伝えており、企業評価額は約2億ドルに達するとのことです。

 インドは米中のAIモデルへの依存を減らすべく、国産の「主権AI(Sovereign AI)」基盤の整備を国策として進めています。Sarvam 105Bは政府支援の計算基盤で訓練した国内モデルの一例で、22のインド言語やヒングリッシュのようなコードミックス表現への最適化を通じ、国際LLMとの差別化を図る狙いがあるようです。

すまほん!!を購読しませんか?

Twitterでも最新更新を配信・通知しています

フォローする 再度表示しない