弊誌はアフィリエイト広告を利用しています。

NVIDIAが日本語特化の9Bモデル「NVIDIA Nemotron-Nano-9B-v2-Japanese」を公開

 NVIDIAは2026年2月17日、日本語に特化した90億(9B)パラメータの言語モデル「NVIDIA Nemotron-Nano-9B-v2-Japanese」をHugging Face上で公開したそうです。ライセンスは「NVIDIA Nemotron Open Model License(Agreement)」で、商用利用も可能です。

 同モデルは、NVIDIAが2025年8月18日に公開した「NVIDIA-Nemotron-Nano-9B-v2」をベースに、日本語データセット「Nemotron-Personas-Japan」などで継続事前学習とSFT(教師ありファインチューニング)を施したものだといいます。開発期間は2025年6月から2026年1月で、事前学習データのカットオフは2024年9月です。

 推論タスクと非推論タスクの両方をこなす汎用モデルで、AIエージェントやチャットボット、RAGシステムの開発に向くとのこと。

 アーキテクチャには、Mamba-2とMLP層を主体にAttention層を4層だけ組み合わせたMamba2-Transformerハイブリッド構造(ネットワークアーキテクチャは「Nemotron-Hybrid」)を採用しています。Transformerのみに依存しない仕組みのため、同サイズのオープンソース代替モデルと比べて最大6倍のスループット向上が見込めるとのことです。コンテキスト長は最大128K(13万1072トークン)で、日本語と英語に対応します。

 日本語能力の強化にあたり、NVIDIAはWikipedia、fineweb-2 Japanese、aozorabunkoなどの日本語オープンソースコーパスで継続事前学習を実施したそうです。日本のLLM評価プラットフォーム「Nejumi LLM Leaderboard 4」では、10B以下のカテゴリで1位を獲得しています。

詳しく読む
すまほん!!を購読しませんか?

Twitterでも最新更新を配信・通知しています

フォローする 再度表示しない