弊誌はアフィリエイト広告を利用しています。

【朗報】GPT-5同等!?リコーが日本語LLM発表、Llama-3.3-Swallow-70B-v0.4ベース

 リコーは10月10日、推論性能を強化した700億パラメータの日本語大規模言語モデルを発表しました。

 「金融業務特化型LLM」を用意し、有価証券報告書などの公開データで金融ドメイン知識を学習。さらに多段推論(Chain-of-Thoughts)を付加したことで、融資稟議といった専門業務の遂行能力を高めたと説明しています。

 社内評価では、OpenAIのGPT-5など最先端モデルと同等レベルの性能を確認したとしています。 

 同モデルは、Metaの「Llama-3.3-70B-Instruct」を土台に、Institute of Science Tokyo(旧東京工業大学)の岡崎/横田研究室のメンバーを中心とする「Swallow」プロジェクトが日本語向けに高精度化した「Llama-3.3-Swallow-70B-v0.4」を基盤にします。独自のインストラクションチューニングや「Chat Vector」によるモデルマージ、独自カリキュラムを組み合わせて開発。高精度と省リソースを両立、顧客固有情報の追加学習が可能なプライベートLLMとして提供する方針です。 

 金融業から展開し、今後は製造業や医療など他分野への特化モデルも順次開発する計画だとしています。

情報元RICOH
詳しく読む
すまほん!!を購読しませんか?

Twitterでも最新更新を配信・通知しています

フォローする 再度表示しない