Shisa.AIは2025年12月9日、日本語の性能と効率を大きく向上させた大規模言語モデル(LLM)の新しいシリーズ「Shisa V2.1」を公開しました。
このシリーズは、最高水準と評価された以前の「Shisa V2」モデルから、さらに進化を遂げています。スマートフォンで手軽に動かせる1.2B(12億パラメータ)の小さなモデルから、GPT-4に匹敵する日本語能力を持つ14B、そして70B(700億パラメータ)の大型モデルまで、全部で5つのサイズが用意されています。これにより、さまざまな用途や環境に合わせて最適なモデルを選ぶことが可能になりました。
HuggingFaceでの無料ダウンロードに加え、今回初めてAPIを通じた有料サービスも開始され、より多くの人がShisa V2.1を利用できるようになります。

より小さく、より賢く
Shisa V2.1シリーズは、以前のShisa V2モデルよりも小さなサイズで、より優れた日本語性能を発揮するようになりました。
例えば、Shisa V2.1 14Bモデルは、以前のShisa V2 70Bモデルを超える日本語性能を実現しています。これは、約5分の1以下のサイズで、より速く、少ないメモリで動作することを意味します。また、Shisa V2.1 70Bモデルは、国産LLMとして最高性能とされるShisa V2 405Bモデルに迫る性能を持ちながら、約6分の1のサイズに抑えられています。モデルのパラメータ数が少ないほど、必要なメモリが減り、推論(AIが答えを出す作業)の速度も上がるため、より低コストで、幅広いデバイスや環境で利用できるようになります。
主要モデルの日本語・英語性能の比較は以下の通りです。
| ライセンス | モデル名 | パラメータ数 | 日本語AVG | 英語AVG | JA-MT |
|---|---|---|---|---|---|
| Llama 3.1 | Shisa V2 405B ※ | 405B | 74.7 | 67.5 | 9.43 |
| Llama 3.3 | Shisa V2.1 70B ※ | 70B | 73.1 | 66.0 | 9.26 |
| MIT | Shisa V2.1 14B | 14B | 72.6 | 57.7 | 9.28 |
| Apache 2.0 | Shisa V2.1 8B | 8B | 67.8 | 57.8 | 8.93 |
| Llama 3.2 | Shisa V2.1 3B ※ | 3B | 57.9 | 43.2 | 7.55 |
| LFM | Shisa V2.1 1.2B | 1.2B | 43.4 | 27.6 | 6.69 |
今回の性能向上は、データセットの80%以上を一新し、強化学習(RL)やモデルマージ技術などを取り入れたことで達成されました。これらの結果は、特定のベンチマークテストに特化した学習ではなく、実際の環境での日本語能力の向上を反映しています。
正確な日本語出力を実現
最近では日本語に対応したLLMが増えていますが、海外製はもちろん、日本製モデルでも日本語の出力中に中国語や英語が混ざってしまう「言語漏れ」という現象が見られることがあります。Shisa.AIは、この言語漏れを数値で評価する独自の手法(Cross-Lingual Token Leakage)を開発しました。
Shisa V2.1は、この言語漏れの問題を大幅に改善しています。元のモデルと比較して最大で47.8倍の改善を達成し、他の多くのモデルよりも優れた結果を示しました。言語の混在は、翻訳やカスタマーサポート、文章作成など、日本語を使うアプリケーションにとって大きな問題となるため、この改善は非常に重要です。
| ベースモデル | Shisa V2.1 | ベース漏れ率 | V2.1漏れ率 | 改善倍率 |
|---|---|---|---|---|
| Llama 3.2 3B | Shisa V2.1 3B※ | 11.48% | 0.24% | 47.8× |
| LFM2 1.2B | Shisa V2.1 1.2B | 4.32% | 0.32% | 13.5× |
| Qwen 3 8B | Shisa V2.1 8B | 2.18% | 0.44% | 5.0× |
| Llama 3.3-70B | Shisa V2.1 70B※ | 1.90% | 0.36% | 5.3× |
| Phi 4 14B | Shisa V2.1 14B | 0.12% | 0.06% | 2.0× |
API提供と商用サービスの開始
Shisa V2.1のリリースに合わせて、テキスト、翻訳、音声の各APIも提供が始まりました。これにより、開発者はShisa V2.1の高性能な機能を自分のサービスに組み込むことができます。
また、Shisa V2を基盤とした翻訳サービス「chotto.chat」も公開されており、個人から法人まで、質の高い日英翻訳を手軽に利用できます。高性能な大規模モデルを試すためのコストや環境構築の難しさといった課題に応えるため、OpenRouterでは利用しやすい価格設定と無料枠が提供される予定です。さらに、専用のキャパシティ(計算能力)の確保や、企業内での導入(オンプレミス)、特定の用途に合わせた学習(カスタム学習)といった要望にも対応しています。
Shisa V2モデルは経済産業省のGENIAC国産モデルとして承認されており、計算資源は日本国内でホストされています。これにより、応答速度の速さだけでなく、データの保管場所や国の規制への対応が求められるような利用シーンでも、安心して活用できます。
AMDハードウェアでの学習
Shisa V2.1の学習は、AMD Developer Cloudが提供するAMD MI300X GPUを使って行われました。これは、日本で開発された大型LLMとしては初めてAMDのハードウェアで学習されたモデルとなります。学習効率を高めるための独自の改良も実施され、その成果はオープンソースとして公開されています。
Shisa.AIについて
Shisa.AIは、シリコンバレーの技術チームを中心に設立された次世代AIスタートアップです。「日本語に特化したAI」と「データに基づいた開発」を軸に、オープンソースLLMの発展をリードし、日本発のAIイノベーションを世界に発信することを目指しています。
関連リンク
-
Shisa.AI公式サイト:https://shisa.ai/
-
HuggingFace:https://huggingface.co/shisa-ai

