リコーが自社サーバーに導入できる高性能な日本語AIを開発
株式会社リコーは、企業が自社のサーバーに直接導入できる(オンプレミス)高性能な日本語の大規模言語モデル(LLM)を開発しました。この新しいAIは、Googleが提供するオープンモデル「Gemma 3 27B」をベースにしており、特に社内環境での利用に最適化されています。

リコー独自の技術で高い性能と使いやすさを実現
このLLMは、リコー独自の「モデルマージ」技術を使って開発されました。モデルマージとは、複数の学習済みAIモデルを組み合わせて、より高性能なモデルを作り出す新しい方法です。これにより、大規模な計算資源がなくても手軽にモデル開発ができるため、近年注目されています。
リコーは、独自に開発した約1万5千件ものデータでAIに追加学習(インストラクションチューニング)を行い、AIが指示に沿って会話する能力を高める「Chat Vector」という技術を複数開発。これらを「Gemma 3 27B」に独自の技術で組み込むことで、ベースモデルから大幅な性能向上を実現しています。
このモデルは、コンパクトな270億パラメータというサイズでありながら、高い性能を誇ります。一般的なパソコン製品と同じ技術を使ったサーバー(PCサーバー)でも導入できるため、低コストで企業独自のAIを導入することが可能です。また、AIの電力消費による環境負荷が課題となる中で、コンパクトで高性能なこのLLMは、省エネルギーや環境負荷の低減にも貢献します。
最先端のAIモデルと同等の性能を確認
同規模のAIモデルとの性能比較では、米OpenAIのオープンモデル「gpt-oss-20b」をはじめとする最先端の高性能モデルと同等の性能が確認されています。

具体的には、複雑な指示やタスクを含む日本語ベンチマーク「ELYZA-tasks-100」や、日本語のマルチターン対話能力を評価する「Japanese MT-Bench」で評価が行われ、リコーが開発したLLMは非常に高いスコアを示しました。
さらに、このモデルは、ユーザーがAIに質問や指示を入力してから最初の言葉を生成し始めるまでの時間(初期応答性、TTFT)が速い「非推論モデル」の特長を活かし、素早い応答を実現。同時に、高い文章作成能力も兼ね備えているため、ビジネスでの幅広い活用が期待されます。
エフサステクノロジーズとの連携と充実したサポート
リコーの新しいLLMは、お客様の要望に応じて個別提供されるほか、2025年12月下旬からは、エフサステクノロジーズ株式会社が提供する、企業内で使える対話型生成AI基盤「Private AI Platform on PRIMERGY(Very Small モデル)」に搭載されて提供が開始されます。
この基盤には、リコーのLLMの量子化モデル(よりコンパクトにしたモデル)と、生成AIアプリケーションを簡単に作れるプラットフォーム「Dify(ディフィ)」がプリインストールされています。これにより、お客様はプログラミングの知識がなくても、自社の業務に合わせたAIアプリケーションを開発できます。
さらに、リコージャパン株式会社が提供する「Dify支援サービス」によるサポートも受けられるため、社内にAIの専門家がいなくても安心して生成AIの活用を始めることができます。
エフサステクノロジーズ株式会社の保田 益男 代表取締役社長 CEOは、「リコーの高性能LLMと弊社のAI基盤を組み合わせることで、多くのお客様にオンプレミスAIソリューションを提供できることを大変嬉しく思います」とコメントしています。
また、株式会社リコー リコーデジタルサービスBU AIサービス事業本部 本部長の梅津 良昭氏は、「Googleの先進的な基盤モデルGemma 3 27Bをもとに、オンプレミス導入に最適な日本語LLMを開発しました。3社の技術と強みが結集した本製品で、お客様の課題解決に貢献できることを確信しています」と述べています。
今後の展望とリコーのAI開発
リコーは今後、AIが論理的に考えて答えを導き出す能力(推論性能)の向上や、特定の業種に特化したモデルの開発を進める予定です。また、リコーが得意とする画像認識などの複数の種類の情報を扱える能力(マルチモーダル性能)と組み合わせることで、AIラインアップをさらに強化していくとしています。
リコーは1980年代からAI開発に着手し、画像認識や自然言語処理の分野で実績を重ねてきました。2023年3月には独自のLLMを発表するなど、お客様のニーズに合わせたAI基盤の開発に取り組んでいます。
リコーのAI開発に関する詳細情報は、以下のリンクから確認できます。
今回の新しいLLMは、企業がデジタルトランスフォーメーション(DX)を進める上で、大きな力となるでしょう。

