楽天グループは3月17日、日本語に最適化した大規模言語モデル(LLM)「Rakuten AI 3.0」の提供を開始した。
「Rakuten AI」は、経済産業省および国立研究開発法人新エネルギー・産業技術総合開発機構(NEDO)が推進する生成AI開発プロジェクト「GENIAC(Generative AI Accelerator Challenge)」の一環として開発されたもの。日本語生成AIの開発力強化を目的としている。
「Rakuten AI 3.0」は、日本語に特化した大規模言語モデルで、約7000億パラメータ規模のMixture of Experts(MoE)アーキテクチャを採用している。各トークン処理時には約400億パラメータのみをアクティブ化する仕組みを採用することで、計算効率と性能の両立を図っている。日本語の文化的知識や推論能力、数学、コーディングなどを評価するベンチマーク「Japanese MT-Bench」では8.88のスコアを記録し、同条件での比較ではGPT-4oなどを上回る結果となったという。
「Rakuten AI 3.0」は、オープンモデルとしてApache License 2.0の下で公開され、開発者や企業が自由に利用・改変できる形で提供される。
プレスリリース
「Rakuten AI」は、経済産業省および国立研究開発法人新エネルギー・産業技術総合開発機構(NEDO)が推進する生成AI開発プロジェクト「GENIAC(Generative AI Accelerator Challenge)」の一環として開発されたもの。日本語生成AIの開発力強化を目的としている。
「Rakuten AI 3.0」は、日本語に特化した大規模言語モデルで、約7000億パラメータ規模のMixture of Experts(MoE)アーキテクチャを採用している。各トークン処理時には約400億パラメータのみをアクティブ化する仕組みを採用することで、計算効率と性能の両立を図っている。日本語の文化的知識や推論能力、数学、コーディングなどを評価するベンチマーク「Japanese MT-Bench」では8.88のスコアを記録し、同条件での比較ではGPT-4oなどを上回る結果となったという。
「Rakuten AI 3.0」は、オープンモデルとしてApache License 2.0の下で公開され、開発者や企業が自由に利用・改変できる形で提供される。
(川原 龍人/びぎねっと)
[関連リンク]プレスリリース
