top of page

リコー、モデルマージによってGPT-4oと同等の高性能な日本語LLM(700億パラメータ)を開発

リコーが「Llama-3.3-Swallow-70B」をベースに、複数のChat Vectorを独自技術でマージすることで、GPT-4oと同等性能の日本語LLM(700億パラメータ)を開発しました。この新技術により高性能でありながら省コスト・省リソースを実現し、オンプレミス環境での企業向けプライベートLLM導入を加速させることが期待されています。


最新記事

すべて表示
GoogleがGemini 2.0 Flashの画像生成機能をアップデート

Googleは開発者向けに、Gemini 2.0 Flashモデルによる画像生成・編集機能をプレビュー版として提供開始しました。この新バージョンでは、以前の実験版と比較して視覚的品質の向上、テキストレンダリングの精度向上、フィルターブロック率の大幅な低減といった改善が施され...

 
 
 

Comments


bottom of page