リコー、モデルマージによってGPT-4oと同等の高性能な日本語LLM(700億パラメータ)を開発
- 注目AIニュース
- 4月3日
- 読了時間: 1分
リコーが「Llama-3.3-Swallow-70B」をベースに、複数のChat Vectorを独自技術でマージすることで、GPT-4oと同等性能の日本語LLM(700億パラメータ)を開発しました。この新技術により高性能でありながら省コスト・省リソースを実現し、オンプレミス環境での企業向けプライベートLLM導入を加速させることが期待されています。
リコーが「Llama-3.3-Swallow-70B」をベースに、複数のChat Vectorを独自技術でマージすることで、GPT-4oと同等性能の日本語LLM(700億パラメータ)を開発しました。この新技術により高性能でありながら省コスト・省リソースを実現し、オンプレミス環境での企業向けプライベートLLM導入を加速させることが期待されています。
AnthropicはAPI上でClaudeにウェブ検索機能を追加したことを発表しました。この新機能により、開発者はClaudeを活用したアプリケーションやエージェントに最新情報を取り込むことが可能になります。ウェブ検索を有効にすると、Claudeは金融サービス、法律調査、開...
Googleは開発者向けに、Gemini 2.0 Flashモデルによる画像生成・編集機能をプレビュー版として提供開始しました。この新バージョンでは、以前の実験版と比較して視覚的品質の向上、テキストレンダリングの精度向上、フィルターブロック率の大幅な低減といった改善が施され...
https://openai.com/global-affairs/openai-for-countries
Comments