もっと詳しく

中国のAI企業「DeepSeek(深度求索)」は5月6日、最新の「Mixture-of-Experts(MoE)」アーキテクチャを採用し、効率的な学習と推論を実現する大規模言語モデル「DeepSeek-V2」を発表した。 パラメーター数を減らすことによって高速な推論を実現 Mixture-of-Experts(MoE) 「DeepSeek-V2」は、8.1兆個のトークンで構成される高品質なコーパス …