もっと詳しく

与えられた情報をから文脈などを読み取り、答えを導き出すMM1 Appleは14日、マルチモーダル大規模言語モデル「MM1」に関する論文を公開した。研究を通じて30億、70億、300億パラメータのLLMと、MoE(Mixture-of-Experts)を用いた30億、70億パラメータのモデルによるモデルファミリーを構築しており、既存の同等サイズのモデルを上回る性能を発揮できたとしている。 研究では、 …