もっと詳しく

ELYZAは、商用利用可能な130億パラメータの日本語LLM「ELYZA-japanese-Llama-2-13b」を開発し、一般公開した。 ELYZA-japanese-Llama-2-13bは、Metaの「Llama-2-13b-chat」に対して、約180億トークンの日本語テキストで追加事前学習を行ったモデル。学習に用いたのは、OSCARやWikipediaなどに含まれる日本語テキストデータ …