- アブダビの技術革新研究所(TII)が開発した「Falcon」大規模言語モデル(LLM)が、業界をリードする複数のモデルを発表。
- 「Falcon 180B」は業界屈指の大型LLMで、3.5兆のトークンから学習。
- 新シリーズ「Falcon 2」は多言語対応と画像入力をテキスト化可能なVLMモデルを含む。
- オープンソースでのリリースを通じ、世界中の開発者へのアクセスが無制限に。
アブダビの技術革新研究所が、多様な能力を持つ大規模言語モデル「Falcon」ファミリーを披露しました。
目玉の一つである「Falcon 180B」は、1800億個のパラメータを持ち、多大なデータセットである3.5兆のトークンでトレーニングされています。
一方、「Falcon 40B」は約1兆のトークンで、計算やメモリに制約を持つユーザー向けで、過学習のリスクを避けます。
さらに、指示に従順な「Instruct」モデルは、チャットボットなどインタラクティブな応用に最適です。
新シリーズの「Falcon 2」は、11億のパラメータを搭載し、5.5兆トークンで訓練された効率的かつアクセスしやすいモデルです。
MetaのLlama 3 8BやGoogleのGemma 7Bに匹敵する性能を有します。
多言語対応に加え、「Falcon 2 11B VLM」は視覚情報をテキストに変換する、TII初の多モーダルモデルとして注目されます。
次世代のLLMとして、多モーダル機能の課題に対処します。
加えて、「専門家の混合」といった機能アップデートが予定され、複雑な問題解決への適応力が増します。
このアプローチは、独自の専門知識を持つ小さなネットワーク群が協力することで、精度の高い解を提供します。
最後に、Falcon 2シリーズの大きな変更点は、オープンソースでの公開で、開発者に対して、以前のFalconモデルに見られたライセンス制約がなくなりました。
これにより世界中の開発者が自由にツールへアクセスできるようになります。
オープンソースにするってどんなメリットがあるの?
それに、この大型モデルって何に使えるんだろう?
オープンソースは、誰でも自由に使えて、改良もできるんだよ。そうすることで、開発が進んだり、新しいアイディアが生まれやすくなるんだ。
大型モデルは、自然言語処理で、例えば翻訳や要約、チャットボットなどに使えるよ。画像も理解できるっていうから、ビジュアルな情報を言葉で説明したりもできるんだよ。
アブダビの技術革新研究所が新しいAIモデル「Falcon」を作ったんだ。
「Falcon 180B」っていう大きなモデルは、とてもたくさんのデータで学習してて、凄く賢くなってる。
それより小さい「Falcon 40B」は、もうちょっとコンパクトで、簡単な使い方にいいんだ。
「Falcon 2」シリーズは新しくて、画像も理解できるから、たくさんの言語を扱うことができるよ。
それに、オープンソースというのは、みんなが自由に使ったり改善したりできるってこと。
開発者たちにとって、これはすごく良いニュースで、新しいアイディアで皆が貢献できるってわけ。
これで、AIがもっとたくさんの場所で使われるようになるだろうね。