- Groqが6億4000万ドルの資金調達を実施
- Groqの評価額は28億ドルに達する
- 次世代言語処理ユニット(LPU)の開発を加速
- NVIDIAとの競争を強化
AIレースがますます激化する中、AIチップスタートアップGroqが6億4000万ドルの資金調達を完了しました。
今回の資金調達はBlackRockが主導し、Cisco、Samsung Catalyst Fund、Neuberger Berman、KDDI、Type One Venturesも参加しました。
この投資により同社の評価額は28億ドルに達し、2021年4月時点の評価額の2倍以上となりました。
Groqはこの資金を活用して、次世代の言語処理ユニット(LPU)の開発と容量の急速な拡大を目指します。
同社CEOのJonathan Rossは「AIの進展には推論コンピューティングが不可欠」と述べ、誰でも最新のAI製品を創出できるようにすることを目指しています。
GroqのLPUsは現在のGenAIモデル、例えばGPT-4を従来の10分の1のエネルギー消費で10倍の速度で動作させることができるとされます。
MetaのリリースしたLlama 2で1ユーザーあたり毎秒300トークンという大規模言語モデル性能記録を樹立したことも報告されています。
特にチップの供給不足に対して、GroqはNVIDIAとは異なり、長期間の納期がかかるコンポーネントに依存しないという強みを持ちます。
現在、AIチップ業界は政府の監視強化が進んでおり、Groqの効率的な供給チェーンと最適化されたLPUアーキテクチャが同社の市場地位を強化すると見られます。
2025年第一四半期末までに約10万8000個のLPUをGroqCloudに展開する計画です。
これにより、開発者は人気のLLMを用いてAIアプリケーションを簡単に構築・展開できるようになります。
AI産業がトレーニングからデプロイメントへと焦点をシフトする中、より高速な推論能力が企業の競争優位性にとって非常に重要です。
AIチップ産業は2024年に210億ドル規模に達すると予測されており、競争がさらに激化することが予想されます。
えっと、それってどういうこと?
GroqのLPUって何がすごいの?
このニュースのメリットって何なの?
GroqのLPUは、従来よりエネルギー効率が良く、高速なAI処理が可能です。この技術により、AIアプリの開発と展開が簡単に行える点がメリットです。
まず、Groqが6億4000万ドルの資金調達を行った背景ですが、
この資金は新しい言語処理ユニット(LPU)の開発を加速させるためです。
これにより、Groqの評価額は28億ドルに達しました。
このLPUは、現在のAIモデルを格段に効率よく動作させることができ、
具体的にはエネルギー消費を大幅に削減し、速度を向上させる特性があります。
特にNVIDIAとの比較で、長期的な供給面でも優れたアプローチを採用しているため、
競争を強化している点が注目されます。
また、Groqは2025年第一四半期末までに10万8000個のLPUをGroqCloudに展開予定で、
これにより開発者が人気の大規模言語モデルを活用して
AIアプリケーションを容易に構築・展開可能となる見込みです。
総じて、AI推論能力の重要性が高まる中で、Groqはその市場地位を強化しつつあります。
AIチップ産業がさらに重要な役割を果たす展望も見据えているんですよ。