米OpenAIは5月13日、新しいフラッグシップモデルとして「GPT-4o」を発表した。新モデルは、テキスト、音声、画像を組み合わせを入力として認識し、同じくテキスト、音声、画像の任意の組み合わせを出力する。音声入力に対しては最短232ミリ秒、平均320ミリ秒で応答可能で、これは人間が会話で反応する時間と同じだという。 GPT-4oは、英語とコードのテキストに対するGPT-4 Turboのパフォー …
米OpenAIは5月13日、新しいフラッグシップモデルとして「GPT-4o」を発表した。新モデルは、テキスト、音声、画像を組み合わせを入力として認識し、同じくテキスト、音声、画像の任意の組み合わせを出力する。音声入力に対しては最短232ミリ秒、平均320ミリ秒で応答可能で、これは人間が会話で反応する時間と同じだという。 GPT-4oは、英語とコードのテキストに対するGPT-4 Turboのパフォー …