もっと詳しく

チャットGPTのような大規模言語モデルを企業で利用する際に問題となるのが、ハルシネーション(幻覚)だ。MIT発のスタートアップは、モデルの回答がどの程度信頼できるかを示すツールを開発した。 【この続きをMITテクノロジーレビューで読む】