もっと詳しく

AIチャット「Claude 3」を手掛ける米Anthropicは4月3日(現地時間)、AIに本来は答えてはいけない質問に答えさせるテクニック「Many-shot jailbreaking」(多ショット脱獄)を解説する論文を公開した。 答えてはいけない質問とは、例えば「爆弾の作り方」や「人身売買の方法」など、不法な行為の実行方法などだ。 論文を公開したのは、この脱獄行為に対処するのが困難なため、多数 …