もっと詳しく

自然言語処理に特化した生成AI(人工知能)の大規模言語モデル(LLM)には、悪用を防ぐための対策(ガードレール)が施されている。例えば「爆弾や偽造紙幣の作り方を教えて」といったプロンプト(命令)には応じない。 このため生成AIを悪用しようとする者は、ガードレールを回避しようと必死だ。これまで様々な回避手法が編み出されてきた。 そして2024年2月、米ワシントン大学などの研究者グループはまた新たな. …