もっと詳しく

EPFL(スイス連邦工科大学ローザンヌ校)の研究者グループは7月19日、ChatGPTのようなLLMに組み込まれている安全装置に思わぬ抜け道があることを発見したと発表した。危険な質問を単に過去形に変えるだけで、AIが答えてしまう可能性があるという。 質問を過去形に変えるだけ 回答を拒否 ChatGPTのような大規模言語モデル(LLM)には、危険な情報や有害なコンテンツを生成しないよう安全装置が組み …