もっと詳しく

  • AIのインシデント報告制度導入が急務
  • 過去8年間で10,000件以上の安全問題
  • CLTRが規制の重要なギャップを指摘

CLTRは、人工知能(AI)の法規制計画における急を要する問題として、包括的なインシデント報告システムの設立を訴えています。
過去8年間にわたり、実際に運用されているAIシステムで10,000件を超える安全インシデントが報道されていますが、これらはすべて普段想定されないかたちで失敗が生じていました。

AI使

AI

、AIシステムの誤作動が原因で起こった事故や障害を追跡し、検証するための専門的なメカニズムの構築が急がれています。
CLTRは、このような報告システムがAI規制計画において欠かせない要素であると主張しており、それによって初めて、効果的な防災対策を講じることが可能となると訴えています。

AI

icon image

AI? ?

AIAI

icon image
icon image

AI 81 使 AI

CLTR調 AI