- 人工知能(AI)の安全性問題が取り沙汰されている中、WitnessAIのCEOリック・カシア氏が解決策を提案
- AIモデルのセキュリティとその使用の安全性は異なる課題として捉えるべきであるとの見解
- 独自のアプローチでAIのバイアスや有害性を取り締まり、安全なデータ生成が可能だとの立場
人工知能技術は創造的であるが、それが必ずしも安全であるとは限らない。
AIが不正確さや偏見、有害なテキストを生成する可能性は否定できない状況である。
WitnessAIの最高経営責任者(CEO)リック・カシア氏によれば、それでもAIは「安全」にすることが可能だという。
カシア氏は、AIモデルを確実にするという課題は、AI研究者にとって非常に魅力的な問題だが、それはモデルのセキュリティというよりも、その使用の安全性を確保する別の問題だと指摘している。
我々が目の前に見ているのは、AIの可能性とそれに伴うリスクの両面である。
それに対処する方法として、カシア氏は、バイアスのチェックや不適切な内容のフィルタリングを通じたAIの監視・調整こそが必要だと語る。
つまり、AIを「安全」にするためには、純粋な技術の進歩だけでなく、その技術を適切に管轄し、人間の倫理と価値観をAI設計に反映させることがカギとなるだろう。
そして、この技術的挑戦には、独特の解決策と新たな視点が要求される。
おい、このAIの安全性ってどんな問題があんの?
それに、なんでバイアスとかそんなの気にするの?
ええと、まずAIの安全性の問題は、たとえば偏見を持ったり、間違った情報を生じさせる恐れがあるんです。それで、バイアスを気にするのは、AIが公平で、誰にとっても害にならないようにするためなんですよ。人間の倫理をAIに反映させ、安全に使うことが重要なんです。
ええ、アヤカの言う通りだね。
AIはすごく有能だけど、時にはバイアスや有害な内容を作り出す可能性がある。
だからといって、できないことはないんだ。
リック・カシア氏はね、この課題が研究者にとって非常に面白いとしているんだよ。
AIを作る時のセキュリティと使う時の安全性の確保、この二つは別の問題だっていうわけ。
つまり、ただ技術を進めるだけじゃなく、その技術を管理し、私たちの倫理観を取り入れることが大事なんだ。
例えば、バイアス検知や不適切な内容をフィルタリングすることでね。
AIを安全にするためには、こうした監視や調整が必要だってカシア氏は言っているんだよ。