Googleは今年2月、AIチャットボット「Gemini」の画像生成機能を一時的に停止しました。
この決定は、ユーザーからの歴史的に不正確な描写に関する苦情がきっかけです。
例えば「ローマ軍団」を描く際、Geminiは時代錯誤的な人種的に多様な兵士を表示しました。
また「ズールー戦士」を描く際には、Geminiはステレオタイプ的な黒人として描写しました。
これに対し、GoogleのCEOであるサンダー・ピチャイ氏は謝罪しました。
重要なポイントとして、GoogleのAI部門共同創設者デミス・ハサビス氏も公式声明を通じて謝罪の意を表しました。
今後の予定として、Googleはこれらの問題を修正し、より正確な描写を提供するための改良を進めています。
この一件は、AI技術の効果的な利用とその適切な管理の重要性を強調するものです。
技術の進歩は利用者の期待に応えるものであるべきだとされ、この問題が今後のAI開発における教訓となるでしょう。
それってさ、なんで「Gemini」の画像生成が不正確になっちゃうの?
あと、どうやってそれを修正するつもりなんだろう?
AIモデルは学習データに依存していて、そのデータが偏っていると不正確な結果になります。修正はデータの改善や追加学習で行います。
はい、わかりました。
まず、今回のニュースではGoogleのAIチャットボット「Gemini」の画像生成機能が一時停止されたという話です。
理由は、歴史的に不正確な描写でユーザーから苦情が寄せられたためです。
具体例として、ローマ軍団の描写が時代錯誤的な人種の多様性を示したり、ズールー戦士の描写がステレオタイプ的だったことが挙げられます。
これに対しGoogleのCEOであるサンダー・ピチャイ氏とAI責任者であるデミス・ハサビス氏が謝罪しました。
今後、Googleはこれらの問題を修正し、より正確な描写を提供するための改良を進めるとのことです。
要するに、この一件はAI技術の効果的な利用と適切な管理の重要性を強調するものです。
今後のAI開発における重要な教訓となるでしょう。