以下の文章は、Access Nowの「Artificial Genocidal Intelligence: how Israel is automating human rights abuses and war crimes」という記事を翻訳したものである。
最近の人工知能(AI)をめぐる議論は、高度なAIシステムが人間の制御を外れるという終末論的シナリオやSFじみた予言に支配されている。その結果、AI戦争が語られる際、完全自動化された「殺人ロボット」の大軍が想像されがちだ。しかし、イスラエルのガザ攻撃が明らかにしたのは、洗練されていない、ありふれたAI監視システムが、ディストピア的でテクノロジー駆動の恐怖をもたらすためにすでに使用されていることだ。
最近のメディア調査で明らかになったように、イスラエルのAI標的システム「Lavender」と「The Gospel」は、ガザ地区全域で大量虐殺と破壊を自動化している。これは、生体認識監視システムや予測的取締りツールなど、我々が以前から警鐘を鳴らしてきた多くの人権侵害的なAIの極北である。ガザにおけるAI強化戦争は、平時だけでなく戦時にあっても、人権と相容れないテクノロジーの使用を政府が禁止する切迫した必要性を示している。
空から降る死:実験的技術の実験場としてのガザ
イスラエルが戦争でAIを使用するのは今に始まったことではない。イスラエルは何十年もの間、ガザ地区を新技術と兵器のテスト場として使用し、後にその技術を他国に売却してきた。2021年5月のガザへの11日間の軍事攻撃は、イスラエル国防軍(IDF)によって「初の人工知能戦争」と呼ばれた。現在のガザ攻撃では、イスラエルが3つのカテゴリのAIツールを使用しているのが確認された。
- 自律型致死兵器システム(LAWS)と半自律型致死兵器(semi-LAWS):イスラエル軍は、機関銃やミサイルを装備した遠隔操作のクアッドコプターを、テント、学校、病院、住宅地に避難している民間人を監視し、恐怖を与え、殺害するために使用する先駆的取り組みを進めている。ガザのヌセイラト難民キャンプの住民は、一部のドローンが赤ちゃんや女性の泣き声を流し、パレスチナ人を誘い出して標的にしていると報告した。イスラエルは長年にわたり、ガザ境界沿いに「自爆ドローン」や自動化された「ロボ・スナイパー」、AI搭載タレットを展開し、「自動殺戮ゾーン」を作ってきたが、2021年には、「国境で兵士に代わる世界初の軍用ロボット」として宣伝された半自律型軍事ロボット「ジャガー」も展開した。
- 顔認識システムと生体認識監視:イスラエルのガザ地上侵攻は、ヨルダン川西岸とエルサレム東部ですでに展開されているパレスチナ人への生体認識監視を拡大する好機となった。ニューヨーク・タイムズは、イスラエル軍がガザで「パレスチナ人の知らないうちに、同意なしに顔(訳注:情報)を収集・分類して大規模な監視を行っている」と報じた。この記事によると、このシステムはイスラエル企業のCorsightとGoogle Photosの技術を使用して、群衆や低解像度のドローン映像からでも顔を識別するという。
- 自動ターゲット生成システム:最も注目すべきは、インフラターゲットを生成するGospel、個人の人間ターゲットを生成するLavender、容疑者が家族と一緒にいるときにターゲットにするよう設計された「パパはどこ?(Where is Daddy?)」などのシステムである。
LAWS、そして一部のsemi-LAWSは、「政治的に容認できず、道徳的に嫌悪すべき」ものとして国連から非難されており、禁止を求める声が高まっている。戦争におけるAIターゲット生成システムの使用は、生体認識による大規模監視と相まって、さらなる注意を要する。平時においてすら禁止されるべき技術は、戦時にあっては壊滅的影響、さらにはジェノサイドを引き起こすためだ。
ジェノサイドの自動化:戦争におけるAIがもたらす致死的な結果
GospelやLavenderのようなターゲティングシステムの使用は、一見すると衝撃的な新境地に思えるかもしれないが、実際には世界中ですでに使用されている別のAIシステム、つまり予測的取締りの極北でしかない。イスラエル軍が「データ駆動型システム」を使用して、誰がハマスの工作員である可能性があるか、どの建物がハマスの拠点である可能性があるかを予測するように、法執行機関はAIシステムを使用して、どの子供が犯罪を犯す可能性があるか、ギャングの一員である可能性があるか、どこに警察を増員すべきかを予測している。このようなシステムは本質的に差別的で根本的に欠陥があり、対象者に深刻な影響を及ぼす。ガザではその影響は死をも意味しうる。
このようなシステムの人権に及ぼす影響を考える際、まずシステムが誤動作した場合、次にシステムが意図通りに機能した場合の、それぞれの結果について検討する必要がある。いずれの場合も、人間を統計上のデータポイントに還元することは、人々の尊厳、安全、生命に重大かつ取り返しのつかない結果をもたらす。
ターゲティングシステムが誤作動した場合、懸念すべきは、これらのシステムが欠陥のあるデータに基づいて構築され、訓練されているという点だ。+972 Magazineの調査によれば、このシステムに入力された訓練データには、ガザのハマス政府の非戦闘員に関する情報も含まれていたため、Lavenderは誤って、既知のハマス戦闘員と同様のコミュニケーションや行動パターンを持つ個人を標的として特定していた。これには、警察や民間防衛隊員、戦闘員の親族、ハマス戦闘員と同じ名前の人物も含まれていた。
+972 Magazineの報道によると、Lavenderがハマス関係者を特定する際の誤認率が10%であったにもかかわらず、IDFは、Lavenderの殺害リストを「あたかも人間の決定であるかのように」自動的に採用することを全面的に承認した。兵士たちは、Lavenderの出力やその情報ソースの正確性を徹底的に、または独自に確認する必要はなく、爆撃を承認する前の必須確認項目は、マークされたターゲットが男性であることを確認することだけで、それには「20秒」ほどしかかからなかったとされる。
また、このようなシステムの精度をテストしたり、その性能を検証する確実な方法も存在しない。ある人物がハマスと関係しているかを検証するプロセスは、特にそのような予測の基盤となるデータに欠陥がある可能性を考えると、極めて複雑だ。機械学習システムは、「将来の潜在的な犯罪性」のような複雑な人間の属性を確実に予測できないことが繰り返し示されている。データが不十分なことに加え、システムが代理指標(実際に犯した犯罪に関するデータではなく、逮捕に関するデータなど)に依存しているためだ。また、「より多くのデータがより良い予測につながる」わけでもない。
こうしたシステムの精度や人間による確認の欠如以上に懸念されるのは、その使用が人権と、人権の由来となる人間の尊厳と根本的に相容れないことだ。これは、イスラエルのAIターゲティングシステムが意図通りに機能しているという現実によって示されている。「目下、最大の被害を引き起こすことに焦点を当てている」とイスラエル国防軍が述べたように。兵士たちは毎日より多くの爆撃目標を生成するよう圧力をかけられ、Lavenderがマークした下級戦闘員とされる人物の自宅を標的に、誘導ミサイルではない「ダムボム」と呼ばれるミサイルを使用したとされる。これに、イスラエルがAIを巻き添え被害の計算に使用していることも相まって、パレスチナ人の大量殺戮と、国連によれば第2次世界大戦以降最大規模の破壊が生じている。
こうしたAIターゲティングシステムを使用することで、生死に関わる決定に対する人間の責任を軽減し、アルゴリズムの客観性を装ってまったく洗練されていない大量破壊と大量殺戮のキャンペーンを隠蔽しようとしている。LavenderやWhere is Daddy?のようなシステムの使用は、倫理的にも人道的にも許されない。なぜなら、人間を非人間化することを前提としているからだ。これらのシステムは禁止されなければならない。そして、このようなシステムが戦争地域で展開されるのを可能にする監視インフラ、生体認識データベースなどの「平時のツール」を廃止しなくてはならない。
大規模な虐殺犯罪に加担するビッグテック
上述したように、平時に開発・展開された監視インフラは、戦時には容易に転用され、最悪の人権侵害を可能にする。このことは、軍事目的に転用できる民間技術を提供するビッグテック企業の役割に疑問を投げかける。中でも、GoogleとAmazon Web ServicesがProject Nimbusを通じてイスラエルに提供しているクラウドコンピューティングと機械学習サービスが突出しているが、Metaが所有するWhatsAppのメタデータがLavenderのターゲティングシステムにデータを提供するために使用されていると示唆されている。
GoogleやAWS、Metaなどの企業は、人権に対する責任を果たさず、イスラエル政府にサービスを提供し続けることで、イスラエルの軍事・情報機関によるガザ地区での残虐行為を幇助に加担するリスクを負っている。
大量にターゲットを生成し、民間人犠牲者の「妥当な」数を決定し、最終的に生死の決定に対する人間の責任を放棄するために使用されうる大規模監視インフラの開発を容認することはできない。我々は、予測的取締り、生体認識による大規模監視、Lavenderのようなターゲット生成システムなど、人権と相容れないAIの使用をすべての政府に禁止するよう改めて要請する。イスラエルがガザで使用しているシステム、そして同政府が長年にわたって拡大してきた大規模監視は、決して実現してはならないディストピアな未来を垣間見せている。
Author: / Access Now (CC BY 4.0)
Publication Date: May 09, 2024
Translation: heatwave_p2p
The post 人工“虐殺”知能:人権侵害・戦争犯罪を自動化するイスラエルのAI first appeared on p2ptk[.]org.