もっと詳しく

以下の文章は、Fight for the Futureの「Congress shouldnt pass AI protections only rich people can use and ignore the rest of us」という記事を翻訳したものである。

Fight for the Future

NCICNon-Consensual Intimate Content

they/she Fight for the Future

NCICAI

NCOSERIAA

AIFight for the FutureNGONCIC

?!

押さえるべき4つのポイント

  1. 弁護士軍団を抱える富裕層やセレブを念頭に置いた法律は、必ず一般市民を置き去りにする
    NO FAKES法案やNO AI FRAUD法案など、現在の提案は人口のごく一部、つまり著名人のためのものでしかない。自動削除システムの導入や訴訟権の付与など、富裕層や著名人を代表する弁護士のための新たな権利を優先すれば、議会は被害者の大多数――若者、虐待被害者、政治家候補、市民活動家など――を見捨てることになる。
    NCICの被害者の大半は、高額な弁護士を雇う余裕などない。被害に苦しみながら、何ヶ月も何年も裁判を待つこともできない。彼らが求めているのは、有害なコンテンツを素早く削除する方法だ。しかも、オンラインでつながり、活動し、情報にアクセスし、創作し、働き、学ぶ能力を奪われることなく。残念ながら、NO FAKES法に最近追加された削除システムは、まさにそうした能力を奪いかねないものだ。
  2. NCICは目新しい問題ではない。AIの使用の有無ではなく、同意の有無こそが本質だ
    議会がAIに関して最終的に何を決めるにせよ、AI生成かどうかに寄らず、すべてのNCICに対処しなければならない。ここで問題なのは同意の有無であり、それを最優先すべきだ。10代の若者が、自分の顔がセックスワーカーの体に合成されたAI画像を素早く削除できると同時に、セックスワーカーも同意なく使用された自身の画像を削除できなくてはならない。復讐心に駆られた元配偶者が投稿した性的な画像を削除できるのと同じように。
    特定の技術ではなく、同意を尊重する仕組みに焦点を当てることで、議会はAI以外の将来の技術の悪用も防ぐことができるだろう。同時に、オンラインでのビジネスや社会規範を、より健全で互いを尊重するものに導くこともできるのだ。
  3. 議会は25年以上も意味のあるデータプライバシー保護法を成立させず、IT企業が虐待被害者を危険にさらして儲けることを許してきた。これは直ちに終わらせなければならない
    エイミー・ボイヤーは2002年、データブローカーから入手した情報を使ってストーカーに殺害された。こうした手口は、今日でもストーカーの間で横行している。四半世紀以上もの間、議会と連邦機関はデジタル時代のプライバシー権保護に根本的に失敗し続けてきた。その結果、ストーカーや詐欺師、なりすまし犯が私たちのセンシティブな個人データを餌食にし、のさばる事態を許してしまったのだ。
    実効性のあるプライバシー法とは、データ収集を最小限に抑え、すべての人のセンシティブな個人データの管理権を、IT企業ではなく各個人の手に確実に委ねるものだ。さらに、新たなプライバシーの脅威に対して、より強力な連邦法や州法による保護の余地も残すべきだ。そうした包括的なデータプライバシー法があれば、虐待被害者を嫌がらせや脅迫、なりすまし、殺人から守る上で大きな前進となるだろう。
  4. 個人の権利と自由を制限するのではなく、有害なビジネスモデルにメスを入れるべきだ
    インターネット上のすべての人を潜在的な犯罪者のように扱うのは筋違いだ。問題の根源は、テック企業の有害なビジネスモデルにある。NCICと戦うために通信品位法230条の例外を設けようという提案もあるが、それはうまくいかない。インターネットの言論の自由を制限したところで、悪意ある人々や怪しげなテック詐欺師が突然いなくなるわけではない。そうした制限は、虐待被害者の発言や彼らの情報ソースなど、重要な表現を検閲するだけに終わるだろう。
    セックスワーカーは今も、SESTA/FOSTAがもたらした死、暴力、安全な場の喪失という悲惨な結果に苦しんでいる。デジタル社会での疎外、監視、非同意の画像に関する彼らの洞察は、この惑星で最も貴重なものの一つだ。だからこそ、彼らのニーズと懸念をこの議論の中心に据えなければならない。230条縮小の試みは、市民社会広範な層から組織的な強い抵抗に遭うだろう。だが私たちの望みは、間違った解決策と戦うことではない。良い解決策を共に作り上げることだ。
    また、インターネットの同意軽視の文化や有害なビジネスモデルに引き寄せられた若者、知識のない個人を犯罪者扱いするのも間違いだ。そうではなく、同意に関する徹底的な教育、とりわけ若者への教育に投資すべきだだろう。これは、同意という概念を無視し、企業と個人の行動の双方に恐ろしい前例を作りあげたデジタルビジネスの利益優先の世代に対抗するためにも必要だ。

解決への険しい道のり

NO FAKES

NCICNO FAKES

現在、通知・削除は人権専門家から厳しい批判を浴びている。デジタルミレニアム著作権法(DMCA)の下で行為や杜撰な運用が蔓延しているためだ。残念ながら、NO FAKES法のシステムはこのDMCAをモデルにしており、DMCA以上に有害になる懸念すらある。これが不適切に実施されれば、通知・削除システムはフェアユースのような基本的な表現の自由を危険にさらし、クリエイティビティを萎縮させるものとなる。しかし、議会が過去の失敗から学び、最も悪影響を被る人々の声に耳を傾ければ、NO FAKES法や類似の法案であっても、権利を守るシステムを作り出せる可能性はある。

セックスワーカーの権利擁護団体の仲間たちと、NCICの通知・削除について議論したところ、期待と懸念の両方の声が上がった。現行のDMCAの下では、悪意ある者が、AIで自動化された削除要請を武器に、インターネット上の正当な音楽やを抹殺している。とりわけ、セックスワーカーの権利擁護者たちは、悪意に基づく主張に異議を唱え、正当なコンテンツを迅速に復旧し、悪質な削除通知に厳しい民事罰を科す仕組みがなければ、適法で同意に基づくコンテンツまで簡単に削除されてしまう危険性を指摘している。残念ながら、NO FAKES法にはそうしたセーフガードがことごとく欠けている。だが、それを追加するのはさして難しくないはずだ。

セックスワーカーの権利擁護者が提起する懸念は、彼ら自身のコミュニティをはるかに超えた問題を浮き彫りにしている。例えば、が気に入らない画像をAI生成だと非難する――このような未来は誰も望んではいない。

NO FAKESNO AI FRAUD

230条の例外を設けることなく通知・削除システムを実現するために、多くの人々が肖像権や声の権利など連邦知的財産権の拡大を推し進めている。その先頭に立つのは、著名人やエンターテイメント業界の大物など、裕福な権利者たちだ。だが、彼らが注目しているのは、NCICへの最善の対策ではなく、新しい搾取の道具としての譲渡可能な知的財産権の創設だ。彼らはNCIC被害者の苦痛を利用して、政治家たちを不都合な事実から遠ざけようとしている。つまり、大多数の人々は自分の肖像から利益を得ているわけではなく、ただ虐待を止める方法を求めているという事実だ。

しかし、これは私たち全員が懸念すべき問題だ。強力で明確な権利の復旧と終了の規定(いずれもNO FAKESとNO AI FRAUD法に欠けている)がないままに、肖像や声に対するを作り出せば、予期せぬ広範な影響が生じかねない。第三者がアーティストの声や肖像を所有することで、彼らが望む芸術作品の制作や社会運動への参加が妨げられるおそれがある。さらに皮肉なことに、これらの法律が当初守ろうとしていたものとは逆に、権利購入者が同意なくディープフェイクを作成できるようになってしまうかもしれない。低所得者層は特にこうした弊害に弱い立場にある。新たな知的財産権はこうした問題をほとんど解決し得ない。知的財産権は新しい発明や創作の普及と収益化を促進するためのものだが、NCICの対策が求めているのはその真逆である。

生涯プラス70年間取り消し不能で譲渡され、公開市場で売買できるような権利を作り出すのではなく、議会はまず、現行の知的財産権の実態が今日のアーティストやクリエイターに与えているを徹底的に調査すべきだ。そして、最終的に構築されるシステムには、その影響を継続的に分析する厳格な仕組みが不可欠だ。

DEFIANCE

私たちは、などの組織と共に、DEFIANCEことを表明している。この法律は、NCICを共有する加害者を被害者が訴えるための民事上の根拠を設けるものだ。

AINCICFight for the Future1

NCIC

TAKE IT DOWN

TAKE IT DOWN48NCIC1

TAKE IT DOWN

調

Congress shouldnt pass AI protections only rich people can use and ignore the rest of us

Author: Lia Holland / Fight for the Fiture
Publication Date: August 26, 2024
Translation: heatwave_p2p
Material of Header image: Donny Jiang

The post first appeared on p2ptk[.]org.