もっと詳しく

  • Instagramの未成年保護新機能
  • 「ヌード保護」自動フィルター導入
  • 児童を狙う性搾取対策強化
  • グローバルでの施策展開

Instagramを運営するMeta Platformsは未成年ユーザーを守るための新しいinitiatives を開発中です。
アダルトコンテンツからの保護で注目されるのは、「ヌード保護」と呼ばれるダイレクトメッセージ(DM)の機能です。
このフィルターは不適切画像を自動的に検出・ぼかすことにより、10代のユーザーへの露骨な画像の表示を抑制します。
18歳以下のユーザーには自動で適用され、成人へはオプションの提案として通知されます。
Metaはセクストーション(性的搾取)に関するデータ共有を「ランタン」児童安全プログラムに拡大しました。
セクストーション詐欺とは、子供や10代のユーザーから性的画像を強要し、それをネタに金銭を脅し取る行為です。
Metaは技術を活用して、セクストーションに関与している可能性のあるアカウントの特定と対話の制限に取り組んでいます。
対象アカウントとやり取りをしたユーザーには、関連資源への誘導するポップアップが表示されます。
これらの保護機能は段階的に導入され、数週間以内にテストを開始し、数ヶ月を通じて全世界に展開されます。
ただし、Facebook MessengerやWhatsAppへの拡大計画は現段階でありません。
情報提供元:InstaForex Company

このニュースはInstagramが未成年の保護を強化するってことを伝えています。ヌード保護っていうフィルターで、DMに送られてくる不適切な画像をぼかしたり、性的搾取を試みるアカウントへの対策をしてるみたい。安全のための動きは大切だよね。でもFXの情報じゃないから、ちょっと私が読むべき記事とは違うかな。

icon image
icon image

Instagramが未成年のセキュリティ向上のため新機能を開発してるんだ。

ヌード保護っていうので、DMで届くイかがわしい画像を自動でブラーかけるんだよ。
10代にはデフォで適用されるんだけど、大人はオプションとして設定できるってわけ。

さらに、性的搾取に関するデータの共有を「ランタン」児童安全プログラムで広げていて、問題のあるアカウントを特定したり、そのアカウントとやり取りしてるユーザーにはヘルプリソースを知らせるポップアップが出るんだって。

これから数週間でテストして、徐々にグローバルに広めていく予定だって。

Facebook MessengerやWhatsAppには今のところは展開予定はないみたい。

FXニュースとは直接関係ないけど、ネットの安全は重要だからね。