「Instagram」、DMのヌード写真をぼかす機能をテスト 若者への性的脅迫に対処

Metaは、「Instagram」で10代の若者を狙った性的脅迫に対処するため、さらなる措置を講じる。同社は米国時間4月11日、ダイレクトメッセージ(DM)のヌード写真をぼかすほか、潜在的な犯罪者が10代の若者と連絡を取れないようにする機能をテストすると発表した。

ヌード対策機能は、世界中の18歳未満のユーザーに対してデフォルトで有効になる。ヌード写真を送信しようとする人には再考を求め、気が変わったら写真を送信しないこともできるというメッセージが表示される。Instagramはまた、この機能を有効にするよう促す通知を成人ユーザー向けに表示する。

Metaはこの機能により、10代の若者や成人がメッセージの中で望まないヌードを目にすることを防ぐとともに、ヌード写真を送らせるために自分のヌード写真を送る人物から若者を保護する狙いだ。

ヌード写真が付いたDMを受け取った場合、写真は警告メッセージの奥にぼかして表示され、受信者は写真を見るかどうかを選択できる。返信のプレッシャーを感じないようにというメッセージも表示され、送信者をブロックしたり報告したりする方法も提供される。

ヌード写真を送受信する人には、起こりうるリスクに関する安全上のヒントが表示される。例えば、悪意ある人物が写真をスクリーンショットしたり、他の人に転送したりする可能性がある。ヒントには、MetaのSafety Centerやサポートヘルプラインなど、さまざまなリソースへのリンクも掲載される。

Instagramのヌード対策機能は、オンデバイスの機械学習を使って画像を分析するという。画像はオンラインではなくデバイス上で検証されるため、この機能はエンドツーエンドで暗号化されたチャットでも機能する。

Metaはまた、さまざまなシグナルを使って、性的脅迫に関与している可能性のあるアカウントを特定する方法にも取り組んでいるという。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

© 朝日インタラクティブ株式会社