1
1
若者に人気のソーシャルメディアプラットフォームインスタグラムは木曜日、十代の若者が自殺や自傷行為に関連する単語を繰り返し検索した場合、保護者に警告すると発表した。
同社はブログ投稿で、「私たちの目標は、10代の子どもの検査結果からサポートが必要な可能性があることがわかった場合、親が名乗り出ることができるようにすることだ」と述べた。
保護者はテキスト、電子メール、または WhatsApp で通知を受け取ります。また、10 代の子供たちとデリケートな会話をするのに役立つリソースを表示するオプションもあります。
自殺予防と危機カウンセリングのリソース
あなたまたはあなたの知人が自殺願望に苦しんでいる場合は、専門家に助けを求め、9-8-8 に電話してください。米国初の全国規模の 3 桁のメンタルヘルス危機ホットライン 988 は、発信者を訓練を受けたメンタルヘルス カウンセラーにつなぎます。米国とカナダでは 741741 に「HOME」とテキスト メッセージを送信すると、危機に関するテキスト ラインに到達します。
この動きは、若者を有害なコンテンツから守るために十分な努力をしていないという保護者、政治家、擁護団体からの懸念にテクノロジー企業がどのように対応しているかを示す最新の例だ。
インスタグラムやユーチューブなどのテクノロジー企業が、有害な製品を宣伝しユーザーを自社のプラットフォームに誘導した疑いで責任を問われるかどうかを巡る画期的な裁判がロサンゼルスで行われている。
この訴訟には、インスタグラムのトップであるアダム・モセリ氏の証言も含まれており、インスタグラム社は「できる限り安全に努めているが、検閲も最小限に抑えている」と法廷で述べた。
自殺で亡くなった若者もいるが、AIチャットボットを利用して心の奥底にある考えを共有するようになり、安全性への懸念が高まっている。
Instagramの検索バーにはAIアシスタントが搭載されています。 Instagramを所有するMetaは、10代の若者が自社のAIアシスタントと自殺や自傷行為について特定の会話をしようとした場合に同様のアラートを作成している。
メタには、自殺や自傷行為を奨励するコンテンツの投稿を禁止するルールがあるが、そのトピックについて議論することは許可されている。 Metaの透明性レポートでは、親会社が何百万もの自殺、自傷行為、摂食障害のコンテンツに対しても対策を講じていることが明らかになった。
しかし、一部の親や十代の若者たちは、若者たちがインスタグラムで自傷行為の内容を閲覧したと訴訟で主張している。
12月に発表されたピュー・リサーチ・センターの調査によると、アメリカの13歳から17歳の十代の若者の約63%がインスタグラムを利用している。今週発表された別の調査によると、米国の十代の若者の半数以上が情報検索にチャットボットを使用している。
月間アクティブユーザー数が30億人を超えるインスタグラムによると、ほとんどの十代の若者はインスタグラムで自殺や自傷行為のコンテンツを検索しないという。検索をブロックし、人々を自殺予防リソースに誘導します。インスタグラムによると、アラートは青少年向けアカウントの一部で、青少年がメッセージを送信できる相手の制限や期限のリマインダーなどの機能が含まれているという。
これらのツールを使用して十代の子どもを追跡している保護者は、来週から米国、英国、オーストラリア、カナダでアラートの受信を開始する。その後、今年後半には他の地域にも拡大する予定です。
ソーシャル メディア プラットフォームは、セキュリティを向上させるために別の措置を講じています。今月、Meta、TikTok、Snapは、メンタルヘルス連合の新しいプログラムの一環として、10代の安全への取り組みについて評価を提供することに合意した。