1
1
この記事を聞いてください
約2分
この記事の音声バージョンは、AI ベースのテクノロジーによって生成されています。発音間違いがあるかもしれません。私たちはパートナーと協力して結果を継続的に見直し、改善しています。
オーストラリアの16歳未満に対するソーシャルメディアの使用禁止に従うよう各国政府への圧力が高まる中、インスタグラムは、10代の少年が短期間に自殺や自殺関連の単語を繰り返し検索した場合、保護者に通知すると発表した。
メタプラットフォーム傘下のインスタグラムは木曜日、子供が自殺や自傷行為を示唆するコンテンツにアクセスしようとした場合、オプションの監視設定に登録している保護者に警告を開始すると発表した。カナダ、米国、英国、オーストラリアで登録した人に対する警告は来週から開始される。
同プラットフォームは声明で、「これらの警告は、Instagram上の潜在的に有害なコンテンツから十代の若者を守るための既存の取り組みに基づいている」と述べた。 「私たちは、自殺や自傷行為を促進または美化するコンテンツに対して厳しいポリシーを持っています。」
Instagramは、そのような検索をブロックし、ユーザーをサポートリソースにリダイレクトするのが現在の方針だと述べた。
政府は、特に同意のない性的画像を生成した AI チャットボット Grok に対する懸念を受けて、オンラインでの危害から子供たちを守ろうとしています。
英国は12月のオーストラリアの措置に続き、オンラインで子どもを守るための制限を検討していると1月に発表した。スペイン、ギリシャ、スロベニアもここ数週間、アクセス制限を検討していると発表した。
Instagramは、高度なペアレンタルコントロールとプライバシー機能を備えた新しい10代のアカウントを展開しているが、若いユーザーにとってプラットフォームを安全にするためにメタはまださらなる努力が必要だと主張する保護者もいる。
英国では、児童によるポルノサイトへのアクセスを防ぐための措置が大人のプライバシーに影響を与えており、言論の自由の制限やアクセス規制を巡り米国との緊張が高まっている。
Instagramの16歳未満の「ティーンアカウント」は設定を変更するのに親の許可が必要だが、親は十代の若者の同意があれば追加の監視層をオプトアウトすることができる。また、10 代のユーザーが性的示唆や暴力描写などの「デリケートなコンテンツ」を閲覧することも禁止されます。