Instagram avisará a los padres de los adolescentes que busquen contenido sobre suicidios o autolesiones

Meta activará alertas parentales ante búsquedas reiteradas de autolesiones y desplegará notificaciones también en conversaciones con inteligencia artificial

|
Good news young happy woman smiling texting her phone
Instagram avisará a las familias de los adolescentes que busquen contenidos sobre suicidios. Foto: Freepik

 

Instagram, la red social propiedad de Meta, ha anunciado que dará un paso más en el refuerzo de la protección de menores en el entorno digital. En las próximas semanas, la compañía comenzará a enviar alertas a las familias cuando detecte que adolescentes realizan búsquedas reiteradas relacionadas con el suicidio o las autolesiones en sus cuentas.

La medida se activará inicialmente en Estados Unidos, Reino Unido, Australia y Canadá, y estará disponible para aquellas familias que ya utilicen las herramientas de supervisión parental de la plataforma. La empresa tecnológica confirma que la función se extenderá a otros países antes de que finalice el año.

 

Cómo funcionarán las nuevas alertas

El sistema se activará cuando un menor busque de manera repetida, en un corto periodo de tiempo, términos como “suicidio”, “autolesión” o expresiones que puedan indicar una posible intención de hacerse daño.

Cuando esto ocurra, los padres o tutores recibirán una notificación por correo electrónico, SMS o WhatsApp, en función de los datos de contacto facilitados. Además, la alerta también aparecerá dentro de la propia aplicación.

 

Instagram
Los padres o tutores recibirán una alerta por correo electrónico, SMS o WhatsApp. Recorte: Meta

 

Al acceder a la notificación, las familias encontrarán un mensaje a pantalla completa que explicará la situación detectada y ofrecerá recursos especializados para abordar conversaciones delicadas con sus hijos. El objetivo, según Meta, es proporcionar herramientas que permitan “apoyar mejor a los adolescentes en momentos vulnerables”.

 

Protección de menores y límites del contenido

Meta recuerda que sus políticas ya prohíben el contenido que promueve o glorifica el suicidio y las autolesiones. No obstante, la plataforma sí permite publicaciones en las que los usuarios comparten experiencias personales vinculadas a estos problemas de salud mental.

En el caso de los menores, este tipo de contenido permanece oculto por defecto, incluso cuando procede de cuentas que siguen habitualmente. Con la nueva medida, la compañía pretende reforzar la prevención no solo a nivel de publicación, sino también en el ámbito de la búsqueda activa de información sensible.

 

La inteligencia artificial, nuevo foco de vigilancia

La tecnológica reconoce que cada vez más adolescentes recurren a sistemas de inteligencia artificial para buscar orientación emocional o resolver dudas personales. Por ello, el despliegue incluirá también alertas similares cuando se detecten conversaciones con herramientas de IA relacionadas con el suicidio o las autolesiones.

Sin comentarios

Escribe tu comentario




He leído y acepto la política de privacidad

No está permitido verter comentarios contrarios a la ley o injuriantes. Nos reservamos el derecho a eliminar los comentarios que consideremos fuera de tema.
AHORA EN LA PORTADA
ECONOMÍA