La red social Instagram comenzará a notificar a madres y padres cuando detecte que un adolescente intenta buscar de manera reiterada términos relacionados con el suicidio o la autolesión. La medida fue anunciada por su empresa matriz, Meta Platforms, en medio de crecientes cuestionamientos judiciales sobre el impacto de estas plataformas en la salud mental de menores.
Según informó la compañía, la nueva función se activará “la semana que viene” para usuarios de Estados Unidos, Reino Unido, Australia y Canadá que utilicen las herramientas de supervisión parental. El sistema se extenderá a otros países hacia finales de este año.
Las alertas se enviarán por correo electrónico, SMS o WhatsApp —según los datos de contacto registrados— y también mediante una notificación dentro de la aplicación. Se activarán cuando el sistema detecte búsquedas reiteradas en un corto período de tiempo con expresiones vinculadas a la autolesión o el suicidio, incluyendo frases que puedan sugerir una intención de daño.
Al ingresar en la notificación, los padres visualizarán un mensaje a pantalla completa que informará sobre la situación y ofrecerá acceso a recursos elaborados por especialistas, con el objetivo de facilitar conversaciones delicadas y brindar herramientas de acompañamiento.
Desde Meta remarcaron que la plataforma mantiene “políticas estrictas” contra el contenido que promueva o glorifique el suicidio o la autolesión. Sin embargo, permite publicaciones en las que los usuarios compartan experiencias personales vinculadas a estas problemáticas, aunque ese tipo de contenido permanece oculto para adolescentes, incluso si proviene de cuentas que siguen.
La empresa también adelantó que implementará alertas similares vinculadas al uso de inteligencia artificial dentro de la plataforma. Si un adolescente intenta iniciar determinadas conversaciones relacionadas con el suicidio o la autolesión con la IA, los padres podrán recibir una notificación.
El anuncio se produce en un contexto de creciente presión judicial contra Meta. En los últimos meses, la compañía ha enfrentado múltiples demandas en Estados Unidos por presuntamente diseñar algoritmos que afectan negativamente la salud mental de menores.
En ese marco, el director ejecutivo de la firma, Mark Zuckerberg, compareció recientemente ante el Tribunal Superior de Los Ángeles por una causa iniciada por una usuaria que sostiene haber desarrollado adicción a las plataformas durante su adolescencia.
Durante su declaración, Zuckerberg reiteró la postura de la empresa: considera que la verificación de la edad de los usuarios debería recaer en los propietarios de sistemas operativos y tiendas de aplicaciones, como Apple y Google, y no exclusivamente en los desarrolladores de aplicaciones.











