Instagram comenzará en las próximas semanas a enviar alertas a padres y madres que utilicen la función de supervisión parental cuando sus hijos adolescentes intenten buscar de manera reiterada términos vinculados con el suicidio o la autolesión en un corto período de tiempo. La medida forma parte de un nuevo paquete de protecciones para las Cuentas para Adolescentes.
Según informó la compañía, la herramienta apunta a reforzar la intervención temprana en casos donde la actividad de búsqueda pueda sugerir que un joven necesita apoyo. La mayoría de los adolescentes no realiza este tipo de búsquedas y, cuando lo hacen, la plataforma bloquea el acceso a resultados relacionados y redirige hacia recursos y líneas de ayuda especializadas.
Cómo funcionarán las alertas
Padres y adolescentes que ya utilizan la supervisión recibirán una notificación anticipando la puesta en marcha del sistema. A partir de entonces, si un menor intenta repetidamente buscar frases que promuevan el suicidio o la autolesión, expresiones que sugieran intención de hacerse daño o términos como “suicidio” o “autolesión”, se activará una alerta.
Las notificaciones llegarán por correo electrónico, SMS o WhatsApp —según los datos de contacto registrados— y también dentro de la aplicación. Al abrir el aviso, los adultos accederán a un mensaje en pantalla completa que explica que su hijo o hija intentó realizar múltiples búsquedas asociadas a esos temas en un lapso breve. Además, se ofrecerán recursos elaborados por especialistas para orientar conversaciones sensibles y brindar contención.
El despliegue inicial será en Estados Unidos, Reino Unido, Australia y Canadá, con planes de ampliarlo a otras regiones durante el año.
Para definir el umbral que activará las alertas, la compañía analizó patrones de búsqueda y consultó a expertos de su Grupo Asesor sobre Suicidio y Autolesión. El sistema requerirá varias búsquedas en un período corto, priorizando un enfoque preventivo. Aunque reconocen que en algunos casos podría activarse una alerta sin que exista un riesgo real, sostienen que se trata de un punto de partida prudente que será ajustado con el tiempo.
El Dr. Sameer Hinduja, codirector del Cyberbullying Research Center, consideró que “cuando una persona joven busca información sobre suicidio o autolesión, empoderar a un padre o una madre para intervenir puede ser extremadamente importante”, y calificó la incorporación de la herramienta como “un avance significativo”.
En la misma línea, Vicki Shotbolt, CEO de Parent Zone, afirmó que brindar esta información a los padres “es un paso realmente importante” que puede ofrecer mayor tranquilidad y facilitar el acompañamiento.
Refuerzo de políticas existentes
La nueva función se suma a las políticas ya vigentes en Instagram que prohíben el contenido que promueva o glorifique el suicidio y la autolesión. Si bien la plataforma permite publicaciones en las que las personas compartan sus propias experiencias o dificultades, ese contenido se oculta a los adolescentes, incluso si proviene de cuentas que siguen.
Además, las búsquedas de términos claramente asociados a estas prácticas se bloquean y redirigen a recursos y organizaciones locales de ayuda. Cuando las consultas se vinculan con la salud mental de manera más amplia, también se ofrecen líneas de apoyo. En casos de riesgo inminente de daño físico, la empresa sostiene que continúa alertando a los servicios de emergencia.
La compañía adelantó que, aunque el lanzamiento inicial se centrará en las búsquedas dentro de Instagram, trabaja en alertas parentales similares para determinadas experiencias vinculadas a su inteligencia artificial. Estas notificarían a los adultos si un adolescente intenta entablar conversaciones relacionadas con el suicidio o la autolesión con la IA de la plataforma. Más detalles sobre esa implementación se darán a conocer en los próximos meses.
