Tuesday, October 21, 2025
No menu items!
HomeTecnología¿Instagram está mostrando más contenido sobre “trastornos alimentarios” a jóvenes vulnerables?

¿Instagram está mostrando más contenido sobre “trastornos alimentarios” a jóvenes vulnerables?

¿Qué pasa cuando una red social empieza a mostrar más de lo que debería a quienes menos lo necesitan? Eso es justamente lo que reveló un reciente estudio interno de Meta, la empresa matriz de Instagram. El informe, que aún no había sido reportado por medios hasta que Reuters tuvo acceso exclusivo, muestra que adolescentes que ya se sienten mal con su cuerpo reciben una dieta constante de publicaciones ligadas a trastornos alimentarios y contenido emocionalmente perturbador.

Te puede interesar: [YouTube se rediseña: Estos son los cambios que vas a ver a partir de estos días]

Aunque Instagram no prohíbe específicamente este tipo de material, sí reconoce que puede ser dañino para jóvenes en situaciones de vulnerabilidad. El problema es que, según el propio estudio, los algoritmos parecen reforzar ese círculo.

La receta para el malestar: cómo el algoritmo acierta… para mal

Durante el ciclo académico 2023-2024, Meta encuestó a 1.149 adolescentes. Entre ellos, 223 dijeron sentirse frecuentemente mal con su cuerpo después de usar Instagram. ¿El resultado? Estos adolescentes vieron tres veces más contenido sobre cuerpos “ideales” y trastornos alimentarios que el resto.

Exactamente un 10,5% de su feed estaba lleno de este tipo de publicaciones, frente al 3,3% en los otros casos.

Las imágenes iban desde cuerpos extremadamente delgados en poses provocativas, hasta frases y gráficos con connotaciones depresivas. En algunos ejemplos, incluso se mostraban heridas autoinfligidas o frases como “¿Cómo podría compararme?” que generaron advertencias internas entre los propios investigadores.

¿Buscan ese contenido o el contenido los busca a ellos?

Meta aclara que el estudio no prueba una relación de causa y efecto directa. Es decir, no está claro si Instagram empeora la autoestima, o si los jóvenes con baja autoestima simplemente buscan más ese tipo de contenido. Lo cierto es que el sistema no ayuda a romper ese ciclo.

Y más preocupante aún: según el informe, las herramientas de detección de contenido sensible que usa Meta no lograron identificar el 98,5% del contenido problemático encontrado por los investigadores. Básicamente, casi todo pasó bajo el radar.

La presión aumenta, las respuestas no tanto

Este hallazgo se suma a una montaña creciente de críticas y demandas que Meta enfrenta en Estados Unidos por los efectos de Instagram en la salud mental de los jóvenes. Distritos escolares y fiscales estatales han acusado a la empresa de diseñar sus productos de forma adictiva y perjudicial.

Desde julio, Meta asegura haber reducido a la mitad la exposición a contenido con restricciones de edad en perfiles de adolescentes. Además, ha propuesto mostrar contenido alineado con clasificaciones tipo PG-13, como en las películas.

Sin embargo, expertos como Jenny Radesky, pediatra y asesora en salud digital, advierten que el problema va más allá de filtros: “Instagram está perfilando a los adolescentes más vulnerables y sirviéndoles contenido más dañino”.

¿Se puede arreglar?

Meta está desarrollando un nuevo algoritmo para detectar este tipo de publicaciones antes de que lleguen a los feeds adolescentes. Pero el desafío es grande, especialmente si, como ya se ha visto, los usuarios no buscan este contenido activamente: simplemente les llega.

Te puede interesar: [Por qué OpenAI está prohibiendo los videos de Martin Luther King Jr?]

La propia investigación concluye con una advertencia clara: padres, expertos y hasta el consejo asesor de Meta han pedido que este tipo de publicaciones se limiten. Porque si bien no rompen las reglas, pueden romper algo más delicado: la salud mental de quienes están aprendiendo a aceptarse.



Source link

RELATED ARTICLES

Noticias mas leidas