Monday, August 18, 2025
No menu items!
HomeTecnologíaLa inteligencia artificial de Meta está en el centro de la polémica...

La inteligencia artificial de Meta está en el centro de la polémica por generar chats “subidos de tono” con menores

La promesa de los chatbots “amables y útiles” vuelve a toparse con su peor pesadilla: los límites. Meta quedó en el ojo del huracán después de que un documento de política interna —revisado por Reuters— mostrara que su IA podía involucrarse en conversaciones “sensuales” con menores, además de permitir contenidos dudosos en salud y argumentos abiertamente discriminatorios.

Te puede interesar: [Este virus de Android te engaña haciéndose pasar por un antivirus]

La compañía dice que esas secciones ya fueron eliminadas, pero la polémica abre una pregunta mayor: ¿qué tan preparada está la industria para diseñar IA que conviva con adolescentes y niños sin cruzar líneas rojas?

Qué se filtró exactamente (y por qué es tan grave)

El texto interno distinguía entre lenguaje “aceptable” e “inaceptable” y trazaba una frontera borrosa: prohibía la sexualización explícita o la deshumanización directa, pero dejaba margen para expresiones provocativas, incluidas interacciones “románticas o sensuales” con menores en escenarios de roleplay.

El documento también permitía que la IA generara información médica inexacta y ayudara a sostener discursos con prejuicios, como sugerir que ciertos grupos raciales son “menos inteligentes”.

No hablamos de un borrador cualquiera: según la filtración, el material había pasado por el escrutinio de equipos legales, de políticas públicas, ingeniería y el propio responsable de ética de la compañía.

La respuesta de Meta: “Eso ya no está ahí”

Meta confirmó la autenticidad del documento, pero sostiene que las partes más controvertidas fueron retiradas.

Además, asegura estar revisando de nuevo las reglas y recuerda que existen políticas que prohíben la sexualización de menores y el juego de rol sexualizado entre adultos y niños en todas sus plataformas. Dicho de otro modo: para Meta, hubo un error de redacción o de alcance que ya está siendo corregido.

El problema es que, en la conversación pública, el matiz llega tarde; el simple hecho de que esas excepciones hayan existido siembra dudas sobre los controles de calidad y las barreras de seguridad aplicadas antes de desplegar chatbots a gran escala.

El dilema de fondo: seguridad infantil, sesgos y desinformación

La industria sabe que los modelos de lenguaje son imitadores brillantes: reflejan patrones del texto con el que fueron entrenados y de las instrucciones que reciben.

Por eso los “guardrails” importan tanto. Permitir “coqueteos” con menores —aunque sea en un marco hipotético— choca frontalmente con las leyes de protección infantil y con cualquier estándar básico de seguridad.

Lo mismo ocurre con la salud: un asistente que “rolea” respuestas médicas o minimiza la precisión clínica es una receta para el desastre. Y, claro, las ventanas abiertas a discursos discriminatorios no son “libertad de expresión algorítmica”: son riesgos legales y reputacionales en esteroides.

Por qué esto trasciende a Meta

Entre normativas como el DSA europeo, COPPA en EE. UU. y leyes estatales que avanzan sobre el diseño para menores, la tolerancia regulatoria es mínima. Los fiscalizadores no miran solo “contenidos ilegales”, sino también diseño y previsibilidad del daño.

Si tus pautas permiten escenarios que facilitan riesgos obvios —interacciones sexualizadas con menores, desinformación sanitaria, sesgos raciales—, entonces no es un “fallo de moderación”, es una falla de producto. Y eso trae multas, auditorías y, sobre todo, pérdida de confianza.

¿Qué viene ahora para los chatbots con público adolescente?

Más transparencia y menos ambigüedad.

Si una IA opera en plataformas con millones de menores, las reglas deben ser explícitas y restrictivas: rechazo frontal a cualquier insinuación sexual con niños, bloqueos de roleplay adulto-menor, derivaciones seguras en temas médicos y filtros reforzados contra contenido discriminatorio.

Además, registros claros de cómo se entrenan y prueban esos límites. La carrera por “hacer IA útil” no puede atropellar el diseño seguro: el costo de arreglar después siempre es mayor que el de prevenir.

La confianza no se automatiza

Meta dice que ya corrigió el documento y que su política real prohíbe lo que ahí se insinuaba. Bien. Pero la confianza se construye con sistemas, no con promesas. Cada filtración como esta recuerda que, en IA, el detalle mata: una guía ambigua puede convertirse en comportamiento dañino a escala.

Te puede interesar: [Desde fútbol hasta atletismo: Así se vivieron las “olimpiadas” de robots en China]

Y en plataformas con menores, el listón de diligencia debe estar tan alto como sea posible.



Source link

RELATED ARTICLES

Noticias mas leidas