Un video realizado en modo de broma llamado el “hombre sin hogar con IA”, que es tendencia en la red social TikTok, ha causado preocupaciones en los Estados Unidos y otros países. A tal nivel que los departamentos de la policía han tenido que emitir advertencias públicas.
La práctica, que aprovecha el realismo de los modernos generadores de Inteligencia Artificial (IA), está provocando pánico innecesario y mal uso de los servicios de emergencia.
La broma se basa en un concepto simple: Los participantes toman una foto dentro de sus casas (cerca de la puerta, en la cocina o en el sofá).
Utilizan herramientas de IA (como Google Gemini o filtros de Snapchat/CapCut) para insertar la imagen de una persona sin hogar en la foto, haciendo que parezca que está sentada, comiendo o revisando el lugar. El joven envía la imagen con un mensaje alarmante (ej. “¡Hay un hombre en casa y no se quiere ir!”) a un padre, amigo o familiar, y graba su reacción para publicarla en redes sociales en busca de “clics” y “likes”.
La alarma del 911 y los riesgos reales
El problema principal de esta tendencia es la convincente autenticidad de las imágenes generadas por IA. Los destinatarios del mensaje, al creer que su hijo o ser querido está en una situación de peligro real por un allanamiento de morada, llaman inmediatamente a la policía.
Las autoridades han señalado que esto tiene múltiples consecuencias negativas:
- Mal uso de recursos: La policía debe responder a las llamadas como si fueran un robo o un allanamiento en curso, desviando “valiosos recursos desplegables” que podrían ser necesarios para una emergencia genuina.
- Situaciones de peligro: Los oficiales acuden a la escena sin saber que se trata de un engaño. El tratamiento de una falsa alarma como una intrusión real crea situaciones potencialmente peligrosas.
- Deshumanización: La broma también ha sido criticada por su mal gusto y por deshumanizar a las personas en situación de calle al convertirlas en el elemento atemorizante de un meme viral.
Departamentos de policía, incluyendo el de Salem, Massachusetts, han solicitado a los jóvenes que pongan fin a la práctica, citando leyes que penalizan la comunicación maliciosa de información falsa a los puntos de respuesta de seguridad pública. Este es el ejemplo más reciente de cómo la proliferación de imágenes ultra-realistas generadas por IA se está utilizando para crear hoaxes y falsas alarmas en el mundo digital.