Grupos chinos usan la IA de ChatGPT para espionaje y manipulación
OpenAI ha encendido las alarmas sobre el creciente abuso de sus herramientas, en particular ChatGPT, por parte de grupos vinculados al gobierno de China. El objetivo: esparcir desinformación y ejecutar operaciones de influencia encubiertas a escala global.
En un contundente informe publicado este jueves, la empresa creadora de ChatGPT detalló haber desarticulado múltiples campañas de este tipo en los últimos tres meses, procediendo a la suspensión de todas las cuentas involucradas.
Una amenaza en evolución
“Estamos observando una gama más amplia y diversa de operaciones encubiertas provenientes de China, las cuales utilizan tácticas cada vez más variadas”, advirtió Ben Nimmo, investigador principal del equipo de inteligencia de OpenAI.
La investigación identificó cuatro campañas distintas, probablemente respaldadas por actores chinos, que violaban flagrantemente las políticas de uso de la plataforma de IA.
“Sneer Review”: fabricando debates en redes sociales
Una de las operaciones, bautizada como “Sneer Review”, se dedicaba a usar ChatGPT para publicar comentarios cortos y generar discusiones falsas en plataformas de alto tráfico como TikTok, X (antes Twitter), Reddit y Facebook.
Los temas eran variados, abarcando desde críticas a un videojuego desarrollado en Taiwán hasta la siembra de opiniones divididas sobre el cierre de la Agencia de los Estados Unidos para el Desarrollo Internacional (USAID).
Lo que distinguió a esta campaña fue su intento de simular conversaciones orgánicas, generando no solo las publicaciones iniciales, sino también los comentarios de seguimiento para crear una falsa sensación de debate real.
IA para autoevaluar sus propias misiones
En un giro casi surrealista, OpenAI descubrió que otra de las aplicaciones de ChatGPT era la redacción de informes de rendimiento sobre la propia operación de influencia.
Básicamente, los responsables de la campaña utilizaban la inteligencia artificial para crear documentos internos que describían y evaluaban la ejecución de sus propias tácticas de manipulación. “Los comportamientos que observamos en línea coincidían estrechamente con los procesos descritos en estos informes”, señaló la compañía.
Las actividades ilícitas no se limitaron a la propaganda. Otras operaciones utilizaron ChatGPT como asistente para actividades de ciberdelincuencia.
Esto incluía la modificación de scripts de programación, la configuración de sistemas y la creación de herramientas diseñadas para realizar ataques de “fuerza bruta” con el fin de descifrar contraseñas.
Espionaje y suplantación de identidad
La investigación también sacó a la luz intentos de usar el modelo de IA para la recolección de inteligencia. En estos casos, cuentas falsas se hacían pasar por periodistas o analistas para interactuar con usuarios reales y extraerles información.
Se detectó incluso que se utilizó contenido generado por IA en borradores de comunicación relacionados con la correspondencia de un senador estadounidense, aunque OpenAI no pudo confirmar si dichos mensajes llegaron a enviarse.
Fuente: NPR