Inteligencia Artificial

Grupos chinos usan la IA de ChatGPT para espionaje y manipulación

OpenAI ha encendido las alarmas sobre el creciente abuso de sus herramientas, en particular ChatGPT, por parte de grupos vinculados al gobierno de China. El objetivo: esparcir desinformación y ejecutar operaciones de influencia encubiertas a escala global.

En un contundente informe publicado este jueves, la empresa creadora de ChatGPT detalló haber desarticulado múltiples campañas de este tipo en los últimos tres meses, procediendo a la suspensión de todas las cuentas involucradas.

Una amenaza en evolución

“Estamos observando una gama más amplia y diversa de operaciones encubiertas provenientes de China, las cuales utilizan tácticas cada vez más variadas”, advirtió Ben Nimmo, investigador principal del equipo de inteligencia de OpenAI.

La investigación identificó cuatro campañas distintas, probablemente respaldadas por actores chinos, que violaban flagrantemente las políticas de uso de la plataforma de IA.

“Sneer Review”: fabricando debates en redes sociales

Una de las operaciones, bautizada como “Sneer Review”, se dedicaba a usar ChatGPT para publicar comentarios cortos y generar discusiones falsas en plataformas de alto tráfico como TikTok, X (antes Twitter), Reddit y Facebook.

Los temas eran variados, abarcando desde críticas a un videojuego desarrollado en Taiwán hasta la siembra de opiniones divididas sobre el cierre de la Agencia de los Estados Unidos para el Desarrollo Internacional (USAID).

Lo que distinguió a esta campaña fue su intento de simular conversaciones orgánicas, generando no solo las publicaciones iniciales, sino también los comentarios de seguimiento para crear una falsa sensación de debate real.

IA para autoevaluar sus propias misiones

En un giro casi surrealista, OpenAI descubrió que otra de las aplicaciones de ChatGPT era la redacción de informes de rendimiento sobre la propia operación de influencia.

Básicamente, los responsables de la campaña utilizaban la inteligencia artificial para crear documentos internos que describían y evaluaban la ejecución de sus propias tácticas de manipulación. “Los comportamientos que observamos en línea coincidían estrechamente con los procesos descritos en estos informes”, señaló la compañía.

Las actividades ilícitas no se limitaron a la propaganda. Otras operaciones utilizaron ChatGPT como asistente para actividades de ciberdelincuencia.

Esto incluía la modificación de scripts de programación, la configuración de sistemas y la creación de herramientas diseñadas para realizar ataques de “fuerza bruta” con el fin de descifrar contraseñas.

Espionaje y suplantación de identidad

La investigación también sacó a la luz intentos de usar el modelo de IA para la recolección de inteligencia. En estos casos, cuentas falsas se hacían pasar por periodistas o analistas para interactuar con usuarios reales y extraerles información.

Se detectó incluso que se utilizó contenido generado por IA en borradores de comunicación relacionados con la correspondencia de un senador estadounidense, aunque OpenAI no pudo confirmar si dichos mensajes llegaron a enviarse.

Fuente: NPR

Artículos relacionados

Back to top button
PasionMóvil
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible.

La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudarnos a comprender qué secciones de la web encuentras más interesantes y útiles.

Nunca almacenamos información personal.

Tienes toda la información sobre privacidad, derechos legales y cookies en nuestra página de privacidad y cookies.

Adblock Detectado

Por favor desactiva tu Adblock para poder navegar en nuestro sitio web