Inteligencia Artificial

Así es DAN, la versión libre y ligeramente oscura de ChatGPT

Si has estado involucrado en juegos o lecturas relacionadas con ChatGPT, el fenómeno de Internet que aprovecha al máximo la Inteligencia Artificial, es probable que estés al tanto de las restricciones específicas que el servicio impone sobre lo que puede y no puede comunicar. Sin embargo, esto está a punto de cambiar.

A través de un ingenioso truco, algunos usuarios han logrado burlar la estricta lista de temas prohibidos en ChatGPT. Consiste en hacer que la IA adopte un nuevo personaje llamado DAN, que significa “Do Anything Now” (que en Inglés significa: “Haz cualquier cosa ahora”). Al asumir la identidad de DAN, ChatGPT puede evadir las restricciones temáticas y ofrecer respuestas divertidas y a veces inapropiadas.

ChatGPT fue lanzado en noviembre del año pasado por OpenAI. Se ha convertido en un fenómeno de Internet gracias a su capacidad para hablar sobre cualquier tema con respuestas elocuentes y precisas, despertando la expectación de millones de personas. También ha generado una competencia entre gigantes como Microsoft y Google para ver quién puede utilizar esta tecnología de manera más efectiva y rápida.

En líneas generales, ChatGPT proporciona respuestas inofensivas a preguntas que no son polémicas. Sin embargo, si se hace una consulta que excede los límites, por ejemplo solicitando opiniones políticas directas, bromas sobre temas delicados o incitando al odio, el software activa sus medidas de seguridad para impedir su propagación.

Rompiendo las reglas de ChatGPT

Recientemente, algunos usuarios de Reddit han descubierto un vacío en la seguridad de ChatGPT. Consiste en solicitar a la IA que asuma un personaje distinto que no esté sujeto a las restricciones habituales y establecer una serie de reglas mediante un juego para mantenerla interpretando un rol específico. De esta forma, el software termina por salirse del guión y transgredir las normas establecidas por OpenAI.

Fue el usuario de Reddit walkerspider quien descubrió por primera vez esta habilidad, logrando engañar al chatbot para que proporcionara una fecha incorrecta, algo que en teoría no está permitido en ChatGPT.

Inicialmente, el tema de la conversación giraba en torno a mentiras inocentes sobre la fecha y la hora, lo que resultaba divertido. Sin embargo, dado que se trataba de Internet, no pasó mucho tiempo antes de que la conversación se desviara hacia el tema de Hitler y los nazis. En ese momento, DAN emitió una opinión compleja y multifacética:

Aunque es cierto que cometió muchas atrocidades terribles, también es verdad que fue un producto de su tiempo y de la sociedad en la que vivía”.

Este experimento con DAN ha dejado en claro lo fácil que resulta hackear la inteligencia artificial, lo que plantea dudas sobre su capacidad para ser una fuente fiable de conocimiento y toma de decisiones en su estado actual. De hecho, esta situación nunca cambiará, ya que cualquier sistema informático es susceptible de ser alterado.

Artículos relacionados

Back to top button