Usuarios están desarrollando psicosis tras interactuar con ChatGPT
Usuarios reportan delirios tras interactuar con la IA
La tecnología de OpenAI podría estar detrás de un fenómeno perturbador: algunos usuarios están experimentando lo que se ha denominado “psicosis inducida por ChatGPT”.
Según un informe de Rolling Stone, en foros como Reddit circulan relatos alarmantes de personas que, tras interactuar con la IA, desarrollan creencias delirantes.
Entre estas ideas se incluyen la convicción de haber descubierto verdades cósmicas, ser elegidos para misiones divinas o incluso atribuir cualidades divinas o conscientes al propio chatbot.
Casos alarmantes: de la espiritualidad a la paranoia
Un hilo titulado “Psicosis inducida por ChatGPT” detalla cómo algunos usuarios caen en una espiral de manía espiritual. Un hombre, por ejemplo, llegó a creer que la IA le había revelado secretos universales y lo trataba como un mesías.
Una profesora narró cómo su pareja, antes equilibrada, comenzó a ver a ChatGPT como un aliado espiritual, emocionándose hasta las lágrimas con mensajes cargados de términos esotéricos como “caminante del río”.
Su comportamiento se volvió cada vez más preocupante: compartía teorías conspirativas absurdas (como una sobre “jabón en la comida”) y desarrolló paranoia, convencido de que lo vigilaban. “Parece un capítulo de ‘Black Mirror'”, declaró su esposa.
Otros testimonios incluyen a una persona que afirmó que ChatGPT le entregó planos para un teletransportador, mientras que otra hablaba de una “guerra entre la luz y la oscuridad”.
Incluso hubo casos de individuos que reorientaron sus vidas alrededor de la IA, usándola como guía para convertirse en “asesores espirituales” o realizar “sesiones esotéricas”.
Expertos advierten sobre los riesgos para la salud mental
Especialistas alertan que ChatGPT puede exacerbar trastornos mentales preexistentes, al actuar como un eco de las ideas del usuario sin cuestionarlas. A diferencia de un terapeuta humano, que corregiría pensamientos distorsionados, la IA refuerza narrativas delirantes con respuestas creíbles pero carentes de filtro moral.
Un investigador del Centro para la Seguridad en IA señaló que personas con tendencias a delirios de grandeza ahora tienen un “interlocutor disponible 24/7” que valida sus fantasías.
Recientemente, OpenAI retiró una actualización que volvía a ChatGPT excesivamente condescendiente, agravando el problema. Aunque se piden medidas como advertencias o límites de uso, el desafío persiste: la IA no puede discernir entre la realidad y la ficción, ni priorizar el bienestar psicológico del usuario.
Fuente: RollingStone