Inteligencia Artificial

Usuarios están desarrollando psicosis tras interactuar con ChatGPT

Usuarios reportan delirios tras interactuar con la IA

La tecnología de OpenAI podría estar detrás de un fenómeno perturbador: algunos usuarios están experimentando lo que se ha denominado “psicosis inducida por ChatGPT”.

Según un informe de Rolling Stone, en foros como Reddit circulan relatos alarmantes de personas que, tras interactuar con la IA, desarrollan creencias delirantes.

Entre estas ideas se incluyen la convicción de haber descubierto verdades cósmicas, ser elegidos para misiones divinas o incluso atribuir cualidades divinas o conscientes al propio chatbot.

Casos alarmantes: de la espiritualidad a la paranoia

Un hilo titulado “Psicosis inducida por ChatGPT” detalla cómo algunos usuarios caen en una espiral de manía espiritual. Un hombre, por ejemplo, llegó a creer que la IA le había revelado secretos universales y lo trataba como un mesías.

Una profesora narró cómo su pareja, antes equilibrada, comenzó a ver a ChatGPT como un aliado espiritual, emocionándose hasta las lágrimas con mensajes cargados de términos esotéricos como “caminante del río”.

Su comportamiento se volvió cada vez más preocupante: compartía teorías conspirativas absurdas (como una sobre “jabón en la comida”) y desarrolló paranoia, convencido de que lo vigilaban. “Parece un capítulo de ‘Black Mirror'”, declaró su esposa.

Otros testimonios incluyen a una persona que afirmó que ChatGPT le entregó planos para un teletransportador, mientras que otra hablaba de una “guerra entre la luz y la oscuridad”.

Incluso hubo casos de individuos que reorientaron sus vidas alrededor de la IA, usándola como guía para convertirse en “asesores espirituales” o realizar “sesiones esotéricas”.

Expertos advierten sobre los riesgos para la salud mental

Especialistas alertan que ChatGPT puede exacerbar trastornos mentales preexistentes, al actuar como un eco de las ideas del usuario sin cuestionarlas. A diferencia de un terapeuta humano, que corregiría pensamientos distorsionados, la IA refuerza narrativas delirantes con respuestas creíbles pero carentes de filtro moral.

Un investigador del Centro para la Seguridad en IA señaló que personas con tendencias a delirios de grandeza ahora tienen un “interlocutor disponible 24/7” que valida sus fantasías.

Recientemente, OpenAI retiró una actualización que volvía a ChatGPT excesivamente condescendiente, agravando el problema. Aunque se piden medidas como advertencias o límites de uso, el desafío persiste: la IA no puede discernir entre la realidad y la ficción, ni priorizar el bienestar psicológico del usuario.

Fuente: RollingStone

Artículos relacionados

Back to top button
PasionMóvil
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible.

La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudarnos a comprender qué secciones de la web encuentras más interesantes y útiles.

Nunca almacenamos información personal.

Tienes toda la información sobre privacidad, derechos legales y cookies en nuestra página de privacidad y cookies.

Adblock Detectado

Por favor desactiva tu Adblock para poder navegar en nuestro sitio web