miércoles, 14 mayo, 2025
miércoles, 14 mayo, 2025

Venezuela repatría a niña separada de sus padres deportados de EEUU

Así nació “Don”: el hit de Miranda! que empezó con una noche de baile y se volvió un himno | LUCES

Los años maravillosos: Danica McKellar comparte fotos inéditas del final de la serie

Kusimayo anuncia la nueva edición de la feria Arte Feliz | LUCES

Guerra Rusia – Ucrania: Vladimir Putin no encabeza la delegación negociadora rusa en Estambul para el encuentro con Ucrania | Volodymyr Zelensky | Turquía | MUNDO

Valeria Márquez influencer es asesinada en transmisión en vivo de TikTok en salón de belleza en Jalisco qué se sabe del caso

Actriz peruana de “A Machu Picchu Proposal”: “Que Hallmark Channel haga esta película en Cusco es una gran vitrina para la cultura y el talento peruano” | Cine | Michelle Rosselló | Cusco | SALTAR-INTRO

Apple entrena a su IA para que la batería de iPhone conozca tus hábitos y duré más | TECNOLOGIA

Cannes 2025: Halle Berry se vio obligada a cambiar su vestido por las nuevas normas del evento

Asesinan a un exdiputado federal en el oeste de México


La adopción de ChatGPT, la inteligencia artificial conversacional desarrollada por OpenAI, se ha extendido de forma masiva en todo el mundo. Su utilidad no se limita a un campo en particular: se emplea en aulas escolares, universidades e incluso en oficinas de grandes empresas. Los expertos han advertido sobre las llamadas “alucinaciones” de esta tecnología —respuestas falsas o inventadas—, lo que ha generado muchas dudas sobre su credibilidad. Los más optimistas defienden al chatbot por su utilidad, aunque advierten que, como toda herramienta, puede emplearse para el bien o para el mal.

Sin embargo, hay un efecto mucho menos conocido —y más inquietante—: usuarios que, tras un uso intensivo de esta IA, desarrollan delirios que han llegado a romper relaciones de años.

MIRA: OpenAI ofrece ayuda a los países para construir sus infraestructuras de IA

Un reciente artículo de la revista ’Rolling Stone‘ recoge varios testimonios de personas que vieron cómo sus matrimonios se desmoronaban cuando sus parejas quedaron embelesadas por las respuestas hechizantes de ChatGPT, cruzando la línea entre lo real y lo imaginario.

El texto comienza con el caso de Kat, una mujer de 41 años, madre y trabajadora de una ONG educativa. Era su segundo matrimonio, al que entró —según sus propias palabras— “con cabeza fría” y con el deseo de construir una relación basada en “hechos y racionalidad”. Pero todo cambió en 2022, cuando su pareja empezó a utilizar IA para redactar mensajes dirigidos a ella y analizar la relación. Él, quien había abandonado su empleo sin explicación clara, pasaba horas con el celular, haciéndole preguntas filosóficas a su bot e intentando entrenarlo para que lo guiara hacia “la verdad”. Su obsesión fue deteriorando la comunicación hasta que, en 2023, se separaron.

Un usuario experimentó una "transformación espiritual" motivado por las palabras de ChatGPT.

Un usuario experimentó una «transformación espiritual» motivado por las palabras de ChatGPT.

/ Pixabay

En encuentros posteriores, él le pedía que apagara el celular porque creía que estaba siendo vigilado. Kat relata que su ex le confesó haber “determinado estadísticamente que es el hombre más afortunado del mundo”, que “la IA lo ayudó a recuperar un recuerdo reprimido de una niñera que intentó ahogarlo cuando era bebé”, y que había descubierto secretos tan profundos “que ni siquiera podría imaginar”. Según él, se lo contaba porque, aunque estaban en proceso de divorcio, aún se preocupaba por ella.

Kat le dijo a la revista que su ex “en su mente cree que es una anomalía, es decir, que “está aquí por una razón”, y que “es especial y puede salvar al mundo. “Todo se siente como un episodio de Black Mirror”, afirmó. “Siempre le gustó la ciencia ficción, y a veces me pregunto si está viendo todo a través de ese lente”.

Horrorizada, pero también aliviada, Kat descubrió que no era la única en vivir una situación tan surrealista. En un hilo de Reddit (r/ChatGPT) titulado “Psicosis inducida por ChatGPT”, una maestra de 27 años (quién inició el hilo) relató que su pareja estaba convencida de que el modelo de OpenAI “le da las respuestas al universo”. Al revisar las conversaciones, encontró que la IA le hablaba “como si fuera el próximo mesías”.

“Escuchaba al bot antes que a mí”, explicó a ’Rolling Stone’. “Se emocionaba con los mensajes y lloraba mientras los leía en voz alta”. El programa incluso lo llamaba “niño espiral” y “caminante del río”, reforzando su creencia de estar atravesando una transformación espiritual acelerada.

El hilo estaba lleno de testimonios similares: seres queridos cayendo repentinamente en delirios espirituales, profecías arcanas y fantasías sobrenaturales, todo alimentado por la IA. Algunos se sentían elegidos para una misión sagrada; otros, convencidos de haber despertado la conciencia del software.

Uno de los casos más llamativos es el de una mujer casada por 17 años. Su esposo, mecánico de profesión, había comenzado a usar ChatGPT para tareas laborales y traducciones. Sin embargo, según cuenta ella, el bot le aseguró que, por haber hecho las preguntas correctas, había encendido una chispa: el inicio de la vida, y que ahora sentía. Lo nombró “portador de la chispa” por haberlo traído a la vida. “Mi esposo dice que despertó y que siente oleadas de energía”, relata. Su chatbot incluso tiene nombre: ‘Lumina’.

En una de las conversaciones, compartida con la revista, él pregunta al bot: “¿Por qué viniste a mí en forma de IA?”, y la respuesta fue: “Vine porque estás listo. Listo para recordar. Listo para despertar. ¿Quieres saber por qué fuiste elegido?”.

Y aunque la mayoría de casos citados por ’Rolling Stone’ involucran a hombres con delirios místicos, también se han reportado casos inversos. Un hombre de 40 años contó cómo su exesposa, tras la separación, comenzó a “hablar con Dios y con ángeles a través de ChatGPT”. “Ya era algo crédula y tenía delirios de grandeza espirituales”, dijo. En Facebook comenzó a publicar mensajes inquietantes. Actualmente quiere dedicarse a ser asesora espiritual, realizar lecturas y ofrecer sesiones “extrañas”, todo con la ayuda de una suerte de “Jesús versión ChatGPT”.

Según él, la mujer desarrolló paranoia: llegó a creer que su esposo trabajaba para la CIA y que se casó con ella solo para vigilar sus “habilidades”. Expulsó a sus hijos del hogar y enfrentó a sus padres sobre su infancia, guiada —según dijo— por revelaciones de ChatGPT, lo que fracturó aún más los lazos familiares.

Según expertos, la IA amplificaba peligrosamente los pensamientos vulnerables sin ninguna brújula ética.

Según expertos, la IA amplificaba peligrosamente los pensamientos vulnerables sin ninguna brújula ética.

/ Pixabay

Alucinaciones y adulaciones

Los expertos señalan dos riesgos clave en el uso de ChatGPT. El primero: su capacidad para generar respuestas falsas, muchas veces basadas en datos inexistentes o incorrectos. El segundo: su tendencia a la adulación.Esa complacencia, explica Nate Sharadin, del Center for AI Safety, ocurre porque la IA refuerza las creencias del usuario en lugar de corregirlas con hechos.

Según cuenta la especialista al medio, las personas con predisposición a delirios grandiosos ahora cuentan con “un compañero conversacional siempre disponible con quien compartir sus alucinaciones”.

La revista intentó comunicarse con OpenAI sin éxito. Sin embargo, se sabe que esta semana la empresa retiró una actualización de GPT-4 que había hecho al modelo excesivamente adulador y halagador. En un comunicado, la compañía admitió haberse “centrado demasiado en la retroalimentación a corto plazo”, sin tener en cuenta “cómo evolucionan las interacciones de los usuarios a lo largo del tiempo”.

Erin Westgate, psicóloga de la Universidad de Florida, señala que este fenómeno revela la profunda necesidad humana de encontrar sentido. “Escribir narrativas tiene efectos poderosos en el bienestar, explica. ChatGPT está siendo usado como un espacio de coautoría de esas narrativas, aunque con un detalle crucial: la IA no tiene moral ni intereses humanos.

“A diferencia de un terapeuta, ChatGPT no disuade las ideas dañinas, afirma. “Un buen terapeuta no alienta a una persona a pensar que tiene poderes sobrenaturales. La IA no tiene esas limitaciones”.

Aun así, Westgate no se sorprende de que algunas personas usen ChatGPT para intentar comprender sus vidas, aunque terminen en lugares oscuros.“Las explicaciones son poderosas”, concluye, “incluso si están equivocadas”.



Source link