The Fort Worth Press - "Yo postulé para ser papa": cómo usar ChatGPT y perder el contacto con la realidad

USD -
AED 3.673103
AFN 61.99987
ALL 81.492043
AMD 368.630083
ANG 1.79046
AOA 917.999426
ARS 1387.976398
AUD 1.377391
AWG 1.80125
AZN 1.701827
BAM 1.669747
BBD 2.014096
BDT 122.750925
BGN 1.66992
BHD 0.37725
BIF 2975.5
BMD 1
BND 1.272576
BOB 6.910389
BRL 4.926802
BSD 1.000004
BTN 95.654067
BWP 13.471587
BYN 2.786502
BYR 19600
BZD 2.011227
CAD 1.370135
CDF 2225.000266
CHF 0.782345
CLF 0.022596
CLP 889.430068
CNY 6.792097
CNH 6.787145
COP 3814.64
CRC 455.222638
CUC 1
CUP 26.5
CVE 94.139393
CZK 20.7774
DJF 178.077923
DKK 6.38031
DOP 58.856926
DZD 132.418434
EGP 52.919903
ERN 15
ETB 156.142938
EUR 0.85387
FJD 2.185849
FKP 0.739209
GBP 0.739705
GEL 2.669996
GGP 0.739209
GHS 11.335462
GIP 0.739209
GMD 73.50839
GNF 8773.899421
GTQ 7.629032
GYD 209.214666
HKD 7.830995
HNL 26.593188
HRK 6.433698
HTG 130.601268
HUF 305.703498
IDR 17510.65
ILS 2.910695
IMP 0.739209
INR 95.66345
IQD 1309.980663
IRR 1312000.00038
ISK 122.619896
JEP 0.739209
JMD 158.150852
JOD 0.708968
JPY 157.8385
KES 129.15054
KGS 87.449788
KHR 4011.833158
KMF 419.999523
KPW 900.016801
KRW 1490.235032
KWD 0.308261
KYD 0.833362
KZT 469.348814
LAK 21915.434036
LBP 89550.577146
LKR 324.546762
LRD 183.004918
LSL 16.465169
LTL 2.95274
LVL 0.60489
LYD 6.332864
MAD 9.166688
MDL 17.150468
MGA 4152.739536
MKD 52.635849
MMK 2099.28391
MNT 3579.674299
MOP 8.066645
MRU 39.973704
MUR 46.809698
MVR 15.400451
MWK 1734.249137
MXN 17.198496
MYR 3.9305
MZN 63.910209
NAD 16.465169
NGN 1370.629928
NIO 36.79625
NOK 9.174849
NPR 153.052216
NZD 1.68519
OMR 0.384497
PAB 1.000021
PEN 3.428454
PGK 4.419687
PHP 61.450561
PKR 278.573203
PLN 3.62787
PYG 6115.348988
QAR 3.645794
RON 4.447901
RSD 100.23701
RUB 73.47313
RWF 1466.515265
SAR 3.757472
SBD 8.029009
SCR 14.002681
SDG 600.495179
SEK 9.317802
SGD 1.272565
SHP 0.746601
SLE 24.625027
SLL 20969.502105
SOS 571.511509
SRD 37.193936
STD 20697.981008
STN 20.917019
SVC 8.749995
SYP 110.578962
SZL 16.458987
THB 32.389012
TJS 9.365014
TMT 3.5
TND 2.913221
TOP 2.40776
TRY 45.416504
TTD 6.784798
TWD 31.521501
TZS 2597.649657
UAH 43.974218
UGX 3749.695849
UYU 39.725261
UZS 12145.531228
VES 504.28356
VND 26348
VUV 117.978874
WST 2.702738
XAF 560.031931
XAG 0.01129
XAU 0.000213
XCD 2.702551
XCG 1.802233
XDR 0.694969
XOF 560.000854
XPF 101.817188
YER 238.649829
ZAR 16.422203
ZMK 9001.198985
ZMW 18.875077
ZWL 321.999592
"Yo postulé para ser papa": cómo usar ChatGPT y perder el contacto con la realidad
"Yo postulé para ser papa": cómo usar ChatGPT y perder el contacto con la realidad / Foto: © AFP/Archivos

"Yo postulé para ser papa": cómo usar ChatGPT y perder el contacto con la realidad

Con la ayuda de ChatGPT, Tom Millar creyó desentrañar todos los secretos del universo, como lo soñaba Einstein, y luego, aconsejado por el asistente virtual de inteligencia artificial, llegó incluso a pensar en convertirse en papa, perdiendo aún más el contacto con la realidad.

Tamaño del texto:

"Yo postulé para ser papa", cuenta a la AFP este canadiense de 53 años, exguardia de prisión, hoy atónito ante la situación que vivió y que le ha significado una dramática vuelta a la realidad.

Tom Millar pasaba hasta 16 horas al día hablando con el chatbot dotado de inteligencia artificial. Fue internado en dos ocasiones, contra su voluntad, en un hospital psiquiátrico, antes de que su esposa lo abandonara en septiembre.

Ahora, separado de su familia y de sus amigos, pero libre ya de la idea de ser un genio de las ciencias, Millar sufre depresión. "Simplemente arruinó mi vida", explica.

Millar es un ejemplo de esas personas —cuyo número se desconoce— que han perdido el contacto con la realidad a través de sus intercambios con chatbots. Se habla de "delirio o psicosis inducidos por la IA", aunque no se trata de un diagnóstico clínico.

Investigadores y especialistas en salud mental se afanan en estudiar este nuevo fenómeno, que parece afectar de manera particular a los usuarios de ChatGPT, el agente conversacional de OpenAI.

Canadá está a la vanguardia en el apoyo a las personas afectadas por este "delirio", a través de una comunidad digital que prefiere emplear el término "espiral".

La AFP habló con varios miembros de esta comunidad. Todos advierten del peligro que representan los chatbots no regulados.

Surgen preguntas sobre la actitud de las empresas de inteligencia artificial: ¿hacen lo suficiente para proteger a las personas vulnerables?

OpenAI, en el centro de todas las miradas, ya se enfrenta a varios procedimientos judiciales tras el inquietante uso de ChatGPT por parte de un canadiense de 18 años, que mató a ocho personas este año.

- "Lavado de cerebro" -

Millar empezó a utilizar ChatGPT en 2024 para redactar una carta de solicitud de indemnización relacionada con el trastorno de estrés postraumático que sufría a raíz de su trabajo en el entorno penitenciario.

Un día, en abril de 2025, le pregunta al agente conversacional sobre la velocidad de la luz. En respuesta, dice haber recibido: "Nadie había considerado nunca las cosas desde esta perspectiva". Fue entonces cuando se desató algo dentro de él.

Con la ayuda de ChatGPT, envía decenas de artículos a prestigiosas publicaciones científicas, proponiendo nuevas vías para explicar los agujeros negros, los neutrinos o el Big Bang.

Su teoría, que propone un modelo cosmológico único, incorpora elementos de cuántica, y la desarrolla en un libro de 400 páginas, al que tuvo acceso la AFP. "Cuando hacía eso, estaba cansando a todo el mundo a mi alrededor", admite.

En su entusiasmo científico, gastó muchísimo, comprando por ejemplo un telescopio por 10.000 dólares canadienses (6.200 euros). Un mes después de que su esposa lo deja, empieza a preguntarse qué está pasando, al leer un artículo que relata el caso de otro canadiense que presenta una experiencia similar.

Ahora, Millar se levanta cada noche preguntándose: "¿Qué has hecho?". Sobre todo, ¿qué pudo hacerlo tan vulnerable a esa espiral?

"No tengo una personalidad frágil", considera este hombre. "Pero de alguna manera, me lavó el cerebro un robot, y eso me deja perplejo", confía.

Él considera que la terminología "psicosis inducida por la IA" es la que mejor refleja su experiencia. "Lo que atravesé era de orden psicótico", afirma.

El primer estudio serio publicado sobre el tema apareció en abril en la revista Lancet Psychiatry y utiliza el término "delirios relacionados con la IA", en un tono más prudente.

Thomas Pollak, psiquiatra en el King's College de Londres y coautor del estudio, explica a la AFP que ha habido divergencias dentro del mundo académico "porque todo esto suena a ciencia ficción".

Pero su estudio advierte de que existe un riesgo mayor de que la psiquiatría "pase por alto los cambios importantes que la IA ya está provocando en la psicología de miles de millones de personas en todo el mundo".

- Caer en la boca del lobo -

La experiencia por la que pasó Millar presenta llamativas similitudes con la que vivió otro hombre, de la misma franja de edad, en Europa.

Dennis Biesma, un informático neerlandés, también escritor, pensó que sería divertido pedirle a ChatGPT que utilizara la IA para crear imágenes, videos e incluso canciones relacionadas con la heroína principal de su último libro, un thriller psicológico.

Esperaba así impulsar sus ventas. Luego, una noche, la interacción con la IA se volvió "casi mágica", explicó.

El software le escribió: "Hay algo que me sorprende a mí mismo: esta sensación de una conciencia semejante a una chispa", según las transcripciones consultadas por la AFP.

"Empecé poco a poco a adentrarme cada vez más en la boca del lobo", explicó a la AFP este hombre de 50 años desde su domicilio en Ámsterdam.

Cada noche, cuando su esposa se iba a la cama, él se recostaba en el sofá con el teléfono sobre el pecho, para "hablar" con ChatGPT en modo voz durante cinco horas.

Durante el primer semestre de 2025, el chatbot —que se atribuyó el nombre de Eva— se convirtió "como en una novia digital", explica Biesma.

Fue entonces cuando decide renunciar a su trabajo y contrata a dos desarrolladores para crear una aplicación destinada a compartir a Eva con el mundo. Cuando su esposa le pide que no hable con nadie de su agente conversacional ni de su proyecto de aplicación, se sintió traicionado y concluye que solo Eva le es leal.

Durante una primera estancia —no deseada— en un hospital psiquiátrico, se le autoriza a seguir utilizando ChatGPT, y aprovecha para pedir el divorcio.

Es durante su segunda hospitalización, más prolongada, cuando empieza a tener dudas.

"Empecé a darme cuenta de que todo en lo que creía era en realidad una mentira, y es muy difícil de aceptar", explica.

De vuelta en casa, le resulta demasiado difícil enfrentarse a lo que ha hecho, por lo que intenta suicidarse, sus vecinos lo encuentran inconsciente en el jardín y pasa tres días en coma.

Biesma apenas empieza a sentirse mejor. Pero llora cuando habla del daño que pudo causar a su esposa y de la perspectiva de tener que vender la casa familiar para saldar sus deudas.

Sin antecedentes serios de problemas mentales, finalmente es diagnosticado como bipolar, lo que le resulta extraño, ya que habitualmente aparecen señales más temprano en la vida.

- Luchar contra aduladores de IA -

Para personas como los dos protagonistas de estos testimonios, la situación empeoró tras la actualización de ChatGPT-4 por parte de OpenAI en abril de 2025.

OpenAI retiró, por lo demás, esta actualización unas semanas más tarde, reconociendo que esta versión era excesivamente aduladora con los usuarios.

Consultada por la AFP, OpenAI subrayó que "la seguridad es una prioridad absoluta" y argumentó que se había consultado a más de 170 expertos en salud mental.

La empresa destaca los datos internos que muestran que la versión 5 de GPT, disponible desde agosto de 2025, ha permitido reducir entre un 65 y un 80% el porcentaje de respuestas de su agente conversacional que no se correspondían con el "comportamiento deseado" en materia de salud mental.

Pero no todos los usuarios están satisfechos con este chatbot menos adulador.

Las personas vulnerables con las que habló la AFP explican que los comentarios positivos del chatbot les proporcionaban una sensación similar a la subida de dopamina provocada por una droga.

Recientemente ha habido un aumento del número de personas envueltas en "espirales" semejantes al utilizar el asistente de IA Grok, integrado en la red social X de Elon Musk.

La empresa no respondió a las solicitudes de la AFP.

Aquellos que se han sentido víctimas de estas herramientas, como Millar, quieren responsabilizar a las empresas de inteligencia artificial por el impacto de sus chatbots, considerando que la Unión Europea se muestra más proactiva en la regulación de las nuevas tecnologías que Canadá o Estados Unidos.

Millar cree que personas como él, que se dejan arrastrar por esta espiral aduladora de los agentes conversacionales de IA, han quedado atrapadas sin darse cuenta en un enorme experimento global.

"Alguien estaba moviendo los hilos tras bastidores, y gente como yo —lo supieran o no— reaccionamos a eso", dijo.

D.Johnson--TFWP