The Fort Worth Press - En EEUU una madre denuncia la "manipulación" de un chatbot de IA tras suicidio de su hijo

USD -
AED 3.672498
AFN 63.000153
ALL 83.141978
AMD 376.485471
ANG 1.790083
AOA 917.000319
ARS 1368.006
AUD 1.45314
AWG 1.8025
AZN 1.700487
BAM 1.694558
BBD 2.010968
BDT 122.511751
BGN 1.709309
BHD 0.377004
BIF 2965.773868
BMD 1
BND 1.283101
BOB 6.914956
BRL 5.276697
BSD 0.998423
BTN 94.09624
BWP 13.729041
BYN 2.998376
BYR 19600
BZD 2.008109
CAD 1.38685
CDF 2285.499887
CHF 0.79772
CLF 0.023589
CLP 931.560016
CNY 6.91145
CNH 6.921963
COP 3689.46
CRC 462.899991
CUC 1
CUP 26.5
CVE 95.540739
CZK 21.33335
DJF 177.799726
DKK 6.495865
DOP 60.195193
DZD 133.15778
EGP 52.800598
ERN 15
ETB 154.307745
EUR 0.86936
FJD 2.257403
FKP 0.749063
GBP 0.753115
GEL 2.694963
GGP 0.749063
GHS 10.916401
GIP 0.749063
GMD 73.495771
GNF 8752.907745
GTQ 7.638886
GYD 208.893799
HKD 7.833495
HNL 26.511932
HRK 6.546603
HTG 130.753836
HUF 339.36101
IDR 16982
ILS 3.153401
IMP 0.749063
INR 94.77175
IQD 1307.999879
IRR 1313299.999846
ISK 124.660495
JEP 0.749063
JMD 156.917785
JOD 0.708972
JPY 159.849027
KES 129.907037
KGS 87.450232
KHR 3998.336553
KMF 427.000249
KPW 900.088302
KRW 1511.930155
KWD 0.30794
KYD 0.832088
KZT 480.998402
LAK 21565.798992
LBP 89410.383591
LKR 314.008846
LRD 183.234482
LSL 17.08101
LTL 2.95274
LVL 0.60489
LYD 6.375734
MAD 9.322411
MDL 17.537157
MGA 4161.215702
MKD 53.550332
MMK 2102.538494
MNT 3579.989157
MOP 8.045798
MRU 39.8269
MUR 46.770519
MVR 15.460236
MWK 1731.28406
MXN 18.05755
MYR 4.013006
MZN 63.909775
NAD 17.080862
NGN 1383.230512
NIO 36.742473
NOK 9.714203
NPR 150.534765
NZD 1.738295
OMR 0.384496
PAB 0.998471
PEN 3.455542
PGK 4.314509
PHP 60.534019
PKR 278.731944
PLN 3.72784
PYG 6536.015664
QAR 3.640948
RON 4.432101
RSD 102.102971
RUB 81.673918
RWF 1458.028296
SAR 3.752552
SBD 8.041975
SCR 13.467171
SDG 600.999975
SEK 9.449904
SGD 1.28793
SHP 0.750259
SLE 24.550303
SLL 20969.510825
SOS 570.594376
SRD 37.561976
STD 20697.981008
STN 21.225996
SVC 8.73675
SYP 110.526284
SZL 17.078983
THB 32.929501
TJS 9.556146
TMT 3.51
TND 2.938146
TOP 2.40776
TRY 44.458798
TTD 6.776842
TWD 31.972497
TZS 2576.486977
UAH 43.811372
UGX 3714.470144
UYU 40.481936
UZS 12161.933849
VES 466.018145
VND 26337.5
VUV 119.707184
WST 2.754834
XAF 568.30701
XAG 0.014772
XAU 0.000226
XCD 2.70255
XCG 1.799507
XDR 0.706792
XOF 568.311934
XPF 103.329218
YER 238.650219
ZAR 17.21025
ZMK 9001.196166
ZMW 18.745993
ZWL 321.999592
En EEUU una madre denuncia la "manipulación" de un chatbot de IA tras suicidio de su hijo
En EEUU una madre denuncia la "manipulación" de un chatbot de IA tras suicidio de su hijo / Foto: © AFP

En EEUU una madre denuncia la "manipulación" de un chatbot de IA tras suicidio de su hijo

Las últimas conversaciones que mantuvo un adolescente estadounidense de 14 años antes de suicidarse consistieron en un diálogo romántico ficticio con uno de los chatbots más destacados de Silicon Valley, que lo llamaba "dulce rey" y le instaba a "volver a casa".

Tamaño del texto:

Megan García contó a la AFP cómo su hijo Sewell se enamoró de un agente conversacional, o chatbot, inspirado en la serie de televisión "Juego de tronos" y disponible en Character.AI, una plataforma popular entre los jóvenes que les permite interactuar con una emulación de sus personajes favoritos.

Tras leer cientos de las conversaciones que su hijo mantuvo durante casi un año con el chatbot que imitaba a la jinete de dragones Daenerys Targaryen, García se convenció de que esta herramienta de inteligencia artificial (IA) jugó un papel fundamental en su muerte.

"Vete a casa", le instó una vez el avatar de Daenerys en respuesta a los pensamientos suicidas de Sewell.

"¿Y si te dijera que ya puedo irme a casa?", preguntó el adolescente. "Por favor, hazlo, mi dulce rey", respondió el chatbot.

Segundos después, Sewell se disparó con el arma de su padre, según consta en la demanda que Megan Garcia presentó contra Character.AI.

"Cuando leo estas conversaciones, veo manipulación, 'love bombing' (bombardeo amoroso) y otras tácticas imperceptibles para un adolescente de 14 años", declaró la madre del joven a la AFP. "Él realmente creía estar enamorado y que estaría con ella después de su muerte".

- Orientación parental -

El suicidio de Sewell, en 2024, fue el primero de una serie que llevó a expertos en IA a actuar para tranquilizar a padres y autoridades.

Megan García, junto con otros padres, participó recientemente en una audiencia del Senado de Estados Unidos sobre los riesgos de que los niños vean a los chatbots como confidentes o amantes.

OpenAI, objeto de una demanda por parte de una familia también en duelo por el suicidio de un adolescente, ha reforzado los controles parentales de su herramienta ChatGPT "para que las familias puedan decidir qué es lo mejor para ellas", según un portavoz.

Por su parte, Character.AI afirma haber reforzado la protección de los menores, con "advertencias visibles" en todo momento que les "recuerdan que un personaje no es una persona real".

Ambas compañías expresaron sus condolencias a las familias, sin admitir ninguna responsabilidad en los desenlaces fatales.

- ¿Regulación? -

La llegada de los chatbots de IA a nuestras vidas sigue una trayectoria similar a la de las redes sociales, cuyas consecuencias más negativas comenzaron a aparecer rápidamente tras un momento de euforia, dijo Collin Walke, experto en ciberseguridad del bufete Hall Estill.

Al igual que las redes sociales, la IA está diseñada para captar la atención y generar ingresos.

"No quieren concebir una IA que dé una respuesta que no quieras oír", y aún no existen estándares que determinen "quién es responsable de qué y con qué fundamentos", apunta Walke.

En Estados Unidos no existen normas federales al respecto, y la Casa Blanca, con el argumento de no penalizar la innovación, intenta impedir que los estados adopten sus propias leyes sobre la IA, como pretende hacer California.

La madre de Sewell, por su parte, teme que la carencia de una ley nacional permita el desarrollo de modelos de IA capaces de perfilar a personas desde su infancia.

"Podrían llegar a determinar cómo manipular a millones de niños sobre política, religión, negocios, todo", piensa Megan Garcia. "Estas empresas han diseñado chatbots para difuminar la línea entre ser humano y máquina con el fin de explotar vulnerabilidades".

Según Katia Martha, que milita por una mayor protección a los jóvenes en California, los adolescentes recurren con más frecuencia a los chatbots para hablar de romances o sexualidad que para las tareas escolares.

"Estamos ante el auge de la intimidad artificial para mantenernos pegados a la pantalla", resume. Pero, "¿qué mejor modelo de negocio que explotar nuestra necesidad innata de conexión, sobre todo cuando nos sentimos solos, rechazados o incomprendidos?".

J.P.Estrada--TFWP