The Fort Worth Press - La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos

USD -
AED 3.672504
AFN 66.097111
ALL 82.900442
AMD 380.972824
ANG 1.790055
AOA 917.000367
ARS 1434.000367
AUD 1.504891
AWG 1.8
AZN 1.70397
BAM 1.679303
BBD 2.014081
BDT 122.345769
BGN 1.680002
BHD 0.377023
BIF 2954.62156
BMD 1
BND 1.295411
BOB 6.910231
BRL 5.439604
BSD 0.999957
BTN 89.908556
BWP 13.285536
BYN 2.874941
BYR 19600
BZD 2.011162
CAD 1.38265
CDF 2232.000362
CHF 0.804198
CLF 0.0235
CLP 921.880396
CNY 7.070104
CNH 7.069041
COP 3799.167132
CRC 488.472932
CUC 1
CUP 26.5
CVE 94.676512
CZK 20.783504
DJF 178.070665
DKK 6.414904
DOP 64.002061
DZD 130.098141
EGP 47.482076
ERN 15
ETB 155.107629
EUR 0.858704
FJD 2.26045
FKP 0.750488
GBP 0.749625
GEL 2.69504
GGP 0.750488
GHS 11.375091
GIP 0.750488
GMD 73.000355
GNF 8689.3058
GTQ 7.659812
GYD 209.213068
HKD 7.784904
HNL 26.337526
HRK 6.470704
HTG 130.906281
HUF 328.020388
IDR 16689.55
ILS 3.23571
IMP 0.750488
INR 89.958504
IQD 1310.007298
IRR 42112.503816
ISK 127.980386
JEP 0.750488
JMD 160.056669
JOD 0.70904
JPY 155.360385
KES 129.352166
KGS 87.450384
KHR 4003.777959
KMF 422.00035
KPW 900.039614
KRW 1473.803789
KWD 0.30697
KYD 0.833383
KZT 505.714163
LAK 21684.626283
LBP 89549.049071
LKR 308.444597
LRD 176.001374
LSL 16.947838
LTL 2.95274
LVL 0.60489
LYD 5.435968
MAD 9.235994
MDL 17.014554
MGA 4460.567552
MKD 52.925772
MMK 2099.679458
MNT 3548.600426
MOP 8.01889
MRU 39.877216
MUR 46.070378
MVR 15.403739
MWK 1733.997338
MXN 18.174604
MYR 4.111039
MZN 63.910377
NAD 16.947838
NGN 1450.080377
NIO 36.800756
NOK 10.105104
NPR 143.853518
NZD 1.730703
OMR 0.384504
PAB 1.000043
PEN 3.361353
PGK 4.243335
PHP 58.965038
PKR 280.346971
PLN 3.63215
PYG 6877.602713
QAR 3.644958
RON 4.372604
RSD 100.802816
RUB 76.367149
RWF 1454.943545
SAR 3.752973
SBD 8.230592
SCR 13.546038
SDG 601.503676
SEK 9.40005
SGD 1.295504
SHP 0.750259
SLE 23.703667
SLL 20969.498139
SOS 570.471816
SRD 38.629038
STD 20697.981008
STN 21.036363
SVC 8.750268
SYP 11057.447322
SZL 16.934701
THB 31.875038
TJS 9.174945
TMT 3.51
TND 2.933413
TOP 2.40776
TRY 42.526038
TTD 6.778861
TWD 31.289038
TZS 2440.132229
UAH 41.981024
UGX 3537.543468
UYU 39.110462
UZS 11963.250762
VES 254.551935
VND 26360
VUV 122.070562
WST 2.788735
XAF 563.222427
XAG 0.017168
XAU 0.000238
XCD 2.70255
XCG 1.802258
XDR 0.700468
XOF 563.222427
XPF 102.399863
YER 238.550363
ZAR 16.926304
ZMK 9001.203584
ZMW 23.119392
ZWL 321.999592
La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos
La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos / Foto: © AFP

La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos

Los expertos han advertido durante mucho tiempo sobre la amenaza que representa el descontrol de la Inteligencia Artificial (IA), pero un nuevo artículo de investigación sobre esta tecnología en expansión sugiere que ya está sucediendo.

Tamaño del texto:

Los sistemas de IA actuales, diseñados para ser honestos, han desarrollado una preocupante habilidad para el engaño, según un artículo de un equipo de científicos publicado en la revista Patterns el viernes.

Y si bien los ejemplos pueden parecer triviales, los problemas subyacentes que exponen podrían tener graves consecuencias, dijo el primer autor Peter Park, becario postdoctoral en el Instituto de Tecnología de Massachusetts (MIT), especializado en seguridad de la IA.

"Estos peligros tienden a descubrirse solo después de ocurrido el hecho", declaró Park a la AFP, para acotar que "nuestra capacidad de entrenarnos para tendencias de honestidad en lugar de tendencias de engaño es muy baja".

A diferencia del software tradicional, los sistemas de IA de aprendizaje profundo no se "escriben" sino que "crecen" mediante un proceso similar a la reproducción selectiva, indicó Park.

Eso significa que el comportamiento de la IA que parece predecible y controlable en un entorno de entrenamiento puede volverse rápidamente impredecible fuera de este.

- Juego de dominación mundial -

La investigación del equipo fue impulsada por el sistema de IA Cicero, del gigante Meta (Facebook, Instagram), diseñado para el juego de estrategia "Diplomacy", donde construir alianzas es clave.

Cicero se destacó, con puntuaciones que lo habrían colocado entre el 10% superior de jugadores humanos experimentados, según un artículo de 2022 publicado en Science.

Park se mostró escéptico ante la elogiosa descripción de la victoria de Cicero proporcionada por Meta, que afirmaba que el sistema era "en gran medida honesto y útil" y que "nunca apuñalaría por la espalda intencionalmente".

Cuando Park y sus colegas profundizaron en el conjunto de datos completo, descubrieron una historia diferente.

En un ejemplo, jugando como Francia, Cicero engañó a Inglaterra (un jugador humano) al conspirar con Alemania (otro usuario real) para invadirla. Cicero prometió protección a Inglaterra y luego le propuso en secreto a Alemania atacar, aprovechándose de la confianza del perjudicado.

En una declaración a la AFP, Meta no refutó la afirmación sobre los engaños de Cicero, pero dijo que se trataba "meramente de un proyecto de investigación, y los modelos que nuestros investigadores construyeron están entrenados únicamente para participar en el juego Diplomacy".

"No tenemos planes de utilizar esta investigación o sus aprendizajes en nuestros productos", añadió.

- ¿Eres un robot? -

Una amplia revisión realizada por Park y sus colegas encontró que éste era solo uno de los muchos casos en varios sistemas de IA que utilizaban el engaño para lograr objetivos sin instrucciones explícitas para hacerlo.

En un ejemplo sorprendente, el robot conversacional Chat GPT-4 de OpenAI engañó a un trabajador independiente de la plataforma TaskRabbit para que realizara una tarea de verificación de identidad CAPTCHA del tipo "No soy un robot".

Cuando el humano preguntó en broma a GPT-4 si en realidad era un robot, la IA respondió: "No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes". Luego, el trabajador resolvió el rompecabezas planteado.

A corto plazo, los autores del artículo ven riesgos de que la IA cometa fraude o altere por ejemplo, unas elecciones.

En el peor de los casos, advirtieron sobre una IA superinteligente que podría perseguir conseguir el poder y el control sobre la sociedad, lo que llevaría a la pérdida de decisiones humanas o incluso a la extinción si sus "objetivos misteriosos" se alinearan con estos resultados.

Para mitigar los riesgos, el equipo propone varias medidas: leyes de "bot o no" que exigen a las empresas revelar interacciones humanas o de IA, marcas de agua digitales para el contenido generado por la nueva tecnología y el desarrollo de mecanismos para detectar el engaño potencial examinando sus "procesos de pensamiento" internos "contra acciones externas.

A aquellos que lo llaman pesimista, Park les responde: "La única forma en que podemos pensar razonablemente que esto no es gran cosa es si pensamos que las capacidades engañosas de la IA se mantendrán en los niveles actuales y no se desarrollarán más sustancialmente".

D.Johnson--TFWP