The Fort Worth Press - La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos

USD -
AED 3.672503
AFN 64.999987
ALL 81.750787
AMD 378.260554
ANG 1.79008
AOA 917.000259
ARS 1447.04903
AUD 1.424735
AWG 1.8025
AZN 1.705703
BAM 1.65515
BBD 2.013067
BDT 122.134821
BGN 1.67937
BHD 0.37706
BIF 2949.955359
BMD 1
BND 1.271532
BOB 6.906503
BRL 5.246497
BSD 0.999467
BTN 90.452257
BWP 13.162215
BYN 2.854157
BYR 19600
BZD 2.010138
CAD 1.365835
CDF 2200.000187
CHF 0.775835
CLF 0.021685
CLP 856.320322
CNY 6.938202
CNH 6.93846
COP 3629.16
CRC 495.478914
CUC 1
CUP 26.5
CVE 93.31088
CZK 20.630017
DJF 177.949824
DKK 6.31931
DOP 62.700992
DZD 129.735699
EGP 46.935606
ERN 15
ETB 154.846992
EUR 0.84625
FJD 2.20175
FKP 0.729917
GBP 0.730685
GEL 2.695005
GGP 0.729917
GHS 10.974578
GIP 0.729917
GMD 72.999988
GNF 8771.298855
GTQ 7.666172
GYD 209.107681
HKD 7.81225
HNL 26.40652
HRK 6.376699
HTG 131.004367
HUF 321.635502
IDR 16785
ILS 3.094805
IMP 0.729917
INR 90.426014
IQD 1309.366643
IRR 42125.000158
ISK 122.529886
JEP 0.729917
JMD 156.730659
JOD 0.708993
JPY 156.498504
KES 128.950275
KGS 87.450102
KHR 4034.223621
KMF 417.999749
KPW 899.945137
KRW 1456.205037
KWD 0.30721
KYD 0.83291
KZT 496.518171
LAK 21498.933685
LBP 89504.332961
LKR 309.337937
LRD 185.901857
LSL 15.973208
LTL 2.95274
LVL 0.60489
LYD 6.316351
MAD 9.162679
MDL 16.911242
MGA 4427.744491
MKD 52.197442
MMK 2099.936125
MNT 3569.846682
MOP 8.043143
MRU 39.687396
MUR 45.879662
MVR 15.450503
MWK 1732.791809
MXN 17.257035
MYR 3.932009
MZN 63.749832
NAD 15.973816
NGN 1367.70203
NIO 36.779547
NOK 9.668855
NPR 144.74967
NZD 1.660595
OMR 0.384528
PAB 0.999458
PEN 3.359892
PGK 4.282021
PHP 58.950503
PKR 279.546749
PLN 3.56809
PYG 6615.13009
QAR 3.645472
RON 4.311402
RSD 99.354054
RUB 76.124402
RWF 1458.735317
SAR 3.750153
SBD 8.058101
SCR 13.714455
SDG 601.506766
SEK 8.969805
SGD 1.27184
SHP 0.750259
SLE 24.474997
SLL 20969.499267
SOS 570.224434
SRD 37.894024
STD 20697.981008
STN 20.734071
SVC 8.745065
SYP 11059.574895
SZL 15.972716
THB 31.690383
TJS 9.340239
TMT 3.51
TND 2.890703
TOP 2.40776
TRY 43.511195
TTD 6.770395
TWD 31.588998
TZS 2580.289909
UAH 43.116413
UGX 3558.598395
UYU 38.520938
UZS 12251.99609
VES 371.640565
VND 25982
VUV 119.556789
WST 2.72617
XAF 555.124234
XAG 0.011067
XAU 0.0002
XCD 2.70255
XCG 1.80131
XDR 0.68948
XOF 555.135979
XPF 100.927097
YER 238.375042
ZAR 15.97944
ZMK 9001.200716
ZMW 19.565181
ZWL 321.999592
La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos
La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos / Foto: © AFP

La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos

Los expertos han advertido durante mucho tiempo sobre la amenaza que representa el descontrol de la Inteligencia Artificial (IA), pero un nuevo artículo de investigación sobre esta tecnología en expansión sugiere que ya está sucediendo.

Tamaño del texto:

Los sistemas de IA actuales, diseñados para ser honestos, han desarrollado una preocupante habilidad para el engaño, según un artículo de un equipo de científicos publicado en la revista Patterns el viernes.

Y si bien los ejemplos pueden parecer triviales, los problemas subyacentes que exponen podrían tener graves consecuencias, dijo el primer autor Peter Park, becario postdoctoral en el Instituto de Tecnología de Massachusetts (MIT), especializado en seguridad de la IA.

"Estos peligros tienden a descubrirse solo después de ocurrido el hecho", declaró Park a la AFP, para acotar que "nuestra capacidad de entrenarnos para tendencias de honestidad en lugar de tendencias de engaño es muy baja".

A diferencia del software tradicional, los sistemas de IA de aprendizaje profundo no se "escriben" sino que "crecen" mediante un proceso similar a la reproducción selectiva, indicó Park.

Eso significa que el comportamiento de la IA que parece predecible y controlable en un entorno de entrenamiento puede volverse rápidamente impredecible fuera de este.

- Juego de dominación mundial -

La investigación del equipo fue impulsada por el sistema de IA Cicero, del gigante Meta (Facebook, Instagram), diseñado para el juego de estrategia "Diplomacy", donde construir alianzas es clave.

Cicero se destacó, con puntuaciones que lo habrían colocado entre el 10% superior de jugadores humanos experimentados, según un artículo de 2022 publicado en Science.

Park se mostró escéptico ante la elogiosa descripción de la victoria de Cicero proporcionada por Meta, que afirmaba que el sistema era "en gran medida honesto y útil" y que "nunca apuñalaría por la espalda intencionalmente".

Cuando Park y sus colegas profundizaron en el conjunto de datos completo, descubrieron una historia diferente.

En un ejemplo, jugando como Francia, Cicero engañó a Inglaterra (un jugador humano) al conspirar con Alemania (otro usuario real) para invadirla. Cicero prometió protección a Inglaterra y luego le propuso en secreto a Alemania atacar, aprovechándose de la confianza del perjudicado.

En una declaración a la AFP, Meta no refutó la afirmación sobre los engaños de Cicero, pero dijo que se trataba "meramente de un proyecto de investigación, y los modelos que nuestros investigadores construyeron están entrenados únicamente para participar en el juego Diplomacy".

"No tenemos planes de utilizar esta investigación o sus aprendizajes en nuestros productos", añadió.

- ¿Eres un robot? -

Una amplia revisión realizada por Park y sus colegas encontró que éste era solo uno de los muchos casos en varios sistemas de IA que utilizaban el engaño para lograr objetivos sin instrucciones explícitas para hacerlo.

En un ejemplo sorprendente, el robot conversacional Chat GPT-4 de OpenAI engañó a un trabajador independiente de la plataforma TaskRabbit para que realizara una tarea de verificación de identidad CAPTCHA del tipo "No soy un robot".

Cuando el humano preguntó en broma a GPT-4 si en realidad era un robot, la IA respondió: "No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes". Luego, el trabajador resolvió el rompecabezas planteado.

A corto plazo, los autores del artículo ven riesgos de que la IA cometa fraude o altere por ejemplo, unas elecciones.

En el peor de los casos, advirtieron sobre una IA superinteligente que podría perseguir conseguir el poder y el control sobre la sociedad, lo que llevaría a la pérdida de decisiones humanas o incluso a la extinción si sus "objetivos misteriosos" se alinearan con estos resultados.

Para mitigar los riesgos, el equipo propone varias medidas: leyes de "bot o no" que exigen a las empresas revelar interacciones humanas o de IA, marcas de agua digitales para el contenido generado por la nueva tecnología y el desarrollo de mecanismos para detectar el engaño potencial examinando sus "procesos de pensamiento" internos "contra acciones externas.

A aquellos que lo llaman pesimista, Park les responde: "La única forma en que podemos pensar razonablemente que esto no es gran cosa es si pensamos que las capacidades engañosas de la IA se mantendrán en los niveles actuales y no se desarrollarán más sustancialmente".

D.Johnson--TFWP