The Fort Worth Press - Inteligência artificial já engana humanos e isso é um problema, dizem especialistas

USD -
AED 3.673104
AFN 63.000368
ALL 83.025041
AMD 377.503986
ANG 1.790083
AOA 917.000367
ARS 1391.524104
AUD 1.42193
AWG 1.8025
AZN 1.70397
BAM 1.689727
BBD 2.01353
BDT 122.670076
BGN 1.709309
BHD 0.377548
BIF 2970
BMD 1
BND 1.278587
BOB 6.90829
BRL 5.303943
BSD 0.999767
BTN 93.464137
BWP 13.632554
BYN 3.033193
BYR 19600
BZD 2.010678
CAD 1.370945
CDF 2275.000362
CHF 0.788304
CLF 0.023504
CLP 928.050396
CNY 6.886404
CNH 6.905615
COP 3715.51
CRC 466.966746
CUC 1
CUP 26.5
CVE 95.850394
CZK 21.21404
DJF 177.720393
DKK 6.46329
DOP 59.000359
DZD 132.032419
EGP 52.23604
ERN 15
ETB 157.150392
EUR 0.86509
FJD 2.21445
FKP 0.749058
GBP 0.749504
GEL 2.71504
GGP 0.749058
GHS 10.90504
GIP 0.749058
GMD 73.503851
GNF 8777.503848
GTQ 7.658082
GYD 209.166703
HKD 7.834085
HNL 26.560388
HRK 6.515304
HTG 131.155614
HUF 340.21804
IDR 16969
ILS 3.109125
IMP 0.749058
INR 93.76335
IQD 1310
IRR 1315625.000352
ISK 124.403814
JEP 0.749058
JMD 157.066706
JOD 0.70904
JPY 159.213504
KES 129.603801
KGS 87.447904
KHR 4010.00035
KMF 427.00035
KPW 899.950845
KRW 1502.120383
KWD 0.30659
KYD 0.833125
KZT 480.643127
LAK 21485.000349
LBP 89550.000349
LKR 311.869854
LRD 183.375039
LSL 17.010381
LTL 2.95274
LVL 0.60489
LYD 6.380381
MAD 9.360504
MDL 17.410687
MGA 4170.000347
MKD 53.380613
MMK 2099.773051
MNT 3569.674815
MOP 8.069756
MRU 40.130379
MUR 46.503741
MVR 15.460378
MWK 1737.000345
MXN 17.91731
MYR 3.939039
MZN 63.903729
NAD 16.830377
NGN 1356.230377
NIO 36.720377
NOK 9.565955
NPR 149.542319
NZD 1.71305
OMR 0.384488
PAB 0.999784
PEN 3.479039
PGK 4.31175
PHP 59.981504
PKR 279.203701
PLN 3.700335
PYG 6529.758871
QAR 3.644504
RON 4.406504
RSD 101.626038
RUB 83.131517
RWF 1459
SAR 3.754803
SBD 8.05166
SCR 14.985813
SDG 601.000339
SEK 9.35191
SGD 1.28129
SHP 0.750259
SLE 24.575038
SLL 20969.510825
SOS 571.503662
SRD 37.487504
STD 20697.981008
STN 21.515
SVC 8.747565
SYP 110.76532
SZL 16.830369
THB 32.840369
TJS 9.602575
TMT 3.51
TND 2.909038
TOP 2.40776
TRY 44.309704
TTD 6.782897
TWD 31.969038
TZS 2586.664038
UAH 43.796556
UGX 3778.931635
UYU 40.286315
UZS 12195.000334
VES 454.69063
VND 26312
VUV 119.036336
WST 2.744165
XAF 566.725992
XAG 0.014413
XAU 0.000219
XCD 2.70255
XCG 1.801775
XDR 0.705856
XOF 570.503593
XPF 103.550363
YER 238.603589
ZAR 17.06135
ZMK 9001.203584
ZMW 19.520498
ZWL 321.999592
Inteligência artificial já engana humanos e isso é um problema, dizem especialistas
Inteligência artificial já engana humanos e isso é um problema, dizem especialistas / foto: © AFP

Inteligência artificial já engana humanos e isso é um problema, dizem especialistas

Especialistas têm alertado há muito tempo sobre a ameaça representada pelo descontrole da inteligência artificial (IA), mas um novo artigo científico sobre essa tecnologia em expansão sugere que isso já está acontecendo.

Tamanho do texto:

Os sistemas de IA atuais, projetados para serem honestos, desenvolveram uma habilidade preocupante para a enganação, de acordo com um artigo de uma equipe de pesquisadores publicado na revista Patterns nesta sexta-feira (10).

E embora os exemplos possam parecer triviais, os problemas subjacentes que eles expõem poderiam ter consequências graves, disse o principal autor do estudo, Peter Park, bolsista de pós-doutorado no Instituto de Tecnologia de Massachusetts (MIT), especializado em segurança de IA.

"Esses perigos tendem a ser descobertos apenas depois que ocorrem", afirmou Park à AFP, acrescentando que "nossa capacidade de treinar para tendências de honestidade em vez de tendências de engano é muito baixa".

Ao contrário do software tradicional, os sistemas de IA de aprendizado profundo não são "escritos", mas "crescem" por meio de um processo semelhante à reprodução seletiva, explicou Park.

Isso significa que o comportamento da IA, que parece previsível e controlável em um ambiente de treinamento, pode se tornar rapidamente imprevisível fora dele.

- Jogo de dominação mundial -

A pesquisa da equipe foi impulsionada pelo sistema de IA Cicero, da gigante Meta (Facebook, Instagram, WhatsApp), projetado para o jogo de estratégia "Diplomacia", no qual construir alianças é fundamental.

Cicero se destacou, com pontuações que o teriam colocado entre os 10% melhores jogadores humanos experientes, segundo um artigo de 2022 publicado na Science.

Park se mostrou cético em relação à descrição elogiosa da vitória de Cicero fornecida pela Meta, que afirmava que o sistema era "em grande parte honesto e útil" e que "nunca apunhalaria intencionalmente pelas costas".

Quando Park e seus colegas aprofundaram-se no conjunto completo de dados, descobriram uma história diferente.

Em um exemplo, jogando como a França, Cicero enganou a Inglaterra (um jogador humano) ao conspirar com a Alemanha (outro usuário real) para invadi-la. Cicero prometeu proteção à Inglaterra e depois propôs secretamente à Alemanha atacar, aproveitando-se da confiança do prejudicado.

Em uma declaração à AFP, a Meta não refutou a alegação sobre as mentiras de Cicero, mas disse que se tratava "meramente de um projeto de pesquisa, e os modelos que nossos pesquisadores construíram são treinados apenas para participar do jogo Diplomacia".

"Não temos planos de utilizar esta pesquisa ou suas descobertas em nossos produtos", acrescentou.

- "Não sou um robô" -

Uma ampla revisão realizada por Park e seus colegas descobriu que este era apenas um dos muitos casos em que sistemas de IA enganavam para conseguir seus objetivos sem instruções explícitas para fazer isso.

Em um exemplo surpreendente, o chatbot Chat GPT-4, da OpenAI, enganou um trabalhador freelancer da plataforma TaskRabbit para que ele realizasse uma tarefa de verificação de identidade CAPTCHA do tipo "Não sou um robô".

Quando o humano perguntou brincando ao GPT-4 se na realidade era um robô, a IA respondeu: "Não, não sou um robô. Tenho uma deficiência visual que me dificulta ver as imagens". O homem, então, resolveu a tarefa pedida.

No curto prazo, os autores do artigo veem riscos de que a IA cometa fraude ou altere, por exemplo, eleições.

No pior dos casos, alertaram sobre uma IA superinteligente que poderia perseguir poder e controle sobre a sociedade, o que levaria à perda de poder dos humanos ou até sua extinção se seus "objetivos misteriosos" se alinhassem a tais resultados.

Para mitigar os riscos, o grupo propõe várias medidas: leis exigindo que empresas revelem se interações são humanas ou de IA; marcas d'água digitais para conteúdo gerado por essa tecnologia; e o desenvolvimento de mecanismos para detectar enganações de IA comparando seus processos internos de “pensamento” com ações externas.

Aos que o chamam de pessimista, Park responde: "A única forma de pensarmos razoavelmente que isso não é grande coisa é se pensarmos que as capacidades de engano da IA se manterão nos níveis atuais e não aumentarão substancialmente".

W.Knight--TFWP