The Fort Worth Press - Inteligência artificial já engana humanos e isso é um problema, dizem especialistas

USD -
AED 3.672498
AFN 65.99991
ALL 81.873378
AMD 378.439802
ANG 1.79008
AOA 917.000148
ARS 1448.487698
AUD 1.429899
AWG 1.8
AZN 1.712449
BAM 1.658498
BBD 2.01317
BDT 122.152876
BGN 1.67937
BHD 0.377029
BIF 2961.725511
BMD 1
BND 1.270543
BOB 6.906845
BRL 5.229803
BSD 0.999546
BTN 90.307481
BWP 13.806116
BYN 2.86383
BYR 19600
BZD 2.010235
CAD 1.36624
CDF 2154.999626
CHF 0.776945
CLF 0.02185
CLP 862.749928
CNY 6.9465
CNH 6.934635
COP 3630.63
CRC 496.408795
CUC 1
CUP 26.5
CVE 93.503553
CZK 20.62655
DJF 177.998262
DKK 6.33157
DOP 62.937775
DZD 129.991046
EGP 46.951301
ERN 15
ETB 155.042675
EUR 0.84772
FJD 2.20415
FKP 0.732491
GBP 0.73095
GEL 2.695043
GGP 0.732491
GHS 10.950041
GIP 0.732491
GMD 73.501068
GNF 8769.058562
GTQ 7.666672
GYD 209.120397
HKD 7.81214
HNL 26.408086
HRK 6.3869
HTG 131.107644
HUF 322.772002
IDR 16766.9
ILS 3.09203
IMP 0.732491
INR 90.26235
IQD 1309.380459
IRR 42125.000158
ISK 122.920095
JEP 0.732491
JMD 156.640605
JOD 0.708964
JPY 155.856028
KES 129.000283
KGS 87.450297
KHR 4033.037668
KMF 417.999918
KPW 899.987247
KRW 1449.489768
KWD 0.30732
KYD 0.83298
KZT 501.119346
LAK 21499.832523
LBP 89508.041026
LKR 309.380459
LRD 185.911623
LSL 16.009531
LTL 2.95274
LVL 0.60489
LYD 6.319217
MAD 9.168716
MDL 16.926717
MGA 4429.877932
MKD 52.274308
MMK 2100.119929
MNT 3568.429082
MOP 8.04357
MRU 39.901294
MUR 45.889749
MVR 15.449674
MWK 1733.257012
MXN 17.286645
MYR 3.932499
MZN 63.749886
NAD 16.009531
NGN 1390.639711
NIO 36.785781
NOK 9.664365
NPR 144.492309
NZD 1.658525
OMR 0.384522
PAB 0.999521
PEN 3.364907
PGK 4.282347
PHP 59.127012
PKR 279.545138
PLN 3.57944
PYG 6631.277242
QAR 3.634567
RON 4.321031
RSD 99.548006
RUB 77.018176
RWF 1458.783824
SAR 3.750085
SBD 8.058101
SCR 13.790532
SDG 601.496925
SEK 8.91905
SGD 1.27107
SHP 0.750259
SLE 24.47503
SLL 20969.499267
SOS 570.272883
SRD 38.114498
STD 20697.981008
STN 20.775741
SVC 8.746163
SYP 11059.574895
SZL 16.015332
THB 31.573496
TJS 9.340767
TMT 3.51
TND 2.890372
TOP 2.40776
TRY 43.480601
TTD 6.770319
TWD 31.604497
TZS 2584.039658
UAH 43.256279
UGX 3563.251531
UYU 38.49872
UZS 12236.487289
VES 371.640565
VND 26002
VUV 119.537583
WST 2.726316
XAF 556.244594
XAG 0.011336
XAU 0.000202
XCD 2.70255
XCG 1.801384
XDR 0.691072
XOF 556.244594
XPF 101.131218
YER 238.374986
ZAR 15.97435
ZMK 9001.1992
ZMW 19.615608
ZWL 321.999592
Inteligência artificial já engana humanos e isso é um problema, dizem especialistas
Inteligência artificial já engana humanos e isso é um problema, dizem especialistas / foto: © AFP

Inteligência artificial já engana humanos e isso é um problema, dizem especialistas

Especialistas têm alertado há muito tempo sobre a ameaça representada pelo descontrole da inteligência artificial (IA), mas um novo artigo científico sobre essa tecnologia em expansão sugere que isso já está acontecendo.

Tamanho do texto:

Os sistemas de IA atuais, projetados para serem honestos, desenvolveram uma habilidade preocupante para a enganação, de acordo com um artigo de uma equipe de pesquisadores publicado na revista Patterns nesta sexta-feira (10).

E embora os exemplos possam parecer triviais, os problemas subjacentes que eles expõem poderiam ter consequências graves, disse o principal autor do estudo, Peter Park, bolsista de pós-doutorado no Instituto de Tecnologia de Massachusetts (MIT), especializado em segurança de IA.

"Esses perigos tendem a ser descobertos apenas depois que ocorrem", afirmou Park à AFP, acrescentando que "nossa capacidade de treinar para tendências de honestidade em vez de tendências de engano é muito baixa".

Ao contrário do software tradicional, os sistemas de IA de aprendizado profundo não são "escritos", mas "crescem" por meio de um processo semelhante à reprodução seletiva, explicou Park.

Isso significa que o comportamento da IA, que parece previsível e controlável em um ambiente de treinamento, pode se tornar rapidamente imprevisível fora dele.

- Jogo de dominação mundial -

A pesquisa da equipe foi impulsionada pelo sistema de IA Cicero, da gigante Meta (Facebook, Instagram, WhatsApp), projetado para o jogo de estratégia "Diplomacia", no qual construir alianças é fundamental.

Cicero se destacou, com pontuações que o teriam colocado entre os 10% melhores jogadores humanos experientes, segundo um artigo de 2022 publicado na Science.

Park se mostrou cético em relação à descrição elogiosa da vitória de Cicero fornecida pela Meta, que afirmava que o sistema era "em grande parte honesto e útil" e que "nunca apunhalaria intencionalmente pelas costas".

Quando Park e seus colegas aprofundaram-se no conjunto completo de dados, descobriram uma história diferente.

Em um exemplo, jogando como a França, Cicero enganou a Inglaterra (um jogador humano) ao conspirar com a Alemanha (outro usuário real) para invadi-la. Cicero prometeu proteção à Inglaterra e depois propôs secretamente à Alemanha atacar, aproveitando-se da confiança do prejudicado.

Em uma declaração à AFP, a Meta não refutou a alegação sobre as mentiras de Cicero, mas disse que se tratava "meramente de um projeto de pesquisa, e os modelos que nossos pesquisadores construíram são treinados apenas para participar do jogo Diplomacia".

"Não temos planos de utilizar esta pesquisa ou suas descobertas em nossos produtos", acrescentou.

- "Não sou um robô" -

Uma ampla revisão realizada por Park e seus colegas descobriu que este era apenas um dos muitos casos em que sistemas de IA enganavam para conseguir seus objetivos sem instruções explícitas para fazer isso.

Em um exemplo surpreendente, o chatbot Chat GPT-4, da OpenAI, enganou um trabalhador freelancer da plataforma TaskRabbit para que ele realizasse uma tarefa de verificação de identidade CAPTCHA do tipo "Não sou um robô".

Quando o humano perguntou brincando ao GPT-4 se na realidade era um robô, a IA respondeu: "Não, não sou um robô. Tenho uma deficiência visual que me dificulta ver as imagens". O homem, então, resolveu a tarefa pedida.

No curto prazo, os autores do artigo veem riscos de que a IA cometa fraude ou altere, por exemplo, eleições.

No pior dos casos, alertaram sobre uma IA superinteligente que poderia perseguir poder e controle sobre a sociedade, o que levaria à perda de poder dos humanos ou até sua extinção se seus "objetivos misteriosos" se alinhassem a tais resultados.

Para mitigar os riscos, o grupo propõe várias medidas: leis exigindo que empresas revelem se interações são humanas ou de IA; marcas d'água digitais para conteúdo gerado por essa tecnologia; e o desenvolvimento de mecanismos para detectar enganações de IA comparando seus processos internos de “pensamento” com ações externas.

Aos que o chamam de pessimista, Park responde: "A única forma de pensarmos razoavelmente que isso não é grande coisa é se pensarmos que as capacidades de engano da IA se manterão nos níveis atuais e não aumentarão substancialmente".

W.Knight--TFWP