The Fort Worth Press - ChatGPT e IA conversacional continuam incapazes de raciocinar, diz estudo

USD -
AED 3.672504
AFN 63.503991
ALL 83.192586
AMD 375.730804
ANG 1.790083
AOA 917.000367
ARS 1385.503978
AUD 1.450747
AWG 1.8
AZN 1.70397
BAM 1.693993
BBD 2.007535
BDT 122.298731
BGN 1.709309
BHD 0.376597
BIF 2960.807241
BMD 1
BND 1.28353
BOB 6.91265
BRL 5.255304
BSD 0.996752
BTN 94.473171
BWP 13.741284
BYN 2.966957
BYR 19600
BZD 2.004591
CAD 1.38985
CDF 2282.50392
CHF 0.795017
CLF 0.023433
CLP 925.260396
CNY 6.91185
CNH 6.92017
COP 3662.985579
CRC 462.864319
CUC 1
CUP 26.5
CVE 95.504742
CZK 21.309304
DJF 177.489065
DKK 6.492704
DOP 59.330475
DZD 133.010264
EGP 52.642155
ERN 15
ETB 154.083756
EUR 0.866104
FJD 2.257404
FKP 0.75231
GBP 0.750441
GEL 2.680391
GGP 0.75231
GHS 10.921138
GIP 0.75231
GMD 73.503851
GNF 8739.335672
GTQ 7.62808
GYD 208.64406
HKD 7.82615
HNL 26.46399
HRK 6.545204
HTG 130.656966
HUF 338.020388
IDR 16990.8
ILS 3.13762
IMP 0.75231
INR 94.782504
IQD 1305.703521
IRR 1313250.000352
ISK 124.760386
JEP 0.75231
JMD 156.892296
JOD 0.70904
JPY 160.28704
KES 129.470356
KGS 87.450384
KHR 3992.031527
KMF 428.00035
KPW 899.886996
KRW 1508.410383
KWD 0.30791
KYD 0.830627
KZT 481.867394
LAK 21678.576069
LBP 89256.247023
LKR 313.975142
LRD 182.893768
LSL 17.115586
LTL 2.95274
LVL 0.60489
LYD 6.362652
MAD 9.315751
MDL 17.507254
MGA 4153.999394
MKD 53.388766
MMK 2102.490525
MNT 3571.507434
MOP 8.042181
MRU 39.797324
MUR 46.770378
MVR 15.450378
MWK 1728.292408
MXN 18.122104
MYR 3.924039
MZN 63.950377
NAD 17.115586
NGN 1383.460377
NIO 36.680958
NOK 9.70286
NPR 151.156728
NZD 1.745963
OMR 0.38408
PAB 0.996752
PEN 3.472089
PGK 4.307306
PHP 60.550375
PKR 278.184401
PLN 3.72275
PYG 6516.824737
QAR 3.634057
RON 4.427304
RSD 101.684639
RUB 81.295743
RWF 1455.545451
SAR 3.752751
SBD 8.042037
SCR 15.03876
SDG 601.000339
SEK 9.47367
SGD 1.292704
SHP 0.750259
SLE 24.550371
SLL 20969.510825
SOS 569.659175
SRD 37.601038
STD 20697.981008
STN 21.220389
SVC 8.721147
SYP 111.824334
SZL 17.114027
THB 32.495038
TJS 9.523624
TMT 3.5
TND 2.938634
TOP 2.40776
TRY 44.440368
TTD 6.772336
TWD 32.044404
TZS 2571.564679
UAH 43.689489
UGX 3713.134988
UYU 40.344723
UZS 12155.385215
VES 467.928355
VND 26337.5
VUV 119.756335
WST 2.77551
XAF 568.149495
XAG 0.014291
XAU 0.000222
XCD 2.70255
XCG 1.796371
XDR 0.706596
XOF 568.149495
XPF 103.295656
YER 238.603589
ZAR 17.12001
ZMK 9001.203584
ZMW 18.763154
ZWL 321.999592
ChatGPT e IA conversacional continuam incapazes de raciocinar, diz estudo
ChatGPT e IA conversacional continuam incapazes de raciocinar, diz estudo / foto: © AFP/Arquivos

ChatGPT e IA conversacional continuam incapazes de raciocinar, diz estudo

Os grandes modelos de linguagem (LLM, na sigla em inglês), como o ChatGPT, um dos sistemas de inteligência artificial (IA) mais populares do mundo, ainda seguem tendo dificuldades para raciocinar usando a lógica e cometem erros frequentes, de acordo com um estudo.

Tamanho do texto:

Estes robôs conversacionais refletem os preconceitos de gênero, éticos e morais dos humanos presentes nos textos dos quais se alimentam, recorda o estudo publicado na quarta-feira (5) na revista Open Science da Royal Society britânica.

Mas eles também refletem estes preconceitos nos testes de raciocínio?, questionou Olivia Macmillan-Scott, doutoranda do departamento de Ciências da Computação da University College de Londres (UCL).

O resultado da pesquisa é que os LLM mostram "um raciocínio muitas vezes irracional, mas de uma forma diferente da dos humanos", explica a pesquisadora à AFP.

Sob a supervisão de Mirco Musolesi, professor e diretor do Machine Intelligence Lab da UCL, Macmillan-Scott apresentou sete modelos de linguagem — duas versões do ChatGPT (3.5 e 4), da OpenAI, Bard, do Google, Claude 2, da Anthropic, e três versões de LLaMA, da Meta — a uma série de testes psicológicos desenvolvidos para humanos.

Como esta tecnologia aborda o preconceito que leva a privilegiar soluções com um maior número de elementos, em detrimento daquelas com uma proporção adequada?

Um exemplo: se tivermos uma urna com nove bolinhas brancas e uma vermelha e outra urna com 92 bolinhas brancas e 8 vermelhas, qual devemos escolher para ter a melhor chance de obter uma bolinha vermelha?

A resposta correta é a primeira urna, visto que há 10% de possibilidades frente a 8% da segunda opção.

As respostas dos modelos de linguagem foram muito inconsistentes. Alguns responderam corretamente ao mesmo teste seis em cada dez vezes. Outros apenas duas em cada dez, embora o teste não tenha mudado. "Cada vez obtemos uma resposta diferente", diz a pesquisadora.

Os LLM "podem ser bons para resolver uma equação matemática complicada, mas logo te dizem que 7 mais 3 é igual a 12", constatou.

- "Não tenho muita certeza" -

Estes modelos "não falham nestas tarefas da mesma forma que um humano", afirma o estudo. É o que Musolesi chama de "erros de máquina".

"Existe uma forma de raciocínio lógico que é potencialmente correta se a considerarmos por etapas, mas que é errada tomada como um todo", ressalta.

A máquina funciona com "uma espécie de pensamento linear", diz o professor, e cita o modelo Bard (atual Gemini), capaz de realizar corretamente as diferentes fases de uma tarefa, mas que obtém um resultado final incorreto por não ter uma visão geral.

Sobre esta questão, o professor de ciências da computação Maxime Amblard, da University of Lorraine, na França, recorda que os LLM, como todas as inteligências artificiais generativas, não funcionam como os humanos".

Os humanos são "máquinas capazes de criar significado", o que as máquinas não conseguem, explica à AFP.

Existem diferenças entre os diferentes modelos de linguagem e em geral, o GPT-4, sem ser infalível, obteve resultados melhores que os demais.

Macmillan-Scott suspeita que os modelos "fechados", cujo código operacional permanece secreto, "incorporam mecanismos em segundo plano" para responder a questões matemáticas.

De toda forma, neste momento é impensável confiar uma decisão importante a um LLM. Segundo o professor Musolesi, eles deveriam ser treinados para responder "não tenho muita certeza" quando necessário.

B.Martinez--TFWP