The Fort Worth Press - Filosofia do longo prazo molda debate sobre Inteligência Artificial

USD -
AED 3.67315
AFN 63.498275
ALL 82.650415
AMD 377.19471
ANG 1.790083
AOA 917.000229
ARS 1377.505902
AUD 1.436111
AWG 1.80225
AZN 1.701294
BAM 1.686202
BBD 2.015182
BDT 122.789623
BGN 1.709309
BHD 0.379025
BIF 2967.5
BMD 1
BND 1.279061
BOB 6.913944
BRL 5.229898
BSD 1.000522
BTN 94.115213
BWP 13.635619
BYN 2.965482
BYR 19600
BZD 2.012485
CAD 1.379739
CDF 2277.502679
CHF 0.790703
CLF 0.023154
CLP 914.269798
CNY 6.892699
CNH 6.90198
COP 3706.14
CRC 465.236584
CUC 1
CUP 26.5
CVE 95.375
CZK 21.115896
DJF 178.186662
DKK 6.45292
DOP 60.000173
DZD 132.290034
EGP 52.479301
ERN 15
ETB 157.49948
EUR 0.86359
FJD 2.24525
FKP 0.747226
GBP 0.747235
GEL 2.704982
GGP 0.747226
GHS 10.934981
GIP 0.747226
GMD 73.498776
GNF 8777.491204
GTQ 7.657854
GYD 209.347342
HKD 7.818102
HNL 26.520293
HRK 6.5016
HTG 131.207187
HUF 333.452993
IDR 16855
ILS 3.11639
IMP 0.747226
INR 93.76695
IQD 1310
IRR 1313024.999795
ISK 123.660217
JEP 0.747226
JMD 157.605908
JOD 0.708983
JPY 159.115502
KES 129.69594
KGS 87.449203
KHR 4009.999988
KMF 425.999541
KPW 900.014346
KRW 1498.609943
KWD 0.306096
KYD 0.833829
KZT 482.773486
LAK 21574.999721
LBP 89549.999921
LKR 314.680461
LRD 183.650407
LSL 17.050185
LTL 2.95274
LVL 0.60489
LYD 6.370113
MAD 9.326012
MDL 17.495667
MGA 4160.000087
MKD 53.209766
MMK 2100.167588
MNT 3569.46809
MOP 8.057787
MRU 40.129468
MUR 46.490528
MVR 15.460178
MWK 1735.999991
MXN 17.753905
MYR 3.965053
MZN 63.910271
NAD 17.050345
NGN 1381.549601
NIO 36.72028
NOK 9.686675
NPR 150.586937
NZD 1.71826
OMR 0.384501
PAB 1.000578
PEN 3.458501
PGK 4.311505
PHP 59.943
PKR 279.074975
PLN 3.69062
PYG 6510.184287
QAR 3.6445
RON 4.398796
RSD 101.422005
RUB 81.020779
RWF 1459
SAR 3.751543
SBD 8.041975
SCR 13.646466
SDG 600.999912
SEK 9.31405
SGD 1.27975
SHP 0.750259
SLE 24.601206
SLL 20969.510825
SOS 571.499295
SRD 37.3405
STD 20697.981008
STN 21.47
SVC 8.755292
SYP 110.948257
SZL 17.049844
THB 32.559758
TJS 9.58109
TMT 3.51
TND 2.902056
TOP 2.40776
TRY 44.3549
TTD 6.803525
TWD 31.926009
TZS 2570.058989
UAH 43.92958
UGX 3702.186911
UYU 40.504889
UZS 12205.000225
VES 458.87816
VND 26350
VUV 119.508072
WST 2.738201
XAF 565.560619
XAG 0.013743
XAU 0.00022
XCD 2.70255
XCG 1.803352
XDR 0.702492
XOF 564.51917
XPF 103.450284
YER 238.593347
ZAR 16.922695
ZMK 9001.193009
ZMW 18.736367
ZWL 321.999592
Filosofia do longo prazo molda debate sobre Inteligência Artificial
Filosofia do longo prazo molda debate sobre Inteligência Artificial / foto: © AFP/Arquivos

Filosofia do longo prazo molda debate sobre Inteligência Artificial

A filosofia do longo prazo, principal ideologia do Vale do Silício, centraliza os debates sobre o papel da Inteligência Artificial (IA) na extinção da humanidade. No entanto, seus críticos alertam que ela não abrange os problemas associados a esta nova tecnologia, como os roubos de dados e o enviesamento dos algoritmos.

Tamanho do texto:

O bilionário Elon Musk e o diretor-executivo da OpenAI, Sam Altman, surpreenderam quando alertaram em uma carta aberta que a IA representava um risco de extinção para a humanidade.

Seus críticos consideraram, entretanto, que os empresários fizeram o pronunciamento com a intenção de afirmar que somente seus projetos poderiam apresentar uma salvação.

As ideologias associadas à filosofia do longo prazo, como o transumanismo - a crença de que os seres humanos podem ser transformados com a tecnologia - ou o altruísmo eficaz (criar o máximo de bem-estar possível) já exercem uma influência considerável nas universidades anglo-saxônicas e no setor tecnológico.

Peter Thiel e Marc Andreessen são dois dos grandes investidores que começaram a financiar empresas que procuram prolongar a vida humana.

Simultaneamente, cresce o número de críticos destas correntes, que, em termos gerais, se concentram na melhoria do bem-estar da humanidade a longo prazo, em vez de focar nos indivíduos de hoje. Para estes opositores, a ameaça é clara: ela exerce muita influência nos debates públicos e pode ser perigosa.

- Alertas -

O escritor e historiador Emile Torres abraçou esta corrente ideológica no passado, mas agora é um de seus maiores críticos.

Em uma entrevista à AFP, alertou que a filosofia do longo prazo tem como base os mesmos princípios que justificaram assassinatos em massa e genocídios no passado.

Os defensores desta ideologia se projetam em um futuro distante em que milhões de pessoas viajarão ao espaço para colonizar novos planetas. Também acreditam que se deve ter o mesmo dever com cada um destes futuros humanos, assim como com qualquer um dos que vivem hoje. E como são tantos, eles têm muito mais peso que a humanidade atual.

Para Torres, este raciocínio torna o longo prazo "verdadeiramente perigoso".

"Quando você tem uma visão utópica do futuro" e "as combina com uma moral utilitarista que diz que o fim pode justificar os meios, é perigoso", explica o autor do livro "Human Extinction: A History of the Science and Ethics of Annihilation" (Extinção humana: História da Ciência e a Ética da Aniquilação, em tradução livre).

Assim como outros especialistas, Torres busca redirecionar o debate para os problemas reais causados pela IA, como os direitos autorais, os preconceitos cognitivos ou a concentração de riqueza por um grupo de empresas.

Mas esse discurso, no entanto, esbarra nas opiniões cada vez mais alarmantes sobre o futuro, diz o autor.

"Falar sobre a extinção da humanidade, de um acontecimento verdadeiramente apocalíptico em que todos morrem, é muito mais emocionante do que falar sobre trabalhadores quenianos que recebem US$ 1,32 (cerca de R$ 7, na cotação atual) por hora" para moderar o conteúdo do IA, ressalta o historiador.

- Eugenia? -

A filosofia do longo prazo surgiu do trabalho do filósofo sueco Nick Bostrom sobre o risco existencial e o transumanismo nas décadas de 1990 e 2000.

De acordo com a pesquisadora Timnit Gebru, ex-membro da equipe de pesquisa sobre ética e IA do Google – que foi demitida – o transumanismo tem sido vinculado à eugenia (tentativa de "melhorar" a humanidade por meio da seleção genética) desde o seu início.

O biólogo britânico Julian Huxley, que assinou o termo, também era um teórico da eugenia. Bostrom também foi, por muito tempo, acusado de apoiar este movimento.

O filósofo, que atualmente é presidente do Instituto para o Futuro da Humanidade da Universidade de Oxford, pediu desculpas em janeiro após admitir ter escrito publicações racistas na internet na década de 1990.

"Sou a favor da eugenia? Não, não no sentido em que o termo é geralmente entendido", disse ele na época.

W.Matthews--TFWP