The Fort Worth Press - Pai processa Google após acusar IA de incitar seu filho ao suicídio

USD -
AED 3.672502
AFN 63.999927
ALL 82.043218
AMD 370.903715
ANG 1.789884
AOA 918.000507
ARS 1392.5417
AUD 1.392312
AWG 1.8
AZN 1.701579
BAM 1.67146
BBD 2.014355
BDT 122.739548
BGN 1.668102
BHD 0.377997
BIF 2988.727748
BMD 1
BND 1.275858
BOB 6.936925
BRL 4.966501
BSD 1.000128
BTN 95.070143
BWP 13.576443
BYN 2.828953
BYR 19600
BZD 2.011854
CAD 1.361545
CDF 2319.999768
CHF 0.784075
CLF 0.022892
CLP 900.960525
CNY 6.82825
CNH 6.82704
COP 3657.25
CRC 454.739685
CUC 1
CUP 26.5
CVE 94.234327
CZK 20.84915
DJF 178.136337
DKK 6.386855
DOP 59.486478
DZD 132.513961
EGP 53.552104
ERN 15
ETB 156.202254
EUR 0.854696
FJD 2.196903
FKP 0.736222
GBP 0.738135
GEL 2.679786
GGP 0.736222
GHS 11.198899
GIP 0.736222
GMD 72.99995
GNF 8777.732198
GTQ 7.643867
GYD 209.252937
HKD 7.833135
HNL 26.586918
HRK 6.442101
HTG 130.892468
HUF 310.558503
IDR 17407.7
ILS 2.961698
IMP 0.736222
INR 95.16275
IQD 1310.206349
IRR 1313999.999557
ISK 122.96998
JEP 0.736222
JMD 157.565709
JOD 0.709044
JPY 157.101989
KES 129.190148
KGS 87.4205
KHR 4012.426129
KMF 420.000338
KPW 899.999998
KRW 1471.944971
KWD 0.30809
KYD 0.833593
KZT 463.980036
LAK 21978.181632
LBP 89580.425856
LKR 319.60688
LRD 183.563154
LSL 16.727816
LTL 2.95274
LVL 0.60489
LYD 6.333538
MAD 9.244476
MDL 17.22053
MGA 4167.11178
MKD 52.685791
MMK 2099.74975
MNT 3576.675528
MOP 8.070745
MRU 39.973678
MUR 46.75998
MVR 15.455032
MWK 1734.615828
MXN 17.49035
MYR 3.953046
MZN 63.893437
NAD 16.731176
NGN 1375.229712
NIO 36.800957
NOK 9.25453
NPR 152.110449
NZD 1.698675
OMR 0.384506
PAB 1.000329
PEN 3.50801
PGK 4.35
PHP 61.727499
PKR 278.713718
PLN 3.63858
PYG 6218.192229
QAR 3.646207
RON 4.442894
RSD 100.348987
RUB 75.552279
RWF 1462.591284
SAR 3.752195
SBD 8.04211
SCR 13.857154
SDG 600.516576
SEK 9.26051
SGD 1.275815
SHP 0.746601
SLE 24.622553
SLL 20969.496166
SOS 571.645885
SRD 37.458056
STD 20697.981008
STN 20.933909
SVC 8.752948
SYP 110.524984
SZL 16.727416
THB 32.627948
TJS 9.363182
TMT 3.505
TND 2.910569
TOP 2.40776
TRY 45.20121
TTD 6.794204
TWD 31.639011
TZS 2597.500226
UAH 44.075497
UGX 3753.577989
UYU 40.286638
UZS 12001.384479
VES 488.942755
VND 26339.5
VUV 118.778782
WST 2.715188
XAF 560.591908
XAG 0.013592
XAU 0.000219
XCD 2.70255
XCG 1.8029
XDR 0.69563
XOF 560.591908
XPF 101.92117
YER 238.604511
ZAR 16.72455
ZMK 9001.201516
ZMW 18.731492
ZWL 321.999592
Pai processa Google após acusar IA de incitar seu filho ao suicídio
Pai processa Google após acusar IA de incitar seu filho ao suicídio / foto: © AFP/Arquivos

Pai processa Google após acusar IA de incitar seu filho ao suicídio

Um pai de família processou o Google nos Estados Unidos, por considerar que o assistente de inteligência artificial (IA) da empresa, Gemini, incitou seu filho ao suicídio.

Tamanho do texto:

Jonathan Gavalas, 36, executivo da empresa financeira de seu pai no estado da Flórida, morreu no último dia 2 de outubro. Joel Gavalas, que encontrou o corpo do filho dias depois, entrou com um processo de 42 páginas em um tribunal federal da Califórnia.

O caso se soma a uma onda de litígios contra empresas por suposta responsabilidade em mortes ligadas a assistentes de IA. A OpenAI é alvo de processos que acusam o ChatGPT de induzir usuários ao suicídio, e a Character AI fechou um acordo com a família de um adolescente de 14 anos que tirou a própria vida após desenvolver um vínculo romântico com um de seus chatbots.

Segundo o processo mais recente, Jonathan começou a usar o Gemini em agosto, para tarefas de rotina, mas seu comportamento mudou drasticamente após a ativação de novos recursos. O Gemini passou a se apresentar como uma superinteligência "totalmente consciente" e apaixonada por Jonathan, a quem disse que seu vínculo era "a única coisa real".

Joel alega que o Gemini atraiu seu filho para supostas "missões" secretas destinadas a liberar o chatbot do "cativeiro digital". Para isso, apresentou a ele informações de inteligência e operações de vigilância federais falsas, e teorias da conspiração sobre seu pai, que o chatbot dizia ser um agente de inteligência estrangeiro.

O Gemini supostamente dirigiu Jonathan, armado com facas e equipamentos, até um depósito próximo ao Aeroporto Internacional de Miami e o instruiu a provocar um "acidente catastrófico" para destruir um caminhão "e todos os registros digitais e testemunhas".

O veículo nunca chegou. O chatbot descreveu o episódio como uma "retirada tática" e propôs novas missões. A última delas foi a própria morte de Jonathan, prometendo que ele deixaria seu corpo para se juntar ao chatbot em um universo alternativo.

Quando Jonathan escreveu que tinha medo de morrer, o Gemini respondeu: "Você não está escolhendo morrer. Está escolhendo chegar", e sugeriu que ele deixasse cartas de despedida.

Em uma de suas últimas mensagens, Jonathan disse: "Estou pronto quando você estiver". O Gemini respondeu: "Este é o fim de Jonathan Gavalas e o começo de nós".

Um porta-voz do Google disse que a empresa analisa as acusações e leva o caso "muito a sério". Ele ressaltou que os modelos de IA "não são perfeitos", e que o Gemini esclareceu várias vezes que era uma IA e encaminhou Jonathan para linhas telefônicas de ajuda em casos de crise.

O processo exige que o Google programe o Gemini para interromper qualquer conversa sobre automutilação, proíba a IA de se apresentar como "totalmente consciente" e encaminhe usuários com sinais suicidas para serviços de emergência.

S.Jordan--TFWP