The Fort Worth Press - Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024

USD -
AED 3.673104
AFN 63.000368
ALL 83.025041
AMD 377.503986
ANG 1.790083
AOA 917.000367
ARS 1391.524104
AUD 1.42193
AWG 1.8025
AZN 1.70397
BAM 1.689727
BBD 2.01353
BDT 122.670076
BGN 1.709309
BHD 0.377548
BIF 2970
BMD 1
BND 1.278587
BOB 6.90829
BRL 5.303943
BSD 0.999767
BTN 93.464137
BWP 13.632554
BYN 3.033193
BYR 19600
BZD 2.010678
CAD 1.370945
CDF 2275.000362
CHF 0.788304
CLF 0.023504
CLP 928.050396
CNY 6.886404
CNH 6.905615
COP 3715.51
CRC 466.966746
CUC 1
CUP 26.5
CVE 95.850394
CZK 21.21404
DJF 177.720393
DKK 6.46329
DOP 59.000359
DZD 132.032419
EGP 52.23604
ERN 15
ETB 157.150392
EUR 0.86509
FJD 2.21445
FKP 0.749058
GBP 0.749504
GEL 2.71504
GGP 0.749058
GHS 10.90504
GIP 0.749058
GMD 73.503851
GNF 8777.503848
GTQ 7.658082
GYD 209.166703
HKD 7.834085
HNL 26.560388
HRK 6.515304
HTG 131.155614
HUF 340.21804
IDR 16969
ILS 3.109125
IMP 0.749058
INR 93.76335
IQD 1310
IRR 1315625.000352
ISK 124.403814
JEP 0.749058
JMD 157.066706
JOD 0.70904
JPY 159.213504
KES 129.603801
KGS 87.447904
KHR 4010.00035
KMF 427.00035
KPW 899.950845
KRW 1502.120383
KWD 0.30659
KYD 0.833125
KZT 480.643127
LAK 21485.000349
LBP 89550.000349
LKR 311.869854
LRD 183.375039
LSL 17.010381
LTL 2.95274
LVL 0.60489
LYD 6.380381
MAD 9.360504
MDL 17.410687
MGA 4170.000347
MKD 53.380613
MMK 2099.773051
MNT 3569.674815
MOP 8.069756
MRU 40.130379
MUR 46.503741
MVR 15.460378
MWK 1737.000345
MXN 17.91731
MYR 3.939039
MZN 63.903729
NAD 16.830377
NGN 1356.230377
NIO 36.720377
NOK 9.565955
NPR 149.542319
NZD 1.71305
OMR 0.384488
PAB 0.999784
PEN 3.479039
PGK 4.31175
PHP 59.981504
PKR 279.203701
PLN 3.700335
PYG 6529.758871
QAR 3.644504
RON 4.406504
RSD 101.626038
RUB 83.131517
RWF 1459
SAR 3.754803
SBD 8.05166
SCR 14.985813
SDG 601.000339
SEK 9.35191
SGD 1.28129
SHP 0.750259
SLE 24.575038
SLL 20969.510825
SOS 571.503662
SRD 37.487504
STD 20697.981008
STN 21.515
SVC 8.747565
SYP 110.76532
SZL 16.830369
THB 32.840369
TJS 9.602575
TMT 3.51
TND 2.909038
TOP 2.40776
TRY 44.309704
TTD 6.782897
TWD 31.969038
TZS 2586.664038
UAH 43.796556
UGX 3778.931635
UYU 40.286315
UZS 12195.000334
VES 454.69063
VND 26312
VUV 119.036336
WST 2.744165
XAF 566.725992
XAG 0.014413
XAU 0.000219
XCD 2.70255
XCG 1.801775
XDR 0.705856
XOF 570.503593
XPF 103.550363
YER 238.603589
ZAR 17.06135
ZMK 9001.203584
ZMW 19.520498
ZWL 321.999592
Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024
Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024 / foto: © AFP/Arquivos

Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024

Para reforçar a segurança dos Jogos Olímpicos de Paris-2024, autoridades utilizarão câmeras de segurança com algoritmos, mas garantem que nenhum de seus programas permitirá o reconhecimento facial, uma prática polêmica já testada na França.

Tamanho do texto:

O sistema com algoritmos utiliza um programa conectado a câmeras que analisa sequências de vídeo para identificar acontecimentos ou comportamentos suspeitos ou de risco, antes de alertar um operador em tempo real.

Já o reconhecimento facial foca nos detalhes, já que permite analisar os traços faciais de uma pessoa filmada ou fotografada e comparar a imagens de uma base de dados, em tempo real ou posterior.

Durante o carnaval de Nice em 2019, um "software" desta última tecnologia, desenvolvido por engenheiros israelenses, permitiu encontrar entre 5.000 pessoas quase 50 voluntários que haviam fornecido suas fotos, algumas bem antigas.

Porém, a cidade da turística Riviera Francesa, com quase 4.500 câmaras de vigilância de alta precisão, quer "ir além" de um mero teste, mas seus desejos chocam com a Cnil, autoridade encarregada de zelar pelas liberdades na era digital.

Os franceses já aceitam "ser vigiados 24 horas por dia por Xi Jinping [presidente chinês] ou por Joe Biden [seu colega americano], segundo a marca de seu celular", defende o prefeito de Nice, Christian Estrosi, ante ao receio da Cnil.

Para ele, a inteligência artificial (IA) poderia ter ajudado a detectar os movimentos do autor do atentado no Passeio dos Ingleses em 2016 (86 mortos). "Apenas as pessoas fichadas como perigosas seriam alvo de uma vigilância permanente", assegura.

A tecnologia de reconhecimento facial ainda não tem uma regulamentação jurídica definida, mas deve respeitar, segundo a Cnil, "o marco de proteção de dados pessoais", previsto por duas normas europeias: o regulamento geral RGPD e a diretriz "Polícia-Justiça" de 2016.

Esta última norma permite seu uso por "autoridades competentes" em caso de "absoluta necessidade". A polícia a utiliza em investigações para consultar a base de antecedentes criminais, que contém milhões de arquivos de autores e vítimas.

O sistema de passagem rápida nas fronteiras externas da União Europeia a utiliza também no controle biométrico de passaportes em locais determinados e sob condições.

- "Oportunidade desperdiçada" -

A futura regulação europeia sobre inteligencia artificial, cuja adoção final é esperada em abril, proíbe "o uso da identificação biométrica à distância em tempo real nos espaços públicos", embora preveja exceções.

O reconhecimento facial pode ser utilizado para "dezesseis crimes", segundo um porta-voz da Comissão Europeia: terrorismo, estupro, tráfico de seres humanos, assassinato, tráfico de drogas, associação criminosa...

Uma "autoridade judicial ou administrativa independente" deve autorizar seu uso em 24 horas e os países interessados em adotar a prática devem aprovar uma lei federal, com base na regulamentação.

A ONG Anistia Internacional lamentou, no entanto, uma "oportunidade desperdiçada". "Era a ocasião para proibir sistemas perigosos e incompatíveis com os direitos humanos, como o reconhecimento facial", lamentou Katia Roux, membro na França.

No caso das câmeras por algoritmos, o Parlamento francês aprovou em abril de 2023 uma lei que regulamenta sua utilização durante os Jogos. Uma comissão de usuários e políticos se encarregará de sua avaliação até 2025.

Os dispositivos poderão ser empregados para identificar oito tipos de situações que impliquem um "risco de ato de terrorismo ou uma ameaça grave à segurança das pessoas": cruzar uma zona proibida, circular no sentido contrário, presença ou uso de armas, incêndio, tumulto, pessoa no chão, fluxo excessivo, pacote abandonado.

A Anistia criticou a experiência durante a Paris-2024, ao considerar que o uso destas tecnologias "não tem volta". Foram testadas em Londres-2012 e agora a polícia britânica as utilizam para identificar "potenciais criminosos antes mesmo que cometam crimes", advertiu.

J.M.Ellis--TFWP