The Fort Worth Press - Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024

USD -
AED 3.672499
AFN 66.073567
ALL 82.870557
AMD 381.4977
ANG 1.790055
AOA 916.999821
ARS 1441.4753
AUD 1.505741
AWG 1.80125
AZN 1.733153
BAM 1.678705
BBD 2.013364
BDT 122.282772
BGN 1.67875
BHD 0.376983
BIF 2953.569114
BMD 1
BND 1.294944
BOB 6.907739
BRL 5.342698
BSD 0.999601
BTN 89.876145
BWP 13.280747
BYN 2.873917
BYR 19600
BZD 2.010437
CAD 1.38815
CDF 2229.999833
CHF 0.803965
CLF 0.023435
CLP 919.350363
CNY 7.07165
CNH 7.06997
COP 3805.96
CRC 488.298936
CUC 1
CUP 26.5
CVE 94.627762
CZK 20.788021
DJF 178.006472
DKK 6.413095
DOP 63.979263
DZD 129.960902
EGP 47.561498
ERN 15
ETB 155.051714
EUR 0.858701
FJD 2.26196
FKP 0.748861
GBP 0.749545
GEL 2.707732
GGP 0.748861
GHS 11.370991
GIP 0.748861
GMD 73.000349
GNF 8684.831581
GTQ 7.657084
GYD 209.137648
HKD 7.785415
HNL 26.328145
HRK 6.4661
HTG 130.859652
HUF 327.985502
IDR 16684.25
ILS 3.22337
IMP 0.748861
INR 89.94655
IQD 1309.540669
IRR 42124.999963
ISK 127.770338
JEP 0.748861
JMD 159.999657
JOD 0.708958
JPY 155.330495
KES 129.303563
KGS 87.450404
KHR 4002.334624
KMF 421.999991
KPW 899.993191
KRW 1472.349808
KWD 0.30692
KYD 0.833083
KZT 505.531856
LAK 21676.809119
LBP 89516.767233
LKR 308.334728
LRD 175.938682
LSL 16.941802
LTL 2.95274
LVL 0.60489
LYD 5.434032
MAD 9.231238
MDL 17.00842
MGA 4458.959547
MKD 52.906919
MMK 2099.939583
MNT 3546.502114
MOP 8.016033
MRU 39.863012
MUR 46.070177
MVR 15.409874
MWK 1733.372244
MXN 18.18685
MYR 4.110984
MZN 63.900796
NAD 16.941802
NGN 1450.629832
NIO 36.787647
NOK 10.098385
NPR 143.802277
NZD 1.730535
OMR 0.384493
PAB 0.999682
PEN 3.360156
PGK 4.24115
PHP 58.974994
PKR 280.247111
PLN 3.633165
PYG 6875.152888
QAR 3.643659
RON 4.373102
RSD 100.813002
RUB 77.272376
RWF 1454.419048
SAR 3.753229
SBD 8.223823
SCR 13.511902
SDG 601.503673
SEK 9.407755
SGD 1.29544
SHP 0.750259
SLE 23.000032
SLL 20969.498139
SOS 570.266164
SRD 38.629019
STD 20697.981008
STN 21.02887
SVC 8.745763
SYP 11058.244165
SZL 16.928669
THB 31.8565
TJS 9.171638
TMT 3.5
TND 2.932369
TOP 2.40776
TRY 42.508699
TTD 6.776446
TWD 31.272004
TZS 2434.999856
UAH 41.959408
UGX 3536.283383
UYU 39.096531
UZS 11958.989413
VES 248.585897
VND 26360
VUV 122.070109
WST 2.790151
XAF 563.019389
XAG 0.017073
XAU 0.000236
XCD 2.70255
XCG 1.801608
XDR 0.70002
XOF 562.932418
XPF 102.347136
YER 238.398782
ZAR 16.93566
ZMK 9001.203093
ZMW 23.111058
ZWL 321.999592
Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024
Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024 / foto: © AFP/Arquivos

Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024

Para reforçar a segurança dos Jogos Olímpicos de Paris-2024, autoridades utilizarão câmeras de segurança com algoritmos, mas garantem que nenhum de seus programas permitirá o reconhecimento facial, uma prática polêmica já testada na França.

Tamanho do texto:

O sistema com algoritmos utiliza um programa conectado a câmeras que analisa sequências de vídeo para identificar acontecimentos ou comportamentos suspeitos ou de risco, antes de alertar um operador em tempo real.

Já o reconhecimento facial foca nos detalhes, já que permite analisar os traços faciais de uma pessoa filmada ou fotografada e comparar a imagens de uma base de dados, em tempo real ou posterior.

Durante o carnaval de Nice em 2019, um "software" desta última tecnologia, desenvolvido por engenheiros israelenses, permitiu encontrar entre 5.000 pessoas quase 50 voluntários que haviam fornecido suas fotos, algumas bem antigas.

Porém, a cidade da turística Riviera Francesa, com quase 4.500 câmaras de vigilância de alta precisão, quer "ir além" de um mero teste, mas seus desejos chocam com a Cnil, autoridade encarregada de zelar pelas liberdades na era digital.

Os franceses já aceitam "ser vigiados 24 horas por dia por Xi Jinping [presidente chinês] ou por Joe Biden [seu colega americano], segundo a marca de seu celular", defende o prefeito de Nice, Christian Estrosi, ante ao receio da Cnil.

Para ele, a inteligência artificial (IA) poderia ter ajudado a detectar os movimentos do autor do atentado no Passeio dos Ingleses em 2016 (86 mortos). "Apenas as pessoas fichadas como perigosas seriam alvo de uma vigilância permanente", assegura.

A tecnologia de reconhecimento facial ainda não tem uma regulamentação jurídica definida, mas deve respeitar, segundo a Cnil, "o marco de proteção de dados pessoais", previsto por duas normas europeias: o regulamento geral RGPD e a diretriz "Polícia-Justiça" de 2016.

Esta última norma permite seu uso por "autoridades competentes" em caso de "absoluta necessidade". A polícia a utiliza em investigações para consultar a base de antecedentes criminais, que contém milhões de arquivos de autores e vítimas.

O sistema de passagem rápida nas fronteiras externas da União Europeia a utiliza também no controle biométrico de passaportes em locais determinados e sob condições.

- "Oportunidade desperdiçada" -

A futura regulação europeia sobre inteligencia artificial, cuja adoção final é esperada em abril, proíbe "o uso da identificação biométrica à distância em tempo real nos espaços públicos", embora preveja exceções.

O reconhecimento facial pode ser utilizado para "dezesseis crimes", segundo um porta-voz da Comissão Europeia: terrorismo, estupro, tráfico de seres humanos, assassinato, tráfico de drogas, associação criminosa...

Uma "autoridade judicial ou administrativa independente" deve autorizar seu uso em 24 horas e os países interessados em adotar a prática devem aprovar uma lei federal, com base na regulamentação.

A ONG Anistia Internacional lamentou, no entanto, uma "oportunidade desperdiçada". "Era a ocasião para proibir sistemas perigosos e incompatíveis com os direitos humanos, como o reconhecimento facial", lamentou Katia Roux, membro na França.

No caso das câmeras por algoritmos, o Parlamento francês aprovou em abril de 2023 uma lei que regulamenta sua utilização durante os Jogos. Uma comissão de usuários e políticos se encarregará de sua avaliação até 2025.

Os dispositivos poderão ser empregados para identificar oito tipos de situações que impliquem um "risco de ato de terrorismo ou uma ameaça grave à segurança das pessoas": cruzar uma zona proibida, circular no sentido contrário, presença ou uso de armas, incêndio, tumulto, pessoa no chão, fluxo excessivo, pacote abandonado.

A Anistia criticou a experiência durante a Paris-2024, ao considerar que o uso destas tecnologias "não tem volta". Foram testadas em Londres-2012 e agora a polícia britânica as utilizam para identificar "potenciais criminosos antes mesmo que cometam crimes", advertiu.

J.M.Ellis--TFWP