The Fort Worth Press - Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024

USD -
AED 3.672498
AFN 65.99991
ALL 81.873378
AMD 378.439802
ANG 1.79008
AOA 917.000148
ARS 1448.487698
AUD 1.429899
AWG 1.8
AZN 1.712449
BAM 1.658498
BBD 2.01317
BDT 122.152876
BGN 1.67937
BHD 0.377029
BIF 2961.725511
BMD 1
BND 1.270543
BOB 6.906845
BRL 5.229803
BSD 0.999546
BTN 90.307481
BWP 13.806116
BYN 2.86383
BYR 19600
BZD 2.010235
CAD 1.36624
CDF 2154.999626
CHF 0.776945
CLF 0.02185
CLP 862.749928
CNY 6.9465
CNH 6.934635
COP 3630.63
CRC 496.408795
CUC 1
CUP 26.5
CVE 93.503553
CZK 20.62655
DJF 177.998262
DKK 6.33157
DOP 62.937775
DZD 129.991046
EGP 46.951301
ERN 15
ETB 155.042675
EUR 0.84772
FJD 2.20415
FKP 0.732491
GBP 0.73095
GEL 2.695043
GGP 0.732491
GHS 10.950041
GIP 0.732491
GMD 73.501068
GNF 8769.058562
GTQ 7.666672
GYD 209.120397
HKD 7.81214
HNL 26.408086
HRK 6.3869
HTG 131.107644
HUF 322.772002
IDR 16766.9
ILS 3.09203
IMP 0.732491
INR 90.26235
IQD 1309.380459
IRR 42125.000158
ISK 122.920095
JEP 0.732491
JMD 156.640605
JOD 0.708964
JPY 155.856028
KES 129.000283
KGS 87.450297
KHR 4033.037668
KMF 417.999918
KPW 899.987247
KRW 1449.489768
KWD 0.30732
KYD 0.83298
KZT 501.119346
LAK 21499.832523
LBP 89508.041026
LKR 309.380459
LRD 185.911623
LSL 16.009531
LTL 2.95274
LVL 0.60489
LYD 6.319217
MAD 9.168716
MDL 16.926717
MGA 4429.877932
MKD 52.274308
MMK 2100.119929
MNT 3568.429082
MOP 8.04357
MRU 39.901294
MUR 45.889749
MVR 15.449674
MWK 1733.257012
MXN 17.286645
MYR 3.932499
MZN 63.749886
NAD 16.009531
NGN 1390.639711
NIO 36.785781
NOK 9.664365
NPR 144.492309
NZD 1.658525
OMR 0.384522
PAB 0.999521
PEN 3.364907
PGK 4.282347
PHP 59.127012
PKR 279.545138
PLN 3.57944
PYG 6631.277242
QAR 3.634567
RON 4.321031
RSD 99.548006
RUB 77.018176
RWF 1458.783824
SAR 3.750085
SBD 8.058101
SCR 13.790532
SDG 601.496925
SEK 8.91905
SGD 1.27107
SHP 0.750259
SLE 24.47503
SLL 20969.499267
SOS 570.272883
SRD 38.114498
STD 20697.981008
STN 20.775741
SVC 8.746163
SYP 11059.574895
SZL 16.015332
THB 31.573496
TJS 9.340767
TMT 3.51
TND 2.890372
TOP 2.40776
TRY 43.480601
TTD 6.770319
TWD 31.604497
TZS 2584.039658
UAH 43.256279
UGX 3563.251531
UYU 38.49872
UZS 12236.487289
VES 371.640565
VND 26002
VUV 119.537583
WST 2.726316
XAF 556.244594
XAG 0.011336
XAU 0.000202
XCD 2.70255
XCG 1.801384
XDR 0.691072
XOF 556.244594
XPF 101.131218
YER 238.374986
ZAR 15.97435
ZMK 9001.1992
ZMW 19.615608
ZWL 321.999592
Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024
Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024 / foto: © AFP/Arquivos

Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024

Para reforçar a segurança dos Jogos Olímpicos de Paris-2024, autoridades utilizarão câmeras de segurança com algoritmos, mas garantem que nenhum de seus programas permitirá o reconhecimento facial, uma prática polêmica já testada na França.

Tamanho do texto:

O sistema com algoritmos utiliza um programa conectado a câmeras que analisa sequências de vídeo para identificar acontecimentos ou comportamentos suspeitos ou de risco, antes de alertar um operador em tempo real.

Já o reconhecimento facial foca nos detalhes, já que permite analisar os traços faciais de uma pessoa filmada ou fotografada e comparar a imagens de uma base de dados, em tempo real ou posterior.

Durante o carnaval de Nice em 2019, um "software" desta última tecnologia, desenvolvido por engenheiros israelenses, permitiu encontrar entre 5.000 pessoas quase 50 voluntários que haviam fornecido suas fotos, algumas bem antigas.

Porém, a cidade da turística Riviera Francesa, com quase 4.500 câmaras de vigilância de alta precisão, quer "ir além" de um mero teste, mas seus desejos chocam com a Cnil, autoridade encarregada de zelar pelas liberdades na era digital.

Os franceses já aceitam "ser vigiados 24 horas por dia por Xi Jinping [presidente chinês] ou por Joe Biden [seu colega americano], segundo a marca de seu celular", defende o prefeito de Nice, Christian Estrosi, ante ao receio da Cnil.

Para ele, a inteligência artificial (IA) poderia ter ajudado a detectar os movimentos do autor do atentado no Passeio dos Ingleses em 2016 (86 mortos). "Apenas as pessoas fichadas como perigosas seriam alvo de uma vigilância permanente", assegura.

A tecnologia de reconhecimento facial ainda não tem uma regulamentação jurídica definida, mas deve respeitar, segundo a Cnil, "o marco de proteção de dados pessoais", previsto por duas normas europeias: o regulamento geral RGPD e a diretriz "Polícia-Justiça" de 2016.

Esta última norma permite seu uso por "autoridades competentes" em caso de "absoluta necessidade". A polícia a utiliza em investigações para consultar a base de antecedentes criminais, que contém milhões de arquivos de autores e vítimas.

O sistema de passagem rápida nas fronteiras externas da União Europeia a utiliza também no controle biométrico de passaportes em locais determinados e sob condições.

- "Oportunidade desperdiçada" -

A futura regulação europeia sobre inteligencia artificial, cuja adoção final é esperada em abril, proíbe "o uso da identificação biométrica à distância em tempo real nos espaços públicos", embora preveja exceções.

O reconhecimento facial pode ser utilizado para "dezesseis crimes", segundo um porta-voz da Comissão Europeia: terrorismo, estupro, tráfico de seres humanos, assassinato, tráfico de drogas, associação criminosa...

Uma "autoridade judicial ou administrativa independente" deve autorizar seu uso em 24 horas e os países interessados em adotar a prática devem aprovar uma lei federal, com base na regulamentação.

A ONG Anistia Internacional lamentou, no entanto, uma "oportunidade desperdiçada". "Era a ocasião para proibir sistemas perigosos e incompatíveis com os direitos humanos, como o reconhecimento facial", lamentou Katia Roux, membro na França.

No caso das câmeras por algoritmos, o Parlamento francês aprovou em abril de 2023 uma lei que regulamenta sua utilização durante os Jogos. Uma comissão de usuários e políticos se encarregará de sua avaliação até 2025.

Os dispositivos poderão ser empregados para identificar oito tipos de situações que impliquem um "risco de ato de terrorismo ou uma ameaça grave à segurança das pessoas": cruzar uma zona proibida, circular no sentido contrário, presença ou uso de armas, incêndio, tumulto, pessoa no chão, fluxo excessivo, pacote abandonado.

A Anistia criticou a experiência durante a Paris-2024, ao considerar que o uso destas tecnologias "não tem volta". Foram testadas em Londres-2012 e agora a polícia britânica as utilizam para identificar "potenciais criminosos antes mesmo que cometam crimes", advertiu.

J.M.Ellis--TFWP