The Fort Worth Press - El reconocimiento facial, línea roja para el uso de la IA en la seguridad de París-2024

USD -
AED 3.672502
AFN 64.999742
ALL 81.644561
AMD 376.141087
ANG 1.79008
AOA 916.999857
ARS 1431.814101
AUD 1.420313
AWG 1.8025
AZN 1.701514
BAM 1.653884
BBD 2.008101
BDT 121.931419
BGN 1.67937
BHD 0.377009
BIF 2954.631939
BMD 1
BND 1.269629
BOB 6.889437
BRL 5.208197
BSD 0.996985
BTN 90.310223
BWP 13.199274
BYN 2.864282
BYR 19600
BZD 2.005133
CAD 1.362925
CDF 2199.999814
CHF 0.771034
CLF 0.021682
CLP 856.101971
CNY 6.93895
CNH 6.92092
COP 3687.3
CRC 494.264586
CUC 1
CUP 26.5
CVE 93.244597
CZK 20.396903
DJF 177.53856
DKK 6.290765
DOP 62.922545
DZD 129.560437
EGP 46.913699
ERN 15
ETB 154.992326
EUR 0.842285
FJD 2.19785
FKP 0.735168
GBP 0.733175
GEL 2.695001
GGP 0.735168
GHS 10.95697
GIP 0.735168
GMD 73.000292
GNF 8751.427001
GTQ 7.647131
GYD 208.594249
HKD 7.815605
HNL 26.335973
HRK 6.347027
HTG 130.607585
HUF 317.655962
IDR 16820
ILS 3.10133
IMP 0.735168
INR 90.704953
IQD 1306.09242
IRR 42125.000158
ISK 122.129721
JEP 0.735168
JMD 156.042163
JOD 0.708984
JPY 156.410502
KES 129.000176
KGS 87.4497
KHR 4023.50852
KMF 419.000156
KPW 899.993603
KRW 1462.869981
KWD 0.30723
KYD 0.830842
KZT 493.296182
LAK 21424.79631
LBP 89285.155573
LKR 308.45077
LRD 187.436313
LSL 16.084528
LTL 2.95274
LVL 0.60489
LYD 6.313395
MAD 9.152964
MDL 16.998643
MGA 4425.972357
MKD 51.934321
MMK 2099.674626
MNT 3566.287566
MOP 8.023357
MRU 39.421935
MUR 45.979759
MVR 15.449848
MWK 1728.784464
MXN 17.238375
MYR 3.934498
MZN 63.750242
NAD 16.084936
NGN 1361.820298
NIO 36.691895
NOK 9.63249
NPR 144.492692
NZD 1.660175
OMR 0.384497
PAB 0.997011
PEN 3.354658
PGK 4.275524
PHP 58.478961
PKR 278.785014
PLN 3.54845
PYG 6587.403599
QAR 3.634057
RON 4.288696
RSD 98.868041
RUB 77.499
RWF 1455.142001
SAR 3.75029
SBD 8.058149
SCR 14.635215
SDG 601.50203
SEK 8.989175
SGD 1.26869
SHP 0.750259
SLE 24.449957
SLL 20969.499267
SOS 568.763662
SRD 37.817988
STD 20697.981008
STN 20.718028
SVC 8.723632
SYP 11059.574895
SZL 16.081146
THB 31.19801
TJS 9.342049
TMT 3.505
TND 2.891585
TOP 2.40776
TRY 43.592802
TTD 6.751597
TWD 31.579019
TZS 2581.09701
UAH 42.823946
UGX 3547.463711
UYU 38.535857
UZS 12243.189419
VES 377.985125
VND 25910
VUV 119.675943
WST 2.73072
XAF 554.690017
XAG 0.012417
XAU 0.000199
XCD 2.70255
XCG 1.796902
XDR 0.689856
XOF 554.690017
XPF 100.851138
YER 238.397724
ZAR 16.01765
ZMK 9001.197378
ZMW 18.568958
ZWL 321.999592
El reconocimiento facial, línea roja para el uso de la IA en la seguridad de París-2024
El reconocimiento facial, línea roja para el uso de la IA en la seguridad de París-2024 / Foto: © AFP/Archivos

El reconocimiento facial, línea roja para el uso de la IA en la seguridad de París-2024

Para reforzar la seguridad de los Juegos Olímpicos de París-2024, las autoridades usarán la videovigilancia con algoritmos, pero aseguran que ninguno de los programas utilizados permitirá el reconocimiento facial, una controvertida práctica ya experimentada en Francia.

Tamaño del texto:

La videovigilancia con algoritmos utiliza un programa asociado a cámaras de vigilancia que analiza secuencias de vídeo para identificar acontecimientos o comportamientos considerados sospechosos o de riesgo, antes de alertar a un operador en tiempo real.

Sin embargo, el reconocimiento facial se centra más en el detalle, ya que permite examinar los rasgos faciales de una persona filmada o fotografiada y comparar el resultado con las imágenes de una base de datos, en tiempo real o más tarde.

Durante el carnaval de Niza en 2019, un "software" de esta última tecnología, desarrollado por ingenieros israelíes, permitió encontrar entre 5.000 personas a casi medio centenar de voluntarios que habían facilitado una foto suya, incluso muy antigua.

Pero esta ciudad de la turística Riviera Francesa, que cuenta con casi 4.500 cámaras de vigilancia de gran precisión, quiere "ir más allá" que una mera experimentación, pero sus deseos chocan con la Cnil, autoridad encargada de velar por el respeto de las libertades en la era digital.

Los franceses ya aceptan "estar vigilados 24 horas al día por [el presidente chino] Xi Jinping o por [su par estadounidense] Joe Biden, según la marca de su celular", defiende el alcalde nizardo, Christian Estrosi, ante las reticencias de la Cnil.

Para el regidor, la Inteligencia Artificial (IA) podría haber ayudado a detectar los movimientos del autor del atentado en el Paseo de los Ingleses en 2016 (86 muertos). "Solo las personas fichadas como peligrosas serían objeto de una vigilancia permanente", asegura.

La tecnología de reconocimiento facial carece de un marco jurídico preciso, pero debe respetar, según la Cnil, "el marco de protección de datos de carácter personal", previsto por dos normas europeas: el reglamento general RGPD y la directiva "Policía-Justicia" de 2016.

Esta última norma permite su uso por las "autoridades competentes" en caso de "absoluta necesidad". La policía la utiliza en investigaciones para consultar la base de antecedentes penales, que contiene millones de expedientes de autores y víctimas.

El sistema de paso rápido en las fronteras exteriores de la Unión Europea la utiliza también en el control biométrico de pasaportes en los lugares previstos para ello y bajo determinadas condiciones.

- "Oportunidad desaprovechada" -

El futuro reglamento europeo sobre Inteligencia Artificial, cuya adopción final se espera en abril, prohíbe "el uso de la identificación biométrica a distancia en tiempo real en los espacios públicos", aunque prevé excepciones.

El reconocimiento facial podría usarse así para "dieciséis delitos", según un vocero de la Comisión Europea: terrorismo, violación, daños graves a las personas, tráfico de seres humanos, asesinato, tráfico de drogas, atracos en banda organizada...

Una "autoridad judicial o administrativa independiente" debería dar su autorización en 24 horas para su uso y los países interesados en poner en marcha esta práctica deben primero aprobar una ley nacional, en base al reglamento.

La oenegé Amnistía Internacional lamentó no obstante una "oportunidad desaprovechada". "Era la ocasión de prohibir sistemas que son peligrosos e incompatibles con los derechos humanos, como el reconocimiento facial", lamentó Katia Roux, miembro en Francia.

En el caso de la videovigilancia por algoritmos, el Parlamento francés aprobó en abril de 2023 una ley que enmarca su experimentación durante los Juegos. Un comité de usuarios y políticos se encargará de su evaluación hasta 2025.

Esta podrá usarse para identificar ocho tipos de situaciones que impliquen un "riesgo de acto de terrorismo o una amenaza grave para la seguridad de las personas": cruzar una zona prohibida, circular en sentido contrario, presencia o uso de un arma, incendio, estampida, persona en el suelo, afluencia excesiva o paquete abandonado.

Amnistía criticó esta experimentación durante París-2024, al considerar que cuando se usan estas tecnologías de vigilancia, "ya no hay marcha atrás". En Londres-2012, se experimentaron y ahora la policía británica la usa para identificar "potenciales delincuentes antes incluso que se cometan crímenes", advirtió.

S.Palmer--TFWP