The Fort Worth Press - En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa

USD -
AED 3.672999
AFN 65.999829
ALL 81.750787
AMD 378.260601
ANG 1.79008
AOA 916.999753
ARS 1447.756099
AUD 1.429184
AWG 1.8025
AZN 1.705356
BAM 1.65515
BBD 2.013067
BDT 122.134821
BGN 1.67937
BHD 0.376967
BIF 2949.955359
BMD 1
BND 1.271532
BOB 6.906503
BRL 5.240099
BSD 0.999467
BTN 90.452257
BWP 13.162215
BYN 2.854157
BYR 19600
BZD 2.010138
CAD 1.36684
CDF 2200.000048
CHF 0.777199
CLF 0.021754
CLP 858.959666
CNY 6.938195
CNH 6.942025
COP 3630.33
CRC 495.478914
CUC 1
CUP 26.5
CVE 93.31088
CZK 20.656302
DJF 177.719754
DKK 6.326403
DOP 62.700992
DZD 129.730387
EGP 46.897988
ERN 15
ETB 154.846992
EUR 0.847269
FJD 2.20415
FKP 0.729917
GBP 0.732535
GEL 2.695027
GGP 0.729917
GHS 10.974578
GIP 0.729917
GMD 73.000395
GNF 8771.298855
GTQ 7.666172
GYD 209.107681
HKD 7.81245
HNL 26.40652
HRK 6.385502
HTG 131.004367
HUF 321.635985
IDR 16799.3
ILS 3.094805
IMP 0.729917
INR 90.43035
IQD 1309.366643
IRR 42125.000158
ISK 122.696076
JEP 0.729917
JMD 156.730659
JOD 0.709024
JPY 156.930997
KES 128.949967
KGS 87.449995
KHR 4034.223621
KMF 417.999628
KPW 899.945137
KRW 1460.080274
KWD 0.30734
KYD 0.83291
KZT 496.518171
LAK 21498.933685
LBP 89504.332961
LKR 309.337937
LRD 185.901857
LSL 15.973208
LTL 2.95274
LVL 0.60489
LYD 6.316351
MAD 9.162679
MDL 16.911242
MGA 4427.744491
MKD 52.226256
MMK 2099.936125
MNT 3569.846682
MOP 8.043143
MRU 39.687396
MUR 45.879977
MVR 15.450081
MWK 1732.791809
MXN 17.32713
MYR 3.932029
MZN 63.749875
NAD 15.973816
NGN 1368.559882
NIO 36.779547
NOK 9.669775
NPR 144.74967
NZD 1.665765
OMR 0.384498
PAB 0.999458
PEN 3.359892
PGK 4.282021
PHP 58.946982
PKR 279.546749
PLN 3.57345
PYG 6615.13009
QAR 3.645472
RON 4.316195
RSD 99.439016
RUB 76.247469
RWF 1458.735317
SAR 3.750111
SBD 8.058101
SCR 13.714455
SDG 601.502622
SEK 8.98486
SGD 1.272905
SHP 0.750259
SLE 24.474995
SLL 20969.499267
SOS 570.224434
SRD 37.894027
STD 20697.981008
STN 20.734071
SVC 8.745065
SYP 11059.574895
SZL 15.972716
THB 31.719708
TJS 9.340239
TMT 3.51
TND 2.890703
TOP 2.40776
TRY 43.519303
TTD 6.770395
TWD 31.6525
TZS 2580.290195
UAH 43.116413
UGX 3558.598395
UYU 38.520938
UZS 12251.99609
VES 371.640565
VND 25982
VUV 119.556789
WST 2.72617
XAF 555.124234
XAG 0.011427
XAU 0.000202
XCD 2.70255
XCG 1.80131
XDR 0.68948
XOF 555.135979
XPF 100.927097
YER 238.375001
ZAR 16.06744
ZMK 9001.199239
ZMW 19.565181
ZWL 321.999592
En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa
En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa / Foto: © AFP

En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa

Aplicaciones fotográficas que desnudan digitalmente a las mujeres, la posibilidad de crear desde una simple frase fotos de "chicas de inteligencia artificial (IA)" e imágenes manipuladas que alimentan la "extorsión sexual": el auge de la pornografía ultrafalsa está superando esfuerzos de EEUU y Europa para regular la tecnología.

Tamaño del texto:

Las falsificaciones de fotos y videos cada vez más realistas basadas en IA -llamadas "deepfakes"- generalmente se asocian a personalidades conocidas, como el papa Francisco con un abrigo acolchado o Donald Trump bajo arresto, pero los expertos afirman que su uso se está extendiendo para generar pornografía no consensuada que puede destruir vidas comunes y corrientes.

Las mujeres son un objetivo particular de las herramientas y aplicaciones de IA, ampliamente disponibles de forma gratuita y sin necesidad de conocimientos técnicos, que permiten a los usuarios retirar digitalmente la ropa de sus fotos o insertar sus rostros en videos sexualmente explícitos.

"El aumento de la pornografía generada por IA y de la 'deepfake porn' normaliza el uso de la imagen de una mujer sin su consentimiento", explica a la AFP Sophie Maddocks, investigadora de la Universidad de Pensilvania que estudia los abusos sexuales basados en imágenes.

"¿Qué mensaje enviamos como sociedad sobre el consentimiento cuando se puede desnudar virtualmente a cualquier mujer?", comentó.

En un dramático video, una "streamer" estadounidense de Twitch conocida como QTCinderella lamentó la "constante explotación y cosificación" de las mujeres cuando se convirtió en víctima del "porno deepfake". Fue acosada, agregó, por personas que le enviaban copias de las manipulaciones en las que aparecía.

El escándalo estalló en enero durante una transmisión en vivo del también "streamer" Brandon Ewing, quien fue sorprendido mirando un sitio web que contenía imágenes sexuales falsas de varias mujeres, entre ellas QTCinderella.

"No es tan simple como 'sólo' ser violada. Es mucho más que eso", escribió la creadora de contenido en Twitter, ahora llamado X, añadiendo que la experiencia la había "arruinado".

- "Chicas hiperreales" -

La proliferación de "deepfakes" subraya la amenaza de la desinformación habilitada por la IA, que puede dañar la reputación y provocar intimidación o acoso.

Si bien celebridades como la cantante Taylor Swift y la actriz Emma Watson han sido víctimas de la pornografía falsa, las mujeres que no están en el ojo público también son el objetivo de estos ataques.

Los medios de comunicación estadounidenses y europeos están llenos de testimonios de primera mano de mujeres, desde académicas hasta activistas, que se sorprendieron al descubrir sus rostros en videos pornográficos falsos.

Alrededor del 96% de los videos "deepfake" en línea son pornografía no consensuada y en la mayoría de ellos aparecen mujeres, según un estudio de 2019 realizado por la empresa holandesa de IA Sensity.

"El acto de la fantasía sexual, que antes era privado y que tiene lugar dentro de la mente de alguien, se transfiere ahora a la tecnología y a los creadores de contenidos en el mundo real", dijo a la AFP Roberta Duffield, directora de inteligencia de Blackbird.AI.

Hay aplicaciones gratuitas que pueden crear "chicas hiperreales de IA", avatares a partir de fotos reales, personalizándolas con indicaciones como "piel oscura" u otras con connotaciones sexuales.

- "Rincón oscuro" -

Los avances tecnológicos han dado lugar a lo que Duffield denomina una "industria artesanal en expansión" en torno al porno potenciado con IA, en la que muchos creadores de "deepfakes" aceptan solicitudes pagas para generar contenidos con una persona que el cliente elige.

El mes pasado, el FBI emitió una advertencia sobre los "esquemas de sextorsión", en los que los estafadores capturan fotos y videos de las redes sociales para crear material falso de "temática sexual" que luego se utilizan para chantajear al usuario afectado.

El FBI añadió que entre las víctimas había menores de edad y adultos que no dieron su consentimiento.

La proliferación de herramientas de inteligencia artificial ha superado la regulación.

"Esto no es un rincón oscuro de Internet, donde se crean y comparten estas imágenes", dijo a la AFP Dan Purcell, director ejecutivo y fundador de la empresa de protección de marcas de inteligencia artificial Ceartas.

"Está justo delante de nuestras narices. Y sí, la ley debe ponerse al día", añadió.

En Estados Unidos, cuatro estados, incluidos California y Virginia, prohibieron la distribución de pornografía falsa, pero las víctimas suelen tener pocos recursos legales si los perpetradores viven fuera de estas jurisdicciones.

En mayo, un legislador estadounidense presentó la Ley de prevención de falsificaciones profundas de imágenes íntimas, que haría ilegal compartir pornografía falsificada sin consentimiento.

Espacios en línea populares, como Reddit, también han tratado de regular sus florecientes comunidades de pornografía con IA.

"Internet es una jurisdicción sin fronteras, y debe haber una ley internacional unificada para proteger a las personas contra esta forma de explotación", dijo Purcell.

burs-ac/st/tjj/db/arm

C.Dean--TFWP