The Fort Worth Press - "Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA

USD -
AED 3.672503
AFN 66.000343
ALL 81.750787
AMD 378.260319
ANG 1.79008
AOA 917.000119
ARS 1447.7807
AUD 1.429327
AWG 1.80125
AZN 1.695576
BAM 1.65515
BBD 2.013067
BDT 122.134821
BGN 1.67937
BHD 0.37701
BIF 2960
BMD 1
BND 1.271532
BOB 6.906503
BRL 5.2395
BSD 0.999467
BTN 90.452257
BWP 13.162215
BYN 2.854157
BYR 19600
BZD 2.010138
CAD 1.366615
CDF 2225.000441
CHF 0.777305
CLF 0.021735
CLP 858.210238
CNY 6.938199
CNH 6.93926
COP 3628.58
CRC 495.478914
CUC 1
CUP 26.5
CVE 93.31088
CZK 20.654396
DJF 177.720153
DKK 6.328325
DOP 62.700992
DZD 129.716681
EGP 46.898171
ERN 15
ETB 154.846992
EUR 0.84738
FJD 2.20515
FKP 0.729917
GBP 0.73281
GEL 2.695017
GGP 0.729917
GHS 10.974578
GIP 0.729917
GMD 72.999681
GNF 8771.298855
GTQ 7.666172
GYD 209.107681
HKD 7.812425
HNL 26.40652
HRK 6.385502
HTG 131.004367
HUF 321.707506
IDR 16807
ILS 3.094805
IMP 0.729917
INR 90.44185
IQD 1309.366643
IRR 42125.000158
ISK 122.698337
JEP 0.729917
JMD 156.730659
JOD 0.709031
JPY 156.945499
KES 128.949615
KGS 87.449748
KHR 4034.223621
KMF 418.00016
KPW 899.945137
KRW 1461.704465
KWD 0.30733
KYD 0.83291
KZT 496.518171
LAK 21498.933685
LBP 89504.332961
LKR 309.337937
LRD 185.901857
LSL 15.973208
LTL 2.95274
LVL 0.604889
LYD 6.316351
MAD 9.162679
MDL 16.911242
MGA 4427.744491
MKD 52.212764
MMK 2099.936125
MNT 3569.846682
MOP 8.043143
MRU 39.687396
MUR 45.879676
MVR 15.450132
MWK 1732.791809
MXN 17.32615
MYR 3.935502
MZN 63.749926
NAD 15.973816
NGN 1368.559885
NIO 36.779547
NOK 9.67647
NPR 144.74967
NZD 1.666655
OMR 0.384458
PAB 0.999458
PEN 3.359892
PGK 4.282021
PHP 58.951022
PKR 279.546749
PLN 3.57428
PYG 6615.13009
QAR 3.645472
RON 4.317499
RSD 99.475027
RUB 76.246155
RWF 1458.735317
SAR 3.75002
SBD 8.058101
SCR 13.714455
SDG 601.498038
SEK 8.989675
SGD 1.27291
SHP 0.750259
SLE 24.474968
SLL 20969.499267
SOS 570.224434
SRD 37.894053
STD 20697.981008
STN 20.734071
SVC 8.745065
SYP 11059.574895
SZL 15.972716
THB 31.719961
TJS 9.340239
TMT 3.51
TND 2.890703
TOP 2.40776
TRY 43.529499
TTD 6.770395
TWD 31.672103
TZS 2580.289652
UAH 43.116413
UGX 3558.598395
UYU 38.520938
UZS 12251.99609
VES 371.640565
VND 25982
VUV 119.556789
WST 2.72617
XAF 555.124234
XAG 0.011178
XAU 0.0002
XCD 2.70255
XCG 1.80131
XDR 0.68948
XOF 555.135979
XPF 100.927097
YER 238.374961
ZAR 16.080355
ZMK 9001.194249
ZMW 19.565181
ZWL 321.999592
  • AEX

    -3.6800

    990.32

    -0.37%

  • BEL20

    45.6500

    5545.43

    +0.83%

  • PX1

    82.6100

    8262.16

    +1.01%

  • ISEQ

    144.4500

    13519.02

    +1.08%

  • OSEBX

    5.9800

    1765.77

    +0.34%

  • PSI20

    53.8500

    8881.79

    +0.61%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -18.9200

    4094.87

    -0.46%

  • N150

    24.1500

    3983.95

    +0.61%

"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA
"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA / Photo: © AFP/Archives

"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA

Ellis, adolescente texane de 14 ans, s'est réveillée un matin d'octobre avec plusieurs appels manqués et messages affolés sur son téléphone. De fausses photographies d'elle, dénudée, circulaient sur les réseaux sociaux.

Taille du texte:

"C'étaient des photos d'une de mes meilleures amies et de moi tirées d'Instagram. Des corps nus avaient été édités dessus", raconte la collégienne à l'AFP.

"Je me souviens avoir eu très très peur car ces faux nus étaient en train d'être envoyés autour de moi. Et je n'ai jamais rien fait de tel".

Comme plusieurs camarades de son collège de la périphérie de Dallas, au Texas, la jeune fille a été victime de montages hyperréalistes (deepfakes) à caractère sexuel, fabriqués sans leur consentement par un élève puis partagés sur le réseau Snapchat.

Avec la popularisation de l'intelligence artificielle (IA), il est devenu plus facile de fabriquer ces montages photo ou vidéo et de les rendre hyperréalistes, ouvrant la voie à leur utilisation à des fins de harcèlement ou d'humiliation.

"Les filles ne faisaient que pleurer, et pleurer à ne plus en finir, elles avaient honte", se souvient Anna Berry McAdams, mise au courant immédiatement par sa fille Ellis.

"Elle me disait: +Maman, on dirait moi+, et je lui répondais +mais non ma chérie, j'étais avec toi quand la photo a été prise et je sais que ce n'est pas le cas+", poursuit la quinquagénaire, qui se dit "horrifiée" par le réalisme des clichés.

- Quelques dollars -

Fin octobre, d'autres "deepfakes" à caractère sexuel ont été découverts dans un lycée du New Jersey, au nord-est des Etats-Unis. Une enquête a été ouverte pour identifier toutes les victimes et le ou les auteurs.

"Nous commençons à voir de plus en plus de cas émerger (...) mais en matière d'abus sexuels, de +revenge porn+ (divulgation malveillante d'images intimes) ou de +deepfakes pornographiques+, beaucoup de personnes ne se manifestent pas et souffrent en silence parce qu'elles ont peur de rendre l'affaire publique", expose Renée Cummings, criminologue et chercheuse en intelligence artificielle.

S'il est impossible d'évaluer l'ampleur du phénomène, "n'importe qui ayant un smartphone et quelques dollars peut maintenant fabriquer un +deepfake+", précise cette professeure de l'Université de Virginie.

Et ce, grâce aux récents progrès et à la démocratisation de l'IA générative, capable de produire textes, lignes de code, images et sons sur simple requête en langage courant.

De fait, les montages hyperréalistes, qui touchaient auparavant à l'image des célébrités "ayant des tas et des tas de photos et de vidéos d'eux en ligne" concernent à présent tout un chacun, explique Hany Farid, professeur à l'Université de Californie à Berkeley.

"Si vous avez un profil LinkedIn avec une photo de votre tête, quelqu'un peut créer une image sexuelle de vous", poursuit ce spécialiste en détection d'images manipulées numériquement, notant que ces montages "visent principalement les femmes et les jeunes filles".

- "Traumatisme bien réel"-

Face à cette menace grandissante, les systèmes scolaires et judiciaires apparaissent dépassés.

"Bien que votre visage ait été superposé à un corps, ce corps n'est pas vraiment le vôtre, donc ce n'est pas comme si quelqu'un avait partagé un nu de vous" aux yeux de la loi, explique Mme Cummings.

Aux Etats-Unis, aucune loi fédérale ne punit la fabrication et la transmission de fausses images à caractère sexuel, et seule une poignée d'Etats dispose de législations spécifiques.

Fin octobre, Joe Biden a exhorté les législateurs à instaurer des garde-fous, afin d'empêcher notamment "l'IA générative de produire des contenus pédocriminels ou des images intimes non consenties de personnes réelles".

Si la responsabilité des créateurs de ces images -aujourd'hui difficilement identifiables- est centrale, celle des entreprises derrière les sites ou logiciels utilisés, et des réseaux sociaux, vecteurs des contenus, doit aussi être posée, insiste M. Farid.

Car si ces images sont fausses, "le traumatisme est lui bien réel", abonde Renée Cummings, décrivant des personnes "souffrant d'anxiété, de crises de panique, de dépression ou encore de syndromes post-traumatiques après avoir été victimes de +deepfakes pornographiques". "Cela peut détruire une vie".

La texane Ellis, qui se décrit comme une adolescente "sociable" et sportive, raconte avoir à présent "constamment peur", bien que l'élève à l'origine des "deepfakes" ait été identifié et exclu temporairement du collège.

"Je ne sais pas combien de photos il a pu faire ni combien de personnes ont pu les recevoir", explique-t-elle, disant avoir demandé à changer d'établissement scolaire.

Face à cette inconnue, sa mère se mobilise pour faire reconnaître ces images comme de la "pornographie infantile" et les voir punir comme telles.

"Cela pourrait les affecter toute leur vie. Cela ne va jamais sortir d'internet. Donc quand elles vont postuler à l'université par exemple, qui sait si (ces images) ne vont pas resurgir?", s'inquiète Anna Berry McAdams.

J.P.Cortez--TFWP