The Fort Worth Press - Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux

USD -
AED 3.672504
AFN 63.000368
ALL 82.776172
AMD 376.396497
ANG 1.790083
AOA 917.000367
ARS 1391.503978
AUD 1.422273
AWG 1.8025
AZN 1.70397
BAM 1.687271
BBD 2.010611
BDT 122.494932
BGN 1.709309
BHD 0.377087
BIF 2954.923867
BMD 1
BND 1.276711
BOB 6.898158
BRL 5.313404
BSD 0.998318
BTN 93.32787
BWP 13.612561
BYN 3.028771
BYR 19600
BZD 2.007764
CAD 1.37265
CDF 2275.000362
CHF 0.78844
CLF 0.023504
CLP 928.050396
CNY 6.886404
CNH 6.906095
COP 3669.412932
CRC 466.289954
CUC 1
CUP 26.5
CVE 95.125739
CZK 21.149204
DJF 177.768192
DKK 6.457504
DOP 59.25894
DZD 132.24804
EGP 51.758616
ERN 15
ETB 157.330889
EUR 0.862704
FJD 2.21445
FKP 0.75164
GBP 0.749681
GEL 2.71504
GGP 0.75164
GHS 10.882112
GIP 0.75164
GMD 73.503851
GNF 8750.377432
GTQ 7.646983
GYD 208.85994
HKD 7.83525
HNL 26.423673
HRK 6.511304
HTG 130.966657
HUF 339.680388
IDR 16956.2
ILS 3.109125
IMP 0.75164
INR 94.01055
IQD 1307.768624
IRR 1315625.000352
ISK 124.270386
JEP 0.75164
JMD 156.839063
JOD 0.70904
JPY 159.240385
KES 129.327524
KGS 87.447904
KHR 3989.129966
KMF 427.00035
KPW 899.870128
KRW 1505.310383
KWD 0.30657
KYD 0.831903
KZT 479.946513
LAK 21437.260061
LBP 89404.995039
LKR 311.417849
LRD 182.685589
LSL 16.84053
LTL 2.95274
LVL 0.60489
LYD 6.39089
MAD 9.328473
MDL 17.385153
MGA 4162.53289
MKD 53.176897
MMK 2099.940821
MNT 3585.542519
MOP 8.05806
MRU 39.961178
MUR 46.510378
MVR 15.460378
MWK 1731.096062
MXN 17.898204
MYR 3.939039
MZN 63.903729
NAD 16.84053
NGN 1356.250377
NIO 36.733814
NOK 9.569995
NPR 149.324936
NZD 1.712622
OMR 0.384504
PAB 0.998318
PEN 3.451408
PGK 4.309192
PHP 60.150375
PKR 278.721304
PLN 3.69475
PYG 6520.295044
QAR 3.65052
RON 4.401504
RSD 101.324246
RUB 82.822413
RWF 1452.529871
SAR 3.754657
SBD 8.05166
SCR 13.69771
SDG 601.000339
SEK 9.344038
SGD 1.282504
SHP 0.750259
SLE 24.575038
SLL 20969.510825
SOS 570.504249
SRD 37.487504
STD 20697.981008
STN 21.136177
SVC 8.734849
SYP 110.536894
SZL 16.845965
THB 32.908038
TJS 9.588492
TMT 3.51
TND 2.948367
TOP 2.40776
TRY 44.252504
TTD 6.773066
TWD 32.036704
TZS 2595.522581
UAH 43.73308
UGX 3773.454687
UYU 40.227753
UZS 12170.987361
VES 454.69063
VND 26312
VUV 119.352434
WST 2.727514
XAF 565.894837
XAG 0.014693
XAU 0.000222
XCD 2.70255
XCG 1.799163
XDR 0.703792
XOF 565.894837
XPF 102.885735
YER 238.603589
ZAR 17.12748
ZMK 9001.203584
ZMW 19.491869
ZWL 321.999592
  • AEX

    -16.0300

    961.62

    -1.64%

  • BEL20

    -88.0900

    4916.79

    -1.76%

  • PX1

    -142.1000

    7665.62

    -1.82%

  • ISEQ

    -203.0200

    11881.24

    -1.68%

  • OSEBX

    -31.9800

    1966.5

    -1.6%

  • PSI20

    -190.5700

    8756.26

    -2.13%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -27.8400

    3634.93

    -0.76%

  • N150

    -58.3500

    3755.58

    -1.53%

Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux
Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux / Photo: © AFP

Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux

Lorsque des Philippins indignés ont utilisé un assistant virtuel ("chatbot") dopé à l'IA pour vérifier la photo virale d'un parlementaire impliqué dans un scandale de corruption, l'outil n'a pas détecté qu'elle était fabriquée. Il l'avait pourtant lui-même générée.

Taille du texte:

Les internautes se tournent de plus en plus vers des chatbots pour vérifier des images en temps réel. Mais ces outils échouent souvent, interrogeant sur leurs capacités à détecter les images factices, à un moment où les grandes plateformes réduisent la vérification humaine.

Dans de nombreux cas, ils identifient comme authentiques des images générées par l'IA, ce qui accentue la confusion dans un univers numérique saturé de faux visuels.

Les outils de vérification "sont principalement entraînés sur des schémas linguistiques et manquent de la compréhension visuelle nécessaire pour identifier correctement les images générées ou manipulées", explique Alon Yamin, PDG de Copyleaks, une plateforme de détection de contenus IA.

"Les chatbots donnent souvent des évaluations incohérentes ou trop générales, ce qui les rend peu fiables pour des tâches comme la vérification ou l'authentification."

Aux Philippines, une image fabriquée a ainsi circulé sur les réseaux sociaux impliquant Elizaldy Co, ex-député impliqué dans une vaste affaire de corruption concernant des projets fictifs de contrôle des inondations, qui auraient coûté des centaines de millions de dollars au contribuable.

La photo montrait l'ex-député au Portugal, alors qu'il aurait dû se trouver aux Philippines à la disposition de la justice. Lorsque des internautes ont interrogé l'assistant IA de Google pour savoir si la photo était authentique, l'IA a répondu à tort par l'affirmative.

Elizaldy Co n'est en réalité jamais réapparu en public depuis le début de l'enquête.

Les vérificateurs de l'AFP ont retrouvé le créateur de l'image et établi qu'elle avait été précisément générée par l'IA de Google.

Google n'a pas répondu aux sollicitations de l'AFP sur ce sujet.

- "Distinguable de la réalité" -

L'AFP a trouvé d'autres occurrences d'IA incapables de reconnaître leurs propres créations.

Lors des violentes manifestations du mois dernier au Cachemire pakistanais, des internautes ont partagé une image censée montrer des hommes marchant avec des drapeaux et des torches.

Une analyse de l'AFP a révélé qu'elle avait été créée avec le modèle Gemini de Google. Mais Gemini et Copilot (Microsoft) l'ont identifiée comme authentique.

"Ces modèles (d'IA) sont programmés uniquement pour bien imiter", explique à l'AFP Rossine Fallorina, du centre de recherche Sigla. "En un sens, ils ne peuvent que générer des choses qui imitent correctement. Ils ne peuvent pas déterminer si cette imitation est réellement distinguable de la réalité".

Plus tôt cette année, le Tow Center for Digital Journalism de l'université américaine Columbia a testé sept chatbots IA – dont ChatGPT, Perplexity, Gemini et Grok (une IA appartenant à Elon Musk) – sur 10 photos de photojournalistes.

Tous ont échoué à identifier correctement la provenance des images qui leur étaient soumises, selon l'étude.

- "Choqué" -

L'AFP a retrouvé l'auteur de la fausse photo d'Elizaldy Co, qui a dépassé le million de vues sur les réseaux: un développeur web philippin qui affirme l'avoir créée "pour s'amuser" avec Nano Banana, le générateur d'images IA de Gemini.

"Malheureusement, beaucoup de gens y ont cru", confie-t-il, sous couvert d'anonymat pour éviter les représailles. "J'ai modifié mon post en précisant +image générée par IA+ pour stopper la propagation, car j'étais choqué par le nombre de partages."

Ces cas montrent à quel point les photos générées par IA peuvent être indiscernables des images réelles. Et la tendance inquiète, alors que les internautes délaissent les moteurs de recherche traditionnels au profit des outils IA pour s'informer et vérifier des contenus.

Le géant américain Meta, qui contrôle Facebook et Instagram, a annoncé en début d'année la fin de son programme de fact-checking aux Etats-Unis pour le remplacer par un système de "notes de communauté", écrites par des utilisateurs, sur le modèle du réseau social X d'Elon Musk.

L'AFP collabore en revanche toujours avec Meta dans 26 langues, en Asie, Amérique latine et dans l'Union européenne.

Les chercheurs estiment que les modèles d'IA peuvent aider les fact-checkers professionnels à géolocaliser rapidement des images et repérer des indices visuels. Mais ils avertissent qu'ils ne peuvent pas remplacer le travail humain.

"On ne peut pas compter sur les outils IA pour combattre l'IA à long terme", insiste Rossine Fallorina.

T.Mason--TFWP