The Fort Worth Press - Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux

USD -
AED 3.672504
AFN 64.000368
ALL 80.878301
AMD 368.276037
ANG 1.789884
AOA 918.000367
ARS 1398.655759
AUD 1.37836
AWG 1.8025
AZN 1.70397
BAM 1.65809
BBD 2.008732
BDT 122.377178
BGN 1.668102
BHD 0.376584
BIF 2968.504938
BMD 1
BND 1.264635
BOB 6.891611
BRL 4.915095
BSD 0.997329
BTN 94.180832
BWP 13.389852
BYN 2.818448
BYR 19600
BZD 2.00585
CAD 1.36715
CDF 2265.000362
CHF 0.776955
CLF 0.022646
CLP 890.873638
CNY 6.80075
CNH 6.796265
COP 3727.014539
CRC 458.479929
CUC 1
CUP 26.5
CVE 93.480565
CZK 20.636704
DJF 177.601628
DKK 6.340404
DOP 59.310754
DZD 132.326735
EGP 52.744691
ERN 15
ETB 155.726591
EUR 0.84804
FJD 2.18304
FKP 0.733957
GBP 0.73346
GEL 2.67504
GGP 0.733957
GHS 11.234793
GIP 0.733957
GMD 73.503851
GNF 8750.794795
GTQ 7.614768
GYD 208.672799
HKD 7.83165
HNL 26.513501
HRK 6.393304
HTG 130.575219
HUF 300.190388
IDR 17377.45
ILS 2.901304
IMP 0.733957
INR 94.425504
IQD 1306.515196
IRR 1311500.000352
ISK 122.010386
JEP 0.733957
JMD 157.187063
JOD 0.70904
JPY 156.678504
KES 128.803357
KGS 87.420504
KHR 4001.526006
KMF 418.00035
KPW 899.983822
KRW 1461.810383
KWD 0.30766
KYD 0.831164
KZT 460.946971
LAK 21871.900301
LBP 89311.771438
LKR 321.097029
LRD 183.01047
LSL 16.361918
LTL 2.95274
LVL 0.60489
LYD 6.306642
MAD 9.121445
MDL 17.054809
MGA 4165.995507
MKD 52.257217
MMK 2099.83295
MNT 3581.379784
MOP 8.041456
MRU 39.863507
MUR 46.820378
MVR 15.403739
MWK 1729.049214
MXN 17.177604
MYR 3.921039
MZN 63.910377
NAD 16.361918
NGN 1365.000344
NIO 36.700437
NOK 9.209304
NPR 150.68967
NZD 1.675884
OMR 0.384681
PAB 0.997329
PEN 3.448264
PGK 4.404222
PHP 60.515038
PKR 277.958713
PLN 3.59545
PYG 6092.153787
QAR 3.645458
RON 4.426304
RSD 99.504048
RUB 74.240007
RWF 1462.082998
SAR 3.767486
SBD 8.019432
SCR 14.874401
SDG 600.503676
SEK 9.215704
SGD 1.267404
SHP 0.746601
SLE 24.650371
SLL 20969.496166
SOS 569.963122
SRD 37.399038
STD 20697.981008
STN 20.770633
SVC 8.727057
SYP 110.56358
SZL 16.351151
THB 32.203038
TJS 9.305159
TMT 3.5
TND 2.896867
TOP 2.40776
TRY 45.347504
TTD 6.759357
TWD 31.316038
TZS 2598.109449
UAH 43.809334
UGX 3737.018354
UYU 39.777881
UZS 12097.83392
VES 499.23597
VND 26308
VUV 118.45862
WST 2.707065
XAF 556.107838
XAG 0.012445
XAU 0.000212
XCD 2.70255
XCG 1.797465
XDR 0.69162
XOF 556.107838
XPF 101.106354
YER 238.625037
ZAR 16.38071
ZMK 9001.203584
ZMW 18.98775
ZWL 321.999592
  • AEX

    -1.9400

    1017.5

    -0.19%

  • BEL20

    -6.5600

    5463.32

    -0.12%

  • PX1

    -89.4000

    8112.57

    -1.09%

  • ISEQ

    -222.6400

    12721.67

    -1.72%

  • OSEBX

    -8.9100

    1970.28

    -0.45%

  • PSI20

    -66.6800

    9067.26

    -0.73%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -6.0000

    3992.65

    -0.15%

  • N150

    -9.6600

    4189.18

    -0.23%

Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux
Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux / Photo: © AFP

Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux

Lorsque des Philippins indignés ont utilisé un assistant virtuel ("chatbot") dopé à l'IA pour vérifier la photo virale d'un parlementaire impliqué dans un scandale de corruption, l'outil n'a pas détecté qu'elle était fabriquée. Il l'avait pourtant lui-même générée.

Taille du texte:

Les internautes se tournent de plus en plus vers des chatbots pour vérifier des images en temps réel. Mais ces outils échouent souvent, interrogeant sur leurs capacités à détecter les images factices, à un moment où les grandes plateformes réduisent la vérification humaine.

Dans de nombreux cas, ils identifient comme authentiques des images générées par l'IA, ce qui accentue la confusion dans un univers numérique saturé de faux visuels.

Les outils de vérification "sont principalement entraînés sur des schémas linguistiques et manquent de la compréhension visuelle nécessaire pour identifier correctement les images générées ou manipulées", explique Alon Yamin, PDG de Copyleaks, une plateforme de détection de contenus IA.

"Les chatbots donnent souvent des évaluations incohérentes ou trop générales, ce qui les rend peu fiables pour des tâches comme la vérification ou l'authentification."

Aux Philippines, une image fabriquée a ainsi circulé sur les réseaux sociaux impliquant Elizaldy Co, ex-député impliqué dans une vaste affaire de corruption concernant des projets fictifs de contrôle des inondations, qui auraient coûté des centaines de millions de dollars au contribuable.

La photo montrait l'ex-député au Portugal, alors qu'il aurait dû se trouver aux Philippines à la disposition de la justice. Lorsque des internautes ont interrogé l'assistant IA de Google pour savoir si la photo était authentique, l'IA a répondu à tort par l'affirmative.

Elizaldy Co n'est en réalité jamais réapparu en public depuis le début de l'enquête.

Les vérificateurs de l'AFP ont retrouvé le créateur de l'image et établi qu'elle avait été précisément générée par l'IA de Google.

Google n'a pas répondu aux sollicitations de l'AFP sur ce sujet.

- "Distinguable de la réalité" -

L'AFP a trouvé d'autres occurrences d'IA incapables de reconnaître leurs propres créations.

Lors des violentes manifestations du mois dernier au Cachemire pakistanais, des internautes ont partagé une image censée montrer des hommes marchant avec des drapeaux et des torches.

Une analyse de l'AFP a révélé qu'elle avait été créée avec le modèle Gemini de Google. Mais Gemini et Copilot (Microsoft) l'ont identifiée comme authentique.

"Ces modèles (d'IA) sont programmés uniquement pour bien imiter", explique à l'AFP Rossine Fallorina, du centre de recherche Sigla. "En un sens, ils ne peuvent que générer des choses qui imitent correctement. Ils ne peuvent pas déterminer si cette imitation est réellement distinguable de la réalité".

Plus tôt cette année, le Tow Center for Digital Journalism de l'université américaine Columbia a testé sept chatbots IA – dont ChatGPT, Perplexity, Gemini et Grok (une IA appartenant à Elon Musk) – sur 10 photos de photojournalistes.

Tous ont échoué à identifier correctement la provenance des images qui leur étaient soumises, selon l'étude.

- "Choqué" -

L'AFP a retrouvé l'auteur de la fausse photo d'Elizaldy Co, qui a dépassé le million de vues sur les réseaux: un développeur web philippin qui affirme l'avoir créée "pour s'amuser" avec Nano Banana, le générateur d'images IA de Gemini.

"Malheureusement, beaucoup de gens y ont cru", confie-t-il, sous couvert d'anonymat pour éviter les représailles. "J'ai modifié mon post en précisant +image générée par IA+ pour stopper la propagation, car j'étais choqué par le nombre de partages."

Ces cas montrent à quel point les photos générées par IA peuvent être indiscernables des images réelles. Et la tendance inquiète, alors que les internautes délaissent les moteurs de recherche traditionnels au profit des outils IA pour s'informer et vérifier des contenus.

Le géant américain Meta, qui contrôle Facebook et Instagram, a annoncé en début d'année la fin de son programme de fact-checking aux Etats-Unis pour le remplacer par un système de "notes de communauté", écrites par des utilisateurs, sur le modèle du réseau social X d'Elon Musk.

L'AFP collabore en revanche toujours avec Meta dans 26 langues, en Asie, Amérique latine et dans l'Union européenne.

Les chercheurs estiment que les modèles d'IA peuvent aider les fact-checkers professionnels à géolocaliser rapidement des images et repérer des indices visuels. Mais ils avertissent qu'ils ne peuvent pas remplacer le travail humain.

"On ne peut pas compter sur les outils IA pour combattre l'IA à long terme", insiste Rossine Fallorina.

T.Mason--TFWP