The Fort Worth Press - Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux

USD -
AED 3.672502
AFN 66.374624
ALL 82.891062
AMD 382.105484
ANG 1.790055
AOA 916.999807
ARS 1445.826396
AUD 1.509662
AWG 1.80125
AZN 1.695795
BAM 1.678236
BBD 2.018646
BDT 122.628476
BGN 1.677703
BHD 0.377014
BIF 2961.256275
BMD 1
BND 1.297979
BOB 6.925579
BRL 5.310804
BSD 1.002244
BTN 90.032049
BWP 13.315657
BYN 2.90153
BYR 19600
BZD 2.015729
CAD 1.394875
CDF 2230.000049
CHF 0.80302
CLF 0.023394
CLP 917.730085
CNY 7.07165
CNH 7.067097
COP 3796.99
CRC 491.421364
CUC 1
CUP 26.5
CVE 94.616395
CZK 20.76375
DJF 178.481789
DKK 6.40673
DOP 63.686561
DZD 129.897998
EGP 47.520501
ERN 15
ETB 156.280403
EUR 0.857898
FJD 2.261501
FKP 0.750125
GBP 0.749325
GEL 2.700162
GGP 0.750125
GHS 11.416779
GIP 0.750125
GMD 73.000063
GNF 8709.00892
GTQ 7.677291
GYD 209.68946
HKD 7.78475
HNL 26.389336
HRK 6.462901
HTG 131.282447
HUF 328.445496
IDR 16651.7
ILS 3.235525
IMP 0.750125
INR 89.888095
IQD 1312.956662
IRR 42124.999835
ISK 127.820348
JEP 0.750125
JMD 160.623651
JOD 0.708969
JPY 154.622993
KES 129.250164
KGS 87.45021
KHR 4014.227424
KMF 422.000349
KPW 899.992858
KRW 1470.020022
KWD 0.306802
KYD 0.83526
KZT 506.587952
LAK 21742.171042
LBP 89752.828464
LKR 309.374155
LRD 176.902912
LSL 17.013777
LTL 2.95274
LVL 0.60489
LYD 5.447985
MAD 9.247548
MDL 17.048443
MGA 4457.716053
MKD 52.892165
MMK 2099.902882
MNT 3550.784265
MOP 8.035628
MRU 39.710999
MUR 46.070267
MVR 15.409735
MWK 1737.95151
MXN 18.2142
MYR 4.114026
MZN 63.897023
NAD 17.013777
NGN 1450.250279
NIO 36.881624
NOK 10.095799
NPR 144.049872
NZD 1.732802
OMR 0.384503
PAB 1.002325
PEN 3.37046
PGK 4.251065
PHP 58.991026
PKR 283.139992
PLN 3.631841
PYG 6950.492756
QAR 3.663323
RON 4.367199
RSD 100.707975
RUB 76.00652
RWF 1458.303837
SAR 3.753008
SBD 8.223823
SCR 14.340982
SDG 601.504905
SEK 9.41351
SGD 1.29484
SHP 0.750259
SLE 22.999887
SLL 20969.498139
SOS 571.823287
SRD 38.643498
STD 20697.981008
STN 21.023817
SVC 8.769634
SYP 11056.894377
SZL 17.008825
THB 31.89005
TJS 9.210862
TMT 3.5
TND 2.941946
TOP 2.40776
TRY 42.517902
TTD 6.795179
TWD 31.297984
TZS 2449.999928
UAH 42.259148
UGX 3553.316915
UYU 39.265994
UZS 11939.350775
VES 248.585902
VND 26365
VUV 122.113889
WST 2.800321
XAF 562.862377
XAG 0.017154
XAU 0.000237
XCD 2.70255
XCG 1.806356
XDR 0.70002
XOF 562.867207
XPF 102.334841
YER 238.414547
ZAR 16.960985
ZMK 9001.19956
ZMW 23.026725
ZWL 321.999592
  • AEX

    2.4600

    950.22

    +0.26%

  • BEL20

    50.6300

    5063.87

    +1.01%

  • PX1

    19.4900

    8141.21

    +0.24%

  • ISEQ

    15.3000

    12762.12

    +0.12%

  • OSEBX

    10.2400

    1635.54

    +0.63%

  • PSI20

    -0.8200

    8237.95

    -0.01%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -40.8400

    4350.18

    -0.93%

  • N150

    19.0900

    3690.65

    +0.52%

Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux
Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux / Photo: © AFP

Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux

Lorsque des Philippins indignés ont utilisé un assistant virtuel ("chatbot") dopé à l'IA pour vérifier la photo virale d'un parlementaire impliqué dans un scandale de corruption, l'outil n'a pas détecté qu'elle était fabriquée. Il l'avait pourtant lui-même générée.

Taille du texte:

Les internautes se tournent de plus en plus vers des chatbots pour vérifier des images en temps réel. Mais ces outils échouent souvent, interrogeant sur leurs capacités à détecter les images factices, à un moment où les grandes plateformes réduisent la vérification humaine.

Dans de nombreux cas, ils identifient comme authentiques des images générées par l'IA, ce qui accentue la confusion dans un univers numérique saturé de faux visuels.

Les outils de vérification "sont principalement entraînés sur des schémas linguistiques et manquent de la compréhension visuelle nécessaire pour identifier correctement les images générées ou manipulées", explique Alon Yamin, PDG de Copyleaks, une plateforme de détection de contenus IA.

"Les chatbots donnent souvent des évaluations incohérentes ou trop générales, ce qui les rend peu fiables pour des tâches comme la vérification ou l'authentification."

Aux Philippines, une image fabriquée a ainsi circulé sur les réseaux sociaux impliquant Elizaldy Co, ex-député impliqué dans une vaste affaire de corruption concernant des projets fictifs de contrôle des inondations, qui auraient coûté des centaines de millions de dollars au contribuable.

La photo montrait l'ex-député au Portugal, alors qu'il aurait dû se trouver aux Philippines à la disposition de la justice. Lorsque des internautes ont interrogé l'assistant IA de Google pour savoir si la photo était authentique, l'IA a répondu à tort par l'affirmative.

Elizaldy Co n'est en réalité jamais réapparu en public depuis le début de l'enquête.

Les vérificateurs de l'AFP ont retrouvé le créateur de l'image et établi qu'elle avait été précisément générée par l'IA de Google.

Google n'a pas répondu aux sollicitations de l'AFP sur ce sujet.

- "Distinguable de la réalité" -

L'AFP a trouvé d'autres occurrences d'IA incapables de reconnaître leurs propres créations.

Lors des violentes manifestations du mois dernier au Cachemire pakistanais, des internautes ont partagé une image censée montrer des hommes marchant avec des drapeaux et des torches.

Une analyse de l'AFP a révélé qu'elle avait été créée avec le modèle Gemini de Google. Mais Gemini et Copilot (Microsoft) l'ont identifiée comme authentique.

"Ces modèles (d'IA) sont programmés uniquement pour bien imiter", explique à l'AFP Rossine Fallorina, du centre de recherche Sigla. "En un sens, ils ne peuvent que générer des choses qui imitent correctement. Ils ne peuvent pas déterminer si cette imitation est réellement distinguable de la réalité".

Plus tôt cette année, le Tow Center for Digital Journalism de l'université américaine Columbia a testé sept chatbots IA – dont ChatGPT, Perplexity, Gemini et Grok (une IA appartenant à Elon Musk) – sur 10 photos de photojournalistes.

Tous ont échoué à identifier correctement la provenance des images qui leur étaient soumises, selon l'étude.

- "Choqué" -

L'AFP a retrouvé l'auteur de la fausse photo d'Elizaldy Co, qui a dépassé le million de vues sur les réseaux: un développeur web philippin qui affirme l'avoir créée "pour s'amuser" avec Nano Banana, le générateur d'images IA de Gemini.

"Malheureusement, beaucoup de gens y ont cru", confie-t-il, sous couvert d'anonymat pour éviter les représailles. "J'ai modifié mon post en précisant +image générée par IA+ pour stopper la propagation, car j'étais choqué par le nombre de partages."

Ces cas montrent à quel point les photos générées par IA peuvent être indiscernables des images réelles. Et la tendance inquiète, alors que les internautes délaissent les moteurs de recherche traditionnels au profit des outils IA pour s'informer et vérifier des contenus.

Le géant américain Meta, qui contrôle Facebook et Instagram, a annoncé en début d'année la fin de son programme de fact-checking aux Etats-Unis pour le remplacer par un système de "notes de communauté", écrites par des utilisateurs, sur le modèle du réseau social X d'Elon Musk.

L'AFP collabore en revanche toujours avec Meta dans 26 langues, en Asie, Amérique latine et dans l'Union européenne.

Les chercheurs estiment que les modèles d'IA peuvent aider les fact-checkers professionnels à géolocaliser rapidement des images et repérer des indices visuels. Mais ils avertissent qu'ils ne peuvent pas remplacer le travail humain.

"On ne peut pas compter sur les outils IA pour combattre l'IA à long terme", insiste Rossine Fallorina.

T.Mason--TFWP