The Fort Worth Press - "C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images

USD -
AED 3.672502
AFN 63.000009
ALL 83.141978
AMD 376.485471
ANG 1.790083
AOA 917.000306
ARS 1367.970397
AUD 1.449517
AWG 1.8025
AZN 1.702553
BAM 1.694558
BBD 2.010968
BDT 122.511751
BGN 1.709309
BHD 0.376961
BIF 2965.773868
BMD 1
BND 1.283101
BOB 6.914956
BRL 5.238296
BSD 0.998423
BTN 94.09624
BWP 13.729041
BYN 2.998376
BYR 19600
BZD 2.008109
CAD 1.385315
CDF 2285.499399
CHF 0.79552
CLF 0.023512
CLP 928.390088
CNY 6.91145
CNH 6.917935
COP 3689.39
CRC 462.899991
CUC 1
CUP 26.5
CVE 95.540739
CZK 21.243019
DJF 177.799726
DKK 6.47508
DOP 60.195193
DZD 133.003458
EGP 52.703605
ERN 15
ETB 154.307745
EUR 0.866497
FJD 2.257398
FKP 0.747836
GBP 0.749555
GEL 2.695018
GGP 0.747836
GHS 10.916401
GIP 0.747836
GMD 73.498164
GNF 8752.907745
GTQ 7.638886
GYD 208.893799
HKD 7.83172
HNL 26.511932
HRK 6.5274
HTG 130.753836
HUF 336.303501
IDR 16957
ILS 3.13435
IMP 0.747836
INR 94.66895
IQD 1307.999879
IRR 1313299.999953
ISK 124.259686
JEP 0.747836
JMD 156.917785
JOD 0.708973
JPY 159.620503
KES 129.793234
KGS 87.449786
KHR 3998.336553
KMF 426.999923
KPW 900.057798
KRW 1507.810387
KWD 0.30735
KYD 0.832088
KZT 480.998402
LAK 21565.798992
LBP 89410.383591
LKR 314.008846
LRD 183.234482
LSL 17.08101
LTL 2.95274
LVL 0.60489
LYD 6.375734
MAD 9.322411
MDL 17.537157
MGA 4161.215702
MKD 53.396229
MMK 2099.983779
MNT 3583.827699
MOP 8.045798
MRU 39.8269
MUR 46.769823
MVR 15.459574
MWK 1731.28406
MXN 17.91295
MYR 4.0085
MZN 63.909655
NAD 17.080862
NGN 1384.170207
NIO 36.742473
NOK 9.67666
NPR 150.534765
NZD 1.733055
OMR 0.384492
PAB 0.998471
PEN 3.455542
PGK 4.314509
PHP 60.34199
PKR 278.731944
PLN 3.706915
PYG 6536.015664
QAR 3.640948
RON 4.416029
RSD 101.780978
RUB 81.376427
RWF 1458.028296
SAR 3.751727
SBD 8.041975
SCR 13.46748
SDG 601.000211
SEK 9.428015
SGD 1.28554
SHP 0.750259
SLE 24.55044
SLL 20969.510825
SOS 570.594376
SRD 37.561983
STD 20697.981008
STN 21.225996
SVC 8.73675
SYP 111.44287
SZL 17.078983
THB 32.869768
TJS 9.556146
TMT 3.51
TND 2.938146
TOP 2.40776
TRY 44.45798
TTD 6.776842
TWD 31.939495
TZS 2578.986938
UAH 43.811372
UGX 3714.470144
UYU 40.481936
UZS 12161.933849
VES 466.018145
VND 26338.5
VUV 119.023334
WST 2.74953
XAF 568.30701
XAG 0.014355
XAU 0.000224
XCD 2.70255
XCG 1.799507
XDR 0.706792
XOF 568.311934
XPF 103.329218
YER 238.649751
ZAR 17.08125
ZMK 9001.201522
ZMW 18.745993
ZWL 321.999592
  • AEX

    -5.3400

    965.47

    -0.55%

  • BEL20

    -35.5400

    4970.76

    -0.71%

  • PX1

    -31.0800

    7738.39

    -0.4%

  • ISEQ

    -43.3000

    11983.66

    -0.36%

  • OSEBX

    -10.9300

    1977.02

    -0.55%

  • PSI20

    -94.4700

    8902.77

    -1.05%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -3.6200

    3621.06

    -0.1%

  • N150

    -29.8200

    3792.86

    -0.78%

"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images
"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images / Photo: © AFP

"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images

"Grok, c'est vrai?" : les internautes recourent de plus en plus aux chatbots conversationnels pour vérifier des informations, au risque d'être trompés par les erreurs des IA, comme l'illustrent les vifs échanges déclenchés sur X par le partage de la photo d'une fillette dénutrie à Gaza.

Taille du texte:

Début août, quand le député français apparenté LFI Aymeric Caron, soutien notoire de la cause palestinienne, publie sur le réseau social X cette image sans légende, alors que la bande de Gaza est menacée d’une "famine généralisée" selon l'ONU, plusieurs utilisateurs demandent rapidement à Grok d'en vérifier l'origine.

Le robot conversationnel intégré à X est formel: cette photo a été prise selon lui en octobre 2018 au Yémen et montrerait Amal Hussain, une fillette de 7 ans. Sa réponse est largement relayée. Et le député accusé de faire de la désinformation.

Mais Grok se trompe : la photo a bien été prise à Gaza, le 2 août, par Omar al-Qattaa, photojournaliste pour l'AFP.

Le cliché montre Mariam Dawwas, 9 ans, dans les bras de sa mère Modallala à Gaza-ville, qui a expliqué à l'AFP que sa fille pesait 25 kilos avant la guerre, contre 9 aujourd'hui. Comme soutien médical, elle reçoit "seulement du lait, et il n'est pas toujours disponible. Ce n'est pas suffisant pour qu'elle se rétablisse", a-t-elle dit.

Interpellé sur l'inexactitude de sa réponse, Grok affirme: "Je ne propage pas de fake news ; je m'appuie sur des sources vérifiées". Il finit par admettre son erreur mais il la reproduit dès le lendemain, en réponses à de nouvelles questions d'utilisateurs de X.

- Des "boîtes noires" -

Cette séquence illustre les limites des outils d'intelligence artificielle, qui fonctionnent comme "des boîtes noires", souligne Louis de Diesbach, chercheur en éthique de la technique et auteur de Bonjour ChatGPT.

"On ne sait pas précisément pourquoi ils donnent telle ou telle réponse, ni comment ils priorisent leurs sources", souligne l'expert, expliquant que ces outils ont des biais liés à leurs données d'entraînement mais aussi aux consignes de leurs concepteurs.

Le robot conversationnel d'xAI, la start-up d'Elon Musk, présente selon l'expert "des biais encore plus prononcés et qui sont très alignés sur l'idéologie promue, entre autres," par le milliardaire sud-africain, proche des idées de la droite radicale américaine.

Interroger un chatbot sur l'origine d'une image revient à le faire sortir de son rôle, pointe M. de Diesbach : "Typiquement, quand vous cherchez l'origine d'une image, il peut dire +cette photo aurait pu être prise au Yémen, aurait pu être prise à Gaza, aurait pu être prise dans à peu près n'importe quel pays où il y a une famine+".

"Un modèle de langage ne cherche pas à créer des choses exactes, ce n'est pas le but", insiste l'expert.

Récemment, une autre photographie de l'AFP, du même Omar al-Qattaa, publiée par le quotidien Libération et montrant déjà un enfant souffrant de malnutrition à Gaza, avait déjà été faussement située au Yémen et datée de 2016 par Grok. Alors qu'elle a bien été prise en juillet 2025 à Gaza.

L'erreur de l'IA avait conduit des internautes à accuser à tort le journal de manipulation.

- Pas seulement Grok -

Les biais des IA sont liés à leurs données d'entraînement, qui conditionnent la base des connaissances du modèle, et à la phase dite d'alignement, qui détermine ce que le modèle va considérer comme une "bonne" ou une "mauvaise" réponse.

Et "ce n'est pas parce qu'on lui a expliqué qu'en fait, c'était faux, que du jour au lendemain, il va (changer sa réponse) parce que ses données d'entraînement n'ont pas changé, son alignement non plus", ajoute M. de Diesbach.

Les erreurs ne sont pas propres à Grok : interrogé par l'AFP sur l'origine de la photo de Mariam Dawwas, l’agent conversationnel de Mistral AI - start-up qui, en tant que partenaire de l’AFP, peut intégrer les dépêches de l'agence aux réponses de son chatbot - a lui aussi indiqué à tort qu'elle avait été prise au Yémen.

Pour Louis de Diesbach, les agents conversationnels ne doivent pas être utilisés pour vérifier des faits, à la manière d'un moteur de recherche, car "ils ne sont pas faits pour dire la vérité" mais pour "générer du contenu, qu’il soit vrai ou faux."

"Il faut le voir comme un ami mythomane : il ne ment pas toujours, mais il peut toujours mentir", conclut l’expert.

J.Barnes--TFWP