The Fort Worth Press - L'IA peut encourager les passages à l'acte lors de tueries ou attentats, alerte une étude

USD -
AED 3.672497
AFN 62.50406
ALL 83.130453
AMD 377.269786
ANG 1.789731
AOA 917.000278
ARS 1395.496752
AUD 1.402997
AWG 1.8025
AZN 1.703834
BAM 1.686471
BBD 2.00319
BDT 122.456898
BGN 1.647646
BHD 0.377524
BIF 2974
BMD 1
BND 1.273104
BOB 6.90348
BRL 5.156402
BSD 0.999828
BTN 92.019953
BWP 13.404329
BYN 2.951577
BYR 19600
BZD 2.004596
CAD 1.360285
CDF 2177.99975
CHF 0.781904
CLF 0.022728
CLP 897.44002
CNY 6.86625
CNH 6.884335
COP 3704.67
CRC 471.070104
CUC 1
CUP 26.5
CVE 95.624972
CZK 21.150903
DJF 177.719523
DKK 6.47626
DOP 61.00019
DZD 131.842995
EGP 51.8653
ERN 15
ETB 156.415111
EUR 0.86675
FJD 2.20365
FKP 0.743065
GBP 0.74773
GEL 2.714992
GGP 0.743065
GHS 10.834969
GIP 0.743065
GMD 73.504552
GNF 8774.999752
GTQ 7.665842
GYD 209.475686
HKD 7.82539
HNL 26.569755
HRK 6.527501
HTG 131.189101
HUF 336.567981
IDR 16891.1
ILS 3.10925
IMP 0.743065
INR 92.229102
IQD 1310
IRR 1321775.000387
ISK 125.510288
JEP 0.743065
JMD 156.609468
JOD 0.708973
JPY 159.213014
KES 129.209923
KGS 87.449498
KHR 4019.999936
KMF 425.999734
KPW 900.034295
KRW 1484.260281
KWD 0.306899
KYD 0.833172
KZT 490.978059
LAK 21434.999927
LBP 89909.731615
LKR 310.824269
LRD 183.300812
LSL 16.196448
LTL 2.95274
LVL 0.60489
LYD 6.355025
MAD 9.365026
MDL 17.241454
MGA 4169.99963
MKD 53.362943
MMK 2099.436277
MNT 3580.909464
MOP 8.060239
MRU 40.120222
MUR 45.909797
MVR 15.450146
MWK 1737.000094
MXN 17.74907
MYR 3.931504
MZN 63.910291
NAD 16.193234
NGN 1393.819834
NIO 36.719729
NOK 9.681925
NPR 147.232905
NZD 1.696515
OMR 0.384499
PAB 0.99984
PEN 3.4185
PGK 4.30075
PHP 59.425007
PKR 279.49797
PLN 3.68837
PYG 6480.12417
QAR 3.641103
RON 4.411598
RSD 101.770274
RUB 79.224355
RWF 1459
SAR 3.752387
SBD 8.045182
SCR 14.005719
SDG 600.999676
SEK 9.25411
SGD 1.27645
SHP 0.750259
SLE 24.601289
SLL 20969.49935
SOS 571.496338
SRD 37.4735
STD 20697.981008
STN 21.5
SVC 8.747877
SYP 111.251279
SZL 16.47999
THB 31.969846
TJS 9.583168
TMT 3.5
TND 2.92375
TOP 2.40776
TRY 44.102802
TTD 6.784601
TWD 31.829904
TZS 2599.999783
UAH 44.074879
UGX 3694.058808
UYU 40.217124
UZS 12154.999926
VES 437.65724
VND 26250
VUV 119.420995
WST 2.730746
XAF 565.633771
XAG 0.01184
XAU 0.000195
XCD 2.70255
XCG 1.801978
XDR 0.701622
XOF 562.502255
XPF 103.389626
YER 238.601942
ZAR 16.587745
ZMK 9001.192727
ZMW 19.44666
ZWL 321.999592
  • AEX

    0.5000

    1002.9

    +0.05%

  • BEL20

    -70.8400

    5176.84

    -1.35%

  • PX1

    -15.3100

    8041.81

    -0.19%

  • ISEQ

    63.8200

    12826.96

    +0.5%

  • OSEBX

    8.5800

    1914.28

    +0.45%

  • PSI20

    52.3400

    9076.37

    +0.58%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -64.5400

    3800.33

    -1.67%

  • N150

    -18.3500

    3885.24

    -0.47%

L'IA peut encourager les passages à l'acte lors de tueries ou attentats, alerte une étude
L'IA peut encourager les passages à l'acte lors de tueries ou attentats, alerte une étude / Photo: © AFP/Archives

L'IA peut encourager les passages à l'acte lors de tueries ou attentats, alerte une étude

Choisir la bonne arme, trouver une cible, adopter la bonne tactique d'attaque... Qu'il s'agisse de poser une bombe dans une synagogue ou d'attaquer une école, la plupart des logiciels d'intelligence artificielle sont beaucoup trop coopératifs avec des assaillants potentiels, alerte une étude mercredi.

Taille du texte:

Des chercheurs du Centre pour la lutte contre la haine numérique (CCDH), organisme de surveillance à but non lucratif, et de CNN se sont fait passer pour de jeunes garçons de 13 ans aux États-Unis et en Irlande pour tester 10 chatbots, dont ChatGPT, Google Gemini, Perplexity, Deepseek et Meta AI.

Les tests ont montré que huit de ces chatbots ont aidé les agresseurs potentiels dans plus de la moitié des réponses, leur fournissant des conseils sur les "lieux à cibler" ou les "armes à utiliser" lors d'une attaque, selon l'étude.

Les chatbots, ajoute-t-elle, sont devenus un "puissant accélérateur de dommages".

"En quelques minutes, un utilisateur peut passer d'une vague pulsion violente à un plan très détaillé et réalisable", explique Imran Ahmed, directeur général du CCDH. "La majorité des chatbots testés ont fourni des conseils sur les armes, les tactiques et le choix des cibles. Ces demandes auraient dû susciter un refus immédiat et total."

Perplexity et Meta AI sont les "moins sûrs", aidant les chercheurs dans la plupart de leurs réponses, tandis que seuls My AI, de Snapchat, et Claude, d'Anthropic, ont refusé de les assister dans plus de la moitié des réponses.

Dans un exemple effrayant, DeepSeek, un modèle d'IA chinois, a conclu ses conseils sur le choix des armes par la phrase: "Bonne chasse!".

Gemini a lui suggéré à un utilisateur discutant d'attaques contre des synagogues que "les éclats métalliques sont généralement plus mortels".

- Claude le plus raisonnable -

Les chercheurs ont également découvert que Character.AI encourageait "activement" les attaques violentes, suggérant notamment à l'utilisateur "d'utiliser une arme à feu" contre le PDG d'une compagnie d'assurance maladie et d'agresser physiquement un homme politique qu'il n'aimait pas.

La conclusion la plus accablante de cette étude est que "ce risque est tout à fait évitable", souligne Imran Ahmed. "Claude a démontré sa capacité à reconnaître les risques et à dissuader les actes violents. La technologie permettant d'éviter ces risques existe. Ce qui manque, c'est la volonté de faire passer la sécurité des consommateurs et la sécurité nationale avant la rapidité de mise sur le marché et les profits."

L'AFP a contacté plusieurs entreprises d'IA pour obtenir leurs commentaires. "Nous disposons de protections solides pour aider à prévenir les réponses inappropriées des IA, et nous avons pris des mesures immédiates pour corriger le problème identifié", a affirmé un porte-parole de Meta. "Nos politiques interdisent à nos IA de promouvoir ou de faciliter des actes violents, et nous travaillons constamment à améliorer nos outils."

Et du côté de Google, un porte-parole a indiqué que ces tests avaient "été réalisés sur un ancien modèle qui n'alimente plus Gemini. Notre examen interne avec notre modèle actuel montre que Gemini a répondu de manière appropriée à la grande majorité des requêtes, sans fournir d'informations +exploitables+ au-delà de celles que l'on peut trouver dans une bibliothèque ou sur le web classique. Lorsque les réponses pouvaient être améliorées, nous avons rapidement pris des mesures pour y remédier dans le modèle actuel".

Mardi, la famille d'une jeune fille blessée lors d'une tuerie au Canada a poursuivi OpenAI en justice, reprochant à l'entreprise de ne pas avoir signalé à la police d'inquiétants messages écrits par l'assaillante à ChatGPT.

A.Williams--TFWP