The Fort Worth Press - Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

USD -
AED 3.673104
AFN 64.000368
ALL 80.950403
AMD 369.010403
ANG 1.789884
AOA 918.000367
ARS 1398.655759
AUD 1.37874
AWG 1.8025
AZN 1.70397
BAM 1.662466
BBD 2.013854
BDT 122.689218
BGN 1.668102
BHD 0.377404
BIF 2975
BMD 1
BND 1.267973
BOB 6.9098
BRL 4.915095
BSD 0.999873
BTN 94.420977
BWP 13.425192
BYN 2.825886
BYR 19600
BZD 2.010964
CAD 1.36705
CDF 2265.000362
CHF 0.776955
CLF 0.022646
CLP 891.290396
CNY 6.80075
CNH 6.796265
COP 3750.48
CRC 459.648974
CUC 1
CUP 26.5
CVE 94.050394
CZK 20.636704
DJF 177.720393
DKK 6.340404
DOP 59.350393
DZD 132.260393
EGP 52.744691
ERN 15
ETB 157.303874
EUR 0.84804
FJD 2.18304
FKP 0.734821
GBP 0.73346
GEL 2.67504
GGP 0.734821
GHS 11.29039
GIP 0.734821
GMD 73.503851
GNF 8780.000355
GTQ 7.634866
GYD 209.223551
HKD 7.83175
HNL 26.620388
HRK 6.393304
HTG 130.919848
HUF 300.190388
IDR 17377.45
ILS 2.901304
IMP 0.734821
INR 94.425504
IQD 1310
IRR 1311500.000352
ISK 122.010386
JEP 0.734821
JMD 157.601928
JOD 0.70904
JPY 156.66204
KES 129.180385
KGS 87.420504
KHR 4010.00035
KMF 418.00035
KPW 899.950939
KRW 1461.920383
KWD 0.30766
KYD 0.833358
KZT 462.122307
LAK 21955.000349
LBP 89550.000349
LKR 321.915771
LRD 183.503772
LSL 16.390381
LTL 2.95274
LVL 0.60489
LYD 6.325039
MAD 9.12038
MDL 17.099822
MGA 4165.000347
MKD 52.252978
MMK 2099.606786
MNT 3578.902576
MOP 8.06268
MRU 39.945039
MUR 46.820378
MVR 15.403739
MWK 1742.000345
MXN 17.177604
MYR 3.921039
MZN 63.910377
NAD 16.390377
NGN 1365.000344
NIO 36.715039
NOK 9.209304
NPR 151.087386
NZD 1.675884
OMR 0.384942
PAB 0.999962
PEN 3.434504
PGK 4.350375
PHP 60.515038
PKR 278.650374
PLN 3.59545
PYG 6107.687731
QAR 3.640374
RON 4.426304
RSD 99.473038
RUB 74.240007
RWF 1460.5
SAR 3.782036
SBD 8.019432
SCR 13.958442
SDG 600.503676
SEK 9.215704
SGD 1.267304
SHP 0.746601
SLE 24.650371
SLL 20969.496166
SOS 571.503662
SRD 37.399038
STD 20697.981008
STN 21.15
SVC 8.749309
SYP 110.543945
SZL 16.370369
THB 32.203038
TJS 9.329718
TMT 3.5
TND 2.866038
TOP 2.40776
TRY 45.349038
TTD 6.776593
TWD 31.316038
TZS 2598.394038
UAH 43.92104
UGX 3746.547108
UYU 39.879308
UZS 12135.000334
VES 499.23597
VND 26308
VUV 118.026144
WST 2.704092
XAF 557.575577
XAG 0.012439
XAU 0.000212
XCD 2.70255
XCG 1.802048
XDR 0.695511
XOF 557.503593
XPF 101.625037
YER 238.625037
ZAR 16.380704
ZMK 9001.203584
ZMW 19.037864
ZWL 321.999592
  • AEX

    -1.9400

    1017.5

    -0.19%

  • BEL20

    -6.5600

    5463.32

    -0.12%

  • PX1

    -89.4000

    8112.57

    -1.09%

  • ISEQ

    -222.6400

    12721.67

    -1.72%

  • OSEBX

    -8.9100

    1970.28

    -0.45%

  • PSI20

    -66.6800

    9067.26

    -0.73%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -6.0000

    3992.65

    -0.15%

  • N150

    -9.6600

    4189.18

    -0.23%

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus
Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus / Photo: © GETTY IMAGES NORTH AMERICA/AFP

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

Le spécialiste de l'intelligence artificielle (IA) Gary Marcus a passé ces derniers mois à alerter ses pairs, les élus et le public au sujet des risques liés au développement et à l'adoption ultra-rapide des nouveaux outils d'IA. Mais le danger d'extinction de l'humanité est "exagéré", a-t-il déclaré à l'AFP lors d'un entretien à San Francisco.

Taille du texte:

"Personnellement, et pour l'instant, je ne suis pas très inquiet à ce sujet, parce que les scénarios ne sont pas très concrets", explique ce professeur émérite de l'université de New York, venu en Californie pour une conférence.

"Ce qui m'inquiète, c'est que nous construisons des systèmes d'IA que nous ne contrôlons pas bien", continue-t-il.

Gary Marcus a conçu son premier programme d'IA au lycée - un logiciel pour traduire le latin en anglais - et après des années d'études de la psychologie infantile, il a fondé Geometric Intelligence, une entreprise de "machine learning" (apprentissage automatisé des machines) ensuite rachetée par Uber.

En mars, il a co-signé la lettre de centaines d'experts demandant une pause de six mois dans le développement de systèmes d'IA ultra-puissants comme ceux de la start-up OpenAI, le temps de s'assurer que les programmes déjà existants soient "fiables, sûrs, transparents, loyaux (...) et alignés" avec les valeurs humaines.

Mais il n'a pas signé la déclaration succincte de chefs d'entreprise et spécialistes qui a fait du bruit cette semaine.

Sam Altman, le patron d'OpenAI, Geoffrey Hinton, un ancien ingénieur proéminent de Google, Demis Hassabis, le dirigeant de DeepMind (Google) et Kevin Scott, directeur technologique de Microsoft, notamment, y appellent à lutter contre "les risques d'extinction" de l'humanité "liés à l'IA".

- "Guerre accidentelle" -

Le succès sans précédent de ChatGPT, le robot conversationnel d'OpenAI capable de produire toutes sortes de textes sur simple requête en langage courant, a suscité une course à cette intelligence artificielle dite "générative" entre les géants des technologies, mais aussi de nombreuses mises en garde et appels à réguler ce domaine.

Y compris de la part de ceux qui construisent ces systèmes informatiques en vue de parvenir à une IA "générale", aux capacités cognitives similaires à celles des humains.

"Si vous pensez vraiment que cela représente un risque existentiel, pourquoi vous travaillez là-dessus ? C'est une question légitime", note Gary Marcus.

"L'extinction de l'espèce humaine... C'est assez compliqué, en réalité", pondère-t-il. "On peut imaginer toutes sortes de fléaux, mais des gens survivraient."

Il existe, en revanche, des scénarios réalistes où l'utilisation de l'IA "peut causer des dégâts massifs", souligne-t-il.

"Par exemple, des gens pourraient réussir à manipuler les marchés. Et peut-être qu'on accuserait les Russes d'être responsables, et qu'on les attaquerait alors qu'ils n'y seraient pour rien et on pourrait se retrouver dans une guerre accidentelle, potentiellement nucléaire", détaille-t-il.

- "Autoritarisme" -

A plus court terme, Gary Marcus se fait davantage du souci pour la démocratie.

Car les logiciels d'IA générative produisent de fausses photographies, et bientôt des vidéos, de plus en plus convaincantes, à peu de frais. Les élections risquent donc selon lui "d'être gagnées par les personnes les plus douées à répandre de la désinformation. Une fois élues elles pourront changer les lois (...) et imposer l'autoritarisme".

Surtout, "la démocratie repose sur l'accès aux informations nécessaires pour prendre les bonnes décisions. Si plus personne ne sait ce qui est vrai ou non, c'est fini".

L'auteur du livre "Rebooting AI" ("Redémarrer l'IA") ne pense pas néanmoins qu'il faille tout jeter dans cette technologie.

"Il y a une chance qu’on utilise un jour une IA que nous n’avons pas encore inventée, qui nous aidera à faire des progrès dans la science, dans la médecine, dans les soins des personnes âgées (...) Mais pour l'instant, nous ne sommes pas prêts. Nous avons besoin de régulation, et de rendre les programmes plus fiables".

Lors d'une audition devant une commission parlementaire américaine en mai, il a défendu la création d'une agence nationale ou internationale chargée de la gouvernance de l'intelligence artificielle.

Un projet que soutient aussi Sam Altman, qui revient d'une tournée européenne où il a exhorté les dirigeants politiques à trouver un "juste équilibre" entre protection et innovation.

Mais attention à ne pas laisser le pouvoir aux entreprises, avertit Gary Marcus: "Ces derniers mois nous ont rappelé à quel point ce sont elles qui prennent les décisions importantes, sans forcément tenir compte (...) des effets collatéraux".

K.Ibarra--TFWP