The Fort Worth Press - Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

USD -
AED 3.67315
AFN 62.501894
ALL 82.895377
AMD 377.43981
ANG 1.790083
AOA 917.000249
ARS 1397.043972
AUD 1.426269
AWG 1.8
AZN 1.701164
BAM 1.689807
BBD 2.011068
BDT 122.513867
BGN 1.709309
BHD 0.377544
BIF 2965
BMD 1
BND 1.277469
BOB 6.900038
BRL 5.264202
BSD 0.998523
BTN 93.323368
BWP 13.643963
BYN 2.973062
BYR 19600
BZD 2.008078
CAD 1.373215
CDF 2272.999771
CHF 0.787065
CLF 0.023082
CLP 911.430295
CNY 6.880496
CNH 6.887385
COP 3710.78
CRC 465.684898
CUC 1
CUP 26.5
CVE 95.249798
CZK 21.08545
DJF 177.719921
DKK 6.43939
DOP 59.874978
DZD 132.329874
EGP 52.333484
ERN 15
ETB 157.374943
EUR 0.86197
FJD 2.215403
FKP 0.749521
GBP 0.745075
GEL 2.714994
GGP 0.749521
GHS 10.90504
GIP 0.749521
GMD 73.000295
GNF 8780.000427
GTQ 7.648111
GYD 208.902867
HKD 7.83385
HNL 26.519871
HRK 6.492297
HTG 130.780562
HUF 333.9935
IDR 16887
ILS 3.11565
IMP 0.749521
INR 93.20435
IQD 1310
IRR 1315050.000338
ISK 123.759468
JEP 0.749521
JMD 157.274927
JOD 0.709002
JPY 158.436498
KES 129.499915
KGS 87.449895
KHR 4014.999734
KMF 424.99986
KPW 900.003974
KRW 1486.099262
KWD 0.306469
KYD 0.832131
KZT 481.288689
LAK 21549.999713
LBP 89550.00001
LKR 313.539993
LRD 183.597935
LSL 16.929749
LTL 2.95274
LVL 0.60489
LYD 6.395005
MAD 9.36197
MDL 17.464295
MGA 4164.999833
MKD 53.144761
MMK 2099.452431
MNT 3566.950214
MOP 8.056472
MRU 40.109805
MUR 46.790313
MVR 15.449851
MWK 1737.000048
MXN 17.785601
MYR 3.939498
MZN 63.909518
NAD 16.820349
NGN 1377.369623
NIO 36.720223
NOK 9.74727
NPR 149.304962
NZD 1.705335
OMR 0.384476
PAB 0.998475
PEN 3.472965
PGK 4.305501
PHP 59.433501
PKR 279.249835
PLN 3.669815
PYG 6524.941572
QAR 3.644019
RON 4.391298
RSD 101.219943
RUB 81.918638
RWF 1460
SAR 3.754283
SBD 8.051718
SCR 15.300947
SDG 600.999966
SEK 9.32207
SGD 1.27543
SHP 0.750259
SLE 24.549817
SLL 20969.510825
SOS 571.503487
SRD 37.336497
STD 20697.981008
STN 21.167495
SVC 8.736371
SYP 110.564047
SZL 16.84983
THB 32.320382
TJS 9.540369
TMT 3.5
TND 2.905027
TOP 2.40776
TRY 44.311498
TTD 6.778753
TWD 31.844023
TZS 2595.000352
UAH 43.841339
UGX 3769.542134
UYU 40.685845
UZS 12205.000114
VES 456.504355
VND 26341
VUV 119.226095
WST 2.727792
XAF 566.728441
XAG 0.014406
XAU 0.000226
XCD 2.70255
XCG 1.799457
XDR 0.706079
XOF 568.498074
XPF 103.402677
YER 238.650295
ZAR 16.7911
ZMK 9001.19753
ZMW 19.346115
ZWL 321.999592
  • AEX

    5.1000

    966.72

    +0.53%

  • BEL20

    23.1100

    4940.02

    +0.47%

  • PX1

    60.5600

    7726.2

    +0.79%

  • ISEQ

    207.9300

    12089.56

    +1.75%

  • OSEBX

    -17.7000

    1948.83

    -0.9%

  • PSI20

    21.8900

    8778.51

    +0.25%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -33.0800

    3601.94

    -0.91%

  • N150

    4.5100

    3759.94

    +0.12%

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus
Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus / Photo: © GETTY IMAGES NORTH AMERICA/AFP

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

Le spécialiste de l'intelligence artificielle (IA) Gary Marcus a passé ces derniers mois à alerter ses pairs, les élus et le public au sujet des risques liés au développement et à l'adoption ultra-rapide des nouveaux outils d'IA. Mais le danger d'extinction de l'humanité est "exagéré", a-t-il déclaré à l'AFP lors d'un entretien à San Francisco.

Taille du texte:

"Personnellement, et pour l'instant, je ne suis pas très inquiet à ce sujet, parce que les scénarios ne sont pas très concrets", explique ce professeur émérite de l'université de New York, venu en Californie pour une conférence.

"Ce qui m'inquiète, c'est que nous construisons des systèmes d'IA que nous ne contrôlons pas bien", continue-t-il.

Gary Marcus a conçu son premier programme d'IA au lycée - un logiciel pour traduire le latin en anglais - et après des années d'études de la psychologie infantile, il a fondé Geometric Intelligence, une entreprise de "machine learning" (apprentissage automatisé des machines) ensuite rachetée par Uber.

En mars, il a co-signé la lettre de centaines d'experts demandant une pause de six mois dans le développement de systèmes d'IA ultra-puissants comme ceux de la start-up OpenAI, le temps de s'assurer que les programmes déjà existants soient "fiables, sûrs, transparents, loyaux (...) et alignés" avec les valeurs humaines.

Mais il n'a pas signé la déclaration succincte de chefs d'entreprise et spécialistes qui a fait du bruit cette semaine.

Sam Altman, le patron d'OpenAI, Geoffrey Hinton, un ancien ingénieur proéminent de Google, Demis Hassabis, le dirigeant de DeepMind (Google) et Kevin Scott, directeur technologique de Microsoft, notamment, y appellent à lutter contre "les risques d'extinction" de l'humanité "liés à l'IA".

- "Guerre accidentelle" -

Le succès sans précédent de ChatGPT, le robot conversationnel d'OpenAI capable de produire toutes sortes de textes sur simple requête en langage courant, a suscité une course à cette intelligence artificielle dite "générative" entre les géants des technologies, mais aussi de nombreuses mises en garde et appels à réguler ce domaine.

Y compris de la part de ceux qui construisent ces systèmes informatiques en vue de parvenir à une IA "générale", aux capacités cognitives similaires à celles des humains.

"Si vous pensez vraiment que cela représente un risque existentiel, pourquoi vous travaillez là-dessus ? C'est une question légitime", note Gary Marcus.

"L'extinction de l'espèce humaine... C'est assez compliqué, en réalité", pondère-t-il. "On peut imaginer toutes sortes de fléaux, mais des gens survivraient."

Il existe, en revanche, des scénarios réalistes où l'utilisation de l'IA "peut causer des dégâts massifs", souligne-t-il.

"Par exemple, des gens pourraient réussir à manipuler les marchés. Et peut-être qu'on accuserait les Russes d'être responsables, et qu'on les attaquerait alors qu'ils n'y seraient pour rien et on pourrait se retrouver dans une guerre accidentelle, potentiellement nucléaire", détaille-t-il.

- "Autoritarisme" -

A plus court terme, Gary Marcus se fait davantage du souci pour la démocratie.

Car les logiciels d'IA générative produisent de fausses photographies, et bientôt des vidéos, de plus en plus convaincantes, à peu de frais. Les élections risquent donc selon lui "d'être gagnées par les personnes les plus douées à répandre de la désinformation. Une fois élues elles pourront changer les lois (...) et imposer l'autoritarisme".

Surtout, "la démocratie repose sur l'accès aux informations nécessaires pour prendre les bonnes décisions. Si plus personne ne sait ce qui est vrai ou non, c'est fini".

L'auteur du livre "Rebooting AI" ("Redémarrer l'IA") ne pense pas néanmoins qu'il faille tout jeter dans cette technologie.

"Il y a une chance qu’on utilise un jour une IA que nous n’avons pas encore inventée, qui nous aidera à faire des progrès dans la science, dans la médecine, dans les soins des personnes âgées (...) Mais pour l'instant, nous ne sommes pas prêts. Nous avons besoin de régulation, et de rendre les programmes plus fiables".

Lors d'une audition devant une commission parlementaire américaine en mai, il a défendu la création d'une agence nationale ou internationale chargée de la gouvernance de l'intelligence artificielle.

Un projet que soutient aussi Sam Altman, qui revient d'une tournée européenne où il a exhorté les dirigeants politiques à trouver un "juste équilibre" entre protection et innovation.

Mais attention à ne pas laisser le pouvoir aux entreprises, avertit Gary Marcus: "Ces derniers mois nous ont rappelé à quel point ce sont elles qui prennent les décisions importantes, sans forcément tenir compte (...) des effets collatéraux".

K.Ibarra--TFWP