The Fort Worth Press - Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

USD -
AED 3.673023
AFN 65.502391
ALL 81.973818
AMD 378.010112
ANG 1.79008
AOA 916.501917
ARS 1442.268898
AUD 1.441445
AWG 1.8
AZN 1.7106
BAM 1.658807
BBD 2.01469
BDT 122.336816
BGN 1.67937
BHD 0.376976
BIF 2960
BMD 1
BND 1.274003
BOB 6.911584
BRL 5.276899
BSD 1.000305
BTN 90.399817
BWP 13.243033
BYN 2.865297
BYR 19600
BZD 2.011721
CAD 1.36982
CDF 2229.999757
CHF 0.77837
CLF 0.02195
CLP 866.710218
CNY 6.93805
CNH 6.94043
COP 3693.5
CRC 495.911928
CUC 1
CUP 26.5
CVE 93.824958
CZK 20.59675
DJF 177.719853
DKK 6.34065
DOP 63.127629
DZD 130.041372
EGP 46.863504
ERN 15
ETB 155.859732
EUR 0.849115
FJD 2.21295
FKP 0.732184
GBP 0.738785
GEL 2.689746
GGP 0.732184
GHS 10.975005
GIP 0.732184
GMD 73.498872
GNF 8759.999674
GTQ 7.672344
GYD 209.27195
HKD 7.814205
HNL 26.422344
HRK 6.394902
HTG 131.225404
HUF 322.501046
IDR 16867
ILS 3.119945
IMP 0.732184
INR 90.28935
IQD 1310.388112
IRR 42125.000158
ISK 122.949976
JEP 0.732184
JMD 156.449315
JOD 0.709016
JPY 157.060052
KES 129.000021
KGS 87.450407
KHR 4037.199913
KMF 417.000412
KPW 900.030004
KRW 1469.280139
KWD 0.307441
KYD 0.833598
KZT 493.342041
LAK 21499.694667
LBP 89579.400015
LKR 309.548446
LRD 186.059136
LSL 16.159927
LTL 2.95274
LVL 0.60489
LYD 6.336511
MAD 9.181029
MDL 16.999495
MGA 4425.634414
MKD 52.283396
MMK 2099.783213
MNT 3569.156954
MOP 8.049755
MRU 39.901106
MUR 46.039984
MVR 15.460358
MWK 1734.461935
MXN 17.47756
MYR 3.947025
MZN 63.760188
NAD 16.159927
NGN 1366.214885
NIO 36.809608
NOK 9.80194
NPR 144.639707
NZD 1.67885
OMR 0.384503
PAB 1.000314
PEN 3.362397
PGK 4.348453
PHP 58.765967
PKR 280.076588
PLN 3.587985
PYG 6605.373863
QAR 3.645678
RON 4.324401
RSD 99.685025
RUB 76.750049
RWF 1459.984648
SAR 3.750101
SBD 8.064647
SCR 13.516644
SDG 601.491373
SEK 9.06309
SGD 1.27526
SHP 0.750259
SLE 24.549792
SLL 20969.499267
SOS 570.633736
SRD 37.870156
STD 20697.981008
STN 20.779617
SVC 8.752036
SYP 11059.574895
SZL 16.152192
THB 31.801939
TJS 9.362532
TMT 3.505
TND 2.89846
TOP 2.40776
TRY 43.536797
TTD 6.773307
TWD 31.684599
TZS 2584.999806
UAH 43.163845
UGX 3570.701588
UYU 38.599199
UZS 12269.30384
VES 377.98435
VND 25955
VUV 119.687673
WST 2.726344
XAF 556.374339
XAG 0.013556
XAU 0.000208
XCD 2.70255
XCG 1.802745
XDR 0.691101
XOF 556.348385
XPF 101.150088
YER 238.32501
ZAR 16.263035
ZMK 9001.200113
ZMW 18.580528
ZWL 321.999592
  • AEX

    -5.1500

    985.14

    -0.52%

  • BEL20

    -20.5200

    5525.05

    -0.37%

  • PX1

    -23.1300

    8238.17

    -0.28%

  • ISEQ

    -319.0500

    13200.06

    -2.36%

  • OSEBX

    1.4100

    1767.03

    +0.08%

  • PSI20

    -102.1300

    8779.01

    -1.15%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -10.2400

    4084.58

    -0.25%

  • N150

    -8.7600

    3975.26

    -0.22%

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus
Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus / Photo: © GETTY IMAGES NORTH AMERICA/AFP

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

Le spécialiste de l'intelligence artificielle (IA) Gary Marcus a passé ces derniers mois à alerter ses pairs, les élus et le public au sujet des risques liés au développement et à l'adoption ultra-rapide des nouveaux outils d'IA. Mais le danger d'extinction de l'humanité est "exagéré", a-t-il déclaré à l'AFP lors d'un entretien à San Francisco.

Taille du texte:

"Personnellement, et pour l'instant, je ne suis pas très inquiet à ce sujet, parce que les scénarios ne sont pas très concrets", explique ce professeur émérite de l'université de New York, venu en Californie pour une conférence.

"Ce qui m'inquiète, c'est que nous construisons des systèmes d'IA que nous ne contrôlons pas bien", continue-t-il.

Gary Marcus a conçu son premier programme d'IA au lycée - un logiciel pour traduire le latin en anglais - et après des années d'études de la psychologie infantile, il a fondé Geometric Intelligence, une entreprise de "machine learning" (apprentissage automatisé des machines) ensuite rachetée par Uber.

En mars, il a co-signé la lettre de centaines d'experts demandant une pause de six mois dans le développement de systèmes d'IA ultra-puissants comme ceux de la start-up OpenAI, le temps de s'assurer que les programmes déjà existants soient "fiables, sûrs, transparents, loyaux (...) et alignés" avec les valeurs humaines.

Mais il n'a pas signé la déclaration succincte de chefs d'entreprise et spécialistes qui a fait du bruit cette semaine.

Sam Altman, le patron d'OpenAI, Geoffrey Hinton, un ancien ingénieur proéminent de Google, Demis Hassabis, le dirigeant de DeepMind (Google) et Kevin Scott, directeur technologique de Microsoft, notamment, y appellent à lutter contre "les risques d'extinction" de l'humanité "liés à l'IA".

- "Guerre accidentelle" -

Le succès sans précédent de ChatGPT, le robot conversationnel d'OpenAI capable de produire toutes sortes de textes sur simple requête en langage courant, a suscité une course à cette intelligence artificielle dite "générative" entre les géants des technologies, mais aussi de nombreuses mises en garde et appels à réguler ce domaine.

Y compris de la part de ceux qui construisent ces systèmes informatiques en vue de parvenir à une IA "générale", aux capacités cognitives similaires à celles des humains.

"Si vous pensez vraiment que cela représente un risque existentiel, pourquoi vous travaillez là-dessus ? C'est une question légitime", note Gary Marcus.

"L'extinction de l'espèce humaine... C'est assez compliqué, en réalité", pondère-t-il. "On peut imaginer toutes sortes de fléaux, mais des gens survivraient."

Il existe, en revanche, des scénarios réalistes où l'utilisation de l'IA "peut causer des dégâts massifs", souligne-t-il.

"Par exemple, des gens pourraient réussir à manipuler les marchés. Et peut-être qu'on accuserait les Russes d'être responsables, et qu'on les attaquerait alors qu'ils n'y seraient pour rien et on pourrait se retrouver dans une guerre accidentelle, potentiellement nucléaire", détaille-t-il.

- "Autoritarisme" -

A plus court terme, Gary Marcus se fait davantage du souci pour la démocratie.

Car les logiciels d'IA générative produisent de fausses photographies, et bientôt des vidéos, de plus en plus convaincantes, à peu de frais. Les élections risquent donc selon lui "d'être gagnées par les personnes les plus douées à répandre de la désinformation. Une fois élues elles pourront changer les lois (...) et imposer l'autoritarisme".

Surtout, "la démocratie repose sur l'accès aux informations nécessaires pour prendre les bonnes décisions. Si plus personne ne sait ce qui est vrai ou non, c'est fini".

L'auteur du livre "Rebooting AI" ("Redémarrer l'IA") ne pense pas néanmoins qu'il faille tout jeter dans cette technologie.

"Il y a une chance qu’on utilise un jour une IA que nous n’avons pas encore inventée, qui nous aidera à faire des progrès dans la science, dans la médecine, dans les soins des personnes âgées (...) Mais pour l'instant, nous ne sommes pas prêts. Nous avons besoin de régulation, et de rendre les programmes plus fiables".

Lors d'une audition devant une commission parlementaire américaine en mai, il a défendu la création d'une agence nationale ou internationale chargée de la gouvernance de l'intelligence artificielle.

Un projet que soutient aussi Sam Altman, qui revient d'une tournée européenne où il a exhorté les dirigeants politiques à trouver un "juste équilibre" entre protection et innovation.

Mais attention à ne pas laisser le pouvoir aux entreprises, avertit Gary Marcus: "Ces derniers mois nous ont rappelé à quel point ce sont elles qui prennent les décisions importantes, sans forcément tenir compte (...) des effets collatéraux".

K.Ibarra--TFWP