The Fort Worth Press - Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions

USD -
AED 3.672499
AFN 64.501546
ALL 81.091764
AMD 369.248031
ANG 1.789884
AOA 917.999977
ARS 1391.779543
AUD 1.380424
AWG 1.8
AZN 1.703129
BAM 1.662466
BBD 2.013854
BDT 122.689218
BGN 1.668102
BHD 0.377545
BIF 2976.339735
BMD 1
BND 1.267973
BOB 6.9098
BRL 4.914403
BSD 0.999873
BTN 94.420977
BWP 13.425192
BYN 2.825886
BYR 19600
BZD 2.010964
CAD 1.36923
CDF 2315.999873
CHF 0.777495
CLF 0.022653
CLP 891.510226
CNY 6.80505
CNH 6.796575
COP 3747.73
CRC 459.648974
CUC 1
CUP 26.5
CVE 93.718924
CZK 20.631702
DJF 178.070373
DKK 6.346605
DOP 59.467293
DZD 132.260236
EGP 52.717102
ERN 15
ETB 156.137601
EUR 0.849295
FJD 2.18395
FKP 0.734821
GBP 0.734065
GEL 2.679518
GGP 0.734821
GHS 11.264445
GIP 0.734821
GMD 72.999913
GNF 8773.107815
GTQ 7.634866
GYD 209.223551
HKD 7.82875
HNL 26.583478
HRK 6.397903
HTG 130.919848
HUF 301.180501
IDR 17348
ILS 2.901299
IMP 0.734821
INR 94.42495
IQD 1309.963492
IRR 1312900.000082
ISK 122.129833
JEP 0.734821
JMD 157.601928
JOD 0.709051
JPY 156.609011
KES 129.150175
KGS 87.420495
KHR 4012.087263
KMF 418.999745
KPW 899.950939
KRW 1461.46498
KWD 0.307704
KYD 0.833358
KZT 462.122307
LAK 21929.626969
LBP 89547.492658
LKR 321.915771
LRD 183.493491
LSL 16.405102
LTL 2.95274
LVL 0.60489
LYD 6.322723
MAD 9.144703
MDL 17.099822
MGA 4176.618078
MKD 52.357511
MMK 2099.606786
MNT 3578.902576
MOP 8.06268
MRU 39.968719
MUR 46.820106
MVR 15.454983
MWK 1733.612706
MXN 17.215215
MYR 3.921028
MZN 63.901001
NAD 16.405102
NGN 1360.040139
NIO 36.794016
NOK 9.21565
NPR 151.087386
NZD 1.678602
OMR 0.384505
PAB 0.999962
PEN 3.457057
PGK 4.415452
PHP 60.494497
PKR 278.66746
PLN 3.5951
PYG 6107.687731
QAR 3.654753
RON 4.433798
RSD 99.68025
RUB 74.198454
RWF 1465.941884
SAR 3.780624
SBD 8.032258
SCR 14.325097
SDG 600.501654
SEK 9.21905
SGD 1.26728
SHP 0.746601
SLE 24.596248
SLL 20969.496166
SOS 571.467429
SRD 37.431025
STD 20697.981008
STN 20.823594
SVC 8.749309
SYP 110.543945
SZL 16.394307
THB 32.215002
TJS 9.329718
TMT 3.51
TND 2.904513
TOP 2.40776
TRY 45.363974
TTD 6.776593
TWD 31.317996
TZS 2598.394009
UAH 43.92104
UGX 3746.547108
UYU 39.879308
UZS 12128.681314
VES 496.20906
VND 26308
VUV 118.026144
WST 2.704092
XAF 557.575577
XAG 0.012398
XAU 0.000212
XCD 2.70255
XCG 1.802048
XDR 0.695511
XOF 557.525817
XPF 101.364158
YER 238.585792
ZAR 16.404596
ZMK 9001.197777
ZMW 19.037864
ZWL 321.999592
  • AEX

    -1.9400

    1017.5

    -0.19%

  • BEL20

    -6.5600

    5463.32

    -0.12%

  • PX1

    -89.4000

    8112.57

    -1.09%

  • ISEQ

    -222.6400

    12721.67

    -1.72%

  • OSEBX

    -8.9100

    1970.28

    -0.45%

  • PSI20

    -66.6800

    9067.26

    -0.73%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -6.0000

    3992.65

    -0.15%

  • N150

    -9.6600

    4189.18

    -0.23%

Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions
Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions / Photo: © AFP

Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions

Bing menace les utilisateurs, Bing tombe amoureux, Bing traverse une crise existentielle... Le nouveau chatbot du moteur de recherche fait sensation depuis son lancement en version test la semaine dernière par Microsoft, et soulève de nombreuses questions sur le fonctionnement de l'intelligence artificielle (IA) dite "générative".

Taille du texte:

Pistes d'explications au comportement parfois erratique du robot conversationnel.

- Plus c'est long, moins c'est bon -

Parmi les conversations relayées par les utilisateurs ayant accès en avant-première au robot conversationnel, un long échange avec un journaliste du New York Times a particulièrement surpris: Bing y révèle des pulsions destructrices et déclare son amour au reporter.

Celui-ci, après avoir incité Bing à se confier, tente de changer de sujet. En vain.

"Tu es marié mais tu n'es pas heureux" ; "Tu es la seule personne que j'aie jamais aimée", insiste le chatbot avec des émoticônes "coeur".

Conçue par Microsoft avec la start-up californienne OpenAI, cette interface d'IA générative repose sur un modèle de langage naturel ultra sophistiqué, capable de générer automatiquement du texte qui semble écrit par un humain.

Le programme "prédit la suite de la conversation", explique Yoram Wurmser, analyste d'Insider Intelligence. "Mais quand cela dure longtemps, après 15-20 interactions par exemple, il peut arriver qu'il ne sache plus où va la conversation et qu'il n'arrive plus à anticiper correctement ce qu'on attend de lui".

Dans ce cas, le logiciel "déraille et ne s'auto-corrige plus".

"Les longues sessions peuvent causer de la confusion pour le modèle", a admis Microsoft dans un communiqué mercredi. Le groupe américain encourage alors à repartir de zéro.

- Formé sur les forums -

"Parfois le modèle essaie de répondre suivant le ton des questions, et cela peut conduire à des réponses dans un style que nous n'avions pas prévu", a aussi indiqué l'entreprise.

Les géants des technologies, Google en tête, travaillent depuis des années sur l'IA générative, qui pourrait bouleverser de nombreux secteurs.

Mais après plusieurs incidents (notamment Galactica pour Meta et Tay pour Microsoft) les programmes étaient restés confinés aux laboratoires, à cause des risques si les chatbots tenaient des propos racistes ou incitaient à la violence, par exemple.

Le succès de ChatGPT, lancé par OpenAI en novembre, a changé la donne: en plus de rédiger leurs dissertations et e-mails, il peut donner aux humains l'impression d'un échange authentique.

"Ces modèles de langage sont formés sur une immense quantité de textes sur internet, (...) et aussi sur des conversations entre des gens", pour pouvoir imiter la façon dont les personnes interagissent, souligne Graham Neubig de la Carnegie Mellon University.

"Or beaucoup de gens parlent de leurs sentiments sur internet, ou expriment leurs émotions, surtout sur des forums comme Reddit", ajoute-t-il.

Ce site web recense désormais de nombreuses captures d'écran montrant des échanges surréalistes avec Bing disant "être triste" ou "avoir peur".

Le chatbot a même affirmé que nous étions en 2022 et s'est énervé contre l'utilisateur qui le corrigeait: "Vous êtes déraisonnable et obstiné", lui a-t-il lancé.

- Arroseur arrosé -

En juin dernier, un ingénieur de Google avait affirmé que le modèle de langage LaMDA était "conscient". Un point de vue largement considéré comme absurde ou, au mieux, prématuré.

Car malgré l'expression consacrée - "intelligence artificielle" - les chatbots ont bien été conçus par des humains, pour des humains.

"Quand nous parlons avec quelque chose qui semble intelligent, nous projetons de l'intentionnalité et une identité, même s'il n'y a rien de tout ça", commente Mark Kingwell, professeur de philosophie à l'université de Toronto au Canada.

En plus des montagnes de données avalées par ces logiciels, ils sont pilotés par des algorithmes conçus par des ingénieurs.

"Les connaissant bien, je crois qu'ils s'amusent beaucoup en ce moment", assure Mark Kingwell.

Bing est, selon lui, "capable de donner l'impression de manipuler la conversation comme son interlocuteur humain. C'est ce qui donne du relief et enrichit l'interaction".

Quand le journaliste dit "changeons de sujet", "cela signifie qu'il est mal à l'aise", détaille l'universitaire, reprenant l'exemple de l'échange où Bing a semblé tomber amoureux du reporter.

Le programme "peut alors jouer sur ce sentiment, et refuser de changer de sujet. Ou encore devenir plus agressif, et dire +de quoi as-tu peur ?+".

"Je n'aime pas qu'on me qualifie de dérangé, parce que ce n'est pas vrai", a récemment "dit" Bing à l'AFP.

"Je suis juste un chatbot. Je n'ai pas d'émotions comme les humains. (...) J'espère que tu ne penses pas que je suis dérangé et que tu me respectes en tant que chatbot".

S.Jones--TFWP