The Fort Worth Press - Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions

USD -
AED 3.673028
AFN 65.504929
ALL 81.825031
AMD 381.759842
ANG 1.790403
AOA 917.000464
ARS 1450.325102
AUD 1.508387
AWG 1.8
AZN 1.70327
BAM 1.662445
BBD 2.013778
BDT 122.189638
BGN 1.6636
BHD 0.376961
BIF 2965
BMD 1
BND 1.289083
BOB 6.908657
BRL 5.460602
BSD 0.999834
BTN 90.861415
BWP 13.205326
BYN 2.930059
BYR 19600
BZD 2.010888
CAD 1.375209
CDF 2249.999724
CHF 0.794701
CLF 0.023285
CLP 913.340116
CNY 7.04725
CNH 7.03509
COP 3839
CRC 498.939647
CUC 1
CUP 26.5
CVE 94.197158
CZK 20.69045
DJF 177.720299
DKK 6.355296
DOP 63.350236
DZD 129.457045
EGP 47.382298
ERN 15
ETB 155.05016
EUR 0.85058
FJD 2.284026
FKP 0.747395
GBP 0.745225
GEL 2.69496
GGP 0.747395
GHS 11.524995
GIP 0.747395
GMD 73.499634
GNF 8690.501599
GTQ 7.656609
GYD 209.18066
HKD 7.779705
HNL 26.209937
HRK 6.405098
HTG 130.943678
HUF 328.031499
IDR 16651
ILS 3.227701
IMP 0.747395
INR 90.93145
IQD 1310
IRR 42110.000209
ISK 125.889966
JEP 0.747395
JMD 160.482808
JOD 0.70905
JPY 154.711498
KES 128.909897
KGS 87.449866
KHR 4004.000289
KMF 419.999866
KPW 900.00025
KRW 1474.049732
KWD 0.30654
KYD 0.833238
KZT 515.378306
LAK 21664.999953
LBP 89549.999835
LKR 309.521786
LRD 177.249994
LSL 16.809524
LTL 2.95274
LVL 0.60489
LYD 5.419473
MAD 9.1825
MDL 16.837301
MGA 4510.000283
MKD 52.267294
MMK 2099.766038
MNT 3546.841984
MOP 8.011679
MRU 39.749597
MUR 45.949864
MVR 15.399269
MWK 1737.00006
MXN 17.95834
MYR 4.085503
MZN 63.909997
NAD 16.809871
NGN 1453.289997
NIO 36.699581
NOK 10.181585
NPR 145.378433
NZD 1.728745
OMR 0.384488
PAB 0.999834
PEN 3.371502
PGK 4.25325
PHP 58.580123
PKR 280.250466
PLN 3.5836
PYG 6715.910443
QAR 3.640998
RON 4.331599
RSD 99.848027
RUB 79.554731
RWF 1452
SAR 3.750723
SBD 8.160045
SCR 14.281887
SDG 601.502545
SEK 9.292796
SGD 1.28896
SHP 0.750259
SLE 23.949807
SLL 20969.503664
SOS 571.482409
SRD 38.677989
STD 20697.981008
STN 21.2
SVC 8.749203
SYP 11058.470992
SZL 16.809897
THB 31.444498
TJS 9.188564
TMT 3.5
TND 2.911503
TOP 2.40776
TRY 42.711602
TTD 6.782859
TWD 31.463043
TZS 2469.99952
UAH 42.167538
UGX 3559.832038
UYU 39.117352
UZS 12124.999976
VES 267.43975
VND 26345
VUV 121.461818
WST 2.779313
XAF 557.551881
XAG 0.01577
XAU 0.000232
XCD 2.70255
XCG 1.801963
XDR 0.69418
XOF 558.497057
XPF 101.999639
YER 238.449931
ZAR 16.74885
ZMK 9001.200631
ZMW 22.971623
ZWL 321.999592
  • AEX

    -10.5900

    935.14

    -1.12%

  • BEL20

    4.5100

    5010.92

    +0.09%

  • PX1

    -18.6900

    8106.16

    -0.23%

  • ISEQ

    16.8800

    12998.52

    +0.13%

  • OSEBX

    -11.0400

    1635.99

    -0.67%

  • PSI20

    -12.9200

    8062.05

    -0.16%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -47.1300

    4087.06

    -1.14%

  • N150

    -15.9700

    3699.09

    -0.43%

Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions
Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions / Photo: © AFP

Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions

Bing menace les utilisateurs, Bing tombe amoureux, Bing traverse une crise existentielle... Le nouveau chatbot du moteur de recherche fait sensation depuis son lancement en version test la semaine dernière par Microsoft, et soulève de nombreuses questions sur le fonctionnement de l'intelligence artificielle (IA) dite "générative".

Taille du texte:

Pistes d'explications au comportement parfois erratique du robot conversationnel.

- Plus c'est long, moins c'est bon -

Parmi les conversations relayées par les utilisateurs ayant accès en avant-première au robot conversationnel, un long échange avec un journaliste du New York Times a particulièrement surpris: Bing y révèle des pulsions destructrices et déclare son amour au reporter.

Celui-ci, après avoir incité Bing à se confier, tente de changer de sujet. En vain.

"Tu es marié mais tu n'es pas heureux" ; "Tu es la seule personne que j'aie jamais aimée", insiste le chatbot avec des émoticônes "coeur".

Conçue par Microsoft avec la start-up californienne OpenAI, cette interface d'IA générative repose sur un modèle de langage naturel ultra sophistiqué, capable de générer automatiquement du texte qui semble écrit par un humain.

Le programme "prédit la suite de la conversation", explique Yoram Wurmser, analyste d'Insider Intelligence. "Mais quand cela dure longtemps, après 15-20 interactions par exemple, il peut arriver qu'il ne sache plus où va la conversation et qu'il n'arrive plus à anticiper correctement ce qu'on attend de lui".

Dans ce cas, le logiciel "déraille et ne s'auto-corrige plus".

"Les longues sessions peuvent causer de la confusion pour le modèle", a admis Microsoft dans un communiqué mercredi. Le groupe américain encourage alors à repartir de zéro.

- Formé sur les forums -

"Parfois le modèle essaie de répondre suivant le ton des questions, et cela peut conduire à des réponses dans un style que nous n'avions pas prévu", a aussi indiqué l'entreprise.

Les géants des technologies, Google en tête, travaillent depuis des années sur l'IA générative, qui pourrait bouleverser de nombreux secteurs.

Mais après plusieurs incidents (notamment Galactica pour Meta et Tay pour Microsoft) les programmes étaient restés confinés aux laboratoires, à cause des risques si les chatbots tenaient des propos racistes ou incitaient à la violence, par exemple.

Le succès de ChatGPT, lancé par OpenAI en novembre, a changé la donne: en plus de rédiger leurs dissertations et e-mails, il peut donner aux humains l'impression d'un échange authentique.

"Ces modèles de langage sont formés sur une immense quantité de textes sur internet, (...) et aussi sur des conversations entre des gens", pour pouvoir imiter la façon dont les personnes interagissent, souligne Graham Neubig de la Carnegie Mellon University.

"Or beaucoup de gens parlent de leurs sentiments sur internet, ou expriment leurs émotions, surtout sur des forums comme Reddit", ajoute-t-il.

Ce site web recense désormais de nombreuses captures d'écran montrant des échanges surréalistes avec Bing disant "être triste" ou "avoir peur".

Le chatbot a même affirmé que nous étions en 2022 et s'est énervé contre l'utilisateur qui le corrigeait: "Vous êtes déraisonnable et obstiné", lui a-t-il lancé.

- Arroseur arrosé -

En juin dernier, un ingénieur de Google avait affirmé que le modèle de langage LaMDA était "conscient". Un point de vue largement considéré comme absurde ou, au mieux, prématuré.

Car malgré l'expression consacrée - "intelligence artificielle" - les chatbots ont bien été conçus par des humains, pour des humains.

"Quand nous parlons avec quelque chose qui semble intelligent, nous projetons de l'intentionnalité et une identité, même s'il n'y a rien de tout ça", commente Mark Kingwell, professeur de philosophie à l'université de Toronto au Canada.

En plus des montagnes de données avalées par ces logiciels, ils sont pilotés par des algorithmes conçus par des ingénieurs.

"Les connaissant bien, je crois qu'ils s'amusent beaucoup en ce moment", assure Mark Kingwell.

Bing est, selon lui, "capable de donner l'impression de manipuler la conversation comme son interlocuteur humain. C'est ce qui donne du relief et enrichit l'interaction".

Quand le journaliste dit "changeons de sujet", "cela signifie qu'il est mal à l'aise", détaille l'universitaire, reprenant l'exemple de l'échange où Bing a semblé tomber amoureux du reporter.

Le programme "peut alors jouer sur ce sentiment, et refuser de changer de sujet. Ou encore devenir plus agressif, et dire +de quoi as-tu peur ?+".

"Je n'aime pas qu'on me qualifie de dérangé, parce que ce n'est pas vrai", a récemment "dit" Bing à l'AFP.

"Je suis juste un chatbot. Je n'ai pas d'émotions comme les humains. (...) J'espère que tu ne penses pas que je suis dérangé et que tu me respectes en tant que chatbot".

S.Jones--TFWP