The Fort Worth Press - L'algorithme de Facebook ne modifie pas les croyances politiques des usagers

USD -
AED 3.672499
AFN 63.000213
ALL 83.045552
AMD 377.608336
ANG 1.790083
AOA 916.99993
ARS 1391.475899
AUD 1.436555
AWG 1.8025
AZN 1.702097
BAM 1.692703
BBD 2.017085
BDT 122.889314
BGN 1.709309
BHD 0.377678
BIF 2964.437482
BMD 1
BND 1.280822
BOB 6.920277
BRL 5.343438
BSD 1.001532
BTN 93.628346
BWP 13.656801
BYN 3.038457
BYR 19600
BZD 2.014228
CAD 1.37385
CDF 2274.999924
CHF 0.791335
CLF 0.023505
CLP 928.093911
CNY 6.886396
CNH 6.91253
COP 3696.54
CRC 467.791212
CUC 1
CUP 26.5
CVE 95.432004
CZK 21.28799
DJF 178.340531
DKK 6.48348
DOP 59.449729
DZD 132.432632
EGP 52.233671
ERN 15
ETB 157.836062
EUR 0.86771
FJD 2.227199
FKP 0.749521
GBP 0.751565
GEL 2.714963
GGP 0.749521
GHS 10.917148
GIP 0.749521
GMD 73.497588
GNF 8778.549977
GTQ 7.671603
GYD 209.529662
HKD 7.828115
HNL 26.509205
HRK 6.533006
HTG 131.388314
HUF 342.017982
IDR 16993
ILS 3.139598
IMP 0.749521
INR 93.938501
IQD 1311.97909
IRR 1315625.000003
ISK 124.779797
JEP 0.749521
JMD 157.346743
JOD 0.708989
JPY 159.455972
KES 129.598158
KGS 87.4479
KHR 4001.973291
KMF 427.000057
KPW 900.003974
KRW 1512.965024
KWD 0.30679
KYD 0.834581
KZT 481.491739
LAK 21506.092917
LBP 89692.06536
LKR 312.41778
LRD 183.27376
LSL 16.894603
LTL 2.95274
LVL 0.60489
LYD 6.411466
MAD 9.358386
MDL 17.440975
MGA 4176.061001
MKD 53.425388
MMK 2099.452431
MNT 3566.950214
MOP 8.084003
MRU 40.089837
MUR 46.570151
MVR 15.46035
MWK 1736.722073
MXN 18.02175
MYR 3.939504
MZN 63.899678
NAD 16.894749
NGN 1362.960126
NIO 36.852081
NOK 9.669101
NPR 149.804404
NZD 1.726235
OMR 0.384479
PAB 1.001519
PEN 3.46252
PGK 4.323066
PHP 60.289868
PKR 279.628351
PLN 3.71807
PYG 6541.287659
QAR 3.662273
RON 4.422399
RSD 101.958019
RUB 82.166009
RWF 1457.231632
SAR 3.754935
SBD 8.05166
SCR 13.925407
SDG 600.999925
SEK 9.43335
SGD 1.28433
SHP 0.750259
SLE 24.574953
SLL 20969.510825
SOS 572.35094
SRD 37.487497
STD 20697.981008
STN 21.204227
SVC 8.762971
SYP 110.564047
SZL 16.900787
THB 32.947502
TJS 9.619362
TMT 3.51
TND 2.95786
TOP 2.40776
TRY 44.330501
TTD 6.794814
TWD 32.098502
TZS 2594.999914
UAH 43.875212
UGX 3785.603628
UYU 40.356396
UZS 12210.172836
VES 454.69063
VND 26341
VUV 119.226095
WST 2.727792
XAF 567.726608
XAG 0.015629
XAU 0.000235
XCD 2.70255
XCG 1.80494
XDR 0.706079
XOF 567.716781
XPF 103.216984
YER 238.601849
ZAR 17.185098
ZMK 9001.201832
ZMW 19.554625
ZWL 321.999592
  • AEX

    8.3700

    969.96

    +0.87%

  • BEL20

    28.5200

    4945.31

    +0.58%

  • PX1

    105.0200

    7770.98

    +1.37%

  • ISEQ

    194.8600

    12076.48

    +1.64%

  • OSEBX

    -32.2500

    1934.27

    -1.64%

  • PSI20

    4.3800

    8760.44

    +0.05%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -27.8400

    3634.93

    -0.76%

  • N150

    6.0100

    3761.62

    +0.16%

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers
L'algorithme de Facebook ne modifie pas les croyances politiques des usagers / Photo: © AFP/Archives

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers

Les bulles d'informations dans lesquelles nous maintiennent les algorithmes des réseaux sociaux renforcent-elles la polarisation politique, ou reflètent-elles simplement des divisions déjà existantes?

Taille du texte:

Un important projet de recherche conduit au moment de l'élection américaine de 2020 a conclu que, contrairement à ce qui est souvent avancé, l'algorithme de Facebook ne modelait pas les croyances politiques de ses utilisateurs.

Cette série d'études est le résultat d'une collaboration entre Meta -- la maison-mère de Facebook et Instagram -- et un groupe de chercheurs d'universités américaines. Ces derniers ont eu accès aux données internes de l'entreprise et ont eu la possibilité de réaliser des tests en changeant l'expérience en ligne des utilisateurs.

Au total, quatre études ont été publiées dans les journaux scientifiques Science et Nature.

L'algorithme "influence de façon très importante l'expérience des gens sur la plateforme", c'est-à-dire ce qu'ils y voient et leur temps d'utilisation, ont déclaré les responsables du projet, Talia Stroud de l'université du Texas à Austin, et Joshua Tucker, de l'université de New York.

Mais "changer l'algorithme, même pour quelques mois, a peu de chance de modifier les croyances politiques des gens", ont-ils ajouté. Ces croyances ont été mesurées via des questionnaires, remplis par les utilisateurs après avoir participé aux expériences, lesquelles ont modifié les contenus affichés sur leur page d'accueil.

Les chercheurs ont reconnu que la période de trois mois observée n'était peut-être pas suffisante pour détecter un effet, sachant que la polarisation politique aux Etats-Unis se renforce depuis plusieurs décennies.

Malgré tout, "ces résultats défient le discours habituel, qui rend les bulles d'informations des réseaux sociaux responsables des problèmes contemporains de la démocratie américaine", ont écrit les auteurs d'une des études.

- Pas de "baguette magique" -

L'algorithme de Facebook, qui utilise l'apprentissage automatique pour mettre en avant tel ou tel contenu en fonction des intérêts des utilisateurs, a été accusé de renforcer leur isolement dans une bulle idéologique, ainsi que la désinformation.

Pour la première étude, environ 40.000 volontaires ont été recrutés via des invitations sur leur page Facebook et Instagram. Un groupe a conservé l'algorithme tel quel, et l'autre est passé à un affichage des publications par ordre chronologique (les plus récentes en haut).

Cet ordre chronologique était utilisé par Facebook à ses débuts, et certains observateurs estiment que repasser à cette méthode pourrait réduire l'impact néfaste des réseaux sociaux.

L'étude a montré que le groupe passé au fil chronologique passait moitié moins de temps sur Facebook et Instagram que le groupe ayant conservé l'algorithme intact.

Avec l'ordre chronologique, les utilisateurs voyaient également davantage de contenus d'amis aux opinions plus modérées, ou de groupes et de pages ayant une audience aux opinions diverses.

Mais cet ordre chronologique a également eu pour effet d'augmenter la quantité de contenus politiques et non fiables visionnés.

Malgré tous ces changements, les chercheurs n'ont pas observé de modifications des croyances politiques chez ces utilisateurs.

"Cela suggère que le fil chronologique n'est pas une baguette magique contre le problème de la polarisation politique", a conclu la co-autrice Jennifer Pan, de l'université Stanford.

- Meta salue les résultats -

Une deuxième étude a analysé l'impact des contenus repartagés, qui constituent plus d'un quart de ce que voient les utilisateurs de Facebook.

Supprimer ces partages de publications par des amis pourrait être un moyen de contrôler les contenus viraux, selon certains. C'est donc ce qui a été expérimenté pour un groupe d'utilisateurs.

En conséquence, ceux-ci ont vu la proportion de contenus politiques baisser sur leur page d'accueil, mais encore une fois, cela n'a pas eu d'impact sur leurs croyances politiques.

Une troisième étude a elle analysé l'effet des contenus issus de pages, groupes, ou utilisateurs ayant des opinions similaires, qui constituent la majorité de ce que les utilisateurs adultes américains voient sur Facebook.

Dans une expérience impliquant plus de 23.000 usagers, supprimer ce type de contenu n'a de nouveau pas eu d'impact sur l'extrémisme idéologique ou la croyance dans des affirmations erronées.

Toutefois, une quatrième étude a confirmé un effet de "ségrégation idéologique" sur Facebook. Les utilisateurs conservateurs avaient davantage tendance à être enfermés dans une bulle idéologique que les personnes de gauche, ont relevé les chercheurs.

De plus, 97% des publications qualifiées de fausses par un programme de vérification d'informations -- dont l'AFP fait partie -- étaient davantage vues par des conservateurs que des progressistes.

Dans un communiqué, Meta a salué ces résultats.

Ils "s'ajoutent aux éléments de recherches qui s'accumulent montrant qu'il n'y a pas de preuve que les réseaux sociaux sont la cause d'une polarisation dommageable, ou ont des conséquences importantes sur des comportements ou croyances politiques", a déclaré Nick Clegg, le responsable des affaires internationales de Meta.

L.Rodriguez--TFWP