The Fort Worth Press - L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)

USD -
AED 3.6725
AFN 65.510149
ALL 82.012423
AMD 377.773158
ANG 1.79008
AOA 916.999992
ARS 1442.27598
AUD 1.441005
AWG 1.8
AZN 1.698893
BAM 1.659595
BBD 2.015639
BDT 122.394949
BGN 1.67937
BHD 0.377008
BIF 2965.596535
BMD 1
BND 1.27457
BOB 6.91481
BRL 5.271098
BSD 1.000776
BTN 90.44239
BWP 13.24927
BYN 2.866659
BYR 19600
BZD 2.012669
CAD 1.36981
CDF 2229.999778
CHF 0.77703
CLF 0.021932
CLP 865.999877
CNY 6.93805
CNH 6.93905
COP 3698
CRC 496.14758
CUC 1
CUP 26.5
CVE 93.565043
CZK 20.585699
DJF 178.211857
DKK 6.33416
DOP 63.157627
DZD 129.904445
EGP 46.857397
ERN 15
ETB 155.932472
EUR 0.84825
FJD 2.21245
FKP 0.732184
GBP 0.73817
GEL 2.695007
GGP 0.732184
GHS 10.987836
GIP 0.732184
GMD 72.999886
GNF 8783.310776
GTQ 7.675957
GYD 209.370505
HKD 7.811475
HNL 26.434899
HRK 6.391397
HTG 131.283861
HUF 322.674025
IDR 16889.3
ILS 3.119945
IMP 0.732184
INR 90.260601
IQD 1311.010794
IRR 42125.000158
ISK 122.830248
JEP 0.732184
JMD 156.523658
JOD 0.709027
JPY 156.707504
KES 129.103496
KGS 87.450276
KHR 4038.98126
KMF 418.999634
KPW 900.030004
KRW 1467.888904
KWD 0.30738
KYD 0.833956
KZT 493.576471
LAK 21509.911072
LBP 89638.030929
LKR 309.69554
LRD 186.137286
LSL 16.167606
LTL 2.95274
LVL 0.60489
LYD 6.339495
MAD 9.185352
MDL 17.007501
MGA 4427.737424
MKD 52.281345
MMK 2099.783213
MNT 3569.156954
MOP 8.05317
MRU 39.920067
MUR 46.039811
MVR 15.450073
MWK 1735.286131
MXN 17.46585
MYR 3.954501
MZN 63.749662
NAD 16.167606
NGN 1367.609773
NIO 36.826006
NOK 9.79659
NPR 144.708438
NZD 1.677297
OMR 0.384499
PAB 1.000776
PEN 3.36398
PGK 4.350519
PHP 58.544495
PKR 280.209677
PLN 3.584725
PYG 6608.484622
QAR 3.647395
RON 4.321018
RSD 99.569011
RUB 76.750966
RWF 1460.610278
SAR 3.750069
SBD 8.058149
SCR 14.112804
SDG 601.481055
SEK 9.050735
SGD 1.273865
SHP 0.750259
SLE 24.450496
SLL 20969.499267
SOS 570.904894
SRD 37.870036
STD 20697.981008
STN 20.789492
SVC 8.756194
SYP 11059.574895
SZL 16.159799
THB 31.6935
TJS 9.366941
TMT 3.505
TND 2.899825
TOP 2.40776
TRY 43.6153
TTD 6.776526
TWD 31.643973
TZS 2585.000597
UAH 43.184356
UGX 3572.383187
UYU 38.617377
UZS 12275.134071
VES 377.985125
VND 25959
VUV 119.687673
WST 2.726344
XAF 556.612755
XAG 0.013831
XAU 0.000207
XCD 2.70255
XCG 1.803594
XDR 0.692248
XOF 556.610394
XPF 101.198154
YER 238.405018
ZAR 16.251495
ZMK 9001.20654
ZMW 18.589121
ZWL 321.999592
  • AEX

    -5.1500

    985.14

    -0.52%

  • BEL20

    -20.5200

    5525.05

    -0.37%

  • PX1

    -23.1300

    8238.17

    -0.28%

  • ISEQ

    -319.0500

    13200.06

    -2.36%

  • OSEBX

    1.4100

    1767.03

    +0.08%

  • PSI20

    -102.1300

    8779.01

    -1.15%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -10.2400

    4084.58

    -0.25%

  • N150

    -8.7600

    3975.26

    -0.22%

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)
L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études) / Photo: © AFP/Archives

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)

Les bulles d'informations dans lesquelles nous maintiennent les algorithmes des réseaux sociaux renforcent-elles la polarisation politique, ou reflètent-elles simplement des divisions déjà existantes?

Taille du texte:

Un important projet de recherche conduit au moment de l'élection américaine de 2020 a conclu que, contrairement à ce qui est souvent avancé, l'algorithme de Facebook ne modelait pas les croyances politiques de ses utilisateurs.

Cette série d'études est le résultat d'une collaboration entre Meta -- la maison-mère de Facebook et Instagram -- et un groupe de chercheurs d'universités américaines. Ces derniers ont eu accès aux données internes de l'entreprise et ont eu la possibilité de réaliser des tests en changeant l'expérience en ligne des utilisateurs.

Au total, quatre études ont été publiées dans les journaux scientifiques Science et Nature.

L'algorithme "influence de façon très importante l'expérience des gens sur la plateforme", c'est-à-dire ce qu'ils y voient et leur temps d'utilisation, ont déclaré les responsables du projet, Talia Stroud de l'université du Texas à Austin, et Joshua Tucker, de l'université de New York.

Mais "changer l'algorithme, même pour quelques mois, a peu de chance de modifier les croyances politiques des gens", ont-ils ajouté. Ces croyances ont été mesurées via des questionnaires, remplis par les utilisateurs après avoir participé aux expériences, lesquelles ont modifié les contenus affichés sur leur page d'accueil.

Les chercheurs ont reconnu que la période de trois mois observée n'était peut-être pas suffisante pour détecter un effet, sachant que la polarisation politique aux Etats-Unis se renforce depuis plusieurs décennies.

Malgré tout, "ces résultats défient le discours habituel, qui rend les bulles d'informations des réseaux sociaux responsables des problèmes contemporains de la démocratie américaine", ont écrit les auteurs d'une des études.

- Pas de "baguette magique" -

L'algorithme de Facebook, qui utilise l'apprentissage automatique pour mettre en avant tel ou tel contenu en fonction des intérêts des utilisateurs, a été accusé de renforcer leur isolement dans une bulle idéologique, ainsi que la désinformation.

Pour la première étude, environ 40.000 volontaires ont été recrutés via des invitations sur leur page Facebook et Instagram. Un groupe a conservé l'algorithme tel quel, et l'autre est passé à un affichage des publications par ordre chronologique (les plus récentes en haut).

Cet ordre chronologique était utilisé par Facebook à ses débuts, et certains observateurs estiment que repasser à cette méthode pourrait réduire l'impact néfaste des réseaux sociaux.

L'étude a montré que le groupe passé au fil chronologique passait moitié moins de temps sur Facebook et Instagram que le groupe ayant conservé l'algorithme intact.

Avec l'ordre chronologique, les utilisateurs voyaient également davantage de contenus d'amis aux opinions plus modérées, ou de groupes et de pages ayant une audience aux opinions diverses.

Mais cet ordre chronologique a également eu pour effet d'augmenter la quantité de contenus politiques et non fiables visionnés.

Malgré tous ces changements, les chercheurs n'ont pas observé de modifications des croyances politiques chez ces utilisateurs.

"Cela suggère que le fil chronologique n'est pas une baguette magique contre le problème de la polarisation politique", a conclu la co-autrice Jennifer Pan, de l'université Stanford.

- Meta salue les résultats -

Une deuxième étude a analysé l'impact des contenus repartagés, qui constituent plus d'un quart de ce que voient les utilisateurs de Facebook.

Supprimer ces partages de publications par des amis pourrait être un moyen de contrôler les contenus viraux, selon certains. C'est donc ce qui a été expérimenté pour un groupe d'utilisateurs.

En conséquence, ceux-ci ont vu la proportion de contenus politiques baisser sur leur page d'accueil, mais encore une fois, cela n'a pas eu d'impact sur leurs croyances politiques.

Une troisième étude a elle analysé l'effet des contenus issus de pages, groupes, ou utilisateurs ayant des opinions similaires, qui constituent la majorité de ce que les utilisateurs adultes américains voient sur Facebook.

Dans une expérience impliquant plus de 23.000 usagers, supprimer ce type de contenu n'a de nouveau pas eu d'impact sur l'extrémisme idéologique ou la croyance dans des affirmations erronées.

Toutefois, une quatrième étude a confirmé un effet de "ségrégation idéologique" sur Facebook. Les utilisateurs conservateurs avaient davantage tendance à être enfermés dans une bulle idéologique que les personnes de gauche, ont relevé les chercheurs.

De plus, 97% des publications qualifiées de fausses par un programme de vérification d'informations -- dont l'AFP fait partie -- étaient davantage vues par des conservateurs que des progressistes.

Dans un communiqué, Meta a salué ces résultats.

Ils "s'ajoutent aux éléments de recherches qui s'accumulent montrant qu'il n'y a pas de preuve que les réseaux sociaux sont la cause d'une polarisation dommageable, ou ont des conséquences importantes sur des comportements ou croyances politiques", a déclaré Nick Clegg, le responsable des affaires internationales de Meta.

J.M.Ellis--TFWP