The Fort Worth Press - L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)

USD -
AED 3.672503
AFN 62.501001
ALL 82.894362
AMD 377.440302
ANG 1.790083
AOA 917.00052
ARS 1397.044025
AUD 1.429215
AWG 1.8
AZN 1.692445
BAM 1.689807
BBD 2.011068
BDT 122.513867
BGN 1.709309
BHD 0.377467
BIF 2965
BMD 1
BND 1.277469
BOB 6.900038
BRL 5.235901
BSD 0.998523
BTN 93.323368
BWP 13.643963
BYN 2.973062
BYR 19600
BZD 2.008078
CAD 1.373545
CDF 2273.000133
CHF 0.787095
CLF 0.023076
CLP 911.180127
CNY 6.880502
CNH 6.887745
COP 3711.32
CRC 465.684898
CUC 1
CUP 26.5
CVE 95.250172
CZK 21.071007
DJF 177.719702
DKK 6.440602
DOP 59.875015
DZD 132.584589
EGP 52.340596
ERN 15
ETB 157.374954
EUR 0.86198
FJD 2.216402
FKP 0.749521
GBP 0.745135
GEL 2.714989
GGP 0.749521
GHS 10.905021
GIP 0.749521
GMD 72.999773
GNF 8779.999527
GTQ 7.648111
GYD 208.902867
HKD 7.83455
HNL 26.5202
HRK 6.494703
HTG 130.780562
HUF 334.426994
IDR 16869
ILS 3.11565
IMP 0.749521
INR 93.32665
IQD 1310
IRR 1315050.00006
ISK 123.779935
JEP 0.749521
JMD 157.274927
JOD 0.709027
JPY 158.5555
KES 129.502932
KGS 87.450267
KHR 4015.000133
KMF 424.999439
KPW 900.003974
KRW 1494.150262
KWD 0.30643
KYD 0.832131
KZT 481.288689
LAK 21550.000465
LBP 89550.000127
LKR 313.539993
LRD 183.596182
LSL 16.930263
LTL 2.95274
LVL 0.60489
LYD 6.394992
MAD 9.362015
MDL 17.464295
MGA 4165.00029
MKD 53.093953
MMK 2099.452431
MNT 3566.950214
MOP 8.056472
MRU 40.109616
MUR 46.569728
MVR 15.449812
MWK 1737.000149
MXN 17.806885
MYR 3.925001
MZN 63.909802
NAD 16.819595
NGN 1380.149729
NIO 36.719869
NOK 9.743205
NPR 149.304962
NZD 1.71015
OMR 0.384521
PAB 0.998475
PEN 3.472991
PGK 4.305498
PHP 59.685015
PKR 279.249653
PLN 3.672435
PYG 6524.941572
QAR 3.64401
RON 4.391901
RSD 101.273016
RUB 81.931677
RWF 1460
SAR 3.754344
SBD 8.051718
SCR 14.520415
SDG 601.000173
SEK 9.33575
SGD 1.275895
SHP 0.750259
SLE 24.549781
SLL 20969.510825
SOS 571.496482
SRD 37.336502
STD 20697.981008
STN 21.167495
SVC 8.736371
SYP 110.564047
SZL 16.849933
THB 32.469797
TJS 9.540369
TMT 3.5
TND 2.904983
TOP 2.40776
TRY 44.343698
TTD 6.778753
TWD 31.876796
TZS 2595.000039
UAH 43.841339
UGX 3769.542134
UYU 40.685845
UZS 12204.999854
VES 456.504355
VND 26341
VUV 119.226095
WST 2.727792
XAF 566.728441
XAG 0.014437
XAU 0.000226
XCD 2.70255
XCG 1.799457
XDR 0.706079
XOF 568.501353
XPF 103.393234
YER 238.650041
ZAR 16.87083
ZMK 9001.197429
ZMW 19.346115
ZWL 321.999592
  • AEX

    5.1000

    966.72

    +0.53%

  • BEL20

    23.1100

    4940.02

    +0.47%

  • PX1

    60.5600

    7726.2

    +0.79%

  • ISEQ

    207.9300

    12089.56

    +1.75%

  • OSEBX

    -17.7000

    1948.83

    -0.9%

  • PSI20

    21.8900

    8778.51

    +0.25%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -33.0800

    3601.94

    -0.91%

  • N150

    4.5100

    3759.94

    +0.12%

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)
L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études) / Photo: © AFP/Archives

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)

Les bulles d'informations dans lesquelles nous maintiennent les algorithmes des réseaux sociaux renforcent-elles la polarisation politique, ou reflètent-elles simplement des divisions déjà existantes?

Taille du texte:

Un important projet de recherche conduit au moment de l'élection américaine de 2020 a conclu que, contrairement à ce qui est souvent avancé, l'algorithme de Facebook ne modelait pas les croyances politiques de ses utilisateurs.

Cette série d'études est le résultat d'une collaboration entre Meta -- la maison-mère de Facebook et Instagram -- et un groupe de chercheurs d'universités américaines. Ces derniers ont eu accès aux données internes de l'entreprise et ont eu la possibilité de réaliser des tests en changeant l'expérience en ligne des utilisateurs.

Au total, quatre études ont été publiées dans les journaux scientifiques Science et Nature.

L'algorithme "influence de façon très importante l'expérience des gens sur la plateforme", c'est-à-dire ce qu'ils y voient et leur temps d'utilisation, ont déclaré les responsables du projet, Talia Stroud de l'université du Texas à Austin, et Joshua Tucker, de l'université de New York.

Mais "changer l'algorithme, même pour quelques mois, a peu de chance de modifier les croyances politiques des gens", ont-ils ajouté. Ces croyances ont été mesurées via des questionnaires, remplis par les utilisateurs après avoir participé aux expériences, lesquelles ont modifié les contenus affichés sur leur page d'accueil.

Les chercheurs ont reconnu que la période de trois mois observée n'était peut-être pas suffisante pour détecter un effet, sachant que la polarisation politique aux Etats-Unis se renforce depuis plusieurs décennies.

Malgré tout, "ces résultats défient le discours habituel, qui rend les bulles d'informations des réseaux sociaux responsables des problèmes contemporains de la démocratie américaine", ont écrit les auteurs d'une des études.

- Pas de "baguette magique" -

L'algorithme de Facebook, qui utilise l'apprentissage automatique pour mettre en avant tel ou tel contenu en fonction des intérêts des utilisateurs, a été accusé de renforcer leur isolement dans une bulle idéologique, ainsi que la désinformation.

Pour la première étude, environ 40.000 volontaires ont été recrutés via des invitations sur leur page Facebook et Instagram. Un groupe a conservé l'algorithme tel quel, et l'autre est passé à un affichage des publications par ordre chronologique (les plus récentes en haut).

Cet ordre chronologique était utilisé par Facebook à ses débuts, et certains observateurs estiment que repasser à cette méthode pourrait réduire l'impact néfaste des réseaux sociaux.

L'étude a montré que le groupe passé au fil chronologique passait moitié moins de temps sur Facebook et Instagram que le groupe ayant conservé l'algorithme intact.

Avec l'ordre chronologique, les utilisateurs voyaient également davantage de contenus d'amis aux opinions plus modérées, ou de groupes et de pages ayant une audience aux opinions diverses.

Mais cet ordre chronologique a également eu pour effet d'augmenter la quantité de contenus politiques et non fiables visionnés.

Malgré tous ces changements, les chercheurs n'ont pas observé de modifications des croyances politiques chez ces utilisateurs.

"Cela suggère que le fil chronologique n'est pas une baguette magique contre le problème de la polarisation politique", a conclu la co-autrice Jennifer Pan, de l'université Stanford.

- Meta salue les résultats -

Une deuxième étude a analysé l'impact des contenus repartagés, qui constituent plus d'un quart de ce que voient les utilisateurs de Facebook.

Supprimer ces partages de publications par des amis pourrait être un moyen de contrôler les contenus viraux, selon certains. C'est donc ce qui a été expérimenté pour un groupe d'utilisateurs.

En conséquence, ceux-ci ont vu la proportion de contenus politiques baisser sur leur page d'accueil, mais encore une fois, cela n'a pas eu d'impact sur leurs croyances politiques.

Une troisième étude a elle analysé l'effet des contenus issus de pages, groupes, ou utilisateurs ayant des opinions similaires, qui constituent la majorité de ce que les utilisateurs adultes américains voient sur Facebook.

Dans une expérience impliquant plus de 23.000 usagers, supprimer ce type de contenu n'a de nouveau pas eu d'impact sur l'extrémisme idéologique ou la croyance dans des affirmations erronées.

Toutefois, une quatrième étude a confirmé un effet de "ségrégation idéologique" sur Facebook. Les utilisateurs conservateurs avaient davantage tendance à être enfermés dans une bulle idéologique que les personnes de gauche, ont relevé les chercheurs.

De plus, 97% des publications qualifiées de fausses par un programme de vérification d'informations -- dont l'AFP fait partie -- étaient davantage vues par des conservateurs que des progressistes.

Dans un communiqué, Meta a salué ces résultats.

Ils "s'ajoutent aux éléments de recherches qui s'accumulent montrant qu'il n'y a pas de preuve que les réseaux sociaux sont la cause d'une polarisation dommageable, ou ont des conséquences importantes sur des comportements ou croyances politiques", a déclaré Nick Clegg, le responsable des affaires internationales de Meta.

J.M.Ellis--TFWP