Facebook a fomenté l’extrémisme pendant des années. Ce phénomène était bien connu de l’entreprise, et pourtant son grand patron a préféré ne pas s’attaquer au problème.
Notre cerveau a un faible pour les contenus divisants, comme les opinions très tranchées. Les algorithmes de Facebook sont conçus pour exploiter cette faille avec précision, puisqu’elle suscite davantage d’activité chez les usagers – et donc plus de revenus pour l’entreprise.
Les algorithmes de recommandation sont pratiques, car ils nous proposent généralement des contenus que nous aimons ou avec lesquels nous sommes déjà d’accord. Cependant, ils posent le risque de nous enfermer dans une bulle de filtre, un petit univers «personnalisé» qui empêche d’être exposé·e à une diversité d’idées, d’opinions ou de réalités. Des communautés homogènes ont ainsi tendance à s’isoler, une condition favorable à l’émergence de groupes extrémistes.
La personnalisation est au cœur du chiffre d’affaires de Facebook, mais elle s’accomplit au coût de la division sociale, de la polarisation politique et de la montée de l’extrémisme.