ARTICLE

30 octobre 2020

Démocratie: conditions générales d’utilisation

Victor Dubuc

phishing-scam.jpg

“C’est facile aujourd’hui d’oublier que ces outils [les médias sociaux] nous ont procuré des choses vraiment merveilleuses. Ils ont réuni des familles dispersées, trouvé des donneurs d’organes. Il s’est produit des changements systémiques de poids, dans le monde entier, grâce à ces plateformes, des changements positifs. Mais, nous étions naïfs au sujet du revers de la médaille.”

Tim Kendall, ancien responsable de la monétisation de Facebook

 

Cet été, un sondage de l’INSPQ a révélé que 23% des Québécois sont en accord avec l’affirmation suivante : « Je pense que la COVID-19 a été créée dans un laboratoire ». Les algorithmes des médias sociaux et moteurs de recherche participent assurément à cette radicalisation des pensées. Avant tout, il faut comprendre que le modèle d’affaires de ces entreprises repose sur l’économie de l’attention ou encore, le capitalisme de surveillance. C’est-à-dire que l’attention portée à différents types de contenus par un utilisateur et le fait de posséder des données sur ceux-ci est monétisée. Vous avez peut-être entendu la citation qui circule beaucoup dernièrement : « Si vous ne payez pas pour le produit, c’est que vous êtes le produit ». L’objectif est de présenter à l’utilisateur du contenu qui captivera son attention. Pour ce faire, ces compagnies utilisent des algorithmes. Ces derniers se basent sur de nombreux paramètres (réactions, groupes et pages consultées, interactions, temps passé sur la plateforme et sur les éléments consultés, données personnelles, etc.) pour proposer du contenu.

 

En tant que tel, pouvoir filtrer toutes les informations sur internet est un avantage. Toutefois, les algorithmes peuvent porter les individus à ne plus être confrontés aux points de vue opposés et à s’enfermer dans des chambres d’échos médiatiques. Étant donné que l’algorithme tente de proposer du contenu selon les intérêts de l’utilisateur, il entrera en contact avec des idées auxquelles il a préalablement interagi et adhère vraisemblablement déjà. Elles auront un effet de confirmation sur les convictions et la conception du monde de la personne en question. Ce phénomène se nomme « les bulles de filtrage ». Tout de même, être confronté aux autres pensées que la sienne est primordial dans la formation d’un jugement critique. C’est d’ailleurs d’où provient le nom « chambre d’écho », de la manière que l’individu n’entend seulement ce qu’il pense déjà.

 

De la même manière, les chambres d’échos favorisent l’amplification des fausses nouvelles. En fait, voir une information se répéter dans différentes sources a tendance à la crédibiliser dans l’esprit de la personne qui l’assimile. Donc, ceci est particulièrement dangereux lorsqu’il s’agit de fausses informations, puisque les chambres d’échos les répéteront auprès des individus qui y participent. Cela étant dit, de nombreuses personnes sont vulnérables à la manipulation.

 

Durant la campagne de l’élection présidentielle américaine de 2016, l’équipe de Donald Trump avait fait appel aux services de la société Cambridge Analytica. Cette société collectait des données d’utilisateurs de Facebook dans le but de pouvoir cibler avec du contenu (sur toutes les plateformes) des personnes plus influençables dans des États particulièrement stratégiques. Cambridge Analytica a également travaillé en faveur du Brexit et dans les élections de nombreux pays.

 

« Si vous allez voir quelqu’un et qu’il vous dit : ''Pour dix millions de dollars, je peux changer le monde de 1% dans la direction que vous souhaitez'', c’est un pouvoir incroyable et cela vaut bien sûr beaucoup d’argent »

Jaron Lanier, essayiste et chercheur en informatique

 

Il est important de comprendre que la santé de nos démocraties est menacée. C’est un devoir de société de légiférer à ce sujet peu importe l’allégeance politique, étant donné que les GAFAM, les géants du web, ne prendront certainement pas de résolutions morales de plein gré. Nous avons besoin de transparence. Les fonctionnements détaillés des algorithmes sont inconnus, parce qu’ils sont des secrets industriels. Il est nécessaire qu’une entité indépendante puisse consulter ces informations pour en vérifier l’éthique en matière de sélection du contenu par les algorithmes, de collecte de données, de qualité de l’information et de dépendance (en ce qui concerne les médias sociaux).   

 

Bien que ces compagnies ne soient pas des services publics, elles se doivent d’assumer une certaine part de responsabilité sociale. Les géants du web continueront à prendre de l’ampleur à l’avenir et c’est un enjeu d’une extrême importance, en raison du danger de ce type de marché sur notre démocratie. Il semble que véritablement, plus on « fait nos recherches », plus on s’éloigne de la vérité…