ÉTHIQUE HEBDO du 7 septembre 2018 – Les machines rendent des comptes

 

image du sénat américain

 

Cliquez ici pour voir et lire la publication sur Facebook

 

Des représentants de Twitter et Facebook* paraissaient devant le Sénat américain plus tôt cette semaine. En lien avec les soupçons d’influence sur les dernières élections américaines par des intérêts étrangers, les représentants des géants du Web devaient notamment expliquer comment leurs plateformes ont pu être « infiltrées » et quelles sont les mesures et solutions qui ont été mises en œuvre pour protéger leurs plateformes et leurs utilisateurs.

L’affaire Cambridge Analytica a révélé au grand jour comment les données personnelles ont été recueillies et utilisées pour tenter de faire pencher l’opinion des électeurs vers le candidat qui avait retenu les services de la compagnie. Mais il ne s’agit pas du seul aspect problématique des agissements des géants du Web. Plusieurs autres éléments, tels que la transparence des algorithmes et ses effets sur la vie privée et l’autonomie, sur la fiabilité de l’information et sur la sécurité, pour ne nommer que ceux-là, soulèvent des enjeux troublants qui devraient faire l’objet de questions.

Transparence

Les plateformes Web fonctionnent à l’aide d’algorithmes qui traitent, classent et filtrent l’information pour la redistribuer aux utilisateurs. Ces algorithmes prennent des décisions sur le contenu qui nous est rendu disponible… ou pas, en fonction de paramètres préétablis. Mais comment fonctionnent ces algorithmes? Quels sont ces paramètres préétablis? Sur quelle base et sur quels critères les décisions sont-elles prises pour nous rendre un contenu visible ou invisible? Quels sont les éléments de sélection qui déterminent l’ordre des références triées par Google? Impossible de le savoir.

On parle beaucoup de la transparence des algorithmes et de la difficulté (voire de l’impossibilité) d’expliquer les étapes réalisées par une intelligence artificielle (IA) pour prendre une décision. On en parle pour souligner la difficulté technique qui explique cette opacité où, puisque la machine est programmée pour apprendre par elle-même, même le programmeur de l’algorithme ne peut expliquer a posteriori le chemin qui mène à la décision. Cependant, à ces difficultés techniques –déjà problématiques puisqu’elles nécessitent d’accorder une confiance aveugle à une machine qui prend des décisions, alors qu’on ne sait pas sur quelle base celles-ci sont prises– s’en ajoute une autre. Les algorithmes des grandes plateformes ne sont pas particulièrement opaques au plan technique; ce sont surtout des outils très lucratifs dont les géants du Web ne souhaitent pas rendre publics les détails de leur fonctionnement; des critères généraux programmés dans les algorithmes aux codes qui les traduisent. Cette opacité entre néanmoins en conflit avec des valeurs fondamentales, telles que l’autonomie, la fiabilité de l’information, la vie privée et la sécurité.

Autonomie

Les algorithmes peuvent, à travers l’information partagée sur les réseaux sociaux ou les abonnements aux médias, pousser l’information –qu’il s’agisse de nouvelles, de concours, de publicités, etc. – rejoignant les intérêts et allégeances des utilisateurs. Cette manière de cibler l’information, formatée et transmise spécifiquement à une personne en fonction des intérêts qu’elle a déjà manifestés, a pour conséquence que l’utilisateur ne reçoit plus que ce qui confirme ses convictions, créant ainsi une « bulle informationnelle ». L’autonomie reposant, au moins en partie, sur la capacité et la possibilité de faire des choix, il importe qu’une certaine quantité et une certaine variété d’options soient présentées à l’individu, parmi lesquelles il pourra choisir. Or, n’étant alors plus confronté à des idées différentes ou divergentes qui pourraient faire évoluer sa pensée, cette façon de faire vient alors renforcer sa position au point d’en faire disparaître les nuances. La vision globale d’une situation est alors balisée de sorte que la personne, évoluant dans un éventail de choix restreint, peut plus difficilement faire preuve d’ouverture d’esprit. On peut ici penser aux opinions politiques confortées par les articles de journaux reçus partageant les mêmes orientations; aux publicités ciblées en fonction de nos habitudes d’achat ou de la période de paye (on fera la promotion d’items plus chers le jour de la paye, par exemple); ou encore à Netflix et Amazon qui proposent des séries, films, documentaires et des livres en fonction des préférences déjà exprimées, rendant certains contenus plus difficiles à trouver. La « personnalisation algorithmique » des environnements numériques vient tuer l’aspect de sérendipité que pouvait avoir l’Internet auparavant, c’est-à-dire le fait qu’il s’agisse d’un environnement où l’on peut évoluer d’un lien à l’autre à travers des contenus extrêmement variés et tomber par hasard sur des contenus que nous n’aurions pas soupçonnés nous intéresser d’emblée, ou que nous n’aurions pas recherchés naturellement.

Dans un contexte d’opacité, il est également impossible de savoir si des biais intentionnels n’ont pas été intégrés à l’algorithme pour rendre certaines informations invisibles ou, au contraire, pour donner à une information beaucoup plus d’espace qu’elle ne devrait en recevoir. Puisque nous n’avons pas accès aux règles qui régissent ce tri de l’information, il est en effet possible de douter que ce qui nous est rendu accessible ne soit pas teinté d’une quelconque idéologie. Les plateformes sont-elles réellement impartiales? Comment assurent-elles la neutralité des contenus qui y sont partagés et propagés considérant que les utilisateurs, eux, ne sont pas neutres? Quels sont les mécanismes mis en place pour assurer l’impartialité et la neutralité? Ces mécanismes sont-ils eux-mêmes neutres et impartiaux? Ici encore, l’opacité du fonctionnement ne permet pas de le dire.

On ne connait pas bien l’utilisation qui est faite de l’information personnelle enregistrée par toutes les applications et outils Web, mais on sait qu’il est possible de la paramétrer de manière à ce qu’elle ait des impacts sur l’autonomie de l’humain, sur les options disponibles et conséquemment, sur ses décisions. En contrepartie, trop d’options disponibles nuisent aussi à la prise de décision, ce qui peut, de manière paradoxale, faire obstacle à l’exercice de l’autonomie de la personne. En ce sens, il n’est pas exclu que des algorithmes, programmés de manière appropriée et dont les paramètres seraient connus ou même modifiables par l’utilisateur, puissent fournir un soutien à l’autonomie.

Fiabilité de l’information

C’est sans compter les avancées technologiques qui rendent encore plus facile la création de faux contenus. En effet, il devient maintenant possible, même pour un utilisateur novice, de faire dire n’importe quoi à n’importe qui grâce à des logiciels d’édition d’images et de vidéo. Un rapport du Centre d’analyse, de prévision et de stratégie du ministère des Affaires étrangères français vient d’être publié sur le sujet et met en garde contre la facilité de truquer un discours ou une vidéo et de berner le public. On y parle notamment des vidéos « deepfake », dont le trucage est quasi invisible. Dans ces vidéos, le visage d’une personnalité est numériquement modifié et sa voix éditée pour lui faire prononcer un discours crédible mais totalement faux. Une vidéo de l’ancien Président des États-Unis, Barack Obama, a d’ailleurs fait le tour du Web ce printemps, vidéo où « il » dénonçait justement les dangers de ces « deepfakes ». Bien que les géants du Web dont il est ici question ne soient pas responsables de la création de ces contenus mensongers, ils devraient néanmoins assumer une forme de responsabilité pour débusquer les faux et s’assurer que les contenus partagés sur leurs plateformes aient fait l’objet d’une vérification pour s’assurer de leur véracité.

Vie privée

De plus, nous en savons très peu sur l’hébergement, le partage et l’analyse des données personnelles qui sont faites par ces multinationales du Web. Comment sont-elles stockées? Utilisées? Par qui et dans quel but? Ici encore, impossible de savoir exactement. Ce que nous savons par contre, c’est qu’en recoupant les données partagées, même anonymisées, et l’information disponible au sujet d’une personne, plusieurs éléments de sa vie privée sont accessibles, des éléments aussi variés que son état de santé, son allégeance politique, ses habitudes d’achat, son salaire, son âge, son état marital, si elle a des enfants ou non, les lieux qu’elle fréquente, son adresse, si elle est propriétaire ou locataire, etc. L’accessibilité à ces informations pose de sérieux risques sur le plan de la protection de la vie privée des utilisateurs des services en lignes, qui sont les réels producteurs de ces données.

Les Géants du Web considèrent que les utilisateurs sont informés du fait que les données les concernant sont collectées et qu’ils sont d’accord puisqu’ils acceptent les conditions d’utilisation. De plus en plus de voix se font cependant entendre pour dire, d’une part, que ces conditions sont souvent rédigées dans un langage hermétique et qu’il est difficile pour l’utilisateur moyen d’en comprendre les tenants et aboutissants, et d’autre part, que les informations qui y figurent sont souvent trompeuses quant à la quantité de données collectées. Des chercheurs de l’Université de Toronto ont en effet découvert que près de 60% des 757 applications pour téléphone intelligent vérifiées, collectaient plus de données que ce qui est avancé dans les conditions d’utilisation.

Enfin, l’utilisateur n’a pas le choix d’adhérer complètement aux conditions pour utiliser l’application, c’est-à-dire qu’il ne peut avoir accès à l’application qu’en acceptant que celle-ci collecte et utilise ses données personnelles, même si ces données ne sont pas nécessaires pour que l’application remplisse sa fonction première. Comme le fait de fournir ses données personnelles n’a pas un coût immédiat, comme s’il y avait un prix d’achat, plusieurs sont portés à accepter des conditions non nécessaires et potentiellement néfastes sans trop se poser de question.

Souveraineté

Ce qu’on doit comprendre, c’est que cette opacité des algorithmes rend possible la manipulation de l’information. Et dès que cette possibilité existe, c’est toute la confiance et la fiabilité des décisions prises par les machines quant à ce qui est relayé, trié et rendu accessible aux utilisateurs qui devraient être remises en question. Sans plonger dans la paranoïa, la vérification des sources devient de plus en plus un enjeu crucial. Parce que si l’information qui nous est transmise peut être manipulée et modulée pour influencer nos décisions –comme ce fut le cas par Cambridge Analytica– il y va de la sécurité des États, de leur indépendance et de leur autorité sur leur propre territoire : si un pays tiers influence le résultat d’élections en manipulant le choix des électeurs, c’est l’intégrité des institutions et des processus démocratiques qui est bafouée.

_____

* Sundar Pichai, Directeur général de Google ou Larry Page, co-fondateur de Google et Directeur général d’Alphabet, devaient paraître à l’audience, mais ont décliné, proposant plutôt de se faire représenter par leur avocat. Le Sénat a refusé et répliqué qu’il pourrait avoir recours à un subpoena pour forcer l’un des deux dirigeants de Google à paraître à une prochaine convocation.