Doit-on interdire la circulation des deepfakes?

À compter du 1er janvier 2020, une réglementation entrera en vigueur en Chine pour contrer la propagation de fausses nouvelles et de vidéos modifiées par le truchement de l’intelligence artificielle (les deepfakes). Il sera interdit d’employer les outils de l’intelligence artificielle pour créer des fausses nouvelles et les diffuser, à moins d’aviser clairement que le contenu est trompeur ou a été manipulé. Parmi les arguments invoqués pour justifier cette mesure, on mentionne le risque que ces technologies posent pour l’intérêt public.

Cette régulation fait par ailleurs écho à d’autres initiatives à l’échelle internationale, dont la loi AB 730 adoptée en Californie en octobre 2019, laquelle interdit la diffusion de matériel audiovisuel trompeur d’un candidat en contexte électoral. Dans la même veine, l’Union européenne s’est penché sur le phénomène de désinformation à l’ère numérique en élaborant une stratégie à cet effet. Le type de réglementation mis de l’avant en Chine soulève néanmoins plusieurs enjeux éthiques.

La liberté d’expression et la liberté de tromper

Le premier enjeu concerne l’étendue de la liberté d’expression dont disposent les citoyens. D’un côté, les citoyens devraient avoir le droit de faire connaître publiquement leurs idées, leurs croyances et leurs prises de position. Or, la question se complique dans le cas des affirmations fausses, et en particulier de la fabrication de nouvelles. Dans ces situations, le droit à la liberté d’expression peut entrer en conflit avec la sécurité du public (des affirmations trompeuses peuvent mettre des personnes en danger) ou la protection de la réputation (des affirmations trompeuses peuvent donner mauvaise réputation à des personnes ou des institutions). En outre, les affirmations fausses minent la qualité de l’information disponible pour établir un portrait juste des divers enjeux sociétaux et exercer un jugement critique. L’apparition des vidéos modifiées par le truchement de l’intelligence artificielle accentue ce problème.

De leur côté, les géants du Web font des interprétations différentes du droit à la liberté d’expression dans les cas où des affirmations, images ou vidéos sont fabriquées de toute pièce. Par exemple, Facebook développe présentement une technologie de détection des fausses vidéos, mais ne les supprimera pas nécessairement du réseau social. Cet intérêt défendu par une entreprise privée peut toutefois différer de l’intérêt des citoyens.

La qualité des débats en démocratie

L’interdiction de vidéos modifiées par le truchement de l’intelligence artificielle soulève des enjeux sur le plan de la gouvernance démocratique. Ces vidéos créent des obstacles à la discussion publique éclairée. L’apparition de ces fausses nouvelles mènent les citoyens à faire deux types d’erreurs, soit (i) croire des affirmations qui sont fausses et sans fondement réel et (ii) ne plus croire des affirmations qui sont vraies et fondées. Le premier type d’erreur est assez facile à comprendre: les vidéos modifiées par le truchement de l’intelligence artificielle semblent réelles, et trompent les personnes qui les consultent. Le second type d’erreur, souvent ignoré, est tout aussi important: étant donné que de fausses vidéos circulent, plusieurs personnes ont désormais moins confiance dans les vidéos authentiques, puisqu’il est difficile de différencier les vrais des faux montages.

Plusieurs auteurs pensent que la discussion publique éclairée est une condition nécessaire à la légitimité politique. Sans discussion publique informée, les citoyens ne peuvent pas comprendre et mener un examen critique des raisons motivant les décisions prises collectivement. Pour mener un tel examen critique, les citoyens doivent pouvoir s'informer auprès de sources fiables. Or, l’arrivée des vidéos modifiées par le truchement de l’intelligence artificielle affecte la fiabilité des affirmations en circulation dans la sphère publique. Plus les citoyens croient des affirmations fausses, ou plus les citoyens sont méfiants de sources authentiques d’informations, moins ils ont accès aux raisons motivant les décisions collectives.

La question qui se pose ensuite est d’identifier les mécanismes politiques adéquats pour contrer la propagation de ces fausses informations. La Chine fait le pari qu’une interdiction légale accompagnée de sanctions est la bonne voie à suivre. Dans une société démocratique, il existe peut-être de meilleures options en comparaison aux approches coercitives.

La fiabilité des systèmes de détection des fausses nouvelles

Plusieurs entreprises et institutions développent des outils technologiques pour favoriser le repérage de fausses nouvelles. Outre Facebook, pensons aux travaux des chercheurs issus du MIT’s computer Science and Artificial Intelligence Lab (CSAIL). Ils évoquent la possibilité pour un système d’apprentissage-machine de déceler la validité d’une source d’information.

Or, cette utilisation d’outils technologiques pour départager le vrai du faux et appuyer les individus dans leurs décisions soulève l’enjeu de la qualité des systèmes d’intelligence artificielle utilisés. Ces systèmes sont-ils fiables dans leur capacité à détecter les fausses vidéos? Peuvent-ils reproduire ou renforcer des biais existants, ou encore introduire de nouveaux biais? Ces inquiétudes sont légitimes, puisque de nombreux systèmes d’intelligence artificielle ne sont pas fiables ou sont biaisés.

L’enjeu de la citoyenneté à l’ère numérique

Si les Deepfakes soulèvent des questions sur les dispositifs d’encadrement de type coercitif pour contrer la diffusion de fausses nouvelles, il est possible de relever d’autres alternatives comme l’éducation aux bonnes sources d’information. Dans une société démocratique à l’ère numérique, il semble ainsi être opportun de se pencher sur les conditions permettant aux cybercitoyens de discerner les informations proliférant sur Internet, et ce, dans une perspective d’égalité des chances. D’autant qu’à l’heure actuelle, subsiste une fracture numérique sur le plan de la formation aux nouvelles technologies. Outre les inégalités en matière d’accès aux infrastructures numériques, il en va de l’inégal développement des compétences, dont la capacité de rechercher l’information sur Internet.