À l’occasion du Colloque international du Réseau Théophraste le 10 octobre dernier, des experts des médias ont évoqué la menace que représentent les deep fakes, ces fausses vidéos d’un réalisme frappant, pour la société. Une nouvelle arme dans la guerre sur la fiabilité des contenus.

« Je ne veux même pas commencer à y penser » s’effraie l’ex-journaliste de l’Associated Press et professeur à l’Université Columbia, Thomas Kent. Dans une ère où la désinformation est devenue une problématique majeure de la profession de journaliste, l’ennemi désigné semble avoir ajouté une corde à son arc sous la forme des deep fakes. « Dans les prochaines années il est probable que nous verrons des vidéos très convaincantes montrant des événements qui ne se sont jamais passés », explique M. Kent. Ces vidéos, produites grâce à un procédé utilisant l’intelligence artificielle (IA), sont capables de faire dire à quelqu’un, avec sa propre voix, des propos qu’il n’aurait jamais tenus, dans un lieu qu’il n’a jamais visité, faisant des choses qu’il n’a jamais faites. Appliqué à un contexte politique, les conséquences seraient dramatiques. « Ces fausses vidéos pourraient provoquer des émeutes, faire basculer les résultats des élections et semer la panique », pense le professeur de l’Université Columbia.

Ces contenus sont d’une précision telle que les experts auront du mal à prouver leur fausseté. « Actuellement on est rendu à une génération d’images photo-réalistes qui selon beaucoup de mesures, sont plus réalistes que le réel, détaille le doctorant à l’Institut québécois sur l’IA (MILA), Tristan Sylvain. Beaucoup d’humains n’arrivent plus à faire la différence entre les deux. » Parmi ces humains, la doctorante en sciences de l’information et de la communication à l’Université Laval, Lily Gramaccia, s’est prêtée au jeu lors d’un panel. « Je me suis trompée presque à chaque fois lorsqu’il s’agissait de déterminer si elles étaient vraies ou fausses, dit-elle. Elles sont très convaincantes. »

Les deep fakes sont un dérivé d’une technologie à la mode dans le domaine de l’IA : les réseaux antagonistes génératifs (GANs). Un premier réseau est chargé de produire des images et le deuxième doit déterminer si ce qu’il reçoit est réaliste. La tâche de l’un est censée rendre plus difficile celle de l’autre, ce qui crée une compétition. « Si l’un devient très bon à déterminer ce qui est réel ou non, l’autre réseau devient très bon à générer des faux qui ressemblent à des réels », explique Tristan Sylvain. Développés dans une optique positive, les deep fakes intéressent principalement le domaine du jeu vidéo, qui peut désormais transposer en temps réel les mimiques d’un joueur au personnage virtuel. Or, il y a danger de dérives touchant d’autres sphères.

 

Dans le cadre du Colloque international du Réseau Théophraste, l’ex-journaliste de l’Associated Press et professeur à l’Université Columbia, Thomas Kent, s’exprime devant des étudiants venus assister à sa classe de maître.

 

Les risques pour le journalisme

« Sans tomber dans la paranoïa, c’est une autre forme de guerre sur la fiabilité des contenus, indique le professeur au département d’information et communication de l’Université Laval, Thierry Watine. Cela pose un problème de fond : est-ce que tout contenu journalistique vidéo est désormais suspect? » En avril 2018, Buzzfeed a publié une vidéo intitulée « Vous ne croirez pas ce qu’Obama dit dans cette vidéo ». On y voit l’ex-président américain en train d’insulter l’actuel résident de la Maison-Blanche Donald Trump. Inimaginable ! Avec la voix caractéristique de Barrack Obama, le deep fake se poursuit et exhorte le citoyen à faire davantage attention à ce qu’il trouve sur internet et à se tourner vers des médias de références. « À un moment donné, il va falloir faire confiance à des médias qui, eux, auront fait ce travail de vérification, déclare M. Watine. Paradoxalement, cette crise de confiance que les deep fakes engendrent est peut-être une chance pour les médias traditionnels, chez qui le lectorat s’effrite d’année en année. Ils pourraient alors devenir des phares dans la nuit. »

Selon Tristan Sylvain, le problème fondamental n’est pas la technologie en elle-même, qui va de toute façon arriver, mais la mise en place d’outils pour contrer les applications malignes de celle-ci. Comme l’humain ne sera plus capable de discerner un deep fake d’une vraie vidéo, il faudra faire appel à de l’IA. « Pour les fake news, on en a qui sont générées par des systèmes automatisés, et on a aussi des systèmes semblables spécialisés dans leur détection, décrit le doctorant du MILA. Il y a déjà de l’IA contre de l’IA qui s’affrontent. Ce phénomène pourrait très facilement basculer dans la sphère de l’image et de la vidéo. »

Dans cette logique de vérification des faits qui éprend les salles de rédaction, renforcée par l’arrivée prochaine des deep fakes, les médias vont devoir investir dans de la haute technologie pour contrôler les informations. Le danger sera alors de se reposer sur celles-ci et d’en oublier le sens du journalisme. « Je pense qu’il faut aller vers une hybridation de deux approches, estime M. Watine. Il faut prendre des précautions et faire de la vérification mais il faut aussi revenir à des méthodes du journalisme d’investigation et le travail sur le terrain. C’est en ayant cette posture que les médias traditionnels vont tirer leur épingle du jeu. »

Si les problèmes d’éthiques et la méconnaissance du fonctionnement de l’IA font naître des fantasmes autour de cette technologie, il ne faut pas pour autant écarter les aspects positifs qu’elle peut apporter au journalisme. « C’est comme la dynamite, c’est dangereux, mais c’est aussi grâce à elle qu’on a exploré des mines d’argent et d’or », compare le professeur au département d’information et communication de l’Université Laval.