Comment les chercheurs se préparent à la vague de propagande Deepfake
Les détecteurs alimentés par l'IA sont les meilleurs outils pour repérer les fausses vidéos générées par l'IA.
Le Washington Post via Getty Images

Un journaliste d'investigation reçoit une vidéo d'un dénonciateur anonyme. Il montre un candidat à la présidence admettant une activité illégale. Mais cette vidéo est-elle réelle? Si tel était le cas, ce serait une énorme nouvelle - le scoop d'une vie - et pourrait complètement renverser les élections à venir. Mais la journaliste fait passer la vidéo à travers un outil spécialisé, qui lui dit que la vidéo n'est pas ce qu'elle semble. En fait, c'est un "deepfake», Une vidéo réalisée grâce à l'intelligence artificielle avec l'apprentissage en profondeur.

Les journalistes du monde entier pourraient bientôt utiliser un outil comme celui-ci. Dans quelques années, un outil comme celui-ci pourrait même être utilisé par tout le monde pour éliminer les faux contenus dans leurs flux de médias sociaux.

As chercheurs qui ont étudié la détection de deepfake et en développant un outil pour les journalistes, nous voyons un avenir pour ces outils. Cependant, ils ne résoudront pas tous nos problèmes et ils ne constitueront qu'une partie de l'arsenal de la lutte plus large contre la désinformation.

Le problème avec les deepfakes

La plupart des gens savent que vous ne pouvez pas croire tout ce que vous voyez. Au cours des deux dernières décennies, les consommateurs avertis de nouvelles se sont habitués à voir des images manipulées avec un logiciel de retouche photo. Les vidéos, cependant, sont une autre histoire. Les réalisateurs hollywoodiens peuvent dépenser des millions de dollars en effets spéciaux pour créer une scène réaliste. Mais en utilisant des deepfakes, les amateurs avec quelques milliers de dollars d'équipement informatique et quelques semaines à dépenser pourraient rendre quelque chose presque aussi réaliste.


graphique d'abonnement intérieur


Deepfakes permet de mettre des gens dans des scènes de films dans lesquelles ils n'ont jamais été - pense que Tom Cruise joue à Iron Man - ce qui en fait des vidéos divertissantes. Malheureusement, il permet également de créer pornographie sans le consentement des personnes représentées. Jusqu'à présent, ces personnes, presque toutes les femmes, sont les plus grandes victimes lorsque la technologie deepfake est mal utilisée.

Deepfakes peut également être utilisé pour créer des vidéos de dirigeants politiques disant des choses qu'ils n'ont jamais dites. Le Parti socialiste belge a publié une vidéo de mauvaise qualité mais toujours bidon de Le président Trump insulte la Belgique, qui a eu assez de réaction pour montrer les risques potentiels des deepfakes de meilleure qualité.

{vembed Y=poSd2CyDpyA}
Université de Californie, Hany Farid de Berkeley explique comment les deepfakes sont fabriqués.

Peut être le plus effrayant de tous, ils peuvent être utilisés pour créer doute sur le contenu de vraies vidéos, en suggérant qu'il pourrait s'agir de deepfakes.

Compte tenu de ces risques, il serait extrêmement précieux de pouvoir détecter les deepfakes et de les étiqueter clairement. Cela garantirait que les fausses vidéos ne trompent pas le public et que les vraies vidéos peuvent être reçues comme authentiques.

Repérer les faux

La détection de Deepfake en tant que domaine de recherche a commencé un peu plus il ya trois ans. Les premiers travaux se sont concentrés sur la détection des problèmes visibles dans les vidéos, tels que deepfakes qui n'a pas cligné des yeux. Avec le temps, cependant, le les faux se sont améliorés à imiter de vraies vidéos et devenir plus difficile à repérer pour les personnes et les outils de détection.

Il existe deux grandes catégories de recherche sur la détection des faux. Le premier implique regarder le comportement des gens dans les vidéos. Supposons que vous ayez beaucoup de vidéos de quelqu'un de célèbre, comme le président Obama. L'intelligence artificielle peut utiliser cette vidéo pour apprendre ses schémas, de ses gestes de la main à ses pauses dans le discours. Il peut alors regarder un deepfake de lui et remarquez où il ne correspond pas à ces modèles. Cette approche a l'avantage de fonctionner éventuellement même si la qualité vidéo elle-même est essentiellement parfaite.

{vembed Y=gsv1OsCEad0}
Aaron Lawson de SRI International décrit une approche pour détecter les deepfakes.

D'autres chercheurs, y compris notre équipe, se sont concentrés sur différences qui tous les deepfakes ont par rapport à de vraies vidéos. Les vidéos Deepfake sont souvent créées en fusionnant des cadres générés individuellement pour former des vidéos. En tenant compte de cela, les méthodes de notre équipe extraient les données essentielles des visages dans des images individuelles d'une vidéo, puis les suivent à travers des ensembles d'images simultanées. Cela nous permet de détecter les incohérences dans le flux des informations d'une trame à l'autre. Nous utilisons également une approche similaire pour notre faux système de détection audio.

Ces détails subtils sont difficiles à voir pour les gens, mais montrent à quel point les deepfakes ne sont pas tout à fait parfait encore. Des détecteurs comme ceux-ci peuvent fonctionner pour n'importe qui, pas seulement pour quelques leaders mondiaux. En fin de compte, il se peut que les deux types de détecteurs deepfake soient nécessaires.

Les systèmes de détection récents fonctionnent très bien sur les vidéos spécifiquement rassemblées pour évaluer les outils. Malheureusement, même les meilleurs modèles le font mal sur les vidéos trouvées en ligne. La prochaine étape clé est d'améliorer ces outils pour qu'ils soient plus robustes et plus utiles.

Qui devrait utiliser les détecteurs deepfake?

Idéalement, un outil de vérification deepfake devrait être accessible à tous. Cependant, cette technologie en est aux premiers stades de développement. Les chercheurs doivent améliorer les outils et les protéger contre les pirates avant de les diffuser largement.

En même temps, cependant, les outils pour créer des deepfakes sont disponibles pour quiconque veut tromper le public. S'asseoir sur la touche n'est pas une option. Pour notre équipe, le bon équilibre était de travailler avec les journalistes, car ils sont la première ligne de défense contre la propagation de la désinformation.

Avant de publier des articles, les journalistes doivent vérifier les informations. Ils ont déjà des méthodes éprouvées, comme la vérification auprès des sources et la vérification par plusieurs personnes des faits clés. Donc, en mettant l'outil entre leurs mains, nous leur donnons plus d'informations, et nous savons qu'ils ne s'appuieront pas uniquement sur la technologie, étant donné qu'elle peut faire des erreurs.

Les détecteurs peuvent-ils gagner la course aux armements?

Il est encourageant de voir des équipes de Facebook et Microsoft investir dans la technologie pour comprendre et détecter les deepfakes. Ce domaine a besoin de plus de recherche pour suivre la vitesse des progrès de la technologie deepfake.

Les journalistes et les plateformes de réseaux sociaux doivent également trouver la meilleure façon d'avertir les gens des deepfakes lorsqu'ils sont détectés. La recherche a montré que les gens se souviennent du mensonge, mais pas le fait que ce soit un mensonge. En sera-t-il de même pour les fausses vidéos? Mettre simplement «Deepfake» dans le titre pourrait ne pas suffire à contrer certains types de désinformation.

Les Deepfakes sont là pour rester. La gestion de la désinformation et la protection du public seront plus difficiles que jamais à mesure que l'intelligence artificielle devient plus puissante. Nous faisons partie d'une communauté de recherche croissante qui s'attaque à cette menace, dans laquelle la détection n'est que la première étape.The Conversation

À propos des auteurs

John Sohrawardi, doctorant en informatique et sciences de l'information, Rochester Institute of Technology et Matthew Wright, professeur de sécurité informatique, Rochester Institute of Technology

Cet article est republié de The Conversation sous une licence Creative Commons. Lis le original article.