Avec Video Authenticator, Microsoft s’attaque aux deepfakes

Avec Video Authenticator, Microsoft s’attaque aux deepfakes

Pour prévenir la désinformation lors des élections US, Microsoft a mis au point un logiciel de détection des deepfakes : Video Authenticator. Grâce à l’intelligence artificielle, les deepfakes usurpent l’identité d’individus.

Le deepfake, comme le définit Wikipedia, est une technique de synthèse d’images basée sur l’intelligence artificielle. Elle consiste ainsi à superposer des fichiers audio et vidéo existants sur d’autres contenus. Elle peut aussi s’appliquer aux seuls fichiers audio et aux photos.

A des fins de désinformation, le deepfake permet par exemple de faire déclarer à une personnalité politique des propos qu’elle n’a en vérité jamais tenus. Selon une récente étude, le deepfake s’affirme comme une des principales menaces permises par l’intelligence artificielle.

Les deepfakes échappent aux outils de détection conventionnels

Les prochaines élections présidentielles aux Etats-Unis pourraient d’ailleurs constituer un terrain d’expérimentation pour les deepfakes. C’est justement afin de lutter contre ces menaces que Microsoft a développé Video Authenticator.

L’outil analyse les images pour détecter les signes d’un deepfake. Car, comme le souligne l’éditeur, ces usurpations d’identité sont difficiles à repérer. Ainsi, « le fait qu’ils soient générés par l’IA, qui peut continuer à apprendre, rend inévitable qu’ils battent les technologies de détection conventionnelles. »

A court terme, et en particulier lors de la prochaine élection américaine, des technologies de détection « avancées » peuvent donc « aider les utilisateurs avertis à identifier les deepfakes » estime la firme de Redmond.

Score de détection en temps réel sur la vidéo

Video Authenticator va donc procéder à l’analyse des vidéos et photos. L’application détermine un « score de confiance ». Ce score correspond à la probabilité que le contenu soit « artificiellement manipulé. »

Microsoft précise que sa technologie peut fournir un score de détection en temps réel sur chaque image pendant la lecture d’une vidéo. Elle fonctionne en détectant certaines particularités de l’image, caractéristiques d’un deepfake. Il peut s’agir par exemple des niveaux de gris, dont les variations peuvent échapper à œil humain.

Pour concevoir son modèle de détection, Microsoft s’est appuyé sur un jeu de données public de Face Forensic++. Video Authenticator se base par ailleurs sur le dataset DeepFake Detection Challenge. Les deux sont des références pour l’apprentissage et le test des technologies de détection de deepfakes.

A lire également sur MyData

20 nuances de crime permises par l’intelligence artificielle

20 nuances de crime permises par l’intelligence artificielle

Deepfake, prise de contrôle de véhicules autonomes, perturbation de systèmes d’IA critiques, cyberattaques… Des chercheurs identifient 20 menaces permises par l’IA. L’objectif de cet exercice prospectif : anticiper les menaces et des réponses.

A propos de Christophe Auffray 356 Articles
De formation initiale en marketing Web et en économie, je me suis spécialisé par la suite dans la presse B2B consacrée à l'économie numérique et dispose dans ce secteur de 15 ans d'expérience. Spécialiste de la transformation numérique, de l'innovation et des nouveaux business models des entreprises, j'ai développé des compétences dans les domaines du marketing éditorial, de la stratégie éditoriale, de la production de contenus premium et la gestion de sites d'information et d'équipe dans l'univers des médias en ligne et du marketing des solutions innovantes.