
Pour prévenir la désinformation lors des élections US, Microsoft a mis au point un logiciel de détection des deepfakes : Video Authenticator. Grâce à l’intelligence artificielle, les deepfakes usurpent l’identité d’individus.
Le deepfake, comme le définit Wikipedia, est une technique de synthèse d’images basée sur l’intelligence artificielle. Elle consiste ainsi à superposer des fichiers audio et vidéo existants sur d’autres contenus. Elle peut aussi s’appliquer aux seuls fichiers audio et aux photos.
A des fins de désinformation, le deepfake permet par exemple de faire déclarer à une personnalité politique des propos qu’elle n’a en vérité jamais tenus. Selon une récente étude, le deepfake s’affirme comme une des principales menaces permises par l’intelligence artificielle.
Les deepfakes échappent aux outils de détection conventionnels
Les prochaines élections présidentielles aux Etats-Unis pourraient d’ailleurs constituer un terrain d’expérimentation pour les deepfakes. C’est justement afin de lutter contre ces menaces que Microsoft a développé Video Authenticator.
L’outil analyse les images pour détecter les signes d’un deepfake. Car, comme le souligne l’éditeur, ces usurpations d’identité sont difficiles à repérer. Ainsi, « le fait qu’ils soient générés par l’IA, qui peut continuer à apprendre, rend inévitable qu’ils battent les technologies de détection conventionnelles. »
A court terme, et en particulier lors de la prochaine élection américaine, des technologies de détection « avancées » peuvent donc « aider les utilisateurs avertis à identifier les deepfakes » estime la firme de Redmond.
Score de détection en temps réel sur la vidéo
Video Authenticator va donc procéder à l’analyse des vidéos et photos. L’application détermine un « score de confiance ». Ce score correspond à la probabilité que le contenu soit « artificiellement manipulé. »
Microsoft précise que sa technologie peut fournir un score de détection en temps réel sur chaque image pendant la lecture d’une vidéo. Elle fonctionne en détectant certaines particularités de l’image, caractéristiques d’un deepfake. Il peut s’agir par exemple des niveaux de gris, dont les variations peuvent échapper à œil humain.
Pour concevoir son modèle de détection, Microsoft s’est appuyé sur un jeu de données public de Face Forensic++. Video Authenticator se base par ailleurs sur le dataset DeepFake Detection Challenge. Les deux sont des références pour l’apprentissage et le test des technologies de détection de deepfakes.
A lire également sur MyData
20 nuances de crime permises par l’intelligence artificielle
Deepfake, prise de contrôle de véhicules autonomes, perturbation de systèmes d’IA critiques, cyberattaques… Des chercheurs identifient 20 menaces permises par l’IA. L’objectif de cet exercice prospectif : anticiper les menaces et des réponses.