20 nuances de crime permises par l’intelligence artificielle

20 nuances de crime permises par l’intelligence artificielle

Deepfake, prise de contrôle de véhicules autonomes, perturbation de systèmes d’IA critiques, cyberattaques… Des chercheurs identifient 20 menaces permises par l’IA. L’objectif de cet exercice prospectif : anticiper les menaces et des réponses. 

En avril, les services de renseignement britanniques rendaient un rapport sur les bénéfices de l’intelligence artificielle dans le domaine de la cybersécurité. Les auteurs soulignaient aussi les risques pour les Etats d’un usage offensif de ces technologies. 

Des attaques informatiques permises par l’IA ne sont toutefois pas la seule menace à prendre en compte. Dans une étude de Crime Science, des chercheurs en identifient 20 susceptibles de faciliter des crimes au cours des 15 prochaines années. 

L’usurpation audio et vidéo, première menace

Parmi les menaces les plus graves, l’étude classe ainsi le deepfake. Cette pratique consiste, grâce à l’IA, à créer de fausses images et déclarations audio. L’usage de ces technologies permet ainsi de l’usurpation d’identité. 

Et de sérieux progrès ont été réalisés dans le domaine du Generative adversarial network (GAN). Or, Les “GANs sont largement responsables des récentes augmentations de la capacité à générer un contenu artificiel (« deepfake ») convaincant” soulignent les experts. 

Pour certains, cette menace semblera peut-être secondaire en comparaison du détournement de véhicules autonomes pour les transformer en armes. De telles attaques, notamment à des fins terroristes, relèvent toutefois encore de la science-fiction. 

Les véhicules autonomes permettraient potentiellement l’expansion du terrorisme véhiculaire en réduisant la nécessité de recruter des conducteurs, ce qui permettrait à un seul auteur de perpétrer des attaques multiples, voire de coordonner un grand nombre de véhicules à la fois” anticipe néanmoins l’étude. 

Augmentation du potentiel d’exploitation criminelle de l’IA

La génération de faux contenus est sans doute un risque à plus court terme. Les auteurs estiment en outre que ces contenus se révèleraient “difficiles à détecter et à arrêter.” Par ailleurs, leurs usages seraient multiples. Leur diffusion viserait aussi bien à discréditer une personnalité publique qu’à soutirer de l’argent.  

Perturbation des systèmes d’IA, chantage à grande échelle et autres fake news figurent également parmi les crimes les plus sérieux listés par les experts. Mais à quoi bon se pencher aujourd’hui sur des menaces inexistantes ? 

L’expansion des capacités des technologies basées sur l’IA s’accompagne d’une augmentation de leur potentiel d’exploitation criminelle. Pour nous préparer de manière adéquate aux menaces éventuelles de l’IA, nous devons identifier ce que ces menaces pourraient être, et comment elles pourraient affecter nos vies » répond le professeur Lewis Griffin. 

« Nous vivons dans un monde en constante évolution qui crée de nouvelles opportunités – bonnes et mauvaises. Il est donc impératif que nous anticipions les menaces criminelles futures afin que les décideurs politiques et les autres parties prenantes ayant les compétences nécessaires pour agir puissent le faire avant que de nouvelles ‘récoltes de crimes’ ne se produisent” insiste le professeur Shane Johnson. 

A propos de Christophe Auffray 396 Articles
De formation initiale en marketing Web et en économie, je me suis spécialisé par la suite dans la presse B2B consacrée à l'économie numérique et dispose dans ce secteur de 15 ans d'expérience. Spécialiste de la transformation numérique, de l'innovation et des nouveaux business models des entreprises, j'ai développé des compétences dans les domaines du marketing éditorial, de la stratégie éditoriale, de la production de contenus premium et la gestion de sites d'information et d'équipe dans l'univers des médias en ligne et du marketing des solutions innovantes.