L’intelligence artificielle n’a pas droit à l’erreur

L’intelligence artificielle n’a pas droit à l’erreur

La confiance à l’égard de l’intelligence artificielle n’est pas encore au rendez-vous. Ils sont 64% de sondés à appeler à une régulation plus stricte autour de ses usages et 61% à considérer que l’IA devrait être infaillible.

Infaillible, l’intelligence artificielle ? Ce n’est pas le cas aujourd’hui, comme nombre d’utilisateurs peuvent par exemple le constater lors de l’utilisation d’un chatbot. Une mauvaise réponse d’un tel outil prête cependant rarement à conséquence.

D’autres usages peuvent s’avérer en revanche plus critiques. C’est en raison de l’existence de risques que les individus jugent nécessaires des mesures réglementaires encadrant l’utilisation de l’IA. D’après une étude réalisée par Fountech.ai, ils sont 64% de sondés à souhaiter un tel renforcement de la régulation.

69% sont opposés à une IA autonome

Les répondants ne sont pas prêts en effet à voir se développer des systèmes de décision totalement autonomes. Pour 69% d’entre eux, chaque décision d’un logiciel d’IA doit être contrôlée par un humain.

Ils sont en outre 61% à considérer que l’intelligence artificielle ne devrait pas commettre d’erreur. D’ailleurs, pour 45% des personnes interrogées, il serait tout simplement plus difficile de pardonner les erreurs commises par la technologie que celles commises par un humain.

Mais en cas d’erreur, la responsabilité en incomberait bien à des humains. 72% estiment que les entreprises à l’origine du développement de l’IA devraient être tenues pour responsables en cas d’erreur.

L’intelligence artificielle doit pouvoir faire des erreurs

Ces résultats ne sont pas surprenants pour le fondateur de Fountech.ai, Nikolas Kairinos. « Il est raisonnable que les gens s’inquiètent de systèmes qui peuvent fonctionner en dehors de tout contrôle humain » reconnait-il.

Les failles des systèmes d’IA sont donc sources d’inquiétude et alimentent le souhait d’une réglementation renforcée et d’une plus grande responsabilité des entreprises. Pour le dirigeant, comme toute autre technologie, l’IA doit être réglementée pour gérer les risques et garantir des normes de sécurité strictes.

Nikolas Kairinos appelle cependant à un équilibre en la matière. « L’IA doit avoir la possibilité de faire des erreurs et d’en tirer des leçons ; c’est la seule façon pour cette technologie d’atteindre de nouveaux niveaux de perfection » soutient-il.

A lire également sur MyData

L’intelligence artificielle n’est pas un épouvantail pour les clients de l’assurance
270

L’intelligence artificielle n’est pas un épouvantail pour les clients de l’assurance

L’intelligence artificielle, un risque pour les assurés ? Le partage de données avec les assurances, mais également l’utilisation de l’IA ne constituent pas un frein pour les clients. A condition qu’ils en bénéficient.

A propos de Christophe Auffray 268 Articles
De formation initiale en marketing Web et en économie, je me suis spécialisé par la suite dans la presse B2B consacrée à l'économie numérique et dispose dans ce secteur de 15 ans d'expérience. Spécialiste de la transformation numérique, de l'innovation et des nouveaux business models des entreprises, j'ai développé des compétences dans les domaines du marketing éditorial, de la stratégie éditoriale, de la production de contenus premium et la gestion de sites d'information et d'équipe dans l'univers des médias en ligne et du marketing des solutions innovantes.