Avec Ethical Bias Check, Pega s’empare de l’éthique en IA

L’éditeur de logiciel fournit désormais une fonction de détection des biais dans le marketing client : Ethical Bias Check. Pour Pega, l’objectif est ainsi de favoriser une utilisation responsable de l’IA dans les interactions client.

La question de l’éthique dans l’intelligence artificielle est-elle en passe de se démocratiser ? Les fournisseurs technologiques ont un rôle à jouer en la matière. Et peut-être aussi une opportunité commerciale sur le marché.

Éditeur spécialisé dans la relation client, Pega annonce ainsi l’ajout d’une nouvelle fonctionnalité à sa plateforme décisionnelle clients. Grâce à Ethical Bias Check, il assure pouvoir aider les entreprises à exploiter l’IA de manière responsable.

Prévenir la discrimination générée par l’IA

« Alors que l’IA s’immisce aujourd’hui dans la quasi-totalité des aspects de l’engagement client, certains incidents majeurs ont permis aux entreprises de prendre progressivement conscience du risque lié aux données biaisées involontaires et de leur impact négatif sur les clients » souligne Rob Walker, vice-président de Pegasystems.

Des simulations pour détecter les données biaisées

La fonction Ethical Bias Check intervient spécifiquement dans la lutte contre les données biaisées générées par l’IA. Et l’éditeur revendique une détection plus simple des biais qu’avec des méthodes classiques, « chronophages et sources d’erreurs. »

Dans la relation client, chaque offre pilotée par l’IA devrait ainsi faire l’objet de tests distincts. Grâce à sa solution, Pega assure pouvoir rationaliser « ces tests en simulant une stratégie d’engagement globale, sur l’ensemble des canaux connectés. »

« Pega fournit ensuite des rapports détaillés de détection des données biaisées, pour expliquer aux utilisateurs pourquoi et où les problèmes peuvent survenir, afin qu’ils puissent y remédier avant qu’ils ne deviennent réellement des problèmes » ajoute l’éditeur.

Des « seuils acceptables » paramétrables par les utilisateurs

Le fournisseur technologique apporte néanmoins de la souplesse pour prévenir les alertes intempestives. Les utilisateurs peuvent ainsi paramétrer « des seuils acceptables » pour les facteurs susceptibles d’aboutir à des données biaisées (âge, genre, appartenance ethnique…).

Ciblage problématique des seniors dans la santé

« Elles peuvent également ajuster ces seuils pour les scénarios dans lesquels les résultats semblent biaisés. Par exemple, lorsqu’une entreprise du secteur de la santé cible principalement des citoyens seniors » indique l’éditeur.

La confiance est essentielle à l’adoption de l’intelligence artificielle. Des fonctions comme Ethical Bias Check doivent donc contribuer à garantir cette confiance. Mais l’enjeu est également commercial pour Pega.

Le prestataire indique d’ailleurs avoir introduit d’autres fonctionnalités à sa plateforme visant à un usage responsable de l’IA. T-Switch intervient par exemple dans le contrôle de la transparence des modèles d’engagement client basés sur l’intelligence artificielle.

A lire également sur MyData

Recrutement digital

Algorithme d’IA dans le recrutement : les précautions RGPD à prendre

L’utilisation d’une technologie d’intelligence artificielle dans le cadre du recrutement impose des règles de conformité. Ainsi le tri de CV via du Machine Learning exige la conformité RGPD du prestataire. Les données d’apprentissage sont également fondamentales.

A propos de Christophe Auffray 353 Articles
De formation initiale en marketing Web et en économie, je me suis spécialisé par la suite dans la presse B2B consacrée à l'économie numérique et dispose dans ce secteur de 15 ans d'expérience. Spécialiste de la transformation numérique, de l'innovation et des nouveaux business models des entreprises, j'ai développé des compétences dans les domaines du marketing éditorial, de la stratégie éditoriale, de la production de contenus premium et la gestion de sites d'information et d'équipe dans l'univers des médias en ligne et du marketing des solutions innovantes.