Pour des projets data et IA soucieux du RGPD et d’éthique

LinkedIn
Twitter
Facebook
Pour des projets data et IA soucieux du RGPD et d’éthique

L’engouement des entreprises à l’égard des projets data et IA est là. Mais le RGPD leur impose aussi des obligations et pose des limites quant à l’utilisation des données personnelles. Ethique et responsabilité sociale fixent d’autres limites. Témoignages.

La mise en place en 2018 du Règlement général sur la protection des données a pu susciter de vives inquiétudes au sein des organisations. La perspective d’une amende pouvant atteindre 4% du chiffre d’affaires a nécessairement joué un rôle majeur à cet égard, notamment dans le secteur de l’assurance.

Quelques mois après l’entrée en vigueur du RGPD, la Cnil a d’ailleurs démontré sa volonté de faire respecter ses dispositions par les assureurs. Le 18 octobre, le régulateur rendait ainsi publique la mise en demeure de cinq sociétés des groupes Humanis et Malakoff-Médéric pour détournement de finalité des données des assurés.

Protection des données : Le RGPD a permis de formaliser

Les banques, en raison de la sensibilité des données qu’elles manipulent, se devaient elles aussi d’être vigilantes. Mais pour Jérémie Guez, en charge du datalab de BNP Personal Finance (Cetelm), la prise en compte des questions règlementaires n’a pas attendu mai 2018.

Jérémie Guez, en charge du datalab de BNP Personal Finance (Cetelm).

« Ce genre de sujet autour de la data dans la banque, nous l’étudions et nous y préparons depuis un moment déjà. Le RGPD a permis en quelque sorte de le formaliser. » Il souligne néanmoins que le recours exclusif à un cloud privé permet en partie d’y répondre.

« Nous ne travaillons pas sur le cloud public. Nous disposons d’un cloud privé fourni par la BNP. Nous sommes sur des infrastructures où la donnée est protégée, sécurisée dans nos datacenters (…) La donnée de nos clients est sensible. »

« Le RGPD n’a fait que nous renforcer dans les exigences existantes »

Sensible donc, et sa protection est essentielle à la confiance dont la banque a besoin pour ses activités. « C’est un privilège pour un datascientist d’être dans cet écosystème, mais nous sommes très vigilants car cette donnée est notre pépite » insiste encore Jérémie Guez.

Cynthia Traoré, responsable DataLab pour Swiss Life, fait écho à ces déclarations. « Le RGPD n’a fait que nous renforcer dans les exigences existantes (…) L’avènement du RGPD nous a permis, en tout cas sur la partie datascience et IA, d’intégrer le critère RGPD compliance dans les critères de sélection des cas d’usage. »

Swiss Life : pas de cas d’usage sur des données personnelles

ynthia Traoré, responsable DataLab pour Swiss Life France.

« Dès le départ, nous ne travaillons donc que les use cases sur lesquels il n’y a pas d’utilisation des données personnelles de nos clients. Mais nous le faisions déjà. Le règlement a permis de communiquer fortement en interne » ajoute-elle.

Les assureurs gèrent eux aussi d’importants volumes de données, dont beaucoup sont sensibles au regard de la loi. Pour le directeur du digital de Malakoff Médéric, David Giblas, les principes à appliquer en matière d’IA et d’exploitation des données ne peuvent dès lors se cantonner au seul GDPR :

Des « principes d’éthique très opérationnels »

« Quand vous êtes dans le monde du machine learning, le RGPD c’est bien, mais c’est largement insuffisant. On parle d’algorithmes, plus ou moins transparents, qui apprennent plus ou moins bien. Et les datasets que vous mettez en entrée sont parfois tout à fait structurants dans les biais que peuvent générer ces algorithmes. »

L’assureur santé s’est donc fixé des principes allant au-delà du Règlement, des « principes d’éthique très opérationnels » revendique le CDO. Des règles « extrêmement contraignantes » s’appliquent ainsi dans la conception des algorithmes.

« Les algorithmes doivent être explicables. Ils sont monitorés régulièrement avec nos DPO (data protection officers). Et nous ne faisons pas de prescription automatique. Sur les cas d’usage dits sensibles, il y a toujours un humain qui prend la décision. »

A quand un RGPD de l’algorithme ?

Selon David Giblas, ces règles sont fondamentales car indispensables à la confiance. Pour une IA industrielle en entreprise, « ces notions de confiance, de maîtrise et de contrôle sont essentielles. » Et le dirigeant de se déclarer en faveur « d’un RGPD de l’algorithme. » L’ACPR a d’ailleurs créé un groupe de travail sur les algorithmes.

Aïssa Belaid, responsable Big Data & Analytics pour Engie.

« Il est extrêmement important de définir des règles et bien sûr de se doter de moyens de les contrôler. » D’où, en parallèle, la nécessaire maîtrise de ces technologies ? Aïssa Belaid, responsable Big Data & Analytics pour Engie, pointe ainsi l’importance croissante prise par des fournisseurs cloud comme AWS et Google.

Le chief data officer met en garde contre le risque de voir les datascientists « être dépossédés des projets » et de perdre « la compétence en interne » au profit de l’expertise de sociétés tierces, « alors qu’on sait très bien faire en France. »

A minima une réflexion sur l’impact social des algorithmes

Enfin, la préservation de la confiance et des compétences découle également de la prise de conscience des organisations quant à leur responsabilité sociale. Jérémie Guez insiste notamment sur les biais et les effets sur le marché du travail de l’IA.

Sur ce second point, la BNP a lancé « des programmes d’upskilling (ndlr : montée en compétence) qui permettent de continuer à capitaliser sur des collaborateurs qui connaissent parfaitement notre SI et l’écosystème de l’entreprise. »

Le cadre appelle ainsi à ce que « derrière chaque grand projet d’IA, il y ait a minima une réflexion sur l’impact social que peut avoir un algorithme. » Cynthia Traoré met en avant le « grand travail de Swiss Life sur la formation des collaborateurs, qui doivent évoluer avec les technologies. »  

Responsabilité sociale : des cas d’usage proscrits de fait

Elle le reconnaît, « il y a un compromis permanent à trouver entre le besoin d’automatisation ou de mise en place de l’IA et le bien-être des salariés. Et la formation est fondamentale pour leur permettre de prendre en main l’IA, afin notamment qu’elle soit vue comme un assistant et pas un concurrent. »

David Giblas, directeur du digital de Malakoff Médéric.

Selon David Giblas, les organisations ont en effet un rôle actif à jouer. « La techno ne fera que ce qu’on veut qu’elle fasse. A partir du moment où vous la positionnez comme un levier de valeur au service de la croissance de l’entreprise, des cas d’usage sont de fait proscrits. »

Cela revient ainsi à écarter des usages visant à « supprimer des métiers ». Et le spécialiste du digital d’affirmer que « dans tous les métiers où nous avons travaillé, nous avons libéré du temps pour des tâches à plus forte valeur ajoutée », ce qui peut même déboucher sur un renforcement des équipes.

Il préconise plus largement « de ne pas se mettre en position de subir les technologies, comme pour toute technologie ou progrès (…) C’est à nous d’en faire ce qu’on veut qu’elle soit et de prendre notre responsabilité en tant que dirigeant de positionner l’intelligence artificielle là où on veut qu’elle soit dans l’entreprise. »

A propos de Christophe Auffray 42 Articles
De formation initiale en marketing Web et en économie, je me suis spécialisé par la suite dans la presse B2B consacrée à l'économie numérique et dispose dans ce secteur de 15 ans d'expérience. Spécialiste de la transformation numérique, de l'innovation et des nouveaux business models des entreprises, j'ai développé des compétences dans les domaines du marketing éditorial, de la stratégie éditoriale, de la production de contenus premium et la gestion de sites d'information et d'équipe dans l'univers des médias en ligne et du marketing des solutions innovantes.

Soyez le premier à commenter

Poster un Commentaire

Votre adresse de messagerie ne sera pas publiée.


*