Lors de la conception et le déploiement d’une application pour la gestion digitalisée des talents, que ce soit pour l’aide à la prise de décision assistée par une intelligence artificielle (IA) ou que ce soit pour la création de formulaires auprès des candidats et collaborateurs. Il est impératif de prendre en considération certaines précautions lors de la conception et de l’utilisation de ces applications et des interfaces.
On peut distinguer 10 points de surveillances, les algorithmes qui vont aider à la prise de décisions dont le design d’expérience utilisateur qui servira pour les candidats et collaborateurs à saisir les informations et, pour terminer, l’utilisation des données recueillies.
1- Biais
Les donneurs d’ordre ainsi que les développeurs doivent limiter le champ de leurs applications au strict nécessaire. C’est-à-dire que seules les informations nécessaires au bon fonctionnement de l’application doivent être collectées.
Concernant la partie développement, les développeurs doivent faire attention aux biais cognitifs dans le code source du programme. En effet, le cerveau de l’être humain dispose de biais cognitifs, aux nombres totaux de 250 biais qui sont répartis en 6 catégories. À titre informatif, les 6 catégories de biais sont :
- Les biais intentionnels ;
- Les biais émotionnels ;
- Les biais liés sur la mémoire (biais mnésiques) ;
- Les biais liés à la personnalité (culture, origine, religion) ;
- Les biais de raisonnement ;
- Les biais basés sur la sensori-motricité
source: Distorsions et biais cognitifs : quelles conséquences ? – Peak People
À cela s’ajoute le risque d’implémentation volontaire de biais de discrimination (ethnie, genre, religion…), rien n’empêche les commanditaires de biaiser les résultats en demandant à ce qu’une application (dé) favorise tel ou tel ethnie ou genre.
2- Expérience utilisateur
L’UX Design, à la différence de l’interface utilisateur (UI Design) se concentre sur l’émotion ressentie par la personne qui utilise une application ou un site internet.
En influençant émotionnellement une interface, il est possible que, involontairement ou volontairement, les designers puissent influencer le résultat d’un test des candidats. Cette influence externe est connue sous le nom de « Dark Pattern » ou « Dark UX » (ou interface truquée en français).
Il existe 16 formes de « Dark Pattern » (Source: https://www.deceptive.design/types) :
- Difficulté à comparer (Comparison prevention) ;
- Confirmation de la honte (Confirmshaming) ;
- Annonces déguisées (Disguised ads) ;
- Fausse rareté (Fake scarcity) ;
- Fausse preuve sociale (Fake social proof) ;
- Fausse urgence (Fake urgency) ;
- Action forcée (Forced action) ;
- Annulation difficile (Hard to cancel) ;
- Coûts cachés (Hidden Costs) ;
- Abonnement caché (Hidden subscription) ;
- Lancelé (Nagging) ;
- Obstruction ;
- Présélection (Preselection) ;
- Sournoiserie (Sneaking) ;
- Utilisation de mots piégés (Trick wording) ;
- Interférence visuelle (Visual interference).
3- Utilisation des données personnelles
La collecte de données personnelles dans le cadre de la gestion des talents doit être effectuée de manière transparente et responsable. Il est impératif que les organisations s’engagent à utiliser ces données uniquement dans le but pour lequel elles ont été collectées, tout en respectant la vie privée et les droits des individus.
Cela implique de limiter la collecte de données au strict nécessaire pour atteindre les objectifs définis. Les organisations doivent définir clairement les types de données nécessaires à leurs processus de gestion des talents et s’abstenir de collecter des informations excessives ou non pertinentes.
Les données personnelles des candidats et des employés sont des données sensibles pour toute organisation et doivent par conséquent être traitées avec le plus grand respect de la confidentialité et de la sécurité. Cela comprend la mise en place de mesures de sécurité robustes pour protéger les données contre les accès non autorisés, les fuites ou les violations de la vie privée.
Il est essentiel d’informer les individus de manière claire et transparente sur la manière dont leurs données seront utilisées. Cela implique de fournir des avis de confidentialité complets et facilement accessibles, décrivant les finalités de la collecte de données, les types d’informations collectées, les droits des individus sur leurs données, et les mesures prises pour assurer leur sécurité.
Enfin, les organisations doivent respecter les droits des individus sur leurs données personnelles, y compris leur droit d’accès, de rectification, de suppression et de portabilité.
4. Transparence des Algorithmes
La transparence des algorithmes est un élément essentiel. Les utilisateurs doivent comprendre le fonctionnement des algorithmes qui influencent les décisions. Il est recommandé d’implémenter des mécanismes explicatifs (explainability) permettant d’expliquer clairement comment les décisions sont prises. Cela renforce la confiance des utilisateurs et minimise le risque de perception de décisions arbitraires.
De plus, a montée en puissance de l’intelligence artificielle générative dans la gestion des talents soulève des questions cruciales concernant la transparence et l’éthique.
Garantir la transparence des algorithmes sous IA générative peut être un défi, car ces algorithmes sont souvent complexes et opaques dans leur fonctionnement. Cependant, voici quelques mesures qui peuvent être prises pour favoriser la transparence :
-
Documentation : Fournir une documentation détaillée sur le fonctionnement de l’algorithme, y compris les techniques utilisées, les paramètres ajustables, et les sources de données utilisées pour l’entraînement.
-
Explications : Développer des outils et des techniques pour expliquer les décisions prises par l’algorithme, en mettant en évidence les facteurs clés qui ont influencé les résultats générés.
-
Visualisation : Utiliser des techniques de visualisation pour représenter graphiquement le processus de génération des données, permettant aux utilisateurs de mieux comprendre les modèles et les tendances identifiés par l’algorithme.
-
Testabilité : Mettre en place des mécanismes de test et de validation pour évaluer la performance de l’algorithme dans différents scénarios et conditions, et pour détecter tout comportement indésirable ou biais potentiel.
-
Transparence des données : Fournir un accès transparent aux données utilisées pour entraîner l’algorithme, y compris des informations sur la provenance, la qualité et la pertinence des données.
-
Responsabilité : Définir clairement les responsabilités et les obligations des concepteurs et des utilisateurs de l’algorithme en matière de transparence et d’éthique, et mettre en place des mécanismes de responsabilité pour assurer une utilisation responsable de l’algorithme.
Les organisations doivent veiller à ce que les algorithmes utilisés dans la gestion des talents soient régulièrement évalués et mis à jour pour garantir leur efficacité, leur équité et leur conformité aux normes éthiques et juridiques en vigueur. Cela comprend la mise en place de processus de surveillance continue pour détecter tout problème potentiel et prendre des mesures correctives en temps opportun.
5. Sécurité des Données
La sécurité des données est une préoccupation majeure. Les applications de gestion des talents traitent des informations sensibles. Il est impératif d’adopter des mesures de sécurité robustes pour protéger ces données contre les cybermenaces internes et externes.
Tout d’abord, cela implique de mettre en œuvre des mesures de sécurité techniques telles que le chiffrement des données, l’authentification multi-facteurs, et la surveillance des accès pour protéger les données contre les accès non autorisés. Les données sensibles doivent être stockées de manière sécurisée et accessible uniquement aux personnes autorisées.
Deuxièmement, les organisations doivent adopter des politiques et des procédures strictes en matière de gestion des accès et des autorisations. Cela comprend la limitation de l’accès aux données en fonction du besoin de savoir, la surveillance des activités des utilisateurs, et la révocation rapide des droits d’accès en cas de départ ou de changement de rôle.
Troisièmement, il est essentiel de sensibiliser et de former le personnel à la sécurité des données pour réduire les risques d’incidents liés à une mauvaise utilisation ou à une négligence. Les employés doivent être informés des meilleures pratiques en matière de sécurité des données, des conséquences potentielles des violations de sécurité, et des mesures à prendre en cas d’incident.
6. Adaptabilité et Évolutivité
Les besoins en matière de gestion des talents évoluent avec le temps. Une application doit être conçue de manière à être adaptable et évolutive. Elle doit pouvoir intégrer de nouvelles fonctionnalités, s’ajuster aux changements dans les processus et répondre efficacement aux évolutions et à la législation du marché du travail.
7. Éthique de la Collecte de Données
Il est crucial de définir des pratiques éthiques en matière de collecte de données. Les candidats et collaborateurs doivent être informés de manière transparente sur les types de données collectées, la manière dont elles seront utilisées et la durée de leur conservation. L’obtention du consentement éclairé est une pratique fondamentale pour garantir le respect de la vie privée.
8. Accessibilité
Au-delà des fonctionnalités traditionnelles, une attention particulière doit être accordée à l’accessibilité de l’application.
Ici l’accessibilité regroupe deux notions (la deuxième sera évoquée lors du neuvième point)
Assurer que tous les utilisateurs, indépendamment de leurs capacités physiques ou cognitives, puissent bénéficier pleinement de l’application est un impératif éthique. Cela nécessite une conception axée sur l’accessibilité, intégrant des fonctionnalités telles que la navigation simplifiée, le support pour les technologies d’assistance et la description alternative des médias.
9. Désilotage des données
Le deuxième aspect de l’accessibilité est le désilotage et le partage des données.
Dans de nombreuses organisations, les données sont souvent cloisonnées dans différents départements ou systèmes, ce qui peut entraver la collaboration et la prise de décision holistique en matière de gestion des talents. Le désilotage des données vise à surmonter ces obstacles en permettant un accès transparent et unifié aux informations pertinentes à travers toute l’entreprise. Il est crucial de rendre les informations collectées accessibles à différents départements au sein de l’organisation. Cette transversalité favorise une meilleure collaboration entre les équipes, une compréhension holistique des besoins en gestion des talents et une prise de décision plus éclairée.
Tout d’abord, cela implique de centraliser les données relatives à la gestion des talents dans un système intégré et interconnecté. Les organisations doivent investir dans des solutions technologiques qui permettent de consolider les données provenant de différents départements et systèmes, afin de créer une source unique de vérité pour la gestion des talents.
Le désilotage des données nécessite une collaboration étroite entre les différentes parties prenantes de l’organisation, notamment les équipes RH, les managers et les dirigeants. Il est essentiel de mettre en place des processus et des structures de gouvernance qui favorisent la communication et la collaboration transversales, afin de garantir que les données sont utilisées de manière cohérente et efficace pour prendre des décisions stratégiques en matière de gestion des talents..
Pour le rendre réalisable, le désilotage des données nécessite un engagement continu de la part de la direction et une culture organisationnelle qui valorise la transparence, la collaboration et l’innovation. Les dirigeants doivent jouer un rôle actif dans la promotion d’une approche intégrée de la gestion des talents et dans la création d’un environnement propice à la collaboration et à l’échange d’informations à travers toute l’entreprise.
10. Destruction Éthique des Données
La gestion responsable des données ne se limite pas à leur collecte et leur utilisation, mais englobe également leur destruction éthique une fois qu’elles ne sont plus nécessaires. La destruction des données doit être effectuée de manière réfléchie et conforme aux réglementations en vigueur, telles que le RGPD (Règlement Général sur la Protection des Données). Cela implique non seulement de supprimer les données des systèmes de manière sécurisée, mais aussi de s’assurer qu’elles ne peuvent pas être récupérées ou reconstruites ultérieurement.
De plus, la destruction éthique des données implique également de respecter les droits des individus sur leurs données personnelles. Cela signifie informer les personnes concernées de la destruction imminente de leurs données, leur permettre de faire valoir leurs droits à la portabilité ou à l’effacement, et garantir que la destruction est effectuée de manière à protéger leur vie privée, évitant ainsi toute utilisation abusive des informations collectées ou revente à des tiers pour des enquêtes ou des sondages (commerciales ou scientifiques).
Enfin, il est essentiel de documenter de manière transparente et précise toutes les étapes du processus de destruction des données, y compris les raisons de la destruction, les méthodes utilisées et les mesures de sécurité mises en place. Cette transparence renforce la confiance des parties prenantes et démontre l’engagement de l’organisation envers des pratiques de gestion des données responsables et éthiques.
En résumé, le recours à l’IA pour la gestion des talents nécessite une approche holistique. En plus des aspects techniques, la transparence des algorithmes, la sécurité des données, l’adaptabilité, l’éthique de la collecte de données, la promotion de la diversité, l’accessibilité et la responsabilité sociale sont des éléments essentiels. Cette approche complète garantit non seulement l’efficacité de la mise en oeuvre, la performance, mais également son alignement avec des valeurs éthiques, sa pertinence sociale et son accessibilité à tous les utilisateurs.
Cet article a été écrit par Alexandre Martin et enrichi par Ismaelle Haddouzi