Comment Myers-Briggs et AI sont mal utilisés


Imaginons que vous soyez un chercheur d’emploi qui ait une assez bonne idée de ce que les employeurs veulent entendre. Comme beaucoup d’entreprises ces jours-ci, votre nouveau lieu de travail potentiel vous donnera un test de personnalité dans le cadre du processus de recrutement. Vous prévoyez de donner des réponses qui montrent que vous êtes enthousiaste, un travailleur acharné et une vraie personne.

Ensuite, ils vous placent devant la caméra pendant que vous passez le test verbalement, et vous froncez légèrement les sourcils pendant l’une de vos réponses, et leur programme d’analyse faciale décide que vous êtes «difficile».

Désolé, ensuite s’il vous plaît!

Ce n’est qu’un des nombreux problèmes liés à l’utilisation croissante de l’intelligence artificielle dans l’embauche, affirme le nouveau documentaire «Persona: The Dark Truth Behind Personality Tests», dont la première est diffusée jeudi sur HBO Max.

Le film, du réalisateur Tim Travers Hawkins, commence par les origines du test de personnalité Myers-Briggs Type Indicator. Né au milieu du 20e siècle d’une équipe mère-fille, il trie les gens en fonction de quatre facteurs: introversion / extraversion, sentir / intuition, penser / ressentir et juger / percevoir. Le quiz, qui a un culte semblable à l’astrologie pour ses 16 «types» à quatre lettres, a évolué pour devenir un outil de recrutement utilisé dans toute l’Amérique des entreprises, avec des successeurs tels que les «Big Five», qui mesurent cinq traits de personnalité majeurs: ouverture, conscience, extraversion, gentillesse et névrosisme.

«Persona» soutient que le test écrit contient certains préjugés ancrés; par exemple, la possibilité de discriminer ceux qui ne connaissent pas le type de langage ou de scénarios utilisés dans le test.

Et selon le film, l’intégration de l’intelligence artificielle dans le processus rend les choses encore plus problématiques.

La technologie scanne les candidatures écrites à la recherche de mots signalés et, lorsqu’une entrevue à la caméra est impliquée, filtre les candidats pour les expressions faciales qui pourraient contredire les réponses.

Quatre générations de femmes Briggs Meyers.
Quatre générations de femmes Briggs Meyers.
HBO Max

« [It] fonctionne sur le raisonnement pseudo-scientifique du XIXe siècle selon lequel les émotions et le caractère peuvent être normalisés à partir d’expressions faciales », a déclaré Ifeoma Ajunwa, professeur agrégé de droit et directeur du programme de recherche sur la prise de décision en IA à l’Université de Caroline du Nord. .

Ajunwa, qui apparaît dans le film, dit que le potentiel de partialité est énorme. «Étant donné que les systèmes automatisés sont généralement formés sur des visages et des voix masculines blanches, les expressions faciales ou les tonalités vocales des femmes et des minorités raciales peuvent être mal évaluées. En outre, il y a le problème de confidentialité découlant de la collecte de données biométriques. »

Une société de recrutement largement utilisée, HireVue, analysait «les mouvements du visage, le choix des mots et la voix parlée des candidats avant de les classer par rapport aux autres candidats sur la base d’un score d’ «employabilité» généré automatiquement », a rapporté le Washington Post. La société a depuis arrêté la pratique, a-t-elle annoncé le mois dernier.

Bien qu’ils affirment que «l’analyse visuelle n’apporte plus de valeur ajoutée significative aux évaluations», cette décision fait suite à un tollé suscité par des effets potentiellement dommageables.

Cathy O’Neil est consultante en science des données, auteure de «Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy», et l’un des experts interrogés dans «Persona». Son entreprise, O’Neil Risk Consulting & Algorithmic Auditing (ORCAA), a réalisé un audit des pratiques chez HireVue suite à leur annonce.

«Aucune technologie n’est intrinsèquement nuisible; ce n’est qu’un outil », a-t-elle déclaré au Post par e-mail. «Mais tout comme un couteau tranchant peut être utilisé pour couper du pain ou tuer un homme, la reconnaissance faciale pourrait être utilisée pour nuire à des individus ou à des communautés. . . Cela est particulièrement vrai parce que les gens supposent souvent que la technologie est objective et même parfaite. Si nous avons une foi aveugle en quelque chose de profondément complexe et profondément opaque, c’est toujours une erreur.

Une question typique du test de personnalité Myers-Briggs.
Une question typique du test de personnalité Myers-Briggs.
HBO Max

Il y a eu une série de mesures législatives autour de l’utilisation d’algorithmes faciaux ces dernières années. Mais la ville de New York est la première à présenter un projet de loi qui réglementerait spécifiquement leur utilisation dans le processus de recrutement. Cela obligerait les entreprises à divulguer aux candidats qu’elles utilisent la technologie et à effectuer un audit annuel pour déceler les préjugés.

Tout comme un couteau tranchant peut être utilisé pour couper du pain ou tuer un homme, la reconnaissance faciale pourrait être utilisée pour nuire à des individus ou à des communautés.

Consultante en science des données Cathy O’Neil

Mais Ajunwa pense que cela ne va pas assez loin. C’est «une première étape nécessaire pour préserver les libertés civiles des travailleurs», a-t-elle déclaré. Mais « ce dont nous avons besoin, ce sont des réglementations fédérales qui se rattachent aux lois fédérales anti-discrimination et qui s’appliqueraient dans tous les États, pas seulement à New York. »

Pour ceux qui ont connu Isabel Briggs Myers, voir le test, main dans la main avec l’IA, être utilisé pour déterminer impitoyablement si les gens sont «hirable» semble bien loin de son intention initiale, qui était d’aider les utilisateurs à trouver leurs vrais appels.

Comme le dit l’une des petites-filles de Briggs Myers dans le film, «je pense qu’il y a des façons dont elle voudrait le corriger».

.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*