Comment demander aux gens des choses autres que leur santé peut conduire à une meilleure santé
May 10, 2023Les porte-serviettes en papier ont une fonction de stockage secrète, et TikTok est furieux de ne pas le savoir plus tôt
May 09, 2023Trois clés pour célébrer plus efficacement
Apr 22, 202327 offres pour la fête des pères 2023 : achetez des cadeaux pour papa
Sep 09, 2023Pour sauver la nature, concentrez-vous sur les populations, pas sur les espèces
May 18, 2023Les affirmations selon lesquelles l'IA peut stimuler la diversité sur le lieu de travail sont "fausses et dangereuses"
Ces dernières années ont vu l'émergence d'outils d'IA commercialisés comme une réponse au manque de diversité de la main-d'œuvre, de l'utilisation de chatbots et de grattoirs de CV pour aligner les candidats potentiels, jusqu'aux logiciels d'analyse pour les entretiens vidéo.
Ceux qui sont à l'origine de la technologie affirment qu'elle annule les préjugés humains contre le sexe et l'ethnicité lors du recrutement, en utilisant à la place des algorithmes qui lisent le vocabulaire, les modèles de discours et même les micro-expressions faciales pour évaluer d'énormes bassins de candidats à un emploi pour le bon type de personnalité et "l'adéquation à la culture". "
Cependant,dans un nouveau rapport publiéen philosophie et technologie, des chercheurs du Centre d'études sur le genre de Cambridge soutiennent que ces affirmations font que certaines utilisations de l'IA dans l'embauche ne sont guère meilleures qu'une "pseudoscience automatisée" rappelant la physionomie ou la phrénologie : les croyances discréditées selon lesquelles la personnalité peut être déduite des traits du visage et de la forme du crâne .
Ils disent qu'il s'agit d'un exemple dangereux de « technosolutionnisme » : se tourner vers la technologie pour apporter des solutions rapides à des problèmes de discrimination profondément enracinés qui nécessitent des investissements et des changements dans la culture d'entreprise.
En fait, les chercheurs ont travaillé avec une équipe d'étudiants de premier cycle en informatique de Cambridge pour démystifier ces nouvelles techniques d'embauche en créant un outil d'IA calqué sur la technologie.
La "machine à personnalité" démontre comment des changements arbitraires dans l'expression faciale, les vêtements, l'éclairage et l'arrière-plan peuvent donner des lectures de personnalité radicalement différentes - et pourraient donc faire la différence entre le rejet et la progression pour une génération de demandeurs d'emploi en lice pour des postes de diplômés.
L'équipe de Cambridge affirme que l'utilisation de l'IA pour réduire les bassins de candidats peut finalement accroître l'uniformité plutôt que la diversité de la main-d'œuvre, car la technologie est calibrée pour rechercher le "candidat idéal" fantaisiste de l'employeur.
Cela pourrait voir ceux qui ont la formation et les antécédents appropriés "gagner les algorithmes" en reproduisant les comportements que l'IA est programmée pour identifier et en adoptant ces attitudes sur le lieu de travail, selon les chercheurs.
De plus, à mesure que les algorithmes sont perfectionnés à l'aide de données antérieures, ils affirment que les candidats considérés comme les mieux adaptés finiront probablement par être ceux qui ressemblent le plus à la main-d'œuvre actuelle.
"Nous craignons que certains vendeurs emballent des produits" d'huile de serpent "dans un emballage brillant et les vendent à des clients sans méfiance", a déclaré le co-auteur, le Dr Eleanor Drage.
"En prétendant que le racisme, le sexisme et d'autres formes de discrimination peuvent être éliminés du processus d'embauche à l'aide de l'intelligence artificielle, ces entreprises réduisent la race et le sexe à des points de données insignifiants, plutôt qu'à des systèmes de pouvoir qui façonnent notre façon de nous déplacer dans le monde. ."
Les chercheurs soulignent que ces outils de recrutement IA sont souvent propriétaires - ou "boîte noire" - donc leur fonctionnement est un mystère.
"Bien que les entreprises n'agissent peut-être pas de mauvaise foi, il y a peu de responsabilité sur la façon dont ces produits sont construits ou testés", a déclaré Drage. « En tant que telle, cette technologie, et la façon dont elle est commercialisée, pourraient devenir de dangereuses sources de désinformation sur la façon dont le recrutement peut être « impartialisé » et rendu plus équitable. »
Malgré quelques réactions négatives - la proposition de loi sur l'IA de l'UE classe les logiciels de recrutement basés sur l'IA comme "à haut risque", par exemple - les chercheurs affirment que les outils fabriqués par des entreprises telles que Retorio et HIreVue sont déployés avec peu de réglementation, et pointent vers des enquêtes suggérant l'utilisation de l'IA dans l'embauche fait boule de neige.
Une étude de 2020 portant sur 500 organisations de divers secteurs dans cinq pays a révélé que 24 % des entreprises ont mis en œuvre l'IA à des fins de recrutement et 56 % des responsables du recrutement prévoyaient de l'adopter l'année prochaine.
Un autre sondage auprès de 334 dirigeants des ressources humaines, réalisé en avril 2020, alors que la pandémie s'installait, a révélé que 86 % des organisations intégraient de nouvelles technologies virtuelles dans leurs pratiques d'embauche.
"Cette tendance était… déjà en place au début de la pandémie, et le passage accéléré au travail en ligne provoqué par COVID-19 est susceptible de voir un plus grand déploiement d'outils d'IA par les services RH à l'avenir", a déclaré le co-auteur, le Dr Kerry Mackereth, qui présente le podcast Good Robot avec Drage, dans lequel le duo explore l'éthique de la technologie.
Le COVID-19 n'est pas le seul facteur, selon les agents des ressources humaines que les chercheurs ont interrogés. "Le recrutement en volume est de plus en plus intenable pour les équipes de ressources humaines qui recherchent désespérément un logiciel pour réduire les coûts ainsi que le nombre de candidats nécessitant une attention personnelle", a déclaré Mackereth.
Drage et Mackereth disent que de nombreuses entreprises utilisent désormais l'IA pour analyser les vidéos des candidats, interpréter la personnalité en évaluant les régions d'un visage - similaire à l'IA de détection de mensonges - et en notant les "cinq grands" tropes de personnalité : extraversion, amabilité, ouverture d'esprit, conscience, et le névrosisme.
Les étudiants de premier cycle à l'origine de Personality Machine, qui utilise une technique similaire pour exposer ses défauts, affirment que même si leur outil n'aide pas les utilisateurs à battre l'algorithme, il donnera aux demandeurs d'emploi une idée des types d'IA qu'ils pourraient subir, peut-être même à leur insu.
"Trop souvent, le processus d'embauche est oblique et déroutant", a déclaré Euan Ong, l'un des étudiants développeurs. "Nous voulons donner aux gens une démonstration viscérale des types de jugements qui sont désormais portés automatiquement à leur sujet.
"Ces outils sont formés pour prédire la personnalité sur la base de modèles communs dans les images de personnes qu'ils ont déjà vues, et finissent souvent par trouver de fausses corrélations entre la personnalité et des propriétés apparemment sans rapport avec l'image, comme la luminosité. de modèles qui, selon nous, sont utilisés dans la pratique, afin de les expérimenter nous-mêmes », a déclaré Ong.
- Ce communiqué de presse a été initialement publié sur le site Web de l'Université de Cambridge
dans un nouveau rapport publié