Les demandeurs d’emploi dont les candidatures sont rapidement rejetées expriment leur frustration alors que les experts mettent en garde contre les risques discriminatoires liés à un recours excessif à l’IA pour l’embauche.
Dans un article publié sur LinkedIn la semaine dernière, Leighan Morrell, professionnelle des ressources humaines de Victoria, a déclaré qu’après avoir été rejetée dans les deux heures suivant sa candidature à un emploi, elle soupçonnait l’entreprise impliquée d’utiliser l’IA dans son processus d’embauche.
« Je suis absolument choquée et déconcertée », a-t-elle déclaré. « J’ai postulé pour le poste aujourd’hui à 13h13, il est maintenant 15h17 et je viens d’être rejeté du poste. Comment un recruteur peut-il examiner ma candidature avec toutes les autres et me rejeter dans les deux heures ? »
Morrell a déclaré que son expérience correspondait « parfaitement » à la description de poste et qu’il était évident que l’entreprise utilisait l’IA.
« En fait, j’ai plus d’expérience que ce que le poste exigeait », a-t-elle déclaré dans le message. « Je pense qu’il m’a fallu plus de temps pour rédiger la candidature que pour qu’ils me rejettent. C’est mon nouveau record de rejet, auparavant c’était cinq heures. »
Les entreprises s’appuient de plus en plus sur l’IA tout au long du processus de recrutement, depuis la numérisation et la sélection des CV jusqu’à la conduite d’entretiens par chat et vidéo à sens unique.
Sapia, une plateforme d’entretiens IA de longue date, a mené 9 millions d’entretiens IA pour des clients tels que Qantas, Woolworths, Bunnings et d’autres grands employeurs. Il affirme que sa plateforme d’entretien améliore l’expérience des équipes de recrutement et des recrues potentielles, avec un taux de satisfaction de 95 % parmi les demandeurs d’emploi.
Les personnes interrogées discutent par SMS avec un agent IA, qui fournit des détails sur l’entreprise et le poste, décrit comment les données du chat seront utilisées, met en garde contre la copie ou la génération de texte et pose cinq questions, telles que « décrivez une fois où vous avez surmonté un défi » ou « où vous voyez-vous dans cinq ans ? – que la personne interrogée soit incitée à répondre en utilisant 50 à 100 mots sans limite de temps.
La fondatrice de Sapia, Barb Hyman, affirme que les résultats de la plateforme sont plus équitables car elle ne capture pas d’informations démographiques telles que l’âge, le sexe ou l’apparence, mais s’appuie uniquement sur les réponses lors des entretiens.
« Lors du recrutement, en particulier en cas de recrutement à volume élevé, il existe une énorme quantité de préjugés », dit-elle. « Sapia est fondée sur l’équité. Tout le monde obtient un entretien, chacun peut partager son histoire, avec ses mots et à son rythme. Il n’y a pas de données personnelles. C’est une manière véritablement aveugle et juste d’évaluer quelqu’un. »
Sarah McCann-Bartlett, directrice générale de l’Australian HR Institute, a déclaré que si certains candidats étaient frustrés par l’utilisation croissante de l’IA par les employeurs et par l’exclusion, elle était également utilisée à dessein par les entreprises cherchant à réduire les préjugés.
« Il est intéressant de noter que certains employeurs suppriment désormais les informations personnelles des CV et des candidatures, en utilisant l’IA, afin que ceux qui prennent la décision ne fassent pas preuve de préjugés inconscients basés sur le sexe, le lieu de résidence du candidat, son âge ou son origine ethnique », dit-elle.
Cependant, Hyman reconnaît que même si Sapia compte des clients « très matures » qui comprennent très bien comment prendre des décisions responsables grâce à l’IA, nombre d’entre eux sont encore novices dans cette technologie.
«Je dirais que 90 pour cent du marché se contente d’acheter sans nécessairement ce niveau de contrôle», dit-elle.
La secrétaire nationale du Syndicat australien des services, Emeline Gaske, affirme que les travailleurs sont profondément préoccupés par le rôle d’AI dans le processus d’embauche, pour de bonnes raisons.
« Nous savons que les algorithmes sont truffés de préjugés et de préjugés. C’est pourquoi nous avons besoin du jugement humain, et pas seulement des machines qui prennent les décisions de recrutement. »
Connie Zheng, professeure agrégée en gestion des ressources humaines à l’Université d’Adélaïde, qui a étudié l’utilisation de l’IA dans le recrutement, affirme qu’il existe toujours un besoin évident de surveillance humaine et de garde-fous juridiques.
« Nous avons constaté que les directives organisationnelles et les exigences légales telles que les politiques de ressources humaines non discriminatoires sont plus efficaces (que l’IA) pour améliorer la diversité et l’inclusion », dit-elle, tout en ayant des responsables RH conscients de la diversité. « Nous avons constaté que l’IA ne faisait pas beaucoup de différence. »
Une étude menée par Natalie Sheard, avocate à l’Université de Melbourne, a révélé que les employeurs utilisant des systèmes de recrutement par IA pour sélectionner et présélectionner les candidats risquaient de se livrer à une « discrimination facilitée par un algorithme ».
Les données limitées utilisées pour former ces systèmes peuvent consolider les formes traditionnelles de discrimination en ne reflétant pas la diversité de la population, dit-elle, tout en créant de nouvelles formes de discrimination et en ouvrant la voie à une discrimination intentionnelle. Sheard affirme que la discrimination facilitée par les algorithmes est particulièrement problématique, car les prédictions et les résultats générés par ces systèmes sont souvent difficiles à contester et les processus qu’ils utilisent ont tendance à être opaques.
Le gouvernement fédéral a promis 30 millions de dollars pour créer un institut de sécurité de l’IA visant à surveiller, tester et partager des informations sur les utilisations, les risques et les dommages émergents de l’IA, et a présenté en décembre un plan national sur l’IA établissant des garde-fous volontaires pour l’adoption de l’IA générative.
Cependant, Sheard affirme que le gouvernement doit revoir et réformer les lois sur la discrimination afin de protéger adéquatement les demandeurs d’emploi.
« Si nous ne voulons pas que les groupes défavorisés soient soumis à une discrimination facilitée par des algorithmes, nous devons prendre des mesures urgentes », a-t-elle déclaré.