Mobley vs Workday : le procès qui met fin à l’excuse “c’est la faute de l’IA et de l’algorithme”
- Admin
- 11 août
- 2 min de lecture
Dernière mise à jour : 16 août

L’IA ne sera pas le bouc émissaire, les entreprises ne pourront plus licencier ou écarter en se cachant derrière un écran de code.
Il y a des affaires judiciaires qui font grand bruit, et puis il y a celles qui redessinent silencieusement les lignes de la responsabilité. Mobley contre Workday appartient à cette seconde catégorie, avec un écho qui dépasse largement les murs du tribunal.
Tout commence avec Derek Mobley, candidat afro-américain de plus de quarante ans, vivant avec de l’anxiété et une dépression.
En février 2023, il attaque Workday, éditeur d’une plateforme de recrutement dopée à l’IA. Selon lui, l’algorithme l’a rejeté plus d’une centaine de fois pour des postes où il était pourtant parfaitement qualifié, simplement parce qu’il ne correspondait pas au profil “optimisé” du système. Derrière cette plainte, c’est toute la façade de “l’IA neutre” qui se fissure.
Workday se défend en affirmant qu’il n’est ni l’employeur, ni une agence de recrutement, mais seulement le fournisseur d’un outil utilisé par d’autres. Pourtant, la juge Rita Lin estime que son rôle pourrait relever de celui “d’agent” de l’employeur. Autrement dit, si le logiciel influence directement la décision d’embauche ou de rejet, l’éditeur pourrait partager la responsabilité légale de toute discrimination. Et ça, c’est un changement de paradigme.
En mai 2025, le dossier prend une ampleur collective : la plainte obtient une certification préliminaire au titre de l’ADEA (loi américaine contre la discrimination liée à l’âge), ouvrant la voie à un recours groupé pour potentiellement des millions de candidats de plus de quarante ans. En juillet, le tribunal élargit encore le champ du procès, incluant les modules d’IA acquis via HiredScore. Workday doit maintenant fournir la liste des clients utilisant ces fonctionnalités. L’étau judiciaire se resserre, étape après étape.
Mais l’essentiel est déjà acté : même sans jugement final, cette affaire a mis fin à un réflexe bien ancré dans le monde professionnel — se défausser sur “l’algorithme”. L’IA ne décide pas de discriminer ; elle exécute des instructions, applique des critères et reproduit des biais. Derrière chaque ligne de code, il y a des choix humains, des arbitrages, et donc une responsabilité humaine.
Ce procès est déjà une fin en soi : la fin d’une ère où l’on pouvait se cacher derrière la machine pour éviter les coups. Les entreprises vont devoir prouver qu’elles supervisent réellement leurs outils et qu’elles ne délèguent pas aveuglément des décisions à une boîte noire algorithmique. Les éditeurs, eux, ne pourront plus prétendre qu’ils ne font que “fournir un service” : concevoir et déployer un logiciel, c’est aussi assumer la responsabilité de son impact.
Qu’importe le verdict futur, Mobley vs Workday restera comme le moment où l’IA a cessé d’être un paratonnerre juridique. La technologie ne sera pas jugée, mais celles et ceux qui l’emploient, oui. Et ça, c’est déjà un tournant historique !























Commentaires