Nos propositions de loi et de résolution
Maitriser l’organisation algorithmique du travail
Par Pascal Savoldelli / 17 mars 2023L’économie des plateformes numériques connaît une croissance rapide. Aujourd’hui, plus de 28 millions de personnes dans l’Union Européenne travaillent par l’intermédiaire de plateformes de travail numériques, et on estime qu’elles seront 43 millions en 2025. L’expansion croissante de ce modèle économique se répercute également sur les sociétés dans lesquelles les travailleuses et travailleurs sont salarié·es.
EXPOSÉ DES MOTIFS
Amélioration des processus d’organisation du travail, simplification et accélération des moyens d’actions ou encore optimisation de la gestion du personnel... nombreuses sont les entreprises qui ont opté pour une transformation numérique pour leur nouvelle organisation, également appelée « plateformisation ». Celle-ci représente un mouvement qui s’élargit, une nouvelle forme d’organisation des activités économiques, si présente et structurante qu’elle constituerait l’un des principaux traits structurels du capitalisme contemporain. Elle constitue dès lors le coeur du capitalisme de plateforme, dont l’émergence est indissociable du numérique.
Principalement permises par les algorithmes et l’intelligence artificielle, ces transformations engendrent un flou autour de la caractérisation des décisions managériales automatisées, présumées neutres de par l’objectivité des technologies. Or, ces décisions automatisées constituent l’expression numérique d’un pouvoir humain. Elles ont un impact fort sur les éléments essentiels de la relation de travail, et donc la situation juridique des personnes, de leurs droits les plus fondamentaux.
Il convient alors d’assimiler ces décisions automatisées comme élément inhérent au pouvoir de direction, de contrôle de l’employeur. C’est pourquoi les représentant·es du personnel doivent être consulté·es au titre de la bonne marche générale de l’entreprise dès lors qu’un moyen de décision automatisée ou système automatisé d’aide à la décision revêtant un caractère subordonnant et ayant un impact sur les droits des personnes est installé dans l’entreprise.
Le second objet de cette proposition concerne spécifiquement les plateformes numériques de travail. Ce tout nouveau modèle de travail s’accompagne de nouveaux défis, parmi lesquels la juste qualification du statut professionnel des personnes qui travaillent pour une plateforme, ce qui aboutit à un dévoiement du droit du travail et à une protection sociale moins protectrice. En outre, l’utilisation d’algorithmes dans le travail via une plateforme peut soulever des questions de responsabilité et de transparence.
Alors que cette zone d’ombre fait l’objet d’un projet de directive de la Commission européenne, les gouvernements Français s’obstinent à conserver un cadre légal incomplet avec une perception et une définition erronée des plateformes, plus particulièrement celles dites de « mise en relation ». La simple intermédiation invisibilise en effet le pouvoir et ainsi la responsabilité de certaines plateformes qui ont choisi de contrôler, à l’aide d’algorithmes ou de systèmes automatisés, l’activité économique du début à la fin. Cet encadrement ne laisse en réalité souvent aucune marge réelle de manoeuvre au travailleur soi-disant indépendant, le rendant ainsi dépendant de son donneur d’ordre.
C’est la raison pour laquelle une meilleure qualification de la mise en relation doit permettre de clarifier la responsabilité de certaines plateformes et aboutir à la levée de la zone d’ombre relative au véritable statut de certains travailleurs (faussement) indépendants de plateformes, statut inextricablement lié au contrôle qu’une plateforme numérique de travail choisi ou non d’assumer à leur encontre.
La publication de l’enquête conduite par le Consortium international des journalistes d’investigation (ICIJ) et ses partenaires, dont la cellule investigation de Radio France permet de comprendre comment la multinationale des VTC (Uber) a influé dans les gouvernements du monde entier et en particulier en France avec l’ancien conseiller et ministre Emmanuel Macron qui a relayé les exigences des clusters internationaux de la finance pour faciliter le développement d’Uber en France au détriment de toutes nos règles, tous nos acquis sociaux et contre les droits des travailleuses et des travailleurs. Face à cette dérégulation du droit du travail, il est indispensable de rétablir des protections collectives.
La présente proposition de loi tente de répondre à ces enjeux en définissant juridiquement l’algorithme d’une part, en renforçant les prérogatives d’information et de contrôle des comités sociaux et économiques (CSE) d’autre part et enfin en légiférant sur le cas particulier des plateformes de mise en relation.
I. Définir juridiquement l’algorithme comme un pouvoir de direction et de contrôle d’un employeur ayant un impact sur les salarié·es
La recherche d’une définition légale adaptée aux algorithmes et décision automatisées devient de plus en plus fondamentale, comme le relève justement la mission d’information sénatoriale « L’Ubérisation de la société : quel impact des plateformes numériques sur les métiers et l’emploi ? ». Le rapport issu de cette mission d’information suggère en effet, dans sa proposition n°9 : « d’engager une réflexion pour adapter le droit du travail aux spécificités du management algorithmique et à ses conséquences sur les conditions de travail. ».
La délégation de l’employeur de son pouvoir de direction, de contrôle ne doit pas altérer son caractère décisionnel, ici automatisé et donc souvent invisibilisé. Défini comme élément d’un service économiquement et juridiquement organisé, la collectivité de travail devra alors nécessairement se voir attribuer des contre-pouvoirs et des moyens d’actions lorsque l’algorithme ou toute autre forme de décision automatisée franchit la ligne rouge.
Alors que l’algorithme est devenu le contremaître des temps modernes, il s’agit de rattacher la décision algorithmique à l’ordre patronal. Contrairement au discours patronal, l’algorithme n’est pas neutre, il traduit une décision d’un employeur. La neutralité supposée de la décision automatisée conforte les employeurs dans une forme d’impartialité qui n’est qu’illusoire voire mensongère. L’algorithme a été mis en place par des informaticiens auxquels ont été imposés des critères et des objectifs.
En s’intéressant à la situation des livreurs, les juges ont retenu que la plateforme avait un pouvoir à la fois économique et juridique sur les livreurs, ceux-ci n’étant pas autonomes parce qu’ils ne jouissaient pas de la possibilité de contredire les sanctions prises à leurs égards, notamment les « déconnexions » ou encore de la possibilité de négocier leur contrat. C’est ici que l’ordre patronal injustifiable et exercé algorithmiquement devient brutal.
La mise en oeuvre en amont des principes de loyauté et de transparence à des décisions automatisées permettrait d’abord d’assurer une conformité au Règlement Général sur la Protection des Données (RGPD) mais surtout, elle permettrait d’encadrer des situations engendrées par des algorithmes complexes, c’est-à-dire ceux dit « auto-apprenants ». Ces algorithmes disposant de leurs propres critères de fonctionnement peuvent acquérir une autonomie croissante, la machine étant capable d’apprendre par elle-même, le mode de fonctionnement de l’algorithme devient difficilement explicable1(*).
Le danger se pose ainsi pour une personne discriminée mais aussi pour le recruteur dans l’incapacité d’expliquer les critères de choix de la machine. Or, ceci serait contraire aux droits et libertés fondamentales ainsi qu’à la fondamentale obligation d’exécuter le contrat de bonne foi, comme le prévoit l’article L.1222-1 du Code du travail. La bonne foi se définit comme une règle de conduite qui exige des sujets de droit une loyauté et une honnêteté exclusives de toute intention malveillante. C’est l’expression de la loyauté dans les relations contractuelles.
La loyauté signifie donc la transparence et la sincérité mais également le respect des droits fondamentaux de la personne. Ces deux principes doivent donc guider l’utilisation des décisions automatisées. La bonne foi offre ainsi un fondement légal à la loyauté, qui doit déjà s’appliquer en droit du travail à tout ce qui concerne la collecte des données personnelles des personnes.
Le code du travail prévoit par exemple que : « le candidat à un emploi est expressément informé, préalablement à leur mise en oeuvre, des méthodes et techniques d’aide au recrutement utilisées à son égard » (article L.1221-8), que : « aucune information concernant personnellement un candidat à un emploi ne peut être collectée par un dispositif qui n’a pas été porté préalablement à sa connaissance » (article L.1221-9) ; ou encore que : « le salarié est informé, préalablement à leur mise en oeuvre, des méthodes et techniques d’évaluation professionnelles mises en oeuvre à son égard » (article L.1223-3) et enfin que : « aucune information concernant personnellement un salarié ne peut être collectée par un dispositif qui n’a été porté préalablement à sa disposition » (article L.1222-4).
II. Renforcer les prérogatives du Comité Social et Économique aux décisions algorithmiques des entreprises
Comme en ce qui concerne la partie précédente, la présente proposition de loi reprend ici la proposition n°11 de la mission d’information sénatoriale « L’Ubérisation de la société : quel impact des plateformes numériques sur les métiers et l’emploi ? ». Cette proposition vise à : « garantir aux représentants des travailleurs des plateformes un droit de se faire communiquer un document compréhensible et actualisé détaillant les logiques de fonctionnement des algorithmes. ». Dans le même esprit, la proposition n°13 recommandait de : « consulter les comités économiques et sociaux sur l’introduction, l’utilisation et la modification des algorithmes et outils d’intelligence artificielle dans les entreprises et leur permettre de bénéficier de l’assistance d’un expert indépendant et externe à l’entreprise. ».
Le comité social et économique (CSE) de l’entreprise semble effectivement être l’instance représentative du personnel la mieux placée pour se saisir des questions de décisions automatisées. Le code du travail lui accorde des prérogatives d’information et de consultation qui se renforcent lorsque l’entreprise dépasse les 50, voire les 300 salarié·es.
D’une part, selon l’article L.2312-8 et suivant du code du travail : le CSE peut conduire des analyses des risques professionnels, des conditions de travail, des traitements automatisés de gestion du personnel.
D’autre part, selon l’article L.2312-17 du code du travail : le CSE doit être consulté sur les orientations stratégiques, la situation économique et la politique sociale de l’entreprise. La décision algorithmique ou automatisée est susceptible d’intervenir dans chacun de ces trois points. Les consultations sur les orientations stratégiques de l’entreprise portent en effet sur « l’activité, l’emploi, l’évolution des métiers et des compétences, l’organisation du travail »2(*). Les algorithmes entrainent déjà des effets sur l’emploi, en supprimant et en remplaçant des tâches par des « machines », en transformant de nombreux métiers et en créant de nouveaux emplois qui exigent d’acquérir de nouvelles compétences.
Par ailleurs, selon l’article L.2312-25, cette consultation doit porter sur la « politique de recherche et de développement technologique de l’entreprise ». La consultation sur la situation économique et financière de l’entreprise concerne donc également l’intelligence artificielle et les algorithmes. Enfin, la consultation du CSE concernant « la politique sociale de l’entreprise, les conditions de travail et l’emploi3(*) » vise également l’évolution de l’emploi, les qualifications et les actions de formation.
À cette occasion, les représentant·es du personnel peuvent aborder les effets sur le travail et en particulier sur les conditions de travail des technologies telles que les algorithmes. Le CSE doit alors pouvoir mesurer et vérifier les impacts négatifs d’une décision automatisée sur l’aménagement du temps de travail, voire sur la durée de travail, et apprécier les moyens de prévention en matière de santé et de sécurité mises en place par l’employeur pour y faire face. Il doit d’ailleurs également souligner les effets positifs de l’intelligence artificielle sur la qualité de vie au travail4(*).
En outre, l’article L.2312-8 du code du travail prévoit que le CSE doit être « informé et consulté sur les questions intéressant l’organisation, la gestion et la marche générale de l’entreprise ». Concrètement, il devra être sollicité dès lors qu’un projet important entraîne des effets concrets ou prévisibles sur le volume et la structure des effectifs ou sur les conditions d’emploi et de travail. Dans cette consultation sur la marche générale de l’entreprise, l’article dispose que le CSE est informé et consulté lors de l’introduction de nouvelles technologies et de tout aménagement important modifiant les conditions de santé et de sécurité ou conditions de travail. La formule « nouvelles technologies » devant être entendue largement comme renvoyant à tout système d’automatisation, d’informatisation et de robotisation, ce qui inclut incontestablement les algorithmes et l’intelligence artificielle.
Ces sujets doivent donc se retrouver au coeur des consultations sur les orientations stratégiques puisqu’ils permettent d’anticiper des évolutions susceptibles d’impacter l’entreprise.
De manière très concrète, les représentant·es du personnel peuvent constater ou être alertés sur un dispositif algorithmique portant atteinte aux droits des personnes ou aux libertés individuelles dans l’entreprise, via l’utilisation de données non déclarées dans la fiche ou le registre de traitement. Ils peuvent dès lors déclencher le droit d’alerte prévu à l’article L.2312-59 du code du travail.
Pour autant, une décision comprend toujours une part de subjectivité, même lorsqu’elle est automatisée. Elle est même encore plus dangereuse puisqu’ elle peut reproduire certains comportements discriminants dans une opacité la plus totale. Il subsiste donc un risque de standardisation de critères de gestion du personnel mais également un risque de discrimination si l’on intègre dans un algorithme le sexe, l’âge ou encore le lieu de résidence.
Ainsi, une décision automatisée peut entraîner une mise à l’écart systématique de certains profils en raison des motifs précités, et constituer une discrimination5(*). Pour rappel, la loi de 2008 portant diverses dispositions d’adaptation au droit communautaire dans le domaine de la lutte contre les discriminations considère que : « une discrimination indirecte une disposition, un critère ou une pratique neutre en apparence, mais susceptible d’entraîner, pour l’un des motifs mentionnés au premier alinéa, un désavantage particulier pour des personnes par rapport à d’autres personnes, à moins que cette disposition, ce critère ou cette pratique ne soit objectivement justifié par un but légitime et que les moyens pour réaliser ce but ne soient nécessaires et appropriés ».
III. Intégrer dans le droit du travail la jurisprudence de la Cour de cassation écartant la fausse mise en relation dès lors qu’une plateforme contrôle les éléments essentiels de la relation de travail.
Concernant les plateformes de mise en relation, le droit français souffre d’une mauvaise définition légale qui trouve son origine dans la loi du 8 août 2016 (dite loi « El Khomri »), transposée à l’article L.7342-1 du Code du travail. Cet article dispose que des plateformes qui « déterminent les caractéristiques de la prestation de service fournie ou du bien vendu et fixent son prix » se voient assorties d’une responsabilité sociale. Or ces plateformes ont parfois recours à des travailleurs indépendants. Priver ces travailleuses et ces travailleurs de la faculté de fixer ou négocier le prix et de la détermination des caractéristiques de la prestation est d’abord une atteinte à la liberté d’entreprendre mais surtout au droit des contrats.
Lors des décisions Uber de la Cour de cassation et Deliveroo récemment, mais surtout lors de l’arrêt de la CJUE Elite Taxi, la question du rôle et de la nature de la plateforme a été questionné : véritable mise en relation ou transport ? Service ? Il ressort de cette décision qu’en s’auto-qualifiant de « plateforme de mise en relation », certains opérateurs ont tenté de masquer un pouvoir et un contrôle total sur les travailleurs, afin de s’affranchir de nombreuses réglementations.
Or, le fait de fixer le prix et de déterminer les caractéristiques de la prestation ou du service rendu octroie un contrôle total des éléments essentiels de la relation de travail et ainsi une position dominante à la plateforme qui organise véritablement un travail et une activité. Ce service organisé par algorithmes ou système automatisé, la place dans un rôle qui va bien au-delà de la simple mise en relation.
Si la jurisprudence écarte désormais la qualification de plateforme de mise en relation au profit de la reconnaissance du statut de salarié·es des travailleuses et des travailleurs des plateformes, il demeure la nécessité de légiférer et d’encadrer ce statut.
L’article 1er définit juridiquement l’algorithme comme un pouvoir de direction et de contrôle d’un employeur ayant un impact sur les salariés et crée une obligation d’information des membres du Comité social et Économique de son contenu.
L’article 2 prévoit l’obligation pour l’employeur de démontrer que l’algorithme n’est pas source de discrimination.
L’article 3 concernant le cas particulier des plateformes, précise qu’une plateforme ne peut être définit comme de mise en relation dès lors qu’elle encadre juridiquement et économiquement son activité, notamment par algorithme ou toute autre forme de décision automatisée.