Face aux plateformes, il faut un véritable droit social de l’algorithme
Pour la première fois, un rapport public prend la mesure de la transformation du travail par les plateformes numériques d’emploi et appelle un modèle social plus protecteur pour leurs travailleurs. Parmi les mesures à prendre, il nous semble en particulier essentiel de mettre en place un véritable « droit social de l’algorithme ».
Par Florian Forestier, directeur des études, #Leplusimportant, Odile Chagny et Franck Bonot, co-animateurs du réseau Sharers & Workers, Jérémie Giniaux-Kats, avocat à la Cour.
Florian Forestier, Odile Chagny et Franck Bonot sont co-auteurs avec Mathias Dufour du livre Désubériser, reprendre le contrôle, Faubourg, 2020, 128p, 12,90€.
Leurs travailleurs y étant considérés comme des « indépendants », prestataires de services, il n’y a aujourd’hui au sein des plateformes ni représentation des travailleurs ni dialogue social institué. Les propositions du rapport pour mettre en place – enfin ! – une représentation des travailleurs et un dialogue social formalisé sont particulièrement intéressantes. Le Gouvernement s’est d’ailleurs engagé à les traduire dans la loi dès les prochains mois.
Un « management algorithmique », loin d’être neutre
Le rapport apporte aussi des éléments importants en faveur d’une réglementation plus impérative du travail des plateformes, en particulier en recommandant d’introduire un tarif minimum, d’encadrement du temps de travail, d’étendre les protections en matière d’accident du travail. Sur la question du statut des travailleurs, dont le caractère « indépendant » est contesté, du fait à la fois de leur situation de dépendance économique et du degré très important de contrôle des plateformes sur leur travail, il écarte à la fois le statu quo, la requalification en salariat et la mise en place d’un tiers statut spécifique. Mais sa proposition de recourir à des « tiers sécurisateurs » comme les coopératives d’activités et d’emploi (CAE) ou les sociétés de portage salarial n’emporte pas, loin de là, l’adhésion des acteurs. Outre que la proposition ne règle pas la question du modèle économique des travailleurs des plateformes, ces dispositifs, conçus à d’autres fins, sont difficiles à adapter au travail des plateformes et risquent d’être détournés, tout particulièrement dans le cas des CAE.
À défaut d’avoir clos le débat sur le statut des travailleurs des plateformes, c’est surtout par sa réflexion en faveur de droits communs pour toutes les formes de travail, et les moyens dont dispose le droit pour sortir de la gouvernance par les nombres que le rapport constitue une pierre angulaire.
De fait, à nos yeux, pour répondre pleinement aux enjeux posés par la digitalisation de l’économie et du travail et « instituer un régime de travail véritablement humain » (selon la formule d’Alain Supiot), il est capital de prendre la mesure de la transformation majeure qu’engendre le management algorithmique et d’apporter des solutions appropriées.
Photo : Arthur Nicholas Orchard / Hans Lucas / Hans Lucas via AFP
Le Bureau international du travail (BIT) distingue cinq éléments constitutifs du management algorithmique : la surveillance constante, l’évaluation permanente des performances, l’application automatique des décisions sans intervention humaine, l’interaction des travailleurs avec un système, la faible transparence des algorithmes. Les algorithmes fonctionnent ainsi comme des « instruments de surveillance qui remplacent l’encadrement direct et créent des asymétries de puissance », comme le note le Centre commun de recherche de la Commission européenne.
Dans le cas des plateformes, ces processus de management algorithmique sont exacerbés, alors même que les travailleurs n’y bénéficient d’aucune des garanties apportées par le droit du travail. Et c’est peut-être aussi du côté des plateformes que des pistes d’action à même de rééquilibrer les droits des travailleurs verront le jour, ne serait-ce qu’en raison du caractère stratégique des données dans le modèle économique de ces acteurs.
La récente décision d’un tribunal de Bologne sur le caractère discriminatoire de l’algorithme de livraison de Deliveroo est en ce sens historique, car elle montre pour la première fois, dans le cadre du travail intermédié par une plateforme, que les algorithmes sont loin d’être neutres et que l’on peut légalement questionner leur fonctionnement. C’est aussi du côté des travailleurs de plateformes, que l’on touche du doigt les difficultés d’actionner les droits d’accès aux données pourtant permis par le RGPD, alors même que ces données sont essentielles pour déterminer le capital réputationnel et immatériel de ces travailleurs et que l’opacité algorithmique constitue le premier obstacle à lever. De premières plaintes ont été déposées devant la CNIL pour manquement au RGPD, et l’on peut s’attendre à ce qu’elles se multiplient.
Prendre d’urgence la mesure des bouleversements en cours
Il est dès lors essentiel, comme le propose le rapport Frouin, que la transparence, la lisibilité et l’évolution des algorithmes deviennent plus systématiquement un des thèmes du dialogue social qui va se mettre en place dans le cadre des plateformes, et d’encourager la formation des acteurs de ce dialogue – tout particulièrement du côté des travailleurs –, aux enjeux de l’IA et des algorithmes, comme le propose le Conseil National du Numérique, et en facilitant aussi leur accès à une expertise, comme le suggère une proposition de loi sur les plateformes déposée au Sénat.
On peut aussi, plus largement, aider les travailleurs à activer les droits que le RGPD leur garantit en principe mais qui, en réalité, sont difficiles à exercer, comme leur droit de ne pas faire l’objet de décisions les affectant fondées exclusivement sur un traitement automatisé. Cela peut passer, comme le permettent d’ailleurs le RGPD et le règlement P2B, par le fait de préciser juridiquement ces droits, par l’élaboration de codes de conduite, l’adoption de conventions collectives, l’extension des obligations qui incombent aux plateformes en matière de transparence, ou encore la résolution des contentieux entre plateformes et instances de contrôle.
Mais il faudra aussi agir en amont en instituant des règles encadrant la conception des algorithmes et plateformes, en particulier pour leur imposer des critères d’accessibilité, d’auditabilité et de préservation des ressources attentionnelles. Ces règles doivent aussi permettre aux différentes parties prenantes d’être associées dès la conception des algorithmes et des plateformes.
«Software is eating the world » (Les logiciels mangent le monde)_. Les bouleversements liés à la gouvernance et au management algorithmiques n’en sont qu’à leurs débuts. Il est urgent et impératif d’en prendre la mesure et, via un véritable droit social de l’algorithme, d’en reprendre le contrôle.
Des contributions pour alimenter le débat, au sein de la gauche ou plus largement, et pour donner de l’écho à des mobilisations. Ces textes ne reflètent pas nécessairement la position de la rédaction.
Chaque jour, Politis donne une voix à celles et ceux qui ne l’ont pas, pour favoriser des prises de conscience politiques et le débat d’idées, par ses enquêtes, reportages et analyses. Parce que chez Politis, on pense que l’émancipation de chacun·e et la vitalité de notre démocratie dépendent (aussi) d’une information libre et indépendante.
Faire Un Don