Nous publions dans notre rubrique En revue, ce très bon, et glaçant, article de la Quadrature du Net qui analyse les effets de la dématérialisation des services publics. Le gouvernement renforce le contrôle social sur les demandeurs d’emploi via la collecte des données personnelles et opère un chantage aux allocations dans le cadre de la loi fort cyniquement nommée « pour la liberté de choisir son avenir professionnel ».
Alors qu’Emmanuel Macron veut « accélérer » la radiation des demandeurs d’emploi, Pôle emploi vient de franchir un cap dans la marche forcée vers la dématérialisation et le contrôle numérique des personnes privées d’emploi. Un travailleur sans emploi s’est vu récemment notifier sa radiation au motif que l’envoi de ses candidatures par courrier recommandé, plutôt que par internet, ne permettait pas de constater le « caractère sérieux des démarches […] entreprises pour retrouver un emploi ».
Cette situation matérialise la volonté de Pôle emploi de forcer, quoi qu’il en coûte, les personnes sans emploi à l’utilisation d’outils numériques. Une radiation ayant pour effet la suspension du versement des allocations chômage, il s’agit ici d’un véritable chantage à la survie dans lequel Pôle emploi s’est lancé dans le seul but d’accélérer la dématérialisation de ses services. Ce faisant, Pôle emploi ignore volontairement les études et rapports montrant que les politiques de dématérialisation représentent un obstacle à l’accès au service public pour les personnes les plus précaires et participent ainsi à leur marginalisation.
À l’heure où les administrations françaises sont fortement encouragées à mettre en place des algorithmes assignant à chacun.e un « score de risque », tel que celui utilisé aujourd’hui par les CAF pour sélectionner les personnes à contrôler, les politiques de dématérialisation s’accompagnent d’un risque de renforcement de contrôle social via la collecte toujours plus fine de données personnelles.
Chantage à la dématérialisation
La lecture des courriers échangés entre ce travailleur privé d’emploi et Pôle Emploi est édifiante. Après avoir reçu un courrier d’« avertissement avant sanction pour insuffisance d’actions en vue de retrouver un emploi », le travailleur transmet à Pôle emploi les justificatifs de ses 29 candidatures envoyées par courrier recommandé.
À la réception de ces documents, le directeur de l’agence maintient sa décision de radiation et la justifie en des termes kafkaïens. Selon lui, « la fourniture de très nombreuses candidatures adressées en recommandé par voie postale » ne démontre pas une véritable recherche d’emploi dès lors que l’utilisation de courriers recommandés ne correspond plus aux « standards adoptés par les entreprises depuis de nombreuses années »1.
Au recours opposé, le directeur persiste quant à « l’absence de caractère sérieux des démarches […] entreprises », au motif que le travailleur « ne permet pas de justifier de l’impossibilité d’utiliser les modes de communication dématérialisés (téléphone portable, e-mail, ordinateur) » recommandés par l’institution afin « d’optimiser les chances de recrutement » et confirme la suspension des allocations pour une période d’un mois.
Dématérialisation et inégalités
Le chantage aux allocations mis en place par Pôle emploi pour accélérer le processus de dématérialisation est d’autant plus violent que ses dirigeant·es ne peuvent ignorer les inégalités de maîtrise et d’accès aux outils numériques. Personnes précaires, âgées, handicapées, étrangères, détenues, vivant en zone blanche : autant de publics pour lesquels la numérisation augmente les difficultés d’accès au service public.
Pour ces publics, la généralisation de la dématérialisation se traduit par une charge administrative supplémentaire accentuant leur exclusion sociale. Témoins de ces difficultés, les réclamations liées à la dématérialisation constituent un des premiers motifs de saisine du Défenseur des droits. Dans un rapport publié en 2019, ce dernier interpelle vivement les politiques sur les risques associés à une dématérialisation forcée et rappelle que « si une seule personne devait être privée de ses droits du fait de la dématérialisation d’un service public, ce serait un échec pour notre démocratie et l’état de droit ».
Il semblerait qu’à Pôle emploi ce document n’ait pas été lu, malgré les déclarations de bonne foi de son directeur général, Jean Bassère, selon lequel Pôle emploi doit « tirer parti des avancées technologiques, en veillant à ne laisser personne au bord de la route ».
Vers une dématérialisation généralisée ?
La situation décrite plus haut laisse pourtant présager de nombreux cas similaires à l’heure où Pôle emploi expérimente un « Journal de la recherche d’emploi » en Bourgogne-Franche-Comté et Centre-Val-de-Loire. Ce programme, créé en 2018 par la loi « pour la liberté de choisir son avenir professionnel », oblige tout·e demandeur·se d’emploi à déclarer en ligne ses « démarches de recherche d’emploi », et ce, une fois par mois.
Cette expérimentation vise à évaluer la possibilité de généraliser à l’ensemble du territoire l’obligation de déclaration numérique pour les chômeurs et chômeuses. Étant donné les injonctions à la rationalisation financière et la priorité politique donnée à la transformation numérique dans le plan « Action Publique 2022 » d’Emmanuel Macron, le risque est grand que Pôle emploi accepte les conséquences sociales nocives d’un tel changement et force à la dématérialisation d’un nombre croissant de ses activités d’ici quelques années.
Dématérialisation et contrôle social
Les politiques de dématérialisation comportent un risque important de renforcement du contrôle social, tout particulièrement des publics les plus précaires(6), via une collecte toujours plus importante de données sur les usagers·ères du service public et le recours grandissant à l’intelligence artificielle.
À une question posée par une sénatrice sur les risques d’utilisation du « Journal de la recherche d’emploi » à des fins de contrôle, notre ancienne ministre du Travail a indiqué que les données collectées par cet outil généreront des « alertes » qui seront « adressées aux conseillers » de manière à « analyser les situations de décrochage ». Elle ajoute que les conseillers pourront alors « initier une demande de contrôle auprès des conseillers dédiés en charge du contrôle ». Si elle assure qu’aucun contrôle ne sera déclenché de manière entièrement automatisé, il n’en reste pas moins que ces politiques conduisent à une utilisation accrue d’outils numériques pour détecter les « mauvais.e.s » chômeurs.ses.
Le projet de loi précise que ce journal a pour objectif de « repérer les demandeurs d’emploi qui seraient en difficulté dans leur recherche d’emploi ou ne feraient pas de démarches suffisamment actives de recherche d’emploi ». Il est ailleurs fait part d’un algorithme de Machine Learning2 utilisant les donnes collectées via le journal afin de mieux « détecter l’évolution de la situation » des travailleurs sans emploi3.
Les politiques de dématérialisation peuvent aussi servir à obstruer volontairement l’accès aux services de l’État, comme en témoigne le Défenseur des droits(7) lorsqu’il décrit comment certaines préfectures poussent les étrangers·ères vers l’illégalité en bloquant volontairement les demandes de prise de rendez-vous en ligne pour la demande ou le renouvellement de titres de séjours, qui constitue pourtant la seule procédure autorisée dans 30 préfectures en 2019.
Contrôle social et accès aux données personnelles
Un outil tel que le « Journal de la recherche d’emploi » est finalement à apprécier dans un contexte de développement sans précédent des politiques numériques de contrôle social depuis les années 2010. Porté par un discours néolibéral mortifère de « lutte contre l’assistanat », en vogue en cette période électorale, le renforcement institutionnel des politiques de contrôle s’est accompagné d’un accroissement du volume de données collectées sur les allocataires de prestations sociales. Ceci a été accompli via l’interconnexion de fichiers administratifs ainsi que via l’extension du droit de communication pour les agent.e.s en charge du contrôle. C’est en 2013 qu’ont été créés les premiers postes d’agent.e.s dédiés spécifiquement au contrôle à Pôle emploi.
Pôle emploi peut ainsi consulter différents fichiers détenus par des organismes sociaux incluant le fichier des prestations sociales (RNCPS), le fichier national des comptes bancaires (FICOBA) ou encore le fichier des résident.e.s étrangers.ères en France (AGDREF).
Depuis décembre 2020, les agent.e.s de contrôle de Pôle emploi disposent par ailleurs d’un droit de communication les habilitant à obtenir des informations auprès de tiers. À ce titre, ils/elles peuvent accéder aux relevés bancaires, demander des informations personnelles aux employeurs.ses ou aux fournisseur.se.s de gaz et d’électricité.
Cette évolution concerne l’ensemble des organismes sociaux, et en particulier les CAF dont les droits d’accès sont encore plus étendus tant au niveau des fichiers consultables que du droit de communication.
Scoring et surveillance algorithmique
En parallèle de l’extension du droit d’accès aux données personnelles, s’est développée l’utilisation par les organismes sociaux d’algorithmes de “scoring”4 à des fins de contrôle dont les effets (déshumanisation, harcèlement, difficultés de recours et renforcement des discriminations) sont régulièrement dénoncés. Ces algorithmes assignent à chaque allocataire un “score de risque”, c’est à dire une probabilité d’être “fraudeur.se”, servant par la suite à sélectionner qui doit être contrôlé.e.
L’utilisation à grande échelle des techniques de scoring a été initiée par les CAF en 2011 et serait actuellement en développement à Pôle emploi5. Dans un livre passionnant intitulé Contrôler les assistés, Vincent Dubois étudie l’impact de ces techniques sur la pratique du contrôle par les CAF(8). Il montre, chiffres à l’appui, que l’introduction du score de risque s’est accompagnée d’un sur-contrôle des populations les plus précaires, en particulier des familles monoparentales (femmes isolées principalement), des personnes à faibles revenus, au chômage ou allocataires de minima sociaux.
S’il n’est pas possible aujourd’hui de donner une liste exhaustive des variables utilisées pour le calcul du score de risque, Vincent Dubois cite : le montant des revenus, la situation professionnelle personnelle et celle de son ou sa conjoint.e, la situation familiale (en couple, seul.e, nombre d’enfants, âge des enfants), le mode de versement des prestations sociales (virement bancaire ou non) ou encore le mode de contact avec les CAF (le fait d’appeler ou de se rendre sur place)(9). La Cour des comptes ajoute que sont prises en compte les variables suivantes : la nationalité de l’allocataire regroupé en trois catégories (france, UE et hors UE), le code postal ainsi que les caractéristiques socio-économiques de la commune de résidence (part des actif.ve.s occupé.es, part d’allocataires à bas revenus…).
En plus des populations évoquées ci-avant, le simple fait que de telles variables aient été retenues laisse imaginer que le score de risque est plus élevé, et ainsi la probabilité d’être contrôlée, pour une personne étrangère ou pour les habitant.e.s des quartiers que pour le reste de la population.
Vincent Dubois montre finalement que dans leur très grande majorité, les sanctions prises dans le cadre d’un contrôle sont dues à de simples erreurs de déclarations, erreurs elles-mêmes favorisées par la complexité des règles de calcul des minima sociaux… C’est dans ce cadre qu’il apparaît légitime de parler de véritables politiques numériques de harcèlement social, d’autant plus insupportables que les personnes les plus riches font l’objet d’un traitement bien plus favorables de la part des autorités. Rappelons notamment que l’État français a, sur la même période, favorisé le règlement « à l’amiable » des contentieux fiscaux(10). Et ce, alors que les estimations disponibles montrent que la fraude aux prestations sociales, estimée aux alentours de 2 milliards d’euros, est marginale, en comparaison des 80 à 100 milliards d’euros de pertes dues à la fraude fiscale.
Une question européenne (et des victoires)
Ces questions se posent aussi à l’échelle européenne, à l’heure où le règlement IA est en cours de discussion. Outre les aspects sécuritaires, que nous discutions ici et ici, ce règlement ouvre aussi la porte au développement généralisé de tels systèmes(11).
Mais l’expérience européenne offre aussi des perspectives. Aux Pays-Bas, un système de lutte contre la fraude sociale a été déclaré illégal en 2020, après avoir été attaqué par un groupe d’associations. En Pologne, c’est un algorithme utilisé sur les personnes sans emploi qui a été déclaré inconstitutionnel en 2019. À chaque fois, les risques de discriminations, les difficultés de recours ou l’atteinte disproportionnée à la vie privée ont été dénoncées et reconnues.
Appel à témoignages
C’est dans ce cadre qu’un appel à témoignages est lancé en partenariat avec plusieurs organisations auprès de celles et ceux ayant fait l’objet d’un contrôle Pôle Emploi ou CAF ou auprès des agent·es du service public qui en ont été témoins. Nous espérons que vos témoignages nous aideront à mieux comprendre les politiques de contrôle et les algorithmes utilisés, et à documenter les pratiques abusives et discriminatoires. Sur ces sujets, la mobilisation n’en est qu’à ses débuts, et nous comptons nous y associer !
Source La Quadrature du net
Références
(6) Voir par exemple l’article d’Olivier Tesquet Comment l’intelligence artificielle cible les plus précaires https://www.telerama.fr/debats-reportages/comment-lintelligence-artificielle-cible-les-plus-precaires-6984905.php, ou encore les travaux de Lucie Inland https://algorithmwatch.org/en/robo-debt-france/.
(7) Voir les travaux de la Cimade « Dématérialisation des demandes de titre de séjour » https://www.lacimade.org/dematerialisation-des-demandes-de-titre-de-sejour-de-quoi-parle-t-on/ et ceux du Gisti.
(8) Vincent Dubois, 2021, Contrôler les assistés. Genèses et usage d’un mot d’ordre.
(9) Voir Vincent Dubois, Morgane Paris et Pierre-Edouard Weil, 2018, Des chiffres et des droits.
(10) Sur ce sujet, voir Alexis Spire, Faibles et puissants face à l’impôt, 2012.
(11) Voir le rapport d’Human Rights Watch QA: how the EU’s flawed artifical intelligence regulation endangers the social safety net. https://www.hrw.org/news/2021/11/10/how-eus-flawed-artificial-intelligence-regulation-endangers-social-safety-net
Voir le rapport de la cour des comptes « La lutte contre les fraudes aux prestations sociales » pp. 49-57.
Notes:
- Ce point est d’autant plus édifiant que le travailleur en question avait déjà été contrôlé en 2017 et qu’à cette date le fait qu’il candidate par courrier était accepté par Pôle Emploi.
- Machine Learning ou Apprentissage automatique : rencontre des statistiques avec la puissance de calcul disponible aujourd’hui (mémoire, processeurs, cartes graphiques) qui conduit à la production de données massives de différentes formes et types, à des rythmes sans cesse en augmentation : le Big Data.
- On sait également que Pôle Emploi avance vers l’automatisation de l’accompagnement des demandeurs d’emploi avec le projet « Mon Assistant Personnel », un outil fondé sur des techniques d’intelligence artificielle et qui, selon des témoignages que nous avons pu recueillir, aurait octroyé à des utilisateurs·ices un score d’employabilité de zéro.
- Notation en fonction de différents critères.
- Si nous ne connaissons pas aujourd’hui de manière précise la façon dont les données collectées par le « journal de la recherche d’emploi » seront utilisées, la convention tripartite État-Unédic-Pôle emploi 2019-2022 évoque leur utilisation dans le cadre de solutions d’intelligence artificielle « d’accompagnement ».