
Association de défense et de promotion des droits et libertés sur Internet, La Quadrature du Net conteste l’algorithme d’évaluation des risques utilisé par la Caisse nationale d’allocations familiales (CNAF), la branche familiale du système français de protection sociale. 25 organisations ont aujourd’hui rejoint son action. Ensemble, ils demandent l’interdiction de l’algorithme notamment en raison de « la surveillance mise en place et la discrimination perpétrée ». Interview de Bastien Le Querrec, juriste et membre de l’association.
Pouvez-vous retracer l’historique de votre travail sur l’algorithme de la CNAF ?
Bastien Le Querrec : Nous avons commencé à travailler sur la dématérialisation des services publics autour de 2022. Très vite, en échangeant avec des collectifs d’usagers et d’usagères concernés (souvent dans le mauvais sens du terme) nous avons constaté des difficultés récurrentes : absence d’accès à un ordinateur, impossibilité de joindre les services publics, démarches incompréhensibles… Au fil des discussions, un sujet revenait régulièrement : l’existence d’un algorithme utilisé par les caisses d’allocations familiales (CAF).
De quelle manière ce sujet a-t-il émergé ?
B. L. Q. : Au début, cela restait flou mais nous avons eu différents échos provenant de collectifs d’usagers à propos d’un algorithme qui ciblerait toujours les mêmes personnes, notamment les plus précaires. Par exemple, les allocataires du RSA (Revenu de solidarité active) semblaient systématiquement contrôlés ou surcontrôlés. De notre côté, nous avions une expertise technique qui nous a permis de creuser. Rapidement, nous avons trouvé dans la littérature scientifique et sur le site de la CNAF (Caisse nationale d’allocations familiales) des éléments confirmant l’existence d’un algorithme de ciblage des contrôles.
Quels écrits ont confirmé votre hypothèse ?
B. L. Q. : Les travaux du sociologue Vincent Dubois et notamment son étude de 2016 réalisée avec la CNAF, ont été déterminants. Cette enquête montrait déjà quels publics étaient concernés. Nous avions donc un aperçu du fonctionnement, mais nous voulions accéder au code source pour comprendre précisément les critères utilisés.
La CNAF a-t-elle une obligation de transparence sur son code source ?
B. L. Q. : Oui. C’est pour cela que nous avons utilisé la procédure de demande de communication de documents administratifs, plus communément appelée « demande CADA ». Tout citoyen peut en effet demander un document administratif sans justification. Le code source d’un programme utilisé par une administration est en effet considéré comme un document administratif. Nous avons donc demandé à la CNAF le code source de son algorithme. Mais elle a refusé.
Pour quel motif ?
B. L. Q. : En invoquant l’exception liée à la lutte contre la fraude. Selon elle, publier le code compromettrait cette lutte. Nous avons alors saisi la CADA, la Commission d’accès aux documents administratifs chargée de rendre des avis sur la légalité des refus opposés par les administrations aux demandes de communications. Son avis, rendu en décembre 2022, a été décevant. La commission a en effet estimé que la version actuelle du code ne pouvait pas être communiquée. En revanche, que les anciennes versions, elles, devaient l’être. En 2023, la CNAF nous a donc transmis deux anciennes versions (2011 et 2014), tout en caviardant certains critères encore utilisés.
Que vous ont apporté ces informations numériques ?
B. L. Q. : En les analysant, nous avons découvert des critères clairement illégaux : ciblage des allocataires de l’AAH (Allocation aux adultes handicapés), ciblage selon le niveau de revenus… Grâce au code source, nous avons pu faire des simulations. Et les résultats de ces tests montrent que plus un foyer cumule des critères de précarité, plus son score augmente. Nous avons publié nos résultats en novembre 2023. Quelques semaines plus tard, Le Monde a sorti une grande enquête sur le sujet, ce qui massivement médiatisé le sujet.
Concrètement, de quelle façon cet algorithme impacte les personnes ciblées ?
B. L. Q. : L’algorithme attribue une note entre 0 et 1. Cette note se base sur la probabilité qu’une personne soit susceptible d’avoir perçu un indus de 600 euros sur six mois.
C’est-à-dire ?
B. L. Q. : Contrairement à ce que prétend la CNAF, elle ne traque pas la fraude mais les « indus ». Ces trop-perçus proviennent souvent d’erreurs liées à la complexité des règles. L’algorithme apprend alors à repérer statistiquement les profils les plus susceptibles d’avoir ce type d’indu. Résultat : il cible les personnes les plus précaires, car ce sont celles pour lesquelles les règles sont les plus complexes et les risques d’erreur les plus élevés.
Tous les allocataires sont susceptibles de passer au crible de cet algorithme ?
B. L. Q. : En effet, chaque mois, la moitié de la population française, à savoir toutes les personnes vivant dans un foyer allocataire, voit ses données analysées. Une note leur est attribuée. Et les dossiers avec les scores les plus élevés apparaissent dans les listes de chaque CAF.
Que se passe-t-il ensuite pour ceux qui ont les notes les plus élevées ?
B. L. Q. : Les contrôles déclenchés sont presque toujours effectués au domicile des allocataires, de façon intrusive : visites au domicile, enquête de voisinage, et même vérification du nombre de brosses à dents pour en déduire le nombre d’occupants… Beaucoup de personnes parlent de « violence administrative ». S’y ajoutent parfois des suspensions de droits, alors même que le Conseil d’Etat a rappelé que ce n’était pas légal. Et ces suspensions d’allocation peuvent durer plusieurs mois. En 2021, environ 250 000 contrôles ont été réalisés dans ce cadre.
En octobre 2024, vous avez attaqué l’algorithme devant le Conseil d’Etat. Sur quels fondements ?
B. L. Q. : Nous avons deux grands volets d’illégalité. En premier lieu, la violation du RGPD (le règlement général sur la protection des données). Car ces algorithmes relèvent d’une surveillance de masse. Comme je vous le disais, la moitié de la population est analysée chaque mois. Or les données utilisées portent sur l’intimité des personnes (revenus, composition familiale…) et peuvent être des données sensibles (comme le handicap). Le traitement de ces informations est disproportionné : il n’y a aucun ciblage préalable, tout le monde est concerné. Egalement, l’article 22 du RGPD interdit les décisions automatisées ayant un effet significatif sur les personnes. Or même si le score ne déclenche pas directement un contrôle, il détermine la probabilité d’être contrôlé.
Et le second volet ?
B. L. Q. : La discrimination. Nous invoquons en premier lieu la discrimination indirecte. Car même s’il n’utilisait aucun critère explicitement interdit, l’algorithme cible massivement les personnes protégées par la loi (personnes handicapées, familles monoparentales, personnes en situation de précarité…). Mais également la discrimination directe : certains critères utilisés dans les anciennes versions que nous avons obtenues sont explicitement interdits (handicap, vulnérabilité économique, situation familiale…). Nous avons volontairement mis la discrimination indirecte en premier, car elle permet de contester l’algorithme dans son ensemble, même si les critères évoluent.
Que s’est-il passé depuis le dépôt de votre recours ?
B. L. Q. : La CNAF a répondu en février 2025. Le Conseil d’Etat a ensuite sollicité le Défenseur des droits, qui a rendu des observations en octobre 2025. Le Défenseur des droits estime qu’il existe bien une discrimination indirecte : le faisceau d’indices que nous apportons à la justice est suffisant pour que ce soit à la CNAF de démontrer l’absence de discriminations, ce qu’elle n’a pas réussi à démontrer d’après le Défenseur des droits. Depuis fin 2025, dix nouvelles associations ont également rejoint le contentieux. Cela renforce considérablement la portée politique et symbolique du recours. Nous demandons également que l’affaire soit transmise à la Cour de justice de l’Union européenne, car les questions soulevées relèvent du droit européen.

























