Dans son système de gestion, les caisses d’allocations familiales (CAF) utilisent un algorithme pour trier la liste des personnes susceptibles de faire l’objet de contrôle. Sauf que ce dispositif semble faire face à bien de dénonciations au vu de son caractère jugé discriminatoire, notamment envers la catégorie des précaires.
Les caisses d’allocations familiales (CAF) utilisent un algorithme, un système informatique, à travers lequel sont analysées un certain nombre de données, pour déterminer quels allocataires vont faire l’objet d’un contrôle. Il s’agit, entre autres, de détecter certaines éventuelles erreurs qui auraient été commises sur des déclarations. Mais comme, en pratique, il serait quasiment impossible de procéder au contrôle de tous les bénéficiaires, cet algorithme de Data mining, utilisé depuis 2010, servirait alors à sélectionner les allocataires à qui « un score de risque » est attribué, donc à contrôler.
Un score de risque favorisé par la précarité des allocataires
Présenté pourtant comme « neutre » par la CAF, cet algorithme « ciblerait bien souvent les publics les plus fragiles », note Midi libre. Plus explicitement, « les familles monoparentales sont surreprésentées dans les contrôles. Ces parents isolés subissent 36 % des contrôles à domicile alors qu’ils ne représentent que 16 % des foyers recevant des aides. De plus, deux tiers de ces contrôles visent les foyers les plus précaires », détaille Le Monde dans son enquête.
Plus en détails encore dans ses arguments à faire ressortir cette « discrimination » à l’égard des sujets précaires, la Quadrature du Net met en exergue ces paramètres, qui augmentent le score risque qui appelle à un potentiel contrôle, relevés de la publication du code source, à savoir notamment « le fait de disposer de revenus faibles, le fait d’être au chômage, le fait d’être allocataire du RSA, le fait d’habiter dans un quartier « défavorisé », le fait de consacrer une partie importante de ses revenus à son loyer, le fait de ne pas avoir de travail ou de revenus stables ».
« Comble du cynisme », appuie encore la Quadrature sur son site, « l’algorithme vise délibérément les personnes en situation de handicap : le fait de bénéficier de l’Allocation Adulte Handicapé (AAH) tout en travaillant est un des paramètres impactant le plus fortement, et à la hausse, le score de risque de allocataire ».
L’algorithme est « conforme au droit », se défend la CAF
En guise de réponse, la CAF, qui dément l’utilisation d’un algorithme pour surveiller les allocataires, explique sur X que cet outil informatique est utilisé « pour classer les dossiers portant le plus de risque d’erreurs. Les détecter rapidement, c’est garantir des droits justes des remboursements postérieurs importants ». L’algorithme « ne sert pas seulement contre la fraude. Il permet surtout d’identifier les erreurs, d’ailleurs en défaveur mais aussi en faveur des allocataires : 31% des régularisations post contrôles sont en faveur de l’allocataire qui reçoit un complément financier », se défend encore la CAF qui rappelle, du reste, que l’algorithme « est conforme au droit » et sa confidentialité partielle est entretenue de telle sorte à éviter de « faciliter la fraude de réseaux organisés ».