Fraude sociale : avec plus de 30 millions de contrôles par an, la CAF déploie un nouvel algorithme

Publié par Sarah Martin
le 19/01/2026
Fraude sociale : avec plus de 30 millions de contrôles par an, la CAF déploie un nouvel algorithme
Istock
La Cnaf effectue des dizaines de millions de contrôles. Pour tenir compte des récentes réformes, un nouvel algorithme fondé sur le datamining est déployé depuis début janvier.

Ce jeudi 15 janvier, la Caisse nationale des allocations familiales (CNAF) a dévoilé son nouvel algorithme de datamining. Un tournant majeur pour les 13,8 millions de foyers allocataires percevant des aides en France. En levant le voile sur ses méthodes de détection, la CNAF entend répondre aux critiques passées sur l'opacité de ses procédures tout en affinant sa lutte contre les erreurs de versement. Cette évolution technique promet de modifier la manière dont les dossiers sont surveillés.

Une transparence inédite sur le ciblage

C'est une petite révolution administrative qui s'opère en coulisses avec la mise en service du DataMiningDonnées Entrantes (DMDE 2026). Jusqu'ici critiquée pour le secret entourant ses méthodes, l'administration a décidé d'officialiser la publication du code source de l'algorithme CAF. Cette ouverture permet désormais de comprendre la logique informatique qui trie les dossiers, répondant ainsi aux exigences de clarté réclamées par plusieurs associations et recours juridiques.

L'ambition affichée n'est pas uniquement répressive : il s'agit d'assurer le versement du bon montant au bon moment. En 2024, l'organisme a versé pas moins de 108,6 milliards d'euros de prestations ; la fiabilité de ce système est donc un enjeu financier colossal pour l'État comme pour les bénéficiaires.

Des critères discriminatoires strictement bannis

Si le terme "algorithme" peut effrayer, la réalité chiffrée invite à la mesure concernant le DMDE 2026 et son impact sur les allocataires. Sur les 31,5 millions de contrôles réalisés l'an passé, le datamining (ciblage par analyse de données) ne représente qu'une infime fraction, inférieure à 1 %. L'immense majorité des vérifications (92 %) s'effectue de manière automatisée via des échanges de données avec d'autres organismes comme les impôts ou France Travail.

Vous avez aimé cet article ?

Pour garantir un traitement éthique, des barrières techniques ont été posées. Les critères exclus de l'algorithme de la CAF sont désormais clairement identifiés : la nationalité, le sexe, le nom du quartier ou l'adresse précise ne rentrent pas en ligne de compte

La fin de l'automatisme pour l'allocataire

L'outil se contente d'attribuer un "score de risque d'erreur" à un dossier. Si ce score est élevé, un agent humain prend obligatoirement le relais pour analyser la situation. Cette intervention humaine est la garantie que le juste droit et les contrôles de la CAF restent liés : l'objectif est autant de récupérer des sommes indûment versées que d'identifier des droits oubliés.

En pratique, si votre dossier est signalé, cela ne signifie pas nécessairement que vous êtes un fraudeur. Toutefois, cette détection accrue augmente le risque de trop-perçu suite à un contrôle CAF, notamment pour les situations complexes ou instables. Selon les données de l'organisme, les indus détectés par ce type de ciblage concernent souvent des montants significatifs, dépassant fréquemment les 600 euros sur une période de six mois. La vigilance reste donc de mise lors de vos déclarations trimestrielles.

Google News Voir les commentaires