Dans un contexte où l’intelligence artificielle s’impose progressivement dans les pratiques professionnelles, la CNAPE publie sa première note de positionnement sur le recours à l’IA en protection de l’enfance. Ce document, fruit d’un groupe de travail lancé en 2025 avec les associations adhérentes, vise à accompagner les professionnels du secteur face à ces transformations profondes.
Un outil prometteur mais non sans risques
L’IA offre des perspectives séduisantes pour améliorer les conditions d’exercice : rédaction assistée, synthèses automatiques, prise de notes par reconnaissance vocale, structuration de l’information… Dans un secteur confronté à une crise d’attractivité majeure, ces outils peuvent apporter un réel soutien aux professionnels.
Toutefois, leur développement rapide soulève des interrogations éthiques et juridiques majeures. Les systèmes d’IA peuvent « halluciner » (inventer des informations fausses mais plausibles), reproduire des biais discriminatoires, ou compromettre la confidentialité des données sensibles. Les expériences internationales nous alertent : au Japon, un système d’évaluation automatisée des signalements a été abandonné suite à un drame révélant une confiance aveugle accordée à l’algorithme.
Un cadre juridique contraignant
Depuis juin 2024, le règlement européen sur l’intelligence artificielle (AI Act) établit des règles strictes pour l’utilisation de l’IA. Ce texte classe les systèmes selon leur niveau de risque et interdit formellement certains usages, notamment les systèmes de notation sociale qui évaluent les personnes selon leur comportement.
Pour les associations de protection de l’enfance, tout système d’IA susceptible d’influencer une décision ayant un effet sur la vie d’un enfant ou d’une famille relève du régime « à haut risque », avec des obligations renforcées de transparence, de traçabilité et de supervision humaine.
Cinq lignes d’action prioritaires
La CNAPE a identifié cinq axes structurants pour un usage responsable de l’IA :
- Respecter les droits des jeunes et de leurs familles : garantir la confidentialité et la sécurité des données personnelles sensibles
- Éviter déshumanisation et standardisation : préserver la singularité des suivis éducatifs et la dimension relationnelle du travail social
- Réduire toutes les inégalités : accompagner l’ensemble des professionnels, au-delà des fractures générationnelles et structurelles
- Encadrer clairement plutôt qu’interdire : former, sensibiliser, produire des référentiels partagés
- S’approprier l’IA plutôt que la subir : éviter la dépendance à des solutions marchandes déconnectées des réalités éducative
Les positions de la CNAPE
Notre fédération affirme trois positions claires :
Un consensus garantissant des valeurs partagées : la CNAPE soutient l’élaboration de référentiels communs, à l’image de la convention professionnelle du travail social en construction avec la DGCS et le LaborIA.
Un recours assumé, maîtrisé et transparent : l’IA ne doit jamais se substituer à la décision humaine. Son usage doit être supervisé, traçable, et les personnes accompagnées doivent en être informées. Les usages « à haut risque » (évaluation sociale, prédiction de comportement) doivent être évités.
Une appropriation volontaire et ambitieuse : sous réserve d’un cadre éthique solide, la CNAPE encourage la mutualisation entre acteurs et le dialogue avec les éditeurs pour coconstruire des solutions pertinentes.
Une démarche collective qui se poursuit
Cette note constitue une première étape. Les prochains mois seront décisifs pour accompagner l’acculturation progressive des associations aux enjeux de l’IA générative. La CNAPE poursuivra ses travaux en 2026 à travers une veille normative, des auditions d’experts et un soutien opérationnel aux associations adhérentes.
Notre conviction : il ne s’agit pas de subir l’IA, mais d’en reprendre la maîtrise, en construisant une gouvernance collective, anticipatrice et responsable.