Cadre d’usage sur l’Intelligence artificielle

L’intelligence artificielle est l’un des axes forts du ministère de l’Éducation Nationale pour cette rentrée 2025. La ministre a annoncé des investissements, des formations et aussi la mise en place effective d’une charte censée fournir un cadre pour les usages de ce qui est présenté comme une innovation incontournable. Partant du constat d’une explosion des usages de l’IA dans le secteur de l’éducation, ce texte entend poser un cadre éthique et juridique, mesure en effet indispensable. SUD éducation propose une analyse de ce cadre d’usage de l’IA dans l’éducation.

Un texte adopté dans la précipitation

Le cadre d’usage de l’IA en éducation a été publié le 14 juin 2025 pour une application dès la rentrée de septembre. Élisabeth Borne avait annoncé la parution de ce texte quelques mois plus tôt, en février 2025, en amont du sommet de l’IA qui se tenait à Paris. C’est à cette occasion, par voie de presse, que les organisations syndicales avaient été informées de la préparation de ce texte. La publication de ce cadre d’usage de l’IA en éducation a été précédée, en amont, d’une phase de consultation des organisations syndicales qui ont été réunies à deux reprises, dans la précipitation. Cette consultation a été insuffisante et incomplète, elle n’a pas permis une véritable concertation.

Un cadre d’usage est en préparation pour les services ressources humaines. Sa préparation se déroule dans les mêmes conditions dommageables aux échanges et à la réflexion nécessaire. Deux réunions ont eu lieu, une pour les personnels de l’EN, une autre pour les personnels de l’ESR, à partir du même texte, sans prise en compte des spécificités de ces deux périmètres. La consultation est bâclée, comme elle l’a été pour le cadre d’usage de l’IA en éducation.

Pour ce dernier texte, à la demande des organisations syndicales, le texte a fait l’objet d’une présentation en conseil supérieur de l’éducation juste avant sa publication. Il n’a pas été soumis à un vote, alors que les organisations syndicales en avaient unanimement fait la requête.

Entre l’annonce du texte et sa publication, il s’est écoulé à peine 4 mois, ce qui n’a pas permis d’ouvrir les discussions nécessaires sur un domaine pour lequel nous manquons encore de recul et de connaissances maîtrisées.

SUD éducation déplore notamment qu’aucun bilan n’ait été dressé et présenté des expérimentations faites des usages de l’IA en enseignement (notamment la plateforme MIA seconde). Un bilan de ces expérimentations aurait été nécessaire pour mener les discussions autour du cadre d’usage.


Certes, le texte publié a retenu certaines mises en garde pointées par les organisations syndicales lors des réunions de consultation, a intégré des points de vigilance qui faisaient défaut aux versions antérieures. Pour autant, le texte publié présente encore des insuffisances et ne répond pas à toutes les questions que pose l’IA dans nos métiers, à toutes les difficultés que soulève cette technologie pour les personnels et pour les élèves.

 

Une prise en compte insuffisante des risques liés à l’IA

Par rapport au projet de texte soumis aux organisations syndicales pendant la phase de consultation, la version finale du cadre d’usage opère un rééquilibrage entre les « potentialités » qu’offre l’IA et les risques qu’elle présente dans le secteur de l’éducation. C’était une demande impérative des organisations syndicales, face à un projet de texte très complaisant à l’égard de l’IA, accompagnant son usage plus qu’il ne posait des freins.

Contrairement aux documents de travail, la version publiée du texte note que « dans le domaine éducatif, l’usage de l’IA soulève en premier lieu la question de son impact sur les processus de construction cognitive, le développement des capacités intellectuelles et relationnelles des élèves, ainsi que sur leur formation à la citoyenneté ». Si l’introduction de ces impacts majeurs de l’IA peut être considérée comme une avancée, les conséquences à en tirer, les précautions à prendre s’avèrent trop floues, en-deçà des enjeux.

SUD éducation s’inquiète notamment des usages de l’IA pour les décisions ayant un impact sur l’évaluation des apprentissages, les parcours des élèves, les parcours professionnels. Ces usages concernent par exemple l’orientation des élèves et les mutations des personnels. Les usages de l’IA à ces fins sont définis, par le règlement européen, comme étant à haut risque. La version finale du cadre d’usage, tenant compte des mises en garde des organisations syndicales, a introduit la nécessité d’une « supervision humaine » pour tous ces usages à haut risque de l’IA. Cette garantie reste cependant insuffisante. SUD éducation demande une meilleure prise en compte des hauts risques que présente cette utilisation de l’IA et s’oppose au recours à cette technologie en la matière. En conformité avec la réglementation européenne, le cadre d’usage aurait dû prohiber le recours à l’IA sur ces situations à haut risque.

 

Biais sexistes, racistes, validistes et coût écologique : des risques minorés


Le cadre d’usage s’efforce, certes, de prendre en considération les impacts environnementaux de l’IA, indiquant que son usage ne doit se faire que si aucune autre solution moins coûteuse écologiquement ne répond au besoin. Toutefois cette recommandation s’avère insuffisante, les alternatives à l’IA ne faisant pas l’objet d’une présentation. Elle entre par ailleurs en contradiction avec les plans développés et les projets lancés. SUD éducation revendique que l’administration communique des bilans carbone pour chaque utilisation de l’IA, en y ajoutant l’ensemble des données liées à la consommation énergétique et à l’impact environnemental (notamment la consommation d’eau et à l’extraction de minerais dûes à l’utilisation de l’IA). SUD éducation dénonce le concept d’ « usage frugal » de l’IA, véritable contradiction dans les termes : l’IA, quelle qu’elle soit, a un coût environnemental très lourd, mesuré d’un point de vue scientifique. 

De la même manière, les biais racistes, sexistes, validistes que comporte l’IA sont traités de manière trop rapide et expéditive par le cadre d’usage : aucune garantie n’est donnée pour se prémunir des discriminations véhiculées par l’IA.

Formations sur l’IA : un cadre insuffisant qui n’est pas à la hauteur des enjeux

Le texte publié autorise la manipulation de l’IA, sous accompagnement, à partir de la classe de 4e (les documents de travail le proposaient même dès la 5e) et prévoit, suivant les annonces de la ministre, une formation obligatoire pour les élèves de 4e, de 2nde et de première année de CAP. Ces formations s’opéreront sur la plateforme Pix. Pour SUD éducation, cette modalité de formation n’est pas satisfaisante et n’est pas adaptée aux enjeux de l’IA qui nécessitent un accompagnement sur du long terme par des enseignant·es ayant reçu elles-mêmes et eux-mêmes une formation.

Sur la question de la formation des personnels, le cadre d’usage s’avère trop imprécis et n’engage pas suffisamment l’institution. La version finale du texte rend obligatoire la formation des enseignant·es, contrairement aux versions antérieures qui se contentaient d’inciter à la formation. Rien n’est précisé cependant concernant les modalités et le contenu de cette formation. SUD éducation exige des garanties sur ce point : les formations proposées ne sauraient prendre la forme de webinaires hors temps de travail, elles doivent répondre aux besoins des personnels, traiter des usages de l’IA, mais surtout de ses principes de fonctionnement et des risques qu’elle présente. Ces formations ne doivent pas imposer l’usage de l’IA ni même inciter à sa pratique en classe, comme c’est trop souvent le cas d’après les retours que nous font les collègues à qui de telles formations ont été dispensées.

IA et conditions de travail : la santé et la sécurité des agent·es négligées

La question de la santé des agent·es, des conséquences de l’introduction des usages de l’IA sur leurs conditions de travail n’est pas abordée par le texte présenté. C’est une grande lacune de ce cadre d’usage. Or, l’introduction de l’IA modifie notablement l’organisation du travail et dégrade les services rendus.

Les retours et enquêtes syndicales dans d’autres secteurs professionnels et d’autres administrations (centres d’appel, DGFIP) montrent que l’IA ne permet pas les gains de temps promis, qu’elle produit un stress important, qu’elle conduit à une perte de compétences définies par les études scientifiques comme un délestage cognitif.

Dans l’éducation nationale, les agent·es des services administratifs sont particulièrement concerné·es par ces impacts de l’IA sur leur santé et leur condition de travail. Le personnel qui accompagne les élèves les subit également.

La réflexion menée sur l’IA doit impérativement recourir à l’expertise d’ergonomes, à celle de la médecine du travail. Le cadre d’usage publié fait l’impasse sur cet aspect.

Compte tenu des conséquences sur les conditions de travail et des risques professionnels induits, SUD éducation exige que tout plan visant à introduire l’IA soit traité en F3SCT, et que les usages de l’IA fassent l’objet d’inscriptions dans les DUERP.

 

Les revendications de SUD éducation

SUD éducation revendique :

– le respect de la liberté pédagogique : l'IA ne doit pas être imposée aux personnels ni par les corps d'inspection ni par les établissements ; 

– des formations à destination des personnels qui en éprouvent le besoin, sur les usages de l'IA, mais aussi sur les principes de fonctionnement et les dangers. Ces formations doivent se tenir en présentiel, et non sous forme de webinaires en soirée ou hors temps de travail ;

– la préservation du service public d’éducation face aux intérêts économiques : engagée contre la marchandisation de l'éducation, la fédération SUD éducation refuse le déploiement de l'IA dans le service public d'éducation nationale comme débouché commercial des entreprises françaises de la high tech ;

– la protection impérative des données personnelles, ce qui suppose la mise à disposition d'outils contrôlés et sécurisés ;

– la formation des personnels et des élèves au coût environnemental du numérique, et en particulier à celui de l'IA ;

– un usage raisonné de l'IA se limitant à des utilisations apportant une réelle amélioration sociale ou environnementale ;

– la consultation des F3SCT, ministérielle et académiques, pour chaque projet introduisant l'intelligence artificielle, cette dernière modifiant les conditions de travail et ayant des implications sur la santé et la sécurité au travail ;

– l'inscription des usages de l'IA dans les DUERP, dans la mesure où l'utilisation de l'IA constitue un risque professionnel ;

– la communication par l’administration des bilans de l’impact écologique de chaque utilisation de l'IA, incluant notamment les bilans carbone.