IGÉSR, Rapport « L’intelligence artificielle dans les établissements scolaires, sur le plan administratif et pédagogique », mai 2025. En ligne sur https://www.education.gouv.fr/l-intelligence-artificielle-dans-les-etablissements-scolaires-450655 ; consulté le 25/11/2025 à 15h20.

Le rapport de l’Inspection générale de l’éducation, du sport et de la recherche (IGÉSR), Intelligence artificielle et établissements scolaires : plan administratif et pédagogique (réf. 24-25-016B), s’inscrit dans un contexte de diffusion rapide des outils d’intelligence artificielle générative (IAG) dans la société et, de façon de plus en plus visible, dans les établissements scolaires. Il vise à dresser un état des lieux des usages de l’IA dans les écoles et établissements, à évaluer les opportunités et les risques, et à formuler des recommandations à la fois administratives et pédagogiques.
Le texte se situe explicitement à l’interface des politiques publiques (pilotage, régulation, sécurité, conformité juridique) et des pratiques de classe (pédagogie, évaluation, formation des personnels, relations éducatives). Il s’adresse donc autant aux équipes de direction, aux corps d’inspection et aux services académiques, qu’aux enseignants et formateurs engagés dans la transformation des pratiques.
Le rapport propose d’abord un état des lieux des usages de l’IA dans les établissements scolaires. Il souligne la grande hétérogénéité des pratiques : d’un côté, des équipes et des enseignants encore peu informés ou méfiants, de l’autre, des pionniers qui expérimentent des usages variés (aide à la préparation de cours, différenciation pédagogique, accompagnement à l’écriture, soutien à l’évaluation formative, etc.).
Cet état des lieux insiste aussi sur la dimension « souterraine » de certains usages : de nombreux élèves recourent à l’IA générative (pour rédiger, traduire, résumer, produire des contenus multimédias), parfois sans en comprendre les limites, et souvent sans que les enseignants soient en mesure d’identifier clairement les apports de l’outil. Ce décalage contribue à ce que le rapport nomme, explicitement ou implicitement, une forme de « spoliation cognitive » : l’élève peut déléguer à l’IA une part décisive du travail de pensée (recherche, structuration, rédaction), au risque de se voir dépossédé de sa propre activité intellectuelle.
Le rapport ne se contente pas de pointer les risques : il s’attache à évaluer les opportunités offertes par l’IA, à condition qu’elles soient intégrées dans un cadre éthique et pédagogique cohérent. Il insiste notamment sur la capacité des outils d’IA :
- à soutenir la différenciation pédagogique (proposer des exercices variés, adapter les supports à des profils d’élèves) ;
- à faciliter certaines tâches de gestion et de préparation (génération de trames, de questions, d’exemples) ;
- à nourrir des pédagogies de projet, à condition qu’elles soient véritablement construites autour d’une démarche collective et réflexive.
Le rapport formule ici une thèse importante : « la question des outils est secondaire par rapport aux questions des usages et aux enjeux éthiques » (p. 25). Autrement dit, ce ne sont ni la puissance technique, ni la nouveauté des dispositifs qui doivent guider l’action éducative, mais les finalités poursuivies, la manière dont les outils sont mis en œuvre, et les valeurs qu’ils servent.
Un apport notable du rapport est de relier explicitement les usages d’IA à la gouvernance pédagogique des établissements. L’IGÉSR invite à inscrire la « place du numérique éducatif et de l’IA dans le projet d’établissement » (p. 8), ce qui revient à :
- articuler les choix technologiques avec les priorités éducatives (réussite de tous, prévention du décrochage, formation du jugement, éducation aux médias et à l’information, etc.) ;
- éviter que l’IA ne soit un « add-on » marginal, ou au contraire une fuite en avant techniciste, détachée des enjeux pédagogiques réels ;
- structurer un dialogue entre direction, équipes pédagogiques, élèves et familles sur les finalités et les limites d’une éducation augmentée par l’IA.
Cette inscription dans le projet d’établissement est cohérente avec une perspective où l’IA n’est pas un simple gadget, mais un facteur de recomposition des pratiques, des représentations du savoir, et de la culture d’établissement.
Le rapport interroge directement les pratiques d’évaluation et la pédagogie, avec un diagnostic fort : l’introduction de l’IA rend caduque une culture trop centrée sur le produit final (copie, dossier, exposé), au détriment du processus d’apprentissage.
Une formule particulièrement significative l’exprime : « l’IA renforce l’importance du processus plutôt que l’évaluation du seul produit final sur lequel porte pourtant l’essentiel de la culture évaluative en éducation » (p. 27).
Autrement dit, si l’on veut éviter la triche assistée par IA, il ne suffit pas de mieux surveiller les copies ; il faut revoir la conception même des tâches, des critères d’évaluation, et de la place donnée au travail en cours (brouillons, étapes, relectures, interactions, oralisation des démarches, etc.).
Le rapport va jusqu’à affirmer que « la priorité donnée à la détection de la fraude occulte la nécessité plus prioritaire de développer une éducation pour une pratique éthique de l’IA » (p. 11). La lutte contre la fraude est certes légitime, mais lorsqu’elle devient l’axe dominant, elle risque :
- d’alimenter une culture de suspicion générale ;
- de réduire l’IA à un ennemi à neutraliser ;
- et surtout d’empêcher de former les élèves à une éthique de l’usage : discernement, vérification des sources, conscience des limites, responsabilité dans la co-production de contenus.
En ce sens, le rapport appelle à une véritable conversion de la culture évaluative, où l’on passerait d’un contrôle du produit à une valorisation du cheminement intellectuel, de la réflexivité et du dialogue critique autour des productions (y compris assistées par IA).
L’un des mérites centraux du rapport est son insistance répétée sur le fait que « la question des outils est secondaire par rapport aux questions des usages et aux enjeux éthiques » (p. 25). Dans un paysage où l’on se focalise volontiers sur la performance des modèles, le type d’algorithme ou la course à l’innovation, cette hiérarchisation est salutaire.
Le rapport insiste en particulier sur la nécessité de :
- former élèves et enseignants à l’analyse critique des réponses de l’IA (fiabilité, hallucinations, biais, stéréotypes…) ;
- développer une culture de responsabilité qui évite la spoliation cognitive, c’est-à-dire l’abandon silencieux du travail intellectuel au profit d’une production immédiate, lisse mais superficielle ;
- penser les outils d’IA comme des médiations et non des substituts, afin de préserver le rôle de la relation éducative et de la construction personnelle du savoir.
Le rapport n’est pas seulement critique : il esquisse des pistes positives. Il souligne que « les outils IA peuvent renforcer la coopération et la cohésion, à condition d’être intégrés à une pédagogie de projet construite autour d’une approche collective » (p. 25).
Autrement dit, l’IA peut devenir :
- un instrument de co-écriture, où l’on discute, commente, corrige ce que propose le modèle ;
- un support de débats interprétatifs (par exemple, confronter les réponses de l’IA à des sources savantes, ou aux propositions des élèves) ;
- un outil pour répartir les tâches dans un projet collectif, en explicitant ce qui relève de l’humain (choix, argumentation, discernement) et ce qui peut être automatisé.
Dans cette perspective, l’IA n’isole pas l’élève derrière son écran, mais devient un objet d’enquête et de discussion, un prétexte à travail coopératif. Elle peut ainsi contribuer à résister à une dissociation sociale que le rapport identifie comme un risque majeur : fragmentation des expériences, isolement des élèves face aux écrans, dilution des liens inter-personnels.
Le rapport emploie l’expression « les relations entre Homme et machine » (p. 17), qui peut être jugée malheureuse. En effet, elle tend à confondre :
- la relation, qui suppose réciprocité, reconnaissance et altérité personnelle ;
- le rapport, qui renvoie à un type de lien fonctionnel, instrumental ou technique ;
- la médiation, qui désigne ce par quoi une relation entre personnes est facilitée, enrichie ou parfois obstruée.
Parler de « relation » entre un sujet humain et un dispositif algorithmique risque d’anthropomorphiser la machine et de minimiser la dimension proprement interpersonnelle de l’éducation. Une formulation plus précise (« rapports homme-machine », « médiations techniques dans les relations éducatives ») aurait permis de clarifier les enjeux, notamment pour un public enseignant déjà confronté aux dérives de la personnification des agents conversationnels.
De même, la formule « L’IA générative n’est fondamentalement pas créative » (p. 21) est problématique à plusieurs titres. On comprend la thèse de fond : l’IA génère du contenu par recombinaison statistique de données préexistantes, sans expérience vécue, sans intentionnalité ni responsabilité. D’un point de vue anthropologique et éthique, on peut donc soutenir qu’elle ne « crée » pas au sens fort (pas de subjectivité, pas de finalité interne, pas de sens assumé à priori).
Cependant, l’énoncé tel quel, sans nuances, prête le flanc à la critique :
- au niveau philosophique, il supposerait une définition très précise et consensuelle de la créativité – ce qui s’avère loin d’être le cas ;
- au niveau didactique, il risque de déstabiliser des enseignants qui constatent empiriquement que les productions de l’IA peuvent être originales, surprenantes, voire heuristiques dans les processus d’apprentissage.
Une formulation plus fine – par exemple en distinguant créativité « forte » (ancrée dans un sujet, une histoire, une responsabilité) et créativité « faible » (variations combinatoires, générativité formelle) – aurait permis de tenir ensemble la critique anthropologique et l’expérience pédagogique des usagers.
Le rapport souligne à plusieurs reprises le risque de « spoliation cognitive » : lorsque l’élève délègue systématiquement les tâches de compréhension, de reformulation et de structuration à l’IA, il se prive de l’exercice même par lequel se forme l’intelligence. L’outil, loin d’être un simple assistant, devient alors un substitut, au risque d’atrophier les capacités d’attention, de mémoire et de jugement.
Ce phénomène s’accompagne d’une possible dissociation sociale : les élèves les plus dotés en capital culturel, accompagnés par des adultes capables de leur apprendre un usage critique de l’IA, peuvent en faire un levier de réussite. À l’inverse, d’autres risquent de se contenter de réponses toutes faites, sans encadrement ni réflexivité, accentuant ainsi les inégalités de réussite et la fracture numérique.
Le rapport conclut – et c’est l’un de ses apports les plus structurants – que « l’IA renforce le besoin d’un lien fort entre école et recherche » (p. 32). Cette affirmation ouvre un horizon de travail qui dépasse largement la simple formation technique des enseignants :
- associer davantage les équipes à des programmes de recherche-action, pour documenter les effets réels des usages d’IA en classe ;
- nourrir la réflexion des établissements par des apports de sciences de l’éducation, de philosophie, de sociologie, de théologie (pour les établissements catholiques), afin d’éclairer les enjeux anthropologiques et éthiques ;
- construire des outils d’analyse et des indicateurs qui ne se limitent pas aux performances, mais intègrent l’impact sur l’attention, la motivation, la qualité des interactions et le sens donné aux apprentissages.
Cette insistance sur le lien école–recherche rejoint l’idée que l’IA n’est pas un « simple » outil, mais un révélateur de tensions profondes de l’école contemporaine : rapport au savoir, culture de l’évaluation, place du numérique, rôle de la communauté éducative.
En définitive, le rapport de l’IGÉSR offre une contribution substantielle et utile à la réflexion institutionnelle et pédagogique sur l’intelligence artificielle en milieu scolaire. On peut résumer ses apports principaux ainsi :
- un état des lieux lucide des usages émergents, des inquiétudes (fraude, plagiat, inégalités, spoliation cognitive) et des attentes des acteurs ;
- une évaluation des opportunités, qui insiste sur la coopération, la pédagogie de projet et la revalorisation des processus d’apprentissage ;
- une interpellation directe des pratiques d’évaluation et, plus largement, de la culture pédagogique dominée par le produit fini ;
- un recentrage éthique affirmant la primauté des usages, des finalités et de la formation au discernement, sur la fascination pour les outils eux-mêmes ;
- une invitation structurante à inscrire la place du numérique éducatif et de l’IA dans le projet d’établissement, et à renforcer le lien entre école et recherche.
Ses limites ne sont pas négligeables : quelques formulations discutables, un certain manque d’exemples disciplinaires fins, et une articulation encore à préciser entre recommandations nationales et marges d’initiative locales.
Mais ces fragilités ne diminuent pas la valeur du rapport comme cadre de travail pour les équipes de direction, les enseignants, les formateurs et les tutelles. Il constitue une base solide pour engager, dans chaque établissement, un travail de discernement et de refonte des pratiques, en refusant à la fois la diabolisation de l’IA et son adoption naïve. En ce sens, il contribue à ce que l’école ne soit ni dépossédée ni dépassée, mais devienne un lieu où l’IA est mise au service d’une véritable croissance humaine, intellectuelle et relationnelle.






Laisser un commentaire