Dossier du mois de la revue du SNALC Quinzaine universitaire n°1503 du 11 juillet 2025.
Dossier rédigé par Eugénie de ZUTTER, présidente du SNALC de Champagne-Ardenne. Avec les contributions de Pierre VAN OMMESLAEGHE, président du SNALC de Toulouse et Laure BOULARD, trésorière du SNALC de Paris.
Sommaire
L’IA : une amie qui vous veut du bien ?
L’IA est devenue un sujet brûlant en particulier dans l’Éducation nationale. Dans nos métiers, nous sommes en effet de plus en plus sollicités. Les offres de formation et les publicités d’entreprise se multiplient tandis que l’usage de plus en plus généralisé de l’IA par nos élèves nous confronte à des défis inédits.
Contrairement aux autres outils numériques, l’IA porte en elle un potentiel de transformation profonde, tant de notre système éducatif que de nos conditions de travail. Son impact est majeur, que ce soit sur notre rôle en classe, sur le développement des élèves ou sur nos méthodes de travail. À cela s’ajoutent des enjeux économiques, environnementaux et géopolitiques non négligeables.
Les débats sont vifs, mais l’importance du sujet appelle à un dépassement des clivages éculés entre progressistes et réactionnaires.
En tant que syndicat représentatif de l’Éducation nationale, le SNALC entend aborder, sans détour et sans langue de bois, les véritables enjeux de ce sujet à la fois nouveau, complexe et en perpétuelle évolution.
Pour lever toute ambiguïté, précisons que notre réflexion porte exclusivement sur deux aspects : d’une part, l’enseignement par l’IA (et non l’enseignement pour l’IA, qui reste un objectif légitime à certains stades de la scolarité), et d’autre part, l’usage de ces outils par les élèves dans le cadre de leur apprentissage.
L’intelligence artificielle n’est pas intelligente
L’intelligence artificielle (IA) est une technologie informatique qui permet aux machines d’imiter certaines capacités humaines. Fondamentalement, elle fonctionne avec des réseaux de neurones artificiels (qui ne ressemblent aux réseaux de neurones biologiques que de manière très lointaine), entraînés grâce à des données qu’on a bien voulu lui fournir. Cet entraînement se nomme l’apprentissage.
C’est donc bien d’imitation qu’il s’agit : les processus à l’œuvre dans l’IA sont radicalement différents de ceux du cerveau humain et encore très mal connus.
Ainsi à la question suivante posée à ChatGPT, « la façon dont tu réponds aux questions qui te sont posées est-elle une imitation des processus à l’œuvre dans le cerveau humain ? », il répond :

« Ce que je fais : de la prédiction de langage, pas de la pensée. Quand je réponds à une question, je ne comprends pas au sens humain du terme. Je n’ai pas de conscience, pas d’intentions, pas d’expérience vécue. J’analyse le texte que tu m’envoies et je génère une réponse en fonction des modèles de langage que j’ai appris.
Autrement dit, je ne « pense » pas, je simule une réponse plausible en me basant sur des exemples de langage humain. »
La production générée par l’IA est donc une simulation, basée sur des probabilités. L’IA peut générer des hallucinations, c’est-à-dire des résultats plausibles, mais faux. À la question « Qui a inventé le microscope ? », ChatGPT a répondu « Isaac Newton en 1676. » Cette mauvaise réponse s’explique : le lien de Newton, grand scientifique, avec une grande invention est plausible. Et c’est en 1676 que des améliorations du microscope furent réalisées par van Leeuwenhoek. Ajoutons que la question initiale, trop vague, a pu entraîner cette divagation. Enfin, des documents en ligne approximatifs ou des informations erronées ont pu induire l’IA en erreur.
Différents types d’IA
Il existe différents types d’IA.
Il y a les IA « réactives ». Ce sont des algorithmes qui prennent des décisions en fonction de l’environnement et répondent aux réactions humaines. Citons par exemple ce qui est mis en œuvre dans la gestion des adversaires non humains dans les jeux vidéo.
Certaines IA ont de la mémoire. Elles conservent des données pour fonctionner et pour apprendre, de façon limitée. Les assistants vocaux ou la reconnaissance faciale fonctionnent sur ce modèle. Les algorithmes se souviennent de nos questions, de nos choix, de notre physionomie, mais aussi des questions d’autres utilisateurs, ou de leurs choix etc. L’IA est alors capable de répondre ou de reconnaître un visage parmi une multitude d’autres. C’est le fonctionnement des recommandations des plateformes ou des premières applications d’apprentissage des langues. Ces premières IA fonctionnent avec des algorithmes.
Au-delà de la conservation des données, les IA avancées utilisent de grands modèles de langages et passent par une phase d’apprentissage. Les LLM (Large Language Model) sont des algorithmes évolués qui supposent un apprentissage pour être opérationnels. On distingue deux types d’apprentissage : supervisé ou non supervisé. Dans le premier cas, l’IA est guidée par des exemples comme des photos de chats étiquetées « chats », d’autres de chiens étiquetées « chiens ». Après cette phase d’apprentissage, elle est capable de distinguer un chat d’un chien. C’est ainsi que fonctionnent des applis de reconnaissance de plantes.

Dans le deuxième cas, c’est l’IA elle-même qui dégage une conclusion, en passant en revue des millions d’exemples, structures et schémas, ou patterns. Ce modèle d’IA est utilisé dans le domaine médical par exemple, pour aider à la lecture des radiographies ou des échographies. Elles les aident à déceler des tumeurs. Dans le domaine de l’enseignement, des IA savent repérer les fautes d’orthographe, de grammaire ou de style. C’est aussi le fonctionnement des IA conversationnelles que nos élèves utilisent de plus en plus.
Les IA génératives
Ces IA peuvent produire du texte, des images, de la vidéo, ou simuler une conversation. Elles reposent sur des modèles de langages avancés et sont entraînées avec des milliards de textes.
Les requêtes passent par des demandes en langage naturel : des « prompts ». Si on peut converser avec elles en français, il faut garder à l’esprit que leur langue d’origine est l’anglais. Il est donc toujours préférable d’interagir avec elles dans cette langue pour obtenir les meilleurs résultats. ChatGPT est la plus connue de ces IA, mais il en existe d’autres, pour générer des images, des présentations, etc.
Cependant, même si l’IA fait bien illusion (il est probable que bientôt une IA passera avec succès le test de Turing, soit l’impossibilité de distinguer réponse humaine et réponse par l’IA), l’IA ne comprend pas ce que vous lui demandez.
Elle génère une réponse en utilisant les probabilités calculées sur la base des textes avec lesquels elle a été entraînée. Elle propose donc la réponse la plus probable, même si cette probabilité est faible.

Ce qui peut conduire à ce qu’on appelle des hallucinations, c’est-à-dire des réponses fausses ou aberrantes, comme nous l’avons vu précédemment. D’où la nécessité absolue de prendre du recul et de vérifier les réponses obtenues. L’IA peut d’ailleurs remarquer son erreur lorsqu’on la lui fait remarquer et en tenir compte pour les prochaines requêtes !
Le développement de ces IA et leur amélioration permanente et rapide doivent nous inciter – ainsi que nos élèves – à développer d’autant notre esprit critique. Car outre les hallucinations, les IA qui génèrent des textes, des images, des vidéos, de la musique, des paroles avec telle ou telle voix peuvent nous induire en erreur ou être utilisées à mauvais escient pour manipuler et créer ce qu’on appelle des deepfakes.
La puissance des IA génératives a de quoi fasciner et parfois stimuler la créativité. Mais ses dangers sont aussi bien réels. À l’heure de la démocratisation de ces outils, l’Éducation nationale a un rôle majeur à jouer pour développer les connaissances nécessaires à une utilisation raisonnée et au renforcement de l’esprit critique de tous, professeurs comme élèves.
L’IA pour les élèves : outil pour apprendre ou pour ne plus penser ?
L’usage massif de l’intelligence artificielle générative par les élèves pose un problème croissant en généralisant des formes de triche bien plus sophistiquées que le simple copier-coller. Face à ce phénomène, de nombreux enseignants se sentent désarmés, au point de remettre en question l’ensemble des modalités du travail à la maison.
En recourant à l’IA générative pour faire leurs devoirs à la maison, les élèves contournent l’effort d’apprentissage. À brève échéance, ils développent une dépendance à l’outil. À plus long terme, c’est une forme de passivité intellectuelle qui s’installe : leurs compétences cognitives, leur capacité à réfléchir, raisonner et analyser s’érodent peu à peu.
Privés d’exercices cognitifs fondamentaux, ils risquent de perdre l’autonomie intellectuelle que nous sommes censés leur inculquer. Leur esprit critique, leur mémoire, leur aptitude à gérer des tâches complexes s’en trouvent affaiblis. Derrière la facilité apparente offerte par l’IA, se profile donc une véritable menace : celle d’un affaissement progressif de l’intelligence et de l’esprit critique.

Par ailleurs, L’IA risque de créer de nouvelles inégalités entre élèves. D’une part entre ceux qui limiteront leur usage de l’IA – ou en seront tenus éloignés par leurs parents – et ceux qui y auront recours de manière systématique.
D’autre part, entre les élèves d’un bon niveau scolaire qui bénéficieront des apports pédagogiques de l’IA et ceux qui n’auront pas les acquis nécessaires pour dépasser la triche et l’illusion d’une réussite scolaire factice.
On peut se demander, dès lors, à quel stade de la scolarité les bénéfices de l’IA pourraient l’emporter sur ses dangers. Question complexe qu’il faut aborder sans démagogie.
Pour le SNALC, l’élève ne peut se servir intelligemment de l’IA sans une maîtrise suffisante des fondamentaux. Il faut donc dans un premier temps lui apprendre à s’en passer, avant de l’envisager comme un outil pédagogique.
Quoi qu’il en soit, le rôle de l’École devrait protéger, quel que soit le niveau, du recours systématique à l’IA. Les élèves doivent pouvoir utiliser, mais aussi se passer de cet outil pour penser par eux-mêmes.
L’IA en classe : progrès technologique ou recul humaniste ?
L’introduction de l’IA dans les classes est porteuse d’une nouvelle façon d’enseigner et d’un nouveau paradigme éducatif.
En proposant à chaque élève de progresser à son rythme face à un algorithme, l’IA remet en cause le projet anthropologique de l’École en éclatant l’espace collectif de la classe. Or, l’appartenance à un groupe, à une mini-société comportant des règles collectives est profondément structurant. Comment favoriser le vivre-ensemble – si souvent mis en avant – si les élèves sont scotchés côte à côte, les yeux rivés sur leur écran et isolés dans la bulle de leur programme individualisé ? Quels individus préparera-t-on ainsi à la vie en société ?
Du point de vue des professeurs, la perspective n’est pas plus réjouissante. Est-il encore utile de concevoir des cours et de transmettre des savoirs quand il suffit de s’assurer que tous les élèves sont bien connectés au bon algorithme ? Si l’Éducation nationale s’oriente sous couvert de progrès – ce qui ne paraît pas invraisemblable – vers l’achat aux entreprises Edtech de solutions « clés en main » depuis la conception de cours jusqu’à l’évaluation, le métier sera définitivement dénaturé et les professeurs transformés en accompagnants déqualifiés.

Toutefois, gare aux mirages ! Si la correction des copies est devenue laborieuse, c’est principalement à cause des classes surchargées et du manque de maîtrise de la langue française par nos élèves. Il faut donc s’attaquer résolument à ces fléaux, et non pas déléguer à une machine, car c’est le meilleur moyen, même dans la douleur, de connaître les lacunes de nos élèves et de tenter d’y remédier. Quant à la préparation des cours, elle représente le cœur de métier. Aucun professeur passionné par sa discipline ne serait satisfait de la déléguer à une IA, même pour mieux tenir le rythme infernal imposé par l’obligation d’effectuer des heures supplémentaires, l’alourdissement des services, la multiplication des missions annexes et des projets imposés.
Pour le SNALC, l’automatisation des tâches n’est pas la solution. Elle n’est qu’une dépossession de notre expertise et de nos compétences, transférées à des machines. Le SNALC le martèle dans toutes les instances : l’acte d’enseigner, profondément humain, ne saurait être transféré à des machines. Il ne peut être exercé que par des professionnels qualifiés et reconnus.
L’IA ou le mirage de la modernité
D’innombrables acteurs présentent l’intelligence artificielle comme le symbole du progrès et de la modernité. Pourtant, ces affirmations, aussi séduisantes soient-elles, méritent d’être examinées avec prudence. En premier lieu parce qu’elles s’appuient bien souvent sur les discours des seuls acteurs des EdTech, dont les intérêts commerciaux sont évidents. Le SNALC, lui, connaît déjà la chanson : ces mêmes promesses avaient été formulées pour justifier le déploiement du numérique éducatif — avec les résultats que l’on connaît.
Pour promouvoir l’IA, ce sont toujours les mêmes idées qui sont recyclées. Elle serait source de motivation pour les élèves. Or, confondre plaisir instantané et motivation durable est une erreur fréquente. Ces technologies seraient aussi porteuses d’émancipation, de justice, de solidarité. Pour le SNALC, la vraie justice consisterait à garantir l’autonomie intellectuelle de chaque élève en s’appuyant sur des méthodes éprouvées. Quant à l’ennui en classe, plutôt que de l’attribuer au système lui-même, ne faudrait-il pas s’interroger sur l’impact d’un environnement numérique saturé qui affaiblit la capacité d’attention des élèves ? D’ailleurs, un ennui ponctuel peut aussi devenir le terreau de la créativité.

Certains arguments sont vagues voire mensongers :
- « La France est en retard » : mais selon quels critères ? La fréquence d’usage ? Le niveau d’équipement ? Existe-t-il un seuil minimal pour considérer qu’on est « à jour » ? Et qui le fixe ?
- « L’IA, c’est innovant » : les professeurs innovent tous les jours face à des élèves démotivés, une pression parentale croissante, des heures de cours régulièrement sacrifiées par des dispositifs imposés. Pourquoi faudrait-il réinventer sans cesse nos pratiques pédagogiques comme si choisir la stabilité représentait une forme de régression ?
Le SNALC dénonce les discours marketing et les tactiques culpabilisatrices visant à imposer l’IA aux professeurs en discréditant d’avance toute critique. Il appelle à prendre du recul face à ces injonctions afin d’éviter de reproduire avec l’IA les mêmes erreurs qu’avec le numérique éducatif. Céder à la frénésie d’équipement dictée par les promesses des industriels serait vain et irresponsable sans réflexion pédagogique approfondie.
Réguler l’IA : l’illusion d’un cadre
Depuis le mois de janvier, le SNALC était consulté afin d’aider à l’élaboration d’un « cadre d’usage de l’IA dans l’éducation ». D’emblée, ce projet, qui vient de paraître, a soulevé de nombreuses questions.
Les maigres visioconférences organisées par le ministère n’ont pas suffi à traiter les enjeux complexes liés à l’IA. Pire encore, le texte amalgame dans un même cadre les usages par les professeurs, les personnels administratifs et les élèves niant ainsi la spécificité et la diversité des pratiques selon les publics concernés.
Autre problème majeur : l’absence d’une réflexion de fond menée à partir d’études rigoureuses afin de répondre à des questions fondamentales : pourquoi recourir à l’IA ? Qu’attendons-nous de son usage ? Dans quelle direction aller ? Ces questions essentielles ne sont jamais abordées. Le SNALC déplore ce manque d’ambition intellectuelle face aux bouleversements philosophiques et paradigmatiques induits par l’IA. Il regrette aussi l’absence de groupes de travail réunissant chercheurs et enseignants.
La seule préoccupation du ministère semble être de nous « inciter » à intégrer l’IA dans nos pratiques.
Défenseur historique de la liberté pédagogique, le SNALC s’y est opposé et a demandé que soit clairement affirmé le caractère facultatif de son usage. L’IA n’est qu’un outil parmi d’autres et l’enseignant reste libre de sa pédagogie dans le respect des programmes. Personne, pas même l’inspecteur, ne peut lui imposer l’usage de tel ou tel outil, ni l’évaluer au regard de ce critère lors d’un rendez-vous de carrière. Le SNALC a aussi demandé une formation sur les rudiments de l’IA pour tous les professeurs du second degré, des outils efficaces pour détecter les copies « promptées » et surtout la garantie du soutien de l’institution dans les situations de fraude manifeste.

Pour le SNALC, ce cadre manque donc de crédibilité. Encore une fois, l’Éducation nationale fait passer l’effet d’annonce médiatique avant la réflexion de fond. En voulant introduire l’IA à marche forcée sans discernement, l’institution semble prête à céder à une logique plus industrielle que pédagogique.
Développement de l’IA : à quel prix ?
L’IA coûte cher. Même si le Ministère ne fournit guère de chiffres, quelques exemples permettent de se représenter les sommes nécessaires aux investissements envisagés. Ainsi, pour déployer MIA seconde, application numérique de remédiation en français et en mathématiques, le Ministère a signé, en 2023, un contrat d’environ 3 millions d’€ sur trois ans avec l’EdTech Evidence B. Encore ce contrat ne concerne-t-il que quelques académies pilotes.
Par ailleurs, Élisabeth Borne a récemment annoncé le lancement d’un appel à projets à hauteur de 20 millions d’€ pour l’été 2025. Il s’agirait de gratifier généreusement les enseignants dès 2026-2027 d’un outil d’assistance au quotidien. Le Ministère semble donc prêt à investir des sommes considérables dans des expérimentations technologiques pour s’attaquer à l’échec de notre système scolaire. Le SNALC s’interroge : ne devrait-on pas commencer par s’appuyer sur l’expertise des acteurs de terrain ?
Au-delà de l’investissement éducatif prévu, le coût environnemental de l’IA nous fait changer de dimension.

De la fabrication à la distribution en passant par l’utilisation et la maintenance, l’empreinte écologique de l’IA est considérable. L’agence internationale de l’énergie a ainsi calculé que chaque requête sur ChatGPT consomme dix fois plus d’électricité qu’une recherche sur Google. Ce n’est guère étonnant : les centres de données à l’origine des capacités de calcul de l’IA sont extrêmement gourmands en eau et en électricité. Il faut encore ajouter à ce coût considérable les grandes quantités de minerais, de métaux rares et d’hydrocarbures nécessaire. Or, un milliard de requêtes seraient déjà actuellement envoyées chaque jour…
Enfin, le SNALC s’interroge aussi sur le coût géopolitique du déploiement de tels outils dans tout le système scolaire. Faut-il abandonner à des entreprises privées, dont l’objectif est avant tout commercial, des pans entiers de l’éducation et des méthodes d’apprentissage, éléments cruciaux de la souveraineté d’un pays ?