Le livre blanc du CEMU (Université de Caen Normandie) paru en décembre 2025, propose une photographie structurée des premiers « impacts » de l’IA générative dans l’enseignement supérieur. Il combine ainsi une (re)mise en contexte, des repères de compréhension et des retours d’expérience, tout en s’inscrivant dans une période charnière où les nouveaux usages continuent à se diffuser rapidement, tandis que les cadres pédagogiques, institutionnels et éthiques cherchent encore à se stabiliser.
Le document déroule une progression claire : d’abord, il revient sur la clarification des notions de base (ce que recouvrent les IA génératives, ce qu’elles permettent, ce qu’elles ne garantissent pas, etc.), puis il explore les enjeux pédagogiques qu’elles soulèvent (qualité des productions, risques d’erreurs, transformations de l’évaluation, questions de transparence et de responsabilité).
Et au milieu, un aspect très précieux, il donne la parole à des acteurs de terrain à travers une série d’entretiens, qui documentent des pratiques très concrètes : préparation de cours, conception d’exercices, aide à la rédaction, appui technique, mais aussi stratégies de prudence, limites, résistances et dilemmes. Enfin, il partage aussi des cas d’usage concrets au sein de l’Université de Caen Normandie.
Dans cet article, nous nous intéressons précisément à cette dimension des retours d’usages enseignants. Parce qu’ils décrivent des arbitrages réels plutôt que des positions abstraites, ces témoignages sont particulièrement utiles pour nourrir la réflexion collective : ils rendent visibles les compétences qui émergent (pilotage, vérification, scénarisation), les tensions (fiabilité, données, intégrité), et les déplacements possibles (vers une évaluation plus centrée sur les processus d’apprentissage). Autrement dit, ils offrent une matière précieuse pour faire avancer à la fois les pratiques et la recherche sur l’IA en formation.
Une documentation concrète à partir de retours d’usages enseignants
La Partie 3 (pp. 57-83) du livre blanc repose ainsi sur des entretiens menés entre novembre 2024 et janvier 2025, visant à explorer : perceptions, fréquence/nature des usages, modalités d’auto-formation, intégration dans la préparation/animation, effets pédagogiques, obstacles, ajustements, intentions futures et perception étudiante.
Alors bien sûr, on ne va pas sortir des graphiques et des tableaux statistiques à outrance sur une dizaine de personnes enseignantes qui s’ouvrent et partagent librement leurs pratiques (pour cela, il faudrait plus d’enquêtes massives et régulières), ni faire de généralisation abusive sur des tendances qui devraient cependant faire écho à bien d’autres observations de terrain ; mais à toutes fins utiles, nous allons ici nous intéresser au pourquoi et comment, ces retours sont utiles et nécessaires pour continuer à faire avancer les choses.
Du point de vue recherche sur la formation, ce genre de matériau est précieux car il capture l’activité “en train de se faire” : pas seulement des opinions, mais des arbitrages concrets, des tactiques, des compromis éthiques, et des reconfigurations (évaluation, posture, relation aux étudiants).
Une typologie d’appropriation : du “non-usage” à l’intégration avancée
Le non-usage : pas de rejet idéologique “pur”, mais une évaluation coût/bénéfice
Certains retours décrivent une non-utilisation fondée sur :
- un coût d’entrée (temps à formuler des requêtes) jugé supérieur au gain ;
- une défiance vis-à-vis de la fiabilité, notamment lorsque l’on attend des sorties “calculées”/justes (et non simplement plausibles) ;
- une conclusion pragmatique : “ça ne m’aide pas dans mes tâches”.
🧐 Intérêt pour la recherche :
Ces non-usages sont des données majeures. Ils évitent le biais “early adopters only” et aident à modéliser les conditions minimales d’utilité (quand l’IAg1 est perçue comme gain vs friction), selon disciplines, tâches et modes de preuve.
L’usage “assistant de préparation” : lutter contre la page blanche, structurer, reformater
Un noyau d’usages revient souvent : l’IAg sert à structurer un cours, proposer un plan, fournir une trame de diaporama, ou transformer un format en un autre (e.g., texte vers tableau), résumer, extraire des éléments pour cibler des questions.
On voit aussi un usage “miroir” : tester ce qu’un étudiant pourrait produire face à une consigne en se mettant “dans la peau” d’un étudiant via le prompt (logique d’anticipation des réponses et difficultés).
🧐 Intérêt pour la recherche :
Cela documente une IAg comme outil d’ingénierie pédagogique (idéation, structuration, variation), pas seulement comme générateur de texte. Cela ouvre des questions testables : la trame IAg change-t-elle la qualité de scénarisation ? la charge de travail ? la diversité des activités proposées ?
L’usage “production + retouche” : gain de temps, mais travail de vérification incompressible
Plusieurs extraits décrivent un gain de temps et de clarté, mais avec une vigilance : risque de dépendance, nécessité d’esprit critique, et besoin de retravailler.
On voit très nettement une norme professionnelle : l’IAg donne une base, l’enseignant assure la qualité, la justesse, l’alignement pédagogique.
🧐 Intérêt pour la recherche :
C’est une piste forte pour étudier le “travail invisible” de l’IA : temps de relecture, corrections, arbitrages, choix de conserver/rejeter. Les retours montrent déjà que le gain n’est pas “automatique”, il dépend d’un savoir-évaluer.
Des cas d’usage très concrets… et donc très “observables”
Génération d’évaluations et d’exercices : le “bon” rendement… à condition de trier !
Un usage récurrent est la génération de QCM (parfois avec export/import vers une plateforme), avec un taux de conservation partiel : on garde une fraction, on jette/ajuste le reste (ambiguïtés, erreurs).
Autre usage : adapter des exercices à un public spécifique / un parcours particulier, ou générer des jeux de données pour l’entraînement (e.g., statistiques).
🧐 Intérêt pour la recherche :
C’est un terrain idéal pour une approche “design-based research” (souvent traduite en ROC par nos amis francophones) : on peut comparer les versions (avant/après IAg), mesurer la charge, la qualité perçue, les effets sur apprentissages. Cela révèle un point clé : l’IAg est très performante pour produire du volume, mais l’expertise humaine reste décisive pour produire du pertinent !
Assistance “technique” (LaTeX, Excel, code) : remplacer la recherche sur forum
Un autre usage décrit : éviter des recherches chronophages et obtenir explications + bouts de code, avec deux stratégies : copier-coller “sans réfléchir” versus analyse critique et restructuration.
🧐 Intérêt pour la recherche :
Ces usages montrent une IAg comme “colleague on demand” (i.e., un collègue sur demande, utile, mais non fiable pour paraphraser Serge Tisseron lors d’une conférence récente de l’ANRT) pour des micro-problèmes techniques. C’est important car ce n’est pas “pédagogique” au sens strict, mais ça reconfigure le temps de préparation (et donc potentiellement du temps libéré pour l’accompagnement étudiant).
Recherche, synthèse, multi-outils : émergence d’un “écosystème” de pratiques
Certains retours décrivent le fait de croiser plusieurs outils (e.g., recherche/sourcing, synthèse, génération pédagogique), et de choisir l’outil selon la tâche. À ce stade, cette combinaison multiples d’outils d’IAg dans l’environnement actuel semble être la manière la plus prolifique d’utiliser ces technologies, à la manière d’un couteau suisse multi-fonction qui facilite des résultats et productions potentiellement plus riches en moins de temps.
🧐 Intérêt pour la recherche :
On sort du débat “pour/contre ChatGPT” pour entrer dans l’étude d’un environnement d’activité : orchestration, chaîne outillée, critères de sélection, compétences associées. Et ça tombe bien, parce que c’est ce dont on a besoin pour développer et déployer des outils souverains qui tentent de répondre à des besoins réels, concrets et issus du terrain.
Éthique, données, transparence : un cœur de tension (et un levier pédagogique ?)
RGPD, souveraineté et retenue : ne pas “alimenter” les IAg avec des productions étudiantes
On trouve ici à nouveau explicitement, derrière le vague de ce que représente le “RGPD” et la “souveraineté”, une précaution : ne pas injecter de travaux personnels d’étudiants dans ces outils, par souci éthique. Faire attention aux données que l’on échange et qui transitent avec des services tiers auxquels on ne peut tout à fait faire confiance.
🧐 Intérêt pour la recherche :
Cela montre que l’appropriation n’est pas qu’une compétence technique : c’est une compétence socio-juridique (ce qu’on peut/veut mettre, où, pourquoi). C’est un axe majeur pour la formation des enseignants, tant au niveau des textes, de leur application que de leur compréhension.
Transparence : entre “dire”, “dire selon contexte”, et “ne pas dire car préparatoire”
Les retours montrent plusieurs régimes :
- transparence explicite : dire qu’on utilise, autoriser l’usage, comparer à des outils comme correcteurs/relecture ;
- transparence “au cas par cas” : si l’IAg est un appui mineur (comme consulter une ressource), pas forcément mentionné ; si c’est un document produit en certains proportions, mention claire ;
- transparence comme éthique professionnelle : expliciter la nature des contributions IAg pour instaurer confiance et réflexivité.
🧐 Intérêt pour la recherche :
Ces nuances montrent que la transparence est une pratique située, pas un slogan. On peut en faire un objet scientifique : quels critères déclenchent la déclaration ? quels effets sur la relation pédagogique ? sur les normes d’intégrité ?
“Sujet tabou” et perceptions étudiantes : dynamique sociale, pas seulement technique
Certains retours indiquent que le sujet peut être sensible avec les étudiants (murmures, gêne, tabou), et que l’enseignant peut percevoir un potentiel d’échanges si la question est ouverte.
🧐 Intérêt pour la recherche :
Cela ouvre un chantier sur les normes sociales autour de l’IA (ce qui est “avouable” ou non), et sur la co-construction d’une culture d’usage (acceptabilité, confiance, statut de la preuve, légitimité). Probablement autant valable dans la communauté des enseignants et/ou des étudiants tout comme dans l’entre-deux.
L’évaluation, “point de bascule” : l’IAg force à rediscuter ce qu’on mesure
Un passage clé affirme qu’une production écrite finale seule n’atteste plus forcément l’élaboration intellectuelle, et que l’enjeu n’est pas de jouer “au chat et à la souris”, mais de repositionner la mission de l’enseignant vers la formation intellectuelle et l’accompagnement.
🧐 Intérêt pour la recherche :
L’IAg agit comme un révélateur (elle rend visible des fragilités déjà présentes : évaluation centrée sur le produit, la production, faible traçabilité du processus). Elle pousse vers l’étude du processus (oral, justification, bibliographie, démarche, choix méthodologiques), plutôt que le seul résultat. C’est un terrain empirique fort : on peut étudier quelles transformations d’évaluation émergent, avec quels effets (motivation, triche, apprentissages, charge de correction).
Le “gain de temps” n’est pas qu’un bénéfice : c’est une redistribution (avec effets possibles)
Plusieurs retours associent l’IAg à un gain de temps / productivité et à une meilleure structuration, mais aussi à :
- une vigilance sur l’usage excessif / dépendance ;
- une idée intéressante : le temps “libéré” peut être réinvesti dans des cours plus vivants, plus interactifs, voire plus inversés.
🧐 Intérêt pour la recherche :
Le gain de temps n’est pas la variable finale ; la question est que devient ce temps ? Cela permet d’émettre des hypothèses observables : l’IAg favorise-t-elle des pédagogies actives via une baisse du coût de préparation ? Ou bien augmente-t-elle le travail (vérifications) ? Les retours montrent avec nuances que les deux sont possibles selon les tâches.
Un “carburant” utile et nécessaire pour la recherche en formation ?
🔬 Ils permettent de passer du débat abstrait à des unités d’analyse fines
Au lieu de “IA = bien / mal”, on obtient :
- des tâches (planifier, reformater, générer QCM, produire données, aider au code)
- des critères de qualité (justesse, ambiguïté, adaptation au public, pertinence pédagogique)
- des conditions (discipline, niveau d’étudiants, type d’activité, contrainte de données)
🧩 Ils révèlent des compétences-clés à mieux étudier/former
- compétence de rédactique (mais surtout de pilotage itératif, de construction d’un raisonnement pour mieux “produire”)
- compétence de vérification critique (repérer les erreurs, biais, la standardisation)
- compétence éthique/juridique (données, transparence, limites d’usage)
🧫 Ils ouvrent des protocoles de recherche simples et puissants
Exemples d’axes “directement instrumentables” :
- Études de versions : comparer QCM “humain seul” vs “IAg + tri”, et mesurer qualité, temps, et performance étudiante.
- Ethnographie de la préparation : observer le travail de retouche, le nombre d’itérations, les critères de rejet.
- Analyse de la transparence : quand et comment on déclare, et effets sur la confiance/climat de classe.
- Évaluation repensée : suivre quelles transformations surviennent (oral, justification, processus) et leurs effets.
L’IAg vue comme “assistant situé”, pas comme solution universelle
Ce que ces partages d’expériences mettent bien en évidence au niveau de l’UNICAEN, c’est :
- une diversité de positions légitimes (y compris non-usage) ;
- un usage dominant “assistant de conception + assistant de production”, avec contrôle humain ;
- une bascule vers des enjeux de processus, de transparence et de refonte de l’évaluation ;
- et surtout : un potentiel fort pour faire avancer la recherche, car on dispose d’un matériau qui relie activité réelle, normes, contraintes, et effets pédagogiques.
Et là dessus, on s’associe aux remerciements des auteurs de ce livre blanc envers les enseignants qui prennent le temps de contribuer, de partager, de briser les tabous autour de ce sujet de l’IA dans la formation. À l’Université, nous n’avions pas spécialement demandé à ce que ces outils débarquent et submergent ainsi toutes les activités, au point que ça devienne un sujet aussi sensible, central et chronophage alors que le temps est déjà si rare et bien rempli. Mais maintenant que tout ceci nous entoure, n’est-il pas d’autant plus important de trouver un peu de temps pour s’y intéresser de plus près et contribuer à faire à sorte que les multiples fractures numériques ne s’agrandissent pas d’autant plus sans réaction éclairée ?
En ce sens, les parties invisibles de l’ObsiaFormation (fils d’actu, forums, FAQ…) sont autant d’espaces pour venir partager et réfléchir ensemble à ces transformations qui bousculent le monde de la formation (Éducation, ESR, formation professionnelle, continue, tout au long de la vie, etc.), et nous avons besoin, collectivement, de la contribution de toutes et tous pour continuer à raisonner sur ces sujets au travers de l’Université.
🌐 Source
- Note : au risque de passer pour des puristes de l’acronymie et des casses… nous préférons IAg (générative) à IAG (Générale) afin de mieux distinguer et surtout ne pas confondre les deux concepts bien trop proches dans leur traduction littérale francophone ↩︎
Dernière mise à jour le 10 février 2026
![]()
