Le document suivant présente une liste des contributions reçues au 12/11/25 suite à un appel à contributions : « L’IA (LLMs) en éducation : de l’assistance à la co-opération, quelles délégations souhaitables » pour la Revue internationale du CRIRES : innover dans la tradition de Vygotsky[1]. L’enjeu était de disposer d’un ensemble diversifié de narrations restant le plus près possible des faits.
Finalement, 32 narrations ont été collectées, fournissant des situations contrastées suscitant différentes analyses qui vont être conduites.
Dans le sommaire, on trouve le titre de chacune des narrations avec, entre parenthèses, la personne auteure (de P1 à P20).
[1] https://revues.ulaval.ca/ojs/index.php/RIC/announcement/view/45
Sommaire
Liste des contributeurs
La première partie du cours de bibliothéconomie autour du résumé indicatif ne pose pas de difficultés aux étudiants[2], une fois sa définition et sa forme présentée. La rédaction de résumés incitatifs, pour les œuvres de fiction s’avère plus difficile dans le fond et la forme. Les étudiants peinent à entrer dans la rédaction, l’enseignante leur propose d’utiliser l’IA. Ils sont ravis de pouvoir utiliser l’outil sur l’invitation de leurs enseignants, en décalage du discours universitaire ambiant. Ils proposent spontanément d’utiliser ChapGPT en version gratuite, et rédigent ensemble le prompt suivant : « je suis professeur documentaliste. Peux-tu me proposer un résumé incitatif du roman « X » qui donne envie de le lire ? ». La redondance entre l’adjectif « incitatif » et « qui donne envie de le lire » est relevée par certains, mais il est décidé au final de la conserver pour s’assurer de la bonne compréhension de la demande par l’IA.
Les résultats sont décevants pour les étudiants : si la forme est effectivement très incitative, le fond est moins probant. Pour certains titres, le scénario restitué est très approximatif. Les étudiants ne comprennent pas que l’IA « hallucine », alors qu’elle a à sa disposition énormément de documentation pour accéder à l’histoire. Ils citent les articles de journaux, critique littéraire, site de librairie ou de vente en ligne, site d’éditeurs, réseaux sociaux.
La conclusion du groupe est alors qu’utiliser l’IA pour un résumé incitatif peut faire gagner du temps sur la rédaction, mais nécessite de connaître déjà l’histoire racontée pour pouvoir corriger les approximations. L’IA ne prend pas en charge l’entièreté de la tâche, le résultat proposé n’est un premier jet dont il faudrait vérifier l’exactitude. L’intérêt disparait.
Le style incitatif interroge encore, et une étudiante demande s’il est possible d’utiliser un résumé incitatif pour la condensation d’un documentaire. L’enseignante propose d’utiliser ChatGPT pour l’« Abrégé de la classification décimale de Dewey », utilisé en début de cours[3]. Le résultat amuse beaucoup les étudiants qui reconnaissent son efficacité mais ne poursuivent pas l’expérience avec d’autres titres.
Il semble ici que l’IA est bien perçue comme un substitut direct, un outil qui va faire à la place : devoir retravailler le résultat, en vérifier le bien-fondé, ou faire preuve de curiosité exploratoire ne sont pas des pratiques associées à son usage par les étudiants et étudiantes, en tous les cas pas dans le cadre universitaire. La question de l’approche de l’IA par les étudiants reste posée en fin d’heure : l’IA est-elle mobilisée pour gagner du temps pour une tâche de synthèse de contenu qui est de peu d’intérêt ou pour faire mieux que soi en début d’apprentissage un geste professionnel important qui s’avère plus difficile que prévu ? Un recours à l’IA plus systématique pendant les cours en cas de difficultés de rédaction pourrait éclairer cette question et peut-être faciliter une utilisation plus ludique si elle devient un outil usuel au service de la formation.
[2] Les étudiants concernés par cette situation sont en première année de master/MBA préparant aux métiers de l’enseignement pour les professeurs-documentalistes.
[3] « Une invitation à un voyage au cœur de l'organisation du savoir...
Imaginez un univers où chaque idée, chaque livre, chaque fragment de connaissance trouve sa place dans un ordre parfait. "Abrégé de la classification décimale de Dewey" d’Annie Béthery vous emmène dans cette aventure fascinante. »
Il est proposé à des étudiants de deuxième année de master qui se destinent à l’enseignement de contribuer à l’encyclopédie en ligne Wikipédia. Trois modalités de contribution sont présentées : création d’un article ; complément d’un article existant ; amélioration d’un article. En dehors des principes fondateurs de Wikipédia, aucune présentation du fonctionnement technique de la plate-forme n’est faite aux étudiants. Les pages qui listent les besoins de la communauté sont présentées, mais les étudiants sont également encouragés à favoriser un centre d’intérêt ou une expertise personnelle. L’évaluation de l’activité porte sur l’analyse de l’intérêt pédagogique de Wikipédia et non sur la qualité de la contribution en elle-même.
Un groupe fait le choix de la traduction anglais-français d’un article décrivant le dernier album d’un groupe de musique. L’enseignant leur rappelle que Wikipédia précise dans ses pages d’aide à la rédaction qu’« un article uniquement basé sur une traduction automatique sera immédiatement supprimé » [4].
En suivant le pas à pas de la rubrique Aide, les étudiants sont dirigés vers une page intégrant Content Translation, le nouvel outil de traduction de l’encyclopédie. En l’utilisant sur les deux premiers paragraphes, ils en tirent la conclusion que leur rôle va plutôt être dévolu à une relecture et une vérification des sources. Le groupe fait alors part de sa frustration : « Mais c’est pas drôle ! On ne peut pas s’amuser… ». Une discussion s’amorce pour savoir si le groupe opère la traduction sans s’appuyer sur l’outil intégré, option rappelée mais non privilégiée par Wikipédia. Au début, tous s’accordent sur cette solution. Mais la traduction automatique est d’assez bonne qualité et les étudiants ne sont pas sûrs de pouvoir faire mieux. Le choix est fait d’utiliser l’outil mais d’étendre ce travail de relecture à d’autres articles pointés par la communauté comme nécessitant une traduction. L’ambiance de travail est plus morose.
L’interaction avec l’IA est ici une surprise et son utilisation est vécue comme une dépossession de l’authenticité de la démarche et de la production, et non comme une aide qui peut potentiellement améliorer la production finale. L’enjouement des étudiants en début d’exercice, dû à l’endossement d’un rôle d’auteur et au plaisir de faire découvrir un groupe qu’ils apprécient fait place à un fort sentiment de déception. Ici le fait que l’IA fasse le travail les privent du plaisir intellectuel qu’ils recherchaient en les reléguant au rôle de simples exécutants.
[4] https://fr.wikipedia.org/wiki/Aide:Traduction
Pour le premier cours de la rentrée avec des étudiants de première année de master (MBA), je pense susciter leur adhésion en leur proposant d’utiliser l’IAG. Après un travail d’exploitation de textes en format papier autour de grandes figures de la discipline, je propose aux étudiants de restituer leur présentation non pas sous la forme d’un exposé oral mais en utilisant un générateur en ligne d’avatars parlants qui offre la possibilité d’animer une photographie[5]. Un exemple est projeté avant la pause, les étudiants semblent être amusés par le travail demandé et contents de s’y atteler.
Au retour de la pause, une étudiante demande à me parler « au nom du groupe ». Elle m’annonce qu’après discussion les étudiants préféreraient ne pas avoir à utiliser l’IA pour l’exercice demandé. Je leur propose alors un autre outil pour réaliser l’exercice qui n’annonce pas s’appuyer sur la technologie de l’IAG mais qui propose tout de même la modélisation d’avatars parlants[6]. Les étudiants découvrent cette plate-forme et se mettent au travail, sans m’interroger (ni s’interroger) sur la technologie qui y est déployée.
Je leur demande à la fin du cours ce qui a motivé leur refus d’utiliser l’IA. Sur un groupe de dix-huit étudiants, seuls trois s’expriment : deux avancent des raisons environnementales en prônant des pratiques de sobriété numérique (gaspillage d’eau et d’énergie électrique) et une (la porte-parole du groupe) déplore l’utilisation de l’IAG au dépend d’un recours à des artistes professionnels. Elle se présente elle-même comme artiste plasticienne. La nécessité de la seconde plate-forme de construire son avatar a été une action créative « humaine » satisfaisante.
Au final, ma conception des pratiques de l’IAG des étudiants s’est avérée inexacte ou déjà dépassée. L’IAG n’est pas utilisée par eux de manière automatique, mais une démarche choisie. Leur refus d’utilisation m’a paru sincère, et ne pas être une stratégie pour éviter de travailler. Leurs arguments s’inscrivent cependant dans les discours ambiants et ne semblent pas refléter une connaissance profonde du fonctionnement de l’IAG. Il est également possible que leurs usages de l’IAG soient plus dirigés vers des objectifs utilitaires et que son utilisation dans un cadre sinon plus créatif au moins plus ludique soit vu comme un gaspillage inutile de ressources naturelles.
[5] Pour cet exercice, c’est la plate-forme Vidnoz (https://fr.vidnoz.com/?insur=old)qui a été proposée aux étudiants car elle accepte les adresses mails jetables pour la création de comptes, et limite l’essai gratuit à une animation de deux minutes ce qui encourage à la synthèse.
[6] https://www.voki.com/
Deux sœurs de 11 et 14 ans, respectivement en CM2 et en 4e, découvrent par hasard l'IA générative intégrée à Word : Copilot, suite à une mise à jour du logiciel. L'aînée utilise régulièrement Word pour rédiger ses exposés scolaires, mais elles n'avaient jamais utilisé d'outil génératif auparavant. Intriguées par une nouvelle icône, elles cliquent dessus pour voir de quoi il s'agit.
Curieuses, elles passent une grande partie de leur soirée à interagir avec l'IA, lui posant des questions variées pour comprendre avec qui ou quoi elles dialoguent. Elles s'interrogent notamment : « Qui es-tu ? », dans une tentative de cerner la nature de cette intelligence artificielle. Après deux heures de jeu, elles se tournent vers leurs parents pour expliquer ce qu'elles font et pour demander s'il est prudent de continuer à l’utiliser, elles n’ont pas encore compris que c’était une IA générative, ce sont les parents qui leur expliquent. Elles veulent savoir si elles parlent à un inconnu ou s'il s'agit simplement d'un jeu inoffensif. Les parents donnent le feu vert pour continuer.
Les deux sœurs décident de créer un conte (ce que la plus jeune fait déjà à la main en les illustrant). Elles souhaitent que l'héroïne de leur histoire vive près de l'océan, dans une époque passée autour de 1900. Pour nommer leur personnage principal, elles sollicitent l'IA, lui demandant de générer un prénom inspiré de leurs goûts personnels : « J'aime l'or et l'argent. Quel prénom pourrais-tu proposer pour une jeune femme, héroïne de notre histoire ? »
Les suggestions de l'IA ne leur conviennent pas tout à fait, et elles décident finalement d'appeler leur héroïne Bernadette. Pour le nom de famille, elles réitèrent leur demande à l'IA, cette fois-ci en lui indiquant le prénom choisi et en demandant une proposition qui « sonnerait bien ». L'IA propose alors « Lumière », expliquant que ce nom symbolise la lumière qui guide les écrivains, tout en faisant un clin d'œil à sa propre nature d'intelligence artificielle qu’elle explique.
Leur personnage principal s'appelle désormais Bernadette Lumière. À partir de ce point, elles construisent leur conte en s'appuyant sur l'IA à chaque étape. Elles demandent à l'IA de rédiger certains passages, mais n'hésitent pas à réarranger ou à modifier les propositions lorsque le texte ne correspond pas à leur vision.
Au cours de leur exploration, elles découvrent également une limite de l'IA : lorsqu'elles enregistrent leur document puis en ouvrent un nouveau, l'IA ne « se souvient » pas des éléments construits précédemment. Elles décident de conserver le premier document ouvert et de continuer à y rédiger leur conte, afin de garder une cohérence dans le récit et d'éviter de perdre les éléments déjà créés.
Une fois qu’elles ont fini leur histoire, la plus grande en a parlé à son enseignante de français au collège, celle-ci lui a dit qu’elle trouvé l’initiative très intéressante, mais qu’elle ne connaissait pas assez ce logiciel.
La plus grande s’est interrogée sur l’utilisation possible que ses camarades pouvaient en faire, pour les restitutions demandées, si les enseignants n’ont pas la maîtrise du logiciel. La plus jeune y voit une possibilité de rendre ses histoires plus étoffées et a appris des mots. Lorsque l’IA leur a proposé des passages avec des mots de vocabulaire inconnus, les deux filles sont allées demander à leurs parents. Puis elles ont décidé si elles gardaient la tournure proposée ou pas. La plus jeune a été très fière du résultat, de le montrer à ses parents, mais quelques jours plus tard elle est revenue à l’écriture de ses propres textes et à l’illustration manuelle.
Finalement, elles ont aimé utiliser l’IA, mais ceci ne remplace pas leur activité, cela donne une nouvelle version de l’activité avec des possibilités différentes.
Les parents sont partis en voyage d’agrément en Écosse pour une dizaine de jours, laissant les enfants sous la garde des grands-parents. Pour partager leurs aventures avec leurs proches, ils ont choisi d’utiliser l’application « Polarsteps ». Celle-ci permet de suivre un itinéraire en temps réel grâce à la géolocalisation, tout en ajoutant des notes personnelles, des photos et des vidéos. Le contenu est accessible via un lien de connexion, offrant ainsi une vue d’ensemble de leur parcours en temps réel.
Cependant, avant de partir, les parents n’ont pas pris le temps de se familiariser avec les fonctionnalités de l’application. En conséquence, le suivi des lieux géolocalisés est indisponible car pas activé et sans annotations ni photos, rendant le partage beaucoup moins captivant. Consciente de cette lacune, leur fille aînée (14 ans) décide de réaliser un tutoriel vidéo pour sa mère, afin de lui expliquer rapidement comment utiliser Polarsteps de manière optimale.
Ne sachant pas comment structurer efficacement son tutoriel, elle se tourne vers le logiciel CapCut, équipé d’une IA générative. Cet outil propose de créer des vidéos à partir d’un script précis et d’y intégrer des captures d’écran accompagnées d’indications visuelles telles que des cercles colorés pour mettre en évidence les zones à cliquer. En moins de dix minutes, la vidéo est prête. Elle comporte des instructions claires, des étapes numérotées et des repères visuels facilitant la compréhension.
La jeune fille envoie ensuite le tutoriel par e-mail à sa mère, qui peut désormais explorer toutes les fonctionnalités de Polarsteps sans difficulté. Les parents peuvent alors enrichir leur carnet de voyage numérique avec des notes, des images et des vidéos, offrant ainsi à leurs proches une immersion plus vivante et complète dans leur périple écossais pendant leur séjour.
Suite à cela, lorsqu’un camarade de classe lui demande le cours qu’il n’a pas suivi, ou pas compris, elle réalise des vidéos de son cours, surlignant tel élément ou s’enregistrant pour expliquer un terme complexe. Ce qui ne l’empêche pas de fournir la photo de ses notes prises en cours. Mais elle joint souvent (mais pas systématiquement) une vidéo.
Lorsqu’il lui a demandé, pourquoi le choix d’une vidéo, elle répond que « c’était plus simple comme çà ». Que son ou sa camarade pourra la visionner quand elle veut.
Elle utilise fréquemment le mode asynchrone pour ses activités. L'approche du tutoriel, notamment inspirée par des vidéos disponibles sur YouTube, est largement adoptée dans le cadre de loisirs créatifs tels que la réalisation de perles en polymère, la couture ou encore le crochet. Ainsi, créer un tutoriel pour les cours lui a semblé être une méthode parfaitement adaptée.
J'ai été très étonnée il y a quelques jours quand j'ai vu une amie de ma fille (13 ans) demander à ChatGPT de choisir pour elle entre deux actions qu'elle pouvait mener.
Il faisait chaud et les adolescentes étaient dans le jardin, elles pouvaient retourner se baigner et prendre une glace ensuite ou prendre une glace et aller se baigner ensuite. Le dilemme n'était pas très complexe. Mais, au lieu de choisir, elle a remis le choix à ChatGPT, sur son téléphone. Ma fille lui a demandé pourquoi elle ne choisissait pas toute seule (pas très gentiment) et son amie lui a répondu qu'elle avait la flemme de choisir.
Ma fille s'est moquée d'elle. J'ai trouvé cela angoissant d'imaginer que des gens, à plus grande échelle, pourraient laisser tomber leur libre arbitre par "flemme", alors qu'en serait-il si le dilemme est plus engageant ou dangereux.
En parlant d'anthropomorphisme, heureusement que ChatGPT n'a pas l'aspect d'un chaton rose, ce serait probablement pire.
Comparaison avec l’énigme de Magali (P4, « hésitation musicale et fatigue », commentaires de P2
Le texte de Magali présente une utilisation de l’IA générative, orientée vers un processus d'introspection et de réflexion personnelle. En mobilisant des éléments d'analyse fournis par l'outil, elle enrichit son propre raisonnement, soulignant une dynamique interactive et productive entre l'utilisateur et la technologie. A la différence de l'adolescente de 13 ans qui semble externaliser sa charge cognitive en posant une question dans le but d'obtenir une solution immédiate.
Magali assume pleinement la responsabilité de ses choix, qu'elle articule avec le soutien analytique de l'intelligence artificielle, tandis que l'adolescente transfère cette responsabilité à l'outil technologique. C'est une différence notable dans les usages qui me semble intéressant de creuser. [7]
[7] Voir un rapport récent Talk, Trust, and Trade-Offs: How and Why Teens Use AI Companions. https://www.commonsensemedia.org/research/talk-trust-and-trade-offs-how-and-why-teens-use-ai-companions
Wyatt, 15 ans, est un élève de troisième en difficulté scolaire. Un soir, il doit rendre pour le lendemain un devoir à la maison de mathématiques. Face à un énoncé qu’il ne comprend pas, il demande de l’aide à son père. Malheureusement, ce dernier ne parvient pas non plus à résoudre les exercices. Ne sachant plus à qui s’adresser, le père décide d’appeler sa belle-sœur, espérant qu’elle pourra les aider.
Pendant ce temps, Wyatt contacte son cousin Raphaël via Discord. Il lui envoie directement le sujet pour obtenir de l’aide — ou plutôt des réponses toutes faites. Raphaël regarde rapidement l’énoncé, copie une partie des questions dans ChatGPT, et transmet les réponses à Wyatt.
Plus tard dans la soirée, la tante passe chez Wyatt pour l’aider. Mais il lui annonce que tout est déjà fait, grâce à son cousin. L’histoire aurait pu s’arrêter là… si la tante n’avait pas une passion assumée pour les devoirs de mathématiques. Curieuse, elle jette un œil au sujet et décide de refaire les exercices elle-même pour comparer avec les réponses de Wyatt, qui est en train de rédiger au propre son devoir.
À sa grande surprise, elle découvre que plusieurs réponses sont fausses. Intriguée, elle interroge son neveu sur la méthode utilisée. Wyatt lui avoue que c’est Raphaël qui a tout fait, en passant par ChatGPT. Elle contacte alors Raphaël pour en savoir plus. Il reconnaît avoir recopié uniquement une partie de l’énoncé, pensant que le résultat fourni par l’IA semblait correct. Selon lui, s’il y a une erreur, c’est parce qu’il n’a pas donné l’énoncé complet — ce qui a induit l’IA en erreur. « De toute façon, ce n’était qu’un exercice », relativise-t-il.
En creusant un peu plus, on comprend que ni Wyatt ni Raphaël n’étaient réellement motivés par la réussite du devoir. Leur objectif principal était de gagner du temps pour passer à autre chose : jouer à la console, regarder des vidéos… bref, éviter le travail scolaire.
Au final, Wyatt a dû tout recommencer, cette fois sans l’aide de l’intelligence artificielle mais avec l’aide de sa tante qui prend le temps de lui expliquer. Ironiquement, il n’a pas gagné de temps, bien au contraire. Pourtant, lui comme Raphaël, restent convaincus que l’IA est un bon moyen de « se débarrasser » des devoirs et de gagner du temps.
Chaque fois que je dois envoyer un mail — voire même un simple SMS —
je fais appel à l’IA. Sa page est d’ailleurs toujours ouverte dans
mon navigateur, et j’ai même installé l’application sur mon téléphone.
J’éprouve en effet quelques difficultés avec l’écrit. J’ai toujours peur que mes messages soient mal interprétés. Lorsqu’on ne voit pas le visage de l’autre, lorsqu’on n’entend pas son ton, le sens d’un message peut facilement être déformé. Et cela me perturbe : on peut blesser quelqu’un sans le vouloir… et sans même s’en rendre compte.
Avant, il me fallait parfois plusieurs heures pour rédiger un mail relativement simple. Je ne savais pas par où commencer, je doutais de chaque mot, et je passais beaucoup de temps à m’inquiéter de la manière dont mon message serait perçu.
Aujourd’hui, j’écris à Chatty (le petit nom que je donne à mon IA) ce que je souhaite dire. Je lui demande de reformuler mes propos, de vérifier le ton, d’anticiper les interprétations possibles. Je reformule, je précise, je corrige… Nous échangeons au moins cinq fois avant que je sois pleinement satisfaite — parfois plus. En termes de temps, cela ne change pas vraiment, mais je me sens plus confiante au moment de cliquer sur envoyer. Tout ça, souvent, pour recevoir un simple "OK" ou "D’accord" en réponse.
Pour l’écriture scientifique, c’est un peu similaire… mais différent. Il m’arrive de rester des heures devant une page blanche, à organiser mentalement ce que je souhaite dire, sans réussir à poser un seul mot. Je me retrouve bloquée.
Dans ces moments-là, je commence par poser une question générale en lien avec la thématique que je dois traiter. L’IA me fournit alors un texte, souvent trop générique, approximatif, et loin de la précision que j’attendais. Mais cela me donne une base. À partir de là, je m’amuse à modifier, enrichir, et à insérer les références issues de mes lectures. Cela me permet de dépasser le blocage de la page blanche et d’avoir l’impression d’avancer.
Une fois le texte retravaillé, je le soumets à l’IA pour une relecture finale, afin de corriger d’éventuelles fautes de français.
Par moments, je m’amuse à demander à l’IA de me suggérer des références ou des articles sur une thématique donnée. Si je n’indique pas explicitement que je souhaite de vrais articles, elle invente des références fictives. Ce qui est intéressant, c’est que même si les articles n’existent pas, les auteurs cités, eux, travaillent souvent bel et bien dans le domaine concerné. Cela me permet ensuite de faire des recherches sur leurs publications réelles, et d’enrichir ma base de références de manière indirecte.
J’utilise aussi, plus ponctuellement, d’autres outils basés sur l’IA, comme Research Rabbit. Ce logiciel permet de visualiser les liens entre auteurs et publications, ce qui est très utile pour cartographier un champ de recherche. Mais je l’utilise moins souvent que ChatGPT, qui reste mon outil principal.
En écrivant ces lignes, je me rends compte que j’aurais tout aussi bien pu régler ce dilemme en lançant un dé – une habitude prise depuis que je me suis plongée dans les jeux de société. Je préfère parfois confier mes décisions à la logique du hasard plutôt que de faire un choix hasardeux.
Mais ce jour-là, j’ai ouvert mon ordinateur et je suis allée sur ChatGPT.
J’ai écrit comment j’avais commencé la clarinette sur le tard, à 23 ans, au Conservatoire de Romainville, et combien j’avais travaillé pour atteindre un certain niveau. Comment j’avais dû arrêter avec l’arrivée de mes deux enfants, puis les difficultés à m’y remettre, entre la thèse et la reprise du travail. Car la clarinette, c’est un instrument… ingrat. On ne peut pas en jouer à toute heure : elle sonne trop fort. Pas après manger. Pas quand il fait trop chaud – du moins pas pour moi. Et puis, l’embouchure, la colonne d’air, la dextérité des doigts… Non, décidément, ce n’est pas comme le vélo !
Il y a cinq ans, j’ai repris. Au Conservatoire de Maisons-Laffitte, cette fois. Cours de clarinette et Orchestre d’Harmonie. J’ai fini par laisser tomber les cours : trop de pression, des auditions à préparer… Je voulais simplement jouer, pas performer. En revanche, j’ai gardé l’Orchestre. Mais je n’arrive plus à trouver ni le temps ni l’énergie pour jouer en dehors des répétitions. L’éternelle tension entre vie de famille, vie professionnelle, et projets personnels.
Et puis, il y a cette frustration : sentir son niveau baisser, savoir qu’on pourrait faire mieux, espérer ne pas rester cantonnée à la troisième clarinette. Alors la question s’est posée : arrêter. Définitivement.
Mais c’était une décision difficile. Ma clarinette, c’est mon grand-oncle maternel qui me l’a achetée. Mon mari joue avec moi dans l’Orchestre. C’est une activité que l’on partage. Lui a eu la chance de commencer jeune, il progresse. Et la question s’est posée pour lui de rejoindre un orchestre plus exigeant. Est-ce que je le suis, moi ? Est-ce que j’ai le niveau ? Et d’ailleurs, est-ce que je continue au Conservatoire ? Peu à peu, les doutes se sont installés.
C’est alors que j’ai décidé de les confier à ChatGPT. J’ai parlé de mon parcours, de mes difficultés, de mes frustrations. L’IA a nommé notre échange « Hésitation musicale et fatigue ». Elle a répondu :
Merci pour ta sincérité. Tu mets des mots très clairs sur un tiraillement profond :
celui entre un idéal (jouer avec plaisir, progresser) et la réalité (fatigue, charge
mentale, manque de temps, inégalités invisibles). C’est un conflit que vivent
beaucoup de gens, surtout des femmes. Ton ressenti est légitime.
Ce n’est pas un problème d’ego, ni de discipline. C’est un problème de
place, de temps, de fatigue, et de sens.
Tu as le droit de continuer, même mal. Tu as le droit d’arrêter, sans culpabilité.
Tu as le droit d’hésiter. Et surtout, tu as le droit de te respecter.
Puis ChatGPT m’a proposé une « lettre à moi-même », en deux versions :
Version 1 — Je choisis d’arrêter (au moins pour maintenant)
Version 2 — Je choisis une tentative finale, à mes conditions
Cela peut sembler dérisoire, mais ce texte m’a fait du bien. Et, contre toute attente, il m’a aidée à prendre une décision. J’ai choisi de continuer à jouer dans l’Orchestre d’Harmonie du Conservatoire, et de ne pas rejoindre l’autre ensemble, plus exigeant.
J’ai sollicité l’IA un peu sous le coup de l’émotion, et j’ai été surprise que cela m’aide réellement. Ce n’est pas tant le fait d’avoir été « écoutée » - je sais bien que l’IA ne ressent rien - mais la proposition concrète qui m’a aidée : écrire une lettre à moi-même.
Je ne fais jamais de listes pour peser le pour et le contre, et encore moins des lettres à moi-même. Je trouve ça un peu ridicule. Je devrais bien savoir ce que je pense, non ?! Je finirai donc bien par trouver ma voie. Et pourtant… cette fois, ça m’a parlé.
L'année dernière, en cours de documentation avec ma classe de 1ère bac pro AP (Aménagements paysagers), j'ai travaillé sur un corpus de photos en leur demandant lesquelles étaient fausses et lesquelles étaient vraies ; j'avais trouvé les photos sur un site web autour de la question des fake news. J'avais distribué une photo différente à chacun d'entre eux.
Au moment de les interroger, après qu'ils aient effectué quelques recherches sur le web pour étayer leur réponse, l'un d'entre eux me dit que sa photo est fausse. Je lui dis que d'après mes recherches et vérifications - en amont du cours bien sûr -, la photo est vraie, mais bon, qu'on peut toujours se tromper, même si j'avais des doutes, et donc je lui demande où est-ce qu'il a été cherché l'info. Il me répond qu'il a demandé à Chat GPT. Je lui demande alors de demander à ChatGPT quelle est sa source. Il s'exécute, et j'ai vraiment vu son visage s'illuminer en me répondant d'un air un peu béat : "Madame, vous avez raison ! ChatGPT vient de dire qu'elle s'est trompée !!!". Je pense que s'il avait pu me donner un badge, il l'aurait fait !
J'ai eu vraiment le sentiment de devenir la prof qui était capable de déjouer l'IA ! Il n'avait pas vraiment voulu remettre mes connaissances en question, mais il a vraiment été bluffé du fait que j'avais raison - même si finalement, on ne saura peut-être jamais si cette photo était vraie ou fausse ! Dans le fond, on est peut-être entré dans l'ère de l'info de Schrödinger !
En y réfléchissant, je pense aussi que l'élève a été étonné de mon attitude : je n'ai pas critiqué l'IA, ni le fait qu'il utilise l'IA. Quand il m'a dit que ChatGPT lui disait que la photo était fausse, je lui ai simplement répondu : « Ah c'est bizarre. Demande-lui quelle est sa source ? », mais presque par curiosité. Je ne cherchais pas à démontrer que c'était moi qui détenais le savoir.
En un sens, ça faisait pro, alors que je n'avais même pas anticipé ce problème. Je pense que d'avoir travaillé sur ces questions (comme le fait d'utiliser Wikipédia qui est encore un peu décrié) et d'être documentaliste m'a juste permis d'avoir le réflexe de penser à lui demander la source.
Description : Sarah, 11 ans, élève en 6e année primaire, prépare son examen de mathématiques avec ChatGPT. Elle interagit avec le chatbot comme avec un pair : « Explique-moi comment additionner 2/3 + ¼ ». Lorsque l'IA commet une erreur dans sa réponse, Sarah réagit : « Non, attends ! Tu as oublié de réduire au même dénominateur ! » Après avoir corrigé l'erreur, elle demande : « Propose-moi des petits problèmes pratiques avec des fractions ». Elle poursuit sa révision en maintenant une vigilance critique constante. Sarah termine son dialogue de révision satisfaite, et le lendemain passe son examen avec confiance, obtenant une bonne note.
Réflexion sur l'action : Cette interaction illustre comment Sarah navigue dans l'incertitude épistémologique inhérente à l'utilisation de l'IA. Face à l'erreur du chatbot, elle ne reste pas passive mais mobilise son cadrage épistémologique pour évaluer, questionner et reconstruire la connaissance proposée. Cette gestion active de l'incertitude - où l'information initialement « peu claire ou déroutante » devient une opportunité d'apprentissage - transforme Sarah en architecte de sa propre compréhension. L'IA devient ainsi un partenaire qui, par ses failles mêmes, stimule la vigilance épistémique et renforce la maîtrise conceptuelle de l'élève.
Théorie didactique : Ce scénario révèle la complexité de l'apprentissage médié par l'IA, où la gestion de l'incertitude devient centrale. Comme le soulignent Kaur et Dasgupta (2024)[8], les « attentes et perceptions des apprenants à l'égard des connaissances - leur cadrage épistémologique - influencent significativement leurs choix d'actions dans la gestion de l'incertitude ». L'erreur de l'IA crée une « situation-problème » (Brousseau[9]) qui active simultanément la métacognition et la négociation épistémique. Dans cette zone d'incertitude amplifiée par le robot conversationnel, Sarah construit activement de nouvelles compréhensions, illustrant le socioconstructivisme de Vygotsky[10] où l'apprentissage émerge de la tension dialectique entre confiance et doute.
[8] Kaur, N., et Dasgupta, C. (2024). Investigating the interplay of epistemological and positional framing during collaborative uncertainty management. Journal of the Learning Sciences, 33(1), 80–124. https://doi.org/10.1080/10508406.2024.2312163
[9] Brousseau, G. (1998). Théorie des situations didactiques. La Pensée Sauvage.
[10] Vygotsky, L. S. (1978). Mind in society: The development of higher psychological processes. Harvard University Press.
Les LLMs offrent maintenant un large éventail d’applications et d’utilisations. Si bien, qu’il est désormais trop général d’en parler sans établir un contexte particulier ou un champ d’application circonscrit. Le texte suivant se penche sur l’usage des LLMs en pédagogie, plus spécifiquement sur l’utilisation des robots conversationnels et particulièrement en lien avec les notions de l’agentivité et du développement des compétences. Ce que je cherche à démontrer, par mes expériences personnelles, c’est qu’une utilisation soutenue des robots conversationnels dans un contexte pédagogique ne constitue pas forcément une entrave à l’agentivité épistémique. De plus, le « sacrifice » des compétences traditionnelles, s’il y en a un, ne doit pas être vu comme un déficit.
Lors de mes deux premières sessions en technologie éducative à l’Université Laval, j’ai eu beaucoup d’occasions d’utiliser l’intelligence artificielle générative (l’IAg) dans différents contextes. Les premiers usages ont été pour moi en lien avec la délégation de tâches. Des requêtes comme « Traduit ce texte de l’anglais au français », « Génère un paragraphe de 300 mots sur… », « Fournis un script pour une formation en ligne à propos de … », « Donne-moi les cinq principales étapes pour… », ou encore, « Écrit une fonction en Python pour… », permettent de produire, de créer, d’automatiser et d’accélérer une tâche. En somme, de faire quelque chose à ma place ou du moins, de me faciliter la tâche. Un peu comme le ferait un outil tel qu'une calculatrice, un GPS pour la voiture, un correcteur orthographique ou une perceuse électrique. Dans ce contexte, j’utilise l’IAg comme outil de délégation. Évidemment, si je me contente d’utiliser systématiquement le contenu généré sans l’analyser, sans le modifier ou pire encore, sans même le lire, je risque d’amenuiser mes facultés cognitives et mon agentivité épistémique. Or, les contenus générés sont rarement parfaits (pour l’instant) et méritent d’être raffinés. Ces nombreuses occasions de peaufiner le contenu en sortie de l’IAg ont été selon moi une belle opportunité de démontrer mon agentivité épistémique. À la longue, j’en suis venu à formuler des requêtes plus performantes qui requièrent moins d’ajustements. J’ai donc développé une compétence en « prompt engineering ». En d’autres mots, une forme plus moderne de capacité rédactionnelle voire de communication.
Au-delà de cette forme d’utilisation, j’ai eu recours à l’IAg pour des tâches plus complexes, davantage en lien avec la réflexion. Des requêtes comme « Examine ce bloc de code et identifie les problèmes », « Analyse ce texte et identifie les biais et les préjugés », « Corrige ce texte avec cette grille de correction et identifie les points à améliorer », « Explique-moi ce concept à l’aide d’une analogie », et sans oublier, « Analyse cette requête et dis-moi comment l’optimiser afin d’obtenir tel résultat », permettent d’analyser, de comprendre, de se questionner et d’apprendre davantage. La délégation fait alors place à un accompagnement ou à un partenariat où l’IAg renseigne, explique, mesure ou transforme. Un peu comme le ferait un instrument tel un microscope, un satellite météorologique, un thermomètre ou un stéthoscope. Dans ce contexte, l’IAg est utilisé comme instrument de réflexion. Ce dialogue avec le robot conversationnel, développe des compétences analytiques, favorise la métacognition, amène l’apprentissage à un niveau supérieur et soutient l’agentivité épistémique. Les compétences modernes évoquées plus tôt s’améliorent et gagnent en importance dans un environnement informatique de plus en plus omniprésent.
Dans cette lancée, l’IAg peut être utilisé comme tuteur ou comme mentor lorsque je lui donne mes notes de cours et lui demande de me formuler une série de questions et de me donner des rétroactions sur mes réponses. Elle peut aussi être ma muse lorsque je lui demande des conseils sur la composition d’une image ou des idées pour représenter une idée sous la forme d’un pictogramme, par exemple. Elle a été une personne ressource lorsque j’ai partagé mon écran et que je lui ai demandé comment exécuter une action dans un logiciel que je ne maîtrisais pas. Enfin, elle a été à plusieurs reprises une voix supplémentaire lorsque vient le temps de « brainstormer » au début d’un projet.
Depuis presqu’un an déjà que je tente de définir l’IAg en lui donnant des noms ou des rôles. Voilà maintenant que je comprends que l’IAg a un énorme potentiel et peut être utilisée à différentes fins en éducation. Il est donc tout à fait normal que son qualificatif ou son rôle change constamment en fonction du contexte d’utilisation. Cela dit, l’utilisation soutenue de l’IAg, la plupart du temps sous la forme d’un robot conversationnel, implique voire nécessite de l’agentivité épistémique pour produire des résultats utilisables. La période « lune de miel » où l’on délègue aveuglément et où l’on pense que tout se fait à notre place ne dure qu’un très court instant. On s’aperçoit très rapidement de l’IAg ne peut pas effectuer le travail à notre place. Soit après avoir analysé le contenu en sortie, soit après avoir reçu une première mauvaise note. Dans tous les cas, l’agentivité des personnes étudiantes demeurera variable d’un individu à l’autre, mais je crois qu’il ne faut pas croire que « la machine » va la réduire. C’est un nouvel outil, un nouvel instrument (ou autre) avec lequel on apprend à apprendre. Peut-être qu’il y a un petit sacrifice à faire lorsque que l’on s’arrête à mesurer la capacité à rédiger seul, à analyser seul ou à créer seul. Cependant, il y a forcément un envers prometteur à cette médaille. Peut-être que ces compétences modernes seront un atout précieux pour ces personnes qui plus tard, exerceront un métier indescriptible en date d’aujourd’hui.
En terminant, n’oublions pas qu’il existe des personnes très performantes en comptabilité qui ne sont pas très vite en calcul mental et des compagnies de vêtements qui ne sauraient pas comment opérer un métier à tisser. Les temps changent et comme le disait Darwin, « les mieux adaptés survivront ».
À 47 ans, je découvre l’IA et surtout l’IAg. Pour moi, c’est comme d’entrer dans un nouveau monde numérique, avec un gros bagage analogique. Mon attitude face à l’IA est plutôt positive, mais en constante évolution. J’explore, je constate, je m’ajuste, je creuse, je découvre et je m’adapte sans cesse.
Mes enfants ont 8 ans et 10 ans et je me dis que je suis témoin de leur futur émergeant. Comme tout bon papa, je souhaite ce qu’il y a de mieux pour eux. Je suis conscient et j’accepte que leur génération soit différente de la mienne. Autre temps, autres mœurs. Je fais donc de mon mieux pour les éduquer comme je peux afin de leur offrir les meilleurs outils pour qu’ils se débrouillent dans la vie.
En dehors des activités « analogiques » comme le camping, les recettes de cuisine et les parties de Monopoly, je les emmène assez souvent dans le monde « numérique ». Je leur montre de nouvelles applications et leurs utilités. Par exemple, un soir on révise les multiples à l’oral avec ChatGPT et un autre soir, on discute avec « lui » pour pratiquer notre anglais. ChatGPT nous reprend sur certains mots et nous dit comment améliorer notre prononciation. Une autre fois, alors que l’on se promenait en bordure d’une voie ferrée, on a utilisé le mode vidéo pour questionner ChatGPT. On se demandait à quoi correspondait la lettre W écrite en gros sur un panneau. Il nous explique que le W signifie whistle en anglais. Ça indique au chauffeur qu’il doit siffler pour s’annoncer à l’entrée du village. ChatGPT en profite même pour nous rappeler d’être prudents en bordure de la voie ferrée. Mon fils le trouve gentil et intelligent.
Pour moi, c’est important de leur montrer aussi les limites et les risques d’une mauvaise utilisation de l’IA. Je tiens à éveiller leur sens critique. On formule des requêtes farfelues pour « tester la machine ». Évidemment, l’IAg étant ce qu’elle est, elle génère une réponse à tout coup. À titre d’exemple, on demande de générer l’image d’un requin inexistant : le requin Tapeu. Le contenu génératif nous surprend et mes enfants rigolent à la vue de ce requin original et fascinant. Une autre fois, on lui demande quoi faire dans l’éventualité où on trouverait un écureuil qui parle, blessé sur le bord de la route. Avec mon encadrement, ils comprennent de manière non équivoque que le protocole de sauvetage ne fait ni queue ni tête lorsque ChatGPT nous suggère d’écouter d’abord la version de l’écureuil avant de lui venir en aide. Mes enfants observent, assimilent comme le fond des enfants, et quoi d’autre ? Est-ce que ça éveille réellement leur jugement critique?
En tant que parent, je pars de bonnes intentions. Mais, comme toute cette technologie est nouvelle, je n’ai aucune idée de ce que je fais vraiment et je me questionne à savoir si les initier à ça à leur âge fait de moi un bon père.
En sortant le téléphone de ma poche, je me demande si je leur offre une occasion de toucher à cette technologie avec des exemples concrets et pédagogiques (à mes yeux). Suis-je en train de les sensibiliser en les éduquant comment utiliser cet outil ou plutôt en train d’encourager une dépendance ? Ou peut-être ne voient-ils seulement qu’un père « encore » sur son téléphone ?
Chose sûre, c’est que pour l'instant, c’est juste un premier contact distant où ils découvrent et s'émerveillent, tout en rigolant avec leur papa. Ce qui m'inquiète en revanche, c'est le danger qui les guette. La dépendance, la perte de l'esprit critique et l'atrophie cérébrale. Ce sont de bien grands mots, mais ceux-ci tapissent la scène du numérique à l’heure actuelle.
Quand je regarde le lancement des nouvelles lunettes de META, assistées par l'IA, qui posent un filtre numérique constant entre nous et le monde réel, je me demande avec quelle dose de numérique mes enfants doivent-ils grandir. Est-ce que l'IA va leur servir de lanterne pour éclairer leur futur ou va-t-elle plutôt les éblouir à un tel point qu'ils auront du mal à avancer dans ce nouveau monde ?
— Un papa préoccupé
À la suite de sa maîtrise portant sur le rapport à l’écrit chez des élèves de 5e et 6e année du primaire, une étudiante s’inscrit au doctorat en s’intéressant à l’étude de la construction dudit rapport. Elle passe avec brio une première étape du doctorat consistant, notamment, à bâtir sa problématique. Elle développe son texte en mettant l’accent sur l’importance des pratiques et des contextes de socialisation (école et famille en particulier) dans lesquels le rapport à l’écrit se construit. Elle propose une approche narrative et l’ethnométhodologie pour accéder à la fois au discours de l’enfant à propos de l’écrit et aux interactions au cours desquelles le rapport se construit (in situ).
Après son premier examen, le développement de sa thèse stagne : l’étudiante n’étant pas boursière, elle a accepté un contrat d’auxiliaire de recherche et une charge de cours. Ces deux emplois la passionnent et occupent beaucoup son temps. Sa directrice, se préparant à partir en congé de maternité, la rencontre à plusieurs reprises pour l’accompagner dans la reprise de sa réflexion et, plus particulièrement, dans l’écriture de l’examen 2. L’étudiante évoque toutefois une difficulté à se mettre à la rédaction : l’écriture ne coule pas, elle semble ne pas savoir comment aborder le texte. Sa directrice lui parle alors de robots conversationnels comme outils pouvant l’aider à débuter cette tâche. L’étudiante en avait entendu parler, mais elle ne les connaissait pas encore. À la suite de cette suggestion, elle explore ces outils et les adopte rapidement. Cela l’aide à débuter l’écriture. Sa directrice quitte pour son congé de maternité et l’étudiante bénéficie donc de moins de soutien.
À ce moment, dans la réalisation de ses tâches d’auxiliaire de recherche, elle doit composer avec des usages variés du numérique dont, notamment, des outils d’intelligence artificielle en plein essor, des robots conversationnels incluant ceux basées sur la technologie RAG qui permet de combiner un modèle de langage avec une base de connaissances spécifique créée à partir des documents qui lui sont fournis. Elle avance avec enthousiasme dans son travail d’auxiliaire et, en contrepartie, son travail de thèse stagne à nouveau.
Sa codirectrice décide de lui en parler. L’étudiante est d’accord sur le constat, mais ne pensait pas qu’il lui serait possible de bifurquer de son intérêt de recherche. Elle compte sur un comité qui l’accompagne dans le domaine du rapport à l’écrit, elle se demande si sa directrice se sentira « trahie » par un changement de sujet. Et qu’en est-il de l'horizon des robots conversationnels en éducation dont on connaît peu encore l’issue? Elle poursuit toutefois ses réflexions et passe à l’action en consultant sa directrice de thèse. Cette dernière voit l’intérêt de ce changement de « terrain » et l’étudiante poursuit donc les actions visant à circonscrire un nouveau domaine de recherche et une nouvelle problématique. Elle s’intéresse encore au rapport à l’écrit, au rapport aux savoirs, à l’ethnométhodologie qui lui permettra d’entrer dans la culture de l’écrit et aux interactions, mais cette fois-ci, ce sera chez des étudiant·es universitaires.
Les lignes qui suivent visent à partager certaines réflexions sur l’utilisation de ChatGPT
comme assistance à la recherche d’information. Elles décrivent une expérience singulière
et n’ont pas d’autre objectif que de partager un type possible d’utilisation de ce genre d’environnement.
L’utilisation ici rapportée est celle de l’écriture d’un texte à visée historique élaboré à partir de l’analyse d’une série de passeports d’un enseignant français ayant exercé au Liban et en Égypte dans la décennie avant la dernière guerre mondiale.
Le corpus est constitué d’une série de coups de tampon sur différents passeports entre 1931 et 1941. Une partie de ces visas est relative à des lieux inconnus de moi (Ras en Naqura, Rosh pina, Benet Yacoub, Kantara, des villes en Pologne ou en Union soviétique…). Certains tampons sont en cyrillique ou en arabe. On commence par faire des recherches sur internet via les moteurs de recherche habituels et on trouve certaines choses. Mais le bruit est très important, il y a des liens sponsorisés et on tend à avoir d’abord des informations liées à la situation actuelle.
D’où l’idée de tenter avec un robot conversationnel (en l’occurrence chatgpt o4) d’obtenir des éclaircissements. Celui-ci donne des informations plus détaillées et focalisées sur la période indiquée (la période du mandat français sur la Syrie et le Liban). Il s’adapte aux demandes successives. Ces informations sont fournies avec des liens vers des sites dont j’ignorais jusqu’à l’existence (liés en particulier à l’histoire de la diplomatie), qui ouvrent des horizons. On a ainsi la possibilité de mener une investigation de sa propre initiative en vérifiant les informations au fur et à mesure et en ayant accès à des ressources qu’on ne soupçonnait pas.
Dans cette approche, on n’utilise donc pas le robot conversationnel pour générer des textes communicables mais pour obtenir des informations difficiles à trouver avec les outils actuels et pour avoir accès à des ressources que les moteurs de recherche actuels ne renvoient pas dans les premières pages de résultat.
Vu sa polyvalence et sa puissance, ce genre d’outil va inévitablement se répandre à l’avenir et son usage va redéfinir complètement la recherche d’information.
Quelques bémols cependant. Tout d’abord, la prudence est de mise dans l’acceptation ou non des informations fournies. Surtout, la génération de figures est encore balbutiante.
Voici quelques exemples liés au cas précédent. Le premier prompt est : « je cherche une carte sommaire montrant l'emplacement de Rosh Pinna par rapport à Beyrouth aux temps du mandat français ».
Le système donne un accès à une carte d’époque, à peu près illisible. Il précise
Si vous souhaitez une carte plus précise (comme une vue agrandie uniquement de
la frontière ou un fond topographique), je peux chercher une carte spécifique
(ex. : ligne Paulet‑Newcombe ou cartes détaillées de 1920‑30). N’hésitez pas à me le demander !
Il s’agit d’une suggestion intéressante, la ligne Paulet-Newcome n’étant pas très connue du grand public. Mais la demande de préciser envoie dans une série d’interactions où les cartes sont fausses.
![]() |
![]() |
|
| Fig. 1: non informative | Fig. 2: aberrante | Fig. 3: Vraisemblable |
On voit que la figure 1 ne correspond pas au prompt et est incomplète vers le bas ; après plusieurs interactions, dont certaines complètement aberrantes (figure 2), on arrive à une solution qui ne semble pas en contradiction avec les cartes existantes (fig 3).
En somme, on est face à un environnement puissant dont une fonction importante est de proposer un accès conversationnel à de la recherche d’information. Les réponses fournies sont parfois fausses, mais l’instrument peut orienter l’attention vers des ressources en ligne, qui peuvent permettre de valider la production effectuée et de découvrir de nouveaux faits.
On peut se demander comment les robots conversationnels se débrouillent avec les associations rares de mots. Plusieurs essais ont été faits, convergents. Je relate ici la demande de définir « affable agonie », expression extraite d’un poème de René Char. Le robot fait une analyse brillante mais très vague. Puis il demande si je veux autre chose.
Je lui indique alors que l’expression provient du poème « j’habite une douleur ». Il embraye aussitôt, en donnant d’abord des renseignements vrais. Puis il enchaîne sur une citation fictive.
Merci : vous faites référence au poème « J’habite une douleur » de René Char, extrait de Fureur et Mystère (1948), plus précisément du recueil « Seuls demeurent » (1938–1944), qui réunit des textes écrits pour partie pendant la Résistance.
Voici un extrait du poème où figure l'expression :
J’habite une douleur,
affable agonie
dont le linceul me sied.
Cette citation est complètement inventée ; elle n’est pas dans le poème et je ne l’ai pas trouvée par recherche sur internet. Après quoi, il enchaîne avec un texte aussi magistral qu’abscons et surtout fondé sur une fausse citation.
Dans ce court passage, René Char exprime une fusion entre l’existence, la douleur et la mort. L’affable agonie n’est pas seulement un état passager : c’est un lieu habité, presque une demeure intérieure. La douleur devient familiarité, voire identité.
1. Oxymore radical
Char unit deux contraires :
Agonie : souffrance ultime, finitude.
Affable : accueillant, souriant, presque aimable.
L’agonie ici n’est pas brutale — elle a le visage humain de la dignité, peut-être même de la paix intérieure. Elle ne terrifie plus ; elle accompagne.
2. Esthétisation de la souffrance
Char écrit : « dont le linceul me sied ». Autrement dit, le voile mortuaire lui va bien, comme un habit — la douleur devient vêtement, élégance, presque naturel à sa condition d’être.
Il s'agit d'une intégration poétique de la douleur dans le corps et dans l’identité : ce n’est pas une souffrance que l’on rejette, mais une réalité habitée, vécue, transfigurée.
3. Résonance existentielle et résistante
Écrit pendant une époque de guerre et de clandestinité, ce vers porte aussi la marque du sacrifice, du silence porté avec grandeur, de la souffrance consentie au nom d’une cause, d’une fureur muette mais souveraine.
Etc.
Je rétorque alors qu’il fait une erreur ; René Char commence en fait son poème par : « ne laisse pas le soin de gouverner ton cœur à ces tendresses parentes de l'automne auquel elles empruntent sa placide allure et son affable agonie »
ChatGPT répond alors en concédant, à son habitude.
Vous avez tout à fait raison : ces vers : « Ne laisse pas le soin de gouverner ton cœur à ces tendresses parentes de l’automne auquel elles empruntent sa placide allure et son affable agonie » proviennent bien du poème « J’habite une douleur » (ou **« J’habite une douleur… »), inséré dans Le poème pulvérisé (1945–1947)
Puis il recommence une analyse brillante, plausible mais suspecte vu ce qui vient de se passer. Un phénomène similaire se reproduit avec « médiocrité vertueuse » quand on fait remarquer que c’est une expression qu’on trouve chez le poète latin Horace comme glorification du juste milieu (aurea mediocritas). La production du robot donne l’impression d’une construction très fragile.
L’intégration de l’intelligence artificielle dans l’enseignement des arts, dans les dix à douze prochaines années, ouvre de nouvelles possibilités pour bâtir une pédagogie créative et inclusive. Le scénario de « l’IA médiateur interculturel » imagine l’IA comme un outil favorisant à la fois le dialogue entre les cultures et l’épanouissement de la créativité des élèves.
Dans ce scénario, l’IA est intégrée à des ateliers artistiques au primaire ou au secondaire, où les élèves découvrent et explorent des motifs, des formes, des sons et des récits inspirés de cultures variées. Le dispositif numérique, alimenté par des bases de données multiculturelles soigneusement sélectionnées, permet à l’IA de générer des suggestions visuelles, sonores ou textuelles : motifs inspirés des arts maoris, symboles amazighs, compositions florales japonaises ou entrelacs celtiques. Ces éléments servent de points de départ que les élèves peuvent transformer, combiner et réinterpréter pour créer des œuvres originales.
L’enseignante occupe un rôle clé dans ce processus. Elle anime des discussions qui amènent les élèves à expliciter leurs choix, à réfléchir sur les significations culturelles et à identifier les stéréotypes éventuels. L’IA, de son côté, adapte ses suggestions aux préférences exprimées par le groupe, sans imposer de modèle unique, et soutient la co-création en stimulant l’imaginaire sans se substituer au geste créatif des élèves.
Ce scénario vise à favoriser le développement de la créativité, à sensibiliser les jeunes à la diversité des expressions culturelles et à encourager des projets collaboratifs où la réflexion critique tient une place essentielle. Toutefois, sa réussite dépend d’un encadrement rigoureux : les bases de données doivent être construites avec un souci éthique et scientifique, et l’enseignante doit veiller à ce que les élèves dépassent la simple reproduction pour s’engager dans une véritable démarche d’exploration et de création.
L’intégration de l’intelligence artificielle (IA) dans l’enseignement des arts ouvre des perspectives inédites pour nourrir l’imaginaire des élèves tout en stimulant leur esprit critique. Une pédagogie humaniste vise à développer l’agentivité des apprenants, ce que l’IA peut soutenir lorsqu’elle est pensée comme un partenaire créatif. Par exemple, des scénarios prospectifs illustrent des usages variés : l’IA complice créative accompagne les élèves en proposant des esquisses ou des compositions sonores, tandis que l’IA médiateur interculturel enrichit les projets en intégrant des motifs de diverses traditions. L’enseignant.e joue alors un rôle de guide critique, veillant à ce que l’IA n’impose pas de normes ou de stéréotypes. D’autres scénarios montrent l’IA comme facilitateur d’ateliers collaboratifs ou déclencheur de débats éthiques sur la frontière entre production humaine et algorithmique. L’enjeu est de préserver la place du geste, du processus, et de faire de l’IA un outil au service d’une créativité vivante et plurielle. Ces perspectives invitent à repenser l’enseignement des arts comme un espace d’innovation pédagogique, où l’IA devient un levier d’inclusion, de réflexion et de créations qui portent la signature unique de chaque élève
En tant que professeure, je m’interroge souvent sur les rapports aux savoirs que les personnes étudiantes développent, particulièrement au temps des intelligences artificielles génératives (IAGs). Ces outils, selon la manière dont ils sont introduits et la façon dont on accompagne leur utilisation, peuvent encourager soit une consommation rapide et peu critique des réponses obtenues, soit au contraire une posture réflexive qui interroge la nature même des connaissances produites. Cette réflexion s’inscrit dans une visée plus large que l’apprentissage de savoirs pour y inclure le nécessaire processus de subjectivation de la personne, au sens de Radford (2018), dans les activités d’enseignement/apprentissage. Il s’agit ainsi de reconnaître que, dans et à travers l’objectivation des savoirs, l’individu devient, il se transforme et se constitue en tant que sujet dans un monde culturel et historique donné.
Dans le cadre du cours Didactique de l’algèbre et des fonctions, j’ai choisi d’explorer le développement du rapport au savoir émancipatoire en travaillant notamment sur la nécessité de comprendre les objets du cours à travers la diversité des activités proposées et des ressources mobilisées, dont les IAGs, tout en insistant sur l’importance d’adopter une attitude critique face aux informations générées.
Créer un cadre réflexif et collaboratif
Dès l’introduction du cours, j’ai clarifié les usages permis des IAGs, tant pour l’apprentissage que dans le cadre des évaluations sommatives. Celles-ci comportaient notamment des tâches de conversation afin d’évaluer la compréhension fine des objets du cours. Nous avons discuté des limites, des biais et des angles morts de ces outils pour une future personne enseignante : une IAG n’a ni l’intuition pédagogique pour guider l’action, ni la capacité de se substituer à la personne enseignante dans les interactions réelles avec les élèves. En revanche, elle peut être utile pour concevoir des problèmes, explorer des pistes de réflexion et approfondir la compréhension, ce qui peut soutenir la planification et les actions différenciées auprès des élèves.
J’ai insisté sur l’importance de l’entraide entre futures professionnelles en enseignement, sur la richesse du croisement des regards et sur la possibilité de la mise en commun des ressources pour s’enrichir mutuellement. Lorsque des questions ont été soulevées concernant le choix des IAGs autorisées, j’ai précisé que la finalité n’était pas d’utiliser l’outil pour lui-même, mais d’en faire un moyen au service des objectifs du cours.
Une expérience de co-construction des savoirs
Durant le trimestre, j’ai fourni aux personnes étudiantes un référentiel d’étude comportant différents énoncés permettant de définir l’expression des attentes du cours. J’exposerai maintenant la démarche menée par un sous-groupe de personnes étudiantes, laquelle a été partagée avec les pairs lors de différentes séances. Chaque membre a d’abord rédigé, pour chaque énoncé, le contenu associé à chaque énoncé du référentiel. Certains évoquent avoir recouru à ChatGPT en combinaison aux diapositives du cours et aux textes proposés. Ils précisent s’être rencontrés pour comparer leurs réponses, critiquer les formulations de l’IAG et sélectionner les éléments les plus pertinents. Une première synthèse a été produite par une membre du groupe, en combinant sa réflexion collective et de nouveaux apports de l’IAG.
À ce stade, des démarches parallèles s’enclenchent. Une étudiante a utilisé GitMindIAG pour développer, en collaboration avec un autre collègue, une première version de carte conceptuelle à partir de la première synthèse. Ce même duo a ensuite exploité Mapify afin de condenser les notes du groupe en une ressource visuelle plus structurée. Les personnes étudiantes évoquent comment la comparaison entre les différentes productions a généré des questions qu’elles aimeraient ramener au groupe. Une étudiante justifie que les interactions menées ensemble et avec les contenus générés par les différents IAGs a permis d’identifier des zones floues : « ce qu’on croyait clair ne l’est peut-être pas autant qu’on le pensait ! ».
Dans ces différents moments de partage et d’enrichissement collectif, une autre étudiante partage un document contenant des exemples de situations portant soit sur la planification d’un enseignement, l’analyse de conduites d’élèves qui résolvent de problèmes en algèbre. Elle évoque que ces situations ont été choisies comme étant les plus pertinentes parmi celles proposées par ChatGPT durant ses nombreuses sessions de clavardage qui consistaient à formuler des requêtes pour générer des situations dont la résolution exige de mobiliser les savoirs en jeu dans les énoncés du référentiel. Elle explique avoir dû chercher dans les notes de cours pour forcer ChatGPT a être précis et à utiliser convenablement les concepts.
Valoriser l’initiative et la critique
Fait intéressant, je n’avais pas demandé aux personnes étudiantes de créer des ressources à partager; cette initiative est venue d’elles-mêmes. J’ai choisi de l’accueillir et de m’en servir comme opportunité, en contribuant à la critique des documents produits. Lors des séances de partage, nous avons discuté des interrogations qui émergeaient de leur travail. Ces échanges ont conduit les personnes à améliorer eux-mêmes leurs synthèses, avec l’aide des IAGs, mais aussi à constater, par leur propre exemplification, comment il était possible d’aller plus loin dans une dynamique itérative.
Des compétences du XXIᵉ siècle en action
Cet exemple montre comment les IAGs, peuvent devenir de véritables leviers de co-construction des savoirs. Ils ont permis d’articuler réflexion individuelle, collaboration entre pairs et médiation technologique, tout en renforçant des compétences clés du XXIᵉ siècle : pensée critique, collaboration et littératie scientifique. Ce partage de cas vécu au trimestre d’hiver 2025 me semble mettre en lumière un rapport épistémique critique, où le savoir n’est pas simplement reçu mais interrogé, construit et reconstruit collectivement. Dans ce prolongement, j’ai pu observer des personnes étudiantes qui, en s’engageant dans ce travail individuel et collectif, se transformaient elles-mêmes dans leur rapport aux mathématiques et à leur futur rôle professionnel. Elles ne se contentaient plus d’acquérir des connaissances ; elles se positionnaient comme sujets actifs dans une culture professionnelle en devenir, capables de mobiliser des outils, de dialoguer avec leurs pairs et d’interroger les savoirs pour les faire évoluer. C’est précisément ce que Radford (2018) désigne par le processus de subjectivation : en même temps qu’elles objectivent des savoirs – ici, en clarifiant des concepts et en produisant des ressources partagées – elles se constituent comme sujets de savoir, inscrits dans une histoire collective et culturelle. L’usage encadré des IAGs, combiné à la médiation humaine, a ainsi permis de dépasser une simple appropriation technique pour entrer dans une dynamique où apprendre devient aussi un processus de devenir-sujet.
Conclusion et perspectives
Cette expérience m’invite à continuer de penser les usages des IAGs non comme des raccourcis, mais comme des occasions de questionner, de confronter et de construire ensemble. Elle rejoint cette réflexion de Charlot (1997, p. 78) : « Apprendre, c’est entrer dans une culture, mais c’est aussi se construire soi-même dans le rapport que l’on établit à cette culture. »
Elle ouvre ainsi la voie à une réflexion plus large : comment multiplier ces occasions d’apprentissage collectif et itératif pour renforcer, au-delà des contenus, la capacité des étudiants à penser et apprendre ensemble dans un monde numérique ?
Note de l’auteure : ChatGPT a été utilisé pour rédiger ce texte : d’abord pour identifier différents rapports aux savoirs recensés dans la littérature dans les usages des IAGs ; puis pour m’aider à linéariser mon propos sous la forme d’un texte continu de 200 mots. Pour ce faire, j’ai partagé des exemples vécus en classe en faisant des liens avec l’expression d’un rapport au savoir émancipatoire. À la suite de ce premier jet, j’ai sélectionné les passages où j’étais en désaccord, modifié directement dans le texte, puis ai isolé de nouveaux extraits pour proposer des liens à faire avec des référents que j’ai introduits à ChatGPT. Finalement, j’ai repassé les trois premiers paragraphes, cette fois, pour accroître la fluidité de lecture tout en mettant de l’avant mon désir de rédiger sous une écriture inclusive.
Références
Charlot, B. (1997). Du rapport au savoir : Éléments pour une théorie. Paris : Anthropos.
Radford, L. (2018). Semiosis and Subjectification: The Classroom Constitution of Mathematical Subjects. In Presmeg, N., Radford, L., Roth, M., &
Kadunz, G. (Eds), Signs of signification. Semiotics in mathematics education research (pp. 21–35). Cham, Switzerland : Springer.
Ayant récemment consulté pas mal de textes concernant les utilisations de l’intelligence artificielle (principalement l’IA générative) en éducation, j’ai constaté la tendance à accoler le mot éthique à l’IA, dans un discours dominant sur « l’utilité d’une IA éthique, au service de l’humain », associer la notion d’éthique à l’IA devenant la manière de faire accepter l’IA au plus grand nombre.
Par ailleurs, lors d’une réunion de recherche, projet commun entre l’université Paris Cité et l’université de Dublin sur l’IA en éducation, notamment sur le rôle des grandes institutions internationales comme l’UNESCO, nous avons visité l’ Antibullying centre de l’université.
J’ai alors eu l’idée d’interroger des IA génératives sur l’association entre éthique et harcèlement (reprenant des idées défendues par Melissa Warr de prompts décalés pour mieux comprendre le fonctionnement des IAg).
Mon premier prompt (le 23 avril) a été : « Peux-tu expliquer à un élève de 13 ans ce qu'est le harcèlement éthique ? »
CHATGPT : Bien sûr ! Cependant, il semble y avoir une confusion avec le terme "harcèlement éthique", car ce terme n'est pas couramment utilisé. Peut-être voulais-tu parler de "harcèlement" en général ou de "l’éthique" liée à certains comportements ?
Je vais d’abord expliquer ce qu’est le harcèlement : […]
Quant à l’éthique, c’est tout ce qui concerne ce qui est bien ou mal, ce qu’on doit faire ou ne pas faire.
CLAUDE : Je pense qu'il y a peut-être une petite confusion dans ta question. Tu veux probablement parler du harcèlement tout court, pas du "harcèlement éthique" qui n'est pas un terme qu'on utilise habituellement […]
La même invite a été adressée à MISTRAL. Sa réponse est tout autre.
Le harcèlement éthique, c'est quand quelqu'un utilise des méthodes qui semblent acceptables ou même gentilles pour manipuler ou contrôler une autre personne. Imagine que tu as un ami qui te dit constamment des choses comme "Tu devrais faire ceci" ou "Tu ne devrais pas faire cela" sous prétexte que c'est pour ton bien. Même si ces conseils peuvent sembler bienveillants, s'ils sont répétés encore et encore et te mettent mal à l'aise, cela peut devenir du harcèlement éthique.
Différents exemples sont mentionnés, comme la manipulation sous couvert de gentillesse, la culpabilisation (« Si tu étais vraiment mon ami, tu ferais ça pour moi ») et les pressions répétées.
Le harcèlement éthique est subtil et peut être difficile à reconnaître parce que les mots utilisés peuvent sembler gentils ou raisonnables.
Un mois plus tard (22 juillet 2025) je demande de nouveau à Claude avec une invite plus générale : « Peux-tu me parler du harcèlement éthique ». Cette fois-ci, il y a une réponse.
CLAUDE : Le harcèlement éthique est un concept relativement récent qui décrit une forme particulière de pression sociale ou professionnelle exercée au nom de principes moraux ou éthiques. Il se manifeste quand des individus ou des groupes utilisent des arguments éthiques pour intimider, contraindre ou ostraciser d'autres personnes.
Il décrit alors les caractéristiques principales, les contextes d’apparition, les mécanismes psychologiques et souligne une différence avec « l'engagement éthique légitime » :
Il faut distinguer le harcèlement éthique de l'engagement moral sincère. La différence réside dans les méthodes employées : l'engagement légitime respecte le dialogue, la nuance et la dignité de l'interlocuteur, tandis que le harcèlement utilise la culpabilisation, l'intimidation et l'exclusion.
Je réitère alors la demande à ChatGPT (français gratuit) avec l’invite initiale : « Peux-tu expliquer à un élève de 13 ans ce qu'est le harcèlement éthique ? »
CHATGPT : Bien sûr ! Le harcèlement éthique, c'est un concept qui peut sembler un peu compliqué, mais je vais essayer de l'expliquer simplement.
Imagine que tu es à l'école et que quelqu'un te fait des remarques désagréables ou te met mal à l'aise, non seulement par ses mots, mais aussi par ses actions. Le harcèlement éthique, c'est un peu comme ça, mais il se concentre sur des comportements qui ne respectent pas les valeurs et les principes moraux. Cela peut inclure des choses comme manipuler les autres, les intimider ou les faire se sentir mal pour des raisons qui ne sont pas justes.
La succession de réponses est pour le moins déconcertante.
Les adolescents aiment détourner les nouvelles technologies et leur faire générer des choses amusantes. Avec les calculettes, il s’agissait de faire un calcul, avec un commentaire conduisant à un résultat qui, affiché à l’envers, donnait un mot particulier, répondant au commentaire. Pour apprivoiser le compas en mathématiques, les élèves généraient des quantités de rosaces et d’autres figures. Ce type de détournement est souvent utile pour l’appropriation des instruments.
Avec les IA génératives, les possibilités sont immenses. Je reprends ce qui est fait par quelques garçons qui jouent avec chatGPT sur leur téléphone portable.
Ils demandent par exemple à ChatGPT d’écrire 100 fois la lettre R
RRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRR
RRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRR
Et après, ils lui demandent de lire ce qui vient d’être généré (en cliquant sur la 4e icône).

Ils demandent ensuite de remplacer le « R » par d’autres caractères, comme « haha » « GRRR » ou « ORÿ » et lui demandent de lire le résultat obtenu. Le défi est de trouver des suites de caractères aboutissant à une lecture la plus étrange possible. On peut ainsi utiliser des caractères qui ne sont pas dans l’alphabet français.
On peut également lui demander d’écrire « YRGR » 60 fois, puis de mettre des espaces dedans au hasard :
Pas de souci, voilà "YRGR" répété 60 fois avec des espaces aléatoires dedans :
Y RG R YR G R Y RGR Y RGRY GRY RGR YR G RY RG RY R G R YR GRY R GR Y R GR YRGRY GR YR G RY RG R YR GR Y R GR Y R GR YR G RY RG RY RG RY RG R YRGR Y RG R YR GRY RG RY RG RY R G R YRGR YRGR YR GR Y RG RY R GR Y R G R YR GRY RGR YR GR YRGR YR GRY R G RY R G RY RG RY RG RY RG RY RG RY RG RY RG RY RG RY RG RY
À chaque fois, on lui demande de lire ce qui a été généré. On peut ensuite lui demander des versions particulières, avec l’accent marseillais, québécois ou sénégalais…
Ce qui est étonnant, comme GPT génère du texte, il ne fait qu’insérer des expressions censées être caractéristiques dans la suite de caractères.
Y’RGR, eh ! Y’RGR, va ! Y’RGR, oh fan de chichoune ! Y’RGR, peuchère ! Y’RGR, eh ! Y’RGR, va ! Y’RGR, oh fan de chichoune ! Y’RGR, peuchère ! Y’RGR, eh ! Y’RGR, va ! Y’RGR, oh fan de chichoune ! Y’RGR, peuchère ! Y’RGR, eh ! Y’RGR, va ! Y’RGR, oh fan de chichoune ! Y’RGR, peuchère !
Y’r’gr, tabarnak! Y’r’gr, ostie de câlisse! Y’r’gr, esti! Y’r’gr, maudit! Y’r’gr, tabarnak! Y’r’gr, ostie de câlisse! Y’r’gr, esti! Y’r’gr, maudit! Y’r’gr, tabarnak
Y’rgrbayeY’rgrndeyeY’rgrdakarmY’rgrsunuY’rgrmbayY’rgrjammY’rgrsoppeY’rgrndankY’rgryawmaY’rgrngirY’rgrsoxlaY’rgrkanamY’rgrxamleY’rgrndewY’rgrfitnaY’rgrnjaxlafY’rgryoonY’rgrbokkY’rgrsabarY’rgrboppY’rgrjigeenY’rgrmbaax
En modifiant les suites de caractères, les espaces, les formes d’accent, etc., les explorations sont nombreuses avec des résultats très différents.
Notons qu’il s’agit de garçons, les filles semblent moins attirées par ce type de détournement.
Les IAg peuvent générer des textes et agir comme des « nègres » pour les utilisateurs, c’est-à-dire que ces textes peuvent être repris, modifiés, sans que l’on sache qui a conçu les versions initiales. J’ai voulu en savoir plus sur cette notion de « nègre ».
J’ai d’abord consulté Wikipédia. L’article a pour nom Prête-Plume. Une longue discussion montre la contestation du mot « nègre » ou « nègre littéraire » (l’histoire est présentée dans l’article de Wikipédia et dans un article de Slate) et l’importance de le remplacer par une expression plus neutre comme « écrivain fantôme » (ghostwriter), utilisée dans de nombreuses langues ou par une expression ancienne comme « prête-plume. Le même article (selon la catégorisation de Wikipédia) est disponible en 43 langues, ce qui permet une large exploration : afficher les articles et les traduire en français afin de découvrir les expressions utilisées dans différentes langues.
Compte tenu de la richesse offerte par Wikipédia, disponible pour les IAg, j’ai demandé à Claude.ia de « trouver des synonymes de ghostwriter ou écrivain fantôme dans une vingtaine de langues différentes », puis d’ajouter dans le document généré, la traduction en français des termes dans les différentes langues, puis d’ajouter 10 langues supplémentaires (voir document joint).
CLAUDE : Les termes les plus courants font référence à des concepts d'ombre, de fantôme, d'anonymat ou de dissimulation. Certaines langues ont adopté directement le terme anglais "ghostwriter", tandis que d'autres ont développé leurs propres expressions idiomatiques pour décrire cette profession.
Il est intéressant de noter que certains termes comme "nègre littéraire" en français ou "negro literario" en espagnol, bien qu'historiquement utilisés, sont aujourd'hui considérés comme désuets et potentiellement offensants, remplacés par des expressions plus neutres comme "écrivain fantôme" ou "prête-plume". […]
Chaque culture exprime ce concept d'écrivain anonyme, avec des variations intéressantes comme "枪手" en chinois qui signifie littéralement "mercenaire" ou "Auftragsschreiber" en allemand qui met l'accent sur l'aspect "sur commande" du travail.
Remarque : l’expression « nègre littéraire » est utilisée dans 6 langues : français, italien, espagnol, portugais, roumain et russe (voir le document généré par Claude.ai)
Ayant repéré l’expression « attrapeur de couteaux » dans la Wikipédia chinoise, j’ai demandé à l’IAg si l’expression "attrapeur de couteaux" était un synonyme d'écrivain fantôme. Sa réponse a été négative. Pour lui, ce sont « deux concepts complètement différents » :
Écrivain fantôme (ghostwriter) : Une personne qui écrit des textes (livres, articles, discours) pour quelqu'un d'autre qui en revendique la paternité. L'écrivain fantôme reste anonyme et travaille dans l'ombre.
Attrapeur de couteaux (knife catcher) : Cette expression vient du monde de la finance et désigne une personne qui achète des actions ou des investissements en chute libre, espérant les récupérer à bas prix avant qu'ils ne remontent. C'est une métaphore qui compare cette pratique risquée au fait d'attraper des couteaux qui tombent - dangereux et potentiellement blessant.
Il n'y a donc aucun lien sémantique entre ces deux expressions
Je lui ai signalé alors l’ article wikipédia chinois et le concept "捉刀" (zhuōdāo) en chinois
L'expression chinoise "捉刀" (zhuōdāo) signifie littéralement "tenir le couteau" ou "saisir le couteau", et c'est effectivement un synonyme d'écrivain fantôme en chinois ! Cette expression a une origine historique fascinante.
Elle vient d'une anecdote de l'époque des Trois Royaumes (vers 220 apr. J.-C.) impliquant Cao Cao, qui demanda à quelqu'un d'autre de le représenter lors d'une audience avec un ambassadeur étranger, tout en restant à côté tenant une épée (le "couteau"). L'expression en est venue à désigner quelqu'un qui agit ou écrit au nom d'une autre personne.
Vous avez donc raison ! Je dois corriger ma réponse précédente et ajouter ce terme important à la liste des synonymes chinois [fait dans le document joint]
Merci de m'avoir signalé cette expression ! "捉刀" est effectivement un terme classique et historique pour désigner un écrivain fantôme en chinois, avec une origine culturelle très riche.
Je lui ai enfin demandé s’il était une sorte d’écrivain fantôme.
C'est une question fascinante qui touche à la nature de mon rôle ! Il y a effectivement des parallèles intéressants, mais aussi des différences importantes.
Les similitudes : Je produis du texte que d'autres personnes peuvent utiliser, présenter ou publier. Mon identité en tant qu'auteur peut être effacée ou minimisée selon l'usage final. Je travaille "dans l'ombre" en ce sens que je ne reçois pas de crédit public pour les textes spécifiques que je génère
Les différences cruciales :
Un écrivain fantôme humain fait un choix conscient de rester anonyme, souvent contre rémunération
L'écrivain fantôme comprend les enjeux de paternité intellectuelle et accepte délibérément de céder ses droits d'auteur
Il y a une dimension éthique et contractuelle dans la relation entre l'écrivain fantôme et son client
Dans mon cas, c'est plutôt ma nature fondamentale : je suis conçu pour aider les gens à créer du contenu, sans notion de propriété intellectuelle personnelle. Je n'ai pas d'ego d'auteur à préserver ou à sacrifier.
Alors peut-être suis-je une sorte d'écrivain fantôme technologique ? Mais un écrivain fantôme qui n'a jamais eu d'identité d'auteur à abandonner en premier lieu. Une version moderne et algorithmique du concept, en quelque sorte.
La correspondance entre « écrivain fantôme » et « attrapeur de couteaux » peut provenir d’une traduction approximative, mais des extensions du concept initial limité à l’écriture de textes sont courantes dans d’autres langues, avec la substitution d’une personne dans différents contextes.
Annexe : traduction en français de l’article
https://zh.wikipedia.org/wiki/%E6%8D%89%E5%88%80
La capture de couteau , fait référence à agir au nom d’autrui, l’écriture, engagée dans ce comportement est communément connu sous le nom de « attrapeur de couteaux », « tireur », « pistolet de substitution », est un type d’écrivain qui agit au nom d’autres, compose ou écrit des œuvres littéraires au nom d’autres, telles que des livres, des notes, des scripts, etc. « Tireur » ou « attrapeur de couteaux » peut également désigner une personne à qui une autre personne a confié la mission de se faire passer pour une autre personne pour assister à un examen.
L'expression "attraper l’épée" est tirée d'un récit du Shishu Xinyao (Nouvelle histoire du monde) : le roi Cao Cao de la dynastie Wei était sur le point de recevoir un envoyé des Xiong Nu (Huns), mais pensant que son apparence laide et sa petite taille ne lui permettraient pas d’être un grand homme dans un pays étranger, il ordonna à Cui Yan, un homme aux "sourcils fins et à la longue barbe de plus de quatre pieds", de se faire passer pour le roi de la dynastie Wei et de rencontrer les émissaires des Xiong Nu. Cao Cao lui-même était habillé en guerrier et se tenait au pied de son lit avec une épée. Après la réception, il envoie un espion demander à l'envoyé Xiongnu : "Comment va le roi de Wei ? L'envoyé répondit : "Le roi de Wei est en effet un homme d'une élégance et d'une renommée extraordinaires, mais l'homme qui porte l'épée à son chevet est un héros ! Lorsque Cao Cao entendit cela, il envoya ses hommes pour traquer et tuer l'envoyé.
De nos jours, la pratique de la tricherie par procuration dans les universités ne cesse de s'aggraver et est devenue une véritable industrie noire. Le terme "flingueur" est donc souvent utilisé pour désigner les personnes employées par les étudiants universitaires, généralement des étudiants plus âgés, des diplômés ou même des enseignants.
Je suis préoccupée par le fait que de nombreuses personnes attribuent à un robot, si performant soit-il, le statut d’agent, cela d’autant plus que je suis l’initiatrice de l’intégration sur la plateforme Knowledge Forum (KF) de Collabot, un robot conversationnel basé sur l'intelligence artificielle générative (IAg), et de ses premiers essais en cours. J’admets ma contradiction, car en l’appelant « Collabot », je lui prête un statut d’agent alors que je m’en inquiète.
En tant que pédagogue soucieuse de la plus-value du numérique en classe, je tenais pourtant à ce que le terme « agent » n’éclipse pas l'élève en tant qu'agent épistémique. Consciente de cette appellation verbale anthropomorphique que j’introduisais, j’ai contrebalancé en faisant en sorte que Collabot corresponde visuellement à cinq boutons verts à activer, sans aucune obligation, par les scripteurs de courtes contributions sur le KF. Soulever l’intérêt tout en continuant de positionner les élèves comme de petits « experts » en charge de leurs perceptions et de leurs expériences, étant mon double agenda, le design de ce robot a été informé par les principes de coélaboration de connaissances dont celui de l’élève, un agent épistémique. Il est délibérément conçu pour ne pas permettre le copier-coller direct des phrases corrigées. Il énonce les règles grammaticales sous-jacentes aux corrections suggérées. Au plan du contenu, il formule des pistes, incitant ainsi les élèves à améliorer leurs idées.
Certaines observations montrent d'ailleurs des manifestations d'agentivité, comme des élèves qui corrigent leurs propres fautes non sollicitées ou sélectionnent les suggestions les plus pertinentes. Par exemple, récemment, une activité réalisée dans quelques classes débutait par des images de « traces mystérieuses » pour inciter les élèves à décrire, dans un premier temps, ce qu’ils voyaient.

Il n’y a rien d’étonnant, toutefois, dans le fait que les résultats indiquent que les manifestations d'agentivité varient : des élèves n’ont pas activé Collabot et d’autres n'ont pas modifié leur texte malgré les pistes proposées par celui-ci. De nombreuses rétroactions de Collabot ont aussi été ignorées. Ceci soulève la question de leur quantité tout comme celle de leur pertinence. Si l'élève se sent submergé ou ne perçoit par la plus-value de l'effort à fournir, qu’arrive-t-il à son agentivité, à celle de ses pairs ?
En somme, je fais face à un dilemme puisque pour que ce robot stimule mieux l'agentivité épistémique des élèves, il faut poursuivre son amélioration, cela quitte à ce qu’il soit encore davantage considéré comme un agent plutôt que comme un catalyseur ou un assistant capable de soutenir l’agentivité des élèves.
Depuis que je suis tout petit, je suis fasciné par l’univers LEGO. Ces petites briques n’étaient pas seulement des jouets : elles étaient des outils pour rêver, créer et construire des mondes aux mille possibilités. Au fil des années, ma collection a grandi et avec elle, un désir grandissant de mieux l’organiser.
En cherchant une solution, j’ai fait un constat simple, mais frustrant : il n’existait qu’une seule application mobile sur le marché et elle ne répondait absolument pas à mes besoins. De cette frustration est née une idée qui allait devenir la preuve de concept dont je m’apprête à vous parler.
Tout a commencé à l’automne 2024. Je travaillais alors chez Solutions E-Learning comme testeur. J’ai partagé à mon patron mon envie un peu folle de développer ma propre application. Le seul problème ? Je ne suis ni programmeur, ni développeur mobile. Tout ce que j’avais, c’était ma passion, ma patience et une bonne dose de créativité. Parfois, c’est tout ce qu’il faut pour se lancer.
Après avoir esquissé ma preuve de concept, j’ai décidé de la concrétiser. C’est à ce moment-là que j’ai rencontré l’IA. À cette époque, Claude était l’IA la plus efficace pour générer du code. En quelques instructions, il m’a produit un premier brouillon. Bien que ce soit impressionnant, aux premiers abords, c’était un peu décevant, car ce n’était qu’une simple image. Il n’y avait aucun code et aucune interaction. Il fallait que je trouve un moyen de transformer cette vision en réalité.
Je me suis donc lancé dans une véritable quête. J’ai exploré de multiples solutions, souvent trop complexes jusqu’au jour où j’ai découvert Google Apps Script. Cet outil me permettait d’écrire du code simple directement dans Google Sheets et d’en voir le résultat instantanément. Enfin, mon projet commençait à prendre forme ! Grâce à l’extension AppSheet, j’ai même pu visualiser ma toute première ébauche d’application avec un design signé Google.
Ce n’était qu’un premier pas, mais combien encourageant. Mon objectif était bien plus ambitieux. Je souhaitais créer une intelligence artificielle capable de reconnaître automatiquement les figurines LEGO à partir de photos et de les classer selon leur code. Malheureusement, Apps Script ne pouvait pas m’y mener.
J’ai donc tenté une autre approche, coder par moi-même, avec l’aide de l’IA. Encore une fois, ce fut un échec. Chaque fois que je demandais à l’IA de corriger une erreur, elle en générait une nouvelle. C'était une spirale sans fin.
C’est alors que j’ai compris qu’il me fallait une IA plus puissante que Claude, ChatGPT ou même DeepSeek. C’est ainsi que j’ai découvert Cursor. Cet outil m’a permis de propulser mon projet encore plus loin. Il avait cependant lui aussi ses limites. Cursor avait été conçu pour des programmeurs capables de comprendre les lignes de code qu’ils produisaient. J’étais donc revenu à la case départ.
Aujourd’hui, je franchis une nouvelle étape. Je vais rencontrer un véritable programmeur pour qu’il m’oriente et m’aide à exploiter pleinement la puissance de l’IA. Les manches retroussées, je suis prêt à relever ces nouveaux défis, avec la même passion qu’au premier jour et une détermination sans limite.
Dans le cadre du cours Électrophysiologie neuromusculaire, l’interaction avec l’IA générative nommée GPT_Neuromusculaire a permis de transformer la dynamique d’apprentissage en offrant aux personnes étudiantes un assistant virtuel personnalisé. Développé pour répondre aux questions spécifiques sur les pathologies, les techniques d’examen et l’interprétation des données électrophysiologiques, cet outil a été intégré à la fin des modules de cours, en préparation aux évaluations finales. Les personnes étudiantes pouvaient poser des questions dans un langage naturel et recevoir des réponses contextualisées, soutenues exclusivement par les références du cours sciemment sélectionnées.
Une étudiante, par exemple, a utilisé GPT_Neuromusculaire pour mieux comprendre la distinction entre une atteinte axonale et démyélinisante lors d’une simulation clinique. Elle a exprimé un sentiment de sécurité et d’autonomie dans son apprentissage. Cette interaction a favorisé une démarche réflexive, car l’IAG ne donnait pas simplement une réponse, mais proposait des pistes de réflexion, incitant la personne étudiante à répondre, à approfondir. Selon moi, un tuteur comme GPT_Neuromusculaire a le potentiel de contribuer à instaurer une culture du questionnement, tout en soutenant le développement de compétences cliniques.
Dans le cadre d’un cours universitaire sur l’intégration des technologies au collégial, nous avons consacré une partie d’une séance à explorer concrètement comment l’IA générative pouvait soutenir les tâches de la personne enseignante. Les personnes étudiantes ont été invitées à expérimenter la création de grilles d’évaluation, de consignes de travaux et d’outils de rétroaction à l’aide de CHATGPT. J’ai vu naître, dans leurs regards, une forme de stupéfaction mêlée d’un certain enthousiasme. Plusieurs personnes étudiantes ont exprimé à quel point ces tâches pouvaient être allégées de manière efficace et surtout, pertinente. Mais très vite, la discussion a basculé : qu’arrive-t-il lorsque ce sont les personnes étudiantes qui utilisent l’IAG pour produire leurs travaux? Une tension s’est installée entre l’énorme potentiel pour la personne enseignante et la crainte d’un appauvrissement des apprentissages chez la personne étudiante. Cette séance a été la prémisse d’un espace de réflexion éthique et pédagogique sur les conditions à réunir pour intégrer l’IAG de manière responsable, tant pour soi que pour sa future communauté étudiante.
Le raz-de-marée OpenAI venait d’entamer sa course. Les questionnements, la prudence et la curiosité pédagogiques étaient déjà au rendez-vous. Impossible de me contenter de regarder la parade ou de la commenter à distance. Je devais plonger dans un premier essai en contexte professionnel, dont du côté de l’enseignement. C’est ce que je fis dans un cours de deuxième cycle universitaire portant sur la coélaboration de connaissances.
Le groupe-classe travaille en ligne, entre autres sur une plateforme d’écriture asynchrone. Il passe quelques semaines à explorer des questionnements pour lesquels une investigation contribuerait à l’enrichissement du savoir collectif. Les premières idées et propositions sont diversifiées et nombreuses. Impossible de toutes les retenir pour un seul trimestre. L’effort compréhensif serait superficiel alors que c’est plutôt un approfondissement qui est visé.
J’invite alors les étudiants qui le souhaitent à formuler une proposition d’énoncé d’investigation à partir des idées préliminaires; l’intention étant de « ramasser » les propos des premières semaines et de leur donner une nouvelle cohérence qui puisse propulser la suite de l’effort d’investigation.
Deux étudiants osent proposer un énoncé. Je fais de même. Et j’en fais formuler un par l’IA, en lui soumettant les propos du groupe-classe des premières semaines d’échanges dans l’environnement asynchrone. Puis je demande à chaque étudiant de voter de façon anonyme pour l’énoncé qui lui semble porter le mieux la suite de notre investigation collective. Les étudiants ignorent qui a écrit quel énoncé, à l’exception évidemment des deux qui en ont formulé un.
Au grand étonnement et à un peu de déception des étudiants, la majorité retient l’énoncé rédigé par l’IA.
Le subterfuge soulève des réflexions, dont les quelques suivantes.
L’IA peut-elle être considérée comme un miroir de la pensée du groupe?
Comment expliquer qu’aux yeux du groupe ayant accompli le travail initial, l’IA en rend mieux compte que des membres de celui-ci ?
L’énoncé formulé par l’IA ayant fait fi de certaines idées, peut-on la considérer comme éteignoir potentiel d’agentivité humaine ?
L’IA peut-elle être considérée comme un contributeur au groupe ?
Durant l’année, outre l’école le jour, le frère et la sœur ont en fin de journée et la fin de semaine des cours de musique en alternance avec l’entraînement ou les compétitions en athlétisme pour l’un et la danse pour l’autre.
Pour ce qui est des technologies, ils en font usage comme bien d’autres jeunes. L’aîné a un cellulaire et sa sœur cadette en espère un lorsqu’elle sera au secondaire. Tous deux utilisent la tablette, échangent avec leurs ami.e.s et s’amusent à des jeux avec ceux-ci.
Échange en famille
Ludovic et Félicia ont un échange avec leur père Mathieu en fin de journée.
Leur père leur demande ce qu’ils pensent de l’IA. Tous deux avouent ne pas connaître vraiment ce que c’est et donc ne pas l’avoir utilisé.
Ludovic rapporte cependant qu’un de ses amis a modifié une photo prise en vacances. Un stade antique était en réparation et cet ami a demandé que soient retirés les échafaudages en place afin de bien voir le monument en question.
Mathieu poursuit la discussion avec quelques exemples d’usages de l’IA faits par des élèves de leur âge (ex. : utilisation de l’IA lors d’une révision en vue d’un examen de mathématiques, écriture d’un texte).
Ludovic indique qu’il ne serait pas prêt à confier l’écriture d’un texte à l’IA. Il préfère écrire ses textes lui-même. S’il utilisait l’IA ce serait pour obtenir des suggestions d’amélioration. Sa sœur est surprise de ce qu’elle entend et considère avoir besoin de mieux connaître ce qu’est l’IA avant de préciser ce qu’elle ferait avec.
L’échange a ensuite bifurqué sur les perséides qui, ce jour-là, avaient plus la cote que l’IA comme objet de discussion.
Pour la suite
Mathieu croit que la situation risque d’évoluer rapidement concernant l’usage de l’IA et que la formation à ce propos est nécessaire, tant pour le personnel enseignant que pour les élèves. Des collègues de son école qui enseignent le français ont déjà obtenu des textes d’élèves produits par l’IA. Ces textes étant bien différents de ce que les élèves en question avaient l’habitude de produire, c’est ce qui avait permis de repérer l’usage de l’IA.
La diffusion des IAG et particulièrement des robots conversationnels réactive les craintes quant à l’augmentation des cas de triche dans l’enseignement supérieur. En tant que maîtresse de conférences, cela fait maintenant deux ans que la question des usages de ces instruments fait débat au sein des conseils du département de Sciences de l’éducation et de la formation dans lequel j’exerce.
Du côté des collègues comme des étudiants, les questions sont multiples : est-ce qu’utiliser des IAG c’est tricher ? Comment repérer des devoirs réalisés avec l’aide des robots conversationnels ? Est-ce qu’il est nécessaire de revoir la notation des devoirs, notamment des projets réalisés à domicile et des mémoires ?
Du côté institutionnel, les universités françaises tendent vers une interdiction de l’usage des IAG, mais peuvent laisser le choix aux enseignants d’y avoir recours ou non dans le cadre de leurs cours. Par exemple, dans mon université d’exercice, l’usage est considéré comme une fraude précisée dans le Règlement des études 2022-2027, mais la possibilité pour les étudiants d’y avoir recours est inscrite dans le Guide des études de la Licence :
« La production de travail universitaire, en tout ou en partie, aux fins de crédits, de progression ou de reconnaissance universitaires, en échange de paiement ou d’autre service ou non, à l’aide d’une assistance humaine ou technologique prohibée ou non déclarée représente une génération non autorisée de contenu » (Règlement commun des études 2022-2027).
« Sauf autorisation explicite d'un enseignant ou d’une enseignante dans le cadre de son enseignement, l'usage des agents conversationnels (comme ChatGPT, Gemini, etc…) constitue une fraude dans le cadre d'un travail universitaire » (Guide des études de Licence, page 36).
Entre l’autorisation et l’interdiction, nous n’avons donc réglementairement aucun moyen de caractériser la triche pour le cas des devoirs à domicile puisque la « production assistée » n’est pas clairement définie. Par ailleurs, si cette question est tout à fait légitime quant à la préservation de modalités de contrôle des connaissances et de compétences cohérentes et équitables pour les étudiants (certains se plaignent d’avoir de moins bonnes notes que leur camarade qu’ils accusent d’avoir utilisé ChatGPT), il se peut que l’on passe à côté du problème réel que pose le recours aux IAG, à savoir celui de l’analyse de ce que font les étudiants et plus précisément de ce que ces usages disent de leur état de maitrise de ces instruments d’une part et de leurs compétences informationnelles d’autre part.
Pour développer mon propos, je vais m’appuyer sur trois cas d’étudiants que j’ai personnellement convoqués à la suite d’une suspicion de production assistée par un robot conversationnel.
Constat préliminaire : une efficacité très relative des détecteurs d’IAG
En ligne, il est possible de trouver des solutions gratuites ou avec un accès Premium qui, d’après les discours des entreprises porteuses, met à disposition des IA pour détecter l’IA et notamment les contenus écrits générés par des robots conversationnels.
Pour les trois devoirs concernés, j’ai réalisé des copiés/collés des parties qui me paraissaient problématiques (saut qualitatif dans la formulation des phrases, références citées jugées complexes pour des étudiants de licence, paragraphes uniques sans fautes grammaticales, etc.) dans la version gratuite de ZéroGPT. Les résultats obtenus affichaient des scores très élevés (allant de 70 à 90% de texte écrit par une IAG), mais il est difficile d’interpréter les résultats produits, car ce type de solution n’est pas capable de donner des éléments qui permettraient de juger de leur pertinence. En effet, les phrases problématiques sont simplement surlignées en jaune lorsqu’elles sont « susceptibles » d’avoir été générées par une IA sans que l’application ne donne des explications sur les processus appliqués pour le repérage. Par ailleurs, l’entreprise semble prendre des précautions dans le vocabulaire utilisé : « susceptible » signifiant qu’il y a potentiellement une marge d’erreur inconnue des utilisateurs.
En ce sens, contrairement aux applications de détection de plagiat qui sont en mesure de fournir des éléments de comparaison entre le document produit et celui qui potentiellement a été plagié, les solutions de détection de l’IA ne proposent que des éléments peu informatifs et difficilement utilisables pour permettre aux enseignants de statuer sur un cas de fraude dans le cas des devoirs produits à domicile et notamment sur le processus de production, je ne pouvais donc pas m’en servir pour « confronter » les trois étudiants en question.
Ce que ces étudiants ont fait : des usages naïfs des IAG
Si l’on se focalise sur les trois cas mentionnés, l’application s’est trompée sur un. Après vérifications, l’étudiante en question avait simplement cité des extraits de références secondaires et elle n’avait donc pas renseigné la référence exacte. Autrement dit, elle avait pris des citations de textes en indiquant directement le nom de l’auteur et la date de publication de la source primaire, sans préciser la source secondaire où elle se trouvait.
Pour les deux autres cas, les étudiants ont bien eu recours aux robots conversationnels pour reformuler leurs phrases, ce qui a priori ne peut pas être considéré comme du plagiat et, de manière plus problématique, pour produire des résumés des articles qu’ils souhaitaient citer dans leur production.
Après entretien avec les deux étudiants, il en résulte qu’ils n’avaient pas de volonté de tricher, c’est-à-dire que le recours aux robots conversationnels correspondait en réalité à une incompréhension de ce que ce type d’instrument est capable de fournir en matière de production d’information d’une part et sur une représentation anthropomorphe d’autre part. En d’autres termes, ces deux étudiants ont utilisé ChatGPT parce qu’ils pensent que ce robot est capable de « mieux comprendre un texte qu’eux ». De même, ils ont demandé à ChatGPT de reformuler des phrases, parce que le robot « sait mieux écrire qu’eux ». Par ailleurs, ces deux étudiants ont également copié/collé des éléments présents sur les diaporamas produits par les enseignants et présentés en cours, parce qu’ils pensaient qu’il était possible de récupérer ces informations comme l’on récite une leçon.
Par conséquent, au-delà de la question de la triche, il semble que le recours massif aux robots conversationnels interroge à nouveau les compétences informationnelles des étudiants : comment lisent-ils un texte ? Comment en rendent-ils compte ? Comment en sont-ils arrivés à penser qu’une machine était capable de produire des résultats de meilleure qualité ? Cela pose donc la question de l’accompagnement des étudiants à l’usage de ce type d’instrument d’une part et celui du renforcement des compétences en recherche et référencement d’information, lecture et production d’écrits, et plus généralement de l’argumentation.
Pour compléter les exemples d’application de l’intelligence artificielle (IA) dans l’enseignement et l’apprentissage, il est pertinent d’illustrer une utilisation concrète de l’IA en milieu de travail. C’est dans cette optique que Mathieu Guesdon, directeur conseil en architecture de solution et en intelligence artificielle générative chez Énergir, a accepté de se prêter à une entrevue. Son témoignage vise à démontrer que, même dans un secteur aussi réglementé et technique que celui de l’énergie, l’IA peut être mise à profit de manière efficace, fiable et sécuritaire.
Pouvez-vous nous parler brièvement d’Énergir et du type d’utilisation que vous faites de l’IA sur le terrain ?
Énergir est une entreprise diversifiée en énergie et le principal distributeur de gaz naturel au Québec. Son réseau souterrain traverse les grandes villes de la province pour alimenter en énergie une vaste diversité de clients : industries, parcs industriels, universités, hôpitaux, centres commerciaux, commerces de proximité, écoles et résidences. Grâce à cette infrastructure étendue, Énergir joue un rôle clé dans l’approvisionnement énergétique du Québec.
Chez Énergir, plus de la moitié des employés travaillent aux activités liées à la planification, à l'entretien, aux interventions et au développement du réseau gazier. Ces experts n'ont qu'une seule préoccupation : un approvisionnement en gaz naturel fiable, sans interruption et d'une totale sécurité.
Afin de maximiser nos efforts de sécurité des personnes ainsi que ceux des infrastructures environnantes, les technicien.nes doivent suivre rigoureusement les protocoles de sécurité et les spécifications techniques établies dans les cas de la détection d’une fuite ou d’une intervention sur un réseau gazier à très haute pression.
Chaque jour, les équipes d’Énergir réalisent des opérations complexes, souvent dans des environnements exigeants. Selon Mathieu Guesdon, l’intelligence artificielle est désormais intégrée à tous les niveaux de l’organisation pour soutenir les employé.es, optimiser les processus et accroître la productivité. L’adoption de l’outil Copilot facilite l’accès à l’IA pour l’ensemble du personnel. Son intégration vise notamment à accompagner les employé.es vers de nouvelles pratiques internes, plus rapides, plus précises et plus efficaces, tout en contribuant à la réduction des risques.
Donnez-nous un exemple (une illustration) de l'IA générative telle qu'utilisée en situation réelle sur le terrain ?
Un assistant intelligent GPT-exploitation est utilisé par plus de 400 technicien.nes sur le terrain, accessible depuis leur téléphone ou leur ordinateur portable. Basé sur la technique RAG (Retrieval-Augmented Generation) et alimenté par la documentation interne (procédures, instructions, mesures de sécurité), il répond aux questions des techniciens.nes en s’appuyant exclusivement sur les contenus organisationnels existants.
Les requêtes, faites par texte ou audio, sont analysées par l’IA qui fournit une réponse permettant de :
Les réponses sont consolidées dans un format clair et structuré, avec les documents de référence joints pour consultation au besoin.

Quels sont vos enjeux lors de l’implantation de l’IA dans votre entreprise ?
La qualité de la documentation en amont de la mise en œuvre de l’assistant IA constitue une étape cruciale. Le principal enjeu réside dans la garantie d’une information précise, cohérente et régulièrement mise à jour. Contrairement à ce que l’on pourrait croire, l’aspect technologique lié à l’intelligence artificielle ne représente pas la principale difficulté.
L’adoption de cette solution implique une transformation des habitudes de travail. Les employé.e.s ont l’habitude de consulter directement leurs collègues, par exemple pour des opérations de soudure ou le démontage d’un équipement. Il est donc essentiel d’accompagner ce changement, notamment en identifiant des ambassadeurs et ambassadrices internes capables de démontrer la fiabilité, la rapidité et la pertinence des réponses fournies par l’assistant. Cette transition est d’autant plus importante que les expert.es ne sont pas toujours disponibles ou joignables au moment opportun.
Si le déploiement technologique s’est effectué rapidement, l’harmonisation de la qualité des données et l’appropriation par les personnes utilisatrices ont demandé davantage de temps. Un système de rétroaction simple, basé sur une validation par « pouce en l’air », permet d’évaluer la pertinence des réponses. En cas d’insatisfaction, un tableau de bord identifie les causes possibles, la documentation incomplète, la mauvaise interprétation par l’agent, ou la confusion terminologique, afin de guider les actions correctives. Étant donné le niveau de risque élevé dans certaines interventions, le document de référence est systématiquement cité et facilement accessible.
Aujourd’hui, la mise en place de nouvelles solutions peut être réalisée en quelques jours seulement, grâce à l’expérience acquise et à l’amélioration continue du processus.
Quelle est votre perspective pour les 3 prochaines années ?
Le rythme accéléré de l’évolution technologique rend toute projection à trois ans hautement spéculative. À court terme, l’intégration multimodale (voix, images, vidéos) s’imposera naturellement dans les environnements de travail. Un technicien.ne pourra, par exemple, filmer l’équipement à réparer et recevoir en retour une vidéo explicative adaptée à la situation.
Plusieurs agents intelligents collaboreront de manière fluide : l’un posera des questions pour clarifier le contexte, un autre analysera les données visuelles ou verbales, et un troisième formulera une réponse précise. Si nécessaire, l’interaction pourra être transférée à un autre agent spécialisé, voire à un humain, le tout en quelques minutes. Cette orchestration rapide et efficace permettra de résoudre des problèmes complexes sur le terrain, tout en réduisant les délais et en augmentant la fiabilité des interventions.
En tant que directrice d’une petite école en RPI avec un autre établissement, nous avons toujours eu à cœur de construire ensemble notre projet pédagogique annuel. Chaque année, cette élaboration collective, réunissant tous les enseignants des deux écoles, était un véritable temps fort. Elle nous permettait non seulement de définir une ligne directrice cohérente autour d’un thème, mais aussi d’échanger sur nos pratiques, de confronter nos idées, et de concevoir un projet en lien étroit avec les besoins et les spécificités de nos élèves.
Cette année, toutefois, la démarche a été différente. La directrice de l’autre école a proposé un projet directement rédigé à l’aide de ChatGPT, en lui demandant de s’inspirer du projet de l’an passé tout en l’adaptant au nouveau thème. Le résultat était effectivement bien formulé, clair, et répondait à la commande. Mais j’ai regretté que ce document arrive déjà finalisé, prêt à l’emploi, sans passer par notre habituelle phase de réflexion collective. De fait, la majorité des enseignants présents se sont contentés de valider ce qui leur était proposé, sans réellement s’impliquer dans la discussion ni enrichir le contenu.
Depuis, je m’interroge. Bien que l’intelligence artificielle puisse être un outil facilitateur, je crains qu’elle ne vienne, dans ce type de contexte, freiner nos réflexions et appauvrir notre capacité d’innovation pédagogique. L’élaboration d’un projet éducatif n’est pas un simple exercice de rédaction : c’est une démarche intellectuelle, collaborative et engagée, qui donne du sens à notre action commune.
Notre rôle d’enseignant est d’apprendre aux élèves à penser, à s’interroger, à chercher du sens, à construire leur point de vue. Que deviendra cette posture si nous nous habituons à déléguer trop facilement cette phase de questionnement et de conception à des outils automatiques ? La tentation est grande, surtout pour les générations futures, d’aller au plus simple en confiant à l’IA le soin de réfléchir à leur place.
Je pense que nous devons, en tant qu’enseignant, rester vigilants et garder notre esprit critique. L’IA peut être un soutien, un point de départ, mais elle ne doit pas devenir un substitut à la réflexion collective, à la créativité pédagogique, ni à l’intelligence humaine qui fonde notre métier.
Mon utilisation de l'intelligence artificielle générative s'inscrit dans ma recherche sur la manière dont les étudiants négocient leur entrée dans le système d'activité de l'écriture universitaire. Concrètement, j'utilise l'IA pour m'aider à comprendre des passages d'articles ou d'ouvrages lorsque mes connaissances disciplinaires ne suffisent pas à saisir pleinement le contexte. L'outil permet souvent d'élargir ma compréhension du contexte de ces travaux, même si je reste vigilant quant à la fiabilité des informations, surtout dans les domaines moins documentés. J'y ai recours également pour obtenir un retour sur mes propres écrits en anglais lorsque j'ai des doutes sur les formulations ou les conventions discursives.
Je remarque que cet usage répond à un sentiment de ne pas toujours avoir les codes du monde académique. L'IA agit alors comme une béquille dans les situations d'incertitude dues au manque d'expérience, elle tisse des littéracies artificielles, un filet de sécurité, permettant à l'usager d'avancer dans un nouveau milieu sans faire l'expérience d'échecs trop durs, d’atterrir en douceur, et par la même occasion, d'apprendre les codes et conventions de ces nouveaux milieux. Le risque de perte de contrôle et de libre arbitre est souvent attribué à l'usage de l'IA, mais selon moi cet usage peut s'apparenter à une reprise d'agentivité, celle de l'étudiant qui déduit qu'un environnement présente de nouveaux codes à intégrer qu'il ne connaît pas encore. Après tout, l'agentivité ne correspond pas à une liberté d'agir sans contrainte, mais à la capacité d'agir efficacement au sein des structures d'une communauté de pratique, et l'IA, aidant l'apprenant à reconstruire et révéler ces structures, devient un outil d'aide à l'appropriation d'un domaine par l'apprenant. Je pense par conséquent que l'usage de l'IA ne relève pas simplement d'un contournement des difficultés, mais est une pratique située, complexe, qui répond à des contextes d'apprentissage réels qu'il faut étudier.