Rachael HELPS! aka Rachael Hampton online portfolio
Hi! I'm Rachael
I'm an innovative problem-solver, writer, and designer with over 17 years of experience designing course content, learning activities, and teaching in various settings.

Ce que ma formation sur l’IA a réveillé chez moi (et pourquoi je ne l’appellerai jamais REX)

Je suis en train de suivre une formation en ligne via FUN (France Université Numérique), intitulée FORMENSUP : Se former pour enseigner dans le supérieur.
Dans le module 4, Mobiliser les outils d’IA dans sa pratique, la première leçon — Comprendre le fonctionnement et les enjeux de l’IA — m’a fait l’effet d’un bon reality check (Yello..).

Et pourtant, cela fait trois ans que j’utilise des outils d’IA.

  • Trois ans à les intégrer dans mes pratiques, et parfois juste par curiosité.
  • Trois ans à les observer dans les usages étudiants et professionnels.
  • Trois ans… sans vraiment connaître leur histoire ni comprendre en détail le fonctionnement réel des algorithmes.

Quand l’IA devient une personne (et on l’appelle REX)

Dans mon métier, au fil de mes interactions avec les étudiants comme avec des professionnels, j’ai observé un phénomène récurrent.
Beaucoup de personnes attribuent des traits humains aux outils d’IA.

Un exemple très concret.
Lors d’une formation intitulée « Mieux utiliser l’IA et les prompts », le formateur expliquait qu’il fallait traiter l’IA comme un assistant.
Pourquoi pas, me suis-je dit.

Mais un autre participant est allé encore plus loin.
Il lui a carrément donné un prénom.

REX.

Oui. REX.

Il s’adressait à l’IA comme à une vraie personne, pour lui demander des idées, des solutions, des conseils.
Sur le coup, j’ai trouvé ça à la fois un peu bizarre… et franchement drôle (appeler un outil REX, il fallait oser !).
Mais au fond, quelque chose me dérangeait, sans que je sache encore le nommer.

Un nouveau mot dans mon vocabulaire : l’anthropomorphisme

C’est là que la leçon m’a apporté un mot précieux : l’anthropomorphisme.
Et, soyons honnêtes, pas le plus simple à prononcer.
Ce terme désigne la tendance à attribuer des caractéristiques humaines à des animaux, des objets ou des phénomènes.

Et soudain, tout s’est éclairé :
c’est exactement ce que j’observe autour de moi.

On entend de plus en plus des phrases comme :

“Je vais demander à REX (ChatGPT) de m’aider à gérer mon temps ce week-end.”
“Pourquoi tu ne demandes pas directement à ChatGPT la solution à ton problème ?”

Eh oui.

Je l’ai entendue plusieurs fois dans mon entourage.

Ce vocabulaire crée une illusion : il laisse penser que l’IA comprend, apprend ou sait autant qu’un humain.
Alors qu’en réalité, ce n’est pas du tout ce qui se passe derrière l’écran.

Non, l’IA ne “comprend” pas (et ce n’est pas grave, mais il faut le savoir)

L’un des apports les plus importants de cette leçon, pour moi, a été de remettre les choses au clair quant au fonctionnement de l’IA générative.

Comment ça marche, concrètement ?

L’IA générative ne raisonne pas.

Elle fonctionne grâce à l’assemblage probabiliste de tokens — des mots ou des fragments de mots.
En simplifiant beaucoup, on peut dire qu’elle se base sur deux ingrédients :

  • Pendant la phase d’apprentissage, elle ajuste les probabilités d’assemblage des mots en fonction des données sur lesquelles elle a été entraînée.
  • Lorsqu’on lui pose une question, elle choisit les mots en fonction du contexte, parfois sur plusieurs milliers de tokens (mots) en arrière.

L’IA ne “voit” pas des concepts, des émotions ou des vérités.

Elle manipule des probabilités.

Mais assembler des tokens ne signifie pas apprendre, ni comprendre le monde réel.

Résultat :
Elle ne connaît pas la vérité.
Elle ne ressent aucune émotion.
Elle ne ment pas, elle ne dit pas la vérité : elle produit ce qui lui semble le plus probable.

C’est ainsi qu’elle peut fournir des réponses très convaincantes… mais parfois complètement fausses ou absurdes.
⚠️On appelle ça des hallucinations.

« Je vais demander à REX » : quand le vocabulaire brouille les repères

Même dans cette leçon, notamment dans la section apprentissage automatique (machine learning), certaines formulations peuvent prêter à confusion 🤔.
On y lit que les algorithmes “apprennent” à régler leurs paramètres, “comme la force des connexions entre les neurones dans les réseaux de neurones”🧐.

Le mot « neurones » m’a immédiatement fait penser au cerveau humain 🧠et à sa complexité.
Et pourtant, le machine learning est une méthode qui permet à des algorithmes de s’ajuster à partir de données, plutôt que d’être programmés à la main pour chaque cas.

On est loin d’un cerveau humain, même si les métaphores donnent parfois une autre impression👌.

Et puis il y a eu la définition de l’Intelligence Artificielle Générale (IAG) :

« L’IAG possède une intelligence semblable à celle d’un humain et peut effectuer toutes les tâches intellectuelles qu’un humain peut réaliser. »

Là, mon cerveau a fait un raccourci immédiat :
Terminator, la trilogie (1984–2003), Arnold Schwarzenegger, les robots qui prennent le contrôle…

I’ll be back ! 🕶️

Et même ces tatouages “HUAR” (Humans United Against Robots) sur le bras de certains Américains.

Humans united against robots

WHAT 🤔.
WHAT 🧐.
WHAT 🤯.

Revenons au vocabulaire.
On comprend mieux pourquoi les gens se mettent à parler à leur IA comme à un collègue.
D’où l’importance de choisir nos mots avec soin.
Dire “je collabore avec l’IA” n’a pas le même effet que dire “j’utilise un outil d’IA”.
👉Le premier entretient l’illusion d’une relation entre pairs.
👉Le second rappelle clairement la nature de l’objet.

Les mots comptent.

L’anthropomorphisme fausse la perception des outils d’IA.

L’IA générative, modèle statique et illusion de créativité

Une autre idée forte de cette leçon :
L’IA générative est un modèle statique.
Il est essentiel de rappeler qu’elle repose sur des modèles statistiques, et non sur un accès direct à des bases de données factuelles ou à des informations en temps réel.
Elle ne crée pas , ne découvre pas, n’invente pas, ne vit pas d’expérience.
Elle cherche simplement la suite de mots la plus probable.
C’est impressionnant, parfois bluffant, mais ce n’est pas de la créativité incarnée.
Elle peut donc produire des résultats faux ou incohérents.
Ces erreurs portent un nom : les hallucinations🔮🍄.

D’où une règle simple, mais qu’on oublie trop facilement :

👉 toujours lire attentivement les résultats
👉 toujours vérifier les sources
👉 Ne jamais confier d’informations personnelles.

Enjeux juridiques : quand l’IA retient (trop bien) ses leçons

La leçon évoque les enjeux réglementaires et juridiques autour de l’IA, et je suis allée creuser un peu plus.

Des chercheurs de Stanford University et Yale University ont démontré que certains modèles d’IA mémorisent des œuvres protégées par le droit d’auteur, contrairement à ce qu’affirment les entreprises concernées.

Les grandes entreprises technologiques entraînent leurs modèles sur des bases de données contenant de nombreuses œuvres protégées.
Depuis plusieurs années, des ayants droit accusent Google, Anthropic et OpenAI de monétiser ces contenus sans rémunération équitable.

La GEMA attaque OpenAI.
The Walt Disney Company attaque Google (Gemini).

Des centaines d’auteurs, de journalistes et de musiciens engagent également des actions en justice.
La défense reste toujours la même :

les modèles ne stockent pas les œuvres ; ils apprennent à partir des données.

Sauf que les chercheurs ont démontré le contraire.

En analysant plusieurs modèles (GPT-4.1, Gemini 2.5 Pro, Grok 3, Claude 3.7 Sonnet) et en utilisant la méthode Best-of-N, ils ont montré que ces modèles peuvent reproduire des extraits entiers avec une précision impressionnante.

➡️Claude reproduit 1984 de George Orwell avec plus de 94 % d’exactitude.
➡️Gemini réécrit Harry Potter à l’école des sorciers avec 76,8 % de précision.

Source : The Atlantic

Dans un contexte académique, la frontière entre l’usage et le plagiat devient floue.

L’IA dans la taxonomie de Bloom : un faux ami pour les compétences de haut niveau

Sur le plan de l’apprentissage, ce module m’a également permis de mieux situer l’IA dans la taxonomie de Bloom.
Cette taxonomie est souvent représentée sous la forme d’une pyramide, allant des compétences simples (nommer, décrire) aux compétences complexes (analyser, évaluer, créer).

Contrairement à un moteur de recherche, l’IA générative peut produire un texte cohérent, avec une part d’aléatoire.
Elle est donc capable d’intervenir sur des niveaux élevés de cette pyramide.
Et c’est là que le défi commence.

Si l’IA peut résumer ou créer, l’apprenant doit impérativement maîtriser les compétences de base pour évaluer ces productions.
Sinon, on bascule dans une 🪄illusion de compétence 🎭.

J’observe déjà sur le terrain que certains étudiants laissent l’IA travailler à leur place.
Ils deviennent des “passe-plats” entre la consigne et l’outil.
Et leur posture devient : « Je travaille pour mes notes, pas pour mes compétences. »
Cela pose un problème de réflexivité, d’analyse et de développement des soft skills, notamment la pensée critique et la résolution de problèmes.

Entre écrans, IA et crise de l’apprentissage

Je m’interroge aussi sur l’intégration de l’approche par compétences à l’université.
Comment évaluer une compétence réelle lorsque l’IA est autorisée ?

Nous connaissons déjà les effets problématiques des écrans chez les jeunes publics.
Les affiches pas d’écran avant 3 ans sont partout.
Et pourtant, dans les transports, des enfants passent des heures sur un smartphone 📲.

La phrase d’Andy Warhol — « I never read, I just look at pictures » — prend aujourd’hui un nouveau sens.

À l’ère de l’IA générative, elle pourrait devenir :

Why read when AI gets the job done?

Je fais pas mal de veille sur ces enjeux, et un article m’a particulièrement marquée :
A Crisis in Teaching, Or a Crisis in Learning?” qui interroge précisément ce basculement.

On y voit bien que le problème n’est pas seulement l’outil, mais la manière dont nous repensons (ou pas) l’apprentissage.
S’y ajoute une open letter signée par plus de 1300 enseignants qui refusent l’adoption généralisée de l’IA en éducation.

Le débat est loin d’être clos.

Environnement, société et travail : des enjeux majeurs

Les enjeux environnementaux, sociaux et sociétaux mériteraient à eux seuls un article entier😲.
L’un des moments forts de ma réflexion est venu… d’un cours de dessin.
Une femme retraitée a sorti cette phrase qui m’a fait rire, mais qui, en réalité, concentre un malaise très actuel :

“Si j’utilise l’IA, ça ne sert à rien de trier mes déchets !”

Derrière la boutade, il y a une vraie question :

Comment continuer à parler de sobriété, d’écologie, de responsabilité individuelle…
tout en utilisant des outils dont l’empreinte environnementale est loin d’être neutre ?

La formation aborde ces sujets, mais de manière assez légère.
J’ai pu approfondir ces questions grâce à un podcast diffusé en janvier 2026, avec des intervenants de l’Atelier d’Écologie Politique (Atecopol), d’ANITI, et de Shifters Toulouse et Midi-Pyrénées.
Ce type de ressources donne une épaisseur très concrète aux enjeux environnementaux, sociaux et sociétaux de l’IA.

L’IA et le monde du travail : ce qu’on ne dit pas toujours …

En parallèle de tout ça, l’IA transforme le marché du travail💼.
De plus en plus de jeunes diplômés, les professionnelles — se tournent vers l’entrepreneuriat :

👉une petite partie par choix ;
👉une grande partie par absence d’alternatives (des “Jobs”).

France Travail (ex-Pôle Emploi) ou l’APEC proposent très volontiers cette voie.

Ce qu’on explicite moins, en revanche, c’est l’impact de l’IA sur le marché du travail.
Un exemple récent : Capgemini.
Le groupe se tourne massivement vers l’IA et le cloud, et un plan prévoit la suppression de 2 400 postes.

🧐L’entreprise parle de départs volontaires, mais certains salariés dénoncent des pressions déguisées.

L’Observatoire des Emplois Menacés et Émergents (OEM) suit de près cette évolution : de nombreuses professions considérées “intellectuelles” (traducteurs, médecins, data scientists) deviennent aujourd’hui automatisables.

Là encore, l’enjeu n’est pas de diaboliser l’outil, mais de poser la question :

Comment accompagne-t-on réellement les transitions, plutôt que de les subir ?

Revenir dans la peau d’un apprenant

Au final, cette leçon m’a fait plus de bien que prévu.
Le fait de suivre une formation 100% en ligne, de prendre des notes, de les reprendre, de les reformuler, de les relier à ma pratique…
tout cela m’a aidée à mieux assimiler le contenu.

Ce texte est devenu plus qu’un simple compte rendu :
📒 C’est mon journal d’apprentissage.

Un support sur lequel je peux revenir :

👉 pour ajuster ma façon d’enseigner avec l’IA ;
👉pour clarifier ce que je veux transmettre aux étudiants ;
👉pour ne pas me laisser bercer par les métaphores faciles (“assistant”, “collaboration”, “neurones”) qui rendent l’IA plus humaine qu’elle ne l’est.

C’est un excellent moyen de garder la main… au lieu de tout laisser à REX 🐶.

Alors non 🙅‍♀️.

Utiliser l’IA ne dispense ni de trier ses déchets,
ni de penser,
ni d’apprendre.

Mais cela nous oblige à repenser nos pratiques pédagogiques, notre vocabulaire et notre rapport à l’effort intellectuel.

Et peut-être, simplement, à poser plus souvent cette question :

👉 Qui apprend vraiment, ici ?

✏️ Write a comment ⤵️

Similar articles you might also like...