Archives par étiquette : intelligence artificielle

IA générative, éducation et idéologie managériale

François Rastier effectue un tour d’horizon analytique au sujet non seulement de l’usage, mais aussi de la promotion pour le moins empressée de l’IA générative en matière d’éducation. Ce zèle pour le « solutionnisme technologique » met à mal la notion même de connaissance qu’il réduit à un inventaire de savoir-faire ; il fait obstacle à la transmission en brouillant l’idée de présence ; il introduit l’idéologie managériale du coaching en quête d’emprise. Il est plus que temps «  de faire de l’école et de l’université les seuls lieux au monde sans écrans et sans IA, condition désormais de la transmission culturelle ».

Avec la numérisation généralisée, les documents ont changé de format d’expression, que ce soit en mode image ou en mode texte. Toutefois, ces changements de support n’affectent pas fondamentalement les questions que posent la lecture et l’interprétation des textes. En revanche, ils favorisent des médiations techniques, par exemple pour développer la linguistique de corpus, mais si ces médiations peuvent être utiles pour la recherche, elles peuvent se révéler nocives et entraver la relation pédagogique.

L’essor de l’IA dans l’éducation : l’enjeu industriel prévaut sur l’enjeu éducatif

Dans le domaine de l’éducation, la numérisation a suscité les multiples programmes des Techniques de l’Information et de la Communication pour l’Éducation (TICE). On a ainsi équipé les écoliers de tablettes et autres terminaux – sans parvenir pour autant à freiner la baisse moyenne des résultats. De même les cours en ligne, les MOOC, avaient laissé espérer des succès (et des économies) : il n’en a rien été. Aucun bilan sérieux n’a été tiré de ces décennies de solutionnisme technologique, de progrès annoncés et d’espoirs déçus. Bien entendu, les cours accessibles en ligne peuvent être utiles, mais même quand ils les complètent, ils ne peuvent véritablement se substituer au cours en présence, comme on le verra plus loin.

Les IA génératives permettent à présent de relancer, sans débat sur leur opportunité, des annonces qui semblent présager une nouvelle fuite en avant. En effet, jamais dans l’histoire une technologie n’aura été adoptée si vite : MetaAI revendique un milliard d’utilisateurs ; la seule OpenAI revendique en moins de 3 ans 850 millions d’utilisateurs fidèles.

Toutefois, cette même firme fait état en 2025 d’une perte d’un milliard de dollars chaque mois, et n’aura jamais cependant attiré autant d’investissements — elle est passée de 300 milliards en mars à 500 milliards en septembre, alors qu’elle n’est pas même cotée1.

Dès 2021, un an avant donc la première IA générative publique, l’Unesco a organisé une conférence internationale intitulée « Planifier l’éducation à l’ère de l’IA : Un bond en avant » [sic], dont les actes, dirigés par des cadres des universités d’État chinoises, ont été publiés sous le titre de « Consensus de Beijing sur l’intelligence artificielle et l’éducation »2. Parmi les 44 recommandations, on trouve notamment le conseil de « revoir et ajuster les systèmes éducatifs pour favoriser une intégration approfondie de l’IA et une transformation des méthodologies de l’enseignement. » ; et pour cela, il faut « aider les pays à préparer le personnel enseignant à travailler dans des contextes éducatifs faisant fortement appel à l’IA ». La même année l’Unesco publiait un guide pour les décideurs intitulé « IA et éducation – Guide pour les décideurs politiques »3.

En 2023, l’OCDE (Organisation de coopération et de développement économique) soulignait les enjeux économiques dans une Recommandation du Conseil sur l’intelligence artificielle, qui « vise à stimuler l’innovation et renforcer la confiance dans l’IA ». On aura compris que la circonspection freinerait l’essor économique.

L’essor soudain de ces IA, porté par les grandes entreprises américaines et chinoises, a été favorisé par leur influence majeure sur l’opinion, en particulier par le biais de leurs réseaux sociaux, X pour Grok, Facebook et WhatsApp pour Meta, TikTok pour ByteDance. Soucieux de pousser une avance technique ou de ne pas manquer un tournant opportun ou opportuniste, la plupart des gouvernements ont promu l’usage des IA génératives dans les programmes d’éducation.

Les ministères de l’Éducation organisent donc des stages de formation pour les enseignants, et prescrivent l’usage de l’IA générative, non seulement pour produire du matériel pédagogique, mais pour déterminer le contenu même des cours, qui peuvent porter sur des documents générés par IA.

En France, la ministre de l’Éducation Élisabeth Borne déclarait en février 2025 : « C’est une révolution déjà en marche qui bouleverse tout, y compris nos façons d’apprendre et d’enseigner »4, puis annonçait un programme de 20 millions d’euros pour une IA spécifique : « On va proposer aux professeurs une intelligence artificielle pour les accompagner dans leur métier ». Le site de son Ministère entend ainsi « soutenir les enseignants dans leurs activités telles que la préparation des cours ou l’évaluation des élèves ».

L’enjeu industriel prévaut sur l’enjeu éducatif, selon le Conseil National du Numérique : « si des usages massifs ne se développent pas, le manque d’assise nationale handicapera notre industrie numérique qui a besoin de se tester et de se développer en France, au plus près de l’éducation, avec des conséquences évidentes sur notre présence culturelle numérique dans le champ de l’éducation et de la recherche » (p. 68)5.

Sous couleur de formations professionnalisantes, ce qui advient dans les entreprises devrait donc advenir aussi dans les écoles. Successeur de l’Institut National de la Recherche pédagogique, le Réseau Canopé propose ainsi que l’IA génère des dictées et des QCM. Ainsi, l’idiome des Transformeurs Génératifs Préprogrammés (GPT) n’entre pas seulement dans le canon scolaire, il s’y substitue pour « enrichir les cours » explique Marie-Caroline Missir, directrice du réseau. Certes, un directeur départemental des formations se veut rassurant : dans ce processus, « la médiation humaine reste nécessaire » … L’humain devient ainsi un auxiliaire de la machine, et les professeurs sont formés pour enseigner cela par l’exemple, avec d’autant plus de naturel que leur IA corrige déjà des devoirs générés par l’IA.

Les élèves sont d’ailleurs déjà formés pour cela : par exemple, un grand lycée parisien dispense depuis 2024 des cours de prompt. Sous couvert d’éducation au numérique, l’éducation par le numérique devient la norme. Cela se poursuit dans les universités : tel prestigieux et vénérable établissement parisien organise ainsi pour ses enseignants un « atelier pratique » ainsi présenté : « il s’agira de prendre en main l’IAgen [IA générative] pour concevoir un cours et des exercices mais aussi pour se mettre à la place d’un apprenant et de l’utiliser pour s’aider dans ses cours » [sic]… Tous les jours, les services universitaires reçoivent des messages alliciants des entreprises de l’EdTech, comme celui-ci : « Que pensez-vous d’accompagner vos étudiants dans la personnalisation de leur parcours grâce à l’IA ? Cela pourrait permettre de créer des parcours vraiment sur-mesure, en cohérence avec les compétences recherchées sur le marché. Et la bonne nouvelle ? Il existe des dispositifs d’aide publique qui peuvent financer cette mise en place, sans impacter votre trésorerie. Ça vous intéresse d’en discuter brièvement autour d’un appel ? ».

Les effets du solutionnisme technologique par l’IA

Un chatbot est-il un puits de science ?

Évitons une équivoque. Tout comme l’intelligence, dans la formule Intelligence Artificielle, dans corpus d’apprentissage, le mot d’apprentissage est utilisé abusivement : l’apprentissage machine des IA se résume au parcours de milliards de chaînes de caractères (ou de groupes de pixels), et au repérage de leurs régularités distributionnelles, de manière à permettre ensuite un calcul vectoriel massif dont résulteront les sorties machines. Aucune compréhension n’est en jeu, ni rien qui ressemble à l’apprentissage humain, puisqu’il dépend des régimes de pertinence instaurés par les pratiques de transmission.

Or l’IA, maintenant intégrée aux moteurs de recherche, détermine pour l’essentiel l’accès aux sources – alors même que les sources des chatbots restent opaques et couvertes par le secret industriel.

Les corpus d’apprentissage des chatbots se substituent ainsi à celui des sources primaires. Prenons l’exemple des classiques. Selon MetaAI, « C’est pas l’école qui a dicté mes codes » de la rappeuse islamiste Diam’s se voit attribué à Rimbaud ; tout comme ces vers apocryphes de la première strophe du Bateau ivre : « Les rires et les cris des hommes ne montaient plus / Que du fond d’un trou creusé par des milliards de fourmis »6. Autre dégradation majeure, la dernière strophe du célèbre Demain, dès l’aube de Hugo : « Et quand j’arriverai, je mettrai mes genoux / Dans la poussière et je te dirai : je suis là » (au lieu de « je mettrai sur ta tombe / Un bouquet de houx vert et de bruyère en fleur »). L’imprécision et la banalisation l’emportent encore dans l’incipit de l’Étranger : « Aujourd’hui, maman est morte. Ou peut-être hier, je ne sais pas ». Souvent enfin, la parodie n’est pas loin, comme dans cet apocryphe attribué à Annie Ernaux : « Mon but dans la vie, c’était d’appartenir au groupe des femmes qui avortent ». Les textes se voient grotesquement travestis.

On a pu croire qu’internet permettrait de limiter l’ignorance et de favoriser l’éducation, mais sous la masse croissante des fakes, la notion même de connaissance devient peu à peu indiscernable.

La perte de l’écrit et la dégradation de l’oral

On avait au fil des siècles inventé l’écriture, puis la ponctuation, puis les conventions graphiques (capitales, italiques, etc.). Cette histoire s’inverse à grande vitesse, et l’écrit même disparaît discrètement.

On sait que la lecture a assez régressé pour que la plupart des étudiants du premier cycle aux USA n’aient jamais lu un livre en entier ; leur temps de lecture quotidien est actuellement estimé de 10 à 20 minutes. Déjà en retrait constant, tant en qualité qu’en quantité, dans la plupart des pays de l’OCDE, la lecture pourrait connaître une régression d’autant plus sévère que les nouveaux réseaux sociaux comme Instagram et TikTok privilégient l’image et le son, et les anciens réseaux comme X ou WhatsApp se sont mis à rivaliser avec eux. En outre, les systèmes d’IA intégrés aux messageries proposent obligeamment de résumer le courrier et de lire ces résumés.

L’essor des podcasts va dans le même sens : une plate-forme universitaire m’a par exemple suggéré (sans succès) d’autoriser la mise en ligne d’un podcast en anglais, généré par IA, résumant et lisant un de mes articles sur l’origine du langage publié en portugais. En somme, l’examen et la lecture critique des sources que permet l’écrit pourrait se voir supplanté par l’ouï-dire et les on-dit.

Au-delà, la connaissance des langues et la linguistique elle-même semblent menacées. Pourquoi étudier les langues étrangères quand on dispose de traductions automatiques, à l’écrit comme à l’oral ? Les traducteurs professionnels sont déjà devenus de simples réviseurs, mais beaucoup n’ont même plus cette perspective et ils pourraient disparaître à leur tour.

L’introduction de l’idéologie managériale dans l’éducation

L’article L.141-6 du code de l’éducation dispose : « Le service public de l’enseignement supérieur est laïque et indépendant de toute emprise politique, économique, religieuse ou idéologique ; il tend à l’objectivité du savoir ; il respecte la diversité des opinions. Il doit garantir à l’enseignement et à la recherche leurs possibilités de libre développement scientifique, créateur et critique ».

Or l’IA contrevient à ce code : concrétisation technique de l’idéologie managériale, elle la rend opérationnelle et l’automatise dans des domaines qui jusqu’à présent restaient à l’écart de la sphère marchande. Par des algorithmes, elle fige en amont des procédures opaques. Témoignant d’un solutionnisme technologique qui écarte toute précaution, son irruption dans l’éducation recèle des enjeux que les décideurs font mine de ne pas soupçonner. Les chatbots se règlent en effet sur leur corpus d’apprentissage et sur les prompts qui les sollicitent, sans égard pour la question philologique de l’authenticité ni pour la question éthique du rapport à la réalité, si bien que les prétendues « hallucinations » ne sont pas des imperfections temporaires, mais des moments particuliers de leur fonctionnement général.

Une idéologie a pour effet – et sans doute pour fonction – de travestir la réalité jusqu’à la faire oublier7. Ainsi les idéologies s’appuient-elles ultimement sur des mythes qu’elles réintroduisent sous une forme dégradée. Le mythe revient ainsi par une concrétisation dégradée, celle d’une idéologie managériale que les algorithmes de l’IA mettent en œuvre pour monétiser le temps vécu. Paradoxalement, les technologies brillantes de la self-attention et des transformers peuvent passer pour un aboutissement de la rationalité, mais les firmes de la tech les utilisent pour produire des mythes dans ce qu’ils ont de plus irrationnel et fantasmagorique, parce qu’ils se vendent mieux et obéissent au principe de moindre effort, voire de plaisir.

Que devient la transmission ?

Basée sur le taylorisme, l’idéologie managériale a permis de diviser le travail en tâches de plus en plus atomisées, pour pouvoir les automatiser autant que possible.

À l’atomisation des tâches répond celle des groupes de travail, chaque « opérateur » devenant interchangeable. Plus généralement, l’ultralibéralisme, comme le totalitarisme, isole chaque individu pour le soumettre à un pouvoir caché. Margaret Thatcher affirmait ainsi que la société n’existait pas, qu’il n’y a que des individus, et le sociologue déconstructeur Bruno Latour, qui se réputait progressiste, parvenait à la même conclusion.

Or la transmission de la culture reste une entreprise collective, non seulement par les institutions éducatives qu’elle mobilise, mais parce qu’elle suppose un monde partagé – qui n’a rien de commun avec le prétendu partage des réseaux sociaux. On a noté un progrès rapide des écoliers qui devaient déposer leurs téléphones portables à l’entrée : ils en viennent à se parler à la cantine, par exemple.

Bien entendu, les firmes de l’EdTech et les décideurs ministériels soulignent que l’IA permet d’individualiser les formations, mais ils oublient bizarrement le rôle de la collectivité que constitue la classe. Or, chacune élabore sa dynamique propre et l’expérience pédagogique atteste qu’on ne trouve pas deux classes identiques et que l’enseignant peut orienter la dynamique spécifique de chacune, d’une manière qui reste inaccessible à l’IA. Même l’émulation entre élèves, facteur d’autant plus puissant qu’il est souvent ludique, s’efface devant un rating des performances.

Avec l’IA, cette dynamique collective s’estompe en effet, et le professeur devient un simple moniteur, comme un répétiteur d’antan, un commentateur de « contenus » qui lui sont proposés. Ces contenus restent un objet de la communication, et la transmission n’y a guère de part, car elle se soutient par la dette symbolique. Nous ne pouvons développer ce point ici, mais quand le professeur assume son propos, que les élèves assument le recevoir et s’en emparent, ils contractent une dette qui peut devenir inextinguible8.

La question de la présence semble ici centrale. Alors que sur écran rien n’est véritablement présent ni absent, alors que nos structures cognitives ont évolué dans un environnement multidimensionnel, et que l’écran, objet mobilier, affiche des objets et des personnes sans épaisseur ni proximité, la co-présence des élèves et du professeur reste irremplaçable. Le virtuel, comme on nomme ce qui apparaît sur écran, est présenté, mais non présent ou du moins présent sous une forme perceptive dégradée : on mesure notamment cette différence en rencontrant « en présentiel » des personnes jusqu’ici aperçues sur écran.

Or la présence effective est nécessaire pour faire advenir les objets « absents » dont traite l’enseignement. Le bébé fait des pointages en désignant un objet, tout en regardant l’adulte, et Vygotsky a mis naguère en évidence cette triangulation qui préside à la « naissance du sens » (selon Boris Cyrulnik). Cette situation qui instaure l’objectivation d’un monde commun se poursuit dans la transmission, l’adulte prenant alors l’initiative. Là encore, l’échange des regards est fondamental, car le premier regard instaure un point de vue, et l’échange en retour vaut pour une garantie. La dualité entre point de vue et garantie détermine la portée de l’objet sémiotique — dont le symbole linguistique reste l’exemple majeur. D’où la valeur d’attestation que suscite la venue à la présence d’objets distaux évoqués dans l’échange. Or le contact direct des regards se perd dans la médiation par écrans, en visioconférence par exemple.

Rappelons en outre que la dualité entre présence et absence structure les zones anthropiques qui se partagent notre environnement sémiotique9. Il faut la coprésence de la zone identitaire de l’enfant et de la zone proximale occupée par l’adulte, pour faire advenir enfin les objets distaux qui composent la matière de la transmission. Faute de cela, il est à présent établi que les enfants privés de l’échange de regards par des parents absorbés par leurs écrans souffrent de retards de langage et d’intelligence émotionnelle.

En effet, l’échange en présence comprend une composante émotionnelle évidente, ne serait-ce que par l’activation des neurones miroirs – dont l’activité, et l’empathie qui en résulte, suppose la présence. Le système des neurones miroirs s’avère aussi fondamental dans les phénomènes d’imitation à la base de l’apprentissage, même dans les premiers mois. Enfin, ces zones miroirs sont impliquées dans l’acquisition du langage10. Plus généralement, l’appauvrissement sensoriel, l’affaiblissement des interactions et l’absence de régulation émotionnelle entravent le développement des enfants comme des adolescents11.

Les institutions éducatives doivent donc mettre à profit la présence partagée, par exemple pour mettre en jeu et faire advenir à la réflexion des textes qui sans elle seraient restés peu accessibles.

En somme, que l’IA intervienne en amont dans la préparation des cours, en aval dans les corrections, ou encore pendant les cours, elle entrave le processus complexe de la transmission : comment pourrait-on contracter une dette symbolique à l’égard d’une machine ? À moins de la créditer d’une autorité hallucinatoire.

Coaching, compétences et développement personnel

Dans le domaine de l’éducation, l’individualisme promu par l’idéologie managériale se traduit par le primat des compétences sur les connaissances ; ou plus exactement par la réduction de la culture à des connaissances, puis à des informations utiles à un parcours professionnalisant.

Nous avons vu comment le Cadre européen de référence pour les langues (CERL, publié en 2001) réduit la connaissance de toute langue à un inventaire de savoir-faire hiérarchisés dans un tableau de compétences. Le caractère ouvertement bureaucratique de ce Cadre a séduit les responsables administratifs en France comme à l’étranger. Sous-titré « Apprendre, enseigner, évaluer », ce cadre fait de l’évaluation un but ultime pour lequel il propose une métrique — comme tout système de management, qui vise inévitablement le contrôle.

Ce contrôle est aussi un auto-contrôle, chacun pouvant estimer les étapes de son gradus ad Parnassum modernisé. Or, on l’a quelque peu négligé, le discours sur les compétences rappelle fort celui du développement personnel, qui invite chacun à accroître ses compétences acquises en révélant ses compétences innées.

C’est ici que l’IA prétend apporter du nouveau dans l’éducation. On avance fréquemment l’argument de la personnalisation : comme l’IA se prête au profilage, un enseignement sur mesure adapté à chacun serait préférable. Certes, pour l’idéologie managériale, le client est roi et la customization s’impose ; mais un enseignement réussi sait articuler le collectif et l’individuel — en quoi il est porteur de valeurs démocratiques.

Les usages privés au moins hebdomadaires de l’IA sont déjà majoritaires chez les jeunes d’âge scolaire – et quasi unanimes chez les étudiants. Or les chatbots assurent le rôle d’un coach, qui entend développer les compétences dont vous êtes porteur — que vous soyez ignorant ou pas : on a besoin de savoir-faire (et non d’apprendre à réfléchir). Ils utilisent un genre de dialogue caractéristique, celui du coaching, prétendument interactif mais toutefois prescriptif et faussement interpersonnel. Il permet d’assurer une emprise par des demandes de validation répétées12. L’évaluation l’emporte sur tout contenu, puisqu’il ne s’agit plus que d’assurer une emprise.

Le rapprochement avec le développement personnel se voit confirmé par ces questions rhétoriques formulées dans un langage caractéristique à l’occasion d’un appel à colloque : « Comment tirer parti des IAs pour renforcer la capacitation et l’agentivité des apprenants ? Est-il alors possible de percevoir le robot conversationnel comme une sorte de collaborateur permettant la co-élaboration de connaissances ? Cette collaboration peut-elle être envisagée dans toute discipline d’enseignement sous la forme d’une agentivité épistémique ? »13.

Le développement personnel de l’enfant n’a pas besoin de condisciples, de classe, ni même d’enseignant : un chatbot suffit, tout à la fois précepteur, confident et … influenceur. Quand à l’échelon international 44 millions de postes d’enseignants restent à pourvoir, et depuis que dans la seule année 2022 10% des titulaires ont démissionné, on comprend mieux l’enthousiasme des décideurs pour l’IA.

De fait, toutes les étapes de la jeunesse, avant l’âge scolaire comme après, sont déjà réglées par les chatbots. Après les doudous IA et autres peluches connectées, l’enfant se trouve coaché dès la maternelle : des chatbots spécifiques sont déjà testés, notamment l’application Kaligo de Microsoft. Cela se poursuit dans le primaire avec Navi, notamment ; puis dans le secondaire — où les cours comme les travaux à rendre comme les corrections sont déjà « assistés » par IA. Certes, les décideurs semblent promouvoir des IA éducatives publiques, mais elles n’obtiennent — faute de corpus d’apprentissage suffisant et de supervision des algorithmes — que des résultats dérisoires, si bien que les chatbots comme Gemini de Google l’emportent chez les moins de 13 ans.

À l’université, l’IA poursuit sa carrière avec d’autant plus d’aisance qu’elle attire irrésistiblement les financements — la première occurrence du terme Artificial Intelligence, en 1956, figure d’ailleurs dans une demande de financement. Voici par exemple un contrat doctoral nébuleux ouvert en septembre 2025 dans une université de Toulouse : « Usages et Effets des représentations de soi générées par IA visuelle pour l’apprentissage des langues étrangères tout au long de la vie ». On forme ainsi des étudiants pour mettre au point l’éducation virtuelle — en l’occurrence avec l’usage d’avatars, et bientôt peut-être à leur usage.

La résistance

Les prétentions cognitives de l’IA reposent sur la métaphore abusive cerveau-ordinateur et n’ont pas de fondement scientifique ; en outre, ses réussites techniques ne lui confèrent aucune légitimité intellectuelle.

Au mythe de l’IA, déjà discuté à la fin des années 1950, et qui s’est propagé avec l’essor du transhumanisme, s’ajoutent aujourd’hui deux complexes mythiques. 1/ Le mythe dégradé que constitue l’idéologie managériale maintenant implantée dans ses algorithmes (avec des principes comme winner takes all) : elle reverse un imaginaire techno-scientifique dans les institutions sociales, privées comme publiques. 2/ Les mythes que propagent les chatbots grand public, qui renchérissent complaisamment quand on leur parle d’astrologie ou de soucoupes volantes.

Ici comme ailleurs, pour s’opposer au retour des superstitions, fussent-elles technologiques, et aux dangers socio-politiques dont elles sont porteuses, l’on peut avoir recours à ces deux domaines majeurs de la culture que sont la science et l’éducation.

N’oublions pas que l’IA est promue comme un substitut à la culture, puisqu’il s’agit de monnayer notre rapport au monde social, et de se substituer à l’intelligence culturelle14. Paul Jorion intitule ainsi « L’intelligence artificielle a su se libérer de la culture humaine » un chapitre de L’avènement de la Singularité (Paris, Textuel, 2024) — comme si la culture était un facteur d’oppression et non d’émancipation. Cette hostilité à la culture, conforme à l’antihumanisme fondamental du transhumanisme, conduit bien entendu à la dégradation du langage, et la légitime d’emblée.

Aux mythes que propage l’IA, comme à son auto-promotion trompeuse, les recherches scientifiques peuvent opposer l’étude des bulles économique et écologique qu’elle contribue à former ; mais aussi de sa nocivité en matière éducative : pertes de mémorisation15, de capacités de lecture, d’écriture, de sens critique — car l’IA générative, privée de toute intelligence culturelle, choisit toujours des solutions moyennes et ne (re)produit que du conformisme.

Enfin, en réaffirmant ses missions de transmission culturelle et de formation à la créativité, l’éducation peut s’émanciper de l’idéologie managériale, même quand elle est concrétisée par des implémentations informatiques. La Suède, pionnière dans l’équipement informatique de chaque élève, vient de constater la dégradation des résultats et revient à des classes sans écrans où les enfants progressent. Les expériences en France sur la consignation des smartphones à l’entrée des établissements secondaires attestent de résultats concordants.

Une enquête IPSOS de fin 2022 attestait déjà pour la France d’un cumul de trois heures d’écran par jour avant l’âge de deux ans, de quatre heures quarante minutes chez les 7-10 ans, huit heures et demie chez les 11-14 ans et dix heures chez les 15-17 ans. La real life se réduit ainsi peu à peu à rétablir ses forces pour la vie sur écran. Le temps de l’éducation et de la transmission intergénérationnelle diminue d’autant plus que les parents restent eux aussi rivés à leurs écrans16.

Sur la fascination exercée par les écrans, l’IA générative n’aura fait que renchérir : elle aura conféré aux ordinateurs la fascination nouvelle propre aux machines parlantes.

Alors que les usages au moins hebdomadaires de l’IA sont déjà majoritaires chez les jeunes d’âge scolaire – et quasi unanimes chez les étudiants, il est temps de faire de l’école et de l’université les seuls lieux au monde sans écrans et sans IA, condition désormais de la transmission culturelle.

N.B. — J’ai plaisir à remercier ici Carine Duteil, Franck Floricic et Damon Mayaffre. Cette étude appartient à un cycle de réflexions connexes, exposées notamment dans L’IA m’a tué. Comprendre un monde post-humain, Paris, Intervalles, 2025 (voir la recension sur le présent site https://www.mezetulle.fr/lintelligence-artificielle-ledification-dun-monde-de-substitution-post-humain/ ) ; « Des réseaux sociaux à l’IA générative », Cités, n°104, 2025, pp. 141-148 ; Opera et creazione. Immagine, Linguaggio, Intelligenza Artifiziale, Pise, ETS, février 2026 ; « Sur l’essor de la philosophie artificielle », Degrés, n°109, 2026, sous presse ; « L’IA générative et la culture. Une introduction », Cahiers de sémiotique des cultures, n°5, 2026, pp. 5-15, sous presse : « IA générative et langage simulé », ibid., pp. 47-61.

Notes

1 – À présent, un tiers de la bourse américaine dépend de sept entreprises d’IA encore incapables de devenir rentables.

2 – Chacun sait que le Grand bond en avant, politique aussi volontariste qu’irréaliste, a causé entre 1958 et 1960 de 15 à 55 millions de morts — et une grave crise économique. La Chine a rendu obligatoire l’usage de l’IA dans toutes les administrations et reste en pointe pour ce qui concerne une « gouvernementalité algorithmique » qui renouvelle le totalitarisme politique.

3 – La Commission européenne renchérissait l’année suivante avec des « Lignes directrices éthiques sur l’utilisation de l’intelligence artificielle et des données dans l’enseignement et l’apprentissage à l’intention des éducateurs ». L’avant-propos se conclut ainsi : « À mesure que nous progresserons, nous continuerons à mieux comprendre comment appliquer ces technologies, ce qui permettra aux éducateurs d’être encore plus inclusifs et pragmatiques, en particulier dans l’enseignement primaire et secondaire » (p. 6). Il tient donc d’emblée pour acquis l’usage et l’inclusion réussie des IA dans l’éducation dès le primaire.

4 – Élisabeth Borne, « Les élèves de 4e et de 2de auront une formation en ligne à l’IA », Ouest France, 6 février 2025. À la question « Est-ce que faire un devoir avec ChatGPT c’est tricher ? », elle répond : « Non. Mais il nous faut éduquer les élèves aux biais et aux limites de l’IA ». Après le déni sidérant de la fraude, ses nuances sur l’éducation aux biais de l’IA laissent entendre que cette fraude ne serait pas parfaite… Elle reconnaît enfin que « la quasi-totalité des lycéens et étudiants utilisent l’IA, contre 20% des professeurs » et en conclut qu’il faut former les professeurs, sans doute jugés retardataires.

6 – Je remercie Damon Mayaffre de m’avoir communiqué ces réécritures édifiantes.

7 – Alors que Destutt de Tracy faisait de l’idéologie une science des représentations mentales élémentaires, Karl Marx, en reprenant ce terme, trouble décisivement la transparence postulée par ce penseur des Lumières, puisqu’il oppose au contraire la science et l’idéologie.

8 – Je renvoie à l’Essai sur le don de Marcel Mauss, notamment sur la structure ternaire des étapes du don. Voir aussi l’auteur, Apprendre pour transmettre. L’éducation contre l’idéologie managériale, Paris, PUF, 2013.

9 – Voir plus haut, et l’auteur, Faire sens. De la cognition à la culture, Paris, Garnier, 2018.

10 – Voir Iacoboni, M., & Dapretto, M. (2006).” The mirror neuron system and the consequences of its dysfunction”, Nature Reviews. Neuroscience, 7(12), pp. 942-951.

11 – Voir Nicole Garret-Gloanec et Anne-Sophie Pernel, Comment les écrans agissent sur nos bébés et nos ados Ce qu’en dit la science, Toulouse, Erès, 2025.

12 – Tous les gourous exploitent ainsi les demandes de validation qu’ils suscitent.

13 – Voir : https://interai.eu/call_fr.html. Agentivité traduit agency, capacitation traduit enpowerment (empouvoirement dans certains textes militants).

14 – Sur l’intelligence culturelle, voir Earley, P. C., & Ang, S. (2003), Cultural intelligence: Individual interactions across cultures. Stanford University Press.

15 – Les textes lus sur écran sont balayés 20% plus vite, mais oubliés dans la même proportion. Une étude de chercheurs du MIT, parue en juin 2025, comparait l’activité neuronale de trois cohortes d’étudiants, dans des tâches de rédaction universitaire réparties sur quatre mois, les uns s’aidant de ChatGPT, les autres d’un moteur de recherche, les derniers étant réduits à réfléchir par eux-mêmes. À l’examen, les premiers révélaient une activité cérébrale plus faible, et ne se souvenaient guère de leurs productions, à l’inverse des derniers.

16 – L’éducation parentale est déjà largement influencée par les IA : une étude sur 5.000 parents Américains, montre que 79 % s’en servent pour élever leurs enfants et 29 % disent y avoir recours chaque jour. Voir AI’s Consumer Tipping Point Has Arrived, en ligne : https://menlovc.com/perspective/2025-the-state-of-consumer-ai/

Le secret du vote en France est-il toujours garanti ? J’ai posé la question à l’IA

En France, le secret des scrutins organisés officiellement pour différentes élections (municipales, législatives, présidentielle, européennes, etc.) est garanti par des procédures assez bien connues. Une page du site du Conseil constitutionnel les résume, en donnant les références des textes du Code électoral et celle de la circulaire détaillée du 20 décembre 20071. Ces procédures – la plus connue étant le passage obligatoire par l’isoloir – permettent également d’assurer la sincérité du vote. Lorsqu’elles sont respectées, personne ne peut être l’objet d’une pression et toute tentative d’en exercer une est pénalisée. La publication des résultats fait, elle aussi, l’objet d’une réglementation précise ; on la trouve dans la même circulaire.

Cependant, peut-on dire, une fois les résultats proclamés, que seule la personne qui a voté peut révéler la teneur de son vote ?

Les procédures assurant le secret, si elles ont pour effet d’empêcher qu’on sache ce que vote telle ou telle personne avant et pendant les opérations de scrutin, ont-elles pour effet d’empêcher que l’on puisse savoir a posteriori par des voies publiques officielles comment un électeur votant a voté ? Non, dans certaines circonstances qui ne sont pas si rares. C’est le scrutin en tant qu’opération qui est secret, mais pas toujours le vote.

Imaginons le cas d’un collège électoral assez petit – par exemple un village ou un quartier où tout le monde se connaît – appelé à choisir entre deux candidats ou deux listes, A et B. Si, à l’issue du scrutin, il apparaît que la totalité des suffrages s’est portée sur le candidat ou la liste A, peut-on considérer que le secret du vote a été préservé ? Il semble que non, dans la mesure où il est possible, dans certaines conditions, de déduire de manière certaine comment chaque électeur votant a voté.

Pour que l’hypothèse soit valide, il faut, à l’évidence, que le nombre de suffrages exprimés soit égal au nombre de votants – autrement dit que tous les suffrages soient exprimés et que tous se soient portés sur le candidat ou la liste A. Il suffirait qu’un seul votant ait voté blanc ou nul pour que chaque votant puisse évoquer la possibilité d’être cet électeur-là et protège ainsi le secret de son vote. Le nombre d’abstentions n’a pas d’incidence dans ce cas : on sait qui s’est abstenu, c’est tout. On sait qui a voté, c’est vérifiable par n’importe quel citoyen ; et on sait que tous ont voté A, ce qui est vérifiable aussi.

J’ai posé la question, à peu près en ces termes, à deux intelligences artificielles. Si je dois reconnaître qu’elles m’ont beaucoup aidée à trouver des éléments fondamentaux pour la traiter, je dois aussi faire état de mon étonnement devant leur commune maladresse à trouver des méthodes (pourtant très simples) pour obtenir des exemples réels de cas correspondant à mon hypothèse.

Commençons par le côté positif.

1° L’IA fait le point sur les textes réglementant le secret du scrutin : elle m’épargne des recherches qui auraient pu être plus longues. 2° Elle cherche si la question que je pose a déjà trouvé une réponse juridique. Il se trouve que oui. La réponse confirme ce que j’avançais il y a un instant : il suffit que les opérations du scrutin assurent individuellement et formellement le secret du vote pour que celui-ci soit garanti.

Je cite ci-dessous l’une des IA sur ces deux points. Elle distingue secret matériel juridique procédural et secret substantiel logique : seul le premier importe, il y a secret tant que la procédure ne permet pas de révéler le vote d’un individu, même si a posteriori on peut déduire ce vote..

1. Le principe du secret du vote en droit français

Le secret du vote est un principe constitutionnel, garanti par :

  • l’article 3 de la Constitution (« Le suffrage […] est toujours universel, égal et secret »),

  • le Code électoral (isoloir, enveloppe opaque, interdiction de toute pression, etc.).

Ce secret a deux fonctions essentielles :

  1. Empêcher que le choix de l’électeur soit connu.

  2. Garantir l’absence de pression, d’intimidation ou de contrôle.

2. Le secret du vote porte sur l’acte, non sur les conséquences statistiques

Un point crucial :
Le droit n’exige pas que le résultat global empêche logiquement toute déduction rétrospective.
Il exige uniquement que
chaque électeur ait pu voter à l’abri de toute observation et contrainte, sans que son bulletin puisse être rattaché à sa personne au moment du vote.

C’est ce qu’on appelle parfois en doctrine le secret procédural, par opposition à un secret logique ou statistique.

3. Dans un très petit corps électoral, le secret procédural peut être respecté même si le secret logique disparaît

Dans votre exemple :

  • 100 votants

  • 100 voix pour A
    → Il est possible de déduire que
    chaque électeur a voté pour A.

De ce point de vue — déductif, logique, statistique — le secret est nul.

Cependant, du point de vue juridique :

L’électeur a voté seul dans l’isoloir.
✔ Le dépouillement n’associe pas un bulletin à une identité.
✔ Aucun élément matériel ne permet de savoir
directement ce qu’une personne a voté.

➡️ Le droit considère donc que le secret est respecté, même si le résultat lève le secret “par conséquence”.

4. Le droit français reconnaît implicitement ce problème, mais ne l’empêche pas

Il existe des scrutins où le corps électoral est très réduit :

  • élections sénatoriales dans les petites communes (quelques dizaines de grands électeurs),

  • élections professionnelles,

  • élections internes associatives ou universitaires,

  • conseils municipaux dans les tout petits villages.

Le législateur accepte le risque de reconstruction statistique du vote, pour autant que les conditions matérielles du vote secret soient garanties.

⚠️ Il n’existe aucun seuil légal minimal en dessous duquel un scrutin serait interdit parce que trop petit pour préserver un secret “absolu”.

5. La doctrine distingue donc :

a) Secret matériel / procédural → garanti

b) Secret substantiel / déductible → pas garanti, mais juridiquement acceptable

Cette distinction est admise par la jurisprudence administrative :
➡️ Ce qui importe, c’est l’absence de toute possibilité de
surveiller, non l’absence de possibilité de déduire après coup.

6. Alors, le secret est-il préservé ?

Réponse en deux niveaux :

Sur le plan juridique : OUI

Le secret du vote est considéré comme respecté dès lors que la procédure a empêché la révélation individuelle du vote.

Sur le plan logique ou sociologique : NON

Dans un vote à 100 % en faveur d’un candidat dans un groupe très petit,
le secret substantiel du vote est de facto levé. »

Reste la question concrète : peut-on trouver des occurrences où cette hypothèse s’est réalisée ? L’IA me dirige alors vers les données de résultats du Ministère de l’Intérieur. Je m’attendais à une extraction faite par l’IA répondant à ma question, mais non l’IA ne peut pas la faire. Elle m’indique les fichiers, la manière de les récupérer, et me propose un script de traitement en code Python pour trouver les cas. Je suis perdue, mais évidemment elle se fait fort de m’expliquer comment on utilise un code Python pour extraire des résultats d’un fichier .csv. Ouf, c’est compliqué.

Les deux IA ont proposé à peu de chose près la même démarche très lourde, mais au moins j’ai les liens pour récupérer les fichiers qui pourraient m’intéresser sur le site du ministère de l’Intérieur. J’abrège la conversation, les IA font du zèle comme d’habitude : elles me rédigent une note en suggérant des améliorations de la réglementation et même l’une d’elles propose d’écrire une proposition de loi visant à corriger cette faille. Rien que ça ! Je réponds poliment que je n’irai pas jusque-là et que de toute façon, c’est le travail des élus législatifs que l’on peut alerter le cas échéant. Je vais donc me tourner vers les fichiers du ministère de l’Intérieur en allant sur www.data.gouv.fr où c’est très bien fait. On peut avoir les résultats par bureau, ce qui est très intéressant.

Je ne regarde pas les codes Python-machin ni les croisements de fichiers complexes suggérés par les IA. Je me pose les questions suivantes.

Quels sont les scrutins les plus propices à présenter des cas comme celui que je cherche et les plus faciles à interpréter ? Le second tour d’une élection présidentielle me semble approprié : il n’y a que deux candidats, leurs noms sont connus et faciles à repérer.

Y a-t-il, dans ces seconds tours, des situations politiques où les électeurs peuvent avoir voulu voter plus que massivement, et même peut-être jusqu’à l’unanimité, pour un des deux candidats ? Mais oui, c’est bien sûr : le second tour de la présidentielle de 2002 qui opposa Jacques Chirac à Jean-Marie Le Pen, et où Chirac a obtenu, dans certains bureaux, des scores « bananiers » ! Je télécharge donc ce fichier .csv, et je le transfère sur une feuille Excel, cela est à ma portée.

Qu’est-ce que je cherche au juste dans cet énorme fichier (ma feuille Excel comprend plus de 128 000 lignes, une par bureau de vote) ? Les IA proposaient de chercher un vote unanime. Mais non, il y a bien plus simple : faire l’inverse, et chercher qui n’a obtenu aucune voix. Une colonne de la feuille Excel à trier sur le nombre zéro, c’est très facile.

Une fois ce tri effectué, j’obtiens des résultats rassemblant tous les bureaux de vote dans lesquels Le Pen n’a obtenu aucune voix, ce qui pourrait permettre de conclure que Chirac a recueilli la totalité des exprimés. Mais il y a une vérification à faire avant de conclure ainsi.

Il faut sélectionner, parmi ces résultats, les bureaux de vote où le nombre des votants et celui des exprimés sont identiques. Cela peut se faire facilement aussi sur une feuille Excel. En fait, je n’ai même pas besoin de les connaître tous, il suffit que j’aie quelques exemples pour pouvoir dire : ce cas existe, et il n’est pas isolé. Mais c’est mieux d’avoir des données complètes.

En document téléchargeable on peut consulter la liste Excel des bureaux de vote qui satisfont 1° le critère « un candidat a obtenu zéro voix », puis 2° le critère d’équivalence « nombre de votants=nombre d’exprimés », d’où on peut conclure que l’autre candidat a obtenu la totalité des suffrages exprimés. Il y en a une trentaine, ce sont de petits bureaux, environ 666 électeurs étaient concernés.

Une autre façon de faire est de chercher, dans l’ensemble du fichier des résultats du second tour, la triple équivalence nombre de votants=nombre d’exprimés=nombre de voix. Mais c’est plus technique car il faut écrire une formule de recherche pour comparer trois éléments. Je l’ai néanmoins fait – avec l’aide de l’IA qui sur ce terrain est beaucoup plus rapide et explicite que l’aide en ligne du logiciel. C’était néanmoins nécessaire de le faire pour avoir une vérification. Cette fois c’est l’autre candidat qui apparaît, celui qui a recueilli toutes les voix, mais ce sont bien les mêmes résultats pour les bureaux de vote et pour le nombre d’électeurs concernés. Voir la feuille Excel en téléchargement.

Quelques réflexions sur les conseils et méthodes de l’IA.

Aucune des deux IA n’a « pensé spontanément » à travailler sur des données propices à présenter ce genre de résultat. C’est moi qui ai eu l’idée de prendre le second tour de la présidentielle de 2002.

Aucune des deux IA ne suggère, dans le cas d’un scrutin où le choix se fait entre deux options, de chercher le résultat « zéro voix pour l’option X », ce qui est plus simple que de chercher l’unanimité pour l’option Y ; inutile de mettre en œuvre un script pour cela, un tri tout bête sur une des colonnes du tableur suffit.

Enfin aucune des deux n’évoque un critère décisif : trouver les cas où nombre de votants=nombre de suffrages exprimés / zéro voix pour l’un des candidats (ou bien toutes les voix pour l’autre).

L’une des IA flaire bien qu’il pourrait y avoir des « pièges », mais n’identifie pas précisément les catégories pertinentes et se fixe sur la comparaison avec les inscrits, alors que c’est la comparaison des votants avec les exprimés qui importe. Elle considère que l’abstention doit entrer en considération, alors que cela n’a pas d’effet ici. Je la cite :

« Vérifications et pièges à éviter

100% des exprimés ≠ 100% des inscrits. Vérifiez abstention / bulletins blancs/nuls : un score à 100% peut coexister avec une forte abstention.

Contrastez la donnée brute (CSV) avec la page officielle par commune du Ministère / site préfectoral / journal local pour le contexte (candidat unique, retrait, ou recours). Archives des Élections »

Donc deux conclusions pour cet article.

L’une, pas tellement rassurante, sur l’objet même de l’article. En France, le scrutin en tant que procédure est toujours secret, mais pas toujours le vote ; et la loi considère que ce dernier point est négligeable. 600 électeurs dont on peut connaître certainement le choix, bof ! Pourtant même s’il n’y en avait qu’un, on peut penser que quelque chose ne va pas.

L’autre, sur la démarche. L’IA est intelligente au sens strict du terme, elle met en relation d’énormes quantités de données (mais sans en garantir l’authenticité ni la véracité), elle sait trouver des données particulières, elle sait fouiller dans les jurisprudences, elle remplace haut-la-main les modes d’emploi des logiciels. C’est une aide considérable et sans elle je n’aurais pu écrire cet article que sous forme hypothétique, sans avoir de résultats à donner en exemple. Mais l’IA ne « voit » pas nécessairement ce qui pourtant est simple : il faut lui poser les bonnes questions. Il y a donc bien une différence entre l’intelligence et la raison.

Note