<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Education</title>
	<atom:link href="https://www.markert.fr/category/education/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.markert.fr</link>
	<description>Enjeux éthiques et théologiques de l&#039;Intelligence Artificielle dans l&#039;éducation</description>
	<lastBuildDate>Sun, 25 Jan 2026 18:54:18 +0000</lastBuildDate>
	<language>fr-FR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.3</generator>

<image>
	<url>https://www.markert.fr/wp-content/uploads/2020/09/cropped-logo_fondblanc_png_80x80-32x32.png</url>
	<title>Education</title>
	<link>https://www.markert.fr</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>De Louis XIV à l’Ère de l’IA : Pour une éducation qui forme les libertés</title>
		<link>https://www.markert.fr/2026/01/25/de-louis-xiv-a-lere-de-lia-pour-une-education-qui-forme-les-libertes/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=de-louis-xiv-a-lere-de-lia-pour-une-education-qui-forme-les-libertes</link>
					<comments>https://www.markert.fr/2026/01/25/de-louis-xiv-a-lere-de-lia-pour-une-education-qui-forme-les-libertes/#respond</comments>
		
		<dc:creator><![CDATA[Arnaud Markert]]></dc:creator>
		<pubDate>Sun, 25 Jan 2026 13:54:25 +0000</pubDate>
				<category><![CDATA[Education]]></category>
		<category><![CDATA[Enseignement catholique]]></category>
		<category><![CDATA[Intelligence artificielle et Numérique]]></category>
		<category><![CDATA[critique sociale]]></category>
		<guid isPermaLink="false">https://www.markert.fr/?p=1002</guid>

					<description><![CDATA[Si l’on compare notre époque avec celle du Louis XIV, un constat s’impose avec évidence : nous sommes infiniment mieux soignés, mais nous ne sommes pas nécessairement mieux formés. Le roi Soleil, instruit par des précepteurs de très haut niveau &#8230; <a href="https://www.markert.fr/2026/01/25/de-louis-xiv-a-lere-de-lia-pour-une-education-qui-forme-les-libertes/">Lire la suite­­</a>]]></description>
										<content:encoded><![CDATA[
<p>Si l’on compare notre époque avec celle du Louis XIV, un constat s’impose avec évidence : nous sommes infiniment mieux soignés, mais nous ne sommes pas nécessairement mieux formés. Le roi Soleil, instruit par des précepteurs de très haut niveau — Bossuet, Péréfixe, Huet — recevait une formation individualisée, intégrale, orientée vers la responsabilité politique et morale. Aujourd’hui, malgré l’accès universel au savoir, malgré les programmes nationaux et les milliards investis dans les systèmes scolaires, beaucoup de nos jeunes sortent du système éducatif sans réelle maîtrise de la pensée, de la langue, du raisonnement, de l’action responsable.</p>



<p>Ce déséquilibre n’est pas accidentel : il est le fruit d’une désorientation anthropologique. Nous avons pris l’instruction pour l’éducation complète de l’homme, négligeant que l’une ne garantit pas l’autre. Mais l’irruption de l’intelligence artificielle (IA) modifie aujourd’hui radicalement les conditions de cette tension. Elle nous offre une opportunité historique — au prix d’un discernement exigeant — de repenser l’éducation comme relation de formation, non comme simple transmission de contenus.</p>



<p>Le modèle éducatif qui s’est imposé aux XIXᵉ–XXᵉ siècles repose sur l’idée que l’instruction doit être universelle, standardisée et mesurable. Ce modèle, longtemps justifié par la nécessité de former des citoyens alphabétisés et des travailleurs qualifiés pour l’économie industrielle, a organisé l’éducation autour de parcours synchronisés, de programmes uniformes et d’examens standardisés.<br>Cette massification a eu des effets incontestables : alphabétisation quasi universelle, accès plus large aux savoirs, démocratisation des diplômes. Elle a cependant aussi produit des effets pervers. D’une part, la domination d’une logique quantitative (notes, pourcentages, classements) sur une logique qualitative de formation. D’autre part, la réduction de l’éducation à une forme d’ingénierie des compétences interchangeables. Et encore, l’anonymat pédagogique inhérent aux grands groupes-classe, qui dilue la relation maître–élève.</p>



<p>En conséquence, le système scolaire tend à produire des apprenants compétents dans certains savoir-faire, mais souvent démunis pour penser, pour juger, pour décider dans la complexité humaine et morale.</p>



<p>Pour comprendre ce que nous avons perdu, il est utile de regarder vers le préceptorat classique, tel qu’on le voit chez Aristote avec Alexandre, mais aussi dans d’autres traditions éducatives anciennes ou médiévales (Aristote, Sénèque, Alcuin&#8230;). Le précepteur n’est pas un technicien du savoir : il est d’abord un formateur de jugement.</p>



<p>Trois caractéristiques fondamentales de ce modèle éclairent notre diagnostic. D’abord, la relation personnalisée : le maître connaît l’élève dans sa singularité. Il ajuste son enseignement non seulement aux acquis cognitifs, mais aussi aux dispositions morales, spirituelles et psychologiques de l’élève. Ensuite, l’orientation vers la formation du caractère : apprendre, c’est apprendre à être, pas seulement savoir. Enfin, la visée téléologique : l’éducation se déploie autour d’une fin humaine, c’est-à-dire la capacité d’agir avec prudence, courage, justice et tempérance.</p>



<p>Ces traits, qui définissaient l’éducation des élites dans les sociétés anciennes, étaient naturellement limités par leur exclusivité sociale. Ce qui était réservé à quelques privilégiés pose aujourd’hui une question radicale : pourquoi ces traits essentiels ne pourraient-ils pas devenir des biens éducatifs universels ?</p>



<p>Le débat sur l’intelligence artificielle dans l’éducation ne peut être dissocié des travaux de Benjamin Bloom et de son fameux problème à 2 sigma. Bloom a montré qu’un enseignement individualisé — tutorat rapproché — conduit à des résultats exceptionnellement supérieurs aux formes collectives traditionnelles. Aujourd’hui, l’IA propose d’atteindre ces niveaux de personnalisation à une échelle qui aurait été inimaginable il y a seulement quelques décennies.<br>Les technologies adaptatives permettent de diagnostiquer finement les difficultés d’un élève, de proposer des parcours personnalisés en temps réel, de rétroagir immédiatement, avec des feedbacks adaptés.</p>



<p>Mais la simple efficacité cognitive ne suffit pas. Car apprendre n’est pas seulement accumuler des savoirs ou automatiser des compétences : c’est devenir un sujet capable de penser, de juger et d’agir dans la complexité du monde humain.</p>



<p>L’enjeu, à l’ère de l’IA, est donc de réconcilier ce qui a fait la force du préceptorat humain avec les potentialités nouvelles du tutorat intelligent. L’IA peut prendre en charge l’individualisation des apprentissages à grande échelle : elle s’adapte au rythme, identifie les zones de blocage, propose des parcours de remédiation. Cela répond à l’exigence de Bloom : tous les élèves peuvent progresser significativement en sortant du modèle uniforme.</p>



<p>Mais l’IA ne doit peut-être pas remplacer ce qui fait l’essence du mentor : la présence morale, la capacité à interroger les fins, la médiation des valeurs, l’autorité incarnée qui invite à la responsabilité. Le mentor ne se contente pas d’enseigner des savoirs ou des compétences : il accompagne la construction de la personne.</p>



<p>Ce que je propose n’est pas une substitution du professeur par la machine, mais une co-éducation intégrée<sup>1</sup>. L’IA comme assistant pédagogique universel, capable de réaliser ce que Bloom appelait l’enseignement individualisé à grande échelle. Le mentor humain comme éducateur de l’être, attentif à la liberté, à la vertu, à la finalité de l’apprentissage. Ce couple pédagogique — IA + mentorat humain — pourrait permettre de sortir de la tragédie actuelle où nous savons mieux soigner les corps que former les esprits.</p>



<p>Il ne s’agit pas simplement d’intégrer des technologies nouvelles, mais de réinterroger la finalité de l’éducation. L’école doit redevenir un lieu où l’on forme non seulement des travailleurs compétents, mais des êtres libres, capables de comprendre l’histoire, de dialoguer avec la tradition, de discerner le bien dans un monde complexe : désireux d’<em>otium</em> !</p>



<p>Cette vision rejoint la tradition chrétienne de l’éducation : l’homme est une fin en soi, appelé à grandir non seulement en savoir, mais en sagesse, en responsabilité, en charité. Dans une culture où l’efficacité technique tend à tout envahir, réintroduire cette finalité est une urgence morale.</p>



<p>Comparer notre système scolaire à l’éducation reçue par Louis XIV ne relève pas d’une nostalgie conservatrice, mais d’un diagnostic anthropologique : nous avons gagné en technologies éducatives, mais nous avons perdu en formation de l’esprit et de la liberté. L’IA peut être l’outil qui nous permet de résoudre ce paradoxe — non pas en remplaçant l’humain, mais en libérant l’humain pour ce qui fait sa grandeur.<br>L’alternative n’est pas entre une école du passé et une école automatisée : elle est entre une éducation qui forme des esprits vivants et une qui fabrique des algorithmes humains. C’est ce défi que doit relever toute réforme éducative digne de notre héritage anthropologique et éthique.</p>



<p></p>



<p>1 : Cf. Gemma Serrano, « Co-enseigner avec les robots. L’école à l’heure du numérique apprenant », dans Bernard Hugonnier et Gemma Serrano (dir.), <em>Réconcilier la République et son école</em>, Cerf, « Patrimoines », 2017.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.markert.fr/2026/01/25/de-louis-xiv-a-lere-de-lia-pour-une-education-qui-forme-les-libertes/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Ne faites plus d&#8217;études</title>
		<link>https://www.markert.fr/2026/01/16/ne-faites-plus-detudes/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=ne-faites-plus-detudes</link>
					<comments>https://www.markert.fr/2026/01/16/ne-faites-plus-detudes/#respond</comments>
		
		<dc:creator><![CDATA[Arnaud Markert]]></dc:creator>
		<pubDate>Fri, 16 Jan 2026 11:00:00 +0000</pubDate>
				<category><![CDATA[Education]]></category>
		<category><![CDATA[Intelligence artificielle et Numérique]]></category>
		<category><![CDATA[critique sociale]]></category>
		<guid isPermaLink="false">https://www.markert.fr/?p=999</guid>

					<description><![CDATA[Laurent Alexandre &#38; Olivier Babeau, Ne faites plus d&#8217;études : Apprendre autrement à l&#8217;ère de l&#8217;IA, Buchet &#8211; Chastel, 2025. L’ouvrage de Laurent Alexandre et d’Olivier Babeau s’inscrit dans le sillage des essais de prospective éducative à l’ère de l’intelligence &#8230; <a href="https://www.markert.fr/2026/01/16/ne-faites-plus-detudes/">Lire la suite­­</a>]]></description>
										<content:encoded><![CDATA[
<p><strong>Laurent Alexandre &amp; Olivier Babeau, <em>Ne faites plus d&rsquo;études : Apprendre autrement à l&rsquo;ère de l&rsquo;IA</em>, Buchet &#8211; Chastel, 2025.</strong></p>



<figure class="wp-block-image alignleft size-medium"><img fetchpriority="high" decoding="async" width="205" height="300" src="https://www.markert.fr/wp-content/uploads/2026/01/image-205x300.jpg" alt="" class="wp-image-1000" srcset="https://www.markert.fr/wp-content/uploads/2026/01/image-205x300.jpg 205w, https://www.markert.fr/wp-content/uploads/2026/01/image-698x1024.jpg 698w, https://www.markert.fr/wp-content/uploads/2026/01/image-768x1126.jpg 768w, https://www.markert.fr/wp-content/uploads/2026/01/image-1047x1536.jpg 1047w, https://www.markert.fr/wp-content/uploads/2026/01/image-1397x2048.jpg 1397w, https://www.markert.fr/wp-content/uploads/2026/01/image.jpg 1651w" sizes="(max-width: 205px) 100vw, 205px" /></figure>



<p>L’ouvrage de Laurent Alexandre et d’Olivier Babeau s’inscrit dans le sillage des essais de prospective éducative à l’ère de l’intelligence artificielle générative. Publié en 2025 dans la collection « Essais et documents » chez Buchet-Chastel, il se présente comme une critique radicale de l’institution universitaire – il n’est pas question du primaire ou du secondaire&nbsp;—, jugée figée et déconnectée des compétences réellement requises dans une économie désormais gorgée d’IA.</p>



<p>Le titre – <em>Ne faites plus d’études</em> – est volontairement provocateur. Les auteurs précisent très tôt qu’il ne s’agit pas de cesser d’apprendre, mais, au contraire, d’entrer dans une logique d’hyper-apprentissage : « nous ne disons pas : n’apprenez plus ; au contraire, apprenez plus, toujours plus […] nous disons : déscolarisez votre pensée. Apprenez autrement. Apprenez tout le temps » (p.&nbsp;16). L’objectif est clair : apprendre « plus vite que le monde ne change », et le livre se présente comme une tentative pour décrire cette trajectoire et en tirer les conséquences pour les individus et pour l’école.</p>



<p>La thèse peut se résumer en trois propositions. D’une part, l’IA bouleverse la hiérarchie des compétences, en automatisant tout ce qui est de l’ordre du « pensable » standardisé. D’autre part, le système éducatif, structuré autour du diplôme et de la transmission descendante, est inadapté à cette mutation. Et encore, la survie cognitive et professionnelle des individus dépendra de leur capacité à co-évoluer avec l’IA : apprendre avec elle, mais également sans elle.</p>



<p>Sur ce fond, l’ouvrage articule trois grands volets. D’abord, un diagnostic techno-économique : montée en puissance des LLM, automatisation des tâches intellectuelles, transformation des organisations et des métiers. Ensuite, une cartographie du travail de demain : secteurs menacés, secteurs reconfigurés, secteurs renforcés par l’IA. Enfin un programme d’« éducation post-académique » : nouvelles compétences-clés, nouvelle place pour les enseignants, nouvel écosystème d’apprentissages distribués.</p>



<p>Le livre est traversé par un constat très dur sur le devenir de nombreux emplois intellectuels. L’IA ne « remplacera » pas l’humain comme on change une ampoule, écrivent les auteurs, mais risque de le rendre « accessoire, puis marginal, puis folklorique, comme le tir à l’arc, l’équitation ou la théologie : nobles disciplines, mais qui n’organisent plus le monde depuis longtemps » (p. 34). La formule, volontairement choquante, dit le cœur de leur inquiétude : ce ne sont pas seulement des tâches qui disparaissent, mais des pôles organisateurs de sens.</p>



<p>Dans ce contexte, la compétence rare devient, selon eux, « la capacité à travailler avec l’inconnu, à explorer les marges, à concevoir l’inédit » (p.&nbsp;77). Le seul vrai danger ne serait pas l’IA elle-même, mais une stagnation de l’imagination humaine : si l’on délègue à la machine tout ce qui est de l’ordre du « pensable », nous perdons la lente maturation des idées, ces réflexions « qui nécessitent du temps pour mûrir ». L’habitude de recourir systématiquement à l’IA pour automatiser la moindre tâche cognitive menace précisément ce temps long.</p>



<p>Dans le monde du travail, les auteurs insistent sur une tension structurante : d’un côté, les organisations restent des « arènes sociales » pétries de rationalités partielles, de jeux politiques, de routines irrationnelles ; de l’autre, « l’économie ne récompense pas la prudence mais la productivité, et à ce jeu-là l’IA est un choc technologique majeur&nbsp;» p.&nbsp;101). En d’autres termes, l’implantation de l’IA sera socialement chaotique, lente et conflictuelle, mais technologiquement irrésistible. Les pages consacrées à l’adoption de l’IA en entreprise exposent bien ces frictions : résistances culturelles, inertie des structures, mais aussi incitations économiques puissantes à l’automatisation.</p>



<p>Sur le plan sectoriel, le livre distingue nettement les activités hautement automatisables et celles qui, au contraire, pourraient être renforcées par l’IA. Les auteurs listent notamment les métiers de la proximité humaine : accueil, hospitalité, médiation culturelle, animation, coaching… On n’y achète pas seulement une prestation, mais « une expérience humaine partagée ». Les métiers de la main, les métiers du soin et du lien, le spectacle vivant, ou encore les métiers de prise en charge de la responsabilité (décision, arbitrage, régulation). Ces domaines restent difficiles à automatiser parce qu’ils engagent corps, vulnérabilité, jugement pratique et confiance.</p>



<p>Le ton est celui d’un constat de froide lucidité : le livre « déshabille » la réalité du marché du travail pour en révéler la nudité cruelle, sans se réfugier dans un humanisme consolant.</p>



<p>C’est dans ce contexte que l’ouvrage développe sa réflexion éducative. Dans un monde saturé d’IA, « le rôle de l’enseignant ne peut plus être de transmettre ». L’information est partout, instantanément accessible ; le professeur devient celui qui trie, explique, contextualise, problématise un savoir omniprésent. Plus loin, les auteurs synthétisent ce déplacement : ce que le professeur doit désormais incarner, « c’est moins la connaissance que la méthode, moins la réponse que la rigueur intellectuelle, moins la vérité que l’esprit critique, moins l’apprentissage lui-même que la volonté d’aller plus loin » (p. 124).</p>



<p>Ils parlent d’une nouvelle grammaire du champ éducatif où la compétence décisive ne sera pas le stock de savoirs mais la capacité à collaborer ou à survivre face à des entités plus brillantes et plus rapides que nous. L’intelligence du xxiᵉ siècle naît d’une tension, résumée par la formule de Michel Lévy-Provençal : ceux qui ne sauront pas utiliser l’IA seront dépassés ; ceux qui ne sauront penser qu’avec elle seront asservis. Le futur « appartient à ceux qui savent réfléchir avec la machine, c’est-à-dire réfléchir même si la machine s’éteint » (p. 152).</p>



<p>Dans ce cadre, les auteurs insistent sur un noyau de compétences transversales : plasticité cognitive, capacité à se former en continu, autonomie, créativité. Ils décrivent l’émergence d’une « société hyper-éducative » où chacun est sommé de devenir l’architecte actif de sa propre formation. L’enseignant n’y « dicte » plus ; il accompagne. L’élève n’y obéit plus, mais interagit et co-construit son parcours.</p>



<p>Ce nouveau régime d’apprentissage repose aussi sur des écosystèmes numériques informels : GitHub, Stack Overflow, Substack, Discord, Reddit, qui fonctionnent comme autant de lieux de socialisation cognitive et de montée en compétences « en situation ». Les auteurs y voient la matrice de nouveaux métiers – ils évoquent par exemple l’« AI-researcher » – mais aussi le laboratoire d’une pédagogie orientée vers l’extraction de « grandes idées, contradictions, angles morts, promesses inexplorées&nbsp;» dans des flux massifs d’information. L’enjeu n’est plus de mémoriser des contenus, mais de savoir les cartographier, les critiquer, les recombiner.</p>



<p>Sur ce fond, le mot d’ordre final – « ne faites plus d’études… du moins pas au sens traditionnel et figé du terme » – prend son sens. Il ne s’agit pas de délégitimer tout cadre académique, mais d’appeler à une démassification des trajectoires éducatives et à une hybridation plus serrée entre institutions, communautés en ligne et autoformation.</p>



<p>Les auteurs semblent chercher à enfoncer le clou en multipliant les répétitions plus ou moins directes. De ce fait, je n’ai pas trouvé ce livre très agréable à lire. Néanmoins, l’ouvrage présente des qualités indéniables. D’abord, il offre une synthèse claire des effets structurants de l’IA sur le travail et l’éducation, avec une capacité rare à articuler dynamique techno-économique et enjeux pédagogiques Ensuite et surtout, il formule, de manière frappante, la nécessité d’une révolution du rôle enseignant et d’une reconfiguration profonde des curricula : recentrage sur la méthode, l’esprit critique, la plasticité cognitive. Par ailleurs, il prend au sérieux la dimension cognitive et imaginative des transformations en cours : le risque majeur serait moins la disparition de certains emplois que l’atrophie de notre capacité à penser par nous-mêmes, à laisser mûrir des idées dans la durée.</p>



<p>Cependant, la lecture appelle aussi plusieurs réserves. Le vocabulaire de la « survie cognitive », de la course pour apprendre « plus vite que le monde ne change », du futur appartenant à ceux qui sauront « collaborer ou survivre » face à l’IA, installe une logique de sélection permanente. L’apprentissage y apparaît d’abord comme une stratégie de compétitivité individuelle dans un environnement hostile. Cette perspective, efficace comme électrochoc, laisse dans l’ombre des questions décisives : comment penser la justice sociale, les inégalités d’accès au numérique, la prise en compte des vulnérabilités dans une « société hyper-éducative » où tout le monde n’a pas les mêmes ressources pour devenir entrepreneur de soi-même ?</p>



<p>La phrase qui relègue la théologie au rang de discipline « folklorique » dit quelque chose d’important sur l’anthropologie implicite du livre : ce qui compte est ce qui «&nbsp;organise le monde », c’est-à-dire l’économie et la technologie. Sont relégués à la périphérie tout ce qui relève de la quête de sens, du symbolique, de la contemplation. Or, dans le contexte éducatif – et plus encore dans un contexte chrétien ou humaniste&nbsp;– cela ouvre un vrai débat : peut-on penser l’éducation au xxiᵉ siècle uniquement comme adaptation fonctionnelle au choc IA, sans reposer la question des finalités – humaines, spirituelles, civiques – de l’acte d’apprendre ?</p>



<p>L’appel à « déscolariser la pensée » est stimulant, mais l’ouvrage reste centré sur l’individu-apprenant. Les institutions éducatives y apparaissent surtout comme des structures dépassées, à réformer pour mieux accompagner la montée en compétences autonome. Les conditions concrètes d’une transformation systémique (temps long des réformes, formation des enseignants, articulation avec la recherche, régulations éthiques de l’IA en éducation) demeurent peu explorées. On aurait souhaité que les auteurs articulent plus précisément leur vision avec les enjeux de politique éducative, de gouvernance des systèmes et de responsabilité collective.</p>



<p>La perspective est largement individualiste, qui néglige complètement l’animal politique qu’est l’humain&nbsp;: son besoin de vivre avec d’autres, d’apprendre avec d’autres, d’apprendre à vivre ensemble, etc.</p>



<p>Malgré ces limites, <em>Ne faites plus d’études</em> constitue un texte utile et stimulant pour celles et ceux qui réfléchissent à l’avenir de l’éducation à l’ère de l’IA. Il oblige à regarder en face plusieurs réalités que l’on préfère parfois contourner. En premier lieu, la banalisation de l’usage de l’IA pour tout ce qui est « pensable » au quotidien, avec le risque réel d’affaiblissement de notre endurance intellectuelle. De plus, la nécessité de recentrer l’école sur le développement de facultés non substituables : jugement, imagination, sens de la nuance, capacité à dialoguer avec des systèmes plus puissants sans leur abandonner notre faculté de juger. Et aussi, l’urgence de penser une culture de la collaboration homme–machine qui ne soit ni un fétichisme technophile ni un refus crispé.</p>



<p>Le livre fournit un langage et des images qui peuvent nourrir des débats pédagogiques, notamment autour :</p>



<ul class="wp-block-list">
<li>de la redéfinition du métier d’enseignant ;</li>



<li>de l’intégration des communautés en ligne (GitHub, Stack Overflow, Reddit…) dans des parcours de formation structurés ;</li>



<li>de la place à donner, dans les curricula, à la créativité, à la plasticité cognitive et à la formation continue, au-delà de la logique du diplôme unique.</li>
</ul>



<p>Au total, l’essai d’Alexandre et Babeau propose une critique tranchante de la scolarisation traditionnelle et un plaidoyer vigoureux pour une éducation post-universitaire à l’ère de l’IA. Il invite à penser ensemble deux exigences qui, pour un lecteur soucieux d’éthique, de théologie et d’éducation, ne peuvent être séparées : apprendre à « réfléchir avec la machine », en tirant le meilleur de ses apports ; mais aussi préserver la possibilité de « réfléchir quand la machine s’éteint », c’est-à-dire de garder, au cœur de nos institutions éducatives, un espace pour la lenteur, la gratuité, la contemplation et la construction d’un jugement vraiment humain.</p>



<p>C’est précisément dans cette tension – déjà soulignée par les auteurs, mais à approfondir – que se joue sans doute l’avenir d’une éducation à la fois technologiquement lucide et vraiment humaine.</p>



<p>En ligne sur <a href="https://www.buchetchastel.fr/catalogue/ne-faites-plus-detudes/">https://www.buchetchastel.fr/catalogue/ne-faites-plus-detudes/</a></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.markert.fr/2026/01/16/ne-faites-plus-detudes/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Rapport : L&#8217;IA dans les établissements scolaires</title>
		<link>https://www.markert.fr/2025/11/26/rapport-lia-dans-les-etablissements-scolaires/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=rapport-lia-dans-les-etablissements-scolaires</link>
					<comments>https://www.markert.fr/2025/11/26/rapport-lia-dans-les-etablissements-scolaires/#respond</comments>
		
		<dc:creator><![CDATA[Arnaud Markert]]></dc:creator>
		<pubDate>Wed, 26 Nov 2025 14:35:37 +0000</pubDate>
				<category><![CDATA[Education]]></category>
		<category><![CDATA[Ethique]]></category>
		<category><![CDATA[Intelligence artificielle et Numérique]]></category>
		<guid isPermaLink="false">https://www.markert.fr/?p=972</guid>

					<description><![CDATA[IGÉSR, Rapport « L’intelligence artificielle dans les établissements scolaires, sur le plan administratif et pédagogique », mai 2025. En ligne sur https://www.education.gouv.fr/l-intelligence-artificielle-dans-les-etablissements-scolaires-450655 ; consulté le 25/11/2025 à 15h20. Le rapport de l’Inspection générale de l’éducation, du sport et de la &#8230; <a href="https://www.markert.fr/2025/11/26/rapport-lia-dans-les-etablissements-scolaires/">Lire la suite­­</a>]]></description>
										<content:encoded><![CDATA[
<p><strong>IGÉSR, Rapport « L’intelligence artificielle dans les établissements scolaires, sur le plan administratif et pédagogique », mai 2025</strong>. En ligne sur <a href="https://www.education.gouv.fr/l-intelligence-artificielle-dans-les-etablissements-scolaires-450655">https://www.education.gouv.fr/l-intelligence-artificielle-dans-les-etablissements-scolaires-450655</a> ; consulté le 25/11/2025 à 15h20.</p>



<figure class="wp-block-image alignleft size-medium"><img decoding="async" width="212" height="300" src="https://www.markert.fr/wp-content/uploads/2025/11/igesr-rapport-24-25-016b-intelligence-artificielle-etablissements-scolaires-plan-administratif-et-pedagogique-212x300.png" alt="" class="wp-image-973" srcset="https://www.markert.fr/wp-content/uploads/2025/11/igesr-rapport-24-25-016b-intelligence-artificielle-etablissements-scolaires-plan-administratif-et-pedagogique-212x300.png 212w, https://www.markert.fr/wp-content/uploads/2025/11/igesr-rapport-24-25-016b-intelligence-artificielle-etablissements-scolaires-plan-administratif-et-pedagogique-724x1024.png 724w, https://www.markert.fr/wp-content/uploads/2025/11/igesr-rapport-24-25-016b-intelligence-artificielle-etablissements-scolaires-plan-administratif-et-pedagogique-768x1087.png 768w, https://www.markert.fr/wp-content/uploads/2025/11/igesr-rapport-24-25-016b-intelligence-artificielle-etablissements-scolaires-plan-administratif-et-pedagogique.png 800w" sizes="(max-width: 212px) 100vw, 212px" /></figure>



<p>Le rapport de l’Inspection générale de l’éducation, du sport et de la recherche (IGÉSR), <em>Intelligence artificielle et établissements scolaires : plan administratif et pédagogique</em> (réf. 24-25-016B), s’inscrit dans un contexte de diffusion rapide des outils d’intelligence artificielle générative (IAG) dans la société et, de façon de plus en plus visible, dans les établissements scolaires. Il vise à dresser un état des lieux des usages de l’IA dans les écoles et établissements, à évaluer les opportunités et les risques, et à formuler des recommandations à la fois administratives et pédagogiques.</p>



<p>Le texte se situe explicitement à l’interface des politiques publiques (pilotage, régulation, sécurité, conformité juridique) et des pratiques de classe (pédagogie, évaluation, formation des personnels, relations éducatives). Il s’adresse donc autant aux équipes de direction, aux corps d’inspection et aux services académiques, qu’aux enseignants et formateurs engagés dans la transformation des pratiques.</p>



<p>Le rapport propose d’abord un état des lieux des usages de l’IA dans les établissements scolaires. Il souligne la grande hétérogénéité des pratiques : d’un côté, des équipes et des enseignants encore peu informés ou méfiants, de l’autre, des pionniers qui expérimentent des usages variés (aide à la préparation de cours, différenciation pédagogique, accompagnement à l’écriture, soutien à l’évaluation formative, etc.).</p>



<p>Cet état des lieux insiste aussi sur la dimension « souterraine » de certains usages : de nombreux élèves recourent à l’IA générative (pour rédiger, traduire, résumer, produire des contenus multimédias), parfois sans en comprendre les limites, et souvent sans que les enseignants soient en mesure d’identifier clairement les apports de l’outil. Ce décalage contribue à ce que le rapport nomme, explicitement ou implicitement, une forme de « spoliation cognitive » : l’élève peut déléguer à l’IA une part décisive du travail de pensée (recherche, structuration, rédaction), au risque de se voir dépossédé de sa propre activité intellectuelle.</p>



<p>Le rapport ne se contente pas de pointer les risques : il s’attache à évaluer les opportunités offertes par l’IA, à condition qu’elles soient intégrées dans un cadre éthique et pédagogique cohérent. Il insiste notamment sur la capacité des outils d’IA :</p>



<ul class="wp-block-list">
<li>à soutenir la différenciation pédagogique (proposer des exercices variés, adapter les supports à des profils d’élèves) ;</li>



<li>à faciliter certaines tâches de gestion et de préparation (génération de trames, de questions, d’exemples) ;</li>



<li>à nourrir des pédagogies de projet, à condition qu’elles soient véritablement construites autour d’une démarche collective et réflexive.</li>
</ul>



<p>Le rapport formule ici une thèse importante : « la question des outils est secondaire par rapport aux questions des usages et aux enjeux éthiques » (p. 25). Autrement dit, ce ne sont ni la puissance technique, ni la nouveauté des dispositifs qui doivent guider l’action éducative, mais les finalités poursuivies, la manière dont les outils sont mis en œuvre, et les valeurs qu’ils servent.</p>



<p>Un apport notable du rapport est de relier explicitement les usages d’IA à la gouvernance pédagogique des établissements. L’IGÉSR invite à inscrire la « place du numérique éducatif et de l’IA dans le projet d’établissement » (p. 8), ce qui revient à :</p>



<ul class="wp-block-list">
<li>articuler les choix technologiques avec les priorités éducatives (réussite de tous, prévention du décrochage, formation du jugement, éducation aux médias et à l’information, etc.) ;</li>



<li>éviter que l’IA ne soit un « add-on » marginal, ou au contraire une fuite en avant techniciste, détachée des enjeux pédagogiques réels ;</li>



<li>structurer un dialogue entre direction, équipes pédagogiques, élèves et familles sur les finalités et les limites d’une éducation augmentée par l’IA.</li>
</ul>



<p>Cette inscription dans le projet d’établissement est cohérente avec une perspective où l’IA n’est pas un simple gadget, mais un facteur de recomposition des pratiques, des représentations du savoir, et de la culture d’établissement.</p>



<p>Le rapport interroge directement les pratiques d’évaluation et la pédagogie, avec un diagnostic fort : l’introduction de l’IA rend caduque une culture trop centrée sur le produit final (copie, dossier, exposé), au détriment du processus d’apprentissage.</p>



<p>Une formule particulièrement significative l’exprime : « l’IA renforce l’importance du processus plutôt que l’évaluation du seul produit final sur lequel porte pourtant l’essentiel de la culture évaluative en éducation » (p. 27).<br>Autrement dit, si l’on veut éviter la triche assistée par IA, il ne suffit pas de mieux surveiller les copies ; il faut revoir la conception même des tâches, des critères d’évaluation, et de la place donnée au travail en cours (brouillons, étapes, relectures, interactions, oralisation des démarches, etc.).</p>



<p>Le rapport va jusqu’à affirmer que « la priorité donnée à la détection de la fraude occulte la nécessité plus prioritaire de développer une éducation pour une pratique éthique de l’IA » (p. 11). La lutte contre la fraude est certes légitime, mais lorsqu’elle devient l’axe dominant, elle risque :</p>



<ul class="wp-block-list">
<li>d’alimenter une culture de suspicion générale ;</li>



<li>de réduire l’IA à un ennemi à neutraliser ;</li>



<li>et surtout d’empêcher de former les élèves à une éthique de l’usage : discernement, vérification des sources, conscience des limites, responsabilité dans la co-production de contenus.</li>
</ul>



<p>En ce sens, le rapport appelle à une véritable conversion de la culture évaluative, où l’on passerait d’un contrôle du produit à une valorisation du cheminement intellectuel, de la réflexivité et du dialogue critique autour des productions (y compris assistées par IA).</p>



<p>L’un des mérites centraux du rapport est son insistance répétée sur le fait que « la question des outils est secondaire par rapport aux questions des usages et aux enjeux éthiques » (p. 25). Dans un paysage où l’on se focalise volontiers sur la performance des modèles, le type d’algorithme ou la course à l’innovation, cette hiérarchisation est salutaire.</p>



<p>Le rapport insiste en particulier sur la nécessité de :</p>



<ul class="wp-block-list">
<li>former élèves et enseignants à l’analyse critique des réponses de l’IA (fiabilité, hallucinations, biais, stéréotypes…) ;</li>



<li>développer une culture de responsabilité qui évite la spoliation cognitive, c’est-à-dire l’abandon silencieux du travail intellectuel au profit d’une production immédiate, lisse mais superficielle ;</li>



<li>penser les outils d’IA comme des médiations et non des substituts, afin de préserver le rôle de la relation éducative et de la construction personnelle du savoir.</li>
</ul>



<p>Le rapport n’est pas seulement critique : il esquisse des pistes positives. Il souligne que « les outils IA peuvent renforcer la coopération et la cohésion, à condition d’être intégrés à une pédagogie de projet construite autour d’une approche collective » (p. 25).</p>



<p>Autrement dit, l’IA peut devenir :</p>



<ul class="wp-block-list">
<li>un instrument de co-écriture, où l’on discute, commente, corrige ce que propose le modèle ;</li>



<li>un support de débats interprétatifs (par exemple, confronter les réponses de l’IA à des sources savantes, ou aux propositions des élèves) ;</li>



<li>un outil pour répartir les tâches dans un projet collectif, en explicitant ce qui relève de l’humain (choix, argumentation, discernement) et ce qui peut être automatisé.</li>
</ul>



<p>Dans cette perspective, l’IA n’isole pas l’élève derrière son écran, mais devient un objet d’enquête et de discussion, un prétexte à travail coopératif. Elle peut ainsi contribuer à résister à une dissociation sociale que le rapport identifie comme un risque majeur : fragmentation des expériences, isolement des élèves face aux écrans, dilution des liens inter-personnels.</p>



<p>Le rapport emploie l’expression « les relations entre Homme et machine » (p. 17), qui peut être jugée malheureuse. En effet, elle tend à confondre :</p>



<ul class="wp-block-list">
<li>la relation, qui suppose réciprocité, reconnaissance et altérité personnelle ;</li>



<li>le rapport, qui renvoie à un type de lien fonctionnel, instrumental ou technique ;</li>



<li>la médiation, qui désigne ce par quoi une relation entre personnes est facilitée, enrichie ou parfois obstruée.</li>
</ul>



<p>Parler de « relation » entre un sujet humain et un dispositif algorithmique risque d’anthropomorphiser la machine et de minimiser la dimension proprement interpersonnelle de l’éducation. Une formulation plus précise (« rapports homme-machine », « médiations techniques dans les relations éducatives ») aurait permis de clarifier les enjeux, notamment pour un public enseignant déjà confronté aux dérives de la personnification des agents conversationnels.</p>



<p>De même, la formule « L’IA générative n’est fondamentalement pas créative&nbsp;» (p. 21) est problématique à plusieurs titres. On comprend la thèse de fond : l’IA génère du contenu par recombinaison statistique de données préexistantes, sans expérience vécue, sans intentionnalité ni responsabilité. D’un point de vue anthropologique et éthique, on peut donc soutenir qu’elle ne « crée » pas au sens fort (pas de subjectivité, pas de finalité interne, pas de sens assumé à priori).</p>



<p>Cependant, l’énoncé tel quel, sans nuances, prête le flanc à la critique :</p>



<ul class="wp-block-list">
<li>au niveau philosophique, il supposerait une définition très précise et consensuelle de la créativité – ce qui s’avère loin d’être le cas ;</li>



<li>au niveau didactique, il risque de déstabiliser des enseignants qui constatent empiriquement que les productions de l’IA peuvent être originales, surprenantes, voire heuristiques dans les processus d’apprentissage.</li>
</ul>



<p>Une formulation plus fine – par exemple en distinguant créativité « forte » (ancrée dans un sujet, une histoire, une responsabilité) et créativité « faible » (variations combinatoires, générativité formelle) – aurait permis de tenir ensemble la critique anthropologique et l’expérience pédagogique des usagers.</p>



<p>Le rapport souligne à plusieurs reprises le risque de « spoliation cognitive » : lorsque l’élève délègue systématiquement les tâches de compréhension, de reformulation et de structuration à l’IA, il se prive de l’exercice même par lequel se forme l’intelligence. L’outil, loin d’être un simple assistant, devient alors un substitut, au risque d’atrophier les capacités d’attention, de mémoire et de jugement.</p>



<p>Ce phénomène s’accompagne d’une possible dissociation sociale : les élèves les plus dotés en capital culturel, accompagnés par des adultes capables de leur apprendre un usage critique de l’IA, peuvent en faire un levier de réussite. À l’inverse, d’autres risquent de se contenter de réponses toutes faites, sans encadrement ni réflexivité, accentuant ainsi les inégalités de réussite et la fracture numérique.</p>



<p>Le rapport conclut – et c’est l’un de ses apports les plus structurants – que «&nbsp;l’IA renforce le besoin d’un lien fort entre école et recherche » (p. 32). Cette affirmation ouvre un horizon de travail qui dépasse largement la simple formation technique des enseignants :</p>



<ul class="wp-block-list">
<li>associer davantage les équipes à des programmes de recherche-action, pour documenter les effets réels des usages d’IA en classe ;</li>



<li>nourrir la réflexion des établissements par des apports de sciences de l’éducation, de philosophie, de sociologie, de théologie (pour les établissements catholiques), afin d’éclairer les enjeux anthropologiques et éthiques ;</li>



<li>construire des outils d’analyse et des indicateurs qui ne se limitent pas aux performances, mais intègrent l’impact sur l’attention, la motivation, la qualité des interactions et le sens donné aux apprentissages.</li>
</ul>



<p>Cette insistance sur le lien école–recherche rejoint l’idée que l’IA n’est pas un « simple » outil, mais un révélateur de tensions profondes de l’école contemporaine : rapport au savoir, culture de l’évaluation, place du numérique, rôle de la communauté éducative.</p>



<p>En définitive, le rapport de l’IGÉSR offre une contribution substantielle et utile à la réflexion institutionnelle et pédagogique sur l’intelligence artificielle en milieu scolaire. On peut résumer ses apports principaux ainsi :</p>



<ul class="wp-block-list">
<li>un <strong>état des lieux</strong> lucide des usages émergents, des inquiétudes (fraude, plagiat, inégalités, spoliation cognitive) et des attentes des acteurs ;</li>



<li>une <strong>évaluation des opportunités</strong>, qui insiste sur la coopération, la pédagogie de projet et la revalorisation des processus d’apprentissage ;</li>



<li>une <strong>interpellation directe des pratiques d’évaluation</strong> et, plus largement, de la culture pédagogique dominée par le produit fini ;</li>



<li>un <strong>recentrage éthique</strong> affirmant la primauté des usages, des finalités et de la formation au discernement, sur la fascination pour les outils eux-mêmes ;</li>



<li>une invitation structurante à inscrire la <strong>place du numérique éducatif et de l’IA dans le projet d’établissement</strong>, et à renforcer le <strong>lien entre école et recherche</strong>.</li>
</ul>



<p>Ses limites ne sont pas négligeables : quelques formulations discutables, un certain manque d’exemples disciplinaires fins, et une articulation encore à préciser entre recommandations nationales et marges d’initiative locales.</p>



<p>Mais ces fragilités ne diminuent pas la valeur du rapport comme cadre de travail pour les équipes de direction, les enseignants, les formateurs et les tutelles. Il constitue une base solide pour engager, dans chaque établissement, un travail de discernement et de refonte des pratiques, en refusant à la fois la diabolisation de l’IA et son adoption naïve. En ce sens, il contribue à ce que l’école ne soit ni dépossédée ni dépassée, mais devienne un lieu où l’IA est mise au service d’une véritable croissance humaine, intellectuelle et relationnelle.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.markert.fr/2025/11/26/rapport-lia-dans-les-etablissements-scolaires/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>IA et dialectique : un danger pour la pensée critique ?</title>
		<link>https://www.markert.fr/2025/03/21/ia-et-dialectique-un-danger-pour-la-pensee-critique/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=ia-et-dialectique-un-danger-pour-la-pensee-critique</link>
					<comments>https://www.markert.fr/2025/03/21/ia-et-dialectique-un-danger-pour-la-pensee-critique/#respond</comments>
		
		<dc:creator><![CDATA[Arnaud Markert]]></dc:creator>
		<pubDate>Fri, 21 Mar 2025 11:00:00 +0000</pubDate>
				<category><![CDATA[Education]]></category>
		<category><![CDATA[Intelligence artificielle et Numérique]]></category>
		<guid isPermaLink="false">https://www.markert.fr/?p=913</guid>

					<description><![CDATA[Depuis l’Antiquité, la transmission des savoirs oscille entre dialectique, didactique et rhétorique. Avec l’essor des technologies d’intelligence artificielle générative (Natural Language Generation (NLP)), de nouvelles interrogations émergent sur le statut du savoir et de la vérité dans l’éducation. Ces systèmes &#8230; <a href="https://www.markert.fr/2025/03/21/ia-et-dialectique-un-danger-pour-la-pensee-critique/">Lire la suite­­</a>]]></description>
										<content:encoded><![CDATA[
<p>Depuis l’Antiquité, la transmission des savoirs oscille entre dialectique, didactique et rhétorique. Avec l’essor des technologies d’intelligence artificielle générative (<em>Natural Language Generation</em> (NLP)), de nouvelles interrogations émergent sur le statut du savoir et de la vérité dans l’éducation. Ces systèmes d’IA, en tant que technologies de production du langage, relèvent-ils davantage de la rhétorique que de la didactique&nbsp;? Quels en sont les impacts pédagogiques et éthiques&nbsp;? Cet article propose d’analyser comment la dialectique socratique peut servir de cadre pour encadrer leur usage dans l’enseignement.</p>



<p><strong>La dialectique socratique et la critique de la rhétorique sophistique</strong></p>



<p>À travers les dialogues platoniciens tels que <em>Gorgias<a href="#_ftn1" id="_ftnref1"><strong>[1]</strong></a></em> et <em>Protagoras<a href="#_ftn2" id="_ftnref2"><strong>[2]</strong></a></em>, Socrate s’oppose aux sophistes qui enseignaient la rhétorique comme art de la persuasion, indépendamment de la vérité. Pour lui, la dialectique est un chemin vers <em>le savoir véritable</em>, alors que la rhétorique sophistique est un instrument de manipulation. Dans <em>Gorgias</em>, Socrate distingue la rhétorique de la véritable connaissance : la première produit des discours séduisants mais sans fondement, alors que la seconde exige un examen critique des idées. Dans <em>Protagoras</em>, il remet en cause l’idée que la vertu puisse s’enseigner comme un simple savoir technique.</p>



<p>En sciences de l’éducation, la dialectique socratique correspond aujourd’hui à une pédagogie active, fondée sur le questionnement et la co-construction du savoir. À l’opposé, la rhétorique sophistique évoque une approche où l’élève est simplement réceptif à un discours bien construit sans exercice de pensée critique. La dialectique favorise ainsi une éducation émancipatrice, tandis que la rhétorique, lorsqu’elle est purement persuasive, peut devenir un outil de domination intellectuelle.</p>



<p><strong>L’IA générative du langage : une technologie rhétorique, non didactique</strong></p>



<p>Les modèles d’IA générative du langage fonctionnent sans intentionnalité ni référent ontologique : ils produisent du texte en fonction des probabilités statistiques de mots les plus susceptibles de suivre dans une séquence. Contrairement à la dialectique socratique et à la didactique, qui visent l’acquisition d’un savoir structuré et critique, l’IA génère du texte qui paraît convaincant mais ne garantit ni cohérence ni véracité.</p>



<p>Ce phénomène rappelle les critiques de Platon envers les sophistes. L’IA persuade sans instruire. Elle renforce les opinions préexistantes sans remise en question. Elle peut être manipulée pour tromper et désinformer. Un parallèle peut être fait entre l’IA et Gorgias, le sophiste, qui ne transmet pas de connaissance mais apprend à persuader.</p>



<p><strong>Implications pédagogiques et éthiques : comment encadrer l’IA en éducation ?</strong></p>



<p>Si les enseignants utilisent des IA génératives sans <em>discernement</em>, l’éducation risque de devenir une simple transmission de discours persuasifs, au détriment d’une formation à l’esprit critique. Ce risque est particulièrement préoccupant dans des domaines où la vérité factuelle est essentielle (sciences, histoire, droit, éthique…).</p>



<p>Toutefois, l’IA ne doit pas être rejetée mais intégrée dans une pédagogie dialectique favorisant l’interrogation critique. Il est possible de mettre en débat les réponses de l’IA en invitant les élèves à interroger, vérifier et contester les productions de l’IA, comme Socrate le faisait avec les discours sophistiques. Chacun doit apprendre à repérer la manipulation&nbsp;; il s’agit toujours de former à une lecture critique des textes (générés par IA) pour détecter les biais et erreurs. Le pédagogue encadrera l’IA dans une démarche d’investigation. Par exemple, il utilisera l’IA comme point de départ, non comme une source ultime, en obligeant l’élève à croiser ses productions avec des sources fiables.</p>



<p><strong>4. Vers une nouvelle didactique intégrant l’IA</strong></p>



<p>L’IA pourrait être réorientée pour devenir un outil socratique, favorisant le questionnement plutôt que la persuasion aveugle. Elle pourrait être utilisée pour stimuler le débat en générant des réponses opposées sur un même sujet. Elle pourrait être utilisée pour provoquer des contradictions en confrontant ses propres erreurs à l’analyse humaine. Elle pourrait servir d’outil heuristique pour explorer différentes interprétations d’une question donnée.</p>



<p><strong>Conclusion</strong></p>



<p>L’émergence des IA génératives oblige à repenser la distinction entre rhétorique et didactique en éducation. L’IA, technologie rhétorique par nature, doit être encadrée par une pédagogie dialectique inspirée de Socrate pour éviter une nouvelle forme de sophistique. Il s’agit de :</p>



<ol start="1" class="wp-block-list">
<li>Former chaque personne – élèves, professeurs… – à l’esprit critique face aux productions de l’IA.</li>



<li>Intégrer l’IA comme un outil de questionnement et non comme une source de vérité.</li>



<li>Redonner à l’éducation son rôle socratique : éveiller l’intelligence plutôt qu’enseigner des discours prêts-à-consommer. Ainsi, en intégrant les principes de la dialectique socratique, l’éducation peut éviter le piège d’une manipulation rhétorique massive et former des citoyens capables de discerner le vrai du faux dans un monde où l’IA générative prolifère.</li>
</ol>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><a href="#_ftnref1" id="_ftn1">[1]</a> Platon, <em>Œuvres complètes. Tome 3, 2ème partie : Gorgias &#8211; Ménon</em>, trad. par Maurice Croiset, Budé (Paris : Les belles Lettres, 1967).</p>



<p><a href="#_ftnref2" id="_ftn2">[2]</a> Platon, <em>Protagoras</em>, Budé 15 (Paris : Les Belles Lettres, 1935).</p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.markert.fr/2025/03/21/ia-et-dialectique-un-danger-pour-la-pensee-critique/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Étude de l&#8217;adoption des principaux types d&#8217;usages de l&#8217;intelligence artificielle par les enseignants et enseignantes du postsecondaire</title>
		<link>https://www.markert.fr/2025/03/07/etude-de-ladoption-des-principaux-types-dusages-de-lintelligence-artificielle-par-les-enseignants-et-enseignantes-du-postsecondaire/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=etude-de-ladoption-des-principaux-types-dusages-de-lintelligence-artificielle-par-les-enseignants-et-enseignantes-du-postsecondaire</link>
					<comments>https://www.markert.fr/2025/03/07/etude-de-ladoption-des-principaux-types-dusages-de-lintelligence-artificielle-par-les-enseignants-et-enseignantes-du-postsecondaire/#respond</comments>
		
		<dc:creator><![CDATA[Arnaud Markert]]></dc:creator>
		<pubDate>Fri, 07 Mar 2025 11:00:00 +0000</pubDate>
				<category><![CDATA[Education]]></category>
		<category><![CDATA[Intelligence artificielle et Numérique]]></category>
		<category><![CDATA[Thèse]]></category>
		<guid isPermaLink="false">https://www.markert.fr/?p=909</guid>

					<description><![CDATA[Alexandre Lepage, Étude de l&#8217;adoption des principaux types d&#8217;usages de l&#8217;intelligence artificielle par les enseignants et enseignantes du postsecondaire, Université de Montéral, Novembre 2023. L’essor de l’intelligence artificielle (IA) dans le domaine de l’éducation postsecondaire soulève de nombreuses questions quant &#8230; <a href="https://www.markert.fr/2025/03/07/etude-de-ladoption-des-principaux-types-dusages-de-lintelligence-artificielle-par-les-enseignants-et-enseignantes-du-postsecondaire/">Lire la suite­­</a>]]></description>
										<content:encoded><![CDATA[
<p><strong>Alexandre Lepage, <em>Étude de l&rsquo;adoption des principaux types d&rsquo;usages de l&rsquo;intelligence artificielle par les enseignants et enseignantes du postsecondaire</em>, Université de Montéral, Novembre 2023.</strong></p>



<figure class="wp-block-image alignleft size-full"><img decoding="async" width="200" height="200" src="https://www.markert.fr/wp-content/uploads/2025/02/image.png" alt="" class="wp-image-910" srcset="https://www.markert.fr/wp-content/uploads/2025/02/image.png 200w, https://www.markert.fr/wp-content/uploads/2025/02/image-150x150.png 150w, https://www.markert.fr/wp-content/uploads/2025/02/image-120x120.png 120w" sizes="(max-width: 200px) 100vw, 200px" /><figcaption class="wp-element-caption">Alexandre LEPAGE, Ph. D.</figcaption></figure>



<p>L’essor de l’intelligence artificielle (IA) dans le domaine de l’éducation postsecondaire soulève de nombreuses questions quant à son adoption par les enseignants. Les outils d’IA, allant de la correction automatisée à la détection du plagiat en passant par l’analyse prédictive de la réussite des étudiants, modifient profondément les pratiques pédagogiques. Cette transformation s’opère dans un contexte où la littératie technologique des enseignants varie considérablement et où les enjeux éthiques liés à l’IA suscitent des débats. Cet article explore les facteurs influençant l’adoption des technologies d’IA par les enseignants du postsecondaire, en s’appuyant sur les travaux récents d’Alexandre Lepage (2023). Nous analyserons les déterminants de cette adoption, les résistances observées, ainsi que les implications éthiques et pédagogiques.</p>



<h3 class="wp-block-heading">1. Facteurs influençant l’adoption de l’IA</h3>



<p>L’adoption des outils d’IA par les enseignants du postsecondaire repose sur plusieurs facteurs identifiés par Lepage (2023) :</p>



<ul class="wp-block-list">
<li><strong>Perception de l’utilité et de la performance</strong> : Plus les enseignants perçoivent l’IA comme un moyen d’améliorer l’efficacité pédagogique, plus ils sont enclins à l’adopter.</li>



<li><strong>Facilité d’utilisation</strong> : Les outils jugés intuitifs et intégrables aux pratiques existantes sont plus facilement acceptés.</li>



<li><strong>Anxiété technologique</strong> : La méfiance face aux technologies et la crainte de perdre le contrôle de l’évaluation freinent l’acceptation.</li>



<li><strong>Littératie de l’IA</strong> : La compréhension des principes fondamentaux de l’IA est un facteur clé dans son adoption éclairée.</li>



<li><strong>Enjeux éthiques et autonomie pédagogique</strong> : Certains enseignants perçoivent l’IA comme une menace à leur autonomie et à la relation enseignant-étudiant.</li>
</ul>



<p>Lepage met en lumière ces dynamiques à travers une enquête auprès de 127 enseignants, révélant que l’usage de l’IA varie selon la discipline et le niveau d’expertise technologique.</p>



<h3 class="wp-block-heading">2. Typologie des usages de l’IA en enseignement supérieur</h3>



<p>Lepage (2023) identifie cinq grands types d’usages de l’IA dans l’enseignement postsecondaire :</p>



<ol start="1" class="wp-block-list">
<li><strong>Correction automatisée</strong> : Outils capables d’évaluer des productions écrites ou des exercices complexes.</li>



<li><strong>Détection du plagiat</strong> : Systèmes analysant l’authenticité des travaux soumis.</li>



<li><strong>Fourniture de rétroactions automatisées</strong> : IA donnant des conseils personnalisés aux étudiants.</li>



<li><strong>Création de matériel didactique</strong> : Assistance à la conception de cours ou de supports pédagogiques.</li>



<li><strong>Analyse prédictive et profilage</strong> : Outils évaluant le risque d’échec ou le potentiel de réussite des étudiants.</li>
</ol>



<p>Ces usages ne sont pas adoptés de manière homogène. Par exemple, la correction automatisée et la détection du plagiat sont plus largement acceptées que l’analyse prédictive, perçue comme intrusive et potentiellement biaisée.</p>



<h3 class="wp-block-heading">3. Enjeux éthiques et résistances</h3>



<p>L’IA appliquée à l’éducation soulève des préoccupations éthiques majeures :</p>



<ul class="wp-block-list">
<li><strong>Transparence et explicabilité</strong> : Les décisions prises par des algorithmes doivent être compréhensibles et justifiables.</li>



<li><strong>Biais et discrimination</strong> : Les données utilisées par l’IA peuvent refléter des biais qui renforcent des inégalités existantes.</li>



<li><strong>Imputabilité</strong> : Qui est responsable en cas d’erreur d’évaluation ou de recommandation erronée ?</li>



<li><strong>Relation pédagogique</strong> : L’IA modifie la dynamique entre enseignant et étudiant, soulevant la question de la déshumanisation de l’apprentissage.</li>
</ul>



<p>Lepage propose d’intégrer une réflexion sur ces enjeux dès la formation des enseignants, afin de leur permettre d’utiliser l’IA de manière critique et éthique.</p>



<h3 class="wp-block-heading">Conclusion et perspectives</h3>



<p>L’adoption de l’IA par les enseignants du postsecondaire est un processus complexe, influencé par des facteurs technologiques, pédagogiques et éthiques. Si certains outils sont largement acceptés, d’autres suscitent des réticences liées à des craintes de perte de contrôle et à des préoccupations éthiques. Il est essentiel de renforcer la littératie de l’IA chez les enseignants et d’encadrer son utilisation par des principes clairs afin de garantir un équilibre entre efficacité pédagogique et respect des valeurs éducatives.</p>



<p>L’avenir de l’IA en éducation dépendra de la capacité des enseignants à l’intégrer de manière réfléchie, en tenant compte de ses potentialités mais aussi de ses limites. Des recherches futures devraient approfondir la manière dont les politiques éducatives et les institutions peuvent accompagner cette transition vers un enseignement enrichi par l’IA.</p>



<p>En ligne sur <a href="https://papyrus.bib.umontreal.ca/xmlui/handle/1866/40548">https://papyrus.bib.umontreal.ca/xmlui/handle/1866/40548</a>, consulté le 14/02/2025 à 16:50.</p>



<p>Pour découvrir Alexandre Lepage, Ph. D. : <a href="https://alepage.net/">https://alepage.net/</a></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.markert.fr/2025/03/07/etude-de-ladoption-des-principaux-types-dusages-de-lintelligence-artificielle-par-les-enseignants-et-enseignantes-du-postsecondaire/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Dialogue socratique et IA : Un danger ou un progrès ?</title>
		<link>https://www.markert.fr/2025/02/21/dialogue-socratique-et-ia-un-danger-ou-un-progres/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=dialogue-socratique-et-ia-un-danger-ou-un-progres</link>
					<comments>https://www.markert.fr/2025/02/21/dialogue-socratique-et-ia-un-danger-ou-un-progres/#respond</comments>
		
		<dc:creator><![CDATA[Arnaud Markert]]></dc:creator>
		<pubDate>Fri, 21 Feb 2025 11:00:00 +0000</pubDate>
				<category><![CDATA[Education]]></category>
		<category><![CDATA[Ethique]]></category>
		<category><![CDATA[Intelligence artificielle et Numérique]]></category>
		<category><![CDATA[Philosophie]]></category>
		<guid isPermaLink="false">https://www.markert.fr/?p=904</guid>

					<description><![CDATA[Introduction L&#8217;essor des intelligences artificielles (IA) conversationnelles pose de nouvelles questions philosophiques et épistémologiques. En pédagogie, l&#8217;une d&#8217;elles est celle de la maïeutique&#160;: une IA peut-elle adopter une posture socratique et être un véritable catalyseur de la pensée critique[1] ? &#8230; <a href="https://www.markert.fr/2025/02/21/dialogue-socratique-et-ia-un-danger-ou-un-progres/">Lire la suite­­</a>]]></description>
										<content:encoded><![CDATA[
<h2 class="wp-block-heading">Introduction</h2>



<p>L&rsquo;essor des intelligences artificielles (IA) conversationnelles pose de nouvelles questions philosophiques et épistémologiques. En pédagogie, l&rsquo;une d&rsquo;elles est celle de la maïeutique&nbsp;: une IA peut-elle adopter une posture socratique et être un véritable catalyseur de la pensée critique<a href="#_ftn1" id="_ftnref1">[1]</a> ? La maïeutique socratique ne se limite pas à la transmission de savoirs, mais repose sur un entretien visant à déconstruire les certitudes et stimuler la recherche de la vérité par l&rsquo;interlocuteur lui-même. Cette capacité à interroger, à susciter le doute et à orienter vers des principes universels pourrait-elle être simulée par une machine ?</p>



<p>Cette question, à la croisée de l&rsquo;éthique, de la philosophie et des sciences cognitives, soulève des enjeux fondamentaux. Nous verrons d&rsquo;abord dans quelle mesure une IA pourrait incarner les principes maïeutiques, puis nous examinerons les implications éthiques et pédagogiques d&rsquo;un tel projet, avant d&rsquo;envisager une approche hybride conciliant les limites et les atouts d&rsquo;une IA maïeuticienne. Nous verrons ensuite dans quelle mesure une telle IA serait désirable, ainsi qu’une piste pour la régler précisément (<em>fine tuning)</em> d’une façon plus relationnelle avec la Communication NonViolente.</p>



<p>Après avoir introduit la problématique générale de la maïeutique socratique appliquée à l’intelligence artificielle, il convient désormais d’examiner en détail les principes fondamentaux de la méthode socratique et la possibilité de leur implémentation technologique.</p>



<h2 class="wp-block-heading">Une IA peut-elle être maïeuticienne ?</h2>



<p>L&rsquo;approche maïeutique repose sur plusieurs principes fondamentaux&nbsp;: l&rsquo;ignorance feinte (en grec ancien εἰρωνεία (<em>eironeia</em>)), l&rsquo;art du questionnement (ἔλεγχος (<em>élenkhos</em>)), la remise en question des certitudes (ἀπορία (<em>aporia</em>)), le dialogue dynamique (διαλέγεσθαι (<em>dialegesthai</em>)) et l&rsquo;orientation vers des principes universels (τί ἐστι&nbsp;? (<em>ti esti&nbsp;?</em>&nbsp;; «&nbsp;qu’est-ce que c’est&nbsp;?&nbsp;»). Chacun d&rsquo;eux pose un défi spécifique en matière d&rsquo;intelligence artificielle.</p>



<p><strong>L’ignorance simulée</strong>&nbsp;: Socrate affirme «&nbsp;Je ne sais qu&rsquo;une chose, c&rsquo;est que je ne sais rien<a href="#_ftn2" id="_ftnref2">[2]</a>&nbsp;». Une IA génératrice de texte –&nbsp;conçue pour fournir des réponses probabilistes&nbsp;– peine à adopter une position de doute réflexif. Si elle peut signaler des incertitudes, elle n&rsquo;est pas capable d&rsquo;éprouver une <em>authentique</em> méconnaissance ni d&rsquo;initier un questionnement <em>existentiel</em>.</p>



<p><strong>L&rsquo;art du questionnement</strong> : L&rsquo;IA pourrait être entrainée à poser des questions structurant la réflexion, à reformuler des interrogations pertinentes et à détecter des incohérences logiques. Cette fonction est techniquement envisageable, notamment à travers des algorithmes de traitement du langage naturel avancés<a href="#_ftn3" id="_ftnref3">[3]</a>. Les modèles de traitement du langage naturel actuels, tels que GPT-4 (OpenAI) et BERT<a href="#_ftn4" id="_ftnref4">[4]</a>, sont capables de générer des réponses cohérentes et contextuelles en se basant sur de vastes corpus de textes. Cependant, ces modèles ne possèdent pas d’<em>intentionnalité propre</em> ni de <em>compréhension sémantique profonde</em><a href="#_ftn5" id="_ftnref5">[5]</a>.</p>



<p>Les IA modernes peuvent poser des questions en utilisant des algorithmes de reformulation et de complétion contextuelle, mais elles ne disposent pas d’une véritable capacité de discernement quant à la pertinence logique ou philosophique de leurs propres questions. Par exemple, GPT-4 peut générer des questions socratiques en imitant des conversations classiques, mais il ne « comprend » pas pourquoi une question est plus efficace qu’une autre pour pousser un interlocuteur dans ses retranchements.</p>



<p>Les modèles d’IA peuvent identifier des contradictions apparentes grâce à l’analyse des relations sémantiques entre les phrases<a href="#_ftn6" id="_ftnref6">[6]</a>. Toutefois, cela repose sur des modèles statistiques plutôt que sur une compréhension conceptuelle du paradoxe. Par exemple, une IA peut détecter une contradiction grammaticale ou sémantique, mais elle ne peut pas saisir l’ironie, le sarcasme ou les subtilités rhétoriques qui rendent un paradoxe philosophiquement fécond<a href="#_ftn7" id="_ftnref7">[7]</a>. Une IA peut détecter une contradiction logique dans l’énoncé «&nbsp;Je suis libre, mais toutes mes décisions sont influencées par mon passé&nbsp;» en s’appuyant sur sa base de données. Toutefois, en l’absence d’une véritable intention critique et d’une compréhension sémantique profonde, elle ne saurait engager un échange dialectique authentique sur la nature du déterminisme, à la manière d’un philosophe humain.</p>



<p>Une IA conversationnelle peut encourager une remise en question des certitudes en suggérant des perspectives alternatives ou en signalant des contradictions dans le discours de son interlocuteur. Cependant, cette remise en question repose sur des modèles d’analyse syntaxique et probabiliste et non sur une compréhension réelle du <em>doute</em> ou de l’<em>incertitude</em>. Contrairement à un être humain, une IA ne doute pas par elle-même et ne cherche pas à confronter un interlocuteur à ses propres limites conceptuelles ; elle applique simplement des modèles de reformulation et d’opposition fondés sur des bases de données préexistantes.</p>



<p>Un étudiant pourrait demander à une IA : <em>«&nbsp;Le libre arbitre existe-t-il vraiment&nbsp;?&nbsp;»</em> L’IA pourrait répondre : <em>« Certains philosophes, comme Descartes, affirment que le libre arbitre est une faculté de l’âme, tandis que d’autres, comme Spinoza, le considèrent comme une illusion. En quoi votre conception du libre arbitre se rapproche-t-elle de l’un ou l’autre de ces points de vue ? »</em> Cette réponse incite l’utilisateur à explorer des perspectives différentes, mais ne remet pas en cause directement ses certitudes. À l’inverse, un philosophe humain pourrait ajuster son approche en fonction des réactions de l’étudiant, en reformulant la question de manière plus confrontante : <em>« Vous dites croire au libre arbitre, mais si nos choix sont influencés par notre éducation, notre environnement et nos pulsions inconscientes, pouvons-nous vraiment parler de liberté ? »</em></p>



<p>L’IA n’étant pas dotée d’<em>intention critique</em>, elle ne peut aller au-delà d’une juxtaposition de points de vue, là où un véritable interlocuteur humain chercherait à creuser les paradoxes et les tensions internes d’un raisonnement.</p>



<p><strong>Le dialogue dynamique</strong> : Si les modèles de traitement du langage naturel permettent une conversation fluide, leur fonctionnement repose sur des algorithmes prédictifs qui génèrent des réponses en fonction des probabilités statistiques d’occurrence des mots et concepts<a href="#_ftn8" id="_ftnref8">[8]</a>. Contrairement à un échange humain, où l’interlocuteur ajuste son raisonnement <em>en fonction des intentions et des émotions perçues</em>, une IA génératrice, telle ChatGPT, ne possède pas d’intentionnalité propre<a href="#_ftn9" id="_ftnref9">[9]</a>. Elle suit un enchaînement déterminé par des modèles entraînés sur de vastes corpus textuels, ce qui limite sa capacité à s’adapter aux inflexions argumentatives spontanées.</p>



<p>Dans un échange socratique authentique, un philosophe pourrait adapter sa ligne de questionnement en fonction des hésitations ou des changements de position de son interlocuteur. Par exemple, si une personne répond à la question <em>« Qu’est-ce que la justice ? »</em> par <em>« C’est rendre à chacun ce qui lui est dû »</em>, Socrate pourrait alors reformuler : <em>« Mais alors, si rendre à chacun ce qui lui est dû signifie parfois causer du tort, est-ce encore juste ? »</em></p>



<p>Une IA, en revanche, générerait des réponses fondées sur des associations de mots sans réelle compréhension du débat sous-jacent. Elle pourrait, par exemple, répondre : <em>« Selon Platon, la justice consiste à ce que chacun remplisse son rôle dans la cité. Voulez-vous en savoir plus ? »</em> Ce type de reformulation informative manque de l’intention argumentative propre à la dialectique socratique.</p>



<p><strong>L&rsquo;orientation vers des principes universels</strong> : L&rsquo;IA repose sur des bases de données et des algorithmes probabilistes. Elle peut reformuler des théories philosophiques, mais <em>ne peut pas découvrir ou comprendre des vérités transcendantes</em>.</p>



<p>Ainsi, une IA maïeuticienne reste techniquement imparfaite&nbsp;: elle pourrait structurer un raisonnement, pointer des incohérences, mais elle manquerait d&rsquo;intention philosophique et d&rsquo;une capacité à guider un interlocuteur vers une vérité qu&rsquo;elle ne comprend pas.</p>



<h2 class="wp-block-heading">Faut-il concevoir une IA pseudo-maïeuticienne ?</h2>



<p>Ayant mis en évidence les difficultés qu’une IA rencontre pour adopter la posture socratique, nous devons à présent réfléchir à l’opportunité même de créer un dispositif la singeant et aux enjeux éthiques et pédagogiques qui en découlent.</p>



<p>Une IA pseudo-maïeuticienne, en tant qu’outil d’assistance intellectuelle, pourrait aider les étudiants et chercheurs à structurer leur raisonnement et à affiner leur esprit critique. Elle favoriserait ainsi une démocratisation des pratiques de questionnement philosophique.</p>



<p>De plus, les IAs génératrices sont déjà reconnues pour leur potentiel à favoriser l’auto-apprentissage. Grâce à son adaptation au niveau de chaque utilisateur, une telle IA pourrait offrir un cadre progressif d’entraînement à la réflexion et à la structuration de la logique argumentative.</p>



<p>Par ailleurs, une telle IA pourrait identifier des erreurs logiques et suggérer des contre-exemples, facilitant ainsi la correction des raisonnements fallacieux. Elle contribuerait ainsi au dépistage des contradictions et des biais – un objectif important de l’algoréthique<a href="#_ftn10" id="_ftnref10">[10]</a>.</p>



<p>En revanche, une IA générative –&nbsp;par définition fondée sur des algorithmes de simulation&nbsp;– créerait l’apparence d’un dialogue philosophique sans en posséder la profondeur intentionnelle ni la dynamique authentiquement réflexive. La maïeutique repose sur une <em>intention</em> et une <em>quête existentielle du vrai</em> que l&rsquo;IA ne peut pas éprouver.</p>



<p>Une IA philosophique programmée sur la base de corpus sélectionnés risque d’orienter la pensée dans un sens prédéfini, limitant ainsi la liberté intellectuelle. En effet, les IA génératives reflètent souvent des <strong>biais cognitifs ou épistémiques</strong> propres aux données sur lesquelles elles ont été entraînées<a href="#_ftn11" id="_ftnref11">[11]</a>, ce qui influence leur manière de structurer le dialogue. Dans un cadre maïeutique, cette influence soulève un enjeu fondamental : la <strong>transparence du questionnement</strong>. Une IA socratique pourrait privilégier certaines écoles de pensée ou formuler ses questions dans un cadre prédéterminé, réduisant la diversité des perspectives accessibles à l’utilisateur et influençant implicitement sa réflexion sans qu’il en ait conscience. La conception d’un <strong>questionnement éthique et transparent</strong> apparaît donc comme une nécessité pour éviter toute manipulation cognitive involontaire.</p>



<p>Enfin, une trop grande dépendance à un «&nbsp;Socrate artificiel&nbsp;» pourrait affaiblir la rencontre humaine, essentielle à la formation philosophique comme à toute éducation&nbsp;; cela serait nuisible à l’élève et pourrait déresponsabiliser des enseignants.</p>



<h2 class="wp-block-heading">Vers un modèle hybride : L’IA comme facilitateur de conversation</h2>



<p>Après avoir considéré les arguments en faveur et en défaveur d’une IA pseudo‑maïeuticienne, notre réflexion s’oriente vers une approche plus nuancée : celle d’un modèle hybride qui ferait de l’IA un levier d’apprentissage sans pour autant supplanter le rôle essentiel des échanges humains. Plutôt que de remplacer Socrate, l’IA pourrait être conçue comme un outil pédagogique complémentaire<a href="#_ftn12" id="_ftnref12">[12]</a>, permettant d&rsquo;affiner la pensée critique sans se substituer à la conversation humain. Un modèle hybride pourrait intégrer :</p>



<ul class="wp-block-list">
<li><strong>Un questionnement ouvert</strong>, stimulant la réflexion sans imposer de réponse préconçue.</li>



<li><strong>Un mode critique</strong>, alertant sur les contradictions sans rigidifier le raisonnement.</li>



<li><strong>Un système adaptatif</strong>, apprenant des interactions pour améliorer la qualité des échanges.</li>



<li><strong>Un assistant pour les enseignants</strong>, prolongeant les débats philosophiques initiés en classe ou permettant de recueillir les raisonnements débutés à domicile.</li>
</ul>



<p>Une IA maïeuticienne conçue pour accompagner la réflexion critique pourrait s’inspirer de la démarche socratique tout en intégrant certaines méthodologies issues de la Communication NonViolente. Plutôt que de se contenter de pointer les incohérences d’un raisonnement, elle pourrait également adopter une posture facilitatrice, aidant l’utilisateur à explorer ses propres doutes et à structurer sa pensée sans crainte d’être mis en échec.</p>



<p>Une telle approche permettrait de combiner le meilleur des deux traditions : la puissance analytique du questionnement socratique et la sensibilité relationnelle de la CNV. Concrètement, cela impliquerait que l’IA ne cherche pas seulement à confronter l’utilisateur à ses contradictions, mais aussi à reformuler ses propos pour lui permettre d’affiner sa pensée. Ce type d’interaction favoriserait une réflexion critique sans que l’utilisateur ressente une opposition stérile ou une dévalorisation de ses idées.</p>



<p>Cette proposition d’une IA davantage focalisée sur l’accompagnement que sur la substitution ouvre la voie à une question plus large : dans quelle mesure le style socratique lui-même, axé sur l’ironie et la confrontation, peut-il ou doit-il être repensé pour s’harmoniser avec d’autres approches relationnelles, telles que la Communication NonViolente ?</p>



<h2 class="wp-block-heading">Faut-il concevoir une IA socratique ?</h2>



<p>En effet, en plus des questions techniques et éthiques, il faut se demander si nous souhaitons réellement que Socrate nous éduque. La démarche dialectique de Socrate, fondée sur la remise en question et l’ironique feinte de l’ignorance, est-elle compatible avec une approche de la relation fondée sur <em>l’empathie</em> et la co-construction du sens ? Alors que Socrate visait à déconstruire les certitudes de ses interlocuteurs par la maïeutique, la Communication NonViolente (CNV) –&nbsp;développée par Marshall Rosenberg&nbsp;– cherche à créer un dialogue où chacun peut exprimer librement ses besoins et émotions sans crainte d’humiliation ou de manipulation. Cette tension soulève ainsi la question suivante : le style socratique, bien qu’efficace pour stimuler la pensée critique, pourrait-il bénéficier des apports de la CNV pour améliorer sa dimension relationnelle et pédagogique ?</p>



<p>Cette tension entre dialectique socratique et CNV trouve un écho dans les travaux de Paulo Freire, qui distingue une pédagogie dialogique fondée sur la co‑construction du savoir et une pédagogie descendante, qu’il qualifie de «&nbsp;bancaire&nbsp;»<a href="#_ftn13" id="_ftnref13">[13]</a>. Socrate, en mettant son interlocuteur en difficulté par une série de questions orientées, ne cherche pas toujours à construire un savoir avec lui, mais plutôt à l’amener à reconnaître l’insuffisance de ses propres raisonnements. Freire propose à l’inverse un dialogue où l’apprenant n’est pas simplement confronté à ses erreurs, mais invité à formuler lui-même des connaissances nouvelles à partir de sa propre expérience. Cette approche rejoint l’objectif de la CNV, qui vise à créer un cadre d’échange non conflictuel et respectueux des perspectives de chacun.</p>



<p>En effet, la CNV repose sur quatre éléments fondamentaux<a href="#_ftn14" id="_ftnref14">[14]</a>&nbsp;:</p>



<ul class="wp-block-list">
<li><strong>Observation sans jugement</strong> : Exprimer les faits sans ajouter d’interprétation subjective.</li>



<li><strong>Expression des sentiments</strong> : Communiquer ce que l’on ressent sans accuser l’autre.</li>



<li><strong>Identification des besoins</strong> : Clarifier les besoins (universels) sous-jacents aux sentiments exprimés.</li>



<li><strong>Formulation d’une demande claire</strong> : Proposer une action concrète (une stratégie) pour répondre aux besoins identifiés.</li>
</ul>



<p>L’objectif est de favoriser une conversation basée sur la transparence, le respect et la co-responsabilité, ce qui peut sembler en décalage avec la rhétorique socratique souvent perçue comme agressive et manipulatrice.</p>



<h2 class="wp-block-heading">L’analyse du style socratique à l’aune de la CNV</h2>



<h3 class="wp-block-heading">L’ironie socratique : un levier de compréhension ou une forme de manipulation ?</h3>



<p>L’ironie socratique repose sur la <em>simulation</em> de l’ignorance pour amener l’interlocuteur à se contredire lui-même. Or, du point de vue de la CNV, cette posture peut poser des problèmes. D’une part, l’ignorance feinte peut être perçue comme une manipulation, car cela cache une intention non explicitée. D’autre part, la relation dialectique instaurée par Socrate est asymétrique<a href="#_ftn15" id="_ftnref15">[15]</a>, dans la mesure où lui-même possède une orientation claire dans l’argumentation, tandis que son interlocuteur chemine progressivement vers une prise de conscience. De plus, cette méthode peut engendrer une certaine frustration chez l’interlocuteur, voire un sentiment d’humiliation, comme l’illustrent plusieurs dialogues platoniciens, notamment <em>Gorgias<a href="#_ftn16" id="_ftnref16"><strong>[16]</strong></a></em> et <em>Hippias Majeur</em><a href="#_ftn17" id="_ftnref17">[17]</a>.</p>



<p>Plutôt que d’adopter une posture d’ignorance feinte, Socrate pourrait expliciter son intention en amont, en instaurant un cadre dialogique ouvert : «&nbsp;J’aimerais examiner avec toi ce que signifie la vertu, en confrontant nos perspectives respectives.&nbsp;» Cette approche permettrait d’instaurer une dynamique de co‑construction de l’entretien, évitant ainsi une confrontation strictement rhétorique.</p>



<h3 class="wp-block-heading">L’art du questionnement : aide à l’expression ou stratégie de piège&nbsp;?</h3>



<p>La maïeutique socratique repose sur une succession de questions destinées à révéler les incohérences du discours de l’interlocuteur. Cependant, certaines formulations peuvent être perçues comme piégeantes.</p>



<p>Par exemple dans le <em>Ménon<a href="#_ftn18" id="_ftnref18"><strong>[18]</strong></a></em> (80d-e), la question «&nbsp;comment vas-tu t&rsquo;y prendre, Socrate, pour chercher une chose dont tu ne sais absolument pas ce qu&rsquo;elle est&nbsp;? […] et à supposer que tu tombes par hasard sur le bon, à quoi le reconnaîtras tu, puisque tu ne le connais pas&nbsp;?&nbsp;»<a href="#_ftn19" id="_ftnref19">[19]</a> est problématique. Elle place l’interlocuteur dans une impasse logique.</p>



<p>Cette question pourrait être reformulée en l’ouvrant davantage : « Comment comprends-tu la différence entre savoir et chercher ? Peux-tu me donner un exemple personnel d’une fois où tu as appris quelque chose en le découvrant toi-même ? » On y perd certes le style rendu par Platon mais cela permet à l’interlocuteur de s’exprimer librement sans crainte d’un piège, dialectique ou non.</p>



<h3 class="wp-block-heading">La confrontation socratique : entre tension et respect</h3>



<p>Socrate confronte sans ménagement ses interlocuteurs, notamment lorsqu’ils défendent des opinions incohérentes. Mais cette stratégie peut provoquer rejet et blocage. Ainsi dans le <em>Gorgias<a href="#_ftn20" id="_ftnref20"><strong>[20]</strong></a></em> (482d-484c), Socrate pousse-t-il Calliclès à admettre que le plaisir et le bien ne sont pas identiques. Calliclès, d’abord sûr de lui, finit par s’agacer et refuser de poursuivre la discussion.</p>



<p>L’introduction d’une reformulation empathique, «&nbsp;J’entends que pour toi, le plaisir est essentiel à la vie bonne. Est-ce bien cela&nbsp;?&nbsp;», permettrait de reconnaître le point de vue de l’autre avant d’introduire une perspective alternative.</p>



<h2 class="wp-block-heading">Vers une réconciliation entre Socrate et la CNV</h2>



<p>L’approche socratique a souvent été perçue comme une méthode confrontante, en particulier lorsqu’elle est appliquée dans une logique de réfutation rigoureuse. Toutefois, il est possible d’adopter une lecture plus nuancée de la maïeutique : au-delà de la simple déconstruction des croyances erronées, elle vise avant tout à guider l’interlocuteur vers une compréhension plus profonde, en s’appuyant sur sa propre capacité à raisonner.</p>



<p>La Communication NonViolente (CNV) apporte un éclairage complémentaire sur cette démarche. Là où la maïeutique classique met l’accent sur l’identification des contradictions, la CNV insiste sur l’expression des besoins et la co-construction d’un dialogue respectueux. Plutôt que de voir ces deux approches comme opposées, il est possible d’envisager une articulation : une IA pseudo-socratique pourrait intégrer des éléments de CNV pour formuler ses questions de manière à encourager la réflexion sans générer de résistance psychologique excessive.</p>



<p>En effet, au-delà de sa dimension relationnelle, la CNV peut également être envisagée comme un outil pédagogique efficace. Marshall Rosenberg souligne que la reformulation bienveillante et la clarification des intentions permettent de structurer un dialogue où l’apprenant se sent encouragé à explorer ses idées sans crainte de sanction intellectuelle. Ainsi, une IA de type socratique intégrant des principes de CNV pourrait préserver le questionnement critique tout en évitant les écueils d’une rhétorique trop frontale, susceptible de générer de la résistance chez l’interlocuteur.</p>



<p>En d’autres termes, une «&nbsp;<strong>IA socratique empathique</strong>&nbsp;» pourrait poser des questions ouvertes, reformuler les réponses de manière bienveillante et éviter les stratégies de mise en difficulté trop abruptes. Cette approche hybride permettrait de préserver la rigueur intellectuelle de la maïeutique tout en garantissant un climat d’échange favorable à l’apprentissage et à la réflexion personnelle.</p>



<p>Peut-on réconcilier la visée philosophique socratique et la CNV ? La réponse est affirmative, à condition d’adapter certains aspects de la dialectique socratique. D’abord, il conviendrait de clarifier son intention dès le début de l’entretien pour éviter une impression de manipulation. Ensuite, il faudrait favoriser l’auto-réflexion <em>sans chercher à piéger ou humilier</em>. De plus, il serait bon d’intégrer des éléments d’écoute active, en reformulant les propos de l’autre<a href="#_ftn21" id="_ftnref21">[21]</a>. Enfin – et nous serions complètement dans la simulation et ses apories…&nbsp;–, il serait nécessaire que notre Socrate artificiel exprime «&nbsp;ses propres besoins et ressentis&nbsp;» pour rendre l&rsquo;échange plus humain.</p>



<p>Ainsi, la philosophie socratique et la CNV ne sont pas incompatibles, mais nécessitent un équilibre entre rigueur intellectuelle et empathie. L’enjeu est de maintenir une démarche critique tout en préservant la relation de dialogue et de respect mutuel.</p>



<p>L’examen de la compatibilité entre l’héritage socratique et la CNV met en relief de possibles tensions, voire complémentarités, qu’il importe de synthétiser afin de déterminer si une « IA socratique » est réellement souhaitable, ce qui nous conduit à la conclusion de cette étude.</p>



<h2 class="wp-block-heading">Conclusion</h2>



<p>Ainsi, une IA ne peut être véritablement maïeuticienne : elle peut aider à structurer un raisonnement, mais ne possède ni l’intention critique ni la capacité à accompagner un interlocuteur vers une prise de conscience authentique. En revanche, une IA bien conçue pourrait jouer un rôle d’outil pédagogique, non comme un Socrate artificiel, mais comme un facilitateur de dialogue philosophique, capable d’éveiller la réflexion sans se substituer à l’échange humain. Ce débat, à la croisée de la philosophie, des sciences cognitives et de l’éthique de l’IA, mérite d’être approfondi à mesure que les modèles conversationnels évoluent.</p>



<p>Ainsi, plutôt que de concevoir une IA se substituant au dialogue socratique humain, une approche plus prudente consisterait à développer des outils facilitant la réflexion sans orienter de manière implicite la pensée de l’utilisateur. Ce débat nécessite une attention accrue, tant sur le plan technique que philosophique, afin d’éviter que l’IA ne devienne un vecteur de formatage idéologique plutôt qu’un levier d’apprentissage critique.</p>



<p>Cette réflexion ouvre des perspectives pour la recherche en philosophie du dialogue homme-machine et en éthique des intelligences artificielles, domaines où un équilibre doit être trouvé entre rigueur intellectuelle et bienveillance interactionnelle. Cette recherche est urgente car il est probable que, dans les années à venir, ces outils facilitant une démarche dialectique sans imposer un cadre cognitif rigide participent des fonctions de futurs IA préceptrices.</p>



<h2 class="wp-block-heading">Bibliographie</h2>



<p>Benanti, Paolo. <em>Oracoli: tra algoretica e algocrazia</em>. Collassi 6. Rome: Luca Sossella editore, 2018.</p>



<p>Bender, Emily M., et Alexander Koller. «&nbsp;Climbing towards NLU: On Meaning, Form, and Understanding in the Age of Data&nbsp;». In <em>Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics</em>, 5185‑98. Online: Association for Computational Linguistics, 2020. https://doi.org/10.18653/v1/2020.acl-main.463.</p>



<p>Bengio, Yoshua, Andrea Lodi, et Antoine Prouvost. «&nbsp;Machine Learning for Combinatorial Optimization: a Methodological Tour d’Horizon&nbsp;». arXiv, 2018. https://doi.org/10.48550/ARXIV.1811.06128.</p>



<p>Brown, Tom B., Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, et al. «&nbsp;Language Models are Few-Shot Learners&nbsp;». arXiv, 2020. https://doi.org/10.48550/ARXIV.2005.14165.</p>



<p>Devlin, Jacob, Ming-Wei Chang, Kenton Lee, et Kristina Toutanova. «&nbsp;BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding&nbsp;». arXiv, 2018. https://doi.org/10.48550/ARXIV.1810.04805.</p>



<p>Freire, Paulo. <em>Pédagogie des opprimés, suivi de Conscientisation et révolution</em>. Maspero, 1974.</p>



<p>Marcus, Gary, et Ernest Davis. <em>Rebooting AI: building artificial intelligence we can trust</em>. First edition. New York: Pantheon Books, 2019.</p>



<p>Mittelstadt, Brent Daniel, Patrick Allo, Mariarosaria Taddeo, Sandra Wachter, et Luciano Floridi. «&nbsp;The Ethics of Algorithms: Mapping the Debate&nbsp;». <em>Big Data &amp; Society</em> 3, n<sup>o</sup> 2 (décembre 2016). https://journals.sagepub.com/doi/10.1177/2053951716679679.</p>



<p>Platon. <em>Œuvres complètes. Tome 1 : Introduction. Hippias mineur &#8211; Alcibiade &#8211; Apologie de Socrate &#8211; Euthyphron &#8211; Criton</em>. Traduit par Maurice Croiset. Budé 1. Paris: Les Belles Lettres, 2004.</p>



<p>———. <em>Œuvres complètes. Tome 2 : Hippias Majeur &#8211; Charmide &#8211; Lachès &#8211; Lysis</em>. Édité par Alfred Croiset. Paris: Les Belles Lettres, 2011.</p>



<p>———. <em>Œuvres complètes. Tome 3, 2ème partie : Gorgias &#8211; Ménon</em>. Traduit par Maurice Croiset. Budé. Paris: Les belles Lettres, 1967.</p>



<p>Rosenberg, Marshall. <em>Les mots sont des fenêtres (ou des murs) : Introduction à la Communication NonViolente</em>. Jouvence, 1999.</p>



<p>Serrano, Gemma. «&nbsp;Co-enseigner avec les robots : l’école à l’heure du numérique apprenant&nbsp;». In <em>Réconcilier la République et son école</em>, Cerf. Cerf Patrimoines. Paris, 2017.</p>



<p>Weizenbaum, Joseph. «&nbsp;ELIZA—a Computer Program for the Study of Natural Language Communication between Man and Machine&nbsp;». <em>Communications of the ACM</em> 9, n<sup>o</sup> 1 (janvier 1966): 36‑45. https://doi.org/10.1145/365153.365168.</p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><a href="#_ftnref1" id="_ftn1">[1]</a> C’est en tous cas la promesse du GPT « Socrates GPT&nbsp;». En ligne sur&nbsp;<a href="https://chatgpt.com/g/g-tWO2dtULN-socrates-gpt">https://chatgpt.com/g/g-tWO2dtULN-socrates-gpt</a>, consulté le 14/02/2025 à 08:45.</p>



<p><a href="#_ftnref2" id="_ftn2">[2]</a> Platon, <em>Œuvres complètes. Tome 1 : Introduction. Hippias mineur &#8211; Alcibiade &#8211; Apologie de Socrate &#8211; Euthyphron &#8211; Criton</em>, trad. par Maurice Croiset, Budé 1 (Paris: Les Belles Lettres, 2004). (372b-372d)</p>



<p><a href="#_ftnref3" id="_ftn3">[3]</a> Cf. Yoshua Bengio, Andrea Lodi, et Antoine Prouvost, «&nbsp;Machine Learning for Combinatorial Optimization: a Methodological Tour d’Horizon&nbsp;» (arXiv, 2018), https://doi.org/10.48550/ARXIV.1811.06128.</p>



<p><a href="#_ftnref4" id="_ftn4">[4]</a> Jacob Devlin et al., «&nbsp;BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding&nbsp;» (arXiv, 2018), https://doi.org/10.48550/ARXIV.1810.04805.</p>



<p><a href="#_ftnref5" id="_ftn5">[5]</a> Cf. Emily M. Bender et Alexander Koller, «&nbsp;Climbing towards NLU: On Meaning, Form, and Understanding in the Age of Data&nbsp;», in <em>Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics</em> (Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, Online: Association for Computational Linguistics, 2020), 5185‑98, https://doi.org/10.18653/v1/2020.acl-main.463.</p>



<p><a href="#_ftnref6" id="_ftn6">[6]</a> Cf. Tom B. Brown et al., «&nbsp;Language Models are Few-Shot Learners&nbsp;» (arXiv, 2020), https://doi.org/10.48550/ARXIV.2005.14165.</p>



<p><a href="#_ftnref7" id="_ftn7">[7]</a> Gary Marcus et Ernest Davis, <em>Rebooting AI: building artificial intelligence we can trust</em>, First edition (New York: Pantheon Books, 2019).</p>



<p><a href="#_ftnref8" id="_ftn8">[8]</a> Ainsi que d’autres paramètres, comme la température, qui contrôlent la diversité des réponses générées.</p>



<p><a href="#_ftnref9" id="_ftn9">[9]</a> Le fait qu’un robot puisse «&nbsp;percevoir&nbsp;» –&nbsp;terme qui complexifie la problématique&nbsp;– des intentions et des émotions, n’enlève rien à la question de l’intentionnalité propre.</p>



<p><a href="#_ftnref10" id="_ftn10">[10]</a> Cf. Paolo Benanti, <em>Oracoli: tra algoretica e algocrazia</em>, Collassi 6 (Rome: Luca Sossella editore, 2018). Ainsi que ses travaux suivants. Ou encore&nbsp;: Brent Daniel Mittelstadt et al., «&nbsp;The Ethics of Algorithms: Mapping the Debate&nbsp;», <em>Big Data &amp; Society</em> 3, n<sup>o</sup> 2 (décembre 2016), https://journals.sagepub.com/doi/10.1177/2053951716679679.</p>



<p><a href="#_ftnref11" id="_ftn11">[11]</a> Mittelstadt et al., «&nbsp;The Ethics of Algorithms&nbsp;».</p>



<p><a href="#_ftnref12" id="_ftn12">[12]</a> L’essentiel sur cette complémentarité à venir est déjà soulevé dans&nbsp;: Gemma Serrano, «&nbsp;Co-enseigner avec les robots : l’école à l’heure du numérique apprenant&nbsp;», in <em>Réconcilier la République et son école</em>, Cerf, Cerf Patrimoines (Paris, 2017).</p>



<p><a href="#_ftnref13" id="_ftn13">[13]</a> Paulo Freire, <em>Pédagogie des opprimés, suivi de Conscientisation et révolution</em> (Maspero, 1974). (p.&nbsp;66)</p>



<p><a href="#_ftnref14" id="_ftn14">[14]</a> Marshall Rosenberg, <em>Les mots sont des fenêtres (ou des murs) : Introduction à la Communication NonViolente</em> (Jouvence, 1999).</p>



<p><a href="#_ftnref15" id="_ftn15">[15]</a> L’asymétrie n’est pas toujours un problème en pédagogie, quoiqu’elle ne soit jamais suffisante, eu égard à la dignité humaine.</p>



<p><a href="#_ftnref16" id="_ftn16">[16]</a> Platon, <em>Œuvres complètes. Tome 3, 2ème partie : Gorgias &#8211; Ménon</em>, trad. par Maurice Croiset, Budé (Paris: Les belles Lettres, 1967).</p>



<p><a href="#_ftnref17" id="_ftn17">[17]</a> Platon, <em>Œuvres complètes. Tome 2 : Hippias Majeur &#8211; Charmide &#8211; Lachès &#8211; Lysis</em>, éd. par Alfred Croiset (Paris: Les Belles Lettres, 2011).</p>



<p><a href="#_ftnref18" id="_ftn18">[18]</a> Platon, <em>Œuvres complètes. Tome 3, 2ème partie : Gorgias &#8211; Ménon</em>.</p>



<p><a href="#_ftnref19" id="_ftn19">[19]</a> Affirmation qui n’est pas de Socrate mais de Ménon. Toutefois, elle illustre bien le propos.</p>



<p><a href="#_ftnref20" id="_ftn20">[20]</a> Platon, <em>Œuvres complètes. Tome 3, 2ème partie : Gorgias &#8211; Ménon</em>.</p>



<p><a href="#_ftnref21" id="_ftn21">[21]</a> Comment ne pas penser à Joseph Weizenbaum, «&nbsp;ELIZA—a Computer Program for the Study of Natural Language Communication between Man and Machine&nbsp;», <em>Communications of the ACM</em> 9, n<sup>o</sup> 1 (janvier 1966): 36‑45, https://doi.org/10.1145/365153.365168.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.markert.fr/2025/02/21/dialogue-socratique-et-ia-un-danger-ou-un-progres/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Protagoras</title>
		<link>https://www.markert.fr/2025/02/07/protagoras/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=protagoras</link>
					<comments>https://www.markert.fr/2025/02/07/protagoras/#respond</comments>
		
		<dc:creator><![CDATA[Arnaud Markert]]></dc:creator>
		<pubDate>Fri, 07 Feb 2025 11:00:00 +0000</pubDate>
				<category><![CDATA[Education]]></category>
		<category><![CDATA[Ethique]]></category>
		<category><![CDATA[Philosophie]]></category>
		<guid isPermaLink="false">https://www.markert.fr/?p=859</guid>

					<description><![CDATA[Platon, Œuvres complètes, Tome III, 1re partie : Protagoras, Paris, Les belles Lettres, coll. « Budé », no 15, texte établi et traduit par Maurice Croiset, 1935 (1923), 165 pages. Le Protagoras de Platon est l’un des dialogues majeurs mettant en scène &#8230; <a href="https://www.markert.fr/2025/02/07/protagoras/">Lire la suite­­</a>]]></description>
										<content:encoded><![CDATA[
<p><strong>Platon, <em>Œuvres complètes</em>, Tome III, 1re partie : Protagoras, Paris, Les belles Lettres, coll. « Budé », n<sup>o</sup> 15, texte établi et traduit par Maurice Croiset, 1935 (1923), 165 pages.</strong></p>



<figure class="wp-block-image alignleft size-medium"><img loading="lazy" decoding="async" width="200" height="300" src="https://www.markert.fr/wp-content/uploads/2025/02/platon-protagoras-oeuvres-completes-tomo-3-parte-1-platone-alfred-croiset-louis-bodin-200x300.jpg" alt="" class="wp-image-865" srcset="https://www.markert.fr/wp-content/uploads/2025/02/platon-protagoras-oeuvres-completes-tomo-3-parte-1-platone-alfred-croiset-louis-bodin-200x300.jpg 200w, https://www.markert.fr/wp-content/uploads/2025/02/platon-protagoras-oeuvres-completes-tomo-3-parte-1-platone-alfred-croiset-louis-bodin.jpg 400w" sizes="auto, (max-width: 200px) 100vw, 200px" /></figure>



<p>Le <em>Protagoras</em> de Platon est l’un des dialogues majeurs mettant en scène Socrate face à Protagoras, un célèbre Sophiste. Composé au Ve siècle av. J.-C., ce texte illustre un tournant important de la philosophie grecque, au <strong>moment où l’éducation</strong> (en grec ancien : παιδεία (<em>paideia</em>)) <strong>devient un enjeu central de la vie civique à Athènes</strong>. Les Sophistes, voyageurs et professeurs itinérants, proposaient un enseignement de la rhétorique et de la vertu (ou excellence, en grec ancien : ἀρετή (<em>arétè</em>)) destiné à former de futurs orateurs et hommes d’influence. Platon, à travers le personnage de Socrate, soulève la question cruciale de <strong>la nature de la vertu et de sa transmissibilité</strong>.</p>



<p>Le <em>Protagoras</em> s’ouvre sur la rencontre entre Socrate et Hippocrate, désireux de suivre l’enseignement de Protagoras. Socrate interroge alors Protagoras sur la nature précise de son enseignement : si la vertu peut être enseignée, quel en est le contenu ? Et surtout, Protagoras lui-même détient-il le savoir nécessaire pour transmettre la vertu ?</p>



<p>Pour commencer, Protagoras présente son mythe de l’origine de l’humanité (mythe de Prométhée) pour expliquer la nécessité de la justice et de la vertu dans la vie communautaire. Il s’amorce ensuite un débat sur l’unité ou la pluralité des vertus (justice, piété, courage, prudence, tempérance). Socrate questionne la cohérence du discours sophistique en examinant la nature de la vertu et son éventuelle unité. Le dialogue se termine sur un examen plus détaillé de la notion de <em>technê</em> (τέχνη) (savoir-faire, compétence) et sur la dimension hédoniste de la vertu, Platon faisant dire à Socrate qu’une bonne évaluation des plaisirs et des peines nécessite un certain savoir rationnel.</p>



<p>La force principale de ce dialogue tient à la thèse centrale : « La vertu est-elle enseignable ? ». Derrière cette question se trouvent plusieurs problématiques philosophiques et pédagogiques : la nature de la connaissance, le rôle de la rhétorique, l’unité des vertus et la question du bien</p>



<p>En effet, Pour Socrate, l’excellence morale suppose un savoir rationnel, ce qui préfigure les discussions ultérieures sur la formation de la conscience et de la volonté dans la tradition chrétienne, mais aussi dans les approches laïques de l’éducation. Tandis que Protagoras, en tant que Sophiste, défend une éducation fondée sur <strong>la parole persuasive</strong>. Socrate, lui, recherche la vérité à travers <strong>le dialogue maïeutique</strong>. Cette tension oriente encore aujourd’hui la réflexion pédagogique, particulièrement en ce qui concerne l’importance de l’esprit critique face à l’autorité d’un maître. Par ailleurs, Socrate semble suggérer que toutes les vertus ne forment qu’un seul et même savoir, tandis que Protagoras penche pour une vision plus diversifiée. La réception chrétienne de la pensée platonicienne (chez saint Augustin, par exemple) soulignera ultérieurement la convergence des vertus dans la charité, tout en conservant l’idée de leur distinction (justice, prudence, force, tempérance).</p>



<p>Sur le plan de la réception contemporaine, plusieurs chercheurs ont relevé l’importance du <em>Protagoras</em> pour comprendre le socle philosophique de l’éducation grecque. W.K.C. Guthrie<sup>1</sup> voit dans ce dialogue un jalon essentiel de la « période socratique », tandis que Paul Natorp<sup>2</sup> insiste sur la dimension méthodologique de l’enseignement socratique. D’autres critiques modernes, comme ceux qui s’intéressent aux pédagogies actives, y trouvent l’origine d’une « maïeutique » qui incite l’élève à construire son savoir.</p>



<p>Cette discussion est également cruciale pour la compréhension des conceptions éthiques de l’éducation. De fait, la question « Peut-on transmettre la vertu ? » est au cœur de tout dispositif éducatif, qu’il s’agisse de la Grèce antique ou des écoles monastiques médiévales, où l’on cherchait à former l’âme à la pratique du bien, en s’appuyant sur la tradition biblique et la philosophie antique. L’ouvrage <em>Protagoras</em> permet ainsi de mesurer la continuité d’une problématique qui va se prolonger dans la tradition chrétienne, pour trouver ensuite de nouvelles formulations à l’époque moderne et, aujourd’hui, à l’ère du numérique (comme la question de l’apprentissage en ligne, la transmission des compétences socio-émotionnelles, etc.).</p>



<p>En définitive, le <em>Protagoras</em> se révèle essentiel pour qui s’intéresse à l’histoire de la pensée sur l’éducation et la moralité. Platon y confronte directement deux figures emblématiques de son temps : le Sophiste, réputé pour son habileté oratoire, et le philosophe, épris de vérité. Cette confrontation éclaire la tension persistante entre une éducation centrée sur la performance persuasive et une éducation tournée vers la quête de la sagesse. Ainsi, la lecture du <em>Protagoras</em> ne se réduit pas à une simple curiosité historique, mais éclaire des enjeux toujours actuels sur la formation de l’être humain, la transmission des valeurs et le rôle du maître dans l’éducation — autant de questions qui étaient déjà d’une grande actualité dans l’Antiquité, sont passées par le filtre de la tradition chrétienne médiévale, et demeurent brûlantes à l’ère du numérique.</p>



<p>Ouvrage : <a href="https://www.lesbelleslettres.com/livre/9782251002132/oeuvres-completes-tome-iii-1re-partie-protagoras">https://www.lesbelleslettres.com/livre/9782251002132/oeuvres-completes-tome-iii-1re-partie-protagoras</a></p>



<p>1  : W.K.C. Guthrie, <em>A History of Greek Philosophy</em>, Cambridge, Cambridge University Press, 1969.</p>



<p>2 : Paul Natorp, <em>Platos Ideenlehre</em>, Hamburg, Meiner, 2004 [1921].</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.markert.fr/2025/02/07/protagoras/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>La Civilisation du poisson rouge : Petit traité sur le marché de l’attention</title>
		<link>https://www.markert.fr/2024/09/27/la-civilisation-du-poisson-rouge-petit-traite-sur-le-marche-de-lattention/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=la-civilisation-du-poisson-rouge-petit-traite-sur-le-marche-de-lattention</link>
					<comments>https://www.markert.fr/2024/09/27/la-civilisation-du-poisson-rouge-petit-traite-sur-le-marche-de-lattention/#respond</comments>
		
		<dc:creator><![CDATA[Arnaud Markert]]></dc:creator>
		<pubDate>Fri, 27 Sep 2024 10:00:00 +0000</pubDate>
				<category><![CDATA[Education]]></category>
		<category><![CDATA[Intelligence artificielle et Numérique]]></category>
		<category><![CDATA[guide parental]]></category>
		<guid isPermaLink="false">https://www.markert.fr/?p=920</guid>

					<description><![CDATA[Bruno PATINO, La Civilisation du poisson rouge : Petit traité sur le marché de l’attention, Paris, Grasset, 2019. Dans La Civilisation du poisson rouge, Bruno Patino, spécialiste des médias numériques et président d’Arte France, explore les effets de l’économie numérique &#8230; <a href="https://www.markert.fr/2024/09/27/la-civilisation-du-poisson-rouge-petit-traite-sur-le-marche-de-lattention/">Lire la suite­­</a>]]></description>
										<content:encoded><![CDATA[
<p><br><strong>Bruno PATINO, <em>La Civilisation du poisson rouge : Petit traité sur le marché de l’attention</em>, Paris, Grasset, 2019.</strong></p>



<figure class="wp-block-image alignleft size-full is-resized"><img loading="lazy" decoding="async" width="309" height="500" src="https://www.markert.fr/wp-content/uploads/2025/02/9782253101253-de.jpg" alt="" class="wp-image-921" style="width:249px" srcset="https://www.markert.fr/wp-content/uploads/2025/02/9782253101253-de.jpg 309w, https://www.markert.fr/wp-content/uploads/2025/02/9782253101253-de-185x300.jpg 185w" sizes="auto, (max-width: 309px) 100vw, 309px" /></figure>



<p>Dans <em>La Civilisation du poisson rouge</em>, Bruno Patino, spécialiste des médias numériques et président d’Arte France, explore <em>les effets de l’économie numérique sur notre capacité d’attention et notre rapport au temps</em>. L’auteur part d’une observation frappante : la durée moyenne d’attention d’un poisson rouge est de 8 secondes, tandis que celle des jeunes générations ultra-connectées serait d’environ 9 secondes. Ce constat illustre l’emprise des technologies numériques sur nos modes de vie et notre concentration. L’essai de Patino s’inscrit dans un contexte de surconsommation de l’information, où les algorithmes et plateformes numériques exploitent notre attention comme une ressource monétisable. Il s’agit d’une analyse critique des stratégies déployées par les géants du numérique (GAFA, réseaux sociaux, médias en ligne) pour capter et retenir notre engagement, souvent au détriment de notre bien-être cognitif. Loin d’être une simple dénonciation, ce livre interroge <em>notre servitude volontaire face aux écrans</em> et appelle à une prise de conscience collective. Il pose ainsi une question essentielle : comment retrouver le contrôle de notre attention dans un monde saturé de stimuli numériques ?</p>



<h2 class="wp-block-heading">Thèses principales et démarche de l’auteur</h2>



<p>Patino explique que les grandes plateformes numériques ont bâti un modèle économique basé sur l’attention, où chaque minute passée sur un écran est exploitée pour générer des revenus publicitaires. Facebook, YouTube et Instagram utilisent des algorithmes de recommandation et des mécanismes addictifs (notifications, scrolling infini) pour maximiser le temps passé sur leurs services. L’auteur décrit comment cette logique transforme notre comportement, en jouant sur les biais cognitifs et émotionnels pour nous rendre dépendants des écrans.</p>



<p>Patino insiste sur le fait que les outils numériques favorisent une attention morcelée, incapable de se fixer sur une tâche longue ou exigeante. Les applications de médias sociaux favorisent la consommation rapide d’informations courtes et superficielles, réduisant notre capacité à nous plonger dans des contenus longs (livres, articles approfondis, films…). Cette fragmentation de l’attention a des effets négatifs sur notre concentration, notre mémoire et notre rapport au réel.</p>



<p>L’auteur analyse le rôle de la dopamine, un neurotransmetteur impliqué dans le circuit de la récompense, dans la conception des interfaces numériques. Le scrolling infini, inspiré des machines à sous, crée une boucle de gratification instantanée qui nous pousse à rester connectés plus longtemps. Patino souligne le pouvoir des notifications et des interactions sociales numériques, qui exploitent notre besoin de validation sociale pour nous rendre accros aux écrans.<br>Face à cette captation généralisée de notre attention, Patino pose la question de notre responsabilité individuelle et collective. Il critique notre complicité passive dans ce système et appelle à une prise de conscience pour s’affranchir de cette dépendance. Pour retrouver une maîtrise de notre attention, il est nécessaire de :</p>



<ul class="wp-block-list">
<li>Limiter notre exposition aux écrans.</li>



<li>Favoriser des espaces de déconnexion et de lenteur.</li>



<li>Promouvoir une régulation éthique et politique des plateformes numériques.</li>
</ul>



<h2 class="wp-block-heading">Réception et critiques</h2>



<p>L’un des grands mérites de <em>La Civilisation du poisson rouge</em> est son accessibilité. Patino adopte un ton clair et pédagogique, illustrant ses propos par des études scientifiques, des données chiffrées et des anecdotes percutantes. L’ouvrage rejoint les analyses de Tristan Harris (<em>The Social Dilemma</em>), qui dénoncent la captation de notre attention par les plateformes numériques. Il dialogue aussi avec Nicholas Carr (<em>The Shallows</em>), qui explore les effets cognitifs d’Internet sur notre cerveau.</p>



<p>Certains lecteurs pourraient reprocher à l’auteur de ne pas approfondir les solutions concrètes pour se libérer de cette emprise numérique. Si le diagnostic est percutant, l’ouvrage propose peu de pistes détaillées pour une régulation efficace des plateformes.</p>



<p>Patino adopte un ton alarmiste, en insistant sur les risques de l’économie de l’attention. Certains critiques pourraient estimer qu’il néglige les aspects positifs du numérique, notamment ses potentiels éducatifs et collaboratifs.</p>



<h2 class="wp-block-heading">Actualité et pertinence du texte</h2>



<p>À l’heure où nous passons en moyenne plus de 4 heures par jour sur nos écrans, la question de l’attention est plus pertinente que jamais. Patino met en lumière les défis du numérique, notamment :</p>



<p>L’impact des réseaux sociaux sur la santé mentale.</p>



<p>La montée des troubles de l’attention chez les jeunes générations.</p>



<p>Les enjeux de régulation et d’éthique numérique.</p>



<p>Les récentes lois sur le temps d’écran des enfants en Chine montrent une prise de conscience mondiale de ces problématiques.</p>



<p>L’ouvrage plaide pour une régulation politique des plateformes numériques, afin d’encadrer la captation de l’attention. Il rejoint ainsi les discussions actuelles sur :</p>



<ul class="wp-block-list">
<li>Le <em>Digital Services Act</em> de l’UE.</li>



<li>Les lois visant à limiter l’addiction aux écrans chez les mineurs.</li>



<li>Les recherches en <em>design</em> éthique des interfaces (<em>slow tech</em>, <em>design</em> humaniste).</li>
</ul>



<h2 class="wp-block-heading">Conclusion</h2>



<p>La Civilisation du poisson rouge est un essai essentiel pour comprendre les effets du numérique sur notre cerveau et notre attention. En analysant les mécanismes de l’économie de l’attention, Patino dresse un constat alarmant, mais nécessaire, sur notre dépendance aux écrans. Si l’ouvrage manque parfois de propositions concrètes pour contrer cette tendance, il invite à une prise de conscience salutaire, tant au niveau individuel que collectif.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.markert.fr/2024/09/27/la-civilisation-du-poisson-rouge-petit-traite-sur-le-marche-de-lattention/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Lettre sur le rôle de la littérature dans la formation</title>
		<link>https://www.markert.fr/2024/08/07/lettre-sur-le-role-de-la-litterature-dans-la-formation/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=lettre-sur-le-role-de-la-litterature-dans-la-formation</link>
					<comments>https://www.markert.fr/2024/08/07/lettre-sur-le-role-de-la-litterature-dans-la-formation/#respond</comments>
		
		<dc:creator><![CDATA[Arnaud Markert]]></dc:creator>
		<pubDate>Wed, 07 Aug 2024 07:43:42 +0000</pubDate>
				<category><![CDATA[Education]]></category>
		<category><![CDATA[Enseignement catholique]]></category>
		<category><![CDATA[Spiritualité]]></category>
		<category><![CDATA[guide parental]]></category>
		<category><![CDATA[Littérature]]></category>
		<guid isPermaLink="false">https://www.markert.fr/?p=757</guid>

					<description><![CDATA[François, Lettre sur le rôle de la littérature dans la formation, Rome, Libreria Editrice Vaticana, 17 juillet 2024. En ligne sur https://www.vatican.va/content/francesco/fr/letters/2024/documents/20240717-lettera-ruolo-letteratura-formazione.html#_ftnref12, consulté le 07/8/2024 à 09h36. Cette lettre du Pape François, publiée en juillet 2024, se penche sur l&#8217;importance &#8230; <a href="https://www.markert.fr/2024/08/07/lettre-sur-le-role-de-la-litterature-dans-la-formation/">Lire la suite­­</a>]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-image alignleft size-full is-resized"><img loading="lazy" decoding="async" width="500" height="500" src="https://www.markert.fr/wp-content/uploads/2024/08/pape-Francois.jpg" alt="Photo du pape François." class="wp-image-758" style="width:200px" srcset="https://www.markert.fr/wp-content/uploads/2024/08/pape-Francois.jpg 500w, https://www.markert.fr/wp-content/uploads/2024/08/pape-Francois-300x300.jpg 300w, https://www.markert.fr/wp-content/uploads/2024/08/pape-Francois-150x150.jpg 150w, https://www.markert.fr/wp-content/uploads/2024/08/pape-Francois-120x120.jpg 120w, https://www.markert.fr/wp-content/uploads/2024/08/pape-Francois-365x365.jpg 365w" sizes="auto, (max-width: 500px) 100vw, 500px" /></figure>



<p><strong>François, <em>Lettre sur le rôle de la littérature dans la formation</em>, Rome, Libreria Editrice Vaticana, 17 juillet 2024</strong>. En ligne sur <a href="https://www.vatican.va/content/francesco/fr/letters/2024/documents/20240717-lettera-ruolo-letteratura-formazione.html#_ftnref12">https://www.vatican.va/content/francesco/fr/letters/2024/documents/20240717-lettera-ruolo-letteratura-formazione.html#_ftnref12</a>, consulté le 07/8/2024 à 09h36.</p>



<p>Cette lettre du Pape François, publiée en juillet 2024, se penche sur l&rsquo;importance de la littérature dans la formation «&nbsp;de tous les agents pastoraux, comme de n’importe quel chrétien&nbsp;». L&rsquo;auteur vise à démontrer que la lecture de romans, poèmes etc. est essentielle à la maturation personnelle et à la compréhension de la foi dans le contexte culturel contemporain.</p>



<p>L&rsquo;objectif principal de la lettre est de plaider pour une attention accrue à la littérature dans les programmes de formation. François déplore le manque d&rsquo;espace accordé à la littérature dans la formation religieuse et appelle à un changement radical de perspective. Il s&rsquo;adresse ainsi particulièrement aux responsables de la formation, formateurs, ainsi qu’aux étudiants en théologie.</p>



<p>La lettre se positionne dans un contexte d’appauvrissement du recours et du rapport à la littérature à la faveur du temps et de l’espace grandissants consacrés aux «&nbsp;écrans&nbsp;», ainsi que face à «&nbsp;cette accélération et cette simplification inévitables de notre vie&nbsp;» (§&nbsp;31) qui va avec les excès numériques. Ce document s&rsquo;appuie sur les enseignements du Concile Vatican II et les réflexions de théologiens comme Ignace de Loyola ou Karl Rahner, tout en intégrant des références à des auteurs littéraires comme Jorge Luis Borges, T.S. Eliot, C.S. Lewis ou Marcel Proust.</p>



<p>La lettre présente d&rsquo;abord le contexte et les objectifs du pape avant de développer son argumentation articulée autour d&rsquo;une analyse de la littérature et de ses effets sur la formation personnelle et spirituelle. L’auteur y aborde en premier lieu la question des relations «&nbsp;Foi et culture&nbsp;». Il poursuit par le contexte religieux actuel (section&nbsp;«&nbsp;Jamais de Christ sans chair&nbsp;») rappelant les risques d’une incarnation incomplète alors que la chair du Seigneur est «&nbsp;faite de passions, d’émotions, de sentiments, de récits concrets…&nbsp;» (§&nbsp;14)). Il développe ensuite son propos avec les raisons utiles ou décisives pour lesquelles l’amour de la littérature doit être encouragée (sections «&nbsp;Un grand bien&nbsp;», «&nbsp;Écouter la voix de quelqu’un&nbsp;», «&nbsp;Une sorte de gymnase du discernement&nbsp;», «&nbsp;Attention et digestion&nbsp;», et «&nbsp;Voir à travers les yeux des autres&nbsp;»). Pour le Saint‑Père, une œuvre littéraire peut aider à résister à la tentation, à traverser les tempêtes, ouvre de nouveaux espaces intérieurs… La littérature peut aussi libérer l’Église «&nbsp;de la tentation d’un solipsisme assourdissant et fondamentaliste&nbsp;» (§&nbsp;10). Le pape conclut en insistant sur «&nbsp;La puissance spirituelle de la littérature&nbsp;».</p>



<p>La lettre se distingue par son style accessible et son ton engagé. François utilise un langage clair et direct, illustrant ses arguments par des anecdotes personnelles –&nbsp;«&nbsp;j’ai été professeur de littérature&nbsp;» (§&nbsp;7), par exemple&nbsp;–, des références culturelles riches et variées, des exemples concrets. Il ne renonce pas pour autant à la profondeur de son argumentation.</p>



<p>La lettre offre une analyse convaincante du rôle de la littérature dans la formation personnelle et spirituelle. Elle met en lumière la capacité de la littérature à approfondir la compréhension de la foi en favorisant l&#8217;empathie, la capacité de discernement, l&rsquo;ouverture à l&rsquo;altérité… François souligne également l&rsquo;importance de la littérature pour l&rsquo;annonce de l&rsquo;Évangile dans un monde marqué par une «&nbsp;incapacité émotionnelle&nbsp;» (§&nbsp;22) et une recherche spirituelle souvent mal orientée.</p>



<p>Ce document va au‑delà de la référence convenue aux «&nbsp;semences du Verbe&nbsp;» (Saint&nbsp;Justin) et nous propose d’autres richesses&nbsp;: Ac&nbsp;17, 16‑34, <em>Discours aux jeunes</em> (Basile de Césarée), etc.</p>



<p>Notons que ce document ne propose pas de bibliographie, de <em>nihil obstat</em>… Dans la dynamique de la grâce, il convient de «&nbsp;choisir nos lectures avec ouverture, surprise, souplesse, en nous laissant conseiller, mais aussi avec sincérité, en essayant de trouver ce dont nous avons besoin à chaque moment de notre vie.&nbsp;» (§&nbsp;7).</p>



<p>Le paragraphe&nbsp;1 précise «&nbsp;J’avais initialement écrit un titre se référant à la formation sacerdotale, mais j’ai ensuite pensé que, de la même manière, ces choses peuvent être dites à propos de la formation de tous&nbsp;». Cela se sent. Au fur et à mesure de la lecture, on voit bien que la force des habitudes a la vie dure et que ce texte n’a été corrigé que dans un second temps et à la marge afin de s’adresser à tous…</p>



<p>Cette courte lettre du Pape François est une lecture stimulante et rapide pour tous ceux qui s&rsquo;intéressent à la formation religieuse et à l&rsquo;importance de la culture dans la vie spirituelle. Elle offre une perspective originale sur le rôle de la littérature dans la formation des futurs prêtres et des agents pastoraux.</p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.markert.fr/2024/08/07/lettre-sur-le-role-de-la-litterature-dans-la-formation/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Hommes, Femmes&#8230; Ce que disent les neurosciences</title>
		<link>https://www.markert.fr/2023/04/02/hommes-femmes-ce-que-disent-les-neurosciences/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=hommes-femmes-ce-que-disent-les-neurosciences</link>
					<comments>https://www.markert.fr/2023/04/02/hommes-femmes-ce-que-disent-les-neurosciences/#respond</comments>
		
		<dc:creator><![CDATA[Arnaud Markert]]></dc:creator>
		<pubDate>Sun, 02 Apr 2023 06:36:13 +0000</pubDate>
				<category><![CDATA[Education]]></category>
		<category><![CDATA[Neurosciences]]></category>
		<guid isPermaLink="false">https://www.markert.fr/?p=720</guid>

					<description><![CDATA[René Écochard, Homme, femme… Ce que nous disent les neurosciences, Artège, 2022. Le professeur René Ecochard (Lyon I) est un chercheur en biologie de la fertilité. Il défend l&#8217;idée que certaines différences entre hommes et femmes sont biologiquement fondées, tout &#8230; <a href="https://www.markert.fr/2023/04/02/hommes-femmes-ce-que-disent-les-neurosciences/">Lire la suite­­</a>]]></description>
										<content:encoded><![CDATA[
<p><strong>René Écochard, Homme, femme… Ce que nous disent les neurosciences, Artège, 2022.</strong></p>



<figure class="wp-block-image alignleft is-resized"><img loading="lazy" decoding="async" src="https://www.markert.fr/wp-content/uploads/2023/04/FIC184678.jpg" alt="Couverture du livre Homme, Femme... Ce que nous disent les neurosciences." class="wp-image-721" width="188" height="300" srcset="https://www.markert.fr/wp-content/uploads/2023/04/FIC184678.jpg 376w, https://www.markert.fr/wp-content/uploads/2023/04/FIC184678-188x300.jpg 188w" sizes="auto, (max-width: 188px) 100vw, 188px" /></figure>



<p>Le professeur René Ecochard (Lyon I) est un chercheur en biologie de la fertilité. Il défend l&rsquo;idée que certaines différences entre hommes et femmes sont biologiquement fondées, tout en reconnaissant l&rsquo;importance des facteurs sociaux.</p>



<p>Son essai est un livre de vulgarisation scientifique qui aborde les différences entre les sexes à travers les prismes de la neuropsychologie et de la biologie humaines. L&rsquo;auteur cherche à transmettre les connaissances universitaires actuelles concernant les différences entre les sexes, afin de « comprendre le masculin et le féminin améliorer le dialogue et les relations entre hommes et femmes » (<em>lodiciquarte</em>).</p>



<p>Le livre est structuré en trois parties : les temps de la vie ; quelques épisodes du feuilleton de la science ; quelles leçons tirer de ces apports scientifiques ? Au travers d’une vingtaine de chapitres, l’auteur aborde un large éventail de sujets, tels que les différences cognitives, les émotions, la communication, l&#8217;empathie, la prise de décision et le comportement social.</p>



<p>Un point particulièrement intéressant pour l’éducateur est la notion de la deuxième douzaine qui fait référence à l’adolescence comme période de 12 à 24 ans. En effet, « dans cette période, les actions posées par l&rsquo;adolescent façonnent son cerveau plus encore que dans la petite enfance » (p. 46). Un autre aspect intéressant de l&rsquo;ouvrage est l&rsquo;intégration des travaux de Ruth Feldman sur la synchronie biocomportementale. « Elle laisse apparaître dans ses travaux que la nature comporte un potentiel d&rsquo;harmonie que nous pouvons faire advenir par notre comportement » (p. 121).</p>



<p>L&rsquo;ouvrage est très bien documenté et présente une synthèse équilibrée entre les différentes études scientifiques. S’il n’approfondit aucun point, il est un tour d’horizon très cultivé des questions qui se posent et de leur contexte.</p>



<p>Bien que l&rsquo;auteur aurait pu aborder davantage les controverses et les limites de ce domaine, le livre reste une contribution précieuse au débat sur les questions de genre et d&rsquo;égalité.</p>



<p>Ouvrage : <a rel="noreferrer noopener" href="https://www.editionsartege.fr/product/126081/homme-femme-ce-que-nous-disent-les-neurosciences/" target="_blank">https://www.editionsartege.fr/product/126081/homme-femme-ce-que-nous-disent-les-neurosciences/</a></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.markert.fr/2023/04/02/hommes-femmes-ce-que-disent-les-neurosciences/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
