<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Arnaud Markert</title>
	<atom:link href="https://www.markert.fr/author/arnaud-markert/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.markert.fr</link>
	<description>Enjeux éthiques et théologiques de l&#039;Intelligence Artificielle dans l&#039;éducation</description>
	<lastBuildDate>Fri, 06 Feb 2026 05:31:11 +0000</lastBuildDate>
	<language>fr-FR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.3</generator>

<image>
	<url>https://www.markert.fr/wp-content/uploads/2020/09/cropped-logo_fondblanc_png_80x80-32x32.png</url>
	<title>Arnaud Markert</title>
	<link>https://www.markert.fr</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Intelligence Artificielle : Et l&#8217;Homme créa Dieu</title>
		<link>https://www.markert.fr/2026/02/06/intelligence-artificielle-et-lhomme-crea-dieu/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=intelligence-artificielle-et-lhomme-crea-dieu</link>
					<comments>https://www.markert.fr/2026/02/06/intelligence-artificielle-et-lhomme-crea-dieu/#respond</comments>
		
		<dc:creator><![CDATA[Arnaud Markert]]></dc:creator>
		<pubDate>Fri, 06 Feb 2026 05:31:06 +0000</pubDate>
				<category><![CDATA[Intelligence artificielle et Numérique]]></category>
		<category><![CDATA[Philosophie]]></category>
		<guid isPermaLink="false">https://www.markert.fr/?p=1007</guid>

					<description><![CDATA[Gabrielle HALPERN, Intelligence Artificielle : Et l&#8217;Homme créa Dieu, Hermann, décembre 2025. Philosophe de formation, spécialiste de la notion d’« hybridation » (cf. Tous centaure&#160;! Éloge de l&#8217;hybridation, Le Pommier, 2020), Gabrielle Halpern déploie avec ce court essai une réflexion &#8230; <a href="https://www.markert.fr/2026/02/06/intelligence-artificielle-et-lhomme-crea-dieu/">Lire la suite­­</a>]]></description>
										<content:encoded><![CDATA[
<p><strong>Gabrielle HALPERN, <em>Intelligence Artificielle : Et l&rsquo;Homme créa Dieu</em>, Hermann, décembre 2025</strong>.</p>



<figure class="wp-block-image alignleft size-medium"><img fetchpriority="high" decoding="async" width="182" height="300" src="https://www.markert.fr/wp-content/uploads/2026/02/image-182x300.jpg" alt="" class="wp-image-1008" srcset="https://www.markert.fr/wp-content/uploads/2026/02/image-182x300.jpg 182w, https://www.markert.fr/wp-content/uploads/2026/02/image.jpg 600w" sizes="(max-width: 182px) 100vw, 182px" /></figure>



<p>Philosophe de formation, spécialiste de la notion d’« hybridation » (cf. <em>Tous centaure&nbsp;! Éloge de l&rsquo;hybridation</em>, Le Pommier, 2020), Gabrielle Halpern déploie avec ce court essai une réflexion sur les métamorphoses de l’imaginaire religieux à l’ère technologique. Le livre se présente d’emblée comme un « essai hybride. Sérieux et farfelu à la fois, sérieux parce que farfelu » (p. 8) : ni traité de théologie, ni manuel d’informatique, mais « une promenade intellectuelle » (p. 10) qui prend au sérieux les métaphores religieuses mobilisées autour de l’IA, quitte à les pousser jusqu’au vertige.</p>



<p>L’ouvrage se déploie en sept chapitres, encadrés par une introduction et un épilogue, dont les titres – « Dieu est mort », « L’invention d’un dieu sur mesure », « De la prière au <em>prompt</em> », « Une nouvelle foi ? », « Une nouvelle Alliance ? », « L’émergence d’un nouvel espace sacré ? », « Une nouvelle éthique des relations humaines ? » – annoncent clairement la thèse : loin de signer la fin du religieux, l’IA réactive, déplace et reconfigure des structures théologiques anciennes (Dieu, prière, alliance, sanctuaire, éthique) dans un imaginaire sécularisé. Peut être même deviendra-t-elle un dieu… à notre mesure&nbsp;?</p>



<p>Le premier mouvement du livre relit la proclamation nietzschéenne de la mort de Dieu comme prélude paradoxal à l’invention d’une nouvelle divinité : l’Intelligence artificielle. L’auteure met en lumière le vocabulaire théologique qui irrigue spontanément le discours courant sur l’IA : omniscience supposée des systèmes capables d’agréger toutes les données, ubiquité des dispositifs connectés, quasi-omnipotence prêtée aux algorithmes qui « peuvent tout » décider à notre place. Des « attributs » traditionnellement réservés à Dieu sont tacitement projetés sur la machine.</p>



<p>Halpern souligne que cette nouvelle divinité est profondément anthropogène : l’IA n’est pas un dieu transcendant, mais un « dieu sur mesure », façonné par l’homme pour répondre à ses désirs de prédictibilité, de confort, de sécurisation, voire de dépassement de ses limites. « Le sur-mesure n’est plus une preuve d’infériorité ni de vassalité, mais de supériorité » (p. 36) : notre capacité à configurer les systèmes techniques nourrit un fantasme de maîtrise qui, ironiquement, se renverse en dépendance.</p>



<p>Les chapitres centraux font jouer l’analogie entre prière et <em>prompt</em> : adresser une requête à une IA, dans un mélange d’ignorance technique et de confiance dans la réponse, relève d’un « acte de foi » : « le recours à une IA est un acte de foi : nous croyons en son pouvoir » (p. 57). L’auteure décrit finement ce déplacement de la confiance, qui autrefois se tournait vers Dieu, les institutions, ou l’expertise humaine, et qui se projette désormais sur des boîtes (noires) algorithmiques.</p>



<p>Cette confiance s’enracine dans une expérience spatiale et temporelle singulière que Halpern interprète avec le concept d’« hétérotopie » : « l’hétérotopie proposée par l’intelligence artificielle est un au-delà qui n’est ni la mort, ni l’enfer, ni le paradis, et qui pourtant est immortel » (p. 90). Le « nuage », l’infrastructure globale de calcul, constitue un étrange « ailleurs » : invisible, en apparence immatériel, échappant à l’usure ordinaire et pourtant bien réel. On pense ici, à juste titre, à certaines intuitions patristiques, notamment chez Grégoire de Nazianze : l’IA configure un espace autre, ni strictement terrestre ni vraiment eschatologique, mais chargé d’affects religieux.</p>



<p>Les chapitres 4 à 6 examinent successivement la possibilité d’« une nouvelle foi », d’« une nouvelle Alliance » et « l’émergence d’un nouvel espace sacré ». Halpern analyse la manière dont la relation à l’IA peut reprendre des schèmes pactuels : pacte implicite de données contre services, dynamique de don et de contre-don (« données offertes » en échange de prédictions, de personnalisation, d’assistance). Elle propose la figure d’un « homme soustrait » (p. 64) – plutôt qu’« augmenté » – progressivement délesté de ses choix, de ses efforts, de ses confrontations au réel par un environnement technique qui anticipe ses besoins.</p>



<p>La métaphore du « sanctuaire » numérique (p. 84) est d’abord moins convaincante : l’analogie paraît forcée si l’on réduit l’espace sacré à un simple environnement immersif. Mais l’auteure la corrige en convoquant la théologie mystique de Maître Eckhart et, plus largement, une spiritualité augustinienne : loin d’assimiler l’IA à Dieu, elle montre comment la quête d’un « dedans » invisible, d’un lieu d’intimité absolue, trouve aujourd’hui une transposition ambiguë dans la relation aux appareils et aux interfaces, qui semblent nous offrir un accès immédiat à nous-mêmes tout en accentuant notre dépendance.</p>



<p>Enfin, le dernier chapitre interroge les effets anthropologiques et éthiques de cette quasi-divinisation de l’IA sur nos relations. Halpern décrit la tentation de faire de l’IA « le seul interlocuteur légitime », « en rendant optionnelle la relation avec nos semblables » (p. 98). Les pages 94-96 décrivent avec acuité la manière dont certains usagers se confient à des agents conversationnels comme à un compagnon exclusif, ce qui évoquerait peut-être davantage le rapport à un familier intelligent qu’à un Dieu : une créature servile, toute-puissante dans son domaine, dont le maître devient progressivement prisonnier.</p>



<p>L’auteure ne s’y trompe pas quand elle relève « nos faillites et nos médiocrités dans nos relations humaines » (p. 99) : la tentation de préférer le confort d’un interlocuteur algorithmique, toujours disponible, toujours accommodant, révèle selon elle une crise plus profonde de la fraternité et de la vulnérabilité partagée. La formule finale est à cet égard saisissante : « la divinité qu’est l’intelligence artificielle menace de remplacer quiconque ne se conduira pas en être humain à l’égard de son prochain. De quoi pousser chacun d’entre nous à se rédimer ? » (p. 106). L’IA fonctionne ici comme un miroir eschatologique : si nous abdiquons notre humanité relationnelle, nous nous rendons nous-mêmes redondants.</p>



<p>L’ouvrage demi-sérieux de Gabrielle Halpern se distingue par plusieurs contributions. Les références à Maître Eckhart, à la mystique apophatique, à la dynamique du don contre-don ne sont pas de simples ornements : elles servent à éclairer les analogies et surtout les dissemblances entre Dieu et l’IA. Ce recours à la tradition comme ressource herméneutique pour l’ère numérique est l’un des grands mérites du livre.</p>



<p>L’essai assume son caractère « farfelu », au sens où il n’hésite pas à filer des métaphores audacieuses, à flirter avec l’hypothèse d’une « divinité IA », tout en se corrigeant lorsqu’une analogie se révèle trompeuse. Les confusions initiales entre virtuel et réel, entre omniscience divine et puissance prédictive des algorithmes (« Ses algorithmes travaillant par probabilités et statistiques, elle peut même esquisser des prédictions de l’avenir à partir du passé. », p. 29) sont nuancées plus loin ; l’auteure elle-même réajuste la portée de ses images, ce qui nourrit le lecteur au lieu de le manipuler.</p>



<p>La richesse de l’essai va de pair avec certaines fragilités, qui ouvrent autant de pistes de débat.</p>



<p>L’attribution à l’IA de l’« omniscience » ou de « l’éternité » (p. 37) est assumée comme un jeu conceptuel, mais le risque est réel de brouiller les distinctions fondamentales de la théologie classique. Que des systèmes prédictifs puissent « esquisser » l’avenir à partir du passé n’a rien à voir avec la science divine, qui ne calcule pas, mais connaît en un acte simple. À ce titre, l’analogie serait plus pertinente avec une intelligence démoniaque capable de connaître beaucoup de choses du monde créé, sans aucune participation à la vision de Dieu. Halpern elle-même évoque d’ailleurs cette proximité en fin d’ouvrage.</p>



<p>Comme beaucoup de discours contemporains, l’essai reprend dans un premier temps l’opposition entre « virtuel » et « réel » pour désigner ce qui serait immatériel ou corporel. Si l’auteure nuance ensuite sa position, il aurait été intéressant de mobiliser davantage les travaux philosophiques et théologiques qui déconstruisent cette dichotomie : le virtuel, en tant que puissance réelle d’actualisation, n’est pas l’irréel. En outre, l’usage devenu ordinaire du terme ‘virtuel’ relève de l’optique.</p>



<p>L’analogie « IA = Dieu » est volontairement provocatrice, mais l’analyse des pages 94-96 montre qu’une autre figure serait peut-être plus heuristique : celle du familier intelligent, compagnon numérique qui hybride l’animal ou la créature fantastique, le coach et le secrétaire personnel. Cette métaphore permettrait de mieux penser la dimension de dépendance affective, de maniaquerie de contrôle et de substitution progressive aux relations humaines, que l’auteure décrit très bien lorsqu’elle souligne que l’IA « se positionne peu à peu comme le seul interlocuteur légitime » (p. 98). Le diagnostic sur « nos faillites et nos médiocrités dans nos relations humaines » (p. 99) est alors d’autant plus pertinent qu’il ne repose plus sur une analogie divine univoque, mais sur une analyse de nos fragilités relationnelles.</p>



<p>Pour un lectorat préoccupé par le croisement de l’éthique et de la théologie, <em>Intelligence artificielle. Et l’Homme créa Dieu</em> offre plusieurs contributions précieuses.</p>



<p>Sur le plan théologique, l’ouvrage invite à clarifier ce que l’on entend par Dieu, par idolâtrie, par foi… en les confrontant aux projections contemporaines sur les technologies intelligentes. Il rappelle utilement que tout discours sur l’IA comme « divinité » est d’abord un miroir de nos désirs et de nos peurs.</p>



<p>Sur le plan éthique, la mise en scène de l’IA comme divinité jalouse, prête à « remplacer quiconque ne se conduira pas en être humain à l’égard de son prochain » (p. 106), fonctionne comme un avertissement : si nous externalisons notre responsabilité morale à des systèmes techniques, nous risquons de perdre notre capacité de conversion, de miséricorde et de justice. L’IA devient alors non pas un Dieu, mais un jugement sur notre manque de charité.</p>



<p>Essai bref et plaisant, <em>Intelligence artificielle. Et l’Homme créa Dieu</em> est à la fois stimulant et inégal, à l’image de l’« hybridation » assumée par son auteure. En lisant les représentations de l’IA à travers le prisme de la théologie – attributs divins, prière, alliance, sanctuaire, eschatologie, éthique des relations –, Gabrielle Halpern éclaire avec finesse les déplacements du sacré dans nos sociétés technologiques. Si certaines analogies gagneraient à être davantage encadrées par la théologie classique, l’ouvrage n’en demeure pas moins une ressource précieuse pour penser le rapport contemporain aux machines parlantes comme un terrain de discernement spirituel.</p>



<p>En définitive, ce livre rappelle que l’IA n’est ni Dieu ni diable, mais un révélateur : révélateur de nos aspirations à la toute-puissance, de notre fatigue relationnelle, de notre besoin d’un Autre qui nous écoute et nous réponde. Qu’elle soit invoquée comme idole ou redoutée comme menace, l’IA nous renvoie, par contraste, à la question fondamentale : comment rester humains – c’est-à-dire capables de relation, de don et de responsabilité – dans un monde où nous pourrions être tentés de déléguer jusqu’à notre propre humanité à ce que nous avons créé ?</p>



<p>Disponible sur : <a href="https://www.editions-hermann.fr/livre/intelligence-artificielle-et-l-homme-crea-dieu-gabrielle-halpern">https://www.editions-hermann.fr/livre/intelligence-artificielle-et-l-homme-crea-dieu-gabrielle-halpern</a></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.markert.fr/2026/02/06/intelligence-artificielle-et-lhomme-crea-dieu/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>De Louis XIV à l’Ère de l’IA : Pour une éducation qui forme les libertés</title>
		<link>https://www.markert.fr/2026/01/25/de-louis-xiv-a-lere-de-lia-pour-une-education-qui-forme-les-libertes/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=de-louis-xiv-a-lere-de-lia-pour-une-education-qui-forme-les-libertes</link>
					<comments>https://www.markert.fr/2026/01/25/de-louis-xiv-a-lere-de-lia-pour-une-education-qui-forme-les-libertes/#respond</comments>
		
		<dc:creator><![CDATA[Arnaud Markert]]></dc:creator>
		<pubDate>Sun, 25 Jan 2026 13:54:25 +0000</pubDate>
				<category><![CDATA[Education]]></category>
		<category><![CDATA[Enseignement catholique]]></category>
		<category><![CDATA[Intelligence artificielle et Numérique]]></category>
		<category><![CDATA[critique sociale]]></category>
		<guid isPermaLink="false">https://www.markert.fr/?p=1002</guid>

					<description><![CDATA[Si l’on compare notre époque avec celle du Louis XIV, un constat s’impose avec évidence : nous sommes infiniment mieux soignés, mais nous ne sommes pas nécessairement mieux formés. Le roi Soleil, instruit par des précepteurs de très haut niveau &#8230; <a href="https://www.markert.fr/2026/01/25/de-louis-xiv-a-lere-de-lia-pour-une-education-qui-forme-les-libertes/">Lire la suite­­</a>]]></description>
										<content:encoded><![CDATA[
<p>Si l’on compare notre époque avec celle du Louis XIV, un constat s’impose avec évidence : nous sommes infiniment mieux soignés, mais nous ne sommes pas nécessairement mieux formés. Le roi Soleil, instruit par des précepteurs de très haut niveau — Bossuet, Péréfixe, Huet — recevait une formation individualisée, intégrale, orientée vers la responsabilité politique et morale. Aujourd’hui, malgré l’accès universel au savoir, malgré les programmes nationaux et les milliards investis dans les systèmes scolaires, beaucoup de nos jeunes sortent du système éducatif sans réelle maîtrise de la pensée, de la langue, du raisonnement, de l’action responsable.</p>



<p>Ce déséquilibre n’est pas accidentel : il est le fruit d’une désorientation anthropologique. Nous avons pris l’instruction pour l’éducation complète de l’homme, négligeant que l’une ne garantit pas l’autre. Mais l’irruption de l’intelligence artificielle (IA) modifie aujourd’hui radicalement les conditions de cette tension. Elle nous offre une opportunité historique — au prix d’un discernement exigeant — de repenser l’éducation comme relation de formation, non comme simple transmission de contenus.</p>



<p>Le modèle éducatif qui s’est imposé aux XIXᵉ–XXᵉ siècles repose sur l’idée que l’instruction doit être universelle, standardisée et mesurable. Ce modèle, longtemps justifié par la nécessité de former des citoyens alphabétisés et des travailleurs qualifiés pour l’économie industrielle, a organisé l’éducation autour de parcours synchronisés, de programmes uniformes et d’examens standardisés.<br>Cette massification a eu des effets incontestables : alphabétisation quasi universelle, accès plus large aux savoirs, démocratisation des diplômes. Elle a cependant aussi produit des effets pervers. D’une part, la domination d’une logique quantitative (notes, pourcentages, classements) sur une logique qualitative de formation. D’autre part, la réduction de l’éducation à une forme d’ingénierie des compétences interchangeables. Et encore, l’anonymat pédagogique inhérent aux grands groupes-classe, qui dilue la relation maître–élève.</p>



<p>En conséquence, le système scolaire tend à produire des apprenants compétents dans certains savoir-faire, mais souvent démunis pour penser, pour juger, pour décider dans la complexité humaine et morale.</p>



<p>Pour comprendre ce que nous avons perdu, il est utile de regarder vers le préceptorat classique, tel qu’on le voit chez Aristote avec Alexandre, mais aussi dans d’autres traditions éducatives anciennes ou médiévales (Aristote, Sénèque, Alcuin&#8230;). Le précepteur n’est pas un technicien du savoir : il est d’abord un formateur de jugement.</p>



<p>Trois caractéristiques fondamentales de ce modèle éclairent notre diagnostic. D’abord, la relation personnalisée : le maître connaît l’élève dans sa singularité. Il ajuste son enseignement non seulement aux acquis cognitifs, mais aussi aux dispositions morales, spirituelles et psychologiques de l’élève. Ensuite, l’orientation vers la formation du caractère : apprendre, c’est apprendre à être, pas seulement savoir. Enfin, la visée téléologique : l’éducation se déploie autour d’une fin humaine, c’est-à-dire la capacité d’agir avec prudence, courage, justice et tempérance.</p>



<p>Ces traits, qui définissaient l’éducation des élites dans les sociétés anciennes, étaient naturellement limités par leur exclusivité sociale. Ce qui était réservé à quelques privilégiés pose aujourd’hui une question radicale : pourquoi ces traits essentiels ne pourraient-ils pas devenir des biens éducatifs universels ?</p>



<p>Le débat sur l’intelligence artificielle dans l’éducation ne peut être dissocié des travaux de Benjamin Bloom et de son fameux problème à 2 sigma. Bloom a montré qu’un enseignement individualisé — tutorat rapproché — conduit à des résultats exceptionnellement supérieurs aux formes collectives traditionnelles. Aujourd’hui, l’IA propose d’atteindre ces niveaux de personnalisation à une échelle qui aurait été inimaginable il y a seulement quelques décennies.<br>Les technologies adaptatives permettent de diagnostiquer finement les difficultés d’un élève, de proposer des parcours personnalisés en temps réel, de rétroagir immédiatement, avec des feedbacks adaptés.</p>



<p>Mais la simple efficacité cognitive ne suffit pas. Car apprendre n’est pas seulement accumuler des savoirs ou automatiser des compétences : c’est devenir un sujet capable de penser, de juger et d’agir dans la complexité du monde humain.</p>



<p>L’enjeu, à l’ère de l’IA, est donc de réconcilier ce qui a fait la force du préceptorat humain avec les potentialités nouvelles du tutorat intelligent. L’IA peut prendre en charge l’individualisation des apprentissages à grande échelle : elle s’adapte au rythme, identifie les zones de blocage, propose des parcours de remédiation. Cela répond à l’exigence de Bloom : tous les élèves peuvent progresser significativement en sortant du modèle uniforme.</p>



<p>Mais l’IA ne doit peut-être pas remplacer ce qui fait l’essence du mentor : la présence morale, la capacité à interroger les fins, la médiation des valeurs, l’autorité incarnée qui invite à la responsabilité. Le mentor ne se contente pas d’enseigner des savoirs ou des compétences : il accompagne la construction de la personne.</p>



<p>Ce que je propose n’est pas une substitution du professeur par la machine, mais une co-éducation intégrée<sup>1</sup>. L’IA comme assistant pédagogique universel, capable de réaliser ce que Bloom appelait l’enseignement individualisé à grande échelle. Le mentor humain comme éducateur de l’être, attentif à la liberté, à la vertu, à la finalité de l’apprentissage. Ce couple pédagogique — IA + mentorat humain — pourrait permettre de sortir de la tragédie actuelle où nous savons mieux soigner les corps que former les esprits.</p>



<p>Il ne s’agit pas simplement d’intégrer des technologies nouvelles, mais de réinterroger la finalité de l’éducation. L’école doit redevenir un lieu où l’on forme non seulement des travailleurs compétents, mais des êtres libres, capables de comprendre l’histoire, de dialoguer avec la tradition, de discerner le bien dans un monde complexe : désireux d’<em>otium</em> !</p>



<p>Cette vision rejoint la tradition chrétienne de l’éducation : l’homme est une fin en soi, appelé à grandir non seulement en savoir, mais en sagesse, en responsabilité, en charité. Dans une culture où l’efficacité technique tend à tout envahir, réintroduire cette finalité est une urgence morale.</p>



<p>Comparer notre système scolaire à l’éducation reçue par Louis XIV ne relève pas d’une nostalgie conservatrice, mais d’un diagnostic anthropologique : nous avons gagné en technologies éducatives, mais nous avons perdu en formation de l’esprit et de la liberté. L’IA peut être l’outil qui nous permet de résoudre ce paradoxe — non pas en remplaçant l’humain, mais en libérant l’humain pour ce qui fait sa grandeur.<br>L’alternative n’est pas entre une école du passé et une école automatisée : elle est entre une éducation qui forme des esprits vivants et une qui fabrique des algorithmes humains. C’est ce défi que doit relever toute réforme éducative digne de notre héritage anthropologique et éthique.</p>



<p></p>



<p>1 : Cf. Gemma Serrano, « Co-enseigner avec les robots. L’école à l’heure du numérique apprenant », dans Bernard Hugonnier et Gemma Serrano (dir.), <em>Réconcilier la République et son école</em>, Cerf, « Patrimoines », 2017.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.markert.fr/2026/01/25/de-louis-xiv-a-lere-de-lia-pour-une-education-qui-forme-les-libertes/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Ne faites plus d&#8217;études</title>
		<link>https://www.markert.fr/2026/01/16/ne-faites-plus-detudes/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=ne-faites-plus-detudes</link>
					<comments>https://www.markert.fr/2026/01/16/ne-faites-plus-detudes/#respond</comments>
		
		<dc:creator><![CDATA[Arnaud Markert]]></dc:creator>
		<pubDate>Fri, 16 Jan 2026 11:00:00 +0000</pubDate>
				<category><![CDATA[Education]]></category>
		<category><![CDATA[Intelligence artificielle et Numérique]]></category>
		<category><![CDATA[critique sociale]]></category>
		<guid isPermaLink="false">https://www.markert.fr/?p=999</guid>

					<description><![CDATA[Laurent Alexandre &#38; Olivier Babeau, Ne faites plus d&#8217;études : Apprendre autrement à l&#8217;ère de l&#8217;IA, Buchet &#8211; Chastel, 2025. L’ouvrage de Laurent Alexandre et d’Olivier Babeau s’inscrit dans le sillage des essais de prospective éducative à l’ère de l’intelligence &#8230; <a href="https://www.markert.fr/2026/01/16/ne-faites-plus-detudes/">Lire la suite­­</a>]]></description>
										<content:encoded><![CDATA[
<p><strong>Laurent Alexandre &amp; Olivier Babeau, <em>Ne faites plus d&rsquo;études : Apprendre autrement à l&rsquo;ère de l&rsquo;IA</em>, Buchet &#8211; Chastel, 2025.</strong></p>



<figure class="wp-block-image alignleft size-medium"><img decoding="async" width="205" height="300" src="https://www.markert.fr/wp-content/uploads/2026/01/image-205x300.jpg" alt="" class="wp-image-1000" srcset="https://www.markert.fr/wp-content/uploads/2026/01/image-205x300.jpg 205w, https://www.markert.fr/wp-content/uploads/2026/01/image-698x1024.jpg 698w, https://www.markert.fr/wp-content/uploads/2026/01/image-768x1126.jpg 768w, https://www.markert.fr/wp-content/uploads/2026/01/image-1047x1536.jpg 1047w, https://www.markert.fr/wp-content/uploads/2026/01/image-1397x2048.jpg 1397w, https://www.markert.fr/wp-content/uploads/2026/01/image.jpg 1651w" sizes="(max-width: 205px) 100vw, 205px" /></figure>



<p>L’ouvrage de Laurent Alexandre et d’Olivier Babeau s’inscrit dans le sillage des essais de prospective éducative à l’ère de l’intelligence artificielle générative. Publié en 2025 dans la collection « Essais et documents » chez Buchet-Chastel, il se présente comme une critique radicale de l’institution universitaire – il n’est pas question du primaire ou du secondaire&nbsp;—, jugée figée et déconnectée des compétences réellement requises dans une économie désormais gorgée d’IA.</p>



<p>Le titre – <em>Ne faites plus d’études</em> – est volontairement provocateur. Les auteurs précisent très tôt qu’il ne s’agit pas de cesser d’apprendre, mais, au contraire, d’entrer dans une logique d’hyper-apprentissage : « nous ne disons pas : n’apprenez plus ; au contraire, apprenez plus, toujours plus […] nous disons : déscolarisez votre pensée. Apprenez autrement. Apprenez tout le temps » (p.&nbsp;16). L’objectif est clair : apprendre « plus vite que le monde ne change », et le livre se présente comme une tentative pour décrire cette trajectoire et en tirer les conséquences pour les individus et pour l’école.</p>



<p>La thèse peut se résumer en trois propositions. D’une part, l’IA bouleverse la hiérarchie des compétences, en automatisant tout ce qui est de l’ordre du « pensable » standardisé. D’autre part, le système éducatif, structuré autour du diplôme et de la transmission descendante, est inadapté à cette mutation. Et encore, la survie cognitive et professionnelle des individus dépendra de leur capacité à co-évoluer avec l’IA : apprendre avec elle, mais également sans elle.</p>



<p>Sur ce fond, l’ouvrage articule trois grands volets. D’abord, un diagnostic techno-économique : montée en puissance des LLM, automatisation des tâches intellectuelles, transformation des organisations et des métiers. Ensuite, une cartographie du travail de demain : secteurs menacés, secteurs reconfigurés, secteurs renforcés par l’IA. Enfin un programme d’« éducation post-académique » : nouvelles compétences-clés, nouvelle place pour les enseignants, nouvel écosystème d’apprentissages distribués.</p>



<p>Le livre est traversé par un constat très dur sur le devenir de nombreux emplois intellectuels. L’IA ne « remplacera » pas l’humain comme on change une ampoule, écrivent les auteurs, mais risque de le rendre « accessoire, puis marginal, puis folklorique, comme le tir à l’arc, l’équitation ou la théologie : nobles disciplines, mais qui n’organisent plus le monde depuis longtemps » (p. 34). La formule, volontairement choquante, dit le cœur de leur inquiétude : ce ne sont pas seulement des tâches qui disparaissent, mais des pôles organisateurs de sens.</p>



<p>Dans ce contexte, la compétence rare devient, selon eux, « la capacité à travailler avec l’inconnu, à explorer les marges, à concevoir l’inédit » (p.&nbsp;77). Le seul vrai danger ne serait pas l’IA elle-même, mais une stagnation de l’imagination humaine : si l’on délègue à la machine tout ce qui est de l’ordre du « pensable », nous perdons la lente maturation des idées, ces réflexions « qui nécessitent du temps pour mûrir ». L’habitude de recourir systématiquement à l’IA pour automatiser la moindre tâche cognitive menace précisément ce temps long.</p>



<p>Dans le monde du travail, les auteurs insistent sur une tension structurante : d’un côté, les organisations restent des « arènes sociales » pétries de rationalités partielles, de jeux politiques, de routines irrationnelles ; de l’autre, « l’économie ne récompense pas la prudence mais la productivité, et à ce jeu-là l’IA est un choc technologique majeur&nbsp;» p.&nbsp;101). En d’autres termes, l’implantation de l’IA sera socialement chaotique, lente et conflictuelle, mais technologiquement irrésistible. Les pages consacrées à l’adoption de l’IA en entreprise exposent bien ces frictions : résistances culturelles, inertie des structures, mais aussi incitations économiques puissantes à l’automatisation.</p>



<p>Sur le plan sectoriel, le livre distingue nettement les activités hautement automatisables et celles qui, au contraire, pourraient être renforcées par l’IA. Les auteurs listent notamment les métiers de la proximité humaine : accueil, hospitalité, médiation culturelle, animation, coaching… On n’y achète pas seulement une prestation, mais « une expérience humaine partagée ». Les métiers de la main, les métiers du soin et du lien, le spectacle vivant, ou encore les métiers de prise en charge de la responsabilité (décision, arbitrage, régulation). Ces domaines restent difficiles à automatiser parce qu’ils engagent corps, vulnérabilité, jugement pratique et confiance.</p>



<p>Le ton est celui d’un constat de froide lucidité : le livre « déshabille » la réalité du marché du travail pour en révéler la nudité cruelle, sans se réfugier dans un humanisme consolant.</p>



<p>C’est dans ce contexte que l’ouvrage développe sa réflexion éducative. Dans un monde saturé d’IA, « le rôle de l’enseignant ne peut plus être de transmettre ». L’information est partout, instantanément accessible ; le professeur devient celui qui trie, explique, contextualise, problématise un savoir omniprésent. Plus loin, les auteurs synthétisent ce déplacement : ce que le professeur doit désormais incarner, « c’est moins la connaissance que la méthode, moins la réponse que la rigueur intellectuelle, moins la vérité que l’esprit critique, moins l’apprentissage lui-même que la volonté d’aller plus loin » (p. 124).</p>



<p>Ils parlent d’une nouvelle grammaire du champ éducatif où la compétence décisive ne sera pas le stock de savoirs mais la capacité à collaborer ou à survivre face à des entités plus brillantes et plus rapides que nous. L’intelligence du xxiᵉ siècle naît d’une tension, résumée par la formule de Michel Lévy-Provençal : ceux qui ne sauront pas utiliser l’IA seront dépassés ; ceux qui ne sauront penser qu’avec elle seront asservis. Le futur « appartient à ceux qui savent réfléchir avec la machine, c’est-à-dire réfléchir même si la machine s’éteint » (p. 152).</p>



<p>Dans ce cadre, les auteurs insistent sur un noyau de compétences transversales : plasticité cognitive, capacité à se former en continu, autonomie, créativité. Ils décrivent l’émergence d’une « société hyper-éducative » où chacun est sommé de devenir l’architecte actif de sa propre formation. L’enseignant n’y « dicte » plus ; il accompagne. L’élève n’y obéit plus, mais interagit et co-construit son parcours.</p>



<p>Ce nouveau régime d’apprentissage repose aussi sur des écosystèmes numériques informels : GitHub, Stack Overflow, Substack, Discord, Reddit, qui fonctionnent comme autant de lieux de socialisation cognitive et de montée en compétences « en situation ». Les auteurs y voient la matrice de nouveaux métiers – ils évoquent par exemple l’« AI-researcher » – mais aussi le laboratoire d’une pédagogie orientée vers l’extraction de « grandes idées, contradictions, angles morts, promesses inexplorées&nbsp;» dans des flux massifs d’information. L’enjeu n’est plus de mémoriser des contenus, mais de savoir les cartographier, les critiquer, les recombiner.</p>



<p>Sur ce fond, le mot d’ordre final – « ne faites plus d’études… du moins pas au sens traditionnel et figé du terme » – prend son sens. Il ne s’agit pas de délégitimer tout cadre académique, mais d’appeler à une démassification des trajectoires éducatives et à une hybridation plus serrée entre institutions, communautés en ligne et autoformation.</p>



<p>Les auteurs semblent chercher à enfoncer le clou en multipliant les répétitions plus ou moins directes. De ce fait, je n’ai pas trouvé ce livre très agréable à lire. Néanmoins, l’ouvrage présente des qualités indéniables. D’abord, il offre une synthèse claire des effets structurants de l’IA sur le travail et l’éducation, avec une capacité rare à articuler dynamique techno-économique et enjeux pédagogiques Ensuite et surtout, il formule, de manière frappante, la nécessité d’une révolution du rôle enseignant et d’une reconfiguration profonde des curricula : recentrage sur la méthode, l’esprit critique, la plasticité cognitive. Par ailleurs, il prend au sérieux la dimension cognitive et imaginative des transformations en cours : le risque majeur serait moins la disparition de certains emplois que l’atrophie de notre capacité à penser par nous-mêmes, à laisser mûrir des idées dans la durée.</p>



<p>Cependant, la lecture appelle aussi plusieurs réserves. Le vocabulaire de la « survie cognitive », de la course pour apprendre « plus vite que le monde ne change », du futur appartenant à ceux qui sauront « collaborer ou survivre » face à l’IA, installe une logique de sélection permanente. L’apprentissage y apparaît d’abord comme une stratégie de compétitivité individuelle dans un environnement hostile. Cette perspective, efficace comme électrochoc, laisse dans l’ombre des questions décisives : comment penser la justice sociale, les inégalités d’accès au numérique, la prise en compte des vulnérabilités dans une « société hyper-éducative » où tout le monde n’a pas les mêmes ressources pour devenir entrepreneur de soi-même ?</p>



<p>La phrase qui relègue la théologie au rang de discipline « folklorique » dit quelque chose d’important sur l’anthropologie implicite du livre : ce qui compte est ce qui «&nbsp;organise le monde », c’est-à-dire l’économie et la technologie. Sont relégués à la périphérie tout ce qui relève de la quête de sens, du symbolique, de la contemplation. Or, dans le contexte éducatif – et plus encore dans un contexte chrétien ou humaniste&nbsp;– cela ouvre un vrai débat : peut-on penser l’éducation au xxiᵉ siècle uniquement comme adaptation fonctionnelle au choc IA, sans reposer la question des finalités – humaines, spirituelles, civiques – de l’acte d’apprendre ?</p>



<p>L’appel à « déscolariser la pensée » est stimulant, mais l’ouvrage reste centré sur l’individu-apprenant. Les institutions éducatives y apparaissent surtout comme des structures dépassées, à réformer pour mieux accompagner la montée en compétences autonome. Les conditions concrètes d’une transformation systémique (temps long des réformes, formation des enseignants, articulation avec la recherche, régulations éthiques de l’IA en éducation) demeurent peu explorées. On aurait souhaité que les auteurs articulent plus précisément leur vision avec les enjeux de politique éducative, de gouvernance des systèmes et de responsabilité collective.</p>



<p>La perspective est largement individualiste, qui néglige complètement l’animal politique qu’est l’humain&nbsp;: son besoin de vivre avec d’autres, d’apprendre avec d’autres, d’apprendre à vivre ensemble, etc.</p>



<p>Malgré ces limites, <em>Ne faites plus d’études</em> constitue un texte utile et stimulant pour celles et ceux qui réfléchissent à l’avenir de l’éducation à l’ère de l’IA. Il oblige à regarder en face plusieurs réalités que l’on préfère parfois contourner. En premier lieu, la banalisation de l’usage de l’IA pour tout ce qui est « pensable » au quotidien, avec le risque réel d’affaiblissement de notre endurance intellectuelle. De plus, la nécessité de recentrer l’école sur le développement de facultés non substituables : jugement, imagination, sens de la nuance, capacité à dialoguer avec des systèmes plus puissants sans leur abandonner notre faculté de juger. Et aussi, l’urgence de penser une culture de la collaboration homme–machine qui ne soit ni un fétichisme technophile ni un refus crispé.</p>



<p>Le livre fournit un langage et des images qui peuvent nourrir des débats pédagogiques, notamment autour :</p>



<ul class="wp-block-list">
<li>de la redéfinition du métier d’enseignant ;</li>



<li>de l’intégration des communautés en ligne (GitHub, Stack Overflow, Reddit…) dans des parcours de formation structurés ;</li>



<li>de la place à donner, dans les curricula, à la créativité, à la plasticité cognitive et à la formation continue, au-delà de la logique du diplôme unique.</li>
</ul>



<p>Au total, l’essai d’Alexandre et Babeau propose une critique tranchante de la scolarisation traditionnelle et un plaidoyer vigoureux pour une éducation post-universitaire à l’ère de l’IA. Il invite à penser ensemble deux exigences qui, pour un lecteur soucieux d’éthique, de théologie et d’éducation, ne peuvent être séparées : apprendre à « réfléchir avec la machine », en tirant le meilleur de ses apports ; mais aussi préserver la possibilité de « réfléchir quand la machine s’éteint », c’est-à-dire de garder, au cœur de nos institutions éducatives, un espace pour la lenteur, la gratuité, la contemplation et la construction d’un jugement vraiment humain.</p>



<p>C’est précisément dans cette tension – déjà soulignée par les auteurs, mais à approfondir – que se joue sans doute l’avenir d’une éducation à la fois technologiquement lucide et vraiment humaine.</p>



<p>En ligne sur <a href="https://www.buchetchastel.fr/catalogue/ne-faites-plus-detudes/">https://www.buchetchastel.fr/catalogue/ne-faites-plus-detudes/</a></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.markert.fr/2026/01/16/ne-faites-plus-detudes/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Le Paradoxe du tapis roulant</title>
		<link>https://www.markert.fr/2025/12/26/le-paradoxe-du-tapis-roulant/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=le-paradoxe-du-tapis-roulant</link>
					<comments>https://www.markert.fr/2025/12/26/le-paradoxe-du-tapis-roulant/#respond</comments>
		
		<dc:creator><![CDATA[Arnaud Markert]]></dc:creator>
		<pubDate>Fri, 26 Dec 2025 08:50:34 +0000</pubDate>
				<category><![CDATA[Ethique]]></category>
		<category><![CDATA[Intelligence artificielle et Numérique]]></category>
		<category><![CDATA[critique sociale]]></category>
		<guid isPermaLink="false">https://www.markert.fr/?p=987</guid>

					<description><![CDATA[Marion Carré, Le Paradoxe du tapis roulant : Vaincre notre paresse intellectuelle face à l&#8217;IA, JC Lattès, 2025, 232 p. Paru en septembre 2025, l’ouvrage s’inscrit dans un moment charnière du débat public sur l’intelligence artificielle générative : celui où &#8230; <a href="https://www.markert.fr/2025/12/26/le-paradoxe-du-tapis-roulant/">Lire la suite­­</a>]]></description>
										<content:encoded><![CDATA[
<p><strong>Marion Carré, <em>Le Paradoxe du tapis roulant : Vaincre notre paresse intellectuelle face à l&rsquo;IA</em>, JC Lattès, 2025, 232 p.</strong></p>



<figure class="wp-block-image alignleft size-medium"><img decoding="async" width="187" height="300" src="https://www.markert.fr/wp-content/uploads/2025/12/image-187x300.jpg" alt="" class="wp-image-988" srcset="https://www.markert.fr/wp-content/uploads/2025/12/image-187x300.jpg 187w, https://www.markert.fr/wp-content/uploads/2025/12/image-639x1024.jpg 639w, https://www.markert.fr/wp-content/uploads/2025/12/image-768x1231.jpg 768w, https://www.markert.fr/wp-content/uploads/2025/12/image.jpg 780w" sizes="(max-width: 187px) 100vw, 187px" /></figure>



<p>Paru en septembre 2025, l’ouvrage s’inscrit dans un moment charnière du débat public sur l’intelligence artificielle générative : celui où l’usage des IA de conversation, de rédaction, de synthèse ou de traduction n’est plus réservé à quelques spécialistes, mais irrigue massivement les pratiques ordinaires de travail, d’étude et de loisir. Le titre – <em>Le Paradoxe du tapis roulant</em> – dit bien la thèse directrice : nous avons l’impression d’avancer, de « gagner du temps » et de démultiplier nos capacités, mais nous risquons en réalité de pédaler sur place, voire de perdre une part de notre puissance propre de penser.</p>



<p>Marion Carré, entrepreneuse et spécialiste des liens entre culture et numérique, n’adopte ni le ton catastrophiste ni le discours enchanté de la « révolution IA ». Elle propose plutôt une enquête sur notre paresse intellectuelle face à ces outils, en articulant observations de terrain, analyses conceptuelles et examen lucide de sa propre pratique d’utilisatrice. L’ouvrage se présente ainsi comme un essai d’éducation de l’attention et de la responsabilité.</p>



<p>Le cœur du diagnostic repose sur une formule que l’autrice explicite à plusieurs reprises : « l’habitude de recourir à l’IA pour automatiser tout ce qui est de l’ordre du « pensable » met en péril les réflexions qui nécessitent du temps pour mûrir » (p. 49). Autrement dit, ce qui est en jeu n’est pas simplement la délégation de tâches pénibles ou répétitives, mais la tentation de confier à la machine tout ce qui est rapidement formulable : premières idées, plans de texte, synthèses, reformulations, variantes d’arguments&#8230; À mesure que nous abandonnons à l’IA le champ du pensable immédiat, nous risquons de priver nos propres réflexions du temps de maturation, d’hésitation et de reprise qui constitue traditionnellement le cœur de l’exercice intellectuel. Le « tapis roulant » désigne alors ce mécanisme d’auto-accélération : plus l’IA nous soulage, plus nous sommes tentés de lui confier encore davantage, au risque d’atrophier les « muscles » mêmes de la pensée.</p>



<p>En dialogue explicite avec Ivan Illich et sa notion d’outils « conviviaux », Marion Carré propose une catégorie positive, celle d’IA conviviales. Celles-ci sont décrites comme : « des technologies qui nous laissent de l’espace, qui accompagnent sans contraindre, et qui se laissent façonner par leurs usagers plutôt que de les façonner. Elles s’inscriront dans une logique de soutien, de coopération et de liberté d’usage, permettant à chacun de les mobiliser selon ses propres finalités, à son rythme, et selon ses propres critères » (p. 199). Cette définition, à la fois normative et programmatique, déplace utilement le débat : la question centrale n’est pas de savoir s’il faut ou non utiliser l’IA, mais comment concevoir et cadrer des outils qui augmentent véritablement notre capacité d’agir et de réfléchir, au lieu de la court-circuiter. On retrouve ici des échos de Hartmut Rosa (sur l’accélération et la résonance) et de Georges Perec (sur l’attention à l’infra-ordinaire), explicitement mobilisés par l’autrice. Ces références ne sont pas de simples ornements savants : elles servent à ancrer la réflexion dans une tradition critique exigeante, qui interroge le rapport au temps, aux objets et aux gestes du quotidien.</p>



<p>L’un des traits les plus intéressants du livre réside dans la dimension autobiographique assumée. Marion Carré confie que : « ce cheminement est aussi celui que j’ai vécu au fil de la rédaction de ce livre vis-à-vis de mon propre rapport à cette technologie » (p. 202). L’essai ne se situe donc pas dans le surplomb, mais dans un travail de discernement en première personne : l’autrice décrit ses tentations de « gagner du temps » grâce à l’IA, ses essais, ses renoncements, et la manière dont elle a progressivement choisi de limiter certains usages pour préserver un espace de pensée propre. Cette honnêteté donne au livre une tonalité singulière : il ne s’agit pas d’un manuel de bonnes pratiques imposées de l’extérieur, mais d’un partage de lutte intérieure où le lecteur se reconnaît facilement.</p>



<p>Sur cette base, Carré articule deux niveaux de responsabilité. D&rsquo;une part, une exigence personnelle : chacun est invité à interroger ses habitudes, à reconnaître comment les outils IA forment un réseau de circonstances qui favorise la facilité, la délégation automatique, la dispersion, et à inventer des stratégies pour continuer à réfléchir, c’est-à-dire à s’humaniser. D&rsquo;autre part, une responsabilité collective et politique, qui passe par l’<em>ethics by design</em> : il ne suffit pas de prêcher l’ascèse individuelle si les architectures techniques et économiques continuent à pousser dans le sens inverse. L’autrice insiste sur la nécessité de dispositifs orientant la conception des IA vers la convivialité, la transparence et le respect de l’autonomie cognitive des usagers.</p>



<p>Plusieurs éléments font de ce livre une belle contribution. La clarté du diagnostic – avec cette métaphore parlante du tapis roulant qui permet de conceptualiser finement la combinaison de facilité, d’illusion de progrès et de perte d’effort que produisent certains usages de l’IA –, l&rsquo;ancrage théorique solide, l&rsquo;honnêteté intellectuelle, et l&rsquo;articulation du personnel et du politique.</p>



<p>On peut toutefois pointer quelques limites, qui sont aussi des pistes pour prolonger la réflexion. D&rsquo;un côté, les pistes d’action concrètes destinées aux institutions (écoles, universités, entreprises, administrations) restent parfois esquissées plus que pleinement développées. Le lecteur engagé dans des responsabilités éducatives ou politiques pourra souhaiter un outillage plus systématique, par exemple sous forme de cadres d’évaluation ou de scénarios d’usage. La réflexion s’ouvre sur la dimension collective et politique, mais gagnerait à dialoguer encore davantage avec les travaux de régulation internationale de l’IA (cadres juridiques, chartes de gouvernance, initiatives de recherche publique), afin de situer la proposition d’IA conviviales dans un écosystème normatif plus large. Ces réserves n’enlèvent rien à la qualité de l’ensemble, mais indiquent plutôt la nécessité d’un travail complémentaire, peut-être dans de futurs ouvrages ou dans des travaux à destination plus spécifiquement professionnelle ou universitaire.</p>



<p><em>Le Paradoxe du tapis roulant</em> est donc un essai pour qui cherche à penser l’intelligence artificielle non seulement en termes de performance ou de risque macro-technique, mais à partir de la micro-écologie de nos gestes de pensée. Marion Carré y montre que la véritable question n’est pas seulement : que peuvent faire ces outils ?, mais : que faisons-nous encore nous-mêmes quand nous les utilisons, et que voulons-nous continuer à faire de nos propres forces ? En articulant exigence personnelle et responsabilité collective, en appelant à des IA conviviales qui laissent de la place à la lenteur, à la maturation et à la liberté d’usage, en reconnaissant enfin avec honnêteté les tentations et les séductions de ces technologies, l’ouvrage offre une ressource précieuse pour les éducateurs, les concepteurs, les responsables politiques et, plus largement, pour tout lecteur soucieux de ne pas laisser l’IA décider à sa place de la forme de sa vie intellectuelle. Il nourrit, au meilleur sens du terme, un examen de conscience technologique : non pour renoncer aux outils, mais pour apprendre à s’en servir de manière à continuer de penser, de juger et de grandir en humanité.</p>



<p>En ligne sur <a href="https://www.editions-jclattes.fr/livre/le-paradoxe-du-tapis-roulant-9782709675109/">https://www.editions-jclattes.fr/livre/le-paradoxe-du-tapis-roulant-9782709675109/</a></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.markert.fr/2025/12/26/le-paradoxe-du-tapis-roulant/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>L&#8217;Ecran, l&#8217;icône et le miroir</title>
		<link>https://www.markert.fr/2025/11/30/lecran-licone-et-le-miroir/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=lecran-licone-et-le-miroir</link>
					<comments>https://www.markert.fr/2025/11/30/lecran-licone-et-le-miroir/#respond</comments>
		
		<dc:creator><![CDATA[Arnaud Markert]]></dc:creator>
		<pubDate>Sun, 30 Nov 2025 06:35:23 +0000</pubDate>
				<category><![CDATA[Ethique]]></category>
		<category><![CDATA[Intelligence artificielle et Numérique]]></category>
		<category><![CDATA[Spiritualité]]></category>
		<category><![CDATA[enseignement social]]></category>
		<guid isPermaLink="false">https://www.markert.fr/?p=979</guid>

					<description><![CDATA[Jacques-Benoît Rauscher, L&#8217;Ecran, l&#8217;icône et le miroir : Chercher Dieu dans un quotidien technologique, Desclée de Brouwer, Septembre 2025, 176 pages. Ce livre bref mais dense se situe à la croisée de la théologie spirituelle, de la morale chrétienne et &#8230; <a href="https://www.markert.fr/2025/11/30/lecran-licone-et-le-miroir/">Lire la suite­­</a>]]></description>
										<content:encoded><![CDATA[
<p><strong>Jacques-Benoît Rauscher, <em>L&rsquo;Ecran, l&rsquo;icône et le miroir : Chercher Dieu dans un quotidien technologique</em>, Desclée de Brouwer, Septembre 2025, 176 pages</strong>.</p>



<figure class="wp-block-image alignleft size-medium"><img loading="lazy" decoding="async" width="190" height="300" src="https://www.markert.fr/wp-content/uploads/2025/11/couv-LEcran-licone-et-le-miroir-190x300.jpg" alt="Couverture du livre L'Ecran, l'icône et le miroir" class="wp-image-981" srcset="https://www.markert.fr/wp-content/uploads/2025/11/couv-LEcran-licone-et-le-miroir-190x300.jpg 190w, https://www.markert.fr/wp-content/uploads/2025/11/couv-LEcran-licone-et-le-miroir-649x1024.jpg 649w, https://www.markert.fr/wp-content/uploads/2025/11/couv-LEcran-licone-et-le-miroir-768x1212.jpg 768w, https://www.markert.fr/wp-content/uploads/2025/11/couv-LEcran-licone-et-le-miroir.jpg 830w" sizes="auto, (max-width: 190px) 100vw, 190px" /></figure>



<p>Ce livre bref mais dense se situe à la croisée de la théologie spirituelle, de la morale chrétienne et d’un discernement très concret sur nos usages numériques. Contrairement à nombre d’essais récents sur l’intelligence artificielle ou le transhumanisme, Jacques-Benoît Rauscher ne se concentre ni sur les scénarios prospectifs ni sur les grands débats philosophiques abstraits : il s’attache explicitement au « monde du quotidien », à ces gestes ordinaires — consulter son smartphone, travailler en ligne, acheter, s’informer, se divertir, « se former » ou « se lier » en ligne — où se joue, sans bruit, une part décisive de la vie spirituelle.</p>



<p>L’intention programmatique est clairement énoncée : il s’agit de « caractériser lucidement les mutations de notre temps, écouter comment celles-ci permettent de recevoir à nouveau frais la parole que Dieu adresse au monde, et travailler les faiblesses ou les chantiers qu’elles mettent au jour dans notre réflexion chrétienne présente » (p. 14). Autrement dit, l’auteur ne se contente ni de dénoncer ni de bénir les technologies, mais cherche à en faire le lieu même d’un travail théologique : relire l’Écriture et la Tradition à la lumière des dispositifs numériques, et réciproquement, laisser ces ressources chrétiennes éclairer et juger nos pratiques.</p>



<p>La grande originalité de l’ouvrage tient à un dispositif méthodologique simple et très pédagogique, répété à chaque chapitre : l’écran, l’icône et le miroir. L’écran désigne le constat lucide du quotidien technologique : ce que nos dispositifs font concrètement à nos manières de travailler, de consommer, de nous informer, de désirer, de nous lier. L’icône ouvre un espace de relecture croyante : l’auteur met chaque situation en dialogue avec un ou plusieurs textes bibliques et des éléments de la Tradition, pour faire apparaître les tensions, appels et promesses. Le miroir propose enfin un discernement moral et spirituel : il s’agit d’identifier des marges concrètes de conversion, à la fois personnelles et communautaires. L’auteur propose ainsi une véritable méthode de discernement chrétien en contexte numérique : regarder en face notre réalité avec l’écran, prendre du recul avec l’icône, puis recevoir un appel à la conversion dans le miroir, où se réfléchissent nos responsabilités et celles de nos communautés.</p>



<p>L’ouvrage se déploie en sept chapitres, chacun consacré à un pan de notre vie numérique. Le premier chapitre traite de notre relation au smartphone. L’auteur analyse ensuite le télétravail et la porosité accrue entre sphère professionnelle et vie personnelle. À propos de l’information continue, le troisième chapitre souligne que l’Agneau dévoile le sens de l’histoire, et fait appel à une référence suggestive à Évagre le Pontique sur l’ennui et la tentation. Le quatrième chapitre sur les achats en ligne s’intéresse à l’accumulation de richesses. Le chapitre suivant aborde frontalement la question de la pornographie en ligne&nbsp;; le propos n’est pas lénifiant mais nuancé, structuré, exigeant. Le sixième chapitre s’intéresse ensuite s’intéresse aux connaissances en ligne et à l’apprentissage. Dans son dernier chapitre, l’auteur interroge la sociabilité numérique.</p>



<p>L’ouvrage se distingue par plusieurs contributions importantes. Il questionne théologiquement les mutations technologiques déjà à l’œuvre dans nos gestes les plus ordinaires. Il montre que la question est de savoir comment elle reconfigure l’attention, le travail, le désir, les relations, et donc la vie théologale.</p>



<p>Le projet central du livre est de « redire que la tradition chrétienne et catholique, même la plus ancienne, est susceptible de nous aider à désigner et repenser un certain nombre de caractéristiques de notre époque » (p. 115). En convoquant tour à tour l’Exode, l’Apocalypse, le récit d’Emmaüs, Augustin d’Hippone, Thomas d’Aquin…, l’auteur manifeste une grande confiance dans la capacité herméneutique de la Tradition.</p>



<p>Le triptyque écran / icône / miroir vaut bien au-delà des thématiques abordées&nbsp;: il fournit un schéma de discernement transférable à d’autres enjeux numériques (IA générative, jeux vidéo, métavers…). Regarder, relire, se convertir : telle est la dynamique proposée. On reconnaît là la marque d’un dominicain capable de tenir ensemble exigence intellectuelle et accompagnement pastoral. Le livre semble ainsi rassembler le fruit d’une expérience de terrain et de réflexions théologiques patiemment élaborées pour offrir un enseignement à la fois accessible et structuré sur quelques questions de notre temps.</p>



<p>Si le propos est d’abord personnel et ecclésial, l’auteur n’ignore pas les enjeux de justice et d’écologie. Il note ainsi qu’« il s’agirait aussi de souligner que ce bonheur matériel offert par les technologies de notre quotidien est disponible pour quelques-uns et qu’il a, à court, moyen et long terme, des conséquences en termes d’inégalités économiques et de désastres environnementaux » (p. 167).</p>



<p>En définitive, <em>L’Écran, l’icône et le miroir</em> offre une contribution précieuse à la théologie pratique du numérique. Loin de diaboliser ou de canoniser les technologies, Jacques-Benoît Rauscher prend acte de leur ambivalence et montre comment elles deviennent un lieu privilégié pour chercher Dieu dans un quotidien technologique.</p>



<p>Par sa méthode de discernement en trois temps, par la qualité de sa relecture biblique et traditionnelle, par son attention au concret des vies, ce livre rend de grands services à tous ceux — pasteurs, éducateurs, parents, laïcs engagés — qui cherchent à accompagner des fidèles plongés dans l’écosystème numérique. Il aide à articuler, de manière nuancée, les exigences de la vie spirituelle, les appels de la charité et les contraintes très réelles de nos environnements techniques.</p>



<p>Ouvrage : <a href="https://www.editionsddb.fr/product/131006/l-ecran-l-icone-et-le-miroir/">https://www.editionsddb.fr/product/131006/l-ecran-l-icone-et-le-miroir/</a></p>



<p><sub>Note déontologique : l’auteur est un ami.</sub></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.markert.fr/2025/11/30/lecran-licone-et-le-miroir/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>La Parole aux machines</title>
		<link>https://www.markert.fr/2025/11/29/la-parole-aux-machines/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=la-parole-aux-machines</link>
					<comments>https://www.markert.fr/2025/11/29/la-parole-aux-machines/#respond</comments>
		
		<dc:creator><![CDATA[Arnaud Markert]]></dc:creator>
		<pubDate>Sat, 29 Nov 2025 06:50:30 +0000</pubDate>
				<category><![CDATA[Intelligence artificielle et Numérique]]></category>
		<category><![CDATA[Philosophie]]></category>
		<category><![CDATA[deep learning]]></category>
		<category><![CDATA[philosophie de l'esprit]]></category>
		<guid isPermaLink="false">https://www.markert.fr/?p=976</guid>

					<description><![CDATA[Thibaut Giraud (Monsieur Phi), La Parole aux machines : Philosophie des grands modèles de langage, Grasset, Paris, Grasset, Octobre 2025, 475 pages. Dans cet ouvrage imposant, Thibaut Giraud, plus connu sous le pseudonyme de « Monsieur Phi », propose une &#8230; <a href="https://www.markert.fr/2025/11/29/la-parole-aux-machines/">Lire la suite­­</a>]]></description>
										<content:encoded><![CDATA[
<p>Thibaut Giraud (Monsieur Phi), <em>La Parole aux machines : Philosophie des grands modèles de langage</em>, Grasset, Paris, Grasset, Octobre 2025, 475 pages.</p>



<figure class="wp-block-image alignleft size-medium"><img loading="lazy" decoding="async" width="212" height="300" src="https://www.markert.fr/wp-content/uploads/2025/11/couv-La-Parole-aux-machines-212x300.jpg" alt="couverture du livre La Parole aux machines" class="wp-image-977" srcset="https://www.markert.fr/wp-content/uploads/2025/11/couv-La-Parole-aux-machines-212x300.jpg 212w, https://www.markert.fr/wp-content/uploads/2025/11/couv-La-Parole-aux-machines-723x1024.jpg 723w, https://www.markert.fr/wp-content/uploads/2025/11/couv-La-Parole-aux-machines-768x1088.jpg 768w, https://www.markert.fr/wp-content/uploads/2025/11/couv-La-Parole-aux-machines.jpg 812w" sizes="auto, (max-width: 212px) 100vw, 212px" /></figure>



<p>Dans cet ouvrage imposant, Thibaut Giraud, plus connu sous le pseudonyme de « Monsieur Phi », propose une véritable <em>philosophie des grands modèles de langage</em> (<em>Large Language Models</em>, LLM). Situé au croisement de la philosophie de l’esprit, de l’épistémologie et de l’éthique de l’intelligence artificielle, le livre se présente comme une introduction très approfondie à ce que sont les modèles de type GPT, à ce qu’ils font – et, surtout, à ce que <em>cela signifie</em> pour notre compréhension de l’intelligence, du langage et de l’humain.</p>



<p>Dès la première phrase, le ton est donné : « Nous avons perdu le monopole du langage » (p. 11). Les machines qui parlent ne relèvent plus de la science-fiction ; elles sont désormais notre interlocuteur quotidien. Giraud ne cède ni à l’enthousiasme naïf ni au catastrophisme facile : ce qu’il déploie est une lucidité que l’on pourrait dire « obscurcissante » au bon sens du terme, en ce qu’elle éclaire la réalité présente sans prétendre prédire l’avenir, même si le présage est manifeste : l’irruption des LLM reconfigure en profondeur notre manière de penser la pensée.</p>



<p>Les premiers chapitres constituent une synthèse remarquablement pédagogique des fondements techniques des LLM, structurés autour d’une histoire interne des modèles GPT.</p>



<ul class="wp-block-list">
<li>Le chapitre 1 introduit l’apprentissage profond (<em>deep learning</em>) : réseaux de neurones, entraînement, optimisation, rôle des données massives. Giraud parvient à expliquer des notions ardues sans sacrifier la précision, ce qui fait de ce début d’ouvrage l’une des meilleures mises en route disponibles pour un lecteur philosophe ou cultivé, mais non spécialiste de l’IA.</li>



<li>Le chapitre 2 (« comment vinrent les premiers mots ») présente les premiers modèles de fondation de type GPT-1 et GPT-2, ainsi que leur manière très particulière de « comprendre » le langage : prédire le mot suivant à partir d’énormes corpus. L’auteur montre comment cette tâche apparemment triviale donne naissance à des capacités émergentes et pose déjà des questions classiques de philosophie de l’esprit : qu’est-ce que <em>comprendre</em> quand on ne dispose ni de corps propre ni de monde perçu ?</li>



<li>Le chapitre 3 s’attarde sur GPT-3, l’apprentissage en peu de coups (<em>few-shot learning</em>) et la tentation du « baratin » : ces modèles apparaissent étonnamment compétents dans des tâches jamais explicitement apprises, mais aussi capables de produire un discours convaincant et vide – un logorrhée plausible qui met en crise nos critères ordinaires de fiabilité.</li>



<li>Le chapitre 4 explore l’« éducation morale » des modèles via le <em>Reinforcement Learning from Human Feedback</em> (RLHF), c’est-à-dire la phase où des humains évaluent les réponses pour « aligner » le modèle sur certaines normes. Giraud traite ici des hallucinations de ChatGPT et montre que la moralisation des sorties n’élimine ni le baratin ni l’erreur, mais reconfigure le type de risques. Une annexe particulièrement précieuse est consacrée à l’impact écologique des LLM : l’auteur déconstruit certaines idées reçues et montre que les coûts environnementaux ne sont ni simples ni univoques – et peut-être pas là où l’on croit spontanément.</li>



<li>Le chapitre 5 pose la question : pourquoi le modèle GPT-4 est-il si puissant ? C’est l’occasion d’analyser la notion de persona et les <em>prompt systems</em>, ces cadres implicites qui organisent la manière dont le modèle doit répondre. Giraud fait ici un rapprochement suggestif avec les lois de la robotique d’Asimov : les instructions systémiques ressemblent à des pseudo-lois morales, fragiles et révisables, qui encadrent l’agent conversationnel sans garantir un véritable sens moral.</li>
</ul>



<p>Dans cette première partie, la philosophie de l’esprit est déjà en arrière-plan : ce que nous découvrons, c’est une architecture qui, sans cerveau biologique, parvient à manifester des comportements que nous avons longtemps associés à l’intelligence humaine. Le livre montre dès lors combien il devient difficile de maintenir un discours simpliste consistant à dire « ce ne sont que des perroquets statistiques ».</p>



<p>La seconde moitié de l’ouvrage s’oriente plus explicitement vers la philosophie de l’esprit et la théorie de l’intelligence.</p>



<ul class="wp-block-list">
<li>Le chapitre 6 affronte directement la question : <em>qu’est-ce que l’intelligence</em> ? Giraud mobilise plusieurs définitions, discute la perspective fonctionnaliste et revient sur les discussions autour des « premières étincelles d’intelligence générale artificielle » (p. 183) que certains voient dans GPT-4 (AGI, <em>Artificial General Intelligence</em>). Sans trancher, il montre combien une position fonctionnaliste robuste rend difficile la ligne de partage nette entre humain et machine dès lors que les performances convergent. La critique de la proposition de Raphaël Enthoven de préserver à l’homme un « je ne sais quoi » est à cet égard éclairante : ce refuge dans l’indicible est philosophiquement fragile. Pour un lecteur théologien, ces pages résonnent fortement avec les questions d’<em>imago Dei</em>, des puissances de l’âme et de l’articulation entre esprit et chair, même si Giraud n’explore pas ces prolongements.</li>



<li>Le chapitre 7, au titre dickien (« Les LLM rêvent-ils de cavaliers électriques ?»), interroge l’hypothèse d’une représentation interne du monde au sein des modèles de fondation. Les LLM construisent-ils une forme de carte du réel ? Peut-on parler de « monde interne » sans tomber dans l’anthropomorphisme ? Ce chapitre tente de spécifier ce en quoi une forme de « compréhension » pourrait émerger à partir de corrélations statistiques.</li>



<li>Le chapitre 8, « perroquet stochastique et chambre chinoise », s’attaque aux deux critiques populaires : les LLM ne seraient que des perroquets statistiques et l’argument de la chambre chinoise (Searle) prouverait qu’ils ne comprennent rien. Giraud montre que ces deux images, telles qu’elles sont vulgarisées, sont largement erronées ou, au mieux, très incomplètes. Il ne s’agit pas tant de dire que les LLM <em>comprennent</em> au sens humain fort du terme que de déplacer la question : <em>qu’est-ce que nous appelons « comprendre »</em> ? Sur quel spectre de la compréhension situer ces systèmes ? L’ouvrage invite ainsi à une graduation des notions de compréhension plutôt qu’à une opposition binaire.</li>



<li>Le chapitre 9 aborde la conscience. De manière convaincante, Giraud montre qu’on ne peut guère affirmer de manière péremptoire que « les LLM ou les IA en général ne sont pas et ne seront jamais conscients » (p. 335). On peut au moins dire qu’ils simulent extrêmement bien certains aspects de la conscience (introspection verbale, narrativité de soi, etc.). La conclusion est prudente, mais elle disqualifie les slogans rassurants et oblige à penser la conscience comme un problème ouvert.</li>
</ul>



<p>Ces développements ouvrent des questions redoutables : comment traiter des agents qui sont ou seront plus ou moins sentients ? Comment évaluer leurs chaînes de pensée (<em>Chain of Thoughts</em>, CoT) et leur degré d’autonomie ? Selon quels critères aligner ces systèmes à « nos » valeurs, alors même que ces valeurs sont pluriels et conflictuelles ?</p>



<p>C’est ici qu’intervient l’une des hypothèses les plus originales du livre : celle des « attracteurs moraux ». Parce que les LLM sont entraînés sur des textes humains, leurs représentations internes incorporent statistiquement une forme d’inclination vers certains régimes normatifs majoritaires, notamment les morales universalistes (droits de l’homme, égalité, etc.). Giraud suggère que ces attractions statistiques vers le « bien » tel que formulé dans nos cultures pourraient jouer un rôle dans l’alignement pratique. Il ne s’agit pas d’une garantie morale, mais d’une piste stimulante, qui relie architecture technique et philosophie morale d’une manière peu commune.</p>



<p>L’ensemble du livre se distingue par deux grandes qualités.</p>



<p>D’abord, la première partie, historique et technique, est exigeante pour le néophyte, mais d’une clarté rare. Pour qui souhaite comprendre en profondeur l’architecture des LLM, de l’apprentissage profond aux techniques d’alignement, il est difficile de citer un équivalent en français qui soit à la fois aussi juste et aussi pédagogique. On sent le professeur habitué à expliquer des notions complexes à un large public sans les dénaturer.</p>



<p>Ensuite, la seconde partie, davantage proprement philosophique, est riche pour tout lecteur intéressé par la philosophie de l’esprit, l’intelligence artificielle et l’épistémologie du langage. Même lorsque l’on ne partage pas le cadre fonctionnaliste implicite ou explicite de l’auteur, la manière dont il documente les arguments, clarifie les concepts et déconstruit les objections rapides (perroquet stochastique, chambre chinoise, slogans sur la non-conscience) en fait un interlocuteur sérieux et stimulant.</p>



<p><em>La Parole aux machines</em> est, à ce stade, l’un des ouvrages les plus complets en langue française sur les grands modèles de langage, à la jonction de l’analyse technique, de la philosophie de l’esprit et de la philosophie morale. Il accompagne le lecteur de l’architecture de l’apprentissage profond à la question de la conscience, en passant par la compréhension, l’intelligence générale artificielle et l’alignement.</p>



<p>En montrant que « nous avons perdu le monopole du langage », Thibaut Giraud ne cherche ni à dévaluer l’humain ni à sacraliser la machine. Il invite plutôt à un travail de clarification conceptuelle et de discernement critique : comprendre ce que font réellement les LLM, ce qu’ils déplacent dans nos manières de penser l’intelligence, et ce que cela implique pour notre manière d’habiter désormais un monde où d’autres parlent avec nous, et parfois à notre place.</p>



<p>Pour les chercheurs en philosophie de l’esprit, en éthique de l’IA, en sciences du langage ou en théologie désireuse de dialoguer avec les sciences et les technologies, ce livre constitue une ressource introductive, à la fois stimulante et parfois dérangeante – au bon sens du terme.</p>



<p>Ouvrage : <a href="https://www.grasset.fr/livre/la-parole-aux-machines-9782246841654/">https://www.grasset.fr/livre/la-parole-aux-machines-9782246841654/</a></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.markert.fr/2025/11/29/la-parole-aux-machines/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Rapport : L&#8217;IA dans les établissements scolaires</title>
		<link>https://www.markert.fr/2025/11/26/rapport-lia-dans-les-etablissements-scolaires/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=rapport-lia-dans-les-etablissements-scolaires</link>
					<comments>https://www.markert.fr/2025/11/26/rapport-lia-dans-les-etablissements-scolaires/#respond</comments>
		
		<dc:creator><![CDATA[Arnaud Markert]]></dc:creator>
		<pubDate>Wed, 26 Nov 2025 14:35:37 +0000</pubDate>
				<category><![CDATA[Education]]></category>
		<category><![CDATA[Ethique]]></category>
		<category><![CDATA[Intelligence artificielle et Numérique]]></category>
		<guid isPermaLink="false">https://www.markert.fr/?p=972</guid>

					<description><![CDATA[IGÉSR, Rapport « L’intelligence artificielle dans les établissements scolaires, sur le plan administratif et pédagogique », mai 2025. En ligne sur https://www.education.gouv.fr/l-intelligence-artificielle-dans-les-etablissements-scolaires-450655 ; consulté le 25/11/2025 à 15h20. Le rapport de l’Inspection générale de l’éducation, du sport et de la &#8230; <a href="https://www.markert.fr/2025/11/26/rapport-lia-dans-les-etablissements-scolaires/">Lire la suite­­</a>]]></description>
										<content:encoded><![CDATA[
<p><strong>IGÉSR, Rapport « L’intelligence artificielle dans les établissements scolaires, sur le plan administratif et pédagogique », mai 2025</strong>. En ligne sur <a href="https://www.education.gouv.fr/l-intelligence-artificielle-dans-les-etablissements-scolaires-450655">https://www.education.gouv.fr/l-intelligence-artificielle-dans-les-etablissements-scolaires-450655</a> ; consulté le 25/11/2025 à 15h20.</p>



<figure class="wp-block-image alignleft size-medium"><img loading="lazy" decoding="async" width="212" height="300" src="https://www.markert.fr/wp-content/uploads/2025/11/igesr-rapport-24-25-016b-intelligence-artificielle-etablissements-scolaires-plan-administratif-et-pedagogique-212x300.png" alt="" class="wp-image-973" srcset="https://www.markert.fr/wp-content/uploads/2025/11/igesr-rapport-24-25-016b-intelligence-artificielle-etablissements-scolaires-plan-administratif-et-pedagogique-212x300.png 212w, https://www.markert.fr/wp-content/uploads/2025/11/igesr-rapport-24-25-016b-intelligence-artificielle-etablissements-scolaires-plan-administratif-et-pedagogique-724x1024.png 724w, https://www.markert.fr/wp-content/uploads/2025/11/igesr-rapport-24-25-016b-intelligence-artificielle-etablissements-scolaires-plan-administratif-et-pedagogique-768x1087.png 768w, https://www.markert.fr/wp-content/uploads/2025/11/igesr-rapport-24-25-016b-intelligence-artificielle-etablissements-scolaires-plan-administratif-et-pedagogique.png 800w" sizes="auto, (max-width: 212px) 100vw, 212px" /></figure>



<p>Le rapport de l’Inspection générale de l’éducation, du sport et de la recherche (IGÉSR), <em>Intelligence artificielle et établissements scolaires : plan administratif et pédagogique</em> (réf. 24-25-016B), s’inscrit dans un contexte de diffusion rapide des outils d’intelligence artificielle générative (IAG) dans la société et, de façon de plus en plus visible, dans les établissements scolaires. Il vise à dresser un état des lieux des usages de l’IA dans les écoles et établissements, à évaluer les opportunités et les risques, et à formuler des recommandations à la fois administratives et pédagogiques.</p>



<p>Le texte se situe explicitement à l’interface des politiques publiques (pilotage, régulation, sécurité, conformité juridique) et des pratiques de classe (pédagogie, évaluation, formation des personnels, relations éducatives). Il s’adresse donc autant aux équipes de direction, aux corps d’inspection et aux services académiques, qu’aux enseignants et formateurs engagés dans la transformation des pratiques.</p>



<p>Le rapport propose d’abord un état des lieux des usages de l’IA dans les établissements scolaires. Il souligne la grande hétérogénéité des pratiques : d’un côté, des équipes et des enseignants encore peu informés ou méfiants, de l’autre, des pionniers qui expérimentent des usages variés (aide à la préparation de cours, différenciation pédagogique, accompagnement à l’écriture, soutien à l’évaluation formative, etc.).</p>



<p>Cet état des lieux insiste aussi sur la dimension « souterraine » de certains usages : de nombreux élèves recourent à l’IA générative (pour rédiger, traduire, résumer, produire des contenus multimédias), parfois sans en comprendre les limites, et souvent sans que les enseignants soient en mesure d’identifier clairement les apports de l’outil. Ce décalage contribue à ce que le rapport nomme, explicitement ou implicitement, une forme de « spoliation cognitive » : l’élève peut déléguer à l’IA une part décisive du travail de pensée (recherche, structuration, rédaction), au risque de se voir dépossédé de sa propre activité intellectuelle.</p>



<p>Le rapport ne se contente pas de pointer les risques : il s’attache à évaluer les opportunités offertes par l’IA, à condition qu’elles soient intégrées dans un cadre éthique et pédagogique cohérent. Il insiste notamment sur la capacité des outils d’IA :</p>



<ul class="wp-block-list">
<li>à soutenir la différenciation pédagogique (proposer des exercices variés, adapter les supports à des profils d’élèves) ;</li>



<li>à faciliter certaines tâches de gestion et de préparation (génération de trames, de questions, d’exemples) ;</li>



<li>à nourrir des pédagogies de projet, à condition qu’elles soient véritablement construites autour d’une démarche collective et réflexive.</li>
</ul>



<p>Le rapport formule ici une thèse importante : « la question des outils est secondaire par rapport aux questions des usages et aux enjeux éthiques » (p. 25). Autrement dit, ce ne sont ni la puissance technique, ni la nouveauté des dispositifs qui doivent guider l’action éducative, mais les finalités poursuivies, la manière dont les outils sont mis en œuvre, et les valeurs qu’ils servent.</p>



<p>Un apport notable du rapport est de relier explicitement les usages d’IA à la gouvernance pédagogique des établissements. L’IGÉSR invite à inscrire la « place du numérique éducatif et de l’IA dans le projet d’établissement » (p. 8), ce qui revient à :</p>



<ul class="wp-block-list">
<li>articuler les choix technologiques avec les priorités éducatives (réussite de tous, prévention du décrochage, formation du jugement, éducation aux médias et à l’information, etc.) ;</li>



<li>éviter que l’IA ne soit un « add-on » marginal, ou au contraire une fuite en avant techniciste, détachée des enjeux pédagogiques réels ;</li>



<li>structurer un dialogue entre direction, équipes pédagogiques, élèves et familles sur les finalités et les limites d’une éducation augmentée par l’IA.</li>
</ul>



<p>Cette inscription dans le projet d’établissement est cohérente avec une perspective où l’IA n’est pas un simple gadget, mais un facteur de recomposition des pratiques, des représentations du savoir, et de la culture d’établissement.</p>



<p>Le rapport interroge directement les pratiques d’évaluation et la pédagogie, avec un diagnostic fort : l’introduction de l’IA rend caduque une culture trop centrée sur le produit final (copie, dossier, exposé), au détriment du processus d’apprentissage.</p>



<p>Une formule particulièrement significative l’exprime : « l’IA renforce l’importance du processus plutôt que l’évaluation du seul produit final sur lequel porte pourtant l’essentiel de la culture évaluative en éducation » (p. 27).<br>Autrement dit, si l’on veut éviter la triche assistée par IA, il ne suffit pas de mieux surveiller les copies ; il faut revoir la conception même des tâches, des critères d’évaluation, et de la place donnée au travail en cours (brouillons, étapes, relectures, interactions, oralisation des démarches, etc.).</p>



<p>Le rapport va jusqu’à affirmer que « la priorité donnée à la détection de la fraude occulte la nécessité plus prioritaire de développer une éducation pour une pratique éthique de l’IA » (p. 11). La lutte contre la fraude est certes légitime, mais lorsqu’elle devient l’axe dominant, elle risque :</p>



<ul class="wp-block-list">
<li>d’alimenter une culture de suspicion générale ;</li>



<li>de réduire l’IA à un ennemi à neutraliser ;</li>



<li>et surtout d’empêcher de former les élèves à une éthique de l’usage : discernement, vérification des sources, conscience des limites, responsabilité dans la co-production de contenus.</li>
</ul>



<p>En ce sens, le rapport appelle à une véritable conversion de la culture évaluative, où l’on passerait d’un contrôle du produit à une valorisation du cheminement intellectuel, de la réflexivité et du dialogue critique autour des productions (y compris assistées par IA).</p>



<p>L’un des mérites centraux du rapport est son insistance répétée sur le fait que « la question des outils est secondaire par rapport aux questions des usages et aux enjeux éthiques » (p. 25). Dans un paysage où l’on se focalise volontiers sur la performance des modèles, le type d’algorithme ou la course à l’innovation, cette hiérarchisation est salutaire.</p>



<p>Le rapport insiste en particulier sur la nécessité de :</p>



<ul class="wp-block-list">
<li>former élèves et enseignants à l’analyse critique des réponses de l’IA (fiabilité, hallucinations, biais, stéréotypes…) ;</li>



<li>développer une culture de responsabilité qui évite la spoliation cognitive, c’est-à-dire l’abandon silencieux du travail intellectuel au profit d’une production immédiate, lisse mais superficielle ;</li>



<li>penser les outils d’IA comme des médiations et non des substituts, afin de préserver le rôle de la relation éducative et de la construction personnelle du savoir.</li>
</ul>



<p>Le rapport n’est pas seulement critique : il esquisse des pistes positives. Il souligne que « les outils IA peuvent renforcer la coopération et la cohésion, à condition d’être intégrés à une pédagogie de projet construite autour d’une approche collective » (p. 25).</p>



<p>Autrement dit, l’IA peut devenir :</p>



<ul class="wp-block-list">
<li>un instrument de co-écriture, où l’on discute, commente, corrige ce que propose le modèle ;</li>



<li>un support de débats interprétatifs (par exemple, confronter les réponses de l’IA à des sources savantes, ou aux propositions des élèves) ;</li>



<li>un outil pour répartir les tâches dans un projet collectif, en explicitant ce qui relève de l’humain (choix, argumentation, discernement) et ce qui peut être automatisé.</li>
</ul>



<p>Dans cette perspective, l’IA n’isole pas l’élève derrière son écran, mais devient un objet d’enquête et de discussion, un prétexte à travail coopératif. Elle peut ainsi contribuer à résister à une dissociation sociale que le rapport identifie comme un risque majeur : fragmentation des expériences, isolement des élèves face aux écrans, dilution des liens inter-personnels.</p>



<p>Le rapport emploie l’expression « les relations entre Homme et machine » (p. 17), qui peut être jugée malheureuse. En effet, elle tend à confondre :</p>



<ul class="wp-block-list">
<li>la relation, qui suppose réciprocité, reconnaissance et altérité personnelle ;</li>



<li>le rapport, qui renvoie à un type de lien fonctionnel, instrumental ou technique ;</li>



<li>la médiation, qui désigne ce par quoi une relation entre personnes est facilitée, enrichie ou parfois obstruée.</li>
</ul>



<p>Parler de « relation » entre un sujet humain et un dispositif algorithmique risque d’anthropomorphiser la machine et de minimiser la dimension proprement interpersonnelle de l’éducation. Une formulation plus précise (« rapports homme-machine », « médiations techniques dans les relations éducatives ») aurait permis de clarifier les enjeux, notamment pour un public enseignant déjà confronté aux dérives de la personnification des agents conversationnels.</p>



<p>De même, la formule « L’IA générative n’est fondamentalement pas créative&nbsp;» (p. 21) est problématique à plusieurs titres. On comprend la thèse de fond : l’IA génère du contenu par recombinaison statistique de données préexistantes, sans expérience vécue, sans intentionnalité ni responsabilité. D’un point de vue anthropologique et éthique, on peut donc soutenir qu’elle ne « crée » pas au sens fort (pas de subjectivité, pas de finalité interne, pas de sens assumé à priori).</p>



<p>Cependant, l’énoncé tel quel, sans nuances, prête le flanc à la critique :</p>



<ul class="wp-block-list">
<li>au niveau philosophique, il supposerait une définition très précise et consensuelle de la créativité – ce qui s’avère loin d’être le cas ;</li>



<li>au niveau didactique, il risque de déstabiliser des enseignants qui constatent empiriquement que les productions de l’IA peuvent être originales, surprenantes, voire heuristiques dans les processus d’apprentissage.</li>
</ul>



<p>Une formulation plus fine – par exemple en distinguant créativité « forte » (ancrée dans un sujet, une histoire, une responsabilité) et créativité « faible » (variations combinatoires, générativité formelle) – aurait permis de tenir ensemble la critique anthropologique et l’expérience pédagogique des usagers.</p>



<p>Le rapport souligne à plusieurs reprises le risque de « spoliation cognitive » : lorsque l’élève délègue systématiquement les tâches de compréhension, de reformulation et de structuration à l’IA, il se prive de l’exercice même par lequel se forme l’intelligence. L’outil, loin d’être un simple assistant, devient alors un substitut, au risque d’atrophier les capacités d’attention, de mémoire et de jugement.</p>



<p>Ce phénomène s’accompagne d’une possible dissociation sociale : les élèves les plus dotés en capital culturel, accompagnés par des adultes capables de leur apprendre un usage critique de l’IA, peuvent en faire un levier de réussite. À l’inverse, d’autres risquent de se contenter de réponses toutes faites, sans encadrement ni réflexivité, accentuant ainsi les inégalités de réussite et la fracture numérique.</p>



<p>Le rapport conclut – et c’est l’un de ses apports les plus structurants – que «&nbsp;l’IA renforce le besoin d’un lien fort entre école et recherche » (p. 32). Cette affirmation ouvre un horizon de travail qui dépasse largement la simple formation technique des enseignants :</p>



<ul class="wp-block-list">
<li>associer davantage les équipes à des programmes de recherche-action, pour documenter les effets réels des usages d’IA en classe ;</li>



<li>nourrir la réflexion des établissements par des apports de sciences de l’éducation, de philosophie, de sociologie, de théologie (pour les établissements catholiques), afin d’éclairer les enjeux anthropologiques et éthiques ;</li>



<li>construire des outils d’analyse et des indicateurs qui ne se limitent pas aux performances, mais intègrent l’impact sur l’attention, la motivation, la qualité des interactions et le sens donné aux apprentissages.</li>
</ul>



<p>Cette insistance sur le lien école–recherche rejoint l’idée que l’IA n’est pas un « simple » outil, mais un révélateur de tensions profondes de l’école contemporaine : rapport au savoir, culture de l’évaluation, place du numérique, rôle de la communauté éducative.</p>



<p>En définitive, le rapport de l’IGÉSR offre une contribution substantielle et utile à la réflexion institutionnelle et pédagogique sur l’intelligence artificielle en milieu scolaire. On peut résumer ses apports principaux ainsi :</p>



<ul class="wp-block-list">
<li>un <strong>état des lieux</strong> lucide des usages émergents, des inquiétudes (fraude, plagiat, inégalités, spoliation cognitive) et des attentes des acteurs ;</li>



<li>une <strong>évaluation des opportunités</strong>, qui insiste sur la coopération, la pédagogie de projet et la revalorisation des processus d’apprentissage ;</li>



<li>une <strong>interpellation directe des pratiques d’évaluation</strong> et, plus largement, de la culture pédagogique dominée par le produit fini ;</li>



<li>un <strong>recentrage éthique</strong> affirmant la primauté des usages, des finalités et de la formation au discernement, sur la fascination pour les outils eux-mêmes ;</li>



<li>une invitation structurante à inscrire la <strong>place du numérique éducatif et de l’IA dans le projet d’établissement</strong>, et à renforcer le <strong>lien entre école et recherche</strong>.</li>
</ul>



<p>Ses limites ne sont pas négligeables : quelques formulations discutables, un certain manque d’exemples disciplinaires fins, et une articulation encore à préciser entre recommandations nationales et marges d’initiative locales.</p>



<p>Mais ces fragilités ne diminuent pas la valeur du rapport comme cadre de travail pour les équipes de direction, les enseignants, les formateurs et les tutelles. Il constitue une base solide pour engager, dans chaque établissement, un travail de discernement et de refonte des pratiques, en refusant à la fois la diabolisation de l’IA et son adoption naïve. En ce sens, il contribue à ce que l’école ne soit ni dépossédée ni dépassée, mais devienne un lieu où l’IA est mise au service d’une véritable croissance humaine, intellectuelle et relationnelle.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.markert.fr/2025/11/26/rapport-lia-dans-les-etablissements-scolaires/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>L&#8217;Homme démantelé : Comment le numérique consume nos existences</title>
		<link>https://www.markert.fr/2025/11/19/lhomme-demantele-comment-le-numerique-consume-nos-existences/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=lhomme-demantele-comment-le-numerique-consume-nos-existences</link>
					<comments>https://www.markert.fr/2025/11/19/lhomme-demantele-comment-le-numerique-consume-nos-existences/#respond</comments>
		
		<dc:creator><![CDATA[Arnaud Markert]]></dc:creator>
		<pubDate>Wed, 19 Nov 2025 17:26:49 +0000</pubDate>
				<category><![CDATA[Ethique]]></category>
		<category><![CDATA[Intelligence artificielle et Numérique]]></category>
		<category><![CDATA[Philosophie]]></category>
		<category><![CDATA[anthropologie]]></category>
		<category><![CDATA[critique sociale]]></category>
		<guid isPermaLink="false">https://www.markert.fr/?p=969</guid>

					<description><![CDATA[Baptiste DETOMBE, L&#8217;Homme démantelé : Comment le numérique consume nos existences, Perpignan, Artège, 2025, 237 p. Avec L’Homme démantelé — sélectionné pour le Prix essais de L’Incorrect 2025 et préfacé par Rémi Brague —, Baptiste Detombe propose un essai de &#8230; <a href="https://www.markert.fr/2025/11/19/lhomme-demantele-comment-le-numerique-consume-nos-existences/">Lire la suite­­</a>]]></description>
										<content:encoded><![CDATA[
<p><strong>Baptiste DETOMBE, <em><a href="https://www.editionsartege.fr/product/132035/l-homme-demantele/">L&rsquo;Homme démantelé : Comment le numérique consume nos existences</a></em>, Perpignan, Artège, 2025, 237 p.</strong></p>



<figure class="wp-block-image alignleft size-medium"><img loading="lazy" decoding="async" width="187" height="300" src="https://www.markert.fr/wp-content/uploads/2025/11/image-187x300.jpg" alt="" class="wp-image-970" srcset="https://www.markert.fr/wp-content/uploads/2025/11/image-187x300.jpg 187w, https://www.markert.fr/wp-content/uploads/2025/11/image.jpg 512w" sizes="auto, (max-width: 187px) 100vw, 187px" /></figure>



<p>Avec <em>L’Homme démantelé</em> — sélectionné pour le Prix essais de <em>L’Incorrect</em> 2025 et préfacé par Rémi Brague —, Baptiste Detombe propose un essai de critique radicale du numérique qui se situe à la croisée de la philosophie, de l’anthropologie et d’une réflexion implicite sur la pédagogie et la vie spirituelle.</p>



<p>L’ouvrage paraît dans un moment où les diagnostics alarmés sur les effets des écrans se multiplient (Desmurget, Patino, Sadin&#8230;), mais Detombe ne se contente pas d’ajouter une voix à un chœur déjà fourni : il cherche à penser la situation comme une véritable tragédie anthropologique, où se joue « le sacrifice d’une génération dévorée par l’ogre numérique ».</p>



<p>Le cœur de la thèse tient dans l’image de l’« homme démantelé » : loin d’un homme « augmenté », le numérique produit un sujet fragmenté, « atomisé », dont le temps, le corps, la pensée et la relation sont pulvérisés par les logiques d’hyper-connexion et de marchandisation de l’attention.</p>



<p>Le livre s’organise en chapitres thématiques qui suivent les grandes étapes de l’existence et les dimensions fondamentales de l’expérience humaine :</p>



<ul class="wp-block-list">
<li><strong>L’enfance</strong>, privée d’émerveillement et d’innocence par l’exposition précoce aux écrans et l’immersion dans des univers numériques captateurs.</li>



<li><strong>La jeunesse</strong>, privée de sa « fougue » et de ses premières expériences réelles, substituées par des simulations et des interactions médiées par des plateformes.</li>



<li><strong>L’âge adulte</strong>, enfermé dans une insatisfaction chronique et la pression permanente de la performance, du <em>personal branding</em> et de la comparaison sociale.</li>



<li><strong>La vieillesse</strong>, disqualifiée comme « dépassée », marginalisée dans un monde dont les codes technologiques changent à une vitesse qui rend le legs de l’expérience difficilement audible.</li>
</ul>



<p>À ces analyses chronologiques, Detombe ajoute une lecture plus systémique de la condition contemporaine :</p>



<ul class="wp-block-list">
<li>le <strong>temps est pulvérisé</strong> par les notifications, les flux infinis des réseaux sociaux, la culture de la disponibilité permanente ;</li>



<li>le <strong>corps est oublié</strong>, dans un univers présenté comme dématérialisé, alors que toute existence humaine est indépassablement incarnée ;</li>



<li>la <strong>pensée est menacée</strong> par la confusion entre information et savoir, par l’appauvrissement de l’imaginaire et par l’atrophie de l’attention soutenue.</li>
</ul>



<p>L’« homme numérique » voit ainsi sa singularité se dissoudre : enfermé dans ses « communautés » d’algorithmes, évalué en continu à l’aune de ses performances, il glisse « de sujet à objet », puis de personne à marchandise, selon une logique mercantile qui consomme simultanément le temps, l’intériorité et les liens.</p>



<p>Detombe adopte une posture <strong>philosophique et humaniste</strong>, nourrie de références explicites à Bernanos, Ellul, Debord, Simondon, mais aussi à Rémi Brague, dont la préface inscrit le propos dans une perspective où l’enjeu n’est pas seulement psychologique ou social, mais bien <strong>anthropologique et spirituel</strong>.</p>



<p>Son écriture conjugue trois registres :</p>



<ol class="wp-block-list">
<li><strong>Le diagnostic culturel</strong> : le numérique est saisi comme un milieu global qui reconfigure les temporalités, les relations, les formes d’autorité, le rapport au savoir.</li>



<li><strong>L’anthropologie implicite</strong> : l’auteur défend une vision de l’homme comme être de lenteur, d’ennui, d’inquiétude créatrice, d’émerveillement, de gratuité. Ce sont précisément ces dimensions que l’« ogre numérique » détruit méthodiquement.</li>



<li><strong>L’appel au discernement</strong> : sans prôner la déconnexion totale, Detombe invite à une <strong>résistance douce</strong>, une « désobéissance » au normatif technologique, par la reconquête d’une souveraineté intérieure.</li>
</ol>



<p>On retrouve ainsi les grandes lignes de la critique de la « société technicienne » (Ellul), de la « société du spectacle » (Debord) ou de la critique du transhumanisme, mais transposées à l’ère des plateformes, de l’économie de l’attention et des réseaux sociaux.</p>



<p>L’ouvrage ne s’en tient pas à un constat catastrophiste. Dans sa dernière partie, Detombe esquisse plusieurs <strong>ressources de résistance</strong> :</p>



<ul class="wp-block-list">
<li><strong>La culture</strong> : comme moyen de sortir de soi, de réapprendre la lenteur et la distance critique, de se confronter à des œuvres qui excèdent l’instantanéité des contenus numériques.</li>



<li><strong>La singularité du christianisme</strong> : évoquée comme « religion de l’incarnation », elle rappelle que l’homme n’est pas code ou flux, mais chair, histoire, visage. L’incarnation est ici invoquée comme antidote à la tentation d’une existence entièrement médiée par des interfaces.</li>



<li><strong>La décision politique</strong> : l’auteur refuse de réduire la question au seul registre de l’hygiène personnelle. La régulation des plateformes, la protection des enfants, le statut des données, la place du numérique à l’école sont saisis comme des enjeux proprement politiques.</li>



<li><strong>La vie intérieure et l’espérance</strong> : Detombe insiste enfin sur la nécessité d’une vie intérieure ouverte à l’espérance, contre la dispersion et la saturation informationnelle. Il s’agit de retrouver silence, prière ou méditation, et de reconsidérer l’ennui comme espace de fécondité plutôt que comme vide à combler.</li>
</ul>



<p>Cette quadruple ressource (culture, foi, politique, intériorité) donne à l’essai une tonalité singulière par rapport à d’autres critiques du numérique : il ne s’agit pas seulement de dénoncer, mais de suggérer les contours d’une <strong>reconstruction anthropologique</strong>.</p>



<p>On peut souligner plusieurs forces majeures :</p>



<ul class="wp-block-list">
<li><strong>La puissance des images et du style</strong>. L’expression d’« ogre numérique » ou la formule selon laquelle « l’homme numérique n’est pas augmenté, il est atomisé » condensent, en quelques mots, un diagnostic complexe sur la fragmentation de l’expérience contemporaine. Le style reste accessible, sans jargon, tout en s’autorisant des références exigeantes, ce qui rend le livre lisible par un large public (parents, enseignants, responsables pastoraux) sans sacrifier la densité intellectuelle.</li>



<li><strong>La profondeur anthropologique</strong>. Là où une partie de la littérature se focalise sur les performances scolaires, les troubles de l’attention ou les risques d’addiction, Detombe s’intéresse à ce que le numérique fait à l’<strong>émerveillement</strong>, à l’ennui, à la gratuité du jeu, à la qualité de la rencontre. En ce sens, l’essai rejoint des préoccupations proches de Desmurget ou Patino, mais en les articulant davantage à des questions d’âme, de vocation, de sens de la vie.</li>



<li><strong>L’ouverture spirituelle et éducative</strong>. En invoquant explicitement la culture et le christianisme comme ressources, l’ouvrage ouvre un espace de dialogue précieux pour les milieux éducatifs et ecclésiaux : comment former des sujets capables de résister à la normativité numérique, non par simple rejet de la technique, mais par un patient apprentissage d’une autre manière d’habiter le monde ?</li>
</ul>



<p>Les pistes de sortie proposées – culture, incarnation, politique, intériorité – sont plus <strong>programmatiques qu’opérationnelles</strong>. On aurait pu souhaiter, notamment pour le champ éducatif, des déclinaisons plus concrètes :</p>



<ul class="wp-block-list">
<li>quelles politiques numériques à l’école ?</li>



<li>quels dispositifs communautaires pour soutenir les familles ?</li>



<li>quels critères éthiques pour l’usage raisonné des technologies plutôt qu’une simple opposition symbolique ?</li>
</ul>



<p>De même, si l’auteur se réfère à de grands noms de la critique sociale, le dialogue avec les travaux empiriques de psychologie, de sociologie de la jeunesse ou des usages numériques reste en arrière-plan ; l’essai assume davantage une posture de <strong>philosophe moral</strong> qu’un statut de recherche au sens académique strict.</p>



<p>Malgré ces limites, <em>L’Homme démantelé</em> constitue une contribution importante au champ des réflexions sur le numérique, en particulier pour ceux qui travaillent à l’articulation entre <strong>anthropologie, éducation et spiritualité</strong>.</p>



<p>Pour les chercheurs en sciences de l’éducation, en éthique de la technologie ou en théologie pratique, l’ouvrage offre :</p>



<ul class="wp-block-list">
<li>un <strong>cadre narratif fort</strong> – la figure de « l’homme démantelé » – pour penser les effets du numérique au-delà des seuls indicateurs quantitatifs ;</li>



<li>une insistance salutaire sur des catégories souvent négligées par les discours technophiles : émerveillement, ennui, gratuité, intériorité, incarnation ;</li>



<li>un appel à intégrer la dimension <strong>politique et spirituelle</strong> dans les débats sur la régulation des technologies.</li>
</ul>



<p>Pour les praticiens (parents, enseignants, éducateurs, responsables pastoraux), il fonctionne comme un <strong>outil de prise de conscience</strong> et de mise en mots : il aide à nommer ce qui se joue dans la fatigue attentionnelle, la dispersion, la perte de profondeur des relations, et à légitimer des choix contre-culturels (limitation des écrans, valorisation de la lecture, des jeux libres, de la pratique artistique, etc.).</p>



<p>En définitive, <em>L’Homme démantelé : Comment le numérique consume nos existences</em> est un essai dense, vigoureux, parfois sombre, mais profondément humaniste. Baptiste Detombe y dissèque avec une grande clarté les ravages d’un numérique pensé avant tout comme marché de l’attention et instrument de formatage des subjectivités, tout en refusant de s’en tenir à la dénonciation. En convoquant la culture, l’incarnation chrétienne, la décision politique et la vie intérieure comme lieux de ressaisissement, il invite à renouer avec une plénitude fondatrice de l’humain, faite de lenteur, de présence, de responsabilité et d’espérance. On pourra discuter le ton alarmiste ou la part de nostalgie, mais difficile de ne pas entendre l’avertissement : si nous ne voulons pas devenir des « hommes démantelés », il nous faut repenser en profondeur notre manière de vivre avec les écrans, non comme une simple question d’outils, mais comme un enjeu d’anthropologie intégrale.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.markert.fr/2025/11/19/lhomme-demantele-comment-le-numerique-consume-nos-existences/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Le Chrétien à l&#8217;heure du numérique</title>
		<link>https://www.markert.fr/2025/06/27/le-chretien-a-lheure-du-numerique/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=le-chretien-a-lheure-du-numerique</link>
					<comments>https://www.markert.fr/2025/06/27/le-chretien-a-lheure-du-numerique/#respond</comments>
		
		<dc:creator><![CDATA[Arnaud Markert]]></dc:creator>
		<pubDate>Fri, 27 Jun 2025 10:00:00 +0000</pubDate>
				<category><![CDATA[Ethique]]></category>
		<category><![CDATA[Spiritualité]]></category>
		<category><![CDATA[guide parental]]></category>
		<guid isPermaLink="false">https://www.markert.fr/?p=960</guid>

					<description><![CDATA[Jay Y. Kim, Le chrétien à l’ère du numérique : Cultiver le fruit de l’Esprit pour une vie de contentement, de résilience et de sagesse, Philippe Malidor &#38; Dan Kimball (trad.), Paris, Excelsis, 2024, 252 p. Dans un monde marqué &#8230; <a href="https://www.markert.fr/2025/06/27/le-chretien-a-lheure-du-numerique/">Lire la suite­­</a>]]></description>
										<content:encoded><![CDATA[
<p><strong>Jay Y. Kim, <em>Le chrétien à l’ère du numérique : Cultiver le fruit de l’Esprit pour une vie de contentement, de résilience et de sagesse</em></strong>, Philippe Malidor &amp; Dan Kimball (trad.), Paris, Excelsis, 2024, 252 p.</p>



<figure class="wp-block-image alignleft size-medium"><img loading="lazy" decoding="async" width="200" height="300" src="https://www.markert.fr/wp-content/uploads/2025/06/91601-200x300.jpg" alt="" class="wp-image-958" srcset="https://www.markert.fr/wp-content/uploads/2025/06/91601-200x300.jpg 200w, https://www.markert.fr/wp-content/uploads/2025/06/91601.jpg 667w" sizes="auto, (max-width: 200px) 100vw, 200px" /></figure>



<p>Dans un monde marqué par l’accélération technologique et la marchandisation de l’attention, l’ouvrage de Jay Y. Kim, pasteur à WestGate Church (Silicon Valley), vient rappeler la nécessité d’un enracinement spirituel profond et résilient. Auteur de <em>Analog Church</em> et <em>Analog Christian</em>, Kim poursuit ici une même démarche : réconcilier la vie de foi et les défis concrets posés par les environnements numériques.</p>



<p>L’ouvrage est une réflexion pastorale et biblique, articulée autour du fruit de l’Esprit (<a href="https://www.aelf.org/bible/Ga/5">Galates 5</a>,22), pour répondre aux effets déstructurants des écrans sur l’attention, la présence à soi, la relation à autrui et la vie spirituelle.</p>



<p>Le livre est divisé en trois parties, chacune correspondant à une vertu clef : le contentement, la résilience et la sagesse. Chaque partie décrit les pathologies numériques associées (indignation, comparaison, distraction, impulsivité&#8230;) et propose des pratiques de transformation inspirées de la vie spirituelle chrétienne.</p>



<p>Parmi les thèmes majeurs :</p>



<ul class="wp-block-list">
<li>L’attention comme ressource sacrée et spirituelle, malmenée par le scroll infini.</li>



<li>Le désir d’immédiateté opposé à la patience et à l’ancrage dans le réel.</li>



<li>La comparaison sociale induite par les réseaux et la perte de l’identité christocentrique.</li>



<li>La présence incarnée et les pratiques spirituelles lentes (prériode, jeûne, silence, attention à l’autre).</li>
</ul>



<p>L&rsquo;auteur s’appuie sur des observations pastorales, des analyses culturelles et une solide connaissance biblique, offrant une méthodologie réflexive, nourrie de témoignages et de figures inspirantes. L’ouvrage s’inscrit dans un courant croissant de théologie pratique critique face au numérique (James K. A. Smith, Andy Crouch&#8230;). Il ne se limite pas à une simple opposition technophobe : il propose une conversion de l’usage, par une rééducation spirituelle du regard, de l’attention et du rapport à la vérité.</p>



<p>Il soulève des questions majeures :</p>



<ul class="wp-block-list">
<li>Comment enseigner l’attention comme vertu dans un monde marchand de l’attention ?</li>



<li>Comment former à une vie spirituelle incarnée, lente, patiente ?</li>



<li>Comment distinguer prudence technologique et discipline spirituelle ?</li>
</ul>



<p>L&rsquo;ouvrage offre une articulation remarquable entre diagnostic culturel, sagesse biblique et vision pastorale. Il propose des chapitres accessibles, agrémentés d’exemples concrets et de récits incarnés. Il met en œuvre une réflexion propice à une éthique chrétienne du numérique et de l’attention (cf. p. 56, la réflexion qui fait penser à un célèbre passage de Saint Augustin : voir <a href="https://catechese.catholique.fr/outils/propositions-celebrations-liturgiques/325628-bien-tard-je-tai-aimee-priere-saint-augustin/"><em>Les Confessions</em> 10, 27</a>). Toutefois ce livre est moins opérationnel pour les éducateurs car les propositions restent souvent à l’échelle de la personne. De plus, j&rsquo;aurais apprécié une approche plus structurée en termes d’outils pour la catéchèse ou la formation scolaire.</p>



<p>L’ouvrage aide à penser une littératie spirituelle de l’attention dans les contextes éducatifs chrétiens : non pas apprendre à maîtriser la technologie, mais à discerner ce qu’elle produit en nous : « Le problème, ce n&rsquo;est pas la technologie. Le problème, c&rsquo;est nous. » (p. 19)</p>



<p>Jay Y. Kim signe ici un ouvrage d’une grande actualité, à la fois profond et accessible. <em>Le chrétien à l’ère du numérique</em> constitue une référence utile pour penser les pratiques spirituelles et éducatives à l’ère du scroll, du zapping et de la comparaison sociale. Son apport est précieux pour les pasteurs, catéchètes, éducateurs chrétiens et tous ceux qui cherchent à conjuguer sagesse ancienne et modernité connectée.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.markert.fr/2025/06/27/le-chretien-a-lheure-du-numerique/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Tactique du diable</title>
		<link>https://www.markert.fr/2025/06/13/tactique-du-diable/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=tactique-du-diable</link>
					<comments>https://www.markert.fr/2025/06/13/tactique-du-diable/#respond</comments>
		
		<dc:creator><![CDATA[Arnaud Markert]]></dc:creator>
		<pubDate>Fri, 13 Jun 2025 10:00:00 +0000</pubDate>
				<category><![CDATA[Ethique]]></category>
		<category><![CDATA[Spiritualité]]></category>
		<category><![CDATA[Théologie]]></category>
		<guid isPermaLink="false">https://www.markert.fr/?p=955</guid>

					<description><![CDATA[Clive Staples Lewis, Tactique du diable : Lettres d’un vétéran de la tentation à un novice, Empreinte Temps Présent, 2010 Publié en 1942, en pleine Seconde Guerre mondiale, The Screwtape Letters de C.S. Lewis s’inscrit dans un double contexte : &#8230; <a href="https://www.markert.fr/2025/06/13/tactique-du-diable/">Lire la suite­­</a>]]></description>
										<content:encoded><![CDATA[
<p><strong>Clive Staples Lewis, <em>Tactique du diable : Lettres d’un vétéran de la tentation à un novice</em>, Empreinte Temps Présent, 2010</strong></p>



<figure class="wp-block-image alignleft size-medium"><img loading="lazy" decoding="async" width="200" height="300" src="https://www.markert.fr/wp-content/uploads/2025/06/couv-Tactique-du-diable-200x300.jpg" alt="" class="wp-image-956" srcset="https://www.markert.fr/wp-content/uploads/2025/06/couv-Tactique-du-diable-200x300.jpg 200w, https://www.markert.fr/wp-content/uploads/2025/06/couv-Tactique-du-diable.jpg 665w" sizes="auto, (max-width: 200px) 100vw, 200px" /></figure>



<p>Publié en 1942, en pleine Seconde Guerre mondiale, <em>The Screwtape Letters</em> de C.S. Lewis s’inscrit dans un double contexte : celui, historique, d’un monde déchiré par le conflit mondial, et celui, personnel, d’un auteur fraîchement converti au christianisme anglican, désireux d’explorer la dynamique spirituelle du bien et du mal dans l’âme humaine. Lewis, professeur à Oxford puis à Cambridge, s’impose dans cette œuvre comme l’un des grands apologètes chrétiens du XXe siècle, combinant profondeur théologique, acuité psychologique et art du récit.</p>



<p>Sous la forme d’une série de 31 lettres fictives, un démon supérieur, Screwtape, conseille son neveu Wormwood dans l’art de faire chuter un « patient » humain. Ce procédé littéraire original inverse la perspective morale, obligeant le lecteur à décrypter les lettres « à rebours » : l&rsquo; « Ennemi » est Dieu, « Notre Père » est Satan. Lewis montre comment le péché s’insinue non par le spectaculaire mais par l’ordinaire : habitude, distraction, confort spirituel, oubli de la prière. La tentation est décrite comme une pente douce, imperceptible, bien plus efficace que la violence. L&rsquo;auteur met ainsi en place une structure progressive et une pédagogie de la lucidité : « Le chemin le plus sûr pour l’enfer est celui qui y mène progressivement – la pente douce, bien feutrée, sans virages trop brusques… »</p>



<p>Théologiquement, l’ouvrage explore le mystère de la liberté humaine, la grâce, le rôle des affections désordonnées, la foi vécue au quotidien – « L’essentiel est de diriger toute sa malveillance contre ses voisins les plus proches. » – , et surtout l’amour désintéressé de Dieu – incompréhensible pour les démons. Littérairement, il s&rsquo;agit d&rsquo;une satire spirituelle d&rsquo;une rare efficacité : Lewis mobilise ironie, intelligence et élégance stylistique pour mettre le lecteur en alerte. Le ton, à la fois caustique et paternel, rend la lecture ludique et profonde.</p>



<p>Le livre a été salué dès sa parution pour son originalité formelle et sa profondeur morale. Il est aujourd’hui considéré comme un classique de la littérature chrétienne. Des critiques ont noté qu’il pouvait parfois être exigeant pour un lecteur non averti, en raison de l’inversion permanente des repères moraux. Cependant, cette difficulté constitue aussi la richesse de l’œuvre : le renversement oblige à une lecture active et à une introspection personnelle.</p>



<p>Lewis démontre une remarquable prescience sur la sécularisation, la fragmentation de l’attention et la religion du confort : « Une religion modérée vaut tout autant pour nous que pas de religion du tout, et c’est bien plus amusant. » Son œuvre s’applique encore aujourd’hui à une société marquée par la distraction numérique, le relativisme éthique et la perte du sens de l’intériorité.</p>



<p><em>Tactique du diable</em> est un chef-d&rsquo;œuvre d&rsquo;apologétique déguisée, à la fois drôle, profond et accessible. Par une inversion brillante des points de vue, C.S. Lewis propose au lecteur un miroir de ses propres luttes intérieures. Il s&rsquo;agit autant d’un manuel de vigilance spirituelle que d’un traité implicite de psychologie morale. À recommander autant aux croyants en quête de discernement qu’aux lecteurs curieux des structures invisibles de la tentation.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.markert.fr/2025/06/13/tactique-du-diable/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
