Le paradoxe du tapis roulant : repenser notre rapport à l’intelligence artificielle
L’ouvrage Le paradoxe du tapis roulant : Vaincre notre paresse intellectuelle face à l’IA (JC Lattès, 2025) de Marion Carrée est une réflexion essentielle sur notre rapport contemporain à l’intelligence artificielle. Marion Carrée, entrepreneure, enseignante et chercheuse, y déploie une vision à la fois rigoureuse et lucide de la place que nous donnons à ces technologies dans nos vies. Cofondatrice d’Ask Mona, elle explore depuis plusieurs années l’impact des IA génératives sur la connaissance, la créativité et la réflexion humaine, et ce livre s’impose comme une véritable invitation à repenser notre usage de ces outils révolutionnaires.
Depuis 2019, Marion Carrée enseigne à Sciences Po et à la Sorbonne, où elle propose l’un des premiers cours dédiés à l’art et à l’IA.
Ses distinctions incluent le titre de chevalier de l’Ordre des Arts et des Lettres, le Forbes 30 Under 30, le Blooloop Top 50 Museum Influencer, ainsi que la médaille d’honneur de la Ville de Paris.
Forte de plusieurs années d’expérimentation au carrefour de la culture, de l’éducation et de la technologie, elle interroge donc avec cet ouvrage la place que nous laissons à ces systèmes dans nos vies. Son livre n’est ni un éloge naïf, ni une mise en garde apocalyptique mais race un chemin exigeant, visant à réinventer nos usages pour éviter de “laisser l’IA penser à notre place”.

L’IA au quotidien
L’IA est désormais partout. Elle s’invite dans nos vies personnelles, professionnelles, culturelles et éducatives. Pour beaucoup, elle est un assistant, un guide, parfois même un psychologue accessible, un phénomène confirmé par les travaux récents sur l’attachement affectif aux agents conversationnels (Early methods for studying affective use and emotional well-being on ChatGPT, 2025)
Article à ce sujet : Chatgpt-peut-il-remplacer-un-accompagnement-psychologique
Marion Carrée observe que cette omniprésence, si elle promet une libération, nous enferme souvent dans une cadence qui nous dépasse. L’image du « tapis roulant » est parlante : nous avançons plus vite, certes, mais nous risquons de perdre le contrôle de nos propres idées, de notre autonomie intellectuelle. Il est vrai que l’intelligence artificielle s’est glissée dans tous les interstices du quotidien (travail, culture, formation, loisirs, santé mentale…) Marion Carrée le rappelle d’entrée de jeu :
“Je baigne donc au quotidien dans cette technologie et il ne se passe pas un jour sans que je dialogue avec une IA. Il était presque inévitable qu’elle finisse par prendre un peu trop de place dans ma vie.”
Cette confession personnelle reflète une situation collective. Beaucoup sollicitent aujourd’hui une IA sans être technophiles.
À mesure que les IA deviennent des compagnons familiers, glissées dans nos applications, nos recherches, nos messageries, elles assument une part croissante des tâches quotidiennes : se souvenir à notre place, classer, résumer, organiser, reformuler. Tout cela nous semble d’abord confortable. Mais, par un effet d’entraînement discret, cette aide si pratique ouvre la porte à une délégation plus profonde : celle de notre propre vigilance intellectuelle.
Nous laissons l’outil penser un peu pour nous, puis un peu plus, jusqu’à ce que l’effort réflexif nous paraisse soudain disproportionné, presque superflu. Une question se fait alors entendre, d’autant plus inquiétante qu’elle semble naturelle :
À quel moment l’acte même de réfléchir a-t-il commencé à nous apparaître comme une charge excessive ?
Ce phénomène n’est pas seulement technique, mais culturel. L’IA, en synthétisant et en filtrant l’information, devient une chambre d’écho, une voix dominante qui uniformise nos raisonnements. À mesure que nous lui déléguons des tâches intellectuelles, notre créativité et notre capacité de réflexion s’appauvrissent, non toujours par manque de compétence, mais par dépendance à un outil qui tend à standardiser nos idées.
La vitesse et l’efficacité deviennent des fins en soi, et réfléchir, paradoxalement, semble devenir un fardeau.
Le paradoxe du tapis roulant : dérives et risques
Le cœur du livre est ce que Marion Carrée appelle « le paradoxe du tapis roulant » : l’IA accélère nos activités et notre pensée individuelle, mais nous conduit collectivement au même endroit.
Les enjeux sont multiples. D’abord, la « paresse algorithmique » : en faisant preuve d’une confiance aveugle aux capacités de l’IA, nous déléguerons des fonctions cognitives cruciales, comme la vérification critique, la nuance ou la créativité. Ensuite, la dette cognitive et le système zéro : à la manière des GPS qui ont modifié nos capacités d’orientation, l’IA externalise des tâches cognitives essentielles, transformant en profondeur nos modes de pensée. Enfin, la standardisation et l’uniformisation des contenus, où l’IA, nourrie par des données massives mais incomplètes, génère des idées convergentes, uniformes, souvent au détriment de la diversité culturelle ou linguistique.
En somme, ce que nous percevons comme un soutien devient progressivement une contrainte invisible, un cadre qui limite notre autonomie et nous pousse à suivre la cadence imposée par la machine. C’est cette tension entre accélération individuelle et immobilisme collectif que l’autrice met en lumière.
À mesure qu’elle condense et tamise le flot d’informations, l’intelligence artificielle en vient à occuper la place d’une voix dominante. Elle classe, sélectionne, reformule et ce travail silencieux génère un double effet.
Sur le plan individuel, elle allège nos gestes mentaux : ce qui exigeait autrefois un effort patient devient soudain plus rapide, presque sans friction.
Sur le plan collectif, elle instaure une ligne moyenne : les idées se rapprochent, s’aplatissent, se coulant dans une forme de consensus algorithmique.
Dans Tools for Conviviality (1973), Ivan Illich développe la notion de « monopole radical », là où un outil, un service ou une institution technique qui, en devenant hégémonique, interdit l’accès aux formes alternatives de réalisation des mêmes fonctions (par exemple la marche à pied vs la voiture, les savoirs informels vs l’école institutionnelle, les médecines populaires vs la médecine industrialisée). Avant d’ajouter que, au-delà d’un certain seuil,l’outil dépasse sa fonction originelle et devient « contre‑productif », c’est‑à‑dire qu’il se retourne contre sa fin. Il y décrit aussi la perte potentielle de créativité, d’autonomie et de liberté individuelle et collective quand les outils industriels (ou institutionnels) imposent leurs normes : en bref l’outil ne sert plus l’homme, c’est l’homme qui devient l’accessoire de l’outil. La notion de contre-productivité, centrale chez Illich démontre que lorsqu’elles atteignent un seuil critique et s’imposent en situation de monopole, les grandes institutions des sociétés industrielles modernes peuvent involontairement se transformer en obstacles à leurs propres objectifs. La médecine, par exemple, peut nuire à la santé en cherchant à éradiquer la maladie au détriment du bien-être du patient ; les transports et la course à la vitesse ne diminuent pas nécessairement le temps consacré aux déplacements ; l’école peut produire de « l’ignorance » plutôt que du savoir (quand elle transforme l’apprentissage en obligation bureaucratique et standardisée plutôt qu’en processus autonome et motivé par la curiosité.) ; et les moyens de communication, lorsqu’ils deviennent excessivement nombreux et envahissants (comme les réseaux sociaux), finissent par empêcher l’écoute et la compréhension mutuelle.
Marion Carré, s’appuyant sur ces propos, montre avec finesse comment, peu à peu, avec l’utilisation que nous faisons des IA, nos raisonnements tendent à s’aimanter sur ses suggestions. Un biais de surconfiance s’installe : nous attribuons une autorité excessive à ce qu’elle génère, et laissons parfois la machine glisser entre nos phrases des idées qui ne sont pas entièrement les nôtres.
Il faut alors garder en tête que s’en remettre à une IA, ce n’est pas seulement s’en remettre à un outil. C’est également dépendre des entreprises qui la façonnent, des visions politiques et culturelles dont ses données sont imprégnées, et des choix éditoriaux invisibles qui orientent son jugement, sources favorisées, types de contenus mis en avant, comportements valorisés...
Ainsi, l’IA se transforme en chambre d’écho : elle renvoie nos pensées en les étouffant doucement dans un espace plus étroit que nous ne l’imaginions.
Elle promet la pluralité ; elle produit souvent une homogénéité discrète mais tenace.
Pour l’autrice, nourrir les intelligences artificielles génératives peut se comparer au « gavage d’oie » : il faut les alimenter en masse pour obtenir un condensé rare et précieux de connaissance. Le problème, c’est que certaines cultures, langues ou régions restent insensibilisées, ce qui tend à produire une forme de colonialisme culturel. Les intelligences artificielles ont en effet tendance à oublier les données rares ou peu fréquentes. Elles génèrent alors des réponses qui ne reflètent plus la diversité et l’hétérogénéité des sources originales. Progressivement, leurs productions deviennent de plus en plus homogènes, convergent vers une voix dominante, et risquent de créer une forme d’asphyxie.Pour reprendre les mots de la chercheuse Lisanne Bainbridge avec son concept de d’ironies de l’automatisation : plus un système autonome est avancé, plus la qualité de la contribution humaine devient cruciale.
L’automatisation ne réduit donc pas l’importance de l’humain, elle en redéfinit le rôle, en particulier dans les situations où l’uniformisation du système exige un véritable discernement.
Une autre dérive est soulevé en invoquant le philosophe Hartmut Rosa qui souligne à ce sujet un paradoxe éclairant :
« Notre volonté de toujours vouloir aller plus vite mènera à notre aliénation ».
Depuis l’avènement des mails, il est devenu deux fois plus rapide d’écrire un message que de rédiger une lettre traditionnelle. Théoriquement, cela pourrait permettre de gagner une heure par jour : alors qu’il fallait autrefois deux heures pour traiter dix lettres, il suffirait aujourd’hui d’un seul souffle pour envoyer dix courriels.
Pourtant, ce temps libéré ne se matérialise jamais vraiment. La facilité et la rapidité accrues d’écrire un mail conduisent paradoxalement à en envoyer et en recevoir toujours plus. Le gain de temps existe à l’échelle de chaque tâche, mais il tend à s’effacer lorsqu’on le considère en valeur absolue.
Il est probable que l’intelligence artificielle suivra une trajectoire similaire. Si certains promettent que son usage libérera notre temps de travail, il est très probable que cet espace libéré sera rapidement absorbé par de nouvelles tâches et une cadence encore plus soutenue, reproduisant ainsi le paradoxe de Rosa.
Un podcast vraiment intéressant sur le sujet : Modernité, vitesse, tyrannie du présent
Transformer le tapis roulant en tapis de course : solutions et usages éclairés
Heureusement, Marion Carrée n’en reste pas à la critique. Elle propose une réappropriation de l’IA, en la transformant d’outil de substitution en catalyseur. Le principe est simple mais exigeant : utiliser l’IA pour se challenger, muscler sa réflexion, pratiquer le « ping-pong de la pensée ». Plutôt que de laisser la machine produire à notre place, il s’agit de l’alimenter en informations riches, diverses, de questionner ses productions, de chercher les angles morts et les contre-arguments, bref de penser avec elle et non pour elle.
Cette démarche préserve l’autonomie intellectuelle et stimule l’esprit critique, tout en reconnaissant le potentiel unique de l’IA comme agent de décentrement. Elle engage également une responsabilité collective : créer les conditions d’un usage éclairé, diversifié et attentif aux biais, afin que la technologie serve la réflexion et non l’inverse.
“Vaincre notre paresse intellectuel n’implique pas de tourner le dos à l’IA mais de la réinvestir autrement de lui redonner une place qui ne soit pas celle d’un substitut mais d’un catalyseur.”
Le tapis roulant devient ainsi un tapis de course : il exige un effort conscient, mais cet effort nous renforce et nous fait progresser.
L’autrice appelle donc à une réorientation décisive : non pas se méfier de l’IA ni s’y abandonner, mais réapprendre à habiter lucidement la relation que nous entretenons avec elle. Le véritable enjeu n’est pas la machine, mais la manière dont nous lui cédons, parfois sans résistance, la fatigue du penser. Réhabiliter l’effort signifie alors reprendre en main les “premier et dernier kilomètres” de toute réflexion : formuler clairement son intention, nourrir l’outil avec des éléments précis et situés, puis interroger, vérifier, contester ce qu’il produit.
L’IA peut alors être une aide précieuse en révélant nos angles morts, en déplaçant nos intuitions et en contribuant à renforcer notre propre autonomie.
Il s’agit alors de transformer l’appui technique en entraînement, en exercice de vigilance, en musculature critique.
Mais cette transformation ne peut être seulement individuelle, elle exige une véritable écologie culturelle du discernement, des outils transparents, une diversité réelle des données, une pédagogie du doute, une vigilance citoyenne face aux architectures invisibles de la persuasion.
Ainsi, l’IA ne doit pas rétrécir le champ du pensable : elle doit au contraire ouvrir un espace où la pensée retrouve son souffle et sa souveraineté.
Conclusion
Le paradoxe du tapis roulant apparaît, à mes yeux, comme l’un de ces ouvrages rares qui parviennent à clarifier un enjeu brûlant sans céder ni au catastrophisme technophobe ni à l’enthousiasme béat. Marion Carrée rappelle avec une rigueur salutaire que la question décisive n’est jamais l’outil, mais la relation avec lui.
L’IA n’est alors ni un péril en soi, ni une promesse inconditionnelle : elle devient dangereuse lorsque nous l’utilisons pour nous soustraire à l’effort du penser, et féconde lorsqu’elle nous oblige à réinvestir notre lucidité.
Pour paraphraser le philosophe Paul Virilio, dès que l’humanité invente un nouveau moyen, bateau, avion, électricité, elle engendre aussi, en germe, la possibilité d’un naufrage, d’un crash, d’un électrocution. Ce n’est pas un effet secondaire contingent, mais une dimension constitutive du progrès lui-même. Dans ce cadre, l’introduction de l’intelligence artificielle ne fait pas exception, bien plus qu’un simple outil neutre, elle incarne un type de technologie dont l’essor porte en lui des risques — pour l’attention, pour le raisonnement, pour la richesse même de la pensée. Si, collectivement, nous nous habituons à ce qu’elle devienne norme, à ce qu’elle uniformise, simplifie, nous risquons non seulement de banaliser l’erreur ou l’accident, mais d’appauvrir notre rapport à la complexité, à l’altérité, à la singularité de la pensée.
Mais et c’est là, me semble‑t‑il, la véritable question morale et politique, ce constat ne nous condamne pas à un déterminisme fataliste. Toutes crises nous engagent plutôt, à mon sens,à développer des garde‑fous, à instituer des usages réflexifs, à préserver un espace critique. Ce « coté obscure » du progrès, le crash, le naufrage, l’accident, la crise, peut devenir l’occasion d’une vigilance partagée, d’un choix conscient afin d’améliorer les systèmes.
Ce qui se joue aujourd’hui à mon sens, c’est la question de l’effort, et plus précisément celle d’une délégation réellement éclairée aux intelligences artificielles. À mes yeux, recourir à l’IA ne signifie ni ne rien faire, ni se résigner à ses angles morts. Au contraire : l’effort se déplace.
En amont, il s’agit de l’alimenter avec des éléments riches, contextualisés et pertinents.
En aval, il faut interroger, confronter, et mettre à l’épreuve ce qu’elle produit.
C’est ainsi qu’on évite l’usage en pilote automatique. L’IA devient alors un outil qui renforce nos capacités, qui nous aide à aller plus loin plutôt qu’un substitut qui nous dispenserait de penser et nous conduirait à abandonner la réflexion.
L’autrice montre qu’il est possible de renverser la logique du confort passif pour faire de la machine un véritable partenaire de friction intellectuelle : non un tuteur qui nous dispense de réfléchir, mais un dispositif qui stimule, décentre, oblige à préciser, questionner, affiner.
Je considère que la force de cet ouvrage tient dans sa capacité à formuler une éthique de l’usage à la fois accessible et profonde.
L’appel à une écologie culturelle du discernement, à une vigilance partagée, à une architecture technique transparente, me semble non seulement pertinent, mais urgent. Nous avons besoin de cette lucidité-là : d’une pensée qui ne rejette pas la technologie, mais la remet à sa juste place, celle d’un outil qui libère l’humain, au lieu de l’endormir.
En cela, Le paradoxe du tapis roulant offre plus qu’un diagnostic, il trace les contours d’une responsabilité partagée. À l’échelle individuelle, il invite chacun à redevenir auteur de ses propres idées, à exercer son jugement, à oser la confrontation avec la machine pour mieux se comprendre soi-même. À l’échelle collective, il ouvre des pistes concrètes pour que nos institutions, nos systèmes éducatifs, nos politiques publiques orientent le développement technologique vers la pluralité, la créativité et la liberté et non vers l’uniformisation algorithmique.
L’ouvrage, par sa clarté, sa précision et son sens de la nuance, parvient ainsi à transformer une inquiétude diffuse en un horizon d’action. C’est, à mon sens, sa réussite majeure, montrer que le défi du « tapis de course » n’est pas une contrainte, mais une opportunité.
Sylvain Gammacurta