Le décrochage cognitif à l’ère de l’IA

 

Le constat

Dans les pays développés, de nombreux indicateurs suggèrent un affaiblissement des capacités cognitives moyennes, en particulier en matière de concentration, de mémorisation et de compréhension profonde. Des études récentes sur l’attention montrent par exemple une chute spectaculaire de notre capacité à nous concentrer sur une seule tâche. Au début des années 2000, un utilisateur pouvait rester en moyenne 2 minutes et demie sur un écran avant de passer à autre chose ; aujourd’hui, ce temps d’attention continu est tombé à 47 secondes en moyenne (How to sharpen your attention and meet your goals in 2024 | University of California). Une telle diminution, confirmée par plusieurs chercheurs, illustre un réel déclin de la concentration dans un environnement saturé de stimuli numériques.

Les capacités de mémorisation semblent également pâtir de nos usages technologiques. Les chercheurs parlent d’“effet Google” ou d’amnésie numérique pour décrire la tendance à oublier des informations facilement accessibles en ligne (Google effect - Wikipedia). En d’autres termes, plus nous déléguons au numérique le soin de stocker ou de retrouver l’information, moins nous entraînons notre mémoire à la retenir par nous-mêmes. Ce phénomène a des effets concrets : par exemple, la dépendance au GPS pour se diriger s’accompagne d’une baisse mesurable de la mémoire spatiale chez les individus les plus accros à ce guidage numérique (Using your phone's GPS all the time can impair your spatial memory). Notre cerveau, sollicité de toutes parts, retient moins bien ce qu’il n’a plus besoin d’apprendre.

S’agissant de la compréhension approfondie, notamment en lecture, les signes d’un décrochage sont tout aussi préoccupants. Une enquête britannique de 2023 révélait une baisse alarmante des compétences de lecture chez les adolescents : à 13 ans, le niveau de compréhension de texte a chuté de 4 points en moyenne depuis 2019, et de 7 points par rapport à 2012 (Etude : Défiant l’écran, le papier se révèle champion de la mémorisation). Fait troublant, les élèves les plus en difficulté ont des scores inférieurs à ceux mesurés… en 1971. Bien que la pandémie de Covid-19 ait pu accentuer cette tendance, elle s’inscrit dans un mouvement de long terme : de plus en plus de jeunes peinent à lire un texte long et à en saisir la structure et les nuances, surtout lorsqu’ils le lisent sur un écran. Des expériences en sciences cognitives montrent que la lecture numérique favorise une approche morcelée et superficielle de l’écrit, au détriment de la « lecture profonde » qui permet de comprendre les détails et la complexité d’un texte (Skim reading is the new normal. The effect on society is profound | Maryanne Wolf | The Guardian | The Three R's Blog).

Même les mesures classiques de l’intelligence semblent indiquer un essoufflement. Le fameux effet Flynn – la hausse continue du QI au XX^e siècle – ralentit voire stagne dans nombre de pays riches depuis les années 2000 (Declining global IQ: reality or moral panic? - Polytechnique Insights). Certaines études controversées évoquent même un début de recul du QI dans des pays d’Europe du Nord (Declining global IQ: reality or moral panic? - Polytechnique Insights), bien que ce point fasse débat. Quoi qu’il en soit, le tableau d’ensemble est celui d’un possible décrochage cognitif : nos capacités de concentration, de mémorisation et de compréhension ne progressent plus et pourraient même régresser à l’ère du numérique ubiquitaire. Les causes de ce phénomène sont évidemment multifactorielles, mais pour les comprendre, il faut les replacer dans le contexte de l’évolution de notre environnement médiatique et technologique.



Contextualisation : médias, spectacle et cognition

Le décrochage cognitif que nous constatons aujourd’hui s’inscrit dans une évolution culturelle et médiatique entamée au XX^e siècle. Des penseurs tels que George W. S. Trow, Jean Baudrillard ou Guy Debord ont, chacun à leur manière, analysé la transformation de notre rapport à l’information et au savoir à l’ère des médias de masse, bien avant l’apparition de l’IA.

Dès 1980, George W. S. Trow publiait Within the Context of No Context, un essai visionnaire sur l’impact de la télévision. Il y décrivait la télévision comme un « grand marais fétide » de la culture américaine qui aurait « déformé à jamais nos sensibilités ». Pour Trow, la toute-puissance de la télévision – média sans profondeur historique – a progressivement éliminé le contexte de nos expériences. L’essentiel du monde nous est apparu à travers de petits fragments d’émissions conçues pour rendre le temps « amical par la répétition », disait-il, dénonçant la fausse familiarité créée par le flux télévisuel. Cette dissolution du contexte plonge le spectateur dans une succession d’événements sans lien, où il devient difficile de relier l’information à un savoir cohérent ou à une mémoire commune. Trow anticipait ainsi, avec une lucidité amère, l’« ère du zapping » et de l’attention volatile qui s’est ensuite accentuée avec Internet.

Dans les années 1960, Guy Debord apportait une autre grille de lecture avec La Société du spectacle. Son constat, lapidaire, résume le basculement anthropologique à l’œuvre : « Tout ce qui était directement vécu s’est éloigné en une représentation ». Debord entend par là qu’avec la généralisation des médias de masse, l’expérience authentique cède le pas à sa mise en scène médiatique. La vie sociale se présente comme une « immense accumulation de spectacles », où les images et les événements mis en scène dominent notre perception du réel. Cette “spectacularisation” de tout (politique, loisirs, relations humaines) a des conséquences cognitives majeures : nous devenons des spectateurs passifs, entraînés à consommer des représentations plutôt qu’à vivre ou comprendre directement les choses. Debord note d’ailleurs que le spectacle capte et converge toute notre attention et notre conscience vers ce pseudo-monde d’images, renforçant une sorte de faux-semblant collectif. Ce diagnostic d’une société du spectacle rejoint celui de Trow sur un point : le média (télévisuel, à l’époque) restructure la réalité et l’attention d’une manière qui appauvrit la compréhension profonde.

Jean Baudrillard, enfin, a poussé la réflexion sur les effets de la saturation médiatique. Dans les années 1980, il développe l’idée de simulacre et d’hyperréalité, où les signes et informations ne renvoient plus à une vérité tangible. Baudrillard constate que l’information s’accumule en surabondance dans la société moderne, mais que paradoxalement le sens se dissout dans cette prolifération du contenu. « Nous vivons dans un monde où il y a de plus en plus d’information et de moins en moins de sens », écrit-il dans Simulacres et Simulation. Cette « implosion du sens » sous l’effet des médias signifie que bombardés de nouvelles, de données, d’images, nous peinons à leur donner une signification ou à les hiérarchiser. Chaque événement chasse le précédent dans un présent perpétuel, ce qui nourrit une forme de connaissance superficielle et volatile.

Ainsi, Trow, Debord et Baudrillard décrivent un glissement de notre rapport au savoir : du linéaire et du cohérent, nous passons au fragmenté et à l’éphémère. Bien avant l’ère du smartphone et de l’IA, ils nous alertaient sur les risques d’une culture de la distraction et de l’apparence, où l’accumulation des informations remplace la compréhension, et où l’attention devient une ressource manipulée par le système médiatique. Ces analyses forment la toile de fond théorique pour comprendre comment nous en sommes arrivés à l’accélération contemporaine du décrochage cognitif.

L’accélération du phénomène avec les écrans, les réseaux sociaux et aujourd’hui l’IA

Si la télévision a inauguré l’ère du zapping et du spectacle, la révolution numérique des deux dernières décennies a porté le phénomène à une toute autre échelle. L’avènement d’Internet, des écrans omniprésents et des réseaux sociaux a intensifié la stimulation cognitive au point de créer un environnement d’hyper-sollicitation permanente – une évolution que l’Intelligence Artificielle vient encore accélérer.

Du format télévisuel dominant dans les années 1980, nous sommes passés à la multiplicité des écrans dans les années 2000 (ordinateurs, consoles, smartphones, tablettes) puis à la connexion mobile permanente à partir des années 2010. Aujourd’hui, l’individu moyen jongle entre des flux continus d’e-mails, de messages, de fils d’actualité et de vidéos courtes. Les réseaux sociaux, en particulier, ont transformé notre manière de consommer l’information : sur Facebook, Twitter ou Instagram, les contenus défilent sans fin et se mélangent (actualité sérieuse, divertissement, publicité, posts d’amis) sans hiérarchie claire. Notre cerveau est sollicité par une succession rapide de stimuli hétérogènes, ce qui rend la focalisation prolongée d’autant plus difficile.

La structure même des plateformes numériques encourage cette dispersion de l’attention. Les algorithmes de recommandation – une forme d’IA désormais omniprésente – sélectionnent pour nous le prochain contenu “à voir” afin de maximiser notre temps de cerveau disponible. Comme le résume un analyste, « l’algorithme… dicte ce que nous lisons, regardons et écoutons en ligne, en nous encourageant à consommer tout ce qui apparaît sur l’écran ». Autrement dit, nos outils numériques actuels sont conçus pour capter et retenir notre attention le plus longtemps possible, au besoin en nous submergeant d’une cascade d’éléments attrayants. Cette logique atteint son paroxysme avec des applications comme TikTok, dont le succès repose sur des vidéos très courtes, hautement personnalisées par l’IA, et un défilement instantané. Le résultat ? Une stimulation dopaminergique quasi continue : à peine quelques secondes d’attention par contenu, puis on passe au suivant, encore et encore. Des études en neurosciences commencent d’ailleurs à mesurer l’effet de ces flux ultra-rapides : une consommation excessive de vidéos courtes sur mobile est associée à une baisse du contrôle exécutif de l’attention et de la maîtrise de soi. En clair, plus on s’habitue aux gratifications immédiates des scrolls et des likes, plus il devient difficile de mobiliser son attention de façon volontaire et soutenue.

Léconomie de l’attention qui s’est développée avec les géants du numérique a systématiquement affiné les méthodes pour exploiter nos biais cognitifs. Les notifications incessantes, les récompenses aléatoires (comme les “streaks” ou le fait de découvrir un nouveau contenu viral à chaque actualisation), le design addictif des interfaces – tous ces procédés sont le fruit de travaux d’ingénieurs et de neuroscientifiques visant à optimiser la capture de notre attention. Cette exploitation se traduit par des pratiques telles que la mise en place de boucles de récompense dopaminergiques courtes, la peur de manquer (FOMO) encouragée par des flux continus, ou encore la valorisation sociale (j’aime, partages) qui nous incite à rester connectés en quête d’approbation. Jamais dans l’histoire autant de leviers psychologiques n’avaient été actionnés simultanément, et avec une telle précision algorithmique, pour solliciter l’esprit humain. Nos smartphones ont envahi chaque recoin de notre vie quotidienne – du réveil au coucher – si bien qu’ils occupent désormais presque toutes nos plages de temps libre. Il n’est plus seulement question de “temps d’écran”, tant ces appareils sont devenus le prolongement de nous-mêmes et de nos interactions sociales.

Dans ce contexte, l’irruption de l’IA générative et des outils conversationnels (comme ChatGPT) en 2022-2023 ajoute une couche supplémentaire à l’hyperstimulation. D’une part, l’IA est le moteur caché de nombreuses plateformes (recommandations de vidéos, de musiques, tri des informations) et augmente sans cesse en efficacité pour nous garder engagés. D’autre part, l’IA fournit désormais une quantité infinie de contenus créés ou personnalisés à la volée. On peut lui demander un résumé, une explication, une image, une vidéo, et l’obtenir instantanément. Cela signifie que le flux informationnel disponible n’a plus de limite concrète : si votre fil d’actualité n’a plus rien à vous proposer, une IA pourra toujours générer du nouveau contenu pour capter votre intérêt. Le risque est donc de voir l’IA devenir le dernier accélérateur d’une tendance à l’infobésité et à la superficialité cognitive, en éliminant jusqu’aux micro-pauses où l’ennui nous poussait autrefois à déconnecter.

Le paradoxe de cette accélération numérique, c’est qu’elle nous abreuve d’information tout en nous privant du temps ou de la capacité d’en faire le tri et le sens. Jamais l’être humain n’a reçu autant de données quotidiennes : dès 2008, on estimait qu’un Américain moyen consommait l’équivalent de 34 Go d’informations par jour (soit 100 000 mots) via les médias – un volume colossal et sans doute encore dépassé de nos jours. Nous sommes entrés dans l’ère de la surcharge cognitive permanente, préparant le terrain au “trade-off” dont nous allons parler : déléguer aux machines le soin de traiter cette surcharge, au risque d’en perdre nous-mêmes la maîtrise.


L’IA et le trade-off cognitif

Face au déluge informationnel et à la complexité croissante du monde numérique, l’Intelligence Artificielle apparaît à la fois comme une solution salutaire et comme un danger insidieux pour nos capacités cognitives. Ce dilemme se résume en un trade-off cognitif : l’IA nous promet une efficacité intellectuelle accrue – en nous aidant à traiter plus vite l’information, à automatiser des tâches mentales, à accéder instantanément au savoir –, mais en contrepartie, elle pourrait affaiblir nos facultés d’attention, de mémoire et de réflexion profonde par un phénomène de dépendance et de délégation excessive.

Côté pile, les bénéfices cognitifs de l’IA sont indéniables. Qui ne s’est jamais réjoui de pouvoir demander à un agent intelligent de résumer un article de recherche en quelques secondes plutôt que d’y passer des heures ? Grâce aux algorithmes et aux outils d’assistance, nous pouvons filtrer des masses de données, trouver en un clic l’information précise qui nous manque, traduire un texte instantanément, ou encore déléguer à une IA le soin d’extraire les points saillants d’un rapport volumineux. Ces fonctionnalités augmentent notre efficacité cognitive perçue : on pense et on décide plus vite, délestés de certaines besognes mentales. L’IA peut agir comme un exosquelette cognitif, nous permettant d’aller plus loin et plus haut dans le traitement de l’information. En ce sens, elle prolonge une longue histoire d’outils d’assistance intellectuelle – de la calculatrice pour les mathématiques au GPS pour la navigation en passant par les moteurs de recherche pour la connaissance générale. Chaque fois, la technologie nous a soulagés d’une partie du fardeau cognitif, avec à la clé un gain de temps et d’énergie mentale.

Côté face, toutefois, les sciences cognitives et la neurologie nous mettent en garde contre une délégation cognitive excessive. À force de confier aux machines le soin de se concentrer, de mémoriser ou de comprendre à notre place, nos propres capacités risquent de s’atrophier, comme un muscle qu’on n’exerce plus. C’est le revers du cognitive offloading. De nombreuses expériences l’illustrent : ainsi, lorsque nous savons qu’une information sera stockée sur un ordinateur ou accessible en ligne, nous faisons moins d’effort pour la retenir – c’est le fameux Google effect évoqué plus haut. Sur le long terme, cette habitude pourrait altérer la mémoire humaine, en particulier la mémoire sémantique et factuelle. De même, comme évoqué précédemment, l’utilisation systématique d’un GPS pour se repérer réduit la formation de cartes mentales spatiales : on a constaté que les personnes qui utilisent constamment un GPS développent une moins bonne mémoire des trajets et des lieux, comparé à celles qui font l’effort de s’orienter par elles-mêmes. Leur hippocampe – zone du cerveau impliquée dans la navigation et la mémoire épisodique – est moins sollicité, ce qui pourrait affecter sa vigueur à long terme.

Transposons ce constat à l’IA moderne : si l’on confie systématiquement à ChatGPT ou à un autre assistant le soin de lire et résumer nos textes, de traduire nos documents, de corriger nos erreurs ou de prendre nos notes, que deviendront nos propres aptitudes en lecture approfondie, en écriture ou en analyse critique ? La chercheuse Maryanne Wolf souligne que la lecture profonde – cette lecture lente, réflexive, qui engage l’empathie et la pensée critique – n’est pas innée mais résulte d’un entraînement de notre cerveau. Or, dans la culture numérique, la tendance est plutôt à la lecture en diagonale et au survol : on “scroll”, on picore de l’information en mode zapping. Wolf note que notre cerveau de lecture s’adapte à cette nouvelle donne : beaucoup de lecteurs adoptent désormais un schéma de lecture en “F” ou en “Z” à l’écran, parcourant rapidement le début puis ne lisant que des bribes de la suite. « Quand le cerveau lecteur survole ainsi les textes, il réduit le temps consacré aux processus de lecture profonde », explique Wolf. Conséquence : nous perdons en partie la capacité à saisir la complexité, à apprécier les nuances ou la beauté d’un texte, et à élaborer notre propre pensée en réaction à la lecture. Si l’IA nous fournit directement des condensés “prêts-à-penser”, ce phénomène risque de s’amplifier : pourquoi s’embarrasser d’un livre entier ou d’un article ardu quand une machine peut nous en donner la quintessence en quelques phrases ? Le danger est de voir émerger une génération de “sachants” qui ne pratiquent plus la connaissance que de façon déléguée et fragmentaire, perdant l’habitude de l’effort cognitif prolongé.

Le surcharge informationnelle imposée par nos environnements numériques joue ici un rôle central. Face au trop-plein, la tentation est grande de multitâcher, de zapper, ou de s’en remettre aux outils pour filtrer. Mais des recherches en psychologie montrent que le multitasking constant dégrade l’efficacité – on croit gagner du temps, mais on augmente les erreurs et le stress, tout en entraînant le cerveau à un mode de vigilance dispersée peu compatible avec la réflexion approfondie. L’IA, en nous assistant, peut soit nous aider à sortir de cette frénésie (en nous offrant des synthèses, en priorisant l’important), soit paradoxalement l’aggraver (en nous poussant toujours plus de contenus à traiter, ou en rendant si facile l’accès à l’info qu’on en consomme beaucoup plus). C’est tout le trade-off : utiliser l’IA pour alléger la charge cognitive immédiate peut conduire à un affaiblissement de nos “muscles” cognitifs sur le long terme si on ne préserve pas un équilibre.

Les neurosciences commencent à peine à étudier l’impact de cette délégation cognitive à l’IA. Il est plausible que certaines zones du cerveau liées à l’attention soutenue ou à la mémoire de travail s’adaptent à une moindre sollicitation. À l’extrême, on peut craindre une forme de dépendance cognitive : un individu hyper-connecté, habitué à ce qu’une IA réponde à toutes ses questions et comble la moindre vacance mentale, pourrait éprouver de grandes difficultés à se concentrer de lui-même ou à réfléchir sans assistance. On parle parfois de “digital dementia” pour décrire ce profil de consommateurs ultra-dépendants aux technologies pour chaque fonction intellectuelle, bien que le terme soit polémique. Sans aller jusque-là, c’est bien un défi d’autonomie cognitive qui se pose : comment s’assurer que l’IA nous augmente sans nous diminuer ? Comment garder la main et l’esprit aiguisé, quand tant d’outils proposent de penser un peu à notre place ?


La réponse politique : un angle mort.

Devant l’ampleur du phénomène, on pourrait s’attendre à une réaction des pouvoirs publics pour protéger la santé cognitive des citoyens. Or, force est de constater que la réponse politique demeure timide, et que la régulation de ces enjeux accuse un retard important par rapport à la rapidité des transformations technologiques. Le décrochage cognitif à l’ère du numérique reste en grande partie un angle mort des politiques publiques actuelles.

Jusqu’à présent, les régulations se sont surtout concentrées sur des aspects tangibles et immédiats du numérique : protection des données personnelles (RGPD en Europe), lutte contre les contenus illicites ou la désinformation (lois sur les fake news, Digital Services Act), régulation de la concurrence des grandes plateformes, ou encore protection des mineurs face à certains contenus. Ces chantiers sont importants, mais ils n’adressent qu’indirectement la question de la surcharge cognitive et de la captation de l’attention. Par exemple, limiter le temps d’écran des enfants a été évoqué, mais les mesures effectives sont rares. La France a bien interdit en 2018 les téléphones portables à l’école primaire et au collège, ce qui va dans le sens de la protection de l’attention des élèves en classe. Cependant, hors du cadre scolaire, l’omniprésence des écrans dans la vie des jeunes (et des moins jeunes) reste peu régulée. Quelques municipalités ou institutions ont tenté des programmes de “digital detox” ou des campagnes de sensibilisation pour encourager un usage modéré, mais cela relève plus de l’éducation et du volontariat que de la loi.

Le cœur du problème – le modèle économique de l’économie de l’attention – n’a pas encore été véritablement attaqué par le législateur. Il est aujourd’hui banal pour une entreprise de concevoir délibérément des services qui exploitent les biais cognitifs des utilisateurs pour les rendre accros, sans que cela ne contrevienne à aucune norme juridique. À l’instar de l’industrie agro-alimentaire qui a longtemps optimisé le sucre, le sel et le gras pour déclencher l’addiction aux produits, les géants du numérique optimisent l’“addictivité” de leurs applications grâce à des techniques sophistiquées – et cela reste largement non encadré. Le résultat, on l’a vu, c’est une atteinte possible à la santé cognitive publique (baisse de l’attention, stress, troubles de la concentration) qui n’est pas moins préoccupante que pourrait l’être une atteinte à la santé physique. Pourtant, aucun équivalent d’un « nutriscore de l’attention » n’existe pour informer sur le caractère plus ou moins sain d’une app ou d’un service du point de vue cognitif.

Pourquoi ce retard réglementaire ? D’une part, parce que les effets sont diffus, complexes à attribuer à une cause unique, et qu’ils s’installent progressivement – ce qui les rend moins visibles que des scandales ponctuels. D’autre part, on touche à la liberté d’expression et d’entreprendre : difficile d’imaginer une loi qui interdirait purement et simplement ces pratiques sans se heurter à des arguments de liberté (et au lobbying des entreprises). Enfin, il faut le dire, la prise de conscience politique de l’enjeu de l’attention est récente. Ce n’est qu’au cours des toutes dernières années que des voix s’élèvent pour parler d’“épidémie de distraction” ou de “crise de l’attention”.

Des pistes commencent néanmoins à émerger. En France, le Conseil national du numérique a préconisé en 2019 la mise en place d’une politique publique de l’attention. Il s’agirait notamment de consacrer un droit à être informé des mécanismes de captation attentionnelle utilisés par les services numériques, et de développer une stratégie européenne pour lutter contre les modèles économiques délétères de l’économie de l’attention. Autrement dit, rendre transparents les trucs et ficelles déployés pour nous rendre accros – un peu comme on rend publiques les compositions nutritionnelles des aliments. Certains experts plaident pour que le design des interfaces soit orienté vers la protection de l’utilisateur plutôt que son exploitation : c’est le concept de “Time Well Spent” mis en avant par d’anciens de la Silicon Valley (Tristan Harris et le Center for Humane Technology, par exemple). Cela pourrait passer par des normes de design éthique : limiter l’usage des nudges les plus manipulateurs, intégrer des fonctionnalités de pause par défaut (par exemple, demander à l’utilisateur s’il veut vraiment continuer après 30 minutes de vidéo), bannir certaines techniques d’optimisation purement captologiques, etc. On peut imaginer que, tout comme on régule la publicité pour qu’elle ne vise pas abusivement les enfants ou qu’elle n’usurpe pas la réalité, on régule les algorithmes pour qu’ils respectent un certain “bien-être cognitif” de l’utilisateur.

Si l’on veut aller plus loin et sortir des sentiers battus, il faut sans doute réinventer nos rapports à ces technologies. Pourquoi ne pas imaginer des IA elles-mêmes garantes de notre bien-être cognitif ? Par exemple, un assistant intelligent qui surveille notre charge mentale et qui filtre ou échelonne les informations entrantes pour éviter la surcharge, jouant en quelque sorte le rôle de garde-fou attentionnel. De même, on pourrait encourager la création de réseaux sociaux alternatifs, non basés sur la publicité, où le but n’est pas de maximiser le temps passé mais la qualité des interactions. L’angle économique est crucial : tant que le modèle restera celui de la publicité programmatique, où plus d’attention captée = plus de revenus, il sera difficile d’échapper à la spirale de l’hyperstimulation. Des voix proposent ainsi de sortir du règne de la publicité ciblée comme unique horizon de monétisation des services numériques, pour explorer d’autres modèles plus vertueux. Cela pourrait passer par des services payants (abonnements) garantissant l’absence de manipulations, ou par des financements publics de plateformes éducatives et culturelles sans but lucratif. Nos données et notre temps devraient être considérés comme des ressources précieuses, à protéger au même titre que l’environnement. On voit poindre l’idée d’une “sobriété numérique” cognitive : consommer moins mais mieux, designé pour l’humain et non contre lui.

Voeu pieux ?

Un enjeu fondamental pour les dix prochaines années

Le phénomène de décrochage cognitif à l’ère de l’IA est à la fois un danger insidieux et une opportunité de repenser le lien entre l’humain et la technologie.

D’un côté le constat d’une baisse de certaines capacités (attention, mémoire, lecture profonde) dans nos sociétés saturées d’écrans et d’algorithmes est très inquiétant. La perspective de voir ces tendances s’aggraver avec l’omniprésence de l’IA soulève des questions existentielles : quelle sera la place de l’humain dans un monde où les machines pensent de plus en plus pour lui ? Risquons-nous un appauvrissement général de l’intelligence humaine, une génération incapable de concentration prolongée ou de pensée critique autonome ? Ces craintes doivent être prises au sérieux, car elles touchent aux fondements de notre dignité cognitive et de notre liberté mentale. Une société d’individus distraits, impulsifs, dépendants d’assistants numériques pour le moindre raisonnement, serait une société fragilisée – vulnérable à la manipulation, à la désinformation, et finalement moins créative et moins démocratique.

D’un autre côté, les opportunités offertes par l’IA et le numérique existent bel et bien. Jamais le savoir n’a été aussi accessible qu’aujourd’hui : quelques clics ou une question à une IA peuvent nous donner accès à des bibliothèques entières, à des tutoriels, à des traductions, à des analyses sophistiquées autrefois réservées à une élite. L’IA peut libérer du temps de cerveau humain en automatisant des tâches routinières, nous permettant théoriquement de nous consacrer à des activités à plus forte valeur ajoutée cognitive (création, résolution de problèmes complexes, relations humaines). Elle peut également servir à personnaliser l’apprentissage et à aider chacun à surmonter ses difficultés : on voit émerger des outils d’IA éducative qui s’adaptent au profil de l’élève pour l’aider à progresser, ce qui pourrait au contraire rehausser le niveau général si c’est bien utilisé. En somme, l’IA est un amplificateur : elle peut amplifier le pire (distraction, paresse intellectuelle, abrutissement) comme le meilleur (connaissance, efficacité, créativité).

Les dix prochaines années seront déterminantes pour négocier ce virage. Le défi du décrochage cognitif à l’ère de l’IA nous oblige à poser un regard lucide sur nous-mêmes. Il interroge notre plasticité cérébrale – jusqu’où pouvons-nous nous adapter sans nous perdre ? – et notre projet de société – quel humanisme numérique voulons-nous bâtir ? Les choix que nous ferons dans la décennie à venir, qu’il s’agisse de légiférer, d’innover différemment ou de changer nos comportements, auront un impact profond sur l’avenir de l’esprit humain. Allons-nous vers un monde d’“assistés cognitifs”, où l’on ne saura plus fonctionner sans IA ? Ou saurons-nous mettre l’IA à sa juste place, comme un outil au service d’un esprit humain curieux, critique et maître de son attention ? L’issue de ce grand tournant déterminera la qualité de nos démocraties, de notre culture et de notre humanité tout court.