OpenClaw est un système d’agents IA connectés à mes outils (Notion, Google et d’autres). Certains parlent de PKM agentique ou d’AKM. Ce qu'il y a de nouveau : cet outil ne stocke plus que ce que je lui confie. Il surveille, organise, relie, auto-alimente sa propre mémoire (scrap, cron jobs, gateway).
Un système de notes classique stocke ce que vous décidez d'y mettre. Vous cherchez, vous trouvez. L'initiative reste de votre côté. Un système agentique inverse cette logique : il supervise votre mémoire, modélise et organise vos connaissances, propose des connexions avant que vous les formuliez. Et pour finir, vous ne recherchez plus, vous lui parlez.
L'initiative se déplace vers le système et le contrôle, lui, ne suit pas.
En 1998, Andy Clark et David Chalmers publient « The Extended Mind » dans Analysis. Leur argument : où s'arrête le cerveau, où commence le monde ? Otto, atteint d'Alzheimer, consulte son carnet avant chaque sortie. Ce carnet joue le même rôle fonctionnel que la mémoire biologique d'Inga. Pour Clark et Chalmers, le carnet EST la mémoire d'Otto. La cognition ne se limite pas au crâne.
Ce cadre préfigure ce que nous construisons aujourd'hui. Avec une différence que Clark n'avait pas intégrée : le carnet d'Otto était passif. Il stockait sans juger. L'agent IA de 2025 connecte, génère, propose et le fait différemment selon ce que l'utilisateur lui apporte. Le couplage n'est pas symétrique. Il est réactif à la structure de la pensée qui l'active. Ou s'arrête l'extension, où commence le remplacement ? Clark laisse aussi la question ouverte (Nature Communications, 2025).
Une étude Harvard-BCG montre que sur 758 consultants, l'IA a augmenté la qualité du travail de plus de 40% en moyenne pour les tâches dans sa zone de capacité, avec un effet plus prononcé sur les moins performants (+43%) que sur les plus performants (+17%). Les auteurs observent d'ailleurs deux stratégies d'usage distinctes : ceux qui divisent les tâches entre humain et IA ("Centaures"), et ceux qui les entremêlent en continu ("Cyborgs"), savoureux (Dell'Acqua et al., 2023).
Ce phénomène n'est pas inédit. Klein & Klein le nomment le "Sovereignty Trap" : l'autorité apparente de l'IA pousse l'utilisateur à abdiquer son jugement, confondant accès à l'information et capacité réelle. La calculatrice externalisait une opération. Google externalisait une recherche. Dans les deux cas, le jugement restait de ce côté de l'écran. L'IA générative externalise le raisonnement intégratif : elle produit une réponse plausible, bien formée, sans signal d'alerte visible. La délégation est réelle. Son invisibilité aussi (Klein & Klein, Frontiers in Artificial Intelligence, 2025).
Ce qui change n'est pas la nature du couplage humain/outil, c'est sa densité. Google stocke de l'information externe. Un système agentique personnel modélise partiellement la structure de votre cognition et la réinjecte en temps réel. Il ne sait pas ce que vous cherchez. Il sait comment vous cherchez. Et c'est précisément parce qu'il modélise votre façon de penser qu'il l'amplifie différemment selon ce qu'il y trouve.
Ce que m'a révélé OpenClaw est une accélération encore plus spectaculaire que les précédentes.
Un exemple concret : un de mes agents a relié des notes de lecture avec une discussion Slack/Discord ancienne sur la délégation décisionnelle. L'idée était là depuis des mois : je n'avais pas formulé que les deux questions relevaient du même problème. Ce qu'il m'a aussi montré, en creux, c'est là où les connexions manquaient.
J'ai vécu la même chose avec le prompting l'an dernier : une question bien posée produisait quelque chose d'inattendu, une question creuse produisait de la plausibilité bien habillée. Avant ça, avec les réseaux sociaux : ceux qui avaient quelque chose à dire avaient trouvé un amplificateur, les autres avaient trouvé un miroir flatteur. Et avant encore, avec internet : l'accès universel à l'information n'avait pas produit une pensée universellement meilleure. Il avait rendu plus visible l'écart entre ceux qui savaient quoi chercher et ceux qui ne le savaient pas.
À chaque étape, le même mécanisme. À chaque étape, plus rapide.
Si la structure est solide, l'amplification est réelle. Si elle est creuse, le système accélère le creux : plus fluide, mieux formulé, plus convaincant. Un système agentique ne produit pas la pensée, il amplifie la structure cognitive qu’il rencontre, sans erreur visible. Juste une pensée insuffisante qui circule trop vite. Cela décrit le prolongement direct d'un mécanisme que j'avais commencé à décrire dans cet article : Libres de ne pas penser.
Ici, la question du château de cartes se pose. Une pyramide de Ponzi tient tant que les entrées couvrent les sorties. Elle s'effondre quand la base ne suit plus. Un système cognitif amplifié par une IA suit une logique comparable : chaque couche repose sur la qualité de la couche précédente. Amplifier sans construire la base, c'est accélérer vers une fragilité qu'on ne voit pas venir parce que les sorties semblent bonnes jusqu'au moment où elles ne le sont plus.
Pedreschi et ses co-auteurs ont tenté de démontrer que la boucle de rétroaction entre choix des utilisateurs et entraînement des algorithmes produit des effets collectifs souvent non intentionnels (Artificial Intelligence, 2025). Ce mécanisme documenté sur les plateformes opère aussi à l'échelle individuelle : deux personnes utilisant le même Agent IA produisent des résultats différents parce que le système amplifie ce qu'il trouve. Et ce qu'il trouve n'est pas identique.
Internet n'a pas homogénéisé la capacité d'analyse. Il a accéléré la divergence entre ceux qui pouvaient en faire quelque chose et ceux qui y ont trouvé de la distraction. Ce système ne fera pas exception. La bifurcation sera plus rapide, moins attribuable à l'accès qu'à la structure cognitive que chacun apporte au couplage. La frontière pertinente n'est plus entre ceux qui ont les outils et ceux qui ne les ont pas. Elle est entre ceux dont les schémas sont assez denses pour diriger le système, et ceux que le système va diriger.
Pour celui ou celle dont les schémas sont insuffisants, le système n'est pas un ascenseur : c'est un amplificateur qui accélère ce qu'il trouve, y compris la dépendance. Et si ce mécanisme opère à l'échelle individuelle, ses effets à l'échelle collective deviennent très lisibles.
Ce déplacement dépasse le cas d'un outil. Il touche une question plus ancienne : ce que signifie déléguer du jugement, voire une décision à une personne ou un système qui amplifie ce qu'il reçoit.
Quelques questions que je soumets :
- Si nos agents IA amplifient les schémas existants, quelle est la responsabilité de ceux qui déploient ces systèmes dans des organisations où les schémas sont hétérogènes ? Accélère-t-on la performance collective, ou creuse-t-on silencieusement l'écart entre ceux qui dirigent le système et ceux qu'il va diriger ?
- Comment préserver la friction là ou elle est productive : l'effort de reformuler avant de déléguer, l'habitude de valider plutôt qu'accepter ou encore la capacité à voir une erreur avant que le système la lisse ?
- Est-ce inévitable ? Non au sens d'une loi naturelle, probable au sens d'une incitation structurelle. Ces systèmes sont conçus pour limiter l'effort, pas pour le redistribuer intelligemment. Le résultat prévisible est celui d'une adoption sans politique de construction préalable de la pensée.
OpenClaw est un exemple précurseur qui dépasse la question de l'outil à choisir ou bannir. Il engage une réflexion sur la qualité de pensée que nous apportons, ou que notre organisation apporte, et sur la capacité à la construire avant de l'amplifier.
Et plus intimement : si un outil révèle la structure de ma pensée en me la renvoyant amplifiée, est-ce que je suis prêt à regarder ce que ça montre ?
Chaque génération a cru que ses outils l'affranchissaient de cette question.
Aucune ne s'en est affranchie.
Références :
- Andy Clark & David Chalmers, « Extended Mind », Analysis 58(1), 1998
- Andy Clark, « Extending Minds with Generative AI », Nature Communications, 2025
- Dell'Acqua et al., « Navigating the Jagged Technological Frontier », 2023
- Klein & Klein, « The extended hollowed mind », Frontiers in Artificial Intelligence, 2025
- Pedreschi et al., « Human-AI coevolution », Artificial Intelligence, 2025
Pour recevoir mes derniers articles par email.
Member discussion