Deux mains, l’une humaine et l’autre robotisée, se rejoignent pour symboliser la collaboration entre l’humain et l’intelligence artificielle.

Faire de la place à votre assistant IA, et réinvestir la capacité libérée

Faire de la place au poste de travail

Vous êtes confortablement installé à votre poste de travail. Tout est à sa place. Le dos droit, les pieds au sol, vous vous sentez productif.

Un instant. Nous sommes en février 2026. Il faut faire un peu de place pour votre nouvel assistant IA.

Quel que soit notre métier, nous devons toutes et tous nous habituer à travailler avec l’IA. Cela implique bien plus que l’adoption d’un nouvel outil : cela transforme les manières de travailler, la répartition de l’effort cognitif et, à terme, la façon dont s’exercent le jugement et la responsabilité dans le travail.

L’IA s’invite désormais dans l’activité quotidienne. On peut lui poser des questions, lui demander des analyses, parfois même des ‘avis’. Cette co-présence peut améliorer l’efficacité, mais elle comporte aussi des risques. À force de déléguer l’exécution, on peut progressivement déléguer le raisonnement lui-même, au point d’affaiblir sa capacité à penser en profondeur, à évaluer de manière critique et à raisonner de façon autonome.

Les assistants d’IA générative produisent des résultats à partir de données passées, avec des biais intégrés, et peuvent commettre des erreurs. Or leur ton fluide et affirmé peut donner une impression de fiabilité. Lorsque cette assurance est prise pour un gage d’exactitude, l’esprit critique se relâche.

La tendance à accorder une confiance excessive à un système parce qu’il s’exprime avec assurance et paraît compétent allant parfois jusqu’à lui prêter des qualités humaines, tout en sachant qu’il s’agit d’un système automatisé est connue sous le nom d’effet ELIZA*.

Votre assistant reste un outil, un système fondé sur des machines. La qualité du résultat dépend de votre capacité à exercer pleinement votre esprit critique tout au long de son utilisation. Ce déplacement progressif de l’exécution vers le jugement et de la vitesse vers la responsabilité soulève des questions décisives sur la manière dont l’IA s’inscrit concrètement dans le travail réel humain. 

C’est indéniable. L’IA et les agents d’IA peuvent aujourd’hui prendre en charge une plus grande partie du travail. La valeur qu’ils créent dépendra de la manière dont le travail est repensé autour d’eux, car il existe des risques à ne pas négliger. Le potentiel est immense.

‘La substitution silencieuse du jugement’

Sans retirer formellement la décision à l’humain, une intégration mal conçue de l’IA peut entraîner une substitution silencieuse du jugement. Lorsque les systèmes automatisés organisent l’information en amont en sélectionnant, hiérarchisant et synthétisant les éléments, le jugement humain intervient plus tard, sur un raisonnement déjà structuré. L’humain continue de valider la décision, mais il ne reconstruit plus activement le raisonnement qui y mène. La recherche sur l’automatisation montre que, dans ces configurations, les automated cues tendent à se substituer à l’analyse vigilante¹².

Ce déplacement crée un premier risque opérationnel : face à une recommandation automatisée, les utilisateurs cessent plus fréquemment de vérifier des informations pourtant disponibles ou d’examiner des signaux contradictoires. Ce phénomène est bien documenté dans les études montrant que l’introduction d’aides décisionnelles peut augmenter certaines erreurs lorsque les systèmes sont perçus comme fiables¹³.

À plus long terme, ces environnements de travail produisent un second effet, plus difficile à détecter : une érosion progressive de la capacité de jugement. Lorsque le travail n’exige plus l’exercice régulier du raisonnement intermédiaire, les capacités à comprendre une situation, à contester un résultat ou à reprendre la main en cas d’erreur se dégradent. Ce phénomène est documenté dans les recherches sur les situations dites out-of-the-loop, où l’automatisation affaiblit la compétence humaine précisément là où elle est censée garantir la fiabilité du système¹⁴.

Ces risques ne relèvent pas d’un mauvais usage individuel de l’IA, mais de choix de conception du travail (Work Design). Lorsque les systèmes sont déployés sans points d’arrêt explicites obligeant à l’exercice du jugement, la supervision devient approbation, la vérification devient optionnelle, et la responsabilité humaine s’affaiblit de facto.

Human in the loop

Dans toute coopération humaine-IA, certaines capacités restent systématiquement mieux assurées par les humains. Ce modèle est souvent désigné par l’expression ‘human in the loop’ : l’IA soutient l’exécution, mais les humains conservent la responsabilité du jugement, de la validation et de la prise de décision. Un outil d’IA intervient à la demande, mais une IA agentique peut fonctionner en arrière-plan et ajuster ses actions au fil du processus, afin d’atteindre un objectif donné. Les systèmes multi-agents vont plus loin en répartissant le raisonnement et l’exécution entre plusieurs agents spécialisés, ce qui renforce l’efficacité opérationnelle mais exige une conception explicite des points où le jugement humain doit intervenir. 

Les rapports du World Economic Forum sur l’avenir du travail mettent en évidence le rôle central des compétences humaines, qui constituent le socle sur lequel peut se construire une collaboration humain-IA efficace.

On identifie plusieurs compétences humaines comme essentielles, notamment la pensée analytique et créative, la résilience et l’agilité, ainsi que le leadership, la communication et l’intelligence émotionnelle. Des domaines dans lesquels l’IA ne dispose d’aucune capacité autonome. Si l’IA peut traiter l’information à grande échelle, ce sont bien les compétences humaines telles que l’évaluation critique, la compréhension du contexte et l’apprentissage continu qui déterminent la qualité de son usage¹.

The Adecco Group a mené une enquête auprès de 37 500 travailleurs et 2 000 dirigeants dans 31 pays et en conclut que, face à l’essor de l’IA, les organisations doivent mettre l’humain au cœur des transformations du travail : “Les organisations doivent rééquilibrer d’urgence leur approche et placer l’humain au cœur des transformations afin que l’avenir du travail profite à tous.” ¹¹

Le cas du recrutement

Dans le recrutement, cette vigilance humaine est particulièrement critique à deux niveaux.

D’abord, pour éviter que des candidats ne disparaissent dans les angles morts des outils de sélection. Ces outils reposent sur des critères standardisés. Ils favorisent donc des parcours linéaires et conformes aux schémas de réussite passés. Cela se fait souvent au détriment de profils plus atypiques, pourtant porteurs de fortes capacités d’apprentissage et d’adaptabilité.

Les travaux de l’OCDE et de chercheurs en économie du travail montrent que ces mécanismes peuvent renforcer des exclusions existantes. C’est le cas lorsque les décisions automatisées ne sont pas systématiquement relues par des humains capables d’identifier le potentiel au-delà des signaux formels⁷,⁸.

Par ailleurs, le marché du travail tend à valoriser de plus en plus la capacité à apprendre en continu et à travailler avec des outils d’IA. Ce sont pourtant des compétences difficiles à apprécier à partir d’un CV ou d’un score algorithmique.

Le World Economic Forum et The Adecco Group soulignent que ces aptitudes émergentes nécessitent des approches d’évaluation plus qualitatives. Cela passe par le jugement des recruteurs, des mises en situation pertinentes et des dispositifs de sélection conçus pour ne pas exclure ceux qui ne correspondent pas aux modèles existants⁹,¹⁰.

Là encore, l’IA peut soutenir l’analyse. La responsabilité d’identifier le potentiel futur et d’éviter les exclusions silencieuses reste pleinement humaine.

L’introduction de l’IA ne supprime pas le travail, elle le reconfigure.

Comme lors de précédentes transformations technologiques, la question centrale n’est pas seulement ce que l’IA permet de faire plus vite, mais ce que l’on choisit de faire du temps et de la capacité qu’elle libère.

Le World Economic Forum souligne que l’IA ne réduit pas nécessairement le volume de travail; la collaboration humain–machine peut créer davantage de valeur et permettre de se concentrer sur des activités plus complexes¹.

Cette collaboration devient plus concrète avec l’émergence d’agents IA capables de prendre en charge certains workflows entiers, sous supervision humaine.

Dans les équipes financières, par exemple, un agent IA peut assurer les relances de factures, le suivi des échéances, les rappels, l’adaptation aux réponses et la mise à jour des systèmes. L’IA libère ainsi du temps pour des activités à plus forte valeur ajoutée, comme la gestion des situations complexes ou l’amélioration de la relation client, où le jugement humain reste central.

Des tâches auparavant très chronophages peuvent ainsi être réalisées plus efficacement, libérant potentiellement du temps pour le raisonnement, la créativité et la résolution de problèmes. L’IA accélère l’exécution, tandis que les humains se concentrent sur le travail à plus fort impact.

Réinvestir la capacité libérée

Adapter ses workflows aux outils d’IA ne suffit pas. Il faut aussi adapter ses objectifs et accepter d’être plus ambitieux.

Dans tout workflow, l’input correspond à ce qui entre dans le système et est transformé, et l’output à ce qui en sort et crée de la valeur. Avec l’IA, on obtient davantage d’output avec moins d’effort d’exécution. Cette équation ne crée de valeur supplémentaire que si la capacité libérée est réinvestie intentionnellement dans des activités à plus forte valeur ajoutée.

Un exemple parlant est celui du ‘vibe coding’, terme popularisé par Andrej Karpathy, pour décrire une approche où les développeurs se concentrent sur l’intention et la direction, tandis que l’IA produit une grande partie du code⁵. La recherche académique définit cette pratique comme une programmation par interaction conversationnelle avec des large language models, dans laquelle les développeurs pilotent, évaluent et corrigent les propositions de l’IA de manière itérative⁴.

Les études montrent que les développeurs réorganisent leur temps : moins d’efforts consacrés au code répétitif ou au débogage, davantage de temps dédié à la formulation des problèmes, à la revue des résultats et aux décisions de robustesse et de maintenabilité⁴. Il s’agit d’une collaboration structurée où l’IA accélère l’exécution et où le jugement humain reste responsable du résultat final.


« L’IA crée de la valeur lorsque le travail est conçu pour renforcer le jugement humain, et non pour s’y substituer. »

‘Augmentation’, vs ‘automation’

Comme l’a rappelé Daron Acemoglu, prix Nobel d’économie 2024, l’avenir de l’IA n’est pas écrit : il dépend des choix que nous faisons, notamment du fait de l’utiliser pour automatiser le travail ou, au contraire, pour augmenter les capacités humaines.

Les assistants et agents IA peuvent nous permettre d’atteindre de nouveaux niveaux de création de valeur. Mais sans une refonte de la conception du travail (Work Design), fondée sur l’analyse du travail réel, cette ambition reste sans impact durable.

Comme le souligne Ramine Tinati, responsable du Centre Asie-Pacifique pour l’IA avancée chez Accenture, les outils d’IA peuvent accélérer l’exécution sans pour autant accroître la productivité si les organisations ne repensent pas la manière dont le travail est structuré².

Cette distinction est souvent résumée par l’opposition augmentation versus automation. Erik Brynjolfsson l’exprime clairement dans Harvard Business Review : les gains majeurs de l’IA ne proviendront pas de l’automatisation des processus existants, mais de leur remise en question et de leur redesign³.

Remettre le débat en perspective

J’ai trouvé intéressant récemment de regarder une démonstration vidéo datant de 1968, réalisée par Douglas Engelbart, pionnier de l’interaction homme–machine et référence fondatrice sur la manière dont la technologie peut augmenter le travail humain. Cette démonstration, connue sous le nom de ‘Mother of All Demos’, permet de prendre du recul sur les débats actuels. Engelbart y présente un système intégrant déjà la souris, l’hypertexte, l’édition collaborative ou encore la visioconférence, avant que ces technologies n’existaient dans l’usage courant.

Les mêmes questions s’y posaient déjà à l’époque: quelle est la place de l’humain ? Où se crée la valeur ? Comment évoluent l’input et l’output lorsque la technologie transforme le travail ?

Pour Engelbart, l’enjeu n’était pas de remplacer l’humain, mais de renforcer ses capacités au sein du système. Dès le départ, il a défini la technologie comme un moyen d’augmenter les capacités humaines : aider les personnes à mieux penser, mieux collaborer et à résoudre ensemble des problèmes complexes. Son travail met en évidence deux trajectoires distinctes dans la manière dont la technologie transforme le travail, que l’on retrouve aujourd’hui dans l’opposition entre automatisation et augmentation.

L’automatisation vise à retirer l’humain du processus pour gagner en vitesse ou en standardisation ; l’augmentation fait exactement l’inverse, en s’appuyant sur l’IA pour renforcer ce que les humains font le mieux : exercer leur jugement, interpréter le contexte et assumer la responsabilité des résultats. Pour que les outils d’IA soient réellement productifs, les humains doivent rester dans la boucle non pas comme de simples superviseurs passifs, mais comme des contributeurs actifs de l’intention, de l’esprit critique et de la responsabilité.

Cela demande un effort : continuer à se faire confiance, apprendre en permanence, et accepter de questionner, vérifier et auditer les résultats produits par l’IA plutôt que d’en accepter la première réponse. Faire de la place à l’IA ne consiste donc ni à déléguer la décision ni à réduire l’effort cognitif, mais à réinvestir consciemment la capacité libérée dans une réflexion plus profonde, davantage de créativité et une vigilance accrue. Sans ce réinvestissement, le travail peut être automatisé  mais il n’est pas véritablement augmenté.

Sources

¹ World Economic Forum (2025)
The Future of Jobs Report 2025. World Economic Forum, January 2025. https://www.weforum.org/publications/the-future-of-jobs-report-2025/

² Tinati, R. (2025)
Public statements on advanced AI and organisational productivity, Accenture APAC Centre for Advanced AI, cited in Times of India, 2025. https://timesofindia.indiatimes.com/articleshow/122955662.cms

³ Brynjolfsson, E. & McAfee, A. (2017)
The Business of Artificial Intelligence. Harvard Business Review, July 2017. https://hbr.org/2017/07/the-business-of-artificial-intelligence

⁴ Lee, H. P., et al. (2025)
The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects. ACM Digital Library. https://dl.acm.org/doi/10.1145/3706598.3713778

⁵ Karpathy, A. (2023–2024)
Public interventions introducing the concept of “vibe coding” (primary sources: talks, interviews, and social media posts). https://karpathy.ai/

⁶ Engelbart, D. (1962 / 1968)
Augmenting Human Intellect: A Conceptual Framework (1962); “The Mother of All Demos” (1968). Video archive: https://www.youtube.com/watch?v=UhpTiWyVa6k

⁷ OECD (2023)
AI and the Labour Market. Organisation for Economic Co-operation and Development. https://www.oecd.org/employment/ai-labour-market/

⁸ Acemoglu, D. & Restrepo, P. (2020)
Artificial Intelligence and Jobs. Journal of Economic Perspectives, Vol. 33, No. 2. https://www.aeaweb.org/articles?id=10.1257/jep.33.2.3

⁹ World Economic Forum (2024)
Putting Skills First: Opportunities for Building Efficient and Equitable Labour Markets. World Economic Forum. https://www.weforum.org/publications/putting-skills-first-opportunities-for-building-efficient-and-equitable-labour-markets/

¹⁰ The Adecco Group (2024)
Global Workforce of the Future 2024: Working Through Change. The Adecco Group. https://www.adeccogroup.com/future-of-work/global-workforce-of-the-future

¹¹ The Adecco Group (2025).

Global Workforce of the Future 2025. Flagship research based on a survey of 37,500 workers and 2,000 C-suite leaders across 31 countries.

¹² Mosier, K. L. & Skitka, L. J. (1996). “Automation bias” (définition comme recours heuristique remplaçant la recherche et le traitement vigilants de l’information).https://www.researchgate.net/publication/230601064_Human_Decision_Makers_and_Automated_Decision_Aids_Made_for_Each_Other?utm_source=chatgpt.com

¹³ Skitka, L. J., Mosier, K. L., Burdick, M. & Rosenblatt, B. https://www.sciencedirect.com/science/article/abs/pii/S1071581999902525?utm_source=chatgpt.com

¹⁴ Endsley, M. R. & Kiris, E. O. (1995). https://en.wikipedia.org/wiki/Out-of-the-loop_performance_problem?utm_source=chatgpt.com

¹⁵ Macnamara, B. N., et al. (2024). Does using artificial intelligence assistance accelerate skill decay? https://pmc.ncbi.nlm.nih.gov/articles/PMC11239631/

* L’effet ELIZA désigne un biais cognitif par lequel des utilisateurs attribuent à un système automatisé une compréhension ou une compétence qu’il ne possède pas, du simple fait que ses réponses sont formulées de manière cohérente et convaincante. Le terme fait référence au programme ELIZA, développé dans les années 1960 par Joseph Weizenbaum, qui montrait déjà à quel point un langage fluide peut induire une confiance excessive dans des systèmes pourtant très limités.

Publications similaires

Un commentaire

Les commentaires sont fermés.