Le travail réel, conçu par des humains pour des humains
Nous nous intéressons tous à l’avenir du travail. Nous cherchons à anticiper ce qui nous attend afin de mieux nous y préparer. Nous voulons comprendre ce qui va changer. Mais une question plus fondamentale est souvent laissée de côté : qu’est-ce qui ne va pas changer?
C’est ce qui compte davantage lorsque les technologies évoluent rapidement. Les outils changent, parfois très vite, mais les fondements cognitifs et sociaux du comportement humain restent invariables. Comme l’observait l’anthropologue Claude Lévi-Strauss, « La pensée sauvage n’est pas une pensée primitive ou archaïque, mais une pensée en plein exercice, soumise aux mêmes exigences de logique que la nôtre. »
Ce qui a rendu possible la coopération humaine, l’apprentissage collectif et la construction du sens depuis le début continue aujourd’hui encore à structurer notre manière de travailler, de nous organiser et de contribuer¹.
Les humains ont toujours dépendu de leur appartenance à un groupe, de la possibilité de contribuer de manière visible et utile, de la confiance dans la réciprocité des efforts et d’une compréhension partagée du sens de l’action collective. Ces mécanismes permettaient déjà aux groupes humains de se coordonner bien avant l’existence d’institutions formelles ou de technologies. Rien de tout cela n’a changé. Les environnements de travail contemporains activent toujours les mêmes besoins : se sentir membre d’un collectif, être utile, être digne de confiance, apprendre et donner du sens à ce que l’on fait. La technologie transforme la manière de travailler, mais pas ce qui soutient durablement l’engagement².
À travers les disciplines : évolution humaine, sciences cognitives, anthropologie sociale, psychologie du travail, le constat est cohérent : la nature humaine est stable, même lorsque les environnements changent³.
Homo sapiens est apparu il y a environ 300 000 ans. Les données fossiles, anatomiques et neurologiques indiquent que, dès cette période, la structure du cerveau humain se situait déjà dans la variabilité des cerveaux humains modernes⁴. L’agriculture, l’industrialisation, la numérisation et aujourd’hui l’intelligence artificielle sont bien trop récentes pour avoir modifié les fondements biologiques de la cognition, de l’émotion ou du comportement social.
Comme l’explique le paléoanthropologue Simon Neubauer, à partir de l’analyse des endocastes fossiles : “La forme globulaire du cerveau, caractéristique de Homo sapiens, est apparue très tôt et était déjà présente chez les premiers Homo sapiens.”⁴
Autrement dit, chaque transformation technologique y compris l’IA s’applique à une architecture cognitive et sociale largement inchangée. C’est précisément pour cette raison que la conception du travail (work design) s’est constituée comme un champ de recherche à part entière, et que ses enseignements restent pleinement pertinents à l’heure où l’IA redessine l’organisation du travail. Ces constats sont aujourd’hui largement corroborés par les travaux de terrain menés sur l’adoption de l’IA dans les organisations.¹⁴
Pourquoi le work design existe
L’histoire humaine est avant tout une longue histoire d’activités collectives. En comparaison, l’histoire du travail en tant qu’objet formellement conçu et théorisé est récente, et celle du work design plus courte encore.
Le work design n’est pas né pour optimiser la technologie. Il est né parce que les organisations ont constaté, à maintes reprises, que traiter le travail humain comme un simple paramètre technique ne fonctionne pas.
À mesure que les systèmes de production se complexifiaient au XXᵉ siècle, de nombreuses organisations ont tenté de concevoir le travail comme si les comportements humains étaient parfaitement prévisibles, interchangeables et indéfiniment adaptables. Le résultat a suivi un schéma récurrent : des systèmes apparemment efficaces sur le papier, mais fragiles dans la réalité. La productivité stagnait, la qualité se dégradait, les accidents augmentaient et le désengagement progressait. Le work design existe pour expliquer ces échecs et en tirer des principes durables.
À travers différents courants, systèmes sociotechniques, psychologie du travail, ergonomie, facteurs humains, un constat s’est imposé : la nature humaine n’est pas une variable périphérique du design du travail, mais une contrainte centrale⁵. Concevoir le travail sans tenir compte de la façon dont les humains coordonnent l’action, apprennent, exercent leur jugement et récupèrent après une erreur produit des systèmes fragiles, quelle que soit la sophistication technologique.
L’échec des approches technocentrées
Les pratiques industrielles d’après-guerre ont montré que, si la division du travail pouvait produire des gains d’efficacité à court terme, elle tendait, dans des contextes de complexité accrue, à fragiliser la performance globale, avec des effets observés sur la productivité, la qualité et l’engagement.
Les travaux menés par le Tavistock Institute ont mis en évidence un point clé : lorsque le système social du travail est endommagé, le système technique peut échouer⁵.
L’exemple des mines de charbon britanniques à la fin des années 1940 est devenu emblématique. Des équipes autonomes, responsables de bout en bout de leur activité et capables de résoudre localement les problèmes, ont été remplacées par des méthodes mécanisées de type ‘longwall’, optimisant les machines tout en fragmentant les rôles humains. Malgré l’amélioration technologique, la productivité a chuté, les accidents ont augmenté et l’absentéisme s’est accru.
En optimisant le système technique, le management a involontairement détruit le système social qui rendait le travail possible : responsabilité partagée, confiance mutuelle et capacité à se coordonner lorsque les situations se dégradaient.
C’est dans ce contexte qu’a émergé la théorie des systèmes sociotechniques, dont un principe central reste pleinement pertinent aujourd’hui : les systèmes techniques et sociaux doivent être conçus conjointement. Les approches consistant à concevoir d’abord la technologie puis à adapter les humains a posteriori ont, à de nombreuses reprises, montré leurs limites en termes de robustesse et de performance.
La motivation comme variable de conception, pas comme effet secondaire
L’une des contributions les plus solides empiriquement au work design reste le modèle des caractéristiques du travail (Job Characteristics Model) de Hackman et Oldham (1976)⁶. Les cinq dimensions identifiées : variété des compétences, identité de la tâche, signification de la tâche, autonomie et feedback constituent encore aujourd’hui un cadre fiable pour comprendre l’impact de la conception du travail sur la performance et la motivation intrinsèque.
Des décennies de méta-analyses confirment que ces dimensions prédisent la satisfaction au travail, l’engagement, l’apprentissage et la qualité des résultats, tous secteurs confondus. Rien n’indique que ces mécanismes se soient affaiblis à l’ère numérique. Au contraire, ils deviennent plus saillants à mesure que le travail devient plus abstrait et plus éloigné de ses effets visibles.
Quand le travail mal conçu devient toxique
Les recherches ultérieures montrent que le travail mal conçu n’est pas simplement inefficace: il est activement nocif. Les travaux synthétisés par Parker, Grant, Morgeson et Humphrey montrent que des exigences élevées combinées à un faible niveau de contrôle prédisent de manière fiable le stress chronique, la dérégulation du cortisol, le burnout et des risques sanitaires à long terme⁷.
Un mauvais design du travail n’est donc pas neutre. Il est toxique. À l’inverse, un bon design crée les conditions de l’apprentissage, du sens, de la latitude décisionnelle et de la performance adaptative.
Les neurosciences viennent renforcer ces constats. Les systèmes neuronaux impliqués dans le stress, la récompense et la menace sociale sont anciens et largement conservés. La technologie ne modifie pas cette réalité biologique.
Principes sociotechniques à l’ère de l’IA
Les principes sociotechniques formulés par Chris Clegg restent particulièrement pertinents dans le contexte de l’IA et des systèmes agentiques⁸. Ils incluent notamment la spécification critique minimale définissant ce qui doit être fait, pas comment, le contrôle local des variations et la primauté du système social.
Le contrôle des variations est particulièrement éclairant pour l’IA agentique. Lorsque les problèmes sont détectés et traités au plus près de leur source, les systèmes gagnent en résilience, l’apprentissage s’accélère et la dépendance à un contrôle centralisé diminue. Cette logique vaut autant pour les équipes humaines que pour les ensembles humain-IA.
L’enjeu n’est pas de maintenir l’humain dans la boucle comme simple superviseur de l’IA, mais de concevoir le travail avec lui, à partir du travail réel, pour préserver jugement, sens et responsabilité.
IA agentique, confiance et piège de l’efficacité
Les données récentes de terrain illustrent ce qui se produit lorsque ces principes sont ignorés. Des enquêtes publiées en 2025 par Camunda et TechRadar indiquent que de nombreuses organisations expérimentant l’IA agentique décrivent leurs projets comme “not really working out”⁹.(Ne marchent pas vraiment très bien.) Les initiatives sont à l’arrêt, non pas en raison de défaillances techniques, mais à cause d’un manque de confiance et d’un manque de contrôle.
Le problème est structurel. Les workflows d’entreprise, finance, conformité, paie, recrutement reposent sur des logiques fondamentalement déterministes : règles, seuils, responsabilités claires. Les moteurs des systèmes agentiques, eux, sont probabilistes. Les grands modèles de langage prédisent des actions plausibles sur la base de régularités statistiques plutôt que d’exécuter des règles fixes.
Cette tension est au cœur des difficultés observées. Pour gérer le risque, les organisations réintroduisent une supervision humaine : les humains ne font plus le travail, ils surveillent la machine. Les chercheurs parlent alors de “piège de l’efficacit锹⁰ : une situation dans laquelle les humains sont retirés de l’exécution pour être affectés à une tâche de supervision cognitivement plus coûteuse, qui réduit l’apprentissage et l’engagement.
Encore une fois, le système technique est optimisé tandis que le système social est dégradé.
Équipes, autonomie et performance adaptative
Les exemples empiriques classiques, notamment ceux des groupes de travail autonomes étudiés dans les mines, montrent que lorsque les équipes disposent de responsabilités de bout en bout, la performance, la sécurité et le moral progressent simultanément.
Des équivalents contemporains existent dans les organisations agiles ou basées sur les équipes, qui absorbent mieux le changement technologique précisément parce qu’elles ne figent pas les procédures. Un travail bien conçu permet le ‘job crafting’ : les salariés ajustent activement leurs tâches et leurs interactions, renforçant ainsi l’adaptation et l’engagement.
Travail cognitif, savoir tacite et construction du sens
Les professions à forte intensité cognitive confirment ce constat. Des études sur les radiologues montrent qu’une plus grande autonomie et une meilleure signification des tâches améliorent l’attention, la précision diagnostique et l’apprentissage des effets que l’automatisation seule ne peut reproduire⁷.
L’une des raisons est le savoir tacite. Comme l’a formulé Michael Polanyi : “We know more than we can tell.”¹¹ (On sait plus qu’on peut expliquer). Une part essentielle de l’expertise, le jugement, le timing, l’interprétation du contexte est incarnée et expérientielle. Elle n’est pas totalement formalisable.
Les travaux ethnographiques de Julian Orr sur les techniciens Xerox montrent que la résolution réelle des problèmes se fait souvent par le partage informel d’histoires et la construction collective de sens, bien plus que par l’application de procédures¹². Les humains interprètent, donnent du sens et improvisent. Les systèmes d’IA, entraînés sur des données explicites, n’ont pas accès à cette dimension.
Quand la complexité dépasse le design
Dans les organisations contemporaines, cette tension s’amplifie. L’incertitude autrefois décrite comme VUCA est de plus en plus qualifiée de BANI¹³ : fragile, anxieuse, non linéaire et difficile à comprendre.
Les processus évoluent plus vite que la capacité d’adaptation des personnes. Les décisions sont prises loin du travail réel. Les salariés doivent se conformer à des systèmes qui ne reflètent plus la réalité de leur activité. Les recherches en ergonomie et en théorie de l’activité montrent que la performance durable dépend de l’alignement avec le travail réel, pas uniquement avec les processus prescrits⁵.
Des tâches, pas des métiers : décomposer et recomposer le travail
Les travaux de David Autor montrent que la technologie remplace des tâches, pas des emplois entiers⁶. Les emplois sont des ensembles d’activités sans cesse déconstruits et recomposés à mesure que les technologies évoluent.
L’IA accélère ce mouvement sur des workflows complets. Ce qui disparaît, ce n’est pas le travail, mais certaines de ses composantes. L’enjeu central est la recomposition des tâches humaines restantes : jugement, priorisation, gestion des exceptions, coordination et responsabilité. C’est un choix de conception.
Ce qui arrive à la pensée quand l’IA entre dans le workflow
Des recherches empiriques présentées à CHI 2025 montrent que l’IA générative peut modifier l’activité cognitive. Lorsque la confiance dans les outputs est élevée, les humains vérifient moins et raisonnent de façon plus superficielle. Sans structures explicites qui exigent jugement et responsabilité, des biais d’automatisation apparaissent et les compétences cognitives s’érodent¹⁰. J’explore ce concept dans mon dernier article.
Choisir comment réinvestir la capacité libérée
Dans le travail cognitif comme sur le terrain, la conclusion converge. La valeur ne vient pas du simple fait que l’IA accélère l’exécution. Elle dépend de la manière dont les organisations réinvestissent le temps, l’attention et la capacité cognitive libérés.
Cette conclusion est confirmée par des données récentes à grande échelle. Comme le conclut le rapport Global Workforce of the Future 2025 de The Adecco Group, fondé sur une enquête internationale sur l’évolution du travail et l’adoption de l’IA “As tasks and roles evolve with technology, purpose, value and trust anchor our humanity in the workplace. There is no substitute for human connection. It will be people, not technology, who build resilient, adaptable workforces fit for the future.”¹⁴ (Denis Machuel)
Garder l’humain “dans la boucle”, (‘human in the loop’) ne peut se réduire à une validation finale. Les humains doivent rester cognitivement dans la boucle : exercer leur jugement, comprendre le contexte, apprendre et décider. Si on souhaite créer de la valeur, la capacité libérée par l’IA doit être réinvestie intentionnellement, dans de meilleures décisions, des relations plus solides et des résultats plus inclusifs.
En définitive, la transformation par l’IA n’est pas d’abord un défi technologique. C’est un défi de conception du travail. Les humains n’ont pas changé. Si nous voulons que l’IA fonctionne avec et pour les humains, nous devons concevoir le travail autour de l’humain.
Comme le rappelle Denis Machuel, CEO de The Adecco Group :“À mesure que nous automatisons le travail, nous devons veiller à ne pas déshumaniser les travailleurs, mais au contraire à saisir l’opportunité de concevoir une IA qui élève la contribution humaine et ne la remplace pas.”
Tout l’enjeu est là. Lorsque l’on maintient l’humain au centre » ses capacités de jugement, de sens, de responsabilité et d’apprentissage, mais aussi ses besoins fondamentaux d’autonomie, de reconnaissance, d’appartenance, de compétence et de confiance » la conception du travail retrouve sa cohérence.
Concevoir des systèmes d’IA en partant du travail réel, et non l’inverse, permet alors au reste de s’aligner : les outils, les workflows, la performance et la technologie elle-même. Lorsque le travail est conçu pour des humains et avec eux, l’augmentation devient possible et la transformation tient dans la durée.
Sources
¹ Claude Lévi-Strauss (1962). La pensée sauvage. Plon.
² Deci, E. L., & Ryan, R. M. (2000). Intrinsic and Extrinsic Motivations: Classic Definitions and New Directions. Contemporary Educational Psychology.
³ Synthèse interdisciplinaire : évolution humaine, sciences cognitives, anthropologie sociale, psychologie du travail (voir références 4, 6, 7).
⁴ Neubauer, S., Hublin, J.-J., & Gunz, P. (2018). The evolution of modern human brain shape. Science Advances.
⁵ Trist, E. L., & Emery, F. E. (1960). Socio-Technical Systems. Tavistock Institute.
Voir également : Clot, Y. (2010). Le travail à cœur. La Découverte.
⁶ Hackman, J. R., & Oldham, G. R. (1976). Motivation through the design of work: Test of a theory. Organizational Behavior and Human Performance.
⁷ Parker, S. K., Morgeson, F. P., & Johns, G. (2017). One hundred years of work design research. Journal of Applied Psychology.
⁸ Clegg, C. W. (2000). Sociotechnical principles for system design. Applied Ergonomics.
⁹ TechRadar (2025). Companies confess their agentic AI goals aren’t really working out – and a lack of trust could be why.
¹⁰ Parasuraman, R., & Riley, V. (1997). Humans and automation: Use, misuse, disuse, abuse. Human Factors.
ACM CHI (2025). Human–AI Collaboration and Critical Thinking.
¹¹ Polanyi, M. (1966). The Tacit Dimension. Routledge.
¹² Orr, J. E. (1996). Talking About Machines: An Ethnography of a Modern Job. Cornell University Press.
¹³ Cascio, J. (2020). Facing the Age of Chaos. Institute for the Future.
¹⁴ The Adecco Group (2025). Global Workforce of the Future 2025. ‘.Humanity at work’

Un commentaire
Les commentaires sont fermés.