L’IA va-t-elle réduire les emplois ou la productivité ?
L’intelligence artificielle serait une destructrice massive d’emplois. Cette opinion est largement partagée et relayée. Mais le pire est-il toujours certain ?
Luc Ferry, ancien ministre, philosophe et chroniqueur au Figaro, affirme, dans l’édition du 12 mars 2026 du quotidien, que l’intelligence artificielle (IA) va générer une crise économique sans précédent. A vrai dire, il ne fait que relayer les nombreux rapports qui prédisent le pire.
La grande récession des cols blancs
Dernièrement, c’est l’institut américain Citrini Research qui a défrayé la chronique en affirmant qu’il fallait s’attendre à des licenciements par millions. Sa note, « The 2028 Global Intelligence Crisis », a réussi à faire douter la bourse. Les entreprises citées comme les plus exposées ont chuté, à l’instar d’IBM qui a perdu 13% à Wall Street le 23 février 2026. Il faut dire que le scénario développé par Citrini Research n’est rien de moins qu’apocalyptique : dès 2028, les licenciements seraient tellement nombreux que la demande de biens et services chuterait drastiquement et provoquerait un effondrement de l’économie.
Moins pessimistes, les chercheurs d’Anthropic – société à l’origine du chatbot Claude –prédisent tout de même « une grande récession pour les cols blancs ». Si, pour l’instant, il n’y a pas eu d’explosion du chômage dans les professions les plus exposées – qu’exercent les plus diplômés, les plus qualifiés et les mieux rémunérés, comme les informaticiens, les analystes financiers ou les spécialistes du marketing – c’est parce que les possibilités qu’offre l’IA ne sont pas encore pleinement exploitées. Selon les chercheurs d’Anthropic, l’IA pourrait intervenir dans près de 96% des tâches des professionnels de l’informatique. Aujourd’hui, elle ne serait utilisée que dans un tiers environ. Sa marge de progression est donc énorme. Cependant, il est probable que la transformation du marché du travail arrive de manière progressive plutôt que sous la forme d’un raz-de-marée.
En revanche, il est possible d’en voir d’ores et déjà les effets sur les recrutements. Depuis la large diffusion de l’IA générative, le taux d’entrée des jeunes de 22-25 ans dans les emplois les plus susceptibles d’avoir recours à l’IA aurait reculé de 14% aux Etats-Unis, d’après Anthropic. Ce constat rejoint l’analyse de Smith et Kabir qui prétendent que l’IA ne menace pas les travailleurs les plus âgés mais les postes d’entrée de carrière.
Ces oiseaux de mauvais augure sont régulièrement contredits par ceux qui affirment, tel Robert D. Atkinson, que les économies réalisées grâce à l’IA seront réinjectées dans la consommation, réinvesties et pourront créer de nouveaux emplois – comme l’innovation l’a toujours permis.
Vers une intensification du travail
Une troisième école fait actuellement parler d’elle. Elle prétend que, loin de nous faire gagner du temps, l’IA nous en ferait perdre. Dans leur article paru dans la Harvard Business Review, Ranganathan et Ye expliquent que les outils d’IA ne réduisent pas le travail, mais l’intensifient systématiquement. Les deux chercheuses ont mené pendant 9 mois une étude dans une entreprise technologique américaine d’environ 200 employés et ont constaté que grâce à l’IA qui était à leur disposition – mais qu’ils pouvaient choisir de ne pas utiliser – les employés travaillaient plus vite, prenaient en charge un éventail de tâches plus large et étendaient leurs heures de travail, souvent sans qu’on le leur demande. L’IA ayant simplifié le démarrage des tâches – en réduisant la difficulté de se retrouver face à une page blanche ou un point de départ inconnu –, ils l’ont de plus en plus utilisée pour des choses qu’ils auraient précédemment confiées à d’autres.
Cet extension du domaine de chacun a, parallèlement, entraîné un surcroît de travail chez leurs collègues. Par exemple, quand les chefs de produit et les designers se sont mis à coder avec l’IA, ils ont fait appel aux informaticiens pour revoir ce qu’ils avaient réalisé, les corriger et les coacher.
Enfin, l’utilisation de l’IA, qui ressemble davantage à une conversation qu’à l’exécution d’une tâche formelle, facilite les débordements involontaires sur le temps personnel. Les employés ont ainsi pris l’habitude de solliciter l’IA pendant leurs pauses déjeuner, ou chez eux quand une idée leur venait à l’esprit. Petit à petit, ces actions ont engendré une journée de travail avec moins de pauses naturelles et une implication plus continue.
Comme l’écrivent Ranganathan et Ye, « l’IA a instauré un nouveau rythme où les employés menaient plusieurs tâches simultanément » parce qu’ils avaient le sentiment d’avoir un « partenaire » capable de les aider à gérer leur charge de travail. « La réalité était celle d’une attention constamment détournée, de vérifications fréquentes des résultats de l’IA et d’un nombre croissant de tâches en cours. » Finalement, ils allaient plus vite, mais en faisaient plus à la fois et devenaient de plus en plus dépendants de l’IA. Beaucoup se sont sentis plus occupés et plus stressés qu’avant. Tout cela n’est pas sans danger car, s’il y a réellement surmenage, le jugement peut être altéré et le risque d’erreurs, accru. Le gain de productivité initial peut notamment vite laisser place à une baisse de la qualité du travail et à une augmentation du turnover. Les chercheuses appellent donc les entreprises à encadrer l’utilisation de l’IA pour qu’elle soit réellement au service de la productivité.
Le paradoxe de Solow
Une étude publiée en février 2026 par le National Bureau of Economic Research (NBER) révèle que pour 90% des 6000 dirigeants d’entreprise interrogés (aux États-Unis, au Royaume-Uni, en Allemagne et en Australie), l’IA n’a eu aucune influence sur l’emploi ou la productivité au cours des trois dernières années.
Sur son blog, le chef économiste de la société de gestion Apollo Global Management, Torsten Slok, écrit : « L’IA est partout, sauf dans les données macroéconomiques actuelles. Elle n’apparaît pas dans les données sur l’emploi, la productivité ou l’inflation ». Un constat que l’on peut rapprocher de ce que disait l’économiste Robert Solow en 1987 : « Vous pouvez voir l’ère informatique partout, sauf dans les statistiques de la productivité ».
Il est vrai qu’il faut parfois beaucoup de temps pour qu’une innovation affecte la productivité. Par ailleurs, les systèmes sont de plus en plus complexes – 40% des employés de bureau utilisaient, en 2023, plus de 11 applications informatiques – et font perdre beaucoup de temps. On soulignera aussi que les applications ont parfois tendance à déconcentrer les travailleurs. Combien de fois dans une journée sont-ils perturbés par un mail auquel il faut répondre tout de suite, ou par un message en provenance de leurs réseaux sociaux privés ? De plus, l’informatique, ça bugge ! Un de nos lecteurs, médecin, racontait il y a quelques jours en commentaire d’un de nos articles que le système informatique du groupement des hôpitaux autour de la Rochelle n´est plus soutenu par l´éditeur depuis plus de cinq ans. Il faut ainsi « environ dix minutes pour accéder au premier dossier patient quand on arrive en consultation, quand ça ne plante pas pour une demi-journée ». Et il n’y a plus de dossiers papier sur lesquels se rabattre !
Il semble aussi que si l’informatique n’a que peu d’incidences sur la productivité, c’est d’une part parce que les organisations de travail ne s’y sont pas vraiment adaptées, et d’autre part parce qu’elle est mal utilisée. Il est d’ailleurs symptomatique que, selon une étude citée par Le Figaro, « seulement 22% des étudiants ont le niveau numérique attendu pour le seuil professionnel ». Comme le dit un manager interrogé par le quotidien : « Même les logiciels de base, c’est très compliqué. Le pack Microsoft est souvent mal compris, PowerPoint très peu utilisé… Je pensais que chaque génération serait meilleure que la précédente en ce qui concerne le numérique, simplement par habitude d’usage. […] Mais j’ai vite déchanté. »
Bien utiliser les outils, ça s’apprend !
Sans doute en est-il de même avec l’IA. Dans un article, les professeurs Gaurav Gupta et Neha Chaudhuri relatent une expérience menée par le Boston Consulting Group révélant que « les performances de 750 consultants utilisant l’IA ont été inférieures de 23% à celles de leurs collègues qui n’utilisaient pas l’IA ». Pourquoi ? Parce qu’ils se sont servis de l’outil au mauvais moment. L’étude que ces chercheurs ont menée de leur côté montre que « l’IA générative apporte une valeur ajoutée pendant la phase d’exécution d’un projet. Cependant, durant la phase critique de lancement, elle n’offre qu’une valeur négligeable, voire parfois négative. »
Pour les deux chercheurs, il est évident que « l’IA excelle dans les schémas préétablis, mais [qu’] elle est mauvaise pour naviguer dans le flou, ou ce que les sciences de gestion nomment l’ambiguïté. Lancer un projet nécessite une “pensée divergente”. Vous devez explorer des idées folles et contradictoires pour trouver une proposition de valeur unique. » Leur conclusion est que l’IA « est conçue pour terminer le travail, pas pour le commencer ».
L’IA est riche de promesses, bonnes ou mauvaises. Toutes ne seront pas tenues. Quoi qu’il en soit, il semble indispensable d’apprendre à utiliser l’outil à bon escient si l’on ne veut pas qu’il nous dévore ou qu’il nous induise en erreur.
L’article L’IA va-t-elle réduire les emplois ou la productivité ? est apparu en premier sur Contrepoints.