Aller au contenu

IA & Emploi - Point de vue

IA et emploi : les prophéties de destruction passent à côté de l’essentiel !

Anatomie d’un récit technologique qui mélange exposition, automatisation et destruction

Mi-mars 2026, les Echos titrent « Une étude de Coface et de l’Observatoire des emplois menacés et émergents chiffre à 16 % les emplois en danger en France avec le décollage de l’intelligence artificielle. » Pour Le Monde, sur la base de la même étude, « L’IA est une menace pour 5 millions de salariés en France« . Cependant, dans son étude, la Coface souligne, en gras, que cette étude « mesure l’exposition technique des tâches à l’automatisation, et ne préjuge ainsi nullement d’un volume de destruction nette d’emplois.« 

Ainsi, les craintes face aux nouvelles technologies sont constantes au cours de l’histoire. Elles surgissent avec la ponctualité d’une horloge (suisse) à chaque vague technologique. Les Luddites, artisans du textile, brisaient les métiers à tisser en 1811. Keynes évoquait dès 1933 un « chômage technologique » qui, disait-il, n’était qu’une phase transitoire. Les années 1960 prédisaient que l’ordinateur allait vider les bureaux. De temps à autre, des termes tels que Ubérisation (néologisme qui vient du nom de l’entreprise Uber) viennent concrétiser ces peurs. Pourtant aucune des prophéties alarmistes ne s’est réalisée dans les termes simplistes et catastrophistes où elles avaient été exprimées. Les emplois ont évolué, de nouvelles activités sont nées et l’économie a absorbé le choc, parfois avec difficultés pour certains, mais sans les catastrophes annoncées.

Avec l’émergence de l’intelligence artificielle générative le même phénomène apparaît. Les titres de presse mettent en avant des chiffres spectaculaires : « 120 millions d’emplois détruits d’ici 3 ans » (IBM, 2019), « 300 millions de postes menacés » (Goldman Sachs, 2023), « les développeurs sont condamnés » (à peu près tout le monde, 2024). Des plans de licenciement récents sont justifiés par la montée en puissance de l’IA…

De mon point de vue, ces prévisions reposent, la plupart du temps, sur des analyses fragiles, des hypothèses opaques et une confusion entre exposition, automatisation partielle, besoin de requalification et destruction nette d’emplois. L’étude Coface s’avère, dans ce contexte, la plus prudente.

Il est indéniable que l’IA va transformer profondément les métiers, ceux des développeurs, des ESN, des DSI, des éditeurs de logiciels. Mais transformer n’est pas éliminer. Confondre les deux, c’est prendre le risque de paniquer là où il faut pivoter, d’être titanisé là où il faut innover.

I. Le tribunal des chiffres : quand l’étude devient titre de presse

IBM 2019 : 120 millions de travailleurs à requalifier, pas à licencier

En septembre 2019 (j’aurais pu remonter avant), la presse « technologique » s’est emballée autour d’un chiffre : 120 millions d’actifs verraient leur emploi disparaître sous l’effet de l’IA dans les trois ans à venir. La source étant une étude IBM. Ce chiffre a été repris comme une projection de destructions massives d’emplois.

Problème : ce n’est pas ce que décrit l’étude. Le rapport original, intitulé « The Skills Gap is Not a Myth », parle d’une nécessité de requalification pour 120 millions de travailleurs dans le monde. IBM appelle à investir massivement dans la formation continue, en constatant que la durée moyenne de formation nécessaire pour mettre à jour les compétences est passée de 3 jours en 2014 à 36 jours en 2018. Le message est donc un appel à l’action managériale et politique, pas une condamnation à mort des emplois concernés.

La presse a donc transformé une recommandation stratégique en sentence apocalyptique. Ce glissement sémantique de « à requalifier » à « à supprimer » est révélateur de biais chroniques dans la médiatisation des études sur l’IA et l’emploi.

En effet, les chiffres-chocs interpellent bien davantage que les finesses méthodologiques. Une étude qui dit « formez-vous » n’intéresse personne. Une étude qui annonce la fin du travail tel que nous le connaissons attire les clics.

Goldman Sachs 2023 : 300 millions de postes « exposés », mais à quoi ?

La même mécanique a joué avec le rapport Goldman Sachs de mars 2023, l’une des études les plus citées sur le sujet. Le cabinet y estimait que, environ, 300 millions d’emplois à temps plein à travers le monde étaient « exposés » par l’émergence de l’IA Gen (donc plus particulièrement sensible à son essor), tout en prédisant un gain de 7 % du PIB mondial sur dix ans. Les médias ont évidemment retenu les 300 millions. Mais Goldman Sachs précisait que « exposé » ne signifiait ni « supprimé » ni même « affecté » (le terme désigne simplement les postes dont certaines tâches pourraient être réalisées par une machine), tout en laissant libre l’interprétation qui pouvait en découler. Bref, on peut s’interroger sur la motivation et la méthodologie de cette publication.

Deux ans après ce rapport, en 2025, Goldman Sachs lui-même constatait que les impacts agrégés sur le marché du travail restaient « négligeables ». Aucune corrélation statistique significative n’a pu être établie entre l’exposition à l’IA et les indicateurs réels du marché du travail (taux de chômage, volume d’heures travaillées, évolution des salaires dans les secteurs concernés).

En d’autres termes, l’institution qui avait publié les chiffres les plus alarmants a elle-même, discrètement, relativisé ses propres projections. Ce dernier rapport n’a, évidement, pas eu droit aux mêmes mises en avant que l’ original. 

Le problème structurel : des méthodes fragiles et des glissements de catégories

Ce ne sont pas simplement IBM ou Goldman Sachs qui posent problème. C’est l’ensemble de l’écosystème des prévisions sur l’emploi et l’IA. Olivier Ezratty, dans son analyse de 2018, met en évidence l’extrême dispersion des estimations, l’opacité des hypothèses et la confusion récurrente entre tâches, métiers, postes et emplois nets. Entre 2013 et 2018, les estimations de destruction ou d’automatisation à horizon 5-10 ans oscillent de 6 % à 47 % selon les études. Un tel écart ne signifie certainement pas que l’une d’entre elles a raison. Il confirme plutôt que les « analyses » et les méthodes employées sont difficilement comparables.

La célèbre étude de Frey et Osborne, par exemple, n’annonçait pas, à proprement parler, que 47 % des emplois américains disparaîtraient d’ici 2023. Elle estimait que, environ, 47 % de l’emploi américain était dans une catégorie à « haut risque » d’informatisation sur un horizon large, « perhaps a decade or two » (peut-être une décennie ou deux). C’est ce type de passage d’un risque d’automatisation à la destruction d’emplois qui pollue ensuite le débat public.

Les analyses françaises et européennes aboutissent au même constat. Philippe Askenazy et Francis Bach, dans la revue Pouvoirs, parlent d’« une menace artificielle » pour désigner ce récit qui transforme une exposition technologique en disparition programmée du travail. Le problème n’est pas de nier la transformation en cours mais il est de rappeler qu’une tâche automatisable n’est pas un métier, qu’un métier n’est pas un poste et qu’enfin un poste n’est pas un emploi net dans l’économie. Et en synthèse, une exposition à l’automatisation n’est pas une destruction observée.

Le vice originel d’une grande partie de ces prévisions est simple : elles partent d’objets peu comparables. Tant que ces niveaux d’analyse restent confondus, les chiffres impressionnent plus qu’ils n’expliquent.

II. Ce que la science dit (et ce qui compte)

Les modèles génératifs actuels ne pensent pas au sens humain du terme. Ils ne comprennent ni les finalités, ni les responsabilités, ni les arbitrages comme le ferait un professionnel. Ils produisent des sorties plausibles à partir de régularités statistiques apprises à grande échelle. En ce sens, l’IA actuelle relève moins d’une intelligence autonome que d’une continuité statistique extraordinairement sophistiquée. Cette distinction explique pourquoi ces systèmes excellent sur certaines tâches de langage ou de codage, tout en restant dépendants d’un cadrage humain dès que le contexte, le jugement et la responsabilité sont essentiels.

Acemoglu (MIT) 2024 : le grand refroidissement

Face aux projections spectaculaires de Goldman Sachs, Gartner ou McKinsey, le travail de Daron Acemoglu, professeur au MIT et prix Nobel d’économie 2024, rappelle les fondamentaux. Dans son papier « The Simple Macroeconomics of AI » (2024), il applique à l’IA une rigueur macroéconomique que les cabinets de conseil exercent rarement.

Son modèle, fondé sur ce qu’il appelle une version du théorème de Hulten, stipule que  les gains de productivité agrégés que l’IA peut générer ne peuvent être que proportionnels à la fraction de tâches réellement automatisées, multipliée par les gains de productivité à l’échelle de ces tâches

Appliqué à des hypothèses plausibles, le modèle d’Acemoglu conduit à des gains agrégés modestes : de l’ordre de 0,53 % à 0,66 % de productivité totale des facteurs sur dix ans et environ 0,93 % à 1,16 % de PIB supplémentaire sur la même période. Nous sommes très loin des récits de rupture macroéconomique immédiate.

Acemoglu souligne que les études expérimentales sur lesquelles s’appuient les prévisions optimistes portent presque exclusivement sur des tâches « easy-to-learn » : celles pour lesquelles il existe des métriques objectives et des données d’entraînement abondantes. Les tâches complexes, dépendantes du contexte, relevant du jugement professionnel ou de l’adaptation créative (donc précisément celles qui constituent le cœur de valeur des développeurs seniors, des architectes de solutions, des consultants expérimentés) restent hors de portée d’une automatisation à court et moyen terme.

McKinsey prévoyait entre 1,5 et 3,4 points de pourcentage de croissance annuelle supplémentaire du PIB dans les économies avancées. Acemoglu raisonne, lui, sur un effet agrégé beaucoup plus modeste, inférieur à 0,1 point de PIB par an sur dix ans. C’est un ordre de grandeur sacrément différent !

Microsoft Research 2025 : l’IA dans l’usage réel,  complémentarité et non substitution

L’étude de Microsoft Research publiée en 2025, fondée sur deux ensembles d’environ 100 000 conversations anonymisées avec Copilot, apporte un autre éclairage empirique intéressant. Plutôt que de se fonder sur des projections théoriques ou des évaluations d’experts, les chercheurs ont regardé ce que les utilisateurs font avec l’IA au quotidien.

Les activités les plus fréquemment assistées par l’IA sont ainsi l’apprentissage, la communication, l’explication et la rédaction. L’IA joue alors un rôle de service : elle répond, elle enseigne, elle clarifie, elle rédige un premier jet. Ce qu’elle ne fait pas, dans l’usage réel, c’est assumer la responsabilité d’une décision, gérer une relation, concevoir seule une architecture système ou définir une stratégie de transformation numérique.

L’étude révèle également que   dans 40 % des conversations, les activités de l’utilisateur et celles de l’IA sont disjointes. L’IA accomplirait en moyenne deux activités distinctes pour servir l’activité formulée par l’utilisateur. L’IA  amplifie,  assiste et complète mais elle ne substitue pas,La revue de littérature « AI and jobs » publiée en 2025 va dans le même sens : les effets macroéconomiques et les effets sur l’emploi restent ouverts, les mesures d’exposition sont plus nombreuses que les observations de destruction effective et l’évidence empirique documente mieux des gains de productivité contextualisés qu’une disparition nette et massive des emplois. Là encore, la prudence scientifique contraste avec les affirmations médiatiques.

III. Leçons de l’histoire : la convergence multimédia et l’Internet

Le mythe de la convergence des années 1990

Pour ceux qui ont vécu (les plus jeunes se demandent de quoi il s’agit !) la révolution multimédia des années 1990, le débat actuel a un parfum de déjà-vu. À l’époque, le grand récit dominant était celui de la « convergence » : les télécoms, la télévision, l’informatique et le contenu allaient fusionner. Les éditeurs de logiciels traditionnels allaient être balayés par les opérateurs de contenus. Les cabinets de conseil allaient voir leur cœur de métier dématérialisé. Les métiers de l’intégration allaient disparaître au profit de plateformes automatisées.

Dans la réalité, les éditeurs sont devenus transporteurs de contenus et les transporteurs ont intégré de la production éditoriale mais ni les uns ni les autres n’ont disparu (avec 300 chaînes de télévision dont la lqualité des contenus peut être parfois discutables). Les ESN et les cabinets de conseil ont fait ce qu’ils savaient faire mieux que quiconque : intégrer les nouvelles technologies dans les pratiques de leurs clients, construire des offres de service autour des nouvelles architectures techniques, former et accompagner. 

L’Internet : même scénario, mêmes alarmes, même résilience

Puis est arrivé Internet. La promesse était celle de la désintermédiation totale : pourquoi aurait-on besoin de consultants, d’intégrateurs, de développeurs spécialisés, puisque n’importe qui pourrait désormais vendre directement à n’importe qui, via des plateformes standardisées et des outils déjà presque no-code ? Les librairies allaient mourir. Les agences de voyage allaient être démantelées (elles ont muté). Les DSI allaient être marginalisés par des outils en self-service (ils ont finalement piloté la transformation numérique).

Les ESN ont créé des offres de création de sites web, de e-commerce, d’intranet d’entreprises. Elles ont formé des milliers de développeurs aux nouvelles technologies. Elles ont accompagné leurs clients dans des transformations organisationnelles majeures. Leur chiffre d’affaires global a augmenté. Leur utilité s’est renforcée précisément parce que la complexité des systèmes d’information augmentait avec chaque nouvelle couche technologique.

Puis est venu le cloud. Puis l’agilité. Puis le DevOps. Puis l’API economy. À chaque fois, les mêmes discours sur la fin des intégrateurs, la commoditisation du développement, la disparition de la valeur ajoutée humaine. À chaque fois, la même résilience de ceux qui ont compris que la technologie est une opportunité de nouvelles offres, pas un concurrent.

La constante historique est incontestable : ce ne sont pas les technologies qui tuent les emplois qualifiés dans le secteur numérique. Ce sont les organisations qui refusent d’évoluer qui disparaissent emportant avec elles leurs emplois.

IV. Le cas des développeurs, des ESN et des éditeurs de logiciels

Les développeurs : le paradoxe de Jevons appliqué au code

Le discours dominant affirme que les outils de génération de code (GitHub Copilot, Cursor, Claude Code et autres LLM utilisés directement) vont rendre les développeurs obsolètes. Ce raisonnement est séduisant dans sa simplicité. Il est aussi historiquement faux.

Il souffre d’une intuition économique mal appliquée, souvent rapprochée du paradoxe de Jevons : lorsqu’une technologie augmente fortement l’efficacité d’utilisation d’une ressource, il est fréquent que la demande totale pour les usages associés augmente au lieu de diminuer. L’électricité a rendu les machines plus efficaces et nous en avons fabriqué infiniment plus. Les compilateurs ont rendu le développement logiciel plus rapide et nous avons multiplié la quantité de logiciels produits. Les frameworks ont réduit le temps de développement des interfaces et nous avons construit des applications d’une complexité sans précédent.

Si l’IA rend chaque développeur nettement plus productif, cela peut signifier que le coût de production d’un logiciel diminue, que la demande de logiciels s’élargit, que des projets jusque-là trop coûteux deviennent rentables et que la valeur remonte vers l’architecture, la validation, la sécurité, l’intégration et la contextualisation métier du code généré. Ce que l’IA ne fait pas, et ne fera pas de suite, c’est comprendre les enjeux métier d’un client, définir les exigences non fonctionnelles d’un système critique, arbitrer entre des contraintes contradictoires de performance, de sécurité et d’expérience utilisateur.

L’IA génère du code. Les développeurs, eux, résolvent des problèmes. La confusion entre les deux révèle une méconnaissance profonde de ce que font réellement les équipes techniques dans les organisations.

Les ESN et les cabinets de conseil : la cinquième mutation (au moins)

Pour les ESN et les cabinets de conseil, l’enjeu est, à présent, de capitaliser et s’appuyer sur l’IA pour créer une nouvelle valeur ajoutée dans leurs offres de services. Une ESN n’est pas seulement un producteur de code. Elle prend en charge les problèmes technique, organisationelle et reglementaires complexes de ses clients.Si une partie du codage simple se commoditise, sa fonction économique ne disparaît pas mais elle remonte dans la chaîne de valeur.

Les ESN ont intégré le client-serveur puis le web suivi par le cloud et le SaaS. Elles ont aussi intégré l’agilité et le DevOps. À chaque fois, elles ont créé de nouvelles lignes de service, recruté de nouveaux profils, développé de nouvelles méthodologies. L’IA est sans doute la cinquième mutation de ce cycle, pas la rupture qui y met fin.

Avec l’IA, c’est la nature des offres à construire change. Le client d’une ESN ne vient plus seulement chercher des ressources de développement ou de conseil :mais un acteur capable de déployer et gouverner des agents IA dans ses processus métier, de qualifier ses données, de concevoir des architectures hybrides combinant IA générative et systèmes d’information existants, de sécuriser les usages, de documenter les choix et de répondre aux exigences réglementaires de traçabilité et de conformité.

Ces besoins nécessitent des compétences humaines expertes. Ils constituent la matière première des offres de demain pour les acteurs du conseil et de l’intégration.

Les éditeurs de logiciels : la menace de la commoditisation

La situation des éditeurs de logiciels est différente et mérite une brève analyse distincte. La véritable menace que l’IA fait peser sur eux n’est pas celle de leur disparition, c’est celle de la « commoditisation » de leurs fonctionnalités différenciantes. Si un LLM peut reproduire 80 % des fonctionnalités d’un outil spécialisé avec un prompt bien conçu, la proposition de valeur de cet outil pourrait s’éroder.

 L’arrivée du cloud a « standardisé » l’infrastructure et les éditeurs ont migré leurs offres vers des services à valeur ajoutée, des intégrations verticales, de la personnalisation sectorielle. La réponse à ce type de « standardisation » est l’approfondissement de la verticalisation, l’intégration de l’IA comme levier différenciateur ou la conquête de niches fonctionnelles que les modèles généralistes ne peuvent pas adresser.

Ceux qui souffriront sont les éditeurs  qui proposeront, dans trois ans, exactement ce qu’ils proposent aujourd’hui. Ceux qui embarquent l’IA dans leurs produits créent une proposition de valeur que les LLM seuls ne peuvent pas remplacer (et l’IA ne se réduit pas aux LLM d’ailleurs).

V. La période de flottement : réelle, transitoire, et mal comprise

Evidemment, il y a une période de turbulence. Certains profils très exposés à des tâches répétitives de production de code ou de traitement documentaire verront leurs missions évoluer plus rapidement que d’autres. Certaines ESN qui ont bâti leur modèle économique sur la revente de temps-homme à faible valeur ajoutée seront sous pression. Certains éditeurs dont l’unique différenciateur était la richesse fonctionnelle brute de leur produit se retrouveront en difficulté.

Mais ce flottement n’est pas différent, par nature, de celui qu’a connu le secteur lors de l’arrivée du cloud. Les acteurs qui louaient des serveurs physiques ont souffert, ceux qui ont pivoté vers l’architecture cloud et les services managés ont prospéré. La période de transition a produit des gagnants et des perdants mais elle n’a pas détruit le secteur.

Ce qui est en revanche authentiquement nouveau avec l’IA générative, c’est la vitesse d’adoption. ChatGPT a atteint 100 millions d’utilisateurs en deux mois. Cette vélocité compresse les délais d’adaptation. Les acteurs qui pensaient avoir trois à cinq ans pour évoluer ont peut-être dix-huit mois. 

La vraie menace n’est pas l’IA. La vraie menace, c’est l’inertie organisationnelle face à une fenêtre de transformation qui se referme plus vite que lors des cycles précédents.

VI. Quelques objectifs

Ne pas traiter les prédictions catastrophistes comme des faits

La première chose à faire, collectivement, est d’exiger davantage de rigueur dans la consommation et la diffusion des études sur l’IA et l’emploi. Quand un cabinet annonce des millions d’emplois détruits, il faut immédiatement poser les questions de méthode : quelle définition de l’emploi « menacé » ? Sur quel horizon temporel ? Avec quelle hypothèse de vitesse d’adoption ? Les gains de productivité sont-ils modélisés comme purs substituts ou comme compléments ? Les effets de création de nouveaux métiers sont-ils intégrés ? Quelles sont les motivations derrière l’annonce ?

Si les réponses à ces questions sont vagues ou absentes, le chiffre n’a aucune valeur sur le plan analytique. C’est un signal médiatique. Nous devons refuser d’être gouvernés par des métriques dont la robustesse méthodologique n’est pas démontrée.

Investir massivement dans la montée en compétences

Ce qu’IBM avait raison de dire en 2019 reste vrai : la requalification est nécessaire et urgente. Les développeurs doivent maîtriser les paradigmes du prompt engineering, du RAG (Retrieval-Augmented Generation), de l’évaluation de la qualité des sorties IA, des modèles agentiques. Les consultants doivent comprendre suffisamment l’IA pour en parler à leurs clients avec crédibilité. Les DSI doivent arbitrer entre plateformes internes ou partenariat sur des choix qui n’existaient pas il y a deux ans.

Cela demande du temps, de l’argent et une vision. C’est en principe le type de stratégie que les ESN et les cabinets de conseil doivent maîtriser : accompagner leurs propres équipes ET accompagner leurs clients dans cet effort de transformation des compétences.

Construire les offres de demain maintenant

Les acteurs qui sortiront renforcés de cette période sont ceux qui auront commencé à construire leurs offres autour de l’IA dès maintenant, nonpas en ajoutant un bouton « IA » dans leurs outils existants, mais en repensant leurs propositions de valeur à partir de ce que l’IA rend possible.

Pour une ESN, cela signifie concrètement : développer des frameworks d’intégration d’agents IA dans les processus métier de ses clients sectoriels, anticiper les évolutions avec des équipes de veille, recherche et innovation, créer des offres d’audit et de conformité pour l’IA Act, concevoir des méthodologies d’évaluation de la qualité des systèmes IA en production, etc.

Pour un éditeur, cela signifie embarquer des capacités IA natives dans son produit qui exploitent sa connaissance métier sectorielle (ce que les LLM généralistes ne peuvent pas reproduire sans contexte), et monétiser la donnée propriétaire qu’il possède comme actif d’entraînement et de personnalisation.

L’IA comme Informatique Avancée : la banalisation comme horizon

L’IA est, dans sa profondeur historique, de l’Informatique Avancée (parfois très avancée). Les modèles actuels ne pensent pas comme des humains. Ils prolongent à grande échelle des régularités statistiques apprises sur des masses de données. Ce n’est pas une rupture ontologique du travail humain. C’est une accélération technologique majeure comme l’ont été la base de données relationnelle, le client-serveur ou le cloud. Chacune de ces vagues a suscité ses prophètes du chaos. Aucune n’a tenu ses « promesses » catastrophistes.

L’intelligence artificielle va transformer le travail de développement, le travail de conseil, le travail d’intégration. Elle va le rendre plus productif, plus créatif dans certaines dimensions, plus exigeant dans d’autres. Elle va créer des métiers qui n’existent pas encore.

Au-dela du secteur de marché ou des technologies en oeuvre, l’essentiel est de savoir s’appuyer sur ces mutations technologiques rapides pour s’y adpater, les transformer en opportunité business et d’en créer de nouvelles offres (ou de les intégrer dans des offres).

Les vrais perdants de la vague IA ne seront pas les développeurs remplacés par des machines parce que, les données empiriques le montrent, cette substitution massive n’est pas au rendez-vous. Les vrais perdants seront les organisations qui auront attendu que quelqu’un d’autre fasse la transformation à leur place. Celles qui auront passé trois ans à lire des études Goldman Sachs au lieu de former leurs équipes. Celles qui auront organisé des séminaires sur « l’IA, menace ou opportunité ?» au lieu de déployer des démonstrateurs rapidement, de tester, d’apprendre, d’itérer.

Dans dix ans, nous regarderons l’IA générative comme nous regardons aujourd’hui Internet : une technologie qui a tout changé sans que les mêmes acteurs disparaissent pour autant  à condition qu’ils aient eu le courage de changer avec elle.

Les cassandres numériques ont tort, comme elles ont eu tort avant. C’est maintenant, dans cette fenêtre d’adaptation que se joue non pas la survie de nos métiers mais leur renaissance.

Références

Etude Coface OEM (2026) https://www.coface.fr/actualites-economie-conseils/emplois-competences-valeur-ce-que-l-ia-est-en-train-de-bouleverser

IBM (2019). The Skills Gap is Not a Myth, But Can Be Addressed with Real Solutions. PR Newswire, 6 septembre 2019. https://www.prnewswire.com/news-releases/ibm-study-the-skills-gap-is-not-a-myth-but-can-be-addressed-with-real-solutions-300913011.html

Goldman Sachs Research (2023). Generative AI could raise global GDP by 7%. 5 avril 2023. https://www.goldmansachs.com/insights/articles/generative-ai-could-raise-global-gdp-by-7-percent

Goldman Sachs Research (2025). How Will AI Affect the Global Workforce? 13 août 2025. https://www.goldmansachs.com/insights/articles/how-will-ai-affect-the-global-workforce

Acemoglu, D. (2024). The Simple Macroeconomics of AI. MIT Economics. https://economics.mit.edu/sites/default/files/2024-05/The%20Simple%20Macroeconomics%20of%20AI.pdf

Tomlinson, K., Jaffe, S., Wang, W., Counts, S., & Suri, S. (2025). Working with AI: Measuring the Applicability of Generative AI to Occupations. arXiv. https://arxiv.org/pdf/2507.07935

Mellace, G., Perotti, V., Piva, M., et al. (2025). AI and jobs. A review of theory, estimates, and evidence. arXiv. https://arxiv.org/pdf/2509.15265

Ezratty, O. (2018). Les fumeuses prévisions sur le futur de l’emploi et l’IA. Opinions Libres, 31 octobre 2018. https://www.oezratty.net/wordpress/2018/fumeuses-previsions-futur-emploi-et-ia/

Frey, C. B., & Osborne, M. A. (2013/2017). The Future of Employment: How Susceptible Are Jobs to Computerisation? Oxford Martin School / Technological Forecasting and Social Change. https://oms-www.files.svdcdn.com/production/downloads/academic/The_Future_of_Employment.pdf

Askenazy, P., & Bach, F. (2019). IA et emploi : une menace artificielle. Pouvoirs, 2019/3, n°170, p. 33-41. https://droit.cairn.info/revue-pouvoirs-2019-3-page-33?lang=fr