Vincent Mandinaud : « Sous couvert d’un allégement de tâches, le recours à l’IA peut intensifier le travail »

L’intelligence artificielle a pris beaucoup de place dans le monde du travail ces dernières années, mais elle est loin de toucher tout le monde, qui plus est de la même façon.

Responsable des questions de « Transitions numérique et écologique » à l’Agence nationale pour l’amélioration des conditions de travail (Anact), Vincent Mandinaud appelle à relativiser le tourbillon médiatique autour de la magie de l’IA : la puissance des technologies se heurte à la réalité économique et sociale des organisations de travail.

Comment l’intelligence artificielle bouleverse-t-elle le monde du travail ?

Vincent Mandinaud : Le terme intelligence artificielle recouvre en fait énormément de choses. Si l’on s’en tient aux questions technologiques, depuis deux ans et demi, c’est l’IA générative [de contenus, NDLR.] qui fait le buzz. Mais on peut élargir le spectre et parler des intelligences artificielles dites « connexionnistes », c’est-à-dire celles qui simulent certaines capacités du cerveau humain en passant par des formes diverses d’apprentissage machine. Elles sont sur le devant de la scène depuis une quinzaine d’années, car elles ont profité de l’augmentation de la puissance de calcul et du volume des données (big data).

Dans le monde du travail, les IA permettent aussi bien la reconnaissance ou la génération d’images, de parole et de texte, l’assistance à la décision, l’analyse prédictive de comportements ou l’anticipation de situations, sur la base de calculs poussés.

Ces IA connexionnistes font montre d’une grande performance, sans qu’on puisse totalement expliquer comment elles parviennent à leurs résultats. Elles ne sont cependant pas à l’abri d’erreurs. Certains analystes considèrent même qu’elles sont structurellement défaillantes et au service de l’industrie technologique qui les produit.

Depuis l’arrivée de ChatGPT, et de solutions grand public exploitant des larges modèles de langage (LLM), nous assistons à un tourbillon médiatique et à des formes de paniques morales. L’IA serait partout, et elle pourrait tout. Pour le meilleur et pour le pire, y compris pour le monde du travail.

Pour nuancer un peu les choses, une récente étude de l’Insee indique que seules 10 % des entreprises françaises ont intégré une IA dans leur activité. L’Hexagone se retrouve ainsi en milieu de peloton en matière d’adoption, si l’on se compare avec les autres pays européens.

Toutefois, les résultats de cette enquête ne renvoient qu’aux IA intégrées dans les entreprises par le biais des directions. Une autre réalité est aussi à prendre en compte, qui renvoie à un usage des salariés de systèmes à base d’IA, sans que cela fasse l’objet d’une quelconque stratégie interne pilotée par le haut. C’est ce qu’on nomme « Shadow AI », ou IA clandestine, ou encore usages individuels et informels de l’IA. Et par définition, l’ampleur de ces usages est plus difficile à objectiver sur un plan statistique. Les remontées de terrain laissent néanmoins penser que le phénomène dépasse de très loin les 10 % des entreprises.

Dans le monde du travail, l’IA est utilisée pour de l’aide à la décision. Mais jusqu’où va-t-elle ?

V. M. : Elle peut aider à collecter et analyser des gros volumes de données, et en tirer des informations. Cela peut s’appliquer au recrutement, à la gestion du temps, au marketing. Des applications en matière d’analyse prédictive peuvent être utiles pour évaluer des risques, planifier des scénarios. Elle peut être utilisée pour détecter des fraudes financières et fiscales, des maladies à travers l’imagerie médicale, contrôler la qualité de produits, gérer des chaînes d’approvisionnement.

« Des cadres peuvent être exposés à des risques psychosociaux dès lors que des systèmes d’aide à la décision à base d’IA les poussent à en prendre toujours plus, toujours plus vite »

Mais si l’IA peut permettre d’augmenter des capacités, elle peut aussi être aliénante de façon plus ou moins directe ou active. Les usages qui en sont faits dans certains entrepôts logistiques sont tout à fait délétères pour la santé physique et mentale des employés. On peut également penser à des usages pouvant exposer des cadres à des risques psychosociaux dès lors que des systèmes d’aide à la décision à base d’IA les poussent à en prendre un nombre toujours plus important, toujours plus vite, sans être réellement en mesure de se construire un jugement, et ensuite de l’assumer.

Sous couvert d’une facilitation, d’un allégement de tâches, le recours à l’IA peut intensifier le travail et dégrader la qualité de vie et des conditions de travail. L’aliénation peut être plus passive lorsqu’on se laisse guider par un système facilitant, mais qui conduit peu à peu à lui abandonner des capacités de jugement.

A quoi doit-on s’attendre avec l’IA : des destructions d’emplois ? Des gains de productivité ?

V. M. : Il y a beaucoup de promesses autour de l’IA notamment en matière de productivité. Et cela rappelle le paradoxe pointé par l’économiste Robert Solow, prix de la Banque de Suède en 1987, selon lequel on voit des ordinateurs partout sauf dans les statistiques de la productivité. Pourquoi ? Parce que les investissements dans les technologies ne produisent pas nécessairement par eux-mêmes une augmentation de la productivité des travailleurs. Ils peuvent même la diminuer, dès lors que les technologies viennent chambouler des gestes, des pratiques, des habitudes de travail, mais aussi remettre en question des savoir-faire et des capacités à faire. Il y a donc un sujet d’ajustement des technologies elles-mêmes à la réalité de l’activité, mais aussi à la réalité des populations qui travaillent.

On peut aussi s’interroger sur le délai avant de voir réellement advenir ces gains, et également sur la pertinence de la mesure de ladite productivité. On peut percevoir des gains de productivité sur des tâches accomplies par tel ou tel individu en utilisant telle ou telle solutions d’IA. Mais à une échelle plus collective, la réponse est moins évidente et plus nuancée.

L’entrée par l’usage individuel des technologies n’est pas forcément la plus pertinente. Car les technologies comme les usages individuels s’inscrivent dans des contextes organisationnels et culturels, qui pèsent dans la constitution des gains de productivité réels.

Daron Acemoglu, autre lauréat du prix de la Banque de Suède en 2024, estime une augmentation de la productivité du travail imputable à l’IA à moins de 1 % dans les dix ans, soit in fine 1 point de PIB. Très loin donc, des estimations des grands cabinets qui font la promotion de la révolution IA et de sa superpuissance. Car il faut le temps d’intégrer ces systèmes dans les processus de production. Les organisations sont toujours plus lentes que les technologies. Et c’est sans doute tout à fait important de prendre le temps pour faire les choses dans de bonnes conditions plutôt que de se précipiter de peur de rater le train.

Les bonnes conditions pour gagner en productivité pourraient consister non pas à supprimer des postes et remplacer des emplois par des machines, mais dans l’utilisation de ces technologies pour aider les travailleurs dans leurs activités et le développement professionnel.

« Ce qui est nouveau, avec l’IA générative, c’est que ce sont les métiers qualifiés qui se retrouvent dans le collimateur, donc davantage les pays dits développés et avec des tâches administratives, donc beaucoup de femmes »

Concernant l’emploi, une récente étude de l’organisation internationale du travail (OIT) estime qu’un quart des professions sont exposées aux effets de l’IA, avec des variations selon la géographie, le genre, les activités et les secteurs. Ce qui est nouveau, avec l’IA générative, c’est que ce sont les métiers qualifiés qui se retrouvent dans le collimateur, donc davantage les pays dits développés et avec des tâches administratives, donc beaucoup de femmes. Au global, l’OIT ne prévoit pas tant des destructions d’emplois que des transformations du travail, de l’organisation du travail.

Dans le détail, il ne faut tout de même pas sous-estimer les risques de suppression d’emplois en France, notamment pour certains métiers et secteurs. Il y a déjà des cas dans la communication ou le journalisme par exemple.

Au-delà de l’emploi, doit-on craindre des pertes de compétences avec le déploiement de l’IA ?

V. M. : L’implémentation de l’IA n’est pas qu’une affaire technologique, c’est une question stratégique et organisationnelle. Questionnons-nous : des systèmes d’IA, pour faire quoi ? Quelle est la finalité ? On peut très bien recourir à l’IA pour faire disparaître des tâches, des métiers, mais on peut aussi le faire pour en soutenir, pour en développer.

La question du devenir des compétences, ou de l’expertise est en fait assez controversée. Certains chercheurs disent que l’IA va étendre le pouvoir à un plus grand nombre de travailleurs. Qu’elle va augmenter les capacités d’expertise de celles et ceux qui n’étaient pas experts, et donc, que cela pourrait reconstruire une classe moyenne et augmenter les capacités décisionnelles.

Sachant qu’en arrière-plan de ce point de vue, se trouvent les dynamiques démographiques des pays occidentaux, où le problème n’est pas tant le manque d’emplois, que le manque de travailleurs. Avec l’IA, donc, chacun pourrait y trouver son compte. C’est une vision un peu optimiste et techno-solutionniste de l’IA qui s’exprime ici.

« L’utilisation de l’IA soulève des questions épineuses en matière de coopération, de transmission des savoir-faire, mais aussi de reconnaissance, de respect, de protection »

A contrario, d’autres chercheurs pensent que l’IA peut entraîner une substitution. Elle vient « challenger », pour le dire gentiment, ou surveiller et évaluer, celles et ceux qui détiennent déjà l’expertise, elle peut la dévaluer ou la dévaloriser. Cela soulève des questions épineuses en matière de coopération, de transmission des savoir-faire, mais aussi de reconnaissance, de respect, de protection.

Quoi qu’il en soit, il est important de prévoir des plans B, c’est-à-dire, de savoir comment réagir le jour où la machine dysfonctionne, le jour où la relation aux fournisseurs de technologies dérape sur un plan économique, moral ou juridique. Il y a une question stratégique d’anticipation des conditions de réalisation de l’activité.

La question de la transmission des savoir-faire est très actuelle. La direction d’ArcelorMittal, par exemple, a accordé plus de temps pour l’application du plan social à condition que les salariés transfèrent leur savoir-faire à une intelligence artificielle…

V. M. : C’est un discours que j’ai déjà entendu dans d’autres entreprises : on a peur de perdre des savoir-faire avec les départs de salariés, alors on recourt à l’IA pour capitaliser les savoirs et savoir-faire sortants. Ici, pour des raisons économiques, mais ça peut être lors de départs en retraite. On voit en l’IA un cas d’usage intéressant pour ne pas perdre ces expériences. Or, on peut se questionner : pourquoi a-t-on attendu que ces gens quittent l’entreprise, au lieu d’organiser plus tôt le transfert de compétences auprès de collègues ?

Il y a dans ces pratiques une sorte de dépossession du savoir-faire au profit d’approches procédurales ou algorithmiques qui permettent (en théorie) une reproductibilité, sans avoir l’intelligence sociale et émotionnelle des humains.

Derrière, le débat n’est pas nouveau : doit-on exposer à ciel ouvert la façon dont le travail se réalise pour que chacun puisse s’en emparer sans conditions ? Ou n’est-il pas nécessaire pour les travailleurs et leurs représentants de s’organiser pour conserver une sorte de secret industriel ? Au sens de ne pas partager dans n’importe quelles conditions les techniques de production, et ainsi négocier le déploiement de l’IA ?

Ces questions se sont déjà posées outre-Atlantique il y a quelque temps. Il ne fait pas de doute que le sujet préoccupe aujourd’hui les partenaires sociaux français, et qu’elles seront à éclaircir dans les mois et années à venir.

L’IA peut-elle mener à l’amélioration des conditions de travail ?

V. M. : Il y a une confusion entre ce que « travailler » et « produire » veulent dire. Avec le déploiement de l’IA tous azimuts, on veut augmenter la capacité à produire. L’objectif : augmenter les rendements et la production. L’histoire montre que cette perspective profite surtout aux actionnaires, mais qu’elle ne signifie pas forcément l’amélioration des conditions d’exercice de l’activité pour les travailleurs.

Pour ce faire, il faut s’intéresser au travail réel des personnes concernées, y compris dans sa dimension socialisatrice et pas seulement productive ; et pas non plus seulement dans son immédiateté mais avec un peu de recul ou de profondeur de champ.

Il y a un enjeu à délibérer collectivement pour encadrer le recours à l’IA, en partant de la réalité du travail et de contextes organisationnels. Ça ne veut pas dire empêcher pour des raisons idéologiques le déploiement de l’IA, mais le raisonner.

On pourrait par exemple réfléchir aux gains de temps supposés grâce à l’IA, notamment par la prise en charge de tâches dites à faibles valeurs ajoutées, répétitives, pour permettre aux travailleurs de se concentrer sur des activités plus nobles, plus intéressantes, plus épanouissantes et à plus forte valeur. Or, une tache peut apparaître de moindre valeur du point de vue du management, mais l’opérateur peut y trouver sens, intérêt et satisfaction ; et inversement.

« Ne plus avoir de temps faibles, occupés par des tâches moins sollicitantes, revient à n’avoir plus que des temps forts, très exigeants, qui dans les faits se traduit par une intensification du travail »

De plus, l’expérience de terrain montre que, lorsqu’on travaille, on compose avec des temps forts et des temps faibles. Ne plus avoir de temps faibles, occupés par des tâches moins sollicitantes, revient à n’avoir plus que des temps forts, très exigeants, qui dans les faits se traduit par une intensification du travail et donc à une dégradation des conditions de travail.

D’autant plus qu’on peut tout à fait considérer que tout le temps de travail n’a pas vocation à être directement productif. Le fait de faire circuler la parole, les connaissances, les informations soutient la coopération, la coordination, la cohésion et le développement. Indirectement, cela concourt à améliorer la productivité globale.

Et dans l’hypothèse où le recours à l’IA faisait effectivement gagner du temps, la question est aussi de savoir ce qui est fait du temps ainsi gagné. Faire davantage des mêmes tâches ou d’autres activités ? Utiliser ce temps pour de la formation ? Pour diminuer le temps de travail ? Pour maintenir le temps de travail mais améliorer le partage de la valeur ainsi créée ? L’éventail des questions est vaste.

L’intelligence artificielle ne pourrait-elle pas être un bon outil pour améliorer la santé et la sécurité au travail ? La question de la prise en compte de la pénibilité a récemment fait l’objet de nouveaux débats entre les partenaires sociaux, après le conclave des retraites.

V. M. : L’IA pourrait en effet soulager un certain nombre d’activités et garantir une meilleure prévention. Par exemple, la collecte et le traitement de données en matière d’accidentologie, de prévention ou d’épidémiologie peuvent trouver là des voies d’amélioration, ainsi que le souligne un autre rapport de l’OIT à ce sujet. Mais il est nécessaire de l’encadrer, si l’on ne veut pas que ce soit la porte ouverte à toutes les dérives. Notamment en matière de surveillance abusive, et de non-respect des droits fondamentaux.

« Sous couvert de santé au travail, d’accès à des prestations sociales, une sorte de surveillance généralisée pourrait se mettre en place »

Sous couvert de santé au travail, d’accès à des prestations sociales, une sorte de surveillance généralisée pourrait se mettre en place et c’est extrêmement problématique. Il ne s’agirait pas que l’IA soit mise au service d’une nouvelle forme de « surveiller et punir », sous prétexte de prévention des risques. Ici aussi, les partenaires sociaux ont un chantier à faire progresser.

Quel rôle a ou peut avoir le dialogue social pour réguler, baliser le déploiement de l’IA dans le monde du travail ?

V. M. : En France, les syndicats de salariés sont unanimes : le mieux serait d’avoir un accord national interprofessionnel sur le sujet. Cette demande a été exprimée à plusieurs reprises. Cela permettrait de donner le « la », en matière de méthode et garde-fou. Pour éviter d’en rester à un discours trop général, il faudrait ensuite que des négociations puissent avoir lieu dans les branches professionnelles, ainsi que dans les entreprises pour s’ajuster à la réalité des contextes et de métiers.

Il existe déjà des accords européens qui peuvent être source d’inspiration, au-delà des textes réglementaires qui commencent à rentrer en application mais qui ne traitent pas finement des enjeux pour le monde du travail.

« Il reviendrait au dialogue social de se servir du fantasme technologique associé à la « hype » de l’IA pour sortir du techno-somnambulisme ambiant et revenir à des réalités organisationnelles »

Compte tenu des enjeux associés à l’IA, le dialogue social à son sujet apparaît donc à la fois nécessaire et balbutiant. Les travaux du Centre d’études de l’emploi et du travail (CEET) indiquent qu’actuellement, en France, environ deux accords pour 1 000 mentionnent l’IA. Les marges de progrès sont donc considérables. Et dans le même temps on voit paraître des jurisprudences qui relèvent que les meilleures pratiques de dialogue social sur le sujet sont loin d’être encore pleinement partagées.

Il reviendrait au dialogue social de se servir du fantasme technologique associé à la « hype » de l’IA pour sortir du techno-somnambulisme ambiant et revenir à des réalités organisationnelles et remettre au cœur du débat les questions du travail.

Source : https://www.alternatives-economiques.fr/vincent-mandinaud-couvert-dun-allegement-de-taches-recours/00115774