Les économistes et l’IA : « Devenir un contrôleur des erreurs de l’IA ? Non merci »

Les agents d’IA peuvent-ils se muer en assistants de recherche efficaces ? Sans cadre collectif clairement défini, le recours à ces outils peut entraîner des dérives et dévoyer le sens de la profession.

Des agents IA capables d’analyser des quantités astronomiques de données, de synthétiser – et de rédiger – de gros rapports et de faire tourner des modèles à la vitesse de la lumière, est-ce le rêve de tout chercheur, à commencer par les économistes ?

Comme tous les métiers exposés à la déferlante de l’IA générative, ces scientifiques tâtonnent, avec des pratiques très variables selon les individus. Et sans véritable réflexion collective sur l’usage de ces outils dans leurs laboratoires qui manipulent des statistiques.

« Nous sommes en pleine phase d’expérimentation, reconnaît l’économiste Olivier Bouba-Olga, chef du service « études, prospective et évaluations » à la région Nouvelle-Aquitaine, qui dirige à ce titre une équipe d’une dizaine de chargés d’études. Le sujet est compliqué et assez clivant. Il y a en gros le clan des technophiles qui disent qu’il faut y aller et celui des sceptiques, qui sont réticents. »

« Ce que je dis à l’équipe, c’est d’essayer d’être objectif et d’interroger l’utilisation de l’IA au regard de son coût social et environnemental car elle est terriblement énergivore, poursuit-il. Je préconise d’y avoir recours en dernier ressort, uniquement si elle apporte une grosse valeur ajoutée. »

Au rayon des avantages qui recueillent le plus de consensus, les chercheurs saluent l’aide que l’IA leur apporte en matière de codage.

« Avant, j’allais sur les forums de discussions lorsque j’avais besoin de régler un problème de code, confie la macro-économiste Anne-Laure Delatte. Demander à ChatGPT ou à Claude de coder et de passer facilement d’un langage – Python, R ou Stata… – à l’autre m’a fait gagner un temps précieux. L’IA est un super assistant de recherche, mais il faut déjà bien savoir coder pour lui donner les bonnes instructions et comprendre ce qu’il fait. »

L’IA offre également des possibilités assez larges pour explorer de nouveaux sujets, faire une veille scientifique, mais aussi créer une sorte de dialogue avec la machine.

« Je m’en sers pour consigner des idées de recherche, et ensuite les tester, poursuit cette directrice de recherche au CNRS. Les pistes que l’IA me propose me permettent de tirer des fils, comme je le faisais avant, mais ça fait mûrir une intuition, je peux l’interroger pour vérifier si une direction est pertinente ou non. Reste que ce sont toujours les chercheurs qui creusent leurs idées. C’est nous qui nourrissons l’IA. »

La recherche, c’est l’originalité « tout l’inverse de l’IA »

Quant à la synthèse de documents volumineux, très souvent présentée comme un atout, « ça ne me sert à rien, poursuit l’économiste. J’ai besoin de lire un rapport moi-même pour en retenir les éléments les plus pertinents ». Pas question non plus de confier cette tâche à une IA, abonde Céline Antonin, économiste à l’OFCE, chercheuse associée au Collège de France :

« Le sel de notre métier, c’est de faire fonctionner nos cellules grises, d’aller débusquer un élément nouveau, pas de déléguer cette tâche à une IA qui risque de n’en garder que les passages les plus attendus. »

Le travail de recherche consiste à mettre en avant des résultats innovants, originaux, qui n’ont jamais été explorés, estime l’économiste : « C’est tout l’inverse de l’IA. » Car celle-ci n’invente rien. Ce ne sont que des probabilités appliquées à des grandes masses de données. Elle produira le résultat prédictif le plus attendu. Le risque est alors important de n’obtenir que des résultats « mainstream », standardisés, voire appauvris.

Manque de fiabilité

Par ailleurs, ce travail de synthèse n’est utile que si l’auteur maîtrise parfaitement le corpus qu’il soumet à l’IA, renchérit Olivier Bouba-Olga :

« Si on produit un rapport de 100 pages à partir de données qu’on a soi-même collectées et qu’on demande à l’IA de le réduire à 10 pages, pourquoi pas ? On peut facilement en contrôler l’exactitude. En revanche, je me refuse à sous-traiter à l’IA des synthèses à partir de contenus dont j’ignore la provenance. J’ai déjà fait des tests sur plusieurs matériaux et ai constaté trop d’erreurs. »

L’économiste applique également cette règle pour les entretiens semi-directifs dont les chercheurs ont besoin pour leurs études socio-économiques : « Encore une fois, il faut maîtriser tout le processus, utiliser des outils maison, éviter que des données se retrouvent sur les réseaux… Il est essentiel d’agir avec déontologie. »

La confidentialité est en effet un problème majeur que sous-estiment nombre d’utilisateurs de l’IA, chercheurs compris. Or nourrir les algorithmes avec des données non anonymisées ou non encore publiées s’avère risqué.

Boîte noire

En l’absence de règles et de cadre collectif, des initiatives commencent pourtant à émerger. Afin de sécuriser la conduite d’entretiens qualitatifs auprès de milliers de répondants pour un faible coût, les économistes Xavier Jaravel, aujourd’hui directeur du Conseil d’analyse économique et Friedrich Geiecke, enseignant à la London School of Economics, ont mis au point une plateforme en opensource, accessible à tous et utilisant un seul agent IA, une sorte de bien public numérique.

Contrairement aux systèmes propriétaires (qui appartiennent à Microsoft ou à Google) dans lesquels le code n’est pas visible, l’open source offre plus de transparence.

Céline Antonin recommande la même prudence, notamment avec la profusion de sondages facilités par l’IA :

« Le cadre statistique doit être clair, il faut s’assurer qu’il y a bien un échantillon représentatif… Ces outils doivent être utilisés avec modération et beaucoup de rigueur. »

Problème, alors que les chercheurs sont de plus en plus mis en concurrence, seront-ils tous regardants sur les datas exploitées et sur les biais possibles, a fortiori si l’algorithme est mal entraîné ? L’IA est une boîte noire. Et pour faire du résultat, il n’est pas impossible que certains scientifiques jouent aux apprentis-sorciers.

Surproduction d’articles scientifiques

Une étude alertait récemment sur l’inflation inquiétante des publications scientifiques

D’autant que pour sacrifier à la logique « publish or perish » (en français, publier ou périr), les chercheurs pourront être tentés de recourir à l’aide de l’IA, participant ainsi à une surproduction de travaux déjà à l’œuvre. Une étude alertait récemment sur l’inflation inquiétante des publications scientifiques. Les quatre chercheurs – Mark Hanson, Pablo Gomez Barreiro, Paolo Crosetto et Dan Brockington – y observaient notamment que la quantité d’articles indexés dans deux grandes bases (Scopus et Web of Science) avait augmenté de 47 % entre 2016 et 2022.

Car l’IA est capable d’aspirer et d’agréger des tas de données mais aussi de les mettre en forme. En plus d’être un assistant informatique, elle devient une sorte de secrétaire augmenté. Avec des frontières parfois troubles. Où s’arrête l’aide à la rédaction – qui peut être utile quand on a du mal à formaliser ses idées – et la coécriture, partielle voire complète, d’une étude avec l’IA ?

Cette forme de coproduction peut poser quantité de litiges (comme on l’a vu avec la création musicale) sur la paternité d’une idée et les droits d’auteur qui y sont liés.

Le sens du métier

Toutes ces évolutions interrogent sur le sens du travail, considère Céline Antonin :

« L’IA, c’est souvent la solution de facilité. Je lis l’allemand par exemple mais pour aller plus vite, je vais demander la traduction en français. On peut se dire que c’est une aide. Mais à partir de quand commence-t-on à perdre en capital humain ? Et au bout du compte, gagne-t-on tant de temps que ça ? Dans la mesure où on ne peut pas prendre pour argent comptant ce que dit l’IA et qu’il faut tout vérifier, ça peut vite devenir contre-productif. »

« Devenir un contrôleur des erreurs de l’IA, ce n’est guère réjouissant », abonde Olivier Bouba Olga qui doute des gains de productivité mis en avant.

« Tout dépend bien sûr des domaines de recherche. L’IA offre des débouchés spectaculaires en matière d’imagerie médicale par exemple, mais dans d’autres domaines, comme les nôtres en économie, l’effet sera très marginal », avance-t-il.

L’IA générative lui rappelle même les débats enflammés des années 2000, au moment d’internet. « Il y avait beaucoup de fantasmes sur la manière dont ce raz-de-marée allait balayer nos pratiques et révolutionner nos métiers. Beaucoup de ces prédictions ne se sont pas réalisées. »

Cette nouvelle vague finira-t-elle en vaguelette ? En attendant, l’usage débridé de l’IA générative dans les sciences mérite à tout le moins d’être encadré par des règles éthiques bien plus strictes.

Source : https://www.alternatives-economiques.fr/economistes-lia-devenir-un-controleur-erreurs-de-lia-n/00115778