Penser, travailler avec ChatGPT, un défi pour les administrations publiques

Résultats scientifiques Economie/gestion

Partant du constat que l’IA générative a surpris les États, quels défis celle-ci pose-t-elle à leurs administrations qui commençaient seulement à intégrer les outils d’une IA aujourd'hui qualifiée de « faible » ? En s’introduisant dans le territoire du langage qui est au cœur du politique et de l’application de la loi, l’IA générative nous force à renouveler nos réflexions sur notre rapport aux machines, à leurs erreurs et à leur place dans la production intellectuelle des États et leur fonctionnement. Chercheur associé au Centre d'études et de recherches sur le développement international (CERDI, UMR6587, CNRS / Université Clermont Auvergne),  Thomas Cantens revient sur l'impact du développement de ces technologies sur les métiers de la fonction publique, dans un article paru récemment dans la revue AI & Society.

Les travaux de Thomas Cantens s’inscrivent dans une réflexion sur la place essentielle de la technologie dans le fonctionnement contemporain des États. La raison bureaucratique semblait requérir de nos fonctionnaires qu’ils fussent aussi efficaces que des machines, mais nous n’avions pas imaginé qu’il y aurait une double convergence, des fonctionnaires vers un fonctionnement machinique, et des machines vers un fonctionnement de plus en plus humain parce qu’elles pénètrent maintenant le territoire sacré du langage.

La survenue d’une intelligence artificielle dite « générative » nous oblige à qualifier de « faible » les systèmes d’IA essentiellement numériques (au sens où ils produisent des nombres sous la forme de scores, de probabilités) que les administrations publiques tentaient jusqu’à présent de s’approprier pour améliorer leur fonctionnement. L’IA générative est un agent de pur langage, créant, mathématiquement, du langage à partir du langage. Or le langage est au fondement du politique et du fonctionnement des appareils d’État que sont les administrations publiques, et de leur interaction avec la société.

Il faut alors imaginer de quoi l’État sera fait, au quotidien, dès lors que ses fonctionnaires auront pour interlocuteur, voire pour collègue, une machine éclectique, produisant du langage à partir d’un corpus de connaissances, de textes juridiques, administratifs, en plusieurs langues, qui leur est tout simplement inaccessible individuellement.

Cette imagination politique et organisationnelle devrait nous amener à déconstruire nos craintes face à l’IA et éviter de transposer leur part irrationnelle dans nos politiques publiques de déploiement de l’IA au service des citoyens. Est-il si essentiel pour un usager d’un service public de savoir qu’il s’adresse à une machine ou à un fonctionnaire humain dont il attend qu’il réponde de façon « machinique », objective, froide, précise et égale et surtout avec une force légale ? Pourquoi ne pas assumer directement que la valeur de la réponse d’une machine peut avoir autant de force (et de faiblesse) juridique que celle d’un fonctionnaire ? Pourquoi ne pas reconnaître qu’une machine peut se tromper (les « hallucinations » de l’IA générative), au même titre qu’un humain fonctionnaire, et mettre en place les mêmes mécanismes de vérification administrative interne lors de la production de la « parole » de l’État ? Pourquoi ne pas reconnaître dans l’IA générative un « agent public » comme les autres, aux capacités de production supérieures aux fonctionnaires en termes de qualité et de quantité, mais au pouvoir juridique inférieur ? Ce n’est pas parce que les administrations publiques n’utilisent pas aujourd’hui officiellement l’IA générative (sauf pour certains usages officiels très limités d’aide à la réponse aux usagers) que les fonctionnaires eux-mêmes ne l’utilisent pas pour améliorer leur rendement au travail.

L'impact transformateur de l'IA générative sur la production intellectuelle de l'État suscite des craintes de remplacement, ou plutôt d'asservissement des fonctionnaires aux machines. Dans son article, Thomas Cantens plaide pour que les administrations prennent la question de l’IA générative dans toute sa spécificité langagière, qu’elle ne fasse pas l’objet de transposition de risques fort justement attribués aux IAs numériques « faibles » qui, elles, sont embarquées dans des processus de décision alors que l’IA générative l’est dans les processus de réflexion, qu’il s’agisse d’aider à la production de politiques publiques ou d’aider le fonctionnaire à piloter plusieurs systèmes d’IAs faibles. Second plaidoyer de l’auteur, les États devront encourager leurs fonctionnaires à développer leur plus-value par rapport aux machines. Si l’IA générative produit du langage à partir de ce qui existe et qu’elle a ingéré mathématiquement, ses productions ne sont finalement que le « sens commun » exprimé sur une question. Le fonctionnaire devra exercer une vigilance critique pour éviter de donner du crédit aux hallucinations de l’IA comme il le fait pour les erreurs de ses collègues, mais il devra aussi exercer une pensée critique, envisager l’au-delà du sens commun reflété par la machine. Il faut peut-être voir cela comme un réinvestissement du politique dans l’État et ses appareils, au sens d’une valeur ajoutée de la mésentente au sein du fonctionnement administratif, un rôle d’intellectuels d’État pour des fonctionnaires dont les tâches quotidiennes et bureaucratiques seraient allégées et qui auraient plus de temps pour réfléchir, au sens premier, aux politiques publiques et à leur mise en œuvre. L’IA générative peut être l’opportunité d’une révolution intellectuelle des États, différente de la révolution industrielle des machines du xixe siècle qui a contribué à des formes d’asservissement de l’humain aux machines. Troisième plaidoyer, vis-à-vis de la mise en œuvre de systèmes d’IA : peut-être faut-il réorienter notre attention depuis les algorithmes vers les données d’entraînement. Jusqu’à présent, les administrations avaient les données d’entraînement des algorithmes à portée de main, il s’agissait des données qu’elles collectaient ou généraient elles-mêmes via la numérisation croissante des services publiques. Le choix des algorithmes constituait un centre d’attention privilégié. L’IA générative, comme agent artificiel de langage, nous contraint à penser à des corpus d’entraînement souverains. Elle n’est pas entraînée sur la réalité mais sur la vérité, les textes, les documents auxquels nous accordons notre crédit. À ce titre, les corpus d’entraînement constituent d’ores et déjà aussi un enjeu géostratégique d’influence culturelle, idéologique, politique entre les pays capables de produire leur corpus souverain et les pays disposant de moins de moyens qui devront les acquérir ou les recevoir au titre de coopérations multi ou bilatérales.

De par son irruption dans le champ du langage, l’IA générative représente une rupture qui n’est pas scientifique mais pleinement technologique et technopolitique. Il faudra donc peut-être mettre de côté notre vision purement instrumentale des machines si nous voulons en tirer profit sans pour autant se voir asservis à celles-ci, pour que l’IA générative et les IAs qui suivront aient toute leur place dans la production intellectuelle des États et leur parole publique et que les fonctionnaires y renouvellent la leur.

Contact

Thomas Cantens
Centre d’Études et de Recherches sur le Développement International (CERDI)