Face à l’IA, inventer une nouvelle forme de responsabilité collective

Résultats scientifiques Economie/gestion

À mesure que les systèmes d’intelligence artificielle interviennent dans des décisions organisationnelles telles que le recrutement, l’octroi de crédits ou la conduite de véhicules autonomes, attribuer une responsabilité claire devient de plus en plus difficile. Une étude menée par des chercheurs des laboratoires Dauphine Recherches en Management et Lille Économie Management propose de dépasser les logiques traditionnelles de désignation de coupables pour adopter une « responsabilité narrative » plus active et ouverte, fondée sur une compréhension collective des situations. Une approche essentielle pour renforcer l’apprentissage, la démocratie et la résilience des organisations. Les résultats de cette étude viennent d’être publiés dans les revues MIS Quarterly et MIT Sloan Management Review.

image
Source : Ikon Images, MIT Sloan Management Review (2026)

Quand la responsabilité devient diffuse

L’intelligence artificielle (IA) est désormais impliquée dans des décisions très concrètes : trier des candidatures, accorder des crédits, piloter des véhicules ou encore automatiser des choix opérationnels. Dans ces situations, les résultats ne dépendent plus d’un seul individu mais d’interactions complexes entre concepteurs, utilisateurs, managers et systèmes algorithmiques. Dans ce contexte, désigner a posteriori un responsable unique en cas de problème devient particulièrement difficile. L’accident mortel impliquant un véhicule autonome d’Uber en 2018 en est une illustration marquante : aucune responsabilité individuelle évidente ne pouvait être clairement établie.

 

Pourquoi les modèles classiques de responsabilité ne suffisent plus

Les modèles traditionnels de responsabilité reposent sur une idée simple : une décision peut être rattachée à un individu identifiable, qui en assume les conséquences, dans un cadre où les actions et leurs effets se déploient linéairement dans un espace et un temps bien délimités. Cette approche reste dominante dans les organisations, où la réponse aux crises consiste souvent à désigner un responsable, voire à le remplacer. Pourtant, comme le montrent plusieurs cas récents — des accidents du Boeing 737 MAX aux incidents impliquant des drones autonomes — ces réponses ne permettent pas de traiter les causes profondes, souvent liées à des dynamiques organisationnelles, techniques et collectives. Elles ignorent également le fait que les technologies elles-mêmes participent désormais à orienter et structurer l’attribution des responsabilités, en informant et en influençant la manière dont les décisions sont produites, interprétées et évaluées.

 

Changer de perspective : la responsabilité narrative

Pour répondre à cette complexité, une recherche menée par François-Xavier de Vaujany, professeur à l’université Paris Dauphine - PSL et membre du laboratoire Dauphine Recherches en Management1, et Aurélie Leclercq-Vandelannoitte, chargée de recherche CNRS au laboratoire Lille Économie Management2, propose de passer d’une logique de désignation de coupables à une « responsabilité narrative ». L’enjeu n’est plus seulement de déterminer rétrospectivement « qui est responsable », mais de comprendre « comment la situation s’est construite » ou « peut se construire » au fil de l’évolution des événements. Cela implique de reconstituer par une narration collective les enchaînements d’actions, les choix organisationnels, les hypothèses implicites et les interactions entre humains et technologies qui ont conduit à un résultat donné. Cette approche permet de transformer les incidents en véritables leviers d’apprentissage et d’anticipation.

 

Trois leviers pour agir dans les organisations

Mettre en œuvre cette approche suppose des transformations concrètes :

  • Reconstituer et suivre l’histoire réelle des événements : aller au-delà des analyses techniques pour intégrer les facteurs organisationnels, les contraintes et les arbitrages. 

  • Partager et assumer la responsabilité plutôt que chercher un coupable : reconnaître que les décisions émergent de processus collectifs et distribués. 

  • Faire de la réflexion une pratique continue : intégrer des retours d’expérience réguliers dans le fonctionnement quotidien des équipes. 

Certains secteurs, comme l’aéronautique ou la santé, ont déjà engagé ce type de démarche, en privilégiant des analyses collectives des incidents et des dispositifs favorisant l’expression de points de vue multiples. 

 

Un enjeu clé pour les organisations et la société

À mesure que les technologies d’IA gagnent en autonomie, repenser la responsabilité devient un enjeu central. Il ne s’agit pas de renoncer à toute forme de responsabilité individuelle ou juridique, mais de mieux comprendre les mécanismes collectifs qui produisent les décisions et leurs conséquences. En développant une approche plus réflexive et partagée, les organisations peuvent renforcer leur capacité d’apprentissage, améliorer la sécurité de leurs systèmes et consolider la confiance dans les technologies qu’elles déploient.

Références

Objectifs de développement durable

image

Cette recherche contribue particulièrement à la réflexion menée autour des objectifs suivants :

  • ODD 9 – Industrie, innovation et infrastructure
    Cette recherche propose de nouvelles approches pour mieux concevoir et piloter les systèmes d’intelligence artificielle dans les organisations. 

Et plus indirectement :

  • ODD 8 – Travail décent et croissance économique
    En analysant l’impact de l’IA sur les décisions organisationnelles (recrutement, management, etc.), cette recherche favorise des pratiques plus responsables et plus équitables dans le monde du travail.

  • ODD 16 – Paix, justice et institutions efficaces
    En repensant l’attribution de la responsabilité dans des environnements complexes, elle contribue à améliorer la transparence, la redevabilité, la démocratie et la confiance dans les processus de décision.

Contact

Aurélie Leclercq-Vandelannoitte
chargée de recherche CNRS au sein du laboratoire Lille Economie Management (LEM)

Notes

 

  1. DRM, UMR7088, CNRS / Université Paris Dauphine-PSL.
  2. LEMUMR 9221, CNRS / IESEG School of Management / Université de Lille.