/ Evitez les décisions absurdes

01 40 22 93 63

Evitez les décisions absurdes

11 avril 2013

Alain Brunel, sociologue des organisations

 

Décider c’est prendre le risque de se tromper. Tout le monde le sait. Mais comment expliquer la prise de décisions manifestement absurdes ? Y a-t-il des moyens, des procédures, des comportements qui réduisent le risque de faire de tels choix ? Dans le passionnant livre Les décisions absurdes II, comment les éviter, (Gallimard 2012), le sociologue Christian Morel répond positivement à cette question.
L’auteur aborde ici un domaine de recherche relativement récent de la sociologie de la décision,  domaine  qui a bénéficié de l’apport de la vision globale de la sécurité dans l’aéronautique ainsi que celui des sociologues de l’école américaine dite des HRO (High Reliability Organizations), les organisations à haute fiabilité. Le premier tome des Décisions absurdes, publié en 2002, révélait à travers l’analyse d’accidents majeurs comme ceux de Three Miles Island et de Tchernobyl, ou celui de la navette spatiale Challenger, que des facteurs psychosociologiques – et pas seulement techniques – induisaient des processus accidentogènes.
Les pièges du raisonnement
Dans ce deuxième ouvrage,  qui fait état de recherches arrivées à maturité, Christian Morel identifie les « métarègles de la fiabilité » qui permettent d’éviter les décisions absurdes. Par métarègle,  l’auteur entend « les principes généraux d’action ainsi que les processus maîtres et les modes de raisonnement communs qui forment une culture amont, ou modèle, de la fiabilité et sont indispensables à la fiabilité des décisions en aval ».  L’analyse d’exemples puisés dans différents univers professionnels (aéronautique, marine militaire nucléaire, blocs opératoires, troupe de théâtre du Splendid, guides de haute montagne etc.), montre que nombre d’erreurs sont liées aux pièges psychosociaux du raisonnement et de la délibération.
Parmi les nombreux pièges qui favorisent les erreurs, il faut souligner :
-    les effets de polarisation qui incitent à prendre une décision plus risquée après une discussion de groupe qu’avant ;
-    le paradigme de Asch qui incite un individu à se conformer à l’avis majoritaire même quand celui-ci s’appuie sur des données manifestement erronées ;
-    le biais de confirmation qui désigne la tendance des individus à retenir uniquement les informations et les arguments qui confirment leur opinion ;
-    la « pensée de groupe » dont la caractéristique est de privilégier l’harmonie et la cohésion sur l’expression des désaccords et des conflits internes ;
-    la « communication silencieuse » au sein d’un groupe, autrement dit la présence de présupposés et supputations implicites, susceptibles de provoquer des erreurs d’interprétation fatales ;
-    ces deux derniers points conduisent à une « illusion d’unanimité » ; les opposants préfèrent se taire et les autres pensent –faussement- qu’il y a unanimité et … tous foncent dans le couloir d’avalanche !
-    L’effet pervers de la pression hiérarchique est un autre dysfonctionnement bien connu ;

Les métarègles de la fiabilité
Pour contrer ces différents effets pervers de la décision, illustrés à travers de nombreuses études de cas,  C. Morel reprend les métarègles édifiées dans les univers à hauts risques.  Ainsi,  « la hiérarchie restreinte impliquée », le « Mission Command » militaire, qui reconfigure le rôle du chef en déléguant l’autorité à ceux qui sont en prise directe avec les opérations et qui ont le savoir pour agir.  Notez que les décisions prises par la hiérarchie restreinte impliquée recouvrent une dimension obligée de collégialité.
La procédure dite « d’avocat du diable »  est une autre métarègle nécessaire à la dynamique des décisions hautement fiables. Elle est définie comme « tout processus fort de contestation constructive d’un projet de décision ». Un processus semblable bien conduit, c’est-à-dire avec un fonctionnement organisé intentionnellement de façon contradictoire, de type quasi judiciaire, peut venir à bout des nombreux effets pervers associés aux délibérations.
La décision par consensus peut aussi se révéler un processus puissant pour éviter les erreurs mais à condition d’éviter ses risques intrinsèques comme la survenue d’une unanimité médiocre ou apparente, résultant des travers liés aux délibérations mentionnés plus haut. Les études indiquent que les décisions prises à l’unanimité apparente, ou fausse unanimité, sont beaucoup plus fréquentes qu’on le pense, les participants pouvant souvent s’opposer à une décision et malgré tout se taire.  C’est pourquoi par exemple, la troupe de théâtre du Splendid exigeait le rire de tous les membres de la troupe pour valider la rédaction de chaque réplique du scénario du Père Noël est une ordure. Aucune tricherie possible.
Une quatrième métarègle de la décision fiable est fondée sur l’interaction généralisée. « Le fait qu’une information pertinente circule de façon fluide et intense, de haut en bas et de bas en haut, contribue grandement à la fiabilité. »  Cette interaction doit être renforcée dans son contenu « linguistique et sémiologique ». La communication doit être explicite et croisée (avec confirmation et vérification du retour). L’explicitation et le croisement doivent être « particulièrement intense si l’on se trouve en présence de juniors ou de « primo-intervenants ». L’interaction généralisée ne s’instaure pas spontanément, elle doit être « construite, organisée, suscitée ». Une des formes classiques de cette procédure est constituée par les briefings et débriefings systématiques, obligatoires dans l’armée de l’air. Les briefings permettent d’éviter de futurs malentendus et les débriefings d’identifier des points positifs à reproduire et despoints négatifs à éviter.


Une contre-culture
Pour conclure ce compte-rendu trop succinct d’un ouvrage riche et stimulant, l’auteur résume bien les changements de perspective induits par la haute fiabilité. « Les métarègles de la fiabilité vont à l’encontre de la pensée habituelle en matière de décision et d’organisation. C’est une contre-culture vis-à-vis de la doctrine classique en management, de la pensée politique courante et des croyances ordinaires du grand public.  Notre culture est caractérisée par la priorité donnée à l’action rapide, alors que la haute fiabilité exige davantage de réflexion à travers le débat contradictoire, les retours d’expérience, la formation aux facteurs humains, la capacité à renoncer. Notre culture est imprégnée de l’idée que les erreurs doivent être sanctionnées et que les règles n’ont pas à être questionnées, alors que la culture juste de la fiabilité préconise la non-punition et le débat sur les règles. Notre culture est centrée sur le rôle du chef et la valorisation du consensus, alors que les fondamentaux de la fiabilité mettent l’accent sur la collégialité et les dangers du faux consensus. Notre culture favorise une communication formée d’innombrables informations schématiques, alors que la fiabilité implique la mise en relief des messages essentiels.  Notre culture est marquée par le principe de précaution, la possibilité du risque zéro, la foi dans l’hyperrationalité, alors que l’option opposée de solutions astucieuses et imparfaites se révèle souvent plus sûre et performante. »
L’ouvrage de Christian Morel constitue donc un référentiel de premier choix pour des consultants ou des acteurs sociaux soucieux de comprendre les freins à la décision collective éclairée. Il identifie des moyens concrets permettant d’améliorer les processus de prise de décision. Pour autant, il ne verse ni dans la naïveté, ni dans l’idéalisme.  Car l’élaboration d’une véritable contre-culture de la décision et de l’organisation, au cœur des changements nécessaires à la mise en place d’organisations hautement fiables, ne repose pas sur des pratiques de maquillage ou de simple conformité à une certification formelle.
Au contraire, il s’agit précisément de dévoiler, derrière le masque des apparences, les diversions des incantations ou le jeu des illusions quantitatives, les conséquences effectives des actions ou des omissions, même au prix d’une rupture de l’harmonie du groupe.  Une vérité qui met à nu les défaillances, les insuffisances ou les travers n’est jamais agréable à entendre pour ceux qui les portent ou en profitent. Mais cette vérité peut éviter des déboires immenses quand elle est entendue.  Si les vices de conception de la centrale nucléaire de Fukushima avaient été compris et corrigés en amont, le tsunami du 11 mars 2011 n’aurait pas causé l’un des plus graves accidents nucléaires de l’histoire…

Alain Brunel, Sociologue des organisations, Technologia

Revenir au blog
tagcalendar-full