Les six biais cognitifs et leur incidence sur l’exposition des entreprises à un risque de catastrophe

By Matthew Cramer | 31 octobre 2019

Il suffit d’évoquer Lac-Mégantic, au Québec, pour que tout le monde pense au déraillement catastrophique d’un convoi de pétrole brut et l’explosion qui a coûté la vie à 47 personnes et détruit la municipalité. Ce drame, la pire tragédie ferroviaire impliquant un train de marchandises de l’histoire du Canada, est encore plus choquant compte tenu du fait qu’il s’est produit tout récemment, en 2013. À peine un an plus tard, la rupture de barrage à la mine de Mount Polley en Colombie-Britannique a entraîné le déversement de déchets accumulés pendant des années, contaminant du même coup les lacs environnants. Il s’agit de la plus grande catastrophe environnementale de l’histoire moderne du Canada.

Les catastrophes très médiatisées comme celles-ci ne sont pas rares depuis quelques années. Pourquoi ce genre d’accidents se produisent-ils encore? Pourquoi arrivent-ils dans l’un des pays les plus industrialisés du monde, où les normes sont parmi les plus strictes?

Qu’est-ce qu’un risque de catastrophe?

Un risque de catastrophe désigne un risque lié à la survenance d’un événement très peu probable et aux conséquences très élevées, qui n’est pas compris dans les matrices de risque standard. Aussi appelé « événement indésirable grave », il est perçu comme étant extrêmement rare. Toutefois, il constitue une véritable catastrophe lorsqu’il survient.

Six barrières psychologiques qui empêchent de bien comprendre le risque de catastrophe

En réalisant des évaluations complètes de risque de catastrophe pour nos clients dans une grande variété d’industries, j’en suis venu à la conclusion que la source du problème commence par nos propres biais cognitifs. Le plus inquiétant, c’est que nous sommes souvent inconscients de l’existence de ces biais et de la mesure dans laquelle ils faussent la compréhension du risque auquel nous sommes exposés.

1. Excès de confiance

L’excès de confiance entre en jeu lorsque la confiance subjective d’une personne ou celle d’une organisation envers son jugement est plus grande que la précision objective de ce jugement. 

Des phrases comme « ça n’arriverait jamais ici » laissent souvent transparaître une confiance excessive. Considérer les événements catastrophiques comme des « cas particuliers » et aborder le risque en pensant aux faibles probabilités plutôt qu’aux graves conséquences sont d’autres indices d’excès de confiance.

Nous voulons tous croire que nous travaillons mieux que nos concurrents. Mais en présumant une telle chose, nous risquons de négliger de l’information objective importante lors de l’évaluation du risque.

2. Effet d’ancrage

L’effet d’ancrage est la tendance à se fier indûment à un premier élément d’information pour prendre des décisions. Ce biais peut être particulièrement pernicieux lorsqu’on tente de faire des prévisions.

Ce n’est pas parce qu’une catastrophe n’est jamais arrivée qu’elle ne se produira jamais. Nous pouvons bien sûr être très fiers de notre bilan de sécurité irréprochable, mais ce bilan ne doit absolument pas influencer les prochaines évaluations de risque de catastrophe.

3. Confirmation

Le biais de confirmation désigne la tendance qui consiste à prendre en considération uniquement l’information qui confirme les croyances. 

Inconsciemment, nous pouvons trafiquer les données, éliminer les exceptions de nos évaluations et surévaluer les données qui confirment que nous en faisons assez pour atténuer le risque. De cette façon, nous voyons les solutions sans vraiment comprendre les problèmes.

4. Escalade de l’engagement

Une personne qui obtient des résultats négatifs aura tendance à poursuivre dans la même voie plutôt que de changer de cap.

À force de trouver des solutions inadéquates pour réagir à des incidents mineurs, la personne risque de négliger la cause profonde du problème et d’exposer l’organisation à des risques qui n’ont pas été atténués. À cause de ce biais, on a tendance à former excessivement le personnel plutôt qu’à s’attaquer aux lacunes techniques sous-jacentes. Le comportement du personnel devrait être la dernière barrière, et non la seule.

5. Pensée de groupe

La pensée de groupe est un mode utilisé lorsque le désir d’harmonie et d’unanimité d’un groupe amène une décision irrationnelle.

Ce biais se produit souvent dans les groupes dont les membres présentent des différences hiérarchiques, comme l’âge et l’ancienneté. Par exemple, les nouveaux employés hésitent souvent à prendre la parole pour donner une opinion ou de l’information divergente, par peur d’avoir l’air impertinents. L’effet de la pensée de groupe est tellement puissant que nous pouvons avoir l’impression d’être dans l’erreur, même si l’information que nous possédons est factuelle. 

En balayant sous le tapis des considérations relatives aux risques par simple désir d’unanimité, nos évaluations du risque sont inadéquates et ne tiennent pas compte de l’ensemble des renseignements.

6. Normalisation de la déviance

La normalisation de la déviance se produit lorsque les membres d’une organisation s’habituent à un comportement qui s’écarte du comportement attendu, en l’absence de réactions négatives.

En ce qui concerne la sécurité, les organisations ont tendance à normaliser un comportement qui s’éloigne de la mesure de protection mise en place, simplement parce qu’aucun incident n’est survenu. Au fil du temps, ces déviations d’apparence insignifiantes peuvent entraîner des petits manquements. Et ces petits manquements contribuent à « éroder » les couches de protection, ce qui peut un jour causer une catastrophe. Comme le dit le proverbe, une goutte pourrait faire déborder le vase.

La situation peut être particulièrement dangereuse lorsqu’il est question de procédures et de protocoles de sécurité cachés qui se relâchent au fil du temps. De petits incidents peuvent causer des événements catastrophiques qui auraient été beaucoup moins dévastateurs si les procédures appropriées avaient été mises en place.

Limiter l’exposition au risque de votre organisation

Les premières étapes à suivre pour modifier notre approche au risque de catastrophe sont les suivantes :

  1. Reconnaître et corriger nos biais cognitifs.
  2. Comprendre l’étendue du risque dans le milieu où nous exerçons nos activités.
  3. Investir des ressources qui s’attaqueront au problème.

Pour comprendre les complexités des voies à risque et des éléments déclencheurs, les organisations doivent absolument travailler avec un partenaire technique d’expérience dans l’industrie. 

Notre environnement de travail est plus évolué et complexe que jamais. Pour connaître et gérer votre profil de risque, vous avez besoin d’un cadre de travail bien établi et de connaissances techniques approfondies. Cette combinaison est essentielle pour mettre en œuvre une solution d’atténuation des risques efficace et efficiente. Nous ne pouvons tout simplement pas nous contenter de suivre la parade.