Si la notion d’erreur humaine apparaît dès l’antiquité : primum non nocere (tout d’abord, ne pas nuire), ce n’est que dans les années 1990, à la suite de terribles accidents aéronautiques, que s’est développée la prise de conscience de l’importance du facteur humain.
Histoire de l’étude du facteur humain
James Reason, un psychologue britannique, établit un modèle qui s’impose encore comme l’une des références pour expliquer les accidents aéronautiques. Ce dernier suggère que les accidents découlent de la somme de défaillances, de faiblesses au sein d’une organisation qui, seuls, n’auraient pas forcément de conséquences.
Les facteurs humains, c’est-à-dire les facteurs ni techniques ni biologiques, sont au centre de son modèle. Celui-ci présente une organisation comme un ensemble de plaques présentant des failles : l’accident survient uniquement lorsque plusieurs défaillances se produisent consécutivement. Le postulat est le suivant : la protection absolue par une seule des plaques est un leurre. Pour Reason, l’erreur humaine est inévitable.
Cette prise de conscience de notre propre faillibilité et l’application des enseignements issus des facteurs humains ont permis à l’aviation, mais également à d’autres domaines, de devenir ultra-sécurisés [1].
Inspirée par ces résultats, la sphère médicale s’intéresse à ce domaine. Ainsi, l’article de Leape et coll. [2], publié en 1993, démontre que, sur tous les Événements indésirables (EI) rapportés, les deux tiers étaient évitables. Une autre étude fondamentale de Kohn et coll. « To err is human » [3] démontre que 44 000 à 98 000 décès se sont produits dans les hôpitaux aux États-Unis en 1997 à la suite d’EI. En 2016, ce chiffre a été réévalué [4] et estimé entre 250 000 et 400 000 décès par an, ce qui en fait la troisième cause de mortalité aux États-Unis.
Des études récentes [5, 6] mettent…