Comment le biais du survivant vous fait surévaluer vos chances de réussite

Laetitia Vitaud

Editor in Chief

Nous ne sommes pas, loin s’en faut, des êtres rationnels et sans affect capables de traiter l’information de manière neutre et de prendre toujours les meilleures décisions pour notre entreprise. Nous sommes biaisés. Les biais cognitifs, ce sont des distorsions que subissent les informations en entrant ou en sortant de notre système cognitif. Ils ont un impact critique sur les décisions prises en matière de ressources humaines, mais nous n’en sommes pas souvent conscients. Ils sont un frein à la diversité et à l’efficacité. Dans cette série, nous vous proposons des courts articles pour identifier les biais, comprendre comment ils affectent les ressources humaines et comment y remédier. Numéro 6 de notre série : le biais du survivant.

Explication

Le biais du survivant consiste à tirer des conclusions trop hâtives à partir d’un jeu de données incomplet. C’est une forme de biais de sélection consistant à surévaluer les chances de succès d’une initiative en concentrant l’attention sur les sujets ayant réussi mais qui sont des exceptions statistiques (des « survivants ») plutôt que sur des cas représentatifs.

L’illustration la plus célèbre (et la plus claire) concerne les avions alliés envoyés pour bombarder les zones occupées pendant la seconde guerre mondiale. Une étude avait recommandé, au vu des dommages causés aux avions qui revenaient de mission, de blinder les endroits de l’avion qui recevaient le plus de balles.

Mais le statisticien Abraham Wald, déterminé à minimiser la perte de bombardiers sous les feux ennemis, a identifié une dangereuse erreur dans ce raisonnement.
En effet, les études ne tenaient compte que des aéronefs qui avaient « survécu » et étaient revenus de mission. Elles ne tenaient aucun compte de ceux qui s’étaient écrasés. Pour lui, il fallait au contraire blinder les endroits des appareils qui présentaient le moins de dommages car les endroits endommagés des avions revenus à la base sont ceux où l’avion peut encaisser des balles et « survivre ».
À l’inverse, sa supposition était que lorsqu’un avion était endommagé ailleurs, il ne revenait pas. Ce sont donc les endroits non endommagés chez les « survivants » qui devaient être blindés !

En matière d’interprétation des chiffres, nous sommes tous victimes de biais de sélection qui nous rendent aveugles aux réalités sous-jacentes. Il faut donc toujours se demander d’où viennent les chiffres, comment ils sont sélectionnés et ce qu’ils signifient réellement. Par exemple, doit-on interpréter la baisse du nombre de plaintes pour viol comme quelque chose de positif ? Pas forcément, car il est possible qu’il y ait davantage de viols qui n’ont pas donné lieu à une plainte parce que les victimes ont peur de s’exposer en portant plainte. À l’inverse, une augmentation du nombre de plaintes peut être le signe d’un climat de confiance où il est plus facile de parler. 

Conséquences pour les ressources humaines

Les big data prennent une place de plus en plus grande dans la gestion des ressources humaines. Par conséquent, les RH ne sont pas à l’abri des biais de sélection qui nous conduisent à interpréter les données de travers. De nombreux biais peuvent contribuer à façonner les algorithmes conçus pour sélectionner les candidats. 

En matière de ressources humaines, l’intelligence artificielle ne peut utiliser que les données pré-sélectionnées pour elle, des données « survivantes » marquées par une histoire de biais humains. Dans certains milieux, les données collectées sont loin d’être représentatives de la population. Dans la Tech ou la finance, par exemple, les données historiques n’incluent pas beaucoup de femmes. Le biais du survivant est l’un de ceux qui risquent le plus d’être perpétués et même amplifiés par l’intelligence artificielle.

Comment y remédier

Il existe des moyens de neutraliser certains biais en « désactivant » les critères qui posent problème (le genre, l’origine ethnique ou les années d’expérience, par exemple) quand certaines catégories sont sous-représentées. En amont, il est important de collecter des données les plus représentatives possibles pour que les biais ne soient pas reproduits par la machine.

Il est préférable d’appréhender les outils d’IA dans les ressources humaines comme des « assistants » des humains dans des systèmes conçus pour neutraliser les biais et réduire la discrimination. Pour en savoir plus sur ces systèmes qui neutralisent les biais, allez voir notre livre blanc « Comment augmenter peu à peu la place des femmes dans la Tech » et l’article sur le livre What Works: Gender Equality By Design de Iris Bohnet.

Auteur : Laetitia Vitaud

Notre mission

Rendre le monde de l'emploi meilleur grâce au contenu et à la technologie