Les dilemmes morbides des véhicules sans pilote



MobilitéLes voitures autonomes, annoncées sur nos routes à l’horizon 2020, posent des questions éthiques insolubles. Explications.

Imaginez. Par un bel après-midi d’automne, vous êtes au volant de votre rutilante automobile. Le soleil brille dans le ciel et la radio joue votre air préféré. Mais tout à coup, dix personnes traversent juste devant vos roues. Que faire? Deux solutions s’offrent à vous: 1) vous braquez le volant pour les éviter mais, ce faisant, vous vous fracassez contre un mur et mourez. 2) vous écrasez les piétons imprudents afin d’épargner votre propre vie.

Ce dilemme cruel n’est pas simple à régler pour un conducteur. «Alors maintenant, imaginez que vous êtes non pas dans une voiture traditionnelle, mais dans un véhicule autonome, c’est-à-dire piloté par un ordinateur. Quel choix a été programmé par le constructeur et ce choix se trouve-t-il en accord avec votre propre philosophie? interroge Jean-François Bonnefon, psychologue et directeur de recherche à l’Ecole d’économie de Toulouse. La question de la morale des voitures autonomes est un sujet passionnant. Il donne une réalité à un problème qui n’était jusqu’alors que philosophique.»

Programmé pour tuer?

En effet, confronté à ce type de décision, un conducteur n’a en réalité aucun choix. En quelques dixièmes de secondes, son cerveau prend une décision sans anticiper les conséquences. Bardées de capteurs, les voitures sans pilote, elles, auront un jour la capacité de trancher «consciemment». De décider de tuer une seule personne (le passager) ou plusieurs (les piétons). Mais quel algorithme faut-il privilégier? Celui privilégiant le moindre mal ou celui préservant à tout prix la vie du passager-propriétaire? Et surtout qu’en pense ce dernier?

Pour le savoir, Azim Shariff (de l’Université de l’Oregon), Iyad Rahwan (du Massachusetts Institute of Technology, MIT) et Jean-François Bonnefon ont confronté près de 2000 personnes à ce type de dilemme. Leurs travaux, publiés dans la revue Science le 24 juin, montrent que 75% des répondants estiment qu’il est plus moral de sacrifier la vie du passager, afin de sauver dix piétons. Un résultat attendu. En effet, de nombreuses études ont déjà analysé cette question, connue sous le nom du dilemme du tramway. «Il s’agit d’un consensus très fort, souligne Jean-François Bonnefon. Les gens ont une vision morale qui les pousse à faire un choix utilitariste, qui minimise le nombre de victimes possibles. Néanmoins, cette position fléchit nettement lorsque le participant se trouve lui-même dans le véhicule, seul ou en famille.»

L’égoïsme prime toujours

Dans la même étude, les cobayes étaient invités à mettre une note de 0 à 100 pour juger ces possibilités. Quand la personne est seule à bord, la note moyenne atteint 70, mais elle tombe à 60 lorsqu’elle est accompagnée par sa famille. «C’est un classique des dilemmes sociaux, poursuit Jean-François Bonnefon. Lorsqu’ils ne sont pas concernés, les gens font passer l’intérêt général avant les intérêts particuliers. Mais, lorsqu’il s’agit d’eux-mêmes, l’égoïsme reprend le dessus.» Ainsi, la note chute à 40 lorsque les cobayes doivent indiquer s’ils seraient prêts à acheter une voiture programmée pour les sacrifier au nom du bien commun.

«Les gouvernements, dont le rôle est de réduire le nombre de victimes sur les routes, seront tentés de rendre obligatoires des algorithmes utilitaristes, poursuit Jean-François Bonnefon. Mais cette stratégie peut se révéler contre-productive en dissuadant les acheteurs potentiels.» En effet, les véhicules autonomes sont jugés plus sûrs que les automobiles traditionnelles. Si les clients ne les achètent pas pour ces raisons, moins de vie seront, in fine, sauvées. Autre problème: en voulant préserver le plus de vies possible, la logique utilitariste peut se révéler parfaitement immorale. Revenons à notre situation de départ: dix piétons imprudents se jettent sous vos roues. 1) vous braquez le volant pour les éviter mais, ce faisant, vous montez sur le trottoir et tuez un passant innocent. 2) vous écrasez les dix personnes… Noah Goodall, chercheur au Virginia Transportation Research Council, a imaginé une série d’exemples qui montrent à quel point il sera complexe pour les constructeurs de mettre au point des algorithmes d’optimisation d’accidents éthiques.

Pourtant, dans une interview accordée au Washington Post, Chris Urmson, responsable des véhicules autonomes chez Google, balaye le problème en affirmant que ces dilemmes représentent «des problèmes amusants pour les philosophes». «Je comprends assez bien que les constructeurs rechignent à communiquer sur ces notions, sourit Jean-François Bonnefon. Que leurs algorithmes soient optimisés pour sauver le plus de vies possible ou pour préserver les passagers, le choix leur sera reproché. Aucune alternative ne fera l’unanimité.»

Dans les faits, le logiciel des Google Car est conçu pour éviter les collisions avec les usagers les plus vulnérables (cyclistes, piétons), puis les autres véhicules et enfin les objets qui ne bougent pas. Et, jusqu’ici, il n’est pas capable, selon Chris Urmson, de prendre une décision plus éclairée que ça. «Il y a en fait très peu de situations où de tels dilemmes se rencontrent, note Jean-Gabriel Ganascia, spécialiste d’intelligence artificielle au laboratoire d’informatique de l’université Paris-VI. Ces véhicules cherchent uniquement à éviter les accidents ou à minimiser leurs conséquences.»

Des débats sans fin

Un avis partagé par Franck Cazenave, spécialiste de la question et auteur du livre Stop Google: «Ces dilemmes moraux sont un fantasme de personnes qui ne connaissent rien au sujet. Aujourd’hui, aucune voiture totalement autonome ne circule (voir encadré) et les capteurs des prototypes ne possèdent pas une portée suffisante pour calculer la meilleure décision possible lors d’un crash inévitable. Dans la réalité, ces robots mobiles tentent de limiter la casse, en respectant le Code de la route. Aucun constructeur, par exemple, ne prendra le risque de programmer son véhicule pour qu’il franchisse une ligne jaune, même si c’est pour sauver un piéton. En cas de procès, les conséquences seraient trop graves. Néanmoins, avec les progrès technologiques, les voitures autonomes vont acquérir de nouvelles capacités et les questions éthiques vont finir par se poser. Il y aura alors des arbitrages à faire et un débat de société serein à mener.»

Mais comment faire et où s’arrêter? «Ces dilemmes moraux conduisent à des calculs sans fin, poursuit Jean-Gabriel Ganascia. Faut-il tenir compte de l’âge des personnes, de leur sexe, de leur profession? D’un point de vue éthique, cette schématisation à l’extrême me paraît discutable.» (24 heures)

Source : www.24heures.ch / Par Bertrand Beauté

Laisser un commentaire