Octobre 2025 | Tony MAINGOUTAUD
UX Horror 2 : Quand des erreurs de Design virent au drame
Les erreurs de design, souvent perçues comme de simples imprécisions, peuvent mener à des conséquences bien plus graves qu'on ne l'imagine. Un mauvais choix d'interface, une information mal présentée, ou une faille dans le process peut transformer des instants critiques en véritables tragédies.

Mars Climate Orbiter : L’erreur de conversion à 125 Millions de dollars
En 1999, la NASA s'apprêtait à insérer sa sonde, le Mars Climate Orbiter, en orbite autour de le planète Mars. C'était l'aboutissement de plusieurs années de travail, de neuf mois de voyage à travers l'espace et de 125 millions de dollars d’investissement.
Alors que l'équipe du Jet Propulsion Laboratory attendait avec impatience le signal de mise en orbite, le silence radio s'est installé. La sonde a disparu, volatilisée …
L'enquête qui a suivi a révélé l'impensable : la sonde a été consumée dans l'atmosphère martienne.
La catastrophe venait d'une erreur de conversion d'unités…
Les ingénieurs du logiciel de navigation programmaient la poussée des moteurs en unités impériales (livres-force), alors que le logiciel de la sonde (NASA) s'attendait à recevoir des données en unités métriques (newtons). Jour après jour, la sonde recevait des instructions erronées qui la déviaient de sa trajectoire idéale.
La sonde, croyant être à la bonne altitude, est descendue bien trop bas. Elle a rencontré une atmosphère incompatible avec sa conception et s’est désintégrée.
Le drame n'est pas tant dans l'échec technique, que dans le constat qu'un tel investissement ait été anéanti par une simple incompatibilité de données entre deux systèmes.

Three Mile Island : Le voyant radioactif
Nous sommes le 28 mars 1979, dans la salle de contrôle de la centrale nucléaire de Three Mile Island, en Pennsylvanie, le calme régnait.
Soudain, dans la nuit, l'impensable se produisit : la centrale sombrait dans le chaos. Une vanne de décompression cruciale s'est bloquée en position ouverte, vidant le réacteur de son liquide de refroidissement radioactif.
Le problème d’origine mécanique, a été aggravé et prolongé par une interface de contrôle cauchemardesque.
Sur le tableau de bord, le voyant lumineux indiquait aux opérateurs que la commande d'ouverture de la vanne avait été désactivée. En effet, on ne pouvait plus ouvrir la vanne. Mais ce même voyant ne signifiait pas que la vanne était également en position fermée.
Les opérateurs, faisant confiance à cette information visuelle trompeuse, ont cru, pendant des heures cruciales, que la vanne était close.
Le pire était que l'agencement des commandes était si chaotique que même l'opérateur le plus expérimenté n'aurait pu rapidement déceler la vérité. Don Norman (Expert UX, Norman Nielsen Group) a déclaré que cette salle de contrôle était conçue pour la confusion.
Les écrans fragmentés et les informations dispersées ont créé un modèle mental erroné chez les opérateurs, les menant à prendre de mauvaises décisions.
Le résultat : L’évacuation d’une ville, une fusion partielle du cœur du réacteur.
Cet incident illustre de manière dramatique que dans un environnement à haut risque, la clarté du design est la seule garantie contre la tragédie.

Le vol Iran Air 655 : La confusion d’icône fatale
Le 3 juillet 1988, en pleine guerre d’Irak, le croiseur américain USS Vincennes patrouillait sur les mers. La tension était palpable, la peur d'une attaque imminente pesait sur tout l'équipage. Pour parfaire les défenses, les croiseurs étaient équipés du système de combat “Aegis”, censé leur donner la supériorité.
En pleine patrouille sur les mers, l'alarme du système Aegis sonne : “avion en approche”.
Sur l'écran, les opérateurs voient une cible qui semble être un chasseur ennemi, effectuant une manœuvre d'attaque. La panique monte, le doigt tremble sur la gâchette, prêt à faire feux.
Ils tirent.
Le verdict est rapide : le missile a atteint sa cible.
Mais le missile n'a pas abattu un F-14, comme ont pu le croire les opérateurs. Il a pulvérisé l'Airbus A300 civil du vol Iran Air 655. Tuant 290 civils, dont 66 enfants.
Le véritable coupable ?
Une interface peu clair. Sous la pression, l'opérateur a interprété le symbole d’alerte comme "mode descente" (considéré comme une attaque ennemie)— alors qu’en réalité il signifiait que l'avion était en pleine ascension dans son couloir commercial.
Le système Aegis, trop complexe, offrait trop d’informations ambiguës et des symboles qui se prêtaient à la double interprétation. Il ne mettait pas en évidence le contexte crucial : Ceci est un vol commercial de passagers.
Le design de l’interface a nourri la paranoïa et n’a pas permis aux opérateurs de désamorcer cette idée dans leur esprit, que c’était une attaque ennemie. C'est le design qui a scellé le destin de 290 personnes.
Conclusion
Qu'il s'agisse de millions de dollars perdus, de catastrophes écologiques évitées de justesse, ou de vies humaines brisées, ces erreurs trouvent leurs origines dans un problème commun.
Ce n'est pas la faute de l'utilisateur. C'est le design qui a failli à sa mission la plus sacrée : prévenir l'erreur humaine. Il n'a pas réussi à gérer l'incertitude.
Ces histoires vous ont plu ?
Ne loupez pas le premier numéro des UX Horrors !
Au programme :
- Le message d’alerte qui a embrasé Notre-Dame
- Terreur à Hawaï suite à une erreur de clic
- Le logiciel qui a condamné les patients d’Épinal


