L’illusion de profondeur explicative et Challenger

Le 28 janvier 1986, 73 secondes après le décollage de la navette spatiale américaine Challenger, un accident astronautique qui eut lieu qui se traduisit par la désintégration de la navette spatiale et la disparition de l’équipage.

Ce triste évènement est connu sous le nom de « L’accident de la navette spatiale Challenger ».

Aujourd’hui on pense que « L’illusion de profondeur explicative » (IPE) a probablement joué un rôle significatif dans la catastrophe de la navette spatiale Challenger en contribuant à un excès de confiance et à une prise de décision défectueuse parmi les responsables et les ingénieurs de la NASA.

Cette illusion est un biais cognitif où les gens croient comprendre des sujets ou des systèmes complexes plus en profondeur qu’ils ne le font réellement. Ce phénomène a été identifié et étudié pour la première fois par les scientifiques cognitifs Leonid Rozenblit et Frank Keil en 2002.

On constate la manifestation de ce biais, quand :

  • Les individus se sentent confiants dans leur compréhension jusqu’à ce qu’on leur demande de fournir des explications détaillées.
  • Ou lorsqu’ils sont forcés d’expliquer, les gens ont souvent du mal et réalisent les lacunes dans leurs connaissances.

Ainsi, après avoir tenté des explications, les gens abaissent généralement leur auto-évaluation de leur compréhension.

Concernant l’incident de Challenger, les ingénieurs et les gestionnaires de la NASA ont surestimé leur compréhension du comportement des joints toriques (joint en forme de tore, généralement utilisé pour assurer l’étanchéité) à basses températures.

Bien que sachant que les joints toriques étaient sensibles au froid et conçus pour fonctionner au-dessus de 11,7°C, ils ont approuvé le lancement à seulement 2,2°C. Cela suggère qu’ils croyaient avoir une compréhension plus profonde des capacités des joints toriques qu’ils ne l’avaient réellement.

Fort heureusement, on peut lutter contre ce biais, la prise de conscience du phénomène pour accroître l’humilité intellectuelle.

De plus, la meilleure façon de le faire consiste à expliquer et à justifier ses choix, un clin d’œil à la fameuse maxime romaine Docendo discimus

La structure universelle de Leibniz

La langue universelle est une veille idée travaillée par des philosophes comme Leibniz et Descartes, selon cette idée, il y aurait une structure commune à la pensée de tous les humains, et cette structure serait mathématique.
La pensée humaine s’exprimant par la langue, il y aurait donc une grammaire commune à la pensée des humains.

Dans un premier temps, Descartes a imaginé une langue claire et rationnelle, capable d’exprimer les connaissances scientifiques et philosophiques de manière précise.
Selon lui, cette langue devait être fondée sur des idées et notions universelles, c’est-à-dire compréhensibles par tous.

Plus tard, Leibniz (influencé par les travaux de Descartes) a imaginé une caractéristique universelle, une « langue » capable d’exprimer toutes les pensées conceptuelles (philosophiques, scientifiques..) Cette langue comprend des règles de manipulation symbolique, ou dit autrement, un « algorithme » que Leibniz a appelées « calculus ratiocinator ».


Le calculus ratiocinator permettrait de démêler le vrai du faux dans toute discussion dont les termes seraient exprimés dans la langue universelle (la Caractéristique universelle).
Leibniz imaginait donc un procédé automatique couplant la langue formalisée et l’algorithme, qui puisse décider de la vérité de toute assertion quelle qu’elle soit, en s’appuyant sur un alphabet de la pensée humaine.
Son but était de consolider les bases de la raison en la réduisant le plus possible à une formule mathématique que beaucoup pourraient comprendre.

Plus tard, Alan Turing s’est inspiré de l’idée leibnizienne d’un calcul logique mécanique pour développer le concept de machine de Turing. Cela a jeté les bases théoriques des ordinateurs modernes et des langages de programmation.

Aujourd’hui, les systèmes de traductions basée sur IA construisent une structure spatiale d’une langue, elle n’apprennent pas les règles d’une langue comme le font les nouveaux-nés, mais les déduisent grâce aux données et aux statistiques.
En bénéficiant de cette structure spatiale abstraite, les modèles IA multilingues peuvent traduire un texte d’une langue à une autre, même si cette dernière est très peu parlée, par exemple, si mon but est de traduire un texte d’une langue A à C alors :

  • Je peux commencer par traduire le texte de langue A à B.
  • Puis de B à C.
  • Je peux donc « apprendre » et déduire ma traduction de A à C, palliant au manque d’information initiale.

Un clin d’œil direct à l’idée de Leibniz de langue universelle.

L’hypothèse de Mountcastle et la théorie des mille cerveaux

La neurophysiologie est l’étude des fonctions du système nerveux (allant du niveau moléculaire jusqu’au niveau le plus intégré des réseaux neuronaux).
De plus, une colonne corticale est un groupe de neurones situés dans le cortex cérébral dont les champs de réception sont identiques.

Ainsi, Vernon Benjamin Mountcastle est un neurophysiologiste américain, c’est lui qui découvre et caractérise l’organisation en colonnes corticales du cortex cérébral dans les années 1950.
Cette découverte représente un tournant majeur dans les recherches sur le cortex cérébral.

L’hypothèse de Mountcastle est que la « colonne corticale » est l’unité fonctionnelle du traitement de l’information dans le néocortex, et que les neurones d’une même colonne possèdent des propriétés physiologiques communes.
Mountcastle a proposé que d’un bout à l’autre du néocortex, colonnes corticales et mini colonnes accomplissent la même chose : elles exécutent un algorithme fondamental qui est à l’origine de tous les aspects de la perception et de l’intelligence

C’est une hypothèse forte, en effet, il n’apparaît pas de prime abord que lire Shakespeare équivaille à saisir une tasse à café, mais c’est pourtant ce qu’implique l’idée de Mountcastle, soutenue par de nombreuses observations.

La fameux livre introduisant la théorie des mille cerveaux.

D’un autre coté, « La théorie des mille cerveaux », proposée par Jeff Hawkins dans son livre « 1000 cerveaux : une nouvelle compréhension du cerveau et de l’intelligence artificielle », est une nouvelle façon d’envisager le fonctionnement du cerveau et de l’intelligence : elle repose sur l’hypothèse de Mountcastle et propose que l’intelligence n’est pas un système centralisé, mais émerge de l’activation coordonnée de milliers de modèles distribués dans les colonnes corticales du cerveau, fonctionnant toutes selon le même algorithme de base.

La théorie des mille cerveaux influence la création d’IA en proposant une approche distribuée avec un algorithme d’apprentissage commun – similaire aux colonnes corticales – pour créer des modèles prédictifs, dont l’activation coordonnée permettrait d’émuler l’émergence de l’intelligence observée dans le cerveau humain.