La structure universelle de Leibniz

La langue universelle est une veille idée travaillée par des philosophes comme Leibniz et Descartes, selon cette idée, il y aurait une structure commune à la pensée de tous les humains, et cette structure serait mathématique.
La pensée humaine s’exprimant par la langue, il y aurait donc une grammaire commune à la pensée des humains.

Dans un premier temps, Descartes a imaginé une langue claire et rationnelle, capable d’exprimer les connaissances scientifiques et philosophiques de manière précise.
Selon lui, cette langue devait être fondée sur des idées et notions universelles, c’est-à-dire compréhensibles par tous.

Plus tard, Leibniz (influencé par les travaux de Descartes) a imaginé une caractéristique universelle, une « langue » capable d’exprimer toutes les pensées conceptuelles (philosophiques, scientifiques..) Cette langue comprend des règles de manipulation symbolique, ou dit autrement, un « algorithme » que Leibniz a appelées « calculus ratiocinator ».


Le calculus ratiocinator permettrait de démêler le vrai du faux dans toute discussion dont les termes seraient exprimés dans la langue universelle (la Caractéristique universelle).
Leibniz imaginait donc un procédé automatique couplant la langue formalisée et l’algorithme, qui puisse décider de la vérité de toute assertion quelle qu’elle soit, en s’appuyant sur un alphabet de la pensée humaine.
Son but était de consolider les bases de la raison en la réduisant le plus possible à une formule mathématique que beaucoup pourraient comprendre.

Plus tard, Alan Turing s’est inspiré de l’idée leibnizienne d’un calcul logique mécanique pour développer le concept de machine de Turing. Cela a jeté les bases théoriques des ordinateurs modernes et des langages de programmation.

Aujourd’hui, les systèmes de traductions basée sur IA construisent une structure spatiale d’une langue, elle n’apprennent pas les règles d’une langue comme le font les nouveaux-nés, mais les déduisent grâce aux données et aux statistiques.
En bénéficiant de cette structure spatiale abstraite, les modèles IA multilingues peuvent traduire un texte d’une langue à une autre, même si cette dernière est très peu parlée, par exemple, si mon but est de traduire un texte d’une langue A à C alors :

  • Je peux commencer par traduire le texte de langue A à B.
  • Puis de B à C.
  • Je peux donc « apprendre » et déduire ma traduction de A à C, palliant au manque d’information initiale.

Un clin d’œil direct à l’idée de Leibniz de langue universelle.

L’hypothèse de Mountcastle et la théorie des mille cerveaux

La neurophysiologie est l’étude des fonctions du système nerveux (allant du niveau moléculaire jusqu’au niveau le plus intégré des réseaux neuronaux).
De plus, une colonne corticale est un groupe de neurones situés dans le cortex cérébral dont les champs de réception sont identiques.

Ainsi, Vernon Benjamin Mountcastle est un neurophysiologiste américain, c’est lui qui découvre et caractérise l’organisation en colonnes corticales du cortex cérébral dans les années 1950.
Cette découverte représente un tournant majeur dans les recherches sur le cortex cérébral.

L’hypothèse de Mountcastle est que la « colonne corticale » est l’unité fonctionnelle du traitement de l’information dans le néocortex, et que les neurones d’une même colonne possèdent des propriétés physiologiques communes.
Mountcastle a proposé que d’un bout à l’autre du néocortex, colonnes corticales et mini colonnes accomplissent la même chose : elles exécutent un algorithme fondamental qui est à l’origine de tous les aspects de la perception et de l’intelligence

C’est une hypothèse forte, en effet, il n’apparaît pas de prime abord que lire Shakespeare équivaille à saisir une tasse à café, mais c’est pourtant ce qu’implique l’idée de Mountcastle, soutenue par de nombreuses observations.

La fameux livre introduisant la théorie des mille cerveaux.

D’un autre coté, « La théorie des mille cerveaux », proposée par Jeff Hawkins dans son livre « 1000 cerveaux : une nouvelle compréhension du cerveau et de l’intelligence artificielle », est une nouvelle façon d’envisager le fonctionnement du cerveau et de l’intelligence : elle repose sur l’hypothèse de Mountcastle et propose que l’intelligence n’est pas un système centralisé, mais émerge de l’activation coordonnée de milliers de modèles distribués dans les colonnes corticales du cerveau, fonctionnant toutes selon le même algorithme de base.

La théorie des mille cerveaux influence la création d’IA en proposant une approche distribuée avec un algorithme d’apprentissage commun – similaire aux colonnes corticales – pour créer des modèles prédictifs, dont l’activation coordonnée permettrait d’émuler l’émergence de l’intelligence observée dans le cerveau humain.

La Rationalité limitée et l’Intelligence Artificielle

En informatique, un bit est l’unité de base de l’information, pouvant prendre l’une des deux valeurs binaires : 0 ou 1.

Toutefois, toute information, qu’elle soit textuelle, visuelle, sonore ou autre, peut être quantifiée en bits en dehors de l’informatique en utilisant des techniques de codage et de compression adaptées : ce n’est rien de plus qu’une unité de mesure de l’information.

Ainsi, il a été démontré que les sens humains recueillent environ 11 millions de bits par seconde de l’environnement, mais l’esprit conscient semble être capable de ne traiter qu’environ 50 bits par seconde.

Cela est visible dans des activités comme la lecture, où un rythme typique de 300 mots par minute se traduit par environ 50 bits par seconde.

En revanche, les ordinateurs modernes peuvent traiter des milliards, voire des trillions de bits par seconde, dépassant de loin le taux de traitement conscient humain.

La différence entre la quantité d’informations transmises au cerveau (11 millions de bits par seconde) et la quantité traitée consciemment (50 bits par seconde) suggère qu’une énorme quantité de compression et de traitement inconscient se produit dans le cerveau.

Je te vois !

D’un autre côté, Herbert Simon, Nobel d’économie en 1978 a proposé sa théorie de la « Rationalité limitée », dans celle-ci, il suggère que la capacité de décision d’un individu est altérée par un ensemble de contraintes comme le manque d’information (on retrouve les limites du cerveau humain), des biais cognitifs ou encore le manque de temps. Dans cette optique, les décideurs ont tendance à choisir des solutions satisfaisantes plutôt qu’optimales.

Cette théorie s’oppose clairement à la théorie du choix rationnel, qui postule l’acteur économique est pleinement rationnel concernant la situation envisagée.

Cependant, au lieu d’opposer les ordinateurs aux cerveaux humains, la rationalité limitée suggère que le développement des outils informatiques a permis de surpasser les limites humaines en termes de stockage et de traitement de l’information, un clin d’œil direct à l’émergence de l’intelligence artificielle, qui bénéficie de la capacité de traitement des ordinateurs, tout en simulant un raisonnement humain.