L’expérience de la chambre chinoise

La chambre chinoise expérience de pensée proposée par Searle, et vise à montrer qu’une intelligence artificielle ne peut être qu’une intelligence artificielle faible et ne peut que simuler une conscience, plutôt que de posséder d’authentiques états mentaux de conscience et d’intentionnalité (comme les êtres humains).

Elle vise à montrer également que le test de Turing est insuffisant pour déterminer si une intelligence artificielle est comparable à un humain dans son raisonnement.

L’expérience se présente comme suit :

  • Une personne A qui n’a aucune connaissance du chinois est enfermée dans une chambre.
  • On met à disposition de cette personne un catalogue de règles permettant de répondre à des questions en chinois.
  • La personne A enfermée dans la chambre, reçoit de la part d’une personne B des questions écrites en chinois et, en appliquant les règles qu’elle a à sa disposition, elle produit d’autres phrases en chinois qui sont parfaitement claires, et du niveau d’un locuteur de chinois.

Ainsi, du point de vue du locuteur qui pose les questions (la personne B), la personne A enfermée dans la chambre parle parfaitement le chinois.
Mais, en l’occurrence, cette dernière n’a aucune compréhension de la signification des phrases en chinois qu’elle compose, elle ne fait que suivre des règles prédéterminées dans le catalogue.

Illustration de l’expérience

Cette expérience de pensée suggère qu’il ne suffit pas d’être capable de reproduire exactement les comportements linguistiques d’un locuteur chinois pour parler chinois (ou toute autre langue).

Pour Searle, un usage maîtrisé du langage se double d’une conscience du sens de ce qu’on dit (ce qui n’est pas le cas de A) et la reproduction artificielle, même parfaite, d’un comportement linguistique ne suffit pas à produire une telle conscience, autrement dit les tests de Turing ne sont suffisants pour juger de l’intelligence d’une machine.

Le test de Turing

Le test de Turing est une proposition de test d’intelligence artificielle fondée sur la faculté d’une machine à imiter la conversation humaine.
Il est décrit par Alan Turing en 1950.

Ce test consiste à mettre un humain (qui est un arbitre) en confrontation verbale et à l’aveugle avec un ordinateur et un autre humain.

Si l’arbitre n’est pas capable de dire lequel de ses interlocuteurs est un ordinateur et lequel est un humain, on peut considérer que l’ordinateur a passé avec succès le test de Turing.
Bien sûr, la machine peut volontairement donner de fausses réponses pour se faire passer pour un humain.

Alan Turing a imaginé ce test pour répondre à sa question existentielle : « une machine peut-elle penser ? » Pour lui, si la machine peut être confondue avec un humain, alors oui, une machine peut penser.

Une nuance importante à apporter, est que ce test ne détermine pas directement si l’ordinateur se comporte de façon intelligente, cela teste seulement si l’ordinateur se comporte comme un être humain. (le comportement intelligent et les comportements humains ne sont pas exactement la même chose, il y’a inclusion, mais pas égalité).

En effet, l’hypothèse forte et implicite est que les êtres humains peuvent juger de l’intelligence d’une machine en comparant son comportement avec le comportement humain (qui lui, est donc la référence pour juger de l’intelligence).

De plus, si l’intelligence transparaît à travers son comportement – en l’occurrence ici, les réponses – elle peut parfaitement être simulée, mais c’est un sujet pour un autre article !

Le biais rétrospectif

Le biais rétrospectif consiste à surestimer, rétrospectivement, le fait que les événements auraient pu être anticipés avec davantage de prévoyance ou de clairvoyance.

Il est aujourd’hui intégré dans des cursus ou des pratiques de consultance ou d’audit portant sur l’aide à la décision ou la gestion des risques dans des secteurs tels que l’économie, la politique, la finance ou la santé.

Il a été décrit initialement par le psychologue Baruch Fischhoff à la suite d’une série d’expériences au cours desquelles on demande à des sujets leur avis sur un événement historique peu connu comme la guerre anglo-népalaise.

  • Il constate que si on donne à certains participants l’information selon laquelle les Gurkhas du Népal ont remporté la victoire, alors ceux-ci estiment avec confiance qu’ils auraient été capables de prévoir l’issue du conflit.
  • L’inverse se produit, lorsqu’on les informe que les Britanniques ont triomphé.

Dans les 2 cas, les participants pensent qu’ils auraient été capables de prédire la réponse. (Alors qu’il n’y a qu’une seule bonne réponse), c’est cela le biais rétrospectif.

Une fois l’événement terminé, on pense qu’on aurait pu le prédire facilement !

Le biais rétrospectif (l’estimation qu’un événement était plutôt prévisible) apparaît (à postériori) surtout dans les événements jugés tragiques.

Ainsi, ce dernier questionne directement la notion de responsabilité dès lors qu’il s’agit d’évaluer si un événement était effectivement prévisible et donc évitable, et le cas échéant, identifier les responsables.