Le modèle IS/LM

En économie, la théorie de l’équilibre général s’intéresse au cas où les échanges entre les individus et les entreprises prennent une forme marchande, par l’intermédiaire d’un système de prix.


Le mot « équilibre » désigne le fait que ces échanges sont tels que chacun soit satisfait et ne cherche plus à « bouger » (à faire de nouveaux échanges).
« général » s’explique par le fait que l’ensemble des échanges de l’économie, qui concerne tous ses biens et services, sont pris en compte — par opposition à la théorie de l’« équilibre partiel », qui ne traite que du cas d’un seul bien, en ne tenant pas compte des interactions de ses échanges avec ceux qui portent sur les autres biens.

Le modèle IS/LM est un modèle économique pour la macroéconomie, il a été proposé par l’économiste John Hicks en 1937, ce modèle ne part pas d’une analyse micro-économique, mais raisonne directement en termes d’agrégats nationaux et ce modèle opère dans une économie fermée (pas d’échange avec des pays étrangers) et sans inflation.

Ainsi, le modèle IS/LM établit un «équilibre général» entre le marché des biens et celui des services, liant investissement et épargne (Investments and Savings : IS) au marché monétaire, qui lie demande et offre de monnaie (Liquidity preference and Money supply LM).

L’équilibre entre ces deux marchés est le point d’intersection entre les 2 courbes IS/LM et détermine l’équilibre de la demande et du taux d’intérêt.
Cet équilibre ne garantit pas l’absence de chômage.

Avec :

  • La courbe IS : Sur le marché des biens et services, lorsque les taux d’intérêt diminuent, il y’a augmentation de la demande (et donc de production) (et inversement).
  • La courbe LM : Sur le marché monétaire, lorsque les taux d’intérêt diminuent, il y’a diminution de la monnaie dans les marchés monétaires. (ces derniers ne rapportent pas assez) (et inversement).
D’autres extensions du modèle permettent de pallier à ses limites (économie ouverte, inflation, etc..)

Les deux courbes IS et LM sont réunis sur un même graphe, qui est donc l’interface entre la vision « réelle » et la vision « monétaire » de l’économie. L’intersection des deux courbes représente le point (unique) qui satisfait les deux équilibres, et donc l’équilibre général.

Le théorème du jury

Avant toute chose, il faut noter qu’une majorité simple résulte du plus grand nombre des voix obtenues pour un concurrent par rapport aux autres.
Il ne nécessite donc pas d’obtenir plus de la moitié des suffrages exprimés, à la différence de la majorité absolue.

Le théorème du jury fut développé par Nicolas de Condorcet, il s’intéresse à l’impacte du nombre de votants, sur la probabilité que ces derniers votent ou non pour le bon choix, et ce, dans le contexte de majorité simple.

On suppose qu’un groupe d’individus souhaite prendre une décision par un vote à la majorité simple et qu’il existe deux issues possibles au vote : un bon et un mauvais vote.

Chaque votant a une probabilité p de voter pour le bon choix, et chaque vote est indépendant de celui des autres.

Ce théorème cherche à savoir le nombre de votants qu’il devrait y avoir dans le groupe afin d’obtenir la bonne issue. Le résultat dépend en fait de la valeur de p :

  • Si p (la probabilité de bien voter) est plus grand que 1/2 => ajouter quelqu’un dans le groupe augmentera la probabilité que l’issue choisie soit correcte, plus on ajoute de personnes, et plus la probabilité tend vers 1 (la certitude).
  • Sinon si p est plus petit que 1/2 => c’est l’inverse qui se produit.

Condorcet résume son théorème avec la phrase suivante :

« plus la probabilité de la vérité de la décision sera grande : la limite de cette probabilité sera la certitude. »

(plus p est grand > 0.5, plus on tend vers la certitude lorsque le nombre de votants augmente)

Statue de Condorcet à Paris.

Un parallèle peut être fait avec les élections et l’âge minimum requis pour voter, en effet, diminuer l’âge minimum des votants augmente le nombre de participants, et peut changer « l’équilibre des forces ».

De plus, les théorèmes du jury sont employés en informatique pour justifier l’apprentissage ensembliste, mais c’est un autre sujet !

Le problème de l’induction

Lors d’un raisonnement inductif, on fait une série d’observations et nous inférons une nouvelle affirmation fondée sur ces observations.

Par exemple, on constate, après plusieurs observations, que le feu brûle, et on arrive à en déduire la règle : Le feu brûle.

En prenant un autre exemple : Une femme promène son chien en passant par le marché à 8h du matin le lundi, après plusieurs observations, le phénomène se répète, mais pouvons-nous pour autant, inférer que la femme promènera toujours son chien, tous les lundis, et en passant par le marché ?
À moins de supposer que le passé détermine l’avenir, il n’est pas possible de généraliser et d’aboutir à une règle absolue à partir d’une série d’observations.

C’est cela le problème de l’induction.

En effet, lorsqu’on généralise des observations vers une règle, cette généralisation se fait sans règle (sans preuve) et peut donc conduire à des erreurs a posteriori (par exemple, on pensait que tous les cygnes étaient blancs, jusqu’à la découverte des cygnes noirs)

De plus, généraliser, présuppose qu’une séquence d’événements à l’avenir se produira comme elle a toujours fait dans le passé (La femme promènera toujours son chien, les lois de la physique resteront toujours inchangées, etc..)

Le passage délicat entre observations et lois est le problème de l’induction.

Beaucoup de philosophes ont débattu sur le problème de l’induction, et pour Karl Popper, ce problème ne se pose pas, car la connaissance obtenue est vraie (elle n’est donc plus absolue) jusqu’à preuve du contraire (le feu brûle, jusqu’à preuve du contraire).

La science doit chercher des théories qui sont très probablement fausses d’une part, mais dont toutes les tentatives réelles de les falsifier ont échoué jusqu’à présent, elles sont vraies jusqu’à ce que de nouvelles théories les remplacent et ainsi de suite.