La loi de Poisson est l’une des lois de probabilité discrètes les plus importantes du programme de lycée et d’université. Elle permet de modéliser le nombre d’occurrences d’un événement aléatoire dans un intervalle de temps ou d’espace fixé, lorsque ces occurrences sont rares et indépendantes les unes des autres. Comprendre la loi de Poisson, c’est comprendre comment les mathématiques décrivent le monde des événements imprévisibles : pannes de machines, appels téléphoniques, désintégrations radioactives, ou encore buts marqués lors d’un match de football.
Dans ce cours, vous trouverez la définition rigoureuse, la formule complète, les conditions d’application, les propriétés fondamentales (espérance, variance) et la démonstration de l’approximation de la loi binomiale.
Contexte historique : qui était Siméon Denis Poisson ?
Siméon Denis Poisson (1781–1840) est un mathématicien, géomètre et physicien français du XIXe siècle. Son nom figure parmi les 72 grands savants gravés sur la Tour Eiffel. En 1838, il introduit cette loi dans son ouvrage Recherches sur la probabilité des jugements en matière criminelle et en matière civile. À l’époque, l’ouvrage passa presque inaperçu. Aujourd’hui, la loi de Poisson est un outil fondamental dans des dizaines de domaines scientifiques.
Anecdote pédagogique : l’une des premières applications empiriques célèbres de la loi de Poisson concerne le nombre de soldats prussiens tués par des coups de sabot de cheval par an — une étude réalisée par Ladislaus Bortkiewicz à la fin du XIXe siècle, qui valida l’adéquation remarquable du modèle.
Définition de la loi de Poisson
Une variable aléatoire discrète \(X\), à valeurs dans \(\mathbb{N}\), suit la loi de Poisson de paramètre \(\lambda\) (avec \(\lambda > 0\)) si, pour tout entier naturel \(k\) :
P(X = k) = \frac{e^{-\lambda} \cdot \lambda^k}{k!}
\]
On note alors \(X \sim \mathcal{P}(\lambda)\).
Décryptons cette formule :
- \(k\) est le nombre d’occurrences de l’événement que l’on cherche à évaluer (\(k = 0, 1, 2, \ldots\)).
- \(\lambda\) est le paramètre de la loi : il représente le nombre moyen d’occurrences de l’événement sur l’intervalle de référence.
- \(e \approx 2{,}71828\) est la base de l’exponentielle naturelle.
- \(k!\) est la factorielle de \(k\), avec la convention \(0! = 1\).
Vérification : la somme de toutes les probabilités vaut bien 1, car on reconnaît le développement en série entière de l’exponentielle :
\sum_{k=0}^{+\infty} \frac{e^{-\lambda} \cdot \lambda^k}{k!} = e^{-\lambda} \sum_{k=0}^{+\infty} \frac{\lambda^k}{k!} = e^{-\lambda} \cdot e^{\lambda} = 1
\]
Conditions d’application : quand utiliser la loi de Poisson ?
La loi de Poisson s’applique lorsque les quatre hypothèses suivantes sont vérifiées :
- Dénombrabilité : on compte le nombre d’occurrences d’un événement (un entier naturel).
- Indépendance : les occurrences sont indépendantes les unes des autres — la survenue d’un événement n’influence pas la probabilité du suivant.
- Homogénéité : le taux moyen d’occurrences \(\lambda\) est constant sur l’intervalle considéré.
- Rareté de la simultanéité : la probabilité que deux événements surviennent exactement au même instant est négligeable.
Ces quatre conditions définissent ce que l’on appelle un processus de Poisson. Exemples concrets :
- Nombre d’appels reçus à un standard téléphonique par heure.
- Nombre de pannes d’une machine par mois.
- Nombre de désintégrations radioactives d’un isotope par seconde.
- Nombre de voitures passant en un point d’une route par minute.
- Nombre de fautes de frappe sur une page de texte.
Attention : La loi de Poisson ne s’applique pas si les événements ne sont pas indépendants (par exemple, une panne peut en déclencher une autre), ou si le taux moyen varie au cours du temps (heure de pointe vs heure creuse).
Propriétés fondamentales de la loi de Poisson
Espérance et variance
Si \(X \sim \mathcal{P}(\lambda)\), alors :
E(X) = \lambda
\]
V(X) = \lambda
\]
\sigma(X) = \sqrt{\lambda}
\]
C’est une propriété remarquable et unique : pour la loi de Poisson, l’espérance et la variance sont égales au paramètre \(\lambda\). C’est d’ailleurs un critère utilisé en pratique pour tester si des données expérimentales suivent bien une loi de Poisson.
Démonstration de l’espérance
Par définition de l’espérance d’une variable discrète :
\begin{align*}
E(X) &= \sum_{k=0}^{+\infty} k \cdot \frac{e^{-\lambda} \lambda^k}{k!} \\
&= \sum_{k=1}^{+\infty} k \cdot \frac{e^{-\lambda} \lambda^k}{k!} \quad \text{(le terme } k=0 \text{ est nul)} \\
&= \sum_{k=1}^{+\infty} \frac{e^{-\lambda} \lambda^k}{(k-1)!} \quad \text{(simplification de } k \text{ avec } k!) \\
&= \lambda \cdot e^{-\lambda} \sum_{k=1}^{+\infty} \frac{\lambda^{k-1}}{(k-1)!} \\
&= \lambda \cdot e^{-\lambda} \cdot e^{\lambda} \quad \text{(en posant } j = k-1 \text{, série de l’exponentielle)} \\
&= \lambda
\end{align*}
\]
Démonstration de la variance
On calcule d’abord \(E(X(X-1))\) :
\begin{align*}
E(X(X-1)) &= \sum_{k=2}^{+\infty} k(k-1) \cdot \frac{e^{-\lambda} \lambda^k}{k!} \\
&= \lambda^2 \cdot e^{-\lambda} \sum_{k=2}^{+\infty} \frac{\lambda^{k-2}}{(k-2)!} \\
&= \lambda^2 \cdot e^{-\lambda} \cdot e^{\lambda} = \lambda^2
\end{align*}
\]
Puis, en utilisant \(V(X) = E(X^2) – [E(X)]^2\) et \(E(X^2) = E(X(X-1)) + E(X) = \lambda^2 + \lambda\) :
V(X) = \lambda^2 + \lambda – \lambda^2 = \lambda
\]
Formule de récurrence
En pratique, plutôt que de recalculer chaque probabilité depuis zéro, on utilise la relation suivante :
P(X = k) = \frac{\lambda}{k} \cdot P(X = k-1), \quad \text{pour tout } k \geq 1
\]
Cette formule est très utile pour construire une table de valeurs à la main ou à la calculatrice.
Stabilité par addition
Si \(X \sim \mathcal{P}(\lambda)\) et \(Y \sim \mathcal{P}(\mu)\) sont deux variables aléatoires indépendantes, alors :
X + Y \sim \mathcal{P}(\lambda + \mu)
\]
Intuitivement : si le nombre de clients arrivant le matin suit \(\mathcal{P}(3)\) et le nombre de clients arrivant l’après-midi suit \(\mathcal{P}(5)\), alors le nombre total de clients sur la journée suit \(\mathcal{P}(8)\).
Interprétation intuitive et représentation graphique
La loi de Poisson est souvent appelée loi des événements rares. Voici pourquoi : imaginons que l’on lance une pièce de monnaie non truquée 1 000 fois. La probabilité d’obtenir pile est \(p = 0{,}5\). Ce n’est pas un événement rare. Maintenant imaginons 1 000 000 de naissances, et que la probabilité d’avoir des triplés soit \(p = 0{,}0001\). Là, \(n\) est immense, \(p\) est minuscule, mais \(np = 100\) est un nombre raisonnable. C’est exactement le contexte dans lequel la loi de Poisson excelle.
Le diagramme en bâtons d’une loi de Poisson présente les caractéristiques suivantes selon la valeur de \(\lambda\) :
- Pour un \(\lambda\) petit (ex. \(\lambda = 1\)), la distribution est fortement asymétrique à droite : la valeur \(k = 0\) a la probabilité la plus élevée.
- Pour un \(\lambda\) moyen (ex. \(\lambda = 3\) ou \(4\)), le mode se déplace vers la droite et la distribution commence à se symétriser.
- Pour un grand \(\lambda\) (ex. \(\lambda \geq 15\)), le diagramme en bâtons ressemble de plus en plus à une cloche, signature de la loi normale.
Approximation de la loi binomiale par la loi de Poisson
C’est l’un des résultats les plus importants et les plus utilisés du programme. Lorsque l’on travaille avec une loi binomiale \(\mathcal{B}(n, p)\) mais que les calculs de coefficients binomiaux deviennent impraticables (car \(n\) est très grand), on peut lui substituer une loi de Poisson.
Théorème d’approximation (Loi des événements rares)
Soit \(X \sim \mathcal{B}(n, p)\). Si les conditions suivantes sont vérifiées :
- \(n \geq 30\)
- \(p \leq 0{,}1\)
- \(np \leq 15\)
alors on peut approcher la loi de \(X\) par la loi de Poisson de paramètre \(\lambda = np\) :
X \sim \mathcal{B}(n, p) \approx \mathcal{P}(np)
\]
L’intérêt clé : on remplace une loi à deux paramètres (\(n\) et \(p\)) par une loi à un seul paramètre (\(\lambda = np\)), tout en conservant exactement la même espérance.
Justification mathématique de l’approximation
On pose \(\lambda = np\), c’est-à-dire \(p = \lambda / n\). On calcule \(P(X = k)\) pour la loi binomiale :
P(X = k) = \binom{n}{k} \left(\frac{\lambda}{n}\right)^k \left(1 – \frac{\lambda}{n}\right)^{n-k}
\]
On étudie le comportement de cette expression quand \(n \to +\infty\) avec \(\lambda\) fixé. On utilise les équivalents classiques :
\begin{align*}
\binom{n}{k} \left(\frac{\lambda}{n}\right)^k &= \frac{n!}{k!(n-k)!} \cdot \frac{\lambda^k}{n^k} \underset{n \to +\infty}{\sim} \frac{\lambda^k}{k!} \\
\left(1 – \frac{\lambda}{n}\right)^n &\underset{n \to +\infty}{\longrightarrow} e^{-\lambda} \\
\left(1 – \frac{\lambda}{n}\right)^{-k} &\underset{n \to +\infty}{\longrightarrow} 1
\end{align*}
\]
En combinant ces trois limites, on obtient bien :
P(X = k) \underset{n \to +\infty}{\longrightarrow} \frac{e^{-\lambda} \lambda^k}{k!}
\]
Erreur fréquente : Confondre l’approximation de la binomiale par Poisson avec l’approximation de Poisson par la normale. Ce sont deux approximations différentes, dans des conditions différentes. La loi normale approche la loi de Poisson uniquement pour \(\lambda \geq 15\) (certains auteurs exigent \(\lambda \geq 20\)).
Tableau récapitulatif des propriétés
| Propriété | Formule / Valeur |
|---|---|
| Loi de probabilité | \(P(X = k) = \dfrac{e^{-\lambda} \lambda^k}{k!}\), \(k \in \mathbb{N}\) |
| Paramètre | \(\lambda > 0\) (nombre moyen d’occurrences) |
| Espérance | \(E(X) = \lambda\) |
| Variance | \(V(X) = \lambda\) |
| Écart-type | \(\sigma(X) = \sqrt{\lambda}\) |
| Récurrence | \(P(X = k) = \dfrac{\lambda}{k} P(X = k-1)\) |
| Stabilité | \(\mathcal{P}(\lambda) + \mathcal{P}(\mu) = \mathcal{P}(\lambda + \mu)\) (si indépendantes) |
| Approximation par la normale | \(\mathcal{P}(\lambda) \approx \mathcal{N}(\lambda, \lambda)\) si \(\lambda \geq 15\) |
Conclusion
La loi de Poisson est un modèle probabiliste d’une puissance et d’une élégance remarquables. Avec un seul paramètre \(\lambda\), elle décrit un univers extraordinairement vaste de phénomènes réels : des événements rares dans une grande population, des flux d’arrivée dans des files d’attente, des désintégrations atomiques, des buts dans un match, ou encore la distribution de bactéries sur une boîte de Pétri. Sa définition repose sur la formule \(P(X=k) = \frac{e^{-\lambda}\lambda^k}{k!}\) ; sa propriété centrale est l’égalité entre espérance et variance, toutes deux égales à \(\lambda\).
Elle s’inscrit naturellement dans le triptyque des lois discrètes fondamentales : loi binomiale, loi de Poisson, et en limite, loi normale. Maîtriser la loi de Poisson, ses conditions d’application, et ses propriétés, c’est se donner les outils pour modéliser et comprendre l’aléatoire dans toute sa richesse.