Rédigé et vérifié par un professeur diplômé de l’École Polytechnique, avec le niveau d’exigence attendu en classe préparatoire. Découvrir le professeur
La loi de Poisson modélise le nombre d’occurrences d’un événement rare sur un intervalle fixé. Limite naturelle de la loi binomiale quand \(n\) est grand et \(p\) est petit, elle est omniprésente dans l’étude des variables aléatoires en CPGE. Tu trouveras ici la définition formelle, la fonction génératrice, les démonstrations exigibles de l’espérance et de la variance, le lien avec le processus de Poisson, et 8 exercices corrigés. Conforme au programme de mathématiques des CPGE scientifiques (MPSI, PCSI, MP, PC, PSI).
I. Définition de la loi de Poisson
A. Contexte et motivation
La loi de Poisson, introduite par le mathématicien français Siméon Denis Poisson en 1837, modélise le nombre d’occurrences d’un événement sur un intervalle de temps ou d’espace fixé, sous trois hypothèses :
- les événements se produisent indépendamment les uns des autres ;
- le taux moyen d’occurrence est constant sur l’intervalle ;
- deux événements ne peuvent pas se produire exactement au même instant.
Exemples classiques : nombre d’appels téléphoniques reçus par un standard en une heure, nombre de désintégrations d’un atome radioactif par seconde, nombre de fautes de frappe par page.
B. Définition formelle
Définition — Loi de Poisson
Soit \(\lambda\) > \(0\). Une variable aléatoire \(X\) suit la loi de Poisson de paramètre \(\lambda\), notée \(X \sim \mathcal{P}(\lambda)\), si \(X\) est à valeurs dans \(\mathbb{N}\) et :
\(\forall k \in \mathbb{N}, \quad P(X = k) = e^{-\lambda} \; \displaystyle\frac{\lambda^{k}}{k!}\)
Le réel \(\lambda\) représente le nombre moyen d’événements sur l’intervalle considéré.
Exemple. Si \(X \sim \mathcal{P}(2)\), les premières valeurs sont :
- \(P(X = 0) = e^{-2} \approx 0{,}135\)
- \(P(X = 1) = 2\,e^{-2} \approx 0{,}271\)
- \(P(X = 2) = 2\,e^{-2} \approx 0{,}271\)
- \(P(X = 3) = \displaystyle\frac{4}{3}\,e^{-2} \approx 0{,}180\)
C. C’est bien une loi de probabilité — Démonstration ⋆
Pour que \(\bigl(P(X = k)\bigr)_{k \in \mathbb{N}}\) définisse une loi de probabilité sur \(\mathbb{N}\), il faut vérifier la positivité et la somme totale égale à \(1\).
Démonstration ⋆
Positivité. Pour tout \(k \in \mathbb{N}\), on a \(e^{-\lambda}\) > \(0\) et \(\displaystyle\frac{\lambda^{k}}{k!} \geq 0\), donc \(P(X = k) \geq 0\).
Somme totale.
\(\sum_{k=0}^{+\infty} P(X = k) = e^{-\lambda} \sum_{k=0}^{+\infty} \displaystyle\frac{\lambda^{k}}{k!} = e^{-\lambda} \cdot e^{\lambda} = 1\)
La dernière égalité utilise le développement en série entière \(e^{x} = \displaystyle\sum_{k=0}^{+\infty} \displaystyle\frac{x^{k}}{k!}\) pour \(x = \lambda\), valable sur \(\mathbb{R}\) entier.
\(\Box\)
Réflexe clé. Dès que tu vois \(\displaystyle\frac{\lambda^{k}}{k!}\), pense au développement en série de \(e^{\lambda}\). C’est la pierre angulaire de presque toutes les démonstrations sur la loi de Poisson.
II. Espérance, variance et fonction génératrice
La fonction génératrice des probabilités est l’outil central pour calculer les moments de la loi de Poisson. Elle permet d’obtenir l’espérance et la variance de manière élégante et systématique.
A. Fonction génératrice des probabilités
Rappel — Fonction génératrice
Soit \(X\) une variable aléatoire à valeurs dans \(\mathbb{N}\). La fonction génératrice des probabilités de \(X\) est :
\(G_X(t) = E(t^{X}) = \sum_{k=0}^{+\infty} t^{k}\, P(X = k)\)
définie au moins pour \(t \in [-1\,;\,1]\).
Proposition — Fonction génératrice de \(\mathcal{P}(\lambda)\)
Si \(X \sim \mathcal{P}(\lambda)\), alors pour tout \(t \in \mathbb{R}\) :
\(G_X(t) = e^{\lambda(t – 1)}\)
Démonstration ⋆
Pour tout \(t \in \mathbb{R}\) :
\(G_X(t) = \sum_{k=0}^{+\infty} t^{k}\, e^{-\lambda}\, \displaystyle\frac{\lambda^{k}}{k!} = e^{-\lambda} \sum_{k=0}^{+\infty} \displaystyle\frac{(\lambda t)^{k}}{k!} = e^{-\lambda} \cdot e^{\lambda t} = e^{\lambda(t – 1)}\)
La série converge pour tout \(t \in \mathbb{R}\) car c’est la série exponentielle évaluée en \(\lambda t\).
\(\Box\)
B. Espérance — \(E(X) = \lambda\)
Théorème — Espérance de la loi de Poisson
Si \(X \sim \mathcal{P}(\lambda)\), alors :
\(E(X) = \lambda\)
Démonstration ⋆
On utilise la propriété \(E(X) = G_X^\prime(1)\). En dérivant \(G_X(t) = e^{\lambda(t-1)}\) :
\(G_X^\prime(t) = \lambda\, e^{\lambda(t-1)}\)
D’où :
\(E(X) = G_X^\prime(1) = \lambda\, e^{0} = \lambda\)
\(\Box\)
Le paramètre \(\lambda\) a donc une interprétation directe : c’est le nombre moyen d’événements sur l’intervalle considéré. Pour approfondir le concept d’espérance et ses propriétés (linéarité, transfert), consulte le cours complet sur l’espérance.
C. Variance et écart-type — \(V(X) = \lambda\)
Théorème — Variance et écart-type de la loi de Poisson
Si \(X \sim \mathcal{P}(\lambda)\), alors :
\(V(X) = \lambda \qquad \text{et} \qquad \sigma(X) = \sqrt{\lambda}\)
Démonstration ⋆
On utilise \(E\bigl(X(X-1)\bigr) = G_X^{\prime\prime}(1)\). En dérivant une seconde fois :
\(G_X^{\prime\prime}(t) = \lambda^{2}\, e^{\lambda(t-1)}\)
Donc :
\(E\bigl(X(X-1)\bigr) = G_X^{\prime\prime}(1) = \lambda^{2}\)
Or \(E\bigl(X(X-1)\bigr) = E(X^{2}) – E(X)\), d’où \(E(X^{2}) = \lambda^{2} + \lambda\). Par la formule de König-Huygens :
\(V(X) = E(X^{2}) – \bigl[E(X)\bigr]^{2} = \lambda^{2} + \lambda – \lambda^{2} = \lambda\)
\(\Box\)
Propriété remarquable : \(E(X) = V(X) = \lambda\). Cette égalité est caractéristique de la loi de Poisson. En pratique, si les données empiriques montrent une moyenne proche de la variance, c’est un indice fort en faveur d’un modèle de Poisson. Pour un rappel sur la variance et la formule de König-Huygens, consulte la page dédiée.
L’écart-type \(\sigma(X) = \sqrt{\lambda}\) mesure la dispersion autour de la moyenne. La dispersion relative \(\displaystyle\frac{\sigma(X)}{E(X)} = \displaystyle\frac{1}{\sqrt{\lambda}}\) diminue quand \(\lambda\) augmente : plus le taux est élevé, plus la loi est « concentrée » relativement à sa moyenne.
III. Propriétés fondamentales
Au-delà des moments, la loi de Poisson possède des propriétés structurelles puissantes, régulièrement mobilisées en concours.
A. Stabilité par somme de variables de Poisson indépendantes
Théorème — Stabilité par somme
Soient \(X \sim \mathcal{P}(\lambda)\) et \(Y \sim \mathcal{P}(\mu)\) deux variables aléatoires indépendantes. Alors :
\(X + Y \sim \mathcal{P}(\lambda + \mu)\)
Démonstration
Par indépendance, la fonction génératrice de \(X + Y\) est le produit des fonctions génératrices :
\(G_{X+Y}(t) = G_X(t) \cdot G_Y(t) = e^{\lambda(t-1)} \cdot e^{\mu(t-1)} = e^{(\lambda + \mu)(t-1)}\)
On reconnaît la fonction génératrice de \(\mathcal{P}(\lambda + \mu)\). Par unicité de la loi déterminée par sa fonction génératrice, \(X + Y \sim \mathcal{P}(\lambda + \mu)\).
\(\Box\)
Généralisation. Si \(X_1, \ldots, X_n\) sont des variables de Poisson indépendantes de paramètres respectifs \(\lambda_1, \ldots, \lambda_n\), alors :
\(\sum_{i=1}^{n} X_i \sim \mathcal{P}\!\left(\sum_{i=1}^{n} \lambda_i\right)\)
Attention : l’hypothèse d’indépendance est indispensable. Sans elle, la somme de deux variables de Poisson n’est pas nécessairement de Poisson.
B. Approximation poissonnienne de la loi binomiale
Ce théorème justifie l’usage de la loi de Poisson comme approximation de la loi binomiale pour les événements rares.
Théorème (Approximation de Poisson)
Soit \((X_n)\) une suite de variables aléatoires telle que \(X_n \sim \mathcal{B}(n,\, p_n)\) avec \(n\, p_n \to \lambda\) quand \(n \to +\infty\) (où \(\lambda\) > \(0\)). Alors, pour tout \(k \in \mathbb{N}\) :
\(P(X_n = k) \underset{n \to +\infty}{\longrightarrow} e^{-\lambda}\;\displaystyle\frac{\lambda^{k}}{k!}\)
Autrement dit, \(X_n\) converge en loi vers \(\mathcal{P}(\lambda)\).
Idée de la démonstration
On pose \(p_n = \displaystyle\frac{\lambda}{n}\). Alors :
\(P(X_n = k) = {n \choose k} \left(\displaystyle\frac{\lambda}{n}\right)^{\!k} \left(1 – \displaystyle\frac{\lambda}{n}\right)^{\!n-k}\)
On réécrit :
\(P(X_n = k) = \displaystyle\frac{\lambda^{k}}{k!} \cdot \underbrace{\displaystyle\frac{n(n-1)\cdots(n-k+1)}{n^{k}}}_{\to\, 1} \cdot \underbrace{\left(1 – \displaystyle\frac{\lambda}{n}\right)^{\!n}}_{\to\, e^{-\lambda}} \cdot \underbrace{\left(1 – \displaystyle\frac{\lambda}{n}\right)^{\!-k}}_{\to\, 1}\)
Les trois facteurs convergent (à \(k\) fixé quand \(n \to +\infty\)), d’où \(P(X_n = k) \to e^{-\lambda}\;\displaystyle\frac{\lambda^{k}}{k!}\).
\(\Box\)
Règle pratique. On approche \(\mathcal{B}(n, p)\) par \(\mathcal{P}(np)\) lorsque :
- \(n \geq 30\) ;
- \(p \leq 0{,}1\) ;
- \(np \leq 10\).
En concours, on applique l’approximation dès que l’énoncé précise « \(n\) grand et \(p\) petit » ou « on pourra approcher par une loi de Poisson ».
C. Lien avec le processus de Poisson et la loi exponentielle
La loi de Poisson apparaît naturellement dans l’étude des processus de Poisson, qui modélisent des arrivées aléatoires dans le temps continu.
Définition informelle — Processus de Poisson
Un processus de Poisson d’intensité \(\lambda\) > \(0\) est un processus de comptage \((N_t)_{t \geq 0}\) tel que :
- \(N_0 = 0\) ;
- les accroissements sur des intervalles disjoints sont indépendants ;
- pour tout \(t\) > \(0\), le nombre d’événements dans un intervalle de longueur \(t\) suit \(\mathcal{P}(\lambda t)\).
Le lien fondamental avec la loi exponentielle est le suivant : si les événements suivent un processus de Poisson d’intensité \(\lambda\), alors le temps entre deux événements consécutifs suit une loi exponentielle \(\mathcal{E}(\lambda)\) d’espérance \(\displaystyle\frac{1}{\lambda}\). C’est la propriété d’absence de mémoire qui relie les deux lois : le processus « repart à zéro » après chaque événement.
Programme CPGE. Le processus de Poisson et ses liens avec la loi exponentielle concernent principalement les filières MP et PC en deuxième année. En première année (MPSI/PCSI), on se limite à la loi de Poisson discrète et à l’approximation de la binomiale.
IV. Représentation graphique et fonction de répartition
A. Diagramme en bâtons
La loi de Poisson est une loi discrète à valeurs dans \(\mathbb{N}\). On la représente par un diagramme en bâtons où la hauteur de chaque bâton correspond à \(P(X = k)\).
Observations :
- Pour \(\lambda\) petit (ex. : \(\lambda = 1\)), la distribution est fortement asymétrique à droite, concentrée près de 0.
- Quand \(\lambda\) augmente, la distribution se symétrise et sa forme se rapproche d’une courbe en cloche — c’est une conséquence du théorème central limite appliqué à une somme de Poisson indépendantes.
- Le mode (valeur la plus probable) est \(\lfloor \lambda \rfloor\) si \(\lambda \notin \mathbb{N}\), et les deux valeurs \(\lambda – 1\) et \(\lambda\) sont ex-aequo si \(\lambda \in \mathbb{N}^{*}\).
B. Fonction de répartition
La fonction de répartition de \(X \sim \mathcal{P}(\lambda)\) est la fonction en escalier :
\(F(x) = P(X \leq x) = \sum_{k=0}^{\lfloor x \rfloor} e^{-\lambda}\;\displaystyle\frac{\lambda^{k}}{k!} \qquad (x \geq 0)\)
avec \(F(x) = 0\) pour \(x\) < \(0\). Cette somme n’a pas de forme close : en pratique, on l’évalue par tables numériques (qui donnent \(P(X \leq k)\) pour différents \(\lambda\)) ou par calculatrice.
V. Méthode — Reconnaître et utiliser une loi de Poisson
Savoir quand utiliser la loi de Poisson est aussi important que de savoir calculer avec. Voici un guide pratique.
A. Quand modéliser par une loi de Poisson ?
| Critère | Binomiale \(\mathcal{B}(n, p)\) | Poisson \(\mathcal{P}(\lambda)\) |
|---|---|---|
| Nombre d’épreuves | Fini et connu (\(n\) fixé) | Pas de borne supérieure naturelle |
| Support | \(\{0, 1, \ldots, n\}\) | \(\mathbb{N}\) tout entier |
| Paramètre | \(n\) et \(p\) | \(\lambda\) = nombre moyen |
| Espérance | \(np\) | \(\lambda\) |
| Variance | \(np(1 – p)\) | \(\lambda\) |
| Usage typique | Succès/échecs en \(n\) épreuves | Comptage d’événements sur un intervalle continu |
| Lien | \(\mathcal{B}(n, p) \approx \mathcal{P}(np)\) si \(n\) grand, \(p\) petit | |
Signaux caractéristiques d’un modèle de Poisson :
- On compte des événements sur un intervalle (de temps, de longueur, de surface…).
- Les événements sont indépendants et de taux moyen constant.
- L’énoncé fournit un nombre moyen d’événements (pas un nombre d’épreuves ni une probabilité).
B. Méthode de résolution en 4 étapes
- Identifier la variable \(X\) : quelle grandeur compte-t-on ? Vérifier que \(X\) est à valeurs dans \(\mathbb{N}\).
- Justifier \(X \sim \mathcal{P}(\lambda)\) : invoquer l’indépendance, le taux constant, ou l’approximation d’une binomiale. Déterminer \(\lambda\) — attention à adapter \(\lambda\) à la durée/taille de l’intervalle.
- Écrire la formule : \(P(X = k) = e^{-\lambda}\;\displaystyle\frac{\lambda^{k}}{k!}\).
- Calculer la probabilité demandée, par calcul direct ou par passage au complémentaire : \(P(X \geq k) = 1 – \displaystyle\sum_{j=0}^{k-1} P(X = j)\).
Rédaction concours. La justification du modèle (étape 2) doit être explicite : « Les événements sont indépendants, de taux constant \(\lambda = \ldots\), donc \(X \sim \mathcal{P}(\lambda)\). » Ne jamais poser \(X \sim \mathcal{P}(\lambda)\) sans justification — le correcteur le sanctionnera.
C. Exemples résolus
Exemple 1 🟢 (application directe). Un détecteur de particules enregistre en moyenne 3 impacts par seconde. On note \(X\) le nombre d’impacts en une seconde. Calculer \(P(X = 5)\).
Solution. Les impacts sont indépendants, de taux moyen constant : \(X \sim \mathcal{P}(3)\).
\(P(X = 5) = e^{-3}\;\displaystyle\frac{3^{5}}{5!} = e^{-3} \cdot \displaystyle\frac{243}{120} \approx 0{,}101\)
Exemple 2 🟡 (approximation poissonnienne). Un lot contient 500 pièces, chacune ayant une probabilité \(p = 0{,}006\) de présenter un défaut. Calculer la probabilité d’avoir au moins 2 pièces défectueuses.
Solution. On a \(X \sim \mathcal{B}(500\,;\, 0{,}006)\). Comme \(n = 500 \geq 30\), \(p = 0{,}006 \leq 0{,}1\) et \(np = 3 \leq 10\), on approche par \(X \approx \mathcal{P}(3)\).
\(P(X \geq 2) = 1 – P(X = 0) – P(X = 1) = 1 – e^{-3} – 3\,e^{-3} = 1 – 4\,e^{-3} \approx 0{,}801\)
La fiche mémo loi de Poisson — tout le cours en 1 page
Définition, formule, espérance, variance, conditions d’approximation et pièges à éviter. Format A4, prête à imprimer.
📄 Télécharger la fiche PDFIdéal pour réviser avant un DS ou un concours — 30 secondes pour retrouver l’essentiel.
VI. Exercices corrigés
Huit exercices classés par difficulté croissante, couvrant l’ensemble du cours. Essaie chaque exercice avant de consulter la correction.
Exercice 1 ★
Soit \(X \sim \mathcal{P}(2)\). Calculer \(P(X = 0)\), \(P(X = 1)\), \(P(X = 2)\) et \(P(X \geq 3)\).
Voir la correction
On applique \(P(X = k) = e^{-2}\;\displaystyle\frac{2^{k}}{k!}\) :
- \(P(X = 0) = e^{-2} \approx 0{,}135\)
- \(P(X = 1) = 2\,e^{-2} \approx 0{,}271\)
- \(P(X = 2) = \displaystyle\frac{4}{2}\,e^{-2} = 2\,e^{-2} \approx 0{,}271\)
Par passage au complémentaire :
\(P(X \geq 3) = 1 – P(X = 0) – P(X = 1) – P(X = 2) = 1 – 5\,e^{-2} \approx 0{,}323\)
Exercice 2 ★
Un central téléphonique reçoit en moyenne 4 appels par heure. On admet que le nombre d’appels \(X\) reçus en une heure suit une loi de Poisson.
- Déterminer le paramètre de la loi de \(X\).
- Calculer \(P(X = 6)\).
- Calculer \(P(X \geq 2)\).
Voir la correction
1. Le nombre moyen d’appels par heure est 4, donc \(X \sim \mathcal{P}(4)\).
2.
\(P(X = 6) = e^{-4}\;\displaystyle\frac{4^{6}}{6!} = e^{-4} \cdot \displaystyle\frac{4096}{720} \approx 0{,}104\)
3.
\(P(X \geq 2) = 1 – P(X = 0) – P(X = 1) = 1 – e^{-4} – 4\,e^{-4} = 1 – 5\,e^{-4} \approx 0{,}908\)
Exercice 3 ★★
Une usine produit 1000 composants par jour. Chaque composant a une probabilité \(p = 0{,}002\) de présenter un défaut, indépendamment des autres. On note \(X\) le nombre de composants défectueux.
- Quelle est la loi exacte de \(X\) ?
- Justifier l’utilisation d’une approximation par une loi de Poisson et préciser le paramètre.
- Calculer des valeurs approchées de \(P(X = 0)\), \(P(X = 1)\) et \(P(X \geq 3)\).
Voir la correction
1. Chaque composant est une épreuve de Bernoulli de paramètre \(0{,}002\). Les épreuves sont indépendantes, donc \(X \sim \mathcal{B}(1000\,;\, 0{,}002)\).
2. On a \(n = 1000 \geq 30\), \(p = 0{,}002 \leq 0{,}1\) et \(np = 2 \leq 10\). Les conditions de l’approximation poissonnienne sont réunies : \(X \approx \mathcal{P}(2)\).
3.
- \(P(X = 0) \approx e^{-2} \approx 0{,}135\)
- \(P(X = 1) \approx 2\,e^{-2} \approx 0{,}271\)
\(P(X \geq 3) \approx 1 – e^{-2}(1 + 2 + 2) = 1 – 5\,e^{-2} \approx 0{,}323\)
Exercice 4 ★★
Deux serveurs indépendants reçoivent respectivement \(X \sim \mathcal{P}(3)\) et \(Y \sim \mathcal{P}(5)\) requêtes par minute.
- Déterminer la loi de \(Z = X + Y\).
- Calculer \(E(Z)\) et \(V(Z)\).
- Calculer \(P(Z \leq 2)\).
Voir la correction
1. \(X\) et \(Y\) sont des Poisson indépendantes. Par stabilité : \(Z = X + Y \sim \mathcal{P}(8)\).
2. \(E(Z) = 8\) et \(V(Z) = 8\).
3.
\(P(Z \leq 2) = e^{-8}\!\left(1 + 8 + \displaystyle\frac{64}{2}\right) = 41\,e^{-8} \approx 0{,}014\)
Avec une moyenne de 8 requêtes par minute, n’en recevoir que 0, 1 ou 2 est très improbable.
Exercice 5 ★★★
Soit \(X \sim \mathcal{P}(\lambda)\). Calculer \(P(X \text{ est pair})\) en fonction de \(\lambda\).
Voir la correction
On utilise l’identité : \(\displaystyle\frac{1 + (-1)^{k}}{2}\) vaut \(1\) si \(k\) est pair, \(0\) sinon. Donc :
\(P(X \text{ pair}) = \sum_{k=0}^{+\infty} \displaystyle\frac{1 + (-1)^{k}}{2}\;P(X = k) = \displaystyle\frac{1}{2}\!\left(\sum_{k \geq 0} P(X = k) + \sum_{k \geq 0} (-1)^{k}\,P(X = k)\right)\)
La première somme vaut \(1\). La seconde est la fonction génératrice évaluée en \(t = -1\) :
\(G_X(-1) = e^{\lambda(-1-1)} = e^{-2\lambda}\)
Finalement :
\(\fbox{P(X \text{ pair}) = \displaystyle\frac{1 + e^{-2\lambda}}{2}}\)
Remarque. Quand \(\lambda \to +\infty\), \(P(X \text{ pair}) \to \displaystyle\frac{1}{2}\). C’est cohérent : pour \(\lambda\) grand, la loi de Poisson est quasi-symétrique et les valeurs paires et impaires sont équiprobables.
Exercice 6 ★★★
Des clients arrivent dans un magasin selon un processus de Poisson d’intensité \(\lambda = 6\) clients par heure.
- Calculer la probabilité qu’exactement 2 clients arrivent dans les 20 prochaines minutes.
- Déterminer la loi du temps \(T\) (en heures) entre deux arrivées consécutives et calculer \(E(T)\).
- Sachant qu’un client vient d’arriver, calculer la probabilité d’attendre plus de 15 minutes avant le prochain.
Voir la correction
1. Sur 20 minutes, soit \(\displaystyle\frac{1}{3}\) d’heure, le nombre d’arrivées suit \(\mathcal{P}\!\left(6 \times \displaystyle\frac{1}{3}\right) = \mathcal{P}(2)\).
\(P(N_{1/3} = 2) = e^{-2} \cdot \displaystyle\frac{4}{2} = 2\,e^{-2} \approx 0{,}271\)
2. Le temps entre deux arrivées d’un processus de Poisson d’intensité \(\lambda = 6\) suit une loi exponentielle \(\mathcal{E}(6)\). Son espérance est :
\(E(T) = \displaystyle\frac{1}{6}\;\text{h} = 10\;\text{min}\)
3. 15 minutes \(= \displaystyle\frac{1}{4}\) d’heure. Par la propriété d’absence de mémoire de la loi exponentielle (le temps d’attente ne dépend pas de la date du dernier événement) :
\(P\!\left(T > \displaystyle\frac{1}{4}\right) = e^{-6 \times 1/4} = e^{-3/2} \approx 0{,}223\)
Exercice 7 ★★★
On observe \(n\) réalisations indépendantes \(x_1, \ldots, x_n\) d’une variable aléatoire \(X \sim \mathcal{P}(\lambda)\) (où \(\lambda\) > \(0\) est inconnu).
- Écrire la vraisemblance \(L(\lambda)\) puis la log-vraisemblance \(\ell(\lambda)\).
- Déterminer l’estimateur du maximum de vraisemblance \(\hat{\lambda}\) de \(\lambda\).
- Vérifier que \(\hat{\lambda}\) est sans biais.
Voir la correction
1.
\(L(\lambda) = \prod_{i=1}^{n} e^{-\lambda}\;\displaystyle\frac{\lambda^{x_i}}{x_i!} = e^{-n\lambda} \cdot \displaystyle\frac{\lambda^{\,\sum x_i}}{\prod_{i=1}^{n} x_i!}\)
\(\ell(\lambda) = -n\lambda + \left(\sum_{i=1}^{n} x_i\right)\!\ln \lambda – \sum_{i=1}^{n} \ln(x_i!)\)
2. On dérive par rapport à \(\lambda\) :
\(\ell^\prime(\lambda) = -n + \displaystyle\frac{\sum x_i}{\lambda}\)
En annulant : \(\ell^\prime(\lambda) = 0 \iff \lambda = \displaystyle\frac{1}{n}\sum_{i=1}^{n} x_i = \bar{x}\).
On vérifie : \(\ell^{\prime\prime}(\lambda) = -\displaystyle\frac{\sum x_i}{\lambda^{2}}\) < \(0\) (pour \(\sum x_i\) > \(0\)), c’est bien un maximum. Donc :
\(\hat{\lambda} = \bar{X} = \displaystyle\frac{1}{n}\sum_{i=1}^{n} X_i\)
3. \(E(\hat{\lambda}) = E(\bar{X}) = E(X) = \lambda\). L’estimateur du maximum de vraisemblance est la moyenne empirique, et il est sans biais.
Exercice 8 ★★★★ (type concours)
Soient \(X \sim \mathcal{P}(\lambda)\) et \(Y \sim \mathcal{P}(\mu)\) deux variables aléatoires indépendantes. On pose \(S = X + Y\).
- Rappeler la loi de \(S\).
- Pour \(n \in \mathbb{N}\), déterminer la loi conditionnelle de \(X\) sachant \(\{S = n\}\).
- Interpréter le résultat.
Voir la correction
1. Par stabilité de la loi de Poisson, \(S \sim \mathcal{P}(\lambda + \mu)\).
2. Pour \(0 \leq k \leq n\) :
\(P(X = k \mid S = n) = \displaystyle\frac{P(X = k,\; Y = n – k)}{P(S = n)} = \displaystyle\frac{P(X = k) \cdot P(Y = n – k)}{P(S = n)}\)
En développant chaque terme :
\(= \displaystyle\frac{e^{-\lambda}\;\displaystyle\frac{\lambda^{k}}{k!} \;\cdot\; e^{-\mu}\;\displaystyle\frac{\mu^{n-k}}{(n-k)!}}{e^{-(\lambda+\mu)}\;\displaystyle\frac{(\lambda+\mu)^{n}}{n!}} = \displaystyle\frac{n!}{k!\,(n-k)!} \cdot \displaystyle\frac{\lambda^{k}\;\mu^{n-k}}{(\lambda + \mu)^{n}}\)
\(= {n \choose k}\!\left(\displaystyle\frac{\lambda}{\lambda + \mu}\right)^{\!k}\!\left(\displaystyle\frac{\mu}{\lambda + \mu}\right)^{\!n-k}\)
On reconnaît la loi binomiale :
\((X \mid S = n) \sim \mathcal{B}\!\left(n,\;\displaystyle\frac{\lambda}{\lambda + \mu}\right)\)
3. Sachant le total \(S = n\), la part revenant à chaque source est répartie binomialement. Le paramètre \(p = \displaystyle\frac{\lambda}{\lambda + \mu}\) est la proportion du taux total due à \(X\). Le conditionnement « casse » le caractère poissonien et fait réapparaître une loi binomiale — ce résultat illustre le lien profond entre les deux lois.
VII. Erreurs fréquentes et pièges classiques
Piège 1 — Oublier le facteur \(e^{-\lambda}\).
❌ Copie fautive : « \(P(X = 3) = \displaystyle\frac{\lambda^{3}}{3!}\) »
Diagnostic : sans le facteur \(e^{-\lambda}\), les probabilités somment à \(e^{\lambda}\) au lieu de \(1\). Ce n’est plus une loi de probabilité.
✅ Correction : \(P(X = 3) = e^{-\lambda}\;\displaystyle\frac{\lambda^{3}}{3!}\).
Piège 2 — Confondre \(E(X^{2})\) et \([E(X)]^{2}\).
❌ Copie fautive : « \(V(X) = E(X)^{2} = \lambda^{2}\) »
Diagnostic : la formule de König-Huygens est \(V(X) = E(X^{2}) – [E(X)]^{2}\). L’élève confond \(E(X^{2}) = \lambda^{2} + \lambda\) avec \([E(X)]^{2} = \lambda^{2}\).
✅ Correction : \(V(X) = E(X^{2}) – [E(X)]^{2} = (\lambda^{2} + \lambda) – \lambda^{2} = \lambda\).
Piège 3 — Appliquer l’approximation poissonnienne sans vérifier les conditions.
❌ Copie fautive : « \(X \sim \mathcal{B}(20\,;\, 0{,}3)\), donc \(X \approx \mathcal{P}(6)\) »
Diagnostic : ici \(n = 20\) est modéré et \(p = 0{,}3\) n’est pas petit. L’approximation poissonnienne est inadéquate (l’approximation normale serait plus pertinente).
✅ Correction : toujours vérifier \(n \geq 30\), \(p \leq 0{,}1\) et \(np \leq 10\) avant d’appliquer l’approximation.
Piège 4 — Ne pas adapter \(\lambda\) à l’intervalle considéré.
❌ Copie fautive : « Le taux est de 6 appels/heure, donc sur 20 min : \(X \sim \mathcal{P}(6)\) »
Diagnostic : le paramètre \(\lambda\) est proportionnel à la durée de l’intervalle. Sur 20 min \(= \displaystyle\frac{1}{3}\) h, le paramètre est \(6 \times \displaystyle\frac{1}{3} = 2\), pas \(6\).
✅ Correction : \(X \sim \mathcal{P}(2)\).
VIII. Questions fréquentes
Qu'est-ce que la loi de Poisson en maths ?
La loi de Poisson de paramètre \(\lambda\) est une loi de probabilité discrète sur \(\mathbb{N}\) définie par \(P(X = k) = e^{-\lambda}\;\displaystyle\frac{\lambda^{k}}{k!}\). Elle modélise le nombre d’événements rares et indépendants survenant dans un intervalle fixé de temps ou d’espace. Son espérance et sa variance sont toutes deux égales à \(\lambda\).
Quel est le symbole de la loi de Poisson ?
On note \(X \sim \mathcal{P}(\lambda)\) pour indiquer qu’une variable aléatoire \(X\) suit la loi de Poisson de paramètre \(\lambda\). La lettre calligraphique \(\mathcal{P}\) est la notation standard dans les manuels français. Certains ouvrages utilisent \(\mathrm{Poi}(\lambda)\).
Quelle est la différence entre la loi de Poisson et la loi binomiale ?
La loi binomiale \(\mathcal{B}(n, p)\) compte le nombre de succès en \(n\) épreuves indépendantes (support fini \(\{0, \ldots, n\}\)). La loi de Poisson \(\mathcal{P}(\lambda)\) compte des événements sur un intervalle continu (support \(\mathbb{N}\) entier). Quand \(n\) est grand et \(p\) petit avec \(np \to \lambda\), la binomiale converge vers la Poisson : c’est l’approximation poissonnienne.
Pourquoi l'espérance et la variance sont-elles égales pour une loi de Poisson ?
Cette propriété structurelle découle du calcul via la fonction génératrice \(G_X(t) = e^{\lambda(t-1)}\) : la dérivée première en \(1\) donne \(\lambda\) (espérance), et le calcul du moment d’ordre 2 conduit exactement à \(V(X) = \lambda\). Intuitivement, la loi de Poisson est déterminée par un unique paramètre \(\lambda\), qui contrôle à la fois la position et la dispersion.
Comment lire la table de la loi de Poisson ?
La table donne les probabilités cumulées \(P(X \leq k)\) pour différents \(\lambda\) et \(k\). Pour obtenir \(P(X = k)\), calcule \(P(X \leq k) – P(X \leq k – 1)\). Pour \(P(X \geq k)\), utilise le complémentaire : \(1 – P(X \leq k – 1)\).
IX. Pour aller plus loin
Tu maîtrises maintenant la loi de Poisson : définition, espérance, variance, stabilité par somme, approximation poissonnienne et lien avec le processus de Poisson. Pour consolider et approfondir :
- Variable aléatoire : cours complet — vue d’ensemble sur les variables aléatoires, lois classiques et formules
- Loi binomiale : cours et propriétés — pour maîtriser la loi source de l’approximation poissonnienne
- Loi exponentielle : cours et propriétés — le temps entre deux événements d’un processus de Poisson
- Loi normale : cours et propriétés — l’approximation normale de la loi de Poisson pour \(\lambda\) grand
- Exercices corrigés sur les variables aléatoires — pour t’entraîner sur l’ensemble du programme
- Loi géométrique : cours et propriétés — une autre loi discrète classique liée aux temps d’attente