Rédigé et vérifié par un professeur diplômé de l’École Polytechnique, avec un niveau de rigueur pensé pour le lycée et la prépa. Découvrir le professeur
Quand tu lances un dé un grand nombre de fois et calcules la moyenne des résultats, tu obtiens un nombre proche de 3,5 : c’est l’espérance du dé. Au programme de variables aléatoires, l’espérance donne la valeur moyenne théorique d’une expérience aléatoire. Elle intervient dans tous les exercices de probabilités, du bac aux concours.
Tu trouveras ici la définition formelle, les formules pour chaque loi classique, les propriétés de linéarité, une méthode de calcul en 4 étapes et 6 exercices corrigés.
📚 Tout le cours « Variables Aléatoires »
- 📖 Variable aléatoire : cours complet
- → Espérance : formule et calcul (cette page)
- → Variance : formule et calcul
- → Écart-type : formule et calcul
- → Loi binomiale
- → Loi normale
- → Table de la loi normale
- → Loi de Poisson
- → Loi uniforme
- → Loi exponentielle
- → Loi géométrique
- → Fonction de répartition et densité
- ✏️ Exercices loi binomiale
- ✏️ Exercices variables aléatoires
I. Définition de l’espérance d’une variable aléatoire
A. Définition formelle
L’espérance résume en un seul nombre « ce qu’on obtient en moyenne » lorsqu’on répète une expérience aléatoire un très grand nombre de fois.
Définition — Espérance d’une variable aléatoire discrète finie
Soit \(X\) une variable aléatoire prenant les valeurs \(x_1, x_2, \ldots, x_n\) avec les probabilités \(P(X = x_1), P(X = x_2), \ldots, P(X = x_n)\).
L’espérance mathématique de \(X\), notée \(E(X)\), est :
\(\displaystyle E(X) = \sum_{i=1}^{n} x_i \times P(X = x_i)\)
Autrement dit : on multiplie chaque valeur possible par sa probabilité, puis on additionne tous ces produits. C’est un calcul systématique que tu retrouveras dans chaque exercice.
B. Exemple fondamental — le lancer de dé
Calculons l’espérance du numéro obtenu en lançant un dé équilibré à 6 faces.
Exemple : espérance d’un dé équilibré
La variable aléatoire \(X\) prend les valeurs \(1, 2, 3, 4, 5, 6\), chacune avec la probabilité \(\displaystyle\frac{1}{6}\).
\(\displaystyle E(X) = 1 \times \displaystyle\frac{1}{6} + 2 \times \displaystyle\frac{1}{6} + 3 \times \displaystyle\frac{1}{6} + 4 \times \displaystyle\frac{1}{6} + 5 \times \displaystyle\frac{1}{6} + 6 \times \displaystyle\frac{1}{6}\)
\(\displaystyle E(X) = \displaystyle\frac{1 + 2 + 3 + 4 + 5 + 6}{6} = \displaystyle\frac{21}{6} = 3{,}5\)
L’espérance vaut \(3{,}5\). Remarque que ce n’est pas une valeur que le dé peut donner : l’espérance n’est pas forcément un résultat possible de l’expérience.
C. Comment interpréter l’espérance
Faux-ami à éviter. Le mot « espérance » ne signifie pas « ce qu’on espère obtenir » ni « le résultat le plus probable ». C’est un terme technique qui désigne la moyenne théorique de l’expérience. Pour un dé, l’espérance est \(3{,}5\) — personne n’« espère » obtenir 3,5 en lançant un dé.
Voici la façon la plus simple de comprendre l’espérance : imagine que tu répètes l’expérience un très grand nombre de fois (100 fois, 1 000 fois, 10 000 fois…) et que tu calcules la moyenne de tous les résultats obtenus. Cette moyenne va se stabiliser autour d’un nombre fixe : c’est exactement \(E(X)\).
Par exemple, si tu lances un dé 6 000 fois, tu obtiendras à peu près 1 000 fois chaque face. La moyenne de tous les résultats sera très proche de \(3{,}5\). Plus tu lances le dé, plus la moyenne se rapproche de \(E(X)\). Ce résultat fondamental s’appelle la loi des grands nombres.
En résumé : l’espérance te dit ce que tu obtiens « en moyenne sur le long terme ». Ce n’est ni le résultat le plus fréquent, ni un résultat obligatoirement réalisable — c’est la valeur vers laquelle converge la moyenne quand on multiplie les essais.
Autre conséquence importante : les valeurs les plus probables « tirent » l’espérance vers elles. Si un dé est pipé et donne beaucoup plus souvent des petits numéros, l’espérance baisse. L’espérance reflète la répartition des probabilités.
Sur le graphique ci-dessus, tu vois que pour le dé pipé (qui favorise les petites valeurs), l’espérance glisse vers la gauche : elle suit les probabilités.
D. Extension CPGE — Espérance d’une variable aléatoire continue
En classe préparatoire, tu travailles aussi avec des variables aléatoires continues, dont les valeurs forment un intervalle de \(\mathbb{R}\).
Définition — Espérance d’une VA continue (CPGE)
Soit \(X\) une variable aléatoire continue admettant une densité \(f\). L’espérance de \(X\) est :
\(\displaystyle E(X) = \int_{-\infty}^{+\infty} x \, f(x) \, \mathrm{d}x\)
à condition que cette intégrale soit absolument convergente (c’est-à-dire que \(\displaystyle\int_{-\infty}^{+\infty} |x| \, f(x) \, \mathrm{d}x\) converge).
La somme discrète \(\displaystyle\sum x_i \, P(X = x_i)\) est remplacée par une intégrale \(\displaystyle\int x \, f(x) \, \mathrm{d}x\), mais le principe reste le même : on pondère chaque valeur par sa « probabilité » (ici la densité).
Voyons maintenant les formules toutes faites pour les lois que tu rencontres le plus souvent.
II. Formules de l’espérance pour les lois classiques
Quand \(X\) suit une loi connue, inutile de refaire la somme complète : la formule de l’espérance est donnée directement en fonction des paramètres de la loi. Voici le tableau récapitulatif.
| Loi de \(X\) | Paramètres | Espérance \(E(X)\) | Niveau |
|---|---|---|---|
| Bernoulli | \(p \in [0\,;\,1]\) | \(p\) | Terminale |
| Binomiale \(\mathcal{B}(n,\,p)\) | \(n \in \mathbb{N}^*\), \(p \in [0\,;\,1]\) | \(np\) | Terminale |
| Uniforme discrète sur \(\{1,\ldots, n\}\) | \(n \in \mathbb{N}^*\) | \(\displaystyle\frac{n+1}{2}\) | CPGE |
| Normale \(\mathcal{N}(\mu,\,\sigma^2)\) | \(\mu \in \mathbb{R}\), \(\sigma\) > \(0\) | \(\mu\) | CPGE |
| Exponentielle \(\mathcal{E}(\lambda)\) | \(\lambda\) > \(0\) | \(\displaystyle\frac{1}{\lambda}\) | CPGE |
| Uniforme continue sur \([a\,;\,b]\) | \(a\) < \(b\) | \(\displaystyle\frac{a + b}{2}\) | CPGE |
| Poisson \(\mathcal{P}(\lambda)\) | \(\lambda\) > \(0\) | \(\lambda\) | CPGE |
| Géométrique \(\mathcal{G}(p)\) | \(p \in \,]0\,;\,1]\) | \(\displaystyle\frac{1}{p}\) | CPGE |
La fiche espérance à glisser dans ton classeur
Définition, tableau des lois classiques, propriétés de linéarité et méthode en 4 étapes — tout sur une page A4 recto.
Idéal pour réviser la veille du contrôle ou du bac.
Comment mémoriser. Pour la loi de Poisson, l’espérance et la variance valent toutes les deux \(\lambda\) : c’est sa signature. Pour la loi exponentielle et la loi géométrique, l’espérance est l’inverse du paramètre : \(\displaystyle\frac{1}{\lambda}\) ou \(\displaystyle\frac{1}{p}\).
A. Loi de Bernoulli et loi binomiale
Si \(X\) suit une loi de Bernoulli de paramètre \(p\) (c’est-à-dire que \(X\) vaut 1 avec probabilité \(p\) et 0 avec probabilité \(1 – p\)), la formule donne directement :
\(\displaystyle E(X) = 0 \times (1 – p) + 1 \times p = p\)Pour une loi binomiale \(\mathcal{B}(n,\,p)\), qui modélise le nombre de succès dans \(n\) épreuves indépendantes, l’espérance vaut :
Espérance de la loi binomiale
Si \(X \sim \mathcal{B}(n,\,p)\), alors \(E(X) = np\).
Exemple. Tu lances 60 fois une pièce équilibrée. Soit \(X\) le nombre de Pile. Alors \(X \sim \mathcal{B}(60\,;\,0{,}5)\) et \(E(X) = 60 \times 0{,}5 = 30\). En moyenne, tu obtiens 30 Pile sur 60 lancers.
B. Lois normale, exponentielle et uniforme (CPGE)
Pour la loi normale \(\mathcal{N}(\mu, \sigma^2)\), l’espérance est le paramètre \(\mu\) lui-même. C’est le sommet de la courbe en cloche. Pour consulter les valeurs de probabilité, tu peux utiliser la table de la loi normale centrée réduite.
Pour la loi exponentielle \(\mathcal{E}(\lambda)\), souvent utilisée pour modéliser des durées de vie ou des temps d’attente, l’espérance vaut \(\displaystyle\frac{1}{\lambda}\). Plus \(\lambda\) est grand, plus le temps moyen est court.
Pour la loi uniforme continue sur \([a\,;\,b]\), l’espérance est le milieu de l’intervalle : \(\displaystyle\frac{a + b}{2}\). C’est intuitif : toutes les valeurs sont « aussi probables », donc la moyenne tombe au milieu.
C. Lois de Poisson et géométrique (CPGE)
La loi de Poisson \(\mathcal{P}(\lambda)\) modélise un nombre d’événements rares (nombre de pannes, nombre d’appels reçus…). Son espérance vaut \(\lambda\), tout comme sa variance — c’est la propriété caractéristique de cette loi.
La loi géométrique \(\mathcal{G}(p)\) modélise le rang du premier succès dans une suite d’épreuves de Bernoulli indépendantes. Son espérance vaut \(\displaystyle\frac{1}{p}\) : si tu as une probabilité de succès de \(0{,}1\) à chaque essai, il te faut en moyenne \(10\) essais pour réussir.
Maintenant que tu connais les formules directes, voyons les propriétés qui permettent de calculer l’espérance de combinaisons de variables aléatoires.
III. Propriétés de l’espérance
A. Linéarité de l’espérance
La propriété la plus puissante de l’espérance est sa linéarité. Elle permet de calculer l’espérance d’une combinaison de variables sans connaître toute la loi du résultat.
Propriété — Linéarité de l’espérance
Pour toute variable aléatoire \(X\) et tous réels \(a\) et \(b\) :
\(E(aX + b) = a \, E(X) + b\)
Pour toutes variables aléatoires \(X\) et \(Y\) (même non indépendantes) :
\(E(X + Y) = E(X) + E(Y)\)
En combinant ces deux résultats, on obtient la forme générale : pour tous réels \(a\), \(b\), \(c\),
\(E(aX + bY + c) = a\,E(X) + b\,E(Y) + c\)Exemple. On sait que \(E(X) = 4\). Calculer \(E(3X – 7)\).
Par linéarité : \(E(3X – 7) = 3 \times E(X) – 7 = 3 \times 4 – 7 = 5\).
Cas particulier utile : l’espérance d’une constante est cette constante elle-même. Si \(c \in \mathbb{R}\), alors \(E(c) = c\). C’est le cas \(a = 0\), \(b = c\) dans la formule.
Attention, la linéarité s’applique à la somme, pas au produit. En général, \(E(X \times Y) \neq E(X) \times E(Y)\) — sauf si \(X\) et \(Y\) sont indépendantes.
B. Espérance de g(X) — formule de transfert (CPGE)
Il arrive qu’on doive calculer l’espérance non pas de \(X\) directement, mais d’une fonction de \(X\), par exemple \(X^2\). La propriété suivante évite de recalculer toute la loi de \(g(X)\).
Propriété — Formule de transfert
Soit \(X\) une variable aléatoire discrète finie prenant les valeurs \(x_1, \ldots, x_n\) et \(g\) une fonction. Alors :
\(\displaystyle E(g(X)) = \sum_{i=1}^{n} g(x_i) \times P(X = x_i)\)
Le cas le plus important est \(g(x) = x^2\). On obtient alors :
\(\displaystyle E(X^2) = \sum_{i=1}^{n} x_i^2 \times P(X = x_i)\)Ce résultat est essentiel pour calculer la variance, puisque :
\(V(X) = E(X^2) – \big[E(X)\big]^2\)et l’écart-type \(\sigma(X) = \sqrt{V(X)}\). Tu retrouveras ce calcul dans plusieurs exercices ci-dessous.
C. Démonstration de la linéarité (programme CPGE)
Programme CPGE : cette démonstration est exigible en colle et au concours. Elle repose uniquement sur la linéarité de la somme.
Démonstration. Soit \(X\) prenant les valeurs \(x_1, \ldots, x_n\). On note \(p_i = P(X = x_i)\).
\(\displaystyle E(aX + b) = \sum_{i=1}^{n} (a x_i + b) \, p_i = a \sum_{i=1}^{n} x_i \, p_i + b \sum_{i=1}^{n} p_i\)Or \(\displaystyle\sum_{i=1}^{n} x_i \, p_i = E(X)\) et \(\displaystyle\sum_{i=1}^{n} p_i = 1\) (la somme des probabilités vaut 1).
Donc \(E(aX + b) = a \, E(X) + b\). ∎
La preuve de \(E(X + Y) = E(X) + E(Y)\) utilise le même mécanisme en développant la double somme sur le couple \((X, Y)\).
Passons à la mise en pratique : voici une méthode concrète pour ne jamais te tromper dans tes calculs d’espérance.
IV. Méthode — Comment calculer une espérance pas à pas
A. Les 4 étapes
Méthode en 4 étapes pour calculer \(E(X)\)
- Identifier la variable aléatoire \(X\) et lister toutes les valeurs possibles \(x_1, \ldots, x_n\).
- Déterminer la loi de \(X\) : calculer chaque \(P(X = x_i)\) et vérifier que la somme vaut 1.
- Appliquer la formule. Si \(X\) suit une loi classique (binomiale, normale…), utiliser directement la formule du tableau. Sinon, calculer \(\displaystyle\sum x_i \times P(X = x_i)\).
- Interpréter le résultat dans le contexte : « en moyenne, le joueur gagne… », « on attend en moyenne… ».
Piège à l’étape 2 : si la somme des probabilités ne vaut pas 1, tu as oublié un cas. Vérifie systématiquement.
B. Exemples résolus
Exemple 1 ★ — Gain à une roue de loterie
Une roue de loterie donne les gains suivants :
| \(x_i\) | 0 | 2 | 5 | 20 |
|---|---|---|---|---|
| \(P(X = x_i)\) | \(0{,}50\) | \(0{,}30\) | \(0{,}15\) | \(0{,}05\) |
Étape 3 : \(E(X) = 0 \times 0{,}50 + 2 \times 0{,}30 + 5 \times 0{,}15 + 20 \times 0{,}05\)
\(E(X) = 0 + 0{,}60 + 0{,}75 + 1{,}00 = 2{,}35\)Étape 4 : en moyenne, le joueur gagne \(2{,}35\) € par tour de roue.
Exemple 2 ★★ — Un jeu est-il favorable ?
Pour jouer, tu paies 5 €. Tu lances un dé équilibré : si tu obtiens 6, tu gagnes 18 € ; si tu obtiens 4 ou 5, tu gagnes 5 € ; sinon, tu ne gagnes rien. Soit \(G\) le gain net (gain − mise).
Étape 1 : \(G\) prend les valeurs \(18 – 5 = 13\), \(5 – 5 = 0\) et \(0 – 5 = -5\).
Étape 2 :
- \(P(G = 13) = \displaystyle\frac{1}{6}\) (obtenir 6)
- \(P(G = 0) = \displaystyle\frac{2}{6} = \displaystyle\frac{1}{3}\) (obtenir 4 ou 5)
- \(P(G = -5) = \displaystyle\frac{3}{6} = \displaystyle\frac{1}{2}\) (obtenir 1, 2 ou 3)
Vérification : \(\displaystyle\frac{1}{6} + \displaystyle\frac{1}{3} + \displaystyle\frac{1}{2} = \displaystyle\frac{1 + 2 + 3}{6} = 1\). ✓
Étape 3 : \(\displaystyle E(G) = 13 \times \displaystyle\frac{1}{6} + 0 \times \displaystyle\frac{1}{3} + (-5) \times \displaystyle\frac{1}{2} = \displaystyle\frac{13}{6} – \displaystyle\frac{5}{2} = \displaystyle\frac{13}{6} – \displaystyle\frac{15}{6} = -\displaystyle\frac{2}{6} = -\displaystyle\frac{1}{3}\)
Étape 4 : \(E(G) = -\displaystyle\frac{1}{3} \approx -0{,}33\) €. Le jeu est défavorable au joueur : en moyenne, il perd environ 33 centimes par partie.
Règle d’interprétation des jeux. Un jeu est favorable si \(E(G)\) > \(0\), équitable si \(E(G) = 0\) et défavorable si \(E(G)\) < \(0\).
Tu as la méthode en main. Place à l’entraînement avec 6 exercices de difficulté croissante.
V. Exercices corrigés (de ★ à ★★★)
Les 6 exercices suivants couvrent tous les cas vus dans ce cours : calcul direct, utilisation des formules, linéarité et lien avec la variance. Essaie chaque exercice avant de consulter la correction.
Exercice 1 ★ — Calcul direct à partir d’un tableau
Un sac contient 4 boules rouges (gain 3 €), 5 boules bleues (gain 0 €) et 1 boule verte (gain −2 €). On tire une boule au hasard. Soit \(X\) le gain.
- Déterminer la loi de \(X\).
- Calculer \(E(X)\).
- Le jeu est-il favorable au joueur ?
▶ Voir la correction
1. Le sac contient \(4 + 5 + 1 = 10\) boules.
\(P(X = 3) = \displaystyle\frac{4}{10} = 0{,}4\) ; \(P(X = 0) = \displaystyle\frac{5}{10} = 0{,}5\) ; \(P(X = -2) = \displaystyle\frac{1}{10} = 0{,}1\).
2. \(E(X) = 3 \times 0{,}4 + 0 \times 0{,}5 + (-2) \times 0{,}1 = 1{,}2 + 0 – 0{,}2 = 1{,}0\).
3. \(E(X) = 1\) > \(0\) : le jeu est favorable. En moyenne, le joueur gagne 1 € par tirage.
Exercice 2 ★ — Loi binomiale et QCM
Un QCM comporte 8 questions. Chaque question a 4 choix possibles, dont un seul est correct. Un élève répond au hasard à toutes les questions. Soit \(X\) le nombre de bonnes réponses.
- Identifier la loi de \(X\) et justifier.
- Calculer \(E(X)\) et interpréter.
▶ Voir la correction
1. Chaque question est une épreuve de Bernoulli indépendante avec probabilité de succès \(p = \displaystyle\frac{1}{4} = 0{,}25\). On répète \(n = 8\) épreuves. Donc \(X \sim \mathcal{B}(8\,;\,0{,}25)\).
2. \(E(X) = np = 8 \times 0{,}25 = 2\). En répondant au hasard, l’élève obtient en moyenne 2 bonnes réponses sur 8.
Exercice 3 ★★ — Linéarité de l’espérance
On sait que \(E(X) = 5\) et \(E(Y) = 3\). Calculer :
- \(E(2X + 1)\)
- \(E(X + Y)\)
- \(E(3X – 2Y + 4)\)
▶ Voir la correction
1. \(E(2X + 1) = 2\,E(X) + 1 = 2 \times 5 + 1 = 11\).
2. \(E(X + Y) = E(X) + E(Y) = 5 + 3 = 8\).
3. \(E(3X – 2Y + 4) = 3\,E(X) – 2\,E(Y) + 4 = 15 – 6 + 4 = 13\).
Exercice 4 ★★ — Nombre de lancers pour obtenir un 6
Tu lances un dé équilibré jusqu’à obtenir un 6. Soit \(N\) le nombre de lancers nécessaires.
- Quelle loi suit \(N\) ? Préciser le paramètre.
- Calculer \(E(N)\) et interpréter.
▶ Voir la correction
1. \(N\) est le rang du premier succès (obtenir un 6) dans une suite d’épreuves de Bernoulli indépendantes de paramètre \(p = \displaystyle\frac{1}{6}\). Donc \(N\) suit une loi géométrique \(\mathcal{G}\!\left(\displaystyle\frac{1}{6}\right)\).
2. \(E(N) = \displaystyle\frac{1}{p} = \displaystyle\frac{1}{1/6} = 6\). En moyenne, il faut 6 lancers pour obtenir un 6. Ce résultat est conforme à l’intuition : le 6 apparaît « une fois sur six ».
Exercice 5 ★★★ — Type bac : loi binomiale et coût de production
Une usine produit des composants électroniques. La probabilité qu’un composant soit défectueux est \(0{,}04\). On prélève un lot de 25 composants.
- Soit \(X\) le nombre de composants défectueux. Identifier la loi de \(X\) et justifier.
- Calculer \(E(X)\) et interpréter.
- Chaque composant défectueux coûte 15 € à remplacer. Soit \(C = 15X\) le coût total de remplacement. Calculer \(E(C)\).
▶ Voir la correction
1. Les composants sont testés indépendamment, chacun avec probabilité \(p = 0{,}04\) d’être défectueux. \(X\) compte le nombre de « succès » (défauts) sur \(n = 25\) épreuves. Donc \(X \sim \mathcal{B}(25\,;\,0{,}04)\).
2. \(E(X) = np = 25 \times 0{,}04 = 1\). En moyenne, on s’attend à 1 composant défectueux par lot de 25.
3. Par linéarité : \(E(C) = E(15X) = 15\,E(X) = 15 \times 1 = 15\) €. Le coût moyen de remplacement est de 15 € par lot.
Exercice 6 ★★★ — Calcul de E(X²) et lien avec la variance
Soit \(X\) une variable aléatoire dont la loi est :
| \(x_i\) | \(-1\) | \(0\) | \(2\) |
|---|---|---|---|
| \(P(X = x_i)\) | \(\displaystyle\frac{1}{4}\) | \(\displaystyle\frac{1}{2}\) | \(\displaystyle\frac{1}{4}\) |
- Calculer \(E(X)\).
- Calculer \(E(X^2)\) à l’aide de la formule de transfert.
- En déduire \(V(X) = E(X^2) – \big[E(X)\big]^2\).
▶ Voir la correction
1. \(\displaystyle E(X) = (-1) \times \displaystyle\frac{1}{4} + 0 \times \displaystyle\frac{1}{2} + 2 \times \displaystyle\frac{1}{4} = -\displaystyle\frac{1}{4} + 0 + \displaystyle\frac{2}{4} = \displaystyle\frac{1}{4}\).
2. On applique la formule de transfert avec \(g(x) = x^2\) :
\(\displaystyle E(X^2) = (-1)^2 \times \displaystyle\frac{1}{4} + 0^2 \times \displaystyle\frac{1}{2} + 2^2 \times \displaystyle\frac{1}{4} = \displaystyle\frac{1}{4} + 0 + \displaystyle\frac{4}{4} = \displaystyle\frac{5}{4}\).
3. \(\displaystyle V(X) = E(X^2) – \big[E(X)\big]^2 = \displaystyle\frac{5}{4} – \left(\displaystyle\frac{1}{4}\right)^2 = \displaystyle\frac{5}{4} – \displaystyle\frac{1}{16} = \displaystyle\frac{20}{16} – \displaystyle\frac{1}{16} = \displaystyle\frac{19}{16}\).
Pour approfondir le calcul de la variance, consulte le cours sur la variance.
Tu veux t’entraîner davantage ? Découvre nos exercices corrigés sur les variables aléatoires et nos exercices dédiés à la loi binomiale.
VI. Erreurs fréquentes et pièges classiques
Voici les trois erreurs que je corrige le plus souvent chez mes élèves. Vérifie que tu ne les commets pas.
Piège n°1 — Calculer la moyenne simple au lieu de la moyenne pondérée
❌ Copie fautive : « \(X\) prend les valeurs 1 et 100, donc \(E(X) = \displaystyle\frac{1 + 100}{2} = 50{,}5\). »
❌ Diagnostic : l’élève fait la moyenne arithmétique des valeurs comme si elles étaient toutes équiprobables. Mais si \(P(X = 1) = 0{,}99\) et \(P(X = 100) = 0{,}01\), la valeur 1 pèse 99 fois plus que la valeur 100.
✅ Correction : \(E(X) = 1 \times 0{,}99 + 100 \times 0{,}01 = 0{,}99 + 1{,}00 = 1{,}99\).
La bonne moyenne est presque 1, pas 50 ! Toujours pondérer par les probabilités.
Piège n°2 — Confondre E(X²) et [E(X)]²
❌ Copie fautive : « On a \(E(X) = 2\), donc \(E(X^2) = 4\). »
❌ Diagnostic : l’élève applique la règle « l’espérance passe à travers le carré ». C’est faux : \(E(X^2) \neq \big[E(X)\big]^2\) en général. L’égalité n’a lieu que si \(V(X) = 0\) (c’est-à-dire si \(X\) est constante).
✅ Correction : il faut calculer \(E(X^2)\) avec la formule de transfert : \(\displaystyle E(X^2) = \sum x_i^2 \, P(X = x_i)\).
Piège n°3 — Écrire E(XY) = E(X) × E(Y) sans vérifier l’indépendance
❌ Copie fautive : « Donc \(E(XY) = E(X) \times E(Y) = 3 \times 4 = 12\). »
❌ Diagnostic : la formule \(E(XY) = E(X) \times E(Y)\) n’est valable que si \(X\) et \(Y\) sont indépendantes. Si elles sont liées (par exemple \(Y = X\)), le résultat est faux.
✅ Correction : toujours vérifier (ou mentionner) l’indépendance avant d’utiliser cette formule. Si les variables ne sont pas indépendantes, revenir à la définition.
Si tu évites ces trois pièges, tu élimineras la grande majorité des erreurs de calcul d’espérance. Passons aux questions les plus fréquentes.
VII. Questions fréquentes sur l’espérance
Qu'est-ce que l'espérance en maths ?
L’espérance d’une variable aléatoire \(X\) est la valeur moyenne théorique de \(X\) lorsqu’on répète l’expérience un très grand nombre de fois. On la calcule par la formule \(\displaystyle E(X) = \sum x_i \times P(X = x_i)\). Elle se note \(E(X)\) et s’exprime dans la même unité que \(X\).
Comment calculer l'espérance d'une variable aléatoire ?
- Identifier les valeurs prises par \(X\).
- Déterminer la loi de probabilité (chaque \(P(X = x_i)\)).
- Si \(X\) suit une loi connue (binomiale, normale…), appliquer directement la formule du tableau (par exemple \(E(X) = np\) pour la binomiale). Sinon, calculer la somme \(\displaystyle\sum x_i \times P(X = x_i)\).
- Interpréter dans le contexte.
Quelle est la différence entre espérance et moyenne ?
La moyenne (ou moyenne arithmétique) est calculée sur un échantillon de données observées : on additionne les valeurs et on divise par l’effectif total. L’espérance est un calcul théorique sur une variable aléatoire : on pondère chaque valeur par sa probabilité. La loi des grands nombres garantit que la moyenne observée se rapproche de l’espérance quand le nombre d’observations devient grand.
L'espérance peut-elle être négative ?
Oui. Si \(X\) prend des valeurs négatives avec des probabilités suffisamment grandes, \(E(X)\) peut être négatif. Par exemple, dans un jeu défavorable, l’espérance du gain est négative : cela signifie que le joueur perd de l’argent en moyenne.
Quelle est la différence entre espérance et variance ?
L’espérance \(E(X)\) indique où se situe la distribution en moyenne (position centrale). La variance \(V(X)\) mesure à quel point les valeurs sont dispersées autour de cette moyenne. Deux variables peuvent avoir la même espérance mais des variances très différentes : l’une concentrée autour de la moyenne, l’autre très étalée.
L'espérance est-elle toujours une valeur que X peut prendre ?
Non. L’espérance d’un dé équilibré est \(3{,}5\), alors qu’un dé ne peut donner que 1, 2, 3, 4, 5 ou 6. L’espérance est une moyenne théorique, pas nécessairement un résultat réalisable.
Comment savoir si un jeu de hasard est favorable ?
Calcule l’espérance du gain net \(G\) (gain moins mise). Si \(E(G)\) > \(0\), le jeu est favorable au joueur ; si \(E(G)\) < \(0\), il est défavorable ; si \(E(G) = 0\), il est équitable. Dans les casinos, tous les jeux ont une espérance de gain strictement négative pour le joueur.
VIII. Pour aller plus loin
Tu maîtrises maintenant le calcul de l’espérance. Pour compléter le triptyque E(X) / V(X) / σ(X), poursuis avec :
- Variance : formule, calcul et propriétés — la dispersion autour de l’espérance
- Écart-type : formule et interprétation — la racine carrée de la variance
Pour approfondir les lois utilisées dans ce cours :
- Loi binomiale : cours complet
- Loi normale : cours et propriétés
- Loi exponentielle : cours et propriétés
- Loi uniforme : discrète et continue
- Loi de Poisson : cours et propriétés (CPGE)
- Loi géométrique : cours et propriétés (CPGE)
Pour t’entraîner :
Et pour une vue d’ensemble de tout le chapitre, reviens au cours complet sur les variables aléatoires.