La formule de Bayes (ou théorème de Bayes) sert à calculer une probabilité “à l’envers” : au lieu de connaître \(P(E\mid H)\) (probabilité d’observer un indice \(E\) si l’hypothèse \(H\) est vraie), on veut souvent connaître \(P(H\mid E)\) (probabilité que \(H\) soit vraie quand on a observé \(E\)).
Typiquement : un test est positif (indice \(E\)), quelle est la probabilité d’être réellement malade (hypothèse \(H\)) ? Ou bien : une pièce est truquée (hypothèse), quelle est la probabilité d’obtenir trois piles (indice) ?
Pour bien réviser le chapitre :
Comprendre l’idée de Bayes : “inverser” une conditionnelle
Ce qu’on cherche vs ce qu’on connaît (le nœud de Bayes)
La difficulté principale est de ne pas confondre :
- \(P(E\mid H)\) : “si \(H\) est vraie, quelle est la probabilité d’observer \(E\) ?”
- \(P(H\mid E)\) : “si j’ai observé \(E\), quelle est la probabilité que \(H\) soit vraie ?”
Dans la vie réelle (tests, diagnostics, contrôle qualité, filtres…), on connaît souvent \(P(E\mid H)\) et on veut \(P(H\mid E)\). C’est exactement le rôle de Bayes.
Piège classique : \(P(E\mid H)\) et \(P(H\mid E)\) n’ont aucune raison d’être proches. Un test “très fiable” peut conduire à une probabilité finale modérée si l’hypothèse est très rare.
Pourquoi on se trompe souvent (intuition vs calcul)
Notre intuition surestime fréquemment l’effet d’un indice \(E\) et oublie une information cruciale : la fréquence de base, c’est-à-dire la probabilité a priori de \(H\) (souvent appelée prévalence dans les exemples médicaux).
À retenir : Bayes met ensemble trois ingrédients :
- a priori : \(P(H)\)
- vraisemblance : \(P(E\mid H)\)
- a posteriori : \(P(H\mid E)\)
Prérequis indispensables (rappel très court, avec liens)
Rappel : probabilité conditionnelle (définition + 1 ligne de formule)
Si \(P(B)\) > \(0\), la probabilité conditionnelle de \(A\) sachant \(B\) est :
\(P(A\mid B)=\frac{P(A\cap B)}{P(B)}\)
Pour un cours complet et des exemples guidés, voir : probabilité conditionnelle.
Rappel : probabilité totale (pour calculer le “dénominateur”)
Si \((H_1,\dots,H_n)\) est une partition (événements incompatibles dont la réunion vaut \(\Omega\)), alors :
\(P(E)=\sum_{i=1}^{n} P(E\mid H_i)\,P(H_i)\)
Cette formule est le passage obligé pour calculer \(P(E)\) dans Bayes. Rappel et autres formules : formules de probabilités.
Notations propres (univers, événements, partition)
- \(\Omega\) : l’univers (tous les résultats possibles).
- \(A\), \(B\), \(E\), \(H\) : événements.
- \(A^c\) : complémentaire de \(A\).
- \((H_1,\dots,H_n)\) est une partition si pour \(i\neq j\), \(H_i\cap H_j=\varnothing\) et \(\bigcup_{i=1}^{n} H_i=\Omega\).
Formule (théorème) de Bayes : énoncé et lecture “a priori → a posteriori”
Énoncé simple à 2 événements (forme standard)
Si \(P(B)\) > \(0\), alors :
\(P(A\mid B)=\frac{P(B\mid A)\,P(A)}{P(B)}\)
Lecture : on part de l’a priori \(P(A)\), on le “pondère” par la vraisemblance \(P(B\mid A)\), puis on normalise par \(P(B)\).
Énoncé avec partition (forme générale utile en prépa)
Si \((H_1,\dots,H_n)\) est une partition et \(P(E)\) > \(0\), alors pour tout \(k\) :
\(P(H_k\mid E)=\frac{P(E\mid H_k)\,P(H_k)}{\sum_{i=1}^{n} P(E\mid H_i)\,P(H_i)}\)
Méthode standard : la checklist pour appliquer Bayes sans se tromper
Étape 1 — Définir clairement H (hypothèse) et E (indice/évidence)
Écris une phrase claire du type : “Je cherche \(P(H\mid E)\)”.
Étape 2 — Calculer P(E) (souvent via probabilité totale)
Très souvent, \(P(E)\) se calcule avec une partition : \(P(E)=\sum_i P(E\mid H_i)P(H_i)\).
Étape 3 — Appliquer Bayes et conclure proprement
Pose la formule, puis remplace par les valeurs. Termine par une phrase : “Donc \(P(H\mid E)\) vaut …”.
Étape 4 — Vérification rapide (ordre de grandeur, cohérence)
Demande-toi : si \(H\) est très rare (petit \(P(H)\)), est-il logique que \(P(H\mid E)\) soit énorme ? Souvent non, sauf si \(P(E\mid H)\) est extrêmement fort et \(P(E\mid H^c)\) très faible.
Checklist Bayes (à recopier en contrôle/DS) :
- Je définis clairement \(H\) et \(E\).
- Je calcule \(P(E)\) (souvent par totale).
- J’applique \(P(H\mid E)=\frac{P(E\mid H)P(H)}{P(E)}\).
- Je vérifie que le résultat est cohérent (rareté, faux positifs, etc.).
Bayes avec un arbre de probabilités : “lecture inverse” d’un même modèle
Un arbre pondéré modélise naturellement une partition : on commence par “quel cas est réalisé ?”, puis on décrit ce qu’on observe.
Le point important : Bayes revient à “remonter l’arbre”. Autrement dit, on calcule un chemin \(\mathbb{P}(A\cap B)\), puis on divise par la probabilité totale d’arriver à B.
Si tu veux (re)voir comment construire et lire proprement un arbre : arbre de probabilité.
Mini-guide de lecture
- Un chemin “A puis B” donne \(\mathbb{P}(A)\mathbb{P}(B\mid A)\).
- La probabilité d’observer B au total est la somme des chemins qui mènent à B.
- Donc \(\mathbb{P}(A\mid B)=\frac{\mathbb{P}(A)\mathbb{P}(B\mid A)}{\mathbb{P}(B)}\).
Exemple complet 1 : test médical, faux positifs et prévalence
On garde un exemple médical car il illustre parfaitement l’erreur d’intuition “faux positifs / prévalence” (base rate).
Énoncé (modèle)
- \(M\) : “la personne est malade”. Prévalence : \(\mathbb{P}(M)=0{,}01\).
- \(T\) : “test positif”. Sensibilité : \(\mathbb{P}(T\mid M)=0{,}99\).
- Faux positifs : \(\mathbb{P}(T\mid \overline{M})=0{,}05\).
Question : calculer \(\mathbb{P}(M\mid T)\).
Solution pas à pas
1) Probabilité totale de T
\(\mathbb{P}(T)=\mathbb{P}(T\mid M)\mathbb{P}(M)+\mathbb{P}(T\mid \overline{M})\mathbb{P}(\overline{M})\).
Ici \(\mathbb{P}(\overline{M})=1-0{,}01=0{,}99\), donc
\(\mathbb{P}(T)=0{,}99\times 0{,}01 + 0{,}05\times 0{,}99 = 0{,}0099+0{,}0495=0{,}0594\).
2) Bayes
\(\mathbb{P}(M\mid T)=\frac{\mathbb{P}(T\mid M)\mathbb{P}(M)}{\mathbb{P}(T)}=\frac{0{,}99\times 0{,}01}{0{,}0594}\).
\(\mathbb{P}(M\mid T)\approx 0{,}1667\), soit environ 16,7%.
Interprétation (à retenir)
Même avec un “bon” test, si la maladie est rare (prévalence faible), un test positif ne signifie pas automatiquement “malade”. La fréquence de base pèse lourd dans le calcul.
Exemple complet 2 : un autre contexte (pas médical) pour généraliser
Énoncé + choix des événements
Une usine possède trois machines :
- \(A\) fabrique \(50\%\) des pièces et produit \(2\%\) de pièces défectueuses ;
- \(B\) fabrique \(30\%\) des pièces et produit \(3\%\) de pièces défectueuses ;
- \(C\) fabrique \(20\%\) des pièces et produit \(5\%\) de pièces défectueuses.
On note :
- \(H_C\) : “la pièce vient de la machine \(C\)”,
- \(D\) : “la pièce est défectueuse”.
On cherche \(P(H_C\mid D)\).
Solution guidée (mêmes 4 étapes que la checklist)
1) A priori : \(P(H_A)=0{,}5\), \(P(H_B)=0{,}3\), \(P(H_C)=0{,}2\).
2) Vraisemblances : \(P(D\mid H_A)=0{,}02\), \(P(D\mid H_B)=0{,}03\), \(P(D\mid H_C)=0{,}05\).
3) Calcul de \(P(D)\) (totale) :
\(P(D)=0{,}02\times 0{,}5 + 0{,}03\times 0{,}3 + 0{,}05\times 0{,}2\)
\(P(D)=0{,}01+0{,}009+0{,}01=0{,}029\)
4) Bayes :
\(P(H_C\mid D)=\frac{P(D\mid H_C)P(H_C)}{P(D)}=\frac{0{,}05\times 0{,}2}{0{,}029}=\frac{0{,}01}{0{,}029}\approx 0{,}345\)
Conclusion : bien que \(C\) ne produise que \(20\%\) des pièces, une pièce défectueuse a environ \(34{,}5\%\) de chances de venir de \(C\), car son taux de défaut est plus élevé.
Exercices corrigés (progressifs) sur la formule de Bayes
Les énoncés sont visibles, et chaque correction est repliable (accordéon). Prends l’habitude d’appliquer la checklist plus haut.
Niveau 1 — Reconnaître Bayes et écrire la bonne formule
Exercice 1. Dans un lycée, 40% des élèves suivent l’option A. Parmi eux, 70% valident l’examen. Dans l’option B (60% des élèves), 50% valident l’examen. On choisit un élève au hasard et on sait qu’il a validé. Quelle est la probabilité qu’il soit en option A ?
Correction de l’exercice 1
Posons \(A\) : “l’élève est en option A” et \(V\) : “il valide”. On cherche \(\mathbb{P}(A\mid V)\).
Données : \(\mathbb{P}(A)=0{,}4\), \(\mathbb{P}(V\mid A)=0{,}7\), \(\mathbb{P}(V\mid \overline{A})=0{,}5\) et \(\mathbb{P}(\overline{A})=0{,}6\).
Probabilité totale : \(\mathbb{P}(V)=0{,}7\times 0{,}4 + 0{,}5\times 0{,}6 = 0{,}28+0{,}30=0{,}58\).
Bayes : \(\mathbb{P}(A\mid V)=\frac{\mathbb{P}(V\mid A)\mathbb{P}(A)}{\mathbb{P}(V)}=\frac{0{,}7\times 0{,}4}{0{,}58}=\frac{0{,}28}{0{,}58}\approx 0{,}483\).
Conclusion : environ 48,3%.
Exercice 2. Un test a une sensibilité de 95% et un taux de faux positifs de 2%. La maladie touche 0,5% de la population. On obtient un test positif. Estimer la probabilité d’être malade.
Correction de l’exercice 2
Posons \(M\) : “malade”, \(T\) : “test positif”. Données : \(\mathbb{P}(M)=0{,}005\), \(\mathbb{P}(T\mid M)=0{,}95\), \(\mathbb{P}(T\mid \overline{M})=0{,}02\).
Probabilité totale :
\(\mathbb{P}(T)=0{,}95\times 0{,}005 + 0{,}02\times 0{,}995 = 0{,}00475+0{,}0199=0{,}02465\).
Bayes :
\(\mathbb{P}(M\mid T)=\frac{0{,}95\times 0{,}005}{0{,}02465}=\frac{0{,}00475}{0{,}02465}\approx 0{,}193\).
Conclusion : environ 19,3%.
Niveau 2 — Calculs complets avec partition (plusieurs hypothèses)
Exercice 3. Une usine a trois machines \(M_1,M_2,M_3\) qui produisent respectivement 20%, 50% et 30% des pièces. Les taux de défaut sont 1%, 2% et 4%. On prélève une pièce au hasard et on constate qu’elle est défectueuse. Quelle est la probabilité qu’elle provienne de \(M_3\) ?
Correction de l’exercice 3
Posons \(D\) : “défectueuse”. On a une partition \((M_1,M_2,M_3)\). Données : \(\mathbb{P}(M_1)=0{,}2\), \(\mathbb{P}(M_2)=0{,}5\), \(\mathbb{P}(M_3)=0{,}3\), et \(\mathbb{P}(D\mid M_1)=0{,}01\), \(\mathbb{P}(D\mid M_2)=0{,}02\), \(\mathbb{P}(D\mid M_3)=0{,}04\).
Probabilité totale :
\(\mathbb{P}(D)=0{,}01\times 0{,}2 + 0{,}02\times 0{,}5 + 0{,}04\times 0{,}3 = 0{,}002+0{,}01+0{,}012=0{,}024\).
Bayes (formule partition) :
\(\mathbb{P}(M_3\mid D)=\frac{\mathbb{P}(D\mid M_3)\mathbb{P}(M_3)}{\mathbb{P}(D)}=\frac{0{,}04\times 0{,}3}{0{,}024}=\frac{0{,}012}{0{,}024}=0{,}5\).
Conclusion : 50%.
Exercice 4. On choisit une boîte \(B_1\) avec probabilité 0,3 ou \(B_2\) avec probabilité 0,7. Dans \(B_1\), 60% des billes sont rouges ; dans \(B_2\), 20% sont rouges. On tire une bille rouge. Quelle est la probabilité que la boîte choisie soit \(B_1\) ?
Correction de l’exercice 4
Posons \(B_1\) : “boîte 1”, \(R\) : “rouge”. Données : \(\mathbb{P}(B_1)=0{,}3\), \(\mathbb{P}(B_2)=0{,}7\), \(\mathbb{P}(R\mid B_1)=0{,}6\), \(\mathbb{P}(R\mid B_2)=0{,}2\).
Probabilité totale :
\(\mathbb{P}(R)=0{,}6\times 0{,}3 + 0{,}2\times 0{,}7 = 0{,}18+0{,}14=0{,}32\).
Bayes :
\(\mathbb{P}(B_1\mid R)=\frac{0{,}6\times 0{,}3}{0{,}32}=\frac{0{,}18}{0{,}32}=\frac{9}{16}=0{,}5625\).
Conclusion : 56,25%.
Niveau 3 — “Début prépa” : rédaction et propriété utile
Exercice 5. Soit \((A_1,\dots,A_n)\) une partition de l’univers et \(\mathbb{P}(B)\neq 0\). Montrer que \(\sum_{i=1}^n \mathbb{P}(A_i\mid B)=1\).
Correction de l’exercice 5
Pour tout i, par Bayes (forme partition) :
\(\mathbb{P}(A_i\mid B)=\frac{\mathbb{P}(B\mid A_i)\mathbb{P}(A_i)}{\sum_{j=1}^n \mathbb{P}(B\mid A_j)\mathbb{P}(A_j)}\).
En sommant sur i :
\(\sum_{i=1}^n \mathbb{P}(A_i\mid B)=\frac{\sum_{i=1}^n \mathbb{P}(B\mid A_i)\mathbb{P}(A_i)}{\sum_{j=1}^n \mathbb{P}(B\mid A_j)\mathbb{P}(A_j)}=1\).
Interprétation : conditionnellement à B, les événements \(A_i\) restent une partition (ils couvrent tous les cas possibles “sachant B”).
Erreurs classiques (et comment les éviter à coup sûr)
Erreur 1 : inverser sans recalculer \(\mathbb{P}(B)\)
Dans Bayes, le dénominateur \(\mathbb{P}(B)\) n’est presque jamais donné directement. Il faut le calculer, souvent via une partition (probabilité totale).
Erreur 2 : oublier l’a priori (prévalence, proportions, fréquences)
Si A est rare, \(\mathbb{P}(A\mid B)\) peut rester modérée même si \(\mathbb{P}(B\mid A)\) est grande. C’est exactement ce que montre l’exemple des faux positifs.
Erreur 3 : rédaction floue (événements mal définis)
Avant de calculer, écris noir sur blanc ce que signifie A, ce que signifie B, et ce que tu cherches. Une notation propre évite 80% des erreurs.
Pour aller plus loin (début prépa) : partition générale et “odds” (bonus)
Cas général : \(H_1,\dots,H_n\) hypothèses
Dans les exercices plus exigeants, on manipule une partition \((H_1,\dots,H_n)\) (hypothèses), et un indice B. La formule utile est :
\(\mathbb{P}(H_i\mid B)=\frac{\mathbb{P}(B\mid H_i)\mathbb{P}(H_i)}{\sum_{j=1}^n \mathbb{P}(B\mid H_j)\mathbb{P}(H_j)}\).
Ce cadre recouvre test médical, urnes, contrôle qualité, filtrage, etc.
Pour aller plus loin (début prépa) : partition générale, rédaction, “odds” en bonus
Cas général : plusieurs hypothèses H1, …, Hn
En prépa, on formalise souvent avec une partition \((H_1,\dots,H_n)\). La formule à connaître (et à savoir justifier) est :
\(P(H_k\mid E)=\frac{P(E\mid H_k)P(H_k)}{\sum_{i=1}^{n}P(E\mid H_i)P(H_i)}\)
Rédaction attendue en prépa (phrases-types + notations)
Rédaction type (très propre) :
- “On note \(H_k\) l’hypothèse … et \(E\) l’événement …”
- “\((H_1,\dots,H_n)\) forme une partition de \(\Omega\).”
- “Par la formule des probabilités totales, \(P(E)=\sum_i P(E\mid H_i)P(H_i)\).”
- “Par Bayes, \(P(H_k\mid E)=\frac{P(E\mid H_k)P(H_k)}{P(E)}\).”
- “Conclusion : …”
Bonus : odds / likelihood ratio (facultatif)
Sans entrer trop loin, une idée intéressante est de comparer les “cotes” (odds) de \(H\) avant et après observation. Bayes “multiplie” en quelque sorte l’a priori par un facteur lié au rapport de vraisemblances. C’est un bonus utile pour la culture (et pour comprendre pourquoi Bayes peut changer fortement une probabilité… ou presque pas).
FAQ (questions fréquentes)
Comment savoir qu’il faut utiliser la formule de Bayes ?
Quand on te donne des probabilités du type \(P(E\mid H)\) (indice sachant hypothèse) mais qu’on te demande \(P(H\mid E)\) (hypothèse sachant indice), c’est Bayes. Souvent, on parle de “test”, “diagnostic”, “détection”, “filtre”, ou “probabilité que la cause soit … sachant que l’effet est …”.
Peut-on faire Bayes sans arbre ?
Oui : tu appliques directement \(P(H\mid E)=\frac{P(E\mid H)P(H)}{P(E)}\), en calculant \(P(E)\) par probabilité totale. L’arbre est un excellent outil pour ne pas se tromper, mais il n’est pas obligatoire.
Bayes et indépendance : quel lien ?
Bayes ne suppose pas l’indépendance. L’indépendance intervient parfois pour calculer des vraisemblances (par exemple, plusieurs tirages ou plusieurs lancers), mais la formule de Bayes elle-même reste valable dès que les probabilités conditionnelles sont bien définies.
Pourquoi faut-il presque toujours la probabilité totale ?
Parce que le dénominateur \(P(E)\) n’est pas toujours donné. Or \(P(E)\) se calcule naturellement en sommant les chemins possibles qui mènent à \(E\) : c’est exactement la probabilité totale.
Résumé express : la fiche méthode en 10 lignes
Formule de Bayes (2 événements) : si \(P(B)\) > \(0\),
\(P(A\mid B)=\frac{P(B\mid A)P(A)}{P(B)}\)
Avec une partition \((H_1,\dots,H_n)\) :
\(P(H_k\mid E)=\frac{P(E\mid H_k)P(H_k)}{\sum_{i=1}^{n}P(E\mid H_i)P(H_i)}\)
Checklist :
- Définir \(H\) (hypothèse) et \(E\) (indice).
- Calculer \(P(E)\) (souvent via totale).
- Appliquer Bayes.
- Conclure avec une phrase + vérifier la cohérence.
Pour t’entraîner : refais les exercices ci-dessus, puis navigue dans le cocon pour consolider les prérequis :
+ de 5 points de moyenne gagné par nos élèves en 3 mois de suivi.