Les probabilités sont au cœur du programme de mathématiques au lycée et en classes préparatoires. Elles permettent de modéliser l’incertitude, de prendre des décisions éclairées et d’analyser de nombreuses situations concrètes : jeux de hasard, sondages, fiabilité d’un test médical, gestion des risques…

Cette page est la page pilier : elle te donne une vue d’ensemble du chapitre (définitions, idées clés) et te renvoie vers des pages dédiées pour chaque méthode (calcul, arbre, formules, conditionnelle, totale, Bayes, exercices). Comme ça, tu trouves rapidement la bonne méthode sans tout mélanger.

L’objectif : te donner une méthode claire et rigoureuse pour réussir tes DS, examens (bac) et concours de prépa, en sachant reconnaître rapidement le type de situation, poser les bons événements et rédiger une solution propre.

Piège classique : confondre la probabilité d’un événement avec sa fréquence observée sur un petit échantillon. Une expérience répétée quelques dizaines de fois ne suffit pas toujours à refléter la « vraie » probabilité théorique.

Raccourci : si ton objectif est surtout de résoudre des exercices, commence par : Calculer une probabilité puis enchaîne avec la page Exercices corrigés.

1. Comprendre les probabilités

Définition et intuition du hasard

Les probabilités mesurent la chance qu’un ou plusieurs événements se produisent.

Elle se note sous la forme d’un nombre compris entre 0 et 1 : 0 signifie « impossible », 1 signifie « certain », et 0,5 correspond à une chance sur deux.

L’objectif des probabilités est donc de traduire le hasard en langage mathématique, pour rendre mesurable ce qui semble incertain.

Exemple intuitif

Lancer une pièce équilibrée présente deux résultats possibles : « Pile » ou « Face ».

La probabilité d’obtenir « Pile » est donc clairement de :

\(P(\text{« Pile »}) = \frac{1}{2} = 0,5\)

Expérience aléatoire et univers des possibles

Une expérience aléatoire est une expérience dont le résultat dépend du hasard et dont l’issue ne peut pas être prévue à l’avance. L’ensemble de toutes les issues possibles s’appelle l’univers, souvent noté Ω.

On parle d’univers équiprobable lorsque toutes les issues ont la même chance de se produire.

Pour calculer la probabilité d’une issue, on utilise la relation suivante :

\(P(\text{issue}) = \frac{\text{nombre d’issues favorables}}{\text{nombre total d’issues possibles}}\)

Exemples concrets : probabilité de gagner au loto, lancer d’un dé

  • Probabilités avec un dé : Si tu jettes un dé à 6 faces, chaque face a une chance égale d’apparaître, soit une probabilité de 1/6. Si tu veux obtenir un nombre pair (2, 4 ou 6), tu as donc 3 issues favorables sur 6 possibles, soit une probabilité de 3/6 = 0.5
  • Probabilité de tirer une bille dans un sac : Imagine un sac contenant 3 billes rouges et 2 billes bleues. Si tu tires une bille au hasard, la probabilité d’obtenir une bille rouge est égale au nombre de billes rouges divisé par le nombre total de billes, soit 3/5.
Probabilité de gagner au loto

Événements aléatoires : contraires, indépendants et incompatibles

Un événement est un ensemble d’issues correspondant à une situation particulière (par exemple, « obtenir un nombre pair »). Certains événements sont incompatibles (ils ne peuvent pas se produire simultanément), tandis que d’autres peuvent être indépendants (la réalisation de l’un ne modifie pas la probabilité de l’autre). Ces distinctions sont essentielles pour bien appliquer les règles de calcul.

2. Calcul des probabilités : règles et représentations

Dans cette partie, on rassemble les outils essentiels pour passer d’un énoncé à un calcul propre : complément, union/intersection, produit (indépendance / conditionnelle) et lecture rapide d’un arbre pondéré.

Méthode DS (pas à pas)
Si ton objectif est de réussir un calcul de probabilité de A à Z (modéliser Ω, choisir l’outil, enchaîner les étapes, vérifier), va directement sur : Calculer une probabilité : protocole en 5 étapes.

Ici, l’objectif est surtout de te donner une vue d’ensemble : quelle formule utiliser selon la situation, et comment éviter les confusions (“cas favorables / cas possibles”, événements incompatibles, oubli du complément, etc.).

Formule de l’union et de l’intersection

Pour deux événements \(A\) et \(B\), on évite le double comptage avec :

  • Union (A ou B) : \(P(A\cup B)=P(A)+P(B)-P(A\cap B)\)
  • Intersection :
    \(P(A\cap B)=P(A)\,P(B)\) si A et B sont indépendants.
Exemple clair

Si tu tires une carte d’un jeu de 52 cartes, quelle est la probabilité d’obtenir une carte rouge (événement A) ou un roi (événement B) ?

On applique la formule précédente en calculant chaque probabilité :

  • \(P(A) = \frac{26}{52}\) (26 cartes rouges sur 52)
  • \(P(B) = \frac{4}{52}\) (4 rois sur 52)
  • \(P(A \cap B) = \frac{2}{52}\) (2 rois rouges sur 52)

Donc :

\(P(A \cup B) = \frac{26}{52} + \frac{4}{52} – \frac{2}{52} = \frac{28}{52} = \frac{7}{13}\)

Principe de multiplication et événements indépendants

Dans une expérience à plusieurs étapes, la probabilité d’un chemin est le produit des probabilités aux étapes :
\(P(\text{chemin})=\prod \text{probabilités des branches}\).
Si les événements sont indépendants (c’est à dire si la réalisation de l’un n’influence pas la réalisation de l’autre) :
\(P(A\cap B)=P(A)\,P(B)\).

Exemple : « Pile » puis « 5 » au dé :
\(P=\frac12\times\frac16=\frac{1}{12}\).
Sans indépendance (ex. tirages sans remise) :
\(P(A\cap B)=P(A)\,P(B\mid A)\).

Probabilité du contraire et complémentarité

Le complémentaire \(\bar A\) de \(A\) vérifie :
\(P(\bar A)=1-P(A)\).
Exemple : « ne pas obtenir 6 » au dé :
\(P(\text{pas de }6)=1-\frac{1}{6}=\frac{5}{6}\).

Diagrammes en arbre : visualiser les enchaînements

Un arbre de probabilité représente les issues étape par étape.
La probabilité d’un scénario final est le produit le long du chemin, puis on additionne les chemins qui réalisent le même événement global.

Pour la méthode complète (construction + lecture + exercices corrigés) : Arbre de probabilité : construire et exploiter un arbre pondéré.

Exemple concret

On lance une pièce équilibrée (Pile ou Face), puis un dé à 6 faces.

Quelle est la probabilité d’obtenir Pile suivi du nombre 4 ?

Calcul rapide de la probabilité du chemin « Pile puis 4 » :

\(P(\text{« Pile puis 4 »}) = \frac{1}{2} \times \frac{1}{6} = \frac{1}{12}\)
Logo-excellence-maths
Besoin d'un accompagnement personnalisé ?
Nos professeurs sont tous diplômés de l'Ecole Polytechnique.

3. Probabilité conditionnelle, probabilité totale et formule de Bayes

Ces trois notions apparaissent souvent ensemble en probabilités (tirages successifs, tableaux, arbres, tests médicaux…). Sur cette page pilier, je te donne l’idée essentielle de chacune sans tout développer. Pour la méthode complète et les exercices corrigés, utilise les pages dédiées (liens ci-dessous).

1) Probabilité conditionnelle : « sachant que… »

La probabilité conditionnelle permet de calculer la probabilité qu’un événement \(A\) se produise sachant qu’un autre événement \(B\) est déjà réalisé.

\(P(A \mid B) = \frac{P(A \cap B)}{P(B)}\quad\text{avec}\quad P(B) > 0.\)

Mini-exemple :

60 % des élèves sont des filles, et 25 % des filles portent des lunettes. La probabilité qu’un élève porte des lunettes sachant que c’est une fille vaut :

\(P(\text{lunettes}\mid\text{fille}) = 0{,}25.\)

2) Probabilité totale : additionner plusieurs scénarios

Quand un événement \(A\) peut se produire via plusieurs « scénarios » (par exemple : plusieurs profils possibles, plusieurs urnes possibles, plusieurs cas dans un arbre), on calcule souvent \(P(A)\) en décomposant l’univers en cas disjoints.

À faire (méthode + exemples + exercices) : Probabilité totale.
À connaître aussi : la représentation par arbre pondéré aide énormément dans ces situations.

3) Formule de Bayes : inverser une condition

La formule de Bayes sert à « remonter de l’effet à la cause » : on veut calculer la probabilité d’une cause (maladie / pas malade, urne 1 / urne 2, etc.) sachant qu’on a observé un résultat (test positif, boule rouge, etc.). C’est typiquement le cas des problèmes de dépistage médical et de classification.

Méthode pas à pas + exercices type “test médical” : Formule de Bayes.

Interprétation et applications concrètes

La probabilité conditionnelle et le théorème de Bayes sont omniprésents : ils servent à évaluer des risques, à corriger des biais d’interprétation ou à modéliser la prise de décision.
On les retrouve dans la médecine, la finance, les jeux de hasard, mais aussi dans les algorithmes d’apprentissage automatique.

Ces notions introduisent la distinction entre les deux visions des probabilités : l’approche fréquentiste (fondée sur les fréquences observées) et l’approche bayésienne (fondée sur la mise à jour d’une croyance initiale).
Nous approfondirons cette distinction plus loin.

Logo-excellence-maths
Des cours haut de gamme pour progresser en maths
5 points de moyenne gagnés par nos coachés sur l'année 2024-2025

4. Variables aléatoires et lois de probabilité

Les variables aléatoires permettent de relier le hasard au calcul.
Elles associent à chaque issue d’une expérience aléatoire une valeur numérique, ce qui rend possible la modélisation, les calculs d’espérance ou de variance, et la description de phénomènes aléatoires complexes.

Définition d’une variable aléatoire

Une variable aléatoire (notée généralement \(X\)) est une fonction qui à chaque issue \(\omega \in \Omega\) associe un nombre réel \(X(\omega)\).
Elle permet donc de “transformer” une expérience en un nombre mesurable (score, gain, durée, etc.).

Exemple : au lancer d’un dé, la variable aléatoire \(X\) correspondant au “nombre obtenu” prend les valeurs \(1,2,3,4,5,6\).
La loi de probabilité de \(X\) est alors :
\(P(X=k)=\frac{1}{6}\) pour tout \(k \in \{1,2,3,4,5,6\}\).

Loi de probabilité : définition et propriétés

La loi de probabilité d’une variable aléatoire décrit la répartition des probabilités sur les valeurs possibles de \(X\).
Si \(X\) prend des valeurs \(x_1, x_2, \dots, x_n\), alors :

\(P(X=x_i) \ge 0\) pour tout \(i\), et \(\sum_{i=1}^{n} P(X=x_i) = 1\).

Astuce : Si la somme des probabilités n’est pas égale à 1, c’est que la loi est incomplète ou qu’un cas a été oublié.
Toujours vérifier cette condition avant de commencer un calcul d’espérance ou de variance.

Lois discrètes principales

Les lois discrètes sont celles où les variables aléatoires ne peuvent prendre qu’un nombre fini (ou dénombrable) de valeurs.
Voici les principales rencontrées au lycée et en prépa :

  • Loi uniforme discrète : toutes les valeurs sont équiprobables.
    Exemple : lancer d’un dé → \(P(X=k)=\frac{1}{6}\).
  • Loi de Bernoulli : une expérience avec seulement deux issues possibles (succès ou échec).
    On écrit \(X \sim \text{Bernoulli}(p)\), avec \(P(X=1)=p\) et \(P(X=0)=1-p\).
  • Loi binomiale : somme de \(n\) épreuves de Bernoulli indépendantes.
    \(X \sim \mathcal{B}(n,p)\) et \(P(X=k)=\frac{n!}{k!(n-k)!}\,p^{k}\,(1-p)^{n-k}\).
  • Loi de Poisson : modélise le nombre d’occurrences d’un événement rare sur une durée fixe.
    \(X \sim \mathcal{P}(\lambda)\), avec \(P(X=k)=\frac{e^{-\lambda}\lambda^k}{k!}\).

Exemple :
Si une entreprise reçoit en moyenne 3 appels par heure, la probabilité d’en recevoir exactement 5 est :

\(P(X=5)=\frac{e^{-3}\,3^5}{5!}\approx 0{,}1008.\)

Lois continues : exponentielle et loi normale (Gauss)

Une variable aléatoire continue peut prendre une infinité de valeurs dans un intervalle (non dénombrable).
Elle est décrite par une densité de probabilité \(f(x)\), telle que :
\(P(a \le X \le b) = \int_{a}^{b} f(x)\,dx\).

  • Loi exponentielle : modélise le temps d’attente avant un événement.
    \(f(x)=\lambda e^{-\lambda x}\) pour \(x \ge 0\).
    Elle vérifie la propriété de “non-mémoire”.
  • Loi normale (ou gaussienne) : omniprésente en statistiques.
    \(X \sim \mathcal{N}(\mu,\sigma^2)\) avec densité
    \(f(x)=\frac{1}{\sigma\sqrt{2\pi}} e^{-\frac{(x-\mu)^2}{2\sigma^2}}\).

Astuce visuelle :
La courbe de la loi normale est symétrique autour de \(\mu\).
Environ 68 % des valeurs se situent dans l’intervalle \([\mu – \sigma,\, \mu + \sigma]\),
95 % dans \([\mu – 2\sigma,\, \mu + 2\sigma]\).

Pour chaque loi, ses paramètres gouvernent entièrement la forme et les calculs : par exemple \((n,p)\) pour la binomiale, \((\lambda)\) pour l’exponentielle, ou \((\mu,\sigma)\) pour la loi normale.

Espérance mathématique et variance

L’espérance représente la valeur moyenne théorique attendue de la variable aléatoire après un grand nombre de répétitions.
Pour une loi discrète :
\(E(X)=\sum_i x_i\,P(X=x_i)\).

La variance mesure la dispersion autour de l’espérance :
\(V(X)=\sum_i (x_i – E(X))^2 P(X=x_i)\),
et son unité est le carré de celle de \(X\).
La racine carrée de la variance est l’écart-type \(\sigma(X)=\sqrt{V(X)}\).

Exemple :
Un jeu rapporte 10 € avec probabilité 0,2 et 2 € avec probabilité 0,8.
Alors \(E(X)=10\times0{,}2 + 2\times0{,}8 = 3{,}6\).
\(V(X)=(10-3{,}6)^2\times0{,}2 + (2-3{,}6)^2\times0{,}8 = 10{,}24\).
→ L’espérance est de 3,6 €, mais les gains varient beaucoup.

Tableau mémo des principales lois de probabilité

LoiParamètres / SupportFormule\(E(X)\)\(V(X)\)Usages
Uniforme discrèten valeurs équiprobables\(P(X=k)=\frac{1}{n}\)\(\frac{n+1}{2}\)\(\frac{n^{2}-1}{12}\)Dé équilibré, tirage équitable
Bernoulli\(p\) ; support \(\{0,1\}\)\(P(X=1)=p,\;P(X=0)=1-p\)\(p\)\(p(1-p)\)Succès/échec, indicatrice d’événement
Binomiale\(n,p\) ; \(k=0,\dots,n\)\(P(X=k)=\binom{n}{k}p^{k}(1-p)^{n-k}\)\(np\)\(np(1-p)\)Nombre de succès en \(n\) essais
Géométrique\(p\) ; \(k\ge 1\)\(P(X=k)=(1-p)^{k-1}p\)\(\frac{1}{p}\)\(\frac{1-p}{p^{2}}\)Rang du 1er succès, attente discrète
Poisson\(\lambda>0\) ; \(k\in\mathbb{N}\)\(P(X=k)=\frac{e^{-\lambda}\lambda^{k}}{k!}\)\(\lambda\)\(\lambda\)Événements rares (comptages)
Exponentielle\(\lambda>0\) ; \(x\ge 0\)\(f(x)=\lambda e^{-\lambda x}\)\(\frac{1}{\lambda}\)\(\frac{1}{\lambda^{2}}\)Temps d’attente, non-mémoire
Normale (Gauss)\(\mu,\sigma>0\) ; \(x\in\mathbb{R}\)\(f(x)=\frac{1}{\sigma\sqrt{2\pi}}\,e^{-\frac{(x-\mu)^{2}}{2\sigma^{2}}}\)\(\mu\)\(\sigma^{2}\)Sommes d’effets, approximation (TCL)

➜ Consultez les pages dédiées pour les méthodes, exemples et exercices corrigés.

5. Grands principes et théorèmes

Loi des grands nombres (LGN)

La loi des grands nombres explique pourquoi, lorsque l’on répète une même expérience aléatoire un grand nombre de fois,
la fréquence observée d’un événement se rapproche de sa probabilité vraie.

Soient \(X_1, X_2, \dots, X_n\) des variables aléatoires indépendantes et de même loi, d’espérance \(E(X_1)=\mu\).
On note la moyenne empirique \(\overline{X}_n=\frac{1}{n}\sum_{k=1}^{n} X_k\). Alors :

\(\overline{X}_n \longrightarrow \mu \quad \text{quand } n\to +\infty.\)

Intuition : si la probabilité d’obtenir “Pile” vaut 0,5, alors sur un très grand nombre de lancers,
la fréquence de “Pile” se rapprochera de \(0{,}5\). La LGN relie ainsi la théorie (probabilité) à l’observation (fréquence).

En pratique, la LGN signifie que l’écart entre la fréquence observée et la probabilité théorique diminue quand le nombre d’essais augmente.

Théorème central limite (TCL)

Le théorème central limite justifie l’omniprésence de la loi normale : la somme (ou la moyenne) d’un grand nombre de variables aléatoires indépendantes et identiquement distribuées a une distribution proche de la normale, même si chaque variable n’est pas gaussienne.

Si \(X_1,\dots,X_n\) sont i.i.d., d’espérance \(\mu\) et de variance \(\sigma^2>0\), alors :

\(\frac{\sum_{k=1}^{n} X_k – n\mu}{\sigma\sqrt{n}} \;\Longrightarrow\; \mathcal{N}(0,1)\)

où la flèche indique une convergence en loi vers la loi normale centrée réduite.
En pratique, cela permet d’approcher des distributions complexes par une normale et d’utiliser des tables gaussiennes.

Exemple d’usage : pour une loi binomiale \(\mathcal{B}(n,p)\) avec \(n\) grand,
on peut approcher \(P(X \le k)\) par la loi normale \(\mathcal{N}(np,\,np(1-p))\) (correction de continuité possible).

Axiomes de Kolmogorov et espace probabilisé

La théorie moderne des probabilités repose sur l’axiomatique de Kolmogorov.
Un espace probabilisé est un triplet \((\Omega, \mathcal{A}, P)\) où :

  • \(\Omega\) est l’univers des issues possibles ;
  • \(\mathcal{A}\) est une tribu (ensemble d’événements mesurables) ;
  • \(P\) est une mesure de probabilité sur \(\mathcal{A}\).

Les axiomes de base sont :

  • \(P(A) \ge 0\) pour tout \(A \in \mathcal{A}\) ;
  • \(P(\Omega)=1\) ;
  • (σ-additivité) si \((A_i)_{i\ge 1}\) sont deux à deux disjoints, alors
    \(P\Big(\bigcup_{i=1}^{\infty} A_i\Big)=\sum_{i=1}^{\infty} P(A_i)\).

Ces règles généralisent et sécurisent les manipulations (union, intersection, complémentaire), et structurent la définition des variables aléatoires,
de l’espérance et des convergences.

À retenir : l’axiomatique garantit la cohérence des calculs et évite les paradoxes.
Elle fournit le cadre pour passer des probabilités élémentaires aux modèles avancés.

Chaînes de Markov et martingales (aperçu Ecole)

En classes préparatoires, on rencontre des processus aléatoires dépendant du temps.
Deux objets fondamentaux : les chaînes de Markov et les martingales.

Chaînes de Markov

Un processus \((X_n)_{n\ge 0}\) est une chaîne de Markov si la loi de \(X_{n+1}\) ne dépend que de \(X_n\)
(mémoire courte). Les transitions sont décrites par une matrice stochastique \(P=(p_{ij})\), où
\(p_{ij}=P(X_{n+1}=j \mid X_n=i)\) et \(\sum_j p_{ij}=1\) pour tout \(i\).

Exemple : Modéliser une météo simplifiée « beau / pluie » avec probabilités de persistance et de changement.
La distribution à l’horizon \(n\) s’obtient en élevant la matrice de transition à la puissance \(n\).

Exploitez votre plein potentiel en mathématiques
Découvrez nos cours particuliers haut de gamme chez Excellence Maths

6. Interprétations, histoire et applications

Approches fréquentiste et bayésienne

Il existe deux grandes façons d’interpréter la probabilité.
L’approche fréquentiste définit la probabilité comme la limite d’une fréquence observée lorsque le nombre d’essais tend vers l’infini.
L’approche bayésienne la considère comme un degré de croyance mis à jour par l’information (données) via le théorème de Bayes.

Réflexe : si tu répètes souvent la même expérience, la vision fréquentiste est naturelle (fréquences → probabilités).
Si tu intègres des connaissances a priori et que tu veux les mettre à jour avec les données, la vision bayésienne est la plus adaptée.

Concepts clés : vraisemblance, valeur-p, hypothèse nulle

La vraisemblance \(L(\theta \mid \text{données})\) mesure à quel point un paramètre \(\theta\) explique les données observées.
En fréquentiste, on maximise souvent \(L\) pour estimer \(\theta\) (estimateur du maximum de vraisemblance).

Les tests d’hypothèses comparent une hypothèse nulle \(H_0\) à une hypothèse alternative \(H_1\).
La valeur-p est la probabilité, supposant \(H_0\) vraie, d’obtenir une statistique de test au moins aussi extrême que celle observée.
Petite valeur-p → données peu compatibles avec \(H_0\).

Exemple court : sous \(H_0\), la statistique suit une loi connue (ex. normale centrée réduite).
Si l’on observe une valeur très éloignée de 0, la valeur-p (aire de queue) devient petite → on remet en cause \(H_0\).

Histoire rapide : de Pascal à Kolmogorov

Les probabilités naissent au XVIIe siècle avec Fermat et Pascal (problème des partis).
Huygens formalise les premières méthodes ; la famille Bernoulli établit la loi des grands nombres.
Au XVIIIe, Laplace systématise le calcul et propose une vision a priori/a posteriori.
Au XXe, Kolmogorov fonde l’axiomatique moderne sur les espaces probabilisés, base de la théorie actuelle.

Applications : assurance, finance, statistique, physique

Les probabilités sont partout :

  • Assurance / gestion du risque : modéliser des événements rares (loi de Poisson, exponentielle), calculer une prime pure via l’espérance.
  • Finance : modéliser l’incertitude des prix, estimer des risques (volatilité), utiliser des modèles stochastiques (mouvements browniens, diffusion).
  • Statistique / data : inférence, tests, intervalles de confiance, Bayes pour la mise à jour des croyances.
  • Physique : phénomènes microscopiques, bruit de mesure, processus markoviens et thermodynamique statistique.

Mémo méthode : pour un problème appliqué :
1) identifier l’expérience et l’univers \(\Omega\) ;
2) choisir la loi de probabilité adaptée ;
3) poser les événements et les paramètres ;
4) calculer avec arbres / Bayes / combinatoire / moments ;
5) interpréter le résultat (ordre de grandeur, unité, sens).

7. Concepts mathématiques et propriétés fondamentales des probabilités

Derrière les calculs et les exemples concrets, les probabilités reposent sur des notions mathématiques précises.
Elles utilisent le langage des ensembles, des fonctions et des variables pour décrire le hasard de manière rigoureuse.
Voici un rappel des principales notions fondamentales nécessaires pour bien comprendre cette discipline.

Ensemble des possibles et notation \(\Omega\)

L’ensemble de toutes les issues d’une expérience aléatoire s’appelle univers et se note \(\Omega\).
Chaque élément \(\omega \in \Omega\) correspond à un résultat possible.
Les événements sont alors des sous-ensembles de \(\Omega\), et les lois de probabilité s’expriment comme des fonctions définies sur cet univers.

Exemple :
Pour un lancer de dé, \(\Omega={1,2,3,4,5,6}\). L’événement “obtenir un nombre pair” s’écrit \(A={2,4,6}\). Ainsi, \(P(A)=\frac{3}{6}=\frac{1}{2}\).

Propriétés fondamentales d’une fonction de probabilité

Une fonction de probabilité \(P\) est une application de \(\mathcal{A}\) (l’ensemble des événements mesurables)
vers \([0,1]\), vérifiant :

  • \(P(A)\ge 0\) pour tout événement \(A\) ;
  • \(P(\Omega)=1\) ;
  • (additivité) si \(A\cap B=\varnothing\), alors \(P(A\cup B)=P(A)+P(B)\).

Ces propriétés garantissent que la probabilité est cohérente et que toutes les combinaisons d’événements respectent une logique mathématique.

Fonctions aléatoires et applications linéaires

Une variable aléatoire est une fonction de \(\Omega\) vers \(\mathbb{R}\).
Dans les modèles probabilistes avancés, on peut définir des applications linéaires sur des espaces de variables aléatoires, comme l’espérance mathématique ou la variance :

\(E(aX+bY)=aE(X)+bE(Y)\)    
et     \(V(aX+b)=a^{2}V(X)\).

Ces propriétés linéaires font de l’espérance une application linéaire sur l’espace des variables aléatoires intégrables, ce qui permet d’étendre les calculs à des fonctions plus complexes.

Convergences et limites en probabilité

Les théorèmes majeurs des probabilités s’expriment souvent en termes de convergence de suites de variables aléatoires.
On distingue plusieurs types de convergence :

  • Convergence en probabilité : \(X_n \to X\) signifie que \(P(|X_n – X| > \varepsilon) \to 0\) pour tout \(\varepsilon>0\).
  • Convergence en loi : la loi de \(X_n\) tend vers celle de \(X\) (ex. Théorème central limite).
  • Convergence presque sûre : \(P(\lim X_n = X)=1\).

Intuition :
Les convergences traduisent le lien entre les approximations numériques (moyennes, échantillons) et la valeur théorique attendue. Elles sont essentielles pour comprendre la stabilité des phénomènes aléatoires et les fondements de la statistique.

Une discipline mathématique complète

La théorie des probabilités est aujourd’hui une branche majeure des mathématiques, à la croisée de l’analyse, de l’algèbre et des statistiques.
Elle étudie les fonctions aléatoires, les espaces probabilisés, les processus stochastiques et les applications linéaires utilisées pour modéliser des phénomènes réels : finance, physique, intelligence artificielle, fiabilité des systèmes, ou encore génétique.

8. S’entraîner en probabilités

Astuce méthode : pour chaque exercice de probabilités, commence toujours par :

  • définir clairement l’univers \(\Omega\) ;
  • nommer les événements importants (\(A\), \(B\), etc.) ;
  • représenter la situation par un tableau ou un arbre pondéré si nécessaire ;
  • écrire les probabilités en notation mathématique avant de calculer.

Mini-exercice (diagnostic)

Une urne contient 3 boules rouges, 2 boules bleues et 5 boules vertes. On tire une boule au hasard.

  1. Quelle est la probabilité d’obtenir une boule verte ?
  2. Quelle est la probabilité d’obtenir une boule rouge ou verte ?

Correction détaillée : retrouve la solution complète (et beaucoup d’autres exercices) sur la page Exercices de probabilités corrigés.

Piège à éviter : ne confonds pas \(P(A \cap B)\) (probabilité “absolue”) avec \(P(A \mid B)\) (probabilité sachant que \(B\) est réalisé).
Si tu bloques là-dessus : voir le cours sur la probabilité conditionnelle.

FAQ : questions fréquentes sur les probabilités

Quelle est la différence entre probabilité et fréquence ?

La probabilité est une valeur théorique (modèle) ; la fréquence est une mesure expérimentale. Par la loi des grands nombres, la fréquence empirique se rapproche de la probabilité vraie lorsque le nombre d’essais augmente.

Probabilité vs vraisemblance, quelle différence ?

La probabilité porte sur un événement (ex. \(P(A)\)). La vraisemblance \(L(\theta \mid \text{donn\u00e9es})\) est une fonction du paramètre \(\theta\) qui mesure à quel point le modèle explique les données ; en fréquentiste, on maximise souvent \(L\) pour estimer \(\theta\).

Que signifie la valeur-p dans un test statistique ?

C’est la probabilité d’obtenir une statistique au moins aussi extrême que celle observée si l’hypothèse nulle \(H_0\) est vraie. Une petite valeur-p indique des données peu compatibles avec \(H_0\).

Cours particuliers et accompagnement personnalisé

Les probabilités sont souvent un chapitre clé pour réussir les examens et concours, mais aussi l’un des plus abstraits.
Avec un professeur expérimenté, tu peux :

  • Revoir les bases et corriger les erreurs de raisonnement.
  • Maîtriser les formules et les schémas types d’arbre.
  • Acquérir les bons réflexes pour les problèmes de conditionnelle ou de loi binomiale.
  • Te préparer efficacement aux épreuves écrites et orales.
Logo-excellence-maths
Besoin d’un cours structuré pour reprendre les bases et progresser vite en probabilités?
Planifiez votre premier cours d'essai avec un professeur de Polytechnique.