Indépendance (probabilités)

Un article de Wikipédia, l'encyclopédie libre.

L'indépendance est une notion probabiliste qualifiant de manière intuitive des événements aléatoires n'ayant aucune influence l'un sur l'autre. Il s'agit d'une notion très importante en statistique et calcul de probabilités.

Par exemple, la valeur d'un premier lancer de dés n'a aucune influence sur la valeur du second lancer. De même, pour un lancer le fait d' obtenir une valeur inférieure ou égale à quatre n'influe en rien sur la probabilité que le résultat soit pair [1]: les deux événements sont dits indépendants.

L'indépendance ou non de deux évènements n'est pas toujours facile à établir.

Sommaire

[modifier] Notion d'indépendance

Deux évènements A et B sont indépendants si et seulement si la réalisation de l'un n'influe pas sur celle de l'autre. En terme mathématique, cela se traduit comme suit :

Deux évènements A et B sont indépendants si et seulement s'ils vérifient
Pr(A \cap B) = Pr(A) \cdot Pr(B)

La notion peut être étendue à n événements : n événements sont dits indépendants si et seulement si toute combinaison de ces événements en nombre quelconque est indépendante. Cette notion est plus forte que n événements indépendants deux à deux.

Il y correspond le nombre total de conditions suivant

C_{n}^{2} + C_{n}^{3} + ... + C_{n}^{n} = 2^{n} - (n+1) .

Si elles sont toutes vérifiées, on peut alors écrire

\Pr(A_1 \cap \cdots \cap A_n)=\Pr(A_1)\,\cdots\,\Pr(A_n).

[modifier] Evénements indépendants

La définition précédente fait référence aux événements indépendants. Dans ce cas, on peut également ajouter que la probabilité conditionnelle de A étant donné B est la même que la probabilité de A.

\Pr(A\mid B)=\Pr(A).\,

Il existe deux bonnes raisons de ne pas prendre ce critère comme définition de l'indépendance.

  • Les deux événements A et B n'y jouent pas un rôle symétrique (on ne peut pas intervertir A et B sans remettre en question l'égalité).
  • La probabilité conditionnelle exclut que B soit de probabilité nulle. En effet,
\Pr(A\mid B)={\Pr(A \cap B) \over \Pr(B)}, (avec Pr(B) ≠ 0 )

Naturellement, nous retrouvons notre première définition

\Pr(A \cap B)=\Pr(A)\Pr(B)

Pour terminer, ajoutons que, contrairement au sens commun, un événement peut être indépendant par rapport à lui-même, s'il possède une probabilité de 1 ou de 0, comme le montre la définition

\Pr(A) = \Pr(A \cap A) = \Pr(A)\Pr(A)\,

[modifier] Variables aléatoires indépendantes

Ce qui précède donne une définition générale de l'indépendance. Maintenant, nous allons envisager le cas des variables aléatoires.

Soit y1 et y2 deux variables aléatoires (scalaires pour la simplicité). L'indépendance peut alors se définir via les densité de probabilités.

  • Soit p(y1,y2) la fonction de densité de probabilité (fdp) conjointe de y1 et y2,
  • p1(y1) la fdp marginale de y1, c'est-à-dire
p_{1}(y_{1}) = \int p(y_{1},y_{2}) \, dy_{2}
  • et de même pour p2(y2)

Alors y1 et y2 sont indépendantes si et seulement si la ddp conjointe est factorisable comme suit

p(y1,y2) = p1(y1)p2(y2)

Cette définition s'étend naturellement pour n variables, et la densité conjointe sera alors un produit de n termes.

[modifier] Critère d'indépendance

La définition ci-avant peut être utilisée pour dériver une conséquence importante de l'indépendance.

Soit deux variables aléatoires indépendantes y1 et y2, et deux fonctions h1 et h2, on peut toujours écrire

E{h1y1h2y2} = E{h1y1}E{h2y2}.

En effet, l'indépendance permet d'effectuer les opérations suivantes

E{h1y1h2y2}
= \int \int h_{1}(y_{1})h_{2}(y_{2})p(y_{1},y_{2}) \, dy_{1} \, dy_{2}
= \int \int h_{1}(y_{1})p_{1}(y_{1})h_{2}(y_{2})p_{2}(y_{2}) \, dy_{1} \, dy_{2}
= \int h_{1}(y_{1})p_{1}(y_{1}) \, dy_{1} \int h_{2}(y_{2})p_{2}(y_{2}) \, dy_{2}
= E{h1y1}E{h2y2}

[modifier] Indépendance et corrélation

La non-corrélation est une propriété plus faible que l'indépendance. La non-corrélation implique une nullité des moment jusqu'à l'ordre 2 (moyenne, variance) alors que l'indépendance impliquera la nullité de tous les moments.

Par exemple, dans le cas de deux variables aléatoires indépendantes, on peut toujours écrire (en se basant sur le critère précédent) que

E{y1y2} − E{y1}E{y2} = 0.

Mais l'inverse n'est pas forcément vrai. Soit une distribution (y1,y2) de probabilité 1/4 avec pour valeurs (0,1),(0,-1),(1,0) et (-1,0). Si les deux variables ne sont pas corrélées, elles ne sont pourtant pas indépendantes, puisque

E\{y_{1}^{2}y_{2}^{2}\} = 0 \ne 1/4 = E\{y_{1}^{2}\} E\{y_{2}^{2}\}.

Et donc le critère d'indépendance n'est pas respecté.

[modifier] Indépendance et information

Une autre façon d'appréhender cette notion d'indépendance entre deux événements est de passer par l'information (au sens de la théorie de l'information) : deux événements sont indépendants si l'information fournie par le premier événement ne donne aucune information sur le deuxième événement.

Soit à tirer deux boules (rouge et blanche) d'une urne. Si on réalise l'expérience sans remettre la boule tirée dans l'urne, et que la première boule tirée est rouge, on peut déduire de cette information que la deuxième boule tirée sera blanche. Les deux événements ne sont donc pas indépendants.

Par contre, si on remet la première boule dans l'urne avant un deuxième tirage, l'information du premier événement (la boule est rouge) ne nous donne aucune information sur la couleur de la deuxième boule. Les deux événements sont donc indépendants.

Cette approche est notamment utilisée en analyse en composantes indépendantes.

[modifier] Applications et utilisations

[modifier] Notes

  1. En effet P(x\mod 2=0|x\in \{1,2,3,4\}) = \frac{1}{2} = 
P(x\mod 2=0|x\in \{1,2,3,4,5,6\})

[modifier] Références

  • T.-A. Banh, Calcul des probabilités, Ed. ULg, 1995.
  • A. Hyvärinen, E. Oja, Independent Component Analysis, Neural Networks, 13(4-5):411-430, 2000.