Moment (mathématiques)

Un article de Wikipédia, l'encyclopédie libre.

Pour les articles homonymes, voir Moment.

[modifier] Notion de moment

La notion de moment en mathématiques, notamment en calcul des probabilités, a pour origine la notion de moment en physique.

Soit une fonction f : I \to \R continue sur un intervalle \ I (non réduit à un point) de \R. Étant donné un entier naturel n, le n-ième moment de \ f est défini (sous réserve d'existence) par :

m_n(f)=\int_I x^n\,f(x)\,dx.

Remarque : pour un entier naturel n donné, l'ensemble des fonctions continues sur \ I dont le moment d'ordre n existe est un espace vectoriel réel, et l'application \ m_n : f \mapsto m_n(f) est une forme linéaire sur cet espace vectoriel.

[modifier] Problème des moments

On peut se demander si une fonction continue \ f : I \to \R dont tous les moments existent est déterminée par la suite de ses moments. Cette question est appelée problème des moments.

En d'autres termes : soient deux fonctions continues f, g : I \to \R dont chacune admet, pour tout entier naturel n, un moment d'ordre n. Si, pour tout n \in \mathbb{N},\; m_n(f)= m_n(g), peut-on affirmer que \ f = g ?

  • D'après un théorème de Hausdorff, la réponse est affirmative lorsque \ I est un segment [a,\, b] (c'est-à-dire lorsqu'il est fermé et borné).
Démonstration de ce théorème :
La fonction \ h = f - g est continue sur \ I, et tous ses moments sont nuls, car pour tout \ n, \ m_n(h) = m_n(f) - m_n(g) .
On en déduit, par linéarité de l'intégrale, que \int_a^b P(x)\,h(x)\,dx = 0 quel que soit le polynôme réel \ P ;
en effet, si \ P = \sum_{k = 0}^p a_k\, X^k, alors \int_a^b P(x)\,h(x)\,dx = \sum_{k = 0}^p a_k\, m_k(h) = 0.
Or, d'après un théorème de Weierstrass, pour toute fonction continue [a,\, b] \to \R, il existe une suite de polynômes (réels) convergeant uniformément sur [a,\, b] vers cette fonction. Il existe donc une suite \ (P_n) de polynômes qui converge uniformément vers \ h sur [a,\, b] . Alors, la suite des produits \ (P_n\, h) converge uniformément vers \ h^2 sur \ [a,\, b] et il en résulte que \int_a^b [h(x)]^2\,dx = \lim_{n \to +\infty} \int_a^b P_n(x)\,h(x)\,dx = 0.
Comme \ h est continue sur le segment \ [a,\, b], ceci prouve que \ h = 0 , c'est-à-dire \ f = g.
  • Dans le cas général, la réponse est négative. Voici un contre-exemple probabiliste donné par William Feller. On considère la fonction \ f :\, ]0,\, +\infty[\, \to \R^+ définie par \ f(x) = \frac{1}{x\, \sqrt{2 \pi}}\, e^{-\frac{1}{2}\, (\ln x)^2} (densité de la loi log-normale), dont tous les moments existent.
On démontre (par changement de variable) que pour tout entier naturel \ n, \int_0^{+\infty} x^n f(x) \sin(2 \pi \ln x)\, dx  = 0.
Pour tout \ \alpha \in \R, on définit \ g_\alpha :\, ]0,\, +\infty[\, \to \R par \ g_\alpha(x) = f(x)\, [1 + \alpha \sin(2 \pi \ln x)].
Alors : quels que soient \ \alpha \in \R et \ n \in \mathbb{N}, \ m_n(g_\alpha) = m_n(f), bien que \ g_\alpha \neq f dès que \ \alpha \neq 0.


Nota : pour tout \ \alpha \in \R, \int_0^{+\infty} g_\alpha(x)\, dx = 1 car \ m_0(g_\alpha) = m_0(f). Or, si on prend \ \alpha \in [-1,\, +1], \ g_\alpha est à valeurs positives : dans ce cas, \ g_\alpha est une densité de probabilité portée par \R^\star_+\,, distincte de \ f si \ \alpha \neq 0, dont tous les moments existent et sont les mêmes que ceux de \ f . Ceci prouve que la loi log-normale n'est pas déterminée par ses moments.