Entropie de Rényi

Un article de Wikipédia, l'encyclopédie libre.

L'entropie de Rényi, due à Alfréd Rényi, est une fonction mathématique qui correspond à la quantité d'information contenue dans la probabilité de collision d'une variable aléatoire.

[modifier] Définition formelle

L'entropie de Rényi d'une variable aléatoire discrète x, avec états possibles 1..n comme :

R(x)= \frac{1}{1-\alpha}\log_2{\mathbf E [p(i)^\alpha]} = \frac{1}{1-\alpha}\log_2 \left( \sum_{i=1}^np(i)^\alpha \right)

\mathbf E dénote l'espérance mathématique, α > 0 et \alpha \neq 1.

[modifier] Voir aussi

  • (en) A. Rényi, On measures of entropy and information, in Proc. 4th Berkeley Symposium on Mathematical Statistics and Probability. vol. 1, 1961, p. 547-561.
Autres langues