Exponentielle d'une matrice

Un article de Wikipédia, l'encyclopédie libre.

En mathématiques, l'exponentielle d'une matrice est une fonction d'une matrice carrée semblable à l'exponentielle. De façon abstraite, elle fait le pont entre l'algèbre de Lie sur une matrice et le groupe de Lie qui lui correspond.

Soit X une matrice n×n, réelle ou complexe. L'exponentielle de X, notée eX ou exp(X), est la matrice n×n obtenue de la série:

e^X = \sum_{k=0}^\infty{X^k \over k!}.

Cette somme convergeant toujours, l'exponentielle est bien formée. Noter que si X est une matrice 1×1 (c'est-à-dire un scalaire), alors son exponentielle correspond à celle d'un nombre.

Sommaire

[modifier] Propriétés

Soient X et Y deux matrices n×n complexes et soient a etb deux nombres complexes. La matrice identité est dénotée I, et la matrice nulle, 0. L'exponentielle d'une matrice possède ces propriétés :

[modifier] Équations différentielles linéaires

Une des premières applications de l'exponentielle de matrices est la résolution des équations différentielles ordinaires. En effet, de l'équation (1) ci-dessous, on déduit que la solution de :

 \frac{d}{dt} y(t) = Ay(t), \quad y(0) = y_0,

A est une matrice, est donnée par

 y(t) = e^{At} y_0. \,

L'exponentielle d'une matrice peut aussi servir à résoudre les équations non-homogènes :

 \frac{d}{dt} y(t) = Ay(t) + z(t), \quad y(0) = y_0.

Voir la section Applications pour un exemple.

Il n'existe de solution explicite pour les équations différentielles de la forme

 \frac{d}{dt} y(t) = A(t) \, y(t), \quad y(0) = y_0,

A n'est pas constant, mais la série de Magnus donne la solution en tant que somme infinie.

[modifier] L'exponentielle d'une somme

On sait que l'identité ex + y = exey est valable pour tous nombres complexes x et y. On peut en fait montrer qu'elle est également valable pour deux matrices qui commutent. Autrement dit, si les matrices X et Y commutent, alors

eX + Y = eXeY

Cependant, si ce n'est pas le cas, alors l'égalité n'est pas nécessairement vraie. Dans ce cas, la formule de Baker-Campbell-Hausdorff donne l'expression de eX + YeXeY en fonction du crochet [X,Y] de X et Y, et de tous les crochets itérés. Plus précisément, cette formule donne le logarithme de eXeY, par une série ne faisant intervenir que X, Y et leurs crochets. Les premiers termes sont les suivants:

\begin{align}\log(\exp(X)\exp(Y))&=X+Y+\frac{1}{2}[X,Y]+
\frac{1}{12}([X,[X,Y]]+[Y,[Y,X]])+\frac{1}{24}[X,[Y,[X,Y]]]\\
&\quad 
- \frac{1}{720}([[[[X,Y],Y],Y],Y] +[[[[Y,X],X],X],X])
\\
&\quad +\frac{1}{360}([[[[X,Y],Y],Y],X]+[[[[Y,X],X],X],Y])\\
&\quad 
+ \frac{1}{120}([[[[Y,X],Y],X],Y] +[[[[X,Y],X],Y],X]) +\dots\end{align}

[modifier] L'application exponentielle

L'exponentielle d'une matrice est toujours inversible. L'inverse de eX est donné par eX. Dès lors, cette fonction nous donne une application

\exp \colon M_n(\mathbb C) \to \mbox{GL}(n,\mathbb C)

de l'ensemble des matrices n×n vers le groupe général linéaire, c'est-à-dire le groupe de toutes les matrices inversibles. On appelle logarithme d'une matrice X toute matrice Y telle que eY = X  ; le logarithme de X n'est pas unique en général.

Pour deux matrices X et Y, nous avons

 \| e^{X+Y} - e^X \| \le \|Y\| e^{\|X\|} e^{\|Y\|},

où || · || désigne une norme matricielle arbitraire. Il suit que l'application exponentielle est continue et lipschitzienne sur tout sous-ensemble compact de Mn(C).

La bijection

t \mapsto e^{tX}, \qquad t \in \mathbb R

définit une courbe de classe C^\infty dans le groupe linéaire qui passe par l'identité en t = 0. Cette courbe est en fait un sous-groupe à un paramètre de GL_n(\mathbb C) puisque

e^{tX}e^{sX} = e^{(t+s)X}.\,

La dérivée de cette courbe au point t est donnée par

\frac{d}{dt}e^{tX} = Xe^{tX}. \qquad (1)

La dérivée au point t = 0 est la matrice X, ce qui revient à dire que X génère ce sous-groupe à un paramètre.

Plus généralement,

\frac{d}{dt}e^{X(t)} = \int_0^1 e^{(1-\alpha) X(t)} \frac{dX(t)}{dt} e^{\alpha X(t)}d\alpha

[modifier] Calculs de l'exponentielle d'une matrice

Le calcul d'une exponentielle de matrice n'est pas a priori un problème facile. Cependant, dans certains cas, et notamment ceux d'une matrice diagonale et d'une matrice nilpotente, il ne présente aucune difficulté. Une fois cette remarque faite, le cas général peux se traiter en se ramenant aux deux cas précédents.

[modifier] Matrice diagonale

Si A est une matrice diagonale, c'est-à-dire :

A=\begin{bmatrix} a_1 & 0 & \ldots & 0 \\
0 & a_2 & \ldots & 0  \\ \vdots & \vdots & \ddots & \vdots \\
0 & 0 & \ldots & a_n \end{bmatrix},

alors son exponentielle est obtenue en calculant l'exponentielle de chacun des termes de la diagonale principale :

e^A=\begin{bmatrix} e^{a_1} & 0 & \ldots & 0 \\
0 & e^{a_2} & \ldots & 0  \\ \vdots & \vdots & \ddots & \vdots \\
0 & 0 & \ldots & e^{a_n} \end{bmatrix}.

Cette propriété permet de calculer simplement l'exponentielle des matrices diagonalisables. Si A = UDU−1, avecD est diagonale, alors eA = UeDU−1.

[modifier] Matrice nilpotente

Une matrice N est nilpotente si Nq = 0 pour un entier q. Dans ce cas, l'exponentielle d'une matrice eN se calcule directement à partir de son développement en série, puisque celui-ci ne comporte alors qu'un nombre fini de termes :

e^N = I + N + \frac{N^2}{2!} + \frac{N^3}{3!} + \cdots + \frac{N^{q-1}}{(q-1)!}

[modifier] Généralisation

Lorsque le polynôme minimal d'une matrice X est scinde, X peut s'exprimer sous la forme

X = A + N \,

  • A est diagonalisable
  • N est nilpotente
  • A commute avec N.

C'est la décomposition de Dunford.

Dès lors, le calcul de l'exponentielle de X se réduit aux deux cas précédents :

eX = eA + N = eAeN

Dans le cas complexe, on peut aussi faire appel à la réduction de Jordan.

Soit J la forme de Jordan de X, et P la matrice de passage. Alors,

eX = PeJP − 1

Puisque

J=J_{a_1}(\lambda_1)\oplus J_{a_2}(\lambda_2)\oplus\cdots\oplus J_{a_n}(\lambda_n),
e^{J}\, = \exp \big( J_{a_1}(\lambda_1)\oplus J_{a_2}(\lambda_2)\oplus\cdots\oplus J_{a_n}(\lambda_n) \big)
= \exp \big( J_{a_1}(\lambda_1) \big) \oplus \exp \big( J_{a_2}(\lambda_2) \big) \oplus\cdots\oplus \exp \big( J_{a_k}(\lambda_k) \big).

En conséquence, il faut seulement connaître la méthode pour calculer l'exponentielle d'un bloc de Jordan. Chacun est de la forme

J_{a}(\lambda) = \lambda I + N \,

N est la matrice nilpotente spéciale. L'exponentielle du bloc est donné par

e^{\lambda I + N} = e^{\lambda}e^N. \,

[modifier] Exemple de calculs

Soit la matrice

B=\begin{bmatrix}
21 & 17 & 6 \\
-5 & -1 & -6 \\
4 & 4 & 16 \end{bmatrix}

qui a la forme de Jordan

J=\begin{bmatrix}
16 & 1 & 0 \\
0 & 16 & 0 \\
0 & 0 & 4 \end{bmatrix}

et la matrice de transition

P=\begin{bmatrix}
-1 & 1 & {5 \over 8} \\
1 & -1 & -{1\over 8} \\
0 & 2 & 0 \end{bmatrix}

Maintenant,

J=J_2(16)\oplus J_1(4)

et

eB = PeJP − 1
= P (e^{J_2(16)} \oplus e^{J_1(4)} ) P^{-1}.

Alors,

 \exp \left( 16I+\begin{bmatrix} 0 & 1 \\ 0 & 0 \end{bmatrix} \right) = e^{16}\left(\begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix} + \begin{bmatrix} 0 & 1 \\ 0 & 0 \end{bmatrix} + {1 \over 2!}\begin{bmatrix} 0 & 0 \\ 0 & 0 \end{bmatrix}+\cdots\right)=\begin{bmatrix} e^{16} & e^{16} \\ 0 & e^{16} \end{bmatrix}

L'exponentielle de la matrice 1×1 est triviale, avec eJ1(4)=e4, d'où

e^B = P\begin{bmatrix} e^{16} & e^{16} & 0 \\ 0 & e^{16} & 0 \\ 0 & 0 & e^4 \end{bmatrix}P^{-1} = {1\over 4}\begin{bmatrix}
5e^4-e^{16} & 5e^4 - 5 e^{16} & -2e^{16} \\
-e^4 + e^{16} & -e^4 + 5e^{16} & 2e^{16} \\
0 & 0 & 4e^{16} \end{bmatrix}

[modifier] Applications

[modifier] Équations différentielles linéaires

L'exponentielle d'une matrice peut servir à résoudre des équations différentielles linéaires.

Sachant que y′ = Cy a pour solution eCt, considérons le vecteur

 \mathbf{y}(t) = \begin{pmatrix} y_1(t) \\ \vdots \\y_n(t) \end{pmatrix}

Nous pouvons exprimer un système d'équations différentielles linéaires sous la forme

 \mathbf{y}'(t) = A\mathbf{y}(t)+\mathbf{b}(t)

En multipliant par eAt, nous avons

e^{-At}\mathbf{y}'-e^{-At}A\mathbf{y} = e^{-At}\mathbf{b}
 \frac{d}{dt} (e^{-At}\mathbf{y}) = e^{-At}\mathbf{b}

La résolution du système se ramène donc au calcul de eAt.

[modifier] Exemple (équation homogène)

Supposons que nous ayons

\begin{matrix}
x' &=& 2x&-y&+z \\
y' &=&   &3y&-1z \\
z' &=& 2x&+y&+3z \end{matrix}

La matrice associée est

M=\begin{bmatrix}
2 & -1 &  1 \\
0 &  3 & -1 \\
2 &  1 &  3 \end{bmatrix}

et son exponentielle est

e^{tM}=\begin{bmatrix} 
     2e^t - 2te^{2t} & -2te^{2t}    & 0 \\
-2e^t + 2(t+1)e^{2t} & 2(t+1)e^{2t} & 0 \\
            2te^{2t} & 2te^{2t}     & 2e^t\end{bmatrix}

La solution générale du système est donc

\begin{bmatrix}x \\y \\ z\end{bmatrix}=
C_1\begin{bmatrix}2e^t - 2te^{2t} \\-2e^t + 2(t+1)e^{2t}\\2te^{2t}\end{bmatrix}
+C_2\begin{bmatrix}-2te^{2t}\\2(t+1)e^{2t}\\2te^{2t}\end{bmatrix}
+C_3\begin{bmatrix}0\\0\\2e^t\end{bmatrix}

c'est-à-dire

\begin{matrix}
x &=& C_1(2e^t - 2te^{2t}) + C_2(-2te^{2t})\\
y &=& C_1(-2e^t + 2(t+1)e^{2t})+C_2(2(t+1)e^{2t})\\
z &=& (C_1+C_2)(2te^{2t})+2C_3e^t\end{matrix}

[modifier] Exemple (équation non-homogène, variation de la constante)

Pour une équation non-homogène, on peut utiliser une méthode semblable à la variation de la constante.

Nous cherchons une solution de la forme yp(t)=exp(tA)z(t) :

\mathbf{y}_p' = (e^{tA})'\mathbf{z}(t)+e^{tA}\mathbf{z}'(t)
= Ae^{tA}\mathbf{z}(t)+e^{tA}\mathbf{z}'(t)
= A\mathbf{y}_p(t)+e^{tA}\mathbf{z}'(t)

Avec yp comme solution :

e^{tA}\mathbf{z}'(t) = \mathbf{b}(t)
\mathbf{z}'(t) = (e^{tA})^{-1}\mathbf{b}(t)
\mathbf{z}(t) = \int_0^t e^{-uA}\mathbf{b}(u)\,du+\mathbf{c}

Alors,

\mathbf{y}_p = e^{tA}\int_0^t e^{-uA}\mathbf{b}(u)\,du+e^{tA}\mathbf{c}
= \int_0^t e^{(t-u)A}\mathbf{b}(u)\,du+e^{tA}\mathbf{c}

c dépend des conditions initiales.

[modifier] Exemple (non-homogène)

Supposons que nous ayons

\begin{matrix}
x' &=& 2x&-y&+z&+e^{2t} \\
y' &=&   &3y&-1z& \\
z' &=& 2x&+y&+3z&+e^{2t} \end{matrix}

Nous avons donc

M=\begin{bmatrix}
2 & -1 &  1 \\
0 &  3 & -1 \\
2 &  1 &  3 \end{bmatrix}

et

\mathbf{b}=e^{2t}\begin{bmatrix}1 \\0\\1\end{bmatrix}

Comme auparavant, la somme de la solution homogène et de la solution particulière donne la solution générale. La solution homogène étant connue, il suffit de trouver la solution particulière.

\mathbf{y}_p = e^{t}\int_0^t e^{(-u)A}\begin{bmatrix}e^{2u} \\0\\e^{2u}\end{bmatrix}\,du+e^{tA}\mathbf{c}
\mathbf{y}_p = e^{t}\int_0^t
\begin{bmatrix} 
     2e^u - 2ue^{2u} & -2ue^{2u}    & 0 \\  \\
-2e^u + 2(u+1)e^{2u} & 2(u+1)e^{2u} & 0 \\  \\
            2ue^{2u} & 2ue^{2u}     & 2e^u\end{bmatrix}\begin{bmatrix}e^{2u} \\0\\e^{2u}\end{bmatrix}\,du+e^{tA}\mathbf{c}
\mathbf{y}_p = e^{t}\int_0^t
\begin{bmatrix}
e^{2u}( 2e^u - 2ue^{2u}) \\  \\
  e^{2u}(-2e^u + 2(1 + u)e^{2u}) \\  \\
  2e^{3u} + 2ue^{4u}\end{bmatrix}+e^{tA}\mathbf{c}
\mathbf{y}_p = e^{t}\begin{bmatrix}
-{1 \over 24}e^{3t}(3e^t(4t-1)-16) \\  \\
{1 \over 24}e^{3t}(3e^t(4t+4)-16) \\  \\
{1 \over 24}e^{3t}(3e^t(4t-1)-16)\end{bmatrix}+
\begin{bmatrix} 
     2e^t - 2te^{2t} & -2te^{2t}    & 0 \\  \\
-2e^t + 2(t+1)e^{2t} & 2(t+1)e^{2t} & 0 \\  \\
            2te^{2t} & 2te^{2t}     & 2e^t\end{bmatrix}\begin{bmatrix}c_1 \\c_2 \\c_3\end{bmatrix},

expression qui peut être simplifiée pour obtenir la solution particulière cherchée.

[modifier] Bibliographie

  • Roger A. Horn et Charles R. Johnson, Topics in Matrix Analysis, Cambridge University Press, 1991. ISBN 0-521-46713-6.