Interpolation polynomiale

Un article de Wikipédia, l'encyclopédie libre.

En mathématiques, en analyse numérique, l' interpolation polynomiale est une technique d'interpolation d'un ensemble de données ou d'une fonction par un polynôme. En d'autres termes, étant donné un ensemble de points (obtenu, par exemple, à la suite d'une expérience), on cherche un polynôme qui passe par tous ces points, et éventuellement vérifie d'autres conditions, de degré si possible le plus bas.

Le résultat n'est toutefois pas toujours à la hauteur des espérances : l'interpolation de Lagrange, par exemple, peut fort bien diverger même pour des fonctions très régulières (Phénomène de Runge).

Sommaire

[modifier] Définition

  • Dans la version la plus simple (interpolation lagrangienne), on impose simplement que le polynôme passe par tous les points donnés. Étant donné un ensemble de n+1 points (xi,yi) (xi distincts 2 à 2), nous devons trouver un polynôme p de degré n au plus qui vérifie :
p(x_i) = y_i \mbox{ , } i=0,\ldots,n

Le théorème de l'unisolvance précise qu'il n'existe qu'un seul polynôme p de degré n au plus défini par un ensemble de n+1 points.

  • L'interpolation de Hermite permet d'imposer que le polynôme, non seulement prenne les valeurs imposées, mais encore qu'en chaque point, il détermine une courbe de pente fixée à l'avance ; naturellement, il faut pour cela un polynôme de degré supérieur au polynôme de Lagrange pour le même nombre de points. Avec ce type d'interpolation, on peut encore imposer la valeur des dérivées secondes, troisièmes, etc. en chaque point.
  • Avec la définition choisie dans cet article, l'approximation de Bernstein n'est pas exactement une interpolation.

[modifier] Construction du polynôme d'interpolation de Lagrange

Les points rouges correspondent aux points (xk,yk), et la courbe bleue représente le polynôme d'interpolation.
Les points rouges correspondent aux points (xk,yk), et la courbe bleue représente le polynôme d'interpolation.

Supposons que le polynôme d'interpolation est donné par :

p(x) = a_n x^n + a_{n-1} x^{n-1} + \cdots + a_2 x^2 + a_1 x + a_0. \qquad (1)

Or p doit vérifier :

p(x_i) = y_i,\qquad \forall i \in \left\{ 0, 1, \dots, n\right\}.

afin que ce dernier passe par l'ensemble des points à interpoler. Intégrer à l'équation (1) , on obtient un système d'équations linéaires d'inconnus ak. L'écriture matricielle est la suivante :

\begin{bmatrix}
x_0^n & x_0^{n-1} & x_0^{n-2} & \ldots & x_0 & 1 \\
x_1^n & x_1^{n-1} & x_1^{n-2} & \ldots & x_1 & 1 \\
\vdots & \vdots & \vdots & & \vdots & \vdots \\
x_n^n & x_n^{n-1} & x_n^{n-2} & \ldots & x_n & 1 
\end{bmatrix}
\begin{bmatrix}
a_n \\
a_{n-1} \\
\vdots \\
a_0
\end{bmatrix}
=
\begin{bmatrix}
y_0 \\
y_1 \\
\vdots \\
y_n
\end{bmatrix}

Pour construire p(x), nous devons résoudre ce système afin d'obtenir les valeurs des ak. Toutefois, inverser une matrice pleine est un calcul lourd (avec une méthode d'élimination de Gauss-Jordan, le calcul est de l'ordre de \frac{2}{3}n^3 opérations). Des méthodes nettement plus efficaces utilisent une base de polynômes lagrangienne ou newtonnienne pour obtenir une matrice respectivement diagonale ou triangulaire.

La matrice est une matrice du type matrice de Vandermonde. Son déterminant est non nul, ce qui prouve le théorème d'unisolvance : le polynôme d'interpolation est unique.

[modifier] Erreur d'interpolation

L'erreur d'interpolation est donnée par la formule de Taylor-Young : Si f est n + 1 continuement différentiable sur I = [min(mini(xi),x),max(maxi(xi),x)] alors

 f(x) - p_n(x) = \frac{f^{(n+1)}(\xi)}{(n+1)!} \prod_{i=0}^n (x-x_i) avec \xi \in I

Dans le cas particulier où xi = x0 + ih (points uniformément répartis), l'erreur d'interpolation est de l'ordre de O(hn).

[modifier] Voir aussi