next up previous contents
suivant: Equivalence des algorithmes de monter: Prédiction linéaire précédent: Modèles autorégressifs   Table des matières

Algorithme de Levinson

De cette structure très particulière de la matrice se déduit une méthode itérative de résolution très simple : Supposons qu'on connaisse la solution à l'ordre $(p-1)$ de (351), soit
$[a_0^{(p-1)},a_1^{(p-1)},
\cdots,a_{p-1}^{(p-1)}]^T$.
Si on complète ce vecteur par une $p$-ième coordonnée égale à zéro et qu'on lui applique la matrice $\bf {R}_p$ on obtient
  $\textstyle \left(
\begin{array}{cccccc}
r(0)&r(1)&r(2)&\cdots&r(p-1)&r(p)\\
r(...
...a_1^{(p-1)}\\  a_2^{(p-1)}\\  \vdots\\  a_{p-1}^{(p-1)}\\  0\end{array}\right)=$   (352)
  $\textstyle \left(\begin{array}{c}\sigma_{(p-1)}^2\\  0\\  0\\  \vdots\\  0\\
\sum_{k=0}^{p-1}a_{k}^{(p-1)}r(p-k)\end{array}\right)$    

On peut appliquer la matrice $\bf {R}_p$ au vecteur
$[0,a_{p-1}^{(p-1)},
\cdots,a_1^{(p-1)},a_{0}^{(p-1)}]^T$.
Comme $\bf {R}_p$ est centro-symétrique, on obtient :
  $\textstyle \left(
\begin{array}{cccccc}
r(0)&r(1)&r(2)&\cdots&r(p-1)&r(p)\\
r(...
...}\\  a_{p-2}^{(p-1)}\\  \vdots\\  a_1^{(p-1)}\\  a_0^{(p-1)}\end{array}\right)=$   (353)
  $\textstyle \left(\begin{array}{c}\sum_{k=0}^{p-1}a_{k}^{(p-1)}r(p-k)\\  0\\  0\\  \vdots\\  0\\
\sigma_{(p-1)}^2\end{array}\right)$    

Les deux membres de droite de (353) et de (354) ont toutes leurs composantes nulles sauf la première et la dernière. On cherche une solution de (351) telle que toutes les composantes du vecteur de droite sont nulles. On peut l'obtenir en effectuant une combinaison linéaire de
$[a_0^{(p-1)},a_1^{(p-1)},
\cdots,a_{p-1}^{(p-1)}]^T$
et de
$[0,a_{p-1}^{(p-1)},
\cdots,a_1^{(p-1)},a_{0}^{(p-1)}]^T$
soit
\begin{displaymath}
\left(\begin{array}{c}
a_0^{(p)}\\ a_1^{(p)}\\ a_2^{(p)}\\...
...-1)}\\ \vdots\\ a_1^{(p-1)}\\ a_0^{(p-1)}\end{array}\right)
\end{displaymath} (354)

En appliquant $\bf {R}_p$
\begin{displaymath}
\bf {R}_p\left(\begin{array}{c}
a_0^{(p)}\\ a_1^{(p)}\\ a_...
...)\\ 0\\ 0\\ \vdots\\ 0\\
\sigma_{(p-1)}^2\end{array}\right)
\end{displaymath} (355)

On choisit $k_{p-1}$ de manière à annuler le dernier élement du vecteur de droite, et
\begin{displaymath}
k_{p-1}=-\frac{\sum_{k=0}^{p-1}a_{k}^{(p-1)}r(p-k)}{\sigma_{(p-1)}^2}
\end{displaymath} (356)

$k_{p-1}$ s'appelle souvent "coefficient de corrélation partielle" ou "parcor". On remarque que le premier élement du vecteur de droite est $\sigma_{(p)}^2$ et que par conséquent
\begin{displaymath}
\sigma_{(p)}^2=\sigma_{(p-1)}^2+k_{p-1}\sum_{k=0}^{p-1}a_{k}^{(p-1)}r(p-k)
\end{displaymath} (357)

En remplaçant $\sum_{k=0}^{p-1}a_{k}^{(p-1)}r(p-k)$ par sa valeur donnée par l'équation 350 écrite à l'ordre $p-1$
\begin{displaymath}
\sum_{k=0}^{p-1}a_{k}^{(p-1)}r(p-k)=-k_{p-1}\sigma_{(p-1)}^2
\end{displaymath} (358)


\begin{displaymath}
\sigma_{(p)}^2=\sigma_{(p-1)}^2[1-k_{p-1}^2]
\end{displaymath} (359)


next up previous contents
suivant: Equivalence des algorithmes de monter: Prédiction linéaire précédent: Modèles autorégressifs   Table des matières
Leroux Joel
2000-11-14