next up previous contents
suivant: Algorithme de Levinson monter: Prédiction linéaire précédent: Prédiction linéaire   Table des matières


Modèles autorégressifs

Soit un signal $x(t)$, qu'on suppose être stationnaire et de moyenne nulle. On en calcule les coefficients de corrélation pour $\tau = 0,\cdots,p$ :
\begin{displaymath}
r(\tau)=E\{x(t)x(t+\tau)\}
\end{displaymath} (341)

Dans le cas de l'analyse du signal de parole, cette hypothèse de stationnarité n'est pas vérifiée et on considère que $x(t)$ est connu sur un intervalle de temps $[0,\dots,T-1]$ et que $x(t)$ est nul en dehors de cet intervalle. On calcule alors $r(\tau)$ de la manière suivante
\begin{displaymath}
r(\tau)=\frac{1}{T}\sum_{t=0}^{T-1}x(t)x(t+\tau)
\end{displaymath} (342)

On cherche à trouver les coefficients d'un filtre non récursif de degré $p$, $A_p(z)$
\begin{displaymath}
A_p(z)=\sum_{i=0}^{p}a_{i}^{(p)}z^{-i}
\end{displaymath} (343)

$a_0^{(p)}=1$ dont l'entrée est $x(t)$ et la sortie $\varepsilon_p(t)$. On cherche à minimiser la variance de $\varepsilon_p(t)$ qu'on nommera $\sigma_{(p)}^2$
\begin{displaymath}
\sigma_{(p)}^2=E\{[\sum_{i=0}^{p}a_{i}^{(p)}x(t-i)]^2\}
\end{displaymath} (344)

$\varepsilon_p(t)$ peut être interprétée comme l'erreur de prédiction entre le signal $x(t)$ et sa prédiction linéaire calculée à partir des échantillons précédents
\begin{displaymath}
\hat{x}(t)=\sum_{i=0}^{p}a_{i}^{(p)}x(t-i).
\end{displaymath} (345)

En developpant le carré
\begin{displaymath}
\sigma_{(p)}^2=\sum_{i=0}^{p}a_{i}^{(p)}[\sum_{k=0}^{p}a_{k}^{(p)}E\{x(t-i)x(t-k)]\}
\end{displaymath} (346)


\begin{displaymath}
\sigma_{(p)}^2=\sum_{i=0}^{p}a_{i}^{(p)}[\sum_{k=0}^{p}a_{k}^{(p)}r(i-k)]
\end{displaymath} (347)

En dérivant cette forme quadratique par rapport aux paramètres cherchés $a_1^{(p)},\cdots, a_p^{(p)}$, on obtient le minimum lorsque sont satisfaites les $p$ équations suivantes, écrites sous une forme matricielle
\begin{displaymath}
\left(
\begin{array}{ccccc}
r(1)&r(0)&r(1)&\cdots&r(p-1)\...
...in{array}{c}
0\\
0\\
\vdots\\
0
\end{array}
\right)
\end{displaymath} (348)

Lorsque ces $p$ équations sont vérifiées, la formule (347) donnant la valeur de la variance se simplifie : lorsque $i \not= k$:
\begin{displaymath}
\sum_{k=0}^{p}a_{k}^{(p)}r(i-k)=0
\end{displaymath} (349)

et
\begin{displaymath}
\sigma_{(p)}^2=\sum_{k=0}^{p}a_{k}^{(p)}r(i-k)
\end{displaymath} (350)

En combinant cette équation avec l'équation matricielle (348), on obtient
\begin{displaymath}
\left(
\begin{array}{ccccc}
r(0)&r(1)&r(2)&\cdots&r(p)\\ ...
...ay}{c}\sigma_{(p)}^2\\ 0\\ 0\\ \vdots\\ 0\end{array}\right)
\end{displaymath} (351)

Ces équations sont connues sous le nom d'équations de Yule Walker. La matrice des coefficients d'autocorrélation,$\bf {R}_p$ qui y apparait a une forme bien particulière : tous ses éléments situés sur des parallèles à la diagonale principale sont identique, on dit que c'est une matrice de Toeplitz. Elle est de plus symétrique. Remarque : l'application d'une matrice de Toeplitz à un vecteur s'interprète comme la convolution de la séquence associée à ce vecteur avec la séquence permettant d'engendrer la matrice.
next up previous contents
suivant: Algorithme de Levinson monter: Prédiction linéaire précédent: Prédiction linéaire   Table des matières
Leroux Joel
2000-11-14