next up previous contents
suivant: Application à la séparation monter: Les signaux aléatoires échantillonnés précédent: Estimation spectrale   Table des matières

Filtrage de Wiener

Pour optimiser la sépartion d'un signal et d'un bruit de mesure et atténuer les distorsions apportées par un filtre à un signal, on a posé le problème de la manière suivante: On suppose qu'un signal stationnaire $x(t)$ de densité spectrale connue,$R_{xx}(z)$ est déformé et entâché d'un bruit de mesure stationnaire. Soit $R_{yy}(z)$ la densité spectrale, elle aussi connue, de ce signal $y(t)$, version déformée de $x(t)$. On connait l'intercorrélation $R_{xy}(t)$ entre les signaux $x(t)$ et $y(t)$. On cherche un filtre $H(z)$ dont la sortie sera ${\hat{x}}(t)$ de manière à minimiser l'énergie $E[\varepsilon^2(t)]$ de l'erreur entre le signal original $x(t)$ et sa prédiction ${\hat{x}}(t)$ à partir du signal filtré (cf fig. 68)
\begin{displaymath}
\varepsilon(t)=\hat{x}(t)-x(t)
\end{displaymath} (319)

.

Figure 68: Schéma du filtrage de Wiener
\begin{figure}
\begin{picture}(70,32)
\thinlines
\drawpath{38.0}{8.0}{8.0}{8...
...0}{12.0}{$-$}
\drawcenteredtext{20.0}{24.0}{$H(z)$}
\end{picture}
\end{figure}

Nous supposerons que $y(t)$ a été engendré par un bruit blanc $v(t)$ de variance $\sigma^2$ filtré par un filtre linéaire causal et stable dont la réponse impulsionnelle a pour transformée en $z$ $B(z)$. On peut écrire $R_{yy}(z)$ sous la forme
\begin{displaymath}
R_{yy}(z)=\sigma^2B(z)B(z^{-1})
\end{displaymath} (320)

($B(z)$ est appelé ``facteur spectral'' de $R_{yy}(z)$, cf le paragraphe 7.3.13). Ce filtre $B(z)$ a un inverse $1/B(z)$ qui est lui aussi causal et stable. La recherche du filtre $H(z)$ se ramène alors à la recherche d'un filtre $G(z)$ dont la réponse impulsionnelle est $g(t)$

Figure 69: Blanchiment du signal $y(t)$ ramenant le calcul de $H(z)$ au calcul de $G(z)$
\begin{figure}
\begin{picture}(78,16)
\thinlines
\drawframebox{24.0}{8.0}{12...
...(t)$}
\drawcenteredtext{62.0}{10.0}{$\hat{x}(t)$}
\end{picture}
\end{figure}

L'erreur de prédiction $\varepsilon(t)$ peut alors s'écrire
\begin{displaymath}
\varepsilon(t)=x(t)-\sum_{\tau=-\infty}^{\infty}g(\tau)v(t-\tau)
\end{displaymath} (321)

La variance de $\varepsilon(t)$ peut s'écrire alors en fonction de $\sigma^2$, de $g(t)$, de la variance de $x(t)$, soit $r_{xx}(0)$ et de l'intercorrélation $r_{vx}(\tau)$
\begin{displaymath}
E[\varepsilon^2(t)]=r_{xx}(0)-2\sum_{\tau=-\infty}^{\infty}...
...au)r_{vx}(\tau)+\sigma^2\sum_{\tau=-\infty}^{\infty}g^2(\tau)
\end{displaymath} (322)

qu'on peut réécrire
\begin{displaymath}
E[\varepsilon^2(t)]=r_{xx}(0)-2\sum_{\tau=-\infty}^{\infty}...
...2-\frac{}{\sigma^2}\sum_{\tau=-\infty}^{\infty}r_{vx}^2(\tau)
\end{displaymath} (323)

$E[\varepsilon^2(t)]$ est minimale lorsque
\begin{displaymath}
g(\tau)=\frac{r_{vx}(\tau)}{\sigma^2}
\end{displaymath} (324)

soit si on exprime cette relation en termes de transformées en $z$
\begin{displaymath}
G(z)=\frac{1}{\sigma^2}R_{vx}(z)
\end{displaymath} (325)

$R_{vx}(z)$ est la transformée en $z$ de $r_{vx}(\tau$). On peut exprimer $R_{vx}(z)$ en fonction de $R_{xy}(z)$
\begin{displaymath}
R_{vx}(z)=R_{xv}(z^{-1})=\frac{R_{xy}(z^{-1})}{B(z^{-1})}
\end{displaymath} (326)

et
\begin{displaymath}
G(z)=\frac{1}{\sigma^2}\frac{R_{xy}(z^{-1})}{B(z^{-1})}
\end{displaymath} (327)

En divisant par $B(z)$, on obtient le filtre cherché
\begin{displaymath}
H(z)=\frac{R_{xy}(z^{-1})}{\sigma^2B(z)B(z^{-1})}=\frac{R_{xy}(z^{-1})}{R_{yy}(z)}
\end{displaymath} (328)

Toutefois, ce filtre n'est pas nécessairement réalisable, car il n'est pas nécessairement causal.

Sous-sections
next up previous contents
suivant: Application à la séparation monter: Les signaux aléatoires échantillonnés précédent: Estimation spectrale   Table des matières
Leroux Joel
2000-11-14