Application aux Futurs Systèmes Multimédia par Satellite en Bande Ka'> 4.2.3 Principes de décodage

4.2.3 Principes de décodage

Une détection par maximum de vraisemblance peut être envisagée pour le décodage des turbo codes. Cependant, ce processus de décodage optimal nécessite une très grande complexité le rendant inexploitable. Heureusement, un processus de décodage itératif d'une complexité moindre peut être appliqué tout en offrant des performances quasi-optimales. D'une manière générale, ce processus consiste à un échange mutuel d'information dite extrinsèque entre les deux décodeurs. Le module de décodage associé à chaque code est constitué par un algorithme MAP à entrée-sortie souples. Il existe plusieurs variantes de l'algorithme MAP visant à réduire sa complexité . Les plus connus sont les algorithmes Log MAP et Max Log MAP [53]. Un diagramme décrivant le processus de décodage est illustré sur la figure 4.6.
Figure 4.6: Décodage itératif d'un turbo code parallèle
\includegraphics[width=12cm]{turbo_decoder.eps}
Le but du décodeur entier est d'estimer le rapport de vraisemblance de chaque bit d'information $ u$ sachant le signal reçu à la sortie des filtres adaptés noté $ r$. Ce rapport s'écrit souvent sous une forme logarithmique:

$\displaystyle APP(u/r)=\ln\left(\frac{P(u=+1/r)}{P(u=0/r)}\right)$    

Afin d'estimer cette donnée, le décodeur a besoin de deux informations qui sont l'observation du canal ainsi que des informations a priori relative aux différents bits d'information et qui s'écrit:

$\displaystyle \pi(u)=\ln\left(\frac{P(u=+1)}{P(u=0)}\right)$    

Chaque décodeur délivre à sa sortie deux informations, une a posteriori et une extrinsèque. L'information a posteriori correspond à la probabilité de transmission de chaque bit d'information. Quand à l'information extrinsèque, elle fournit une mesure de la fiabilité de l'information a posteriori, elle est utilisée (après (des)entrelacement) par l'autre décodeur comme étant une information a priori.
Lors d'un processus de décodage classique d'un code convolutif, le décodeur ne dispose d'aucune information a priori et le processus de décodage se limite à l'exploitation de l'observation du canal. La concaténation de deux codes convolutifs va permettre à chaque décodeur de disposer d'une information a priori pour améliorer la fiabilité de sa sortie. Les données a priori utilisées par un décodeur correspondent à l'information extrinsèque délivrée par l'autre module SISO. En cas de convergence du processus de décodage après un certains nombre d'itération, l'information a priori devient de plus en plus fiable d'une itération à une autre. Ce fait explique l'amélioration des performances globales du décodeur. En plus de l'information extrinsèque, un décodeur produit une information dite a posteriori qui mesure la vraisemblance de chaque bit d'information. Après un nombre spécifié d'itérations, cette sortie est utilisée comme critère de décision sur les bits transmis. D'une manière générale le nombre des itérations nécessaire augmente pour les faibles SNR et pour les grandes tailles de l'entrelaceur. Le nombre des itérations nécessaires est souvent approché par $ \log_2(I)$$ I$ est la taille de l'entrelaceur.


Le principe de décodage itératif qui consiste à l'échange des informations entre les deux décodeurs a inspiré bien d'autres travaux dans le domaine de la théorie de l'information. La concaténation série des codes convolutifs a été proposée par Benedetto et al. [13], on montre particulièrement que ce schéma de codage est aussi performant que les turbo codes parallèles. Dans notre contexte, ce processus nous intéresse davantage que les turbo codes classiques. Une concaténation série d'un code convolutif et d'un modulateur CPM représente un schéma de codage équivalent à une concaténation série de deux codes convolutifs. Un processus de décodage itératif peut alors être envisagé.

Back to the Homepage.