[??]Sous-liage d'états et entraînement et réduction simultanés des paramètres dans un HMM

Dans le cadre de la brique TAPE (Traitement Automatique de la Parole et de l'Écrit) à l'ENST, j'ai étudié et présenté un document (en Anglais) rédigé par Liang Gu et Kenneth Rose et intitulé : Substate Tying With Combined Parameter Training and Reduction in Tied-Mixture HMM Design.

Résumé du document :

Les modèles de Markov cachés, ou HMM (pour Hidden Markov Model, en Anglais), sont largement utilisés en reconnaissance de la parole. Afin de réduire le nombre de paramètres à entraîner tout en permettant au système de modéliser des densités de probabilité complexes, Gu et Rose proposent un système à deux niveaux, où la densité de probabilité d'émission de chaque état est un mélange de mélanges de gaussiennes.

D'autre part, Gu et Rose proposent de combiner entraînement des paramètres et réduction de leur nombre en commençant avec un "grand" nombre de paramètres et en en éliminant progressivement de façon à obtenir in fine un système au nombre de paramètres voulu mais aux performances très proches d'un système avec plus de paramètres.

Gu et Rose disent diminuer le taux d'erreur de reconnaissance de 20 à 25 % en combinant ces deux techniques.

Lien Taille Description
pdf icon 304 k

L'article de Gu et Rose (en Anglais)

pdf icon 824 k

Mes transparents