FR2697101A1 - Procédé de détection de la parole. - Google Patents

Procédé de détection de la parole. Download PDF

Info

Publication number
FR2697101A1
FR2697101A1 FR9212582A FR9212582A FR2697101A1 FR 2697101 A1 FR2697101 A1 FR 2697101A1 FR 9212582 A FR9212582 A FR 9212582A FR 9212582 A FR9212582 A FR 9212582A FR 2697101 A1 FR2697101 A1 FR 2697101A1
Authority
FR
France
Prior art keywords
noise
frames
frame
speech
voiced
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR9212582A
Other languages
English (en)
Other versions
FR2697101B1 (fr
Inventor
Pastor Dominique
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales Avionics SAS
Original Assignee
Thales Avionics SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales Avionics SAS filed Critical Thales Avionics SAS
Priority to FR9212582A priority Critical patent/FR2697101B1/fr
Priority to EP93402522A priority patent/EP0594480B1/fr
Priority to DE69326044T priority patent/DE69326044T2/de
Priority to JP5285608A priority patent/JPH06222789A/ja
Priority to US08/139,740 priority patent/US5572623A/en
Publication of FR2697101A1 publication Critical patent/FR2697101A1/fr
Application granted granted Critical
Publication of FR2697101B1 publication Critical patent/FR2697101B1/fr
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/87Detection of discrete points within a voice signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals
    • G10L2025/932Decision in previous or following frames
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals
    • G10L2025/937Signal energy in various frequency bands
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Complex Calculations (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

Le procédé de l'invention consiste à: - détecter une trame voisée; - rechercher des trames de bruit précédant cette trame voisée; - construire un modèle auto-régressif du bruit et un spectre moyen de bruit; - blanchir les trames précédant le voisement; - rechercher le début effectif de la parole dans les trames blanchies; - débruiter les trames voisées et les paramétriser; et - rechercher la fin effective de la parole.

Description

PROCEDE DE DETECTION DE LA PAROLE
La présente invention se rapporte à un procédé de
détection de la parole.
Lorsqu'on cherche à déterminer le début et la fin effectifs de la parole, diverses solutions sont envisageable: ( 1) On peut travailler sur l'amplitude instantanée par référence à un seuil déterminé expérimentalement et confirmer la détection de parole par une détection de voisement (voir article "La discrimination parole- bruit et ses applications" de
V PETIT/F DUMONT, paru dans la Revue Technique THOMSON-
CSF Vol 12 N 14, déc 1980).
( 2) On peut aussi travailler sur l'énergie du signal total sur une tranche temporelle de durée T, en seuillant, toujours expérimentalement, cette énergie à l'aide d'histogrammes locaux, par exemple, et confirmer ensuite à l'aide d'une détection de
voisement, ou du calcul de l'énergie minimale d'une voyelle.
L'utilisation de l'énergie minimale d'une voyelle est une technique décrite dans le rapport "AMADEUS Version 1 0 " de J L GAUVAIN
du laboratoire LIMSI du CNRS.
( 3) Les systèmes précédents permettent la détection de voisement, mais non pas du début et de la fin effectifs de la parole, c'est-à-dire la détection des sons fricatifs non voisés (IFI, /S/, /CH/) et des sons plosifs non voisés (P/, i T/, IQI) Il faut donc les compléter par un algorithme de détection de ces fricatives Une première technique peut consister en l'utilisation d'histogrammes locaux, comme le préconise l'article "Problème de détection des frontières de mots en présence de bruit additifs" de P WACRENIER, paru dans le
mémoire de D E A de l'université de PARIS-SUD, Centre d'Orsay.
D'autres techniques voisines des précédentes et relativement proches de celle exposée ici, ont été présentées dans l'article "A Study of Endpoint Detection Algorithms in Adverse Conditions: Incidence on a DTW and HMM Recognizer" de J.C JUNQUA/B REAVES/B MAK, lors du Congrès EUROSPEECH 1991. Dans toutes ces approches, une grande part est faite à
l'heuristique, et peu d'outils théoriques puissants sont utilisés.
Les travaux sur le débruitage de la parole similaires à ceux présentés ici sont beaucoup plus nombreux, et l'on citera en particulier le livre "Speech Enhancement" de J S LIM aux Editions Prentice-Hall Signal Processing Series "Suppression of Acoustic Noise in Speech Using Spectral Substraction" de S F BOLL, paru dans la revue IEEE Transactions on Acoustics, speech, and signal processing, vol ASSP-27, N 2, Avril 1989, et "Noise Reduction For Speech Enhancement In Cars: Non-Linear Spectral Subtraction/Kalman Filtering" de P LOCKWOOD, C BAILLARGEAT, J.M GILLOT, J BOUDY, G FAUCON paru dans la revue EUROSPEECH 91 On ne citera que des techniques de débruitage dans le domaine spectral, et il sera question par la suite de
débruitage "spectral" par abus de langage.
Dans tous ces travaux, la relation étroite entre détection et débruitage n'est jamais réellement mise en évidence, sauf dans I'article "Suppression of Acoustic Noise in Speech Using Spectral
Subtraction", qui propose une solution empirique à ce problème.
Or, il est évident qu'un débruitage de la parole, lorsqu'on ne dispose pas de deux canaux d'enregistrements, nécessite l'utilisation de trames de bruit "pur", non polluées par la parole, ce qui nécessite de définir un outil de détection capable de distinguer
entre bruit et bruit + parole.
La présente invention a pour objet un procédé de détection et de débruitage de la parole qui permette de détecter le plus sûrement possible les débuts et fins effectifs de signaux de parole quels que soient les types de sons de parole, et qui permette de débruiter le plus efficacement possible les signaux ainsi détectés, même lorsque les caractéristiques statistiques du bruit
affectant ces signaux varient fortement.
Le procédé de l'invention consiste à effectuer en milieu peu bruité une détection de trames voisées, et à détecter un noyau
vocalique auquel on attache un intervalle de confiance.
En milieu bruité, après avoir effectué la détection d'au moins une trame voisée, on recherche des trames de bruit précédant cette trame voisée, on construit un modèle autorégressif de bruit et un spectre moyen de bruit, on blanchit par filtre réjecteur et on débruite par débruiteur spectral les trames précédant le voisement, on recherche le début effectif de la parole dans ces trames blanchies, on extrait des trames débruitées comprises entre le début effectif de la parole et la première trame voisée les vecteurs acoustiques utilisés par le système de reconnaissance vocale, tant que des trames voisées sont détectées, celles-ci sont
débruitées puis paramétrisées en vue de leur reconnaissance (c'est-
à-dire que l'on extrait les vecteurs acoustiques adaptés à la reconnaissance de ces trames), lorsqu'on ne détecte plus de trames voisées, on recherche la fin effective de la parole, on débruite puis on paramétrise les trames comprises entre la dernière trame voisée
et la fin effective de la parole.
Dans toute la suite, lorsqu'il sera question de paramétrisation des trames, il faudra entendre que l'on extrait de la trame le vecteur acoustique (ou de manière équivalente, les
paramètres acoustiques) utilisés par l'algorithme de reconnaissance.
Un exemple de tels paramètres acoustiques sont les coefficients cepstraux bien connus des spécialistes du traitement
de la parole.
Dans toute la suite, on entendra par blanchiment, l'application du filtrage réjecteur calculé à partir du modèle autorégressif du bruit, et par débruitage, l'application du débruiteur
spectral.
Blanchiment et débruitage spectral ne s'appliquent pas de manière séquentielle, mais en parallèle, le blanchiment permettant la détection de sons non voisés, le débruitage une amélioration de
la qualité du signal vocal à reconnaître.
Ainsi, le procédé de l'invention est caractérisé par l'utilisation d'outils théoriques permettant une approche rigoureuse des problèmes de détection (voisement et fricatives), par sa grande adaptativité, car ce procédé est avant tout un procédé local au mot Les caractéristiques statistiques du bruit peuvent évoluer dans le temps, le procédé restera capable de s'y adapter, par construction Il est également caractérisé par l'élaboration d'expertises de détection à partir des résultats d'algorithmes de traitement du signal (on minimise ainsi le nombre de fausses alarmes, dues à la détection, en prenant en compte la nature particulière du signal de parole), par des processus de débruitage couplés à la détection de parole, par une approche en "temps réel", et ce, à tous les niveaux de l'analyse, par sa synergie avec d'autres techniques de traitement du signal vocal, par l'utilisation de deux débruiteurs différents: * Filtrage de réfection, principalement utilisé pour la détection de
fricatives, en vertu de ses propriétés de blanchiment.
* Filtrage de Wiener en particulier, utilisé pour débruiter le signal de parole en vue de sa reconnaissance On peut aussi utiliser une
soustraction spectrale.
Il faut donc distinguer dans le procédé de l'invention, trois niveaux de traitement: Le niveau "élémentaire" qui met en oeuvre des algorithmes de traitement du signal qui sont en fait les éléments de base de tous
les traitements de niveau supérieur.
Ainsi, le niveau "élémentaire" de détection de voisement est un algorithme de calcul et de seuillage de la fonction de
corrélation Le résultat est expertisé par le niveau supérieur.
Ces traitements s'implantent sur processeurs de
traitement du signal, par exemple du type DSP 96000.
Le niveau intermédiaire d'expertise élabore des détections de voisements et de début de parole "intelligentes", compte tenu de la détection "brute" fournie par le niveau élémentaire L'expertise peut
faire appel à un langage informatique approprié, type Prolog.
Le niveau "supérieur" ou utilisateur gère en temps réel les différents algorithmes de détection, de débruitage et d'analyse du signal vocal Le langage C, par exemple, est approprié à
l'implémentation de cette gestion.
L'invention est décrite en détail ci-dessous selon le plan suivant On décrit d'abord l'algorithme qui permet d'enchaîner de façon appropriée les différentes techniques de traitement du signal
et d'expertises nécessaires.
On supposera à ce niveau de traitement le plus élevé dans la hiérarchie de conception, que l'on dispose de méthodes fiables de détection et de débruitage, comportant tous les algorithmes de traitement de signal, toutes les expertises,
nécessaires et suffisants Cette description est donc très générale.
Elle est même indépendante des algorithmes d'expertises et de traitement du signal décrits ci-après Elle peut donc s'appliquer à
d'autres techniques que celles décrites ici.
On décrit ensuite les expertises de détection de voisement, de début et fin de parole, à l'aide d'algorithmes de
niveau élémentaire dont certains exemples sont cités.
On décrit enfin les méthodes utilisées pour la détection et
le débruitage de la parole.
Ce sont les résultats de ces techniques (Parole voisée, non voisée,) qui sont utilisés par les niveaux supérieurs de traitement
Conventions et vocabulaire employé.
On appellera trame, l'unité temporelle élémentaire de traitement La durée d'une trame est classiquement de 12 8 ms, mais peut, bien entendu, avoir des valeurs (réalisations en langage mathématique) différentes Les traitements font appel à des transformées de Fourier discrètes des signaux traités Ces transformées de Fourier sont appliquées à l'ensemble des échantillons obtenus sur deux trames consécutives, ce qui
correspond à effectuer une transformée de Fourier sur 25 8 ms.
Lorsque deux transformées de Fourier sont consécutives dans le temps, ces transformées sont calculées, non pas sur quatre trames consécutives, mais sur trois trames consécutives avec un recouvrement d'une trame Ceci est illustré par le schéma suivant Trame 1 Trame 2 Trame 3
-< > < > 1 <'-I
< Première FFT > | < Deuxième FFT > On décrit d'abord ici le fonctionnement de l'algorithme au
niveau de conception le plus proche de l'utilisateur.
Le mode de mise en oeuvre préféré de l'invention est décrit ci-dessous en référence à l'analyse des signaux issus d'environnements avioniques très bruités, ce qui permet de disposer d'une information de départ qui est l'alternat micro qu'utilisent les pilotes Cette information indique une zone
temporelle proche du signal à traiter.
Cependant, cet alternat peut être plus ou moins rapproché du début effectif de la parole, et on ne peut donc y accorder qu'un faible crédit pour toute détection précise Il va donc falloir préciser le début effectif de parole à partir de cette première information. Dans un premier temps, on recherche la première trame voisée située aux alentours de cet alternat Cette première trame voisée, est recherchée tout d'abord parmi les Ni trames qui précèdent l'alternat (Ni = environ 30 trames) Si cette trame voisée n'est pas trouvée parmi ces Ni trames, alors on recherche le voisement sur les trames qui suivent l'alternat, au fur et à mesure
qu'elles se présentent.
Dès que la première trame voisée est trouvée par ce procédé, on va initialiser les débruiteurs Pour cela, il faut mettre en évidence des trames constituées uniquement de bruit Ces trames de bruit sont recherchées parmi les N 2 trames qui précèdent la première trame voisée (N 2 = environ 40 trames) En effet, chacune de ces N 2 trames est soit * constituée de bruit seul * constituée de bruit + respiration
* constituée de bruit + fricative ou occlusive non voisée.
L'hypothèse faite est que l'énergie du bruit est en moyenne inférieure à celle du bruit + respiration, elle-même
inférieure à celle du bruit + fricative.
Donc, si on considère parmi les N 2 trames, celle qui présente l'énergie la plus faible, il est fort probable que cette trame
n'est constituée que de bruit.
A partir de la connaissance de cette trame, on recherche toutes celles qui sont compatibles avec elle, et compatibles 2 à 2, au sens donné plus loin, au paragraphe "Compatibilités entre énergies". Lorsque les trames de bruit ont été détectées, on construit les deux modèles de bruit qui vont servir par la suite: * Modèle autorégressif du bruit permettant de construire le filtrage
réjecteur qui blanchit le bruit.
* Spectre moyen de bruit pour débruitage spectral.
Ces modèles sont décrits ci-dessous.
Les modèles de bruit étant construits, on blanchit (par filtre réjecteur et on débruite (par débruiteur spectral) les N 3 trames qui précèdent le voisement et parmi lesquelles on va chercher le début effectif de parole (N 3 = environ 30) Il va de soi que N 3 est inférieur à N 2 Cette détection se fait par détection de fricative et
est décrite ci-dessous.
Lorsque le début de parole est connu, on débruite toutes les trames comprises entre le début de parole et la première trame voisée, puis on paramétrise ces trames en vue de leur reconnaissance Au fur et à mesure que ces trames sont débruitées et paramétrisées, elles sont envoyées au système de reconnaissance. Puisque le début effectif de parole est connu, on peut
continuer à traiter les trames qui suivent la première trame voisée.
Chaque trame acquise n'est plus blanchie mais seulement débruitée, puis paramétrisée pour sa reconnaissance On effectue
sur chaque trame un test de voisement.
Si cette trame est voisée, le vecteur acoustique est
effectivement envoyé à l'algorithme de reconnaissance.
Si elle n'est pas voisée, on cherche si elle est en fait la
dernière trame du noyau vocalique en cours.
Si ce n'est pas la dernière trame du noyau vocalique, on acquiert une nouvelle trame et on réitère le procédé, jusqu'au
moment o l'on trouve la dernière trame voisée.
Lorsque la dernière trame voisée est détectée, on blanchit les N 4 trames qui suivent cette dernière trame voisée (N 4 = environ 30 trames), puis on recherche la fin effective de la parole parmi ces N 4 trames blanchies Le procédé associé à cette
détection est décrit ci-dessous.
Lorsque la fin effective de parole est détectée, les trames comprises entre la fin de voisement et cette fin de parole, sont débruitées, puis paramétrisées et envoyées au système de
reconnaissance vocale pure en vue de leur traitement.
Lorsque la dernière trame de parole a été débruitée, paramétrisée et envoyée au système de reconnaissance, on réinitialise tous les paramètres de traitement, en vue du traitement
de l'élocution suivante.
Comme on peut le voir, ce procédé est local à l'élocution traitée (c'està-dire qu'il traite chaque phrase ou chaque ensemble de mots sans "trou" entre mots), et permet donc d'être très adaptatif à tous changements de statistiques du bruit, d'autant plus que l'on utilise des algorithmes adaptatifs pour la modélisation auto-régressive du bruit, et des modèles théoriques relativement sophistiqués pour la détection des trames de bruit et la détection
des fricatives.
En l'absence d'alternat, le procédé est lancé dès qu'un
voisement est détecté.
Une simplification notable du procédé décrit ci-dessus est possible lorsque les signaux traités sont peu bruités L'utilisation des algorithmes de débruitage et de blanchiment peut alors se révéler inutile, voire néfaste, lorsque le niveau de bruit est négligeable (ambiance laboratoire) Ce phénomène est connu, notamment dans le cas du débruitage, o débruiter un signal très peu bruité peut induire une déformation de la parole préjudiciable à
une bonne reconnaissance.
Les simplifications résident dans la suppression du débruitage spectral pour reconnaissance en vue d'éviter toute déformation de la parole, ne compensant pas le gain en rapport signal sur bruit que l'on pourrait obtenir par
débruitage, et préjudiciable alors à une bonne reconnaissance.
dans l'éventuelle suppression du filtre de blanchiment (et donc du calcul du modèle autorégressif du bruit, ce qui implique aussi la suppression du module de confirmation de bruit) Cette suppression n'est pas forcément nécessaire en milieu peu bruité Des essais
préalables sont préférables pour en décider.
On va maintenant exposer en détail les procédures d'expertise de détection de voisement et détection de fricative Ces procédures d'expertises font appel à des outils bien connus de traitement du signal et de détection, qui sont autant d'automates de base, dont l'aptitude est de décider de manière brute si la trame traitée est voisée ou non, est une trame de fricative non voisée ou de plosive non voisée L'expertise consiste à combiner les différents résultats obtenus à l'aide desdits outils, de manière à mettre en évidence des ensembles cohérents, formant le noyau vocalique par exemple, ou
des blocs de sons fricatifs (plosifs), non voisés.
Par nature, le langage d'implémentation de telles
procédures est de préférence le PROLOG.
A la différence du processus décrit ci-dessus, cette
expertise est la même que le milieu soit bruité ou non.
Pour l'expertise de détection de voisement, on fait appel à un processus connu de détection de voisement, qui, pour une trame donnée, décide si cette trame est voisée ou non, en renvoyant la valeur du "pitch" associé à cette trame Le "pitch" est la fréquence de répétition du motif de voisement Cette valeur de
pitch est nulle, s'il n'y a pas de voisement, et non nulle sinon.
Cette détection élémentaire de voisement se fait sans utiliser des résultats portant sur les trames précédentes, et sans
présager du résultat portant sur les trames futures.
Comme un noyau vocalique peut être constitué de plusieurs segments voisés, séparés de trous non voisés, une
expertise est nécessaire, afin de valider ou non un voisement.
On va maintenant exposer les règles générales de l'expertise. Règle 1: Entre deux trames voisées consécutives ou séparées d'un nombre relativement faible de trames (de l'ordre de trois ou quatre trames), les valeurs de pitch obtenues ne peuvent différer de plus d'un certain delta (environ 20 Hz en fonction du locuteur) Par contre, lorsque l'écart entre deux trames voisées excède un certain
nombre de trames, la valeur de pitch peut évoluer très vite.
Règle 2: Un noyau vocalique est constitué de trames voisées entrecoupées de trous Ces trous doivent vérifier la condition suivante: la taille d'un trou ne doit pas excéder une taille maximale, qui peut être fonction du locuteur et surtout du 1 1 vocabulaire (environ 40 trames) La taille du noyau est la somme du
nombre de trames voisées et de la taille des trous de ce noyau.
Règle 3: le début effectif du noyau vocalique est donné dès que la
taille du noyau est suffisamment grande (environ 4 trames).
Règle 4: la fin du noyau vocalique est déterminée par la dernière trame voisée suivie d'un trou excédant la taille maximale permise
pour un trou dans le noyau vocalique.
Déroulement de l'expertise On utilise les règles précédentes de la manière exposée
ci-dessous, et lorsqu'une valeur de pitch a été calculée.
Première partie de l'expertise: On valide ou non la valeur du pitch calculée, en fonction de la valeur du pitch de la trame précédente et de la dernière valeur non nulle du pitch, et ce en fonction du nombre de trames séparant la trame actuellement traitée et celle du dernier pitch non nul Ceci
correspond à l'application de la règle 1.
Deuxième partie de l'expertise: Cette deuxième partie de l'expertise se décompose
suivant différents cas.
Cas 1: Première trame voisée On incrémente la taille possible du noyau, qui vaut donc 1 Le début possible du noyau vocalique est donc la trame actuelle La fin possible du noyau vocalique est donc la trame actuelle
Cas 2: La trame actuelle est voisée ainsi que la précédente.
On traite donc un segment voisé.
On incrémente le nombre possible de trames voisées du noyau On incrémente la taille possible du noyau La fin possible du noyau peut être la trame actuelle qui est aussi
la fin possible du segment.
Si la taille du noyau est suffisamment grande (environ quatre
trames, comme précisé ci-dessus).
Et Si le début effectif du noyau vocalique n'est pas connu.
Alors:
le début du noyau est la première trame détectée comme voisée.
Ceci correspond à la mise en oeuvre de la règle 3.
Cas 3: la trame actuelle n'est pas voisée, alors que la trame
précédente l'est.
On est en train de traiter la première trame d'un trou. On incrémente la taille du trou, qui passe à 1 Cas 4: La trame actuelle n'est pas voisée et la trame précédente
non plus.
On est en train de traiter un trou.
On incrémente la taille du trou.
Si la taille du trou excède la taille maximale autorisée pour un trou du noyau vocalique, Alors: Si le début effectif de voisement est connu, Alors: la fin du noyau vocalique est la dernière trame voisée déterminée avant ce trou On arrête l'expertise et on réinitialise toutes les données pour le traitement de la prochaine élocution (cf règle 4) Si le début effectif de parole n'est toujours pas connu, Alors: On continue l'expertise sur les trames suivantes après réinitialisation de tous les paramètres utilisés, car ceux qui ont été
actualisés précédemment ne sont pas valides.
Sinon, ce trou fait peut-être partie du noyau vocalique et on ne
peut pas encore prendre de décision définitive.
Cas 5: La trame actuelle est voisée et la précédente ne l'est pas.
On vient de terminer un trou, et on commence un
nouveau segment voisé.
On incrémente le nombre de trames voisées du noyau.
On incrémente la taille du noyau.
Si le trou que l'on vient de finir peut faire partie du noyau vocalique, (c'est-à-dire si sa taille est inférieure à la taille maximale
autorisée pour un trou du noyau selon la règle 2).
Alors: On ajoute à la taille actuelle du noyau la taille de ce trou. On réinitialise la taille du trou, pour traitement des
prochaines trames non voisées.
Si le début effectif du voisement n'est pas encore connu, Et Si la taille du noyau est désormais suffisante(Règle 3), Alors: le début du voisement est le début du segment voisé
précédant le trou que l'on vient de terminer.
Sinon, ce trou ne peut pas faire partie du noyau vocalique Si le début effectif du voisement est connu, Alors: la fin du noyau vocalique est la dernière trame voisée déterminée avant ce trou On arrête l'expertise et on réinitialise toutes les données pour le traitement de la prochaine élocution (cf
règle 4).
Si le début effectif de voisement n'est toujours pas connu, Alors On continue l'expertise sur les trames suivantes après réinitialisation de tous les paramètres utilisés, car ceux qui ont été
actualisés précédemment ne sont pas valides.
Cette procédure est utilisée à chaque trame, et après
calcul du pitch associé à cette trame.
Expertise de détection de la parole non voisée.
On utilise ici un processus connu en soi de détection de
parole non voisée.
Cette détection élémentaire de voisement se fait sans utiliser des résultats portant sur les trames précédentes, et sans
présager du résultat portant sur les trames futures.
Des signaux de parole non voisés placés en début ou en fin d'élocution, peuvent être constitués: d'un seul segment fricatif comme dans "chaff" d'un segment fricatif suivi d'un segment occlusif comme dans "stop" d'un seul segment occlusif comme dans "parole" Il y a donc possibilité de trous dans l'ensemble de trames
non voisées.
De plus, de tels blocs fricatifs ne doivent pas être trop grands Aussi, une expertise intervenant après la détection de ces
sons est-elle nécessaire.
Dans la suite, par abus de langage, le terme fricatif se rapportera tout aussi bien à des fricatives non voisées qu'à des
plosives non voisées.
Règles générales de l'expertise.
L'expertise exposée ici est similaire à celle décrite ci-
dessus dans le cas du voisement Les différences tiennent essentiellement dans la prise en compte des paramètres nouveaux que sont la distance entre le noyau vocalique et le bloc fricatif, et la
taille du bloc fricatif.
Règle 1: la distance entre le noyau vocalique et la première trame fricative détectée ne doit pas être trop grande (environ 15 trames maximum)
Règle 2: la taille d'un bloc fricatif ne doit pas être trop grande.
Ceci signifie de manière équivalente, que la distance entre le noyau vocalique et la dernière trame détectée comme fricative ne doit pas
être trop grande (environ 10 trames maximum).
Règle 3: la taille d'un trou dans un bloc fricatif ne doit pas excéder une taille maximale (environ 15 trames maximum) La taille totale du noyau est la somme du nombre de trames voisées et de la taille
des trous dans ce noyau.
Règle 4: le début effectif du bloc fricatif est déterminé dès que la taille d'un segment est devenue suffisante, et que la distance entre le noyau vocalique et la première trame de ce segment fricatif traité n'est pas trop grande, conformément à la règle 1 Le début effectif
du bloc fricatif correspond à la première trame de ce segment.
Règle 5: la fin du bloc fricatif est déterminée par la dernière trame du bloc fricatif suivie d'un trou excédant la taille maximale autorisée pour un trou dans le noyau vocalique, et lorsque la taille du bloc fricatif ainsi déterminé n'est pas trop grande conformément
à la règle 2.
Déroulement de l'expertise.
Cette expertise est utilisée pour détecter les blocs fricatifs précédant le noyau vocalique ou le suivant Le repère choisi
dans cette expertise est donc le noyau vocalique.
Dans le cas de la détection d'un bloc fricatif précédant le noyau vocalique, le traitement se fait en partant de la première trame de voisement, donc en "remontant" dans le temps Aussi, lorsque l'on dit qu'une trame i suit une trame j (précédemment traitée), il faut entendre par là: vis-à-vis de cette première trame du noyau vocalique Dans la réalité, la trame j est chronologiquement postérieure à la trame i Ce que l'on dénomme début du bloc fricatif dans l'expertise décrite ci- après, est en fait, chronologiquement, la fin de ce bloc, et ce que l'on appelle fin du bloc fricatif, est en fait le début chronologique de ce bloc La distance entre noyau vocalique et trame détectée comme fricative est la distance entre la première trame du bloc voisé et cette trame
de fricative.
Dans le cas de la détection d'un bloc fricatif situé après le noyau vocalique, le traitement se fait après la dernière trame voisée, et suit donc l'ordre chronologique naturel, et les termes de
l'expertise sont parfaitement adéquats.
Cas 1: Tant qu'il n'y a pas de détection de fricative, on est dans
un trou qui suit le noyau vocalique et précède le bloc fricatif.
On incrémente la distance entre le segment voisé et le bloc fricatif Cette distance ainsi calculée est un minorant de la distance entre le blocfricatif et le noyau vocalique Cette distance sera figée
dès que la première trame de fricative sera détectée.
Cas 2: Première détection de fricative, On commence à traiter un
segment fricatif.
On initialise la taille du bloc fricatif à 1.
On fige la distance entre le bloc voisé et le bloc fricatif.
Si la distance entre le noyau vocalique et le bloc fricatif n'est pas
trop grande (conformément à la règle 2).
Alors: Le début possible du bloc fricatif peut être la trame
actuelle.
La fin possible du bloc fricatif peut être la trame actuelle. Si la taille du bloc fricatif est suffisamment grande Et Si le début effectif du bloc fricatif n'est pas encore connu, alors
le début du noyau peut être confirmé.
On notera que ce Si (dans "Si la taille du bloc fricatif est suffisamment grande") est inutile si la taille minimale pour un bloc fricatif est supérieure à une trame, mais lorsqu'on cherche à détecter des occlusives en milieu bruité, celles-ci peuvent n'apparaître que sur la durée d'une seule trame Il faut donc prendre alors la taille minimale d'un bloc fricatif égale à 1, et
conserver cette condition.
Si la distance entre le noyau vocalique et le bloc fricatif est trop
grande (cf règle 2).
Il n' y pas de bloc fricatif acceptable.
On réinitialise pour le traitement de la prochaine élocution.
On sort du traitement.
Comme le test sur la distance entre noyau vocalique et bloc fricatif est réalisé dès la première détection de fricative, il ne sera pas renouvelé dans les cas suivants, d'autant plus que si cette distance
est ici trop grande, la procédure est arrêtée pour cette élocution.
Cas 3: La trame actuelle et la précédente sont toutes les deux des
trames de fricatives.
On est en train de traiter une trame qui se situe en plein dans un segment fricatif acceptable (situé à une distance correcte du noyau
vocalique conformément à la règle 1).
La fin possible du bloc fricatif est la trame actuelle.
On incrémente la taille du bloc fricatif.
Si la taille du bloc fricatif est suffisamment grande (cf règle 4).
Et Si la taille de ce bloc n'est pas trop grande (cf règle 2).
Et Si le début effectif du bloc fricatif n'est pas encore connu, alors: le début du noyau peut être confirmé comme étant le
début de ce segment fricatif.
Cas 4: La trame actuelle n'est pas une fricative contrairement à la
trame précédente.
On est en train de traiter la première trame d'un trou
situé à l'intérieur du bloc fricatif.
On incrémente la taille totale du trou (qui devient égale à 1).
Cas 5: Ni la trame actuelle ni la précédente ne sont des trames de fricatives. On est en train de traiter une trame située en plein dans
*un trou du bloc fricatif.
On incrémente la taille totale du trou.
Si la taille actuelle du bloc fricatif augmentée de la taille du trou est supérieure à la taille maximale autorisée pour un bloc fricatif
(règle 2).
Ou Si la taille du trou est trop grande.
Si le début du bloc fricatif est connu, alors: La fin du bloc fricatif est la dernière trame détectée comme fricative. On réinitialise toutes les données de manière à traiter la prochaine élocution. Sinon on réinitialise toutes les données, même celles qui
ont été précédemment actualisées, car elles ne sont plus valides.
On traite alors la prochaine trame.
Sinon, ce trou fait peut-être partie du bloc fricatif et on ne peut pas
encore prendre de décision définitive.
Cas 6: La trame actuelle est une trame de fricative contrairement à
la trame précédente.
On traite la première trame d'un segment fricatif situé après un trou.
On incrémente la taille du bloc fricatif.
Si la taille actuelle du bloc fricatif augmentée de la taille du trou précédemment détecté est supérieure à la taille maximale autorisée pour un bloc fricatif, Ou Si la taille du trou est trop grande, alors: Si le début du bloc fricatif est connu, alors: La fin du bloc fricatif est alors la dernière trame
détectée comme fricative.
On réinitialise toutes les données de manière à traiter
la prochaine élocution.
Sinon, On réinitialise toutes les données, même celles qui ont été précédemment actualisées, car elles ne sont pas valides On
traite alors la prochaine trame.
Sinon, (le trou fait partie du segment fricatif).
La taille du bloc fricatif est augmentée de la taille du trou La taille du trou est réinitialisée à O Si la taille du bloc fricatif est suffisamment grande Et Si cette taille n'est pas trop grande Et Si le début effectif du bloc fricatif n'est pas connu Alors:
Le début du noyau peut être confirmé.
Simplification dans le cas d'un milieu peu bruité.
Dans le cas o l'utilisateur estime que le milieu est insuffisamment bruité pour nécessiter les traitements sophistiqués précédents, il est possible, non seulement de simplifier l'expertise présentée ci-dessus, mais même de l'éliminer Dans ce cas, la détection de parole se réduira à une simple détection du noyau vocalique auquel on attache un intervalle de confiance exprimé en nombre de trames, ce qui se révèle suffisant pour améliorer les performances d'un algorithme de reconnaissance vocale Il est ainsi possible de débuter la reconnaissance une dizaine, voire une quinzaine de trames avant le début du noyau vocalique, et de l'achever, une dizaine, voire une quinzaine de trames après le
noyau vocalique.
Algorithmes de Traitement du Signal.
Les procédures et méthodes de calcul décrits ci-après sont les constituants utilisés par les algorithmes d'expertises et de gestion De telles fonctions sont avantageusement implantées sur un processeur de signaux et le langage utilisé est de préférence l'Assembleur. Pour la détection de voisement en milieu peu bruité, une solution intéressante est le seuillage de l'A M D F (Average
Magnitude Difference Function) dont la description peut être
trouvée par exemple dans l'ouvrage "Traitement de la parole" de R BOITE/M KUNT paru aux éditions Presses Polytechniques Romandes. L'AMDF est la fonction D(k) = Xn Ix(n+k) x(n)I Cette fonction est bornée par la fonction de corrélation, selon: D(k) < 2 (rx(O) Ix(k))1/2 Cette fonction présente donc des "pics" vers le bas, et doit donc être seuillée comme la fonction de corrélation. D'autres méthodes basées sur le calcul du spectre du signal sont envisageables, pour des résultats tout aussi acceptables (article "traitement de la parole" précité) Toutefois, il est intéressant d'utiliser la fonction AMDF, pour de simples questions
de coûts de calcul.
En milieu bruité, la fonction AMDF est une distance entre le signal et sa forme retardée Cependant, cette distance est une distance qui n'admet pas de produit scalaire associé, et qui ne
permet donc pas d'introduire la notion de projection orthogonale.
Or, dans un milieu bruité, la projection orthogonale du bruit peut être nulle, si l'axe de projection est bien choisi L'AMDF n'est donc
pas une solution adéquate en milieu bruité.
Le procédé de l'invention est alors basé sur la corrélation, car la corrélation est un produit scalaire et effectue une projection orthogonale du signal sur sa forme retardée Cette méthode est, par là- même, plus robuste au bruit que d'autres techniques, telles l'AMDF En effet, supposons que le signal observé soit x(n) = s(n)
+ b(n) o b(n) est un bruit blanc indépendant du signal utile s(n).
La fonction de corrélation est par définition: Fx(k) = Elx(n)x(n-k)l, donc Ix(k) = Els(n)s(n-k)l + Elb(n)b(n-k)l = F 5 (k> + Fb(k> Comme le bruit est blanc: Fx(o) = Is(o) + Fb(O) et Fx(k) = FS(k) pour k É O La blancheur du bruit en pratique n'est pas une hypothèse valide Cependant, le résultat reste une bonne approximation dès que la fonction de corrélation du bruit décroît rapidement, et pour k suffisamment grand, comme dans le cas d'un bruit rose (bruit blanc filtré par un passe- bande), o la fonction de corrélation est un sinus cardinal, donc pratiquement nulle dès que k
est suffisamment grand.
On va décrire maintenant une procédure de calcul de pitch et de détection de pitch applicable aux milieux bruités comme
aux milieux peu bruités.
Soit x(n) le signal traité o N E { 0,, N-1}.
Dans le cas de l'AMDF, r(k) = D(k) = E N J x(n+k) x(n) l Dans le cas de la corrélation, l'espérance mathématique permettant d'accéder à la fonction de corrélation ne peut qu'être estimée, de sorte que la fonction r(k) est: r(k) = K o O < N < N-1 x(n)x(n-k) o K est
une constante de calibration.
Dans les deux cas, on obtient théoriquement la valeur du pitch en procédant comme suit: r(k) est maximale en k = 0 Si le second maximum de r(k) est obtenu en k = k 0, alors la valeur du voisement est F O = Fe/ko o
Fe est la fréquence d'échantillonnage.
Cependant, cette description théorique doit être révisée en
pratique. En effet, si le signal n'est connu que sur les échantillons O à N-1, alors x(n-k) est pris nul tant que N n'est pas supérieur à k Il n'y aura donc pas le même nombre de points de calcul d'une valeur k à l'autre Par exemple, si la fourchette du pitch est prise égale à l 100 Hz, 333 Hzl, et ce, pour une fréquence d'échantillonnage de 10 K Hz, l'indice k 1 correspondant à 100 Hz vaut: k 1 = Fe/FO = 10000/100 = 100 et celui correspondant à 333 Hz vaut
k 2 = Fe/FO = 10000/333 = 30.
Le calcul du pitch pour cette fourchette se fera donc de k = 30 à
k= 100.
Si on dispose par exemple de 256 échantillons ( 2 trames de 12,8 ms échantillonnées à 10 K Hz), le calcul de r( 30) se fait de N = 30 à N = 128, soit sur 99 points et celui de r( 100) de N = 100 à 128, soit sur 29 points. Les calculs ne sont donc pas homogènes entre eux et n'ont pas la
même validité.
Pour que le calcul soit correct, il faut que la fenêtre d'observation soit toujours la même quel que soit k De sorte que si n-k est inférieure à 0, il faut avoir conservé en mémoire les valeurs passées du signal x(n), de manière à calculer la fonction r(k)sur autant de points, quel que soit k La
valeur de la constante K n'importe plus.
Ceci n'est préjudiciable au calcul du pitch que sur la première trame réellement voisée, puisque, dans ce cas, les échantillons utilisés pour le calcul sont issus d'une trame non voisée, et ne sont donc pas représentatifs du signal à traiter Cependant, dès la troisième trame voisée consécutive, lorsqu'on travaille, par exemple, par trames de 128 points échantillonnés à K Hz, le calcul du pitch sera valide Ceci suppose, de manière générale, qu'un voisement dure au minimum 3 x 12,8 ms, ce qui est une hypothèse réaliste Cette hypothèse devra être prise en compte lors de l'expertise, et la durée minimale pour valider un segment voisé sera de 3 x 12,8 ms dans cette
même expertise.
Cette fonction r(k) étant calculée, il s'agit ensuite de la seuiller.
Le seuil est choisi expérimentalement, selon la dynamique des signaux traités Ainsi, dans un exemple d'application, o la quantification se fait sur 16 bits, o la dynamique des échantillons n'excède pas 10000, et o les calculs se font pour N = 128 (Fréquence d'échantillonnage de 10 K Hz), on a choisi Seuil = 750000 Mais rappelons que ces valeurs ne sont données qu'à titre d'exemple pour des applications particulières, et doivent être modifiées pour d'autres applications En tout cas, cela ne change rien à la méthodologie
décrite ci-dessus.
On va maintenant exposer le procédé de détection des trames de bruit.
En-dehors du noyau vocalique, les trames de signal que l'on peut rencontrer, sont de trois types: 1) bruit seul 2) bruit + fricative non voisée
3) bruit + respiration.
L'algorithme de détection vise à détecter le début et la fin de parole à partir d'une version blanchie du signal, tandis que l'algorithme de débruitage nécessite la connaissance du spectre moyen de bruit Pour construire les modèles de bruit qui vont permettre de blanchir le signal de parole en vue de la détection des sons non voisés comme décrit cidessous, et pour débruiter le signal de parole, il est évident qu'il faut détecter les trames de bruit, et les confirmer en tant que telles Cette recherche des trames de bruit se fait parmi un nombre de trames N 1 défini par l'utilisateur une fois pour toutes pour son application (par exemple pour N 1 = 40), ces N 1 trames
étant situées avant le noyau vocalique.
Rappelons que cet algorithme permet la mise en oeuvre de modèles de bruit, et n'est donc pas utilisé lorsque l'utilisateur juge le niveau
de bruit insuffisant.
On va d'abord définir les variables aléatoires gaussiennes "positives":
Une variable aléatoire X sera dite positive lorsque Pr{ X < O} < < 1.
Soit X O la variable centrée normalisée associée à X On a:
Pr { X < 0} =Pr{X O < -m/lo} o m =ElXlet o-2 =El(X-m)2 l.
Dès que m/o est suffisamment grand, X peut être considérée
comme positive.
Lorsque X est gaussienne, on désigne par F(x) la fonction de répartition de la loi normale, et on a: Pr { X < 0} = F(-m/a) pour X E N(m,u 2) Une propriété essentielle immédiate est que la somme X de N variables gaussiennes positives indépendantes Xi E N (mi; ì 2) reste une variable gaussienne positive: X= Eki<NX i N(ki<Nmj;z, 1 <i<Ncli) Résultat fondamental: Si X = X 1/X 2 o X 1 et X 2 sont toutes deux des variables aléatoires gaussiennes, indépendantes, telles que X 1 E N( ml; a 12) et X 2 E N( m 2; u 22), on pose m = ml/m 2, col = ml/a 11, a 2 = m 2/a 2 Lorsque a 1 et 02 sont suffisamment grands pour pouvoir supposer X 1 et X 2 positives, la densité de probabilité fx(x) de X = X 1/X 2 peut alors être approchée par: 2 2 fx(x) = ( 2 T)
2 2
c 1 x+ oc 2 m Cla 2 m 2 2 2 2 3/2 e (a 1 lx +a 2 m) o U(x) est la fonction indicatrice de R+: U(x) = 1 six < O Oet U(x) = O six < O Dans toute la suite, on posera: f(x, y) ac, 13) =( 2) a 1/2 ( y 2 2
22 2 23/2
(ax + P y a,B (x-y)2
2 ( 22 2 2)
de sorte que: fx(x) = f(x,m i al,a 2) U(x) x-y Soith (x,yl,3)= a 3 22 c 2 1/2 (a x + 5 y On pose P(x,yla,B) = Flh(x,y I a,Bl)l On a alors: Pr {X < x} = P(x,mlal,a 2) f(x,yla,B) = a P(x,yla,B)/ax et f(x,y 'l,a 2) = a P(x,m Oqa 2)/ax Cas particulier: a = B On posera: f,(x,y) = f(x,yla,Bfl), h (x,y) = h(x,y a c,B) et P,(x,y) = P(x,y la,B) On va décrire ci-dessous quelques modèles de base de variables
gaussiennes "positives" utilisables dans la suite.
( 1) Signal à énergie déterministe: Soient les échantillons x( 0), x(N- 1) d'un signal quelconque, dont l'énergie est déterministe et constante, ou approximée par une énergie déterministe ou constante. Onadonc U= EO< n< N-1 x(n)2 E N(NX, 0) o i = ( 1/N) E O < N < N-1 x(n)2 Prenons comme exemple le signal x(n) = A cos(n+ 0) o O est équiréparti entre l 0,2 Trl Pour N suffisamment grand, on a: (li N) 50 <_ n< N-1 x(n)2 # Elx(n)2 l = A 2/2 Pour N assez grand, U
peut être assimilé à NA 2/2 et donc à une énergie constante.
( 2) Processus Blanc Gaussien: Soit un processus blanc et gaussien x(n) tel
que O-x 2 = Elx(n)2 l.
Pour N suffisamment grand,
U = O _ n< N-1 x(n)2 E N( Nax 2; 2 No-x 4).
Le paramètre a est a = (N/2)1/2 ( 3) Processus Gaussien Bande Etroite: Le bruit x(n) est issu de l'échantillonnage du processus x(t), lui-même issu du filtrage d'un bruit blanc gaussien b(t) par un filtre passe bande h(t): x(t) = (h*b)(t), en supposant que la fonction de transfert du filtre h(t) est: H(f) = Ul-f 0-B/2,-f O +B/2 l(f) + Ulf 0-B/2,f O + B/2 l(f), o U désigne la fonction caractéristique de l'intervalle en indice et f O la
fréquence centrale du filtre.
On a donc U E N( Nax 2,2 ax 40 <o<i<N 10 o<j<N-lgf 0,B,Te(ii-j)2) avec gf O,B,Te(k) = cos( 2 irkfo Te)sinc(rk B Te) Le paramètre a est a = N/l 2 Y i N 10 i <N-1,0 j <N-lgf O,B,Te(i-J)2 l 1/2 Sous- échantillonnage d'un processus gaussien: Ce modèle est plus pratique que théorique Si la fonction de corrélation est inconnue, on sait cependant que: lim k -, + I'x(k) = 0 Donc, pour k assez grand tel que k > k 0, la fonction de corrélation tend vers 0 Aussi, au lieu de traiter la suite d'échantillons x( 0) x(N-1), peut-on traiter la sous-suite x( 0), x(ko),x( 2 ko),, et l'énergie associée à cette suite reste une variable aléatoire positive gaussienne, à condition qu'il reste dans cette sous- suite suffisamment de points pour pouvoir appliquer les approximations dues au
théorème central-limite.
Compatibilité entre énergies.
Soient C 1 = N(ml,u 12) et C 2 = N(m 2,a 22) On pose: m = ml/m 2, ai = ml/li et a 2 = m 2/a-2 al et a 2 sont suffisamment grands pour que les variables aléatoires de C 1 et
C 2 puissent être considérées comme des variables aléatoires positives.
Soit (U,V) o (U,V) appartient à (C 1 UC 2)X(C 1 UC 2).
Comme précédemment, U et V sont supposées indépendantes.
On pose U V X (U,V) E (C 1 XC 1)U(C 2 UC 2).
Soit (u,v) une valeur du couple (U,V) Si x = u/v, x est une valeur de la
variable aléatoire X = U/V.
Soit S > 1.
1/s < x < S X On décide que U V est vrai, ce qui sera la décision
D =D 1
x < 1/s ou x > S * On décide que U V est faux, ce qui sera la décision D = D 2 Cette règle de décision est donc associée à 2 hypothèses:
H 1 < U = Vest vrai, H 2 * U 8 Vest faux.
On posera I = l 1/s,sl.
La règle de détection s'exprime encore selon: x E I X D = D 1, x E R- Ix*D =D 2 On dira que u et v sont compatibles lorsque la décision D = D
sera prise.
Cette règle de décision admet une probabilité de décision correcte, dont l'expression dépendra en fait de la valeur des probabilités Pr{H 1} et Pr{H 2}
Or, ces probabilités ne sont en général pas connues en pratique.
On préfere alors une approche du type Neyman-Pearson, puisque la règle de décision se réduit à deux hypothèses, en cherchant à assurer une certaine valeur fixée a priori pour la probabilité de fausse alarme qui est: Pfa = Pr { D 1 H 2} = P(s,mlalta 2) P( 1/s,mlal,O 2) Le choix des modèles des signaux et des bruits détermine ai et a 2 Nous allons voir qu'alors m apparaît comme homogène à un rapport signal sur bruit qui sera fixé de manière heuristique Le seuil est alors fixé de manière à assurer une certaine valeur de Pfa Cas particulier: aol = z 2 = a Il vient alors: Pfa = Pa(s,m) Pa(l/s,m) Compatibilité d'un ensemble de valeurs: Soit { u 1,, un} un ensemble de valeurs de variables aléatoires gaussiennes positives On dira que ces valeurs sont compatibles entre elles, si
et seulement si les ui sont compatibles 2 à 2.
Modèles du signal et du bruit utilisés par le procédé de l'invention.
Afin d'appliquer les procédures correspondant aux rappels théoriques précédents, il faut fixer un modèle du bruit et du signal Nous utiliserons l'exemple suivant Ce modèle est régi par les hypothèses suivantes: Hypothèse 1: Nous supposons ne pas connaitre le signal utile dans sa forme, mais nous ferons l'hypothèse suivante: V la valeur s( 0),,s(N-l) de s(n), l'énergie S = (li N) E O < n__ N-1 s(n)2 est bornée par j Us 2, et ce, dès que N est suffisamment grand, de sorte que: S = EO_ n_ N-1 s(n)2 > Ns 2 Hypothèse 2: Le signal utile est perturbé par un bruit additif noté x(n), que l'on suppose gaussien et en bande étroite On suppose que le processus
x(n) traité est obtenu par filtrage bande étroite d'un bruit blanc gaussien.
La fonction de corrélation d'un tel processus est alors:
r'x(k) = rx( 0)cos( 27 rkf O Te)sinc(Trk B Te).
Si on considère N échantillons x(n) de ce bruit, et qu'on pose: gf 0,B, Te(k) = cos( 2 rkf O Te)sinc(rk B Te), on a: V = ( 1 N) E O < N < N-1 x(n)2 E N( Nax 2, 2 ux 4 E o <i < N 1,0 <j <N-lgf 0,B,Te(i-j)2) Le paramètre a de cette variable est a = N/l 2 FO<i< N-1,0 <j<N-lgf 0,B Te(ij)2 l 1/2
Hypothèse 3: Les signaux s(n) et x(n) sont alors supposés indépendants.
On suppose que l'indépendance entre s(n) et x(n) implique la décorrélation au sens temporel du terme, c'est-à-dire que l'on peut écrire: E O < n_< N-ls(n)x(n)
C = = O
( O O< n< N-1 s(n)2)1/2 (O O < n_ N-1 x(n)2)1/2 Ce coefficient de corrélation n'est que l'expression dans le domaine temporel du coefficient de corrélation spatial défini par:
Els(n)x(n)l/(Els(n)2 lElx(n)2 l)1/2 lorsque les processus sont ergodiques.
Soit u(n) = s(n) + x(n) le signal total, et U = E O < N < N-1 u(n)2.
On peut alors approximer U par: U = O _< n< N-1 s(n)2 + Eo< n< N-_l X(n)2 Commeon a: O _< n_ N-1 s(n)2 > S 2, on aura: U 2 Ngs 2 + E O _ n_ N-1 x(n)2 Hypothèse 4: Comme nous supposons que le signal présente une énergie moyenne bornée, nous supposerons qu'un algorithme capable de détecter
une énergie jis 2, sera capable de détecter tout signal d'énergie supérieure.
Compte tenu des hypothèses précédentes, on définit la classe C 1 comme étant la classe des énergies lorsque le signal utile est présent Selon l'hypothèse 3, U > Ngs 2 + EO_ n_ N-1 x(n)2, et selon l'hypothèse 4, si on détecte l'énergie Ngs 2 + E O O n_ N-1 x(n)2, on saura détecter aussi l'énergie totale U. D'après l'hypothèse 2, Ns 2 + O OC n< N-1 x(n)2 E N( Nis 2 + Nax 2, 2 ux 4 E Oi< O _ ai _ N lgf 0,B,Te(i-j)2) Donc Cl = N(N Ls 2 +Nux 2, 2 Ox 4 E O i<N-1,0 j < N-lgf 0,B,Te(i-j)2) et le paramètre a de cette variable vaut al = N(l+r)/l 2 O <i<_ N-1,0 <j<N-lgf 0,B,Te(i-j)2 l 1/2,
o r = S 2/Iax 2 représente le rapport signal à bruit.
C 2 est la classe des énergies correspondant au bruit seul D'après l'hypothèse 2, si les échantillons de bruit sont x( 0),,x(M-1), ilvient V = (l/M) O _< n_ M-1 x(n)2 E N(Mo'x 2,
2 ax 4 _Oi< M-1,0 <j <M-lgf 0,B,Te(i-j)2).
Le paramètre a de cette variable est: a 2 = M/l 2 o O <i M-1,0 <j _<M- lgf 0,B,Te(i-j)2 l 1/2 On a donc: C 1 = N(ml,u 12) et C 2 = N(m 2,a 22), avec: m 1 = N/gs 2 + No-x 2, m 2 = Max 2, Y = ax I 2 l 2 i O ___i__ N-1, 0 <j _N-lgf,B,Te(i-j)2 l 1/2 et
a 2 = ux 2 l 2 ZO_<i< M-l,0 <j<M-lgf 0,B,Te(i-J)2 l 1/2.
D'o m = ml/m 2 = (N/M)( 1 +r), a 1 = ml/ol = N( 1 +r)/l 20 _i_< N-1,0 <j<N-lgf 0,B Te(i-j)2 ll/2 et
a 2 = m 2/a 2 = M/l 2 O<_i< M-1,0 _j<M-lgf 0,B,Te(i-J)2 l 1/2.
On remarquera que: si le bruit d'origine est blanc et gaussien, les hypothèses précédentes restent encore valables Il suffit de remarquer qu'alors gfo,B,Te(k) = ô 0 (k) Les formules précédentes s'en trouvent simplifiées: C 1 = N(ml,c 12) et C 2 = N(m 2,a 22),
avec: m 1 = N/s 2 + Na-x 2, m 2 = Mo-x 2, u-2 = 2 Nax 4 et o-2 = 2 M Ox 4.
D'out m = ml/m 2 = (N/M)(i+r), cal = ml/ol = (l+r)(N/2)1/2 et
ct 2 = m 2/I 2 = (M/2)1/2.
Il est possible de tendre vers un tel modèle en sous-échantillonnant le bruit, et ne prenant du bruit qu'un échantillon sur k O échantillons o k O est tel
que: Vk> k 0, rx(k)-0.
la notion de compatibilité entre énergies ne se met en place que conditionnellement à la connaissance a priori du paramètre m, donc du rapport signal à bruit r Celui-ci peut être fixé de manière heuristique à partir de mesures préliminaires des rapports signaux à bruit que présentent les signaux que l'on ne veut pas détecter par l'algorithme de confirmation de bruit, ou fixé de manière péremptoire La seconde solution est utilisée de préférence En effet, l'objet de ce traitement vise à mettre en évidence, non pas toutes les trames de bruit, mais seulement quelques unes présentant une forte probabilité de n'être constituées que de bruit On a donc tout intérêt à ce que l'algorithme soit très sélectif Cette sélectivité s'obtient en jouant sur la valeur de la probabilité de fausse alarme que l'on décide d'assurer et qui sera donc choisie très faible (la sélectivité maximale étant établie pour PFA = 0, ce qui conduit à un seuil nul et à aucune détection de bruit, ce qui est le cas extrême et absurde) Mais cette sélectivité s'obtient aussi par le choix de r: choisi trop grand, on risque de considérer des énergies comme représentatives du bruit, alors que ce sont des énergies de respiration, par exemple, présentant un rapport signal à bruit inférieur à r A contrario, choisir un r trop petit peut limiter la PFA accessible, qui serait alors trop forte pour être acceptable. Compte tenu des modèles précédents, et le calcul du seuil ayant été fait, on applique alors l'algorithme suivant de détection et de confirmation de bruit, basé essentiellement sur la notion de compatibilité,
telle que décrite ci-dessus.
La recherche et la confirmation des trames de bruit se fait parmi un nombre de trames N 1 défini par l'utilisateur une fois pour toute pour son application (par exemple N 1 = 40), ces trames étant situées avant le noyau vocalique On fait l'hypothèse suivante: l'énergie des trames de bruit seul est en moyenne inférieure à celle des trames de bruit+ respiration et de bruit signal La trame présentant l'énergie minimale parmi les N 1 trames, est donc supposée n'être constituée que de bruit On cherche alors toutes les trames compatibles avec cette trame au sens rappelé ci-dessus, en utilisant les
modèles précités.
L'algorithme de détection de bruit va chercher, parmi un ensemble de trames Tl, Tn, celles qui peuvent être considérées comme du bruit. Soient E(T 1),,E(Tn), les énergies de ces trames, calculées sous la forme: E(Ti) = Y O o< N < N-1 u(n)2 o u(n) sont les N échantillons
constituant la trame Ti.
On fait l'hypothèse suivante: la trame présentant l'énergie la plus
faible est une trame de bruit Soit Tio cette trame.
L'algorithme se déroule comme suit: L'ensemble des trames de bruit est initialisé: Bruit= {Tio} Pour i décrivant { E(Tl), -,E(Tn)} {E(Tio)} Faire Si E(Ti) est compatible avec chaque élément de Bruit: Bruit = Bruit U {E(Ti)} Fin pour
Modèle Autorégressif du bruit.
Puisque l'algorithme de confirmation de bruit fournit un certain nombre de trames qui peuvent être considérées comme du bruit avec une très forte probabilité, on cherche à construire, à partir de la donnée des échantillons temporels, un modèle autorégressif du bruit. Si x(n) désigne les échantillons de bruit, on modélise x(n) sous la forme: x(n) = E 1 < i < p ai x(n-i) + b(n), o p est l'ordre du modèle, les ai, les coefficients du modèle à déterminer et b(n) le bruit de modélisation, supposé blanc et gaussien si on suit une approche par maximum
de vraisemblance.
Ce type de modélisation est largement décrit dans la littérature notamment dans "Spectrum Analysis A Modern Perspective", de S.M KAY et S L MARPLE Jr, paru dans Proceedings of the IEEE, Vol 69, N 11, novembre 1981 Quant aux algorithmes de calcul du modèle, de nombreuses méthodes sont disponibles (Burg, Levinson-Durbin, Kalman, Fast Kalman). On utilise de préférence les méthodes du type Kalman et Fast Kalman, voir articles "Le Filtrage Adaptatif Transverse" de O MACCHI/ M BELLANGER paru dans la revue Traitement du Signal, Vol 5, N 3, 1988 et "Analyse des signaux et filtrage numérique adaptatif" de M. BELLANGER paru dans la Collection CNET-ENST, MASSON, qui présentent de très bonnes performances temps réel Mais ce choix n'est pas le seul possible L'ordre du filtre est par exemple choisi égal à 12, sans que
cette valeur soit limitative.
Filtrage réjecteur Soit u(n) = s(n) + x(n) le signal total, composé du signal de
parole s(n) et du bruit x(n).
Soit le filtre H(z) = 1 E 1 < i < pai zi
Appliqué au signal U(z),on obtient H(z)U(z) = H(z)S(z) + H(z)X(z).
Or: H(z)X(z) = B(z) = > H(z)U(z) = H(z)S(z) + B(z) Le filtre réjecteurH(z) blanchit le signal, de sorte que le signal en sortie de ce filtre est un signal de parole (filtré donc déformé), additionné
d'un bruit généralement blanc et gaussien.
Le signal obtenu est en fait impropre à la reconnaissance, car le filtre réjecteur déforme le signal de parole originel. Cependant, le signal obtenu étant perturbé par un bruit pratiquement blanc et gaussien, il s'ensuit que ce signal est très intéressant
pour effectuer une détection du signal s(n) selon la théorie exposée ci-
dessous, selon laquelle on garde le signal large bande obtenu, ou on le filtre préalablement dans la bande des fricatives, comme décrit cidessous (cf
"détection de fricatives").
C'est pour cette raison que l'on utilise ce filtrage réjecteur après
modélisation auto-régressive du bruit.
Spectre moyen de bruit.
Comme l'on dispose d'un certain nombre de trames confirmées comme étant des trames de bruit, on peut alors calculer un spectre moyen de ce bruit, de manière à implanter un filtrage spectral, du type soustraction
spectrale ou filtrage de WIENER.
On choisit par exemple le filtrage de WIENER Aussi, a-t-on besoin de calculer Cx X(f) = El J X(f) 12 l qui représente le spectre moyen de bruit Comme les calculs sont numériques, on n'a accès qu'à des FFT de signaux numériques pondérés par une fenêtre de pondération De plus, la
moyenne spatiale ne peut qu'être approximée.
Soient Xl(n),XM(n) les M+ 1 FFT des M trames de bruit confirmées comme telles, ces FFT étant obtenues par pondération du signal
temporel initial par une fenêtre d'apodisation adéquate.
CXX(f) = EL | X(f) 12 l est approximé par: ^CXX(n) = MXX(n) = ( 1/M) E 1 < i < M+ 1 1 Xi(n)12 Les performances de cet estimateur sont données par exemple dans le livre "Digital signal processing" de L RABINER/C M RADER paru
chez IEEE Press.
Pour ce qui est du filtre de Wiener, on rappelle ci-dessous quelques résultats classiques, explicités notamment dans l'ouvrage "Speech Enhancement" de J S LIM paru aux Editions Prentice-Hall Signal Processing Series. Soit u(t) = s(t) + x(t) le signal total observé, o s(t) désigne le
signal utile (de parole) et x(t) le bruit.
Dans le domaine fréquentiel, on obtient: U(f) = S(f) + X(f), avec des
notations évidentes.
On cherche alors le filtre H(f), de sorte que le signal AS(f) = H(f)U(f) soit le plus proche de S(f) au sens de la norme L 2 On cherche donc H(f) minimisant: ElI S(f) S(f) 12 l On démontre alors que: H(f) = 1 (Cxx(f)I Cuu(f)) o Cxx(f) = ElI X(f)12 l et Cuu(f) = ElL U(f)21 l Ce type de filtre, parce que son expression est directement fréquentielle, est particulièrement intéressant à appliquer dès que la
paramétrisation est basée sur le calcul du spectre.
Implémentation par corrélogramme lissé.
En pratique, CXX et CUU ne sont pas accessibles On ne peut
que les estimer Une procédure d'estimation de Cxx(f) a été décrite ci-
dessus. CUU est le spectre moyen du signal total u(n) dont l'on ne dispose que sur une seule et unique trame De plus, cette trame doit être paramétrisée de manière à pouvoir intervenir dans le processus de reconnaissance Il n'est donc pas question d'effectuer une moyenne quelconque du signal u(n) d'autant plus que le signal de parole est un signal
particulièrement non-stationnaire.
Il faut donc construire, à partir de la donnée de u(n), une
estimation de Cuu(n) On utilise alors le corrélogramme lissé.
On estime alors Cuu(n) par: 'C Uu(k) = E o < n< N-1 F(k-
n) | X(n) 12 o F est une fenêtre de lissage construite comme suit, et N le nombre de points permettant le calcul des FFT: N = 256 points par exemple On choisit une fenêtre de lissage dans le domaine temporel: f(n) = ao + alcos( 2 ?rn/N) + a 2 cos( 4 wn/N) Ces fenêtres sont largement décrites dans l'article précité: "On the Use of Windows for Hamming Analysis with the Discrete Fourier Transform de F J HARRIS paru dans
Proceedings of the IEEE, Vol 66, N 1, January 1978.
La fonction F(k) est alors simplement la Transformée de Fourier Discrète de f(n). CUU(k) = O < N < N-1 F(k-n) X(n) 12 apparaît comme une convolution discrète entre F(k) et V(k) = IX(k)21, de sorte que AC Uu = F*V Soit 'cuu la FFT-1 de A Cuu Ac Uu(k) = f(k)v(k) o v(k) est la
FFT-1 de V(k).
On calcule donc AC Uu(k) selon l'algorithme dit de corrélogramme lissé suivant: ( 1) Calcul de v(k) par FFT inverse de V(n) = I X(n) 12 ( 2) Calcul du produit f v ( 3) FFT directe du produit f v qui aboutit à 'Cuu Plutôt que d'appliquer le même estimateur pour le bruit et le signal total, le procédé de l'invention applique l'algorithme du
corrélogramme lissé précédent au spectre moyen de bruit Mxx(n).
^C Xx(k) est donc obtenu par: ACXX(k) = E O < n< N-1 F(k-n)l Mxx(n)12 Le filtre de Wiener H(f) est donc estimé par la suite des valeurs: ^H(n) = 1 (^Cxx(n)/'CUU(n)) Le signal débruité a pour spectre: 'S(n) = 'H(n)U(n) Une FFT-1 peut permettre, éventuellement, de récupérer le signal temporel débruité. Le spectre débruité ^S(n) obtenu est le spectre utilisé pour la
paramétrisation en vue de la reconnaissance de la trame.
Pour effectuer la détection des signaux non voisés, on utilise également les procédures décrites ci-dessus, puisque l'on dispose d'énergies
représentatives du bruit (voir ci-dessus l'algorithme de détection du bruit).
Détection d'activité.
Soient C 1 = N(ml,o 12) et C 2 = N(m 2,a 22) Puisqu'on dispose d'un algorithme capable de mettre en évidence des valeurs de variables aléatoires appartenant à la même classe, de la classe C 2 (par exemple), et ce, avec une très faible probabilité d'erreur, il devient alors beaucoup plus facile de décider, par observation du couple U/V, si U
appartient à la classe C 1 ou à la classe C 2.
Il y a donc deux hypothèses distinctes possibles, H 1 *U E C 1 et H 2 U E C 2 correspondant à deux décisions possibles distinctes: D = D 1 X= Décision U E C 1, notée "U E C 1 ' D = D 2 X Décision U E C 2, notée "U E C 2 "
Décision optimale.
On pose: m = ml/m 2, a 1 = ml/u 1 et O a 2 = m 2/02-
Soit un couple (U,V) de variables aléatoires, o on suppose que V E C 2 et U E C 1 UC 2 U et V sont supposées indépendantes En observant la variable X = U/V, on cherche à prendre une décision entre les deux suivantes
possibles: "Cl XC 2, C 2 XC 2 " -
On adonc deux hypothèses: H 1 l* U E C 1, H 2 X U E C 2.
Soitp = Pr { U E Cl} La règle de décision s'exprime sous la forme suivante: x > S U E C 1, x < S U E C 2 La probabilité de décision correcte Pc(s,mm e, a 2) est alors Pc(s,m | 1,0 '2) = pl 1-P(s,ml a 1 tl,a 2)l + ( 1-p)P(s, 1 1 a 2,a 2)
o p = Pr{ U E C 1}.
Le seuil optimal est celui pour lequel Pc(s,m l eal,a 2) est maximal On résout donc l'équation: a Pc(s,m I al,a 2)/as = O X* pf(s,m ae 1,a 2) ( 1-p)f(s, 11 a 2,a 2) = O Approche type Neyman-Pearson Dans l'approche précédente, on supposait connaître la probabilité p Lorsque
cette probabilité est inconnue, on peut utiliser une approche type Neyman-
Pearson. On définit les probabilités de non détection et de fausse alarme: Pnd = {x < S I H 1}et Pfa= {x > S | H 2} Ona: Pnd = P(s,11 a 2, a 2) et Pfa = 1-P(s,ma l,a 2)
On se fixe alors Pfa ou Pnd, pour déterminer la valeur du seuil.
Afin d'appliquer la détection d'activité telle que décrite ci-dessus au cas de la parole, il est nécessaire d'établir un modèle énergétique des signaux non voisés compatible avec les hypothèses qui président au bon fonctionnement des procédés décrits ci-dessus On cherche donc un modèle des énergies des fricatives non voisées I Fl, I Si, /CH) et des plosives non voisées IPI, ITI, IQI, qui permettent d'obtenir des énergies dont la loi
statistique est approximativement une gaussienne.
Modèle 1.
Les sons /F/,/S/,/CH/ se situent spectralement dans une bande de fréquence qui s'étale d'environ 4 K Hz à plus de 5 K Hz Les sons /P/, /T/, IQI en tant que phénomènes courts dans le temps, s'étalent sur une bande plus large Dans la bande choisie, on suppose que le spectre de ces sons fricatifs est relativement plat, de sorte que le signal fricatif dans cette bande peut se modéliser par un signal bande étroite Ceci peut être réaliste dans
certains cas pratiques sans avoir recours au blanchiment décrit cidessus.
Cependant, dans la plupart des cas, il est judicieux de travailler sur un signal
blanchi de manière à assurer un modèle de bruit à bande étroite convenable.
En acceptant un tel modèle de bruit à bande étroite, on a donc à traiter le rapport de deux énergies qui peut être traité par les procédés décrits
ci-dessus.
Soient s(n) le signal de parole dans la bande étudiée et x(n) le bruit dans cette même bande Les signaux s(n) et x(n) sont supposés indépendants. La classe C 1 correspond à l'énergie du signal total u(n) = s(n) + x(n) observé sur N points, la classe C 2 correspond à l'énergie
V du bruit seul observé sur M points.
Les signaux étant gaussiens et indépendants, u(n) est un signal lui-
même gaussien, de sorte que: U = f N O < n N 1 u(n)2 E N( Nlu 2, 2,u 4 i < N_ 1, O < j < N-1 gf OB(i-j)2 ') De même: V = O < N < M-1 y(n)2 E N(Mo-x 2, 2 o-x 2 Y O < i< M-1,0 <j< M-1 gf B(i-j)2), o y(n) désigne, on le rappelle, une autre valeur du bruit x(n)
sur une tranche temporelle différente de celle o on observe u(n).
On peut donc appliquer les résultats théoriques ci-dessus avec: C 1 = N(Na U 2,2 a Uu 4 O < i < N-1, O < j < N-1 gf 0,B(i)2), C 2 = N(Max 2, 2 aox 40 <i< M-1,0 <j< M-1 gf 0,B(i-j)2) m = (N/M)au 2/ax 2, 1 = N/( 2 E o < i < N-1, O < j < N-1 gf 0,B(i-j)2)1/2), a 2 M/( 2 o _<i< M-1,0 <j< M-1 gf 0,B(i-j)2)1/2) On remarquera que m = (N/M)(il+r) o r = as 2 luax 2 désigne
finalement le rapport signal sur bruit.
Pour achever complètement la résolution de ce problème, il faut pouvoir connaître le rapport signal sur bruit r ainsi que la probabilité de présence p du signal utile Ce qui paraît être ici une limitation est commun
aux deux autres modèles traités ci-dessous.
Modèle 2.
Comme dans le cas du modèle 1, on cherche à détecter uniquement les fricatives non voisées, donc à détecter un signal dans une
bande particulière.
Ici, le modèle du signal fricatif n'est pas le même que précédemment On suppose que les fricatives présentent l'énergie minimale /452 = E O < n< N-1 s(n)2 connue, grâce par exemple à un apprentissage,
ou estimée.
Le son voisé est indépendant du bruit x(n) qui est ici gaussien
bande étroite.
Si y(n), pour N compris entre O et M-1, désigne une autre valeur du bruit x(n) sur une tranche temporelle distincte de celle o est observé le signal total u(n) = s(n) + x(n), on aura: V = E O _<n<M-1 y(n)2 E N( Max 2,2 Tr(Cx M 2)) o Cx,M désigne la matrice de corrélation du M- uplet: t (y( 0),,y(M-1)) En ce qui concerne l'énergie U = Z o < n< N-1 u(n)2 du signal total, celle-ci peut s'exprimer selon: U = Ns 2 + E O < N N-1 x(n)2 Ce résultat s'obtient en supposant que l'indépendance entre s(n) et x(n) s'exprime par la décorrélation au sens temporel du terme, c'est-à -dire que l'on peut écrire: E O < n< N-ls(n)x(n) c= = O ( O -< n<_ N-1 s(n)2)1/2 ( O < n_ N-1 x(n)2)1/2 Comme V' = O < N < N-1 x(n)2 E N( No-x 2, 2 Tr(Cx,N 2)) o Cx,N désigne la matrice de corrélation du N-uplet: t (x( 0),,x(N-1)), on a alors: U = u S 2 + o O < n< N-1 x(n)2 E N( Nt S 2 + Nax 2, 2 Tr(Cx,N 2)) On peut donc appliquer les résultats théoriques ci-dessus avec: C 1 = N( N t S 2 + Nax 2, 2 Tr(CX,N 2)), C 2 = N( Max 2, 2 Tr(CX,M 2)) m = (N/M)( 1 + 1 S 2/ax 2), o 1 = N(, S 2 + ax 2)/( 2 Tr(Cx N 2))1/2, a 2 = Mox 2/( 2 Tr(Cx M 2))1/2, On remarquera que m = (N/M)(I+r) o r = /s 2/ax 2 désigne finalement le rapport signal sur bruit La même remarque que celle du Modèle 1, concernant le rapport signal sur bruit r et la probabilité p de présence du
signal utile, est valable ici.
Modèle 3.
Dans ce modèle, on cherche à effectuer une détection de tous les
signaux non voisés, avec une hypothèse bruit blanc gaussien.
* Le modèle signal bande étroite utilisé précédemment, n'est donc plus valable On ne peut donc que supposer avoir affaire à un signal large
bande dont on connaît l'énergie minimale / S 2.
Il vient donc: C 1 = N( Ntts 2 + Nox 2, 2 Nax 4), C 2 = N( Max 2, 2 Max 4) m = (N/M)(l+r), avec r = y S 2/ox 2 t 1 = (l+r)(N/2)1/2, a 2 = (M/2)1/2 Pour utiliser ce modèle, le bruit doit être blanc gaussien Si le
bruit d'origine n'est pas blanc, on peut s'approcher de ce modèle en sous-
échantillonnant en fait le signal observé, c'est-à-dire en ne considérant qu'un échantillon sur 2, 3, voire plus, suivant la fonction d'autocorrélation du bruit, et en supposant que le signal de parole ainsi sous-échantillonné présente encore une énergie décelable Mais on peut aussi, et cela est préférable, utiliser cet algorithme sur un signal blanchi par filtre réjecteur, puisqu'alors
le bruit résiduel est approximativement blanc et gaussien.
Les remarques précédentes concernant la valeur a priori du rapport signal à bruit et de la probabilité de présence du signal utile, restent
encore et toujours valables.
Algorithmes de détection des sons non voisés.
En utilisant les modèles précédents, on expose ci-dessous deux
algorithmes de détection des sons non voisés.
Algorithme 1: Disposant d'énergies représentatives de bruit, on peut moyenner
ces énergies de sorte que l'on obtient une énergie de "référence" de bruit.
Soir E O cette énergie Pour N 3 trames T 1, Tn qui précèdent la première trame voisée, on procède comme suit: Soient E(T 1),, E(Tn), les énergies de ces trames, calculées sous la forme E(Ti) = -O N < N 1 u(n) o u(n) sont les N échantillons
constituant la trame Ti.
Pour E(Ti) décrivant {E(T 1),, E(Tn)} Faire Si E(Ti) est compatible avec E O (Décision sur la valeur de E(Ti)/EO).
Détection sur la trame Ti.
Fin pour.
Algorithme 2: Cet algorithme est une variante du précédent On utilise pour EO, soit l'énergie moyenne des trames détectées comme du bruit, soit la valeur de
l'énergie la plus faible de toutes les trames détectées comme du bruit.
Puis on procède comme suit:
Pour E(Ti) décrivant {E(Tl),, E(Tn)}.
Faire Si E(Ti) est compatible avec E O (Décision sur la valeur de E(Ti)/EO).
Détection sur la trame Ti.
Sinon Eo = E(Ti).
Fin pour Le rapport signal à bruit r peut être estimé ou fixé de manière heuristique, à condition d'effectuer quelques mesures expérimentales préalables, caractéristiques du domaine d'application, de manière à fixer un ordre de grandeur du rapport signal sur bruit que présentent les fricatives
dans la bande choisie.
La probabilité p de présence de la parole non voisée est, elle-
aussi, une donnée heuristique, qui module la sélectivité de l'algorithme, au même titre d'ailleurs que le rapport signal à bruit Cette donnée peut être estimée suivant le vocabulaire utilisé et le nombre de trames sur lequel se fait
la recherche de sons non voisés.
Simplification dans le cas d'un milieu faiblement bruité.
Dans le cas d'un milieu faiblement bruité, pour lequel aucun
modèle de bruit n'a été déterminé, en vertu des simplifications proposées ci-
dessus, la théorie rappelée précédemment justifie l'utilisation d'un seuil, qui n'est pas lié de manière bijective au rapport signal à bruit, mais qui sera fixé
de manière totalement empirique.
Une alternative intéressante pour des milieux o le bruit est négligeable, est de se contenter de la détection de voisement, d'éliminer la détection des sons non voisés, et de fixer le début de parole à quelques trames avant le noyau vocalique (environ 15 trames) et la fin de parole à
quelques trames après la fin du noyau vocalique (environ 15 trames).

Claims (9)

REVENDICATIONS
1 Procédé de détection de la parole dans des signaux bruités, caractérisé par le fait qu'après avoir effectué dans ces signaux la détection d'au moins une trame voisée, on recherche des trames de bruit précédant cette trame voisée, on construit un modèle autorégressif de bruit et un spectre moyen de bruit, on blanchit par filtre réjecteur et on débruite par débruiteur spectral les trames précédant le voisement, on recherche le début effectif de la parole dans ces trames blanchies, on extrait des trames débruitées comprises entre le début effectif de la parole et la première trame voisée les vecteurs acoustiques utilisés par le système de reconnaissance vocale, tant que des trames voisées sont détectées, celles-ci sont débruitées puis paramétrisées en vue de leur reconnaissance, lorsqu'on ne détecte plus de trames voisées, on recherche la fin effective de la parole, on débruite puis on paramétrise les trames comprises entre la dernière trame voisée et
la fin effective de la parole.
2 Procédé selon la revendication 1, caractérisé par le fait que le blanchiment est réalisé par filtrage réjecteur calculé à
partir du modèle autorégressif du bruit.
3 Procédé selon la revendication 2, caractérisé par le fait que lorsque la dernière trame de parole a été paramétrisée, on
réinitialise tous les paramètres de traitement.
4 Procédé selon l'une des revendications précédentes,
caractérisé par le fait que les trames de signaux à traiter sont traitées par transformées de Fourier, et que lorsque deux transformées sont consécutives dans le temps, elles sont calculées sur trois trames consécutives avec recouvrement d'une trame.
Procédé selon l'une des revendications précédentes,
caractérisé par le fait que la détection de voisement se fait, pour chaque trame, à l'aide de la valeur du "pitch" associé à cette trame. 6 Procédé selon la revendication 5, caractérisé par le fait que l'on valide le calcul du pitch après avoir reconnu au
moint trois trames voisées, soit 3 x 12,8 ms.
7 Procédé selon la revendication 5 ou 6, caractérisé par le fait que le calcul du pitch est fait à partir de la corrélation
du signal avec sa forme retardée.
8 Procédé selon l'une des revendications 5 à 7,
caractérisé par le fait que la détection de sons non voisés se fait
par seuillage.
9 Procédé selon l'une des revendications précédentes,
caractérisé par le fait que pour détecter de la parole non voisée, on examine la distance entre le noyau vocalique et le bloc fricatif,
et la taille de ce bloc fricatif.
Procédé selon l'une des revendications
précédentes, caractérisé par le fait que le spectre moyen de bruit
est obtenu par filtrage de Wiener.
11 Procédé selon la revendication 10, caractérisé par le fait que l'on applique l'algorithme du corrélogramme lissé au
spectre moyen de bruit.
12 Procédé selon la revendication 1, caractérisé par le fait qu'en milieu peu bruité, on effectue uniquement une détection de trames voisées, et une détection de noyau vocalique
auquel on attache un intervalle de confiance.
FR9212582A 1992-10-21 1992-10-21 Procédé de détection de la parole. Expired - Lifetime FR2697101B1 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
FR9212582A FR2697101B1 (fr) 1992-10-21 1992-10-21 Procédé de détection de la parole.
EP93402522A EP0594480B1 (fr) 1992-10-21 1993-10-13 Procédé de détection de la parole
DE69326044T DE69326044T2 (de) 1992-10-21 1993-10-13 Verfahren zur Erkennung von Sprachsignalen
JP5285608A JPH06222789A (ja) 1992-10-21 1993-10-21 音声検出方法
US08/139,740 US5572623A (en) 1992-10-21 1993-10-21 Method of speech detection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR9212582A FR2697101B1 (fr) 1992-10-21 1992-10-21 Procédé de détection de la parole.

Publications (2)

Publication Number Publication Date
FR2697101A1 true FR2697101A1 (fr) 1994-04-22
FR2697101B1 FR2697101B1 (fr) 1994-11-25

Family

ID=9434731

Family Applications (1)

Application Number Title Priority Date Filing Date
FR9212582A Expired - Lifetime FR2697101B1 (fr) 1992-10-21 1992-10-21 Procédé de détection de la parole.

Country Status (5)

Country Link
US (1) US5572623A (fr)
EP (1) EP0594480B1 (fr)
JP (1) JPH06222789A (fr)
DE (1) DE69326044T2 (fr)
FR (1) FR2697101B1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111508512A (zh) * 2019-01-31 2020-08-07 哈曼贝克自动系统股份有限公司 语音信号中的摩擦音检测

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5774846A (en) 1994-12-19 1998-06-30 Matsushita Electric Industrial Co., Ltd. Speech coding apparatus, linear prediction coefficient analyzing apparatus and noise reducing apparatus
JP3522012B2 (ja) * 1995-08-23 2004-04-26 沖電気工業株式会社 コード励振線形予測符号化装置
FR2744277B1 (fr) * 1996-01-26 1998-03-06 Sextant Avionique Procede de reconnaissance vocale en ambiance bruitee, et dispositif de mise en oeuvre
FR2765715B1 (fr) 1997-07-04 1999-09-17 Sextant Avionique Procede de recherche d'un modele de bruit dans des signaux sonores bruites
US6711536B2 (en) * 1998-10-20 2004-03-23 Canon Kabushiki Kaisha Speech processing apparatus and method
JP2002073072A (ja) * 2000-08-31 2002-03-12 Sony Corp モデル適応装置およびモデル適応方法、記録媒体、並びにパターン認識装置
US7117145B1 (en) * 2000-10-19 2006-10-03 Lear Corporation Adaptive filter for speech enhancement in a noisy environment
US7941313B2 (en) * 2001-05-17 2011-05-10 Qualcomm Incorporated System and method for transmitting speech activity information ahead of speech features in a distributed voice recognition system
US7203643B2 (en) * 2001-06-14 2007-04-10 Qualcomm Incorporated Method and apparatus for transmitting speech activity in distributed voice recognition systems
KR100463657B1 (ko) * 2002-11-30 2004-12-29 삼성전자주식회사 음성구간 검출 장치 및 방법
JP4635486B2 (ja) * 2004-06-29 2011-02-23 ソニー株式会社 概念獲得装置及びその方法、並びにロボット装置及びその行動制御方法
KR100640865B1 (ko) * 2004-09-07 2006-11-02 엘지전자 주식회사 음성 품질 향상 방법 및 장치
US8170875B2 (en) * 2005-06-15 2012-05-01 Qnx Software Systems Limited Speech end-pointer
US8311819B2 (en) * 2005-06-15 2012-11-13 Qnx Software Systems Limited System for detecting speech with background voice estimates and noise estimates
JP4722653B2 (ja) * 2005-09-29 2011-07-13 株式会社コナミデジタルエンタテインメント 音声情報処理装置、音声情報処理方法、ならびに、プログラム
US8175874B2 (en) * 2005-11-17 2012-05-08 Shaul Shimhi Personalized voice activity detection
US8417185B2 (en) * 2005-12-16 2013-04-09 Vocollect, Inc. Wireless headset and method for robust voice data communication
FI20051294A0 (fi) * 2005-12-19 2005-12-19 Noveltech Solutions Oy Signaalinkäsittely
US7885419B2 (en) * 2006-02-06 2011-02-08 Vocollect, Inc. Headset terminal with speech functionality
US7773767B2 (en) 2006-02-06 2010-08-10 Vocollect, Inc. Headset terminal with rear stability strap
US8775168B2 (en) * 2006-08-10 2014-07-08 Stmicroelectronics Asia Pacific Pte, Ltd. Yule walker based low-complexity voice activity detector in noise suppression systems
KR100930584B1 (ko) * 2007-09-19 2009-12-09 한국전자통신연구원 인간 음성의 유성음 특징을 이용한 음성 판별 방법 및 장치
JPWO2009087923A1 (ja) * 2008-01-11 2011-05-26 日本電気株式会社 信号分析制御、信号分析、信号制御のシステム、装置、方法及びプログラム
WO2009113516A1 (fr) 2008-03-14 2009-09-17 日本電気株式会社 Système et procédé d'analyse/contrôle de signal, dispositif et procédé de contrôle de signal et programme
JP5773124B2 (ja) * 2008-04-21 2015-09-02 日本電気株式会社 信号分析制御及び信号制御のシステム、装置、方法及びプログラム
USD605629S1 (en) 2008-09-29 2009-12-08 Vocollect, Inc. Headset
US8160287B2 (en) 2009-05-22 2012-04-17 Vocollect, Inc. Headset with adjustable headband
US8438659B2 (en) 2009-11-05 2013-05-07 Vocollect, Inc. Portable computing device and headset interface
US9280982B1 (en) * 2011-03-29 2016-03-08 Google Technology Holdings LLC Nonstationary noise estimator (NNSE)
US8838445B1 (en) * 2011-10-10 2014-09-16 The Boeing Company Method of removing contamination in acoustic noise measurements
US9099098B2 (en) * 2012-01-20 2015-08-04 Qualcomm Incorporated Voice activity detection in presence of background noise
CN103325388B (zh) * 2013-05-24 2016-05-25 广州海格通信集团股份有限公司 基于最小能量小波框架的静音检测方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0335521A1 (fr) * 1988-03-11 1989-10-04 BRITISH TELECOMMUNICATIONS public limited company Détection de la présence d'un signal de parole
US4959865A (en) * 1987-12-21 1990-09-25 The Dsp Group, Inc. A method for indicating the presence of speech in an audio signal
EP0459363A1 (fr) * 1990-05-28 1991-12-04 Matsushita Electric Industrial Co., Ltd. Système de codage du signal de parole

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4972490A (en) * 1981-04-03 1990-11-20 At&T Bell Laboratories Distance measurement control of a multiple detector system
US4627091A (en) * 1983-04-01 1986-12-02 Rca Corporation Low-energy-content voice detection apparatus
US4912764A (en) * 1985-08-28 1990-03-27 American Telephone And Telegraph Company, At&T Bell Laboratories Digital speech coder with different excitation types
US4852181A (en) * 1985-09-26 1989-07-25 Oki Electric Industry Co., Ltd. Speech recognition for recognizing the catagory of an input speech pattern
US4777649A (en) * 1985-10-22 1988-10-11 Speech Systems, Inc. Acoustic feedback control of microphone positioning and speaking volume
JP2884163B2 (ja) * 1987-02-20 1999-04-19 富士通株式会社 符号化伝送装置
US5276765A (en) * 1988-03-11 1994-01-04 British Telecommunications Public Limited Company Voice activity detection
US5097510A (en) * 1989-11-07 1992-03-17 Gs Systems, Inc. Artificial intelligence pattern-recognition-based noise reduction system for speech processing

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4959865A (en) * 1987-12-21 1990-09-25 The Dsp Group, Inc. A method for indicating the presence of speech in an audio signal
EP0335521A1 (fr) * 1988-03-11 1989-10-04 BRITISH TELECOMMUNICATIONS public limited company Détection de la présence d'un signal de parole
EP0459363A1 (fr) * 1990-05-28 1991-12-04 Matsushita Electric Industrial Co., Ltd. Système de codage du signal de parole

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ICASSP 85 vol. 4, 26 Mars 1985, TAMPA FLORIDA page 1838 M. CHUNG ET AL. 'Word boundary detection and speech recognition of noisy speech by means of iterative noise cancellation techniques' *
ICASSP 91 vol. 1, 14 Mai 1991, TORONTO pages 733 - 736 E.S. DERMATAS ET AL. 'Fast endpoint detection algorithm for isolated word recognition in office environment' *
IEEE TRANS. ON ASSP vol. 27, no. 2, Avril 1979, pages 113 - 120 S.F. BOLL 'Suppression of acoustic noise in speech using spectral subtraction' *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111508512A (zh) * 2019-01-31 2020-08-07 哈曼贝克自动系统股份有限公司 语音信号中的摩擦音检测

Also Published As

Publication number Publication date
FR2697101B1 (fr) 1994-11-25
US5572623A (en) 1996-11-05
EP0594480A1 (fr) 1994-04-27
DE69326044T2 (de) 2000-07-06
DE69326044D1 (de) 1999-09-23
JPH06222789A (ja) 1994-08-12
EP0594480B1 (fr) 1999-08-18

Similar Documents

Publication Publication Date Title
EP0594480B1 (fr) Procédé de détection de la parole
Triantafyllopoulos et al. Towards robust speech emotion recognition using deep residual networks for speech enhancement
Saleem et al. Deep neural networks for speech enhancement in complex-noisy environments
Xu et al. Dynamic noise aware training for speech enhancement based on deep neural networks.
Liao et al. Noise adaptive speech enhancement using domain adversarial training
Chen et al. A feature study for classification-based speech separation at low signal-to-noise ratios
EP2415047B1 (fr) Classification du bruit de fond contenu dans un signal sonore
EP1154405B1 (fr) Procédé et dispositif de reconnaissance vocale dans des environnements a niveau de bruit fluctuant
WO2022107393A1 (fr) Approche basée sur réseau neuronal pour déclaration de débruitage vocal concernant la recherche subventionnée au niveau fédéral
Xu et al. Listening to sounds of silence for speech denoising
EP0620546B1 (fr) Procédé de détection énergétique de signaux noyés dans du bruit
Hui et al. Convolutional maxout neural networks for speech separation
FR2522179A1 (fr) Procede et appareil de reconnaissance de paroles permettant de reconnaitre des phonemes particuliers du signal vocal quelle que soit la personne qui parle
WO2002061731A1 (fr) Procede et dispositif de reduction de bruit
EP2419900A1 (fr) Procede et dispositif d&#39;evaluation objective de la qualite vocale d&#39;un signal de parole prenant en compte la classification du bruit de fond contenu dans le signal
FR2765715A1 (fr) Procede de recherche d&#39;un modele de bruit dans des signaux sonores bruites
Saleem et al. Supervised speech enhancement based on deep neural network
CA2404441C (fr) Parametres robustes pour la reconnaissance de parole bruitee
CN108922514A (zh) 一种基于低频对数谱的鲁棒特征提取方法
EP0621582B1 (fr) Procédé de reconnaissance de parole à apprentissage
EP3627510A1 (fr) Filtrage d&#39;un signal sonore acquis par un systeme de reconnaissance vocale
Ahmed Comparison of noisy speech enhancement algorithms in terms of LPC perturbation
Taniguchi et al. Signal restoration based on bi-directional LSTM with spectral filtering for robot audition
Saleem et al. Unsupervised single-channel speech enhancement based on phase aware time-frequency mask estimation
Gul et al. Single channel speech enhancement by colored spectrograms