WO2005024786A1 - Procede de transmission d'un flux d'information par insertion a l'interieur d'un flux de donnees de parole, et codec parametrique pour sa mise en oeuvre - Google Patents

Procede de transmission d'un flux d'information par insertion a l'interieur d'un flux de donnees de parole, et codec parametrique pour sa mise en oeuvre Download PDF

Info

Publication number
WO2005024786A1
WO2005024786A1 PCT/FR2004/002259 FR2004002259W WO2005024786A1 WO 2005024786 A1 WO2005024786 A1 WO 2005024786A1 FR 2004002259 W FR2004002259 W FR 2004002259W WO 2005024786 A1 WO2005024786 A1 WO 2005024786A1
Authority
WO
WIPO (PCT)
Prior art keywords
bits
information flow
frames
parametric
stream
Prior art date
Application number
PCT/FR2004/002259
Other languages
English (en)
Inventor
Frédéric Rousseau
Original Assignee
Eads Telecom
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eads Telecom filed Critical Eads Telecom
Priority to AT04787314T priority Critical patent/ATE484821T1/de
Priority to DE602004029590T priority patent/DE602004029590D1/de
Priority to US10/569,914 priority patent/US7684980B2/en
Priority to EP04787314A priority patent/EP1665234B1/fr
Priority to CA002541805A priority patent/CA2541805A1/fr
Publication of WO2005024786A1 publication Critical patent/WO2005024786A1/fr

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Time-Division Multiplex Systems (AREA)
  • Communication Control (AREA)
  • Telephone Set Structure (AREA)

Abstract

Un procédé de transmission d'un flux d'information secondaire (DS2) entre un émetteur et un récepteur, comprenant l'insertion dudit flux d'information secondaire au niveau d'un vocodeur paramétrique (10) de l'émetteur générant un flux d'information principal (DS1) qui est un flux de données de parole codant un signal de parole (VS1) et qui est transmis de l'émetteur vers le récepteur, prévoit que des bits du flux d'information secondaire sont insérés dans certaines seulement des trames du flux d'information principal, sélectionnées par un masque de trames (FS) connu de l'émetteur et du récepteur, et/ou à l'intérieur d'une trame déterminée du flux d'information principal, en imposant une contrainte à certains seulement des bits de la trame, sélectionnés par un masque de bits (BS) connu de l'émetteur et du récepteur.

Description

PROCEDE DE TRANSMISSION D'UN FLUX D'INFORMATION PAR INSERTION A L'INTERIEUR D'UN FLUX DE DONNEES DE PAROLE. ET CODEC PARAMETRIQUE POUR SA MISE EN OEUVRE
La présente invention se rapporte de façon générale au domaine du codage de la parole, et en particulier à un procédé d'insertion d'un flux d'information à l'intérieur d'un flux de données de parole, le flux d'information inséré pouvant être un flux de données de parole à plus faible débit ou un flux de données transparentes. L'invention trouve des applications, en particulier, dans les systèmes de radiocommunication mobile publics ou professionnels (systèmes PMR, de l'anglais "Professional Mobile Radiocommunication"). On appelle signal de parole un signal acoustique émis par un appareil vocal humain. On appelle codée une unité matérielle et/ou logicielle de codage et de décodage d'un flux numérique. Sa fonction de codage permet de transcoder un flux numérique d'échantillons quantifiés dans le domaine temporel d'un signal source (par exemple un signal de parole) en un flux numérique comprimé. Sa fonction de décodage permet d'effectuer une opération pseudo-inverse dans l'objectif de restituer des attributs représentatifs du signal source, par exemple des attributs perceptibles dans un récepteur tel que l'oreille humaine. Un flux de données de parole est un flux de données généré par un codée de parole, à partir du codage d'un signal de parole. Un flux de données transparentes est une suite numérique binaire dont le type de contenu est non spécifié, qu'il soit effectivement un flux de données informatiques ou un flux de données de parole. Les données sont dites transparentes en ce sens que, d'un point de vue externe, tous les bits ont une égale importance vis-à-vis, par exemple de la correction des erreurs de transmission en sorte qu'un codage correcteur d'erreurs doit donc être uniforme sur l'ensemble des bits. A l'inverse, si le flux est un flux de données de parole, certains bits sont plus importants à protéger que d'autres. Un codée de parole, aussi appelé vocodeur (en anglais "Vocoder" "Speech Codée" ou "Voice Codée") est un codée spécialisé qui est adapté au codage d'un signal de parole quantifié et au décodage d'un flux de trames de paroles. En particulier, il présente pour sa fonction codage une sensibilité qui dépend des caractéristiques de la parole du locuteur et un bas débit binaire associé à une bande de fréquences plus limitée que la bande de fréquences audio générale (20 Hz-20 kHz). Il existe plusieurs familles de techniques de codage de la parole, notamment des techniques de codage de la forme d'onde du signal de parole (par exemple le codage ITU-T G.711 MIC loi A/mu), des techniques de codage à modèle de source (le plus connu étant le codage CELP, de l'anglais "Code- Excited Linear Prédiction"), des codages perceptuels, et des techniques hybrides fondées sur la combinaison de techniques appartenant à au moins deux des familles ci-dessus. L'invention vise l'application à des techniques de codage "à modèle de source". Ces techniques sont aussi appelées techniques de codage paramétrique, car elles sont basées sur la représentation de paramètres d'excitation de la source de parole et/ou de paramètres décrivant l'enveloppe spectrale du signal émis par le locuteur (par exemple selon un modèle de codage par prédiction linéaire exploitant la corrélation entre les valeurs consécutives des paramètres associés à un filtre de synthèse, ou encore selon un modèle cepstral) et/ou de paramètres acoustiques dépendant de la source, par exemple l'amplitude et la fréquence centrale fondamentale perçue ("Pitch" en anglais), la période ("Pitch period" en anglais) et l'amplitude des pics d'énergie des premières harmoniques d'une fréquence de pitch à différents intervalles, son degré de voisement ("voicing rate" en anglais), sa mélodie et ses enchaînements. On appelle voeodeur paramétrique un voeodeur mettant en œuvre un codage numérique de la parole utilisant un modèle paramétrique de la source de parole. En pratique, un tel voeodeur associe plusieurs paramètres à chaque trame du flux de parole. Premièrement des paramètres spectraux de prédiction linéaire aussi appelés, par exemple, coefficients LP (de l'anglais "Linear Prédiction") ou coefficients LPC (de l'anglais "Linear Prédiction Coding"), qui définissent le filtre de prédiction linéaire du voeodeur (filtre à court terme). Deuxièmement des paramètres d'excitation adaptative associés à un (ou plusieurs) vecteur(s) d'excitation adaptative, aussi appelés paramètres LTP (de l'anglais "Long Term Predictor") ou encore coefficients de prédiction adaptative, qui définissent un filtre à long terme sous la forme d'un premier vecteur d'excitation et d'un gain associé à appliquer en entrée du filtre de synthèse.. Et, troisièmement, des paramètres d'excitation fixe associés à (ou plusieurs) vecteur(s) d'excitation fixe, aussi appelés paramètres algébriques ou paramètres stochastiques qui définissent un second vecteur d'excitation et un gain associé à appliquer en entrée du filtre de synthèse. Du document EP-A-1 020 848, on connaît un procédé pour transmettre de l'information auxiliaire dans un flux d'information principale correspondant à un signal de parole, ladite information auxiliaire étant insérée au niveau du voeodeur CELP qui code le signal de parole, en remplacement de l'index du vecteur d'excitation adaptative et/ou de l'index du vecteur d'excitation fixe. Plus spécifiquement, les bits d'information auxiliaire sont insérés dans le voeodeur de l'émetteur en lieu et place des bits codant normalement l'index correspondant, et la valeur du gain est mise à zéro afin d'en informer le voeodeur du récepteur. Selon un inconvénient, l'insertion d'un flux d'information auxiliaire dans le flux n'est pas discrète, en ce sens qu'il suffit de constater la valeur nulle du gain pour savoir que les bits normalement alloués au codage de l'index associé contiennent en fait l'information auxiliaire. Ceci est considéré comme un inconvénient pour la mise en œuvre de la méthode dans un système dans lequel la confidentialité des transmissions est importante. L'invention a pour principal objet de permettre l'insertion discrète d'un flux secondaire dans un flux principal correspondant à un flux de parole. D'autres objets de l'invention visent à maximiser le débit du flux secondaire pouvant être inséré, tout en préservant au mieux la performance du codage du flux principal vis à vis d'attributs de la source (i.e. en préservant la qualité perçue à l'audition lors de la synthèse du flux de parole). Un autre l'objet de l'invention est aussi de préserver simultanément la performance du codage du flux secondaire vis à vis d'attributs de la source du flux secondaire, notamment lorsqu'il s'agit également d'un flux de parole. Certains ou la totalité de ces objets sont atteints, selon un premier aspect de l'invention grâce à un procédé de transmission d'un flux d'information secondaire entre un émetteur et un récepteur, comprenant l'insertion dudit flux d'information secondaire au niveau d'un voeodeur paramétrique de l'émetteur générant un flux d'information principal qui est un flux de données de parole codant un signal de parole et qui est transmis de l'émetteur vers le récepteur. Des bits du flux d'information secondaire sont insérés : - dans certaines seulement des trames du flux d'information principal, sélectionnées par un masque de trames connu de l'émetteur et du récepteur ; et/ou, - à l'intérieur d'une trame déterminée du flux d'information principal, en imposant une contrainte à certains seulement des bits de la trame, sélectionnés par un masque de bits connu de l'émetteur et du récepteur. L'émetteur et le récepteur, de même que la transmission, doivent être interprétés dans leur acception la plus large. Dans un exemple d'application à un système de radiocommunication, l'émetteur et le récepteur sont des équipements terminaux du système, et la transmission est une transmission radio. L'insertion est réalisée au niveau d'un voeodeur paramétrique de l'émetteur qui produit ledit flux d'information principal, sans modification du débit binaire de ce dernier par rapport à ce qu'il serait sans insertion. Dit autrement, le flux d'information secondaire est interprété comme une suite de contraintes sur la suite de valeurs de certains paramètres du modèle de codage paramétrique du flux d'information principal. Par rapport au procédé d'insertion connu dans l'art antérieur, le procédé selon l'invention présente l'avantage que rien dans le flux d'information principal qui est transmis ne trahit la présence du flux d'information secondaire inséré. De plus, en limitant l'insertion à certaines trames et/ou à certaines bits dans une trame seulement, on préserve l'intelligibilité du signal de parole codé dans le flux d'information principal, ce qui n'est nullement le cas avec le procédé d'insertion connu précité. Afin de renforcer la discrétion de l'insertion, et donc la robustesse vis- à-vis des tentatives de piratage de la transmission, le masque de trames peut être variable. Il est alors généré selon un algorithme commun parallèlement dans l'émetteur et dans le récepteur, afin d'assurer la synchronisation du codage et du décodage du flux d'information principal, respectivement dans l'émetteur et dans le récepteur. Le masque de trames peut avantageusement définir une sous-suite de groupes de trames consécutives dans chacune desquelles des bits du flux d'information secondaire sont insérés, afin de profiter de l'effet de glissement du codage qui résulte de la mémorisation des trames dans le voeodeur paramétrique. Ceci contribue à préserver la fidélité du flux d'information principal au signal de parole. De préférence, la longueur en nombre de trames d'un groupe de trames consécutives est alors sensiblement égale à la profondeur de mémorisation des trames dans le voeodeur paramétrique. Lorsque le modèle de source du voeodeur paramétrique prévoit, pour certaines au moins des trames du flux d'information principal, différentes classes de bits en fonction de leur sensibilité vis-à-vis de la qualité du codage du signal de parole, le masque de bits peut être tel que des bits du flux d'information secondaire sont insérés dans ces trames en imposant une contrainte en priorité aux bits appartenant à la classe de bits la moins sensible. Ceci contribue aussi à préserver la fidélité du flux d'information principal au signal de parole. Le flux d'information secondaire peut-être un flux de données de parole ayant un débit plus faible que le débit d'information principal. Ceci est le cas lorsque le flux d'information secondaire sort d'un autre voeodeur ayant un débit plus faible que le débit du voeodeur paramétrique. Bien entendu, le flux d'information secondaire peut aussi être un flux de données transparentes. Lorsque le débit du flux d'information secondaire à insérer est trop élevé par rapport au débit du voeodeur paramétrique, on peut être amené à supprimer des bits du flux d'information secondaire, si cela est compatible avec l'application. Inversement, en cas de débit trop faible du flux d'information secondaire, on peut répéter certains bits ou introduire des bits de bourrage. Le flux d'information secondaire est soumis à un codage correcteur d'erreurs avant insertion dans le flux d'information principal. Ceci permet de pallier le fait que, dans le contexte des vocodeurs paramétriques, certains bits des trames du flux d'information principal sont faiblement voire non soumis à un codage correcteur d'erreurs (formant codage de canal) avant la transmission. Dans un mode de mise en oeuvre possible, des bits du flux d'information secondaire sont insérés en imposant des valeurs à des bits qui appartiennent à des paramètres d'excitation d'un filtre du modèle de source du voeodeur paramétrique, par exemple des paramètres d'excitation adaptative et/ou des paramètres d'excitation fixe du filtre de prédiction linéaire d'un voeodeur CELP. Le fait de ne pas imposer de contrainte sur les bits des paramètres de prédiction linéaire préserve l'intelligibilité du flux d'information principal. A cet effet également, on préfère imposer des contraintes bits formant les paramètres d'excitation fixe plutôt que sur ceux formant les paramètres d'excitation fixe. Dans un mode de mise en œuvre, des bits du flux d'information secondaire peuvent également être insérés dans des trames de silence du flux d'information principal, à la place ou en plus de l'insertion dans des trames de parole. Dans un autre mode de mise en œuvre, des bits du flux d'information secondaire peuvent être insérés en imposant des contraintes à des bits non chiffrés au titre d'un chiffrement de bout en bout du flux d'information principal. Cela permet à un équipement récepteur de pouvoir, après extraction, décoder le flux d'information secondaire bien que n'ayant pas la capacité de déchiffrement à ce titre. Bien entendu, les bits concernés peuvent néanmoins subir une ou plusieurs opérations de chiffrement/déchiffrement à un autre titre, par exemple des chiffrements de lien ou d'interface radio. Par exemple, la contrainte d'insertion peut être une contrainte d'égalité des bits de la trame du flux d'information principal avec les bits du flux d'information secondaire insérés. Un deuxième aspect de l'invention se rapporte à un voeodeur paramétrique adapté pour la mie en œuvre du procédé selon le premier aspect. En ce qui concerne sa fonction de codage, un tel voeodeur paramétrique comprend des moyens d'insertion pour l'insertion d'un flux d'information secondaire dans un flux d'information principal qui est généré par le voeodeur paramétrique à partir d'un signal de parole. Ces moyens d'insertion sont adaptés pour insérer des bits du flux d'information secondaire : - dans certaines seulement des trames du flux d'information principal, sélectionnées par un masque de trames déterminé ; et/ou, - à l'intérieur d'une trame déterminée du flux d'information principal, en imposant une contrainte à certains seulement des bits de la trame, sélectionnés par un masque de bits déterminé. Pour sa fonction décodage, le voeodeur comprend des moyens d'extraction du flux d'information secondaire à partir du flux d'information principal. Un troisième aspect de l'invention se rapporte encore à un équipement terminal d'un système de radiocommunications comprenant un voeodeur paramétrique selon le deuxième aspect. D'autres caractéristiques et avantages de l'invention apparaîtront encore à la lecture de la description qui va suivre. Celle-ci est purement illustrative et doit être lue en regard des dessins annexés sur lesquels : - la figure 1 est un diagramme illustrant un exemple de flux de données de paroles codées (flux de parole) organisé en trames et sous-trames ; - la figure 2 est un schéma synoptique partiel d'un exemple d'équipement émetteur selon l'invention ; - la figure 3 est un schéma synoptique partiel d'un exemple d'un voeodeur selon l'invention ; et - la figure 4 est un schéma synoptique partiel d'un exemple de voeodeur utilisé dans équipement récepteur selon l'invention. La figure 1 est un schéma illustrant le principe général de l'insertion d'un flux de données secondaire DS2 dans un flux de données principal DS1 codant un signal de parole VS1. Cette insertion est réalisée au niveau d'un émetteur qui, après multiplexage et codage de canal, émet le flux DS1 , et donc le flux DS2 qu'il contient, vers un récepteur distant. Un tel émetteur et un tel récepteur sont par exemple des terminaux mobiles d'un système de radiocommunications public tel que le GSM ou l'UMTS, ou un système de radiocommunications professionnel tel que TETRA ou TETRAPOL. Le flux DS1 est généré par un voeodeur 10 à partir du signal de parole VS1 , lequel est produit par une source de parole 1 telle que l'appareil vocal d'un individu. A cet effet, le signal de parole VS1 est numérisé selon un codage MIC (codage par modulation d'impulsion) linéaire, et segmenté en trames appelées trames de parole. De plus, chaque trame est en général segmentée au niveau du voeodeur 10 en un nombre M fixé de segments appelés sous- trames dans le domaine temporel (modèle CELP) ou dans le domaine fréquentiel (modèle MBE, de l'anglais "Multi-Band Excitation"). Typiquement M est compris entre 2 et 6, selon les vocodeurs). Chaque trame comprend un nombre déterminé N de bits. La figure 2 illustre un signal de parole numérisé et segmenté en trames F[i] successives, pour i compris entre 0 et l'infini. De plus, au moins pour certains paramètres, chaque trame F[i] peut être segmentée en M sous-trames notées SF[m], pour m compris entre 1 et M. A la figure, on note D la durée d'une trame. De retour à la figure 1 , le voeodeur 10 peut être un voeodeur EFR (de l'anglais "Enhanced Full Rate") du système GSM (voir spécification EN 300 726 GSM 06.60 de l'ETSI), un voeodeur AMR (de l'anglais "Adaptative Multi-Rate") du système UMTS (voir la spécification 3GPP TS26.101 de l'ETSI) pour lequel D=20 ms et M=4, un voeodeur d'un terminal de radiocommunication TETRA conforme à la spécification EN 300 395-2 de l'ETSI, ou encore un voeodeur TETRAPOL à 6 kbits/s (référencé dans le rapport ITU-R M.2014) pour lequel le nombre D=20 ms, M=3 et N=120. Le flux de données secondaire DS2 est par exemple généré par un codée 20, lequel reçoit un flux de données à coder d'une source 2. Dans un exemple d'application de l'invention, la source 2 émet aussi un signal de parole, le codée 20 étant alors un voeodeur de débit inférieur à celui du cocodeur 10. Dans ce cas, le flux DS2 est aussi un flux de trames de parole. Dans cette application, l'invention permet l'insertion discrète d'une communication secondaire dans une communication principale. Le codée 20, plus spécifiquement le voeodeur 20, peut être un voeodeur de type MF-MELP (de l'anglais "Multi-Frame - Mixed Excitation Linear Prédiction") à 1200/2400 bits/s décrit dans NATO STANAG 4591. Eventuellement, le flux DS2 peut être soumis à un codage correcteur d'erreurs, par exemple un codage CRC (de l'anglais "Cyclic Redundancy Code") ou un codage convolutif, qui forme un codage de canal en vue de sa transmission à travers le canal de transmission. En effet, on sait que certains bits des trames du flux de parole DS1 sont peu voire pas protégés par le un codage de canal, en sorte qu'une protection spécifique des bits du flux d'information DS2 peut être requise, selon les applications. Le voeodeur 10 comprend un codeur 100 qui met en oeuvre un algorithme de codage à modèle de source (ou modèle paramétrique), par exemple de type CELP ou de type MELP. Dans un tel cas, les paramètres correspondant au codage d'une trame de parole côté émetteur incluent, entre autres, des vecteurs d'excitation qui sont soumis, côté récepteur, à un filtre dont la réponse modélise la parole. Les algorithmes de codage paramétriques utilisent des paramètres calculés soit directement en fonction du flux de trames de paroles entrant et d'un état interne du voeodeur, soit calculés par itérations (sur des trames et/ou des sous-trames successives) en optimisant un critère donné. Typiquement, les premiers paramètres comprennent les paramètres de prédiction linéaire (LP) définissant un filtre court terme, et les seconds paramètres comprennent les paramètres d'excitation adaptative (LTP) définissant un filtre long terme et les paramètres d'excitation fixe. Chaque itération correspond au codage d'une sous-trame dans une trame du flux d'entrée. Ainsi, par exemple, les paramètres d'excitation adaptative et les paramètres d'excitation fixe sont sélectionnés par itérations successives afin de minimiser l'erreur quadratique entre le signal de parole synthétisé et le signal de parole VS1 original. Dans la littérature anglo-saxonne, cette sélection itérative est parfois appelée "Codebook search" ou "Analysis by Synthesis
Search", ou "Error Minimization Loop" ou encore "Closed Loop Pitch Analysis". En général, les paramètres d'excitation adaptative et/ou les paramètres d'excitation fixe peuvent comprendre chacun, d'une part un indice correspondant à une valeur d'un vecteur dans le dictionnaire adaptatif (dépendant de la sous-trame) ou dans un dictionnaire fixe, respectivement, et d'autre part une valeur de gain associée audit vecteur. Néanmoins, dans certains vocodeurs tels que le voeodeur TETRAPOL, les paramètres de l'une au moins des excitations adaptative et fixe définissent directement le vecteur d'excitation à appliquer, c'est-à-dire sans adressage d'un dictionnaire par un indice. Dans ce qui suit, il n'est pas fait de distinction entre le mode de définition des vecteurs d'excitation. Les contraintes imposées par les bits du flux DS2 s'appliquant soit à l'indice se rapportant à la valeur du vecteur d'excitation dans le dictionnaire, soit à la valeur de l'excitation elle-même. En plus du flux de données principal (flux de trames de parole) VS1 et du flux de données secondaire DS2, le voeodeur 10 reçoit, selon l'invention un flux TS de masques de trames, et/ou un flux BS de masques de bits. Le flux FS est généré par un générateur de masques de trames 3, à partir d'un flux binaire reçu d'un générateur pseudo-aléatoire 5, lequel fonctionne à partir d'une clé secrète Kf connue de l'émetteur et du récepteur. Un masque de trames a pour fonction de sélectionner, parmi un nombre déterminé de trames du flux de trames de parole DS1 , celles dans lesquelles, seulement, les bits du flux de données secondaires DS2 sont insérés. A cet effet, le générateur 3 exécute le processus suivant. Soit la suite des trames F[i] du flux principal DS1 , soit h une fonction numérique à valeurs entières, et soit k un nombre entier déterminé, qui est de préférence sensiblement égal à la profondeur de mémorisation de trames successives dans le voeodeur 10 (voir plus loin, nombre P, en référence au schéma de la figure 3), alors les trames F[h(i)], F[h(i)+1], ..., F[h(i)+k] définissent ce qui est appelé ici une sous-suite de groupes de trames de la suite des trames F[i]. Selon une modalité préférée de l'invention, les trames subissant la contrainte d'insertion sont des trames appartenant à une sous-suite de groupes de trames consécutives du flux principal DS1. Ceci permet de profiter de l'effet glissant du codage de parole résultant de la mémorisation de trames prévue dans le voeodeur 10, afin de préserver la qualité du codage du signal de parole VS1 dans le flux principal DS1. C'est pour cela que le nombre k, qui correspond à la longueur en trames d'un groupe de trames, est de préférence égal à, ou du moins proche de la profondeur de mémorisation R du voeodeur 10, ainsi qu'il a été dit plus haut. Par exemple, en choisissant h(i) = 10 χ i et k = 5 , alors les trames F[0] à F[5] subissent la contrainte d'insertion, les trames F[6] à F[9] ne subissent pas la contrainte d'insertion, les trames F[10] à F[15] subissent la contrainte d'insertion, les trames F[16] à F[19] ne subissent pas la contrainte d'insertion, etc. Dit autrement, dans cet exemple, 6 trames consécutives sur 10 subissent la contrainte d'insertion. Le flux BS est quant à lui généré par un générateur de masques de bits 4, à partir d'un flux binaire reçu d'un générateur pseudo-aléatoire 6, lequel fonctionne à partir d'une clé secrète Kb, également connue de l'émetteur et du récepteur. Un masque de bits a pour fonction de sélectionner, parmi les N bits d'une trame du flux de trames de parole DS1 sélectionnée en vertu du masque de trames associée à la trame F[i] courante, ceux qui, seulement, sont contraints par des bits du flux de données secondaire DS2. A cet effet, le générateur 4 exécute le processus suivant. Il produit un flux d'un nombre fixé Smax bits, où Smax désigne le nombre maximum de bits d'une trame courante Fi du flux principal DS1 qui peuvent être contraints par des bits du flux secondaire DS2. Un nombre déterminé S de bits parmi ces Smax bits, où S est inférieur ou égal à Smax (S≤Smax), ont la valeur logique 1 , les autres ayant la valeur logique 0. Ces Smax bits sont insérés dans une chaîne de N bits, à des positions prédéfinies et fixes qui sont prévues dans le logiciel du voeodeur 10, en sorte de former un masque binaire sur la trame. Ce masque, appelé masque de bits, comprend donc S bits égaux à 1. Dans un exemple, lorsqu'un bit du masque de bits est égal à 1 , il indique une position d'insertion d'un bit du flux secondaire DS2 dans la trame courante Fi du flux principal DS1. Le nombre Smax est fixé en réalisant un compromis entre le nombre de bits maximum du flux secondaire DS2 qu'on peut insérer dans une trame du flux principal DS1 , d'une part, et le souci de préserver la qualité du codage du signal de parole VS1 dans le flux principal DS1 , d'autre part. Le nombre Smax étant fixé, le nombre S dépend du débit du flux secondaire DS2. Le rapport S/N définit ce qu'on peut appeler le taux d'insertion du flux secondaire DS2 dans le flux principal DS1 pour la trame courante F[i], le rapport Smax N définissant le taux d'insertion maximum. Dans un exemple où on utilise un voeodeur TETRAPOL (pour lequel N = 120) avec h(i) = 10 x i , k = 5 et S = 50 , on obtient pour l'insertion du flux secondaire un canal de débit moyen de 1215 bit/s. Un tel débit permet l'insertion d'un flux de données secondaire généré par un codée de type MF- MELP à 1200 bit/s (nécessitant 81 bits dans 67,5 ms) décrit dans NATO STANAG 4591. Dit autrement, le taux d'insertion obtenu est suffisant pur transmettre discrètement un flux secondaire qui est aussi un flux de parole généré par un voeodeur secondaire 20 de débit inférieur à celui du voeodeur principal 10. Un exemple de contrainte d'insertion consiste à remplacer (i.e., écraser) les bits du flux principal DS1 normalement généré suivant l'algorithme de codage standard mis en œuvre par le voeodeur 10 à partir du signal de parole VS1 , par des bits du flux secondaire DS2. Dit autrement, les contraintes appliqués aux paramètres de codage de la parole du flux principal sont des contraintes d'égalité avec les bits du second flux, combinées à des contraintes de sélection par opération ET logique appliquant un masque binaire sur les bits formant le flux principal. Cet exemple est le plus simple, mais il n'est pas le seul. En effet, des algorithmes sur le flux principal et sur le flux secondaire utilisant toute grammaire contextuelle ou algèbre linéaire ou non-linéaire, y compris l'algèbre de Boole et l'algèbre temporelle de Allen (voir l'article "Maintaining Knowledge about Temporal Intervais", Communications of the ACM, 26/11/1983, pp. 832- 84), d'éventuelles mémoires auxiliaires et dépendant de la valeur de paramètres tiers, permettent à l'Homme du métier de définir des contraintes complexes, qui respectent par exemple des propriétés statistiques imposées par le modèle de parole du flux principal. Notons en particulier que l'ensemble des indices des excitations dans un dictionnaire a généralement une distribution des bits à 0 et à 1 totalement neutre vis à vis d'une analyse statistique d'occurrences. Il est généralement possible de chiffrer le flux secondaire DS2 sous une forme pseudo-aléatoire avant insertion, sans modifier la distribution statistique des 0 et 1 dans les bits modifiés du flux principal. Dans l'hypothèse d'un modèle de codage de parole conduisant à un flux codé dont certaines sous-trames auraient une corrélation vers 0 ou vers 1 , le générateur pseudo-aléatoire susmentionné ou un algorithme de chiffrement du flux secondaire devront aussi avoir ce biais. Ainsi qu'on l'aura compris, le nombre de bit contraints lors du codage varie d'une trame à l'autre selon une loi d'évolution connue de l'émetteur et du récepteur, qui sont supposés être synchronisés. La synchronisation de l'émetteur et du récepteur en ce qui concerne l'application des masques de trame et/ou des masques de bits résulte de la synchronisation générale entre ces deux équipements. Typiquement, cette synchronisation est assurée par l'étiquetage des trames à l'aide de valeurs générées par un compteur de trames. De façon connue, la synchronisation générale entre l'émetteur et le récepteur peut aussi provenir, en totalité ou en complément, d'éléments de synchronisation (motifs de bits particuliers) insérés dans le flux principal DS1. Le codeur 100 de l'émetteur et le décodeur du récepteur partagent une même information initiale permettant de déterminer la sous-suite des groupes trames et des sous-trames où l'insertion du flux secondaire a lieu. Cette information peut comprendre un vecteur d'initialisation des générateurs pseudo-aléatoires 5 et 6. Elle peut être fixe. Elle peut aussi dépendre, par exemple, du débit moyen imposé par le flux secondaire, ou encore dépendre de paramètres non contraints du codée principal 10 calculés lors du codage du flux principal. Ainsi qu'il est représenté à la figure 3, le codeur 100 comprend un module 11 qui est un module matériel et/ou logiciel de synthèse des paramètres de prédiction linéaire, recevant en entrée le signal de parole VS1 et délivrant en sortie une information LP correspondant aux paramètres de prédiction linéaire (coefficients du filtre de prédiction linéaire court terme). L'information LP est passée en entrée d'une unité logique 12, par exemple un multiplexeur, qui est commandée par le flux de masques de trames FS et le flux de masques de bits BS. L'unité 12 génère en sortie une information LP' correspondant à l'information LP dont certains bits au moins pour certaines trames au moins, ont été altérés par application des contraintes résultant du flux secondaires DS2 via le masque de trame et le masque de bits associés à la trame courante. Une mémorisation de l'information LP', avec une profondeur de mémorisation correspondant à un nombre déterminé P de trames successives, peut-être prévue pour le module 11. Le codeur 100 comprend aussi un module 21 qui est un module matériel et ou logiciel de synthèse des paramètres d'excitation adaptative, recevant en entrée l'information LP' et délivrant en sortie une information LTP correspondant aux paramètres d'excitation adaptative (définissant un premier vecteur de quantification et un gain un associé pour le filtre de synthèse court terme). L'information LTP est passée en entrée d'une unité logique 22, par exemple un multiplexeur, qui est commandée par le flux de masques de trames FS et le flux de masques de bits BS. L'unité 22 génère en sortie une information LTP' correspondant à l'information LTP dont certains bits au moins pour certaines trames et/ou pour certaines sous-trames au moins, ont été altérés par application des contraintes résultant du flux secondaires DS2 via le masque de trame et le masque de bits associés à la trame courante. Une mémorisation de l'information LTP', avec une profondeur de mémorisation correspondant à un nombre déterminé Q de sous-trames successives de la trame courante (Q≤M-1 ), peut-être prévue pour le module 21. Le codeur 100 comprend enfin un module 31 qui est un module matériel et/ou logiciel de synthèse des paramètres d'excitation fixe, recevant en entrée l'information LTP' et délivrant en sortie une information FIX correspondant aux paramètres d'excitation fixe (définissant un second vecteur de quantification et un gain un associé pour le filtre de synthèse court terme). L'information FIX est passée en entrée d'une unité logique 32, par exemple un multiplexeur, qui est commandée par le flux de masques de trames FS et le flux de masques de bits BS. L'unité 32 génère en sortie une information FIX' correspondant à l'information FIX dont certains bits au moins pour certaines trames et/ou pour certaines sous-trames au moins, ont été altérés par application des contraintes résultant du flux secondaires DS2 via le masque de trame et le masque de bits associés à la trame courante. Une mémorisation de l'information FIX', avec une profondeur de mémorisation correspondant à un nombre déterminé R de sous-trames successives de la trame courante (R≤M- 1 ), est prévue pour le module 21. De plus, une mémorisation de l'information FIX', avec une profondeur de mémorisation correspondant par exemple à un nombre déterminé W de sous-trames successives de la trame courante (W≤M- 1 ), peut-être prévue pour le module 21. Pour chaque trame courante, l'information LP'(F[i]) correspondant aux paramètres de prédiction linéaire de la trame, les informations LTP'(SF[1]) LTP'(SF[M] correspondant aux paramètres d'excitation adaptative respectivement pour chacune des sous-trames SF[1] à SF[M] de la trame, et les informations FIX'(SF[1 ]),..., FIX'(SF[M] correspondant aux paramètres d'excitation fixe respectivement pour chacune des sous-trames SF[1] à SF[M] de la trame, sont transmises en entrée d'un multiplexeur 41 qui les concatène pour former une trame du flux principal DS1. Les mémorisations dont il est question ci-dessus permettent ici d'atténuer l'effet des contraintes appliquées aux bits des paramètres de prédiction linéaire, des paramètres d'excitation adaptative et/ou des paramètres d'excitation fixe, vis-à-vis de la fidélité du flux principal DS1 au signal de parole source VS1. En effet, ces mémorisations permettent un effet de glissement dans le calcul des paramètres, en sorte que, pour une trame déterminée, les contraintes appliquées à des premiers paramètres sont au moins partiellement compensées, du point de vue perceptuel, par le calcul de paramètres calculés ensuite à partir d'une synthèse de parole basée sur lesdits premiers paramètres. Plus spécifiquement, on peut écrire les relations suivantes, où f désigne une fonction traduisant l'analyse par synthèse :
1 °) LP'(F[i])=f(LP'(F[i-1]), LP'(F[i-2]) LP'(F[i-P]) ;
2°) LTP'(SF[i])=f(LTP'(SF[i-1]) LTP'(SF[i-R]), FIX'(SF[i-1]) FIX'(SF[i-W]) ; 3°) FIX'(SF[i])=f(FIX'(SF[i-1]) FIX'(SF[i-W]). Ces compensations, et aussi le fait que l'insertion des bits du flux secondaire n'est pas aléatoire, permettent d'atteindre en pratique, pour certains vocodeurs, des taux d'insertion de l'ordre de 10 % sans générer de dégradation (du point de vue perceptuel) du signal de parole VS1 supérieure à ce que génère un taux d'erreur bit résiduel (après codage canal) de l'ordre de quelques %. On va maintenant décrire les implications du procédé côté récepteur. Notons tout d'abord que, pour un équipement récepteur ne traitant pas le flux secondaire DS2, le décodage des trames du flux DS1 reçues, est seul effectué selon l'algorithme de synthèse standard du voeodeur 10 de l'équipement émetteur. Pour un équipement récepteur traitant le flux secondaire DS2, la récupération de l'information codée par les bits de ce flux secondaire nécessite une synchronisation de l'équipement avec l'équipement émetteur, des moyens d'extraction du flux secondaire DS2 à partir du flux principal DS1. identique au codée 20 de l'équipement émetteur. On se réfère au schéma de la figure 4, qui montre de manière schématique les moyens d'un voeodeur 10a d'équipement récepteur destiné au' traitement du flux secondaire transmis grâce au procédé selon l'invention. Le voeodeur 10a, le cas échéant après démultiplexage et décodage canal, reçoit le flux principal DS1 en entrée, et délivre un signal de parole VS1' en sortie. Le signal VS1 ' est moins fidèle au signal de parole source VS1 (figure
3) qu'il ne le serait en absence de mise en œuvre du procédé d'insertion selon l'invention. Ceci traduit la perte de qualité du codage effectué côté émetteur, en raison des contraintes extérieures appliquées au voeodeur 1 de l'équipement émetteur. L'équipement récepteur peut aussi comprendre un moyen de restitution du signal de parole VS1', par exemple un haut-parleur ou similaire. Ainsi qu'il a déjà été dit plus haut, les protocoles de transmission connus prévoient une synchronisation générale de l'équipement récepteur avec l'équipement émetteur. La mise en œuvre de l'invention ne requiert donc pas de moyens particuliers à cet égard. Pour l'extraction du flux secondaire, le voeodeur 10a comprend un générateur de masques de trames 3a et un générateur de masques de bits 4a, respectivement associés à un générateur pseudo-aléatoire 5a et à un générateur pseudo-aléatoire 6a, qui sont identiques et agencés de la même façon que les moyens respectivement 3, 4, 5 et 6 du voeodeur 10 de l'équipement émetteur (figure 3). On notera que les générateurs 5a et 6a du récepteur reçoivent la même clé secrète, respectivement Kf et Kb, que les générateurs 5 et 6 du voeodeur 10 de l'équipement émetteur. Ces clés sont stockées dans une mémoire ad hoc des équipements. Les générateurs 3a et 4a génèrent respectivement un flux de masques de trames FSa et un flux de masques de bits BSa, qui sont fournis en entrée du d'un décodeur 100a du voeodeur 10a. L'extraction des bits du flux secondaire DS2 se fait par application synchrone (par exemple via des opération ET logique) des masques de trames et des masques de bits en entrée du décodeur 100a (par exemple via des opération ET logique), sans que cela affecte le décodage du flux principal DS1 par ce dernier. A cet effet, le flux DS1 est fourni en entrée du décodeur 00a via une unité logique 7a, qui extrait le flux d'information secondaire DS2 du flux d'information principal DS1 sous la commande du flux de masques de trames FSa et du flux de masques de bits BSa. L'équipement récepteur peut aussi comprendre un codée secondaire, identique au codée 20 de l'équipement émetteur pour le décodage du flux secondaire DS2. Lorsque ce flux est un flux de parole, le codée secondaire génère un signal de parole qui peut être restitué via un haut parleur ou similaire. On notera que la fluctuation du taux de transmission des bits du flux secondaire DS2 ne pose pas de problème particulier côté récepteur, dès lors que le flux secondaire DS2 est fourni en entrée d'un codée secondaire à débit variable comme c'est le cas de tous les vocodeurs du marché. En effet, un tel codée comprend une mémoire tampon d'entrée ("Input Buffer" en anglais) dans laquelle les données du flux DS2 sont stockées en vue de leur décodage. Il faut juste s'assurer que la mémoire tampon d'entrée n'est jamais vide. A cet effet, on détermine le taux d'insertion qui convient, en tenant compte en particulier du débit binaire du codeur 100 et du voeodeur secondaire 20 et des objectifs de préservation de la fidélité du flux principal VS1 au signal de parole VS1. Compte tenu des taux d'insertion élevés obtenus en pratique (de l'ordre de 10 %), cette question de l'alimentation du voeodeur secondaire de l'équipement récepteur ne devrait pas poser de problème, avec un voeodeur principal 10 de type AMR dans son mode de codage à 12,2 kbits/s et un voeodeur secondaire 20 de débit environ dix fois moindre. Par ailleurs, dans le cas où le flux secondaire est un flux de parole et afin de fournir au second décodeur un flux régulier de trames, on peut optionnellement mémoriser les séquences et de ne pas commencer immédiatement le décodage. Dans le cas où le flux secondaire est un flux de données transparentes, il est proposé de les concaténer et de les traiter comme si elles avaient été transmises au moyen d'une messagerie courte de longueur maximale (service SMS en GSM, par exemple), et d'y adjoindre un code convolutif correcteur d'erreurs. Alternativement, le flux de données transparentes peut être envoyé à un module de chiffrement ou à un module de transcodage et de synthèse de type "Text-to-Speech ». Revenons maintenant à la description générale des modalités de mise en œuvre du procédé de transmission selon l'invention. Le choix des bits d'une trame déterminée du flux principal qui subissent l'application de la contrainte du flux secondaire est déterminé selon les particularités de chaque application. On donne ci-après plusieurs modes de mise en œuvre possibles à cet égard, ainsi que d'autres particularités et avantages de l'invention. Dans un mode de mise en œuvre possible, des contraintes sont imposées lors du codage sur la valeur de zéro, plusieurs ou tous les bits de la trame qui sont associés à un vecteur d'excitation de type déterminé, adaptative ou fixe, avant d'effectuer les itérations permettant de calculer les paramètres qui dépendent dudit vecteur d'excitation en vertu des mémorisations réalisées dans le voeodeur. Ces bits de valeur contrainte sont alors les informations du flux secondaire transportées par la trame et constituent le canal du flux d'information secondaire DS2. Autrement dit, le flux secondaire est inséré en imposant des valeurs à des bits formant les paramètres des vecteurs d'excitation adaptative ou fixe. Ceci peut éventuellement être étendu en appliquant des contraintes simultanément aux vecteurs d'excitation de l'autre type, respectivement fixe ou adaptative. Lorsque la transmission entre l'émetteur et le récepteur prévoit un chiffrement partiel des trames du flux principal (c'est-à-dire un chiffrement de certains bits seulement dans chaque trame), le masque de bits peut avantageusement coïncider avec un ensemble de bits non chiffrés d'une trame. Ceci permet à l'équipement récepteur jouant le rôle de passerelle d'effectuer l'extraction du flux secondaire inséré dans le flux principal sans disposer des moyens de déchiffrer le flux principal. Ceci est particulièrement utile tout en préservant la confidentialité du flux principal, sous l'hypothèse approximative de linéarité du modèle de parole du voeodeur, c'est-à-dire en considérant que les paramètres résiduels ou d'excitation des cordes vocales sont non corrélés aux coefficients décrivant l'enveloppe spectrale de réponse du conduit vocal. Autrement dit, ce mode de mise en oeuvre du procédé est caractérisé en ce que le flux d'information secondaire est inséré en imposant des contraintes à des bits non chiffrés de paramètres du modèle de parole du flux principal. Ce mode de mise en œuvre est illustré par un exemple concernant un voeodeur EFR (voir plus haut) utilisé comme codée principal. On choisit d'utiliser des bits parmi les bits non protégés de chaque trame comme canal pour le flux secondaire, en écrasant leur valeur calculée par l'algorithme de codage source du flux principal par application d'un masque binaire sur les 78 bits non protégés de chaque trame. Ces 78 bits non protégés sont identifiés dans le tableau 6 (intitulé "Ordering of Enhaneed Full Rate Speech Parameters for the Channel Encoder" dans la spécification ETSI EN 300 909 V8.5.1 GSM 05.03 "Channel coding") et concernent un sous-ensemble des bits décrivant les vecteurs d'excitation fixes. Avec ces 78 bits de classe 2 par trame de 20 ms, on obtient un canal secondaire de débit nominal 3900 bit/s. On peut utiliser de préférence les bits les moins sensibles du mode de codage 12,2 kbit/s du codée AMR (voir plus haut) identifiés par ordre de sensibilité dans le tableau B.8 (intitulé "Ordering of the Speech Encoder Bits from the 12,2 kbit/s Mode" dans la spécification 3GPP TS26.101 "Adaptative Multi-Rate (AMR) Speech Codée Frame Structure"). II est donc également possible d'introduire, dans le mode de codage à
12,2 kbits/s du codée AMR, le flux d'un codée secondaire, par exemple le codeur MELP 1200/2400 bit/s décrit dans NATO STANAG 4591 , nécessitant 81 bits par 67,5 ms à 1200 bits/s (respectivement 54 bits par 22,5 ms 2400 bits/s), enrobé dans son propre codage correcteur d'erreur (taux 2/3 FEC), par exemple, qui protège 100% des bits à 1200 bit/s (respectivement 50% des bits à 2400 bit/s), et/ou enrobé dans des trames de négociation d'interopérabilité de sécurité de type FNBDT ("Future Narrow Band Digital Terminal") définies par l'OTAN, ou d'un type de protocole de sécurité plus léger. Dans un autre mode de mise en œuvre, applicable aux vocodeurs utilisant un algorithme basé sur la sélection d'excitations quantifiées dans un dictionnaire, la contrainte consiste à imposer une valeur d'excitation déterminée, tirée du dictionnaire. En variante, le dictionnaire est partitionné en plusieurs sous-dictionnaires, et la contrainte consiste à imposer l'un des sous- dictionnaires. Une autre variante comprend la combinaison des deux types de contrainte ci-dessus. Lors du décodage du flux principal côté récepteur, la connaissance de l'excitation reçue permet d'identifier le sous-dictionnaire et/ou l'excitation concernés, et d'en déduire la contrainte qui détermine les bits du flux secondaire. Notons qu'à une permutation près des excitations, la contrainte d'imposition du sous-dictionnaire peut être équivalente à l'application des contraintes sur les bits de poids faible des indices d'excitation dans le dictionnaire. Dans un autre mode de mise en œuvre, le flux secondaire définit un codage différentiel des indices de vecteurs d'excitation, par exemple de vecteurs d'excitation fixes, dans la sous-suite de trames successives du flux principal. Dans un autre mode de mise en œuvre, les bits contraints peuvent être les bits de poids faibles des excitations fixes (c'est-à-dire des excitations non adaptatives) pour chaque trame de parole et éventuellement pour chaque sous-trame définie dans la trame de parole au sens de l'algorithme de codage du voeodeur 10. Dans un autre mode de mise en œuvre, le nombre et la position des bits contraints sont identifiés pour chaque trame successive en fonction d'un algorithme de calcul d'un masque et d'un élément secret connu des de l'émetteur et du récepteur, afin d'accroître les chances de non-détection de l'existence du flux secondaire par un tiers. Un autre mode de mise en œuvre, applicable à un algorithme de codage nécessitant plusieurs vecteurs d'excitation fixe par trame ou sous- trame, tel que le codée CELP pour la parole d'un flux MPEG-4 (défini dans la spécification ISO/IEC 14496-3 Sub-part 3) pour lequel certaines excitations fixes d'une trame sont choisies à partir de calculs précédents et où d'autres excitations fixes de la même trame sont calculés par analyse par synthèse sur un dictionnaire (voir la spécification ISO/IEC 14496-3 §7.9.3.4 "Multi-Pulse Excitation for the bandwidth extension tool"), consiste à imposer la contrainte sur le choix par dictionnaire de la première excitation fixe et à utiliser ensuite les itérations d'analyse par synthèse sur la seconde excitation fixe pour rattraper l'erreur imposée par la contrainte sur la première excitation fixe. Dans un autre mode de mise en œuvre, la sous-suite des trames du flux principal qui sont concernées par l'insertion du flux secondaire ne comprend que les trames qui présentent suffisamment d'énergie et de parole au sens du voeodeur. Dans une variante applicable par exemple aux vocodeurs MELP (qui définissent plusieurs niveaux de voisement) ou aux vocodeurs HVXC (de l'anglais "Harmonie Vector excitation Codée", qui sont des vocodeurs paramétriques d'un flux de parole MPEG-4 définis dans la spécification ISO/IEC 14496-3 Sub-part 2) la sous-suite ne concerne que les segments peu voisés ou totalement non voisés des trames. Lorsque la contrainte est appliquée sur les paramètres d'excitation, par exemple sur les indices d'excitation fixes, les paramètres d'une sous-trame du flux principal DS1 restent tout à fait conformes au modèle de codage de parole du voeodeur 10. Néanmoins, la séquence des excitations fixes modifiées est peut-être statistiquement atypique pour une parole humaine ou éventuellement atypique pour le procédé de reconnaissance du locuteur, selon les contraintes appliquées et l'objectif de fidélité souhaité. Pour éviter que la présence du flux secondaire dans ces excitations ne puisse être détectée dans un équipement récepteur, un traitement des paramètres comprenant un lissage des gains des excitations fixes associé à un traitement des impulsions isolées des vecteurs d'excitation suivi d'un post-filtrage après la synthèse de parole, peuvent être appliqués au décodage. Ces traitements permettent d'exclure des séquences acoustiques apparaissant après transmission dans un canal bruité, qui seraient impossible à prononcer par un appareil vocal humain dans l'ambiance d'un microphone. Il s'agit par exemple de certaines séquences de cliquetis, chuintement, crissements, sifflements ou autres, dans le bruit de fond que le voeodeur standard n'aurait pas suffisamment filtrées lors de la synthèse de parole du fait des contraintes imposées. C'est ainsi que peuvent être rendus imperceptibles des sons non voisés indésirables, qui seraient corrélés aux séquences d'excitation fixe contraintes selon le procédé de l'invention. Néanmoins, lorsque l'application de contraintes risque de conduire à la perception de sons non-voisés indésirables corrélés à une séquence d'excitation fixe atypique d'une parole humaine et non filtrée par le filtrage du décodeur standard du voeodeur, la sous-suite des trames sur lesquelles sont appliquées les contraintes peut être définie en fonction d'analyses statistiques préalables sur les valeurs des paramètres consécutifs du modèle de parole du vocodeurs, par exemple en tirant parti de la texture des paramètres de la parole, définie par une inertie, une entropie ou une énergie dérivée de la probabilité des séquences de valeurs des paramètres, par exemple dans huit trames consécutives représentatives de la durée d'un phonème. Pour chaque mode de mise en oeuvre, la performance de la synthèse du flux principal DS1 , c'est-à-dire la fidélité au signal VS1 , est inversement proportionnelle au débit relatif du flux secondaire DS2. La performance de fidélité subjective à la source 1 du signal de parole VS1 peut toutefois être atteinte lorsque le procédé proposé garde invariants certains attributs subjectifs (par exemple certains critères psycho-acoustiques) de la source 1. Elle peut être mesurée par des mesures statistiques ("Mean Opinion Score", ou MOS) selon une échelle standardisée (voir la recommandation ITU-T P.862 "Perceptual évaluation of speech quality -PESQ"). Dans certains modes de réalisation, la dégradation de la qualité subjective du flux de parole DS1 issu du voeodeur 10, qui est due à l'insertion du flux secondaire DS2, est supposée acceptable pour justifier l'application du procédé proposé. C'est en particulier le cas lorsque le flux secondaire est également un flux de parole et que le contenu auditif du flux principal est bien moins important que le contenu du flux secondaire pour l'auditeur légitime. En effet, la perception psycho-acoustique de la présence éventuelle du flux secondaire lors de l'écoute du flux principal décodé et restitué ne permet pas d'aider à localiser le flux secondaire dans le flux principal et donc d'apporter une preuve formelle de son existence. Ceci est en particulier le cas pour un voeodeur 10 à bas débit utilisé dans un environnement bruité, car le décodage et la restitution du flux principal DS1 fournissent des séquences de parole conformes au modèle du voeodeur 10. C'est aussi le cas, dans certaines limites psycho-acoustiques, lorsque le débit minimal du flux secondaire doit être assuré au détriment de la qualité de restitution du flux principal. Afin de préserver au mieux l'intelligibilité de la synthèse du flux principal DS1 , on préfère ne pas appliquer de contraintes sur les paramètres spectraux de prédiction linéaire (LP) définissant le filtre court terme, et ne pas trop perturber les paramètres à long terme (LTP) adaptés à chaque sous- trame, afin de conserver des caractéristiques subjectives jugées essentielles dans le signal de parole VS1. En particulier, un mode de mise en oeuvre consiste à appliquer de préférence les contraintes sur des sous-trames différentes des sous-trames sur lesquelles les fenêtres d'analyse à long terme de la trame sont concentrées, à savoir, par exemple, la seconde et la quatrième sous-trame pour le mode de codage 12,2 kbit/s du voeodeur AMR évoqué supra (voir la spécification 3GPP TS 26.090 V5.0.0, § 5.2.1 "Windowing and auto-correlation computation"). En particulier, on évitera de perturber beaucoup de segments voisés, généralement porteurs de la majorité des caractéristiques d'identification du locuteur. A titre d'exemple élaboré, dans le mode de codage 12,2 kbit/s du voeodeur AMR, il est possible d'imposer une contrainte sur le choix de l'excitation adaptative en imposant des valeurs initiales aux échantillons u(n) n=0,...,39, dans l'équation récursive (38) de calcul du vecteur adaptatif décrit au paragraphe 5.6.1 (intitulé "Adaptative Codebook Search") de la spécification 3GPP TS 26.090 évoquée supra, en substituant aux valeurs du résidu LP, calculé dans l'équation (36), 40 valeurs extraites du flux secondaire. L'erreur entre le signal du flux principal et le signal synthétisé par le filtre court terme avec la contribution du vecteur adaptatif contraint est compensée par le choix du vecteur d'excitation fixe qui tente de rattraper l'erreur résiduelle (par exemple l'erreur résiduelle quadratique) de la prédiction long terme sur la même sous-trame, ainsi que les vecteurs d'excitation des sous-trames successives. Ainsi les vecteurs d'excitation contraints codent le flux secondaire comme résidu adaptatif au dessus de la réponse du filtre de synthèse court terme du flux principal corrigé par le résidu fixe. Dans une autre exemple, pour un modèle de parole du voeodeur paramétrique de type STC (de l'anglais "Sinusoïdal Transform Coding") ou de type MBE ("Multi Band Excitation") par exemple selon le standard spécifications ANSI/TIA/EIA 102.BABA ("APCO Project 25 Vocoder Description"), un mode de mis en oeuvre conduit à s'intéresser aux bits de poids faible des paramètres d'amplitude des harmoniques des segments des trames ou aux paramètres d'amplitudes d'échantillons de l'enveloppe spectrale. Dans un codée MBE, les paramètres d'excitation sont la fréquence fondamentale ainsi que la décision voisé/non-voisé pour chaque bande de fréquences. Dans ce qui précède, on a décrit des modes de mise en oeuvre prévoyant l'insertion des bits du flux secondaire dans des trames de parole du flux principal. Néanmoins, on sait que le flux principal DS1 contient aussi des trames de silence, qui sont des trames codées par le voeodeur 10 avec un moindre débit binaire et émise avec une périodicité moindre que les trames de parole, pour synthétiser lorsque les périodes de silences contenues dans le signal de parole VS1. Ces trames de silence synthétise ce qu'on appelle un bruit de confort. Or, un mode de mise en œuvre du procédé peut prévoir, en variante ou en complément, l'insertion du flux secondaire via des contraintes numériques sur les valeurs des paramètres descripteurs du bruit de confort à générer au titre du flux principal. Ce mode de mise en oeuvre est illustré par un exemple concernant un codée EFR ou AMR (voir plus haut) utilisé comme codée principal. Dans les système GSM et UMTS, les trames transportant du bruit de confort (trames de silence) sont nommées trames SID (voir par exemple la spécification 3GPP TS 26.092 "Mandatory Speech Codée Speech Processing Functions ; AMR Speech Codée ; Confort Noise Aspects" de l'ETSI). Plus précisément les trames considérées ici sont les trames SID-UPDATE qui contiennent 35 bits de paramètres de bruit de confort et un code correcteur d'erreur sur 7 bits. Dans un système GSM ou UMTS, c'est la source qui contrôle l'émission des trames de silence, c'est-à-dire le codée de l'émetteur (sous réserve des interactions avec le processus de détection d'activité vocale et de transmission discontinue, en particulier sur la voie descendante du relais vers le terminal mobile). Il est donc possible de procéder par insertion du second flux selon un procédé similaire à celui applicable à une trame contenant suffisamment d'énergie de parole (trame de parole). De manière alternative, il est possible de commander l'émission d'une trame de silence particulière à partir de l'entrée analogique numérisée du codée en générant le bruit analogique de confort représentatif des 35 bits du flux secondaire. Dans les systèmes GSM et UMTS, la fréquence des trames de silence est contrôlée par la source ou par le relais et correspond soit à une trame de silence toutes les 20 ms soit à une trame de silence toutes les 160 ms, soit encore à une trame de silence toutes les 480 ms pour le codée EFR du système GSM. Ceci détermine le débit maximal pour le flux secondaire dans cette variante du procédé. Dans une modalité particulière, il est possible d'utiliser le canal de transmission duplex pour envoyer des trames de silence lorsque le locuteur est un second participant à la communication ou dans les silences dans une première conversation, c'est-à-dire entre les groupes de phonèmes émis selon le flux principal. On notera que la spécification 3GPP TS 26.090 précise que la taille du champ de codage du bruit de confort du codée EFR, à savoir 35 bits par trame de silence, est identique à la taille du paramètre d'excitation fixe pour ce même codée. Cela signifie qu'on peut appliquer les mêmes contraintes et obtenir un débit d'insertion minimal permanent en utilisant toutes les trames indépendamment de la nature, parole ou silence, du flux principal.

Claims

REVENDICATIONS
1. Procédé de transmission d'un flux d'information secondaire entre un émetteur et un récepteur, comprenant l'insertion dudit flux d'information secondaire au niveau d'un voeodeur paramétrique de l'émetteur générant un flux d'information principal qui est un flux de données de parole codant un signal de parole et qui est transmis de l'émetteur vers le récepteur, suivant lequel des bits du flux d'information secondaire sont insérés : - dans certaines seulement des trames du flux d'information principal, sélectionnées par un masque de trames connu de l'émetteur et du récepteur ; et/ou, - à l'intérieur d'une trame déterminée du -flux d'information principal, en imposant une contrainte à certains seulement des bits de la trame, sélectionnés par un masque de bits connu de l'émetteur et du récepteur.
2. Procédé selon la revendication 1 , suivant lequel le masque de trames est variable et est généré selon un algorithme commun parallèlement dans l'émetteur et dans le récepteur.
3. Procédé selon la revendication 1 ou la revendication 2, suivant lequel le masque de trames définit une sous-suite de groupes de trames consécutives dans chacune desquelles des bits du flux d'information secondaire sont insérés.
4. Procédé selon la revendication 3, suivant lequel la longueur en nombre de trames d'un groupe de trames consécutives est sensiblement égale à la profondeur de mémorisation des trames dans le voeodeur paramétrique.
5. Procédé selon l'une quelconque des revendications précédentes, suivant lequel, le modèle de source du voeodeur paramétrique prévoyant, pour certaines au moins des trames du flux d'information principal différentes classes de bits en fonction de leur sensibilité vis à vis de la qualité du codage du signal de parole, le masque de bits est tel que des bits du flux d'information secondaire sont insérés dans ces trames en imposant une contrainte en priorité aux bits appartenant à la classe de bits la moins sensible.
6. Procédé selon l'une quelconque des revendications 1 à 5, suivant lequel le flux d'information secondaire est un flux de données de parole sortant d'un autre voeodeur ayant un débit plus faible que le débit du voeodeur paramétrique.
7. Procédé selon l'une quelconque des revendications 1 à 5, suivant lequel le flux d'information secondaire est un flux de données transparentes.
8. Procédé selon l'une quelconque des revendications précédentes, suivant lequel le flux d'information secondaire est soumis à un codage correcteur d'erreurs avant insertion dans le flux d'information principal.
9. Procédé selon l'une quelconque des revendications précédentes, suivant lequel des bits du flux d'information secondaire sont insérés en imposant des valeurs à des bits qui appartiennent à des paramètres d'excitation d'un filtre du modèle de source du voeodeur paramétrique.
10. Procédé selon l'une quelconque des revendications précédentes, suivant lequel des bits du flux d'information secondaire sont insérés dans des trames de silence du flux d'information principal.
11. Procédé selon l'une quelconque des revendications précédentes, suivant lequel des bits du flux d'information secondaire sont insérés en imposant des contraintes à des bits non chiffrés au titre d'un chiffrement de bout en bout du flux d'information principal.
12. Procédé selon l'une quelconque des revendications précédentes, suivant lequel la contrainte est une contrainte d'égalité des bits de la trame du flux d'information principal avec les bits du flux d'information secondaire insérés.
13. Voeodeur paramétrique comprenant, pour l'insertion d'un flux d'information secondaire dans un flux d'information principal qui est généré par le voeodeur paramétrique à partir d'un signal de parole, des moyens d'insertion adaptés pour insérer des bits du flux d'information secondaire : - dans certaines seulement des trames du flux d'information principal, sélectionnées par un masque de trames déterminé ; et/ou, - à l'intérieur d'une trame déterminée du flux d'information principal, en imposant une contrainte à certains seulement des bits de la trame, sélectionnés par un masque de bits déterminé .
14. Voeodeur paramétrique selon la revendication 13, dans lequel le masque de trames est variable et est généré selon un algorithme à base d'une clé secrète.
15. Voeodeur paramétrique selon la revendication 13 ou la revendication 14, dans lequel le masque de trames définit une sous-suite de trames consécutives dans chacune desquelles des bits du flux d'information secondaire sont insérés.
16. Voeodeur paramétrique selon l'une quelconque des revendications 13 à 15, dans lequel la longueur en nombre de trames de la sous-suite de trames consécutives est sensiblement égale à la profondeur de mémorisation des trames dans le codée de parole paramétrique.
17. Voeodeur paramétrique selon l'une quelconque des revendications 13 à 16, dans lequel, le modèle de source du Voeodeur paramétrique prévoyant dans certaines au moins des trames du flux d'information principal différentes classes de bits en fonction de leur sensibilité vis à vis de la qualité du codage du signal de parole, le masque de bits est tel que des bits du flux d'information secondaire sont insérés dans ces trames en imposant une contrainte en priorité aux bits appartenant à la classe de bits la moins sensible.
18. Voeodeur paramétrique selon l'une quelconque des revendications 13 à
17, comprenant en outre des moyens pour soumettre le flux d'information secondaire à un codage correcteur d'erreurs avant insertion dans le flux d'information principal.
19. Voeodeur paramétrique selon l'une quelconque des revendications 13 à
18, dans lequel les moyens d'insertion sont adaptés pour insérer des bits du flux d'information secondaire en imposant des valeurs à des bits qui appartiennent à des paramètres d'excitation d'un filtre du modèle de source du voeodeur paramétrique.
20. Voeodeur paramétrique selon l'une quelconque des revendications 13 à
19, dans lequel les moyens d'insertion sont adaptés pour insérer des bits du flux d'information secondaire dans des trames de silence du flux d'information principal.
21. Voeodeur paramétrique selon l'une quelconque des revendications 13 à
20, dans lequel les moyens d'insertion sont adaptés pour insérer des bits du flux d'information secondaire en imposant des contraintes à des bits de bout en bout au titre du flux d'information principal.
22. Equipement terminal d'un système de radiocommunications comprenant un voeodeur paramétrique selon l'une quelconque des revendications 13 à 21.
PCT/FR2004/002259 2003-09-05 2004-09-06 Procede de transmission d'un flux d'information par insertion a l'interieur d'un flux de donnees de parole, et codec parametrique pour sa mise en oeuvre WO2005024786A1 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
AT04787314T ATE484821T1 (de) 2003-09-05 2004-09-06 Informationsfluss-übertragungsverfahren, wobei der fluss in einen sprach-datenfluss eingefügt wird, und zu seiner implementierung verwendeter parametrischer codec
DE602004029590T DE602004029590D1 (de) 2003-09-05 2004-09-06 Informationsfluss-übertragungsverfahren, wobei der fluss in einen sprach-datenfluss eingefügt wird, und zu seiner implementierung verwendeter parametrischer codec
US10/569,914 US7684980B2 (en) 2003-09-05 2004-09-06 Information flow transmission method whereby said flow is inserted into a speech data flow, and parametric codec used to implement same
EP04787314A EP1665234B1 (fr) 2003-09-05 2004-09-06 Procede de transmission d un flux d information par insertion a l'interieur d'un flux de donnees de parole, et codec parametrique pour sa mise en oeuvre
CA002541805A CA2541805A1 (fr) 2003-09-05 2004-09-06 Procede de transmission d'un flux d'information par insertion a l'interieur d'un flux de donnees de parole, et codec parametrique pour sa mise en oeuvre

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR03/10546 2003-09-05
FR0310546A FR2859566B1 (fr) 2003-09-05 2003-09-05 Procede de transmission d'un flux d'information par insertion a l'interieur d'un flux de donnees de parole, et codec parametrique pour sa mise en oeuvre

Publications (1)

Publication Number Publication Date
WO2005024786A1 true WO2005024786A1 (fr) 2005-03-17

Family

ID=34178831

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2004/002259 WO2005024786A1 (fr) 2003-09-05 2004-09-06 Procede de transmission d'un flux d'information par insertion a l'interieur d'un flux de donnees de parole, et codec parametrique pour sa mise en oeuvre

Country Status (8)

Country Link
US (1) US7684980B2 (fr)
EP (1) EP1665234B1 (fr)
AT (1) ATE484821T1 (fr)
CA (1) CA2541805A1 (fr)
DE (1) DE602004029590D1 (fr)
ES (1) ES2354024T3 (fr)
FR (1) FR2859566B1 (fr)
WO (1) WO2005024786A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8306069B2 (en) 2006-03-06 2012-11-06 Eads Secure Networks Interleaved cryptographic synchronization

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8054969B2 (en) * 2007-02-15 2011-11-08 Avaya Inc. Transmission of a digital message interspersed throughout a compressed information signal
PL2171713T3 (pl) * 2007-06-15 2011-08-31 France Telecom Kodowanie cyfrowych sygnałów akustycznych
US8792473B2 (en) * 2008-12-18 2014-07-29 Motorola Solutions, Inc. Synchronization of a plurality of data streams
PT2559028E (pt) * 2010-04-14 2015-11-18 Voiceage Corp Livro de códigos de inovação combinados flexível e evolutivo a utilizar num codificador e descodificador celp
US8689089B2 (en) * 2011-01-06 2014-04-01 Broadcom Corporation Method and system for encoding for 100G-KR networking
CN103187065B (zh) * 2011-12-30 2015-12-16 华为技术有限公司 音频数据的处理方法、装置和系统
US9165162B2 (en) * 2012-12-28 2015-10-20 Infineon Technologies Ag Processor arrangements and a method for transmitting a data bit sequence

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5937000A (en) * 1995-09-06 1999-08-10 Solana Technology Development Corporation Method and apparatus for embedding auxiliary data in a primary data signal
WO2000039955A1 (fr) * 1998-12-29 2000-07-06 Kent Ridge Digital Labs Application de filigrane audio numerique par utilisation de sauts a echos multiples adaptes au contenu
EP1020848A2 (fr) 1999-01-11 2000-07-19 Lucent Technologies Inc. Procédé pour la transmission d'informations auxiliaires dans un flux généré par un vocodeur
US20010038643A1 (en) 1998-07-29 2001-11-08 British Broadcasting Corporation Method for inserting auxiliary data in an audio data stream

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0441980B1 (fr) * 1989-09-04 1997-04-09 Fujitsu Limited Systeme-relais de commutation de donnees a multiplexage temporel
US5319735A (en) * 1991-12-17 1994-06-07 Bolt Beranek And Newman Inc. Embedded signalling
US5790759A (en) * 1995-09-19 1998-08-04 Lucent Technologies Inc. Perceptual noise masking measure based on synthesis filter frequency response
US5757788A (en) * 1996-01-11 1998-05-26 Matsushita Electric Ind. Digital radio communication system with efficient audio and non-audio data transmission
JP4456185B2 (ja) * 1997-08-29 2010-04-28 富士通株式会社 コピー防止機能を持つ見える透かし入り動画像記録媒体とその作成・検出および録画・再生装置
WO1999041094A1 (fr) * 1998-02-17 1999-08-19 Mi-Jack Products Systeme de roues pour rails servant a supporter les charges d'une grue a portique se deplaçant sur la route
US7130309B2 (en) * 2002-02-20 2006-10-31 Intel Corporation Communication device with dynamic delay compensation and method for communicating voice over a packet-switched network

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5937000A (en) * 1995-09-06 1999-08-10 Solana Technology Development Corporation Method and apparatus for embedding auxiliary data in a primary data signal
US20010038643A1 (en) 1998-07-29 2001-11-08 British Broadcasting Corporation Method for inserting auxiliary data in an audio data stream
WO2000039955A1 (fr) * 1998-12-29 2000-07-06 Kent Ridge Digital Labs Application de filigrane audio numerique par utilisation de sauts a echos multiples adaptes au contenu
US6674861B1 (en) * 1998-12-29 2004-01-06 Kent Ridge Digital Labs Digital audio watermarking using content-adaptive, multiple echo hopping
EP1020848A2 (fr) 1999-01-11 2000-07-19 Lucent Technologies Inc. Procédé pour la transmission d'informations auxiliaires dans un flux généré par un vocodeur

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Maintaining Knowledge about Temporal Intervals", COMMUNICATIONS OF THE ACM, 26 November 1983 (1983-11-26), pages 832 - 84

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8306069B2 (en) 2006-03-06 2012-11-06 Eads Secure Networks Interleaved cryptographic synchronization

Also Published As

Publication number Publication date
ES2354024T8 (es) 2011-04-12
EP1665234B1 (fr) 2010-10-13
EP1665234A1 (fr) 2006-06-07
ES2354024T3 (es) 2011-03-09
CA2541805A1 (fr) 2005-03-17
DE602004029590D1 (de) 2010-11-25
US7684980B2 (en) 2010-03-23
FR2859566A1 (fr) 2005-03-11
ATE484821T1 (de) 2010-10-15
US20060247926A1 (en) 2006-11-02
FR2859566B1 (fr) 2010-11-05

Similar Documents

Publication Publication Date Title
EP1320087B1 (fr) Synthèse d'un signal d'excitation utilisé dans un générateur de bruit de confort
EP2277172B1 (fr) Dissimulation d'erreur de transmission dans un signal audionumerique dans une structure de decodage hierarchique
EP1316087B1 (fr) Dissimulation d'erreurs de transmission dans un signal audio
US7310596B2 (en) Method and system for embedding and extracting data from encoded voice code
FR3007564A3 (fr) Decodeur audio avec metadonnees d'informations de programme
KR20070028373A (ko) 음성음악 복호화 장치 및 음성음악 복호화 방법
FR2907586A1 (fr) Synthese de blocs perdus d'un signal audionumerique,avec correction de periode de pitch.
EP2080194B1 (fr) Attenuation du survoisement, notamment pour la generation d'une excitation aupres d'un decodeur, en absence d'information
WO1999040573A1 (fr) Procede de decodage d'un signal audio avec correction des erreurs de transmission
JP4330346B2 (ja) 音声符号に対するデータ埋め込み/抽出方法および装置並びにシステム
EP1665234B1 (fr) Procede de transmission d un flux d information par insertion a l'interieur d'un flux de donnees de parole, et codec parametrique pour sa mise en oeuvre
WO2005066936A1 (fr) Transcodage entre indices de dictionnaires multi-impulsionnels utilises en codage en compression de signaux numeriques
FR3049084A1 (fr)
EP2347411A1 (fr) Attenuation de pre-echos dans un signal audionumerique
EP1554878A2 (fr) Embrouillage adaptatif et progressif de flux audio
EP2203915B1 (fr) Dissimulation d'erreur de transmission dans un signal numerique avec repartition de la complexite
EP2171713B1 (fr) Codage de signaux audionumériques
US20030158730A1 (en) Method and apparatus for embedding data in and extracting data from voice code
WO2009080982A2 (fr) Traitement d'erreurs binaires dans une trame binaire audionumerique
MX2007015190A (en) Robust decoder

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006247926

Country of ref document: US

Ref document number: 10569914

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2541805

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 2004787314

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2004787314

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 10569914

Country of ref document: US