WO2002063609A1 - Methode et dispositif de traitement d'une pluralite de flux binaires audio - Google Patents

Methode et dispositif de traitement d'une pluralite de flux binaires audio Download PDF

Info

Publication number
WO2002063609A1
WO2002063609A1 PCT/FR2002/000366 FR0200366W WO02063609A1 WO 2002063609 A1 WO2002063609 A1 WO 2002063609A1 FR 0200366 W FR0200366 W FR 0200366W WO 02063609 A1 WO02063609 A1 WO 02063609A1
Authority
WO
WIPO (PCT)
Prior art keywords
audio
stream
streams
input
band
Prior art date
Application number
PCT/FR2002/000366
Other languages
English (en)
Inventor
Abdellatif Benjelloun Touimi
Cédric BOISSEAU
Claude Lamblin
Franck Bouteille
David Deleam
Roland Patard
Original Assignee
France Telecom Sa
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by France Telecom Sa filed Critical France Telecom Sa
Priority to DE60224005T priority Critical patent/DE60224005T2/de
Priority to EP02701358A priority patent/EP1356455B1/fr
Publication of WO2002063609A1 publication Critical patent/WO2002063609A1/fr

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/20Arrangements for detecting or preventing errors in the information received using signal quality detector
    • H04L1/208Arrangements for detecting or preventing errors in the information received using signal quality detector involving signal re-encoding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/012Comfort noise or silence coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/20Arrangements for detecting or preventing errors in the information received using signal quality detector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/568Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities audio processing specific to telephonic conferencing, e.g. spatial distribution, mixing of participants

Definitions

  • a discontinuity in an audio stream can be due to the loss of part of the audio stream data, to jitter and / or asynchronism between the receiver and the transmitter or to a discontinuous transmission of the transmitter.
  • the loss of part of the audio stream generally corresponds to the loss of one or more frames, the length of the frames being dependent on the coding and the transmission mode specific to each network.
  • the quality of service is generally not guaranteed.
  • the network has no minimum threshold on the bit rate offered for packet transport. The bandwidth available depends on the traffic conditions on the network. Thus, in the case of heavy congestion, the fluidity of transmission is no longer possible. An overflow of the routers' buffers can therefore occur and certain packets can be rejected.
  • Some audio transmitters incorporate a silence compression system associated with a discontinuous transmission mechanism to reduce the bit rate transmitted during the silence intervals and thus preserve the bandwidth allocated to the communication.
  • VAD Voice Activity Detector / Discontinuous Transmission / Comfort Noise Generator
  • a voice activity detector VAD
  • VAD Voice Activity detector
  • a discontinuous transmission module decides either to extend the voice activity ("hangover") to avoid a too sudden cut at the end of an active period, or to send or not a frame SID (Silence Insertion Descriptor).
  • This SID frame contains coded information describing the characteristics of the background noise to allow the insertion of artificial noise to the receiver during periods of inactivity.
  • the background noise characteristics may or may not be updated during the period of voice inactivity.
  • the update frequency also depends on the DTX discontinuous transmission system: some DTX send an SID frame at regular intervals (GSM), others only send an SID frame when the power spectrum noise has changed (ITU-T G.723.1).
  • GSM regular intervals
  • ITU-T G.723.1 When the system does not update the characteristics of the background noise, the information for the end of the voice activity period may or may not be indicated in the last frame transmitted.
  • some audio transmitters, operating in DTX mode do not transmit an SID frame or provide information about the end of the voice activity period.
  • the implementation of the regeneration techniques described above increases the complexity of the audio processing devices and more particularly of the multi-stream processing devices.
  • the systematic regeneration of all the non-received streams not only leads to an increase in complexity, but it also risks deteriorating the quality if the coder is poorly performing for multi-source signals or if it resists transcoding cascades poorly.
  • the coding used is of the CELP (Code Excited Linear Predictive) type at low bit rate.
  • the multipoint control unit also called audio bridge, performs the combination (or mixing) of a plurality of audio streams then routing to the terminals concerned.
  • Fig. 1 illustrates such an audio bridge.
  • the bridge From K input audio streams received Ei, .. E ⁇ , the bridge supplies K output audio streams S ⁇ , .., S ⁇ by combination of the input streams in the module (130).
  • the sum of the (Kl) input flows (E ⁇ ), p ⁇ m is directed to the output Sm.
  • the input streams Prior to their combination, the input streams are decoded or partially decoded in the decoders 110 ⁇ , 110, .. 110 ⁇ - Conversely, the output streams undergo a recoding or a partial recoding in the encoders 120j, 120 2 , ... 120 ⁇ .
  • the input streams E p consist of coded audio data frames.
  • the coding used can be a perceptual coding effecting a modified discrete cosine transform (TCDM) on the digital frames of the audio signal followed by a quantification of the frequency components obtained with dynamic allocation of bits as a function of the masking levels by sub-bands.
  • TDAC modified discrete cosine transform
  • the structure of this perceptual coder is illustrated in Fig. 2.
  • the unit 250 normalizes each transform coefficient y (k) by the energy e q (j) of the sub-band to which it belongs and quantifies each coefficient thus normalized as a function of the number of allocated bits.
  • voicing v ⁇ in the following way: if all the input frames p, p ⁇ m are of the same nature, voiced or unvoiced, the combined voicing information, v_ "will respectively indicate voicing or non voicing. If the input frames p, p ⁇ m are of different natures, the unit 380 m calculates the sum of the energies of the voiced frames on the one hand, and the sum of the energies of the unvoiced frames on the other hand, and determines the combined voicing information, vP, in comparing these two sums. Finally, the unit 385 m determines the combined tone information W as follows: if all the input frames p, p ⁇ m have the same tone information, the combined tone information will take the common value. On the other hand, if the tone information differs, the determination of the combined information is carried over to the partial coding phase.
  • the partial recoder illustrated in Fig. 3C receives from the mixing module 130 the combined values yc (k), e? (J), vF t t ⁇ from an output m of the mixing module.
  • the tone information is calculated by the unit 362 from the coefficients y c (k) if it could not be determined by the mixing module 130.
  • the values of the energies e (j) as well as the information of voicing v e are used by a unit 332 of spectral envelope encoding for quantizing and coding the energy of the different sub-bands.
  • the values of the energies e (j) are also used by the unit 342 for calculating the masking curve. The latter provides the dynamic allocation unit 322 as well as the masking unit 352 with the masking levels for the different sub-bands j.
  • the invention is also defined by an audio signal processing device adapted to receive a plurality of input audio streams and to provide at least one output audio stream from said input audio streams, at least one of the input audio stream, said first stream, which may have missing data, said device comprising means for deciding whether or not to regenerate at least part of the missing data of said first stream from at least one characteristic of at least one second input audio stream.
  • the partial decoding means de-quantify the frequency components of said audio signals by sub-bands
  • the regeneration decision means calculate the energy in each sub-band of each audio signal and determine, for each sub-band, the signal having the highest energy and a level of masking which it induces in said sub-band, the generation of missing data of an audio signal in said sub-band resulting from a comparison, said subsequent comparison, of the energy of the frequency components of this signal in said sub-band with said masking level.
  • an audio terminal for a teleconferencing system, adapted to receive and mix a plurality of input audio streams to provide an output audio signal, the input audio streams being able to present missing data
  • said terminal comprising a plurality of partial decoding means supplying partially decoded data streams from the input audio streams, regeneration decision means operating on the partially decoded data streams and deciding whether to regenerate missing data by means of regeneration, means of summing partially decoded or regenerated data and means of frequency / time transformation supplying said audio output signal from the summed values provided by said summing means, said decision means being adapted to decide the regeneration of at least part of the missing data of a first input stream from at least one characteristic of at least a second input audio stream.
  • FIG. 3C schematically shows an example of a partial encoder for the audio bridge illustrated in FIG. 1;
  • the general idea underlying the invention is to proceed, in the event of discontinuity of an audio stream, to the regeneration of the missing data according to a decisional criterion.
  • This criterion can be in particular a perceptual criterion based on the inter-signal masking properties or a criterion depending on the complexity of the regeneration operation and the operational resources at the time of the decision.
  • Each register stores the dequantized components y ° (k), the dequantized energy values' Q) as well as the voicing and tone information V and f relating to a flow / 7.
  • the decision module detects the absence of data or the transmission silence and decides whether or not to regenerate the missing data. If the flow of E p is discontinuous and the module 540 has made a regeneration decision, the missing data will be totally or partially regenerated in the regeneration unit 550 p before the frame is transmitted to the mixing unit 530. On the other hand, if the flow E p is continuous, the partially decoded frame is transmitted directly to the mixing unit. In both cases, the frames from the different streams are combined in the mixing module 530 and the combined streams are recoded in the partial coders 520 ⁇ to 520 ⁇ to produce the output audio streams in S ⁇ , .., S ⁇ .
  • condition (2) is not fulfilled, in other words if the signal not received is no longer masked, the band is regenerated there. Conversely, the signal not received is still masked and there is no need to regenerate.
  • the module 540 determines, for each index m ⁇ p 0 of output, if at least one of the input flows /? entering into the composition of the output stream m is active, whether it is received or regenerated. If there exists for any index m ⁇ po such an active flux, the comfort noise is not generated. On the other hand, if there exists an index m ⁇ po such that none of the input streams entering into the composition of the output stream m is active, then the conditional generation procedure by strip described above is applied.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Quality & Reliability (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

Dispositif de traitement de signal audio aopte à recevoir une pluralité de flux audio d'entrée et à fournir au moins un flux audio de sortie à partir desdits flux audio d'entrée, l'un au moins des flux audio d'entrée, dit premier flux, pouvant présenter des données manquantes, le dispositif comportant des moyens pour décider ou non de la régénération des données manquantes dudit premier flux à partir d'au moins une caractéristique d'au moins un second flux audio d'entrée.

Description

Méthode et dispositif de traitement d'une pluralité de flux binaires audio
La présente invention concerne de manière générale une méthode et un dispositif de traitement de signal audio. Plus précisément, la présente invention a trait à une méthode et un dispositif de traitement d'une pluralité de flux binaires audio pouvant présenter des discontinuités. La présente invention trouve plus particulièrement application dans le domaine de la téléconférence.
On appellera par la suite flux binaire audio ou plus brièvement flux audio toute séquence de trames audio telles que celles fournies par un codeur de source audio. Ce flux binaire est en général acheminé à travers un réseau avant d'être décodé dans un récepteur audio, permettant ainsi la reproduction du signal de la source audio.
La qualité des réseaux de transmission et le type d'émetteurs étant indépendants de la conception des récepteurs, il se peut que des données d'un flux audio soient absentes au moment où celles-ci doivent être décodées et où le signal correspondant doit être reproduit. Il se produit alors d'une discontinuité dans le flux audio reçu. Le problème se pose de manière particulièrement aiguë dans les équipements chargés de traiter plusieurs flux audio comme les ponts de téléconférence, les passerelles ou encore les terminaux de téléconférence. Ces équipements doivent être capables de gérer plusieurs flux pouvant provenir de codeurs de types différents et susceptibles d'avoir transité par des réseaux hétérogènes, synchrones (RNIS, RTC,..) ou asynchrones (IP, ATM, Frame Relay...). De manière générale, une discontinuité dans un flux audio peut être due à la perte d'une partie des données du flux audio, à la gigue et/ou un asynchronisme entre le récepteur et l'émetteur ou encore à une émission discontinue de l'émetteur. Nous envisagerons successivement les trois situations précitées. La perte d'une partie du flux audio correspond généralement à une perte d'une ou de plusieurs trames, la longueur des trames étant dépendante du codage et du mode de transmission spécifique à chaque réseau. Par exemple, dans un réseau à commutation de paquets (cas des réseaux IP) la qualité de service n'est généralement pas garantie. Le réseau n'assure aucun seuil minimal sur le débit binaire offert pour le transport des paquets. La bande passante disponible dépend des conditions du trafic sur le réseau. Ainsi, dans le cas de forte congestion, la fluidité de transmission n'est plus possible. Un dépassement des mémoires tampons des routeurs peut donc survenir et certains paquets peuvent être rejetés.
La gigue correspond à la variation du délai de transmission entre l'équipement émetteur et l'équipement récepteur. Le flux audio devant être traité ou reproduit de façon continue, cette variation de délai peut entraîner l'absence de données au moment requis par le récepteur. Cette absence peut être également due à l' asynchronisme entre le récepteur et l'émetteur, par exemple, lorsque l'horloge de l'émetteur a une fréquence plus faible que celle du récepteur.
Certains émetteurs audio intègrent un système de compression des silences associé à un mécanisme d'émission discontinue pour réduire le débit transmis pendant les intervalles de silence et ainsi préserver la bande passante allouée à la communication. Ces systèmes sont basés sur une structure VAD/DTX/CNG (Voice Activity Detector / Discontinuous Transmission / Comfort Noise Generator). Du côté émetteur, un détecteur d'activité vocale (VAD) classifie chaque trame comme active ou non active. En cas de trame non active, un module de transmission discontinue décide, soit de prolonger l'activité vocale ("hangover") pour éviter une coupure trop brutale à la fin d'une période active, soit d'envoyer ou non une trame SID (Silence Insertion Descriptor). Cette trame SID contient des informations codées décrivant les caractéristiques du bruit de fond pour permettre l'insertion au récepteur de bruit artificiel pendant les périodes d'inactivité. Selon le cas, les caractéristiques du bruit de fond peuvent être ou non mises à jour pendant la période d'inactivité vocale. La fréquence de mise à jour (émission de trames de SID) dépend aussi du système de transmission discontinue DTX : certains DTX envoient une trame SID à intervalles réguliers (GSM), d'autres n'émettent une trame SID que lorsque le spectre de puissance de bruit a changé (UIT-T G.723.1). Lorsque le système ne met pas à jour les caractéristiques du bruit de fond, l'information de fin de période d'activité vocale peut être indiquée ou non dans la dernière trame émise. Enfin certains émetteurs audio, fonctionnant en mode DTX ne transmettent ni trame SID ni ne fournissent une information de fin de période d'activité vocale. Le récepteur doit être alors capable de détecter, en analysant les flux reçus, l'absence d'activité vocale. Le cas où une information SID est effectivement transmise est le seul cas où le récepteur connaît la cause probable de la discontinuité du flux audio. Dans les autres cas (perte, gigue, émission discontinue sans envoi d'information SID), le récepteur ne connaît pas la cause de la discontinuité au moment où il doit traiter ou reproduire le signal correspondant. Certains protocoles permettent néanmoins, lors de la reprise de réception, de savoir si la discontinuité était due à une perte de paquets, à la gigue ou à une émission discontinue. Par exemple, le protocole RTP (Real time Transport Protocol) contient dans son en-tête de "contrôle" un numéro de séquence et une estampille temporelle (Time Stamp). L'examen des informations auxiliaires des paquets reçus de part et d'autre de la discontinuité permet d'identifier la cause de cette dernière. Des numéros de séquence non consécutifs indiquent que la discontinuité est probablement due à une perte de paquets (sauf présence de gigue importante). Les instants de génération de données fournis par les estampilles permettent de faire la distinction entre gigue et discontinuité de l'émission.
Plusieurs solutions ont été apportées dans l'état de la technique pour remédier au problème posé par une discontinuité dans un flux audio.
Une solution triviale est de ne pas régénérer les trames manquantes au prix d'une dégradation importante de qualité du signal sonore restitué se traduisant par des craquements rendant la compréhension de la parole difficile et l'écoute de la musique désagréable. D'autres solutions consistent à régénérer toutes les trames manquantes. Ainsi, lorsque la discontinuité de flux est due à une perte de paquets IP, l'article de C. Perkins et al. intitulé « A survey of packet loss recovery techniques for streaming audio », publié dans IEEE Network, Sept.-Oct. 1998, donne un aperçu des techniques de régénération existantes.
De manière plus générale, lorsqu'un flux audio présente, à sa réception, une discontinuité suite à une perte de paquets ou à une gigue importante dans le réseau de transmission, il est connu de régénérer les données perdues ou excessivement retardées, soit en faisant appel à l'émetteur et/ou à des noeuds intermédiaires du réseau, soit directement au niveau du récepteur. Parmi les méthodes relevant du premier type on peut notamment citer celle proposée par Yao et al. dans l'article intitulé « Experiment with error-correcting RTP gateways » publié dans IEEE 3rd Workshop on Multimedia Signal Processing, pages 15-20 procédant par correction d'erreurs FEC (Forward Error Correction) et requêtes en répétition automatique (ARQ) à des noeuds intermédiaires du réseau. Cette technique présente toutefois l'inconvénient de nécessiter une information redondante de détection/correction d'erreurs et donc de mobiliser des ressources de transmission supplémentaires. Les méthodes de régénération mises en oeuvre au niveau du récepteur peuvent procéder par interpolation entre les signaux décodés précédant et suivant la discontinuité, ou encore par synthèse à partir d'une estimation des paramètres du codeur. Ces dernières méthodes supposent que le dispositif de régénération connaisse l'algorithme de codage.
Si la discontinuité du flux reçu a pour origine un silence d'émission, les méthodes de régénération les plus courantes font appel à la génération de bruit de confort à partir d'une information décrivant les caractéristiques du bruit de fond (SID). Elles peuvent dépendre du type de codée utilisé (UIT-T G.723.1, UIT-T G.729, codeurs GSM) ou être indépendantes de ce dernier (appendice II de G.711).
L'implémentation des techniques de régénération décrites ci-dessus accroît la complexité des dispositifs de traitement audio et plus particulièrement des dispositifs de traitement multi-flux. En outre, la régénération systématique de tous les flux non reçus entraîne non seulement une augmentation de la complexité mais elle risque aussi de détériorer la qualité si le codeur est peu performant pour des signaux multi-sources ou s'il résiste mal aux cascades de transcodage. C'est notamment le cas lorsque le codage utilisé est du type CELP (Code Excited Linear Prédictive) à faible débit.
De manière générale, un dispositif de traitement multi-flux reçoit une pluralité de flux binaires audio, issus par exemple de sources différentes, et produit un ou plusieurs flux audio de sortie à partir des flux d'entrée. Le traitement effectué par un tel dispositif peut être, de manière non limitative, une opération de mixage ou de multiplexage dans le domaine codé ou non, une opération de décodage, de transcodage ou encore une combinaison des opérations précédemment citées.
Nous présenterons ci-après deux exemples de dispositif de traitement multi- flux utilisés dans le domaine de la téléconférence à savoir un pont audio et un terminal audio.
Dans le contexte de la téléconférence utilisant une architecture centralisée, l'unité de contrôle multipoint (MCU), encore appelée pont audio, effectue la combinaison (ou mixage) d'une pluralité de flux audio puis le routage vers les terminaux concernés. La Fig. 1 illustre un tel pont audio. A partir de K flux audio d'entrée reçus Ei ,..Eκ, le pont fournit K flux audio de sortie Sι,..,Sκ par combinaison des flux d'entrée dans le module (130). Pour un indice de sortie m donné, la somme des (K-l) flux d'entrée (E^), p≠m est dirigée vers la sortie Sm. Préalablement à leur combinaison, les flux d'entrée sont décodés ou partiellement décodés dans les décodeurs 110ι,110 ,..110κ- Réciproquement, les flux de sortie subissent un recodage ou un recodage partiel dans les codeurs 120j,1202,...120κ. Les flux d'entrée Ep sont constitués de trames de données audio codées.
Le codage utilisé peut être un codage perceptuel effectuant une transformée en cosinus discrète modifiée (TCDM) sur les trames numériques du signal audio suivie d'une quantification des composantes fréquentielles obtenues avec allocation dynamique de bits en fonction des niveaux de masquage par sous- bandes. Un codeur perceptuel basé sur ce principe, le codeur TDAC de FT R&D, a été décrit dans la proposition « High level description for ITU-T wideband (7 kHz) ATCΕLP speech coding algorithm of Deutsche Telekom, Aachen University of Technology (RWTH) and France Telecom (CNΕT) », delayed contribution COM 16-129/130, ITU Study Group 16, Q.20, Genève, Janvier 1998. La structure de ce codeur perceptuel est illustrée en Fig. 2. Les trames audio à coder x(n) font tout d'abord l'objet d'une transformée en cosinus discrète modifiée (TCDM) dans l'unité 200 prévue pour fournir les coefficients y(k) de cette transformée. Le codeur comprend également un détecteur de voisement 210 qui détermine si la trame d'entrée est voisée ou non et délivre une information binaire de voisement v. Il comporte aussi un détecteur de tonalité 220 qui détermine à partir des coefficients de transformée délivrés par l'unité 200 si la trame d'entrée est tonale ou non et délivre une information binaire de tonalité t. Une unité de masquage 230 reçoit les coefficients de transformée y(k), calcule une courbe de masquage et délivre pour chaque coefficient une information de masquage suivant qu'il est supérieur ou non au seuil de masquage . Sur la base de cette information de masquage ainsi que celle des informations de tonalité et de voisement, une unité 240 détermine l'énergie dans chacune des bandes 7'=/,.., d'une pluralité de bandes spectrales non régulières et délivre, quantifié et codé, un signal d'enveloppe spectrale de la trame d'entrée, soit {eqφ}, j=l,..,M- Ce signal d'enveloppe est utilisé par l'unité 260 pour allouer dynamiquement un nombre de bits de quantification par sous-bande. L'unité 250 normalise chaque coefficient de transformée y(k) par l'énergie eq(j) de la sous-bande à laquelle il appartient et quantifie chaque coefficient ainsi normalisé en fonction du nombre de bits alloués. La quantification utilisée peut être scalaire ou vectorielle. Les coefficients de transformée quantifiés yq(k), le signal d'enveloppe spectrale quantifié eq(j) ainsi que les informations binaires de voisement et de tonalité v et t sont multiplexes dans un multiplexeur 270 pour former une trame de données audio codées.
Si l'on revient maintenant au pont audio de la Fig. 1, on peut envisager de décoder en 110P les trames audio codées et reconstituer les signaux audio dans le domaine temporel. La combinaison des signaux effectuée en 130 est alors également réalisée dans le domaine temporel et les signaux combinés font à nouveau l'objet d'un codage en 120m selon le procédé de codage décrit ci-dessus. Cependant, un décodage partiel est préféré, seuls certains paramètres des signaux audio étant alors extraits de ces trames. La combinaison des flux d'entrée dans l'unité 130 se fait dans le domaine fréquentiel sans avoir à procéder à une reconstruction complète des signaux dans le domaine temporel. Un tel pont audio utilisant un décodage/ recodage partiel a été décrit dans la demande de brevet français n° 99 15574 déposée le 8.12.1999 au nom de la demanderesse. Les décodeurs partiels 110p ont la structure indiquée en Fig. 3 A et les codeurs partiels 120m ont la structure illustrée en Fig. 3C. L'unité de recombinaison 130 a été représentée schématiquement en Fig. 3B.
Le décodeur partiel de la Fig. 3A comporte en entrée un démultiplexeur 301 fournissant les coefficients quantifiés yq(k), les énergies quantifiées et codées {eg(j)} des différentes sous-bandes, les informations binaires de voisement et de tonalité v et t. Les valeurs des énergies sont décodées et déquantifiées dans l'unité 331 qui utilise pour ce faire les informations de voisement v et de tonalité t. A partir des valeurs des énergies e(j) ainsi obtenues, l'unité 341 détermine une courbe de masquage. L'unité 321 effectue une allocation dynamique de bits en fonction des valeurs d'énergie e(j) et de la courbe de masquage fournie par l'unité 341. L'unité 311 opère alors une quantification inverse de chaque coefficient^^ en fonction du nombre de bits alloués puis une multiplication par l'énergie e(j) de la sous-bande à laquelle il appartient. Ainsi, le décodeur partiel délivre, pour chaque trame d'entrée, les coefficients de transformée y(k), les signaux d'énergie e(j) des sous-bandes et les informations binaires de voisement v et de tonalité t. Nous noterons par la suite ^(k), f , ~ et f les sorties respectives du décodeur 110p.
L'unité de mixage 130 illustrée en Fig. 3B a pour fonction de combiner, pour une sortie d'indice m donné, les signaux d'entrée d'indices ?, tels que p≠m. Plus précisément, l'unité de mixage comporte K modules 390m, m≈L.K dont un seul a été représenté. Le module 390m reçoit les sorties des décodeurs partiels 110p, p≠m et effectue les calculs de valeurs intermédiaires pour la sortie d'indice m. L'unité 370m du module 390m calcule l'expression de valeurs combinées y~(k) par yp(k) . De même, l'unité 375m du module 390m
Figure imgf000008_0001
calcule l'expression de valeurs combinées e?'(/') par
Figure imgf000008_0002
où E Ϋ= y.(ep(j))2 . L'unité 380m effectue la combinaison des informations de
voisement v~ de la manière suivante : si toutes les trames d'entrée p, p≠m sont de même nature, voisée ou non voisée, l'information combinée de voisement, v_" indiquera respectivement le voisement ou le non voisement. Si les trames d'entrée p, p≠m sont de natures différentes, l'unité 380m calcule la somme des énergies des trames voisées d'une part, et la somme des énergies des trames non voisées d'autre part, et détermine l'information combinée de voisement, vP , en comparant ces deux sommes. Enfin, l'unité 385m détermine l'information combinée de tonalité W de la manière suivante : si toutes les trames d'entrée p, p≠m ont la même information de tonalité, l'information combinée de tonalité prendra la valeur commune. En revanche, si les informations de tonalité diffèrent, la détermination de l'information combinée est reportée à la phase de codage partiel.
Le recodeur partiel illustré en Fig. 3C reçoit du module de mixage 130 les valeurs combinées yc (k) , e?(j) ,vF t t< d'une sortie m du module de mixage.
Nous omettrons l'indice m pour simplifier les notations. L'information de tonalité est calculée par l'unité 362 à partir des coefficients yc(k) si elle n'a pu être déterminée par le module de mixage 130. Les valeurs des énergies e (j) ainsi que l'information de voisement ve sont utilisées par une unité 332 de codage d'enveloppe spectrale pour quantifier et coder les énergies des différentes sous- bandes. Les valeurs des énergies e (j) sont également utilisées par l'unité 342 de calcul de la courbe de masquage. Cette dernière fournit à l'unité d'allocation dynamique 322 ainsi qu'à l'unité de masquage 352 les niveaux de masquage pour les différentes sous-bandes j. L'unité d'allocation dynamique 322 effectue une allocation dynamique de bits de quantification pour les différentes sous-bandes en fonction des énergies ec(j) et des niveaux de masquage. Les coefficients yc(k) non masqués par l'unité de masquage 352 sont quantifiés par l'unité de requantification 312 en fonction du nombre de bits alloués aux différentes sous- bandes. Les coefficients re-quantifiés, les valeurs quantifiées des énergies ainsi que les informations de voisement et de tonalité sont ensuite multiplexes par le multiplexeur 302 en des trames de données audio recodées. Nous décrirons maintenant un autre exemple de dispositif de traitement multi-flux à savoir un terminal audio multi-flux pouvant servir à un système de téléconférence à architecture centralisée avec pont audio à multiplexage ou bien à un système de téléconférence à architecture maillée (dans une architecture maillée tous les terminaux audio sont reliés point à point). La Fig. 4 représente un terminal audio multi-flux. Il comprend K-l entrées où K est le nombre total de terminaux. Chaque entrée reçoit un flux audio sous la forme de trames de données audio codées. De manière classique, les flux sont décodés dans des décodeurs 410ls..,410κ-ι avant d'être sommés. Si le codage utilisé est un codage par transformée comme le codage perceptuel du type décrit plus haut, il est plus avantageux de procéder dans les décodeurs 410l .,410κ-ι à un décodage partiel, d'effectuer en 420 la sommation dans le domaine fréquentiel puis la transformation fréquence/temps en 460 sur le signal sommé. On évite ainsi une transformation fréquence/temps sur chacun des signaux. Comme déjà évoqué plus haut, afin de remédier au problème de discontinuités dans les flux audio, les dispositifs de traitement multi-flux peuvent, soit régénérer les données manquantes au prix d'une complexité élevée, soit ne pas régénérer ces données en acceptant en contrepartie une dégradation sensible du signal restitué.
La présente invention a pour but de proposer un dispositif multi-flux audio apte à corriger les discontinuités, au prix d'une faible complexité tout en garantissant une qualité de restitution élevée.
A cette fin, l'invention est définie par une méthode de traitement de signal audio produisant au moins un flux audio de sortie à partir d'une pluralité de flux audio d'entrée, l'un au moins des flux audio d'entrée, dit premier flux, pouvant présenter des données manquantes, ladite méthode comprenant une étape de décision de régénération d'au moins une partie des données manquantes dudit premier flux à partir d'au moins une caractéristique d'au moins un second flux audio d'entrée.
Avantageusement, ladite caractéristique est une caractéristique perceptuelle, par exemple un niveau de masquage.
Selon un mode de réalisation, après avoir déterminé pour une bande spectrale audio donnée un niveau de masquage induit par ledit second flux dans ladite bande, la décision de régénérer les données manquantes dans ladite bande est prise en fonction de la puissance estimée du premier flux dans ladite bande et dudit niveau de masquage.
Si les données manquantes du premier flux sont dues à un silence d'émission, lesdites données ne sont pas régénérées si les flux d'entrée autres que le premier flux n'ont pas de données manquantes ou si leurs données manquantes non dues à un silence d'émission ont été régénérées. Si les données manquantes du premier flux sont dues à un silence d'émission et si les autres flux possèdent également des données manquantes dues à un silence d'émission, la décision de régénération des données manquantes du premier flux est prise en fonction de la puissance estimée du premier flux dans ladite bande et d'un niveau de masquage dans cette bande. Les données manquantes sont alors régénérées sous la forme d'un bruit de confort.
La régénération des données manquantes peut n'être effectuée que pour une bande spectrale ou plusieurs bandes spectrales prédéterminées du spectre du signal audio.
Si un premier ensemble de flux audio d'entrée présente des données manquantes, la régénération des données manquantes d'un flux dudit premier ensemble est décidée en fonction d'au moins une caractéristique d'un second ensemble de flux audio constitué de tous les flux ne présentant pas de données manquantes ou d'un troisième ensemble incluant ledit second ensemble ainsi qu'au moins un flux audio dudit premier ensemble dont les données manquantes ont été régénérées ou encore de tous les flux audio actifs.
Dans le cas où les flux audio d'entrée sont constitués d'une pluralité de trames et lorsque les trames des différents flux sont reçues de manière asynchrone, lorsqu'un premier ensemble de flux audio d'entrée présente des données manquantes, la régénération des données manquantes d'une trame courante d'un flux dudit premier ensemble est décidée en fonction d'au moins une caractéristique d'au moins une trame antérieure et/ou la trame courante ou une trame postérieure d'au moins ledit second flux audio. L'invention est également définie par un dispositif de traitement de signal audio adapté à recevoir une pluralité de flux audio d'entrée et à fournir au moins un flux audio de sortie à partir desdits flux audio d'entrée, l'un au moins des flux audio d'entrée, dit premier flux, pouvant présenter des données manquantes, ledit dispositif comportant des moyens pour décider de la régénération ou non d'au moins une partie des données manquantes dudit premier flux à partir d'au moins une caractéristique d'au moins un second flux audio d'entrée.
L'invention est encore définie par un pont audio pour système de téléconférence, adapté à recevoir et à mixer et/ou multiplexer une pluralité de flux audio d'entrée pour fournir une pluralité de flux audio de sortie, les flux audio d'entrée pouvant présenter des données manquantes, ledit pont audio comprenant une pluralité de moyens de décodage partiel fournissant des flux de données partiellement décodées à partir des flux audio d'entrée, des moyens de décision de régénération opérant sur les flux de données partiellement décodées et décidant de la régénération ou non des données manquantes par des moyens de régénération, des moyens de recodage partiel des données partiellement décodées ou régénérées, lesdits moyens de décision étant adaptés à décider de la régénération d'au moins une partie des données manquantes d'un premier flux d'entrée à partir d'au moins une caractéristique d'au moins un second flux audio d'entrée. Si les flux audio d'entrée sont constitués de trames de données obtenues par codage de type TCDM de signaux audio, les moyens de décodage partiel déquantifient par sous-bandes les composantes fréquentielles desdits signaux audio, les moyens de décision de régénération calculent l'énergie dans chaque sous-bande de chaque signal audio et déterminent, pour chaque sous-bande, le signal présentant la plus forte énergie et un niveau de masquage qu'il induit dans ladite sous-bande, la génération de données manquantes d'un signal audio dans ladite sous-bande résultant d'une comparaison, dite comparaison ultérieure, de l'énergie des composantes fréquentielles de ce signal dans ladite sous-bande avec ledit niveau de masquage. Avantageusement, lesdits moyens de décision sont adaptés à déterminer également, pour chaque sous-bande, le signal présentant la seconde plus forte énergie et un second niveau de masquage induit par ce signal dans ladite sous- bande, la non régénération de données manquantes d'un signal audio dans ladite sous-bande résultant d'une comparaison préalable de l'énergie des composantes fréquentielles de ce signal dans ladite sous-bande avec ledit second niveau de masquage.
Si, pour une bande donnée, la comparaison préalable ne conclut pas à la non régénération et la comparaison ultérieure conclut à la régénération des données manquantes, ces dernières sont effectivement régénérées par les moyens de régénération et les données régénérées ne sont prises en compte que pour le ou les flux de sortie dans lequel ou lesquels le signal de plus forte puissance dans ladite sous-bande n'intervient pas.
Selon une variante, lesdits moyens de décision sont adaptés à déterminer si les données manquantes d'un flux d'entrée sont relatives à un silence d'émission et, dans l'affirmative, pour chaque flux de sortie obtenu à partir de ce flux d'entrée, à déterminer l'ensemble des flux d'entrée actifs entrant également dans la composition dudit flux de sortie et à décider de la génération d'un bruit de confort si, pour l'un des flux de sortie obtenus à partir de ce flux d'entrée, cet ensemble est vide et si, dans ce cas, le bruit de confort qui serait régénéré ne serait pas masqué par un autre bruit de confort régénéré pour un autre flux d'entrée non actif.
Enfin, l'invention est définie par un terminal audio pour système de téléconférence, adapté à recevoir et à mixer une pluralité de flux audio d'entrée pour fournir un signal audio de sortie, les flux audio d'entrée pouvant présenter des données manquantes, ledit terminal comprenant une pluralité de moyens de décodage partiel fournissant des flux de données partiellement décodées à partir des flux audio d'entrée, des moyens de décision de régénération opérant sur les flux de données partiellement décodées et décidant de la régénération ou non des données manquantes par de moyens des régénération, des moyens de sommation des données partiellement décodées ou régénérées et des moyens de transformation fréquence/temps fournissant ledit signal audio de sortie à partir des valeurs sommées fournies par lesdits moyens de sommation , lesdits moyens de décision étant adaptés à décider de la régénération d'au moins une partie des données manquantes d'un premier flux d'entrée à partir d'au moins une caractéristique d'au moins un second flux audio d'entrée.
Si les flux audio d'entrée sont constitués de trames de données obtenues par codage de type TCDM de signaux audio, les moyens de décodage partiel déquantifient par sous-bandes les composantes fréquentielles desdits signaux audio, les moyens de décision de régénération calculent l'énergie dans chaque sous-bande de chaque signal audio et déterminent, pour chaque sous-bande, le signal présentant la plus forte énergie et un niveau de masquage qu'il induit dans ladite sous-bande, la génération de données manquantes d'un signal audio dans ladite sous-bande résultant de la comparaison de l'énergie des composantes fréquentielles de ce signal ' dans ladite sous-bande avec ledit niveau de masquage.
Avantageusement, lesdits moyens de décision sont adaptés à déterminer si les données manquantes d'un flux d'entrée sont relatives à un silence d'émission. Dans l' affirmative, lesdits moyens de décision décident de la génération d'un bruit de confort si les autres flux d'entrée ne sont pas actifs et si, dans ce cas, le bruit de confort qui serait régénéré ne serait pas masqué par un autre bruit de confort régénéré pour un autre flux d'entrée non actif.
Les caractéristiques de l'invention mentionnées ci-dessus, ainsi que d'autres, apparaîtront plus clairement à la lecture de la description faite en relation avec les dessins joints, parmi lesquels : La Fig. 1 représente schématiquement un pont audio de téléconférence connu de l'état de la technique ;
La Fig. 2 représente schématiquement la structure d'un codeur audio perceptuel connu de l'état de la technique ; La Fig. 3A représente schématiquement la structure d'un décodeur partiel pouvant être utilisé dans le pont audio illustré en Fig. 1 ;
La Fig. 3B représente schématiquement un exemple de module de mixage pour le pont audio illustré en Fig. 1 ;
La Fig. 3C représente schématiquement un exemple de codeur partiel pour le pont audio illustré en Fig. 1 ;
La Fig. 4 représente schématiquement un terminal audio de téléconférence connu de l'état de la technique ;
La Fig. 5 représente schématiquement un premier mode de réalisation de l'invention ; La Fig. 6 représente schématiquement un second mode de réalisation de l'invention .
L'idée générale à la base de l'invention est de procéder, en cas de discontinuité d'un flux audio, à la régénération des données manquantes selon un critère décisionnel. Ce critère peut être notamment un critère perceptuel fondé sur les propriétés de masquage inter-signaux ou un critère dépendant de la complexité de l'opération de régénération et des ressources opératoires au moment de la décision.
L'invention sera illustrée ci-après, de manière non limitative, par son application à un pont audio et un terminal audio de téléconférence.
La Fig. 5 illustre un pont audio avec régénération conditionnelle des données manquantes lorsqu'un flux d'entrée présente une discontinuité.
Les entrées Eι,...,E reçoivent chacune un flux audio constitué de trames de données audio codées. Le codage utilisé peut être un codage par transformée ou un codage par sous-bandes. Nous supposerons par exemple que les trames ont été codées par un codeur audio perceptuel TDAC tel qu'illustré en Fig. 2. On a symbolisé en 500ι,..,500κ le fait que les K flux d'entrée puissent présenter des discontinuités, que celles-ci soient dues à une perte de données, une gigue ou un silence d'émission. Si le flux de Ep est continu, il est dirigé vers un décodeur partiel 510p. Les trames partiellement décodées sont dirigées vers un module de décision de régénération conditionnelle où elles sont stockées dans des registres ou mémoires de trames. Chaque registre stocke les composantes déquantifiées y°(k), les valeurs d'énergie déquantifiées 'Q) ainsi que les informations de voisement et de tonalité V et f relatives à un flux/7. Le module de décision détecte l'absence de données ou le silence d'émission et décide de régénérer ou non les données manquantes. Si le flux de Ep est discontinu et que le module 540 a pris une décision de régénération, les données manquantes seront totalement ou partiellement régénérées dans l'unité de régénération 550p avant que la trame soit transmise à l'unité de mixage 530. En revanche, si le flux Ep est continu, la trame partiellement décodée est transmise directement à l'unité de mixage. Dans les deux cas, les trames issues des différents flux sont combinées dans le module de mixage 530 et les flux combinés sont recodés dans les codeurs partiels 520ι à 520κ pour produire les flux audio de sortie en Sι,..,Sκ.
Nous supposerons qu'à un instant t donné, un flux d'entrée d'indice po présente une discontinuité et nous noterons JT ensemble des indices des flux reçus à l'instant t.
Le module de décision 540 détermine tout d'abord si les données manquantes du flux po sont des données non reçues (perdues ou excessivement retardées par la gigue) ou bien sont dues à un silence d'émission.
Dans le cas de données non reçues, le module 540 utilise un critère perceptuel pour décider de la régénération. Pour ce faire, il estime les énergies des différentes sous-bandes pour le flux d'indice o, soit e (j), j=l,..,M ainsi que les composantes y°(/ζ . Cette estimation est avantageusement effectuée à partir de la trame d'indice po stockée à l'instant t-1 ou bien, si la mémoire de trames est un buffer FIFO et que l'on tolère un retard de traitement, à partir des trames d'indice po stockées aux instants t-1 et t+1. De manière générale, les données manquantes peuvent être estimées à partir d'une ou des trames précédentes et/ou d'une ou des trames suivantes. D'autre part, le module 540 détermine, pour chacune des bandes j=l,..,M , les flux susceptibles d'être masquants : à cette fin, pour chaque bande , le module 540 détermine pour quel indice peu l'énergie éQ) est maximale. ~<S\tpmaxQ) cet indice, emax(j) la valeur d'énergie maximale et MTQ) le seuil de masquage induit par le signal d'indice Pmaxφ, d'énergie emax(j) dans la bande . Pour des raisons que nous verrons plus loin, le module 540 détermine également dans l'ensemble ^ l'indice du second maximum de é'Q). Soit pmaχ2U) cet indice, emax20) le second maximum et MT2Q) le seuil de masquage induit par le signal d'indice pmaχ2Q), d'énergie emax2Q) dans la bande j. Le module 540 teste alors si :
(f°(k))2 < MTQ) V* € bande / (1)
Si la condition (1) n'est pas réalisée, autrement dit si le signal non reçu estimé n'est pas masqué dans la bande j par l'un des signaux reçus, alors le module 540 décide de régénérer la bande / du signal non reçu.
Si la condition (1) est réalisée, autrement dit si le signal non reçu est masqué dans la bande y par le signal d'indice pmaxQ), il faut distinguer suivant l'indice m du flux de sortie. En effet, un flux d'entrée d'indice m ne participe pas au flux de sortie m et ne peut donc être pris en compte pour un masquage éventuel au niveau de cette sortie. Autrement dit, pour m≠pmaxQ), il n'y a pas lieu de régénérer la bande/ du flux non reçu. En revanche pour m= pmaxQ) , il faut vérifier si le signal non reçu est encore masqué, c'est-à-dire déterminer si :
( °(k))2 < MT2Q) V/c € bande / (2)
Si la condition (2) n'est pas réalisée, autrement dit si le signal non reçu n'est plus masqué, la bande y est régénérée. A l'inverse, le signal non reçu est encore masqué et il n'y a pas lieu de procéder à régénération.
En pratique et de manière avantageuse, le module 540 procède d'abord au test de la condition (2). Si cette dernière est vérifiée, la régénération de bande/ n'est pas effectuée. Dans le cas contraire, la bande j du flux non reçu est régénérée et la condition (1) est testée. Si la condition (1) n'est pas vérifiée, la bande régénérée n'est alors prise en compte que pour le flux de sortie d'indice pmaxQ)- A l'inverse, si la condition (1) est encore vérifiée, la bande régénérée est prise en compte pour tous les flux de sortie hormis bien entendu celui d'indice po.
Dans le cas où la discontinuité à l'instant t du flux po est due à un silence d'émission, le module 540 détermine, pour chaque indice m≠ p0 de sortie, si au moins un des flux d'entrée/? entrant dans la composition du flux de sortie m est actif, qu'il soit reçu ou régénéré. S'il existe pour tout indice m≠po un tel flux actif, le bruit de confort n'est pas généré. En revanche, s'il existe un indice m≠po tel qu'aucun des flux d'entrée entrant dans la composition du flux de sortie m ne soit actif, alors la procédure de génération conditionnelle par bande exposée ci-dessus est appliquée. Autrement dit, pour chaque bande/, le module 540 vérifie si le bruit de confort o est masqué par le niveau de masquage induit par un autre bruit de confort et, si tel est le cas, décide de ne pas générer le bruit de confort po dans la bande en question. Le flux de sortie m porte alors l'information de trame SID. La Fig. 6 illustre un terminal audio du type représenté en Fig. 4 avec régénération conditionnelle des données manquantes lorsqu'un flux d'entrée présente une discontinuité.
Les entrées Eι,...,E -ι reçoivent chacune un flux audio constitué de trames de données audio codées. Le codage utilisé peut être un codage par transformée ou un codage par sous-bandes. Nous supposerons là aussi que les trames ont été codées par le codeur perceptuel tel qu'illustré en Fig. 2.
On a symbolisé en 600ι,..,600 -ι le fait que les K-l flux d'entrée puissent présenter des discontinuités, que celles-ci soient dues à une perte, une gigue ou un silence d'émission. Si le flux de Ep est continu, il est dirigé vers un décodeur partiel
610p. Les trames partiellement décodées sont dirigées vers un module de décision de régénération conditionnelle 640 où elles sont stockées dans des registres ou mémoires de trames. Chaque registre stocke les composantes déquantifiées (k), les valeurs d'énergie déquantifiées epQ) ainsi que les informations de voisement et de tonalité V et f relatives à un flux p. Le module de décision détecte l'absence de données ou le silence d'émission et décide de régénérer ou non les données manquantes. Si le flux de Ep est discontinu et que le module 640 a pris une décision de régénération, les données manquantes sont totalement ou partiellement régénérées dans l'unité de régénération 650p puis la trame régénérée est transmise au sommateur 630. Après sommation des K-l trames reçues ou régénérées, l'unité 660 effectue une transformation du domaine fréquentiel (compressé) au domaine temporel. Le signal audio résultant peut par exemple être reproduit par un haut-parleur.
Nous supposerons à nouveau qu'à un instant t donné, un flux d'entrée d'indice po présente une discontinuité et nous noterons 3 l'ensemble des indices des flux reçus à l'instant t.
Le module de décision 640 détermine tout d'abord si les données manquantes du flux po sont des données non reçues (perdues ou excessivement retardées) ou bien sont dues à un silence d'émission.
Dans le cas de données non reçues, le module 640 utilise un critère perceptuel pour décider de la régénération. Pour ce faire, il estime, comme vu plus haut, les énergies des différentes sous-bandes pour le flux d'indice po, soit e Q), j≈l,..,M ainsi que les composantes °(k) et détermine, pour chacune les flux susceptibles d'être masquants. Pour chaque bande /, le module 640 détermine pour quel indice pe3 l'énergie Q) est maximale. pmaxQ) cet indice, emaxQ) la valeur d'énergie maximale et MTQ) le seuil de masquage induit par le signal d'indice pmaχQ), d'énergie emaxQ) dans la bande/. Le module 640 teste alors si :
(f°(k))2 < MTQ) V/ e bande/ (1 ')
Si la condition (1') n'est pas réalisée, autrement dit si le signal non reçu estimé n'est pas masqué dans la bande / par l'un des signaux reçus, alors le module 640 décide de régénérer la bande/ du signal non reçu.
Dans le cas où la discontinuité à l'instant t du flux po est due à un silence d'émission, le module 640 détermine si au moins un des autres flux d'entrée p est actif, qu'il soit effectivement reçu ou régénéré. S'il existe un tel flux actif, le bruit de confort du fluxpo n'est pas généré. En revanche, si aucun flux d'entrée n'est actif, la procédure de génération conditionnelle par bande exposée ci-dessus est appliquée aux bruits de confort. Autrement dit, pour chaque bande/, le module 640 vérifie si le silence de confort po est masqué par le niveau de masquage induit par un autre silence de confort et, si tel est le cas, décide de ne pas générer le silence de confort po dans la bande en question. Le signal reproduit en 660 est alors un bruit de confort.
Bien que nous ayons précédemment supposé que le codage audio était du type à transformée TCDM, l'invention s'applique de manière générale à tout type de codage et notamment à un codage perceptuel par sous-bandes, par exemple tel que défini dans UIT-T G.722.1. L'invention s'applique également à un codage CELP (Code Excited Linear Prédictive), par exemple à un codage CELP perceptuel.
On notera que, lorsque les flux audio ont été codés par un codage utilisant des variables d'état, les données non reçues arrivant postérieurement (gigue) à leur régénération peuvent néanmoins servir à la mise à jour de ces variables.
Enfin, dans tous les cas, on peut se borner pour des raisons de simplification de réalisation, à une régénération dans une bande réduite ou dans certaines sous- bandes du spectre seulement. Par exemple, bien que les signaux reçus présentent un spectre élargi [0-8kHz], la régénération pourra n'avoir lieu que dans la bande réduite [0-4kHz]. Si la régénération n'est effectuée que dans certaines sous-bandes seulement, on utilisera avantageusement la découpe en bandes non régulières utilisée pour le codage.

Claims

REVENDICATIONS
1) Méthode de traitement de signal audio produisant au moins un flux audio de sortie à partir d'une pluralité de flux audio d'entrée, l'un au moins des flux audio d'entrée, dit premier flux, pouvant présenter des données manquantes, caractérisée en ce qu'elle comprend une étape de décision de régénération d'au moins une partie des données manquantes dudit premier flux à partir d'au moins une caractéristique d'au moins un second flux audio d'entrée.
2) Méthode de traitement de signal audio selon la revendication 1, caractérisée en ce que ladite caractéristique est une caractéristique perceptuelle.
3) Méthode de traitement de signal audio selon la revendication 2, caractérisée en ce que ladite caractéristique est un niveau de masquage.
4) Méthode de traitement de signal audio selon la revendication 3, caractérisée en ce que, pour une bande spectrale audio donnée, un niveau de masquage induit par ledit second flux dans ladite bande est déterminé et que la décision de régénérer les données manquantes dans ladite bande est prise en fonction de la puissance estimée du premier flux dans ladite bande et dudit niveau de masquage.
5) Méthode de traitement de signal audio selon la revendication 1, caractérisée en ce que, si les données manquantes du premier flux sont dues à un silence d'émission, lesdites données ne sont pas régénérées si les flux d'entrée autres que le premier flux n'ont pas de données manquantes ou si leurs données manquantes non dues à un silence d'émission ont été régénérées.
6) Méthode de traitement de signal audio selon la revendication 1, caractérisée en ce que, si les données manquantes du premier flux sont dues à un silence d'émission et que les autres flux possèdent également des données manquantes dues à un silence d'émission, la décision de régénération des données manquantes du premier flux est prise en fonction de la puissance estimée du premier flux dans ladite bande et d'un niveau de masquage dans cette bande.
7) Méthode de traitement de signal audio selon la revendication 6, caractérisée en ce que les données manquantes sont régénérées sous la forme d'un bruit de confort.
8) Méthode de traitement de signal audio selon l'une des revendications précédentes, caractérisée en ce que la régénération des données manquantes n'est effectuée que pour une bande spectrale ou plusieurs bandes spectrales prédéterminées du spectre du signal audio.
9) Méthode de traitement de signal audio selon l'une des revendications précédentes, caractérisée en ce que, un premier ensemble de flux audio d'entrée pouvant présenter des données manquantes, la régénération des données manquantes d'un flux dudit premier ensemble est décidée en fonction d'au moins une caractéristique d'un second ensemble de flux audio constitué de tous les flux ne présentant pas de données manquantes ou d'un troisième ensemble incluant ledit second ensemble ainsi qu'au moins un flux audio dudit premier ensemble dont les données manquantes ont été régénérées ou encore de tous les flux audio actifs.
10) Méthode de traitement de signal audio selon l'une des revendications 1 à 9, caractérisée en ce que, chaque flux audio d'entrée étant constitué d'une pluralité de trames, les trames des différents flux pouvant être reçues de manière asynchrone, un premier ensemble de flux audio d'entrée pouvant présenter des données manquantes, la régénération des données manquantes d'une trame courante d'un flux dudit premier ensemble est décidée en fonction d'au moins une caractéristique d'au moins une trame antérieure et/ou la trame courante ou une trame postérieure d'au moins ledit second flux audio.
11) Dispositif de traitement de signal audio adapté à recevoir une pluralité de flux audio d'entrée et à fournir au moins un flux audio de sortie à partir desdits flux audio d'entrée, l'un au moins des flux audio d'entrée, dit premier flux, pouvant présenter des données manquantes, caractérisé en ce qu'il comporte des moyens pour décider de la régénération ou non d'au moins une partie des données manquantes dudit premier flux à partir d'au moins une caractéristique d'au moins un second flux audio d'entrée.
12) Pont audio pour système de téléconférence, adapté à recevoir et à mixer et/ou multiplexer une pluralité de flux audio d'entrée pour fournir une pluralité de flux audio de sortie, les flux audio d'entrée pouvant présenter des données manquantes, caractérisé en ce qu'il comprend une pluralité de moyens de décodage partiel (510P) fournissant des flux de données partiellement décodées à partir des flux audio d'entrée, des moyens (540) de décision de régénération opérant sur les flux de données partiellement décodées et décidant de la régénération ou non des données manquantes par des moyens de régénération (550p), des moyens (520p) de recodage partiel des données partiellement décodées ou régénérées, lesdits moyens de décision étant adaptés à décider de la régénération d'au moins une partie des données manquantes d'un premier flux d'entrée à partir d'au moins une caractéristique d'au moins un second flux audio d'entrée.
13) Pont audio selon la revendication 12, caractérisé en ce que, les flux audio d'entrée étant constitués de trames de données obtenues par codage de type TCDM de signaux audio, les moyens de décodage partiel déquantifient par sous-bandes les composantes fréquentielles desdits signaux audio, les moyens de décision de régénération calculent l'énergie dans chaque sous-bande de chaque signal audio, déterminent, pour chaque sous-bande, le signal présentant la plus forte énergie et un niveau de masquage qu'il induit dans ladite sous-bande, la génération de données manquantes d'un signal audio dans ladite sous-bande résultant d'une comparaison, dite comparaison ultérieure, de l'énergie des composantes fréquentielles de ce signal dans ladite sous-bande avec ledit niveau de masquage.
14) Pont audio selon la revendication 13, caractérisé en ce que lesdits moyens de décision sont adaptés à déterminer également, pour chaque sous-bande, le signal présentant la seconde plus forte énergie et un second niveau de masquage induit par ce signal dans ladite sous-bande, la non régénération de données manquantes d'un signal audio dans ladite sous-bande résultant d'une comparaison préalable de l'énergie des composantes fréquentielles de ce signal dans ladite sous-bande avec ledit second niveau de masquage.
15) Pont audio selon la revendication 14, caractérisé en ce que, pour une bande donnée, si la comparaison préalable ne conclut pas à la non régénération et la comparaison ultérieure conclut à la régénération des données manquantes, ces dernières sont effectivement régénérées par les moyens de régénération et les données régénérées ne sont prises en compte que pour le ou les flux de sortie dans lequel ou lesquels le signal de plus forte puissance dans ladite sous-bande n'intervient pas.
16) Pont audio selon l'une des revendications 12 à 15, caractérisé en ce que lesdits moyens de décision sont adaptés à déterminer si les données manquantes d'un flux d'entrée sont relatives à un silence d'émission et, dans l'affirmative, pour chaque flux de sortie obtenu à partir de ce flux d'entrée, à déterminer l'ensemble des flux d'entrée actifs entrant également dans la composition dudit flux de sortie et à décider de la génération d'un bruit de confort si, pour l'un des flux de sortie obtenus à partir de ce flux d'entrée, cet ensemble est vide et si, dans ce cas, le bruit de confort qui serait régénéré ne serait pas masqué par un autre bruit de confort régénéré pour un autre flux d'entrée non actif.
17) Terminal audio pour système de téléconférence, adapté à recevoir et à mixer une pluralité de flux audio d'entrée pour fournir un signal audio de sortie, les flux audio d'entrée pouvant présenter des données manquantes, caractérisé en ce qu'il comprend une pluralité de moyens de décodage partiel (610p) fournissant des flux de données partiellement décodées à partir des flux audio d'entrée, des moyens (640) de décision de régénération opérant sur les flux de données partiellement décodées et décidant de la régénération ou non des données manquantes par de moyens des régénération (650p), des moyens de sommation (630) des données partiellement décodées ou régénérées et des moyens de transformation fréquence/temps (660) fournissant ledit signal audio de sortie à partir des valeurs sommées fournies par lesdits moyens de sommation , lesdits moyens de décision étant adaptés à décider de la régénération d'au moins une partie des données manquantes d'un premier flux d'entrée à partir d'au moins une caractéristique d'au moins un second flux audio d'entrée.
18) Terminal audio selon la revendication 17, caractérisé en ce que, les flux audio d'entrée étant constitués de trames de données obtenues par codage de type TCDM de signaux audio, les moyens de décodage partiel déquantifient par sous- bandes les composantes fréquentielles desdits signaux audio, les moyens de décision de régénération calculent l'énergie dans chaque sous-bande de chaque signal audio et déterminent, pour chaque sous-bande, le signal présentant la plus forte énergie et un niveau de masquage qu'il induit dans ladite sous-bande, la génération de données manquantes d'un signal audio dans ladite sous-bande résultant de la comparaison de l'énergie des composantes fréquentielles de ce signal dans ladite sous-bande avec ledit niveau de masquage.
19) Terminal audio selon la revendication 18, caractérisé en ce que lesdits moyens de décision sont adaptés à déterminer si les données manquantes d'un flux d'entrée sont relatives à un silence d'émission et dans l'affirmative, à décider de la génération d'un bruit de confort si les autres flux d'entrée ne sont pas actifs et si, dans ce cas, le bruit de confort qui serait régénéré ne serait pas masqué par un autre bruit de confort régénéré pour un autre flux d'entrée non actif.
PCT/FR2002/000366 2001-02-02 2002-01-31 Methode et dispositif de traitement d'une pluralite de flux binaires audio WO2002063609A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE60224005T DE60224005T2 (de) 2001-02-02 2002-01-31 Verfahren und vorrichtung zur verarbeitung von mehreren audiobitströmen
EP02701358A EP1356455B1 (fr) 2001-02-02 2002-01-31 Methode et dispositif de traitement d'une pluralite de flux binaires audio

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0101662A FR2820573B1 (fr) 2001-02-02 2001-02-02 Methode et dispositif de traitement d'une pluralite de flux binaires audio
FR01/01662 2001-02-02

Publications (1)

Publication Number Publication Date
WO2002063609A1 true WO2002063609A1 (fr) 2002-08-15

Family

ID=8859733

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2002/000366 WO2002063609A1 (fr) 2001-02-02 2002-01-31 Methode et dispositif de traitement d'une pluralite de flux binaires audio

Country Status (4)

Country Link
EP (1) EP1356455B1 (fr)
DE (1) DE60224005T2 (fr)
FR (1) FR2820573B1 (fr)
WO (1) WO2002063609A1 (fr)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8972033B2 (en) 2006-10-11 2015-03-03 The Nielsen Company (Us), Llc Methods and apparatus for embedding codes in compressed audio data streams
US9191581B2 (en) 2004-07-02 2015-11-17 The Nielsen Company (Us), Llc Methods and apparatus for mixing compressed digital bit streams
US9202256B2 (en) 2003-06-13 2015-12-01 The Nielsen Company (Us), Llc Methods and apparatus for embedding watermarks

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1739141A (zh) * 2003-02-06 2006-02-22 杜比实验室特许公司 连续的备份音频
AU2004248544B2 (en) 2003-05-28 2010-02-18 Dolby Laboratories Licensing Corporation Method, apparatus and computer program for calculating and adjusting the perceived loudness of an audio signal
AU2005299410B2 (en) 2004-10-26 2011-04-07 Dolby Laboratories Licensing Corporation Calculating and adjusting the perceived loudness and/or the perceived spectral balance of an audio signal
US8199933B2 (en) 2004-10-26 2012-06-12 Dolby Laboratories Licensing Corporation Calculating and adjusting the perceived loudness and/or the perceived spectral balance of an audio signal
WO2007120452A1 (fr) 2006-04-04 2007-10-25 Dolby Laboratories Licensing Corporation Mesure et modification de la sonie d'un signal audio dans le domaine mdct
TWI517562B (zh) 2006-04-04 2016-01-11 杜比實驗室特許公司 用於將多聲道音訊信號之全面感知響度縮放一期望量的方法、裝置及電腦程式
ES2359799T3 (es) 2006-04-27 2011-05-27 Dolby Laboratories Licensing Corporation Control de ganancia de audio usando detección de eventos auditivos basada en la sonoridad específica.
CA2665153C (fr) 2006-10-20 2015-05-19 Dolby Laboratories Licensing Corporation Traitement dynamique audio utilisant une reinitialisation
US8521314B2 (en) 2006-11-01 2013-08-27 Dolby Laboratories Licensing Corporation Hierarchical control path with constraints for audio dynamics processing
FR2916079A1 (fr) * 2007-05-10 2008-11-14 France Telecom Procede de codage et decodage audio, codeur audio, decodeur audio et programmes d'ordinateur associes
ATE535906T1 (de) 2007-07-13 2011-12-15 Dolby Lab Licensing Corp Tonverarbeitung mittels auditorischer szenenanalyse und spektraler asymmetrie
WO2009086174A1 (fr) 2007-12-21 2009-07-09 Srs Labs, Inc. Système pour ajuster la sonie perçue de signaux audio
US8538042B2 (en) 2009-08-11 2013-09-17 Dts Llc System for increasing perceived loudness of speakers
US9312829B2 (en) 2012-04-12 2016-04-12 Dts Llc System for adjusting loudness of audio signals in real time

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5570363A (en) * 1994-09-30 1996-10-29 Intel Corporation Transform based scalable audio compression algorithms and low cost audio multi-point conferencing systems
US6006173A (en) * 1991-04-06 1999-12-21 Starguide Digital Networks, Inc. Method of transmitting and storing digitized audio signals over interference affected channels

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6006173A (en) * 1991-04-06 1999-12-21 Starguide Digital Networks, Inc. Method of transmitting and storing digitized audio signals over interference affected channels
US5570363A (en) * 1994-09-30 1996-10-29 Intel Corporation Transform based scalable audio compression algorithms and low cost audio multi-point conferencing systems

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BENJELLOUN TOUIMI A ET AL: "A SUMMATION ALGORITHM FOR MPEG-1 CODED AUDIO SIGNALS: A FIRST STEP TOWARDS AUDIO PROCESSED DOMAIN UN ALGORITHME DE SOMMATION DES SIGNAUX AUDIO CODES MPEG-1: PREMIEREETAPE VERS LE TRAITEMENT AUDIO DANS LE DOMAINE COMPRESSE", ANNALES DES TELECOMMUNICATIONS - ANNALS OF TELECOMMUNICATIONS, PRESSES POLYTECHNIQUES ET UNIVERSITAIRES ROMANDES, LAUSANNE, CH, vol. 55, no. 3/4, March 2000 (2000-03-01), pages 108 - 116, XP000948703, ISSN: 0003-4347 *
FOO S ET AL: "ENHANCING THE QUALITY OF LOW BIT-RATE REAL-TIME INTERNET COMMUNICATIO SERVICES", INTERNET RESEARCH: ELECTRONIC NETWORKING APPLICATIONS AND POLICY, XX, XX, vol. 9, no. 3, 1999, pages 212 - 224, XP000901290, ISSN: 1066-2243 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9202256B2 (en) 2003-06-13 2015-12-01 The Nielsen Company (Us), Llc Methods and apparatus for embedding watermarks
US9191581B2 (en) 2004-07-02 2015-11-17 The Nielsen Company (Us), Llc Methods and apparatus for mixing compressed digital bit streams
US8972033B2 (en) 2006-10-11 2015-03-03 The Nielsen Company (Us), Llc Methods and apparatus for embedding codes in compressed audio data streams
US9286903B2 (en) 2006-10-11 2016-03-15 The Nielsen Company (Us), Llc Methods and apparatus for embedding codes in compressed audio data streams

Also Published As

Publication number Publication date
EP1356455B1 (fr) 2007-12-12
FR2820573B1 (fr) 2003-03-28
EP1356455A1 (fr) 2003-10-29
DE60224005T2 (de) 2009-01-22
FR2820573A1 (fr) 2002-08-09
DE60224005D1 (de) 2008-01-24

Similar Documents

Publication Publication Date Title
EP1356455B1 (fr) Methode et dispositif de traitement d&#39;une pluralite de flux binaires audio
EP2277172B1 (fr) Dissimulation d&#39;erreur de transmission dans un signal audionumerique dans une structure de decodage hierarchique
EP0139803B1 (fr) Procédé de reconstitution d&#39;informations perdues dans un système de transmission numérique de la voix et système de transmission utilisant ledit procédé
EP1107230B1 (fr) Procédé de traitement de plusieurs flux binaires de données audio
US8428959B2 (en) Audio packet loss concealment by transform interpolation
CA2512179C (fr) Procede de codage et de decodage audio a debit variable
EP1372289A2 (fr) Création d&#39;une trame de description de silence pour engendrer un bruit de confort
WO2002021515A1 (fr) Dissimulation d&#39;erreurs de transmission dans un signal audio
EP1037196B1 (fr) Procédé de codage, de décodage et de transcodage audio
EP2979266B1 (fr) Mixage partiel optimisé de flux audio codés selon un codage par sous-bandes
WO1998047134A1 (fr) Procede et dispositif de codage d&#39;un signal audiofrequence par analyse lpc &#39;avant&#39; et &#39;arriere&#39;
Kovesi et al. A scalable speech and audio coding scheme with continuous bitrate flexibility
FR2761512A1 (fr) Dispositif de generation de bruit de confort et codeur de parole incluant un tel dispositif
EP2203915B1 (fr) Dissimulation d&#39;erreur de transmission dans un signal numerique avec repartition de la complexite
EP2979437B1 (fr) Mixage optimisé de flux audio codés selon un codage par sous-bandes
EP0891617B1 (fr) Systeme de codage et systeme de decodage d&#39;un signal, notamment d&#39;un signal audionumerique
FR2888704A1 (fr)
Jiang QoS measurement and Management for Internet real-time multimedia services
Montminy A study of speech compression algorithms for Voice over IP.
Isenburg Transmission of multimedia data over lossy networks
FR2997250A1 (fr) Detection d&#39;une bande de frequence predeterminee dans un contenu audio code par sous-bandes selon un codage de type modulation par impulsions
FR2830970A1 (fr) Procede et dispositif de synthese de trames de substitution, dans une succession de trames representant un signal de parole
WO2009080982A2 (fr) Traitement d&#39;erreurs binaires dans une trame binaire audionumerique
Hellerud et al. Robust Transmission of Lossless Audio with Low Delay over IP Networks
Antoszkiewicz Voice Over Internet Protocol (VolP) Packet Loss Concealment (PLC) by Redundant Transmission of Speech Information

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE ES FI GB GD GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NO NZ PL PT RO RU SD SE SG SI SK SL TJ TM TR TT TZ UA UG US UZ VN YU ZA ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2002701358

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2002701358

Country of ref document: EP

REG Reference to national code

Ref country code: DE

Ref legal event code: 8642

NENP Non-entry into the national phase

Ref country code: JP

WWW Wipo information: withdrawn in national office

Country of ref document: JP

WWG Wipo information: grant in national office

Ref document number: 2002701358

Country of ref document: EP