FR3007564A3 - Decodeur audio avec metadonnees d'informations de programme - Google Patents

Decodeur audio avec metadonnees d'informations de programme Download PDF

Info

Publication number
FR3007564A3
FR3007564A3 FR1356768A FR1356768A FR3007564A3 FR 3007564 A3 FR3007564 A3 FR 3007564A3 FR 1356768 A FR1356768 A FR 1356768A FR 1356768 A FR1356768 A FR 1356768A FR 3007564 A3 FR3007564 A3 FR 3007564A3
Authority
FR
France
Prior art keywords
metadata
audio
frame
program
bit stream
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1356768A
Other languages
English (en)
Other versions
FR3007564B3 (fr
Inventor
Jeffrey Riedmiller
Michael Ward
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dolby Laboratories Licensing Corp
Original Assignee
Dolby Laboratories Licensing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dolby Laboratories Licensing Corp filed Critical Dolby Laboratories Licensing Corp
Publication of FR3007564A3 publication Critical patent/FR3007564A3/fr
Application granted granted Critical
Publication of FR3007564B3 publication Critical patent/FR3007564B3/fr
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/018Audio watermarking, i.e. embedding inaudible data in the audio signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/22Mode decision, i.e. based on audio signal content versus external parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic

Abstract

Un dispositif électrique est décrit, lequel inclut une interface destinée à recevoir une trame de contenu audio codé, la trame incluant des métadonnées d'informations de programme situées dans un champ de saut de la trame, et des données audio codées situées en dehors du champ de saut. Une mémoire tampon est couplée à l'interface en vue de stocker temporairement la trame, et un analyseur est couplé à la mémoire tampon afin d'extraire les données audio codées de la trame. Un décodeur audio AC-3 est couplé ou intégré à l'analyseur en vue de générer du contenu audio décodé à partir des données audio codées.

Description

DÉCODEUR AUDIO AVEC MÉTADONNÉES D'INFORMATIONS DE PROGRAMME DESCRIPTION RENVOI AUX APPLICATIONS CONNEXES La présente demande revendique la priorité de la demande de brevet provisoire américaine n° 61/836,865, déposée le 19 juin 2013, intitulée « Audio Encoder and Decoder with Program Information or Substream Structure Metadata » (Codeur et décodeur audio avec métadonnées d'informations de programme ou métadonnées de structure de sous-flux) dont Jeffrey Riedmiller et Michael Ward sont les inventeurs.
DOMAINE TECHNIQUE La présente demande concerne des unités de traitement de signaux audio, et plus particulièrement, des décodeurs de flux binaires de données audio avec des métadonnées indiquant des informations de programme connexes à du contenu audio indiqué par les flux binaires. Certains modes de réalisation de l'invention génèrent ou décodent des données audio dans l'un des formats connus sous le nom de « Dolby Digital » (format AC-3), « Dolby Digital Plus » (format « AC-3 » ou « E- AC-3 » optimisé) ou « Dolby E ». CONTEXTE « Dolby », « Dolby Digital », « Dolby Digital Plus » et « Dolby E » sont des marques déposées de 30 Dolby Laboratories Licensing Corporation. Dolby Laboratories fournit des mises en oeuvre propriétaires de AC-3 et E-AC-3 appelées « Dolby Digital » et « Dolby Digital Plus », respectivement. Les unités de traitement de signaux audio fonctionnent généralement de manière aveugle et ne tiennent pas compte de l'historique de traitement de données audio qui est occasionné avant la réception des données. Ceci peut fonctionner dans une infrastructure de traitement dans laquelle une entité unique prend en charge la totalité du traitement et du codage de données audio pour une multitude de dispositifs de rendu multimédia cibles, tandis qu'un dispositif de rendu multimédia cible prend en charge la totalité du décodage et du rendu des données audio codées. Toutefois, ce traitement à l'aveugle offre un fonctionnement médiocre (ou inexistant) dans les situations où une pluralité d'unités de traitement audio sont dispersées à travers un réseau diversifié ou sont placées en tandem (autrement dit, elles forment une chaîne) et doivent mettre en oeuvre de manière optimale leurs types respectifs de traitement audio. Par exemple, certaines données audio peuvent être codées pour les systèmes multimédias en haute performance et peuvent devoir être converties en une forme réduite appropriée pour un dispositif mobile le long d'une chaîne de traitement multimédia. En conséquence, une unité de traitement audio peut inutilement mettre en oeuvre un type de traitement sur les données audio, celui-ci ayant déjà été mis en oeuvre. Par exemple, une unité de nivellement du volume peut mettre en oeuvre un traitement sur un clip audio d'entrée, indépendamment du fait que le même nivellement de volume ou un nivellement similaire ait déjà été mis en oeuvre ou non sur le clip audio d'entrée. En conséquence, l'unité de nivellement du volume peut mettre en oeuvre un nivellement y compris lorsque celui-ci n'est pas nécessaire. Ce traitement inutile peut également occasionner une dégradation et/ou une suppression de fonctionnalités spécifiques lors du rendu du contenu des données audio.
Brève description Un dispositif électrique est décrit lequel inclut une interface destinée à recevoir une trame de contenu audio codé, la trame incluant des métadonnées d'informations de programme situées dans un champ de saut de la trame, et des données audio codées situées en dehors du champ de saut. Une mémoire tampon est couplée à l'interface afin de stocker temporairement la trame, et un analyseur est couplé à la mémoire tampon afin d'extraire les données audio codées de la trame.
Un décodeur audio AC-3 est couplé ou intégré à l'analyseur en vue de générer du contenu audio décodé à partir des données audio codées.
Brève description des dessins La figure 1 est un schéma de principe d'un mode de réalisation d'un système qui peut être configuré afin de mettre en oeuvre un mode de réalisation du procédé 5 inventif. La figure 2 est un schéma de principe d'un codeur qui représente un mode de réalisation de l'unité de traitement audio inventive. La figure 3 est un schéma de principe d'un 10 décodeur qui constitue un mode de réalisation de l'unité de traitement audio inventive, et d'un post-processeur couplé à celle-ci qui constitue un autre mode de réalisation de l'unité de traitement audio inventive. 15 La figure 4 est un schéma d'une trame AC-3, incluant les segments en lesquels elle est divisée. La figure 5 est un schéma du segment d'informations de synchronisation (SI) d'une trame AC3, incluant les segments en lesquels elle est divisée. 20 La figure 6 est un schéma du segment d'informations de flux binaire (BSI) d'une trame AC-3, incluant les segments en lesquels elle est divisée. La figure 7 est un schéma d'une trame E-AC-3, incluant les segments en lesquels elle est divisée. 25 La figure 8 est un schéma d'un segment de métadonnées d'un flux binaire codé généré selon un mode de réalisation de l'invention, incluant un entête de segment de métadonnées comprenant un mot de synchronisation de conteneur (identifié sous le nom de 30 « synchronisation de conteneur » dans la figure 8) et des valeurs d'identifiants de clés et de versions, suivies de plusieurs charges utiles de métadonnées et de bits de protection. Notation et nomenclature Dans la présente description, et notamment dans les revendications annexées, l'expression « métadonnées » (d'un flux binaire audio codé) renvoie à des données individuelles et distinctes des données audio correspondantes du flux binaire.
Dans la présente description, et notamment dans les revendications annexées, l'expression « métadonnées d'informations de programme » (ou « PIM ») désigne les métadonnées d'un flux binaire audio codé indiquant au moins un programme audio, où lesdites métadonnées indiquent au moins une propriété ou caractéristique de contenu audio d'au moins un dit programme (par exemple, les métadonnées indiquant un type ou un paramètre de traitement mis en oeuvre sur des données audio du programme ou les métadonnées indiquant quels canaux du programme sont des canaux actifs). Dans la présente description, et notamment dans les revendications annexées, l'expression « programme audio » désigne un ensemble d'un ou plusieurs canaux audio et facultativement les métadonnées associées (par exemple, les métadonnées qui décrivent une présentation audio spatiale souhaitée et/ou les métadonnées PIM). Dans la présente description, et notamment dans les revendications annexées, le terme « couple(nt) » ou « couplé(es) » est utilisé en vue de désigner une connexion directe ou indirecte. Par conséquent, si un premier dispositif est couplé à un second dispositif, cette connexion peut être mise en oeuvre par une connexion directe, ou par une connexion indirecte impliquant d'autres dispositifs et d'autres connexions.
Description détaillée des modes de réalisation de l'invention Un flux typique de données audio inclut à la fois du contenu audio (par exemple, un ou plusieurs canaux de contenu audio) et des métadonnées indiquant au moins une caractéristique du contenu audio. Par exemple, dans un flux binaire AC-3, il existe plusieurs paramètres de métadonnées audio qui sont spécifiquement destinés à être utilisés en vue de modifier le son du programme reproduit par un environnement d'écoute. L'un des paramètres de métadonnées est le paramètre « DIALNORM », lequel est destiné à indiquer le niveau moyen de dialogue dans un programme audio, et est utilisé en vue de déterminer le niveau du signal de lecture audio.
Bien que la présente invention ne soit pas limitée à une utilisation impliquant un flux binaire AC-3, un flux binaire E-AC-3, ou un flux binaire Dolby E, elle sera, pour plus de commodité, décrite en référence à des modes de réalisation dans lesquels elle génère, décode, ou encore traite un flux binaire de ce type. Un flux binaire codé AC-3 comprend des métadonnées et inclut de un à six canaux de contenu audio. Le contenu audio correspond à des données audio qui ont été compressées en utilisant un codage audio perceptuel. Les métadonnées incluent plusieurs paramètres de métadonnées audio qui sont destinés à être utilisés en vue de modifier le son d'un programme reproduit sur un environnement d'écoute. Chaque trame d'un flux binaire audio codé AC-3 contient du contenu audio et des métadonnées pour 1 536 échantillons de contenu audio numérique. Pour une fréquence d'échantillonnage de 48 kHz, ceci représente 32 millisecondes de contenu audio numérique, ou un débit de 31,25 trames par seconde de contenu audio. Chaque trame d'un flux binaire audio codé E-AC-3 contient du contenu audio et des métadonnées pour 256, 512, 768 ou 1536 échantillons de contenu audio numérique, selon que la trame contient un, deux, trois ou six blocs de données audio, respectivement. Pour une fréquence d'échantillonnage de 48 kHz, ceci représente 5,333, 10,667, 16 ou 32 millisecondes de contenu audio numérique, respectivement, ou un débit de 189,9, 93,75, 62,5 ou 31,25 trames par seconde de contenu audio, respectivement. Tel qu'indiqué dans la figure 4, chaque trame AC-3 est divisée en sections (ou segments), incluant : une section d'informations de synchronisation (SI) qui contient (comme le montre la figure 5) un mot de synchronisation (SW) et le premier de deux mots de correction d'erreur (CRC1) ; une section d'informations de flux binaire (BSI), qui contient la plupart des métadonnées ; six blocs audio (ABO à AB5) qui contiennent du contenu audio à données compressées (et peuvent également inclure des métadonnées) ; des segments de bits de mise au rebut (W) (également connus sous le nom de « champs de saut ») qui contiennent des bits non utilisés subsistant suite à la compression du contenu audio ; une section d'informations auxiliaires (AUX) qui peut contenir d'autres métadonnées ; et le second des deux mots de correction d'erreur (CRC2). Tel qu'indiqué dans la figure 7, chaque trame E- AC-3 est divisée en sections (ou segments), incluant : une section d'informations de synchronisation (SI) qui contient (comme le montre la figure 5) un mot de synchronisation (SW) ; une section d'informations de flux binaire (BSI) qui contient la plupart des métadonnées ; entre un et six blocs audio (ABO à AB5) qui contiennent du contenu audio à données compressées (et peuvent également inclure des métadonnées) ; des segments de bits de mise au rebut (W) (également connus sous le nom de « champs de saut ») qui contiennent des bits non utilisés subsistant suite à la compression du contenu audio (bien qu'un seul segment de bits de mise au rebut ne soit montré, un segment de bit de mise au rebut ou segment de champs de saut différent devrait normalement suivre chaque bloc audio) ; une section d'informations auxiliaires (AUX) qui peut contenir d'autres métadonnées ; et un mot de correction d'erreur (CRC). Dans un flux binaire AC-3 (ou E-AC-3), il existe plusieurs paramètres de métadonnées audio qui sont spécifiquement destinés à être utilisés lors de la modification du son du programme reproduit sur un environnement d'écoute. L'un des paramètres de métadonnées est le paramètre « DIALNORM », lequel est inclus dans le segment d'informations BSI.
Comme le montre la figure 6, le segment d'informations BSI d'une trame AC-3 inclut un paramètre de cinq bits (« DIALNORM ») indiquant la valeur « DIALNORM » du programme. Un paramètre de cinq bits (« DIALNORM2 ») indiquant la valeur « DIALNORM » d'un second programme audio transporté dans la même trame AC-3 est inclus si le mode de codage audio (« acmod ») de la trame AC-3 est « 0 », ce qui indique que la configuration de canal double-mono ou « 1+1 » est celle utilisée. Le segment d'informations BSI comprend également 10 un drapeau (« addbsie ») indiquant la présence (ou l'absence) d'informations de flux binaire supplémentaires suivant le bit « addbsie », un paramètre (« addbsil ») indiquant la longueur d'informations de flux binaire supplémentaires suivant 15 la valeur « addbsil », et jusqu'à 64 bits d'informations de flux binaire supplémentaires (« addbsi ») suivant la valeur « addbsil ». Le segment d'informations BSI inclut d'autres valeurs de métadonnées non spécifiquement montrées dans 20 la figure 6. Selon les modes de réalisation typiques de l'invention, les métadonnées PIM (et éventuellement d'autres métadonnées) sont intégrées dans un ou plusieurs champs réservés (ou tranches) de segments de 25 métadonnées d'un flux binaire audio (par exemple, le champ de saut) qui inclut également des données audio dans d'autres segments (les segments de données audio). Généralement, au moins un segment de chaque trame du flux binaire (par exemple, le champ de saut) inclut des 30 métadonnées PIM, et au moins un autre segment de la trame inclut des données audio correspondantes (c'est- à-dire, des données audio présentant au moins une caractéristique ou une propriété indiquée par les métadonnées PIM). Dans une classe de modes de réalisation, chaque segment de métadonnées représente une structure de données (parfois appelée « conteneur » dans la présente description) pouvant contenir une ou plusieurs charges utiles de métadonnées. Chaque charge utile comprend un entête incluant un identifiant de charge utile spécifique (et des données de configuration de charge utile), en vue de fournir une indication non ambigüe du type de métadonnées présentes dans la charge utile. L'ordre des charges utiles dans le conteneur n'est pas défini, de sorte que les charges utiles peuvent être stockées dans n'importe quel ordre, et un analyseur doit être en mesure d'analyser l'ensemble du conteneur en vue d'extraire les charges utiles pertinentes, et d'ignorer les charges utiles qui ne sont pas pertinentes ou ne sont pas prises en charge. La figure 8 (qui sera décrite ultérieurement) illustre la structure d'un tel conteneur et les charges utiles incluses dans le conteneur. La communication des métadonnées (par exemple, des métadonnées PIM) dans une chaîne de traitement de données audio est particulièrement utile lorsque deux unités de traitement audio ou plus doivent opérer mutuellement en tandem tout au long de la chaîne de traitement (ou du cycle de vie du contenu). À défaut de l'inclusion des métadonnées dans un flux binaire audio, de sérieux problèmes de traitement multimédia, par exemple des dégradations de la qualité, des dégradations de niveau et des dégradations spatiales peuvent se produire, par exemple, lorsque deux codecs audio ou plus sont utilisés dans la chaîne et qu'un nivellement de volume unilatéral est appliqué plus d'une fois sur un chemin de flux binaire vers un dispositif de consommation multimédia (ou un point de rendu du contenu audio du flux binaire). La figure 1 est un schéma de principe d'une chaîne de traitement audio exemplaire (un système de traitement de données audio), où un ou plusieurs des éléments du système peuvent être configurés selon un mode de réalisation de la présente invention. Le système comprend les éléments ci-dessous, mutuellement couplés comme suit : une unité de prétraitement, un codeur, une unité de correction de métadonnées et d'analyse de signaux, un transcodeur, un décodeur et une unité de prétraitement. Dans des variantes du système représenté, un ou plusieurs des éléments sont omis, ou des unités de traitement de données audio supplémentaires sont incluses. Dans certaines mises en oeuvre, l'unité de prétraitement de la figure 1 est configurée de manière à prendre en charge des échantillons de métadonnées PCM (domaine temporel) comprenant du contenu audio en tant qu'entrée, et à générer en sortie des échantillons de métadonnées PCM traités. Le codeur peut être configuré de manière à prendre en charge les échantillons de métadonnées PCM en tant qu'entrée, et à générer en sortie un flux binaire audio codé (par exemple, compressé) indiquant le contenu audio. Les données du flux binaire qui sont représentatives du contenu audio sont parfois appelées « données audio » dans le présent document. Si le codeur est configuré selon un mode de réalisation typique de la présente invention, le flux binaire audio généré en sortie par le décodeur inclut des métadonnées PIM ainsi que des données audio. L'unité de correction de métadonnées et d'analyse de signaux de la figure 1 peut prendre en charge un ou plusieurs flux binaires audio codés en entrée, et déterminer (par exemple, valider) si les métadonnées de chaque flux binaire audio codé sont correctes, en mettant en oeuvre une analyse de signaux. Si l'unité de correction de métadonnées et d'analyse de signaux constate que les métadonnées incluses ne sont pas valides, elle remplace généralement la ou les valeurs incorrectes par la ou les valeurs correctes obtenues à partir de l'analyse de signaux. Ainsi, chaque flux binaire audio codé généré en sortie par l'unité de correction de métadonnées et d'analyse de signaux peut inclure des métadonnées d'état de traitement corrigées (ou non corrigées) ainsi que des données audio codées. Le décodeur de la figure 1 peut accepter des flux binaires audio codés (par exemple, compressés) en entrée, et (en réponse) générer en sortie des flux d'échantillons audio PCM décodés. Si le décodeur est 25 configuré selon un mode de réalisation typique de la présente invention, la sortie du décodeur, dans le cadre d'un fonctionnement normal, est ou comprend l'un des éléments ci-dessous : un flux d'échantillons audio, et au moins un flux 30 de métadonnées PIM correspondant (et en outre généralement d'autres métadonnées) extraits d'un flux binaire codé d'entrée ; ou un flux d'échantillons audio, et un flux correspondant de bits de commande déterminés à partir des métadonnées PIM (et généralement également d'autres métadonnées) extraites d'un flux binaire codé d'entrée ; ou un flux d'échantillons audio, sans flux correspondant de métadonnées ou de bits de commande déterminés à partir de métadonnées. Dans ce dernier cas, le décodeur peut extraire des métadonnées du flux binaire codé d'entrée et mettre en oeuvre au moins une opération sur les métadonnées extraites (par exemple, une validation), même s'il ne génère pas les métadonnées ou bits de commande extraits déterminés à partir de celles-ci. Lors de la configuration de l'unité de post-traitement de la figure 1 selon un mode de réalisation typique de la présente invention, l'unité de post-traitement est configurée de manière à prendre en charge, ou accepter, un flux d'échantillons audio PCM décodés, et à mettre en oeuvre un post-traitement à partir de cela (par exemple, un nivellement de volume du contenu audio) en utilisant les métadonnées PIM (et généralement d'autres métadonnées également) reçues avec les échantillons, ou les bits de commande déterminés par le décodeur à partir des métadonnées reçues avec les échantillons. L'unité de post-traitement est généralement également configurée de manière à rendre, ou à restituer, le contenu audio résultant du post-traitement, afin qu'il soit lu par un ou plusieurs haut-parleurs.
Des modes de réalisation typiques de la présente invention fournissent une chaîne de traitement audio améliorée, où les unités de traitement audio (par exemple, les codeurs, les décodeurs, les transcodeurs, 5 et les unités de prétraitement / post-traitement) adaptent leur traitement respectif à appliquer aux données audio selon un état simultané des données multimédias, tel qu'indiqué par les métadonnées respectivement reçues par les unités de traitement 10 audio. Les données audio appliquées à une quelconque unité de traitement audio du système de la figure 1 (par exemple, le codeur ou le transcodeur de la figure 1) peuvent inclure des métadonnées PIM (et 15 éventuellement d'autres métadonnées également) ainsi que des données audio (par exemple, des données audio codées). Ces métadonnées ont été incluses dans le contenu audio d'entrée par un autre élément du système de la figure 1 (ou une autre source, non représentée 20 dans la figure 1) selon un mode de réalisation de la présente invention. L'unité de traitement qui reçoit le contenu audio d'entrée (avec des métadonnées) peut être configurée de manière à mettre en oeuvre au moins une opération sur les métadonnées (par exemple, une 25 validation), ou une opération en réponse aux métadonnées (par exemple, un traitement adaptif du contenu audio d'entrée), et généralement également à inclure dans son contenu audio de sortie, les métadonnées, une version traitée des métadonnées, ou 30 les bits de commande déterminés à partir des métadonnées.
La figure 2 est un schéma de principe d'un codeur (100) qui constitue un mode de réalisation de l'unité de traitement audio inventive. L'un quelconque des composants ou éléments du codeur 100 peut être mis en 5 oeuvre sous la forme d'un ou plusieurs processus et/ou d'un ou plusieurs circuits (par exemple, des circuits ASIC, FPGA, ou d'autres circuits intégrés), dans du matériel, des logiciels, ou une combinaison de matériel et de logiciels. Le codeur 100 comprend une mémoire 10 tampon de trames 110, un analyseur 111, un décodeur 101, un module de validation d'état audio 102, un étage de traitement d'intensité sonore 103, un étage de sélection de flux audio 104, un codeur 105, un étage de formatage/remplissage 107, un étage de génération de 15 métadonnées 106, un sous-système de mesure d'intensité sonore de dialogue 108 et une mémoire tampon de trames 109, connectés tel qu'indiqué. Généralement, le codeur 100 inclut en outre d'autres éléments de traitement (non représentés). 20 Le codeur 100 (lequel est un transcodeur) est configuré de manière à convertir un flux binaire audio d'entrée (lequel peut, par exemple, être l'un parmi un flux binaire AC-3, un flux binaire E-AC-3, ou un flux binaire Dolby E) en un flux binaire audio de sortie 25 codé (lequel peut, par exemple, être un autre flux parmi un flux binaire AC-3, un flux binaire E-AC-3, ou un flux binaire Dolby E), notamment en mettant en oeuvre un traitement d'intensité sonore adaptatif et automatisé en utilisant les métadonnées d'état de 30 traitement d'intensité sonore, incluses dans le flux binaire d'entrée. Par exemple, le codeur 100 peut être configuré de manière à convertir un flux binaire Dolby E d'entrée (un format généralement utilisé dans les installations de production et de diffusion, mais non pris en charge par les dispositifs de consommation qui 5 reçoivent des programmes audio diffusés vers ces derniers) en un flux binaire audio de sortie codé (adapté à une diffusion sur les dispositifs de consommation) au format AC-3 ou E-AC-3. Le système de la figure 2 inclut également le 10 sous-système de distribution audio codé 150 (lequel stocke et/ou délivre les flux binaires codés générés en sortie par le codeur 100) et le décodeur 152. Un flux binaire audio codé généré en sortie par le codeur 100 peut être stocké par le sous-système 150 (par exemple, 15 sous la forme d'un disque DVD ou d'un disque Blu-Ray), ou peut être transmis par le sous-système 150 (lequel peut mettre en oeuvre une liaison ou un réseau de transmission), ou il peut être à la fois stocké et transmis par le sous-système 150. Le décodeur 152 est 20 configuré de manière à décoder un flux binaire audio codé (généré par le codeur 100) qu'il reçoit par l'intermédiaire du sous-système 150, notamment en extrayant des métadonnées (les métadonnées PIM, et éventuellement des métadonnées d'état de traitement 25 d'intensité sonore et/ou d'autres métadonnées) de chaque trame du flux binaire, et à générer des données audio décodées. Généralement, le décodeur 152 est configuré de manière à mettre en oeuvre un traitement adaptif sur les données audio décodées en utilisant les 30 métadonnées PIM, et/ou à acheminer les données audio décodées et les métadonnées à un post-processeur configuré de manière à mettre en oeuvre un traitement adaptif sur les données audio décodées en utilisant les métadonnées. Généralement, le décodeur 152 inclut une mémoire tampon qui stocke (par exemple, d'une manière non transitoire) le flux binaire audio codé reçu à partir du sous-système 150. Plusieurs mises en oeuvre du codeur 100 et du décodeur 152 sont configurées de manière à mettre en oeuvre divers modes de réalisation du procédé inventif.
La mémoire tampon de trames 110 est une mémoire tampon couplée de manière à recevoir un flux binaire audio d'entrée codé. En fonctionnement, la mémoire tampon 110 stocke (par exemple, d'une manière non transitoire) au moins une trame du flux binaire audio codé et une séquence des trames du flux binaire audio codé est appliquée de la mémoire tampon 110 à l'analyseur 111. L'analyseur 111 est couplé et configuré de manière à extraire les métadonnées PIM de chaque trame du contenu audio d'entrée codé dans laquelle ces métadonnées sont incluses, à extraire les données audio du contenu audio d'entrée codé, et à appliquer les données audio au décodeur 101. Le décodeur 101 du codeur 100 est configuré de manière à décoder les données audio en vue de générer des données audio décodées, et à appliquer les données audio décodées à l'étage de traitement d'intensité sonore 103, à l'étage de sélection de flux audio 104, au sous-système 108, et généralement également au module de validation d'état 102. Le module de validation d'état 102 est configuré de manière à authentifier et à valider les métadonnées qui lui ont été appliquées. Dans certains modes de réalisation, les métadonnées représentent (ou sont incluses dans) un bloc de données qui a été inclus dans le flux binaire d'entrée (par exemple, selon un mode de réalisation de la présente invention). Le bloc peut comporter un hachage cryptographique (un code d'authentification de message à base de hachage ou « HMAC ») destiné à traiter les métadonnées et/ou les données audio sous-jacentes (fournies du décodeur 101 au module de validation 102). Le bloc de données peut être signé numériquement dans ces modes de réalisation, de sorte qu'une unité de traitement audio en aval peut relativement facilement authentifier et valider les métadonnées d'état de traitement. Le module de validation d'état 102 applique les données de commande à l'étage de sélection de flux audio 104, au générateur de métadonnées 106 et au sous-système de mesure d'intensité sonore de dialogue 108, en vue d'indiquer les résultats de l'opération de validation. En réponse aux données de commande, l'étage 104 peut choisir (et transmettre au codeur 105) la sortie traitée de manière adaptative de l'étage de traitement d'intensité sonore 103 ou les données audio générées en sortie par le décodeur 101. L'étage 103 du codeur 100 est configuré de manière à mettre en oeuvre un traitement d'intensité sonore adaptatif sur les données audio décodées générées en sortie par le décodeur 101, sur la base d'une ou plusieurs caractéristiques de données audio indiquées par les métadonnées extraites par le décodeur 101.
L'étage 103 peut être un processeur de commande de plage dynamique et d'intensité sonore en temps réel de domaine de transformation adaptatif. L'étage 103 peut recevoir une entrée d'utilisateur (par exemple, des valeurs cibles de plage dynamique et d'intensité sonore de l'utilisateur, ou les valeurs « dialnorm »), ou une autre entrée de métadonnées (par exemple, un ou plusieurs types de données tierces, d'informations de suivi, d'identifiants, d'informations propriétaires ou standard, des données d'annotation d'utilisateur, des données de préférence de l'utilisateur, etc.) et/ou une autre entrée (par exemple, d'un processus d'empreintes digitales), et utiliser ladite entrée pour traiter les données audio décodées générées en sortie par le décodeur 101. L'étage 103 peut mettre en oeuvre un traitement d'intensité sonore adaptatif sur les données audio décodées (générées en sortie par le décodeur 101) indiquant un programme audio unique, et peut réinitialiser le traitement d'intensité sonore en réponse à la réception de données audio décodées (générées en sortie par le décodeur 101) indiquant un programme audio différent. Le sous-système de mesure d'intensité sonore de dialogue 108 peut être exploité de manière à déterminer l'intensité sonore de segments du contenu audio décodé (par le décodeur 101) qui sont indicatifs d'un dialogue (ou d'un autre contenu vocal), par exemple, en utilisant les métadonnées extraites par le décodeur 101, lorsque les bits de commande provenant du 30 module de validation 102 indiquent que les métadonnées ne sont pas valides. L'opération du sous-système de mesure d'intensité sonore de dialogue 108 peut être désactivée lorsque les métadonnées indiquent des segments d'intensité sonore de dialogue (ou d'un autre contenu vocal) préalablement déterminés du contenu audio décodé (à partir du décodeur 101) lorsque les bits de commande provenant du module de validation 102 indiquent que les métadonnées sont valides. Le sous-système 108 peut mettre en oeuvre une mesure d'intensité sonore sur les données audio décodées indiquant un programme audio unique, et peut réinitialiser la mesure en réponse à la réception de données audio décodées indiquant un autre programme audio. Des outils utiles (par exemple, l'instrument de mesure d'intensité sonore Dolby LM100) existent, qui 15 permettent de mesurer le niveau de dialogue dans du contenu audio, de manière simple et conviviale. Certains modes de réalisation de l'unité APU inventive (par exemple, l'étage 108 du codeur 100) sont mis en oeuvre de manière à inclure un tel outil, ou à prendre 20 en charge les fonctions dudit outil, en vue de mesurer l'intensité sonore de dialogue moyenne du contenu audio d'un flux binaire audio (par exemple, un flux binaire AC-3 décodé appliqué à l'étage 108 à partir du décodeur 101 du codeur 100). 25 Si l'étage 108 est mis en oeuvre en vue de mesurer l'intensité sonore de dialogue moyenne réelle des données audio, la mesure peut inclure une étape consistant à isoler les segments du contenu audio qui contiennent principalement du contenu vocal. Les 30 segments audio qui représentent principalement du contenu vocal sont ensuite traités selon un algorithme de mesure d'intensité sonore. Pour des données audio décodées à partir d'un flux binaire AC-3, cet algorithme peut être une mesure d'intensité sonore pondérée par k standard (conformément à la norme internationale ITU-R BS.1770). Alternativement, d'autres mesures d'intensité sonore peuvent être utilisées (par exemple celles basées sur des modèles psychoacoustiques d'intensité sonore). Le générateur de métadonnées 106 génère (et/ou transmet à l'étage 107) des métadonnées destinées à être incluses par l'étage 107 dans le flux binaire codé devant être généré en sortie par le codeur 100. Le générateur de métadonnées 106 peut transmettre à l'étage 107 les métadonnées (et éventuellement également des métadonnées PIM) extraites par le codeur 101 et/ou l'analyseur 111 (par exemple, lorsque les bits de commande provenant du module de validation 102 indiquent que les métadonnées sont valides), ou générer de nouvelles métadonnées PIM et/ou d'autres métadonnées et appliquer les nouvelles métadonnées à l'étage 107 (par exemple, lorsque les bits de commande provenant du module de validation 102 indiquent que les métadonnées extraites par le décodeur 101 ne sont pas valides), ou il peut appliquer à l'étage 107 une combinaison de métadonnées extraites par le décodeur 101 et/ou l'analyseur 111 et de métadonnées nouvellement générées. Le générateur de métadonnées 106 peut inclure des données d'intensité sonore générées par le sous-système 108, et au moins une valeur indicative du type de traitement d'intensité sonore mis en oeuvre par le sous-système 108.
Le générateur de métadonnées 106 peut générer des bits de protection (qui peuvent inclure ou être constitués d'un code d'authentification de message à base de hachage ou « HMAC ») utile pour au moins l'un des processus parmi le déchiffrement, l'authentification, ou la validation des métadonnées à inclure dans le flux binaire codé et/ou des données audio sous-jacentes à inclure dans le flux binaire codé. Le générateur de métadonnées 106 peut fournir lesdits bits de protection à l'étage 107 afin qu'ils soient inclus dans le flux binaire codé. En fonctionnement normal, le sous-système de mesure d'intensité sonore de dialogue 108 traite les données audio générées en sortie par le décodeur 101 en vue de générer en réponse des valeurs d'intensité sonore (par exemple, des valeurs d'intensité sonore de dialogue dépendantes ou indépendantes) et des valeurs de plage dynamique. En réponse à ces valeurs, le générateur de métadonnées 106 peut générer des métadonnées d'état de traitement d'intensité sonore à inclure (par le module de formatage/remplissage 107) dans le flux binaire codé devant être généré en sortie par le codeur 100. Le codeur 105 code (par exemple, en effectuant une compression sur celles-ci), les données audio générées en sortie par l'étage de sélection 104, et applique le contenu audio codé à l'étage 107 en vue d'une inclusion dans le flux binaire codé devant être généré en sortie par l'étage 107.
L'étage 107 multiplexe le contenu audio codé provenant du codeur 105 et les métadonnées (y compris les métadonnées PIM) provenant du générateur 106, en vue de générer le flux binaire codé devant être généré en sortie à partir de l'étage 107, de préférence de sorte que le flux binaire codé présente un format spécifié par un mode de réalisation préféré de la présente invention. La mémoire tampon de trames 109 est une mémoire tampon qui stocke (par exemple, de manière non transitoire) au moins une trame du flux binaire audio codé généré en sortie par l'étage 107, et une séquence des trames du flux binaire audio codé est ensuite appliquée par la mémoire tampon 109 en tant que sortie du codeur 100 vers le système de distribution 150. Dans certaines mises en oeuvre du codeur 100, le flux binaire codé mis en mémoire tampon dans la mémoire 109 (et généré en sortie vers le système de distribution 150) est un flux binaire AC-3 ou un flux binaire E-AC-3, et comprend des segments de données audio (par exemple, les segments ABO - AB5 de la trame montrée dans la figure 4) ainsi que des segments de métadonnées, où les segments de données audio sont représentatifs de données audio, et chacun d'au moins certains des segments de métadonnées comporte des métadonnées PIM (et éventuellement également d'autres métadonnées). L'étage 107 insert les segments de métadonnées (y compris les métadonnées) dans le flux binaire au format suivant. Chacun des segments de métadonnées qui inclut des métadonnées PIM est inclus dans un segment de bits de mise au rebut du flux binaire (également appelé « champ de saut ») (par exemple, un segment de bits de mise au rebut « W » tel que montré dans la figure 4 ou dans la figure 7), ou dans un champ « addbsi » du segment d'informations de flux binaire (« BSI ») d'une trame du flux binaire, ou dans un champ de données auxiliaires « auxdata » (par exemple, le segment « AUX » montré dans la figure 4 ou dans la figure 7) à la fin d'une trame du flux binaire. Une trame du flux binaire peut inclure un ou deux segments de métadonnées, dont chacun comprend des métadonnées, et si la trame comprend deux segments de métadonnées, l'un des segments peut être présent dans le champ « addbsi » de la trame, et l'autre dans le champ « AUX » de la trame. Dans certains modes de réalisation, chaque segment de métadonnées (lesquels sont parfois appelés « conteneur » dans le présent document) inséré par l'étage 107 présente un format qui inclut un entête de segment de métadonnées (et éventuellement d'autres éléments obligatoires ou « de base »), et une ou plusieurs charges utiles de métadonnées qui suivent l'entête de segment de métadonnées. Les métadonnées PIM, le cas échéant, sont incluses dans une première charge utile des charges utiles de métadonnées (identifiée par un entête de charge utile et présentant généralement un format d'un premier type). De même, chaque autre type de métadonnées (le cas échéant) est inclus dans une autre des charges utiles de métadonnées (identifiée par un entête de charge utile et présentant généralement un format spécifique au type de métadonnées). Le format exemplaire permet un accès facile aux métadonnées PIM et à d'autres métadonnées, à d'autres moments que lors du décodage (par exemple, par un post-processeur après décodage, ou par un processeur configuré de manière à reconnaître les métadonnées sans effectuer de décodage complet sur le flux binaire codé), et il permet une détection et correction d'erreur conviviale et efficace (par exemple, de l'identification de sous-flux) lors du décodage du flux binaire. Une charge utile de métadonnées dans un segment de métadonnées peut inclure des métadonnées PIM, une autre charge utile de métadonnées dans le segment de métadonnées peut inclure un second type de métadonnées, et en outre éventuellement au moins une autre charge utile de métadonnées dans le segment de métadonnées peut inclure d'autres métadonnées (par exemple, des métadonnées d'état de traitement d'intensité sonore ou « LPSM »). Dans certains modes de réalisation, une charge utile de métadonnées d'informations de programme (PIM) incluse (par l'étage 107) dans une trame d'un flux binaire codé (par exemple, un flux binaire AC-3 indicatif d'au moins un programme audio) présente le format suivant : un entête de charge utile, comprenant généralement au moins une valeur d'identification (par exemple, une valeur indicative de la version du format des métadonnées PIM, et éventuellement des valeurs de longueur, de période, de comptage, et d'association de sous-flux) ; et après l'entête, les métadonnées PIM au format suivant : des métadonnées de canal actif indicatives de chaque canal silencieux et de chaque canal non silencieux d'un programme audio (autrement dit, qui indiquent quel canal ou quels canaux du programme contiennent des informations audio, et quel canal ou quels canaux (le cas échéant) ne contiennent que du contenu silencieux (généralement pendant toute la durée de la trame)). Dans des modes de réalisation dans lesquels le flux binaire codé est un flux binaire AC-3 ou E-AC-3, les métadonnées de canal actif dans une trame du flux binaire peuvent être utilisées conjointement avec des métadonnées supplémentaires du flux binaire (par exemple, le champ de mode de codage audio (« acmod ») de la trame, et, le cas échéant, le champ « chanmap » dans la trame ou dans une ou des trames de sous-flux dépendants associés, en vue de déterminer quel canal ou quels canaux du programme contiennent des informations audio et quel canal ou quels canaux contiennent du contenu silencieux. Le champ « acmod » d'une trame AC-3 ou E-AC-3 indique le nombre de canaux de plage complète d'un programme audio indiqué par le contenu audio de la trame (par exemple, ce champ indique si le programme est un programme monophonique de canal 1.0, un programme stéréophonique de canal 2.0, ou un programme comprenant des canaux de plage complète L, R, C, Ls, Rs), ou si la trame est indicative de deux programmes monophoniques de canal 1.0 indépendants. Un champ « chanmap » d'un flux binaire E-AC-3 indique une mise en concordance de canaux pour un sous-flux dépendant indiqué par le flux binaire. Les métadonnées de canal actif peuvent être utiles pour la mise en oeuvre d'un mixage ascendant (dans un post-processeur) en aval d'un décodeur, par exemple, pour ajouter du contenu audio à des canaux qui contiennent du contenu silencieux à la sortie du décodeur ; des métadonnées d'état de traitement de mixage descendant indiquant si le programme a été sous-mixé (avant ou lors du codage), et le cas échéant, le type de mixage descendant qui a été appliqué. Les métadonnées d'état de traitement de mixage descendant peuvent être utiles pour la mise en oeuvre d'un mixage ascendant (dans un post-processeur) en aval d'un décodeur, par exemple pour surmixer le contenu audio du programme en utilisant les paramètres qui correspondent le plus étroitement à un type de mixage descendant ayant été appliqué. Dans les modes de réalisation où le flux binaire codé est un flux binaire AC-3 ou E-AC-3, les métadonnées d'état de traitement de mixage descendant peuvent être utilisées conjointement avec le champ de mode de codage audio (« acmod ») de la trame, en vue de déterminer le type de mixage descendant (le cas échéant) appliqué au canal ou aux canaux du programme ; des métadonnées d'état de traitement de mixage ascendant indiquant si le programme a été surmixé (par exemple, à partir d'un nombre inférieur de canaux) avant ou pendant le codage, et le cas échéant, le type 25 de mixage ascendant qui a été appliqué. Les métadonnées d'état de traitement de mixage ascendant peuvent être utiles pour la mise en oeuvre d'un mixage descendant (dans un post-processeur) en aval d'un décodeur, par exemple en vue du mixage descendant du contenu audio du 30 programme d'une manière compatible avec un type de mixage ascendant (par exemple, « Dolby Pro Logic » ou « Dolby Pro Logic II Movie Mode », ou « Dolby Pro Logic II Music Mode » ou « Dolby Professional Upmixer ») qui a été appliqué au programme. Dans les modes de réalisation dans lesquels le flux binaire codé est un flux binaire E-AC-3, les métadonnées d'état de traitement de mixage ascendant peuvent être utilisées conjointement avec d'autres métadonnées (par exemple, la valeur d'un champ « strmtyp » de la trame) en vue de déterminer le type de mixage ascendant (le cas échéant) appliqué au canal ou aux canaux du programme. La valeur du champ « strmtyp » (dans le segment d'informations BSI d'une trame d'un flux binaire E-AC-3) indique si le contenu audio de la trame appartient à un flux indépendant (lequel détermine un programme) ou à un sous-flux indépendant (d'un programme qui inclut ou est associé à de multiples sous-flux) et s'il peut par conséquent être décodé indépendamment de tout autre sous-flux indiqué par le flux binaire E-AC-3, ou si le contenu audio de la trame appartient à un sous-flux dépendant (d'un programme qui inclut ou est associé à de multiples sous-flux) et qui doit par conséquent être décodé conjointement avec un sous-flux indépendant auquel il est associé ; et des métadonnées d'état de prétraitement indiquant si un prétraitement a été mis en oeuvre sur du contenu audio de la trame (avant le codage du contenu audio destiné à générer le flux binaire codé), et le cas échéant, le type de prétraitement mis en oeuvre. Dans certaines mises en oeuvre, les métadonnées 30 d'état de prétraitement indiquent : si une atténuation de pseudo-quadriphonie a été appliquée (par exemple, si les canaux de pseudoquadriphonie du programme audio ont été atténués de 3 dB avant le codage) ; si un déphasage de 90 degrés a été appliqué (par 5 exemple, aux canaux de pseudo-quadriphonie Ls et Rs du programme audio avant le codage) ; si un filtre passe-bas a été appliqué à un canal LFE du programme audio avant le codage ; si le niveau d'un canal LFE du programme a été 10 surveillé au cours de la production et, le cas échéant, le niveau surveillé du canal LFE par rapport au niveau des canaux audio de plage complète du programme ; si une compression de plage dynamique doit être mise en oeuvre (par exemple, dans le décodeur) sur 15 chaque bloc de contenu audio décodé du programme, et le cas échéant, le type (et/ou les paramètres) de compression de plage dynamique à mettre en oeuvre (par exemple, ce type de métadonnées d'état de prétraitement peut indiquer quel type parmi les types de profils de 20 compression ci-après a été pris en charge par le codeur en vue de générer des valeurs de contrôle de compression de plage dynamique qui sont incluses dans le flux binaire codé : « Film Standard », « Film Light », « Music Standard », « Music Light », ou 25 « Speech ». Par ailleurs, ce type de métadonnées d'état de prétraitement peut indiquer qu'une compression de plage dynamique approfondie (compression « compr ») doit être mise en oeuvre sur chaque trame de contenu audio décodé du programme d'une manière déterminée par 30 les valeurs de contrôle de compression de plage dynamique qui sont incluses dans le flux binaire codé), si un codage de traitement d'extension spectrale et/ou un codage de couplage de canaux a/ont été utilisé(s) en vue de coder les plages de fréquences spécifiques du contenu du programme, et le cas échéant, les fréquences minimales et maximales des composantes de fréquence du contenu sur lequel le codage d'extension spectrale a été mis en oeuvre, et les fréquences minimales et maximales des composantes de fréquence du contenu sur lequel le codage de couplage de canaux a été mis en oeuvre. Ce type d'informations de métadonnées d'état de prétraitement peut être utile pour exécuter une égalisation (dans un post-processeur) en aval d'un décodeur. Les informations de couplage de canaux et les informations d'extension spectrale sont également utiles en vue d'optimiser la qualité lors des opérations et applications de transcodage. Par exemple, un codeur peut optimiser son propre comportement (y compris l'adaptation des étapes de prétraitement comme la virtualisation d'écouteurs, le mixage ascendant, etc.) en fonction de l'état de paramètres comme les informations d'extension spectrale et les informations de couplage de canaux. Par ailleurs, le codeur peut adapter dynamiquement ses paramètres d'extension spectrale ou de couplage à des valeurs optimales, ou afin qu'ils correspondent à des valeurs optimales, sur la base de l'état des métadonnées entrantes (et authentifiées) ; et si des données de plage de réglage d'amélioration de dialogue sont incluses dans le flux binaire codé, et 30 le cas échéant, la plage de réglage disponible au cours de l'exécution du traitement d'amélioration de dialogue (par exemple, dans un post-processeur en aval d'un décodeur), en vue d'ajuster le niveau du contenu de dialogue par rapport au niveau du contenu sans dialogue dans le programme audio.
Dans certaines mises en oeuvre, des métadonnées d'état de prétraitement supplémentaires (par exemple, des métadonnées indicatives de paramètres connexes au casque d'écoute ou écouteurs) sont incluses (par l'étage 107) dans une charge utile de métadonnées PIM d'un flux binaire codé devant être généré en sortie par le codeur 100. Chaque charge utile de métadonnées suit les valeurs de configuration de charge utile et d'identifiant de charge utile correspondantes.
Dans certains modes de réalisation, chacun des segments de métadonnées dans le segment de bit de mise au rebut / champs de saut (ou champ « auxdata » ou « addbsi ») d'une trame dispose de trois niveaux de structure : une structure de haut niveau (par exemple, un entête de segment de métadonnées), incluant un drapeau indiquant si le champ de bits de mise au rebut (ou « auxdata » ou « addbsi ») inclut des métadonnées, au moins une valeur d'identifiant indiquant quel(s) type(s) de métadonnées est/sont présent(s), et généralement également une valeur indiquant combien de bits de métadonnées (par exemple, de chaque type) sont présents (dans l'éventualité où des métadonnées seraient présentes). Un type de métadonnées pouvant être présent concerne les métadonnées PIM, un autre type de métadonnées pouvant être présent concerne les métadonnées LSPM ; une structure de niveau intermédiaire, comprenant des données associées à chaque type identifié de métadonnées (par exemple, un entête de charge utile de métadonnées, des valeurs de protection, et des valeurs de configuration de charge utile et identifiant de charge utile pour chaque type de métadonnées identifié) ; et une structure de bas niveau, comprenant une charge utile de métadonnées pour chaque type identifié de métadonnées (par exemple, une séquence de valeurs de métadonnées PIM, s'il est déterminé que des métadonnées PIM sont présentes, et/ou des valeurs de métadonnées d'un autre type (par exemple, LSPM), si cet autre type de métadonnées est identifié comme étant présent). Les valeurs des données dans une telle structure à trois niveaux peuvent être imbriquées. Par exemple, la ou les valeurs de protection pour chaque charge utile (par exemple, chaque charge utile de métadonnées PIM ou chaque autre charge utile de métadonnées) identifiées par les structures de haut niveau et de niveau intermédiaire peuvent être incluses après la charge utile (et par conséquent après l'entête de charge utile de métadonnées de la charge utile), ou la ou les valeurs de protection pour toutes les charges utiles de métadonnées identifiées par les structures de haut niveau et de niveau intermédiaire peuvent être incluses après la charge utile de métadonnées finale dans le segment de métadonnées (et par conséquent après les entêtes de charge utile de métadonnées de toutes les charges utiles du segment de métadonnées).
Dans un exemple (qui sera décrit en référence au segment de métadonnées ou « conteneur » de la figure 8), un entête de segment de métadonnées identifie quatre charges utiles de métadonnées. Comme le montre la figure 8, l'entête de segment de métadonnées comprend un mot de synchronisation de conteneur (appelé ici « synchronisation de conteneur ») et des valeurs d'identifiants de clés et de version. L'entête de segment de métadonnées est suivi des quatre charges utiles de métadonnées et des bits de protection. Les valeurs de configuration de charge utile et d'identifiant de charge utile (par exemple, la taille de la charge utile) de la première charge utile (par exemple, une charge utile de métadonnées PIM) suivent l'entête de segment de métadonnées, la première charge utile elle-même suit les valeurs de configuration et d'identifiant, les valeurs de configuration de charge utile et d'identifiant de charge utile (par exemple, la taille de la charge utile) de la deuxième charge utile (par exemple, une charge utile de métadonnées PIM) suivent la première charge utile, la deuxième charge utile elle-même suit ces valeurs de configuration et d'identifiant, les valeurs de configuration de charge utile et d'identifiant de charge utile (par exemple, la taille de la charge utile) de la troisième charge utile (par exemple, la charge utile des métadonnées d'état de traitement d'intensité sonore) suivent la deuxième charge utile, la troisième charge utile elle-même suit ces valeurs de configuration et d'identifiant, les valeurs de configuration de charge utile et d'identifiant de charge utile (par exemple, la taille de la charge utile) de la quatrième charge utile, suivent la troisième charge utile, la quatrième charge utile elle-même suit ces valeurs de configuration et 5 d'identifiant, et une ou des valeurs de protection (identifiées en tant que « données de protection » dans la figure 8) pour tout ou partie des charges utiles (ou pour la structure de haut niveau et de niveau intermédiaire et tout ou partie des charges utiles) 10 suivent la dernière charge utile. La figure 3 est un schéma de principe d'un décodeur (200) qui constitue un mode de réalisation de l'unité de traitement audio inventive, et d'un post-processeur (300) couplé à celle-ci. Le post-processeur 15 (300) constitue également un mode de réalisation de l'unité de traitement audio inventive. Les composants ou éléments du décodeur 200 et du post-processeur 300 peuvent être mis en oeuvre sous la forme d'un ou plusieurs processus et/ou d'un ou plusieurs circuits 20 (par exemple, des circuits ASIC, FPGA, ou d'autres circuits intégrés), dans du matériel, des logiciels, ou une combinaison de matériel et de logiciels. Le décodeur 200 comporte une mémoire tampon de trames 201, un analyseur 205, un décodeur audio 202, un étage de 25 validation d'état audio (module de validation) 203, et un étage de génération de bits de commande 204, connectés tel qu'indiqué. Généralement, le décodeur 200 comprend également d'autres éléments de traitement (non représentés). 30 La mémoire tampon de trames 201 stocke (par exemple, d'une manière non transitoire) au moins une trame du flux binaire audio codé reçu par le décodeur 200. Une séquence des trames du flux binaire audio codé est appliquée de la mémoire tampon 201 à l'analyseur 205.
L'analyseur 205 est couplé et configuré de manière à extraire des métadonnées PIM (et éventuellement d'autres métadonnées) de chaque trame du contenu audio d'entrée codé, en vue d'appliquer au moins certaines des métadonnées (par exemple, les métadonnées PIM) au module de validation d'état audio 203, et à l'étage 204, en vue d'appliquer les métadonnées extraites en sortie (par exemple, au post-processeur 300), afin d'extraire des données audio du contenu audio d'entrée codé, et d'appliquer les données audio extraites au décodeur 202. Le flux binaire audio codé appliqué au décodeur 200 peut être l'un parmi un flux binaire AC-3, un flux binaire E-AC-3, ou un flux binaire Dolby E. Le système de la figure 3 inclut également le post-processeur 300. Le post-processeur 300 comporte la mémoire tampon de trames 301 et d'autres éléments de traitement (non représentés) incluant au moins un élément de traitement couplé à la mémoire tampon 301. La mémoire tampon de trames 301 stocke (par exemple, d'une manière non transitoire) au moins une trame du flux binaire audio décodé reçu par le post-processeur 300 à partir du décodeur 200. Des éléments de traitement du post-processeur 300 sont couplés et configurés de manière à recevoir et à traiter de façon adaptative une séquence des trames du flux binaire audio décodé généré en sortie par la mémoire tampon 301, en utilisant des métadonnées générées en sortie par le décodeur 200 et/ou des bits de commande générés en sortie par l'étage 204 du décodeur 200. Généralement, le post-processeur 300 est configuré de manière à mettre en oeuvre un traitement adaptif sur les données audio décodées en utilisant des métadonnées provenant du décodeur 200 (par exemple, un traitement d'intensité sonore adaptatif sur les données audio décodées en utilisant des valeurs de métadonnées, où le traitement adaptif peut être basée sur un état de traitement d'intensité sonore, et/ou une ou plusieurs caractéristiques de données audio, indiquées par des métadonnées de données audio indicatives d'un programme audio unique).
Plusieurs mises en oeuvre du décodeur 200 et du post-processeur 300 sont configurées de manière à mettre en oeuvre divers modes de réalisation du procédé inventif. Dans certaines mises en oeuvre du décodeur 200, le flux binaire codé reçu (et mis en mémoire tampon dans la mémoire 201) est un flux binaire AC-3 ou un flux binaire E-AC-3, et comprend des segments de données audio (par exemple, les segments ABO - AB5 de la trame représentée dans la figure 4) et des segments de métadonnées, où les segments de données audio sont indicatifs de données audio, et chacun d'au moins certains des segments de métadonnées comprend des métadonnées PIM (ou d'autres métadonnées). L'étage de décodeur 202 (et/ou d'analyseur 205) est configuré de manière à extraire les métadonnées du flux binaire. Chacun des segments de métadonnées qui comprend des métadonnées PIM (et éventuellement d'autres métadonnées) est inclus dans un segment de bits de mise au rebut d'une trame du flux binaire, ou dans un champ « addbsi » du segment d'informations de flux binaire (« BSI ») d'une trame du flux binaire, ou dans un champ « auxdata » (par exemple, le segment « AUX » représenté dans la figure 4) à la fin d'une trame du flux binaire. Une trame du flux binaire peut inclure un ou deux segments de métadonnées, dont chacun comprend des métadonnées, et si la trame comprend deux segments de métadonnées, l'un des segments peut être présent dans le champ « addbsi » de la trame, et l'autre dans le champ « AUX » de la trame. Les modes de réalisation de la présente invention peuvent être mis en oeuvre dans du matériel, un micrologiciel ou des logiciels, ou une combinaison de cela (par exemple, sous la forme d'un réseau logique programmable). En outre, les unités de traitement audio décrites dans le présent document peuvent faire partie de et/ou être intégrées à différents dispositifs de communication, par exemple des téléviseurs, des téléphones mobiles, des ordinateurs personnels, des ordinateurs-tablettes, des ordinateurs portables, des décodeurs et des récepteurs audio / vidéo. Sauf indication contraire, les algorithmes ou les processus inclus dans le cadre de l'invention ne sont pas intrinsèquement liés à un ordinateur en particulier ou à un autre appareil. En particulier, diverses machines à usage générique peuvent être utilisées avec des programmes écrits selon les enseignements du présent document, ou encore il peut être plus commode de construire des appareils plus spécialisés (par exemple, des circuits intégrés) en vue de mettre en oeuvre les étapes de procédé requises. Ainsi, la présente invention peut être mise en oeuvre dans un ou plusieurs programmes informatiques s'exécutant sur un ou plusieurs systèmes informatiques programmables (par exemple, une mise en oeuvre de l'un quelconque des éléments de la figure 1, ou du codeur 100 de la figure 2 (ou un élément connexe), ou du décodeur 200 de la figure 3 (ou un élément connexe), ou du post-processeur 300 de la figure 3 (ou un élément connexe)) comprenant chacun au moins un processeur, au moins un système de stockage de données (y compris une mémoire volatile ou non volatile et/ou des éléments de stockage), au moins un dispositif d'entrée ou un port d'entrée, et au moins un dispositif de sortie ou un port de sortie. Le code de programme est appliqué à des données d'entrée en vue de mettre en oeuvre les fonctions décrites dans le présent document et de générer des informations de sortie. Les informations de sortie sont appliquées à un ou plusieurs dispositifs de sortie, d'une manière connue. Chacun de ces programmes peut être mis en oeuvre en utilisant un quelconque langage de programmation désiré (y compris des langages machine, d'assemblage ou des langages de programmation procédurale, logique, ou orientée objet, de haut niveau) en vue de communiquer avec un système informatique. Dans tous les cas, le langage peut être un langage compilé ou interprété.
Par exemple, lorsqu'elles sont mises en oeuvre par des séquences d'instructions de logiciels informatiques, les différentes fonctions et étapes des modes de réalisation de l'invention peuvent être mises en oeuvre par des séquences d'instructions logicielles de programme à plusieurs branches, s'exécutant dans du matériel de traitement de signal numérique approprié, auquel cas, les divers dispositifs, diverses étapes et fonctions des modes de réalisation peuvent correspondre à des parties des instructions logicielles. Chaque dit programme informatique est de préférence stocké ou téléchargé sur un support de stockage ou un dispositif de stockage (par exemple, un support ou une mémoire à semi-conducteur, ou un support magnétique ou optique) lisible par un ordinateur programmable à usage général ou spécifique, en vue de configurer et d'exploiter l'ordinateur lorsque le support ou dispositif de stockage est lu par le système informatique en vue de mettre en oeuvre les procédures décrites dans le présent document. Le système selon l'invention peut également être mis en oeuvre sous la forme d'un support de stockage lisible par ordinateur, configuré avec (autrement dit, stockant) un programme informatique, où le support de stockage ainsi configuré amène un système informatique à fonctionner d'une manière spécifique et prédéfinie en vue d'exécuter les fonctions décrites dans le présent document. Plusieurs modes de réalisation de l'invention ont été décrits. Néanmoins, il est entendu que diverses modifications peuvent être apportées sans s'écarter de l'esprit et de la portée de la présente invention. De nombreuses modifications et variantes de la présente invention sont possibles à la lumière des enseignements susmentionnés. Il doit être compris que dans la portée des revendications annexées, l'invention peut être mise en pratique autrement que de la manière spécifiquement décrite dans la présente description.5

Claims (10)

  1. REVENDICATIONS1. Dispositif électrique, comprenant : une interface destinée à recevoir une trame de 5 contenu audio codé, dans lequel la trame comprend des métadonnées d'informations de programme situées dans un champ de saut de la trame et des données audio codées situées en dehors du champ de saut ; une mémoire tampon couplée à l'interface en vue de 10 stocker temporairement la trame ; un analyseur couplé à la mémoire tampon en vue d'extraire les données audio codées de la trame ; et un décodeur audio AC-3 couplé ou intégré à l'analyseur, en vue de générer du contenu audio décodé 15 à partir des données audio codées.
  2. 2. Dispositif électrique selon la revendication 1, dans lequel les métadonnées d'informations de programme incluent une charge utile de métadonnées, et la charge 20 utile inclut un entête, et après l'entête, au moins certaines des métadonnées d'informations de programme.
  3. 3. Dispositif électrique selon la revendication 1, dans lequel le contenu audio codé est indicatif d'un 25 programme audio, et les métadonnées d'informations de programme sont indicatives d'au moins une propriété ou caractéristique de contenu audio du programme audio.
  4. 4. Dispositif électrique selon la revendication 3, 30 dans lequel les métadonnées d'informations de programme incluent des métadonnées de canal actif indicatives dechaque canal non silencieux et de chaque canal silencieux du programme audio.
  5. 5. Dispositif électrique selon la revendication 3, dans lequel les métadonnées d'informations de programme incluent des métadonnées d'état de traitement de mixage descendant indiquant si le programme audio a été sous-mixé, et le cas échéant, un type de mixage descendant qui a été appliqué au programme audio.
  6. 6. Dispositif électrique selon la revendication 3, dans lequel les métadonnées d'informations de programme incluent des métadonnées d'état de traitement de mixage ascendant indiquant si le programme audio été surmixé, et le cas échéant, un type de mixage ascendant qui a été appliqué au programme audio.
  7. 7. Dispositif électrique selon la revendication 3, dans lequel les métadonnées d'informations de programme incluent des métadonnées d'état de prétraitement indiquant si un prétraitement a été mis en oeuvre sur du contenu audio de la trame, et le cas échéant, un type de prétraitement qui a été mis en oeuvre sur le contenu audio.
  8. 8. Dispositif électrique selon la revendication 3, dans lequel les métadonnées d'informations de programme incluent des métadonnées de couplage de canaux ou de traitement d'extension spectrale indiquant si un traitement d'extension spectrale ou un couplage de canaux a été appliqué au programme audio, et le caséchéant, une plage de fréquences à laquelle l'extension spectrale ou le couplage de canaux a été appliqué.
  9. 9. Dispositif électrique selon la revendication 1, 5 dans lequel le contenu audio codé est un flux binaire AC-3.
  10. 10. Dispositif électrique selon la revendication 1, comprenant en outre un post-processeur 10 couplé au décodeur AC-3, dans lequel le post-processeur est configuré de manière à mettre en oeuvre un traitement adaptif sur le contenu audio décodé.
FR1356768A 2013-06-19 2013-07-10 Decodeur audio avec metadonnees d'informations de programme Expired - Lifetime FR3007564B3 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US201361836865P 2013-06-19 2013-06-19

Publications (2)

Publication Number Publication Date
FR3007564A3 true FR3007564A3 (fr) 2014-12-26
FR3007564B3 FR3007564B3 (fr) 2015-11-13

Family

ID=49112574

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1356768A Expired - Lifetime FR3007564B3 (fr) 2013-06-19 2013-07-10 Decodeur audio avec metadonnees d'informations de programme

Country Status (24)

Country Link
US (7) US10037763B2 (fr)
EP (3) EP2954515B1 (fr)
JP (8) JP3186472U (fr)
KR (7) KR200478147Y1 (fr)
CN (9) CN110491396A (fr)
AU (1) AU2014281794B9 (fr)
BR (6) BR122020017896B1 (fr)
CA (1) CA2898891C (fr)
CL (1) CL2015002234A1 (fr)
DE (1) DE202013006242U1 (fr)
ES (2) ES2674924T3 (fr)
FR (1) FR3007564B3 (fr)
HK (3) HK1204135A1 (fr)
IL (1) IL239687A (fr)
IN (1) IN2015MN01765A (fr)
MX (5) MX2021012890A (fr)
MY (2) MY171737A (fr)
PL (1) PL2954515T3 (fr)
RU (4) RU2619536C1 (fr)
SG (3) SG10201604619RA (fr)
TR (1) TR201808580T4 (fr)
TW (11) TWM487509U (fr)
UA (1) UA111927C2 (fr)
WO (1) WO2014204783A1 (fr)

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWM487509U (zh) 2013-06-19 2014-10-01 杜比實驗室特許公司 音訊處理設備及電子裝置
CN109785851B (zh) 2013-09-12 2023-12-01 杜比实验室特许公司 用于各种回放环境的动态范围控制
US9621963B2 (en) 2014-01-28 2017-04-11 Dolby Laboratories Licensing Corporation Enabling delivery and synchronization of auxiliary content associated with multimedia data using essence-and-version identifier
RU2678487C2 (ru) * 2014-03-25 2019-01-29 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Устройство аудиокодера и устройство аудиодекодера, имеющие эффективное кодирование усиления при управлении динамическим диапазоном
CN105532009B (zh) 2014-07-18 2021-03-12 索尼公司 发送设备、发送方法、接收设备和接收方法
HUE059748T2 (hu) * 2014-09-12 2022-12-28 Sony Group Corp Hangadatfolyamatok vételére szolgáló eszköz és eljárás
CN113037768A (zh) * 2014-09-12 2021-06-25 索尼公司 发送设备、发送方法、接收设备和接收方法
CN113257274A (zh) * 2014-10-01 2021-08-13 杜比国际公司 高效drc配置文件传输
JP6812517B2 (ja) * 2014-10-03 2021-01-13 ドルビー・インターナショナル・アーベー パーソナル化されたオーディオへのスマート・アクセス
WO2016050900A1 (fr) 2014-10-03 2016-04-07 Dolby International Ab Accès intelligent pour sortie audio personnalisée
WO2016057530A1 (fr) * 2014-10-10 2016-04-14 Dolby Laboratories Licensing Corporation Sonie basee sur une presentation a support de transmission agnostique
JP6359680B2 (ja) 2014-10-20 2018-07-18 エルジー エレクトロニクス インコーポレイティド 放送信号送信装置、放送信号受信装置、放送信号送信方法、及び放送信号受信方法
TWI631835B (zh) * 2014-11-12 2018-08-01 弗勞恩霍夫爾協會 用以解碼媒體信號之解碼器、及用以編碼包含用於主要媒體資料之元資料或控制資料的次要媒體資料之編碼器
KR102464061B1 (ko) 2015-02-13 2022-11-08 삼성전자주식회사 미디어 데이터를 송수신하는 방법 및 장치
US10217471B2 (en) * 2015-02-14 2019-02-26 Samsung Electronics Co., Ltd. Method and apparatus for decoding audio bitstream including system data
TWI758146B (zh) * 2015-03-13 2022-03-11 瑞典商杜比國際公司 解碼具有增強頻譜帶複製元資料在至少一填充元素中的音訊位元流
JPWO2016171002A1 (ja) * 2015-04-24 2018-02-15 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
EP4156180A1 (fr) 2015-06-17 2023-03-29 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Commande de volume sonore pour interactivité d'utilisateur dans des systèmes de codage audio
TWI607655B (zh) * 2015-06-19 2017-12-01 Sony Corp Coding apparatus and method, decoding apparatus and method, and program
US9934790B2 (en) 2015-07-31 2018-04-03 Apple Inc. Encoded audio metadata-based equalization
US10140822B2 (en) 2015-08-05 2018-11-27 Dolby Laboratories Licensing Corporation Low bit rate parametric encoding and transport of haptic-tactile signals
US10341770B2 (en) 2015-09-30 2019-07-02 Apple Inc. Encoded audio metadata-based loudness equalization and dynamic equalization during DRC
US9691378B1 (en) * 2015-11-05 2017-06-27 Amazon Technologies, Inc. Methods and devices for selectively ignoring captured audio data
CN105468711A (zh) * 2015-11-19 2016-04-06 中央电视台 一种音频处理方法及装置
US10573324B2 (en) 2016-02-24 2020-02-25 Dolby International Ab Method and system for bit reservoir control in case of varying metadata
CN105828272A (zh) * 2016-04-28 2016-08-03 乐视控股(北京)有限公司 音频信号处理方法和装置
US10015612B2 (en) * 2016-05-25 2018-07-03 Dolby Laboratories Licensing Corporation Measurement, verification and correction of time alignment of multiple audio channels and associated metadata
CN116631415A (zh) 2017-01-10 2023-08-22 弗劳恩霍夫应用研究促进协会 音频解码器、提供解码的音频信号的方法、和计算机程序
US10878879B2 (en) * 2017-06-21 2020-12-29 Mediatek Inc. Refresh control method for memory system to perform refresh action on all memory banks of the memory system within refresh window
RU2762400C1 (ru) 2018-02-22 2021-12-21 Долби Интернешнл Аб Способ и устройство обработки вспомогательных потоков медиаданных, встроенных в поток mpeg-h 3d audio
CN108616313A (zh) * 2018-04-09 2018-10-02 电子科技大学 一种基于超声波的旁路信息安全隐蔽传送方法
US10937434B2 (en) * 2018-05-17 2021-03-02 Mediatek Inc. Audio output monitoring for failure detection of warning sound playback
SG11202012942TA (en) 2018-06-26 2021-01-28 Huawei Tech Co Ltd High-level syntax designs for point cloud coding
US11430463B2 (en) * 2018-07-12 2022-08-30 Dolby Laboratories Licensing Corporation Dynamic EQ
CN109284080B (zh) * 2018-09-04 2021-01-05 Oppo广东移动通信有限公司 音效调整方法、装置、电子设备以及存储介质
WO2020123424A1 (fr) 2018-12-13 2020-06-18 Dolby Laboratories Licensing Corporation Intelligence multimédia à double extrémité
WO2020164753A1 (fr) 2019-02-13 2020-08-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Décodeur et procédé de décodage sélectionnant un mode de dissimulation d'erreur, et encodeur et procédé d'encodage
GB2582910A (en) * 2019-04-02 2020-10-14 Nokia Technologies Oy Audio codec extension
US11967330B2 (en) 2019-08-15 2024-04-23 Dolby International Ab Methods and devices for generation and processing of modified audio bitstreams
JP2022545709A (ja) * 2019-08-30 2022-10-28 ドルビー ラボラトリーズ ライセンシング コーポレイション マルチチャネル・オーディオ信号のチャネル識別
US11533560B2 (en) * 2019-11-15 2022-12-20 Boomcloud 360 Inc. Dynamic rendering device metadata-informed audio enhancement system
US11380344B2 (en) 2019-12-23 2022-07-05 Motorola Solutions, Inc. Device and method for controlling a speaker according to priority data
CN113990355A (zh) * 2021-09-18 2022-01-28 赛因芯微(北京)电子科技有限公司 音频节目元数据和产生方法、电子设备及存储介质
CN114051194A (zh) * 2021-10-15 2022-02-15 赛因芯微(北京)电子科技有限公司 一种音频轨道元数据和生成方法、电子设备及存储介质
US20230117444A1 (en) * 2021-10-19 2023-04-20 Microsoft Technology Licensing, Llc Ultra-low latency streaming of real-time media
CN114363791A (zh) * 2021-11-26 2022-04-15 赛因芯微(北京)电子科技有限公司 串行音频元数据生成方法、装置、设备及存储介质
WO2023205025A2 (fr) * 2022-04-18 2023-10-26 Dolby Laboratories Licensing Corporation Procédés et systèmes multisources pour médias codés

Family Cites Families (127)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5297236A (en) * 1989-01-27 1994-03-22 Dolby Laboratories Licensing Corporation Low computational-complexity digital filter bank for encoder, decoder, and encoder/decoder
JPH0746140Y2 (ja) 1991-05-15 1995-10-25 岐阜プラスチック工業株式会社 かん水栽培方法において使用する水位調整タンク
JPH0746140A (ja) * 1993-07-30 1995-02-14 Toshiba Corp 符号化装置及び復号化装置
US6611607B1 (en) * 1993-11-18 2003-08-26 Digimarc Corporation Integrating digital watermarks in multimedia content
US5784532A (en) * 1994-02-16 1998-07-21 Qualcomm Incorporated Application specific integrated circuit (ASIC) for performing rapid speech compression in a mobile telephone system
JP3186472B2 (ja) 1994-10-04 2001-07-11 キヤノン株式会社 ファクシミリ装置およびその記録紙選択方法
US7224819B2 (en) * 1995-05-08 2007-05-29 Digimarc Corporation Integrating digital watermarks in multimedia content
JPH11234068A (ja) 1998-02-16 1999-08-27 Mitsubishi Electric Corp ディジタル音声放送受信機
JPH11330980A (ja) * 1998-05-13 1999-11-30 Matsushita Electric Ind Co Ltd 復号装置及びその復号方法、並びにその復号の手順を記録した記録媒体
US6530021B1 (en) * 1998-07-20 2003-03-04 Koninklijke Philips Electronics N.V. Method and system for preventing unauthorized playback of broadcasted digital data streams
US6975254B1 (en) * 1998-12-28 2005-12-13 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Methods and devices for coding or decoding an audio signal or bit stream
US6909743B1 (en) 1999-04-14 2005-06-21 Sarnoff Corporation Method for generating and processing transition streams
US8341662B1 (en) * 1999-09-30 2012-12-25 International Business Machine Corporation User-controlled selective overlay in a streaming media
WO2001052178A1 (fr) * 2000-01-13 2001-07-19 Digimarc Corporation Authentification de metadonnees et incorporation de metadonnees dans des filigranes dans des signaux media
US7450734B2 (en) * 2000-01-13 2008-11-11 Digimarc Corporation Digital asset management, targeted searching and desktop searching using digital watermarks
US7266501B2 (en) * 2000-03-02 2007-09-04 Akiba Electronics Institute Llc Method and apparatus for accommodating primary content audio and secondary content remaining audio capability in the digital audio production process
US8091025B2 (en) * 2000-03-24 2012-01-03 Digimarc Corporation Systems and methods for processing content objects
US7392287B2 (en) * 2001-03-27 2008-06-24 Hemisphere Ii Investment Lp Method and apparatus for sharing information using a handheld device
GB2373975B (en) 2001-03-30 2005-04-13 Sony Uk Ltd Digital audio signal processing
US6807528B1 (en) * 2001-05-08 2004-10-19 Dolby Laboratories Licensing Corporation Adding data to a compressed data frame
AUPR960601A0 (en) * 2001-12-18 2002-01-24 Canon Kabushiki Kaisha Image protection
US7535913B2 (en) * 2002-03-06 2009-05-19 Nvidia Corporation Gigabit ethernet adapter supporting the iSCSI and IPSEC protocols
JP3666463B2 (ja) * 2002-03-13 2005-06-29 日本電気株式会社 光導波路デバイスおよび光導波路デバイスの製造方法
AU2003207887A1 (en) * 2002-03-27 2003-10-08 Koninklijke Philips Electronics N.V. Watermaking a digital object with a digital signature
JP4355156B2 (ja) 2002-04-16 2009-10-28 パナソニック株式会社 画像復号化方法及び画像復号化装置
US7072477B1 (en) 2002-07-09 2006-07-04 Apple Computer, Inc. Method and apparatus for automatically normalizing a perceived volume level in a digitally encoded file
US7454331B2 (en) * 2002-08-30 2008-11-18 Dolby Laboratories Licensing Corporation Controlling loudness of speech in signals that contain speech and other types of audio material
US7398207B2 (en) * 2003-08-25 2008-07-08 Time Warner Interactive Video Group, Inc. Methods and systems for determining audio loudness levels in programming
CA2562137C (fr) 2004-04-07 2012-11-27 Nielsen Media Research, Inc. Dispositif et procede d'insertion de donnees a utiliser avec des donnees audio/video compressees
US8131134B2 (en) * 2004-04-14 2012-03-06 Microsoft Corporation Digital media universal elementary stream
US7617109B2 (en) * 2004-07-01 2009-11-10 Dolby Laboratories Licensing Corporation Method for correcting metadata affecting the playback loudness and dynamic range of audio information
US7624021B2 (en) 2004-07-02 2009-11-24 Apple Inc. Universal container for audio data
US8199933B2 (en) * 2004-10-26 2012-06-12 Dolby Laboratories Licensing Corporation Calculating and adjusting the perceived loudness and/or the perceived spectral balance of an audio signal
US8090120B2 (en) * 2004-10-26 2012-01-03 Dolby Laboratories Licensing Corporation Calculating and adjusting the perceived loudness and/or the perceived spectral balance of an audio signal
US9639554B2 (en) 2004-12-17 2017-05-02 Microsoft Technology Licensing, Llc Extensible file system
US7729673B2 (en) 2004-12-30 2010-06-01 Sony Ericsson Mobile Communications Ab Method and apparatus for multichannel signal limiting
CN101156209B (zh) * 2005-04-07 2012-11-14 松下电器产业株式会社 记录媒体、再现装置、记录方法、再现方法
WO2006109716A1 (fr) * 2005-04-07 2006-10-19 Matsushita Electric Industrial Co., Ltd. Support d'enregistrement, dispositif de reproduction, procede d'enregistrement et procede de reproduction
TW200638335A (en) * 2005-04-13 2006-11-01 Dolby Lab Licensing Corp Audio metadata verification
US7177804B2 (en) * 2005-05-31 2007-02-13 Microsoft Corporation Sub-band voice codec with multi-stage codebooks and redundant coding
KR20070025905A (ko) * 2005-08-30 2007-03-08 엘지전자 주식회사 멀티채널 오디오 코딩에서 효과적인 샘플링 주파수비트스트림 구성방법
JP2009516402A (ja) * 2005-09-14 2009-04-16 エルジー エレクトロニクス インコーポレイティド 符号化/復号化方法及び装置
AU2005338930B2 (en) 2005-12-05 2010-12-09 Thomson Licensing Watermarking encoded content
US8929870B2 (en) * 2006-02-27 2015-01-06 Qualcomm Incorporated Methods, apparatus, and system for venue-cast
US8244051B2 (en) * 2006-03-15 2012-08-14 Microsoft Corporation Efficient encoding of alternative graphic sets
US20080025530A1 (en) 2006-07-26 2008-01-31 Sony Ericsson Mobile Communications Ab Method and apparatus for normalizing sound playback loudness
US8948206B2 (en) * 2006-08-31 2015-02-03 Telefonaktiebolaget Lm Ericsson (Publ) Inclusion of quality of service indication in header compression channel
BRPI0715312B1 (pt) * 2006-10-16 2021-05-04 Koninklijke Philips Electrnics N. V. Aparelhagem e método para transformação de parâmetros multicanais
EP2115739A4 (fr) * 2007-02-14 2010-01-20 Lg Electronics Inc Procédés et appareils de codage et de décodage de signaux audio fondés sur des objets
JP5530720B2 (ja) * 2007-02-26 2014-06-25 ドルビー ラボラトリーズ ライセンシング コーポレイション エンターテイメントオーディオにおける音声強調方法、装置、およびコンピュータ読取り可能な記録媒体
US8639498B2 (en) * 2007-03-30 2014-01-28 Electronics And Telecommunications Research Institute Apparatus and method for coding and decoding multi object audio signal with multi channel
JP4750759B2 (ja) * 2007-06-25 2011-08-17 パナソニック株式会社 映像音声再生装置
US7961878B2 (en) * 2007-10-15 2011-06-14 Adobe Systems Incorporated Imparting cryptographic information in network communications
EP2083585B1 (fr) * 2008-01-23 2010-09-15 LG Electronics Inc. Procédé et appareil de traitement de signal audio
US9143329B2 (en) * 2008-01-30 2015-09-22 Adobe Systems Incorporated Content integrity and incremental security
KR20100131467A (ko) * 2008-03-03 2010-12-15 노키아 코포레이션 복수의 오디오 채널들을 캡쳐하고 렌더링하는 장치
US20090253457A1 (en) * 2008-04-04 2009-10-08 Apple Inc. Audio signal processing for certification enhancement in a handheld wireless communications device
KR100933003B1 (ko) * 2008-06-20 2009-12-21 드리머 Bd-j 기반 채널 서비스 제공 방법 및 이를 실현시키기위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체
EP2144230A1 (fr) 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Schéma de codage/décodage audio à taux bas de bits disposant des commutateurs en cascade
EP2146522A1 (fr) 2008-07-17 2010-01-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Appareil et procédé pour générer des signaux de sortie audio utilisant des métadonnées basées sur un objet
US8284959B2 (en) * 2008-07-29 2012-10-09 Lg Electronics Inc. Method and an apparatus for processing an audio signal
JP2010081397A (ja) * 2008-09-26 2010-04-08 Ntt Docomo Inc データ受信端末、データ配信サーバ、データ配信システム、およびデータ配信方法
JP2010082508A (ja) 2008-09-29 2010-04-15 Sanyo Electric Co Ltd 振動モータおよびそれを用いた携帯端末装置
US8798776B2 (en) * 2008-09-30 2014-08-05 Dolby International Ab Transcoding of audio metadata
JP5603339B2 (ja) * 2008-10-29 2014-10-08 ドルビー インターナショナル アーベー 既存のオーディオゲインメタデータを使用した信号のクリッピングの保護
JP2010135906A (ja) 2008-12-02 2010-06-17 Sony Corp クリップ防止装置及びクリップ防止方法
EP2205007B1 (fr) * 2008-12-30 2019-01-09 Dolby International AB Procédé et appareil pour le codage tridimensionnel de champ acoustique et la reconstruction optimale
EP2395503A4 (fr) * 2009-02-03 2013-10-02 Samsung Electronics Co Ltd Procédé de codage et de décodage de signaux audio, et appareil à cet effet
WO2010143088A1 (fr) * 2009-06-08 2010-12-16 Nds Limited Association sécurisée de métadonnées à du contenu
EP2273495A1 (fr) * 2009-07-07 2011-01-12 TELEFONAKTIEBOLAGET LM ERICSSON (publ) Système de traitement de signal audio numérique
WO2011041943A1 (fr) 2009-10-09 2011-04-14 禾瑞亚科技股份有限公司 Procédé et dispositif d'analyse de position
CA2781310C (fr) * 2009-11-20 2015-12-15 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Appareil servant a fournir une representation d'un signal de mixage elevateur sur la base de la representation d'un signal de mixage reducteur, appareil servant a fournir un flux binaire representant un signal audio multicanal, procedes, programmes informatiques et flux binaire representant un signal audio multicanal utilisant un parametre de combinaison l
GEP20146081B (en) 2009-12-07 2014-04-25 Dolby Laboratories Licensing Corp Decoding of multichannel aufio encoded bit streams using adaptive hybrid transformation
TWI529703B (zh) * 2010-02-11 2016-04-11 杜比實驗室特許公司 用以非破壞地正常化可攜式裝置中音訊訊號響度之系統及方法
TWI557723B (zh) * 2010-02-18 2016-11-11 杜比實驗室特許公司 解碼方法及系統
PL2381574T3 (pl) 2010-04-22 2015-05-29 Fraunhofer Ges Forschung Urządzenie i sposób do modyfikacji wejściowego sygnału audio
US9998081B2 (en) * 2010-05-12 2018-06-12 Nokia Technologies Oy Method and apparatus for processing an audio signal based on an estimated loudness
US8948406B2 (en) * 2010-08-06 2015-02-03 Samsung Electronics Co., Ltd. Signal processing method, encoding apparatus using the signal processing method, decoding apparatus using the signal processing method, and information storage medium
EP2610865B1 (fr) * 2010-08-23 2014-07-23 Panasonic Corporation Dispositif de traitement de signal audio et procédé de traitement de signal audio
US8908874B2 (en) * 2010-09-08 2014-12-09 Dts, Inc. Spatial audio encoding and reproduction
JP5903758B2 (ja) 2010-09-08 2016-04-13 ソニー株式会社 信号処理装置および方法、プログラム、並びにデータ記録媒体
ES2600313T3 (es) 2010-10-07 2017-02-08 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Aparato y método para la estimación de nivel de tramas de audio codificadas en un dominio de flujo de bits
TWI800092B (zh) * 2010-12-03 2023-04-21 美商杜比實驗室特許公司 音頻解碼裝置、音頻解碼方法及音頻編碼方法
US8989884B2 (en) 2011-01-11 2015-03-24 Apple Inc. Automatic audio configuration based on an audio output device
CN102610229B (zh) * 2011-01-21 2013-11-13 安凯(广州)微电子技术有限公司 一种音频动态范围压缩方法、装置及设备
JP2012235310A (ja) 2011-04-28 2012-11-29 Sony Corp 信号処理装置および方法、プログラム、並びにデータ記録媒体
JP5856295B2 (ja) 2011-07-01 2016-02-09 ドルビー ラボラトリーズ ライセンシング コーポレイション 適応的オーディオシステムのための同期及びスイッチオーバ方法及びシステム
TW202339510A (zh) 2011-07-01 2023-10-01 美商杜比實驗室特許公司 用於適應性音頻信號的產生、譯碼與呈現之系統與方法
US8965774B2 (en) 2011-08-23 2015-02-24 Apple Inc. Automatic detection of audio compression parameters
JP5845760B2 (ja) 2011-09-15 2016-01-20 ソニー株式会社 音声処理装置および方法、並びにプログラム
JP2013102411A (ja) 2011-10-14 2013-05-23 Sony Corp 音声信号処理装置、および音声信号処理方法、並びにプログラム
KR102172279B1 (ko) * 2011-11-14 2020-10-30 한국전자통신연구원 스케일러블 다채널 오디오 신호를 지원하는 부호화 장치 및 복호화 장치, 상기 장치가 수행하는 방법
WO2013078056A1 (fr) 2011-11-22 2013-05-30 Dolby Laboratories Licensing Corporation Procédé et système permettant de générer un score de qualité de métadonnées audio
RU2586874C1 (ru) 2011-12-15 2016-06-10 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Устройство, способ и компьютерная программа для устранения артефактов амплитудного ограничения
WO2013118476A1 (fr) * 2012-02-10 2013-08-15 パナソニック株式会社 Dispositif de codage audio et vocal, dispositif de décodage audio et vocal, procédé de codage audio et vocal, et procédé de décodage audio et vocal
WO2013150340A1 (fr) * 2012-04-05 2013-10-10 Nokia Corporation Filtrage de signal audio adaptatif
TWI517142B (zh) 2012-07-02 2016-01-11 Sony Corp Audio decoding apparatus and method, audio coding apparatus and method, and program
US8793506B2 (en) * 2012-08-31 2014-07-29 Intel Corporation Mechanism for facilitating encryption-free integrity protection of storage data at computing systems
US20140074783A1 (en) * 2012-09-09 2014-03-13 Apple Inc. Synchronizing metadata across devices
EP2757558A1 (fr) 2013-01-18 2014-07-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Réglage du niveau de domaine temporel pour codage ou décodage de signal audio
UA122050C2 (uk) * 2013-01-21 2020-09-10 Долбі Лабораторіс Лайсензін Корпорейшн Аудіокодер і аудіодекодер з метаданими гучності та границі програми
CN105190750B (zh) 2013-01-28 2019-10-25 弗劳恩霍夫应用研究促进协会 解码器设备以及解码比特流的方法
US9372531B2 (en) * 2013-03-12 2016-06-21 Gracenote, Inc. Detecting an event within interactive media including spatialized multi-channel audio content
US9607624B2 (en) 2013-03-29 2017-03-28 Apple Inc. Metadata driven dynamic range control
US9559651B2 (en) 2013-03-29 2017-01-31 Apple Inc. Metadata for loudness and dynamic range control
TWM487509U (zh) * 2013-06-19 2014-10-01 杜比實驗室特許公司 音訊處理設備及電子裝置
JP2015050685A (ja) 2013-09-03 2015-03-16 ソニー株式会社 オーディオ信号処理装置および方法、並びにプログラム
WO2015041070A1 (fr) 2013-09-19 2015-03-26 ソニー株式会社 Dispositif et procédé de codage, dispositif et procédé de décodage, et programme
US9300268B2 (en) 2013-10-18 2016-03-29 Apple Inc. Content aware audio ducking
CN111580772B (zh) 2013-10-22 2023-09-26 弗劳恩霍夫应用研究促进协会 用于音频设备的组合动态范围压缩和引导截断防止的构思
US9240763B2 (en) 2013-11-25 2016-01-19 Apple Inc. Loudness normalization based on user feedback
US9276544B2 (en) 2013-12-10 2016-03-01 Apple Inc. Dynamic range control gain encoding
KR20230042410A (ko) 2013-12-27 2023-03-28 소니그룹주식회사 복호화 장치 및 방법, 및 프로그램
US9608588B2 (en) 2014-01-22 2017-03-28 Apple Inc. Dynamic range control with large look-ahead
RU2678487C2 (ru) 2014-03-25 2019-01-29 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Устройство аудиокодера и устройство аудиодекодера, имеющие эффективное кодирование усиления при управлении динамическим диапазоном
US9654076B2 (en) 2014-03-25 2017-05-16 Apple Inc. Metadata for ducking control
EP3522554B1 (fr) 2014-05-28 2020-12-02 FRAUNHOFER-GESELLSCHAFT zur Förderung der angewandten Forschung e.V. Processeur de données et transport de données de contrôle utilisateur vers des décodeurs audio et des lecteurs audio
EP3151240B1 (fr) 2014-05-30 2022-12-21 Sony Group Corporation Dispositif de traitement d'informations et procédé de traitement d'informations
KR102422493B1 (ko) 2014-06-30 2022-07-20 소니그룹주식회사 정보 처리 장치 및 정보 처리 방법
TWI631835B (zh) 2014-11-12 2018-08-01 弗勞恩霍夫爾協會 用以解碼媒體信號之解碼器、及用以編碼包含用於主要媒體資料之元資料或控制資料的次要媒體資料之編碼器
US20160315722A1 (en) 2015-04-22 2016-10-27 Apple Inc. Audio stem delivery and control
US10109288B2 (en) 2015-05-27 2018-10-23 Apple Inc. Dynamic range and peak control in audio using nonlinear filters
WO2016193033A1 (fr) 2015-05-29 2016-12-08 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Dispositif et procédé de réglage de l'intensité sonore
EP4156180A1 (fr) 2015-06-17 2023-03-29 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Commande de volume sonore pour interactivité d'utilisateur dans des systèmes de codage audio
US9837086B2 (en) 2015-07-31 2017-12-05 Apple Inc. Encoded audio extended metadata-based dynamic range control
US9934790B2 (en) 2015-07-31 2018-04-03 Apple Inc. Encoded audio metadata-based equalization
US10341770B2 (en) 2015-09-30 2019-07-02 Apple Inc. Encoded audio metadata-based loudness equalization and dynamic equalization during DRC

Also Published As

Publication number Publication date
BR122020017897B1 (pt) 2022-05-24
TWI553632B (zh) 2016-10-11
US20160322060A1 (en) 2016-11-03
JP6046275B2 (ja) 2016-12-14
CN106297811A (zh) 2017-01-04
JP3186472U (ja) 2013-10-10
KR200478147Y1 (ko) 2015-09-02
TW201506911A (zh) 2015-02-16
US10037763B2 (en) 2018-07-31
AU2014281794B9 (en) 2015-09-10
TW201735012A (zh) 2017-10-01
EP2954515A1 (fr) 2015-12-16
CN110473559A (zh) 2019-11-19
SG10201604617VA (en) 2016-07-28
JP2016507088A (ja) 2016-03-07
TWI588817B (zh) 2017-06-21
CN104240709A (zh) 2014-12-24
MY171737A (en) 2019-10-25
US10147436B2 (en) 2018-12-04
MY192322A (en) 2022-08-17
CA2898891C (fr) 2016-04-19
KR20160088449A (ko) 2016-07-25
TWI647695B (zh) 2019-01-11
KR20150099615A (ko) 2015-08-31
US20180012610A1 (en) 2018-01-11
TWI831573B (zh) 2024-02-01
HK1204135A1 (en) 2015-11-06
CN106297810A (zh) 2017-01-04
US20160307580A1 (en) 2016-10-20
CN106297811B (zh) 2019-11-05
TW202042216A (zh) 2020-11-16
US20200219523A1 (en) 2020-07-09
JP2024028580A (ja) 2024-03-04
TW202143217A (zh) 2021-11-16
TWM487509U (zh) 2014-10-01
MX2015010477A (es) 2015-10-30
JP2022116360A (ja) 2022-08-09
US20160196830A1 (en) 2016-07-07
UA111927C2 (uk) 2016-06-24
TW201635276A (zh) 2016-10-01
JP2017004022A (ja) 2017-01-05
EP2954515A4 (fr) 2016-10-05
BR122016001090B1 (pt) 2022-05-24
TW202343437A (zh) 2023-11-01
TWI605449B (zh) 2017-11-11
TR201808580T4 (tr) 2018-07-23
US11404071B2 (en) 2022-08-02
KR20140006469U (ko) 2014-12-30
BR122017012321A2 (pt) 2019-09-03
TW201635277A (zh) 2016-10-01
KR101673131B1 (ko) 2016-11-07
JP6866427B2 (ja) 2021-04-28
IL239687A (en) 2016-02-29
RU2619536C1 (ru) 2017-05-16
CN104995677B (zh) 2016-10-26
HK1214883A1 (zh) 2016-08-05
JP7427715B2 (ja) 2024-02-05
BR122017011368A2 (pt) 2019-09-03
CN104995677A (zh) 2015-10-21
PL2954515T3 (pl) 2018-09-28
JP6561031B2 (ja) 2019-08-14
KR102297597B1 (ko) 2021-09-06
FR3007564B3 (fr) 2015-11-13
BR122020017896B1 (pt) 2022-05-24
IN2015MN01765A (fr) 2015-08-28
MX367355B (es) 2019-08-16
JP7090196B2 (ja) 2022-06-23
KR102358742B1 (ko) 2022-02-08
EP3680900A1 (fr) 2020-07-15
RU2696465C2 (ru) 2019-08-01
RU2017122050A (ru) 2018-12-24
CN104240709B (zh) 2019-10-01
CN110459228A (zh) 2019-11-15
US20240153515A1 (en) 2024-05-09
IL239687A0 (en) 2015-08-31
MX2021012890A (es) 2022-12-02
KR20240055880A (ko) 2024-04-29
HK1217377A1 (zh) 2017-01-06
JP2017040943A (ja) 2017-02-23
TW201804461A (zh) 2018-02-01
JP2021101259A (ja) 2021-07-08
RU2017122050A3 (fr) 2019-05-22
EP3373295B1 (fr) 2020-02-12
RU2589370C1 (ru) 2016-07-10
EP2954515B1 (fr) 2018-05-09
CN203415228U (zh) 2014-01-29
RU2019120840A (ru) 2021-01-11
US9959878B2 (en) 2018-05-01
KR20210111332A (ko) 2021-09-10
US11823693B2 (en) 2023-11-21
EP3373295A1 (fr) 2018-09-12
BR112015019435B1 (pt) 2022-05-17
ES2777474T3 (es) 2020-08-05
KR20220021001A (ko) 2022-02-21
JP2019174852A (ja) 2019-10-10
RU2624099C1 (ru) 2017-06-30
DE202013006242U1 (de) 2013-08-01
TWI719915B (zh) 2021-02-21
BR122017012321B1 (pt) 2022-05-24
CA2898891A1 (fr) 2014-12-24
TW201921340A (zh) 2019-06-01
US20230023024A1 (en) 2023-01-26
BR112015019435A2 (pt) 2017-07-18
TWI790902B (zh) 2023-01-21
KR102041098B1 (ko) 2019-11-06
CN110491395A (zh) 2019-11-22
CN106297810B (zh) 2019-07-16
TWI613645B (zh) 2018-02-01
AU2014281794B2 (en) 2015-08-20
ES2674924T3 (es) 2018-07-05
CL2015002234A1 (es) 2016-07-29
CN110600043A (zh) 2019-12-20
SG11201505426XA (en) 2015-08-28
CN110491396A (zh) 2019-11-22
BR122017011368B1 (pt) 2022-05-24
KR102659763B1 (ko) 2024-04-24
BR122016001090A2 (pt) 2019-08-27
WO2014204783A1 (fr) 2014-12-24
JP6571062B2 (ja) 2019-09-04
TWI708242B (zh) 2020-10-21
MX2022015201A (es) 2023-01-11
SG10201604619RA (en) 2016-07-28
TWI756033B (zh) 2022-02-21
MX2019009765A (es) 2019-10-14
AU2014281794A1 (en) 2015-07-23
MX342981B (es) 2016-10-20
CN110459228B (zh) 2024-02-06
KR20190125536A (ko) 2019-11-06
TW202244900A (zh) 2022-11-16

Similar Documents

Publication Publication Date Title
FR3007564A3 (fr) Decodeur audio avec metadonnees d'informations de programme
WO2019105575A1 (fr) Détermination de codage de paramètre audio spatial et décodage associé
CN107257234B (zh) 解码具有保留数据空间中的元数据容器的编码音频比特流
WO2022038307A1 (fr) Opération de transmission discontinue pour des paramètres audio spatiaux
CN110491395B (zh) 音频处理单元和对编码音频比特流进行解码的方法
GB2577045A (en) Determination of spatial audio parameter encoding

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6