JP5547297B2 - 適応型ハイブリッド変換を使用した、マルチチャンネルオーディオエンコード化ビットストリームのデコーディング - Google Patents

適応型ハイブリッド変換を使用した、マルチチャンネルオーディオエンコード化ビットストリームのデコーディング Download PDF

Info

Publication number
JP5547297B2
JP5547297B2 JP2012541085A JP2012541085A JP5547297B2 JP 5547297 B2 JP5547297 B2 JP 5547297B2 JP 2012541085 A JP2012541085 A JP 2012541085A JP 2012541085 A JP2012541085 A JP 2012541085A JP 5547297 B2 JP5547297 B2 JP 5547297B2
Authority
JP
Japan
Prior art keywords
audio
channel
encoded
block
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012541085A
Other languages
English (en)
Other versions
JP2013511754A (ja
Inventor
ラマムーシー、カマラナサン
Original Assignee
ドルビー ラボラトリーズ ライセンシング コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ドルビー ラボラトリーズ ライセンシング コーポレイション filed Critical ドルビー ラボラトリーズ ライセンシング コーポレイション
Publication of JP2013511754A publication Critical patent/JP2013511754A/ja
Application granted granted Critical
Publication of JP5547297B2 publication Critical patent/JP5547297B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation

Description

関連出願の相互参照
本出願は、2009年12月7日に出願された米国仮特許出願番号61/267,422の優先権を主張しており、これは、本明細書に参照によりそのまま組み込まれる。
本発明は、一般に、オーディオコーディングシステムに関する。特には、エンコードされたデジタルオーディオ信号をデコードする方法と装置に関する。
United States Advanced Television Systems Committee(ATSC)は、Joint Committee on InterSociety Coordination(JCIC)の加盟団体により形成され、米国国内テレビジョンサービスの開発のための国内標準の協調的なセットを開発した。関連するオーディオエンコーディングおよびデコーディング標準を含むこれらの標準は、2005年6月14日公開の文書A/52B、タイトル「Digital Audio Compression Standard(AC−3, E−AC−3)」、リビジョンBに含まれる複数の文書で説明されており、参照により本明細書にそのまま組み込まれる。文書A/52Bで指定されるオーディオコーディングアルゴリズムを、「AC−3」と呼ぶ。このアルゴリズムの拡張バージョンは、文書のAnnex Eに説明されているが、「E−AC−3」と呼ぶ。これら2つのアルゴリズムは、本明細書では「AC−3」と呼び、関連する標準は、本明細書では「ATSC標準」と呼ぶ。
A/52B文書は、アルゴリズム設計の側面を多く指定しているものではないが、その代わり、これに準拠するデコーダがデコーディングできなければならないエンコードされた情報の構造的構文的特徴を定義する「ビットストリーム構文」について説明している。ATSC標準に準拠するアプリケーションの多くは、エンコード化デジタルオーディオ情報を、連続したバイナリデータの形で送信する。結果として、エンコード化データはビットストリームと呼ばれることが良くあるが、その他のデータ配列でも差し支えない。説明しやすくするため、「ビットストリーム」という言葉は、本明細書では、形式または使用されている記録技術または伝送技術にかかわらずエンコード化デジタルオーディオ信号を指すこととする。
ATSC標準に準拠するビットストリームは、連続した「同期フレーム」で配列される。各フレームは、パルス符号変調(PCM)デジタルオーディオデータの1つまたは複数のチャンネルに完全デコードできるビットストリームの単位である。各フレームは、「オーディオブロック」とオーディオブロックに関連付けられているフレームメタデータとを含む。各オーディオブロックは、1つまたは複数のオーディオチャンネルに対するデジタルオーディオサンプルを表すエンコード化オーディオデータと、エンコード化オーディオデータと関連付けられたブロックメタデータとを格納する。
アルゴリズムの設計の詳細はATSC標準で指定されていないが、特定のアルゴリズムの機能が、プロフェッショナルおよびコンシューマ向けデコーディング装置の製造者により幅広く適用されてきた。E−AC−3エンコーダにより生成された拡張AC−3ビットストリームをデコード可能なデコーダに実装する汎用的な機能の1つに、対象チャンネルのフレームのすべてのエンコード化データを、別のチャンネルのデータのデコードの前にデコードするアルゴリズムがある。この手法は、オンチップメモリが少ないシングルチッププロセッサでの実行パフォーマンスを改善するために使用されてきた。デコーディングプロセスの一部で、フレームの各オーディオブロックからの特定のチャンネルに対するデータを必要とするためである。チャンネル順でエンコード化データを処理することで、デコード操作を特定のチャンネルに対してオンチップメモリを使用して実行することができる。デコードされたチャンネルデータは続いて、次のチャンネル用にオンチップのリソースを開放するため外部メモリに移される。
ATSC標準に準拠するビットストリームは、多数のバリエーションを取り得るため、非常に複雑になる可能性がある。本明細書で説明するいくつかの例は、チャンネル結合、チャンネル再マトリックス化、会話の標準化、ダイナミックレンジ圧縮、チャンネルダウンミキシングおよび標準AC−3ビットストリームのブロック長スイッチング、および複数独立ストリーム、従属サブストリーム、スペクトル拡張および拡張AC−3ビットストリームの適応型ハイブリッド変換の概要のみを含む。これらの機能の詳細は、A/52B文書から取得できる。
各チャンネルを独立して処理することにより、これらのバリエーションに必要なアルゴリズムを簡略化できる。合成フィルタリングのような、次に続く複雑な処理は、これらのバリエーションを考慮せずに実行可能である。より簡略化されたアルゴリズムは、オーディオデータのフレームの処理に必要な計算リソースを削減するという点でメリットがあると思われる。
あいにく、この手法には、オーディオブロックすべてのデータを2回読み取り検証するデコーディングアルゴリズムが必要である。フレームのオーディオブロックデータの読み取りと検証の各繰り返しを、本明細書ではオーディオブロックの「受け渡し」と呼ぶ。最初の受け渡しは、各ブロックのエンコード化オーディオデータの位置を判別するための広範な計算を実行する。2回目の受け渡しは、デコーディング処理で実行されるものと同じ計算の多くを実行する。両方の受け渡しとも、データ位置の計算に多くの計算リソースを必要とする。最初の受け渡しがなくなれば、オーディオデータのフレームのデコードに必要な合計処理リソースを削減することが可能となるであろう。
本発明の目的は、前述のフレームおよびオーディオブロックなどの階層化された単位で配列されたエンコード化ビットストリームのオーディオデータのフレームのデコードに必要な計算リソースを削減することである。前述の内容と以下の開示は、ATSC標準に準拠したエンコード化ビットストリームを参照しているが、本発明はこれらのビットストリームでの使用のみに制限されない。本発明の原理は、基本的に、AC−3コーディングアルゴリズムで使用されるフレーム、ブロックおよびチャンネルと同様の構造的特徴を持つ任意のエンコード化ビットストリームに適用して良い。
本発明の一態様に従うと、方法は、各オーディオブロックのエンコード化オーディオデータをブロック順でデコードするために、フレームの受信とエンコード化デジタルオーディオ信号の検証を単一の受け渡しで行うことによりエンコード化デジタルオーディオ信号のフレームをデコードする。各フレームはフレームメタデータと複数のオーディオブロックとを備える。各オーディオブロックは、1つまたは複数のオーディオチャンネルのブロックメタデータとエンコード化オーディオデータとを備える。ブロックメタデータは、エンコード化オーディオデータを生成するエンコーディング処理により使用されるコーディングツールを記述した制御情報を備える。コーディングツールの1つに、1つまたは複数のオーディオチャンネルのスペクトル内容を表すスペクトル係数を生成する1つまたは複数のオーディオチャンネルに第1の変換により実施される解析フィルタバンクを適用し、1つまたは複数のオーディオチャンネルの少なくとも一部のスペクトル係数に第2の変換を適用してハイブリッド変換係数を生成するハイブリッド変換処理がある。各オーディオブロックのデコーディングで、エンコーディング処理がエンコード化オーディオデータのいずれかのエンコードに、適応型ハイブリッド変換処理を使用したかどうかを判別する。エンコーディング処理が適応型ハイブリッド変換処理を使用した場合、この方法は、フレームの最初のオーディオブロックのエンコード化オーディオデータから、フレームのすべてのハイブリッド変換係数を取得して、逆の第2の変換係数を取得して逆の第2の変換係数からスペクトル係数を取得するため、ハイブリッド変換係数へ第2の逆変換を適用する。エンコーディング処理が適応型ハイブリッド変換処理を使用しなかった場合、スペクトル係数が、対応するオーディオブロックのエンコード化オーディオデータから取得される。逆の第1の変換がスペクトル係数に適用されて、対応するオーディオブロックで1つまたは複数のチャンネルを表す出力信号を生成する。
本発明およびその好ましい実施形態のさまざまな特徴は、以降の説明と、複数の図で同じ符号が同じ要素を示す添付の図面を参照することにより、より良く理解することができよう。以降の説明および図面の内容は、例としてのみ示しており、本発明の範囲の制限を表すものと理解されるべきではない。
エンコーダの典型的な実装の概略ブロック図である。 デコーダの典型的な実装の概略ブロック図である。 図3Aおよび図3Bは、標準および拡張構文的構造に準拠したビットストリーム内のフレームの概略図である。 図4Aおよび図4Bは、標準および拡張構文的構造に準拠したオーディオブロックの概略図である。 図5Aから5Cは、プログラムおよびチャンネル拡張を使用した典型的なビットストリーム伝送データの概略図である。 チャンネル順でエンコード化オーディオデータを処理するデコーダにより実装された典型的な処理の概略ブロック図である。 ブロック順でエンコード化オーディオデータを処理するデコーダにより実装された典型的な処理の概略ブロック図である。 本発明のさまざまな態様の実施に使用できる装置の概略ブロック図である。
A.コーディングシステムの概要
図1と2は、デコーダを本発明のさまざまな態様と組み合わせることができるオーディオコーディングシステムのエンコーダおよびデコーダの典型的な実装の概略ブロック図である。これらの実装は、前述のA/52B文書で開示されている内容に準拠している。
コーディングシステムの目的は、記録または送信した後にデコードして入力オーディオ信号と基本的に同一な音の出力オーディオ信号を生成可能な、入力オーディオ信号のエンコード化表現を生成しながらもエンコード化信号を表すデジタル情報量の使用を最小限にすることである。基本的なATSC標準に準拠したコーディングシステムは、1チャンネルからいわゆる5.1チャンネルまでのオーディオ信号を表現できる情報のエンコーディングおよびデコーディングが可能である。5.1は、完全帯域幅信号を伝送できる5チャンネルと、低音効果(LFE)用の信号を伝送するための限定帯域幅の1チャンネルとを意味することは理解されていよう。
以降のセクションで、エンコーダおよびデコーダの実装と、エンコード化ビットストリーム構造と関連するエンコーディングおよびデコーディング処理の詳細を一部説明する。これらの説明は、本発明のさまざまな態様をより簡潔に説明し、より明確に理解できるようにするために提供される。
1.エンコーダ
図1の典型的な実施例を参照すると、エンコーダは、入力信号経路1からの1つまたは複数のオーディオ信号の入力チャンネルを表す一連のパルス符号変調(PCM)サンプルを受信し、解析フィルタバンク2をこの一連のサンプルに適用して、入力オーディオ信号のスペクトル構成を表すデジタル値を生成する。ATSC標準に準拠した実施形態では、解析フィルタバンクは、A/52B文書で説明される変形離散コサイン変換(MDCT)により実装される。MDCTは、オーディオ信号の各入力チャンネルで重複セグメントまたはサンプルのブロックに適用されて、その入力チャンネル信号のスペクトル構造を表す変換係数のブロックを生成する。MDCTは、時間領域エイリアシングを取り消すための特別に設計された窓関数と重複/追加処理を使用する解析/合成システムの一部である。各ブロックの変換係数は、浮動小数点指数と仮数とを備えたブロック浮動小数点(BFP)形式で表される。この説明は、浮動小数点指数と仮数として表されるオーディオデータについて述べている。この表示形式は、ATSC標準に準拠するビットストリームで使用されるためである。しかし、この具体的な表現は、桁移動子と関連する桁値を使用する数的表示の一例に過ぎない。
各ブロックのBFP指数はまとめて、入力オーディオ信号の近似スペクトル包絡を提供する。これらの指数は、情報の必要量を削減するためデルタ変調およびその他のコーディング技術によりエンコードされ、フォーマッタ5に渡され、心理音響モデルに入力されて、エンコードされる信号の心理音響的マスキングしきい値を推定する。このモデルから得られる結果は、ビットアロケータ3で使用されて、デジタル情報を、仮数を量子化するためのビット形式で、量子化により生成されたノイズレベルがエンコードされる信号の心理音響的マスキングしきい値を超えないような方法で割り当てる。量子化器4は、ビットアロケータ3から受信してフォーマッタ5に渡されるビット割り当てに従って、仮数を量子化する。
フォーマッタ5は、エンコード化指数、量子化仮数およびその他の、ブロックメタデータと呼ばれることもある制御情報を、オーディオブロックに多重化またはアセンブルする。6つの連続したオーディオブロックのデータは、フレームと呼ばれるデジタル情報の単位にアセンブルされる。フレーム自身には、制御情報またはフレームメタデータも格納される。連続したフレームのエンコード化情報は、情報ストレージ媒体上に記録するため、または通信チャンネルを通じて送信するために経路6を通るビットストリームとして出力される。ATSC標準に準拠するエンコーダでは、ビットストリームの各フレームの形式は、A/52B文書に指定された構文に準拠する。
ATSC標準に準拠する一般的なエンコーダで使用されるコーディングアルゴリズムは、図1に示す、また前述のアルゴリズムよりも複雑である。たとえば、受信デコーダがビットストリームを検証できるよう、エラー検出コードがフレームに挿入される。ブロック長スイッチングとして知られ、より簡単にブロックスイッチングとして呼ばれることもあるコーディング技術を、変化する信号特性でのパフォーマンスが最適になるよう解析フィルタバンクの時間的スペクトル的解像度を適合させるために使用しても良い。浮動小数点指数は、可変の時間及び周波数解像度でエンコードして良い。複数のチャンネルを、チャンネル結合として知られるコーディング技術を使用して合成の表現に組み合わせても良い。チャンネル再マトリックスとして知られる別のコーディング技術を、2チャンネルオーディオ信号に適応的に使用しても良い。本明細書で説明しないさらなるコーディング技術を使用しても良い。これらその他のコーディング技術のいくつかは、後述する。実装のその他多くの詳細は、本発明の理解には不要であるため省略する。これらの詳細は、必要に応じて、A/52B文書から取得できる。
2.デコーダ
デコーダは、基本的に、エンコーダで実行されるコーディングアルゴリズムの逆のデコーディングアルゴリズムを実行する。図2の典型的な実施形態を参照すると、デコーダは一連のフレームを表すエンコード化ビットストリームを、入力信号経路11から受信する。エンコード化ビットストリームは、情報ストレージ媒体から取得または通信チャンネルから受信しても良い。デフォーマッタ12は、各フレームのエンコード化情報を、フレームメタデータと6つのオーディオブロックに多重分離または逆アセンブルする。オーディオブロックはそれぞれ対応するブロックメタデータ、エンコード化指数、および量子化仮数に逆アセンブルされる。エンコード化指数は、ビットアロケータ13で心理音響モデルに使用され、デジタル情報を、ビットがエンコーダで割り当てられた時と同じ方法で、量子化仮数を逆量子化するためのビットの形式に配分する。逆量子化器14は、量子化された仮数を、ビットアロケータ13から受信したビット割り当てに従って逆量子化し、逆量子化された仮数を、合成フィルタバンク15に渡す。エンコード化指数は、デコードされ、合成フィルタバンク15に渡される。
デコードされた指数と逆量子化された仮数は、エンコーダでエンコードされたように入力音声信号のスペクトル内容のBFP記述を構成する。合成フィルタバンク15は、スペクトル内容の記述に適用され、元の入力オーディオ信号の厳密ではない複製を再構築し、出力信号経路16を通じて渡される。ATSC標準に準拠した実施形態では、合成フィルタバンクは、A/52B文書で説明される逆変形離散コサイン変換(IMDCT)により実装される。IMDCTは簡単に前述した、時間領域エイリアシングを取り消すため重複され追加されたオーディオサンプルのブロックを生成する変換係数のブロックに適用される解析/合成システムの一部である。
ATSC標準に準拠する一般的なデコーダで使用されるデコーディングアルゴリズムは、図2に示す、また前述のアルゴリズムよりも複雑である。前述のコーディング技術の逆であるデコーディング技術のいくつかには、エラー修正または隠匿のためのエラー検出、合成フィルタバンクの時間的スペクトル的解像度を適用するブロック長スイッチング、結合された構造表現からチャンネル情報を復元するチャンネル結合解除、および再マトリックス化された2つのチャンネル記述の復元のためのマトリックス操作が含まれる。その他の技術について、およびさらなる詳細についての情報は、必要に応じてA/52B文書から取得できる。
B.エンコード化ビットストリーム構造
1.フレーム
ATSC標準に準拠したエンコード化ビットストリームは、「同期フレーム」と呼ばれ、より簡単にフレームと呼ばれることもある一連のエンコード化情報単位を備える。前述のように、各フレームはフレームメタデータと6つのオーディオブロックとを格納する。各オーディオブロックは、オーディオ信号の1つまたは複数のチャンネルの間隔が一致するようにするためのブロックメタデータとエンコード化BFP指数および仮数を格納する。標準ビットストリームの構造を、図3Aに概略的に示す。A/52B文書のAnnex Eで説明されているような拡張AC−3ビットストリームの構造を、図3Bに示す。各ビットストリームの、SIとCRCとの印が付いた間の部分が1つのフレームである。
特殊なビットパターンまたは同期ワードが、各フレームの最初に用意される同期情報(SI)に含まれ、デコーダがフレームの開始位置を識別し、そのデコーディング処理とエンコード化ビットストリームとの同期を保持することができるようにする。SIの直後に続く、ビットストリーム情報(BSI)部分がデコーディングアルゴリズムがフレームをデコードするのに必要とするパラメータを伝送する。たとえば、BSIはフレームのエンコード化情報で表されるチャンネルの番号、タイプ、順番、およびデコーダにより使用されるダイナミックレンジ圧縮と会話の標準化情報を指定する。各フレームには6つのオーディオブロック(AB0〜AB5)と、必要に応じて補助(AUX)データが続いて格納されている。エラー検出情報が巡回冗長検査(CRC)ワードの形式で各フレームの最後に提供される。
拡張AC−3ビットストリームのフレームはまた、標準ビットストリームのコーディングでは使用できない高度なコーディング技術に関するフラグおよびパラメータを含むオーディオフレーム(AFRM)データも格納する。高度な技術のいくつかは、スペクトル複製としても知られているスペクトル拡張(SPX)および適応型ハイブリッド変換(AHT)の使用を含む。さまざまなコーディング技術を以降で説明する。
2.オーディオブロック
各オーディオブロックは、256の変換係数用のBFP指数および量子化仮数のエンコードされた表現と、エンコード化指数と量子化仮数のデコードに必要なブロックメタデータを格納する。この構造を、図4Aに概略的に示す。A/52B文書のAnnex Eで説明されているような拡張AC−3ビットストリームのオーディオブロックの構造を、図4Bに示す。A/52B文書のAnnex Dで説明されているビットストリームの別のバージョンにおけるオーディオブロック構造は、その独自の機能が本発明には関係しないため、本明細書では説明しない。
ブロックメタデータのいくつかの例では、ブロックスイッチング(BLKSW)、ダイナミックレンジ圧縮(DYNRNG)、チャンネル結合(CPL)、チャンネル再マトリックス化(REMAT)、BFP指数のエンコードに使用される指数コーディング技術または戦略(EXPSTR)、エンコード化BFP指数(EXP)、仮数のビット割り当て(BA)情報、デルタビット割り当て(DBA)情報として知られるビット割り当て調整、および量子化された仮数(MANT)のフラグとパラメータを含む。拡張AC−3ビットストリームの各オーディオブロックは、スペクトル拡張(SPX)を含む高度なコーディング技術用の情報を格納しても良い。
3.ビットストリームの制限
ATSC標準は、本発明に関するビットストリームの内容にいくつかの制限を課する。本明細書では以下の2つの制限を説明する。(1)フレームの最初のオーディオブロックは、AB0と呼ばれるが、デコーディングアルゴリズムが、フレームのすべてのオーディオブロックのデコードを開始するために必要なすべての情報を格納していなければならない、(2)ビットストリームがチャンネル結合により生成されたエンコード化情報の伝送を開始したら常に、最初に使用されるチャンネル結合のオーディオブロックは、結合解除に必要なすべてのパラメータを格納していなければならない。これらの特徴について、以降で説明する。本明細書で説明していないその他の処理についての情報は、A/52B文書から取得できる。
C.標準コーディングプロセスと技術
ATSC標準は、エンコーディング処理またはエンコード化ビットストリームの生成に使用できる「コーディングツール」の観点から、ビットストリーム構文の特徴をいくつか記載している。エンコーダは、すべてのコーディングツールを採用する必要はないが、標準に準拠するデコーダは、準拠に欠かせないと判断されるコーディングツールに対応可能でなければならない。この対応は、基本的に対応するコーディングツールの逆である適切なデコーディングツールを実行することにより実装される。
いくつかのデコーディングツールは、特に本発明と関連がある。そのツールを使用するかしないかが、本発明の態様をどのように実施するべきかに影響を与えるためである。2、3のデコーディング処理と2、3のデコーディングツールを、以降の段落で簡潔に説明する。以下の説明は、完全な説明を目的としたものではない。各種詳細とオプションの機能は省略している。説明は、技術になじみのない者に高いレベルで紹介し、これらの言葉が説明している技術を忘れている可能性がある者の記憶を新たにすることだけを目的としている。
必要に応じて、さらなる詳細がA/52B文書から、および1996年12月10日開示の、参照により本明細書にそのまま組み込まれる、Davis et al.による米国特許第5,583,962「Encoder/Decoder for Multi−Dimensional Sound Fields」から取得できる。
1.ビットストリームの解凍
すべてのデコーダはエンコード化ビットストリームの解凍または多重分離を行い、パラメータおよびエンコードされたデータを取得する必要がある。この処理は、前述のデフォーマッタ12で表される。この処理は基本的に、入力ビットストリームのデータを読み取り、ビットストリームの部分をレジスタにコピーし、この部分を記憶域にコピーし、またはバッファに保存されたビットストリームのデータへのポインタまたはその他の参照を保存するものである。メモリは、データおよびポインタの保存に必要であり、この情報を後から使用するために保存しておくことと、必要な時点で情報を取得するためビットストリームを再読み取りすることとの間でトレードオフをすることができる。
2.指数デコーディング
すべてのBFP指数の値は、各フレームでオーディオブロック内のデータを解凍するために必要である。これらの値は、間接的に、量子化された仮数に割り当てられたビット数を示すためである。ただし、時間と周波数との両方にわたり適用できる違うコーディング技術により、ビットストリーム中の指数値はエンコード化される。この結果、他のデコーディングプロセスで使用できるようにするには、エンコードされた指数を記述するデータがビットストリームから解凍され、デコードされる必要がある。
3.ビット割り当て処理
ビットストリームの量子化されたBFP仮数のそれぞれは、BFP指数の関数であるビットの可変の数と、場合によってはビットストリームに格納されたその他のメタデータにより表される。BFP指数は、指定されたモデルで、各仮数のビット割り当てを計算するモデルに入力される。オーディオブロックが、デルタビット割り当て(DBA)情報も格納している場合、この追加情報は、モデルにより計算されるビット割り当ての調整に使用される。
4.仮数処理
量子化されたBFP仮数は、エンコードされたビットストリームのデータの大部分を構成する。ビット割り当ては、解凍時のビットストリームの各仮数の位置の決定と、逆量子化された仮数を取得するための適切な逆量子化関数の選択との両方のために使用される。ビットストリームのデータの一部は、単一の値で複数の仮数を表すことができる。この状況では、適切な仮数の数値が、単一の値から抽出される。ゼロに相当する割り当てを有する仮数は、ゼロに相当する値または疑似乱数の数値としてのいずれかで再生成しても良い。
5.チャンネル結合解除
チャンネル結合コーディング技術で、エンコーダは複数のオーディオチャンネルを少ないデータ量で表現することができる。この技術は、結合チャンネルと呼ばれる複数の選択されたチャンネルからスペクトルコンポーネントを結合し、結合チャンネルと呼ばれる合成スペクトルコンポーネントの単一チャンネルを形成する。結合チャンネルのスペクトルコンポーネントは、BFP形式で記述される。結合チャンネルと結合されている各チャンネルとの間のエネルギーの差異を説明する桁移動子のセットは、結合座標として知られ、結合チャンネルそれぞれから抽出されて、エンコード化ビットストリームに含められる。結合は、各チャンネルの帯域の指定された部分だけに使用される。
チャンネル結合が使用されると、ビットストリームのパラメータの指定の通りに、デコーダはチャンネル結合解除として知られるデコーディング技術を使用して、BFP指数および仮数の厳密ではない複製を、結合チャンネルごとに、結合チャンネルおよび結合座標のスペクトルコンポーネントから抽出する。これは、各結合チャンネルのスペクトルコンポーネントを、適切な結合座標で乗ずることにより行われる。さらなる詳細はA/52B文書から取得できる。
6.チャンネルの再マトリックス化
チャンネルの再マトリックス化コーディング技術で、エンコーダは、マトリックスを使用して2つの独立したオーディオチャンネルを合計および差異チャンネルに変換することで、2チャンネル信号をより少ないデータ量で表現できる。BFP指数および仮数は通常、合計と差異チャンネルとの記述ではなく、左右のオーディオチャンネルのビットストリームに圧縮される。この技術は、2つのチャンネルの類似性が高い場合に有利に使用することができる。
再マトリックス化が使用されると、ビットストリームのフラグの指定の通りに、デコーダは、適切なマトリックスを合計および差異値に適用することにより、2つのオーディオチャンネルを表現する値を取得する。さらなる詳細はA/52B文書から取得できる。
D.拡張コーディングプロセスと技術
A/52BのAnnex Eで、高度なコーディングツールの使用が可能な拡張AC−3ビットストリーム構文の特徴について説明している。これらのツールのいくつかと、関連プロセスを、以降で簡単に説明する。
1.適応型ハイブリッド変換処理
適応型ハイブリッド変換(AHT)コーディング技術は、2つの変換をカスケード式で適用することにより信号特性を変換することに対する解析および合成フィルタバンクの時間的およびスペクトル的解像度の適用のためのブロックスイッチングに加えて、別のツールを提供する。AHT処理の詳細情報は、A/52B文書およびVinton et al.による、2009年4月7日開示の、参照により本明細書にそのまま組み込まれる米国特許第7,516,064「Adaptive Hybrid Transform for Signal Analysis and Synthesis」から取得できる。
エンコーダは、前述のMDCT解析変換により実施された第1の変換を前面に採用して、タイプII離散コサイン変換(DCT−II)により実施される第2の変換をカスケード式に採用する。MDCTは、オーディオ信号サンプルの重複ブロックに適用され、オーディオ信号のスペクトル内容を表すスペクトル係数を生成する。DCT−IIは、必要に応じて信号処理経路をオンおよびオフするよう切り替えることができ、オンに切り替えると、同じ周波数を示すMDCTスペクトル係数の非重複ブロックに適用されてハイブリッド変換係数を生成する。一般的な使用方法では、DCT−IIは、入力オーディオ信号が十分に安定的であると考えられる場合にオンに切り替わる。その使用は、有効時間的解像度を256サンプルから1536サンプルに減らすことにより解析フィルタバンクの有効スペクトル解像度を著しく向上させるためである。
デコーダは、前述のIMDCT合成フィルタバンクにより実施される逆の第1の変換を採用し、続いて、タイプII離散コサイン変換(IDCT−II)により実施される逆の第2の変換をカスケード式に採用する。IDCT−IIは、エンコーダにより提供されたメタデータに対応して信号処理経路のオンおよびオフが切り替えられる。スイッチが入っている場合は、IDCT−IIはハイブリッド変換係数の重複していないブロックに適用されて逆の第2の変換係数を取得する。逆の第2の変換係数は、チャンネル結合またはSPXなどの他のコーディングツールが使用されていなかった場合にIMDCTに直接入力するためのスペクトル係数でも良い。または、MDCTスペクトル係数は、チャンネル結合またはSPXなどのコーディングツールが使用されていた場合は逆の第2の変換係数から抽出しても良い。MDCTスペクトル係数が取得された後、IMDCTはMDCTスペクトル係数のブロックに、従来の方法で適用される。
AHTは、結合チャンネルとLFEチャンネルとを含むオーディオチャンネルのいずれにも使用して良い。AHTを使用してエンコードされたチャンネルは、別のビット割り当て処理と2種類の量子化を使用している。1つはベクトル量子化(VQ)、2つ目はゲイン適応型量子化(GAQ)である。GAQ技術は、Davidson et al.による、2001年6月12日に開示され、参照により本明細書にそのまま組み込まれる、米国特許第6,246,345「Using Gain−Adaptive Quantization and Non−Uniform Symbol Lengths for Improved Audio Coding」で説明されている。
AHTの使用には、エンコード化ビットストリームに格納された情報から複数のパラメータを抽出するためのデコーダが必要である。A/52B文書で、これらのパラメータの計算方法を説明している。パラメータの1つのセットで、BFP指数がフレーム内を伝送される回数と、フレームのすべてのオーディオブロックに格納されたメタデータの検証により抽出される回数を指定する。他の2つのパラメータセットで、どのBFP仮数がGAQを使用して量子化され、量子化器のゲイン制御ワードを提供し、オーディオブロックのチャンネルのメタデータの検証により抽出されるかを特定する。
AHTで使用されるハイブリット変換係数はすべて、フレームの最初のオーディオブロック、AB0で伝送される。AHTが結合チャンネルに適用される場合、AHT係数の結合座標はAHTを使用しない結合チャンネルと同様の方法でオーディオブロックのすべてにわたり分散される。この状況を処理するプロセスを以降で説明する。
2.スペクトル拡張処理
スペクトル拡張(SPX)コーディング技術で、エンコーダは、高周波スペクトルコンポーネントをエンコード化ビットストリームから除外し、失われたスペクトルコンポーネントをエンコード化ビットストリームに格納されている低周波スペクトルコンポーネントからデコーダで合成することにより完全帯域幅のチャンネルのエンコードに必要な情報量を削減できる。
SPXを使用する場合、デコーダは失われたスペクトルコンポーネントを、より低い周波数のMDCT係数をより高い周波数のMDCT係数の場所にコピーし、コピーした変換係数に疑似乱数値またはノイズを追加し、エンコード化ビットストリームに含まれるSPXスペクトル包絡に従って振幅を調整することにより合成する。エンコーダはSPXコーディングツールが使用されるたびに、SPXスペクトル包絡を計算し、これをエンコード化ビットストリームに挿入する。
SPX技術は一般に、チャンネルのスペクトルコンポーネントの最高帯域を合成するために使用される。これは周波数の中域のチャンネル結合とともに使用しても良い。処理のさらなる詳細は、A/52B文書から取得できる。
3.チャンネルおよびプログラム拡張
拡張AC−3ビットストリーム構文で、エンコーダは、5.1チャンネルを超える単一プログラム(チャンネル拡張)、最大5.1チャンネルの複数のプログラム(プログラム拡張)、または5.1チャンネルまでと5.1チャンネルを超えるプログラムの組み合わせを表すエンコード化ビットストリームを生成できる。プログラム拡張は、エンコード化ビットストリームの複数の独立データストリームのフレームの多重化により実施される。チャンネル拡張は、独立データストリームに関連付けられた1つまたは複数の従属データサブストリームのフレームの多重化により実施される。プログラム拡張の好ましい実施では、デコーダは、デコードするプログラムおよび、デコードされるべきではないプログラムを表すストリームおよびサブストリームをデコーディング処理で省略するかまたは基本的に無視するかを通知される。
図5Aから5Cは、プログラムおよびチャンネル拡張を使用したビットストリーム伝送データの3つの例を示す。図5Aは、チャンネル拡張を使用した典型的なビットストリームを示す。単一プログラムP1は、独立ストリームS0および3つの関連する従属サブストリームSS0、SS1、およびSS2により表される。独立ストリームS0のフレームFnの直後には、関連する従属サブストリームSS0からSS3までのそれぞれのフレームFnが続く。これらのフレームの後には、独立ストリームS0の次のフレームFn+1が続く。この直後には、関連する従属サブストリームSS0からSS2までのそれぞれのフレームFn+1が続く。拡張AC−3ビットストリーム構文で、各独立ストリームに対し8つの従属サブストリームが許可される。
図5Bは、プログラム拡張を使用した典型的なビットストリームを示す。4つのプログラムP1、P2、P3、およびP4は独立ストリームS0、S1、S2およびS3によりそれぞれ表される。独立ストリームS0のフレームFnの直後には、独立ストリームS1、S2およびS3それぞれのフレームFnが続く。これらのフレームの後には、各独立ストリームの次のフレームFn+1が続く。拡張AC−3ビットストリーム構文は、少なくとも1つの独立ストリームを有する必要があり、8つの独立ストリームを許可する。
図5Cは、プログラム拡張およびチャンネル拡張を使用した典型的なビットストリームを示す。プログラムP1は、独立ストリームS0のデータにより表され、プログラムP2は独立ストリームS1と関連する従属サブストリームSS0およびSS1とのデータにより表される。独立ストリームS0のフレームFnの直後には、独立ストリームS1のフレームFnが続き、その直後には関連する従属サブストリームSS0およびSS1のフレームFnが続く。これらのフレームの後には、各独立ストリームおよび従属サブストリームの次のフレームFn+1が続く。
チャンネル拡張を使用しない独立ストリームは、最大5.1の独立オーディオチャンネルを表すことができるデータを格納する。チャンネル拡張を使用した独立ストリーム、つまり、1つまたは複数の関連する従属サブストリームを有する独立ストリームは、プログラムのすべてのチャンネルの5.1チャンネルダウンミックスを表すデータを格納する。「ダウンミックス」という言葉は、チャンネルをより少ない数のチャンネルに結合することを指す。これは、従属サブストリームをデコードしないデコーダと互換するために行われる。従属サブストリームは、関連する独立ストリームで伝送されるチャンネルの置き換えまたは補完のいずれかを行うチャンネルを表すデータを格納する。チャンネル拡張では、1プログラムで14チャンネルを許可する。
ビットストリーム構文および関連する処理のさらなる詳細は、A/52B文書から取得できる。
E.ブロック優先処理
さまざまなコーディングツールが組み合わせて使用され、エンコード化ビットストリームが生成された場合に発生するビットストリーム構造のバリエーションを処理し適切にデコードするには複雑なロジックが必要とされる。前述のように、アルゴリズム設計の詳細は、ATSC標準で指定されていないが、E−AC−3デコーダの従来の実装における汎用的な機能は別のチャンネルのデータをデコードする前に対応するチャンネルのフレームのすべてのデータをデコードするアルゴリズムである。この従来の手法は、ビットストリームのデコードに必要なオンチップメモリ量を削減するが、各フレームでフレームのオーディオブロックのすべてのデータを読み取り検証するため、複数回のデータの受け渡しが必要でもある。
従来の手法を、図6に概略で示す。コンポーネント19は、経路1から受信したエンコード化ビットストリームからフレームを解析し、経路20から受信した制御信号に対応してフレームからデータを抽出する。解析は、フレームデータを複数回受け渡すことにより行われる。1つのフレームから抽出されたデータは、コンポーネント19の下のボックスで表される。たとえば、ラベルAB0−CH0が付いているボックスは、オーディオブロックAB0のチャンネル0の抽出されたデータを表し、ラベルAB5−CH2が付いているボックスは、オーディオブロックAB5のチャンネル2の抽出されたデータを表す。図面の簡略化のため、0から2までの3つのチャンネルと、3つのオーディオブロック0、1、および5のみを示している。コンポーネント19はまた、フレームメタデータから取得したパラメータを、経路20を通じてチャンネル処理コンポーネント31、32、33に渡す。信号経路とデータボックスの左側にあるロータリースイッチは、チャンネル順でエンコード化オーディオデータを処理するために従来のデコーダにより実行されるロジックを表す。処理チャンネルコンポーネント31は、オーディオブロックAB0からオーディオブロックAB5までのエンコード化オーディオデータおよびメタデータを、チャンネルCH0のロータリースイッチ21を通じて受信し、データをデコードして合成フィルタバンクをデコードされたデータに適用することにより出力信号を生成する。この処理の結果は、経路41を通じて渡される。処理チャンネルコンポーネント32は、オーディオブロックAB0からAB5までのチャンネルCH1のデータを、ロータリースイッチ22を通じて受信し、データを処理して経路42を通じてその出力を渡す。処理チャンネルコンポーネント33は、オーディオブロックAB0からAB5までのチャンネルCH2のデータを、ロータリースイッチ23を通じて受信し、データを処理して経路43を通じてその出力を渡す。
本発明の用途は、多くの状況でフレームデータの複数回の受け渡しをなくすことで処理効率を改善できる。複数回の受け渡しは、特定の組み合わせのコーディングツールを使用してエンコード化ビットストリームを生成する場合などの状況で使用される。しかし、以降で説明する、組み合わせたコーディングツールにより生成された拡張AC−3ビットストリームは1回の受け渡しでデコードが可能である。この新しい手法を、図7に概略で示す。コンポーネント19は、経路1から受信したエンコード化ビットストリームからフレームを解析し、経路20から受信した制御信号に対応してフレームからデータを抽出する。多くの場合、解析は、フレームデータの1回の受け渡しで完了する。1つのフレームから抽出されたデータは、前述の図6で説明したものと同じ方法で、コンポーネント19の下のボックスにより表される。コンポーネント19は、フレームメタデータから取得したパラメータを、経路20を通じてブロック処理コンポーネント61、62、63に渡す。処理ブロックコンポーネント61は、オーディオブロックAB0のチャンネルすべてのロータリースイッチ51を通じて、エンコード化オーディオデータおよびメタデータを受信し、データをデコードして合成フィルタバンクをデコードされたデータに適用することにより出力信号を生成する。チャンネルCH0、CH1およびCH2の処理の結果は、ロータリースイッチ71を通じて適切な出力経路41、42および43にそれぞれ渡される。処理ブロックコンポーネント62は、オーディオブロックAB1のすべてのチャンネルのデータを、ロータリースイッチ52を通じて受信し、データを処理してロータリースイッチ72を通じて、その出力を各チャンネルの適切な出力経路に渡す。処理ブロックコンポーネント63は、オーディオブロックAB5のすべてのチャンネルのデータを、ロータリースイッチ53を通じて受信し、データを処理してロータリースイッチ73を通じて、その出力を各チャンネルの適切な出力経路に渡す。
本発明のさまざまな態様を以降で説明し、プログラムの一部とともに示す。これらのプログラムの一部は、実際のまたは最適な実装であることが目的ではなく、例を示しているにすぎない。たとえば、プログラムステートメントの順番は、ステートメントの一部を交換することで変えても良い。
1.一般的処理
本発明の高レベルな例示は、以下のプログラムの一部で示す。
ステートメント(1.1)で、SI情報で伝送された同期パターンと一致するビットのストリングでビットストリームをスキャンする。同期パターンが見つかると、そのビットストリームのフレームの開始位置が判別される。
ステートメント(1.2)および(1.19)は、ビットストリーム内の各フレームで実行されるデコーディング処理を制御する。または、他の手段でデコーディング処理が停止されるまで制御する。ステートメント(1.3)から(1.18)までは、エンコード化ビットストリームのフレームをデコードする処理を実行する。
ステートメント(1.3)から(1.5)までで、フレームのメタデータを解凍し、解凍したメタデータからデコーディングパラメータを取得し、フレーム内の最初のオーディオブロックKでデータが始まるビットストリームの位置を判別する。ステートメント(1.16)で、続くオーディオブロックがフレーム内にある場合に、ビットストリームの次のオーディオブロックの開始位置を判別する。
ステートメント(1.6)および(1.17)は、フレームの各オーディオブロックで実行されるデコーディング処理を開始する。ステートメント(1.7)から(1.15)までは、フレームのオーディオブロックをデコードする処理を実行する。ステートメント(1.7)から(1.9)までは、オーディオブロックのメタデータを解凍し、解凍したメタデータからデコーティングパラメータを取得し、最初のチャンネルのデータの開始位置を判別する。
ステートメント(1.10)および(1.15)は、オーディオブロックの各チャンネルで実行されるデコーディング処理を開始する。ステートメント(1.11)から(1.13)までで、指数を解凍してデコードし、デコードされた指数を使用して各量子化された仮数を解凍して逆量子化するビット割り当てを判別し、合成フィルタバンクを逆量子化された仮数に適用する。ステートメント(1.14)で、続くチャンネルがフレームにある場合に、次のチャンネルのデータが開始するビットストリーム内の位置を判別する。
処理の構造は、エンコード化ビットストリームの生成に使用されるコーディング技術が異なる場合に適応するため、それぞれ異なる。以降で、いくつかのバリエーションを説明し、プログラムの一部として示す。以下のプログラムの一部の説明は、前述のプログラムの一部で説明されている詳細を一部省いている。
2.スペクトル拡張
スペクトル拡張(SPX)が使用されている場合、拡張処理が始まるオーディオブロックには、オーディオブロックの初めにSPXで必要な共有パラメータと、フレーム内でSPXを使用する他のオーディオブロックを格納する。共有パラメータは、処理が行われるチャンネルのID、スペクトル拡張周波数範囲、および各チャンネルのSPXスペクトル包絡が時間と周波数にわたり共有される方法を含む。これらのパラメータは、SPXの使用が開始されるオーディオブロックから解凍され、フレームの次のオーディオブロックのSPX処理に使用するためメモリまたはコンピュータレジスタに保存される。
フレームはSPX用の開始オーディオブロックを複数有することができる。オーディオブロックは、そのオーディオブロックのメタデータがSPXを使用するよう指示しており、フレームの前のオーディオブロックのメタデータがSPXを使用しないよう指示しているか、そのオーディオブロックがフレームで最初のブロックである場合に、SPXを開始する。
SPXを使用する各オーディオブロックは、SPX座標と呼ばれる、そのオーディオブロックでスペクトル拡張処理に使用されるSPXスペクトル包絡を含むか、または前のブロックのSPX座標を使用するよう指示した「再使用」フラグの指示を含む。ブロックのSPX座標は解凍され、続くオーディオブロックのSPX操作で再使用が可能なよう保持される。
以下のプログラムの一部は、SPXを使用するオーディオブロックを処理可能な1つの方法を示す。
ステートメント(2.5)で、SPXフレームパラメータがメタデータに存在する場合に、これをフレームメタデータから解凍する。ステートメント(2.10)で、SPXブロックパラメータがブロックメタデータに存在する場合に、これをブロックメタデータから解凍する。ブロックSPXパラメータは、ブロックの1つまたは複数のチャンネルのSPX座標を含んでいても良い。
ステートメント(2.12)および(2.13)で、指数を解凍およびデコードし、このデコードされた指数を使用して解凍するビット割り当てを判別し、各量子化された仮数を逆量子化する。ステートメント(2.14)で、現在のオーディオブロックのチャンネルCがSPXを使用しているかどうかを判別する。SPXを使用している場合、ステートメント(2.15)でSPX処理を適用してチャンネルCの帯域幅を拡張する。この処理により、ステートメント(2.17)で適用される合成フィルタバンクに入力されるチャンネルCのスペクトルコンポーネントが提供される。
3.適応型ハイブリッド変換
適応型ハイブリッド変換(AHT)が使用されている場合、フレームの最初のオーディオブロックAB0はDCT−II変換で処理される各チャンネルのすべてのハイブリッド変換係数を格納する。その他すべてのチャンネルで、フレームの6つのオーディオブロックそれぞれは、MDCT解析フィルタバンクにより生成された256のスペクトル係数を格納する。
たとえば、エンコード化ビットストリームは、左、中央、および右チャンネルのデータを格納する。左右のチャンネルがAHTで処理され、中央のチャンネルがAHTで処理されていない場合、オーディオブロックAB0は、左右のチャンネルそれぞれのすべてのハイブリッド変換係数を格納し、中央のチャンネルの256のMDCTスペクトル係数を格納する。オーディオブロックAB1からAB5までは、中央のチャンネルのMDCTスペクトル係数を格納し、左および右のチャンネルの係数は格納しない。
以下のプログラムの一部は、AHT係数を使用するオーディオブロックを処理可能な1つの方法を示す。
ステートメント(3.11)で、AHTがチャンネルCで使用されているかどうかを判別する。使用されている場合、ステートメント(3.12)で最初のオーディオブロックAB0を処理するかどうかを判別する。最初のオーディオブロックが処理される場合、ステートメント(3.13)から(3.16)までで、チャンネルCのすべてのAHT係数を取得し、逆の第2の変換またはIDCT−IIをAHT係数に適用してMDCTスペクトル係数を取得し、これらをバッファに保存する。これらのスペクトル係数は、AHTが使用されないチャンネルのステートメント(3.20)および(3.21)で取得される指数および逆量子化された仮数に対応する。ステートメント(3.18)で、処理中のオーディオブロックKに対応するMDCTスペクトル係数の指数および仮数を取得する。たとえば最初のオーディオブロック(K=0)が処理中の場合、最初のブロックのMDCTスペクトル係数セットの指数と仮数がバッファから取得される。たとえば2番目のオーディオブロック(K=1)が処理中の場合、2番目のブロックのMDCTスペクトル係数セットの指数と仮数がバッファから取得される。
4.スペクトル拡張と適応型ハイブリッド変換
SPXおよびAHTは、同じチャンネルのエンコード化データを生成するために使用できる。スペクトル拡張とハイブリッド変換処理について個々に前述したロジックは、SPXが使用されているチャンネル、AHTが使用されているチャンネル、またはSPXとAHTの両方が使用されているチャンネルを処理するために組み合わせることができる。
以下のプログラムの一部は、SPXおよびAHT係数を使用するオーディオブロックを処理可能な1つの方法を示す。
ステートメント(4.5)で、SPXフレームパラメータがメタデータに存在する場合に、これをフレームメタデータから解凍する。ステートメント(4.10)で、SPXブロックパラメータがブロックメタデータに存在する場合に、これをブロックメタデータから解凍する。ブロックSPXパラメータは、ブロックの1つまたは複数のチャンネルのSPX座標を含んでいても良い。
ステートメント(4.12)で、AHTがチャンネルCで使用されているかどうかを判別する。AHTがチャンネルCで使用されている場合、ステートメント(4.13)でこれが最初のオーディオブロックかどうかを判別する。これが最初のオーディオブロックの場合、ステートメント(4.14)から(4.17)までで、チャンネルCのすべてのAHT係数を取得し、逆の第2の変換またはIDCT−IIをAHT係数に適用して逆の第2の変換係数を取得し、これらをバッファに保存する。ステートメント(4.19)で、処理中のオーディオブロックKに対応する逆の第2の変換係数の指数および仮数を取得する。
AHTがチャンネルCで使用されていない場合、ステートメント(4.21)と(4.22)で、プログラムステートメント(1.11)と(1.12)で説明したように、ブロックKのチャンネルCの指数と仮数を解凍して取得する。
ステートメント(4.24)で、現在のオーディオブロックのチャンネルCがSPXを使用しているかどうかを判別する。SPXを使用している場合、ステートメント(4.25)でSPX処理を逆の第2の変換係数に適用して帯域幅を拡張し、これによりチャンネルCのMDCTスペクトル係数を取得する。この処理により、ステートメント(4.27)で適用される合成フィルタバンクに入力されるチャンネルCのスペクトルコンポーネントが提供される。SPX処理がチャンネルCで使用されていない場合、MDCTスペクトル係数が逆の第2の変換係数から直接取得される。
5.結合および適応型ハイブリッド変換
チャンネル結合およびAHTは、同じチャンネルのエンコード化データを生成するために使用できる。基本的に、スペクトル拡張およびハイブリッド変換処理で説明したものと同じロジックを使用して、チャンネル結合とAHTを使用したビットストリームの処理が可能である。これは、前述のSPX処理がチャンネル結合で実行される処理に適用されるためである。
以下のプログラムの一部は、結合およびAHT係数を使用するオーディオブロックを処理可能な1つの方法を示す。
ステートメント(5.5)で、チャンネル結合パラメータがメタデータに存在する場合に、これをフレームメタデータから解凍する。ステートメント(5.10)で、チャンネル結合パラメータがブロックメタデータに存在する場合に、これをブロックメタデータから解凍する。存在する場合、結合座標がブロックの結合されたチャンネルで取得される。
ステートメント(5.12)で、AHTがチャンネルCで使用されているかどうかを判別する。AHTが使用されている場合、ステートメント(5.13)で最初のオーディオブロックかどうかを判別する。最初のオーディオブロックの場合、ステートメント(5.14)から(5.17)まででチャンネルCのすべてのAHT係数を取得し、逆の第2の変換またはIDCT−IIをAHT係数に適用して逆の第2の変換係数を取得し、これらをバッファに保存する。ステートメント(5.19)で、処理中のオーディオブロックKに対応する逆の第2の変換係数の指数および仮数を取得する。
AHTがチャンネルCで使用されていない場合、ステートメント(5.21)と(5.22)で、プログラムステートメント(1.11)と(1.12)で説明したように、ブロックKのチャンネルCの指数と仮数を解凍して取得する。
ステートメント(5.24)で、チャンネル結合がチャンネルCで使用されているかどうかを判別する。使用されている場合、ステートメント(5.25)で、チャンネルCが結合を使用するブロックの最初のチャンネルであるかどうかを判別する。最初のチャンネルである場合、結合チャンネルの指数と仮数が、ステートメント(5.26)から(5.33)までで示す逆の第2の変換の結合チャンネル指数および仮数への適用から、またはステートメント(5.35)および(5.36)で示すビットストリームのデータから取得される。結合チャンネル仮数を表すデータは、チャンネルCの仮数を表すデータの直後のビットストリームに配置されている。ステートメント(5.39)では、結合チャンネルCを、チャンネルCの適切な結合座標を使用して結合チャンネルから抽出する。チャンネル結合がチャンネルCで使用されていない場合、MDCTスペクトル係数が逆の第2の変換係数から直接取得される。
6.スペクトル拡張、結合と適応型ハイブリッド変換
スペクトル拡張、チャンネル結合およびAHTはすべて、同じチャンネルのエンコード化データを生成するために使用できる。スペクトル拡張および結合とAHT処理との組み合わせで前述したロジックは、8つの可能性のある状況を処理するために必要な追加ロジックを組み合わせることにより、3つのコーディングツールのどの組み合わせを使用しても、チャンネルを処理するよう結合することができる。チャンネルの結合解除のための処理は、SPX処理を実行する前に実行される。
F.実装
本発明のさまざまな態様を組み合わせた装置は、コンピュータまたは汎用コンピュータにあるものと同様のコンポーネントに結合されたデジタル信号プロセッサ(DSP)回路などのより特殊化したコンポーネントを含むその他の装置で実行するソフトウェアを含むさまざまな方法で実装して良い。図8は、本発明の態様の実施に使用できる装置90の概略ブロック図である。プロセッサ92は、計算リソースを提供する。RAM93は、プロセッサ92で処理のため使用されるシステムのランダムアクセスメモリ(RAM)である。ROM94は、読み取り専用メモリ(ROM)などの永続ストレージなどの形式を示す。これは、装置90の動作と、本発明のさまざまな態様の遂行を可能にするために必要なプログラムの保存に使用される。I/Oコントロール95は、通信チャンネル1、16を経由して信号を受信し送信するためのインターフェイス回路を表す。示された実施形態では、すべての主なシステムコンポーネントは複数の物理的またはロジカルバスを表すバス91に接続する。ただし、バスアーキテクチャは、本発明の実施に必須ではない。
汎用コンピュータシステムにより実装される実施形態では、追加コンポーネントを、キーボードまたはマウスおよびディスプレイなどの装置に接合するため、および磁気テープまたはディスク、あるいは光媒体などのストレージ媒体を有するストレージ装置を制御するために含んでいても良い。ストレージ媒体は、オペレーティングシステム、ユーティリティおよびアプリケーションに指示するプログラムの記録に使用して良く、本発明のさまざまな態様を実施するプログラムを含んでも良い。
本発明のさまざまな態様を実践するために必要な機能は、分散型ロジックコンポーネント、集積回路、1つまたは複数のASICおよび/またはプログラム制御型プロセッサなどを含む広範な方法で実装されるコンポーネントにより実行できる。これらのコンポーネントが実装される方法は、本発明にとっては重要ではない。
本発明のソフトウェアの実装は超音速から紫外線周波数までを含むスペクトル全体にわたるベースバンドまたは変調通信経路、または磁気テープ、カードまたはディスク、光カードまたはディスク、および紙を含むメディア上の検出可能マーキングを含む基本的に任意の記録技術を使用して情報を伝達するストレージ媒体などの、さまざまな機械が読み取り可能な媒体により伝達されて良い。

Claims (6)

  1. エンコード化デジタルオーディオ信号のフレームをデコーディングするための方法で、
    フレームがフレームメタデータと、最初のオーディオブロックおよびそれに続く1つまたは複数のオーディオブロックとを備え、
    最初およびそれに続くオーディオブロックがそれぞれ、2つまたは複数のオーディオチャンネルのブロックメタデータとエンコード化オーディオデータとを備え、
    このエンコード化オーディオデータが、2つまたは複数のオーディオチャンネルのスペクトル内容を表す桁移動子と桁値とを備え、各桁値が桁移動子の対応する1つと関連付けられており、
    ブロックメタデータが、このエンコード化オーディオデータを生成したエンコーディング処理で使用されたコーディングツールを表す制御情報を備え、このコーディングツールが、
    第1の変換により実施された解析フィルタバンクを2つまたは複数のオーディオチャンネルに適用して第1の変換係数を生成することと、
    第2の変換を少なくとも2つまたは複数のオーディオチャンネルの一部の第1の変換係数に適用してハイブリッド変換係数を生成すること
    とを備えた適応型ハイブリッド変換処理を含み、
    この方法が、
    (A)エンコード化デジタルオーディオ信号のフレームを受信することと、
    (B)フレームのエンコード化デジタルオーディオ信号を1つの経路で検証して、各オーディオブロックのエンコード化オーディオデータをブロック順にデコードし、このそれぞれ対応するオーディオブロックのデコーディングが、
    (1)2つまたは複数のチャンネルの対応する各チャンネルで、エンコーディング処理が適応型ハイブリッド変換処理を使用してエンコード化オーディオデータのいずれかをエンコードしたかどうかを判別することと、
    (2)エンコーディング処理が対応するチャンネルに適応型ハイブリッド変換処理を使用した場合は、
    (a)対応するオーディオブロックがフレームの最初のオーディオブロックである場合は、
    (i)フレームの対応するチャンネルのすべてのハイブリッド変換係数を、最初のオーディオブロックのエンコード化オーディオデータから取得することと、
    (ii)逆の第2の変換をハイブリッド変換係数に適用して逆の第2の変換係数を取得することと、
    (b)第1の変換係数を対応するオーディオブロックで対応するチャンネルの逆の第2の変換係数から取得することと、
    (3)エンコーディング処理が対応するチャンネルに適応型ハイブリッド変換処理を使用しなかった場合は、対応するチャンネルの第1の変換係数を、対応するオーディオブロックのエンコード化データをデコーディングすることにより取得することと、
    (C)逆の第1の変換が第1の変換係数に適用されて、対応するオーディオブロックで対応するチャンネルを表す出力信号を生成すること
    とを備える方法。
  2. 請求項1の方法で、エンコード化デジタルオーディオ信号のフレームが拡張AC−3ビットストリーム構文に準拠している方法。
  3. 請求項2の方法で、コーディングツールがスペクトル拡張処理を含み、対応する各オーディオブロックのデコーディングがさらに、
    デコーディング処理がスペクトル拡張処理を使用して任意のエンコード化オーディオデータをデコードしなければならないかどうかを判別することと、
    スペクトル拡張処理を使用する場合、逆の第2の変換係数から1つまたは複数のスペクトルコンポーネントを合成して拡張帯域幅を有する第1の変換係数を取得すること
    とを備えた方法。
  4. 請求項2または3の方法で、コーディングツールがチャンネル結合を含み、対応する各オーディオブロックのデコーディングがさらに、
    エンコーディング処理でチャンネル結合を使用してエンコード化オーディオデータのいずれかをエンコードしたかどうかを判別することと、
    エンコーディング処理がチャンネル結合を使用した場合、逆の第2の変換係数からスペクトルコンポーネントを抽出して結合されたチャンネルの第1の変換係数を取得すること
    とを備えた方法。
  5. エンコード化デジタルオーディオ信号のフレームをデコーディングするための装置で、請求項1からまでのいずれか一項のすべての手順を実行する手段を備えた装置。
  6. エンコード化デジタルオーディオ信号のフレームをデコーディングするための方法を実行するための、装置により実行可能な指示のプログラムを記録する、前記装置により読み取り可能なストレージ媒体で、この方法が、請求項1からまでのいずれか一項のすべての手順を備えている、媒体。
JP2012541085A 2009-12-07 2010-10-28 適応型ハイブリッド変換を使用した、マルチチャンネルオーディオエンコード化ビットストリームのデコーディング Active JP5547297B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US26742209P 2009-12-07 2009-12-07
US61/267,422 2009-12-07
PCT/US2010/054480 WO2011071610A1 (en) 2009-12-07 2010-10-28 Decoding of multichannel aufio encoded bit streams using adaptive hybrid transformation

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013237842A Division JP5607809B2 (ja) 2009-12-07 2013-11-18 適応型ハイブリッド変換を使用した、マルチチャンネルオーディオエンコード化ビットストリームのデコーディング

Publications (2)

Publication Number Publication Date
JP2013511754A JP2013511754A (ja) 2013-04-04
JP5547297B2 true JP5547297B2 (ja) 2014-07-09

Family

ID=43334376

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2012541085A Active JP5547297B2 (ja) 2009-12-07 2010-10-28 適応型ハイブリッド変換を使用した、マルチチャンネルオーディオエンコード化ビットストリームのデコーディング
JP2013237842A Active JP5607809B2 (ja) 2009-12-07 2013-11-18 適応型ハイブリッド変換を使用した、マルチチャンネルオーディオエンコード化ビットストリームのデコーディング

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2013237842A Active JP5607809B2 (ja) 2009-12-07 2013-11-18 適応型ハイブリッド変換を使用した、マルチチャンネルオーディオエンコード化ビットストリームのデコーディング

Country Status (37)

Country Link
US (2) US8891776B2 (ja)
EP (3) EP2801975B1 (ja)
JP (2) JP5547297B2 (ja)
KR (2) KR101629306B1 (ja)
CN (2) CN102687198B (ja)
AP (1) AP3301A (ja)
AR (1) AR079878A1 (ja)
AU (1) AU2010328635B2 (ja)
BR (1) BR112012013745B1 (ja)
CA (1) CA2779453C (ja)
CL (1) CL2012001493A1 (ja)
CO (1) CO6460719A2 (ja)
DK (1) DK2510515T3 (ja)
EA (1) EA024310B1 (ja)
EC (1) ECSP12012006A (ja)
ES (1) ES2463840T3 (ja)
GE (1) GEP20146081B (ja)
GT (1) GT201200134A (ja)
HK (1) HK1170058A1 (ja)
HN (1) HN2012000819A (ja)
HR (1) HRP20140400T1 (ja)
IL (1) IL219304A (ja)
MA (1) MA33775B1 (ja)
MX (1) MX2012005723A (ja)
MY (1) MY161012A (ja)
NI (1) NI201200063A (ja)
NZ (1) NZ599981A (ja)
PE (1) PE20130167A1 (ja)
PL (1) PL2510515T3 (ja)
PT (1) PT2510515E (ja)
RS (1) RS53288B (ja)
SI (1) SI2510515T1 (ja)
TN (1) TN2012000211A1 (ja)
TW (1) TWI498881B (ja)
UA (1) UA100353C2 (ja)
WO (1) WO2011071610A1 (ja)
ZA (1) ZA201203290B (ja)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7711123B2 (en) * 2001-04-13 2010-05-04 Dolby Laboratories Licensing Corporation Segmenting audio signals into auditory events
US8948406B2 (en) * 2010-08-06 2015-02-03 Samsung Electronics Co., Ltd. Signal processing method, encoding apparatus using the signal processing method, decoding apparatus using the signal processing method, and information storage medium
US20120033819A1 (en) * 2010-08-06 2012-02-09 Samsung Electronics Co., Ltd. Signal processing method, encoding apparatus therefor, decoding apparatus therefor, and information storage medium
US9130596B2 (en) * 2011-06-29 2015-09-08 Seagate Technology Llc Multiuse data channel
WO2013079524A2 (en) * 2011-11-30 2013-06-06 Dolby International Ab Enhanced chroma extraction from an audio codec
CN107993673B (zh) * 2012-02-23 2022-09-27 杜比国际公司 确定噪声混合因子的方法、系统、编码器、解码器和介质
US9460729B2 (en) 2012-09-21 2016-10-04 Dolby Laboratories Licensing Corporation Layered approach to spatial audio coding
TWI618051B (zh) * 2013-02-14 2018-03-11 杜比實驗室特許公司 用於利用估計之空間參數的音頻訊號增強的音頻訊號處理方法及裝置
TWI618050B (zh) 2013-02-14 2018-03-11 杜比實驗室特許公司 用於音訊處理系統中之訊號去相關的方法及設備
EP2956935B1 (en) 2013-02-14 2017-01-04 Dolby Laboratories Licensing Corporation Controlling the inter-channel coherence of upmixed audio signals
US9830917B2 (en) 2013-02-14 2017-11-28 Dolby Laboratories Licensing Corporation Methods for audio signal transient detection and decorrelation control
US8804971B1 (en) * 2013-04-30 2014-08-12 Dolby International Ab Hybrid encoding of higher frequency and downmixed low frequency content of multichannel audio
MY178342A (en) * 2013-05-24 2020-10-08 Dolby Int Ab Coding of audio scenes
US9466305B2 (en) 2013-05-29 2016-10-11 Qualcomm Incorporated Performing positional analysis to code spherical harmonic coefficients
US9854377B2 (en) 2013-05-29 2017-12-26 Qualcomm Incorporated Interpolation for decomposed representations of a sound field
TWM487509U (zh) 2013-06-19 2014-10-01 杜比實驗室特許公司 音訊處理設備及電子裝置
EP3014609B1 (en) 2013-06-27 2017-09-27 Dolby Laboratories Licensing Corporation Bitstream syntax for spatial voice coding
EP2830063A1 (en) * 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and computer program for decoding an encoded audio signal
CN117767898A (zh) 2013-09-12 2024-03-26 杜比实验室特许公司 用于各种回放环境的动态范围控制
JP6396452B2 (ja) 2013-10-21 2018-09-26 ドルビー・インターナショナル・アーベー オーディオ・エンコーダおよびデコーダ
US9502045B2 (en) 2014-01-30 2016-11-22 Qualcomm Incorporated Coding independent frames of ambient higher-order ambisonic coefficients
US9922656B2 (en) 2014-01-30 2018-03-20 Qualcomm Incorporated Transitioning of ambient higher-order ambisonic coefficients
US9620137B2 (en) 2014-05-16 2017-04-11 Qualcomm Incorporated Determining between scalar and vector quantization in higher order ambisonic coefficients
US9852737B2 (en) 2014-05-16 2017-12-26 Qualcomm Incorporated Coding vectors decomposed from higher-order ambisonics audio signals
US10770087B2 (en) * 2014-05-16 2020-09-08 Qualcomm Incorporated Selecting codebooks for coding vectors decomposed from higher-order ambisonic audio signals
CN105280212A (zh) * 2014-07-25 2016-01-27 中兴通讯股份有限公司 混音播放方法及装置
US9747910B2 (en) 2014-09-26 2017-08-29 Qualcomm Incorporated Switching between predictive and non-predictive quantization techniques in a higher order ambisonics (HOA) framework
TWI693594B (zh) * 2015-03-13 2020-05-11 瑞典商杜比國際公司 解碼具有增強頻譜帶複製元資料在至少一填充元素中的音訊位元流
US9837086B2 (en) * 2015-07-31 2017-12-05 Apple Inc. Encoded audio extended metadata-based dynamic range control
US10504530B2 (en) 2015-11-03 2019-12-10 Dolby Laboratories Licensing Corporation Switching between transforms
EP3208800A1 (en) 2016-02-17 2017-08-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for stereo filing in multichannel coding
US10015612B2 (en) 2016-05-25 2018-07-03 Dolby Laboratories Licensing Corporation Measurement, verification and correction of time alignment of multiple audio channels and associated metadata
PL3568853T3 (pl) * 2017-01-10 2021-06-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Dekoder audio, enkoder audio, sposób dostarczania dekodowanego sygnału audio, sposób dostarczania enkodowanego sygnału audio, strumień audio, moduł dostarczania strumienia audio i program komputerowy używający identyfikator strumienia
US10885921B2 (en) * 2017-07-07 2021-01-05 Qualcomm Incorporated Multi-stream audio coding
US10854209B2 (en) * 2017-10-03 2020-12-01 Qualcomm Incorporated Multi-stream audio coding
US10657974B2 (en) * 2017-12-21 2020-05-19 Qualcomm Incorporated Priority information for higher order ambisonic audio data
EP3895164B1 (en) * 2018-12-13 2022-09-07 Dolby Laboratories Licensing Corporation Method of decoding audio content, decoder for decoding audio content, and corresponding computer program
WO2020207593A1 (en) * 2019-04-11 2020-10-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio decoder, apparatus for determining a set of values defining characteristics of a filter, methods for providing a decoded audio representation, methods for determining a set of values defining characteristics of a filter and computer program
CN111711493B (zh) * 2020-06-16 2022-03-11 中国电子科技集团公司第三研究所 具有加密解密能力的水下通信设备及发射器和接收器

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100228688B1 (ko) 1991-01-08 1999-11-01 쥬더 에드 에이. 다차원 음장용 인코우더/디코우더
JPH10340099A (ja) * 1997-04-11 1998-12-22 Matsushita Electric Ind Co Ltd オーディオデコーダ装置及び信号処理装置
TW405328B (en) * 1997-04-11 2000-09-11 Matsushita Electric Ind Co Ltd Audio decoding apparatus, signal processing device, sound image localization device, sound image control method, audio signal processing device, and audio signal high-rate reproduction method used for audio visual equipment
US6246345B1 (en) 1999-04-16 2001-06-12 Dolby Laboratories Licensing Corporation Using gain-adaptive quantization and non-uniform symbol lengths for improved audio coding
US7292901B2 (en) 2002-06-24 2007-11-06 Agere Systems Inc. Hybrid multi-channel/cue coding/decoding of audio signals
US7502743B2 (en) * 2002-09-04 2009-03-10 Microsoft Corporation Multi-channel audio encoding and decoding with multi-channel transform selection
CN1261663C (zh) * 2002-12-31 2006-06-28 深圳市高科智能系统有限公司 无线集中控制门禁/门锁的方法及系统设备
US7516064B2 (en) * 2004-02-19 2009-04-07 Dolby Laboratories Licensing Corporation Adaptive hybrid transform for signal analysis and synthesis
US9454974B2 (en) * 2006-07-31 2016-09-27 Qualcomm Incorporated Systems, methods, and apparatus for gain factor limiting
US7953595B2 (en) * 2006-10-18 2011-05-31 Polycom, Inc. Dual-transform coding of audio signals
KR101325802B1 (ko) * 2007-02-06 2013-11-05 엘지전자 주식회사 디지털 방송 송신기 및 디지털 방송 수신기와 그를 이용한디지털 방송 시스템 및 그 서비스 방법
CN101067931B (zh) 2007-05-10 2011-04-20 芯晟(北京)科技有限公司 一种高效可配置的频域参数立体声及多声道编解码方法与系统
US8706480B2 (en) * 2007-06-11 2014-04-22 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder for encoding an audio signal having an impulse-like portion and stationary portion, encoding methods, decoder, decoding method, and encoding audio signal
WO2009039897A1 (en) * 2007-09-26 2009-04-02 Fraunhofer - Gesellschaft Zur Förderung Der Angewandten Forschung E.V. Apparatus and method for extracting an ambient signal in an apparatus and method for obtaining weighting coefficients for extracting an ambient signal and computer program
EP2212884B1 (en) * 2007-11-06 2013-01-02 Nokia Corporation An encoder
EP2107556A1 (en) * 2008-04-04 2009-10-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio transform coding using pitch correction

Also Published As

Publication number Publication date
CA2779453C (en) 2015-12-22
AP3301A (en) 2015-06-30
EP2706529A3 (en) 2014-04-02
EP2510515B1 (en) 2014-03-19
CL2012001493A1 (es) 2012-10-19
EP2801975A1 (en) 2014-11-12
IL219304A (en) 2015-05-31
PE20130167A1 (es) 2013-02-16
AP2012006289A0 (en) 2012-06-30
CN104217724B (zh) 2017-04-05
GT201200134A (es) 2013-08-29
ES2463840T3 (es) 2014-05-29
TW201126511A (en) 2011-08-01
US8891776B2 (en) 2014-11-18
KR20130116959A (ko) 2013-10-24
CO6460719A2 (es) 2012-06-15
CA2779453A1 (en) 2011-06-16
CN102687198B (zh) 2014-09-24
MX2012005723A (es) 2012-06-13
WO2011071610A1 (en) 2011-06-16
PL2510515T3 (pl) 2014-07-31
KR20120074305A (ko) 2012-07-05
HRP20140400T1 (hr) 2014-06-06
TWI498881B (zh) 2015-09-01
JP5607809B2 (ja) 2014-10-15
HK1170058A1 (en) 2013-02-15
PT2510515E (pt) 2014-05-23
CN104217724A (zh) 2014-12-17
US20120243692A1 (en) 2012-09-27
EA024310B1 (ru) 2016-09-30
EP2510515A1 (en) 2012-10-17
TN2012000211A1 (en) 2013-12-12
AU2010328635A1 (en) 2012-05-17
SI2510515T1 (sl) 2014-06-30
JP2013511754A (ja) 2013-04-04
KR101370522B1 (ko) 2014-03-06
CN102687198A (zh) 2012-09-19
EP2706529A2 (en) 2014-03-12
IL219304A0 (en) 2012-06-28
UA100353C2 (uk) 2012-12-10
ZA201203290B (en) 2013-07-31
BR112012013745B1 (pt) 2020-10-27
NI201200063A (es) 2013-06-13
AU2010328635B2 (en) 2014-02-13
BR112012013745A2 (pt) 2016-03-15
US20150030161A1 (en) 2015-01-29
ECSP12012006A (es) 2012-08-31
AR079878A1 (es) 2012-02-29
KR101629306B1 (ko) 2016-06-10
EP2801975B1 (en) 2017-01-04
GEP20146081B (en) 2014-04-25
US9620132B2 (en) 2017-04-11
HN2012000819A (es) 2015-03-16
EA201270642A1 (ru) 2012-12-28
MY161012A (en) 2017-03-31
NZ599981A (en) 2014-07-25
MA33775B1 (fr) 2012-11-01
JP2014063187A (ja) 2014-04-10
DK2510515T3 (da) 2014-05-19
RS53288B (en) 2014-08-29

Similar Documents

Publication Publication Date Title
JP5607809B2 (ja) 適応型ハイブリッド変換を使用した、マルチチャンネルオーディオエンコード化ビットストリームのデコーディング
US7573912B2 (en) Near-transparent or transparent multi-channel encoder/decoder scheme
KR101422745B1 (ko) 다채널로 구성된 다객체 오디오 신호의 인코딩 및 디코딩장치 및 방법
KR101531239B1 (ko) 다객체 오디오 신호의 부호화 장치
TW200415922A (en) Conversion of synthesized spectral components for encoding and low-complexity transcoding
TWI521502B (zh) 多聲道音訊的較高頻率和降混低頻率內容的混合編碼
JP2009513992A (ja) オーディオ信号を符号化する装置と方法および符号化されたオーディオ信号を復号化する装置と方法
JP2006201785A (ja) デジタル信号の符号化/復号化方法及びその装置並びに記録媒体
IL227635A (en) Less complicated bends for low-frequency effects channel

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131008

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140514

R150 Certificate of patent or registration of utility model

Ref document number: 5547297

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250