JP5922684B2 - マルチチャネルの復号化装置 - Google Patents

マルチチャネルの復号化装置 Download PDF

Info

Publication number
JP5922684B2
JP5922684B2 JP2014006222A JP2014006222A JP5922684B2 JP 5922684 B2 JP5922684 B2 JP 5922684B2 JP 2014006222 A JP2014006222 A JP 2014006222A JP 2014006222 A JP2014006222 A JP 2014006222A JP 5922684 B2 JP5922684 B2 JP 5922684B2
Authority
JP
Japan
Prior art keywords
channel
spectrum
signal
unit
phase difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014006222A
Other languages
English (en)
Other versions
JP2014063202A (ja
Inventor
キム,ジュン−フェ
ジュー,キ−ヒョン
ユルコフ,キリル
クドゥルヤショフ,ボリス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2014063202A publication Critical patent/JP2014063202A/ja
Application granted granted Critical
Publication of JP5922684B2 publication Critical patent/JP5922684B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/12Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being prediction coefficients

Description

本発明の実施形態は、オーディオ信号及び/または音声信号を符号化または復号化する方法及び装置に係り、さらに詳細には、複数のチャネルを備えるマルチチャネル信号を符号化して復号化する方法及び装置に関する。
一般的にマルチチャネル信号を符号化する方式は、ウェーブフォーム符号化とパラメトリック符号化とがある。ここで、パラメトリック符号化は、低いビットレートで空間情報を伝送してマルチチャネルイメージを形成する方式であって、普通40kbps未満でのみ使用する。このようなパラメトリック符号化は、マルチチャネル信号をダウンミックスし、この過程で抽出された空間情報をチャネル間エネルギーあるいはレベル差、チャネル信号間の類似度、あるいはチャネル間位相差で表現することで、マルチチャネル信号を符号化する。パラメトリック符号化の代表的な実施形態として、MPEGサラウンドコーディングとバイノーラルキューコーディング(Binaural Cue Coding)がある。しかし、このような符号化技術は反響を正確に表現できないため、符号化ビットレートを増大させても原音を復元し難い。
一つ以上の実施形態は、ダウンミックス信号を利用せずに複数のチャネル間の重複情報を除去することで、残差信号を符号化して復号化するマルチチャネル符号化及び復号化方法並びに装置を提供する。
本発明の一つ以上の実施形態によるマルチチャネルの符号化装置は、マルチチャネル信号を構成する複数のチャネル信号から少なくとも一つの基準信号を生成して符号化する基準信号符号化部と、前記基準信号と前記複数のチャネル信号間の各位相差を計算して符号化する位相差符号化部と、前記基準信号の大きさと前記複数のチャネル信号の各大きさとの比率である各利得値を計算して符号化する利得値符号化部と、前記各位相差と前記各利得値とを前記基準信号に適用して、予測されたチャネル信号と対応するチャネル信号との誤差に該当する各残差信号を抽出して符号化する残差信号符号化部と、を備える。
本発明の一つ以上の実施形態によるマルチチャネルの復号化装置は、マルチチャネル信号を構成する複数のチャネル信号から少なくとも一つの基準信号を復号化する基準信号復号化部と、前記基準信号と前記複数のチャネル信号間の各位相差を復号化する位相差復号化部と、前記基準信号の大きさと前記複数のチャネル信号の各大きさとの比率の各利得値を復号化する利得値復号化部と、前記各位相差と前記各利得値とを前記基準信号に適用して、予測されたチャネル信号と対応するチャネル信号との誤差に該当する各残差信号を復号化する残差信号復号化部と、前記位相差、前記利得値及び前記残差信号を用いて前記各チャネル信号を復元するマルチチャネル復元部と、を備える。
本発明の一つ以上の実施形態によるマルチチャネルの符号化方法は、マルチチャネル信号を構成する複数のチャネル信号から少なくとも一つの基準信号を生成して符号化する段階と、前記基準信号と前記複数のチャネル信号間の各位相差を計算して符号化する段階と、前記基準信号の大きさと前記複数のチャネル信号の各大きさとの比率の各利得値を計算して符号化する段階と、前記各位相差と前記各利得値とを前記基準信号に適用して、予測されたチャネル信号と対応するチャネル信号との誤差に該当する各残差信号を抽出して符号化する段階と、を含む。
本発明の一つ以上の実施形態によるマルチチャネルの復号化方法は、マルチチャネル信号を構成する複数のチャネル信号から少なくとも一つの基準信号を復号化する段階と、前記基準信号と前記複数のチャネル信号間の各位相差を復号化する段階と、前記基準信号の大きさと前記複数のチャネル信号の各大きさとの比率の各利得値を復号化する段階と、前記各位相差と前記各利得値とを前記基準信号に適用して、予測されたチャネル信号と対応するチャネル信号との誤差に該当する各残差信号を復号化する段階と、前記位相差、前記利得値及び前記残差信号を用いて前記各チャネル信号を復元する段階と、を含む。
本発明の一つ以上の実施形態による記録媒体は、マルチチャネル信号を構成する複数のチャネル信号から少なくとも一つの基準信号を生成して符号化する段階と、前記基準信号と前記複数のチャネル信号間の各位相差を計算して符号化する段階と、前記基準信号の大きさと前記複数のチャネル信号の各大きさとの比率の各利得値を計算して符号化する段階と、前記各位相差と前記各利得値とを前記基準信号に適用して、予測されたチャネル信号と対応するチャネル信号との誤差に該当する各残差信号を抽出して符号化する段階と、を含む方法をコンピュータで行わせるためのプログラムを記録できる。
本発明の一つ以上の実施形態による記録媒体は、マルチチャネル信号を構成する複数のチャネル信号から少なくとも一つの基準信号を復号化する段階と、前記基準信号と前記複数のチャネル信号間の各位相差を復号化する段階と、前記基準信号の大きさと前記複数のチャネル信号の各大きさとの比率の各利得値を復号化する段階と、前記各位相差と前記各利得値とを前記基準信号に適用して、予測されたチャネル信号と対応するチャネル信号との誤差に該当する各残差信号を復号化する段階と、前記位相差、前記利得値及び前記残差信号を用いて前記各チャネル信号を復元する段階と、を含む方法をコンピュータで行わせるためのプログラムを記録できる。
一つ以上の実施形態によってマルチチャネルの符号化装置を図示した図である。 一つ以上の実施形態によってマルチチャネルの復号化装置を図示した図である。 一つ以上の実施形態によってマルチチャネルの符号化方法を図示した図である。 一つ以上の実施形態によってマルチチャネルの復号化方法を図示した図である。
以下、添付した図面を参照してマルチチャネルの符号化及び復号化方法並びに装置の実施形態について詳細に説明する。
図1は、一つ以上の実施形態によってマルチチャネルの符号化装置を図示したものであって、マルチチャネルの符号化装置は、例えば、先処理部100、変換部110、基準スペクトル量子化部120、位相差計算部130、位相差量子化部135、利得値計算部140、利得値量子化部145、残差スペクトル抽出部150、残差スペクトル量子化部155、予測検査部160、マルチチャネル量子化部170、無損失符号化部180及び多重化部190を備えることができる。ここで、先処理部100、変換部110、基準スペクトル量子化部120、位相差計算部130、位相差量子化部135、利得値計算部140、利得値量子化部145、残差スペクトル抽出部150、残差スペクトル量子化部155、予測検査部160、マルチチャネル量子化部170、無損失符号化部180及び多重化部190のうち一つ以上は、少なくとも一つ以上のプロセッサーあるいはプロセッシングデバイスで具現あるいは集積化できる。
先処理部100は、入力端子IN1ないしNを通じてN個のチャネル信号に該当するマルチチャネル信号を入力されてN個のチャネル信号から符号化するために、基準になる基準信号を選択する。ここで、先処理部100は、基準信号をN個のチャネル信号から選択するだけでなく、多様な方式で生成できる。例えば、先処理部100は、もし、マルチチャネル信号が2個のチャネル信号で構成された場合、例えば、下記の式(1)に記載された行列のうち少なくとも一つの行列演算を用いて基準信号を選択したり生成できる。すなわち、マルチチャネル信号がN個のチャネル信号で構成された場合、N個のチャネル信号と各行列との演算を通じて、残差信号を最小化させる基準信号を選択するか、または生成できる。
Figure 0005922684
また、先処理部100により、N個のチャネル信号から選択あるいは生成される基準信号をバークバンド単位に変更できる。ここで、基準信号を選択する他の代案も同等に適用されうる。一方、マルチチャネル信号を構成するチャネルの数が増加する場合、あるいは必要に応じて基準信号は複数になりうる。
また、実施形態によるマルチチャネルの符号化装置は、先処理部100を必ずしも含まないか、あるいは具現しなくてもよい。
変換部110は、各チャネル信号の大きさと位相とをいずれも表現できるように、マルチチャネル信号を周波数ドメインに変換してマルチチャネルスペクトルを生成できる。例えば、変換部110では、複素数変換を用いて各チャネル信号を複素数スペクトルで表現できる。変換部110で複素数変換を利用する場合、変換部110は時間ドメインに該当するマルチチャネル信号に、例えば、MDCT(Modified Discrete Cosine Transform)を適用して実数部を計算し、例えば、MDST(Modified Discrete Sine Transform)を適用して虚数部を計算できる。
例えば、変換部110は、もし、マルチチャネル信号がステレオ信号のような2個のチャネル信号で構成された場合、左側信号と右側信号とを、例えば、下記の式(2)に記載されたように、x(t)とy(t)スペクトルに変換できる。
Figure 0005922684
ここで、x(t)は、第1チャネル信号である左側信号が変換部110で変換されたスペクトルであり、y(t)は、第2チャネル信号の右側信号が変換部110で変換されたスペクトルであり、
Figure 0005922684
は、第iチャネルスペクトルのサイズであり、
Figure 0005922684
は、第iチャネルスペクトルの位相である。
基準スペクトル量子化部120は、N個のチャネル信号から先処理部100で基準信号として生成されて、変換部110で変換された基準スペクトルを量子化できる。もし、変換部110で、例として挙げたMDCTとMDSTとにより複素数変換を行う場合、基準スペクトル量子化部120は、MDCTにより変換された基準スペクトルのみ量子化できる。また、基準スペクトル量子化部120では、心理音響モデルを通じて量子化ステップサイズを決定して、符号化ビット量を制御することで基準スペクトルを量子化できる。
位相差計算部130は、基準スペクトルに対する各チャネルスペクトルの位相差を計算できる。位相差計算部130は、例えば、下記の式(3)により位相差を計算できる。
Figure 0005922684
ここで、
Figure 0005922684
は、基準スペクトルに対する第iチャネルスペクトルの位相差であり、
Figure 0005922684
は、基準スペクトルの位相であり、
Figure 0005922684
は、第iチャネルスペクトルの位相である。
利得値計算部140は、基準スペクトルのサイズに対する各チャネルスペクトルのサイズの比率に該当する利得値を計算する。利得値計算部140は、例えば、下記の式(4)を用いて利得値を計算できる。
Figure 0005922684
ここで、
Figure 0005922684
は、第iチャネルスペクトルの利得値であり、
Figure 0005922684
は、基準スペクトルのサイズであり、
Figure 0005922684
は、第iチャネルスペクトルのサイズである。
一つ以上の実施形態によって、例えば、位相差計算部130で各チャネルスペクトルと基準スペクトル間の位相差の計算、及び例えば、利得値計算部140で各チャネルスペクトルの利得値の計算を、入力されるマルチチャネル信号が左側信号と右側信号とに該当する2個のチャネル信号で構成されたという仮定下で説明する。ここで、他の代案も同等に適用できる。
まず、先処理部100で左側信号が基準信号と選択され、変換部110では左側信号と右側信号とを、例えば、下記の式(5)のように、複素数変換により周波数ドメインに変換して左側スペクトルと右側スペクトルとを生成できる。
Figure 0005922684
ここで、Lは、変換部110で変換された左側スペクトルであり、Rは、変換部110で変換された右側スペクトルであり、
Figure 0005922684
は、左側スペクトルのサイズであり、
Figure 0005922684
は、右側スペクトルのサイズであり、
Figure 0005922684
は、左側スペクトルの位相であり、
Figure 0005922684
は、右側スペクトルの位相である。
位相差計算部130と利得値計算部140とは、例えば、下記の式(6)を最小とする位相差と利得値とを計算できる。
Figure 0005922684
ここで、gは、利得値であり、
Figure 0005922684
は、位相差である。
例えば、下記の式(7)に記載されたように、式(6)をgと
Figure 0005922684
とに対して偏微分する。
Figure 0005922684
利得値gと位相差
Figure 0005922684
とを基準信号である左側信号に適用して予測した右側信号が、実際右側信号と平均自乗誤差が最小化するように、式(7)により偏微分された式の値が‘0’になる利得値gと位相差
Figure 0005922684
とを、例えば、下記の式(8)により計算することで、位相差計算部130と利得値計算部140とは、最終的に位相差
Figure 0005922684
と利得値gとを計算する。
Figure 0005922684
残差スペクトル抽出部150は、各チャネルスペクトルに対して位相差計算部130及び利得値計算部140で計算された位相差及び利得値を基準スペクトルに適用することで、予測されたスペクトルと実際チャネルスペクトルとの誤差に該当する残差スペクトルを抽出する。残差スペクトル抽出部150は、例えば、下記の式(9)により残差スペクトルを抽出できる。
Figure 0005922684
ここで、
Figure 0005922684
は、第iチャネルスペクトルに対応する残差スペクトルであり、
Figure 0005922684
は、第iチャネルスペクトルの実際サイズであり、
Figure 0005922684
は、第iチャネルスペクトルの位相であり、
Figure 0005922684
は、位相差及び利得値を基準スペクトルに適用することで予測されたスペクトルの実数部であり、例えば、式(10)により計算できる。
Figure 0005922684
ここで、gは、利得値計算部140で計算された利得値であり、
Figure 0005922684
は、位相差計算部130で計算された位相差であり、
Figure 0005922684
は、基準スペクトルのサイズであり、
Figure 0005922684
は、基準スペクトルの位相である。
位相差量子化部135は、例えば、位相差計算部130で計算された基準スペクトルに対する各チャネルスペクトルの位相差を量子化できる。位相差量子化部135では位相差を、例えば、ユニホームスケールで量子化できる。
利得値量子化部145は、例えば、利得値計算部140で計算された各チャネルスペクトルの利得値を量子化できる。利得値量子化部145では利得値を、例えば、ログスケールまたはユニホームスケールで量子化できる。
残差スペクトル量子化部155は、例えば、残差スペクトル抽出部150から抽出された各チャネルスペクトルに対する残差スペクトルを量子化する。残差スペクトル量子化部155は、心理音響モデルを通じて量子化ステップサイズを決定して、符号化ビット量を制御することで残差スペクトルを量子化できる。
また、先処理部100、基準スペクトル量子化部120、位相差計算部130、位相差量子化部135、利得値計算部140、利得値量子化部145、残差スペクトル抽出部150及び残差スペクトル量子化部155は、クリティカルバンドを考慮したバークバンド単位で処理されうる。ここで、他の代案も同等に適用できる。
予測検査部160は、各チャネルスペクトルに対して位相差計算部130で計算された位相差と、利得値計算部140で計算された利得値とを基準スペクトルに適用することで、予測されたスペクトルが実際チャネルスペクトル、すなわち、元来のスペクトルに比べていかほど正確かつ精密に予測されたかを決定できる。
予測検査部160では、残差スペクトル抽出部150から抽出された残差スペクトルのエネルギーと、実際各チャネルスペクトルのエネルギーとを比較して、予測の正確度を決定できる。ここで、他の代案も同等に適用できる。
また、予測検査部160は、予測の正確度を基準にフレームを多様なタイプ別に分類して、各フレームのタイプに対応する残差スペクトルを異なって適応的に符号化できる。予測検査部160は、例えば、下記の式(11)のように、予測の正確度を基準にフレームのタイプを3種に分類できる。
Figure 0005922684
各フレームのタイプは、例えば、残差スペクトルを符号化するに当って、エントロピー符号化の文脈(context)として利用できる。
一方、一つ以上の実施形態によるマルチチャネルの符号化装置は、予測検査部160を必ずしも含まないか、あるいは具現しなくてもよく、予測正確度と関係なく基準スペクトル、位相差、利得値及び残差スペクトルを符号化してもよい。
例えば、マルチチャネル量子化部170は、式(11)で第3フレームタイプのように、予測検査部160で計算された実際チャネルスペクトル(Ein_fr)に対する予測スペクトル(Eres_fr)のエネルギー比率が臨界値を満たせば、例えば、臨界値より大きければ、該当チャネルスペクトルを量子化して、利得値と位相差とを‘0’に設定できる。そして、該当チャネルスペクトルに対して、位相差量子化部135で位相差を量子化せずに利得値量子化部145で利得値を量子化しなくてもよい。なぜなら、例えば、該当チャネルスペクトルに対して、位相差計算部130で計算された位相差と利得値計算部140で計算された利得値とを基準スペクトルに適用して予測されたスペクトルが正確でないので、該当チャネルスペクトルは個別的に符号化することがさらに効率的なためである。
無損失符号化部180は、基準スペクトル量子化部120で量子化した基準スペクトル、位相差量子化部135で量子化した各チャネルスペクトルに対する位相差、利得値量子化部145で量子化した各チャネルスペクトルに対する利得値、及び残差スペクトル量子化部155で量子化した残差スペクトルを無損失符号化できる。しかし、言及したように、無損失符号化部180は、予測検査部160で計算された実際チャネルスペクトルに対する予測スペクトルのエネルギー比率が臨界値を満たす、すなわち、臨界値より大きいバークバンドに作られたチャネルスペクトルの場合、位相差、利得値及び残差スペクトルの代りに該当チャネルスペクトルを無損失符号化できる。
多重化部190は、無損失符号化部180で無損失符号化した基準スペクトル、位相差、利得値及び残差スペクトルを含めて多重化することでビットストリームを生成し、出力端子OUTを通じて出力できる。一方、多重化部190は予測検査部160の結果によって、位相差、利得値及び残差スペクトルの代りに、該当チャネルスペクトルを多重化してビットストリームとして生成することもできる。
図2は、一つ以上の実施形態によってマルチチャネルの復号化装置を図示したものであって、マルチチャネルの復号化装置は、例えば、逆多重化部200、無損失復号化部210、基準スペクトル逆量子化部220、第1逆変換部225、変換部230、位相差逆量子化部235、利得値逆量子化部240、残差スペクトル逆量子化部245、マルチチャネルスペクトル復元部250、第2逆変換部255、マルチチャネル逆量子化部260及び後処理部270を備えることができる。ここで、逆多重化部200、無損失復号化部210、基準スペクトル逆量子化部220、第1逆変換部225、変換部230、位相差逆量子化部235、利得値逆量子化部240、残差スペクトル逆量子化部245、マルチチャネルスペクトル復元部250、第2逆変換部255、マルチチャネル逆量子化部260及び後処理部270は、少なくとも一つ以上のプロセッサーあるいはプロセッシングデバイスで集積化あるいは具現できる。
逆多重化部200は、符号化したビットストリームを入力端子INを通じて入力されて逆多重化する。逆多重化部200で逆多重化されるビットストリームは、各バークバンドに対して基準スペクトル、基準スペクトルに対する各チャネルスペクトルの位相差、基準スペクトルのサイズに対する各チャネルスペクトルのサイズの比率に該当する利得値及び残差スペクトルを含むか、または少なくとも一つのチャネルスペクトルを含むことができる。ここで、基準スペクトルは、N個のチャネル信号から生成された符号化する基準になる基準信号を変換したスペクトルであり、残差スペクトルは、位相差と利得値とを基準スペクトルに適用することで予測されたスペクトルと実際チャネルスペクトルとの誤差に該当するスペクトルでありうる。
無損失復号化部210は、逆多重化部200で逆多重化した基準スペクトル、位相差、利得値及び残差スペクトルを無損失復号化するか、または少なくとも一つのチャネルスペクトルを無損失復号化できる。
基準スペクトル逆量子化部220は、無損失復号化部210で無損失復号化した基準スペクトルを逆量子化できる。
第1逆変換部225は、基準スペクトル逆量子化部220で逆量子化した基準スペクトルを、第1逆変換により時間ドメインに逆変換して基準信号を生成できる。ここで、第1逆変換の例として、複素数変換で実数部に該当するIMDCT(Inverse Modified Discrete Cosine Transform)でありうる。
しかし、後述するように、変換部230で1フレームが遅延しうるので、第1逆変換部225で後処理部270に出力する基準信号に限って1フレームを遅延させて出力できる。
変換部230は、例えば、第1逆変換部225で逆変換された基準信号を第2変換により周波数ドメインに変換できる。ここで、第2変換の例としては、複素数変換で虚数部に該当する関連したMDSTでありうる。しかし、第1逆変換部225で第1逆変換により逆変換された基準信号を、変換部230で再び第2変換により変換するので、基準信号は1フレームが遅延される。
位相差逆量子化部235は、例えば、無損失復号化部210で復号化した各チャネルスペクトルの位相差を逆量子化できる。位相差逆量子化部235では位相差を、例えば、ユニホームスケールに逆量子化できる。
利得値逆量子化部240は、例えば、無損失復号化部210で復号化した各チャネルスペクトルの利得値を逆量子化できる。利得値逆量子化部240では利得値を、例えば、ログスケールまたはユニホームスケールに逆量子化できる。
残差スペクトル逆量子化部245は、無損失復号化部210で復号化した各チャネルスペクトルに対する残差スペクトルを逆量子化する。
マルチチャネルスペクトル復元部250は基準スペクトル逆量子化部220で逆量子化し、変換部230で変換することで、各チャネル信号の大きさと位相とをいずれも表現できる基準スペクトルに、位相差逆量子化部235で逆量子化した位相差、利得値逆量子化部240で逆量子化した利得値、及び残差スペクトル逆量子化部245で逆量子化した残差スペクトルを適用して各チャネルスペクトルを復元できる。言い換えれば、マルチチャネルスペクトル復元部250は、位相差ほど基準スペクトルの位相を移動させ、利得値によって基準スペクトルのサイズを調節した後、残差スペクトルを加算することで各チャネルスペクトルを復元できる。
しかし、言及したように、変換部230で1フレームが遅延されるので、マルチチャネルスペクトル復元部250は1、フレームを遅延して行い始める。
第2逆変換部255は、マルチチャネルスペクトル復元部250で復元された各チャネルスペクトルを時間ドメインに逆変換できる。
マルチチャネル逆量子化部260は、マルチチャネルの符号化装置で位相差と利得値とを基準スペクトルに適用して予測されたスペクトルが、実際チャネルスペクトルに対して正確に予測されないと既に判断されるため、位相差、利得値及び残差スペクトルを符号化する代わりにチャネルスペクトルを逆量子化できる。
第2逆変換部255は、マルチチャネル逆量子化部260で逆量子化したチャネルスペクトルを周波数ドメインから時間ドメインに逆変換できる。
後処理部270は、第1逆変換部225で逆変換されて1フレームが遅延された基準信号と、第2逆変換部255で逆変換されたマルチチャネル信号とに対して後処理過程を行うことで、出力端子OUTを通じてマルチチャネル信号を出力する。ここで、後処理過程は、例えば、図1の先処理部100で行われた演算の逆過程であり得、他の代案も同等に適用できる。例えば、後処理部270は、符号化端で適用された行列演算の逆演算を通じてマルチチャネル信号を復元できる。
図3は、一つ以上の実施形態によってマルチチャネルの符号化方法を図示した図である。
まず、N個のチャネル信号に該当するマルチチャネル信号を入力されて、N個のチャネル信号から符号化する基準になる基準信号を生成あるいは選択できる(第300段階)。第300段階では、基準信号を多様な方式で生成してもよい。第300段階では、もし、マルチチャネル信号が2個のチャネル信号で構成された場合、例えば、下記の式(12)に記載された行列のうち少なくとも一つを用いて基準信号を選択または生成できる。すなわち、マルチチャネル信号がN個のチャネル信号で構成された場合、N個のチャネル信号と各行列との演算を通じて残差信号を最小化させる基準信号を選択または生成できる。
Figure 0005922684
また、第300段階により、N個のチャネル信号から基準になる基準信号をバークバンド単位で変更できる。一方、マルチチャネル信号を構成するチャネルの数が増加する場合、あるいは必要に応じて基準信号は複数になりうる。
一つ以上の実施形態において、マルチチャネルの符号化方法は、第300段階を必ずしも含むか、または具現しなくてもよい。
各チャネル信号の大きさと位相とをいずれも表現できるように、マルチチャネル信号を周波数ドメインに変換してマルチチャネルスペクトルを生成する(第310段階)。例えば、第310段階では、複素数変換を用いて、各チャネル信号を複素数としてスペクトルを表現できる。第310段階で複素数変換を利用する場合、第310段階では、時間ドメインに該当するマルチチャネル信号に、例えば、MDCTを適用して実数部を計算し、例えば、MDSTを適用して虚数部を計算できる。
例えば、第310段階では、もし、マルチチャネル信号がステレオ信号のような2個のチャネル信号で構成された場合、左側信号と右側信号とを、例えば、下記の式(13)に記載されたようにx(t)とy(t)スペクトルに変換できる。
Figure 0005922684
ここで、x(t)は、第1チャネル信号である左側信号が第310段階で変換されたスペクトルであり、y(t)は、第2チャネル信号の右側信号が第310段階で変換されたスペクトルであり、
Figure 0005922684
は、第iチャネルスペクトルのサイズであり、
Figure 0005922684
は、第iチャネルスペクトルの位相である。
次いで、変換された基準スペクトルを量子化できる(第320段階)。もし、第310段階で、例えば、MDCTとMDSTとにより複素数変換を行う場合、第320段階では、MDCTにより変換された基準スペクトルのみ量子化できる。また、第320段階では、心理音響モデルを通じて量子化ステップサイズを決定して、符号化ビット量を制御することで基準スペクトルを量子化できる。
次いで、基準スペクトルに対する各チャネルスペクトルの位相差を計算できる(第330段階)。第330段階では、例えば、下記の式(14)により位相差を計算できる。
Figure 0005922684
ここで、
Figure 0005922684
は、基準スペクトルに対する第iチャネルスペクトルの位相差であり、
Figure 0005922684
は、基準スペクトルの位相であり、
Figure 0005922684
は、第iチャネルスペクトルの位相である。
次いで、基準スペクトルのサイズに対する各チャネルスペクトルのサイズの比率に該当する利得値を計算できる(第340段階)。第340段階では、例えば、下記の式(15)を用いて利得値を計算できる。
Figure 0005922684
ここで、
Figure 0005922684
は、第iチャネルスペクトルの利得値であり、
Figure 0005922684
は、基準スペクトルのサイズであり、
Figure 0005922684
は、第iチャネルスペクトルのサイズである。
一つ以上の実施形態によって、第330段階で各チャネルスペクトルと基準スペクトル間の位相差を計算し、各チャネルスペクトルの利得値を計算する過程を、入力されるマルチチャネル信号が左側信号と右側信号とに該当する2個のチャネルで構成されたという仮定下で説明する。ここで、他の代案も同等に適用できる。
まず、例えば、第300段階で左側信号が基準信号に選択され、第310段階では左側信号と右側信号とを、例えば、下記の式(16)のように複素数変換により周波数ドメインに変換して、左側スペクトルと右側スペクトルとを生成できる。
Figure 0005922684
ここで、Lは、第310段階で変換された左側スペクトルであり、Rは、第310段階で変換された左側スペクトルであり、
Figure 0005922684
は、左側スペクトルのサイズであり、
Figure 0005922684
は、右側スペクトルのサイズであり、
Figure 0005922684
は、左側スペクトルの位相であり、
Figure 0005922684
は、右側スペクトルの位相である。
第330段階と第340段階とは、例えば、下記の式(17)を最小とする左側及び右側スペクトル間の位相差と、左側及び右側スペクトルのサイズ比率値である利得値とを計算できる。
Figure 0005922684
ここで、gは、利得値であり、
Figure 0005922684
は、位相差である。
例えば、下記の式(18)に記載されたように、式(17)をgと
Figure 0005922684
とに対して偏微分できる。
Figure 0005922684
利得値gと位相差
Figure 0005922684
とを、基準信号の左側信号に適用して予測した右側信号が、実際右側信号と平均自乗誤差が最小化するように、式(18)により偏微分された式の値が‘0’になる利得値gと位相差
Figure 0005922684
とを、例えば、下記の式(19)により計算することで、第330段階と第340段階とでは最終的に位相差
Figure 0005922684
と利得値gとを計算できる。
Figure 0005922684
次いで、各チャネルスペクトルに対して、第330段階及び第340段階で計算された位相差及び利得値を基準スペクトルに適用することで、予測されたスペクトルと実際チャネルスペクトルとの誤差に該当する残差スペクトルを抽出できる(第350段階)。第350段階は、例えば、下記の式(20)により残差スペクトルを抽出できる。
Figure 0005922684
ここで、
Figure 0005922684
は、第iチャネルスペクトルに対応する残差スペクトルであり、
Figure 0005922684
は、第iチャネルスペクトルの実際サイズであり、
Figure 0005922684
は、第iチャネルスペクトルの位相であり、
Figure 0005922684
は、位相差及び利得値を基準スペクトルに適用することで予測されたスペクトルの実数部であり、例えば、下記の式(21)により計算できる。
Figure 0005922684
ここで、gは、第340段階で計算された利得値であり、
Figure 0005922684
は、第330段階で計算された位相差であり、
Figure 0005922684
は、基準スペクトルのサイズであり、
Figure 0005922684
は、基準スペクトルの位相である。
次いで、各チャネルスペクトルに対して、第330段階で計算された位相差と第340段階で計算された利得値とを基準スペクトルに適用することで、予測されたスペクトルが実際チャネルスペクトルに比べていかほど正確に予測されたかを検査できる(第355段階)。
第355段階では、第350段階で抽出された残差スペクトルのエネルギーと実際チャネルスペクトルのエネルギーとを比較して、予測の正確度を検査できる。ここで、他の代案も同等に適用できる。
また、第355段階では、決定された予測の正確度を基準にフレームを多様なタイプ別に分類して、各フレームのタイプに対応する残差スペクトルを異なって適応的に符号化できる。第355段階では、例えば、下記の式(22)のように、予測の正確度を基準にフレームのタイプを3種に分類できる。
Figure 0005922684
また、各フレームのタイプを、残差スペクトルを符号化するに当って、例えば、エントロピー符号化の文脈として利用できる。
次いで、第355段階で検査された予測の正確度が、既に設定された臨界値より大きいかどうかを判断できる(第360段階)。
一つ以上の実施形態において、もし、第360段階で予測の正確度が臨界値を満たす、例えば、臨界値より大きいと判断されれば、第330段階で計算された基準スペクトルに対する各チャネルスペクトルの位相差を量子化できる(第335段階)。第335段階では位相差を、例えば、ユニホームスケールで量子化できる。
次いで、第340段階で計算された各チャネルスペクトルの利得値を量子化できる(第370段階)。第370段階では利得値を、例えば、ログスケールまたはユニホームスケールで量子化できる。
次いで、第350段階で抽出された各チャネルスペクトルに対する残差スペクトルを量子化できる(第375段階)。第375段階では、心理音響モデルを通じて量子化ステップサイズを決定して、符号化ビット量を制御することで残差スペクトルを量子化できる。
また、第300段階、第320段階、第330段階、第340段階、第350段階、第365段階、第370段階及び第375段階は、例えば、クリティカルバンドを考慮したバークバンド単位で処理されうる。
もし、第360段階で予測の正確度が、例えば、臨界値より小さいと判断されれば、該当チャネルスペクトルを量子化して利得値と位相差とを‘0’に設定できる(第380段階)。なぜなら、該当チャネルスペクトルに対して、例えば、第330段階で計算された位相差と、例えば、第340段階で計算された利得値とを基準スペクトルに適用して予測されたスペクトルが正確でないので、該当チャネルスペクトルは個別的に符号化することがさらに効率的なためである。
次いで、第320段階で量子化した基準スペクトル、第365段階で量子化した各チャネルスペクトルに対する位相差、第370段階で量子化した各チャネルスペクトルに対する利得値、及び第375段階で量子化した残差スペクトルを無損失符号化するか、またはチャネルスペクトルを無損失符号化できる(第385段階)。
次いで、第385段階で無損失符号化した基準スペクトル、位相差、利得値及び残差スペクトルを含むか、またはチャネルスペクトルを含んで多重化することでビットストリームを生成できる(第390段階)。
図4は、一つ以上の実施形態によってマルチチャネルの復号化方法を図示した図である。
まず、符号化したビットストリームを入力されて逆多重化できる(第400段階)。第400段階で逆多重化されるビットストリームは、各バークバンドに対して基準スペクトル、基準スペクトルに対する各チャネルスペクトルの位相差、基準スペクトルのサイズに対する各チャネルスペクトルのサイズの比率に該当する利得値及び残差スペクトルを含むか、または少なくとも一つのチャネルスペクトルを含むことができる。ここで、基準スペクトルは、例えば、N個のチャネル信号から生成されたN個のチャネル信号を符号化する基準になる基準信号を変換したスペクトルをいい、残差スペクトルは、計算された位相差と利得値とを選択された基準スペクトルに適用することで、予測されたスペクトルと実際チャネルスペクトルとの誤差に該当するスペクトルをいう。
次いで、第400段階で逆多重化した基準スペクトル、位相差、利得値及び残差スペクトルを無損失復号化するか、少なくとも一つのチャネルスペクトルを無損失復号化できる(第410段階)。
次いで、無損失復号化した基準スペクトルを逆量子化できる(第420段階)。
次いで、逆量子化した基準スペクトルを、第1逆変換により周波数ドメインから時間ドメインに逆変換して基準信号を生成できる(第425段階)。ここで、第1逆変換の例としては、複素数変換で実数部に該当するMDCTでありうる。
次いで、第425段階後に、少なくとも一つのチャネル信号に対してマルチチャネルの符号化過程で予測の正確度が低いと判断して、マルチチャネル信号で少なくとも一つのチャネル信号が個別的に符号化したかどうかを判断できる(第427段階)
もし、第427段階で、マルチチャネル信号で少なくとも一つのチャネル信号が個別的に符号化されていないと判断されれば、第425段階で逆変換された基準信号を、第2変換により時間ドメインから周波数ドメインに変換できる(第430段階)。ここで、第2変換の例としては、複素数変換で虚数部に該当するMDSTでありうる。しかし、前述したように、第425段階で、第1逆変換により逆変換された基準信号を第430段階で再び第2変換により変換するので、出力以前に1フレームが遅延される。
次いで、第410段階で復号化した各チャネルスペクトルの位相差を逆量子化することができる(第435段階)。第435段階では位相差を、例えば、ユニホームスケールで逆量子化できる。
次いで、第410段階で復号化した各チャネルスペクトルの利得値を逆量子化することができる(第440段階)。第440段階では利得値を、例えば、ログスケールまたはユニホームスケールで逆量子化できる。
次いで、第410段階で復号化した各チャネルスペクトルに対する残差スペクトルを逆量子化できる(第445段階)。
第420段階で逆量子化し、かつ第430段階で変換することで各チャネル信号の大きさと位相とをいずれも表現できる基準スペクトルに、第435段階で逆量子化した位相差、第440段階で逆量子化した利得値、及び第445段階で逆量子化した残差スペクトルを適用して各チャネルスペクトルを復元できる(第450段階)。言い換えれば、第450段階では、位相差ほど基準スペクトルの位相を移動させて利得値の割合で基準スペクトルのサイズを調節した後、残差スペクトルを加算することで各チャネルスペクトルを復元できる。しかし、第430段階で1フレームが遅延されるので、第450段階では、1フレームを遅延して行い始める。
次いで、第450段階で復元された各チャネルスペクトルを時間ドメインに逆変換できる(第460段階)。
もし、第427段階で、マルチチャネル信号で少なくとも一つのチャネル信号が個別的に符号化していないと判断されれば、例えば、少なくとも一つのチャネル信号の符号化過程で、位相差と利得値とを基準スペクトルに適用して予測されたスペクトルが実際チャネルスペクトルに対して正確に予測されないと判断されるため、位相差、利得値及び残差スペクトルを符号化する代わりに各チャネルスペクトルを逆量子化できる(第455段階)。
次いで、第450段階で復元された各チャネルスペクトルまたは第455段階で逆量子化した各チャネルスペクトルを時間ドメインに逆変換してマルチチャネル信号を生成できる(第460段階)。
次いで、第420段階で逆量子化した基準スペクトルと、第460段階で逆変換されたマルチチャネル信号とに対して後処理過程を行うことで、最終的にマルチチャネル信号を出力できる(第470段階)。ここで、後処理過程は、例えば、図3の第300段階で行われた演算の逆過程でありうる。第427段階で、マルチチャネルの符号化方法で個別的に符号化したマルチチャネル信号に該当しないと判断されたマルチチャネル信号に対して、第470段階では、第425段階で逆変換されて1フレームが遅延された基準信号と、第460段階で逆変換されたマルチチャネル信号とを対象に第470段階が行われうる。なぜなら、第427段階で、マルチチャネルの符号化方法で個別的に符号化したマルチチャネル信号に該当しないと判断されたマルチチャネル信号は、第430段階で1フレームが遅延されるため、1フレームを遅延させた後に第470段階が行われうる。
一つ以上の実施形態についての説明を容易にするために、信号は時間ドメインで表現されたデータであり、スペクトルは周波数ドメインで表現されたデータであると区別して説明したが、一般的に信号は、スペクトルを含む概念でありうる。
前述した実施形態に付加して、一つ以上の実施形態は、前記の実施形態を具現するために、少なくとも一つのプロセッシングデバイスを制御するために媒体、例えば、コンピュータで読み取り可能な媒体に存在するコンピュータで読み取り可能なコード/命令語で具現できる。前記媒体は、コンピュータで読み取り可能なコードの保存及び/または伝送可能に定義され、測定可能で実体的な構造に該当する。
また、前記媒体は、例えば、コンピュータで読み取り可能なコードと結合してデータファイル、データ構造などを含むことができる。コンピュータで読み取り可能な媒体の例には、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROMディスク及びDVDのような光学媒体、光学ディスクのような磁気光学媒体、特別にROM、RAM、フラッシュメモリなどのプログラム命令語を保存して行えるように構成されたハードウェアデバイスなどを含む。コンピュータで読み取り可能なコードの例には、コンパイラーにより生成されたマシンコードと、例えば、インタープリターを使用してコンピュータで実行できるハイレベルコードを含む。また前記媒体は分散ネットワークであり、この場合、コンピュータで読み取り可能なコードは、分散方式で保存されて行われる。また、単に例として、プロセッシングエレメントはプロセッサーあるいはコンピュータプロセッサーを含むことができ、プロセッシングエレメントは単一デバイスに分散及び/または含まれうる。
理解を助けるために図面に図示された実施形態を参考として説明されたが、これは例示的なものに過ぎず、当業者ならばこれより多様な変形及び均等な他の実施形態が可能であるという点を理解できるであろう。したがって、本発明の実施形態の真の技術的保護範囲は特許請求の範囲により定められねばならない。
100 先処理部
110 変換部
120 基準スペクトル量子化部
130 位相差計算部
135 位相差量子化部
140 利得値計算部
145 利得値量子化部
150 残差スペクトル抽出部
155 残差スペクトル量子化部
160 予測検査部
170 マルチチャネル量子化部
180 無損失符号化部
190 多重化部
200 逆多重化部
210 無損失復号化部
220 基準スペクトル逆量子化部
225 第1逆変換部
230 変換部
235 位相差逆量子化部
240 利得値逆量子化部
245 残差スペクトル逆量子化部
250 マルチチャネル・スペクトル復元部
255 第2逆変換部
160 予測検査部
270 後処理部量子化部

Claims (6)

  1. 受信されたビットストリームからマルチチャネル信号を復号化する装置であって:
    前記ビットストリームから、マルチチャネル信号を構成する複数のチャネル信号を処理することにより生成されたモノラル信号を復号化する第1の復号化部と、
    前記ビットストリームから残差符号化が適用されたかを判断し、判断結果に対応して前記複数のチャネル信号の間の位相差を表すパラメータを復号化し、前記複数のチャネル信号の間の特性関係を表すパラメータを復号化する第2の復号化部 と、
    前記残差符号化が適用された場合、前記ビットストリームから、前記複数のチャネル信号に関する残差信号を復号化する第3の復号化部と、
    前記複数のチャネル信号間に関して位相差を表すパラメータおよび特性関係を表すパラメータを使用して、前記モノラル信号と前記残差信号とをミキシングすることにより、前記複数のチャネル信号を復元するマルチチャネル復元部と、を含むことを特徴とするマルチチャネルの復号化装置。
  2. 前記マルチチャネル復元部は、前記復号化した各位相差だけ前記モノラル信号の位相を移動させ、復号化した利得値の割合で前記モノラル信号の大きさを調節した後、前記各残差信号を加算することによって前記各チャネル信号を復元することを特徴とする請求項1に記載のマルチチャネルの復号化装置。
  3. 前記復号化したモノラル信号を周波数ドメインから時間ドメインに逆変換する逆変換部と、
    前記逆変換されたモノラル信号を前記時間ドメインから前記周波数ドメインに変換する変換部と、をさらに含むことを特徴とする請求項1に記載のマルチチャネルの復号化装置。
  4. 前記逆変換部は、前記復号化したモノラル信号にIMDCTを適用して逆変換し、
    前記変換する段階は、前記逆変換されたモノラル信号に対してMDSTを適用して変換することを特徴とする請求項3に記載のマルチチャネルの復号化装置。
  5. 前記マルチチャネル信号の符号化過程において、符号化端において予測されたチャネル信号に関する予測の正確度が低いと判断されて、マルチチャネル信号で個別的に符号化したチャネル信号を復号化する段階をさらに含むことを特徴とする請求項1に記載のマルチチャネルの復号化装置。
  6. 前記第3の復号化部は、符号化端において予測されたチャネル信号の各々に関する予測の正確度に応じて適応的に前記残差信号を復号化することを特徴とする請求項1に記載のマルチチャネルの復号化装置。
JP2014006222A 2008-07-11 2014-01-16 マルチチャネルの復号化装置 Active JP5922684B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2008-0067815 2008-07-11
KR1020080067815A KR101428487B1 (ko) 2008-07-11 2008-07-11 멀티 채널 부호화 및 복호화 방법 및 장치

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011517358A Division JP5462256B2 (ja) 2008-07-11 2009-07-13 マルチチャネルの符号化及び復号化方法並びに装置

Publications (2)

Publication Number Publication Date
JP2014063202A JP2014063202A (ja) 2014-04-10
JP5922684B2 true JP5922684B2 (ja) 2016-05-24

Family

ID=41507604

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2011517358A Active JP5462256B2 (ja) 2008-07-11 2009-07-13 マルチチャネルの符号化及び復号化方法並びに装置
JP2014006222A Active JP5922684B2 (ja) 2008-07-11 2014-01-16 マルチチャネルの復号化装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2011517358A Active JP5462256B2 (ja) 2008-07-11 2009-07-13 マルチチャネルの符号化及び復号化方法並びに装置

Country Status (6)

Country Link
US (1) US20100014679A1 (ja)
EP (1) EP2312851A4 (ja)
JP (2) JP5462256B2 (ja)
KR (1) KR101428487B1 (ja)
CN (1) CN102144392A (ja)
WO (1) WO2010005272A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9943879B2 (en) 2014-10-06 2018-04-17 Edgewell Personal Care Brands, Llc Method of shaping a surface coating on a razor blade

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2345027B1 (en) * 2008-10-10 2018-04-18 Telefonaktiebolaget LM Ericsson (publ) Energy-conserving multi-channel audio coding and decoding
EP2486567A1 (en) * 2009-10-09 2012-08-15 Dolby Laboratories Licensing Corporation Automatic generation of metadata for audio dominance effects
EP2369861B1 (en) * 2010-03-25 2016-07-27 Nxp B.V. Multi-channel audio signal processing
JP5604933B2 (ja) * 2010-03-30 2014-10-15 富士通株式会社 ダウンミクス装置およびダウンミクス方法
CA3076786C (en) 2010-04-09 2021-04-13 Dolby International Ab Mdct-based complex prediction stereo coding
KR101430118B1 (ko) * 2010-04-13 2014-08-18 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 오디오 또는 비디오 인코더, 오디오 또는 비디오 디코더 그리고 가변적인 예상 방향을 이용하여 멀티-채널 오디오 또는 비디오 신호들을 프로세싱하기 위한 관련 방법들
JP2011257575A (ja) * 2010-06-09 2011-12-22 Cri Middleware Co Ltd 音声処理装置、音声処理方法、プログラムおよび記録媒体
MX2013002188A (es) * 2010-08-25 2013-03-18 Fraunhofer Ges Forschung Aparato para generar una señal decorrelacionada utilizando informacion de fase transmitida.
US9219972B2 (en) 2010-11-19 2015-12-22 Nokia Technologies Oy Efficient audio coding having reduced bit rate for ambient signals and decoding using same
KR101943049B1 (ko) * 2011-06-30 2019-01-29 에스케이텔레콤 주식회사 영상 부호화/복호화 방법 및 장치
JP6267860B2 (ja) * 2011-11-28 2018-01-24 三星電子株式会社Samsung Electronics Co.,Ltd. 音声信号送信装置、音声信号受信装置及びその方法
JP6051621B2 (ja) * 2012-06-29 2016-12-27 富士通株式会社 オーディオ符号化装置、オーディオ符号化方法、オーディオ符号化用コンピュータプログラム、及びオーディオ復号装置
KR102204136B1 (ko) 2012-08-22 2021-01-18 한국전자통신연구원 오디오 부호화 장치 및 방법, 오디오 복호화 장치 및 방법
WO2014030938A1 (ko) * 2012-08-22 2014-02-27 한국전자통신연구원 오디오 부호화 장치 및 방법, 오디오 복호화 장치 및 방법
US9955278B2 (en) * 2014-04-02 2018-04-24 Dolby International Ab Exploiting metadata redundancy in immersive audio metadata
US10109284B2 (en) * 2016-02-12 2018-10-23 Qualcomm Incorporated Inter-channel encoding and decoding of multiple high-band audio signals
DE102016206327A1 (de) 2016-04-14 2017-10-19 Sivantos Pte. Ltd. Verfahren zum Übertragen eines Audiosignals von einem Sender zu einem Empfänger
DE102016206985A1 (de) 2016-04-25 2017-10-26 Sivantos Pte. Ltd. Verfahren zum Übertragen eines Audiosignals
EP3467824B1 (en) * 2017-10-03 2021-04-21 Dolby Laboratories Licensing Corporation Method and system for inter-channel coding
CN114708874A (zh) 2018-05-31 2022-07-05 华为技术有限公司 立体声信号的编码方法和装置
CN112599133A (zh) * 2020-12-15 2021-04-02 北京百度网讯科技有限公司 基于车辆的语音处理方法、语音处理器、车载处理器
CN117476021A (zh) * 2022-07-27 2024-01-30 华为技术有限公司 量化方法、反量化方法及其装置

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5703999A (en) * 1992-05-25 1997-12-30 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Process for reducing data in the transmission and/or storage of digital signals from several interdependent channels
US6263312B1 (en) * 1997-10-03 2001-07-17 Alaris, Inc. Audio compression and decompression employing subband decomposition of residual signal and distortion reduction
CN1266673C (zh) * 2002-03-12 2006-07-26 诺基亚有限公司 可伸缩音频编码的有效改进
US7542896B2 (en) * 2002-07-16 2009-06-02 Koninklijke Philips Electronics N.V. Audio coding/decoding with spatial parameters and non-uniform segmentation for transients
EP1595247B1 (en) * 2003-02-11 2006-09-13 Koninklijke Philips Electronics N.V. Audio coding
US7519538B2 (en) 2003-10-30 2009-04-14 Koninklijke Philips Electronics N.V. Audio signal encoding or decoding
US6980933B2 (en) * 2004-01-27 2005-12-27 Dolby Laboratories Licensing Corporation Coding techniques using estimated spectral magnitude and phase derived from MDCT coefficients
EP2065885B1 (en) 2004-03-01 2010-07-28 Dolby Laboratories Licensing Corporation Multichannel audio decoding
BRPI0509100B1 (pt) * 2004-04-05 2018-11-06 Koninl Philips Electronics Nv Codificador de multicanal operável para processar sinais de entrada, método paracodificar sinais de entrada em um codificador de multicanal
CN1973320B (zh) * 2004-04-05 2010-12-15 皇家飞利浦电子股份有限公司 立体声编码和解码的方法及其设备
BRPI0509113B8 (pt) * 2004-04-05 2018-10-30 Koninklijke Philips Nv codificador de multicanal, método para codificar sinais de entrada, conteúdo de dados codificados, portador de dados, e, decodificador operável para decodificar dados de saída codificados
SE0400997D0 (sv) * 2004-04-16 2004-04-16 Cooding Technologies Sweden Ab Efficient coding of multi-channel audio
WO2005112002A1 (ja) * 2004-05-19 2005-11-24 Matsushita Electric Industrial Co., Ltd. オーディオ信号符号化装置及びオーディオ信号復号化装置
CN1973319B (zh) * 2004-06-21 2010-12-01 皇家飞利浦电子股份有限公司 编码和解码多通道音频信号的方法和设备
US20060015329A1 (en) * 2004-07-19 2006-01-19 Chu Wai C Apparatus and method for audio coding
JP4794448B2 (ja) * 2004-08-27 2011-10-19 パナソニック株式会社 オーディオエンコーダ
SE0402649D0 (sv) * 2004-11-02 2004-11-02 Coding Tech Ab Advanced methods of creating orthogonal signals
SE0402652D0 (sv) * 2004-11-02 2004-11-02 Coding Tech Ab Methods for improved performance of prediction based multi- channel reconstruction
JP5238256B2 (ja) * 2004-11-04 2013-07-17 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 多チャンネル音声信号の符号化及び復号化
MX2007005261A (es) * 2004-11-04 2007-07-09 Koninkl Philips Electronics Nv Codificacion y descodificacion de un conjunto de senales.
EP1818911B1 (en) * 2004-12-27 2012-02-08 Panasonic Corporation Sound coding device and sound coding method
US7573912B2 (en) * 2005-02-22 2009-08-11 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschunng E.V. Near-transparent or transparent multi-channel encoder/decoder scheme
KR100707186B1 (ko) * 2005-03-24 2007-04-13 삼성전자주식회사 오디오 부호화 및 복호화 장치와 그 방법 및 기록 매체
ES2623551T3 (es) * 2005-03-25 2017-07-11 Iii Holdings 12, Llc Dispositivo de codificación de sonido y procedimiento de codificación de sonido
US7751572B2 (en) * 2005-04-15 2010-07-06 Dolby International Ab Adaptive residual audio coding
US20090210219A1 (en) * 2005-05-30 2009-08-20 Jong-Mo Sung Apparatus and method for coding and decoding residual signal
KR100803205B1 (ko) * 2005-07-15 2008-02-14 삼성전자주식회사 저비트율 오디오 신호 부호화/복호화 방법 및 장치
US7539612B2 (en) * 2005-07-15 2009-05-26 Microsoft Corporation Coding and decoding scale factor information
JP5171256B2 (ja) * 2005-08-31 2013-03-27 パナソニック株式会社 ステレオ符号化装置、ステレオ復号装置、及びステレオ符号化方法
BRPI0706488A2 (pt) * 2006-02-23 2011-03-29 Lg Electronics Inc método e aparelho para processar sinal de áudio
US8571875B2 (en) * 2006-10-18 2013-10-29 Samsung Electronics Co., Ltd. Method, medium, and apparatus encoding and/or decoding multichannel audio signals
KR101434198B1 (ko) * 2006-11-17 2014-08-26 삼성전자주식회사 신호 복호화 방법
WO2009038512A1 (en) * 2007-09-19 2009-03-26 Telefonaktiebolaget Lm Ericsson (Publ) Joint enhancement of multi-channel audio

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9943879B2 (en) 2014-10-06 2018-04-17 Edgewell Personal Care Brands, Llc Method of shaping a surface coating on a razor blade

Also Published As

Publication number Publication date
EP2312851A2 (en) 2011-04-20
JP2014063202A (ja) 2014-04-10
KR101428487B1 (ko) 2014-08-08
WO2010005272A3 (ko) 2010-04-15
CN102144392A (zh) 2011-08-03
US20100014679A1 (en) 2010-01-21
JP2011527763A (ja) 2011-11-04
JP5462256B2 (ja) 2014-04-02
KR20100007256A (ko) 2010-01-22
EP2312851A4 (en) 2012-06-20
WO2010005272A2 (ko) 2010-01-14

Similar Documents

Publication Publication Date Title
JP5922684B2 (ja) マルチチャネルの復号化装置
JP5485909B2 (ja) オーディオ信号処理方法及び装置
KR101452722B1 (ko) 신호 부호화 및 복호화 방법 및 장치
JP6704037B2 (ja) 音声符号化装置および方法
EP2250572B1 (en) Lossless multi-channel audio codec using adaptive segmentation with random access point (rap) capability
RU2680352C1 (ru) Способ и устройство для определения режима кодирования, способ и устройство для кодирования аудиосигналов и способ и устройство для декодирования аудиосигналов
JP6474845B2 (ja) 軽減された計算量の変換器snr計算
US8515770B2 (en) Method and apparatus for encoding and decoding excitation patterns from which the masking levels for an audio signal encoding and decoding are determined
JP2013506164A (ja) オーディオ信号デコーダ、オーディオ信号エンコーダ、アップミックス信号表現の生成方法、ダウンミックス信号表現の生成方法、コンピュータプログラム、及び共通するオブジェクト間相関パラメータ値を用いるビットストリーム
US20100268542A1 (en) Apparatus and method of audio encoding and decoding based on variable bit rate
EP3405950B1 (en) Stereo audio coding with ild-based normalisation prior to mid/side decision
JP4685165B2 (ja) 仮想音源位置情報に基づいたチャネル間レベル差量子化及び逆量子化方法
JP5511848B2 (ja) 音声符号化装置および音声符号化方法
WO2012004998A1 (ja) スペクトル係数コーディングの量子化パラメータを効率的に符号化する装置及び方法
KR101102016B1 (ko) 오디오 인코딩에서 짧은 윈도우를 그룹화하는 방법
Muin et al. A review of lossless audio compression standards and algorithms
EP2770505B1 (en) Audio coding device and method
KR20060079119A (ko) 공간정보기반 오디오 부호화를 위한 채널간 에너지비 추정및 양자화 방법
JP2008026372A (ja) 符号化データの符号化則変換方法および装置
KR20140037118A (ko) 오디오 신호 처리방법, 오디오 부호화장치, 오디오 복호화장치, 및 이를 채용하는 단말기
KR101449432B1 (ko) 신호 부호화 및 복호화 방법 및 장치
Li et al. Efficient stereo bitrate allocation for fully scalable audio codec

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150210

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160414

R150 Certificate of patent or registration of utility model

Ref document number: 5922684

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250