JP7491376B2 - 音信号符号化方法、音信号符号化装置、プログラム及び記録媒体 - Google Patents
音信号符号化方法、音信号符号化装置、プログラム及び記録媒体 Download PDFInfo
- Publication number
- JP7491376B2 JP7491376B2 JP2022531301A JP2022531301A JP7491376B2 JP 7491376 B2 JP7491376 B2 JP 7491376B2 JP 2022531301 A JP2022531301 A JP 2022531301A JP 2022531301 A JP2022531301 A JP 2022531301A JP 7491376 B2 JP7491376 B2 JP 7491376B2
- Authority
- JP
- Japan
- Prior art keywords
- signal
- encoding
- section
- additional
- code
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000005236 sound signal Effects 0.000 title claims description 257
- 238000000034 method Methods 0.000 title claims description 118
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 claims description 12
- 238000012545 processing Methods 0.000 description 95
- 238000010586 diagram Methods 0.000 description 15
- 230000002238 attenuated effect Effects 0.000 description 11
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000013139 quantization Methods 0.000 description 4
- 230000003111 delayed effect Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/022—Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/56—Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
- H04M3/568—Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities audio processing specific to telephonic conferencing, e.g. spatial distribution, mixing of participants
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
- G10L19/24—Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Mathematical Physics (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Stereophonic System (AREA)
Description
第1実施形態の符号化装置と復号装置について説明する。
第1実施形態の符号化装置100は、図1に示す通り、ステレオ符号化部110とモノラル符号化部120と追加符号化部130を含む。符号化装置100は、例えば20msの所定の時間長のフレーム単位で、入力された2チャネルステレオの時間領域の音信号(2チャネルステレオ入力音信号)を符号化して、後述するステレオ符号CSとモノラル符号CMと追加符号CAを得て出力する。符号化装置100に入力される2チャネルステレオ入力音信号は、例えば、音声や音楽などの音を2個のマイクロホンそれぞれで収音してAD変換して得られたディジタルの音声信号又は音響信号であり、第1チャネルである左チャネルの入力音信号と第2チャネルである右チャネルの入力音信号から成る。符号化装置100が出力する符号、すなわち、ステレオ符号CSとモノラル符号CMと追加符号CA、は後述する復号装置200へ入力される。符号化装置100は、各フレーム単位で、すなわち、上記の所定の時間長分の2チャネルステレオ入力音信号が入力されるごとに、図2に例示するステップS111とステップS121とステップS131の処理を行う。上述した例であれば、符号化装置100は、t3からt7までの20ms分の2チャネルステレオ入力音信号が入力されると、現在のフレームについてのステップS111とステップS121とステップS131の処理を行う。
ステレオ符号化部110は、符号化装置100に入力された2チャネルステレオ入力音信号から、入力された2個のチャネルの音信号の差分の特徴を表すパラメータである特徴パラメータを表すステレオ符号CSと、2個のチャネルの音信号を混合した信号であるダウンミックス信号と、を得て出力する(ステップS111)。
ステレオ符号化部110の例として、入力された2個のチャネルの音信号の周波数帯域ごとの強度差を表す情報を特徴パラメータとする場合のステレオ符号化部110のフレームごとの動作を説明する。なお、以下では複素DFT(Discrete Fourier Transformation)を用いる具体例を説明しているが、複素DFT以外の周知の周波数領域への変換手法を用いてもよい。なお、サンプルの個数が2のべき乗ではないサンプル列を周波数領域に変換する場合には、サンプルの個数が2のべき乗となるようにゼロ詰めをしたサンプル列を用いるなどの周知技術を用いればよい。
モノラル符号化部120には、ステレオ符号化部110が出力したダウンミックス信号が入力される。符号化装置100がダウンミックス部150を備える場合には、モノラル符号化部120には、ダウンミックス部150が出力したダウンミックス信号が入力される。モノラル符号化部120は、ダウンミックス信号を所定の符号化方式で符号化してモノラル符号CMを得て出力する(ステップS121)。符号化方式としては、例えば非特許文献2の3GPP EVS規格(3GPP TS26.445)の13.2kbpsモードのような、フレーム間でオーバーラップのある窓をかける処理が含まれる符号化方式を用いる。上述した例であれば、モノラル符号化部120は、現在のフレームの処理においては、ダウンミックス信号である信号1aに、現在のフレームと直前のフレームとがオーバーラップするt1からt2までの区間は増加する形、現在のフレームと直後のフレームとがオーバーラップするt5からt6までの区間は減衰する形、これらの区間の間にあるt2からt5までの区間は平坦な形の窓をかけて得たt1からt6までの区間の信号である信号1bを、「先読み区間」である信号1aのt6からt7までの区間も分析処理に用いて符号化してモノラル符号CMを得て出力する。
追加符号化部130には、ステレオ符号化部110が出力したダウンミックス信号が入力される。符号化装置100がダウンミックス部150を備える場合には、追加符号化部130には、ダウンミックス部150が出力したダウンミックス信号が入力される。追加符号化部130は、入力されたダウンミックス信号のうちの区間Xのダウンミックス信号を符号化して追加符号CAを得て出力する(ステップS131)。上述した例であれば、追加符号化部130は、t5からt6までの区間のダウンミックス信号である信号5cを符号化して追加符号CAを得て出力する。符号化には周知のスカラ量子化やベクトル量子化などの符号化方式を用いればよい。
第1実施形態の復号装置200は、図3に示す通り、モノラル復号部210と追加復号部230とステレオ復号部220を含む。復号装置200は、符号化装置100と同じ所定の時間長のフレーム単位で、入力されたモノラル符号CMと追加符号CAとステレオ符号CSを復号して2チャネルステレオの時間領域の音信号(2チャネルステレオ復号音信号)を得て出力する。復号装置200に入力される符号、すなわち、モノラル符号CMと追加符号CAとステレオ符号CS、は符号化装置100が出力したものである。復号装置200は、各フレーム単位で、すなわち、上述した所定の時間長の間隔で、モノラル符号CMと追加符号CAとステレオ符号CSが入力されるごとに、図4に例示するステップS211とステップS221とステップS231の処理を行う。上述した例であれば、復号装置200は、直前のフレームについての処理を行ったt3から20ms経過したt7の時点で、現在のフレームのモノラル符号CMと追加符号CAとステレオ符号CSが入力されると、現在のフレームについてのステップS211とステップS221とステップS231の処理を行う。なお、図3に破線で示す通り、復号装置200は、必要な場合にはモノラルの時間領域の音信号であるモノラル復号音信号も出力する。
モノラル復号部210には、復号装置200に入力された符号に含まれるモノラル符号CMが入力される。モノラル復号部210は、入力されたモノラル符号CMを用いて区間Yのモノラル復号音信号を得て出力する(ステップS211)。所定の復号方式としては、符号化装置100のモノラル符号化部120が用いた符号化方式に対応する復号方式を用いる。上述した例であれば、モノラル復号部210は、現在のフレームのモノラル符号CMを所定の復号方式で復号して、t1からt2までの3.25msの区間が増加する形であり、t2からt5までの16.75msの区間が平坦であり、t5からt6までの3.25msの区間が減衰する形の窓がけがされたt1からt6までの23.25msの区間の信号2aを得て、t1からt2までの区間については直前のフレームの処理で直前のフレームのモノラル符号CMから得た信号2bと現在のフレームのモノラル符号CMから得た信号2aとを合成し、t2からt5までの区間については現在のフレームのモノラル符号CMから得た信号2aをそのまま用いることで、t1からt5まで20msの区間のモノラル復号音信号である信号2dを得て出力する。なお、現在のフレームのモノラル符号CMから得たt5からt6までの区間の信号2aは直後のフレームの処理で「直前のフレームの処理で得られた信号2b」として用いられるので、モノラル復号部210は、現在のフレームのモノラル符号CMから得たt5からt6までの区間の信号2aをモノラル復号部210内の図示しない記憶部に記憶する。
追加復号部230には、復号装置200に入力された符号に含まれる追加符号CAが入力される。追加復号部230は、追加符号CAを復号して区間Xのモノラルの復号音信号である追加復号信号を得て出力する(ステップS231)。復号には、追加符号化部130が用いた符号化方式に対応する復号方式を用いる。上述した例であれば、追加復号部230は、現在のフレームの追加符号CAを復号してt5からt6までの3.25msの区間のモノラル復号音信号である信号4bを得て出力する。
ステレオ復号部220には、モノラル復号部210が出力したモノラル復号音信号と、追加復号部230が出力した追加復号信号と、復号装置200に入力された符号に含まれるステレオ符号CSと、が入力される。ステレオ復号部220は、入力されたモノラル復号音信号と追加復号信号とステレオ符号CSとから、2個のチャネルの復号音信号であるステレオ復号音信号を得て出力する(ステップS221)。より詳しくは、ステレオ復号部220は、区間Yのモノラル復号音信号と区間Xの追加復号信号とを連結した信号である区間Y+X(すなわち、区間Yと区間Xを連結した区間)の復号ダウンミックス信号を得て(ステップS221-1)、ステレオ符号CSから得られる特徴パラメータを用いたアップミックス処理によりステップS221-1で得た復号ダウンミックス信号から2個のチャネルの復号音信号を得て出力する(ステップS221-2)。後述する各実施形態でも同様であるが、アップミックス処理とは、復号ダウンミックス信号が2個のチャネルの復号音信号が混合された信号であると見做し、ステレオ符号CSから得られる特徴パラメータが2個のチャネルの復号音信号の差分の特徴を表す情報であると見做して、2個のチャネルの復号音信号を得る処理である。上述した例であれば、まず、ステレオ復号部220は、モノラル復号部210が出力したt1からt5までの20msの区間のモノラル復号音信号(信号2d、信号3aのt1からt5までの区間)と、追加復号部230が出力したt5からt6までの3.25msの区間の追加復号信号(信号4b)とを連結して、t1からt6までの23.25msの区間の復号ダウンミックス信号(信号4cのt1からt6までの区間)を得る。次に、ステレオ復号部220は、t1からt6までの区間の復号ダウンミックス信号が2個のチャネルの復号音信号が混合された信号であると見做し、ステレオ符号CSから得られる特徴パラメータが2個のチャネルの復号音信号の差分の特徴を表す情報であると見做して、t1からt5までの20msの区間の2個のチャネルの復号音信号(信号4h-1と信号4h-2)を得て出力する。
ステレオ復号部220が行うステップS221-2の例として、特徴パラメータが2個のチャネルの音信号の周波数帯域ごとの強度差を表す情報である場合のステレオ復号部220が行うステップS221-2について説明する。ステレオ復号部220は、まず、入力されたステレオ符号CSを復号して周波数帯域ごとの強度差を表す情報を得る(S221-21)。ステレオ復号部220は、符号化装置100のステレオ符号化部110が周波数帯域ごとの強度差を表す情報からステレオ符号CSを得た方式に対応する方式で、ステレオ符号CSから特徴パラメータを得る。例えば、ステレオ復号部220は、入力されたステレオ符号CSをベクトル復号して、入力されたステレオ符号CSに対応するベクトルの各要素値を複数個の周波数帯域ごとの強度差を表す情報として得る。または、例えば、ステレオ復号部220は、入力されたステレオ符号CSに含まれる符号それぞれをスカラ復号して周波数帯域ごとの強度差を表す情報を得る。なお、帯域数が1の場合には、ステレオ復号部220は、入力されたステレオ符号CSをスカラ復号して1つの周波数帯域すなわち全帯域の強度差を表す情報を得る。
モノラル復号部210でモノラル符号CMから完全なモノラル復号音信号を得られる時間区間である区間Yについてのダウンミックス信号とモノラル符号化の局部復号信号との差分も、追加符号化部130での符号化の対象としてもよい。この形態を第2実施形態として、第1実施形態と異なる点を説明する。
モノラル符号化部120は、ダウンミックス信号を所定の符号化方式で符号化してモノラル符号CMを得て出力することに加えて、モノラル符号CMを復号して得られる信号、すなわち、ダウンミックス信号の区間Yの局部復号信号であるモノラル局部復号信号も得て出力する(ステップS122)。上述した例であれば、モノラル符号化部120は、現在のフレームのモノラル符号CMを得ることに加えて、現在のフレームのモノラル符号CMに対応する局部復号信号、すなわち、t1からt2までの3.25msの区間が増加する形であり、t2からt5までの16.75msの区間が平坦であり、t5からt6までの3.25msの区間が減衰する形の窓がけがされた局部復号信号を得て、t1からt2までの区間については直前のフレームのモノラル符号CMに対応する局部復号信号と現在のフレームのモノラル符号CMに対応する局部復号信号とを合成し、t2からt5までの区間については現在のフレームのモノラル符号CMに対応する局部復号信号をそのまま用いることで、t1からt5まで20msの区間の局部復号信号を得て出力する。t1からt2までの区間の直前のフレームのモノラル符号CMに対応する局部復号信号は、モノラル符号化部120内の図示しない記憶部に記憶されている信号を用いる。現在のフレームのモノラル符号CMに対応する局部復号信号のうちのt5からt6までの区間の信号は、直後のフレームの処理で「直前のフレームのモノラル符号CMに対応する局部復号信号」として用いられるので、モノラル符号化部120は、現在のフレームのモノラル符号CMから得たt5からt6までの区間の局部復号信号をモノラル符号化部120内の図示しない記憶部に記憶する。
追加符号化部130には、ダウンミックス信号に加えて、図1に破線で示す通り、モノラル符号化部120が出力したモノラル局部復号信号も入力される。追加符号化部130は、第1実施形態の追加符号化部130で符号化の対象としていた区間Xのダウンミックス信号だけではなく、区間Yのダウンミックス信号とモノラル局部復号信号との差信号(対応するサンプル同士のサンプル値の減算により構成される信号)も符号化して、追加符号CAを得て出力する(ステップS132)。例えば、追加符号化部130は、区間Xのダウンミックス信号と区間Yの差信号のそれぞれを符号化して符号を得て、得た符号を連結したものを追加符号CAとして得ればよい。符号化には第1実施形態の追加符号化部130と同様の符号化方式を用いればよい。また例えば、追加符号化部130は、区間Yの差信号と区間Xのダウンミックス信号とを連結した信号を符号化して追加符号CAを得てもよい。また例えば、下記の[[追加符号化部130の具体例1]]のように、追加符号化部130は、区間Xのダウンミックス信号を符号化して符号(第1追加符号CA1)を得る第1追加符号化と、区間Yの差信号(すなわち、モノラル符号化部120の量子化誤差信号)と区間Xのダウンミックス信号と第1追加符号化の局部復号信号との差信号(すなわち、第1追加符号化の量子化誤差信号)とを連結した信号を符号化して符号(第2追加符号CA2)を得る第2追加符号化と、を行い、第1追加符号CA1と第2追加符号CA2を合わせたものを追加符号CAとするとよい。[[追加符号化部130の具体例1]]によれば、区間Yの差信号と区間Xのダウンミックス信号よりも2つの区間の振幅の異なりが小さいであろう信号を連結したものを符号化の対象として第2追加符号化することになり、ダウンミックス信号そのものは短い時間区間のみを符号化の対象として第1追加符号化するので、効率の良い符号化が期待できる。
追加符号化部130は、まず、入力された区間Xのダウンミックス信号を符号化して第1追加符号CA1を得て(ステップS132-1、以下では「第1追加符号化」ともいう)、第1追加符号CA1に対応する区間Xの局部復号信号、すなわち、区間Xの第1追加符号化の局部復号信号を得る(ステップS132-2)。第1追加符号化には周知のスカラ量子化やベクトル量子化などの符号化方式を用いればよい。追加符号化部130は、次に、入力された区間Xのダウンミックス信号とステップS132-2で得た区間Xの局部復号信号との差信号(対応するサンプル同士のサンプル値の減算により構成される信号)を得る(ステップS132-3)。追加符号化部130は、また、区間Yのダウンミックス信号とモノラル局部復号信号との差信号(対応するサンプル同士のサンプル値の減算により構成される信号)を得る(ステップS132-4)。追加符号化部130は、次に、ステップS132-4で得た区間Yの差信号とステップS132-3で得た区間Xの差信号とを連結した信号を符号化して第2追加符号CA2を得る(ステップS132-5、以下では「第2追加符号化」ともいう)。第2追加符号化には、ステップS132-4で得た区間Yの差信号のサンプル列とステップS132-3で得た区間Xの差信号のサンプル列とを連結したサンプル列を纏めて符号化する符号化方式、例えば、時間領域での予測を用いた符号化方式、周波数領域での振幅の偏りに適応した符号化方式、を用いる。追加符号化部130は、次に、ステップS132-1で得た第1追加符号CA1とステップS132-5で得た第2追加符号CA2を合わせたものを追加符号CAとして出力する(ステップS132-6)。
追加復号部230は、追加符号CAを復号して、第1実施形態の追加復号部230で得られる追加復号信号である区間Xの追加復号信号だけではなく、区間Yの追加復号信号も得て出力する(ステップS232)。復号には、追加符号化部130がステップS132で用いた符号化方式に対応する復号方式を用いる。すなわち、追加符号化部130がステップS132で[[追加符号化部130の具体例1]]を用いた場合には、追加復号部230は下記の[[追加復号部230の具体例1]]の処理を行う。
追加復号部230は、まず、追加符号CAに含まれる第1追加符号CA1を復号して区間Xの第1復号信号を得る(ステップS232-1、以下では「第1追加復号」ともいう)。第1追加復号には、追加符号化部130が第1追加符号化に用いた符号化方式に対応する復号方式を用いる。追加復号部230は、また、追加符号CAに含まれる第2追加符号CA2を復号して区間Yと区間Xの第2復号信号を得る(ステップS232-2、以下では「第2追加復号」ともいう)。第2追加復号には、追加符号化部130が第2追加符号化に用いた符号化方式に対応する復号方式、すなわち、符号から区間Yの追加復号信号のサンプル列と区間Xの第2復号信号のサンプル列が連結された一纏まりのサンプル列が得られる復号方式、例えば、時間領域での予測を用いた復号方式、周波数領域での振幅の偏りに適応した復号方式、を用いる。追加復号部230は、次に、ステップS232-2で得た第2復号信号のうちの区間Yの第2復号信号を区間Yの追加復号信号として得て、ステップS232-1で得た区間Xの第1復号信号とステップS232-2で得た第2復号信号のうちの区間Xの第2復号信号を加算した信号(対応するサンプル同士のサンプル値の加算により構成される信号)を区間Xの追加復号信号として得て、区間Yと区間Xの追加復号信号を出力する(ステップS232-4)。
ステレオ復号部220は、以下のステップS222-1とステップS222-2を行う(ステップS222)。ステレオ復号部220は、第1実施形態のステレオ復号部220が行ったステップS221-1に代えて、区間Yのモノラル復号音信号と区間Yの追加復号信号との和信号(対応するサンプル同士のサンプル値の加算により構成される信号)と、区間Xの追加復号信号と、を連結した信号を区間Y+Xの復号ダウンミックス信号として得て(ステップS222-1)、ステップS221-1で得た復号ダウンミックス信号に代えてステップS222-1で得た復号ダウンミックス信号を用いて、ステレオ符号CSから得られる特徴パラメータを用いたアップミックス処理によりステップS222-1で得た復号ダウンミックス信号から2個のチャネルの復号音信号を得て出力する(ステップS222-2)。
ステレオ復号部220では2個のチャネルの音信号が周波数領域で混合されたダウンミックス信号に対応する復号ダウンミックス信号を用いたほうが高音質な2個のチャネルの復号音信号を得ることができ、モノラル符号化部120では2個のチャネルの音信号が時間領域で混合された信号を符号化したほうがモノラル復号部210で高音質なモノラル復号音信号を得ることができる場合がある。このような場合には、ステレオ符号化部110は符号化装置100に入力された2個のチャネルの音信号を周波数領域で混合してダウンミックス信号を得て、モノラル符号化部120は符号化装置100に入力された2個のチャネルの音信号を時間領域で混合した信号を符号化して、追加符号化部130では2個のチャネルの音信号を周波数領域で混合した信号と時間領域で混合した信号の差分も符号化するとよい。この形態を第3実施形態として、第2実施形態と異なる点を中心に説明する。
ステレオ符号化部110は、第2実施形態のステレオ符号化部110と同様に第1実施形態で説明した動作を行うが、2個のチャネルの音信号を混合した信号であるダウンミックス信号を得る処理は、例えばステップS111-5Bのような2個のチャネルの音信号を周波数領域で混合する処理により行う(ステップS113)。すなわち、ステレオ符号化部110は、2個のチャネルの音信号を周波数領域で混合したダウンミックス信号を得る。例えば、ステレオ符号化部110は、現在のフレームの処理においては、t1からt6までの区間について、2個のチャネルの音信号を周波数領域で混合したモノラルの信号であるダウンミックス信号を得るようにすればよい。符号化装置100にダウンミックス部150も備える場合には、ステレオ符号化部110は、符号化装置100に入力された2チャネルステレオ入力音信号から入力された2個のチャネルの音信号の差分の特徴を表すパラメータである特徴パラメータを表すステレオ符号CSを得て出力し(ステップS113)、ダウンミックス部150は、符号化装置100に入力された2チャネルステレオ入力音信号から2個のチャネルの音信号を周波数領域で混合した信号であるダウンミックス信号を得て出力する(ステップS153)。
第3実施形態の符号化装置100は、図1に一点鎖線で示すように、モノラル符号化対象信号生成部140も含む。モノラル符号化対象信号生成部140には、符号化装置100に入力された2チャネルステレオ入力音信号が入力される。モノラル符号化対象信号生成部140は、入力された2チャネルステレオ入力音信号から、2個のチャネルの音信号を時間領域で混合する処理によってモノラルの信号であるモノラル符号化対象信号を得る(ステップS143)。例えば、モノラル符号化対象信号生成部140は、第1チャネルの音信号のサンプル列と第2チャネルの音信号のサンプル列との対応するサンプル同士の平均値による系列を、2個のチャネルの音信号を混合した信号であるモノラル符号化対象信号として得る。すなわち、モノラル符号化対象信号生成部140が得るモノラル符号化対象信号は、2個のチャネルの音信号を時間領域で混合した信号である。例えば、モノラル符号化対象信号生成部140は、現在のフレームの処理においては、t3からt7までの20msについて、2個のチャネルの音信号を時間領域で混合したモノラルの信号であるモノラル符号化対象信号を得るようにすればよい。
モノラル符号化部120には、ステレオ符号化部110またはダウンミックス部150が出力したダウンミックス信号に代えて、モノラル符号化対象信号生成部140が出力したモノラル符号化対象信号が入力される。モノラル符号化部120は、モノラル符号化対象信号を符号化してモノラル符号CMを得て出力する(ステップS123)。例えば、モノラル符号化部120は、現在のフレームの処理においては、モノラル符号化対象信号に、現在のフレームと直前のフレームとがオーバーラップするt1からt2までの区間は増加する形、現在のフレームと直後のフレームとがオーバーラップするt5からt6までの区間は減衰する形、これらの区間の間にあるt2からt5までの区間は平坦な形の窓をかけて得たt1からt6までの区間の信号を、「先読み区間」であるモノラル符号化対象信号のt6からt7までの区間も分析処理に用いて符号化してモノラル符号CMを得て出力する。
追加符号化部130は、第2実施形態の追加符号化部130と同様に、区間Yのダウンミックス信号とモノラル局部復号信号との差信号または重み付き差信号(対応するサンプル同士のサンプル値の減算または重み付き減算により構成される信号)と区間Xのダウンミックス信号とを符号化して、追加符号CAを得て出力する(ステップS133)。ただし、区間Yのダウンミックス信号は2個のチャネルの音信号を周波数領域で混合した信号であり、区間Yのモノラル局部復号信号は2個のチャネルの音信号を時間領域で混合した信号を局部復号した信号である。
モノラル復号部210は、第2実施形態のモノラル復号部210と同様に、モノラル符号CMを用いて区間Yのモノラル復号音信号を得て出力する(ステップS213)。ただし、第3実施形態のモノラル復号部120が得たモノラル復号音信号は、2個のチャネルの音信号を時間領域で混合した信号の復号信号である。
追加復号部230は、第2実施形態の追加復号部230と同様に、追加符号CAを復号して、区間Yと区間Xの追加復号信号を得て出力する(ステップS233)。ただし、区間Yの追加復号信号には、2個のチャネルの音信号を時間領域で混合した信号とモノラル復号音信号との差分と、2個のチャネルの音信号を周波数領域で混合した信号と2個のチャネルの音信号を時間領域で混合した信号との差分と、が含まれる。
ステレオ復号部220は、以下のステップS223-1とステップS223-2を行う(ステップS223)。ステレオ復号部220は、第2実施形態の追加復号部230と同様に、区間Yのモノラル復号音信号と区間Yの追加復号信号との和信号または重み付き和信号(対応するサンプル同士のサンプル値の加算または重み付き加算により構成される信号)と、区間Xの追加復号信号と、を連結した信号を区間Y+Xの復号ダウンミックス信号として得て(ステップS223-1)、ステレオ符号CSから得られる特徴パラメータを用いたアップミックス処理によりステップS223-1で得た復号ダウンミックス信号から2個のチャネルの復号音信号を得て出力する(ステップS223-2)。ただし、区間Yの和信号には、2個のチャネルの音信号を時間領域で混合した信号をモノラル符号化/復号して得たモノラル復号音信号と、2個のチャネルの音信号を時間領域で混合した信号とモノラル復号音信号との差分と、2個のチャネルの音信号を周波数領域で混合した信号と2個のチャネルの音信号を時間領域で混合した信号との差分と、が含まれる。
区間Xについては、モノラル符号化部120やモノラル復号部210では、直後のフレームの信号や符号がないと正しい局部復号信号や復号信号を得られないものの、現在のフレームまでの信号や符号だけでも不完全な局部復号信号や復号信号は得られる。そこで、第1から第3の各実施形態を、区間Xについて、ダウンミックス信号そのものではなく、ダウンミックス信号と現在のフレームまでの信号から得たモノラル局部復号信号との差分を追加符号化部130で符号化するように変更してもよい。この形態を第4実施形態として説明する。
まず、第2実施形態を変更した第4実施形態である第4実施形態Aについて、第2実施形態と異なる点を中心に説明する。
モノラル符号化部120には、第2実施形態のモノラル符号化部120と同様に、ステレオ符号化部110またはダウンミックス部150が出力したダウンミックス信号が入力される。モノラル符号化部120は、ダウンミックス信号を符号化して得られるモノラル符号CMと、現在のフレームまでのモノラル符号CMを復号して得られる信号、すなわち、区間Y+Xのダウンミックス信号の局部復号信号であるモノラル局部復号信号と、を得て出力する(ステップS124)。より具体的には、モノラル符号化部120は、現在のフレームのモノラル符号CMを得ることに加えて、現在のフレームのモノラル符号CMに対応する局部復号信号、すなわち、t1からt2までの3.25msの区間が増加する形であり、t2からt5までの16.75msの区間が平坦であり、t5からt6までの3.25msの区間が減衰する形の窓がけがされた局部復号信号を得て、t1からt2までの区間については直前のフレームのモノラル符号CMに対応する局部復号信号と現在のフレームのモノラル符号CMに対応する局部復号信号とを合成し、t2からt6までの区間については現在のフレームのモノラル符号CMに対応する局部復号信号をそのまま用いることで、t1からt6まで23.25msの区間の局部復号信号を得て出力する。ただし、t5からt6までの区間の局部復号信号は、直後のフレームの処理で得られる増加する形の窓がけがされた局部復号信号と合成することで完全な局部復号信号となる局部復号信号であり、減衰する形の窓がけがされた不完全な局部復号信号である。
追加符号化部130には、第2実施形態の追加符号化部130と同様に、ステレオ符号化部110またはダウンミックス部150が出力したダウンミックス信号と、モノラル符号化部120が出力したモノラル局部復号信号と、が入力される。追加符号化部130は、区間Y+Xのダウンミックス信号とモノラル局部復号信号との差信号または重み付き差信号(対応するサンプル同士のサンプル値の減算または重み付き減算により構成される信号)を符号化して、追加符号CAを得て出力する(ステップS134)。
モノラル復号部210には、第2実施形態のモノラル復号部210と同様に、モノラル符号CMが入力される。モノラル復号部210は、モノラル符号CMを用いて区間Y+Xのモノラル復号音信号を得て出力する(ステップS214)。ただし、区間Xすなわちt5からt6までの区間の復号信号は、直後のフレームの処理で得られる増加する形の窓がけがされた復号信号と合成することで完全な復号信号となる復号信号であり、減衰する形の窓がけがされた不完全な復号信号である。
追加復号部230には、第2実施形態の追加復号部230と同様に、追加符号CAが入力される。追加復号部230は、追加符号CAを復号して、区間Y+Xの追加復号信号を得て出力する(ステップS234)。
ステレオ復号部220には、第2実施形態のステレオ復号部220と同様に、モノラル復号部210が出力したモノラル復号音信号と、追加復号部230が出力した追加復号信号と、復号装置200に入力されたステレオ符号CSと、が入力される。ステレオ復号部220は、区間Y+Xのモノラル復号音信号と追加復号信号との和信号または重み付き和信号(対応するサンプル同士のサンプル値の加算または重み付き加算により構成される信号)を復号ダウンミックス信号として得て、ステレオ符号CSから得られる特徴パラメータを用いたアップミックス処理により復号ダウンミックス信号から2個のチャネルの復号音信号を得て出力する(ステップS224)。
なお、第4実施形態Aの説明におけるモノラル符号化部120の「ステレオ符号化部110またはダウンミックス部150が出力したダウンミックス信号」と「ダウンミックス信号」のそれぞれを「モノラル符号化対象信号生成部140が出力したモノラル符号化対象信号」と「モノラル符号化対象信号」に置き換えれば、第3実施形態を変更した第4実施形態である第4実施形態Bについての第3実施形態と異なる点を中心とした説明となる。
また、第4実施形態Aの説明におけるモノラル符号化部120が得るモノラル局部復号信号、追加符号化部130が符号化する差信号または重み付き差信号、追加復号部230が得る追加復号信号、のそれぞれを区間Xのものとし、ステレオ復号部220が区間Yのモノラル復号音信号と、区間Xのモノラル復号音信号と追加復号信号との和信号または重み付き和信号と、を連結した信号を復号ダウンミックス信号として得るようにすれば、第1実施形態を変更した第4実施形態である第4実施形態Cとなる。
区間Xのダウンミックス信号には、区間Yのモノラル局部復号信号から予測できる部分が含まれている。そこで、第1から第4の各実施形態において、区間Xについて、ダウンミックス信号と区間Yのモノラル局部復号信号からの予測信号との差分を追加符号化部130で符号化してもよい。この形態を第5実施形態として説明する。
まず、第2実施形態、第3実施形態、第4実施形態A、第4実施形態B、の各実施形態を変更した第5実施形態を第5実施形態Aとして、第2実施形態、第3実施形態、第4実施形態A、第4実施形態B、の各実施形態と異なる点を説明する。
追加符号化部130は、以下のステップS135A-1とステップS135A-2を行う(ステップS135A)。追加符号化部130は、まず、所定の周知の予測技術を用いて、入力された区間Yまたは区間Y+Xのモノラル局部復号信号(ただし、上述した通り区間Xは不完全なモノラル局部復号信号)からモノラル局部復号信号についての区間Xの予測信号を得る(ステップS135A-1)。なお、第4実施形態Aを変更した第5実施形態または第4実施形態Bを変更した第5実施形態の場合には、入力された区間Xの不完全なモノラル局部復号信号を区間Xの予測信号に含むようにする。追加符号化部130は、次に、区間Yのダウンミックス信号とモノラル局部復号信号との差信号または重み付き差信号(対応するサンプル同士のサンプル値の減算または重み付き減算により構成される信号)と、区間Xのダウンミックス信号とステップS135A-1で得た予測信号との差信号または重み付き差信号(対応するサンプル同士のサンプル値の減算または重み付き減算により構成される信号)と、を符号化して、追加符号CAを得て出力する(ステップS135A-2)。例えば、区間Yの差信号と区間Xの差信号とを連結した信号を符号化して追加符号CAを得てもよいし、また例えば、区間Yの差信号と区間Xの差信号のそれぞれを符号化して符号を得て、得た符号を連結したものを追加符号CAとして得てもよい。符号化には第2実施形態、第3実施形態、第4実施形態A、第4実施形態B、の各実施形態の追加符号化部130と同様の符号化方式を用いればよい。
ステレオ復号部220は、以下のステップS225A-0からステップS225A-2を行う(ステップS225A)。ステレオ復号部220は、まず、追加符号化部130がステップS135で用いたのと同じ予測技術を用いて、区間Yまたは区間Y+Xのモノラル復号音信号から区間Xの予測信号を得る(ステップS225A-0)。ステレオ復号部220は、次に、区間Yのモノラル復号音信号と追加復号信号との和信号または重み付き和信号(対応するサンプル同士のサンプル値の加算または重み付き加算により構成される信号)と、区間Xの追加復号信号と予測信号との和信号または重み付き和信号(対応するサンプル同士のサンプル値の加算または重み付き加算により構成される信号)、を連結した信号を区間Y+Xの復号ダウンミックス信号として得る(ステップS225A-1)。ステレオ復号部220は、次に、ステレオ符号CSから得られる特徴パラメータを用いたアップミックス処理によりステップS225A-1で得た復号ダウンミックス信号から2個のチャネルの復号音信号を得て出力する(ステップS225A-2)。
次に、第1実施形態と第4実施形態Cの各実施形態を変更した第5実施形態を第5実施形態Bとして、第1実施形態と第4実施形態Cの各実施形態と異なる点を説明する。
モノラル符号化部120は、ダウンミックス信号を符号化して得られるモノラル符号CMに加えて、区間Yまたは区間Y+Xについて、現在のフレームまでのモノラル符号CMを復号して得られる信号、すなわち、入力されたダウンミックス信号の局部復号信号であるモノラル局部復号信号も得て出力する(ステップS125B)。ただし、上述した通り区間Xのモノラル局部復号信号は不完全なモノラル局部復号信号である。
追加符号化部130は、以下のステップS135B-1とステップS135B-2を行う(ステップS135B)。追加符号化部130は、まず、所定の周知の予測技術を用いて、入力された区間Yまたは区間Y+Xのモノラル局部復号信号(ただし、上述した通り区間Xは不完全なモノラル局部復号信号)からモノラル局部復号信号についての区間Xの予測信号を得る(ステップS135B-1)。第4実施形態Cを変更した第5実施形態の場合には、入力された区間Xのモノラル局部復号信号を区間Xの予測信号に含むようにする。追加符号化部130は、次に、区間Xのダウンミックス信号とステップS135B-1で得た予測信号との差信号または重み付き差信号(対応するサンプル同士のサンプル値の減算または重み付き減算により構成される信号)を符号化して追加符号CAを得て出力する(ステップS135B-2)。例えば、符号化には第1実施形態と第4実施形態Cの各実施形態の追加符号化部130と同様の符号化方式を用いればよい。
ステレオ復号部220は、以下のステップS225B-0からステップS225B-2を行う(ステップS225B)。ステレオ復号部220は、まず、追加符号化部130が用いたのと同じ予測技術を用いて、区間Yまたは区間Y+Xのモノラル復号音信号から、区間Xの予測信号を得る(ステップS225B-0)。ステレオ復号部220は、次に、区間Yのモノラル復号音信号と、区間Xの追加復号信号と予測信号との和信号または重み付き和信号(対応するサンプル同士のサンプル値の加算または重み付き加算により構成される信号)と、を連結した信号を区間Y+Xの復号ダウンミックス信号として得る(ステップS225B-1)。ステレオ復号部220は、次に、ステレオ符号CSから得られる特徴パラメータを用いたアップミックス処理によりステップS225B-1で得た復号ダウンミックス信号から2個のチャネルの復号音信号を得て出力する(ステップS225B-2)。
第1実施形態から第5実施形態は、符号化装置100が得た追加符号CAを復号装置200が用いることで、ステレオ復号部220で用いる区間Xの復号ダウンミックス信号を少なくとも追加符号CAを復号して得るものであったが、復号装置200が追加符号CAを用いずに、区間Yのモノラル復号音信号からの予測信号をステレオ復号部220で用いる区間Xの復号ダウンミックス信号としてもよい。この形態を第6実施形態として、第1実施形態と異なる点を説明する。
第6実施形態の符号化装置100が第1実施形態の符号化装置100と異なるのは、追加符号化部130を含まず、区間Xのダウンミックス信号を符号化せず、追加符号CAを得ないことである。すなわち、第6実施形態の符号化装置100は、ステレオ符号化部110とモノラル符号化部120を含み、ステレオ符号化部110とモノラル符号化部120のそれぞれは、第1実施形態のステレオ符号化部110とモノラル符号化部120のそれぞれと同じ動作をする。
第6実施形態の復号装置200は、追加符号CAを復号する追加復号部230を含まずに、モノラル復号部210とステレオ復号部220を含む。第6実施形態のモノラル復号部210は、第1実施形態のモノラル復号部210と同じ動作をするが、ステレオ復号部220が区間Y+Xのモノラル復号音信号を用いる場合には区間Xのモノラル復号音信号も出力する。また、第6実施形態のステレオ復号部220は、第1実施形態のステレオ復号部220とは異なる下記の動作をする。
ステレオ復号部220は、以下のステップS226-0からステップS226-2を行う(ステップS226)。ステレオ復号部220は、まず、第5実施形態と同様の所定の周知の予測技術を用いて、区間Yまたは区間Y+Xのモノラル復号音信号から区間Xの予測信号を得る(ステップS226-0)。ステレオ復号部220は、次に、区間Yのモノラル復号音信号と区間Xの予測信号を連結した信号を区間Y+Xの復号ダウンミックス信号として得て(ステップS226-1)、ステレオ符号CSから得られる特徴パラメータを用いたアップミックス処理によりステップS226-1で得た復号ダウンミックス信号から2個のチャネルの復号音信号を得て出力する(ステップS226-2)。
上述した各実施形態では、説明を簡単化するために、2個のチャネルの音信号を扱う例で説明した。しかし、チャネル数はこの限りではなく2以上であればよい。このチャネル数をC(Cは2以上の整数)とすると、上述した各実施形態は、2個のチャネルをC個(Cは2以上の整数)のチャネルと読み替えて実施することができる。
上述した各符号化装置と各復号装置の各部の処理をコンピュータにより実現してもよく、この場合は各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムを図12に示すコンピュータの記憶部1020に読み込ませ、演算処理部1010、入力部1030、出力部1040などに動作させることにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
Claims (12)
- 入力されたC個(Cは2以上の整数)のチャネルの音信号をフレーム単位で符号化する音信号符号化方法であって、
現在のフレームの処理として、
C個のチャネルの前記音信号のチャネル間の差分の特徴を表すパラメータである特徴パラメータを表すステレオ符号を得て出力するステレオ符号化ステップと、
C個のチャネルの前記音信号を混合した信号をダウンミックス信号として得るダウンミックスステップと、
前記ダウンミックス信号を符号化してモノラル符号を得て出力するモノラル符号化ステップと、
を含み、
前記モノラル符号化ステップは、フレーム間でオーバーラップのある窓をかける処理が含まれる符号化方式で、前記ダウンミックス信号を符号化して前記モノラル符号を得て、
前記ダウンミックス信号のうちの現在のフレームと直後のフレームとの前記オーバーラップの区間(以下、「区間X」という)の信号を符号化して追加符号を得て出力する追加符号化ステップを更に含む
ことを特徴とする音信号符号化方法。 - 請求項1に記載の音信号符号化方法であって、
前記モノラル符号化ステップは、前記モノラル符号に対応するモノラル局部復号信号も得て、
前記追加符号化ステップは、前記ダウンミックス信号のうちの前記区間Xを除く区間(以下、「区間Y」という)の信号と、区間Yの前記モノラル局部復号信号と、の対応するサンプル同士のサンプル値の減算または重み付き減算により構成される信号と、区間Xの前記ダウンミックス信号と、を符号化して追加符号を得る
ことを特徴とする音信号符号化方法。 - 請求項2に記載の音信号符号化方法であって、
前記ダウンミックスステップは、前記C個のチャネルの音信号を周波数領域で混合した信号を前記ダウンミックス信号として得て、
前記C個のチャネルの音信号を時間領域で混合した信号をモノラル符号化対象信号として得るモノラル符号化対象信号生成ステップを更に含み、
前記モノラル符号化ステップは、フレーム間でオーバーラップのある窓をかける処理が含まれる符号化方式で、前記モノラル符号化対象信号を符号化して前記モノラル符号を得る
ことを特徴とする音信号符号化方法。 - 請求項2または3に記載の音信号符号化方法であって、
前記追加符号化ステップは、
前記ダウンミックス信号のうちの区間Xの信号を符号化して、第1追加符号と前記第1追加符号に対応する区間Xの局部復号信号(以下、「第1追加局部復号信号」という)を得て、
区間Yの前記ダウンミックス信号と前記モノラル局部復号信号との対応するサンプル同士のサンプル値の減算または重み付き減算により構成される信号と、区間Xの前記ダウンミックス信号と前記第1追加局部復号信号との対応するサンプル同士のサンプル値の減算または重み付き減算により構成される信号と、を連結した信号を、サンプル列を纏めて符号化する符号化方式により符号化して第2追加符号を得て、
前記第1追加符号と前記第2追加符号を合わせたものを前記追加符号とする
ことを特徴とする音信号符号化方法。 - 請求項2または3に記載の音信号符号化方法であって、
前記追加符号化ステップは、
区間Yの前記モノラル局部復号信号または区間Yと区間Xの前記モノラル局部復号信号から、モノラル局部復号信号の区間Xの予測信号を得て、
区間Yの前記ダウンミックス信号と前記モノラル局部復号信号との対応するサンプル同士のサンプル値の減算または重み付き減算により構成される信号と、区間Xの前記ダウンミックス信号と前記予測信号との対応するサンプル同士のサンプル値の減算または重み付き減算により構成される信号と、を符号化して追加符号を得る
ことを特徴とする音信号符号化方法。 - 入力されたC個(Cは2以上の整数)のチャネルの音信号をフレーム単位で符号化する音信号符号化装置であって、
現在のフレームの処理として、
C個のチャネルの前記音信号のチャネル間の差分の特徴を表すパラメータである特徴パラメータを表すステレオ符号を得て出力するステレオ符号化部と、
C個のチャネルの前記音信号を混合した信号をダウンミックス信号として得るダウンミックス部と、
前記ダウンミックス信号を符号化してモノラル符号を得て出力するモノラル符号化部と、
を含み、
前記モノラル符号化部は、フレーム間でオーバーラップのある窓をかける処理が含まれる符号化方式で、前記ダウンミックス信号を符号化して前記モノラル符号を得るものであり、
前記ダウンミックス信号のうちの現在のフレームと直後のフレームとの前記オーバーラップの区間(以下、「区間X」という)の信号を符号化して追加符号を得て出力する追加符号化部を更に含む
ことを特徴とする音信号符号化装置。 - 請求項6に記載の音信号符号化装置であって、
前記モノラル符号化部は、前記モノラル符号に対応するモノラル局部復号信号も得て、
前記追加符号化部は、前記ダウンミックス信号のうちの前記区間Xを除く区間(以下、「区間Y」という)の信号と、区間Yの前記モノラル局部復号信号と、の対応するサンプル同士のサンプル値の減算または重み付き減算により構成される信号と、区間Xの前記ダウンミックス信号と、を符号化して追加符号を得る
ことを特徴とする音信号符号化装置。 - 請求項7に記載の音信号符号化装置であって、
前記ダウンミックス部は、前記C個のチャネルの音信号を周波数領域で混合した信号を前記ダウンミックス信号として得て、
前記C個のチャネルの音信号を時間領域で混合した信号をモノラル符号化対象信号として得るモノラル符号化対象信号生成部を更に含み、
前記モノラル符号化部は、フレーム間でオーバーラップのある窓をかける処理が含まれる符号化方式で、前記モノラル符号化対象信号を符号化して前記モノラル符号を得る
ことを特徴とする音信号符号化装置。 - 請求項7または8に記載の音信号符号化装置であって、
前記追加符号化部は、
前記ダウンミックス信号のうちの区間Xの信号を符号化して、第1追加符号と前記第1追加符号に対応する区間Xの局部復号信号(以下、「第1追加局部復号信号」という)を得て、
区間Yの前記ダウンミックス信号と前記モノラル局部復号信号との対応するサンプル同士のサンプル値の減算または重み付き減算により構成される信号と、区間Xの前記ダウンミックス信号と前記第1追加局部復号信号との対応するサンプル同士のサンプル値の減算または重み付き減算により構成される信号と、を連結した信号を、サンプル列を纏めて符号化する符号化方式により符号化して第2追加符号を得て、
前記第1追加符号と前記第2追加符号を合わせたものを前記追加符号とする
ことを特徴とする音信号符号化装置。 - 請求項7または8に記載の音信号符号化装置であって、
前記追加符号化部は、
区間Yの前記モノラル局部復号信号または区間Yと区間Xの前記モノラル局部復号信号から、モノラル局部復号信号の区間Xの予測信号を得て、
区間Yの前記ダウンミックス信号と前記モノラル局部復号信号との対応するサンプル同士のサンプル値の減算または重み付き減算により構成される信号と、区間Xの前記ダウンミックス信号と前記予測信号との対応するサンプル同士のサンプル値の減算または重み付き減算により構成される信号と、を符号化して追加符号を得る
ことを特徴とする音信号符号化装置。 - 請求項1から5の何れかに記載の音信号符号化方法の各ステップをコンピュータに実行させるためのプログラム。
- 請求項1から5の何れかに記載の音信号符号化方法の各ステップをコンピュータに実行させるためのプログラムが記録されたコンピュータ読み取り可能な記録媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/024774 WO2021260825A1 (ja) | 2020-06-24 | 2020-06-24 | 音信号符号化方法、音信号符号化装置、プログラム及び記録媒体 |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021260825A1 JPWO2021260825A1 (ja) | 2021-12-30 |
JPWO2021260825A5 JPWO2021260825A5 (ja) | 2023-02-02 |
JP7491376B2 true JP7491376B2 (ja) | 2024-05-28 |
Family
ID=79282593
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022531301A Active JP7491376B2 (ja) | 2020-06-24 | 2020-06-24 | 音信号符号化方法、音信号符号化装置、プログラム及び記録媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230178086A1 (ja) |
EP (1) | EP4175270A4 (ja) |
JP (1) | JP7491376B2 (ja) |
CN (1) | CN115917644A (ja) |
WO (1) | WO2021260825A1 (ja) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019512737A (ja) | 2016-03-18 | 2019-05-16 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | マルチチャンネルコーディング |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2987808C (en) * | 2016-01-22 | 2020-03-10 | Guillaume Fuchs | Apparatus and method for encoding or decoding an audio multi-channel signal using spectral-domain resampling |
FR3048808A1 (fr) * | 2016-03-10 | 2017-09-15 | Orange | Codage et decodage optimise d'informations de spatialisation pour le codage et le decodage parametrique d'un signal audio multicanal |
-
2020
- 2020-06-24 EP EP20942073.6A patent/EP4175270A4/en active Pending
- 2020-06-24 WO PCT/JP2020/024774 patent/WO2021260825A1/ja unknown
- 2020-06-24 US US18/011,132 patent/US20230178086A1/en active Pending
- 2020-06-24 CN CN202080102309.5A patent/CN115917644A/zh active Pending
- 2020-06-24 JP JP2022531301A patent/JP7491376B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019512737A (ja) | 2016-03-18 | 2019-05-16 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | マルチチャンネルコーディング |
Also Published As
Publication number | Publication date |
---|---|
WO2021260825A1 (ja) | 2021-12-30 |
CN115917644A (zh) | 2023-04-04 |
US20230178086A1 (en) | 2023-06-08 |
EP4175270A1 (en) | 2023-05-03 |
JPWO2021260825A1 (ja) | 2021-12-30 |
EP4175270A4 (en) | 2024-03-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2849180B1 (en) | Hybrid audio signal encoder, hybrid audio signal decoder, method for encoding audio signal, and method for decoding audio signal | |
EA025020B1 (ru) | Аудиодекодер и способ декодирования с использованием эффективного понижающего микширования | |
JP7311573B2 (ja) | 時間領域ステレオエンコーディング及びデコーディング方法並びに関連製品 | |
EP3664088B1 (en) | Audio coding mode determination | |
US20220310101A1 (en) | Time-domain stereo encoding and decoding method and related product | |
JPWO2015186535A1 (ja) | オーディオ信号処理装置および方法、符号化装置および方法、並びにプログラム | |
JP2023129450A (ja) | 時間領域ステレオパラメータ符号化方法および関連製品 | |
JP7491376B2 (ja) | 音信号符号化方法、音信号符号化装置、プログラム及び記録媒体 | |
JP7485037B2 (ja) | 音信号復号方法、音信号復号装置、プログラム及び記録媒体 | |
CN109859766B (zh) | 音频编解码方法和相关产品 | |
KR101464977B1 (ko) | 메모리 관리 방법, 및 멀티 채널 데이터의 복호화 방법 및장치 | |
RU2772405C2 (ru) | Способ стереокодирования и декодирования во временной области и соответствующий продукт |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221117 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240416 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240429 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7491376 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |