JP7491376B2 - 音信号符号化方法、音信号符号化装置、プログラム及び記録媒体 - Google Patents

音信号符号化方法、音信号符号化装置、プログラム及び記録媒体 Download PDF

Info

Publication number
JP7491376B2
JP7491376B2 JP2022531301A JP2022531301A JP7491376B2 JP 7491376 B2 JP7491376 B2 JP 7491376B2 JP 2022531301 A JP2022531301 A JP 2022531301A JP 2022531301 A JP2022531301 A JP 2022531301A JP 7491376 B2 JP7491376 B2 JP 7491376B2
Authority
JP
Japan
Prior art keywords
signal
encoding
section
additional
code
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022531301A
Other languages
English (en)
Other versions
JPWO2021260825A1 (ja
JPWO2021260825A5 (ja
Inventor
健弘 守谷
亮介 杉浦
優 鎌本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2021260825A1 publication Critical patent/JPWO2021260825A1/ja
Publication of JPWO2021260825A5 publication Critical patent/JPWO2021260825A5/ja
Application granted granted Critical
Publication of JP7491376B2 publication Critical patent/JP7491376B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/568Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities audio processing specific to telephonic conferencing, e.g. spatial distribution, mixing of participants
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/24Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Mathematical Physics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Stereophonic System (AREA)

Description

本発明は、複数チャネルの音信号と1チャネルの音信号をエンベデッド符号化/復号する技術に関する。
複数チャネルの音信号とモノラルの音信号をエンベデッド符号化/復号する技術としては、非特許文献1の技術がある。非特許文献1の技術の概要を、図5に例示する符号化装置500と図6に例示する復号装置600で説明する。符号化装置500のステレオ符号化部510は、所定の時間区間であるフレームごとに、入力された複数チャネルの音信号であるステレオ入力音信号から、ステレオ入力音信号におけるチャネル間の差分の特徴を表すパラメータである特徴パラメータを表すステレオ符号CSと、ステレオ入力音信号を混合した信号であるダウンミックス信号と、を得る。符号化装置500のモノラル符号化部520は、フレームごとに、ダウンミックス信号を符号化してモノラル符号CMを得る。復号装置600のモノラル復号部610は、フレームごとに、モノラル符号CMを復号してダウンミックス信号の復号信号であるモノラル復号音信号を得る。復号装置600のステレオ復号部620は、フレームごとに、ステレオ符号CSを復号してチャネル間の差分の特徴を表すパラメータである特徴パラメータを得て、モノラル復号音信号と特徴パラメータからステレオ復号音信号を得る処理(いわゆるアップミックス処理)を行う。
高音質なモノラル復号音信号を得られるモノラル符号化/復号方式としては、非特許文献2に記載された3GPP EVS規格の符号化/復号方式がある。非特許文献1のモノラル符号化/復号方式として非特許文献2のような高音質のモノラル符号化/復号方式を用いれば、複数チャネルの音信号とモノラルの音信号のより高音質なエンベデッド符号化/復号を実現できる可能性がある。
Jeroen Breebaart et al., "Parametric Coding of Stereo Audio", EURASIP Journal on Applied Signal Processing, pp. 1305-1322, 2005:9. 3GPP, "Codec for Enhanced Voice Services (EVS); Detailed algorithmic description", TS 26.445.
非特許文献1のアップミックス処理は、モノラル復号音信号に対して隣接するフレーム間でオーバーラップのある窓をかける処理を含む周波数領域での信号処理である。一方、非特許文献2のモノラル符号化/復号方式にも、隣接するフレーム間でオーバーラップのある窓をかける処理が含まれる。すなわち、非特許文献1のステレオ符号化/復号方式の復号側と、非特許文献2のモノラル符号化/復号方式の復号側と、の両方で、フレームの境界部分の所定の範囲については、前側のフレームの符号を復号して得た信号に減衰する形の傾斜窓をかけた信号と、後側のフレームの符号を復号して得た信号に増加する形の傾斜窓をかけた信号と、を合成することで復号音信号を得る。これらのことから、非特許文献1のようなエンベデッド符号化/復号のモノラル符号化/復号方式として非特許文献2のようなモノラル符号化/復号方式を用いると、アップミックス処理における窓の分だけモノラル復号音信号よりもステレオ復号音信号が遅れてしまう課題、すなわち、ステレオ符号化/復号のアルゴリズム遅延がモノラル符号化/復号よりも大きくなってしまう課題がある。
例えば、多地点で電話会議をするための多地点制御装置(Multipoint Control Unit, MCU)では、どの地点からの信号をどの地点に出力するかを所定時間区間ごとに切り替える制御を行うのが一般的であり、モノラル復号音信号よりもアップミックス処理における窓の分だけステレオ復号音信号が遅れた状態での制御をするのは難しく、モノラル復号音信号よりもステレオ復号音信号を1フレーム遅延させた状態で制御をする実装となることが想定される。すなわち、多地点制御装置を含む通信システムにおいては、上述した課題が更に顕著となってしまい、ステレオ符号化/復号のアルゴリズム遅延がモノラル符号化/復号のアルゴリズム遅延よりも1フレーム大きくなってしまう可能性がある。また、モノラル復号音信号よりもステレオ復号音信号を1フレーム遅延させれば切り替える制御を所定時間区間ごとにすること自体は可能となるものの、各時間区間についてどの地点からのモノラル復号音信号とどの地点からのステレオ復号音信号とを組み合わせて出力するかの制御は、モノラル復号音信号とステレオ復号音信号の遅延が異なることで複雑になってしまう可能性がある。
本発明は、このような課題を鑑みてなされたものであり、ステレオ符号化/復号のアルゴリズム遅延がモノラル符号化/復号のアルゴリズム遅延よりも大きくない複数チャネルの音信号とモノラルの音信号のエンベデッド符号化/復号を提供することを目的とする。
上記の課題を解決するために、本発明の一態様の音信号符号化方法は、入力されたC個(Cは2以上の整数)のチャネルの音信号をフレーム単位で符号化する音信号符号化方法であって、現在のフレームの処理として、C個のチャネルの音信号のチャネル間の差分の特徴を表すパラメータである特徴パラメータを表すステレオ符号を得て出力するステレオ符号化ステップと、C個のチャネルの音信号を混合した信号をダウンミックス信号として得るダウンミックスステップと、ダウンミックス信号を符号化してモノラル符号を得て出力するモノラル符号化ステップと、を含み、モノラル符号化ステップは、フレーム間でオーバーラップのある窓をかける処理が含まれる符号化方式で、ダウンミックス信号を符号化してモノラル符号を得て、ダウンミックス信号のうちの現在のフレームと直後のフレームとのオーバーラップの区間の信号を符号化して追加符号を得て出力する追加符号化ステップを更に含むことを特徴とする。
本発明によれば、ステレオ符号化/復号のアルゴリズム遅延がモノラル符号化/復号のアルゴリズム遅延よりも大きくない複数チャネルの音信号とモノラルの音信号のエンベデッド符号化/復号を提供することができる。
各実施形態の符号化装置の例を示すブロック図である。 各実施形態の符号化装置の処理の例を示す流れ図である。 各実施形態の復号装置の例を示すブロック図である。 各実施形態の復号装置の処理の例を示す流れ図である。 従来の符号化装置の例を示すブロック図である。 従来の復号装置の例を示すブロック図である。 非特許文献2の符号化装置の各信号を模式的に示した図である。 非特許文献2の復号装置の各信号とアルゴリズム遅延を模式的に示した図である。 モノラル符号化/復号方式として非特許文献2のモノラル符号化/復号方式を用いた場合の非特許文献1の復号装置の各信号とアルゴリズム遅延を模式的に示した図である。 本発明の復号装置の各信号とアルゴリズム遅延を模式的に示した図である。 本発明の符号化装置の各信号を模式的に示した図である。 各実施形態における各装置を実現するコンピュータの機能構成の一例を示す図である。
各実施形態を説明する前に、まず、背景技術と第1実施形態の符号化/復号の各信号とアルゴリズム遅延について、フレーム長が20msである場合の各信号を模式的に例示した図7から図11を参照して説明する。図7から図11の各図の横軸は時間軸である。以下では、時刻がt7の時点で現在のフレームの処理を行う例を説明することから、各図の最上部に配置した軸には、左端に「過去」、右端に「未来」、との記載を付してあり、現在のフレームの処理を行う時刻であるt7のところに上向きの矢印を付してある。図7から図11では、各信号について、どの時間区間のものであるか、窓がけされているときにはその窓が増加する形であるか平坦な形であるか減衰する形であるか、を模式的に示してある。より具体的には、窓関数が厳密にどのようなものであるのかはここでの説明においては重要ではないことから、図7から図11では、窓が増加する形の区間と窓が減少する形の区間については、合成すると窓がけされていない信号になることを視覚的に表現するために、窓が増加する形の区間は右上がりの直線を含む三角形状で表してあり、窓が減少する形の区間は右下がりの直線を含む三角形状で表してある。また、以降では、複雑な文言表現を避けるために、各区間の始端の時刻を「から」「以降」などの文言を用いて特定しているが、当業者が理解し得る通り、各区間の実際の始端は表記してある時刻の直後の時刻であり、各区間のディジタル信号の実際の始端は表記してある時刻の直後のサンプルである。
図7は、t7の時点で現在のフレームの処理を行う非特許文献2の符号化装置の各信号を模式的に示した図である。非特許文献2の符号化装置が現在のフレームの処理に用いることができるのは、t7までのモノラルの音信号である信号1aである。非特許文献2の符号化装置は、現在のフレームの処理では、信号1aのうちのt6からt7までの8.75msの区間をいわゆる「先読み区間」として分析に用いて、信号1aのうちのt1からt6までの23.25msの区間の信号に窓をかけた信号である信号1bを符号化して、モノラル符号を得て出力する。窓の形状は、t1からt2までの3.25msの区間が増加する形であり、t2からt5までの16.75msの区間が平坦であり、t5からt6までの3.25msの区間が減衰する形である。すなわち、この信号1bが現在のフレームの処理で得られるモノラル符号に対応するモノラルの音信号である。非特許文献2の符号化装置は、直前のフレームの処理として、t3までのモノラルの音信号が入力された時点で同様の処理を済ませており、t2までの23.25msの区間のモノラルの音信号にt1からt2までの区間に減衰する形の窓をかけた信号である信号1cの符号化を済ませている。すなわち、この信号1cが直前のフレームの処理で得られるモノラル符号に対応するモノラルの音信号であり、t1からt2までの区間は現在のフレームと直前のフレームとのオーバーラップ区間である。また、非特許文献2の符号化装置は、直後のフレームの処理として、t5以降の23.25msの区間のモノラルの音信号にt5からt6までの区間に増加する形の窓をかけた信号である信号1dを符号化することになる。すなわち、この信号1dが直後のフレームの処理で得られるモノラル符号に対応するモノラルの音信号であり、t5からt6までの区間は現在のフレームと直後のフレームとのオーバーラップ区間である。
図8は、非特許文献2の符号化装置から現在のフレームのモノラル符号が入力された時点であるt7の時点で現在のフレームの処理を行う非特許文献2の復号装置の各信号を模式的に示した図である。非特許文献2の復号装置は、現在のフレームの処理では、現在のフレームのモノラル符号から、t1からt6までの区間の復号音信号である信号2aを得る。この信号2aは、信号1bに対応する復号音信号であり、t1からt2までの区間が増加する形であり、t2からt5までの区間が平坦であり、t5からt6までの区間が減衰する形の窓がけがされた信号である。非特許文献2の復号装置は、直前のフレームの処理として、直前のフレームのモノラル符号から、t1からt2までの区間が減衰する形の窓がけがされたt2までの23.25msの区間の復号音信号である信号2bを、直前のフレームのモノラル符号が入力された時点であるt3の時点で既に得ている。また、非特許文献2の復号装置は、直後のフレームの処理として、直後のフレームのモノラル符号から、t5からt6までの区間が増加する形の窓がけがされたt5以降の23.25msの区間の復号音信号である信号2cを得ることになる。ただし、t7の時点では信号2cは得られないので、t7の時点ではt5からt6までの区間については不完全な復号音信号は得られるものの完全な復号音信号は得られない。そこで、非特許文献2の復号装置は、t7の時点では、t1からt2までの区間については直前のフレームの処理で得られた信号2bと現在のフレームの処理で得られた信号2aとを合成し、t2からt5までの区間については現在のフレームの処理で得られた信号2aをそのまま用いることで、t1からt5まで20msの区間のモノラルの復号音信号である信号2dを得て出力する。非特許文献2の復号装置はt7の時点でt1から始まる区間の復号音信号を得ることから、非特許文献2のモノラル符号化/復号方式のアルゴリズム遅延はt1からt7までの時間長である32msである。
図9は、モノラル復号部610が非特許文献2のモノラル復号方式を用いる場合の非特許文献1の復号装置600の各信号を模式的に示した図である。ステレオ復号部620は、t7の時点で、モノラル復号部610で完全に得られているt5までのモノラル復号音信号である信号3aを用いて現在のフレームのステレオ復号処理(アップミックス処理)を行う。具体的には、ステレオ復号部620は、信号3aに対して、t0からt1までの3.25msの区間が増加する形であり、t1からt4までの16.75msの区間が平坦であり、t4からt5までの3.25msの区間が減衰する形の窓がけをしたt0からt5までの23.25msの区間の信号である信号3bを用いて、各チャネルについて信号3bと同じ形の窓がけがされたt0からt5までの復号音信号である信号3c-i(iはチャネル番号)を得る。ステレオ復号部620は、直前のフレームの処理として、t0からt1までの区間が減衰する形の窓がけがされたt1までの23.25msの区間の各チャネルの復号音信号である信号3d-iをt3の時点で既に得ている。また、ステレオ復号部620は、直後のフレームの処理として、t4からt5までの区間が増加する形の窓がけがされたt4以降の23.25msの区間の各チャネルの復号音信号である信号3e-iを得ることになる。ただし、t7の時点では信号3e-iは得られないので、t7の時点ではt4からt5までの区間については不完全な復号音信号は得られるものの完全な復号音信号は得られない。そこで、ステレオ復号部620は、t7の時点では、各チャネルについて、t0からt1までの区間については直前のフレームの処理で得られた信号3d-iと現在のフレームの処理で得られた信号3c-iとを合成し、t1からt4までの区間については現在のフレームの処理で得られた信号3c-iをそのまま用いることで、t0からt4まで20msの区間の完全な復号音信号である信号3f-iを得て出力する。復号装置600はt7の時点で各チャネルのt0から始まる区間の復号音信号を得ることから、モノラル符号化/復号方式として非特許文献2のモノラル符号化/復号方式を用いた非特許文献1のステレオ符号化/復号のアルゴリズム遅延はt0からt7までの時間長である35.25msである。すなわち、このエンベデッド符号化/復号におけるステレオ符号化/復号のアルゴリズム遅延は、モノラル符号化/復号によるアルゴリズム遅延よりも大きくなってしまう。
図10は、後述する第1実施形態の復号装置200の各信号を模式的に示した図である。第1実施形態の復号装置200は、図3に示す構成であり、第1実施形態で詳述する通りの動作を行うモノラル復号部210と追加復号部230とステレオ復号部220を含む。ステレオ復号部220は、t7の時点で、完全に得られているt6までのモノラル復号音信号である信号4cを用いて現在のフレームの処理を行う。図9の説明箇所において上述した通り、t7の時点でモノラル復号部210で完全に得られているのはt5までのモノラル復号音信号である信号3aである。そこで、復号装置200では、追加復号部230が、追加符号CAを復号してt5からt6まで3.25msの区間のモノラル復号音信号である信号4bを得て(追加復号処理)、ステレオ復号部220は、モノラル復号部210で得られたt5までのモノラル復号音信号である信号3aと、追加復号部230で得られたt5からt6までの区間のモノラル復号音信号である信号4bと、を連結した信号4cを用いて現在のフレームのステレオ復号処理(アップミックス処理)を行う。すなわち、ステレオ復号部220は、信号4cに対して、t1からt2までの3.25msの区間が増加する形であり、t2からt5までの16.75msの区間が平坦であり、t5からt6までの3.25msの区間が減衰する形の窓がけをしたt1からt6までの23.75msの区間の信号4dを用いて、各チャネルについて信号4dと同じ形の窓がけがされたt1からt6までの区間の復号音信号である信号4e-iを得る。ステレオ復号部220は、直前のフレームの処理として、t1からt2までの区間が減衰する形の窓がけがされたt2までの23.75msの区間の各チャネルの復号音信号である信号4f-iをt3の時点で既に得ている。また、ステレオ復号部220は、直後のフレームの処理として、t5からt6までの区間が増加する形の窓がけがされたt5以降の23.75msの区間の各チャネルの復号音信号である信号4g-iを得ることになる。ただし、t7の時点では信号4g-iは得られないので、t7の時点ではt5からt6までの区間については不完全な復号音信号は得られるものの完全な復号音信号は得られない。そこで、ステレオ復号部220は、t7の時点では、各チャネルについて、t1からt2までの区間については直前のフレームの処理で得られた信号4f-iと現在のフレームの処理で得られた信号4e-iとを合成し、t2からt5までの区間については現在のフレームの処理で得られた信号4e-iをそのまま用いることで、t1からt5まで20msの区間の完全な復号音信号である信号4h-iを得て出力する。復号装置200はt7の時点で各チャネルのt1から始まる区間の復号音信号を得ることから、第1実施形態のエンベデッド符号化/復号におけるステレオ符号化/復号のアルゴリズム遅延は、t1からt7までの時間長である32msである。すなわち、第1実施形態のエンベデッド符号化/復号によるステレオ符号化/復号のアルゴリズム遅延は、モノラル符号化/復号によるアルゴリズム遅延よりも大きくならない。
図11は、後述する第1実施形態の符号化装置100、すなわち、各信号が図10に模式的に示したものとなるようにする復号装置である第1実施形態の復号装置200に対応した符号化装置、の各信号について模式的に示した図である。第1実施形態の符号化装置100は、図1に示す構成であり、符号化装置500のステレオ符号化部510と同様の処理を行うステレオ符号化部110と、符号化装置500のモノラル符号化部520と同様にt7までのモノラルの音信号である信号1aのうちのt1からt6までの区間の信号に窓をかけた信号である信号1bを符号化してモノラル符号CMを得るモノラル符号化部120と、に加えて、モノラルの音信号である信号1aのうちの現在のフレームと直後のフレームとのオーバーラップ区間であるt5からt6までの区間の信号である信号5cを符号化して追加符号CAを得る処理を行う追加符号化部130を含む。
以降では、現在のフレームと直後のフレームとのオーバーラップ区間であるt5からt6までの区間のことを「区間X」と呼ぶ。すなわち、符号化側では、区間Xは、モノラル符号化部120が、現在のフレームの処理と直後のフレームの処理の両方で、窓がけされたモノラルの音信号を符号化する区間である。より詳しくは、区間Xは、モノラル符号化部120が現在のフレームの処理で符号化する音信号のうちの終端を含む所定の長さの区間であり、モノラル符号化部120が現在のフレームの処理で減衰する形の窓がけをした音信号を符号化する区間であり、モノラル符号化部120が直後のフレームの処理で符号化する区間のうちの始端を含む所定の長さの区間であり、モノラル符号化部120が直後のフレームの処理で増加する形の窓がけをした音信号を符号化する区間である。また、復号側では、区間Xは、モノラル復号部210が、現在のフレームの処理と直後のフレームの処理の両方で、モノラル符号CMを復号して窓がけされた復号音信号を得る区間である。より詳しくは、区間Xは、モノラル復号部210が現在のフレームの処理でモノラル符号CMを復号して得た復号音信号のうちの終端を含む所定の長さの区間であり、モノラル復号部210が現在のフレームの処理でモノラル符号CMを復号して得た復号音信号のうちの減衰する形の窓がけがされた区間であり、モノラル復号部210が直後のフレームの処理でモノラル符号CMを復号して得る復号音信号のうちの始端を含む所定の長さの区間であり、モノラル復号部210が直後のフレームの処理でモノラル符号CMを復号して得る復号音信号のうちの増加する形の窓がけがされた区間であり、モノラル復号部210が直後のフレームの処理で、現在のフレームの処理でモノラル符号CMを復号して既に得られている復号音信号と、当該直後のフレームの処理でモノラル符号CMを復号して得る復号音信号と、を合成して復号音信号を得る区間である。
また、以降では、現在のフレームの処理でモノラル符号化/復号される区間のうち区間X以外の区間であるt1からt5までの区間のことを「区間Y」と呼ぶ。すなわち、区間Yは、符号化側では、モノラル符号化部120において現在のフレームの処理でモノラルの音信号が符号化される区間のうちの直後のフレームとのオーバーラップ区間以外の区間であり、復号側では、モノラル復号部210において現在のフレームの処理でモノラル符号CMを復号して復号音信号が得られる区間のうちの直後のフレームとのオーバーラップ区間以外の区間である。区間Yは、現在のフレームのモノラル符号CMと直前のフレームのモノラル符号CMでモノラルの音信号が表される区間と、現在のフレームのモノラル符号CMのみでモノラルの音信号が表される区間と、を連結した区間であるので、現在のフレームの処理まででモノラル復号音信号を完全に得られる区間である。
<第1実施形態>
第1実施形態の符号化装置と復号装置について説明する。
≪符号化装置100≫
第1実施形態の符号化装置100は、図1に示す通り、ステレオ符号化部110とモノラル符号化部120と追加符号化部130を含む。符号化装置100は、例えば20msの所定の時間長のフレーム単位で、入力された2チャネルステレオの時間領域の音信号(2チャネルステレオ入力音信号)を符号化して、後述するステレオ符号CSとモノラル符号CMと追加符号CAを得て出力する。符号化装置100に入力される2チャネルステレオ入力音信号は、例えば、音声や音楽などの音を2個のマイクロホンそれぞれで収音してAD変換して得られたディジタルの音声信号又は音響信号であり、第1チャネルである左チャネルの入力音信号と第2チャネルである右チャネルの入力音信号から成る。符号化装置100が出力する符号、すなわち、ステレオ符号CSとモノラル符号CMと追加符号CA、は後述する復号装置200へ入力される。符号化装置100は、各フレーム単位で、すなわち、上記の所定の時間長分の2チャネルステレオ入力音信号が入力されるごとに、図2に例示するステップS111とステップS121とステップS131の処理を行う。上述した例であれば、符号化装置100は、t3からt7までの20ms分の2チャネルステレオ入力音信号が入力されると、現在のフレームについてのステップS111とステップS121とステップS131の処理を行う。
[ステレオ符号化部110]
ステレオ符号化部110は、符号化装置100に入力された2チャネルステレオ入力音信号から、入力された2個のチャネルの音信号の差分の特徴を表すパラメータである特徴パラメータを表すステレオ符号CSと、2個のチャネルの音信号を混合した信号であるダウンミックス信号と、を得て出力する(ステップS111)。
〔ステレオ符号化部110の例〕
ステレオ符号化部110の例として、入力された2個のチャネルの音信号の周波数帯域ごとの強度差を表す情報を特徴パラメータとする場合のステレオ符号化部110のフレームごとの動作を説明する。なお、以下では複素DFT(Discrete Fourier Transformation)を用いる具体例を説明しているが、複素DFT以外の周知の周波数領域への変換手法を用いてもよい。なお、サンプルの個数が2のべき乗ではないサンプル列を周波数領域に変換する場合には、サンプルの個数が2のべき乗となるようにゼロ詰めをしたサンプル列を用いるなどの周知技術を用いればよい。
ステレオ符号化部110は、まず、入力された2個のチャネルの音信号それぞれを複素DFTして複素DFT係数列を得る(ステップS111-1)。複素DFT係数列は、フレーム間でオーバーラップのある窓をかけて、複素DFTにより得られる複素数の対称性を考慮した処理を用いて得る。例えば、サンプリング周波数が32kHzである場合には、20ms分のサンプルである640サンプルずつの2個のチャネルの音信号が入力されるごとに処理を行うようにして、各チャネルについて、直前のフレームの最後にあるサンプル群とオーバーラップする104点のサンプル(上述した例であれば、t1からt2の区間のサンプル)と直後のフレームの最初にあるサンプル群とオーバーラップする104点のサンプル(上述した例であれば、t5からt6の区間のサンプル)を含む連続する744点のディジタル音信号のサンプル列(上述した例であれば、t1からt6の区間のサンプル列)を複素DFTして得られる744個の複素数による系列のうちの前半の372個の複素数による系列を複素DFT係数列として得ればよい。以降では、fを1以上372以下の各整数とし、第1チャネルの複素DFT係数列の各複素DFT係数をV1(f)とし、第2チャネルの複素DFT係数列の各複素DFT係数をV2(f)とする。ステレオ符号化部110は、次に、2個のチャネルの複素DFT係数列から、各複素DFT係数の複素面上での半径の値による系列を得る(ステップS111-2)。各チャネルの各複素DFT係数の複素面上での半径の値は、各チャネルの音信号の周波数ビンごとの強度に相当する。以降では、第1チャネルの複素DFT係数V1(f)の複素面上での半径の値をV1r(f)とし、第2チャネルの複素DFT係数V2(f)の複素面上での半径の値をV2r(f)とする。ステレオ符号化部110は、次に、周波数帯域それぞれについて一方のチャネルの半径の値と他方のチャネルの半径の値との比の平均値を得て、平均値による系列を特徴パラメータとして得る(ステップS111-3)。この平均値による系列が、入力された2個のチャネルの音信号の周波数帯域ごとの強度差を表す情報に相当する特徴パラメータである。例えば、4個の帯域とする場合であれば、fが1から93まで、94から186まで、187から279まで、280から372まで、の4個の帯域それぞれについての、第1チャネルの半径の値V1r(f)を第2チャネルの半径の値V2r(f)で除算して得た93個の値の平均値Mr(1), Mr(2), Mr(3), Mr(4)を得て、平均値による系列{Mr(1), Mr(2), Mr(3), Mr(4)}を特徴パラメータとして得る。
なお、帯域数は周波数ビンの数以下の値であればよく、帯域数として周波数ビン数と同じ値を用いてもよいし、1を用いてもよい。帯域数として周波数ビン数と同じ値を用いる場合には、ステレオ符号化部110は、各周波数ビンの一方のチャネルの半径の値と他方のチャネルの半径の値との比の値を得て、得た比の値による系列を特徴パラメータとして得ればよい。帯域数として1を用いる場合には、ステレオ符号化部110は、各周波数ビンの一方のチャネルの半径の値と他方のチャネルの半径の値との比の値を得て、得た比の値の全帯域の平均値を特徴パラメータとして得ればよい。また、帯域数を複数とする場合の各周波数帯域に含める周波数ビン数は任意であり、例えば、周波数が低い帯域に含める周波数ビン数を周波数が高い帯域に含める周波数ビン数よりも少なくしてもよい。
また、ステレオ符号化部110は、一方のチャネルの半径の値と他方のチャネルの半径の値との比に代えて、一方のチャネルの半径の値と他方のチャネルの半径の値との差を用いてもよい。すなわち、上述した例であれば、第1チャネルの半径の値V1r(f)を第2チャネルの半径の値V2r(f)で除算して得た値に代えて、第1チャネルの半径の値V1r(f)から第2チャネルの半径の値V2r(f)を減算して得た値を用いてもよい。
ステレオ符号化部110は、更に、特徴パラメータを表す符号であるステレオ符号CSを得る(ステップS111-4)。特徴パラメータを表す符号であるステレオ符号CSは周知の方法で得ればよい。例えば、ステレオ符号化部110は、ステップS111-3で得た値の系列をベクトル量子化して符号を得て、得た符号をステレオ符号CSとして出力する。または、例えば、ステレオ符号化部110は、ステップS111-3で得た値の系列に含まれる値それぞれをスカラ量子化して符号を得て、得た符号を合わせたものをステレオ符号CSとして出力する。なお、ステレオ符号化部110は、ステップS111-3で得たのが1つの値である場合には、その1つの値をスカラ量子化して得た符号をステレオ符号CSとして出力すればよい。
ステレオ符号化部110は、また、第1チャネルと第2チャネルの2個のチャネルの音信号を混合した信号であるダウンミックス信号を得る(ステップS111-5)。例えば、ステレオ符号化部110は、現在のフレームの処理においては、t3からt7までの20msについて、2個のチャネルの音信号を混合したモノラルの信号であるダウンミックス信号を得るようにすればよい。ステレオ符号化部110は、後述するステップS111-5Aのように2個のチャネルの音信号を時間領域で混合してもよいし、後述するステップS111-5Bのように2個のチャネルの音信号を周波数領域で混合してもよい。時間領域で混合する場合には、例えば、ステレオ符号化部110は、第1チャネルの音信号のサンプル列と第2チャネルの音信号のサンプル列との対応するサンプル同士の平均値による系列を2個のチャネルの音信号を混合したモノラルの信号であるダウンミックス信号として得る(ステップS111-5A)。周波数領域で混合する場合には、例えば、ステレオ符号化部110は、第1チャネルの音信号のサンプル列を複素DFTして得られる複素DFT係数列の各複素DFT係数と第2チャネルの音信号のサンプル列を複素DFTして得られる複素DFT係数列の各複素DFT係数の半径の平均値VMr(f)と角度の平均値VMθ(f)とを得て、複素面上での半径がVMr(f)であり角度がVMθ(f)である複素数VM(f)による系列を逆複素DFTして得たサンプル列を、2個のチャネルの音信号を混合したモノラルの信号であるダウンミックス信号として得る(ステップS111-5B)。
なお、図1に二点鎖線で示すように符号化装置100にダウンミックス部150も備えて、ダウンミックス信号を得るステップS111-5の処理を、ステレオ符号化部110内ではなくダウンミックス部150が行うようにしてもよい。この場合には、ステレオ符号化部110は、符号化装置100に入力された2チャネルステレオ入力音信号から入力された2個のチャネルの音信号の差分の特徴を表すパラメータである特徴パラメータを表すステレオ符号CSを得て出力し(ステップS111)、ダウンミックス部150は、符号化装置100に入力された2チャネルステレオ入力音信号から2個のチャネルの音信号を混合した信号であるダウンミックス信号を得て出力する(ステップS151)。すなわち、ステレオ符号化部110が上述したステップS111―1からステップS111-4までをステップS111として行い、ダウンミックス部150が上述したステップS111―5をステップS151として行うようにしてもよい。
[モノラル符号化部120]
モノラル符号化部120には、ステレオ符号化部110が出力したダウンミックス信号が入力される。符号化装置100がダウンミックス部150を備える場合には、モノラル符号化部120には、ダウンミックス部150が出力したダウンミックス信号が入力される。モノラル符号化部120は、ダウンミックス信号を所定の符号化方式で符号化してモノラル符号CMを得て出力する(ステップS121)。符号化方式としては、例えば非特許文献2の3GPP EVS規格(3GPP TS26.445)の13.2kbpsモードのような、フレーム間でオーバーラップのある窓をかける処理が含まれる符号化方式を用いる。上述した例であれば、モノラル符号化部120は、現在のフレームの処理においては、ダウンミックス信号である信号1aに、現在のフレームと直前のフレームとがオーバーラップするt1からt2までの区間は増加する形、現在のフレームと直後のフレームとがオーバーラップするt5からt6までの区間は減衰する形、これらの区間の間にあるt2からt5までの区間は平坦な形の窓をかけて得たt1からt6までの区間の信号である信号1bを、「先読み区間」である信号1aのt6からt7までの区間も分析処理に用いて符号化してモノラル符号CMを得て出力する。
このように、モノラル符号化部120が用いる符号化方式がオーバーラップのある窓をかける処理や「先読み区間」を用いた分析処理を含む場合には、現在のフレームの処理でステレオ符号化部110またはダウンミックス部150が出力したダウンミックス信号のみならず、過去のフレームの処理でステレオ符号化部110またはダウンミックス部150が出力したダウンミックス信号も符号化処理に用いることから、モノラル符号化部120には図示しない記憶部を備えておき、過去のフレームの処理で入力されたダウンミックス信号を記憶部に記憶しておくようにして、モノラル符号化部120は、記憶部に記憶されたダウンミックス信号も用いて現在のフレームの符号化処理を行えばよい。または、ステレオ符号化部110またはダウンミックス部150に図示しない記憶部を備えておき、ステレオ符号化部110またはダウンミックス部150が、モノラル符号化部120が現在のフレームの符号化処理で用いるダウンミックス信号を、過去のフレームの処理で得たダウンミックス信号も含んで現在のフレームの処理で出力するようにして、モノラル符号化部120は、現在のフレームの処理においてステレオ符号化部110またはダウンミックス部150から入力されたダウンミックス信号を用いるようにしてもよい。なお、これらの処理のような、過去のフレームの処理で得た信号を図示しない記憶部に記憶しておいて現在のフレームの処理で用いることは、必要に応じて後述する各部でも行うが、符号化の技術分野においては周知の処理であるので、冗長を避けるために以降では説明を省略する。
[追加符号化部130]
追加符号化部130には、ステレオ符号化部110が出力したダウンミックス信号が入力される。符号化装置100がダウンミックス部150を備える場合には、追加符号化部130には、ダウンミックス部150が出力したダウンミックス信号が入力される。追加符号化部130は、入力されたダウンミックス信号のうちの区間Xのダウンミックス信号を符号化して追加符号CAを得て出力する(ステップS131)。上述した例であれば、追加符号化部130は、t5からt6までの区間のダウンミックス信号である信号5cを符号化して追加符号CAを得て出力する。符号化には周知のスカラ量子化やベクトル量子化などの符号化方式を用いればよい。
≪復号装置200≫
第1実施形態の復号装置200は、図3に示す通り、モノラル復号部210と追加復号部230とステレオ復号部220を含む。復号装置200は、符号化装置100と同じ所定の時間長のフレーム単位で、入力されたモノラル符号CMと追加符号CAとステレオ符号CSを復号して2チャネルステレオの時間領域の音信号(2チャネルステレオ復号音信号)を得て出力する。復号装置200に入力される符号、すなわち、モノラル符号CMと追加符号CAとステレオ符号CS、は符号化装置100が出力したものである。復号装置200は、各フレーム単位で、すなわち、上述した所定の時間長の間隔で、モノラル符号CMと追加符号CAとステレオ符号CSが入力されるごとに、図4に例示するステップS211とステップS221とステップS231の処理を行う。上述した例であれば、復号装置200は、直前のフレームについての処理を行ったt3から20ms経過したt7の時点で、現在のフレームのモノラル符号CMと追加符号CAとステレオ符号CSが入力されると、現在のフレームについてのステップS211とステップS221とステップS231の処理を行う。なお、図3に破線で示す通り、復号装置200は、必要な場合にはモノラルの時間領域の音信号であるモノラル復号音信号も出力する。
[モノラル復号部210]
モノラル復号部210には、復号装置200に入力された符号に含まれるモノラル符号CMが入力される。モノラル復号部210は、入力されたモノラル符号CMを用いて区間Yのモノラル復号音信号を得て出力する(ステップS211)。所定の復号方式としては、符号化装置100のモノラル符号化部120が用いた符号化方式に対応する復号方式を用いる。上述した例であれば、モノラル復号部210は、現在のフレームのモノラル符号CMを所定の復号方式で復号して、t1からt2までの3.25msの区間が増加する形であり、t2からt5までの16.75msの区間が平坦であり、t5からt6までの3.25msの区間が減衰する形の窓がけがされたt1からt6までの23.25msの区間の信号2aを得て、t1からt2までの区間については直前のフレームの処理で直前のフレームのモノラル符号CMから得た信号2bと現在のフレームのモノラル符号CMから得た信号2aとを合成し、t2からt5までの区間については現在のフレームのモノラル符号CMから得た信号2aをそのまま用いることで、t1からt5まで20msの区間のモノラル復号音信号である信号2dを得て出力する。なお、現在のフレームのモノラル符号CMから得たt5からt6までの区間の信号2aは直後のフレームの処理で「直前のフレームの処理で得られた信号2b」として用いられるので、モノラル復号部210は、現在のフレームのモノラル符号CMから得たt5からt6までの区間の信号2aをモノラル復号部210内の図示しない記憶部に記憶する。
[追加復号部230]
追加復号部230には、復号装置200に入力された符号に含まれる追加符号CAが入力される。追加復号部230は、追加符号CAを復号して区間Xのモノラルの復号音信号である追加復号信号を得て出力する(ステップS231)。復号には、追加符号化部130が用いた符号化方式に対応する復号方式を用いる。上述した例であれば、追加復号部230は、現在のフレームの追加符号CAを復号してt5からt6までの3.25msの区間のモノラル復号音信号である信号4bを得て出力する。
[ステレオ復号部220]
ステレオ復号部220には、モノラル復号部210が出力したモノラル復号音信号と、追加復号部230が出力した追加復号信号と、復号装置200に入力された符号に含まれるステレオ符号CSと、が入力される。ステレオ復号部220は、入力されたモノラル復号音信号と追加復号信号とステレオ符号CSとから、2個のチャネルの復号音信号であるステレオ復号音信号を得て出力する(ステップS221)。より詳しくは、ステレオ復号部220は、区間Yのモノラル復号音信号と区間Xの追加復号信号とを連結した信号である区間Y+X(すなわち、区間Yと区間Xを連結した区間)の復号ダウンミックス信号を得て(ステップS221-1)、ステレオ符号CSから得られる特徴パラメータを用いたアップミックス処理によりステップS221-1で得た復号ダウンミックス信号から2個のチャネルの復号音信号を得て出力する(ステップS221-2)。後述する各実施形態でも同様であるが、アップミックス処理とは、復号ダウンミックス信号が2個のチャネルの復号音信号が混合された信号であると見做し、ステレオ符号CSから得られる特徴パラメータが2個のチャネルの復号音信号の差分の特徴を表す情報であると見做して、2個のチャネルの復号音信号を得る処理である。上述した例であれば、まず、ステレオ復号部220は、モノラル復号部210が出力したt1からt5までの20msの区間のモノラル復号音信号(信号2d、信号3aのt1からt5までの区間)と、追加復号部230が出力したt5からt6までの3.25msの区間の追加復号信号(信号4b)とを連結して、t1からt6までの23.25msの区間の復号ダウンミックス信号(信号4cのt1からt6までの区間)を得る。次に、ステレオ復号部220は、t1からt6までの区間の復号ダウンミックス信号が2個のチャネルの復号音信号が混合された信号であると見做し、ステレオ符号CSから得られる特徴パラメータが2個のチャネルの復号音信号の差分の特徴を表す情報であると見做して、t1からt5までの20msの区間の2個のチャネルの復号音信号(信号4h-1と信号4h-2)を得て出力する。
〔ステレオ復号部220が行うステップS221-2の例〕
ステレオ復号部220が行うステップS221-2の例として、特徴パラメータが2個のチャネルの音信号の周波数帯域ごとの強度差を表す情報である場合のステレオ復号部220が行うステップS221-2について説明する。ステレオ復号部220は、まず、入力されたステレオ符号CSを復号して周波数帯域ごとの強度差を表す情報を得る(S221-21)。ステレオ復号部220は、符号化装置100のステレオ符号化部110が周波数帯域ごとの強度差を表す情報からステレオ符号CSを得た方式に対応する方式で、ステレオ符号CSから特徴パラメータを得る。例えば、ステレオ復号部220は、入力されたステレオ符号CSをベクトル復号して、入力されたステレオ符号CSに対応するベクトルの各要素値を複数個の周波数帯域ごとの強度差を表す情報として得る。または、例えば、ステレオ復号部220は、入力されたステレオ符号CSに含まれる符号それぞれをスカラ復号して周波数帯域ごとの強度差を表す情報を得る。なお、帯域数が1の場合には、ステレオ復号部220は、入力されたステレオ符号CSをスカラ復号して1つの周波数帯域すなわち全帯域の強度差を表す情報を得る。
ステレオ復号部220は、次に、ステップS221-1で得た復号ダウンミックス信号とステップS221-21で得た特徴パラメータとから、復号ダウンミックス信号が2個のチャネルの復号音信号が混合された信号であると見做し、特徴パラメータが2個のチャネルの復号音信号の周波数帯域ごとの強度差を表す情報であると見做して、2個のチャネルの復号音信号を得て出力する(ステップS220-22)。符号化装置100のステレオ符号化部110が複素DFTを用いた上述した具体例の動作をした場合であれば、ステレオ復号部220のステップS221-22は以下の動作となる。
ステレオ復号部220は、まず、t1からt6までの23.25msの区間の744サンプルの復号ダウンミックス信号に対して、t1からt2までの3.25msの区間が増加する形であり、t2からt5までの16.75msの区間が平坦であり、t5からt6までの3.25msの区間が減衰する形の窓がけをした信号4dを得る(ステップS221-221)。ステレオ復号部220は、次に、信号4dを複素DFTして得られる744個の複素数による系列のうちの前半の372個の複素数による系列を複素DFT係数列(モノラルの複素DFT係数列)として得る(ステップS221-222)。以降では、ステレオ復号部220が得たモノラルの複素DFT係数列の各複素DFT係数をMQ(f)とする。ステレオ復号部220は、次に、モノラルの複素DFT係数列から、各複素DFT係数の複素面上での半径の値MQr(f)と、各複素DFT係数の複素面上での角度の値MQθ(f)と、を得る(ステップS221-223)。ステレオ復号部220は、次に、各半径の値MQr(f)に特徴パラメータのうちの対応する値の平方根を乗算した値を第1チャネルの各半径の値VLQr(f)として得て、各半径の値MQr(f)を特徴パラメータのうちの対応する値の平方根で除算した値を第2チャネルの各半径の値VRQr(f)として得る(ステップS221-224)。各周波数ビンについての特徴パラメータのうちの対応する値は、上述した4個の帯域の例であれば、fが1から93まではMr(1)であり、fが94から186まではMr(2)であり、fが187から279まではMr(3)であり、fが280から372まではMr(4)である。なお、符号化装置100のステレオ符号化部110が、第1チャネルの半径の値と第2チャネルの半径の値との比に代えて、第1チャネルの半径の値と第2チャネルの半径の値との差を用いた場合には、ステレオ復号部220は、各半径の値MQr(f)に特徴パラメータのうちの対応する値を2で除算した値を加算した値を第1チャネルの各半径の値VLQr(f)として得て、各半径の値MQr(f)から特徴パラメータのうちの対応する値を2で除算した値を減算した値を第2チャネルの各半径の値VRQr(f)として得ればよい。ステレオ復号部220は、次に、複素面上での半径がVLQr(f)であり角度がMQθ(f)である複素数による系列を逆複素DFTしてt1からt6までの23.25msの区間の744サンプルの第1チャネルの窓がけがされた復号音信号(信号4e-1)を得て、複素面上での半径がVRQr(f)であり角度がMQθ(f)である複素数による系列を逆複素DFTしてt1からt6までの23.25msの区間の744サンプルの第2チャネルの窓がけがされた復号音信号(信号4e-2)を得る(ステップS221-225)。ステップS221-225で得られた各チャネルの窓がけがされた復号音信号(信号4e-1と信号4e-2)は、t1からt2までの3.25msの区間が増加する形であり、t2からt5までの16.75msの区間が平坦であり、t5からt6までの3.25msの区間が減衰する形の窓がけがされた信号である。ステレオ復号部220は、次に、第1チャネルと第2チャネルのそれぞれについて、t1からt2までの区間については直前のフレームのステップS221-225で得られた信号(信号4f-1、信号4f-2)と現在のフレームのステップS221-225で得られた信号(信号4e-1、信号4e-2)とを合成し、t2からt5までの区間については現在のフレームのステップS221-225で得られた信号(信号4e-1、信号4e-2)をそのまま用いることで、t1からt5まで20msの区間の復号音信号(信号4h-1、信号4h-2)を得て出力する(ステップS221-226)。
<第2実施形態>
モノラル復号部210でモノラル符号CMから完全なモノラル復号音信号を得られる時間区間である区間Yについてのダウンミックス信号とモノラル符号化の局部復号信号との差分も、追加符号化部130での符号化の対象としてもよい。この形態を第2実施形態として、第1実施形態と異なる点を説明する。
[モノラル符号化部120]
モノラル符号化部120は、ダウンミックス信号を所定の符号化方式で符号化してモノラル符号CMを得て出力することに加えて、モノラル符号CMを復号して得られる信号、すなわち、ダウンミックス信号の区間Yの局部復号信号であるモノラル局部復号信号も得て出力する(ステップS122)。上述した例であれば、モノラル符号化部120は、現在のフレームのモノラル符号CMを得ることに加えて、現在のフレームのモノラル符号CMに対応する局部復号信号、すなわち、t1からt2までの3.25msの区間が増加する形であり、t2からt5までの16.75msの区間が平坦であり、t5からt6までの3.25msの区間が減衰する形の窓がけがされた局部復号信号を得て、t1からt2までの区間については直前のフレームのモノラル符号CMに対応する局部復号信号と現在のフレームのモノラル符号CMに対応する局部復号信号とを合成し、t2からt5までの区間については現在のフレームのモノラル符号CMに対応する局部復号信号をそのまま用いることで、t1からt5まで20msの区間の局部復号信号を得て出力する。t1からt2までの区間の直前のフレームのモノラル符号CMに対応する局部復号信号は、モノラル符号化部120内の図示しない記憶部に記憶されている信号を用いる。現在のフレームのモノラル符号CMに対応する局部復号信号のうちのt5からt6までの区間の信号は、直後のフレームの処理で「直前のフレームのモノラル符号CMに対応する局部復号信号」として用いられるので、モノラル符号化部120は、現在のフレームのモノラル符号CMから得たt5からt6までの区間の局部復号信号をモノラル符号化部120内の図示しない記憶部に記憶する。
[追加符号化部130]
追加符号化部130には、ダウンミックス信号に加えて、図1に破線で示す通り、モノラル符号化部120が出力したモノラル局部復号信号も入力される。追加符号化部130は、第1実施形態の追加符号化部130で符号化の対象としていた区間Xのダウンミックス信号だけではなく、区間Yのダウンミックス信号とモノラル局部復号信号との差信号(対応するサンプル同士のサンプル値の減算により構成される信号)も符号化して、追加符号CAを得て出力する(ステップS132)。例えば、追加符号化部130は、区間Xのダウンミックス信号と区間Yの差信号のそれぞれを符号化して符号を得て、得た符号を連結したものを追加符号CAとして得ればよい。符号化には第1実施形態の追加符号化部130と同様の符号化方式を用いればよい。また例えば、追加符号化部130は、区間Yの差信号と区間Xのダウンミックス信号とを連結した信号を符号化して追加符号CAを得てもよい。また例えば、下記の[[追加符号化部130の具体例1]]のように、追加符号化部130は、区間Xのダウンミックス信号を符号化して符号(第1追加符号CA1)を得る第1追加符号化と、区間Yの差信号(すなわち、モノラル符号化部120の量子化誤差信号)と区間Xのダウンミックス信号と第1追加符号化の局部復号信号との差信号(すなわち、第1追加符号化の量子化誤差信号)とを連結した信号を符号化して符号(第2追加符号CA2)を得る第2追加符号化と、を行い、第1追加符号CA1と第2追加符号CA2を合わせたものを追加符号CAとするとよい。[[追加符号化部130の具体例1]]によれば、区間Yの差信号と区間Xのダウンミックス信号よりも2つの区間の振幅の異なりが小さいであろう信号を連結したものを符号化の対象として第2追加符号化することになり、ダウンミックス信号そのものは短い時間区間のみを符号化の対象として第1追加符号化するので、効率の良い符号化が期待できる。
[[追加符号化部130の具体例1]]
追加符号化部130は、まず、入力された区間Xのダウンミックス信号を符号化して第1追加符号CA1を得て(ステップS132-1、以下では「第1追加符号化」ともいう)、第1追加符号CA1に対応する区間Xの局部復号信号、すなわち、区間Xの第1追加符号化の局部復号信号を得る(ステップS132-2)。第1追加符号化には周知のスカラ量子化やベクトル量子化などの符号化方式を用いればよい。追加符号化部130は、次に、入力された区間Xのダウンミックス信号とステップS132-2で得た区間Xの局部復号信号との差信号(対応するサンプル同士のサンプル値の減算により構成される信号)を得る(ステップS132-3)。追加符号化部130は、また、区間Yのダウンミックス信号とモノラル局部復号信号との差信号(対応するサンプル同士のサンプル値の減算により構成される信号)を得る(ステップS132-4)。追加符号化部130は、次に、ステップS132-4で得た区間Yの差信号とステップS132-3で得た区間Xの差信号とを連結した信号を符号化して第2追加符号CA2を得る(ステップS132-5、以下では「第2追加符号化」ともいう)。第2追加符号化には、ステップS132-4で得た区間Yの差信号のサンプル列とステップS132-3で得た区間Xの差信号のサンプル列とを連結したサンプル列を纏めて符号化する符号化方式、例えば、時間領域での予測を用いた符号化方式、周波数領域での振幅の偏りに適応した符号化方式、を用いる。追加符号化部130は、次に、ステップS132-1で得た第1追加符号CA1とステップS132-5で得た第2追加符号CA2を合わせたものを追加符号CAとして出力する(ステップS132-6)。
なお、追加符号化部130は、上述した差信号に代えて重み付き差信号を符号化の対象としてもよい。すなわち、追加符号化部130は、区間Yのダウンミックス信号とモノラル局部復号信号との重み付き差信号(対応するサンプル同士のサンプル値の重み付き減算により構成される信号)と、区間Xのダウンミックス信号と、を符号化して追加符号CAを得て出力してもよい。[[追加符号化部130の具体例1]]であれば、追加符号化部130は、ステップS132-4の処理として、区間Yのダウンミックス信号とモノラル局部復号信号との重み付き差信号(対応するサンプル同士のサンプル値の重み付き減算により構成される信号)を得ればよい。同様に、追加符号化部130は、[[追加符号化部130の具体例1]]のステップS132-3の処理として、入力された区間Xのダウンミックス信号とステップS132-2で得た区間Xの局部復号信号との重み付き差信号(対応するサンプル同士のサンプル値の重み付き減算により構成される信号)を得てもよい。これらの場合には、それぞれの重み付き差信号の生成に用いる重みを周知の符号化技術で符号化して符号を得て、得た符号(重みを表す符号)を追加符号CAに含めればよい。これらのことは後述する各実施形態における各差信号についても同様であるが、差信号に代えて重み付き差信号を符号化の対象とすることやその際には重みも符号化することは符号化の技術分野においては周知のことであるので、後述する実施形態では冗長とならないように個別の説明を省略して、差信号と重み付き差信号を「または」を用いて併記した説明、減算と重み付き減算を「または」を用いて併記した説明、のみを行うこととする。
[追加復号部230]
追加復号部230は、追加符号CAを復号して、第1実施形態の追加復号部230で得られる追加復号信号である区間Xの追加復号信号だけではなく、区間Yの追加復号信号も得て出力する(ステップS232)。復号には、追加符号化部130がステップS132で用いた符号化方式に対応する復号方式を用いる。すなわち、追加符号化部130がステップS132で[[追加符号化部130の具体例1]]を用いた場合には、追加復号部230は下記の[[追加復号部230の具体例1]]の処理を行う。
[[追加復号部230の具体例1]]
追加復号部230は、まず、追加符号CAに含まれる第1追加符号CA1を復号して区間Xの第1復号信号を得る(ステップS232-1、以下では「第1追加復号」ともいう)。第1追加復号には、追加符号化部130が第1追加符号化に用いた符号化方式に対応する復号方式を用いる。追加復号部230は、また、追加符号CAに含まれる第2追加符号CA2を復号して区間Yと区間Xの第2復号信号を得る(ステップS232-2、以下では「第2追加復号」ともいう)。第2追加復号には、追加符号化部130が第2追加符号化に用いた符号化方式に対応する復号方式、すなわち、符号から区間Yの追加復号信号のサンプル列と区間Xの第2復号信号のサンプル列が連結された一纏まりのサンプル列が得られる復号方式、例えば、時間領域での予測を用いた復号方式、周波数領域での振幅の偏りに適応した復号方式、を用いる。追加復号部230は、次に、ステップS232-2で得た第2復号信号のうちの区間Yの第2復号信号を区間Yの追加復号信号として得て、ステップS232-1で得た区間Xの第1復号信号とステップS232-2で得た第2復号信号のうちの区間Xの第2復号信号を加算した信号(対応するサンプル同士のサンプル値の加算により構成される信号)を区間Xの追加復号信号として得て、区間Yと区間Xの追加復号信号を出力する(ステップS232-4)。
なお、追加符号化部130が差信号ではなく重み付き差信号を符号化の対象とした場合には、追加符号CAには重みを表す符号も含まれているので、追加復号部230は、上述したステップS232では追加符号CAのうちの重みを表す符号以外の符号を復号して追加復号信号を得て出力し、追加符号CAに含まれる重みを表す符号を復号して重みを得て出力すればよい。[[追加復号部230の具体例1]]であれば、追加符号CAに含まれる区間Xの重みを表す符号を復号して区間Xの重みを得て、追加復号部230は、ステップS232-4では、ステップS232-2で得た第2復号信号のうちの区間Yの第2復号信号を区間Yの追加復号信号として得て、ステップS232-1で得た区間Xの第1復号信号とステップS232-2で得た第2復号信号のうちの区間Xの第2復号信号を重み付き加算した信号(対応するサンプル同士のサンプル値の重み付き加算により構成される信号)を区間Xの追加復号信号として得て、区間Yと区間Xの追加復号信号と、追加符号CAに含まれる区間Yの重みを表す符号を復号して得られる区間Yの重みと、を出力すればよい。これらのことは後述する各実施形態における信号の加算についても同様であるが、加算(和信号の生成)に代えて重み付き加算(重み付き和信号の生成)をすることやその際には符号から重みも得ることは符号化の技術分野においては周知のことであるので、後述する実施形態では冗長とならないように個別の説明を省略して、加算と重み付き加算を「または」を用いて併記した説明、和信号と重み付き和信号を「または」を用いて併記した説明、のみを行うこととする。
[ステレオ復号部220]
ステレオ復号部220は、以下のステップS222-1とステップS222-2を行う(ステップS222)。ステレオ復号部220は、第1実施形態のステレオ復号部220が行ったステップS221-1に代えて、区間Yのモノラル復号音信号と区間Yの追加復号信号との和信号(対応するサンプル同士のサンプル値の加算により構成される信号)と、区間Xの追加復号信号と、を連結した信号を区間Y+Xの復号ダウンミックス信号として得て(ステップS222-1)、ステップS221-1で得た復号ダウンミックス信号に代えてステップS222-1で得た復号ダウンミックス信号を用いて、ステレオ符号CSから得られる特徴パラメータを用いたアップミックス処理によりステップS222-1で得た復号ダウンミックス信号から2個のチャネルの復号音信号を得て出力する(ステップS222-2)。
なお、追加符号化部130が差信号ではなく重み付き差信号を符号化の対象とした場合には、ステレオ復号部220は、ステップS222-1では、区間Yのモノラル復号音信号と区間Yの追加復号信号との重み付き和信号(対応するサンプル同士のサンプル値の重み付き加算により構成される信号)と、区間Xの追加復号信号と、を連結した信号を区間Y+Xの復号ダウンミックス信号として得ればよい。区間Yのモノラル復号音信号と区間Yの追加復号信号との重み付き和信号の生成(対応するサンプル同士のサンプル値の重み付き加算)には、追加復号部230が出力した区間Yの重みを用いればよい。これは後述する各実施形態における信号の加算についても同様であるが、追加復号部230の説明箇所においても説明した通り、加算(和信号の生成)に代えて重み付き加算(重み付き和信号の生成)をすることやその際には符号から重みも得ることは符号化の技術分野においては周知のことであるので、後述する実施形態では冗長とならないように個別の説明を省略して、加算と重み付き加算を「または」を用いて併記した説明、和信号と重み付き和信号を「または」を用いて併記した説明、のみを行うこととする。
第2実施形態によれば、ステレオ符号化/復号のアルゴリズム遅延がモノラル符号化/復号のアルゴリズム遅延よりも大きくないことに加えて、ステレオ復号に用いる復号ダウンミックス信号を第1実施形態より高品質にすることができることから、ステレオ復号により得られる各チャネルの復号音信号を高音質にすることもできる。すなわち、第2実施形態では、モノラル符号化部120が行うモノラル符号化処理と追加符号化部130が行う追加符号化処理とをダウンミックス信号を高品質に符号化するための符号化処理として用い、モノラル符号CMと追加符号CAとをダウンミックス信号を良好に表すための符号として得て、モノラル復号部210が行うモノラル復号処理と追加復号部230が行う追加復号処理とを高品質な復号ダウンミックス信号を得るための復号処理として用いている。モノラル符号CMと追加符号CAのそれぞれに割り当てる符号量は用途に応じて任意に決定すればよく、標準品質のモノラル符号化/復号に加えてより高品質なステレオ符号化/復号を実現したい場合にはより多くの符号量を追加符号CAに割り当てればよい。すなわち、ステレオ符号化/復号の観点では、「モノラル符号」と「追加符号」はあくまでも便宜的な呼称であり、モノラル符号CMも追加符号CAもそれぞれダウンミックス信号を表す符号の一部であることからすれば、何れか一方を「第1ダウンミックス符号」と呼んで他方を「第2ダウンミックス符号」と呼んでもよいし、より多くの符号量を追加符号CAに割り当てることを想定するのであれば、追加符号CAを「ダウンミックス符号」「ダウンミックス信号符号」などと呼んでもよい。以上のことは、第3実施形態やそれ以降で説明する第2実施形態に基づく各実施形態でも同様である。
<第3実施形態>
ステレオ復号部220では2個のチャネルの音信号が周波数領域で混合されたダウンミックス信号に対応する復号ダウンミックス信号を用いたほうが高音質な2個のチャネルの復号音信号を得ることができ、モノラル符号化部120では2個のチャネルの音信号が時間領域で混合された信号を符号化したほうがモノラル復号部210で高音質なモノラル復号音信号を得ることができる場合がある。このような場合には、ステレオ符号化部110は符号化装置100に入力された2個のチャネルの音信号を周波数領域で混合してダウンミックス信号を得て、モノラル符号化部120は符号化装置100に入力された2個のチャネルの音信号を時間領域で混合した信号を符号化して、追加符号化部130では2個のチャネルの音信号を周波数領域で混合した信号と時間領域で混合した信号の差分も符号化するとよい。この形態を第3実施形態として、第2実施形態と異なる点を中心に説明する。
[ステレオ符号化部110]
ステレオ符号化部110は、第2実施形態のステレオ符号化部110と同様に第1実施形態で説明した動作を行うが、2個のチャネルの音信号を混合した信号であるダウンミックス信号を得る処理は、例えばステップS111-5Bのような2個のチャネルの音信号を周波数領域で混合する処理により行う(ステップS113)。すなわち、ステレオ符号化部110は、2個のチャネルの音信号を周波数領域で混合したダウンミックス信号を得る。例えば、ステレオ符号化部110は、現在のフレームの処理においては、t1からt6までの区間について、2個のチャネルの音信号を周波数領域で混合したモノラルの信号であるダウンミックス信号を得るようにすればよい。符号化装置100にダウンミックス部150も備える場合には、ステレオ符号化部110は、符号化装置100に入力された2チャネルステレオ入力音信号から入力された2個のチャネルの音信号の差分の特徴を表すパラメータである特徴パラメータを表すステレオ符号CSを得て出力し(ステップS113)、ダウンミックス部150は、符号化装置100に入力された2チャネルステレオ入力音信号から2個のチャネルの音信号を周波数領域で混合した信号であるダウンミックス信号を得て出力する(ステップS153)。
[モノラル符号化対象信号生成部140]
第3実施形態の符号化装置100は、図1に一点鎖線で示すように、モノラル符号化対象信号生成部140も含む。モノラル符号化対象信号生成部140には、符号化装置100に入力された2チャネルステレオ入力音信号が入力される。モノラル符号化対象信号生成部140は、入力された2チャネルステレオ入力音信号から、2個のチャネルの音信号を時間領域で混合する処理によってモノラルの信号であるモノラル符号化対象信号を得る(ステップS143)。例えば、モノラル符号化対象信号生成部140は、第1チャネルの音信号のサンプル列と第2チャネルの音信号のサンプル列との対応するサンプル同士の平均値による系列を、2個のチャネルの音信号を混合した信号であるモノラル符号化対象信号として得る。すなわち、モノラル符号化対象信号生成部140が得るモノラル符号化対象信号は、2個のチャネルの音信号を時間領域で混合した信号である。例えば、モノラル符号化対象信号生成部140は、現在のフレームの処理においては、t3からt7までの20msについて、2個のチャネルの音信号を時間領域で混合したモノラルの信号であるモノラル符号化対象信号を得るようにすればよい。
[モノラル符号化部120]
モノラル符号化部120には、ステレオ符号化部110またはダウンミックス部150が出力したダウンミックス信号に代えて、モノラル符号化対象信号生成部140が出力したモノラル符号化対象信号が入力される。モノラル符号化部120は、モノラル符号化対象信号を符号化してモノラル符号CMを得て出力する(ステップS123)。例えば、モノラル符号化部120は、現在のフレームの処理においては、モノラル符号化対象信号に、現在のフレームと直前のフレームとがオーバーラップするt1からt2までの区間は増加する形、現在のフレームと直後のフレームとがオーバーラップするt5からt6までの区間は減衰する形、これらの区間の間にあるt2からt5までの区間は平坦な形の窓をかけて得たt1からt6までの区間の信号を、「先読み区間」であるモノラル符号化対象信号のt6からt7までの区間も分析処理に用いて符号化してモノラル符号CMを得て出力する。
[追加符号化部130]
追加符号化部130は、第2実施形態の追加符号化部130と同様に、区間Yのダウンミックス信号とモノラル局部復号信号との差信号または重み付き差信号(対応するサンプル同士のサンプル値の減算または重み付き減算により構成される信号)と区間Xのダウンミックス信号とを符号化して、追加符号CAを得て出力する(ステップS133)。ただし、区間Yのダウンミックス信号は2個のチャネルの音信号を周波数領域で混合した信号であり、区間Yのモノラル局部復号信号は2個のチャネルの音信号を時間領域で混合した信号を局部復号した信号である。
なお、第3実施形態の追加符号化部130は、第2実施形態の追加符号化部130と同様に、[[追加符号化部130の具体例1]]で説明したように、区間Xのダウンミックス信号を符号化して第1追加符号CAを得る第1追加符号化と、区間Yの差信号または重み付き差信号と、区間Xのダウンミックス信号と第1追加符号化の局部復号信号との差信号または重み付き差信号と、を連結した信号を符号化して第2追加符号CA2を得る第2追加符号化と、を行い、第1追加符号CA1と第2追加符号CA2を合わせたものを追加符号CAとするとよい。
[モノラル復号部210]
モノラル復号部210は、第2実施形態のモノラル復号部210と同様に、モノラル符号CMを用いて区間Yのモノラル復号音信号を得て出力する(ステップS213)。ただし、第3実施形態のモノラル復号部120が得たモノラル復号音信号は、2個のチャネルの音信号を時間領域で混合した信号の復号信号である。
[追加復号部230]
追加復号部230は、第2実施形態の追加復号部230と同様に、追加符号CAを復号して、区間Yと区間Xの追加復号信号を得て出力する(ステップS233)。ただし、区間Yの追加復号信号には、2個のチャネルの音信号を時間領域で混合した信号とモノラル復号音信号との差分と、2個のチャネルの音信号を周波数領域で混合した信号と2個のチャネルの音信号を時間領域で混合した信号との差分と、が含まれる。
[ステレオ復号部220]
ステレオ復号部220は、以下のステップS223-1とステップS223-2を行う(ステップS223)。ステレオ復号部220は、第2実施形態の追加復号部230と同様に、区間Yのモノラル復号音信号と区間Yの追加復号信号との和信号または重み付き和信号(対応するサンプル同士のサンプル値の加算または重み付き加算により構成される信号)と、区間Xの追加復号信号と、を連結した信号を区間Y+Xの復号ダウンミックス信号として得て(ステップS223-1)、ステレオ符号CSから得られる特徴パラメータを用いたアップミックス処理によりステップS223-1で得た復号ダウンミックス信号から2個のチャネルの復号音信号を得て出力する(ステップS223-2)。ただし、区間Yの和信号には、2個のチャネルの音信号を時間領域で混合した信号をモノラル符号化/復号して得たモノラル復号音信号と、2個のチャネルの音信号を時間領域で混合した信号とモノラル復号音信号との差分と、2個のチャネルの音信号を周波数領域で混合した信号と2個のチャネルの音信号を時間領域で混合した信号との差分と、が含まれる。
<第4実施形態>
区間Xについては、モノラル符号化部120やモノラル復号部210では、直後のフレームの信号や符号がないと正しい局部復号信号や復号信号を得られないものの、現在のフレームまでの信号や符号だけでも不完全な局部復号信号や復号信号は得られる。そこで、第1から第3の各実施形態を、区間Xについて、ダウンミックス信号そのものではなく、ダウンミックス信号と現在のフレームまでの信号から得たモノラル局部復号信号との差分を追加符号化部130で符号化するように変更してもよい。この形態を第4実施形態として説明する。
<<第4実施形態A>>
まず、第2実施形態を変更した第4実施形態である第4実施形態Aについて、第2実施形態と異なる点を中心に説明する。
[モノラル符号化部120]
モノラル符号化部120には、第2実施形態のモノラル符号化部120と同様に、ステレオ符号化部110またはダウンミックス部150が出力したダウンミックス信号が入力される。モノラル符号化部120は、ダウンミックス信号を符号化して得られるモノラル符号CMと、現在のフレームまでのモノラル符号CMを復号して得られる信号、すなわち、区間Y+Xのダウンミックス信号の局部復号信号であるモノラル局部復号信号と、を得て出力する(ステップS124)。より具体的には、モノラル符号化部120は、現在のフレームのモノラル符号CMを得ることに加えて、現在のフレームのモノラル符号CMに対応する局部復号信号、すなわち、t1からt2までの3.25msの区間が増加する形であり、t2からt5までの16.75msの区間が平坦であり、t5からt6までの3.25msの区間が減衰する形の窓がけがされた局部復号信号を得て、t1からt2までの区間については直前のフレームのモノラル符号CMに対応する局部復号信号と現在のフレームのモノラル符号CMに対応する局部復号信号とを合成し、t2からt6までの区間については現在のフレームのモノラル符号CMに対応する局部復号信号をそのまま用いることで、t1からt6まで23.25msの区間の局部復号信号を得て出力する。ただし、t5からt6までの区間の局部復号信号は、直後のフレームの処理で得られる増加する形の窓がけがされた局部復号信号と合成することで完全な局部復号信号となる局部復号信号であり、減衰する形の窓がけがされた不完全な局部復号信号である。
[追加符号化部130]
追加符号化部130には、第2実施形態の追加符号化部130と同様に、ステレオ符号化部110またはダウンミックス部150が出力したダウンミックス信号と、モノラル符号化部120が出力したモノラル局部復号信号と、が入力される。追加符号化部130は、区間Y+Xのダウンミックス信号とモノラル局部復号信号との差信号または重み付き差信号(対応するサンプル同士のサンプル値の減算または重み付き減算により構成される信号)を符号化して、追加符号CAを得て出力する(ステップS134)。
[モノラル復号部210]
モノラル復号部210には、第2実施形態のモノラル復号部210と同様に、モノラル符号CMが入力される。モノラル復号部210は、モノラル符号CMを用いて区間Y+Xのモノラル復号音信号を得て出力する(ステップS214)。ただし、区間Xすなわちt5からt6までの区間の復号信号は、直後のフレームの処理で得られる増加する形の窓がけがされた復号信号と合成することで完全な復号信号となる復号信号であり、減衰する形の窓がけがされた不完全な復号信号である。
[追加復号部230]
追加復号部230には、第2実施形態の追加復号部230と同様に、追加符号CAが入力される。追加復号部230は、追加符号CAを復号して、区間Y+Xの追加復号信号を得て出力する(ステップS234)。
[ステレオ復号部220]
ステレオ復号部220には、第2実施形態のステレオ復号部220と同様に、モノラル復号部210が出力したモノラル復号音信号と、追加復号部230が出力した追加復号信号と、復号装置200に入力されたステレオ符号CSと、が入力される。ステレオ復号部220は、区間Y+Xのモノラル復号音信号と追加復号信号との和信号または重み付き和信号(対応するサンプル同士のサンプル値の加算または重み付き加算により構成される信号)を復号ダウンミックス信号として得て、ステレオ符号CSから得られる特徴パラメータを用いたアップミックス処理により復号ダウンミックス信号から2個のチャネルの復号音信号を得て出力する(ステップS224)。
<<第4実施形態B>>
なお、第4実施形態Aの説明におけるモノラル符号化部120の「ステレオ符号化部110またはダウンミックス部150が出力したダウンミックス信号」と「ダウンミックス信号」のそれぞれを「モノラル符号化対象信号生成部140が出力したモノラル符号化対象信号」と「モノラル符号化対象信号」に置き換えれば、第3実施形態を変更した第4実施形態である第4実施形態Bについての第3実施形態と異なる点を中心とした説明となる。
<<第4実施形態C>>
また、第4実施形態Aの説明におけるモノラル符号化部120が得るモノラル局部復号信号、追加符号化部130が符号化する差信号または重み付き差信号、追加復号部230が得る追加復号信号、のそれぞれを区間Xのものとし、ステレオ復号部220が区間Yのモノラル復号音信号と、区間Xのモノラル復号音信号と追加復号信号との和信号または重み付き和信号と、を連結した信号を復号ダウンミックス信号として得るようにすれば、第1実施形態を変更した第4実施形態である第4実施形態Cとなる。
<第5実施形態>
区間Xのダウンミックス信号には、区間Yのモノラル局部復号信号から予測できる部分が含まれている。そこで、第1から第4の各実施形態において、区間Xについて、ダウンミックス信号と区間Yのモノラル局部復号信号からの予測信号との差分を追加符号化部130で符号化してもよい。この形態を第5実施形態として説明する。
<<第5実施形態A>>
まず、第2実施形態、第3実施形態、第4実施形態A、第4実施形態B、の各実施形態を変更した第5実施形態を第5実施形態Aとして、第2実施形態、第3実施形態、第4実施形態A、第4実施形態B、の各実施形態と異なる点を説明する。
[追加符号化部130]
追加符号化部130は、以下のステップS135A-1とステップS135A-2を行う(ステップS135A)。追加符号化部130は、まず、所定の周知の予測技術を用いて、入力された区間Yまたは区間Y+Xのモノラル局部復号信号(ただし、上述した通り区間Xは不完全なモノラル局部復号信号)からモノラル局部復号信号についての区間Xの予測信号を得る(ステップS135A-1)。なお、第4実施形態Aを変更した第5実施形態または第4実施形態Bを変更した第5実施形態の場合には、入力された区間Xの不完全なモノラル局部復号信号を区間Xの予測信号に含むようにする。追加符号化部130は、次に、区間Yのダウンミックス信号とモノラル局部復号信号との差信号または重み付き差信号(対応するサンプル同士のサンプル値の減算または重み付き減算により構成される信号)と、区間Xのダウンミックス信号とステップS135A-1で得た予測信号との差信号または重み付き差信号(対応するサンプル同士のサンプル値の減算または重み付き減算により構成される信号)と、を符号化して、追加符号CAを得て出力する(ステップS135A-2)。例えば、区間Yの差信号と区間Xの差信号とを連結した信号を符号化して追加符号CAを得てもよいし、また例えば、区間Yの差信号と区間Xの差信号のそれぞれを符号化して符号を得て、得た符号を連結したものを追加符号CAとして得てもよい。符号化には第2実施形態、第3実施形態、第4実施形態A、第4実施形態B、の各実施形態の追加符号化部130と同様の符号化方式を用いればよい。
[ステレオ復号部220]
ステレオ復号部220は、以下のステップS225A-0からステップS225A-2を行う(ステップS225A)。ステレオ復号部220は、まず、追加符号化部130がステップS135で用いたのと同じ予測技術を用いて、区間Yまたは区間Y+Xのモノラル復号音信号から区間Xの予測信号を得る(ステップS225A-0)。ステレオ復号部220は、次に、区間Yのモノラル復号音信号と追加復号信号との和信号または重み付き和信号(対応するサンプル同士のサンプル値の加算または重み付き加算により構成される信号)と、区間Xの追加復号信号と予測信号との和信号または重み付き和信号(対応するサンプル同士のサンプル値の加算または重み付き加算により構成される信号)、を連結した信号を区間Y+Xの復号ダウンミックス信号として得る(ステップS225A-1)。ステレオ復号部220は、次に、ステレオ符号CSから得られる特徴パラメータを用いたアップミックス処理によりステップS225A-1で得た復号ダウンミックス信号から2個のチャネルの復号音信号を得て出力する(ステップS225A-2)。
<<第5実施形態B>>
次に、第1実施形態と第4実施形態Cの各実施形態を変更した第5実施形態を第5実施形態Bとして、第1実施形態と第4実施形態Cの各実施形態と異なる点を説明する。
[モノラル符号化部120]
モノラル符号化部120は、ダウンミックス信号を符号化して得られるモノラル符号CMに加えて、区間Yまたは区間Y+Xについて、現在のフレームまでのモノラル符号CMを復号して得られる信号、すなわち、入力されたダウンミックス信号の局部復号信号であるモノラル局部復号信号も得て出力する(ステップS125B)。ただし、上述した通り区間Xのモノラル局部復号信号は不完全なモノラル局部復号信号である。
[追加符号化部130]
追加符号化部130は、以下のステップS135B-1とステップS135B-2を行う(ステップS135B)。追加符号化部130は、まず、所定の周知の予測技術を用いて、入力された区間Yまたは区間Y+Xのモノラル局部復号信号(ただし、上述した通り区間Xは不完全なモノラル局部復号信号)からモノラル局部復号信号についての区間Xの予測信号を得る(ステップS135B-1)。第4実施形態Cを変更した第5実施形態の場合には、入力された区間Xのモノラル局部復号信号を区間Xの予測信号に含むようにする。追加符号化部130は、次に、区間Xのダウンミックス信号とステップS135B-1で得た予測信号との差信号または重み付き差信号(対応するサンプル同士のサンプル値の減算または重み付き減算により構成される信号)を符号化して追加符号CAを得て出力する(ステップS135B-2)。例えば、符号化には第1実施形態と第4実施形態Cの各実施形態の追加符号化部130と同様の符号化方式を用いればよい。
[ステレオ復号部220]
ステレオ復号部220は、以下のステップS225B-0からステップS225B-2を行う(ステップS225B)。ステレオ復号部220は、まず、追加符号化部130が用いたのと同じ予測技術を用いて、区間Yまたは区間Y+Xのモノラル復号音信号から、区間Xの予測信号を得る(ステップS225B-0)。ステレオ復号部220は、次に、区間Yのモノラル復号音信号と、区間Xの追加復号信号と予測信号との和信号または重み付き和信号(対応するサンプル同士のサンプル値の加算または重み付き加算により構成される信号)と、を連結した信号を区間Y+Xの復号ダウンミックス信号として得る(ステップS225B-1)。ステレオ復号部220は、次に、ステレオ符号CSから得られる特徴パラメータを用いたアップミックス処理によりステップS225B-1で得た復号ダウンミックス信号から2個のチャネルの復号音信号を得て出力する(ステップS225B-2)。
<第6実施形態>
第1実施形態から第5実施形態は、符号化装置100が得た追加符号CAを復号装置200が用いることで、ステレオ復号部220で用いる区間Xの復号ダウンミックス信号を少なくとも追加符号CAを復号して得るものであったが、復号装置200が追加符号CAを用いずに、区間Yのモノラル復号音信号からの予測信号をステレオ復号部220で用いる区間Xの復号ダウンミックス信号としてもよい。この形態を第6実施形態として、第1実施形態と異なる点を説明する。
≪符号化装置100≫
第6実施形態の符号化装置100が第1実施形態の符号化装置100と異なるのは、追加符号化部130を含まず、区間Xのダウンミックス信号を符号化せず、追加符号CAを得ないことである。すなわち、第6実施形態の符号化装置100は、ステレオ符号化部110とモノラル符号化部120を含み、ステレオ符号化部110とモノラル符号化部120のそれぞれは、第1実施形態のステレオ符号化部110とモノラル符号化部120のそれぞれと同じ動作をする。
≪復号装置200≫
第6実施形態の復号装置200は、追加符号CAを復号する追加復号部230を含まずに、モノラル復号部210とステレオ復号部220を含む。第6実施形態のモノラル復号部210は、第1実施形態のモノラル復号部210と同じ動作をするが、ステレオ復号部220が区間Y+Xのモノラル復号音信号を用いる場合には区間Xのモノラル復号音信号も出力する。また、第6実施形態のステレオ復号部220は、第1実施形態のステレオ復号部220とは異なる下記の動作をする。
[ステレオ復号部220]
ステレオ復号部220は、以下のステップS226-0からステップS226-2を行う(ステップS226)。ステレオ復号部220は、まず、第5実施形態と同様の所定の周知の予測技術を用いて、区間Yまたは区間Y+Xのモノラル復号音信号から区間Xの予測信号を得る(ステップS226-0)。ステレオ復号部220は、次に、区間Yのモノラル復号音信号と区間Xの予測信号を連結した信号を区間Y+Xの復号ダウンミックス信号として得て(ステップS226-1)、ステレオ符号CSから得られる特徴パラメータを用いたアップミックス処理によりステップS226-1で得た復号ダウンミックス信号から2個のチャネルの復号音信号を得て出力する(ステップS226-2)。
<第7実施形態>
上述した各実施形態では、説明を簡単化するために、2個のチャネルの音信号を扱う例で説明した。しかし、チャネル数はこの限りではなく2以上であればよい。このチャネル数をC(Cは2以上の整数)とすると、上述した各実施形態は、2個のチャネルをC個(Cは2以上の整数)のチャネルと読み替えて実施することができる。
例えば、第1実施形態から第5実施形態の符号化装置100は、入力されたC個のチャネルの音信号からステレオ符号CSとモノラル符号CMと追加符号CAを得るようにすればよく、第6実施形態の符号化装置100は、入力されたC個のチャネルの音信号からステレオ符号CSとモノラル符号CMを得るようにすればよく、ステレオ符号化部110は、入力されたC個のチャネルの音信号におけるチャネル間の差分に相当する情報を表す符号をステレオ符号CSとして得て出力し、ステレオ符号化部110またはダウンミックス部150は、入力されたC個のチャネルの音信号を混合した信号をダウンミックス信号として得て出力し、モノラル符号化対象信号生成部140は、入力されたC個のチャネルの音信号を時間領域で混合した信号をモノラル符号化対象信号として得て出力するようにすればよい。C個のチャネルの音信号におけるチャネル間の差分に相当する情報とは、例えば、基準とするチャネル以外のC-1個のチャネルそれぞれについての、当該チャネルの音信号と基準とするチャネルの音信号との差分に相当する情報である。
同様に、第1実施形態から第5実施形態の復号装置200は、入力されたモノラル符号CMと追加符号CAとステレオ符号CSとに基づいてC個のチャネルの復号音信号を得て出力するようにすればよく、第6実施形態の復号装置200は、入力されたモノラル符号CMとステレオ符号CSとに基づいてC個のチャネルの復号音信号を得て出力するようにすればよく、ステレオ復号部220は、入力されたステレオ符号CSに基づいて得られる特徴パラメータを用いたアップミックス処理により復号ダウンミックス信号からC個のチャネルの復号音信号を得て出力するようにすればよい。より詳しくは、ステレオ復号部220は、復号ダウンミックス信号がC個のチャネルの復号音信号が混合された信号であると見做し、入力されたステレオ符号CSに基づいて得られる特徴パラメータがC個のチャネルの復号音信号におけるチャネル間の差分の特徴を表す情報であると見做して、C個のチャネルの復号音信号を得て出力するようにすればよい。
<プログラム及び記録媒体>
上述した各符号化装置と各復号装置の各部の処理をコンピュータにより実現してもよく、この場合は各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムを図12に示すコンピュータの記憶部1020に読み込ませ、演算処理部1010、入力部1030、出力部1040などに動作させることにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体は、例えば、非一時的な記録媒体であり、具体的には、磁気記録装置、光ディスク、等である。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の非一時的な記憶装置である補助記録部1050に格納する。そして、処理の実行時、このコンピュータは、自己の非一時的な記憶装置である補助記録部1050に格納されたプログラムを記憶部1020に読み込み、読み込んだプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを記憶部1020に読み込み、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
その他、この発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。

Claims (12)

  1. 入力されたC個(Cは2以上の整数)のチャネルの音信号をフレーム単位で符号化する音信号符号化方法であって、
    現在のフレームの処理として、
    C個のチャネルの前記音信号のチャネル間の差分の特徴を表すパラメータである特徴パラメータを表すステレオ符号を得て出力するステレオ符号化ステップと、
    C個のチャネルの前記音信号を混合した信号をダウンミックス信号として得るダウンミックスステップと、
    前記ダウンミックス信号を符号化してモノラル符号を得て出力するモノラル符号化ステップと、
    を含み、
    前記モノラル符号化ステップは、フレーム間でオーバーラップのある窓をかける処理が含まれる符号化方式で、前記ダウンミックス信号を符号化して前記モノラル符号を得て、
    前記ダウンミックス信号のうちの現在のフレームと直後のフレームとの前記オーバーラップの区間(以下、「区間X」という)の信号を符号化して追加符号を得て出力する追加符号化ステップを更に含む
    ことを特徴とする音信号符号化方法。
  2. 請求項1に記載の音信号符号化方法であって、
    前記モノラル符号化ステップは、前記モノラル符号に対応するモノラル局部復号信号も得て、
    前記追加符号化ステップは、前記ダウンミックス信号のうちの前記区間Xを除く区間(以下、「区間Y」という)の信号と、区間Yの前記モノラル局部復号信号と、の対応するサンプル同士のサンプル値の減算または重み付き減算により構成される信号と、区間Xの前記ダウンミックス信号と、を符号化して追加符号を得る
    ことを特徴とする音信号符号化方法。
  3. 請求項2に記載の音信号符号化方法であって、
    前記ダウンミックスステップは、前記C個のチャネルの音信号を周波数領域で混合した信号を前記ダウンミックス信号として得て、
    前記C個のチャネルの音信号を時間領域で混合した信号をモノラル符号化対象信号として得るモノラル符号化対象信号生成ステップを更に含み、
    前記モノラル符号化ステップは、フレーム間でオーバーラップのある窓をかける処理が含まれる符号化方式で、前記モノラル符号化対象信号を符号化して前記モノラル符号を得る
    ことを特徴とする音信号符号化方法。
  4. 請求項2または3に記載の音信号符号化方法であって、
    前記追加符号化ステップは、
    前記ダウンミックス信号のうちの区間Xの信号を符号化して、第1追加符号と前記第1追加符号に対応する区間Xの局部復号信号(以下、「第1追加局部復号信号」という)を得て、
    区間Yの前記ダウンミックス信号と前記モノラル局部復号信号との対応するサンプル同士のサンプル値の減算または重み付き減算により構成される信号と、区間Xの前記ダウンミックス信号と前記第1追加局部復号信号との対応するサンプル同士のサンプル値の減算または重み付き減算により構成される信号と、を連結した信号を、サンプル列を纏めて符号化する符号化方式により符号化して第2追加符号を得て、
    前記第1追加符号と前記第2追加符号を合わせたものを前記追加符号とする
    ことを特徴とする音信号符号化方法。
  5. 請求項2または3に記載の音信号符号化方法であって、
    前記追加符号化ステップは、
    区間Yの前記モノラル局部復号信号または区間Yと区間Xの前記モノラル局部復号信号から、モノラル局部復号信号の区間Xの予測信号を得て、
    区間Yの前記ダウンミックス信号と前記モノラル局部復号信号との対応するサンプル同士のサンプル値の減算または重み付き減算により構成される信号と、区間Xの前記ダウンミックス信号と前記予測信号との対応するサンプル同士のサンプル値の減算または重み付き減算により構成される信号と、を符号化して追加符号を得る
    ことを特徴とする音信号符号化方法。
  6. 入力されたC個(Cは2以上の整数)のチャネルの音信号をフレーム単位で符号化する音信号符号化装置であって、
    現在のフレームの処理として、
    C個のチャネルの前記音信号のチャネル間の差分の特徴を表すパラメータである特徴パラメータを表すステレオ符号を得て出力するステレオ符号化部と、
    C個のチャネルの前記音信号を混合した信号をダウンミックス信号として得るダウンミックス部と、
    前記ダウンミックス信号を符号化してモノラル符号を得て出力するモノラル符号化部と、
    を含み、
    前記モノラル符号化部は、フレーム間でオーバーラップのある窓をかける処理が含まれる符号化方式で、前記ダウンミックス信号を符号化して前記モノラル符号を得るものであり、
    前記ダウンミックス信号のうちの現在のフレームと直後のフレームとの前記オーバーラップの区間(以下、「区間X」という)の信号を符号化して追加符号を得て出力する追加符号化部を更に含む
    ことを特徴とする音信号符号化装置。
  7. 請求項6に記載の音信号符号化装置であって、
    前記モノラル符号化部は、前記モノラル符号に対応するモノラル局部復号信号も得て、
    前記追加符号化部は、前記ダウンミックス信号のうちの前記区間Xを除く区間(以下、「区間Y」という)の信号と、区間Yの前記モノラル局部復号信号と、の対応するサンプル同士のサンプル値の減算または重み付き減算により構成される信号と、区間Xの前記ダウンミックス信号と、を符号化して追加符号を得る
    ことを特徴とする音信号符号化装置。
  8. 請求項7に記載の音信号符号化装置であって、
    前記ダウンミックス部は、前記C個のチャネルの音信号を周波数領域で混合した信号を前記ダウンミックス信号として得て、
    前記C個のチャネルの音信号を時間領域で混合した信号をモノラル符号化対象信号として得るモノラル符号化対象信号生成部を更に含み、
    前記モノラル符号化部は、フレーム間でオーバーラップのある窓をかける処理が含まれる符号化方式で、前記モノラル符号化対象信号を符号化して前記モノラル符号を得る
    ことを特徴とする音信号符号化装置。
  9. 請求項7または8に記載の音信号符号化装置であって、
    前記追加符号化部は、
    前記ダウンミックス信号のうちの区間Xの信号を符号化して、第1追加符号と前記第1追加符号に対応する区間Xの局部復号信号(以下、「第1追加局部復号信号」という)を得て、
    区間Yの前記ダウンミックス信号と前記モノラル局部復号信号との対応するサンプル同士のサンプル値の減算または重み付き減算により構成される信号と、区間Xの前記ダウンミックス信号と前記第1追加局部復号信号との対応するサンプル同士のサンプル値の減算または重み付き減算により構成される信号と、を連結した信号を、サンプル列を纏めて符号化する符号化方式により符号化して第2追加符号を得て、
    前記第1追加符号と前記第2追加符号を合わせたものを前記追加符号とする
    ことを特徴とする音信号符号化装置。
  10. 請求項7または8に記載の音信号符号化装置であって、
    前記追加符号化部は、
    区間Yの前記モノラル局部復号信号または区間Yと区間Xの前記モノラル局部復号信号から、モノラル局部復号信号の区間Xの予測信号を得て、
    区間Yの前記ダウンミックス信号と前記モノラル局部復号信号との対応するサンプル同士のサンプル値の減算または重み付き減算により構成される信号と、区間Xの前記ダウンミックス信号と前記予測信号との対応するサンプル同士のサンプル値の減算または重み付き減算により構成される信号と、を符号化して追加符号を得る
    ことを特徴とする音信号符号化装置。
  11. 請求項1から5の何れかに記載の音信号符号化方法の各ステップをコンピュータに実行させるためのプログラム。
  12. 請求項1から5の何れかに記載の音信号符号化方法の各ステップをコンピュータに実行させるためのプログラムが記録されたコンピュータ読み取り可能な記録媒体。
JP2022531301A 2020-06-24 2020-06-24 音信号符号化方法、音信号符号化装置、プログラム及び記録媒体 Active JP7491376B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/024774 WO2021260825A1 (ja) 2020-06-24 2020-06-24 音信号符号化方法、音信号符号化装置、プログラム及び記録媒体

Publications (3)

Publication Number Publication Date
JPWO2021260825A1 JPWO2021260825A1 (ja) 2021-12-30
JPWO2021260825A5 JPWO2021260825A5 (ja) 2023-02-02
JP7491376B2 true JP7491376B2 (ja) 2024-05-28

Family

ID=79282593

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022531301A Active JP7491376B2 (ja) 2020-06-24 2020-06-24 音信号符号化方法、音信号符号化装置、プログラム及び記録媒体

Country Status (5)

Country Link
US (1) US20230178086A1 (ja)
EP (1) EP4175270A4 (ja)
JP (1) JP7491376B2 (ja)
CN (1) CN115917644A (ja)
WO (1) WO2021260825A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019512737A (ja) 2016-03-18 2019-05-16 クゥアルコム・インコーポレイテッドQualcomm Incorporated マルチチャンネルコーディング

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2987808C (en) * 2016-01-22 2020-03-10 Guillaume Fuchs Apparatus and method for encoding or decoding an audio multi-channel signal using spectral-domain resampling
FR3048808A1 (fr) * 2016-03-10 2017-09-15 Orange Codage et decodage optimise d'informations de spatialisation pour le codage et le decodage parametrique d'un signal audio multicanal

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019512737A (ja) 2016-03-18 2019-05-16 クゥアルコム・インコーポレイテッドQualcomm Incorporated マルチチャンネルコーディング

Also Published As

Publication number Publication date
WO2021260825A1 (ja) 2021-12-30
CN115917644A (zh) 2023-04-04
US20230178086A1 (en) 2023-06-08
EP4175270A1 (en) 2023-05-03
JPWO2021260825A1 (ja) 2021-12-30
EP4175270A4 (en) 2024-03-13

Similar Documents

Publication Publication Date Title
EP2849180B1 (en) Hybrid audio signal encoder, hybrid audio signal decoder, method for encoding audio signal, and method for decoding audio signal
EA025020B1 (ru) Аудиодекодер и способ декодирования с использованием эффективного понижающего микширования
JP7311573B2 (ja) 時間領域ステレオエンコーディング及びデコーディング方法並びに関連製品
EP3664088B1 (en) Audio coding mode determination
US20220310101A1 (en) Time-domain stereo encoding and decoding method and related product
JPWO2015186535A1 (ja) オーディオ信号処理装置および方法、符号化装置および方法、並びにプログラム
JP2023129450A (ja) 時間領域ステレオパラメータ符号化方法および関連製品
JP7491376B2 (ja) 音信号符号化方法、音信号符号化装置、プログラム及び記録媒体
JP7485037B2 (ja) 音信号復号方法、音信号復号装置、プログラム及び記録媒体
CN109859766B (zh) 音频编解码方法和相关产品
KR101464977B1 (ko) 메모리 관리 방법, 및 멀티 채널 데이터의 복호화 방법 및장치
RU2772405C2 (ru) Способ стереокодирования и декодирования во временной области и соответствующий продукт

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221117

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240429

R150 Certificate of patent or registration of utility model

Ref document number: 7491376

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150