JP5046653B2 - 音声符号化装置および音声符号化方法 - Google Patents

音声符号化装置および音声符号化方法 Download PDF

Info

Publication number
JP5046653B2
JP5046653B2 JP2006550770A JP2006550770A JP5046653B2 JP 5046653 B2 JP5046653 B2 JP 5046653B2 JP 2006550770 A JP2006550770 A JP 2006550770A JP 2006550770 A JP2006550770 A JP 2006550770A JP 5046653 B2 JP5046653 B2 JP 5046653B2
Authority
JP
Japan
Prior art keywords
signal
channel
monaural
prediction
prediction parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006550770A
Other languages
English (en)
Other versions
JPWO2006070757A1 (ja
Inventor
幸司 吉田
道代 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2006550770A priority Critical patent/JP5046653B2/ja
Publication of JPWO2006070757A1 publication Critical patent/JPWO2006070757A1/ja
Application granted granted Critical
Publication of JP5046653B2 publication Critical patent/JP5046653B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)

Description

本発明は、音声符号化装置および音声符号化方法に関し、特に、ステレオの音声入力信号からモノラル信号を生成して符号化する音声符号化装置および音声符号化方法に関する。
移動体通信やIP通信での伝送帯域の広帯域化、サービスの多様化に伴い、音声通信において高音質化、高臨場感化のニーズが高まっている。例えば、今後、テレビ電話サービスにおけるハンズフリー形態での通話、テレビ会議における音声通信、多地点で複数話者が同時に会話を行うような多地点音声通信、臨場感を保持したまま周囲の音環境を伝送できるような音声通信などの需要が増加すると見込まれる。その場合、モノラル信号より臨場感があり、また複数話者の発話位置が認識できるような、ステレオ音声による音声通信を実現することが望まれる。このようなステレオ音声による音声通信を実現するためには、ステレオ音声の符号化が必須となる。
また、IPネットワーク上での音声データ通信において、ネットワーク上のトラフィック制御やマルチキャスト通信実現のために、スケーラブルな構成を有する音声符号化が望まれている。スケーラブルな構成とは、受信側で部分的な符号化データからでも音声データの復号が可能な構成をいう。
よって、ステレオ音声を符号化し伝送する場合にも、ステレオ信号の復号と、符号化データの一部を用いたモノラル信号の復号とを受信側において選択可能な、モノラル−ステレオ間でのスケーラブル構成(モノラル−ステレオ・スケーラブル構成)を有する符号化が望まれる。
このような、モノラル−ステレオ・スケーラブル構成を有する音声符号化においては、ステレオの入力信号からモノラル信号を生成する。モノラル信号の生成方法としては、例えば、ステレオ信号の双方のチャネル(以下、適宜「ch」と略す)の信号を平均してモノラル信号を得るものがある(非特許文献1参照)。
ISO/IEC 14496-3,"Information Technology - Coding of audio-visual objects - Part 3: Audio", subpart-4, 4.B.14 Scalable AAC with core coder, pp.304-305, Sep. 2000.
しかしながら、単にステレオ信号の双方のチャネルの信号を平均してモノラル信号を生成すると、特に音声では、入力されるステレオ信号に対して歪みが生じたモノラル信号となってしまったり、入力されるステレオ信号とは波形形状が大きく異なったモノラル信号となってしまうことがある。つまり、本来伝送すべき入力信号から劣化した信号または本来伝送すべき入力信号とは異なった信号が伝送されることになってしまうことがある。また、入力されるステレオ信号に対して歪みが生じたモノラル信号や入力されるステレオ信号とは波形形状が大きく異なったモノラル信号をCELP符号化などの音声信号固有の特性に適した符号化モデルによって符号化すると、音声信号固有の特性とは異なる複雑な信号を符号化対象とすることになってしまい、その結果、符号化効率の低下を招く。
本発明の目的は、ステレオ信号から適切なモノラル信号を生成して、モノラル信号の符号化効率の低下を抑えることができる音声符号化装置および音声符号化方法を提供するこ
とである。
本発明の音声符号化装置は、第1チャネル信号および第2チャネル信号を含むステレオ信号を入力信号として、前記第1チャネル信号と前記第2チャネル信号との時間差、および、前記第1チャネル信号と前記第2チャネル信号との振幅比に基づいて両チャネル間の予測パラメータを求め、前記予測パラメータから中間予測パラメータを算出し、前記中間予測パラメータを用いて前記第1チャネル信号および前記第2チャネル信号からモノラル信号を生成する第1生成手段と、前記モノラル信号を符号化する符号化手段と、を具備する構成を採る。
本発明によれば、ステレオ信号から適切なモノラル信号を生成して、モノラル信号の符号化効率の低下を抑えることができる。
以下、本発明の実施の形態について、添付図面を参照して詳細に説明する。なお、以下の説明では、フレーム単位での動作を前提にして説明する。
(実施の形態1)
本実施の形態に係る音声符号化装置の構成を図1に示す。図1に示す音声符号化装置10は、モノラル信号生成部101とモノラル信号符号化部102とを備える。
モノラル信号生成部101は、ステレオの入力音声信号(第1ch音声信号、第2ch音声信号)からモノラル信号を生成してモノラル信号符号化部102へ出力する。モノラル信号生成部101の詳細については後述する。
モノラル信号符号化部102は、モノラル信号を符号化して、モノラル信号に対する音声符号化データであるモノラル信号符号化データを出力する。モノラル信号符号化部102は、任意の符号化方式を用いてモノラル信号を符号化することができる。例えば、音声信号の効率的符号化に適したCELP符号化をベースとする符号化方式を用いることができる。また、その他の音声符号化方式や、AAC(Advanced Audio Coding)に代表されるオーディオ符号化方式を用いてもよい。
次いで、モノラル信号生成部101の詳細について図2を用いて説明する。この図に示すように、モノラル信号生成部101は、チャネル間予測分析部201、中間予測パラメ
ータ生成部202およびモノラル信号算出部203を備える。
チャネル間予測分析部201は、第1ch音声信号および第2ch音声信号から両チャネル間の予測パラメータを分析により求める。この予測パラメータは、第1ch音声信号と第2ch音声信号との間の相関性を利用してチャネル信号間相互の予測を可能とするパラメータであり、両チャネル間の遅延差と振幅比を基本とするパラメータである。具体的には、第2ch音声信号s_ch2(n)から予測される第1ch音声信号sp_ch1(n) 、および、第1ch音声信号s_ch1(n) から予測される第2ch音声信号sp_ch2(n)を式(1)および(2)で表した際のチャネル間相互の遅延差D12、D21および振幅比(フレーム単位の平均振幅の比)g12、g21を予測パラメータとする。
Figure 0005046653
ここで、sp_ch1(n):第1chの予測信号、g21:第2ch入力信号に対する第1ch入力信号の振幅比、s_ch2(n):第2chの入力信号、D21:第2ch入力信号に対する第1ch入力信号の遅延時間差、sp_ch2(n):第2chの予測信号、g12:第1ch入力信号に対する第2ch入力信号の振幅比、s_ch1(n):第1chの入力信号、D12:第1ch入力信号に対する第2ch入力信号の遅延時間差、NF:フレーム長である。
そして、チャネル間予測分析部201は、式(3)および(4)で表される歪み、すなわち、各チャネルの入力音声信号s_ch1(n)、s_ch2(n) (n=0〜NF-1)と式(1)および(2)に従って予測される各チャネルの予測信号sp_ch1(n)、sp_ch2(n)との歪みDist1、Dist2を最小とするような予測パラメータg21、D21、g12、D12を求めて、中間予測パラメータ生成部202へ出力する。
Figure 0005046653
なお、チャネル間予測分析部201は、歪みDist1、Dist2を最小とするように予測パラメータを求める代わりに、チャネル信号間の相互相関を最大にするような遅延時間差や、フレーム単位のチャネル信号間の平均振幅比を求めて予測パラメータとしてもよい。
中間予測パラメータ生成部202は、最終的に生成されるモノラル信号を第1ch音声信号と第2ch音声信号の中間的な信号とするために、予測パラメータD12、D21、g12、g21の中間的なパラメータ(以下、中間予測パラメータという)D1m、D2m、g1m、g2mを式(5)〜(8)により求めて、モノラル信号算出部203へ出力する。
Figure 0005046653
ここで、D1m、g1m:第1chを基準とする中間予測パラメータ(遅延時間差、振幅比)
、D2m、g2m:第2chを基準とする中間予測パラメータ(遅延時間差、振幅比)である。
なお、式(5)〜(8)の代わりに、第1ch音声信号に対する第2ch音声信号の遅延時間差D12および振幅比g12のみから、式(9)〜(12)により中間予測パラメータを求めてもよい。また、逆に、第2ch音声信号に対する第1ch音声信号の遅延時間差D21および振幅比g21のみから同様にして中間予測パラメータを求めてもよい。
Figure 0005046653
また、振幅比g1m、g2mは、式(7)、(8)、(11)、(12)により求める代わりに、固定値(例えば1.0)としてもよい。さらに、D1m、D2m、g1m、g2mを時間的に平均化した値を中間予測パラメータとしてもよい。
さらに、中間予測パラメータの算出方法は、第1chと第2chとの間の遅延時間差および振幅比の中間付近の値が算出される方法であれば、上記以外の方法を用いることもできる。
モノラル信号算出部203は、中間予測パラメータ生成部202で得られた中間予測パラメータを用いて、式(13)によりモノラル信号s_mono(n)を算出する。
Figure 0005046653
なお、上記のように双方のチャネルの入力音声信号を用いてモノラル信号を生成する代わりに、一方のチャネルの入力音声信号のみからモノラル信号を算出するようにしてもよい。
ここで、図3に、モノラル信号生成部101に入力される第1ch音声信号の波形31および第2ch音声信号の波形32の一例を示す。この場合、モノラル信号生成部101によって、これら第1ch音声信号および第2ch音声信号から生成されるモノラル信号を図示すると波形33に示すようになる。なお、波形34は、第1ch音声信号および第2ch音声信号を単に平均して生成したモノラル信号(従来)である。
第1ch音声信号(波形31)と第2ch音声信号(波形32)との間に図示するような遅延時間差、振幅比がある場合、モノラル信号生成部101で得られるモノラル信号の波形33は、第1ch音声信号および第2ch音声信号の双方に類似し、かつ、中間的な遅延時間および振幅を有する波形となる。一方、従来方法により生成したモノラル信号(波形34)は、波形33に比べ、第1ch音声信号および第2ch音声信号とは波形の類似性が小さい。これは、両チャネル間の遅延時間差および振幅比が両チャネル間の中間的な値となるようにして生成されたモノラル信号(波形33)は、両チャネルの音声信号が出力された空間的な2地点の中間地点で受信された信号に近似的に相当するため、空間的特性が考慮されずに生成されたモノラル信号(波形34)に比べ、モノラル信号としてより適切な信号、すなわち、入力信号に類似した歪みの少ない信号となるからである。
また、両チャネルの信号を単に平均して生成したモノラル信号(波形34)は、両チャ
ネルの信号間の遅延時間差や振幅比を考慮せずに単純な平均値算出により生成される信号のため、両チャネルの信号間の遅延時間差が大きい場合などには、両チャネルの音声信号が時間的にずれたまま重畳されてしまい、入力音声信号に対して歪みが生じたり波形が大きく異なった信号となる。その結果、モノラル信号をCELP符号化などの音声信号の特性に合わせた符号化モデルで符号化する際に、符号化効率の低下を招く。
これに対し、モノラル信号生成部101で得られるモノラル信号(波形33)は、両チャネルの音声信号間の遅延時間差を小さくするように調整された信号であるため、入力音声信号に類似した歪みの小さい信号となる。よって、モノラル信号符号化時の符号化効率の低下を抑えることができる。
なお、モノラル信号生成部101を以下のようにしてもよい。
すなわち、予測パラメータとして、遅延時間差および振幅比に加えてさらに別のパラメータを用いてもよい。例えば、チャネル間相互の予測が式(14)および(15)により表される場合、両チャネル信号間の遅延時間差、振幅比および予測係数列{akl(0),akl(1),akl(2),…,akl(P)}(P:予測次数、akl(0)=1.0、(k,l)=(1,2)or(2,1))を予測パラメータとする。
Figure 0005046653
また、第1ch音声信号および第2ch音声信号を2つ以上の周波数帯域に帯域分割して帯域別の入力信号を生成し、その全ての帯域または一部の帯域の信号に対して、帯域毎に上記同様にしてモノラル信号を生成してもよい。
また、中間予測パラメータ生成部202で得られる中間予測パラメータを符号化データと共に伝送したり、中間予測パラメータを後段の符号化で用いて符号化の際に必要な演算量を削減するために、図4に示すように、モノラル信号生成部101に、中間予測パラメータを量子化して量子化中間予測パラメータおよび中間予測パラメータ量子化符号を出力する中間予測パラメータ量子化部204を備えてもよい。
(実施の形態2)
本実施の形態では、モノラル−ステレオ・スケーラブル構成を有する音声符号化について説明する。本実施の形態に係る音声符号化装置の構成を図5に示す。図5に示す音声符号化装置500は、モノラル信号のためのコアレイヤ符号化部510とステレオ信号のための拡張レイヤ符号化部520とを備える。また、コアレイヤ符号化部510は、実施の形態1に係る音声符号化装置10(図1:モノラル信号生成部101およびモノラル信号符号化部102)を備える。
コアレイヤ符号化部510において、モノラル信号生成部101は、実施の形態1において説明したようにしてモノラル信号s_mono(n)を生成し、モノラル信号符号化部102に出力する。
モノラル信号符号化部102は、モノラル信号に対する符号化を行い、このモノラル信号の符号化データをモノラル信号復号部511に出力する。また、このモノラル信号の符
号化データは、拡張レイヤ符号化部520から出力される量子化符号や符号化データと多重されて符号化データとして音声復号装置へ伝送される。
モノラル信号復号部511は、モノラル信号の符号化データからモノラルの復号信号を生成して拡張レイヤ符号化部520に出力する。
拡張レイヤ符号化部520において、第1ch予測パラメータ分析部521は、第1ch音声信号s_ch1(n)とモノラル復号信号とから第1ch予測パラメータを求めて量子化し、第1ch予測量子化パラメータを第1ch予測信号合成部522に出力する。また、第1ch予測パラメータ分析部521は、第1ch予測量子化パラメータを符号化した第1ch予測パラメータ量子化符号を出力する。この第1ch予測パラメータ量子化符号は他の符号化データや量子化符号と多重されて符号化データとして音声復号装置へ伝送される。
第1ch予測信号合成部522は、モノラル復号信号と第1ch予測量子化パラメータとから第1ch予測信号を合成し、その第1ch予測信号を減算器523に出力する。第1ch予測信号合成部522の詳細については後述する。
減算器523は、入力信号である第1ch音声信号と第1ch予測信号との差、すなわち、第1ch入力音声信号に対する第1ch予測信号の残差成分の信号(第1ch予測残差信号)を求め、第1ch予測残差信号符号化部524に出力する。
第1ch予測残差信号符号化部524は、第1ch予測残差信号を符号化して第1ch予測残差符号化データを出力する。この第1ch予測残差符号化データは他の符号化データや量子化符号と多重されて符号化データとして音声復号装置へ伝送される。
一方、第2ch予測パラメータ分析部525は、第2ch音声信号s_ch2(n)とモノラル復号信号とから第2ch予測パラメータを求めて量子化し、第2ch予測量子化パラメータを第2ch予測信号合成部526に出力する。また、第2ch予測パラメータ分析部525は、第2ch予測量子化パラメータを符号化した第2ch予測パラメータ量子化符号を出力する。この第2ch予測パラメータ量子化符号は他の符号化データや量子化符号と多重されて符号化データとして音声復号装置へ伝送される。
第2ch予測信号合成部526は、モノラル復号信号と第2ch予測量子化パラメータとから第2ch予測信号を合成し、その第2ch予測信号を減算器527に出力する。第2ch予測信号合成部526の詳細については後述する。
減算器527は、入力信号である第2ch音声信号と第2ch予測信号との差、すなわち、第2ch入力音声信号に対する第2ch予測信号の残差成分の信号(第2ch予測残差信号)を求め、第2ch予測残差信号符号化部528に出力する。
第2ch予測残差信号符号化部528は、第2ch予測残差信号を符号化して第2ch予測残差符号化データを出力する。この第2ch予測残差符号化データは他の符号化データや量子化符号と多重されて符号化データとして音声復号装置へ伝送される。
次いで、第1ch予測信号合成部522および第2ch予測信号合成部526の詳細について説明する。第1ch予測信号合成部522および第2ch予測信号合成部526の構成は図6<構成例1>または図7<構成例2>に示すようになる。構成例1および2のいずれも、モノラル信号と各チャネル信号との間の相関性に基づき、モノラル信号に対する各チャネル信号の遅延差(Dサンプル)および振幅比(g)を予測量子化パラメータと
して用いて、モノラル信号から各チャネルの予測信号を合成する。
<構成例1>
構成例1では、図6に示すように、第1ch予測信号合成部522および第2ch予測信号合成部526は、遅延器531および乗算器532を備え、式(16)で表される予測により、モノラル復号信号sd_mono(n)から、各チャネルの予測信号sp_ch(n)を合成する。
Figure 0005046653
<構成例2>
構成例2では、図7に示すように、図6に示す構成にさらに、遅延器533−1〜P、乗算器534−1〜Pおよび加算器535を備える。そして、予測量子化パラメータとして、モノラル信号に対する各チャネル信号の遅延差(Dサンプル)および振幅比(g)の他に、予測係数列{a(0),a(1), a(2), …, a(P)}(Pは予測次数、a(0)=1.0)を用い、式(17)で表される予測により、モノラル復号信号sd_mono(n)から、各チャネルの予測信号sp_ch(n)を合成する。
Figure 0005046653
これに対し、第1ch予測パラメータ分析部521および第2ch予測パラメータ分析部525は、式(3)および(4)で表される歪みDist1、Dist2を最小とするような予測パラメータを求め、その予測パラメータを量子化した予測量子化パラメータを、上記構成を採る第1ch予測信号合成部522および第2ch予測信号合成部526に出力する。また、第1ch予測パラメータ分析部521および第2ch予測パラメータ分析部525は、予測量子化パラメータを符号化した予測パラメータ量子化符号を出力する。
なお、構成例1に対しては、第1ch予測パラメータ分析部521および第2ch予測パラメータ分析部525は、モノラル復号信号と各チャネルの入力音声信号との間の相互相関を最大にするような遅延差Dおよびフレーム単位の平均振幅の比gを予測パラメータとして求めてもよい。
次いで、本実施の形態に係る音声復号装置について説明する。本実施の形態に係る音声復号装置の構成を図8に示す。図8に示す音声復号装置600は、モノラル信号のためのコアレイヤ復号部610と、ステレオ信号のための拡張レイヤ復号部620とを備える。
モノラル信号復号部611は、入力されるモノラル信号の符号化データを復号し、モノラル復号信号を拡張レイヤ復号部620に出力するとともに、最終出力として出力する。
第1ch予測パラメータ復号部621は、入力される第1ch予測パラメータ量子化符号を復号して、第1ch予測量子化パラメータを第1ch予測信号合成部622に出力する。
第1ch予測信号合成部622は、音声符号化装置500の第1ch予測信号合成部522と同じ構成を採り、モノラル復号信号と第1ch予測量子化パラメータとから第1ch音声信号を予測し、その第1ch予測音声信号を加算器624に出力する。
第1ch予測残差信号復号部623は、入力される第1ch予測残差符号化データを復号し、第1ch予測残差信号を加算器624に出力する。
加算器624は、第1ch予測音声信号と第1ch予測残差信号とを加算して第1chの復号信号を求め、最終出力として出力する。
一方、第2ch予測パラメータ復号部625は、入力される第2ch予測パラメータ量子化符号を復号して、第2ch予測量子化パラメータを第2ch予測信号合成部626に出力する。
第2ch予測信号合成部626は、音声符号化装置500の第2ch予測信号合成部526と同じ構成を採り、モノラル復号信号と第2ch予測量子化パラメータとから第2ch音声信号を予測し、その第2ch予測音声信号を加算器628に出力する。
第2ch予測残差信号復号部627は、入力される第2ch予測残差符号化データを復号し、第2ch予測残差信号を加算器628に出力する。
加算器628は、第2ch予測音声信号と第2ch予測残差信号とを加算して第2chの復号信号を求め、最終出力として出力する。
このような構成を採る音声復号装置600では、モノラル−ステレオ・スケーラブル構成において、出力音声をモノラルとする場合は、モノラル信号の符号化データのみから得られる復号信号をモノラル復号信号として出力し、出力音声をステレオとする場合は、受信される符号化データおよび量子化符号のすべてを用いて第1ch復号信号および第2ch復号信号を復号して出力する。
このように、本実施の形態によれば、第1ch音声信号および第2ch音声信号の双方に類似し、かつ、中間的な遅延時間および振幅を有するモノラル信号を復号して得られるモノラル復号信号を用いて第1ch予測信号および第2ch予測信号を合成するため、こられの予測信号の予測性能を向上させることができる。
なお、コアレイヤの符号化および拡張レイヤの符号化にCELP符号化を用いてもよい。この場合、拡張レイヤでは、CELP符号化により得られるモノラル符号化駆動音源信号を用いて、各チャネルの信号のLPC予測残差信号の予測を行う。
また、コアレイヤの符号化および拡張レイヤの符号化としてCELP符号化を用いる場合に、時間領域での駆動音源探索を行う代わりに、周波数領域での音源信号の符号化を行うようにしてもよい。
また、モノラル信号生成部101で得られた中間予測パラメータと、モノラル復号信号またはモノラル信号のCELP符号化により得られるモノラル駆動音源信号とを用いて、各チャネル信号の予測または各チャネル信号のLPC予測残差信号の予測を行うようにしてもよい。
さらに、ステレオ入力信号のうち一方のチャネル信号のみを対象にして、上記で説明したようなモノラル信号からの予測を用いた符号化を行うようにしてもよい。この場合、音声復号装置では、ステレオ入力信号とモノラル信号との関係(式(12)等)に基づいて、復号モノラル信号と一方のチャネル信号とから他方のチャネルの復号信号を生成することができる。
(実施の形態3)
本実施の形態に係る音声符号化装置は、モノラル信号と各チャネルの信号との間の遅延時間差および振幅比を予測パラメータとして用い、かつ、第2ch予測パラメータの量子化を第1ch予測パラメータを用いて行う。本実施の形態に係る音声符号化装置700の構成を図9に示す。なお、図9において実施の形態2(図5)と同一の構成には同一符号を付し、説明を省略する。
第2ch予測パラメータ分析部701は、第2ch予測パラメータの量子化において、第1ch予測パラメータと第2ch予測パラメータとの間の関連性(依存関係)に基づき、第1ch予測パラメータ分析部521で得られた第1ch予測量子化パラメータから第2ch予測パラメータを推定し、その第2ch予測パラメータを利用して効率的な量子化を行う。より具体的には、以下のようにする。
第1ch予測パラメータ分析部521で得られた第1ch予測量子化パラメータ(遅延時間差、振幅比)をDq1、gq1とし、分析により求められた第2ch予測パラメータ(量子化前)をD2、g2とする。モノラル信号は、上記のように第1ch音声信号と第2ch音声信号の中間の信号として生成された信号のため、第1ch予測パラメータと第2ch予測パラメータとの間の関連性は大きい。そこで、第1ch予測量子化パラメータを用いて第2ch予測パラメータDp2、gp2を式(18)および(19)により推定する。
Figure 0005046653
そして、第2ch予測パラメータの量子化は、式(20)および(21)で表される推定残差(推定値との差分値)δD2、δg2に対して行う。これらの推定残差は第2ch予測パラメータそのものに比べて分散が小さいため、より効率的な量子化を行うことができる。
Figure 0005046653
なお、式(18)および(19)は一例であり、第1ch予測パラメータと第2ch予測パラメータとの関連性(依存関係)を利用した別の方法を用いて、第2ch予測パラメータの推定および量子化を行ってもよい。また、第1ch予測パラメータと第2ch予測パラメータとを一組として符号帳を用意して、ベクトル量子化により量子化してもよい。さらに、図2または図4の構成により得られる中間予測パラメータを用いて、第1ch予測パラメータ、第2ch予測パラメータの分析、量子化を行うようにしてもよい。この場合、予め第1ch予測パラメータ、第2ch予測パラメータを推定することが可能なため、分析に必要な演算量を削減することができる。
本実施の形態に係る音声復号装置の構成は、実施の形態2(図8)とほぼ同一である。但し、第2ch予測パラメータ復号部625が、第2ch予測パラメータ量子化符号の復号の際に、第1ch予測量子化パラメータを用いて復号するなど、音声符号化装置700の構成に対応した復号処理を行う点で相違する。
(実施の形態4)
第1ch音声信号と第2ch音声信号との間の相関が小さい場合は、実施の形態1において説明したモノラル信号生成を行っても、空間特性上の中間的信号の生成が不十分な場
合がある。そこで、本実施の形態に係る音声符号化装置は、第1chと第2chとの間の相関性に基づき、モノラル信号の生成方法を切り替える。本実施の形態に係るモノラル信号生成部101の構成を図10に示す。なお、図10において実施の形態1(図2)と同一の構成には同一符号を付し、説明を省略する。
相関判定部801は、第1ch音声信号と第2ch音声信号との間の相関度を算出し、その相関度が閾値より大きいか否か判定する。そして、相関判定部801は、判定結果に基づいて切替部802および804を制御する。相関度の算出および閾値判定は、例えば、各チャネルの信号間の相互相関関数の最大値(正規化値)を求め、予め定めた閾値と比較することにより行う。
相関判定部801は、相関度が閾値より大きい場合は、第1ch音声信号および第2ch音声信号がチャネル間予測分析部201およびモノラル信号算出部203に入力されるように切替部802を切り替えるとともに、切替部804をモノラル信号算出部203側に切り替える。これにより、第1chと第2chの相関度が閾値より大きい場合は、実施の形態1において説明したようにしてモノラル信号が生成される。
一方、相関判定部801は、相関度が閾値以下の場合は、第1ch音声信号および第2ch音声信号が平均値信号算出部803に入力されるように切替部802を切り替えるとともに、切替部804を平均値信号算出部803側に切り替える。よって、この場合には、平均値信号算出部803が、式(22)により、第1ch音声信号と第2ch音声信号の平均値の信号s_av(n)を算出して、モノラル信号として出力する。
Figure 0005046653
このように、本実施の形態によれば、第1ch音声信号と第2ch音声信号との間の相関が小さい場合は、第1ch音声信号と第2ch音声信号の平均値の信号をモノラル信号とするため、第1ch音声信号と第2ch音声信号との間の相関が小さい場合の音質劣化を防ぐことができる。また、2チャネル間の相関性に基づく適切な符号化モードで符号化するため、符号化効率の向上を図ることができる。
なお、上記のように第1chと第2chとの間の相関性に基づき生成方法を切り替えて生成されたモノラル信号に対して、第1chと第2chとの間の相関性に応じたスケーラブルな符号化を行ってもよい。第1chと第2chとの間の相関度が閾値より大きい場合は、実施の形態2または3に示した構成により、コアレイヤにてモノラル信号に対する符号化を行い、拡張レイヤにてモノラル復号信号を用いた各チャネルの信号予測を利用した符号化を行う。一方、第1chと第2chとの間の相関度が閾値以下の場合は、コアレイヤにてモノラル信号に対する符号化を行った後、拡張レイヤでは、2チャネル間の相関性が低い場合に適した別のスケーラブル構成で符号化を行う。相関性が低い場合に適した別のスケーラブル構成での符号化とは、例えば、チャネル間予測を用いず、各チャネルの信号とモノラル復号信号との差分信号を直接符号化する方法がある。また、コアレイヤの符号化およびス拡張レイヤの符号化にCELP符号化を適用する場合には、拡張レイヤの符号化において、チャネル間予測を用いず、モノラル駆動音源信号を直接用いて符号化する等の方法がある。
(実施の形態5)
本実施の形態に係る音声符号化装置は、拡張レイヤ符号化部において第1chに対してのみ符号化を行い、かつ、その符号化において、量子化中間予測パラメータを用いて第1ch予測信号の合成を行う。本実施の形態に係る音声符号化装置900の構成を図11に
示す。なお、図11において実施の形態2(図5)と同一の構成には同一符号を付し、説明を省略する。
本実施の形態では、モノラル信号生成部101は、上記図4に示す構成を採る。すなわち、モノラル信号生成部101は中間予測パラメータ量子化部204を備え、この中間予測パラメータ量子化部204が、中間予測パラメータを量子化して量子化中間予測パラメータおよび中間予測パラメータ量子化符号を出力する。なお、量子化中間予測パラメータは、上記D1m、D2m、g1m、g2mを量子化したものである。量子化中間予測パラメータは、拡張レイヤ符号化部520の第1ch予測信号合成部901に入力される。また、中間予測パラメータ量子化符号は、モノラル信号符号化データおよび第1ch予測残差符号化データと多重されて符号化データとして音声復号装置へ伝送される。
拡張レイヤ符号化部520において、第1ch予測信号合成部901は、モノラル復号信号と量子化中間予測パラメータとから第1ch予測信号を合成し、その第1ch予測信号を減算器523に出力する。具体的には、第1ch予測信号合成部901は、式(23)で表される予測により、モノラル復号信号sd_mono(n)から、第1chの予測信号sp_ch1(n)を合成する。
Figure 0005046653
次いで、本実施の形態に係る音声復号装置について説明する。本実施の形態に係る音声復号装置1000の構成を図12に示す。なお、図12において実施の形態2(図8)と同一の構成には同一符号を付し、説明を省略する。
拡張レイヤ復号部620において、中間予測パラメータ復号部1001は、入力される中間予測パラメータ量子化符号を復号して、量子化中間予測パラメータを第1ch予測信号合成部1002および第2ch復号信号生成部1003に出力する。
第1ch予測信号合成部1002は、モノラル復号信号と量子化中間予測パラメータとから第1ch音声信号を予測し、その第1ch予測音声信号を加算器624に出力する。具体的には、第1ch予測信号合成部1002は、音声符号化装置900の第1ch予測信号合成部901と同様に、上式(23)で表される予測により、モノラル復号信号sd_mono(n)から、第1chの予測信号sp_ch1(n)を合成する。
一方、第2ch復号信号生成部1003には、モノラル復号信号および第1ch復号信号も入力される。そして、第2ch復号信号生成部1003は、量子化中間予測パラメータ、モノラル復号信号および第1ch復号信号から第2ch復号信号を生成する。具体的には、第2ch復号信号生成部1003は、上式(13)の関係から得られる式(24)に従って、第2ch復号信号を生成する。なお、式(24)において、sd_ch1:第1ch復号信号である。
Figure 0005046653
なお、上記説明では、拡張レイヤ符号化部520において、第1chのみの予測信号を合成する構成について説明したが、第1chに代えて第2chのみの予測信号を合成する構成としてもよい。つまり、本実施の形態では、拡張レイヤ符号化部520において、ステレオ信号の一方のチャネルのみを符号化する構成を採る。
このように、本実施の形態によれば、拡張レイヤ符号化部520において、ステレオ信号の一方のチャネルのみを符号化する構成とし、かつ、その一方のチャネルの予測信号の合成に用いる予測パラメータをモノラル信号生成用の中間予測パラメータと共用するため、符号化効率を向上させることができる。また、拡張レイヤ符号化部520において、ステレオ信号の一方のチャネルのみを符号化する構成とするため、双方のチャネルを符号化する構成に比べて拡張レイヤ符号化部の符号化効率を向上させて低ビットレート化を図ることができる。
なお、本実施の形態においては、モノラル信号生成部101で得られる中間予測パラメータとして、上記のように第1chおよび第2chのそれぞれを基準とする異なるパラメータを算出するのではなく、双方のチャネルに共通するパラメータを算出するようにしてもよい。例えば、式(25)、(26)により算出したパラメータDm、gmの量子化符号を符号化データとして音声復号装置1000へ伝送し、パラメータDm、gmから式(27)〜(30)に従って算出されるD1m、g1m、D2m、g2mを、第1chおよび第2chを基準とする中間予測パラメータとして使用する。このようにすることで、音声復号装置1000に対して伝送する中間予測パラメータの符号化効率をより向上させることができる。
Figure 0005046653
また、中間予測パラメータを複数候補用意して、その複数候補のうち、拡張レイヤ符号化部520での符号化後の符号化歪み(拡張レイヤ符号化部520のみの歪み、または、コアレイヤ符号化部510の歪みと拡張レイヤ符号化部520の歪みの総和)を最も小さくする中間予測パラメータを拡張レイヤ符号化部520での符号化に用いてもよい。これにより、拡張レイヤでの予測信号合成時の予測性能を高めることができる最適なパラメータを選択することができ、より音質の向上を図ることができる。具体的手順は以下のようになる。
<ステップ1:モノラル信号生成>
モノラル信号生成部101において、複数候補の中間予測パラメータを出力するとともに、各候補に対応して生成されるモノラル信号を出力する。例えば、予測歪みが小さい、または、各チャネルの信号間の相互相関が大きいものから順に所定数の中間予測パラメータを複数候補として出力する等する。
<ステップ2:モノラル信号符号化>
モノラル信号符号化部102において、中間予測パラメータの複数候補に対応して生成されたモノラル信号を用いてモノラル信号の符号化を行い、複数候補毎に、モノラル信号符号化データおよび符号化歪み(モノラル信号符号化歪み)を出力する。
<ステップ3:第1ch符号化>
拡張レイヤ符号化部520において、複数候補の中間予測パラメータを用いて複数の第1ch予測信号を合成して第1chの符号化を行い、複数候補毎に、符号化データ(第1ch予測残差符号化データ)および符号化歪み(ステレオ符号化歪み)を出力する。
<ステップ4:最小符号化歪み選択>
拡張レイヤ符号化部520において、複数候補の中間予測パラメータのうち、ステップ2およびステップ3で得られた符号化歪みの総和(または、ステップ2で得られた符号化歪みの総和またはステップ3で得られた符号化歪みの総和のいずれか)が最も小さくなる中間予測パラメータを符号化に用いるパラメータと決定し、その中間予測パラメータに対応するモノラル信号符号化データ、中間予測パラメータ量子化符号および第1ch予測残差符号化データを音声復号装置1000へ伝送する。
なお、中間予測パラメータの複数候補の一つとして、D1m = D2m= 0、g1m = g2m = 1.0(通常のモノラル信号生成に相当)を含ませるようにし、その候補を符号化に用いるときは、中間予測パラメータを伝送しない前提(通常モノラル化モードの選択フラグとして選択情報(1ビット)のみを伝送)でのビット配分にてコアレイヤ符号化部510および拡張レイヤ符号化部520での符号化を行うようにしてもよい。このようにすると、通常モノラル化モードを候補として含めた、符号化歪み最小化基準による最適な符号化を実現できるとともに、通常モノラル化モード選択時には中間予測パラメータを伝送しなくて済むため、別の符号化データにビットを割り当てることで音質の向上を図ることができる。
また、本実施の形態では、コアレイヤの符号化および拡張レイヤの符号化にCELP符号化を用いてもよい。この場合、拡張レイヤでは、CELP符号化により得られるモノラル符号化駆動音源信号を用いて、各チャネルの信号のLPC予測残差信号の予測を行う。
また、コアレイヤの符号化および拡張レイヤの符号化としてCELP符号化を用いる場合に、時間領域での駆動音源探索を行う代わりに、周波数領域での音源信号の符号化を行うようにしてもよい。
なお、上記各実施の形態に係る音声符号化装置、音声復号装置を、移動体通信システムにおいて使用される無線通信移動局装置や無線通信基地局装置等の無線通信装置に搭載することも可能である。
また、上記各実施の形態では、本発明をハードウェアで構成する場合を例にとって説明したが、本発明はソフトウェアで実現することも可能である。
また、上記各実施の形態の説明に用いた各機能ブロックは、典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。
ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用してもよい。
さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適応等が可能性としてありえる。
本明細書は、2004年12月28日出願の特願2004−380980および2005年5月30日出願の特願2005−157808に基づくものである。これらの内容はすべてここに含めておく。
本発明は、移動体通信システムやインターネットプロトコルを用いたパケット通信システム等における通信装置の用途に適用できる。
本発明の実施の形態1に係る音声符号化装置の構成を示すブロック図 本発明の実施の形態1に係るモノラル信号生成部の構成を示すブロック図 本発明の実施の形態1に係る信号波形図 本発明の実施の形態1に係るモノラル信号生成部の構成を示すブロック図 本発明の実施の形態2に係る音声符号化装置の構成を示すブロック図 本発明の実施の形態2に係る第1ch、第2ch予測信号合成部の構成を示すブロック図 本発明の実施の形態2に係る第1ch、第2ch予測信号合成部の構成を示すブロック図 本発明の実施の形態2に係る音声復号装置の構成を示すブロック図 本発明の実施の形態3に係る音声符号化装置の構成を示すブロック図 本発明の実施の形態4に係るモノラル信号生成部の構成を示すブロック図 本発明の実施の形態5に係る音声符号化装置の構成を示すブロック図 本発明の実施の形態5に係る音声復号装置の構成を示すブロック図

Claims (8)

  1. 第1チャネル信号および第2チャネル信号を含むステレオ信号を入力信号として、前記第1チャネル信号と前記第2チャネル信号との時間差、および、前記第1チャネル信号と前記第2チャネル信号との振幅比に基づいて両チャネル間の予測パラメータを求め、前記予測パラメータから中間予測パラメータを算出し、前記中間予測パラメータを用いて前記第1チャネル信号および前記第2チャネル信号からモノラル信号を生成する第1生成手段と、
    前記モノラル信号を符号化する符号化手段と、
    を具備する音声符号化装置。
  2. 前記ステレオ信号を入力信号として、前記第1チャネル信号および前記第2チャネル信号を平均してモノラル信号を生成する第2生成手段と、
    前記第1チャネル信号と前記第2チャネル信号との相関度に応じて、前記ステレオ信号の入力先を前記第1生成手段と前記第2生成手段との間で切り替える切替手段と、
    をさらに具備する請求項1記載の音声符号化装置。
  3. 前記モノラル信号から得られる信号に基づいて、前記第1チャネル信号および前記第2チャネル信号の予測信号を合成する合成手段、
    をさらに具備する請求項1記載の音声符号化装置。
  4. 前記合成手段は、前記モノラル信号に対する前記第1チャネル信号または前記第2チャネル信号の遅延差および振幅比を用いて、前記予測信号を合成する、
    請求項3記載の音声符号化装置。
  5. モノラル信号生成用のパラメータを用いて、前記第1チャネル信号または前記第2チャネル信号のいずれか一方の予測信号を合成する合成手段、
    をさらに具備する請求項1記載の音声符号化装置。
  6. 請求項1記載の音声符号化装置を具備する無線通信移動局装置。
  7. 請求項1記載の音声符号化装置を具備する無線通信基地局装置。
  8. 第1チャネル信号および第2チャネル信号を含むステレオ信号を入力信号として、前記第1チャネル信号と前記第2チャネル信号との時間差、および、前記第1チャネル信号と前記第2チャネル信号との振幅比に基づいて両チャネル間の予測パラメータを求め、前記予測パラメータから中間予測パラメータを算出し、前記中間予測パラメータを用いて、前記第1チャネル信号および前記第2チャネル信号からモノラル信号を生成する生成工程と、
    前記モノラル信号を符号化する符号化工程と、
    を具備する音声符号化方法。
JP2006550770A 2004-12-28 2005-12-26 音声符号化装置および音声符号化方法 Expired - Fee Related JP5046653B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006550770A JP5046653B2 (ja) 2004-12-28 2005-12-26 音声符号化装置および音声符号化方法

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2004380980 2004-12-28
JP2004380980 2004-12-28
JP2005157808 2005-05-30
JP2005157808 2005-05-30
PCT/JP2005/023809 WO2006070757A1 (ja) 2004-12-28 2005-12-26 音声符号化装置および音声符号化方法
JP2006550770A JP5046653B2 (ja) 2004-12-28 2005-12-26 音声符号化装置および音声符号化方法

Publications (2)

Publication Number Publication Date
JPWO2006070757A1 JPWO2006070757A1 (ja) 2008-06-12
JP5046653B2 true JP5046653B2 (ja) 2012-10-10

Family

ID=36614874

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006550770A Expired - Fee Related JP5046653B2 (ja) 2004-12-28 2005-12-26 音声符号化装置および音声符号化方法

Country Status (8)

Country Link
US (1) US7797162B2 (ja)
EP (2) EP2138999A1 (ja)
JP (1) JP5046653B2 (ja)
KR (1) KR20070090219A (ja)
CN (1) CN101091206B (ja)
AT (1) ATE448539T1 (ja)
DE (1) DE602005017660D1 (ja)
WO (1) WO2006070757A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8768691B2 (en) * 2005-03-25 2014-07-01 Panasonic Corporation Sound encoding device and sound encoding method
US8396717B2 (en) 2005-09-30 2013-03-12 Panasonic Corporation Speech encoding apparatus and speech encoding method
JPWO2007043643A1 (ja) * 2005-10-14 2009-04-16 パナソニック株式会社 音声符号化装置、音声復号装置、音声符号化方法、及び音声復号化方法
EP1953736A4 (en) * 2005-10-31 2009-08-05 Panasonic Corp STEREO CODING DEVICE AND METHOD FOR PREDICTING STEREO SIGNAL
WO2007116809A1 (ja) * 2006-03-31 2007-10-18 Matsushita Electric Industrial Co., Ltd. ステレオ音声符号化装置、ステレオ音声復号装置、およびこれらの方法
JP5190363B2 (ja) 2006-07-12 2013-04-24 パナソニック株式会社 音声復号装置、音声符号化装置、および消失フレーム補償方法
WO2008016097A1 (fr) * 2006-08-04 2008-02-07 Panasonic Corporation dispositif de codage audio stéréo, dispositif de décodage audio stéréo et procédé de ceux-ci
WO2008016098A1 (fr) * 2006-08-04 2008-02-07 Panasonic Corporation dispositif de codage audio stéréo, dispositif de décodage audio stéréo et procédé de ceux-ci
WO2008090970A1 (ja) * 2007-01-26 2008-07-31 Panasonic Corporation ステレオ符号化装置、ステレオ復号装置、およびこれらの方法
KR101453732B1 (ko) * 2007-04-16 2014-10-24 삼성전자주식회사 스테레오 신호 및 멀티 채널 신호 부호화 및 복호화 방법및 장치
JPWO2008132850A1 (ja) * 2007-04-25 2010-07-22 パナソニック株式会社 ステレオ音声符号化装置、ステレオ音声復号装置、およびこれらの方法
GB2453117B (en) * 2007-09-25 2012-05-23 Motorola Mobility Inc Apparatus and method for encoding a multi channel audio signal
JPWO2009142017A1 (ja) * 2008-05-22 2011-09-29 パナソニック株式会社 ステレオ信号変換装置、ステレオ信号逆変換装置およびこれらの方法
US8473288B2 (en) * 2008-06-19 2013-06-25 Panasonic Corporation Quantizer, encoder, and the methods thereof
US20110137661A1 (en) * 2008-08-08 2011-06-09 Panasonic Corporation Quantizing device, encoding device, quantizing method, and encoding method
CN102160113B (zh) * 2008-08-11 2013-05-08 诺基亚公司 多声道音频编码器和解码器
CN102292769B (zh) * 2009-02-13 2012-12-19 华为技术有限公司 一种立体声编码方法和装置
US9053701B2 (en) 2009-02-26 2015-06-09 Panasonic Intellectual Property Corporation Of America Channel signal generation device, acoustic signal encoding device, acoustic signal decoding device, acoustic signal encoding method, and acoustic signal decoding method
US8666752B2 (en) * 2009-03-18 2014-03-04 Samsung Electronics Co., Ltd. Apparatus and method for encoding and decoding multi-channel signal
CN102157152B (zh) 2010-02-12 2014-04-30 华为技术有限公司 立体声编码的方法、装置
CN102157150B (zh) 2010-02-12 2012-08-08 华为技术有限公司 立体声解码方法及装置
WO2014068817A1 (ja) * 2012-10-31 2014-05-08 パナソニック株式会社 オーディオ信号符号化装置及びオーディオ信号復号装置
CN109215667B (zh) 2017-06-29 2020-12-22 华为技术有限公司 时延估计方法及装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04324727A (ja) 1991-04-24 1992-11-13 Fujitsu Ltd ステレオ符号化伝送方式
DE19721487A1 (de) * 1997-05-23 1998-11-26 Thomson Brandt Gmbh Verfahren und Vorrichtung zur Fehlerverschleierung bei Mehrkanaltonsignalen
DE19742655C2 (de) * 1997-09-26 1999-08-05 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Codieren eines zeitdiskreten Stereosignals
SE519981C2 (sv) 2000-09-15 2003-05-06 Ericsson Telefon Ab L M Kodning och avkodning av signaler från flera kanaler
US7292901B2 (en) * 2002-06-24 2007-11-06 Agere Systems Inc. Hybrid multi-channel/cue coding/decoding of audio signals
SE0202159D0 (sv) * 2001-07-10 2002-07-09 Coding Technologies Sweden Ab Efficientand scalable parametric stereo coding for low bitrate applications
EP1500083B1 (en) * 2002-04-22 2006-06-28 Koninklijke Philips Electronics N.V. Parametric multi-channel audio representation
US8340302B2 (en) * 2002-04-22 2012-12-25 Koninklijke Philips Electronics N.V. Parametric representation of spatial audio
JP4431568B2 (ja) * 2003-02-11 2010-03-17 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 音声符号化
DE602004029872D1 (de) * 2003-03-17 2010-12-16 Koninkl Philips Electronics Nv Verarbeitung von mehrkanalsignalen
JP2004325633A (ja) * 2003-04-23 2004-11-18 Matsushita Electric Ind Co Ltd 信号符号化方法、信号符号化プログラム及びその記録媒体
JP4324727B2 (ja) 2003-06-20 2009-09-02 カシオ計算機株式会社 撮影モードの設定情報転送システム
JP2005157808A (ja) 2003-11-26 2005-06-16 Star Micronics Co Ltd カード保管装置

Also Published As

Publication number Publication date
US20080091419A1 (en) 2008-04-17
ATE448539T1 (de) 2009-11-15
EP1821287A4 (en) 2008-03-12
DE602005017660D1 (de) 2009-12-24
WO2006070757A1 (ja) 2006-07-06
US7797162B2 (en) 2010-09-14
CN101091206B (zh) 2011-06-01
CN101091206A (zh) 2007-12-19
EP2138999A1 (en) 2009-12-30
EP1821287B1 (en) 2009-11-11
EP1821287A1 (en) 2007-08-22
JPWO2006070757A1 (ja) 2008-06-12
KR20070090219A (ko) 2007-09-05

Similar Documents

Publication Publication Date Title
JP5046653B2 (ja) 音声符号化装置および音声符号化方法
JP5046652B2 (ja) 音声符号化装置および音声符号化方法
JP4850827B2 (ja) 音声符号化装置および音声符号化方法
US11978460B2 (en) Truncateable predictive coding
US8457319B2 (en) Stereo encoding device, stereo decoding device, and stereo encoding method
JP4907522B2 (ja) 音声符号化装置および音声符号化方法
JP5153791B2 (ja) ステレオ音声復号装置、ステレオ音声符号化装置、および消失フレーム補償方法
JP5753540B2 (ja) ステレオ信号符号化装置、ステレオ信号復号装置、ステレオ信号符号化方法及びステレオ信号復号方法
US7904292B2 (en) Scalable encoding device, scalable decoding device, and method thereof
JP4887288B2 (ja) 音声符号化装置および音声符号化方法
JP2006072269A (ja) 音声符号化装置、通信端末装置、基地局装置および音声符号化方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120626

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120717

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150727

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees