JP5937064B2 - オーディオ/音声符号化装置、オーディオ/音声復号装置、オーディオ/音声符号化方法およびオーディオ/音声復号方法 - Google Patents

オーディオ/音声符号化装置、オーディオ/音声復号装置、オーディオ/音声符号化方法およびオーディオ/音声復号方法 Download PDF

Info

Publication number
JP5937064B2
JP5937064B2 JP2013510855A JP2013510855A JP5937064B2 JP 5937064 B2 JP5937064 B2 JP 5937064B2 JP 2013510855 A JP2013510855 A JP 2013510855A JP 2013510855 A JP2013510855 A JP 2013510855A JP 5937064 B2 JP5937064 B2 JP 5937064B2
Authority
JP
Japan
Prior art keywords
band
difference index
index
audio
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013510855A
Other languages
English (en)
Other versions
JPWO2012144127A1 (ja
Inventor
ソンジアン リウ
ソンジアン リウ
コックセン チョン
コックセン チョン
押切 正浩
正浩 押切
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=47041264&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP5937064(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Publication of JPWO2012144127A1 publication Critical patent/JPWO2012144127A1/ja
Application granted granted Critical
Publication of JP5937064B2 publication Critical patent/JP5937064B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/0017Lossless audio signal coding; Perfect reconstruction of coded audio signal by transmission of coding error
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
    • G10L19/0208Subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

本発明は、オーディオ/音声符号化装置、オーディオ/音声復号装置、オーディオ/音声符号化方法およびオーディオ/音声復号方法に関する。
信号圧縮では、ハフマン符号化が広く使用され、可変長(VL)符号テーブル(ハフマンテーブル)を使用して入力信号を符号化する。ハフマン符号化は、統計的分布が一様ではない入力信号に対して、固定長(FL)符号化よりも効率的である。
ハフマン符号化では、ハフマンテーブルは、入力信号の各取りうる値の推定出現確率に基づいた特定の方法で導出される。符号化の際、各入力信号値は、ハフマンテーブル内の特定の可変長符号にマッピングされる。
ハフマン符号化では、統計的に出現の可能性がより高い信号値を、(相対的に少ないビットを使用する)相対的に短いVL符号を使用して符号化し、反対に、統計的に低頻度で出現する信号値を、(相対的により多くのビットを使用する)相対的に長いVL符号を使用して符号化することによって、入力信号を符号化するのに使用されるビットの総数を削減することができる。
ITU−T勧告G.719 (06/2008) 「Low−complexity,full−band audio coding for high−quality,conversational applications」
しかし、オーディオ信号符号化など、いくつかの応用例では、信号統計が、1組のオーディオ信号と別の1組のオーディオ信号とで著しく異なることがある。同じ1組のオーディオ信号内でさえもそうである。
オーディオ信号の統計が、事前定義されたハフマンテーブルの統計から大きく異なる場合、信号の符号化を最適に行うことができない。異なる統計を有するオーディオ信号を符号化する場合、ハフマン符号化によるビット消費のほうが、固定長符号化によるビット消費よりもはるかに多くなることがある。
1つの可能な解決策は、ハフマン符号化と固定長符号化の両方を符号化に含め、消費するビットが少ない方の符号化方法を選択することである。エンコーダにおいてどちらの符号化方法が選択されたかを示すために、1つのフラグ信号がデコーダ側に伝送される。この解決策は、新たに標準化されたITU−T音声コーデックG.719において利用されている。
この解決策は、ハフマン符号化が固定長符号化よりも多くのビットを消費するいくつかの非常に極端なシーケンスの場合に、問題を解決する。しかし、ハフマンテーブルとは異なる統計を有するが依然としてハフマン符号化を選択する他の入力信号に対しては、この解決策は、依然として最適ではない。
ITU−Tによって標準化された音声コーデックG.719では、ノルムファクタの量子化インデックスの符号化において、ハフマン符号化が使用される。
G.719の構造が、図1に示されている。
エンコーダ側では、48kHzでサンプリングされた入力信号が、過渡状態検出器(101)によって処理される。過渡状態の検出に応じて、高周波数分解能変換または低周波数分解能変換(102)が、入力信号フレームに適用される。獲得されたスペクトル係数は、長さが等しくない帯域にグループ化される。各帯域のノルムが、推定され(103)、すべての帯域のノルムから成る、結果のスペクトル包絡線が、量子化され、符号化される(104)。その後、係数が、量子化されたノルムによって正規化される(105)。量子化されたノルムは、適応スペクトル重み付けに基づいて、さらに調整され(106)、ビット割り当てのための入力として使用される(107)。正規化されたスペクトル係数は、各周波数帯域に割り当てられたビットに基づいて、格子ベクトル量子化され、符号化される(108)。符号化されていないスペクトル係数のレベルが、推定され、符号化され(109)、デコーダに伝送される。符号化されたスペクトル係数と符号化されたノルムの両方の量子化インデックスにハフマン符号化が適用される。
デコーダ側では、フレーム構成を、すなわち、定常か、それとも過渡かを示す過渡フラグが最初に復号される。スペクトル包絡線が、復号され、同じビットイグザクトなノルム調整およびビット割り当てアルゴリズムが、正規化された変換係数の量子化インデックスを復号するのに必須なビット割り当てを再計算するために、デコーダにおいて使用される。逆量子化(112)の後、(0ビットを割り当てられた)低周波数の符号化されていないスペクトル係数が、受け取ったスペクトル係数(非0ビットを割り当てられたスペクトル係数)から構築された、スペクトルフィル(spectral−fill)コードブックを使用することによって、再生成される(113)。再生成された係数のレベルを調整するために、ノイズレベル調整インデックスが使用される。高周波数の符号化されていないスペクトル係数は、帯域幅拡張を使用して再生成される。復号されたスペクトル係数と再生成されたスペクトル係数は、組み合わされて、正規化されたスペクトルをもたらす。復号されたスペクトル包絡線が適用されて、復号されたフルバンドスペクトルをもたらす(114)。最後に、逆変換(115)が適用されて、時間領域復号信号を回復する。これは、定常モードの場合は逆修正離散コサイン変換を適用することによって、または過渡モードの場合はより高分解能の時間分解能変換の逆変換を適用することによって実行される。
エンコーダ(104)では、スペクトルサブバンドのノルムファクタが、3dBのステップを40個用いる一様対数スカラ量子化器を用いて、スカラ量子化される。対数量子化器のコードブックエントリが、図2に示されている。コードブックを見て分かるように、ノルムファクタの範囲は、[2−2.5,217]であり、インデックスが増加するにつれて、値は減少する。
ノルムファクタの量子化インデックスの符号化が、図3に示されている。合計で44個のサブバンドが存在し、それに対応して、44個のノルムファクタが存在する。第1のサブバンドの場合、ノルムファクタは、最初の32個のコードブックエントリを使用して量子化されるが(301)、他のノルムファクタは、図2に示される40個のコードブックエントリを用いてスカラ量子化される(302)。第1のサブバンドのノルムファクタの量子化インデックスは、5ビットを用いて直接的に符号化されるが(303)、他のサブバンドのインデックスは、差分符号化によって符号化される。差分インデックスは、以下の式を使用して導出される(304)。Diff_index(n)=Index(n)-Index(n-1)+15,n∈[1,43] ...(式1)
差分インデックスは、2つの可能な方法によって、すなわち、固定長符号化(305)とハフマン符号化(306)によって符号化される。差分インデックスのためのハフマンテーブルが、図4に示されている。このテーブルには、隣接サブバンド間の急激なエネルギー変化の可能性を考慮に入れた、0から31までの、合計で32個のエントリが存在する。
しかし、オーディオ入力信号の場合、聴覚マスキングという名前の物理現象が存在する。聴覚マスキングは、1つの音の知覚が別の音の存在によって影響される場合に発生する。例として、周波数が類似した2つの信号が、すなわち、1kHzに強力なスパイクが1つと、1.1kHzにより低レベルのトーンが1つ、同時に存在する場合、1.1kHzのより低レベルのトーンは、1kHzに強力なスパイクが存在するために、マスクされる(聞き取れない)。
音を、別の音(マスキング音)が存在するときに、知覚可能にするのに必要とされる音圧レベルは、オーディオ符号化において、マスキング閾値として定義される。マスキング閾値は、周波数、マスキング音の音圧レベルに依存する。2つの音が類似の周波数を有する場合、マスキング効果は大きく、マスキング閾値も大きい。マスキング音が大きな音圧レベルを有する場合、他の音に対して強力なマスキング効果を有し、マスキング閾値も大きい。
上記の聴覚マスキング理論によれば、1つのサブバンドが非常に大きなエネルギーを有する場合、他のサブバンドに対して、特に隣接サブバンドに対して、大きなマスキング効果を有する。その場合、他のサブバンドの、特に隣接サブバンドの、マスキング閾値は大きい。
隣接サブバンド内の音成分が、(マスキング閾値よりも小さい)僅かな量子化誤差しか有さない場合、このサブバンド内の音成分の劣化を、聴取者は知覚することができない。
量子化誤差がマスキング閾値を下回る限り、このサブバンドの、分解能が非常に高いノルムファクタを符号化する必要はない。
本発明では、オーディオ信号符号化の際に、ハフマンテーブルを生成するために、またハフマンテーブルを1組の事前定義されたテーブルから選択するために、オーディオ信号特性を利用する、装置および方法が提供される。
手短に言えば、差分インデックスの範囲を狭めるために、聴覚マスキング特性が利用され、その結果、符号化のために、より少数の符号語を有するハフマンテーブルを設計して、使用することができる。ハフマンテーブルがより少数の符号語を有するので、長さがより短い(より少数のビットしか消費しない)符号コードを設計することが可能である。こうすることによって、差分インデックスを符号化するための全体的ビット消費を低減することができる。
より少数のビットしか消費しないハフマン符号を採用することによって、差分インデックスを符号化するための全体的ビット消費を低減することができる。
ITU−T G.719のフレームワークを示す図 ノルムファクタ量子化のためのコードブックを示す図 ノルムファクタ量子化および符号化のプロセスを示す図 ノルムファクタインデックス符号化のために使用されるハフマンテーブルを示す図 本発明を採用するフレームワークを示す図 事前定義されたハフマンテーブルの一例を示す図 事前定義されたハフマンテーブルの一例を示す図 マスキング曲線の導出を示す図 どのようにして差分インデックスの範囲を狭めるかを示す図 どのようにしてインデックスの変更を行うかを示すフローチャート どのようにしたらハフマンテーブルを設計できるかを示す図 本発明の実施の形態2のフレームワークを示す図 本発明の実施の形態3のフレームワークを示す図 本発明の実施の形態4のエンコーダを示す図 本発明の実施の形態4のデコーダを示す図
本発明の主要な原理が、図5から図12の助けを借りて、本セクションで説明される。当業者であれば、本発明の主旨から逸脱することなく、本発明を変更し、適合させることができる。説明を容易にするために、図が提供される。
(実施の形態1)
図5は、本発明のコーデックを示しており、本発明のコーデックは、本発明の考案をハフマン符号化に適用する、エンコーダおよびデコーダを備える。
図5に示されるエンコーダでは、サブバンドのエネルギーが、心理音響モデル(501)によって処理されて、マスキング閾値Mask(n)を導出する。導出されたMask(n)に従って、量子化誤差がマスキング閾値を下回るサブバンドのノルムファクタの量子化インデックスが、差分インデックスの範囲をより小さくできるように変更される(502)。
変更されたインデックスの差分インデックスが、以下の式に従って計算される。Diff_index(n)=New_Index(n)-New_Index(n-1)+15,n∈[1,43] ...(式2)
ハフマン符号化の差分インデックスの範囲は、以下の式に示されるように識別される(504)。範囲=[Min(Diff_index(n)),Max(Diff_index(n))] ...(式3)
範囲の値に従って、1組の事前定義されたハフマンテーブルの中の、その特定の範囲のために設計されたハフマンテーブルが、差分インデックスの符号化(506)のために選択される(505)。例として、入力フレームのすべての差分インデックスの中で、最小値が12、最大値が18である場合、範囲=[12,18]である。[12,18]のために設計されたハフマンテーブルが、符号化のためのハフマンテーブルとして選択される。
この1組の事前定義されたハフマンテーブルは、差分インデックスの範囲に従って設計され(詳細は後の部分で説明される)、構成される。選択されたハフマンテーブルを示すフラグ信号と、符号化インデックスが、デコーダ側に伝送される。
ハフマンテーブルを選択するための別の方法は、すべてのハフマンテーブルを使用して、すべてのビット消費を計算し、その後、ビットを最も少ししか消費しないハフマンテーブルを選択することである。
例として、4つで1組の事前定義されたハフマンテーブルが、図6に示されている。この例では、4つの事前定義されたハフマンテーブルが存在し、それぞれ、[13,17]、[12,18]、[11,19]、および[10,20]の範囲をカバーする。表6.1は、フラグ信号と、対応するハフマンテーブルの範囲を示している。表6.2は、[13,17]の範囲内のすべての値に対するハフマン符号を示している。表6.3は、[12,18]の範囲内のすべての値に対するハフマン符号を示している。表6.4は、[11,19]の範囲内のすべての値に対するハフマン符号を示している。表6.5は、[10,20]の範囲内のすべての値に対するハフマン符号を示している。
図6のハフマン符号帳を、図4に示された元のハフマンテーブルと比較してみると、同じ値のハフマン符号帳が、より少数のビットしか消費していないことが分かる。これがビットを節約する方法の説明である。
図5に示されるデコーダでは、フラグ信号に従って、対応するハフマンテーブルが、差分インデックスの復号(508)のために選択される(507)。差分インデックスは、以下の式に従って、ノルムファクタの量子化インデックスを再構成するために使用される。Diff_index(n)=Index(n)+Index(n-1)-15,n∈[1,43] ...(式4)
図7は、入力信号のマスキング曲線の導出を示している。最初に、サブバンドのエネルギーが計算され、これらのエネルギーを用いて、入力信号のマスキング曲線が導出される。マスキング曲線の導出は、MPEG AACコーデックにおけるマスキング曲線導出方法など、従来技術のいくつかの既存の技術を利用することができる。
図8は、どのようにして差分インデックスの範囲を狭めるかを示している。最初に、マスキング閾値とサブバンドの量子化誤差エネルギーとの間の比較が行われる。量子化誤差エネルギーがマスキング閾値を下回るサブバンドについては、インデックスが、隣接サブバンドにより近い値に変更されるが、音品質に影響が及ばないように、対応する量子化誤差エネルギーがマスキング閾値を超えない変更が保証される。変更後、インデックスの範囲を狭めることができる。これを以下で説明する。
図8に示されるように、サブバンド0、2、および4については、量子化誤差エネルギーがマスキング閾値を下回るので、インデックスが、隣接インデックスにより近くなるように変更される。
インデックスの変更は、以下のように行うことができる(サブバンド2を例として使用する)。図2に示されるように、大きなインデックスは、より小さなエネルギーに対応し、その場合、Index(1)は、Index(2)よりも小さい。Index(2)の変更は、実際には、その値を減少させることである。それは、図9に示されるように行うことができる。
サブバンド1および3については、エネルギーがマスキング閾値を上回るので、インデックスは、変更されない。その場合、差分インデックスは、中央により近づく。サブバンド1を例として使用する。Diff_index(1)=Index(1)-Index(0)+15,n∈[1,43] ...(式5)New_Diff_index(1)=New_Index(1)-New_Index(0)+15,n∈[1,43] ...(式6)∵New_index(1)-New_Index(0)<Index(1)-Index(0)∴New_diff_Index(1)-15<Diff_Index(1)-15 ...(式7)
本発明では、ハフマンテーブルの設計は、大規模な入力シーケンスデータベースを用いて、オフラインで行うことができる。このプロセスは、図10において示されている。
サブバンドのエネルギーは、心理音響モデル(1001)によって処理されて、マスキング閾値Mask(n)を導出する。導出されたMask(n)に従って、量子化誤差エネルギーがマスキング閾値を下回るサブバンドのノルムファクタの量子化インデックスが、差分インデックスの範囲をより小さくできるように変更される(1002)。
変更されたインデックスの差分インデックスが計算される(1003)。
ハフマン符号化のための差分インデックスの範囲が識別される(1004)。各範囲値について、同じ範囲を有するすべての入力信号が集められ、範囲内の差分インデックスの各値の確率分布が計算される。
各範囲値について、1つのハフマンテーブルが、確率に従って設計される。ハフマンテーブルを設計するために、ここでは、いくつかの従来のハフマンテーブル設計方法を使用することができる。
(実施の形態2)
この実施の形態では、ビット節約を維持できるが、差分インデックスを元の値により近い値に回復する方法が導入される。
図11に示されるように、1105において、ハフマンテーブルが選択された後、元の量子化インデックスの間の差分インデックスが計算される。選択されたハフマンテーブルにおいて、元の差分インデックスと新しい差分インデックスが、同じビットを消費するかどうか、それらが比較される。
選択されたハフマンテーブルにおいて、元の差分インデックスと新しい差分インデックスが、同数のビットを消費する場合、変更された差分インデックスが、元の差分インデックスに回復される。元の差分インデックスと新しい差分インデックスが、同数のビットを消費しない場合、元の差分インデックスに最も近く、同数のビットを消費する、ハフマンテーブル内の符号語が、回復された差分インデックスとして選択される。
この実施の形態の利点は、ノルムファクタの量子化誤差をより小さくできるが、ビット消費は実施の形態1と同じであることである。
(実施の形態3)
この実施の形態では、心理音響モデルの使用を回避して、何らかのエネルギー比閾値だけを使用する方法が導入される。
図12に示されるように、マスキング閾値を導入するために、心理音響モデルを使用する代わりに、サブバンドのエネルギーと事前定義されたエネルギー比閾値が、その特定のサブバンドの量子化インデックスを変更すべきかどうかを判定するために使用される(1201)。以下の式に示されるように、現在のサブバンドと隣接サブバンドの間のエネルギー比が閾値を下回る場合、現在のサブバンドはあまり重要とは見なされず、現在のサブバンドの量子化インデックスを変更することができる。Energy(n)/Energy(n-1)<Threshold&& Energy(n)/Energy(n+1)<Threshold ...(式8)
量子化インデックスの変更は、以下の式に示されるように、行うことができる。
Figure 0005937064
この実施の形態の利点は、非常に複合的な複雑度の高い心理音響モデルを回避できることである。
(実施の形態4)
この実施の形態では、差分インデックスの範囲を狭めながらも、差分インデックスを完全に再構成できる方法が導入される。
図13に示されるように、差分インデックスが、以下の式に従って、元の量子化インデックスから導出される(1301)。Diff_index(n)=Index(n)-Index(n-1)+15 ...(式10)ここで、Diff_index(n)は、サブバンドnの差分インデックスを意味し、index(n)は、サブバンドnの量子化インデックスを意味し、index(n-1)は、サブバンドn−1の量子化インデックスを意味する。
差分インデックスの範囲を縮小するために、いくつかの差分インデックスの値を変更するためのモジュールが実施される(1302)。
変更は、先行サブバンドの差分インデックスの値と閾値とに従って行われる。
(n≧1の場合に)差分インデックスを変更するための1つの方法は、以下の式に示されるように行うことができ、第1の差分インデックスは、デコーダ側において完全な再構成を達成するために変更されない。if Diff_index(n-1)>(15+Threshold),Diff index_new(n)=Diff_index(n)+Diff_index(n-1)-(15+Threshold);else if Diff_index(n-1)<(15-Threshold),Diff index_new(n)=Diff_index(n)+Diff_index(n-1)-(15-Threshold);otherwiseDiff index_new(n)=Diff_index(n) ...(式11)ここで、n≧1であり、Diff_index(n)は、サブバンドnの差分インデックスを意味し、Diff_index(n-1)は、サブバンドn−1の差分インデックスを意味し、Diff_index_new(n)は、サブバンドnの新しい差分インデックスを意味し、Thresholdは、差分インデックスの変更を行うべきかどうかを検査するための値を意味する。
この変更が差分インデックスの範囲を縮小できる理由は、次のように説明される。すなわち、オーディオ/音声信号の場合、1つの周波数帯域から別の周波数帯域に移るにつれて、エネルギーが変動することは本当である。しかし、通常は隣接周波数帯域からの急激なエネルギー変化は起こらないことが観察される。1つの周波数帯域から別の周波数帯域に移るにつれて、エネルギーは徐々に増加し、または減少する。エネルギーを表すノルムファクタも徐々に変化する。ノルムファクタの量子化インデックスも徐々に変化し、その場合、差分インデックスは小さな範囲内で変動する。
急激なエネルギー変化は、大きなエネルギーを有するいくつかの主要な音成分が、周波数帯域において影響を示し始めた場合、またはそのような影響が衰え始めた場合に限って発生する。エネルギーを表すノルムファクタも、先行周波数帯域からの急激な変化を有し、ノルムファクタの量子化インデックスも、突然、大きな値で増加し、または減少する。その場合、非常に大きな、または非常に小さな差分インデックスがもたらされる。
例として、周波数サブバンドnにおいて大きなエネルギーを有する1つの主要な音成分が存在すると仮定する。周波数サブバンド(n−1)および(n+1)にある間は、主要な音成分は存在しない。その場合、図2のハフマンテーブルによれば、Index(n)は、非常に小さな値を有するが、Index(n−1)およびIndex(n+1)は、非常に大きな値を有する。その場合、式(10)によれば、Diff_index(n)は、非常に小さく((15−Threshold)よりも小さい)、Diff_index(n+1)は、非常に大きい。式(11)の変更が行われる場合、以下の式(12)によれば、差分インデックスの上限をおそらく引き下げることができ、したがって、差分インデックスの範囲を狭めることができる。∵Diff index_new(n-1)<(15-Threshold);∴Diff index(n-1)-(15-Threshold)<0∵Diff index_new(n)=Diff_index(n)+Diff_index(n-1)-(15-Threshold)∴Diff index_new(n)<Diff_index(n) ...(式12)
図14に示されるように、デコーダ側では、差分インデックスを完全に再構成するために、「差分インデックスの再構成」という名前の1つのモジュール(1403)が実施される。再構成は、先行サブバンドの差分インデックスの値と閾値とに従って行われる。デコーダにおける閾値は、エンコーダにおいて使用された閾値と同じである。
エンコーダにおける変更に対応する、(n≧1の場合に)差分インデックスを再構成するための方法は、以下の式に示されるように行うことができ、第1の差分インデックスは、エンコーダ側において変更されていないので、直接受け取られる。if Diff_index(n-1)>(15+Threshold),Diff index(n)=Diff_index_new(n)-Diff_index(n-1)+(15+Threshold);else if Diff_index(n-1)<(15-Threshold),Diff index(n)=Diff_index_new(n)-Diff_index(n-1)+(15-Threshold);otherwiseDiff index(n)=Diff_index_new(n) ...(式13)ここで、n≧1であり、Diff_index(n)は、サブバンドnの差分インデックスを意味し、Diff_index(n-1)は、サブバンドn−1の差分インデックスを意味し、Diff_index_new(n)は、サブバンドnの新しい差分インデックスを意味し、Thresholdは、差分インデックスの再構成を行うべきかどうかを検査するための値を意味する。
上の式(11)および式(13)に示されるように、差分インデックスの変更を行うべきかどうか、またどれだけの変更を行うべきかはすべて、先行周波数帯域の差分インデックスに依存する。先行周波数帯域の差分インデックスを完全に再構成できる場合、現在の差分インデックスも完全に再構成することができる。
上の式(11)および式(13)に示されるように、第1の差分インデックスは、エンコーダ側において変更されず、直接受け取られ、完全に再構成することができ、その後、第2の差分インデックスは、第1の差分インデックスの値に従って再構成することができ、その後、第3の差分インデックス、第4の差分インデックス、それ以降のインデックスも、同じ手順を踏むことによって、すべての差分インデックスを完全に再構成することができる。
この実施の形態の利点は、差分インデックスの範囲を縮小できながら、デコーダ側において、差分インデックスを依然として完全に再構成できることである。したがって、量子化インデックスのビットイグザクトネスを保持しながら、ビット効率を改善することができる。
さらに、本発明がハードウェアによって構成されるケースが、上記の実施の形態を用いて説明されているが、本発明は、ハードウェアと組み合わされたソフトウェアによって実施することもできる。
上記の実施の形態の説明において利用された各機能ブロックは、集積回路によって構成されるLSIとして一般に実施することができる。これらは、個々のチップとすることができ、または部分的もしくは全体的に単一のチップ上に含むことができる。ここでは、「LSI」が採用されているが、これは、異なる集積度に応じて、「IC」、「システムLSI」、「スーパLSI」、または「ウルトラLSI」とも呼ばれることもある。
さらに、回路集積の方法は、LSIに限定されず、専用回路または汎用プロセッサを使用する実施も可能である。LSI製造後、LSI内の回路セルの接続および設定を再構成できる、FPGA(フィールドプログラマブルゲートアレイ)または再構成可能プロセッサの利用も可能である。
さらに、半導体技術または他の派生技術の進歩の結果、LSIに取って代わる集積回路技術が出現した場合、その技術を使用して機能ブロック統合を実行することも当然可能である。バイオテクノロジの利用も可能である。
2011年4月20日出願の特願2011−94295および2011年6月15日出願の特願2011−133432の日本出願に含まれる明細書、図面および要約書の開示内容は、すべて本願に援用される。
本発明による、オーディオ/音声符号化装置、オーディオ/音声復号装置、オーディオ/音声符号化方法およびオーディオ/音声復号方法は、ワイヤレス通信端末装置、移動通信システム内の基地局装置、電話会議端末装置、テレビ会議端末装置、およびボイスオーバインターネットプロトコル(VOIP)端末装置に適用可能である。
101 過渡状態検出器
102 変換
103 ノルム推定
104 ノルム量子化および符号化
105 スペクトル正規化
106 ノルム調整
107 ビット割り当て
108 格子ベクトル量子化および符号化
109 ノイズレベル調整
110 多重化
111 逆多重化
112 格子復号
113 スペクトルフィル生成器
114 包絡線整形
115 逆変換
301 スカラ量子化(32個のステップ)
302 スカラ量子化(40個のステップ)
303 直接的伝送(5ビット)
304 差分
305 固定長符号化
306 ハフマン符号化
501 心理音響モデル
502 インデックスの変更
503 差分
504 範囲の検査
505 ハフマン符号テーブルの選択
506 ハフマン符号化
507 ハフマンテーブルの選択
508 ハフマン復号
509 合算
1001 心理音響モデル
1002 インデックスの変更
1003 差分
1004 範囲の検査
1005 確率
1006 ハフマン符号の導出
1101 心理音響モデル
1102 インデックスの変更
1103 差分
1104 範囲の検査
1105 ハフマン符号テーブルの選択
1106 差分
1107 差分インデックスの回復
1108 ハフマン符号化
1201 インデックスの変更
1202 差分
1203 範囲の検査
1204 ハフマン符号テーブルの選択
1205 ハフマン符号化
1301 差分
1302 差分インデックスの変更
1303 範囲の検査
1304 ハフマン符号テーブルの選択
1305 ハフマン符号化
1401 ハフマン符号テーブルの選択
1402 ハフマン符号化
1403 差分インデックスの再構成
1404 合算

Claims (7)

  1. 時間領域入力オーディオ/音声信号を周波数スペクトルに変換する変換部と、
    前記周波数スペクトルを複数のバンドに分割する帯域分割部と、
    各バンドのエネルギーを計算するエネルギー計算部と、
    前記バンドのエネルギーを量子化する量子化部と、
    N(Nは1以上の整数)番目のバンドとN−1番目のバンドとの間の差分インデックスを計算する差分インデックス計算部と、
    Nが2以上の整数の場合、前記N番目のバンドの差分インデックスの範囲を変更し、前記差分インデックスを前記変更した差分インデックスに置き換える差分インデックス変更部と、
    複数の予め定義されたハフマンテーブルの中から選択されたハフマンテーブルを用いて、前記差分インデックスを符号化するハフマン符号化部と、
    前記符号化した差分インデックス、および前記選択されたハフマンテーブルを示す信号をオーディオ/音声復号装置へ伝送する伝送部と、
    を備え、
    前記計算したN−1番目のバンドの差分インデックスが上限値を上回った場合、前記差分インデックス変更部は、N−1番目のバンドの差分インデックスから前記上限値を減算して算出される減算値を加算することによって、N番目のバンドの差分インデックスを変更し、
    前記計算したN−1番目のバンドの差分インデックスが下限値を下回った場合、前記差分インデックス変更部は、N−1番目のバンドの差分インデックスから前記下限値を減算して算出される減算値を加算することによって、N番目のバンドの差分インデックスを変更する、
    オーディオ/音声符号化装置。
  2. 前記上限値および前記下限値の値は、前記オーディオ/音声復号装置に記憶される値と同じである、
    請求項1に記載のオーディオ/音声符号化装置。
  3. オーディオ/音声符号化装置によって選択されたハフマンテーブルを示す信号に従って、ハフマンテーブルを選択するハフマンテーブル選択部と、
    前記選択されたハフマンテーブルを用いて、前記オーディオ/音声符号化装置から受信したN(Nは1以上の整数)番目のバンドとN−1番目のバンドとの間の差分インデックスを復号するハフマン復号部と、
    Nが2以上の整数の場合、前記選択されたハフマンテーブルを用いて復号されたN番目の差分インデックスを再構成し、前記差分インデックスを前記再構成した差分インデックスに置き換える差分インデックス再構成部と、
    前記再構成された差分インデックスを用いて、量子化インデックスを計算するインデックス計算部と、
    バンドのエネルギーを逆量子化する逆量子化部と、
    周波数領域で前記バンドのエネルギーを用いて生成された復号スペクトルを、時間領域信号に変換する変換部と、
    を備え、
    前記復号したN−1番目のバンドの差分インデックスが上限値を上回った場合、前記差分インデックス再構成部は、N−1番目のバンドの差分インデックスから前記上限値を減算して算出される減算値を加算することによって、N番目のバンドの差分インデックスを再構成し、
    前記復号したN−1番目のバンドの差分インデックスが下限値を下回った場合、前記差分インデックス再構成部は、N−1番目のバンドの差分インデックスから前記下限値を減算して算出される減算値を加算することによって、N番目のバンドの差分インデックスを再構成する、
    オーディオ/音声復号装置。
  4. 前記上限値および前記下限値の値は、前記オーディオ/音声符号化装置に記憶される値と同じである、
    請求項3に記載のオーディオ/音声復号装置。
  5. 前記差分インデックス再構成部は、Nが小さい順に、N番目の差分インデックスを再構成する、
    請求項3に記載のオーディオ/音声復号装置。
  6. 変換部によって、時間領域入力オーディオ/音声信号を周波数スペクトルに変換し、
    前記周波数スペクトルを複数のバンドに分割し、
    各バンドのエネルギーを計算し、
    前記バンドのエネルギーを量子化し、
    N(Nは1以上の整数)番目のバンドとN−1番目のバンドとの間の差分インデックスを計算し、
    Nが2以上の整数の場合、前記N番目のバンドの差分インデックスの範囲を変更し、前記差分インデックスを前記変更した差分インデックスに置き換え、
    複数の予め定義されたハフマンテーブルの中から選択されたハフマンテーブルを用いて、前記差分インデックスを符号化し、
    前記符号化した差分インデックス、および前記選択されたハフマンテーブルを示す信号をオーディオ/音声復号装置へ伝送する、
    オーディオ/音声符号化方法であって、
    前記計算したN−1番目のバンドの差分インデックスが上限値を上回った場合、N−1番目のバンドの差分インデックスから前記上限値を減算して算出される減算値を加算することによって、N番目のバンドの差分インデックスが変更され、
    前記計算したN−1番目のバンドの差分インデックスが下限値を下回った場合、N−1番目のバンドの差分インデックスから前記下限値を減算して算出される減算値を加算することによって、N番目のバンドの差分インデックスが変更される、
    オーディオ/音声符号化方法。
  7. オーディオ/音声符号化装置で選択されたハフマンテーブルを示す信号に従って、ハフマンテーブルを選択し、
    前記選択されたハフマンテーブルを用いて、前記オーディオ/音声符号化装置から受信したN(Nは1以上の整数)番目のバンドとN−1番目のバンドとの間の差分インデックスを復号し、
    Nが2以上の整数の場合、前記選択されたハフマンテーブルを用いて復号されたN番目の差分インデックスを再構成し、前記差分インデックスを前記再構成した差分インデックスに置き換え、
    前記再構成された差分インデックスを用いて、量子化インデックスを計算し、
    バンドのエネルギーを逆量子化し、
    周波数領域で前記バンドのエネルギーを用いて生成された復号スペクトルを、時間領域信号に変換する、
    オーディオ/音声復号方法であって、
    前記復号したN−1番目のバンドの差分インデックスが上限値を上回った場合、N−1番目のバンドの差分インデックスから前記上限値を減算して算出される減算値を加算することによって、N番目のバンドの差分インデックスが再構成され、
    前記復号したN−1番目のバンドの差分インデックスが下限値を下回った場合、N−1番目のバンドの差分インデックスから前記下限値を減算して算出される減算値を加算することによって、N番目のバンドの差分インデックスが再構成される、
    オーディオ/音声復号方法。
JP2013510855A 2011-04-20 2012-03-12 オーディオ/音声符号化装置、オーディオ/音声復号装置、オーディオ/音声符号化方法およびオーディオ/音声復号方法 Active JP5937064B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2011094295 2011-04-20
JP2011094295 2011-04-20
JP2011133432 2011-06-15
JP2011133432 2011-06-15
PCT/JP2012/001701 WO2012144127A1 (ja) 2011-04-20 2012-03-12 ハフマン符号化を実行するための装置および方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016094584A Division JP6321072B2 (ja) 2011-04-20 2016-05-10 オーディオ/音声符号化方法およびオーディオ/音声復号方法

Publications (2)

Publication Number Publication Date
JPWO2012144127A1 JPWO2012144127A1 (ja) 2014-07-28
JP5937064B2 true JP5937064B2 (ja) 2016-06-22

Family

ID=47041264

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2013510855A Active JP5937064B2 (ja) 2011-04-20 2012-03-12 オーディオ/音声符号化装置、オーディオ/音声復号装置、オーディオ/音声符号化方法およびオーディオ/音声復号方法
JP2016094584A Active JP6321072B2 (ja) 2011-04-20 2016-05-10 オーディオ/音声符号化方法およびオーディオ/音声復号方法
JP2018072367A Active JP6518361B2 (ja) 2011-04-20 2018-04-04 オーディオ/音声符号化方法およびオーディオ/音声符号化装置

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2016094584A Active JP6321072B2 (ja) 2011-04-20 2016-05-10 オーディオ/音声符号化方法およびオーディオ/音声復号方法
JP2018072367A Active JP6518361B2 (ja) 2011-04-20 2018-04-04 オーディオ/音声符号化方法およびオーディオ/音声符号化装置

Country Status (14)

Country Link
US (3) US9881625B2 (ja)
EP (4) EP3594943B1 (ja)
JP (3) JP5937064B2 (ja)
KR (3) KR101995694B1 (ja)
CN (2) CN104485111B (ja)
BR (1) BR112013026850B1 (ja)
CA (2) CA3051552C (ja)
ES (1) ES2765527T3 (ja)
MY (2) MY164987A (ja)
PL (1) PL3096315T3 (ja)
RU (1) RU2585990C2 (ja)
TW (2) TWI598872B (ja)
WO (1) WO2012144127A1 (ja)
ZA (1) ZA201307316B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016170428A (ja) * 2011-04-20 2016-09-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America オーディオ/音声符号化方法およびオーディオ/音声復号方法

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100715450B1 (ko) * 2004-02-02 2007-05-07 (주)경안인더스트리 비석면 단열판 및 그 제조방법
PL3457400T3 (pl) * 2012-12-13 2024-02-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Urządzenie do kodowania głosowego audio, urządzenie do dekodowania głosowego audio, sposób kodowania głosowego audio i sposób dekodowania głosowego audio
WO2014187988A2 (en) * 2013-05-24 2014-11-27 Dolby International Ab Audio encoder and decoder
US10468033B2 (en) 2013-09-13 2019-11-05 Samsung Electronics Co., Ltd. Energy lossless coding method and apparatus, signal coding method and apparatus, energy lossless decoding method and apparatus, and signal decoding method and apparatus
CN111179946B (zh) 2013-09-13 2023-10-13 三星电子株式会社 无损编码方法和无损解码方法
US20150142345A1 (en) * 2013-10-18 2015-05-21 Alpha Technologies Inc. Status Monitoring Systems and Methods for Uninterruptible Power Supplies
JP6224850B2 (ja) * 2014-02-28 2017-11-01 ドルビー ラボラトリーズ ライセンシング コーポレイション 会議における変化盲を使った知覚的連続性
WO2016162283A1 (en) * 2015-04-07 2016-10-13 Dolby International Ab Audio coding with range extension
AU2016321418A1 (en) 2015-09-13 2018-04-05 Alpha Technologies Services, Inc. Power control systems and methods
US10381867B1 (en) 2015-10-16 2019-08-13 Alpha Technologeis Services, Inc. Ferroresonant transformer systems and methods with selectable input and output voltages for use in uninterruptible power supplies
WO2018121887A1 (en) * 2017-01-02 2018-07-05 Huawei Technologies Duesseldorf Gmbh Apparatus and method for shaping the probability distribution of a data sequence
US10714146B2 (en) * 2017-03-14 2020-07-14 Sony Corporation Recording device, recording method, reproducing device, reproducing method, and recording/reproducing device
US20180288439A1 (en) * 2017-03-31 2018-10-04 Mediatek Inc. Multiple Transform Prediction
EP3652604A4 (en) 2017-07-14 2021-03-17 Alpha Technologies Services, Inc. VOLTAGE REGULATED AC SUPPLY SYSTEMS AND PROCEDURES
CN109286922B (zh) * 2018-09-27 2021-09-17 珠海市杰理科技股份有限公司 蓝牙提示音处理方法、系统、可读存储介质和蓝牙设备
WO2024012666A1 (en) * 2022-07-12 2024-01-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding or decoding ar/vr metadata with generic codebooks

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07261800A (ja) * 1994-03-17 1995-10-13 Nippon Telegr & Teleph Corp <Ntt> 変換符号化方法、復号化方法
JP2002268693A (ja) * 2001-03-12 2002-09-20 Mitsubishi Electric Corp オーディオ符号化装置
JP2003233397A (ja) * 2002-02-12 2003-08-22 Victor Co Of Japan Ltd オーディオ符号化装置、オーディオ符号化プログラム及びオーディオ符号化データ伝送装置
JP2004246224A (ja) * 2003-02-17 2004-09-02 Matsushita Electric Ind Co Ltd オーディオ高能率符号化装置、オーディオ高能率符号化方法、オーディオ高能率符号化プログラム及びその記録媒体
WO2005004113A1 (ja) * 2003-06-30 2005-01-13 Fujitsu Limited オーディオ符号化装置
JP2008032823A (ja) * 2006-07-26 2008-02-14 Toshiba Corp 音声符号化装置

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3131542B2 (ja) * 1993-11-25 2001-02-05 シャープ株式会社 符号化復号化装置
US5956674A (en) * 1995-12-01 1999-09-21 Digital Theater Systems, Inc. Multi-channel predictive subband audio coder using psychoacoustic adaptive bit allocation in frequency, time and over the multiple channels
US5848195A (en) 1995-12-06 1998-12-08 Intel Corporation Selection of huffman tables for signal encoding
US6366614B1 (en) * 1996-10-11 2002-04-02 Qualcomm Inc. Adaptive rate control for digital video compression
JP3784993B2 (ja) * 1998-06-26 2006-06-14 株式会社リコー 音響信号の符号化・量子化方法
EP1345331B1 (en) * 2000-12-22 2008-08-20 Sony Corporation Encoder
US6411226B1 (en) * 2001-01-16 2002-06-25 Motorola, Inc. Huffman decoder with reduced memory size
ES2334934T3 (es) * 2002-09-04 2010-03-17 Microsoft Corporation Codificacion de entropia por adaptacion de codificacion entre modalidades de nivel y de longitud de sucesion y nivel.
US20040120404A1 (en) * 2002-11-27 2004-06-24 Takayuki Sugahara Variable length data encoding method, variable length data encoding apparatus, variable length encoded data decoding method, and variable length encoded data decoding apparatus
EP1513137A1 (en) * 2003-08-22 2005-03-09 MicronasNIT LCC, Novi Sad Institute of Information Technologies Speech processing system and method with multi-pulse excitation
US7966424B2 (en) * 2004-03-15 2011-06-21 Microsoft Corporation Data compression
US7668715B1 (en) * 2004-11-30 2010-02-23 Cirrus Logic, Inc. Methods for selecting an initial quantization step size in audio encoders and systems using the same
US8090587B2 (en) * 2005-09-27 2012-01-03 Lg Electronics Inc. Method and apparatus for encoding/decoding multi-channel audio signal
BRPI0708267A2 (pt) * 2006-02-24 2011-05-24 France Telecom método de codificação binária de ìndices de quantificação de um envelope de sinal, método de decodificação de um envelope de sinal, e módulos de codificação e decodificação correspondentes
KR101041895B1 (ko) * 2006-08-15 2011-06-16 브로드콤 코포레이션 패킷 손실 후 디코딩된 오디오 신호의 시간 워핑
JP4823001B2 (ja) * 2006-09-27 2011-11-24 富士通セミコンダクター株式会社 オーディオ符号化装置
CA2874454C (en) * 2006-10-16 2017-05-02 Dolby International Ab Enhanced coding and parameter representation of multichannel downmixed object coding
US7953595B2 (en) * 2006-10-18 2011-05-31 Polycom, Inc. Dual-transform coding of audio signals
US7966175B2 (en) * 2006-10-18 2011-06-21 Polycom, Inc. Fast lattice vector quantization
RU2394283C1 (ru) * 2007-02-14 2010-07-10 ЭлДжи ЭЛЕКТРОНИКС ИНК. Способы и устройства для кодирования и декодирования объектно-базированных аудиосигналов
JP5071479B2 (ja) * 2007-07-04 2012-11-14 富士通株式会社 符号化装置、符号化方法および符号化プログラム
KR101426788B1 (ko) * 2007-11-20 2014-08-06 삼성전자주식회사 무선 통신 시스템에서 채널 품질 정보 전송 방법 및 장치
US8630848B2 (en) * 2008-05-30 2014-01-14 Digital Rise Technology Co., Ltd. Audio signal transient detection
US8463603B2 (en) * 2008-09-06 2013-06-11 Huawei Technologies Co., Ltd. Spectral envelope coding of energy attack signal
US8194862B2 (en) * 2009-07-31 2012-06-05 Activevideo Networks, Inc. Video game system with mixing of independent pre-encoded digital audio bitstreams
JP5358818B2 (ja) 2009-10-27 2013-12-04 株式会社ユーシン 扉用の施解錠装置
JP2011133432A (ja) 2009-12-25 2011-07-07 Shizuoka Oil Service:Kk オイル粘度チェッカー並びにこれを用いたオイル供給システム
US9106925B2 (en) * 2010-01-11 2015-08-11 Ubiquity Holdings, Inc. WEAV video compression system
CN102222505B (zh) * 2010-04-13 2012-12-19 中兴通讯股份有限公司 可分层音频编解码方法系统及瞬态信号可分层编解码方法
KR101995694B1 (ko) * 2011-04-20 2019-07-02 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 허프만 부호화를 실행하기 위한 장치 및 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07261800A (ja) * 1994-03-17 1995-10-13 Nippon Telegr & Teleph Corp <Ntt> 変換符号化方法、復号化方法
JP2002268693A (ja) * 2001-03-12 2002-09-20 Mitsubishi Electric Corp オーディオ符号化装置
JP2003233397A (ja) * 2002-02-12 2003-08-22 Victor Co Of Japan Ltd オーディオ符号化装置、オーディオ符号化プログラム及びオーディオ符号化データ伝送装置
JP2004246224A (ja) * 2003-02-17 2004-09-02 Matsushita Electric Ind Co Ltd オーディオ高能率符号化装置、オーディオ高能率符号化方法、オーディオ高能率符号化プログラム及びその記録媒体
WO2005004113A1 (ja) * 2003-06-30 2005-01-13 Fujitsu Limited オーディオ符号化装置
JP2008032823A (ja) * 2006-07-26 2008-02-14 Toshiba Corp 音声符号化装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016170428A (ja) * 2011-04-20 2016-09-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America オーディオ/音声符号化方法およびオーディオ/音声復号方法

Also Published As

Publication number Publication date
JP2018112759A (ja) 2018-07-19
JP6518361B2 (ja) 2019-05-22
PL3096315T3 (pl) 2020-04-30
CN104485111B (zh) 2018-08-24
MY164987A (en) 2018-02-28
US10515648B2 (en) 2019-12-24
KR20140022813A (ko) 2014-02-25
US20140114651A1 (en) 2014-04-24
EP2701144A4 (en) 2014-03-26
EP3594943B1 (en) 2024-02-21
CA3051552A1 (en) 2012-10-26
EP3096315A3 (en) 2017-02-15
US20180166086A1 (en) 2018-06-14
US20190122682A1 (en) 2019-04-25
US9881625B2 (en) 2018-01-30
US10204632B2 (en) 2019-02-12
ZA201307316B (en) 2014-12-23
BR112013026850B1 (pt) 2021-02-23
KR101995694B1 (ko) 2019-07-02
KR20190028569A (ko) 2019-03-18
EP3096315B1 (en) 2019-10-16
KR101859246B1 (ko) 2018-05-17
EP4322161A2 (en) 2024-02-14
RU2585990C2 (ru) 2016-06-10
JP2016170428A (ja) 2016-09-23
EP3594943A1 (en) 2020-01-15
TW201717194A (zh) 2017-05-16
MY193565A (en) 2022-10-19
JP6321072B2 (ja) 2018-05-09
JPWO2012144127A1 (ja) 2014-07-28
CN104485111A (zh) 2015-04-01
EP3096315A2 (en) 2016-11-23
RU2013146688A (ru) 2015-05-27
CN103415884A (zh) 2013-11-27
EP2701144B1 (en) 2016-07-27
TWI573132B (zh) 2017-03-01
CA3051552C (en) 2021-09-21
TW201246187A (en) 2012-11-16
CA2832032C (en) 2019-09-24
TWI598872B (zh) 2017-09-11
WO2012144127A1 (ja) 2012-10-26
CN103415884B (zh) 2015-06-10
KR20180055917A (ko) 2018-05-25
EP2701144A1 (en) 2014-02-26
KR101959698B1 (ko) 2019-03-20
CA2832032A1 (en) 2012-10-26
EP4322161A3 (en) 2024-05-01
ES2765527T3 (es) 2020-06-09

Similar Documents

Publication Publication Date Title
JP6321072B2 (ja) オーディオ/音声符号化方法およびオーディオ/音声復号方法
US6115689A (en) Scalable audio coder and decoder
US8099275B2 (en) Sound encoder and sound encoding method for generating a second layer decoded signal based on a degree of variation in a first layer decoded signal
JP6600054B2 (ja) 方法、符号化器、復号化器、及び移動体機器
CN103165134B (zh) 音频信号高频参数编解码装置

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20140605

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160511

R150 Certificate of patent or registration of utility model

Ref document number: 5937064

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150