JP6306565B2 - 帯域幅拡張のための高周波数符号化/復号化方法及びその装置 - Google Patents

帯域幅拡張のための高周波数符号化/復号化方法及びその装置 Download PDF

Info

Publication number
JP6306565B2
JP6306565B2 JP2015501583A JP2015501583A JP6306565B2 JP 6306565 B2 JP6306565 B2 JP 6306565B2 JP 2015501583 A JP2015501583 A JP 2015501583A JP 2015501583 A JP2015501583 A JP 2015501583A JP 6306565 B2 JP6306565 B2 JP 6306565B2
Authority
JP
Japan
Prior art keywords
signal
band
unit
decoding
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015501583A
Other languages
English (en)
Other versions
JP2015512528A (ja
JP2015512528A5 (ja
Inventor
ジュ,キ−ヒョン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2015512528A publication Critical patent/JP2015512528A/ja
Publication of JP2015512528A5 publication Critical patent/JP2015512528A5/ja
Application granted granted Critical
Publication of JP6306565B2 publication Critical patent/JP6306565B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/20Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
    • G10L21/0388Details of processing therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/22Mode decision, i.e. based on audio signal content versus external parameters

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Mathematical Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

本発明は、オーディオ符号化及び復号化に係り、さらに詳細には、帯域幅拡張のための高周波数符号化/復号化方法及びその装置に関する。
G.719のコーディング・スキームは、テレカンファレンシングを目的として、開発及び標準化されたものであり、MDCT(modified discrete cosine transform)を行い、周波数ドメイン変換を行い、ステーショナリー(stationary)フレームである場合には、MDCTスペクトルを直ちにコーディングする。ノンステーショナリー(non-stationary)フレームは、時間ドメインエイリアシング順序(time domain aliasing order)を変更することにより、時間的な特性を考慮するように変更する。ノンステーショナリー・フレームについて得られたスペクトルは、ステーショナリー・フレームと同一のフレームワークによって、コーデックを構成するためにインターリービングを行い、ステーショナリー・フレームと類似した形態によって構成される。かように構成されたスペクトルのエネルギーを求めて正規化を行った後、量子化を行う。一般的にエネルギーは、RMS(root mean square)値で表現され、正規化されたスペクトルは、エネルギー基盤のビット割り当てを介して、バンド別に必要なビットを生成し、バンド別ビット割り当て情報を基に、量子化及び無損失符号化を介して、ビットストリームを生成する。
G.719のデコーディング・スキームによれば、コーディング方式の逆過程で、ビットストリームからエネルギーを逆量子化し、逆量子化されたエネルギーを基に、ビット割り当て情報を生成し、スペクトルの逆量子化を行って正規化された逆量子化されたスペクトルを生成する。このとき、ビットが不足している場合、特定バンドには、逆量子化したスペクトルがなくなる。かような特定バンドに対してノイズを生成するために、低周波数の逆量子化されたスペクトルを基に、ノイズコードブックを生成し、伝送されたノイズレベルに合わせてノイズを生成するノイズフィーリング方式が適用される。一方、特定周波数以上のバンドについては、低周波数信号をフォールディングして高周波数信号を生成する帯域幅拡張技法が適用される。
本発明が解決しようとする課題は、復元音質を向上させることができる帯域幅拡張のための高周波数符号化/復号化方法及びその装置、並びにそれを採用するマルチメディア機器を提供するところにある。
前記課題を解決するための本発明の一実施形態による帯域幅拡張のための高周波数符号化方法は、復号化端で高周波数励起信号を生成するのに適用される加重値を推定するためのフレーム別励起タイプ情報を生成する段階と、前記フレーム別励起タイプ情報を含むビットストリームを生成する段階と、を含んでもよい。
前記課題を解決するための本発明の一実施形態による帯域幅拡張のための高周波数復号化方法は、加重値を推定する段階と、ランダムノイズと、復号化された低周波数スペクトルとの間に、前記加重値を適用し、高周波数励起信号を生成する段階と、を含んでもよい。
本発明による帯域幅拡張のための高周波数符号化/復号化方法及びその装置によれば、複雑度の増大なしに、復元音質を向上させることができる。
一実施形態によって、低周波数信号のバンド及び高周波数信号のバンドを構成する例について説明する図面である。 一実施形態によって、R0領域及びR1領域が選択されたコーディング方式に対応し、R2及びR3、並びにR4及びR5に区分した図面である。 一実施形態によって、R0領域及びR1領域が選択されたコーディング方式に対応し、R2及びR3、並びにR4及びR5に区分した図面である。 一実施形態によって、R0領域及びR1領域が選択されたコーディング方式に対応し、R2及びR3、並びにR4及びR5に区分した図面である。 一実施形態によるオーディオ符号化装置の構成を示したブロック図である。 一実施形態によって、BWE領域R1において、R2及びR3を決定する方法について説明するフローチャートである。 一実施形態によって、BWEパラメータを決定する方法について説明するフローチャートである。 他の実施形態によるオーディオ符号化装置の構成を示したブロック図である。 一実施形態によって、BWEパラメータ符号化部の構成を示したブロック図である。 一実施形態によるオーディオ復号化装置の構成を示したブロック図である。 一実施形態による励起信号生成部の細部的な構成を示すブロック図である。 他の実施形態による励起信号生成部の細部的な構成を示すブロック図である。 さらに他の実施形態による励起信号生成部の細部的な構成を示すブロック図である。 バンド境界において、加重値に係わるスムージング処理について説明するための図面である。 一実施形態によって、オーバーラッピング領域に存在するスペクトルを再構成するために使用される寄与分である加重値について説明する図面である。 一実施形態による、スイッチング構造のオーディオ符号化装置の構成を示したブロック図である。 他の実施形態による、スイッチング構造のオーディオ符号化装置の構成を示したブロック図である。 一実施形態による、スイッチング構造のオーディオ復号化装置の構成を示したブロック図である。 他の実施形態による、スイッチング構造のオーディオ復号化装置の構成を示したブロック図である。 一実施形態による、符号化モジュールを含むマルチメディア機器の構成を示したブロック図である。 一実施形態による、復号化モジュールを含むマルチメディア機器の構成を示したブロック図である。 一実施形態による、符号化モジュール及び復号化モジュールを含むマルチメディア機器の構成を示したブロック図である。
本発明は、多様な変換を加えることができ、さまざまな実施形態を有することができるが、特定実施形態を図面に例示し、詳細な説明において具体的に説明する。しかし、それは、本発明を特定の実施形態について限定するものではなく、本発明の技術的思想及び技術範囲に含まれる全ての変換、均等物ないし代替物を含むと理解される。本発明について説明するにおいて、関連公知技術に係わる具体的な説明が、本発明の要旨を不明瞭にすると判断される場合、その詳細な説明を省略する。
第1、第2のような用語は、多様な構成要素について説明するのに使用されるが、構成要素は、用語によって限定されるものではない。用語は、1つの構成要素を他の構成要素から区別する目的だけに使用される。
本発明で使用した用語は、ただ特定の実施形態について説明するために使用されたものであり、本発明を限定する意図ではない。本発明で使用した用語は、本発明における機能を考慮しながら、可能な限り現在汎用される一般的な用語を選択したが、それは当分野に携わる技術者の意図、判例または新たな技術の出現などによって異なりもする。また、特定の場合は、出願人が任意に選定した用語もあり、その場合、該当する発明の説明部分において、詳細にその意味を記載する。従って、本発明で使用される用語は、単純な用語の名称ではない、その用語が有する意味と、本発明の全般にわたった内容とを基に定義されなければならない。
単数の表現は、文脈上明白に異なって意味しない限り、複数の表現を含む。本発明において、「含む」または「有する」というような用語は、明細書上に記載された特徴、数字、段階、動作、構成要素、部品、またはそれらを組み合わせが存在するということを指定するものであり、一つまたはそれ以上の他の特徴、数字、段階、動作、構成要素、部品、またはそれら組み合わせの存在または付加の可能性をあらかじめ排除するものではないということが理解されなければならない。
以下、本発明の実施形態について、添付図面を参照して詳細に説明するが、添付図面を参照して説明するおいて、同一であるか、あるいは対応する構成要素は、同一の図面番号を付し、それに係わる重複説明は省略する。
図1は、低周波数信号のバンド及び高周波数信号のバンドを構成する例について説明する図面である。実施形態によれば、サンプリングレートは、32kHzであり、640個のMDCT(modified discrete cosine transform)スペクトル係数を、22個のバンドによって構成し、具体的には、低周波数信号について、17個のバンド、高周波数信号について、5個のバンドによって構成される。高周波数信号の開始周波数は、241番目のスペクトル係数であり、0〜240までのスペクトル係数は、低周波数コーディング方式でコーディングされる領域であり、R0と定義する。また、241〜639までのスペクトル係数は、BWE(bandwidth extension)が行われる領域であり、R1と定義する。一方、R1領域には、低周波数コーディング方式でコーディングされるバンドも存在する。
図2Aないし図2Cは、図1のR0領域及びR1領域を、選択されたコーディング方式によって、R2、R3、R4、R5に区分した図面である。まず、BWE領域であるR1領域は、R2及びR3に、低周波数コーディング領域であるR0領域は、R4及びR5に区分される。R2は、低周波数コーディング方式、例えば、周波数ドメインコーディング方式で、量子化及び無損失符号化がなされる信号を含んでいるバンドを示し、R3は、低周波数コーディング方式でコーディングされる信号がないバンドを示す。一方、R2が低周波数コーディング方式でコーディングされるために、ビット割り当てを行うように定義した場合であるとしても、ビットが不足して、R3と同一方式でバンドが生成されもする。R5は、ビットが割り当てられ、低周波数コーディング方式でコーディングが行われるバンドを示し、R4は、ビット余裕分がなく、低周波数信号にもかかわらず、コーディングされないか、あるいはビットが少なく割り当てられ、ノイズを付加しなければならないバンドを示す。従って、R4及びR5の区分は、ノイズ付加いかんによって判断され、それは、低周波数コーディングされたバンド内スペクトル個数の比率によって決定され、またはFPC(factorial pulse coding)を使用した場合には、バンド内パルス割り当て情報に基づいて決定する。R4バンド及びR5バンドは、復号化過程においてノイズを付加するときに区分されるために、符号化過程においては、明確に区分されるものではない。R2バンド〜R5バンドは、符号化される情報が互いに異なるだけではなく、デコーディング方式が異なって適用されもする。
図2Aに図示された例の場合、低周波数コーディング領域R0において、170〜240までの2個バンドが、ノイズを付加するR4であり、BWE領域R1において、241〜350までの2個バンド、及び427〜639までの2個バンドが、低周波数コーディング方式でコーディングされるR2である。図2Bに図示された例の場合、低周波数コーディング領域R0において、202〜240までの1個バンドが、ノイズを付加するR4であり、BWE領域R1において、241〜639までの5個バンドが、いずれも低周波数コーディング方式でコーディングされるR2である。図2Cに図示された例の場合、低周波数コーディング領域R0において、144〜240までの3個バンドが、ノイズを付加するR4であり、BWE領域R1において、R2は存在しない。低周波数コーディング領域R0において、R4は、一般的に高周波数部分に分布されるが、BWE領域R1において、R2は、特定周波数部分に制限されない。
図3は、一実施形態によるオーディオ符号化装置の構成を示したブロック図である。図3に、図示されたオーディオ符号化装置は、トランジェント検出部310、変換部320、エネルギー抽出部330、エネルギー符号化部340、トナリティ算出部350、コーディングバンド選択部360、スペクトル符号化部370、BWEパラメータ符号化部380及び多重化部390を含んでもよい。各構成要素は、少なくとも1つのモジュールに一体化され、少なくとも1つのプロセッサ(図示せず)によって具現されもする。ここで、入力信号は、音楽あるいは音声、あるいは音楽と音声との混合信号を意味し、音声信号と、それ以外野一般的な信号とに大別されもする。以下では、説明の便宜のために、オーディオ信号と総称する。
図3を参照すれば、トランジェント検出部310は、時間ドメインのオーディオ信号について、トランジェント信号あるいはアタック信号が存在するか否かということを検出する。そのために、公知された多様な方法を適用することができ、一例として、時間ドメインのオーディオ信号のエネルギー変化を利用することが可能である。現在フレームからトランジェント信号あるいはアタック信号が検出されれば、現在フレームをトランジェント・フレームと定義し、そうではない場合、ノントランジェント・フレーム、例えば、ステーショナリー(stationary)・フレームと定義する。
変換部320は、トランジェント検出部310での検出結果に基づいて、時間ドメインのオーディオ信号を周波数ドメインに変換する。変換方式の一例として、MDCTが適用されるが、それに限定されるものではない。トランジェント・フレームとステーショナリー・フレームとの各変換処理、及びインターリービング処理は、G.719でと同一に行われるが、それに限定されるものではない。
エネルギー抽出部330は、変換部320から提供される周波数ドメインのスペクトルについてエネルギーを抽出する。周波数ドメインのスペクトルは、バンド単位で構成され、バンド長は、均一でもあり、あるいは不均一でもある。エネルギーは、各バンドの平均エネルギー、平均電力、エンベロープあるいはnormを意味する。各バンドについて抽出されたエネルギーは、エネルギー符号化部340及びスペクトル符号化部370に提供される。
エネルギー符号化部340は、エネルギー抽出部330から提供される各バンドのエネルギーについて、量子化及び無損失符号化を行う。エネルギー量子化は、均一スカラ量子化器(uniform scalar quantizer)、非均一スカラ量子化器(non-uniform scalar quantizer)あるいはベクトル量子化器(vector quantizer)など多様な方式を利用して行われる。エネルギー無損失符号化は、算術コーディング(arithmeticcoding)あるいはホプだけコーディング(Huffmancoding)など多様な方式を利用して行われる。
トナリティ算出部350は、変換部320から提供される周波数ドメインのスペクトルについて、トナリティを算出する。各バンドについてトナリティを算出することにより、現在バンドがトーン性(tone-like characteristic)を有する否かということ、あるいはノイズ性(noise-like characteristic)を有するか否かということを判断する。トナリティは、SFM(spectral flatness measurement)に基づいて算出されるか、あるいは下記数式(1)のように、平均振幅に対するピークの比率と定義される。
Figure 0006306565
ここで、T(b)は、バンドbのトナリティ、Nは、バンド長、S(k)は、バンドbのスペクトル係数を示す。T(b)は、db値に変更されて使用される。
一方、トナリティは、以前フレームの当該バンドのトナリティ、及び現在フレームの当該バンドのトナリティに係わる加重和(weighted sum)として算出される。その場合、バンドbのトナリティT(b)は、下記数式(2)のように定義される。
Figure 0006306565
ここで、T(b,n)は、フレームnのバンドbでのトナリティを示し、a0は、加重値であり、実験的に、あるいはシミュレーションを介して、事前に最適値に設定される。
トナリティは、高周波数信号を構成するバンド、例えば、図1のR1領域のバンドについて算出されるが、必要により、低周波数信号を構成するバンド、例えば、図1のR0領域のバンドについても算出される。一方、バンド内のスペクトル長が過度に長い場合は、トナリティ算出時、エラーが発生することができるために、バンドを分離して算出した後、その平均値あるいは最大値により、そのバンドを代表するトナリティとして設定することができる。
コーディングバンド選択部360は、各バンドのトナリティを基にして、コーディングバンドを選択する。一実施形態によれば、図1のBWE領域R1について、R2及びR3を決定する。一方、図1の低周波数コーディング領域R0のR4及びR5は、割り当てることができるビットを考慮して決定することが可能である。
具体的には、低周波数コーディング領域R0でのコーディングバンド選択処理について説明する。
R5は、周波数ドメインコーディング方式によって、ビットを割り当ててコーディングを行う。一実施形態によれば、周波数ドメインコーディング方式でコーディングを行うために、バンド別ビット割り当て情報によって割り当てられたビットを基にパルスをコーディングするファクトリアル・パルスコーディング(factorial pulse coding)方式を適用する。ビット割り当て情報としては、エネルギーを使用することができ、エネルギーが大きいバンドには、多くのビットが割り当てられ、エネルギーが小さいバンドには、少ないビットが割り当てられるように設計する。割り当てることができるビットは、ターゲットビット率によって制限され、かような制限条件下で、ビットを割り当てるために、ターゲットビット率が低い場合、R5とR4とのバンド区分がさらに意味があり得る。ところで、トランジェント・フレームである場合には、ステーショナリー・フレームとは異なる方式でビット割り当てを行う。一実施形態によれば、トランジェント・フレームである場合、高周波数信号のバンドについては、ビット割り当てを強制的に行わないように設定する。すなわち、トランジェント・フレームにおいて、特定周波数以後のバンドについては、ビットを0に割り当てることにより、低周波数信号を良好に表現するようにすれば、低いターゲットビット率において音質改善を得ることができる。一方、ステーショナリー・フレームにおいて、特定周波数以後のバンドについて、ビットを0に割り当てる。また、ステーショナリー・フレームにおいて、高周波数信号のバンドにおいて、で所定臨界値を超えるエネルギーが含まれたバンドについては、ビット割り当てを行う。かようなビット割り当て処理は、エネルギー情報及び周波数情報を基にして行われ、符号化部及び復号化部において、同一方式を適用するために、追加する付加情報をビットストリームに含める必要がない。一実施形態によれば、量子化された後でさらに逆量子化されたエネルギーを利用して、ビット割り当てを行うことができる。
図4は、一実施形態によって、BWE領域R1において、R2及びR3を選択する方法について説明するフローチャートである。ここで、R2は、周波数ドメインコーディング方式でコーディングされた信号を含んでいるバンドであり、R3は、周波数ドメインコーディング方式でコーディングされた信号を含んでいないバンドである。BWE領域R0において、R2に該当するバンドがいずれも選択されれば、残りのバンドがR3に該当する。R2は、トーン性を持ったバンドであるために、大きい値のトナリティを有する。一方、トナリティの代わりに、ノイズネス(noiseness)は、小さい値を有する。
図4を参照すれば、410段階では、各バンドについてトナリティを算出し、420段階では、算出されたトナリティを所定臨界値Tth0と比較する。
430段階では、420段階での比較結果、算出されたトナリティが所定臨界値より大きい値を有するバンドをR2に割り当て、f_flag(b)を1に設定する。
440段階では、420段階での比較結果、算出されたトナリティが所定臨界値より小さい値を有するバンドをR3に割り当て、f_flag(b)を0に設定する。
BWE領域R0に含まれた各バンドについて設定されたf_flag(b)は、コーディングバンド選択情報として定義され、ビットストリームに含められる。コーディングバンド選択情報は、ビットストリームに含められない。
再び図3に戻り、スペクトル符号化部370は、コーディングバンド選択部360で生成されたコーディングバンド選択情報に基づいて、低周波数信号のバンド、及びf_flag(b)が1に設定されたR2バンドについて、スペクトル係数の周波数ドメインコーディングを行う。周波数ドメインコーディングは、量子化及び無損失符号化を含み、一実施形態によれば、ファクトリアル・パルスコーディング(FPC)方式を使用することができる。FPC方式は、コーディングされたスペクトル係数の位置、大きさ及び符号情報をパルスで表現する方式である。
スペクトル符号化部370は、エネルギー抽出部330から提供される各バンド別エネルギーを基に、ビット割り当て情報を生成し、各バンド別に割り当てられたビットに基づいて、FPCのためのパルス個数を計算し、パルス個数をコーディングする。そのとき、ビット不足現象によって、低周波数信号の一部バンドがコーディングされないか、あるいは、非常に少ないビットでコーディングが行われ、復号化端でノイズを付加する必要があるバンドが存在する。かような低周波数信号のバンドがR4に定義される。一方、十分な個数のパルスでコーディングが行われるバンドの場合には、復号化端でノイズを付加する必要がなく、かような低周波数信号のバンドがR5に定義される。符号化端では、低周波数信号に係わるR4及びR5の区分に意味がないので、別途のコーディングバンド選択情報を生成する必要がない。ただし、与えられた全体ビット内において、各バンド別に割り当てられたビットに基づいてパルス個数を計算し、パルス個数に対するコーディングを行う。
BWEパラメータ符号化部380は、低周波数信号のバンドのうち、R4バンドがノイズを付加する必要があるバンドであるということ示す情報(lf_att_flag)を含み、高周波数帯域幅拡張に必要なBWEパラメータを生成する。ここで、復号化端において、高周波数帯域幅拡張に必要なBWEパラメータは、低周波数信号及びランダムノイズに対して適切に加重値を付加して生成する。他の実施形態では、低周波信号をホワイトニングした信号及びランダムノイズに対して適切に加重値を付加して生成する。
そのとき、BWEパラメータは、現在フレームの全ての高周波数信号生成のために、ランダムノイズをさらに強く付加しなければならないという情報(all_noise)、低周波数信号をさらに強調しなければならないという情報(all_lf)によって構成される。lf_att_flag情報、all_noise情報、all_lf情報は、フレームごとに1度伝送され、各情報別で1ビットずつ割り当てられて伝送される。必要によってはバンド別に分離して伝送される。
図5は、一実施形態によって、BWEパラメータを決定する方法について説明するフローチャートである。そのために、図2の例において、241〜290までバンドをPbと、521〜639までバンドをEbと、すなわち、BWE領域R1の開始バンドと、最後のバンドとをそれぞれPb及びEbと定義する。
図5を参照すれば、510段階では、BWE領域R1の平均トナリティTa0を算出し、520段階では、平均トナリティTa0を臨界値Tth1と比較する。
525段階では、520段階での比較結果、平均トナリティTa0が臨界値Tth1より小さければ、all_noiseを1に設定する一方、all_lfとlf_att_flagは、いずれも0に設定して伝送しない。
530段階では、520段階での比較結果、平均トナリティTa0が臨界値Tth1より大きいか、あるいはそれと同じである、ならばall_noiseを0に設定する一方、all_lfとlf_att_flagとを下記のように決定して伝送する。
一方、540段階では、平均トナリティTa0を臨界値Tth2と比較する。ここで、臨界値Tth2は、臨界値Tth1より小さい値であることが望ましい。
545段階では、540段階での比較結果、平均トナリティTa0が臨界値Tth2より大きければ、all_ifを1に設定する一方、lf_att_flagは、0に設定して伝送しない。
550段階では、540段階での比較結果、平均トナリティTa0が臨界値Tth2より小さいが、あるいはそれと同じであるならば、all_ifを0に設定する一方、lf_att_flagを下記のように決定して伝送する。
560段階では、Pb以前バンドの平均トナリティTa1を算出する。一実施形態によれば、1つの以前バンドないし5つの以前バンドを考慮する。
570段階では、以前フレームと係わりなく、平均トナリティTa1を臨界値Tth3と比較するか、あるいは以前フレームのlf_att_flag、すなわち、p_lf_att_flagを考慮する場合、平均トナリティTa1を臨界値Tth4と比較する。
580段階では、570段階での比較結果、平均トナリティTa1が臨界値Tth3より大きければ、lf_att_flagを1に設定し、590段階では、570段階での比較結果、平均トナリティTa1が臨界値Tth3より小さいか、あるいはそれと同じであるならば、lf_att_flagを0に設定する。
一方、580段階では、p_lf_att_flagが1に設定された場合、平均トナリティTa1が臨界値Tth4より大きければ、lf_att_flagを1に設定する。そのとき、以前フレームがトランジェント・フレームである場合、p_lf_att_flagは、0に設定される。590段階では、p_lf_att_flagが1に設定された場合、平均トナリティTa1が臨界値Tth4より小さいか、あるいはそれと同じであるならば、lf_att_flagを0に設定する。ここで、臨界値Tth3は、臨界値Tth4より大きい値であることが望ましい。
一方、高周波数信号のバンドのうち、flag(b)が1に設定されたバンドが一つでも存在する場合、all_noiseは、0に設定される。その理由は、高周波数信号にトーン性を有したバンドが存在するということを意味するために、all_noiseを1に設定することができないからである。その場合、all_noiseは、0で伝送しながら、前記540段階ないし590段階を遂行し、all_lfとlf_att_flagとに係わる情報を生成する。
以下の表1は、図5を介して生成されたBWEパラメータの伝送関係を表示したものである。ここで、数字は、当該BWEパラメータの伝送に必要なビットを意味し、Xと表記した場合には、当該BWEパラメータを伝送しないことを意味する。BWEパラメータ、すなわち、all_noise、all_lf、lf_att_flagは、コーディングバンド選択部360で生成されたコーディングバンド選択情報であるf_flag(b)と相関関係を有する。例えば、表1のように、all_noiseが1に設定された場合には、f_flag、all_lf、lf_att_flagを伝送する必要がない。一方、all_noiseが0に設定された場合には、f_flag(b)を伝送しなければならず、BWE領域R1に属したバンド個数ほどの情報を伝達しなければならない。
all_lf値が0に設定された場合には、lf_att_flag値は、0に設定されて伝送されない。all_lf値が1に設定された場合には、lf_att_flagの伝送を必要とする。かような相関関係によって、従属的に伝送されもし、コーデック構造簡素化のために、従属的な相関関係なしにも、伝送も可能である。結果として、スペクトル符号化部370では、全体許容ビットで伝送されるBWEパラメータ及びコーディングバンド選択情報のために使用されるビットを除いて残った残余ビットを利用して、バンド別ビット割り当て及びコーディングを行う。
Figure 0006306565
再び図3に戻り、多重化部390は、エネルギー符号化部340から提供される各バンド別エネルギー、コーディングバンド選択部360から提供されるBWE領域R1のコーディングバンド選択情報、スペクトル符号化部370から提供される、低周波数コーディング領域R0と、BWE領域R1とのうち、R2バンドの周波数ドメインコーディング結果、BWEパラメータ符号化部380から提供される、BWEパラメータを含むビットストリームを生成し、所定の記録媒体に保存するか、あるいは復号化端に伝送する。
図6は、他の実施形態によるオーディオ符号化装置の構成を示したブロック図である。図6に図示されたオーディオ符号化装置は、基本的には、復号化端において、高周波数励起信号を生成するのに適用される加重値を推定するためのフレーム別励起タイプ情報を生成する構成要素と、フレーム別励起タイプ情報を含むビットストリームを生成する構成要素とからなる。残りの構成要素は、オプションとしてさらに追加される。
図6に図示されたオーディオ符号化装置は、トランジェント検出部610、変換部620、エネルギー抽出部630、エネルギー符号化部640、スペクトル符号化部650、トナリティ算出部660、BWEパラメータ符号化部670及び多重化部680を含んでもよい。各構成要素は、少なくとも1つのモジュールに一体化され、少なくとも1つのプロセッサ(図示せず)によって具現される。ここでは、図3の符号化装置と同一の構成要素に係わる説明は省略する。
図6において、スペクトル符号化部650は、変換部620から提供される低周波数信号のバンドについて、スペクトル係数の周波数ドメインコーディングを行う。残りの動作は、スペクトル符号化部370と同一である。
トナリティ算出部660は、フレーム単位で、BWE領域R1のトナリティを算出する。
BWEパラメータ符号化部670は、トナリティ算出部660から提供されるBWE領域R1のトナリティを利用して、BWE励起タイプ情報あるいは励起クラス情報を生成して符号化する。一実施形態によれば、入力信号のモード情報をまず考慮し、BWE励起タイプを決定する。BWE励起タイプ情報は、フレーム別に伝送される。例えば、BWE励起タイプ情報が2ビットで構成される場合、0〜3までの値を有する。0に行くほど、ランダムノイズに付加する加重値が大きくなり、3に行くほど、ランダムノイズに付加する加重値が小さくなる方式で割り当てる。一実施形態によれば、トナリティが高いほど、3に近い値を有するように設定し、トナリティが低いほど、0に近い値を有するように設定する。
図7は、一実施形態によって、BWEパラメータ符号化部の構成を示したブロック図である。図7に図示されたBWEパラメータ符号化部は、信号分類部710と、励起タイプ決定部730とを含んでもよい。
周波数ドメインのBWE方式は、時間ドメインコーディング・パートと結合されて適用される。時間ドメインコーディングには、主にCELP(code excited linear prediction)方式が使用され、CELP方式で低周波帯域をコーディングし、周波数ドメインでのBWEではない時間ドメインでのBWE方式と結合されるように具現される。かような場合、全体的に、時間ドメインコーディングと、周波数ドメインコーディングとの間の適応的コーディング方式決定に基づいて、コーディング方式を選択的に適用することができる。適切なコーディング方式を選択するために信号分類を必要とし、一実施形態によれば、信号分類結果をさらに活用し、バンド別加重値が割り当てられる。
図7を参照すれば、信号分類部710においては、入力信号の特性をフレーム単位で分析し、現在フレームが音声信号であるか否かということを分類し、分類結果により、BWE励起タイプを決定する。信号分類処理は、公知された多様な方法、例えば、短区間特性及び/または長区間特性を利用して行われる。現在フレームが、時間ドメインコーディングが適切な方式である音声信号として分類される場合、高周波数信号の特性に基づいた方式より、固定された形態の加重値を付加する方式が音質向上に役に立つ。ところで、後述する図14及び図15のスイッチング構造の符号化装置に使用される通常の信号分類部1410,1510は、複数個の以前フレームの結果と、現在フレームの結果とを組み合わせ、現在フレームの信号を分類する。従って、中間結果として現在フレームだけの信号分類結果を活用して、たとえ最終的には、周波数ドメインコーディングが適用されたとしても、現在フレームが、時間ドメインコーディングが適切な方式であると出力された場合には、固定された加重値を設定して行う。例えば、かように現在フレームが、時間ドメインコーディングが適切な音声信号として分類される場合、BWE励起タイプは、例えば、2に設定される。
一方、信号分類部710の分類結果、現在フレームが音声信号として分類されない場合には、複数個の臨界値を利用して、BWE励起タイプを決定する。
励起タイプ決定部730は、3個の臨界値を設定し、トナリティの平均値の領域を4個に区分することにより、音声信号ではないと分類された現在フレームの4種BWE励起タイプを生成する。常に4種BWE励起タイプを限定するものではなく、場合により、3種あるいは2種である場合を使用することもでき、BWE励起タイプの個数に対応して使用される臨界値の個数及び値も調整される。かようなBWE励起タイプ情報に対応し、フレーム別加重値が割り当てられる。他の実施形態としては、フレーム別加重値は、さらに多くのビットを割り当てることができる場合には、バンド別加重値情報を抽出して伝送することもできる。
図8は、一実施形態によるオーディオ復号化装置の構成を示したブロック図である。図8に図示されたオーディオ復号化装置は、基本的には、フレーム単位で受信される励起タイプ情報を利用して、加重値を推定する構成要素、及びランダムノイズと、復号化された低周波数スペクトルとの間に加重値を適用し、高周波数励起信号を生成する構成要素からなる。残りの構成要素は、オプションとしてさらに追加される。
図8に図示されたオーディオ復号化装置は、逆多重化部810、エネルギー復号化部820、BWEパラメータ復号化部830、スペクトル復号化部840、第1逆正規化部850、ノイズ付加部860、励起信号生成部870、第2逆正規化部880及び逆変換部890を含んでもよい。各構成要素は、少なくとも1つのモジュールに一体化され、少なくとも1つのプロセッサ(図示せず)によって具現される。
図8を参照すれば、逆多重化部810は、ビットストリームをパージングし、符号化されたバンド別エネルギー、低周波数コーディング領域R0と、BWE領域R1とのうち、R2バンドの周波数ドメインコーディング結果、BWEパラメータを抽出する。そのとき、コーディングバンド選択情報と、BWEパラメートルとの相関関係により、コーディングバンド選択情報が、逆多重化部810からパージングされるか、あるいはBWEパラメータ復号化部830からパージングされる。
エネルギー復号化部820は、逆多重化部810から提供される符号化されたバンド別エネルギーを復号化し、バンド別逆量子化されたエネルギーを生成する。バンド別逆量子化されたエネルギーは、第1逆正規化部850及び第2逆正規化部880に提供される。また、バンド別に逆量子化されたエネルギーは、符号化端においてと同様に、ビット割り当てのために、スペクトル復号化部840に提供される。
BWEパラメータ復号化部830は、逆多重化部810から提供されるBWEパラメータを復号化する。そのとき、コーディングバンド選択情報であるf_flag(b)が、BWEパラメータ、例えば、all_noiseと相関関係がある場合には、BWEパラメータ復号化部830において、BWEパラメータと共に復号化が行われる。一実施形態によれば、all_noise情報、f_flag情報、all_lf情報、lf_att_flag情報が、表1でのような相関関係がある場合、順次に復号化を行う。かような相関関係は、他の方式に変更されもし、変更時には、それに相応しい方式で、順次に復号化を行う。表1を例として挙げれば、all_noiseをまずパージングし、1であるか、あるいは0であるかということを確認する。もしall_noiseが1である場合には、f_flag情報、all_lf情報、lf_att_flag情報は、いずれも0に設定する。一方、all_noiseが0である場合には、f_flag情報を、BWE領域R1に属したバンドの個数ほどパージングし、次のall_lf情報をパージングする。もしall_lf情報が0である場合には、lf_att_flagを0に設定し、1である場合には、lf_att_flag情報をパージングする。
一方、コーディングバンド選択情報であるf_flag(b)がBWEパラメータと相関関係がない場合には、逆多重化部810において、ビットストリームとしてパージングされ、低周波数コーディング領域R0と、BWE領域R1とのうち、R2バンドの周波数ドメインコーディング結果と共に、スペクトル復号化部840に提供される。
スペクトル復号化部840は、低周波数コーディング領域R0の周波数ドメインコディング結果を復号化する一方、コーディングバンド選択情報に対応して、WE領域R1のうちR2バンドの周波数ドメインコーディング結果を復号化する。そのために、エネルギー復号化部820から提供されるバンド別逆量子化されたエネルギーを利用して、全体許容ビットにおいて、パージングされたBWEパラメータと、コーディングバンド選択情報のために使用されたビットとを除いて残った残余ビットを利用して、バンド別ビット割り当てを行う。スペクトル復号化のために、無損失復号化及び逆量子化が行われ、一実施形態によれば、FPCが使用される。すなわち、スペクトル復号化は、符号化端でのスペクトル符号化に使用されたものと同一の方式を使用して行われる。
一方、BWE領域R1において、f_flag(b)が1に設定されてビットが割り当てられ、実際パルスが割り当てられたバンドは、R2バンドに分類され、f_flag(b)が0に設定され、ビット割り当てられていないバンドは、R3バンドに分類される。ところで、BWE領域R1において、f_flag(b)が1に設定されており、スペクトル復号化を行うバンドであるにもかかわらず、ビット割り当てを行うことができず、FPCでコーディングされたパルス個数が0であるバンドが存在する。かように周波数ドメインコーディングを行うと設定されたR2バンドであるにもかかわらず、コーディングを行うことができないバンドは、R2バンドではないR3バンドに分類され、f_flag(b)が0に設定された場合と同一方式で処理される。
第1逆正規化部850は、エネルギー復号化部820から提供されるバンド別逆量子化されたエネルギーを利用して、スペクトル復号化部840から提供される周波数ドメインデコーディング結果に対して逆正規化を行う。かような逆正規化処理は、復号化されたスペクトルのエネルギーを、各バンド別エネルギーにマッチングさせる過程に該当する。一実施形態によれば、逆正規化処理は、低周波数コーディング領域R0と、BWE領域R1とのうちR2バンドについて行われる。
ノイズ付加部860は、低周波数コーディング領域R0の復号化されたスペクトルの各バンドをチェックし、R4バンド及びR5バンドのうち一つに分離する。そのとき、R5に分離するバンドについては、ノイズを付加せず、R4に分離するバンドについて、ノイズを付加する。一実施形態によれば、ノイズを付加するときに使用されるノイズレベルは、バンド内に存在するパルスの密度を基に決定される。すなわち、ノイズレベルは、コーディングされたパルスのエネルギーを基に決定され、ノイズレベルを利用して、ランダムエネルギーを生成する。他の実施形態によれば、ノイズレベルは、符号化端から伝送される。一方、ノイズレベルは、lf_att_flag情報を基に調整される。一実施形態によれば、下記のように、所定条件が満足されれば、ノイズレベルNlを、Att_factorほど修正する。
if (all_noise==0 && all_lf==1 && lf_att_flag==1)
{
ni_gain = ni_coef * Nl * Att_factor;
}
else
{
ni_gain = ni_coef * Ni;
}
ここで、ni_gainは、最終ノイズに適用するゲインであり、ni_coefは、ランダムシード(random seed)であり、Att_factorは、調節定数である。
励起信号生成部870は、BWE領域R1に属した各バンドについて、コーディングバンド選択情報に対応し、ノイズ付加部880から提供される復号化された低周波数スペクトルを利用して、高周波数励起信号を生成する。
第2逆正規化部880は、エネルギー復号化部820から提供されるバンド別逆量子化されたエネルギーを利用して、励起信号生成部870から提供される高周波数励起信号について逆正規化を行い、高周波数スペクトルを生成する。かような逆正規化処理は、BWE領域R1のエネルギーを各バンド別エネルギーにマッチングさせる過程に該当する。
逆変換部890は、第2逆正規化部880から提供される高周波数スペクトルについて逆変換を行い、時間ドメインの復号化された信号を生成する。
図9は、一実施形態による励起信号生成部の細部的な構成を示すブロック図であり、BWE領域R1のR3バンド、すなわち、ビット割り当てがなされていないバンドに係わる励起信号生成を担当する。図9に図示された励起信号生成部は、加重値割当て部910、ノイズ信号生成部930及び演算部950を含んでもよい。各構成要素は、少なくとも1つのモジュールに一体化され、少なくとも1つのプロセッサ(図示せず)によって具現される。
図9を参照すれば、加重値割当て部910は、バンド別に加重値を推定して割り当てる。ここで、加重値は、復号化された低周波数信号及びランダムノイズを基に生成された高周波数ノイズ信号とランダムノイズとを混合する比率を意味する。具体的には、HF(high frequency)励起信号He(f,k)は、下記数式(3)のように示すことができる。
He(f, k) = (1-Ws(f, k)) * Hn(f, k) + Ws(f, k) * Rn(f, k) (3)
ここで、Ws(f,k)は、加重値を示し、fは、周波数インデックスを、kは、バンドインデックスを示す。Hnは、高周波数ノイズ信号を、Rnは、ランダムノイズをそれぞれ示す。
一方、加重値Ws(f,k)は、1つのバンド内では、同一の値を有するが、バンド境界では、隣接バンドの加重値により、スムージングされるように処理される。
加重値割当て部910では、BWEパラメータ、及びコーディングバンド選択情報、例えば、all_noise情報、all_lf情報、lf_att_flag情報、f_flag情報を利用して、バンド別加重値を割り当てる。具体的には、all_noiseが1であるならば、Ws(k)=w0(全てのkに対して)と割り当てられる。一方、all_noiseが0であるならば、R2バンドについては、Ws(k)=w4と割り当てる。all_noiseが0であるならば、R3バンドについては、all_lf=1であり、lf_att_flag=1であるならば、Ws(k)=w3と割り当て、all_lf=1であり、lf_att_flag=0であるならば、Ws(k)=w2と割り当て、それ以外の場合には、Ws(k)=w1と決定する。一実施形態によれば、w0=1、w1=0.65、w2=0.55、w3=0.4、w4=0と割り当てる。望ましくは、w0からw4に行くほど、小さい値を有するように設定する。
加重値割当て部910は、推定されたバンド別加重値Ws(k)について、隣接バンドの加重値Ws(k−1),Ws(k+1)を考慮してスムージングを行う。スムージング結果、バンドkについて、周波数fによって、互いに異なる値を有する加重値Ws(f,k)が決定される。
図12は、バンド境界において、加重値に係わるスムージング処理について説明するための図面である。図12を参照すれば、(K+2)バンドの加重値と、(K+1)バンドの加重値とが互いに異なるために、バンド境界でスムージングを行う必要がある。図10の例においては、(K+1)バンドは、スムージングを行わず、(K+2)バンドでのみスムージングを行う。その理由は、(K+1)バンドでの加重値Ws(K+1)が0であるために、(K+1)バンドでスムージングを行えば、(K+1)バンドでの加重値Ws(K+1)が0ではない値を有することになり、(K+1)バンドにおいて、ランダムノイズまで考慮しなければならないからである。すなわち、加重値が0であるということは、当該バンドでは、高周波数励起信号の生成時、ランダムノイズを考慮しないということを示す。それは、極端なトーン信号である場合に該当し、ランダムノイズによって、ハーモニック信号のバレー区間にノイズが挿入され、ノイズ発生を防ぐためのものである。
加重値割当て部910で決定された加重値Ws(f,k)は、高周波数ノイズ信号Hnと、ランダムノイズRnとに適用させるために、演算部950に提供される。
ノイズ信号生成部930は、高周波数ノイズ信号を生成するためのものであり、ホワイトニング部931と、HFノイズ生成部933とを含んでもよい。
ホワイトニング部931は、逆量子化された低周波数スペクトルについて、ホワイトニングを行う。ホワイトニング処理は、公知された多様な方式を適用することができ、一例を挙げれば、逆量子化された低周波数スペクトルを、均一な複数のブロックに分け、ブロック別に、スペクトル係数の絶対値平均を求め、ブロックに属したスペクトル係数を平均して分ける方式が適用される。
HFノイズ生成部933は、ホワイトニング部931から提供される低周波数スペクトルを、高周波数、すなわち、BWE領域R1に輻射し、ランダムノイズとレベルをマッチングさせ、高周波数ノイズ信号を生成する。高周波数への輻射処理は、符号化端と復号化端とのあらかじめ設定された規則、パッチング、フォールディングあるいはコピーイングによって行われ、ビット率によって選択的に適用する。レベルマッチング処理は、BWE領域R1の全体バンドについて、ランダムノイズの平均と、ホワイトニング処理された信号を高周波数に輻射した信号の平均とをマッチングさせることを意味する。一実施形態によれば、ホワイトニング処理された信号を高周波数に輻射した信号の平均が、ランダムノイズの平均より若干大きいように設定することもできる。その理由は、ランダムノイズは、ランダムな信号であるために、フラットな特性を有していると見られる、LF(low frequency)信号は、相対的にダイナミックレンジが大きくなるので、大きさの平均をマッチングさせたが、エネルギーが小さく発生することもあるからである。
演算部950は、ランダムノイズ及び高周波数ノイズ信号に対して加重値を適用し、バンド別高周波数励起信号を生成するためのものであり、第1乗算器951及び第2乗算器953と、加算器955とを含んでもよい。ここで、ランダムノイズRnは、公知された多様な方式で生成され、一例を挙げれば、ランダムシード(random seed)を利用して生成される。
第1乗算器951は、ランダムノイズに第1加重値Ws(k)を乗算し、第2乗算器953は、高周波数ノイズ信号に第2加重値1−Ws(k)を乗算し、加算器955は、第1乗算器951の乗算結果と、第2乗算器953の乗算結果とを加算し、バンド別高周波数励起信号を生成する。
図10は、他の実施形態による励起信号生成部の細部的な構成を示すブロック図であり、BWE領域R1のR2バンド、すなわち、ビット割り当てがなされているバンドに係わる励起信号生成処理を担当する。図10に図示された励起信号生成部は、調整パラメータ算出部1010、ノイズ信号生成部1030、レベル調整部1050及び演算部1060を含んでもよい。各構成要素は、少なくとも1つのモジュールに一体化され、少なくとも1つのプロセッサ(図示せず)によって具現される。
図10を参照すれば、R2バンドは、FPCでコーディングされたパルスが存在するために、加重値を利用して高周波数励起信号を生成する処理に、レベル調整処理をさらに必要とする。周波数ドメイン符号化が行われたR2バンドの場合には、ランダムノイズは、付加しない。図10では、加重値Ws(k)が0である場合を例として挙げたものであり、加重値Ws(k)が0ではない場合には、図9のように、ノイズ信号生成部930においてと同一方式で、高周波数ノイズ信号を生成し、生成された高周波数ノイズ信号は、図10のノイズ信号生成部1030の出力にマッピングされる。すなわち、図10のノイズ信号生成部1030の出力は、図9のノイズ信号生成部1030の出力と同様になる。
調整パラメータ算出部1010は、レベル調整に使用されるパラメータを算出するためのものである。まず、R2バンドについて逆量子化されたFPC信号を、C(k)と定義する場合、C(k)において、絶対値の最大値を選択し、選択された値をApと定義し、FPCコーディング結果、0ではない値の位置は、CPsと定義する。CPsを除いた他の位置において、N(k)(ノイズ信号生成部830の出力)信号のエネルギーを求め、そのエネルギーをEnと定義する。En値、Ap値、及び符号化時に、f_flag(b)値を設定するために使用したTth0を基に、調整パラメータγを、下記数式(4)のように求める。
Figure 0006306565
ここで、Att_factorは、調整定数である。
演算部1060は、調整パラメータγを、ノイズ信号生成部1030から提供されるノイズ信号N(k)に乗算し、高周波数励起信号を生成する。
図11は、一実施形態による励起信号生成部の細部的な構成を示すブロック図であり、BWE領域R1の全体バンドに係わる励起信号生成を担当する。図11に図示された励起信号生成部は、加重値割当て部1110、ノイズ信号生成部1130及び演算部1150を含んでもよい。各構成要素は、少なくとも1つのモジュールに一体化され、少なくとも1つのプロセッサ(図示せず)によって具現される。ここで、ノイズ信号生成部1130及び演算部1150は、図9のノイズ信号生成部930及び演算部950と同一であるので、その説明を省略する。
図11を参照すれば、加重値割当て部1110は、フレーム別に加重値を推定して割り当てる。ここで、加重値は、復号化された低周波数信号及びランダムノイズを基に生成された高周波数ノイズ信号及びランダムノイズを混合する比率を意味する。
加重値割当て部1110は、ビットストリームからパージングされたBWE励起タイプ情報を受信する。加重値割当て部1110には、BWE励起タイプが0であるならば、Ws(k)=w00(全てのkに対して)に設定し、BWE励起タイプが1であるならば、Ws(k)=w01(全てのkに対して)に設定し、BWE励起タイプが2であるならば、Ws(k)=w02(全てのkに対して)に設定し、BWE励起タイプが3であるならば、Ws(k)=w03(全てのkに対して)に設定する。一実施形態によれば、w00=0.8、w01=0.5、w02=0.25、w03=0.05と割り当てる。w00からw03に行くほど、小さくなるように設定する。
一方、BWE領域R1において、特定周波数以後のバンドについては、BWE励起タイプ情報と係わりなく、同一の加重値を適用することもできる。一実施形態によれば、BWE領域R1において、特定周波数以後で最後のバンドを含む複数個のバンドについては、常に同一の加重値を使用して、特定周波数以下のバンドについては、BWE励起タイプ情報に基づいて加重値を生成する。例えば、12kHz以上の周波数が属するバンドである場合には、Ws(k)値をいずれもw02に割り当てる。その結果、符号化端において、BWE励起タイプを決定するために、トナリティの平均値を求めるバンドの領域は、BWE領域R1内においても、特定周波数以下、すなわち、低周波数部分に限定されるために、演算の複雑度を低減させる。一実施形態によれば、BWE領域R1内において、特定周波数以下、すなわち、低周波数部分についてトナリティの平均を求めて励起タイプを決定し、決定された励起タイプを、そのままBWE領域R1内において、特定周波数以上、すなわち、高周波数部分に適用する。すなわち、フレーム単位に励起クラス情報を1個だけ伝送するために、励起クラス情報を推定する領域を狭く持って行けば、それほど正確度はさ、らに高くなり、復元音質の向上を図ることができる。一方、BWE領域R1において、高周波部分については、低周波数部分におけるところと同一の励起クラスを適用したとしても、音質劣化が起こる可能性は低くなる。また、BWE励起タイプ情報をバンド別に伝送する場合には、BWE励起タイプ情報を表示するために使用されるビットを節減することが可能である。
次に、高周波数のエネルギーを、低周波数のエネルギー伝送方式とは異なる方式で、例えば、VQ(vector quantization)のような方式を適用すれば、低周波数のエネルギーは、スカラ量子化後、無損失符号化を使用して伝送し、高周波数のエネルギーは、他の方式で量子化を行って伝送される。かように処理する場合、低周波数コーディング領域R0の最後のバンドと、BWE領域R1の開始バンドとをオーバーラッピングする方式で構成する。また、BWE領域R1のバンド構成は、他の方式で構成し、さらに稠密なバンド割り当て構造を有する。
例えば、低周波数コーディング領域R0の最後のバンドは、8.2kHzまで構成され、BWE領域R1の開始バンドは、8kHzから始まるように構成する。その場合、低周波数コーディング領域R0と、BWE領域R1との間にオーバーラッピング領域が生じる。その結果、オーバーラッピング領域には、2つの復号化されたスペクトルを生成する。一つは、低周波数の復号化方式を適用して生成したスペクトルであり、他の一つは、高周波数の復号化方式で生成したスペクトルである。2つのスペクトル、すなわち、低周波の復号化スペクトルと、高周波の復号化スペクトルとの遷移(transition)がさらにスムージングになるように、オーバーラップアド(overlap add)方式を適用する。すなわち、2つのスペクトルを同時に活用しながら、オーバーラッピングされた領域のうち低周波数側に近いスペクトルは、低周波方式で生成されたスペクトルの寄与分(contribution)を高め、高周波数側に近いスペクトルは、高周波方式で生成されたスペクトルの寄与分を高め、オーバーラッピングされた領域を再構成する。
例えば、低周波数コーディング領域R0の最後のバンドは、8.2kHzまで、BWE領域R1の開始バンドは、8kHzから始まる場合、32kHzサンプリングレートとして、640サンプルのスペクトルを構成すれば、320〜327まで8個のスペクトルがオーバーラップされ、8個のスペクトルについては、下記数式(5)のように生成する。
Figure 0006306565
ここで、
Figure 0006306565
は、低周波方式で復号化されたスペクトルを、
Figure 0006306565
は、高周波方式で復号化されたスペクトルを、L0は、高周波の開始スペクトル位置を、L0〜L1は、オーバーラッピングされた領域を、w0は、寄与分をそれぞれ示す。
図13は、一実施形態によって、復号化端でBWE処理した後、オーバーラッピング領域に存在するスペクトルを再構成するために使用される寄与分について説明する図面である。
図13を参照すれば、w(k)は、w00(k)及びw01(k)を選択的に適用することができるが、w00(k)は、低周波数と高周波数との復号化方式に、同一の加重値を適用するものであり、w01(k)は、高周波数の復号化方式に、さらに大きい加重値を加える方式である。2つのw(k)に係わる選択基準は、低周波数のオーバーラッピングバンドにおいて、FPCを使用したパルスが存在したか否かということの有無である。低周波数のオーバーラッピングバンドで、パルスが選択されてコーディングされた場合には、w00(k)を活用し、低周波数で生成したスペクトルに係わる寄与分をL1近くまで有効にさせ、高周波数の寄与分を低減させる。基本的には、BWEを介して生成された信号のスペクトルよりは、実際コーディング方式によって生成されたスペクトルが、原信号との近接性側面において、さらに高くなる。それを活用して、オーバーラッピングバンドにおいて、原信号にさらに近接したスペクトルの寄与分を高める方式を適用することができ、従って、スムージング効果及び音質向上を図ることが可能である。
図14は、一実施形態による、スイッチング構造のオーディオ符号化装置の構成を示したブロック図である。図14に図示された符号化装置は、信号分類部1410、TD(time domain)符号化部1420、TD拡張符号化部1430、FD(frequency domain)符号化部1440及びFD拡張符号化部1450を含んでもよい。
信号分類部1410は、入力信号の特性を参照し、入力信号の符号化モードを決定する。信号分類部1410は、入力信号の時間ドメイン特性と、周波数ドメイン特性とを考慮し、入力信号の符号化モードを決定する。また、信号分類部1410は、入力信号の特性が、音声信号に該当する場合、入力信号に対して、TD符号化が行われるように決定し、入力信号の特性が、音声信号ではないオーディオ信号に該当する場合、入力信号に対して、FD符号化が行われるように決定する。
信号分類部1410に入力される入力信号は、ダウンサンプリング部(図示せず)によってダウンサンプリングされた信号になる。実施形態によれば、入力信号は、32kHzまたは48kHzのサンプリングレートを有する信号をリサンプリング(re-sampling)することにより、12.8kHzまたは16kHzのサンプリングレートを有する信号になる。そのとき、リサンプリングは、ダウンサンプリングになる。ここで、32kHzのサンプリングレートを有する信号は、SWB(super wide band)信号になり、そのとき、SWB信号は、FB(full band)信号になる。また、16kHzのサンプリングレートを有する信号は、WB(wide band)信号になる。
それにより、信号分類部1410は、入力信号の低周波数領域に存在する低周波数信号の特性を参照し、低周波数信号の符号化モードをTDモードまたはFDモードのうちいずれか一つに決定する。
TD符号化部1420は、入力信号の符号化モードがTDモードに決定されれば、入力信号について、CELP(code excited linear prediction)符号化を行う。TD符号化部1420は、入力信号から励起信号(excitation signal)を抽出し、抽出された励起信号を、ピッチ(pitch)情報に該当するadaptive codebook contribution及びfixed codebook contributionそれぞれを考慮して量子化する。
他の実施形態によれば、TD符号化部1420は、入力信号から線形予測係数(LPC:linear prediction coefficient)を抽出し、抽出された線形予測係数を量子化し、量子化された線形予測係数を利用して、励起信号を抽出する過程をさらに含んでもよい。
また、TD符号化部1420は、入力信号の特性による多様な符号化モードによって、CELP符号化を行う。例えば、CELP符号化部1420は、有声音符号化モード(voiced coding mode)、無声音符号化モード(unvoiced coding mode)、トランジション符号化モード(transition coding mode)または一般的な符号化モード(generic coding mode)のうちいずれか1つの符号化モードで、入力信号についてCELP符号化を行う。
TD拡張符号化部1430は、入力信号の低周波信号についてCELP符号化が行われれば、入力信号の高周波信号について、拡張符号化を行う。例えば、TD拡張符号化部1430は、入力信号の高周波領域に対応する高周波信号の線形予測係数を量子化する。そのとき、TD拡張符号化部1430は、入力信号の高周波信号の線形予測係数を抽出し、抽出された線形予測係数を量子化することもできる。実施形態によれば、TD拡張符号化部1430は、入力信号の低周波信号の励起信号を使用して、入力信号の高周波信号の線形予測係数を生成することもできる。
FD符号化部1440は、入力信号の符号化モードがFDモードに決定されれば、入力信号についてFD符号化を行う。そのために、入力信号について、MDCT(modified discrete cosine transform)などを利用して、周波数ドメインに変換し、変換された周波数スペクトルについて、量子化及び無損失符号化を行う。実施形態によれば、FPCを適用する。
FD拡張符号化部1450は、入力信号の高周波数信号について、拡張符号化を行う。実施形態によれば、FD拡張符号化部1450は、低周波数スペクトルを利用して、高周波数拡張を行う。
図15は、他の実施形態による、スイッチング構造のオーディオ符号化装置の構成を示したブロック図である。図15に図示された符号化装置は、信号分類部1510、LPC符号化部1520、TD符号化部1530、TD拡張符号化部1540、オーディオ符号化部1550及びオーディオ拡張符号化部1560を含んでもよい。
図15を参照すれば、信号分類部1510は、入力信号の特性を参照し、入力信号の符号化モードを決定する。信号分類部1510は、入力信号の時間ドメイン特性と、周波数ドメイン特性とを考慮し、入力信号の符号化モードを決定する。信号分類部1510は、入力信号の特性が音声信号に該当する場合、入力信号について、TD符号化が行われるように決定し、入力信号の特性が音声信号ではないオーディオ信号に該当する場合、入力信号について、オーディオ符号化が行われるように決定する。
LPC符号化部1520は、入力信号の低周波信号から、線形予測係数(LPC)を抽出し、抽出された線形予測係数を量子化する。実施形態によれば、LPC符号化部1520は、TCQ(trellis coded quantization)方式、MSVQ(multi-stage vector quantization)方式、LVQ(lattice vector quantization)方式などを使用して、線形予測係数を量子化することができるが、それらに限定されるものではない。
具体的には、LPC符号化部1520は、32kHzまたは48kHzのサンプリングレートを有する入力信号をリサンプリングすることにより、12.8kHzまたは16kHzのサンプリングレートを有する入力信号の低周波信号から、線形予測係数を抽出する。LPC符号化部1520は、量子化された線形予測係数を利用して、LPC励起信号を抽出する過程をさらに含んでもよい。
TD符号化部1530は、入力信号の符号化モードがTDモードに決定されれば、線形予測係数を利用して抽出されたLPC励起信号について、CELP符号化を行う。例えば、TD符号化部1530は、LPC励起信号について、ピッチ情報に該当するadaptive codebook contribution及びfixed codebook contributionそれぞれを考慮して量子化する。そのとき、LPC励起信号は、LPC符号化部1520、TD符号化部1530、及びそれらのうち少なくともいずれか一つにおいて生成される。
TD拡張符号化部1540は、入力信号の低周波信号のLPC励起信号について、CELP符号化が行われれば、入力信号の高周波信号について、拡張符号化を行う。例えば、TD拡張符号化部1540は、入力信号の高周波信号の線形予測係数を量子化する。実施形態によれば、TD拡張符号化部1540は、入力信号の低周波信号のLPC励起信号を使用して、入力信号の高周波信号の線形予測係数を抽出することもできる。
オーディオ符号化部1550は、入力信号の符号化モードが、オーディオモードに決定されれば、線形予測係数を利用して抽出されたLPC励起信号について、オーディオ符号化を行う。例えば、オーディオ符号化部1550は、線形予測係数を利用して抽出されたLPC励起信号を、周波数ドメインに変換し、変換されたLPC励起信号を量子化する。オーディオ符号化部1550は、周波数ドメインに変換された励起スペクトルについて、FPC方式またはlattice VQ(LVQ)方式による量子化を行うこともできる。
さらに、オーディオ符号化部1550は、LPC励起信号について、量子化を行うにあたり、ビットの余裕がある場合、adaptive codebook contribution及びfixed codebook contributionのTDコーディング情報をさらに考慮して量子化することもできる。
FD拡張符号化部1560は、入力信号の低周波信号のLPC励起信号について、オーディオ符号化が行われれば、入力信号の高周波信号について、拡張符号化を行う。すなわち、FD拡張符号化部1560は、低周波数スペクトルを利用して、高周波数拡張を行う。
図14及び図15に図示されたFD拡張符号化部1450,1560は、図3及び図6の符号化装置でもって具現される。
図16は、一実施形態による、スイッチング構造のオーディオ復号化装置の構成を示したブロック図である。図16を参照すれば、復号化装置は、モード情報検査部1610、TD復号化部1620、TD拡張復号化部1630、FD復号化部1640及びFD拡張復号化部1650を含んでもよい。
モード情報検査部1610は、ビットストリームに含まれたフレームそれぞれに係わるモード情報を検査する。モード情報検査部1610は、ビットストリームから、モード情報をパージングし、パージング結果による現在フレームの符号化モードによって、TD復号化モードまたはFD復号化モードのうちいずれか1つの復号化モードで、スイッチング作業を行う。
具体的には、モード情報検査部1610は、ビットストリームに含まれたフレームそれぞれについて、TDモードで符号化されたフレームは、CELP復号化が行われるようにスイッチングし、FDモードで符号化されたフレームは、FD復号化が行われるようにスイッチングする。
TD復号化部1620は、検査結果によって、CELP符号化されたフレームについてCELP復号化を行う。例えば、TD復号化部1620は、ビットストリームに含まれた線形予測係数を復号化し、adaptive codebook contribution及びfixed codebook contributionに係わる復号化を行い、復号化遂行結果を合成し、低周波数に係わる復号化信号である低周波信号を生成する。
TD拡張復号化部1630は、CELP復号化が行われた結果、及び低周波信号の励起信号のうち少なくとも一つを利用して、高周波数に係わる復号化信号を生成する。そのとき、低周波信号の励起信号は、ビットストリームに含まれる。また、TD拡張復号化部1630は、高周波数に係わる復号化信号である高周波信号を生成するために、ビットストリームに含まれた高周波信号に係わる線形予測係数情報を活用する。
実施形態によれば、TD拡張復号化部1630は、生成された高周波信号を、TD復号化部1620で生成された低周波信号と合成し、復号化された信号を生成する。そのとき、TD拡張復号化部1620は、復号化された信号を生成するために、低周波信号及び高周波信号のサンプリングレートが同一になるように変換する作業をさらに行う。
FD復号化部1640は、検査結果によって、FD符号化されたフレームについて、FD復号化を行う。実施形態によるFD復号化部1640は、ビットストリームに含まれた以前フレームのモード情報を参照し、無損失復号化及び逆量子化を行うこともできる。そのとき、FPC復号化が適用され、FPC復号化が行われた結果、所定周波数バンドにノイズを付加する。
FD拡張復号化部1650は、FD復号化部1640において、FPC復号化及び/またはノイズフィーリングが行われた結果を利用して、高周波数拡張復号化を行う。FD拡張復号化部1650は、低周波帯域について復号化された周波数スペクトルのエネルギーを逆量子化し、高周波帯域幅拡張の多様なモードによって、低周波信号を利用して、高周波信号の励起信号を生成し、生成された励起信号のエネルギーが逆量子化されたエネルギーに対称になるようにゲインを適用することにより、復号化された高周波信号を生成する。例えば、高周波帯域幅拡張の多様なモードは、ノルマル(normal)モード、ハーモニック(harmonic)モードまたはノイズ(noise)モードのうちいずれか1つのモードになる。
図17は、他の実施形態による、スイッチング構造のオーディオ復号化装置の構成を示したブロック図である。図17を参照すれば、復号化装置は、モード情報検査部1710、LPC復号化部1720、TD復号化部1730、TD拡張復号化部1740、オーディオ復号化部1750及びFD拡張復号化部1760を含んでもよい。
モード情報検査部1710は、ビットストリームに含まれたフレームそれぞれに係わるモード情報を検査する。例えば、モード情報検査部1710は、符号化されたビットストリームから、モード情報をパージングし、パージング結果による現在フレームの符号化モードによって、TD復号化モードまたはオーディオ復号化モードのうちいずれか1つの復号化モードで、スイッチング作業を行う。
具体的には、モード情報検査部1710は、ビットストリームに含まれたフレームそれぞれについて、TDモードで符号化されたフレームは、CELP復号化が行われるようにスイッチングし、オーディオ符号化モードで符号化されたフレームは、オーディオ復号化が行われるようにスイッチングする。
LPC復号化部1720は、ビットストリームに含まれたフレームについて、LPC復号化を行う。
TD復号化部1730は、検査結果によって、CELP符号化されたフレームについて、CELP復号化を行う。例を挙げて説明すれば、TD復号化部1730は、adaptive codebook contribution及びfixed codebook contributionに係わる復号化を行い、復号化遂行結果を合成し、低周波数に係わる復号化信号である低周波信号を生成する。
TD拡張復号化部1740は、CELP復号化が行われた結果、及び低周波信号の励起信号のうち少なくとも一つを利用して、高周波数に係わる復号化信号を生成する。そのとき、低周波信号の励起信号は、ビットストリームに含まれる。また、TD拡張復号化部1740は、高周波数に係わる復号化信号である高周波信号を生成するために、LPC復号化部1720で復号化された線形予測係数情報を利用する。
また、実施形態によればTD拡張復号化部1740は、生成された高周波信号を、TD復号化部1730で生成された低周波信号と合成し、復号化された信号を生成する。そのとき、TD拡張復号化部1740は、復号化された信号を生成するために、低周波信号及び高周波信号のサンプリングレートが同一になるように変換する作業をさらに行う。
オーディオ復号化部1750は、検査結果によって、オーディオ符号化されたフレームについて、オーディオ復号化を行う。例えば、オーディオ復号化部1750は、ビットストリームを参照し、時間ドメイン寄与分が存在する場合、時間ドメイン寄与分及び周波数ドメイン寄与分を考慮して復号化を行い、時間ドメイン寄与分が存在しない場合、周波数ドメイン寄与分を考慮して復号化を行う。
また、オーディオ復号化部1750は、FPCまたはLVQで量子化された信号について、IDCTなどを利用して、時間ドメインに変換して復号化された低周波数励起信号を生成し、生成された励起信号を、逆量子化されたLPC係数と合成し、復号化された低周波数信号を生成する。
FD拡張復号化部1760は、オーディオ復号化が行われた結果を利用して、拡張復号化を行う。例えば、FD拡張復号化部1760は、復号化された低周波数信号を、高周波数拡張復号化に適するサンプリングレートに変換し、変換された信号について、MDCTのような周波数変換を行う。FD拡張復号化部1760は、変換された低周波数スペクトルのエネルギーを逆量子化し、高周波帯域幅拡張の多様なモードによって、低周波信号を利用して、高周波信号の励起信号を生成し、生成された励起信号のエネルギーが、逆量子化されたエネルギーに対称になるようにゲインを適用することにより、復号化された高周波信号を生成する。例えば、高周波帯域幅拡張の多様なモードは、ノルマルモード、転移モード、ハーモニックモード、またはノイズモードのうちいずれか1つのモードになる。
また、FD拡張復号化部1760は、復号化された高周波信号について、inverse MDCTを利用して、時間ドメインに変換し、時間ドメインに変換された信号について、オーディオ復号化部1750で生成された低周波信号とサンプリングレートを合わせるための変換作業を行った後、低周波信号と、変換作業が行われた信号とを合成する。
図16及び図17に図示されたFD拡張復号化部1650,1760は、図8の復号化装置でもって具現される。
図18は、本発明の一実施形態による、符号化モジュールを含むマルチメディア機器の構成を示したブロック図である。図18に図示されたマルチメディア機器1800は、通信部1810及び符号化モジュール1830を含んでもよい。また、符号化の結果として得られるオーディオビットストリームの用途によって、オーディオビットストリームを保存する保存部1850をさらに含んでもよい。また、マルチメディア機器1800は、マイクロフォン1870をさらに含んでもよい。すなわち、保存部1850とマイクロフォン1870は、オプションとして具備される。一方、図18に図示されたマルチメディア機器1800は、任意の復号化モジュール(図示せず)、例えば、一般的な復号化機能を遂行する復号化モジュール、あるいは本発明の一実施形態による復号化モジュールをさらに含んでもよい。ここで、符号化モジュール1830は、マルチメディア機器1800に具備される他の構成要素(図示せず)と共に一体化され、少なくとも一つ以上のプロセッサ(図示せず)によって具現される。
図18を参照すれば、通信部1810は、外部から提供されるオーディオ及び符号化されたビットストリームのうち少なくとも一つを受信したり、あるいは復元されたオーディオ、及び符号化モジュール1830の符号化結果として得られるオーディオビットストリームのうち少なくとも一つを送信したりする。
通信部1810は、無線インターネット、無線イントラネット、無線電話網、無線LAN(local area network)、Wi−Fi(wireless fidelity)、WFD(Wi−Fi direct)、3G(generation)、4G(4generation)、ブルートゥース、赤外線通信(IrDA:infrared data association)、RFID(radio frequency identification)、UWB(ultra-wideband)、ジグビー((登録商標)Zigbee)、NFC(near field communication)のような無線ネットワーク、または有線電話網、有線インターネットのような有線ネットワークを介して、外部のマルチメディア機器とデータを送受信することができるように構成される。
符号化モジュール1830は、一実施形態によれば、通信部1810あるいはマイクロフォン1870を介して提供される時間ドメインのオーディオ信号について、図14あるいは図15の符号化装置を利用した符号化を行う。また、FD拡張符号化は、図3あるいは図6の符号化装置を利用する。
保存部1850は、符号化モジュール1830で生成される符号化されたビットストリームを保存する。一方、保存部1850は、マルチメディア機器1800の運用に必要な多様なプログラムを保存する。
マイクロフォン1870は、ユーザあるいは外部のオーディオ信号を、符号化モジュール1830に提供する。
図19は、本発明の一実施形態による、復号化モジュールを含むマルチメディア機器の構成を示したブロック図である。図19に図示されたマルチメディア機器1900は、通信部1910と復号化モジュール1930とを含んでもよい。また、復号化の結果として得られる復元されたオーディオ信号の用途によって、復元されたオーディオ信号を保存する保存部1950をさらに含んでもよい。また、マルチメディア機器1900は、スピーカ1970をさらに含んでもよい。すなわち、保存部1950とスピーカ1970は、オプションとして具備される。一方、図19に図示されたマルチメディア機器1900は、任意の符号化モジュール(図示せず)、例えば、一般的な符号化機能を遂行する符号化モジュール、あるいは本発明の一実施形態による、符号化モジュールをさらに含んでもよい。ここで、復号化モジュール1930は、マルチメディア機器1900に具備される他の構成要素(図示せず)と共に一体化され、少なくとも1つの以上のプロセッサ(図示せず)によって具現される。
図19を参照すれば、通信部1910は、外部から提供される符号化されたビットストリーム及びオーディオ信号のうち少なくとも一つを受信したり、あるいは復号化モジュール1930の復号化結果として得られる復元されたオーディオ信号、及び符号化の結果として得られるオーディオビットストリームのうち少なくとも一つを送信したりする。一方、通信部1910は、図18の通信部1810と実質的に類似して具現される。
復号化モジュール1930は、一実施形態によれば、通信部1910を介して提供されるビットストリームを受信し、ビットストリームに含まれたオーディオスペクトルについて、図16あるいは図17の復号化装置を利用した復号化を行う。また、FD拡張復号化は、図8の復号化装置を利用することができ、具体的には、図9ないし図11に図示された高周波数励起信号生成部を利用する。
保存部1950は、復号化モジュール1930で生成される復元されたオーディオ信号を保存する。一方、保存部1950は、マルチメディア機器1900の運用に必要な多様なプログラムを保存する。
スピーカ1970は、復号化モジュール1930で生成される復元されたオーディオ信号を外部に出力する。
図20は、本発明の一実施形態による、符号化モジュール及び復号化モジュールを含むマルチメディア機器の構成を示したブロック図である。
図20に図示されたマルチメディア機器2000は、通信部2010、符号化モジュール2020及び復号化モジュール2030を含んでもよい。また、符号化の結果として得られるオーディオビットストリーム、あるいは復号化の結果として得られる復元されたオーディオ信号の用途によって、オーディオビットストリームあるいは復元されたオーディオ信号を保存する保存部2040をさらに含んでもよい。また、マルチメディア機器2000は、マイクロフォン2050あるいはスピーカ2060をさらに含んでもよい。ここで、符号化モジュール2020と復号化モジュール2030は、マルチメディア機器2000に具備される他の構成要素(図示せず)と共に一体化され、少なくとも一つ以上のプロセッサ(図示せず)によって具現される。
図20に図示された各構成要素は、図18に図示されたマルチメディア機器1800の構成要素、あるいは図19に図示されたマルチメディア機器1900の構成要素と重複するので、その詳細な説明は省略する。
図18ないし図20に図示されたマルチメディア機器1800,1900,2000には、電話、モバイルフォンなどを含む音声通信専用端末;TV(television)、MP3プレーヤなどを含む放送専用装置または音楽専用装置、あるいは音声通信専用端末と、放送専用装置あるいは音楽専用装置との融合端末装置が含まれるが、それらに限定されるものではない。また、マルチメディア機器1800,1900,2000は、クライアント、サーバ、あるいはクライアントとサーバとの間に配置される変換器として使用される。
一方、マルチメディア機器1800,1900,2000が、例えば、モバイルフォンである場合、図示されていないが、キーパッドのようなユーザ入力部、ユーザ・インターフェースあるいはモバイルフォンで処理される情報をディスプレイするディスプレイ部、モバイルフォンの全般的な機能を制御するプロセッサをさらに含んでもよい。また、モバイルフォンは、撮像機能を有するカメラ部と、モバイルフォンで必要とする機能を遂行する少なくとも一つ以上の構成要素とをさらに含んでもよい。
一方、マルチメディア機器1800,1900,2000が、例えば、TVである場合、図示されていないが、キーパッドのようなユーザ入力部、受信された放送情報をディスプレイするディスプレイ部、TVの全般的な機能を制御するプロセッサをさらに含んでもよい。また、TVは、TVで必要とする機能を遂行する少なくとも一つ以上の構成要素をさらに含んでもよい。
前記実施形態による方法は、コンピュータで実行されるプログラムでもって作成可能であり、コンピュータで読み取り可能な記録媒体を利用して、前記プログラムを動作させる汎用デジタル・コンピュータで具現される。また、前述の本発明の実施形態で使用されるデータ構造、プログラム命令あるいはデータファイルは、コンピュータで読み取り可能な記録媒体に多様な手段を介して記録される。コンピュータで読み取り可能な記録媒体は、コンピュータシステムによって読み取り可能なデータが保存される全種の保存装置を含む。コンピュータで読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体(magnetic media);CD(compact disc)−ROM(read-only memory)、DVD(digital versatile disc)のような光記録媒体(optical media);フロプティカルディスク(floptical disk)のような磁気・光媒体(magneto-optical media);及びROM、RAM(random-access memory)、フラッシュメモリようなプログラム命令を保存して遂行するように特別に構成されたハードウェア装置;が含まれる。また、コンピュータで読み取り可能な記録媒体は、プログラム命令、データ構造などを指定する信号を伝送する伝送媒体でもある。プログラム命令の例としては、コンパイラによって作われるような機械語コードだけではなく、インタープリタなどを使用して、コンピュータによって実行される高級言語コードを含んでもよい。
以上のように、本発明の一実施形態は、たとえ限定された実施形態と図面とによって説明されたにしても、本発明の一実施形態は、前述の実施形態に限定されるものではなく、それは、本発明が属する分野で当業者であるならば、かような記載から、多様な修正及び変形が可能であろう。従って、本発明のスコープは、前述の説明ではなく、特許請求の範囲に示されており、その均等または等価的変形は、いずれも本発明技術的思想の範疇に属するものである。

Claims (5)

  1. 信号分類結果に基づき、現在フレームが音声信号に当るか否かを決定する段階と、
    前記現在フレームが前記音声信号に当る場合、前記現在フレームの第1励起クラスの情報を生成する段階と、
    前記現在フレームが前記音声信号に当らない場合、前記現在フレームのトーナル特性を取得する段階と、
    前記トーナル特性を閾値(threshold value)と比較して、前記現在フレームの第2励起クラスの情報を生成する段階と、
    を含む励起クラス生成方法。
  2. 前記第1励起クラスの情報は前記現在フレームの励起クラスが音声クラスであることを示し、前記第2励起クラスの情報は前記現在フレームの励起クラスが第1非音声クラスあるいは第2非音声クラスであることを示す請求項1に記載の方法。
  3. 前記第1非音声クラスは前記現在フレームがトーナル(tonal)信号である場合に割り当てられ、前記第2非音声クラスは前記現在フレームがノイジー(noisy)信号である場合に割り当てられている請求項2に記載の方法。
  4. 前記第1励起クラスの情報と前記第2励起クラスの情報はフレーム単位で生成される請求項1に記載の方法。
  5. 請求項1ないし4のいずれかに記載の方法を実行できるプログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2015501583A 2012-03-21 2013-03-21 帯域幅拡張のための高周波数符号化/復号化方法及びその装置 Active JP6306565B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201261613610P 2012-03-21 2012-03-21
US61/613,610 2012-03-21
US201261719799P 2012-10-29 2012-10-29
US61/719,799 2012-10-29
PCT/KR2013/002372 WO2013141638A1 (ko) 2012-03-21 2013-03-21 대역폭 확장을 위한 고주파수 부호화/복호화 방법 및 장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018042308A Division JP6673957B2 (ja) 2012-03-21 2018-03-08 帯域幅拡張のための高周波数符号化/復号化方法及びその装置

Publications (3)

Publication Number Publication Date
JP2015512528A JP2015512528A (ja) 2015-04-27
JP2015512528A5 JP2015512528A5 (ja) 2016-05-19
JP6306565B2 true JP6306565B2 (ja) 2018-04-04

Family

ID=49223006

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015501583A Active JP6306565B2 (ja) 2012-03-21 2013-03-21 帯域幅拡張のための高周波数符号化/復号化方法及びその装置
JP2018042308A Active JP6673957B2 (ja) 2012-03-21 2018-03-08 帯域幅拡張のための高周波数符号化/復号化方法及びその装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2018042308A Active JP6673957B2 (ja) 2012-03-21 2018-03-08 帯域幅拡張のための高周波数符号化/復号化方法及びその装置

Country Status (8)

Country Link
US (3) US9378746B2 (ja)
EP (2) EP2830062B1 (ja)
JP (2) JP6306565B2 (ja)
KR (3) KR102070432B1 (ja)
CN (2) CN108831501B (ja)
ES (1) ES2762325T3 (ja)
TW (2) TWI591620B (ja)
WO (1) WO2013141638A1 (ja)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL294836A (en) * 2013-04-05 2022-09-01 Dolby Int Ab Audio encoder and decoder
US8982976B2 (en) * 2013-07-22 2015-03-17 Futurewei Technologies, Inc. Systems and methods for trellis coded quantization based channel feedback
US10388293B2 (en) * 2013-09-16 2019-08-20 Samsung Electronics Co., Ltd. Signal encoding method and device and signal decoding method and device
EP3614381A1 (en) 2013-09-16 2020-02-26 Samsung Electronics Co., Ltd. Signal encoding method and device and signal decoding method and device
EP3040987B1 (en) 2013-12-02 2019-05-29 Huawei Technologies Co., Ltd. Encoding method and apparatus
FR3017484A1 (fr) 2014-02-07 2015-08-14 Orange Extension amelioree de bande de frequence dans un decodeur de signaux audiofrequences
WO2015122752A1 (ko) 2014-02-17 2015-08-20 삼성전자 주식회사 신호 부호화방법 및 장치와 신호 복호화방법 및 장치
EP3109611A4 (en) * 2014-02-17 2017-08-30 Samsung Electronics Co., Ltd. Signal encoding method and apparatus, and signal decoding method and apparatus
ES2969736T3 (es) * 2014-02-28 2024-05-22 Fraunhofer Ges Forschung Dispositivo de decodificación y método de decodificación
US10410645B2 (en) 2014-03-03 2019-09-10 Samsung Electronics Co., Ltd. Method and apparatus for high frequency decoding for bandwidth extension
KR102386736B1 (ko) * 2014-03-03 2022-04-14 삼성전자주식회사 대역폭 확장을 위한 고주파 복호화 방법 및 장치
BR112016020988B1 (pt) * 2014-03-14 2022-08-30 Telefonaktiebolaget Lm Ericsson (Publ) Método e codificador para codificação de um sinal de áudio, e, dispositivo de comunicação
CN104934034B (zh) * 2014-03-19 2016-11-16 华为技术有限公司 用于信号处理的方法和装置
SG10201808274UA (en) 2014-03-24 2018-10-30 Samsung Electronics Co Ltd High-band encoding method and device, and high-band decoding method and device
CN107077855B (zh) 2014-07-28 2020-09-22 三星电子株式会社 信号编码方法和装置以及信号解码方法和装置
EP2980792A1 (en) 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for generating an enhanced signal using independent noise-filling
FR3024581A1 (fr) 2014-07-29 2016-02-05 Orange Determination d'un budget de codage d'une trame de transition lpd/fd
JP2016038435A (ja) * 2014-08-06 2016-03-22 ソニー株式会社 符号化装置および方法、復号装置および方法、並びにプログラム
EP3182412B1 (en) * 2014-08-15 2023-06-07 Samsung Electronics Co., Ltd. Sound quality improving method and device, sound decoding method and device, and multimedia device employing same
US9837089B2 (en) * 2015-06-18 2017-12-05 Qualcomm Incorporated High-band signal generation
US10847170B2 (en) 2015-06-18 2020-11-24 Qualcomm Incorporated Device and method for generating a high-band signal from non-linearly processed sub-ranges
US9978392B2 (en) * 2016-09-09 2018-05-22 Tata Consultancy Services Limited Noisy signal identification from non-stationary audio signals
CN108630212B (zh) * 2018-04-03 2021-05-07 湖南商学院 非盲带宽扩展中高频激励信号的感知重建方法与装置
US11133891B2 (en) 2018-06-29 2021-09-28 Khalifa University of Science and Technology Systems and methods for self-synchronized communications
US10951596B2 (en) * 2018-07-27 2021-03-16 Khalifa University of Science and Technology Method for secure device-to-device communication using multilayered cyphers
JP6903242B2 (ja) * 2019-01-31 2021-07-14 三菱電機株式会社 周波数帯域拡張装置、周波数帯域拡張方法、及び周波数帯域拡張プログラム
EP3751567B1 (en) * 2019-06-10 2022-01-26 Axis AB A method, a computer program, an encoder and a monitoring device
CN113539281A (zh) * 2020-04-21 2021-10-22 华为技术有限公司 音频信号编码方法和装置
CN113808596A (zh) * 2020-05-30 2021-12-17 华为技术有限公司 一种音频编码方法和音频编码装置
CN113808597A (zh) * 2020-05-30 2021-12-17 华为技术有限公司 一种音频编码方法和音频编码装置
CN113963703A (zh) * 2020-07-03 2022-01-21 华为技术有限公司 一种音频编码的方法和编解码设备
CN113270105B (zh) * 2021-05-20 2022-05-10 东南大学 一种基于混合调制的类语音数据传输方法

Family Cites Families (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US524323A (en) * 1894-08-14 Benfabriken
GB1218015A (en) * 1967-03-13 1971-01-06 Nat Res Dev Improvements in or relating to systems for transmitting television signals
US4890328A (en) * 1985-08-28 1989-12-26 American Telephone And Telegraph Company Voice synthesis utilizing multi-level filter excitation
US4771465A (en) * 1986-09-11 1988-09-13 American Telephone And Telegraph Company, At&T Bell Laboratories Digital speech sinusoidal vocoder with transmission of only subset of harmonics
KR940004026Y1 (ko) 1991-05-13 1994-06-17 금성일렉트론 주식회사 바이어스의 스타트업회로
CA2568984C (en) * 1991-06-11 2007-07-10 Qualcomm Incorporated Variable rate vocoder
US5721788A (en) 1992-07-31 1998-02-24 Corbis Corporation Method and system for digital image signatures
US5455888A (en) * 1992-12-04 1995-10-03 Northern Telecom Limited Speech bandwidth extension method and apparatus
US6983051B1 (en) * 1993-11-18 2006-01-03 Digimarc Corporation Methods for audio watermarking and decoding
US6614914B1 (en) * 1995-05-08 2003-09-02 Digimarc Corporation Watermark embedder and reader
US5602961A (en) * 1994-05-31 1997-02-11 Alaris, Inc. Method and apparatus for speech compression using multi-mode code excited linear predictive coding
US5664055A (en) * 1995-06-07 1997-09-02 Lucent Technologies Inc. CS-ACELP speech compression system with adaptive pitch prediction filter gain based on a measure of periodicity
US5732389A (en) * 1995-06-07 1998-03-24 Lucent Technologies Inc. Voiced/unvoiced classification of speech for excitation codebook selection in celp speech decoding during frame erasures
CA2188369C (en) * 1995-10-19 2005-01-11 Joachim Stegmann Method and an arrangement for classifying speech signals
US6570991B1 (en) * 1996-12-18 2003-05-27 Interval Research Corporation Multi-feature speech/music discrimination system
US7024355B2 (en) * 1997-01-27 2006-04-04 Nec Corporation Speech coder/decoder
US6819863B2 (en) 1998-01-13 2004-11-16 Koninklijke Philips Electronics N.V. System and method for locating program boundaries and commercial boundaries using audio categories
DE69926821T2 (de) * 1998-01-22 2007-12-06 Deutsche Telekom Ag Verfahren zur signalgesteuerten Schaltung zwischen verschiedenen Audiokodierungssystemen
US6104992A (en) * 1998-08-24 2000-08-15 Conexant Systems, Inc. Adaptive gain reduction to produce fixed codebook target signal
US6456964B2 (en) * 1998-12-21 2002-09-24 Qualcomm, Incorporated Encoding of periodic speech using prototype waveforms
US6311154B1 (en) * 1998-12-30 2001-10-30 Nokia Mobile Phones Limited Adaptive windows for analysis-by-synthesis CELP-type speech coding
SE9903553D0 (sv) 1999-01-27 1999-10-01 Lars Liljeryd Enhancing percepptual performance of SBR and related coding methods by adaptive noise addition (ANA) and noise substitution limiting (NSL)
US6298322B1 (en) * 1999-05-06 2001-10-02 Eric Lindemann Encoding and synthesis of tonal audio signals using dominant sinusoids and a vector-quantized residual tonal signal
JP4438127B2 (ja) * 1999-06-18 2010-03-24 ソニー株式会社 音声符号化装置及び方法、音声復号装置及び方法、並びに記録媒体
JP4792613B2 (ja) * 1999-09-29 2011-10-12 ソニー株式会社 情報処理装置および方法、並びに記録媒体
FR2813722B1 (fr) * 2000-09-05 2003-01-24 France Telecom Procede et dispositif de dissimulation d'erreurs et systeme de transmission comportant un tel dispositif
SE0004187D0 (sv) * 2000-11-15 2000-11-15 Coding Technologies Sweden Ab Enhancing the performance of coding systems that use high frequency reconstruction methods
US20020128839A1 (en) * 2001-01-12 2002-09-12 Ulf Lindgren Speech bandwidth extension
US6694293B2 (en) * 2001-02-13 2004-02-17 Mindspeed Technologies, Inc. Speech coding system with a music classifier
DE10134471C2 (de) * 2001-02-28 2003-05-22 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Charakterisieren eines Signals und Verfahren und Vorrichtung zum Erzeugen eines indexierten Signals
SE522553C2 (sv) * 2001-04-23 2004-02-17 Ericsson Telefon Ab L M Bandbreddsutsträckning av akustiska signaler
US6658383B2 (en) * 2001-06-26 2003-12-02 Microsoft Corporation Method for coding speech and music signals
US7092877B2 (en) * 2001-07-31 2006-08-15 Turk & Turk Electric Gmbh Method for suppressing noise as well as a method for recognizing voice signals
US7158931B2 (en) * 2002-01-28 2007-01-02 Phonak Ag Method for identifying a momentary acoustic scene, use of the method and hearing device
JP3900000B2 (ja) * 2002-05-07 2007-03-28 ソニー株式会社 符号化方法及び装置、復号方法及び装置、並びにプログラム
KR100503415B1 (ko) * 2002-12-09 2005-07-22 한국전자통신연구원 대역폭 확장을 이용한 celp 방식 코덱간의 상호부호화 장치 및 그 방법
US8243093B2 (en) 2003-08-22 2012-08-14 Sharp Laboratories Of America, Inc. Systems and methods for dither structure creation and application for reducing the visibility of contouring artifacts in still and video images
KR100571831B1 (ko) * 2004-02-10 2006-04-17 삼성전자주식회사 음성 식별 장치 및 방법
FI118834B (fi) * 2004-02-23 2008-03-31 Nokia Corp Audiosignaalien luokittelu
FI119533B (fi) * 2004-04-15 2008-12-15 Nokia Corp Audiosignaalien koodaus
GB0408856D0 (en) * 2004-04-21 2004-05-26 Nokia Corp Signal encoding
BRPI0510303A (pt) * 2004-04-27 2007-10-02 Matsushita Electric Ind Co Ltd dispositivo de codificação escalável, dispositivo de decodificação escalável, e seu método
US7457747B2 (en) * 2004-08-23 2008-11-25 Nokia Corporation Noise detection for audio encoding by mean and variance energy ratio
JP4989971B2 (ja) * 2004-09-06 2012-08-01 パナソニック株式会社 スケーラブル復号化装置および信号消失補償方法
CN101076853B (zh) * 2004-12-10 2010-10-13 松下电器产业株式会社 宽带编码装置、宽带线谱对预测装置、频带可扩展编码装置以及宽带编码方法
JP4793539B2 (ja) * 2005-03-29 2011-10-12 日本電気株式会社 符号変換方法及び装置とプログラム並びにその記憶媒体
JP5129115B2 (ja) * 2005-04-01 2013-01-23 クゥアルコム・インコーポレイテッド 高帯域バーストの抑制のためのシステム、方法、および装置
CA2558595C (en) * 2005-09-02 2015-05-26 Nortel Networks Limited Method and apparatus for extending the bandwidth of a speech signal
US20110057818A1 (en) * 2006-01-18 2011-03-10 Lg Electronics, Inc. Apparatus and Method for Encoding and Decoding Signal
EP1979901B1 (de) * 2006-01-31 2015-10-14 Unify GmbH & Co. KG Verfahren und anordnungen zur audiosignalkodierung
DE102006008298B4 (de) * 2006-02-22 2010-01-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen eines Notensignals
KR20070115637A (ko) * 2006-06-03 2007-12-06 삼성전자주식회사 대역폭 확장 부호화 및 복호화 방법 및 장치
CN101089951B (zh) * 2006-06-16 2011-08-31 北京天籁传音数字技术有限公司 频带扩展编码方法及装置和解码方法及装置
US9454974B2 (en) * 2006-07-31 2016-09-27 Qualcomm Incorporated Systems, methods, and apparatus for gain factor limiting
US8532984B2 (en) * 2006-07-31 2013-09-10 Qualcomm Incorporated Systems, methods, and apparatus for wideband encoding and decoding of active frames
CN101145345B (zh) * 2006-09-13 2011-02-09 华为技术有限公司 音频分类方法
US8639500B2 (en) 2006-11-17 2014-01-28 Samsung Electronics Co., Ltd. Method, medium, and apparatus with bandwidth extension encoding and/or decoding
KR101375582B1 (ko) * 2006-11-17 2014-03-20 삼성전자주식회사 대역폭 확장 부호화 및 복호화 방법 및 장치
CA2690433C (en) * 2007-06-22 2016-01-19 Voiceage Corporation Method and device for sound activity detection and sound signal classification
CN101393741A (zh) * 2007-09-19 2009-03-25 中兴通讯股份有限公司 一种宽带音频编解码器中的音频信号分类装置及分类方法
KR101441896B1 (ko) 2008-01-29 2014-09-23 삼성전자주식회사 적응적 lpc 계수 보간을 이용한 오디오 신호의 부호화,복호화 방법 및 장치
CN101515454B (zh) * 2008-02-22 2011-05-25 杨夙 用于语音、音乐、噪音自动分类的信号特征提取方法
CN101965612B (zh) * 2008-03-03 2012-08-29 Lg电子株式会社 用于处理音频信号的方法和装置
CN101751926B (zh) * 2008-12-10 2012-07-04 华为技术有限公司 信号编码、解码方法及装置、编解码系统
CN101751920A (zh) * 2008-12-19 2010-06-23 数维科技(北京)有限公司 基于再次分类的音频分类装置及其实现方法
EP2211339B1 (en) * 2009-01-23 2017-05-31 Oticon A/s Listening system
CN101847412B (zh) 2009-03-27 2012-02-15 华为技术有限公司 音频信号的分类方法及装置
PL2273493T3 (pl) * 2009-06-29 2013-07-31 Fraunhofer Ges Forschung Kodowanie i dekodowanie z rozszerzaniem szerokości pasma
US20110137656A1 (en) * 2009-09-11 2011-06-09 Starkey Laboratories, Inc. Sound classification system for hearing aids
US8447617B2 (en) * 2009-12-21 2013-05-21 Mindspeed Technologies, Inc. Method and system for speech bandwidth extension
CN102237085B (zh) * 2010-04-26 2013-08-14 华为技术有限公司 音频信号的分类方法及装置
WO2012008891A1 (en) * 2010-07-16 2012-01-19 Telefonaktiebolaget L M Ericsson (Publ) Audio encoder and decoder and methods for encoding and decoding an audio signal
CA3027803C (en) * 2010-07-19 2020-04-07 Dolby International Ab Processing of audio signals during high frequency reconstruction
JP5749462B2 (ja) * 2010-08-13 2015-07-15 株式会社Nttドコモ オーディオ復号装置、オーディオ復号方法、オーディオ復号プログラム、オーディオ符号化装置、オーディオ符号化方法、及び、オーディオ符号化プログラム
US8729374B2 (en) * 2011-07-22 2014-05-20 Howling Technology Method and apparatus for converting a spoken voice to a singing voice sung in the manner of a target singer
CN103035248B (zh) * 2011-10-08 2015-01-21 华为技术有限公司 音频信号编码方法和装置
EP2798631B1 (en) * 2011-12-21 2016-03-23 Huawei Technologies Co., Ltd. Adaptively encoding pitch lag for voiced speech
US9082398B2 (en) * 2012-02-28 2015-07-14 Huawei Technologies Co., Ltd. System and method for post excitation enhancement for low bit rate speech coding

Also Published As

Publication number Publication date
JP2015512528A (ja) 2015-04-27
WO2013141638A1 (ko) 2013-09-26
EP2830062B1 (en) 2019-11-20
JP6673957B2 (ja) 2020-04-01
US20160240207A1 (en) 2016-08-18
JP2018116297A (ja) 2018-07-26
US9378746B2 (en) 2016-06-28
ES2762325T3 (es) 2020-05-22
TWI626645B (zh) 2018-06-11
TW201729181A (zh) 2017-08-16
CN104321815B (zh) 2018-10-16
US20130290003A1 (en) 2013-10-31
US10339948B2 (en) 2019-07-02
EP3611728A1 (en) 2020-02-19
TW201401267A (zh) 2014-01-01
US9761238B2 (en) 2017-09-12
KR102248252B1 (ko) 2021-05-04
KR20130107257A (ko) 2013-10-01
US20170372718A1 (en) 2017-12-28
KR102070432B1 (ko) 2020-03-02
CN108831501A (zh) 2018-11-16
EP2830062A4 (en) 2015-10-14
TWI591620B (zh) 2017-07-11
CN108831501B (zh) 2023-01-10
KR102194559B1 (ko) 2020-12-23
KR20200144086A (ko) 2020-12-28
EP2830062A1 (en) 2015-01-28
CN104321815A (zh) 2015-01-28
KR20200010540A (ko) 2020-01-30

Similar Documents

Publication Publication Date Title
KR102248252B1 (ko) 대역폭 확장을 위한 고주파수 부호화/복호화 방법 및 장치
EP1489599B1 (en) Coding device and decoding device
JP6980871B2 (ja) 信号符号化方法及びその装置、並びに信号復号方法及びその装置
US11676614B2 (en) Method and apparatus for high frequency decoding for bandwidth extension
KR20220051317A (ko) 대역폭 확장을 위한 고주파 복호화 방법 및 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160322

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170816

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180308

R150 Certificate of patent or registration of utility model

Ref document number: 6306565

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250