JP5324450B2 - 音声信号の符号変換のための方法及び装置 - Google Patents

音声信号の符号変換のための方法及び装置 Download PDF

Info

Publication number
JP5324450B2
JP5324450B2 JP2009528672A JP2009528672A JP5324450B2 JP 5324450 B2 JP5324450 B2 JP 5324450B2 JP 2009528672 A JP2009528672 A JP 2009528672A JP 2009528672 A JP2009528672 A JP 2009528672A JP 5324450 B2 JP5324450 B2 JP 5324450B2
Authority
JP
Japan
Prior art keywords
parameter
time
region
frequency
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009528672A
Other languages
English (en)
Other versions
JP2010504544A (ja
JP2010504544A5 (ja
Inventor
ヤクス,ペーター
コルドン,スヴェン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2010504544A publication Critical patent/JP2010504544A/ja
Publication of JP2010504544A5 publication Critical patent/JP2010504544A5/ja
Application granted granted Critical
Publication of JP5324450B2 publication Critical patent/JP5324450B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/173Transcoding, i.e. converting between two coded representations avoiding cascaded coding-decoding
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/66Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission for reducing bandwidth of signals; for improving efficiency of transmission

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

本発明は、音声信号を符号変換する方法及び装置に関する。本発明は、音声圧縮、より具体的には、異なる知覚音声符号化(perceptual audio coding)フォーマットの間の符号変換の分野に関する。しかし、また、他の音声処理応用で本発明の基本概念を使用することも有利である。
語「音声符号変換(audio transcoding)」は、通常、特定の音声符号化フォーマットに従う音声信号を表すビットストリームの、異なる音声符号化フォーマットに従って編成されている他のビットストリームからの導出を意味する。この意味において、「符号変換」は、例えば、MPEG−AACに準拠したビットストリームをMPEG−1レイヤIII(mp3)に準拠したビットストリームから得るプロシージャ全体を意味する。
しかし、本願で、語「音声符号変換」は、より技術的な意味において、1つのサブバンド又は変換領域から他への音声信号の変換を表すために使用されている。すなわち、この語は、プロシージャ全体ではなく、1つの表現から他の表現への変換における唯1つの主たるステップを表す。
非特許文献1から知られる一般的な知覚音声符号化の基本原理が図1に示されている。今日の音声信号の圧縮方法及びフォーマットは、概して、音声信号107のパラメータ110を表すために、時間−周波数解析102、すなわち、フィルタバンク又は変換を使用する。かかるパラメータは、量子化及び符号化104、エントロピー符号化105及びビットストリーム演算106を受ける。これらのステップの全てが、入力音声信号のサイコアコースティック解析101によって制御される。図2には、ビットストリーム演算201、エントロピー復号化202、ビット割り当て203、復号化及び逆量子化204並びに最後に時間周波数合成205を有する対応する一般的な知覚音声デコーダが示されている。時間−周波数合成205は、パラメータ212,213から時間領域信号214を生成する。
図1及び図2は、知覚音声コーデックの基本原理を例示し及び説明する。しかし、たとえ具体的な実装は幾分相違することがあるとしても、それらは、通常、時間−周波数解析及びその逆、時間−周波数合成を用いる。
ここで時間−周波数解析及び合成に着目すると、中間の符号化及び復号化のステップは更に考慮されない。
時間−周波数解析102に関して、多数の異なるアルゴリズムが今日の音声コーデックで使用されている。例えば、MPEG音声コーデック標準には、32帯域疑似QMF(quadrature mirror filter)フィルタバンクを使用するMPEG−1レイヤI及びIIコーデックと、複合フィルタバンク、すなわち、32帯域疑似QMFフィルタバンクに続いてMDCT(modified DCT)フィルタバンクを用いるMPEG−1レイヤIIIとが含まれる。MDCTフィルタリング(デフォルトは18binであり、過渡(transient)のために6binまで減らされる。)は、576又は192binのスペクトル分解を夫々もたらす。MPEG−AACコーデック及びその派生物は、(過渡のために256binまで低減される)1024binのデフォルト分解能を有する全帯域MDCTアプローチを使用する。音声フレームは、しばしば、ある程度、例えば50%、一時的に重ね合わされる。これは、所謂フレームアドバンス(100%−重複)×フレームサイズを定義する。続いて、時間−周波数解析102の出力と時間−周波数合成205の入力との間の領域(このとき、エンコーダの出力信号116はデコーダへの入力206である。)は、特定の音声符号化フォーマットが時間−周波数解析のためにフィルタバンク又はブロック変換を使用するかどうかに関わらず、「周波数領域」又は「パラメータ領域」と表される。
存在及び出現する音声フォーマットの増え続ける数により、音声コンテンツを1つのビットストリームフォーマットから他のフォーマットへ符号変換するためのアルゴリズムの必要性が生じている。図3には、今日一般的に使用されている音声符号変換へのアプローチが示されている。それは、図1及び図2で既に記載されている利用可能な標準モジュールのみを含む。ソースフォーマットで符号化される入力ビットストリームは、連続する時間領域PCM信号TDにデコードされる(DEC_A)。次いで、独立したエンコーダENC_Bは、目的のフォーマットに従う新たなビットストリームを生成する。信号処理ブロックの間のインターフェースのみが、デコーダからエンコーダへ送られる時間領域音声信号TDである。
このアプローチは使用が簡単であるが、以下の問題が生ずる。第1に、2つのブロックDEC_A、ENC_Bは互いに知らないので、時間−周波数解析プロシージャは非同期でありうる。すなわち、概して、信号品質の劣化、所謂タンデム誤差をもたらす復号化(逆量子化)及び符号化(量子化)のための動作の連続が存在する。第2に、アプローチの計算複雑性が高く、これにより、その複雑性を有意に低減することが望ましい。
ある程度はソースフォーマット及び目的のフォーマットに共通するあるサイド情報が、デコーダによって取り出されて、エンコーダで再使用される場合に、より良い符号変換結果が得られる。図4aには、このアプローチの例が示されている。このアプローチは、例えば、ドルビー(登録商標)AC−3からBSAC(Bit Sliced Arithmetic Coding)フォーマットへの符号変換に使用され得る(非特許文献2)。この具体例で、AC−3ビット割り当ては、BSACエンコーダ内の新たなビット割り当て403を導出し及び制御するために再使用され得る。ソースビットストリームからサイド情報SIを再使用することに加えて、時間−周波数合成及び解析プロシージャは、時間的に同期する。この場合に、図4aの高度な概念は、前出の符号変換スキームに比べて計算複雑性を低減し、目的の信号の品質をより良いものとする。
ソース及び目的のビットストリームのコーデックフォーマットがそれらの時間−周波数解析領域に関して同じである、すなわち、解析及び合成のブロックが完全に相補的である(例えば、所与のデータレートからより低いデータレートへのmp3ビットストリームの符号変換。)場合には(及びその場合にのみ)、その符号変換は、図4bに示されるように、更に簡単化され得る。時間−周波数解析及び合成プロシージャは削除され得る。これにより、データレートの変更が、例えば、あるパラメータを再量子化することによって、パラメータ領域PDで直接的に行われる。また、ソースビットストリームからのサイド情報、例えば、ビット割り当てを再使用することも有利である。
T.Painter、A.Spanias、「Perceptual Coding of Digital Audio」、IEEE議事録88巻、2000年 Kyoung Ho Bang、Young Cheol Park、Dae Hee Youn、「Audio Transcoding Algorithm for Mobile Multimedia Application」、ICASSP議事録3巻、2006年
異なる時間−周波数解析領域を有する符号化フォーマットの間での符号変換のための簡単な方法及び装置が欠けていることは、上記記載から明らかである。本発明の1つの観点は、このような、具体的には、異なる時間−周波数解析領域を有する音声信号の間での容易化された且つより速い符号変換のための、方法及び装置を提供することである。
本発明は、ソースパラメータ領域から目的のパラメータ領域への線形マッピングを使用する。目的のパラメータは、2又はそれ以上の入力フレームからのソースパラメータに依存する。これは、複雑性が低い異なる時間−周波数解析領域の間での符号変換を可能にし、従来の処理による信号劣化の問題を防ぐ。
従来の符号変換アプローチの時間−周波数合成及びその後の時間−周波数解析が線形演算として表され得ることが認識されている。しかし、これらは、通常、時間変化する(time variant)。
本発明の1つの観点に従って、音声信号を(時間領域とは対照的な)第1又は入力パラメータ領域から第2又は出力パラメータ領域に符号変換する方法は、前記入力パラメータ領域のパラメータを前記出力パラメータ領域のパラメータへマッピングするステップを有し、少なくとも1つの出力パラメータは2又はそれ以上の入力パラメータに線形依存する(すなわち、出力パラメータは、2又はそれ以上の入力パラメータの線形結合である。)。この2又はそれ以上の入力パラメータは、2又はそれ以上の異なる入力フレームから得られる。
一実施形態で、前記出力パラメータと前記2又はそれ以上の入力パラメータとの間の関係を表すマッピング及び変換は時間変化する。しかし、フレーム構造化されている入力及び/又は出力フォーマットに関して、それは、複数の時間不変の関係のシーケンスである。これは、特に、入力パラメータ領域の時間−周波数解析及び出力パラメータ領域の時間−周波数合成の(フレームの時間的な重複を表す)フレームアドバンスが相違する場合に有利である。
一実施形態で、時間変化するマッピングは、周期的に繰り返す。すなわち、それは、時間不変のマッピングの周期的な繰り返しである。
一実施形態で、マッピングは、異なるソースフレームから部分入力ベクトルをマッピングするサブステップを有する。かかる部分入力ベクトルは、次いで、単一出力フレームについて合算され、又は重ね合わされる。
一実施形態で、スーパーフレームが、整数個の出力フレームに対応する整数個の入力フレームにわたって作られる。この整数個は、入力及び出力フォーマットのフレーム長さ及びフレームシフトに依存する。1つのスーパーフレームは、時間変化するマッピングの1又はそれ以上の繰り返し周期に対応しうる。
一実施形態で、時間変化する関係の各時間不変の位相は、入力フォーマット信号の複数の連続するフレームから入力を得て、出力フォーマット信号の1つのフレームについて出力を生成する線形な動作として表される。このように、かかる周期的な繰り返しから、スーパーフレームについての線形動作のシーケンスが得られる。
一実施形態で、時間変化するマッピングは、予め計算されている変換係数についてのルックアップテーブルを用いる線形変換のシーケンスとして実施される。しかし、他の実施形態では、線形変換は、入力パラメータに適用される所定の解析表示、例えば関数である。
一実施形態では、第1のパラメータ領域及び第2のパラメータ領域は、時間解析窓を用いる時間−周波数解析に基づき、第2のパラメータ領域に対する時間−周波数解析は、長い解析窓及び短い解析窓を使用し、線形に変換するステップは、長い解析窓及び短い解析窓ごとに異なる。
本発明の利点は、連続した時間領域信号を伝送しない1つのパラメータ領域から他のパラメータ領域への直接的な線形変換に必要とされる計算複雑性が、連続した時間領域信号を介する従来のストレートフォワード符号変換プロシージャに比べて著しく低い点である。
他の利点は、符号変換の品質と計算複雑性との間のトレードオフが、周波数選択方式においてさえ、時間的に変化するアプリケーション要求に適合され得る点である。
更なる利点は、単一の線形変換を介する直接的な符号変換が、時間領域信号を介する従来の符号変換スキームに比べて、数値的により良く調整される点である。ソース領域の特定のパラメータbinの影響は、目的の領域の狭い範囲のパラメータbinに限定されるので、(例えば、従来の符号変換の固定小数点実装(fixed-point implementation)に共通する)量子化の広まった効果及び不正確な算術演算は最小限とされる。
本発明の有利な実施形態は、従属請求項、以下の記載及び図面において開示される。
本発明の例となる実施形態を、添付の図面を参照して記載する。
一般的な知覚音声エンコーダの構造 一般的な知覚音声デコーダの構造 従来のストレートフォワード符号変換 ビット割り当ての再使用を伴う従来の符号変換 同一の音声フォーマット間の従来の符号変換 異なるパラメータ領域の間の直接的な符号変換 異なるフレームアドバンスを有する異なる時間−周波数領域の間の符号変換 mp3及び可逆拡張(lossless extension)の複合型の音声フォーマットのためのエンコーダ mp3及び可逆拡張の複合型の音声フォーマットのためのデコーダ 例となる変換マトリクスの係数 例となる変換マトリクスの詳細 パラメータ領域にある異なる音声フォーマットの間の符号変換器の構造
図5には、異なるパラメータ領域PD、PDを有する2つのフォーマット間でのパラメータ領域における直接的な符号変換(transcoding)が示されている。ソースフォーマットA、例えばmp3に従う多数の隣接するパラメータフレーム501は、ソースフォーマットの時間−周波数解析スキームによって、前もってPCM音声信号から取り出されている(図示せず。)。各フレームm−1,m,m+1は、多数のパラメータを有しており、ソースパラメータ領域PDでパラメータベクトルとして見なされる。線形変換マトリクスTは、入力されるパラメータベクトル501へ適用され、出力フォーマットBの出力パラメータ領域PDでのフレームに対応する出力パラメータベクトル502を提供する。
単一の出力フレームnに関し、変換又はマッピングは時間変化する。変換マトリクスTが同時に複数の入力フレームに適用されるのか、あるいは、別個の変換マトリクスが(同時に又は連続して)夫々の入力フレームに適用されて、部分的な結果が合計されるのかに関わらず、結果として得られるマトリクスTは、変換ステップが線形であることから、いずれの場合にも同じである。
原理上は、変換マッピングTは、従来の処理510の全てのサブステップを対象とする。このとき、各パラメータベクトルP(m),P(m+1)...は、線形変換マトリクスTSA(Sは、ソースフォーマットに従う合成を意味する。)との乗算によって、対応する時間領域セグメントに変換される。この例で、時間セグメントは重なり合っており、デコードされた連続する時間領域TD音声信号504を得るよう重複加算プロシージャ503に供給される。次いで、目的のフォーマットBに従う時間−周波数解析が、従来の符号変換処理で行われる。連続する時間領域信号504は、(通常)重複するセグメントの連続に分解される(505)。このとき、重複は、フォーマットAによって用いられる重複とは異なっても良く、その場合に、セグメントベクトルは、マトリクスTAB(Aは、フォーマットBに従う解析(A)を意味する。)との乗算によって、目的のパラメータ領域PDに変換される。目的のフォーマットBはソースフォーマットAとは異なるフレームシフトを適用することができるので、別のフレームインデックスnが使用される。
先の記載及び図5は、それらが、今日音声符号化で実際に関与する全ての時間−周波数解析スキームを対象とするという意味で一般的である。マトリクスTSA及びTABは、線形ブロック変換及び線形フィードフォワード(FIR,finite impulse response)フィルタバンクに基づく如何なる時間−周波数合成又は解析スキームも正確に表すことができる。例えば、mp3コーデックの複合型フィルタバンクのカスケード構造は、マトリクスTSA及びTABで結合され得る。また、線形不完全再構成(linear non-perfect reconstructing)フィルタバンク又は変換が対象とされる。IIR(infinite impulse response)フィルタバンクに関し、十分に正確な表現が、無視可能な値をクリッピングすることによって有限インパルス応答により無限インパルス応答を近似することによって定式化され得る。
本発明に従う符号変換の考えは、符号変換処理に含まれる時間−周波数合成及び解析ステップTSA,TAB並びに重複加算及びセグメンテーションブロック503,504の線形性を利用する。時間−周波数合成TSA、重複加算503、セグメンテーション505及び時間―周波数解析TABは、単一の線形変換Tによって置換される。これにより、有利に、連続する時間領域信号504を発生することが不要となる。
以下で、線形変換Tの幾つかの特性について記載する。
変換マトリクスTの正確な導出は可能であるが、自明でなく(non-trivial)ても良い。解析的な導出プロシージャに加えて、目的のパラメータ領域にある目的のフレームに対するソースパラメータ領域の各パラメータ要素(例えば、スペクトルbin)の線形寄与をシミュレーションし及び測定することによってマトリクスを作り上げることが可能である。マトリクスTは、例えば、解析表示によって又はルックアップテーブルによって表され得る。
従来の変換パスでの幾つかの連続的な時間セグメントの重複加算503の結果として、線形変換Tは、概して、1対1ではなく、多対1のマッピングである。それは、ソース領域の少なくとも2つの、通常3又はそれ以上のフレームが目的の領域の1つのフレームに作用することを意味する。逆に、ソース領域の各フレームは、目的の領域の1よりも多いフレームに作用する。
パラメータ領域A及びBを定義する時間−周波数解析及び合成プロシージャは線形であると考えられるが、それは通常時間変化する。従って、直接変換Tは、ソース領域の時間セグメント対目的の領域の時間セグメントの時間領域同期化に依存する。言い換えると、表現A及びBについてのフレーム間の時間的差異の変化は、概して、他の直接変換マトリクスTをもたらす。結果として、ソースフォーマットの時間−周波数合成及び目的のフォーマットの時間−周波数解析のフレームシフトが異なる場合は、マトリクスTは時間変化する。図6には、MPEG−AAC(1024個のサンプルのフレームアドバンス)とmp3(576個のサンプルのフレームアドバンス)との間の符号変換についての例が示されている。時間変化する変換は、(ウィンドウ切替スキームを無視して)この場合に用いられる16個の時間不変の変換とマトリクスTのシーケンスを有する。図6は、AAC及びmp3について周波数領域ベクトルのシーケンスを示す。異なるフレームアドバンスに起因して、フレーム間の時間シフトは時間とともに変化する。AAC及びmp3のフレーム間の等しい時間シフトは、9個のAACフレーム又は16個のmp3フレームの周期の後に夫々起こる。この例で、この周期はスーパーフレーム(superframe)である。各スーパーフレームで、16個の異なる所定の変換マトリクス(例えば、テーブル)は、AAC領域から16個のmp3フレームへの符号変換のために使用される。この変換シーケンスは、各スーパーフレームについて繰り返す。このように、(スーパーフレーム内の)変換は時間変化する。
一般に、スーパーフレーム内の周期的なシーケンスにおける変換の数は、目的のフォーマットにおけるフレームの数に対応する。例えば、mp3からAACへの符号変換に関して、時間変化する変換は、スーパーフレーム9m,9m+1,...,9m+8の各フレームにつき1つである9個の時間変化する変換を有する。フレーム間の関係は、図6と比較してこの場合には反対である。例えば、2番目のAACフレーム9m+1は5個のmp3フレーム16m,...,16m+4に依存する。しかし、変換の線形性により、1つのソースフォーマットフレームから1つの目的フォーマットフレームへの別個の変換を実行し、目的のフレームを得るために必然的な結果ベクトルを合算することも可能である。本例に関して、このことは、目的のフレームごとの40の変換のシーケンス及び必要とされる加算をもたらす。
語「フレームアドバンス」は、連続する時間−周波数解析フレームの相互シフトを表す。これは、連続するフレームの時間的な重複に依存し、フレームの時間的な存続期間とは異なるものである。
2つの含まれる時間−周波数解析プロシージャが隣接するパラメータbinの適切な分離を示す場合及び更にスペクトル分解が同じである場合に、変換マトリクスTは、通常まばら(sparse)であり、事実上対角である。すなわち、Tの大部分は零に等しく、変換において考慮される必要はない。従って、マトリクスTを用いた線形変換による符号変換は、連続する時間領域信号を介する従来の符号変換方法に比べて、計算的に極めて複雑でないと期待され得る。
例となる変換マトリクスが図9に示されている。グレーレベルは、mp3複合型フィルタバンクから全帯域MDCTへ(いずれも長い窓を有する)の符号変換のための変換マトリクスTの係数の大きさを対数で示す。例えば、3つの連続するmp3フレームが目的のMDCTフレームに作用する。暗領域での係数の値は、明領域での値よりも高い。この例で、変換係数の97.7%の大きさは−60dBを下回る。かかる係数は、符号変換に関して無視され得る。これにより、マトリクス乗算は、非常に小さい計算努力で実現され得る。
図10は、グレーレベル符号に代えて3次元バーグラフとして表される、図9の中央部の詳細を示す。表されている41×41=1681個の係数のうち、ほとんどは−60dBを下回り(−80dBでクリッピングされ)、すなわち、無視可能である。理想的には、線形領域沿いの数個の係数のみが該当レベルの値を有する。この解析的に得られる例で、更に、18個のbinの周期的な距離にある線形領域を超える付加的な領域は、mp3複合フィルタバンクでのエイリアシング歪み効果によって引き起こされる無視できない値を有する。すなわち、たとえエイリアシング補正が複合mp3フィルタバンクで適用されたとしても、相当量のエイリアシング要素が残る。このエイリアシングは、全帯域MDCTの場合には存在しない。
時間変化する変換に関して、図9及び図10に従う変換マトリクスTは、1つの出力フレーム(すなわち、各スーパーフレーム内の特定のフレーム)について有効であり、一方、他の出力フレームについては係数が異なる。
計算複雑性は、周波数選択精度条件を考慮に入れることによって更に低減され得る。例えば、mp3コアビットストリームが低ビットレートを有する場合は、高周波binは概してエンコードされず、それらはデコーダで零に設定される(すなわち、マスキングされる)。この場合に、符号変換Tの高周波部分は削除され得る。一般に、如何なる周波数範囲も容易にマスキングされ得る。マスキングは、また、例えば、サイド情報に含まれるビット割り当てに基づいて、時間変化し及び/又は信号依存しうる。この容易且つフレキシブルなマスキングは、連続する時間領域信号を介する従来の符号変換に比べて有利である。
原理上は、変換マトリクスTは、要するに、目的のフレームの各周波数binについての変換を表す。変換の線形性により、変換マトリクスはサブマトリクスに分化され得る。サブマトリクスの幾つかは、また、(例えば、ある目的の周波数binが必要とされない場合に、)無視され得る。このように、全体の変換からのスライス又はシェアは、実際に計算される必要があるものが選択される。この目的のために、例えば、ソース及び/又は目的のフレームのビット割り当て等のサイド情報又は支配的な周波数が評価され得る。
符号変換の必要とされる精度が周波数選択である場合に、変換マトリクスTの使用は時間変化しうる。例えば、1つの圧縮音声フォーマットから他のフォーマットへの符号変換において、符号変換精度についての周波数依存の必要条件は、ソース又は目的の音声フォーマットのビット割り当ての関数として決定され得る。例えば、より低い符号変換精度を要求する目的の周波数binに関して(1つの可能な理由は、割り当てられるビットの数が小さいことである。)、符号変換係数を計算する場合に考慮されるべきマトリクスTの非零要素は、より少ない。このようにして、計算複雑性は更に低減され得る。
開示される符号変換スキームにより、ソース領域の各パラメータbinの影響は、目的の領域にある極めて限られたパラメータbinの組に制約される。従って、提案されるスキームの数値的挙動は、時間領域信号を介する従来の符号変換に関してよりもずっと良く調整される。従来の符号変換では、周波数スペクトルのある部分での強い信号要素は、時間−周波数合成及び解析プロシージャの数値的な不正確性のために、符号変換されるパラメータ領域にあるスペクトル全体に影響を及ぼしうる。
本発明の1つの例となる実施形態は、MPEG−1レイヤIII(mp3)で用いられる複合フィルタバンクに従うパラメータ領域から、全帯域MDCT又は整数MDCTに従う目的のパラメータ領域へと同一のフレームアドバンス及び同量の周波数binを有して符号変換を行うことに関する。応用例は、埋め込まれるmp3ビットストリームの上での音声PCMサンプルの複合可逆符号化である。ここで、開示される高速符号変換スキームは、デコードされたmp3からの全帯域整数MDCTbinの予測のために使用される。なお、符号変換は、mp3binの唯一の現在のフレームよりも多くを伴うことができる。
図7には、夫々のエンコーダ信号フローが示されている。エンコーダ信号フローの下側部分は、多相フィルタバンク及びデシメーション(decimation)701と、セグメンテーション及びMDCT702と、高速フーリエ変換FFT704と、サイコアコースティック解析705と、ビット割り当て及び量子化器703と、サイド情報エンコーダ706と、マルチプレクサ(MUX)707とを有する従来のmp3エンコーダを表す。複合可逆エンコーダの上側の信号パスでは、並列セグメンテーション及び全帯域整数MDCT709が適用される。全帯域MDCTのためのセグメンテーション及び制御は、mp3コアコーデックと同じ適合ウィンドウ切替スキームを提供する。また、全帯域整数MDCTのスペクトル分解は、mp3フィルタバンクの時間変化するスペクトル分解に従って制御される。2つの並行する時間−周波数解析プロシージャの簡便な同期化のために、特に、1よりも多いmp3フレーム(通常は3又はそれ以上)を伴う符号変換係数が用いられる場合は、PCMサンプルの遅延708が、整数MDCT及び対応するセグメンテーション709の前に導入されるべきである。
全帯域整数MDCT709及びその後の信号処理ブロックの目的は、時間領域PCMサンプルの数学的に可逆の符号化を可能にすることである。従って、可逆的な整数MDCTが使用される。その考えは、MPEG−SLS(scalable to lossless)音声コーデックで適用される原理と比較される。なお、この考えは、全帯域MDCTbinからの逆量子化され且つ丸められたmp3周波数binの減算に基づく。しかし、mp3フィルタバンクと全帯域MDCTとの間の有意な相違のために、単に全帯域MDCTbinからこれらの逆量子化され且つ丸められたmp3周波数binを減ずることによって残余信号を計算することは、低レート可逆符号化に必要とされる信号エントロピーの十分な低減につながらない。従って、本発明に従う開示される符号変換スキームは、mp3binから全帯域MDCTbinのより正確な予測を決定するようエンコーダ及びデコーダで使用される。このため、(マトリクスTを介する)符号変換係数711は、概して、その係数を逆量子化した(逆量子化710)後、少なくとも3つのmp3フレームを考慮に入れる。
mp3フィルタバンク701は短い解析/合成窓と長い解析/合成窓との間の信号適応切替を適用するので、変換マトリクスTは時間変化する(図7には示さず。)。異なる変換が長い窓、短い窓及び遷移位相に適用される。例えば、2又はそれ以上の隣接する変換は1つにマージされ得、あるいは、1つの変換は2又はそれ以上に分けられ得る。これにより、スーパーフレームごとの異なる時間不変変換の数はストリーム内で変化することができる。
上述されるように、計算複雑性は、周波数選択性、例えば、符号変換係数Tの高周波部分及び/又は低周波部分を削除することによって、更に低減され得る。
可逆のmp3復号化のための夫々のデコーダが図8に示されている。デコーダの符号変換及び丸め込み805は、エンコーダの符号変換及び丸め込み711と同じである。また、逆量子化器710,803は、エンコーダ及びデコーダで同じである。可逆復号化プロシージャ802は、可逆符号化プロシージャ713に対して相補的であり、サイド情報デコーダ804は、サイド情報エンコーダ706に対して相補的である。
他の実施形態は、異なる音声フォーマットの間の高速な符号変換を対象としており、語「符号変換」、すなわち、1つの圧縮フォーマットから他への音声コンテンツの変換のこれまでの理解に関連する。一般に、符号変換は、ソースフォーマットのいずれかのフレームから始まることができる。
パラメータ領域で直接的な符号変換を適用する提案されるシステムのブロック図は、図11に表されている。図4の従来の符号変換システムと比べて、本発明のこの実施形態は、ソースパラメータ領域PDから目的のパラメータ領域PDへの直接的な符号変換によって、デコーダDEC_Aについての時間−周波数合成及びエンコーダENC_Bについての時間−周波数解析のシーケンスを置換する。このアプローチの1つの利点は、計算複雑性がより低く、効率がより高く、数値的挙動がより良くて信号歪みが小さいことである。これは、特に、符号変換に通常用いられる数学演算の限られた精度を有する固有小数点実装(fixed-point implementations)に有効である。従って、本発明は、ソース音声フォーマットから目的の音声フォーマットへのより高速な符号変換と、従来の符号変換スキームよりも良好な結果品質とを可能にする。更に、サイド情報SI’は、従来の符号変換システムでのサイド情報と同じく使用される。
開示されるアルゴリズムの利用は、1つの符号化フォーマットから他への完全な変換に限られず、上記実施形態の幾つかの例示に過ぎないことなら、他の音声関連アルゴリズムの基礎的要素として使用されも良い。
本発明の典型的な例となる応用は、可逆符号化のための時間−周波数パラメータの予測、異なる音声フォーマットの間での高品質の符号変換等である。

Claims (29)

  1. フレーム音声信号を第1のパラメータ領域から第2のパラメータ領域に符号変換する装置の動作方法であって、
    前記フレーム音声信号は、時間領域音声信号のパラメータ領域表示であり、
    前記第1のパラメータ領域及び前記第2のパラメータ領域の夫々は、時間−周波数解析によって生じ、時間−周波数合成へ入力されるのに適し、
    当該方法は、
    前記第1のパラメータ領域のパラメータを、前記時間領域音声信号を生成することなく、前記第2のパラメータ領域のパラメータへ線形に変換するステップを有し、
    前記第1のパラメータ領域の2又はそれ以上のパラメータは前記第2のパラメータ領域の少なくとも1つのパラメータへ線形に変換され、
    前記第1のパラメータ領域の前記2又はそれ以上のパラメータは、前記第1のパラメータ領域における音声信号の異なるフレームから生じ、時間−周波数変換によって得られる周波数成分である、方法。
  2. 前記第1のパラメータ領域のパラメータから前記第2のパラメータ領域のパラメータへの線形変換は、時間変化する、請求項1記載の方法。
  3. 前記線形変換は、複数の線形変換の周期的な繰り返しであり、該複数の線形変換の夫々は時間不変である、請求項2記載の方法。
  4. 前記第2のパラメータ領域の全てのパラメータは、前記第1のパラメータ領域の線形に変換されたパラメータから得られる、請求項2又は3記載の方法。
  5. 前記周期的な繰り返しの周期は、前記第2のパラメータ領域の整数個のフレームに対応する前記第1のパラメータ領域の異なる整数個のフレームにわたる、請求項3又は4記載の方法。
  6. 前記第1のパラメータ領域及び前記第2のパラメータ領域は、時間解析窓を用いる時間−周波数解析に基づき、前記第2のパラメータ領域に対する該時間−周波数解析は、長い解析窓及び短い解析窓を使用し、
    前記線形変換は、長い解析窓の場合と短い解析窓の場合で異なる、請求項2乃至5のうちいずれか一項記載の方法。
  7. 前記線形に変換するステップは、
    異なる入力フレームからの入力ベクトルを出力ベクトルへマッピングするステップと、
    出力フレームを発生させるよう前記出力ベクトルを重ね合わせるステップと
    を有する、請求項1乃至6のうちいずれか一項記載の方法。
  8. 前記第1のパラメータ領域の2又はそれ以上のパラメータを線形に変換するステップは、変換係数を保持するルックアップテーブルを用いる、請求項1乃至7のうちいずれか一項記載の方法。
  9. 前記第1のパラメータ領域の2又はそれ以上のパラメータを線形に変換するステップは、所定の解析表示を用いるステップを含む、請求項1乃至8のうちいずれか一項記載の方法。
  10. フレーム音声信号を第1のパラメータ領域から第2のパラメータ領域に符号変換する装置であって、
    前記フレーム音声信号は、時間領域音声信号のパラメータ領域表示であり、
    前記第1のパラメータ領域及び前記第2のパラメータ領域の夫々は、時間−周波数解析によって生じ、時間−周波数合成へ入力されるのに適し、
    当該装置は、
    前記第1のパラメータ領域のパラメータを線形に変換することによって前記第2のパラメータ領域のパラメータを計算する手段を有し、
    前記第1のパラメータ領域の2又はそれ以上のパラメータは前記第2のパラメータ領域の少なくとも1つのパラメータへ線形に変換され、
    前記第1のパラメータ領域の前記2又はそれ以上のパラメータは、前記第1のパラメータ領域における音声信号の異なるフレームから生じ、時間−周波数変換によって得られる周波数成分である、装置。
  11. 前記第1のパラメータ領域のパラメータから前記第2のパラメータ領域のパラメータへの線形変換は、時間変化する、請求項10記載の装置。
  12. 変換係数の記憶及び取り出しのための1又はそれ以上のルックアップテーブル手段を更に有する、請求項10又は11記載の装置。
  13. 所定の解析表示を用いる手段を更に有する、請求項10乃至12のうちいずれか一項記載の装置。
  14. 前記第1のパラメータ領域の音声フレームは、前記第2のパラメータ領域の音声フレームとは異なるフレームアドバンスを有し、該フレームアドバンスは、フレームの時間的重複を表す、請求項1乃至9のうちいずれか一項記載の方法。
  15. 前記第1のパラメータ領域及び前記第2のパラメータ領域の前記異なるパラメータは、時間−周波数解析及び時間−周波数合成を参照するパラメータであり、前記第1のパラメータ領域及び前記第2のパラメータ領域は、異なる時間−周波数解析及び/又は異なる時間―周波数合成を用いる、請求項1乃至9及び14のうちいずれか一項記載の方法。
  16. 前記線形変換は、少なくとも、前記第1のパラメータ領域に従う時間−周波数合成、重複加算、セグメンテーション及び前記第2のパラメータ領域に従う時間−周波数解析を表す、請求項1乃至9、14及び15のうちいずれか一項記載の方法。
  17. 前記時間−周波数合成及び/又は前記時間−周波数解析は、線形ブロック変換又は線形フィードフォワードフィルタバンクに対応する、請求項16記載の方法。
  18. 前記第1のパラメータ領域の各フレームのパラメータは、前記第2のパラメータ領域の1よりも多いフレームに作用し、音声信号の波形を表す、請求項1乃至9及び14乃至17のうちいずれか一項記載の方法。
  19. 前記線形変換は、音声信号の特定の周波数部分を削除する、請求項1乃至9及び14乃至18のうちいずれか一項記載の方法。
  20. 前記音声信号の特定の周波数部分の削除は、時間変化し、前記第1のパラメータ領域にある音声信号に使用されるビット割り当てに依存する、請求項19記載の方法。
  21. 前記第1のフィルタバンク領域又は前記第2のフィルタバンク領域は、MPEG−1レイヤIIIによって用いられるMPEG−AAC、MDCT、整数MDCT、又は複合フィルタバンクの中の1つである、請求項1乃至9及び14乃至20のうちいずれか一項記載の方法。
  22. 前記第1のパラメータ領域の音声フレームは、前記第2のパラメータ領域の音声フレームとは異なるフレームアドバンスを有し、該フレームアドバンスは、フレームの時間的重複を表す、請求項10乃至13のうちいずれか一項記載の装置。
  23. 前記第1のパラメータ領域及び前記第2のパラメータ領域の前記異なるパラメータは、時間−周波数解析及び時間−周波数合成を参照するパラメータであり、前記第1のパラメータ領域及び前記第2のパラメータ領域は、異なる時間−周波数解析及び/又は異なる時間―周波数合成を用いる、請求項10乃至13及び22のうちいずれか一項記載の装置。
  24. 前記線形変換は、少なくとも、前記第1のパラメータ領域に従う時間−周波数合成、重複加算、セグメンテーション及び前記第2のパラメータ領域に従う時間−周波数解析を表す、請求項10乃至13、22及び23のうちいずれか一項記載の装置。
  25. 前記時間−周波数合成及び/又は前記時間−周波数解析は、線形ブロック変換又は線形フィードフォワードフィルタバンクに対応する、請求項24記載の装置。
  26. 前記第1のパラメータ領域の各フレームのパラメータは、前記第2のパラメータ領域の1よりも多いフレームに作用し、音声信号の波形を表す、請求項10乃至13及び22乃至25のうちいずれか一項記載の装置。
  27. 前記線形変換は、音声信号の特定の周波数部分を削除する、請求項10乃至13及び22乃至26のうちいずれか一項記載の装置。
  28. 前記音声信号の特定の周波数部分の削除は、時間変化し、前記第1のパラメータ領域にある音声信号に使用されるビット割り当てに依存する、請求項27記載の装置。
  29. 前記第1のフィルタバンク領域又は前記第2のフィルタバンク領域は、MPEG−1レイヤIIIによって用いられるMPEG−AAC、MDCT、整数MDCT、又は複合フィルタバンクの中の1つである、請求項10乃至13及び22乃至28のうちいずれか一項記載の装置。
JP2009528672A 2006-09-20 2007-09-06 音声信号の符号変換のための方法及び装置 Expired - Fee Related JP5324450B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP06120969A EP1903559A1 (en) 2006-09-20 2006-09-20 Method and device for transcoding audio signals
EP06120969.8 2006-09-20
PCT/EP2007/059349 WO2008034723A1 (en) 2006-09-20 2007-09-06 Method and device for transcoding audio signals

Publications (3)

Publication Number Publication Date
JP2010504544A JP2010504544A (ja) 2010-02-12
JP2010504544A5 JP2010504544A5 (ja) 2010-08-12
JP5324450B2 true JP5324450B2 (ja) 2013-10-23

Family

ID=37605771

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009528672A Expired - Fee Related JP5324450B2 (ja) 2006-09-20 2007-09-06 音声信号の符号変換のための方法及び装置

Country Status (10)

Country Link
US (1) US9093065B2 (ja)
EP (2) EP1903559A1 (ja)
JP (1) JP5324450B2 (ja)
KR (1) KR101341317B1 (ja)
CN (1) CN101563726A (ja)
BR (1) BRPI0718465A2 (ja)
CA (1) CA2662910C (ja)
TW (1) TWI423251B (ja)
WO (1) WO2008034723A1 (ja)
ZA (1) ZA200901367B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8793738B2 (en) 1994-05-04 2014-07-29 Starsight Telecast Incorporated Television system with downloadable features

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CH705207B1 (de) 2002-06-19 2012-11-30 Prospective Concepts Ag Pneumatisches Bauelement mit Knotenelementen.
CH704442B1 (de) 2005-12-23 2012-08-15 Prospective Concepts Ag Pneumatisches Bauelement.
CN101365854B (zh) 2005-12-23 2012-08-08 未来概念公司 气动结构构件
DE102006051673A1 (de) * 2006-11-02 2008-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Nachbearbeiten von Spektralwerten und Encodierer und Decodierer für Audiosignale
EP2099027A1 (en) * 2008-03-05 2009-09-09 Deutsche Thomson OHG Method and apparatus for transforming between different filter bank domains
CN101989429B (zh) * 2009-07-31 2012-02-01 华为技术有限公司 转码方法、装置、设备以及系统
EP2306456A1 (en) * 2009-09-04 2011-04-06 Thomson Licensing Method for decoding an audio signal that has a base layer and an enhancement layer
US8509329B2 (en) * 2009-11-06 2013-08-13 Samsung Electronics Co., Ltd. Data receiving apparatus for receiving data frame using constellation mapping scheme and data transmission apparatus for transmitting the date frame
KR101726205B1 (ko) * 2012-11-07 2017-04-12 돌비 인터네셔널 에이비 감소된 복잡성 변환기 snr 계산
EP2988433B1 (en) * 2013-04-18 2022-01-12 Mitsubishi Electric Corporation Demultiplexing device, multiplexing device, and relay device
RU2665281C2 (ru) 2013-09-12 2018-08-28 Долби Интернэшнл Аб Временное согласование данных обработки на основе квадратурного зеркального фильтра
TWI557724B (zh) 2013-09-27 2016-11-11 杜比實驗室特許公司 用於將 n 聲道音頻節目編碼之方法、用於恢復 n 聲道音頻節目的 m 個聲道之方法、被配置成將 n 聲道音頻節目編碼之音頻編碼器及被配置成執行 n 聲道音頻節目的恢復之解碼器
EP3616197A4 (en) 2017-04-28 2021-01-27 DTS, Inc. AUDIO ENCODER WINDOW SIZES AND TIME-FREQUENCY TRANSFORMATIONS
WO2022179406A1 (zh) * 2021-02-26 2022-09-01 腾讯科技(深圳)有限公司 音频转码方法、装置、音频转码器、设备以及存储介质
CN113689864B (zh) * 2021-10-27 2022-01-18 北京百瑞互联技术有限公司 一种音频数据处理方法、装置及存储介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6260009B1 (en) * 1999-02-12 2001-07-10 Qualcomm Incorporated CELP-based to CELP-based vocoder packet translation
EP1080576B1 (en) 1999-03-25 2008-07-30 SAGEM Communication Speech detection device for detecting a speech signal in an input signal
JP2005515486A (ja) * 2002-01-08 2005-05-26 ディリチウム ネットワークス ピーティーワイ リミテッド Celpによる音声符号間のトランスコーディング・スキーム
JP4263412B2 (ja) 2002-01-29 2009-05-13 富士通株式会社 音声符号変換方法
KR20040104508A (ko) * 2002-03-12 2004-12-10 딜리시움 네트웍스 피티와이 리미티드 오디오 변환부호화기에서 적응 코드북 피치 지연 연산을위한 방법
DE10217297A1 (de) 2002-04-18 2003-11-06 Fraunhofer Ges Forschung Vorrichtung und Verfahren zum Codieren eines zeitdiskreten Audiosignals und Vorrichtung und Verfahren zum Decodieren von codierten Audiodaten
US7363230B2 (en) * 2002-08-01 2008-04-22 Yamaha Corporation Audio data processing apparatus and audio data distributing apparatus
TW573293B (en) * 2002-09-13 2004-01-21 Univ Nat Central Nonlinear operation method suitable for audio encoding/decoding and an applied hardware thereof
US7630889B2 (en) * 2003-04-08 2009-12-08 Nec Corporation Code conversion method and device
WO2005078707A1 (en) * 2004-02-16 2005-08-25 Koninklijke Philips Electronics N.V. A transcoder and method of transcoding therefore
JP2008511852A (ja) * 2004-08-31 2008-04-17 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ トランスコードのための方法および装置
TWI270236B (en) * 2005-08-12 2007-01-01 Advanced Connectek Inc Loop antenna with capacitive structure

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8793738B2 (en) 1994-05-04 2014-07-29 Starsight Telecast Incorporated Television system with downloadable features

Also Published As

Publication number Publication date
TWI423251B (zh) 2014-01-11
WO2008034723A1 (en) 2008-03-27
CA2662910A1 (en) 2008-03-27
ZA200901367B (en) 2010-05-26
EP1903559A1 (en) 2008-03-26
EP2064700B1 (en) 2012-09-05
CA2662910C (en) 2015-12-15
US20090240507A1 (en) 2009-09-24
US9093065B2 (en) 2015-07-28
JP2010504544A (ja) 2010-02-12
KR20090055579A (ko) 2009-06-02
KR101341317B1 (ko) 2013-12-12
BRPI0718465A2 (pt) 2013-12-03
CN101563726A (zh) 2009-10-21
EP2064700A1 (en) 2009-06-03
TW200816167A (en) 2008-04-01

Similar Documents

Publication Publication Date Title
JP5324450B2 (ja) 音声信号の符号変換のための方法及び装置
JP5096468B2 (ja) サイド情報なしの時間的ノイズエンベロープの自由な整形
RU2608878C1 (ru) Регулировка уровня во временной области для декодирования или кодирования аудиосигналов
JP6173288B2 (ja) マルチモードオーディオコーデックおよびそれに適応されるcelp符号化
KR100469002B1 (ko) 오디오 코딩 방법 및 장치
KR101617816B1 (ko) 스펙트럼 도메인 잡음 형상화를 사용하는 선형 예측 기반 코딩 방식
US7876966B2 (en) Switching between coding schemes
EP1883067A1 (en) Method and apparatus for lossless encoding of a source signal, using a lossy encoded data stream and a lossless extension data stream
JP5400143B2 (ja) オーバーラッピング変換の2つのブロック変換への因数分解
KR102638785B1 (ko) 저지연 인코딩/디코딩을 위한 오디오 신호의 리샘플링
JP2010512550A (ja) 時間領域データストリームを表している符号化および復号化のための符号器、復号器およびその方法
JP2005527851A (ja) 時間離散オーディオ信号を符号化する装置と方法および符号化されたオーディオデータを復号化する装置と方法
JPWO2009057329A1 (ja) 符号化装置、復号装置およびこれらの方法
US20100250260A1 (en) Encoder
JP5629319B2 (ja) スペクトル係数コーディングの量子化パラメータを効率的に符号化する装置及び方法

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100622

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120403

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120620

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130129

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130529

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20130607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130718

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees