JP2010512550A - 時間領域データストリームを表している符号化および復号化のための符号器、復号器およびその方法 - Google Patents

時間領域データストリームを表している符号化および復号化のための符号器、復号器およびその方法 Download PDF

Info

Publication number
JP2010512550A
JP2010512550A JP2009540636A JP2009540636A JP2010512550A JP 2010512550 A JP2010512550 A JP 2010512550A JP 2009540636 A JP2009540636 A JP 2009540636A JP 2009540636 A JP2009540636 A JP 2009540636A JP 2010512550 A JP2010512550 A JP 2010512550A
Authority
JP
Japan
Prior art keywords
time domain
data
frequency domain
encoded
segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009540636A
Other languages
English (en)
Other versions
JP5171842B2 (ja
Inventor
ラルフ ガイガー
マクス ノイエンドルフ
嘉一 横谷
ニコラウス レッテルバッハ
ユールゲン ヘレ
シュテファン ガヤーズベアガー
Original Assignee
フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ filed Critical フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ
Publication of JP2010512550A publication Critical patent/JP2010512550A/ja
Application granted granted Critical
Publication of JP5171842B2 publication Critical patent/JP5171842B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/7864Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using domain-transform features, e.g. DCT or wavelet transform coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering
    • G10L19/265Pre-filtering, e.g. high frequency emphasis prior to encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2383Channel coding or modulation of digital bit-stream, e.g. QPSK modulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2662Controlling the complexity of the video stream, e.g. by scaling the resolution or bitrate of the video stream based on the client capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/438Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving encoded video stream packets from an IP network
    • H04N21/4382Demodulation or channel decoding, e.g. QPSK demodulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Databases & Information Systems (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

時間領域データストリームを表しているデータ・セグメントを復号化するための装置であって、データ・セグメントは、時間領域において、または周波数領域において符号化され、周波数領域において符号化されたデータ・セグメントは、時間領域データサンプルの連続したおよび重複しているブロックを表している連続したデータブロックを有する装置である。その装置は、時間領域において符号化されたデータ・セグメントを復号化するための時間領域復号器、並びに重複している時間領域データブロックを得るために、周波数領域において符号化されたデータ・セグメント、および時間領域復号器の出力データを処理するためのプロセッサを含む。さらに、その装置は、時間領域データストリームの復号化されたデータ・セグメントを得るために、重複している時間領域データブロックを合成するためのオーバラップ/アド−コンバイナを含む。

Description

本発明は、符号化の分野であって、例えば、ビデオおよび音声符号化のように、符号化されるデータの異なる特性が、符号化レートのために利用される。
最高水準の技術である符号化方法は、符号化されるデータストリームの特性を利用することができる。例えば、音声符号化において、再生された場合に、知覚モデルが、顕著な品質および劣化をほぼ減少させることなくソースデータを圧縮するために使用される。例えば、MPEG−2/4 AAC(MPEG = Moving Pictures Expert Group,AAC = Advanced Audio Coding)(Generic Coding of Moving Pictures and Associated Audio:Advanced Audio Coding,International Standard(映像及び関連オーディオの共通符号化:適応オーディオ符号化,国際規格) 13818−7, ISO/IEC JTC1/SC29/WG11 Moving Pictures Expert Group(映像専門家グループ),1997,参照)のような最新の知覚的な音声符号化方法は、周波数領域において音声信号を表わすために、例えば、修正離散コサイン変換のようなフィルタバンクが使用される。
周波数領域において、周波数係数の量子化が、知覚モデルにより行われる。そのようなコーダは、例えば、音楽のような音声信号の一般的なタイプに対して、優れた知覚的な音声品質を提供することができる。一方で、例えば、ACELP(ACELP = Algebraic Code Excited Linear Prediction)のような予測のアプローチを使用した最新のスピーチ、およびそのような方法のコーダは、時間領域において音声/スピーチ信号で表わすことができる。そのようなスピーチ・コーダは、例えば、人間の声道である、人間のスピーチ生成過程の特性をモデル化することができ、そして、その結果として、低いビットレートで、スピーチ信号のための優れたパフォーマンスが達成される。反対に、知覚の音声コーダは、低ビットレートで、コード化されるスピーチ信号に対して、スピーチ・コーダによって提示されたパフォーマンスのレベルを達成せず、そして、一般の音声信号/音楽を表わすためにスピーチ・コーダを使用することは、重要な品質の機能的障害を結果として得る。
従来の概念は、常に全ての部分的なコーダが活動(すなわち、時間領域および周波数領域)である層をなした組み合わせを提供し、そして、最終的な出力信号は、所定の被処理時間フレームのための部分的なコーダの寄与を合成することによって算出される。階層符号化の普及している実施例は、基本階層およびフィルタバンク・ベースの拡張階層(Bernhard Grill(ベルンハルト グリル),Karlheinz Brandenburg(カールハインツ ブランデンブルグ):A Two−or Three−Stage Bit―Rate Scalable Audio Coding System,前刷り番号 4132,第99回,AESコンベンション,1995年9月,参照)のようなスピーチ・コーダを有するMPEG−スケーラブルスピーチ/音声符号化である。
従来の周波数領域符号器は、MDCTフィルタバンクを利用することができる。MDCTは、その有利な特性のため、従来の知覚的な音声コーダのための主要なフィルタバンクとなった。例えば、処理ブロックとの間でスムーズなクロスフェードを提供することができる。各処理ブロック信号が異なって変更される場合であっても、例えば、スペクトル係数の量子化のために、ブロックからブロックへの突然の移行のためのブロックキングによるアーティファクトは、重複/加算操作のウィンドウ化のため、発生しない。MDCTは、時間領域エイリアシング相殺(TDAC)の概念を使用する。
重複される追加特性については、MDCTは、タイプIV離散型コサイン変換に基づくフーリエ関連の変換である。より大きなデータ・セットの連続的なブロックにおいて実行されるように設計されている。ここで、あるブロックの後半部分が、次のブロックの前半部分と一致するように次のブロックが重複される。DCTのエネルギー圧縮品質に加えて、この重複は、MDCTを特に信号圧縮アプリケーションのために魅力のあるものにする。なぜなら、ブロックの境界から抑制している前記アーティファクトを回避する助けとなるからである。同数の代わりに、入力の半分多くの出力を有するという点で、重複された変換として、他のフーリエ関連の変換と比較して、やや例外的である。特に、2N個の実数は、N個の実数に変換される。ここで、Nは自然数である。
逆MDCTは、IMDCTとしても知られている。入力および出力の異なる数があるので、一見したところ、MDCTが逆行可能であってはならないように思われるかもしれない。しかしながら、完全な可逆性は、次の重複ブロックの重複IMDCTsを加えることによって達成される。そして、相殺するエラーおよび読み出される元のデータを生ずる。すなわち、TDACを達成する。
その後すぐに、フィルタバンクの出力においてスペクトル値の数は、臨界サンプリングとも呼ばれるその入力での時間領域の入力値の数に等しい。
MDCTフィルタバンクは、高周波数選択を提供し、そして高い符号化利得を可能にする。ブロックの重複および臨界サンプリングの特性は、時間領域エイリアシング相殺の技術を利用することによって達成することができる(J.Princen(J. プリンセン),A.Bradley(A. ブラッドリー):Analysis/Synthesis Filter Bank Design Based on Time Domain Aliasing Cancellation,IEEE Trans.ASSP,ASSP−34(5),1153頁−1161頁,1986年,参照)。図4は、MDCTのこれらの効果を説明したものである。上部での時間軸400に沿ったインパルスに関して、図4は、MDCT入力信号を示す。入力信号400は、2つの連続的なウィンドウ化およびMDCTブロックによって変換される。ウィンドウ化410は、図4において入力信号の下に例示される。後に変換された個別にウィンドウ化された信号の時間ライン420および425によって図4において示される。
逆MDCT後、第1ブロックは、正符号420を有するエイリアシング・コンポーネントを生成し、第2ブロックは、同じ大きさであって、負符号425を有するエイリアシング・コンポーネントを生成する。エイリアシング・コンポーネントは、図4の下段において最終出力530に示されるように、2つの出力信号420および425の加算の後、互いにそれぞれ相殺される。
Extended Adaptive Multi−Rate − Wideband (AMR−WB+)Codec,3GPP TS 26.290V6.3.0,2005年6月において、AMR−WB+(AMR−WB = Adaptive Multi−Rate Wideband)コーデックの技術仕様書が指定される。セクション5.2において、AMR−WB+のコアでの符号化アルゴリズムは、ハイブリッドACELP/TCX(TCX = Transform coded Excitation)に基づく。入力信号のあらゆるブロックのために、符号器は、符号化モデル(例えば、ACELPまたはTCX)が最良である開ループまたは閉ループモードにおいて決定する。ACELPモデルは、時間領域であって、予測符号器であり、スピーチおよび一時的な信号に対して最良である。AMR−WB符号器は、ACELPモデルにおいて使用される。あるいは、TCXモデルは、符号器に基づく変換であって、典型的な音楽サンプルに対してより適している。
具体的には、AMR−WBは、変換符号化モードTCXのための離散フーリエ変換(DFT)を使用する。隣接するブロックとの間にスムーズな移行を許容するために、ウィンドウ化および重複が使用される。このウィンドウ化および重複は、異なる符号化モード(TCX/ACELP)間の移行のために、および、連続的なTCXフレームのために必要である。このように、ウィンドウ化および重複を有するDCTは、臨界的にサンプル化されないフィルタバンクを表わす。フィルタバンクは、新規な入力サンプル(3GPP TS 26.290V6.3.0(3GPP = Third Generation Partnership Project,TS = Technical Specification))の数よりも高い周波数値を生成する。各TCXフレームは、新規な入力サンプルの数に等しいフレーム長の1/8の重複を利用する。したがって、DFTの対応する長さは、フレーム長さの9/8である。
例えば、フィルタバンクの出力でのスペクトル値の数が、その入力での時間領域の入力の数よりも大きい場合といった、TCXにおいて非臨界的にサンプル化されたDFTフィルタバンクを考慮して、この周波数領域符号化モードは、臨界的にサンプル化された重複された変換のMDCTを利用するAAC(AAC = Advanced Audio Coding)のような音声符号復号器とは異なる。
ドルビーE符号復号器は、Fielder,Louis D.(フィールダー,ルイス D.),Todd,Craig C.(トッド,クレイグ C.):The Design of a Video Friendly Audio Codig System for Distributing Applications,紙番号17−008,AES 第17回 国際カンファレンス,High−Quality Audio Coding,1999年8月、およびFielder,Louis D.(フィールダー,ルイス D.),Davidson,Grant A.(デーヴィッドソン,グラント A.):Audio Coding Tools for Digital Television Distribution,前刷り5104 第108回AESコンベンション 2000年1月において記載されている。ドルビーE符号復号器は、MDCTフィルタバンクを利用する。この符号器の設計において、特別な焦点は、符号化領域において編集を実行するという可能性におかれた。これを達成するために、特別なエイリアスフリーのウィンドウが使用される。これらのウィンドウの境界において、異なる信号部分のスムーズ・クロスフェードまたはスプライシングが可能である。上述した参考文献において、例えば、「The Design of a Video Friendly Audio Coding System for Distributing Applications」のセクション3を参照して、これが、時間領域エイリアシングを生成する通常のMDCTを使用してシンプルに可能でないこととして、要点がまとまられている。しかしながら、エイリアシングの除去が、変換係数の数の増加の犠牲となり、結果として得られるフィルタバンクが臨界的なサンプリングの特性を示さないことを示す。
Bernhard Grill(ベルンハルト グリル),Karlheinz Brandenburg(カールハインツ ブランデンブルグ):A Two−or Three−Stage Bit―Rate Scalable Audio Coding System,前刷り番号 4132,第99回,AESコンベンション,1995年9月 J.Princen(J. プリンセン),A.Bradley(A. ブラッドリー):Analysis/Synthesis Filter Bank Design Based on Time Domain Aliasing Cancellation,IEEE Trans.ASSP,ASSP−34(5),1153頁−1161頁,1986年 Fielder,Louis D.(フィールダー,ルイス D.),Todd,Craig C.(トッド,クレイグ C.):The Design of a Video Friendly Audio Codig System for Distributing Applications,紙番号17−008,AES 第17回 国際カンファレンス,High−Quality Audio Coding,1999年8月 Fielder,Louis D.(フィールダー,ルイス D.),Davidson,Grant A.(デーヴィッドソン,グラント A.):Audio Coding Tools for Digital Television Distribution,前刷り5104 第108回AESコンベンション 2000年1月
本発明の目的は、データ・セグメントを符号化し、そして復号化するより効果的な概念を提供することである。
目的は、請求項1に記載の復号化のための装置、請求項25に記載の復号化のための方法、請求項27に記載の符号化されたデータストリームを生成する装置、および請求項39に記載の符号化されたデータストリームを生成する方法によって達成される。
本発明は、合成するための時間領域および周波数領域の符号器、それぞれの復号器を使用することによって、効果的な符号化および復号化の概念が利用されることができるという発見に基づく。時間エイリアシングの問題は、復号器において時間領域データから周波数領域データに変換することによって、および受信された復号化された周波数領域データを有する結果として得られた変換された周波数領域データを合成することによって、効果的に有効とすることができる。オーバーヘッドは、データ・セグメントを符号化領域の変化に適用する重複ウィンドウの重複している領域に適応することによって減少されえる。より小さく重複している領域を有するウィンドウを使用することは、時間領域の符号化を有する場合、時間領域の符号化から、また符号化へスイッチングする場合それぞれ、有益である。
実施例は、スピーチ信号および音楽信号のような入力信号の両方のタイプに対して、改良されたパフォーマンスを達成できる汎用な音声符号化および復号化の概念を提供することができる。実施例は、例えば、時間領域および周波数領域の概念である複数の符号化方法を合成することによって活用することができる。実施例は、フィルタバンクに基づき、および時間領域に基づく符号化概念を単一の方法に、効率的に合成することができる。実施例は、例えば、音楽のような音声コンテンツのための音声コーデックとスピーチのようなコンテンツのためのスピーチコーデックとの間でスイッチできるようにするために、合成されたコーデックを結果として得る。特に、合成されたコンテンツに対して、実施例は、しばしばこのスイッチングを利用することができる。
本発明の実施例は、スイッチングによるアーティファクトが発生しない効果を提供することができる。実施例において、付加的な送信データ、またはさらなる符号化サンプルの量は、スイッチングの過程に対して、動作のこの移送の間に減少した効率を回避するために最小化されえる。それとともに、部分的なコーダのスイッチの組み合わせの概念は、常にすべての部分的な符号器が作動中である層をなした組み合わせのそれとは異なる。
本発明の好ましい実施例は、添付図面に関して以下においてさらに詳細に説明される。
図1aは、復号化のための装置の実施例を示す。 図1bは、復号化のための装置の他の実施例を示す。 図1cは、復号化のための装置の他の実施例を示す。 図1dは、復号化のための装置の他の実施例を示す。 図1eは、復号化のための装置の他の実施例を示す。 図1fは、復号化のための装置の他の実施例を示す。 図2aは、符号化のための装置の実施例を示す。 図2bは、符号化のための装置の他の実施例を示す。 図2cは、符号化のための装置の他の実施例を示す。 図3aは、1つのウィンドウの期間に、周波数領域および時間領域の符号化との間で切り替わる場合に、重複している領域を例示する。 図3bは、2つのウィンドウの期間に、周波数領域符号化および時間領域符号化との間で切り替わる場合に、重複している領域を例示する。 図3cは、異なる重複している領域を有する複数のウィンドウを例示する。 図3dは、実施例において、異なる重複している領域を有するウィンドウの利用を例示する。 図4は、MDCTを使用する場合に、時間領域エイリアシング相殺(time−domain aliasing cancellation)を例示する。
図1aは、時間領域データストリームを表わしているデータ・セグメントを復号化するための装置100であって、データ・セグメントは、時間領域において、または周波数領域において符号化され、周波数領域において符号化されたデータ・セグメントは、時間領域データサンプルの連続したおよび重複しているブロックを表している連続したデータブロックを有する。このデータストリームは、例えば、音声ストリームに対応し、ここで、データブロックのいくつかは、時間領域に符号化され、そして他のものは、周波数領域に符号化される。周波数領域に符号化されたデータブロックまたはセグメントは、重複しているデータブロックの時間領域データサンプルを表わすことができる。
装置100は、時間領域において符号化されたデータ・セグメントを復号化するための時間領域復号器110を含む。さらに、装置100は、重複している時間領域データブロックを得るために、周波数領域において符号化されたデータ・セグメント、および時間領域復号器110の出力データを処理するためのプロセッサを含む。さらに、装置100は、時間領域データストリームの復号化されたデータ・セグメントを得るために、重複している時間領域データブロックを合成するためのオーバラップ/アド−コンバイナ130を含む。
図1bは、装置100の他の実施例を示す。実施例において、プロセッサ120は、周波数領域データ・セグメントを得るために、周波数領域において、符号化されたデータ・セグメントを復号化するための周波数領域復号器122を含む。さらに、実施例において、プロセッサ120は、変換された周波数領域データ・セグメントを得るために、時間領域復号器110の出力データを変換するための時間領域から周波数領域へのコンバータを含む。
さらに、実施例において、プロセッサ120は、周波数領域データストリームを得るために、周波数領域データ・セグメントおよび変換された周波数領域データ・セグメントを合成するための周波数領域コンバイナ126を含む。さらに、プロセッサ120は、オーバラップ/アド−コンバイナ130によって合成されえる周波数領域データストリームを重複している時間領域データブロック変換するための周波数領域から時間領域へのコンバータを含む。
実施例は、いかなる修正もなく、特に臨界サンプリングの特性を手放すことなく、MPEG−4 ACCにおいて使用されるMDCTフィルタバンクを利用できる。実施例は、最適符号化効率を提供することができる。付加的なスイッチングのアーティファクトおよび最小のオーバーヘッドだけを導かないと同時に、実施例は、確立したMDCTウィンドウと互換性を持つ時間領域コーデックへのスムーズな移行を達成することができる。
実施例は、フィルタバンクにおいて時間領域エイリアシングを保持することでき、そして、時間領域コーデックによって、対応する時間領域エイリアシングを符号化された信号部分に意図的にもたらすことができる。このように、それらが、MDCTスペクトルの2つの連続フレームに役立つにつれて、時間領域エイリアシングのコンポーネントを結果として得ることは、同様に各々を相殺することができる。図1cは、装置100の他の実施例を例示する。図1cによれば、周波数領域復号器122は、再量子化ステージ122aを含む。さらに、時間領域から周波数領域へのコンバータ124は、コサイン変調フィルタバンク、重複直交変換、低遅延フィルタバンク、多相フィルタバンクを含む。実施例は、時間領域から周波数領域へのコンバータ124が、MDCT124aを含むことを例示する。
さらに、図1cは、周波数領域コンバイナ126が、加算器126aを含むことを表す。図1cに示すように、周波数領域から時間領域へのコンバータ128は、コサイン修正フィルタバンク、それぞれ逆MDCT128aを含む。データ・セグメントを時間領域符号化され、および周波数領域符号化されることを含むデータストリームは、以下においてさらに詳述される符号器によって生成されえる。周波数領域符号化および時間領域符号化の間のスイッチングは、周波数領域符号器を有する入力信号の若干の部分および時間領域符号器を有する入力信号の若干の部分を符号化することによって達成されえる。図1cにおいて表される装置100の実施例は、復号化するための対応する装置100の基準の構造を例示する。他の実施例において、再量子化122aおよび逆修正離散コサイン変換128aが周波数復号器を表す。
時間領域復号器110が取って代わる信号部分に対して図1cにおいて示されるように、時間領域符号器110の時間領域出力は、フォワードMDCT124aによって変換されえる。時間領域復号器は、時間領域符号化されたデータを復号化するために予測フィルタを利用することができる。MDCT124aの入力における若干の重複、およびこのようなオーバーヘッドは、ここで導出される。以下において、実施例は、このオーバーヘッドの減少、または最小化を記述している。
原則として、図1cにおいて示される実施例は、両方のコーデックが平行して作動することができる作動モードを含む。実施例において、プロセッサ120は、時間領域および周波数領域において平行に符号化されるデータ・セグメントを適応されえる。このようにして、信号は、層化された符号化アプローチと同様に、周波数領域および部分的な時間領域において部分的に符号化される。結果として生じる信号は、周波数領域コンバイナ126aと比較され、そのとき周波数領域において加算される。にもかかわらず、実施例は、2つのコーデックの間で切り替わる作動モードを実行することができ、両コーデックが最良の効率を得るためにアクティブである、好ましくは最小限の数のサンプルを有するのみである。
図1cにおいて、時間領域符号器110の出力は、MDCT124aによって変換され、その後IMDCT128aが続く。他の実施例では、複雑さを減少させるために、これらの2つのステップは、単一のステップに有利に合成されえる。図1dは、このアプローチについて説明している装置100の実施例を例示する。図1dに示される装置100は、プロセッサ120が、時間領域復号器110の出力データに基づいて重複している時間領域データブロックを計算するための計算機129を含む。プロセッサ120または計算機129は、時間領域復号器110の出力データに基づく周波数領域から時間領域へのコンバータ128の重複特性のそれぞれの特性を再生することに適している。すなわち、プロセッサ120または計算機129は、周波数領域から時間領域へのコンバータ128によって生成された重複特性と類似の時間領域データブロックの特性の重複特性を再生できる。さらに、プロセッサ120または計算機129は、時間領域復号器110の出力データに基づき、周波数領域から時間領域へのコンバータ128によって導出された時間領域エイリアシングと類似の時間領域エイリアシングを再生するように適応されえる。
周波数領域から時間領域へのコンバータ128は、周波数領域復号器122によって重複している時間領域データブロックに提供される周波数領域データ・セグメントに変換するために適応されえる。オーバラップ/アド−コンバイナ130は、時間領域データストリームのデータの復号化されたデータセグメントを得るために、周波数領域から時間領域へのコンバータ128および計算機129によって提供されるデータブロックの合成のために適応されえる。
計算機129は、図1eの示される実施例において説明されるように時間領域エイリアシング・ステージ129aを含む。時間領域エイリアシング・ステージ129aは、重複している時間領域データブロックを得るために、時間領域復号器の時間エイリアシング出力データを適応されえる。
時間領域エイリアシング(TDA)の処理だけが、実施例において残存している場合に、時間領域符号化データに対して、MDCTおよびIMDCTの組み合わせは、構造および計算の複雑性において、非常に単純にすることができる。この効率的な処理は、多くの観察に基づく。2Nのサンプルの入力セグメントのウィンドウ化MDCTは、3つのステップに分解されえる。
第1に、入力信号は、分析ウィンドウによって乗算される。
第2に、結果は、2N個のサンプルからN個のサンプルまで折り返される。MDCTのために、この処理は、サンプルの第1クォーターが、サンプルの第2クォーターを有する時間反転オーダー(time−reversed order)において、合成され、すなわち減算され、サンプルの第4クォーターが、時間反転オーダーにおいて、サンプルの第3クォーターとともに合成され、すなわち加算されることを意味する。結果は、時間エイリアスされ、N個のサンプルを含む、信号の修正された第2および第3クォーターにおいて、ダウンサンプル化される。
第3に、そして、ダウンサンプル化された信号は、最終的なMDCT出力を形成するために、N個の入力からN個の出力サンプルへマッピングする直交DCTのような変換を使用して、変換される。
N個のスペクトル・サンプルの入力系列のウィンドウ化されたIMDCT再構成は、同様に、3つのステップに分解することができる。
第1に、N個のスペクトル・サンプルの入力系列は、N個の入力からN個の出力サンプルへマッピングする直交逆DCTのような変換を使用して、変換される。
第2に、結果は、逆DCT変換された値を2N個のサンプルの出力バッファの第2クォーターおよび第3クォーターに書き込み、第2クォーターの時間反転および反転バージョン、並びに第3クォーターの時間反転バージョンを有する第4クォーターをそれぞれ満たすことによって、N個から2N個のサンプルを展開する。
第3に、結果として生じる2N個のサンプルは、ウィンドウ化されたIMDCT出力を形成するために、合成ウィンドウによって乗算される。
このように、ウィンドウ化されたMDCTおよびウィンドウ化されたIMDCTの連結は、ウィンドウ化されたMDCTの第1および第2ステップ、並びにウィンドウ化されたIMDCTの第2および第3ステップのシーケンスによって、実施例において効率的に実行される。それらが、お互いに関する逆演算であって、このように相殺するので、MDCTの第3ステップおよびIMDCTの第1ステップは、実施例において、完全に省略されえる。残りのステップは、時間領域のみにおいて実行されえる。そして、このように、このアプローチを使用する実施例は、計算の複雑性において実質的に低くできる。
1ブロックのMDCTおよび連続的なIMDCTのために、MDCTの第2および第3ステップ、並びにIMDCTの第2および第3ステップが、以下に示すまばらな2N×2Nマトリックスを有する乗算として、記述されえる。
Figure 2010512550
換言すれば、計算機129は、2N個のシーケンシャルサンプルを含む計算機のセグメントにおける時間領域復号器110の出力を分割し、分析ウィンドウ関数にしたがって、2N個のサンプルに重みを適用し、第2のN/2個のサンプルから逆の順序で、第1のN/2個のサンプルを減算し、および逆の順序で、最後のN/2個のサンプルを第3のN/2個のサンプルに加算し、第2および第3のN/2個のサンプルを反転し、第1のN/2個のサンプルを、第2のN/2個のサンプルの時間反転および反転バージョンに置き換え、第4のN/2個のサンプルを、第3のN/2個の時間反転バージョンに置き換え、そして、合成ウィンドウ関数にしたがって、2N個のサンプルに重みを適用するために適応されえる。
他の実施例において、オーバラップ/アド−コンバイナ130は、周波数領域から時間領域へのコンバータ128によって提供された重複している時間領域データブロックに、合成ウィンドウ関数にしたがって、重みを適用するために適応されえる。さらに、オーバラップ/アド−コンバイナ130は、連続的に重複している時間領域データブロックの重複している領域のサイズに、適応された合成ウィンドウ関数にしたがって、重みを適用するために適応されえる。
計算機129は、連続的に重複している時間領域データブロックの重複している領域のサイズに、適応された分析ウィンドウ関数にしたがって、2N個のサンプルに重みを適用するために適応されえる。そして、計算機は、重複している領域のサイズに、適応された合成ウィンドウ関数にしたがって、2N個のサンプルに重みを適用するために適応されえる。
実施例において、周波数領域において符号化された2つの連続的な時間領域データブロックの重複している領域のサイズは、周波数領域において符号化されたもの、および時間領域において符号化されたものの2つの連続する時間領域データブロックの重複している領域のサイズよりも大きくなる。
実施例において、データ・セグメントのサイズは、重複している領域のサイズに適応されえる。実施例は、合成されたMDCT/IMDCT処理(すなわち、分析ウィンドウの動作、折り返しおよび展開、並びに合成ウィンドウを含む、ブロックTDA)の効率的な実装を有する。さらに、実施例においては、これらのステップのいくつかは、実際の実装において、部分的に、または完全に組み込むことができる。
図1fにおいて示されるような装置100の他の実施例が例示され、装置100は、さらに、非重複の連続的な時間領域データブロックが、時間領域において符号化されたデータ・セグメントにおいて生じた場合に、プロセッサ120およびオーバラップ/アド−コンバイナ130を迂回するために適応されるプロセッサ120およびオーバラップ/アド−コンバイナ130のためのバイパス140を含む。複数のデータ・セグメントが時間領域において符号化された場合、すなわち、周波数領域への変換が、連続的なデータ・セグメントに対して必要でない場合、それらは、いかなる重複もなしに送信されえる。これらのケースに対して、図1fにおいて示される実施例は、プロセッサ120およびオーバラップ/アド−コンバイナ130を迂回することができる。実施例において、ブロックの重複は、AAC仕様書にしたがって、決定されえる。
図2aは、時間領域データストリームに基づいて符号化されたデータストリームを生成するための装置200の実施例を示し、時間領域データストリームは、信号のサンプルを有する。例えば、時間領域データストリームは、音声信号に対応し、同時に、スピーチセクションおよび音楽セクションを含む。装置200は、データストリームからデータ・セグメントを提供するためのセグメント・プロセッサ210を含み、2つの連続的なデータ・セグメントは、第1または第2の重複している領域を有し、第2の重複している領域は、第1の重複している領域よりも小さい。さらに、装置200は、時間領域におけるデータ・セグメントを符号化するための時間領域符号器220、およびウィンドウ化されたデータ・セグメントを得るために、第1または第2のウィンドウ関数にしたがって、時間領域データストリームのサンプルに重みを適用するための周波数領域符号器230を含み、第1および第2のウィンドウ関数は、第1および第2の重複している領域に適応され、そして、周波数領域のウィンドウ化されたデータ・セグメントの符号化のために適応される。
さらに、装置200は、データ・セグメントと関連した移行指示(transition indication)を決定するための時間領域データ分析器240、並びに第1の移行指示を有するデータ・セグメントのために、時間領域符号器220の出力データは、符号化されたデータストリームにおいて含まれ、および第2の移行指示を有するデータ・セグメントのために、周波数領域符号器230の出力データは、符号化されたデータストリームにおいて含まれるように、装置を制御するための制御装置250を含む。
実施例において、時間領域データ分析器240は、時間領域データストリーム、またはセグメント・プロセッサ210によって提供されたデータ・セグメントから移行指示を決定するために適応される。これらの実施例は、図2bにおいて示される。図2bにおいて、時間領域データ分析器240が、時間領域データストリームから移行指示を決定するために、セグメント・プロセッサ210の入力に連結することができることが示される。もう1つの実施例では、時間領域データ分析240は、データ・セグメントから移行指示を決定するために、セグメント・プロセッサ210の出力に連結することができる。実施例において、時間領域データ分析器240は、セグメント・プロセッサによって直接提供されたデータから移行指示を決定するために、セグメント・プロセッサ210に直接連結されえる。これらの実施例は、図2bの点線によって示される。
実施例において、時間領域データ分析器240は、移行基準(transition measure)を決定するために適応され、移行基準は、時間領域データストリーム、またはデータ・セグメントにおける過渡性のレベル(level of transience)に基づいており、ここで、移行指示器は、過渡性のレベルが、所定の閾値を超えるか否かを示す。
図2cは、装置200の他の実施例を示す。図2cにおいて示される実施例において、セグメント・プロセッサ210は、第1および第2の重複している領域を有するデータ・セグメントを提供するために適応され、時間領域符号器220は、全てのデータ・セグメントを符号化するために適応され、周波数領域符号器230は、全てのウィンドウ化されたデータ・セグメントを符号化するために適応され、並びに制御装置250は、時間領域符号器220および周波数領域符号器230を制御するために適用され、そして、第1の移行指示を有するデータ・セグメントのために、時間領域符号器220の出力データは、符号化されたデータストリームにおいて含まれ、および第2の移行指示を有するデータ・セグメントのために、周波数領域符号器230の出力データは、符号化されたデータストリームにおいて含まれるような、周波数領域符号器230である。他の実施例において、時間領域符号器220および周波数領域230の両方の出力データは、符号化されたデータストリームにおいて含まれる。移行指示器は、スピーチ信号または音楽信号に関係するか、または関連するデータ・セグメントであるかどうかを示している。実施例において、周波数領域符号器230は、より音楽のようなデータ・セグメントに対して使用され、時間領域符号器220は、よりスピーチのようなデータ・セグメントに対して使用される。実施例において、平行する符号化は、例えば、バックグランドミュージックを有するスピーチのような音声信号に対して、利用される。
図2cにおいて表される実施例において、複数の可能性は、装置200の範囲内において、複数の要素を制御するための制御装置250に対して考えられる。異なる可能性は、図2cにおける点線によって示される。例えば、制御装置250は、移行基準に基づいて符号化された出力を生成する符号器を選択するために、時間領域符号器220および周波数領域符号器230に連結される。もう1つの実施例において、制御装置250は、時間領域符号器220および周波数領域符号器230の出力でスイッチを制御することができる。
このような実施例において、時間領域符号器220および周波数領域符号器230の両方が、すべてのデータ・セグメントを符号化することができ、そして、制御装置250は、符号器の出力に連結された前記スイッチを介して選択するために適応される。そして、それは、符号化されたデータ・セグメントが、符号化効率に基づいて、それぞれの移行指示を符号化されたデータストリームにおいて含まれる。他の実施例において、制御装置250は、時間領域符号器220または周波数領域符号器230のいずれか一方にデータ・セグメントを提供するためのセグメント・プロセッサ210を制御するために適応されえる。制御装置250は、データ・セグメントに対して重複している領域を設定するために、セグメント・プロセッサ210の制御もする。他の実施例において、制御装置250は、セグメント・プロセッサ210と、時間領域符号器220、周波数領域符号器230それぞれとの間のスイッチを制御するために適応される。制御装置250は、いずれか一方の符号器、それぞれ両方かにデータ・セグメントを直接スイッチする影響を与えることができる。さらに、制御装置250は、重複している領域および符号化方法とともに、周波数領域符号器230に対してウィンドウ関数を設定するために適応されえる。
さらに、実施例において、周波数領域符号器230は、AAC仕様書にしたがって、ウィンドウ関数の重みを適用するために適応されえる。周波数領域符号器230は、周波数領域データ・セグメントを得るために、ウィンドウ化されたデータ・セグメントを周波数領域に変換するために適応されえる。さらに、周波数領域符号器230は、周波数領域データ・セグメントを量子化するために適応され、そして、さらに、周波数領域符号器230は、知覚的なモデルにしたがって、周波数領域データ・セグメントを評価するために適応されえる。
周波数領域符号器230は、周波数領域データ・セグメントを得るために、コサイン変調フィルタバンク、重複直交変換、低遅延フィルタバンク、多相フィルタバンクを利用するために適応される。
周波数領域符号器230は、周波数領域データ・セグメントを得るために、MDCTを利用するために適応されえる。時間領域符号器220は、データ・セグメントを符号化するために、予測モデルを使用するために適応されえる。
実施例において、周波数領域符号器230におけるMDCTが、ACC仕様書と比較して、いわゆるロングブロックモード(すなわち、過渡期でない入力信号を符号化するために使用された正動作モード)において作動する場合、スイッチング処理によって導出されたオーバーヘッドは高い。これは、周波数領域符号器230の代わりに時間領域符号器220を使用することによって、1つのフレーム(すなわち、Nサンプルの長さ/フレーミングレート)のみが符号化されなければならないケースに対して真でありえる。
そして、MDCTのための全ての入力値は、時間領域符号器220によって符号化されなければならない。すなわち、2N個のサンプルは、時間領域復号器110の出力で利用できる。このように、N個の追加のサンプルのオーバーヘッドが導入される。図3aないし3dは、それぞれ適用できるウィンドウ関数で、セグメントのいくつかの考えられる重複している領域を例示したものである。2N個のサンプルは、周波数領域符号化データの1つのブロックを置き換えるために、時間領域符号器220によって符号化されなければならない。図3aは、例を説明する。ここで、周波数領域符号化データブロックは、実線を使用し、そして、時間領域符号化データは、点線を使用する。ウィンドウ関数の下に、周波数領域(実線の箱)または時間領域(点線の箱)において符号化されるデータ・セグメントが表される。この表現は、図3bないし3dにおいて引用される。
図3aは、データが周波数領域において符号化され、時間領域において符号化された1つのデータ・セグメントによって中断され、そして周波数領域において再び符号化された後のデータ・セグメントのケースを例示する。周波数領域符号器230によって引き起こされる時間領域エイリアシングを相殺するために必要である時間領域データを提供するために、周波数領域から時間領域にスイッチする場合に、重複のセグメントのサイズの半分が必要であり、同じ事が、時間領域から周波数領域にスイッチバックからホールドする。図3aにおいて時間領域符号化データ・セグメントが2N個を有すると仮定するならば、そのとき、その最初および最後で、N/2のサンプルによって周波数領域符号化データとともに重複する。
複数の次のフレームが時間領域符号器220を使用して符号化される場合に、時間領域符号化セクションに対するオーバーヘッドが、N個のサンプルで留まる。図3bにおいて例示されるように、2つの連続するフレームが、時間領域において符号化され、時間領域符号化セクションの最初および最後での重複している領域は、図3aに関して説明されたように、同じ重複を有する。図3bは、時間領域符号器220を有する2つの符号化されたフレームにおいて重複構造を示す。3N個のサンプルが、このケースにおいて、時間領域符号器220によって符号化されなければならない。
このオーバーヘッドは、例えば、AACにおいて使用される構造にしたがって、スイッチされるウィンドウを利用することによって、実施例において削減できる。図3cは、ロング、スタート、8ショートおよびストップウィンドウの典型的なシーケンスを例示する。したがって、図3cから、ウィンドウサイズ、データ・セグメントサイズ、および重複している領域のサイズが、異なるウィンドウによって変化することがわかる。図3cにおいて表されるシーケンスは、上述したシーケンスの例である。
しかしながら、実施例は、AACのサイズのウィンドウに限定されず、実施例は、異なる重複している領域を有するウィンドウ、および異なる期間のウィンドウを利用する。図3dにおいて例示されているように、ショートウィンドウのやり取りへの移行は、減少した重複を利用でき、例えば、時間領域符号化領域のやり取りへの移行からオーバーヘッドを減少するために、Bernd Edler(ベルント エドラー):Codierung von Audiosignalen mit ueberlappender Transformation und adaptiven Fensterfunktionen,Frequenz,第43巻,No.9,252頁−256頁,1989年9月、およびGeneric Coding of Moving Pictures and Associated Audio(映画及び関連オーディオの共通符号化):Advanced Audio Coding(適応オーディオ符号化),International Standard(国際規格) 13818−7,ISO/IEC JTC/SC29/WG11 Moving Pictures Expert Group(映像専門家グループ),1997年が、実施例において使用される。図3dは、4つのデータ・セグメントを例示しており、最初の2つおよび最後の1つは、周波数領域において符号化され、第3の1つは、時間領域において符号化される。減少された重複のサイズを有する異なるウィンドウの周波数領域から時間領域にスイッチングが使用される場合、それとともにオーバーヘッドを減らす。
実施例において、移行は、AACにおいて使用するものと同一のスタートおよびストップウィンドウに基づいてもよい。時間領域符号化領域のやり取りへの移行のための対応するウィンドウは、重複の小さな領域のみ有するウィンドウである。結果として、オーバーヘッド、すなわち、スイッチング処理の結果、送信された加算値の数が、大幅に減少する。通常、オーバーヘッドは、Novl個のサンプルのウィンドウの重複を有する各移行のためのNovl/2個でもよい。このように、Novl=1024を有するAACのような規則的な完全に重複された移行は、左、すなわち、フェードインウィンドウのための1024/2=512のサンプル、および右、すなわち、フェードアウトウィンドウのための1024/2=512のサンプルのオーバーヘッドを受ける。そして、移行が、1024の(=N)サンプルの完全なオーバーヘッドにおいて結果として得られる。Novl=128を有するAACのショートブロックウィンドウのような減少された重複ウィンドウを選択することは、128のサンプルの全体のオーバーヘッドを結果として得るだけである。
しかしながら、実施例は、例えば、広く使用されるMDCTフィルタバンクとして、周波数領域符号器230においてフィルタバンクを利用することができ、他の実施例は、他のコサイン修正フィルタバンクに基づいて周波数領域コーデックによって使用される。これは、例えば、MPEG−1−Layer−1/2/3の音声コーデックにおいて使用されるような多相フィルタバンクと同様に、重複直交変換または低遅延フィルタバンクのようなMDCTの派生を含めえる。実施例において、フォワード/バックワード動作の効率的な実装は、ウィンドウの特殊なタイプおよびフィルタバンクにおいて使用される折り返し/展開を考慮することができる。修正されたフィルタバンクのあらゆるタイプのために、分析ステージは、プレプロセッシング・ステップおよび変調のためのブロック変換、すなわちDCTまたはDFTによって、効率的に実装することができる。実施例において、対応する合成ステージは、対応する逆変換およびポストプロセッシングステップを使用して、実装される。実施例は、時間領域符号化信号部分のために、プレ−およびポストプロセッシングを使用するのみである。
時間領域符号器220および周波数領域230の間のスイッチングが、非常に低いオーバーヘッドを導出して行われるので、本発明の実施例は、よりよい符号化効率が達成されえる効果を提供する。次の時間領域符号化のみの信号セクションにおいて、重複は、実施例において、完全に省略しえる。装置100の実施例は、符号化されたデータストリームの一致している復号化を可能にする。
実施例は、それとともに、低い符号化レートが、例えば、音声信号の同じ品質のために達成されえる効果を提供し、それぞれの符号器が音声信号の過渡性に適応する場合に、それぞれ、より高い品質は、同じ符号化レートによって達成されえる。
進歩的な本方法の実施要件によっては、本方法は、ハードウェアまたはソフトウェアにおいて実施することができる。本実施は、電子的に読み出し可能な制御信号を記憶するデジタル記憶媒体、特にディスク、DVDまたはCDを使用して行うことができ、進歩的な本方法が行われるようなプログラム可能なコンピュータシステムと共に動作する。したがって、一般的に、本発明は、機械読み出し可能な担体上に記憶されたプログラム・コードを伴うコンピュータ・プログラム製品であって、プログラム・コードは、コンピュータ・プログラム製品がコンピュータ上で実行される場合に、進歩的な本方法を行うために動作する。したがって、言い換えれば、進歩的な本方法は、コンピュータ・プログラムがコンピュータ上で実行される場合に、本方法の少なくとも1つが実行させるためのプログラム・コードを有するコンピュータ・プログラムである。
100 復号化のための装置
110 時間領域復号器
120 プロセッサ
122 周波数領域復号器
122a 再量子化
124 時間領域から周波数領域へのコンバータ
124a 修正離散コサイン変換
126 周波数領域コンバイナ
126a 加算器
128 周波数領域から時間領域へのコンバータ
128a 逆修正離散コサイン変換
129 計算機
129a 時間領域エイリアシング・ステージ
130 オーバラップ/アド−コンバイナ
200 符号化するための装置
210 セグメント・プロセッサ
220 時間領域符号器
230 周波数領域符号器
240 時間領域データ分析器
250 制御装置
400 修正離散コサイン変換の入力
410 ウィンドウ
420 第1のウィンドウの逆修正離散コサイン変換の出力
425 第2のウィンドウの逆修正離散コサイン変換の出力
430 最後の出力

Claims (40)

  1. 時間領域データストリームを表しているデータ・セグメントを復号化するための装置であって、データ・セグメントは、時間領域において、または周波数領域において符号化され、前記周波数領域において符号化されたデータ・セグメントは、時間領域データサンプルの連続したおよび重複しているブロックを表している連続したデータブロックを有し、前記装置は、
    前記時間領域において、符号化されたデータ・セグメントを復号化するための時間領域復号器と、
    重複している時間領域データブロックを得るために、前記周波数領域において符号化された前記データ・セグメント、および前記時間領域復号器の出力データを処理するためのプロセッサと、
    前記時間領域データストリームの前記復号化されたデータ・セグメントを得るために、前記重複している時間領域データブロックを合成するためのオーバラップ/アド−コンバイナと、
    を含む、装置。
  2. 前記プロセッサは、周波数領域データ・セグメントを得るために、周波数領域において符号化されたデータ・セグメントを復号化するための周波数領域復号器を含む、請求項1に記載の装置。
  3. 前記プロセッサは、前記時間領域において、および前記周波数領域において、同時に符号化されたデータ・セグメントを処理するために適応される、請求項1に記載の装置。
  4. 前記プロセッサは、変換された周波数領域データ・セグメントを得るために、前記時間領域復号器の前記出力データを変換するための時間領域から周波数領域へのコンバータを含む、請求項2に記載の装置。
  5. 前記プロセッサは、周波数領域データストリームを得るために、前記周波数領域データ・セグメントおよび前記変換された周波数領域データ・セグメントを合成するための周波数領域コンバイナを含む、請求項4に記載の装置。
  6. 前記プロセッサは、前記周波数領域データストリームを重複している時間領域データブロックに変換するための周波数領域から時間領域へのコンバータを含む、請求項5に記載の装置。
  7. 前記周波数領域復号器は、さらに再量子化ステージを含む、請求項2に記載の装置。
  8. 前記時間領域から周波数領域へのコンバータは、コサイン変調フィルタバンク、重複直交変換、低遅延フィルタバンク、多相フィルタバンクまたは修正離散コサイン変換を含む、請求項4に記載の装置。
  9. 前記周波数領域コンバイナは、加算器を含む、請求項5に記載の装置。
  10. 前記周波数領域から時間領域へのコンバータは、コサイン変調フィルタバンクまたは逆修正離散コサイン変換を含む、請求項6に記載の装置。
  11. 前記時間領域復号器は、前記時間領域において符号化されたデータ・セグメントを復号化するために、予測フィルタを使用して適応される、請求項1に記載の装置。
  12. 前記プロセッサは、前記時間領域復号器の前記出力データに基づいて重複している時間領域データブロックを計算するための計算機を含む、請求項1に記載の装置。
  13. 前記計算機は、前記時間領域復号器の前記出力データに基づいて前記周波数領域から時間領域へのコンバータの重複している特性を再生するために適応される、請求項12に記載の装置。
  14. 前記計算機は、前記時間領域復号器に基づいて前記周波数領域から時間領域へのコンバータのエイリアシング特性を再生するために適応される、請求項13に記載の装置。
  15. 前記周波数領域から時間領域へのコンバータは、前記周波数領域復号器によって提供された前記周波数領域データ・セグメントを重複している時間領域データブロックに変換するために適応される、請求項6に記載の装置。
  16. 前記オーバラップ/アド−コンバイナは、前記時間領域データストリームの復号化されたデータ・セグメントを得るために、前記周波数領域から時間領域へのコンバータおよび前記計算機によって提供された前記重複している時間領域データブロックを合成するために適応される、請求項15に記載の装置。
  17. 前記計算機は、前記重複している時間領域データブロックを得るために、前記時間領域復号器の時間エイリアシング出力データのための時間領域エイリアシング・ステージを含む、請求項8に記載の装置。
  18. 前記計算機は、
    2N個のシーケンシャルサンプルを含む計算機のセグメントにおける前記時間領域復号器の前記出力を分割し、
    分析ウィンドウ関数にしたがって、前記2N個のサンプルに重みを適用し、
    逆の順序で、第2のN/2個のサンプルから第1のN/2個のサンプルを減算し、
    逆の順序で、第3のN/2個のサンプルから最後のN/2個のサンプルを加算し、
    前記第2および第3のN/2個のサンプルを反転し、
    前記第1のN/2個のサンプルを、前記第2のN/2個のサンプルの前記時間反転および反転バージョンに置き換え、
    前記第4のN/2個のサンプルを前記第3のN/2個のサンプルの前記時間反転バージョンに置き換え、
    合成ウィンドウ関数にしたがって、前記2Nのサンプルに重みを適用するために適応する、請求項12に記載の装置。
  19. 前記オーバラップ/アド−コンバイナは、前記周波数領域によって時間領域コンバータに提供された重複している時間領域データブロックに、合成ウィンドウ関数による重みを適用するために適応される、請求項6に記載の装置。
  20. 前記オーバラップ/アド−コンバイナは、連続的な重複している時間領域データブロックの重複している領域のサイズに、適応された合成ウィンドウ関数による重みを適用するために適応される、請求項19に記載の装置。
  21. 前記計算機は、連続的な重複している時間領域データブロックの重複している領域のサイズに、適応された合成ウィンドウ関数による前記2Nのサンプルに重みを適用するために適応され、そして前記計算機は、前記重複している領域の前記サイズに、適応された合成ウィンドウ関数による前記2Nのサンプルに重みを適用するために適応する、請求項20に記載の装置。
  22. 前記周波数領域において符号化された2つの連続的な時間領域データブロックの重複している領域のサイズは、前記周波数領域において符号化され、そして前記時間領域において符号化された2つの連続的な時間領域データブロックの重複している領域のサイズより大きい、請求項1に記載の装置。
  23. 前記データブロックの重複は、AAC仕様書により決定される、請求項1に記載の装置。
  24. さらに、非重複の連続的な時間領域データブロックが前記時間領域において符号化されたデータ・セグメントにおいて生じた場合に、前記プロセッサおよび前記オーバラップ/アド−コンバイナのためのバイパスを含み、前記プロセッサおよび前記オーバラップ/アド−コンバイナを迂回するために前記バイパスが適応される、請求項1に記載の装置。
  25. 時間領域データストリームを表しているデータ・セグメントを復号化するための方法であって、データ・セグメントは、時間領域において、または周波数領域において符号化され、前記周波数領域において符号化されたデータ・セグメントは、時間領域データサンプルの連続したおよび重複しているブロックを表している連続したデータブロックを有し、前記方法は、
    前記時間領域において、符号化されたデータ・セグメントを復号化するステップと、
    重複している時間領域データブロックを得るために、前記周波数領域において符号化された前記データ・セグメント、および前記時間領域復号器の出力データを処理するステップと、
    前記時間領域データストリームの前記復号化されたデータ・セグメントを得るために、前記重複している時間領域データブロックを合成するステップと、
    を含む、方法。
  26. コンピュータ・プログラムがコンピュータ上で実行される場合に、請求項25に記載の方法を実行させるためのプログラム・コードを有するコンピュータ・プログラム。
  27. 時間領域データストリームに基づいて符号化されたデータストリームを生成するための装置であって、前記時間領域データストリームは、信号のサンプルを有し、前記装置は、
    前記データストリームからデータ・セグメントを提供するためのセグメント・プロセッサであって、2つの連続的なデータ・セグメントは、第1または第2の重複している領域を有し、前記第2の重複している領域は、前記第1の重複している領域よりも小さい、セグメント・プロセッサと、
    前記時間領域において、ウィンドウ化されたデータ・セグメントを符号化するための時間領域符号器と、
    ウィンドウ化されたデータ・セグメントを得るために、第1または第2のウィンドウ関数による前記時間領域データストリームのサンプルに重みを適用するための周波数領域符号器であって、前記第1および第2のウィンドウ関数は、前記第1および第2の重複している領域に適応され、前記周波数領域符号器は、前記周波数領域において、ウィンドウ化されたデータ・セグメントを符号化するために適応される、周波数領域符号器と、
    データ・セグメントと関連した移行指示を決定するための時間領域データ分析器と、
    第1の移行指示を有するデータ・セグメントに対して、前記時間領域符号器の出力データは、前記符号化されたデータストリームに含み、および第2の移行指示を有するデータ・セグメントに対して、前記周波数領域符号器の出力データは、前記符号化されたデータストリームに含むように、前記装置を制御するための制御装置と、
    を含む、装置。
  28. 前記時間領域データ分析器は、前記時間領域データストリーム、前記データ・セグメント、または前記セグメント・プロセッサにより直接提供されたデータから移行指示を決定するために適応される、請求項27に記載の装置。
  29. 前記時間領域データ分析器は、移行基準を決定するために適応され、前記移行基準は、前記時間領域データストリーム、または前記データ・セグメントにおける過渡性のレベルに基づいており、ここで、移行指示器は、過渡性のレベルが、所定の閾値を超えるか否かを示す、請求項27に記載の装置。
  30. 前記セグメント・プロセッサは、前記第1および第2の重複している領域を有するデータ・セグメントを提供するために適応され、
    前記時間領域符号器は、前記データ・セグメントを符号化するために適応され、
    前記周波数領域符号器は、前記ウィンドウ化されたデータ・セグメントを符号化するために適応され、
    前記制御装置は、第1の移行指示を有するデータ・セグメントに対して、前記時間領域符号器の出力データが、前記符号化されたデータストリームを含み、および第2の移行指示を有するデータ・セグメントに対して、前記周波数領域符号器の出力データが、前記符号化されたデータストリームを含むように、前記時間領域符号器および前記周波数領域符号器を制御するために適応される、請求項27に記載の装置。
  31. 前記制御装置は、前記時間領域符号器または前記周波数領域符号器に前記データ・セグメントを提供するための前記セグメント・プロセッサを制御するために適応される、請求項27に記載の装置。
  32. 前記周波数領域符号器は、前記AAC仕様書によるウィンドウ関数の重みを適用するために適応される、請求項27に記載の装置。
  33. 前記周波数領域符号器は、周波数領域データ・セグメントを得るために、ウィンドウ化されたデータ・セグメントを前記周波数領域に変換するために適応される、請求項27に記載の装置。
  34. 前記周波数領域符号器は、前記周波数領域データ・セグメントを量子化するために適応される、請求項33に記載の装置。
  35. 前記周波数領域符号器は、知覚モデルにより前記周波数領域データ・セグメントを評価するために適応される、請求項34に記載の装置。
  36. 前記周波数領域符号器は、前記周波数領域データ・セグメントを得るために、コサイン変調フィルタバンク、重複直交変換、低遅延フィルタバンク、多相フィルタバンクを利用するために適応される、請求項35に記載の装置。
  37. 前記周波数領域符号器は、前記周波数領域データ・セグメントを得るために、修正離散コサイン変換を利用するために適応される、請求項33に記載の装置。
  38. 前記時間領域符号器は、前記データ・セグメントを符号化するために予測フィルタを使用して適応される、請求項27に記載の装置。
  39. 時間領域データストリームに基づいて符号化されたデータストリームを生成するための方法であって、前記時間領域データストリームは、信号のサンプルを有し、前記方法は、
    前記データストリームからデータ・セグメントを提供するステップであって、2つの連続的なデータ・セグメントは、第1のまたは第2の重複している領域を有し、前記第2の重複している領域は、前記第1の重複している領域よりも小さい、提供するステップと、
    前記データ・セグメントと関連した移行指示を決定するステップと、
    前記時間領域においてデータ・セグメントを符号化するステップと、
    および/または
    ウィンドウ化されたデータ・セグメントを得るために、重みを第1または第2のウィンドウ関数による前記時間領域データストリームのサンプルに適用するステップであって、前記第1および第2のウィンドウ関数は、前記第1および第2の重複している領域に適応される、適用するステップ、および前記周波数領域おいて前記ウィンドウ化されたデータ・セグメントを符号化するステップと、
    第1の移行指示を有するデータ・セグメントに対して、時間領域において符号化された出力データは、前記符号化されたデータストリームにおいて含まれ、第2の移行指示を有するデータ・セグメントに対して、前記周波数領域において符号化された出力データは、前記符号化されたデータストリームにおいて含まれるように制御するステップと、
    を含む、方法。
  40. コンピュータ・プログラムがコンピュータ上で実行される場合に、請求項39に記載の方法を実行させるためのプログラム・コードを有するコンピュータ・プログラム。
JP2009540636A 2006-12-12 2007-12-07 時間領域データストリームを表している符号化および復号化のための符号器、復号器およびその方法 Active JP5171842B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US86967006P 2006-12-12 2006-12-12
US60/869,670 2006-12-12
PCT/EP2007/010665 WO2008071353A2 (en) 2006-12-12 2007-12-07 Encoder, decoder and methods for encoding and decoding data segments representing a time-domain data stream

Publications (2)

Publication Number Publication Date
JP2010512550A true JP2010512550A (ja) 2010-04-22
JP5171842B2 JP5171842B2 (ja) 2013-03-27

Family

ID=39410130

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009540636A Active JP5171842B2 (ja) 2006-12-12 2007-12-07 時間領域データストリームを表している符号化および復号化のための符号器、復号器およびその方法

Country Status (20)

Country Link
US (8) US8818796B2 (ja)
EP (1) EP2052548B1 (ja)
JP (1) JP5171842B2 (ja)
KR (1) KR101016224B1 (ja)
CN (2) CN101589623B (ja)
AT (1) ATE547898T1 (ja)
AU (1) AU2007331763B2 (ja)
BR (2) BRPI0718738B1 (ja)
CA (1) CA2672165C (ja)
ES (1) ES2383217T3 (ja)
HK (2) HK1126602A1 (ja)
IL (1) IL198725A (ja)
MX (1) MX2009006201A (ja)
MY (1) MY148913A (ja)
NO (1) NO342080B1 (ja)
PL (1) PL2052548T3 (ja)
RU (1) RU2444071C2 (ja)
TW (1) TWI363563B (ja)
WO (1) WO2008071353A2 (ja)
ZA (1) ZA200903159B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160053582A (ko) * 2014-11-05 2016-05-13 주식회사 디오텍 합성음의 고조파 성분 제거 방법 및 장치
JP2016105174A (ja) * 2010-12-29 2016-06-09 サムスン エレクトロニクス カンパニー リミテッド 高周波数帯域幅拡張のための符号化/復号化装置及びその方法
US10152983B2 (en) 2010-09-15 2018-12-11 Samsung Electronics Co., Ltd. Apparatus and method for encoding/decoding for high frequency bandwidth extension

Families Citing this family (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8630863B2 (en) * 2007-04-24 2014-01-14 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding audio/speech signal
WO2008151137A2 (en) * 2007-06-01 2008-12-11 The Trustees Of Columbia University In The City Of New York Real-time time encoding and decoding machines
WO2009006405A1 (en) 2007-06-28 2009-01-08 The Trustees Of Columbia University In The City Of New York Multi-input multi-output time encoding and decoding machines
ATE500588T1 (de) 2008-01-04 2011-03-15 Dolby Sweden Ab Audiokodierer und -dekodierer
EP2144230A1 (en) 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme having cascaded switches
KR101250309B1 (ko) * 2008-07-11 2013-04-04 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 에일리어싱 스위치 기법을 이용하여 오디오 신호를 인코딩/디코딩하는 장치 및 방법
RU2507609C2 (ru) * 2008-07-11 2014-02-20 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Способ и дискриминатор для классификации различных сегментов сигнала
EP3002751A1 (en) 2008-07-11 2016-04-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder and decoder for encoding and decoding audio samples
MX2011000375A (es) 2008-07-11 2011-05-19 Fraunhofer Ges Forschung Codificador y decodificador de audio para codificar y decodificar tramas de una señal de audio muestreada.
MY181231A (en) * 2008-07-11 2020-12-21 Fraunhofer Ges Zur Forderung Der Angenwandten Forschung E V Audio encoder and decoder for encoding and decoding audio samples
ES2683077T3 (es) * 2008-07-11 2018-09-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Codificador y decodificador de audio para codificar y decodificar tramas de una señal de audio muestreada
EP2311034B1 (en) * 2008-07-11 2015-11-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder and decoder for encoding frames of sampled audio signals
ES2592416T3 (es) 2008-07-17 2016-11-30 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Esquema de codificación/decodificación de audio que tiene una derivación conmutable
EP3373297B1 (en) * 2008-09-18 2023-12-06 Electronics and Telecommunications Research Institute Decoding apparatus for transforming between modified discrete cosine transform-based coder and hetero coder
FR2936898A1 (fr) * 2008-10-08 2010-04-09 France Telecom Codage a echantillonnage critique avec codeur predictif
TWI419148B (zh) * 2008-10-08 2013-12-11 Fraunhofer Ges Forschung 多解析度切換音訊編碼/解碼方案
WO2010044593A2 (ko) 2008-10-13 2010-04-22 한국전자통신연구원 Mdct 기반 음성/오디오 통합 부호화기의 lpc 잔차신호 부호화/복호화 장치
KR101649376B1 (ko) * 2008-10-13 2016-08-31 한국전자통신연구원 Mdct 기반 음성/오디오 통합 부호화기의 lpc 잔차신호 부호화/복호화 장치
US9384748B2 (en) 2008-11-26 2016-07-05 Electronics And Telecommunications Research Institute Unified Speech/Audio Codec (USAC) processing windows sequence based mode switching
KR101315617B1 (ko) * 2008-11-26 2013-10-08 광운대학교 산학협력단 모드 스위칭에 기초하여 윈도우 시퀀스를 처리하는 통합 음성/오디오 부/복호화기
US8457975B2 (en) * 2009-01-28 2013-06-04 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio decoder, audio encoder, methods for decoding and encoding an audio signal and computer program
CN103761971B (zh) 2009-07-27 2017-01-11 延世大学工业学术合作社 一种处理音频信号的方法和装置
EP3462450A1 (en) * 2009-09-17 2019-04-03 Unified Sound Systems, Inc. A method and an apparatus for decoding an audio signal
US20110087494A1 (en) * 2009-10-09 2011-04-14 Samsung Electronics Co., Ltd. Apparatus and method of encoding audio signal by switching frequency domain transformation scheme and time domain transformation scheme
KR101137652B1 (ko) * 2009-10-14 2012-04-23 광운대학교 산학협력단 천이 구간에 기초하여 윈도우의 오버랩 영역을 조절하는 통합 음성/오디오 부호화/복호화 장치 및 방법
BR122020024243B1 (pt) * 2009-10-20 2022-02-01 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E. V. Codificador de sinal de áudio, decodificador de sinal de áudio, método para prover uma representação codificada de um conteúdo de áudio e método para prover uma representação decodificada de um conteúdo de áudio.
RU2591011C2 (ru) * 2009-10-20 2016-07-10 Фраунхофер-Гезелльшафт цур Фёрдерунг дер ангевандтен Форшунг Е.Ф. Кодер аудиосигнала, декодер аудиосигнала, способ кодирования или декодирования аудиосигнала с удалением алиасинга (наложения спектров)
CA3093517C (en) 2010-07-02 2021-08-24 Dolby International Ab Audio decoding with selective post filtering
ES2968927T3 (es) 2010-07-08 2024-05-14 Fraunhofer Ges Forschung Decodificador que utiliza cancelación del efecto de solapamiento hacia delante
US9807424B2 (en) 2011-01-10 2017-10-31 Qualcomm Incorporated Adaptive selection of region size for identification of samples in a transition zone for overlapped block motion compensation
WO2012109407A1 (en) 2011-02-09 2012-08-16 The Trustees Of Columbia University In The City Of New York Encoding and decoding machine with recurrent neural networks
BR112013020324B8 (pt) 2011-02-14 2022-02-08 Fraunhofer Ges Forschung Aparelho e método para supressão de erro em fala unificada de baixo atraso e codificação de áudio
PL2676268T3 (pl) 2011-02-14 2015-05-29 Fraunhofer Ges Forschung Urządzenie i sposób przetwarzania zdekodowanego sygnału audio w domenie widmowej
ES2535609T3 (es) 2011-02-14 2015-05-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Codificador de audio con estimación de ruido de fondo durante fases activas
EP4243017A3 (en) 2011-02-14 2023-11-08 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method decoding an audio signal using an aligned look-ahead portion
PL2676266T3 (pl) 2011-02-14 2015-08-31 Fraunhofer Ges Forschung Układ kodowania na bazie predykcji liniowej wykorzystujący kształtowanie szumu w dziedzinie widmowej
AU2012217158B2 (en) * 2011-02-14 2014-02-27 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Information signal representation using lapped transform
AR085895A1 (es) 2011-02-14 2013-11-06 Fraunhofer Ges Forschung Generacion de ruido en codecs de audio
CN103493129B (zh) * 2011-02-14 2016-08-10 弗劳恩霍夫应用研究促进协会 用于使用瞬态检测及质量结果将音频信号的部分编码的装置与方法
PT2676267T (pt) 2011-02-14 2017-09-26 Fraunhofer Ges Forschung Codificação e descodificação de posições de pulso de faixas de um sinal de áudio
TWI488176B (zh) * 2011-02-14 2015-06-11 Fraunhofer Ges Forschung 音訊信號音軌脈衝位置之編碼與解碼技術
FR2977439A1 (fr) * 2011-06-28 2013-01-04 France Telecom Fenetres de ponderation en codage/decodage par transformee avec recouvrement, optimisees en retard.
US9590959B2 (en) 2013-02-12 2017-03-07 Amazon Technologies, Inc. Data security service
US10084818B1 (en) 2012-06-07 2018-09-25 Amazon Technologies, Inc. Flexibly configurable data modification services
US10075471B2 (en) 2012-06-07 2018-09-11 Amazon Technologies, Inc. Data loss prevention techniques
US9286491B2 (en) 2012-06-07 2016-03-15 Amazon Technologies, Inc. Virtual service provider zones
US9547771B2 (en) 2013-02-12 2017-01-17 Amazon Technologies, Inc. Policy enforcement with associated data
US9300464B1 (en) 2013-02-12 2016-03-29 Amazon Technologies, Inc. Probabilistic key rotation
US10467422B1 (en) 2013-02-12 2019-11-05 Amazon Technologies, Inc. Automatic key rotation
US9608813B1 (en) 2013-06-13 2017-03-28 Amazon Technologies, Inc. Key rotation techniques
US10210341B2 (en) * 2013-02-12 2019-02-19 Amazon Technologies, Inc. Delayed data access
US9705674B2 (en) 2013-02-12 2017-07-11 Amazon Technologies, Inc. Federated key management
US9367697B1 (en) 2013-02-12 2016-06-14 Amazon Technologies, Inc. Data security with a security module
US10211977B1 (en) 2013-02-12 2019-02-19 Amazon Technologies, Inc. Secure management of information using a security module
MX348505B (es) 2013-02-20 2017-06-14 Fraunhofer Ges Forschung Aparato y método para generar una señal codificada o para decodificar una señal de audio codificada usando una porción multi superpuesta.
BR112016003029B1 (pt) * 2013-08-23 2023-04-04 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V Aparelho e método para processamento de um sinal de áudio utilizando uma combinação em uma faixa de sobreposição
CN104681034A (zh) 2013-11-27 2015-06-03 杜比实验室特许公司 音频信号处理
US9397835B1 (en) 2014-05-21 2016-07-19 Amazon Technologies, Inc. Web of trust management in a distributed system
US9438421B1 (en) 2014-06-27 2016-09-06 Amazon Technologies, Inc. Supporting a fixed transaction rate with a variably-backed logical cryptographic key
US10116418B2 (en) 2014-08-08 2018-10-30 University Of Florida Research Foundation, Incorporated Joint fountain coding and network coding for loss-tolerant information spreading
US9866392B1 (en) 2014-09-15 2018-01-09 Amazon Technologies, Inc. Distributed system web of trust provisioning
US10469477B2 (en) 2015-03-31 2019-11-05 Amazon Technologies, Inc. Key export techniques
WO2017050398A1 (en) * 2015-09-25 2017-03-30 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Encoder, decoder and methods for signal-adaptive switching of the overlap ratio in audio transform coding
US10014906B2 (en) * 2015-09-25 2018-07-03 Microsemi Semiconductor (U.S.) Inc. Acoustic echo path change detection apparatus and method
US10230388B2 (en) * 2015-12-30 2019-03-12 Northwestern University System and method for energy efficient time domain signal processing
WO2017161124A1 (en) * 2016-03-16 2017-09-21 University Of Florida Research Foundation, Incorporated System for video streaming using delay-aware fountain codes
WO2017161122A1 (en) * 2016-03-16 2017-09-21 University Of Florida Research Foundation, Incorporated System for live video streaming using delay-aware fountain codes
EP3276620A1 (en) 2016-07-29 2018-01-31 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Time domain aliasing reduction for non-uniform filterbanks which use spectral analysis followed by partial synthesis
US11030524B2 (en) * 2017-04-28 2021-06-08 Sony Corporation Information processing device and information processing method
WO2020132142A1 (en) * 2018-12-18 2020-06-25 Northwestern University System and method for pipelined time-domain computing using time-domain flip-flops and its application in time-series analysis

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08204576A (ja) * 1995-01-27 1996-08-09 Victor Co Of Japan Ltd 信号符号化装置及び信号復号化装置
JP2004302259A (ja) * 2003-03-31 2004-10-28 Matsushita Electric Ind Co Ltd 音響信号の階層符号化方法および階層復号化方法
WO2008060114A1 (en) * 2006-11-17 2008-05-22 Samsung Electronics Co., Ltd. Method and apparatus to encode and/or decode audio and/or speech signal

Family Cites Families (89)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5109417A (en) * 1989-01-27 1992-04-28 Dolby Laboratories Licensing Corporation Low bit rate transform coder, decoder, and encoder/decoder for high-quality audio
EP0455738B2 (en) * 1989-01-27 2007-04-04 Dolby Laboratories Licensing Corporation Low bit rate transform coder, decoder and encoder/decoder for high-quality audio
US5230038A (en) * 1989-01-27 1993-07-20 Fielder Louis D Low bit rate transform coder, decoder, and encoder/decoder for high-quality audio
DE3902948A1 (de) 1989-02-01 1990-08-09 Telefunken Fernseh & Rundfunk Verfahren zur uebertragung eines signals
CN1062963C (zh) * 1990-04-12 2001-03-07 多尔拜实验特许公司 用于产生高质量声音信号的解码器和编码器
US5327518A (en) * 1991-08-22 1994-07-05 Georgia Tech Research Corporation Audio analysis/synthesis system
SG45281A1 (en) 1992-06-26 1998-01-16 Discovision Ass Method and arrangement for transformation of signals from a frequency to a time domain
US5570455A (en) 1993-01-19 1996-10-29 Philosophers' Stone Llc Method and apparatus for encoding sequences of data
WO1995002288A1 (en) 1993-07-07 1995-01-19 Picturetel Corporation Reduction of background noise for speech enhancement
US5651090A (en) 1994-05-06 1997-07-22 Nippon Telegraph And Telephone Corporation Coding method and coder for coding input signals of plural channels using vector quantization, and decoding method and decoder therefor
US5615299A (en) 1994-06-20 1997-03-25 International Business Machines Corporation Speech recognition using dynamic features
TW271524B (ja) 1994-08-05 1996-03-01 Qualcomm Inc
CA2206129C (en) 1994-12-20 2009-11-10 Dolby Laboratories Licensing Corporation Method and apparatus for applying waveform prediction to subbands of a perceptual coding system
US5669484A (en) * 1996-01-24 1997-09-23 Paulson; Tom J. Protective cover for the mini-slide knob of dimmers with mini-slide knobs
US5809459A (en) 1996-05-21 1998-09-15 Motorola, Inc. Method and apparatus for speech excitation waveform coding using multiple error waveforms
US6134518A (en) * 1997-03-04 2000-10-17 International Business Machines Corporation Digital audio signal coding using a CELP coder and a transform coder
KR100261253B1 (ko) 1997-04-02 2000-07-01 윤종용 비트율 조절이 가능한 오디오 부호화/복호화 방법및 장치
US6064954A (en) 1997-04-03 2000-05-16 International Business Machines Corp. Digital audio signal coding
US6233550B1 (en) 1997-08-29 2001-05-15 The Regents Of The University Of California Method and apparatus for hybrid coding of speech at 4kbps
US6006179A (en) 1997-10-28 1999-12-21 America Online, Inc. Audio codec using adaptive sparse vector quantization with subband vector classification
RU2214047C2 (ru) * 1997-11-19 2003-10-10 Самсунг Электроникс Ко., Лтд. Способ и устройство для масштабируемого кодирования/декодирования аудиосигналов
US6249766B1 (en) 1998-03-10 2001-06-19 Siemens Corporate Research, Inc. Real-time down-sampling system for digital audio waveform data
US6085163A (en) * 1998-03-13 2000-07-04 Todd; Craig Campbell Using time-aligned blocks of encoded audio in video/audio applications to facilitate audio switching
US6119080A (en) * 1998-06-17 2000-09-12 Formosoft International Inc. Unified recursive decomposition architecture for cosine modulated filter banks
US7272556B1 (en) * 1998-09-23 2007-09-18 Lucent Technologies Inc. Scalable and embedded codec for speech and audio signals
US6188987B1 (en) 1998-11-17 2001-02-13 Dolby Laboratories Licensing Corporation Providing auxiliary information with frame-based encoded audio information
US6311154B1 (en) * 1998-12-30 2001-10-30 Nokia Mobile Phones Limited Adaptive windows for analysis-by-synthesis CELP-type speech coding
US6226608B1 (en) 1999-01-28 2001-05-01 Dolby Laboratories Licensing Corporation Data framing for adaptive-block-length coding system
US6640209B1 (en) * 1999-02-26 2003-10-28 Qualcomm Incorporated Closed-loop multimode mixed-domain linear prediction (MDLP) speech coder
US6449592B1 (en) 1999-02-26 2002-09-10 Qualcomm Incorporated Method and apparatus for tracking the phase of a quasi-periodic signal
US7020285B1 (en) * 1999-07-13 2006-03-28 Microsoft Corporation Stealthy audio watermarking
US6604070B1 (en) 1999-09-22 2003-08-05 Conexant Systems, Inc. System of encoding and decoding speech signals
CA2809775C (en) * 1999-10-27 2017-03-21 The Nielsen Company (Us), Llc Audio signature extraction and correlation
US6868377B1 (en) * 1999-11-23 2005-03-15 Creative Technology Ltd. Multiband phase-vocoder for the modification of audio or speech signals
FR2802329B1 (fr) 1999-12-08 2003-03-28 France Telecom Procede de traitement d'au moins un flux binaire audio code organise sous la forme de trames
JP3630609B2 (ja) 2000-03-29 2005-03-16 パイオニア株式会社 音声情報再生方法ならびに装置
US20020049586A1 (en) 2000-09-11 2002-04-25 Kousuke Nishio Audio encoder, audio decoder, and broadcasting system
US7010480B2 (en) 2000-09-15 2006-03-07 Mindspeed Technologies, Inc. Controlling a weighting filter based on the spectral content of a speech signal
US7020605B2 (en) * 2000-09-15 2006-03-28 Mindspeed Technologies, Inc. Speech coding system with time-domain noise attenuation
US7472059B2 (en) * 2000-12-08 2008-12-30 Qualcomm Incorporated Method and apparatus for robust speech classification
US6738739B2 (en) 2001-02-15 2004-05-18 Mindspeed Technologies, Inc. Voiced speech preprocessing employing waveform interpolation or a harmonic model
US7283954B2 (en) 2001-04-13 2007-10-16 Dolby Laboratories Licensing Corporation Comparing audio using characterizations based on auditory events
US6658383B2 (en) * 2001-06-26 2003-12-02 Microsoft Corporation Method for coding speech and music signals
US7333929B1 (en) * 2001-09-13 2008-02-19 Chmounk Dmitri V Modular scalable compressed audio data stream
JP3750583B2 (ja) 2001-10-22 2006-03-01 ソニー株式会社 信号処理方法及び装置、並びに信号処理プログラム
US7599835B2 (en) 2002-03-08 2009-10-06 Nippon Telegraph And Telephone Corporation Digital signal encoding method, decoding method, encoding device, decoding device, digital signal encoding program, and decoding program
US7366659B2 (en) 2002-06-07 2008-04-29 Lucent Technologies Inc. Methods and devices for selectively generating time-scaled sound signals
JP4022111B2 (ja) 2002-08-23 2007-12-12 株式会社エヌ・ティ・ティ・ドコモ 信号符号化装置及び信号符号化方法
US7295970B1 (en) 2002-08-29 2007-11-13 At&T Corp Unsupervised speaker segmentation of multi-speaker speech data
US7424434B2 (en) * 2002-09-04 2008-09-09 Microsoft Corporation Unified lossy and lossless audio compression
JP3870880B2 (ja) 2002-09-04 2007-01-24 住友電装株式会社 導線と圧接端子との接続構造
JP4676140B2 (ja) 2002-09-04 2011-04-27 マイクロソフト コーポレーション オーディオの量子化および逆量子化
EP1554716A1 (en) * 2002-10-14 2005-07-20 Koninklijke Philips Electronics N.V. Signal filtering
US20070112573A1 (en) 2002-12-19 2007-05-17 Koninklijke Philips Electronics N.V. Sinusoid selection in audio encoding
WO2004082288A1 (en) * 2003-03-11 2004-09-23 Nokia Corporation Switching between coding schemes
KR101200776B1 (ko) 2003-04-17 2012-11-13 코닌클리케 필립스 일렉트로닉스 엔.브이. 오디오 신호 합성
US7325023B2 (en) 2003-09-29 2008-01-29 Sony Corporation Method of making a window type decision based on MDCT data in audio encoding
CN1875402B (zh) * 2003-10-30 2012-03-21 皇家飞利浦电子股份有限公司 音频信号编码或解码
AU2003291862A1 (en) 2003-12-01 2005-06-24 Aic A highly optimized method for modelling a windowed signal
FR2865310A1 (fr) 2004-01-20 2005-07-22 France Telecom Procede de restauration de partiels d'un signal sonore
US7516064B2 (en) * 2004-02-19 2009-04-07 Dolby Laboratories Licensing Corporation Adaptive hybrid transform for signal analysis and synthesis
US7596486B2 (en) * 2004-05-19 2009-09-29 Nokia Corporation Encoding an audio signal using different audio coder modes
US7649988B2 (en) * 2004-06-15 2010-01-19 Acoustic Technologies, Inc. Comfort noise generator using modified Doblinger noise estimate
KR100608062B1 (ko) 2004-08-04 2006-08-02 삼성전자주식회사 오디오 데이터의 고주파수 복원 방법 및 그 장치
KR20070068424A (ko) 2004-10-26 2007-06-29 마츠시타 덴끼 산교 가부시키가이샤 음성 부호화 장치 및 음성 부호화 방법
GB2420846B (en) * 2004-12-04 2009-07-08 Ford Global Technologies Llc A cooling system for a motor vehicle engine
US20070147518A1 (en) * 2005-02-18 2007-06-28 Bruno Bessette Methods and devices for low-frequency emphasis during audio compression based on ACELP/TCX
US7840411B2 (en) * 2005-03-30 2010-11-23 Koninklijke Philips Electronics N.V. Audio encoding and decoding
US7418394B2 (en) 2005-04-28 2008-08-26 Dolby Laboratories Licensing Corporation Method and system for operating audio encoders utilizing data from overlapping audio segments
US7571104B2 (en) 2005-05-26 2009-08-04 Qnx Software Systems (Wavemakers), Inc. Dynamic real-time cross-fading of voice prompts
US7630882B2 (en) * 2005-07-15 2009-12-08 Microsoft Corporation Frequency segmentation to obtain bands for efficient coding of digital media
US7546240B2 (en) 2005-07-15 2009-06-09 Microsoft Corporation Coding with improved time resolution for selected segments via adaptive block transformation of a group of samples from a subband decomposition
KR100643310B1 (ko) 2005-08-24 2006-11-10 삼성전자주식회사 음성 데이터의 포먼트와 유사한 교란 신호를 출력하여송화자 음성을 차폐하는 방법 및 장치
US7953605B2 (en) 2005-10-07 2011-05-31 Deepen Sinha Method and apparatus for audio encoding and decoding using wideband psychoacoustic modeling and bandwidth extension
KR100647336B1 (ko) 2005-11-08 2006-11-23 삼성전자주식회사 적응적 시간/주파수 기반 오디오 부호화/복호화 장치 및방법
CN1963917A (zh) 2005-11-11 2007-05-16 株式会社东芝 评价语音的分辨力、说话人认证的注册和验证方法及装置
US7805297B2 (en) * 2005-11-23 2010-09-28 Broadcom Corporation Classification-based frame loss concealment for audio signals
EP1855436A1 (en) 2006-05-12 2007-11-14 Deutsche Thomson-Brandt Gmbh Method and apparatus for encrypting encoded audio signal
US8010352B2 (en) 2006-06-21 2011-08-30 Samsung Electronics Co., Ltd. Method and apparatus for adaptively encoding and decoding high frequency band
US8036903B2 (en) 2006-10-18 2011-10-11 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Analysis filterbank, synthesis filterbank, encoder, de-coder, mixer and conferencing system
DE102006051673A1 (de) 2006-11-02 2008-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Nachbearbeiten von Spektralwerten und Encodierer und Decodierer für Audiosignale
KR100964402B1 (ko) 2006-12-14 2010-06-17 삼성전자주식회사 오디오 신호의 부호화 모드 결정 방법 및 장치와 이를 이용한 오디오 신호의 부호화/복호화 방법 및 장치
KR100883656B1 (ko) 2006-12-28 2009-02-18 삼성전자주식회사 오디오 신호의 분류 방법 및 장치와 이를 이용한 오디오신호의 부호화/복호화 방법 및 장치
KR101334366B1 (ko) 2006-12-28 2013-11-29 삼성전자주식회사 오디오 배속 재생 방법 및 장치
KR101403340B1 (ko) 2007-08-02 2014-06-09 삼성전자주식회사 변환 부호화 방법 및 장치
US8050934B2 (en) 2007-11-29 2011-11-01 Texas Instruments Incorporated Local pitch control based on seamless time scale modification and synchronized sampling rate conversion
KR101441896B1 (ko) 2008-01-29 2014-09-23 삼성전자주식회사 적응적 lpc 계수 보간을 이용한 오디오 신호의 부호화,복호화 방법 및 장치
US8364481B2 (en) 2008-07-02 2013-01-29 Google Inc. Speech recognition with parallel recognition tasks
EP2631906A1 (en) 2012-02-27 2013-08-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Phase coherence control for harmonic signals in perceptual audio codecs

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08204576A (ja) * 1995-01-27 1996-08-09 Victor Co Of Japan Ltd 信号符号化装置及び信号復号化装置
JP2004302259A (ja) * 2003-03-31 2004-10-28 Matsushita Electric Ind Co Ltd 音響信号の階層符号化方法および階層復号化方法
WO2008060114A1 (en) * 2006-11-17 2008-05-22 Samsung Electronics Co., Ltd. Method and apparatus to encode and/or decode audio and/or speech signal
JP2010510540A (ja) * 2006-11-17 2010-04-02 サムスン エレクトロニクス カンパニー リミテッド オーディオ及び/またはスピーチ信号符号化及び/または復号化方法及び装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10152983B2 (en) 2010-09-15 2018-12-11 Samsung Electronics Co., Ltd. Apparatus and method for encoding/decoding for high frequency bandwidth extension
JP2016105174A (ja) * 2010-12-29 2016-06-09 サムスン エレクトロニクス カンパニー リミテッド 高周波数帯域幅拡張のための符号化/復号化装置及びその方法
US10453466B2 (en) 2010-12-29 2019-10-22 Samsung Electronics Co., Ltd. Apparatus and method for encoding/decoding for high frequency bandwidth extension
US10811022B2 (en) 2010-12-29 2020-10-20 Samsung Electronics Co., Ltd. Apparatus and method for encoding/decoding for high frequency bandwidth extension
KR20160053582A (ko) * 2014-11-05 2016-05-13 주식회사 디오텍 합성음의 고조파 성분 제거 방법 및 장치
KR101626280B1 (ko) * 2014-11-05 2016-06-01 주식회사 디오텍 합성음의 고조파 성분 제거 방법 및 장치

Also Published As

Publication number Publication date
BRPI0718738B1 (pt) 2023-05-16
WO2008071353A2 (en) 2008-06-19
CA2672165C (en) 2014-07-29
HK1126602A1 (en) 2009-09-04
AU2007331763B2 (en) 2011-06-30
NO20092506L (no) 2009-09-10
US20140222442A1 (en) 2014-08-07
AU2007331763A1 (en) 2008-06-19
US20230154475A1 (en) 2023-05-18
MY148913A (en) 2013-06-14
ATE547898T1 (de) 2012-03-15
US20160225383A1 (en) 2016-08-04
ES2383217T3 (es) 2012-06-19
US9043202B2 (en) 2015-05-26
US10714110B2 (en) 2020-07-14
US20130282389A1 (en) 2013-10-24
WO2008071353A3 (en) 2008-08-21
TW200841743A (en) 2008-10-16
TWI363563B (en) 2012-05-01
BRPI0718738A8 (pt) 2018-10-16
US8812305B2 (en) 2014-08-19
US8818796B2 (en) 2014-08-26
JP5171842B2 (ja) 2013-03-27
US20150179183A1 (en) 2015-06-25
ZA200903159B (en) 2010-07-28
HK1168706A1 (en) 2013-01-04
US11961530B2 (en) 2024-04-16
KR101016224B1 (ko) 2011-02-25
MX2009006201A (es) 2009-06-22
PL2052548T3 (pl) 2012-08-31
RU2009117569A (ru) 2011-01-20
CN101589623B (zh) 2013-03-13
US20200335117A1 (en) 2020-10-22
US9653089B2 (en) 2017-05-16
CN102395033A (zh) 2012-03-28
BRPI0718738A2 (pt) 2015-03-24
KR20090085655A (ko) 2009-08-07
IL198725A (en) 2016-03-31
CN102395033B (zh) 2014-08-27
CN101589623A (zh) 2009-11-25
IL198725A0 (en) 2010-02-17
EP2052548A2 (en) 2009-04-29
US11581001B2 (en) 2023-02-14
BR122019024992B1 (pt) 2021-04-06
US20170249952A1 (en) 2017-08-31
US9355647B2 (en) 2016-05-31
RU2444071C2 (ru) 2012-02-27
CA2672165A1 (en) 2008-06-19
US20100138218A1 (en) 2010-06-03
EP2052548B1 (en) 2012-02-29
NO342080B1 (no) 2018-03-19

Similar Documents

Publication Publication Date Title
JP5171842B2 (ja) 時間領域データストリームを表している符号化および復号化のための符号器、復号器およびその方法
US11238874B2 (en) Audio encoder for encoding a multichannel signal and audio decoder for decoding an encoded audio signal
EP2311032B1 (en) Audio encoder and decoder for encoding and decoding audio samples
RU2584463C2 (ru) Кодирование звука с малой задержкой, содержащее чередующиеся предсказательное кодирование и кодирование с преобразованием
EP2849180B1 (en) Hybrid audio signal encoder, hybrid audio signal decoder, method for encoding audio signal, and method for decoding audio signal
WO2010003532A1 (en) Apparatus and method for encoding/decoding an audio signal using an aliasing switch scheme
WO2013061584A1 (ja) 音信号ハイブリッドデコーダ、音信号ハイブリッドエンコーダ、音信号復号方法、及び音信号符号化方法
JPH08263098A (ja) 音響信号符号化方法、音響信号復号化方法
EP3002751A1 (en) Audio encoder and decoder for encoding and decoding audio samples

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120327

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120627

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121225

R150 Certificate of patent or registration of utility model

Ref document number: 5171842

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250