JP4695197B2 - メディア信号の処理方法及び装置 - Google Patents

メディア信号の処理方法及び装置 Download PDF

Info

Publication number
JP4695197B2
JP4695197B2 JP2008551199A JP2008551199A JP4695197B2 JP 4695197 B2 JP4695197 B2 JP 4695197B2 JP 2008551199 A JP2008551199 A JP 2008551199A JP 2008551199 A JP2008551199 A JP 2008551199A JP 4695197 B2 JP4695197 B2 JP 4695197B2
Authority
JP
Japan
Prior art keywords
information
rendering
signal
filter
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008551199A
Other languages
English (en)
Other versions
JP2009524340A (ja
JP2009524340A5 (ja
Inventor
オ オー,ヒェン
スク パン,ヒー
スー キム,ドン
ヒュン リム,ジェ
ウォン ジュン,ヤン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2009524340A publication Critical patent/JP2009524340A/ja
Publication of JP2009524340A5 publication Critical patent/JP2009524340A5/ja
Application granted granted Critical
Publication of JP4695197B2 publication Critical patent/JP4695197B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/02Systems employing more than two channels, e.g. quadraphonic of the matrix type, i.e. in which input signals are combined algebraically, e.g. after having been phase shifted with respect to each other
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/007Two-channel systems in which the audio signals are in digital form
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Algebra (AREA)
  • Stereophonic System (AREA)
  • Image Generation (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Television Systems (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)

Description

本発明は、メディア信号の処理方法及び装置に関し、より詳細には、メディア信号の空間情報を用いてサラウンド信号を生成する信号処理方法及び装置に関する。
一般に、メディア信号をモノ又はステレオ信号をダウンミックスして生成されたダウンミックス信号と、このメディア信号の空間情報とを用いてマルチチャンネルメディア信号を生成する方法及び装置が多く用いられてきている。
しかしながら、上記のような方法及び装置は、マルチチャンネル信号を生成出できない環境、例えば、ステレオ信号のみ生成可能な装置では用いられることができない。すなわち、マルチチャンネル信号を生成できない環境で、メディア信号の空間情報を用いてマルチチャンネル信号の効果を出せるサラウンド信号を生成する方法及び装置は存在していない。したがって、モノ又はステレオ信号のみ生成可能な装置ではサラウンド信号を生成する方法及び装置が存在しておらず、メディア信号を效率的に処理する上で多くの問題点があった。
本発明は上記の問題点を解決するためのもので、その目的は、メディア信号の空間情報を用いてメディア信号をサラウンド信号に変換するメディア信号の処理方法及び装置を提供することにある。
上記の目的を達成するために、本発明は、マルチソース間の特徴を表す空間情報を用いてソース別に対応するソースマッピング情報を生成する段階と、前記ソースマッピング情報にサラウンド効果を与えるフィルター情報をソース別に適用し、サブレンダリング情報を生成する段階と、少なくとも一つの前記サブレンダリング情報を合成し、サラウンド信号を生成するためのレンダリング情報を生成する段階と、前記レンダリング情報を、前記マルチソースをダウンミックスして生成されたダウンミックス信号に適用し、サラウンド信号を生成する段階と、を含むことを特徴とする信号処理方法を提供する。
また、前記目的を達成するために、本発明は、マルチソース間の特徴を表す空間情報を用いてソース別に対応するソースマッピング情報を生成するソースマッピング部と、前記ソースマッピング情報にサラウンド効果を与えるフィルター情報をソース別に適用し、サブレンダリング情報を生成するサブレンダリング情報生成部と、少なくとも一つの前記サブレンダリング情報を合成し、サラウンド信号を生成するためのレンダリング情報を生成する合成部と、前記レンダリング情報を、前記マルチソースをダウンミックスして生成されたダウンミックス信号に適用し、サラウンド信号を生成するレンダリング部と、を含むことを特徴とする信号処理装置を提供する。
以下、上記の目的を具体的に実現できる本発明の好適な実施例を、添付の図面を参照しつつ説明する。本発明で使われる用語は、可能なかぎり現在広く使われている一般的な用語を選択したが、特定の場合は、の出願人が任意に選定した用語もある。この場合には発明の詳細な説明でその意味を記載したので、単純な用語の名称ではなく用語が持つ意味として本発明を把握すべきである。以下、本発明は、便宜上、オーディオ信号を取り上げて記述されるが、本発明がオーディオ信号に限定されることはない。
本発明に係る信号処理方法及び装置によれば、マルチチャンネル信号をダウンミックスして生成されたダウンミックス信号及び前記マルチチャンネル信号の空間情報を含むビットストリームを受信したデコーディング装置が、マルチチャンネル信号を復元できない環境においも、サラウンド効果を持つ信号を生成することが可能になる。
図1は、本発明の一実施例によるオーディオ信号の符号化装置及び復号化装置を示すブロック図である。図1を参照すると、符号化装置10は、ダウンミックス部100、空間情報生成部200、ダウンミックス信号符号化部300、空間情報符号化部400及び多重化部500を含む。
マルチソースオーディオ信号X1,X2,…,Xnがダウンミックス部100に入力されると、ダウンミックス部100は、マルチソースオーディオ信号をダウンミックスしてダウンミックス信号を生成する。ダウンミックス信号は、モノ、ステレオ又はマルチソースオーディオ信号を含む。ここで、ソースはチャンネルを含み、便宜上、以下ではチャンネルと記述する。本明細書では、モノ又はステレオダウンミックス信号を基準として説明するが、本発明がモノ又はステレオダウンミックス信号に限定されることはない。また、符号化装置10は、選択的に外部から直接提供される任意のダウンミックス信号を用いることができる。空間情報生成部200は、マルチチャンネルオーディオ信号から空間情報を生成する。この空間情報をダウンミックス過程中に生成することができる。生成されたダウンミックス信号及び空間情報はそれぞれ、ダウンミックス信号符号化部300及び空間情報符号化部400に符号化された後、多重化部500に転送される。
本発明でいう「空間情報とは、符号化装置でマルチチャンネル信号をダウンミックスし、生成されたダウンミックス信号を復号化装置で転送し、このダウンミックス信号を復号化装置がアップミックスしてマルチチャンネル信号を生成するのに必要な情報のことを意味する。空間情報は、空間パラメータを含む。空間パラメータには、チャンネル間のエネルギー差を意味するCLD(チャンネルレベル差)、チャンネル間の相関関係を意味するICC(チャンネル間の信号相関)、2チャンネルから3チャンネルを生成する時に用いられるCPC(チャンネル予測係数)などがある。
本発明でいう「ダウンミックス信号符号化部」又は「ダウンミックス信号復号化部」とは、空間情報でないオーディオ信号を符号化又は復号化するコーデックのことを意味する。本明細書は、空間情報でないオーディオ信号としてダウンミックスオーディオ信号を取り上げて記述する。また、ダウンミックス信号符号化部又はダウンミックス信号復号化部は、MP3、AC−3、DTS又はAACを含むことができる。オーディオ信号にコーデック機能を行うものであれば、既存に開発されたコーデックの他、今後開発されるコーデックをも含むことができる。
多重化部500は、ダウンミックス信号及び空間情報を多重化してビットストリームを生成し、生成されたビットストリームを復号化装置20に転送する。このビットストリームの構造は、図2で説明される。
デコーディング装置20は、逆多重化部600、ダウンミックス信号復号化部700、空間情報復号化部800、レンダリング部900及び空間情報変換部1000を含む。逆多重化部600は、ビットストリームを受信し、該ビットストリームから符号化されたダウンミックス信号と符号化された空間情報とを分離する。その後、ダウンミックス信号復号化部700は、符号化されたダウンミックス信号を復号化し、空間情報復号化部800は、符号化された空間情報を復号化する。空間情報変換部1000は、復号化された空間情報及びフィルター情報用いてダウンミックス信号に適用させられるレンダリング情報を生成する。このレンダリング情報は、ダウンミックス信号に適用されてサラウンド信号を生成できる。
サラウンド信号を生成する、例えば、符号化装置10でマルチチャンネルオーディオ信号からダウンミックス信号を生成する過程を、OTT(1対2)ボックス又はTTT(3対3)ボックスなどを用いて多段階で行うことができる。この時、段階ごとに空間情報を生成することができる。この空間情報は、復号化装置20に転送され、復号化装置20は、受信した空間情報を変換した後、変換された空間情報をダウンミックス信号にレンダリングすることによってサラウンド信号を生成することができる。本発明は、ダウンミックス信号をアップミックスしてマルチチャンネル信号を生成するのではなく、アップミックス段階別に空間情報のみを抽出し、抽出された空間情報を用いてレンダリングを行う方法に関する。レンダリング方法には、例えば、HRTF(頭部伝達関数)フィルターリングを用いることができる。
この時、空間情報は、ハイブリッドドメインで適用可能な値である。レンダリングは、ドメインによって下記のような種類がありうる。
その第一は、ハイブリッドフィルターバンクにダウンミックス信号を通過させ、ハイブリッドドメインでレンダリングを行う方法である。この時、空間情報に対するドメインの変換は不要である。
その第二は、時間ドメインでレンダリングを行う方法である。この方法は、HRTFフィルターが、時間ドメインでFIR(有限逆応答)フィルター又はIIR(無限逆応答)フィルターとしてモデリングされる点を用い、空間情報を時間ドメインのフィルター係数に変換する過程が必要とされる。
その第三は、異なる周波数ドメインでレンダリングを行う方法である。例えば、DFT(離散フーリエ変換)ドメインでレンダリングを行う方法である。この第三の方法は、空間情報を該当のドメインへと変換する過程を必要とする。また、この方法は、時間ドメインにおけるフィルターリングを周波数ドメインにおける演算に置換することによって高速演算が可能である。
本発明でいうフィルター情報は、オーディオ信号を処理するためのフィルターに関する情報を意味し、特定フィルターが持つフィルター係数を含む。このフィルター情報の例には、次のようなものがある。プロトタイプフィルター情報は、特定フィルターが持つ元来のフィルター情報を意味し、GL_Lなどで表現可能である。変換フィルター情報は、プロトタイプフィルタ情報が変形された後のフィルター係数を意味し、GL_L'などで表現可能である。サブレンダリング情報は、サラウンド信号を生成するためにプロトタイプフィルタ情報を空間化したフィルター情報を意味し、FL_L1等で表現可能である。レンダリング情報は、レンダリングを行うために必要なフィルター情報を意味し、HL_Lなどで表現可能だ。補間/平滑化されたレンダリング情報は、レンダリング情報を補間及び/又は平滑化したフィルター情報を意味し、HL_L'などで表現可能である。本明細書は、上記のフィルター情報を取り上げて記述するが、これらのフィルター情報の名称に本発明が限定されるわけではない。特に、フィルター情報は、HRTFを取り上げて説明するが、本発明がこのHRTFに限定されることはない。
その後、レンダリング部900は、復号化されたダウンミックス信号及びレンダリング情報を受信し、これら復号化されたダウンミックス信号及びレンダリング情報を用いてサラウンド信号を生成する。このサラウンド信号は、ステレオ信号のみ生成可能なオーディオ・システムにサラウンド効果を提供する信号になりうる。本発明は、ステレオ信号のみ生成可能なオーディオ・システムの他にも適用可能である。
図2は、本発明の一実施例によるオーディオ信号ビットストリームの構造を示す図である。このビットストリームは、符号化されたダウンミックス信号及び符号化された空間情報を含む。図2を参照すると、1フレームオーディオペイロードは、ダウンミックス信号フィールド及び補助データフィールドを含む。この補助データフィールドに、符号化された空間情報を保存することができる。例えば、オーディオペイロードが48〜128kbpsの時、空間情報は5〜32kbps程度の範囲を持つことができるが、このオーディオペイロード及び空間情報の範囲に特に制限はない。
図3は、本発明の一実施例による空間情報変換部を示す詳細ブロック図である。図3を参照すると、空間情報変換部1000は、ソースマッピング部1010、サブレンダリング情報生成部1020、統合部1030、プロセシング部1040、ドメイン変換部1050を含む。
ソースマッピング部1010は、空間情報を用いてソースマッピング過程を行うことによって、オーディオ信号の各ソースに対応するソースマッピング情報を生成する。ソースマッピング情報とは、オーディオ信号の各ソースに対応するように空間情報などを用いて生成された各ソース別情報のことを指す。ソースはチャンネルを含み、この場合に各チャンネルに対応するソースマッピング情報が生成される。ソースマッピング情報は、係数形態で表現されることができる。ソースマッピング過程についての詳細な説明は、後ほど図4及び図5を参照して記述する。
サブレンダリング情報生成部1020は、ソースマッピング情報及びフィルター情報を用いて各ソースに対応するサブレンダリング情報を生成する。例えば、レンダリング部900がHRTFフィルターである場合、サブレンダリング情報生成部1020は、HRTFフィルター情報を用いてサブレンダリング情報を生成することができる。
統合部1030は、サブレンダリング情報をダウンミックス信号のソースに対応するように統合し、レンダリング情報を生成する。レンダリング情報とは、空間情報及びフィルター情報を用いて生成された情報で、ダウンミックス信号に適用されてサラウンド信号を生成する情報のことを指す。レンダリング情報は、フィルター係数形態を含む。統合は、レンダリング過程の演算量を減らすために省略しても良い。その後、レンダリング情報は、プロセシング部104に転送される。プロセシング部104は、補間部1041及び/又は平滑化部1042を含む。レンダリング情報は補間部1041及び/又は平滑化部1042で補間及び/又は平滑化される。その後、ドメイン変換部1050は、レンダリング情報のドメインを、レンダリング部900で用いられるダウンミックス信号のドメインに変換する。このドメイン変換部1005は、図3に示す位置以外にも様々な位置に適用されることができる。したがって、レンダリング情報がレンダリング部900と同じドメインで生成された場合、ドメイン変換部1050を省略しても良い。ドメイン変換されたレンダリング情報は、レンダリング部900に転送される。
また、空間情報変換部1000は、フィルター情報変換部1060を含むことができる。図3で、フィルター情報変換部1060は、空間情報変換部1000の内部に含まれているが、空間情報変換部1000の外部に存在しても良い。フィルター情報変換部1060は、任意のフィルター情報、例えば、HRTFを、サブレンダリング情報又はレンダリング情報を生成するのに適合するように変換する。このフィルター情報の変換過程は、下記のような過程を含むことができる。
先ず、適用するドメインを合わせる過程が含まれる。フィルター情報の持っているドメインとレンダリングの行われるドメインとが一致しない場合、これらのドメインを合わせる過程が必要である。例えば、時間ドメインHRTFを、レンダリング情報が生成されるDFT、QMF又はハイブリッドドメインに変換する過程が必要である。
次に、ドメイン変換されたHRTFを保存し、空間情報に適用するのを容易にするよう、係数減少過程を含むことができる。例えば、プロトタイプHRTFフィルター係数が長いタブ数(長さ)の応答を持つ場合では、5.1チャンネルの場合、合計10個の該当長さだけの応答に対応するメモリーに該当の係数を保存しなければならない。これは、メモリーへの負担とともに演算量を増加させる要因となる。このような問題を防ぐために、ドメイン変換過程でフィルターの特性を維持しながら保存されなければならないフィルター係数については、減少する方法を考慮することができる。例えば、HRTF応答を少数個のパラメータ値に変換することができる。この時、適用されるドメインによってパラメータ生成過程及び値が異なることができる。
ダウンミックス信号は、レンダリング部900でレンダリング情報とレンダリングされる前に、ドメイン変換部1100及び/又はデコリレーティング部1200を通過する。ドメイン変換部1100は、レンダリング情報のドメインとダウンミックス信号のドメインとが異なる場合、両ドメインを一致させるためにダウンミックス信号のドメイン変換を行う。
デコリレーティング部1200は、ドメイン変換されたダウンミックス信号に適用される。レンダリング情報にデコリレータを適用する方法に比べて、ダウンミックス信号に適用するという点で演算量は相対的に高いが、レンダリング情報生成過程で生じる歪曲を防ぐことができる。デコリレーティング部1200は、演算量が許容する範囲でそれぞれ異なる特性を持つ複数のデコリレータ含むことができる。また、デコリレーティング部1200は、ダウンミックス信号がステレオ信号である場合には適用されなくて良い。図3では、ドメイン変換されたモノダウンミックス信号、すなわち、周波数ドメイン、ハイブリッドドメイン、QMFドメイン又はDFTドメインにおけるモノダウンミックス信号がレンダリング過程に用いられる場合、該当のドメインにおけるデコリレータを用いる例を示す。また、本発明は、時間ドメインにおいて用いられるデコリレータも含む。この時は、ドメイン変換部1100以前のモノダウンミックス信号が直接デコリレーティング部1200に入力される。前記デコリレータとして一次以上のIIRフィルター(又は、FIRフィルター)を用いることができる。
その後、レンダリング部900は、ダウンミックス信号、デコリレートされたダウンミックス信号及びレンダリング情報を用いてサラウンド信号を生成する。ダウンミックス信号がステレオ信号である場合、デコリレートされたダウンミックス信号を用いなくて良い。レンダリング過程についての詳細な説明は、後ほど図6〜図9を参照して記述する。サラウンド信号は、逆ドメイン変換部1300で時間ドメインに変換されて出力される。これで、使用者はステレオ信号が聞けるイヤホンなどでマルチチャンネル効果を持つ音を聞くことができる。
図4及び5は、本発明の一実施例によるソースマッピング過程で用いられるチャンネル構成を示す。ソースマッピング過程は、空間情報を用いてオーディオ信号の各ソースに対応するソースマッピング情報を生成する過程である。前述したように、ソースは、チャンネルを含み、図4及び図5に示すチャンネルに対応するようにソースマッピング情報を生成することができる。ソースマッピング情報は、レンダリング過程に適合した形態で生成される。例えば、ダウンミックス信号がモノ信号である場合、CLD1〜CLD5、ICC1〜ICC5などの空間情報を用いてソースマッピング情報を生成することができる。このソースマッピング情報を、D_L(=DL)、D_R(=DR)、D_C(=DC)、D_LFE(=DLFE)、D_Ls(=DLs)、D_Rs(=DRs)などの値で表現することができる。この時、ソースマッピング情報を生成する過程は、空間情報に対応するツリー構造及び使われる空間情報の範囲などによって変化しうる。本明細書ではダウンミックス信号がモノである場合を取り上げて説明するが、本発明がこれに限定されるわけではない。
レンダリング部900から出力された左右チャンネル出力を、下の[数式1]のように表現することができる。
Figure 0004695197
ここで、演算子*は、DFTドメインでは積であり、QMF及び時間ドメインでは畳み込みに置換することができる。本発明は、前記L、C、R、Ls、Rsを、空間情報を用いたソースマッピング情報又は空間情報及びフィルター情報を用いたソースマッピング情報により生成する方法を含む。例えば、ソースマッピング情報を、空間情報のCLDのみを用いて又は空間情報のCLD及びICCを用いて生成することができる。CLDのみを用いてソースマッピング情報を生成する方法は、下記の通りである。ツリー構造が図4のような構造である場合、CLDのみを用いてソースマッピング情報を得る第1方法を、下の[数式2]のように表現することができる。
Figure 0004695197
であり、mはモノダウンミックス信号である。
ツリー構造が図5のような構造である場合、CLDのみを用いてソースマッピング情報を得る第2方法を、下の[数式3]のように表現することができる。
Figure 0004695197
CLDのみを用いてソースマッピング情報を生成する場合、3次元の影響を減少することができる。したがって、ICC及び/又はデコリレータを用いてソースマッピング情報を生成することができる。デコリレータ出力信号dx(m)を用いて生成するマルチチャンネル信号は、以下の[数式4]のように表現されることができる。
Figure 0004695197
ここで、A、B、Cは、CLD及びICCで表現できる値であり、d0〜d3はデコリレータであり、mはモノダウンミックス信号である。この方法はD_L、D_Rなどのソースマッピング情報を生成することができない。
したがって、ダウンミックス信号に対してCLD、ICC及び/又はデコリレータを用いてソースマッピング情報を生成する第1方法は、dx(m)(x=0,1,2)をそれぞれ独立した入力として見なす。この場合、dxを、下記の[数式5]のようにサブレンダリングフィルター情報の生成過程に用いることができる。
Figure 0004695197
レンダリング情報を、上記[数式5]の結果を用いて下記の[数式6]のように生成することができる。
Figure 0004695197
上記レンダリング情報の生成過程についての詳細は、後述される。上記CLD、ICC及び/又はデコリレータを用いてソースマッピング情報を生成する第1方法は、dx出力値、すなわち、dx(m)を独立した入力として処理するので、演算量を増加することができる。
CLD、ICC及び/又はデコリレータを用いてソースマッピング情報を生成する第2方法は、周波数ドメインで適用されるデコリレータを用いる。この場合に、ソースマッピング情報を、下記の[数式7]のように表現することができる。
Figure 0004695197
この場合に、周波数ドメインでデコリレータを適用することによって、デコリレータを適用する前と同じD_L、D_Rなどのソースマッピング情報を生成できるので、簡単に実現可能である。
CLD、ICC及び/又はデコリレータを用いてソースマッピング情報を生成する第3方法は、上記第2方法のデコリレータとして全域通過特性を持つデコリレータを使用する。全域通過特性とは、大きさは一定で、位相変化のみを有することを意味する。また、本発明は、上記第1方法のデコリレータとして全域通過特性を持つデコリレータを使用するものを含む。
CLD、ICC及び/又はデコリレータを用いてソースマッピング情報を生成する第4方法は、上記第2方法でd0〜d3を用いてデコリレーションを行うのではなく、各チャンネル(例えば、L、R、C、Ls、Rs等)に対するそれぞれのデコリレータを使用してデコリレーションを行う。この場合、ソースマッピング情報を、下記の[数式8]のように表現することができる。
Figure 0004695197
ここで、Kは、CLD及びICC値から決定されるデコリレーションされた信号のエネルギー値であり、d_L、d_R、d_C、d_Ls及びd_Rsは、チャンネル別に適用されるデコリレータである。
CLD、ICC及び/又はデコリレータを用いてソースマッピング情報を生成する第5方法は、上記第4方法でd_Lとd_Rとを対称に構成し、d_Lsとd_Rsとを対称に構成することによって、デコリレーション効果を極大化する。すなわち、d_R=f(d_L)、d_Rs=f(d_Ls)といえるので、d_L、d_C及びd_Lsのみを設計すればよい。
CLD、ICC及び/又はデコリレータを用いてソースマッピング情報を生成する第6方法は、上記第5方法でd_Lとd_Lsとが相関関係を持つように構成する。また、d_Lとd_Cも相関関係を持つように構成することができる。
CLD、ICC及び/又はデコリレータを用いてソースマッピング情報を生成する第7方法は、上記第3方法でデコリレータを全域通過フィルターの直列構造又はネスト化された(nested)構造として使用する。この第7方法は、全域通過フィルターが特性上、直列構造で用いられても全域通過の特性が維持され、重複構造で使用されても全域通過の特性が維持されるという点を利用するのである。直列構造又はネスト化された構造で使用される場合、より様々な形態の位相応答(を得ることができるので、デコリレーション効果を極大化させることができる。
CLD、ICC及び/又はデコリレータを用いてソースマッピング情報を生成する第8方法は、従来のデコリレータと上記第2方法の周波数ドメインデコリレータとを共に使用する。この場合、マルチチャンネル信号を、下記の[数式9]のように表現することができる。
Figure 0004695197
この場合に、フィルター係数生成過程は、AがA+Kdに変更される以外は上記第1方法と同様になる。
CLD、ICC及び/又はデコリレータを用いてソースマッピング情報を生成する第9方法は、従来のデコリレータを用いる場合、従来のデコリレータ出力に周波数ドメインデコリレータを適用することによって、さらにデコリレーションされた値を生成する。したがって、周波数ドメインデコリレータが持つ限界を克服しながら、少ない演算量でソースマッピング情報を生成することができる。
上記のCLD、ICC及び/又はデコリレータを用いてソースマッピング情報を生成する第10方法を、下記の[数式10]のように表現することができる。
Figure 0004695197
ここで、di_(m)(i=L、R、C、Ls、Rs)は、iチャンネルに適用されるデコリレータ出力値であり、この出力値を、時間ドメイン、周波数ドメイン、QMFドメイン又はハイブリッドドメインなどで処理することができる。現在のプロセスが進行中のドメインと異なるドメインで処理されたものであれば、当該出力値をドメイン変換を通じて変換することができる。また、演算量減少を目的にd_L、d_R、d_C、d_Ls、d_Rsに同じdを使用することができ、この場合に、上記[数式10]を非常に簡単に表現することができる。
[数式10]を[数式1]に適用すると、上記[数式1]を下記の[数式11]のように表現することができる。
Figure 0004695197
ここで、レンダリング情報HM_Lは、入力mを用いてサラウンド信号Loを作るための空間情報とフィルター情報との組み合わせ値であり、レンダリング情報HM_Rは、入力mを用いてサラウンド信号Roを作るための空間情報とフィルター情報との組み合わせ値である。d(m)は、任意のドメインでデコリレータ出力値を現在のドメインに移した値又は現在のドメインで処理されて生成されたデコリレータ出力値である。レンダリング情報HMD_Lは、デコリレータ出力値であるd(m)がレンダリングされる時、Loに加えられる程度を表す値であり、空間情報とフィルター情報との組み合わせ値である。レンダリング情報HMD_Rは、d(m)がRoに加えられる程度を表す値である。
上記のように、本発明は、モノダウンミックス信号へとレンダリング過程を行うために、空間情報とフィルター情報(例えば、HRTFフィルター係数)とを組み合わせて生成したレンダリング情報をダウンミックス信号及びデコリレートされたダウンミックス信号にレンダリングし、サラウンド信号を生成する方法を提案する。このレンダリング過程は、ドメインによらず行われることができる。d(m)を、周波数ドメインで実行されるd*m(積演算子)で表現することができるならば、[数式11]を、下記の[数式12]のように表現することができる。
Figure 0004695197
このように、周波数ドメインでダウンミックス信号にレンダリング過程を行う場合に、空間情報、フィルター情報及びデコリレータが適宜組み合わせられた値を積の形態で表現することによって、演算量を最小化することができる。
図6及び図7は、本発明の一実施例によるステレオダウンミックス信号に対するレンダリング部の詳細ブロック図である。図6を参照すると、レンダリング部900は、第Aレンダリング部910及び第Bレンダリング部920を含む。ダウンミックス信号がステレオ信号である場合、空間情報変換部1000は、ダウンミックス信号の左及び右チャンネルに適用されるレンダリング情報を生成する。第Aレンダリング部910は、ダウンミックス信号の左チャンネルに対するレンダリング情報を、該ダウンミックス信号の左チャンネルにレンダリングし、サラウンド信号を生成する。第Bレンダリング部920は、ダウンミックス信号の右チャンネルに対するレンダリング情報を、当該ダウンミックス信号の右チャンネルにレンダリングし、サラウンド信号を生成する。これら各チャンネルの名称は例示的なもので、本発明はこれらのチャンネルの名称に制限されない。
また、レンダリング情報は、それぞれのチャンネルから自己チャンネルに伝達されるレンダリング情報と相手側のチャンネルに伝達されるレンダリング情報を含むことができる。例えば、空間情報変換部1000は、ダウンミックス信号の左チャンネルに対するレンダリング部に入力され、自己チャンネル出力である左出力に伝達されるレンダリング情報(HL_L)と、相手側のチャンネルである右出力に伝達されるレンダリング情報(HL_R)とを生成できる。そして、空間情報変換部1000は、ダウンミックス信号の右チャンネルに対するレンダリング部に入力され、自己チャンネル出力である右出力に伝達するレンダリング情報(HR_R)と、相手側のチャンネルである左出力に伝達するレンダリング情報(HR_L)とを生成できる。
図7を参照すると、レンダリング部900は、第1Aレンダリング部911、第2Aレンダリング部912、第1Bレンダリング部921及び第2Bレンダリング部922を含む。このレンダリング部900は、ステレオダウンミックス信号を受信し、空間情報変換部1000からレンダリング情報を受信する。その後、レンダリング部900は、受信したレンダリング情報をステレオダウンミックス信号にレンダリングし、サラウンド信号を生成する。
より詳細には、第1Aレンダリング部911は、ダウンミックス信号の左チャンネルに対するレンダリング情報のうち、自己チャンネルに伝達されるレンダリング情報(HL_L)を用いてレンダリングを行い、第2Aレンダリング部912は、ダウンミックス信号の左チャンネルに対するレンダリング情報のうち、相手側のチャンネルに伝達されるレンダリング情報(HL_R)を用いてレンダリングを行う。また、第1Bレンダリング部921は、ダウンミックス信号の右チャンネルに対するレンダリング情報のうち、自己チャンネルに伝達されるレンダリング情報(HR_R)を用いてレンダリングを行い、第2Bレンダリング部922は、ダウンミックス信号の右チャンネルに対するレンダリング情報のうち、相手側のチャンネルに伝達されるレンダリング情報(HR_L)を用いてレンダリングを行う。以下では、相手側のチャンネルに伝達されるレンダリング情報を「クロスレンダリング情報」という。このクロスレンダリング情報HL_R及びHR_Lは、自己チャンネルに適用された後、加算器で相手側のチャンネルに加えられる。この時、場合によっては、クロスレンダリング情報HL_R及び/又はHR_Lが‘0’になりうる。クロスレンダリング情報HL_R及び/又はHR_Lが‘0’になるというのは、該当のパスに何らの寄与もしないという意味である。
図6及び図7に示すサラウンド信号の生成方法の一例について説明すると、次の通りである。ダウンミックス信号がステレオ信号である場合、ダウンミックス信号をx、空間情報を用いて生成されたソースマッピング情報をD、プロトタイプフィルタ情報をG、マルチチャンネル信号をp、サラウンド信号をyと定義し、これを行列式にすると、下記の[数式13]のように表現することができる。
Figure 0004695197
ここで、各値が周波数ドメインの値であれば、下記のような形態に展開することができる。まず、マルチチャンネル信号pを、下記の[数式14]のように、空間情報を用いて生成されたソースマッピング情報Dとダウンミックス信号xとの積で表すことができる。
Figure 0004695197
そして、サラウンド信号yを、下記の[数式15]のように、マルチチャンネル信号pにプロトタイプフィルタ情報Gをレンダリングして生成することができる。
Figure 0004695197
ここで、pに[数式14]を代入すると、下記の[数式16]を生成することができる。
Figure 0004695197
この時、レンダリング情報HをH=GDと定義すると、サラウンド信号yとダウンミックス信号xは、下記の[数式17]のような関係を持つ。
Figure 0004695197
したがって、フィルター情報とソースマッピング情報間の積を処理することによってレンダリング情報Hを生成した後、ダウンミックス信号xにレンダリング情報Hを乗じ、サラウンド信号yを生成できる。
レンダリング情報Hに関する上記定義によると、レンダリング情報Hを、下記の[数式18]のように表現することができる。
Figure 0004695197
図8及び9は、本発明の一実施例によるモノダウンミックス信号に対するレンダリング部の詳細ブロック図である。図8を参照すると、レンダリング部900は、第Aレンダリング部930及び第Bレンダリング部940を含む。ダウンミックス信号がモノ信号である場合、空間情報変換部1000は、モノ信号を左チャンネルにレンダリングするのに使用するレンダリング情報HM_Lとモノ信号を右チャンネルにレンダリングするのに使用するレンダリング情報HM_Rを生成する。第Aレンダリング部930は、レンダリング情報HM_Lをモノダウンミックス信号に適用して左チャンネルのサラウンド信号を生成し、第Bレンダリング部940は、レンダリング情報HM_Rをモノダウンミックス信号に適用して右チャンネルのサラウンド信号を生成する。レンダリング部900は、デコリレータが用いられない場合を取り上げるが、第Aレンダリング部930及び第Bレンダリング部940がそれぞれ、[数式12]で定義したレンダリング情報HMoverall_R及びHMoverall_Lを用いてレンダリングを行うと、デコリレータの適用された形態の出力を得ることができる。
一方、モノダウンミックス信号への上記のレンダリング後の出力信号を、サラウンド信号ではなくステレオ信号のような形態の出力としたい場合には、次のような2通りの方法が可能である。その一つは、レンダリング部900でサラウンド効果のためのレンダリング情報を使用するのではなく、ステレオ出力時に使用する値を用いる方法である。この場合に、図3に示す構造でレンダリング情報のみを変更し、ステレオ信号を得ることができる。もう一つは、ダウンミックス信号及び空間情報を用いてマルチチャンネル信号を生成するデコーディング過程で、所望のチャンネル数を得るために該当の段階までのみ復号化を進行することによってステレオ信号を得る方法である。
図9を参照すると、レンダリング部900は、デコリレートされた信号が一つで表現された場合、すなわち、[数式11]に対応する。このレンダリング部900は、第1Aレンダリング部931、第2Aレンダリング部932、第1Bレンダリング部941及び第2Bレンダリング部942を含む。レンダリング部900は、デコリレートされた信号に対するレンダリング部941,942を含む以外は、ステレオダウンミックス信号に対するレンダリング過程と略同様である。ステレオダウンミックス信号である場合は、2信号間デコリレーションが行われたものと解析できるので、別のデコリレータを必要とせず、上に定義したHL_L、HL_Rなどの4つのレンダリング情報を用いてレンダリング過程を行うことができる。特に、第1Aレンダリング部931は、レンダリング情報HM_Lをモノダウンミックス信号に適用し、自己チャンネルに伝達される信号を生成し、第2Aレンダリング部932は、レンダリング情報HM_Rをモノダウンミックス信号に適用し、相手側のチャンネルに伝達される信号を生成する。また、第1Bレンダリング部941は、レンダリング情報HMD_Rをデコリレートされた信号に適用し、自己チャンネルに伝達される信号を生成し、第2Bレンダリング部942は、レンダリング情報HMD_Lをデコリレートされた信号に適用し、相手側のチャンネルに伝達される信号を生成する。
ダウンミックス信号がモノ信号である場合、ダウンミックス信号をxと定義し、空間情報を用いたソースチャンネル情報をDと定義し、プロトタイプフィルタ情報をGと定義し、マルチチャンネル信号をpと定義し、サラウンド信号をyと定義し、これを行列式にすると、下記の[数式19]のように表現することができる。
Figure 0004695197
ここで、各行列式の関係は、ダウンミックス信号がステレオ信号である場合と類似しているので、具体的な説明は省略する。
図4及び5を参照して説明したソースマッピング情報及び/又は該ソースマッピング情報を用いて生成されたレンダリング情報は、周波数バンド別、パラメータバンド別及び/又は転送されたタイムスロット別に異なる値を持つ。この時、隣接するバンド間及び境界となるタイムスロット間においてソースマッピング情報及び/又はレンダリング情報の値に大きく差が出る場合、レンダリング過程で歪曲が発生しうる。この歪曲を防ぐためには、周波数及び/又は時間ドメインでの平滑化過程が必要である。周波数ドメインでの平滑化及び/又は時間ドメインでの平滑化の他に、レンダリングに適合する他の平滑化方法を用いることができる。また、ソースマッピング情報及び/又はレンダリング情報のそれぞれに特定ゲインを生じた値を用いることができる。
図10及び図11は、本発明の一実施例による平滑化部及び拡張部が適用される位置を示すブロック図である。図10及び図11に示すように、本発明による平滑化方法を、レンダリング情報及び/又はソースマッピング情報に適用することができるが、他の形態の情報にも適用することができる。以下では、周波数ドメインでの平滑化について説明するが、本発明は、上記周波数ドメインでの平滑化に制限されず、時間ドメインでの平滑化も含む。
図10及び図11を参照すると、平滑化部1042は、レンダリング情報及び/又はソースマッピング情報への平滑化を行うことができる。この平滑化が起きる位置の詳細例は、図18〜図20を参照して後ほど説明する。平滑化部1042は、平滑化されたレンダリング情報及び/又はソースマッピング情報を、パラメータバンドよりも広い範囲、例えば、フィルターバンドに拡張する拡張部1043と共に構成することができる。例えば、ソースマッピング情報は、サブレンダリング情報生成部1020でフィルター情報(例えば、HRTFフィルター係数)に乗じられるために、当該フィルター情報に対応する周波数解像度(例えば、フィルターバンド)に拡張することができる。本発明による平滑化を、前述した拡張前に行ない又は拡張と共に行うことができる。この拡張と共に使われる平滑化としては、図12〜図16に示す方法を用いることができる。
図12は、本発明の一実施例による第1平滑化方法を説明するグラフである。この第1平滑化方法は、周波数ドメインで直接平滑化を行わず、各パラメータバンドでの空間情報と同じ大きさの値を使用する。この時、適当な平滑化関数を用いて平滑化効果を得ることができる。
図13は、本発明の一実施例による第2平滑化方法を説明するグラフである。この第2平滑化方法は、各パラメータバンドの代表位置間を連結して平滑化効果を得る。この代表位置は、各パラメータバンドの真中央であるか、ログスケール(log scale)/バークスケール(bark scale)などに比例した中心位置、最も低い周波数値又は他の方法によりあらかじめ定められた位置になりうる。
図14は、本発明の一実施例による第3平滑化方法を説明するグラフである。この第3平滑化方法は、各パラメータの境界を滑らかにつなぐ曲線(又は、直線)の形態で平滑化を行う。この時、第3平滑化方法は、あらかじめ定められた境界平滑化曲線又は一次以上のIIRフィルター(又は、FIRフィルター)によるローパスフィルターリングを用いることができる。
図15は、本発明の一実施例による第4平滑化方法を説明するグラフである。この第4平滑化方法は、ランダムノイズのような信号を空間情報輪郭線に加えることによって平滑化効果を得る。ランダムノイズは、チャンネル別及び帯域別に異なる値を使用することができる。周波数ドメインでランダムノイズを加える場合、位相値はそのままとし、大きさ値のみを合算することができる。この第4平滑化方法によれば、周波数ドメインでの平滑化効果だけでなく、各チャンネル間のデコリレーション効果も得ることができる。
図16は、本発明の一実施例による第5平滑化方法を説明するグラフである。この第5平滑化方法は、上記第2平滑化方法乃至第4平滑化方法を組み合わせて用いるものである。例えば、各パラメータバンドの代表位置を連結した後に、ランダムノイズを加え、ローパスフィルターリングを適用することができる。この時、順序を変えることができる。この第5平滑化方法によれば、周波数ドメインでの不連続点は最小化し、チャンネル間のデコリレーション効果は向上するという結果を得ることができる。上記第1平滑化方法乃至第5平滑化方法において、各チャンネル別各周波数ドメインにおける空間情報(例えば、CLD)値に対するパワー(power)の和は定数と一定になる必要がある。このためには、各チャンネル別に上記平滑化方法を行った後、パワー正規化(power normalization)過程を行う必要がある。例えば、ダウンミックス信号がモノ信号である場合、各チャンネルのレベル値は、下記の[数式20]の関係を満足しなければならない。
Figure 0004695197
ここで、pb=0〜全体パラメータバンド数−1であり、Cは任意の定数である。
図17は、各チャンネル別プロトタイプフィルタ情報を説明するための図である。レンダリングのために、左チャンネルソースに対してGL_Lフィルターを通過した信号は左出力に送られ、GL_Rフィルターを通過した信号は右出力に送られる。その後、左最終出力(例えば、Lo)及び右最終出力(例えば、Ro)は、各チャンネルから受信した信号を全部合わせて生成される。特に、レンダリングされた左/右チャンネル出力を、下記の[数式21]のように表現することができる。
Figure 0004695197
本発明では、空間情報を用いてダウンミックス信号をマルチチャンネル信号に復号化して生成されたL、R、C、Ls、Rsを用いて、レンダリングされた左/右チャンネル出力を生成し、空間情報及びフィルター情報を用いて生成されたレンダリング情報を用いて、L、R、C、Ls、Rsを生成することなくレンダリングされた左/右チャンネル出力を生成することができる。空間情報を用いたレンダリング情報の生成過程について、図18〜図20を参照して説明する。
図18は、本発明の一実施例による空間情報変換部900でレンダリング情報を生成する第1方法を示すブロック図である。前述のように、空間情報変換部900は、ソースマッピング部1010、サブレンダリング情報生成部1020、統合部1030、プロセシング部1040及びドメイン変換部1050を含む。空間情報変換部900は、図3に示すものと同一である。ここで、サブレンダリング情報生成部1020は、一つ以上のサブレンダリング情報生成部(第1サブレンダリング情報生成部、第2サブレンダリング情報生成部、…、第Nサブレンダリング情報生成部)を含む。
サブレンダリング情報生成部1020は、空間情報を用いて生成されたソースマッピング情報及びフィルター情報を用いてサブレンダリング情報を生成する。例えば、ダウンミックス信号がモノ信号である場合、第1サブレンダリング情報生成部は、マルチチャンネル上の左チャンネルに対応するサブレンダリング情報を生成できる。このサブレンダリング情報を、ソースマッピング情報D_L及び変形されたフィルター情報GL_L’及びGL_R’を用いて下記の[数式22]のように表現することができる。
Figure 0004695197
ここで、D_Lは、ソースマッピング部1010で空間情報を用いて生成された値である。ただし、D_Lを生成する過程は、ツリー構造によって異なることができる。第2サブレンダリング情報生成部は、マルチチャンネル上の右チャンネルに対応するサブレンダリング情報FR_L及びFR_Rを生成でき、第Nサブレンダリング情報生成部は、マルチチャンネル上の右サラウンドチャンネルに対応するサブレンダリング情報FRs_L及びFRs_Rを生成することができる。
ダウンミックス信号がステレオ信号である場合、第1サブレンダリング情報生成部は、マルチチャンネル上の左チャンネルに対応するサブレンダリング情報を生成できる。このサブレンダリング情報は、ソースマッピング情報D_L1、D_L2を用いて下記の[数式23]のように表現することができる。
Figure 0004695197
ここで、FL_R1を取り上げて[数式23]を説明すると、FL_R1で、Lはマルチチャンネルの位置を表し、Rはサラウンド信号の出力チャンネルを表し、1はダウンミックス信号のチャンネルを表す。すなわち、FL_R1は、ダウンミックス信号の左チャンネルからサラウンド信号の右出力チャンネルを生成するのに用いられるサブレンダリング情報を表す。D_L1、D_L2は、ソースマッピング部1010で空間情報を用いて生成された値である。ダウンミックス信号がステレオ信号である場合、ダウンミックス信号がモノ信号である場合と同じ方法で1つ以上のサブレンダリング情報生成部で複数のサブレンダリング情報を生成することができる。複数のサブレンダリング情報生成部が生成するサブレンダリング情報の種類は例示的なもので、これらのサブレンダリング情報の種類に本発明が制限されることはない。
サブレンダリング情報生成部1020で生成されたサブレンダリング情報は、統合部1030、プロセシング部1040及びドメイン変換部1050を経てレンダリング部900に転送される。統合部1030は、チャンネル別に生成されたサブレンダリング情報を統合して、レンダリング過程のためのレンダリング情報(例えば、HL_L、HL_R、HR_L、HR_R)にする。この統合部1030での統合過程を、ダウンミックス信号がモノ信号である場合とステレオ信号である場合とに分けて説明すると、次の通りである。ダウンミックス信号がモノ信号である場合、レンダリング情報を、下記の[数式24]のように表現することができる。
Figure 0004695197
ダウンミックス信号がステレオ信号である場合、レンダリング情報を、下記の[数式25]のように表現することができる。
Figure 0004695197
その後、プロセシング部1040は、補間部1041及び/又は平滑化部1042を含み、当該レンダリング情報に補間及び平滑化を行うことができる。この補間及び平滑化を、時間ドメイン、周波数ドメイン又はQMFドメインで行うことができる。本明細書は、時間ドメインを挙げて記述しているが、この時間ドメインに本発明が限定されることはない。
補間は、転送されたレンダリング情報が時間ドメインで広い間隔を有する場合、これらレンダリング情報間に存在しないレンダリング情報を得るために行われる。例えば、n番目のタイムスロットとn+k番目のタイムスロットでレンダリング情報が存在するとする時(k>1)、生成されたレンダリング情報(例えば、HL_L、HR_L、HL_R、HR_R)を用いて、転送されなかったタイムスロット上で線形補間を行うことができる。補間によって生成されたレンダリング情報は、ダウンミックス信号がモノ信号である場合とステレオ信号である場合とに分けて説明すると、次の通りである。ダウンミックス信号がモノ信号である場合、補間されたレンダリング情報を、下記の[数式26]のように表現することができる。
Figure 0004695197
ダウンミックス信号がステレオ信号である場合、補間されたレンダリング情報を、下記の[数式27]のように表現することができる。
Figure 0004695197
ここで、0<j<kであり、j、kはそれぞれ整数であり、aは0<a<1の実数でであり、下記の[数式28]のように表現することができる。
Figure 0004695197
上記[数式27]又は[数式28]によって2つのタイムスロットにおける値を直線で連結した線上で、転送されなかったタイムスロットに対応する値を得ることができる。補間についての詳細は、図22及び図23を参照して後述する。
時間ドメインにおいて隣接するタイムスロット間でフィルター係数値が急に変化する場合、平滑化部1042は、不連続点が発生して歪曲を招くという問題を防ぐために平滑化を行う。時間ドメイン上の平滑化を、図12〜図16を参照して記述した平滑化方法によって行うことができる。また、この平滑化を拡張とともに行うことができ、適用される位置によって平滑化方法を異ならせることができる。ダウンミックス信号がモノ信号である場合、時間ドメイン平滑化を、下記の[数式29]のように表現することができる。
Figure 0004695197
すなわち、以前のタイムスロット(n−1)で平滑化処理されたレンダリング情報HM_L(n−1)'又はHM_R(n−1)'に(1−b)を乗じ、現在タイムスロット(n)で生成されたレンダリング情報HM_L(n)又はHM_R(n)にbを乗じ、これらを合算することによって、1−pole IIRフィルター形態の平滑化を行うことができる。ここで、bは、0<b<1の定数値であり、b値が小さいほど平滑化効果が大きくなり、b値が大きいほど平滑化効果は小さくなる。また、残りのフィルターも同じ方法で適用することができる。
上記時間ドメイン平滑化に対する[数式29]を用いることによって、下記の[数式30]のように表現されるように補間及び平滑化を一つの式にすることができる。
Figure 0004695197
補間部1041及び/又は平滑化部1042で補間及び/又は平滑化を行うと、プロトタイプレンダリング情報が持つエネルギーと異なるエネルギー値を持つレンダリング情報を得ることができる。このような問題を防止するためのエネルギー正規化をさらに行うことができる。
ドメイン変換部1050は、レンダリングを行うためのドメインに対してレンダリング情報のドメイン変換を行う。レンダリングを行うためのドメインとレンダリング情報の適用ドメインとが同じ場合には、ドメイン変換を行わなくて良い。その後、ドメイン変換されたレンダリング情報は、レンダリング部900に転送される。
図19は、本発明の一実施例による空間情報変換部でレンダリング情報を生成する第2方法を示すブロック図である。この第2方法は、空間情報変換部1000が、ソースマッピング部1010、サブレンダリング情報生成部1020、統合部1030、プロセシング部1040及びドメイン変換部1050を含み、サブレンダリング情報生成部1020は、一つ以上のサブレンダリング情報生成部を含むという点で、レンダリング情報を生成する上記第1方法と類似している。
図19を参照すると、レンダリング情報を生成する第2方法とレンダリング情報を生成する第1方法との差異は、プロセシング部1040の位置にある。したがって、サブレンダリング情報生成部1020で各チャンネル別に生成されたサブレンダリング情報(例えば、モノ信号である場合はFL_L、FL_R、ステレオ信号である場合はFL_L1、FL_L2、FL_R1、FL_R2)に対してチャンネル別に補間及び/又は平滑化を行うことができる。その後、統合部1030は、補間及び/又は平滑化の行われたサブレンダリング情報を統合し、レンダリング情報を生成する。生成されたレンダリング情報は、ドメイン変換部1050を経てレンダリング部900に転送される。
図20は、本発明の一実施例による空間情報変換部1000でレンダリング情報を生成する第3方法を示すブロック図である。この第3方法は、空間情報変換部1000が、ソースマッピング部1010、サブレンダリング情報生成部1020、統合部1030、プロセシング部1040及びドメイン変換部1050を含み、サブレンダリング情報生成部1020は、一つ以上のサブレンダリング情報生成部を含むという点で、レンダリング情報を生成する上記第1方法及び第2方法と似ている。
図20を参照すると、レンダリング情報を生成する第3方法とレンダリング情報を生成する第1方法及び第2方法との差異は、プロセシング部1040がソースマッピング部1010の次に位置するということにある。したがって、ソースマッピング部1010で空間情報を用いて生成されたソースマッピング情報を、それぞれのチャンネル別に補間及び/又は平滑化が行うことができる。その後、サブレンダリング情報生成部1020は、補間及び/又は平滑化されたソースマッピング情報及びフィルター情報を用いてサブレンダリング情報を生成する。これらサブレンダリング情報は、統合部1030で統合されてレンダリング情報となり、ドメイン変換部1050を経てレンダリング部900に転送される。
図21は、本発明の一実施例によるレンダリング過程で行われるレンダリング情報処理方法を示す。図21は、DFTドメインでレンダリング過程を行う場合を示すが、他のドメインでも類似な方法で具現されることができる。また、図21は、入力信号がモノダウンミックス信号である場合を示すが、ステレオダウンミックス信号などの他の入力チャンネルにも同じ方法で適用可能である。
図21を参照すると、時間ドメインのモノダウンミックス信号は、ドメイン変換部でオーバーラップ区間OLを持つウィンドイングをまず行う。図21は、50%オーバーラップを使用した場合を示すが、本発明は他のオーバーラップを使用した場合も含む。このウィンドイングを行う窓関数は、時間ドメインで不連続が発生せずにシームレス連結されながら、DFTドメインの周波数選択性に優れた関数を用いることができる。例えば、窓関数としてサイン二乗窓関数を使用することができる。その後、ウィンドイングによって得られた長さOL*2のモノダウンミックス信号は、ドメイン変換部で変換されたレンダリング情報HL_L'を用いるレンダリングフィルターのタブ長さだけ(正確にはタブ長さ−1)のゼロパッディングZLをした後、DFTドメインへとドメイン変換を行う。図20は、kブロックダウンミックス信号がDFTドメインへとドメイン変換されたものを示す。
ドメイン変換されたダウンミックス信号は、レンダリング部でレンダリング情報を用いるレンダリングフィルターによりレンダリングされる。このレンダリング過程を、周波数ドメインでダウンミックス信号とレンダリング情報との積で表現することができる。レンダリングされたダウンミックス信号は、逆ドメイン変換部でIDFT(離散逆フーリエ変換)を行った後、以前に長さOLの遅延で実行されたダウンミックス信号(図20で、k−1ブロック)にオーバーラップし、サラウンド信号を生成する。このようなレンダリング過程が行われる各ブロックで補間を行うことができるが、以下、この補間方法について説明する。
図22は、本発明の一実施例による第1補間方法を示す。本発明による補間を、様々な位置で行うことができる。例えば、図18〜図20に示す空間情報変換部内の様々な位置で行うことができ、レンダリング部でも行うことができる。補間される値は、空間情報、ソースマッピング情報、レンダリング情報、フィルター情報などになりうる。本明細書では、空間情報を基準に説明されるが、この空間情報に本発明が限定されるわけではない。また、補間を、より広いバンドに拡張された後又はより広いバンドに拡張されるのと共に行うことができる。
図22を参照すると、符号化装置から転送される空間情報を、タイムスロットごとに転送するのではなく、任意の位置で転送することができる。一つの空間フレームには複数の空間情報セット(例えば、図22のパラメータセットn、n+1)を転送することができ、ビットレートが低い場合には、一つの空間フレームに一つの新しい空間情報セットを転送することができる。したがって、転送されないタイムスロットに対しては隣接する転送された空間情報セットの値を用いて補間を行う。レンダリングを行うウィンド間の間隔はタイムスロットと常に一致するのではないので、図22のようにレンダリング窓(K−1、K、K+1、K+2等)の中央における補間値を探し、この値を用いることができる。図22は、空間情報セットが存在するタイムスロット間を線形補間する場合を示すが、この補間方法に本発明が限定されことはない。例えば、空間情報セットが存在しないタイムスロットは、補間をせず、以前の値を使用し又はあらかじめ定められた値を使用することができる。
図23は、本発明の一実施例による第2補間方法を示す。図23を参照すると、第2補間方法は、以前の値を使用する区間、あらかじめ定められたデフォルト値を使用する区間などを組み合わせた形態である。例えば、一つの空間フレームの一定区間で以前の値を維持する方法、あらかじめ定められたデフォルト値を使用する方法及び線形補間を行う方法のうち少なくとも一つを使用し、補間を行うことができる。一つの窓に二つ以上の新しい空間情報セットが存在する場合には歪曲が生じうるが、この歪曲を防止するためのブロックスイッチングについて以下に説明する。
図24は、本発明の一実施例によるブロックスイッチングを示す図である。図24の(a)に示すように、窓長さがタイムスロットの長さよりも大きいので、一つの窓区間に二つ以上の空間情報セット(例えば、図24のパラメータセットn、n+1)が存在する場合がありうる。この場合に、それぞれの空間情報セットを、それぞれ異なるタイムスロットに適用する必要があり、二つ以上の空間情報セットを補間した一つの値が適用されると、歪曲の発生につながることがある。すなわち、窓長さによる時間解像度不足による歪曲が発生することがある。
この問題を解決するために、窓の大きさをタイムスロットの解像度に合うように可変にする切替方法を使用することができる。例えば、図24の(b)に示すように、高い解像度が要求される区間では、より短い長さの窓を使用するように切り替えることができる。この時、切り替えられた窓の時間ドメインで継ぎ目が生じないように、切り替えられる部分の開始部及び終了部には連結形態の窓を使用する。この窓長さを、別の付加情報として転送するのではなく、復号化装置で空間情報を用いて決定することができる。例えば、空間情報が更新されるタイムスロットの間隔を用いて窓長さを決定することができる。すなわち、前記空間情報の更新される間隔が狭いと、短い長さの窓関数を用い、空間情報の更新される間隔が広いと、長い長さの窓関数を用いることができる。この場合、レンダリング時に可変窓を使用することによって、窓長さ情報を別途に送るのに必要なビットを使用しなくて済むという長所がある。また、図24の(b)に示すように、窓長さは単に2種類のみ使用するのではなく、空間情報の転送頻度及び関係によって様々な長さの窓を使用することができる。決定された窓長さ情報は、サラウンド信号を生成する様々な段階に適用されることができるが、この窓長さ情報が適用される段階について以下に説明する。
図25は、本発明の一実施例による窓長さ決定部で決定された窓長さが適用される位置を示すブロック図である。図25を参照すると、窓長さ決め部1400は、空間情報を用いて窓長さを決定することができる。決定された窓長さに関する情報は、ソースマッピング部1010、統合部1030、プロセシング部1040、ドメイン変換部1050、1100、逆ドメイン変換部1300に適用されることができる。図25は、ステレオダウンミックス信号が用いられる場合を示すが、このステレオダウンミックス信号に本発明が制限されることはない。上記のように、窓の長さを短くするとしても、フィルターのタブ数によって決定されるゼロパッディングの長さは調節されないという問題点がある。以下、この問題点の解決方法について説明する。
図26は、本発明の一実施例による様々な長さを持つフィルター処理方法を示す図である。前述のように、フィルターのタブ数によって決定されるゼロパッディングの長さが調節されない場合、実際に該当の長さだけの重複が発生し、依然として時間解像度が不足するという問題点が生じうる。この問題点の解決方法は、短い長さの窓を使用する場合、フィルタータブの長さを制限し、ゼロパッディングの長さを短くすることである。このゼロパッディングの長さを短くする方法は、フィルター応答の後部分(例えば、残響に対応する拡散区間)を切り捨てることによって実現可能である。この場合、たとえフィルター応答の後部分を切り捨てない場合に比べて不正確なレンダリング過程となるが、時間ドメインでのフィルター係数値は非常に小さな値で、主として残響に影響を与えるから、省略しても音質に大きな差はない。
図26を参照すると、4種類のフィルターが用いられることができる。4種類のフィルターを、DFTドメインで用いることができるが、本発明が、DFTドメインで用いられるフィルターに限定されるわけではない。N1フィルターは、長いフィルター長(FL)及びフィルタータブ数を制限しない長いゼロパッディングの長さ(2*OL)を持つフィルターを表す。N2フィルターは、N1フィルターとフィルター長(FL)は同一であるが、フィルターのタブ数を制限し、ゼロパッディングの長さ(2*OL')が短いフィルターを表す。N3フィルターは、N1フィルターに比べてフィルター長(FL')は短いが、フィルターのタブ数を制限せず、ゼロパッディングの長さ(2*OL)は長いフィルターを表す。N4フィルターは、N1フィルターと比べてウィンド長(FL')も短く、フィルターのタブ数を制限してゼロパッディングの長さ(2*OL')も短いフィルターを表す。本発明は、上記例示された4種類のフィルターを用いて時間解像度問題を解決することができる。また、フィルター応答の後部分に対して、ドメイン別に異なるフィルター係数を用いることができる。
図27は、本発明の一実施例による複数個のサブフィルターでオーディオ信号を処理する方法を示す。一つのフィルターを、異なるフィルター係数を持つサブフィルターに分離することができる。サブフィルターを用いてオーディオ信号を処理した後、処理結果を加える方法が用いられることができる。エネルギーの小さいフィルター応答の後部分に空間情報を適用する場合、すなわち、長いフィルタータブを持つレンダリングをする場合、定められた長さ単位にオーディオ信号を分割して処理する機能を提供する。例えば、フィルター応答の後部分は、各チャンネルに対応するHRTF別に大きく変化しない部分であるので、複数の窓に対する共通の係数を抽出してレンダリングすることができる。本明細書では、DFTドメインで実施される場合について説明するが、本発明はDFTドメインに限定されない。
図27を参照すると、一つのフィルター(FL)を複数個のサブ領域に分離した後、それぞれのサブ領域を、異なるフィルター係数を持つ複数個のサブフィルター(フィルターA及びフィルターB)で処理することができる。その後、フィルターAで処理された出力及びフィルターBで処理された出力を互いに結合する。例えば、フィルターAで処理された出力及びフィルターBで処理された出力のそれぞれに対してIDFT(離散逆フーリエ変換)をし、時間ドメインの信号を生成した後、それぞれの信号は互いに加えられる。この時、フィルターBにより処理された出力は、フィルターAにより処理された出力に比べてFL'だけ時間遅延された位置に加えられる。このように複数のサブフィルターで処理された信号は、一つのフィルターで処理される場合と同じ効果を得ることができる。また、本発明は、フィルターBで処理された出力を別途にダウンミックス信号にレンダリングする方法を含む。この時、空間情報から抽出された係数などを用いたり、空間情報を部分的に用いたり、又は、空間情報を用いず、直接ダウンミックス信号に対する出力にレンダリングすることができる。
上記方法は、フィルターのタブ数(長さ)が長い場合にこれを分割して適用でき、エネルギーの小さい後部分は、空間情報を用いた変換を行うことなく適用できるという特徴を持つ。この時、空間情報を用いた変換を行わない場合、処理された窓ごとに異なるフィルターを適用するのではないので、ブロックスイッチングのような手法を適用しなくてもよい。図26では、2個のドメインに分割する場合を示すが、本発明はこれに限定されず、複数個の領域に分割しても良い。
図28は、本発明の一実施例による複数個のサブフィルターを用いてフィルター係数をモノダウンミックス信号に分割レンダリングする方法を示す。図28は、一つのレンダリング係数に関連する。この方法を、レンダリング係数別に行う。図28を参照すると、図27のフィルターA情報が第1分割レンダリング情報HM_L_Aに該当し、図27のフィルターB情報が第2分割レンダリング情報HM_L_Bに該当する。図28は、二つのサブフィルターに分割して行われる実施例を示すが、二つのサブフィルターに本発明が限定されるわけではない。二つのサブフィルターは、空間情報変換部1000で生成されたレンダリング情報HM_Lを用い、二つのサブフィルターを、分配器1500を介して得ることができる。二つのサブフィルターを、プロトタイプHRTF情報又は使用者の選択によって決定された情報を用いて得ることができる。使用者の選択によって決定された情報は、例えば、使用者の好みによって選択された空間情報になりうる。ここで、HM_L_Aは、受信した空間情報に基づいたレンダリング情報であり、HM_L_Bを、信号に共通して適用される空間感を与えるためのレンダリング情報と見なすことができる。
前述のように、複数個のサブフィルターでの処理は、DFTドメインの他に時間及びQMFドメインでも適用されることができる。すなわち、フィルターAとフィルターBに分離された係数値がそれぞれ、時間又はQMFドメインレンダリングを通じてダウンミックス信号に適用された後に加えられて、最終信号を生成することができる。レンダリング部900は、第1分割レンダリング部950及び第2分割レンダリング部960を含み、第1分割レンダリング部950はHM_L_Aを用いてレンダリング過程を行い、第2分割レンダリング部960はHM_L_Bを用いてレンダリング過程を行う。
図27のように、フィルターA及びフィルターBが時間的に従った同一フィルターの分割である場合、当該時間間隔に対応する適切な遅延を反映することができる。図28は、モノダウンミックス信号である場合を取り上げているが、モノダウンミックス信号であり且つデコリレータ使用する場合、フィルターBに該当する部分はデコリレータに適用せず、直接モノダウンミックス信号にのみ適用することも可能である。
図29は、本発明の一実施例による複数個のサブフィルターを用いてフィルター係数をステレオ信号に分割レンダリングする方法のブロック図である。図29に示す分割レンダリング過程は、二つのサブフィルターを、空間情報変換部1000で生成されたレンダリング情報、プロトタイプHRTFフィルター情報又は使用者決定情報を用いて分配器1500を介して得ることができるという点で、図28と似ている。ただし、図28と違い、フィルターBに対応する分割レンダリング過程がL/R信号に共通して適用される。すなわち、分配器1500でフィルターA情報に該当する第1分割レンダリング情報、第2分割レンダリング情報及びフィルターB情報に該当する第3分割レンダリング情報が生成される。この時、第3分割レンダリング情報を、L/R信号に共通して適用されうるフィルター情報又は空間情報を用いて生成することができる。図29を参照すると、レンダリング部900は、第1分割レンダリング部970、第2分割レンダリング部980及び第3分割レンダリング部990を含む。第3分割レンダリング情報は、第3分割レンダリング部990でL/R信号の和信号に適用されて一つの出力信号を生成する。その後、第1分割レンダリング部970及び第2分割レンダリング部980で、フィルターA1及びA2によりそれぞれ独立してレンダリングされたL/R出力信号に加えられ、サラウンド信号を生成する。この時、第3分割レンダリング部990の出力信号を、適切な遅延後に加えることができる。図29では便宜上、L/R入力から相手側のチャンネルに適用されるクロスレンダリング情報の表現を省略した。
図30は、本発明の一実施例によるダウンミックス信号の第1ドメイン変換方法のブロック図である。以上ではDFTドメインで行われるレンダリング過程について説明した。前述のように、レンダリング過程を、DFTドメインだけでなく、他のドメインでも行うことができるが、図30は、DFTドメインで行われるレンダリング過程を示す。ドメイン変換部1100は、QMF及びDFTフィルターを含み、逆ドメイン変換部1300は、IDFT及びIQMFフィルターを含む。図30は、モノダウンミックス信号に対して示すが、本発明はこれに制限されない。
図30を参照すると、Pサンプルの時間ドメインダウンミックス信号がQMFフィルターを通過すると、P個のサブバンドサンプルが生成される。バンド別に再びW個のサンプルを集めてウィンドイングを行った後、ゼロパッディングしてM−ポイントDFT(FFT)を行う。この時のDFTは、前述した形態のウィンドイングによる処理が可能である。M−ポイントDFTを介して得られるバンド別M/2個の周波数ドメイン値を再びPバンドに連結した値は、M/2*P−ポイントDFTを介して得た周波数スペクトルの近似値と見ることができる。したがって、M/2*P−ポイントDFTドメインで表現されたフィルター係数を周波数スペクトルに乗じると、前述のDFTドメインにおけるレンダリング過程と同じ効果が得られる。
この時、QMFフィルターを通過した信号は、隣接するバンド間に漏洩(leakage)、例えば、エイリアシングを有する。すなわち、現在のバンドに隣接するバンドに該当する値がしみ込んでおり、現在のバンドに存在する値の一部は隣接するバンドを超えている状態が存在する。この状態でQMF統合を行うとQMFの特性によって元の信号が復元されるが、本発明のように、該当バンドの信号にフィルターリングなどの処理を行うと、漏洩の影響で信号に歪曲が発生する。このような問題を最小化するために、ドメイン変換部1100でQMF後に各バンド別DFTを行う前に、最小漏洩バタフライBを通過させ、逆ドメイン変換部1300でIDFT後にその逆過程Cを行い、元の信号を復元する処理をすることができる。
一方、空間情報変換部1000で生成されるレンダリング情報の生成過程をダウンミックス信号の生成過程と一致させるために、はじめからM/2*P−ポイントDFTを行うのではなく、プロトタイプフィルタ情報に対するQMF通過信号をDFTして処理する方法も可能である。この場合には、QMFフィルターによる遅延及びデータ広がりが存在しうる。
図31は、本発明の一実施例によるダウンミックス信号の第2ドメイン変換を示すブロック図である。図31は、QMFドメインで行われるレンダリング過程を示す。ドメイン変換部1100はQMFドメイン変換部を含み、逆ドメイン変換部1300はIQMFを含む。図31は、ドメイン変換部がQMFフィルターである以外は、処理構造がDFTのみを用いる場合と同一である。以下、QMFは、同じ帯域幅を持つQMF及びハイブリッドQMFを含むQMFとする。DFTのみを利用する場合との差異は、レンダラーM3012で行われるレンダリング過程がQMFドメインで実施されるので、レンダリング情報の生成もQMFドメインで行われ、レンダリング過程がDFTドメインでのように積で表現されず、畳み込みで表現されるという点である。
QMFフィルターがB個のバンドを持つとすれば、フィルター係数を、B個のバンドに対してそれぞれ異なる特性(異なる係数値)を持つフィルター係数の集合で表現することができる。場合によって、フィルターのタブ数が1次になる場合(すなわち、定数が乗じられる場合)、B個周波数スペクトルを持つDFTドメインでのレンダリング過程と演算処理が一致する。下記の[数式31]は、HM_Lレンダリング情報を用いてレンダリング過程が行われる一つの経路に対し、一つのQMFバンド(b)で行われるレンダリング過程を表す。
Figure 0004695197
ここで、kは、QMFバンドでの時間順序、すなわち、タイムスロット単位を意味する。このQMFドメインで行われるレンダリング過程は、実際転送された空間情報がQMFドメインで適用可能な値である場合、該当のデータを最も適用しやすく、適用過程における歪曲を最小化できるという利点を有する。ただし、プロトタイプフィルタ情報(例えば、プロトタイプHRTFフィルター係数)の変換過程でQMFドメインに変換した時、変換された値を適用する過程が多い演算量を必要とする。この場合に、フィルター情報の変換過程でHRTF係数をパラメータ化する方法を通じて演算量を最小化することができる。
以上では具体的な実施例に挙げて本発明を説明してきたが、これらの実施例は、本発明を例示するためのもので、本発明の範囲を制限するためのものではない。したがって、当業者にとっては本発明の技術的思想の範囲内で様々な変形が可能であるということは明らかであり、本発明の範囲は、添付の特許請求の範囲によって解析されるべきである。
本発明による信号処理方法及び装置は、符号化装置で提供された空間情報を用いて、マルチチャンネルを生成できない復号化装置でもHRTFフィルター情報又は使用者によるフィルター情報を用いてサラウンド信号を生成することができる。特に、本発明を、ステレオ信号のみ再生可能な多くの復号化装置に有用に用いることができる。
本発明の一実施例によるオーディオ信号の符号化装置及び復号化装置を示すブロック図である。 本発明の一実施例によるオーディオ信号のビットストリーム構造を示す図である。 本発明の一実施例による空間情報変換部を示す詳細ブロック図である。 本発明の一実施例によるソースマッピング過程で用いられるチャンネル構成を示す図である。 本発明の一実施例によるソースマッピング過程で用いられるチャンネル構成を示す図である。 本発明の一実施例によるステレオダウンミックス信号に対するレンダリング部の詳細ブロック図である。 本発明の一実施例によるステレオダウンミックス信号に対するレンダリング部の詳細ブロック図である。 本発明の一実施例によるモノダウンミックス信号に対するレンダリング部の詳細ブロック図である。 本発明の一実施例によるモノダウンミックス信号に対するレンダリング部の詳細ブロック図である。 本発明の一実施例による平滑化部及び拡張部が適用される位置を示すブロック図である。 本発明の一実施例による平滑化部及び拡張部が適用される位置めを示すブロック図である。 本発明の一実施例による第1平滑化方法を説明するグラフである。 本発明の一実施例による第2平滑化方法を説明するグラフである。 本発明の一実施例による第3平滑化方法を説明するグラフである。 本発明の一実施例による第4平滑化方法を説明するグラフである。 本発明の一実施例による第5平滑化方法を説明するグラフである。 チャンネル別プロトタイプフィルタ情報を説明するための図である。 本発明の一実施例による空間情報変換部でレンダリングフィルター情報を生成する第1方法を示すブロック図である。 本発明の一実施例による空間情報変換部でレンダリングフィルター情報を生成する第2方法を示すブロック図である。 本発明の一実施例による空間情報変換部でレンダリングフィルター情報を生成する第3方法を示すブロック図である。 本発明の一実施例によるレンダリング部でレンダリング情報を用いてサラウンド信号を生成する方法を示す図である。 本発明の一実施例による第1補間方法を示す図である。 本発明の一実施例による第2補間方法を示す図である。 本発明の一実施例によるブロックスイッチング方法を示す図である。 本発明の一実施例による窓長さ決め部で決定された窓長さが適用される位置を示すブロック図である。 本発明の一実施例によるオーディオ信号を処理するのに用いられる様々な長さのフィルターを示す図である。 本発明の一実施例による複数個のサブフィルターでオーディオ信号を処理する方法を示す図である。 本発明の一実施例による複数個のサブフィルターを用いて生成された分割レンダリング情報をモノダウンミックス信号にレンダリングする方法を示すブロック図である。 本発明の一実施例による複数個のサブフィルターを用いて生成された分割レンダリング情報をステレオダウンミックス信号にレンダリングする方法を示すブロック図である。 本発明の一実施例によるダウンミックス信号の第1ドメイン変換方法を示すブロック図である。 本発明の一実施例によるダウンミックス信号の第2ドメイン変換方法を示すブロック図である。

Claims (14)

  1. マルチソースの空間情報を用いてソースマッピング情報を生成する段階と、
    前記ソースマッピング情報にサラウンド効果を与えるフィルター情報を適用し、サブレンダリング情報を生成する段階と、
    前記サブレンダリング情報を用いてレンダリング情報を生成する段階と、
    前記マルチソースをダウンミックスして生成されたダウンミックス信号に前記レンダリング情報を適用し、前記サラウンド効果を有するサラウンド信号を生成する段階と、
    を含み、
    前記ダウンミックス信号は、モノ信号又はステレオ信号に対応することを特徴とする信号処理方法。
  2. 前記空間情報は、ソースレベル差及びソース間相関関係のうち少なくとも一つを含むことを特徴とする、請求項1に記載の信号処理方法。
  3. 前記ソースマッピング情報は、前記マルチソースの各ソースに対応する情報であることを特徴とする、請求項1に記載の信号処理方法。
  4. 前記サブレンダリング情報は、少なくとも二つの前記ソースマッピング情報に前記フィルター情報を適用して生成された情報を含むことを特徴とする、請求項1に記載の信号処理方法。
  5. 前記フィルター情報は、HRTFフィルター情報と使用者の選択によって決定された値のうち少なくとも一方を含むことを特徴とする、請求項1に記載の信号処理方法。
  6. 前記フィルター情報は、前記生成されたサラウンド信号のドメインの情報へとドメイン変換されることを特徴とする、請求項5に記載の信号処理方法。
  7. 前記フィルター情報は、前記HRTFフィルター情報をパラメータに変換することによって生成されることを特徴とする、請求項6に記載の信号処理方法。
  8. マルチソースの空間情報を用いてソースマッピング情報を生成するソースマッピング部と、
    前記ソースマッピング情報にサラウンド効果を与えるフィルター情報を適用し、サブレンダリング情報を生成するサブレンダリング情報生成部と、
    少なくとも一つの前記サブレンダリング情報を用いてレンダリング情報を生成する合成部と、
    前記マルチソースをダウンミックスして生成されたダウンミックス信号に前記レンダリング情報を適用し、前記サラウンド効果を有するサラウンド信号を生成するレンダリング部と、
    を含み、
    前記ダウンミックス信号は、モノ信号又はステレオ信号に対応することを特徴とする信号処理装置。
  9. 前記空間情報は、ソースレベル差及びソース間相関関係のうち少なくとも一つを含むことを特徴とする、請求項8に記載の信号処理装置。
  10. 前記ソースマッピング情報は、前記マルチソースの各ソースに対応する情報であることを特徴とする、請求項8に記載の信号処理装置。
  11. 前記サブレンダリング情報は、少なくとも二つの前記ソースマッピング情報に前記フィルター情報を適用して生成された情報を含むことを特徴とする、請求項8に記載の信号処理装置。
  12. 前記フィルター情報は、HRTFフィルター情報と使用者の選択によって決定された値のうち少なくとも一方を含むことを特徴とする、請求項8に記載の信号処理装置。
  13. 前記フィルター情報は、前記生成されたサラウンド信号のドメインの情報へとドメイン変換されることを特徴とする、請求項12に記載の信号処理装置。
  14. 前記フィルター情報は、前記HRTFフィルター情報をパラメータに変換することによって生成されることを特徴とする、請求項13に記載の信号処理装置。
JP2008551199A 2006-01-19 2007-01-19 メディア信号の処理方法及び装置 Active JP4695197B2 (ja)

Applications Claiming Priority (15)

Application Number Priority Date Filing Date Title
US75998006P 2006-01-19 2006-01-19
US60/759,980 2006-01-19
US77672406P 2006-02-27 2006-02-27
US60/776,724 2006-02-27
US77944206P 2006-03-07 2006-03-07
US77941706P 2006-03-07 2006-03-07
US77944106P 2006-03-07 2006-03-07
US60/779,441 2006-03-07
US60/779,442 2006-03-07
US60/779,417 2006-03-07
US78717206P 2006-03-30 2006-03-30
US60/787,172 2006-03-30
US78751606P 2006-03-31 2006-03-31
US60/787,516 2006-03-31
PCT/KR2007/000349 WO2007083959A1 (en) 2006-01-19 2007-01-19 Method and apparatus for processing a media signal

Publications (3)

Publication Number Publication Date
JP2009524340A JP2009524340A (ja) 2009-06-25
JP2009524340A5 JP2009524340A5 (ja) 2010-04-22
JP4695197B2 true JP4695197B2 (ja) 2011-06-08

Family

ID=38287846

Family Applications (6)

Application Number Title Priority Date Filing Date
JP2008551194A Active JP4814344B2 (ja) 2006-01-19 2007-01-19 メディア信号の処理方法及び装置
JP2008551200A Active JP4806031B2 (ja) 2006-01-19 2007-01-19 メディア信号の処理方法及び装置
JP2008551193A Active JP4814343B2 (ja) 2006-01-19 2007-01-19 メディア信号の処理方法及び装置
JP2008551199A Active JP4695197B2 (ja) 2006-01-19 2007-01-19 メディア信号の処理方法及び装置
JP2008551195A Active JP4801174B2 (ja) 2006-01-19 2007-01-19 メディア信号の処理方法及び装置
JP2008551196A Active JP4787331B2 (ja) 2006-01-19 2007-01-19 メディア信号の処理方法及び装置

Family Applications Before (3)

Application Number Title Priority Date Filing Date
JP2008551194A Active JP4814344B2 (ja) 2006-01-19 2007-01-19 メディア信号の処理方法及び装置
JP2008551200A Active JP4806031B2 (ja) 2006-01-19 2007-01-19 メディア信号の処理方法及び装置
JP2008551193A Active JP4814343B2 (ja) 2006-01-19 2007-01-19 メディア信号の処理方法及び装置

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2008551195A Active JP4801174B2 (ja) 2006-01-19 2007-01-19 メディア信号の処理方法及び装置
JP2008551196A Active JP4787331B2 (ja) 2006-01-19 2007-01-19 メディア信号の処理方法及び装置

Country Status (11)

Country Link
US (6) US8411869B2 (ja)
EP (6) EP1979898B1 (ja)
JP (6) JP4814344B2 (ja)
KR (8) KR100953643B1 (ja)
AU (1) AU2007206195B2 (ja)
BR (1) BRPI0707136A2 (ja)
CA (1) CA2636494C (ja)
ES (3) ES2496571T3 (ja)
HK (1) HK1127433A1 (ja)
TW (7) TWI469133B (ja)
WO (6) WO2007083960A1 (ja)

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE0400998D0 (sv) 2004-04-16 2004-04-16 Cooding Technologies Sweden Ab Method for representing multi-channel audio signals
KR100953643B1 (ko) * 2006-01-19 2010-04-20 엘지전자 주식회사 미디어 신호 처리 방법 및 장치
GB2452021B (en) * 2007-07-19 2012-03-14 Vodafone Plc identifying callers in telecommunication networks
KR101464977B1 (ko) * 2007-10-01 2014-11-25 삼성전자주식회사 메모리 관리 방법, 및 멀티 채널 데이터의 복호화 방법 및장치
CN101911182A (zh) 2008-01-01 2010-12-08 Lg电子株式会社 用于处理音频信号的方法和装置
CN101911732A (zh) * 2008-01-01 2010-12-08 Lg电子株式会社 用于处理音频信号的方法和装置
KR101061129B1 (ko) * 2008-04-24 2011-08-31 엘지전자 주식회사 오디오 신호의 처리 방법 및 이의 장치
CN102138176B (zh) * 2008-07-11 2013-11-06 日本电气株式会社 信号分析装置、信号控制装置及其方法
EP2175670A1 (en) * 2008-10-07 2010-04-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Binaural rendering of a multi-channel audio signal
MX2011011399A (es) * 2008-10-17 2012-06-27 Univ Friedrich Alexander Er Aparato para suministrar uno o más parámetros ajustados para un suministro de una representación de señal de mezcla ascendente sobre la base de una representación de señal de mezcla descendete, decodificador de señal de audio, transcodificador de señal de audio, codificador de señal de audio, flujo de bits de audio, método y programa de computación que utiliza información paramétrica relacionada con el objeto.
EP2214162A1 (en) * 2009-01-28 2010-08-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Upmixer, method and computer program for upmixing a downmix audio signal
TWI404050B (zh) * 2009-06-08 2013-08-01 Mstar Semiconductor Inc 多聲道音頻信號解碼方法與裝置
US8396576B2 (en) * 2009-08-14 2013-03-12 Dts Llc System for adaptively streaming audio objects
KR101692394B1 (ko) * 2009-08-27 2017-01-04 삼성전자주식회사 스테레오 오디오의 부호화, 복호화 방법 및 장치
CN102484547A (zh) 2009-09-01 2012-05-30 松下电器产业株式会社 数字广播发送装置、数字广播接收装置以及数字广播收发系统
TWI431611B (zh) 2009-10-20 2014-03-21 Dolby Int Ab 用以基於下混信號表示型態提供上混信號表示型態之裝置、用以提供表示多聲道音訊信號的位元串流之裝置、使用失真控制發訊之方法、電腦程式與位元串流
TWI443646B (zh) * 2010-02-18 2014-07-01 Dolby Lab Licensing Corp 音訊解碼器及使用有效降混之解碼方法
MX2012001696A (es) 2010-06-09 2012-02-22 Panasonic Corp Metodo de extension de ancho de banda, aparato de extension de ancho de banda, programa, circuito integrado, y aparato de descodificacion de audio.
IL302557B1 (en) 2010-07-02 2024-04-01 Dolby Int Ab After–selective bass filter
US20120035940A1 (en) * 2010-08-06 2012-02-09 Samsung Electronics Co., Ltd. Audio signal processing method, encoding apparatus therefor, and decoding apparatus therefor
US8948403B2 (en) * 2010-08-06 2015-02-03 Samsung Electronics Co., Ltd. Method of processing signal, encoding apparatus thereof, decoding apparatus thereof, and signal processing system
US8908874B2 (en) 2010-09-08 2014-12-09 Dts, Inc. Spatial audio encoding and reproduction
EP2429208B1 (en) * 2010-09-09 2020-12-02 MK Systems USA Inc. Video bit-rate control
KR20120040290A (ko) * 2010-10-19 2012-04-27 삼성전자주식회사 영상처리장치, 영상처리장치에 사용되는 음성처리방법, 및 음성처리장치
US9026450B2 (en) 2011-03-09 2015-05-05 Dts Llc System for dynamically creating and rendering audio objects
KR101842257B1 (ko) * 2011-09-14 2018-05-15 삼성전자주식회사 신호 처리 방법, 그에 따른 엔코딩 장치, 및 그에 따른 디코딩 장치
US9317458B2 (en) * 2012-04-16 2016-04-19 Harman International Industries, Incorporated System for converting a signal
EP2717262A1 (en) * 2012-10-05 2014-04-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Encoder, decoder and methods for signal-dependent zoom-transform in spatial audio object coding
TWI618050B (zh) 2013-02-14 2018-03-11 杜比實驗室特許公司 用於音訊處理系統中之訊號去相關的方法及設備
KR101729930B1 (ko) 2013-02-14 2017-04-25 돌비 레버러토리즈 라이쎈싱 코오포레이션 업믹스된 오디오 신호들의 채널간 코히어런스를 제어하기 위한 방법
TWI618051B (zh) 2013-02-14 2018-03-11 杜比實驗室特許公司 用於利用估計之空間參數的音頻訊號增強的音頻訊號處理方法及裝置
US9830917B2 (en) 2013-02-14 2017-11-28 Dolby Laboratories Licensing Corporation Methods for audio signal transient detection and decorrelation control
US9613660B2 (en) 2013-04-05 2017-04-04 Dts, Inc. Layered audio reconstruction system
WO2015006112A1 (en) * 2013-07-08 2015-01-15 Dolby Laboratories Licensing Corporation Processing of time-varying metadata for lossless resampling
EP2830335A3 (en) 2013-07-22 2015-02-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method, and computer program for mapping first and second input channels to at least one output channel
EP2830051A3 (en) 2013-07-22 2015-03-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder, audio decoder, methods and computer program using jointly encoded residual signals
EP2830333A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multi-channel decorrelator, multi-channel audio decoder, multi-channel audio encoder, methods and computer program using a premix of decorrelator input signals
CA2919080C (en) 2013-07-22 2018-06-05 Sascha Disch Multi-channel audio decoder, multi-channel audio encoder, methods, computer program and encoded audio representation using a decorrelation of rendered audio signals
EP3061089B1 (en) * 2013-10-21 2018-01-17 Dolby International AB Parametric reconstruction of audio signals
EP2866227A1 (en) * 2013-10-22 2015-04-29 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method for decoding and encoding a downmix matrix, method for presenting audio content, encoder and decoder for a downmix matrix, audio encoder and audio decoder
CN104681034A (zh) 2013-11-27 2015-06-03 杜比实验室特许公司 音频信号处理
US10373711B2 (en) 2014-06-04 2019-08-06 Nuance Communications, Inc. Medical coding system with CDI clarification request notification
US10754925B2 (en) 2014-06-04 2020-08-25 Nuance Communications, Inc. NLU training with user corrections to engine annotations
EP2980789A1 (en) 2014-07-30 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for enhancing an audio signal, sound enhancing system
CN107771346B (zh) * 2015-06-17 2021-09-21 三星电子株式会社 实现低复杂度格式转换的内部声道处理方法和装置
EP3291582A4 (en) * 2015-06-17 2018-05-09 Samsung Electronics Co., Ltd. Device and method for processing internal channel for low complexity format conversion
US10366687B2 (en) * 2015-12-10 2019-07-30 Nuance Communications, Inc. System and methods for adapting neural network acoustic models
EP3516560A1 (en) 2016-09-20 2019-07-31 Nuance Communications, Inc. Method and system for sequencing medical billing codes
US11133091B2 (en) 2017-07-21 2021-09-28 Nuance Communications, Inc. Automated analysis system and method
US11024424B2 (en) 2017-10-27 2021-06-01 Nuance Communications, Inc. Computer assisted coding systems and methods
CN109859766B (zh) 2017-11-30 2021-08-20 华为技术有限公司 音频编解码方法和相关产品
US10602292B2 (en) 2018-06-14 2020-03-24 Magic Leap, Inc. Methods and systems for audio signal filtering

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0879900A (ja) * 1994-09-07 1996-03-22 Nippon Telegr & Teleph Corp <Ntt> ステレオ音響再生装置
JP2005229612A (ja) * 2004-02-12 2005-08-25 Agere Systems Inc 聴覚情景の後部残響音ベースの合成
JP2005352396A (ja) * 2004-06-14 2005-12-22 Matsushita Electric Ind Co Ltd 音響信号符号化装置および音響信号復号装置
JP2007511140A (ja) * 2003-11-12 2007-04-26 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション オーディオ信号処理システム及び方法
JP2008504578A (ja) * 2004-06-30 2008-02-14 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ マルチチャネル出力信号を発生するためのマルチチャネルシンセサイザおよび方法

Family Cites Families (182)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5166685A (en) 1990-09-04 1992-11-24 Motorola, Inc. Automatic selection of external multiplexer channels by an A/D converter integrated circuit
US5632005A (en) * 1991-01-08 1997-05-20 Ray Milton Dolby Encoder/decoder for multidimensional sound fields
DE4217276C1 (ja) 1992-05-25 1993-04-08 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung Ev, 8000 Muenchen, De
DE4236989C2 (de) 1992-11-02 1994-11-17 Fraunhofer Ges Forschung Verfahren zur Übertragung und/oder Speicherung digitaler Signale mehrerer Kanäle
US5561736A (en) * 1993-06-04 1996-10-01 International Business Machines Corporation Three dimensional speech synthesis
ES2165370T3 (es) 1993-06-22 2002-03-16 Thomson Brandt Gmbh Metodo para obtener una matriz decodificadora multicanal.
EP0637191B1 (en) 1993-07-30 2003-10-22 Victor Company Of Japan, Ltd. Surround signal processing apparatus
TW263646B (en) 1993-08-26 1995-11-21 Nat Science Committee Synchronizing method for multimedia signal
WO1995023493A1 (en) 1994-02-25 1995-08-31 Moeller Henrik Binaural synthesis, head-related transfer functions, and uses thereof
JPH07248255A (ja) * 1994-03-09 1995-09-26 Sharp Corp 立体音像生成装置及び立体音像生成方法
JPH07288900A (ja) * 1994-04-19 1995-10-31 Matsushita Electric Ind Co Ltd 音場再生装置
EP0760197B1 (en) * 1994-05-11 2009-01-28 Aureal Semiconductor Inc. Three-dimensional virtual audio display employing reduced complexity imaging filters
US5703584A (en) * 1994-08-22 1997-12-30 Adaptec, Inc. Analog data acquisition system
GB9417185D0 (en) 1994-08-25 1994-10-12 Adaptive Audio Ltd Sounds recording and reproduction systems
US6072877A (en) * 1994-09-09 2000-06-06 Aureal Semiconductor, Inc. Three-dimensional virtual audio display employing reduced complexity imaging filters
JPH0884400A (ja) * 1994-09-12 1996-03-26 Sanyo Electric Co Ltd 音像制御装置
JPH08123494A (ja) 1994-10-28 1996-05-17 Mitsubishi Electric Corp 音声符号化装置、音声復号化装置、音声符号化復号化方法およびこれらに使用可能な位相振幅特性導出装置
US5668924A (en) * 1995-01-18 1997-09-16 Olympus Optical Co. Ltd. Digital sound recording and reproduction device using a coding technique to compress data for reduction of memory requirements
JPH0974446A (ja) * 1995-03-01 1997-03-18 Nippon Telegr & Teleph Corp <Ntt> 音声通信制御装置
IT1281001B1 (it) 1995-10-27 1998-02-11 Cselt Centro Studi Lab Telecom Procedimento e apparecchiatura per codificare, manipolare e decodificare segnali audio.
US5956674A (en) 1995-12-01 1999-09-21 Digital Theater Systems, Inc. Multi-channel predictive subband audio coder using psychoacoustic adaptive bit allocation in frequency, time and over the multiple channels
JP3088319B2 (ja) 1996-02-07 2000-09-18 松下電器産業株式会社 デコード装置およびデコード方法
JPH09224300A (ja) 1996-02-16 1997-08-26 Sanyo Electric Co Ltd 音像位置の補正方法及び装置
JP3483086B2 (ja) * 1996-03-22 2004-01-06 日本電信電話株式会社 音声電話会議装置
US5970152A (en) 1996-04-30 1999-10-19 Srs Labs, Inc. Audio enhancement system for use in a surround sound environment
US6252965B1 (en) 1996-09-19 2001-06-26 Terry D. Beard Multichannel spectral mapping audio apparatus and method
US5886988A (en) * 1996-10-23 1999-03-23 Arraycomm, Inc. Channel assignment and call admission control for spatial division multiple access communication systems
US6711266B1 (en) 1997-02-07 2004-03-23 Bose Corporation Surround sound channel encoding and decoding
US6721425B1 (en) * 1997-02-07 2004-04-13 Bose Corporation Sound signal mixing
TW429700B (en) 1997-02-26 2001-04-11 Sony Corp Information encoding method and apparatus, information decoding method and apparatus and information recording medium
US6449368B1 (en) 1997-03-14 2002-09-10 Dolby Laboratories Licensing Corporation Multidirectional audio decoding
JP3594281B2 (ja) 1997-04-30 2004-11-24 株式会社河合楽器製作所 ステレオ拡大装置及び音場拡大装置
JPH1132400A (ja) 1997-07-14 1999-02-02 Matsushita Electric Ind Co Ltd デジタル信号再生装置
US6307941B1 (en) * 1997-07-15 2001-10-23 Desper Products, Inc. System and method for localization of virtual sound
US5890125A (en) * 1997-07-16 1999-03-30 Dolby Laboratories Licensing Corporation Method and apparatus for encoding and decoding multiple audio channels at low bit rates using adaptive selection of encoding method
EP1025743B1 (en) * 1997-09-16 2013-06-19 Dolby Laboratories Licensing Corporation Utilisation of filtering effects in stereo headphone devices to enhance spatialization of source around a listener
US6081783A (en) 1997-11-14 2000-06-27 Cirrus Logic, Inc. Dual processor digital audio decoder with shared memory data transfer and task partitioning for decompressing compressed audio data, and systems and methods using the same
US7085393B1 (en) * 1998-11-13 2006-08-01 Agere Systems Inc. Method and apparatus for regularizing measured HRTF for smooth 3D digital audio
US6414290B1 (en) 1998-03-19 2002-07-02 Graphic Packaging Corporation Patterned microwave susceptor
US6122619A (en) * 1998-06-17 2000-09-19 Lsi Logic Corporation Audio decoder with programmable downmixing of MPEG/AC-3 and method therefor
JP3781902B2 (ja) * 1998-07-01 2006-06-07 株式会社リコー 音像定位制御装置および音像定位制御方式
DE19846576C2 (de) 1998-10-09 2001-03-08 Aeg Niederspannungstech Gmbh Plombierbare Verschließeinrichtung
DE19847689B4 (de) 1998-10-15 2013-07-11 Samsung Electronics Co., Ltd. Vorrichtung und Verfahren zur dreidimensionalen Tonwiedergabe
US6574339B1 (en) * 1998-10-20 2003-06-03 Samsung Electronics Co., Ltd. Three-dimensional sound reproducing apparatus for multiple listeners and method thereof
JP3346556B2 (ja) 1998-11-16 2002-11-18 日本ビクター株式会社 音声符号化方法及び音声復号方法
EP2391146A3 (en) * 1999-04-07 2011-12-14 Dolby Laboratories Licensing Corporation Lossless encoding and decoding methods and apparatus for multichannel signals
GB2351213B (en) 1999-05-29 2003-08-27 Central Research Lab Ltd A method of modifying one or more original head related transfer functions
KR100416757B1 (ko) 1999-06-10 2004-01-31 삼성전자주식회사 위치 조절이 가능한 가상 음상을 이용한 스피커 재생용 다채널오디오 재생 장치 및 방법
US6226616B1 (en) * 1999-06-21 2001-05-01 Digital Theater Systems, Inc. Sound quality of established low bit-rate audio coding systems without loss of decoder compatibility
US6175631B1 (en) * 1999-07-09 2001-01-16 Stephen A. Davis Method and apparatus for decorrelating audio signals
US7031474B1 (en) * 1999-10-04 2006-04-18 Srs Labs, Inc. Acoustic correction apparatus
US6931370B1 (en) 1999-11-02 2005-08-16 Digital Theater Systems, Inc. System and method for providing interactive audio in a multi-channel audio environment
US6633648B1 (en) * 1999-11-12 2003-10-14 Jerald L. Bauck Loudspeaker array for enlarged sweet spot
US20010030736A1 (en) 1999-12-23 2001-10-18 Spence Stuart T. Film conversion device with heating element
AUPQ514000A0 (en) 2000-01-17 2000-02-10 University Of Sydney, The The generation of customised three dimensional sound effects for individuals
JP4281937B2 (ja) * 2000-02-02 2009-06-17 パナソニック株式会社 ヘッドホンシステム
US7266501B2 (en) * 2000-03-02 2007-09-04 Akiba Electronics Institute Llc Method and apparatus for accommodating primary content audio and secondary content remaining audio capability in the digital audio production process
US6973130B1 (en) 2000-04-25 2005-12-06 Wee Susie J Compressed video signal including information for independently coded regions
TW468182B (en) 2000-05-03 2001-12-11 Ind Tech Res Inst Method and device for adjusting, recording and playing multimedia signals
JP2001359197A (ja) 2000-06-13 2001-12-26 Victor Co Of Japan Ltd 音像定位信号の生成方法、及び音像定位信号生成装置
JP3576936B2 (ja) 2000-07-21 2004-10-13 株式会社ケンウッド 周波数補間装置、周波数補間方法及び記録媒体
JP4645869B2 (ja) 2000-08-02 2011-03-09 ソニー株式会社 ディジタル信号処理方法、学習方法及びそれらの装置並びにプログラム格納媒体
EP1211857A1 (fr) 2000-12-04 2002-06-05 STMicroelectronics N.V. Procédé et dispositif d'estimation des valeurs successives de symboles numériques, en particulier pour l'égalisation d'un canal de transmission d'informations en téléphonie mobile
WO2004019656A2 (en) * 2001-02-07 2004-03-04 Dolby Laboratories Licensing Corporation Audio channel spatial translation
JP3566220B2 (ja) 2001-03-09 2004-09-15 三菱電機株式会社 音声符号化装置、音声符号化方法、音声復号化装置及び音声復号化方法
US6504496B1 (en) * 2001-04-10 2003-01-07 Cirrus Logic, Inc. Systems and methods for decoding compressed data
US20030007648A1 (en) 2001-04-27 2003-01-09 Christopher Currell Virtual audio system and techniques
US7292901B2 (en) 2002-06-24 2007-11-06 Agere Systems Inc. Hybrid multi-channel/cue coding/decoding of audio signals
US20030035553A1 (en) 2001-08-10 2003-02-20 Frank Baumgarte Backwards-compatible perceptual coding of spatial cues
KR20040014569A (ko) 2001-06-21 2004-02-14 1...리미티드 라우드 스피커
JP2003009296A (ja) 2001-06-22 2003-01-10 Matsushita Electric Ind Co Ltd 音響処理装置および音響処理方法
SE0202159D0 (sv) 2001-07-10 2002-07-09 Coding Technologies Sweden Ab Efficientand scalable parametric stereo coding for low bitrate applications
JP2003111198A (ja) 2001-10-01 2003-04-11 Sony Corp 音声信号処理方法および音声再生システム
KR100587517B1 (ko) * 2001-11-14 2006-06-08 마쯔시다덴기산교 가부시키가이샤 오디오 부호화 및 복호화
EP1315148A1 (en) 2001-11-17 2003-05-28 Deutsche Thomson-Brandt Gmbh Determination of the presence of ancillary data in an audio bitstream
TWI230024B (en) 2001-12-18 2005-03-21 Dolby Lab Licensing Corp Method and audio apparatus for improving spatial perception of multiple sound channels when reproduced by two loudspeakers
CN1288625C (zh) 2002-01-30 2006-12-06 松下电器产业株式会社 音频编码与解码设备及其方法
EP1341160A1 (en) 2002-03-01 2003-09-03 Deutsche Thomson-Brandt Gmbh Method and apparatus for encoding and for decoding a digital information signal
US7707287B2 (en) 2002-03-22 2010-04-27 F5 Networks, Inc. Virtual host acceleration system
EP1500085B1 (en) 2002-04-10 2013-02-20 Koninklijke Philips Electronics N.V. Coding of stereo signals
BRPI0304541B1 (pt) 2002-04-22 2017-07-04 Koninklijke Philips N. V. Method and arrangement for synthesizing a first and a second output sign from an input sign, and, device for providing a decoded audio signal
EP2879299B1 (en) * 2002-05-03 2017-07-26 Harman International Industries, Incorporated Multi-channel downmixing device
JP4296752B2 (ja) * 2002-05-07 2009-07-15 ソニー株式会社 符号化方法及び装置、復号方法及び装置、並びにプログラム
DE10228999B4 (de) * 2002-06-28 2006-12-14 Advanced Micro Devices, Inc., Sunnyvale Konstellationsmanipulation zur Frequenz/Phasenfehlerkorrektur
US7447629B2 (en) 2002-07-12 2008-11-04 Koninklijke Philips Electronics N.V. Audio coding
WO2004008806A1 (en) 2002-07-16 2004-01-22 Koninklijke Philips Electronics N.V. Audio coding
EP1439524B1 (en) 2002-07-19 2009-04-08 NEC Corporation Audio decoding device, decoding method, and program
US7502743B2 (en) 2002-09-04 2009-03-10 Microsoft Corporation Multi-channel audio encoding and decoding with multi-channel transform selection
CN100594744C (zh) 2002-09-23 2010-03-17 皇家飞利浦电子股份有限公司 声音信号的生成
AU2003219428A1 (en) 2002-10-14 2004-05-04 Koninklijke Philips Electronics N.V. Signal filtering
US8437868B2 (en) 2002-10-14 2013-05-07 Thomson Licensing Method for coding and decoding the wideness of a sound source in an audio scene
JP4393383B2 (ja) 2002-10-15 2010-01-06 韓國電子通信研究院 ユーザの選好度によるオーディオ信号適応変換装置、および、その方法
WO2004036955A1 (en) 2002-10-15 2004-04-29 Electronics And Telecommunications Research Institute Method for generating and consuming 3d audio scene with extended spatiality of sound source
KR100542129B1 (ko) * 2002-10-28 2006-01-11 한국전자통신연구원 객체기반 3차원 오디오 시스템 및 그 제어 방법
EP1566076B1 (en) 2002-11-20 2011-03-23 Koninklijke Philips Electronics N.V. Audio based data representation apparatus and method
US8139797B2 (en) 2002-12-03 2012-03-20 Bose Corporation Directional electroacoustical transducing
US6829925B2 (en) 2002-12-20 2004-12-14 The Goodyear Tire & Rubber Company Apparatus and method for monitoring a condition of a tire
US7519530B2 (en) * 2003-01-09 2009-04-14 Nokia Corporation Audio signal processing
KR100917464B1 (ko) 2003-03-07 2009-09-14 삼성전자주식회사 대역 확장 기법을 이용한 디지털 데이터의 부호화 방법,그 장치, 복호화 방법 및 그 장치
US7391877B1 (en) * 2003-03-31 2008-06-24 United States Of America As Represented By The Secretary Of The Air Force Spatial processor for enhanced performance in multi-talker speech displays
JP4196274B2 (ja) 2003-08-11 2008-12-17 ソニー株式会社 画像信号処理装置および方法、プログラム、並びに記録媒体
CN1253464C (zh) 2003-08-13 2006-04-26 中国科学院昆明植物研究所 安丝菌素苷类化合物及其药物组合物,其制备方法及其应用
US20050063613A1 (en) 2003-09-24 2005-03-24 Kevin Casey Network based system and method to process images
US7447317B2 (en) 2003-10-02 2008-11-04 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V Compatible multi-channel coding/decoding by weighting the downmix channel
US6937737B2 (en) 2003-10-27 2005-08-30 Britannia Investment Corporation Multi-channel audio surround sound from front located loudspeakers
JP4966013B2 (ja) * 2003-10-30 2012-07-04 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ オーディオ信号のエンコードまたはデコード
US7680289B2 (en) 2003-11-04 2010-03-16 Texas Instruments Incorporated Binaural sound localization using a formant-type cascade of resonators and anti-resonators
WO2005053356A1 (en) * 2003-11-17 2005-06-09 1... Limited Loudspeaker
KR20050060789A (ko) 2003-12-17 2005-06-22 삼성전자주식회사 가상 음향 재생 방법 및 그 장치
KR101117591B1 (ko) 2004-01-05 2012-02-24 코닌클리케 필립스 일렉트로닉스 엔.브이. 렌더링되지 않은 컬러 공간을 통해 맵핑된 비디오 컨텐츠로부터 유도된 환경광을 위한 플리커가 없는 적응성 임계
KR101044709B1 (ko) 2004-01-05 2011-06-28 코닌클리케 필립스 일렉트로닉스 엔.브이. 주변광원에 의해 모방될 렌더링된 컬러 공간에서 인코딩된 비디오 컨텐츠를 추출하고 처리하기 위한 방법
US7394903B2 (en) * 2004-01-20 2008-07-01 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Apparatus and method for constructing a multi-channel output signal or for generating a downmix signal
US7492915B2 (en) 2004-02-13 2009-02-17 Texas Instruments Incorporated Dynamic sound source and listener position based audio rendering
WO2005081229A1 (ja) 2004-02-25 2005-09-01 Matsushita Electric Industrial Co., Ltd. オーディオエンコーダ及びオーディオデコーダ
ATE430360T1 (de) 2004-03-01 2009-05-15 Dolby Lab Licensing Corp Mehrkanalige audiodekodierung
US7805313B2 (en) * 2004-03-04 2010-09-28 Agere Systems Inc. Frequency-based coding of channels in parametric multi-channel coding systems
US7668712B2 (en) * 2004-03-31 2010-02-23 Microsoft Corporation Audio encoding and decoding with intra frames and adaptive forward error correction
CN1947172B (zh) * 2004-04-05 2011-08-03 皇家飞利浦电子股份有限公司 方法、装置、编码器设备、解码器设备以及音频系统
TWI253625B (en) 2004-04-06 2006-04-21 I-Shun Huang Signal-processing system and method thereof
SE0400998D0 (sv) 2004-04-16 2004-04-16 Cooding Technologies Sweden Ab Method for representing multi-channel audio signals
US20050276430A1 (en) * 2004-05-28 2005-12-15 Microsoft Corporation Fast headphone virtualization
US7283065B2 (en) * 2004-06-02 2007-10-16 Research In Motion Limited Handheld electronic device with text disambiguation
KR100636145B1 (ko) * 2004-06-04 2006-10-18 삼성전자주식회사 확장된 고해상도 오디오 신호 부호화 및 복호화 장치
KR100636144B1 (ko) * 2004-06-04 2006-10-18 삼성전자주식회사 오디오 신호 부호화/복호화 장치 및 방법
US20050273324A1 (en) 2004-06-08 2005-12-08 Expamedia, Inc. System for providing audio data and providing method thereof
JP4594662B2 (ja) 2004-06-29 2010-12-08 ソニー株式会社 音像定位装置
US7617109B2 (en) * 2004-07-01 2009-11-10 Dolby Laboratories Licensing Corporation Method for correcting metadata affecting the playback loudness and dynamic range of audio information
WO2006003813A1 (ja) * 2004-07-02 2006-01-12 Matsushita Electric Industrial Co., Ltd. オーディオ符号化及び復号化装置
KR20060003444A (ko) * 2004-07-06 2006-01-11 삼성전자주식회사 모바일 기기에서 크로스토크 제거 장치 및 방법
TW200603652A (en) * 2004-07-06 2006-01-16 Syncomm Technology Corp Wireless multi-channel sound re-producing system
US7391870B2 (en) 2004-07-09 2008-06-24 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E V Apparatus and method for generating a multi-channel output signal
KR100773539B1 (ko) 2004-07-14 2007-11-05 삼성전자주식회사 멀티채널 오디오 데이터 부호화/복호화 방법 및 장치
EP1769655B1 (en) * 2004-07-14 2011-09-28 Koninklijke Philips Electronics N.V. Method, device, encoder apparatus, decoder apparatus and audio system
JP4641751B2 (ja) * 2004-07-23 2011-03-02 ローム株式会社 ピークホールド回路、それを備えるモータ駆動制御回路、及びそれを備えるモータ装置
TWI393120B (zh) * 2004-08-25 2013-04-11 Dolby Lab Licensing Corp 用於音訊信號編碼及解碼之方法和系統、音訊信號編碼器、音訊信號解碼器、攜帶有位元流之電腦可讀取媒體、及儲存於電腦可讀取媒體上的電腦程式
TWI393121B (zh) 2004-08-25 2013-04-11 Dolby Lab Licensing Corp 處理一組n個聲音信號之方法與裝置及與其相關聯之電腦程式
DE102004042819A1 (de) 2004-09-03 2006-03-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen eines codierten Multikanalsignals und Vorrichtung und Verfahren zum Decodieren eines codierten Multikanalsignals
KR20060022968A (ko) * 2004-09-08 2006-03-13 삼성전자주식회사 음향재생장치 및 음향재생방법
US7634092B2 (en) 2004-10-14 2009-12-15 Dolby Laboratories Licensing Corporation Head related transfer functions for panned stereo audio content
US7720230B2 (en) 2004-10-20 2010-05-18 Agere Systems, Inc. Individual channel shaping for BCC schemes and the like
SE0402650D0 (sv) * 2004-11-02 2004-11-02 Coding Tech Ab Improved parametric stereo compatible coding of spatial audio
US8027494B2 (en) 2004-11-22 2011-09-27 Mitsubishi Electric Corporation Acoustic image creation system and program therefor
JP5017121B2 (ja) * 2004-11-30 2012-09-05 アギア システムズ インコーポレーテッド 外部的に供給されるダウンミックスとの空間オーディオのパラメトリック・コーディングの同期化
WO2006060279A1 (en) * 2004-11-30 2006-06-08 Agere Systems Inc. Parametric coding of spatial audio with object-based side information
US7787631B2 (en) 2004-11-30 2010-08-31 Agere Systems Inc. Parametric coding of spatial audio with cues based on transmitted channels
KR100682904B1 (ko) * 2004-12-01 2007-02-15 삼성전자주식회사 공간 정보를 이용한 다채널 오디오 신호 처리 장치 및 방법
US7903824B2 (en) 2005-01-10 2011-03-08 Agere Systems Inc. Compact side information for parametric coding of spatial audio
US7573912B2 (en) 2005-02-22 2009-08-11 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschunng E.V. Near-transparent or transparent multi-channel encoder/decoder scheme
US20060195981A1 (en) * 2005-03-02 2006-09-07 Hydro-Industries Tynat Ltd. Freestanding combination sink and hose reel workstation
KR100608025B1 (ko) * 2005-03-03 2006-08-02 삼성전자주식회사 2채널 헤드폰용 입체 음향 생성 방법 및 장치
US8036904B2 (en) * 2005-03-30 2011-10-11 Koninklijke Philips Electronics N.V. Audio encoder and method for scalable multi-channel audio coding, and an audio decoder and method for decoding said scalable multi-channel audio coding
US7961890B2 (en) * 2005-04-15 2011-06-14 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung, E.V. Multi-channel hierarchical audio coding with compact side information
JP4804532B2 (ja) * 2005-04-15 2011-11-02 ドルビー インターナショナル アクチボラゲット 無相関信号の包絡線整形
US7983922B2 (en) 2005-04-15 2011-07-19 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for generating multi-channel synthesizer control signal and apparatus and method for multi-channel synthesizing
US7751572B2 (en) * 2005-04-15 2010-07-06 Dolby International Ab Adaptive residual audio coding
EP1927102A2 (en) 2005-06-03 2008-06-04 Dolby Laboratories Licensing Corporation Apparatus and method for encoding audio signals with decoding instructions
WO2007004831A1 (en) * 2005-06-30 2007-01-11 Lg Electronics Inc. Method and apparatus for encoding and decoding an audio signal
CN101223821B (zh) * 2005-07-15 2011-12-07 松下电器产业株式会社 音频解码器
US7880748B1 (en) * 2005-08-17 2011-02-01 Apple Inc. Audio view using 3-dimensional plot
EP1938662B1 (en) * 2005-08-30 2016-09-28 LG Electronics Inc. Method, apparatus, computer-readable medium for decoding an audio signal
CN102395098B (zh) 2005-09-13 2015-01-28 皇家飞利浦电子股份有限公司 生成3d声音的方法和设备
KR100739776B1 (ko) * 2005-09-22 2007-07-13 삼성전자주식회사 입체 음향 생성 방법 및 장치
US20080255859A1 (en) * 2005-10-20 2008-10-16 Lg Electronics, Inc. Method for Encoding and Decoding Multi-Channel Audio Signal and Apparatus Thereof
DK1980132T3 (da) * 2005-12-16 2013-02-18 Widex As Fremgangsmåde og system til overvågning af en trådløs forbindelse i et høreapparat-tilpasningssystem
ATE476732T1 (de) * 2006-01-09 2010-08-15 Nokia Corp Steuerung der dekodierung binauraler audiosignale
WO2007080211A1 (en) * 2006-01-09 2007-07-19 Nokia Corporation Decoding of binaural audio signals
KR100803212B1 (ko) * 2006-01-11 2008-02-14 삼성전자주식회사 스케일러블 채널 복호화 방법 및 장치
KR100953643B1 (ko) * 2006-01-19 2010-04-20 엘지전자 주식회사 미디어 신호 처리 방법 및 장치
US8190425B2 (en) * 2006-01-20 2012-05-29 Microsoft Corporation Complex cross-correlation parameters for multi-channel audio
KR100878816B1 (ko) 2006-02-07 2009-01-14 엘지전자 주식회사 부호화/복호화 장치 및 방법
KR100773562B1 (ko) * 2006-03-06 2007-11-07 삼성전자주식회사 스테레오 신호 생성 방법 및 장치
PL1999999T3 (pl) 2006-03-24 2012-07-31 Dolby Int Ab Generowanie downmixów przestrzennych na podstawie parametrycznych reprezentacji sygnałów wielokanałowych
DE602006021347D1 (de) 2006-03-28 2011-05-26 Fraunhofer Ges Forschung Verbessertes verfahren zur signalformung bei der mehrkanal-audiorekonstruktion
EP2000001B1 (en) * 2006-03-28 2011-12-21 Telefonaktiebolaget LM Ericsson (publ) Method and arrangement for a decoder for multi-channel surround sound
JP4778828B2 (ja) 2006-04-14 2011-09-21 矢崎総業株式会社 電気接続箱
US8027479B2 (en) * 2006-06-02 2011-09-27 Coding Technologies Ab Binaural multi-channel decoder in the context of non-energy conserving upmix rules
US7876904B2 (en) * 2006-07-08 2011-01-25 Nokia Corporation Dynamic decoding of binaural audio signals
US20080235006A1 (en) * 2006-08-18 2008-09-25 Lg Electronics, Inc. Method and Apparatus for Decoding an Audio Signal
US8504376B2 (en) 2006-09-29 2013-08-06 Lg Electronics Inc. Methods and apparatuses for encoding and decoding object-based audio signals
JP5209637B2 (ja) * 2006-12-07 2013-06-12 エルジー エレクトロニクス インコーポレイティド オーディオ処理方法及び装置
JP2009044268A (ja) * 2007-08-06 2009-02-26 Sharp Corp 音声信号処理装置、音声信号処理方法、音声信号処理プログラム、及び、記録媒体
JP5056530B2 (ja) 2008-03-27 2012-10-24 沖電気工業株式会社 復号システム、方法及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0879900A (ja) * 1994-09-07 1996-03-22 Nippon Telegr & Teleph Corp <Ntt> ステレオ音響再生装置
JP2007511140A (ja) * 2003-11-12 2007-04-26 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション オーディオ信号処理システム及び方法
JP2005229612A (ja) * 2004-02-12 2005-08-25 Agere Systems Inc 聴覚情景の後部残響音ベースの合成
JP2005352396A (ja) * 2004-06-14 2005-12-22 Matsushita Electric Ind Co Ltd 音響信号符号化装置および音響信号復号装置
JP2008504578A (ja) * 2004-06-30 2008-02-14 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ マルチチャネル出力信号を発生するためのマルチチャネルシンセサイザおよび方法

Also Published As

Publication number Publication date
US20080310640A1 (en) 2008-12-18
JP2009524336A (ja) 2009-06-25
US20090028344A1 (en) 2009-01-29
EP1974348B1 (en) 2013-07-24
TW200805255A (en) 2008-01-16
JP2009524340A (ja) 2009-06-25
WO2007083959A1 (en) 2007-07-26
KR20080044868A (ko) 2008-05-21
KR100953645B1 (ko) 2010-04-20
EP1974345A1 (en) 2008-10-01
US8488819B2 (en) 2013-07-16
TWI315864B (en) 2009-10-11
TWI344638B (en) 2011-07-01
US20080279388A1 (en) 2008-11-13
JP2009524337A (ja) 2009-06-25
EP1979898A4 (en) 2012-12-26
EP1974348A1 (en) 2008-10-01
ES2513265T3 (es) 2014-10-24
JP4814344B2 (ja) 2011-11-16
TW200939208A (en) 2009-09-16
CA2636494A1 (en) 2007-07-26
KR20080086548A (ko) 2008-09-25
EP1974347B1 (en) 2014-08-06
HK1127433A1 (en) 2009-09-25
TW200805254A (en) 2008-01-16
EP1979897A4 (en) 2011-05-04
KR20070077134A (ko) 2007-07-25
KR100953641B1 (ko) 2010-04-20
JP2009524341A (ja) 2009-06-25
US8411869B2 (en) 2013-04-02
CA2636494C (en) 2014-02-18
KR20080044867A (ko) 2008-05-21
JP4806031B2 (ja) 2011-11-02
KR20080046185A (ko) 2008-05-26
ES2496571T3 (es) 2014-09-19
KR100953643B1 (ko) 2010-04-20
WO2007083952A1 (en) 2007-07-26
EP1974348A4 (en) 2012-12-26
BRPI0707136A2 (pt) 2011-04-19
AU2007206195B2 (en) 2011-03-10
TW200731832A (en) 2007-08-16
WO2007083955A1 (en) 2007-07-26
AU2007206195A1 (en) 2007-07-26
EP1979898A1 (en) 2008-10-15
EP1979897B1 (en) 2013-08-21
KR100953642B1 (ko) 2010-04-20
JP4801174B2 (ja) 2011-10-26
US8521313B2 (en) 2013-08-27
US8208641B2 (en) 2012-06-26
TWI329462B (en) 2010-08-21
EP1974346B1 (en) 2013-10-02
TWI329461B (en) 2010-08-21
TW200731831A (en) 2007-08-16
KR100953640B1 (ko) 2010-04-20
JP2009524338A (ja) 2009-06-25
US20090003611A1 (en) 2009-01-01
EP1974347A4 (en) 2012-12-26
JP4787331B2 (ja) 2011-10-05
KR20080044869A (ko) 2008-05-21
KR20080044865A (ko) 2008-05-21
TWI333642B (en) 2010-11-21
KR100953644B1 (ko) 2010-04-20
EP1979898B1 (en) 2014-08-06
EP1974347A1 (en) 2008-10-01
EP1974345B1 (en) 2014-01-01
KR20080044866A (ko) 2008-05-21
EP1979897A1 (en) 2008-10-15
WO2007083956A1 (en) 2007-07-26
US8351611B2 (en) 2013-01-08
EP1974346A4 (en) 2012-12-26
JP4814343B2 (ja) 2011-11-16
ES2446245T3 (es) 2014-03-06
TW200735037A (en) 2007-09-16
EP1974345A4 (en) 2012-12-26
EP1974346A1 (en) 2008-10-01
WO2007083953A1 (en) 2007-07-26
JP2009524339A (ja) 2009-06-25
TWI469133B (zh) 2015-01-11
TWI333386B (en) 2010-11-11
US20090003635A1 (en) 2009-01-01
WO2007083960A1 (en) 2007-07-26
TW200731833A (en) 2007-08-16
US20090274308A1 (en) 2009-11-05

Similar Documents

Publication Publication Date Title
JP4695197B2 (ja) メディア信号の処理方法及び装置
JP4988717B2 (ja) オーディオ信号のデコーディング方法及び装置
RU2395854C2 (ru) Способ и устройство для обработки медиасигнала

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110125

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110224

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140304

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4695197

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250