JP2009527970A - オーディオ符号化及び復号 - Google Patents

オーディオ符号化及び復号 Download PDF

Info

Publication number
JP2009527970A
JP2009527970A JP2008555915A JP2008555915A JP2009527970A JP 2009527970 A JP2009527970 A JP 2009527970A JP 2008555915 A JP2008555915 A JP 2008555915A JP 2008555915 A JP2008555915 A JP 2008555915A JP 2009527970 A JP2009527970 A JP 2009527970A
Authority
JP
Japan
Prior art keywords
data
signal
stereo signal
stereo
binaural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008555915A
Other languages
English (en)
Other versions
JP5081838B2 (ja
JP2009527970A5 (ja
Inventor
ディルク ジェイ ブレーバールト
エリク ジー ピー スフェイエルス
アルノルドゥス ダブリュ ジェイ オーメン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2009527970A publication Critical patent/JP2009527970A/ja
Publication of JP2009527970A5 publication Critical patent/JP2009527970A5/ja
Application granted granted Critical
Publication of JP5081838B2 publication Critical patent/JP5081838B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • H04S3/004For headphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • H04S5/005Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation  of the pseudo five- or more-channel type, e.g. virtual surround

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Stereophonic System (AREA)
  • Reduction Or Emphasis Of Bandwidth Of Signals (AREA)

Abstract

オーディオエンコーダが、Mチャンネルのオーディオ信号を入力する多チャンネルレシーバ401を有し、ここで、M>2である。ダウンミックスプロセッサ403は、上記Mチャンネルオーディオ信号を第1ステレオ信号及び関連パラメトリックデータにダウン混合する。空間プロセッサ407は、上記関連パラメトリックデータ及び頭部伝達関数(HRTF)等の両耳知覚伝達関数のための空間パラメータデータに応答して、上記第1ステレオ信号を修正し、第2ステレオ信号を発生する。該第2ステレオ信号は、両耳信号であり、特には(3D)仮想空間信号とすることができる。符号化されたデータ及び上記関連パラメトリックデータを有する出力データストリームが、エンコードプロセッサ411及び出力プロセッサ413により発生される。上記HRTF処理は、従来のステレオデコーダによる(3D)仮想空間信号の発生を可能にすることができる。多チャンネルデコーダは、上記空間プロセッサ407の処理を逆に処理して、改善された品質の多チャンネル信号を発生することができる。

Description

本発明は、オーディオ符号化及び/又は復号に係り、専らではないが、特には両耳仮想空間信号を含むようなオーディオ符号化及び/又は復号に関する。
種々のソースの信号のデジタル符号化は、デジタル信号表現及び通信がアナログ表現及び通信を置換するにつれて、最近の十年にわたり益々重要になってきている。例えば、ビデオ及び音楽等のメディアコンテンツの配信は、益々、デジタルコンテンツの符号化に基づくものとなっている。
更に、最近の十年においては、多チャンネルオーディオに向かう、特には従来のステレオ信号を超えて広がるような空間オーディオに向かう傾向がある。例えば、伝統的なステレオ記録が2つのチャンネルのみを有するのに対し、近年の進んだオーディオシステムは、典型的には、ポピュラーな5.1サラウンドサウンドシステムにおけるように5つ又は6つのチャンネルを使用する。これは、ユーザが音源により取り囲まれ得るような一層引き込まれる聴取体験を提供する。
このような多チャンネル信号の通信のために、種々の技術及び規格が開発されている。例えば、5.1サラウンドシステムを表す6つの個別チャンネルは、アドバンスド・オーディオ・コーディング(AAC)又はドルビー・デジタル規格等の規格に従って送信することができる。
しかしながら、後方互換性を提供するために、大きな数のチャンネルを小さな数にダウン混合(down-mix)することが知られており、これが、特に、5.1サラウンドサウンド信号をステレオ信号にダウン混合して、ステレオ信号が旧来の(ステレオ)デコーダにより再生され、5.1信号がサラウンドサウンドデコーダにより再生されるのを可能にするためにしばしば用いられる。
一例が、MPEG2後方互換性符号化方法である。多チャンネル信号が、ステレオ信号にダウン混合される。追加の信号が補助データ部分に符号化され、MPEG2多チャンネルデコーダが多チャンネル信号の表現を発生するのを可能にする。MPEG1デコーダは上記補助データを無視し、かくして、ステレオダウンミックスのみを復号する。MPEG2に適用される該符号化方法の主たる問題点は、上記追加の信号に要する追加のデータレートが、当該ステレオ信号を符号化するのに要するデータレートと同程度の大きさである点である。従って、ステレオを多チャンネルオーディオに拡張するための該追加のビットレートは、大きなものとなる。
追加の多チャンネル情報を用いない後方互換性多チャンネル送信のための他の既存の方法は、典型的には、マトリクス型サラウンド方法として特徴付けられることができる。マトリクスサラウンドサウンド符号化の例は、ドルビプロロジックII及びロジック7等の方法を含む。これら方法の共通原理は、これらが、入力信号の複数チャンネルを適切な非二次(non-quadratic)マトリクスにより行列乗算し、これにより、より小数のチャンネルの出力信号を発生するということである。特に、マトリクスエンコーダは、典型的には、サラウンドチャンネルに対して、これらを前(フロント)及び中央(センタ)チャンネルと混合する前に位相シフトを付与する。
チャンネル変換の他の理由は、符号化効率である。例えば、サラウンドサウンドオーディオ信号が、当該オーディオ信号の空間特性を記述するパラメータビットストリームと組み合わされたステレオチャンネルオーディオ信号として符号化することができることが分かっている。デコーダは該ステレオ信号を非常に満足のゆく精度で再生することができる。この様にして、かなりのビットレート節約を獲得することができる。
オーディオ信号の空間特性を記述するために使用することができる幾つかのパラメータが存在する。1つの斯様なパラメータは、ステレオ信号に関する左チャンネルと右チャンネルとの間の相互相関(cross-correlation)のような、チャンネル間相互相関である。他のパラメータは、チャンネルの出力比(power ratio)である。所謂(パラメトリック)空間オーディオ(エン)コーダにおいては、これら及び他のパラメータが元のオーディオ信号から抽出されて、例えば単一のチャンネルと元のオーディオ信号の空間特性を記述した一群のパラメータとを加えたもの等の、低減されたチャンネル数を持つオーディオ信号を生成する。所謂(パラメトリック)空間オーディオデコーダにおいては、送信された空間パラメータにより記述された空間特性が回復される。
このような空間オーディオ符号化は、好ましくは、エンコーダ及びデコーダに標準のユニットを有する縦続接続された又はツリー型の階層構造を採用する。エンコーダにおいて、これらの標準のユニットは、2/1、3/1、3/2他のダウンミキサ等のチャンネルを一層少ない数のチャンネルに組み合わせるダウンミキサとすることができる一方、デコーダにおいて、対応する標準のユニットは1/2、2/3他のアップミキサ等のチャンネルを一層多い数のチャンネルに分割するアップミキサであり得る。
3D音源配置法は、現在、特に移動体分野において関心を得ている。移動体ゲームにおける音楽再生及び音響効果は、3Dに配置された場合に消費者の体験に大きな価値を追加することができ、効果的に"頭部外"3D効果を生成する。特に、人の耳が敏感な固有の指向性情報を含んだ両耳オーディオ信号を記録及び再生することが知られている。両耳記録は、典型的には、ダミーの人の頭部に装着された2つのマイクロフォンを用いてなされ、かくして、記録された音は人の耳により捕捉された音に対応し、頭部及び耳の形状による如何なる影響をも含む。両耳記録はステレオ(即ち、立体音響:ステレオフォニック)記録とは、両耳記録の再生が一般的にヘッドセット又はヘッドフォンのためのものであるのに対し、ステレオ記録が一般的にスピーカによる再生のためになされる点で相違する。両耳記録が2つのチャンネルのみを用いて全空間情報の再生を可能にするのに対し、ステレオ記録は同様の空間的知覚を提供することはない。通常の双チャンネル(ステレオフォニック)又は多チャンネル(例えば、5.1)記録は、各々の通常の信号を一群の知覚伝達関数で畳み込むことにより、両耳記録に変換することができる。このような知覚伝達関数は、当該信号に対する人の頭部の、及び恐らくは他の物体の影響をモデル化する。良く知られたタイプの空間知覚伝達関数は、所謂、頭部伝達関数(Head-Related Transfer Function: HRTF)である。部屋の壁、天井及び床により生じる反射も考慮した代替タイプの空間知覚伝達関数は、両耳室内インパルス応答(BRIR)である。
典型的に、3D配置アルゴリズムは、或る音源位置から鼓膜へのインパルス応答による伝達を記述するようなHRTFを使用する。3D音源配置法は、HRTFにより多チャンネル信号に適用することができ、これにより、両耳信号が例えば一対のヘッドフォンを用いてユーザに空間音響情報を提供することを可能にする。
高さ(又は仰角:elevation)の知覚は、両耳に到達するスペクトル中の固有のピーク及びノッチ(V字状切り込み)により主に可能にされることが知られている。一方、音源の(知覚される)方位(azimuth)は、鼓膜における信号の間のレベル差及び到達時間差等の"両耳的"合図(cue)で捕捉される。距離の知覚は、全体の信号レベルにより主に可能にされ、反響する環境の場合は、直接及び反響エネルギの比により可能にされる。殆どの場合において、特に遅い反響音末尾においては、信頼のおける音源突き止め合図は存在しないと仮定される。
高さ、方位及び距離に関する知覚合図は、インパルス応答(の対)により捕捉することができ、ここで、一方のインパルス応答は特定の音源位置から左耳への伝達を示し、もう一方は右耳に対するものである。従って、高さ、方位及び距離に関する知覚合図は、HRTFインパルス応答の対応する特性により決定される。殆どの場合において、HRTF対は、大きな群の音源位置に関し、典型的には高さ及び方位の両方において約5°の空間的分解能で測定される。
従来の両耳3D合成は、所望の音源位置に対するHRTF対による入力信号のフィルタ処理(畳み込み)を含む。しかしながら、HRTFは典型的には無響条件で測定されるので、"距離"又は"頭部外"位置特定の知覚が、しばしば、欠ける。無響HRTFによる信号の畳み込みは3Dサウンド合成にとり十分ではないが、無響HRTFの使用は、複雑さ及び柔軟性の観点から時には好ましい。反響性環境の効果(距離の知覚の生成に必要とされる)は後の段階で追加することができ、エンドユーザが部屋の音響特性を変更するための幾らかの柔軟性を残すようにする。更に、遅い反響は、しばしば、全方向的である(指向的合図がない)と仮定されるので、この処理方法は、全ての音源を反響性HRTF対により畳み込むより時には効率的である。更に、室内音響学に関する複雑さ及び柔軟性の反対論とは別に、無響HRTFの使用は、"ドライな"(指向的合図の)信号に対しても利点を有している。
3D配置法の分野における最近の研究は、無響HRTFインパルス応答により表される周波数分解能が、多くの場合、必要以上であることを示している。特に、位相及び振幅スペクトルの両方にとり、ERBスケールにより提案された非線形周波数分解能は、3D音源を、完全な無響HRTFで処理するのと知覚的に異ならないような精度で合成するのに十分であるように思われる。言い換えると、無響HRTFスペクトルは、人の聴覚系の周波数分解能より高いスペクトル分解能を必要としない。
従来の両耳合成アルゴリズムが、図1に概略図示されている。一群の入力チャンネルが、一群のHRTFによりフィルタ処理される。各入力信号は2つの信号(左"L"及び右"R"成分)に分割され、次いで、これら信号の各々が所望の音源位置に対応するHRTFによりフィルタ処理される。次いで、全ての左耳信号は加算されて左の両耳出力信号を発生し、右耳信号は加算されて、右の両耳出力信号を発生する。
HRTF畳み込みは、時間ドメインでも実行することができるが、積としての該フィルタ処理を周波数ドメインで実行することが、しばしば、好まれる。その場合、上記加算も周波数ドメインで実行することができる。
サラウンドサウンド符号化信号を入力し、両耳信号からサラウンドサウンドの体験を生じさせることが可能なデコーダシステムが知られている。例えば、サラウンドサウンド信号がサラウンドサウンド両耳信号に変換されるのを可能にして、ユーザにサラウンドサウンド体験を提供するようなヘッドフォンシステムが知られている。
図2は、MPEGサラウンドデコーダが空間パラメトリックデータを伴うステレオ信号を入力するようなシステムを図示している。入力ビットストリームはデマルチプレクス処理されて、空間パラメータ及びダウンミックスビットストリームが得られる。後者のビットストリームは、従来のモノラル又はステレオデコーダを用いて復号される。復号されたダウンミックスは空間デコーダにより復号されるが、該空間デコーダは伝送された空間パラメータに基づいて多チャンネル出力信号を発生する。最後に、上記多チャンネル出力信号は両耳合成段(図1のものと同様のもの)により処理されて、ユーザにサラウンドサウンド体験を提供するような両耳出力信号となる。
しかしながら、このような方法は、多数の問題点を有している。
例えば、サラウンドサウンドデコーダと両耳合成の縦続接続は、中間ステップとしての多チャンネル信号表現の計算に、両耳合成ステップにおけるHRTF畳み込み及びダウンミックス処理が後続する処理を含む。これは、結果として、複雑さの増加及び性能の低減となり得る。
また、該システムは非常に複雑である。例えば、空間デコーダは典型的にはサブバンド(QMF)ドメインで動作する。一方、HRTF畳み込みは、典型的には、FFTドメインにおいて最も効率的に実施化することができる。従って、多チャンネルQMF合成フィルタバンク、多チャンネルFFT変換及びステレオ逆FFT変換の縦続接続が必要となり、結果的に高い計算要求度のシステムとなってしまう。
提供されるユーザ体験の品質も、低下され得る。例えば、多チャンネル再生を行う上記空間デコーダにより生成される符号化アーチファクトが、(ステレオ)両耳出力においても依然として聴こえるようになる。
更に、該方法は、専用のデコーダを必要とすると共に、複雑な信号処理が個々のユーザ装置により実行されることを必要とする。これは、多くの状況における応用を妨げ得る。例えば、ステレオダウンミックスしか復号することができない旧来の装置は、サラウンドサウンドのユーザ体験を適用することはできないであろう。
従って、改善されたオーディオ符号化/復号が有利であろう。
従って、本発明は上述した問題点の1以上を単独又は何らかの組み合わせで好ましくも緩和、軽減又は除去することを目指すものである。
本発明の第1態様によれば、Mチャンネルオーディオ信号を入力する手段と(但し、M>2)、該Mチャンネルオーディオ信号を第1ステレオ信号及び関連パラメトリックデータにダウン混合するダウン混合手段と、上記関連パラメトリックデータ及び両耳知覚伝達関数のための空間パラメータデータに応答して上記第1ステレオ信号を修正し、両耳信号である第2ステレオ信号を発生する発生手段と、該第2ステレオ信号を符号化して符号化データを発生する手段と、該符号化データ及び前記関連パラメトリックデータを有する出力データストリームを発生する出力手段とを有するようなオーディオエンコーダが提供される。
本発明は、改善されたオーディオ符号化を可能にする。特に、本発明は多チャンネル信号の効果的ステレオ符号化を可能にする一方、旧来の(レガシ)ステレオデコーダが空間体験を向上させるのを可能にすることができる。更に、本発明はデコーダにおいて両耳仮想空間合成処理が逆処理されるのを可能にし、これにより、高品質多チャンネル復号を可能にする。本発明は、複雑さの少ないエンコーダを可能にすると共に、特に両耳信号の少ない複雑さでの発生を可能にすることができる。本発明は、実施の容易化及び機能の再利用を可能にすることができる。
特に、本発明は、多チャンネル信号からの両耳仮想空間信号のパラメータに基づく決定を行う。
上記両耳信号は、特定的には、仮想3D両耳ステレオ信号等の両耳仮想空間信号とすることができる。前記Mチャンネルオーディオ信号は、5.1又は7.1サラウンド信号等のサラウンド信号とすることができる。上記両耳仮想空間信号は、上記Mチャンネルオーディオ信号の各チャンネルに対して1つの音源位置をエミュレーションすることができる。前記空間パラメータデータは、意図する音源位置から意図するユーザの鼓膜までの伝達関数を示すデータを有することができる。
前記両耳知覚伝達関数は、例えば、頭部伝達関数(HRTF)又は両耳室内インパルス応答(BPIR)とすることができる。
本発明のオプション的フィーチャによれば、前記発生手段は前記第2ステレオ信号を、前記関連パラメトリックデータ、前記空間パラメータデータ及び前記第1ステレオ信号用のサブバンドデータ値に応答して該第2ステレオ信号用のサブバンドデータ値を計算することにより発生するよう構成される。
これは、符号化が改善され、及び/又は実施化が容易にされるのを可能にすることができる。即ち、該フィーチャは、複雑さの低減及び/又は計算的負荷の軽減を提供することができる。第1ステレオ信号、第2ステレオ信号、前記関連パラメトリックデータ及び前記空間パラメータデータの周波数サブバンド間隔は異なることができるか、又はこれらの幾つか若しくは全てに関して幾つか若しくは全てのサブバンドは実質的に同一とすることもできる。
本発明のオプション的フィーチャによれば、前記発生手段は前記第2ステレオ信号の第1サブバンドのためのサブバンド値を、前記第1ステレオ信号用の対応するステレオサブバンド値の第1サブバンドマトリクスによる乗算に応答して発生するよう構成され、該発生手段は、第1サブバンド用の関連パラメトリックデータ及び空間パラメータデータに応答して上記第1サブバンドマトリクスのデータ値を決定するパラメータ手段を更に有する。
これは、符号化の改善及び/又は実施化の容易化を可能にし得る。即ち、該フィーチャは複雑さを低減し及び/又は計算的負荷を軽減し得る。特に、本発明は、個々のサブバンドに対してマトリクス演算を実行することにより、多チャンネル信号から両耳仮想空間信号をパラメータに基づいて決定するのを可能にする。第1サブバンドマトリクス値は、多チャンネル復号及び結果としての多チャンネルのHRTF/BRIRフィルタ処理の縦続接続の組み合わせ効果を反映し得る。サブバンドマトリクス乗算は、第1ステレオ信号の全サブバンドに対して実行することができる。
本発明のオプション的フィーチャによれば、前記発生手段は、更に、第1サブバンド間隔とは異なる周波数間隔を持つサブバンドに関連する第1ステレオ信号、関連パラメトリックデータ及び空間パラメータデータのうちの少なくとも1つのデータ値を、第1サブバンドのための対応するデータ値に変換する手段を有する。
これは、符号化の改善及び/又は実施化の容易化を可能にし得る。即ち、該フィーチャは複雑さを低減し及び/又は計算的負荷を軽減し得る。特に、本発明は、異なる処理及びアルゴリズムが、個々の処理に最適なサブバンド分割に基づくものとなるのを可能にし得る。
本発明のオプション的フィーチャによれば、前記発生手段は、前記第2ステレオ信号の第1サブバンドのためのステレオサブバンド値L,Rを、実質的に、
Figure 2009527970
として決定するように構成され、ここで、L,Rは第1ステレオ信号の対応するサブバンド値である。そして、前記パラメータ手段は乗算マトリクスのデータ値を、実質的に、
Figure 2009527970
として決定するように構成され、ここで、mk,lは前記ダウン混合手段によるチャンネルL、R及びCの前記第1ステレオ信号へのダウンミックスに関する関連パラメトリックデータに応答して決定されるパラメータであり、H(X)は第2ステレオ信号のステレオ出力チャンネルJに対するチャンネルXに関する空間パラメータデータに応答して決定される。
これは、改善された符号化及び/又は容易化された実施構成を可能にする。即ち、該フィーチャは複雑さの低減及び/又は計算的負荷の低減を提供することができる。
本発明のオプション的フィーチャによれば、チャンネルL及びRの少なくとも一方は、少なくとも2つのダウン混合されたチャンネルのダウンミックスに対応し、前記パラメータ手段は、H(X)を、上記少なくとも2つのダウン混合されたチャンネルに関する空間パラメータデータの加重組み合わせに応答して決定するように構成される。
これは、改善された符号化及び/又は容易化された実施構成を可能にする。即ち、該フィーチャは複雑さの低減及び/又は計算的負荷の低減を提供することができる。
本発明のオプション的フィーチャによれば、前記パラメータ手段は、上記少なくとも2つのダウン混合されたチャンネルに関する空間パラメータデータの重み付けを、該少なくとも2つのダウン混合されたチャンネルに関する相対エネルギ尺度に応答して決定するように構成される。
これは、改善された符号化及び/又は容易化された実施構成を可能にする。即ち、該フィーチャは複雑さの低減及び/又は計算的負荷の低減を提供することができる。
本発明のオプション的フィーチャによれば、前記空間パラメータデータは、サブバンド当たりの平均レベルパラメータ、平均到達時間パラメータ、少なくとも1つのステレオチャンネルの位相、タイミングパラメータ、群遅延パラメータ、ステレオチャンネル間の位相、及びチャンネル相互間相関パラメータからなるグループから選択される少なくとも1つのパラメータを含む。
これらのパラメータは、特別に有利な符号化を提供することができると共に、特にサブバンド処理に特別に適している。
本発明のオプション的フィーチャによれば、前記出力手段は出力ストリームに音源位置データを含めるように構成される。
これは、デコーダが適切な空間パラメータデータを決定するのを可能にし、及び/又は少ないオーバーヘッドで空間パラメータデータを示す効率的な方法を提供することができる。また、これは、デコーダにおける両耳仮想空間合成処理を逆処理する効率的方法を提供することができ、これにより、高品質な多チャンネル復号を可能にする。該フィーチャは、更に、改善されたユーザ体験を可能にすると共に、移動する音源での両耳仮想空間信号の実施化を可能又は容易化し得る。該フィーチャは、代わりに又は追加的に、例えば先ずエンコーダで実行された合成を逆処理し、次いで個別化された又は個性化された両耳知覚伝達関数を用いて合成する等により、デコーダにおける空間合成の個別化を可能にする。
本発明のオプション的フィーチャによれば、前記出力手段は、出力ストリームに前記空間パラメータデータの少なくとも幾らかを含ませるように構成される。
これは、デコーダにおける両耳仮想空間合成処理を逆処理する効率的方法を提供することができ、これにより、高品質な多チャンネル復号を可能にする。該フィーチャは、更に、改善されたユーザ体験を可能にすると共に、移動する音源での両耳仮想空間信号の実施化を可能又は容易化し得る。上記空間パラメータデータは、例えばデコーダが該空間パラメータデータを決定するのを可能にするような情報を含めることにより、出力ストリームに直接的に又は間接的に含めることができる。該フィーチャは、代わりに又は追加的に、例えば先ずエンコーダで実行された合成を逆処理し、次いで個別化された又は個性化された両耳知覚伝達関数を用いて合成する等により、デコーダにおける空間合成の個別化を可能にする。
本発明のオプション的フィーチャによれば、前記エンコーダは、前記空間パラメータデータを所望のサウンド信号位置に応答して決定する手段を更に有する。
これは、改善された符号化及び/又は容易化された実施構成を可能にする。上記所望のサウンド信号位置は、前記Mチャンネル信号の個々のチャンネルに関する音源の位置に対応することができる。
本発明の他の態様によれば、Mチャンネルオーディオ信号(但し、M>2)に対応した両耳信号である第1ステレオ信号と該Mチャンネルオーディオ信号のダウン混合されたステレオ信号に関連するパラメトリックデータとを有する入力データを入力する手段と、前記パラメトリックデータと前記第1ステレオ信号に関連する両耳知覚伝達関数のための第1空間パラメータデータとに応答して、前記第1ステレオ信号を修正することにより前記ダウン混合されたステレオ信号を発生する発生手段とを有するようなオーディオデコーダが提供される。
本発明は、改善されたオーディオ復号を可能にし得る。特に、本発明は、高品質のステレオ復号を可能にすると共に、特にエンコーダの両耳仮想空間合成処理がデコーダにおいて逆処理されるのを可能にする。本発明は、低複雑度のデコーダを可能にする。本発明は、容易化された実施構成及び機能の再利用を可能にする。
上記両耳信号は、特には、仮想3D両耳ステレオ信号等の両耳仮想空間信号とすることができる。上記空間パラメータデータは、意図する音源位置から意図するユーザの耳までの伝達関数を示すデータを有することができる。上記両耳知覚伝達関数は、例えば、頭部伝達関数(HRTF)又は両耳室内インパルス応答(BRIR)とすることができる。
本発明のオプション的フィーチャによれば、当該オーディオデコーダは、前記ダウン混合されたステレオ信号及び前記パラメトリックデータに応答して、前記Mチャンネルオーディオ信号を発生する手段を更に有する。
本発明は、改善されたオーディオ復号を可能にし得る。特に、本発明は、高品質の多チャンネル復号を可能にすると共に、特にエンコーダの両耳仮想空間合成処理がデコーダにおいて逆処理されるのを可能にする。本発明は、低複雑度のデコーダを可能にする。本発明は、容易化された実施構成及び機能の再利用を可能にする。
上記Mチャンネルオーディオ信号は、5.1又は7.1サラウンド信号等のサラウンド信号とすることができる。上記両耳信号は、Mチャンネルオーディオ信号の各チャンネルに対して1つの音源位置をエミュレーションするような仮想空間信号とすることができる。
本発明のオプション的フィーチャによれば、前記発生手段は、前記第1ステレオ信号に関するサブバンドデータ値、前記空間パラメータデータ及び前記関連するパラメトリックデータに応答して、前記ダウン混合されたステレオ信号に関するサブバンドデータ値を計算することにより前記ダウン混合されたステレオ信号を発生するよう構成される。
これは、改善された復号及び/又は容易化された実施構成を可能にする。特に、該フィーチャは、複雑さを低減させ、及び/又は計算的負荷を低減させる。前記第1ステレオ信号、ダウン混合されたステレオ信号、関連するパラメトリックデータ及び空間パラメータデータの周波数サブバンド間隔は異なってもよく、又は幾つかの若しくは全てのサブバンドは、これらの幾つか又は全てに対して実質的に同一であってもよい。
本発明のオプション的フィーチャによれば、前記発生手段は、前記ダウン混合されたステレオ信号の第1サブバンドに関するサブバンド値を、前記第1ステレオ信号に関する対応するステレオサブバンド値の第1サブバンドマトリクスによる乗算に応答して発生するよう構成され、該発生手段は、前記第1サブバンドに関する空間パラメータデータ及びパラメトリックデータに応答して前記第1サブバンドマトリクスのデータ値を決定するパラメータ手段を更に有している。
これは、改善された復号及び/又は容易化された実施構成を可能にする。特に、該フィーチャは、複雑さを低減させ、及び/又は計算的負荷を低減させる。上記第1サブバンドマトリクス値は、多チャンネル復号及び結果としての多チャンネルのHRTF/BRIRフィルタ処理の縦続接続の組み合わせ効果を反映し得る。サブバンドマトリクス乗算は、ダウン混合されたステレオ信号の全てのサブバンドに対して実行することができる。
本発明のオプション的フィーチャによれば、前記入力データは少なくとも幾らかの空間パラメータデータを有する。
これは、エンコーダにおいて実行された両耳仮想空間合成処理を逆処理する効率的な方法を提供し、これにより、高品質の多チャンネル復号を可能にする。該フィーチャは、更に、改善されたユーザ体験を可能にすると共に、移動する音源の両耳仮想空間信号の実施化を可能に又は容易化し得る。上記空間パラメータデータは前記入力データに直接的に又は間接的に含めることができ、例えば、該データはデコーダが当該空間パラメータデータを決定するのを可能にするような如何なる情報とすることもできる。
本発明のオプション的フィーチャによれば、前記入力データは音源位置データを有し、当該デコーダは該音源位置データに応答して空間パラメータデータを決定する手段を有する。
これは、改善された符号化及び/又は容易化された実施構成を可能にする。所望のサウンド信号位置は、Mチャンネル信号の個々のチャンネルに関する音源の位置に対応し得る。
当該デコーダは、例えば、異なる音源位置に関連したHRTF空間パラメータデータを有するようなデータ記憶部を有することができ、使用すべき空間パラメータデータを、示された位置に対するパラメータデータを取り出すことにより決定することができる。
本発明のオプション的フィーチャによれば、当該オーディオデコーダは、前記関連するパラメトリックデータと、前記第1空間パラメータデータとは異なる第2両耳感知伝達関数に関する第2空間パラメータデータとに応答して、前記第1ステレオ信号を修正することにより1対の両耳出力チャンネルを生成する空間デコーダユニットを更に有する。
該フィーチャは、改善された空間合成を可能にすると共に、特に、特定のユーザに特に適した個人的又は個別化された空間合成両耳信号を可能にする。これは、旧来のステレオデコーダが該デコーダにおける空間合成を必要とすることなく空間両耳信号を発生するのを可能にしながら、達成することができる。従って、改善されたオーディオシステムを達成することができる。上記第2両耳知覚伝達関数は、特には第1空間パラメータデータの両耳知覚伝達関数とは異なるものとすることができる。該第2両耳知覚伝達関数及び第2空間データは、特に、当該デコーダの個々のユーザに対して個別化することができる。
本発明のオプション的フィーチャによれば、上記空間デコーダユニットは、前記パラメトリックデータを、前記第2空間パラメータデータを用いて両耳合成パラメータに変換するパラメータ変換ユニットと、前記1対の両耳チャンネルを、前記両耳合成パラメータ及び前記第1ステレオ信号を用いて合成する空間合成ユニットとを有する。
これは、改善された性能及び/又は容易化された実施構成及び/又は複雑さの低減を可能にする。上記両耳パラメータは、両耳チャンネルのサブバンドサンプルを発生するために第1ステレオ信号及び/又はダウン混合されたステレオ信号のサブバンドサンプルで乗算することができるようなパラメータとすることができる。該乗算は、例えば、マトリクス乗算であり得る。
本発明のオプション的フィーチャによれば、上記両耳合成パラメータは、前記ダウン混合されたステレオ信号のステレオサンプルを前記1対の両耳出力チャンネルのステレオサンプルに関係付ける2x2マトリクスのマトリクス係数を有する。
これは、改善された性能及び/又は容易化された実施構成及び/又は複雑さの低減を可能にする。上記ステレオサンプルは、例えばQMF又はフーリエ変換周波数サブバンドのステレオサブバンドサンプルであり得る。
本発明のオプション的フィーチャによれば、上記両耳合成パラメータは、前記第1ステレオ信号のステレオサブバンドサンプルを前記1対の両耳出力チャンネルのステレオサンプルに関係付ける2x2マトリクスのマトリクス係数を有する。
これは、改善された性能及び/又は容易化された実施構成及び/又は複雑さの低減を可能にする。上記ステレオサンプルは、例えばQMF又はフーリエ変換周波数サブバンドのステレオサブバンドサンプルであり得る。
本発明の他の態様によれば、Mチャンネルオーディオ信号を入力するステップと(但し、M>2)、前記Mチャンネルオーディオ信号を第1ステレオ信号及び関連するパラメトリックデータにダウン混合するステップと、前記関連するパラメトリックデータ及び両耳知覚伝達関数のための空間パラメータデータに応答して前記第1ステレオ信号を修正し、両耳信号である第2ステレオ信号を発生するステップと、前記第2ステレオ信号を符号化して符号化データを発生するステップと、前記符号化データ及び前記関連するパラメトリックデータを有する出力データストリームを発生するステップとを有するようなオーディオ符号化方法が提供される。
本発明の他の態様によれば、
− Mチャンネルオーディオ信号(但し、M>2)に対応した両耳信号である第1ステレオ信号と該Mチャンネルオーディオ信号のダウン混合されたステレオ信号に関連するパラメトリックデータとを有するような入力データを入力するステップと、
− 前記パラメトリックデータと前記第1ステレオ信号に関連する両耳知覚伝達関数のための空間パラメータデータとに応答して、前記第1ステレオ信号を修正することにより前記ダウン混合されたステレオ信号を発生するステップと、
を有するオーディオ復号方法が提供される。
本発明の他の態様によれば、Mチャンネルオーディオ信号(但し、M>2)に対応した両耳信号である第1ステレオ信号と該Mチャンネルオーディオ信号のダウン混合されたステレオ信号に関連するパラメトリックデータとを有する入力データを入力する手段と、前記パラメトリックデータと前記第1ステレオ信号に関連する両耳知覚伝達関数のための空間パラメータデータとに応答して、前記第1ステレオ信号を修正することにより前記ダウン混合されたステレオ信号を発生する発生手段とを有するオーディオ信号を受信する受信機が提供される。
本発明の他の態様によれば、Mチャンネルオーディオ信号を入力する手段と(但し、M>2)、前記Mチャンネルオーディオ信号を第1ステレオ信号及び関連するパラメトリックデータにダウン混合するダウン混合手段と、前記関連するパラメトリックデータ及び両耳知覚伝達関数のための空間パラメータデータに応答して前記第1ステレオ信号を修正し、両耳信号である第2ステレオ信号を発生する発生手段と、前記第2ステレオ信号を符号化して符号化データを発生する手段と、前記符号化データ及び前記関連するパラメトリックデータを有するような出力データストリームを発生する出力手段と、前記出力データストリームを送信する手段とを有するような出力データストリームを送信する送信機が提供される。
本発明の他の態様によれば、
Mチャンネルオーディオ信号を入力する手段と(但し、M>2)、前記Mチャンネルオーディオ信号を第1ステレオ信号及び関連するパラメトリックデータにダウン混合するダウン混合手段と、前記関連するパラメトリックデータ及び両耳知覚伝達関数のための空間パラメータデータに応答して前記第1ステレオ信号を修正し、両耳信号である第2ステレオ信号を発生する発生手段と、前記第2ステレオ信号を符号化して符号化データを発生する手段と、前記符号化データ及び前記関連するパラメトリックデータを有するようなオーディオ出力データストリームを発生する出力手段と、前記オーディオ出力データストリームを送信する手段とを有する送信機と、
前記オーディオ出力データストリームを受信する手段と、前記パラメトリックデータと前記空間パラメータデータとに応答して、前記第2ステレオ信号を修正することにより前記第1ステレオ信号を発生する手段とを有する受信機と、
を有するようなオーディオ信号を伝送する伝送システムが提供される。
本発明の他の態様によれば、Mチャンネルオーディオ信号(但し、M>2)に対応した両耳信号である第1ステレオ信号と該Mチャンネルオーディオ信号のダウン混合されたステレオ信号に関連するパラメトリックデータとを有する入力データを受信するステップと、前記パラメトリックデータと前記第1ステレオ信号に関連する両耳知覚伝達関数のための空間パラメータデータとに応答して、前記第1ステレオ信号を修正することにより前記ダウン混合されたステレオ信号を発生するステップとを有するようなオーディオ信号を受信する方法が提供される。
本発明の他の態様によれば、Mチャンネルオーディオ信号を入力するステップと(但し、M>2)、前記Mチャンネルオーディオ信号を第1ステレオ信号及び関連するパラメトリックデータにダウン混合するステップと、前記関連するパラメトリックデータ及び両耳知覚伝達関数のための空間パラメータデータに応答して前記第1ステレオ信号を修正し、両耳信号である第2ステレオ信号を発生するステップと、前記第2ステレオ信号を符号化して符号化データを発生するステップと、前記符号化データ及び前記関連するパラメトリックデータを有するようなオーディオ出力データストリームを発生するステップと、前記オーディオ出力データストリームを送信するステップとを有するようなオーディオ出力データストリームを送信する方法が提供される。
本発明の他の態様によれば、Mチャンネルオーディオ信号を入力するステップと(但し、M>2)、前記Mチャンネルオーディオ信号を第1ステレオ信号及び関連するパラメトリックデータにダウン混合するステップと、前記関連するパラメトリックデータ及び両耳知覚伝達関数のための空間パラメータデータに応答して前記第1ステレオ信号を修正し、両耳信号である第2ステレオ信号を発生するステップと、前記第2ステレオ信号を符号化して符号化データを発生するステップと、前記符号化データ及び前記関連するパラメトリックデータを有するようなオーディオ出力データストリームを発生するステップと、前記オーディオ出力データストリームを送信するステップと、前記オーディオ出力データストリームを受信するステップと、前記パラメトリックデータと前記空間パラメータデータとに応答して、前記第2ステレオ信号を修正することにより前記第1ステレオ信号を発生するステップとを有するようなオーディオ信号を送信及び受信する方法が提供される。
本発明の他の態様によれば、上述した方法の何れかを実行するためのコンピュータプログラムが提供される。
本発明の他の態様によれば、前述したエンコーダに従うエンコーダを有するようなオーディオ記録装置が提供される。
本発明の他の態様によれば、前述したデコーダに従うデコーダを有するようなオーディオ再生装置が提供される。
本発明の他の態様によれば、第1ステレオ信号と、Mチャンネルオーディオ信号(但し、M>2)のダウン混合されたステレオ信号に関連するパラメトリックデータとを有し、前記第1ステレオ信号が前記Mチャンネルオーディオ信号に対応する両耳信号であるようなオーディオ信号のためのオーディオデータストリームが提供される。
本発明の他の態様によれば、上述したような信号が記憶された記憶媒体が提供される。
本発明の、これら及び他の態様、フィーチャ並びに利点は、以下に説明する実施例から明らかとなり、斯かる実施例を参照して解説されるであろう。
以下、本発明の実施例を、図面を参照して例示としてのみ説明する。
図3は、本発明の幾つかの実施例によるオーディオ信号の通信のための伝送システム300を示す。該伝送システム300は、ネットワーク305を開始して受信機303に結合された送信機301を示し、上記ネットワークはインターネットとすることができる。
該特定の例において、送信機301は信号記録装置であり、受信機は信号再生装置303であるが、他の実施例では送信機及び受信機は他の用途において他の目的に使用することができると理解される。例えば、送信機301及び/又は受信機303は、トランスコーディング機能の一部とすることができ、例えば他の信号源又は宛先に対するインターフェース機能を提供することができる。
信号記録機能がサポートされる該特定の例では、送信機301はデジタイザ307を有し、該デジタイザはアナログ信号を受信し、該アナログ信号はサンプリング及びアナログ/デジタル変換によりデジタルPCM信号に変換される。デジタイザ307は、複数の信号をサンプリングし、これにより多チャンネル信号を発生する。
送信機301は図1のエンコーダ309に結合され、該エンコーダは上記多チャンネル信号を符号化アルゴリズムに従って符号化する。エンコーダ309はネットワーク送信機311に結合され、該ネットワーク送信機は上記符号化された信号を入力すると共にインターネット305にインターフェースする。上記ネットワーク送信機は、上記符号化された信号を、インターネット305を介して受信機303に送信することができる。
受信機303はネットワークレシーバ313を有し、該ネットワークレシーバはインターネット305とインターフェースすると共に、送信機301から前記符号化された信号を受信するように構成されている。
ネットワークレシーバ313はデコーダ315に結合されている。デコーダ315は、上記の符号化された信号を入力し、該信号を復号アルゴリズムに従って復号する。
信号再生機能がサポートされる該特定の例では、受信機303は更に信号再生器317を有し、該再生器はデコーダ315から復号されたオーディオ信号を入力すると共に、該信号をユーザに提供する。即ち、信号再生器313は、復号されたオーディオ信号を出力する必要に応じて、デジタル/アナログ変換器、増幅器及びスピーカを有することができる。
当該特定の例において、エンコーダ309は5チャンネルサラウンドサウンド信号を入力し、該信号をステレオ信号にダウン混合する。次いで、該ステレオ信号は両耳信号を発生するように後処理されるが、該両耳信号は、特には、3D両耳ダウンミックスの形態の両耳仮想空間信号である。空間符号化の後のダウンミックスに作用する3D後処理段を使用することにより、3D処理はデコーダ315において逆処理することができる。結果として、スピーカ再生用の多チャンネルデコーダは、修正されたステレオダウンミックスによる品質の大きな劣化は示すことがなく、同時に、従来のステレオデコーダも3D適合信号を生成するであろう。このように、エンコーダ309は、高品質多チャンネル復号を可能にすると同時に、1対のヘッドフォンに信号を供給する伝統的なデコーダからのような、伝統的ステレオ出力からの疑似空間体験を可能にするような信号を発生することができる。
図4は、エンコーダ309を、より詳細に示す。
エンコーダ309は、多チャンネルオーディオ信号を入力する多チャンネルレシーバを有している。説明される原理は、2より大きな如何なる数のチャンネルをも有する多チャンネル信号に適用されるが、該特定の例は、標準のサラウンドサウンド信号に対応する5チャンネル信号に焦点を絞る(明瞭化及び簡略化のために、サウンド信号にしばしば使用される低い周波数の信号は無視される。しかしながら、当業者にとっては、当該多チャンネル信号が追加の低周波数チャンネルを有することができることは明らかであろう。このチャンネルは、例えば、ダウン混合プロセッサによりセンタチャンネルと組み合わせることができる)。
多チャンネルレシーバ401はダウンミックスプロセッサ403に結合され、該プロセッサは上記5チャンネルオーディオ信号を第1ステレオ信号にダウン混合するように構成されている。更に、該ダウンミックスプロセッサ403は、第1ステレオ信号に関連されると共に該第1ステレオ信号を当該多チャンネル信号の元のチャンネルに関係付けるオーディオキュー及び情報を含むようなパラメトリックデータ405を発生する。
ダウンミックスプロセッサ403は、例えば、MPEGサラウンド多チャンネルエンコーダとして実施化することができる。このようなエンコーダの一例が、図5に図示されている。該例において、多チャンネル入力信号はLf(左フロント)、Ls(左サラウンドサウンド)、C(センタ)、RF(右フロント)及びRs(右サラウンド)チャンネルからなっている。Lf及びLsチャンネルは第1のTTO(2/1)ダウンミキサ501に供給され、該ダウンミキサは左(L)チャンネル用のモノダウンミックス、並びに2つの入力チャンネルLf及びLsを出力Lチャンネルに関係付けるパラメータを発生する。同様にして、Rf及びRsチャンネルは第2のTTOダウンミキサ503に供給され、該ダウンミキサは右(R)チャンネル用のモノダウンミックス、並びに2つの入力チャンネルRf及びRsを出力Rチャンネルに関係付けるパラメータを発生する。次いで、R、L及びCチャンネルはTTT(3/2)ダウンミキサ505に供給され、該ダウンミキサは、これら3つの信号を組み合わせてステレオダウンミックス及び付加的空間パラメータを発生する。
TTTダウンミキサ505から得られる上記パラメータは、典型的には、各パラメータ帯域に関する1対の予測係数、又は上記3つの信号のエネルギ比を記述する1対のレベル差からなる。TTOダウンミキサ501、503のパラメータは、典型的には、各周波数帯域に関する入力信号間のレベル差及びコヒーレンス又は相互相関値からなる。
このように、発生された第1ステレオ信号は、複数のダウン混合されたチャンネルを有する従来の標準のステレオ信号である。多チャンネルデコーダは、アップ混合すると共に関連パラメトリックデータを適用することにより元の多チャンネル信号を生成することができる。しかしながら、標準のステレオデコーダはステレオ信号を単に提供するのみであるので、空間情報を放出してしまい、ユーザ体験を低下させる。
しかしながら、エンコーダ309においては、ダウン混合された信号は直接符号化及び送信されるのではない。むしろ、第1ステレオ信号は空間プロセッサ407に供給され、該プロセッサにはダウンミックスプロセッサ403から関連パラメータデータ405も供給される。該空間プロセッサ407は、更に、HRTFプロセッサ409にも結合されている。
HRTFプロセッサ409は、3D両耳信号を発生するために空間プロセッサ407により使用される頭部伝達関数(HRTF)を発生する。即ち、HRTFは所与の音源位置から鼓膜までのインパルス応答による伝達関数を記述する。HRTFプロセッサ409は、特に、或る周波数副帯域(サブバンド)における所望のHRTF関数の値に対応するようなHRTFパラメータデータを発生する。HRTFプロセッサ409は、例えば、当該多チャンネル信号のチャンネルのうちの1つの音源位置に対してHRTFを計算することができる。この伝達関数は、適切な周波数サブバンドドメイン(QMF又はFFTサブバンドドメイン等の)に変換することができ、各サブバンドにおける対応するHRTFパラメータ値を決定することができる。
本説明は頭部伝達関数の適用に焦点を絞っているが、説明される方法及び原理は、両耳室内インパルス応答(BRIR)関数等の他の(空間)両耳知覚伝達関数にも同様に等しく適用することができることが理解されよう。両耳知覚伝達関数の他の例は、1つの入力チャンネルから両耳ステレオ出力チャンネルの各々への信号レベルの相対量を記述する簡単な振幅パンニング規則(panning rule)である。
幾つかの実施例では、上記HRTFパラメータは動的に計算することができる一方、他の実施例では、斯かるパラメータは予め決定され、適切なデータ記憶部に記憶することができる。例えば、HRTFパラメータはデータベースに方位(azimuth)、仰角(elevation)、距離及び周波数帯域の関数として記憶することができる。この場合、所与の周波数サブバンドに対する適切なHRTFパラメータは、所望の空間音源位置に対する値を選択することにより簡単に取り出すことができる。
空間プロセッサ407は、関連パラメトリックデータ及び空間HRTFパラメータデータに応答して、第1ステレオ信号を修正し、第2ステレオ信号を発生する。第1ステレオ信号とは対照的に、第2ステレオ信号は、両耳仮想空間信号であり、特には、通常のステレオシステムを介して(例えば、1対のヘッドフォンにより)提供された場合に、異なる音源位置にある3以上の音源の存在をエミュレーションするような向上された空間体験を提供することができるような3D両耳信号である。
第2ステレオ信号はエンコードプロセッサ411に供給され、該エンコードプロセッサは上記空間プロセッサ407に結合されると共に、第2ステレオ信号を送信に適したデータストリームに符号化する(例えば、適切な量子化レベルを適用する等)。該エンコードプロセッサ411は出力プロセッサ413に結合され、該出力プロセッサは少なくとも符号化された第2ステレオ信号データ及びダウンミックスプロセッサ403により発生された関連パラメータデータ405を組み合わせることにより出力ストリームを発生する。
典型的には、HRTF合成は個々の音源の全てに関する波形(例えば、サラウンドサウンド信号の状況でのスピーカ信号)を必要とする。しかしながら、エンコーダ307においてはHRTF対が周波数サブバンドに対してパラメータ化されており、これにより、例えば仮想5.1スピーカ設定が、符号化(及びダウン混合)の間に抽出された空間パラメータの助けにより、前記多チャンネル入力信号のダウンミックスの低複雑度の後処理により発生されるのを可能にする。
前記空間プロセッサは、特に、QMF又はFFTサブバンドドメイン等のサブバンドドメインで動作することができる。ダウン混合された第1ステレオ信号を復号して元の多チャンネル信号を発生し、これにHRTFフィルタ処理を用いたHRTF合成が後続されるようにする代わりに、空間プロセッサ407は、各サブバンドに対して、ダウン混合された第1ステレオ信号の多チャンネル信号への復号と、これに後続する該多チャンネル信号の3D両耳信号としての再符号化との組み合わせ効果に対応するようなパラメータ値を発生する。
即ち、発明者は、3D両耳信号は上記第1信号のサブバンド信号値に2x2マトリクス乗算を適用することにより発生することができることを理解した。該第2信号の結果的信号値は、縦続接続されたチャンネル復号及びHRTF合成により発生されるであろう信号値に密接に対応する。このように、多チャンネル復号とHRTF合成との組み合わせ信号処理は、第2信号の所望のサブバンド値を発生するために第1信号のサブバンド信号値に簡単に適用することができるような4つのパラメータ値(マトリクス係数)へと組み合わせることができる。該マトリクスパラメータ値は、多チャンネル信号の復号とHRTF合成との組み合わせ処理を反映するので、斯かるパラメータ値は、ダウンミックスプロセッサ403からの関連パラメータデータ及びHRTFパラメータの両方に応答して決定される。
エンコーダ309において、HRTF関数は個々の周波数帯域に対してパラメータ化される。HRTFパラメータ化の目的は、各HRTF対から音源配置に関する最も重要なキュー(合図)を捕捉することである。これらのパラメータは、
− 左耳インパルス応答に関する周波数サブバンド毎の(平均)レベル、
− 右耳インパルス応答に関する周波数サブバンド毎の(平均)レベル、
− 左耳インパルス応答と右耳インパルス応答との間の(平均)到達時間又は位相差、
− 左耳インパルス応答及び右耳インパルス応答の両方に関する周波数サブバンド毎の(平均)絶対位相又は時間(若しくは群遅延)(この場合、上記時間又は位相差は、殆どの場合、不要となる)、
− 対応するインパルス応答の間の周波数サブバンド毎のチャンネル相互間相関又はコヒーレンス、
を含むことができる。
周波数サブバンド当たりの上記レベルパラメータは、仰角合成(スペクトルにおける特定のピーク及び谷による)及び方位に対するレベル差(各サブバンドに関するレベルパラメータの比により決定される)を容易にすることができる。
前記絶対位相値又は位相差値は両耳の間の到達時間差を捕捉することができ、これらは音源方位に対する重要なキューでもある。前記コヒーレンス値は、(パラメータ)帯域毎に平均されるレベル及び/又は位相差に貢献し得ない両耳の間の微細な構造差をシミュレーションするために追加することができる。
以下、空間プロセッサ407による処理の特定の例を説明する。該例において、音源の位置は、聴取者に対して図6に示されるように方位角α及び距離Dにより定められる。当該聴取者の左に配置された音源は、正の方位角に対応する。該音源位置から左耳までの伝達関数はHにより示され、該音源位置から右耳までの伝達関数はHにより示される。
伝達関数H及びHは、方位角α、距離D及び仰角ε(図6には示されていない)に依存する。パラメトリック表現では、上記伝達関数は、HRTF周波数サブバンドb当たり3つのパラメータの組として記述することができる。このパラメータの組は、左伝達関数に関する周波数帯域当たりの平均レベルPl(α,ε,D,bh)、右伝達関数に関する周波数帯域当たりの平均レベルPr(α,ε,D,bh)及び周波数帯域当たりの平均位相差φ(α,ε,D,bh)を含む。この組の可能性のある拡張は、HRTF周波数帯域当たりの左及び右伝達関数のコヒーレンス尺度ρ(α,ε,D,bh)を含めることである。これらのパラメータはデータベースに方位、仰角、距離及び周波数帯域の関数として記憶することができ、及び/又は何らかの解析関数を用いて計算することができる。例えば、P及びPパラメータは方位及び仰角の関数として記憶することができる一方、距離の効果は、これらの値を距離自体で除算することにより得られる(信号レベルと距離との間の1/Dなる関係を仮定する)。以下において、Pl(Lf)なる表記は、Lfチャンネルの音源位置に対応する空間パラメータPlを示す。
HRTFパラメータ化のための周波数サブバンド(b)の数及び各サブバンドの帯域幅は、空間プロセッサ407により使用される(QMF)フィルタバンクの周波数分解能(k)又はダウンミックスプロセッサ403及び関連パラメータバンド(b)の空間パラメータ分解能と必ずしも等しい必要はないことに注意すべきである。例えば、QMFハイブリッドフィルタバンクは71チャンネルを持つことができ、HRTFは28の周波数帯域でパラメータ化することができ、空間符号化は10個のパラメータバンドを用いて実行することができる。そのような場合、空間及びHRTFパラメータからQMFハイブリッドインデックスへのマッピングは、例えば、ルックアップテーブル又は補間若しくは平均化関数を用いて適用することができる。当該説明では、下記のパラメータインデックスが用いられる。
Figure 2009527970
該特定の例において、空間プロセッサ407は前記第1ステレオ信号をQMFフィルタ処理により適切な周波数サブバンドに分割する。各サブバンドに関し、サブバンド値L及びRは、
Figure 2009527970
として決定され、ここでL及びRは第1ステレオ信号の対応するサブバンド値であり、マトリクス値hi,jはHRTFパラメータ及びダウンミックス関連パラメトリックデータから決定される。
上記マトリクス係数は、ダウンミックスの特性を全ての個々のチャンネルが所望の音源位置に対応するHRTFにより処理されたかのように再生することを目的とするもので、これらは前記多チャンネル信号の復号と、これに対するHRTF合成の実行との組み合わせ効果を有するものである。
即ち、図5及び該図の説明を参照すると、上記マトリクス値は、
Figure 2009527970
として決定することができ、ここで、mk,lはTTTダウンミキサ505により発生されたパラメトリックデータに応答して決定されるパラメータである。
詳細に述べると、L、R及びC信号はステレオダウンミックス信号L及びRから、
Figure 2009527970
により発生され、ここで、mk,lは2つの予測係数c及びcに依存し、これらは送信される空間パラメータの一部である。
Figure 2009527970
(X)は、第2ステレオ信号のステレオ出力チャンネルJに対するチャンネルX用のHRTFパラメータデータ及び適切なダウンミックスパラメータに応答して決定される。
詳細には、H(X)パラメータは2つのTTOダウンミキサ501及び503により発生された左(L)及び右(R)ダウンミックス信号に関係するもので、2つのダウン混合されたチャンネルに対するHRTFパラメータデータに応答して決定することができる。即ち、2つの個々の左(Lf及びLs)又は右(Rf及びRs)チャンネルに関するHRTFパラメータの加重組み合わせを使用することができる。個々のパラメータは、個々の信号の相対エネルギにより重みを付けることができる。特定の例として、左(L)信号に対して下記の値を決定することができ、
Figure 2009527970
ここで、重みWは、
Figure 2009527970
により与えられ、CLDはデシベルで規定される左フロント(Lf)と左サラウンド(Ls)との間の"チャンネルレベル差"であり(これは空間パラメータビットストリームの一部である)、
Figure 2009527970
ここで、ρ2 lfはLfチャンネルのパラメータサブバンドにおけるパワーであり、ρ2 lsはLsチャンネルの対応するサブバンドにおけるパワーである。
同様にして、右(R)信号に対して下記の値を決定することができ、
Figure 2009527970
センタ(C)信号に対して、
Figure 2009527970
を決定することができる。
このように、上述した方法を使用すれば、低複雑度の空間処理が、ダウン混合された多チャンネル信号に基づいて両耳仮想空間信号が発生されるのを可能にすることができる。
以上のように、上述した方法の利点は、前記関連ダウンミックスパラメータの周波数サブバンド、空間プロセッサ407による空間処理及びHRTFパラメータが同一である必要がないということである。例えば、或るサブバンドのパラメータと空間処理のサブバンドとの間のマッピングを実行することができる。例えば、空間処理サブバンドが2つのHRTFパラメータサブバンドに対応する周波数区間をカバーする場合、空間プロセッサ407は、全てのHRTFパラメータサブバンドに対して当該空間パラメータに対応するのと同一の空間パラメータを使用して、HRTFパラメータサブバンドに対し(個々の)処理を単に適用することができる。
幾つかの実施例では、エンコーダ309は、デコーダが出力ストリームにおける音源の1以上の所望の位置データを識別するのを可能にするような音源位置データを含むように構成することができる。これは、デコーダがエンコーダ309により適用されたHRTFパラメータを決定するのを可能にし、これにより、デコーダが空間プロセッサ407の処理を逆処理するのを可能にする。付加的に又は代替的に、上記エンコーダは出力ストリームにHRTFパラメータの少なくとも幾つかを含むように構成することができる。
このように、オプションとして、HRTFパラメータ及び/又はスピーカ位置データを出力ストリームに含めることができる。これは、例えば、スピーカ位置データの時間の関数としての動的更新(スピーカ位置の送信の場合)又は個性化されたHRTFデータの使用(HRTFパラメータの送信の場合)を可能にする。
HRTFパラメータがビットストリームの一部として送信される場合、各周波数帯域及び各音源位置に対して少なくともP、P及びφパラメータを送信することができる。大きさのパラメータP、Pは、線形量子化器を用いて量子化することができるか、又は対数ドメインで量子化することができる。位相角φは線形に量子化することができる。この場合、量子化器のインデックスをビットストリームに含めることができる。
更に、位相角φは、典型的には2.5kHzより高い周波数に対してはゼロであると仮定することができる。何故なら、両耳間位相情報は高い周波数に対しては知覚的に無関係であるからである。
量子化の後、HRTFパラメータ量子化器インデックスに対して種々の無損失圧縮方式を適用することができる。例えば、恐らくは周波数帯域に跨る異なる符号化との組み合わせで、エントロピ符号化を適用することができる。他の例として、HRTFパラメータは、共通の又は平均のHRTFパラメータ組に対する差分として表すこともできる。これは、特に、大きさのパラメータに対して当てはまる。それ以外では、位相パラメータは、単に仰角及び方位を符号化することにより極めて正確に近似することができる。両耳に対する経路差がある場合、到達時間差を計算することにより(典型的に、到達時間差は特に周波数依存性であり、殆どの方位及び仰角に依存する)、対応する位相パラメータを導出することができる。更に、測定された差は、方位及び仰角値に基づいて予測値に対して差分的に符号化することができる。
また、主成分の分解に、幾つかの最も重要なPCA重みの送信が後続するような損失性圧縮方式も適用することができる。
図7は、本発明の実施例による多チャンネルデコーダの一例を示す。該デコーダは、特には、図3のデコーダ315であり得る。
該デコーダ315は、エンコーダ309からの出力ストリームを入力する入力レシーバ701を有している。該入力レシーバ701は、入力されたデータストリームをデマルチプレクスし、関連するデータを適切な機能エレメントに供給する。
入力レシーバ701はデコードプロセッサ703に結合され、該プロセッサには前記第2ステレオ信号の符号化データが供給される。デコードプロセッサ703は、このデータを復号して、前記空間プロセッサ407により作成された両耳仮想空間信号を発生する。
デコードプロセッサ703は逆処理プロセッサ705に結合され、該プロセッサは、空間プロセッサ407により実行された処理を逆処理するように構成されている。このようにして、逆処理プロセッサ705は、ダウンミックスプロセッサ403により作成されたダウン混合されたステレオ信号を発生する。
詳細には、上記逆処理プロセッサ705は、入力された両耳仮想空間信号のサブバンド値にマトリクス乗算を適用することにより、ダウン混合されたステレオ信号を発生する。該マトリクス乗算は、空間プロセッサ407により使用されたものの逆行列に対応するマトリクスによるもので、これにより、この処理を逆処理する、
Figure 2009527970
このマトリクス乗算は、
Figure 2009527970
と書くこともできる。
上記マトリクス係数qk,lは、ダウンミックス信号に関連する(及びエンコーダ309からのデータストリームで受信された)パラメトリックデータ及びHRTFパラメータデータから決定される。即ち、前記エンコーダ309に関して説明した方法を、マトリクス係数hxyを発生するためにデコーダ409により使用することもできる。この場合、マトリクス係数qxyは、標準の行列反転により見つけることができる。
上記逆処理プロセッサ705はパラメータプロセッサ707に結合され、該パラメータプロセッサは使用されるべきHRTFパラメータを決定する。幾つかの実施例では、該HRTFパラメータは受信されたデータストリームに含まれており、該データストリームから簡単に抽出することができる。他の実施例では、例えばデータベースに異なる音源位置に関して異なるHRTFパラメータを記憶することができ、パラメータプロセッサ707がHRTFパラメータを所望の信号源位置に対応する値を取り出すことにより決定することができる。幾つかの実施例では、所望の信号源位置(又は複数の位置)を、エンコーダ309からのデータストリームに含めることができる。パラメータプロセッサ707は、この情報を抽出し、該情報を使用してHRTFパラメータを決定することができる。例えば、該プロセッサは、音源位置(又は複数の位置)を示すために記憶されたHRTFパラメータを取り出すことができる。
幾つかの実施例では、前記逆処理プロセッサにより発生されたステレオ信号を直接出力することができる。しかしながら、他の実施例では、該ステレオ信号は多チャンネルデコーダ709に供給され、該デコーダは、ダウン混合されたステレオ信号及び入力されたパラメトリックデータからMチャンネル信号を発生することができる。
当該例において、3D両耳合成の逆処理は、QMF又はフーリエ周波数サブバンドにおけるように、サブバンドドメインにおいて実行される。このように、デコードプロセッサ703は、逆処理プロセッサ705に供給されるサブバンドサンプルを発生するためにQMFフィルタバンク又は高速フーリエ変換(FFT)を有することができる。同様にして、逆処理プロセッサ705又は多チャンネルデコーダ709は、当該信号を時間ドメインに戻すように変換するために逆FFT又はQMFフィルタバンクを有することができる。
エンコーダ側における3D両耳信号の発生は、従来のステレオデコーダによりヘッドセットのユーザに空間聴取体験が提供されるのを可能にする。このように、上述した方法は、旧来のステレオ装置が3D両耳信号を再生することができるという利点を有している。そのようであるので、3D両耳信号を再生するために、追加の後処理を適用する必要がなく、結果的に低複雑度の解決策となる。
しかしながら、このような方法では、典型的には一般化されたHRTFが使用され、斯かるHRTFは、幾つかのケースにおいては、特定のユーザに対して最適化された専用のHRTFデータを使用するデコーダにおける3D両耳信号の発生と比較して、準最適な空間発生にしかならない。
即ち、距離の限られた知覚及び可能性のある音源配置エラーが、時には、個性化されていないHRTF(ダミー頭部又は他人に対して測定されたインパルス応答等)の使用から生じ得る。基本的に、HRTFは、人体の解剖学的幾何学構造の差により、人毎に相違する。従って、正しい音源配置の点での最適な結果は、個性化されたHRTFデータにより最良に達成され得るものである。
幾つかの実施例においては、デコーダ315は、先ずエンコーダ309の空間処理を逆処理し、次にローカルなHRTFデータを用いて、特には特定のユーザに対して最適化された個人的HRTFデータを用いて3D両耳信号を発生するような機能を更に有することができる。このように、この実施例においては、デコーダ315は、ダウン混合されたステレオ信号を前記関連パラメトリックデータ及びエンコーダ309において使用された(HRTF)データとは異なるHRTFパラメータデータを使用して修正することにより1対の両耳出力チャンネルを発生する。従って、この方法は、エンコーダ側の3D合成、デコーダ側の逆処理、及びこれらに後続する他のステージのデコーダ側3D合成の組み合わせを提供する。
斯様な方法の利点は、旧来のステレオ装置が基本的3D品質を提供するような出力としての3D両耳信号を有する一方、拡張されたデコーダは個性化されたHRTFを使用して改善された3D品質を可能にするようなオプションを有することになることである。この様に、旧来の互換性のある3D合成及び高品質の専用3D合成の両方が、同一のオーディオシステムで可能となる。
このようなシステムの一例が図8に示されており、該図は個別化された3D両耳信号を提供するために、図7のデコーダに追加の空間プロセッサ801をどの様に追加することができるかを示している。幾つかの実施例では、空間プロセッサ801は、オーディオチャンネルの各々に対し個人的HRTFを用いて単に直截な3D両耳合成を行うことができる。このように、当該デコーダは元の多チャンネル信号を生成し、これを個別化されたHRTFフィルタ処理を用いて3D両耳信号に変換することができる。
他の実施例では、エンコーダ合成の逆処理及びデコーダ合成を組み合わせて、低複雑度の処理を提供することができる。即ち、デコーダ合成に使用される個別化されたHRTFを、パラメータ化し、エンコーダ3D合成に使用されたパラメータ(の逆)と組み合わせることができる。
更に詳細には、前述したように、エンコーダ合成は、ダウン混合された信号のステレオサブバンドサンプルを2x2マトリクスにより乗算する処理、
Figure 2009527970
を含み、ここで、L、Rは上記ダウン混合されたステレオ信号の対応するサブバンド値であり、マトリクス値hj,kは前述したようにHRTFパラメータ及びダウンミックス関連パラメトリックデータから決定されるパラメータである。
逆処理プロセッサ705により実行される反転は、
Figure 2009527970
により与えられ、ここで、L、Rはデコーダのダウン混合されたステレオ信号の対応するサブバンド値である。
デコーダ側の適切な逆処理を保証するためには、3D両耳信号を発生するためにエンコーダにおいて使用されたHRTFパラメータ及び該3D両耳信号を逆処理するために使用されるHRTFパラメータは同一とするか又は十分に類似したものとする。1つのビットストリームは、通常、幾つかのデコーダに作用するので、3D両耳ダウンミックスの個性化はエンコーダ合成により得るのは困難である。
しかしながら、3D両耳合成処理は可逆的であるので、逆処理プロセッサ705はダウン混合されたステレオ信号を再生し、次いで該ステレオ信号が、個性化されたHRTFに基づいて3D両耳信号を発生するために使用される。
即ち、エンコーダ309における処理と同様に、デコーダ315における3D両耳合成は、3D両耳信号LB、RBを発生するためのダウンミックス信号L,Rに対する簡単なサブバンド毎の2x2マトリクス演算により下記のように発生することができ、
Figure 2009527970
ここで、パラメータpx,yは、hx,yが汎用HRTFに基づきエンコーダ309により発生されたのと同様の方法で、個性化されたHRTFに基づいて決定される。更に詳細には、エンコーダ309においては、パラメータhx,yは多チャンネルパラメトリックデータ及び汎用HRTFから決定される。上記多チャンネルパラメトリックデータはデコーダ315に送信されるので、該デコーダにより上記と同じ方法を個人的HRTFに基づいてpx,yを計算するために使用することができる。
これを、逆処理プロセッサ705の処理と組み合わせると、
Figure 2009527970
となる。
この式において、マトリクスエントリhx,yはエンコーダで使用された汎用の個性化されていないHRTFを用いて得られる一方、マトリクスエントリpx,yは別の好ましくは個性化されたHRTF組を用いて求められる。従って、非個性化HRTFデータを用いて発生された3D両耳入力信号L,Rは、別の個性化されたHRTFデータを用いて他の3D両耳出力信号LB',RB'に変換される。
更に、示されたように、エンコーダ合成の逆処理及びデコーダ合成の組み合わせ方法は、簡単な2x2マトリクス演算により達成することができる。従って、この組み合わせ処理の計算的複雑さは、実質的に、簡単な3D両耳逆処理に関するものと同じである。
図9は、上述した原理に従って動作するデコーダ315の一例を示す。詳細には、エンコーダ309からの3D両耳ステレオダウンミックスのステレオサブバンドサンプルは逆処理プロセッサ705に供給され、該プロセッサは2x2マトリクス演算により元のステレオダウンミックスサンプルを再生する。
Figure 2009527970
結果としてのサブバンドサンプルは空間合成ユニット901に供給され、該ユニットは、これらサンプルを2x2マトリクスにより乗算することにより個性化された3D両耳信号を発生する。
Figure 2009527970
上記マトリクス係数は、エンコーダ309から受信された多チャンネル拡張データと個性化されたHRTFとに基づいてパラメータを発生するパラメータ変換ユニット903により発生される。
合成サブバンドサンプルL,Rはサブバンド/時間ドメイン変換器905に供給され、該変換器はユーザに提供することが可能な3D時間ドメイン信号を発生する。
図9は、非個性化HRTFに基づく3D逆処理のステップ及び個性化されたHRTFに基づく3D合成のステップを異なる機能ユニットによる順次処理として示しているが、多くの実施例においては、これら処理は単一のマトリクスの適用により同時に適用することができることが分かるであろう。即ち、2x2マトリクス、
Figure 2009527970
が計算され、出力サンプルが、
Figure 2009527970
と計算される。
上述したシステムは下記のものを含む多数の利点を提供することが分かるであろう。
− 多チャンネルデコーダにおいて、空間ステレオ処理としての多チャンネル再生を(知覚的に)僅かな品質劣化又は品質劣化なしで逆処理することができる。
− (3D)空間両耳ステレオ体験を従来のステレオデコーダによっても提供することができる。
− 既存の空間配置方法と比較して複雑さが低減される。複雑さは次のような多数の態様で低減される。
HRTFの効率的な記憶。HRTFインパルス応答を記憶する代わりに、HRTFを特徴付けるべく限られた数のパラメータが使用される。
効率的な3D処理。HRTFは限られた周波数分解能においてパラメータとして特徴付けられ、HRTFパラメータの適用は(高度にダウンサンプリングされた)パラメータドメインで実行されるので、空間合成段は完全なHRTF畳み込みに基づく従来の合成方法よりも一層効率的である。
必要とされる処理は例えばQMFドメインで実行することができるので、結果的に、FFTに基づく方法よりも計算的負荷及びメモリの負荷が小さくなる。
− 既存のサラウンドサウンド構築ブロック(標準のMPEGサラウンドサウンド符号化/復号機能等の)の効率的な再利用が、最小の複雑さの実施化を可能にする。
− エンコーダにより送信された(パラメータ化された)HRTFデータの修正による個人化の可能性。
− 送信される位置情報により、音源位置がオンザフライで変化し得る。
図10は、本発明の実施例によるオーディオ符号化の方法を示す。
該方法はステップ1001で開始し、該ステップにおいてMチャンネルオーディオ信号が入力される(M>2)。
ステップ1001にはステップ1003が後続し、該ステップにおいて上記Mチャンネルオーディオ信号は第1ステレオ信号及び関連するパラメトリックデータにダウン混合される。
ステップ1003にはステップ1005が後続し、該ステップにおいて上記第1ステレオ信号は、上記関連パラメトリックデータ及び空間頭部伝達関数(HRTF)パラメータデータに応答して、第2ステレオ信号を発生すべく修正される。該第2ステレオ信号は両耳仮想空間信号である。
ステップ1005にはステップ1007が後続し、該ステップにおいては、上記第2ステレオ信号が符号化されて、符号化データを発生する。
ステップ1007にはステップ1009が後続し、該ステップにおいて上記符号化データ及び前記関連パラメトリックデータを有する出力データストリームが発生される。
図11は、本発明の実施例によるオーディオ復号の方法を示す。
該方法はステップ1101で開始し、該ステップにおいて、デコーダは、第1ステレオ信号及びMチャンネルオーディオ信号(ここで、M>2である)のダウン混合されたステレオ信号に関連するパラメトリックデータを有するような入力データを受信する。上記第1ステレオ信号は両耳仮想空間信号である。
ステップ1101にはステップ1103が後続し、該ステップにおいて上記第1ステレオ信号は、上記パラメトリックデータ及び該第1ステレオ信号に関連する空間頭部伝達関数(HRTF)パラメータデータに応答して、前記ダウン混合されたステレオ信号を発生すべく修正される。
ステップ1103にはステップ1105が後続し、該ステップにおいては、上記ダウン混合されたステレオ信号及びパラメトリックデータに応答して、前記Mチャンネルオーディオ信号が発生される。
上記記載は、明瞭化のために、本発明の実施例を異なる機能ユニット及びプロセッサを参照して説明したことが分かるであろう。しかしながら、異なる機能ユニット又はプロセッサの間の如何なる適切な機能の分散も、本発明から逸脱することなしに利用することができることは明であろう。例えば、別個のプロセッサ又はコントローラにより実行されるように説明された機能は、同一のプロセッサ又はコントローラにより実行することができる。従って、特定の機能ユニットに対する言及は、厳密な論理的又は物理的構造又は編成を示すというより、説明された機能を提供する適切な手段を示すものとだけ理解されるべきである。
本発明は、ハードウェア、ソフトウェア、ファームウエア又はこれらの何れかの組み合わせを含む如何なる好適な形態でも実施化することができる。本発明は、オプションとして、少なくとも部分的に、1以上のデータプロセッサ及び/又はデジタル信号プロセッサ上で動作するコンピュータソフトウェアとして実施化することができる。本発明の実施例のエレメント及びコンポーネントは物理的に、機能的に及び論理的に如何なる好適な態様でも実施化することができる。機能は、単一のユニットにおいて、複数のユニットにおいて、又は他の機能ユニットの一部として実施化することができる。そのようであるので、本発明は、単一のユニット内で実施化することができるか、又は異なるユニット及びプロセッサの間で物理的に及び機能的に分散させることもできる。
以上、本発明を幾つかの実施例に関連して説明したが、本発明をここで述べた特定の形態に限定しようとするものではない。むしろ、本発明の範囲は添付請求項によってのみ限定されるものである。更に、或るフィーチャは特定の実施例に関連して説明されているように見えるかもしれないが、当業者であれば、説明された実施例の種々のフィーチャは本発明により組み合わせることができると理解するであろう。請求項において、"有する"なる用語は、他のエレメント又はステップの存在を排除するものではない。
更に、個別に掲載されていても、複数の手段、エレメント又は方法のステップは、例えば単一のユニット又はプロセッサにより実施化することができる。更に、個々のフィーチャが異なる請求項に含まれていても、これらは有利に組み合わせることができ、異なる請求項に含めることは、フィーチャの組み合わせが可能及び/又は有利ではないことを意味するものではない。また、1つのカテゴリの請求項にフィーチャを含めることは、このカテゴリへの限定を意味するものではなく、該フィーチャが、適宜、他のカテゴリの請求項へも等しく適用可能であることを示すものである。更に、請求項におけるフィーチャの順序は、斯かるフィーチャが実行されるべき如何なる特定の順序を意味するものではなく、特に、方法の請求項における個々のステップの順序は、この順序で斯かるステップが実行されねばならないことを意味するものではない。むしろ、斯かるステップは如何なる好適な順序で実行することもできる。更に、単一的参照は複数を排除するものではない。かくして、単一表現、"第1の"及び"第2の"等は複数を排除するものではない。請求項における括弧内の符号は、単に明瞭化のための例として付されたもので、請求項の範囲を如何なる形でも限定するものとして見なしてはならない。
図1は、従来技術による両耳合成の説明図である。 図2は、多チャンネルデコーダ及び両耳合成の縦続接続の説明図である。 図3は、本発明の実施例によるオーディオ信号の通信のための伝送システムを示す。 図4は、本発明の実施例によるエンコーダを示す。 図5は、サラウンドサウンド・パラメトリック・ダウンミックス・エンコーダを示す。 図6は、ユーザに対する音源位置の一例を示す。 図7は、本発明の実施例による多チャンネルデコーダを示す。 図8は、本発明の実施例によるデコーダを示す。 図9は、本発明の実施例によるデコーダを示す。 図10は、本発明の実施例によるオーディオ符号化の方法を示す。 図11は、本発明の実施例によるオーディオ復号の方法を示す。

Claims (34)

  1. Mチャンネルオーディオ信号を入力する手段と(但し、M>2)、
    前記Mチャンネルオーディオ信号を第1ステレオ信号及び関連するパラメトリックデータにダウン混合するダウン混合手段と、
    前記関連するパラメトリックデータ及び両耳知覚伝達関数のための空間パラメータデータに応答して前記第1ステレオ信号を修正し、両耳信号である第2ステレオ信号を発生する発生手段と、
    前記第2ステレオ信号を符号化して符号化データを発生する手段と、
    前記符号化データ及び前記関連するパラメトリックデータを有する出力データストリームを発生する出力手段と、
    を有するオーディオエンコーダ。
  2. 前記発生手段が、前記関連するパラメトリックデータ、前記空間パラメータデータ及び前記第1ステレオ信号に関するサブバンドデータ値に応答して、前記第2ステレオ信号に関するサブバンドデータ値を計算することにより前記第2ステレオ信号を発生するよう構成されている請求項1に記載のエンコーダ。
  3. 前記発生手段が、前記第2ステレオ信号の第1サブバンドに関するサブバンド値を、前記第1ステレオ信号に関する対応するステレオサブバンド値の第1サブバンドマトリクスによる乗算に応答して発生するよう構成され、該発生手段が、前記第1サブバンドに関する空間パラメータデータ及び関連するパラメトリックデータに応答して前記第1サブバンドマトリクスのデータ値を決定するパラメータ手段を更に有しているような請求項2に記載のエンコーダ。
  4. 前記発生手段が、前記第1サブバンド区間とは異なる周波数区間を有するサブバンドに関連する空間パラメータデータ、前記関連するパラメトリックデータ及び前記第1ステレオ信号のうちの少なくとも1つのデータ値を、前記第1サブバンドに関する対応するデータ値に変換する手段を更に有しているような請求項3に記載のエンコーダ。
  5. 前記発生手段が、前記第2ステレオ信号の前記第1サブバンドに関するステレオサブバンド値LB,RBを、実質的に、
    Figure 2009527970
    として決定するように構成され、ここで、L,Rは前記第1ステレオ信号の対応するサブバンド値であり、前記パラメータ手段が、前記乗算マトリクスのデータ値を、実質的に、
    Figure 2009527970
    として決定するように構成され、ここで、mk,lは前記ダウン混合手段によるチャンネルL、R及びCの前記第1ステレオ信号へのダウンミックスに対する関連するパラメトリックデータに応答して決定されるパラメータであり、HJ(X)は前記第2ステレオ信号の出力チャンネルJに対するチャンネルXに関する空間パラメータデータに応答して決定されるような請求項3に記載のエンコーダ。
  6. チャンネルL及びRの少なくとも一方が、少なくとも2つのダウン混合されたチャンネルのダウンミックスに対応し、前記パラメータ手段がHJ(X)を前記少なくとも2つのダウン混合されたチャンネルに関する空間パラメータデータの加重組み合わせに応答して決定するように構成されている請求項5に記載のエンコーダ。
  7. 前記パラメータ手段が、前記少なくとも2つのダウン混合されたチャンネルに関する前記空間パラメータデータの重み付けを前記少なくとも2つのダウン混合されたチャンネルに関する相対エネルギ尺度に応答して決定するように構成された請求項6に記載のエンコーダ。
  8. 前記空間パラメータデータが、
    − サブバンド当たりの平均レベルパラメータ、
    − 平均到達時間パラメータ、
    − 少なくとも1つのステレオチャンネルの位相、
    − タイミングパラメータ、
    − 群遅延パラメータ、
    − ステレオチャンネル間の位相、及び
    − チャンネル相互相関パラメータ、
    からなるグループから選択された少なくとも1つのパラメータを含むような請求項1に記載のエンコーダ。
  9. 前記出力手段が、前記出力データストリームに音源位置データを含めるように構成された請求項1に記載のエンコーダ。
  10. 前記出力手段が、前記出力データストリームに前記空間パラメータデータの少なくとも幾らかを含めるように構成された請求項1に記載のエンコーダ。
  11. 前記空間パラメータデータを所望のサウンド信号位置に応答して決定する手段を更に有するような請求項1に記載のエンコーダ。
  12. Mチャンネルオーディオ信号(但し、M>2)に対応した両耳信号である第1ステレオ信号と該Mチャンネルオーディオ信号のダウン混合されたステレオ信号に関連するパラメトリックデータとを有する入力データを入力する手段と、
    前記パラメトリックデータと前記第1ステレオ信号に関連する両耳知覚伝達関数のための第1空間パラメータデータとに応答して、前記第1ステレオ信号を修正することにより前記ダウン混合されたステレオ信号を発生する発生手段と、
    を有するオーディオデコーダ。
  13. 前記ダウン混合されたステレオ信号及び前記パラメトリックデータに応答して、前記Mチャンネルオーディオ信号を発生する手段を更に有するような請求項12に記載のデコーダ。
  14. 前記発生手段が、前記第1ステレオ信号に関するサブバンドデータ値、前記第1空間パラメータデータ及び前記関連するパラメトリックデータに応答して、前記ダウン混合されたステレオ信号に関するサブバンドデータ値を計算することにより前記ダウン混合されたステレオ信号を発生するよう構成された請求項12に記載のデコーダ。
  15. 前記発生手段が、前記ダウン混合されたステレオ信号の第1サブバンドに関するサブバンド値を、前記第1ステレオ信号に関する対応するステレオサブバンド値の第1サブバンドマトリクスによる乗算に応答して発生するよう構成され、該発生手段が、前記第1サブバンドに関する両耳知覚伝達関数及びパラメトリックデータに応答して前記第1サブバンドマトリクスのデータ値を決定するパラメータ手段を更に有しているような請求項14に記載のデコーダ。
  16. 前記入力データが前記第1空間パラメータデータの少なくとも幾らかを有するような請求項12に記載のデコーダ。
  17. 前記入力データが音源位置データを有し、当該デコーダが該音源位置データに応答して前記第1空間パラメータデータを決定する手段を有しているような請求項12に記載のデコーダ。
  18. 前記関連するパラメトリックデータと、前記第1空間パラメータデータとは異なる第2両耳感知伝達関数に関する第2空間パラメータデータとに応答して、前記第1ステレオ信号を修正することにより1対の両耳出力チャンネルを生成する空間デコーダユニット、
    を更に有するような請求項12に記載のデコーダ。
  19. 前記空間デコーダユニットが、
    − 前記パラメトリックデータを、前記第2空間パラメータデータを用いて両耳合成パラメータに変換するパラメータ変換ユニットと、
    − 前記1対の両耳出力チャンネルを、前記両耳合成パラメータ及び前記第1ステレオ信号を用いて合成する空間合成ユニットと、
    を有するような請求項18に記載のデコーダ。
  20. 前記両耳合成パラメータが、前記ダウン混合されたステレオ信号のステレオサンプルを前記1対の両耳出力チャンネルのステレオサンプルに関係付ける2x2マトリクスのマトリクス係数を有しているような請求項19に記載のデコーダ。
  21. 前記両耳合成パラメータが、前記第1ステレオ信号のステレオサブバンドサンプルを前記1対の両耳出力チャンネルのステレオサンプルに関係付ける2x2マトリクスのマトリクス係数を有しているような請求項19に記載のデコーダ。
  22. Mチャンネルオーディオ信号を入力するステップと(但し、M>2)、
    前記Mチャンネルオーディオ信号を第1ステレオ信号及び関連するパラメトリックデータにダウン混合するステップと、
    前記関連するパラメトリックデータ及び両耳知覚伝達関数のための空間パラメータデータに応答して前記第1ステレオ信号を修正し、両耳信号である第2ステレオ信号を発生するステップと、
    前記第2ステレオ信号を符号化して符号化データを発生するステップと、
    前記符号化データ及び前記関連するパラメトリックデータを有する出力データストリームを発生するステップと、
    を有するオーディオ符号化方法。
  23. Mチャンネルオーディオ信号(但し、M>2)に対応した両耳信号である第1ステレオ信号と該Mチャンネルオーディオ信号のダウン混合されたステレオ信号に関連するパラメトリックデータとを有するような入力データを入力するステップと、
    前記パラメトリックデータと前記第1ステレオ信号に関連する両耳知覚伝達関数のための空間パラメータデータとに応答して、前記第1ステレオ信号を修正することにより前記ダウン混合されたステレオ信号を発生するステップと、
    を有するオーディオ復号方法。
  24. Mチャンネルオーディオ信号(但し、M>2)に対応した両耳信号である第1ステレオ信号と該Mチャンネルオーディオ信号のダウン混合されたステレオ信号に関連するパラメトリックデータとを有する入力データを入力する手段と、
    前記パラメトリックデータと前記第1ステレオ信号に関連する両耳知覚伝達関数のための空間パラメータデータとに応答して、前記第1ステレオ信号を修正することにより前記ダウン混合されたステレオ信号を発生する発生手段と、
    を有するオーディオ信号を受信する受信機。
  25. Mチャンネルオーディオ信号を入力する手段と(但し、M>2)、
    前記Mチャンネルオーディオ信号を第1ステレオ信号及び関連するパラメトリックデータにダウン混合するダウン混合手段と、
    前記関連するパラメトリックデータ及び両耳知覚伝達関数のための空間パラメータデータに応答して前記第1ステレオ信号を修正し、両耳信号である第2ステレオ信号を発生する発生手段と、
    前記第2ステレオ信号を符号化して符号化データを発生する手段と、
    前記符号化データ及び前記関連するパラメトリックデータを有するような出力データストリームを発生する出力手段と、
    前記出力データストリームを送信する手段と、
    を有する出力データストリームを送信する送信機。
  26. Mチャンネルオーディオ信号を入力する手段と(但し、M>2)、
    前記Mチャンネルオーディオ信号を第1ステレオ信号及び関連するパラメトリックデータにダウン混合するダウン混合手段と、
    前記関連するパラメトリックデータ及び両耳知覚伝達関数のための空間パラメータデータに応答して前記第1ステレオ信号を修正し、両耳信号である第2ステレオ信号を発生する発生手段と、
    前記第2ステレオ信号を符号化して符号化データを発生する手段と、
    前記符号化データ及び前記関連するパラメトリックデータを有するようなオーディオ出力データストリームを発生する出力手段と、
    前記オーディオ出力データストリームを送信する手段と、
    を有する送信機と、
    前記オーディオ出力データストリームを受信する手段と、
    前記パラメトリックデータと前記空間パラメータデータとに応答して、前記第2ステレオ信号を修正することにより前記第1ステレオ信号を発生する手段と、
    を有する受信機と、
    を有するオーディオ信号を伝送する伝送システム。
  27. Mチャンネルオーディオ信号(但し、M>2)に対応した両耳信号である第1ステレオ信号と該Mチャンネルオーディオ信号のダウン混合されたステレオ信号に関連するパラメトリックデータとを有する入力データを受信するステップと、
    前記パラメトリックデータと前記第1ステレオ信号に関連する両耳知覚伝達関数のための空間パラメータデータとに応答して、前記第1ステレオ信号を修正することにより前記ダウン混合されたステレオ信号を発生するステップと、
    を有するオーディオ信号を受信する方法。
  28. Mチャンネルオーディオ信号を入力するステップと(但し、M>2)、
    前記Mチャンネルオーディオ信号を第1ステレオ信号及び関連するパラメトリックデータにダウン混合するステップと、
    前記関連するパラメトリックデータ及び両耳知覚伝達関数のための空間パラメータデータに応答して前記第1ステレオ信号を修正し、両耳信号である第2ステレオ信号を発生するステップと、
    前記第2ステレオ信号を符号化して符号化データを発生するステップと、
    前記符号化データ及び前記関連するパラメトリックデータを有するようなオーディオ出力データストリームを発生するステップと、
    前記オーディオ出力データストリームを送信するステップと、
    を有するオーディオ出力データストリームを送信する方法。
  29. Mチャンネルオーディオ信号を入力するステップと(但し、M>2)、
    前記Mチャンネルオーディオ信号を第1ステレオ信号及び関連するパラメトリックデータにダウン混合するステップと、
    前記関連するパラメトリックデータ及び両耳知覚伝達関数のための空間パラメータデータに応答して前記第1ステレオ信号を修正し、両耳信号である第2ステレオ信号を発生するステップと、
    前記第2ステレオ信号を符号化して符号化データを発生するステップと、
    前記符号化データ及び前記関連するパラメトリックデータを有するようなオーディオ出力データストリームを発生するステップと、
    前記オーディオ出力データストリームを送信するステップと、
    前記オーディオ出力データストリームを受信するステップと、
    前記パラメトリックデータと前記空間パラメータデータとに応答して、前記第2ステレオ信号を修正することにより前記第1ステレオ信号を発生するステップと、
    を有するオーディオ信号を送信及び受信する方法。
  30. 請求項22、23、27、28及び29の何れか一項に記載の方法を実行するためのコンピュータプログラム。
  31. 請求項1に記載のエンコーダを有するオーディオ記録装置。
  32. 請求項12に記載のデコーダを有するオーディオ再生装置。
  33. 第1ステレオ信号と、
    Mチャンネルオーディオ信号(但し、M>2)のダウン混合されたステレオ信号に関連するパラメトリックデータと、
    を有し、前記第1ステレオ信号が前記Mチャンネルオーディオ信号に対応する両耳信号であるようなオーディオ信号のためのオーディオデータストリーム。
  34. 請求項33に記載のオーディオデータストリームを記憶した記憶媒体。
JP2008555915A 2006-02-21 2007-02-13 オーディオ符号化及び復号 Active JP5081838B2 (ja)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
EP06110231.5 2006-02-21
EP06110231 2006-02-21
EP06110803.1 2006-03-07
EP06110803 2006-03-07
EP06112104 2006-03-31
EP06112104.2 2006-03-31
EP06119670 2006-08-29
EP06119670.5 2006-08-29
PCT/IB2007/050473 WO2007096808A1 (en) 2006-02-21 2007-02-13 Audio encoding and decoding

Publications (3)

Publication Number Publication Date
JP2009527970A true JP2009527970A (ja) 2009-07-30
JP2009527970A5 JP2009527970A5 (ja) 2010-04-02
JP5081838B2 JP5081838B2 (ja) 2012-11-28

Family

ID=38169667

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008555915A Active JP5081838B2 (ja) 2006-02-21 2007-02-13 オーディオ符号化及び復号

Country Status (12)

Country Link
US (4) US9009057B2 (ja)
EP (1) EP1989920B1 (ja)
JP (1) JP5081838B2 (ja)
KR (1) KR101358700B1 (ja)
CN (1) CN101390443B (ja)
AT (1) ATE456261T1 (ja)
BR (1) BRPI0707969B1 (ja)
DE (1) DE602007004451D1 (ja)
ES (1) ES2339888T3 (ja)
PL (1) PL1989920T3 (ja)
TW (1) TWI508578B (ja)
WO (1) WO2007096808A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120095920A (ko) * 2009-10-15 2012-08-29 프랑스 텔레콤 최적의 저-스루풋 파라메트릭 코딩/디코딩
KR20140036232A (ko) * 2011-06-16 2014-03-25 장-뤽 오레 개선된 복원을 위한 오디오 신호 처리 방법
JP2016507173A (ja) * 2013-01-15 2016-03-07 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. バイノーラルのオーディオ処理
JP2022548697A (ja) * 2019-09-23 2022-11-21 ドルビー ラボラトリーズ ライセンシング コーポレイション 変換パラメータによるオーディオ符号化/復号化

Families Citing this family (94)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101390443B (zh) 2006-02-21 2010-12-01 皇家飞利浦电子股份有限公司 音频编码和解码
US8027479B2 (en) 2006-06-02 2011-09-27 Coding Technologies Ab Binaural multi-channel decoder in the context of non-energy conserving upmix rules
AU2007300810B2 (en) * 2006-09-29 2010-06-17 Lg Electronics Inc. Methods and apparatuses for encoding and decoding object-based audio signals
US8571875B2 (en) * 2006-10-18 2013-10-29 Samsung Electronics Co., Ltd. Method, medium, and apparatus encoding and/or decoding multichannel audio signals
CN101884065B (zh) * 2007-10-03 2013-07-10 创新科技有限公司 用于双耳再现和格式转换的空间音频分析和合成的方法
WO2009046460A2 (en) * 2007-10-04 2009-04-09 Creative Technology Ltd Phase-amplitude 3-d stereo encoder and decoder
RU2443075C2 (ru) * 2007-10-09 2012-02-20 Конинклейке Филипс Электроникс Н.В. Способ и устройство для генерации бинаурального аудиосигнала
EP2128856A4 (en) * 2007-10-16 2011-11-02 Panasonic Corp DEVICE FOR PRODUCING A STREAM AND DECODING DEVICE AND CORRESPONDING METHOD
US20090103737A1 (en) * 2007-10-22 2009-04-23 Kim Poong Min 3d sound reproduction apparatus using virtual speaker technique in plural channel speaker environment
US9031242B2 (en) * 2007-11-06 2015-05-12 Starkey Laboratories, Inc. Simulated surround sound hearing aid fitting system
JP2009128559A (ja) * 2007-11-22 2009-06-11 Casio Comput Co Ltd 残響効果付加装置
KR100954385B1 (ko) * 2007-12-18 2010-04-26 한국전자통신연구원 개인화된 머리전달함수를 이용한 3차원 오디오 신호 처리장치 및 그 방법과, 그를 이용한 고현장감 멀티미디어 재생시스템
JP2009206691A (ja) 2008-02-27 2009-09-10 Sony Corp 頭部伝達関数畳み込み方法および頭部伝達関数畳み込み装置
KR20090110242A (ko) * 2008-04-17 2009-10-21 삼성전자주식회사 오디오 신호를 처리하는 방법 및 장치
US8705751B2 (en) 2008-06-02 2014-04-22 Starkey Laboratories, Inc. Compression and mixing for hearing assistance devices
US9185500B2 (en) 2008-06-02 2015-11-10 Starkey Laboratories, Inc. Compression of spaced sources for hearing assistance devices
US9485589B2 (en) 2008-06-02 2016-11-01 Starkey Laboratories, Inc. Enhanced dynamics processing of streaming audio by source separation and remixing
PL3300076T3 (pl) 2008-07-11 2019-11-29 Fraunhofer Ges Forschung Koder audio i dekoder audio
ES2524391T3 (es) * 2008-07-31 2014-12-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Generación de señal para señales binaurales
EP2351024A1 (en) 2008-10-01 2011-08-03 GVBB Holdings S.A.R.L Decoding apparatus, decoding method, encoding apparatus, encoding method, and editing apparatus
EP2175670A1 (en) * 2008-10-07 2010-04-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Binaural rendering of a multi-channel audio signal
EP2356825A4 (en) * 2008-10-20 2014-08-06 Genaudio Inc AUDIO SPACE AND ENVIRONMENT SIMULATION
KR101342425B1 (ko) 2008-12-19 2013-12-17 돌비 인터네셔널 에이비 다중-채널의 다운믹싱된 오디오 입력 신호에 리버브를 적용하기 위한 방법 및 다중-채널의 다운믹싱된 오디오 입력 신호에 리버브를 적용하도록 구성된 리버브레이터
JP5540581B2 (ja) * 2009-06-23 2014-07-02 ソニー株式会社 音声信号処理装置および音声信号処理方法
TWI433137B (zh) 2009-09-10 2014-04-01 Dolby Int Ab 藉由使用參數立體聲改良調頻立體聲收音機之聲頻信號之設備與方法
JP2011065093A (ja) * 2009-09-18 2011-03-31 Toshiba Corp オーディオ信号補正装置及びオーディオ信号補正方法
ES2644520T3 (es) * 2009-09-29 2017-11-29 Dolby International Ab Decodificador de señal de audio MPEG-SAOC, método para proporcionar una representación de señal de mezcla ascendente usando decodificación MPEG-SAOC y programa informático usando un valor de parámetro de correlación inter-objeto común dependiente del tiempo/frecuencia
WO2011045506A1 (fr) * 2009-10-12 2011-04-21 France Telecom Traitement de donnees sonores encodees dans un domaine de sous-bandes
EP2323130A1 (en) * 2009-11-12 2011-05-18 Koninklijke Philips Electronics N.V. Parametric encoding and decoding
EP2346028A1 (en) 2009-12-17 2011-07-20 Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. An apparatus and a method for converting a first parametric spatial audio signal into a second parametric spatial audio signal
CN102157150B (zh) 2010-02-12 2012-08-08 华为技术有限公司 立体声解码方法及装置
CN102157152B (zh) * 2010-02-12 2014-04-30 华为技术有限公司 立体声编码的方法、装置
JP5533248B2 (ja) 2010-05-20 2014-06-25 ソニー株式会社 音声信号処理装置および音声信号処理方法
JP2012004668A (ja) 2010-06-14 2012-01-05 Sony Corp 頭部伝達関数生成装置、頭部伝達関数生成方法及び音声信号処理装置
KR101697550B1 (ko) * 2010-09-16 2017-02-02 삼성전자주식회사 멀티채널 오디오 대역폭 확장 장치 및 방법
TWI489450B (zh) 2010-12-03 2015-06-21 Fraunhofer Ges Forschung 用以產生音訊輸出信號或資料串流之裝置及方法、和相關聯之系統、電腦可讀媒體與電腦程式
CN102395070B (zh) * 2011-10-11 2014-05-14 美特科技(苏州)有限公司 双耳录音耳机
WO2013111034A2 (en) * 2012-01-23 2013-08-01 Koninklijke Philips N.V. Audio rendering system and method therefor
WO2013111038A1 (en) * 2012-01-24 2013-08-01 Koninklijke Philips N.V. Generation of a binaural signal
US9436929B2 (en) * 2012-01-24 2016-09-06 Verizon Patent And Licensing Inc. Collaborative event playlist systems and methods
US9510124B2 (en) * 2012-03-14 2016-11-29 Harman International Industries, Incorporated Parametric binaural headphone rendering
EP2741285B1 (en) 2012-07-02 2019-04-10 Sony Corporation Decoding device and method, encoding device and method, and program
WO2014007097A1 (ja) 2012-07-02 2014-01-09 ソニー株式会社 復号装置および方法、符号化装置および方法、並びにプログラム
BR112015005456B1 (pt) 2012-09-12 2022-03-29 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E. V. Aparelho e método para fornecer capacidades melhoradas de downmix guiado para áudio 3d
CN104981866B (zh) * 2013-01-04 2018-09-28 华为技术有限公司 用于确定立体声信号的方法
EP2946572B1 (en) 2013-01-17 2018-09-05 Koninklijke Philips N.V. Binaural audio processing
CN103152500B (zh) * 2013-02-21 2015-06-24 黄文明 多方通话中回音消除方法
CN108810793B (zh) 2013-04-19 2020-12-15 韩国电子通信研究院 多信道音频信号处理装置及方法
WO2014171791A1 (ko) * 2013-04-19 2014-10-23 한국전자통신연구원 다채널 오디오 신호 처리 장치 및 방법
US9445197B2 (en) * 2013-05-07 2016-09-13 Bose Corporation Signal processing for a headrest-based audio system
GB2515089A (en) * 2013-06-14 2014-12-17 Nokia Corp Audio Processing
EP2830047A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for low delay object metadata coding
EP2830045A1 (en) * 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Concept for audio encoding and decoding for audio channels and audio objects
EP2830050A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for enhanced spatial audio object coding
US9319819B2 (en) 2013-07-25 2016-04-19 Etri Binaural rendering method and apparatus for decoding multi channel audio
TWI774136B (zh) 2013-09-12 2022-08-11 瑞典商杜比國際公司 多聲道音訊系統中之解碼方法、解碼裝置、包含用於執行解碼方法的指令之非暫態電腦可讀取的媒體之電腦程式產品、包含解碼裝置的音訊系統
EP4120699A1 (en) 2013-09-17 2023-01-18 Wilus Institute of Standards and Technology Inc. Method and apparatus for processing multimedia signals
KR101804744B1 (ko) 2013-10-22 2017-12-06 연세대학교 산학협력단 오디오 신호 처리 방법 및 장치
US20160277837A1 (en) * 2013-11-11 2016-09-22 Sharp Kabushiki Kaisha Earphone and earphone system
KR101627661B1 (ko) 2013-12-23 2016-06-07 주식회사 윌러스표준기술연구소 오디오 신호 처리 방법, 이를 위한 파라메터화 장치 및 오디오 신호 처리 장치
KR102149216B1 (ko) 2014-03-19 2020-08-28 주식회사 윌러스표준기술연구소 오디오 신호 처리 방법 및 장치
MX358769B (es) * 2014-03-28 2018-09-04 Samsung Electronics Co Ltd Método y aparato para emitir una señal acústica, y medio de grabación legible en computadora.
KR101856540B1 (ko) 2014-04-02 2018-05-11 주식회사 윌러스표준기술연구소 오디오 신호 처리 방법 및 장치
WO2016077320A1 (en) * 2014-11-11 2016-05-19 Google Inc. 3d immersive spatial audio systems and methods
KR102433613B1 (ko) * 2014-12-04 2022-08-19 가우디오랩 주식회사 개인 특징을 반영한 바이노럴 오디오 신호 처리 방법 및 장치
WO2016108655A1 (ko) 2014-12-31 2016-07-07 한국전자통신연구원 다채널 오디오 신호의 인코딩 방법 및 상기 인코딩 방법을 수행하는 인코딩 장치, 그리고, 다채널 오디오 신호의 디코딩 방법 및 상기 디코딩 방법을 수행하는 디코딩 장치
KR20160081844A (ko) * 2014-12-31 2016-07-08 한국전자통신연구원 다채널 오디오 신호의 인코딩 방법 및 상기 인코딩 방법을 수행하는 인코딩 장치, 그리고, 다채널 오디오 신호의 디코딩 방법 및 상기 디코딩 방법을 수행하는 디코딩 장치
US9613628B2 (en) 2015-07-01 2017-04-04 Gopro, Inc. Audio decoder for wind and microphone noise reduction in a microphone array system
US9460727B1 (en) * 2015-07-01 2016-10-04 Gopro, Inc. Audio encoder for wind and microphone noise reduction in a microphone array system
WO2017035281A2 (en) * 2015-08-25 2017-03-02 Dolby International Ab Audio encoding and decoding using presentation transform parameters
ES2955962T3 (es) * 2015-09-25 2023-12-11 Voiceage Corp Método y sistema que utiliza una diferencia de correlación a largo plazo entre los canales izquierdo y derecho para mezcla descendente en el dominio del tiempo de una señal de sonido estéreo en canales primarios y secundarios
US9734686B2 (en) * 2015-11-06 2017-08-15 Blackberry Limited System and method for enhancing a proximity warning sound
US9749766B2 (en) * 2015-12-27 2017-08-29 Philip Scott Lyren Switching binaural sound
EP3406088B1 (en) * 2016-01-19 2022-03-02 Sphereo Sound Ltd. Synthesis of signals for immersive audio playback
KR102640940B1 (ko) 2016-01-27 2024-02-26 돌비 레버러토리즈 라이쎈싱 코오포레이션 음향 환경 시뮬레이션
WO2017143003A1 (en) * 2016-02-18 2017-08-24 Dolby Laboratories Licensing Corporation Processing of microphone signals for spatial playback
US11234072B2 (en) 2016-02-18 2022-01-25 Dolby Laboratories Licensing Corporation Processing of microphone signals for spatial playback
JP2019518373A (ja) 2016-05-06 2019-06-27 ディーティーエス・インコーポレイテッドDTS,Inc. 没入型オーディオ再生システム
US9913061B1 (en) 2016-08-29 2018-03-06 The Directv Group, Inc. Methods and systems for rendering binaural audio content
FI3539125T3 (fi) 2016-11-08 2023-03-21 Fraunhofer Ges Forschung Laite ja menetelmä monikanavasignaalin koodaamiseksi ja dekoodaamiseksi käyttäen sivuvahvistusta ja jäännösvahvistusta
US10979844B2 (en) 2017-03-08 2021-04-13 Dts, Inc. Distributed audio virtualization systems
US9820073B1 (en) 2017-05-10 2017-11-14 Tls Corp. Extracting a common signal from multiple audio signals
GB2563635A (en) 2017-06-21 2018-12-26 Nokia Technologies Oy Recording and rendering audio signals
US11089425B2 (en) * 2017-06-27 2021-08-10 Lg Electronics Inc. Audio playback method and audio playback apparatus in six degrees of freedom environment
TWI703557B (zh) * 2017-10-18 2020-09-01 宏達國際電子股份有限公司 聲音播放裝置、方法及非暫態儲存媒體
US10504529B2 (en) 2017-11-09 2019-12-10 Cisco Technology, Inc. Binaural audio encoding/decoding and rendering for a headset
WO2019197404A1 (en) 2018-04-11 2019-10-17 Dolby International Ab Methods, apparatus and systems for 6dof audio rendering and data representations and bitstream structures for 6dof audio rendering
EP3870991A4 (en) 2018-10-24 2022-08-17 Otto Engineering Inc. DIRECTIONAL AUDIO COMMUNICATION SYSTEM
CN111107481B (zh) 2018-10-26 2021-06-22 华为技术有限公司 一种音频渲染方法及装置
TW202041053A (zh) 2018-12-28 2020-11-01 日商索尼股份有限公司 資訊處理裝置、資訊處理方法及資訊處理程式
CN111031467A (zh) * 2019-12-27 2020-04-17 中航华东光电(上海)有限公司 一种hrir前后方位增强方法
WO2022010454A1 (en) * 2020-07-06 2022-01-13 Hewlett-Packard Development Company, L.P. Binaural down-mixing of audio signals
CN111885414B (zh) * 2020-07-24 2023-03-21 腾讯科技(深圳)有限公司 一种数据处理方法、装置、设备及可读存储介质
US11736886B2 (en) * 2021-08-09 2023-08-22 Harman International Industries, Incorporated Immersive sound reproduction using multiple transducers

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000138998A (ja) * 1998-10-30 2000-05-16 Sony Corp オーディオ処理装置及びオーディオ再生方法
JP2001057699A (ja) * 1999-06-11 2001-02-27 Pioneer Electronic Corp オーディオ装置
US20030026441A1 (en) * 2001-05-04 2003-02-06 Christof Faller Perceptual synthesis of auditory scenes
JP2004128854A (ja) * 2002-10-02 2004-04-22 Matsushita Electric Ind Co Ltd 音響再生装置
JP2005006018A (ja) * 2003-06-11 2005-01-06 Nippon Hoso Kyokai <Nhk> 立体音響信号符号化装置、立体音響信号符号化方法および立体音響信号符号化プログラム
JP2005195983A (ja) * 2004-01-08 2005-07-21 Sharp Corp ディジタルデータの符号化方法および符号化装置
WO2005098826A1 (en) * 2004-04-05 2005-10-20 Koninklijke Philips Electronics N.V. Method, device, encoder apparatus, decoder apparatus and audio system
JP2005352396A (ja) * 2004-06-14 2005-12-22 Matsushita Electric Ind Co Ltd 音響信号符号化装置および音響信号復号装置
WO2006008683A1 (en) * 2004-07-14 2006-01-26 Koninklijke Philips Electronics N.V. Method, device, encoder apparatus, decoder apparatus and audio system
WO2006011367A1 (ja) * 2004-07-30 2006-02-02 Matsushita Electric Industrial Co., Ltd. オーディオ信号符号化装置および復号化装置

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2165370T3 (es) * 1993-06-22 2002-03-16 Thomson Brandt Gmbh Metodo para obtener una matriz decodificadora multicanal.
US6128597A (en) * 1996-05-03 2000-10-03 Lsi Logic Corporation Audio decoder with a reconfigurable downmixing/windowing pipeline and method therefor
US5946352A (en) * 1997-05-02 1999-08-31 Texas Instruments Incorporated Method and apparatus for downmixing decoded data streams in the frequency domain prior to conversion to the time domain
US6122619A (en) * 1998-06-17 2000-09-19 Lsi Logic Corporation Audio decoder with programmable downmixing of MPEG/AC-3 and method therefor
KR100416757B1 (ko) * 1999-06-10 2004-01-31 삼성전자주식회사 위치 조절이 가능한 가상 음상을 이용한 스피커 재생용 다채널오디오 재생 장치 및 방법
US7236838B2 (en) * 2000-08-29 2007-06-26 Matsushita Electric Industrial Co., Ltd. Signal processing apparatus, signal processing method, program and recording medium
US7583805B2 (en) * 2004-02-12 2009-09-01 Agere Systems Inc. Late reverberation-based synthesis of auditory scenes
WO2002101728A1 (es) 2001-06-11 2002-12-19 Lear Automotive (Eeds) Spain, S.L. Metodo y sistema para cancelacion de exos y ruidos en entornos con condiciones acusticas variables y altamente realimentados
EP1500083B1 (en) * 2002-04-22 2006-06-28 Koninklijke Philips Electronics N.V. Parametric multi-channel audio representation
EP1502361B1 (en) * 2002-05-03 2015-01-14 Harman International Industries Incorporated Multi-channel downmixing device
JP3902065B2 (ja) * 2002-05-10 2007-04-04 パイオニア株式会社 サラウンドヘッドホン出力信号生成装置
EP1547436B1 (en) * 2002-09-23 2009-07-15 Koninklijke Philips Electronics N.V. Generation of a sound signal
KR101008520B1 (ko) * 2002-11-28 2011-01-14 코닌클리케 필립스 일렉트로닉스 엔.브이. 오디오 신호 코딩
ES2273216T3 (es) * 2003-02-11 2007-05-01 Koninklijke Philips Electronics N.V. Codificacion de audio.
US7447317B2 (en) * 2003-10-02 2008-11-04 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V Compatible multi-channel coding/decoding by weighting the downmix channel
TWI233091B (en) * 2003-11-18 2005-05-21 Ali Corp Audio mixing output device and method for dynamic range control
US7394903B2 (en) 2004-01-20 2008-07-01 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Apparatus and method for constructing a multi-channel output signal or for generating a downmix signal
JPWO2005081229A1 (ja) * 2004-02-25 2007-10-25 松下電器産業株式会社 オーディオエンコーダ及びオーディオデコーダ
US7805313B2 (en) * 2004-03-04 2010-09-28 Agere Systems Inc. Frequency-based coding of channels in parametric multi-channel coding systems
KR100636145B1 (ko) * 2004-06-04 2006-10-18 삼성전자주식회사 확장된 고해상도 오디오 신호 부호화 및 복호화 장치
US20050273324A1 (en) * 2004-06-08 2005-12-08 Expamedia, Inc. System for providing audio data and providing method thereof
KR100644617B1 (ko) * 2004-06-16 2006-11-10 삼성전자주식회사 7.1 채널 오디오 재생 방법 및 장치
US7391870B2 (en) * 2004-07-09 2008-06-24 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E V Apparatus and method for generating a multi-channel output signal
US7451325B2 (en) 2004-08-02 2008-11-11 At&T Intellectual Property I, L.P. Methods, systems and computer program products for detecting tampering of electronic equipment by varying a verification process
GB0419346D0 (en) * 2004-09-01 2004-09-29 Smyth Stephen M F Method and apparatus for improved headphone virtualisation
US7720230B2 (en) * 2004-10-20 2010-05-18 Agere Systems, Inc. Individual channel shaping for BCC schemes and the like
US20060106620A1 (en) * 2004-10-28 2006-05-18 Thompson Jeffrey K Audio spatial environment down-mixer
SE0402649D0 (sv) * 2004-11-02 2004-11-02 Coding Tech Ab Advanced methods of creating orthogonal signals
SE0402650D0 (sv) * 2004-11-02 2004-11-02 Coding Tech Ab Improved parametric stereo compatible coding of spatial audio
KR100682904B1 (ko) * 2004-12-01 2007-02-15 삼성전자주식회사 공간 정보를 이용한 다채널 오디오 신호 처리 장치 및 방법
JP4258471B2 (ja) 2005-01-13 2009-04-30 セイコーエプソン株式会社 時刻誤差情報提供システム、端末装置、端末装置の制御方法、端末装置の制御プログラム、端末装置の制御プログラムを記録したコンピュータ読み取り可能な記録媒体
US7961890B2 (en) * 2005-04-15 2011-06-14 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung, E.V. Multi-channel hierarchical audio coding with compact side information
WO2007031905A1 (en) 2005-09-13 2007-03-22 Koninklijke Philips Electronics N.V. Method of and device for generating and processing parameters representing hrtfs
RU2419249C2 (ru) 2005-09-13 2011-05-20 Кониклейке Филипс Электроникс Н.В. Аудиокодирование
WO2007080211A1 (en) * 2006-01-09 2007-07-19 Nokia Corporation Decoding of binaural audio signals
CN101390443B (zh) 2006-02-21 2010-12-01 皇家飞利浦电子股份有限公司 音频编码和解码
US7876904B2 (en) * 2006-07-08 2011-01-25 Nokia Corporation Dynamic decoding of binaural audio signals
KR100873072B1 (ko) * 2006-08-31 2008-12-09 삼성모바일디스플레이주식회사 발광제어구동부 및 그를 이용한 유기전계발광표시장치

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000138998A (ja) * 1998-10-30 2000-05-16 Sony Corp オーディオ処理装置及びオーディオ再生方法
JP2001057699A (ja) * 1999-06-11 2001-02-27 Pioneer Electronic Corp オーディオ装置
US20030026441A1 (en) * 2001-05-04 2003-02-06 Christof Faller Perceptual synthesis of auditory scenes
JP2004128854A (ja) * 2002-10-02 2004-04-22 Matsushita Electric Ind Co Ltd 音響再生装置
JP2005006018A (ja) * 2003-06-11 2005-01-06 Nippon Hoso Kyokai <Nhk> 立体音響信号符号化装置、立体音響信号符号化方法および立体音響信号符号化プログラム
JP2005195983A (ja) * 2004-01-08 2005-07-21 Sharp Corp ディジタルデータの符号化方法および符号化装置
WO2005098826A1 (en) * 2004-04-05 2005-10-20 Koninklijke Philips Electronics N.V. Method, device, encoder apparatus, decoder apparatus and audio system
JP2007531916A (ja) * 2004-04-05 2007-11-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 方法、デバイス、エンコーダ装置、デコーダ装置、及びオーディオシステム
JP2005352396A (ja) * 2004-06-14 2005-12-22 Matsushita Electric Ind Co Ltd 音響信号符号化装置および音響信号復号装置
WO2006008683A1 (en) * 2004-07-14 2006-01-26 Koninklijke Philips Electronics N.V. Method, device, encoder apparatus, decoder apparatus and audio system
JP2008537596A (ja) * 2004-07-14 2008-09-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 方法、装置、エンコーダ装置、デコーダ装置及びオーディオシステム
WO2006011367A1 (ja) * 2004-07-30 2006-02-02 Matsushita Electric Industrial Co., Ltd. オーディオ信号符号化装置および復号化装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120095920A (ko) * 2009-10-15 2012-08-29 프랑스 텔레콤 최적의 저-스루풋 파라메트릭 코딩/디코딩
JP2013508743A (ja) * 2009-10-15 2013-03-07 フランス・テレコム 最適化された低スループットパラメトリック符号化/復号化
KR101646650B1 (ko) * 2009-10-15 2016-08-08 오렌지 최적의 저-스루풋 파라메트릭 코딩/디코딩
KR20140036232A (ko) * 2011-06-16 2014-03-25 장-뤽 오레 개선된 복원을 위한 오디오 신호 처리 방법
JP2014519784A (ja) * 2011-06-16 2014-08-14 オーレーズ、ジャン−リュック 改良された復元のために音声信号を処理するための方法
JP2017055431A (ja) * 2011-06-16 2017-03-16 オーレーズ、ジャン−リュックHAURAIS, Jean−Luc 改良された復元のために音声信号を処理するための方法
KR101914209B1 (ko) * 2011-06-16 2018-11-01 에이쓰리디 테크놀로지스 엘엘씨 개선된 복원을 위한 오디오 신호 처리 방법
JP2016507173A (ja) * 2013-01-15 2016-03-07 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. バイノーラルのオーディオ処理
JP2022548697A (ja) * 2019-09-23 2022-11-21 ドルビー ラボラトリーズ ライセンシング コーポレイション 変換パラメータによるオーディオ符号化/復号化
JP7286876B2 (ja) 2019-09-23 2023-06-05 ドルビー ラボラトリーズ ライセンシング コーポレイション 変換パラメータによるオーディオ符号化/復号化

Also Published As

Publication number Publication date
US9865270B2 (en) 2018-01-09
DE602007004451D1 (de) 2010-03-11
BRPI0707969B1 (pt) 2020-01-21
US10741187B2 (en) 2020-08-11
CN101390443B (zh) 2010-12-01
ATE456261T1 (de) 2010-02-15
US20180151185A1 (en) 2018-05-31
BRPI0707969A2 (pt) 2011-05-17
US20090043591A1 (en) 2009-02-12
US20150213807A1 (en) 2015-07-30
KR101358700B1 (ko) 2014-02-07
US20200335115A1 (en) 2020-10-22
CN101390443A (zh) 2009-03-18
KR20080107422A (ko) 2008-12-10
EP1989920B1 (en) 2010-01-20
US9009057B2 (en) 2015-04-14
EP1989920A1 (en) 2008-11-12
WO2007096808A1 (en) 2007-08-30
JP5081838B2 (ja) 2012-11-28
TWI508578B (zh) 2015-11-11
TW200738038A (en) 2007-10-01
PL1989920T3 (pl) 2010-07-30
ES2339888T3 (es) 2010-05-26

Similar Documents

Publication Publication Date Title
JP5081838B2 (ja) オーディオ符号化及び復号
US10555104B2 (en) Binaural decoder to output spatial stereo sound and a decoding method thereof
US8265284B2 (en) Method and apparatus for generating a binaural audio signal
JP4944902B2 (ja) バイノーラルオーディオ信号の復号制御
RU2759160C2 (ru) УСТРОЙСТВО, СПОСОБ И КОМПЬЮТЕРНАЯ ПРОГРАММА ДЛЯ КОДИРОВАНИЯ, ДЕКОДИРОВАНИЯ, ОБРАБОТКИ СЦЕНЫ И ДРУГИХ ПРОЦЕДУР, ОТНОСЯЩИХСЯ К ОСНОВАННОМУ НА DirAC ПРОСТРАНСТВЕННОМУ АУДИОКОДИРОВАНИЮ
KR100928311B1 (ko) 오디오 피스 또는 오디오 데이터스트림의 인코딩된스테레오 신호를 생성하는 장치 및 방법
JP6329629B2 (ja) 領域の音場データを圧縮および解凍するための方法および装置
US20120039477A1 (en) Audio signal synthesizing
CN108353242A (zh) 音频解码器和解码方法
KR20180042397A (ko) 프레젠테이션 변환 파라미터들을 사용하는 오디오 인코딩 및 디코딩
GB2485979A (en) Spatial audio coding
CN115580822A (zh) 空间音频捕获、传输和再现
RU2427978C2 (ru) Кодирование и декодирование аудио
MX2008010631A (es) Codificacion y decodificacion de audio

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100209

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110719

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20111019

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20111026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120118

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20120118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120806

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120903

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150907

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5081838

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250