JP4740242B2 - 聴覚の情景分析を用いたオーディオ信号の結合 - Google Patents

聴覚の情景分析を用いたオーディオ信号の結合 Download PDF

Info

Publication number
JP4740242B2
JP4740242B2 JP2007524817A JP2007524817A JP4740242B2 JP 4740242 B2 JP4740242 B2 JP 4740242B2 JP 2007524817 A JP2007524817 A JP 2007524817A JP 2007524817 A JP2007524817 A JP 2007524817A JP 4740242 B2 JP4740242 B2 JP 4740242B2
Authority
JP
Japan
Prior art keywords
channel
channels
audio
auditory
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007524817A
Other languages
English (en)
Other versions
JP2008509600A5 (ja
JP2008509600A (ja
Inventor
スミザーズ、マイケル・ジョン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dolby Laboratories Licensing Corp
Original Assignee
Dolby Laboratories Licensing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=35115846&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP4740242(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Dolby Laboratories Licensing Corp filed Critical Dolby Laboratories Licensing Corp
Publication of JP2008509600A publication Critical patent/JP2008509600A/ja
Publication of JP2008509600A5 publication Critical patent/JP2008509600A5/ja
Application granted granted Critical
Publication of JP4740242B2 publication Critical patent/JP4740242B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/02Systems employing more than two channels, e.g. quadraphonic of the matrix type, i.e. in which input signals are combined algebraically, e.g. after having been phase shifted with respect to each other
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/02Circuits for transducers, loudspeakers or microphones for preventing acoustic reaction, i.e. acoustic oscillatory feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/06Receivers
    • H04B1/16Circuits
    • H04B1/20Circuits for coupling gramophone pick-up, recorder output, or microphone to receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Mathematical Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Algebra (AREA)
  • Stereophonic System (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Complex Calculations (AREA)
  • Holo Graphy (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Measurement Of Current Or Voltage (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)

Description

本発明は、いくつかのオーディオチャンネルが結合されている多チャンネルオーディオ信号のチャンネル数の変更に関する。本発明の応用例には映画館や車両における多チャンネルオーディオの提供が含まれる。本発明には方法だけでなく、コンピュータプログラムによる実施及び装置による実施が含まれる。
最近の数十年間で、多チャンネルオーディオ素材の制作、配給、及び上演が増え続けている。この増加は、5.1チャンネル再生システムがほとんど普遍的になっている映画産業により、最近では5.1多チャンネルミュージックを制作し始めた音楽産業により目覚しく推進されてきた。
一般に、このようなオーディオ素材は、素材として同じ数のチャンネルを持つ再生システムにより上演される。例えば、5.1チャンネルフイルムサウンドトラックは5.1チャンネルシネマ又は5.1チャンネルホームシアターオーディオシステムにより上演される。しかし、例えば、2個又は4個の再生チャンネルしか持たない自動車で5.1チャンネル素材を再生したり、5.1チャンネルシステムしか装備しない映画館で5.1チャンネル以上の映画サウンドトラックを再生したりするような、オーディオ素材のチャンネル数と同じ表現チャンネル数を持たないシステム又は環境中で多チャンネル素材を上演したいという要求は増大している。このような状況の元で、多チャンネル信号を表現するためにいくつかの又はすべてのチャンネルを結合又は「ダウンミックス」したいとするニーズがある。
チャンネルの結合により可聴アーティファクトが生じることがある。例えば、ある周波数成分は、他の周波数成分が強くなったとき又は大きくなったとき打ち消されることがある。結合された2以上のチャンネル中に類似の又は相互に関係のあるオーディオ信号が存在する結果生じることがよくある。
チャンネルを結合した結果生じるアーティファクトを極小化又は削除することが本発明の1つの目的である。本発明の他の目的は、本明細書を読んで理解することにより認識できるであろう。
チャンネルを結合することは、チャンネル数を減少させるためだけではなく他の目的のためにも必要であることに留意しなければならない。例えば、多チャンネル信号中の2つ以上の元のチャンネルを組み合わせである付加的な再生チャンネルを作るニーズがあるかもしれない。これは、元のチャンネル数より多くする「アップミックス」の一形式として特徴づけることもできる。このように、「ダウンミックス」又は「アップミックス」のいずれの状況においても、チャンネルを結合することによりさらなるチャンネルを作ることは、可聴アーティファクトの原因となる可能性がある。
チャンネルを結合することによるアーティファクトを最小限にするために共通する技法は、例えば、結合すべきチャンネル、又は、結合した後のチャンネル、又は、その両方に位相及び振幅(又はパワー)の調整を1回以上加えることを伴う。オーディオ信号は本質的に動的である。即ち、その特性は時間により変化する。したがって、オーディオ信号のそのような調整は一般に動的に計算し適用される。結合処理の結果生じたアーティファクトを削除するときに、そのような動的な処理により他のアーティファクトを生じさせることがある。このような動的な処理によるアーティファクトを最小限にするために、本発明は、聴覚の情景分析を採用し、原則として、聴覚の情景又は聴覚イベントの期間の動的な処理の調整を実質的に一定に保持し、そのような調整の変更を聴覚の情景又は聴覚イベントの境界部でのみ許可する。
[聴覚の情景分析]
サウンドを、別の音と認識される単位に分割することは、しばしば「聴覚イベント分析」又は「聴覚の情景分析」(「ASA」)と称される。聴覚の情景分析についての広範な議論はAlbert S. Bregmanの「Auditory Scene Analysis‐The Perceptual Organization of Sund, Massachusetts Institute of Technology, 1991, Fourth printing, 2001, Second MIT Press paperback edition」に述べられている。
聴覚の情景分析の見地から聴覚イベント(イベントの境界を含む)を特定するための技法は、2002年2月5日、米国を指定して出願した国際出願PCT/US02/05999であって、2002年12月5日、WO02/097792として国際公開された出願の米国国内出願であるBrett G. Crockettが2003年11月20に出願した、米国特許出願S.N.10/478,538、表題「Segmenting Audio Signal into Auditory Events」、代理人受領証DOL098US、に記載されている。この出願は参照としてすべて本明細書に組み込まれる。前記Crockettの出願の聴覚イベントを特定するための応用例は、2002年2月22日、米国を指定して出願した国際出願PCT/US02/05329であって、2002年12月5日、WO02/097790として国際公開された出願の米国国内出願であるBrett G. Crockett及びMichael J. Smithersが2003年11月20に出願した、米国特許出願S.N.10/478,397、表題「Comparing Audio Using Characterizations Based on Auditory Events」、代理人受領証DOL092US、と、2002年2月25日、米国を指定して出願した国際出願PCT/US02/05806であって、2002年12月5日、WO02/097791として国際公開された出願の米国国内出願であるBrett G. Crockett及びMichael J. Smithersが2003年11月20に出願した、米国特許出願S.N.10/478,398、表題「Method for time Aligning Audio Signals Using Characterizations Based on Auditory Events」、2004年7月29日US2004/0148159Alとして公開、代理人受領証DOL09201US、に記載されている。前記Crockett及びSmithersの出願もまたそれぞれ参照としてすべて本明細書に組み込まれる。
前記Crockettの出願及びCrockett/Smithersの出願に記載された技法が、本発明の特徴との関連で特に有用であるものの、聴覚イベントとイベントの境界を特定する他の技法も本発明の特徴として採用される。
本発明の特徴によれば、オーディオチャンネルを結合する方法であって、結合されたオーディオチャンネルを生成するためにオーディオチャンネルを結合するステップと、前記チャンネル、又は、前記結合されたチャンネル、又は、前記チャンネルと前記結合されたチャンネルの両方に、時間と位相と振幅又はパワーのうちの1つ以上の調整を動的に行うステップとを具備し、前記1つ以上の調整は、少なくとも一部は、前記1つ以上のチャンネル及び/又は前記結合されたチャンネルにおける聴覚イベントの指標により制御される。前記調整は、聴覚イベントの最中は実質的に一定になるよう、そして聴覚イベントの境界又は境界の近くで変更を許容するように制御することができる。
本発明の主な目的は結合されたオーディオ信号のサウンドの質を改善することである。これは、例えば、オーディオ信号の時間、位相及び/又は振幅(又はパワー)をさまざまに修正することにより、そして、このような修正の少なくとも一部を聴覚の情景分析情報の指標により制御することにより行われる。本発明の特徴によれば、オーディオ信号に適用される調整は、聴覚イベントの期間は比較的一定に保ち、聴覚イベント同士の境界又は境界近傍又は変わり目で変更を許容する。もちろん、このような調整を各境界毎に行う必要はない。そのような調整に対する制御は、各チャンネルの聴覚イベントに応答してチャンネル毎に実行することができる。あるいは、すべてのチャンネルを結合した、又は一部のチャンネルを結合した聴覚イベント情報に応答して、このような調整の一部又はすべてを実行してもよい。
本発明の他の特徴には、上述の方法を実行するコンピュータプログラムと共に、本発明の応用例として記載した上述の方法及び他の方法を実行するための装置又は素子が含まれる。さらなる本発明の特徴は、本明細書を読み理解することで認識することができるであろう。
本発明の一般的な実施の形態を図1に示す。ここでは、オーディオチャンネル結合器又は結合処理100が示される。複数の入力チャンネル、P入力チャンネル、101−1から101−Pまで、がチャンネル結合器又は結合機能(「結合チャンネル」)102及び聴覚の情景分析装置又は聴覚の情景分析機能(「聴覚の情景分析」)103に入力される。2以上の入力チャンネルを結合することができる。チャンネル1〜Pは、1組の入力チャンネルの一部又は全部を構成する。結合チャンネル102は、ここに入力されたチャンネルを結合する。この結合が、例えば、線形の付加結合であっても、結合技術は本発明にとって重要ではない。入力されたチャンネルを結合するのに加えて、結合チャンネル102は、結合すべきチャンネル又は結合した後のチャンネル又は結合すべきチャンネルと結合した後のチャンネルの両方のチャンネルに、時間、位相、及び振幅又はパワーの調整を動的に加える。このような調整は、混合アーティファクト又はチャンネル結合アーティファクトを削減することにより、チャンネル結合の質を改善する目的で行うことができる。特別な調整技術は、本発明において決定的なものではない。結合と調整のための適切な技法の例は、Mark Franklin Davisが2004年3月1日に出願した、米国暫定特許出願S.N.60/549,368、表題「Low Bit Rate Audio Encoding and Decoding in Which Multiple Channels Are Represented by a Monophonic Channel and Auxiliary Information」代理人受領証DOL11501と、Mark Franklin Davis等が2004年6月14日に出願した、米国暫定特許出願S.N.60/579,974、表題「Low Bit Rate Audio Encoding and Decoding in Which Multiple Channels Are Represented by a Monophonic Channel and Auxiliary Information」代理人受領証DOL11502と、Mark Franklin Davis等が2004年7月14日に出願した、米国暫定特許出願S.N.60/588,256、表題「Low Bit Rate Audio Encoding and Decoding in Which Multiple Channels Are Represented by a Monophonic Channel and Auxiliary Information」代理人受領証DOL11503とに記載されている。DavisとDavis等の上記3つの暫定特許出願のそれぞれは、参照としてすべて本明細書に組み込まれる。聴覚の情景分析103は、例えば、上述の出願における1つ以上の技法を用いて、又は他の適切な聴覚の情景分析装置又は聴覚の情景分析方法により、聴覚の情景情報を導き出す。少なくとも聴覚イベント同士の境界位置を含むこのような情報104は、結合チャンネル102に入力される。1以上の上記調整は、少なくともその一部は、結合されるべき1以上のチャンネル及び/又は結合された後のチャンネルにおける聴覚イベントの指標により制御される。
図2は、本発明の特徴を実施したオーディオ信号プロセッサ又はオーディオ信号の処理方法200の一例を示している。結合すべき複数のオーディオチャンネル1〜Pの信号101−1〜101−Pは、図1と関連して説明したように、時間及び/又は位相修正装置又は時間及び/又は位相修正処理(「時間及び位相修正」)202に適用され、そして、聴覚の情景分析装置又は聴覚の情景分析処理(「聴覚の情景分析」)103に適用される。チャンネル1〜Pは、1組の入力チャンネルの一部又はすべてを構成することができる。以下に図3と関連して説明するように、聴覚の情景分析103は、聴覚の情景情報104を導き出し、時間及び/又は位相修正を個々のチャンネルに適用し結合する時間及び位相修正202にそれを入力する。修正されたチャンネル205−1から205−Pまでは、次いで、チャンネルを結合して単一の出力チャンネル207を生成するチャンネル混合装置又はチャンネル混合処理(「チャンネルの混合」)206に適用される。さらに以下に記載するように、随意的に、チャンネルの混合206も聴覚の情景分析情報104により制御してもよい。図1及び図2の例に示したように、本発明の特徴を実施するオーディオ信号プロセッサ又はオーディオ信号処理方法は、チャンネル1〜Pを結合して1以上の出力チャンネルを生成することもできる。
[聴覚の情景分析103(図1及び2)]
聴覚の情景分析による調査は、知覚した聴覚イベントの最初と最後を特定するためにいくつかの相異なる聴覚的手掛かりを用いる。上記の出願に教示されているように、最も強い手掛かりはオーディオ信号のスペクトルの内容の変化である。各入力チャンネルに対して、聴覚の情景分析103は、所定の時間区間においてチャンネル1〜Pの各々のオーディオについてスペクトル分析を行い、その信号についての一連の周波数表現を生成する。上記の出願に記載されている方法で、スペクトルの内容が閾値より大きくなる変更点を見つけるために、一連の周波数表現を比較する。このような変更点を見つけることは、1つの聴覚イベントの終端であり他の聴覚イベントの開始点を概ね意味する連続する一対の周波数表現の間の聴覚イベントの境界を示す。各入力チャンネルの聴覚イベントの境界の位置は、聴覚の情景分析情報104の成分として出力される。これは上記の出願に記載された方法で行うことができるが、聴覚イベントとその境界は他の適切な技法で検出してもよい。
聴覚イベントは、そのイベントの期間中実質的に一定の特性を持つサウンドの単位として知覚される。もし、本発明の実施の形態で用いられるような時間、位相、及び/又は振幅(又はパワー)の調整が、聴覚イベント期間内で著しく変動したとすると、このような調整により、可聴な好ましくないアーティファクトを生じさせる結果となる。イベントの期間中調整を一定に保持し、イベント境界に十分近いところで調整を変化させることにより、聴覚イベントの類似性が損なわれず、また、この変化はおそらく、本質的にイベント境界を示すもっと顕著なオーディオコンテンツの変化の中に隠されてしまう。
本発明の特徴によれば、理想的には、聴覚イベント期間内で動的な変化が生じないように、チャンネルを結合又は「ダウンミックス」するパラメータを、聴覚イベントの境界でのみ変化させることができるようにする。しかしながら、聴覚イベントを検出する実際のシステムは、時間領域のディジタルオーディオサンプルのブロックが周波数領域に変換されているディジタル領域で一般に動作し、この周波数領域では、聴覚イベント境界の時間分解能はかなり粗い時間分解能となり、この分解能はディジタルオーディオサンプルのブロック長さに関係する。もし、実際のイベント境界の使いものになる近似を生じさせるように、(ブロック長さと周波数分解能とがトレードオフの関係を持ったままで)この分解能を選択したとすると、言い換えれば、もし、その分解能ではリスナーが誤差を感知できないほど近い境界の近似を生じさせるとしたら、本発明による動的なダウンミックスの目的に対して、未知の実際の境界ではなくて、ブロック境界により提示された近似を用いることで足りる。かくして、上記Crockettの出願に記載された例に従い、イベント境界はブロック長さの半分以内、即ち、例えば44.1kHzのサンプリングレートを採用したシステムにおいて512サンプルのブロック長さに対してでは、約5.8ミリ秒とすることができる。
本発明の現実的な実施の形態において、各入力チャンネルは離散的な時間領域のオーディオ信号である。この離散信号は、約5.8ミリ秒が重複する、重複のある約10.6ミリ秒のブロックに区分けすることができる。48kHzのオーディオサンプルでは、これは前のブロックと256サンプルが重複する512サンプルのブロックと等価である。各ブロックは、例えばハニング窓を使って窓処理し、例えば(速度を上げるために高速フーリエ変換として実施される)離散フーリエ変換を使って周波数領域に変換してもよい。デシベル(dB)単位のパワーは、各スペクトル値について計算され、そのスペクトルは最大のdBスペクトル値で正規化される。計算コストを下げるために、重複のないブロック又は部分的に重複するブロックを用いてもよい。また、他の窓関数を用いてもよい。しかし、ハニング窓がこの出願に十分適していることが分かっている。
上記Crockettの出願に記載されているように、現ブロックの正規化された周波数スペクトルは、次のブロックから正規化されたスペクトルと比較しそれらの違いの指標を得ることができる。具体的には、現在のスペクトル値と次のスペクトル値とのdB値での差の絶対値を加えることにより1つの差の指標を計算することができる。
このような差の指標は、次に、閾値と比べられる。もし、差の指標が閾値より大きいならば、イベントの境界は現在のブロックとその前のブロックとの間にあることを示し、そうでないならば、現在のブロックとその前のブロックとの間にイベントの境界がないことを示している。この閾値についての適切な値は、2500(dB単位で)あることが分かった。したがって、イベントの境界をブロックの半分の精度で決定することができる。
この閾値によるアプローチは、各サブバンドが明確な異なった指標を有する周波数サブ帯域に適用することもできる。しかし、本発明との関連では、時間のどの瞬間においても1つのイベントに焦点を当てる人間の認知能力の観点から、全帯域幅のオーディオに基づく単一の指標で十分である。
チャンネル1〜Pの各々についての聴覚境界の情報は、聴覚の情景分析情報104の成分として出力される。
[時間及び位相の修正202(図2)]
時間及び位相の修正202では、入力チャンネル同士の高い相関性及び時間及び位相の差を探す。図3は、時間及び位相の修正202をさらに詳細に示したものである。以下に説明するように、各ペアの内の1つのチャンネルが参照チャンネルとなる。相関性検出に適切な1技法を以下に説明する。他の適当な相関性検出技法を用いることもできる。非参照チャンネルと参照チャンネルとの間に高い相関性がある場合、この装置又はプロセスにおいて、非参照チャンネルの位相特性又は時間特性を修正することにより2つのチャンネル間の位相差又は時間差を減少させるよう試み、そして、この2つのチャンネルを結合するとき生じる可能性のあった可聴なチャンネル結合アーティファクトを減少又は削減する。そのようなアーティファクトのいくつかを一例として説明する。図5は、白色ノイズ信号の振幅スペクトルを示す。図5bは、白色ノイズからなる第1のチャンネルと、同じ白色ノイズからなるが約0.21ミリ秒の時間遅れを持つ第2のチャンネルとを単純に結合させた結果の振幅スペクトルを示す。遅れの無い白色ノイズと遅れのある白色ノイズとを結合させるとスペクトルの削除とスペクトルシェーピングとを行い、一般にくし型フィルタによるフィルタリングと呼ばれ、聞こえるサウンドは各入力信号の白色ノイズとは大きく異なる。
図3は、位相遅れ又は時間遅れを削減させるのに適した装置又は方法300を示す。各入力オーディオチャンネルからの入力101−1〜101−Pは、各チャンネルの遅れ表示信号302を出力する、遅れ計算装置又は遅れ計算プロセス(「遅れ計算」)301に入力される。チャンネル1〜Pの各々についての成分を有することもある聴覚イベント境界情報104は、それぞれ遅れ装置又は遅れ機能により用いられる遅れ信号304−1〜304−Pを条件付きで更新するための一時記憶装置又は一時記憶プロセス(「保持」)303を含む装置又はプロセスにより用いられる。
[遅れ計算301(図3)]
遅れ計算301は、ペアとなった2つの入力チャンネル同士の相対的な遅れを計測する。最初に入力チャンネルから参照チャンネルを選択することが好ましい方法である。この参照基準は、固定してもよく、時間の経過と共に変更してもよい。参照チャンネルを変更させることにより、例えば音の無い参照チャンネルという問題を回避できる。もし参照チャンネルを変更するならば、それは例えば、チャンネル音量により決定してもよい(例えば、最大音量のものを参照基準とする)。上述のように、各入力チャンネルの入力オーディオ信号は、5.3ミリ秒重複させて、重複のある約10.6ミリ秒のブロックに分割することができる。これは、48kHzのサンプルレートのオーディオについて、256サンプルが前のブロックと重複した512サンプルのブロックと等価である。
非参照チャンネルと参照チャンネルとの間の遅れはどんな相互相関計算方法を用いて計算してもよい。例えば、S(長さN)を、参照チャンネルからのサンプルのブロックとし、S2(長さN2)を、非参照チャンネルの1つからのサンプルのブロックとする。まず、相互相関配列R1,2を計算する。
Figure 0004740242
計算時間を短縮するために、この相互相関計算は標準のFFTに基づく技法を用いて行う。SもSも長さが有限なので、R1,2のゼロでない成分はN+N−1の長さを持つ。R1,2における最大要素に相当する遅れlは、SのSに対する遅れを表す。
Figure 0004740242
この遅れ又は遅延は、配列S及びSのような同じサンプルの群れを持つ。
現ブロックの相互相関計算結果は、平滑化された相互相関Q1,2を生成するために1次有限インパルス応答フィルターを用いて前のブロックの相互相関計算結果を時間平滑化したものである。以下の等式はそのフィルター計算を示す。ここで、mは現ブロックを示しm−1は前のブロックを示す。
Figure 0004740242
好都合なαの値は、0.1であることが分かった。R1,2の相互相関については、Q1,2の最大要素に相当する遅れlは、SのSに対する遅れを表す。各非参照チャンネルのこの遅れ又は遅延は、信号302の1つの信号成分として出力される。信号302の1つの成分としてゼロの値も出力されるが、これは参照チャンネルの時間遅れを表す。
計測される遅れの程度はオーディオ信号ブロックの大きさに比例する。これは、ブロックの大きさが大きいほど、この方法を用いて計測される遅れの程度が大きくなるということを意味する。
[保持303(図3)]
あるチャンネルに対するイベント境界がASA情報104を介して表示された場合、保持303では、そのチャンネルの遅れ値を302から対応する出力チャンネルの遅れ信号304にコピーする。イベント境界が表示されない場合は、保持303では、直前の遅れ値を保持する。このようにして、イベント境界において時間整列が行われ、それにより、可聴アーティファクトを誘発しにくくする。
[遅れ305−1〜305−P(図3)]
遅れ信号304は正にも負にもなるので、遅れ305−1〜305−Pの各々は、初期状態では、遅れ計算301で計算することのできる最大遅れの絶対値を各チャンネルに導入してもよい。したがって、遅れ305−1〜305−Pの各々におけるサンプルの遅れのトータルは、304−1〜304−Pのそれぞれの入力遅れ信号の遅れの初期値を加えたものの総和である。これは、信号302と304が正でも負でもよく、負の場合はチャンネルが参照チャンネルと比べて時間的に進んでいることを意味する。
入力された遅れ信号305−1〜305−Pのいずれかの値が変わったときは、サンプルを除去又は複製する必要があるかもしれない。これは可聴アーティファクトを生じさせないような方法で行うことが好ましい。このような方法には、サンプルを重複させること及びサンプルをクロスフェードさせることが含まれる。あるいは、出力信号306−1から306−Pまでにフィルターバンク(図4参照)を適用することができるので、フィルターバンクに適用されたサンプルの配列調整を遅れで制御するように、遅れとフィルターバンクとを結合させることも有効であろう。
あるいは、もっと複雑な方法を個々の周波数帯域又は周波数帯域のグループの時間差又は位相差の測定及び修正に用いることができる。そのような複雑な方法として、遅れ計算301と遅れ305−1〜305−Pの両方を周波数領域で行ってもよく、この場合、遅れ305−1〜305−Pは、時間領域で遅れさせるというより帯域又はサブ帯域で位相調整を行う。この場合、信号306−1〜306−Pはすでに周波数領域にあるので、それに続くフィルターバンク401が必要でなくなる(以下に記載の図4)。
遅れ計算301及び聴覚の情景分析103のような装置又は処理のいくつかは、イベント境界のより正確な推定とイベント内に適用すべき時間修正又は位相修正を行うために、オーディオチャンネルを前もって見ることができる。
[チャンネルの混合206(図2)]
図2のチャンネルの混合206の詳細は、ダウンミックスされた出力チャンネルを生成するために、どのようにパワー修正を行って結合させるかを示す、図4の装置又は処理として示されている。チャンネルの混合又は結合に加えて、この装置又は処理において、図2の時間及び位相の修正203で完全に修正されなかった残余の周波数削除のための修正が行われる。これはまた、パワーの保存を維持する働きがある。換言すれば、チャンネルの混合206は、ダウンミックス信号出力414(図4)が時間調整又は位相調整された入力チャンネル205−1〜205−Pのパワーの総和に実質的に等しくなるようにすることを追求する。さらに、これは、ダウンミックスされた信号の各周波数帯域におけるパワーが、それに対応する個々に時間調整又は位相調整された入力チャンネルのパワーの実質的な総和となるようにすることを追求してもよい。この処理は、ダウンミックスされたチャンネルの帯域パワーと入力チャンネルの帯域パワーとを比較し、次いで、各帯域の値を修正するゲインを計算することにより行われる。時間と周波数の両方にまたがってゲインを変更することにより可聴アーティファクトが生じるかもしれないので、ゲインは、ダウンミックスされたチャンネルに適用する前に時間及び周波数の両方で平滑化しておくことが好ましい。この装置又は処理は、チャンネルを結合する1つの可能な方法を示している。他の適切な装置又は処理を採用してもよい。特定の結合装置又結合処理が本発明にとって決定的なものというわけではない。
[フィルターバンク(「FB])401−1〜401−P(図4)]
各入力チャンネルに入力したオーディオ信号は、上述したように、時間領域の信号であり、約5.3ミリ秒重複させた、約10.6ミリ秒の長さの重複ブロックに分割されている。48kHzのオーディオサンプルレートにおいては、これは、256サンプルが前のブロックと重複している、512サンプルのブロックと等価である。このサンプルブロックは窓処理され、フィルターバンク401−1〜401−P(各入力信号に対して1つのフィルターバンク)により周波数領域に変換される。さまざまな窓のタイプからどのようなタイプを用いてもよいが、ハニング窓が適切であることが分かった。さまざまな時間領域から周波数領域への変換器のうちからどれを用いてもよいが、適切な変換器又は変換方法として、離散フーリエ変換(速度を上げるため高速フーリエ変換として実行される)を用いることができる。各フィルターバンクのパワーは、複素スペクトル値を持つ配列401−1〜401−Pのそれぞれ、すなわち、各周波数帯域(又はビン)に対して1つの値、となる。
[帯域(「BND」)パワー403−1〜403−P(図4)]
各チャンネルに対して、帯域パワー計算装置又は帯域パワー計算処理(「BNDパワー」)403−1〜403−Pは、それぞれ、複素スペクトル値402−1〜402−Pのパワーを計算し、それぞれのパワースペクトル404−1〜404−Pとして出力する。各チャンネルからのパワースペクトル値は、付加的な結合器又は結合機能415において加算され結合されたパワースペクトル405を生成する。各チャンネルからの対応する複素スペクトル値402−1〜402−Pも又、付加的な結合器又は結合機能416において加算されダウンミックス複素スペクトル406を生成する。ダウンミックス複素スペクトル406のパワーは、他のパワー計算装置又はパワー計算処理(「BNDパワー」)403で計算されダウンミックスパワースペクトル407として出力される。
[帯域(「BND」)ゲイン408(図4)]
帯域ゲイン計算装置又は帯域ゲイン計算処理(帯域ゲイン408)では、パワースペクトル405がダウンミックスパワースペクトル407で割算され、各スペクトル値に対して1つのパワーゲイン又はパワーレシオの配列を生成する。もし、ダウンミックスパワースペクトル値がゼロならば(パワーゲインを無限大にしてしまうので)、それに対応するパワーゲインを「1」に設定する。次いで、パワーゲインの平方根を計算し、振幅ゲイン409を生成する。
[制限、時間及び周波数の平滑410(図4)]
制限器及び平滑器又は制限及び平滑機能(制限、時間及び周波数の平滑)410は、適切なゲイン制限と時間/周波数の平滑とを行う。上記のスペクトル振幅ゲインは広い範囲を持つ。最善の結果は、このゲインが制限範囲内に保持される場合に得られる。例えば、ゲインが上限閾値より大きい場合は、ゲインは上限閾値に設定される。同様に、例えば、ゲインが下限閾値より小さい場合は、ゲインは下限閾値に設定される。好都合な閾値は0.5と2.0(±6dBと等価)である。次に、スペクトルゲインを、1次有限インパルス応答(HR)フィルターを用いて時間的に平滑化してもよい。以下の等式は、この平滑化計算を示す。ここで、bはスペクトル帯域指数を意味し、Bは全帯域数を意味し、nは現ブロックを意味し、n−1は前のブロックを意味し、Gは平滑化されていないゲインを意味し、Gsは時間的に平滑化したゲインを意味する。
Figure 0004740242
δ(b)の好適な値は、約200Hz以下の帯域を除いて0.5であることが分かった。この周波数以下では、δ(b)は、帯域b=0で0の値すなわちDCに向かう傾向がある。もし、平滑化されたゲインGが1.0に初期化されると、DCでの値は1.0に等しくなる。すなわち、DCは決してゲイン調整されず、200Hz以下の帯域のゲインはそれ以外のスペクトルの帯域よりゆっくりと変動する。このことは、低周波数において可聴な調整を防止するために好都合かもしれない。これは、200Hz以下の周波数において、そのような周波数の波長はフィルターバンクで用いられるブロックの大きさに近づくか又は越えてしまい、これらの周波数を正確に弁別すべきフィルターバンクの能力が不正確になるからである。これは一般的かつよく知られた現象である。
時間平滑化されたゲインは、隣り合う帯域同士でゲインの大きな変化がないようにするためさらに周波数に関して平滑化される。好ましい実施の形態において、帯域ゲインは5帯域(又は約470Hz)平均を用いてスライディングすることにより平滑化される。つまり、各ビンは、自分自身の帯域と高周波側と低周波側に隣り合う帯域との平均値に更新される。スペクトルの上端及び下端で、端の値(帯域0とN−1)はそれでも5帯域平均を行うことができるように繰り返し使用される。
平滑化された帯域ゲインは、信号411として出力され、乗算器又は乗算機能419にてダウンミックス複素スペクトル値で乗算される。任意的に、出力信号411は、ASA情報104の制御の下で一時的な記憶装置又は記憶処理(「保持」)417を経由して乗算器又は乗算機能419に入力させてもよい。保持417は、図3の保持303と同じような動作を行う。例えば、1つのイベントの期間中ゲインを比較的一定に保ちイベントの境界でゲイン変化させることができる。このようにして、イベント中の可聴で劇的なゲインの変化を防止することができる。
[逆フィルターバンク(逆FB)図4]
乗算器又は乗算機能419からのダウンミックススペクトル412は、逆フィルターバンク又は逆フィルターバンク機能(「逆FB」)413を介して出力時間サンプルのブロックを創り出す。このフィルターバンクは入力フィルターバンクを逆にしたものである。周知の通り、隣り合うブロックは前のブロックと重複して加算され、時間領域出力信号414を生成する。
記載した構成は、順フィルターバンク401で、窓を増加させてもシステムを通して信号の同一性が保持されるような2つの窓(1つは順フィルターバンク1つは逆フィルターバンク)に窓を分割する慣行を除外するものではない。
[ダウンミックスアプリケーション]
本発明の特長によるダウンミックスの位置応用例は、自動車内で5.1チャンネルコンテンツを再生することである。自動車は、5.1チャンネルコンテンツに対して左チャンネル、右チャンネル、左サラウンドチャンネル、右サラウンドチャンネルに相当する4つのチャンネルしか生成できない。各チャンネルは、特定のチャンネルに対応する方向情報を再生するのに適当だと判断される位置に置かれた1以上のラウドスピーカに導かれる。しかし自動車は通常5.1再生システムにあるような中央チャンネルを生成するための中央に位置するラウドスピーカが無い。この状況に対応するために、中央チャンネル信号を(例えば3dB又は6dB)弱めて、それを左右のチャンネル信号に結合させ、見せかけの中央チャンネルを提供することが知られている。しかし、そのように単純に結合すると、先に説明したようにアーティファクトが生じる。
このように単純に混合する代わりに、本発明の特徴によるチャンネル結合又はチャンネルダウンミックスを適用することができる。例えば、図1の構成又は図2の構成を2回、すなわち、1回は左信号と中央信号とを結合させるため、もう1回は中央信号と右信号とを結合させるために適用してもよい。しかし、それでも、中央チャンネル信号から出力される音響パワーが専用の中央チャンネルスピーカが存在するとすればそれとほぼ同じとなるよう、中央チャンネル信号と左右のチャンネル信号とを結合させる前に、中央チャンネル信号を例えば3dB又は6dB(自動車内の線形フィールドスペースでは6dBの方が3dBより適切であろう)弱めることは有益であろう。さらに、中央チャンネルに適用される時間及び位相の修正103が、中央チャンネルの時間整列又は位相を変更するのではなく、左チャンネル及び右チャンネルの信号の時間整列又は位相のみを変更するように、中央チャンネルを左チャンネル及び右チャンネルの信号のそれぞれと結合させるときに、中央チャンネルを参照チャンネルとすることは有益であろう。その結果、中央チャンネル信号が2つの和(左チャンネル信号と中央チャンネル信号の和、及び、右チャンネルと中央チャンネル信号の和)のそれぞれにおいて異なる調整を受けることがなく、見かけの中央チャンネルの音像を安定させる。
この逆も当てはまる。すなわち、時間又は位相の調整は中央チャンネルのみに対して行う場合も、見かけの中央チャンネルの音像を安定させる。
本発明の特徴によるダウンミックスの応用例は、映画における多チャンネルオーディオの再生における例である。次世代ディジタルシネマシステムとして開発中の標準では、すぐにそれ以上となるだろうが、16チャンネルまでのオーディオの提供を求めている。既設のシネマシステムの多くは(良く知られているように「0.1」が低周波数の「効果」チャンネルを表現する)5.1再生又は「表現」チャンネルしか提供していない。したがって、再生システムがアップグレードされるまでは、5.1チャンネル以上のコンテンツを5.1チャンネルのコンテンツにダウンミックスするニーズが存在する。そのようなダウンミックス又はチャンネルの結合は、上述の通りアーティファクトをもたらす。
したがって、もしPチャンネルがQチャンネルにダウンミックスされるなら(ここでP>Q)、本発明の特徴(例えば、図1及び2の模範的な実施の形態に示したような)によるダウンミックスをQ出力チャンネルの1以上に適用し、出力チャンネルの一部又は全部を結合してP入力に対応する2以上のチャンネルにすることができる。もし、入力チャンネルが2以上の出力チャンネルに結合されるならば、そのようなチャンネルを参照チャンネルにし、図2の時間及び位相の修正202が入力チャンネルの時間整列又は位相を結合された後の出力チャンネルのそれぞれで異なる変更を行わないようにするとは好適なことであろう。
[代案]
ここに記載したような時間又は位相の調整により、ダウンミックス時の完全な又は部分的な周波数の削除が最小限になる。すでに、入力チャンネルが1以上の出力チャンネルに結合されるとき、このチャンネルは、混合して複数の出力チャンネルにするときに時間又は位相に異なる変更を行わないように、参照チャンネルとすることが好ましい。これは、他のチャンネルが実質的に同じコンテンツを含まないときにうまく行く。しかし、2以上の他のチャンネルが同じか又は実質的に同じコンテンツを含むときに問題が起こる。もしそのようなチャンネルが結合されて2以上の出力チャンネルになると、その結果出力されるチャンネルを聞くとき、これらの出力チャンネルを受け取るラウドスピーカの物理的な位置のどこかの位置に、共通コンテンツの見かけの音像があるように知覚される。出略チャンネルを生成するために他のチャンネルと結合する前に、これらの実質的に等しいコンテンツを持つ2以上の入力チャンネルが独立に位相調整されたときこの問題が起こる。このように独立に位相調整されると、不適切な見かけの音像位置及び/又ははっきりしない音像位置がもたらされ、どちらも不自然に聞こえる。
実質的に類似するコンテンツを有する入力チャンネルを探して、それらの見かけの音像位置が変化しないように同じ又は類似の方法でそのようなチャンネルに時間又は位相の調整を行おうとするシステムを工夫することもできる。しかし、そのようなシステムは、特に入力チャンネルの数が出力チャンネルの数より実質的に大きい時に非常に複雑となる。2以上のチャンネルで実質的に類似のコンテンツがしばしば起こるシステムにおいて、位相の調整の手間を省きパワーの修正のみ行うことは容易であろう。
この調整の問題は、先に説明した左右のラウドスピーカで再生するために中央チャンネル信号が左右それぞれのチャンネルに結合される自動車への応用例でさらに説明することができる。5.1チャンネル素材において、左右の入力チャンネルはしばしば複数の信号を含み(例えば、楽器、声楽、会話及び/又は効果音)、これらの信号のあるものは異なりあるものは同じである。中央チャンネルが左右それぞれのチャンネルに結合される場合、この中央チャンネルが参照チャンネルとなり、中央チャンネルには時間又は位相の調整が行われない。左チャンネルは、中央チャンネルと結合されるときに位相消去が最小限になるよう時間又は位相の調整が行われ、同様に右チャンネルも中央チャンネルと結合されるときに位相消去が最小限になるよう時間又は位相の調整が行われる。左右のチャンネルに独立して位相の調整を行うので、左右のチャンネルに共通する信号が左右のラウドスピーカの物理的な位置の中間に見かけ上の音像はもはや生じることはない。さらに、この見かけ上の音像は、不自然で好ましい効果を与える1つの方向に局在することはなく、リスナーの空間全体に広がる。
調整の問題を解決する1つの手段は、1以上の入力チャンネルに共通する信号をそのような入力チャンネルから抽出し、それらを新しく別々の入力チャンネルとする。このことは、ダウンミックスすべき入力チャンネル全体の数を増やすことになるが、ダウンミックスされた出力チャンネルに虚偽の好ましくない見かけ上の音像の誤認を削減する。3つのチャンネルを2つにダウンミックスする、自動車における装置又は処理600の例を図6に示した。左右の入力チャンネルに共通する成分を左右のチャンネルから抽出し、マトリックスデコーダ又は共通信号成分を抽出する他の形式のチャンネル乗算器のような、乗算器又は乗算処理(「チャンネルの無相関化」)601を用いて、もう1つの新しいチャンネルに入力する。このような装置は、デコリレータ又はデコリレーション機能の形式として特徴づけることができる。ドルビーサラウンド・プロロジックIIとして知られる1つの適切なアクティブマトリックスデコーダが、2000年3月22日にJames W. Fosgateにより出願された米国特許出願S.N.09/532,711、表題「Method for deriving at least three audio signals from two input audio signals」代理人受領証DOL07201と、2001年8月30日に米国を指定国として出願された国際出願PCT/US01/27006、2002年3月7日にWO02/19768で国際公開、の結果としての、2003年2月25日にJames W. Fosgate他により出願された米国特許出願S.N.10/362,786、表題「Method for apparatus for audio matrix decoding」、2004年7月1日にUS2004/0125960A1として公開、代理人受領証DOL07203Uに記載されている。上記FosgateとFosgate他による出願は参照としてすべて本明細書に組み込まれる。採用可能なもう1つの形式の適切なチャンネル乗算器及びデコリレータは、2002年2月7日に米国を指定国として出願された国際出願PCT/US02/0316、2003年8月7日にWO02/063925で国際公開、の結果としての、2003年8月5日にMark Franklin Davisにより出願された米国特許出願S.N.10/467,213、表題「Audio Channel Translation」、2004年4月1日にUS2004/0062401A1として公開、代理人受領証DOL088USと、2003年8月6日に米国を指定国として出願された国際出願PCT/US03/24570、代理人受領証DOL08801PCT、2004年3月4日にWO2004/019656として国際公開、とに記載されている。上記Davisによる出願は参照としてすべて本明細書に組み込まれる。他の適切な乗算/デコリレーション技術は、Mitianoudis及びDaviesの「Intelligent Audio Source Separation using Independent Component Analysis」、Audio Engineering Society Convention Paper 5529、2002年5月10〜13日ドイツ、ミュンヘンにて112回会議で公開、に記載されている。この論文も参照としてすべて本明細書に組み込まれる。この結果は、4チャンネル、すなわち、新しいチャンネルC、元の中央チャンネルC、及び、修正された左右のチャンネルLとRである。
装置又は処理602は、図2の構成に基づくが、ここでは2つの出力チャンネルを持ち、4つのチャンネルを結合して左右の再生チャンネルLとRとを作る。修正されたチャンネルLとRは各々混合されてただ1つの再生チャンネルとなる。すなわちそれぞれLとRである。それらは相互に関係のあるコンテンツを実質的に含まないので、そこから共通成分Cが抽出されている、修正されたL及びRには、入力チャンネルL及びRに存在する中央の見かけの音像に影響を与えないで時間又は位相の調整を行うことができる。この時間及び/又は位相の調整を行うために、例えばチャンネルCのような1つのチャンネルを参照チャンネルとする。次いで、この参照チャンネルと比較して、その他のチャンネルL,R,及びCに時間及び/又は位相の調整を行う。あるいは、LチャンネルとRチャンネルとは、Cチャンネルとおそらく相関がないので、また、処理601によりCと無相関化されているので、時間又は位相の調整を行うことなくチャンネルの混合に送ってもよい。チャンネルの混合部602において再生チャンネルLとRとを作るため、元のチャンネルCと抽出されたチャンネルCとは両方とも中間チャンネルL及びRの各々とそれぞれ混合することができる。CとCとが同じ比率であることが満足できる結果となることが分かったが、正確に同じ比率であることが決定的要素ではなく、同じ比率でなくてもよい。したがって、CとCとに適用される時間及び位相の調整が2つの再生チャンネルに現れ、そして見かけ上の中央音像を維持する。中央チャンネルのそれぞれが2つのスピーカにより再生されるので、いくらかの減衰(例えば3dB)がこれらのそれぞれのチャンネルに必要かもしれない。また、混合されて出力チャンネルとなる各中央チャンネルCとCの量はリスナーによりコントロールすることもできる。例えば、リスナーは元の中央チャンネルを全部要求するが導き出した中央チャンネルCを減衰させることもできる。
解決手法は、映画オーディオにおける実施例での方法で説明することもできる。図7aと図7bは2組のオーディオチャンネルの部屋又は空間での位置を示す。図7aは、多チャンネルオーディオ信号中に表現されている、あるいは、「コンテンツチャンネル」と称されているチャンネルの概略空間位置を示している。図7bは、5チャンネルオーディオ素材を再生する装備がなされた映画館で再生することのできる「再生チャンネル」と称されているチャンネルの概略位置を示している。あるコンテンツチャンネルは対応する再生チャンネル位置、すなわちL,C,R,R,及びLチャンネルを持っている。他のコンテンツチャンネルは対応する再生チャンネル位置を有せず、したがって、1以上の再生チャンネルに混合させなければならない。一般的な方法は、そのようなコンテンツチャンネルを直近の再生チャンネルに結合させることである。
先に説明したように、単純に加算するような結合では、可聴アーティファクトが生じることがある。また、説明したように、実質的に共通するコンテンツを持つチャンネルが異なった位相又は時間調整がなされたとき、図1及び2に関連して説明したような結合では見かけ上の音像にアーティファクトが生じるかもしれない。解決手段として、入力チャンネルから2以上の入力チャンネルに共通する信号を抽出しそれを新しい別のチャンネルにすることが含まれる。
図7cは、装置又は処理(「チャンネルの無相関化」)701を用いて、入力チャンネル又はコンテンツチャンネルのある組み合わせに共通する情報を抽出することにより、QからQまでの5つの付加的なチャンネルが作られる場合の装置又は処理700を示している。装置又は処理701では、「チャンネルの無相関化」装置又は機能601の使用について上述したような、適切なチャンネル乗算/チャンネルデコリレーション技法を用いることができる。これらの付加的な中間チャンネルの実際の数及び位置は、コンテンツチャンネルに含まれるオーディオ信号の変動にしたがって変化することがある。図2の構成とするが5つの出力チャンネルのものに基づき、装置又は処理702ではチャンネルの無相関化701からの中間チャンネルを結合して5つの再生チャンネルを作る。
時間及び位相の修正のために、Cチャンネルのような中間チャンネルのうちの1つを参照チャンネルとし、他のすべての中間チャンネルをこの参照チャンネルと比較して時間及び位相調整を行ってもよい。あるいは、2以上のチャンネルを参照チャンネルとし、中間チャンネルの全チャンネル数よりも少ないチャンネルのグループにおいて、時間又は位相の調整を行うことも好適である。例えば、もしチャンネルQがコンテンツチャンネルL及びCから抽出された共通信号を表し、Q及びLが中間チャンネルL及びCと結合して再生チャンネルL及びCを作るならば、チャンネルLを参照チャンネルとすることができる。中間チャンネルL,C,及びQ1は、参照中間チャンネルLと比較して時間又は位相が調整される。すべての中間チャンネルが時間及び位相修正処理されたと考えられるまで、中間チャンネルの各小グループが連続的に時間又は位相調整がなされる。
再生チャンネルを作るに際して、装置又は処理702は、コンテンツチャンネルの空間位置についての知識をあらかじめ想定しておいてもよい。付加的な中間チャンネルの数と空間位置に関する情報を仮定し又は無相関化装置又は処理701から経路703を介してこの装置又は処理に送ってもよい。これにより、装置又は処理702は、これらの付加的なチャンネルの見かけの音像方向を保持するために、付加的な中間チャンネルを結合して、例えば、最も近い2つの再生チャンネルにすることができる。
[実施]
本発明はハードウェア又はソフトウェアあるいはそれらの結合(例えば、プログラマブルロジックアレー)により実施することができる。他に記載がないかぎり、本発明の1部として含まれるこの演算手順は、特定のコンピュータ又は他の装置と生得的に関連付けられるということではない。特に、種々の汎用機械は、ここに記載したプログラムを使うことができ、あるいは、必要な手順を実行するもっと専用装置(例えば、集積回路)を組み立てるほうが便利かもしれない。このようにして、本発明は、それぞれ少なくとも1つのプロセッサ、少なくとも1つのデータ記憶システム
(揮発性メモリ及び不揮発性メモリ及び/又は記憶装置を含む)、少なくとも1つの入力装置又は入力ポート、及び少なくとも1つの出力装置又は入力ポートからなる、プログラム可能な少なくとも1つのコンピュータシステムにより実行される少なくとも1つのプログラムにより実施することができる。ここに記載した機能を実行し出力情報を生成するために入力データにプログラムコードが適用される。出力情報は、既知の方法で1つ以上の出力装置に適用される。
このようなプログラムの各々は、コンピュータシステムと通信するために必要とされるどのようなコンピュータ言語(機械語、アセンブリ言語、高級な手続言語、ロジック言語、あるいは、オブジェクト指向型プログラム言語を含む)により実行してもよい。いずれにせよ、この言語はコンパイル言語又はインタプリタ言語とすることができる。
ここに記載した手順を実行するために記憶装置又は記憶媒体がコンピュータシステムにより読み込まれたとき、コンピュータを設定し動作させるために、このようなコンピュータプログラムの各々は、汎用プログラマブルコンピュータ又は専用プログラマブルコンピュータにより読み取り可能な記憶装置又は記憶媒体(例えば、半導体メモリ又は媒体、又は磁気媒体又は光学媒体)に記憶されることが好ましい。本発明のシステムは、コンピュータプログラムにより設定されたコンピュータ読み取り可能な記憶媒体として実施することを考えてもよく、ここで、この記憶媒体は、ここに記載した機能を実行する特定のあらかじめ定めた方法でコンピュータシステムを動作させるよう設定されている。
本発明のいくつかの実施の形態を説明したが、本発明の精神及び技術的範囲を逸脱することなく種々の変更が可能であることは了解されよう。例えば、上記のステップのいくつかの順序は独立であり、それゆえに、上記とは異なった順序で実施することができる。したがって、他の実施の形態も請求の範囲に含まれる。
本発明の一般的な実施の形態の概略機能ブロック図である。 本発明の特徴を実行するオーディオ信号処理又はオーディオ信号処理方法の概略機能ブロック図である。 図2の時間及び位相の修正202の詳細を示す概略機能ブロック図である。 図2のチャンネルの混合202の詳細を示す概略機能ブロック図である。 白色ノイズ信号のシンプルスペクトルを示す理想化された応答である。 白色ノイズからなる第1のチャンネルと、同じ白色ノイズからなるが1ミリ秒以下程度の時間遅れを持つ第2のチャンネルとを単純に結合させた結果の振幅スペクトルを示す理想化された応答である。図5aと図5bは両方とも、水平軸がHz単位の周波数であり、垂直軸はデシベル(dB)単位の相対レベルである。 本発明の特徴に従い3チャンネルを2チャンネルにダウンミックスする機能の概略ブロック図である。 映画の観客席のような部屋における2セットのオーディオチャンネルの空間位置を示す理想化された表現であって、多チャンネルオーディオ信号の「コンテンツ」チャンネルの空間的な概略位置を示す。 映画の観客席のような部屋における2セットのオーディオチャンネルの空間位置を示す理想化された表現であって、5チャンネルオーディオ素材を上演するために映画に装備された空間的な概略「再生」位置を示す。 本発明の特徴に従い10チャンネルを5チャンネルにダウンミックスする機能の概略ブロック図である。

Claims (8)

  1. オーディオチャンネルを結合する処理であって、
    前記オーディオチャンネルを結合し結合されたオーディオチャンネルを生成するステップと、
    前記オーディオチャンネル又は前記結合されたオーディオチャンネル又は前記オーディオチャンネルと前記結合されたオーディオチャンネルの両方に、時間、位相、及び振幅又はパワー調整のうちの1つ以上を動的に適用するステップであって、前記1つ以上の調整は、聴覚イベントの期間中は調整を実質的に一定に保ち、聴覚イベントの境界又は境界近傍で調整の変更を許容するように、少なくとも一部は、1以上の前記オーディオチャンネル及び/又は前記結合されたオーディオチャンネルにおける聴覚イベントの指標により制御されることを特徴とするステップと、
    を具備し、
    各聴覚イベントの境界は、閾値を越えたチャンネルにおける時間に関する信号特性の変化に応答して、該チャンネルに対して1組の聴覚イベントの境界が得られるように特定され、該聴覚イベントの境界は1つの聴覚イベントの終端でありかつ他の聴覚イベントの開始点であることを意味することを特徴とする処理。
  2. 請求項1に記載の方法を実施するための装置。
  3. 請求項1に記載の方法をコンピュータに実行させるための、コンピュータが読み取り可能な媒体に記憶させた、コンピュータプログラム。
  4. 前記信号特性は、(a)スペクトル内容、又は(b)スペクトル内容及び振幅内容のうちの1つであることを特徴とする、請求項1に記載の処理。
  5. チャンネル中の聴覚イベントを特定するステップには、前記オーディオ信号を時間ブロックに分割するステップと、各ブロック中のデータを周波数領域に変換するステップと、前記チャンネル中の前記オーディオ信号の連続する時間ブロック間での(a)スペクトル内容、又は(b)スペクトル内容及び振幅内容の変化を検出するステップが含まれることを特徴とする、請求項4に記載の処理。
  6. 連続する時間ブロック中のオーディオデータは、係数で表現され、チャンネル中の聴覚イベントを特定するステップには、ブロック中の係数を隣接するブロックの対応する係数と比較するステップが含まれることを特徴とする、請求項5に記載の処理。
  7. 単一の差異の指標は、現ブロックのスペクトルの対応する対数値で表現したスペクトル値と、1つ前のブロックのスペクトルの対応する対数値で表現したスペクトル値との差の絶対値を加算することで計算されることを特徴とする、請求項6に記載の処理。
  8. 聴覚イベントの境界は、前記加算した振幅が前記閾値を越えたときで特定されることを特徴とする、請求項7に記載の処理。
JP2007524817A 2004-08-03 2005-07-13 聴覚の情景分析を用いたオーディオ信号の結合 Active JP4740242B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US10/911,404 2004-08-03
US10/911,404 US7508947B2 (en) 2004-08-03 2004-08-03 Method for combining audio signals using auditory scene analysis
PCT/US2005/024630 WO2006019719A1 (en) 2004-08-03 2005-07-13 Combining audio signals using auditory scene analysis

Publications (3)

Publication Number Publication Date
JP2008509600A JP2008509600A (ja) 2008-03-27
JP2008509600A5 JP2008509600A5 (ja) 2008-07-10
JP4740242B2 true JP4740242B2 (ja) 2011-08-03

Family

ID=35115846

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007524817A Active JP4740242B2 (ja) 2004-08-03 2005-07-13 聴覚の情景分析を用いたオーディオ信号の結合

Country Status (19)

Country Link
US (1) US7508947B2 (ja)
EP (1) EP1787495B1 (ja)
JP (1) JP4740242B2 (ja)
KR (1) KR101161703B1 (ja)
CN (1) CN101002505B (ja)
AT (1) ATE470322T1 (ja)
AU (1) AU2005275257B2 (ja)
BR (1) BRPI0514059B1 (ja)
CA (1) CA2574834C (ja)
DE (1) DE602005021648D1 (ja)
DK (1) DK1787495T3 (ja)
ES (1) ES2346070T3 (ja)
HK (1) HK1101053A1 (ja)
IL (1) IL180712A (ja)
MX (1) MX2007001262A (ja)
MY (1) MY139731A (ja)
PL (1) PL1787495T3 (ja)
TW (1) TWI374435B (ja)
WO (1) WO2006019719A1 (ja)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7711123B2 (en) * 2001-04-13 2010-05-04 Dolby Laboratories Licensing Corporation Segmenting audio signals into auditory events
US7610205B2 (en) 2002-02-12 2009-10-27 Dolby Laboratories Licensing Corporation High quality time-scaling and pitch-scaling of audio signals
ATE527654T1 (de) 2004-03-01 2011-10-15 Dolby Lab Licensing Corp Mehrkanal-audiodecodierung
SE0400998D0 (sv) 2004-04-16 2004-04-16 Cooding Technologies Sweden Ab Method for representing multi-channel audio signals
KR101283525B1 (ko) * 2004-07-14 2013-07-15 돌비 인터네셔널 에이비 오디오 채널 변환
US7508947B2 (en) 2004-08-03 2009-03-24 Dolby Laboratories Licensing Corporation Method for combining audio signals using auditory scene analysis
CA2581810C (en) 2004-10-26 2013-12-17 Dolby Laboratories Licensing Corporation Calculating and adjusting the perceived loudness and/or the perceived spectral balance of an audio signal
KR101251426B1 (ko) * 2005-06-03 2013-04-05 돌비 레버러토리즈 라이쎈싱 코오포레이션 디코딩 명령으로 오디오 신호를 인코딩하기 위한 장치 및방법
AU2006266655B2 (en) * 2005-06-30 2009-08-20 Lg Electronics Inc. Apparatus for encoding and decoding audio signal and method thereof
US8082157B2 (en) * 2005-06-30 2011-12-20 Lg Electronics Inc. Apparatus for encoding and decoding audio signal and method thereof
TWI396188B (zh) * 2005-08-02 2013-05-11 Dolby Lab Licensing Corp 依聆聽事件之函數控制空間音訊編碼參數的技術
CN101278598B (zh) * 2005-10-07 2011-05-25 松下电器产业株式会社 音频信号处理装置以及音频信号处理方法
TWI489886B (zh) * 2006-04-03 2015-06-21 Lg Electronics Inc 音頻訊號解碼方法及其裝置
TWI517562B (zh) 2006-04-04 2016-01-11 杜比實驗室特許公司 用於將多聲道音訊信號之全面感知響度縮放一期望量的方法、裝置及電腦程式
ATE448638T1 (de) * 2006-04-13 2009-11-15 Fraunhofer Ges Forschung Audiosignaldekorrelator
CA2648237C (en) * 2006-04-27 2013-02-05 Dolby Laboratories Licensing Corporation Audio gain control using specific-loudness-based auditory event detection
WO2008039038A1 (en) 2006-09-29 2008-04-03 Electronics And Telecommunications Research Institute Apparatus and method for coding and decoding multi-object audio signal with various channel
RU2413357C2 (ru) 2006-10-20 2011-02-27 Долби Лэборетериз Лайсенсинг Корпорейшн Обработка динамических свойств аудио с использованием перенастройки
JP2008262021A (ja) * 2007-04-12 2008-10-30 Hiromi Murakami 電気楽器における位相切替装置
DE102007018032B4 (de) * 2007-04-17 2010-11-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Erzeugung dekorrelierter Signale
JP5021809B2 (ja) * 2007-06-08 2012-09-12 ドルビー ラボラトリーズ ライセンシング コーポレイション アンビエンス信号成分とマトリックスデコードされた信号成分とを制御可能に結合することによるサラウンドサウンドオーディオチャンネルのハイブリッド導出
CN101790758B (zh) 2007-07-13 2013-01-09 杜比实验室特许公司 用于控制音频信号的信号处理的设备和方法
JP4471028B2 (ja) * 2007-09-03 2010-06-02 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2009086174A1 (en) 2007-12-21 2009-07-09 Srs Labs, Inc. System for adjusting perceived loudness of audio signals
JP5195652B2 (ja) * 2008-06-11 2013-05-08 ソニー株式会社 信号処理装置、および信号処理方法、並びにプログラム
US8233629B2 (en) * 2008-09-04 2012-07-31 Dts, Inc. Interaural time delay restoration system and method
DE102008056704B4 (de) * 2008-11-11 2010-11-04 Institut für Rundfunktechnik GmbH Verfahren zum Erzeugen eines abwärtskompatiblen Tonformates
JP5163545B2 (ja) * 2009-03-05 2013-03-13 富士通株式会社 オーディオ復号装置及びオーディオ復号方法
CN101533641B (zh) 2009-04-20 2011-07-20 华为技术有限公司 对多声道信号的声道延迟参数进行修正的方法和装置
CN102307323B (zh) * 2009-04-20 2013-12-18 华为技术有限公司 对多声道信号的声道延迟参数进行修正的方法
WO2010126709A1 (en) 2009-04-30 2010-11-04 Dolby Laboratories Licensing Corporation Low complexity auditory event boundary detection
WO2010148244A1 (en) 2009-06-19 2010-12-23 Dolby Laboratories Licensing Corporation User-specific features for an upgradeable media kernel and engine
US8538042B2 (en) * 2009-08-11 2013-09-17 Dts Llc System for increasing perceived loudness of speakers
EP2503618B1 (en) * 2011-03-23 2014-01-01 Semiconductor Energy Laboratory Co., Ltd. Composite material, light-emitting element, light-emitting device, electronic device, and lighting device
US8804984B2 (en) * 2011-04-18 2014-08-12 Microsoft Corporation Spectral shaping for audio mixing
US9312829B2 (en) 2012-04-12 2016-04-12 Dts Llc System for adjusting loudness of audio signals in real time
EP2898510B1 (en) 2012-09-19 2016-07-13 Dolby Laboratories Licensing Corporation Method, system and computer program for adaptive control of gain applied to an audio signal
CA2893729C (en) 2012-12-04 2019-03-12 Samsung Electronics Co., Ltd. Audio providing apparatus and audio providing method
EP2974253B1 (en) 2013-03-15 2019-05-08 Dolby Laboratories Licensing Corporation Normalization of soundfield orientations based on auditory scene analysis
EP2811758B1 (en) 2013-06-06 2016-11-02 Harman Becker Automotive Systems GmbH Audio signal mixing
US10547960B2 (en) 2014-09-01 2020-01-28 Sony Semiconductor Solutions Corporation Audio processing apparatus
EP3257270B1 (en) * 2015-03-27 2019-02-06 Fraunhofer Gesellschaft zur Förderung der Angewand Apparatus and method for processing stereo signals for reproduction in cars to achieve individual three-dimensional sound by frontal loudspeakers
US10045145B2 (en) * 2015-12-18 2018-08-07 Qualcomm Incorporated Temporal offset estimation
US10210871B2 (en) * 2016-03-18 2019-02-19 Qualcomm Incorporated Audio processing for temporally mismatched signals
CN110741435B (zh) 2017-06-27 2021-04-27 杜比国际公司 音频信号处理的方法、系统和介质
CN107682529B (zh) * 2017-09-07 2019-11-26 维沃移动通信有限公司 一种音频信号处理方法及移动终端
EP3669556B1 (en) 2017-10-16 2022-06-08 Sony Europe B.V. Audio processing
US10462599B2 (en) * 2018-03-21 2019-10-29 Sonos, Inc. Systems and methods of adjusting bass levels of multi-channel audio signals
CN108495234B (zh) * 2018-04-19 2020-01-07 北京微播视界科技有限公司 多声道音频处理方法、装置和计算机可读存储介质
CN108597527B (zh) * 2018-04-19 2020-01-24 北京微播视界科技有限公司 多声道音频处理方法、装置、计算机可读存储介质和终端
CN112437957B (zh) 2018-07-27 2024-09-27 杜比实验室特许公司 用于全面收听的强加间隙插入
DE102018127071B3 (de) * 2018-10-30 2020-01-09 Harman Becker Automotive Systems Gmbh Audiosignalverarbeitung mit akustischer Echounterdrückung
EP3949368B1 (en) 2019-04-03 2023-11-01 Dolby Laboratories Licensing Corporation Scalable voice scene media server

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002536933A (ja) * 1999-02-05 2002-10-29 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション 離散的なデジタル音声フォーマットにおいて互換性を持つマトリクスコード化されたサラウンドサウンドチャンネル
JP2003116200A (ja) * 2001-10-05 2003-04-18 Onkyo Corp 音響信号処理回路および音響再生装置
JP2004194315A (ja) * 2002-12-03 2004-07-08 Bose Corp 低周波補強デバイスを用いた電気音響変換
JP2005510093A (ja) * 2001-09-25 2005-04-14 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション マルチチャンネルロジックマトリックス復号方法及び装置
JP2005535266A (ja) * 2002-08-07 2005-11-17 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション オーディオチャンネルの空間的変換

Family Cites Families (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US586228A (en) * 1897-07-13 Mounting prism-lights
JPS526601B2 (ja) * 1972-03-27 1977-02-23
JPS4935003A (ja) * 1972-08-03 1974-04-01
JPS5510654B2 (ja) * 1974-05-15 1980-03-18
US4624009A (en) * 1980-05-02 1986-11-18 Figgie International, Inc. Signal pattern encoder and classifier
US4464784A (en) * 1981-04-30 1984-08-07 Eventide Clockworks, Inc. Pitch changer with glitch minimizer
US5040081A (en) * 1986-09-23 1991-08-13 Mccutchen David Audiovisual synchronization signal generator using audio signature comparison
US5055939A (en) 1987-12-15 1991-10-08 Karamon John J Method system & apparatus for synchronizing an auxiliary sound source containing multiple language channels with motion picture film video tape or other picture source containing a sound track
US5235646A (en) * 1990-06-15 1993-08-10 Wilde Martin D Method and apparatus for creating de-correlated audio output signals and audio recordings made thereby
AU8053691A (en) 1990-06-15 1992-01-07 Auris Corp. Method for eliminating the precedence effect in stereophonic sound systems and recording made with said method
CA2085887A1 (en) 1990-06-21 1991-12-22 Kentyn Reynolds Method and apparatus for wave analysis and event recognition
SG49883A1 (en) * 1991-01-08 1998-06-15 Dolby Lab Licensing Corp Encoder/decoder for multidimensional sound fields
US5175769A (en) 1991-07-23 1992-12-29 Rolm Systems Method for time-scale modification of signals
DE69423922T2 (de) * 1993-01-27 2000-10-05 Koninkl Philips Electronics Nv Tonsignalverarbeitungsanordnung zur Ableitung eines Mittelkanalsignals und audiovisuelles Wiedergabesystem mit solcher Verarbeitungsanordnung
US5956674A (en) * 1995-12-01 1999-09-21 Digital Theater Systems, Inc. Multi-channel predictive subband audio coder using psychoacoustic adaptive bit allocation in frequency, time and over the multiple channels
US6430533B1 (en) * 1996-05-03 2002-08-06 Lsi Logic Corporation Audio decoder core MPEG-1/MPEG-2/AC-3 functional algorithm partitioning and implementation
JPH1074097A (ja) 1996-07-26 1998-03-17 Ind Technol Res Inst オーディオ信号のパラメータを変更する方法及び装置
US6049766A (en) 1996-11-07 2000-04-11 Creative Technology Ltd. Time-domain time/pitch scaling of speech or audio signals with transient handling
US5862228A (en) * 1997-02-21 1999-01-19 Dolby Laboratories Licensing Corporation Audio matrix encoding
US6211919B1 (en) * 1997-03-28 2001-04-03 Tektronix, Inc. Transparent embedment of data in a video signal
US6330672B1 (en) 1997-12-03 2001-12-11 At&T Corp. Method and apparatus for watermarking digital bitstreams
GB2340351B (en) 1998-07-29 2004-06-09 British Broadcasting Corp Data transmission
US6266644B1 (en) 1998-09-26 2001-07-24 Liquid Audio, Inc. Audio encoding apparatus and methods
SE9903552D0 (sv) 1999-01-27 1999-10-01 Lars Liljeryd Efficient spectral envelope coding using dynamic scalefactor grouping and time/frequency switching
FR2802329B1 (fr) * 1999-12-08 2003-03-28 France Telecom Procede de traitement d'au moins un flux binaire audio code organise sous la forme de trames
KR100898879B1 (ko) 2000-08-16 2009-05-25 돌비 레버러토리즈 라이쎈싱 코오포레이션 부수 정보에 응답하여 하나 또는 그 이상의 파라메터를변조하는 오디오 또는 비디오 지각 코딩 시스템
CA2420671C (en) 2000-08-31 2011-12-13 Dolby Laboratories Licensing Corporation Method for apparatus for audio matrix decoding
EP1410686B1 (en) 2001-02-07 2008-03-26 Dolby Laboratories Licensing Corporation Audio channel translation
WO2004019656A2 (en) 2001-02-07 2004-03-04 Dolby Laboratories Licensing Corporation Audio channel spatial translation
US7461002B2 (en) * 2001-04-13 2008-12-02 Dolby Laboratories Licensing Corporation Method for time aligning audio signals using characterizations based on auditory events
US7711123B2 (en) * 2001-04-13 2010-05-04 Dolby Laboratories Licensing Corporation Segmenting audio signals into auditory events
EP1377967B1 (en) 2001-04-13 2013-04-10 Dolby Laboratories Licensing Corporation High quality time-scaling and pitch-scaling of audio signals
US7610205B2 (en) * 2002-02-12 2009-10-27 Dolby Laboratories Licensing Corporation High quality time-scaling and pitch-scaling of audio signals
US7283954B2 (en) * 2001-04-13 2007-10-16 Dolby Laboratories Licensing Corporation Comparing audio using characterizations based on auditory events
MXPA03010237A (es) 2001-05-10 2004-03-16 Dolby Lab Licensing Corp Mejoramiento del funcionamiento de transitorios en sistemas de codificacion de audio de baja tasa de transferencia de bitios mediante la reduccion del pre-ruido.
JP4272050B2 (ja) 2001-05-25 2009-06-03 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション オーディトリーイベントに基づく特徴付けを使ったオーディオの比較
MXPA03010750A (es) 2001-05-25 2004-07-01 Dolby Lab Licensing Corp Metodo para la alineacion temporal de senales de audio usando caracterizaciones basadas en eventos auditivos.
US20040037421A1 (en) 2001-12-17 2004-02-26 Truman Michael Mead Parital encryption of assembled bitstreams
CN1705980A (zh) 2002-02-18 2005-12-07 皇家飞利浦电子股份有限公司 参数音频编码
DE60326782D1 (de) 2002-04-22 2009-04-30 Koninkl Philips Electronics Nv Dekodiervorrichtung mit Dekorreliereinheit
EP2879299B1 (en) * 2002-05-03 2017-07-26 Harman International Industries, Incorporated Multi-channel downmixing device
DE10236694A1 (de) * 2002-08-09 2004-02-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum skalierbaren Codieren und Vorrichtung und Verfahren zum skalierbaren Decodieren
US7454331B2 (en) 2002-08-30 2008-11-18 Dolby Laboratories Licensing Corporation Controlling loudness of speech in signals that contain speech and other types of audio material
MXPA05008317A (es) 2003-02-06 2005-11-04 Dolby Lab Licensing Corp Audio con respaldo continuo.
SG185134A1 (en) 2003-05-28 2012-11-29 Dolby Lab Licensing Corp Method, apparatus and computer program for calculating and adjusting the perceived loudness of an audio signal
US7398207B2 (en) * 2003-08-25 2008-07-08 Time Warner Interactive Video Group, Inc. Methods and systems for determining audio loudness levels in programming
US7394903B2 (en) * 2004-01-20 2008-07-01 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Apparatus and method for constructing a multi-channel output signal or for generating a downmix signal
ATE527654T1 (de) 2004-03-01 2011-10-15 Dolby Lab Licensing Corp Mehrkanal-audiodecodierung
US7617109B2 (en) 2004-07-01 2009-11-10 Dolby Laboratories Licensing Corporation Method for correcting metadata affecting the playback loudness and dynamic range of audio information
FR2872910B1 (fr) 2004-07-07 2006-10-13 Nanoraptor Sa Composant optique pour l'observation d'un echantillon nanometrique, systeme comprenant un tel composant, procede d'analyse mettant en oeuvre ce composant, et leurs applications
US7508947B2 (en) 2004-08-03 2009-03-24 Dolby Laboratories Licensing Corporation Method for combining audio signals using auditory scene analysis
TW200638335A (en) 2005-04-13 2006-11-01 Dolby Lab Licensing Corp Audio metadata verification
TWI397903B (zh) 2005-04-13 2013-06-01 Dolby Lab Licensing Corp 編碼音訊之節約音量測量技術
KR101251426B1 (ko) 2005-06-03 2013-04-05 돌비 레버러토리즈 라이쎈싱 코오포레이션 디코딩 명령으로 오디오 신호를 인코딩하기 위한 장치 및방법
TWI396188B (zh) 2005-08-02 2013-05-11 Dolby Lab Licensing Corp 依聆聽事件之函數控制空間音訊編碼參數的技術
CA2648237C (en) 2006-04-27 2013-02-05 Dolby Laboratories Licensing Corporation Audio gain control using specific-loudness-based auditory event detection

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002536933A (ja) * 1999-02-05 2002-10-29 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション 離散的なデジタル音声フォーマットにおいて互換性を持つマトリクスコード化されたサラウンドサウンドチャンネル
JP2005510093A (ja) * 2001-09-25 2005-04-14 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション マルチチャンネルロジックマトリックス復号方法及び装置
JP2003116200A (ja) * 2001-10-05 2003-04-18 Onkyo Corp 音響信号処理回路および音響再生装置
JP2005535266A (ja) * 2002-08-07 2005-11-17 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション オーディオチャンネルの空間的変換
JP2004194315A (ja) * 2002-12-03 2004-07-08 Bose Corp 低周波補強デバイスを用いた電気音響変換

Also Published As

Publication number Publication date
PL1787495T3 (pl) 2010-10-29
TW200608352A (en) 2006-03-01
MY139731A (en) 2009-10-30
BRPI0514059A (pt) 2008-05-27
HK1101053A1 (en) 2007-10-05
IL180712A0 (en) 2007-06-03
ES2346070T3 (es) 2010-10-08
CA2574834C (en) 2013-07-09
ATE470322T1 (de) 2010-06-15
KR101161703B1 (ko) 2012-07-03
IL180712A (en) 2012-02-29
EP1787495A1 (en) 2007-05-23
CA2574834A1 (en) 2006-02-23
DK1787495T3 (da) 2010-09-06
AU2005275257A1 (en) 2006-02-23
US20060029239A1 (en) 2006-02-09
TWI374435B (en) 2012-10-11
EP1787495B1 (en) 2010-06-02
MX2007001262A (es) 2007-04-18
WO2006019719A1 (en) 2006-02-23
CN101002505B (zh) 2011-08-10
KR20070049146A (ko) 2007-05-10
BRPI0514059B1 (pt) 2019-11-12
AU2005275257B2 (en) 2011-02-03
US7508947B2 (en) 2009-03-24
CN101002505A (zh) 2007-07-18
JP2008509600A (ja) 2008-03-27
DE602005021648D1 (de) 2010-07-15

Similar Documents

Publication Publication Date Title
JP4740242B2 (ja) 聴覚の情景分析を用いたオーディオ信号の結合
US8634568B2 (en) Efficient filter for artificial ambience
US8036767B2 (en) System for extracting and changing the reverberant content of an audio input signal
JP4887420B2 (ja) 中央チャンネルオーディオのレンダリング
RU2559713C2 (ru) Пространственное воспроизведение звука
US9307338B2 (en) Upmixing method and system for multichannel audio reproduction
KR101540911B1 (ko) 헤드폰 재생 방법, 헤드폰 재생 시스템, 컴퓨터 프로그램 제품
RU2759448C2 (ru) Способ и устройство для рендеринга акустического сигнала и машиночитаемый носитель записи
US11611828B2 (en) Systems and methods for improving audio virtualization
WO2007026025A2 (en) Method to generate multi-channel audio signals from stereo signals
JP2021101242A (ja) 相関分離フィルタの適応制御のための方法および装置
EP2984857A1 (en) Apparatus and method for center signal scaling and stereophonic enhancement based on a signal-to-downmix ratio
GB2584837A (en) Sound field related rendering
Uhle Center signal scaling using signal-to-downmix ratios

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080521

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100622

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100921

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100927

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100929

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20101004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110428

R150 Certificate of patent or registration of utility model

Ref document number: 4740242

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250