JP5406956B2 - オーディオ入力信号の反響コンテンツを抽出および変更するためのシステム - Google Patents

オーディオ入力信号の反響コンテンツを抽出および変更するためのシステム Download PDF

Info

Publication number
JP5406956B2
JP5406956B2 JP2012074007A JP2012074007A JP5406956B2 JP 5406956 B2 JP5406956 B2 JP 5406956B2 JP 2012074007 A JP2012074007 A JP 2012074007A JP 2012074007 A JP2012074007 A JP 2012074007A JP 5406956 B2 JP5406956 B2 JP 5406956B2
Authority
JP
Japan
Prior art keywords
signal
estimated
audio signal
impulse response
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012074007A
Other languages
English (en)
Other versions
JP2012145962A (ja
Inventor
アーサー ジョセフ スーロードレ ギルバート
Original Assignee
ハーマン インターナショナル インダストリーズ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ハーマン インターナショナル インダストリーズ インコーポレイテッド filed Critical ハーマン インターナショナル インダストリーズ インコーポレイテッド
Publication of JP2012145962A publication Critical patent/JP2012145962A/ja
Application granted granted Critical
Publication of JP5406956B2 publication Critical patent/JP5406956B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • H04S5/005Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation  of the pseudo five- or more-channel type, e.g. virtual surround
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H7/00Measuring reverberation time ; room acoustic measurements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/301Automatic calibration of stereophonic sound system, e.g. with test microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/305Electronic adaptation of stereophonic audio signals to reverberation of the listening space
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L2021/02082Noise filtering the noise being echo, reverberation of the speech
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Stereophonic System (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)

Description

(発明の分野)
本発明は、入力信号の反響成分および非反響成分の分解および変更に関し、より詳細には、入力信号の成分の知覚可能性を低減および増大させることに関する。本発明は特に、オーディオ信号における反響を低減または増大させる用途を有している。
信号内に見出される反響がその信号の最終的な使用のためには不適切である場合が多くあるので、反響を変更することが可能な手段が存在することが望ましくあり得る。さらに、反響が録音された音響空間を直接的に測定する必要なしに、この反響を変更することが可能であることが望ましくあり得る。
(発明の背景)
ほぼ全てのオーディオ信号は、オリジナルのドライ信号(dry signal)と反響との組み合わせから構成されている。反響は、反響システムを通るドライ信号に起因する。例えば、コンサートホールで上演している歌手を考える。この例において、歌手の声はドライ信号であり、コンサートホールは反響システムである。コンサートホールのいくつかの位置にマイクロフォンを配置し、結果として生じるサウンドを録音すると、コンサートホールの反響特性が重ね合わされたドライ音声信号が得られるであろう。すなわちマイクロフォンは、歌手に起因する直接的なサウンド成分とコンサートホールを通るサウンドに起因する反響成分との混合物をキャプチャする。
オリジナルのドライ信号が、音響空間の反響特性(オリジナルのドライ信号の上に重ね合わされている)を有している場合に、オリジナルのドライ信号(または直接的な信号成分)を復元することは極めて困難である。同様に、反響成分の特性またはレベルを変更することは極めて困難である。この困難は、部分的に、反響がオリジナルのドライ信号に応じたものであるという事実に起因する。すなわち、反響は、オリジナルのドライ信号から作られる。さらに、典型的には、反響システムに関するいかなる反響情報に対してもアクセスすることができない。コンサートホールにおける歌手の例を用いると、マイクロフォンは、コンサートホールの音響の詳細を直接的に録音しない。むしろマイクロフォンは、歌手の声のサウンド(その上にコンサートホールの音響特性が重ね合わされている)を録音する。
一部の用途(例えば、音楽の録音)においては、特定の量の反響は非常に望ましい。なぜならば、特定の量の反響は、主観的満足(subjectively pleasing)をもたらす各音色(note)の伸びと、深さおよび環境の感知とを提供し得るからである。勿論、一部の音響空間(例えば、コンサートホール)は、その他の音響空間よりも主観的満足を与え得る。しかしながら、典型的には、主観的満足を与える音響空間のほとんどに対してはアクセスすることができないので、録音の反響成分は、所望のものほどには良いものではないことがあり得る。すなわち、反響は、その録音のためには完全に適したものではないことがあり得る。この場合において、現在では、録音の反響成分を変更するために行われ得ることは、それほど多くはない。録音の反響エネルギーが不足している場合には、人工反響デバイスを介して録音を処理することによって、より多くの反響エネルギーを追加することができる。しかしながら、これらのデバイスによって生成された反響は、自然なものとして聴こえない傾向があり、録音内に既に存在している反響を相補することは考えられない。逆に、録音が過度に大きな反響を有している場合には、現在では、反響成分のレベルを低減させるために行われ得ることは、それほど多くはない。録音が正しい量の反響を有しているが、正しい特性を有していない場合には、現在では、反響の特性を変更するために行われ得ることは、それほど多くはない。これらの場合の各々において、適切な反響特性を入手するために、直接的なサウンド成分ならびに反響エネルギーのレベルおよび特性を変更することが可能であるならば、非常に有利であり得る。
その他の用途においては、ささやかな(modest)量の反響は適切ではない。なぜならば、ささやかな量の反響は、信号の明確度(clarity)および明瞭度(intelligibility)を低下させるからである。例えば、テレビ会議(ハンドフリー電話がしばしば用いられる)の用途において、オフィスまたは会議室の反響は、スピーチ信号のサウンドを「うつろ(hollow)」にする望ましくない影響を有し得る。これはしばしば、レインバレル効果(rain barrel effect)と称される。その他の関連する用途(例えば、セキュリティ、監視、科学捜査)において、反響は非常に望ましくない。なぜならば反響は、スピーチ信号の明瞭度を低減させ得るからである。しかしながら、そのような状況においては、典型的には、音響空間の反響特性に対するいかなる制御をも有することは不可能である。スピーチ認識システムにおいて、反響は、単語を正確に識別するシステムの能力を低減させ、ひいては認識率を低減させ得る。認識率が過度に低くなると、スピーチ認識システムは、役に立たなくなり得る。反響は、障害のある人々に対して特有の困難を引き起こし得る。なぜならば、反響の望ましくない影響は、しばしば障害のある人々の聴覚の障害によって、倍加されるからである。スピーチの明瞭度に対する反響の負の影響は、しばしば聴覚の障害を有する人々に対しては、より深刻なものとなる。補聴器の増幅器が音響信号を増幅し、その音響信号をより聴こえるようにするとき、補聴器の増幅器は、直接的なサウンド成分と反響成分との両方を増幅する。したがって、信号を増幅することは、反響の負の影響を克服することには役立たない。これらの増幅の各々においては、直接的なサウンド成分に対して反響成分のレベルが適切なレベルになるように、反響成分のレベルを低減させることが可能であることが、非常に望ましくあり得る。オーディオ信号における反響の量を低減させることを試みるための1つの一般的なアプローチは、指向性マイクロフォンまたはマイクロフォンアレイを用いることである。指向性マイクロフォンおよびマイクロフォンアレイは、特定の方向から到達するサウンドを受け入れ、その他の方向から到達するサウンドを拒絶する。したがって、マイクロフォンが適切な場所に配置された場合、そのマイクロフォンは、所望のドライ信号を受け入れる一方で、反響の一部分を拒絶し得る。
指向性マイクロフォンまたはマイクロフォンアレイを首尾よく用いるには、所望の信号が配置される場所を知っていることが必要である。このアプローチは、その場所が知られていない場合、またはその場所が時間につれて変化する場合に、満足に機能しないことがあり得る。なぜならば、所望の信号が拒絶され得るからである。またこのアプローチは、特定の用途においては、マイクロフォンアレイの物理的なサイズ、必要なハードウェア資源(例えば、マイクロフォン、増幅器、等)の量における増加、そして結果としてもたらされるコストにおける増加が原因で、適切ではないことがあり得る。代わりに、音響空間に関するいかなる知識をも伴わずに、そしてソースの位置に関するいかなる知識をも伴わずに、単一の非指向性マイクロフォンを用いることによって、反響成分のレベルを適切なレベルに低減させることが可能であることが、非常に有利であり得る。
映画およびテレビの製作においては、聴こえてくるサウンド(例えば、台詞およびサウンド効果)が、スクリーン上で見られる画像に適した反響特性を有していることが重要である。例えば、小さな部屋でシーンが撮影されていることを画像が示している場合、サウンドは、実際にはそのサウンドがより大きなサウンドステージで録音されている場合でさえも、小さな部屋の反響特性を有し得る。用語「ルームトーン(room tone)」は、しばしば映画およびテレビの製作において、音響空間の音響特性を記述するために用いられる。一般的に、映画およびテレビの製作において、サウンドは、非常にさまざまな場所において録音される。例えば、台詞の一部分が映画の撮影時に録音される一方で、台詞のその他の部分が録音スタジオまたは「ダビング」スタジオにおいて後日録音されることがあり得る。録音スタジオまたはダビングスタジオにおいては、俳優は、ビデオまたは彼らの演技を見ながら、彼らの台詞を朗読する。このプロセスは、自動吹替え(automatic dialog replacement;ADR)として公知であり、非常に一般的に行われている。台詞の異なる部分が自然かつ現実的に聴こえるようにするためには、異なる録音のルームトーン(反響特性)を整合させ、台詞の異なる部分が全て同じ音響空間内で録音されたものであるようにする必要がある。さらに通常、サウンドを、それらのサウンドが非常に特殊な音響空間(非常に特殊なルームトーンを有している)において録音されたようにすることが所望されることがある。
ADRの例において、録音は、しばしば非常にドライである。なぜならば、録音スタジオまたはダビングスタジオは、通常、注意深く制御された音響空間だからである。すなわち、録音内には非常にわずかな反響しかない。この場合、特定の部屋の反響特性を録音の上に重ね合わせることが所望され得る。これは、部屋の音響特性が直接的に入手できない場合には、非常に困難であり得る。しかしながら、その部屋において録音されたその他の録音が入手可能であり得る。この例においては、音響空間の音響特性を録音から抽出することが可能であることが、非常に有用であり得る。さらに、適切な音響空間の反響特性を録音の上に重ね合わせることが可能であることが、有用であり得る。
台詞の異なる部分が、異なる音響空間(その各々は顕著な量の反響を有している)において録音された場合には、異なる録音の反響特性をいかにして整合させるかという問題がある。これを行うためには、第1に、適切な音響空間の反響特性を適用する前に行われた録音において、部屋の反響特性を除去しなければならない。上述のように、これは今日まで満足のいく程度に解決されてはいない困難な問題である。この状況においては、録音の音響特性を除去し、ひいては、適切な音響空間の音響特性を適用することが可能であることが、非常に有用であり得る。
ある部類の状況において、オーディオ信号内に見出される反響は、信号を処理する能力をなんらかの方法で制限するという意味で、不適切なものである。例えば、オーディオデータリダクションシステム(audio data reduction system)においては、信号を格納または送信するために小さな量のデータが用いられるように、信号を圧縮することが目的である。そのようなシステムは、信号を圧縮するためのエンコーダと、その後に信号を復元するためのデコーダとを用いる。これらのオーディオデータリダクションシステムは、圧縮プロセスの結果として情報が損失されず、その結果、デコーダにおいてオリジナルの信号が完全に復元される場合に、「無損失(lossless)」であり得る。その他のバリエーションは、「損失性(lossy)」なので、デコーダにおいて復元される信号は、オリジナルの入力信号とは同じではない。オーディオデータリダクションシステムは、オーディオ信号において冗長性が高い場所に依存する。すなわち、オーディオデータリダクションシステムは、「予測可能」なオーディオ信号の上で最も良く動作する。しかしながら、オーディオ信号における反響は、オーディオ信号の予測可能性を低減させる。現在では、オーディオデータリダクションシステムの性能を向上させるために、反響の影響を克服するための手段は存在しない。エンコーダにおいて信号を圧縮する前に、信号を直接的なサウンド成分と反響成分とに分解し、その後、圧縮された信号をデコーディングした後に反響信号を抽出することが可能であれば、非常に望ましくあり得る。
信号を処理する能力を反響が制限する別の例は、オーディオ透かし(audio watermarking)である。オーディオ透かしにおいては、オーディオ信号の中に情報を隠すことが目的である。この隠された情報は、曲の著作権保護のようなことに用いられ得る。オーディオ透かしシステムは、オーディオ信号に小さな改変を施すことによって動作する。これらの改変は、透かしが成功した場合には、聴こえなくなり得る。オーディオ透かしシステムにおいては、曲の非常に特殊な時点において、改変を施すことが所望され得る。しかしながら、この改変は、直接的なサウンド成分と反響成分とが、改変の結果として、もはや互いに整合しなくなった場合に、聴こえるようになり得る。オーディオ信号の反響成分を除去し、オーディオ透かしを挿入し、そして元の信号の反響成分を追加することが可能であることが、非常望ましくあり得る。
別の部類の状況において、信号内に見出される反響は、なんらかの処理の結果として不適切なものとなり得る。例えば、背景のノイズを除去するために、または信号ダイナミックレンジを変更するために、信号を処理することは一般的である。この処理は、しばしば録音における直接的なサウンド成分と反響成分との間の関係を変更し、その結果、その関係は、もはや適切なものではなくなる。現在では、この処理の後に反響成分を補正するための手段は存在しない。
音響空間の音響特性を測定することは、しばしば手軽ではないか、または不可能である。上述の例を用いると、コンサートホールにおける歌手の録音に対しては容易にアクセスすることができるが、コンサートホールそのものに対しては滅多にアクセスすることができない。また、コンサートホールに対してアクセスできない場合でさえも、録音時の音響条件(例えば、歌手およびマイクロフォンの位置、観衆の存在、等)を再現することができない可能性がある。したがって、反響システム内で行われた録音(またはリアルタイムの信号)から、その反響システムの詳細を抽出することが可能であることが望ましくあり得る。最も重要なことは、反響システムの知覚上関連のある局面の詳細を抽出することが可能であることが望ましくあり得るということである。今日まで、この必要性を十分に満たす方法は存在しない。反響システムのこの詳細は、録音における反響特性を改変または低減するためにシステムの一部として、または録音の上に反響特性を重ね合わせるためにシステムの一部として、反響システムを解析するために用いられ得る。
最初期のオーディオ録音(例えば、映画、音楽、テレビ、等)は、モノラルであった。すなわち、モノラルのオーディオ録音は、1つだけのチャネルの上に録音されていた。ステレオのオーディオ録音は、典型的にはより心地が良い。なぜならば、ステレオのオーディオ録音は、音響空間の反響特性の空間的局面を再現することにおいて、より優れているからである。モノラルの録音をステレオのフォーマットに変換する試みのために、数多くの処理が開発されてきた。これらの技術は、これらの技術が直接的なサウンド成分と反響成分との両方を処理するという事実によって、制限される。これらの技術は、これらの技術が直接的なサウンド成分と反響成分とを別個に処理することができたならば、劇的に向上され得る。現在において、信号を直接的なサウンド成分と反響成分とに分解し、それらが別個に処理され得るようにするための満足のいく方法は存在していない。
マルチチャネルのサウンドシステムは、ますます人気を博してきている。ステレオシステムは2つのチャネル(ゆえに、2つのラウドスピーカ)を有しているが、マルチチャネルのサウンドシステムは、多数のチャネルを有している。典型的なマルチチャネルのサウンドシステムは、5つのチャネル(ゆえに、5つラウドスピーカ)を有している。現在では、マルチチャネルのオーディオ録音の数は、非常に限られている。逆に、非常に多くのモノラル録音およびステレオ録音が入手可能である。モノオーディオ信号またはステレオオーディオ信号を取り、モノオーディオ信号またはステレオオーディオ信号からマルチチャネルのオーディオ信号を生成することが可能であることが、非常に望ましくあり得る。これを行うための現在の方法は、「マトリクスデコーディング(matrix decoding)」と称されるアプローチを用いる。これらの方法は、ステレオ録音を取り、録音の異なる部分を、マルチチャネルシステムのチャネルの各々に配置する。音楽の録音の場合に、機器の一部は、リスナーの背後に配置されて現れ得る。これは、一部の状況においては、望ましくない結果である。例えば、オーケストラの録音を再生する場合、典型的には、機器の一部がリスナーの背後に配置されて現れることは所望されない。むしろ、典型的には、楽器がリスナーの前方に配置されて現れ、コンサートホールの反響がリスナーの周囲全体から到達するように現れることが所望され得る。
この問題にアプローチするための1つの方法は、前方のラウドスピーカにオリジナルのステレオ信号を送信し、その一方で、人工反響デバイスを介して、ステレオ信号の処理も行うことである。人工反響デバイスの出力は、コンサートホールの反響のシミュレーションを提供することが意図されており、それらの出力は、後方の(サラウンド)ラウドスピーカに送信され得る。このアプローチは、いくつかの理由で満足のいくものではない。第1に、このアプローチは、ステレオ信号内に既に存在している反響の一番上に追加的な反響を追加する。したがって、このアプローチは、その特定の録音に対し、反響の全体の量を不適切なものとし得る。さらに、人工反響デバイスによって追加された反響は、ステレオ録音における反響の特性と整合しない可能性がある。これは、結果として得られるマルチチャネル信号を、不自然に聴こえさせてしまい得る。より良いアプローチは、ステレオ信号を、その直接的なサウンド成分とその反響成分とに分解することである。
オリジナルの信号が直接的な成分と反響成分とに分解されると、マルチチャネルの人工反響デバイスを介して直接的なサウンド成分を処理することによって、マルチチャネルのオーディオ信号を形成することを選択することが可能となる。この方法は、追加的な反響を追加する問題を迂回し得る。なぜならば、信号の反響成分が除去されるからである。この方法はまた、人工的な反響とオリジナルの録音における反響との間の不整合を回避し得る。
代替的に、オリジナルの信号が直接的な成分と反響成分とに分解されると、直接的な成分を前方のラウドスピーカに送信することによって、マルチチャネルのオーディオ信号を形成することを選択することが可能となる。これは、再現された音場における機器の前方の配置を維持し得る。オリジナルの信号の反響成分は、後方のラウドスピーカに送信され得るか、またはその反響成分は、適切な方法で、サブ成分に分解され、ラウドスピーカの全てにわたって分散され得る。このアプローチは、オリジナルの録音の成分からマルチチャネル信号の全体を形成し、その結果より自然に聴こえる結果を形成するという、顕著な利点を有している。信号を直接的な成分と反響成分とに分解し、その結果マルチチャネル信号がこの方法で生成され得ることを可能にする、現在利用可能な方法は存在しない。
一般的に、反響システムにおけるサウンドの録音を有しており、その反響システムの音響特性を何らかの方法によって直接的に測定することができた場合に、反響システムを数学的に逆転(invert)させ、オリジナルのドライサウンドを完全に復元することが可能であることが望ましくあり得る。この処理は、逆フィルタリングとして公知である。しかしながら、逆フィルタリングは、反響システムの完全な音響特性の正確な測定がなくては、行われ得ない。さらに、結果として得られる逆フィルタは、その音響特性の1つのセットに特有のものである。逆フィルタリングを用いることによって、所与の反響システムにおける録音から、異なる反響システムから測定された音響特性を用いてオリジナルのドライ信号を復元することは、不可能である。例えば、部屋における1つの位置に対して導出された逆フィルタは、同じ部屋におけるその他の任意の位置に対しては、有効ではない。逆フィルタに関するその他の問題は、逆フィルタが、計算的な要求が厳しく、結果として得られる信号の上に顕著な遅延を重ね合わせ得るということである。この遅延は、多くのリアルタイムの用途においては、受け入れられないものであり得る。したがって、逆フィルタの利点を達成する一方で、ほとんどの現実世界の用途において逆フィルタを非実用的にしている制限を克服するための手段を有することが望ましくあり得る。現在では、この仕事を適切に行うために利用可能な手段は存在しない。
上述のように、オーディオ信号内に見出される反響が、そのオーディオ信号の意図された最終的な用途に対して適切ではない多くの状況が存在する。したがって、オーディオ信号の直接的なサウンド成分および/または反響のサウンド成分を改変することが可能であることに対する必要性が存在する。さらに、反響が録音された音響空間を直接的に測定する必要なしに、この反響を改変することが可能であることが望ましくあり得る。これらの問題は、今日までに、満足のいく程度には、解決されていない。
本発明の一局面にしたがうと、本発明は、オーディオ信号の反響成分を識別および変更するための方法および装置を提供することによって、上述の必要性に対処する。
信号の反響成分は、この信号が録音またはキャプチャされた反響システムによって決定される。反響システムの特性は、(音源とマイクロフォンとの間の)そのインパルス応答
によって完全に記述される。インパルス応答はまた、そのフーリエ変換(またはその他のなんらかの変換)を計算することによって、周波数領域において見ることができる。フー
リエ表現は、大きさの応答と位相の応答との両方を提供する。本発明は、反響システムを表すインパルス応答をブロックに分割することに依存しており、各ブロックは、インパルス応答の一部を表している。本発明はさらに、ブロックの各々の周波数領域の表現の大きさの応答の推定によって、インパルス応答を推定することに依存する。人間の聴覚システムは、短い持続時間にわたる位相に対しては比較的鈍感なので、大きさの応答をベースとする表現は、正しいインパルス応答の知覚上適切な推定を形成する。
本発明の一局面にしたがうと、時間および周波数にわたる信号のレベルにおける変化を追跡することに基づいて、インパルス応答の大きさの応答をベースとした表現の、ブロックをベースとした推定を導出するための方法が提供される。この方法は、信号から直接的に、インパルス応答の大きさの応答のブロックをベースとした推定を導出し、インパルス応答の直接的な測定を必要としない。
本方法は、任意の所与の時間において、信号におけるエネルギーが、現在のドライ信号におけるエネルギーと、全ての先の信号の反響成分におけるエネルギーの和とから構成されるという事実に依存する。
本発明は、インパルス応答の大きさの応答のブロックをベースとした推定を用い、信号の反響成分に関連するエネルギーを識別し、抽出する。
本発明の別の局面にしたがうと、信号の反響成分の特性は、インパルス応答の大きさの応答のブロックをベースとした推定を調整することによって、変更され得る。
本発明の別の局面にしたがうと、第1の信号から導出されたソースの反響システムの反響特性は、第2の信号に適用され得る。
本発明の様々な局面は、信号の反響成分が変更され、その結果、その信号をその意図された最終的な用途により適したものとすることを可能にする。
本方法および装置はまた、知覚モデルを含み得る。知覚モデルの主な目的は、処理に起因するアーチファクトの可聴度を低減させることである。これは、反響信号のどの部分が反響信号のその他の部分によってマスクされているかを決定することによって、行われ得る。マスキングは、人間の聴覚システムにおいて起こる現象であり、この現象によって、聴こえる可能性のある信号は、別の信号の存在によって聴こえなくされる。処理内に知覚モデルを含めることによって、反響信号の可聴部分のみが抽出され、その結果、オリジナルの信号の周波数を改変する量が低減される。知覚モデルはまた、時間および周波数にわたる内部パラメータの相互作用を提供し、耳のマスキング特性を反映する。結果として、これらの周波数を改変することに起因するアーチファクトは、低減される。
本方法および装置はまた、1つ以上のソースモデルを含み得る。1つのソースモデルの目的は、オリジナルのドライ音源の音響特性のモデルを提供することである。第2のソースモデルの目的は、反響システムの特性のモデルを提供することである。オリジナルのドライ信号の音響特性と反響システムの音響特性とを知ることによって、入力信号のどの部分がドライ信号に起因しており、どの部分が反響に起因しているかに関するより優れた判断がなされ得る。例えば、ほとんどの反響システム(部屋)は、時間の経過につれて指数
的に減衰するシステムとして、適切にモデル化され得る。
本発明は、例えば、以下を提供する。
(項目1)
反響システムに対するインパルス応答を推定する方法であって、
反響システムからの信号をブロックのシーケンスにサンプリングするステップであって、該信号は、インパルス応答を有する、ステップと、
該シーケンスの各ブロックに対し、先のブロックの大きさに応じて、大きさを決定するステップと、
決定された大きさを用いて、有限インパルス応答フィルタに対するパラメータとして、該インパルス応答の推定を作成するステップと
を包含する、方法。
(項目2)
前記サンプリングするステップは、時間領域をベースとしている、項目1に記載の方法。
(項目3)
前記サンプリングするステップは、周波数領域をベースとしている、項目1に記載の方法。
(項目4)
前記サンプリングするステップは、等しいブロックを提供する、項目1に記載の方法。
(項目5)
前記ブロックは、重なり合っている、項目4に記載の方法。
(項目6)
前記サンプリングするステップは、窓を用いる、項目1に記載の方法。
(項目7)
前記決定するステップは、先の大きさの平方に対する現在の大きさの平方の比を求めるステップを含む、項目1に記載の方法。
(項目8)
前記決定するステップは、先の大きさのq乗に対する現在の大きさのq乗の比を求めるステップを含み、qは正の数である、項目1に記載の方法。
(項目9)
前記サンプリングするステップは、フィルタバンクを用いる、項目1に記載の方法。
(項目10)
前記推定を作成するステップは、平滑化するステップを含む、項目1に記載の方法。
(項目11)
反響システムからの信号を分解する方法であって、
反響システムからの信号をブロックのシーケンスにサンプリングするステップであって、該信号は、インパルス応答を有する、ステップと、
該シーケンスの各ブロックに対し、先のブロックの大きさに応じて、大きさを決定するステップと、
決定された大きさを用いて、有限インパルス応答フィルタに対するパラメータとして、該インパルス応答の推定を作成するステップと、
該推定されたインパルス応答の逆を該信号に適用し、直接的な信号成分と反響信号成分とのうちの少なくとも1つを導出するステップと
を包含する、方法。
(項目12)
前記サンプリングするステップは、時間領域をベースとしている、項目11に記載の方法。
(項目13)
前記サンプリングするステップは、周波数領域をベースとしている、項目11に記載の方法。
(項目14)
前記サンプリングするステップは、等しいブロックを提供する、項目11に記載の方法。
(項目15)
前記ブロックは、重なり合っている、項目14に記載の方法。
(項目16)
前記サンプリングするステップは、窓を用いる、項目11に記載の方法。
(項目17)
前記決定するステップは、先の大きさの平方に対する現在の大きさの平方の比を求めるステップを含む、項目11に記載の方法。
(項目18)
前記決定するステップは、先の大きさのq乗に対する現在の大きさのq乗の比を求めるステップを含み、qは正の数である、項目11に記載の方法。
(項目19)
前記サンプリングするステップは、フィルタバンクを用いる、項目11に記載の方法。
(項目20)
前記推定を作成するステップは、平滑化するステップを含む、項目11に記載の方法。
(項目21)
直接的な信号成分と反響信号成分とのうちの少なくとも1つを改変するステップをさらに含む、項目11に記載の方法。
(項目22)
前記改変された直接的な信号成分および前記反響信号成分と、該改変された直接的な信号成分および前記改変された反響信号成分と、該直接的な信号成分および該改変された反響信号成分とのうちの少なくとも1つを再び組み合わせるステップをさらに含む、項目21に記載の方法。
(項目23)
前記有限応答フィルタを第2の信号に適用し、人工的な反響信号を生成するステップをさらに含む、項目1に記載の方法。
(項目24)
反響システムからの信号を分解する方法であって、
反響システムからの信号をブロックのシーケンスにサンプリングするステップであって、該信号は、インパルス応答を有する、ステップと、
該シーケンスの各ブロックに対し、先のブロックの大きさに応じて、大きさを決定するステップと、
決定された大きさを用いて、有限インパルス応答フィルタに対するパラメータとして、該インパルス応答の推定を作成するステップと、
該推定されたインパルス応答の逆を該信号に適用し、直接的な信号成分を導出するステップと、
該有限インパルス応答フィルタと該直接的な信号成分とのうちの少なくとも1つを改変するステップと、
改変された反響信号をそこから再構成するステップと
を包含する、方法。
(項目25)
前記サンプリングするステップは、時間領域をベースとしている、項目24に記載の方法。
(項目26)
前記サンプリングするステップは、周波数領域をベースとしている、項目24に記載の方法。
(項目27)
前記サンプリングするステップは、等しいブロックを提供する、項目24に記載の方法。
(項目28)
前記ブロックは、重なり合っている、項目27に記載の方法。
(項目29)
前記サンプリングするステップは、窓を用いる、項目24に記載の方法。
(項目30)
前記決定するステップは、先の大きさの平方に対する現在の大きさの平方の比を求めるステップを含む、項目24に記載の方法。
(項目31)
前記決定するステップは、先の大きさのq乗に対する現在の大きさのq乗の比を求めるステップを含み、qは正の数である、項目24に記載の方法。
(項目32)
前記サンプリングするステップは、フィルタバンクを用いる、項目24に記載の方法。
(項目33)
前記推定を作成するステップは、平滑化するステップを含む。項目24に記載の方法。
(項目34)
反響システムからの、少ないチャネルを有する信号を用いてマルチチャネル信号を形成する方法であって、
反響システムからの該信号をブロックのシーケンスにサンプリングするステップであって、該信号は、インパルス応答を有する、ステップと、
該シーケンスの各ブロックに対し、先のブロックの大きさに応じて、大きさを決定するステップと、
決定された大きさを用いて、有限インパルス応答フィルタに対するパラメータとして、該インパルス応答の推定を作成するステップと、
該推定されたインパルス応答の逆を該信号に適用し、直接的な信号成分と反響信号成分とのうちの少なくとも1つを導出するステップと、
該直接的な信号成分と該反響信号成分とを再び組み合わせ、マルチチャネル信号を形成するステップと
を包含する、方法。
(項目35)
少ないチャネルを有する前記信号は、モノラル信号であり、前記マルチチャネル信号は、ステレオ信号である、項目34に記載の方法。
(項目36)
少ないチャネルを有する前記信号は、ステレオ信号であり、前記マルチチャネル信号は、サラウンドサウンド信号である、項目34に記載の方法。
図1は、音源および受信マイクロフォンを有する反響室を示している。 図2は、ブロックベースの分解の表現を用いてインパルス応答の成分を示している。 図3は、信号プロセッサ5の概略図を示している。 図4は、時間領域におけるブロックベースの畳み込みを示している。 図5は、周波数領域におけるブロックベースの畳み込みを示している。 図6は、ドライ成分および反響成分への信号の周波数領域のブロックベースの分解を示している。 図7は、再構成プロセッサ38の周波数領域のブロックベースの畳み込み演算を示している。 図8は、ステレオ入力信号からマルチチャネル出力信号を形成する手段を示している。
本発明は、信号の反響成分を変更する手段を提供する。これは一般に、第1に、基礎となる反響システムのインパルス応答の周波数領域の表現の知覚上関連のある推定を入手することによって、達成される。インパルス応答のこの推定を用いることにより、信号は、この信号の反響成分を抽出し、そしてドライ信号の推定と反響信号の推定とを入手することができるように、処理される。必要に応じて、さらなる処理が、ドライ信号と反響信号とに適用され得る。
音響空間のインパルス応答は、反響システムの完全な記述を提供する。コンサートホールにおける歌手の上述の例を用いると、反響システム(この場合は、コンサートホール)は、歌手と録音マイクロフォンとの間のインパルス応答によって、完全に記述され得る。様々な音響空間(例えば、風呂場と対比したときのコンサートホール)が、非常に異なって知覚される反響条件を有し得ることは、周知である。これらの差異は、様々な空間のインパルス応答における差異によって記述される。
反響システムのインパルス応答は、反響室2における音源s(t)1と、録音マイクロフォン3とを示している、図1を考えることによってよりよく理解され得る。音源がインパルスサウンドによって構成されている場合、マイクロフォンによって録音されるものは、音源とマイクロフォンとの間の反響システムのインパルス応答であり得る。インパルス応答は、直接的なサウンド成分4を含んでおり、この直接的なサウンド成分は、マイクロフォンに到達する第1のサウンドである(なぜならば、このサウンド成分は、音源とマイクロフォンとの間の最短距離を有しているから)。直接的なサウンド成分の後には、図中で破線によって示されているように、一連の反射されたサウンド(反射)が続き得る。到達時間および反射の振幅は、反響システムの特性を決定する。直接的なサウンド成分の後に到達する反射は、反響成分を構成する。したがって、反響システムの1つの影響は、オリジナルのドライ信号に反響を追加するということである。すなわち、反響は、オリジナルのドライ信号にエネルギーを追加する。数学的には、これは、m(t)=s(t)+r(t)と表され、ここでr(t)は、インパルス応答h(t)によって記述される反響システムを通る信号s(t)に起因する反響信号成分である。
インパルス応答の例は、図2に与えられている。第1の垂直の線は、直接的なサウンド4を表しており、その一方で、残りの線は反響を示している。各線の高さは、振幅を示しており、時間軸の上での各線の位置は、その到達時間を示している。時間が経過するにつれて、反射の数は、個々の反射を識別することがもはや可能ではなくなる程度にまで増加する。最終的に、反射は、指数的に減衰するシステムになる。これは、典型的には、インパルス応答の反響のテール(reverberant tail)11と称される。
いわゆる早期反射12は、直接的なサウンド成分の直後に到達し、反響のテールとは異なる知覚上の影響を有している。これらの早期反射は、部屋のサイズや、ソースとマイクロフォンとの間の距離に関する知覚上の手掛かりを提供する。早期反射はまた、それらがサウンドに対して向上された明確度および明瞭度を提供し得るという点で、重要である。反響のテールはまた、音響空間に関する知覚上の手掛かりを提供する。音響空間のインパルス応答を3つの知覚部分(直接的なサウンド4、早期反射12、および反響のテール11)に分割することは、一般的である。
音響空間が単一のインパルス応答を有していないことに注目することは重要である。図1の例を用いると、音源1が特定の位置に配置され、マイクロフォン3が所与の位置に配置されたときに、部屋に対するインパルス応答が存在することが分かる。音源またはマイクロフォンが(たとえ小さな量であっても)移動された場合、異なるインパルス応答が得られる。したがって、任意の所与の部屋に対し、実質的に無数の可能性のあるインパルス応答が存在する。なぜならば、1の位置と3の位置との可能性のある組み合わせは実質的に無数だからである。
インパルス応答はまた、そのフーリエ変換(またはその他の変換)を計算することによって、周波数領域において見ることができるので、反響システムは、周波数領域の表現H(ω)の観点で、完全に記述され得る。変数ωは、周波数を示す。インパルス応答のフーリエ変換は、大きさの応答と位相の応答との両方を提供する。一般的に、大きさの応答は、インパルス応答における異なる周波数成分の相対的なレベルに関する情報を提供し、その一方で、位相の応答は、周波数成分の時間的局面に関する情報を提供する。音源1またはマイクロフォン3を、部屋における1つの位置から近くの位置に移動させることは、大きさの応答に対しては大した影響を与えない傾向があるものの、位相の応答に対しては劇的な影響を与える傾向がある。すなわち、部屋におけるインパルス応答の近くは、同様の大きさの応答を有する傾向があるが、非常に異なる位相の応答を有し得る。
日常の経験は、所与の部屋の中では、我々がインパルス応答における差異に対しては、特に敏感ではないことを教えてくれる。例えば、誰かが話しているのを聞きながら部屋の中を動き回っているとき、動くのに伴ってインパルス応答が連続的に変化している場合でさえも、我々は人間の声のサウンドにおける劇的な変化を聴かない傾向がある。我々が劇的な差異を聞かない理由は、耳が主に、インパルス応答の全体的特徴(gross feature)に対して敏感であり、細かい詳細に対しては敏感ではないからである。より詳細には、耳は、インパルス応答の大きさの応答における変化に比べると、位相の応答における変化に対しては遥かに敏感ではない。一般に、耳は短時間にわたる位相に対しては非常に鈍感である。(D.L.Wang and J.S.Lim,「The unimportance of phase in speech enhancement」,IEEE Trans.Acoust.Speech,Signal Processing,vol.ASSP−30,no4,pp.679−681,Aug.1982)。上述のように、部屋における様々なインパルス応答は、同様の大きさの応答を有する傾向があるが、非常に異なる位相の応答を有し得る。
本発明は、入力信号における反響エネルギーの大きさの推定の周波数領域の推定を生成することによって、機能する。反響エネルギーの大きさのこの推定は、入力信号から差し引かれ、そして入力信号の大きさの推定を提供する。反響の入力信号の位相は、オリジナルのドライ信号を近似するために用いられる。この処理が全体として、全体のインパルス応答を用いて行われる場合、処理される信号内では、シビアな時間領域のアーチファクトが聴こえ得る可能性がある。したがって、本発明においては、全体のインパルス応答の推定は短いブロックに分割され、ブロックをベースとした方法で処理が実行される。ブロックの長さは、処理された出力信号の位相におけるエラーに起因する、いかなる時間領域のアーチファクトをも知覚しないように十分に短く選択される。
一般に、本発明において、信号プロセッサ5は、入力信号m(t) 3に作用し、この入力信号を異なるコンポーネント6に分解する。これらのコンポーネントは、オリジナルのドライ信号s(t)1の推定
Figure 0005406956
と、反響成分r(t)の推定
Figure 0005406956
とから構成され得る。反響成分の推定
Figure 0005406956
は、サブ成分にさらに分解され得、これらのサブ成分は、反響信号の様々な部分の推定
Figure 0005406956
を表す。一般に、信号プロセッサ5はまた、ドライ信号成分の推定および反響信号成分の推定のいずれかまたは全てを改変する。本発明は、周波数領域において、m(t)に作用する。入力信号m(t)3は、時間サンプルのブロックに重なり解析窓(overlapping analysis window)21を適用することによって、周波数領域の表現に変換される。時間−周波数領域プロセッサ22は、入力の時間サンプルに応答して、入力スペクトルを生成する。時間−周波数領域の変換を達成するために、時間−周波数領域プロセッサは、離散フーリエ変換(DFT)、ウェーブレット変換、またはその他の変換を実行し得るか、あるいは解析フィルタバンクによって置換されたり、または解析フィルタバンクを実装したりし得る。この実施形態においては、DFTが用いられる。入力信号m(t)は、必ずしも図1に示されているようなマイクロフォンから導出される必要はないことに留意されたい。本発明は、任意のオーディオ信号に対し、それがどのように生成されるかに関わらず作用し得る。
インパルス応答推定器24は、入力信号M(ω)25の周波数領域の表現に作用し、インパルス応答H(ω)の周波数領域の表現の知覚上関連のある推定
Figure 0005406956
23を生成する。一般に、インパルス応答推定器24は、入力信号に作用し、ブロックをベースとしたH(ω)の推定を生成する。このブロックをベースとしたインパルス応答の推定は、複数のブロックの推定
Figure 0005406956
16から構成され、これらのブロックの推定は、図2に示されているようなインパルス応答
Figure 0005406956
15のブロックの周波数領域の推定と対応している。
反響調整プロセッサ26は、インパルス応答の1つ以上の周波数領域のブロック推定器16に応答して、入力信号のスペクトルM(ω)の周波数成分を調整し、1つ以上の反響が調整された周波数スペクトル27(入力信号のスペクトルM(ω)の調整されたスペクトル成分を含む)を生成するように動作可能である。一般に、反響調整プロセッサ26は、1つ以上の調整された周波数スペクトル27を導出し、これは、入力信号の成分がオリジナルのドライ信号の一部分であるか、または反響信号も一部分であるかに基づいて、この入力信号の成分を通過、増幅、または減衰させ得る。
信号改変器28は、反響が調整された周波数スペクトル27と入力信号のスペクトル25との周波数成分を改変および混合し、1つ以上の出力周波数スペクトルZ(ω),Z(ω),・・・,Z(ω) 29を生成するように動作する。
周波数−時間領域プロセッサ30は、出力周波数スペクトルに応答して、時間サンプルz(t),z(t),・・・,z(t) 32を生成するように動作する。周波数−時間領域プロセッサは、一般に、時間−周波数領域プロセッサ22の逆の機能を実行する。結果的に、好適な実施形態において、各周波数−時間領域プロセッサは、逆離散フーリエ変換(IDFT)を実行する。
分解プロセッサ33は、インパルス応答H(ω)の周波数領域の表現のブロックをベースとした推定
Figure 0005406956
23を用い、入力信号M(ω)25の周波数領域の表現に作用し、オリジナルのドライ信号
Figure 0005406956
34の推定と、反響信号の1つ以上の成分の推定
Figure 0005406956
35とを生成する。
ドライ信号改変器36は、オリジナルのドライ信号の推定
Figure 0005406956
34の周波数成分を調整し、オリジナルのドライ信号の改変された推定
Figure 0005406956
を生成するように動作可能である。反響信号改変器37は、反響信号成分の1つ以上の推定
Figure 0005406956
の周波数成分を独立的に調整し、反響信号成分の改変された推定を生成するように動作可能である。
一般に、再構成プロセッサ38は、オリジナルのドライ信号の改変された推定
Figure 0005406956
と、反響信号成分の改変された推定
Figure 0005406956
とを取り、1つ以上の反響が調整された周波数スペクトル27を生成する。
第2の入力信号s(t)40は、第2の入力信号に反響を追加するために、再構成プロセッサに提供され得る。入力信号s(t)40は、時間サンプルのブロックに重なり解析窓41を適用することによって、周波数領域の表現に変換される。時間−周波数領域プロセッサ42は、入力の時間サンプルに応答して、入力スペクトルを生成する。追加された反響の特性は、インパルス応答23のブロックをベースとした推定によって、決定される。
本発明の性能は、インパルス応答推定器24に1つ以上のソースモデル43を含めることによって、向上され得る。ソースモデルは、反響システムの物理的特性を説明するために用いられ得る。例えば、反響システム(部屋)の応答は、時間の経過につれて、指数的に減衰する傾向がある。
インパルス応答推定器24によって導出されたブロックをベースとした推定は、その後の使用のために、格納され44、抽出される。インパルス応答改変器45は、インパルス応答のブロックをベースとした推定の周波数成分を独立的に調整し、インパルス応答の改変されたブロックをベースとした推定を生成するように動作可能である。
分解プロセッサ33の性能は、ソースモデル46を含めることによって向上され得る。ソースモデルの1つの目的は、どの程度の所与の周波数帯域が減衰または増幅され得るのかを決定するときに、ドライ音源の物理的特性を説明することであり得る。分解プロセッサ33の性能はまた、知覚モデル47を含めることによって向上され得る。知覚モデルの1つの目的は、周波数帯域を改変する量を制限し、その結果、ドライ信号を抽出する際に、望ましくない反響成分がドライ信号によってマスクされる地点までにのみ、その反響成分が減衰されるようにすることである。同様に、反響信号を抽出する際に、望ましくないドライ信号成分は、その成分が反響信号によってマスクされる地点までにのみ、減衰される。実際には、知覚モデルおよびソースモデルの局面は、組み合わされ得る。
再構成プロセッサ38の性能は、ソースモデル48を含めることによって、向上される。ソースモデルの1つの目的は、どの程度の所与の周波数帯域が減衰または増幅され得るのかを決定するときに、ドライ音源の物理的特性を説明することであり得る。分解プロセッサ38の性能はまた、知覚モデル49を含めることによって向上される。知覚モデルの1つの目的は、周波数帯域を改変する量を制限し、その結果、反響が調整されたスペクトルを導出する際に、ドライ信号および反響信号の望ましくない成分が所与の信号成分によってマスクされる地点までにのみ、それらの成分が減衰されるようにすることである。実際には、知覚モデルおよびソースモデルの局面は、組み合わされ得る。
実際には、ソースモデル46、48と知覚モデル47、49との局面は組合されたり、分解プロセッサ33と再構成プロセッサ38との間で共有されたりし得る。
本発明の様々な部分の動作は、コントローラ50によって、独立的に制御可能であり得る。
(好適な実施形態)
以下では、入力信号をそのオリジナルのドライ信号成分と反響成分とに分解するための好適な実施形態を記載する。反響成分はさらに、多数のサブ成分に分解される。この好適な実施形態は、数多くの用途(スピーチ信号または音楽信号を変更し、所望の反響特性を入手すること、スピーチ信号の明瞭度を向上させること、ならびにモノラル、ステレオ、またはマルチチャネルの入力信号から、追加的なオーディオチャネルを形成することを含む)に用いられ得る。
入力信号がモノラルである場合について、好適な実施形態が記載される。この実施形態を記載するにあたり、入力信号m(t)3は、ドライ音源s(t)1と反響成分r(t)との組み合わせから構成されることが仮定される。ここでr(t)は、s(t)がインパルス応答h(t)を有する反響システムを通る結果である。入力信号3は、その他の手段によって形成され得ることが理解される。
入力信号m(t)は、22において、周波数領域の表現に変換される。この実施形態においては、離散フーリエ変換(DFT)の高速の実装(50%の重なりのルートハニング窓21を用いる)が利用される。その他の周波数領域の表現(離散コサイン変換、またはウェーブレット変換を含む)が利用され得ることが、当業者には理解されよう。代替的に、周波数領域の表現を提供するために、フィルタバンクが利用され得る。その他の窓関数が利用され得、重なりの量は50%までに制限されるということもまた、理解されよう。時間−周波数変換において、時間サンプルのゼロパディングが用いられ得、処理に起因し得る任意の時間的なエイリアシングアーチファクトを低減し得るということが、理解されよう。入力信号の周波数領域の表現は、M(ω)25である。
インパルス応答推定器24は、入力信号の周波数領域の表現に作用し、インパルス応答
Figure 0005406956
23の周波数領域の表現のブロックをベースとした推定を生成する。図2に示されているように、インパルス応答h(t)は、B+1個のブロックに分割され、これらのブロックは、h(t),h(t),・・・,h(t)15から構成されており、これらには、周波数領域の表現H(ω),H(ω),・・・,H(ω)16が対応している。好適な実施形態において、全てのブロックは同じサイズであり、各々は長さDを有している。インパルス応答推定器は、H(ω),H(ω),・・・,H(ω)の知覚上関連のある推定を生成する。この実施形態において、これらの知覚上関連のある推定
Figure 0005406956
は、H(ω),H(ω),・・・,H(ω)の大きさの推定にそれぞれ基づいている。
当業者には、インパルス応答h(t)が有限インパルス応答(FIR)フィルタによって、そのフィルタが十分な長さである場合に、適切に近似され得ることが理解されよう。したがって、信号m(t)は、h(t)に等しいインパルス応答を有するFIRフィルタを介して、ドライ信号s(t)を処理することによって、入手され得る。このフィルタリングまたは畳み込み演算は、インパルス応答のブロックをベースとした表現15を用いることによって、等しく実装され得る。ブロックをベースとした実装は、図4に示されている。
信号s(t)は、h(t),h(t),・・・,h(t)に等しいインパルス応答を有するB+1個のFIRフィルタを介して処理される。これらのFIRフィルタの出力を時間整列(time−align)させるために、信号s(t)は、一連の遅延要素δ(t−D)17によって遅延される。各遅延要素は、Dサンプルの遅延を提供し、これらのサンプルは、ブロックFIRフィルタの長さに対応する。各遅延要素は、長さDのFIRフィルタとして実装され得、0に等しい最後のフィルタのタップ以外の全てを有し、最後のフィルタのタップは1に等しい。ブロックをベースとしたFIRフィルタリングの動作は、数学的には
Figure 0005406956
のように、または等価なものとして、
Figure 0005406956
のように記述され得る。ここで*は、畳み込み演算を表す。
図4において示されているように、この数学的な記述は、直接的な信号成分と反響成分とを明示的に示すように、
Figure 0005406956
のように拡張され得る。ここで、s(t)*h(t)は、直接的な信号成分を含み、
Figure 0005406956
は、反響信号成分7である。実際には、h(t)は長さDなので、反響信号の最初の部分の一部は、s(t)*h(t)にあると期待することができる。これは一般には、Dが十分短く選択される場合には、問題とはならない。Dが十分短い場合、s(t)*h(t)における反響信号の一部は、人間の聴覚システムのマスキング特性によって、聴こえないであろう。したがって、s(t)*h(t)は直接的な信号成分の知覚上関連のある表現ではあるが、r(t)は反響信号成分の知覚上関連のある成分であると言うことができる。
当業者には、時間領域における畳み込みは、周波数領域における乗算に等しいということが理解されよう。したがって、図4に示されているブロックをベースとしたFIRフィルタリングの処理は、代替的に、図5に示されているように、周波数領域において実行され得る。図4のB+1個のFIRフィルタh(t),h(t),・・・,h(t)は、ここでは、それらの周波数領域における等価物H(ω),H(ω),・・・,H(ω)によって置換されている。ここでは遅延要素は、Z−D18によって示されており、Dは遅延の長さを表している。したがって、周波数領域の処理は、
Figure 0005406956
として、または等価なものとして、
Figure 0005406956
によって与えられ得る。
図5に示されているように、この数学的な記述は、直接的な信号成分と反響成分とを明示的に
Figure 0005406956
のように示すために拡張され得る。ここで、S(ω)H(ω)は、直接的な信号成分を含む周波数領域の表現であり、
Figure 0005406956
は、反響信号成分19の周波数領域の表現である。
当業者には、FIRフィルタの効果が、適切な無限インパルス応答(IIR)フィルタを用いることによって、取り消され得ることが理解できよう。したがって、B+1個のFIRフィルタh(t),h(t),・・・,h(t)が正確に知られている場合に、適切なIIRフィルタ構造を用いて、m(t)からオリジナルのドライ信号s(t)を復元することが可能である。オリジナルのドライ信号はまた、FIRフィルタの周波数領域の表現H(ω),H(ω),・・・,H(ω)が知られている場合に復元され得る。本発明は、この概念を利用する。
多くの状況においては、H(ω),H(ω),・・・,H(ω)の正確な値を測定または導出することは不可能であり、そしてm(t)からs(t)を復元することは不可能である。本発明において、H(ω),H(ω),・・・,H(ω)の知覚上関連のある推定は、S(ω)の推定を導出するために用いられる。これらの知覚上関連のある推定
Figure 0005406956
は、H(ω),H(ω),・・・,H(ω)の大きさの推定にそれぞれ基づいている。
インパルス応答
Figure 0005406956
の周波数領域の表現のブロックをベースとした推定23は、分解プロセッサ33に提供される。分解プロセッサは、入力信号M(ω)25の周波数領域の表現に作用し、直接的な信号成分34の推定と反響成分35の推定とを生成する。好適な実施形態においては、分解プロセッサは、図6のように動作する。図面からは、分解プロセッサが、知覚上関連のあるフィルタの推定
Figure 0005406956
を用い、ブロックをベースとしたIIRフィルタ構造を形成するということが分かるであろう。IIRフィルタ構造は、M(ω)をその入力として取り、直接的な信号成分
Figure 0005406956
34のスペクトルの推定と、反響信号成分
Figure 0005406956
35のスペクトルの推定とを生成する。この処理は、数学的には、
Figure 0005406956
のように記述され得る。
この動作をよりよく理解するためには、入力信号M(ω)の所与のブロックに対する処理を考えることが有用である。M(ω)は、H(ω)を用いて畳み込まれたドライ信号の現在のブロックと、H(ω)を用いて畳み込まれたドライ信号の先のブロックと、ドライ信号のB個の先のブロック等から構成される。ここでは、ドライ信号のブロックを示す下付き文字を用い、S(ω)はドライ信号成分の先のi番目のブロックの周波数領域の表現を表す。これが与えられると、分解プロセッサの動作は、数学的に
Figure 0005406956
として記述され得る。ここで、
Figure 0005406956
は、S(ω)の真の値の推定である。好適な実施形態においては、
Figure 0005406956
は、1に等しいことが仮定されるので、
Figure 0005406956
が得られる。
したがって、本発明の好適な実施形態において、ドライ信号成分34の現在のブロックの推定は、ドライ信号の先のブロックの推定と、反響システムのインパルス応答のブロックをベースとした推定とから入手される。上式の
Figure 0005406956
が、反響信号成分35の推定であることに留意されたい。すなわち、
Figure 0005406956
である。
好適な実施形態においては、全体の反響信号成分は、
Figure 0005406956
のように、K個の反響のサブ成分
Figure 0005406956
に分割される。
ここで、pi,k(ω)[i=0,・・・,Bおよびk=1,・・・,K]は、周波数に応じたゲインベクトルであり、このゲインベクトルは、全体の反響信号成分が、時間および周波数にわたって、選択的に分割されることを可能にする。これは、インパルス応答の特定の部分によって畳み込まれたドライサウンドに起因する反響信号の一部を選択的に抽出することを可能にする。例えば、早期反射12に起因する反響信号成分は、反響のテール11に起因する成分から分離して抽出され得る。同様に、早期反射の異なる部分および/または反響のテールは、分離して抽出され得る。さらに、pi,k(ω)の値は、反響信号の異なる成分の低周波数と高周波数とを選択的に分離するように選択され得る。
好適な実施形態において、ブロックをベースとしたインパルス応答は、B+1個のブロックの周波数領域の表現の大きさによって、推定される。したがって、上式は、
Figure 0005406956
のように変形され得る。
入力信号M(ω)の位相は、
Figure 0005406956
に対する、そして
Figure 0005406956
に対する位相応答として、用いられる。
好適な実施形態において、分解プロセッサは、異なるゲインベクトルを入力信号に適用することによって、動作する。
Figure 0005406956
ドライ信号成分に対するゲインベクトルは、
Figure 0005406956
によって導出される。周波数に応じたパラメータMinGain(ω)は、G(ω)がなんらかの所望の値を下回ることを妨げる。
好適な実施形態において、ゲインベクトルは実数値のベクトルなので、ゲインベクトルは、M(ω)の大きさのみに影響する。その結果、
Figure 0005406956
は、M(ω)と同じ位相応答を有する。反響信号に対するゲインベクトルは、同様の方法で求められる。
ゲインベクトル
Figure 0005406956
は、知覚モデル47とソースモデル46とを利用することによって、さらに精密化され得る。知覚モデルが人間の聴覚システムのマスキング特性を説明する一方で、ソースモデルは、音源の物理的特性を説明する。この実施形態において、2つのモデルは組み合わされ、時間および周波数にわたって、ゲインベクトル
Figure 0005406956
の平滑化を提供する。時間にわたる平滑化は、
Figure 0005406956
のように遂行される。ここでτは、処理の現在の時間フレームを示す。γ(ω)は、各周波数帯域に対し、時間にわたってゲインベクトル
Figure 0005406956
に適用される平滑化の量を決定する。γ(ω)の様々な値が、各ゲインベクトルに対して用いられ得ることに留意されたい。またγ(ω)の値が、周波数に伴って変化し得ることにも留意されたい。γ(ω)の値もまた、時間の経過につれて変化し得、これらの値は、入力信号またはゲインベクトルの値に応じたものであり得る。
人間の聴覚システムの同時のマスキング特性は、周波数にわたる平滑化または拡散の形で見ることができる。この実施形態において、同時のマスキングは、
Figure 0005406956
Figure 0005406956
のように計算される。変数spread1(ω)およびspread2(ω)は、周波数にわたる同時のマスキングの量を決定する。この実施形態において、spread1(ω)およびspread2(ω)は、聴覚フィルタの帯域幅が周波数の増加に伴って増加し、その結果、高周波数においてより多くの拡散が適用されるという事実を説明するように企図される。
ゲインベクトルは、推定されたマスキングの効果を追加することによって、精密化される。周波数に応じたパラメータμ(ω)は、先に計算されたゲインベクトルの値に対してマスキングの推定が追加されるレベルを決定する。
Figure 0005406956
このステップは、ゲインベクトルの値が1.0を超過するようにし得る。この実施形態において、最大のゲイン値は、1.0に制限されるが、その他の制限も可能である。
Figure 0005406956
残りのゲインベクトルに対し、同様の動作が実行される。これらの最終的なゲインベクトルは、入力信号M(ω)に適用され、ドライ信号成分34と反響信号成分35とを生成する。ドライ信号成分34は、必要に応じて、ドライ信号改変器36によって改変され得る。この実施形態において、改変は、レベルの調整、周波数フィルタリング、およびダイナミックレンジの処理を含み得るが、これらには限定されない。反響信号成分35は、反響信号改変器37によって作用され、この実施形態においては、改変は、レベルの調整、周波数フィルタリング、およびダイナミックレンジの処理を含み得るが、これらには限定されない。
Figure 0005406956
再構成プロセッサ38は、改変されたドライサウンドの推定
Figure 0005406956
と反響信号のサブ成分の改変された推定
Figure 0005406956
とを組み合わせ、1つ以上の反響が調整された周波数スペクトル27を生成する。再構成プロセッサによって実行される別の動作は、図7に示されているように、ブロックをベースとしたインパルス応答を信号X(ω)60に適用し、出力信号Y(ω)61を生成することである。ブロックをベースとしたインパルス応答は、インパルス応答推定器24によって導出されるオリジナル
Figure 0005406956
または改変バージョン
Figure 0005406956
62のいずれかから構成され得る。この処理に対する入力信号X(ω)は、
Figure 0005406956
のうちの1つ以上、または2次入力信号S(ω)から構成され得る。
Figure 0005406956
の異なるバージョンが、異なる入力信号に対して用いられ得る。ブロックをベースとしたこの畳み込み処理からの出力信号は、追加的な反響が調整された周波数スペクトル27を提供する。再構成プロセッサ38は、ソースモデルと知覚モデルとを含む。この実施形態において、ソースモデル48および知覚モデル49は、分解プロセッサ33のソースモデル46および知覚モデル47と組み合わされる。
未処理の入力信号M(ω)25と、反響が調整された周波数スペクトル27とは、信号改変器28に提供される。信号改変器は、最終的なL個の出力周波数スペクトルZ(ω),Z(ω),・・・,Z(ω)を生成し、これらは時間領域に変換され、所望の信号z(t),z(t),・・・,z(t)32が入手される。この実施形態において、周波数−時間領域変換器30は、ルートハニング窓31が後に続く逆離散フーリエ変換(IDFT)の高速の実装から構成されている。
本発明がモノラル出力信号(すなわち、L=1)を形成するために用いられる用途に対しては、信号改変器28は、反響が調整されたスペクトル27に作用し、それらを組み合わせて、改変された反響特性を有する入力信号の改変バージョンを形成する。
本発明がモノラル入力信号から追加的なオーディオチャネルを形成するために用いられる用途に対しては、信号改変器28の動作は、反響が調整された周波数スペクトル27に作用し、それらを組み合わせて、2つ以上の一意的な出力周波数スペクトルZ(ω),Z(ω),・・・,Z(ω)を形成することを含む。
信号改変器28が、未処理の入力信号M(ω)25または反響が調整された周波数スペクトル27のいずれをも改変する必要がない一部の用途においては、信号改変器は、これらの信号を単に最終的な出力周波数スペクトルZ(ω),Z(ω),・・・,Z(ω)へと渡し得る。
好適な実施形態において、先のステップは、反響システムのインパルス応答の適切なブロックをベースとした推定を必要とし得る。インパルス応答推定器24は、入力信号M(ω)25の周波数領域の表現に作用し、インパルス応答のブロックをベースとした推定
Figure 0005406956
を生成する。
2つのファクターが、所与の周波数において反響の入力信号M(ω)25が減衰する(または増加する)速度を決定するために、組み合わされる。第1のファクターは、ドライ音源s(t)1の減衰(または増加)の速度であり、第2のファクターは、反響システムの減衰の速度である。所与の周波数における反響システム(例えば、コンサートホール)の減衰の速度は、時間の経過にわたって比較的一定ではあるが、ドライ音源の減衰の速度は、連続的に変化する。歌手についての先の例を用いると、所与の周波数における歌手の声のレベルは、時間の経過につれて、上がったり下がったりし得る。したがって、入力信号M(ω)25の減衰の最高速度は、ドライ音源s(t)1が所与の周波数において停止し、信号における減衰の全体が、反響システムの減衰に起因するときに起こる。
所与の周波数を考えると、
Figure 0005406956
を推定する最良の機会は、ドライ音源s(t)1がその周波数において停止した、まさにそのときであることが分かる。その時点で信号の反響成分r(t)が後に続き、反響システムの減衰が観察され得る。これが与えられると、先のブロックの大きさ
Figure 0005406956
に対する現在のブロックの大きさ
Figure 0005406956
の比を観察し、この比の最小値を推定することによって、推定
Figure 0005406956
を入手できる。
Figure 0005406956
ここでBias(ω)は、1.0よりも大きいなんらかの値であり、εはなんらかの小さな値である。周波数に応じたパラメータBias(ω)は、
Figure 0005406956
が正しくない最小値にトラップ(trap)されることを妨げ、εは
Figure 0005406956
が値ゼロにトラップされることを妨げる。上述の比の最小値は、その周波数における信号減衰の最高速度に対応しているので、これは、その周波数における
Figure 0005406956
の推定に対応している。この処理は、全てのブロック[i=1,・・・,B]に対し、各周波数ωにおいて実行される。
この実施形態において、ソースモデルは、
Figure 0005406956
のように実装される。パラメータMaxValue(ω)は、
Figure 0005406956
ひいては
Figure 0005406956
が、実際の音響空間において期待されていないであろう、なんらかの値を超過することを妨げる。MaxValue(ω)は、周波数にわたって、そしてブロックにわたって、変化し得る。時間的な平滑化動作が、
Figure 0005406956
のより安定な推定を提供するために適用される。
Figure 0005406956
ここでτは、処理の現在の時間フレームを示し、α(ω)は、時間的な平滑化の量を制御する周波数に応じたパラメータである。α(ω)はまた、時間にわたって、そしてブロックにわたって変化し得、その値は、入力信号の現在のブロックと、入力信号の先のブロックとに応じたものであり得る。
この実施形態において、周波数にわたる
Figure 0005406956
の平滑化は、ソースモデルの一部として実行される。平滑化の量は、β(ω)の値によって決定される。β(ω)は、周波数にわたって、そしてブロックにわたって変化し得る。
Figure 0005406956
ブロックをベースとしたインパルス応答の最終的な推定
Figure 0005406956
[i=1,・・・,B]は、ゲインベクトルを導出するために利用され、これらのゲインベクトルは、ドライサウンドの推定と反響成分の推定とを導出するために用いられる。
入力信号がモノラルである場合について、好適な実施形態が記載されてきた。本発明は、ステレオ信号およびマルチチャネル信号への作用に直ちに拡張され得るということに留意されたい。入力信号が2つ以上のチャネルを有しているときには、本発明が各チャネルに対して独立的に機能するか、あるいはチャネル上の動作が組み合わされ得、所与のチャネルに関する情報がその他のチャネルを処理する際に用いられ得るということに留意されたい。
インパルス応答のB+1個のブロック15、16は、必ずしも等しいサイズである必要はない。例えば、インパルス応答の早期反射の部分12に対して、より良い時間分解能を入手するために、より短いブロックを用いて、インパルス応答の最初の部分を表すことが望ましくあり得る。
インパルス応答のB+1個のブロック15は、重なり合うか、またはそれらのブロックは、図2に示されているように、いかなる重なりをも有していないことがあり得る。ブロックが重なり合っている場合、ブロックからブロックへの滑らかな遷移を提供するために、窓関数が用いられ得る。好適な実施形態において、ブロックは50%の重なりを有している。
好適な実施形態においては、信号およびインパルス応答の周波数領域の表現の大きさの平方
Figure 0005406956
が、処理に用いられる。大きさのその他の累乗
Figure 0005406956
も用いられ得ることに留意されたい。
反響が第2の入力信号s(t)40に追加される用途に対し、再構成プロセッサは、図7に示されているようなブロックをベースとした周波数領域のFIRフィルタを含み得る。これらのフィルタは、インパルス応答のブロックの大きさの改変された推定
Figure 0005406956
から構成される。好適な実施形態において、再構成プロセッサは、ゲインベクトルを入力信号に適用することによって、これを遂行する。
好適な実施形態において、分解プロセッサ33および再構成プロセッサ38は、互いに独立的に動作する。一部の用途において、2つのプロセッサの局面は、組み合わされ得るということに留意されたい。
本発明は、一般に、入力信号M(ω)25に基づいて、追加的なオーディオ信号を形成するために用いられ得る。すなわち、本発明は、U個のチャネルを有する入力信号M(ω)25からV個の出力チャネルを形成するために用いられ得る(但しV>U)。この例は、モノラル入力信号からステレオ信号またはマルチチャネル信号を形成することと、ステレオ入力信号からマルチチャネル信号を形成することと、マルチチャネル入力信号から追加的なチャネルを形成することとを含む。一般にこれは、信号の反響成分を抽出し、異なるサブ成分R(ω),R(ω),・・・,R(ω)35に分解し、これらを異なる出力チャネルに分散することによって遂行される。反響信号の所与の成分は、2つ以上の出力チャネルに割り当てられ得る。形成されたチャネルはまた、ドライ信号成分
Figure 0005406956
34および入力信号M(ω)25の推定を含み得る。
好適な実施形態において、分解プロセッサ33は、インパルス応答のブロックをベースとした推定
Figure 0005406956
を利用し、反響のサブ成分の知覚上適した集合を導出するように、入力信号M(ω)25に作用する。再構成プロセッサ38は、ドライ信号
Figure 0005406956
34および反響のサブ成分35の推定に作用し、反響が調整された周波数スペクトル27の集合を導出する。一部の例においては、信号改変器28が、反響が調整された周波数スペクトルを、最終的なV個の出力周波数スペクトルZ(ω),Z(ω),・・・,Z(ω) 29に直接的に割り当て得る。最終的な出力周波数スペクトルは、時間領域30に変換され、窓関数が施され(windowed)31、z(t),z(t),・・・,z(t) 32から構成されるマルチチャネルのオーディオ信号を提供する。
その他の例においては、信号改変器28が、2つ以上の反響が調整された周波数スペクトル27を選択的に組み合わせ、V個の出力周波数スペクトルを形成し得る。信号改変器はまた、V個の出力周波数スペクトルのうちの1つ以上において、未処理の入力信号M(ω)25を含み得る。
例として、ステレオ入力信号(U=2)から5個の(V=5)チャネルの出力信号を形成するための1つのアプローチは、図8に示されているようなものとして考えられる。左入力信号MLeft(ω)70は、その直接的な信号成分
Figure 0005406956
と反響信号成分
Figure 0005406956
とに分解される。左チャネルの直接的な信号成分
Figure 0005406956
は、左出力チャネル72に送信され、その一方で、左チャネルの反響信号成分
Figure 0005406956
は、左サラウンド出力チャネル75に送信される。同様に、右入力信号MRight(ω)71は分解され、右チャネルの直接的な信号成分
Figure 0005406956
は、右出力チャネル73に送信され、その一方で、右チャネルの反響信号成分
Figure 0005406956
は、右サラウンド出力チャネル74に送信される。中央の出力チャネル74は、なんらかの混合物
Figure 0005406956
から構成され、ここでg、g、gおよびgは、成分が互いに混合される相対的なレベルを決定する。この例は、本発明が入力信号を分解して追加的なオーディオチャネルを形成するための、ほぼ無数の手段のうちの1つに過ぎないことに、留意されたい。
(本発明のその他の実施形態)
1.インパルス応答の周波数領域の表現のブロックをベースとした推定を用いて、反響信号を分解することによって、その信号を直接的なサウンド成分および/または1つ以上の反響成分に分解する方法。
1.1.上記信号は、インパルス応答の周波数領域の表現の大きさの表現のみに基づいて、直接的なサウンド成分および/または1つ以上の反響成分に分解される、クレーム1に記載の方法。
1.2.上記信号は、変換の表現を用いて、直接的なサウンド成分および/または1つ以上の反響成分に分解される、クレーム1に記載の方法。
1.3.上記信号は、フィルタバンクの表現を用いて、直接的なサウンド成分および/または1つ以上の反響成分に分解される、クレーム1に記載の方法。
1.4.上記信号は、直接的なサウンド成分および/または1つ以上の反響成分に分解され、直接的なサウンド成分のみが出力される、クレーム1に記載の方法。
1.5.上記信号は、直接的なサウンド成分および/または1つ以上の反響成分に分解され、1つ以上の反響成分のみが出力される、クレーム1に記載の方法。
2.クレーム1に記載の方法を用いて、第1に反響信号を分解し、直接的なサウンド成分および/または1つ以上の反響成分を組み合わせる前に、それらを改変することによって、出力信号を生成する方法。
2.1.上記処理は、電話機またはテレビ会議機器における反響を低減させるために用いられる、クレーム2に記載の方法。
2.2.上記処理は、反響スピーチ信号の明瞭度を増加させるために用いられる、クレーム2に記載の方法。
2.3.上記処理は、反響を低減させ、スピーチ認識システムの認識率を増加させるために用いられる、クレーム2に記載の方法。
2.4.上記処理は、増幅された信号に起因する反響を低減させることによって、拡声装置(public address system)における音響フィードバックを低減させるために用いられる、クレーム2に記載の方法。
2.5.上記処理は、補聴器における反響スピーチ信号の明瞭度を増加させるために用いられる、クレーム2に記載の方法。
2.6.直接的なサウンド成分のみが抽出され、改変される、クレーム2に記載の方法。
2.7.直接的なサウンド成分は、反響成分のうちの1つ以上を再び組み合わせる前に改変される、クレーム2に記載の方法。
2.7.1.上記改変は、直接的なサウンド成分にノイズリダクション(noise reduction)を適用することから構成される、クレーム2.7に記載の方法。
2.7.2.上記改変は、直接的なサウンド成分にオーディオ透かしを追加することから構成される、クレーム2.7に記載の方法。
2.8.上記反響成分は、直接的なサウンド成分と組み合わせる前に改変される、クレーム2に記載の方法。
2.9.上記直接的なサウンド成分と1つ以上の反響成分との両方は、成分を組み合わせる前に改変される、クレーム2に記載の方法。
2.10.反響サウンドに対する直接的なサウンドの比は、直接的なサウンドと反響成分とを再び組み合わせる前に改変される、クレーム2に記載の方法。
2.11.特定の反響成分のみが、直接的なサウンド成分と組み合わせる前に改変される、クレーム2に記載の方法。
3.インパルス応答の周波数領域の表現のブロックをベースとした推定を用いて、直接的なサウンド成分および/または1つ以上の反響成分から構成される出力信号を形成する方法。
3.1.上記出力信号は、インパルス応答の周波数領域の表現の大きさの表現のみに基づいて形成される、クレーム3に記載の方法。
3.2.上記出力信号は、インパルス応答の変換の表現を用いて形成される、クレーム3に記載の方法。
3.3.上記出力信号は、インパルス応答のフィルタバンクの表現を用いて形成される、クレーム3に記載の方法。
3.4.上記インパルス応答の周波数領域の表現は、複数の反響出力信号を形成するために改変される、クレーム3に記載の方法。
3.4.1.上記複数の反響出力信号は、モノラル信号からステレオ信号を形成するために用いられる、クレーム3.4に記載の方法。
3.4.2.上記複数の反響出力信号は、マルチチャネルのサラウンドサウンドシステムにおいて用いられる、クレーム3.4に記載の方法。
3.4.3.上記複数の反響出力信号は、3次元ヘッドフォンシステムにおいて用いられる、クレーム3.4に記載の方法。
3.5.上記出力信号は、第1の信号から導出されたインパルス応答の周波数領域の表現を、第2の信号の直接的なサウンド成分に適用することによって形成される、クレーム3に記載の方法。
3.5.1.上記第2の信号の直接的なサウンド成分は、クレーム1に記載の方法を用いて導出される、クレーム3.5に記載の方法。
4.反響信号から反響システムの記述を抽出する方法であって、
基礎となる反響システムの全体のインパルス応答を、インパルス応答の一部を表す一連のブロックに分解することと、
現在のフレームにおける信号の周波数領域の表現と、先のフレームの表現とを比較することによって、各ブロックに対して、インパルス応答の周波数領域の表現の推定を抽出することと
によって行われる、方法。
4.1.周波数領域の表現の上記比較は、信号の周波数成分の変化率を追跡することに基づく、クレーム4に記載の方法。
4.1.1.最大の変化率が用いられる、クレーム4.1に記載の方法。
4.1.1.1.ブロックiに対する上記周波数領域の表現H(ω)は、min{M(ω)/M(ω)}に基づく、クレーム4.1.1に記載の方法。
4.1.2.上記変化率は、平滑化される、クレーム4.1に記載の方法。
4.2.各ブロックに対する上記インパルス応答の周波数領域の表現は、物理的なモデルによって拘束される、クレーム4に記載の方法。
4.2.1.上記反響システムの物理的なモデルは、所与の時間の後の指数的な減衰を仮定する、クレーム4.2に記載の方法。
4.3.各ブロックに対する上記インパルス応答の周波数領域の表現は、知覚モデルを用いて導出される、クレーム4に記載の方法。
4.3.1.上記知覚モデルは、耳の周波数に応じた選択性を説明する、クレーム4.3に記載の方法。
4.4.実際の音響空間の知覚上関連のある反響特性は、その空間のインパルス応答を直接的に測定する必要なしにキャプチャされる、クレーム4に記載の方法。
5.クレーム1に記載の方法にしたがって信号を分解し、直接的なサウンド成分および/またはインパルス応答の周波数領域の表現の推定に基づくブロックを改変することによって、クレーム3に記載の方法にしたがって出力信号を形成する方法。
5.1.直接的な信号成分のみが、出力信号を形成する前に改変される、クレーム5に記載の方法。
5.1.1.上記改変は、直接的なサウンド成分にノイズリダクションを適用することから構成される、クレーム5.1に記載の方法。
5.1.2.上記改変は、直接的なサウンド成分にオーディオ透かしを適用することから構成される、クレーム5.1に記載の方法。
5.1.3.上記改変は、オーディオデータリダクションエンコーディングと、直接的なサウンド成分のデコーディングとから構成される、クレーム5.1に記載の方法。
5.1.3.1.上記分解および圧縮エンコーディングは、1つのデバイスによって実行され、圧縮デコーディングおよび出力信号の形成は、別のデバイスによって実行される、クレーム5.1.3に記載の方法。
5.1.3.2.上記インパルス応答の周波数領域の表現のブロックをベースとした推定は、圧縮されたオーディオビットストリーム内に含まれる、クレーム5.1.3に記載の方法。
5.2.上記インパルス応答の周波数領域の表現のブロックをベースとした推定は、クレーム4に記載の方法にしたがって導出される、クレーム5に記載の方法。

Claims (26)

  1. オーディオ信号の反響成分を識別および抽出する装置であって、
    前記装置は、
    オーディオ信号を受信および処理するように構成された信号プロセッサと、
    音響空間の推定されたインパルス応答の表現を前記オーディオ信号から生成するように前記信号プロセッサを用いて実行可能なインパルス応答推定器と、
    前記推定されたインパルス応答の表現を用いて、前記オーディオ信号を、推定されたオリジナルのドライ信号成分と推定された反響信号成分とに分解するように前記信号プロセッサを用いて実行可能な分解プロセッサと、
    前記オーディオ信号の推定されたオリジナルのドライ信号成分および推定された反響信号成分を独立的に改変するように前記信号プロセッサを用いて実行可能な改変器と、
    前記オーディオ信号の改変された推定されたオリジナルのドライ信号成分および改変された推定された反響信号成分を組み合わせて、1つ以上の調整された周波数スペクトルを生成するように前記信号プロセッサを用いて実行可能な再構成プロセッサと
    を備える、装置。
  2. 前記分解プロセッサは、前記オーディオ信号に異なるゲインベクトルを適用することにより、前記オーディオ信号の推定されたオリジナルのドライ信号成分および推定された反響信号成分を導出するように前記信号プロセッサを用いて実行可能である、請求項1に記載の装置。
  3. 前記推定されたインパルス応答の表現は前記推定されたインパルス応答の大きさを含む、請求項1または2に記載の装置。
  4. 前記インパルス応答推定器は、第1の複数のブロックを含む前記推定されたインパルス応答を生成するように前記信号プロセッサを用いて実行可能であり、各ブロックは、前記推定されたインパルス応答の成分を含み、
    前記音響空間の実際のインパルス応答は、時間軸で時間領域の第2の複数のブロックに分割され、前記推定されたインパルス応答の第1の複数のブロックは、それぞれ、前記第2の複数のブロックの周波数領域の推定である、請求項1〜3のいずれか一項に記載の装置。
  5. 記推定されたインパルス応答の各ブロックは、前記オーディオ信号に含まれるドライ音源の変化率と、前記オーディオ信号に含まれる反響成分の減衰の速度とに基づいて推定される、請求項4に記載の装置。
  6. 前記インパルス応答推定器は、前記推定されたインパルス応答のブロックのそれぞれの周波数成分を独立的に調整して、前記推定されたインパルス応答の改変されたバージョンを生成するようにさらに実行可能である、請求項4に記載の装置。
  7. 前記ゲインベクトルは、知覚モデルおよびソースモデルを含むモデルを用いて前記信号プロセッサにより平滑化され、前記知覚モデルは、前記推定された反響信号成分からの前記オーディオ信号の聴こえない部分の除外により前記音響空間のマスキング特性を表し、前記ソースモデルは、前記オーディオ信号に表わされた音源の物理的特性を表す、請求項1〜6のいずれか一項に記載の装置。
  8. 前記オーディオ信号は、音響空間の反響特性が重ね合わされたオリジナルのドライオーディオ信号を含み、前記反響特性は、前記オリジナルのドライオーディオ信号から生成される、請求項1〜7のいずれか一項に記載の装置。
  9. 前記オーディオ信号はモノラルオーディオ信号である、請求項1〜8のいずれか一項に記載の装置。
  10. 前記オーディオ信号はマルチチャネルオーディオ信号である、請求項1〜8のいずれか一項に記載の装置。
  11. オーディオ信号の反響成分を識別および抽出する装置であって、
    前記装置は、
    音響空間の反響特性が重ね合わされたドライオーディオ信号を表わすオーディオ信号を受信および処理するように構成された信号プロセッサと、
    前記ドライオーディオ信号の音響特性のモデルおよび前記オーディオ信号から推定された前記音響空間の推定されたインパルス応答に基づいて、前記オーディオ信号を、推定されたオリジナルのドライ信号成分と推定された反響信号成分とに分解するように前記信号プロセッサを用いて実行可能な分解プロセッサと、
    前記推定されたオリジナルのドライ信号成分および前記推定された反響信号成分から1つ以上の周波数スペクトルを生成するように前記信号プロセッサを用いて実行可能な再構成プロセッサと
    を備える、装置。
  12. 前記分解プロセッサは、前記推定された反響信号成分の推定された位相に基づいて前記推定されたオリジナルのドライ信号成分の位相を推定するようにさらに実行可能である、請求項11に記載の装置。
  13. 前記分解プロセッサは、前記推定された反響信号成分を前記推定された反響信号成分の複数のサブ成分に分解するようにさらに実行可能である、請求項11または12に記載の装置。
  14. 前記音響空間の推定されたインパルス応答は、第1の複数のブロックを含み、各ブロックは、前記推定されたインパルス応答の成分を含み、
    前記音響空間の実際のインパルス応答は、時間軸で時間領域の第2の複数のブロックに分割され、前記推定されたインパルス応答の第1の複数のブロックは、それぞれ、前記第2の複数のブロックの周波数領域の推定である、請求項11〜13のいずれか一項に記載の装置。
  15. それぞれのブロックの前記推定されたインパルス応答の大きさおよび前記オーディオ信号に基づいて前記音響空間推定されたインパルス応答を生成するように前記信号プロセッサにより実行可能なインパルス応答推定器をさらに備える、請求項14に記載の装置。
  16. 前記オーディオ信号の推定されたオリジナルのドライ信号成分および推定された反響信号成分のうちの少なくとも1つの信号成分を独立的に改変するように前記信号プロセッサを用いて実行可能な改変器をさらに備える、請求項11〜15のいずれか一項に記載の装置。
  17. 前記改変器は、前記推定されたオリジナルのドライ信号成分のレベルの調整、周波数フィルタリング、およびダイナミックレンジの処理のうちの少なくとも1つを実行するように実行可能であり、前記推定された反響信号成分の周波数成分の改変を独立的に実行するようにさらに実行可能である、請求項16に記載の装置。
  18. 前記再構成プロセッサは、前記オーディオ信号の推定されたオリジナルのドライ信号成分および推定された反響信号成分のうちの少なくとも1つの信号成分に前記推定されたインパルス応答を適用して、1つ以上の反響調整された周波数スペクトルを生成するようにさらに実行可能である、請求項1415のいずれか一項に記載の装置。
  19. 前記1つ以上の周波数スペクトルおよび前記オーディオ信号に基づいて最終的な出力周波数スペクトルを生成するように前記信号プロセッサを用いて実行可能な信号改変器をさらに備える、請求項11〜18のいずれか一項に記載の装置。
  20. 前記オーディオ信号はマルチチャネルオーディオ信号であり、前記信号改変器は、前記1つ以上の周波数スペクトルを、出力チャネルを表わす複数の異なる出力周波数スペクトルに選択的に割り当てるようにさらに実行可能であり、前記出力チャネルの数は、前記マルチチャネルオーディオ信号に含まれるチャネルの数よりも大きい、請求項19に記載の装置。
  21. 前記オーディオ信号はモノラルオーディオ信号である、請求項11〜19のいずれか一項に記載の装置。
  22. 前記分解プロセッサは、前記オーディオ信号の人間に聴こえない部分を前記推定された反響信号成分から除外するようにさらに実行可能である、請求項11〜21のいずれか一項に記載の装置。
  23. オーディオ信号の反響成分を識別および抽出する方法であって、
    前記方法は、
    オーディオ信号プロセッサを用いてオーディオ信号を受信および処理することであって、前記オーディオ信号は、音響空間の反響特性が重ね合わされたドライオーディオ信号を表わす、ことと、
    前記オーディオ信号プロセッサを用いて、前記オーディオ信号を、推定されたオリジナルのドライ信号成分と推定された反響信号成分とに分解することであって、前記オーディオ信号は、前記ドライオーディオ信号の音響特性のモデルおよび前記オーディオ信号から導出される前記音響空間の推定されたインパルス応答に基づいて分解される、ことと、
    前記オーディオ信号プロセッサが、前記オーディオ信号の人間に聴こえない部分を前記推定された反響信号成分から除外することと、
    前記オーディオ信号プロセッサを用いて、前記オーディオ信号の前記推定されたオリジナルのドライ信号成分および前記推定された反響信号成分を再び組み合わせることにより1つ以上の周波数スペクトルを生成することと
    を含む、方法。
  24. 第1の複数のブロックを含む前記音響空間の前記推定されたインパルス応答を生成することをさらに含み、各ブロックは、前記推定されたインパルス応答の成分を含み、
    前記音響空間の実際のインパルス応答は、時間軸で時間領域の第2の複数のブロックに分割され、前記推定されたインパルス応答の第1の複数のブロックは、それぞれ、前記第2の複数のブロックの周波数領域の推定であり、
    前記推定されたオリジナルのドライ信号成分および前記推定された反響信号成分を分解することは、前記推定されたインパルス応答のそれぞれのブロックの大きさの表現に基づく、請求項23に記載の方法。
  25. 前記オーディオ信号はモノラルオーディオ信号である、請求項23または24に記載の方法。
  26. 前記オーディオ信号はマルチチャネルオーディオ信号である、請求項23または24に記載の方法。
JP2012074007A 2006-09-20 2012-03-28 オーディオ入力信号の反響コンテンツを抽出および変更するためのシステム Active JP5406956B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/533,707 2006-09-20
US11/533,707 US8036767B2 (en) 2006-09-20 2006-09-20 System for extracting and changing the reverberant content of an audio input signal

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009501806A Division JP4964943B2 (ja) 2006-09-20 2007-09-17 オーディオ入力信号の反響コンテンツを抽出および変更するためのシステム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013227974A Division JP5635669B2 (ja) 2006-09-20 2013-11-01 オーディオ入力信号の反響コンテンツを抽出および変更するためのシステム

Publications (2)

Publication Number Publication Date
JP2012145962A JP2012145962A (ja) 2012-08-02
JP5406956B2 true JP5406956B2 (ja) 2014-02-05

Family

ID=39201398

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2009501806A Active JP4964943B2 (ja) 2006-09-20 2007-09-17 オーディオ入力信号の反響コンテンツを抽出および変更するためのシステム
JP2012074007A Active JP5406956B2 (ja) 2006-09-20 2012-03-28 オーディオ入力信号の反響コンテンツを抽出および変更するためのシステム
JP2013227974A Active JP5635669B2 (ja) 2006-09-20 2013-11-01 オーディオ入力信号の反響コンテンツを抽出および変更するためのシステム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2009501806A Active JP4964943B2 (ja) 2006-09-20 2007-09-17 オーディオ入力信号の反響コンテンツを抽出および変更するためのシステム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2013227974A Active JP5635669B2 (ja) 2006-09-20 2013-11-01 オーディオ入力信号の反響コンテンツを抽出および変更するためのシステム

Country Status (5)

Country Link
US (4) US8036767B2 (ja)
EP (1) EP2064699B1 (ja)
JP (3) JP4964943B2 (ja)
CN (2) CN103402169B (ja)
WO (1) WO2008034221A1 (ja)

Families Citing this family (170)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8543390B2 (en) * 2004-10-26 2013-09-24 Qnx Software Systems Limited Multi-channel periodic signal enhancement system
US8093484B2 (en) * 2004-10-29 2012-01-10 Zenph Sound Innovations, Inc. Methods, systems and computer program products for regenerating audio performances
US7598447B2 (en) * 2004-10-29 2009-10-06 Zenph Studios, Inc. Methods, systems and computer program products for detecting musical notes in an audio signal
US8180067B2 (en) * 2006-04-28 2012-05-15 Harman International Industries, Incorporated System for selectively extracting components of an audio input signal
US8036767B2 (en) 2006-09-20 2011-10-11 Harman International Industries, Incorporated System for extracting and changing the reverberant content of an audio input signal
EP2058804B1 (en) * 2007-10-31 2016-12-14 Nuance Communications, Inc. Method for dereverberation of an acoustic signal and system thereof
US20090123523A1 (en) * 2007-11-13 2009-05-14 G. Coopersmith Llc Pharmaceutical delivery system
JP2009128559A (ja) * 2007-11-22 2009-06-11 Casio Comput Co Ltd 残響効果付加装置
DE102008022125A1 (de) * 2008-05-05 2009-11-19 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Klassifikation von schallerzeugenden Prozessen
CN101651872A (zh) * 2008-08-15 2010-02-17 深圳富泰宏精密工业有限公司 多功能无线通信装置及其使用的音频调整方法
KR101546849B1 (ko) 2009-01-05 2015-08-24 삼성전자주식회사 주파수 영역에서의 음장효과 생성 방법 및 장치
EP2237271B1 (en) 2009-03-31 2021-01-20 Cerence Operating Company Method for determining a signal component for reducing noise in an input signal
JP5493611B2 (ja) * 2009-09-09 2014-05-14 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP5400225B2 (ja) * 2009-10-05 2014-01-29 ハーマン インターナショナル インダストリーズ インコーポレイテッド オーディオ信号の空間的抽出のためのシステム
US9210503B2 (en) * 2009-12-02 2015-12-08 Audience, Inc. Audio zoom
US9838784B2 (en) 2009-12-02 2017-12-05 Knowles Electronics, Llc Directional audio capture
CN101727892B (zh) * 2009-12-03 2013-01-30 无锡中星微电子有限公司 混响模型生成方法及装置
US8798290B1 (en) 2010-04-21 2014-08-05 Audience, Inc. Systems and methods for adaptive signal equalization
US9558755B1 (en) 2010-05-20 2017-01-31 Knowles Electronics, Llc Noise suppression assisted automatic speech recognition
JP5459069B2 (ja) * 2010-05-24 2014-04-02 ヤマハ株式会社 音声信号に埋め込まれた電子透かし情報を除去する装置、および音声信号に電子透かし情報を埋め込む装置
US8802957B2 (en) * 2010-08-16 2014-08-12 Boardwalk Technology Group, Llc Mobile replacement-dialogue recording system
GB2546026B (en) 2010-10-01 2017-08-23 Asio Ltd Data communication system
US20130051572A1 (en) * 2010-12-08 2013-02-28 Creative Technology Ltd Method for optimizing reproduction of audio signals from an apparatus for audio reproduction
EP2541542A1 (en) * 2011-06-27 2013-01-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for determining a measure for a perceived level of reverberation, audio processor and method for processing a signal
JP5348179B2 (ja) 2011-05-20 2013-11-20 ヤマハ株式会社 音響処理装置およびパラメータ設定方法
CN103636236B (zh) 2011-07-01 2016-11-09 杜比实验室特许公司 音频回放系统监视
CN103165136A (zh) 2011-12-15 2013-06-19 杜比实验室特许公司 音频处理方法及音频处理设备
US9084058B2 (en) 2011-12-29 2015-07-14 Sonos, Inc. Sound field calibration using listener localization
JP5834948B2 (ja) * 2012-01-24 2015-12-24 富士通株式会社 残響抑制装置、残響抑制方法及び残響抑制用コンピュータプログラム
CN102750956B (zh) * 2012-06-18 2014-07-16 歌尔声学股份有限公司 一种单通道语音去混响的方法和装置
US9106192B2 (en) 2012-06-28 2015-08-11 Sonos, Inc. System and method for device playback calibration
US9690539B2 (en) 2012-06-28 2017-06-27 Sonos, Inc. Speaker calibration user interface
US9690271B2 (en) 2012-06-28 2017-06-27 Sonos, Inc. Speaker calibration
US9706323B2 (en) 2014-09-09 2017-07-11 Sonos, Inc. Playback device calibration
US9219460B2 (en) 2014-03-17 2015-12-22 Sonos, Inc. Audio settings based on environment
US9756437B2 (en) * 2012-07-03 2017-09-05 Joe Wellman System and method for transmitting environmental acoustical information in digital audio signals
JP6085029B2 (ja) 2012-08-31 2017-02-22 ドルビー ラボラトリーズ ライセンシング コーポレイション 種々の聴取環境におけるオブジェクトに基づくオーディオのレンダリング及び再生のためのシステム
RU2602346C2 (ru) 2012-08-31 2016-11-20 Долби Лэборетериз Лайсенсинг Корпорейшн Рендеринг отраженного звука для объектно-ориентированной аудиоинформации
US9135920B2 (en) 2012-11-26 2015-09-15 Harman International Industries, Incorporated System for perceived enhancement and restoration of compressed audio signals
WO2014091375A1 (en) * 2012-12-14 2014-06-19 Koninklijke Philips N.V. Reverberation processing in an audio signal
US9407992B2 (en) 2012-12-14 2016-08-02 Conexant Systems, Inc. Estimation of reverberation decay related applications
MX354633B (es) 2013-03-05 2018-03-14 Fraunhofer Ges Forschung Aparato y metodo para la descomposicion directa-ambiental de multicanal para el procesamiento de señales de audio.
WO2014145893A2 (en) * 2013-03-15 2014-09-18 Beats Electronics, Llc Impulse response approximation methods and related systems
WO2014168777A1 (en) 2013-04-10 2014-10-16 Dolby Laboratories Licensing Corporation Speech dereverberation methods, devices and systems
EP2790419A1 (en) 2013-04-12 2014-10-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for center signal scaling and stereophonic enhancement based on a signal-to-downmix ratio
US9536540B2 (en) 2013-07-19 2017-01-03 Knowles Electronics, Llc Speech signal separation and synthesis based on auditory scene analysis and speech modeling
US9812150B2 (en) 2013-08-28 2017-11-07 Accusonus, Inc. Methods and systems for improved signal decomposition
US9426300B2 (en) * 2013-09-27 2016-08-23 Dolby Laboratories Licensing Corporation Matching reverberation in teleconferencing environments
US10825443B2 (en) * 2013-12-02 2020-11-03 Jonathan Stuart Abel Method and system for implementing a modal processor
US9805704B1 (en) 2013-12-02 2017-10-31 Jonathan S. Abel Method and system for artificial reverberation using modal decomposition
US11087733B1 (en) 2013-12-02 2021-08-10 Jonathan Stuart Abel Method and system for designing a modal filter for a desired reverberation
US11488574B2 (en) 2013-12-02 2022-11-01 Jonathan Stuart Abel Method and system for implementing a modal processor
EP2884491A1 (en) * 2013-12-11 2015-06-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Extraction of reverberant sound using microphone arrays
ES2709248T3 (es) * 2014-01-03 2019-04-15 Dolby Laboratories Licensing Corp Generación de audio binaural en respuesta a un audio multicanal que usa al menos una red de retardo de retroalimentación
CN104768121A (zh) 2014-01-03 2015-07-08 杜比实验室特许公司 响应于多通道音频通过使用至少一个反馈延迟网络产生双耳音频
CN105900170B (zh) * 2014-01-07 2020-03-10 哈曼国际工业有限公司 压缩音频信号的以信号质量为基础的增强和补偿
KR102427495B1 (ko) 2014-01-16 2022-08-01 소니그룹주식회사 음성 처리 장치 및 방법, 그리고 프로그램
US20150264505A1 (en) 2014-03-13 2015-09-17 Accusonus S.A. Wireless exchange of data between devices in live events
US10468036B2 (en) 2014-04-30 2019-11-05 Accusonus, Inc. Methods and systems for processing and mixing signals using signal decomposition
US9264839B2 (en) 2014-03-17 2016-02-16 Sonos, Inc. Playback device configuration based on proximity detection
CN103956170B (zh) * 2014-04-21 2016-12-07 华为技术有限公司 一种消除混响的方法、装置和设备
US9614724B2 (en) 2014-04-21 2017-04-04 Microsoft Technology Licensing, Llc Session-based device configuration
JP6311430B2 (ja) * 2014-04-23 2018-04-18 ヤマハ株式会社 音響処理装置
US9384334B2 (en) 2014-05-12 2016-07-05 Microsoft Technology Licensing, Llc Content discovery in managed wireless distribution networks
US9430667B2 (en) 2014-05-12 2016-08-30 Microsoft Technology Licensing, Llc Managed wireless distribution network
US9384335B2 (en) 2014-05-12 2016-07-05 Microsoft Technology Licensing, Llc Content delivery prioritization in managed wireless distribution networks
US10111099B2 (en) 2014-05-12 2018-10-23 Microsoft Technology Licensing, Llc Distributing content in managed wireless distribution networks
US9874914B2 (en) 2014-05-19 2018-01-23 Microsoft Technology Licensing, Llc Power management contracts for accessory devices
US10037202B2 (en) 2014-06-03 2018-07-31 Microsoft Technology Licensing, Llc Techniques to isolating a portion of an online computing service
CN104053120B (zh) * 2014-06-13 2016-03-02 福建星网视易信息系统有限公司 一种立体声音频的处理方法和装置
US9367490B2 (en) 2014-06-13 2016-06-14 Microsoft Technology Licensing, Llc Reversible connector for accessory devices
US9510125B2 (en) 2014-06-20 2016-11-29 Microsoft Technology Licensing, Llc Parametric wave field coding for real-time sound propagation for dynamic sources
US10127006B2 (en) 2014-09-09 2018-11-13 Sonos, Inc. Facilitating calibration of an audio playback device
US9891881B2 (en) 2014-09-09 2018-02-13 Sonos, Inc. Audio processing algorithm database
US9910634B2 (en) 2014-09-09 2018-03-06 Sonos, Inc. Microphone calibration
US9952825B2 (en) 2014-09-09 2018-04-24 Sonos, Inc. Audio processing algorithms
CN107112025A (zh) 2014-09-12 2017-08-29 美商楼氏电子有限公司 用于恢复语音分量的系统和方法
US9782672B2 (en) 2014-09-12 2017-10-10 Voyetra Turtle Beach, Inc. Gaming headset with enhanced off-screen awareness
WO2016042410A1 (en) * 2014-09-17 2016-03-24 Symphonova, Ltd Techniques for acoustic reverberance control and related systems and methods
US9799322B2 (en) * 2014-10-22 2017-10-24 Google Inc. Reverberation estimator
US20160140950A1 (en) * 2014-11-14 2016-05-19 The Board Of Trustees Of The Leland Stanford Junior University Method and System for Real-Time Synthesis of an Acoustic Environment
CN105791722B (zh) * 2014-12-22 2018-12-07 深圳Tcl数字技术有限公司 电视机声音调整方法及电视机
US10057705B2 (en) 2015-01-13 2018-08-21 Harman International Industries, Incorporated System and method for transitioning between audio system modes
US9972315B2 (en) * 2015-01-14 2018-05-15 Honda Motor Co., Ltd. Speech processing device, speech processing method, and speech processing system
US9584938B2 (en) * 2015-01-19 2017-02-28 Sennheiser Electronic Gmbh & Co. Kg Method of determining acoustical characteristics of a room or venue having n sound sources
DE112016000545B4 (de) 2015-01-30 2019-08-22 Knowles Electronics, Llc Kontextabhängiges schalten von mikrofonen
CN110809227B (zh) 2015-02-12 2021-04-27 杜比实验室特许公司 用于耳机虚拟化的混响生成
US10664224B2 (en) 2015-04-24 2020-05-26 Sonos, Inc. Speaker calibration user interface
WO2016172593A1 (en) 2015-04-24 2016-10-27 Sonos, Inc. Playback device calibration user interfaces
US9538305B2 (en) 2015-07-28 2017-01-03 Sonos, Inc. Calibration error conditions
FI129335B (en) * 2015-09-02 2021-12-15 Genelec Oy Acoustic room mode control
US9693165B2 (en) 2015-09-17 2017-06-27 Sonos, Inc. Validation of audio calibration using multi-dimensional motion check
WO2017049169A1 (en) 2015-09-17 2017-03-23 Sonos, Inc. Facilitating calibration of an audio playback device
US10079028B2 (en) * 2015-12-08 2018-09-18 Adobe Systems Incorporated Sound enhancement through reverberation matching
US10418012B2 (en) 2015-12-24 2019-09-17 Symphonova, Ltd. Techniques for dynamic music performance and related systems and methods
US9743207B1 (en) 2016-01-18 2017-08-22 Sonos, Inc. Calibration using multiple recording devices
US10003899B2 (en) 2016-01-25 2018-06-19 Sonos, Inc. Calibration with particular locations
US11106423B2 (en) 2016-01-25 2021-08-31 Sonos, Inc. Evaluating calibration of a playback device
CN108605193B (zh) 2016-02-01 2021-03-16 索尼公司 声音输出设备、声音输出方法、计算机可读存储介质和声音系统
EP3412039B1 (en) * 2016-02-02 2020-12-09 DTS, Inc. Augmented reality headphone environment rendering
EP3335218B1 (en) * 2016-03-16 2019-06-05 Huawei Technologies Co., Ltd. An audio signal processing apparatus and method for processing an input audio signal
US9864574B2 (en) 2016-04-01 2018-01-09 Sonos, Inc. Playback device calibration based on representation spectral characteristics
US9860662B2 (en) 2016-04-01 2018-01-02 Sonos, Inc. Updating playback device configuration information based on calibration data
US9763018B1 (en) 2016-04-12 2017-09-12 Sonos, Inc. Calibration of audio playback devices
US9820042B1 (en) 2016-05-02 2017-11-14 Knowles Electronics, Llc Stereo separation and directional suppression with omni-directional microphones
US9860670B1 (en) 2016-07-15 2018-01-02 Sonos, Inc. Spectral correction using spatial calibration
US9794710B1 (en) 2016-07-15 2017-10-17 Sonos, Inc. Spatial audio correction
US10372406B2 (en) 2016-07-22 2019-08-06 Sonos, Inc. Calibration interface
US10459684B2 (en) 2016-08-05 2019-10-29 Sonos, Inc. Calibration of a playback device based on an estimated frequency response
KR102405295B1 (ko) * 2016-08-29 2022-06-07 하만인터내셔날인더스트리스인코포레이티드 청취 공간에 대한 가상 현장들을 생성하기 위한 장치 및 방법
GB201617408D0 (en) 2016-10-13 2016-11-30 Asio Ltd A method and system for acoustic communication of data
GB201617409D0 (en) 2016-10-13 2016-11-30 Asio Ltd A method and system for acoustic communication of data
EP3324406A1 (en) 2016-11-17 2018-05-23 Fraunhofer Gesellschaft zur Förderung der Angewand Apparatus and method for decomposing an audio signal using a variable threshold
EP3324407A1 (en) * 2016-11-17 2018-05-23 Fraunhofer Gesellschaft zur Förderung der Angewand Apparatus and method for decomposing an audio signal using a ratio as a separation characteristic
US10930298B2 (en) 2016-12-23 2021-02-23 Synaptics Incorporated Multiple input multiple output (MIMO) audio signal processing for speech de-reverberation
CN110100457B (zh) * 2016-12-23 2021-07-30 辛纳普蒂克斯公司 基于噪声时变环境的加权预测误差的在线去混响算法
US10616451B2 (en) * 2017-01-04 2020-04-07 Samsung Electronics Co., Ltd. Image processing devices and methods for operating the same
JP6646001B2 (ja) * 2017-03-22 2020-02-14 株式会社東芝 音声処理装置、音声処理方法およびプログラム
JP2018159759A (ja) * 2017-03-22 2018-10-11 株式会社東芝 音声処理装置、音声処理方法およびプログラム
GB201704636D0 (en) 2017-03-23 2017-05-10 Asio Ltd A method and system for authenticating a device
US11373667B2 (en) * 2017-04-19 2022-06-28 Synaptics Incorporated Real-time single-channel speech enhancement in noisy and time-varying environments
US10154346B2 (en) 2017-04-21 2018-12-11 DISH Technologies L.L.C. Dynamically adjust audio attributes based on individual speaking characteristics
US9820073B1 (en) 2017-05-10 2017-11-14 Tls Corp. Extracting a common signal from multiple audio signals
GB2565751B (en) 2017-06-15 2022-05-04 Sonos Experience Ltd A method and system for triggering events
US11601715B2 (en) 2017-07-06 2023-03-07 DISH Technologies L.L.C. System and method for dynamically adjusting content playback based on viewer emotions
US11096005B2 (en) 2017-08-02 2021-08-17 Audio Analytic Ltd. Sound reproduction
JP7294135B2 (ja) 2017-10-20 2023-06-20 ソニーグループ株式会社 信号処理装置および方法、並びにプログラム
RU2020112483A (ru) 2017-10-20 2021-09-27 Сони Корпорейшн Устройство, способ и программа для обработки сигнала
US10171877B1 (en) 2017-10-30 2019-01-01 Dish Network L.L.C. System and method for dynamically selecting supplemental content based on viewer emotions
US10559295B1 (en) * 2017-12-08 2020-02-11 Jonathan S. Abel Artificial reverberator room size control
GB2570634A (en) 2017-12-20 2019-08-07 Asio Ltd A method and system for improved acoustic transmission of data
EP3518562A1 (en) 2018-01-29 2019-07-31 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio signal processor, system and methods distributing an ambient signal to a plurality of ambient signal channels
CN110097871B (zh) * 2018-01-31 2023-05-12 阿里巴巴集团控股有限公司 一种语音数据处理方法及装置
US10602298B2 (en) 2018-05-15 2020-03-24 Microsoft Technology Licensing, Llc Directional propagation
EP3573058B1 (en) * 2018-05-23 2021-02-24 Harman Becker Automotive Systems GmbH Dry sound and ambient sound separation
US10810992B2 (en) * 2018-06-14 2020-10-20 Magic Leap, Inc. Reverberation gain normalization
US11195539B2 (en) * 2018-07-27 2021-12-07 Dolby Laboratories Licensing Corporation Forced gap insertion for pervasive listening
AU2019321519B2 (en) 2018-08-13 2022-06-02 Med-El Elektromedizinische Geraete Gmbh Dual-microphone methods for reverberation mitigation
US11206484B2 (en) 2018-08-28 2021-12-21 Sonos, Inc. Passive speaker authentication
US10299061B1 (en) 2018-08-28 2019-05-21 Sonos, Inc. Playback device calibration
CN109327766B (zh) * 2018-09-25 2021-04-30 Oppo广东移动通信有限公司 3d音效处理方法及相关产品
US11184725B2 (en) 2018-10-09 2021-11-23 Samsung Electronics Co., Ltd. Method and system for autonomous boundary detection for speakers
EP3890359A4 (en) 2018-11-26 2022-07-06 LG Electronics Inc. VEHICLE AND ASSOCIATED OPERATING METHOD
CN109830244A (zh) * 2019-01-21 2019-05-31 北京小唱科技有限公司 用于音频的动态混响处理方法及装置
US11133017B2 (en) * 2019-06-07 2021-09-28 Harman Becker Automotive Systems Gmbh Enhancing artificial reverberation in a noisy environment via noise-dependent compression
US10721521B1 (en) * 2019-06-24 2020-07-21 Facebook Technologies, Llc Determination of spatialized virtual acoustic scenes from legacy audiovisual media
US11937076B2 (en) 2019-07-03 2024-03-19 Hewlett-Packard Development Copmany, L.P. Acoustic echo cancellation
US10734965B1 (en) 2019-08-12 2020-08-04 Sonos, Inc. Audio calibration of a portable playback device
EP4014511A1 (en) 2019-08-16 2022-06-22 Dolby Laboratories Licensing Corporation Method and apparatus for audio processing
US10932081B1 (en) 2019-08-22 2021-02-23 Microsoft Technology Licensing, Llc Bidirectional propagation of sound
CN110753297B (zh) * 2019-09-27 2021-06-11 广州励丰文化科技股份有限公司 一种音频信号的混合处理方法及处理装置
US11043203B2 (en) * 2019-09-27 2021-06-22 Eventide Inc. Mode selection for modal reverb
CN110749374B (zh) * 2019-10-22 2021-09-17 国网湖南省电力有限公司 一种建筑物内变压器结构传声分离方法及装置
WO2021119102A1 (en) * 2019-12-09 2021-06-17 Dolby Laboratories Licensing Corporation Adjusting audio and non-audio features based on noise metrics and speech intelligibility metrics
CN111326132B (zh) 2020-01-22 2021-10-22 北京达佳互联信息技术有限公司 音频处理方法、装置、存储介质及电子设备
WO2021186107A1 (en) 2020-03-16 2021-09-23 Nokia Technologies Oy Encoding reverberator parameters from virtual or physical scene geometry and desired reverberation characteristics and rendering using these
DE102020108958A1 (de) 2020-03-31 2021-09-30 Harman Becker Automotive Systems Gmbh Verfahren zum Darbieten eines ersten Audiosignals während der Darbietung eines zweiten Audiosignals
CN111785292B (zh) * 2020-05-19 2023-03-31 厦门快商通科技股份有限公司 一种基于图像识别的语音混响强度估计方法、装置及存储介质
US11246002B1 (en) 2020-05-22 2022-02-08 Facebook Technologies, Llc Determination of composite acoustic parameter value for presentation of audio content
CN113766394A (zh) * 2020-06-03 2021-12-07 雅马哈株式会社 音信号处理方法、音信号处理装置及音信号处理程序
CN113766395A (zh) 2020-06-03 2021-12-07 雅马哈株式会社 音信号处理方法、音信号处理装置及音信号处理程序
EP3944240A1 (en) * 2020-07-20 2022-01-26 Nederlandse Organisatie voor toegepast- natuurwetenschappelijk Onderzoek TNO Method of determining a perceptual impact of reverberation on a perceived quality of a signal, as well as computer program product
US11988784B2 (en) 2020-08-31 2024-05-21 Sonos, Inc. Detecting an audio signal with a microphone to determine presence of a playback device
JP2022045086A (ja) * 2020-09-08 2022-03-18 株式会社スクウェア・エニックス 残響を求めるためのシステム
US20220122613A1 (en) * 2020-10-20 2022-04-21 Toyota Motor Engineering & Manufacturing North America, Inc. Methods and systems for detecting passenger voice data
US11922921B1 (en) 2021-03-22 2024-03-05 Carmax Enterprise Services, Llc Systems and methods for comparing acoustic properties of environments and audio equipment
CN115862655A (zh) * 2021-09-24 2023-03-28 祖玛视频通讯公司 一次性声学回声生成网络
CN113726969B (zh) * 2021-11-02 2022-04-26 阿里巴巴达摩院(杭州)科技有限公司 混响检测方法、装置及设备
JP2023129849A (ja) * 2022-03-07 2023-09-20 ヤマハ株式会社 音信号処理方法、音信号処理装置および音信号配信システム
EP4247011A1 (en) * 2022-03-16 2023-09-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for an automated control of a reverberation level using a perceptional model

Family Cites Families (167)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4118599A (en) * 1976-02-27 1978-10-03 Victor Company Of Japan, Limited Stereophonic sound reproduction system
US4066842A (en) * 1977-04-27 1978-01-03 Bell Telephone Laboratories, Incorporated Method and apparatus for cancelling room reverberation and noise pickup
US4159397A (en) * 1977-05-08 1979-06-26 Victor Company Of Japan, Limited Acoustic translation of quadraphonic signals for two- and four-speaker sound reproduction
AU2944684A (en) * 1983-06-17 1984-12-20 University Of Melbourne, The Speech recognition
US4912767A (en) * 1988-03-14 1990-03-27 International Business Machines Corporation Distributed noise cancellation system
DE68921890T2 (de) * 1988-07-08 1995-07-20 Adaptive Audio Ltd Tonwiedergabesysteme.
JP2708105B2 (ja) 1989-04-26 1998-02-04 富士通テン 株式会社 車載用音響再生装置
US5285503A (en) * 1989-12-29 1994-02-08 Fujitsu Ten Limited Apparatus for reproducing sound field
US5210802A (en) * 1990-04-30 1993-05-11 Bose Corporation Acoustic imaging
US5305386A (en) * 1990-10-15 1994-04-19 Fujitsu Ten Limited Apparatus for expanding and controlling sound fields
DE4136022C2 (de) * 1990-11-01 2001-04-19 Fujitsu Ten Ltd Vorrichtung zum Aufweiten und Symmetrisieren von Klangfeldern
GB9026906D0 (en) * 1990-12-11 1991-01-30 B & W Loudspeakers Compensating filters
US5594800A (en) 1991-02-15 1997-01-14 Trifield Productions Limited Sound reproduction system having a matrix converter
US5210366A (en) * 1991-06-10 1993-05-11 Sykes Jr Richard O Method and device for detecting and separating voices in a complex musical composition
CA2069356C (en) * 1991-07-17 1997-05-06 Gary Wayne Elko Adjustable filter for differential microphones
JP3107599B2 (ja) * 1991-08-14 2000-11-13 富士通テン株式会社 音場制御装置
JPH0560594A (ja) * 1991-09-05 1993-03-09 Matsushita Electric Ind Co Ltd ハウリングシミユレーシヨン装置
JPH0573082A (ja) * 1991-09-11 1993-03-26 Toda Constr Co Ltd 音場シミユレータ
US5757927A (en) 1992-03-02 1998-05-26 Trifield Productions Ltd. Surround sound apparatus
FR2688371B1 (fr) * 1992-03-03 1997-05-23 France Telecom Procede et systeme de spatialisation artificielle de signaux audio-numeriques.
DE69322805T2 (de) * 1992-04-03 1999-08-26 Yamaha Corp. Verfahren zur Steuerung von Tonquellenposition
US5440639A (en) * 1992-10-14 1995-08-08 Yamaha Corporation Sound localization control apparatus
GB9222103D0 (en) 1992-10-21 1992-12-02 Lotus Car Adaptive control system
GB2274372A (en) * 1992-12-02 1994-07-20 Ibm Adaptive noise cancellation device
JPH06324689A (ja) * 1993-05-14 1994-11-25 Nippon Hoso Kyokai <Nhk> 音響測定方法
EP0637191B1 (en) 1993-07-30 2003-10-22 Victor Company Of Japan, Ltd. Surround signal processing apparatus
US5761315A (en) * 1993-07-30 1998-06-02 Victor Company Of Japan, Ltd. Surround signal processing apparatus
US5394472A (en) * 1993-08-09 1995-02-28 Richard G. Broadie Monaural to stereo sound translation process and apparatus
DE4328620C1 (de) * 1993-08-26 1995-01-19 Akg Akustische Kino Geraete Verfahren zur Simulation eines Raum- und/oder Klangeindrucks
US5386478A (en) * 1993-09-07 1995-01-31 Harman International Industries, Inc. Sound system remote control with acoustic sensor
JPH0833092A (ja) * 1994-07-14 1996-02-02 Nissan Motor Co Ltd 立体音響再生装置の伝達関数補正フィルタ設計装置
GB9417185D0 (en) * 1994-08-25 1994-10-12 Adaptive Audio Ltd Sounds recording and reproduction systems
US5754663A (en) * 1995-03-30 1998-05-19 Bsg Laboratories Four dimensional acoustical audio system for a homogeneous sound field
WO1997013912A1 (en) * 1995-10-12 1997-04-17 Tubular Textile Machinery Corporation Method and apparatus for treating knitted fabric
WO1997022430A1 (de) * 1995-12-19 1997-06-26 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur ausbildung einer anrissstelle zum bruchtrennen eines bauteils, insbesondere pleuel für brennkraftmaschinen
US5742689A (en) * 1996-01-04 1998-04-21 Virtual Listening Systems, Inc. Method and device for processing a multichannel signal for use with a headphone
US5848163A (en) 1996-02-02 1998-12-08 International Business Machines Corporation Method and apparatus for suppressing background music or noise from the speech input of a speech recognizer
JP3634490B2 (ja) 1996-03-21 2005-03-30 日本放送協会 音場におけるインパルス応答測定装置
US6850621B2 (en) * 1996-06-21 2005-02-01 Yamaha Corporation Three-dimensional sound reproducing apparatus and a three-dimensional sound reproduction method
US6052470A (en) * 1996-09-04 2000-04-18 Victor Company Of Japan, Ltd. System for processing audio surround signal
US5889867A (en) * 1996-09-18 1999-03-30 Bauck; Jerald L. Stereophonic Reformatter
JP3498888B2 (ja) * 1996-10-11 2004-02-23 日本ビクター株式会社 サラウンド信号処理装置と方法及び映像音声再生方法、記録媒体への記録方法及び記録装置、記録媒体、処理プログラムの伝送方法及び受信方法、並びに記録データの伝送方法及び受信方法
DE19645867A1 (de) * 1996-11-07 1998-05-14 Deutsche Telekom Ag Verfahren zur mehrkanaligen Tonübertragung
US7231035B2 (en) * 1997-04-08 2007-06-12 Walker Digital, Llc Method and apparatus for entertaining callers in a queue
US7003119B1 (en) * 1997-05-19 2006-02-21 Qsound Labs, Inc. Matrix surround decoder/virtualizer
CA2294262A1 (en) * 1997-06-18 1998-12-23 Clarity, L.L.C. Methods and apparatus for blind signal separation
CN1122253C (zh) * 1997-12-19 2003-09-24 大宇电子株式会社 环绕立体声信号处理装置和方法
JP3722335B2 (ja) * 1998-02-17 2005-11-30 ヤマハ株式会社 残響付加装置
AUPP272698A0 (en) 1998-03-31 1998-04-23 Lake Dsp Pty Limited Soundfield playback from a single speaker system
US6691073B1 (en) * 1998-06-18 2004-02-10 Clarity Technologies Inc. Adaptive state space signal separation, discrimination and recovery
US20040066940A1 (en) * 2002-10-03 2004-04-08 Silentium Ltd. Method and system for inhibiting noise produced by one or more sources of undesired sound from pickup by a speech recognition unit
US7242782B1 (en) * 1998-07-31 2007-07-10 Onkyo Kk Audio signal processing circuit
AU5009399A (en) * 1998-09-24 2000-05-04 Sony Corporation Impulse response collecting method, sound effect adding apparatus, and recording medium
JP2000099061A (ja) 1998-09-25 2000-04-07 Sony Corp 効果音付加装置
JP4350905B2 (ja) * 1998-10-19 2009-10-28 オンキヨー株式会社 サラウンド処理システム
EP1035752A1 (en) * 1999-03-05 2000-09-13 Phonak Ag Method for shaping the spatial reception amplification characteristic of a converter arrangement and converter arrangement
US7113609B1 (en) * 1999-06-04 2006-09-26 Zoran Corporation Virtual multichannel speaker system
US7194752B1 (en) * 1999-10-19 2007-03-20 Iceberg Industries, Llc Method and apparatus for automatically recognizing input audio and/or video streams
US6243322B1 (en) * 1999-11-05 2001-06-05 Wavemakers Research, Inc. Method for estimating the distance of an acoustic signal
US6549630B1 (en) 2000-02-04 2003-04-15 Plantronics, Inc. Signal expander with discrimination between close and distant acoustic source
US7266501B2 (en) * 2000-03-02 2007-09-04 Akiba Electronics Institute Llc Method and apparatus for accommodating primary content audio and secondary content remaining audio capability in the digital audio production process
IL134979A (en) * 2000-03-09 2004-02-19 Be4 Ltd A system and method for optimizing three-dimensional hearing
WO2001076319A2 (en) 2000-03-31 2001-10-11 Clarity, L.L.C. Method and apparatus for voice signal extraction
US7065416B2 (en) * 2001-08-29 2006-06-20 Microsoft Corporation System and methods for providing automatic classification of media entities according to melodic movement properties
US7532943B2 (en) * 2001-08-21 2009-05-12 Microsoft Corporation System and methods for providing automatic classification of media entities according to sonic properties
US6657117B2 (en) * 2000-07-14 2003-12-02 Microsoft Corporation System and methods for providing automatic classification of media entities according to tempo properties
US20020039425A1 (en) * 2000-07-19 2002-04-04 Burnett Gregory C. Method and apparatus for removing noise from electronic signals
JP2004507952A (ja) * 2000-08-28 2004-03-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 音声生成システム
EP1194006A3 (en) * 2000-09-26 2007-04-25 Matsushita Electric Industrial Co., Ltd. Signal processing device and recording medium
US7039197B1 (en) * 2000-10-19 2006-05-02 Lear Corporation User interface for communication system
US6674865B1 (en) * 2000-10-19 2004-01-06 Lear Corporation Automatic volume control for communication system
US7171003B1 (en) * 2000-10-19 2007-01-30 Lear Corporation Robust and reliable acoustic echo and noise cancellation system for cabin communication
US6738479B1 (en) * 2000-11-13 2004-05-18 Creative Technology Ltd. Method of audio signal processing for a loudspeaker located close to an ear
DE60126149T8 (de) 2000-11-27 2008-01-31 Nippon Telegraph And Telephone Corp. Verfahren, einrichtung und programm zum codieren und decodieren eines akustischen parameters und verfahren, einrichtung und programm zum codieren und decodieren von klängen
US6754623B2 (en) * 2001-01-31 2004-06-22 International Business Machines Corporation Methods and apparatus for ambient noise removal in speech recognition
US7095455B2 (en) * 2001-03-21 2006-08-22 Harman International Industries, Inc. Method for automatically adjusting the sound and visual parameters of a home theatre system
DE10118653C2 (de) * 2001-04-14 2003-03-27 Daimler Chrysler Ag Verfahren zur Geräuschreduktion
EP1232670B1 (en) * 2001-04-18 2010-10-27 Phonak Ag A method for analyzing an acoustical environment and a system to do so
US20020159607A1 (en) * 2001-04-26 2002-10-31 Ford Jeremy M. Method for using source content information to automatically optimize audio signal
US20030007648A1 (en) * 2001-04-27 2003-01-09 Christopher Currell Virtual audio system and techniques
US7177432B2 (en) * 2001-05-07 2007-02-13 Harman International Industries, Incorporated Sound processing system with degraded signal optimization
US6804565B2 (en) * 2001-05-07 2004-10-12 Harman International Industries, Incorporated Data-driven software architecture for digital sound processing and equalization
US7684577B2 (en) * 2001-05-28 2010-03-23 Mitsubishi Denki Kabushiki Kaisha Vehicle-mounted stereophonic sound field reproducer
JP2003005770A (ja) 2001-06-25 2003-01-08 Tama Tlo Kk 残響生成付加方法とその装置
US20030128848A1 (en) * 2001-07-12 2003-07-10 Burnett Gregory C. Method and apparatus for removing noise from electronic signals
US7142677B2 (en) * 2001-07-17 2006-11-28 Clarity Technologies, Inc. Directional sound acquisition
US6584203B2 (en) * 2001-07-18 2003-06-24 Agere Systems Inc. Second-order adaptive differential microphone array
US7181026B2 (en) 2001-08-13 2007-02-20 Ming Zhang Post-processing scheme for adaptive directional microphone system with noise/interference suppression
JP2003061200A (ja) * 2001-08-17 2003-02-28 Sony Corp 音声処理装置及び音声処理方法、並びに制御プログラム
WO2003028006A2 (en) * 2001-09-24 2003-04-03 Clarity, Llc Selective sound enhancement
KR20040063993A (ko) * 2001-12-14 2004-07-15 코닌클리케 필립스 일렉트로닉스 엔.브이. 스펙트럼 에코 테일 추정기를 구비한 에코 소거기
TWI230024B (en) * 2001-12-18 2005-03-21 Dolby Lab Licensing Corp Method and audio apparatus for improving spatial perception of multiple sound channels when reproduced by two loudspeakers
US20030135377A1 (en) * 2002-01-11 2003-07-17 Shai Kurianski Method for detecting frequency in an audio signal
JP3521900B2 (ja) * 2002-02-04 2004-04-26 ヤマハ株式会社 バーチャルスピーカアンプ
US8098844B2 (en) * 2002-02-05 2012-01-17 Mh Acoustics, Llc Dual-microphone spatial noise suppression
US20030169887A1 (en) 2002-03-11 2003-09-11 Yamaha Corporation Reverberation generating apparatus with bi-stage convolution of impulse response waveform
JP4019753B2 (ja) 2002-03-12 2007-12-12 ヤマハ株式会社 残響付与装置、残響付与方法、プログラムおよび記録媒体
JP3979133B2 (ja) 2002-03-13 2007-09-19 ヤマハ株式会社 音場再生装置、プログラム及び記録媒体
JP4016681B2 (ja) * 2002-03-18 2007-12-05 ヤマハ株式会社 効果付与装置
US20030223603A1 (en) 2002-05-28 2003-12-04 Beckman Kenneth Oren Sound space replication
US7567845B1 (en) * 2002-06-04 2009-07-28 Creative Technology Ltd Ambience generation for stereo signals
DE60325595D1 (de) 2002-07-01 2009-02-12 Koninkl Philips Electronics Nv Von der stationären spektralleistung abhängiges audioverbesserungssystem
JP4077279B2 (ja) * 2002-08-30 2008-04-16 アルパイン株式会社 残響レベル制御装置
US7113610B1 (en) * 2002-09-10 2006-09-26 Microsoft Corporation Virtual sound source positioning
FR2847376B1 (fr) * 2002-11-19 2005-02-04 France Telecom Procede de traitement de donnees sonores et dispositif d'acquisition sonore mettant en oeuvre ce procede
DE10254470B4 (de) * 2002-11-21 2006-01-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Bestimmen einer Impulsantwort und Vorrichtung und Verfahren zum Vorführen eines Audiostücks
FI118247B (fi) * 2003-02-26 2007-08-31 Fraunhofer Ges Forschung Menetelmä luonnollisen tai modifioidun tilavaikutelman aikaansaamiseksi monikanavakuuntelussa
JP4098647B2 (ja) * 2003-03-06 2008-06-11 日本電信電話株式会社 音響信号の残響除去方法、装置、及び音響信号の残響除去プログラム、そのプログラムを記録した記録媒体
EP1465159B1 (en) * 2003-03-31 2006-03-22 Alcatel Virtual microphone array
JP4134794B2 (ja) 2003-04-07 2008-08-20 ヤマハ株式会社 音場制御装置
US20040213415A1 (en) * 2003-04-28 2004-10-28 Ratnam Rama Determining reverberation time
US7336793B2 (en) 2003-05-08 2008-02-26 Harman International Industries, Incorporated Loudspeaker system for virtual sound synthesis
DE10321986B4 (de) * 2003-05-15 2005-07-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Pegel-Korrigieren in einem Wellenfeldsynthesesystem
JP4349972B2 (ja) 2003-05-26 2009-10-21 パナソニック株式会社 音場測定装置
EP1482763A3 (en) 2003-05-26 2008-08-13 Matsushita Electric Industrial Co., Ltd. Sound field measurement device
US7826622B2 (en) 2003-05-27 2010-11-02 Harman International Industries, Incorporated Constant-beamwidth loudspeaker array
DE10327889B3 (de) * 2003-06-20 2004-09-16 Siemens Audiologische Technik Gmbh Verfahren zum Betrieb eines Hörhilfegerätes sowie Hörhilfegerät mit einem Mikrofonsystem, bei dem unterschiedliche Richtcharakteristiken einstellbar sind und Programmiergerät dafür
DE10328335B4 (de) * 2003-06-24 2005-07-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Wellenfeldsyntesevorrichtung und Verfahren zum Treiben eines Arrays von Lautsprechern
SE0302161D0 (sv) * 2003-08-04 2003-08-01 Akzo Nobel Nv Process for the manufacture of a bitumen-aggregate mix suitable for road pavement
JP4127156B2 (ja) * 2003-08-08 2008-07-30 ヤマハ株式会社 オーディオ再生装置、ラインアレイスピーカユニットおよびオーディオ再生方法
JP2005080124A (ja) * 2003-09-02 2005-03-24 Japan Science & Technology Agency リアルタイム音響再現システム
US8054980B2 (en) * 2003-09-05 2011-11-08 Stmicroelectronics Asia Pacific Pte, Ltd. Apparatus and method for rendering audio information to virtualize speakers in an audio system
JP4114584B2 (ja) * 2003-09-25 2008-07-09 ヤマハ株式会社 指向性スピーカ制御システム
JP4114583B2 (ja) * 2003-09-25 2008-07-09 ヤマハ株式会社 特性補正システム
US20050069143A1 (en) * 2003-09-30 2005-03-31 Budnikov Dmitry N. Filtering for spatial audio rendering
US6937737B2 (en) * 2003-10-27 2005-08-30 Britannia Investment Corporation Multi-channel audio surround sound from front located loudspeakers
JP4254502B2 (ja) * 2003-11-21 2009-04-15 ヤマハ株式会社 アレースピーカ装置
DE10355146A1 (de) 2003-11-26 2005-07-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen eines Tieftonkanals
WO2005084077A1 (ja) * 2004-02-26 2005-09-09 Matsushita Electric Industrial Co., Ltd. 音響処理装置
US7415117B2 (en) 2004-03-02 2008-08-19 Microsoft Corporation System and method for beamforming using a microphone array
JP2005252467A (ja) * 2004-03-02 2005-09-15 Sony Corp 音響再生方法、音響再生装置および記録メディア
EP1581026B1 (en) * 2004-03-17 2015-11-11 Nuance Communications, Inc. Method for detecting and reducing noise from a microphone array
US7561706B2 (en) 2004-05-04 2009-07-14 Bose Corporation Reproducing center channel information in a vehicle multichannel audio system
KR100644617B1 (ko) 2004-06-16 2006-11-10 삼성전자주식회사 7.1 채널 오디오 재생 방법 및 장치
US20050286727A1 (en) 2004-06-25 2005-12-29 Victor Company Of Japan, Ltd. Apparatus for expanding sound image upward
WO2006011104A1 (en) * 2004-07-22 2006-02-02 Koninklijke Philips Electronics N.V. Audio signal dereverberation
TWI242372B (en) * 2004-08-20 2005-10-21 Coretronic Corp Voice broadcast apparatus
GB0419346D0 (en) 2004-09-01 2004-09-29 Smyth Stephen M F Method and apparatus for improved headphone virtualisation
KR101118214B1 (ko) * 2004-09-21 2012-03-16 삼성전자주식회사 청취 위치를 고려한 2채널 가상 음향 재생 방법 및 장치
EP1640971B1 (en) * 2004-09-23 2008-08-20 Harman Becker Automotive Systems GmbH Multi-channel adaptive speech signal processing with noise reduction
JP4249729B2 (ja) * 2004-10-01 2009-04-08 日本電信電話株式会社 自動利得制御方法、自動利得制御装置、自動利得制御プログラム及びこれを記録した記録媒体
US7508948B2 (en) * 2004-10-05 2009-03-24 Audience, Inc. Reverberation removal
DE602005020662D1 (de) * 2004-10-13 2010-05-27 Koninkl Philips Electronics Nv Echolöschung
CN101040322A (zh) * 2004-10-15 2007-09-19 皇家飞利浦电子股份有限公司 处理音频数据以便生成交混回响的系统和方法
US8284947B2 (en) * 2004-12-01 2012-10-09 Qnx Software Systems Limited Reverberation estimation and suppression system
TW200621862A (en) 2004-12-24 2006-07-01 Furukawa Electric Co Ltd Thermoplastic resin foam
US7844059B2 (en) * 2005-03-16 2010-11-30 Microsoft Corporation Dereverberation of multi-channel audio streams
JP2006279548A (ja) * 2005-03-29 2006-10-12 Fujitsu Ten Ltd 車載用スピーカシステム及びオーディオ装置
JP4949638B2 (ja) * 2005-04-14 2012-06-13 ヤマハ株式会社 オーディオ信号供給装置
JP4297077B2 (ja) 2005-04-22 2009-07-15 ソニー株式会社 仮想音像定位処理装置、仮想音像定位処理方法およびプログラム並びに音響信号再生方式
GB2426169B (en) 2005-05-09 2007-09-26 Sony Comp Entertainment Europe Audio processing
US20060256978A1 (en) 2005-05-11 2006-11-16 Balan Radu V Sparse signal mixing model and application to noisy blind source separation
US20070047743A1 (en) * 2005-08-26 2007-03-01 Step Communications Corporation, A Nevada Corporation Method and apparatus for improving noise discrimination using enhanced phase difference value
US7774078B2 (en) * 2005-09-16 2010-08-10 Sony Corporation Method and apparatus for audio data analysis in an audio player
US7929709B2 (en) * 2005-12-28 2011-04-19 Yamaha Corporation Sound image localization apparatus
CN101410891A (zh) 2006-02-03 2009-04-15 韩国电子通信研究院 使用空间线索控制多目标或多声道音频信号的渲染的方法和装置
KR100852223B1 (ko) 2006-02-03 2008-08-13 한국전자통신연구원 멀티채널 오디오 신호 시각화 장치 및 방법
EP2005787B1 (en) * 2006-04-03 2012-01-25 Srs Labs, Inc. Audio signal processing
US8180067B2 (en) 2006-04-28 2012-05-15 Harman International Industries, Incorporated System for selectively extracting components of an audio input signal
US8379868B2 (en) * 2006-05-17 2013-02-19 Creative Technology Ltd Spatial audio coding based on universal spatial cues
US9014377B2 (en) * 2006-05-17 2015-04-21 Creative Technology Ltd Multichannel surround format conversion and generalized upmix
US8036767B2 (en) 2006-09-20 2011-10-11 Harman International Industries, Incorporated System for extracting and changing the reverberant content of an audio input signal
ES2359752T3 (es) 2006-09-25 2011-05-26 Dolby Laboratories Licensing Corporation Resolución espacial mejorada del campo sonoro para sistemas de reproducción de audio multicanal mediante derivación de señales con términos angulares de orden superior.
US8275475B2 (en) 2007-08-30 2012-09-25 Texas Instruments Incorporated Method and system for estimating frequency and amplitude change of spectral peaks
US8306240B2 (en) 2008-10-20 2012-11-06 Bose Corporation Active noise reduction adaptive filter adaptation rate adjusting
JP5400225B2 (ja) 2009-10-05 2014-01-29 ハーマン インターナショナル インダストリーズ インコーポレイテッド オーディオ信号の空間的抽出のためのシステム
US8540522B2 (en) * 2010-10-05 2013-09-24 Lumetric Lighting, Inc. Utility control system and method

Also Published As

Publication number Publication date
US8751029B2 (en) 2014-06-10
US8036767B2 (en) 2011-10-11
US8670850B2 (en) 2014-03-11
US9264834B2 (en) 2016-02-16
US20120275613A1 (en) 2012-11-01
JP2012145962A (ja) 2012-08-02
CN103402169A (zh) 2013-11-20
CN101454825B (zh) 2013-08-21
US20080232603A1 (en) 2008-09-25
JP4964943B2 (ja) 2012-07-04
EP2064699B1 (en) 2019-10-30
CN101454825A (zh) 2009-06-10
EP2064699A1 (en) 2009-06-03
EP2064699A4 (en) 2012-07-18
US20080069366A1 (en) 2008-03-20
WO2008034221A1 (en) 2008-03-27
US20120063608A1 (en) 2012-03-15
CN103402169B (zh) 2016-02-10
JP2009531722A (ja) 2009-09-03
JP2014052654A (ja) 2014-03-20
JP5635669B2 (ja) 2014-12-03

Similar Documents

Publication Publication Date Title
JP5635669B2 (ja) オーディオ入力信号の反響コンテンツを抽出および変更するためのシステム
JP6637014B2 (ja) 音声信号処理のためのマルチチャネル直接・環境分解のための装置及び方法
JP4921470B2 (ja) 頭部伝達関数を表すパラメータを生成及び処理する方法及び装置
US7583805B2 (en) Late reverberation-based synthesis of auditory scenes
JP5149968B2 (ja) スピーチ信号処理を含むマルチチャンネル信号を生成するための装置および方法
KR101572894B1 (ko) 오디오 신호의 디코딩 방법 및 장치
US7567845B1 (en) Ambience generation for stereo signals
Avendano et al. Ambience extraction and synthesis from stereo signals for multi-channel audio up-mix
JP6377249B2 (ja) オーディオ信号の強化のための装置と方法及び音響強化システム
US9743215B2 (en) Apparatus and method for center signal scaling and stereophonic enhancement based on a signal-to-downmix ratio
KR20160015317A (ko) 오디오 장면 장치
EP2649814A1 (en) Apparatus and method for decomposing an input signal using a downmixer
JP5611970B2 (ja) オーディオ信号を変換するためのコンバータ及び方法
JP2020502562A (ja) 相関分離フィルタの適応制御のための方法および装置
CN113287166A (zh) 音频捕获布置
GB2605970A (en) Content based spatial remixing
Soulodre About this dereverberation business: A method for extracting reverberation from audio signals

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131101

R150 Certificate of patent or registration of utility model

Ref document number: 5406956

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250