JP2021522550A - ギャップ信頼度を用いた背景雑音推定 - Google Patents
ギャップ信頼度を用いた背景雑音推定 Download PDFInfo
- Publication number
- JP2021522550A JP2021522550A JP2020560194A JP2020560194A JP2021522550A JP 2021522550 A JP2021522550 A JP 2021522550A JP 2020560194 A JP2020560194 A JP 2020560194A JP 2020560194 A JP2020560194 A JP 2020560194A JP 2021522550 A JP2021522550 A JP 2021522550A
- Authority
- JP
- Japan
- Prior art keywords
- noise
- estimates
- time
- value
- estimate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 85
- 230000004044 response Effects 0.000 claims abstract description 40
- PCHPORCSPXIHLZ-UHFFFAOYSA-N diphenhydramine hydrochloride Chemical compound [Cl-].C=1C=CC=CC=1C(OCC[NH+](C)C)C1=CC=CC=C1 PCHPORCSPXIHLZ-UHFFFAOYSA-N 0.000 claims description 21
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 238000004458 analytical method Methods 0.000 description 28
- 230000000875 corresponding effect Effects 0.000 description 28
- 230000005236 sound signal Effects 0.000 description 25
- 230000003044 adaptive effect Effects 0.000 description 10
- 230000036541 health Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000012805 post-processing Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000007613 environmental effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000013507 mapping Methods 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000009499 grossing Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 241000219498 Alnus glutinosa Species 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 230000003321 amplification Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000001066 destructive effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000001747 exhibiting effect Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 238000004378 air conditioning Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000001447 compensatory effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 238000002592 echocardiography Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L21/0232—Processing in the frequency domain
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/08—Mouthpieces; Microphones; Attachments therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R27/00—Public address systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/02—Circuits for transducers, loudspeakers or microphones for preventing acoustic reaction, i.e. acoustic oscillatory feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L2021/02082—Noise filtering the noise being echo, reverberation of the speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L2021/02161—Number of inputs available containing the signal or the noise to be suppressed
- G10L2021/02163—Only one microphone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2227/00—Details of public address [PA] systems covered by H04R27/00 but not provided for in any of its subgroups
- H04R2227/001—Adaptation of signal processing in PA systems in dependence of presence of noise
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2410/00—Microphones
- H04R2410/05—Noise reduction with a separate noise microphone
Landscapes
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Quality & Reliability (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Otolaryngology (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
Description
本願は、2018年4月27日に出願された米国仮出願第62/663,302号および2018年6月14日に出願された欧州特許出願第18177822.6号の優先権を主張するものであり、各出願は、その全体が参照により援用される。
本発明は、オーディオ信号再生環境における背景雑音〔バックグラウンド・ノイズ〕を推定し、雑音推定値を使用して再生のためにオーディオ信号を処理する(たとえばオーディオ信号に対して雑音補償を実行する)ためのシステムおよび方法に関する。いくつかの実施形態では、雑音推定は、それぞれが再生信号において(対応する時間のところに)ギャップがある信頼度を示すギャップ信頼値の決定と、背景雑音推定値のシーケンスを決定するためのギャップ信頼値の使用とを含む。
・解決策の学術的シミュレーションが40dB以上のエコー低減を示すにもかかわらず、現実の実装は、非線形性、背景雑音の存在、およびエコー経路Wの非定常性のために約20dBに制限される。これは、残差エコーによって背景雑音の測定値がバイアスされることを意味する;
・環境雑音および特定の再生コンテンツが、そのようなシステムにおいて「漏れ」を引き起こす場合がある(たとえば、再生コンテンツが、バズ、ガタガタ、歪みのために、再生システムの非線形領域を励起する場合)。これらの事例では、マイクロフォン出力信号は、背景雑音として誤って解釈されるかなりの量の残差エコーを含む。そのような場合、フィルタW'の適応もまた、残差誤差信号が大きくなるにつれて不安定になりうる。また、高レベルの雑音によってマイクロフォン信号が損なわれると、フィルタW'の適応が不安定になる可能性がある。
・広い周波数範囲(たとえば、典型的な音楽の再生をカバーするもの)で動作するNCMPを実行するのに有用な雑音推定値(Y')を生成するのに必要な計算量が高い。
再生環境における音の放射中に、マイクロフォンを使用してマイクロフォン出力信号を生成する。ここで、前記音は再生信号のオーディオ・コンテンツを示し、前記マイクロフォン出力信号は再生環境における背景雑音およびオーディオ・コンテンツを示す;
マイクロフォン出力信号(たとえば、マイクロフォン出力信号の平滑化されたレベルに応答して)および再生信号に応答して、ギャップ信頼値(すなわち、ギャップ信頼値を示す信号またはデータ)を生成する。ここで、各ギャップ信頼値は、異なる時間t(たとえば、時刻tを含む異なる時間区間)についてのものであり、再生信号において、時刻tにギャップがある信頼度を示す;
ギャップ信頼値を使用して再生環境における背景雑音の推定値を生成する。
特許請求の範囲を含めこの開示を通じて、再生信号における「ギャップ」は、再生コンテンツがない(または所定の閾値未満のレベルを有する)再生信号の時刻(または時間区間)を表わす。
本発明の多くの実施形態が技術的に可能である。当業者には、それらをどのように実施するかが、本開示から明白であろう。本発明のシステムおよび方法のいくつかの実施形態は、図3および図4を参照して本明細書に記載される。
気を散らす雑音(distracting noise)(たとえば、ドアのバタンと閉まる音、自動車のクラクション、道路のバンプ上の走行といった、インパルス的で低頻度の事象(たとえば、0.5秒未満の持続時間を有する事象));
破壊的(disrupting)(たとえば、上空の飛行機の通過、短いトンネルを通過する運転、新しい路面の区間を通過する運転など、再生コンテンツに干渉する短い事象)
広汎性(pervasive)(始まりと終わりがあることがあるが、一般には定常的なままである持続的な/一定の雑音、たとえば、空調、ファン、都会の周囲の雑音、雨、台所の器具)。
安定性(雑音推定値は、マイクロフォンで測定された再生コンテンツによって破損されるべきではない。雑音推定値、よって補償利得は、再生コンテンツにおける変化に起因して著しく変動するべきではない。雑音推定値は、雑音の「破壊的」源よりも速いものを追跡するべきではない。雑音推定値は、「気を散らす」インパルス的事象を無視すべきである);
高速反応時間(良好な雑音推定値は、雑音の「広汎性」源のみを追跡する。しかしながら、偉大な雑音推定値は、雑音の「破壊的」源を高い信頼性をもって追跡することができる。雑音条件の変化に迅速に反応することは、ユーザー体験にとってきわめて重要である);および
快適な補償量(雑音補償は、雑音の存在下で、了解性および音色の保存を保証するべきである。補償が低すぎるか高すぎると、ユーザー体験は満足いかないものになる。補償は、マルチバンドの意味で、バルクのボリューム調整よりも忠実に実行される)。
値Mresの最小値(エコーキャンセラ残差)は、再生環境における雑音の推定値を示すと、確信をもって考えられる;
M(マイクロフォン出力信号)値の最小値は、再生環境における雑音の推定値を示すと、確信をもって考えられる。
工場で事前設定された利得(メモリ40に記憶されている);
前のセッションの間に(サブシステム43によって)生成された(そしてメモリ41に記憶された)利得Gの状態;
AEC(たとえば、エコーキャンセラ34)が存在し使用されている場合、帯域化されたAECフィルタ係数エネルギー(たとえば、エコーキャンセラによって実装される、図2のフィルタW'に対応する適応フィルタを決定するもの)。これらの帯域化されたAECフィルタ係数エネルギー(たとえば、図4のシステムにおいて帯域化要素36からサブシステム43に提供されるエネルギー)は、利得Gのオンライン推定のはたらきをする。
部分的に更新された雑音推定値からの欠けている雑音推定値の補定;
現在の雑音推定値の形状を、音色を保存するよう制約すること;および
現在の騒音推定値の絶対値の制約。
G=max(min(G',F+L),F−L)
ここで、Fはその帯域についての工場出荷時の利得、G'はその帯域についての推定利得、Lは工場出荷時の設定値からの最大許容偏差である。すべての利益はdBで表わされる。値G'が長期間にわたって指示される範囲を超える場合、このことはハードウェアの故障を示す可能性があり、雑音補償システムは安全な挙動に後退することを決定してもよい。
最初の帯域から始めて、その帯域についてのギャップ健全性があらかじめ決定された閾値αHealthyを超えているかどうかを検査することによって、十分に最新である帯域(健全な帯域)を位置特定する;
ひとたび健全な帯域が見つかったら、その後の帯域を、異なる閾値によって判別される低いギャップ健全性について、また再び前記閾値αHealthyによって判別される最新の帯域について、検査する;
第2の健全な帯域が見つかり、それと第1の健全な帯域との間のすべての帯域が古い場合、それら2つの健全な帯域の間で線形補間演算が実行されて、少なくとも1つの補間された雑音推定値を生成する。(2つの健全な帯域間のすべての帯域についての)雑音推定値は、2つの健全な帯域間で対数領域で線形補間され、古くなっている帯域について新しい値を与える;次いで、
次の帯域から始めて上記の諸プロセスを続ける(すなわち、第1ステップから諸プロセスを繰り返す)。
エコーキャンセラは、キャンセルの性能および安定性を確保するようチューニングするために、多くの時間および研究を必要とするため、多くの開発時間を節約する;
(エコーキャンセレーションを実装するための)大きな適応フィルタバンクは、典型的には、大きなリソースを消費し、しばしば、実行するために高精度の演算を必要とするため、計算時間を節約する;
マイクロフォン信号と再生オーディオ信号との間の共有されるクロックドメインおよび時間整列の必要をなくす。エコーキャンセルは、再生信号と録音信号の両方が同じオーディオクロックで同期させることに頼る。
〔E1〕
再生環境における音の放射中に、マイクロフォンを使用してマイクロフォン出力信号を生成する段階であって、前記音は再生信号のオーディオ・コンテンツを示し、前記マイクロフォン出力信号は再生環境における背景雑音およびオーディオ・コンテンツを示す、段階と;
前記マイクロフォン出力信号および前記再生信号に応答して、ギャップ信頼値を生成する(たとえば、図3のシステムの要素16において)段階であって、各ギャップ信頼値は、異なる時刻tについてのものであり、前記再生信号において、時刻tにギャップが存在する信頼度を示す、段階と;
前記ギャップ信頼値を使用して再生環境における背景雑音の推定値を生成する(たとえば図3のシステムの要素20において)段階とを含む、
方法。
〔E2〕
再生環境における背景雑音の前記推定値は、雑音推定値のシーケンスであるか、またはそれを含み、前記雑音推定値のそれぞれは、異なる時刻tでの再生環境における背景雑音の推定値であり、雑音推定値の該それぞれ(たとえば、図4の要素37の実装である図3のシステムの要素20から出力された各雑音推定値)は、時刻tを含む異なる時間区間についての、前記ギャップ信頼値によって重み付けされた候補雑音推定値の組み合わせである、E1に記載の方法。
〔E3〕
雑音推定値の前記シーケンスはそれぞれの前記時間区間についての雑音推定値を含み、それぞれの前記時間区間について雑音推定値を生成することは:
(a)(たとえば、図3のシステムの要素20において)前記ギャップ信頼値のうちの対応するものが所定の閾値を超える当該時間区間についての候補雑音推定値のそれぞれを識別する段階と;
(b)その時間区間についての前記雑音推定値を、段階(a)において識別された候補雑音推定値のうちの最小のものとなるように生成する段階とを含む、
E2に記載の方法。
〔E4〕
前記候補雑音推定値のそれぞれは、エコーキャンセルされた雑音推定値のシーケンスの最小のエコーキャンセルされた雑音推定値(たとえば、図3のシステムの要素14から出力された値Mresminの一つ)であり、雑音推定値の前記シーケンスはそれぞれの前記時間区間についての雑音推定値を含み、それぞれの前記時間区間についての雑音推定値は、その時間区間についての最小のエコーキャンセルされた雑音推定値に、その時間区間についてのギャップ信頼値の対応するものによって重み付けしたものの組み合わせである、E2に記載の方法。
〔E5〕
前記候補雑音推定値のそれぞれは、マイクロフォン出力信号値のシーケンスの最小のマイクロフォン出力信号値(たとえば、システムの要素12が値M'resではなくマイクロフォン出力値M'を受領する実装において、図3のシステムの要素14から出力される値Mmin)であり、雑音推定値の前記シーケンスはそれぞれの前記時間区間についての雑音推定値を含み、それぞれの前記時間区間についての雑音推定値は、その時間区間についての最小マイクロフォン出力信号値に、その時間区間についてのギャップ信頼値の対応するものによって重み付けしたものの組み合わせである、E2に記載の方法。
〔E6〕
前記ギャップ信頼値を生成する段階が:各時刻tについてギャップ信頼値を生成することを含み、各時刻tについてギャップ信頼値を生成することは:
(たとえば、図3のシステムの要素13において)前記再生信号を処理して、時刻tについての再生信号レベルにおける最小値を決定し;
(たとえば、図3のシステムの要素11および17において)前記マイクロフォン出力信号を処理して、時刻tについての前記マイクロフォン出力信号の平滑化されたレベルを決定し;
(たとえば、図3のシステムの要素18において)時刻tについての再生信号レベルにおける前記最小値が、時刻tについての前記マイクロフォン出力信号の前記平滑化されたレベルからどのくらい異なるかを示すよう、時刻tについての前記ギャップ信頼値を決定することによって行なうことを含む、
E1に記載の方法。
〔E7〕
再生環境における背景雑音の前記推定値は、雑音推定値のシーケンスであるか、またはそれを含み:
(たとえば、図4のシステムの要素24において)雑音推定値の前記シーケンスを使用して、オーディオ入力信号に対して雑音補償を実行する段階をも含む、
E1に記載の方法。
〔E8〕
前記オーディオ入力信号に対して雑音補償を実行する段階が前記再生信号の生成を含み、当該方法は:
前記再生信号を用いて少なくとも一つのスピーカーを駆動して、前記音を生成する段階を含む、
E7に記載の方法。
〔E9〕
前記マイクロフォン出力信号に対して時間領域から周波数領域への変換を実行し、それにより周波数領域マイクロフォン出力データを生成する段階と;
前記再生信号に応答して周波数領域再生コンテンツ・データを生成する段階とを含み、前記ギャップ信頼値は、前記周波数領域マイクロフォン出力データおよび前記周波数領域再生コンテンツ・データに応答して生成される、
E1に記載の方法。
本発明のシステムの例示的実施形態は下記を含む:
〔E10〕
再生環境における音の放射中にマイクロフォン出力信号を生成するよう構成されたマイクロフォンであって、前記音は再生信号のオーディオ・コンテンツを示し、前記マイクロフォン出力信号は再生環境における背景雑音およびオーディオ・コンテンツを示す、マイクロフォン(たとえば、図4のシステムのマイクロフォン30)と;
前記マイクロフォン出力信号および前記再生信号を受領するよう結合され:
前記マイクロフォン出力信号および前記再生信号に応答して、ギャップ信頼値を生成する段階であって、各ギャップ信頼値は、異なる時刻tについてのものであり、前記再生信号において、時刻tにギャップが存在する信頼度を示す、段階と;
前記ギャップ信頼値を使用して再生環境における背景雑音の推定値を生成する段階とを実行するように構成された雑音推定システム(たとえば、図4のシステムの要素26,27,32,33,34,35,36,37,39,43において)とを含む、
システム。
〔E11〕
前記雑音推定システムは、再生環境における背景雑音の前記推定値を生成することを、再生環境における背景雑音の前記推定値は、雑音推定値のシーケンスであるか、またはそれを含み、前記雑音推定値のそれぞれは、異なる時刻tでの再生環境における背景雑音の推定値であり、雑音推定値の該それぞれ(たとえば、図4の要素37の図3の実装の要素20から出力された各雑音推定値)は、時刻tを含む異なる時間区間についての、前記ギャップ信頼値によって重み付けされた候補雑音推定値の組み合わせである、ように行なうよう構成されている、E10に記載のシステム。
〔E12〕
雑音推定値の前記シーケンスはそれぞれの前記時間区間についての雑音推定値を含み、前記雑音推定システムは、それぞれの前記時間区間について雑音推定値を生成することを:
(a)(たとえば、図3の要素20において)前記ギャップ信頼値のうちの対応するものが所定の閾値を超える当該時間区間についての候補雑音推定値のそれぞれを識別する段階と;
(b)その時間区間についての前記雑音推定値を、段階(a)において識別された候補雑音推定値のうちの最小のものとなるように生成する段階とによって行なうことを含む、
E11に記載のシステム。
〔E13〕
前記候補雑音推定値のそれぞれは、エコーキャンセルされた雑音推定値のシーケンスの最小のエコーキャンセルされた雑音推定値(たとえば、図3のシステムの要素14から出力される値Mresminの一つ)であり、雑音推定値の前記シーケンスはそれぞれの前記時間区間についての雑音推定値を含み、それぞれの前記時間区間についての雑音推定値は、その時間区間についての最小のエコーキャンセルされた雑音推定値に、その時間区間についてのギャップ信頼値の対応するものによって重み付けしたものの組み合わせである、E12に記載のシステム。
〔E14〕
前記候補雑音推定値のそれぞれは、マイクロフォン出力信号値のシーケンスの最小のマイクロフォン出力信号値(たとえば、システムの要素12がM'resではなくマイクロフォン出力値M'を受領する実装において図3のシステムの要素14から出力される値Mmin)であり、雑音推定値の前記シーケンスはそれぞれの前記時間区間についての雑音推定値を含み、それぞれの前記時間区間についての雑音推定値は、その時間区間についての最小マイクロフォン出力信号値に、その時間区間についてのギャップ信頼値の対応するものによって重み付けしたものの組み合わせである、E12に記載のシステム。
〔E15〕
前記ギャップ信頼値が各時刻tについてギャップ信頼値を含み、前記雑音推定システムは、各時刻tについてギャップ信頼値を生成することを:
(たとえば、図4のシステムの要素37の図3の実装の要素13において)前記再生信号を処理して、時刻tについての再生信号レベルにおける最小値を決定し;
(たとえば、図4のシステムの要素37の図3の実装の要素11および17において)前記マイクロフォン出力信号を処理して、時刻tについての前記マイクロフォン出力信号の平滑化されたレベルを決定し;
(たとえば、図4のシステムの図3の実装の要素18において)時刻tについての再生信号レベルにおける前記最小値が、時刻tについての前記マイクロフォン出力信号の前記平滑化されたレベルからどのくらい異なるかを示すよう、時刻tについての前記ギャップ信頼値を決定することによって行なうことを含む、
E10に記載のシステム。
〔E16〕
再生環境における背景雑音の前記推定値は、雑音推定値のシーケンスであるか、またはそれを含み、当該システムは:
雑音推定値の前記シーケンスを受領するように結合され、雑音推定値の前記シーケンスを使用して、オーディオ入力信号に対して雑音補償を実行して、前記再生信号を生成するように構成された雑音補償サブシステム(たとえば、図4のシステムの要素24)をも含む、
E10に記載のシステム。
〔E17〕
前記雑音推定システムが:
(たとえば、図4のシステムの要素32および33において)前記マイクロフォン出力信号に対して時間領域から周波数領域への変換を実行し、それにより周波数領域マイクロフォン出力データを生成し;
(たとえば、図4のシステムの要素26および27において)前記再生信号に応答して周波数領域再生コンテンツ・データを生成し;
前記ギャップ信頼値を、前記周波数領域マイクロフォン出力データおよび前記周波数領域再生コンテンツ・データに応答して生成するよう構成されている、
E10に記載のシステム。
〔EEE1〕
再生環境における音の放射中に、マイクロフォンを使用してマイクロフォン出力信号を生成する段階であって、前記音は再生信号のオーディオ・コンテンツを示し、前記マイクロフォン出力信号は再生環境における背景雑音およびオーディオ・コンテンツを示す、段階と;
前記マイクロフォン出力信号および前記再生信号に応答して、ギャップ信頼値を生成する段階であって、各ギャップ信頼値は、異なる時刻tについてのものであり、前記再生信号において、時刻tにギャップが存在する信頼度を示す、段階と;
前記ギャップ信頼値を使用して再生環境における背景雑音の推定値を生成する段階とを含む、
方法。
〔EEE2〕
再生環境における背景雑音の前記推定値は、雑音推定値のシーケンスであるか、またはそれを含み、前記雑音推定値のそれぞれは、異なる時刻tでの再生環境における背景雑音の推定値であり、雑音推定値の該それぞれは、時刻tを含む異なる時間区間についての、前記ギャップ信頼値によって重み付けされた候補雑音推定値の組み合わせである、EEE1に記載の方法。
〔EEE3〕
雑音推定値の前記シーケンスはそれぞれの前記時間区間についての雑音推定値を含み、それぞれの前記時間区間について雑音推定値を生成することは:
(a)前記ギャップ信頼値のうちの対応するものが所定の閾値を超える当該時間区間についての候補雑音推定値のそれぞれを識別する段階と;
(b)その時間区間についての前記雑音推定値を、段階(a)において識別された候補雑音推定値のうちの最小のものとなるように生成する段階とを含む、
EEE2に記載の方法。
〔EEE4〕
前記候補雑音推定値のそれぞれは、エコーキャンセルされた雑音推定値のシーケンスの最小のエコーキャンセルされた雑音推定値、Mresminであり、雑音推定値の前記シーケンスはそれぞれの前記時間区間についての雑音推定値を含み、それぞれの前記時間区間についての雑音推定値は、その時間区間についての最小のエコーキャンセルされた雑音推定値に、その時間区間についてのギャップ信頼値の対応するものによって重み付けしたものの組み合わせである、EEE2または3に記載の方法。
〔EEE5〕
前記候補雑音推定値のそれぞれは、マイクロフォン出力信号値のシーケンスの最小のマイクロフォン出力信号値Mminであり、雑音推定値の前記シーケンスはそれぞれの前記時間区間についての雑音推定値を含み、それぞれの前記時間区間についての雑音推定値は、その時間区間についての最小マイクロフォン出力信号値に、その時間区間についてのギャップ信頼値の対応するものによって重み付けしたものの組み合わせである、EEE2または3に記載の方法。
〔EEE6〕
前記ギャップ信頼値を生成する段階が:各時刻tについてギャップ信頼値を生成することを含み、各時刻tについてギャップ信頼値を生成することは:
前記再生信号を処理して、時刻tについての再生信号レベルにおける最小値を決定し;
前記マイクロフォン出力信号を処理して、時刻tについての前記マイクロフォン出力信号の平滑化されたレベルを決定し;
時刻tについての再生信号レベルにおける前記最小値が、時刻tについての前記マイクロフォン出力信号の前記平滑化されたレベルからどのくらい異なるかを示すよう、時刻tについての前記ギャップ信頼値を決定することによって行なうことを含む、
EEE1ないし5のうちいずれか一項に記載の方法。
〔EEE7〕
再生環境における背景雑音の前記推定値は、雑音推定値のシーケンスであるか、またはそれを含み:
雑音推定値の前記シーケンスを使用して、オーディオ入力信号に対して雑音補償を実行する段階をも含む、
EEE1ないし6のうちいずれか一項に記載の方法。
〔EEE8〕
前記オーディオ入力信号に対して雑音補償を実行する段階が前記再生信号の生成を含み、当該方法は:
前記再生信号を用いて少なくとも一つのスピーカーを駆動して、前記音を生成する段階を含む、
EEE7に記載の方法。
〔EEE9〕
前記マイクロフォン出力信号に対して時間領域から周波数領域への変換を実行し、それにより周波数領域マイクロフォン出力データを生成する段階と;
前記再生信号に応答して周波数領域再生コンテンツ・データを生成する段階とを含み、前記ギャップ信頼値は、前記周波数領域マイクロフォン出力データおよび前記周波数領域再生コンテンツ・データに応答して生成される、
EEE1ないし8のうちいずれか一項に記載の方法。
〔EEE10〕
再生環境における音の放射中にマイクロフォン出力信号を生成するよう構成されたマイクロフォンであって、前記音は再生信号のオーディオ・コンテンツを示し、前記マイクロフォン出力信号は再生環境における背景雑音およびオーディオ・コンテンツを示す、マイクロフォンと;
前記マイクロフォン出力信号および前記再生信号を受領するよう結合され:
前記マイクロフォン出力信号および前記再生信号に応答して、ギャップ信頼値を生成する段階であって、各ギャップ信頼値は、異なる時刻tについてのものであり、前記再生信号において、時刻tにギャップが存在する信頼度を示す、段階と;
前記ギャップ信頼値を使用して再生環境における背景雑音の推定値を生成する段階とを実行するように構成された雑音推定システムとを含む、
システム。
〔EEE11〕
前記雑音推定システムは、再生環境における背景雑音の前記推定値を生成することを、再生環境における背景雑音の前記推定値は、雑音推定値のシーケンスであるか、またはそれを含み、前記雑音推定値のそれぞれは、異なる時刻tでの再生環境における背景雑音の推定値であり、雑音推定値の該それぞれは、時刻tを含む異なる時間区間についての、前記ギャップ信頼値によって重み付けされた候補雑音推定値の組み合わせである、ように行なうよう構成されている、EEE10に記載のシステム。
〔EEE12〕
雑音推定値の前記シーケンスはそれぞれの前記時間区間についての雑音推定値を含み、前記雑音推定システムは、それぞれの前記時間区間について雑音推定値を生成することを:
(a)前記ギャップ信頼値のうちの対応するものが所定の閾値を超える当該時間区間についての候補雑音推定値のそれぞれを識別する段階と;
(b)その時間区間についての前記雑音推定値を、段階(a)において識別された候補雑音推定値のうちの最小のものとなるように生成する段階とによって行なうことを含む、
EEE11に記載のシステム。
〔EEE13〕
前記候補雑音推定値のそれぞれは、エコーキャンセルされた雑音推定値のシーケンスの最小のエコーキャンセルされた雑音推定値、Mresminであり、雑音推定値の前記シーケンスはそれぞれの前記時間区間についての雑音推定値を含み、それぞれの前記時間区間についての雑音推定値は、その時間区間についての最小のエコーキャンセルされた雑音推定値に、その時間区間についてのギャップ信頼値の対応するものによって重み付けしたものの組み合わせである、EEE11または12に記載のシステム。
〔EEE14〕
前記候補雑音推定値のそれぞれは、マイクロフォン出力信号値のシーケンスの最小のマイクロフォン出力信号値Mminであり、雑音推定値の前記シーケンスはそれぞれの前記時間区間についての雑音推定値を含み、それぞれの前記時間区間についての雑音推定値は、その時間区間についての最小マイクロフォン出力信号値に、その時間区間についてのギャップ信頼値の対応するものによって重み付けしたものの組み合わせである、EEE11または12のうちいずれか一項に記載のシステム。
〔EEE15〕
前記ギャップ信頼値が各時刻tについてギャップ信頼値を含み、前記雑音推定システムは、各時刻tについてギャップ信頼値を生成することを:
前記再生信号を処理して、時刻tについての再生信号レベルにおける最小値を決定し;
前記マイクロフォン出力信号を処理して、時刻tについての前記マイクロフォン出力信号の平滑化されたレベルを決定し;
時刻tについての再生信号レベルにおける前記最小値が、時刻tについての前記マイクロフォン出力信号の前記平滑化されたレベルからどのくらい異なるかを示すよう、時刻tについての前記ギャップ信頼値を決定することによって行なうことを含む、
EEE10ないし14のうちいずれか一項に記載のシステム。
〔EEE16〕
再生環境における背景雑音の前記推定値は、雑音推定値のシーケンスであるか、またはそれを含み、当該システムは:
雑音推定値の前記シーケンスを受領するように結合され、雑音推定値の前記シーケンスを使用して、オーディオ入力信号に対して雑音補償を実行して、前記再生信号を生成するように構成された雑音補償サブシステムをも含む、
EEE10ないし16のうちいずれか一項に記載のシステム。
〔EEE17〕
前記雑音推定システムが:
前記マイクロフォン出力信号に対して時間領域から周波数領域への変換を実行し、それにより周波数領域マイクロフォン出力データを生成し;
前記再生信号に応答して周波数領域再生コンテンツ・データを生成し;
前記ギャップ信頼値を、前記周波数領域マイクロフォン出力データおよび前記周波数領域再生コンテンツ・データに応答して生成するよう構成されている、
EEE10ないし16のうちいずれか一項に記載のシステム。
Claims (19)
- 再生環境における背景雑音の推定値を生成する方法であって:
再生環境における音の放射中に、マイクロフォンを使用してマイクロフォン出力信号を生成する段階であって、前記音は再生信号のオーディオ・コンテンツを示し、前記マイクロフォン出力信号はオーディオ・コンテンツおよび再生環境における背景雑音を示す、段階と;
前記マイクロフォン出力信号および前記再生信号に応答して、ギャップ信頼値を生成する段階であって、各ギャップ信頼値は、異なる時刻tについてのものであり、前記再生信号において、時刻tにギャップが存在する信頼度を示す、段階と;
前記ギャップ信頼値を使用して再生環境における背景雑音の推定値を生成する段階とを含む、
方法。 - 再生環境における背景雑音の前記推定値は、雑音推定値のシーケンスであるか、またはそれを含み、前記雑音推定値のそれぞれは、異なる時刻tでの再生環境における背景雑音の推定値であり、雑音推定値の該それぞれは、時刻tを含む異なる時間区間についての、前記ギャップ信頼値によって重み付けされた候補雑音推定値の組み合わせである、請求項1に記載の方法。
- 再生環境における背景雑音の前記推定値は、雑音推定値のシーケンスであるか、またはそれを含み、前記雑音推定値のそれぞれは、異なる時刻tでの再生環境における背景雑音の推定値であり、
前記ギャップ信頼値を使用して再生環境における背景雑音の推定値を生成することは、各雑音推定値について、時刻tを含む異なる時間区間についての候補雑音推定値を、前記ギャップ信頼値によって重み付けし、重み付けされた候補雑音推定値を組み合わせて前記それぞれの雑音推定値を得ることを含む、
請求項1に記載の方法。 - 雑音推定値の前記シーケンスはそれぞれの前記時間区間についての雑音推定値を含み、それぞれの前記時間区間について雑音推定値を生成することは:
(a)前記ギャップ信頼値のうちの対応するものが所定の閾値を超える当該時間区間についての候補雑音推定値のそれぞれを識別する段階と;
(b)その時間区間についての前記雑音推定値を、段階(a)において識別された候補雑音推定値のうちの最小のものとなるように生成する段階とを含む、
請求項2または3に記載の方法。 - 前記候補雑音推定値のそれぞれは、エコーキャンセルされた雑音推定値のシーケンスの最小のエコーキャンセルされた雑音推定値、Mresminであり、雑音推定値の前記シーケンスはそれぞれの前記時間区間についての雑音推定値を含み、それぞれの前記時間区間についての雑音推定値は、その時間区間についての最小のエコーキャンセルされた雑音推定値に、その時間区間についてのギャップ信頼値の対応するものによって重み付けしたものの組み合わせである、請求項2ないし4のうちいずれか一項に記載の方法。
- 前記候補雑音推定値のそれぞれは、マイクロフォン出力信号値のシーケンスの最小のマイクロフォン出力信号値Mminであり、雑音推定値の前記シーケンスはそれぞれの前記時間区間についての雑音推定値を含み、それぞれの前記時間区間についての雑音推定値は、その時間区間についての最小マイクロフォン出力信号値に、その時間区間についてのギャップ信頼値の対応するものによって重み付けしたものの組み合わせである、請求項2ないし4のうちいずれか一項に記載の方法。
- 前記ギャップ信頼値を生成する段階が:各時刻tについてギャップ信頼値を生成することを含み、各時刻tについてギャップ信頼値を生成することは:
前記再生信号を処理して、時刻tについての再生信号レベルにおける最小値を決定し;
前記マイクロフォン出力信号を処理して、時刻tについての前記マイクロフォン出力信号の平滑化されたレベルを決定し;
時刻tについての再生信号レベルにおける前記最小値が、時刻tについての前記マイクロフォン出力信号の前記平滑化されたレベルからどのくらい異なるかを示すよう、時刻tについての前記ギャップ信頼値を決定することによって行なうことを含む、
請求項1ないし6のうちいずれか一項に記載の方法。 - 再生環境における背景雑音の前記推定値は、雑音推定値のシーケンスであるか、またはそれを含み:
雑音推定値の前記シーケンスを使用して、オーディオ入力信号に対して雑音補償を実行する段階をも含む、
請求項1ないし7のうちいずれか一項に記載の方法。 - 前記オーディオ入力信号に対して雑音補償を実行する段階が前記再生信号の生成を含み、当該方法は:
前記再生信号を用いて少なくとも一つのスピーカーを駆動して、前記音を生成する段階を含む、
請求項8に記載の方法。 - 前記マイクロフォン出力信号に対して時間領域から周波数領域への変換を実行し、それにより周波数領域マイクロフォン出力データを生成する段階と;
前記再生信号に応答して周波数領域再生コンテンツ・データを生成する段階とを含み、前記ギャップ信頼値は、前記周波数領域マイクロフォン出力データおよび前記周波数領域再生コンテンツ・データに応答して生成される、
請求項1ないし9のうちいずれか一項に記載の方法。 - 再生環境における音の放射中にマイクロフォン出力信号を生成するよう構成されたマイクロフォンであって、前記音は再生信号のオーディオ・コンテンツを示し、前記マイクロフォン出力信号はオーディオ・コンテンツおよび再生環境における背景雑音を示す、マイクロフォンと;
前記マイクロフォン出力信号および前記再生信号を受領するよう結合され:
前記マイクロフォン出力信号および前記再生信号に応答して、ギャップ信頼値を生成する段階であって、各ギャップ信頼値は、異なる時刻tについてのものであり、前記再生信号において、時刻tにギャップが存在する信頼度を示す、段階と;
前記ギャップ信頼値を使用して再生環境における背景雑音の推定値を生成する段階とを実行するように構成された雑音推定システムとを含む、
システム。 - 前記雑音推定システムは、再生環境における背景雑音の前記推定値を生成することを、再生環境における背景雑音の前記推定値は、雑音推定値のシーケンスであるか、またはそれを含み、前記雑音推定値のそれぞれは、異なる時刻tでの再生環境における背景雑音の推定値であり、雑音推定値の該それぞれは、時刻tを含む異なる時間区間についての、前記ギャップ信頼値によって重み付けされた候補雑音推定値の組み合わせである、ように行なうよう構成されている、請求項11に記載のシステム。
- 前記雑音推定システムは、再生環境における背景雑音の前記推定値を生成することを、再生環境における背景雑音の前記推定値は、雑音推定値のシーケンスであるか、またはそれを含み、前記雑音推定値のそれぞれは、異なる時刻tでの再生環境における背景雑音の推定値であり、
前記ギャップ信頼値を使用して再生環境における背景雑音の推定値を生成することは、各雑音推定値について、時刻tを含む異なる時間区間についての候補雑音推定値を、前記ギャップ信頼値によって重み付けし、重み付けされた候補雑音推定値を組み合わせて前記それぞれの雑音推定値を得ることを含む、ように行なうよう構成されている、
請求項11に記載のシステム。 - 雑音推定値の前記シーケンスはそれぞれの前記時間区間についての雑音推定値を含み、前記雑音推定システムは、それぞれの前記時間区間について雑音推定値を生成することを:
(a)前記ギャップ信頼値のうちの対応するものが所定の閾値を超える当該時間区間についての候補雑音推定値のそれぞれを識別する段階と;
(b)その時間区間についての前記雑音推定値を、段階(a)において識別された候補雑音推定値のうちの最小のものとなるように生成する段階とによって行なうことを含む、
請求項12または13に記載のシステム。 - 前記候補雑音推定値のそれぞれは、エコーキャンセルされた雑音推定値のシーケンスの最小のエコーキャンセルされた雑音推定値、Mresminであり、雑音推定値の前記シーケンスはそれぞれの前記時間区間についての雑音推定値を含み、それぞれの前記時間区間についての雑音推定値は、その時間区間についての最小のエコーキャンセルされた雑音推定値に、その時間区間についてのギャップ信頼値の対応するものによって重み付けしたものの組み合わせである、請求項12ないし14のうちいずれか一項に記載のシステム。
- 前記候補雑音推定値のそれぞれは、マイクロフォン出力信号値のシーケンスの最小のマイクロフォン出力信号値Mminであり、雑音推定値の前記シーケンスはそれぞれの前記時間区間についての雑音推定値を含み、それぞれの前記時間区間についての雑音推定値は、その時間区間についての最小マイクロフォン出力信号値に、その時間区間についてのギャップ信頼値の対応するものによって重み付けしたものの組み合わせである、請求項12ないし14のうちいずれか一項に記載のシステム。
- 前記ギャップ信頼値が各時刻tについてギャップ信頼値を含み、前記雑音推定システムは、各時刻tについてギャップ信頼値を生成することを:
前記再生信号を処理して、時刻tについての再生信号レベルにおける最小値を決定し;
前記マイクロフォン出力信号を処理して、時刻tについての前記マイクロフォン出力信号の平滑化されたレベルを決定し;
時刻tについての再生信号レベルにおける前記最小値が、時刻tについての前記マイクロフォン出力信号の前記平滑化されたレベルからどのくらい異なるかを示すよう、時刻tについての前記ギャップ信頼値を決定することによって行なうことを含む、
請求項11ないし16のうちいずれか一項に記載のシステム。 - 再生環境における背景雑音の前記推定値は、雑音推定値のシーケンスであるか、またはそれを含み、当該システムは:
雑音推定値の前記シーケンスを受領するように結合され、雑音推定値の前記シーケンスを使用して、オーディオ入力信号に対して雑音補償を実行して、前記再生信号を生成するように構成された雑音補償サブシステムをも含む、
請求項11ないし17のうちいずれか一項に記載のシステム。 - 前記雑音推定システムが:
前記マイクロフォン出力信号に対して時間領域から周波数領域への変換を実行し、それにより周波数領域マイクロフォン出力データを生成し;
前記再生信号に応答して周波数領域再生コンテンツ・データを生成し;
前記ギャップ信頼値を、前記周波数領域マイクロフォン出力データおよび前記周波数領域再生コンテンツ・データに応答して生成するよう構成されている、
請求項11ないし18のうちいずれか一項に記載のシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023125621A JP2023133472A (ja) | 2018-04-27 | 2023-08-01 | ギャップ信頼度を用いた背景雑音推定 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862663302P | 2018-04-27 | 2018-04-27 | |
US62/663,302 | 2018-04-27 | ||
EP18177822.6 | 2018-06-14 | ||
EP18177822 | 2018-06-14 | ||
PCT/US2019/028951 WO2019209973A1 (en) | 2018-04-27 | 2019-04-24 | Background noise estimation using gap confidence |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023125621A Division JP2023133472A (ja) | 2018-04-27 | 2023-08-01 | ギャップ信頼度を用いた背景雑音推定 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021522550A true JP2021522550A (ja) | 2021-08-30 |
JP7325445B2 JP7325445B2 (ja) | 2023-08-14 |
Family
ID=66770544
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020560194A Active JP7325445B2 (ja) | 2018-04-27 | 2019-04-24 | ギャップ信頼度を用いた背景雑音推定 |
JP2023125621A Pending JP2023133472A (ja) | 2018-04-27 | 2023-08-01 | ギャップ信頼度を用いた背景雑音推定 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023125621A Pending JP2023133472A (ja) | 2018-04-27 | 2023-08-01 | ギャップ信頼度を用いた背景雑音推定 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11232807B2 (ja) |
EP (2) | EP3785259B1 (ja) |
JP (2) | JP7325445B2 (ja) |
CN (2) | CN112272848B (ja) |
WO (1) | WO2019209973A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112437957B (zh) | 2018-07-27 | 2024-09-27 | 杜比实验室特许公司 | 用于全面收听的强加间隙插入 |
US11817114B2 (en) * | 2019-12-09 | 2023-11-14 | Dolby Laboratories Licensing Corporation | Content and environmentally aware environmental noise compensation |
US20230138637A1 (en) * | 2020-03-23 | 2023-05-04 | Dolby Laboratories Licensing Corporation | Echo residual suppression |
CN113190207A (zh) * | 2021-04-26 | 2021-07-30 | 北京小米移动软件有限公司 | 信息处理方法、装置、电子设备及存储介质 |
CN115938389B (zh) * | 2023-03-10 | 2023-07-28 | 科大讯飞(苏州)科技有限公司 | 用于车内媒体源的音量补偿方法、装置及车辆 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010531071A (ja) * | 2007-04-30 | 2010-09-16 | クゥアルコム・インコーポレイテッド | 移動体オーディオデバイスのための自動的な音量およびダイナミックレンジの調整 |
JP2014115377A (ja) * | 2012-12-07 | 2014-06-26 | Yamaha Corp | 音響処理装置 |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5907622A (en) | 1995-09-21 | 1999-05-25 | Dougherty; A. Michael | Automatic noise compensation system for audio reproduction equipment |
US6526139B1 (en) | 1999-11-03 | 2003-02-25 | Tellabs Operations, Inc. | Consolidated noise injection in a voice processing system |
US6674865B1 (en) | 2000-10-19 | 2004-01-06 | Lear Corporation | Automatic volume control for communication system |
US7885420B2 (en) | 2003-02-21 | 2011-02-08 | Qnx Software Systems Co. | Wind noise suppression system |
US7333618B2 (en) | 2003-09-24 | 2008-02-19 | Harman International Industries, Incorporated | Ambient noise sound level compensation |
US7606376B2 (en) | 2003-11-07 | 2009-10-20 | Harman International Industries, Incorporated | Automotive audio controller with vibration sensor |
EP1833163B1 (en) | 2004-07-20 | 2019-12-18 | Harman Becker Automotive Systems GmbH | Audio enhancement system and method |
CA2581810C (en) | 2004-10-26 | 2013-12-17 | Dolby Laboratories Licensing Corporation | Calculating and adjusting the perceived loudness and/or the perceived spectral balance of an audio signal |
TWI274472B (en) | 2005-11-25 | 2007-02-21 | Hon Hai Prec Ind Co Ltd | System and method for managing volume |
GB2433849B (en) * | 2005-12-29 | 2008-05-21 | Motorola Inc | Telecommunications terminal and method of operation of the terminal |
US8249271B2 (en) | 2007-01-23 | 2012-08-21 | Karl M. Bizjak | Noise analysis and extraction systems and methods |
US8103008B2 (en) | 2007-04-26 | 2012-01-24 | Microsoft Corporation | Loudness-based compensation for background noise |
ATE532324T1 (de) | 2007-07-16 | 2011-11-15 | Nuance Communications Inc | Verfahren und system zur verarbeitung von tonsignalen in einem multimediasystem eines fahrzeugs |
US8284825B2 (en) * | 2008-06-06 | 2012-10-09 | Maxim Integrated Products, Inc. | Blind channel quality estimator |
JP4640461B2 (ja) | 2008-07-08 | 2011-03-02 | ソニー株式会社 | 音量調整装置およびプログラム |
US8135140B2 (en) | 2008-11-20 | 2012-03-13 | Harman International Industries, Incorporated | System for active noise control with audio signal compensation |
US20100329471A1 (en) | 2008-12-16 | 2010-12-30 | Manufacturing Resources International, Inc. | Ambient noise compensation system |
JP5347794B2 (ja) * | 2009-07-21 | 2013-11-20 | ヤマハ株式会社 | エコー抑圧方法およびその装置 |
EP2367286B1 (en) | 2010-03-12 | 2013-02-20 | Harman Becker Automotive Systems GmbH | Automatic correction of loudness level in audio signals |
US8781137B1 (en) * | 2010-04-27 | 2014-07-15 | Audience, Inc. | Wind noise detection and suppression |
US8908884B2 (en) | 2010-04-30 | 2014-12-09 | John Mantegna | System and method for processing signals to enhance audibility in an MRI Environment |
US9053697B2 (en) | 2010-06-01 | 2015-06-09 | Qualcomm Incorporated | Systems, methods, devices, apparatus, and computer program products for audio equalization |
US8515089B2 (en) | 2010-06-04 | 2013-08-20 | Apple Inc. | Active noise cancellation decisions in a portable audio device |
US8649526B2 (en) | 2010-09-03 | 2014-02-11 | Nxp B.V. | Noise reduction circuit and method therefor |
US9357307B2 (en) | 2011-02-10 | 2016-05-31 | Dolby Laboratories Licensing Corporation | Multi-channel wind noise suppression system and method |
EP2645362A1 (en) | 2012-03-26 | 2013-10-02 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for improving the perceived quality of sound reproduction by combining active noise cancellation and perceptual noise compensation |
US9516407B2 (en) | 2012-08-13 | 2016-12-06 | Apple Inc. | Active noise control with compensation for error sensing at the eardrum |
US9208767B2 (en) | 2012-09-02 | 2015-12-08 | QoSound, Inc. | Method for adaptive audio signal shaping for improved playback in a noisy environment |
RU2651616C2 (ru) * | 2012-10-09 | 2018-04-23 | Конинклейке Филипс Н.В. | Способ и устройство оценки аудиопомехи |
US9565497B2 (en) | 2013-08-01 | 2017-02-07 | Caavo Inc. | Enhancing audio using a mobile device |
US11165399B2 (en) | 2013-12-12 | 2021-11-02 | Jawbone Innovations, Llc | Compensation for ambient sound signals to facilitate adjustment of an audio volume |
US9615185B2 (en) | 2014-03-25 | 2017-04-04 | Bose Corporation | Dynamic sound adjustment |
US9363600B2 (en) | 2014-05-28 | 2016-06-07 | Apple Inc. | Method and apparatus for improved residual echo suppression and flexible tradeoffs in near-end distortion and echo reduction |
US10264999B2 (en) | 2016-09-07 | 2019-04-23 | Massachusetts Institute Of Technology | High fidelity systems, apparatus, and methods for collecting noise exposure data |
US10075783B2 (en) * | 2016-09-23 | 2018-09-11 | Apple Inc. | Acoustically summed reference microphone for active noise control |
-
2019
- 2019-04-24 WO PCT/US2019/028951 patent/WO2019209973A1/en active Application Filing
- 2019-04-24 EP EP19728776.6A patent/EP3785259B1/en active Active
- 2019-04-24 JP JP2020560194A patent/JP7325445B2/ja active Active
- 2019-04-24 EP EP22184475.6A patent/EP4109446B1/en active Active
- 2019-04-24 CN CN201980038940.0A patent/CN112272848B/zh active Active
- 2019-04-24 CN CN202410342426.9A patent/CN118197340A/zh active Pending
- 2019-04-24 US US17/049,029 patent/US11232807B2/en active Active
-
2021
- 2021-10-04 US US17/449,918 patent/US11587576B2/en active Active
-
2023
- 2023-08-01 JP JP2023125621A patent/JP2023133472A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010531071A (ja) * | 2007-04-30 | 2010-09-16 | クゥアルコム・インコーポレイテッド | 移動体オーディオデバイスのための自動的な音量およびダイナミックレンジの調整 |
JP2014115377A (ja) * | 2012-12-07 | 2014-06-26 | Yamaha Corp | 音響処理装置 |
Also Published As
Publication number | Publication date |
---|---|
US11232807B2 (en) | 2022-01-25 |
US20220028405A1 (en) | 2022-01-27 |
CN118197340A (zh) | 2024-06-14 |
EP3785259A1 (en) | 2021-03-03 |
EP4109446A1 (en) | 2022-12-28 |
US20210249029A1 (en) | 2021-08-12 |
JP2023133472A (ja) | 2023-09-22 |
WO2019209973A1 (en) | 2019-10-31 |
US11587576B2 (en) | 2023-02-21 |
CN112272848A (zh) | 2021-01-26 |
CN112272848B (zh) | 2024-05-24 |
JP7325445B2 (ja) | 2023-08-14 |
EP3785259B1 (en) | 2022-11-30 |
EP4109446B1 (en) | 2024-04-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7325445B2 (ja) | ギャップ信頼度を用いた背景雑音推定 | |
JP6243536B2 (ja) | エコー打ち消し | |
US8472616B1 (en) | Self calibration of envelope-based acoustic echo cancellation | |
JP2015535962A (ja) | オーディオ干渉推定のための方法及び装置 | |
JP2009014937A (ja) | エコー抑圧装置、エコー抑圧方法及びコンピュータプログラム | |
WO2009117084A2 (en) | System and method for envelope-based acoustic echo cancellation | |
JP2013061421A (ja) | 音声信号処理装置、方法及びプログラム | |
JP4249729B2 (ja) | 自動利得制御方法、自動利得制御装置、自動利得制御プログラム及びこれを記録した記録媒体 | |
US11056128B2 (en) | Apparatus and method for processing an audio signal using noise suppression filter values | |
KR101182017B1 (ko) | 휴대 단말기에서 복수의 마이크들로 입력된 신호들의잡음을 제거하는 방법 및 장치 | |
CN112437957B (zh) | 用于全面收听的强加间隙插入 | |
JP2008005094A (ja) | エコー抑圧方法、装置、エコー抑圧プログラム、記録媒体 | |
CN103187068B (zh) | 基于Kalman的先验信噪比估计方法、装置及噪声抑制方法 | |
JP6638248B2 (ja) | 音声判定装置、方法及びプログラム、並びに、音声信号処理装置 | |
JP5131149B2 (ja) | 雑音抑圧装置及び雑音抑圧方法 | |
Lee et al. | Channel prediction-based noise reduction algorithm for dual-microphone mobile phones | |
JP4395105B2 (ja) | 音響結合量推定方法、音響結合量推定装置、プログラム、記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A529 Effective date: 20201125 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211209 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230330 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230704 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230801 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7325445 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |