JP2021531675A - パーベイシブ・リステニングのための強制ギャップ挿入 - Google Patents
パーベイシブ・リステニングのための強制ギャップ挿入 Download PDFInfo
- Publication number
- JP2021531675A JP2021531675A JP2020570055A JP2020570055A JP2021531675A JP 2021531675 A JP2021531675 A JP 2021531675A JP 2020570055 A JP2020570055 A JP 2020570055A JP 2020570055 A JP2020570055 A JP 2020570055A JP 2021531675 A JP2021531675 A JP 2021531675A
- Authority
- JP
- Japan
- Prior art keywords
- gap
- signal
- reproduction signal
- reproduction
- band
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003780 insertion Methods 0.000 title claims description 76
- 230000037431 insertion Effects 0.000 title claims description 76
- 238000000034 method Methods 0.000 claims abstract description 147
- 238000012544 monitoring process Methods 0.000 claims abstract description 30
- 230000005236 sound signal Effects 0.000 claims description 56
- 230000000694 effects Effects 0.000 claims description 49
- 238000009826 distribution Methods 0.000 claims description 46
- 230000000873 masking effect Effects 0.000 claims description 43
- 230000004044 response Effects 0.000 claims description 43
- 230000002123 temporal effect Effects 0.000 claims description 8
- 230000008447 perception Effects 0.000 claims description 5
- 238000012545 processing Methods 0.000 abstract description 11
- 230000006870 function Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 19
- 238000004458 analytical method Methods 0.000 description 16
- 238000005070 sampling Methods 0.000 description 15
- 230000003044 adaptive effect Effects 0.000 description 10
- 238000006243 chemical reaction Methods 0.000 description 8
- 238000012805 post-processing Methods 0.000 description 8
- 230000001629 suppression Effects 0.000 description 8
- 238000001228 spectrum Methods 0.000 description 7
- 230000006399 behavior Effects 0.000 description 6
- 230000007613 environmental effect Effects 0.000 description 6
- 238000013507 mapping Methods 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 230000002829 reductive effect Effects 0.000 description 4
- 230000008929 regeneration Effects 0.000 description 4
- 238000011069 regeneration method Methods 0.000 description 4
- 241000219498 Alnus glutinosa Species 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000009792 diffusion process Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 206010021403 Illusion Diseases 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000001266 bandaging Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000001447 compensatory effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013016 damping Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 230000001172 regenerating effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L21/0232—Processing in the frequency domain
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K11/00—Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/16—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/175—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
- G10K11/178—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
- G10K11/1787—General system configurations
- G10K11/17885—General system configurations additionally using a desired external signal, e.g. pass-through audio such as music or speech
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03G—CONTROL OF AMPLIFICATION
- H03G3/00—Gain control in amplifiers or frequency changers
- H03G3/20—Automatic control
- H03G3/30—Automatic control in amplifiers having semiconductor devices
- H03G3/32—Automatic control in amplifiers having semiconductor devices the control being dependent upon ambient noise level or sound level
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/307—Frequency adjustment, e.g. tone control
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K2210/00—Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
- G10K2210/10—Applications
- G10K2210/108—Communication systems, e.g. where useful sound is kept and noise is cancelled
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L2021/02087—Noise filtering the noise being separate speech, e.g. cocktail party
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2227/00—Details of public address [PA] systems covered by H04R27/00 but not provided for in any of its subgroups
- H04R2227/001—Adaptation of signal processing in PA systems in dependence of presence of noise
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Circuit For Audible Band Transducer (AREA)
- Control Of Amplification And Gain Control (AREA)
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
Abstract
Description
本出願は2018年7月27日に出願された米国特許出願第62/711,012号からの優先権の利益を主張するものであり、その全体が参照により本明細書に組み込まれる。
オーディオ再生信号の少なくとも1つの選択された周波数帯域内に少なくとも1つのギャップを挿入して(例えば、各ギャップは、オーディオ再生信号の選択された時間間隔において、選択された周波数帯域に挿入される)、修正された再生信号を生成することと、
修正された再生信号に応じて再生環境におけるサウンドの放出中に、再生環境においてマイクロホンを使用してマイクロホン出力信号を生成することであって、サウンドは修正された再生信号の再生コンテンツを示し、マイクロホン出力信号は、再生環境における非再生サウンドおよび再生コンテンツを示す、使用して生成することと、
修正された再生信号およびマイクロホン出力信号に応じて、再生環境における非再生サウンドをモニターする(通常、少なくとも1つの態様の推定値を生成することによることを含む)ことと、を含む、パーベイシブ・リスニング方法、である。
再生信号の周波数帯域のセットの各帯域に対する確率を示す確率分布を決定することと、
確率分布に従って、セットの周波数帯域のうちの少なくとも1つをランダムに選択し、少なくとも1つの周波数帯域のそれぞれにギャップを挿入することと、を含む。いくつかのそのような実施形態では、確率分布は、再生信号の周波数帯域のセットの帯域の各々におけるギャップの必要性(すなわち、挿入の緊急性)に基づく。いくつかのそのような実施形態では、確率分布は、再生信号の周波数帯域のセットの帯域の各々において、ギャップの挿入の予想される知覚効果に基づく。いくつかのそのような実施形態では、確率分布は、再生信号の周波数帯域のセットの帯域の各々において、ギャップの必要性と、ギャップの挿入の予想される知覚効果との両方に基づく。
特許請求の範囲を含む本開示全体を通して、オーディオ信号(およびオーディオ信号の再生コンテンツ)における「ギャップ」は、(例えば、少なくとも1つの周波数帯域における)再生コンテンツが欠落している(または所定の値未満のレベルを有する)信号の時間(または時間間隔)を示す。オーディオ信号は、(各時間または時間間隔における)異なる周波数帯域のセットの各帯域における周波数−領域再生コンテンツを含む、(信号の時間または時間間隔のシーケンスのそれぞれにおける)帯域化された周波数領域表現を有することができ、(オーディオ信号の時間または時間間隔における)周波数帯域のうちの少なくとも1つにおけるギャップを有することができる。
本発明の多くの実施形態は、技術的に可能である。これらをどのように実施するかは、本開示から当業者には明らかであろう。本発明のシステムおよび方法のいくつかの実施形態は、図3〜14を参照して本明細書に記載される。
1.帯域内のギャップを強制する必要性(本明細書では「緊急度」と呼ばれることがある要因)
2.ギャップを強制することが知覚的な影響を及ぼす程度(本明細書では「知覚自由度」と呼ばれることがある要因)
Mres(エコー・キャンセラ残留)の値の最小値は、再生環境におけるノイズの推定値を示すと確信することができ、
M(マイクロホン出力信号)の値の最小値は、再生環境におけるノイズの推定値を示すと確信することができる。
(メモリ40に記憶されたs)ファクトリ・プリセット・ゲイン;
前のセッション中に(サブシステム43によって)生成された(そしてメモリ41に記憶された)ゲインGの状態;
AEC(例えば、エコー・キャンセラ34)が存在する場合の、使用中の、帯域化AECフィルタ係数エネルギー(例えば、エコー・キャンセラによって実施される、図2のフィルタW’に対応する適応フィルタを決定するもの)。これらの帯域化AECフィルタ係数エネルギー(例えば、図12のシステムの帯域化素子36からサブシステム43に提供されるもの)は、ゲインGのオンライン推定として機能する。
部分的に更新されたノイズ推定値からの欠落ノイズ推定値のインピュテーション;
音色を保持するための現行ノイズ推定の形状の制約;および、
現行ノイズ推定値の絶対値の制約。
エコー・キャンセラは、キャンセレーション性能と安定性を確保し同調するために大量の時間とリサーチを必要とするので、大量の開発時間を節約し;
(エコー・キャンセレーションを実施するための)大きな適応フィルタバンクは典型的には大きなリソースを消費し、しばしば実行するために高精度の算術演算を必要とするので、計算時間を節約し、
マイクロホン信号と再生オーディオ信号との間の共有クロックドメインおよび時間アラインメントの必要性を排除する。エコー・キャンセレーションは、同じオーディオクロック上で同期されるべき再生信号と記録信号の両方に依存する。
1.解析の現行フレームの値Uk、およびFkを計算または決定する(任意選択で、値Umaxを超えないように値Ukを制限する);
2.強制ギャップ挿入のために帯域を選択(導出)する(分布Pの)数値Pkを計算する;
3.ギャップが最後に強制されてから少なくともTp秒が経過した場合は
a.分布PからN個の帯域をランダムに引き出し、
b.Ukが閾値Uminを下回っている帯域、またはFkが閾値Fminを上回っている帯域をすべて破棄し、
c.ステップ3aおよび3bの後に残っている帯域にギャップ強制を開始する。
ユーザに著しい知覚的影響を与えることなく、パーベイシブ・リスニング方法の性能を(再生サウンドおよび非再生サウンドの両方を捕捉するためにローカル・マイクロホンを使用して)改善する目的で、再生コンテンツに強制サンプリングギャップを挿入するための方法およびシステム;
そのようにする緊急度または必要性に基づいて、再生コンテンツに強制サンプリングギャップを挿入するための方法およびシステム;
マスキング曲線を使用することによって、相対的な知覚的影響に基づいて再生コンテンツに強制サンプリングギャップを挿入するための方法およびシステム;
ギャップ挿入の相対的な知覚的影響とギャップ挿入の緊急度とのバランスに基づいて、再生コンテンツに強制サンプリングギャップを挿入するための方法およびシステム;
(再生オーディオのバージインダッキングまたは一時停止とは対照的に)パーベイシブ・リスニング方法の性能を改善する目的で、強制サンプリングギャップを再生コンテンツに挿入するための方法およびシステムであって、それによって、強制サンプリングギャップの定義パラメータがノイズ推定値の成分が更新されていない持続時間に比例して決定され、および/または、強制サンプリングギャップの定義パラメータが、再生オーディオ信号に対する時間および空間におけるそれらの近接性を考慮することによって、強制ギャップの知覚的影響を最小限にする最適化プロセスによって決定される、方法およびシステム;
強制サンプリングギャップの使用を通じてノイズ補償機能を拡張する方法およびシステムであって、それによって、再生コンテンツにおけるギャップの存在を強制するトリガが、ノイズ推定の成分が更新されてから経過した時間の持続時間に自動的にリンクされ、および/または、それによって、再生コンテンツにおけるギャップの存在を強制するトリガが、二次デバイスまたはユーザの要求によってリクエストされる、方法およびシステム;
例えば、強制ギャップの挿入に対する累積された必要性または要望に対してバランスが取られた、強制ギャップ挿入の影響に対する知覚モデルを使用した、強制ギャップ挿入によることを含む、ノイズ補償機能および/またはバックグラウンドサウンド認識を拡張する方法およびシステム。
1.ノイズ条件が増加する一方、推定値は固定される;
2.ノイズ状態が減少する一方、推定値は固定される、;または、
3.ノイズ状態は持続する一方、推定値は固定される。
前記修正された再生信号に応じた再生環境におけるサウンドの放出中に、前記再生環境においてマイクロホンを使用してマイクロホン出力信号を生成することであって、前記サウンドは前記修正された再生信号の再生コンテンツを示し、前記マイクロホン出力信号は、前記再生環境における非再生サウンドおよび前記再生コンテンツを示す、使用して生成することと、
前記修正された再生信号および前記マイクロホン出力信号に応じて、前記再生環境における非再生サウンドをモニターすることと、を含む、パーベイシブ・リスニング方法。
前記再生環境における非再生サウンドの少なくとも1つの態様の推定値に応じて、前記オーディオ再生信号を生成することを、さらに含む、E1に記載の方法。
前記確率分布に従って、前記セットの周波数帯域のうちの少なくとも1つをランダムに選択し、前記少なくとも1つの周波数帯域のそれぞれにギャップを挿入することと、を含む、E1に記載の方法。
前記緊急度値は、前記再生信号の周波数帯域のセットの各帯域において、前記各帯域における前のギャップの発生からの経過時間に基づいて、ギャップの必要性を表し、前記再生信号への各ギャップの挿入は、少なくとも部分的に前記緊急度値に基づいている、E1に記載の方法。
前記バックグラウンド推定値に応じて入力オーディオ信号にノイズ補償を実行することによることを含む、前記バックグラウンド推定値に応じて前記オーディオ再生信号を生成すること、をさらに含む、E1に記載の方法。
オーディオ再生信号を受信するように結合され、前記オーディオ再生信号の少なくとも1つの選択された周波数帯域内に少なくとも1つのギャップを挿入し、それによって前記修正された再生信号を生成するように構成された、強制ギャップ適用サブシステムと、
マイクロホン出力信号および前記修正された再生信号を受信するように結合され、前記修正された再生信号および前記マイクロホン出力信号に応じて前記再生環境における前記非再生サウンドをモニターするように構成される、パーベイシブ・リスニング・サブシステムと、を含む、システム。
前記修正された再生信号および前記マイクロホン出力信号に応じて、前記再生環境における非再生サウンドの少なくとも1つの態様の推定値を生成し、
前記再生環境における前記非再生サウンドの少なくとも1つの態様の推定値に応じて、前記オーディオ再生信号を生成するように、結合されおよび構成される、E18に記載のシステム。
前記再生信号の周波数帯域のセットの各帯域に対する確率を示す確率分布を決定し、
前記確率分布に従って、前記セットの前記周波数帯域のうちの少なくとも1つをランダムに選択し、前記少なくとも1つの周波数帯域のそれぞれにギャップを挿入するように構成される、E18に記載のシステム。
バックグラウンドノイズ推定値を生成することによることを含んで、非再生サウンドをモニターし、
バックグラウンド推定値に応じて入力オーディオ信号にノイズ補償を行うことによることを含んで、前記バックグラウンド推定値に応じて前記オーディオ再生信号を生成するように、結合されおよび構成されている、E18に記載のシステム。
Claims (33)
- オーディオ再生信号の少なくとも1つの選択された周波数帯域内に少なくとも1つのギャップを挿入して、修正された再生信号を生成することと、
前記修正された再生信号に応じた再生環境におけるサウンドの放出中に、前記再生環境においてマイクロホンを使用してマイクロホン出力信号を生成することであって、前記サウンドは前記修正された再生信号の再生コンテンツを示し、前記マイクロホン出力信号は、前記再生環境における非再生サウンドおよび前記再生コンテンツを示す、使用して生成することと、
前記修正された再生信号および前記マイクロホン出力信号に応じて、前記再生環境における非再生サウンドをモニターすることと、を含む、パーベイシブ・リスニング方法。 - 前記ギャップの各々は、前記オーディオ再生信号の、選択された時間間隔で、選択された周波数帯域内に挿入されて、前記ギャップの挿入に起因する、前記修正された再生信号に応じて前記再生環境内で放出される前記サウンド内の任意のアーチファクトは、前記再生環境内のユーザに対して低い知覚性を有し、前記モニターすることの実行中に高い識別性を有する、請求項1に記載の方法。
- 前記ギャップの各々は、前記修正された再生信号に応じて前記再生環境において放出されるサウンドが前記ギャップの挿入に起因する著しいアーチファクトなしにユーザによって知覚可能であるように、前記オーディオ再生信号の選択された時間間隔で、選択された周波数帯域内に挿入される、請求項1または2に記載の方法。
- 前記ギャップの各々は、前記オーディオ再生信号の選択された周波数帯域内に挿入され、前記選択された周波数帯域の各々は、前記オーディオ再生信号の周波数帯域のセットから、前記周波数帯域のセットの各帯域におけるギャップの挿入の予想される知覚効果を示す知覚自由度値を使用して実施される選択によって決定される、請求項1、2、または3に記載の方法。
- 前記知覚自由度値は、少なくとも1つの周波数マスキングの考慮に従って決定されて、前記知覚自由度値のうちの1つが、周波数帯域の前記セットのピークエネルギー帯域に近い近ピーク帯域についての近ピーク値であるとき、前記知覚自由度値のそれぞれは、前記ピークエネルギー帯域から前記近ピーク帯域よりも遠い帯域について、前記近ピーク値よりも大きい予想される知覚効果を示す、請求項4に記載の方法。
- 前記知覚自由度値は、少なくとも1つの経時マスキングの考慮に従って決定されて、その結果、前記オーディオ再生信号が少なくとも1つのラウド再生サウンドイベントを示すとき、前記ラウド再生サウンドイベントの直後に生じる前記オーディオ再生信号の第1の時間間隔に対する前記知覚自由度値のそれらが、前記オーディオ再生信号の第2の時間間隔に対する前記知覚自由度値のそれらよりも低い予想される知覚効果を示し、前記第2の時間間隔は前記第1の時間間隔よりも遅い、請求項4または5に記載の方法。
- 前記パーベイシブ・リスニング方法はノイズ推定方法であり、前記マイクロホン出力信号は前記再生環境におけるバックグラウンドノイズを示し、前記モニターすることは、前記修正された再生信号および前記マイクロホン出力信号に応じて、前記再生環境におけるバックグラウンドノイズの推定値を生成することを含む、請求項1〜6のいずれか一項に記載の方法。
- 前記モニターすることは、前記修正された再生信号および前記マイクロホン出力信号に応じて、前記再生環境における非再生サウンドの少なくとも1つの態様の推定値を生成することを含み、
前記再生環境における非再生サウンドの少なくとも1つの態様の推定値に応じて、前記オーディオ再生信号を生成することを、さらに含む、請求項1〜7のいずれか一項に記載の方法。 - 前記ギャップの各々は、前記再生信号の少なくとも1つの周波数帯域におけるギャップの必要性に基づいて、前記再生信号内に挿入される、請求項1〜8のいずれか一項に記載の方法。
- 前記ギャップの各々は、前記再生信号の周波数帯域のセットの各帯域におけるギャップ挿入の緊急度を示す緊急度値に応じて、前記再生信号内に挿入される、請求項9に記載の方法。
- 前記ギャップの各々は、前記再生信号の周波数帯域のセットの各帯域におけるギャップ挿入の緊急度を示す緊急度値に応答して、および前記再生信号の周波数帯域の前記セットの前記各帯域におけるギャップ挿入の予想される知覚効果に基づいて、前記再生信号内に挿入される、請求項9に記載の方法。
- 前記ギャップの各々は、前記再生信号の周波数帯域のセットの各帯域におけるギャップ挿入の緊急度を示す緊急度値を使用して、前記再生信号の少なくとも1つの特定の時間間隔における、前記再生信号の周波数帯域の前記セットの前記各帯域におけるギャップの挿入の予想される知覚効果に基づいて、ギャップ挿入の緊急度と予想される知覚効果とのバランスをとることを含む方法で、前記再生信号内に挿入される、請求項9に記載の方法。
- 前記再生信号の周波数帯域のセットの各帯域に対する確率を示す確率分布を決定することと、
前記確率分布に従って、前記セットの周波数帯域のうちの少なくとも1つをランダムに選択し、前記少なくとも1つの周波数帯域のそれぞれにギャップを挿入することと、を含む、請求項1〜12のいずれか一項に記載の方法。 - 前記確率分布は、前記再生信号の周波数帯域の前記セットの前記帯域の各々におけるギャップの必要性に基づく、請求項13に記載の方法。
- 前記確率分布は、前記再生信号の周波数帯域の前記セットの前記帯域の各々において、ギャップの必要性と、前記ギャップの挿入の予想される知覚効果とに基づく、請求項13に記載の方法。
- 前記マイクロホン出力信号および前記修正された再生信号に応じて、緊急度値を生成すること、を含み、
前記緊急度値は、前記再生信号の周波数帯域のセットの各帯域において、前記各帯域における前のギャップの発生からの経過時間に基づいて、ギャップの必要性を表し、前記再生信号への各ギャップの挿入は、少なくとも部分的に前記緊急度値に基づいている、請求項1〜15のいずれか一項に記載の方法。 - 前記非再生サウンドの前記モニターすることは、バックグラウンドノイズの推定値の生成を含み、
前記バックグラウンドノイズの推定値に応じて入力オーディオ信号にノイズ補償を実行することによることを含む、前記バックグラウンドノイズの推定値に応じて前記オーディオ再生信号を生成すること、をさらに含む、請求項1〜16のいずれか一項に記載の方法。 - 再生環境においてサウンドの放出中にマイクロホン出力信号を生成するように配置および構成されたマイクロホンであって、前記サウンドは修正された再生信号の再生コンテンツを示し、前記マイクロホン出力信号は前記再生環境における非再生サウンドおよび前記再生コンテンツを示す、マイクロホンと、
オーディオ再生信号を受信するように結合され、前記オーディオ再生信号の少なくとも1つの選択された周波数帯域内に少なくとも1つのギャップを挿入し、それによって前記修正された再生信号を生成するように構成された、強制ギャップ適用サブシステムと、
マイクロホン出力信号および前記修正された再生信号を受信するように結合され、前記修正された再生信号および前記マイクロホン出力信号に応じて前記再生環境における前記非再生サウンドをモニターするように構成される、パーベイシブ・リスニング・サブシステムと、を含む、システム。 - 前記強制ギャップ適用サブシステムは、前記オーディオ再生信号の、選択された時間間隔で、選択された周波数帯域内に前記ギャップの各々を挿入するように構成されて、前記ギャップの挿入から生じる、前記修正された再生信号に応じて前記再生環境において放出されるサウンドにおけるいかなるアーチファクトも、前記再生環境におけるユーザに対する低い知覚性と、前記モニターすることの実行中の高い識別性とを有する、請求項18に記載のシステム。
- 前記強制ギャップ適用サブシステムは、前記オーディオ再生信号の周波数帯域のセットから、前記選択された周波数帯域の各々を選択することによることを含む、周波数帯域の前記セットの各帯域におけるギャップの挿入の予想される知覚効果を示す知覚自由度値を使用して、前記オーディオ再生信号の選択された周波数帯域内に前記ギャップの各々を挿入するように構成される、請求項18または19に記載のシステム。
- 前記知覚自由度値は、少なくとも1つの周波数マスキングの考慮に従って決定されている、請求項20に記載のシステム。
- 前記知覚自由度値は、少なくとも1つの経時マスキングの考慮に従って決定されている、請求項20または21に記載のシステム。
- 前記マイクロホン出力信号は、前記再生環境におけるバックグラウンドノイズを示し、前記パーベイシブ・リスニング・サブシステムは、前記修正された再生信号および前記マイクロホン出力信号に応じて、前記再生環境における前記バックグラウンドノイズの推定値を生成するように構成される、請求項18〜22のいずれか一項に記載のシステム。
- 前記パーベイシブ・リスニング・サブシステムは、
前記修正された再生信号および前記マイクロホン出力信号に応じて、前記再生環境における非再生サウンドの少なくとも1つの態様の推定値を生成し、
前記再生環境における前記非再生サウンドの少なくとも1つの態様の推定値に応じて、前記オーディオ再生信号を生成するように、結合されおよび構成される、請求項18〜23のいずれか一項に記載のシステム。 - 前記強制ギャップ適用サブシステムは、前記再生信号の少なくとも1つの周波数帯域におけるギャップの必要性に基づいて、前記ギャップの各々を前記再生信号内に挿入するように構成される、請求項18〜24のいずれか一項に記載のシステム。
- 前記強制ギャップ適用サブシステムは、前記再生信号の周波数帯域のセットの各帯域におけるギャップ挿入の緊急度を示す緊急度値に応じて、前記再生信号内に前記ギャップの各々を挿入するように構成される、請求項25に記載のシステム。
- 前記強制ギャップ適用サブシステムは、前記再生信号の周波数帯域のセットの各帯域におけるギャップ挿入の緊急度を示す緊急度値に応答して、および前記再生信号の周波数帯域の前記セットの前記各帯域におけるギャップ挿入の予想される知覚効果に基づいて、前記再生信号内に前記ギャップの各々を挿入するように構成される、請求項25に記載のシステム。
- 前記強制ギャップ適用サブシステムは、前記再生信号の周波数帯域のセットの各帯域におけるギャップ挿入の緊急度を示す緊急度値を使用して、前記再生信号の少なくとも1つの特定の時間間隔における、前記再生信号の周波数帯域の前記セットの前記各帯域におけるギャップの挿入の予想される知覚効果に基づいて、ギャップ挿入の緊急度および予想される知覚効果とのバランスをとることを含む方法で、前記再生信号内に前記各ギャップを挿入するように構成される、請求項25に記載のシステム。
- 前記強制ギャップ適用サブシステムは、
前記再生信号の周波数帯域のセットの各帯域に対する確率を示す確率分布を決定し、
前記確率分布に従って、前記セットの前記周波数帯域のうちの少なくとも1つをランダムに選択し、前記少なくとも1つの周波数帯域のそれぞれにギャップを挿入するように構成される、請求項18〜28のいずれか一項に記載のシステム。 - 前記確率分布は、前記再生信号の周波数帯域の前記セットの前記帯域の各々におけるギャップの必要性に基づく、請求項29に記載のシステム。
- 前記確率分布は、前記再生信号の周波数帯域の前記セットの前記帯域の各々において、ギャップの必要性と、前記ギャップの挿入の予想される知覚効果とに基づく、請求項29に記載のシステム。
- 前記パーベイシブ・リスニング・サブシステムは、前記マイクロホン出力信号および前記修正された再生信号に応じて緊急度値を生成するように構成されており、前記緊急度値は、前記各帯域における前のギャップの発生からの経過時間に基づいて、前記再生信号の周波数帯域のセットの各帯域におけるギャップの必要性を示し、前記強制ギャップ適用サブシステムは、前記緊急度値を受信するように結合され、および、少なくとも部分的に前記緊急度値に基づいた方法で、前記ギャップの各々を前記再生信号内に挿入するように構成されている、請求項18〜31のいずれか一項に記載のシステム。
- 前記パーベイシブ・リスニング・サブシステムは、
バックグラウンドノイズの推定値を生成することによることを含んで、非再生サウンドをモニターし、
バックグラウンド推定値に応じて入力オーディオ信号にノイズ補償を行うことによることを含んで、前記バックグラウンド推定値に応じて前記オーディオ再生信号を生成するように、結合されおよび構成されている、請求項18〜32のいずれか一項に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862711012P | 2018-07-27 | 2018-07-27 | |
US62/711,012 | 2018-07-27 | ||
PCT/US2019/043629 WO2020023856A1 (en) | 2018-07-27 | 2019-07-26 | Forced gap insertion for pervasive listening |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021531675A true JP2021531675A (ja) | 2021-11-18 |
JP7195344B2 JP7195344B2 (ja) | 2022-12-23 |
Family
ID=67667919
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020570055A Active JP7195344B2 (ja) | 2018-07-27 | 2019-07-26 | パーベイシブ・リステニングのための強制ギャップ挿入 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11195539B2 (ja) |
EP (1) | EP3830823B1 (ja) |
JP (1) | JP7195344B2 (ja) |
CN (1) | CN112437957B (ja) |
WO (1) | WO2020023856A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20240107252A1 (en) * | 2020-12-03 | 2024-03-28 | Dolby Laboratories Licensing Corporation | Insertion of forced gaps for pervasive listening |
CN115938389B (zh) * | 2023-03-10 | 2023-07-28 | 科大讯飞(苏州)科技有限公司 | 用于车内媒体源的音量补偿方法、装置及车辆 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010206515A (ja) * | 2009-03-03 | 2010-09-16 | Oki Electric Ind Co Ltd | エコーキャンセラ |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5951646A (en) * | 1996-11-25 | 1999-09-14 | America Online, Inc. | System and method for scheduling and processing image and sound data |
FI116643B (fi) | 1999-11-15 | 2006-01-13 | Nokia Corp | Kohinan vaimennus |
EP1377967B1 (en) | 2001-04-13 | 2013-04-10 | Dolby Laboratories Licensing Corporation | High quality time-scaling and pitch-scaling of audio signals |
WO2002095975A1 (fr) * | 2001-05-22 | 2002-11-28 | Mitsubishi Denki Kabushiki Kaisha | Appareil de traitement d'echos |
US7277512B1 (en) | 2003-02-20 | 2007-10-02 | Advanced Micro Devices, Inc. | Systems and methods for accounting for intercarrier interference in transmission systems |
SG185134A1 (en) | 2003-05-28 | 2012-11-29 | Dolby Lab Licensing Corp | Method, apparatus and computer program for calculating and adjusting the perceived loudness of an audio signal |
JP4218573B2 (ja) | 2004-04-12 | 2009-02-04 | ソニー株式会社 | ノイズ低減方法及び装置 |
US7508947B2 (en) | 2004-08-03 | 2009-03-24 | Dolby Laboratories Licensing Corporation | Method for combining audio signals using auditory scene analysis |
JP2007150737A (ja) | 2005-11-28 | 2007-06-14 | Sony Corp | 音声信号ノイズ低減装置及び方法 |
US8036767B2 (en) * | 2006-09-20 | 2011-10-11 | Harman International Industries, Incorporated | System for extracting and changing the reverberant content of an audio input signal |
DE102008009718A1 (de) | 2008-02-19 | 2009-08-20 | Siemens Enterprise Communications Gmbh & Co. Kg | Verfahren und Mittel zur Enkodierung von Hintergrundrauschinformationen |
US8085941B2 (en) | 2008-05-02 | 2011-12-27 | Dolby Laboratories Licensing Corporation | System and method for dynamic sound delivery |
KR20130038857A (ko) | 2010-04-09 | 2013-04-18 | 디티에스, 인코포레이티드 | 오디오 재생을 위한 적응적 주변 소음 보상 |
EP2673778B1 (en) * | 2011-02-10 | 2018-10-10 | Dolby Laboratories Licensing Corporation | Post-processing including median filtering of noise suppression gains |
US8547867B2 (en) | 2011-02-18 | 2013-10-01 | Research In Motion Limited | Method and apparatus for interference identification on configuration of LTE and BT |
EP2727378B1 (en) * | 2011-07-01 | 2019-10-16 | Dolby Laboratories Licensing Corporation | Audio playback system monitoring |
US9208767B2 (en) * | 2012-09-02 | 2015-12-08 | QoSound, Inc. | Method for adaptive audio signal shaping for improved playback in a noisy environment |
CA2897539C (en) * | 2013-04-04 | 2016-05-17 | James S. RAND | Unified communications system and method |
EP3111627B1 (en) | 2014-02-28 | 2018-07-04 | Dolby Laboratories Licensing Corporation | Perceptual continuity using change blindness in conferencing |
US9947318B2 (en) * | 2014-10-03 | 2018-04-17 | 2236008 Ontario Inc. | System and method for processing an audio signal captured from a microphone |
US9812148B2 (en) | 2015-02-06 | 2017-11-07 | Knuedge, Inc. | Estimation of noise characteristics |
CA2924443A1 (en) * | 2016-02-11 | 2017-08-11 | Stephanie England | Audio transmitter and receiver |
US9959861B2 (en) * | 2016-09-30 | 2018-05-01 | Robert Bosch Gmbh | System and method for speech recognition |
DE112017007005B4 (de) * | 2017-03-08 | 2023-03-30 | Mitsubishi Electric Corporation | Akustiksignal-verarbeitungsvorrichtung, akustiksignalverarbeitungsverfahren und freisprech-kommunikationsvorrichtung |
US11189303B2 (en) * | 2017-09-25 | 2021-11-30 | Cirrus Logic, Inc. | Persistent interference detection |
WO2019209973A1 (en) | 2018-04-27 | 2019-10-31 | Dolby Laboratories Licensing Corporation | Background noise estimation using gap confidence |
-
2019
- 2019-07-26 CN CN201980046995.6A patent/CN112437957B/zh active Active
- 2019-07-26 WO PCT/US2019/043629 patent/WO2020023856A1/en active Search and Examination
- 2019-07-26 US US17/261,884 patent/US11195539B2/en active Active
- 2019-07-26 JP JP2020570055A patent/JP7195344B2/ja active Active
- 2019-07-26 EP EP19756053.5A patent/EP3830823B1/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010206515A (ja) * | 2009-03-03 | 2010-09-16 | Oki Electric Ind Co Ltd | エコーキャンセラ |
Also Published As
Publication number | Publication date |
---|---|
US11195539B2 (en) | 2021-12-07 |
JP7195344B2 (ja) | 2022-12-23 |
US20210304782A1 (en) | 2021-09-30 |
EP3830823A1 (en) | 2021-06-09 |
EP3830823B1 (en) | 2022-04-27 |
CN112437957B (zh) | 2024-09-27 |
WO2020023856A1 (en) | 2020-01-30 |
CN112437957A (zh) | 2021-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9502048B2 (en) | Adaptively reducing noise to limit speech distortion | |
US9361901B2 (en) | Integrated speech intelligibility enhancement system and acoustic echo canceller | |
CN102726060B (zh) | 用于头戴式耳机装置的控制器 | |
JP2014232331A (ja) | アダプティブ・インテリジェント・ノイズ抑制システム及び方法 | |
US11056128B2 (en) | Apparatus and method for processing an audio signal using noise suppression filter values | |
JP7325445B2 (ja) | ギャップ信頼度を用いた背景雑音推定 | |
JP7195344B2 (ja) | パーベイシブ・リステニングのための強制ギャップ挿入 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A529 Effective date: 20210212 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210212 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220405 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220704 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221115 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221213 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7195344 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |