JP6009619B2 - 空間的選択音声拡張のためのシステム、方法、装置、およびコンピュータ可読媒体 - Google Patents

空間的選択音声拡張のためのシステム、方法、装置、およびコンピュータ可読媒体 Download PDF

Info

Publication number
JP6009619B2
JP6009619B2 JP2015113262A JP2015113262A JP6009619B2 JP 6009619 B2 JP6009619 B2 JP 6009619B2 JP 2015113262 A JP2015113262 A JP 2015113262A JP 2015113262 A JP2015113262 A JP 2015113262A JP 6009619 B2 JP6009619 B2 JP 6009619B2
Authority
JP
Japan
Prior art keywords
signal
component
source component
source
produce
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015113262A
Other languages
English (en)
Other versions
JP2015173502A (ja
Inventor
ヒュン・ジン・パク
クウォクリュン・チャン
レン・リ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2015173502A publication Critical patent/JP2015173502A/ja
Application granted granted Critical
Publication of JP6009619B2 publication Critical patent/JP6009619B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1781Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions
    • G10K11/17821Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions characterised by the analysis of the input signals only
    • G10K11/17823Reference signals, e.g. ambient acoustic environment
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1783Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase handling or detecting of non-standard events or conditions, e.g. changing operating modes under specific operating conditions
    • G10K11/17837Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase handling or detecting of non-standard events or conditions, e.g. changing operating modes under specific operating conditions by retaining part of the ambient acoustic environment, e.g. speech or alarm signals that the user needs to hear
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1785Methods, e.g. algorithms; Devices
    • G10K11/17853Methods, e.g. algorithms; Devices of the filter
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1785Methods, e.g. algorithms; Devices
    • G10K11/17853Methods, e.g. algorithms; Devices of the filter
    • G10K11/17854Methods, e.g. algorithms; Devices of the filter the filter being an adaptive filter
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1785Methods, e.g. algorithms; Devices
    • G10K11/17857Geometric disposition, e.g. placement of microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1787General system configurations
    • G10K11/17879General system configurations using both a reference signal and an error signal
    • G10K11/17881General system configurations using both a reference signal and an error signal the reference signal being an acoustic signal, e.g. recorded with a microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1083Reduction of ambient noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/033Headphones for stereophonic communication
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02166Microphone arrays; Beamforming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/01Hearing devices using active noise cancellation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • Otolaryngology (AREA)
  • Quality & Reliability (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Neurosurgery (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Headphones And Earphones (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

関連出願
[0001]本特許出願は、2011年2月23日に出願され、本発明の譲受人に譲渡された「AUDIO AUGUMENTED REALITY USING ANC HEADSET」という名称の仮出願第61/445974に基づく優先権を主張する。
[0002]本開示は、音声信号処理に関する。
[0003]「拡張現実(augmented reality)」(またはAR)という用語は、コンピュータによって生成される知覚による入力を通じて知覚された環境の拡張を指す。それに対して「仮想現実(virtual reality)」という用語は、現実の環境をシュミレーションされた環境と置き換えることを指す。
[0004]現実の視覚的な拡張は、広く実証されている。映像のアプリケーションでは、環境の元の要素を対応する拡張要素と、その元の要素を隠す(cover up)ために不透明なオーバーレイとして拡張要素を単に適用することによって、置き換えることは比較的容易である。視覚的な拡張現実の1つの例は、現在ではフットボールゲームの放送の共通の特徴である、黄色の、コンピュータによって生成された「ファーストダウン(first down)」ラインである。
[0005]一般的な構成にしたがってマルチチャネル信号を処理する方法は、対ノイズ信号を作り出すために、マルチチャネル信号の第1の音声入力チャネルにアクティブノイズ取消動作を実行することを含む。前記方法はまた、ソースコンポーネントを得るためにマルチチャネル信号を処理することも含み、前記処理することは、背景コンポーネントから前記ソースコンポーネントを分離するために前記マルチチャネル信号に空間的選択処理動作を実行することを含む。前記方法はまた、対象コンポーネントを作り出すために得られたソースコンポーネントを処理すること、ならびに音声出力信号を作り出すために対象コンポーネントに基づく拡張信号および前記対ノイズ信号を結合することも含む。有体的な特徴を読み取る機械に、そのような方法を実行させる前記特徴を持つコンピュータ可読記憶媒体(例えば、一時的でない媒体)も開示されている。
[0006]一般的な構成にしたがってマルチチャネル信号を処理する装置は、対ノイズ信号を作り出すために、前記マルチチャネル信号の第1の音声入力チャネルにアクティブノイズ取消動作を実行する手段を含む。前記装置はまた、ソースコンポーネントを得るために前記マルチチャネル信号を処理する手段も含み、前記処理することは、背景コンポーネントから前記ソースコンポーネントを分離するために前記マルチチャネル信号に空間的選択処理動作を実行することを含む。前記装置はまた、対象コンポーネントを作り出すために得られたソースコンポーネントを処理する手段、ならびに音声出力信号を作り出すために前記対象コンポーネントに基づく拡張信号および前記対ノイズ信号を結合する手段も含む。
[0007]別の一般的な構成にしたがってマルチチャネル信号を処理する装置は、対ノイズ信号を作り出すために、前記マルチチャネル信号の第1の音声入力チャネルにアクティブノイズ取消動作を実行するように構成されたアクティブノイズ取消フィルタを含む。前記装置はまた、ソースコンポーネントを得るために前記マルチチャネル信号を処理するように構成された拡張現実処理モジュールも含む。前記拡張現実処理モジュールは、背景コンポーネントから前記ソースコンポーネントを分離するために前記マルチチャネル信号に空間的選択処理動作を実行するように構成された空間的選択フィルタ、ならびに(A)対象コンポーネントを作り出すために得られたソースコンポーネントを処理し、(B)前記対象コンポーネントに基づく拡張信号を出力する、ように構成された拡張モジュールを含む。前記装置はまた、音声出力信号を作り出すために前記拡張信号および前記対ノイズ信号を結合するように構成された音声出力ステージも含む。
一般的な構成にしたがった、方法M100のフローチャート。 ユーザの右耳に着けられているヘッドセットHS10の使用の上方視点の図。 ワイヤレスヘッドセットHS10の様々な視点のうちの1つの図。 ワイヤレスヘッドセットHS10の様々な視点のうちの1つの図。 ワイヤレスヘッドセットHS10の様々な視点のうちの1つの図。 ワイヤレスヘッドセットHS10の様々な視点のうちの1つの図。 マルチマイクロフォンの携帯型音声感知デバイスHS20の様々な視点のうちの1つの図。 マルチマイクロフォンの携帯型音声感知デバイスHS20の様々な視点のうちの1つの図。 マルチマイクロフォンの携帯型音声感知デバイスHS20の様々な視点のうちの1つの図。 マルチマイクロフォンの携帯型音声感知デバイスHS20の様々な視点のうちの1つの図。 イヤカップの右側のインプリメンテーションECR10の平面断面図。 イヤカップの右側のインプリメンテーションECR20の平面断面図。 イヤカップの右側のインプリメンテーションECR30の平面断面図。 イヤカップの右側のインプリメンテーションECR40の平面断面図。 イヤカップの右側のインプリメンテーションECR50の平面断面図。 イヤカップの右側のインプリメンテーションECR60の平面断面図。 ヘッドフォンのペアの通常使用ケースの上方視点の図。 ヘッドフォンのペアの通常使用ケースの正面視点の図。 一般的な構成にしたがった、装置A100のブロック図。 頭部装着型ANCデバイスと処理デバイスPD10との間の装置A100の要素の区分の1つの例を示す図。 音声前処理ステージAP10を含む配列のブロック図。 音声前処理ステージAP10のインプリメンテーションAP20を含む配列のブロック図。 音声前処理ステージAP10のインプリメンテーションAP20を含む配列のブロック図。 イヤバットEB10の左手の例を示す図。 装置A100のインプリメンテーションA200のブロック図。 イヤバットEB20の左手の例の側面視点の図。 イヤバットEB30の例の正面視点の図。 マイクロフォンML10およびMR10を搬送するイヤバットの使用ケースを示す図。 装置A200のインプリメンテーションA210のブロック図。 ここで記述されるようにマイクロフォンおよび/またはスピーカを搬送するように使用されうるデバイスの追加の例を示す図。 ここで記述されるようにマイクロフォンおよび/またはスピーカを搬送するように使用されうるデバイスの追加の例を示す図。 ここで記述されるようにマイクロフォンおよび/またはスピーカを搬送するように使用されうるデバイスの追加の例を示す図。 ここで記述されるようにマイクロフォンおよび/またはスピーカを搬送するように使用されうるデバイスの追加の例を示す図。 ここで記述されるようにマイクロフォンおよび/またはスピーカを搬送するように使用されうるデバイスの追加の例を示す図。 モジュールAR10のインプリメンテーションAR20のブロック図。 拡張モジュールAM10のインプリメンテーションAM20のブロック図。 SSPモジュールSM10のインプリメンテーションSM20のブロック図。 3つの空間セクタの中の所望の1つを選択する例を示す図。 5つの空間セクタの中の所望の1つを選択する例を示す図。 装置A210のインプリメンテーションA200のブロック図。 複数の選択可能な空間的セクタの例の上方視点の図。 提案されたスキームが「人工耳(bionic ear)」のアプリケーションをサポートするように使用される例を示す図。 提案されたスキームが「人工耳」のアプリケーションをサポートするように使用される例を示す図。 露出した耳の状態のユーザAに対する知覚されたサウンド利得の空間的パターンの例を示す図。 ユーザAに対する知覚されたサウンド利得の空間的パターンの例を示す図。 分離されたソースコンポーネントに対する知覚された音声利得の空間的パターンの例を示す図。 対象コンポーネントに対する知覚された音声利得の空間的パターンの例を示す図。 ユーザAに対する知覚されたサウンド利得の空間的パターンの例を示す図。 提案されたスキームが生のスピーチの翻訳をサポートするように使用される例を示す図。 提案されたスキームが生のスピーチの翻訳をサポートするように使用される例を示す図。 サウンド利得の空間的パターンの例を示す図。 サウンド利得の空間的パターンの例を示す図。 サウンド利得の空間的パターンの例を示す図。 サウンド利得の空間的パターンの例を示す図。 拡張現実処理モジュールAR10のインプリメンテーションAR30のブロック図。 拡張モジュールAM20およびAM30のインプリメンテーションAM40のブロック図。 拡張モジュールAR20のインプリメンテーションAR100のブロック図。 一般的な構成にしたがった装置MF100のブロック図。 一般的なANCシステムのブロック図。 ヘッドセットHS10のインプリメンテーションHS15の例を示す図。 ヘッドセットHS20のインプリメンテーションHS25の例を示す図。 イヤバットEB30のインプリメンテーションEB32を示す図。 イヤカップECR20のECR15を示す図。 イヤカップECR20のECR25を示す図。
[0047]音声環境を効率的に制御することは困難であるため、現実の音声拡張は追跡されない。例えば、入ってくるサウンド要素は、映像の要素のような簡易のオーバーレイで取り除かれることはできず、ユーザの耳への自然のサウンドの到着を選択的にパスし、ブロックすることは難しい。
[0048]従来の聴取支援は、環境サウンドを聴取するユーザの能力を強化するために使用されうる。聴取支援は環境サウンドを増幅することができるけれども、しかしながらそれは、そのようなデバイスが音声現実を拡張するのに十分な制御を提供しないように、それらをブロックしない。受動的なヘッドセットが環境サウンドをブロックするように使用されてきたけれども、それらのブロック能力は制限されている。
[0049]アクティブノイズ取消(active noise cancellation)(ANC)ヘッドセットが、あらかじめ記録された媒体または遠隔通信を傾聴する間に環境サウンドを取消するように使用されうる。ここで記述されるシステム、方法、および装置は、環境サウンドの拡張および選択的な制御を提供するために、マルチマイクロフォンの(例えば、立体音響の)アクティブノイズ取消(ANC)ヘッドセットと共に使用されうる。音声拡張現実の種々の使用ケースおよびANCヘッドセットとモバイルデバイスを通じたその効率的なインプリメンテーションが開示されている。
[0050]その文脈によって明示的に限定されない限り、「信号」という用語は、ここでは、ワイヤ、バス、または、他の送信媒体上で表現されているような、メモリロケーションの状態(または、1組のメモリロケーション)を含む、その一般的な意味のいずれかを示すために使用される。その文脈によって明示的に限定されない限り、「発生させる」という用語は、ここでは、計算する、または、そうでなければ作り出すなどのような、その一般的な意味のうちのいずれかを示すために使用される。その文脈によって明示的に限定されない限り、「計算する」という用語は、ここでは、算出する、評価する、推定する、および/または、複数の値から選択するなどのような、その一般的な意味のうちのいずれかを示すために使用される。その文脈によって明示的に限定されない限り、「得る」という用語は、計算する、導出する、(例えば、外部デバイスから)受信する、および/または、(例えば、記憶要素のアレイから)取り出すなどのような、その一般的な意味のうちのいずれかを示すために使用される。その文脈によって明示的に限定されない限り、「選択する」という用語は、識別する、示す、適用する、および/または、2つ以上の組のうちの少なくとも1つ、および、2つ以上の組のうちのすべてより少ないものを使用するなどのような、その一般的な意味のうちのいずれかを示すために使用される。本記述および特許請求の範囲において、「備える」という用語が使用されている場合、それは、他の要素または動作を除外しない。(「AはBに基づく」のような)「に基づいて」という用語は、(i)「から導出する」(例えば、「Bは、Aの前身(precursor)である」)、(ii)「に少なくとも基づいて」(例えば、「Aは少なくともBに基づく」)、および、特定の文脈で適切な場合には、(iii)「に等しい」(例えば、「AはBに等しい」)のケースを含む、その一般的な意味のうちのいずれかを示すために使用される。同様に、「に応答して」という用語は、「に少なくとも応答して」を含む、その一般的な意味のうちのいずれかを示すために使用される。
[0051]マルチマイクロフォンの音声感知デバイスのマイクロフォンの「ロケーション」に対する参照は、文脈によって他の方法で示されていない限り、マイクロフォンの音響的に感知できる面の中心のロケーションを示している。「チャネル」という用語は特定の文脈にしたがって、あるときには信号パスを示すように、および、またあるときにはこのようなパスによって運ばれる信号を示すように使用される。他の方法で示されていない限り、「一連の」という用語は、2つ以上のアイテムのシーケンスを示すために使用される。「対数」という用語は、十進法の対数を示すために使用されるが、このような動作の他の底への拡張は、本開示の範囲内にある。「周波数コンポーネント」という用語は、(例えば、高速フーリエ変換によって作り出されるような、)信号の周波数ドメイン表現のサンプル、または、信号のサブバンド(例えば、バーク尺度またはメル尺度のサブバンド)などのような、信号の周波数または周波数帯域の組の中の1つを示すために使用される。
[0052]他の方法で示されていない限り、特定の特徴を持つ装置の動作の何らかの開示は、類似する特徴を持つ方法を開示する(およびその逆もまた同じである)ことも明示的に意図されており、特定の構成にしたがった装置の動作の何らかの開示は、類似する構成にしたがった方法を開示する(およびその逆もまた同じである)ことも明示的に意図されている。「構成」という用語はその特定の文脈によって示されているような、方法、装置、および/または、システムを参照して、使用されうる。「方法」、「プロセス」、「手順」、および、「技法」という用語は、特定の文脈によって他の方法で示されていない限り、包括的におよび交換可能に使用される。「装置」および「デバイス」という用語もまた、特定の文脈によって他の方法で示されていない限り、包括的におよび交換可能に使用される。通常、「要素」および「モジュール」という用語は、より大きな構成の一部を示すために使用される。その文脈によって明示的に限定されない限り、「システム」という用語は、ここでは、「共通の目的を供給するために対話する要素のグループ」を含む、その一般的な意味のうちのいずれかを示すために使用される。文書の一部を参照することによる何らかの組み込みもまた、その一部の内で参照される用語の定義または変数を組み込むことが理解されるだろう。ここで、そのような定義は、文書中とともに、組み込まれている一部において参照されている何らかの図面中のどこかに表れる。
[0053]発せられたサウンドフィールドの近接場(near-field)および遠隔場(far-field)の領域において、波形がそれぞれ、球形ならびに平面であることが前提とされうる。近接場は、サウンド受信機(例えば、マイクロフォンアレイ)から1波長よりも短く離れた空間のその領域として定義されうる。この定義の下では、領域の境界までの距離は、周波数に反比例して変わる。200、700、および2000ヘルツの周波数では、例えば、1波長の境界までの距離は、それぞれ、およそ、170、49、および17センチメールである。代わりに、近接場/遠隔場の境界を、マイクロフォンアレイからの特定の距離(例えば、アレイのマイクロフォンから、または、アレイの重心から50センチメートル、あるいは、アレイのマイクロフォンから、または、アレイの重心から1メートルまたは1.5メートル)におけるものであると考慮することが有用であるかもしれない。
[0054]アクティブノイズ取消(ANC、またはアクティブノイズ軽減とも称される)は、「逆位相」または「対ノイズ」の波形とも称される、(例えば同じレベルで逆の位相を有する)ノイズ波の逆の形態である波形を生成することによって空間において音響ノイズをアクティブに低減する技術である。ANCシステムは、概して、外部のノイズ基準信号を拾うために1つまたは複数のマイクロフォンを使用し、ノイズ基準信号から対ノイズ波形を生成し、1つまたは複数のスピーカを通じて対ノイズ波形を再現する。この対ノイズ波形は、ユーザの耳に到達するノイズのレベルを軽減するために、元のノイズ波に破壊的に干渉する。
[0055]ANCヘッドセットは、ここで記述されるように、環境サウンドのユーザの耳への移動を制御し、ユーザの環境傾聴能力を向上させる効率的なメカニズムとして使用されうる。提案されるスキームでのANCヘッドセットの使用は、仮想音声と現実の音声信号の、従来の拡張現実の技法で利用可能なものよりも効率的な置き換えを提供することができる。
[0056]ANCヘッドセットは、通常、環境サウンドを捕捉するために、ユーザの耳の近くに位置付けられる1つまたは複数の基準マイクロフォンを含む。そのような1つまたは複数のマイクロフォンはまた、拡張現実のアプリケーションのための音声信号を捕捉するために有利に位置し、空間的多様性に基づく選択的な信号処理および拡張のための環境サウンドの選択的な捕捉および処理を提供するように使用されうる。
[0057]図1Aは、タスクT100、T200、T300、およびT400を含む一般的な構成にしたがった、マルチチャネル信号を処理する方法M100のフローチャートを提示している。タスクT100は、対ノイズ信号を作り出すために、マルチチャネル信号の第1の音声入力チャネルにANC動作を実行する。タスクT200は、マルチチャネル信号のソースコンポーネントを得るために、第1の音声入力チャネルおよび第2の音声入力チャネルを含むマルチチャネル信号を処理する。タスクT200は、マルチチャネル信号の背景コンポーネントからソースコンポーネントを分離するためにマルチチャネル信号に空間的選択処理(SSP)動作を実行することを含む。タスクT300は、対象コンポーネントを作り出すために、得られたソースコンポーネントを処理する。タスクT300は、通常、得られたソースコンポーネントの知覚力を増加させることを含む。タスクT400は、音声出力信号を作り出すために対象コンポーネントに基づく拡張信号および対ノイズ信号を結合する。
[0058]2つ以上のマイクロフォンを有する、イヤピースまたは他のヘッドセットは、方法M100のインプリメンテーションを実行するように構成されうる携帯型音声感知デバイス(例えば、通信デバイス)の一種である。そのようなヘッドセットは、ワイヤード(wired)またはワイヤレスでありうる。例えば、ワイヤレスヘッドセットは、(例えば、Bluetooth Special Interest Group, Inc., Bellevue, WAによって普及されたようなBluetoothTMプロトコルのバージョンを使用して)セルラ式電話のヘッドセットのような電話デバイスを用いた通信を介した半二重の、または全二重の電話通信をサポートするように構成されうる。
[0059]図2Aから図2Dは、方法M100のインプリメンテーションを実行するように構成されうるワイヤレスヘッドセットHS10の様々な視点を提示している。ヘッドセットHS10は、ハウジングから拡大するイヤフォンZ20および2つのマイクロフォンアレイを搬送するハウジングZ10を含む。概して、ヘッドセットのハウジングは、矩形である、そうでなければ図2A、図2B、および図2Dにおいて提示されているように(例えば、ミニブーム(miniboom)のように形作られた)引き伸ばされることができ、または、より丸くあるいはさらに円形であることもできる。ハウジングもまた、バッテリおよびプロセッサ、ならびに/あるいは他の処理回路(例えば、プリント回路版、およびそこに装着されたコンポーネント)を囲うことができ、電気ポート(例えば、ミニユニバーサルシリアルバス(USB)またはバッテリチャージのための他のポート)および1つまたは複数のボタンスイッチならびに/あるいはLEDのようなユーザインタフェース特性を含むことができる。通常、主軸に沿ったハウジングの長さは、1から3インチの範囲内にある。
[0060]方法M100のそのようなインプリメンテーションでは、第1の音声入力チャネルがヘッドセットの主要マイクロフォンによって作り出される信号に基づき、第1の音声入力チャネルがヘッドセットの二次的マイクロフォンによって作り出される信号に基づく。通常、各マイクロフォンは、音響ポートとしての役割をするハウジング内の1つまたは複数の小さなホールの後ろでヘッドセット内に装着される。図2Bから図2Dは、デバイスHS10の主要マイクロフォンのための音響ポートZ50、およびデバイスHS10の二次的マイクロフォンのための音響ポートZ40のロケーションを提示している。イヤフォンZ20は、音声出力信号に基づく音響信号を作り出す、ヘッドセットのスピーカからのサウンドをユーザの耳の穴に向ける。
[0061]ヘッドセットは、通常ヘッドセットから取り外し可能な、イヤホックZ30のような固定デバイスも含むことができる。外部イヤホックは、例えばユーザがどちらかの耳での使用のためにヘッドセットを構成することを可能にするようにリバーシブルであることができる。代わりとして、ヘッドセットのイヤフォンは、特定のユーザの耳の穴の外部により良く適合するように、異なるユーザが異なるサイズ(例えば、直径)のイヤピースを使用することを可能にする着脱可能なイヤピースを含むことができる内部固定デバイス(例えば、イヤプラグ)として設計されうる。図1Bは、ユーザの右耳に着けられているヘッドセットHS10の使用の上方視点を提示している。
[0062]図3Aから3Dは、方法M100のインプリメンテーションを実行するように構成されうるワイヤレスヘッドセットの別の例であるマルチマイクロフォンの携帯型音声感知デバイスHS20の様々な視点を提示している。デバイスHS20は、丸く、楕円形のハウジングZ12、およびイヤプラグとして構成されうるイヤフォンZ22を含む。図3Aから図3Dはまた、主要マイクロフォンのための音響ポートZ52、およびデバイスHS20の二次的マイクロフォンのための音響ポートZ42のロケーションも提示している。(例えば、ユーザインタフェースのボタンによって)主要マイクロフォンポートZ52は少なくとも部分的に塞がれうる。
[0063]2つ以上のマイクロフォンを有するイヤカップ、またはそれぞれが少なくとも1つのマイクロフォンを有する(通常、ユーザの頭上を渡って着けられるバンドによって繋がれる)イヤカップのペアは、方法M100のインプリメンテーションを実行するように構成されうる別の種類の携帯型通信デバイスである。図4Aから図5Cは、ユーザの耳への音声出力信号に基づいて音響信号を作り出すように設けられているスピーカRLS10を含む、そのようなイヤカップ(ヘッドフォンとも称される)の右側のインプリメンテーションECR10、ECR20、ECR30、ECR40、ECR50およびECR60のそれぞれの平面の横断面図を提示している。そのようなイヤカップは、耳載せ(つまり、使用中にユーザの耳にそれを囲うことなく据えるように)、または耳覆い(つまり、使用中にユーザの耳を覆うように)であるように構成されうる。これらの例はまた、イヤカップハウジング内で音響ポートを介して環境音響信号を受信し、対応する入力音声信号が基づく信号を作り出すように設けられている1つまたは複数のマイクロフォンMR10、MR20、MR30も含む。イヤカップの構造を通じてスピーカRLS10から機械的な振動を受信することからマイクロフォンを断絶することが望ましい。
[0064]ここで記述される様々な右側のイヤカップの左側の事例は類似して構成されることは理解されることになる。図6Aおよび図6Bはヘッドフォンのペアの通常使用ケースの上方の、および正面の視点をそれぞれ提示している。この例は、イヤカップECR40のインプリメンテーションECR42、対応する左側のイヤカップECL42、および2つのイヤカップを繋ぐバンドBD10を含む。
[0065]図7Aは、ANCフィルタAF10、拡張現実(AR)処理モジュールAR10、および音声出力ステージAO10を含む一般的な構成にしたがって装置A100のブロック図を提示している。装置A100は、方法M100のインプリメンテーションを実行するように使用されうる。例えば、ANCフィルタAF10は、タスクT100を実行するように使用され、AR処理モジュールAR10はタスクT200およびT300を実行するように使用され、音声出力ステージAO10はタスクT400を実行するように使用されうる。
[0066]ここで記述されるようなマルチマイクロフォンの音声感知デバイスの動作の間、2つ以上のマイクロフォンのアレイは、各チャネルが音響環境へのマイクロフォンの対応するものの応答に基づいているマルチチャネル信号を作り出す。1つのマイクロフォンは、対応するチャネルが単一のマイクロフォンを使用して捕捉されることができるものよりも音響環境のより完全な表現をまとめて提供するために互いに異なるように、別のマイクロフォンよりも直接特定のサウンドを受信することができる。
[0067]音声感知デバイスが、対応するマルチチャネル信号を作り出すためにマイクロフォンによって作り出される信号に1つまたは複数の処理動作を実行することが望ましい。例えば、そのようなデバイスは、音声前処理ステージAP10を含む、図8Aで提示されるような配列を含むことができる。音声前処理ステージAP10は、各チャネルSI10およびSI20が音響信号への対応するマイクロフォンの応答に基づくようにマルチチャネル信号MCS10を作り出すために、マイクロフォンによって作り出される信号に、アナログおよび/またはデジタルドメインにおいてインピーダンス整合、アナログデジタル変換、利得制御、ならびに/またはフィルタリングを(制限なく)含むことができる、1つまたは複数のそのような動作を実行するように構成される。
[0068]図8Bは、アナログ前処理ステージP10aおよびP10bを含む音声前処理ステージAP10のインプリメンテーションAP20を含むような配列のブロック図を提示している。1つの例では、ステージP10aおよびP10bはそれぞれ、マイクロフォンMR10およびMR20からの対応する信号にハイパスフィルタリング動作を(例えば、50、100、または200Hzのカットオフ周波数で)実行するように構成される。
[0069]前処理ステージは、デジタル信号、いわゆるサンプルのシーケンスとして対応するマルチチャネル信号を作り出すことが望ましい。例えば、音声前処理ステージAP20は、それぞれが対応するアナログチャネルをサンプリングするように設けられているアナログデジタルコンバータ(ADC)C10aおよびC10bを含む。音響アプリケーションのための通常のサンプリングレートは、約32、44.1、48、または192kHzと同じくらい高いサンプリングレートもまた使用されうるけれども、8kHz、12kHz、16kHz、および約8から16kHzの範囲内の他の周波数を含む。この特定の例では、音声前処理ステージAP20はまた、マルチチャネル信号MCS10の対応するチャネルSI10、SI20を作り出すために、それぞれが対応するデジタル化されたチャネルに1つまたは複数の前処理動作(例えば、エコー取消、ノイズ軽減、および/またはスペクトル形成)を実行するように構成されるデジタル前処理ステージP20aおよびP20bを含む。図8Cは、音声前処理ステージAP20が対応するマイクロフォンML10およびMR10によって作り出される信号に基づいて音声入力チャネルSI10およびSI20を作り出すように設けられている例を提示している。
[0070]ANCデバイスが十分に大きい(例えば、ヘッドフォン)ケースでは、装置A100はそのデバイス内でインプリメントされうる。他のケースでは、頭部装着型ANCデバイス内の装置A100のいくつかの要素、および携帯型処理デバイスPD10内の装置A100の他の要素をインプリメントすることが望ましい。そのような処理デバイスの例は、制限なく、セルラ式電話のヘッドセット、スマートフォン、または他のモバイル通信デバイス、パーソナルデジタルアシスタント(PDA)または他のコンパクトなコンピューティングデバイス、ならびにノートブックコンピュータ、ラップトップコンピュータ、ネットブックコンピュータ、タブレットコンピュータ、または他の携帯型コンピューティングデバイスを含む。図7Bは、頭部装着型ANCデバイス(例えば、ここで記述されるような、ヘッドセット、イヤカップ、またはイヤバッド)と処理デバイスPD10との間の装置A100の要素のそのような区分の1つの例を提示している。この例では、装置A100の部分A102A(つまり、ANCフィルタAF10および音声出力ステージAO10)は、ANCデバイス内でインプリメントされ、装置A100の部分A102B(つまり、AR処理モジュールAR10)は、PD10内でインプリメントされる。装置A100のこの、および他のインプリメンテーションでは、ANCフィルタAF10が、アナログドメインまたはデジタルドメインでANCフィルタリングを実行するためにインプリメントされ、さらに音声出力ステージAO10は、アナログドメインおよびデジタルドメインで出力信号SO10を作り出すために信号SG10とSA10を結合するようにインプリメントされうる間に、AR処理モジュールAR10は通常、デジタルドメインで実行される。
[0071]チャネルSI10とSI20との通信、および携帯型処理デバイスPD10とANCデバイスとの間の信号SG10は、ワイヤードおよび/またはワイヤレス送信チャネルを渡って生じうる。そのような通信リンクをサポートするために使用されうる、ワイヤレス方法の例は、Bluetooth(登録商標)(例えば、 [クラッシクBluetooth、Bluetoothハイスピード、およびBluetoothローエネルギープロトコルを含む]Bluetoothコア仕様バージョン4.0中で記述されているような、ヘッドセットまたは他のプロファイル、Bluetooth SIG,Inc.,Kirkland,WA)、ピーナツ(QUALCOMM Incorporated,SanDiego,CA)、およびZigBee(登録商標)(例えば、ZigBee2007仕様および/またはZigBeeRF4CE仕様中で記述されている、ZigBee Alliance,San Ramon,CA)のような、(例えば、数インチから数フィートまでの)短距離通信用の低電力無線仕様を含む。そのようなデバイス間で使用されうる他のワイヤレス送信チャネルは、赤外線および超音波のような非無線チャネルを含む。
[0072]別の例では、マイクロフォンおよびスピーカが1つまたは複数のイヤバット内でインプリメントされる。図9Aは、コード付きのインプリメンテーションでの、スピーカLLS10およびマイクロフォンML10およびML20を含むイヤバッドEB10の左手の例を提示している。この例では、マイクロフォンML20は、マイクロフォンML10から約3から4センチメートルの距離でコードCD10の半硬質のケーブル部分CB10に装着される。半硬質ケーブルCB10は、フレクシブルで軽量であるけれども、マイクロフォンML20が使用中に(例えば、マイクロフォンML10に対して)比較的一定の方向に向けられたままにするのに十分固いように構成されうる。図10Aは、マイクロフォンML20は、マイクロフォンML20が使用中に(例えば、マイクロフォンML10に対して)比較的一定の前方方向に向けられるように、マイクロフォン20がイヤバットでコードCD20の張力緩和部分内に装着される別のイヤバッドEB20の左手の例の側面を提示している。
[0073]別の例では、マイクロフォンML10およびMR10は、イヤバッドのペアのそれぞれのものの内でインプリメントされる。図10Bは、左のスピーカLLS10および左のマイクロフォンML10を含むイヤバッドEB30の例の正面の視点を提示している。使用中に、イヤバッドEB30は、(例えば、コードCD30を介して受信される音声出力信号SO10の事例から)左のスピーカLLS10によって作り出される音響信号をユーザの耳の穴に向けるようにユーザの左耳に着けられる。音響信号をユーザの耳の穴に向けるイヤバッド(例えば、EB10、EB20、EB30)の部分が、それがユーザの耳の穴の封止を形成するように心地よく着けられうるように、エラストマー(例えば、シリコンゴム)のような回復機能を有するマテリアルによって作られる、またはカバーされることが望ましい。
[0074]拡張現実のアプリケーションが信号をユーザの耳にパスするケースでは、ANCヘッドセットは、(例えば、両耳のキュー(cue)に関して)もっとも高い忠実度のサウンドも供給することができる。図9Bは、第2のANCフィルタAF20および第2の音声出力ステージAO20を含む装置A100のインプリメンテーションA200のブロック図を提示している。ANCフィルタAF10の第2の事例AF20は、第2の音声入力チャネルSI20に基づく第2の対ノイズ信号SA20を作り出すように構成され、音声出力ステージAO10の第2の事例AO20は、第2の音声出力信号SO20を作り出すために拡張信号SG10を対ノイズ信号SA20と結合するように構成される。
[0075]装置A200を含むデバイスは、通常、それぞれ、第1の音声入力信号SI10を作り出し、音声出力信号SO10によって駆動されるための(例えば、ここで記述されるようなヘッドセット、イヤカップ、またはイヤバッド内の)ユーザの耳の1つに着けられるスピーカおよびマイクロフォン、ならびに、それぞれ、第2の音声入力信号SI20を作り出し、音声出力信号SO20によって駆動されるための(例えば、ここで記述されるような別のヘッドセット、イヤカップ、またはイヤバッド内の)ユーザの耳のもう片方に着けられる別のマイクロフォンおよびスピーカを含むように構成される。例えば、装置A200は、ここで記載されるような、ヘッドセット、イヤカップ(例えば、ヘッドフォン)、またはイヤバッドのペアの1つまたは両方内で、ならびに/または携帯型処理デバイスPD10の事例内でインプリメントされうる。装置A200がワイヤレスヘッドセットのペアでインプリメントされるケースでは、そのようなヘッドセットは、ここで記述されるワイヤレスチャネルのいずれかを使用して、デバイスPD10および/または互いにそれぞれの音声入力および出力信号を転送するように構成されうる。
[0076]装置A100は、少なくとも2つのマイクロフォンから音声入力信号を受信するようにインプリメントされるけれども、より良い性能(例えば、増大した方向感度)は、2つより多いマイクロフォンが使用される場合に期待されうる。図11は、AR処理モジュールAR10のインプリメンテーションAR12を含む装置A200のインプリメンテーションA210のブロック図を提示している。この例では、モジュールAR12は、背景コンポーネントからソースコンポーネントを分離するために、音声入力チャネルSI10、SI20およびSI30に空間的選択処理動作を実行するように構成される。音声入力チャネルSI30は、頭部装着型マイクロフォンの配置の様々な例を参照してここで記述されるように追加のマイクロフォンML20、MR20、またはMC10によって作り出される信号に基づくことができる。AR処理モジュールAR10は、4、5、または任意のより大きな数の音声入力チャネルを処理するような方法で同様に拡張されうることは理解されることになる。
[0077]図10Cは、マイクロフォンML10、MR10、および対応する左ならびに右のスピーカ(図示せず)を搬送するイヤバッドが、コードCD40を渡って、携帯型メディアプレイヤPD20としての携帯型処理デバイスPD10のインプリメンテーションに音声入力信号SI10、SI20、SI30を、そのインプリメンテーションから音声出力信号SO10、SI20を転送するようにインプリメントされる使用ケースを提示している。このケースでは、第3の音声入力信号SI30は、コード装着型マイクロフォンML20によって作り出される信号に基づく。
[0078]図12A―図12Eは、ここで記述されるようにマイクロフォンおよび/またはスピーカを搬送するように使用されうるデバイスの追加の例を提示している。図12Aは、テンプルに装着された両耳のペアの各マイクロフォンML10、MR10、およびテンプルまたは対応する末端部に装着された別のマイクロフォンMR20を有する眼鏡(例えば、度付き眼鏡、サングラス、または保護眼鏡)を提示している。図12Bは、マイクロフォンMC10は、ユーザの顔(例えばユーザの口)の前に装着され、両耳のペアML10、MR10の各マイクロフォンがユーザの頭の対応する側に装着されるヘルメットを提示している。図12C−Eは、両耳のペアML10、MR10の各マイクロフォンがユーザの頭の対応する側に装着されるゴーグル(例えば、スキーゴーグル)の例を提示しており、これらの例の各々は、追加のマイクロフォンMC10に対する異なる対応する位置を提示している。ここで記述されているような装置A100のインプリメンテーションでの使用のためのマイクロフォンに関する追加の例は、キャップまたは帽子のサンバイザあるいはツバ、折り襟、胸のポケット、またはショルダに限定はされないが含む。
[0079]アクティブノイズ取消フィルタAF10は、第1の入力音声チャネルSI10を受信し、対応する対ノイズ信号SA10を作り出すためにアクティブノイズ取消動作を実行するように構成される。通常、振幅において音響ノイズと適合し、位相において音響ノイズと反対であるように対ノイズ信号SA10を生成するようにANCフィルタAF10を構成することが望ましい。フィルタAF10はまた、最適なノイズ取消を達成するように、信号処理動作(例えば、時間遅延適合または最小化、利得増幅、および/または周波数応答等化)を実行することもできる。ANCフィルタAF10を(例えば、高振幅な低周波数の音響信号を減衰させるために)信号をハイパスでフィルタリングするように構成することが望ましい。加えて、または代わりとして、ANCフィルタAF10を、(例えば、ANC効果が高周波数で周波数に伴って減少するように)信号をローパスでフィルタリングするように構成することが望ましい。対ノイズ信号SA10は、音響ノイズがマイクロフォンからスピーカまで移動する時間まで利用可能であるべきなので、ANCフィルタAF10によって引き起こされる処理遅延は、非常に短い時間(通常約30−60マイクロ秒)を越えるべきではない。
[0080]フィルタAF10は、アナログドメインおよび/またはデジタルドメインで、ならびに時間ドメインおよび/または変換ドメイン(例えば、フーリエ変換あるいは他の周波数ドメイン)で、ANC動作を実行するように構成されうる。対ノイズ信号SA10を作り出すためにANCフィルタAF10によって実行されうるANC動作の例は、位相反転フィルタリング動作、最小二重平均(LMS)フィルタリング動作(例えば、米国特許出願公開番号第2006/0069566号(Nadjar et al.)およびその他で記述されているようなフィルタリングされた参照番号(「フィルタリングされたX(filtered-x)」)LMS)および(例えば、米国特許番号第5105377号(Ziegler)で記述されているような)デジタル仮想地球アルゴリズムを含む。ANCフィルタAF10によって実行されうるLMSフィルタリング動作の他の例は、フィルタリングされたエラー(「フィルタリングされたE(filtered-E)」)LMS、フィルタリングされたU(filtered-U)LMS、および他の変数(例えば、サブバンドLMS、ステップサイズに通常化された(step-size-normalized)LMSなど)を含む。
[0081]デジタルドメインにおいて非常に低い遅延(例えば、約10マイクロ秒)を得るために、パルス密度変調(PDM)ドメインにおいてANCフィルタリングを実行し、ならびにパルスコード変調(PCM)ドメインにおいて遂行するアルゴリズムを用いてこのPDMフィルタの係数を適応させるようにANCフィルタAF10をインプリメントすることが望ましい。そのようなケースでは、PDMドメインは、低い解像度(例えば、1、2、または4ビットのビット幅)および非常に高いサンプリングレート(例えば、約100kHz、1MHz、またはさらに10MHz)を有し、PCMドメインは、より高い解像度(例えば、8、10、12、または16ビットもしくはさらに高いビット幅)およびより低いクロックレート(例えば、8、12、16、32、44.1、または48kHzのような、約1または10kHz(e.g., on the order of one or ten kHz, such as eight, 12, 16, 32, 44.1, or 48 kHz))を有する。PDMフィルタリングは、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、または特定用途向け規格品(application-specific standard product(ASSP))のような、デジタルハードウェアによって実行されうる。PCM適応は、ソフトウェア(例えば、DSPのようなプロセッサによる遂行のための命令)を使用するPCMドメインにおける適応ANCアルゴリズムのインプリメンテーションを用いて実行されうる。ANCフィルタAF10のそのようなインプリメンテーションの例は、2011年1月13日に公表され、「SYSTEMS, METHODS, APPARATUS, AND COMPUTER-READABLE MEDIA FOR ADAPTIVE ACTIVE NOISE CANCELLATION」という名称の米国特許出願第2011/0007907号において記述されている。(ANCフィルタAF20は、ここで記述されるようなANCフィルタAF10の第2の事例として同様に実行されうることは留意されたい。)
[0082]拡張現実処理モジュールAR10は、第1の音声入力チャネルSI10および第2の音声入力チャネルSI10を含むマルチチャネル信号を処理し、拡張信号SG10を作り出すように構成される。図13Aは、空間的選択処理(SSP)モジュールSM10および拡張モジュールAM10を含むモジュールAR10のインプリメンテーションAR20のブロック図を提示している。
[0083]空間的選択処理(SSP)モジュールSM10は、背景コンポーネントからマルチチャネル信号のソースコンポーネントSC10を分離するようにマルチチャネル信号にSSP動作を実行するように構成されたSSPフィルタを含むように構成される。そのようなSSP動作は、例えば、音声入力チャネル間の位相の差異および/または利得の差異に基づくことができる。マイクロフォンアレイの軸に近い近隣のソースからのサウンドは、例えば、利得の差異に基づいて、背景コンポーネント(例えば、遠隔ソースからのサウンドおよび拡散したサウンド)とは区別されうる。1つの例では、SSPフィルタは、しきい値を満たす(代わりとして超える)チャネル間の利得の差異を有するフレームが他のフレームから分離されるように、近接に基づいてソースコンポーネントを分離するようにインプリメントされる。そのようなケースでは、各チャネルに関するフレームの利得は、時間ドメインでは、総合のエネルギー(例えば、定められた(squared)サンプルの合計)または、サンプル毎の平均のエネルギーとして、あるいは周波数ドメインでは、例えば、定められた(squared)大きさ(magnitude)の合計に基づいて計算されうる。
[0084]チャネル間の利得の差異はまた、望ましい範囲の方向から(つまり、マイクロフォンのアレイの軸に対して)到着する信号を、背景コンポーネント(例えば、他の方向から到着するサウンド)から分離するために使用されうる。図14Aは、3つの空間セクタ(つまり、エンドファイア(endfire)セクタ1、ブロードサイドセクタ2、およびエンドファイアセクタ3)のうちの望ましい1つから到着する信号を他の信号から分離するために、マルチチャネル信号のフレームnに関する利得の差異GD[n]と利得の差異のしきい値Tとの間の関係の状態を使用する例を提示している。図14Bは、SSPフィルタが5つの空間セクタのうちの望ましい1つから到着する信号を選択するために、利得の差異GD[n]と第1の利得の差異のしきい値TL1との間の関係の状態、および利得の差異GD[n]と第2の利得の差異のしきい値TL2との間の関係の状態を使用する例を提示している。図15は、ワイヤレスヘッドセットHS10および単一マイクロフォンのヘッドセットHS30を含むインプリメンテーションにおける複数の選択可能な空間セクタの別の例の上方視点の図を提示している。
[0085]チャネル間の位相の差異はまた、望ましい範囲の方向から到着する信号を、背景コンポーネント(例えば、他の方向から到着するサウンド)と分離するために使用されうる。そのようなケースでは、マルチチャネル信号におけるその位相の差異が望ましい範囲内にある到着の方向を示す周波数のビンのみをパスすることによって音声入力チャネルの1つまたは複数から空間的に分離されたソースコンポーネントを作り出すようにSSPフィルタを構成することが望ましい。
[0086]マルチチャネル信号の「方向の一貫性(directional coherence)」は、信号の様々な周波数コンポーネントが同じ方向から到着する程度として定義される。理想的な方向的に一貫したチャネルペアでは、周波数に対する位相の差異の割合の値は、全ての周波数に対して一定のkに等しく、ここにおいてkの値は、到着の方向θ、および到着の時間遅延τに関連する。別の例では、SSPフィルタは、望ましい範囲の方向内で十分に方向的に一貫しているフレームをパスするように構成されている。
[0087]SSPモジュールSM10内のSSPフィルタによって実行されうる方向的選択SSP動作の他の例は、ビームフォーミングおよびブラインド音源分離(blind source separation(BSS))を含む。対応する方向でコンポーネントを選択するために1つまたは複数のフィルタを生成するように使用されうるビームフォーミングのアプローチの例は、一般化されたサイドローブキャンセレーション((genelized sidelobe cancellation)GSC)、最小分散無歪み応答(minimum variance distortionless respomse(MVDR))および線形制約された最小分散(linearly constrained minimum variance(LCMV))ビームフォーマを含む。BSS方法の例は、干渉ポイントソースに対してヌルビームを向けることによって動作する、独立コンポーネント分析(ICA)および独立ベクトル分析(IVA)を含む。
[0088]SSPフィルタは、(例えば、ユーザの前方方向から到着する信号を、他の方向から到着する信号を含む背景コンポーネントから分離するために)固定された方向で空間的選択処理動作を適用するように構成されうる。代わりとして、到着の望ましい方向は選択され、そうでなければ、例えばデバイスPD10のユーザインタフェース(例えば、タッチスクリーンのディスプレイ)を介してユーザによって示されうる。そのようなケースでは、SSPフィルタが、ユーザの頭が回転するにつれて(地球の重力場および/または磁場のような、固定された外部の基準に関連して)その選択された方向を適応して維持するためにインプリメントされうるように、デバイスの頭部装着部分がユーザの頭の回転を追跡するように構成された、1つまたは複数の磁気探知機、姿勢制御装置、および/または加速度計を含むことが望ましい。そのような適応は、例えば異なる利得の差異のしきい値の関連を選択すること、位相の差異と周波数の異なる割合を選択すること、異なる対応する方向に方向づけられたビームフォーミングフィルタのセットの異なる1つを選択することによって、異なる空間セクタを選択することを含みうる。
[0089]SSPフィルタによって実行されるように空間ドメインにおけるソースコンポーネントの分離に加えて、1つまたは複数の他のドメインでも同様にソースコンポーネントを分離するようにSSPモジュールSM10をインプリメントすることが望ましい。図13Cは、ここで記述されるようなSSPフィルタSF10、およびドメイン選択フィルタDF10を含むSSPモジュールSM10のインプリメンテーションSM20のブロック図を提示している。フィルタDF10は、SSPフィルタSF10によって作り出される空間的に分離されたソースコンポーネントを、それを1つまたは複数の追加のドメインにおいて分離するために処理するように構成されている。1つの例では、フィルタDF10は、スピーチアクティブフレームをスピーチ非アクティブフレームから(例えば、時間ドメインにおいて)分離するために空間的に分離されたソースコンポーネントにボイスアクティビティ検出(VAD)動作を実行するようにインプリメントされる。
[0090]そのようなVAD動作は、フレームエネルギー、信号対ノイズ比、周期性、スピーチおよび/または余剰(例えば、線形予測符号化余剰)の自己相関、ゼロ交差レート、および/または第1の反発係数のような1つまたは複数のファクタに基づきうる。そのような分類は、そのようなファクタの値または大きさをしきい値と比較すること、および/またはそのようなファクタにおける変化の大きさをしきい値と比較することを含みうる。代わりとして、または追加で、そのような分類は、1つの周波数帯域におけるエネルギーのような、そのようなファクタの値または大きさ、またはそのようなファクタにおける変化の大きさを別の周波数帯域における同様の値と比較することを含むことができる。複数の基準(例えば、エネルギー、ゼロ交差レートなど)および/または最近のVAD決定のメモリに基づいてボイスアクティビティ検出を実行するためにフィルタDF10をインプリメントすることが望ましい。フィルタDF10によって実行されうるボイスアクティビティ検出動作の1つの例は、例えば、2007年1月の「Enhanced Variable Rate Codec, Speech Service Options 3, 68, and 70 for Wideband Spread Spectrum Digital Systems」という名称の3GPP2の文書C.S0014-C, v1.0のセクション4.7(4−49から4−57頁)(www-dot-3gpp-dot-orgにおいてオンラインで利用可能である)において記述されているように、空間的に分離されたソースコンポーネントの高帯域および低帯域のエネルギーをそれぞれのしきい値と比較することを含む。
[0091]追加で、または代わりとして、フィルタDF10は、線形予測符号化(LPC)および/または時間ドメインにおけるスピーチコンテンツの分離をサポートするために、空間的に分離されたソースコンポーネントにLPC分析動作を実行するようにインプリメントされうる。1つのそのような例では、フィルタDF10は、例えばホルマント構造(例えば、狭すぎず、および/または広すぎない帯域幅)、および/またはスペクトル傾斜に基づいて他のコンテンツからスピーチフレームを分離するようにインプリメントされる。別の例では、フィルタDF10は、(例えば、男性の語り手からスピーチのみを、女性の語り手からスピーチのみを、あるいは幼児から泣き声または他の発生のみを選択するために)LPC余剰からピッチの周波数推定を計算し、示されたピッチの周波数範囲に基づいて、他のコンテンツから特定のスピーチフレームを分離するようにインプリメントされる。そのような選択は、(例えば、デバイスPD10のユーザインタフェースを介して)ユーザによって示されうる。ピッチ推定の過程は、例えば、www-dot-3gpp-dot-orgにおいてオンラインで利用可能なEVRC(可変速度符号化(Enhanced Variable Rate Codec))の文書C.S0014-Cのセクション4.6.3(4−44から4−49ページ)において記述されている。そのようなLPC分析はまた、特定の人間からのスピーチフレームを他のスピーチコンテンツから分離するように使用されうる。
[0092]追加で、または代わりとして、フィルタDF10は、示された口語(例えば、英語のみ、または韓国語のみ)においてスピーチコンテンツのみを分離するために空間的に分離されたソースコンポーネントを処理することによってソースコンポーネントSC10を作り出すためにインプリメントされうる。選択されるべき言語は、(例えば、デバイスPD10のユーザインタフェースを介して)ユーザによって示されうる。例えば、フィルタDF10は、示された言語においてコンテンツを含む可能性のある分離されたソースコンポーネントのフレームを識別するために隠れマルコフモデル(HMM)処理を使用するようにインプリメントされうる。
[0093]拡張モジュールAM10は、対象コンポーネントを作り出すために、ならびにその対象コンポーネントに基づく拡張信号SG10を作り出すためにソースコンポーネントSC10に拡張動作を実行するように構成されている。図13Bは、拡張信号SG10として対象コンポーネントTC10を出力するように構成される拡張モジュールAM10のインプリメンテーションAM20のブロック図を提示している。拡張モジュールAM20は、ソースコンポーネントSC10の知覚力を増加させることによって、対象コンポーネントTC10を作り出すためにソースコンポーネントSC10を処理するように構成されるソース処理モジュールPM10を含む。
[0094]ソースコンポーネントSC10の知覚力を増加させるためにソース処理モジュールPM10によって実行されうる動作の例は、増幅、等化、脱残響、ノイズ低減、スピーチスピードの修正、およびスピーチピッチのシフトを、限定ではなく、含む。そのような動作は、例えばデバイスPD10のユーザインタフェース(例えば、タッチスクリーンのディスプレイ)を介してユーザによって選択および/または構成されうる。
[0095]ソース処理モジュールPM10は、推定された室内伝達関数を使用してコンポーネントを逆フィルタリングすることによってソースコンポーネントSC10を脱残響するようにインプリメントされうる。ソースコンポーネントSC10を白色化する(whitening)ことなく、そのような逆フィルタリングを実行することが望ましい。1つの例では、ソースコンポーネントSC10が空間的に分離される背景コンポーネントは、逆にされた室内伝達関数を推定するために使用される。
[0096]ソース処理モジュールPM10は、ユーザの選好にしたがってソースコンポーネントSC10を等価する、ならびに/あるいはユーザの聴力低下を補う(例えば、高周波数を増強する)ためにインプリメントされうる。別の例では、ソース処理モジュールPM10は、ソースコンポーネントSC10の低周波数コンテンツを調和的に広げることによって、心理音響的バス増強(psychoacoustic bass enhancement(PBE))動作を実行するようにインプリメントされる。そのような動作は、低周波数コンテンツの知覚力および/または操向の能力(directability)を増強することができる。
[0097]ソース処理モジュールPM10は、ソースコンポーネントSC10にノイズ低減動作を実行するようにインプリメントされうる。そのような動作は、例えば、非スピーチインターバルの間にソースコンポーネントSC10のレベルを低減すること、および/またはソースコンポーネントSC10からのノイズ推定の空間的減算を含み、ノイズ推定は、非スピーチインターバルを渡った時間平均として、および/または非スピーチ方向から到着するコンポーネント(例えば、ソースコンポーネントSC10が空間的に分離されている背景コンポーネント)のスペクトルに基づいて、周波数ドメインにおいて計算される。
[0098]ソース処理モジュールPM10は、ソースコンポーネントSC10にスピーチスピード変更動作を実行するようにインプリメントされうる。時間に関してスピーチ信号を拡大または圧縮することによって実行されるそのような動作は、通常、スピーチコンテンツのスピードを減速するように使用され、ピッチ情報を提供する、余剰からホルマント構造を分離するためのLPC分析動作を含む。ソース処理モジュールPM10は、各フレームの長さを拡大すること、ピッチ周期を有声のスピーチセグメントに挿入して(例えば、ランダムエキサイテーション(excitation)信号を使用して)同様に無声のスピーチセグメントを拡大して、スピーチコンテンツを再生するために望ましいスピードでLPC合成動作を実行することによってそのような減速を実行するようにインプリメントされうる。そのような減速することはまた、沈黙期間を時間拡大されたスピーチコンテンツと置き換えることも含むことができる。そのようなスピーチスピード変更動作は、スピード変更ファクタ(例えば、0.7、0.75、0.8、0.9、1.1、1.2、1.25、1.3など)を選択することによってユーザにより構成されうる。
[0099]ソース処理モジュールPM10は、スピーチコンテンツのピッチ周波数を変化させるために、ソースコンポーネントSC10にスピーチピッチ変更動作を実行するようにインプリメントされうる。ソース処理モジュールPM10は、そのような動作を、ピッチ情報を抽出するためにLPC分析動作を実行すること、フレームの長さを変化させることなく余剰の信号を圧縮または拡大すること、および望ましいピッチを有するスピーチコンテンツを再生するためにLPC合成動作を実行することによって実行するようにインプリメントされうる。そのようなスピーチスピードの修正動作は、望ましいピッチ範囲または(例えば、0.5、0.7、または0.8から1.2、1.4、1.5、1.7、または2の範囲内の)ピッチ修正ファクタを選択することによってユーザにより構成されうる。
[0100]拡張モジュールAM10(またはAM20)は、拡張信号SG10の動的範囲を圧縮するように設けられている音響利得制御(AGC)モジュールを含むように構成されうる。そのようなモジュールは、ヘッドルーム定義および/またはマスターボリューム設定を提供するように構成されうる。代わりとして、または追加で、拡張モジュールAM10(またはAM20)は、拡張信号SG10のレベルを制限するように設けられているピークリミッタを含むように構成されうる。
[0101]音声出力ステージAO10は、音声出力信号SO10を作り出すために、対ノイズ信号SA10および拡張信号SG10を結合するように構成される。例えば、音声出力ステージAO10は、対ノイズ信号SA10を拡張信号SG10と混合することによって、音声出力信号SO10を作り出すように構成されるミキサとしてインプリメントされうる。音声出力ステージAO10はまた、対ノイズ信号SA10、拡張信号SG10、デジタル形態からアナログ形態への2つの信号の混合をコンバートすることによって、ならびに/あるいはそのような信号に任意の他の望ましい音声処理動作(例えば、そのような信号のレベルをフィルタリング、増幅、そのような信号に利得ファクタを適用、および/またはそのような信号のレベルを制御する)を実行することによって、音声出力信号SO10を作り出すように構成されうる。音声出力ステージAO10はまた、スピーカ、スピーカへ至る音声周波数送信パス、および/または音声出力信号SO10を受信または転送するように設けられている、他の電子、視覚、または磁気インタフェース(例えば、音声出力ジャック、またはワイヤレス送信回路へのインタフェース)にインピーダンス一致を提供するように構成されうる。
[0102]両耳の音声出力を作り出すために、拡張信号SG10にSSP動作を実行するように、AR処理モジュールAR10をインプリメントすること(例えば、拡張モジュールAM10またはAM20をインプリメントすること)が望ましい。例えば、ソースコンポーネントの元の方向に類似する到着の知覚された方向を提供するために、ステレオ信号として拡張信号SG10を作り出すことが望ましい。そのような構成は、(例えば、視覚的に知覚されるような)現実の環境に対応する両耳のキューを作り出すことによって、ユーザの拡張現実の経験を増強することができる。図14は、AR処理モジュールAR12のインプリメンテーションAR14を含む装置A210のインプリメンテーションA220のブロック図を提示している。そのようなケースでは、AR処理モジュールAR14は、マルチチャネル入力信号から得られる(例えば、ここで記述されるような)類似の方向情報に基づいて、チャネルSG10aおよびSG10bのステレオペアとして拡張信号SG10を作り出すためのビームフォーミングまたは利得の差異(例えば、バランス制御)動作を実行する拡張モジュールAM10(またはAM20)のインプリメンテーションを含むことができる。
[0103]方法M100のインプリメンテーションのための使用ケースは、マルチチャネル信号のソースコンポーネントの知覚力を増加させるために多くの重要なアプリケーションを含む。1つのそのようなアプリケーションは、口語で「人工耳」として指されうる方向選択増幅である。別のそのようなアプリケーションは、例えば、翻訳、減速、等化、および/または増幅されてきたバージョンと受信されたスピーチ信号の実際的な置き換えである。分離されたソースコンポーネントの知覚力を増加させることによって拡張信号を作り出すための捕捉された環境サウンド(つまり、ヘッドセットによるもの、またはヘッドセットが結合されるデバイスを処理することによるもの)の処理は、到着の方向またはソースによって捕捉されたサウンドを分離すること、1つまたは複数の基準(例えば、方向、距離、スピーチ認識、サウンド分類)にしたがって関心のソースを識別すること、分離されたストリームを増強、変換、ブロック、パス、あるいはそうでなければ改めること、および/または選択されたストリームに対する有用な信号処理(例えば、個別の等化、スピードを減速すること、ピッチの変更、および/または言語の翻訳)を適用すること、のうちの1つまたは複数を含むことができる。そのような処理は、処理されたサウンドを混合すること、および結果として生じる拡張信号をユーザの耳を再生することを含むことができる。
[0104]「人工耳」のアプリケーションでは、装置A100のユーザは、環境からの特定のサウンドが、他のサウンドがブロックされ、ならびに/あるいはより知覚されない間に、環境からの特定のサウンドがより知覚可能になることを知覚する。図16Aおよび図16Bは、方法M100のインプリメンテーションが「人工耳」のアプリケーションをサポートするために実行される。図16Aは、語り手Bが「おばあちゃん、こっちに来て?」と尋ね、ユーザAが他の方向から到着する干渉サウンドのために語り手Bのスピーチを傾聴および理解することができない、現実の環境における例において起こることを描写している。
[0105]図16Bは、他のサウンドが減衰されている状態で語り手Bの要求の増幅されたバージョンである、拡張現実を有する同じシナリオでユーザAが傾聴するものを描写している。この例において、ANCフィルタAF10は、環境サウンドをブロックし、AR処理モジュールAR10は、1つまたは複数の特定のソースまたは方向からサウンドを分離するためにマルチマイクロフォンの空間的選択処理を実行する。そのような技法は、ユーザAの耳に特定のソース(語り手B)からのサウンドを増幅するけれども本質的な環境サウンドがユーザAの耳にパスすることをブロックすることによって、図19において提示されているような空間的音声利得パターンを得るように使用されうる。その結果は、ANCデバイスのスピーカを通じて処理および再生される、特定のソース(または方向)からのサウンド以外のほとんどの環境サウンドをユーザAが傾聴しないことである。そのような「人工耳」のアプリケーションのための他の使用ケースは、周囲のノイズを抑える間、リアルタイムの教師または講義の声を増幅することを含む。
[0106]図17Aは、露出した耳の状態のユーザAに対する知覚されたサウンド利得の空間的パターンの例を提示している。この例では、1つの耳の利得は通常の傾聴条件に等しい。図17Bは、ここで記述されるようにANCデバイスの両耳のインプリメンテーション(例えば、装置A200のインプリメンテーションを用いたヘッドセット、ヘッドフォン、またはイヤパッドのペア)を使用して、ユーザAに対する知覚されたサウンド利得の空間パターンの例を提示している。この図は、周囲の環境の知覚された利得がユーザの耳で低減される、ANCフィルタAF10およびAF20を使用して作り出される空間音声利得パターンの例を提示している。
[0107]図18Aは、タスクT200のマルチマイクロフォン信号処理動作の方向選択インプリメンテーションによって作り出される分離されたソースコンポーネントのための知覚された音声利得の空間的パターンの例を提示している。この例では、ユーザの前方方向から到着するサウンドが、他の方向から到着するサウンドがブロックされる間に、通常の利得と共にパスされる。図18Bは、ソースコンポーネントを増幅することによって作り出される対象コンポーネントのための知覚された音声の空間的パターンの例を提示している。
[0108]この「人工耳」の例では、ANC基準マイクロフォンを含むマイクロフォンアレイは、環境サウンドX(=語り手BのスピーチY+他の方向および他の環境サウンドZ)を拾い、音声入力信号SI10およびSI20を作り出す。AR処理モジュールAR10は、他のサウンドコンポーネントからスピーチコンポーネントY(つまり、ソースコンポーネントSC10)を分離するためにマルチマイクロフォンの空間的選択処理を実行する。AR処理モジュールAR10はまた、対象スピーチ信号Y´を作り出すためにスピーチ信号Yを処理する。このケースでは、そのような処理は、スピーチコンポーネントYを増幅することを含み、また、コンポーネントYを等化すること、近くの距離をシュミレーションするためにコンポーネントYを脱残響すること、および/またはコンポーネントYのスピーチコンテンツを(例えば、25%または50%単位で)低減することを含むことができる。空間的選択処理は、スケーリングされたコンポーネントZ’(=aZ、ここにおいてa<<1)を作り出すために残りのサウンドコンポーネントZのレベルを低減し、ARモジュールAR10は、拡張された信号X’(=Y’+Z’)をANCヘッドセットに生成する。ANCヘッドセットは、耳から環境のサウンドXをブロックするために対ノイズ信号を生成し、音声出力ステージAO10は、ユーザの耳に拡張された信号X’を再生する。
[0109]選択されたソースコンポーネントは、(例えば、図18Bにおいて例示されるように)増幅され、および/またはそうでなければ、コンポーネントの知覚力を増加させるために処理(例えば、ここで記述されるように等化、減速、ピッチ変更、および/または脱音響)されうる。
[0110]図20Aおよび20Bは、方法M100のインプリメンテーションが、1つの話されている言語から別のものへの実際的なスピーチの翻訳をサポートするために実行される例を提示している。図20Aは、実際に起こること(例えば、語り手Bが
Figure 0006009619
と尋ねる)を描写しており、ならびに図20Bは、ユーザAが拡張現実を用いて傾聴するもの(例えば、「あなたはスペイン語を話しますか(Do you speak Spanish?)」)を描写している。
[0111]図20Aおよび20Bにおいて提示されている例は、語り手Bの元のスピーチが、ANCデバイスによって抑えられるけれども、他の環境のサウンドが(例えば、マルチマイクロフォンに基づく側音ミキシングによって)ユーザの耳にパスされるようにインプリメントされうる。この場合、ユーザAは、語り手Bからのスピーチ以外の、周囲の環境の存在しているサウンドを傾聴する。処理デバイスPD10は、(例えば、到着の推定された方向に基づいて)語り手Bのスピーチを選択的に分離するために、(例えば、チャネル間の位相の差異、および/またはチャネル間の利得の差異に基づいて)ここで記述されるマルチマイクロフォンSSP技法を実行するように構成されうる。処理デバイスPD10はまた、スピーチ情報を抽出(例えば、認識)して翻訳し、ならびに(例えば、テキスト音声化(text-to-speech(TTS))を通じて)同時翻訳の結果を統合するようにも構成されうる。統合されたTTSのサウンドはその後、(任意で方向のキューイング(cueing)を用いて)ANCデバイスにミキシングされる。
[0112]拡張モジュールAM10(例えば、ソース処理モジュールPM10)は、(例えば、隠れマルコフに出る処理を使用して)スピーチのコンテンツを認識するためのスピーチ音声化する動作を実行し、ソース言語から対象言語に認識されたテキストを翻訳し、ならびに対象コンポーネントを作り出すためにテキスト音声化動作を実行するためにソースコンポーネント処理することによって同時スピーチ翻訳を実行するようにインプリメントされうる。拡張モジュールAM10は、ユーザによって選択されたボイスまたはピッチ(例えば、低ピッチから中ピッチのボイス)で翻訳された対象コンポーネントを作り出す、または元の語り手のボイスの1つまたは複数の特徴(例えば、ピッチ周波数)を抽出して提供する、ようにインプリメントされうる。特定のソース言語が翻訳されていることを示すアイコン(例えば、対応する国旗)を表示するようにデバイスPD10を構成することが望ましい。類似の例では、ユーザAは、減速、ピッチ変更、および/または等化された語り手Bのスピーチの同時バージョンを傾聴することができる。
[0113]図18Aは、マルチマイクロフォンの信号処理に関する音声利得の空間的パターンの例を提示している。この例では、ユーザの前方方向から到着するサウンドが、他の方向から到着するサウンドがブロックされる間に、通常の利得と共にパスされる。図21は、特定のソース(スピーカB)からのサウンドを、ユーザAの耳にパスするけれどもユーザAの耳にパスすることから包括的な環境サウンドをブロックする空間的音声利得パターンを得るための、図18Aの例のアプリケーションを提示している。
[0114]この同時翻訳の例では、ANC基準マイクロフォンを含むマイクロフォンアレイは、環境サウンドX(=語り手BのスピーチY+他の全ての環境サウンドZ)を拾い、音声入力信号SI10およびSI20を作り出す。AR処理モジュールAR10は、他のサウンドコンポーネントZからスピーチコンポーネントY(つまり、ソースコンポーネントSC10)を分離するために、マルチマイクロフォンの空間的処理を実行する。AR処理モジュールAR10はまた、対象スピーチ信号Y’を作り出すために、スピーチ信号Yを(例えば、テキスト音声化、つまり「TTS」を通じて)対象言語に翻訳し、拡張信号X’(=Y’+Z)をANCヘッドセットに生成する。代わりとして、または追加として、AR処理モジュールAR1は、Y’を生成するために50%だけ信号Yを減速し、ならびに/あるいはそうでなければ対象コンポーネントを作り出すためにここで説明されるような追加の知覚力増加処理(例えば、ピッチ変更、脱音響)を実行するように構成されうる。ANCヘッドセットは、耳から環境のサウンドXをブロックするために対ノイズ信号を生成し、音声出力ステージAO10は、耳に拡張された信号X’を再生する。
[0115]上記で述べられたように、音声拡張は、対象コンポーネントを用いてユーザの耳に他の環境サウンド(例えば、背景コンポーネント)をパスすることを含むことができる。拡張信号を生成するために、いくつかの信号処理技法を、環境サウンドの複数のソースに別々に適用することが望ましい。1つのそのような例では、ユーザAは、道路近くの歩道上のスピーカと話している。このケースでは、ユーザAは、ボイス増幅サービス(つまり、「人工耳」)を用いて語り手Bの話を聞くことを希望しているけれども、依然として歩道の環境のサウンドも聞くことを希望する。同じときに、ユーザAは車によって生成される、大きな道路わきのノイズを聞くことは希望しない。ここで記述されるようなANCヘッドセットを基準とした拡張現実のスキームは、ここで記述されるようにそのようなユーザの経験を提供することができる。
[0116]図22は、マルチマイクロフォンの信号処理に関する音声利得の空間的パターンの例を提示している。この例では、ユーザの前方方向から到着するサウンドは、他の方向から到着するサウンドが通常の利得でパスされる間にブロックされる。図23は、ユーザAの耳に環境サウンドをパスし。ユーザAの耳にパスすることから特定のソース(語り手B)からのサウンドをブロックする空間的音声利得パターンを得るための、図22の例のアプリケーションを提示している。上記の実際的な翻訳例を参照して説明されるように、語り手Bからの欠けたスピーチは、(例えば、TTSを介して)スピーチ情報の翻訳されたバージョンと置き換えられることができる。
[0117]図24において例示されるように、結合されたシナリオの例において、第1の方向の範囲から到着するサウンドは、(例えば、TTSを介して)言語翻訳と置き換えられ、第2の方向の範囲から到着するサウンド(例えば、道路のノイズ)は、ブロックされ、第3の方向から到着するサウンド(例えば、歩道のサウンド)はパスされる。ANCデバイスは、ユーザAの耳に環境サウンド(例えば、歩道のサウンド)をパスしますが、空間的選択処理は、特定のソース(語り手B)からのサウンド、およびユーザAの耳に向かうことから特定のノイズの方向をブロックする。拡張処理は、ユーザAの耳に語り手Bからのスピーチの増幅された(および可能であれば減速された)バージョンを投入する。ユーザAは、歩道のサウンドおよび語り手Bからの処理されたサウンドを聞くけれども、道路からの車のノイズのほとんどを聞かない。
[0118]この空間的な様々な例では、ANC基準マイクロフォンを含むマイクロフォンアレイは、環境サウンドX(=語り手BのスピーチY+歩道のサウンドZ+道路のノイズW)を拾い、音声入力信号SI10およびSI20を作り出す。AR処理モジュールAR10は、ユーザB(つまり、ソースコンポーネントSC10)からスピーチコンポーネントを、方向Cから歩道のサウンドZを、および方向Dから道路のノイズWを分離するために、マルチマイクロフォンの空間的選択処理を実行する。AR処理モジュールAR10は、対象スピーチ信号Y’を作り出すためにスピーチ信号Yを処理(例えば、増幅、等化、脱音響、および/または減速)し、歩道のサウンドコンポーネントZをパスし、ならびにANCデバイスに拡張された信号X’(=Y’+Z)を生成する。ANCデバイスは、耳から環境のサウンドXをブロックするために対ノイズ信号を生成し、音声出力ステージAO10は、耳に拡張された信号X’を再生する。
[0119]図25Aは、SSPフィルタSF10のインプリメンテーションSF20および拡張モジュールAM10のインプリメンテーションAM30を含む拡張現実処理モジュールAR10のインプリメンテーションAR30のブロック図を提示している。フィルタSF20は、背景コンポーネントBC10からソースコンポーネントSC10を分離するために、マルチチャネル信号にSSP動作を実行するように構成される。フィルタSF20は、マルチチャネル信号と(例えば、選択されない周波数ビンまたはフレームのような)空間的に分離されたソースコンポーネントとの差異として背景コンポーネントBC10を作り出すように構成されうる。代わりとして、フィルタSF20は、背景コンポーネントBC10をソースコンポーネントSC10から、ならびに可能であれば他のサウンドから分離するためにマルチチャネル信号にSSP動作を実行するようにインプリメントされうる。このケースでは、フィルタSF20は、(例えば利得および/または位相の差異、ビームフォーミング、BSSに基づいて)ここで説明されるSSP動作のいずれかを使用して、背景コンポーネントを作り出すためにインプリメントされうる。
[0120]例えば、フィルタSF20は、ソースコンポーネントの方向とは別の方向への広範なビームを有するビームフォーミングフィルタを適用することによって、マルチチャネル信号から背景コンポーネントBC10を作り出すようにインプリメントされうる。別の例では、フィルタSF20は、排除されるべきソースの方向への(例えば、(例えば、上記で論じられた例における、道路ノイズWのソースの方向Dのような)ノイズソースの方向、および/またはソースコンポーネントへの)ヌルビームを有する1つまたは複数のビームフォーミングフィルタを適用することによって、マルチチャネル信号から背景コンポーネントBC10を作り出すようにインプリメントされる。拡張モジュールAM30は、対象コンポーネントTC10および分離された背景コンポーネントBC10に基づく拡張信号SG10のインプリメンテーションSG20を作り出すように構成される。
[0121]図25Bは、拡張信号SG20を作り出すために、対象コンポーネントTC10を分離された背景コンポーネントBC10と混合(例えば、追加)するように構成されたミキサMX10を含む拡張モジュールAM20およびAM30のインプリメンテーションAM40のブロック図を提示している。
[0122]サイレン、車のクラクション、アラーム、または人の注意を捕捉、警報、または警告することが意図されている他のサウンドのような、警告サウンドを検出およびパスするためにAR処理モジュールAR10をインプリメントすることが望ましい。そのようなサウンドは通常、スピーチおよびノイズコンポーネントのような、他のサウンド信号と比べると狭い帯域幅を有する音調のコンポーネントである。図26Aは、警告サウンド検出器WD10を含むAR処理モジュールAR10のインプリメンテーションAR100のブロック図を提示している。警告サウンド検出器WD10は、特定の周波数の範囲(例えば、約500または1000ヘルツから約2または3キロヘルツ)内のみに現れ、狭い帯域幅(例えば、約50、100、または200ヘルツよりは大きくない)を有し、シャープアタックプロファイルを有し(例えば、1つのフレームから次のフレームへ、約50よりも小さい、75、または100パーセントでの、エネルギーの増加を有し)、ならびに/あるいは、しきい値よりも高いピッチ周波数(例えば、赤ん坊の泣き声のサウンド)を有するサウンドを検出するように構成されている。警告サウンド検出器WD10は、時間ドメイン、LPCドメイン、および/または変換ドメイン(例えば、フーリエまたは他の周波数ドメイン)においてそのような検出を実行し、対応する警告指示SW10を作り出すように構成されうる。別の例では、警告サウンド検出器WD10は、ドップラー効果検出によって近づいてくる乗り物のサウンドを検出するように構成される。
[0123]AR処理モジュールAR100は、警告指示SW10に応じてサウンドコンポーネントSC10の拡張を削除するように構成される拡張モジュールAM10のインプリメンテーションAM100も含む。AR処理モジュールAR100は、警告指示SW10に応じてANC動作を無効にし、ならびに/あるいはユーザに追加の音声指示を提供する(例えば、警報サウンドを生成する)ようにも構成されうる。
[0124]警告サウンド検出器WD10によって実行される検出は、(例えば、音声入力チャネル上で、2つ以上の音声入力チャネル上で別々に、ならびに/あるいは1つまたは複数の音声入力チャネルの合計上で)無方向性でありうる。代わりとして、検出器WD10は、検出された警報サウンドの選択および/または拡張(例えば、増幅)のために、拡張モジュールAM100に警告サウンドの方向を指示するようにインプリメントされうる。両耳のインプリメンテーションでは、そのような拡張は、ユーザに警報サウンドの到着の方向を示すための方向のキューイングを含むことができる。そのようなケースでは、低周波数の指向性を強化するために、ANC動作を無効にし、ならびに/あるいは警報サウンドにPBE動作を実行しないことが望ましい。
[0125]方法M100および/または装置A100に対する追加の強化は、文書の環境の音声翻訳(例えば、別の言語でのサインの音声翻訳)を含むことができる。追加のアプリケーションは、視覚障害のあるユーザのナビゲーション支援として、物理的な障害を示すためにピッチにおける変化を作り出すように構成された仮想サウンドステッキを含む。
[0126]図26Bは一般的な構成にしたがった、装置MF100のブロック図を提示している。装置MF100は、(例えば、タスクT100および/またはANCフィルタAF10のインプリメンテーションを参照してここで記述されるように)対ノイズ信号を作り出すために第1の音声入力チャネルにアクティブノイズ取消動作を実行する手段F100を含む。装置MF100はまた、(例えば、タスクT200および/またはSSPモジュールSM10のインプリメンテーションを参照してここで記述されるような)背景コンポーネントからソースコンポーネントを分離するためにマルチチャネル信号に空間的選択処理動作を実行する手段を含む、ソースコンポーネントを得るためにマルチチャネル信号を処理する手段F200も含む。装置MF100はまた、(例えば、タスクT300および/または拡張モジュールAM10のインプリメンテーションを参照してここで記述されるような)対象コンポーネントを作り出すために得られたソースコンポーネントを処理する手段F300も含む。装置MF100は、(例えば、タスクT400および/または音声出力ステージAO10のインプリメンテーションを参照してここで記述されるような)音声出力信号を作り出すために対象コンポーネントに基づく拡張信号および対ノイズ信号を結合する手段F400も含む。
[0127]図27Aは、一般的なANCシステムのブロック図を提示している。適合フィルタW(z)は、削除されるべき外部ノイズを検出する基準マイクロフォン(例えば、マイクロフォンML10またはMR10)から、基準マイクロフォンよりもユーザの耳の穴に近い(例えば、耳の穴の中にある、耳の穴に向けられている、および/またはスピーカによって放たれている音響フィールド内にある)エラーマイクロフォンへの主要パス転送機能P(z)を推定するために使用される。フィルタW(z)によって生成された音響信号からフィルタW(z)を適合するために使用されるエラー信号への電気または音響パスを含む、第2のパス転送機能S(z)を推定することが望ましい。例えば、フィルタされたXのLMSアルゴリズムは、エラー信号、およびS(z)の推定によってフィルタリングされる基準信号のバージョンに基づいてフィルタW(z)を適合する。追加で、または代わりとして、対ノイズ信号から基準マイクロフォンへのフィードバックパス転送機能F(z)を考慮に入れることが望ましい。タスクT100および/またはANCフィルタAF10は、これらのANC原則のいずれかにしたがってインプリメントされうる。例えば、図27Bおよび27Cは、それぞれがANCエラーマイクロフォンME10の例を含む、ヘッドセットHS10およびHS20のインプリメンテーションHS15およびHS25のそれぞれの例を提示しており、図28A−Cは、イヤバッドEB30、ならびにイヤカップECR20およびECR20の類似のインプリメンテーションEB32、ECR15、およびECR25を提示している。
[0128]図27Aから、拡張信号SG10を対ノイズ信号SA10とミキシングすることは、拡張信号SG10に、基準信号(例えば、音声入力チャネル)に音響的にフィードバック(feed back)、および/またはエラー信号に音響的にフィードフォワード(feed forward)させることができる。結果として、拡張信号SG10のANCフィルタ適合への効果を低減するために、基準信号およびエラー信号の1つまたは両方に拡張信号SG10の逆バージョンをミキシングすることが望ましい。
[0129]ここで開示する方法および装置は、一般的に、何らかのトランシービングならびに/あるいはオーディオ感知アプリケーション中で適用されてもよく、特に、このようなアプリケーションの移動体またはそうでなければポータブルのインスタンスに適用されうる。例えば、ここで開示する構成の範囲は、無線インタフェースでコード分割多元接続(CDMA)を用いるように構成されているワイヤレス電話通信(telephony)通信システム中に存在する通信デバイスを含む。しかしながら、ここで説明するような特徴を有する方法ならびに装置が、ワイヤードならびに/あるいはワイヤレス(例えば、CDMA、TDMA、FDMA、および/または、TD−SCDMA)の送信チャネルを通るボイスオーバーIP(VoIP)を用いるシステムのような、当業者に知られているより広い範囲の技術を用いるさまざまな通信システムのうちのいずれかに存在しうることを当業者によって理解されるだろう。
[0130]ここで開示した通信デバイスが、パケット交換であるネットワーク(例えば、VoIPのようなプロトコルにしたがって、オーディオ送信を搬送するように設けられているワイヤードネットワークおよび/またはワイヤレスネットワーク)、ならびに/あるいは、回路交換であるネットワーク中での使用に適合されうることを、明確に企図し、ここで開示している。ここで開示した通信デバイスが、ナローバンドコーディングシステム(例えば、約4または5キロヘルツの音声周波数範囲をエンコードするシステム)中での使用に、ならびに/あるいは、全帯域ワイドバンドコーディングシステムと、分割帯域ワイドバンドコーディングシステムとを含む、ワイドバンドコーディングシステム(例えば、5キロヘルツよりも大きい音声周波数をエンコードするシステム)中での使用に、適合されうることも、明確に企図し、それにより開示している。
[0131]記述された構成の上記提示は、当業者がここで開示された方法および他の構造を製造または使用できるように提供してきた。ここで提示され、説明されたフローチャート、ブロックダイヤグラム、および、他の構造は、例に過ぎず、これらの構造の他の変形もまた、本開示の範囲内にある。これらの構成に対するさまざまな改良が可能であり、ここで提示された一般的な原理は、他の構成にも適用されうる。したがって、本開示は、上記で示された構成に限定されることを意図しているものではなく、むしろ、元々の開示の一部を形成する、提出されたような添付した特許請求の範囲を含む、何らかの形で、ここで開示された原理および新規な特徴と一致した最も広い範囲に一致させるべきである。
[0132]さまざまな異なるテクノロジーおよび技術のうちのいずれかを使用して、情報および信号を提示されうることを、当業者は理解するだろう。例えば、前記記述全体を通して参照された、データ、命令、コマンド、情報、信号、ビット、および、シンボルは、電圧、電流、電磁波、磁界または磁気の粒子、光学界または光の粒子、ならびに、これらの任意の組み合わせたものにより表されうる。
[0133]ここで記述されるような構成のインプリメンテーションに関する重要な設計要件は、特に8キロヘルツよりも高いサンプリングレート(例えば、12、16、32、44.1、48、または192kHz)でボイス通信のためのアプリケーションのような、計算集中的なアプリケーションに関する、(通常100万命令/秒、つまりMIPSで測定される)計算の複雑性および処理遅延を最小化することを含みうる。
[0134]ここで記述されたような、マルチマイクロフォン処理システムの目的は、全体的なノイズ減少において10から12dBを達成すること、所望のスピーカの動きの間の、音声レベルおよび色を保存すること、積極的なノイズ除去、スピーチの残響除去の代わりにノイズがバックグラウンドに移ったとの知覚を取得すること、および/または、より積極的なノイズ減少のために事後処理のオプション(例えば、マスキングおよび/またはノイズ減少)を可能にすることを含みうる。
[0135]ここで開示されたような装置(例えば、装置A100、A200およびMF100)は、意図されたアプリケーションに適していると思われる、ソフトウェアを有するおよび/またはファームウェアを有するハードウェアの任意の組み合わせにおいて実現されうる。例えば、このような装置の要素は、例えば、同じチップ上またはチップセット中の2つ以上のチップの間に存在する、電子デバイスおよび/または光デバイスとして組み立てられうる。このようなデバイスの1つの例は、トランジスタまたは論理ゲートのような、論理要素の固定型アレイまたはプログラム可能アレイであり、このような要素のうちのいずれかが、1つまたは複数のこのようなアレイとして実現されうる。これらの要素の任意の2つ以上またはすべてが、同じアレイまたは複数のアレイ内で実現されうる。このようなアレイは、1つまたは複数のチップ内で(例えば、2つ以上のチップを含むチップセット内で)実現されうる。
[0136]ここで開示された装置(例えば、装置A100、A200およびMF100)のさまざまなインプリメンテーションのうちの1つまたは複数の要素はまた、その全体または一部が、マイクロプロセッサと、組み込まれたプロセッサと、IPコアと、デジタル信号プロセッサと、FPGA(フィールドプログラム可能ゲートアレイ)と、ASSP(特定用途向け規格品(application-specific standard products))と、ASIC(特定用途向け集積回路)とのような、論理要素の1つまたは複数の固定型またはプログラム可能アレイ上で実行するように設けられている1つまたは複数の組の命令として実現されうる。ここで開示されたような装置のインプリメンテーションのさまざまな要素のうちのいずれも、1つまたは複数のコンピュータ(例えば、「プロセッサ」とも称される、1つまたは複数の組の命令または1つまたは複数のシーケンスの命令を実行するようにプログラムされている1つまたは複数のアレイを含む機械)として具現化され、これらの要素のうちの2つ以上またはすべてが、このような同じコンピュータまたは複数のコンピュータ内で実現されうる。
[0137]ここで開示したような処理のためのプロセッサまたは他の手段は、例えば、同じチップ上またはチップセット中の2つ以上のチップの間に存在する、1つまたは複数の電子デバイスおよび/または光デバイスとして組み立てられうる。このようなデバイスの1つの例は、トランジスタまたは論理ゲートのような、論理要素の固定型アレイまたはプログラム可能アレイであり、このような要素のうちのいずれかが、1つまたは複数のこのようなアレイとして実現されうる。このようなアレイは、1つまたは複数のチップ内で(例えば、2つ以上のチップを含むチップセット内で)実現されうる。このようなアレイの例は、マイクロプロセッサと、組み込まれたプロセッサと、IPコアと、DSPと、FPGAと、ASSPと、ASICとのような、論理要素の固定型アレイまたはプログラム可能アレイを含む。ここで開示されたような処理のためのプロセッサまたは他の手段はまた、1つまたは複数のコンピュータ(例えば、1つまたは複数の組の命令または1つまたは複数のシーケンスの命令を実行するようにプログラムされている1つまたは複数のアレイを含む機械)あるいは他のプロセッサとして具現化されうる。ここで記述したようなプロセッサを使用して、タスクを実行するか、あるいは、プロセッサがその中に組み込まれているデバイスまたはシステム(例えば、音声感知デバイス)の別の動作に関連するタスクのような、方法M100またはMF200の実現の手順に直接関連しない他のセットの命令を実行することが可能である。ここで開示したような方法の一部を、音声感知デバイスのプロセッサによって実行し、方法の別の部分を、1つまたは複数の他のプロセッサの制御下で実行することも可能である。
[0138]ここで開示された構成に関連して説明した、さまざまな例示的なモジュール、論理ブロック、回路およびテスト、ならびに、他の動作が、電子ハードウェア、コンピュータソフトウェア、あるいは、双方の組み合わせたものとして実現されうることを当業者は正しく認識するであろう。このようなモジュール、論理ブロック、回路、および、動作は、汎用プロセッサ、デジタル信号プロセッサ(DSP)、ASICまたはASSP、FPGAまたは他のプログラム可能論理デバイス、ディスクリートゲートまたはトランジスタ論理、ディスクリートハードウェアコンポーネント、あるいは、ここで開示されたような構成を生成させるように設計されたこれらの任意の組み合わせによって、実現または実行されうる。例えば、このような構成は、ハードワイヤード回路として、特定用途向け集積回路中に組み立てられている回路構成として、あるいは、不揮発性記憶装置中にロードされたファームウェアプログラムとして、または、機械読取可能コードとしてデータ記憶媒体からロードされたソフトウェアプログラムまた機械読取可能コードとしてデータ記憶媒体中にロードされたソフトウェアプログラムとして、少なくとも部分的に実現されうる。このようなコードは、汎用プロセッサまたは他のデジタル信号処理ユニットのような、論理要素のアレイによって実行可能な命令である。汎用プロセッサは、マイクロプロセッサでありうるが、代わりの実施形態では、プロセッサは、何らかの従来のプロセッサ、制御装置、マイクロ制御装置、または、状態機械でありうる。プロセッサはまた、例えば、DSPとマイクロプロセッサの組み合わせ、複数のマイクロプロセッサ、DSPコアと関連した1つまたは複数のマイクロプロセッサ、あるいはその他このような構成であるコンピューティングデバイスの組み合わせとして実現しうる。ソフトウェアモジュールは、RAM(ランダムアクセスメモリ)、ROM(リードオンリーメモリ)、フラッシュRAMのような不揮発性RAM(NVRAM)、消去可能プログラム可能ROM(EPROM)、電気的消去可能プログラム可能ROM(EEPROM(登録商標))、レジスタ、ハードディスク、リムーバブルディスク、または、CD−ROM、あるいは、技術的に知られている他の何らかの形態の記憶媒体のような、一時的でない記憶媒体中に存在しうる。例示的な記憶媒体は、プロセッサが記憶媒体から情報を読み取り、記憶媒体に情報を書き込むことができるように、プロセッサに結合されうる。代わりの実施形態では、記憶媒体はプロセッサと一体化しうる。プロセッサおよび記憶媒体は、ASIC中に存在しうる。ASICは、ユーザ端末中に存在しうる。代わりとして実施形態では、プロセッサおよび記憶媒体は、ユーザ端末中にディスクリートコンポーネントとして存在しうる。
[0139]ここで開示されたさまざまな方法(例えば、方法M100、および、さまざまな記述した装置の動作を参照して開示したさまざまな方法)は、プロセッサのような論理要素のアレイによって実行されうることに、ならびに、ここで記述されたような装置のさまざまな要素が、このようなアレイ上で実行するように設計されているモジュールとして部分的に実現しうることに留意されたい。ここで使用されたような、用語「モジュール」または「サブモジュール」は、ソフトウェアの形で、ハードウェアの形で、または、ファームウェアの形で、コンピュータ命令(例えば、論理表現(logical expressions))を含む、何らかの方法、装置、デバイス、ユニット、または、コンピュータ読取可能データ記憶媒体のことを指すことができる。複数のモジュールまたはシステムを組み合わせて、1つのモジュールおよびシステムにすることができ、あるいは、同じ機能を実行するために、1つのモジュールまたはシステムを、複数のモジュールまたはシステムに分離できることを理解すべきである。ソフトウェアまたは他のコンピュータ実行可能な命令で実現されたときに、プロセスの要素は、例えば、ルーチン、プログラム、オブジェクト、コンポーネント、データ構造、および、これらに類するものによって、関連するタスクを実行するための、本来、コードセグメントである。「ソフトウェア」という用語は、ソースコード、アセンブリ言語コード、機械コード、バイナリコード、ファームウェア、マクロコード、マイクロコード、論理要素のアレイによって実行可能な命令の任意の1つまたは複数の組またはシーケンス、ならびに、このような例の任意の組み合わせを含むことを理解すべきである。プログラムまたはコードセグメントは、プロセッサ読み取り可能記憶媒体中に記憶することができ、あるいは、送信媒体または通信リンクを通して、搬送波で具現化されるコンピュータデータ信号によって送信することができる。
[0140]ここで開示した、方法、スキーム、および、技術のインプリメンテーションはまた、論理要素のアレイ(例えば、プロセッサ、マイクロプロセッサ、マイクロ制御装置、または、他の限定された状態機械)を含む機械によって実行可能な、ならびに/または読み取り可能な命令の1つまたは複数の組として、有体的に(例えば、ここでリストアップしたような1つまたは複数のコンピュータ読取可能媒体の有体的なコンピュータ読取可能機能で)具現化されうる。「コンピュータ読取可能媒体」という用語は、揮発性媒体と、不揮発性媒体と、リムーバブル媒体と、ノンリムーバブル記憶媒体とを含む、情報を記憶または転送できる何らかの媒体を含みうる。コンピュータ読取可能媒体の例は、電子回路、半導体メモリデバイス、ROM、フラッシュメモリ、消去可能なROM(EROM)、フロッピー(登録商標)ディスケットまたは他の磁気記憶装置、CD−ROM/DVDまたは他の光記憶装置、ハードディスク、光ファイバ媒体、無線周波数(RF)リンク、あるいは、所望の情報を記憶するために使用でき、アクセスすることができる他の何らかの媒体を含んでいる。コンピュータデータ信号は、電子ネットワークチャネル、光ファイバ、エア(air)、電磁気、RFリンク等のような、送信媒体を通して伝搬できる何らかの信号を含みうる。コードセグメントは、インターネットまたはイントラネットのようなコンピュータネットワークを介してダウンロードされうる。任意のケースでは、本開示の範囲は、このような実施形態によって限定されるものとして解釈すべきではない。
[0141]ここで記述された方法(例えば、方法M100、およびここで記述された様々な装置の動作の説明により開示される他の方法)のタスクのそれぞれは、ハードウェア、プロセッサによって実行されるソフトウェアモジュール、またはその2つの組み合わせで直接具現化されうる。ここで開示したような方法のインプリメンテーションの典型的な適用において、論理要素(例えば、論理ゲート)のアレイは、方法のさまざまなタスクのうちの1つ、1つより多いもの、または、すべてを実行するように構成されている。タスクのうちの1つ以上(場合によってはすべて)は、コード(例えば、1つまたは複数のセットの命令)としても実現されてもよく、論理要素のアレイ(例えば、プロセッサ、マイクロプロセッサ、マイクロ制御装置、または、他の有限状態機械)を含む機械(例えば、コンピュータ)によって読み取り可能なおよび/また実行可能な、コンピュータプログラムプロダクト(例えば、ディスク、フラッシュまたは他の不揮発性メモリカード、半導体メモリチップ等のような、1つまたは複数のデータ記憶媒体)で具現化されうる。ここで開示されたような方法の実現のタスクは、このような1つより多いアレイまたは機械によっても実行されうる。これらの実現または他の実現において、セルラ電話機またはこのような通信能力を有する他のデバイスのような、ワイヤレス通信のためのデバイス内で、タスクを実行しうる。このようなデバイスは、(例えば、VoIPのような1つまたは複数のプロトコルを使用する)回線交換ネットワークまたはパケット交換ネットワークと通信するように構成されうる。例えば、このようなデバイスは、エンコードされたフレームを受信および/または送信するように構成されているRF回路を含みうる。
[0142]ここで開示された様々な方法が、ポータブル通信デバイス(例えば、ハンドセット、ヘッドセット、スマートフォン、またはポータブルデジタルアシスタント(PDA))によって実行され、ならびに、ここで記述された様々な装置がこのようなデバイス内に含まれうることが明確に開示される。典型的なリアルタイム(例えば、オンライン)アプリケーションは、このような移動デバイスを使用して行われる電話機での会話である。
[0143]1つまたは複数の例示的な実施形態では、ここで記述された動作は、ハードウェアで、ソフトウェアで、ファームウェアで、または、これらのものを組み合わせた任意のもので実現されうる。ソフトウェアで実現された場合に、このような動作は、1つまたは複数の命令またはコードとして、コンピュータ読取可能媒体上に記憶され、1つまたは複数の命令またはコードとして、コンピュータ読取可能媒体上に送信されうる。「コンピュータ読取可能媒体」という用語は、コンピュータ読取可能記憶媒体と通信(例えば、送信)媒体の双方を含む。一例として、これらに限定されないが、コンピュータ読取可能記憶媒体は、(これらに限定されないが、ダイナミックまたはスタティックな、RAM、ROM、EEPROMならびに/あるいはフラッシュRAMを含みうる)半導体メモリ、または、強誘電体、磁気抵抗、オボニック(ovonic)、ポリメトリック(polymetric)、または、相変化(phase-change)メモリのような、記憶要素のアレイ、CD−ROMまたは他の光ディスク記憶装置、および/または、磁気ディスク記憶装置または他の磁気記憶デバイスを含む。このような記憶媒体は、コンピュータによってアクセスできる命令またはデータ構造の形態で、情報を記憶しうる。通信媒体は、1つの場所から別の場所へのコンピュータプログラムの転送を促進する任意の媒体を含む、コンピュータによってアクセスできる命令またはデータ構造の形態で、所望のプログラムコードを搬送するために使用できる任意の媒体を含むことができる。また、あらゆる接続は、コンピュータ読み取り可能媒体と適切に呼ばれている。例えば、同軸ケーブル、光ファイバケーブル、撚り対、デジタル加入者回線(DSL)、あるいは、赤外線、無線、および/またはマイクロ波のようなワイヤレス技術を使用しているウェブサイト、サーバ、または、他の遠隔ソースから、ソフトウェアが送信される場合には、同軸ケーブル、光ファイバケーブル、撚り対、DSL、あるいは、赤外線、無線、および/またはマイクロ波のようなワイヤレス技術は、媒体の定義に含まれる。ここで使用したようなディスク(diskおよびdisc)は、コンパクトディスク(CD)、レーザディスク(登録商標)、光ディスク、デジタル多用途ディスク(DVD)、フロッピーディスク、および、ブルーレイ(登録商標)ディスク(ブルーレイディスクassociation、universal city, CA)を含むが、一般的に、ディスク(disk)は、データを磁気的に再生する一方で、ディスク(disc)はデータをレーザによって光学的に再生する。先のものを組み合わせたものもまた、コンピュータ読み取り可能媒体の範囲内に含められるべきである。
[0144]ここで説明するような音響信号処理装置(例えば、装置A100、MF100)は、ある動作を制御するためにスピーチ入力を受け入れる電子デバイス中に組み込まれ、または、そうでなければ、通信デバイスのような、バックグラウンドノイズから所望のノイズを分離することによって恩恵を受けうる。多くのアプリケーションは、所望のクリアーなサウンドを向上させること、または、複数の方向から生じるバックグラウンドサウンドから所望のクリアーなサウンドを分離することによって恩恵を受けうる。このようなアプリケーションは、音声認識および検出と、スピーチ向上および分離と、音声アクティベートされた制御と、これらに類似するもののような能力を組み込んでいる電子デバイス中あるいはコンピューティングデバイス中に、人間−機械インタフェースを含みうる。制限された処理能力のみを提供するデバイスにおいて適切であるように、このような音響信号処理装置を実現することが望ましいことがある。
[0145]例えば、ここで説明したモジュール、要素、および、デバイスのさまざまなインプリメンテーションの要素は、例えば、同じチップ上またはチップセット中の2つ以上のチップの間に存在する、電子デバイスおよび/または光デバイスとして組み立てられうる。このようなデバイスの1つの例は、このようなトランジスタまたはゲートのような、論理要素の固定型あるいはプログラム可能アレイである。ここで記述した装置のさまざまな実現のうちの1つまたは複数の要素もまた、マイクロプロセッサと、組み込まれたプロセッサと、IPコアと、デジタル信号プロセッサと、FPGAと、ASSPと、ASICとのような、論理要素の1つまたは複数の固定型またはプログラム可能アレイ上で実行するように設けられている1つまたは複数のセットの命令として、全体的または部分的に実現されうる。
[0146]ここで説明したような装置のインプリメンテーションのうちの1つまたは複数の要素を使用して、タスクを実行するか、あるいは、装置がその中に組み込まれているデバイスまたはシステムの別の動作に関連するタスクのような、装置の動作に直接関連しない他の組の命令を実行することが可能である。このような装置のインプリメンテーションのうちの1つまたは複数の要素が、共通の構造(例えば、異なる時間において、異なる要素に対応するコードの一部を実行するために使用されるプロセッサ、異なる時間において、異なる要素に対応するタスクを実行するように実行される1組の命令、あるいは、異なる時間において、異なる要素に対する動作を実行する、電子デバイスおよび/または光デバイスの配列)を有することも可能である。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1] 第1の音声入力チャネルおよび第2の音声入力チャネルを含むマルチチャネル信号を処理する方法であって、
対ノイズ信号を作り出すために、前記第1の音声入力チャネルにアクティブノイズ取消動作を実行することと、
ソースコンポーネントを得るために前記マルチチャネル信号を処理することと、前記処理することは、背景コンポーネントから前記ソースコンポーネントを分離するために前記マルチチャネル信号に空間的選択処理動作を実行することを含み、
対象コンポーネントを作り出すために前記得られたソースコンポーネントを処理することと、
音声出力信号を作り出すために前記対象コンポーネントに基づく拡張信号および前記対ノイズ信号を結合することと、
を備える方法。
[C2] 前記方法は、前記拡張信号を作り出すために、前記対象コンポーネントおよび前記分離された背景コンポーネントを結合することを備える、C1に記載の信号処理の方法。
[C3] 前記空間的選択処理動作は、前記ソースコンポーネントを作り出すために、ソースの方向にビームを適用することを含む、C1および2のうちのいずれか1つに記載の信号処理の方法。
[C4] 前記空間的選択処理動作は、前記背景コンポーネントを作り出すために、前記ソースの方向にヌルビームを適用することを含む、C1−3のいずれか1つに記載の信号処理の方法。
[C5] 前記空間的選択処理動作は、前記背景コンポーネントを作り出すために、ノイズソースの方向に第2のヌルビームを適用することを含む、C4に記載の信号処理の方法。
[C6] 前記空間的選択処理動作は、(A)前記第1と第2の音声入力チャネルとの間の位相の差異、および(B)前記第1と第2の音声入力チャネルとの間の利得の差異のうちの少なくとも1つに基づく、C1−5のいずれか1つに記載の信号処理の方法。
[C7] 前記得られたソースコンポーネントを処理することは、前記分離されたソースコンポーネントを増幅すること、前記分離されたソースコンポーネントの動的な範囲を圧縮すること、前記分離されたソースコンポーネントを脱残響すること、および前記分離されたソースコンポーネントの周波数スペクトルを変更することのうちの少なくとも1つによって、前記得られたソースコンポーネントの知覚力を増大させることを備える、C1−6のいずれか1つに記載の信号処理の方法。
[C8] 前記知覚力を増大させることは、前記分離されたソースコンポーネントのスピーチコンテンツの知覚力を増大させることを含む、C1−7のうちのいずれか1つに記載の信号処理の方法。
[C9] 前記スピーチコンテンツの知覚力を増大させることは、(A)前記スピーチコンテンツのスピードを変動させること、および(B)第1の口語から、前記第1の口語とは異なる第2の口語に前記スピーチコンテンツを置き換えること、のうちの少なくとも1つを含む、C8に記載の信号処理の方法。
[C10] 前記スピーチコンテンツの知覚力を増大させることは、前記分離されたソースコンポーネントよりも大きな数のピッチ周期を有するように前記対象コンポーネントを作り出すことを含む、C8に記載の信号処理の方法。
[C11] 前記方法は、前記音声出力信号に基づく音響信号を作り出すためにスピーカを駆動することを備え、前記スピーカはユーザの耳に着けられて前記ユーザの耳の穴に向けられるように配置され、
前記アクティブノイズ取消動作は、エラーマイクロフォンによって作り出される信号に基づき、前記エラーマイクロフォンは前記耳の穴に向けられるように配置される、
C1−10のうちのいずれか1つに記載の信号処理の方法。
[C12] 前記背景コンポーネントから前記ソースコンポーネントを分離するために前記マルチチャネル信号に空間的選択処理動作を実行することは、前記背景コンポーネントから前記ユーザ以外の人のボイスを分離することを含む、C1−10のうちのいずれか1つに記載の信号処理の方法。
[C13] 第1の音声入力チャネルおよび第2の音声入力チャネルを含むマルチチャネル信号を処理する装置であって、
対ノイズ信号を作り出すために、前記第1の音声入力チャネルにアクティブノイズ取消動作を実行する手段と、
ソースコンポーネントを得るために前記マルチチャネル信号を処理する手段と、前記処理する手段は、背景コンポーネントから前記ソースコンポーネントを分離するために前記マルチチャネル信号に空間的選択処理動作を実行する手段を含み、
対象コンポーネントを作り出すために前記得られたソースコンポーネントを処理する手段と、
音声出力信号を作り出すために前記対象コンポーネントに基づく拡張信号および前記対ノイズ信号を結合する手段と、
を備える装置。
[C14] 前記装置は、前記拡張信号を作り出すために、前記対象コンポーネントおよび前記分離された背景コンポーネントを結合する手段を含む、C13に記載の装置。
[C15] 前記空間的選択処理動作は、前記ソースコンポーネントを作り出すために、ソースの方向にビームを適用することを含む、C13および14のうちのいずれか1つに記載の装置。
[C16] 前記空間的選択処理動作は、前記背景コンポーネントを作り出すために、前記ソースの方向にヌルビームを適用することを含む、C13−15のいずれか1つに記載の装置。
[C17] 前記空間的選択処理動作は、前記背景コンポーネントを作り出すために、ノイズソースの方向に第2のヌルビームを適用することを含む、C16に記載の装置。
[C18] 前記空間的選択処理動作は、(A)前記第1と第2の音声入力チャネルの間の位相の差異、および(B)前記第1と第2の音声入力チャネルとの間の利得の差異のうちの少なくとも1つに基づく、C13−17のいずれか1つに記載の装置。
[C19] 前記得られたソースコンポーネントを処理する手段は、前記分離されたソースコンポーネントを増幅すること、前記分離されたソースコンポーネントの動的な範囲を圧縮すること、前記分離されたソースコンポーネントを脱残響すること、および前記分離されたソースコンポーネントの周波数スペクトルを変更すること、のうちの少なくとも1つによって、前記得られたソースコンポーネントの知覚力を増大させる手段を備える、C13−18のいずれか1つに記載の装置。
[C20] 前記知覚力を増大させることは、前記分離されたソースコンポーネントのスピーチコンテンツの知覚力を増大させることを含む、C13−19のうちのいずれか1つに記載の装置。
[C21] 前記スピーチコンテンツの知覚力を増大させることは、(A)前記スピーチコンテンツのスピードを変動させること、および(B)第1の口語から、前記第1の口語とは異なる第2の口語に前記スピーチコンテンツを置き換えること、のうちの少なくとも1つを含む、C20に記載の装置。
[C22] 前記スピーチコンテンツの知覚力を増大させることは、前記分離されたソースコンポーネントよりも大きな数のピッチ周期を有するように前記対象コンポーネントを作り出すことを含む、C20に記載の装置。
[C23] 前記装置は、前記音声出力信号に基づく音響信号を作り出すためにスピーカを駆動する手段を備え、前記スピーカはユーザの耳に着けられて前記ユーザの耳の穴に向けられるように配置され、
前記アクティブノイズ取消動作は、エラーマイクロフォンによって作り出される信号に基づき、前記エラーマイクロフォンは前記耳の穴に向けられるように配置される、
C13−22のうちのいずれか1つに記載の信号処理の装置。
[C24] 前記背景コンポーネントから前記ソースコンポーネントを分離するために前記マルチチャネル信号に空間的選択処理動作を実行することは、前記背景コンポーネントから前記ユーザ以外の人のボイスを分離することを含む、C13−22のうちのいずれか1つに記載の装置。
[C25] 第1の音声入力チャネルおよび第2の音声入力チャネルを含むマルチチャネル信号を処理する装置であって、
対ノイズ信号を作り出すために、前記第1の音声入力チャネルにアクティブノイズ取消動作を実行するように構成されたアクティブノイズ取消フィルタと、
ソースコンポーネントを得るために前記マルチチャネル信号を処理するように構成された拡張現実処理モジュールと、
を備え、前記モジュールは、
背景コンポーネントから前記ソースコンポーネントを分離するために前記マルチチャネル信号に空間的選択処理動作を実行するように構成された空間的選択フィルタと、
(A)対象コンポーネントを作り出すために前記得られたソースコンポーネントを処理するように、ならびに(B)前記対象コンポーネントに基づく拡張信号を出力するように構成された拡張モジュールと、
音声出力信号を作り出すために前記拡張信号および前記対ノイズ信号を結合するように構成された音声出力ステージと、
を備える装置。
[C26] 前記拡張モジュールは、前記拡張信号を作り出すために、前記対象コンポーネントおよび分離された背景コンポーネントを結合するように構成される、C25に記載の装置。
[C27] 前記空間的選択処理動作は、前記ソースコンポーネントを作り出すために、ソースの方向にビームを適用することを含む、C25および26のうちのいずれか1つに記載の装置。
[C28] 前記空間的選択処理動作は、前記背景コンポーネントを作り出すために、前記ソースの方向にヌルビームを適用することを含む、C25−27のいずれか1つに記載の装置。
[C29] 前記空間的選択処理動作は、前記背景コンポーネントを作り出すために、ノイズソースの方向に第2のヌルビームを適用することを含む、C28に記載の装置。
[C30] 前記空間的選択処理動作は、(A)前記第1と第2の音声入力チャネルの間の位相の差異、および(B)前記第1と第2の音声入力チャネルとの間の利得の差異のうちの少なくとも1つに基づく、C25−29のいずれか1つに記載の装置。
[C31] 前記拡張モジュールは、前記分離されたソースコンポーネントを増幅すること、前記分離されたソースコンポーネントの動的な範囲を圧縮すること、前記分離されたソースコンポーネントの脱残響すること、および前記分離されたソースコンポーネントの周波数スペクトルを変更することのうちの少なくとも1つによって、前記得られたソースコンポーネントの知覚力を増大させるように構成される、C25−30のうちのいずれか1つに記載の装置。
[C32] 前記拡張モジュールは、前記分離されたソースコンポーネントのスピーチコンテンツの知覚力を増大させるように構成される、C25−31のうちのいずれか1つに記載の装置。
[C33] 前記スピーチコンテンツの知覚力を増大させることは、(A)前記スピーチコンテンツのスピードを変動させること、および(B)第1の口語から、前記第1の口語とは異なる第2の口語に前記スピーチコンテンツを置き換えること、のうちの少なくとも1つを含む、C32に記載の装置。
[C34] 前記スピーチコンテンツの知覚力を増大させることは、前記分離されたソースコンポーネントよりも大きな数のピッチ周期を有するように前記対象コンポーネントを作り出すことを含む、C32に記載の装置。
[C35] 前記音声出力ステージは、前記音声出力信号に基づく音響信号を作り出すためにスピーカを駆動するように構成され、前記スピーカはユーザの耳に着けられて前記ユーザの耳の穴に向けられるように配置され、
前記アクティブノイズ取消動作は、エラーマイクロフォンによって作り出される信号に基づき、前記エラーマイクロフォンは前記耳の穴に向けられるように配置される、
C25−34のうちのいずれか1つに記載の信号処理の方法。
[C36] 前記背景コンポーネントから前記ソースコンポーネントを分離するために前記マルチチャネル信号に空間的選択処理動作を実行することは、前記背景コンポーネントから前記ユーザ以外の人のボイスを分離することを含む、C25−34のうちのいずれか1つに記載の装置。
[C37] 具体的な特性を読み込む機械に、C1−12のうちのいずれか1つに記載の方法を実行させる前記特性を有するコンピュータ可読記憶媒体。

Claims (48)

  1. 第1の音声入力チャネルおよび第2の音声入力チャネルを含むマルチチャネル信号を処理する方法であって、
    対ノイズ信号を作り出すために、前記第1の音声入力チャネルにアクティブノイズ取消動作を実行することと、
    ソースコンポーネントを得るために前記マルチチャネル信号を処理することと、前記処理することは、背景コンポーネントから前記ソースコンポーネントを分離するために前記マルチチャネル信号に空間的選択処理動作を実行することを含み、
    対象コンポーネントを作り出すために前記得られたソースコンポーネントを処理することと、
    音声出力信号を作り出すために前記対象コンポーネントに基づく拡張信号および前記対ノイズ信号を結合することと、
    ここにおいて前記得られたソースコンポーネントを前記処理することは、分離されたソースコンポーネントを増幅することにより前記得られたソースコンポーネントの知覚力を増大させることを備え、ここにおいて前記分離されたソースコンポーネントは、第1の口語から、前記第1の口語とは異なる第2の口語に置き換えられたスピーチコンテンツである、
    を備える、信号処理の方法
  2. 前記方法は、前記拡張信号を作り出すために、前記対象コンポーネントおよび前記分離された背景コンポーネントを結合することを備える、請求項1に記載の信号処理の方法。
  3. 前記空間的選択処理動作は、前記ソースコンポーネントを作り出すために、ソースの方向にビームを適用することを含む、請求項1に記載の信号処理の方法。
  4. 前記空間的選択処理動作は、前記背景コンポーネントを作り出すために、ソースの方向にヌルビームを適用することを含む、請求項1に記載の信号処理の方法。
  5. 前記空間的選択処理動作は、前記背景コンポーネントを作り出すために、ノイズソースの方向に第2のヌルビームを適用することを含む、請求項4に記載の信号処理の方法。
  6. 前記空間的選択処理動作は、(A)前記第1と第2の音声入力チャネルとの間の位相の差異、および(B)前記第1と第2の音声入力チャネルとの間の利得の差異のうちの少なくとも1つに基づく、請求項1に記載の信号処理の方法。
  7. 前記得られたソースコンポーネントを処理することはさらに、前記分離されたソースコンポーネントの動的な範囲を圧縮すること、前記分離されたソースコンポーネントを脱残響すること、および前記分離されたソースコンポーネントの周波数スペクトルを変更することのうちの少なくとも1つによって、前記得られたソースコンポーネントの知覚力を増大させることを備える、請求項1に記載の信号処理の方法。
  8. 前記知覚力を増大させることは、前記分離されたソースコンポーネントのスピーチコンテンツの知覚力を増大させることを含む、請求項7に記載の信号処理の方法。
  9. 前記スピーチコンテンツの知覚力を増大させることはさらに記スピーチコンテンツのスピードを変動させることを含む、請求項8に記載の信号処理の方法。
  10. 前記スピーチコンテンツの知覚力を増大させることは、前記分離されたソースコンポーネントよりも大きな数のピッチ周期を有するように前記対象コンポーネントを作り出すことを含む、請求項8に記載の信号処理の方法。
  11. 前記方法は、前記音声出力信号に基づく音響信号を作り出すためにスピーカを駆動することを備え、前記スピーカはユーザの耳に着けられて前記ユーザの耳の穴に向けられるように配置され、
    前記アクティブノイズ取消動作は、エラーマイクロフォンによって作り出される信号に基づき、前記エラーマイクロフォンは前記耳の穴に向けられるように配置される、
    請求項1に記載の信号処理の方法。
  12. 前記背景コンポーネントから前記ソースコンポーネントを分離するために前記マルチチャネル信号に空間的選択処理動作を実行することは、前記背景コンポーネントからユーザ以外の人のボイスを分離することを含む、請求項1に記載の信号処理の方法。
  13. 第1の音声入力チャネルおよび第2の音声入力チャネルを含むマルチチャネル信号を処理する装置であって、
    対ノイズ信号を作り出すために、前記第1の音声入力チャネルにアクティブノイズ取消動作を実行する手段と、
    ソースコンポーネントを得るために前記マルチチャネル信号を処理する手段と、前記処理する手段は、背景コンポーネントから前記ソースコンポーネントを分離するために前記マルチチャネル信号に空間的選択処理動作を実行する手段を含み、
    対象コンポーネントを作り出すために前記得られたソースコンポーネントを処理する手段と、
    音声出力信号を作り出すために前記対象コンポーネントに基づく拡張信号および前記対ノイズ信号を結合する手段と、
    ここにおいて前記得られたソースコンポーネントを前記処理することは、分離されたソースコンポーネントを増幅することにより前記得られたソースコンポーネントの知覚力を増大させることを備え、ここにおいて前記分離されたソースコンポーネントは、第1の口語から、前記第1の口語とは異なる第2の口語に置き換えられたスピーチコンテンツである、
    を備える、装置
  14. 前記装置は、前記拡張信号を作り出すために、前記対象コンポーネントおよび前記分離された背景コンポーネントを結合する手段を含む、請求項13に記載の装置。
  15. 前記空間的選択処理動作は、前記ソースコンポーネントを作り出すために、ソースの方向にビームを適用することを含む、請求項13に記載の装置。
  16. 前記空間的選択処理動作は、前記背景コンポーネントを作り出すために、ソースの方向にヌルビームを適用することを含む、請求項13に記載の装置。
  17. 前記空間的選択処理動作は、前記背景コンポーネントを作り出すために、ノイズソースの方向に第2のヌルビームを適用することを含む、請求項16に記載の装置。
  18. 前記空間的選択処理動作は、(A)前記第1と第2の音声入力チャネルとの間の位相の差異、および(B)前記第1と第2の音声入力チャネルとの間の利得の差異のうちの少なくとも1つに基づく、請求項13に記載の装置。
  19. 前記得られたソースコンポーネントを処理する手段はさらに、前記分離されたソースコンポーネントの動的な範囲を圧縮すること、前記分離されたソースコンポーネントを脱残響すること、および前記分離されたソースコンポーネントの周波数スペクトルを変更すること、のうちの少なくとも1つによって、前記得られたソースコンポーネントの知覚力を増大させる手段を備える、請求項13に記載の装置。
  20. 前記知覚力を増大させることは、前記分離されたソースコンポーネントのスピーチコンテンツの知覚力を増大させることを含む、請求項19に記載の装置。
  21. 前記スピーチコンテンツの知覚力を増大させることはさらに、前記スピーチコンテンツのスピードを変動させるこを含む、請求項20に記載の装置。
  22. 前記スピーチコンテンツの知覚力を増大させることは、前記分離されたソースコンポーネントよりも大きな数のピッチ周期を有するように前記対象コンポーネントを作り出すことを含む、請求項20に記載の装置。
  23. 前記装置は、前記音声出力信号に基づく音響信号を作り出すためにスピーカを駆動する手段を備え、前記スピーカはユーザの耳に着けられて前記ユーザの耳の穴に向けられるように配置され、
    前記アクティブノイズ取消動作は、エラーマイクロフォンによって作り出される信号に基づき、前記エラーマイクロフォンは前記耳の穴に向けられるように配置される、
    請求項13に記載の信号処理の装置。
  24. 前記背景コンポーネントから前記ソースコンポーネントを分離するために前記マルチチャネル信号に空間的選択処理動作を実行することは、前記背景コンポーネントからユーザ以外の人のボイスを分離することを含む、請求項1に記載の装置。
  25. 第1の音声入力チャネルおよび第2の音声入力チャネルを含むマルチチャネル信号を処理する装置であって、
    対ノイズ信号を作り出すために、前記第1の音声入力チャネルにアクティブノイズ取消動作を実行するように構成されたアクティブノイズ取消フィルタと、
    ソースコンポーネントを得るために前記マルチチャネル信号を処理するように構成された拡張現実処理モジュールと、
    を備え、前記モジュールは、
    背景コンポーネントから前記ソースコンポーネントを分離するために前記マルチチャネル信号に空間的選択処理動作を実行するように構成された空間的選択フィルタと、 (A)対象コンポーネントを作り出すために前記得られたソースコンポーネントを処理するように、ならびに(B)前記対象コンポーネントに基づく拡張信号を出力するように構成された拡張モジュールと、
    音声出力信号を作り出すために前記拡張信号および前記対ノイズ信号を結合するように構成された音声出力ステージと、
    ここにおいて前記得られたソースコンポーネントを前記処理することは、分離されたソースコンポーネントを増幅することにより前記得られたソースコンポーネントの知覚力を増大させることを備え、ここにおいて前記分離されたソースコンポーネントは、第1の口語から、前記第1の口語とは異なる第2の口語に置き換えられたスピーチコンテンツである、
    を備える、装置
  26. 前記拡張モジュールは、前記拡張信号を作り出すために、前記対象コンポーネントおよび分離された背景コンポーネントを結合するように構成される、請求項25に記載の装置。
  27. 前記空間的選択処理動作は、前記ソースコンポーネントを作り出すために、ソースの方向にビームを適用することを含む、請求項25に記載の装置。
  28. 前記空間的選択処理動作は、前記背景コンポーネントを作り出すために、ソースの方向にヌルビームを適用することを含む、請求項25に記載の装置。
  29. 前記空間的選択処理動作は、前記背景コンポーネントを作り出すために、ノイズソースの方向に第2のヌルビームを適用することを含む、請求項28に記載の装置。
  30. 前記空間的選択処理動作は、(A)前記第1と第2の音声入力チャネルとの間の位相の差異、および(B)前記第1と第2の音声入力チャネルとの間の利得の差異のうちの少なくとも1つに基づく、請求項25に記載の装置。
  31. 前記拡張モジュールはさらに、前記分離されたソースコンポーネントの動的な範囲を圧縮すること、前記分離されたソースコンポーネントの脱残響すること、および前記分離されたソースコンポーネントの周波数スペクトルを変更することのうちの少なくとも1つによって、前記得られたソースコンポーネントの知覚力を増大させるように構成される、請求項25に記載の装置。
  32. 前記拡張モジュールは、前記分離されたソースコンポーネントのスピーチコンテンツの知覚力を増大させるように構成される、請求項25に記載の装置。
  33. 前記スピーチコンテンツの知覚力を増大させることはさらに、前記スピーチコンテンツのスピードを変動させることを含む、請求項32に記載の装置。
  34. 前記スピーチコンテンツの知覚力を増大させることは、前記分離されたソースコンポーネントよりも大きな数のピッチ周期を有するように前記対象コンポーネントを作り出すことを含む、請求項32に記載の装置。
  35. 前記音声出力ステージは、前記音声出力信号に基づく音響信号を作り出すためにスピーカを駆動するように構成され、前記スピーカはユーザの耳に着けられて前記ユーザの耳の穴に向けられるように配置され、
    前記アクティブノイズ取消動作は、エラーマイクロフォンによって作り出される信号に基づき、前記エラーマイクロフォンは前記耳の穴に向けられるように配置される、
    請求項25に記載の装置
  36. 前記背景コンポーネントから前記ソースコンポーネントを分離するために前記マルチチャネル信号に空間的選択処理動作を実行することは、前記背景コンポーネントからユーザ以外の人のボイスを分離することを含む、請求項25に記載の装置。
  37. 対ノイズ信号を作り出すために、第1の音声入力チャネルにアクティブノイズ取消動作を実行することと、
    ソースコンポーネントを得るためにマルチチャネル信号を処理することと、前記処理することは、背景コンポーネントから前記ソースコンポーネントを分離するために第1の音声入力チャネルおよび第2の音声入力チャネルを含むマルチチャネル信号に空間的選択処理動作を実行することを含み、
    対象コンポーネントを作り出すために前記得られたソースコンポーネントを処理することと、
    音声出力信号を作り出すために前記対象コンポーネントに基づく拡張信号および前記対ノイズ信号を結合することと、
    ここにおいて前記得られたソースコンポーネントを前記処理することは、分離されたソースコンポーネントを増幅することにより前記得られたソースコンポーネントの知覚力を増大させることを備え、ここにおいて前記分離されたソースコンポーネントは、第1の口語から、前記第1の口語とは異なる第2の口語に置き換えられたスピーチコンテンツである、
    を特性を読み込む機械に実行させる前記特性を有する、コンピュータ可読記憶媒体
  38. 前記コンピュータ可読記憶媒体は、前記拡張信号を作り出すために、前記対象コンポーネントおよび前記分離された背景コンポーネントを結合することを、特性を読み込む機械に実行させる特性を含む、請求項37に記載のコンピュータ可読記憶媒体。
  39. 前記空間的選択処理動作は、前記ソースコンポーネントを作り出すために、ソースの方向にビームを適用することを含む、請求項37に記載のコンピュータ可読記憶媒体。
  40. 前記空間的選択処理動作は、前記背景コンポーネントを作り出すために、ソースの方向にヌルビームを適用することを含む、請求項37に記載のコンピュータ可読記憶媒体。
  41. 前記空間的選択処理動作は、前記背景コンポーネントを作り出すために、ノイズソースの方向に第2のヌルビームを適用することを含む、請求項40に記載のコンピュータ可読記憶媒体。
  42. 前記空間的選択処理動作は、(A)前記第1と第2の音声入力チャネルとの間の位相の差異、および(B)前記第1と第2の音声入力チャネルとの間の利得の差異のうちの少なくとも1つに基づく、請求項37に記載のコンピュータ可読記憶媒体。
  43. 前記得られたソースコンポーネントを処理することはさらに、前記分離されたソースコンポーネントの動的な範囲を圧縮すること、前記分離されたソースコンポーネントを脱残響すること、および前記分離されたソースコンポーネントの周波数スペクトルを変更することのうちの少なくとも1つによって、前記得られたソースコンポーネントの知覚力を増大させることを備える、請求項37に記載のコンピュータ可読記憶媒体。
  44. 前記知覚力を増大させることは、前記分離されたソースコンポーネントのスピーチコンテンツの知覚力を増大させることを含む、請求項43に記載のコンピュータ可読記憶媒体。
  45. 前記スピーチコンテンツの知覚力を増大させることはさらに、前記スピーチコンテンツのスピードを変動させることを含む、請求項44に記載のコンピュータ可読記憶媒体。
  46. 前記スピーチコンテンツの知覚力を増大させることは、前記分離されたソースコンポーネントよりも大きな数のピッチ周期を有するように前記対象コンポーネントを作り出すことを含む、請求項44に記載のコンピュータ可読記憶媒体。
  47. 前記コンピュータ可読記憶媒体は、前記音声出力信号に基づく音響信号を作り出すためにスピーカを駆動することを、前記特性を読み込む機械に実行させる特性を含み、前記スピーカはユーザの耳に着けられて前記ユーザの耳の穴に向けられるように配置され、
    前記アクティブノイズ取消動作は、エラーマイクロフォンによって作り出される信号に基づき、前記エラーマイクロフォンは前記耳の穴に向けられるように配置される、
    請求項44に記載のコンピュータ可読記憶媒体。
  48. 前記背景コンポーネントから前記ソースコンポーネントを分離するために前記マルチチャネル信号に空間的選択処理動作を実行することは、前記背景コンポーネントからユーザ以外の人のボイスを分離することを含む、請求項37に記載のコンピュータ可読記憶媒体。
JP2015113262A 2011-02-23 2015-06-03 空間的選択音声拡張のためのシステム、方法、装置、およびコンピュータ可読媒体 Active JP6009619B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201161445974P 2011-02-23 2011-02-23
US61/445,974 2011-02-23
US13/401,688 2012-02-21
US13/401,688 US9037458B2 (en) 2011-02-23 2012-02-21 Systems, methods, apparatus, and computer-readable media for spatially selective audio augmentation

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013555522A Division JP2014511612A (ja) 2011-02-23 2012-02-22 空間的選択音声拡張のためのシステム、方法、装置、およびコンピュータ可読媒体

Publications (2)

Publication Number Publication Date
JP2015173502A JP2015173502A (ja) 2015-10-01
JP6009619B2 true JP6009619B2 (ja) 2016-10-19

Family

ID=46653491

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2013555522A Pending JP2014511612A (ja) 2011-02-23 2012-02-22 空間的選択音声拡張のためのシステム、方法、装置、およびコンピュータ可読媒体
JP2015113262A Active JP6009619B2 (ja) 2011-02-23 2015-06-03 空間的選択音声拡張のためのシステム、方法、装置、およびコンピュータ可読媒体

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2013555522A Pending JP2014511612A (ja) 2011-02-23 2012-02-22 空間的選択音声拡張のためのシステム、方法、装置、およびコンピュータ可読媒体

Country Status (7)

Country Link
US (1) US9037458B2 (ja)
EP (1) EP2679022B1 (ja)
JP (2) JP2014511612A (ja)
KR (1) KR101606966B1 (ja)
CN (1) CN103392349B (ja)
ES (1) ES2898717T3 (ja)
WO (1) WO2012161781A1 (ja)

Families Citing this family (199)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8917876B2 (en) 2006-06-14 2014-12-23 Personics Holdings, LLC. Earguard monitoring system
US11450331B2 (en) 2006-07-08 2022-09-20 Staton Techiya, Llc Personal audio assistant device and method
US20080031475A1 (en) 2006-07-08 2008-02-07 Personics Holdings Inc. Personal audio assistant device and method
WO2008091874A2 (en) 2007-01-22 2008-07-31 Personics Holdings Inc. Method and device for acute sound detection and reproduction
US8254591B2 (en) 2007-02-01 2012-08-28 Personics Holdings Inc. Method and device for audio recording
US11750965B2 (en) 2007-03-07 2023-09-05 Staton Techiya, Llc Acoustic dampening compensation system
US8111839B2 (en) 2007-04-09 2012-02-07 Personics Holdings Inc. Always on headwear recording system
US11317202B2 (en) 2007-04-13 2022-04-26 Staton Techiya, Llc Method and device for voice operated control
US11856375B2 (en) 2007-05-04 2023-12-26 Staton Techiya Llc Method and device for in-ear echo suppression
US10194032B2 (en) 2007-05-04 2019-01-29 Staton Techiya, Llc Method and apparatus for in-ear canal sound suppression
US11683643B2 (en) 2007-05-04 2023-06-20 Staton Techiya Llc Method and device for in ear canal echo suppression
US10009677B2 (en) 2007-07-09 2018-06-26 Staton Techiya, Llc Methods and mechanisms for inflation
US8600067B2 (en) 2008-09-19 2013-12-03 Personics Holdings Inc. Acoustic sealing analysis system
US9129291B2 (en) 2008-09-22 2015-09-08 Personics Holdings, Llc Personalized sound management and method
US8554350B2 (en) 2008-10-15 2013-10-08 Personics Holdings Inc. Device and method to reduce ear wax clogging of acoustic ports, hearing aid sealing system, and feedback reduction system
JP2012517865A (ja) 2009-02-13 2012-08-09 パーソニクス ホールディングス インコーポレイテッド 耳栓およびポンピングシステム
US10051356B2 (en) 2010-06-26 2018-08-14 Steven W. Goldstein Methods and devices for occluding an ear canal having a predetermined filter characteristic
WO2012075343A2 (en) 2010-12-03 2012-06-07 Cirrus Logic, Inc. Oversight control of an adaptive noise canceler in a personal audio device
US8908877B2 (en) 2010-12-03 2014-12-09 Cirrus Logic, Inc. Ear-coupling detection and adjustment of adaptive response in noise-canceling in personal audio devices
CN103688245A (zh) 2010-12-30 2014-03-26 安比恩特兹公司 利用一群数据获取装置进行信息处理
US10356532B2 (en) 2011-03-18 2019-07-16 Staton Techiya, Llc Earpiece and method for forming an earpiece
US10362381B2 (en) 2011-06-01 2019-07-23 Staton Techiya, Llc Methods and devices for radio frequency (RF) mitigation proximate the ear
US8958571B2 (en) * 2011-06-03 2015-02-17 Cirrus Logic, Inc. MIC covering detection in personal audio devices
US8948407B2 (en) 2011-06-03 2015-02-03 Cirrus Logic, Inc. Bandlimiting anti-noise in personal audio devices having adaptive noise cancellation (ANC)
US9214150B2 (en) 2011-06-03 2015-12-15 Cirrus Logic, Inc. Continuous adaptation of secondary path adaptive response in noise-canceling personal audio devices
US9318094B2 (en) 2011-06-03 2016-04-19 Cirrus Logic, Inc. Adaptive noise canceling architecture for a personal audio device
US9824677B2 (en) 2011-06-03 2017-11-21 Cirrus Logic, Inc. Bandlimiting anti-noise in personal audio devices having adaptive noise cancellation (ANC)
US9325821B1 (en) * 2011-09-30 2016-04-26 Cirrus Logic, Inc. Sidetone management in an adaptive noise canceling (ANC) system including secondary path modeling
US9142205B2 (en) 2012-04-26 2015-09-22 Cirrus Logic, Inc. Leakage-modeling adaptive noise canceling for earspeakers
US9014387B2 (en) 2012-04-26 2015-04-21 Cirrus Logic, Inc. Coordinated control of adaptive noise cancellation (ANC) among earspeaker channels
US9319781B2 (en) 2012-05-10 2016-04-19 Cirrus Logic, Inc. Frequency and direction-dependent ambient sound handling in personal audio devices having adaptive noise cancellation (ANC)
US9082387B2 (en) 2012-05-10 2015-07-14 Cirrus Logic, Inc. Noise burst adaptation of secondary path adaptive response in noise-canceling personal audio devices
US9318090B2 (en) 2012-05-10 2016-04-19 Cirrus Logic, Inc. Downlink tone detection and adaptation of a secondary path response model in an adaptive noise canceling system
US9123321B2 (en) 2012-05-10 2015-09-01 Cirrus Logic, Inc. Sequenced adaptation of anti-noise generator response and secondary path response in an adaptive noise canceling system
US9082388B2 (en) 2012-05-25 2015-07-14 Bose Corporation In-ear active noise reduction earphone
US8884150B2 (en) * 2012-08-03 2014-11-11 The Penn State Research Foundation Microphone array transducer for acoustical musical instrument
US9264524B2 (en) 2012-08-03 2016-02-16 The Penn State Research Foundation Microphone array transducer for acoustic musical instrument
WO2014039026A1 (en) 2012-09-04 2014-03-13 Personics Holdings, Inc. Occlusion device capable of occluding an ear canal
US9479872B2 (en) * 2012-09-10 2016-10-25 Sony Corporation Audio reproducing method and apparatus
US9532139B1 (en) 2012-09-14 2016-12-27 Cirrus Logic, Inc. Dual-microphone frequency amplitude response self-calibration
US9313572B2 (en) 2012-09-28 2016-04-12 Apple Inc. System and method of detecting a user's voice activity using an accelerometer
US9438985B2 (en) 2012-09-28 2016-09-06 Apple Inc. System and method of detecting a user's voice activity using an accelerometer
CN104704856A (zh) * 2012-10-05 2015-06-10 欧胜软件方案公司 双耳听力系统和方法
US10194239B2 (en) * 2012-11-06 2019-01-29 Nokia Technologies Oy Multi-resolution audio signals
US9544692B2 (en) * 2012-11-19 2017-01-10 Bitwave Pte Ltd. System and apparatus for boomless-microphone construction for wireless helmet communicator with siren signal detection and classification capability
US10043535B2 (en) 2013-01-15 2018-08-07 Staton Techiya, Llc Method and device for spectral expansion for an audio signal
US9107010B2 (en) 2013-02-08 2015-08-11 Cirrus Logic, Inc. Ambient noise root mean square (RMS) detector
US9369798B1 (en) 2013-03-12 2016-06-14 Cirrus Logic, Inc. Internal dynamic range control in an adaptive noise cancellation (ANC) system
US10306389B2 (en) 2013-03-13 2019-05-28 Kopin Corporation Head wearable acoustic system with noise canceling microphone geometry apparatuses and methods
US9312826B2 (en) 2013-03-13 2016-04-12 Kopin Corporation Apparatuses and methods for acoustic channel auto-balancing during multi-channel signal extraction
US9414150B2 (en) 2013-03-14 2016-08-09 Cirrus Logic, Inc. Low-latency multi-driver adaptive noise canceling (ANC) system for a personal audio device
US9215749B2 (en) 2013-03-14 2015-12-15 Cirrus Logic, Inc. Reducing an acoustic intensity vector with adaptive noise cancellation with two error microphones
US9324311B1 (en) 2013-03-15 2016-04-26 Cirrus Logic, Inc. Robust adaptive noise canceling (ANC) in a personal audio device
US9635480B2 (en) 2013-03-15 2017-04-25 Cirrus Logic, Inc. Speaker impedance monitoring
US9467776B2 (en) 2013-03-15 2016-10-11 Cirrus Logic, Inc. Monitoring of speaker impedance to detect pressure applied between mobile device and ear
US9363596B2 (en) 2013-03-15 2016-06-07 Apple Inc. System and method of mixing accelerometer and microphone signals to improve voice quality in a mobile device
US9208771B2 (en) 2013-03-15 2015-12-08 Cirrus Logic, Inc. Ambient noise-based adaptation of secondary path adaptive response in noise-canceling personal audio devices
WO2014167165A1 (en) * 2013-04-08 2014-10-16 Nokia Corporation Audio apparatus
US10206032B2 (en) 2013-04-10 2019-02-12 Cirrus Logic, Inc. Systems and methods for multi-mode adaptive noise cancellation for audio headsets
CN103226197A (zh) * 2013-04-16 2013-07-31 哈尔滨工程大学 一种基于音色参数模型的水下目标回波分类方法
US9462376B2 (en) 2013-04-16 2016-10-04 Cirrus Logic, Inc. Systems and methods for hybrid adaptive noise cancellation
US9478210B2 (en) 2013-04-17 2016-10-25 Cirrus Logic, Inc. Systems and methods for hybrid adaptive noise cancellation
US9460701B2 (en) 2013-04-17 2016-10-04 Cirrus Logic, Inc. Systems and methods for adaptive noise cancellation by biasing anti-noise level
US9578432B1 (en) 2013-04-24 2017-02-21 Cirrus Logic, Inc. Metric and tool to evaluate secondary path design in adaptive noise cancellation systems
US9712266B2 (en) * 2013-05-21 2017-07-18 Apple Inc. Synchronization of multi-channel audio communicated over bluetooth low energy
US9264808B2 (en) 2013-06-14 2016-02-16 Cirrus Logic, Inc. Systems and methods for detection and cancellation of narrow-band noise
US9747899B2 (en) 2013-06-27 2017-08-29 Amazon Technologies, Inc. Detecting self-generated wake expressions
US9392364B1 (en) 2013-08-15 2016-07-12 Cirrus Logic, Inc. Virtual microphone for adaptive noise cancellation in personal audio devices
US11170089B2 (en) 2013-08-22 2021-11-09 Staton Techiya, Llc Methods and systems for a voice ID verification database and service in social networking and commercial business transactions
US9666176B2 (en) 2013-09-13 2017-05-30 Cirrus Logic, Inc. Systems and methods for adaptive noise cancellation by adaptively shaping internal white noise to train a secondary path
US9167082B2 (en) 2013-09-22 2015-10-20 Steven Wayne Goldstein Methods and systems for voice augmented caller ID / ring tone alias
US10405163B2 (en) * 2013-10-06 2019-09-03 Staton Techiya, Llc Methods and systems for establishing and maintaining presence information of neighboring bluetooth devices
US9620101B1 (en) 2013-10-08 2017-04-11 Cirrus Logic, Inc. Systems and methods for maintaining playback fidelity in an audio system with adaptive noise cancellation
US9324338B2 (en) * 2013-10-22 2016-04-26 Mitsubishi Electric Research Laboratories, Inc. Denoising noisy speech signals using probabilistic model
US10045135B2 (en) 2013-10-24 2018-08-07 Staton Techiya, Llc Method and device for recognition and arbitration of an input connection
ITTO20130968A1 (it) * 2013-11-28 2015-05-29 St Microelectronics Srl Microfono a matrice e metodo di acquisizione di segnali acustici
US9432762B2 (en) * 2013-12-02 2016-08-30 Blackberry Limited Back cavity microphone implementation
US10382864B2 (en) 2013-12-10 2019-08-13 Cirrus Logic, Inc. Systems and methods for providing adaptive playback equalization in an audio device
US9704472B2 (en) 2013-12-10 2017-07-11 Cirrus Logic, Inc. Systems and methods for sharing secondary path information between audio channels in an adaptive noise cancellation system
US10219071B2 (en) 2013-12-10 2019-02-26 Cirrus Logic, Inc. Systems and methods for bandlimiting anti-noise in personal audio devices having adaptive noise cancellation
US10043534B2 (en) 2013-12-23 2018-08-07 Staton Techiya, Llc Method and device for spectral expansion for an audio signal
US9414964B2 (en) * 2014-01-03 2016-08-16 Harman International Industries, Inc. Earplug for selectively providing sound to a user
US9716939B2 (en) 2014-01-06 2017-07-25 Harman International Industries, Inc. System and method for user controllable auditory environment customization
SG11201605362PA (en) * 2014-02-14 2016-07-28 Donald James Derrick System for audio analysis and perception enhancement
US9369557B2 (en) 2014-03-05 2016-06-14 Cirrus Logic, Inc. Frequency-dependent sidetone calibration
US9479860B2 (en) 2014-03-07 2016-10-25 Cirrus Logic, Inc. Systems and methods for enhancing performance of audio transducer based on detection of transducer status
US9648410B1 (en) 2014-03-12 2017-05-09 Cirrus Logic, Inc. Control of audio output of headphone earbuds based on the environment around the headphone earbuds
US9319784B2 (en) 2014-04-14 2016-04-19 Cirrus Logic, Inc. Frequency-shaped noise-based adaptation of secondary path adaptive response in noise-canceling personal audio devices
JP6268033B2 (ja) * 2014-04-24 2018-01-24 京セラ株式会社 携帯端末
US9609416B2 (en) 2014-06-09 2017-03-28 Cirrus Logic, Inc. Headphone responsive to optical signaling
KR102242118B1 (ko) * 2014-06-09 2021-04-20 삼성전자 주식회사 신호 보상 방법 및 장치
US10181315B2 (en) 2014-06-13 2019-01-15 Cirrus Logic, Inc. Systems and methods for selectively enabling and disabling adaptation of an adaptive noise cancellation system
US9478212B1 (en) 2014-09-03 2016-10-25 Cirrus Logic, Inc. Systems and methods for use of adaptive secondary path estimate to control equalization in an audio device
CN105530569A (zh) 2014-09-30 2016-04-27 杜比实验室特许公司 耳机混合主动噪声消除和噪声补偿
US10163453B2 (en) 2014-10-24 2018-12-25 Staton Techiya, Llc Robust voice activity detector system for use with an earphone
US10497353B2 (en) * 2014-11-05 2019-12-03 Voyetra Turtle Beach, Inc. Headset with user configurable noise cancellation vs ambient noise pickup
WO2016090342A2 (en) * 2014-12-05 2016-06-09 Stages Pcs, Llc Active noise control and customized audio system
US10609475B2 (en) 2014-12-05 2020-03-31 Stages Llc Active noise control and customized audio system
US10575117B2 (en) * 2014-12-08 2020-02-25 Harman International Industries, Incorporated Directional sound modification
US9622013B2 (en) * 2014-12-08 2017-04-11 Harman International Industries, Inc. Directional sound modification
US10413240B2 (en) 2014-12-10 2019-09-17 Staton Techiya, Llc Membrane and balloon systems and designs for conduits
US9552805B2 (en) 2014-12-19 2017-01-24 Cirrus Logic, Inc. Systems and methods for performance and stability control for feedback adaptive noise cancellation
US20180270571A1 (en) * 2015-01-21 2018-09-20 Harman International Industries, Incorporated Techniques for amplifying sound based on directions of interest
DK3057337T3 (da) * 2015-02-13 2020-05-11 Oticon As Høreapparat omfattende en adskilt mikrofonenhed til at opfange en brugers egen stemme
US20160300562A1 (en) * 2015-04-08 2016-10-13 Apple Inc. Adaptive feedback control for earbuds, headphones, and handsets
US10709388B2 (en) 2015-05-08 2020-07-14 Staton Techiya, Llc Biometric, physiological or environmental monitoring using a closed chamber
US9760790B2 (en) * 2015-05-12 2017-09-12 Microsoft Technology Licensing, Llc Context-aware display of objects in mixed environments
US10418016B2 (en) 2015-05-29 2019-09-17 Staton Techiya, Llc Methods and devices for attenuating sound in a conduit or chamber
US20170018282A1 (en) * 2015-07-16 2017-01-19 Chunghwa Picture Tubes, Ltd. Audio processing system and audio processing method thereof
FR3039311B1 (fr) * 2015-07-24 2017-08-18 Orosound Dispositif de controle actif de bruit
FR3039310B1 (fr) * 2015-07-24 2017-08-18 Orosound Dispositif de controle actif de bruit
WO2017029550A1 (en) 2015-08-20 2017-02-23 Cirrus Logic International Semiconductor Ltd Feedback adaptive noise cancellation (anc) controller and method having a feedback response partially provided by a fixed-response filter
US9578415B1 (en) 2015-08-21 2017-02-21 Cirrus Logic, Inc. Hybrid adaptive noise cancellation system with filtered error microphone signal
KR20170024913A (ko) * 2015-08-26 2017-03-08 삼성전자주식회사 복수의 마이크들을 이용한 잡음 제거 전자 장치 및 잡음 제거 방법
US9947364B2 (en) 2015-09-16 2018-04-17 Google Llc Enhancing audio using multiple recording devices
US11631421B2 (en) * 2015-10-18 2023-04-18 Solos Technology Limited Apparatuses and methods for enhanced speech recognition in variable environments
US11277210B2 (en) 2015-11-19 2022-03-15 The Hong Kong University Of Science And Technology Method, system and storage medium for signal separation
EP3182406B1 (en) * 2015-12-16 2020-04-01 Harman Becker Automotive Systems GmbH Sound reproduction with active noise control in a helmet
WO2017106862A1 (en) * 2015-12-18 2017-06-22 Ppip Llc Enpoint security appliance/sensor platform
KR102549689B1 (ko) * 2015-12-24 2023-06-30 삼성전자 주식회사 전자 장치 및 전자 장치의 동작 제어 방법
DK3550858T3 (da) 2015-12-30 2023-06-12 Gn Hearing As Et på hovedet bærbart høreapparat
US9747887B2 (en) * 2016-01-12 2017-08-29 Bose Corporation Systems and methods of active noise reduction in headphones
US10616693B2 (en) 2016-01-22 2020-04-07 Staton Techiya Llc System and method for efficiency among devices
WO2017136573A1 (en) * 2016-02-02 2017-08-10 Dts, Inc. Augmented reality headphone environment rendering
US9997173B2 (en) * 2016-03-14 2018-06-12 Apple Inc. System and method for performing automatic gain control using an accelerometer in a headset
US10013966B2 (en) 2016-03-15 2018-07-03 Cirrus Logic, Inc. Systems and methods for adaptive active noise cancellation for multiple-driver personal audio device
EP3453189B1 (en) 2016-05-06 2021-04-14 Eers Global Technologies Inc. Device and method for improving the quality of in- ear microphone signals in noisy environments
US10547947B2 (en) * 2016-05-18 2020-01-28 Qualcomm Incorporated Device for generating audio output
JP2018007256A (ja) * 2016-07-04 2018-01-11 イーエム−テック・カンパニー・リミテッドEM−TECH.Co.,Ltd. オーディオフォーカシング機能を備える音声増幅装置
US11085871B2 (en) * 2016-07-06 2021-08-10 Bragi GmbH Optical vibration detection system and method
US10045110B2 (en) * 2016-07-06 2018-08-07 Bragi GmbH Selective sound field environment processing system and method
GB2552178A (en) * 2016-07-12 2018-01-17 Samsung Electronics Co Ltd Noise suppressor
CN106452498B (zh) * 2016-11-08 2019-03-22 邦达诚科技(常州)有限公司 用于放射源环境的信息设备及其控制方法
JP6670224B2 (ja) * 2016-11-14 2020-03-18 株式会社日立製作所 音声信号処理システム
US9980075B1 (en) 2016-11-18 2018-05-22 Stages Llc Audio source spatialization relative to orientation sensor and output
US10945080B2 (en) 2016-11-18 2021-03-09 Stages Llc Audio analysis and processing system
US10616685B2 (en) * 2016-12-22 2020-04-07 Gn Hearing A/S Method and device for streaming communication between hearing devices
EP3346731A1 (en) 2017-01-04 2018-07-11 Harman Becker Automotive Systems GmbH Systems and methods for generating natural directional pinna cues for virtual sound source synthesis
US11297450B2 (en) * 2017-02-20 2022-04-05 Sonova Ag Method for operating a hearing system, a hearing system and a fitting system
WO2018163810A1 (ja) * 2017-03-07 2018-09-13 ソニー株式会社 信号処理装置および方法、並びにプログラム
US10878819B1 (en) * 2017-04-25 2020-12-29 United Services Automobile Association (Usaa) System and method for enabling real-time captioning for the hearing impaired via augmented reality
US20180324514A1 (en) * 2017-05-05 2018-11-08 Apple Inc. System and method for automatic right-left ear detection for headphones
IT201700073663A1 (it) * 2017-06-30 2018-12-30 Torino Politecnico Audio signal digital processing method and system thereof
US10567904B2 (en) * 2017-08-23 2020-02-18 Harman International Industries, Incorporated System and method for headphones for monitoring an environment outside of a user's field of view
US10405082B2 (en) 2017-10-23 2019-09-03 Staton Techiya, Llc Automatic keyword pass-through system
CN107864419A (zh) * 2017-10-23 2018-03-30 恒玄科技(上海)有限公司 一种用于主动降噪的模拟、数字混合降噪系统
WO2019083130A1 (ko) 2017-10-25 2019-05-02 삼성전자주식회사 전자 장치 및 그 제어 방법
EP3477964B1 (en) * 2017-10-27 2021-03-24 Oticon A/s A hearing system configured to localize a target sound source
CN107889002B (zh) * 2017-10-30 2019-08-27 恒玄科技(上海)有限公司 颈环蓝牙耳机、颈环蓝牙耳机的降噪系统及降噪方法
CN111492365A (zh) * 2018-01-03 2020-08-04 谷歌有限责任公司 使用辅助设备盒子进行翻译
WO2019157069A1 (en) * 2018-02-09 2019-08-15 Google Llc Concurrent reception of multiple user speech input for translation
GB2607428B (en) 2018-03-09 2023-02-22 Earsoft Llc Eartips and earphone devices, and systems and methods therefore
US11607155B2 (en) 2018-03-10 2023-03-21 Staton Techiya, Llc Method to estimate hearing impairment compensation function
US10951994B2 (en) 2018-04-04 2021-03-16 Staton Techiya, Llc Method to acquire preferred dynamic range function for speech enhancement
WO2019199862A1 (en) * 2018-04-09 2019-10-17 Human, Incorporated Translation system
US11488590B2 (en) 2018-05-09 2022-11-01 Staton Techiya Llc Methods and systems for processing, storing, and publishing data collected by an in-ear device
US11721352B2 (en) * 2018-05-16 2023-08-08 Dotterel Technologies Limited Systems and methods for audio capture
CN108648756A (zh) * 2018-05-21 2018-10-12 百度在线网络技术(北京)有限公司 语音交互方法、装置和系统
US11122354B2 (en) 2018-05-22 2021-09-14 Staton Techiya, Llc Hearing sensitivity acquisition methods and devices
US11032664B2 (en) 2018-05-29 2021-06-08 Staton Techiya, Llc Location based audio signal message processing
EP4358537A2 (en) * 2018-06-12 2024-04-24 Harman International Industries, Inc. Directional sound modification
US10602292B2 (en) * 2018-06-14 2020-03-24 Magic Leap, Inc. Methods and systems for audio signal filtering
CN109068217B (zh) * 2018-08-17 2020-08-07 歌尔科技有限公司 一种入耳式耳机的侧音增强方法、装置及入耳式耳机
GB2577564B (en) 2018-09-28 2022-02-23 Daal Noise Control Systems As An active noise cancellation system for helmets
US11068668B2 (en) * 2018-10-25 2021-07-20 Facebook Technologies, Llc Natural language translation in augmented reality(AR)
CN109360549B (zh) * 2018-11-12 2023-07-18 北京搜狗科技发展有限公司 一种数据处理方法、穿戴设备和用于数据处理的装置
JP7407580B2 (ja) * 2018-12-06 2024-01-04 シナプティクス インコーポレイテッド システム、及び、方法
US10638248B1 (en) * 2019-01-29 2020-04-28 Facebook Technologies, Llc Generating a modified audio experience for an audio system
DE102019001966B4 (de) * 2019-03-21 2023-05-25 Dräger Safety AG & Co. KGaA Vorrichtung, System und Verfahren zur Audiosignalverarbeitung
GB2582910A (en) * 2019-04-02 2020-10-14 Nokia Technologies Oy Audio codec extension
US11425494B1 (en) * 2019-06-12 2022-08-23 Amazon Technologies, Inc. Autonomously motile device with adaptive beamforming
US11765522B2 (en) * 2019-07-21 2023-09-19 Nuance Hearing Ltd. Speech-tracking listening device
IT201900015009A1 (it) * 2019-08-26 2021-02-26 Iinformatica S R L S Dispositivo e relativo metodo per la trasmissione adattativa di dati
US11164341B2 (en) * 2019-08-29 2021-11-02 International Business Machines Corporation Identifying objects of interest in augmented reality
CN110703200B (zh) * 2019-09-25 2021-07-30 中国科学院声学研究所 基于声学超材料的单通道多声源定位与分离装置及方法
CA3156121C (en) 2019-10-10 2024-03-19 Shenzhen Shokz Co., Ltd. Audio device
CN110931034B (zh) * 2019-11-27 2022-05-24 深圳市悦尔声学有限公司 一种送话拾音麦克风内置型耳机的拾音降噪方法
GB2590470A (en) * 2019-12-19 2021-06-30 Nokia Technologies Oy Providing an audio object
US11871184B2 (en) 2020-01-07 2024-01-09 Ramtrip Ventures, Llc Hearing improvement system
US11064294B1 (en) 2020-01-10 2021-07-13 Synaptics Incorporated Multiple-source tracking and voice activity detections for planar microphone arrays
JP2021135462A (ja) * 2020-02-28 2021-09-13 日本電信電話株式会社 ソースイメージ推定装置、ソースイメージ推定方法及びソースイメージ推定プログラム
US11356757B2 (en) * 2020-03-09 2022-06-07 Bose Corporation Individually assignable transducers to modulate sound output in open ear form factor
US11284183B2 (en) 2020-06-19 2022-03-22 Harman International Industries, Incorporated Auditory augmented reality using selective noise cancellation
US11482238B2 (en) 2020-07-21 2022-10-25 Harman International Industries, Incorporated Audio-visual sound enhancement
EP3945735A1 (en) 2020-07-30 2022-02-02 Koninklijke Philips N.V. Sound management in an operating room
CN112151056B (zh) * 2020-09-27 2023-08-04 浙江诺尔康神经电子科技股份有限公司 带自定义的智能耳蜗声音处理系统和方法
CN112365900B (zh) * 2020-10-30 2021-12-24 北京声智科技有限公司 一种语音信号增强方法、装置、介质和设备
CN112333602B (zh) * 2020-11-11 2022-08-26 支付宝(杭州)信息技术有限公司 信号处理方法、信号处理设备、计算机可读存储介质及室内用播放系统
CN113077779A (zh) * 2021-03-10 2021-07-06 泰凌微电子(上海)股份有限公司 一种降噪方法、装置、电子设备以及存储介质
KR102658473B1 (ko) * 2021-03-17 2024-04-18 한국전자통신연구원 다중 음향 이벤트 구간에서의 레이블 인코딩 방법 및 장치
CN113099348A (zh) * 2021-04-09 2021-07-09 泰凌微电子(上海)股份有限公司 降噪方法、降噪装置和耳机
CN113793625A (zh) * 2021-08-04 2021-12-14 维沃移动通信有限公司 音频播放方法、装置
TWI790718B (zh) * 2021-08-19 2023-01-21 宏碁股份有限公司 會議終端及用於會議的回音消除方法
EP4210350A4 (en) * 2021-11-19 2023-12-13 Shenzhen Shokz Co., Ltd. OPEN ACOUSTIC DEVICE
CN114299976A (zh) * 2022-03-06 2022-04-08 荣耀终端有限公司 音频数据处理方法及电子设备
US11890168B2 (en) * 2022-03-21 2024-02-06 Li Creative Technologies Inc. Hearing protection and situational awareness system
KR102613033B1 (ko) * 2022-03-23 2023-12-14 주식회사 알머스 머리전달함수 기반의 이어폰, 이를 포함하는 전화디바이스 및 이를 이용하는 통화방법
US11847200B2 (en) * 2022-03-29 2023-12-19 Cirrus Logic Inc. Methods and apparatus for system identification
US11918440B1 (en) * 2023-06-07 2024-03-05 Sonura, LLC Active acoustic aural development system and method

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58176861A (ja) 1982-04-09 1983-10-17 Sanyo Electric Co Ltd 円筒型電池の製造方法
US5105377A (en) 1990-02-09 1992-04-14 Noise Cancellation Technologies, Inc. Digital virtual earth active cancellation system
JPH049834A (ja) 1990-04-27 1992-01-14 Canon Inc カメラ
JPH0416900A (ja) * 1990-05-10 1992-01-21 Clarion Co Ltd 音声認識装置
WO1993026085A1 (en) 1992-06-05 1993-12-23 Noise Cancellation Technologies Active/passive headset with speech filter
JP3254789B2 (ja) 1993-02-05 2002-02-12 ソニー株式会社 補聴装置
JPH10126893A (ja) 1996-10-18 1998-05-15 Matsushita Electric Ind Co Ltd 補聴器
JP3435686B2 (ja) 1998-03-02 2003-08-11 日本電信電話株式会社 収音装置
DE60044521D1 (de) 1999-02-16 2010-07-22 Yugen Kaisha Gm & M Sprache umwandlung gerät und verfahren
JP2003521202A (ja) * 2000-01-28 2003-07-08 レイク テクノロジー リミティド 地理的な環境で使用される空間オーディオシステム。
US7206421B1 (en) * 2000-07-14 2007-04-17 Gn Resound North America Corporation Hearing system beamformer
JP2002135642A (ja) * 2000-10-24 2002-05-10 Atr Onsei Gengo Tsushin Kenkyusho:Kk 音声翻訳システム
US20030227476A1 (en) * 2001-01-29 2003-12-11 Lawrence Wilcock Distinguishing real-world sounds from audio user interface sounds
US7149691B2 (en) * 2001-07-27 2006-12-12 Siemens Corporate Research, Inc. System and method for remotely experiencing a virtual environment
CA2354755A1 (en) * 2001-08-07 2003-02-07 Dspfactory Ltd. Sound intelligibilty enhancement using a psychoacoustic model and an oversampled filterbank
US7415123B2 (en) * 2001-09-26 2008-08-19 The United States Of America As Represented By The Secretary Of The Navy Method and apparatus for producing spatialized audio signals
US7398209B2 (en) * 2002-06-03 2008-07-08 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance
JP4328698B2 (ja) 2004-09-15 2009-09-09 キヤノン株式会社 素片セット作成方法および装置
US20060271370A1 (en) 2005-05-24 2006-11-30 Li Qi P Mobile two-way spoken language translator and noise reduction using multi-directional microphone arrays
US8139787B2 (en) * 2005-09-09 2012-03-20 Simon Haykin Method and device for binaural signal enhancement
GB0609248D0 (en) 2006-05-10 2006-06-21 Leuven K U Res & Dev Binaural noise reduction preserving interaural transfer functions
US8325957B2 (en) 2006-10-10 2012-12-04 Siemens Audiologische Technik Gmbh Hearing aid and method for operating a hearing aid
US20120051561A1 (en) * 2006-12-05 2012-03-01 Cohen Alexander J Audio/sound information system and method
JP5401760B2 (ja) * 2007-02-05 2014-01-29 ソニー株式会社 ヘッドフォン装置、音声再生システム、音声再生方法
JP4799443B2 (ja) * 2007-02-21 2011-10-26 株式会社東芝 受音装置及びその方法
WO2008119122A1 (en) 2007-03-30 2008-10-09 Personal Audio Pty Ltd An acoustically transparent earphone
WO2009110578A1 (ja) 2008-03-03 2009-09-11 日本電信電話株式会社 残響除去装置、残響除去方法、残響除去プログラム、および記録媒体
US8170222B2 (en) 2008-04-18 2012-05-01 Sony Mobile Communications Ab Augmented reality enhanced audio
US9202455B2 (en) 2008-11-24 2015-12-01 Qualcomm Incorporated Systems, methods, apparatus, and computer program products for enhanced active noise cancellation
EP2211563B1 (en) 2009-01-21 2011-08-24 Siemens Medical Instruments Pte. Ltd. Method and apparatus for blind source separation improving interference estimation in binaural Wiener filtering
US20100185432A1 (en) 2009-01-22 2010-07-22 Voice Muffler Corporation Headset Wireless Noise Reduced Device for Language Translation
US9202456B2 (en) 2009-04-23 2015-12-01 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for automatic control of active noise cancellation
US8737636B2 (en) 2009-07-10 2014-05-27 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for adaptive active noise cancellation
US20110288860A1 (en) 2010-05-20 2011-11-24 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for processing of speech signals using head-mounted microphone pair
US9053697B2 (en) 2010-06-01 2015-06-09 Qualcomm Incorporated Systems, methods, devices, apparatus, and computer program products for audio equalization
US9275621B2 (en) * 2010-06-21 2016-03-01 Nokia Technologies Oy Apparatus, method and computer program for adjustable noise cancellation
US20120029912A1 (en) * 2010-07-27 2012-02-02 Voice Muffler Corporation Hands-free Active Noise Canceling Device

Also Published As

Publication number Publication date
ES2898717T3 (es) 2022-03-08
CN103392349B (zh) 2016-05-25
US20120215519A1 (en) 2012-08-23
JP2015173502A (ja) 2015-10-01
EP2679022A1 (en) 2014-01-01
KR20130124573A (ko) 2013-11-14
EP2679022B1 (en) 2021-10-27
KR101606966B1 (ko) 2016-03-28
US9037458B2 (en) 2015-05-19
CN103392349A (zh) 2013-11-13
WO2012161781A1 (en) 2012-11-29
JP2014511612A (ja) 2014-05-15

Similar Documents

Publication Publication Date Title
JP6009619B2 (ja) 空間的選択音声拡張のためのシステム、方法、装置、およびコンピュータ可読媒体
EP2577657B1 (en) Systems, methods, devices, apparatus, and computer program products for audio equalization
EP2572353B1 (en) Methods, apparatus, and computer-readable media for processing of speech signals using head-mounted microphone pair
JP5762550B2 (ja) マルチマイクロフォンを用いた3次元サウンド獲得及び再生
US9202455B2 (en) Systems, methods, apparatus, and computer program products for enhanced active noise cancellation
JP5575977B2 (ja) ボイスアクティビティ検出
EP2599329B1 (en) System, method, apparatus, and computer-readable medium for multi-microphone location-selective processing
US11740859B2 (en) Media-compensated pass-through and mode-switching
KR20070073735A (ko) 소란한 환경에서 언어 신호의 분리를 위한 헤드셋
CN112424863A (zh) 语音感知音频系统及方法
JP2023159381A (ja) 音声認識オーディオシステムおよび方法
CN113038318B (zh) 一种语音信号处理方法及装置
CN113038315A (zh) 一种语音信号处理方法及装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150702

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160914

R150 Certificate of patent or registration of utility model

Ref document number: 6009619

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250