JP7123951B2 - 通信アセンブリにおけるユーザ音声アクティビティ検出のための方法、その通信アセンブリ - Google Patents
通信アセンブリにおけるユーザ音声アクティビティ検出のための方法、その通信アセンブリ Download PDFInfo
- Publication number
- JP7123951B2 JP7123951B2 JP2019542604A JP2019542604A JP7123951B2 JP 7123951 B2 JP7123951 B2 JP 7123951B2 JP 2019542604 A JP2019542604 A JP 2019542604A JP 2019542604 A JP2019542604 A JP 2019542604A JP 7123951 B2 JP7123951 B2 JP 7123951B2
- Authority
- JP
- Japan
- Prior art keywords
- signal
- user
- speech
- audio
- audio signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 43
- 238000004891 communication Methods 0.000 title claims description 36
- 230000000694 effects Effects 0.000 title claims description 35
- 238000000034 method Methods 0.000 title claims description 24
- 230000005236 sound signal Effects 0.000 claims description 70
- 238000012545 processing Methods 0.000 claims description 63
- 230000006870 function Effects 0.000 claims description 48
- 238000012546 transfer Methods 0.000 claims description 39
- 230000004044 response Effects 0.000 claims description 33
- 230000008878 coupling Effects 0.000 claims description 15
- 238000010168 coupling process Methods 0.000 claims description 15
- 238000005859 coupling reaction Methods 0.000 claims description 15
- 230000001419 dependent effect Effects 0.000 claims description 13
- 210000000988 bone and bone Anatomy 0.000 claims description 12
- 210000003128 head Anatomy 0.000 claims description 11
- 230000009467 reduction Effects 0.000 claims description 7
- 210000000613 ear canal Anatomy 0.000 claims description 4
- 239000000463 material Substances 0.000 claims description 4
- 238000003672 processing method Methods 0.000 claims 1
- 230000001131 transforming effect Effects 0.000 claims 1
- 238000005259 measurement Methods 0.000 description 9
- 238000013459 approach Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 210000005069 ears Anatomy 0.000 description 3
- 230000000670 limiting effect Effects 0.000 description 3
- 230000002829 reductive effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000013016 damping Methods 0.000 description 2
- 210000000867 larynx Anatomy 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000037361 pathway Effects 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000000875 corresponding effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 210000003625 skull Anatomy 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 210000001260 vocal cord Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3206—Monitoring of events, devices or parameters that trigger a change in power modality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3234—Power saving characterised by the action undertaken
- G06F1/3287—Power saving characterised by the action undertaken by switching off individual functional units in the computer system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K11/00—Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/16—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/175—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
- G10K11/178—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
- G10K11/1781—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K11/00—Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/16—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/175—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
- G10K11/178—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
- G10K11/1781—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions
- G10K11/17821—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions characterised by the analysis of the input signals only
- G10K11/17827—Desired external signals, e.g. pass-through audio such as music or speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K11/00—Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/16—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/175—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
- G10K11/178—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
- G10K11/1787—General system configurations
- G10K11/17879—General system configurations using both a reference signal and an error signal
- G10K11/17881—General system configurations using both a reference signal and an error signal the reference signal being an acoustic signal, e.g. recorded with a microphone
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/10—Speech classification or search using distance or distortion measures between unknown speech and reference templates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/84—Detection of presence or absence of voice signals for discriminating voice from noise
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/10—Earpieces; Attachments therefor ; Earphones; Monophonic headphones
- H04R1/1041—Mechanical or electronic switches, or control elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/10—Earpieces; Attachments therefor ; Earphones; Monophonic headphones
- H04R1/1083—Reduction of ambient noise
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
- H04R1/406—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
- H04R5/033—Headphones for stereophonic communication
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K2210/00—Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
- G10K2210/10—Applications
- G10K2210/108—Communication systems, e.g. where useful sound is kept and noise is cancelled
- G10K2210/1081—Earphones, e.g. for telephones, ear protectors or headsets
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2201/00—Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
- H04R2201/10—Details of earpieces, attachments therefor, earphones or monophonic headphones covered by H04R1/10 but not provided for in any of its subgroups
- H04R2201/107—Monophonic and stereophonic headphones with microphone for two-way hands free communication
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2460/00—Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
- H04R2460/13—Hearing devices using bone conduction transducers
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Otolaryngology (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Computing Systems (AREA)
- Soundproofing, Sound Blocking, And Sound Damping (AREA)
- Headphones And Earphones (AREA)
- Circuit For Audible Band Transducer (AREA)
Description
この特許文献の一部は、著作権保護の対象となる題材を含んでいる。著作権保有者は、この特許文献または特許開示が特許商標庁の包袋または記録に掲載されているため、この特許文献または特許開示を誰でも複写複製できることに対して異議はないが、その他の点ではすべての如何なる著作権をも保有する。以下の表示がこの文献に適用される:Copyright (c) 2017, AVNERA CORPORATION
関連出願
本願は、2017年9月21日に出願された米国特許出願第15/711,793号、2017年2月7日に出願された米国仮特許出願第62/456,100号、2017年2月14日に出願された米国仮特許出願第62/459,055号、および2017年7月14日に出願された米国仮特許出願第62/532,964号に対する優先権を主張する。これら4つの出願は全て、全文が引用によって本明細書に援用される。
本発明のさまざまな実施形態は、一般に、自動雑音低減を有するヘッドセットなどのさまざまなタイプのヘッドセットにおけるユーザ音声アクティビティの自動検出に関する。
一般に、ヘッドセットは、ユーザの耳を覆うように、ユーザの耳に装着するように、またはユーザの耳に挿入するように着用されて電子通信を容易にする1つまたは2つのイヤデバイスまたはイヤプラグとともに、マイクロフォンを含む。多くの最近のヘッドセットは、周囲雑音のかなりの部分を自動的に検知および消去することによって、ユーザのリスニング体験を向上させるための自動雑音低減(ANR)または自動雑音消去(ANC)回路も含む。ANC回路は、原理上は単純であるが、実現するには複雑であり、多くのヘッドセットは、6つのマイクロフォン(マイク)を含み、これら6つのマイクロフォンのうちの2つがフィードバック(fb)ANCのためのものであり、2つがフィードフォワード(ff)ANCのためのものであり、1つまたは2つがユーザ音声信号をピックアップするためのものである。
これらのおよび/または他の必要性または問題のうちの1つ以上に対処するために、本発明者等は、とりわけ、ユーザ発話の有無を自動的に検出して、関連付けられたミューティングまたは他の音声もしくは発話依存機能を動作させるための1つ以上の例示的なシステム、キット、方法、デバイス、アセンブリおよび/またはコンポーネントを考案した。いくつかの実施形態は、音声マイクと、少なくとも2つの制御マイクと、処理回路とを含み、処理回路は、制御マイク出力信号の関係に基づいて音声マイクをミュートするように構成される。
図面および特許請求の範囲を盛り込んだこの文献には、1つ以上の発明の1つ以上の具体的な実施形態が記載されている。これらの実施形態は、本発明を限定する目的ではなく本発明を単に例示および教示する目的で提供されているが、当業者が本発明を実現または実施できるように十分に詳しく示され、記載されている。さらに、適宜、本発明を曖昧にすることを回避するために、説明では当業者に公知の特定の情報は割愛してもよい。
ANR処理モジュール134は、回路と、ユーザの耳腔内を含むイヤピース前方容積内の周囲雑音を消去するための機械によって実行可能な命令とを提供する。特に、モジュール134は、それぞれの外耳道または耳腔内の全音響エネルギの合計を表す出力信号をフィードバックマイクFFAおよびFFBから受信する。また、モジュール134は、スマートフォン、音楽プレーヤ、トランシーバまたは他の電子音源などのデバイス140からイヤホンオーディオ信号を受信する。フィードフォワードマイクロフォンFFAおよびFFBからの周囲雑音信号に応答して、ANR処理回路は、雑音消去信号を生成し、消去信号とイヤホンオーディオ信号(Rx)との混合信号または合計をANRドライバDAおよびDBに送信し、ANRドライバDAおよびDBは、感知した周囲雑音のかなりの部分を消去してイヤホンオーディオ信号の音響的表現を提供する音響エネルギを生成する。いくつかの実施形態では、ANR処理モジュール134は、2016年3月4日に出願された米国特許出願第15/069,271号に記載されているタイプなどの適応型ANR処理を含み、米国特許出願第15/069,271号は、引用によって本明細書に援用される。
第1の方法では、ユーザ頭部が十分に対称的であるので、ユーザ頭部を通る音響経路104Aおよび104Bが一般に等長であり、材料組成の点で実質的に類似しているという見識を活用する。これは、フィードバックマイク出力の発話成分が、ユーザが話しているときには大きさおよび位相の点で実質的に同一であり、ユーザが話していないときには少なくとも位相の点で実質的に異なることを意味する。言い換えれば、フィードバックマイクからの出力信号は、ほぼ同一の発話データ成分を有し、そのため、ユーザが話しているときには(位相関係の点で)高いコヒーレンスを示す。さらに、周囲雑音から2つのマイクまでの距離は、通常、図1における経路P1およびP2によって示されるように等しくなく、または非対称であり、これは、コヒーレンスの位相が回転させられることを意味する。(依然としてコヒーレントであり得るが、これは、大きさが依然として1に非常に近いが、角度が「同相の」状況を示す0にならないことを意味する。)
したがって、例示的な実施形態では、閾値テストの範囲内の左側および右側フィードバックエラーマイク信号fbLおよびfbRの複素コヒーレンスを使用して、ユーザ音声アクティビティが存在しそうであるか否かを判断する。閾値基準が満たされる場合、ミュートコマンド信号がミュートモジュール136に提供され、満たされない場合、ミュート解除コマンド符号が提供される。より具体的には、閾値テストは、以下の形態をとる。
特に、いくつかの実施形態では、大きさも位相も含む複素伝達比を使用してもよいため、パフォーマンスが向上する。この複素の場合に閾値を扱う際、この閾値はもはやスケーラではなく、線である。(この線は、おそらく湾曲しているか、またはつなぎ合わせられており、複素平面を分割する。たとえば、虚数部>0の場合の線は、1つの閾値であろう。または、閾値は、正の実数部および虚数部が発話を示し、複素平面の四分円を規定するようなものであってもよい。)なお、いくつかの実施形態では、左側ではなく右側のフィードバックおよびフィードフォワードマイクロフォンを使用してもよい。さらに他の実施形態では、右側イヤピースを使用するか左側イヤピースを使用するかを自動的に判断してもよい。たとえば、左側イヤピースが取り外される場合、オンイヤー検出回路は、右側イヤピースのみが所定の位置にあると判断して、右側フィードバックおよびフィードフォワードマイクロフォンに基づいて音声検出モジュールを動作させる。
fbambientは、周囲雑音に起因するfbマイク信号であり、
fbspeech_BCは、骨伝導に起因するfbマイク信号である。
いくつかの実施形態では、以下のように対称性に基づく閾値テストと非対称性に基づく閾値テストとを組み合わせる。
分散比推定器ブロック540は、予測エラーの分散Seおよび信号φの分散Sφを推定し、比Se/Sφを計算する。この比は、判断ブロック550に提供され、判断ブロック550は、この比を検出閾値DTと比較する。比が閾値を超える場合、ユーザ音声アクティビティ検出信号は、ユーザ発話が有ることを示す1に設定される。そうでなければ、検出信号は、0に設定される。
上記の明細書では、具体的な例示的な実施形態について説明してきた。しかし、以下の特許請求の範囲に記載されている本発明の範囲から逸脱することなくさまざまな変更および修正を行ってもよいということを当業者は理解する。したがって、明細書および図面は、限定的ではなく例示的であるように見なされるべきであり、全てのこのような変更は、本教示の範囲内に含まれるよう意図される。
Claims (38)
- 音声処理システムであって、
複数の音声信号を受信する複数の入力を備え、前記複数の入力は、ユーザの第1の耳の近傍に配置された第1のトランスデューサからの第1の音声信号を受信する第1の入力と、前記ユーザの第2の耳の近傍に配置された第2のトランスデューサからの第2の音声信号を受信する第2の入力と、前記ユーザの口頭の領域の近傍に配置された第3のトランスデューサからの第3の音声信号を受信する第3の入力とを含み、さらに、
前記複数の入力に結合され、前記第1、第2および第3の音声信号を受信して、前記第1の音声信号および前記第2の音声信号の発話成分を比較して、その比較結果に基づいて、前記発話成分が前記ユーザによって与えられたものかどうかを判断して、前記発話成分が前記ユーザによって与えられたものかどうかを示す音声アクティビティ検出信号を与えるように構成された処理回路を備える、音声処理システム。 - 前記処理回路は、前記第1の音声信号および前記第2の音声信号の前記発話成分の強度および位相を比較して、前記発話成分が前記ユーザによって与えられたものかどうかを判断する、請求項1に記載の音声処理システム。
- 前記処理回路は、前記第1の音声信号および前記第2の音声信号の前記発話成分の前記強度および前記位相が実質的に同一であることを示す比較結果に応答して、前記発話成分が前記ユーザによって与えられたものであると判断する、請求項2に記載の音声処理システム。
- 前記処理回路は、さらに、
前記発話成分が前記ユーザによって与えられたものではないという判断に応答して、前記第3の音声信号に対して、ミュートまたは減衰の少なくとも一方を行うように構成される、請求項3に記載の音声処理システム。 - 前記第1、第2、および第3のトランスデューサは、マイクロフォンである、請求項3に記載の音声処理システム。
- 前記音声処理システムは、挿耳型ヘッドセット、耳装着型ヘッドセットまたは、耳覆い型ヘッドセットのうちの1つである、請求項3に記載の音声処理システム。
- 前記処理回路は、前記第1の音声信号および前記第2の音声信号の前記発話成分の少なくとも前記位相が実質的に同一ではないことを示す比較結果に応答して、前記発話成分が前記ユーザによって与えられたものではないと判断する、請求項2に記載の音声処理システム。
- 前記複数の入力は、第4のトランスデューサからの第4の音声信号を受信する第4の入力をさらに含み、前記第4のトランスデューサは、前記ユーザの前記第1の耳の近傍でありながら前記第1のトランスデューサよりも前記ユーザの前記第1の耳から遠くに配置され、
前記処理回路は、前記第4の音声信号を受信して、前記第1の音声信号および前記第4の音声信号の発話成分を比較して、その比較結果に基づいて、前記発話成分が前記ユーザによって与えられたものかどうかを判断するように、さらに構成される、請求項1に記載の音声処理システム。 - 前記処理回路は、前記第1の音声信号、前記第2の音声信号および前記第4の音声信号の前記発話成分の強度または位相の少なくとも1つを比較して、前記発話成分が前記ユーザによって与えられたものかどうかを判断する、請求項8に記載の音声処理システム。
- 前記処理回路は、前記第1の音声信号および前記第2の音声信号の前記発話成分の前記強度および前記位相が実質的に同一であり、かつ、少なくとも前記第1の音声信号の前記強度が前記第4の音声信号の前記強度よりも実質的に大きいことを示す比較結果に応答して、前記発話成分が前記ユーザによって与えられたものであると判断する、請求項9に記載の音声処理システム。
- 音声処理システムであって、
複数の音声信号を受信する複数の入力を備え、前記複数の入力は、ユーザの第1の耳の近傍に配置された第1のトランスデューサからの第1の音声信号を受信する第1の入力と、前記ユーザの前記第1の耳の近傍であるが前記第1のトランスデューサよりも前記第1の耳から遠くに配置された第2のトランスデューサからの第2の音声信号を受信する第2の入力と、前記ユーザの口頭の領域の近傍に配置された第3のトランスデューサからの第3の音声信号を受信する第3の入力とを含み、さらに、
前記複数の入力に結合され、前記第1、第2および第3の音声信号を受信して、前記第1の音声信号と前記第2の音声信号の発話成分を比較して、その比較結果に基づいて、前記発話成分が前記ユーザによって与えられたものかどうかを判断して、前記発話成分が前記ユーザによって与えられたものかどうかを示す音声アクティビティ検出信号を与えるように構成された処理回路を備える、音声処理システム。 - 前記処理回路は、前記第1の音声信号および前記第2の音声信号の前記発話成分の強度または位相のうちの少なくとも1つを比較して、前記発話成分が前記ユーザによって与えられたものかどうかを判断する、請求項11に記載の音声処理システム。
- 前記処理回路は、少なくとも前記第1の音声信号の前記発話成分の前記強度が前記第2の音声信号の前記発話成分の前記強度よりも実質的に大きいことを示す比較結果に応答して、前記発話成分が前記ユーザによって与えられたものであると判断する、請求項12に記載の音声処理システム。
- 前記処理回路は、さらに、
前記発話成分が前記ユーザによって与えられたものではないという判断に応答して、前記第3の音声信号に対して、ミュートまたは減衰の少なくとも一方を行うように構成される、請求項13に記載の音声処理システム。 - 前記第1、第2、および第3のトランスデューサは、マイクロフォンであり、
前記音声処理システムは、挿耳型ヘッドセット、耳装着型ヘッドセットまたは、耳覆い型ヘッドセットのうちの1つである、請求項13に記載の音声処理システム。 - 前記処理回路は、少なくとも前記第1の音声信号の前記発話成分の前記強度が前記第2の音声信号の前記発話成分の前記強度よりも実質的に大きくないことを示す比較結果に応答して、前記発話成分が前記ユーザによって与えられたものではないと判断する、請求項12に記載の音声処理システム。
- 前記処理回路は、前記第1の音声信号の前記発話成分が前記第2の音声信号の前記発話成分よりも時間的に実質的に早く到達したことを示す比較結果に応答して、前記発話成分が前記ユーザによって与えられたものではないと判断する、請求項11に記載の音声処理システム。
- 音声処理方法であって、
ユーザの第1の耳の近傍に配置された第1のトランスデューサから第1の音声信号を受信することと、
前記ユーザの第2の耳の近傍、または、前記ユーザの前記第1の耳の近傍でありながら前記第1のトランスデューサよりも前記ユーザの前記第1の耳から遠くに配置された第2のトランスデューサから第2の音声信号を受信することと、
前記ユーザの口頭の領域の近傍に配置された第3のトランスデューサから第3の音声信号を受信することと、
前記第1の音声信号および前記第2の音声信号の発話成分を比較することと、
比較結果に基づいて、前記発話成分が前記ユーザによって与えられたものかどうかを判断することと、
前記発話成分が前記ユーザによって与えられたものかどうかを示す音声アクティビティ検出信号を与えることとを備える、音声処理方法。 - 前記第2のトランスデューサは、前記ユーザの前記第2の耳の近傍に配置され、
前記第1の音声信号および前記第2の音声信号の発話成分を比較することは、前記第1の音声信号および前記第2の音声信号の前記発話成分の強度および位相を比較することを含み、
前記比較結果に基づいて、前記発話成分が前記ユーザによって与えられたものかどうかを判断することは、前記第1の音声信号および前記第2の音声信号の前記発話成分の前記強度および前記位相が実質的に同一であることを示す前記比較結果に応答して、前記発話成分が前記ユーザによって与えられたものであると判断することを含む、請求項18に記載の方法。 - 前記第2のトランスデューサは、前記ユーザの前記第1の耳の近傍でありながら前記第1のトランスデューサよりも前記ユーザの前記第1の耳から遠くに配置され、
前記発話成分を比較することは、前記第1の音声信号および前記第2の音声信号の前記発話成分の少なくとも強度を比較することを含み、
前記比較結果に基づいて、前記発話成分が前記ユーザによって与えられたものであると判断することは、前記第1の音声信号の前記強度が前記第2の音声信号の前記強度よりも実質的に大きいことを示す前記比較結果に応答して、前記発話成分が前記ユーザによって与えられたものであると判断することを含む、請求項18に記載の方法。 - 通信アセンブリであって、
入来オーディオ信号を提供する通信デバイスに接続するように構成された入来オーディオ信号ノードと、
ユーザ発話の有無の判断を示す音声アクティビティ検出信号を出力するように構成された信号処理回路とを備え、前記信号処理回路は、第1の信号φ、第2の信号θおよび第3の信号に基づいてユーザ発話の有無を判断するように構成され、前記第1の信号φおよび前記第2の信号θは、少なくとも周囲雑音a、ユーザ発話sおよび第3の信号に応答して2つ以上のトランスデューサから導き出され、前記第1の信号φおよび前記第2の信号θは、以下の制約を満たし、
式中、Tsθは、前記ユーザ発話sから前記第2の信号θへの伝達関数を表し、Taθは、前記周囲雑音aから前記第2の信号θへの伝達関数を表し、Tsφは、前記ユーザ発話sから前記第1の信号φへの伝達関数を表し、Taφは、前記周囲雑音aから前記第1の信号φへの伝達関数を表し、
前記第3の信号は、少なくとも部分的に入来オーディオ信号または少なくとも1つのオーディオ通知信号に基づく、通信アセンブリ。 - 前記2つ以上のトランスデューサは、第1および第2のマイクロフォンを含み、前記第1のマイクロフォンは、ユーザ音声領域への音響結合が前記第2のマイクロフォンよりも実質的に大きい状態で位置決めされる、請求項21に記載の通信アセンブリ。
- 前記第1のマイクロフォンは、骨伝導経路を介して前記第2のマイクロフォンよりも多くの音響エネルギを前記ユーザ音声領域から受信するように位置決めされる、請求項22に記載の通信アセンブリ。
- ユーザ発話が無いという判断を示す前記音声アクティビティ検出信号に応答して音声マイクロフォン出力信号を減衰させ、ユーザ発話が有ることを示す前記音声アクティビティ検出信号に応答して前記音声マイクロフォン出力信号の減衰を解除するように構成された自動ミューティングモジュールをさらに備える、請求項21に記載の通信アセンブリ。
- 前記自動ミューティングモジュールは、前記音声アクティビティ検出信号の受信後に予め定められた時間にわたって前記音声マイクロフォン出力信号をミュートまたは減衰させるように構成される、請求項24に記載の通信アセンブリ。
- 音声マイクロフォン出力信号から導き出されたユーザ発話信号内の1つ以上のキーワードを認識し、ユーザ発話が無いという判断を示す前記音声アクティビティ検出信号に応答して、シャットダウンまたはスリープ状態に入って電力またはメモリを節約するように構成されたキーワード認識モジュールをさらに備える、請求項21に記載の通信アセンブリ。
- ユーザ発話に応答して、ヘッドセットイヤピース内のラウドスピーカにサイドトーン信号を提供し、ユーザ発話が無いという判断を示す前記音声アクティビティ検出信号に応答して、シャットダウンまたはスリープ状態に入って電力またはメモリを節約するサイドトーンモジュールをさらに備える、請求項21に記載の通信アセンブリ。
- ユーザ発話が有るという判断を示す前記音声アクティビティ検出信号に応答して、第1の方法で雑音を低減し、ユーザ発話が無いという判断を示す前記音声アクティビティ検出信号に応答して、第2の方法で雑音を低減する雑音低減モジュールをさらに備える、請求項21に記載の通信アセンブリ。
- 音声マイクロフォン出力信号の発話内容に依存する態様で動作し、ユーザ発話が無いという判断を示す前記音声アクティビティ検出信号に応答して、電力および/またはメモリ節約モードに入るように構成された少なくとも1つの発話依存モジュールをさらに備える、請求項21に記載の通信アセンブリ。
- ヘッドセットイヤピースに関連付けられたラウドスピーカに接続するように構成された第1のノードと、前記ヘッドセットイヤピースに関連付けられたフィードフォワードアンビエントマイクロフォンに接続するように構成された第2のノードと、ヘッドセットイヤピースに関連付けられたフィードバックエラーマイクロフォンに接続するように構成された第3のノードとをさらに備え、
前記信号処理回路は、前記第1、第2および第3のノードに結合され、前記フィードフォワードアンビエントマイクロフォンおよび前記フィードバックエラーマイクロフォンから生じる信号に応答して前記ラウドスピーカに雑音低減信号を提供するように構成され、
前記第1の信号φおよび前記第2の信号θは、前記フィードフォワードアンビエントマイクロフォンおよび前記フィードバックエラーマイクロフォンから生じる信号から導き出される、請求項21に記載の通信アセンブリ。 - 前記信号処理回路は、さらに、範囲内の発話信号を出力している標準的なヘッドアンドトルソシミュレータ上に第1および第2のトランスデューサが設置されると、前記ユーザ発話が無いことを示すように構成される、請求項30に記載の通信アセンブリ。
- 挿耳型イヤピースにおける前記ヘッドセットイヤピースは、前記フィードバックエラーマイクロフォンを含む外耳道部分を有する、請求項30に記載の通信アセンブリ。
- 音声マイクロフォン出力信号と2つ以上のトランスデューサのセットとを有する通信アセンブリを動作させる方法であって、
第1の信号φ、第2の信号θを導き出すことにより、前記2つ以上のトランスデューサの出力に基づいて、前記通信アセンブリのユーザが話しているか否かを判断するステップを備え、前記第1の信号φおよび前記第2の信号θは、周囲雑音信号a、ユーザ発話信号sおよび第3の信号を変換する前記2つ以上のトランスデューサから導き出され、前記第1の信号φおよび前記第2の信号θは、以下の制約を満たし、
式中、Tsθは、前記ユーザ発話sから前記第2の信号θへの伝達関数を表し、Taθは、前記周囲雑音aから前記第2の信号θへの伝達関数を表し、Tsφは、前記ユーザ発話sから前記第1の信号φへの伝達関数を表し、Taφは、前記周囲雑音aから前記第1の信号φへの伝達関数を表し、
前記ユーザが話していないという判断に応答して、前記通信アセンブリに関連付けられた1つ以上の発話依存モジュールの動作状態をリソース節約状態に変化させるステップとを備える、方法。 - 前記1つ以上の発話依存モジュールは、
前記ユーザが話していないという前記判断に応答して前記音声マイクロフォン出力信号をミュートするように構成されたミューティングモジュール、
1つ以上の話された単語またはフレーズを認識するように構成されたキーワード認識モジュール、および
前記音声マイクロフォン出力信号に基づいてサイドトーン信号を生成するように構成されたサイドトーンモジュール、
のうちの少なくとも1つを含む、請求項33に記載の方法。 - 通信アセンブリであって、
ユーザ頭部に着用されるように構成された第1および第2のトランスデューサを備え、前記第1のトランスデューサは、ユーザ音声領域への音響結合が前記第2のトランスデューサよりも実質的に大きいように構成され、前記通信アセンブリはさらに、
前記第1および第2のトランスデューサがユーザ頭部に装着されると、予め定められた周波数範囲内のユーザ発話の有無の判断を示す音声アクティビティ検出信号を出力するように構成された信号処理回路を備え、前記通信アセンブリは、ラウドスピーカと、フィードフォワードアンビエントマイクロフォンと、フィードバックエラーマイクロフォンと、音声マイクロフォンと、入来オーディオ信号を提供する通信デバイスに接続するように構成された入来オーディオ信号ノードとを有するイヤピースを備え、
前記信号処理回路は、第1の信号φ、第2の信号θおよび第3の信号に基づいてユーザ発話の有無を判断するように構成され、前記第1の信号φおよび前記第2の信号θは、少なくとも、周囲雑音a、ユーザ発話sおよび第3の信号に応答して前記フィードフォワードアンビエントマイクロフォン、前記フィードバックエラーマイクロフォンおよび前記音声マイクロフォンのうちの少なくとも2つの出力信号から導き出され、前記第1の信号φおよび前記第2の信号θは、以下の制約を満たし、
式中、Tsθは、前記ユーザ発話sから前記第2の信号θへの伝達関数を表し、Taθは、前記周囲雑音aから前記第2の信号θへの伝達関数を表し、Tsφは、前記ユーザ発話sから前記第1の信号φへの伝達関数を表し、Taφは、前記周囲雑音aから前記第1の信号φへの伝達関数を表し、
前記第3の信号は、少なくとも部分的に入来オーディオ信号または少なくとも1つのオーディオ通知信号に基づくように構成される、通信アセンブリ。 - 前記信号処理回路は、前記第1および第2のトランスデューサが、所定の周波数範囲において発話信号を出力する、標準ヘッドアンドトルソシミュレータ上に位置するときに、ユーザ発話が無いということを示すように構成される、請求項35に記載の通信アセンブリ。
- 前記信号処理回路は、さらに、前記フィードフォワードアンビエントマイクロフォンおよび前記フィードバックエラーマイクロフォンから生じる信号に応答して前記ラウドスピーカに雑音低減信号を提供するように構成され、
前記通信アセンブリは、1つ以上の発話依存モジュールのセットをさらに含み、各発話依存モジュールは、ユーザ発話が無いことを示す前記音声アクティビティ検出信号に応答して、電力またはメモリ節約状態に入り、ユーザ発話が有ることを示す前記音声アクティビティ検出信号に応答して、前記電力またはメモリ節約状態を終了する、請求項35に記載の通信アセンブリ。 - 前記1つ以上の発話依存モジュールのセットは、通信デバイスに音声マイクロフォン信号を出力するように構成された音声マイクロフォン出力モジュールと、1つ以上の話された単語またはフレーズを認識するように構成されたキーワード認識モジュールと、出力された前記音声マイクロフォン信号に基づいてサイドトーン信号を生成するように構成されたサイドトーンモジュールとを含む、請求項37に記載の通信アセンブリ。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762459055P | 2017-02-14 | 2017-02-14 | |
US62/459,055 | 2017-02-14 | ||
US201762532964P | 2017-07-14 | 2017-07-14 | |
US62/532,964 | 2017-07-14 | ||
US15/711,793 US10564925B2 (en) | 2017-02-07 | 2017-09-21 | User voice activity detection methods, devices, assemblies, and components |
US15/711,793 | 2017-09-21 | ||
PCT/US2018/018075 WO2018148762A2 (en) | 2017-02-07 | 2018-02-13 | User voice activity detection methods, devices, assemblies, and components |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020506634A JP2020506634A (ja) | 2020-02-27 |
JP2020506634A5 JP2020506634A5 (ja) | 2021-03-25 |
JP7123951B2 true JP7123951B2 (ja) | 2022-08-23 |
Family
ID=68424443
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019542604A Active JP7123951B2 (ja) | 2017-02-14 | 2018-02-13 | 通信アセンブリにおけるユーザ音声アクティビティ検出のための方法、その通信アセンブリ |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP7123951B2 (ja) |
KR (1) | KR102578147B1 (ja) |
CN (1) | CN110603588A (ja) |
DE (1) | DE112018000717T5 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11809151B1 (en) | 2020-03-27 | 2023-11-07 | Amazon Technologies, Inc. | Activity-based device recommendations |
CN111785300B (zh) * | 2020-06-12 | 2021-05-25 | 北京快鱼电子股份公司 | 一种基于深度神经网络的哭声检测方法和系统 |
US11822367B2 (en) * | 2020-06-22 | 2023-11-21 | Apple Inc. | Method and system for adjusting sound playback to account for speech detection |
CN112351364B (zh) * | 2021-01-04 | 2021-04-16 | 深圳千岸科技股份有限公司 | 一种语音播放方法、耳机和存储介质 |
CN113450753B (zh) * | 2021-01-22 | 2022-10-14 | 深圳市三诺数字科技有限公司 | 语音骨传导设备及其通讯方法和存储介质 |
CN113099338A (zh) * | 2021-03-08 | 2021-07-09 | 头领科技(昆山)有限公司 | 一种智能控制的音频芯片及无线降噪耳机 |
US11483655B1 (en) * | 2021-03-31 | 2022-10-25 | Bose Corporation | Gain-adaptive active noise reduction (ANR) device |
KR20230069707A (ko) * | 2021-11-12 | 2023-05-19 | 삼성전자주식회사 | 동작 제어 방법 및 그 전자 장치 |
CN115348049B (zh) * | 2022-06-22 | 2024-07-09 | 北京理工大学 | 一种利用耳机内向麦克风的用户身份认证方法 |
CN117198287B (zh) * | 2023-08-30 | 2024-07-05 | 南京汇智互娱网络科技有限公司 | 一种用于智能体的人机交互的语音识别系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060262944A1 (en) | 2003-02-25 | 2006-11-23 | Oticon A/S | Method for detection of own voice activity in a communication device |
US20110288860A1 (en) | 2010-05-20 | 2011-11-24 | Qualcomm Incorporated | Systems, methods, apparatus, and computer-readable media for processing of speech signals using head-mounted microphone pair |
JP2016048872A (ja) | 2014-08-28 | 2016-04-07 | 日本電信電話株式会社 | 収音装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120080409A (ko) * | 2011-01-07 | 2012-07-17 | 삼성전자주식회사 | 잡음 구간 판별에 의한 잡음 추정 장치 및 방법 |
US9697831B2 (en) * | 2013-06-26 | 2017-07-04 | Cirrus Logic, Inc. | Speech recognition |
KR102060949B1 (ko) * | 2013-08-09 | 2020-01-02 | 삼성전자주식회사 | 청각 기기의 저전력 운용 방법 및 장치 |
US9190043B2 (en) * | 2013-08-27 | 2015-11-17 | Bose Corporation | Assisting conversation in noisy environments |
WO2016130459A1 (en) * | 2015-02-09 | 2016-08-18 | Dolby Laboratories Licensing Corporation | Nearby talker obscuring, duplicate dialogue amelioration and automatic muting of acoustically proximate participants |
-
2018
- 2018-02-13 DE DE112018000717.0T patent/DE112018000717T5/de active Pending
- 2018-02-13 KR KR1020197026035A patent/KR102578147B1/ko active IP Right Grant
- 2018-02-13 JP JP2019542604A patent/JP7123951B2/ja active Active
- 2018-02-13 CN CN201880016579.7A patent/CN110603588A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060262944A1 (en) | 2003-02-25 | 2006-11-23 | Oticon A/S | Method for detection of own voice activity in a communication device |
US20110288860A1 (en) | 2010-05-20 | 2011-11-24 | Qualcomm Incorporated | Systems, methods, apparatus, and computer-readable media for processing of speech signals using head-mounted microphone pair |
JP2016048872A (ja) | 2014-08-28 | 2016-04-07 | 日本電信電話株式会社 | 収音装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2020506634A (ja) | 2020-02-27 |
CN110603588A (zh) | 2019-12-20 |
KR20190118171A (ko) | 2019-10-17 |
KR102578147B1 (ko) | 2023-09-13 |
DE112018000717T5 (de) | 2020-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11614916B2 (en) | User voice activity detection | |
JP7123951B2 (ja) | 通信アセンブリにおけるユーザ音声アクティビティ検出のための方法、その通信アセンブリ | |
US11710473B2 (en) | Method and device for acute sound detection and reproduction | |
US11297443B2 (en) | Hearing assistance using active noise reduction | |
CN109196877B (zh) | 个人声音设备的头上/头外检测 | |
US9066167B2 (en) | Method and device for personalized voice operated control | |
EP3005731B1 (en) | Method for operating a hearing device and a hearing device | |
WO2018156257A1 (en) | Off-head detection of in-ear headset | |
US20150228292A1 (en) | Close-talk detector for personal listening device with adaptive active noise control | |
US11373665B2 (en) | Voice isolation system | |
CN111294719B (zh) | 耳戴式设备入耳状态检测方法、设备和移动终端 | |
US10249323B2 (en) | Voice activity detection for communication headset | |
EP2830324A1 (en) | Headphone and headset | |
JP7164794B2 (ja) | 自己音声推定付き聴覚保護システムと関連する方法 | |
JPH10294989A (ja) | 騒音制御ヘッドセット | |
EP3449641B1 (en) | Headset system failure detection | |
WO2023283285A1 (en) | Wearable audio device with enhanced voice pick-up | |
CN113994423A (zh) | 用于耳戴式播放设备的语音活动检测的音频系统和信号处理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191018 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210127 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210127 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220520 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220712 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220810 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7123951 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |