JP2022531067A - 多数のヘッドセット間の音声空間化および強化 - Google Patents
多数のヘッドセット間の音声空間化および強化 Download PDFInfo
- Publication number
- JP2022531067A JP2022531067A JP2021553794A JP2021553794A JP2022531067A JP 2022531067 A JP2022531067 A JP 2022531067A JP 2021553794 A JP2021553794 A JP 2021553794A JP 2021553794 A JP2021553794 A JP 2021553794A JP 2022531067 A JP2022531067 A JP 2022531067A
- Authority
- JP
- Japan
- Prior art keywords
- user
- headset
- respect
- audio
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000005236 sound signal Effects 0.000 claims description 137
- 210000003128 head Anatomy 0.000 claims description 59
- 238000000034 method Methods 0.000 claims description 42
- 238000005728 strengthening Methods 0.000 claims description 38
- 238000012545 processing Methods 0.000 claims description 29
- 230000002708 enhancing effect Effects 0.000 claims description 15
- 238000004891 communication Methods 0.000 abstract description 123
- 230000005540 biological transmission Effects 0.000 abstract description 3
- 230000003287 optical effect Effects 0.000 description 19
- 230000009471 action Effects 0.000 description 18
- 238000001914 filtration Methods 0.000 description 18
- 230000008569 process Effects 0.000 description 16
- 230000000694 effects Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 230000004044 response Effects 0.000 description 9
- 230000008859 change Effects 0.000 description 8
- 238000004590 computer program Methods 0.000 description 8
- 230000033001 locomotion Effects 0.000 description 7
- 238000005259 measurement Methods 0.000 description 7
- 238000003860 storage Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 210000005069 ears Anatomy 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 230000004075 alteration Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 210000003625 skull Anatomy 0.000 description 4
- 206010047571 Visual impairment Diseases 0.000 description 3
- 210000000613 ear canal Anatomy 0.000 description 3
- 230000006855 networking Effects 0.000 description 3
- 208000029257 vision disease Diseases 0.000 description 3
- 230000004393 visual impairment Effects 0.000 description 3
- 229920001621 AMOLED Polymers 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000000712 assembly Effects 0.000 description 2
- 238000000429 assembly Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 239000012141 concentrate Substances 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000005304 joining Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 210000001260 vocal cord Anatomy 0.000 description 2
- 241000226585 Antennaria plantaginifolia Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 201000009310 astigmatism Diseases 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000004297 night vision Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
- H04S7/304—For headphones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2201/00—Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
- H04R2201/10—Details of earpieces, attachments therefor, earphones or monophonic headphones covered by H04R1/10 but not provided for in any of its subgroups
- H04R2201/107—Monophonic and stereophonic headphones with microphone for two-way hands free communication
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2499/00—Aspects covered by H04R or H04S not otherwise provided for in their subgroups
- H04R2499/10—General applications
- H04R2499/15—Transducers incorporated in visual displaying devices, e.g. televisions, computer displays, laptops
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/13—Aspects of volume control, not necessarily automatic, in stereophonic sound systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/01—Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/305—Electronic adaptation of stereophonic audio signals to reverberation of the listening space
- H04S7/306—For headphones
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Stereophonic System (AREA)
- User Interface Of Digital Computer (AREA)
- Headphones And Earphones (AREA)
- Circuit For Audible Band Transducer (AREA)
- Otolaryngology (AREA)
- Stereophonic Arrangements (AREA)
- Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
Abstract
Description
本出願は、2019年5月7日に出願された米国特許出願第16/405,950号の優先権を主張するものであり、この内容全体はあらゆる目的で参照により本明細書に組み込まれる。
ヘッドセットの第1のユーザの視線方向を判定するように構成される視線判定回路と、
第2のユーザのヘッドセットと関連付けられる音声信号を受信するように構成されるトランシーバと、
第1のユーザに対する第2のユーザと関連付けられた相対位置を判定すること、第1のユーザの強化方向に対する第2のユーザの位置の偏差を判定することであって、強化方向は第1のユーザの視線方向に少なくとも部分的に基づく、偏差を判定すること、第2のユーザと関連付けられた相対位置に少なくとも部分的に基づいて第2のユーザと関連付けられた音声信号を空間化すること、および、第1のユーザの強化方向に対する第2のユーザの特定された位置の偏差に少なくとも部分的に基づいて音声出力信号の振幅を増幅することを行うように構成される処理回路網と、
空間化されかつ強化された音声出力信号に基づく音を投射することで、投射された音が第2のユーザの位置で生じるように感知されるように構成されるスピーカアセンブリと、を備えてよい。
第1のユーザのヘッドセットにおいて、第1のユーザの強化方向を判定することと、
第1のユーザのヘッドセットにおいて、第2のユーザのヘッドセットと関連付けられた音声信号を受信することと、
第1のユーザに対する第2のユーザと関連付けられた相対位置を特定することと、
第1のユーザの強化方向に対する第2のユーザの特定された相対位置の偏差を判定することと、
第2のユーザと関連付けられた相対位置に少なくとも部分的に基づいて、第2のユーザと関連付けられた音声信号を空間化することと、
第1のユーザの強化方向に対する第2のユーザの特定された位置の偏差に少なくとも部分的に基づいて、音声出力信号の振幅を増幅することと、
空間化されかつ強化された音声出力信号に基づいて音を投射することで、投射された音が第2のユーザの位置で生じるように感知されるようにすることと、を含んでよい。
音声入力信号を解析して、第1のユーザのローカルエリアにおける特定の領域から生じる音を特定することと、
特定の領域から生じる音に対応する音声入力信号の一部分を強化することによって音声入力信号からユーザ音声信号を生成することと、を含んでよい。
第3のユーザから第2の音声信号を受信することと、
第1のユーザに対する第3のユーザと関連付けられた相対位置を特定することと、
第1のユーザの強化方向に対する第3のユーザの特定された相対位置の偏差を判定することと、
第3のユーザの特定された相対位置の偏差を第2のユーザの特定された相対位置の偏差と比較することと、
比較の結果に基づいて第3のユーザと関連付けられた第2の音声信号の振幅を増幅することと、を含んでよい。
第1のユーザのヘッドセットにおいて、第1のユーザの強化方向を判定すること、
第1のユーザのヘッドセットにおいて、第2のユーザのヘッドセットと関連付けられた音声信号を受信すること、
第1のユーザに対する第2のユーザと関連付けられた相対位置を特定すること、
第1のユーザの強化方向に対する第2のユーザの特定された相対位置の偏差を判定すること、
第2のユーザと関連付けられた相対位置に少なくとも部分的に基づいて、第2のユーザと関連付けられた音声信号を空間化すること、
第1のユーザの強化方向に対する第2のユーザの特定された位置の偏差に少なくとも部分的に基づいて、音声出力信号の振幅を増幅すること、および、
空間化されかつ強化された音声出力信号に基づいて音を投射することで、投射された音が第2のユーザの位置で生じるように感知されるようにすること、を含む動作を行わせることができる命令を記憶してよい。
図3は、1つまたは複数の実施形態による音声システム300のブロック図を示す。音声システム300は、ヘッドセット(例えば、ヘッドセット110)の一部として実装されてよく、かつマイクロホンアセンブリ225、トランシーバ230、スピーカアセンブリ330、およびコントローラ215を含んでよい。音声システム300のいくつかの実施形態はここで説明される構成要素と異なる構成要素を有する。同様に、機能は、ここで説明されるのと異なるやり方で構成要素の間で分散可能である。いくつかの実施形態では、音声システムの機能のいくつかは、異なる構成要素の一部であってよい(例えば、いくつかはヘッドセットの一部であってよく、いくつかはコンソールおよび/またはサーバの一部であってよい)。
図4は、1つまたは複数の実施形態による、共有通信チャネルによる複数のユーザを有する環境の一例を示す。環境は、共有通信チャネルの一部である、第1のユーザ405A、ならびに追加のユーザ405B、405C、および405D(ユーザ405と総称される)を含む複数のユーザを含んでいる。それぞれのユーザ405は、共有通信チャネルの他のユーザと通信するためにユーザによって使用される音声システムを含んでいる対応するヘッドセット410を着用している。説明を簡単にするために、第1のユーザ405Aが着用するヘッドセット410のみが図4に標示される。
図5は、1つまたは複数の実施形態によるユーザ音声信号をフィルタリングする図を示す。図5は、第1のユーザの外耳道の穴で測定される音声信号を示す第1のグラフ505を示す。第1のユーザの音声システムは、共有通信チャネル上で第2のユーザの音声システムと通信している。音声信号は実音声信号510および送信音声信号515を含む。実音声信号510は、第2のユーザから生じる音響圧力波に対応し、かつ、ユーザの外耳道で測定される(すなわち、ユーザは第2のユーザの発話を聞く)。送信音声信号515は、(例えば、第2のユーザのユーザ音声信号として)記録され、第1のユーザの音声システムに送信され、および1つまたは複数のスピーカを通して第1のユーザに対して再生される、第2のユーザの発話に対応するフィルタ未処理の音声信号に対応する。送信音声信号を記録し、送信し、処理し、および再生することと関連付けられた処理遅延により、送信音声信号515は、処理遅延ΔTに対応する時間による実音声510の後に外耳道で検出され得る(すなわち、ユーザに対して可聴である)。一定の時間(例えば、10~15秒)の処理遅延ΔTがある場合、第1のユーザは、実音声信号510のような別個の聴覚イベントとして送信音声信号515を聞くことができ、これは、第1のユーザの気をそらすようなエコー効果をもたらし得る。
いくつかの実施形態では、共有通信チャネル上の異なるユーザは、異なる優先レベルが与えられ得る。本明細書で使用される際、共有通信チャネルのユーザの優先レベルは、ユーザの発話に対応する音声信号が他のユーザに対応する音声信号に対して強化されるレベルを指示することができ、この場合、より高い優先レベルを有するユーザからの音声信号は、より低い優先レベルのユーザに対して正方向に強化される。いくつかの実施形態では、共有通信チャネルは基本優先レベルに対応するユーザの第1のセット、および、基本優先レベルより優先される高優先レベルと関連付けられた少なくとも1ユーザ(例えば、指名された話し手またはリーダー)を含んでよい。
図6は、1つまたは複数の実施形態による、共有通信チャネルにおける他のユーザからの受信される音声データを空間化しかつ強化するためのプロセスのフローチャートである。プロセスは、音声システム(例えば、音声システム300)を含むヘッドセットによって行われてよい。第1のユーザのヘッドセットは共有通信チャネルに参加している(例えば、図1に示されるユーザ105のヘッドセット110であり、この場合、ユーザ105は共有通信チャネル120Aの一部である)。他のエンティティは他の実施形態(例えば、コンソール)におけるプロセスのステップの一部または全てを行ってよい。同様に、実施形態は、異なるおよび/または追加のステップを含んでよい、または異なる順序でステップを行ってよい。
図8は、1つまたは複数の実施形態による、上述される音声システムを含むヘッドセットのシステム環境である。システム800は、人工現実環境、例えば、仮想現実、拡張現実、複合現実環境で、またはこれらの何らかの組み合わせで動作可能である。図8によって示されるシステム800は、コンソール810に結合される、ヘッドセット805および入力/出力(I/O)インターフェース815を含む。ヘッドセット805はヘッドセット110の一実施形態であってよい。図8は、1つのヘッドセット805および1つのI/Oインターフェース815を含む例示のシステム800を示すが、他の実施形態では、任意の数のこれらの構成要素がシステム800に含まれてよい。例えば、それぞれが、関連付けられたI/Oインターフェース815を有する多数のヘッドセット805があってよく、それぞれのヘッドセット805およびI/Oインターフェース815がコンソール810と通信する。代替的な構成では、異なるおよび/または追加の構成要素がシステム800に含まれてよい。さらに、図8に示される構成要素の1つまたは複数と併せて説明される機能性は、いくつかの実施形態では、図8と併せて説明される異なるやり方で構成要素の間で分散されてよい。例えば、コンソール810の機能性の一部または全ては、ヘッドセット805によって提供される。
本開示の実施形態の前述の説明は例示の目的で提示されており、網羅的であること、または開示される正確な形態に本開示を限定することを意図するものではない。上記の開示の観点から多くの修正および変形が可能であるということを当業者は認識するはずである。
Claims (20)
- ヘッドセットであって、
前記ヘッドセットの第1のユーザの視線方向を判定するように構成される視線判定回路と、
第2のユーザのヘッドセットと関連付けられる音声信号を受信するように構成されるトランシーバと、
処理回路網であって、
前記第1のユーザに対する前記第2のユーザと関連付けられた相対位置を判定すること、
前記第1のユーザの強化方向に対する前記第2のユーザの位置の偏差を判定することであって、前記強化方向は前記第1のユーザの前記視線方向に少なくとも部分的に基づく、偏差を判定すること、
前記第2のユーザと関連付けられた前記相対位置に少なくとも部分的に基づいて前記第2のユーザと関連付けられた前記音声信号を空間化すること、および、
前記第1のユーザの前記強化方向に対する前記第2のユーザの特定された位置の前記偏差に少なくとも部分的に基づいて音声出力信号の振幅を増幅すること、を行うように構成される
処理回路網と、
空間化されかつ強化された前記音声出力信号に基づく音を投射することで、投射された前記音が前記第2のユーザの前記位置で生じるように感知されるように構成されるスピーカアセンブリと、を備える、ヘッドセット。 - 複数の異なる場所に配置される複数のマイクロホンを含むマイクロホンアレイをさらに備え、前記マイクロホンアレイは、前記第1のユーザのローカルエリアで音をキャプチャし、かつ音声入力信号を生成するように構成される、請求項1に記載のヘッドセット。
- 前記処理回路網は、
前記音声入力信号を解析して、前記第1のユーザの前記ローカルエリアにおける特定の領域から生じる音を特定するように、および、
前記特定の領域から生じる前記音に対応する前記音声入力信号の一部分を強化することによって前記音声入力信号からユーザ音声信号を生成するように
さらに構成される、請求項2に記載のヘッドセット。 - 前記特定の領域は前記第1のユーザの口に対応する、請求項3に記載のヘッドセット。
- 前記トランシーバは前記第2のユーザの位置情報を受信するようにさらに構成される、請求項1に記載のヘッドセット。
- 前記第1のユーザに対する前記第2のユーザと関連付けられた前記相対位置を判定するように構成されるアンテナアレイをさらに備える、請求項1に記載のヘッドセット。
- 前記処理回路網は、前記第1のユーザと前記第2のユーザとの間に見通し線があるかどうかに基づいて前記音声出力信号を空間化するようにさらに構成される、請求項1に記載のヘッドセット。
- 前記視線判定回路は、
前記第1のユーザの位置を受信することであって、前記位置は、少なくとも、前記第1のユーザの頭の向きを含む、位置を受信すること、および、
前記第1のユーザの頭に対する前記第1のユーザの眼の相対的な向きを判定すること
を行うように構成され、
前記第2のユーザと関連付けられた前記音声出力信号を空間化することは、前記第1のユーザの前記頭の向きに対する前記第2のユーザの前記位置の相対方向に基づく、請求項1に記載のヘッドセット。 - 前記受信機は第3のユーザから第2の音声信号を受信するようにさらに構成され、前記処理回路網は、
前記第1のユーザに対する前記第3のユーザと関連付けられた相対位置を特定すること、
前記第1のユーザの前記強化方向に対する前記第3のユーザの前記特定された相対位置の偏差を判定すること、
前記第3のユーザの前記特定された相対位置の前記偏差を前記第2のユーザの前記特定された相対位置の前記偏差と比較すること、および、
比較の結果に基づいて前記第3のユーザと関連付けられた前記第2の音声信号の振幅を増幅すること、
を行うようにさらに構成される、請求項1に記載のヘッドセット。 - 第1のユーザのヘッドセットにおいて、前記第1のユーザの強化方向を判定することと、
第1のユーザのヘッドセットにおいて、第2のユーザのヘッドセットと関連付けられた音声信号を受信することと、
前記第1のユーザに対する前記第2のユーザと関連付けられた相対位置を特定することと、
前記第1のユーザの前記強化方向に対する前記第2のユーザの特定された前記相対位置の偏差を判定することと、
前記第2のユーザと関連付けられた前記相対位置に少なくとも部分的に基づいて、前記第2のユーザと関連付けられた前記音声信号を空間化することと、
前記第1のユーザの前記強化方向に対する前記第2のユーザの前記特定された位置の前記偏差に少なくとも部分的に基づいて、音声出力信号の振幅を増幅することと、
空間化されかつ強化された前記音声出力信号に基づく音を投射することで、投射された前記音が前記第2のユーザの前記位置で生じるように感知されるようにすることと、
を含む、方法。 - 前記第1のユーザのローカルエリアで音をキャプチャし、かつ音声入力信号を生成するために複数の異なる場所に配置される複数のマイクロホンを含むマイクロホンアレイを使用することをさらに含む、請求項10に記載の方法。
- 前記音声入力信号を解析して、前記第1のユーザの前記ローカルエリアにおける特定の領域から生じる音を特定することと、
前記特定の領域から生じる前記音に対応する前記音声入力信号の一部分を強化することによって前記音声入力信号からユーザ音声信号を生成することと、
をさらに含む、請求項11に記載の方法。 - 前記特定の領域は前記第1のユーザの口に対応する、請求項12に記載の方法。
- 前記第2のユーザの位置情報を受信することをさらに含む、請求項10に記載の方法。
- アンテナアレイにおいて、前記第2のユーザのヘッドセットから信号を受信することと、受信された前記信号に基づいて前記第1のユーザに対する前記第2のユーザと関連付けられた前記相対位置を判定することと、をさらに含む、請求項10に記載の方法。
- 前記音声出力信号を空間化することは、前記第1のユーザと前記第2のユーザとの間に見通し線があるかどうかに基づく、請求項10に記載の方法。
- 前記第1のユーザの強化方向を判定することは、
前記第1のユーザの位置を受信することであって、前記位置は、少なくとも、前記第1のユーザの頭の向きを含む、位置を受信すること、
前記第1のユーザの頭に対する前記第1のユーザの眼の相対的な向きを判定すること、ならびに、
前記頭の向き、および前記第1のユーザの頭に対する前記第1のユーザの眼の相対的な向きに基づいて視線方向を判定することによって、前記第1のユーザの前記視線方向を判定することを含み、
前記第2のユーザと関連付けられた前記音声出力信号を空間化することは、前記第1のユーザの前記向きに対する前記第2のユーザの前記位置の相対方向に基づく、請求項10に記載の方法。 - 第3のユーザから第2の音声信号を受信することと、
前記第1のユーザに対する前記第3のユーザと関連付けられた相対位置を特定することと、
前記第1のユーザの前記強化方向に対する前記第3のユーザの前記特定された相対位置の偏差を判定することと、
前記第3のユーザの前記特定された相対位置の前記偏差を前記第2のユーザの前記特定された相対位置の前記偏差と比較することと、
比較の結果に基づいて前記第3のユーザと関連付けられた前記第2の音声信号の振幅を増幅することと、
をさらに含む、請求項10に記載の方法。 - 1つまたは複数のプロセッサによって実行される時、前記1つまたは複数のプロセッサに、
第1のユーザのヘッドセットにおいて、前記第1のユーザの強化方向を判定すること、
第1のユーザのヘッドセットにおいて、第2のユーザのヘッドセットと関連付けられた音声信号を受信すること、
前記第1のユーザに対する前記第2のユーザと関連付けられた相対位置を特定すること、
前記第1のユーザの前記強化方向に対する前記第2のユーザの特定された前記相対位置の偏差を判定すること、
前記第2のユーザと関連付けられた前記相対位置に少なくとも部分的に基づいて、前記第2のユーザと関連付けられた前記音声信号を空間化すること、
前記第1のユーザの前記強化方向に対する前記第2のユーザの前記特定された位置の前記偏差に少なくとも部分的に基づいて、音声出力信号の振幅を増幅すること、および、
空間化されかつ強化された前記音声出力信号に基づく音を投射することで、投射された前記音が前記第2のユーザの前記位置で生じるように感知されるようにすること、を含む動作を行わせる命令を記憶する、非一時的なコンピュータ可読媒体。 - 前記第1のユーザの前記強化方向を判定することは、
前記第1のユーザの位置を受信することであって、前記位置は、少なくとも、前記第1のユーザの頭の向きを含む、位置を受信すること、
前記第1のユーザの頭に対する前記第1のユーザの眼の相対的な向きを判定すること、ならびに、
前記頭の向き、および前記第1のユーザの頭に対する前記第1のユーザの眼の相対的な向きに基づいて視線方向を判定すること
によって、前記第1のユーザの前記視線方向を判定することを含み、
前記第2のユーザと関連付けられた前記音声出力信号を空間化することは、前記第1のユーザの前記向きに対する前記第2のユーザの前記位置の相対方向に基づく、請求項19に記載の非一時的なコンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/405,950 US10708706B1 (en) | 2019-05-07 | 2019-05-07 | Audio spatialization and reinforcement between multiple headsets |
US16/405,950 | 2019-05-07 | ||
PCT/US2020/031406 WO2020227254A1 (en) | 2019-05-07 | 2020-05-05 | Audio spatialization and reinforcement between multiple headsets |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022531067A true JP2022531067A (ja) | 2022-07-06 |
JP7551639B2 JP7551639B2 (ja) | 2024-09-17 |
Family
ID=70861547
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021553794A Active JP7551639B2 (ja) | 2019-05-07 | 2020-05-05 | 多数のヘッドセット間の音声空間化および強化 |
Country Status (7)
Country | Link |
---|---|
US (2) | US10708706B1 (ja) |
EP (1) | EP3922048B1 (ja) |
JP (1) | JP7551639B2 (ja) |
KR (1) | KR20220005564A (ja) |
CN (1) | CN113796097A (ja) |
TW (1) | TW202105930A (ja) |
WO (1) | WO2020227254A1 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10708706B1 (en) * | 2019-05-07 | 2020-07-07 | Facebook Technologies, Llc | Audio spatialization and reinforcement between multiple headsets |
IL271810A (en) * | 2020-01-02 | 2021-07-29 | Anachoic Ltd | System and method for spatially projected audio communication |
US11102602B1 (en) * | 2019-12-26 | 2021-08-24 | Facebook Technologies, Llc | Systems and methods for spatial update latency compensation for head-tracked audio |
US11277706B2 (en) * | 2020-06-05 | 2022-03-15 | Sony Corporation | Angular sensing for optimizing speaker listening experience |
WO2022067652A1 (zh) * | 2020-09-30 | 2022-04-07 | 华为技术有限公司 | 实时通信方法、装置和系统 |
US11575992B2 (en) * | 2020-10-02 | 2023-02-07 | Arris Enierprises Llc | System and method for dynamic line-of-sight multi-source audio control |
US11159881B1 (en) * | 2020-11-13 | 2021-10-26 | Hamilton Sundstrand Corporation | Directionality in wireless communication |
US11598962B1 (en) | 2020-12-24 | 2023-03-07 | Meta Platforms Technologies, Llc | Estimation of acoustic parameters for audio system based on stored information about acoustic model |
US12080320B2 (en) * | 2021-01-15 | 2024-09-03 | Meta Platforms Technologies, Llc | System for non-verbal hands-free user input |
US20220256028A1 (en) * | 2021-02-08 | 2022-08-11 | Samsung Electronics Co., Ltd. | System and method for simultaneous multi-call support capability on compatible audio devices |
CN114979896A (zh) * | 2021-02-26 | 2022-08-30 | 深圳市万普拉斯科技有限公司 | 一种音量控制方法、装置及蓝牙耳机 |
EP4093046A1 (en) * | 2021-05-21 | 2022-11-23 | Nokia Technologies Oy | Multi-microphone audio capture |
US12099654B1 (en) | 2021-06-21 | 2024-09-24 | Apple Inc. | Adaptation of electronic content |
US11832187B2 (en) * | 2021-06-24 | 2023-11-28 | Hewlett-Packard Development Company, L.P. | Electronic device wakes |
EP4145862A1 (en) * | 2021-09-07 | 2023-03-08 | Nokia Technologies Oy | Signalling change events at an audio output device |
US11698766B2 (en) | 2021-10-14 | 2023-07-11 | Google Llc | Ultrasonic device-to-device communication for wearable devices |
CN114049871A (zh) * | 2022-01-13 | 2022-02-15 | 腾讯科技(深圳)有限公司 | 基于虚拟空间的音频处理方法、装置和计算机设备 |
US20240311075A1 (en) * | 2023-03-15 | 2024-09-19 | Meta Platforms Technologies, Llc | Modifying audio data associated with a speaking user based on a field of view of a listening user in an artificial reality environment |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8718301B1 (en) * | 2004-10-25 | 2014-05-06 | Hewlett-Packard Development Company, L.P. | Telescopic spatial radio system |
JP6674737B2 (ja) | 2013-12-30 | 2020-04-01 | ジーエヌ ヒアリング エー/エスGN Hearing A/S | 位置データを有する聴取装置および聴取装置の動作方法 |
US9584915B2 (en) * | 2015-01-19 | 2017-02-28 | Microsoft Technology Licensing, Llc | Spatial audio with remote speakers |
JP2017028390A (ja) | 2015-07-17 | 2017-02-02 | 株式会社コロプラ | 仮想現実空間音声コミュニケーション方法、プログラム、プログラムを記録した記録媒体、および、装置 |
US9451210B1 (en) * | 2015-12-10 | 2016-09-20 | Google Inc. | Directing communications using gaze interaction |
US9918177B2 (en) * | 2015-12-29 | 2018-03-13 | Harman International Industries, Incorporated | Binaural headphone rendering with head tracking |
US9905244B2 (en) * | 2016-02-02 | 2018-02-27 | Ebay Inc. | Personalized, real-time audio processing |
EP3270608B1 (en) | 2016-07-15 | 2021-08-18 | GN Hearing A/S | Hearing device with adaptive processing and related method |
US9832587B1 (en) * | 2016-09-08 | 2017-11-28 | Qualcomm Incorporated | Assisted near-distance communication using binaural cues |
US9930447B1 (en) | 2016-11-09 | 2018-03-27 | Bose Corporation | Dual-use bilateral microphone array |
US10555106B1 (en) * | 2017-01-27 | 2020-02-04 | Facebook Technologies, Llc | Gaze-directed audio enhancement |
US10928895B2 (en) * | 2017-09-21 | 2021-02-23 | Tobii Ab | Systems and methods for interacting with a computing device using gaze information |
US10674305B2 (en) * | 2018-03-15 | 2020-06-02 | Microsoft Technology Licensing, Llc | Remote multi-dimensional audio |
US10360894B1 (en) * | 2018-11-28 | 2019-07-23 | International Business Machines Corporation | Direction-aware cross talk management |
US10708706B1 (en) * | 2019-05-07 | 2020-07-07 | Facebook Technologies, Llc | Audio spatialization and reinforcement between multiple headsets |
-
2019
- 2019-05-07 US US16/405,950 patent/US10708706B1/en active Active
-
2020
- 2020-05-05 CN CN202080034504.9A patent/CN113796097A/zh active Pending
- 2020-05-05 JP JP2021553794A patent/JP7551639B2/ja active Active
- 2020-05-05 TW TW109114896A patent/TW202105930A/zh unknown
- 2020-05-05 KR KR1020217039886A patent/KR20220005564A/ko not_active Application Discontinuation
- 2020-05-05 EP EP20728851.5A patent/EP3922048B1/en active Active
- 2020-05-05 WO PCT/US2020/031406 patent/WO2020227254A1/en unknown
- 2020-05-26 US US16/883,796 patent/US10873825B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
TW202105930A (zh) | 2021-02-01 |
US10873825B2 (en) | 2020-12-22 |
CN113796097A (zh) | 2021-12-14 |
EP3922048A1 (en) | 2021-12-15 |
EP3922048B1 (en) | 2024-04-10 |
JP7551639B2 (ja) | 2024-09-17 |
KR20220005564A (ko) | 2022-01-13 |
WO2020227254A1 (en) | 2020-11-12 |
US10708706B1 (en) | 2020-07-07 |
US20200359158A1 (en) | 2020-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7551639B2 (ja) | 多数のヘッドセット間の音声空間化および強化 | |
JP7317115B2 (ja) | オーディオシステムのための修正されたオーディオ体験を生成すること | |
US10979845B1 (en) | Audio augmentation using environmental data | |
JP2022534833A (ja) | 個人化されたオーディオ拡張のためのオーディオプロファイル | |
US11758347B1 (en) | Dynamic speech directivity reproduction | |
US11902772B1 (en) | Own voice reinforcement using extra-aural speakers | |
US20230058952A1 (en) | Audio apparatus and method of operation therefor | |
US11902735B2 (en) | Artificial-reality devices with display-mounted transducers for audio playback | |
KR20230040347A (ko) | 개별화된 사운드 프로파일들을 사용하는 오디오 시스템 | |
JP2022542747A (ja) | ヒアスルーオーディオシステムのためのイヤプラグアセンブリ | |
US20220342213A1 (en) | Miscellaneous audio system applications | |
CN117981347A (zh) | 用于对虚拟声源进行空间化的音频系统 | |
US10979236B1 (en) | Systems and methods for smoothly transitioning conversations between communication channels | |
CN116195269A (zh) | 基于外耳的位移的虚拟传声器校准 | |
CN117158000A (zh) | 两个音频通道上的声源的离散双声道空间化 | |
US11812194B1 (en) | Private conversations in a virtual setting | |
CN118632166A (zh) | 使用头戴式设备框架上的多对对称放置的声学传感器进行空间音频捕获 | |
CN118675543A (zh) | 基于人工现实环境中收听用户的视野修改与发言用户相关联的音频数据 | |
CN118672389A (zh) | 响应于确定用户注意力的转移来修改用户环境中的声音 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240319 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240529 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240806 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240904 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7551639 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |