JP7194271B2 - 近接場オーディオレンダリング - Google Patents
近接場オーディオレンダリング Download PDFInfo
- Publication number
- JP7194271B2 JP7194271B2 JP2021518639A JP2021518639A JP7194271B2 JP 7194271 B2 JP7194271 B2 JP 7194271B2 JP 2021518639 A JP2021518639 A JP 2021518639A JP 2021518639 A JP2021518639 A JP 2021518639A JP 7194271 B2 JP7194271 B2 JP 7194271B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- head
- distance
- audio signal
- radius
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000009877 rendering Methods 0.000 title description 15
- 230000005236 sound signal Effects 0.000 claims description 99
- 238000000034 method Methods 0.000 claims description 58
- 238000012545 processing Methods 0.000 claims description 37
- 210000005069 ears Anatomy 0.000 claims description 34
- 230000005855 radiation Effects 0.000 claims description 28
- 230000006870 function Effects 0.000 claims description 21
- 238000012546 transfer Methods 0.000 claims description 11
- 210000003128 head Anatomy 0.000 description 125
- 238000004091 panning Methods 0.000 description 20
- 230000000694 effects Effects 0.000 description 19
- 230000004044 response Effects 0.000 description 18
- 230000003190 augmentative effect Effects 0.000 description 13
- 238000013519 translation Methods 0.000 description 11
- 238000013459 approach Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 8
- 230000000007 visual effect Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000002238 attenuated effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000000135 prohibitive effect Effects 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000003447 ipsilateral effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000000191 radiation effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
- H04S7/304—For headphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
- H04R5/033—Headphones for stereophonic communication
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
- H04R5/04—Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/008—Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2499/00—Aspects covered by H04R or H04S not otherwise provided for in their subgroups
- H04R2499/10—General applications
- H04R2499/15—Transducers incorporated in visual displaying devices, e.g. televisions, computer displays, laptops
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/01—Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/01—Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Stereophonic System (AREA)
- Details Of Audible-Bandwidth Transducers (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Description
本願は、その内容が、参照することによってその全体として本明細書に組み込まれる、2018年10月5日に出願された米国仮出願第62/741,677号および2019年3月1日に出願された米国仮出願第62/812,734号の優先権を主張する。
本発明は、例えば、以下を提供する。
(項目1)
ウェアラブル頭部デバイスのユーザにオーディオ信号を提示する方法であって、前記方法は、
前記オーディオ信号に対応する源場所を識別することと、
前記オーディオ信号に対応する音響軸を決定することと、
前記ユーザの個別の左耳および右耳のそれぞれに関して、
前記音響軸と個別の耳との間の角度を決定することと、
仮想スピーカアレイの、前記源場所および前記個別の耳の位置と同一線上の仮想スピーカ位置を決定することであって、前記仮想スピーカアレイは、複数の仮想スピーカ位置を備え、前記複数の仮想スピーカ位置の各仮想スピーカ位置は、前記ユーザの頭部と同心の球体の表面上に位置し、前記球体は、第1の半径を有する、ことと、
前記仮想スピーカ位置および前記個別の耳に対応する頭部関連伝達関数(HRTF)を決定することと、
前記決定された角度に基づいて、源放射フィルタを決定することと、
前記オーディオ信号を処理し、前記個別の耳に関する出力オーディオ信号を発生させることであって、前記オーディオ信号を処理することは、前記HRTFおよび前記源放射フィルタを前記オーディオ信号に適用することを含む、ことと、
前記ウェアラブル頭部デバイスと関連付けられる1つ以上のスピーカを介して、前記ユーザの個別の耳に前記出力オーディオ信号を提示することと
を含む、方法。
(項目2)
前記源場所は、前記第1の半径を下回る距離だけ前記ユーザの頭部の中心から分離される、項目1に記載の方法。
(項目3)
前記源場所は、前記第1の半径を上回る距離だけ前記ユーザの頭部の中心から分離される、項目1に記載の方法。
(項目4)
前記源場所は、前記第1の半径に等しい距離だけ前記ユーザの頭部の中心から分離される、項目1に記載の方法。
(項目5)
前記オーディオ信号を処理することはさらに、前記源場所と前記ユーザとの間の距離に基づいて、前記オーディオ信号を減衰させることを含む、項目1に記載の方法。
(項目6)
前記オーディオ信号を処理することはさらに、両耳間時間差を前記オーディオ信号に適用することを含む、項目1に記載の方法。
(項目7)
前記仮想スピーカ位置に対応する前記HRTFを決定することは、複数のHRTFから前記HRTFを選択することを含み、前記複数のHRTFの各HRTFは、聴者と、前記第1の半径に実質的に等しい距離だけ前記聴者から分離されるオーディオ源との間の関係を記述する、項目1に記載の方法。
(項目8)
前記オーディオ信号を処理することはさらに、前記ユーザと前記源場所との間の距離に基づいて、前記オーディオ信号を減衰させることを含む、項目1に記載の方法。
(項目9)
前記源場所から前記ユーザの頭部の中心までの距離は、前記ユーザの頭部の半径を下回る、項目1に記載の方法。
(項目10)
前記源場所から前記ユーザの頭部の中心までの距離は、前記ユーザの頭部の半径を上回る、項目1に記載の方法。
(項目11)
前記源場所から前記ユーザの頭部の中心までの距離は、前記ユーザの頭部の半径に実質的に等しい、項目1に記載の方法。
(項目12)
前記角度は、方位角および高度角のうちの1つ以上のものを含む、項目1に記載の方法。
(項目13)
前記ウェアラブル頭部デバイスは、前記1つ以上のスピーカを備える、項目1に記載の方法。
(項目14)
前記ウェアラブル頭部デバイスは、前記1つ以上のスピーカを備えていない、項目1に記載の方法。
(項目15)
前記1つ以上のスピーカは、前記ユーザによって装着されるヘッドホンと関連付けられる、項目1に記載の方法。
(項目16)
システムであって、
ウェアラブル頭部デバイスと、
1つ以上のスピーカと、
1つ以上のプロセッサであって、前記1つ以上のプロセッサは、
オーディオ信号に対応する源場所を識別することと、
前記オーディオ信号に対応する音響軸を決定することと、
前記ウェアラブル頭部デバイスのユーザの個別の左耳および右耳のそれぞれに関して、
前記音響軸と個別の耳との間の角度を決定することと、
仮想スピーカアレイの、前記源場所および前記個別の耳の位置と同一線上の仮想スピーカ位置を決定することであって、前記仮想スピーカアレイは、複数の仮想スピーカ位置を備え、前記複数の仮想スピーカ位置の各仮想スピーカ位置は、前記ユーザの頭部と同心の球体の表面上に位置し、前記球体は、第1の半径を有する、ことと、
前記仮想スピーカ位置および前記個別の耳に対応する頭部関連伝達関数(HRTF)を決定することと、
前記決定された角度に基づいて、源放射フィルタを決定することと、
前記オーディオ信号を処理し、前記個別の耳に関する出力オーディオ信号を発生させることであって、前記オーディオ信号を処理することは、前記HRTFおよび前記源放射フィルタを前記オーディオ信号に適用することを含む、ことと、
前記1つ以上のスピーカを介して、前記ユーザの個別の耳に前記出力オーディオ信号を提示することと
を含む方法を実施するように構成される、1つ以上のプロセッサと、
を備える、システム。
(項目17)
前記源場所は、前記第1の半径を下回る距離だけ前記ユーザの頭部の中心から分離される、項目16に記載のシステム。
(項目18)
前記源場所は、前記第1の半径を上回る距離だけ前記ユーザの頭部の中心から分離される、項目16に記載のシステム。
(項目19)
前記源場所は、前記第1の半径に等しい距離だけ前記ユーザの頭部の中心から分離される、項目16に記載のシステム。
(項目20)
前記オーディオ信号を処理することはさらに、前記源場所と前記ユーザとの間の距離に基づいて、前記オーディオ信号を減衰させることを含む、項目16に記載のシステム。
(項目21)
前記オーディオ信号を処理することはさらに、両耳間時間差を前記オーディオ信号に適用することを含む、項目16に記載のシステム。
(項目22)
前記仮想スピーカ位置に対応する前記HRTFを決定することは、複数のHRTFから前記HRTFを選択することを含み、前記複数のHRTFの各HRTFは、聴者と、前記第1の半径に実質的に等しい距離だけ前記聴者から分離されるオーディオ源との間の関係を記述する、項目16に記載のシステム。
(項目23)
前記オーディオ信号を処理することはさらに、前記ユーザと前記源場所との間の距離に基づいて、前記オーディオ信号を減衰させることを含む、項目16に記載のシステム。
(項目24)
前記源場所から前記ユーザの頭部の中心までの距離は、前記ユーザの頭部の半径を下回る、項目16に記載のシステム。
(項目25)
前記源場所から前記ユーザの頭部の中心までの距離は、前記ユーザの頭部の半径を上回る、項目16に記載のシステム。
(項目26)
前記源場所から前記ユーザの頭部の中心までの距離は、前記ユーザの頭部の半径に実質的に等しい、項目16に記載のシステム。
(項目27)
前記角度は、方位角および高度角のうちの1つ以上のものを含む、項目16に記載のシステム。
(項目28)
前記ウェアラブル頭部デバイスは、前記1つ以上のスピーカを備える、項目16に記載のシステム。
(項目29)
前記ウェアラブル頭部デバイスは、前記1つ以上のスピーカを備えていない、項目15に記載のシステム。
(項目30)
前記1つ以上のスピーカは、前記ユーザによって装着されるヘッドホンと関連付けられる、項目16に記載のシステム。
(項目31)
非一過性コンピュータ可読媒体であって、前記非一過性コンピュータ可読媒体は、命令を記憶しており、前記命令は、1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサに、オーディオ信号をウェアラブル頭部デバイスのユーザに提示する方法を実施させ、前記方法は、
前記オーディオ信号に対応する源場所を識別することと、
前記オーディオ信号に対応する音響軸を決定することと、
前記ユーザの個別の左耳および右耳のそれぞれに関して、
前記音響軸と個別の耳との間の角度を決定することと、
仮想スピーカアレイの、前記源場所および前記個別の耳の位置と同一線上の仮想スピーカ位置を決定することであって、前記仮想スピーカアレイは、複数の仮想スピーカ位置を備え、前記複数の仮想スピーカ位置の各仮想スピーカ位置は、前記ユーザの頭部と同心の球体の表面上に位置し、前記球体は、第1の半径を有する、ことと、
前記仮想スピーカ位置および前記個別の耳に対応する頭部関連伝達関数(HRTF)を決定することと、
前記決定された角度に基づいて、源放射フィルタを決定することと、
前記オーディオ信号を処理し、前記個別の耳に関する出力オーディオ信号を発生させることであって、前記オーディオ信号を処理することは、前記HRTFおよび前記源放射フィルタを前記オーディオ信号に適用することを含む、ことと、
前記ウェアラブル頭部デバイスと関連付けられる1つ以上のスピーカを介して、前記ユーザの個別の耳に前記出力オーディオ信号を提示することと
を含む、非一過性コンピュータ可読媒体。
(項目32)
前記源場所は、前記第1の半径を下回る距離だけ前記ユーザの頭部の中心から分離される、項目31に記載の非一過性コンピュータ可読媒体。
(項目33)
前記源場所は、前記第1の半径を上回る距離だけ前記ユーザの頭部の中心から分離される、項目31に記載の非一過性コンピュータ可読媒体。
(項目34)
前記源場所は、前記第1の半径に等しい距離だけ前記ユーザの頭部の中心から分離される、項目31に記載の非一過性コンピュータ可読媒体。
(項目35)
前記オーディオ信号を処理することはさらに、前記源場所と前記ユーザとの間の距離に基づいて、前記オーディオ信号を減衰させることを含む、項目31に記載の非一過性コンピュータ可読媒体。
(項目36)
前記オーディオ信号を処理することはさらに、両耳間時間差を前記オーディオ信号に適用することを含む、項目31に記載の非一過性コンピュータ可読媒体。
(項目37)
前記仮想スピーカ位置に対応する前記HRTFを決定することは、複数のHRTFから前記HRTFを選択することを含み、前記複数のHRTFの各HRTFは、聴者と、前記第1の半径に実質的に等しい距離だけ前記聴者から分離されるオーディオ源との間の関係を記述する、項目31に記載の非一過性コンピュータ可読媒体。
(項目38)
前記オーディオ信号を処理することはさらに、前記ユーザと前記源場所との間の距離に基づいて、前記オーディオ信号を減衰させることを含む、項目31に記載の非一過性コンピュータ可読媒体。
(項目39)
前記源場所から前記ユーザの頭部の中心までの距離は、前記ユーザの頭部の半径を下回る、項目31に記載の非一過性コンピュータ可読媒体。
(項目40)
前記源場所から前記ユーザの頭部の中心までの距離は、前記ユーザの頭部の半径を上回る、項目31に記載の非一過性コンピュータ可読媒体。
(項目41)
前記源場所から前記ユーザの頭部の中心までの距離は、前記ユーザの頭部の半径に実質的に等しい、項目31に記載の非一過性コンピュータ可読媒体。
(項目42)
前記角度は、方位角および高度角のうちの1つ以上のものを含む、項目31に記載の非一過性コンピュータ可読媒体。
(項目43)
前記ウェアラブル頭部デバイスは、前記1つ以上のスピーカを備える、項目31に記載の非一過性コンピュータ可読媒体。
(項目44)
前記ウェアラブル頭部デバイスは、前記1つ以上のスピーカを備えていない、項目31に記載の非一過性コンピュータ可読媒体。
(項目45)
前記1つ以上のスピーカは、前記ユーザによって装着されるヘッドホンと関連付けられる、項目31に記載の非一過性コンピュータ可読媒体。
Claims (39)
- ウェアラブル頭部デバイスのユーザにオーディオ信号を提示する方法であって、前記方法は、
前記オーディオ信号に対応する源場所を識別することと、
前記オーディオ信号に対応する音響軸を決定することと、
前記ユーザの個別の左耳および右耳のそれぞれに関して、
前記音響軸と個別の耳との間の角度を決定することと、
仮想スピーカアレイの、前記源場所および前記個別の耳の位置と同一線上の仮想スピーカ位置を決定することであって、前記仮想スピーカアレイは、複数の仮想スピーカ位置を備え、前記複数の仮想スピーカ位置の各仮想スピーカ位置は、前記ユーザの頭部と同心の球体の表面上に位置し、前記球体は、第1の半径を有する、ことと、
前記仮想スピーカ位置および前記個別の耳に対応する頭部関連伝達関数(HRTF)を決定することと、
前記決定された角度に基づいて、源放射フィルタを決定することと、
前記オーディオ信号を処理し、前記個別の耳に関する出力オーディオ信号を発生させることであって、前記オーディオ信号を処理することは、前記HRTFおよび前記源放射フィルタを前記オーディオ信号に適用することを含む、ことと、
前記源場所と前記個別の耳との間の距離に基づいて、前記オーディオ信号を減衰させることであって、前記距離は、最小値においてクランピングされる、ことと、
前記ウェアラブル頭部デバイスと関連付けられる1つ以上のスピーカを介して、前記ユーザの前記個別の耳に前記出力オーディオ信号を提示することと
を含む、方法。 - 前記源場所は、前記第1の半径を下回る距離だけ前記ユーザの頭部の中心から分離される、請求項1に記載の方法。
- 前記源場所は、前記第1の半径を上回る距離だけ前記ユーザの頭部の中心から分離される、請求項1に記載の方法。
- 前記源場所は、前記第1の半径に等しい距離だけ前記ユーザの頭部の中心から分離される、請求項1に記載の方法。
- 前記オーディオ信号を処理することは、両耳間時間差を前記オーディオ信号に適用することをさらに含む、請求項1に記載の方法。
- 前記仮想スピーカ位置に対応する前記HRTFを決定することは、複数のHRTFから前記HRTFを選択することを含み、前記複数のHRTFの各HRTFは、聴者と、前記第1の半径に実質的に等しい距離だけ前記聴者から分離されるオーディオ源との間の関係を記述する、請求項1に記載の方法。
- 前記源場所から前記ユーザの頭部の中心までの距離は、前記ユーザの頭部の半径を下回る、請求項1に記載の方法。
- 前記源場所から前記ユーザの頭部の中心までの距離は、前記ユーザの頭部の半径を上回る、請求項1に記載の方法。
- 前記源場所から前記ユーザの頭部の中心までの距離は、前記ユーザの頭部の半径に実質的に等しい、請求項1に記載の方法。
- 前記角度は、方位角および高度角のうちの1つ以上のものを含む、請求項1に記載の方法。
- 前記ウェアラブル頭部デバイスは、前記1つ以上のスピーカを備える、請求項1に記載の方法。
- 前記ウェアラブル頭部デバイスは、前記1つ以上のスピーカを備えていない、請求項1に記載の方法。
- 前記1つ以上のスピーカは、前記ユーザによって装着されるヘッドホンと関連付けられる、請求項1に記載の方法。
- システムであって、
ウェアラブル頭部デバイスと、
1つ以上のスピーカと、
1つ以上のプロセッサであって、前記1つ以上のプロセッサは、
オーディオ信号に対応する源場所を識別することと、
前記オーディオ信号に対応する音響軸を決定することと、
前記ウェアラブル頭部デバイスのユーザの個別の左耳および右耳のそれぞれに関して、
前記音響軸と個別の耳との間の角度を決定することと、
仮想スピーカアレイの、前記源場所および前記個別の耳の位置と同一線上の仮想スピーカ位置を決定することであって、前記仮想スピーカアレイは、複数の仮想スピーカ位置を備え、前記複数の仮想スピーカ位置の各仮想スピーカ位置は、前記ユーザの頭部と同心の球体の表面上に位置し、前記球体は、第1の半径を有する、ことと、
前記仮想スピーカ位置および前記個別の耳に対応する頭部関連伝達関数(HRTF)を決定することと、
前記決定された角度に基づいて、源放射フィルタを決定することと、
前記オーディオ信号を処理し、前記個別の耳に関する出力オーディオ信号を発生させることであって、前記オーディオ信号を処理することは、前記HRTFおよび前記源放射フィルタを前記オーディオ信号に適用することを含む、ことと、
前記源場所と前記個別の耳との間の距離に基づいて、前記オーディオ信号を減衰させることであって、前記距離は、最小値においてクランピングされる、ことと、
前記1つ以上のスピーカを介して、前記ユーザの前記個別の耳に前記出力オーディオ信号を提示することと
を含む方法を実施するように構成される、1つ以上のプロセッサと
を備える、システム。 - 前記源場所は、前記第1の半径を下回る距離だけ前記ユーザの頭部の中心から分離される、請求項14に記載のシステム。
- 前記源場所は、前記第1の半径を上回る距離だけ前記ユーザの頭部の中心から分離される、請求項14に記載のシステム。
- 前記源場所は、前記第1の半径に等しい距離だけ前記ユーザの頭部の中心から分離される、請求項14に記載のシステム。
- 前記オーディオ信号を処理することは、両耳間時間差を前記オーディオ信号に適用することをさらに含む、請求項14に記載のシステム。
- 前記仮想スピーカ位置に対応する前記HRTFを決定することは、複数のHRTFから前記HRTFを選択することを含み、前記複数のHRTFの各HRTFは、聴者と、前記第1の半径に実質的に等しい距離だけ前記聴者から分離されるオーディオ源との間の関係を記述する、請求項14に記載のシステム。
- 前記源場所から前記ユーザの頭部の中心までの距離は、前記ユーザの頭部の半径を下回る、請求項14に記載のシステム。
- 前記源場所から前記ユーザの頭部の中心までの距離は、前記ユーザの頭部の半径を上回る、請求項14に記載のシステム。
- 前記源場所から前記ユーザの頭部の中心までの距離は、前記ユーザの頭部の半径に実質的に等しい、請求項14に記載のシステム。
- 前記角度は、方位角および高度角のうちの1つ以上のものを含む、請求項14に記載のシステム。
- 前記ウェアラブル頭部デバイスは、前記1つ以上のスピーカを備える、請求項14に記載のシステム。
- 前記ウェアラブル頭部デバイスは、前記1つ以上のスピーカを備えていない、請求項14に記載のシステム。
- 前記1つ以上のスピーカは、前記ユーザによって装着されるヘッドホンと関連付けられる、請求項14に記載のシステム。
- 非一過性コンピュータ可読媒体であって、前記非一過性コンピュータ可読媒体は、命令を記憶しており、前記命令は、1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサに、オーディオ信号をウェアラブル頭部デバイスのユーザに提示する方法を実施させ、前記方法は、
前記オーディオ信号に対応する源場所を識別することと、
前記オーディオ信号に対応する音響軸を決定することと、
前記ユーザの個別の左耳および右耳のそれぞれに関して、
前記音響軸と個別の耳との間の角度を決定することと、
仮想スピーカアレイの、前記源場所および前記個別の耳の位置と同一線上の仮想スピーカ位置を決定することであって、前記仮想スピーカアレイは、複数の仮想スピーカ位置を備え、前記複数の仮想スピーカ位置の各仮想スピーカ位置は、前記ユーザの頭部と同心の球体の表面上に位置し、前記球体は、第1の半径を有する、ことと、
前記仮想スピーカ位置および前記個別の耳に対応する頭部関連伝達関数(HRTF)を決定することと、
前記決定された角度に基づいて、源放射フィルタを決定することと、
前記オーディオ信号を処理し、前記個別の耳に関する出力オーディオ信号を発生させることであって、前記オーディオ信号を処理することは、前記HRTFおよび前記源放射フィルタを前記オーディオ信号に適用することを含む、ことと、
前記源場所と前記個別の耳との間の距離に基づいて、前記オーディオ信号を減衰させることであって、前記距離は、最小値においてクランピングされる、ことと、
前記ウェアラブル頭部デバイスと関連付けられる1つ以上のスピーカを介して、前記ユーザの前記個別の耳に前記出力オーディオ信号を提示することと
を含む、非一過性コンピュータ可読媒体。 - 前記源場所は、前記第1の半径を下回る距離だけ前記ユーザの頭部の中心から分離される、請求項27に記載の非一過性コンピュータ可読媒体。
- 前記源場所は、前記第1の半径を上回る距離だけ前記ユーザの頭部の中心から分離される、請求項27に記載の非一過性コンピュータ可読媒体。
- 前記源場所は、前記第1の半径に等しい距離だけ前記ユーザの頭部の中心から分離される、請求項27に記載の非一過性コンピュータ可読媒体。
- 前記オーディオ信号を処理することは、両耳間時間差を前記オーディオ信号に適用することをさらに含む、請求項27に記載の非一過性コンピュータ可読媒体。
- 前記仮想スピーカ位置に対応する前記HRTFを決定することは、複数のHRTFから前記HRTFを選択することを含み、前記複数のHRTFの各HRTFは、聴者と、前記第1の半径に実質的に等しい距離だけ前記聴者から分離されるオーディオ源との間の関係を記述する、請求項27に記載の非一過性コンピュータ可読媒体。
- 前記源場所から前記ユーザの頭部の中心までの距離は、前記ユーザの頭部の半径を下回る、請求項27に記載の非一過性コンピュータ可読媒体。
- 前記源場所から前記ユーザの頭部の中心までの距離は、前記ユーザの頭部の半径を上回る、請求項27に記載の非一過性コンピュータ可読媒体。
- 前記源場所から前記ユーザの頭部の中心までの距離は、前記ユーザの頭部の半径に実質的に等しい、請求項27に記載の非一過性コンピュータ可読媒体。
- 前記角度は、方位角および高度角のうちの1つ以上のものを含む、請求項27に記載の非一過性コンピュータ可読媒体。
- 前記ウェアラブル頭部デバイスは、前記1つ以上のスピーカを備える、請求項27に記載の非一過性コンピュータ可読媒体。
- 前記ウェアラブル頭部デバイスは、前記1つ以上のスピーカを備えていない、請求項27に記載の非一過性コンピュータ可読媒体。
- 前記1つ以上のスピーカは、前記ユーザによって装着されるヘッドホンと関連付けられる、請求項27に記載の非一過性コンピュータ可読媒体。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022160027A JP7455173B2 (ja) | 2018-10-05 | 2022-10-04 | 近接場オーディオレンダリング |
JP2022196982A JP7416901B2 (ja) | 2018-10-05 | 2022-12-09 | 近接場オーディオレンダリング |
JP2024037946A JP2024069398A (ja) | 2018-10-05 | 2024-03-12 | 近接場オーディオレンダリング |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862741677P | 2018-10-05 | 2018-10-05 | |
US62/741,677 | 2018-10-05 | ||
US201962812734P | 2019-03-01 | 2019-03-01 | |
US62/812,734 | 2019-03-01 | ||
PCT/US2019/054893 WO2020073023A1 (en) | 2018-10-05 | 2019-10-04 | Near-field audio rendering |
Related Child Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022160027A Division JP7455173B2 (ja) | 2018-10-05 | 2022-10-04 | 近接場オーディオレンダリング |
JP2022196982A Division JP7416901B2 (ja) | 2018-10-05 | 2022-12-09 | 近接場オーディオレンダリング |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022504283A JP2022504283A (ja) | 2022-01-13 |
JPWO2020073023A5 JPWO2020073023A5 (ja) | 2022-10-13 |
JP7194271B2 true JP7194271B2 (ja) | 2022-12-21 |
Family
ID=70051410
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021518639A Active JP7194271B2 (ja) | 2018-10-05 | 2019-10-04 | 近接場オーディオレンダリング |
JP2022160027A Active JP7455173B2 (ja) | 2018-10-05 | 2022-10-04 | 近接場オーディオレンダリング |
JP2022196982A Active JP7416901B2 (ja) | 2018-10-05 | 2022-12-09 | 近接場オーディオレンダリング |
JP2024037946A Pending JP2024069398A (ja) | 2018-10-05 | 2024-03-12 | 近接場オーディオレンダリング |
Family Applications After (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022160027A Active JP7455173B2 (ja) | 2018-10-05 | 2022-10-04 | 近接場オーディオレンダリング |
JP2022196982A Active JP7416901B2 (ja) | 2018-10-05 | 2022-12-09 | 近接場オーディオレンダリング |
JP2024037946A Pending JP2024069398A (ja) | 2018-10-05 | 2024-03-12 | 近接場オーディオレンダリング |
Country Status (5)
Country | Link |
---|---|
US (4) | US11122383B2 (ja) |
EP (1) | EP3861767A4 (ja) |
JP (4) | JP7194271B2 (ja) |
CN (2) | CN113170272B (ja) |
WO (1) | WO2020073023A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA3090281A1 (en) | 2018-02-15 | 2019-08-22 | Magic Leap, Inc. | Dual listener positions for mixed reality |
WO2019225190A1 (ja) * | 2018-05-22 | 2019-11-28 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム |
CN113170272B (zh) | 2018-10-05 | 2023-04-04 | 奇跃公司 | 近场音频渲染 |
AU2020405579B2 (en) * | 2019-12-19 | 2023-12-07 | Telefonaktiebolaget Lm Ericsson (Publ) | Audio rendering of audio sources |
CN113035164A (zh) * | 2021-02-24 | 2021-06-25 | 腾讯音乐娱乐科技(深圳)有限公司 | 歌声生成方法和装置、电子设备及存储介质 |
WO2023043963A1 (en) * | 2021-09-15 | 2023-03-23 | University Of Louisville Research Foundation, Inc. | Systems and methods for efficient and accurate virtual accoustic rendering |
CN113810817B (zh) * | 2021-09-23 | 2023-11-24 | 科大讯飞股份有限公司 | 无线耳机的音量控制方法、装置以及无线耳机 |
WO2023183053A1 (en) * | 2022-03-25 | 2023-09-28 | Magic Leap, Inc. | Optimized virtual speaker array |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008228155A (ja) | 2007-03-15 | 2008-09-25 | Oki Electric Ind Co Ltd | 音像定位処理装置、方法及びプログラム |
US20160227338A1 (en) | 2015-01-30 | 2016-08-04 | Gaudi Audio Lab, Inc. | Apparatus and a method for processing audio signal to perform binaural rendering |
JP2017221554A (ja) | 2016-06-17 | 2017-12-21 | 株式会社カプコン | ゲームプログラムおよびゲームシステム |
Family Cites Families (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4852988A (en) | 1988-09-12 | 1989-08-01 | Applied Science Laboratories | Visor and camera providing a parallax-free field-of-view image for a head-mounted eye movement measurement system |
US5596644A (en) * | 1994-10-27 | 1997-01-21 | Aureal Semiconductor Inc. | Method and apparatus for efficient presentation of high-quality three-dimensional audio |
US6847336B1 (en) | 1996-10-02 | 2005-01-25 | Jerome H. Lemelson | Selectively controllable heads-up display system |
US6546105B1 (en) | 1998-10-30 | 2003-04-08 | Matsushita Electric Industrial Co., Ltd. | Sound image localization device and sound image localization method |
US6433760B1 (en) | 1999-01-14 | 2002-08-13 | University Of Central Florida | Head mounted display with eyetracking capability |
US6491391B1 (en) | 1999-07-02 | 2002-12-10 | E-Vision Llc | System, apparatus, and method for reducing birefringence |
JP2001057699A (ja) * | 1999-06-11 | 2001-02-27 | Pioneer Electronic Corp | オーディオ装置 |
CA2316473A1 (en) | 1999-07-28 | 2001-01-28 | Steve Mann | Covert headworn information display or data display or viewfinder |
US6819762B2 (en) * | 2001-03-16 | 2004-11-16 | Aura Communications, Inc. | In-the-ear headset |
CA2362895A1 (en) | 2001-06-26 | 2002-12-26 | Steve Mann | Smart sunglasses or computer information display built into eyewear having ordinary appearance, possibly with sight license |
DE10132872B4 (de) | 2001-07-06 | 2018-10-11 | Volkswagen Ag | Kopfmontiertes optisches Durchsichtssystem |
US20030030597A1 (en) | 2001-08-13 | 2003-02-13 | Geist Richard Edwin | Virtual display apparatus for mobile activities |
JP3823847B2 (ja) | 2002-02-27 | 2006-09-20 | ヤマハ株式会社 | 音制御装置、音制御方法、プログラムおよび記録媒体 |
CA2388766A1 (en) | 2002-06-17 | 2003-12-17 | Steve Mann | Eyeglass frames based computer display or eyeglasses with operationally, actually, or computationally, transparent frames |
US6943754B2 (en) | 2002-09-27 | 2005-09-13 | The Boeing Company | Gaze tracking system, eye-tracking assembly and an associated method of calibration |
US7347551B2 (en) | 2003-02-13 | 2008-03-25 | Fergason Patent Properties, Llc | Optical system for monitoring eye movement |
US7500747B2 (en) | 2003-10-09 | 2009-03-10 | Ipventure, Inc. | Eyeglasses with electrical components |
CA2561287C (en) | 2004-04-01 | 2017-07-11 | William C. Torch | Biosensors, communicators, and controllers monitoring eye movement and methods for using them |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
EP2119306A4 (en) * | 2007-03-01 | 2012-04-25 | Jerry Mahabub | SOUND SPECIALIZATION AND ENVIRONMENT SIMULATION |
US20110213664A1 (en) | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Local advertising content on an interactive head-mounted eyepiece |
US8890946B2 (en) | 2010-03-01 | 2014-11-18 | Eyefluence, Inc. | Systems and methods for spatially controlled scene illumination |
US8531355B2 (en) | 2010-07-23 | 2013-09-10 | Gregory A. Maltz | Unitized, vision-controlled, wireless eyeglass transceiver |
US9122053B2 (en) | 2010-10-15 | 2015-09-01 | Microsoft Technology Licensing, Llc | Realistic occlusion for a head mounted augmented reality display |
US9292973B2 (en) | 2010-11-08 | 2016-03-22 | Microsoft Technology Licensing, Llc | Automatic variable virtual focus for augmented reality displays |
US8929589B2 (en) | 2011-11-07 | 2015-01-06 | Eyefluence, Inc. | Systems and methods for high-resolution gaze tracking |
US8611015B2 (en) | 2011-11-22 | 2013-12-17 | Google Inc. | User interface |
US8235529B1 (en) | 2011-11-30 | 2012-08-07 | Google Inc. | Unlocking a screen using eye tracking information |
US8638498B2 (en) | 2012-01-04 | 2014-01-28 | David D. Bohn | Eyebox adjustment for interpupillary distance |
US10013053B2 (en) | 2012-01-04 | 2018-07-03 | Tobii Ab | System for gaze interaction |
US8831255B2 (en) | 2012-03-08 | 2014-09-09 | Disney Enterprises, Inc. | Augmented reality (AR) audio with position and action triggered virtual sound effects |
US9274338B2 (en) | 2012-03-21 | 2016-03-01 | Microsoft Technology Licensing, Llc | Increasing field of view of reflective waveguide |
US8989535B2 (en) | 2012-06-04 | 2015-03-24 | Microsoft Technology Licensing, Llc | Multiple waveguide imaging structure |
US20140218281A1 (en) | 2012-12-06 | 2014-08-07 | Eyefluence, Inc. | Systems and methods for eye gaze determination |
CN105027190B (zh) | 2013-01-03 | 2019-06-21 | 美达视野股份有限公司 | 用于虚拟或增强介导视觉的射出空间成像数字眼镜 |
US20140195918A1 (en) | 2013-01-07 | 2014-07-10 | Steven Friedlander | Eye tracking user interface |
US9443354B2 (en) | 2013-04-29 | 2016-09-13 | Microsoft Technology Licensing, Llc | Mixed reality interactions |
US9648436B2 (en) | 2014-04-08 | 2017-05-09 | Doppler Labs, Inc. | Augmented reality sound system |
EP3132617B1 (en) * | 2014-08-13 | 2018-10-17 | Huawei Technologies Co. Ltd. | An audio signal processing apparatus |
EP3141002B1 (en) | 2014-11-11 | 2020-01-08 | Google LLC | Virtual sound systems and methods |
WO2016077514A1 (en) * | 2014-11-14 | 2016-05-19 | Dolby Laboratories Licensing Corporation | Ear centered head related transfer function system and method |
US9881422B2 (en) | 2014-12-04 | 2018-01-30 | Htc Corporation | Virtual reality system and method for controlling operation modes of virtual reality system |
GB2536020A (en) | 2015-03-04 | 2016-09-07 | Sony Computer Entertainment Europe Ltd | System and method of virtual reality feedback |
US10896544B2 (en) | 2016-10-07 | 2021-01-19 | Htc Corporation | System and method for providing simulated environment |
US9992602B1 (en) * | 2017-01-12 | 2018-06-05 | Google Llc | Decoupled binaural rendering |
US20180206038A1 (en) * | 2017-01-13 | 2018-07-19 | Bose Corporation | Real-time processing of audio data captured using a microphone array |
US9955281B1 (en) * | 2017-12-02 | 2018-04-24 | Philip Scott Lyren | Headphones with a digital signal processor (DSP) and error correction |
CA3090281A1 (en) | 2018-02-15 | 2019-08-22 | Magic Leap, Inc. | Dual listener positions for mixed reality |
US20190313201A1 (en) * | 2018-04-04 | 2019-10-10 | Bose Corporation | Systems and methods for sound externalization over headphones |
CN113170272B (zh) | 2018-10-05 | 2023-04-04 | 奇跃公司 | 近场音频渲染 |
-
2019
- 2019-10-04 CN CN201980080065.2A patent/CN113170272B/zh active Active
- 2019-10-04 CN CN202310249063.XA patent/CN116320907A/zh active Pending
- 2019-10-04 WO PCT/US2019/054893 patent/WO2020073023A1/en unknown
- 2019-10-04 JP JP2021518639A patent/JP7194271B2/ja active Active
- 2019-10-04 US US16/593,943 patent/US11122383B2/en active Active
- 2019-10-04 EP EP19869249.3A patent/EP3861767A4/en active Pending
-
2021
- 2021-08-12 US US17/401,090 patent/US11546716B2/en active Active
-
2022
- 2022-10-04 JP JP2022160027A patent/JP7455173B2/ja active Active
- 2022-12-02 US US18/061,367 patent/US11778411B2/en active Active
- 2022-12-09 JP JP2022196982A patent/JP7416901B2/ja active Active
-
2023
- 2023-08-17 US US18/451,794 patent/US20230396947A1/en active Pending
-
2024
- 2024-03-12 JP JP2024037946A patent/JP2024069398A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008228155A (ja) | 2007-03-15 | 2008-09-25 | Oki Electric Ind Co Ltd | 音像定位処理装置、方法及びプログラム |
US20160227338A1 (en) | 2015-01-30 | 2016-08-04 | Gaudi Audio Lab, Inc. | Apparatus and a method for processing audio signal to perform binaural rendering |
JP2017221554A (ja) | 2016-06-17 | 2017-12-21 | 株式会社カプコン | ゲームプログラムおよびゲームシステム |
Also Published As
Publication number | Publication date |
---|---|
US11122383B2 (en) | 2021-09-14 |
US20230094733A1 (en) | 2023-03-30 |
US11546716B2 (en) | 2023-01-03 |
EP3861767A4 (en) | 2021-12-15 |
US20200112815A1 (en) | 2020-04-09 |
WO2020073023A1 (en) | 2020-04-09 |
JP2022504283A (ja) | 2022-01-13 |
CN113170272B (zh) | 2023-04-04 |
JP7416901B2 (ja) | 2024-01-17 |
JP2022180616A (ja) | 2022-12-06 |
US20220038840A1 (en) | 2022-02-03 |
JP7455173B2 (ja) | 2024-03-25 |
US11778411B2 (en) | 2023-10-03 |
JP2024069398A (ja) | 2024-05-21 |
CN116320907A (zh) | 2023-06-23 |
CN113170272A (zh) | 2021-07-23 |
US20230396947A1 (en) | 2023-12-07 |
JP2023022312A (ja) | 2023-02-14 |
EP3861767A1 (en) | 2021-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7194271B2 (ja) | 近接場オーディオレンダリング | |
US11770671B2 (en) | Spatial audio for interactive audio environments | |
US20200128347A1 (en) | Head-Related Impulse Responses for Area Sound Sources Located in the Near Field | |
US11696087B2 (en) | Emphasis for audio spatialization | |
WO2023183053A1 (en) | Optimized virtual speaker array |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221004 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221004 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20221004 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221209 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7194271 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |