JP7467340B2 - 仮想現実環境における聴取位置間のローカル遷移を扱う方法およびシステム - Google Patents
仮想現実環境における聴取位置間のローカル遷移を扱う方法およびシステム Download PDFInfo
- Publication number
- JP7467340B2 JP7467340B2 JP2020530488A JP2020530488A JP7467340B2 JP 7467340 B2 JP7467340 B2 JP 7467340B2 JP 2020530488 A JP2020530488 A JP 2020530488A JP 2020530488 A JP2020530488 A JP 2020530488A JP 7467340 B2 JP7467340 B2 JP 7467340B2
- Authority
- JP
- Japan
- Prior art keywords
- audio
- origin
- source
- audio signal
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 124
- 230000007704 transition Effects 0.000 title description 96
- 230000005236 sound signal Effects 0.000 claims description 319
- 238000009877 rendering Methods 0.000 claims description 110
- 238000007781 pre-processing Methods 0.000 claims description 21
- 230000003595 spectral effect Effects 0.000 claims description 9
- 230000001419 dependent effect Effects 0.000 claims description 2
- 238000002203 pretreatment Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 90
- 230000007613 environmental effect Effects 0.000 description 17
- 230000004044 response Effects 0.000 description 11
- 230000000694 effects Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 5
- 230000002238 attenuated effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000001902 propagating effect Effects 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 230000002250 progressing effect Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 239000003623 enhancer Substances 0.000 description 2
- 238000005562 fading Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000002730 additional effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000005266 casting Methods 0.000 description 1
- 238000013016 damping Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 230000007727 signaling mechanism Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/008—Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/01—Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/13—Aspects of volume control, not necessarily automatic, in stereophonic sound systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Stereophonic System (AREA)
- Circuit For Audible Band Transducer (AREA)
Description
本願は、2017年12月18日に出願された米国仮出願第62/599,848号(整理番号D17086USP1)、2017年12月18日に出願された欧州出願第17208087.1号(整理番号D17086EP)の優先権を主張するものである。これらの出願の内容はここに参照によって組み込まれる。
本稿は、仮想現実(VR)レンダリング環境における聴覚ビューポートおよび/または聴取位置の間の遷移を効率的かつ一貫した仕方で扱うことに関する。
〔EE1〕
仮想現実レンダリング環境(180)においてオーディオ信号をレンダリングする方法(910)であって、当該方法は、
・オーディオ源(311、312、313)の起点オーディオ信号を、聴取者(181)の起点聴取位置(301)のまわりの起点球(114)上の起点源位置からレンダリングする段階(911)と;
・聴取者(181)が起点聴取位置(301)から終点聴取位置(302)に移動することを判別する段階(912)と;
・終点聴取位置(302)のまわりの終点球(114)上の前記オーディオ源(311、312、313)の終点源位置を、前記起点源位置に基づいて決定する段階(913)と;
・前記起点オーディオ信号に基づいて前記オーディオ源(311、312、313)の終点オーディオ信号を決定する段階(914)と;
・前記オーディオ源(311、312、313)の終点オーディオ信号を、終点聴取位置(302)のまわりの終点球上の終点源位置からレンダリングする段階(915)とを含む、
方法。
〔EE2〕
当該方法(910)は、前記起点源位置を、前記起点球から前記終点球上に投影して、前記終点源位置を決定することを含む、EE1記載の方法。
〔EE3〕
前記終点源位置が、前記終点聴取位置(302)と前記起点源位置との間の射線の、前記終点球との交点に対応するよう、前記終点源位置が決定される、EE1または2記載の方法。
〔EE4〕
前記終点オーディオ信号を決定すること(914)が、
・前記起点源位置と前記終点聴取位置(302)との間の終点距離(322)を決定する段階と;
・前記終点オーディオ信号を、前記終点距離(322)に基づいて決定(914)することを含む、
EE1ないし3のうちいずれか一項記載の方法。
〔EE5〕
・前記終点オーディオ信号を決定すること(914)が、前記起点オーディオ信号に距離利得(410)を適用することを含み;
・前記距離利得(410)が前記終点距離(322)に依存する、
EE4記載の方法。
〔EE6〕
前記終点オーディオ信号を決定すること(914)が、
・前記距離利得(410)を、オーディオ信号(311、312、313)の源位置と聴取者(181)の聴取位置(301、302)との間の距離(321、322)の関数として示す距離関数(415)を提供する段階と;
・前記起点オーディオ信号に適用される前記距離利得(410)を、前記距離関数(415)の、前記終点距離(322)についての関数値に基づいて決定する段階とを含む、
EE5記載の方法。
〔EE7〕
前記終点オーディオ信号を決定すること(914)が、
・前記起点源位置と前記起点聴取位置(301)との間の起点距離(321)を決定する段階と;
・前記終点オーディオ信号を、前記起点距離(321)に基づいて決定する段階とを含む、
EE4ないし6のうちいずれか一項記載の方法。
〔EE8〕
前記起点オーディオ信号に適用される前記距離利得(410)が、前記距離関数(415)の、前記起点距離(321)についての関数値に基づいて決定される、EE7がEE6を引用する場合のEE7記載の方法。
〔EE9〕
前記終点オーディオ信号を決定すること(914)が、前記終点オーディオ信号の強度を、前記起点オーディオ信号の強度に基づいて決定することを含む、EE1ないし8のうちいずれか一項記載の方法。
〔EE10〕
前記終点オーディオ信号を決定すること(914)が、
・前記オーディオ源(311、312、313)の指向性プロファイル(332)を決定する段階であって、前記指向性プロファイル(332)は、前記起点オーディオ信号の種々の方向での強度を示す、段階と;
・前記終点オーディオ信号を、前記指向性プロファイル(332)に基づいて決定する段階(914)とを含む、
EE1ないし9のうちいずれか一項記載の方法。
〔EE11〕
前記指向性プロファイル(332)は、前記終点オーディオ信号を決定するために前記起点オーディオ信号に適用される指向性利得(510)を示す、EE10記載の方法。
〔EE12〕
・前記指向性プロファイル(332)は、指向性利得関数(515)を示し;
・前記指向性利得関数(515)は、指向性利得(510)を、オーディオ源(311、312、313)の源位置と聴取者(181)の聴取位置(301、302)との間の指向性角(520)の関数として示す、
EE10または11記載の方法。
〔EE13〕
前記終点オーディオ信号を決定すること(914)が、
・前記終点源位置と前記終点聴取位置(302)との間の終点角(522)を決定し;
・前記終点オーディオ信号を、前記終点角(522)に基づいて決定すること(914)を含む、
EE10ないし12のうちいずれか一項記載の方法。
〔EE14〕
前記終点オーディオ信号が、前記指向性利得関数(515)の、前記終点角(522)についての関数値に基づいて決定される、EE13がEE12を引用する場合のEE13記載の方法。
〔EE15〕
前記終点オーディオ信号を決定すること(914)が、
・前記起点源位置と前記起点聴取位置(301)との間の起点角(521)を決定し;
・前記終点オーディオ信号を、前記起点角(521)に基づいて決定する(914)ことを含む、
EE10ないし14のうちいずれか一項記載の方法。
〔EE16〕
前記終点オーディオ信号が、前記指向性利得関数(515)の、前記起点角(521)についての関数値に基づいて決定される、EE15がEE12を引用する場合のEE15記載の方法。
〔EE17〕
前記終点オーディオ信号を決定すること(914)が、前記指向性利得関数(515)の、前記起点角(521)についておよび前記終点角(522)についての関数値を使って前記起点オーディオ信号の強度を修正して、前記終点オーディオ信号の強度を決定することを含む、EE16記載の方法。
〔EE18〕
前記終点オーディオ信号を決定すること(914)が、
・前記終点源位置と前記終点聴取位置(302)との間の媒体のオーディオ伝搬特性を示す終点環境データ(193)を判別し;
・前記終点環境データ(193)に基づいて前記終点オーディオ信号を決定することを含む、
EE1ないし17のうちいずれか一項記載の方法。
〔EE19〕
前記終点環境データ(193)は、
・前記終点源位置と前記終点聴取位置(302)との間の直接経路上に位置される障害物(603);および/または
・前記障害物(603)の空間的寸法に関する情報;および/または
・前記終点源位置と前記終点聴取位置(302)との間の直接経路上でオーディオ信号が被る減衰を示す、
EE18記載の方法。
〔EE20〕
・前記終点環境データ(193)は、障害物減衰関数を示し;
・前記減衰関数は、前記終点源位置と前記終点聴取位置(302)との間の直接経路上にある障害物(603)を通過するオーディオ信号が受ける減衰を示す、
EE18または19記載の方法。
〔EE21〕
・前記終点環境データ(193)は、前記終点源位置と前記終点聴取位置(302)との間の直接経路上の障害物(603)を示し;
・前記終点オーディオ信号を決定すること(914)は、前記直接経路上での、前記終点源位置と前記終点聴取位置(302)との間の通過距離(601)を決定することを含み;
・前記終点オーディオ信号は、前記通過距離(601)に基づいて決定される、
EE18ないし20のうちいずれか一項記載の方法。
〔EE22〕
・前記終点環境データ(193)は、前記終点源位置と前記終点聴取位置(302)との間の直接経路上の障害物(603)を示し;
・前記終点オーディオ信号を決定すること(914)は、前記障害物(603)を通らない間接経路上での、前記終点源位置と前記終点聴取位置(302)との間の無障害物距離(602)を決定することを含み;
・前記終点オーディオ信号は、前記無障害物距離(602)に基づいて決定される、
EE18ないし21のうちいずれか一項記載の方法。
〔EE23〕
前記終点オーディオ信号を決定すること(914)が、
・前記終点オーディオ信号の間接成分を、前記間接経路に沿って伝搬する前記起点オーディオ信号に基づいて決定し;
・前記終点オーディオ信号の直接成分を、前記直接経路に沿って伝搬する前記起点オーディオ信号に基づいて決定し;
・前記間接成分と前記直接成分とを組み合わせて前記終点オーディオ信号を決定することを含む、
EE22がEE21を引用する場合のEE22記載の方法。
〔EE24〕
前記終点オーディオ信号を決定すること(914)が、
・聴取者(181)の視野(701)および/または関心焦点(702)に関する焦点情報を判別し;
・前記終点オーディオ信号を前記焦点情報に基づいて決定することを含む、
EE1ないし23のうちいずれか一項記載の方法。
〔EE25〕
・前記オーディオ源(311、312、313)が周囲音オーディオ源であることを判別し前記;
・周囲音オーディオ源(311、312、313)の前記起点源位置を、前記終点源位置として維持し;
・前記周囲音オーディオ源(311、312、313)の前記起点オーディオ信号の強度を、前記終点オーディオ信号の強度として維持することをさらに含む、
EE1ないし24のうちいずれか一項記載の方法。
〔EE26〕
前記終点オーディオ信号を決定すること(914)が、前記終点オーディオ信号のスペクトル組成を、前記起点オーディオ信号のスペクトル組成に基づいて決定することを含む、EE1ないし25のうちいずれか一項記載の方法。
〔EE27〕
前記起点オーディオ信号および前記終点オーディオ信号が3Dオーディオ・レンダラー(162)、特にMPEG-Hオーディオ・レンダラーを使ってレンダリングされる、EE1ないし26のうちいずれか一項記載の方法。
〔EE28〕
当該方法(910)が、
・対応する複数のオーディオ源(311、312、313)の複数の起点オーディオ信号を、前記起点球(114)上の複数の異なる起点源位置からレンダリングする段階と;
・前記終点球(114)上の前記対応する複数のオーディオ源(311、312、313)についての複数の終点源位置を、それぞれ前記複数の起点源位置に基づいて決定する段階と;
・前記対応する複数のオーディオ源(311、312、313)の複数の終点オーディオ信号を、それぞれ前記複数の起点オーディオ信号に基づいて決定する段階と;
・前記対応する複数のオーディオ源(311、312、313)の前記複数の終点オーディオ信号を、前記終点聴取位置(302)のまわりの前記終点球(114)上の前記対応する複数の終点源位置からレンダリングすることを含む、
EE1ないし27のうちいずれか一項記載の方法。
〔EE29〕
仮想現実レンダリング環境(180)においてオーディオ信号をレンダリングするための仮想現実オーディオ・レンダラー(160)であって、当該オーディオ・レンダラー(160)は、
・オーディオ源(311、312、313)の起点オーディオ信号を、聴取者(181)の起点聴取位置(301)のまわりの起点球(114)上の起点源位置からレンダリングする段階と;
・聴取者(181)が前記起点聴取位置(301)から終点聴取位置(302)に移動することを判別する段階と;
・前記終点聴取位置(302)のまわりの終点球(114)上の前記オーディオ源(311、312、313)の終点源位置を、前記起点源位置に基づいて決定する段階と;
・前記オーディオ源(311、312、313)の終点オーディオ信号を前記起点オーディオ信号に基づいて決定する段階と;
・前記オーディオ源(311、312、313)の前記終点オーディオ信号を、前記終点聴取位置(302)のまわりの前記終点球(114)上の前記終点源位置からレンダリングする段階とを実行するよう構成されている、
仮想現実オーディオ・レンダラー。
〔EE30〕
当該仮想現実オーディオ・レンダラー(160)は、
・前記オーディオ源(311、312、313)の前記終点源位置および前記終点オーディオ信号を決定するよう構成される前処理ユニット(161)と;
・前記オーディオ源(311、312、313)の前記終点オーディオ信号をレンダリングするよう構成される3Dオーディオ・レンダラー(162)とを有する、
EE29記載の仮想現実オーディオ・レンダラー。
〔EE31〕
前記3Dオーディオ・レンダラー(162)は、
・聴取者(181)の聴取位置(301、302)のまわりの球(114)上でのオーディオ源(311、312、313)のオーディオ信号のレンダリングを、聴取者(181)の頭部の回転運動に応じて適応させるよう構成されている、および/または
・前記オーディオ源(311、312、313)の前記オーディオ信号のレンダリングを、聴取者(181)の頭部の並進運動に応じて適応させるようには構成されていない、
EE30記載の仮想現実オーディオ・レンダラー。
〔EE32〕
ビットストリーム(140)を生成するよう構成されたオーディオ・エンコーダ(130)であって、前記ビットストリーム(140)は、
・少なくとも一つのオーディオ源(311、312、313)のオーディオ信号;
・レンダリング環境(180)内での前記少なくとも一つのオーディオ源(311、312、313)の位置;および
・前記レンダリング環境(180)内でのオーディオのオーディオ伝搬特性を示す環境データ(193)を示す、
オーディオ・エンコーダ。
〔EE33〕
・少なくとも一つのオーディオ源(311、312、313)のオーディオ信号;
・レンダリング環境(180)内での前記少なくとも一つのオーディオ源(311、312、313)の位置;および
・前記レンダリング環境(180)内でのオーディオのオーディオ伝搬特性を示す環境データ(193)を示す、
ビットストリーム(140)。
〔EE34〕
ビットストリーム(140)を生成する方法(920)であって、
・少なくとも一つのオーディオ源(311、312、313)のオーディオ信号を決定し(921);
・レンダリング環境(180)内での前記少なくとも一つのオーディオ源(311、312、313)の位置に関する位置データを決定し(922);
・前記レンダリング環境(180)内でのオーディオのオーディオ伝搬特性を示す環境データ(193)を決定し(923);
・前記オーディオ信号、前記位置データおよび前記環境データ(193)を前記ビットストリーム(140)中に挿入する(934)ことを含む、
方法。
〔EE35〕
仮想現実レンダリング環境(180)においてオーディオ信号をレンダリングするための仮想現実オーディオ・レンダラー(160)であって、当該オーディオ・レンダラーは、
・オーディオ源(311、312、313)のオーディオ信号を、仮想現実レンダリング環境(180)内の聴取者(181)の聴取位置(301、302)のまわりの球(114)上の源位置からレンダリングするよう構成された3Dオーディオ・レンダラー(162)と;
・前処理ユニット(161)であって、
・仮想現実レンダリング環境(180)内の聴取者(181)の新たな聴取位置(301、302)を決定し;
・前記オーディオ信号および前記新たな聴取位置(301、302)のまわりの球(114)に関する前記オーディオ源(311、312、313)の源位置を更新するよう構成された前処理ユニット(161)とを有しており、
前記3Dオーディオ・レンダラー(162)は、前記オーディオ源(311、312、313)の更新されたオーディオ信号を、前記新たな聴取位置(301、302)のまわりの球(114)上の更新された源位置からレンダリングするよう構成される、
仮想現実オーディオ・レンダラー。
Claims (11)
- 仮想現実レンダリング環境(180)においてオーディオ信号をレンダリングする方法(910)であって、当該方法は、
・オーディオ源(311、312、313)の起点オーディオ信号を、聴取者(181)の起点聴取位置(301)のまわりの起点球(114)上の起点源位置からレンダリングする段階(911)と;
・聴取者(181)が起点聴取位置(301)から終点聴取位置(302)に移動することを判別する段階(912)と;
・終点聴取位置(302)のまわりの終点球(114)上の前記オーディオ源(311、312、313)の終点源位置を、前記起点源位置に基づいて、前記起点源位置を前記起点球から前記終点球に投影することによって決定する段階(913)と;
・前記起点オーディオ信号に基づいて前記オーディオ源(311、312、313)の終点オーディオ信号を決定する段階(914)と;
・前記オーディオ源(311、312、313)の終点オーディオ信号を、終点聴取位置(302)のまわりの終点球上の終点源位置からレンダリングする段階(915)とを含み、
前記起点源位置は、前記終点聴取位置(302)に関する透視投影によって前記起点球から前記終点球上に投影され、
前記起点球および前記終点球は同じ半径をもつ、
方法。 - 前記終点源位置が、前記終点聴取位置(302)と前記起点源位置との間の射線の、前記終点球との交点に対応するよう、前記終点源位置が決定される、請求項1記載の方法。
- 前記終点オーディオ信号を決定すること(914)が、
・前記起点源位置と前記終点聴取位置(302)との間の終点距離(322)を決定する段階と;
・前記終点オーディオ信号を、前記終点距離(322)に基づいて決定(914)することと;
任意的に、
・前記終点オーディオ信号を決定すること(914)が、前記起点オーディオ信号に距離利得(410)を適用することとを含み;
・前記距離利得(410)が前記終点距離(322)に依存し、
前記終点オーディオ信号を決定すること(914)が、任意的に、
・前記距離利得(410)を、オーディオ信号(311、312、313)の源位置と聴取者(181)の聴取位置(301、302)との間の距離(321、322)の関数として示す距離関数(415)を提供する段階と;
・前記起点オーディオ信号に適用される前記距離利得(410)を、前記距離関数(415)の、前記終点距離(322)についての関数値に基づいて決定する段階とを含む、
請求項1または2記載の方法。 - 前記終点オーディオ信号を決定すること(914)が、
・前記起点源位置と前記起点聴取位置(301)との間の起点距離(321)を決定する段階と;
・前記終点オーディオ信号を、前記起点距離(321)に基づいて決定する段階とを含む、
請求項3記載の方法。 - 前記起点オーディオ信号に適用される前記距離利得(410)が、前記距離関数(415)の、前記起点距離(321)についての関数値に基づいて決定される、請求項4記載の方法。
- 前記終点オーディオ信号を決定すること(914)が、
・前記オーディオ源(311、312、313)の指向性プロファイル(332)を決定する段階であって、前記指向性プロファイル(332)は、前記起点オーディオ信号の種々の方向での強度を示す、段階と;
・前記終点オーディオ信号を、前記指向性プロファイル(332)に基づいて決定する段階(914)とを含み、
任意的に、
前記指向性プロファイル(332)は、前記終点オーディオ信号を決定するために前記起点オーディオ信号に適用される指向性利得(510)を示し、
任意的に、
・前記指向性プロファイル(332)は、指向性利得関数(515)を示し;
・前記指向性利得関数(515)は、指向性利得(510)を、オーディオ源(311、312、313)の源位置と聴取者(181)の聴取位置(301、302)との間の指向性角(520)の関数として示す、
請求項1ないし5のうちいずれか一項に記載の方法。 - 前記終点オーディオ信号を決定すること(914)が、
・前記終点源位置と前記終点聴取位置(302)との間の終点角(522)を決定し;
・前記終点オーディオ信号を、前記終点角(522)に基づいて決定すること(914)を含み、
任意的に、前記終点オーディオ信号が、前記指向性利得関数(515)の、前記終点角(522)についての関数値に基づいて決定され、
前記終点オーディオ信号を決定すること(914)が、任意的に、
・前記起点源位置と前記起点聴取位置(301)との間の起点角(521)を決定し;
・前記終点オーディオ信号を、前記起点角(521)に基づいて決定する(914)ことを含み、
任意的に、前記終点オーディオ信号が、前記指向性利得関数(515)の、前記起点角(521)についての関数値に基づいて決定され、
任意的に、前記終点オーディオ信号を決定すること(914)が、前記指向性利得関数(515)の、前記起点角(521)についておよび前記終点角(522)についての関数値を使って前記起点オーディオ信号の強度を修正して、前記終点オーディオ信号の強度を決定することを含む、請求項6記載の方法。 - 前記終点オーディオ信号を決定すること(914)が、
・聴取者(181)の視野(701)および/または関心焦点(702)に関する焦点情報を判別し;
・前記終点オーディオ信号を前記焦点情報に基づいて決定することを含み、
任意的に、前記終点オーディオ信号を決定すること(914)が、前記終点オーディオ信号の強度を、前記起点オーディオ信号の強度に基づいて決定することを含み、
任意的に、前記終点オーディオ信号を決定すること(914)が、前記終点オーディオ信号のスペクトル組成を、前記起点オーディオ信号のスペクトル組成に基づいて決定することを含む、
請求項1ないし7のうちいずれか一項記載の方法。 - 前記起点オーディオ信号および前記終点オーディオ信号が、3Dオーディオ・レンダラー(162)、特にMPEG-Hオーディオ・レンダラーを使ってレンダリングされる、請求項1ないし8のうちいずれか一項に記載の方法。
- ・前記オーディオ源(311、312、313)が周囲音オーディオ源であることを判別し;
・周囲音オーディオ源(311、312、313)の前記起点源位置を、前記終点源位置として維持し;
・前記周囲音オーディオ源(311、312、313)の前記起点オーディオ信号の強度を、前記終点オーディオ信号の強度として維持することをさらに含み、
当該方法(910)が任意的に、
・対応する複数のオーディオ源(311、312、313)の複数の起点オーディオ信号を、前記起点球(114)上の複数の異なる起点源位置からレンダリングする段階と;
・前記終点球(114)上の前記対応する複数のオーディオ源(311、312、313)についての複数の終点源位置を、それぞれ前記複数の異なる起点源位置に基づいて決定する段階と;
・前記対応する複数のオーディオ源(311、312、313)の複数の終点オーディオ信号を、それぞれ前記複数の起点オーディオ信号に基づいて決定する段階と;
・前記対応する複数のオーディオ源(311、312、313)の前記複数の終点オーディオ信号を、前記終点聴取位置(302)のまわりの前記終点球(114)上の前記対応する複数の終点源位置からレンダリングすることを含む、
請求項1ないし9のうちいずれか一項記載の方法。 - 仮想現実レンダリング環境(180)においてオーディオ信号をレンダリングするための仮想現実オーディオ・レンダラー(160)であって、当該オーディオ・レンダラーは、
・オーディオ源(311、312、313)のオーディオ信号を、仮想現実レンダリング環境(180)内の聴取者(181)の聴取位置(301、302)のまわりの球(114)上の源位置からレンダリングするよう構成された3Dオーディオ・レンダラー(162)と;
・前処理ユニット(161)であって、
・仮想現実レンダリング環境(180)内の聴取者(181)の新たな聴取位置(301、302)を決定し;
・前記オーディオ信号および前記新たな聴取位置(301、302)のまわりの球(114)に関する前記オーディオ源(311、312、313)の源位置を更新するよう構成された前処理ユニット(161)とを有しており、前記新たな聴取位置(301、302)のまわりの球(114)に関する前記オーディオ源(311、312、313)の源位置は、前記聴取位置(301、302)のまわりの球(114)上の源位置を前記新たな聴取位置(301、302)のまわりの球(114)に投影することによって決定され、
前記3Dオーディオ・レンダラー(162)は、前記オーディオ源(311、312、313)の更新されたオーディオ信号を、前記新たな聴取位置(301、302)のまわりの球(114)上の更新された源位置からレンダリングするよう構成され、前記源位置は、前記新たな聴取位置(301、302)に関する透視投影によって前記聴取位置(301、302)のまわりの球から前記新たな聴取位置のまわりの球上に投影され、前記聴取位置(301、302)のまわりの球および前記新たな聴取位置のまわりの球は同じ半径をもつ、
仮想現実オーディオ・レンダラー。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023211621A JP2024023682A (ja) | 2017-12-18 | 2023-12-15 | 仮想現実環境における聴取位置間のローカル遷移を扱う方法およびシステム |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762599848P | 2017-12-18 | 2017-12-18 | |
EP17208087 | 2017-12-18 | ||
EP17208087.1 | 2017-12-18 | ||
US62/599,848 | 2017-12-18 | ||
PCT/EP2018/085639 WO2019121773A1 (en) | 2017-12-18 | 2018-12-18 | Method and system for handling local transitions between listening positions in a virtual reality environment |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023211621A Division JP2024023682A (ja) | 2017-12-18 | 2023-12-15 | 仮想現実環境における聴取位置間のローカル遷移を扱う方法およびシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021507558A JP2021507558A (ja) | 2021-02-22 |
JP7467340B2 true JP7467340B2 (ja) | 2024-04-15 |
Family
ID=64664311
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020530488A Active JP7467340B2 (ja) | 2017-12-18 | 2018-12-18 | 仮想現実環境における聴取位置間のローカル遷移を扱う方法およびシステム |
JP2023211621A Pending JP2024023682A (ja) | 2017-12-18 | 2023-12-15 | 仮想現実環境における聴取位置間のローカル遷移を扱う方法およびシステム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023211621A Pending JP2024023682A (ja) | 2017-12-18 | 2023-12-15 | 仮想現実環境における聴取位置間のローカル遷移を扱う方法およびシステム |
Country Status (7)
Country | Link |
---|---|
US (3) | US11109178B2 (ja) |
EP (2) | EP4203524A1 (ja) |
JP (2) | JP7467340B2 (ja) |
KR (2) | KR102592858B1 (ja) |
CN (3) | CN114125690A (ja) |
BR (1) | BR112020010819A2 (ja) |
WO (1) | WO2019121773A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11356793B2 (en) * | 2019-10-01 | 2022-06-07 | Qualcomm Incorporated | Controlling rendering of audio data |
US20230019535A1 (en) * | 2019-12-19 | 2023-01-19 | Telefonaktiebolaget Lm Ericsson (Publ) | Audio rendering of audio sources |
CN115280275A (zh) * | 2020-03-13 | 2022-11-01 | 瑞典爱立信有限公司 | 具有复杂形状的音频对象的渲染 |
JP7463796B2 (ja) | 2020-03-25 | 2024-04-09 | ヤマハ株式会社 | デバイスシステム、音質制御方法および音質制御プログラム |
US20230262405A1 (en) * | 2020-07-09 | 2023-08-17 | Telefonaktiebolaget Lm Ericsson (Publ) | Seamless rendering of audio elements with both interior and exterior representations |
GB2599359A (en) * | 2020-09-23 | 2022-04-06 | Nokia Technologies Oy | Spatial audio rendering |
US11750998B2 (en) | 2020-09-30 | 2023-09-05 | Qualcomm Incorporated | Controlling rendering of audio data |
US11750745B2 (en) | 2020-11-18 | 2023-09-05 | Kelly Properties, Llc | Processing and distribution of audio signals in a multi-party conferencing environment |
US11743670B2 (en) | 2020-12-18 | 2023-08-29 | Qualcomm Incorporated | Correlation-based rendering with multiple distributed streams accounting for an occlusion for six degree of freedom applications |
EP4068076A1 (en) * | 2021-03-29 | 2022-10-05 | Nokia Technologies Oy | Processing of audio data |
US20230093585A1 (en) * | 2021-09-21 | 2023-03-23 | Facebook Technologies, Llc | Audio system for spatializing virtual sound sources |
EP4174637A1 (en) * | 2021-10-26 | 2023-05-03 | Koninklijke Philips N.V. | Bitstream representing audio in an environment |
GB2614254A (en) * | 2021-12-22 | 2023-07-05 | Nokia Technologies Oy | Apparatus, methods and computer programs for generating spatial audio output |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013514696A (ja) | 2009-12-17 | 2013-04-25 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | 第1のパラメトリック空間オーディオ信号を第2のパラメトリック空間オーディオ信号に変換する装置および方法 |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6317127B1 (en) * | 1996-10-16 | 2001-11-13 | Hughes Electronics Corporation | Multi-user real-time augmented reality system and method |
US20080240448A1 (en) * | 2006-10-05 | 2008-10-02 | Telefonaktiebolaget L M Ericsson (Publ) | Simulation of Acoustic Obstruction and Occlusion |
GB2447096B (en) | 2007-03-01 | 2011-10-12 | Sony Comp Entertainment Europe | Entertainment device and method |
DE102007048973B4 (de) | 2007-10-12 | 2010-11-18 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum Erzeugen eines Multikanalsignals mit einer Sprachsignalverarbeitung |
US8696458B2 (en) | 2008-02-15 | 2014-04-15 | Thales Visionix, Inc. | Motion tracking system and method using camera and non-camera sensors |
US20100110069A1 (en) | 2008-10-31 | 2010-05-06 | Sharp Laboratories Of America, Inc. | System for rendering virtual see-through scenes |
US9591118B2 (en) * | 2009-01-01 | 2017-03-07 | Intel Corporation | Pose to device mapping |
EP2663099B1 (en) | 2009-11-04 | 2017-09-27 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for providing drive signals for loudspeakers of a loudspeaker arrangement based on an audio signal associated with a virtual source |
TWI517028B (zh) * | 2010-12-22 | 2016-01-11 | 傑奧笛爾公司 | 音訊空間定位和環境模擬 |
WO2013032955A1 (en) | 2011-08-26 | 2013-03-07 | Reincloud Corporation | Equipment, systems and methods for navigating through multiple reality models |
EP2733964A1 (en) | 2012-11-15 | 2014-05-21 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Segment-wise adjustment of spatial audio signal to different playback loudspeaker setup |
US9838824B2 (en) * | 2012-12-27 | 2017-12-05 | Avaya Inc. | Social media processing with three-dimensional audio |
US20140320629A1 (en) | 2013-01-24 | 2014-10-30 | University Of Washington Through Its Center For Commericialization | Haptically-Enabled Co-Robotics for Underwater Tasks |
CN104019885A (zh) * | 2013-02-28 | 2014-09-03 | 杜比实验室特许公司 | 声场分析系统 |
US10262462B2 (en) * | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
EP2824649A1 (en) * | 2013-07-12 | 2015-01-14 | GN Store Nord A/S | Audio based learning system comprising a portable terminal connected to an audio unit and plurality of zones |
US9143880B2 (en) * | 2013-08-23 | 2015-09-22 | Tobii Ab | Systems and methods for providing audio to a user based on gaze input |
US9684369B2 (en) | 2014-04-08 | 2017-06-20 | Eon Reality, Inc. | Interactive virtual reality systems and methods |
WO2015185110A1 (en) | 2014-06-03 | 2015-12-10 | Metaio Gmbh | Method and system for presenting a digital information related to a real object |
US9473764B2 (en) | 2014-06-27 | 2016-10-18 | Microsoft Technology Licensing, Llc | Stereoscopic image display |
US20160163063A1 (en) | 2014-12-04 | 2016-06-09 | Matthew Ashman | Mixed-reality visualization and method |
CN114554386A (zh) * | 2015-02-06 | 2022-05-27 | 杜比实验室特许公司 | 用于自适应音频的混合型基于优先度的渲染系统和方法 |
CN105392102B (zh) * | 2015-11-30 | 2017-07-25 | 武汉大学 | 用于非球面扬声器阵列的三维音频信号生成方法及系统 |
WO2017120681A1 (en) | 2016-01-15 | 2017-07-20 | Michael Godfrey | Method and system for automatically determining a positional three dimensional output of audio information based on a user's orientation within an artificial immersive environment |
EP3209036A1 (en) * | 2016-02-19 | 2017-08-23 | Thomson Licensing | Method, computer readable storage medium, and apparatus for determining a target sound scene at a target position from two or more source sound scenes |
CN106097000B (zh) | 2016-06-02 | 2022-07-26 | 腾讯科技(深圳)有限公司 | 一种信息处理方法及服务器 |
US10231073B2 (en) * | 2016-06-17 | 2019-03-12 | Dts, Inc. | Ambisonic audio rendering with depth decoding |
CN106454685B (zh) * | 2016-11-25 | 2018-03-27 | 武汉大学 | 一种声场重建方法及系统 |
US20180288558A1 (en) * | 2017-03-31 | 2018-10-04 | OrbViu Inc. | Methods and systems for generating view adaptive spatial audio |
KR102568365B1 (ko) * | 2017-07-14 | 2023-08-18 | 프라운 호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 깊이-확장형 DirAC 기술 또는 기타 기술을 이용하여 증강된 음장 묘사 또는 수정된 음장 묘사를 생성하기 위한 개념 |
-
2018
- 2018-12-18 BR BR112020010819-7A patent/BR112020010819A2/pt unknown
- 2018-12-18 CN CN202111411029.5A patent/CN114125690A/zh active Pending
- 2018-12-18 EP EP23153129.4A patent/EP4203524A1/en active Pending
- 2018-12-18 CN CN201880081625.1A patent/CN111615835B/zh active Active
- 2018-12-18 KR KR1020207020597A patent/KR102592858B1/ko active IP Right Grant
- 2018-12-18 KR KR1020237035748A patent/KR20230151049A/ko not_active Application Discontinuation
- 2018-12-18 WO PCT/EP2018/085639 patent/WO2019121773A1/en active Application Filing
- 2018-12-18 EP EP18816153.3A patent/EP3729830B1/en active Active
- 2018-12-18 CN CN202111411729.4A patent/CN114125691A/zh active Pending
- 2018-12-18 JP JP2020530488A patent/JP7467340B2/ja active Active
- 2018-12-18 US US16/954,301 patent/US11109178B2/en active Active
-
2021
- 2021-08-30 US US17/461,341 patent/US11743672B2/en active Active
-
2023
- 2023-07-13 US US18/352,115 patent/US20230362575A1/en active Pending
- 2023-12-15 JP JP2023211621A patent/JP2024023682A/ja active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013514696A (ja) | 2009-12-17 | 2013-04-25 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | 第1のパラメトリック空間オーディオ信号を第2のパラメトリック空間オーディオ信号に変換する装置および方法 |
Also Published As
Publication number | Publication date |
---|---|
US20210092546A1 (en) | 2021-03-25 |
JP2021507558A (ja) | 2021-02-22 |
EP3729830A1 (en) | 2020-10-28 |
US11743672B2 (en) | 2023-08-29 |
CN111615835A (zh) | 2020-09-01 |
JP2024023682A (ja) | 2024-02-21 |
BR112020010819A2 (pt) | 2020-11-10 |
CN111615835B (zh) | 2021-11-30 |
WO2019121773A1 (en) | 2019-06-27 |
US20220086588A1 (en) | 2022-03-17 |
CN114125690A (zh) | 2022-03-01 |
US11109178B2 (en) | 2021-08-31 |
RU2020119777A3 (ja) | 2022-02-22 |
CN114125691A (zh) | 2022-03-01 |
US20230362575A1 (en) | 2023-11-09 |
KR20230151049A (ko) | 2023-10-31 |
KR102592858B1 (ko) | 2023-10-24 |
KR20200100729A (ko) | 2020-08-26 |
EP4203524A1 (en) | 2023-06-28 |
EP3729830B1 (en) | 2023-01-25 |
RU2020119777A (ru) | 2021-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7467340B2 (ja) | 仮想現実環境における聴取位置間のローカル遷移を扱う方法およびシステム | |
JP7354107B2 (ja) | 仮想現実環境における聴取位置間のグローバル遷移を扱う方法およびシステム | |
US20240155304A1 (en) | Method and system for controlling directivity of an audio source in a virtual reality environment | |
CA3237593A1 (en) | Renderers, decoders, encoders, methods and bitstreams using spatially extended sound sources | |
RU2777921C2 (ru) | Способ и система для обработки локальных переходов между положениями прослушивания в среде виртуальной реальности | |
CN116998169A (zh) | 在虚拟现实环境中控制音频源的指向性的方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A529 Effective date: 20200603 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211210 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230420 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230822 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231215 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20231225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240305 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240403 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7467340 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |