JP2019532569A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2019532569A5 JP2019532569A5 JP2019513952A JP2019513952A JP2019532569A5 JP 2019532569 A5 JP2019532569 A5 JP 2019532569A5 JP 2019513952 A JP2019513952 A JP 2019513952A JP 2019513952 A JP2019513952 A JP 2019513952A JP 2019532569 A5 JP2019532569 A5 JP 2019532569A5
- Authority
- JP
- Japan
- Prior art keywords
- sources
- audio data
- item
- listener
- rendering
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000000875 corresponding Effects 0.000 claims description 56
- 238000009877 rendering Methods 0.000 claims description 39
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000005259 measurement Methods 0.000 claims description 3
- 238000004590 computer program Methods 0.000 description 4
- 230000001052 transient Effects 0.000 description 2
Description
1つ以上の実施形態では、本方法はまた、聴取者の検出された第2の頭部姿勢および第2の複数のソースの個別の位置/配向に基づいて、第2の複数のソースに対応する第2のオーディオデータを第3の複数のソースに対応する第3のオーディオデータにレンダリングするステップを含む。
本発明は、例えば、以下を提供する。
(項目1)
空間化オーディオシステムであって
聴取者の頭部姿勢を検出するためのセンサと、
第1および第2の段階においてオーディオデータをレンダリングするためのプロセッサと
を備え、
前記第1の段階は、第1の複数のソースに対応する第1のオーディオデータを第2の複数のソースに対応する第2のオーディオデータにレンダリングすることを含み、
前記第2の段階は、前記聴取者の検出された頭部姿勢に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを第3の複数のソースに対応する第3のオーディオデータにレンダリングすることを含み、
前記第2の複数のソースは、前記第1の複数のソースより少ないソースから成る、
システム。
(項目2)
前記センサは、慣性測定ユニットである、項目1に記載のシステム。
(項目3)
前記第1の複数のソースは、仮想音源である、項目1に記載のシステム。
(項目4)
前記第2の複数のソースは、仮想音源である、項目1に記載のシステム。
(項目5)
前記センサは、前記第1の段階の後かつ前記第2の段階の前に、前記聴取者の頭部姿勢を検出する、項目1に記載のシステム。
(項目6)
前記センサは、前記第2の段階の直前に、前記聴取者の頭部姿勢を検出する、項目5に記載のシステム。
(項目7)
前記第3の複数のソースは、前記第2の複数のソースより少ないソースから成る、項目1に記載のシステム。
(項目8)
前記第3の複数のソースは、前記第2の複数のソースと等しい個数のソースから成る、項目1に記載のシステム。
(項目9)
前記第1のオーディオデータは、完全オーディオストリームデータセットである、項目1に記載のシステム。
(項目10)
前記第2の複数のソースは、8つまたはより少ないソースから成る、項目1に記載のシステム。
(項目11)
前記第1の複数のソースのそれぞれは、異なる位置/配向に対応する、項目1に記載のシステム。
(項目12)
前記第2の複数のソースのそれぞれは、異なる位置/配向に対応する、項目1に記載のシステム。
(項目13)
前記第3の複数のソースのそれぞれは、異なる位置/配向に対応する、項目1に記載のシステム。
(項目14)
前記第1の複数のソースは、第1の複数の位置に対応する、項目1に記載のシステム。
(項目15)
前記第2の複数のソースは、第2の複数の位置に対応し、
前記第2の複数の位置のそれぞれは、前記第1の複数の位置のそれぞれより前記聴取者に近い、
項目14に記載のシステム。
(項目16)
前記第2の複数のソースは、第2の複数の位置に対応し、
前記第2の複数の位置は、単一平面内に位置しない、
項目1記載のシステム。
(項目17)
前記第3の複数のソースに対応する複数のスピーカをさらに備え、前記複数のスピーカは、前記第3のオーディオデータに基づいて、音を生産する、項目1に記載のシステム。
(項目18)
前記第3の複数のソースのそれぞれは、異なる位置に対応し、
前記複数のスピーカのそれぞれは、個別の異なる位置における前記第3の複数のソースの個別のソースに対応する、
項目17に記載のシステム。
(項目19)
前記第2の段階は、前記聴取者の検出された頭部姿勢および前記第2の複数のソースの個別の位置/配向に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを前記第3の複数のソースに対応する第3のオーディオデータにレンダリングすることを含む、項目1に記載のシステム。
(項目20)
前記第2の段階は、前記聴取者の平行移動より回転に敏感である、項目1に記載のシステム。
(項目21)
前記第2の段階は、回転専用オーディオ変換である、項目1に記載のシステム。
(項目22)
空間化オーディオシステムであって、
第1の時間における第1の頭部姿勢および第2の時間における聴取者の第2の頭部姿勢を検出するためのセンサであって、前記第2の時間は、前記第1の時間の後である、センサと、
第1および第2の段階においてオーディオデータをレンダリングするためのプロセッサと
を備え、
前記第1の段階は、前記聴取者の検出された第1の頭部姿勢に基づいて、第1の複数のソースに対応する第1のオーディオデータを第2の複数のソースに対応する第2のオーディオデータにレンダリングすることを含み、
前記第2の段階は、前記聴取者の検出された第2の頭部姿勢に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを第3の複数のソースに対応する第3のオーディオデータにレンダリングすることを含み、
前記第2の複数のソースは、前記第1の複数のソースより少ないソースから成る、
システム。
(項目23)
前記センサは、慣性測定ユニットである、項目22に記載のシステム。
(項目24)
前記第1の複数のソースは、仮想音源である、項目22に記載のシステム。
(項目25)
前記第2の複数のソースは、仮想音源である、項目22に記載のシステム。
(項目26)
前記センサは、前記第1の段階の前に、前記聴取者の第1の頭部姿勢を検出する、項目22に記載のシステム。
(項目27)
前記センサは、前記第1の段階の後かつ前記第2の段階の前に、前記聴取者の第2の頭部姿勢を検出する、項目22に記載のシステム。
(項目28)
前記センサは、前記第2の段階の直前に、前記聴取者の第2の頭部姿勢を検出する、項目22に記載のシステム。
(項目29)
前記第3の複数のソースは、前記第2の複数のソースより少ないソースから成る、項目22に記載のシステム。
(項目30)
前記第3の複数のソースは、前記第2の複数のソースと等しい個数のソースから成る、項目22に記載のシステム。
(項目31)
前記第1のオーディオデータは、完全オーディオストリームデータセットである、項目22に記載のシステム。
(項目32)
前記第2の複数のソースは、8つまたはより少ないソースから成る、項目22に記載のシステム。
(項目33)
前記第1の複数のソースのそれぞれは、異なる位置/配向に対応する、項目22に記載のシステム。
(項目34)
前記第2の複数のソースのそれぞれは、異なる位置/配向に対応する、項目22に記載のシステム。
(項目35)
前記第3の複数のソースのそれぞれは、異なる位置/配向に対応する、項目22に記載のシステム。
(項目36)
前記第1の複数のソースは、第1の複数の位置に対応する、項目22に記載のシステム。
(項目37)
前記第2の複数のソースは、第2の複数の位置に対応し、
前記第2の複数の位置のそれぞれは、前記第1の複数の位置のそれぞれより前記聴取者に近い、
項目36に記載のシステム。
(項目38)
前記第2の複数のソースは、第2の複数の位置に対応し、
前記第2の複数の位置は、単一平面内に位置しない、
項目22に記載のシステム。
(項目39)
前記第3の複数のソースに対応する複数のスピーカをさらに備え、前記複数のスピーカは、前記第3のオーディオデータに基づいて、音を生産する、項目22に記載のシステム。
(項目40)
前記第3の複数のソースのそれぞれは、異なる位置に対応し、
前記複数のスピーカのそれぞれは、個別の異なる位置における前記第3の複数のソースの個別のソースに対応する、
項目39に記載のシステム。
(項目41)
前記第2の段階は、前記聴取者の検出された第2の頭部姿勢および前記第2の複数のソースの個別の位置/配向に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを前記第3の複数のソースに対応する第3のオーディオデータにレンダリングすることを含む、項目22に記載のシステム。
(項目42)
前記第2の段階は、前記聴取者の平行移動より回転に敏感である、項目22に記載のシステム。
(項目43)
前記第2の段階は、回転専用オーディオ変換である、項目22に記載のシステム。
(項目44)
空間化オーディオをレンダリングする方法であって、
第1の複数のソースに対応する第1のオーディオデータを第2の複数のソースに対応する第2のオーディオデータにレンダリングすることと、
聴取者の頭部姿勢を検出することと、
前記聴取者の検出された頭部姿勢に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを第3の複数のソースに対応する第3のオーディオデータにレンダリングすることと
を含み、
前記第2の複数のソースは、前記第1の複数のソースより少ないソースから成る、方法。
(項目45)
前記第1の複数のソースは、仮想音源である、項目44に記載の方法。
(項目46)
前記第2の複数のソースは、仮想音源である、項目44に記載の方法。
(項目47)
前記第1のオーディオデータをレンダリングした後かつ前記第2のオーディオデータをレンダリングする前に、前記聴取者の頭部姿勢を検出することをさらに含む、項目44に記載の方法。
(項目48)
前記第2のオーディオデータをレンダリングする直前に、前記聴取者の頭部姿勢を検出することをさらに含む、項目44に記載の方法。
(項目49)
前記第3の複数のソースは、前記第2の複数のソースより少ないソースから成る、項目44に記載の方法。
(項目50)
前記第3の複数のソースは、前記第2の複数のソースと等しい個数のソースから成る、項目44に記載の方法。
(項目51)
前記第1のオーディオデータは、完全オーディオストリームデータセットである、項目44に記載の方法。
(項目52)
前記第2の複数のソースは、8つまたはより少ないソースから成る、項目44に記載の方法。
(項目53)
前記第1の複数のソースのそれぞれは、異なる位置/配向に対応する、項目44に記載の方法。
(項目54)
前記第2の複数のソースのそれぞれは、異なる位置/配向に対応する、項目44に記載の方法。
(項目55)
前記第3の複数のソースのそれぞれは、異なる位置/配向に対応する、項目44に記載の方法。
(項目56)
前記第1の複数のソースは、第1の複数の位置に対応する、項目44に記載の方法。
(項目57)
前記第2の複数のソースは、第2の複数の位置に対応し、
前記第2の複数の位置のそれぞれは、前記第1の複数の位置のそれぞれより前記聴取者に近い、
項目56に記載の方法。
(項目58)
前記第2の複数のソースは、第2の複数の位置に対応し、
前記第2の複数の位置は、単一平面内に位置しない、
項目44に記載の方法。
(項目59)
前記第3のオーディオデータに基づいて、前記第3の複数のソースに対応する複数のスピーカを通して音を生産することをさらに含む、項目44に記載の方法。
(項目60)
前記第3の複数のソースのそれぞれは、異なる位置に対応し、
前記複数のスピーカのそれぞれは、個別の異なる位置における前記第3の複数のソースの個別のソースに対応する、
項目59に記載の方法。
(項目61)
前記聴取者の検出された頭部姿勢および前記第2の複数のソースの個別の位置/配向に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを前記第3の複数のソースに対応する第3のオーディオデータにレンダリングすることをさらに含む、項目44に記載の方法。
(項目62)
前記第2の複数のソースに対応する第2のオーディオデータを前記第3の複数のソースに対応する第3のオーディオデータにレンダリングすることは、前記聴取者の平行移動より回転に敏感である、項目44に記載の方法。
(項目63)
前記第2の複数のソースに対応する第2のオーディオデータを前記第3の複数のソースに対応する第3のオーディオデータにレンダリングすることは、回転専用オーディオ変換である、項目44に記載の方法。
(項目64)
空間化オーディオをレンダリングする方法であって、
聴取者の第1の頭部姿勢を検出することと、
前記聴取者の検出された第1の頭部姿勢に基づいて、第1の複数のソースに対応する第1のオーディオデータを第2の複数のソースに対応する第2のオーディオデータにレンダリングすることと、
前記聴取者の第2の頭部姿勢を検出することと、
前記聴取者の検出された第2の頭部姿勢に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを第3の複数のソースに対応する第3のオーディオデータにレンダリングすることと
を含み、前記第2の複数のソースは、前記第1の複数のソースより少ないソースから成る、方法。
(項目65)
前記第1の複数のソースは、仮想音源である、項目64に記載の方法。
(項目66)
前記第2の複数のソースは、仮想音源である、項目64に記載の方法。
(項目67)
前記第1のオーディオデータをレンダリングする前に、前記聴取者の第1の頭部姿勢を検出することをさらに含む、項目64に記載の方法。
(項目68)
前記第1のオーディオデータをレンダリングした後かつ前記第2のオーディオデータをレンダリングする前に、前記聴取者の第2の頭部姿勢を検出することをさらに含む、項目64に記載の方法。
(項目69)
前記第2のオーディオデータをレンダリングする直前に、前記聴取者の第2の頭部姿勢を検出することをさらに含む、項目64に記載の方法。
(項目70)
前記第3の複数のソースは、前記第2の複数のソースより少ないソースから成る、項目64に記載の方法。
(項目71)
前記第3の複数のソースは、前記第2の複数のソースと等しい個数のソースから成る、項目64に記載の方法。
(項目72)
前記第1のオーディオデータは、完全オーディオストリームデータセットである、項目64に記載の方法。
(項目73)
前記第2の複数のソースは、8つまたはより少ないソースから成る、項目64に記載の方法。
(項目74)
前記第1の複数のソースのそれぞれは、異なる位置/配向に対応する、項目64に記載の方法。
(項目75)
前記第2の複数のソースのそれぞれは、異なる位置/配向に対応する、項目64に記載の方法。
(項目76)
前記第3の複数のソースのそれぞれは、異なる位置/配向に対応する、項目64に記載の方法。
(項目77)
前記第1の複数のソースは、第1の複数の位置に対応する、項目64に記載の方法。
(項目78)
前記第2の複数のソースは、第2の複数の位置に対応し、
前記第2の複数の位置のそれぞれは、前記第1の複数の位置のそれぞれより前記聴取者に近い、
項目77に記載の方法。
(項目79)
前記第2の複数のソースは、第2の複数の位置に対応し、
前記第2の複数の位置は、単一平面内に位置しない、
項目64に記載の方法。
(項目80)
前記第3のオーディオデータに基づいて、前記第3の複数のソースに対応する複数のスピーカを通して音を生産することをさらに含む、項目64に記載の方法。
(項目81)
前記第3の複数のソースのそれぞれは、異なる位置に対応し、
前記複数のスピーカのそれぞれは、個別の異なる位置における前記第3の複数のソースの個別のソースに対応する、
項目80に記載の方法。
(項目82)
前記聴取者の検出された第2の頭部姿勢および前記第2の複数のソースの個別の位置/配向に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを前記第3の複数のソースに対応する第3のオーディオデータにレンダリングすることをさらに含む、項目64に記載の方法。
(項目83)
前記第2の複数のソースに対応する第2のオーディオデータを前記第3の複数のソースに対応する第3のオーディオデータにレンダリングすることは、前記聴取者の平行移動より回転に敏感である、項目64に記載の方法。
(項目84)
前記第2の複数のソースに対応する第2のオーディオデータを前記第3の複数のソースに対応する第3のオーディオデータにレンダリングすることは、回転専用オーディオ変換である、項目64に記載の方法。
(項目85)
非一過性コンピュータ可読媒体内に具現化されるコンピュータプログラム製品であって、前記コンピュータ可読媒体は、その上に記憶される命令のシーケンスを有し、前記命令のシーケンスは、プロセッサによって実行されると、前記プロセッサに、空間化オーディオをレンダリングするための方法を実行させ、前記方法は、
第1の複数のソースに対応する第1のオーディオデータを第2の複数のソースに対応する第2のオーディオデータにレンダリングすることと、
聴取者の頭部姿勢を検出することと、
前記聴取者の検出された頭部姿勢に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを第3の複数のソースに対応する第3のオーディオデータにレンダリングすることと
を含み、前記第2の複数のソースは、前記第1の複数のソースより少ないソースから成る、
コンピュータプログラム製品。
(項目86)
非一過性コンピュータ可読媒体内に具現化されるコンピュータプログラム製品であって、前記コンピュータ可読媒体は、その上に記憶される命令のシーケンスを有し、前記命令のシーケンスは、プロセッサによって実行されると、前記プロセッサに、空間化オーディオをレンダリングするための方法を実行させ、前記方法は、
聴取者の第1の頭部姿勢を検出することと、
前記聴取者の検出された第1の頭部姿勢に基づいて、第1の複数のソースに対応する第1のオーディオデータを第2の複数のソースに対応する第2のオーディオデータにレンダリングすることと、
前記聴取者の第2の頭部姿勢を検出することと、
前記聴取者の検出された第2の頭部姿勢に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを第3の複数のソースに対応する第3のオーディオデータにレンダリングすることと
を含み、前記第2の複数のソースは、前記第1の複数のソースより少ないソースから成る、
コンピュータプログラム製品。
(項目87)
前記第2の複数のソースのそれぞれは、前記聴取者の頭部から約6インチ〜約12インチに位置する、項目1に記載のシステム。
(項目88)
前記第2の複数のソースのそれぞれは、前記聴取者の頭部から約6インチ〜約12インチに位置する、項目22に記載のシステム。
(項目89)
前記第2の複数のソースのそれぞれは、前記聴取者の頭部から約6インチ〜約12インチに位置する、項目44に記載の方法。
(項目90)
前記第2の複数のソースのそれぞれは、前記聴取者の頭部から約6インチ〜約12インチに位置する、項目64に記載の方法。
本発明は、例えば、以下を提供する。
(項目1)
空間化オーディオシステムであって
聴取者の頭部姿勢を検出するためのセンサと、
第1および第2の段階においてオーディオデータをレンダリングするためのプロセッサと
を備え、
前記第1の段階は、第1の複数のソースに対応する第1のオーディオデータを第2の複数のソースに対応する第2のオーディオデータにレンダリングすることを含み、
前記第2の段階は、前記聴取者の検出された頭部姿勢に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを第3の複数のソースに対応する第3のオーディオデータにレンダリングすることを含み、
前記第2の複数のソースは、前記第1の複数のソースより少ないソースから成る、
システム。
(項目2)
前記センサは、慣性測定ユニットである、項目1に記載のシステム。
(項目3)
前記第1の複数のソースは、仮想音源である、項目1に記載のシステム。
(項目4)
前記第2の複数のソースは、仮想音源である、項目1に記載のシステム。
(項目5)
前記センサは、前記第1の段階の後かつ前記第2の段階の前に、前記聴取者の頭部姿勢を検出する、項目1に記載のシステム。
(項目6)
前記センサは、前記第2の段階の直前に、前記聴取者の頭部姿勢を検出する、項目5に記載のシステム。
(項目7)
前記第3の複数のソースは、前記第2の複数のソースより少ないソースから成る、項目1に記載のシステム。
(項目8)
前記第3の複数のソースは、前記第2の複数のソースと等しい個数のソースから成る、項目1に記載のシステム。
(項目9)
前記第1のオーディオデータは、完全オーディオストリームデータセットである、項目1に記載のシステム。
(項目10)
前記第2の複数のソースは、8つまたはより少ないソースから成る、項目1に記載のシステム。
(項目11)
前記第1の複数のソースのそれぞれは、異なる位置/配向に対応する、項目1に記載のシステム。
(項目12)
前記第2の複数のソースのそれぞれは、異なる位置/配向に対応する、項目1に記載のシステム。
(項目13)
前記第3の複数のソースのそれぞれは、異なる位置/配向に対応する、項目1に記載のシステム。
(項目14)
前記第1の複数のソースは、第1の複数の位置に対応する、項目1に記載のシステム。
(項目15)
前記第2の複数のソースは、第2の複数の位置に対応し、
前記第2の複数の位置のそれぞれは、前記第1の複数の位置のそれぞれより前記聴取者に近い、
項目14に記載のシステム。
(項目16)
前記第2の複数のソースは、第2の複数の位置に対応し、
前記第2の複数の位置は、単一平面内に位置しない、
項目1記載のシステム。
(項目17)
前記第3の複数のソースに対応する複数のスピーカをさらに備え、前記複数のスピーカは、前記第3のオーディオデータに基づいて、音を生産する、項目1に記載のシステム。
(項目18)
前記第3の複数のソースのそれぞれは、異なる位置に対応し、
前記複数のスピーカのそれぞれは、個別の異なる位置における前記第3の複数のソースの個別のソースに対応する、
項目17に記載のシステム。
(項目19)
前記第2の段階は、前記聴取者の検出された頭部姿勢および前記第2の複数のソースの個別の位置/配向に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを前記第3の複数のソースに対応する第3のオーディオデータにレンダリングすることを含む、項目1に記載のシステム。
(項目20)
前記第2の段階は、前記聴取者の平行移動より回転に敏感である、項目1に記載のシステム。
(項目21)
前記第2の段階は、回転専用オーディオ変換である、項目1に記載のシステム。
(項目22)
空間化オーディオシステムであって、
第1の時間における第1の頭部姿勢および第2の時間における聴取者の第2の頭部姿勢を検出するためのセンサであって、前記第2の時間は、前記第1の時間の後である、センサと、
第1および第2の段階においてオーディオデータをレンダリングするためのプロセッサと
を備え、
前記第1の段階は、前記聴取者の検出された第1の頭部姿勢に基づいて、第1の複数のソースに対応する第1のオーディオデータを第2の複数のソースに対応する第2のオーディオデータにレンダリングすることを含み、
前記第2の段階は、前記聴取者の検出された第2の頭部姿勢に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを第3の複数のソースに対応する第3のオーディオデータにレンダリングすることを含み、
前記第2の複数のソースは、前記第1の複数のソースより少ないソースから成る、
システム。
(項目23)
前記センサは、慣性測定ユニットである、項目22に記載のシステム。
(項目24)
前記第1の複数のソースは、仮想音源である、項目22に記載のシステム。
(項目25)
前記第2の複数のソースは、仮想音源である、項目22に記載のシステム。
(項目26)
前記センサは、前記第1の段階の前に、前記聴取者の第1の頭部姿勢を検出する、項目22に記載のシステム。
(項目27)
前記センサは、前記第1の段階の後かつ前記第2の段階の前に、前記聴取者の第2の頭部姿勢を検出する、項目22に記載のシステム。
(項目28)
前記センサは、前記第2の段階の直前に、前記聴取者の第2の頭部姿勢を検出する、項目22に記載のシステム。
(項目29)
前記第3の複数のソースは、前記第2の複数のソースより少ないソースから成る、項目22に記載のシステム。
(項目30)
前記第3の複数のソースは、前記第2の複数のソースと等しい個数のソースから成る、項目22に記載のシステム。
(項目31)
前記第1のオーディオデータは、完全オーディオストリームデータセットである、項目22に記載のシステム。
(項目32)
前記第2の複数のソースは、8つまたはより少ないソースから成る、項目22に記載のシステム。
(項目33)
前記第1の複数のソースのそれぞれは、異なる位置/配向に対応する、項目22に記載のシステム。
(項目34)
前記第2の複数のソースのそれぞれは、異なる位置/配向に対応する、項目22に記載のシステム。
(項目35)
前記第3の複数のソースのそれぞれは、異なる位置/配向に対応する、項目22に記載のシステム。
(項目36)
前記第1の複数のソースは、第1の複数の位置に対応する、項目22に記載のシステム。
(項目37)
前記第2の複数のソースは、第2の複数の位置に対応し、
前記第2の複数の位置のそれぞれは、前記第1の複数の位置のそれぞれより前記聴取者に近い、
項目36に記載のシステム。
(項目38)
前記第2の複数のソースは、第2の複数の位置に対応し、
前記第2の複数の位置は、単一平面内に位置しない、
項目22に記載のシステム。
(項目39)
前記第3の複数のソースに対応する複数のスピーカをさらに備え、前記複数のスピーカは、前記第3のオーディオデータに基づいて、音を生産する、項目22に記載のシステム。
(項目40)
前記第3の複数のソースのそれぞれは、異なる位置に対応し、
前記複数のスピーカのそれぞれは、個別の異なる位置における前記第3の複数のソースの個別のソースに対応する、
項目39に記載のシステム。
(項目41)
前記第2の段階は、前記聴取者の検出された第2の頭部姿勢および前記第2の複数のソースの個別の位置/配向に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを前記第3の複数のソースに対応する第3のオーディオデータにレンダリングすることを含む、項目22に記載のシステム。
(項目42)
前記第2の段階は、前記聴取者の平行移動より回転に敏感である、項目22に記載のシステム。
(項目43)
前記第2の段階は、回転専用オーディオ変換である、項目22に記載のシステム。
(項目44)
空間化オーディオをレンダリングする方法であって、
第1の複数のソースに対応する第1のオーディオデータを第2の複数のソースに対応する第2のオーディオデータにレンダリングすることと、
聴取者の頭部姿勢を検出することと、
前記聴取者の検出された頭部姿勢に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを第3の複数のソースに対応する第3のオーディオデータにレンダリングすることと
を含み、
前記第2の複数のソースは、前記第1の複数のソースより少ないソースから成る、方法。
(項目45)
前記第1の複数のソースは、仮想音源である、項目44に記載の方法。
(項目46)
前記第2の複数のソースは、仮想音源である、項目44に記載の方法。
(項目47)
前記第1のオーディオデータをレンダリングした後かつ前記第2のオーディオデータをレンダリングする前に、前記聴取者の頭部姿勢を検出することをさらに含む、項目44に記載の方法。
(項目48)
前記第2のオーディオデータをレンダリングする直前に、前記聴取者の頭部姿勢を検出することをさらに含む、項目44に記載の方法。
(項目49)
前記第3の複数のソースは、前記第2の複数のソースより少ないソースから成る、項目44に記載の方法。
(項目50)
前記第3の複数のソースは、前記第2の複数のソースと等しい個数のソースから成る、項目44に記載の方法。
(項目51)
前記第1のオーディオデータは、完全オーディオストリームデータセットである、項目44に記載の方法。
(項目52)
前記第2の複数のソースは、8つまたはより少ないソースから成る、項目44に記載の方法。
(項目53)
前記第1の複数のソースのそれぞれは、異なる位置/配向に対応する、項目44に記載の方法。
(項目54)
前記第2の複数のソースのそれぞれは、異なる位置/配向に対応する、項目44に記載の方法。
(項目55)
前記第3の複数のソースのそれぞれは、異なる位置/配向に対応する、項目44に記載の方法。
(項目56)
前記第1の複数のソースは、第1の複数の位置に対応する、項目44に記載の方法。
(項目57)
前記第2の複数のソースは、第2の複数の位置に対応し、
前記第2の複数の位置のそれぞれは、前記第1の複数の位置のそれぞれより前記聴取者に近い、
項目56に記載の方法。
(項目58)
前記第2の複数のソースは、第2の複数の位置に対応し、
前記第2の複数の位置は、単一平面内に位置しない、
項目44に記載の方法。
(項目59)
前記第3のオーディオデータに基づいて、前記第3の複数のソースに対応する複数のスピーカを通して音を生産することをさらに含む、項目44に記載の方法。
(項目60)
前記第3の複数のソースのそれぞれは、異なる位置に対応し、
前記複数のスピーカのそれぞれは、個別の異なる位置における前記第3の複数のソースの個別のソースに対応する、
項目59に記載の方法。
(項目61)
前記聴取者の検出された頭部姿勢および前記第2の複数のソースの個別の位置/配向に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを前記第3の複数のソースに対応する第3のオーディオデータにレンダリングすることをさらに含む、項目44に記載の方法。
(項目62)
前記第2の複数のソースに対応する第2のオーディオデータを前記第3の複数のソースに対応する第3のオーディオデータにレンダリングすることは、前記聴取者の平行移動より回転に敏感である、項目44に記載の方法。
(項目63)
前記第2の複数のソースに対応する第2のオーディオデータを前記第3の複数のソースに対応する第3のオーディオデータにレンダリングすることは、回転専用オーディオ変換である、項目44に記載の方法。
(項目64)
空間化オーディオをレンダリングする方法であって、
聴取者の第1の頭部姿勢を検出することと、
前記聴取者の検出された第1の頭部姿勢に基づいて、第1の複数のソースに対応する第1のオーディオデータを第2の複数のソースに対応する第2のオーディオデータにレンダリングすることと、
前記聴取者の第2の頭部姿勢を検出することと、
前記聴取者の検出された第2の頭部姿勢に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを第3の複数のソースに対応する第3のオーディオデータにレンダリングすることと
を含み、前記第2の複数のソースは、前記第1の複数のソースより少ないソースから成る、方法。
(項目65)
前記第1の複数のソースは、仮想音源である、項目64に記載の方法。
(項目66)
前記第2の複数のソースは、仮想音源である、項目64に記載の方法。
(項目67)
前記第1のオーディオデータをレンダリングする前に、前記聴取者の第1の頭部姿勢を検出することをさらに含む、項目64に記載の方法。
(項目68)
前記第1のオーディオデータをレンダリングした後かつ前記第2のオーディオデータをレンダリングする前に、前記聴取者の第2の頭部姿勢を検出することをさらに含む、項目64に記載の方法。
(項目69)
前記第2のオーディオデータをレンダリングする直前に、前記聴取者の第2の頭部姿勢を検出することをさらに含む、項目64に記載の方法。
(項目70)
前記第3の複数のソースは、前記第2の複数のソースより少ないソースから成る、項目64に記載の方法。
(項目71)
前記第3の複数のソースは、前記第2の複数のソースと等しい個数のソースから成る、項目64に記載の方法。
(項目72)
前記第1のオーディオデータは、完全オーディオストリームデータセットである、項目64に記載の方法。
(項目73)
前記第2の複数のソースは、8つまたはより少ないソースから成る、項目64に記載の方法。
(項目74)
前記第1の複数のソースのそれぞれは、異なる位置/配向に対応する、項目64に記載の方法。
(項目75)
前記第2の複数のソースのそれぞれは、異なる位置/配向に対応する、項目64に記載の方法。
(項目76)
前記第3の複数のソースのそれぞれは、異なる位置/配向に対応する、項目64に記載の方法。
(項目77)
前記第1の複数のソースは、第1の複数の位置に対応する、項目64に記載の方法。
(項目78)
前記第2の複数のソースは、第2の複数の位置に対応し、
前記第2の複数の位置のそれぞれは、前記第1の複数の位置のそれぞれより前記聴取者に近い、
項目77に記載の方法。
(項目79)
前記第2の複数のソースは、第2の複数の位置に対応し、
前記第2の複数の位置は、単一平面内に位置しない、
項目64に記載の方法。
(項目80)
前記第3のオーディオデータに基づいて、前記第3の複数のソースに対応する複数のスピーカを通して音を生産することをさらに含む、項目64に記載の方法。
(項目81)
前記第3の複数のソースのそれぞれは、異なる位置に対応し、
前記複数のスピーカのそれぞれは、個別の異なる位置における前記第3の複数のソースの個別のソースに対応する、
項目80に記載の方法。
(項目82)
前記聴取者の検出された第2の頭部姿勢および前記第2の複数のソースの個別の位置/配向に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを前記第3の複数のソースに対応する第3のオーディオデータにレンダリングすることをさらに含む、項目64に記載の方法。
(項目83)
前記第2の複数のソースに対応する第2のオーディオデータを前記第3の複数のソースに対応する第3のオーディオデータにレンダリングすることは、前記聴取者の平行移動より回転に敏感である、項目64に記載の方法。
(項目84)
前記第2の複数のソースに対応する第2のオーディオデータを前記第3の複数のソースに対応する第3のオーディオデータにレンダリングすることは、回転専用オーディオ変換である、項目64に記載の方法。
(項目85)
非一過性コンピュータ可読媒体内に具現化されるコンピュータプログラム製品であって、前記コンピュータ可読媒体は、その上に記憶される命令のシーケンスを有し、前記命令のシーケンスは、プロセッサによって実行されると、前記プロセッサに、空間化オーディオをレンダリングするための方法を実行させ、前記方法は、
第1の複数のソースに対応する第1のオーディオデータを第2の複数のソースに対応する第2のオーディオデータにレンダリングすることと、
聴取者の頭部姿勢を検出することと、
前記聴取者の検出された頭部姿勢に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを第3の複数のソースに対応する第3のオーディオデータにレンダリングすることと
を含み、前記第2の複数のソースは、前記第1の複数のソースより少ないソースから成る、
コンピュータプログラム製品。
(項目86)
非一過性コンピュータ可読媒体内に具現化されるコンピュータプログラム製品であって、前記コンピュータ可読媒体は、その上に記憶される命令のシーケンスを有し、前記命令のシーケンスは、プロセッサによって実行されると、前記プロセッサに、空間化オーディオをレンダリングするための方法を実行させ、前記方法は、
聴取者の第1の頭部姿勢を検出することと、
前記聴取者の検出された第1の頭部姿勢に基づいて、第1の複数のソースに対応する第1のオーディオデータを第2の複数のソースに対応する第2のオーディオデータにレンダリングすることと、
前記聴取者の第2の頭部姿勢を検出することと、
前記聴取者の検出された第2の頭部姿勢に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを第3の複数のソースに対応する第3のオーディオデータにレンダリングすることと
を含み、前記第2の複数のソースは、前記第1の複数のソースより少ないソースから成る、
コンピュータプログラム製品。
(項目87)
前記第2の複数のソースのそれぞれは、前記聴取者の頭部から約6インチ〜約12インチに位置する、項目1に記載のシステム。
(項目88)
前記第2の複数のソースのそれぞれは、前記聴取者の頭部から約6インチ〜約12インチに位置する、項目22に記載のシステム。
(項目89)
前記第2の複数のソースのそれぞれは、前記聴取者の頭部から約6インチ〜約12インチに位置する、項目44に記載の方法。
(項目90)
前記第2の複数のソースのそれぞれは、前記聴取者の頭部から約6インチ〜約12インチに位置する、項目64に記載の方法。
Claims (20)
- 空間化オーディオシステムであって
聴取者の最新の頭部姿勢を検出するためのセンサと、
第1の段階および第2の段階においてオーディオデータをレンダリングするためのプロセッサと
を備え、
前記第1の段階は、第1の複数のソースに対応する第1のオーディオデータを第2の複数のソースに対応する第2のオーディオデータにレンダリングすることを含み、前記第1の複数のソースのそれぞれは、第1の複数の位置のうちの1つを有し、前記第2の複数のソースのそれぞれは、第2の複数の位置のうちの1つを有し、
前記第2の段階は、前記聴取者の前記検出された最新の頭部姿勢に基づいて、前記第2の複数のソースに対応する前記第2のオーディオデータを第3の複数のソースに対応する第3のオーディオデータにレンダリングすることを含み、前記第3の複数のソースのそれぞれは、第3の複数の位置のうちの1つを有し、
前記第2の複数のソースは、前記第1の複数のソースより少ないソースから成り、
前記第1のオーディオデータを前記第2のオーディオデータにレンダリングすることは、前記第1のオーディオデータをワーピングすることを含み、
前記第2のオーディオデータを前記第3のオーディオデータにレンダリングすることは、前記第2のオーディオデータをワーピングすることを含む、システム。 - 前記センサは、慣性測定ユニットである、請求項1に記載のシステム。
- 前記第1の複数のソースは、仮想音源である、請求項1に記載のシステム。
- 前記第2の複数のソースは、仮想音源である、請求項1に記載のシステム。
- 前記センサは、前記第1の段階の後かつ前記第2の段階の前に、前記聴取者の前記最新の頭部姿勢を検出する、請求項1に記載のシステム。
- 前記センサは、前記第2の段階の直前に、前記聴取者の前記最新の頭部姿勢を検出する、請求項5に記載のシステム。
- 前記第3の複数のソースは、前記第2の複数のソースと等しい個数のソースまたは前記第2の複数のソースより少ないソースから成る、請求項1に記載のシステム。
- 前記第1のオーディオデータは、完全オーディオストリームデータセットである、請求項1に記載のシステム。
- 前記第2の複数のソースは、8つまたはより少ないソースから成る、請求項1に記載のシステム。
- 前記第1の複数のソースのそれぞれは、異なる位置/配向に対応する、請求項1に記載のシステム。
- 前記第2の複数のソースのそれぞれは、異なる位置/配向に対応する、請求項1に記載のシステム。
- 前記第3の複数のソースのそれぞれは、異なる位置/配向に対応する、請求項1に記載のシステム。
- 前記第2の複数の位置のそれぞれは、前記第1の複数の位置のそれぞれより前記聴取者に近い、請求項1に記載のシステム。
- 前記第2の複数の位置は、単一平面内に位置しない、請求項1に記載のシステム。
- 前記第3の複数のソースに対応する複数のスピーカをさらに備え、前記複数のスピーカは、前記第3のオーディオデータに基づいて、音を生産する、請求項1に記載のシステム。
- 前記複数のスピーカのそれぞれは、前記第3の複数の位置のうちの個別の位置における前記第3の複数のソースの個別のソースに対応する、請求項15に記載のシステム。
- 前記第2の段階は、前記聴取者の前記検出された最新の頭部姿勢および前記第2の複数のソースの個別の位置/配向に基づいて、前記第2の複数のソースに対応する前記第2のオーディオデータを前記第3の複数のソースに対応する前記第3のオーディオデータにレンダリングすることを含む、請求項1に記載のシステム。
- 前記第2の段階は、前記聴取者の平行移動より回転に敏感である、請求項1に記載のシステム。
- 前記第2の段階は、回転専用オーディオ変換である、請求項1に記載のシステム。
- 空間化オーディオシステムであって、
第1の時間における第1の頭部姿勢および第2の時間における聴取者の第2の頭部姿勢を検出するためのセンサであって、前記第2の時間は、前記第1の時間の後である、センサと、
第1の段階および第2の段階においてオーディオデータをレンダリングするためのプロセッサと
を備え、
前記第1の段階は、前記聴取者の前記検出された第1の頭部姿勢に基づいて、第1の複数のソースに対応する第1のオーディオデータを第2の複数のソースに対応する第2のオーディオデータにレンダリングすることを含み、前記第1の複数のソースのそれぞれは、第1の複数の位置のうちの1つを有し、前記第2の複数のソースのそれぞれは、第2の複数の位置のうちの1つを有し、
前記第2の段階は、前記聴取者の前記検出された第2の頭部姿勢に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを第3の複数のソースに対応する第3のオーディオデータにレンダリングすることを含み、前記第3の複数のソースのそれぞれは、第3の複数の位置のうちの1つを有し、
前記第2の複数のソースは、前記第1の複数のソースより少ないソースから成り、
前記第1のオーディオデータを前記第2のオーディオデータにレンダリングすることは、前記第1のオーディオデータをワーピングすることを含み、
前記第2のオーディオデータを前記第3のオーディオデータにレンダリングすることは、前記第2のオーディオデータをワーピングすることを含む、システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662394617P | 2016-09-14 | 2016-09-14 | |
US62/394,617 | 2016-09-14 | ||
PCT/US2017/051421 WO2018053047A1 (en) | 2016-09-14 | 2017-09-13 | Virtual reality, augmented reality, and mixed reality systems with spatialized audio |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021000727A Division JP7165215B2 (ja) | 2016-09-14 | 2021-01-06 | 空間化オーディオを用いた仮想現実、拡張現実、および複合現実システム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019532569A JP2019532569A (ja) | 2019-11-07 |
JP2019532569A5 true JP2019532569A5 (ja) | 2020-10-22 |
JP6821795B2 JP6821795B2 (ja) | 2021-01-27 |
Family
ID=61560542
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019513952A Active JP6821795B2 (ja) | 2016-09-14 | 2017-09-13 | 空間化オーディオを用いた仮想現実、拡張現実、および複合現実システム |
JP2021000727A Active JP7165215B2 (ja) | 2016-09-14 | 2021-01-06 | 空間化オーディオを用いた仮想現実、拡張現実、および複合現実システム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021000727A Active JP7165215B2 (ja) | 2016-09-14 | 2021-01-06 | 空間化オーディオを用いた仮想現実、拡張現実、および複合現実システム |
Country Status (9)
Country | Link |
---|---|
US (2) | US10448189B2 (ja) |
EP (2) | EP4254403A3 (ja) |
JP (2) | JP6821795B2 (ja) |
KR (2) | KR102230645B1 (ja) |
CN (2) | CN109691141B (ja) |
AU (2) | AU2017327387B2 (ja) |
CA (1) | CA3034916A1 (ja) |
IL (1) | IL265214B (ja) |
WO (1) | WO2018053047A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102230645B1 (ko) * | 2016-09-14 | 2021-03-19 | 매직 립, 인코포레이티드 | 공간화 오디오를 갖는 가상 현실, 증강 현실 및 혼합 현실 시스템들 |
US10667072B2 (en) | 2018-06-12 | 2020-05-26 | Magic Leap, Inc. | Efficient rendering of virtual soundfields |
WO2019246159A1 (en) * | 2018-06-18 | 2019-12-26 | Magic Leap, Inc. | Spatial audio for interactive audio environments |
US10484811B1 (en) * | 2018-09-10 | 2019-11-19 | Verizon Patent And Licensing Inc. | Methods and systems for providing a composite audio stream for an extended reality world |
CN114026527A (zh) * | 2019-10-22 | 2022-02-08 | 谷歌有限责任公司 | 可穿戴装置的空间音频 |
US10911885B1 (en) | 2020-02-03 | 2021-02-02 | Microsoft Technology Licensing, Llc | Augmented reality virtual audio source enhancement |
US11089427B1 (en) | 2020-03-31 | 2021-08-10 | Snap Inc. | Immersive augmented reality experiences using spatial audio |
US11381797B2 (en) | 2020-07-16 | 2022-07-05 | Apple Inc. | Variable audio for audio-visual content |
EP4256391A1 (en) | 2020-12-07 | 2023-10-11 | Snap Inc. | Augmented reality spatial audio experience |
US20220319014A1 (en) * | 2021-04-05 | 2022-10-06 | Facebook Technologies, Llc | Systems and methods for dynamic image processing and segmentation |
Family Cites Families (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5749073A (en) * | 1996-03-15 | 1998-05-05 | Interval Research Corporation | System for automatically morphing audio information |
AU735333B2 (en) * | 1997-06-17 | 2001-07-05 | British Telecommunications Public Limited Company | Reproduction of spatialised audio |
US6182042B1 (en) * | 1998-07-07 | 2001-01-30 | Creative Technology Ltd. | Sound modification employing spectral warping techniques |
US6487526B1 (en) * | 1999-04-14 | 2002-11-26 | Rockwell Collins | Vector correlator for speech VOCODER using optical processor |
US7340062B2 (en) | 2000-03-14 | 2008-03-04 | Revit Lawrence J | Sound reproduction method and apparatus for assessing real-world performance of hearing and hearing aids |
JP2001359197A (ja) * | 2000-06-13 | 2001-12-26 | Victor Co Of Japan Ltd | 音像定位信号の生成方法、及び音像定位信号生成装置 |
US8140859B1 (en) * | 2000-07-21 | 2012-03-20 | The Directv Group, Inc. | Secure storage and replay of media programs using a hard-paired receiver and storage device |
FR2814891B1 (fr) * | 2000-10-04 | 2003-04-04 | Thomson Multimedia Sa | Procede de reglages de niveau audio provenant de plusieurs canaux et dispositif de reglage |
US7472058B2 (en) | 2004-12-28 | 2008-12-30 | Cyberlink Corp. | Automatic audio source detection for capture devices |
US7680465B2 (en) * | 2006-07-31 | 2010-03-16 | Broadcom Corporation | Sound enhancement for audio devices based on user-specific audio processing parameters |
US20080196575A1 (en) * | 2007-02-16 | 2008-08-21 | Recordare Llc | Process for creating and viewing digital sheet music on a media device |
US8406439B1 (en) * | 2007-04-04 | 2013-03-26 | At&T Intellectual Property I, L.P. | Methods and systems for synthetic audio placement |
US8620009B2 (en) | 2008-06-17 | 2013-12-31 | Microsoft Corporation | Virtual sound source positioning |
ATE539433T1 (de) * | 2008-07-11 | 2012-01-15 | Fraunhofer Ges Forschung | Bereitstellen eines zeitverzerrungsaktivierungssignals und codierung eines audiosignals damit |
US9037468B2 (en) * | 2008-10-27 | 2015-05-19 | Sony Computer Entertainment Inc. | Sound localization for user in motion |
JP2010273175A (ja) * | 2009-05-22 | 2010-12-02 | Panasonic Corp | 音声出力装置 |
US20100328419A1 (en) | 2009-06-30 | 2010-12-30 | Walter Etter | Method and apparatus for improved matching of auditory space to visual space in video viewing applications |
US8767968B2 (en) | 2010-10-13 | 2014-07-01 | Microsoft Corporation | System and method for high-precision 3-dimensional audio for augmented reality |
EP2541547A1 (en) * | 2011-06-30 | 2013-01-02 | Thomson Licensing | Method and apparatus for changing the relative positions of sound objects contained within a higher-order ambisonics representation |
JP5505395B2 (ja) * | 2011-10-28 | 2014-05-28 | ヤマハ株式会社 | 音響処理装置 |
EP2810453B1 (en) | 2012-01-17 | 2018-03-14 | Koninklijke Philips N.V. | Audio source position estimation |
US9271103B2 (en) * | 2012-03-29 | 2016-02-23 | Intel Corporation | Audio control based on orientation |
US20150131824A1 (en) * | 2012-04-02 | 2015-05-14 | Sonicemotion Ag | Method for high quality efficient 3d sound reproduction |
GB201211512D0 (en) * | 2012-06-28 | 2012-08-08 | Provost Fellows Foundation Scholars And The Other Members Of Board Of The | Method and apparatus for generating an audio output comprising spartial information |
WO2014036085A1 (en) * | 2012-08-31 | 2014-03-06 | Dolby Laboratories Licensing Corporation | Reflected sound rendering for object-based audio |
US9549253B2 (en) * | 2012-09-26 | 2017-01-17 | Foundation for Research and Technology—Hellas (FORTH) Institute of Computer Science (ICS) | Sound source localization and isolation apparatuses, methods and systems |
US20140140417A1 (en) * | 2012-11-16 | 2014-05-22 | Gary K. Shaffer | System and method for providing alignment of multiple transcoders for adaptive bitrate streaming in a network environment |
US9124966B2 (en) * | 2012-11-28 | 2015-09-01 | Qualcomm Incorporated | Image generation for collaborative sound systems |
JP5983421B2 (ja) | 2013-01-21 | 2016-08-31 | 富士通株式会社 | 音声処理装置、音声処理方法および音声処理プログラム |
US9258647B2 (en) * | 2013-02-27 | 2016-02-09 | Hewlett-Packard Development Company, L.P. | Obtaining a spatial audio signal based on microphone distances and time delays |
TWI673707B (zh) * | 2013-07-19 | 2019-10-01 | 瑞典商杜比國際公司 | 將以L<sub>1</sub>個頻道為基礎之輸入聲音訊號產生至L<sub>2</sub>個揚聲器頻道之方法及裝置,以及得到一能量保留混音矩陣之方法及裝置,用以將以輸入頻道為基礎之聲音訊號混音以用於L<sub>1</sub>個聲音頻道至L<sub>2</sub>個揚聲器頻道 |
US9807538B2 (en) | 2013-10-07 | 2017-10-31 | Dolby Laboratories Licensing Corporation | Spatial audio processing system and method |
KR102493498B1 (ko) | 2013-11-27 | 2023-01-27 | 매직 립, 인코포레이티드 | 가상 및 증강 현실 시스템들 및 방법들 |
US9285872B1 (en) | 2013-12-12 | 2016-03-15 | Google Inc. | Using head gesture and eye position to wake a head mounted device |
JP6303519B2 (ja) * | 2014-01-15 | 2018-04-04 | 富士通株式会社 | 音響再生装置および音場補正プログラム |
US9729984B2 (en) | 2014-01-18 | 2017-08-08 | Microsoft Technology Licensing, Llc | Dynamic calibration of an audio system |
US9560445B2 (en) * | 2014-01-18 | 2017-01-31 | Microsoft Technology Licensing, Llc | Enhanced spatial impression for home audio |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
WO2015161307A1 (en) * | 2014-04-18 | 2015-10-22 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
CN104284291B (zh) | 2014-08-07 | 2016-10-05 | 华南理工大学 | 5.1通路环绕声的耳机动态虚拟重放方法及其实现装置 |
CN106134223B (zh) | 2014-11-13 | 2019-04-12 | 华为技术有限公司 | 重现双耳信号的音频信号处理设备和方法 |
US9602947B2 (en) * | 2015-01-30 | 2017-03-21 | Gaudi Audio Lab, Inc. | Apparatus and a method for processing audio signal to perform binaural rendering |
US10979843B2 (en) | 2016-04-08 | 2021-04-13 | Qualcomm Incorporated | Spatialized audio output based on predicted position data |
KR102230645B1 (ko) | 2016-09-14 | 2021-03-19 | 매직 립, 인코포레이티드 | 공간화 오디오를 갖는 가상 현실, 증강 현실 및 혼합 현실 시스템들 |
-
2017
- 2017-09-13 KR KR1020197010682A patent/KR102230645B1/ko active IP Right Grant
- 2017-09-13 EP EP23182794.0A patent/EP4254403A3/en active Pending
- 2017-09-13 CN CN201780056074.9A patent/CN109691141B/zh active Active
- 2017-09-13 CA CA3034916A patent/CA3034916A1/en active Pending
- 2017-09-13 CN CN202210357688.3A patent/CN114885274B/zh active Active
- 2017-09-13 JP JP2019513952A patent/JP6821795B2/ja active Active
- 2017-09-13 KR KR1020217007740A patent/KR102514464B1/ko active IP Right Grant
- 2017-09-13 US US15/703,946 patent/US10448189B2/en active Active
- 2017-09-13 EP EP17851481.6A patent/EP3513405B1/en active Active
- 2017-09-13 AU AU2017327387A patent/AU2017327387B2/en active Active
- 2017-09-13 WO PCT/US2017/051421 patent/WO2018053047A1/en unknown
-
2019
- 2019-03-07 IL IL265214A patent/IL265214B/en active IP Right Grant
- 2019-09-04 US US16/560,670 patent/US11310618B2/en active Active
-
2021
- 2021-01-06 JP JP2021000727A patent/JP7165215B2/ja active Active
-
2022
- 2022-03-18 AU AU2022201898A patent/AU2022201898A1/en not_active Abandoned
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019532569A5 (ja) | ||
JP2017527223A5 (ja) | ||
US10585486B2 (en) | Gesture interactive wearable spatial audio system | |
WO2017098949A1 (ja) | 音声処理装置および方法、並びにプログラム | |
JP2020508440A5 (ja) | ||
US10095306B2 (en) | Passive magnetic head tracker | |
EP4254403A3 (en) | Virtual reality, augmented reality, and mixed reality systems with spatialized audio | |
RU2016116990A (ru) | Устройство обработки информации, способ обработки информации и программа | |
WO2014187877A3 (de) | Mischpult, tonsignalerzeuger, verfahren und computerprogramm zum bereitstellen eines tonsignals | |
BR112017009280A2 (pt) | modificação de apresentação de mídia usando marcação de segmento de áudio | |
RU2013130226A (ru) | Устройство и способ основанного на геометрии кодирования пространственного звука | |
PH12018502740A1 (en) | Providing audio signals in a virtual environment | |
JP2009524475A5 (ja) | ||
JP2015508487A5 (ja) | ||
EP3622730B1 (en) | Spatializing audio data based on analysis of incoming audio data | |
JP2009116690A5 (ja) | ||
JP2015141664A5 (ja) | ||
JP2014170483A5 (ja) | ||
RU2018131347A (ru) | Способ и устройство обработки звука и программа | |
JP2011071686A (ja) | 映像音響処理装置、映像音響処理方法及びプログラム | |
JP2018074439A5 (ja) | ||
JP2016181047A5 (ja) | ||
JP2015165306A5 (ja) | ||
JP2014532908A5 (ja) | ||
JP2018032383A5 (ja) |