JP2019532569A5 - - Google Patents

Download PDF

Info

Publication number
JP2019532569A5
JP2019532569A5 JP2019513952A JP2019513952A JP2019532569A5 JP 2019532569 A5 JP2019532569 A5 JP 2019532569A5 JP 2019513952 A JP2019513952 A JP 2019513952A JP 2019513952 A JP2019513952 A JP 2019513952A JP 2019532569 A5 JP2019532569 A5 JP 2019532569A5
Authority
JP
Japan
Prior art keywords
sources
audio data
item
listener
rendering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019513952A
Other languages
English (en)
Other versions
JP6821795B2 (ja
JP2019532569A (ja
Filing date
Publication date
Application filed filed Critical
Priority claimed from PCT/US2017/051421 external-priority patent/WO2018053047A1/en
Publication of JP2019532569A publication Critical patent/JP2019532569A/ja
Publication of JP2019532569A5 publication Critical patent/JP2019532569A5/ja
Application granted granted Critical
Publication of JP6821795B2 publication Critical patent/JP6821795B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

1つ以上の実施形態では、本方法はまた、聴取者の検出された第2の頭部姿勢および第2の複数のソースの個別の位置/配向に基づいて、第2の複数のソースに対応する第2のオーディオデータを第3の複数のソースに対応する第3のオーディオデータにレンダリングするステップを含む。
本発明は、例えば、以下を提供する。
(項目1)
空間化オーディオシステムであって
聴取者の頭部姿勢を検出するためのセンサと、
第1および第2の段階においてオーディオデータをレンダリングするためのプロセッサと
を備え、
前記第1の段階は、第1の複数のソースに対応する第1のオーディオデータを第2の複数のソースに対応する第2のオーディオデータにレンダリングすることを含み、
前記第2の段階は、前記聴取者の検出された頭部姿勢に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを第3の複数のソースに対応する第3のオーディオデータにレンダリングすることを含み、
前記第2の複数のソースは、前記第1の複数のソースより少ないソースから成る、
システム。
(項目2)
前記センサは、慣性測定ユニットである、項目1に記載のシステム。
(項目3)
前記第1の複数のソースは、仮想音源である、項目1に記載のシステム。
(項目4)
前記第2の複数のソースは、仮想音源である、項目1に記載のシステム。
(項目5)
前記センサは、前記第1の段階の後かつ前記第2の段階の前に、前記聴取者の頭部姿勢を検出する、項目1に記載のシステム。
(項目6)
前記センサは、前記第2の段階の直前に、前記聴取者の頭部姿勢を検出する、項目5に記載のシステム。
(項目7)
前記第3の複数のソースは、前記第2の複数のソースより少ないソースから成る、項目1に記載のシステム。
(項目8)
前記第3の複数のソースは、前記第2の複数のソースと等しい個数のソースから成る、項目1に記載のシステム。
(項目9)
前記第1のオーディオデータは、完全オーディオストリームデータセットである、項目1に記載のシステム。
(項目10)
前記第2の複数のソースは、8つまたはより少ないソースから成る、項目1に記載のシステム。
(項目11)
前記第1の複数のソースのそれぞれは、異なる位置/配向に対応する、項目1に記載のシステム。
(項目12)
前記第2の複数のソースのそれぞれは、異なる位置/配向に対応する、項目1に記載のシステム。
(項目13)
前記第3の複数のソースのそれぞれは、異なる位置/配向に対応する、項目1に記載のシステム。
(項目14)
前記第1の複数のソースは、第1の複数の位置に対応する、項目1に記載のシステム。
(項目15)
前記第2の複数のソースは、第2の複数の位置に対応し、
前記第2の複数の位置のそれぞれは、前記第1の複数の位置のそれぞれより前記聴取者に近い、
項目14に記載のシステム。
(項目16)
前記第2の複数のソースは、第2の複数の位置に対応し、
前記第2の複数の位置は、単一平面内に位置しない、
項目1記載のシステム。
(項目17)
前記第3の複数のソースに対応する複数のスピーカをさらに備え、前記複数のスピーカは、前記第3のオーディオデータに基づいて、音を生産する、項目1に記載のシステム。
(項目18)
前記第3の複数のソースのそれぞれは、異なる位置に対応し、
前記複数のスピーカのそれぞれは、個別の異なる位置における前記第3の複数のソースの個別のソースに対応する、
項目17に記載のシステム。
(項目19)
前記第2の段階は、前記聴取者の検出された頭部姿勢および前記第2の複数のソースの個別の位置/配向に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを前記第3の複数のソースに対応する第3のオーディオデータにレンダリングすることを含む、項目1に記載のシステム。
(項目20)
前記第2の段階は、前記聴取者の平行移動より回転に敏感である、項目1に記載のシステム。
(項目21)
前記第2の段階は、回転専用オーディオ変換である、項目1に記載のシステム。
(項目22)
空間化オーディオシステムであって、
第1の時間における第1の頭部姿勢および第2の時間における聴取者の第2の頭部姿勢を検出するためのセンサであって、前記第2の時間は、前記第1の時間の後である、センサと、
第1および第2の段階においてオーディオデータをレンダリングするためのプロセッサと
を備え、
前記第1の段階は、前記聴取者の検出された第1の頭部姿勢に基づいて、第1の複数のソースに対応する第1のオーディオデータを第2の複数のソースに対応する第2のオーディオデータにレンダリングすることを含み、
前記第2の段階は、前記聴取者の検出された第2の頭部姿勢に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを第3の複数のソースに対応する第3のオーディオデータにレンダリングすることを含み、
前記第2の複数のソースは、前記第1の複数のソースより少ないソースから成る、
システム。
(項目23)
前記センサは、慣性測定ユニットである、項目22に記載のシステム。
(項目24)
前記第1の複数のソースは、仮想音源である、項目22に記載のシステム。
(項目25)
前記第2の複数のソースは、仮想音源である、項目22に記載のシステム。
(項目26)
前記センサは、前記第1の段階の前に、前記聴取者の第1の頭部姿勢を検出する、項目22に記載のシステム。
(項目27)
前記センサは、前記第1の段階の後かつ前記第2の段階の前に、前記聴取者の第2の頭部姿勢を検出する、項目22に記載のシステム。
(項目28)
前記センサは、前記第2の段階の直前に、前記聴取者の第2の頭部姿勢を検出する、項目22に記載のシステム。
(項目29)
前記第3の複数のソースは、前記第2の複数のソースより少ないソースから成る、項目22に記載のシステム。
(項目30)
前記第3の複数のソースは、前記第2の複数のソースと等しい個数のソースから成る、項目22に記載のシステム。
(項目31)
前記第1のオーディオデータは、完全オーディオストリームデータセットである、項目22に記載のシステム。
(項目32)
前記第2の複数のソースは、8つまたはより少ないソースから成る、項目22に記載のシステム。
(項目33)
前記第1の複数のソースのそれぞれは、異なる位置/配向に対応する、項目22に記載のシステム。
(項目34)
前記第2の複数のソースのそれぞれは、異なる位置/配向に対応する、項目22に記載のシステム。
(項目35)
前記第3の複数のソースのそれぞれは、異なる位置/配向に対応する、項目22に記載のシステム。
(項目36)
前記第1の複数のソースは、第1の複数の位置に対応する、項目22に記載のシステム。
(項目37)
前記第2の複数のソースは、第2の複数の位置に対応し、
前記第2の複数の位置のそれぞれは、前記第1の複数の位置のそれぞれより前記聴取者に近い、
項目36に記載のシステム。
(項目38)
前記第2の複数のソースは、第2の複数の位置に対応し、
前記第2の複数の位置は、単一平面内に位置しない、
項目22に記載のシステム。
(項目39)
前記第3の複数のソースに対応する複数のスピーカをさらに備え、前記複数のスピーカは、前記第3のオーディオデータに基づいて、音を生産する、項目22に記載のシステム。
(項目40)
前記第3の複数のソースのそれぞれは、異なる位置に対応し、
前記複数のスピーカのそれぞれは、個別の異なる位置における前記第3の複数のソースの個別のソースに対応する、
項目39に記載のシステム。
(項目41)
前記第2の段階は、前記聴取者の検出された第2の頭部姿勢および前記第2の複数のソースの個別の位置/配向に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを前記第3の複数のソースに対応する第3のオーディオデータにレンダリングすることを含む、項目22に記載のシステム。
(項目42)
前記第2の段階は、前記聴取者の平行移動より回転に敏感である、項目22に記載のシステム。
(項目43)
前記第2の段階は、回転専用オーディオ変換である、項目22に記載のシステム。
(項目44)
空間化オーディオをレンダリングする方法であって、
第1の複数のソースに対応する第1のオーディオデータを第2の複数のソースに対応する第2のオーディオデータにレンダリングすることと、
聴取者の頭部姿勢を検出することと、
前記聴取者の検出された頭部姿勢に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを第3の複数のソースに対応する第3のオーディオデータにレンダリングすることと
を含み、
前記第2の複数のソースは、前記第1の複数のソースより少ないソースから成る、方法。
(項目45)
前記第1の複数のソースは、仮想音源である、項目44に記載の方法。
(項目46)
前記第2の複数のソースは、仮想音源である、項目44に記載の方法。
(項目47)
前記第1のオーディオデータをレンダリングした後かつ前記第2のオーディオデータをレンダリングする前に、前記聴取者の頭部姿勢を検出することをさらに含む、項目44に記載の方法。
(項目48)
前記第2のオーディオデータをレンダリングする直前に、前記聴取者の頭部姿勢を検出することをさらに含む、項目44に記載の方法。
(項目49)
前記第3の複数のソースは、前記第2の複数のソースより少ないソースから成る、項目44に記載の方法。
(項目50)
前記第3の複数のソースは、前記第2の複数のソースと等しい個数のソースから成る、項目44に記載の方法。
(項目51)
前記第1のオーディオデータは、完全オーディオストリームデータセットである、項目44に記載の方法。
(項目52)
前記第2の複数のソースは、8つまたはより少ないソースから成る、項目44に記載の方法。
(項目53)
前記第1の複数のソースのそれぞれは、異なる位置/配向に対応する、項目44に記載の方法。
(項目54)
前記第2の複数のソースのそれぞれは、異なる位置/配向に対応する、項目44に記載の方法。
(項目55)
前記第3の複数のソースのそれぞれは、異なる位置/配向に対応する、項目44に記載の方法。
(項目56)
前記第1の複数のソースは、第1の複数の位置に対応する、項目44に記載の方法。
(項目57)
前記第2の複数のソースは、第2の複数の位置に対応し、
前記第2の複数の位置のそれぞれは、前記第1の複数の位置のそれぞれより前記聴取者に近い、
項目56に記載の方法。
(項目58)
前記第2の複数のソースは、第2の複数の位置に対応し、
前記第2の複数の位置は、単一平面内に位置しない、
項目44に記載の方法。
(項目59)
前記第3のオーディオデータに基づいて、前記第3の複数のソースに対応する複数のスピーカを通して音を生産することをさらに含む、項目44に記載の方法。
(項目60)
前記第3の複数のソースのそれぞれは、異なる位置に対応し、
前記複数のスピーカのそれぞれは、個別の異なる位置における前記第3の複数のソースの個別のソースに対応する、
項目59に記載の方法。
(項目61)
前記聴取者の検出された頭部姿勢および前記第2の複数のソースの個別の位置/配向に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを前記第3の複数のソースに対応する第3のオーディオデータにレンダリングすることをさらに含む、項目44に記載の方法。
(項目62)
前記第2の複数のソースに対応する第2のオーディオデータを前記第3の複数のソースに対応する第3のオーディオデータにレンダリングすることは、前記聴取者の平行移動より回転に敏感である、項目44に記載の方法。
(項目63)
前記第2の複数のソースに対応する第2のオーディオデータを前記第3の複数のソースに対応する第3のオーディオデータにレンダリングすることは、回転専用オーディオ変換である、項目44に記載の方法。
(項目64)
空間化オーディオをレンダリングする方法であって、
聴取者の第1の頭部姿勢を検出することと、
前記聴取者の検出された第1の頭部姿勢に基づいて、第1の複数のソースに対応する第1のオーディオデータを第2の複数のソースに対応する第2のオーディオデータにレンダリングすることと、
前記聴取者の第2の頭部姿勢を検出することと、
前記聴取者の検出された第2の頭部姿勢に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを第3の複数のソースに対応する第3のオーディオデータにレンダリングすることと
を含み、前記第2の複数のソースは、前記第1の複数のソースより少ないソースから成る、方法。
(項目65)
前記第1の複数のソースは、仮想音源である、項目64に記載の方法。
(項目66)
前記第2の複数のソースは、仮想音源である、項目64に記載の方法。
(項目67)
前記第1のオーディオデータをレンダリングする前に、前記聴取者の第1の頭部姿勢を検出することをさらに含む、項目64に記載の方法。
(項目68)
前記第1のオーディオデータをレンダリングした後かつ前記第2のオーディオデータをレンダリングする前に、前記聴取者の第2の頭部姿勢を検出することをさらに含む、項目64に記載の方法。
(項目69)
前記第2のオーディオデータをレンダリングする直前に、前記聴取者の第2の頭部姿勢を検出することをさらに含む、項目64に記載の方法。
(項目70)
前記第3の複数のソースは、前記第2の複数のソースより少ないソースから成る、項目64に記載の方法。
(項目71)
前記第3の複数のソースは、前記第2の複数のソースと等しい個数のソースから成る、項目64に記載の方法。
(項目72)
前記第1のオーディオデータは、完全オーディオストリームデータセットである、項目64に記載の方法。
(項目73)
前記第2の複数のソースは、8つまたはより少ないソースから成る、項目64に記載の方法。
(項目74)
前記第1の複数のソースのそれぞれは、異なる位置/配向に対応する、項目64に記載の方法。
(項目75)
前記第2の複数のソースのそれぞれは、異なる位置/配向に対応する、項目64に記載の方法。
(項目76)
前記第3の複数のソースのそれぞれは、異なる位置/配向に対応する、項目64に記載の方法。
(項目77)
前記第1の複数のソースは、第1の複数の位置に対応する、項目64に記載の方法。
(項目78)
前記第2の複数のソースは、第2の複数の位置に対応し、
前記第2の複数の位置のそれぞれは、前記第1の複数の位置のそれぞれより前記聴取者に近い、
項目77に記載の方法。
(項目79)
前記第2の複数のソースは、第2の複数の位置に対応し、
前記第2の複数の位置は、単一平面内に位置しない、
項目64に記載の方法。
(項目80)
前記第3のオーディオデータに基づいて、前記第3の複数のソースに対応する複数のスピーカを通して音を生産することをさらに含む、項目64に記載の方法。
(項目81)
前記第3の複数のソースのそれぞれは、異なる位置に対応し、
前記複数のスピーカのそれぞれは、個別の異なる位置における前記第3の複数のソースの個別のソースに対応する、
項目80に記載の方法。
(項目82)
前記聴取者の検出された第2の頭部姿勢および前記第2の複数のソースの個別の位置/配向に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを前記第3の複数のソースに対応する第3のオーディオデータにレンダリングすることをさらに含む、項目64に記載の方法。
(項目83)
前記第2の複数のソースに対応する第2のオーディオデータを前記第3の複数のソースに対応する第3のオーディオデータにレンダリングすることは、前記聴取者の平行移動より回転に敏感である、項目64に記載の方法。
(項目84)
前記第2の複数のソースに対応する第2のオーディオデータを前記第3の複数のソースに対応する第3のオーディオデータにレンダリングすることは、回転専用オーディオ変換である、項目64に記載の方法。
(項目85)
非一過性コンピュータ可読媒体内に具現化されるコンピュータプログラム製品であって、前記コンピュータ可読媒体は、その上に記憶される命令のシーケンスを有し、前記命令のシーケンスは、プロセッサによって実行されると、前記プロセッサに、空間化オーディオをレンダリングするための方法を実行させ、前記方法は、
第1の複数のソースに対応する第1のオーディオデータを第2の複数のソースに対応する第2のオーディオデータにレンダリングすることと、
聴取者の頭部姿勢を検出することと、
前記聴取者の検出された頭部姿勢に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを第3の複数のソースに対応する第3のオーディオデータにレンダリングすることと
を含み、前記第2の複数のソースは、前記第1の複数のソースより少ないソースから成る、
コンピュータプログラム製品。
(項目86)
非一過性コンピュータ可読媒体内に具現化されるコンピュータプログラム製品であって、前記コンピュータ可読媒体は、その上に記憶される命令のシーケンスを有し、前記命令のシーケンスは、プロセッサによって実行されると、前記プロセッサに、空間化オーディオをレンダリングするための方法を実行させ、前記方法は、
聴取者の第1の頭部姿勢を検出することと、
前記聴取者の検出された第1の頭部姿勢に基づいて、第1の複数のソースに対応する第1のオーディオデータを第2の複数のソースに対応する第2のオーディオデータにレンダリングすることと、
前記聴取者の第2の頭部姿勢を検出することと、
前記聴取者の検出された第2の頭部姿勢に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを第3の複数のソースに対応する第3のオーディオデータにレンダリングすることと
を含み、前記第2の複数のソースは、前記第1の複数のソースより少ないソースから成る、
コンピュータプログラム製品。
(項目87)
前記第2の複数のソースのそれぞれは、前記聴取者の頭部から約6インチ〜約12インチに位置する、項目1に記載のシステム。
(項目88)
前記第2の複数のソースのそれぞれは、前記聴取者の頭部から約6インチ〜約12インチに位置する、項目22に記載のシステム。
(項目89)
前記第2の複数のソースのそれぞれは、前記聴取者の頭部から約6インチ〜約12インチに位置する、項目44に記載の方法。
(項目90)
前記第2の複数のソースのそれぞれは、前記聴取者の頭部から約6インチ〜約12インチに位置する、項目64に記載の方法。

Claims (20)

  1. 空間化オーディオシステムであって
    聴取者の最新の頭部姿勢を検出するためのセンサと、
    第1の段階および第2の段階においてオーディオデータをレンダリングするためのプロセッサと
    を備え、
    前記第1の段階は、第1の複数のソースに対応する第1のオーディオデータを第2の複数のソースに対応する第2のオーディオデータにレンダリングすることを含み、前記第1の複数のソースのそれぞれは、第1の複数の位置のうちの1つを有し、前記第2の複数のソースのそれぞれは、第2の複数の位置のうちの1つを有し、
    前記第2の段階は、前記聴取者の前記検出された最新の頭部姿勢に基づいて、前記第2の複数のソースに対応する前記第2のオーディオデータを第3の複数のソースに対応する第3のオーディオデータにレンダリングすることを含み、前記第3の複数のソースのそれぞれは、第3の複数の位置のうちの1つを有し、
    前記第2の複数のソースは、前記第1の複数のソースより少ないソースから成り、
    前記第1のオーディオデータを前記第2のオーディオデータにレンダリングすることは、前記第1のオーディオデータをワーピングすることを含み、
    前記第2のオーディオデータを前記第3のオーディオデータにレンダリングすることは、前記第2のオーディオデータをワーピングすることを含む、システム。
  2. 前記センサは、慣性測定ユニットである、請求項1に記載のシステム。
  3. 前記第1の複数のソースは、仮想音源である、請求項1に記載のシステム。
  4. 前記第2の複数のソースは、仮想音源である、請求項1に記載のシステム。
  5. 前記センサは、前記第1の段階の後かつ前記第2の段階の前に、前記聴取者の前記最新の頭部姿勢を検出する、請求項1に記載のシステム。
  6. 前記センサは、前記第2の段階の直前に、前記聴取者の前記最新の頭部姿勢を検出する、請求項5に記載のシステム。
  7. 前記第3の複数のソースは、前記第2の複数のソースと等しい個数のソースまたは前記第2の複数のソースより少ないソースから成る、請求項1に記載のシステム。
  8. 前記第1のオーディオデータは、完全オーディオストリームデータセットである、請求項1に記載のシステム。
  9. 前記第2の複数のソースは、8つまたはより少ないソースから成る、請求項1に記載のシステム。
  10. 前記第1の複数のソースのそれぞれは、異なる位置/配向に対応する、請求項1に記載のシステム。
  11. 前記第2の複数のソースのそれぞれは、異なる位置/配向に対応する、請求項1に記載のシステム。
  12. 前記第3の複数のソースのそれぞれは、異なる位置/配向に対応する、請求項1に記載のシステム。
  13. 記第2の複数の位置のそれぞれは、前記第1の複数の位置のそれぞれより前記聴取者に近い、請求項に記載のシステム。
  14. 記第2の複数の位置は、単一平面内に位置しない、請求項1記載のシステム。
  15. 前記第3の複数のソースに対応する複数のスピーカをさらに備え、前記複数のスピーカは、前記第3のオーディオデータに基づいて、音を生産する、請求項1に記載のシステム。
  16. 記複数のスピーカのそれぞれは、前記第3の複数の位置のうちの個別位置における前記第3の複数のソースの個別のソースに対応する、請求項15に記載のシステム。
  17. 前記第2の段階は、前記聴取者の前記検出された最新の頭部姿勢および前記第2の複数のソースの個別の位置/配向に基づいて、前記第2の複数のソースに対応する前記第2のオーディオデータを前記第3の複数のソースに対応する前記第3のオーディオデータにレンダリングすることを含む、請求項1に記載のシステム。
  18. 前記第2の段階は、前記聴取者の平行移動より回転に敏感である、請求項1に記載のシステム。
  19. 前記第2の段階は、回転専用オーディオ変換である、請求項1に記載のシステム。
  20. 空間化オーディオシステムであって、
    第1の時間における第1の頭部姿勢および第2の時間における聴取者の第2の頭部姿勢を検出するためのセンサであって、前記第2の時間は、前記第1の時間の後である、センサと、
    第1の段階および第2の段階においてオーディオデータをレンダリングするためのプロセッサと
    を備え、
    前記第1の段階は、前記聴取者の前記検出された第1の頭部姿勢に基づいて、第1の複数のソースに対応する第1のオーディオデータを第2の複数のソースに対応する第2のオーディオデータにレンダリングすることを含み、前記第1の複数のソースのそれぞれは、第1の複数の位置のうちの1つを有し、前記第2の複数のソースのそれぞれは、第2の複数の位置のうちの1つを有し、
    前記第2の段階は、前記聴取者の前記検出された第2の頭部姿勢に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを第3の複数のソースに対応する第3のオーディオデータにレンダリングすることを含み、前記第3の複数のソースのそれぞれは、第3の複数の位置のうちの1つを有し、
    前記第2の複数のソースは、前記第1の複数のソースより少ないソースから成り、
    前記第1のオーディオデータを前記第2のオーディオデータにレンダリングすることは、前記第1のオーディオデータをワーピングすることを含み、
    前記第2のオーディオデータを前記第3のオーディオデータにレンダリングすることは、前記第2のオーディオデータをワーピングすることを含む、システム。
JP2019513952A 2016-09-14 2017-09-13 空間化オーディオを用いた仮想現実、拡張現実、および複合現実システム Active JP6821795B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662394617P 2016-09-14 2016-09-14
US62/394,617 2016-09-14
PCT/US2017/051421 WO2018053047A1 (en) 2016-09-14 2017-09-13 Virtual reality, augmented reality, and mixed reality systems with spatialized audio

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021000727A Division JP7165215B2 (ja) 2016-09-14 2021-01-06 空間化オーディオを用いた仮想現実、拡張現実、および複合現実システム

Publications (3)

Publication Number Publication Date
JP2019532569A JP2019532569A (ja) 2019-11-07
JP2019532569A5 true JP2019532569A5 (ja) 2020-10-22
JP6821795B2 JP6821795B2 (ja) 2021-01-27

Family

ID=61560542

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019513952A Active JP6821795B2 (ja) 2016-09-14 2017-09-13 空間化オーディオを用いた仮想現実、拡張現実、および複合現実システム
JP2021000727A Active JP7165215B2 (ja) 2016-09-14 2021-01-06 空間化オーディオを用いた仮想現実、拡張現実、および複合現実システム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021000727A Active JP7165215B2 (ja) 2016-09-14 2021-01-06 空間化オーディオを用いた仮想現実、拡張現実、および複合現実システム

Country Status (9)

Country Link
US (2) US10448189B2 (ja)
EP (2) EP4254403A3 (ja)
JP (2) JP6821795B2 (ja)
KR (2) KR102230645B1 (ja)
CN (2) CN109691141B (ja)
AU (2) AU2017327387B2 (ja)
CA (1) CA3034916A1 (ja)
IL (1) IL265214B (ja)
WO (1) WO2018053047A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102230645B1 (ko) * 2016-09-14 2021-03-19 매직 립, 인코포레이티드 공간화 오디오를 갖는 가상 현실, 증강 현실 및 혼합 현실 시스템들
US10667072B2 (en) 2018-06-12 2020-05-26 Magic Leap, Inc. Efficient rendering of virtual soundfields
WO2019246159A1 (en) * 2018-06-18 2019-12-26 Magic Leap, Inc. Spatial audio for interactive audio environments
US10484811B1 (en) * 2018-09-10 2019-11-19 Verizon Patent And Licensing Inc. Methods and systems for providing a composite audio stream for an extended reality world
CN114026527A (zh) * 2019-10-22 2022-02-08 谷歌有限责任公司 可穿戴装置的空间音频
US10911885B1 (en) 2020-02-03 2021-02-02 Microsoft Technology Licensing, Llc Augmented reality virtual audio source enhancement
US11089427B1 (en) 2020-03-31 2021-08-10 Snap Inc. Immersive augmented reality experiences using spatial audio
US11381797B2 (en) 2020-07-16 2022-07-05 Apple Inc. Variable audio for audio-visual content
EP4256391A1 (en) 2020-12-07 2023-10-11 Snap Inc. Augmented reality spatial audio experience
US20220319014A1 (en) * 2021-04-05 2022-10-06 Facebook Technologies, Llc Systems and methods for dynamic image processing and segmentation

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5749073A (en) * 1996-03-15 1998-05-05 Interval Research Corporation System for automatically morphing audio information
AU735333B2 (en) * 1997-06-17 2001-07-05 British Telecommunications Public Limited Company Reproduction of spatialised audio
US6182042B1 (en) * 1998-07-07 2001-01-30 Creative Technology Ltd. Sound modification employing spectral warping techniques
US6487526B1 (en) * 1999-04-14 2002-11-26 Rockwell Collins Vector correlator for speech VOCODER using optical processor
US7340062B2 (en) 2000-03-14 2008-03-04 Revit Lawrence J Sound reproduction method and apparatus for assessing real-world performance of hearing and hearing aids
JP2001359197A (ja) * 2000-06-13 2001-12-26 Victor Co Of Japan Ltd 音像定位信号の生成方法、及び音像定位信号生成装置
US8140859B1 (en) * 2000-07-21 2012-03-20 The Directv Group, Inc. Secure storage and replay of media programs using a hard-paired receiver and storage device
FR2814891B1 (fr) * 2000-10-04 2003-04-04 Thomson Multimedia Sa Procede de reglages de niveau audio provenant de plusieurs canaux et dispositif de reglage
US7472058B2 (en) 2004-12-28 2008-12-30 Cyberlink Corp. Automatic audio source detection for capture devices
US7680465B2 (en) * 2006-07-31 2010-03-16 Broadcom Corporation Sound enhancement for audio devices based on user-specific audio processing parameters
US20080196575A1 (en) * 2007-02-16 2008-08-21 Recordare Llc Process for creating and viewing digital sheet music on a media device
US8406439B1 (en) * 2007-04-04 2013-03-26 At&T Intellectual Property I, L.P. Methods and systems for synthetic audio placement
US8620009B2 (en) 2008-06-17 2013-12-31 Microsoft Corporation Virtual sound source positioning
ATE539433T1 (de) * 2008-07-11 2012-01-15 Fraunhofer Ges Forschung Bereitstellen eines zeitverzerrungsaktivierungssignals und codierung eines audiosignals damit
US9037468B2 (en) * 2008-10-27 2015-05-19 Sony Computer Entertainment Inc. Sound localization for user in motion
JP2010273175A (ja) * 2009-05-22 2010-12-02 Panasonic Corp 音声出力装置
US20100328419A1 (en) 2009-06-30 2010-12-30 Walter Etter Method and apparatus for improved matching of auditory space to visual space in video viewing applications
US8767968B2 (en) 2010-10-13 2014-07-01 Microsoft Corporation System and method for high-precision 3-dimensional audio for augmented reality
EP2541547A1 (en) * 2011-06-30 2013-01-02 Thomson Licensing Method and apparatus for changing the relative positions of sound objects contained within a higher-order ambisonics representation
JP5505395B2 (ja) * 2011-10-28 2014-05-28 ヤマハ株式会社 音響処理装置
EP2810453B1 (en) 2012-01-17 2018-03-14 Koninklijke Philips N.V. Audio source position estimation
US9271103B2 (en) * 2012-03-29 2016-02-23 Intel Corporation Audio control based on orientation
US20150131824A1 (en) * 2012-04-02 2015-05-14 Sonicemotion Ag Method for high quality efficient 3d sound reproduction
GB201211512D0 (en) * 2012-06-28 2012-08-08 Provost Fellows Foundation Scholars And The Other Members Of Board Of The Method and apparatus for generating an audio output comprising spartial information
WO2014036085A1 (en) * 2012-08-31 2014-03-06 Dolby Laboratories Licensing Corporation Reflected sound rendering for object-based audio
US9549253B2 (en) * 2012-09-26 2017-01-17 Foundation for Research and Technology—Hellas (FORTH) Institute of Computer Science (ICS) Sound source localization and isolation apparatuses, methods and systems
US20140140417A1 (en) * 2012-11-16 2014-05-22 Gary K. Shaffer System and method for providing alignment of multiple transcoders for adaptive bitrate streaming in a network environment
US9124966B2 (en) * 2012-11-28 2015-09-01 Qualcomm Incorporated Image generation for collaborative sound systems
JP5983421B2 (ja) 2013-01-21 2016-08-31 富士通株式会社 音声処理装置、音声処理方法および音声処理プログラム
US9258647B2 (en) * 2013-02-27 2016-02-09 Hewlett-Packard Development Company, L.P. Obtaining a spatial audio signal based on microphone distances and time delays
TWI673707B (zh) * 2013-07-19 2019-10-01 瑞典商杜比國際公司 將以L<sub>1</sub>個頻道為基礎之輸入聲音訊號產生至L<sub>2</sub>個揚聲器頻道之方法及裝置,以及得到一能量保留混音矩陣之方法及裝置,用以將以輸入頻道為基礎之聲音訊號混音以用於L<sub>1</sub>個聲音頻道至L<sub>2</sub>個揚聲器頻道
US9807538B2 (en) 2013-10-07 2017-10-31 Dolby Laboratories Licensing Corporation Spatial audio processing system and method
KR102493498B1 (ko) 2013-11-27 2023-01-27 매직 립, 인코포레이티드 가상 및 증강 현실 시스템들 및 방법들
US9285872B1 (en) 2013-12-12 2016-03-15 Google Inc. Using head gesture and eye position to wake a head mounted device
JP6303519B2 (ja) * 2014-01-15 2018-04-04 富士通株式会社 音響再生装置および音場補正プログラム
US9729984B2 (en) 2014-01-18 2017-08-08 Microsoft Technology Licensing, Llc Dynamic calibration of an audio system
US9560445B2 (en) * 2014-01-18 2017-01-31 Microsoft Technology Licensing, Llc Enhanced spatial impression for home audio
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
WO2015161307A1 (en) * 2014-04-18 2015-10-22 Magic Leap, Inc. Systems and methods for augmented and virtual reality
CN104284291B (zh) 2014-08-07 2016-10-05 华南理工大学 5.1通路环绕声的耳机动态虚拟重放方法及其实现装置
CN106134223B (zh) 2014-11-13 2019-04-12 华为技术有限公司 重现双耳信号的音频信号处理设备和方法
US9602947B2 (en) * 2015-01-30 2017-03-21 Gaudi Audio Lab, Inc. Apparatus and a method for processing audio signal to perform binaural rendering
US10979843B2 (en) 2016-04-08 2021-04-13 Qualcomm Incorporated Spatialized audio output based on predicted position data
KR102230645B1 (ko) 2016-09-14 2021-03-19 매직 립, 인코포레이티드 공간화 오디오를 갖는 가상 현실, 증강 현실 및 혼합 현실 시스템들

Similar Documents

Publication Publication Date Title
JP2019532569A5 (ja)
JP2017527223A5 (ja)
US10585486B2 (en) Gesture interactive wearable spatial audio system
WO2017098949A1 (ja) 音声処理装置および方法、並びにプログラム
JP2020508440A5 (ja)
US10095306B2 (en) Passive magnetic head tracker
EP4254403A3 (en) Virtual reality, augmented reality, and mixed reality systems with spatialized audio
RU2016116990A (ru) Устройство обработки информации, способ обработки информации и программа
WO2014187877A3 (de) Mischpult, tonsignalerzeuger, verfahren und computerprogramm zum bereitstellen eines tonsignals
BR112017009280A2 (pt) modificação de apresentação de mídia usando marcação de segmento de áudio
RU2013130226A (ru) Устройство и способ основанного на геометрии кодирования пространственного звука
PH12018502740A1 (en) Providing audio signals in a virtual environment
JP2009524475A5 (ja)
JP2015508487A5 (ja)
EP3622730B1 (en) Spatializing audio data based on analysis of incoming audio data
JP2009116690A5 (ja)
JP2015141664A5 (ja)
JP2014170483A5 (ja)
RU2018131347A (ru) Способ и устройство обработки звука и программа
JP2011071686A (ja) 映像音響処理装置、映像音響処理方法及びプログラム
JP2018074439A5 (ja)
JP2016181047A5 (ja)
JP2015165306A5 (ja)
JP2014532908A5 (ja)
JP2018032383A5 (ja)