JP6961007B2 - 複合現実デバイスにおける仮想および実オブジェクトの記録 - Google Patents

複合現実デバイスにおける仮想および実オブジェクトの記録 Download PDF

Info

Publication number
JP6961007B2
JP6961007B2 JP2019546368A JP2019546368A JP6961007B2 JP 6961007 B2 JP6961007 B2 JP 6961007B2 JP 2019546368 A JP2019546368 A JP 2019546368A JP 2019546368 A JP2019546368 A JP 2019546368A JP 6961007 B2 JP6961007 B2 JP 6961007B2
Authority
JP
Japan
Prior art keywords
audio
virtual
generation system
data
image generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019546368A
Other languages
English (en)
Other versions
JP2020509492A (ja
JP2020509492A5 (ja
Inventor
ジチャン フアン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2020509492A publication Critical patent/JP2020509492A/ja
Publication of JP2020509492A5 publication Critical patent/JP2020509492A5/ja
Priority to JP2021167529A priority Critical patent/JP7275227B2/ja
Application granted granted Critical
Publication of JP6961007B2 publication Critical patent/JP6961007B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/424Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving acoustic input signals, e.g. by using the results of pitch or rhythm extraction or voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5372Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for tagging characters, objects or locations in the game scene, e.g. displaying a circle under the character controlled by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1058Manufacture or assembly
    • H04R1/1075Mountings of transducers in earphones or headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/403Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers loud-speakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field

Description

本発明は、概して、仮想現実および拡張現実システムに関する。
現代のコンピューティングおよびディスプレイ技術は、いわゆる「仮想現実」または「拡張現実」体験のための複合現実システムの開発を促進しており、デジタル的に再現された画像またはその一部が、現実であるように見える、またはそのように知覚され得る様式でユーザに提示される。仮想現実または「VR」シナリオは、典型的には、他の実際の実世界の視覚的入力に対する透過性を伴わずに、デジタルまたは仮想画像情報の提示を伴う。拡張現実または「AR」シナリオは、典型的には、ユーザの周囲の実際の世界の可視化に対する拡張としてのデジタルまたは仮想画像情報の提示を伴う(すなわち、他の実際の実世界視覚的入力に対して透過性である)。故に、ARシナリオは、他の実際の実世界視覚的入力に対する透過性を伴って、デジタルまたは仮想画像情報の提示を伴う。
例えば、図1を参照すると、拡張現実場面4が、描写されており、AR技術のユーザには、人々、木々、背景における建物、およびコンクリートプラットフォーム8を特徴とする、実世界公園状設定6が見える。これらのアイテムに加え、AR技術のエンドユーザはまた、実世界プラットフォーム8上に立っているロボット像10、およびマルハナバチの擬人化のように見える、飛んでいる漫画のようなアバタキャラクタ12を「見ている」と知覚するが、これらの要素10、12は、実世界には存在しない。結論から述べると、ヒトの視知覚系は、非常に複雑であって、他の仮想または実世界画像要素間における仮想画像要素の快適で、自然のような感覚で、かつ豊かな提示を促進する、VRまたはAR技術の生産は、困難である。
VRおよびARシステムは、典型的には、少なくともユーザの頭部に緩く結合され、したがって、エンドユーザの頭部が移動すると移動する、頭部装着型ディスプレイ(またはヘルメット搭載型ディスプレイ、またはスマートグラス)を採用する。エンドユーザの頭部運動が、ディスプレイシステムによって検出される場合、表示されているデータは、頭部姿勢(すなわち、ユーザの頭部の配向および/または場所)の変化を考慮するように更新されることができる。AR(すなわち、仮想および実オブジェクトの同時視認)を有効にする、頭部装着型ディスプレイは、いくつかの異なるタイプの構成を有することができる。多くの場合、「ビデオシースルー」ディスプレイと称される、1つのそのような構成では、カメラが、実場面の要素を捕捉し、コンピューティングシステムが、仮想要素を捕捉された実場面上に重畳し、不透明ディスプレイが、合成画像を眼に提示する。別の構成は、多くの場合、「光学シースルー」ディスプレイと称され、エンドユーザには、ディスプレイシステム内の透明(または半透明)要素を通して、環境内の実オブジェクトからの光が透けて見え、それを直接視認することができる。多くの場合、「コンバイナ」と称される、透明要素は、ディスプレイからの光を実世界のエンドユーザのビューにわたって重畳する。
多くの場合、VR/ARシステムのユーザは、後にオンラインで公開するために、体験をVR/ARシステム上に記録および保存することによって、その体験を他者と共有することを所望し得る(例えば、ゲームをプレーする、テレビ会議を行う、または映画を鑑賞するとき)。しかしながら、典型的には、雑音環境に起因して、雑音および他の望ましくないまたは予期しない音が記録内に存在し得る、またはそれ以外の体験に対して注意が逸らされる、非常に多くの音源が存在し得る。そのような望ましくない/予期しない音は、実オブジェクトから、例えば、VR/ARシステムの近傍で遊んでいる子供から、または仮想オブジェクトから、例えば、VR/ARシステムのコンテキストにおいて再生中の仮想テレビから生じ得る。
したがって、ユーザが関心がある仮想または実オブジェクトのみからの音を記録するための単純および効率的手段を提供する必要が残ったままである。
本発明の第1の側面によると、エンドユーザによる使用のための仮想画像生成システムは、メモリと、ディスプレイサブシステムと、入力をエンドユーザから受信し、エンドユーザ入力に応答して、少なくとも1つのオブジェクト(例えば、実オブジェクトおよび/または仮想オブジェクト)を持続的に選択するために構成される、オブジェクト選択デバイスとを備える。一実施形態では、ディスプレイサブシステムは、視野を有し、オブジェクト選択デバイスは、視野内のオブジェクトを持続的に選択するために構成される。この場合、オブジェクト選択デバイスは、エンドユーザ入力の受信に応答して、3次元カーソルをディスプレイサブシステムの視野内で移動させ、オブジェクトを選択するために構成されてもよい。別の実施形態では、エンドユーザ入力は、1つ以上の音声コマンドを備え、オブジェクト選択デバイスは、音声コマンドを感知するために構成される、1つ以上のマイクロホンを備える。さらに別の実施形態では、エンドユーザ入力は、1つ以上の手のジェスチャを備え、その場合、オブジェクト選択デバイスは、手のジェスチャを感知するために構成される、1つ以上のカメラを備えてもよい。
複数のオブジェクトが選択される場合、オブジェクト選択デバイスは、エンドユーザ入力に応答して、オブジェクトを個々に選択および/または大域的に選択するために構成されてもよい。大域的に選択される場合、オブジェクト選択デバイスは、エンドユーザ入力に応答して、視野の角度範囲(視野の角度範囲全体未満であってもよい、または視野の角度範囲全体であってもよい)内の全てのオブジェクトを大域的に選択するために構成されてもよい。一実施形態では、オブジェクト選択デバイスはさらに、他のエンドユーザ入力に応答して、別の入力をエンドユーザから受信し、以前に選択されたオブジェクトを持続的に選択解除するために構成される。
仮想画像生成システムはさらに、少なくとも1つの選択されたオブジェクトから生じるビデオデータを生成し、複数の画像フレームをビデオデータからの3次元場面内にレンダリングし、画像フレームをディスプレイサブシステムに伝達するために構成される、制御サブシステムを備える。一実施形態では、ディスプレイサブシステムは、エンドユーザの眼の正面に位置付けられるために構成される。別の実施形態では、ディスプレイサブシステムは、投影サブシステムおよび部分的に透明なディスプレイ表面を含む。この場合、投影サブシステムは、画像フレームを部分的に透明なディスプレイ表面上に投影させるために構成されてもよく、部分的に透明なディスプレイ表面は、エンドユーザの眼と周囲環境との間の視野内に位置付けられるために構成されてもよい。仮想画像生成システムはさらに、エンドユーザによって装着されるために構成され、ディスプレイサブシステムの少なくとも一部を担持する、フレーム構造を備えてもよい。
制御サブシステムはさらに、選択されたオブジェクトから生じるオーディオデータを生成することと、オーディオデータをメモリ内に記憶することとのために構成される。仮想画像生成システムはさらに、複数のスピーカを備えてもよく、その場合、制御サブシステムはさらに、生成されたオーディオデータをスピーカに伝達するために構成されてもよい。随意の実施形態では、制御サブシステムはさらに、オーディオデータと同期するビデオデータをメモリ内に記憶するために構成される。さらに別の実施形態では、仮想画像生成システムはさらに、ディスプレイサブシステムの視野に対する選択されたオブジェクトの場所を追跡するために構成される、少なくとも1つのセンサを備える。この場合、制御サブシステムは、選択されたオブジェクトの追跡された場所がディスプレイサブシステムの視野外に移動すると、オーディオデータをメモリ内に記憶することを中止するために構成される、または代替として、選択されたオブジェクトの追跡された場所がディスプレイサブシステムの視野外に移動すると、オーディオデータをメモリ内に記憶することを継続するために構成されてもよい。
選択されたオブジェクトが、実オブジェクトを含む場合、仮想画像生成システムはさらに、オーディオ出力を生成するために構成される、マイクロホンアセンブリを備えてもよく、その場合、制御サブシステムはさらに、オーディオ出力の方向を修正し、選択された実オブジェクトから生じる音を優先的に感知するために構成されてもよい。オーディオデータは、修正されたオーディオ出力から導出されてもよい。仮想画像生成システムはさらに、選択された実オブジェクトから生じるビデオデータを捕捉するために構成される、1つ以上のカメラを備えてもよく、その場合、制御サブシステムはさらに、オーディオデータと同期するビデオデータをメモリ内に記憶するために構成されてもよい。制御サブシステムは、捕捉されたビデオデータを選択された実オブジェクトのための仮想コンテンツデータに変換し、仮想コンテンツをメモリ内に記憶するために構成されてもよい。
選択されたオブジェクトが、仮想オブジェクトを含む場合、仮想画像生成システムはさらに、複数の仮想オブジェクトのための音に対応するコンテンツデータを記憶するために構成される、データベースを備えてもよく、その場合、制御サブシステムはさらに、選択された仮想オブジェクトに対応するコンテンツデータをデータベースから入手するために構成されてもよく、メモリ内に記憶されるオーディオデータは、入手されたコンテンツデータを含む。制御サブシステムはさらに、選択された仮想オブジェクトに対応するメタデータ(例えば、選択された仮想オブジェクトのための位置、配向、および音量データ)を生成するために構成されてもよく、その場合、メモリ内に記憶されるオーディオデータは、入手されたコンテンツデータおよび生成されたメタデータを含んでもよい。一実施形態では、仮想画像生成システムはさらに、エンドユーザの頭部姿勢を追跡するために構成される、1つ以上のセンサを備え、その場合、データベースは、複数の仮想オブジェクトのための絶対メタデータを記憶するために構成されてもよく、制御サブシステムはさらに、選択された仮想オブジェクトに対応する絶対メタデータを入手し、エンドユーザの追跡された頭部姿勢に基づいて、絶対メタデータをエンドユーザに対して局所化することによって、メタデータを生成するために構成されてもよい。
仮想画像生成システムはさらに、少なくとも1つのスピーカを備えてもよく、その場合、制御サブシステムはさらに、記憶されたオーディオデータをメモリから読み出し、オーディオを読み出されたオーディオデータから導出し、オーディオをスピーカに伝達するために構成されてもよい。メモリ内に記憶されるオーディオデータは、コンテンツデータおよびメタデータを含んでもよく、その場合、制御サブシステムはさらに、記憶されたコンテンツデータおよびメタデータをメモリから読み出し、読み出されたコンテンツデータおよびメタデータに基づいて、空間化オーディオをレンダリングし、レンダリングされた空間化オーディオをスピーカに伝達するために構成されてもよい。
本発明の第2の側面によると、エンドユーザによって仮想画像生成システムを動作させる方法が、提供される。本方法は、少なくとも1つのオブジェクト(例えば、実オブジェクトおよび/または仮想オブジェクト)を持続的に選択するステップを含む。1つの方法では、オブジェクトを選択するステップは、3次元カーソルをエンドユーザの視野内で移動させ、3次元カーソルを用いてオブジェクトを選択するステップを含む。別の方法では、オブジェクトを選択するステップは、1つ以上の音声コマンドを発行するステップを含む。さらに別の方法では、少なくとも1つのオブジェクトを選択するステップは、1つ以上の手のジェスチャを行うステップを含む。複数のオブジェクトが、選択される場合、複数のオブジェクトを選択するステップは、オブジェクトを個々に選択するステップおよび/またはオブジェクトを大域的に選択するステップを含んでもよい。大域的に選択される場合、オブジェクトは、エンドユーザの視野の角度範囲を定義し(視野の角度範囲全体未満であってもよい、または視野の角度範囲全体であってもよい)、エンドユーザの視野の定義された角度範囲内のオブジェクトの全てを選択することによって、選択されてもよい。随意の方法はさらに、以前に選択されたオブジェクトを持続的に選択解除するステップを含んでもよい。
本方法はさらに、選択されたオブジェクトから生じるビデオデータを生成するステップと、複数の画像フレームを生成されたビデオデータからの3次元場面内にレンダリングするステップと、画像フレームをエンドユーザに表示するステップと、少なくとも1つの選択されたオブジェクトから生じるオーディオデータを生成するステップと、少なくとも1つの選択されたオブジェクトから生じるオーディオデータをメモリ内に記憶するステップとを含む。1つの方法はさらに、選択されたオブジェクトから生じるオーディオデータをエンドユーザによる知覚のための音に変換するステップを含んでもよい。本方法は、随意に、オーディオデータと同期するビデオデータをメモリ内に記憶するステップを含んでもよい。さらに別の方法はさらに、エンドユーザの視野に対する選択されたオブジェクトの場所を追跡するステップを含んでもよい。この場合、本方法はさらに、選択されたオブジェクトの追跡された場所がエンドユーザの視野外に移動すると、オーディオデータをメモリ内に記憶することを中止するステップ、または代替として、選択されたオブジェクトの追跡された場所がエンドユーザの視野外に移動すると、オーディオデータをメモリ内に記憶することを継続するステップを含んでもよい。
選択されたオブジェクトが、実オブジェクトを含む場合、本方法はさらに、他の実オブジェクトから生じる音と比較して、選択された実オブジェクトから生じる音を優先的に感知するステップを含んでもよく、その場合、オーディオデータは、優先的に感知される音から導出されてもよい。本方法はさらに、選択された実オブジェクトから生じるビデオデータを捕捉し、オーディオデータと同期するビデオデータをメモリ内に記憶するステップを含んでもよい。捕捉されたビデオデータは、メモリ内への記憶のために、仮想コンテンツデータに変換されてもよい。
選択されたオブジェクトが、仮想オブジェクトを含む場合、本方法はさらに、複数の仮想オブジェクトのための音に対応するコンテンツデータを記憶し、選択された仮想オブジェクトに対応するコンテンツデータを入手するステップを含んでもよく、その場合、メモリ内に記憶されるオーディオデータは、入手されたコンテンツデータを含んでもよい。本方法はさらに、選択された仮想オブジェクトに対応するメタデータ(例えば、選択された仮想オブジェクトのための位置、配向、および音量データ)を生成するステップを含んでもよく、その場合、メモリ内に記憶されるオーディオデータは、入手されたコンテンツデータおよび生成されたメタデータを含んでもよい。本方法はさらに、エンドユーザの頭部姿勢を追跡するステップと、複数の仮想オブジェクトのための絶対メタデータを記憶するステップとを含んでもよい。この場合、メタデータを生成するステップは、選択された仮想オブジェクトに対応する絶対メタデータを読み出し、エンドユーザの追跡された頭部姿勢に基づいて、絶対メタデータをエンドユーザに対して局所化するステップを含んでもよい。
本方法はさらに、記憶されたオーディオデータを読み出すステップと、オーディオを読み出されたオーディオデータから導出するステップと、オーディオをエンドユーザによる知覚のための音に変換するステップとを含んでもよい。記憶されたオーディオデータは、コンテンツデータおよびメタデータを含んでもよく、その場合、本方法はさらに、記憶されたコンテンツデータおよびメタデータをメモリから読み出すステップと、読み出されたコンテンツデータおよびメタデータに基づいて、空間化オーディオをレンダリングするステップと、空間化オーディオをエンドユーザによる知覚のための音に変換するステップとを含んでもよい。
本発明の第3の側面によると、再生ユーザによる使用のための仮想画像生成システムが、提供される。仮想画像生成システムは、オリジナル空間環境内の少なくとも1つのオブジェクト(例えば、実オブジェクトおよび/または仮想オブジェクト)から生じるオーディオコンテンツデータおよびビデオコンテンツデータを記憶するために構成される、メモリと、複数のスピーカと、ディスプレイサブシステムとを備える。一実施形態では、ディスプレイサブシステムは、エンドユーザの眼の正面に位置付けられるために構成される。別の実施形態では、ディスプレイサブシステムは、投影サブシステムおよび部分的に透明なディスプレイ表面を含む。この場合、投影サブシステムは、画像フレームを部分的に透明なディスプレイ表面上に投影させるために構成されてもよく、部分的に透明なディスプレイ表面は、エンドユーザの眼と周囲環境との間の視野内に位置付けられるために構成されてもよい。仮想画像生成システムはさらに、エンドユーザによって装着されるために構成され、ディスプレイサブシステムの少なくとも一部を担持する、フレーム構造を備えてもよい。
仮想画像生成システムはさらに、オーディオコンテンツデータおよびビデオコンテンツデータをメモリから読み出し、読み出されたオーディオコンテンツデータおよびビデオコンテンツデータからそれぞれオーディオおよびビデオをオリジナル空間環境と異なる新しい空間環境内にレンダリングし、レンダリングされたオーディオをスピーカに、生成されたビデオデータをディスプレイサブシステムに同期して伝達するために構成される、制御サブシステムを備える。
一実施形態では、制御サブシステムは、オーディオコンテンツデータおよびビデオコンテンツデータをメモリ内に記憶するために構成される。仮想画像生成システムはさらに、入力をエンドユーザから受信し、メモリ内へのオーディオコンテンツデータおよびビデオコンテンツデータの記憶に先立って、エンドユーザ入力に応答して、オリジナル空間環境内のオブジェクトを持続的に選択するために構成される、オブジェクト選択デバイスを備えてもよい。
オブジェクトが、実オブジェクトを含む場合、仮想画像生成システムはさらに、オーディオコンテンツデータをオリジナル空間環境内の実オブジェクトから捕捉するために構成される、マイクロホンアセンブリを備えてもよい。マイクロホンアセンブリは、オーディオ出力を生成するために構成されてもよく、その場合、制御サブシステムはさらに、オーディオ出力の方向を修正し、選択された実オブジェクトから生じる音を優先的に感知するために構成されてもよい。オーディオコンテンツデータは、修正されたオーディオ出力から導出されてもよい。仮想画像生成システムはさらに、ビデオデータをオリジナル空間環境内の選択された実オブジェクトから捕捉するために構成される、1つ以上のカメラを備えてもよい。随意の実施形態では、制御サブシステムは、捕捉されたビデオデータを選択された実オブジェクトのための仮想コンテンツデータに変換し、仮想コンテンツデータをビデオコンテンツデータとしてメモリ内に記憶するために構成されてもよい。
オブジェクトが、仮想オブジェクトを含む場合、仮想画像生成システムはさらに、複数の仮想オブジェクトのための音に対応するコンテンツデータを記憶するために構成される、データベースを備えてもよく、その場合、制御サブシステムはさらに、仮想オブジェクトに対応するコンテンツデータをデータベースから入手するために構成されてもよく、メモリ内に記憶されるオーディオデータは、入手されたコンテンツデータを含んでもよい。
一実施形態では、制御サブシステムは、新しい空間環境内の少なくとも1つのオブジェクトに対応する絶対メタデータを入手し、読み出されたオーディオコンテンツデータおよび絶対メタデータからのオーディオを新しい空間環境内にレンダリングするために構成される。新しい空間環境内のオブジェクトに対応する絶対メタデータを入手することは、オブジェクトを新しい空間環境内に位置付けることを含んでもよい。この場合、仮想画像生成システムはさらに、入力を再生ユーザから受信するために構成される、ユーザ入力デバイスを備えてもよく、その場合、制御サブシステムは、再生ユーザからの入力に応答して、オブジェクトを新しい空間環境内に位置付けるために構成されてもよい。仮想画像生成システムはさらに、再生ユーザの頭部姿勢を追跡するために構成される、1つ以上のセンサを備えてもよく、その場合、制御サブシステムはさらに、レンダリングされたオーディオが空間化されるように、再生ユーザの追跡された頭部姿勢に基づいて、絶対メタデータを再生ユーザに対して局所化するために構成されてもよい。
本発明の第4の側面によると、オリジナル空間環境内でオーディオコンテンツデータおよびビデオコンテンツデータとして以前に記録された少なくとも1つのオブジェクト(例えば、実オブジェクトおよび/または仮想オブジェクト)のオーディオおよびビデオを再生するために、再生ユーザによって仮想画像生成システムを動作させる方法が、提供される。本方法は、オーディオコンテンツデータおよびビデオコンテンツデータをメモリから読み出すステップを含む。1つの方法はさらに、オーディオコンテンツデータおよびビデオコンテンツデータをメモリ内に記憶するステップを含む。この場合、本方法はさらに、メモリ内へのオーディオコンテンツデータおよびビデオコンテンツデータの記憶に先立って、オリジナル空間環境内のオブジェクトを持続的に選択するステップを含んでもよい。
オブジェクトが、実オブジェクトを含む場合、本方法はさらに、オーディオコンテンツデータを実オブジェクトから捕捉するステップを含んでもよい。この場合、本方法はさらに、他の実オブジェクトから生じる音と比較して、選択された実オブジェクトから生じる音を優先的に感知するステップを含んでもよい。オーディオコンテンツデータは、優先的に感知される音から導出される。本方法はさらに、ビデオデータを選択された実オブジェクトから捕捉するステップと、捕捉されたビデオデータを仮想コンテンツデータに変換するステップとを含んでもよい。オブジェクトが、仮想オブジェクトを含む場合、本方法はさらに、複数の仮想オブジェクトのための音に対応するコンテンツデータを記憶するステップと、仮想オブジェクトに対応するコンテンツデータをデータベースから入手するステップとを含んでもよい。メモリ内に記憶されるオーディオコンテンツデータは、入手されたコンテンツデータを含んでもよい。
本方法はさらに、読み出されたオーディオコンテンツデータおよびビデオコンテンツデータからそれぞれオーディオおよびビデオをオリジナル空間環境と異なる新しい空間環境内にレンダリングし、オーディオおよびビデオをそれぞれ音および画像フレームに変換するステップと、音および画像フレームを再生ユーザに同期して伝達するステップとを含む。1つの方法はさらに、新しい空間環境内のオブジェクトに対応する絶対メタデータを入手するステップを含み、その場合、オーディオは、読み出されたオーディオコンテンツデータおよび絶対メタデータから新しい空間環境内にレンダリングされる。本方法はさらに、再生ユーザの頭部姿勢を追跡するステップと、再生ユーザの追跡された頭部姿勢に基づいて、絶対メタデータを再生ユーザに対して局所化するステップとを含んでもよく、その場合、オーディオは、レンダリングされたオーディオが空間化されるように、読み出されたオーディオコンテンツデータおよび局所的メタデータから新しい空間環境内にレンダリングされてもよい。新しい空間環境内のオブジェクトに対応する絶対メタデータを入手するステップは、例えば、再生ユーザからの入力に応答して、オブジェクトを新しい空間環境内に位置付けるステップを含んでもよい。
本発明の付加的および他の目的、特徴、および利点は、詳細な説明、図、および請求項に説明される。
本発明は、例えば、以下を提供する。
(項目1)
エンドユーザによる使用のための仮想画像生成システムであって、
メモリと、
ディスプレイサブシステムと、
オブジェクト選択デバイスであって、前記オブジェクト選択デバイスは、入力を前記エンドユーザから受信し、エンドユーザ入力に応答して、少なくとも1つのオブジェクトを持続的に選択するために構成される、オブジェクト選択デバイスと、
制御サブシステムであって、前記制御サブシステムは、少なくとも1つの選択されたオブジェクトから生じるビデオデータを生成し、複数の画像フレームを前記ビデオデータからの3次元場面内にレンダリングし、前記画像フレームを前記ディスプレイサブシステムに伝達し、前記少なくとも1つの選択されたオブジェクトから生じるオーディオデータを生成することと、前記オーディオデータを前記メモリ内に記憶することとのために構成される、制御サブシステムと
を備える、仮想画像生成システム。
(項目2)
前記制御サブシステムはさらに、前記オーディオデータと同期する前記ビデオデータを前記メモリ内に記憶するために構成される、項目1に記載の仮想画像生成システム。
(項目3)
複数のスピーカをさらに備え、前記制御サブシステムはさらに、前記生成されたオーディオデータを前記スピーカに伝達するために構成される、項目1に記載の仮想画像生成システム。
(項目4)
前記ディスプレイサブシステムは、視野を有し、前記オブジェクト選択デバイスは、前記視野内の前記少なくとも1つのオブジェクトを持続的に選択するために構成される、項目1に記載の仮想画像生成システム。
(項目5)
前記オブジェクト選択デバイスは、3次元カーソルを前記ディスプレイサブシステムの視野内で移動させ、前記エンドユーザ入力の受信に応答して、前記少なくとも1つのオブジェクトを選択するために構成される、項目4に記載の仮想画像生成システム。
(項目6)
前記エンドユーザ入力は、1つ以上の音声コマンドを含み、前記オブジェクト選択デバイスは、前記1つ以上の音声コマンドを感知するために構成される1つ以上のマイクロホンを備える、項目1に記載の仮想画像生成システム。
(項目7)
前記エンドユーザ入力は、1つ以上の手のジェスチャを含み、前記オブジェクト選択デバイスは、前記1つ以上の手のジェスチャを感知するために構成される1つ以上のカメラを備える、項目1に記載の仮想画像生成システム。
(項目8)
前記少なくとも1つのオブジェクトは、複数のオブジェクトを含み、前記オブジェクト選択デバイスは、前記エンドユーザ入力に応答して、前記オブジェクトを個々に選択するために構成される、項目1に記載の仮想画像生成システム。
(項目9)
前記少なくとも1つのオブジェクトは、複数のオブジェクトを含み、前記オブジェクト選択デバイスは、前記エンドユーザ入力に応答して、前記オブジェクトを大域的に選択するために構成される、項目1に記載の仮想画像生成システム。
(項目10)
前記オブジェクト選択デバイスは、前記エンドユーザ入力に応答して、前記視野の角度範囲内の全てのオブジェクトを大域的に選択するために構成される、項目9に記載の仮想画像生成システム。
(項目11)
前記角度範囲は、前記視野の角度範囲全体未満である、項目10に記載の仮想画像生成システム。
(項目12)
前記角度範囲は、前記視野の角度範囲全体である、項目10に記載の仮想画像生成システム。
(項目13)
前記オブジェクト選択デバイスはさらに、別の入力を前記エンドユーザから受信し、他のエンドユーザ入力に応答して、少なくとも1つの以前に選択されたオブジェクトを持続的に選択解除するために構成される、項目1に記載の仮想画像生成システム。
(項目14)
前記ディスプレイサブシステムの視野に対する前記少なくとも1つの選択されたオブジェクトの場所を追跡するために構成される少なくとも1つのセンサをさらに備える、項目1に記載の仮想画像生成システム。
(項目15)
前記制御サブシステムは、前記少なくとも1つの選択されたオブジェクトの追跡された場所が前記ディスプレイサブシステムの視野外に移動すると、前記オーディオデータを前記メモリ内に記憶することを中止するために構成される、項目14に記載の仮想画像生成システム。
(項目16)
前記制御サブシステムは、前記少なくとも1つの選択されたオブジェクトの追跡された場所が前記ディスプレイサブシステムの視野外に移動すると、前記オーディオデータを前記メモリ内に記憶することを継続するために構成される、項目14に記載の仮想画像生成システム。
(項目17)
前記少なくとも1つの選択されたオブジェクトは、実オブジェクトを含む、項目1に記載の仮想画像生成システム。
(項目18)
オーディオ出力を生成するために構成されるマイクロホンアセンブリをさらに備え、前記制御サブシステムはさらに、オーディオ出力の方向を修正し、前記選択された実オブジェクトから生じる音を優先的に感知するために構成され、前記オーディオデータは、前記修正されたオーディオ出力から導出される、項目17に記載の仮想画像生成システム。
(項目19)
前記選択された実オブジェクトから生じるビデオデータを捕捉するために構成される1つ以上のカメラをさらに備え、前記制御サブシステムはさらに、前記オーディオデータと同期する前記ビデオデータを前記メモリ内に記憶するために構成される、項目17に記載の仮想画像生成システム。
(項目20)
前記制御サブシステムは、前記捕捉されたビデオデータを前記選択された実オブジェクトのための仮想コンテンツデータに変換し、前記仮想コンテンツを前記メモリ内に記憶するために構成される、項目19に記載の仮想画像生成システム。
(項目21)
前記少なくとも1つの選択されたオブジェクトは、仮想オブジェクトを含む、項目1に記載の仮想画像生成システム。
(項目22)
複数の仮想オブジェクトのための音に対応するコンテンツデータを記憶するために構成されるデータベースをさらに備え、前記制御サブシステムはさらに、前記選択された仮想オブジェクトに対応するコンテンツデータを前記データベースから入手するために構成され、前記メモリ内に記憶されるオーディオデータは、前記入手されたコンテンツデータを含む、項目21に記載の仮想画像生成システム。
(項目23)
前記制御サブシステムはさらに、前記選択された仮想オブジェクトに対応するメタデータを生成するために構成され、前記メモリ内に記憶されるオーディオデータは、前記入手されたコンテンツデータおよび生成されたメタデータを含む、項目22に記載の仮想画像生成システム。
(項目24)
前記メタデータは、前記選択された仮想オブジェクトのための位置、配向、および音量データを含む、項目23に記載の仮想画像生成システム。
(項目25)
前記エンドユーザの頭部姿勢を追跡するために構成される1つ以上のセンサをさらに備え、前記データベースは、前記複数の仮想オブジェクトのための絶対メタデータを記憶するために構成され、前記制御サブシステムはさらに、前記選択された仮想オブジェクトに対応する絶対メタデータを入手し、前記エンドユーザの追跡された頭部姿勢に基づいて、前記絶対メタデータを前記エンドユーザに対して局所化することによって、前記メタデータを生成するために構成される、項目23に記載の仮想画像生成システム。
(項目26)
少なくとも1つのスピーカをさらに備え、前記制御サブシステムはさらに、前記記憶されたオーディオデータを前記メモリから読み出し、オーディオを前記読み出されたオーディオデータから導出し、前記オーディオを前記少なくとも1つのスピーカに伝達するために構成される、項目1に記載の仮想画像生成システム。
(項目27)
前記メモリ内に記憶されるオーディオデータは、コンテンツデータおよびメタデータを含み、前記制御サブシステムはさらに、前記記憶されたコンテンツデータおよびメタデータを前記メモリから読み出し、前記読み出されたコンテンツデータおよびメタデータに基づいて、空間化オーディオをレンダリングし、前記レンダリングされた空間化オーディオを前記少なくとも1つのスピーカに伝達するために構成される、項目26に記載の仮想画像生成システム。
(項目28)
前記ディスプレイサブシステムは、前記エンドユーザの眼の正面に位置付けられるために構成される、項目1に記載の仮想画像生成システム。
(項目29)
前記ディスプレイサブシステムは、投影サブシステムおよび部分的に透明なディスプレイ表面を含み、前記投影サブシステムは、前記画像フレームを前記部分的に透明なディスプレイ表面上に投影させるために構成され、前記部分的に透明なディスプレイ表面は、前記エンドユーザの眼と周囲環境との間の視野内に位置付けられるために構成される、項目28に記載の仮想画像生成システム。
(項目30)
前記エンドユーザによって装着されるために構成されるフレーム構造をさらに備え、前記フレーム構造は、前記ディスプレイサブシステムの少なくとも一部を担持する、項目28に記載の仮想画像生成システム。
(項目31)
エンドユーザによって仮想画像生成システムを動作させる方法であって、
少なくとも1つのオブジェクトを持続的に選択することと、
少なくとも1つの選択されたオブジェクトから生じるビデオデータを生成することと、
複数の画像フレームを前記生成されたビデオデータからの3次元場面内にレンダリングすることと、
前記画像フレームを前記エンドユーザに表示することと、
前記少なくとも1つの選択されたオブジェクトから生じるオーディオデータを生成することと、
前記少なくとも1つの選択されたオブジェクトから生じるオーディオデータをメモリ内に記憶することと
を含む、方法。
(項目32)
前記オーディオデータと同期する前記ビデオデータを前記メモリ内に記憶することをさらに含む、項目31に記載の方法。
(項目33)
前記少なくとも1つの選択されたオブジェクトから生じるオーディオデータを前記エンドユーザによる知覚のための音に変換することをさらに含む、項目31に記載の方法。
(項目34)
前記少なくとも1つのオブジェクトは、前記エンドユーザの視野内で選択される、項目31に記載の方法。
(項目35)
前記少なくとも1つのオブジェクトを選択することは、3次元カーソルを前記エンドユーザの視野内で移動させ、前記3次元カーソルを用いて前記少なくとも1つのオブジェクトを選択することを含む、項目34に記載の方法。
(項目36)
前記少なくとも1つのオブジェクトを選択することは、1つ以上の音声コマンドを発行することを含む、項目31に記載の方法。
(項目37)
前記少なくとも1つのオブジェクトを選択することは、1つ以上の手のジェスチャを行うことを含む、項目31に記載の方法。
(項目38)
前記少なくとも1つのオブジェクトは、複数のオブジェクトを含み、前記複数のオブジェクトを選択することは、前記オブジェクトを個々に選択することを含む、項目31に記載の方法。
(項目39)
前記少なくとも1つのオブジェクトは、複数のオブジェクトを含み、前記複数のオブジェクトを選択することは、前記オブジェクトを大域的に選択することを含む、項目31に記載の方法。
(項目40)
前記オブジェクトを大域的に選択することは、前記エンドユーザの視野の角度範囲を定義し、前記エンドユーザの視野の定義された角度範囲内の前記オブジェクトの全てを選択することを含む、項目39に記載の方法。
(項目41)
前記定義された角度範囲は、前記エンドユーザの視野の角度範囲全体未満である、項目40に記載の方法。
(項目42)
前記定義された角度範囲は、前記エンドユーザの視野の角度範囲全体である、項目40に記載の方法。
(項目43)
少なくとも1つの以前に選択されたオブジェクトを持続的に選択解除することをさらに含む、項目31に記載の方法。
(項目44)
前記エンドユーザの視野に対する前記少なくとも1つの選択されたオブジェクトの場所を追跡することをさらに含む、項目31に記載の方法。
(項目45)
前記少なくとも1つの選択されたオブジェクトの追跡された場所が前記エンドユーザの視野外に移動すると、前記少なくとも1つの選択されたオブジェクトから生じるオーディオデータを前記メモリ内に記憶することを中止することをさらに含む、項目44に記載の方法。
(項目46)
前記少なくとも1つの選択されたオブジェクトの追跡された場所が前記エンドユーザの視野外に移動すると、前記少なくとも1つの選択されたオブジェクトから生じるオーディオデータを前記メモリ内に記憶することを継続することをさらに含む、項目44に記載の方法。
(項目47)
前記少なくとも1つの選択されたオブジェクトは、実オブジェクトを含む、項目31に記載の方法。
(項目48)
他の実オブジェクトから生じる音と比較して、前記選択された実オブジェクトから生じる音を優先的に感知することをさらに含み、前記オーディオデータは、前記優先的に感知される音から導出される、項目47に記載の方法。
(項目49)
前記選択された実オブジェクトから生じるビデオデータを捕捉することと、
前記オーディオデータと同期する前記ビデオデータを前記メモリ内に記憶することと
をさらに含む、項目47に記載の方法。
(項目50)
前記捕捉されたビデオデータを仮想コンテンツデータに変換し、前記仮想コンテンツデータを前記メモリ内に記憶することをさらに含む、項目49に記載の方法。
(項目51)
前記少なくとも1つの選択されたオブジェクトは、仮想オブジェクトを含む、項目31に記載の方法。
(項目52)
複数の仮想オブジェクトのための音に対応するコンテンツデータを記憶することと、
前記選択された仮想オブジェクトに対応するコンテンツデータを入手することであって、前記メモリ内に記憶されるオーディオデータは、前記入手されたコンテンツデータを含む、ことと
をさらに含む、項目51に記載の方法。
(項目53)
前記選択された仮想オブジェクトに対応するメタデータを生成することであって、前記メモリ内に記憶されるオーディオデータは、前記入手されたコンテンツデータおよび前記生成されたメタデータを含む、こと
をさらに含む、項目52に記載の方法。
(項目54)
前記メタデータは、前記選択された仮想オブジェクトのための位置、配向、および音量データを含む、項目53に記載の方法。
(項目55)
前記エンドユーザの頭部姿勢を追跡することと、
前記複数の仮想オブジェクトのための絶対メタデータを記憶することと
をさらに含み、
前記メタデータを生成することは、前記選択された仮想オブジェクトに対応する絶対メタデータを読み出し、前記エンドユーザの追跡された頭部姿勢に基づいて、前記絶対メタデータを前記エンドユーザに対して局所化することを含む、項目53に記載の方法。
(項目56)
前記記憶されたオーディオデータを読み出し、オーディオを前記読み出されたオーディオデータから導出し、前記オーディオを前記エンドユーザによる知覚のための音に変換することをさらに含む、項目31に記載の方法。
(項目57)
前記記憶されたオーディオデータは、コンテンツデータおよびメタデータを含み、前記方法はさらに、
前記記憶されたコンテンツデータおよびメタデータを前記メモリから読み出すことと、
前記読み出されたコンテンツデータおよびメタデータに基づいて、空間化オーディオをレンダリングすることと、
前記空間化オーディオを前記エンドユーザによる知覚のための音に変換することと
を含む、項目31に記載の方法。
(項目58)
再生ユーザによる使用のための仮想画像生成システムであって、
メモリであって、前記メモリは、オリジナル空間環境内の少なくとも1つのオブジェクトから生じるオーディオコンテンツデータおよびビデオコンテンツデータを記憶するために構成される、メモリと、
複数のスピーカと、
ディスプレイサブシステムと、
制御サブシステムであって、前記制御サブシステムは、前記オーディオコンテンツデータおよびビデオコンテンツデータを前記メモリから読み出し、前記読み出されたオーディオコンテンツデータおよびビデオコンテンツデータからそれぞれオーディオおよびビデオを前記オリジナル空間環境と異なる新しい空間環境内にレンダリングし、前記レンダリングされたオーディオを前記スピーカに、前記生成されたビデオデータを前記ディスプレイサブシステムに同期して伝達するために構成される、制御サブシステムと
を備える、仮想画像生成システム。
(項目59)
前記制御サブシステムは、前記オーディオコンテンツデータおよびビデオコンテンツデータを前記メモリ内に記憶するために構成される、項目58に記載の仮想画像生成システム。
(項目60)
前記メモリ内への前記オーディオコンテンツデータおよびビデオコンテンツデータの記憶に先立って、入力をエンドユーザから受信し、エンドユーザ入力に応答して、前記オリジナル空間環境内の前記少なくとも1つのオブジェクトを持続的に選択するために構成されるオブジェクト選択デバイスをさらに備える、項目59に記載の仮想画像生成システム。
(項目61)
前記少なくとも1つのオブジェクトは、実オブジェクトを含む、項目59に記載の仮想画像生成システム。
(項目62)
前記オーディオコンテンツデータを前記オリジナル空間環境内の実オブジェクトから捕捉するために構成されるマイクロホンアセンブリをさらに備える、項目61に記載の仮想画像生成システム。
(項目63)
前記マイクロホンアセンブリは、オーディオ出力を生成するために構成され、前記制御サブシステムはさらに、前記オーディオ出力の方向を修正し、選択された実オブジェクトから生じる音を優先的に感知するために構成され、前記オーディオコンテンツデータは、前記修正されたオーディオ出力から導出される、項目62に記載の仮想画像生成システム。
(項目64)
前記ビデオデータを前記オリジナル空間環境内の選択された実オブジェクトから捕捉するために構成される1つ以上のカメラをさらに備える、項目61に記載の仮想画像生成システム。
(項目65)
前記制御サブシステムは、前記捕捉されたビデオデータを前記選択された実オブジェクトのための仮想コンテンツデータに変換し、前記仮想コンテンツデータを前記ビデオコンテンツデータとして前記メモリ内に記憶するために構成される、項目64に記載の仮想画像生成システム。
(項目66)
前記少なくとも1つのオブジェクトは、仮想オブジェクトを含む、項目58に記載の仮想画像生成システム。
(項目67)
複数の仮想オブジェクトのための音に対応するコンテンツデータを記憶するために構成されるデータベースをさらに備え、前記制御サブシステムはさらに、前記仮想オブジェクトに対応するコンテンツデータを前記データベースから入手するために構成され、前記メモリ内に記憶されるオーディオデータは、前記入手されたコンテンツデータを含む、項目66に記載の仮想画像生成システム。
(項目68)
前記制御サブシステムは、前記新しい空間環境内の前記少なくとも1つのオブジェクトに対応する絶対メタデータを入手し、前記読み出されたオーディオコンテンツデータおよび前記絶対メタデータからのオーディオを前記新しい空間環境内にレンダリングするために構成される、項目58に記載の仮想画像生成システム。
(項目69)
前記再生ユーザの頭部姿勢を追跡するために構成される1つ以上のセンサをさらに備え、前記制御サブシステムはさらに、前記レンダリングされたオーディオが空間化されるように、前記再生ユーザの追跡された頭部姿勢に基づいて、前記絶対メタデータを前記再生ユーザに対して局所化するために構成される、項目68に記載の仮想画像生成システム。
(項目70)
前記新しい空間環境内の少なくとも1つのオブジェクトに対応する絶対メタデータを入手することは、前記少なくとも1つのオブジェクトを前記新しい空間環境内に位置付けることを含む、項目68に記載の仮想画像生成システム。
(項目71)
入力を前記再生ユーザから受信するために構成されるユーザ入力デバイスをさらに備え、前記制御サブシステムは、前記再生ユーザからの入力に応答して、前記少なくとも1つのオブジェクトを前記新しい空間環境内に位置付けるために構成される、項目70に記載の仮想画像生成システム。
(項目72)
前記ディスプレイサブシステムは、前記再生ユーザの眼の正面に位置付けられるために構成される、項目58に記載の仮想画像生成システム。
(項目73)
前記ディスプレイサブシステムは、投影サブシステムおよび部分的に透明なディスプレイ表面を含み、前記投影サブシステムは、前記ビデオデータに応答して、画像フレームを前記部分的に透明なディスプレイ表面上に投影させるために構成され、前記部分的に透明なディスプレイ表面は、前記再生ユーザの眼と前記新しい空間環境との間の視野内に位置付けられるために構成される、項目72に記載の仮想画像生成システム。
(項目74)
前記再生ユーザによって装着されるために構成されるフレーム構造をさらに備え、前記フレーム構造は、前記ディスプレイサブシステムの少なくとも一部を担持する、項目72に記載の仮想画像生成システム。
(項目75)
オリジナル空間環境内にオーディオコンテンツデータおよびビデオコンテンツデータとして以前に記録された少なくとも1つのオブジェクトのオーディオおよびビデオを再生するために、再生ユーザによって仮想画像生成システムを動作させる方法であって、前記方法は、
前記オーディオコンテンツデータおよびビデオコンテンツデータをメモリから読み出すことと、
前記読み出されたオーディオコンテンツデータおよびビデオコンテンツデータからそれぞれオーディオおよびビデオを前記オリジナル空間環境と異なる新しい空間環境内にレンダリングすることと、
前記オーディオおよびビデオをそれぞれ音および画像フレームに変換することと、
前記音および画像フレームを前記再生ユーザに同期して伝達することと
を含む、方法。
(項目76)
前記オーディオコンテンツデータおよびビデオコンテンツデータを前記メモリ内に記憶することをさらに含む、項目75に記載の方法。
(項目77)
前記メモリ内への前記オーディオコンテンツデータおよびビデオコンテンツデータの記憶に先立って、前記オリジナル空間環境内の前記少なくとも1つのオブジェクトを持続的に選択することをさらに含む、項目76に記載の方法。
(項目78)
前記少なくとも1つのオブジェクトは、実オブジェクトを含む、項目76に記載の方法。
(項目79)
前記オーディオコンテンツデータを前記実オブジェクトから捕捉することをさらに含む、項目78に記載の方法。
(項目80)
他の実オブジェクトから生じる音と比較して、選択された実オブジェクトから生じる音を優先的に感知することであって、前記オーディオコンテンツデータは、前記優先的に感知される音から導出される、ことをさらに含む、項目79に記載の方法。
(項目81)
ビデオデータを前記選択された実オブジェクトから捕捉することと、
前記捕捉されたビデオデータを前記仮想コンテンツデータに変換することと
をさらに含む、項目78に記載の方法。
(項目82)
前記少なくとも1つのオブジェクトは、仮想オブジェクトを含む、項目76に記載の方法。
(項目83)
複数の仮想オブジェクトのための音に対応するコンテンツデータを記憶し、前記仮想オブジェクトに対応するコンテンツデータを前記データベースから入手することであって、前記メモリ内に記憶されるオーディオコンテンツデータは、前記入手されたコンテンツデータを含む、こと
をさらに含む、項目82に記載の方法。
(項目84)
前記新しい空間環境内の前記少なくとも1つのオブジェクトに対応する絶対メタデータを入手することであって、前記オーディオは、前記読み出されたオーディオコンテンツデータおよび前記絶対メタデータから前記新しい空間環境内にレンダリングされる、こと
をさらに含む、項目75に記載の方法。
(項目85)
前記再生ユーザの頭部姿勢を追跡することと、
前記再生ユーザの追跡された頭部姿勢に基づいて、前記絶対メタデータを前記再生ユーザに対して局所化することであって、前記オーディオは、前記レンダリングされたオーディオが空間化されるように、前記読み出されたオーディオコンテンツデータおよび前記局所的メタデータから前記新しい空間環境内にレンダリングされる、ことと
をさらに含む、項目84に記載の方法。
(項目86)
前記新しい空間環境内の少なくとも1つのオブジェクトに対応する絶対メタデータを入手することは、前記少なくとも1つのオブジェクトを前記新しい空間環境内に位置付けることを含む、項目84に記載の方法。
(項目87)
入力を前記再生ユーザから受信することであって、前記少なくとも1つのオブジェクトは、前記再生ユーザからの入力に応答して、前記新しい空間環境内に位置付けられる、こと
をさらに含む、項目86に記載の方法。
図面は、本発明の好ましい実施形態の設計および有用性を図示し、類似要素は、共通参照番号によって参照される。本発明の上記および他の利点および目的が取得される方法をより深く理解するために、上記に簡単に説明された本発明のより具体的説明が、付随の図面に図示される、その具体的実施形態を参照することによって与えられるであろう。これらの図面は、本発明の典型的実施形態のみを描写し、したがって、その範囲の限定と見なされるべきではないことを理解した上で、本発明は、付随の図面の使用を通して、付加的特異性および詳細とともに、説明および解説されるであろう。
図1は、先行技術の拡張現実生成デバイスによってエンドユーザに表示され得る、3次元拡張現実場面の図である。
図2は、本発明の一実施形態に従って構築された、拡張現実システムの斜視図である。
図3は、図2の拡張現実システムのブロック図である。
図4は、図2の拡張現実システム内で使用される空間化スピーカシステムの一実施形態の平面図である。
図5は、エンドユーザがオブジェクトを個々に選択することを可能にするために図2の拡張現実システムによって使用される、1つの技法を図示する、平面図である。
図6は、エンドユーザがオブジェクトを個々に選択することを可能にするために図2の拡張現実システムによって使用される、別の技法を図示する、平面図である。
図7は、エンドユーザがオブジェクトを個々に選択することを可能にするために図2の拡張現実システムによって使用される、さらに別の技法を図示する、平面図である。
図8は、エンドユーザが複数のオブジェクトを大域的に選択することを可能にするために図2の拡張現実システムによって使用される、技法を図示する、平面図である。
図9は、エンドユーザが複数のオブジェクトを大域的に選択することを可能にするために図2の拡張現実システムによって使用される、別の技法を図示する、平面図である。
図10aは、図2の拡張現実システムを装着するために使用され得る、1つの技法の平面図である。
図10bは、図2の拡張現実システムを装着するために使用され得る、別の技法の平面図である。
図10cは、図2の拡張現実システムを装着するために使用され得る、さらに別の技法の平面図である。
図10dは、図2の拡張現実システムを装着するために使用され得る、さらに別の技法の平面図である。
図11は、種々の例示的な種々の仮想音および実音と相互作用する、図2の拡張現実システムを図示する、ブロック図である。
図12は、図2の拡張現実システム内で使用されるオーディオプロセッサの一実施形態を図示する、ブロック図である。
図13は、図2の拡張現実システムによって選択された仮想および実オブジェクトに対応するコンテンツデータおよびメタデータを記録する、メモリの略図である。
図14は、音を実オブジェクトから優先的に受信するために図2の拡張現実システム内で使用される、マイクロホンアセンブリおよび対応するオーディオ処理モジュールの概略である。
図15aは、音をエンドユーザに対して第1の配向を有する2つのオブジェクトから優先的に受信するために図2の拡張現実システムのオーディオプロセッサによって生成された、指向性パターンの平面図である。
図15bは、音をエンドユーザに対して第2の配向を有する2つのオブジェクトから優先的に受信するために図2の拡張現実システムのオーディオプロセッサによって生成された、指向性パターンの平面図である。
図16aは、エンドユーザに対してオリジナル空間環境内で分散されたオブジェクトのブロック図である。
図16bは、エンドユーザに対して新しい空間環境内で分散された図17aのオブジェクトのブロック図である。
図17は、図2の拡張現実システムを動作させ、仮想および実オブジェクトのオーディオおよびビデオを選択および記録する1つの方法を図示する、フロー図である。
図18は、図2の拡張現実システムを動作させ、図17において記録されたオーディオおよびビデオを新しい空間環境内で再生する1つの方法を図示する、フロー図である。
続く説明は、拡張現実システム内で使用されるべきディスプレイシステムおよび方法に関する。しかしながら、本発明は、拡張現実システムにおける用途に非常に適しているが、本発明は、その最も広い側面において、そのように限定され得ないことを理解されたい。例えば、本発明は、仮想現実システムに適用されることができる。したがって、多くの場合、拡張現実システムの観点から本明細書に説明されるが、本教示は、そのような使用のそのようなシステムに限定されるべきではない。拡張現実システムは、例えば、ビデオゲーム、仮想および実人物の組み合わせとのビデオ会議、または映画の鑑賞のコンテキストにおいて動作されてもよい。
本明細書に説明される拡張現実システムは、エンドユーザが、エンドユーザによって持続的に選択される少なくとも1つのオブジェクト(仮想または実際のいずれか)から生じるオーディオデータを記録することを可能にする。そのような記録されたオーディオデータは、続いて、同一または異なるエンドユーザによって再生されることができる。記録されたオーディオデータから生じる音は、オーディオデータが元々記録された実環境内の同一または異なるエンドユーザに再生されてもよい。オーディオデータのコンテンツを記録することに加え、オーディオコンテンツが元々記録された環境を特徴付けるメタデータおよびエンドユーザの頭部姿勢が、再生の間、オーディオは、再レンダリングされ、エンドユーザがオリジナル記録の間に空間化音を聴覚的に体験したものと同一様式において聴覚的に体験される、空間化音に変換され得るように、そのようなオーディオデータと関連付けて記録されてもよい。随意に、オーディオは、同一または異なるエンドユーザが新しい環境に適切な聴覚的体験を有し得るように、再レンダリングされ、新しい仮想または実環境内の同一または異なるエンドユーザによる知覚のための空間化音に変換されてもよい。オーディオデータは、周囲環境内の仮想オブジェクトおよび実オブジェクトから生じるビデオデータと同期して記録されてもよい。
本明細書に説明される拡張現実システムは、エンドユーザの視野内の実(または物理的)オブジェクトと混合された仮想オブジェクトの画像を提供し、かつ(視野内または外のいずれかの)実(または物理的)源から生じる実音と混合された(視野内または外のいずれかの)仮想源から生じる仮想音を提供するように動作されてもよい。この目的を達成するために、本発明に従って構築された拡張現実システム100の一実施形態が、ここで、図2および3を参照して説明されるであろう。拡張現実システム100は、ディスプレイサブシステム102を備え、これは、ディスプレイ画面104と、画像をディスプレイ画面104上に投影する、投影サブシステム(図示せず)とを含む。
図示される実施形態では、ディスプレイ画面104は、部分的に透明なディスプレイ画面であって、それを通して、周囲環境内の実オブジェクトが、エンドユーザ50によって見られることができ、その上に、仮想オブジェクトの画像が、表示されてもよい。拡張現実システム100はさらに、ディスプレイ画面104が、エンドユーザ50の眼52の正面、特に、エンドユーザ50の眼52と周囲環境との間のエンドユーザ50の視野内に位置付けられるように、部分的に透明なディスプレイ画面104を担持する、エンドユーザ50によって装着される、フレーム構造106を備える。
ディスプレイサブシステム102は、エンドユーザ50の眼52に、高レベルの画質および3次元知覚を伴って、かつ2次元コンテンツを提示することも可能である、物理的現実に対する拡張として快適に知覚され得る、光ベースの放射パターンを提示するように設計される。ディスプレイサブシステム102は、単一コヒーレント場面の知覚を提供する、フレームのシーケンスを高周波数で提示する。
代替実施形態では、拡張現実システム100は、1つ以上の結像機(例えば、カメラ)を採用し、周囲環境の画像を捕捉し、それをビデオデータに変換してもよく、これは、次いで、仮想オブジェクトを表すビデオデータと混合されることができ、その場合、拡張現実システム100は、混合されたビデオデータを表す画像をエンドユーザ50に不透明ディスプレイ表面上で表示してもよい。
ディスプレイサブシステムを説明するさらなる詳細は、「Display Subsystem and Method」と題された米国仮特許出願第14/212,961号および「Planar Waveguide Apparatus With Diffraction Element(s) and Subsystem Employing Same」と題された米国仮特許出願第14/331,216号(参照することによって明示的に本明細書に組み込まれる)に提供される。
拡張現実システム100はさらに、仮想オブジェクトから音のみをエンドユーザ50に提示しながら、エンドユーザ50が、直接、実オブジェクトからの音を聞くことを可能にするための1つ以上のスピーカ108を備える。代替実施形態では、拡張現実システム100は、1つ以上のマイクロホン(図示せず)を備え、周囲環境から生じる実音を捕捉し、それをオーディオデータに変換してもよく、これは、仮想音からオーディオデータと混合されることができ、その場合、スピーカ108は、混合されたオーディオデータを表す音をエンドユーザ50に伝達してもよい。
いずれの場合も、スピーカ108は、スピーカ108が、例えば、イヤーバッドまたはヘッドホンとして、エンドユーザ50の外耳道に隣接して(その中または周囲に)位置付けられるように、フレーム構造106によって担持される。スピーカ108は、ステレオ/調節可能音制御を提供してもよい。スピーカ108は、外耳道に隣接して位置付けられるように説明されるが、外耳道に隣接して位置しない、他のタイプのスピーカも、音をエンドユーザ50に伝達するために使用されることができる。例えば、スピーカは、例えば、骨伝導技術を使用して、外耳道からある距離に設置されてもよい。図4に図示される随意の実施形態では、複数の空間化スピーカ108(例えば、4つのスピーカ108−1、108−2、108−3、および108−4)が、エンドユーザ50の頭部54を中心として位置し、音を頭部54の左、右、正面、および背面から受信するために構成され、エンドユーザ50の左および右耳56に向かって向けられてもよい。拡張現実システムのために使用され得る、空間化スピーカに関するさらなる詳細は、「Mixed Reality System with Spatialized Audio」と題された米国仮特許出願第62/369,561号(参照することによって明示的に本明細書に組み込まれる)に説明される。
重要なこととして、拡張現実システム100は、エンドユーザ50が、これらの選択されたオブジェクトからのみの音の記録のために、(仮想または実際のいずれかの)1つ、いくつか、または全てのオブジェクトを選択することを可能にするために構成される。この目的を達成するために、拡張現実システム100はさらに、エンドユーザ50からの入力に応答して、そこからの音を記録するために、1つ以上の実オブジェクト(すなわち、そこから実音が生じる、実オブジェクト)および仮想オブジェクト(すなわち、そこから仮想音が生じる、仮想オブジェクト)を選択するために構成される、オブジェクト選択デバイス110を備える。オブジェクト選択デバイス110は、エンドユーザ50の視野内の実オブジェクトまたは仮想オブジェクトを個々に選択する、および/または、エンドユーザ50の視野内の実オブジェクトまたは仮想オブジェクトのサブセットまたは全てを大域的に選択するように設計されてもよい。オブジェクト選択デバイス110はまた、エンドユーザ50からの付加的入力に応答して、1つ以上の以前に選択された実オブジェクトまたは仮想オブジェクトを選択解除するために構成されてもよい。この場合、オブジェクト選択デバイス110は、それらが以前に選択されたものと同一様式において、実オブジェクトまたは仮想オブジェクトを選択解除するように設計されてもよい。いずれの場合も、具体的オブジェクトは、持続的に選択され、意図的に選択解除されるまで、具体的オブジェクトが選択された状態のままであることを意味する。
一実施形態では、ディスプレイサブシステム102は、3次元カーソルをエンドユーザ50の視野内に表示してもよく、これは、オブジェクト選択デバイス110への入力に応答して、拡張現実場面内の具体的実オブジェクトまたは仮想オブジェクトを選択する目的のために、エンドユーザ50の視野内で変位され得る。
例えば、図5に示されるように、4つの仮想オブジェクト(V1−V4)および2つの実オブジェクト(R1〜R2)が、ディスプレイ画面104の視野60内に位置する。ディスプレイサブシステム102は、3Dカーソル62を視野60内に表示してもよく、これは、円形の形態をとるように図示される。3Dカーソル62は、オブジェクト選択デバイス110へのエンドユーザ50による入力に応答して、オブジェクトのうちの1つにわたって、この場合は、仮想オブジェクトV3にわたって移動され、それによって、3Dカーソル62とそのオブジェクトを関連付けてもよい。関連付けられたオブジェクトは、次いで、オブジェクト選択デバイス110へのエンドユーザ50による付加的入力に応答して、選択されることができる。具体的オブジェクト(この場合、仮想オブジェクトV3)が、3Dカーソル62と関連付けられ、選択の準備ができたことの視覚的フィードバックを提供するために、関連付けられたオブジェクトまたはさらに3Dカーソル62自体が、ハイライトされてもよい(例えば、色または陰影の変化)。いったん選択されると、オブジェクトは、選択解除されるまで、ハイライトされたままであってもよい。当然ながら、仮想オブジェクトV3の代わりに、または仮想オブジェクトV3に加え、実オブジェクトを含む、拡張現実場面4内の他のオブジェクトも、3Dカーソル62をこれらの他のオブジェクトのいずれかにわたって設置し、3Dカーソル62内でオブジェクトを選択することによって、選択されることができる。また、図5における3Dカーソル62は、円形の形態をとるが、3Dカーソル62は、具体的オブジェクトを指し示すためにエンドユーザ50によって使用され得る、矢印を含む、任意の形状であることができることを理解されたい。視野60内の以前に選択されたオブジェクトのいずれかは、3Dカーソル62をその以前に選択されたオブジェクトにわたって移動させ、それを選択解除することによって、選択解除されることができる。
オブジェクト選択デバイス110は、エンドユーザ50が、3Dカーソル62を具体的オブジェクトにわたって移動させ、続いて、その具体的オブジェクトを選択することを可能にする、任意のデバイスの形態をとることができる。一実施形態では、オブジェクト選択デバイス110は、物理的に操作され、3Dカーソル62を具体的オブジェクトにわたって移動させ、「クリック」し、具体的オブジェクトを選択し得る、マウス、タッチパッド、ジョイスティック、指向性ボタン等の従来の物理的コントローラの形態をとる。
別の実施形態では、オブジェクト選択デバイス110は、音声コマンドに応答して、3Dカーソル62を具体的オブジェクトにわたって移動させ、次いで、具体的オブジェクトを選択し得る、マイクロホンおよび対応する音声解釈モジュールを備えてもよい。例えば、エンドユーザ50は、指向性コマンド、例えば、「左に移動」または「右に移動」を発し、3Dカーソル62を具体的オブジェクトにわたって漸次的に移動させ、次いで、「選択」等のコマンドを発し、具体的オブジェクトを選択してもよい。
さらに別の実施形態では、オブジェクト選択デバイス110は、フレーム構造106に搭載される、1つ以上のカメラ(例えば、前向きに面したカメラ112)と、具体的オブジェクトの選択のために、対応して、3Dカーソル62を具体的オブジェクトにわたって移動させる、エンドユーザ50による物理的ジェスチャ(例えば、指移動)を追跡することが可能な対応するプロセッサ(図示せず)とを備えてもよい。例えば、エンドユーザ50は、指を使用して、視野60内の3Dカーソル62を具体的オブジェクトにわたって「ドラッグ」し、次いで、3Dカーソル62を「タップ」し、具体的オブジェクトを選択してもよい。または、前向きに面したカメラ112が、例えば、少なくとも部分的に、具体的オブジェクトの選択のために、対応して、3Dカーソル62を具体的オブジェクトにわたって移動させる、エンドユーザ50の頭部54の配向に基づいて、例えば、エンドユーザ50の注意の中心を検出または推測するために採用されてもよい。例えば、エンドユーザ50は、その頭部50を移動させ、視野60内の3Dカーソル62を具体的オブジェクトにわたって「ドラッグ」し、次いで、その頭部50を素早く点頭させ、具体的オブジェクトを選択してもよい。
さらに別の実施形態では、オブジェクト選択デバイス110は、1つ以上のカメラ(例えば、後ろ向きに面したカメラ114(図2に示される))と、エンドユーザ50の眼52、特に、その具体的オブジェクトの選択のために、対応して、3Dカーソル62を具体的オブジェクトにわたって移動させる、エンドユーザ50が合焦している方向および/または距離を追跡する、対応するプロセッサとを備えてもよい。後ろ向きに面したカメラ114は、エンドユーザ50の眼52の角位置(片眼または両眼が向いている方向)、瞬目、および焦点深度を追跡してもよい(眼収束を検出することによって)。例えば、エンドユーザ50は、その眼54を視野内で移動させ、3Dカーソルを具体的オブジェクトにわたって「ドラッグ」し、次いで、瞬目し、具体的オブジェクトを選択してもよい。そのような眼追跡情報は、例えば、光をエンドユーザの眼に投影させ、その投影された光の少なくとも一部の戻りまたは反射を検出することによって、判別されてもよい。眼追跡デバイスについて議論するさらなる詳細は、「Display Subsystem and Method」と題された米国仮特許出願第14/212,961号、「Methods and Subsystem for Creating Focal Planes in Virtual and Augumented Reality」と題された米国特許出願第14/726,429号、および「Subsystem and Method for Augumented and Virtual Reality」と題された米国特許出願第14/205,126号(参照することによって明示的に本明細書に組み込まれる)に提供される。
代替実施形態では、オブジェクト選択デバイス110は、従来の物理的コントローラ、マイクロホン/音声解釈モジュール、および/またはカメラを組み合わせて、3Dカーソル62を移動させ、使用し、オブジェクトを選択してもよい。例えば、物理的コントローラ、指ジェスチャ、または眼移動が、3Dカーソル62を具体的オブジェクトにわたって移動させるために使用されることができ、音声コマンドが、その具体的オブジェクトを選択するために使用されることができる。
3Dカーソル62を使用して、エンドユーザ50の視野内のオブジェクトを選択するのではなく、具体的オブジェクトが、その具体的オブジェクトを意味論的に識別すること、またはエンドユーザ50に表示されるメニューを介してオブジェクトを選択することによって、選択されてもよく、その場合、オブジェクトは、エンドユーザ50の視野内にある必要はない。この場合、オブジェクト選択デバイス110は、具体的オブジェクトが、エンドユーザ50によって提供される口頭コマンドを変換するように意味論的に識別される場合、マイクロホンおよび音声解釈モジュールの形態をとる。例えば、仮想オブジェクトV3が、ドラムに対応する場合、エンドユーザ50は、「ドラムを選択」と発してもよく、それに応答して、ドラムV3が、選択されるであろう。口頭コマンドに対応するオブジェクトの選択を促進するために、視野内の全ての関連オブジェクトを識別する意味論情報が、好ましくは、エンドユーザ50によって口頭で表されるオブジェクトの説明が、データベース内に記憶されるオブジェクトの説明に合致され得るように、データベース内に記憶される。意味論情報を含む、メタデータが、データベース内の仮想オブジェクトと事前に関連付けられることができる一方、視野内の実オブジェクトは、「Method and System for Inserting Recognized Object Data into a Virtual World」と題された米国特許出願第14/704,800号(参照することによって明示的に本明細書に組み込まれる)に説明される様式において、意味論情報と事前にマッピングされ、関連付けられてもよい。
代替として、具体的オブジェクトは、3Dカーソル62を使用せずに、単に、指ジェスチャを使用してそれを指差すまたは「クリック」することによって、選択されてもよい。この場合、オブジェクト選択デバイス110は、1つ以上のカメラ(例えば、前向きに面したカメラ114)と、具体的オブジェクトの選択のための指ジェスチャを追跡する、対応するプロセッサとを備えてもよい。例えば、エンドユーザ50は、単に、図6に示されるように、それを指差すことによって、具体的オブジェクト(この場合、仮想オブジェクトV3)を選択してもよい。別の実施形態では、具体的オブジェクトは、3Dカーソル62を使用せずに、図7に示されるように、少なくとも2本の指(例えば、人差し指および親指)を使用して円形または部分的円形を形成することによって、選択されてもよい。
3Dカーソル62は、一度に1つのみのオブジェクトを選択するために使用されるように説明されたが、その代替または随意の実施形態では、3Dカーソル62は、一度に複数のオブジェクトを選択するために使用されてもよい。例えば、図8に図示されるように、線64が、3Dカーソル62を使用して、あるグループのオブジェクトの周囲に、例えば、実オブジェクトR1および仮想オブジェクトV3およびV4の周囲に描かれ、それによって、これらのグループのオブジェクトを選択することができる。3Dカーソル62は、例えば、オブジェクトを個々に選択するために、上記に説明されるものと同一手段を使用して制御されることができる。代替として、線が、3Dカーソル62を使用せずに、例えば、指ジェスチャを使用することによって、あるグループのオブジェクトの周囲に描かれることができる。
代替実施形態では、エンドユーザ50の事前に定義された視野の角度範囲内のオブジェクトのグループが、選択されてもよく、その場合、オブジェクト選択デバイス110は、例えば、エンドユーザ50によって作動され、これらのオブジェクトを選択し得る、単一物理的または仮想選択ボタンの形態をとることができる。視野の角度範囲は、エンドユーザ50によって事前に定義されてもよい、または拡張現実システム100の中に事前にプログラムされてもよい。例えば、図9に示されるように、60度(視野の中心から±30度)の角度範囲66が、120度視野60のコンテキストに示される。視野60の角度範囲64内の全てのオブジェクト(この場合、仮想オブジェクトV1、V2、およびV3)が、選択ボタンの作動に応じて、大域的に選択されることができる一方、視野60の角度範囲64外の全てのオブジェクト(この場合、実オブジェクトR1およびR2および仮想オブジェクトV4)は、選択ボタンの作動に応じて、選択されないであろう。一実施形態では、エンドユーザ50は、例えば、視野60の中心線に向かってまたはそこから離れる角度範囲を定義する縁の一方または両方をドラッグすることによって、角度範囲を修正してもよい(矢印によって示される)。エンドユーザ50は、例えば、角度範囲を最小の0度から視野全体(例えば、120度)まで調節してもよい。代替として、視野60の角度範囲64は、エンドユーザ50がそれを調節する能力を伴わずに、事前にプログラムされてもよい。例えば、視野60の全体内の全てのオブジェクトが、選択ボタンの作動に応答して、選択されてもよい。
拡張現実システム100はさらに、周囲環境内の実オブジェクトからの音をオーディオ信号に変換するために構成される、1つ以上のマイクロホンを備える。特に、拡張現実システム100は、オブジェクト選択デバイス110を介してエンドユーザ50によって選択された1つ以上の実オブジェクトの方向および距離に対応する、特定の方向および/または特定の距離における音を優先的に受信するために構成される、マイクロホンアセンブリ116を備える。マイクロホンアセンブリ116は、図2に図示されるように(2つのみが示される)、フレーム構造106に搭載される、マイクロホン要素118のアレイ(例えば、4つのマイクロホン)を備える。マイクロホンアセンブリ116に関する詳細は、下記にさらに詳細に説明されるであろう。拡張現実システム100はさらに、例えば、コマンドまたは叙述をエンドユーザ50から受信するために、エンドユーザ50の発話をオーディオ信号に変換するために構成される、専用マイクロホン122を備える。
拡張現実システム100は、拡張現実システムに対する選択された実オブジェクトの位置または配向が変化しても、これらの実オブジェクトから生じる音が、マイクロホンアセンブリ116によって選択されていない実オブジェクトと比較して、優先的かつ継続的に感知され得るように、既知の座標系内の選択された実オブジェクトの位置および配向を追跡する。既知の座標系内の全ての仮想オブジェクトの位置および場所は、典型的には、拡張現実システム100に対して「既知」であって(すなわち、その中に記録される)、したがって、概して、能動的に追跡される必要がない。
図示される実施形態では、拡張現実システム100は、仮想オブジェクトに対応する空間化オーディオを実および物理的3次元(3D)空間内の既知の仮想場所および配向でレンダリングおよび提示し、音の明確性または現実性に影響を及ぼすように、音が実オブジェクトの仮想場所から生じるようにエンドユーザ50に現れさせる、空間化オーディオシステムを採用する。拡張現実システム100は、種々の仮想オブジェクトと関連付けられたオーディオがその仮想位置から生じるように現れるように、エンドユーザ50の位置を追跡し、空間化オーディオをより正確にレンダリングする。さらに、拡張現実システム100は、種々の仮想オブジェクトと関連付けられた指向性オーディオが個別の仮想オブジェクトに適切な仮想方向に(例えば、仮想キャラクタの頭部の背後からではなく、仮想キャラクタの口から)伝搬するように現れるように、エンドユーザ50の頭部姿勢を追跡し、空間化オーディオをより正確にレンダリングする。さらに、拡張現実システム100は、種々の仮想オブジェクトと関連付けられたオーディオが、実際の物理的および仮想オブジェクトから適切に反射する、またはそれによってオクルードまたは妨害されるように現れるように、空間化オーディオをレンダリングする際、他の実際の物理的および仮想オブジェクトを考慮する。
この目的を達成するために、拡張現実システム100はさらに、仮想3次元場面に対するエンドユーザ50の頭部54の位置および配向を追跡し、かつエンドユーザ50の頭部54に対する実オブジェクトの位置および配向を追跡するための頭部/オブジェクト追跡サブシステム120を備える。例えば、頭部/オブジェクト追跡サブシステム120は、エンドユーザ50の頭部姿勢データ(位置および配向)を収集するために構成される、1つ以上のセンサと、センサ120によって収集された頭部姿勢データに基づいて、既知の座標系内のエンドユーザ50の頭部姿勢を決定するために構成される、プロセッサ(図示せず)とを備えてもよい。センサは、画像捕捉デバイス(可視および赤外線光カメラ等)、慣性測定ユニット(加速度計およびジャイロスコープを含む)、コンパス、マイクロホン、GPSユニット、または無線デバイスのうちの1つ以上のものを含んでもよい。図示される実施形態では、センサは、前向きに面したカメラ112(図2に示される)を備える。このように頭部に装着されると、前向きに面したカメラ120は、特に、エンドユーザ50が位置する環境に対するエンドユーザ50の頭部54の距離および角位置(すなわち、頭部が向けられている方向)を示す情報を捕捉するために好適である。頭部配向は、任意の方向(例えば、エンドユーザ50の基準フレームに対して上/下、左、右)において検出されてもよい。下記にさらに詳細に説明されるであろうように、前向きに面したカメラ114はまた、周囲環境内の実オブジェクトのビデオデータを入手し、拡張現実システム100のビデオ記録機能を促進するために構成される。カメラはまた、周囲環境内の実オブジェクトを追跡するために提供されてもよい。フレーム構造106は、カメラがフレーム構造106の正面および背面上に搭載され得るように、設計されてもよい。このように、カメラのアレイは、エンドユーザ50の頭部54を包囲し、関連オブジェクトの全ての方向を網羅してもよい。
拡張現実システム100はさらに、仮想3次元場面を記憶するために構成される、3次元データベース124を備え、これは、仮想オブジェクト(仮想オブジェクトのコンテンツデータと、これらの仮想オブジェクトと関連付けられた絶対メタデータ、例えば、3D場面内のこれらの仮想オブジェクトの絶対位置および配向との両方)と、仮想オブジェクト(仮想オブジェクトのコンテンツデータと、これらの仮想オブジェクトと関連付けられた絶対メタデータ、例えば、3D場面内のこれらの仮想オブジェクトの音量および絶対位置および配向、および仮想源の近傍の任意の仮想または実オブジェクトを含む、各仮想オブジェクトを囲繞する空間音響、部屋寸法、壁/床材料等との両方)とを備える。
拡張現実システム100はさらに、視野内に現れる仮想オブジェクトおよび実オブジェクトから生じるビデオデータを記録することに加え、エンドユーザ50がオブジェクト選択デバイス110を介して選択したそれらの仮想オブジェクトおよび実オブジェクトからのみ生じるオーディオデータを記録する、制御サブシステムを備える。拡張現実システム100はまた、同期されたビデオおよびオーディオが、再生の間、正確に再レンダリングされ得るように、ビデオデータおよびオーディオデータと関連付けられたメタデータを記録してもよい。
この目的を達成するために、制御サブシステムは、仮想オブジェクトと関連付けられたビデオコンテンツおよび絶対メタデータを3次元データベース124から入手し、エンドユーザ50の頭部姿勢データ(下記にさらに詳細に説明されるように、ビデオのための絶対メタデータをエンドユーザ50の頭部54に対して局所化するために使用されるであろう)を頭部/オブジェクト追跡サブシステム120から入手し、次いで、エンドユーザ50の視野内の周囲環境内の実オブジェクトから生じる画像と混合された画像への変換のために、ディスプレイサブシステム102に伝達される、そこからのビデオをレンダリングするために構成される、ビデオプロセッサ126を備える。ビデオプロセッサ126はまた、下記にさらに説明されるであろうように、仮想オブジェクトから生じるビデオデータとともに、続いて記録されるであろう、周囲環境の実オブジェクトから生じるビデオデータを前向きに面したカメラ112から入手するために構成される。
同様に、オーディオプロセッサ128は、仮想オブジェクトと関連付けられたオーディオコンテンツおよびメタデータを3次元データベース124から入手し、エンドユーザ50の頭部姿勢データ(下記にさらに詳細に説明されるように、オーディオのための絶対メタデータをエンドユーザ50の頭部54に対して局所化するために使用されるであろう)を頭部/オブジェクト追跡サブシステム120から入手し、次いで、周囲環境内の実オブジェクトから生じる音と混合された空間化音への変換のために、スピーカ108に伝達される、そこからの空間化オーディオをレンダリングするために構成される。
オーディオプロセッサ128はまた、下記にさらに説明されるであろうように、選択された仮想オブジェクトからの空間化オーディオデータとともに、仮想オブジェクト毎のエンドユーザ50の頭部54に対して局所化された任意の結果として生じるメタデータ(例えば、位置、配向、および音量データ)とともに、および、大域的メタデータ(例えば、拡張現実システム100またはエンドユーザ50によって大域的に設定された音量データ)とともに、続いて記録されるであろう、周囲環境内の選択された実オブジェクトからのみ生じるオーディオデータをマイクロホンアセンブリ116から入手するために構成される。
拡張現実システム100はさらに、メモリ130と、ビデオおよびオーディオをメモリ130内に記憶するために構成される、レコーダ132と、エンドユーザ50または他のエンドユーザへの後続再生のために、ビデオおよびオーディオをメモリ130から読み出すために構成される、プレーヤ134とを備える。レコーダ132は、選択された仮想および実オブジェクトに対応する、空間化オーディオデータ(オーディオコンテンツオーディオデータとメタデータの両方)をオーディオプロセッサ128から入手し、本オーディオデータをメモリ130内に記憶し、選択された仮想および実オブジェクトと一致する仮想および実オブジェクトに対応する、ビデオデータ(ビデオコンテンツデータとメタデータの両方)をさらに入手する。プレーヤ134は、レコーダ132およびメモリ130が位置する同一ARシステム100に位置するように図示されるが、プレーヤは、サードパーティARシステム内に、またはさらにARシステム100によって以前に記録されたビデオおよびオーディオを再生する、スマートフォンまたはコンピュータ上に位置してもよいことを理解されたい。
ビデオプロセッサ126、オーディオプロセッサ128、レコーダ132、およびプレーヤ134の機能を実施する、制御サブシステムは、多種多様な形態のいずれかをとってもよく、いくつかのコントローラ、例えば1つ以上のマイクロコントローラ、マイクロプロセッサまたは中央処理ユニット(CPU)、デジタル信号プロセッサ、グラフィック処理ユニット(GPU)、他の集積回路コントローラ、例えば、特定用途向け集積回路(ASIC)、プログラマブルゲートアレイ(PGA)、例えば、フィールドPGA(FPGA)、および/またはプログラマブル論理コントローラ(PLU)を含んでもよい。
ビデオプロセッサ126、オーディオプロセッサ128、レコーダ132、およびプレーヤ134の機能は、それぞれ、単一の統合されたデバイスによって実施されてもよく、ビデオプロセッサ126、オーディオプロセッサ128、レコーダ132、および/またはプレーヤ134の機能のうちの少なくともいくつかは、単一の統合されたデバイスの中に組み合わせられてもよい、またはビデオプロセッサ126、オーディオプロセッサ128、レコーダ132、またはプレーヤ134のそれぞれの機能は、いくつかのデバイス間に分散されてもよい。例えば、ビデオプロセッサ126は、仮想オブジェクトのビデオデータを3次元データベース124から入手し、そこからの合成ビデオフレームをレンダリングする、グラフィック処理ユニット(GPU)と、実オブジェクトのビデオフレームを前向きに面したカメラ112から入手する、中央処理ユニット(CPU)とを備えてもよい。同様に、オーディオプロセッサ128は、マイクロホンアセンブリ116およびユーザマイクロホン122から入手されたオーディオデータを処理する、デジタル信号プロセッサ(DSP)と、3次元データベース124から入手されたオーディオデータを処理する、CPUとを備えてもよい。レコーダ132の記録機能およびプレーヤ134の再生機能は、CPUによって実施されてもよい。
さらに、拡張現実システム100の種々の処理コンポーネントは、分散型サブシステム内に物理的に含有されてもよい。例えば、図10a〜10dに図示されるように、拡張現実システム100は、有線導線または無線コネクティビティ152等によって、エンドユーザ50の頭部54に搭載されるコンポーネント(例えば、ディスプレイサブシステム102の投影サブシステム、マイクロホンアセンブリ116、スピーカ104、およびカメラ114、118)に動作可能に結合される、ローカル処理およびデータモジュール150を備える。ローカル処理およびデータモジュール150は、フレーム構造106(図10a)に固定して取り付けられる、ヘルメットまたは帽子106a(図10b)に固定して取り付けられる、ヘッドホンに内蔵される、エンドユーザ50の胴体58に除去可能に取り付けられる(図10c)、またはベルト結合式構成においてエンドユーザ50の腰部59に除去可能に取り付けられる(図10d)等、種々の構成において搭載されてもよい。拡張現実システム100はさらに、遠隔モジュール154、156が、相互に動作可能に結合され、ローカル処理およびデータモジュール150へのリソースとして利用可能であるように、有線導線または無線コネクティビティ158、160等によって、ローカル処理およびデータモジュール150に動作可能に結合される、遠隔処理モジュール154および遠隔データリポジトリ156を備える。
ローカル処理およびデータモジュール150は、電力効率的プロセッサまたはコントローラと、フラッシュメモリ等のデジタルメモリとを備えてもよく、両方とも、可能性として、処理または読出後、ディスプレイサブシステム102への通過のために、センサから捕捉された、および/または遠隔処理モジュール1544および/または遠隔データリポジトリ156を使用して入手および/または処理されたデータの処理、キャッシュ、および記憶を補助するために利用されてもよい。遠隔処理モジュール154は、データおよび/または画像情報を分析および処理するように構成される、1つ以上の比較的に強力なプロセッサまたはコントローラを備えてもよい。遠隔データリポジトリ156は、比較的に大規模デジタルデータ記憶設備を備えてもよく、これは、インターネットまたは「クラウド」リソース構成における他のネットワーキング構成を通して利用可能であってもよい。一実施形態では、全てのデータは、記憶され、全ての算出は、ローカル処理およびデータモジュール150内で実施され、任意の遠隔モジュールから完全に自律的使用を可能にする。
上記に説明される種々のコンポーネント間の結合152、158、160は、有線または光学通信を提供するための1つ以上の有線インターフェースまたはポート、または無線通信を提供するためのRF、マイクロ波、およびIR等を介した1つ以上の無線インターフェースまたはポートを含んでもよい。いくつかの実装では、全ての通信は、有線であってもよい一方、他の実装では、全ての通信は、ディスプレイサブシステム102内で使用される光ファイバを除き、無線であってもよい。なおもさらなる実装では、有線および無線通信の選択肢は、図10a〜10dに図示されるものと異なり得る。したがって、有線または無線通信の特定の選択肢は、限定と見なされるべきではない。
図示される実施形態では、ディスプレイサブシステム102の光源および駆動電子機器(図示せず)、オブジェクト追跡サブシステム120およびオブジェクト選択デバイス110の処理コンポーネント、およびオーディオプロセッサ128のDSPは、ローカル処理およびデータモジュール150内に含有されてもよい。ビデオプロセッサ126のGPUおよびビデオプロセッサ126およびオーディオプロセッサ128のCPUは、遠隔処理モジュール154内に含有されてもよいが、代替実施形態では、これらのコンポーネントまたはその一部は、ローカル処理およびデータモジュール150内に含有されてもよい。3次元データベース124およびメモリ130は、遠隔データリポジトリ156と関連付けられることができる。
図3に図示されるオーディオプロセッサ128は、エンドユーザ50によって選択された仮想および実オブジェクトからのオーディオデータを処理および記録することにおいてさらに詳細に説明されるであろう。図11に示される例示的シナリオでは、エンドユーザ50(例えば、両親)が、仮想ドラマーV2オブジェクトと、実際のボーカルR2、例えば、子供と、仮想ギタリストV3と、仮想ベーシストV4とを含む、4人組バンドからの音を記録することを所望し、仮想テレビからの音を記録せずに、仮想テレビV1上のニュースまたはスポーツを監視することを所望し、さらに、例えば、誰かが料理をしている実際の台所R1からの音を記録することを所望していないとする。
図12に図示される実施形態では、オーディオプロセッサ128の機能は、仮想オブジェクトから生じるオーディオを処理する、CPU180と、実オブジェクトから生じるオーディオを処理する、DSP182との間に分散される。CPU180は、個々の仮想オブジェクトV1−Vnに対応する空間化オーディオデータEFX−V1〜EFX−Vnを生成するために構成される、1つ以上の特殊効果モジュール184(この場合、特殊効果モジュール1−n)を備える。この目的を達成するために、特殊効果モジュール184は、仮想オブジェクトV1−Vnに対応するオーディオコンテンツデータAUD−V1〜AUD−Vnおよび絶対メタデータMD−V1〜MD−Vnを3Dデータベース124から、および頭部姿勢データを頭部/オブジェクト追跡サブシステム120から入手し、頭部姿勢データに基づいて、絶対メタデータMD−V1〜MD−Vnをエンドユーザ50の頭部54に対して局所化し、局所的メタデータ(例えば、位置、配向、および音量データ)をオーディオコンテンツデータに適用し、仮想オブジェクトV1−Vnのための空間化オーディオデータを生成する。
CPU180はさらに、個別の特殊効果モジュール184から受信された空間化オーディオデータEFX−V1〜EFX−Vnを混合し、混合されたオーディオデータEFXを取得するために構成される、ミキサ186と、大域的メタデータMD−OUT(例えば、大域的音量)を混合された空間化オーディオデータに適用し、複数の音チャネルを通してスピーカ108に出力される、最終空間化オーディオAUD−OUT EFXを取得するために構成される、大域的特殊効果モジュール188とを備える。
重要なこととして、特殊効果モジュール184は、メモリ130(図2に示される)内への記憶のために、オブジェクト選択デバイス110を介してエンドユーザ50によって選択された仮想オブジェクトから生じるオーディオコンテンツデータと、これらの選択された仮想オブジェクトに対応するメタデータ(局所的および/または絶対)とをレコーダ132に送信するために構成され、大域的特殊効果モジュール188は、メモリ130内への記憶のために、大域的メタデータMD−OUTをレコーダ132に送信するために構成される。例示的実施形態では、仮想オーディオコンテンツデータAUD−V2(すなわち、仮想ドラマー)、AUD−V3(すなわち、仮想ギタリスト)、AUD−V4(すなわち、仮想ベーシスト)は、記録のために選択される一方、オーディオコンテンツデータAUD−V1(すなわち、仮想テレビ)は、記録のために選択されない。したがって、オーディオコンテンツデータAUD−V2、AUD−V3、およびAUD−V4および対応する局所的メタデータMD−V2、MD−V3、およびMD−V4は、図13に示されるように、メモリ130内に記憶される。
代替実施形態では、選択された仮想オブジェクトからのオーディオコンテンツデータおよび対応する局所的/絶対メタデータおよび大域的メタデータをメモリ130内に個々に記憶する代わりに、またはそれに加え、CPU180は、加えて、選択された仮想オブジェクトAUD−V2、AUD−V3、およびAUD−V4のみに対応する空間化オーディオデータEFX−V2、EFX−V3、EFX−V4を混合し、大域的メタデータMD−OUTを本混合された空間化オーディオデータに適用し、選択された仮想オブジェクトAUD−V2、AUD−V3、およびAUD−V4からのみのオーディオを含む、空間化オーディオを取得することによって生成される、空間化オーディオを出力する。しかしながら、この場合、付加的オーディオ混合機能が、CPU180の中に組み込まれる必要があるであろう。
DSP182は、特定の方向から、この場合、オブジェクト選択デバイス110を介して、エンドユーザ50によって選択された各実オブジェクトの方向から、マイクロホンアセンブリ116によって受信された音を優先的に表す、マイクロホンアセンブリ116から入手されたオーディオ信号を処理し、オーディオ信号を出力するために構成される。実オブジェクトの位置および/または配向は、エンドユーザ50の頭部54に対して移動し得るため、実オブジェクト追跡データは、エンドユーザ50の頭部54に対する実オブジェクトの位置および/または配向の任意の変化が考慮され得、DSP182が、オーディオ出力を動的に修正し、比較的に移動する実オブジェクトの方向からマイクロホンアセンブリ116によって受信された音を優先的に表し得るように、頭部/オブジェクト追跡サブシステム120から受信されてもよい。例えば、実オブジェクトが選択されたとき、エンドユーザ50が、その頭部54を頭部54の配向に対して反時計回りに90度移動させる場合、DSP182から出力されたオーディオの優先的方向は、時計回りに90度動的に偏移されることができる。
図14を参照すると、マイクロホンアセンブリ116のマイクロホン要素118は、それぞれ、周囲音信号を検出し、オーディオ信号に変換するために構成される、マイクロホン要素の位相アレイ(この場合、マイクロホン要素M1〜Mn)の形態をとる。図示される実施形態では、マイクロホン要素118は、性質上、デジタルであって、したがって、周囲音信号をデジタルオーディオ信号、この場合、パルス密度変調(PDM)信号に変換する。好ましくは、マイクロホン要素118は、相互から離間され、オーディオ出力の指向性を最大限にする。例えば、図2に示されるように、マイクロホン要素118のうちの2つが、フレーム構造106の各アームに搭載されてもよいが、4つ等の2つを上回るマイクロホン要素118が、フレーム構造106の各アームに搭載されてもよい。代替として、フレーム構造106は、マイクロホン要素118がフレーム構造106の正面および背面上に搭載され得るように、設計されてもよい。このように、マイクロホン要素118のアレイは、エンドユーザ50の頭部54を包囲し、音の潜在的源の全ての方向を網羅し得る。
マイクロホンアセンブリ116はさらに、それぞれ、個別のデジタルオーディオ信号を対応するマイクロホン要素118から受信し、「デシメーション」と称されるデジタルフィルタ動作を実施し、デジタルオーディオ信号をPDMフォーマットからより容易に操作可能なパルスコード変調(PCM)に変換するために構成される、複数のデジタルマイクロホンインターフェース(DMIC)190(この場合、マイクロホン要素M毎に1つずつのDMIC1〜DMICn)を備える。DMIC190はそれぞれまた、固定利得制御をデジタルオーディオ信号上で実施する。
DSP182は、それぞれ、マイクロホンアセンブリ116によって出力されるデジタルオーディオ信号を処理し、選択された実オブジェクト(R1〜Rmのうちの1つ)の方向にマイクロホンアセンブリ116によって受信された音を優先的に表す、指向性オーディオ信号AUD−R(指向性オーディオ信号AUD−R1〜AUD−Rmのうちの1つ)を出力するために構成される、複数のオーディオ処理モジュール200を備える。個別のオーディオ処理モジュール200によって出力される指向性オーディオ信号AUD−R1〜AUD−Rmは、指向性オーディオ出力AUD−OUT MICの中に組み合わせられ、これは、全ての選択された実オブジェクトから生じる音を優先的に表す。図示される実施形態では、DSP182は、オブジェクト選択デバイス110を介してエンドユーザ50によって選択された実オブジェクト毎に、オーディオ処理モジュール200の1つのインスタンスを作成する。
この目的を達成するために、オーディオ処理モジュール200はそれぞれ、複数の遅延要素194(この場合、マイクロホン要素M毎に1つずつの遅延要素D1〜Dn)、複数の利得要素196(この場合、マイクロホン要素M毎に1つずつの利得要素G1〜Gn)、および総和器198の形態における、処理パラメータを備える。遅延要素194は、それぞれ、遅延係数をマイクロホンアセンブリ116の対応する利得増幅器192から受信された増幅されたデジタル信号に適用し、利得要素196は、それぞれ、利得係数を遅延されたデジタル信号に適用する。総和器198(S)は、利得調節および遅延された信号を加算し、それぞれ、個別の指向性オーディオ信号AUD−Rを生成する。
マイクロホン要素118は、空間的に配列され、各オーディオ処理モジュール200の遅延要素194および利得要素196は、指向性極性パターンに従って周囲音の受信をもたらす様式において、マイクロホンアセンブリ116から受信されたデジタルオーディオ信号に適用される(すなわち、特定の角度方向または複数の方向から到着した音は、他の角度方向から到着した音より強調されるであろう)。DSP182は、遅延要素194の遅延係数および利得要素196の利得係数を変化させることによって、指向性オーディオ信号AUD−R1〜AUD−Rm、したがって、組み合わせられた指向性オーディオ出力AUD−OUT MICの指向性を修正するために構成される。
したがって、オーディオ出力AUD−OUT MICの指向性は、選択された実オブジェクトに基づいて修正される、例えば、音が優先的に受信される方向または複数の方向は、選択された実オブジェクトまたは源の方向に沿って設定されてもよいことが理解され得る。
例えば、図15aを参照すると、それぞれ、2つの特定の方向DおよびDに沿った2つの実オブジェクトRおよびRが、選択される場合、DSP182は、オーディオ処理モジュール200の2つのインスタンスを生成し、これらのオーディオ処理モジュール200のそれぞれ内において、実オブジェクトRおよびRの方向DおよびDと整合される2つのローブを有する、受信利得パターンが、生成されるように、各オーディオ処理モジュール200内の遅延要素194および利得要素196の全てのための個別の遅延係数および利得係数を選択するであろう。エンドユーザ50の頭部54に対する実オブジェクトRおよびRの配向が、変化する場合、実オブジェクトRおよびRの特定の方向は、変化し得、その場合、DSP182は、受信利得パターンが、図15bに図示されるように、方向DおよびDと整合される2つのローブを有するように、各オーディオ処理モジュール200内の遅延要素194および利得要素196の全てのための異なる遅延係数および利得係数を選択してもよい。
オーディオ出力AUD−OUT MICの指向性のそのような動的修正を促進するために、遅延/利得値の異なるセットおよび対応する優先的方向が、DSP182によるアクセスのために、メモリ130内に記憶されてもよい。すなわち、DSP182は、各選択された実オブジェクトRの方向とメモリ130内に記憶される最も近い指向性値を合致させ、その選択された方向のための遅延/利得係数の対応するセットを選択する。
マイクロホン要素118は、デジタルとして説明されるが、マイクロホン要素118は、代替として、アナログであってもよいことに留意されたい。さらに、遅延要素194、利得要素196、および総和器198は、DSP182内に常駐するソフトウェアコンポーネントとして開示および図示されるが、遅延要素194、利得要素196、および総和器198のうちの任意の1つ以上のものは、DSP182外に常駐するが、その制御下にある、アナログハードウェアコンポーネントを備えてもよい。しかしながら、ソフトウェアベースのオーディオ処理モジュール200の使用は、いくつかの明確に異なる実オブジェクトからの音が、同時に、優先的に受信および処理されることを可能にする。
図12に戻って参照すると、DSP182はまた、音声データをユーザマイクロホン122から受信し、それと指向性オーディオ出力AUD−OUT MICを組み合わせる。随意の実施形態では、DSP182は、音響エコーキャンセル(AEC)および雑音抑制(NS)機能を仮想オブジェクトから生じるスピーカ108からの音に対して実施するために構成される。すなわち、マイクロホンアセンブリ116は、音が優先的に受信される方向がスピーカ108と一致し得ない場合でも、スピーカ108によって放出される音を感知し得る。この目的を達成するために、大域的特殊効果モジュール188によってスピーカ108に出力される空間化オーディオデータはまた、DSP182の中に入力され、これは、空間化オーディオデータを使用して、スピーカ108によってマイクロホンアセンブリ116に出力される結果として生じる音(雑音と見なされる)を抑制し、スピーカ108からマイクロホンアセンブリ116へのフィードバックから生じる任意のエコーをキャンセルする。
重要なこととして、DSP182はさらに、オーディオコンテンツデータとしてのメモリ130(図2に示される)内への記憶のために、指向性オーディオ出力AUD−OUT MICおよび局所的メタデータ(例えば、指向性オーディオ出力AUD−OUT MICが生じた実オブジェクトの場所および配向)をレコーダ132に送信するために構成される。図11に図示される例示的実施形態では、局所的メタデータは、実オブジェクトAUD−R2(すなわち、実際のボーカル)に対応する。したがって、指向性オーディオ出力AUD−OUT MIC(実オブジェクトAUD−R2に優先的に対応する)および対応する局所的メタデータMD−R2は、図13に示されるように、メモリ130内に記憶される。
随意の実施形態では、指向性オーディオ出力AUD−OUT MIC(空間化されてもよい)は、エンドユーザ50への再生のために、スピーカ108または他のスピーカの中に入力されてもよい。指向性オーディオ出力AUD−OUT MICは、音の明確性または現実性に影響を及ぼすように、音が実オブジェクトの場所から生じるように、仮想源から生じる空間化オーディオデータがエンドユーザ50に現れるものと同一様式で空間化されてもよい。すなわち、局所的メタデータ(例えば、指向性オーディオ出力AUD−OUT MICが優先的に生じた実オブジェクトの場所および配向)は、指向性オーディオ出力AUD−OUT MICに適用され、空間化オーディオデータを取得してもよい。
別の随意の実施形態では、実オブジェクトまたはさらにエンドユーザ50によって選択された仮想オブジェクトから生じる音は、プロファイル化されてもよい。特に、DSP182は、標的音のタイプを決定するために、選択されたオブジェクトからの音の特性と他の実オブジェクトから生じる音の特性を分析および比較してもよい。DSP182は、次いで、所望に応じて、レコーダ132によってメモリ130(図2に示される)の中に記録するために、これらの実オブジェクトから生じる全てのオーディオデータを指向性オーディオ出力AUD−OUT MIC内に含めることができる。例えば、エンドユーザ50が、音楽オブジェクト(AUD−V2、AUD−V3、AUD−V4、AUD−R2)のいずれかを選択した場合、DSP182は、マイクロホンアセンブリ116を制御し、全ての音楽実オブジェクトを優先的に感知することができる。
図示される実施形態では、DSP182は、エンドユーザ50によって選択された実オブジェクト198が、ディスプレイサブシステム102の視野外に移動した場合でも(頭部/オブジェクト追跡サブシステム120から受信された実オブジェクト追跡データによって示されるように)、メモリ130内への記録のために、指向性オーディオ出力AUD−OUT MICをレコーダ130に出力することを継続する。代替実施形態では、DSP182は、エンドユーザ50によって選択された実オブジェクト198が、ディスプレイサブシステム102の視野外に移動するとすぐに、メモリ130内への記録のために指向性オーディオ出力AUD−OUT MICをレコーダ130に出力することを中止し、エンドユーザ50によって選択された実オブジェクト198が、ディスプレイサブシステム102の視野の中に戻るとすぐに、メモリ130内への記録のために指向性オーディオ出力AUD−OUT MICをレコーダ130に出力することを再開する。
オーディオプロセッサ128(図示される実施形態では、CPU180およびDSP182)が、メモリ130内への記憶のために、選択された仮想オブジェクトおよび実オブジェクトから生じるオーディオコンテンツデータ(例示的場合では、オーディオコンテンツデータAUD−V2、AUD−V3、およびAUD−V4、およびAUD−MIC)および局所的メタデータ(例示的場合では、MD−V2、MD−V3、MD−V4、およびMD−R2)および大域的メタデータ(MD−OUT)をレコーダ132に送信するものと同様に、ビデオプロセッサ126は、図13に図示されるように、仮想オブジェクトおよび実オブジェクトから生じるビデオコンテンツデータ(例示的場合では、ビデオコンテンツデータVID−V2、VID−V3、VID−V4、およびVID−R2)を送信してもよい。仮想オブジェクトの場合、ビデオプロセッサ126は、単に、さらなる処理を伴わずに、仮想オブジェクトを3Dデータベース124から入手し、メモリ130内への記憶のために、これらの仮想オブジェクトをレコーダ132に送信する。実オブジェクトの場合、ビデオプロセッサ126は、選択された実オブジェクトのいずれかをカメラ112から入手されたビデオから抽出または「切り取り」、これらの実オブジェクトを仮想オブジェクトとしてメモリ130内に記憶してもよい。図11に図示される例示的場合では、実際のボーカルR2のためのビデオは、仮想オブジェクトVID−R2として記録されてもよい。随意の実施形態では、ビデオプロセッサ126は、メモリ130内への記憶のために、カメラ112から入手されたビデオ全体(選択されていない仮想および実オブジェクトに対応するビデオを含む)をレコーダ132に送信する。
プレーヤ134は、メモリ130内に記録されたビデオおよび/またはオーディオを、ビデオ/オーディオを記録したオリジナルエンドユーザ50またはサードパーティユーザであり得る、再生ユーザ50’(図16aに示される)に再生するために構成される。オーディオ/ビデオは、再生ユーザ50’によって与えられるコマンド、例えば、ユーザマイクロホン122を介した音声コマンドに応答して、プレーヤ134によって選択的に再生されてもよい。例えば、再生ユーザ50’は、「仮想オーディオオン/オフ」コマンドを使用して、仮想オーディオ再生をオンまたはオフにする、または「ディスプレイオン/オフ」コマンドを使用して、仮想ビデオ再生をオンまたはオフにする、または「実オーディオオン/オフ」コマンドを使用して、実オーディオ再生をオンまたはオフにしてもよい。
図示される実施形態では、オーディオプロセッサ128は、オーディオコンテンツデータおよびメタデータ(選択された仮想および実オブジェクトに対応する)をメモリ130から読み出し、オーディオコンテンツデータおよびメタデータからの空間化オーディオをレンダリングし、再生スピーカ108を介したユーザ50’への再生のために、空間化オーディオをプレーヤ134に伝達する。混合空間化オーディオデータ(コンテンツおよびメタデータの代わりに)が記憶される、代替実施形態では、プレーヤ134は、単に、オーディオデータを再レンダリングせずに、または別様にさらに処理せずに、再生ユーザ50’に再生するために、オーディオデータをメモリ130から入手してもよい。
さらに、図示される実施形態では、ビデオプロセッサ126は、ビデオコンテンツデータおよびメタデータ(選択された仮想および実オブジェクトに対応する)を読み出し、ビデオコンテンツデータおよびメタデータからのビデオをレンダリングし、スピーカ108を介したオーディオの再生と同期したディスプレイサブシステム102を介した再生ユーザ50’への再生のために、ビデオをプレーヤ134に伝達する。随意に、カメラ112によって捕捉されたビデオデータの全てが記憶される場合、プレーヤ134は、単に、ビデオデータをレンダリングせずに、または別様にさらに処理せずに、再生ユーザ50’に再生するために、ビデオデータをメモリ130から入手してもよい。拡張現実システム10は、再生ユーザ50’に、選択された仮想および実オブジェクトに対応するビデオのみの再生またはカメラ112によって捕捉されたビデオ全体の再生のいずれかのオプションを提供してもよい。
一実施形態では、再生ユーザ50’の現在の頭部姿勢は、ビデオ/オーディオの再生の間、考慮されない。代わりに、ビデオ/オーディオは、ビデオ/オーディオデータの記録の間に元々検出された頭部姿勢を使用して、再生ユーザ50’に再生され、これは、オーディオ/ビデオコンテンツデータとともにメモリ130内に記憶される局所的メタデータ内に反映されるであろう、または混合空間化オーディオが、メタデータを伴わずに記録される場合、頭部姿勢は、メモリ130内に記憶される混合空間化オーディオ内に反映されるであろう。この場合、再生ユーザ50’は、オリジナルエンドユーザ50がビデオ/オーディオを体験したものと同一様式において、ビデオ/オーディオを体験するであろうが、但し、オリジナルエンドユーザ50によって選択された仮想および実オブジェクトから生じるオーディオのみおよび随意にビデオのみが、再生されるであろう。この場合、再生ユーザ50’は、再生ユーザ50’の頭部姿勢が考慮されるであろうため、拡張現実に没入し得ない。むしろ、再生ユーザ50’は、ヘッドセットを使用して、オーディオ再生を体験してもよい(したがって、オーディオは、環境によって影響されないであろう)、または再生ユーザ50’は、静かな部屋内でオーディオ再生を体験してもよい。
代替実施形態では、再生ユーザ50’の現在の頭部姿勢は、ビデオ/オーディオの再生の間、考慮されてもよい。この場合、ビデオ/オーディオの記録の間の再生ユーザ50’の頭部姿勢は、再生の間に検出された再生ユーザ50’の現在の頭部姿勢が、ビデオ/オーディオデータを再レンダリングするために使用されるであろうため、ビデオ/オーディオコンテンツデータとともにメモリ130内に記憶されるメタデータの中に組み込まれる必要はない。代わりに、メモリ130内に記憶される絶対メタデータ(例えば、3D場面内のこれらの仮想オブジェクトの音量および絶対位置および配向、および仮想源の近傍の任意の仮想または実オブジェクトを含む、各仮想オブジェクトを囲繞する空間音響、部屋寸法、壁/床材料等)が、再生ユーザ50’の現在の頭部姿勢を使用して、再生ユーザ50’の頭部姿勢に対して局所化され、次いで、オーディオ/ビデオをレンダリングするために使用されるであろう。したがって、再生ユーザ50’は、ビデオ/オーディオの再生の間、拡張現実に没入するであろう。
再生ユーザ50’は、ビデオ/オーディオが記録された(例えば、「同一物理的部屋」)オリジナル空間環境内で拡張現実を体験してもよい、または新しい物理的または仮想空間環境(例えば、「異なる物理的または仮想部屋」)内で拡張現実を体験してもよい。
拡張現実が、ビデオ/オーディオが記録されたオリジナル空間環境内で再生ユーザ50’によって体験される場合、選択されたオブジェクトと関連付けられた絶対メタデータは、空間化オーディオの正確な再生のために修正される必要はない。対照的に、拡張現実が、新しい空間環境内で再生ユーザ50’によって体験される場合、オブジェクトと関連付けられた絶対メタデータは、新しい空間環境内でのオーディオ/ビデオの正確なレンダリングのために修正される必要があり得る。
例えば、例示的実施形態では、仮想オブジェクトAUD−V2(すなわち、仮想ドラマー)、AUD−V3(すなわち、仮想ギタリスト)、AUD−V4(すなわち、仮想ベーシスト)、および実オブジェクト(すなわち、実際のボーカル)からのオーディオ/ビデオコンテンツは、図16aに図示されるように、小部屋250内で記録されてもよい。仮想オブジェクトAUD−V2(すなわち、仮想ドラマー)、AUD−V3(すなわち、仮想ギタリスト)、AUD−V4(すなわち、仮想ベーシスト)、および実オブジェクト(すなわち、実際のボーカル)から以前に記録されたオーディオは、図16bに図示されるように、コンサートホール252で再生されてもよい。拡張現実システム10は、オブジェクトをコンサートホール252内の任意の場所に再位置付けしてもよく、コンサートホール252内の各オブジェクトの新しい位置およびコンサートホール252内の各オブジェクトを囲繞する空間音響を含む、絶対メタデータが、生成または別様に入手されてもよい。本絶対メタデータは、次いで、再生ユーザ50’の現在の頭部姿勢を使用して、局所化され、次いで、再生ユーザ50’への再生のために、オーディオおよびビデオをコンサートホール252内にレンダリングするために使用されることができる。
拡張現実システム100の配列および機能を説明したので、拡張現実システム100を使用して、少なくとも1つのオブジェクトを選択し、これらの選択されたオブジェクトからのオーディオおよびビデオを記録する1つの方法300が、ここで、図17に関して説明されるであろう。
最初に、エンドユーザ50が、オブジェクト選択デバイス110を介して、空間環境内の少なくとも1つのオブジェクト(例えば、実際および/または仮想)を持続的に選択する(ステップ302)。オブジェクトは、例えば、3次元カーソル62(図5に示される)をエンドユーザ50の視野60内で移動させ、3次元カーソル62を用いて、オブジェクトを選択することによって、エンドユーザ50の視野60内で選択されることができる。または、オブジェクトは、手のジェスチャ(図6または7に示される)を使用して、または音声コマンドを使用して、選択されることができる。複数のオブジェクトは、個々に選択されてもよい、または、例えば、線64をオブジェクトの周囲に引くことによって(図8に示される)、またはエンドユーザ50の視野60の角度範囲66(エンドユーザ50の視野60の角度範囲全体未満であってもよい)(図9に示される)を定義し、エンドユーザ50の視野60の定義された角度範囲66内のオブジェクトの全てを選択することによって、大域的に選択されてもよい。
次に、空間環境内の全ての仮想オブジェクトのためのオーディオおよびビデオコンテンツ、および仮想オブジェクトと関連付けられた絶対メタデータが、入手される(ステップ304)。次に、エンドユーザ50の現在の頭部姿勢が、追跡され(ステップ306)、絶対メタデータが、現在の頭部姿勢データを使用して、エンドユーザ50の頭部54に対して局所化され(ステップ308)、仮想オブジェクトのオーディオおよびビデオコンテンツに適用され、個別の仮想オブジェクトの全てのためのビデオデータおよび空間化オーディオデータを取得する(ステップ310)。3D場面内の個別の仮想オブジェクトの全てのための空間化オーディオデータは、混合され(ステップ312)、大域的メタデータは、混合空間化オーディオデータに適用され、3D場面内の全ての仮想オブジェクトのための最終空間化オーディオを取得し(ステップ314)、これは、次いで、エンドユーザ50による知覚のための音に変換される(ステップ316)。次に、ステップ310において取得されたビデオデータは、エンドユーザ50による知覚のための画像フレームに変換される(ステップ318)。次に、ステップ302においてエンドユーザ50によって選択された全ての仮想オブジェクトのためのオーディオ/ビデオコンテンツおよび全ての関連付けられたメタデータ(絶対および局所的メタデータの両方)が、記録される(ステップ320)。
ステップ304〜320と並行して、エンドユーザ50の頭部54に対する選択された実オブジェクトの位置および/または配向が、追跡され(ステップ322)、選択された実オブジェクトから生じる音は、実オブジェクトの追跡された位置および配向に基づいて、優先的に感知される(ステップ324)。次に、選択された実オブジェクトの画像が、捕捉され(ステップ326)、随意に、仮想ビデオコンテンツに変換される。次に、選択された実オブジェクトからの優先的に感知された音と関連付けられたオーディオコンテンツおよび選択された実オブジェクトの捕捉された画像と関連付けられたビデオコンテンツ、および選択された実オブジェクト毎の全ての関連付けられたメタデータ(実オブジェクトの場所および配向)が、記録される(ステップ328)。
再生ユーザ50’のために、拡張現実システム100を使用して、少なくとも1つのオブジェクトの以前に記録されたオーディオおよびビデオを再生する1つの方法400が、ここで、図18に関して説明されるであろう。そのようなオーディオおよびビデオは、上記の図17の方法300に説明される様式において、オーディオコンテンツデータおよびビデオコンテンツデータとして事前に記録されていてもよい。オブジェクトは、実際および/または仮想のものであってもよく、エンドユーザ50によって持続的に選択されていてもよい。例示的方法400では、オーディオおよびビデオは、図16aおよび16bに関して説明されるように、小部屋250等のオリジナル空間環境内で事前に記録され、コンサートホール252等のオリジナル空間環境と異なる新しい空間環境内で再生されてもよい。
最初に、以前に記録されたオーディオコンテンツデータおよびビデオコンテンツデータが、入手される(ステップ402)。新しい空間環境が、少なくとも部分的に仮想である場合、新しい空間環境と関連付けられた付加的仮想コンテンツ(オーディオまたはビデオのいずれか)もまた、入手されてもよい。次いで、オブジェクトは、新しい空間環境内に再位置付けられ、これは、再生ユーザ50’からの入力に応答してもよい(ステップ404)。次いで、新しい空間環境内に位置付けられるオブジェクトに対応する絶対メタデータが、入手され(ステップ406)、再生ユーザ50’の頭部姿勢が、新しい空間環境内で追跡され(ステップ408)、絶対メタデータが、再生ユーザ50’の追跡された頭部姿勢に基づいて、再生ユーザ50’に対して局所化される(ステップ410)。次に、オーディオおよびビデオが、新しい空間環境内の局所的メタデータに基づいて、読み出されたオーディオコンテンツデータおよびビデオコンテンツデータからレンダリングされる(ステップ412)。レンダリングされたオーディオおよびビデオは、次いで、再生ユーザ50’による同期知覚のために、それぞれ、音および画像フレームに変換される(ステップ414)。
前述の明細書では、本発明は、その具体的実施形態を参照して説明された。しかしながら、種々の修正および変更が、本発明のより広義の精神および範囲から逸脱することなく、そこに成されてもよいことは、明白であろう。例えば、上記に説明されるプロセスフローは、プロセスアクションの特定の順序を参照して説明されている。しかしながら、説明されるプロセスアクションの多くの順序は、本発明の範囲または動作に影響を及ぼすことなく、変更されてもよい。明細書および図面は、故に、限定的意味ではなく、例証的意味と見なされるべきである。

Claims (30)

  1. ユーザによる使用のための仮想画像生成システムであって、
    メモリと、
    ディスプレイサブシステムと、
    オブジェクト選択デバイスであって、前記オブジェクト選択デバイスは、入力を前記ユーザから受信し、前記ユーザ入力に応答して、3次元場面内の複数のオブジェクトから少なくとも1つのオブジェクトを選択するために構成され、前記少なくとも1つの選択されたオブジェクトは、実オブジェクトを含む、オブジェクト選択デバイスと、
    制御サブシステムであって、前記制御サブシステムは、少なくとも、
    オーディオ捕捉デバイスを用いて、前記複数のオブジェクトのうちの少なくとも1つの選択されていないオブジェクトよりも前記少なくとも1つの選択されたオブジェクトから出るオーディオデータを優先的に入手することと、
    少なくとも、第2のメタデータに少なくとも部分的に基づいて第1のメタデータを前記ユーザに対して局所化することによって、前記オーディオデータから空間化オーディオをレンダリングすることであって、前記第1のメタデータは、前記ユーザに対して局所化されて第1の局所化メタデータになり、少なくとも1つの選択されたオブジェクトと関連付けられ、前記仮想画像生成システムによってまたは前記オーディオ捕捉デバイスを有する異なる仮想画像生成システムによって前記オーディオデータとともに生成され、前記第2のメタデータは、前記ユーザのための、前記仮想画像生成システムによって検出される位置特性または配向特性に関連する、ことと、
    前記第1のメタデータと前記第2のメタデータとに少なくとも部分的に基づいて、レンダリングされた前記空間化オーディオと、前記ユーザに同期する前記少なくとも1つの選択されたオブジェクトを表す少なくとも1つの仮想オブジェクトとを提示することと
    のために構成される、制御サブシステムと
    を備える、仮想画像生成システム。
  2. 少なくとも画像捕捉デバイスを用いて、前記少なくとも1つの選択されたオブジェクトのための画像データを入手することと、
    少なくとも、前記第2のメタデータに部分的にまたは全体的に基づいて前記ユーザに対して前記第1のメタデータを局所化することによって、前記少なくとも1つの選択されたオブジェクトを3次元場面内の前記仮想オブジェクトとして表す、前記少なくとも1つの選択されたオブジェクトの前記画像データを複数の画像フレームとしてレンダリングすることと
    をさらに含み、
    前記第1のメタデータは、前記第2のメタデータに部分的にまたは全体的に基づいて局所化されて前記第1の局所化メタデータになり、前記仮想画像生成システムによってまたは前記画像捕捉デバイスを有する異なる仮想画像生成システムによって検出される異なる位置特性または配向特性に関連する、請求項1に記載の仮想画像生成システム。
  3. 前記空間化オーディオおよび前記画像データは、前記空間化オーディオおよび前記仮想オブジェクトが生成される空間環境と異なる空間環境において、少なくとも、前記異なる空間環境において前記少なくとも1つの選択されたオブジェクトを再位置付けされたオブジェクトとして再位置付けすることによって、再生される、請求項2に記載の仮想画像生成システム。
  4. 前記空間化オーディオおよび前記画像データは、さらに少なくとも、前記再位置付けされたオブジェクトに対応する絶対メタデータを入手することによって、異なる空間環境において再生される、請求項3に記載の仮想画像生成システム。
  5. 前記空間化オーディオおよび前記画像データは、さらに少なくとも、前記絶対メタデータを局所化して局所化絶対メタデータになることによって、異なる空間環境において再生され、前記絶対メタデータは、前記少なくとも1つの選択されたオブジェクトに、再生ユーザに対応する、請求項4に記載の仮想画像生成システム。
  6. 前記空間化オーディオおよび前記画像データは、さらに少なくとも、前記局所化絶対メタデータに少なくとも部分的に基づいて前記空間化オーディオおよび前記画像データをレンダリングすることによって、異なる空間環境において再生される、請求項に記載の仮想画像生成システム。
  7. 前記ユーザの頭部姿勢を追跡する1つ以上のセンサをさらに備え、前記ユーザの前記頭部姿勢は、前記第1のメタデータおよび前記オーディオデータに沿って、前記第2のメタデータとしてデータベース内に記憶され、前記少なくとも1つの選択されたオブジェクトに対応する前記第1のメタデータは、前記ユーザの前記頭部姿勢を備える前記第2のメタデータに少なくとも部分的に基づいて前記ユーザに前記空間化オーディオをレンダリングするためにおよび前記画像データをレンダリングするために前記ユーザに対して局所化される、請求項2に記載の仮想画像生成システム。
  8. ビデオプロセッサをさらに備え、前記ビデオプロセッサは、データベース内に記憶される前記少なくとも1つの選択されたオブジェクトの前記画像データを入手し、前記画像データを処理することなく前記画像データをレコーダに送信し、前記レコーダは、処理された画像を前記メモリ内に記憶し、前記ディスプレイサブシステムは、投影サブシステムおよび部分的に透明なディスプレイ表面を含み、前記投影サブシステムは、前記複数の画像フレームを前記部分的に透明なディスプレイ表面上へ投影し、前記部分的に透明なディスプレイ表面は、エンドユーザの眼と周囲環境との間の視野内に位置付けられるために構成される、請求項2に記載の仮想画像生成システム。
  9. ビデオプロセッサおよびフレーム構造をさらに備え、前記フレーム構造は、前記ユーザによって装着されるために、および、前記ディスプレイサブシステムの少なくとも一部を担持するために構成され、前記ビデオプロセッサは、前記画像捕捉デバイスによって捕捉されたビデオデータから前記少なくとも1つの選択されたオブジェクトの前記画像データを抽出し、前記ビデオデータから抽出された前記画像データを前記少なくとも1つの仮想オブジェクトとして前記メモリ内に記憶し、前記画像データをレコーダに送信し、前記レコーダは、前記画像データを前記少なくとも1つの仮想オブジェクトとしてデータベース内に記録する、請求項2に記載の仮想画像生成システム。
  10. 複数のスピーカをさらに備え、前記制御サブシステムは、前記空間化オーディオを前記複数のスピーカにさらに伝達する、請求項1に記載の仮想画像生成システム。
  11. 前記ディスプレイサブシステムは、視野を有し、前記オブジェクト選択デバイスは、前記ユーザ入力に応答して、前記視野内の前記少なくとも1つのオブジェクトを選択するための第1の命令を受信する、請求項1に記載の仮想画像生成システム。
  12. 前記オブジェクト選択デバイスは、前記ユーザ入力に応答して、3次元カーソルを前記ディスプレイサブシステムの前記視野内で移動させるための第2の命令を受信する、請求項11に記載の仮想画像生成システム。
  13. 前記ユーザ入力は、1つ以上の音声コマンドまたは1つ以上の手のジェスチャを含み、前記オブジェクト選択デバイスは、前記1つ以上の音声コマンドまたは前記1つ以上の手のジェスチャを捕捉する1つ以上のデバイスを備える、請求項1に記載の仮想画像生成システム。
  14. 前記仮想画像生成システムは、前記オーディオデータのタイプに少なくとも部分的に基づいて、前記少なくとも1つの選択されたオブジェクトをプロファイル化し、前記オーディオデータのタイプは、少なくとも、1つ以上の実オブジェクトからそれぞれ出る前記オーディオデータの1つ以上の特性に少なくとも部分的に基づいて前記オーディオデータの特性を分析することによって、決定される、請求項1に記載の仮想画像生成システム。
  15. 前記少なくとも1つのオブジェクトは、複数のオブジェクトを含み、前記オブジェクト選択デバイスは、前記複数のオブジェクトのうちの1つのオブジェクトを個々に選択する第1の機能を前記ユーザに提供し、前記ユーザ入力に応答する範囲内で前記複数のオブジェクトのうちの複数のオブジェクトを大域的に選択する第2の機能を前記ユーザに提供し、前記ディスプレイサブシステムによって前記ユーザに提供された視野は、前記範囲を備える、請求項1に記載の仮想画像生成システム。
  16. 前記オブジェクト選択デバイスは、前記ユーザから別の入力を受信し、前記別の入力に応答して、前記少なくとも1つの選択されたオブジェクトを選択解除する、請求項1に記載の仮想画像生成システム。
  17. 前記ディスプレイサブシステムによって前記ユーザに提供された視野に対する前記少なくとも1つの選択されたオブジェクトの場所を追跡する少なくとも1つのセンサをさらに備える、請求項1に記載の仮想画像生成システム。
  18. 前記制御サブシステムは、前記少なくとも1つのセンサによって追跡される前記少なくとも1つの選択されたオブジェクトの場所が、前記ディスプレイサブシステムによって前記ユーザに提供される前記視野外に移動すると、前記オーディオデータを前記メモリ内に記憶することを引き起こす、請求項17に記載の仮想画像生成システム。
  19. 前記制御サブシステムは、前記少なくとも1つのセンサによって追跡される前記少なくとも1つの選択されたオブジェクトの場所が、前記ディスプレイサブシステムによって前記ユーザに提供される前記視野外に移動すると、前記オーディオデータを前記メモリ内に記憶することを継続する、請求項17に記載の仮想画像生成システム。
  20. オーディオ捕捉デバイスは、指向性オーディオ出力を生成し、前記制御サブシステムは、前記少なくとも1つの選択されていないオブジェクトよりも前記少なくとも1つの選択されたオブジェクトの方向に、前記オーディオ捕捉デバイスによって受信された前記オーディオデータを優先的に表すように、前記指向性オーディオ出力をさらに修正し、前記空間化オーディオは、前記制御サブシステムによって修正された前記指向性オーディオ出力から導出される、請求項1に記載の仮想画像生成システム。
  21. 前記少なくとも1つの選択されたオブジェクトに関連する画像データを捕捉する1つ以上の画像捕捉デバイスをさらに備え、前記制御サブシステムは、前記オーディオデータと同期する前記画像データを前記メモリ内に記憶し、前記少なくとも1つの選択されたオブジェクトは、カーソルを使用することなく前記ユーザによって選択される、請求項1に記載の仮想画像生成システム。
  22. 前記制御サブシステムは、前記メモリ内に記憶された前記画像データを前記少なくとも1つの選択されたオブジェクトのための仮想コンテンツデータに変換し、前記仮想コンテンツデータを前記メモリ内にさらに記憶する、請求項21に記載の仮想画像生成システム。
  23. 前記少なくとも1つの選択されたオブジェクトは、前記仮想画像生成システムによってレンダリングされた仮想オブジェクトを含む、請求項1に記載の仮想画像生成システム。
  24. 複数の仮想オブジェクトによって生成された前記オーディオデータを記憶するデータベースをさらに備え、前記制御サブシステムは、選択されていない仮想オブジェクトよりも選択された仮想オブジェクトに対応する前記オーディオデータを前記データベースから優先的に入手するための命令を受信し、前記データベースは、前記仮想オブジェクトの説明を記憶し、前記データベースに記憶される前記仮想オブジェクトの前記説明は、前記ユーザによって表される前記仮想オブジェクトの口頭説明に合致される、請求項1に記載の仮想画像生成システム。
  25. 前記制御サブシステムは、前記少なくとも1つの選択されたオブジェクトに対応する前記第1のメタデータをさらに生成し、前記メモリ内に記憶される前記オーディオデータは、前記オーディオデータ内のコンテンツおよび前記第1のメタデータを含む、請求項1に記載の仮想画像生成システム。
  26. 前記第1のメタデータは、前記少なくとも1つの選択されたオブジェクトのための絶対位置および絶対配向に関するデータを含む、請求項1に記載の仮想画像生成システム。
  27. 少なくとも1つのスピーカをさらに備え、前記仮想画像生成システムは、前記空間化オーディオをレンダリングすることによって、前記少なくとも1つの選択されたオブジェクトのみから入手された前記オーディオデータを前記空間化オーディオにさらに変換し、前記オーディオデータを前記空間化オーディオに変換することは、前記メモリ内に記憶された前記オーディオデータを読み出すことと、前記メモリから読み出された前記オーディオデータから空間化オーディオを導出することと、前記空間化オーディオを前記少なくとも1つのスピーカに伝達することと、前記実オブジェクトから生じる音と前記空間化オーディオを混合することとを含む、請求項1に記載の仮想画像生成システム。
  28. レコーダをさらに備え、前記レコーダは、第1のオーディオデータを入手し、前記第1のオーディオデータは、前記空間化オーディオ、および、前記少なくとも1つの選択されたオブジェクトに対応する前記第1のメタデータまたは前記第2のメタデータを含み、前記レコーダは、第1のビデオデータをさらに入手し、前記第1のビデオデータは、前記第1のビデオデータの画像フレーム、および、少なくとも前記少なくとも1つの選択されたオブジェクトに関連する対応するメタデータを含み、前記レコーダは、異なるコンピューティングデバイス上のプレーヤにおける後続再生のために前記第1のオーディオデータおよび前記第1のビデオデータをさらに記憶する、請求項27に記載の仮想画像生成システム。
  29. 前記レコーダは、記録し、第1の仮想オブジェクトからの第1のオーディオおよび第1の実オブジェクトからの第2のオーディオを記録しないように構成され、前記空間化オーディオは、少なくとも、前記第1の局所化メタデータおよび大域的メタデータを前記ユーザのために前記オーディオデータに適用することによって、前記オーディオデータからレンダリングされる、請求項28に記載の仮想画像生成システム。
  30. 少なくとも、前記第2のメタデータに少なくとも部分的に基づいて前記ユーザに対して前記第1のメタデータではなく絶対メタデータを局所化することによって、前記仮想オブジェクトとして前記少なくとも1つの選択されたオブジェクトを表す複数の画像フレームとして、前記少なくとも1つの選択されたオブジェクトのための少なくとも画像捕捉デバイスによって入手された画像データをレンダリングすることをさらに含み、前記少なくとも1つの選択されたオブジェクトは、前記仮想画像生成システムの前記ユーザまたは前記異なる仮想画像生成システムの異なるユーザが注視する方向にかかわらず、持続的に選択されたままである、請求項1に記載の仮想画像生成システム。
JP2019546368A 2017-02-28 2018-02-27 複合現実デバイスにおける仮想および実オブジェクトの記録 Active JP6961007B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021167529A JP7275227B2 (ja) 2017-02-28 2021-10-12 複合現実デバイスにおける仮想および実オブジェクトの記録

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762464757P 2017-02-28 2017-02-28
US62/464,757 2017-02-28
PCT/US2018/020020 WO2018160593A1 (en) 2017-02-28 2018-02-27 Virtual and real object recording in mixed reality device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021167529A Division JP7275227B2 (ja) 2017-02-28 2021-10-12 複合現実デバイスにおける仮想および実オブジェクトの記録

Publications (3)

Publication Number Publication Date
JP2020509492A JP2020509492A (ja) 2020-03-26
JP2020509492A5 JP2020509492A5 (ja) 2021-04-08
JP6961007B2 true JP6961007B2 (ja) 2021-11-05

Family

ID=63246339

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019546368A Active JP6961007B2 (ja) 2017-02-28 2018-02-27 複合現実デバイスにおける仮想および実オブジェクトの記録
JP2021167529A Active JP7275227B2 (ja) 2017-02-28 2021-10-12 複合現実デバイスにおける仮想および実オブジェクトの記録
JP2023076101A Pending JP2023095956A (ja) 2017-02-28 2023-05-02 複合現実デバイスにおける仮想および実オブジェクトの記録

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2021167529A Active JP7275227B2 (ja) 2017-02-28 2021-10-12 複合現実デバイスにおける仮想および実オブジェクトの記録
JP2023076101A Pending JP2023095956A (ja) 2017-02-28 2023-05-02 複合現実デバイスにおける仮想および実オブジェクトの記録

Country Status (9)

Country Link
US (4) US10725729B2 (ja)
EP (2) EP3590097B1 (ja)
JP (3) JP6961007B2 (ja)
KR (4) KR102419065B1 (ja)
CN (1) CN110337318A (ja)
AU (2) AU2018227710B2 (ja)
CA (1) CA3052834A1 (ja)
IL (4) IL311069A (ja)
WO (1) WO2018160593A1 (ja)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11445305B2 (en) 2016-02-04 2022-09-13 Magic Leap, Inc. Technique for directing audio in augmented reality system
KR102419065B1 (ko) 2017-02-28 2022-07-07 매직 립, 인코포레이티드 혼합 현실 디바이스에서의 가상 및 실제 객체 레코딩
US11023109B2 (en) * 2017-06-30 2021-06-01 Microsoft Techniogy Licensing, LLC Annotation using a multi-device mixed interactivity system
US11019389B2 (en) * 2017-12-04 2021-05-25 Comcast Cable Communications, Llc Determination of enhanced viewing experiences based on viewer engagement
US10937240B2 (en) * 2018-01-04 2021-03-02 Intel Corporation Augmented reality bindings of physical objects and virtual objects
US10504274B2 (en) * 2018-01-05 2019-12-10 Microsoft Technology Licensing, Llc Fusing, texturing, and rendering views of dynamic three-dimensional models
GB2571572A (en) * 2018-03-02 2019-09-04 Nokia Technologies Oy Audio processing
US10497161B1 (en) * 2018-06-08 2019-12-03 Curious Company, LLC Information display by overlay on an object
US10818088B2 (en) 2018-07-10 2020-10-27 Curious Company, LLC Virtual barrier objects
US10902678B2 (en) 2018-09-06 2021-01-26 Curious Company, LLC Display of hidden information
US11068668B2 (en) * 2018-10-25 2021-07-20 Facebook Technologies, Llc Natural language translation in augmented reality(AR)
US20220021998A1 (en) * 2018-11-09 2022-01-20 Whoborn Inc. Method for generating sound and devices for performing same
US11055913B2 (en) 2018-12-04 2021-07-06 Curious Company, LLC Directional instructions in an hybrid reality system
US10970935B2 (en) 2018-12-21 2021-04-06 Curious Company, LLC Body pose message system
US20200285056A1 (en) * 2019-03-05 2020-09-10 Facebook Technologies, Llc Apparatus, systems, and methods for wearable head-mounted displays
US10872584B2 (en) 2019-03-14 2020-12-22 Curious Company, LLC Providing positional information using beacon devices
US10798292B1 (en) * 2019-05-31 2020-10-06 Microsoft Technology Licensing, Llc Techniques to set focus in camera in a mixed-reality environment with hand gesture interaction
US11533468B2 (en) 2019-06-27 2022-12-20 Samsung Electronics Co., Ltd. System and method for generating a mixed reality experience
KR20210014813A (ko) 2019-07-30 2021-02-10 삼성디스플레이 주식회사 표시장치
US10726631B1 (en) * 2019-08-03 2020-07-28 VIRNECT inc. Augmented reality system and method with frame region recording and reproduction technology based on object tracking
US11638111B2 (en) * 2019-11-01 2023-04-25 Meta Platforms Technologies, Llc Systems and methods for classifying beamformed signals for binaural audio playback
CN111273775A (zh) * 2020-01-16 2020-06-12 Oppo广东移动通信有限公司 增强现实眼镜、基于增强现实眼镜的ktv实现方法与介质
CN113452896B (zh) * 2020-03-26 2022-07-22 华为技术有限公司 一种图像显示方法和电子设备
US11830119B1 (en) * 2020-05-29 2023-11-28 Apple Inc. Modifying an environment based on sound
KR102508815B1 (ko) * 2020-11-24 2023-03-14 네이버 주식회사 오디오와 관련하여 사용자 맞춤형 현장감 실현을 위한 컴퓨터 시스템 및 그의 방법
US11930349B2 (en) 2020-11-24 2024-03-12 Naver Corporation Computer system for producing audio content for realizing customized being-there and method thereof
US11930348B2 (en) 2020-11-24 2024-03-12 Naver Corporation Computer system for realizing customized being-there in association with audio and method thereof
JP2022162409A (ja) * 2021-04-12 2022-10-24 キヤノン株式会社 電子機器及びその制御方法
US11868526B2 (en) * 2021-05-03 2024-01-09 Apple Inc. Method and device for debugging program execution and content playback
CN113359986B (zh) * 2021-06-03 2023-06-20 北京市商汤科技开发有限公司 增强现实数据展示方法、装置、电子设备及存储介质
US20230315383A1 (en) * 2022-04-04 2023-10-05 Snap Inc. Wearable device ar object voice-based interaction
US11531448B1 (en) * 2022-06-01 2022-12-20 VR-EDU, Inc. Hand control interfaces and methods in virtual reality environments
WO2024029803A1 (ko) * 2022-08-04 2024-02-08 삼성전자 주식회사 증강 현실에서 공간에 따라 오브젝트를 배치하는 전자 장치 및 전자 장치의 동작 방법.

Family Cites Families (101)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1005519A (en) 1911-04-24 1911-10-10 Curt O Dietsch Dispensing apparatus.
US1020604A (en) 1911-12-09 1912-03-19 Pinkie D Hooton Box-car-door fastener.
US8730129B2 (en) 1990-12-07 2014-05-20 Dennis J Solomon Advanced immersive visual display system
JP3461055B2 (ja) * 1995-04-26 2003-10-27 日本電信電話株式会社 音声チャンネル選択合成方法およびこの方法を実施する装置
US5901232A (en) 1996-09-03 1999-05-04 Gibbs; John Ho Sound system that determines the position of an external sound source and points a directional microphone/speaker towards it
DE19854373B4 (de) 1998-11-25 2005-02-24 Robert Bosch Gmbh Verfahren zur Steuerung der Empfindlichkeit eines Mikrofons
WO2001097558A2 (en) 2000-06-13 2001-12-20 Gn Resound Corporation Fixed polar-pattern-based adaptive directionality systems
US6975991B2 (en) 2001-01-31 2005-12-13 International Business Machines Corporation Wearable display system with indicators of speakers
US7269632B2 (en) * 2001-06-05 2007-09-11 Xdyne, Inc. Networked computer system for communicating and operating in a virtual reality environment
JP2004267433A (ja) * 2003-03-07 2004-09-30 Namco Ltd 音声チャット機能を提供する情報処理装置、サーバおよびプログラム並びに記録媒体
US7680300B2 (en) * 2004-06-01 2010-03-16 Energid Technologies Visual object recognition and tracking
JP2006025281A (ja) * 2004-07-09 2006-01-26 Hitachi Ltd 情報源選択システム、および方法
KR100677601B1 (ko) * 2004-11-11 2007-02-02 삼성전자주식회사 메타 데이터를 포함하는 영상 데이터를 기록한 저장매체,그 재생장치 및 메타 데이터를 이용한 검색방법
JP5286667B2 (ja) 2006-02-22 2013-09-11 コニカミノルタ株式会社 映像表示装置、及び映像表示方法
US20080231926A1 (en) * 2007-03-19 2008-09-25 Klug Michael A Systems and Methods for Updating Dynamic Three-Dimensional Displays with User Input
FR2915041A1 (fr) 2007-04-13 2008-10-17 Canon Kk Procede d'attribution d'une pluralite de canaux audio a une pluralite de haut-parleurs, produit programme d'ordinateur, moyen de stockage et noeud gestionnaire correspondants.
US9703369B1 (en) * 2007-10-11 2017-07-11 Jeffrey David Mullen Augmented reality video game systems
KR20090052169A (ko) 2007-11-20 2009-05-25 삼성전자주식회사 두부(頭部) 장착 디스플레이
US20090174946A1 (en) 2008-01-07 2009-07-09 Roni Raviv Customizable head mounted display
US20100074460A1 (en) 2008-09-25 2010-03-25 Lucent Technologies Inc. Self-steering directional hearing aid and method of operation thereof
JP5499633B2 (ja) 2009-10-28 2014-05-21 ソニー株式会社 再生装置、ヘッドホン及び再生方法
US8819591B2 (en) * 2009-10-30 2014-08-26 Accuray Incorporated Treatment planning in a virtual environment
US20130278631A1 (en) 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
US9341843B2 (en) 2010-02-28 2016-05-17 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a small scale image source
AU2011220382A1 (en) 2010-02-28 2012-10-18 Microsoft Corporation Local advertising content on an interactive head-mounted eyepiece
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US9285589B2 (en) * 2010-02-28 2016-03-15 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered control of AR eyepiece applications
EP2368720B1 (en) * 2010-03-26 2018-10-24 Provenance Asset Group LLC Method to transform a virtual object into a real physical object
JP5651386B2 (ja) 2010-06-23 2015-01-14 ソフトバンクモバイル株式会社 眼鏡型表示装置
JP2012029209A (ja) 2010-07-27 2012-02-09 Hitachi Ltd 音処理システム
KR101299910B1 (ko) * 2010-08-18 2013-08-23 주식회사 팬택 증강 현실 서비스의 공유 방법 및 그를 위한 사용자 단말기와 원격자 단말기
US9122053B2 (en) * 2010-10-15 2015-09-01 Microsoft Technology Licensing, Llc Realistic occlusion for a head mounted augmented reality display
US9529424B2 (en) * 2010-11-05 2016-12-27 Microsoft Technology Licensing, Llc Augmented reality with direct user interaction
US8576276B2 (en) * 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
JP2012133250A (ja) 2010-12-24 2012-07-12 Sony Corp 音情報表示装置、音情報表示方法およびプログラム
US10585472B2 (en) * 2011-08-12 2020-03-10 Sony Interactive Entertainment Inc. Wireless head mounted display with differential rendering and sound localization
US20130222371A1 (en) * 2011-08-26 2013-08-29 Reincloud Corporation Enhancing a sensory perception in a field of view of a real-time source within a display screen through augmented reality
US20140063061A1 (en) * 2011-08-26 2014-03-06 Reincloud Corporation Determining a position of an item in a virtual augmented space
EP2565664B1 (en) 2011-09-01 2017-02-22 9Solutions Oy Adaptive location tracking system
US20130083018A1 (en) * 2011-09-30 2013-04-04 Kevin A. Geisner Personal audio/visual system with holographic objects
US9255813B2 (en) * 2011-10-14 2016-02-09 Microsoft Technology Licensing, Llc User controlled real object disappearance in a mixed reality display
BR112014010230A8 (pt) * 2011-10-28 2017-06-20 Magic Leap Inc sistema e método para realidade virtual e aumentada
JP5969200B2 (ja) 2011-11-11 2016-08-17 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP6065370B2 (ja) * 2012-02-03 2017-01-25 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US8781142B2 (en) 2012-02-24 2014-07-15 Sverrir Olafsson Selective acoustic enhancement of ambient sound
DK2890159T3 (da) 2012-05-09 2017-01-02 Oticon As Anordning til behandling af audiosignaler
US9292758B2 (en) * 2012-05-14 2016-03-22 Sphero, Inc. Augmentation of elements in data content
DE102012214081A1 (de) 2012-06-06 2013-12-12 Siemens Medical Instruments Pte. Ltd. Verfahren zum Fokussieren eines Hörinstruments-Beamformers
CN104737061B (zh) 2012-06-11 2018-01-16 奇跃公司 使用波导反射器阵列投射器的多深度平面三维显示器
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US20130328925A1 (en) * 2012-06-12 2013-12-12 Stephen G. Latta Object focus in a mixed reality environment
US9544074B2 (en) * 2012-09-04 2017-01-10 Broadcom Corporation Time-shifting distribution of high definition audio data
US8750541B1 (en) 2012-10-31 2014-06-10 Google Inc. Parametric array for a head-mountable device
US20140146394A1 (en) * 2012-11-28 2014-05-29 Nigel David Tout Peripheral display for a near-eye display device
CA2898750C (en) 2013-01-25 2018-06-26 Hai HU Devices and methods for the visualization and localization of sound
US10231614B2 (en) 2014-07-08 2019-03-19 Wesley W. O. Krueger Systems and methods for using virtual reality, augmented reality, and/or a synthetic 3-dimensional information for the measurement of human ocular performance
US20140240351A1 (en) * 2013-02-27 2014-08-28 Michael Scavezze Mixed reality augmentation
KR102387314B1 (ko) * 2013-03-11 2022-04-14 매직 립, 인코포레이티드 증강 및 가상 현실을 위한 시스템 및 방법
US10109075B2 (en) * 2013-03-15 2018-10-23 Elwha Llc Temporal element restoration in augmented reality systems
KR20140114238A (ko) * 2013-03-18 2014-09-26 삼성전자주식회사 오디오와 결합된 이미지 표시 방법
US10905943B2 (en) * 2013-06-07 2021-02-02 Sony Interactive Entertainment LLC Systems and methods for reducing hops associated with a head mounted system
US10262462B2 (en) * 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
GB2516056B (en) * 2013-07-09 2021-06-30 Nokia Technologies Oy Audio processing apparatus
US9124990B2 (en) 2013-07-10 2015-09-01 Starkey Laboratories, Inc. Method and apparatus for hearing assistance in multiple-talker settings
US9619939B2 (en) * 2013-07-31 2017-04-11 Microsoft Technology Licensing, Llc Mixed reality graduated information delivery
DE102013215131A1 (de) 2013-08-01 2015-02-05 Siemens Medical Instruments Pte. Ltd. Verfahren zur Verfolgung einer Schallquelle
US9143880B2 (en) 2013-08-23 2015-09-22 Tobii Ab Systems and methods for providing audio to a user based on gaze input
CN105960193A (zh) 2013-09-03 2016-09-21 托比股份公司 便携式眼睛追踪设备
US9848260B2 (en) 2013-09-24 2017-12-19 Nuance Communications, Inc. Wearable communication enhancement device
CN105745602B (zh) * 2013-11-05 2020-07-14 索尼公司 信息处理装置、信息处理方法和程序
US9271077B2 (en) 2013-12-17 2016-02-23 Personics Holdings, Llc Method and system for directional enhancement of sound using small microphone arrays
US9716939B2 (en) 2014-01-06 2017-07-25 Harman International Industries, Inc. System and method for user controllable auditory environment customization
US9552060B2 (en) * 2014-01-28 2017-01-24 Microsoft Technology Licensing, Llc Radial selection by vestibulo-ocular reflex fixation
US9516412B2 (en) 2014-03-28 2016-12-06 Panasonic Intellectual Property Management Co., Ltd. Directivity control apparatus, directivity control method, storage medium and directivity control system
JP6125457B2 (ja) 2014-04-03 2017-05-10 日本電信電話株式会社 収音システム及び放音システム
KR20150118855A (ko) * 2014-04-15 2015-10-23 삼성전자주식회사 전자 장치 및 전자 장치의 레코딩 방법
CA2949929A1 (en) 2014-05-26 2015-12-03 Vladimir Sherman Methods circuits devices systems and associated computer executable code for acquiring acoustic signals
CN106605415B (zh) * 2014-06-03 2019-10-29 杜比实验室特许公司 用于向上发射驱动器的有源和无源虚拟高度滤波器系统
US9971492B2 (en) * 2014-06-04 2018-05-15 Quantum Interface, Llc Dynamic environment for object and attribute display and interaction
US9226090B1 (en) 2014-06-23 2015-12-29 Glen A. Norris Sound localization for an electronic call
JP6421313B2 (ja) 2014-07-28 2018-11-14 株式会社オーディオテクニカ マイクロホン装置
US9599821B2 (en) * 2014-08-08 2017-03-21 Greg Van Curen Virtual reality system allowing immersion in virtual space to consist with actual movement in actual space
US20160080874A1 (en) * 2014-09-16 2016-03-17 Scott Fullam Gaze-based audio direction
US9818225B2 (en) * 2014-09-30 2017-11-14 Sony Interactive Entertainment Inc. Synchronizing multiple head-mounted displays to a unified space and correlating movement of objects in the unified space
US9654868B2 (en) 2014-12-05 2017-05-16 Stages Llc Multi-channel multi-domain source identification and tracking
CN107001252B (zh) * 2014-12-16 2019-04-26 3M创新有限公司 离子型二醇抗静电聚氨酯及其制备方法
US9685005B2 (en) * 2015-01-02 2017-06-20 Eon Reality, Inc. Virtual lasers for interacting with augmented reality environments
KR20160128119A (ko) * 2015-04-28 2016-11-07 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US9530426B1 (en) * 2015-06-24 2016-12-27 Microsoft Technology Licensing, Llc Filtering sounds for conferencing applications
EP3145220A1 (en) * 2015-09-21 2017-03-22 Dolby Laboratories Licensing Corporation Rendering virtual audio sources using loudspeaker map deformation
US11631421B2 (en) 2015-10-18 2023-04-18 Solos Technology Limited Apparatuses and methods for enhanced speech recognition in variable environments
US10206042B2 (en) 2015-10-20 2019-02-12 Bragi GmbH 3D sound field using bilateral earpieces system and method
EP3174005A1 (en) * 2015-11-30 2017-05-31 Nokia Technologies Oy Apparatus and method for controlling audio mixing in virtual reality environments
US9949056B2 (en) 2015-12-23 2018-04-17 Ecole Polytechnique Federale De Lausanne (Epfl) Method and apparatus for presenting to a user of a wearable apparatus additional information related to an audio scene
US9905244B2 (en) 2016-02-02 2018-02-27 Ebay Inc. Personalized, real-time audio processing
IL307306A (en) 2016-02-04 2023-11-01 Magic Leap Inc A technique for audio direction in an augmented reality system
US10074012B2 (en) * 2016-06-17 2018-09-11 Dolby Laboratories Licensing Corporation Sound and video object tracking
US20180095542A1 (en) * 2016-09-30 2018-04-05 Sony Interactive Entertainment Inc. Object Holder for Virtual Reality Interaction
US10754608B2 (en) * 2016-11-29 2020-08-25 Nokia Technologies Oy Augmented reality mixing for distributed audio capture
KR102419065B1 (ko) 2017-02-28 2022-07-07 매직 립, 인코포레이티드 혼합 현실 디바이스에서의 가상 및 실제 객체 레코딩
US11498282B1 (en) 2018-11-30 2022-11-15 National Technology & Engineering Solutions Of Sandia, Llc Computationally optimized and manufactured acoustic metamaterials

Also Published As

Publication number Publication date
IL288137B1 (en) 2023-05-01
IL311069A (en) 2024-04-01
EP4270166A3 (en) 2023-11-08
IL288137B2 (en) 2023-09-01
AU2018227710A1 (en) 2019-08-22
CA3052834A1 (en) 2018-09-07
US11669298B2 (en) 2023-06-06
EP3590097A1 (en) 2020-01-08
IL288137A (en) 2022-01-01
US20220057985A1 (en) 2022-02-24
JP2020509492A (ja) 2020-03-26
JP2023095956A (ja) 2023-07-06
AU2018227710B2 (en) 2022-03-17
KR20210119589A (ko) 2021-10-05
AU2022204210B2 (en) 2023-06-29
KR20220101210A (ko) 2022-07-19
WO2018160593A1 (en) 2018-09-07
AU2022204210A1 (en) 2022-07-07
US20200310748A1 (en) 2020-10-01
IL301932A (en) 2023-06-01
IL268397A (en) 2019-09-26
JP2022009049A (ja) 2022-01-14
IL301932B1 (en) 2024-04-01
EP3590097B1 (en) 2023-09-13
CN110337318A (zh) 2019-10-15
JP7275227B2 (ja) 2023-05-17
KR102419065B1 (ko) 2022-07-07
KR102308937B1 (ko) 2021-10-05
IL268397B (en) 2021-12-01
EP3590097A4 (en) 2020-03-18
KR102616220B1 (ko) 2023-12-20
US20180246698A1 (en) 2018-08-30
KR20240000632A (ko) 2024-01-02
US20230251823A1 (en) 2023-08-10
EP4270166A2 (en) 2023-11-01
US10725729B2 (en) 2020-07-28
US11194543B2 (en) 2021-12-07
KR20190123300A (ko) 2019-10-31

Similar Documents

Publication Publication Date Title
JP6961007B2 (ja) 複合現実デバイスにおける仮想および実オブジェクトの記録
US20140328505A1 (en) Sound field adaptation based upon user tracking
US10798518B2 (en) Apparatus and associated methods
US20190130644A1 (en) Provision of Virtual Reality Content
KR20190052086A (ko) 공간화 오디오를 갖는 가상 현실, 증강 현실 및 혼합 현실 시스템들
TW201928945A (zh) 音訊場景處理技術
EP4252195A1 (en) Real world beacons indicating virtual locations
KR20210056414A (ko) 혼합 현실 환경들에서 오디오-가능 접속된 디바이스들을 제어하기 위한 시스템
JP2016109971A (ja) 信号処理装置および信号処理装置の制御方法
CN112256130A (zh) 生成控制指令的方法和装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210226

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210226

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210226

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211012

R150 Certificate of patent or registration of utility model

Ref document number: 6961007

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150