JP2019505926A - 拡張現実のためのシステムおよび方法 - Google Patents
拡張現実のためのシステムおよび方法 Download PDFInfo
- Publication number
- JP2019505926A JP2019505926A JP2018540434A JP2018540434A JP2019505926A JP 2019505926 A JP2019505926 A JP 2019505926A JP 2018540434 A JP2018540434 A JP 2018540434A JP 2018540434 A JP2018540434 A JP 2018540434A JP 2019505926 A JP2019505926 A JP 2019505926A
- Authority
- JP
- Japan
- Prior art keywords
- display system
- sensor
- camera
- depth sensor
- electromagnetic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 27
- 238000000034 method Methods 0.000 title claims description 144
- 230000005672 electromagnetic field Effects 0.000 claims abstract description 103
- 230000004907 flux Effects 0.000 claims abstract description 35
- 230000005855 radiation Effects 0.000 claims description 38
- 238000005259 measurement Methods 0.000 claims description 16
- 230000001413 cellular effect Effects 0.000 claims description 12
- 239000003550 marker Substances 0.000 claims description 10
- 210000003128 head Anatomy 0.000 description 45
- 230000036544 posture Effects 0.000 description 39
- 238000012545 processing Methods 0.000 description 24
- 238000013507 mapping Methods 0.000 description 11
- 230000004886 head movement Effects 0.000 description 10
- 230000008901 benefit Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 239000007787 solid Substances 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 230000006399 behavior Effects 0.000 description 6
- 230000033001 locomotion Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 229910000859 α-Fe Inorganic materials 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 230000004807 localization Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 230000000875 corresponding effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000004020 conductor Substances 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000012888 cubic function Methods 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 241000256837 Apidae Species 0.000 description 1
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 241000258241 Mantis Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 206010025482 malaise Diseases 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 201000003152 motion sickness Diseases 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/23—Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
- A63F13/235—Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console using a wireless connection, e.g. infrared or piconet
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/30—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
- A63F13/35—Details of game servers
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
- A63F13/5255—Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Abstract
Description
本願は、2016年2月5日に出願された米国仮特許出願第62/292,185号および2016年2月23日に出願された米国仮特許出願第62/298,993号に対する優先権の利益を主張するものである。また、本願は、2016年3月5日に出願された米国特許出願第15/062,104号の一部継続出願であり、これは、2015年3月5日に出願された米国仮特許出願第62/128,993号および2016年2月5日に出願された米国仮特許出願第62/292,185号に対する優先権の利益を主張するものである。また、本願は、2016年3月1日に出願された米国仮特許出願第62/301,847号に関連している。上記出願は、それらの全体が参照により本明細書中に援用される。
(項目1)
拡張現実(AR)ディスプレイシステムであって、
既知の座標系内で既知の磁場を放出する電磁場エミッタと、
電磁センサであって、上記電磁センサは、上記既知の磁場から生じる上記電磁センサにおける磁束に関連するパラメータを測定する電磁センサと、
上記既知の座標系内の距離を測定する深度センサと、
コントローラであって、上記コントローラは、少なくとも部分的に、上記電磁センサによって測定された磁束および上記深度センサによって測定された距離に関連するパラメータに基づいて、上記既知の座標系内の電磁場エミッタに対する上記電磁センサの姿勢情報を判定する、コントローラと、
ディスプレイシステムであって、上記ディスプレイシステムは、少なくとも部分的に、上記電磁場エミッタに対する上記電磁センサの姿勢情報に基づいて、仮想コンテンツをユーザに表示する、ディスプレイシステムと、
を備える、ARディスプレイシステム。
(項目2)
上記深度センサは、受動ステレオ深度センサである、項目1に記載のARディスプレイシステム。
(項目3)
上記深度センサは、能動深度センサである、項目1に記載のARディスプレイシステム。
(項目4)
上記深度センサは、テクスチャ投影ステレオ深度センサである、項目3に記載のARディスプレイシステム。
(項目5)
上記深度センサは、構造化光投影ステレオ深度センサである、項目3に記載のARディスプレイシステム。
(項目6)
上記深度センサは、飛行時間深度センサである、項目3に記載のARディスプレイシステム。
(項目7)
上記深度センサは、LIDAR深度センサである、項目3に記載のARディスプレイシステム。
(項目8)
上記深度センサは、変調放出深度センサである、項目3に記載のARディスプレイシステム。
(項目9)
上記深度センサは、第1の視野(FOV)を有する深度カメラを備える、項目1に記載のARディスプレイシステム。
(項目10)
世界捕捉カメラをさらに備え、
上記世界捕捉カメラは、少なくとも部分的に、上記第1のFOVと重複する第2のFOVを有する、項目9に記載のARディスプレイシステム。
(項目11)
写真カメラをさらに備え、
上記写真カメラは、少なくとも部分的に、上記第1のFOVおよび上記第2のFOVと重複する第3のFOVを有する、項目10に記載のARディスプレイシステム。
(項目12)
上記深度カメラ、上記世界捕捉カメラ、および上記写真カメラは、個別の異なる第1、第2、および第3の分解能を有する、項目11に記載のARディスプレイシステム。
(項目13)
上記深度カメラの第1の分解能は、サブVGAであり、上記世界捕捉カメラの第2の分解能は、720pであり、上記写真カメラの第3の分解能は、2メガピクセルである、項目12に記載のARディスプレイシステム。
(項目14)
上記深度カメラ、上記世界捕捉カメラ、および上記写真カメラは、個別の第1、第2、および第3の画像を捕捉するように構成される、項目11に記載のARディスプレイシステム。
(項目15)
上記コントローラは、上記第2および第3の画像をセグメント化するようにプログラムされる、項目14に記載のARディスプレイシステム。
(項目16)
上記コントローラは、上記第2および第3の画像をセグメント化した後、上記第2および第3の画像を融合し、融合された画像を生成するようにプログラムされる、項目15に記載のARディスプレイシステム。
(項目17)
上記既知の座標系内の距離を測定することは、
上記深度カメラからの第1の画像を分析することによって、仮説的距離を生成することと、
上記仮説的距離および上記融合された画像を分析することによって、上記距離を生成することと、
を含む、項目16に記載のARディスプレイシステム。
(項目18)
上記深度カメラ、上記世界捕捉カメラ、および上記写真カメラは、単一統合センサを形成する、項目11に記載のARディスプレイシステム。
(項目19)
付加的情報を提供する付加的位置特定リソースをさらに備え、上記既知の座標系内の電磁場エミッタに対する上記電磁センサの姿勢情報は、少なくとも部分的に、上記電磁センサによって測定された磁束、上記深度センサによって測定された距離、および上記付加的位置特定リソースによって提供される付加的情報に関連するパラメータに基づいて判定される、項目1に記載のARディスプレイシステム。
(項目20)
上記付加的位置特定リソースは、WiFi送受信機を備える、項目19に記載のARディスプレイシステム。
(項目21)
上記付加的位置特定リソースは、付加的電磁エミッタを備える、項目19に記載のARディスプレイシステム。
(項目22)
上記付加的位置特定リソースは、付加的電磁センサを備える、項目19に記載のARディスプレイシステム。
(項目23)
上記付加的位置特定リソースは、ビーコンを備える、項目19に記載のARディスプレイシステム。
(項目24)
上記ビーコンは、放射を放出する、項目23に記載のARディスプレイシステム。
(項目25)
上記放射は、赤外線放射であり、上記ビーコンは、赤外線LEDを備える、項目24に記載のARディスプレイシステム。
(項目26)
上記付加的位置特定リソースは、反射体を備える、項目19に記載のARディスプレイシステム。
(項目27)
上記反射体は、放射を反射する、項目26に記載のARディスプレイシステム。
(項目28)
上記付加的位置特定リソースは、セルラーネットワーク送受信機を備える、項目19に記載のARディスプレイシステム。
(項目29)
上記付加的位置特定リソースは、RADARエミッタを備える、項目19に記載のARディスプレイシステム。
(項目30)
上記付加的位置特定リソースは、RADAR検出器を備える、項目19に記載のARディスプレイシステム。
(項目31)
上記付加的位置特定リソースは、LIDARエミッタを備える、項目19に記載のARディスプレイシステム。
(項目32)
上記付加的位置特定リソースは、LIDAR検出器を備える、項目19に記載のARディスプレイシステム。
(項目33)
上記付加的位置特定リソースは、GPS送受信機を備える、項目19に記載のARディスプレイシステム。
(項目34)
上記付加的位置特定リソースは、既知の検出可能パターンを有するポスタを備える、項目19に記載のARディスプレイシステム。
(項目35)
上記付加的位置特定リソースは、既知の検出可能パターンを有するマーカを備える、項目19に記載のARディスプレイシステム。
(項目36)
上記付加的位置特定リソースは、慣性測定ユニットを備える、項目19に記載のARディスプレイシステム。
(項目37)
上記付加的位置特定リソースは、歪みゲージを備える、項目19に記載のARディスプレイシステム。
(項目38)
上記電磁場エミッタは、ARディスプレイシステムのモバイルコンポーネントに結合される、項目1に記載のARディスプレイシステム。
(項目39)
上記モバイルコンポーネントは、ハンドヘルドコンポーネントである、項目38に記載のARディスプレイシステム。
(項目40)
上記モバイルコンポーネントは、トーテムである、項目39に記載のARディスプレイシステム。
(項目41)
上記モバイルコンポーネントは、ディスプレイシステムを格納する頭部搭載型コンポーネントである、項目38に記載のARディスプレイシステム。
(項目42)
上記モバイルコンポーネントは、胴体装着型コンポーネントである、項目38に記載のARディスプレイシステム。
(項目43)
上記胴体装着型コンポーネントは、ベルトパックである、項目42に記載のARディスプレイシステム。
(項目44)
上記電磁場エミッタは、上記電磁場エミッタが既知の位置および既知の配向を有するように、上記既知の座標系内のオブジェクトに結合される、項目1に記載のARディスプレイシステム。
(項目45)
上記電磁センサは、ARディスプレイシステムのモバイルコンポーネントに結合される、項目44に記載のARディスプレイシステム。
(項目46)
上記モバイルコンポーネントは、ハンドヘルドコンポーネントである、項目45に記載のARディスプレイシステム。
(項目47)
上記モバイルコンポーネントは、トーテムである、項目46に記載のARディスプレイシステム。
(項目48)
上記モバイルコンポーネントは、ディスプレイシステムを格納する頭部搭載型コンポーネントである、項目45に記載のARディスプレイシステム。
(項目49)
上記モバイルコンポーネントは、胴体装着型コンポーネントである、項目45に記載のARディスプレイシステム。
(項目50)
上記胴体装着型コンポーネントは、ベルトパックである、項目49に記載のARディスプレイシステム。
(項目51)
上記姿勢情報は、上記既知の座標系内の電磁場エミッタに対する上記電磁センサの位置および配向を備える、項目1に記載のARディスプレイシステム。
(項目52)
上記コントローラは、上記姿勢情報を分析し、上記既知の座標系内の上記電磁センサの位置および配向を判定する、項目1に記載のARディスプレイシステム。
(項目53)
拡張現実を表示するための方法であって、上記方法は、
電磁場エミッタを使用して、既知の座標系内で既知の磁場を放出するステップと、
電磁センサを使用して、上記既知の磁場から生じる上記電磁センサの磁束に関連するパラメータを測定するステップと、
深度センサを使用して、上記既知の座標系内の距離を測定するステップと、
少なくとも部分的に、上記電磁センサを使用して測定された磁束および上記深度センサを使用して測定された距離に関連するパラメータに基づいて、上記既知の座標系内の電磁場エミッタに対する上記電磁センサの姿勢情報を判定するステップと、
少なくとも部分的に、上記電磁場エミッタに対する上記電磁センサの姿勢情報に基づいて、仮想コンテンツをユーザに表示するステップと、
を含む、方法。
(項目54)
上記深度センサは、受動ステレオ深度センサである、項目53に記載の方法。
(項目55)
上記深度センサは、能動深度センサである、項目53に記載の方法。
(項目56)
上記深度センサは、テクスチャ投影ステレオ深度センサである、項目55に記載の方法。
(項目57)
上記深度センサは、構造化光投影ステレオ深度センサである、項目55に記載の方法。
(項目58)
上記深度センサは、飛行時間深度センサである、項目55に記載の方法。
(項目59)
上記深度センサは、LIDAR深度センサである、項目55に記載の方法。
(項目60)
上記深度センサは、変調放出深度センサである、項目55に記載の方法。
(項目61)
上記深度センサは、第1の視野(FOV)を有する深度カメラを備える、項目53に記載の方法。
(項目62)
上記深度センサはさらに、世界捕捉カメラを備え、
上記世界捕捉カメラは、少なくとも部分的に、上記第1のFOVと重複する第2のFOVを有する、項目61に記載の方法。
(項目63)
上記深度センサはさらに、写真カメラを備え、
上記写真カメラは、少なくとも部分的に、上記第1のFOVおよび上記第2のFOVと重複する第3のFOVを有する、項目62に記載の方法。
(項目64)
上記深度カメラ、上記世界捕捉カメラ、および上記写真カメラは、個別の異なる第1、第2、および第3の分解能を有する、項目63に記載の方法。
(項目65)
上記深度カメラの第1の分解能は、サブVGAであり、上記世界捕捉カメラの第2の分解能は、720pであり、上記写真カメラの第3の分解能は、2メガピクセルである、項目64に記載の方法。
(項目66)
個別の深度カメラ、世界捕捉カメラ、および写真カメラを使用して、第1、第2、および第3の画像を捕捉するステップをさらに含む、項目63に記載の方法。
(項目67)
上記第2および第3の画像をセグメント化するステップをさらに含む、項目66に記載の方法。
(項目68)
上記第2および第3の画像をセグメント化した後、上記第2および第3の画像を融合し、融合された画像を生成するステップをさらに含む、項目67に記載の方法。
(項目69)
上記既知の座標系内の距離を測定するステップは、
上記深度カメラからの第1の画像を分析することによって、仮説的距離を生成するステップと、
上記仮説的距離および上記融合された画像を分析することによって、上記距離を生成するステップと、
を含む、項目68に記載の方法。
(項目70)
上記深度カメラ、上記世界捕捉カメラ、および上記写真カメラは、単一統合センサを形成する、項目63に記載の方法。
(項目71)
少なくとも部分的に、上記電磁センサを使用して測定された磁束、上記深度センサを使用して測定された距離、および付加的位置特定リソースによって提供された付加的情報に関連するパラメータに基づいて、上記既知の座標系内の電磁場エミッタに対する上記電磁センサの姿勢情報を判定するステップをさらに含む、項目53に記載の方法。
(項目72)
上記付加的位置特定リソースは、WiFi送受信機を備える、項目71に記載の方法。
(項目73)
上記付加的位置特定リソースは、付加的電磁エミッタを備える、項目71に記載の方法。
(項目74)
上記付加的位置特定リソースは、付加的電磁センサを備える、項目71に記載の方法。
(項目75)
上記付加的位置特定リソースは、ビーコンを備える、項目71に記載の方法。
(項目76)
上記ビーコンが放射を放出するステップをさらに含む、項目75に記載の方法。
(項目77)
上記放射は、赤外線放射であり、上記ビーコンは、赤外線LEDを備える、項目76に記載の方法。
(項目78)
上記付加的位置特定リソースは、反射体を備える、項目71に記載の方法。
(項目79)
上記反射体が放射を反射するステップをさらに含む、項目78に記載の方法。
(項目80)
上記付加的位置特定リソースは、セルラーネットワーク送受信機を備える、項目71に記載の方法。
(項目81)
上記付加的位置特定リソースは、RADARエミッタを備える、項目71に記載の方法。
(項目82)
上記付加的位置特定リソースは、RADAR検出器を備える、項目71に記載の方法。
(項目83)
上記付加的位置特定リソースは、LIDARエミッタを備える、項目71に記載の方法。
(項目84)
上記付加的位置特定リソースは、LIDAR検出器を備える、項目71に記載の方法。
(項目85)
上記付加的位置特定リソースは、GPS送受信機を備える、項目71に記載の方法。
(項目86)
上記付加的位置特定リソースは、既知の検出可能パターンを有するポスタを備える、項目71に記載の方法。
(項目87)
上記付加的位置特定リソースは、既知の検出可能パターンを有するマーカを備える、項目71に記載の方法。
(項目88)
上記付加的位置特定リソースは、慣性測定ユニットを備える、項目71に記載の方法。
(項目89)
上記付加的位置特定リソースは、歪みゲージを備える、項目71に記載の方法。
(項目90)
上記電磁場エミッタは、ARディスプレイシステムのモバイルコンポーネントに結合される、項目53に記載の方法。
(項目91)
上記モバイルコンポーネントは、ハンドヘルドコンポーネントである、項目90に記載の方法。
(項目92)
上記モバイルコンポーネントは、トーテムである、項目91に記載の方法。
(項目93)
上記モバイルコンポーネントは、ディスプレイシステムを格納する頭部搭載型コンポーネントである、項目90に記載の方法。
(項目94)
上記モバイルコンポーネントは、胴体装着型コンポーネントである、項目90に記載の方法。
(項目95)
上記胴体装着型コンポーネントは、ベルトパックである、項目94に記載の方法。
(項目96)
上記電磁場エミッタは、上記電磁場エミッタが既知の位置および既知の配向を有するように、上記既知の座標系内のオブジェクトに結合される、項目53に記載の方法。
(項目97)
上記電磁センサは、ARディスプレイシステムのモバイルコンポーネントに結合される、項目96に記載の方法。
(項目98)
上記モバイルコンポーネントは、ハンドヘルドコンポーネントである、項目97に記載の方法。
(項目99)
上記モバイルコンポーネントは、トーテムである、項目98に記載の方法。
(項目100)
上記モバイルコンポーネントは、ディスプレイシステムを格納する頭部搭載型コンポーネントである、項目97に記載の方法。
(項目101)
上記モバイルコンポーネントは、胴体装着型コンポーネントである、項目97に記載の方法。
(項目102)
上記胴体装着型コンポーネントは、ベルトパックである、項目101に記載の方法。
(項目103)
上記姿勢情報は、上記既知の座標系内の電磁場エミッタに対する上記電磁センサの位置および配向を備える、項目53に記載の方法。
(項目104)
上記姿勢情報を分析し、上記既知の座標系内の上記電磁センサの位置および配向を判定するステップをさらに含む、項目53に記載の方法。
(項目105)
拡張現実ディスプレイシステムであって、
電磁場エミッタに結合されるハンドヘルドコンポーネントであって、上記電磁場エミッタは、磁場を放出する、ハンドヘルドコンポーネントと、
仮想コンテンツをユーザに表示するディスプレイシステムを有する頭部搭載型コンポーネントであって、上記頭部搭載型コンポーネントは、上記磁場から生じる電磁センサにおける磁束に関連するパラメータを測定する電磁センサに結合され、既知の座標系内の上記頭部搭載型コンポーネントの頭部の姿勢は、既知である、頭部搭載型コンポーネントと、
上記既知の座標系内の距離を測定する深度センサと、
上記ハンドヘルドコンポーネント、上記頭部搭載型コンポーネント、および上記深度センサに通信可能に結合されるコントローラであって、上記コントローラは、上記電磁センサにおける磁束に関連するパラメータを上記頭部搭載型コンポーネントから受信し、上記距離を上記深度センサから受信する、コントローラと、
を備え、上記コントローラは、少なくとも部分的に、上記電磁センサによって測定された磁束および上記深度センサによって測定された距離に関連するパラメータに基づいて、上記ハンドヘルドコンポーネントの手の姿勢を判定し、
上記システムは、少なくとも部分的に、上記手の姿勢に基づいて、上記ユーザに表示される仮想コンテンツを修正する、
拡張現実ディスプレイシステム。
(項目106)
上記深度センサは、受動ステレオ深度センサである、項目105に記載のARディスプレイシステム。
(項目107)
上記深度センサは、能動深度センサである、項目105に記載のARディスプレイシステム。
(項目108)
上記深度センサは、テクスチャ投影ステレオ深度センサである、項目107に記載のARディスプレイシステム。
(項目109)
上記深度センサは、構造化光投影ステレオ深度センサである、項目107に記載のARディスプレイシステム。
(項目110)
上記深度センサは、飛行時間深度センサである、項目107に記載のARディスプレイシステム。
(項目111)
上記深度センサは、LIDAR深度センサである、項目107に記載のARディスプレイシステム。
(項目112)
上記深度センサは、変調放出深度センサである、項目107に記載のARディスプレイシステム。
(項目113)
上記深度センサは、第1の視野(FOV)を有する深度カメラを備える、項目105に記載のARディスプレイシステム。
(項目114)
世界捕捉カメラをさらに備え、
上記世界捕捉カメラは、少なくとも部分的に、上記第1のFOVと重複する第2のFOVを有する、項目113に記載のARディスプレイシステム。
(項目115)
写真カメラをさらに備え、
上記写真カメラは、少なくとも部分的に、上記第1のFOVおよび上記第2のFOVと重複する第3のFOVを有する、項目114に記載のARディスプレイシステム。
(項目116)
上記深度カメラ、上記世界捕捉カメラ、および上記写真カメラは、個別の異なる第1、第2、および第3の分解能を有する、項目115に記載のARディスプレイシステム。
(項目117)
上記深度カメラの第1の分解能は、サブVGAであり、上記世界捕捉カメラの第2の分解能は、720pであり、上記写真カメラの第3の分解能は、2メガピクセルである、項目116に記載のARディスプレイシステム。
(項目118)
上記深度カメラ、上記世界捕捉カメラ、および上記写真カメラは、個別の第1、第2、および第3の画像を捕捉するように構成される、項目115に記載のARディスプレイシステム。
(項目119)
上記コントローラは、上記第2および第3の画像をセグメント化するようにプログラムされる、項目118に記載のARディスプレイシステム。
(項目120)
上記コントローラは、上記第2および第3の画像をセグメント化した後、上記第2および第3の画像を融合し、融合された画像を生成するようにプログラムされる、項目119に記載のARディスプレイシステム。
(項目121)
上記既知の座標系内の距離を測定することは、
上記深度カメラからの第1の画像を分析することによって、仮説的距離を生成することと、
上記仮説的距離および上記融合された画像を分析することによって、上記距離を生成することと、
を含む、項目120に記載のARディスプレイシステム。
(項目122)
上記深度カメラ、上記世界捕捉カメラ、および上記写真カメラは、単一統合センサを形成する、項目115に記載のARディスプレイシステム。
(項目123)
付加的情報を提供する付加的位置特定リソースをさらに備え、上記コントローラは、少なくとも部分的に、上記電磁センサによって測定された磁束、上記深度センサによって測定された距離、および上記付加的位置特定リソースによって提供される付加的情報に関連するパラメータに基づいて、上記ハンドヘルドコンポーネントの手の姿勢を判定する、項目105に記載のARディスプレイシステム。
(項目124)
上記付加的位置特定リソースは、WiFi送受信機を備える、項目123に記載のARディスプレイシステム。
(項目125)
上記付加的位置特定リソースは、付加的電磁エミッタを備える、項目123に記載のARディスプレイシステム。
(項目126)
上記付加的位置特定リソースは、付加的電磁センサを備える、項目123に記載のARディスプレイシステム。
(項目127)
上記付加的位置特定リソースは、ビーコンを備える、項目123に記載のARディスプレイシステム。
(項目128)
上記ビーコンは、放射を放出する、項目127に記載のARディスプレイシステム。
(項目129)
上記放射は、赤外線放射であり、上記ビーコンは、赤外線LEDを備える、項目128に記載のARディスプレイシステム。
(項目130)
上記付加的位置特定リソースは、反射体を備える、項目123に記載のARディスプレイシステム。
(項目131)
上記反射体は、放射を反射する、項目130に記載のARディスプレイシステム。
(項目132)
上記付加的位置特定リソースは、セルラーネットワーク送受信機を備える、項目123に記載のARディスプレイシステム。
(項目133)
上記付加的位置特定リソースは、RADARエミッタを備える、項目123に記載のARディスプレイシステム。
(項目134)
上記付加的位置特定リソースは、RADAR検出器を備える、項目123に記載のARディスプレイシステム。
(項目135)
上記付加的位置特定リソースは、LIDARエミッタを備える、項目123に記載のARディスプレイシステム。
(項目136)
上記付加的位置特定リソースは、LIDAR検出器を備える、項目123に記載のARディスプレイシステム。
(項目137)
上記付加的位置特定リソースは、GPS送受信機を備える、項目123に記載のARディスプレイシステム。
(項目138)
上記付加的位置特定リソースは、既知の検出可能パターンを有するポスタを備える、項目123に記載のARディスプレイシステム。
(項目139)
上記付加的位置特定リソースは、既知の検出可能パターンを有するマーカを備える、項目123に記載のARディスプレイシステム。
(項目140)
上記付加的位置特定リソースは、慣性測定ユニットを備える、項目123に記載のARディスプレイシステム。
(項目141)
上記付加的位置特定リソースは、歪みゲージを備える、項目123に記載のARディスプレイシステム。
(項目142)
上記ハンドヘルドコンポーネントは、トーテムである、項目105に記載のARディスプレイシステム。
(項目143)
上記手の姿勢は、上記既知の座標系内の上記ハンドヘルドコンポーネントの位置および配向を備える、項目105に記載のARディスプレイシステム。
Claims (143)
- 拡張現実(AR)ディスプレイシステムであって、
既知の座標系内で既知の磁場を放出する電磁場エミッタと、
電磁センサであって、前記電磁センサは、前記既知の磁場から生じる前記電磁センサにおける磁束に関連するパラメータを測定する電磁センサと、
前記既知の座標系内の距離を測定する深度センサと、
コントローラであって、前記コントローラは、少なくとも部分的に、前記電磁センサによって測定された磁束および前記深度センサによって測定された距離に関連するパラメータに基づいて、前記既知の座標系内の電磁場エミッタに対する前記電磁センサの姿勢情報を判定する、コントローラと、
ディスプレイシステムであって、前記ディスプレイシステムは、少なくとも部分的に、前記電磁場エミッタに対する前記電磁センサの姿勢情報に基づいて、仮想コンテンツをユーザに表示する、ディスプレイシステムと、
を備える、ARディスプレイシステム。 - 前記深度センサは、受動ステレオ深度センサである、請求項1に記載のARディスプレイシステム。
- 前記深度センサは、能動深度センサである、請求項1に記載のARディスプレイシステム。
- 前記深度センサは、テクスチャ投影ステレオ深度センサである、請求項3に記載のARディスプレイシステム。
- 前記深度センサは、構造化光投影ステレオ深度センサである、請求項3に記載のARディスプレイシステム。
- 前記深度センサは、飛行時間深度センサである、請求項3に記載のARディスプレイシステム。
- 前記深度センサは、LIDAR深度センサである、請求項3に記載のARディスプレイシステム。
- 前記深度センサは、変調放出深度センサである、請求項3に記載のARディスプレイシステム。
- 前記深度センサは、第1の視野(FOV)を有する深度カメラを備える、請求項1に記載のARディスプレイシステム。
- 世界捕捉カメラをさらに備え、
前記世界捕捉カメラは、少なくとも部分的に、前記第1のFOVと重複する第2のFOVを有する、請求項9に記載のARディスプレイシステム。 - 写真カメラをさらに備え、
前記写真カメラは、少なくとも部分的に、前記第1のFOVおよび前記第2のFOVと重複する第3のFOVを有する、請求項10に記載のARディスプレイシステム。 - 前記深度カメラ、前記世界捕捉カメラ、および前記写真カメラは、個別の異なる第1、第2、および第3の分解能を有する、請求項11に記載のARディスプレイシステム。
- 前記深度カメラの第1の分解能は、サブVGAであり、前記世界捕捉カメラの第2の分解能は、720pであり、前記写真カメラの第3の分解能は、2メガピクセルである、請求項12に記載のARディスプレイシステム。
- 前記深度カメラ、前記世界捕捉カメラ、および前記写真カメラは、個別の第1、第2、および第3の画像を捕捉するように構成される、請求項11に記載のARディスプレイシステム。
- 前記コントローラは、前記第2および第3の画像をセグメント化するようにプログラムされる、請求項14に記載のARディスプレイシステム。
- 前記コントローラは、前記第2および第3の画像をセグメント化した後、前記第2および第3の画像を融合し、融合された画像を生成するようにプログラムされる、請求項15に記載のARディスプレイシステム。
- 前記既知の座標系内の距離を測定することは、
前記深度カメラからの第1の画像を分析することによって、仮説的距離を生成することと、
前記仮説的距離および前記融合された画像を分析することによって、前記距離を生成することと、
を含む、請求項16に記載のARディスプレイシステム。 - 前記深度カメラ、前記世界捕捉カメラ、および前記写真カメラは、単一統合センサを形成する、請求項11に記載のARディスプレイシステム。
- 付加的情報を提供する付加的位置特定リソースをさらに備え、前記既知の座標系内の電磁場エミッタに対する前記電磁センサの姿勢情報は、少なくとも部分的に、前記電磁センサによって測定された磁束、前記深度センサによって測定された距離、および前記付加的位置特定リソースによって提供される付加的情報に関連するパラメータに基づいて判定される、請求項1に記載のARディスプレイシステム。
- 前記付加的位置特定リソースは、WiFi送受信機を備える、請求項19に記載のARディスプレイシステム。
- 前記付加的位置特定リソースは、付加的電磁エミッタを備える、請求項19に記載のARディスプレイシステム。
- 前記付加的位置特定リソースは、付加的電磁センサを備える、請求項19に記載のARディスプレイシステム。
- 前記付加的位置特定リソースは、ビーコンを備える、請求項19に記載のARディスプレイシステム。
- 前記ビーコンは、放射を放出する、請求項23に記載のARディスプレイシステム。
- 前記放射は、赤外線放射であり、前記ビーコンは、赤外線LEDを備える、請求項24に記載のARディスプレイシステム。
- 前記付加的位置特定リソースは、反射体を備える、請求項19に記載のARディスプレイシステム。
- 前記反射体は、放射を反射する、請求項26に記載のARディスプレイシステム。
- 前記付加的位置特定リソースは、セルラーネットワーク送受信機を備える、請求項19に記載のARディスプレイシステム。
- 前記付加的位置特定リソースは、RADARエミッタを備える、請求項19に記載のARディスプレイシステム。
- 前記付加的位置特定リソースは、RADAR検出器を備える、請求項19に記載のARディスプレイシステム。
- 前記付加的位置特定リソースは、LIDARエミッタを備える、請求項19に記載のARディスプレイシステム。
- 前記付加的位置特定リソースは、LIDAR検出器を備える、請求項19に記載のARディスプレイシステム。
- 前記付加的位置特定リソースは、GPS送受信機を備える、請求項19に記載のARディスプレイシステム。
- 前記付加的位置特定リソースは、既知の検出可能パターンを有するポスタを備える、請求項19に記載のARディスプレイシステム。
- 前記付加的位置特定リソースは、既知の検出可能パターンを有するマーカを備える、請求項19に記載のARディスプレイシステム。
- 前記付加的位置特定リソースは、慣性測定ユニットを備える、請求項19に記載のARディスプレイシステム。
- 前記付加的位置特定リソースは、歪みゲージを備える、請求項19に記載のARディスプレイシステム。
- 前記電磁場エミッタは、ARディスプレイシステムのモバイルコンポーネントに結合される、請求項1に記載のARディスプレイシステム。
- 前記モバイルコンポーネントは、ハンドヘルドコンポーネントである、請求項38に記載のARディスプレイシステム。
- 前記モバイルコンポーネントは、トーテムである、請求項39に記載のARディスプレイシステム。
- 前記モバイルコンポーネントは、ディスプレイシステムを格納する頭部搭載型コンポーネントである、請求項38に記載のARディスプレイシステム。
- 前記モバイルコンポーネントは、胴体装着型コンポーネントである、請求項38に記載のARディスプレイシステム。
- 前記胴体装着型コンポーネントは、ベルトパックである、請求項42に記載のARディスプレイシステム。
- 前記電磁場エミッタは、前記電磁場エミッタが既知の位置および既知の配向を有するように、前記既知の座標系内のオブジェクトに結合される、請求項1に記載のARディスプレイシステム。
- 前記電磁センサは、ARディスプレイシステムのモバイルコンポーネントに結合される、請求項44に記載のARディスプレイシステム。
- 前記モバイルコンポーネントは、ハンドヘルドコンポーネントである、請求項45に記載のARディスプレイシステム。
- 前記モバイルコンポーネントは、トーテムである、請求項46に記載のARディスプレイシステム。
- 前記モバイルコンポーネントは、ディスプレイシステムを格納する頭部搭載型コンポーネントである、請求項45に記載のARディスプレイシステム。
- 前記モバイルコンポーネントは、胴体装着型コンポーネントである、請求項45に記載のARディスプレイシステム。
- 前記胴体装着型コンポーネントは、ベルトパックである、請求項49に記載のARディスプレイシステム。
- 前記姿勢情報は、前記既知の座標系内の電磁場エミッタに対する前記電磁センサの位置および配向を備える、請求項1に記載のARディスプレイシステム。
- 前記コントローラは、前記姿勢情報を分析し、前記既知の座標系内の前記電磁センサの位置および配向を判定する、請求項1に記載のARディスプレイシステム。
- 拡張現実を表示するための方法であって、前記方法は、
電磁場エミッタを使用して、既知の座標系内で既知の磁場を放出するステップと、
電磁センサを使用して、前記既知の磁場から生じる前記電磁センサの磁束に関連するパラメータを測定するステップと、
深度センサを使用して、前記既知の座標系内の距離を測定するステップと、
少なくとも部分的に、前記電磁センサを使用して測定された磁束および前記深度センサを使用して測定された距離に関連するパラメータに基づいて、前記既知の座標系内の電磁場エミッタに対する前記電磁センサの姿勢情報を判定するステップと、
少なくとも部分的に、前記電磁場エミッタに対する前記電磁センサの姿勢情報に基づいて、仮想コンテンツをユーザに表示するステップと、
を含む、方法。 - 前記深度センサは、受動ステレオ深度センサである、請求項53に記載の方法。
- 前記深度センサは、能動深度センサである、請求項53に記載の方法。
- 前記深度センサは、テクスチャ投影ステレオ深度センサである、請求項55に記載の方法。
- 前記深度センサは、構造化光投影ステレオ深度センサである、請求項55に記載の方法。
- 前記深度センサは、飛行時間深度センサである、請求項55に記載の方法。
- 前記深度センサは、LIDAR深度センサである、請求項55に記載の方法。
- 前記深度センサは、変調放出深度センサである、請求項55に記載の方法。
- 前記深度センサは、第1の視野(FOV)を有する深度カメラを備える、請求項53に記載の方法。
- 前記深度センサはさらに、世界捕捉カメラを備え、
前記世界捕捉カメラは、少なくとも部分的に、前記第1のFOVと重複する第2のFOVを有する、請求項61に記載の方法。 - 前記深度センサはさらに、写真カメラを備え、
前記写真カメラは、少なくとも部分的に、前記第1のFOVおよび前記第2のFOVと重複する第3のFOVを有する、請求項62に記載の方法。 - 前記深度カメラ、前記世界捕捉カメラ、および前記写真カメラは、個別の異なる第1、第2、および第3の分解能を有する、請求項63に記載の方法。
- 前記深度カメラの第1の分解能は、サブVGAであり、前記世界捕捉カメラの第2の分解能は、720pであり、前記写真カメラの第3の分解能は、2メガピクセルである、請求項64に記載の方法。
- 個別の深度カメラ、世界捕捉カメラ、および写真カメラを使用して、第1、第2、および第3の画像を捕捉するステップをさらに含む、請求項63に記載の方法。
- 前記第2および第3の画像をセグメント化するステップをさらに含む、請求項66に記載の方法。
- 前記第2および第3の画像をセグメント化した後、前記第2および第3の画像を融合し、融合された画像を生成するステップをさらに含む、請求項67に記載の方法。
- 前記既知の座標系内の距離を測定するステップは、
前記深度カメラからの第1の画像を分析することによって、仮説的距離を生成するステップと、
前記仮説的距離および前記融合された画像を分析することによって、前記距離を生成するステップと、
を含む、請求項68に記載の方法。 - 前記深度カメラ、前記世界捕捉カメラ、および前記写真カメラは、単一統合センサを形成する、請求項63に記載の方法。
- 少なくとも部分的に、前記電磁センサを使用して測定された磁束、前記深度センサを使用して測定された距離、および付加的位置特定リソースによって提供された付加的情報に関連するパラメータに基づいて、前記既知の座標系内の電磁場エミッタに対する前記電磁センサの姿勢情報を判定するステップをさらに含む、請求項53に記載の方法。
- 前記付加的位置特定リソースは、WiFi送受信機を備える、請求項71に記載の方法。
- 前記付加的位置特定リソースは、付加的電磁エミッタを備える、請求項71に記載の方法。
- 前記付加的位置特定リソースは、付加的電磁センサを備える、請求項71に記載の方法。
- 前記付加的位置特定リソースは、ビーコンを備える、請求項71に記載の方法。
- 前記ビーコンが放射を放出するステップをさらに含む、請求項75に記載の方法。
- 前記放射は、赤外線放射であり、前記ビーコンは、赤外線LEDを備える、請求項76に記載の方法。
- 前記付加的位置特定リソースは、反射体を備える、請求項71に記載の方法。
- 前記反射体が放射を反射するステップをさらに含む、請求項78に記載の方法。
- 前記付加的位置特定リソースは、セルラーネットワーク送受信機を備える、請求項71に記載の方法。
- 前記付加的位置特定リソースは、RADARエミッタを備える、請求項71に記載の方法。
- 前記付加的位置特定リソースは、RADAR検出器を備える、請求項71に記載の方法。
- 前記付加的位置特定リソースは、LIDARエミッタを備える、請求項71に記載の方法。
- 前記付加的位置特定リソースは、LIDAR検出器を備える、請求項71に記載の方法。
- 前記付加的位置特定リソースは、GPS送受信機を備える、請求項71に記載の方法。
- 前記付加的位置特定リソースは、既知の検出可能パターンを有するポスタを備える、請求項71に記載の方法。
- 前記付加的位置特定リソースは、既知の検出可能パターンを有するマーカを備える、請求項71に記載の方法。
- 前記付加的位置特定リソースは、慣性測定ユニットを備える、請求項71に記載の方法。
- 前記付加的位置特定リソースは、歪みゲージを備える、請求項71に記載の方法。
- 前記電磁場エミッタは、ARディスプレイシステムのモバイルコンポーネントに結合される、請求項53に記載の方法。
- 前記モバイルコンポーネントは、ハンドヘルドコンポーネントである、請求項90に記載の方法。
- 前記モバイルコンポーネントは、トーテムである、請求項91に記載の方法。
- 前記モバイルコンポーネントは、ディスプレイシステムを格納する頭部搭載型コンポーネントである、請求項90に記載の方法。
- 前記モバイルコンポーネントは、胴体装着型コンポーネントである、請求項90に記載の方法。
- 前記胴体装着型コンポーネントは、ベルトパックである、請求項94に記載の方法。
- 前記電磁場エミッタは、前記電磁場エミッタが既知の位置および既知の配向を有するように、前記既知の座標系内のオブジェクトに結合される、請求項53に記載の方法。
- 前記電磁センサは、ARディスプレイシステムのモバイルコンポーネントに結合される、請求項96に記載の方法。
- 前記モバイルコンポーネントは、ハンドヘルドコンポーネントである、請求項97に記載の方法。
- 前記モバイルコンポーネントは、トーテムである、請求項98に記載の方法。
- 前記モバイルコンポーネントは、ディスプレイシステムを格納する頭部搭載型コンポーネントである、請求項97に記載の方法。
- 前記モバイルコンポーネントは、胴体装着型コンポーネントである、請求項97に記載の方法。
- 前記胴体装着型コンポーネントは、ベルトパックである、請求項101に記載の方法。
- 前記姿勢情報は、前記既知の座標系内の電磁場エミッタに対する前記電磁センサの位置および配向を備える、請求項53に記載の方法。
- 前記姿勢情報を分析し、前記既知の座標系内の前記電磁センサの位置および配向を判定するステップをさらに含む、請求項53に記載の方法。
- 拡張現実ディスプレイシステムであって、
電磁場エミッタに結合されるハンドヘルドコンポーネントであって、前記電磁場エミッタは、磁場を放出する、ハンドヘルドコンポーネントと、
仮想コンテンツをユーザに表示するディスプレイシステムを有する頭部搭載型コンポーネントであって、前記頭部搭載型コンポーネントは、前記磁場から生じる電磁センサにおける磁束に関連するパラメータを測定する電磁センサに結合され、既知の座標系内の前記頭部搭載型コンポーネントの頭部の姿勢は、既知である、頭部搭載型コンポーネントと、
前記既知の座標系内の距離を測定する深度センサと、
前記ハンドヘルドコンポーネント、前記頭部搭載型コンポーネント、および前記深度センサに通信可能に結合されるコントローラであって、前記コントローラは、前記電磁センサにおける磁束に関連するパラメータを前記頭部搭載型コンポーネントから受信し、前記距離を前記深度センサから受信する、コントローラと、
を備え、前記コントローラは、少なくとも部分的に、前記電磁センサによって測定された磁束および前記深度センサによって測定された距離に関連するパラメータに基づいて、前記ハンドヘルドコンポーネントの手の姿勢を判定し、
前記システムは、少なくとも部分的に、前記手の姿勢に基づいて、前記ユーザに表示される仮想コンテンツを修正する、
拡張現実ディスプレイシステム。 - 前記深度センサは、受動ステレオ深度センサである、請求項105に記載のARディスプレイシステム。
- 前記深度センサは、能動深度センサである、請求項105に記載のARディスプレイシステム。
- 前記深度センサは、テクスチャ投影ステレオ深度センサである、請求項107に記載のARディスプレイシステム。
- 前記深度センサは、構造化光投影ステレオ深度センサである、請求項107に記載のARディスプレイシステム。
- 前記深度センサは、飛行時間深度センサである、請求項107に記載のARディスプレイシステム。
- 前記深度センサは、LIDAR深度センサである、請求項107に記載のARディスプレイシステム。
- 前記深度センサは、変調放出深度センサである、請求項107に記載のARディスプレイシステム。
- 前記深度センサは、第1の視野(FOV)を有する深度カメラを備える、請求項105に記載のARディスプレイシステム。
- 世界捕捉カメラをさらに備え、
前記世界捕捉カメラは、少なくとも部分的に、前記第1のFOVと重複する第2のFOVを有する、請求項113に記載のARディスプレイシステム。 - 写真カメラをさらに備え、
前記写真カメラは、少なくとも部分的に、前記第1のFOVおよび前記第2のFOVと重複する第3のFOVを有する、請求項114に記載のARディスプレイシステム。 - 前記深度カメラ、前記世界捕捉カメラ、および前記写真カメラは、個別の異なる第1、第2、および第3の分解能を有する、請求項115に記載のARディスプレイシステム。
- 前記深度カメラの第1の分解能は、サブVGAであり、前記世界捕捉カメラの第2の分解能は、720pであり、前記写真カメラの第3の分解能は、2メガピクセルである、請求項116に記載のARディスプレイシステム。
- 前記深度カメラ、前記世界捕捉カメラ、および前記写真カメラは、個別の第1、第2、および第3の画像を捕捉するように構成される、請求項115に記載のARディスプレイシステム。
- 前記コントローラは、前記第2および第3の画像をセグメント化するようにプログラムされる、請求項118に記載のARディスプレイシステム。
- 前記コントローラは、前記第2および第3の画像をセグメント化した後、前記第2および第3の画像を融合し、融合された画像を生成するようにプログラムされる、請求項119に記載のARディスプレイシステム。
- 前記既知の座標系内の距離を測定することは、
前記深度カメラからの第1の画像を分析することによって、仮説的距離を生成することと、
前記仮説的距離および前記融合された画像を分析することによって、前記距離を生成することと、
を含む、請求項120に記載のARディスプレイシステム。 - 前記深度カメラ、前記世界捕捉カメラ、および前記写真カメラは、単一統合センサを形成する、請求項115に記載のARディスプレイシステム。
- 付加的情報を提供する付加的位置特定リソースをさらに備え、前記コントローラは、少なくとも部分的に、前記電磁センサによって測定された磁束、前記深度センサによって測定された距離、および前記付加的位置特定リソースによって提供される付加的情報に関連するパラメータに基づいて、前記ハンドヘルドコンポーネントの手の姿勢を判定する、請求項105に記載のARディスプレイシステム。
- 前記付加的位置特定リソースは、WiFi送受信機を備える、請求項123に記載のARディスプレイシステム。
- 前記付加的位置特定リソースは、付加的電磁エミッタを備える、請求項123に記載のARディスプレイシステム。
- 前記付加的位置特定リソースは、付加的電磁センサを備える、請求項123に記載のARディスプレイシステム。
- 前記付加的位置特定リソースは、ビーコンを備える、請求項123に記載のARディスプレイシステム。
- 前記ビーコンは、放射を放出する、請求項127に記載のARディスプレイシステム。
- 前記放射は、赤外線放射であり、前記ビーコンは、赤外線LEDを備える、請求項128に記載のARディスプレイシステム。
- 前記付加的位置特定リソースは、反射体を備える、請求項123に記載のARディスプレイシステム。
- 前記反射体は、放射を反射する、請求項130に記載のARディスプレイシステム。
- 前記付加的位置特定リソースは、セルラーネットワーク送受信機を備える、請求項123に記載のARディスプレイシステム。
- 前記付加的位置特定リソースは、RADARエミッタを備える、請求項123に記載のARディスプレイシステム。
- 前記付加的位置特定リソースは、RADAR検出器を備える、請求項123に記載のARディスプレイシステム。
- 前記付加的位置特定リソースは、LIDARエミッタを備える、請求項123に記載のARディスプレイシステム。
- 前記付加的位置特定リソースは、LIDAR検出器を備える、請求項123に記載のARディスプレイシステム。
- 前記付加的位置特定リソースは、GPS送受信機を備える、請求項123に記載のARディスプレイシステム。
- 前記付加的位置特定リソースは、既知の検出可能パターンを有するポスタを備える、請求項123に記載のARディスプレイシステム。
- 前記付加的位置特定リソースは、既知の検出可能パターンを有するマーカを備える、請求項123に記載のARディスプレイシステム。
- 前記付加的位置特定リソースは、慣性測定ユニットを備える、請求項123に記載のARディスプレイシステム。
- 前記付加的位置特定リソースは、歪みゲージを備える、請求項123に記載のARディスプレイシステム。
- 前記ハンドヘルドコンポーネントは、トーテムである、請求項105に記載のARディスプレイシステム。
- 前記手の姿勢は、前記既知の座標系内の前記ハンドヘルドコンポーネントの位置および配向を備える、請求項105に記載のARディスプレイシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021168082A JP7297028B2 (ja) | 2016-02-05 | 2021-10-13 | 拡張現実のためのシステムおよび方法 |
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662292185P | 2016-02-05 | 2016-02-05 | |
US62/292,185 | 2016-02-05 | ||
US201662298993P | 2016-02-23 | 2016-02-23 | |
US62/298,993 | 2016-02-23 | ||
US15/062,104 | 2016-03-05 | ||
US15/062,104 US20160259404A1 (en) | 2015-03-05 | 2016-03-05 | Systems and methods for augmented reality |
PCT/US2017/016722 WO2017136833A1 (en) | 2016-02-05 | 2017-02-06 | Systems and methods for augmented reality |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021168082A Division JP7297028B2 (ja) | 2016-02-05 | 2021-10-13 | 拡張現実のためのシステムおよび方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019505926A true JP2019505926A (ja) | 2019-02-28 |
Family
ID=59501080
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018540434A Withdrawn JP2019505926A (ja) | 2016-02-05 | 2017-02-06 | 拡張現実のためのシステムおよび方法 |
JP2021168082A Active JP7297028B2 (ja) | 2016-02-05 | 2021-10-13 | 拡張現実のためのシステムおよび方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021168082A Active JP7297028B2 (ja) | 2016-02-05 | 2021-10-13 | 拡張現実のためのシステムおよび方法 |
Country Status (8)
Country | Link |
---|---|
EP (1) | EP3411779A4 (ja) |
JP (2) | JP2019505926A (ja) |
KR (1) | KR20180110051A (ja) |
CN (2) | CN108700939B (ja) |
AU (1) | AU2017214748B9 (ja) |
CA (1) | CA3011377A1 (ja) |
IL (3) | IL301449B1 (ja) |
WO (1) | WO2017136833A1 (ja) |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7136558B2 (ja) | 2015-03-05 | 2022-09-13 | マジック リープ, インコーポレイテッド | 拡張現実のためのシステムおよび方法 |
US10180734B2 (en) | 2015-03-05 | 2019-01-15 | Magic Leap, Inc. | Systems and methods for augmented reality |
US10838207B2 (en) | 2015-03-05 | 2020-11-17 | Magic Leap, Inc. | Systems and methods for augmented reality |
WO2017096396A1 (en) | 2015-12-04 | 2017-06-08 | Magic Leap, Inc. | Relocalization systems and methods |
US10649211B2 (en) | 2016-08-02 | 2020-05-12 | Magic Leap, Inc. | Fixed-distance virtual and augmented reality systems and methods |
US10812936B2 (en) | 2017-01-23 | 2020-10-20 | Magic Leap, Inc. | Localization determination for mixed reality systems |
KR102594063B1 (ko) | 2017-03-17 | 2023-10-24 | 매직 립, 인코포레이티드 | 컬러 가상 콘텐츠 워핑을 갖는 혼합 현실 시스템 및 이를 사용하여 가상 콘텐츠를 생성하는 방법 |
AU2018236457B2 (en) | 2017-03-17 | 2021-04-29 | Magic Leap, Inc. | Mixed reality system with virtual content warping and method of generating virtual content using same |
IL303275B1 (en) | 2017-03-17 | 2024-04-01 | Magic Leap Inc | A mixed reality system with the assembly of multi-source virtual content and a method for creating virtual content using it |
CN107807738B (zh) * | 2017-12-04 | 2023-08-15 | 成都思悟革科技有限公司 | 一种用于vr显示眼镜的头部动作捕捉系统及方法 |
US10558260B2 (en) * | 2017-12-15 | 2020-02-11 | Microsoft Technology Licensing, Llc | Detecting the pose of an out-of-range controller |
CN108269310A (zh) * | 2018-03-20 | 2018-07-10 | 公安部上海消防研究所 | 一种交互展示系统、方法及装置 |
CN112513712B (zh) | 2018-07-23 | 2023-05-09 | 奇跃公司 | 具有虚拟内容翘曲的混合现实系统和使用该系统生成虚拟内容的方法 |
WO2020023523A1 (en) | 2018-07-23 | 2020-01-30 | Magic Leap, Inc. | Intra-field sub code timing in field sequential displays |
US10957112B2 (en) * | 2018-08-13 | 2021-03-23 | Magic Leap, Inc. | Cross reality system |
CN112654404A (zh) | 2018-09-05 | 2021-04-13 | 奇跃公司 | 用于增强显示系统中电磁跟踪的定向发射器/传感器 |
US11666203B2 (en) * | 2018-10-04 | 2023-06-06 | Biosense Webster (Israel) Ltd. | Using a camera with an ENT tool |
US11232635B2 (en) | 2018-10-05 | 2022-01-25 | Magic Leap, Inc. | Rendering location specific virtual content in any location |
WO2020092297A1 (en) * | 2018-10-30 | 2020-05-07 | Boston Scientific Scimed, Inc. | Devices and methods for treatment of body lumens |
US11353588B2 (en) * | 2018-11-01 | 2022-06-07 | Waymo Llc | Time-of-flight sensor with structured light illuminator |
US11347310B2 (en) * | 2019-02-21 | 2022-05-31 | Facebook Technologies, Llc | Tracking positions of portions of a device based on detection of magnetic fields by magnetic field sensors having predetermined positions |
DE102020110212A1 (de) * | 2019-04-16 | 2020-10-22 | Ascension Technology Corporation | Positions- und Orientierungsbestimmung mit einer Helmholtz-Vorrichtung |
CN110223686A (zh) * | 2019-05-31 | 2019-09-10 | 联想(北京)有限公司 | 语音识别方法、语音识别装置和电子设备 |
EP4046401A4 (en) | 2019-10-15 | 2023-11-01 | Magic Leap, Inc. | CROSS-REALLY SYSTEM WITH WIRELESS FINGERPRINTS |
WO2021096931A1 (en) | 2019-11-12 | 2021-05-20 | Magic Leap, Inc. | Cross reality system with localization service and shared location-based content |
CN114762008A (zh) | 2019-12-09 | 2022-07-15 | 奇跃公司 | 简化的虚拟内容编程的交叉现实系统 |
WO2021163300A1 (en) | 2020-02-13 | 2021-08-19 | Magic Leap, Inc. | Cross reality system with map processing using multi-resolution frame descriptors |
EP4103910A4 (en) | 2020-02-13 | 2024-03-06 | Magic Leap Inc | CROSS-REALLY SYSTEM WITH ACCURATE COMMON MAPS |
CN115398484A (zh) | 2020-02-13 | 2022-11-25 | 奇跃公司 | 具有用于定位的地理定位信息优先级的交叉现实系统 |
CN111652261A (zh) * | 2020-02-26 | 2020-09-11 | 南开大学 | 一种多模态感知融合系统 |
CN113539039B (zh) * | 2021-09-01 | 2023-01-31 | 山东柏新医疗制品有限公司 | 一种男用扩张型导尿管施药操作训练装置及方法 |
CN114882773A (zh) * | 2022-05-24 | 2022-08-09 | 华北电力大学(保定) | 一种基于Augmented Reality的磁场学习系统 |
KR20240047186A (ko) * | 2022-10-04 | 2024-04-12 | 삼성전자주식회사 | 증강현실 장치 및 이의 동작 방법 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2358682A1 (en) * | 1992-08-14 | 1994-03-03 | British Telecommunications Public Limited Company | Position location system |
WO1994004938A1 (en) * | 1992-08-14 | 1994-03-03 | British Telecommunications Public Limited Company | Position location system |
JP2001208529A (ja) * | 2000-01-26 | 2001-08-03 | Mixed Reality Systems Laboratory Inc | 計測装置及びその制御方法並びに記憶媒体 |
US20010056574A1 (en) * | 2000-06-26 | 2001-12-27 | Richards Angus Duncan | VTV system |
US20070155589A1 (en) * | 2002-12-04 | 2007-07-05 | Philip Feldman | Method and Apparatus for Operatively Controlling a Virtual Reality Scenario with an Isometric Exercise System |
JP2007134785A (ja) * | 2005-11-08 | 2007-05-31 | Konica Minolta Photo Imaging Inc | 頭部装着型の映像表示装置 |
IL195389A (en) * | 2008-11-19 | 2013-12-31 | Elbit Systems Ltd | Magnetic Field Mapping System and Method |
KR20090055803A (ko) * | 2007-11-29 | 2009-06-03 | 광주과학기술원 | 다시점 깊이맵 생성 방법 및 장치, 다시점 영상에서의변이값 생성 방법 |
US8926511B2 (en) * | 2008-02-29 | 2015-01-06 | Biosense Webster, Inc. | Location system with virtual touch screen |
US8405680B1 (en) * | 2010-04-19 | 2013-03-26 | YDreams S.A., A Public Limited Liability Company | Various methods and apparatuses for achieving augmented reality |
JP6202981B2 (ja) * | 2013-10-18 | 2017-09-27 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法 |
EP2887311B1 (en) * | 2013-12-20 | 2016-09-14 | Thomson Licensing | Method and apparatus for performing depth estimation |
US10203762B2 (en) * | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US20150358539A1 (en) * | 2014-06-06 | 2015-12-10 | Jacob Catt | Mobile Virtual Reality Camera, Method, And System |
CN205007551U (zh) * | 2015-08-19 | 2016-02-03 | 深圳游视虚拟现实技术有限公司 | 一种基于虚拟现实技术的人机交互系统 |
-
2017
- 2017-02-06 KR KR1020187025638A patent/KR20180110051A/ko not_active Application Discontinuation
- 2017-02-06 CN CN201780010073.0A patent/CN108700939B/zh active Active
- 2017-02-06 CN CN202210650785.1A patent/CN114995647A/zh active Pending
- 2017-02-06 AU AU2017214748A patent/AU2017214748B9/en active Active
- 2017-02-06 WO PCT/US2017/016722 patent/WO2017136833A1/en active Application Filing
- 2017-02-06 IL IL301449A patent/IL301449B1/en unknown
- 2017-02-06 JP JP2018540434A patent/JP2019505926A/ja not_active Withdrawn
- 2017-02-06 EP EP17748352.6A patent/EP3411779A4/en not_active Withdrawn
- 2017-02-06 CA CA3011377A patent/CA3011377A1/en active Pending
-
2018
- 2018-07-16 IL IL260614A patent/IL260614A/en unknown
-
2021
- 2021-10-13 JP JP2021168082A patent/JP7297028B2/ja active Active
-
2022
- 2022-06-09 IL IL293782A patent/IL293782B2/en unknown
Also Published As
Publication number | Publication date |
---|---|
CN108700939A (zh) | 2018-10-23 |
EP3411779A1 (en) | 2018-12-12 |
IL293782A (en) | 2022-08-01 |
JP7297028B2 (ja) | 2023-06-23 |
CA3011377A1 (en) | 2017-08-10 |
IL260614A (en) | 2018-08-30 |
WO2017136833A1 (en) | 2017-08-10 |
IL293782B2 (en) | 2023-08-01 |
IL301449A (en) | 2023-05-01 |
CN114995647A (zh) | 2022-09-02 |
AU2017214748A1 (en) | 2018-08-02 |
IL301449B1 (en) | 2024-02-01 |
IL293782B1 (en) | 2023-04-01 |
CN108700939B (zh) | 2022-07-05 |
AU2017214748B2 (en) | 2021-05-06 |
AU2017214748B9 (en) | 2021-05-27 |
EP3411779A4 (en) | 2019-02-20 |
JP2022002144A (ja) | 2022-01-06 |
KR20180110051A (ko) | 2018-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7297028B2 (ja) | 拡張現実のためのシステムおよび方法 | |
US10678324B2 (en) | Systems and methods for augmented reality | |
JP7305690B2 (ja) | 拡張現実のためのシステムおよび方法 | |
CN109791435B (zh) | 虚拟现实或增强现实显示系统中磁传感器和光学传感器的校准 | |
JP2019522832A (ja) | 拡張現実システムを用いた電磁追跡 | |
CN116300091A (zh) | 用于使用位置向量解析半球模糊度的方法和系统 | |
US11256090B2 (en) | Systems and methods for augmented reality | |
NZ735802A (en) | Traffic diversion signalling system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181003 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201216 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210308 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210517 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210614 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211013 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20211013 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20211025 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20211026 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20211027 |