JP7279176B2 - 仮想現実システムのための安全境界を修正するためのシステムおよび方法 - Google Patents
仮想現実システムのための安全境界を修正するためのシステムおよび方法 Download PDFInfo
- Publication number
- JP7279176B2 JP7279176B2 JP2021548502A JP2021548502A JP7279176B2 JP 7279176 B2 JP7279176 B2 JP 7279176B2 JP 2021548502 A JP2021548502 A JP 2021548502A JP 2021548502 A JP2021548502 A JP 2021548502A JP 7279176 B2 JP7279176 B2 JP 7279176B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual boundary
- real
- world environment
- virtual
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 35
- 238000012545 processing Methods 0.000 claims description 49
- 230000009471 action Effects 0.000 claims description 17
- 238000003384 imaging method Methods 0.000 claims description 12
- 230000004044 response Effects 0.000 claims description 7
- 238000012790 confirmation Methods 0.000 claims description 4
- 238000012544 monitoring process Methods 0.000 claims 2
- 238000012986 modification Methods 0.000 description 28
- 230000004048 modification Effects 0.000 description 28
- 230000033001 locomotion Effects 0.000 description 17
- 238000012937 correction Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000005259 measurement Methods 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 7
- 238000000926 separation method Methods 0.000 description 6
- 230000003190 augmentative effect Effects 0.000 description 5
- 238000013507 mapping Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 210000003128 head Anatomy 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 3
- 238000003702 image correction Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 229920001621 AMOLED Polymers 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/001—Texturing; Colouring; Generation of texture or colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/67—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Business, Economics & Management (AREA)
- General Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Business, Economics & Management (AREA)
- Optics & Photonics (AREA)
- Epidemiology (AREA)
- Computer Hardware Design (AREA)
- Medical Informatics (AREA)
- Primary Health Care (AREA)
- Public Health (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Geometry (AREA)
Description
本出願は、その開示全体がこの参照により組み込まれる、2018年10月31日に出願された米国非仮出願第16/177,424号の利益を主張する。
Claims (15)
- 現実世界環境の平面を表す基準高度の指示を受信することと、
前記基準高度に対して、仮想世界環境についての仮想境界を確立することと、
前記仮想境界が最小エリアしきい値を満たすか否かを決定することと、
前記仮想境界が前記最小エリアしきい値を満たさないとき、警告を表示することと、
前記仮想境界を修正したいというユーザからの要求を受信することと、
前記ユーザからの前記要求に応答して、配向データを生成するために方向インジケータの配向を監視することと、
前記基準高度と前記配向データとに基づいて前記仮想境界を修正することと
を含む、コンピュータ実装方法。 - 前記配向データが、前記基準高度に対する前記方向インジケータの高度の高度データを含み、
随意に、前記仮想境界を修正することが、前記平面と、前記高度データによって示された高度におけるおよび前記配向データによって示された前記配向における前記方向インジケータから延びる仮想線との交差部を決定することを含む、
請求項1に記載の方法。 - ヘッドマウントディスプレイシステムのイメージングシステムで前記現実世界環境のビューをキャプチャすることであって、キャプチャされた前記ビューがレンズ誘発ひずみを有する、前記現実世界環境のビューをキャプチャすることと、
前記現実世界環境の補償ビューを作り出すために、キャプチャされた前記ビュー中の前記レンズ誘発ひずみを補正することと、
前記仮想境界を前記現実世界環境の前記補償ビューに重ね合わせることと、
前記現実世界環境の前記補償ビューを前記ヘッドマウントディスプレイシステムのディスプレイに表示することと
をさらに含む、請求項1または2に記載の方法。 - 前記仮想境界が前記最小エリアしきい値を満たすとき、前記仮想境界が成功色で表示され、前記仮想境界が前記最小エリアしきい値を満たさないとき、前記仮想境界が警告色で表示され、および/または
前記仮想境界が、前記仮想境界によって画定された塗りつぶされた形状として表示される、
請求項3に記載の方法。 - 前記仮想境界を修正することが、前記仮想境界に部分を加えること、または前記仮想境界から部分を減じることを含む、請求項1から4のいずれか一項に記載の方法。
- 前記基準高度の確認を受信することをさらに含む、請求項1から5のいずれか一項に記載の方法。
- 前記仮想境界をリセットするための指示を受信することをさらに含む、請求項1から6のいずれか一項に記載の方法。
- 命令が記憶された有形非一時的コンピュータ可読記憶媒体であって、前記命令が、処理システムによって実行されたとき、前記処理システムに、
現実世界環境の平面を表す基準高度の指示を受信することと、
前記基準高度に対して、仮想世界環境についての仮想境界を確立することと、
前記仮想境界が最小エリアしきい値を満たすか否かを決定することと、
前記仮想境界が前記最小エリアしきい値を満たさないとき、警告を表示することと、
配向データを生成するために方向インジケータの配向を監視することと、
前記基準高度と前記配向データとに基づいて前記仮想境界を修正することと
を含む動作を実施させる、有形非一時的コンピュータ可読記憶媒体。 - 前記配向データが、前記基準高度に対する前記方向インジケータの高度の高度データを含み、
随意に、前記仮想境界を修正することが、前記平面と、前記高度データによって示された高度におけるおよび前記配向データによって示された前記配向における前記方向インジケータから延びる仮想線との交差部を決定することを含む、
請求項8に記載の非一時的コンピュータ可読記憶媒体。 - ヘッドマウントディスプレイシステムのイメージングシステムで前記現実世界環境のビューをキャプチャすることであって、キャプチャされた前記ビューがレンズ誘発ひずみを有する、前記現実世界環境のビューをキャプチャすることと、
前記現実世界環境の補償ビューを作り出すために、キャプチャされた前記ビュー中の前記レンズ誘発ひずみを補正することと、
前記仮想境界を、前記仮想境界によって画定された塗りつぶされた形状として、前記現実世界環境の前記補償ビューに重ね合わせることと、
前記現実世界環境の前記補償ビューを前記ヘッドマウントディスプレイシステムのディスプレイに表示することと
を行うための命令をさらに含み、
随意に、前記仮想境界が前記最小エリアしきい値を満たすとき、前記仮想境界が成功色で表示され、前記仮想境界が前記最小エリアしきい値を満たさないとき、前記仮想境界が警告色で表示される、
請求項8または9に記載の非一時的コンピュータ可読記憶媒体。 - 前記仮想境界を修正することが、前記仮想境界に部分を加えること、または前記仮想境界から部分を減じることを含む、請求項8から10のいずれか一項に記載の非一時的コンピュータ可読記憶媒体。
- ユーザアタッチメントシステムに固定されたディスプレイと、
方向インジケータと、
処理システムと
を備えるヘッドマウントディスプレイシステムであって、前記処理システムが、
現実世界環境の平面を表す基準高度を識別することと、
前記基準高度に対して、仮想世界環境についての仮想境界を確立することと、
前記仮想境界が最小エリアしきい値を満たすか否かを決定することと、
前記仮想境界が前記最小エリアしきい値を満たさないとき、警告を表示することと、
前記基準高度と前記方向インジケータの配向を特徴づける配向データとに基づいて前記仮想境界を修正することと
を行うように構成された、ヘッドマウントディスプレイシステム。 - 前記処理システムは、
前記ヘッドマウントディスプレイシステムのイメージングシステムで前記現実世界環境のビューをキャプチャすることであって、キャプチャされた前記ビューがレンズ誘発ひずみを有する、前記現実世界環境のビューをキャプチャすることと、
前記現実世界環境の補償ビューを作り出すために、キャプチャされた前記ビュー中の前記レンズ誘発ひずみを補正することと、
前記仮想境界を、前記仮想境界によって画定された塗りつぶされた形状として、前記現実世界環境の前記補償ビューに重ね合わせることと、
前記現実世界環境の前記補償ビューを前記ヘッドマウントディスプレイシステムのディスプレイに表示することと
を行うようにさらに構成され、
随意に、前記仮想境界が前記最小エリアしきい値を満たすとき、前記仮想境界が成功色で表示され、前記仮想境界が前記最小エリアしきい値を満たさないとき、前記仮想境界が警告色で表示される、
請求項12に記載のヘッドマウントディスプレイシステム。 - 前記仮想境界を修正することが、前記仮想境界に部分を加えること、または前記仮想境界から部分を減じることを含む、請求項12または13に記載のヘッドマウントディスプレイシステム。
- 前記配向データが、前記方向インジケータの高度の高度データを含み、前記仮想境界を修正することが、前記平面と、前記高度データによって示された前記高度におけるおよび前記配向データによって示された前記配向における前記方向インジケータから延びる仮想線との交差部を決定することを含む、請求項12から14のいずれか一項に記載のヘッドマウントディスプレイシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023078135A JP2023109848A (ja) | 2018-10-31 | 2023-05-10 | 仮想現実システムのための安全境界を修正するためのシステムおよび方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/177,424 US11244483B2 (en) | 2018-10-31 | 2018-10-31 | Systems and methods for modifying a safety boundary for virtual reality systems |
US16/177,424 | 2018-10-31 | ||
PCT/US2018/066974 WO2020091822A1 (en) | 2018-10-31 | 2018-12-20 | Systems and methods for modifying a safety boundary for virtual reality systems |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023078135A Division JP2023109848A (ja) | 2018-10-31 | 2023-05-10 | 仮想現実システムのための安全境界を修正するためのシステムおよび方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022509483A JP2022509483A (ja) | 2022-01-20 |
JP7279176B2 true JP7279176B2 (ja) | 2023-05-22 |
Family
ID=70327132
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021548502A Active JP7279176B2 (ja) | 2018-10-31 | 2018-12-20 | 仮想現実システムのための安全境界を修正するためのシステムおよび方法 |
JP2023078135A Pending JP2023109848A (ja) | 2018-10-31 | 2023-05-10 | 仮想現実システムのための安全境界を修正するためのシステムおよび方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023078135A Pending JP2023109848A (ja) | 2018-10-31 | 2023-05-10 | 仮想現実システムのための安全境界を修正するためのシステムおよび方法 |
Country Status (6)
Country | Link |
---|---|
US (3) | US11244483B2 (ja) |
EP (2) | EP3874357A4 (ja) |
JP (2) | JP7279176B2 (ja) |
KR (1) | KR20210071083A (ja) |
CN (1) | CN113260969A (ja) |
WO (1) | WO2020091822A1 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200096901A (ko) * | 2018-01-05 | 2020-08-14 | 삼성전자주식회사 | 가상 현실 (vr) 디바이스에 의해 디스플레이되는 가상 컨텐트를 네비게이트하는 방법 및 장치 |
US10965985B2 (en) * | 2018-05-21 | 2021-03-30 | Hisense Visual Technology Co., Ltd. | Display apparatus with intelligent user interface |
US10901081B2 (en) * | 2018-10-02 | 2021-01-26 | International Business Machines Corporation | Virtual reality safety |
JP6713591B1 (ja) * | 2019-04-17 | 2020-06-24 | 楽天株式会社 | 表示制御装置、表示制御方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体 |
KR102306392B1 (ko) * | 2019-08-19 | 2021-09-30 | 한국과학기술연구원 | 인터랙션 인터페이스의 제어 방법 및 이를 지원하는 장치 |
US11175730B2 (en) | 2019-12-06 | 2021-11-16 | Facebook Technologies, Llc | Posture-based virtual space configurations |
US11073902B1 (en) * | 2019-12-30 | 2021-07-27 | Facebook Technologies, Llc | Using skeletal position to predict virtual boundary activation |
US11602691B2 (en) * | 2020-03-13 | 2023-03-14 | Harmonix Music Systems, Inc. | Techniques for virtual reality boundaries and related systems and methods |
US11257280B1 (en) | 2020-05-28 | 2022-02-22 | Facebook Technologies, Llc | Element-based switching of ray casting rules |
US11493764B2 (en) | 2020-06-04 | 2022-11-08 | Htc Corporation | Method for dynamically displaying real-world scene, electronic device, and computer readable medium |
US11256336B2 (en) | 2020-06-29 | 2022-02-22 | Facebook Technologies, Llc | Integration of artificial reality interaction modes |
CN115735174A (zh) * | 2020-06-29 | 2023-03-03 | 美国斯耐普公司 | 使用保持社交距离的增强现实体验 |
US11178376B1 (en) | 2020-09-04 | 2021-11-16 | Facebook Technologies, Llc | Metering for display modes in artificial reality |
US11294475B1 (en) | 2021-02-08 | 2022-04-05 | Facebook Technologies, Llc | Artificial reality multi-modal input switching model |
JP2023056109A (ja) * | 2021-10-07 | 2023-04-19 | トヨタ自動車株式会社 | 仮想空間制御システム、その制御方法、及び、制御プログラム |
CN113932805B (zh) * | 2021-10-12 | 2024-02-23 | 天翼数字生活科技有限公司 | 用于提高ar虚拟对象定位准确性与速度的方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017055173A (ja) | 2015-09-07 | 2017-03-16 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および画像生成方法 |
JP2018508851A (ja) | 2014-12-24 | 2018-03-29 | ノキア テクノロジーズ オーユー | モニタリング |
WO2018158896A1 (ja) | 2017-03-01 | 2018-09-07 | 三菱電機株式会社 | 情報処理システム |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2636030A1 (en) | 2006-01-17 | 2007-07-26 | Qualcomm Incorporated | Method and apparatus for setting the boundaries of virtual operations |
US8161397B2 (en) | 2008-06-05 | 2012-04-17 | Samsung Electronics Co., Ltd. | Interaction between real-world digital environments and virtual worlds |
DE102009037835B4 (de) * | 2009-08-18 | 2012-12-06 | Metaio Gmbh | Verfahren zur Darstellung von virtueller Information in einer realen Umgebung |
WO2013126784A2 (en) | 2012-02-23 | 2013-08-29 | Huston Charles D | System and method for creating an environment and for sharing a location based experience in an environment |
US9754167B1 (en) | 2014-04-17 | 2017-09-05 | Leap Motion, Inc. | Safety for wearable virtual reality devices via object detection and tracking |
US9864016B2 (en) | 2014-10-31 | 2018-01-09 | GM Global Technology Operations LLC | Battery system pack life estimation systems and methods |
JP6539351B2 (ja) * | 2014-11-05 | 2019-07-03 | バルブ コーポレーション | 仮想現実環境においてユーザをガイドするための感覚フィードバックシステム及び方法 |
US9955862B2 (en) * | 2015-03-17 | 2018-05-01 | Raytrx, Llc | System, method, and non-transitory computer-readable storage media related to correction of vision defects using a visual display |
US9690374B2 (en) * | 2015-04-27 | 2017-06-27 | Google Inc. | Virtual/augmented reality transition system and method |
US20170103574A1 (en) | 2015-10-13 | 2017-04-13 | Google Inc. | System and method for providing continuity between real world movement and movement in a virtual/augmented reality experience |
US9996944B2 (en) | 2016-07-06 | 2018-06-12 | Qualcomm Incorporated | Systems and methods for mapping an environment |
US9971854B1 (en) * | 2017-06-29 | 2018-05-15 | Best Apps, Llc | Computer aided systems and methods for creating custom products |
US10803663B2 (en) * | 2017-08-02 | 2020-10-13 | Google Llc | Depth sensor aided estimation of virtual reality environment boundaries |
-
2018
- 2018-10-31 US US16/177,424 patent/US11244483B2/en active Active
- 2018-12-20 EP EP18938341.7A patent/EP3874357A4/en active Pending
- 2018-12-20 JP JP2021548502A patent/JP7279176B2/ja active Active
- 2018-12-20 WO PCT/US2018/066974 patent/WO2020091822A1/en unknown
- 2018-12-20 EP EP23169413.4A patent/EP4227777A1/en active Pending
- 2018-12-20 CN CN201880100579.5A patent/CN113260969A/zh active Pending
- 2018-12-20 KR KR1020217016331A patent/KR20210071083A/ko not_active Application Discontinuation
-
2022
- 2022-02-04 US US17/665,211 patent/US11741649B2/en active Active
-
2023
- 2023-05-10 JP JP2023078135A patent/JP2023109848A/ja active Pending
- 2023-07-31 US US18/362,260 patent/US20230377744A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018508851A (ja) | 2014-12-24 | 2018-03-29 | ノキア テクノロジーズ オーユー | モニタリング |
JP2017055173A (ja) | 2015-09-07 | 2017-03-16 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および画像生成方法 |
WO2018158896A1 (ja) | 2017-03-01 | 2018-09-07 | 三菱電機株式会社 | 情報処理システム |
Also Published As
Publication number | Publication date |
---|---|
US11741649B2 (en) | 2023-08-29 |
US11244483B2 (en) | 2022-02-08 |
EP4227777A1 (en) | 2023-08-16 |
CN113260969A (zh) | 2021-08-13 |
JP2022509483A (ja) | 2022-01-20 |
US20200134895A1 (en) | 2020-04-30 |
JP2023109848A (ja) | 2023-08-08 |
EP3874357A1 (en) | 2021-09-08 |
US20230377744A1 (en) | 2023-11-23 |
EP3874357A4 (en) | 2021-12-15 |
WO2020091822A1 (en) | 2020-05-07 |
KR20210071083A (ko) | 2021-06-15 |
US20220156997A1 (en) | 2022-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7279176B2 (ja) | 仮想現実システムのための安全境界を修正するためのシステムおよび方法 | |
US10535199B1 (en) | Systems and methods for determining a safety boundary for a mobile artificial reality user | |
US11361513B2 (en) | Head-mounted display with pass-through imaging | |
JP6381711B2 (ja) | 仮想現実システムの較正 | |
US10901215B1 (en) | Systems and methods for providing a mobile artificial reality user with environmental awareness | |
CN109791442B (zh) | 表面建模系统和方法 | |
US10859831B1 (en) | Systems and methods for safely operating a mobile virtual reality system | |
US10740971B2 (en) | Augmented reality field of view object follower | |
CN110362193B (zh) | 用手或眼睛跟踪辅助的目标跟踪方法及系统 | |
CN110915208A (zh) | 使用深度传感器的虚拟现实环境边界 | |
US11156843B2 (en) | End-to-end artificial reality calibration testing | |
US20190371072A1 (en) | Static occluder | |
JP6662914B2 (ja) | 媒介現実 | |
JP2018526716A (ja) | 媒介現実 | |
US11302023B2 (en) | Planar surface detection | |
JP7103354B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US11195320B2 (en) | Feed-forward collision avoidance for artificial reality environments | |
WO2021141677A1 (en) | Inertial measurement unit signal based image reprojection | |
WO2021241110A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
WO2023149126A1 (ja) | 情報処理装置および情報処理方法 | |
JP2024024367A (ja) | 情報処理装置および情報処理方法 | |
CN117496098A (zh) | 使用深度神经网络的稀疏颜色重建 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210924 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220829 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220906 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230411 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230510 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7279176 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |