JP7139456B2 - ビューベースのブレークポイント - Google Patents
ビューベースのブレークポイント Download PDFInfo
- Publication number
- JP7139456B2 JP7139456B2 JP2020564625A JP2020564625A JP7139456B2 JP 7139456 B2 JP7139456 B2 JP 7139456B2 JP 2020564625 A JP2020564625 A JP 2020564625A JP 2020564625 A JP2020564625 A JP 2020564625A JP 7139456 B2 JP7139456 B2 JP 7139456B2
- Authority
- JP
- Japan
- Prior art keywords
- breakpoint
- view
- reality environment
- simulated reality
- views
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/362—Software debugging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/3664—Environments for testing or debugging software
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/3604—Software analysis for verifying properties of programs
- G06F11/3612—Software analysis for verifying properties of programs by runtime analysis
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/362—Software debugging
- G06F11/3624—Software debugging by performing operations on the source code, e.g. via a compiler
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/362—Software debugging
- G06F11/3636—Software debugging by tracing the execution of the program
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/06—Ray-tracing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Description
a.現実環境は、電子システムの支援なしに、個人が感知及び/又は対話できる世界を指す。現実環境(例えば、実際の森林)は、現実要素(例えば、実際の木、実際の構造物、及び実際の動物)を含む。個人は、接触、視覚、嗅覚、聴覚、及び味覚などを介して、現実環境と直接対話し、かつ/又は現実環境を直接感知することができる。
a.対照的に、模擬現実(simulated reality、SR)環境は、電子システムを介して、個人が感知及び/又は対話できる、完全又は部分的にコンピュータによって生成された環境を指す。SRにおいて、個人の動きのサブセットが監視され、それに応答して、SR環境における1つ以上の仮想オブジェクトの1つ以上の属性が、1つ以上の物理法則と一致するように変更される。例えば、SRシステムは、個人が前方に数歩歩くのを検出し、それに応答して、個人に提示されるグラフィック及び音声を、現実環境でそのような景色及び音にもたらされるであろう変化と同様の変化をもたらすように調整してもよい。SR環境における仮想オブジェクト(単数又は複数)の属性(単数又は複数)の修正は、また、動きの表現に応答して行われてもよい(例えば、音声に関する命令)。
b.個人は、接触、嗅覚、視覚、味覚、及び音声を含む、自身の感覚のうちのいずれか1つを使用して、SRオブジェクトと対話し、かつ/又はそれを感知することができる。例えば、個人は、多次元(例えば、3次元)又は空間的な聴覚環境を創り出す、かつ/又は音声透過性を可能にする音声オブジェクトと対話すし、かつ/又はそのような音声オブジェクトを感知することができる。多次元又は空間的聴覚環境は、多次元空間内の別個の音声源の知覚を個人に提供する。音声透過性は、コンピュータ生成された音声を用いて又は用いることなく、現実環境からの音声を選択的に組み込む。いくつかのSR環境において、個人は音声オブジェクトのみと対話してもよく、かつ/又は音声オブジェクトのみを感知してもよい。
a.SRの一例は、仮想現実(VR)である。VR環境とは、感覚のうちの少なくとも1つについて、コンピュータ生成された感覚入力のみを含むように設計された模擬(シミュレーテッド)環境を指す。VR環境は、個人が対話及び/又は感知することができる複数の仮想オブジェクトを含む。個人は、コンピュータ生成された環境内の個人のアクションのサブセットの模擬を通じて、かつ/又はコンピュータ生成された環境内の個人の模擬又は自身の存在を通じて、VR環境内の仮想オブジェクトと対話し、かつ/又は仮想オブジェクトを感知することができる。
a.SRの別の例は、複合現実(MR)である。MR環境とは、コンピュータ生成された感覚入力(例えば、仮想オブジェクト)を、現実環境又はその表現からの感覚入力と統合するように設計された模擬環境を指す。現実性のスペクトルにおいて、複合現実環境は一方の端のVR環境と他方の端の完全な現実環境との間にあり、両端を含まない。
b.いくつかのMR環境では、コンピュータによって生成される知覚入力は、現実環境からの知覚入力の変化に適応され得る。また、MR環境を提示するためのいくつかの電子システムは、また、現実環境に対する向き及び/又は位置を監視して、仮想オブジェクトと現実のオブジェクト(すなわち、現実環境からの現実要素又はその表現)との対話を可能とすることができる。例えば、システムは、仮想の植物が実際の建物に対して静止して見えるように動きを監視してもよい。
c.拡張現実
i.複合現実の一例は、拡張現実(AR)である。AR環境は、少なくとも1つの仮想オブジェクトが現実環境上か又はその表現上に重ねられた模擬環境を指す。例えば、電子システムは、不透明なディスプレイと、現実環境の表現である、現実環境の画像又は動画を取り込む少なくとも1つの撮像センサとを有してもよい。システムは、画像又は動画を仮想オブジェクトと合成し、その合成物を不透明なディスプレイ上に表示する。個人は、システムを使用して、現実環境の画像又は動画を介して間接的に現実環境を見て、現実環境上に重ねられた仮想オブジェクトを観察する。システムが画像センサ(単数又は複数)を使用して現実環境の画像を取り込み、それらの画像を使用して不透明なディスプレイ上にAR環境を提示する場合、表示される画像は、ビデオパススルーと呼ばれる。あるいは、AR環境を表示するための電子システムは、個人が現実環境を直接見ることができる透明又は半透明のディスプレイを有してもよい。システムは、透明又は半透明のディスプレイ上に仮想オブジェクトを表示し、それによって、個人はシステムを使用して、現実環境上に重ねられた仮想オブジェクトを観察してもよい。別の例において、システムは、仮想オブジェクトを現実環境に投影する投影システムを含んでもよい。仮想オブジェクトは、例えば、現実表面上に、又はホログラフとして投影され、それによって、個人は、システムを使用して、現実環境の上に重ねられた仮想オブジェクトを観察してもよい。
ii.拡張現実環境はまた、現実環境の表現がコンピュータ生成された感覚情報によって変換される模擬環境を指してもよい。例えば、現実環境の表現の一部分は、変更された部分が依然として元々取り込まれた画像(単数又は複数)の表現であり得るが、忠実に再現されたバージョンではないように、視覚的に変換(例えば、拡大)されてもよい。別の例として、ビデオパススルーを提供する際、システムは、センサ画像のうちの少なくとも1つを変更して、画像センサ(単数又は複数)によって取り込まれた視点とは異なる特定の視点を課すことができる。更なる実施例として、現実環境の表現は、その一部分を視覚的に不明瞭にするか、又は除外することによって変更されてもよい。
d.拡張仮想感
i.複合現実の別の例は、拡張仮想現実(AV)である。AV環境とは、コンピュータ生成された環境又は仮想環境が現実環境からの少なくとも1つの感覚入力を組み込む、模擬環境を指す。現実環境からの感覚入力(単数又は複数)は、現実環境の少なくとも1つの特性の表現であってもよい。例えば、仮想オブジェクトは、撮像センサ(単数又は複数)によって取り込まれた現実要素の色を呈してもよい。別の実施例では、仮想オブジェクトは、撮像、気象関連センサ、及び/又はオンライン気象データを介して特定されるような現実環境における実際の気象条件と一致する特性を示し得る。更に別の例では、拡張現実の森林は、仮想的な木及び構造物を有してもよいが、動物は、実際の動物の画像から正確に再現される特徴を有してもよい。
Claims (20)
- ディスプレイと、
前記ディスプレイに取り付けられた1つ以上の動きセンサと、
処理装置であって、
前記1つ以上の動きセンサを使用して取り込まれる動きデータにアクセスし、
少なくとも前記動きデータに基づいて、前記ディスプレイを使用して提示される模擬現実環境内のビューを決定し、
前記ビューがブレークポイントに関連付けられているかどうかを検出し、
前記ビューが前記ブレークポイントに関連付けられていることを検出したことに少なくとも基づいて、前記ブレークポイントをトリガし、前記ブレークポイントに関連付けられたデバッグ動作を実施し、
前記デバッグ動作を実施している間、前記模擬現実環境内の少なくとも1つの仮想オブジェクトの状態を前記ディスプレイによって表示し続け、前記1つ以上の動きセンサを使用して受信される入力に応答することを可能にするために、前記模擬現実環境の模擬プロセスの実行を継続するように構成された処理装置と、
を備えるシステム。 - 前記ビューが前記模擬現実環境内の位置からの視線ベクトルに対応しており、前記ブレークポイントが、前記模擬現実環境内の領域及び中央視線ベクトルに対する角度範囲に対応する、一組のビューに関連付けられており、前記処理装置が、
前記ビューの前記位置が前記一組のビューの前記領域内であるかどうかを判定し、
前記ビューの前記視線ベクトルと前記一組のビューの前記中央視線ベクトルとの間の角度を測定し、かつ
前記角度が前記一組のビューの前記角度範囲内であるかどうかを判定することにより、前記ビューが前記ブレークポイントに関連付けられていることを検出するように構成されている、請求項1に記載のシステム。 - 前記ビューが前記模擬現実環境内の視線に対応しており、前記ブレークポイントが、前記模擬現実環境内の領域を通る一連の視線に対応する一組のビューに関連付けられており、前記処理装置が、
前記ビューの前記視線が前記一組のビューの前記領域を通るかどうかを判定することにより、前記ビューが前記ブレークポイントに関連付けられていることを検出するように構成されている、請求項1に記載のシステム。 - 前記ビューが前記模擬現実環境内の焦点に対応しており、前記ブレークポイントが、前記模擬現実環境内の領域に対応する一組のビューに関連付けられており、前記処理装置が、
前記ビューの前記焦点が前記一組のビューの前記領域内であるかどうかを判定することにより、前記ビューが前記ブレークポイントに関連付けられていることを検出するように構成されている、請求項1に記載のシステム。 - 前記ブレークポイントが複数のトリガ条件を有し、前記処理装置が、
前記模擬現実環境内の仮想オブジェクトに関連付けられたプロセスのコードラインに到達し、同時に前記ビューが前記ブレークポイントに関連付けられていることに少なくとも基づいて、前記ブレークポイントをトリガするように構成されている、請求項1から4のいずれか一項に記載のシステム。 - 前記ブレークポイントが複数のトリガ条件を有し、前記処理装置が、
前記模擬現実環境内の仮想オブジェクトの状態の条件が満たされ、同時に前記ビューが前記ブレークポイントに関連付けられていることに少なくとも基づいて、前記ブレークポイントをトリガするように構成されている、請求項1から5のいずれか一項に記載のシステム。 - 前記ブレークポイントが複数のトリガ条件を有し、前記処理装置が、
前記ディスプレイのユーザによる動作を検出し、同時に前記ビューが前記ブレークポイントに関連付けられていることに少なくとも基づいて、前記ブレークポイントをトリガするように構成されている、請求項1から6のいずれか一項に記載のシステム。 - 前記処理装置が、
前記ブレークポイントがトリガされたことに応じて、少なくとも前記ビューに基づくレイキャスティングにより、前記模擬現実環境内のデバッグされる1つ以上の仮想オブジェクトを特定し、
特定された前記1つ以上の仮想オブジェクトに関連付けられた1つ以上のプロセスに関する前記デバッグ動作を実施するように構成されている、請求項1から7のいずれか一項に記載のシステム。 - 前記デバッグ動作が、前記模擬現実環境内の仮想オブジェクトに関連付けられたプロセスの実行を一時停止することを含む、請求項1から8のいずれか一項に記載のシステム。
- 前記処理装置が、
一時停止される前記プロセスに関連付けられた前記仮想オブジェクトの視覚表現を生成し、
前記プロセスが一時停止されている間、前記ディスプレイを使用して、前記模擬現実環境内の前記視覚表現の提示を継続するように構成されている、請求項9に記載のシステム。 - 前記デバッグ動作が、前記ディスプレイを使用して、前記ディスプレイのユーザが前記模擬現実環境内の仮想オブジェクトに関連付けられたプロセスの実行を制御することを可能にするデバッグ制御インタフェースを、前記模擬現実環境内に提示することを含む、請求項1から10のいずれか一項に記載のシステム。
- 前記デバッグ動作が、前記ディスプレイを使用して、前記模擬現実環境内の仮想オブジェクトに関連付けられたプロセスのコードを、前記模擬現実環境内に提示することを含む、請求項1から11のいずれか一項に記載のシステム。
- 前記ディスプレイがヘッドマウントディスプレイである、請求項1から12のいずれか一項に記載のシステム。
- 1つ以上の動きセンサを使用して取り込まれる動きデータにアクセスすることと、
少なくとも前記動きデータに基づいて、ディスプレイを使用して提示される模擬現実環境内のビューを決定することと、
前記ビューがブレークポイントに関連付けられているかどうかを検出することと、
前記ビューが前記ブレークポイントに関連付けられていることを検出したことに少なくとも基づいて、前記ブレークポイントをトリガすることと、
前記ブレークポイントがトリガされたことに応じて、前記ブレークポイントに関連付けられたデバッグ動作を実施することと、
前記デバッグ動作を実施している間、前記模擬現実環境内の少なくとも1つの仮想オブジェクトの状態が進展し前記ディスプレイによって表示され続けることを可能にするために、前記模擬現実環境の模擬プロセスの実行を継続することと、
を含む方法。 - 前記ビューが前記模擬現実環境内の位置からの視線ベクトルに対応しており、前記ブレークポイントが、前記模擬現実環境内の領域及び中央視線ベクトルに対する角度範囲に対応する、一組のビューに関連付けられており、前記ビューが前記ブレークポイントに関連付けられていることを検出することが、
前記ビューの前記位置が前記一組のビューの前記領域内であるかどうかを判定することと、
前記ビューの前記視線ベクトルと前記一組のビューの前記中央視線ベクトルとの間の角度を測定することと、
前記角度が前記一組のビューの前記角度範囲内であるかどうかを判定することとを含む、請求項14に記載の方法。 - 前記ビューが前記模擬現実環境内の視線に対応しており、前記ブレークポイントが、前記模擬現実環境内の領域を通る一連の視線に対応する一組のビューに関連付けられており、前記ビューが前記ブレークポイントに関連付けられていることを検出することが、
前記ビューの前記視線が前記一組のビューの前記領域を通るかどうかを判定することを含む、請求項14に記載の方法。 - 前記ビューが前記模擬現実環境内の焦点に対応しており、前記ブレークポイントが、前記模擬現実環境内の領域に対応する一組のビューに関連付けられており、前記ビューが前記ブレークポイントに関連付けられていることを検出することが、
前記ビューの前記焦点が前記一組のビューの前記領域内であるかどうかを判定することを含む、請求項14に記載の方法。 - 前記模擬現実環境内の仮想オブジェクトに関連付けられたプロセスのコードラインに到達し、同時に前記ビューが前記ブレークポイントに関連付けられていることに少なくとも基づいて、前記ブレークポイントをトリガすることを含む、請求項14から17のいずれか一項に記載の方法。
- 前記ブレークポイントがトリガされたことに応じて、少なくとも前記ビューに基づくレイキャスティングにより、前記模擬現実環境内のデバッグされる1つ以上の仮想オブジェクトを特定することと、
特定された前記1つ以上の仮想オブジェクトに関連付けられた1つ以上のプロセスに関する前記デバッグ動作を実施することと、
を含む、請求項14から18のいずれか一項に記載の方法。 - 前記デバッグ動作が、前記模擬現実環境内の仮想オブジェクトに関連付けられたプロセスの実行を一時停止することを含む、請求項14から19のいずれか一項に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862690012P | 2018-06-26 | 2018-06-26 | |
US62/690,012 | 2018-06-26 | ||
PCT/US2019/038919 WO2020005898A1 (en) | 2018-06-26 | 2019-06-25 | View-based breakpoints |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021524109A JP2021524109A (ja) | 2021-09-09 |
JPWO2020005898A5 JPWO2020005898A5 (ja) | 2022-04-20 |
JP7139456B2 true JP7139456B2 (ja) | 2022-09-20 |
Family
ID=67211972
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020564625A Active JP7139456B2 (ja) | 2018-06-26 | 2019-06-25 | ビューベースのブレークポイント |
Country Status (8)
Country | Link |
---|---|
US (1) | US20210286701A1 (ja) |
JP (1) | JP7139456B2 (ja) |
KR (1) | KR102501599B1 (ja) |
CN (1) | CN112262373A (ja) |
AU (1) | AU2019294492B2 (ja) |
DE (1) | DE112019003239T5 (ja) |
GB (1) | GB2588007B (ja) |
WO (1) | WO2020005898A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4211688A1 (en) * | 2020-09-14 | 2023-07-19 | Apple Inc. | Content playback and modifications in a 3d environment |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040128655A1 (en) | 2002-12-26 | 2004-07-01 | International Business Machines Corporation | Method, system, and article of manufacture for debugging utilizing screen pattern recognition and breakpoints |
WO2017066512A1 (en) | 2015-10-14 | 2017-04-20 | Prime Software Systems, Inc. | Visualizing the structure and execution of a program |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8261199B2 (en) * | 2007-10-16 | 2012-09-04 | International Business Machines Corporation | Breakpoint identification and presentation in virtual worlds |
US20130247007A1 (en) * | 2012-03-16 | 2013-09-19 | International Business Machines Corporation | Making debugger behavior conditional on past program state |
AU2015297035B2 (en) * | 2014-05-09 | 2018-06-28 | Google Llc | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
US9703681B2 (en) * | 2014-05-29 | 2017-07-11 | Microsoft Technology Licensing, Llc | Performance optimization tip presentation during debugging |
US10725297B2 (en) * | 2015-01-28 | 2020-07-28 | CCP hf. | Method and system for implementing a virtual representation of a physical environment using a virtual reality environment |
WO2017021944A2 (en) * | 2015-08-06 | 2017-02-09 | Avishai Abrahami | Cognitive state alteration system integrating multiple feedback technologies |
EP3362853A4 (en) * | 2015-10-12 | 2018-10-31 | E Ink California, LLC | Electrophoretic display device |
US9436583B1 (en) * | 2015-11-06 | 2016-09-06 | International Business Machines Corporation | Minimally disruptive debugging in a production environment |
US20180005444A1 (en) * | 2016-06-30 | 2018-01-04 | Daqri, Llc | Augmented reality failsafe mode |
US20180101986A1 (en) * | 2016-10-10 | 2018-04-12 | Aaron Mackay Burns | Drawing in a 3d virtual reality environment |
US10540262B2 (en) * | 2016-10-17 | 2020-01-21 | Microsoft Technology Licensing, Llc | Using edit and continue to dynamically set and unset optimizations in source code while debugging |
JP6756236B2 (ja) * | 2016-10-31 | 2020-09-16 | 富士通株式会社 | アクション指示プログラム、アクション指示方法及び画像生成装置 |
-
2019
- 2019-06-25 DE DE112019003239.9T patent/DE112019003239T5/de active Pending
- 2019-06-25 KR KR1020207035263A patent/KR102501599B1/ko active IP Right Grant
- 2019-06-25 CN CN201980033646.0A patent/CN112262373A/zh active Pending
- 2019-06-25 GB GB2018272.1A patent/GB2588007B/en active Active
- 2019-06-25 JP JP2020564625A patent/JP7139456B2/ja active Active
- 2019-06-25 AU AU2019294492A patent/AU2019294492B2/en active Active
- 2019-06-25 WO PCT/US2019/038919 patent/WO2020005898A1/en active Application Filing
-
2021
- 2021-03-16 US US17/203,681 patent/US20210286701A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040128655A1 (en) | 2002-12-26 | 2004-07-01 | International Business Machines Corporation | Method, system, and article of manufacture for debugging utilizing screen pattern recognition and breakpoints |
WO2017066512A1 (en) | 2015-10-14 | 2017-04-20 | Prime Software Systems, Inc. | Visualizing the structure and execution of a program |
Non-Patent Citations (1)
Title |
---|
高橋 忍,「Windows Mixed Realityアプリ開発入門 Unityで作るVR & HoloLensアプリケーション」,初版,日本,日経BP社,2018年06月04日,第243~247頁,ISBN: 978-4-8222-5376-9. |
Also Published As
Publication number | Publication date |
---|---|
GB2588007A (en) | 2021-04-14 |
DE112019003239T5 (de) | 2021-04-08 |
KR20210005274A (ko) | 2021-01-13 |
JP2021524109A (ja) | 2021-09-09 |
AU2019294492B2 (en) | 2022-01-27 |
GB2588007B (en) | 2022-10-12 |
KR102501599B1 (ko) | 2023-02-17 |
CN112262373A (zh) | 2021-01-22 |
GB202018272D0 (en) | 2021-01-06 |
WO2020005898A1 (en) | 2020-01-02 |
US20210286701A1 (en) | 2021-09-16 |
AU2019294492A1 (en) | 2020-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106662925B (zh) | 使用头戴式显示器设备的多用户注视投影 | |
JP6730286B2 (ja) | 拡張現実視野オブジェクトフォロワー | |
CN106575209B (zh) | 具有现实世界对象的虚拟现实环境 | |
US20160026242A1 (en) | Gaze-based object placement within a virtual reality environment | |
JP2017531221A (ja) | 仮想現実環境の中に没入したときのつまずき対抗 | |
US11520401B2 (en) | Focus-based debugging and inspection for a display system | |
JP2017531222A (ja) | ホログラフィックオブジェクトのためのスマート透明度 | |
KR20210030207A (ko) | 인스턴스 검출 및 일반적인 장면 이해를 이용한 객체 검출 | |
US11768590B2 (en) | Configuring objective-effectuators for synthesized reality settings | |
JP7139456B2 (ja) | ビューベースのブレークポイント | |
US20230290042A1 (en) | Content playback and modifications in a 3d environment | |
CN113678173A (zh) | 用于虚拟对象的基于图绘的放置的方法和设备 | |
JPWO2020005898A5 (ja) | ||
US11966278B2 (en) | System and method for logging visible errors in a videogame | |
WO2024064909A2 (en) | Methods, systems, and computer program products for alignment of a wearable device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201117 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220131 |
|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A524 Effective date: 20220412 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220808 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220907 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7139456 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |