JP7198766B2 - 仮想、拡張、および複合現実システムのための深度感知技法 - Google Patents
仮想、拡張、および複合現実システムのための深度感知技法 Download PDFInfo
- Publication number
- JP7198766B2 JP7198766B2 JP2019548327A JP2019548327A JP7198766B2 JP 7198766 B2 JP7198766 B2 JP 7198766B2 JP 2019548327 A JP2019548327 A JP 2019548327A JP 2019548327 A JP2019548327 A JP 2019548327A JP 7198766 B2 JP7198766 B2 JP 7198766B2
- Authority
- JP
- Japan
- Prior art keywords
- depth
- mode
- sensor
- steps
- operational
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 90
- 230000003190 augmentative effect Effects 0.000 title claims description 23
- 230000033001 locomotion Effects 0.000 claims description 28
- 230000002730 additional effect Effects 0.000 claims description 7
- 238000005259 measurement Methods 0.000 description 125
- 238000005286 illumination Methods 0.000 description 14
- 230000004044 response Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 10
- 230000010363 phase shift Effects 0.000 description 8
- 230000009471 action Effects 0.000 description 7
- 230000008901 benefit Effects 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000007796 conventional method Methods 0.000 description 3
- 230000001934 delay Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 241000256837 Apidae Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000012913 prioritisation Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000008672 reprogramming Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/139—Format conversion, e.g. of frame-rate or size
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/296—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/667—Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/951—Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/957—Light-field or plenoptic cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/958—Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
- H04N23/959—Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- Radar, Positioning & Navigation (AREA)
- Electromagnetism (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Studio Devices (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Testing Or Calibration Of Command Recording Devices (AREA)
- Holo Graphy (AREA)
- Measurement Of Optical Distance (AREA)
- User Interface Of Digital Computer (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Radar Systems Or Details Thereof (AREA)
- Image Processing (AREA)
Description
本願に関し提出された出願データシートに識別される外国および国内優先権に対する任意およびすべての出願は、規則37CFR1.57のもと、参照により本明細書に引用される。すなわち、本願は、米国仮特許出願第62/474,503号(2017年3月21日出願、名称「DEPTH SENSING TECHNIQUES FOR VIRTUAL,AUGMENTED,AND MIXED REALITY SYSTEMS」)に対する優先権を主張し、上記出願は、その全体が参照により本明細書に引用される。
(分野)
本発明は、例えば、以下を提供する。
(項目1)
センサを動作させる方法であって、前記方法は、
第1の動作モードを定義する第1の一連の動作ステップと第2の動作モードを定義する第2の一連の動作ステップとの両方に含まれる一連の共通動作ステップを前記センサに提供することと、
前記第1の動作モードと前記第2の動作モードとの間の差異に関する1つ以上のダミー動作ステップを前記センサに提供することと、
前記センサに少なくとも前記共通動作ステップを実行させることによって、前記センサを前記第1の動作モードで動作させることと、
前記センサに前記共通動作ステップと少なくとも1つのダミー動作ステップとを実行させることによって、前記センサを前記第2の動作モードで動作させることと
を含む、方法。
(項目2)
前記第1の動作モードは、少なくとも前記共通動作ステップを第1のレートで実行することを含み、前記第2の動作モードは、前記共通動作ステップと少なくとも1つのダミー動作ステップとを前記第1のレートより低速である第2のレートで実施することを含む、項目1に記載の方法。
(項目3)
前記1つ以上のダミー動作ステップのうちの少なくとも1つは、遅延を含む、項目2に記載の方法。
(項目4)
前記一連の共通動作ステップと前記1つ以上のダミー動作ステップとを前記センサに提供することは、それらの動作ステップをセンサメモリに記憶することを含む、項目1に記載の方法。
(項目5)
前記センサを前記第1の動作モードと第2の動作モードとの間で切り替えることが、動作ステップを前記センサメモリに記憶するための任意の追加の行為を要求しない、項目4に記載の方法。
(項目6)
前記センサは、深度センサを備えている、項目1に記載の方法。
(項目7)
前記深度センサは、飛行時間カメラを備えている、項目6に記載の方法。
(項目8)
前記第1の動作モードは、第1のフレームレートを伴う深度感知モードを含み、前記第2の動作モードは、前記第1のフレームレートより低速である第2のフレームレートを伴う深度感知モードを含む、項目6に記載の方法。
(項目9)
深度情報を前記深度センサから仮想現実、拡張現実、または複合現実ディスプレイシステムに提供することをさらに含む、項目6に記載の方法。
(項目10)
センサを動作させるためのシステムであって、前記システムは、方法を実行するように構成されたプロセッサを備え、前記方法は、
第1の動作モードを定義する第1の一連の動作ステップと第2の動作モードを定義する第2の一連の動作ステップとの両方に含まれる一連の共通動作ステップを前記センサに提供することと、
前記第1の動作モードと前記第2の動作モードとの間の差異に関する1つ以上のダミー動作ステップを前記センサに提供することと、
前記センサに少なくとも前記共通動作ステップを実行させることによって、前記センサを前記第1の動作モードで動作させることと、
前記センサに前記共通動作ステップと少なくとも1つのダミー動作ステップとを実行させることによって、前記センサを前記第2の動作モードで動作させることと
を含む、システム。
(項目11)
前記第1の動作モードは、少なくとも前記共通動作ステップを第1のレートで実行することを含み、前記第2の動作モードは、前記共通動作ステップと少なくとも1つのダミー動作ステップとを前記第1のレートより低速である第2のレートで実施することを含む、項目10に記載のシステム。
(項目12)
前記1つ以上のダミー動作ステップのうちの少なくとも1つは、遅延を含む、項目11に記載のシステム。
(項目13)
前記一連の共通動作ステップと前記1つ以上のダミー動作ステップとを前記センサに提供することは、それらの動作ステップをセンサメモリに記憶することを含む、項目10に記載のシステム。
(項目14)
前記センサを前記第1の動作モードと第2の動作モードとの間で切り替えることが、動作ステップを前記センサメモリに記憶するための任意の追加の行為を要求しない、項目13に記載のシステム。
(項目15)
前記センサは、深度センサを備えている、項目10に記載のシステム。
(項目16)
前記深度センサは、飛行時間カメラを備えている、項目15に記載のシステム。
(項目17)
前記第1の動作モードは、第1のフレームレートを伴う深度感知モードを含み、前記第2の動作モードは、前記第1のフレームレートより低速である第2のフレームレートを伴う深度感知モードを含む、項目15に記載のシステム。
(項目18)
前記システムは、仮想現実、拡張現実、または複合現実ディスプレイシステム内に統合されている、項目15に記載のシステム。
(項目19)
前記プロセッサは、状態機械を備えている、項目10に記載のシステム。
(項目20)
前記センサを前記第1のモードまたは前記第2のモードで動作させるための要求を受信するためのアービタをさらに備え、前記アービタは、前記要求をスケジューリングおよび優先順位付けするように構成されている、項目10に記載のシステム。
(項目21)
前記センサをさらに備えている、項目10に記載のシステム。
(項目22)
深度センサを動作させる方法であって、前記方法は、
第1のタイプの深度測定のための第1の要求を受信することと、
第2のタイプの深度測定のための第2の要求を受信することと、
第1の優先順位を前記第1の要求に割り当てることと、
第2の優先順位を前記第2の要求に割り当てることと、
前記第1の優先順位が前記第2の優先順位より高い場合、前記第1のタイプの深度測定を前記深度センサに最初に取得させること、または、前記第2の優先順位が前記第1の優先順位より高い場合、前記第2のタイプの深度測定を前記深度センサに最初に取得させることと
を含む、方法。
(項目23)
前記第1の優先順位は、前記第1のタイプの深度測定を要求する第1のアプリケーションの優先順位に基づいて割り当てられ、前記第2の優先順位は、前記第2のタイプの深度測定を要求する第2のアプリケーションの優先順位に基づいて割り当てられる、項目22に記載の方法。
(項目24)
深度センサを動作させるためのシステムであって、前記システムは、
第1のタイプの深度測定のための第1の要求と、第2のタイプの深度測定のための第2の要求とを受信するように構成されたアービタであって、前記アービタは、第1の優先順位を前記第1の要求に割り当て、第2の優先順位を前記第2の要求に割り当てるように構成されている、アービタと、
プロセッサと
を備え、
前記プロセッサは、前記第1の優先順位が前記第2の優先順位より高い場合、前記第1のタイプの深度測定を前記深度センサに最初に取得させること、または、前記第2の優先順位が前記第1の優先順位より高い場合、前記第2のタイプの深度測定を前記深度センサに最初に取得させることを行うように構成されている、システム。
(項目25)
前記アービタは、前記第1のタイプの深度測定を要求する第1のアプリケーションの優先順位に基づいて、前記第1の優先順位を割り当て、前記第2のタイプの深度測定を要求する第2のアプリケーションの優先順位に基づいて、前記第2の優先順位を割り当てるように構成されている、項目24に記載のシステム。
(項目26)
前記システムは、仮想、拡張、または複合現実ディスプレイシステム内に統合されている、項目24に記載のシステム。
(項目27)
深度センサを動作させる方法であって、前記方法は、
深度センサのための構成動作を実施することであって、前記構成動作は、
第1の深度感知動作モードを定義する第1の一連の動作ステップを前記深度センサのメモリに記憶することと、
第2の深度感知動作モードを定義する第2の一連の動作ステップを前記深度センサのメモリに記憶することと
を含む、ことと、
前記第1の深度感知動作モードに従った深度測定のための第1の要求を受信することと、
前記第1の要求に応答して、前記深度センサに前記第1の一連の動作ステップを実行させることによって、前記深度センサを前記第1の動作モードで動作させることと、
前記第2の深度感知動作モードに従った深度測定のための第2の要求を受信することと、
前記第2の要求に応答して、追加の構成動作を実施することなく前記深度センサに前記第2の一連の動作ステップを実行させることによって、前記深度センサを前記第2の動作モードで動作させることと
を含む、方法。
(項目28)
前記深度センサは、飛行時間カメラを備えている、項目27に記載の方法。
(項目29)
前記第1の深度感知動作モードは、第1の測定距離範囲に対応し、前記第2の深度感知動作モードは、前記第1の測定距離範囲と異なる第2の測定距離範囲に対応する、項目27に記載の方法。
(項目30)
前記第1の深度感知動作モードは、第1のフレームレートに対応し、前記第2の深度感
知動作モードは、前記第1のフレームレートより低速である第2のフレームレートに対応する、項目27に記載の方法。
(項目31)
深度情報を前記深度センサから仮想現実、拡張現実、または複合現実ディスプレイシステムに提供することをさらに含む、項目27に記載の方法。
(項目32)
深度センサを動作させるためのシステムであって、前記システムは、方法を実行するように構成されたプロセッサを備え、前記方法は、
深度センサのための構成動作を実施することであって、前記構成動作は、第1の深度感知動作モードを定義する第1の一連の動作ステップを前記深度センサのメモリに記憶することと、第2の深度感知動作モードを定義する第2の一連の動作ステップを前記深度センサのメモリに記憶することとを含む、ことと、
前記第1の深度感知動作モードに従った深度測定のための第1の要求を受信することと、
前記第1の要求に応答して、前記深度センサに前記第1の一連の動作ステップを実行させることによって、前記深度センサを前記第1の動作モードで動作させることと、
前記第2の深度感知動作モードに従った深度測定のための第2の要求を受信することと、
前記第2の要求に応答して、追加の構成動作を実施することなく前記深度センサに前記第2の一連の動作ステップを実行させることによって、前記深度センサを前記第2の動作モードで動作させることと
を含む、システム。
(項目33)
前記深度センサは、飛行時間カメラを備えている、項目32に記載のシステム。
(項目34)
前記第1の深度感知動作モードは、第1の測定距離範囲に対応し、前記第2の深度感知動作モードは、前記第1の測定距離範囲と異なる第2の測定距離範囲に対応する、項目32に記載のシステム。
(項目35)
前記第1の深度感知動作モードは、第1のフレームレートに対応し、前記第2の深度感知動作モードは、前記第1のフレームレートより低速である第2のフレームレートに対応する、項目32に記載のシステム。
(項目36)
前記システムは、仮想、拡張、または複合現実ディスプレイシステム内に統合されている、項目32に記載のシステム。
(例示的実施形態)
(追加の考慮点)
Claims (21)
- 深度センサを動作させる方法であって、前記方法は、
第1の深度感知動作モードを定義する第1の一連の動作ステップと第2の深度感知動作モードを定義する第2の一連の動作ステップとの両方に含まれる一連の共通動作ステップを前記深度センサに提供することと、
前記第1の深度感知動作モードと前記第2の深度感知動作モードとの間の差異に関する1つ以上のダミー動作ステップを前記深度センサに提供することにより、前記1つ以上のダミー動作ステップを前記一連の共通動作ステップと一緒に実行することによって前記第1の深度感知動作モードが前記第2の深度感知動作モードに変換されるようにすることと、
前記深度センサに少なくとも前記共通動作ステップを実行させることによって、前記深度センサを前記第1の深度感知動作モードで動作させることと、
前記深度センサに前記共通動作ステップと少なくとも1つのダミー動作ステップとを実行させることによって、前記深度センサを前記第2の深度感知動作モードで動作させることと
を含む、方法。 - 前記第1の深度感知動作モードは、少なくとも前記共通動作ステップを第1のレートで実行することを含み、前記第2の深度感知動作モードは、前記共通動作ステップと少なくとも1つのダミー動作ステップとを前記第1のレートより低速である第2のレートで実施することを含む、請求項1に記載の方法。
- 前記1つ以上のダミー動作ステップのうちの少なくとも1つは、遅延を含む、請求項2に記載の方法。
- 前記一連の共通動作ステップと前記1つ以上のダミー動作ステップとを前記深度センサに提供することは、それらの動作ステップを深度センサメモリに記憶することを含む、請求項1に記載の方法。
- 前記深度センサを前記第1の深度感知動作モードと第2の深度感知動作モードとの間で切り替えることが、動作ステップを前記深度センサメモリに記憶するための任意の追加の行為を要求しない、請求項4に記載の方法。
- 前記深度センサは、飛行時間カメラを備えている、請求項1に記載の方法。
- 前記第1の深度感知動作モードは、第1のフレームレートを伴う深度感知モードを含み、前記第2の深度感知動作モードは、前記第1のフレームレートより低速である第2のフレームレートを伴う深度感知モードを含む、請求項1に記載の方法。
- 深度情報を前記深度センサから仮想現実、拡張現実、または複合現実ディスプレイシステムに提供することをさらに含む、請求項1に記載の方法。
- 深度センサを動作させるためのシステムであって、前記システムは、方法を実行するように構成されたプロセッサを備え、前記方法は、
第1の深度感知動作モードを定義する第1の一連の動作ステップと第2の深度感知動作モードを定義する第2の一連の動作ステップとの両方に含まれる一連の共通動作ステップを前記深度センサに提供することと、
前記第1の深度感知動作モードと前記第2の深度感知動作モードとの間の差異に関する1つ以上のダミー動作ステップを前記深度センサに提供することにより、前記1つ以上のダミー動作ステップを前記一連の共通動作ステップと一緒に実行することによって前記第1の深度感知動作モードが前記第2の深度感知動作モードに変換されるようにすることと、
前記深度センサに少なくとも前記共通動作ステップを実行させることによって、前記深度センサを前記第1の深度感知動作モードで動作させることと、
前記深度センサに前記共通動作ステップと少なくとも1つのダミー動作ステップとを実行させることによって、前記深度センサを前記第2の深度感知動作モードで動作させることと
を含む、システム。 - 前記第1の深度感知動作モードは、少なくとも前記共通動作ステップを第1のレートで実行することを含み、前記第2の深度感知動作モードは、前記共通動作ステップと少なくとも1つのダミー動作ステップとを前記第1のレートより低速である第2のレートで実施することを含む、請求項9に記載のシステム。
- 前記1つ以上のダミー動作ステップのうちの少なくとも1つは、遅延を含む、請求項10に記載のシステム。
- 前記一連の共通動作ステップと前記1つ以上のダミー動作ステップとを前記深度センサに提供することは、それらの動作ステップを深度センサメモリに記憶することを含む、請求項9に記載のシステム。
- 前記深度センサを前記第1の深度感知動作モードと第2の深度感知動作モードとの間で切り替えることが、動作ステップを前記深度センサメモリに記憶するための任意の追加の行為を要求しない、請求項12に記載のシステム。
- 前記深度センサは、飛行時間カメラを備えている、請求項9に記載のシステム。
- 前記第1の深度感知動作モードは、第1のフレームレートを伴う深度感知モードを含み、前記第2の深度感知動作モードは、前記第1のフレームレートより低速である第2のフレームレートを伴う深度感知モードを含む、請求項9に記載のシステム。
- 前記システムは、仮想現実、拡張現実、または複合現実ディスプレイシステム内に統合されている、請求項9に記載のシステム。
- 前記プロセッサは、状態機械を備えている、請求項9に記載のシステム。
- 前記深度センサを前記第1のモードまたは前記第2のモードで動作させるための要求を受信するためのアービタをさらに備え、前記アービタは、前記要求をスケジューリングおよび優先順位付けするように構成されている、請求項9に記載のシステム。
- 前記深度センサをさらに備えている、請求項9に記載のシステム。
- 前記1つ以上のダミー動作ステップは、前記第1の深度感知動作モードを定義する動作ステップと組み合わせて実行されるときに前記第2の深度感知動作モードにおける1つ以上のステップをもたらすだけである、請求項9に記載のシステム。
- 前記1つ以上のダミー動作ステップは、前記第1の深度感知動作モードにおけるステップである第1の時間遅延と前記第2の深度感知動作モードにおけるステップである第2の時間遅延との間の時間遅延差異を含む、請求項9に記載のシステム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021038206A JP7198850B2 (ja) | 2017-03-21 | 2021-03-10 | 仮想、拡張、および複合現実システムのための深度感知技法 |
JP2022184776A JP2023018033A (ja) | 2017-03-21 | 2022-11-18 | 仮想、拡張、および複合現実システムのための深度感知技法 |
JP2023197268A JP2024020489A (ja) | 2017-03-21 | 2023-11-21 | 仮想、拡張、および複合現実システムのための深度感知技法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762474503P | 2017-03-21 | 2017-03-21 | |
US62/474,503 | 2017-03-21 | ||
PCT/US2018/023179 WO2018175344A1 (en) | 2017-03-21 | 2018-03-19 | Depth sensing techniques for virtual, augmented, and mixed reality systems |
Related Child Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021038206A Division JP7198850B2 (ja) | 2017-03-21 | 2021-03-10 | 仮想、拡張、および複合現実システムのための深度感知技法 |
JP2022184776A Division JP2023018033A (ja) | 2017-03-21 | 2022-11-18 | 仮想、拡張、および複合現実システムのための深度感知技法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020514735A JP2020514735A (ja) | 2020-05-21 |
JP7198766B2 true JP7198766B2 (ja) | 2023-01-04 |
Family
ID=63583181
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019548327A Active JP7198766B2 (ja) | 2017-03-21 | 2018-03-19 | 仮想、拡張、および複合現実システムのための深度感知技法 |
JP2021038206A Active JP7198850B2 (ja) | 2017-03-21 | 2021-03-10 | 仮想、拡張、および複合現実システムのための深度感知技法 |
JP2022184776A Pending JP2023018033A (ja) | 2017-03-21 | 2022-11-18 | 仮想、拡張、および複合現実システムのための深度感知技法 |
JP2023197268A Pending JP2024020489A (ja) | 2017-03-21 | 2023-11-21 | 仮想、拡張、および複合現実システムのための深度感知技法 |
Family Applications After (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021038206A Active JP7198850B2 (ja) | 2017-03-21 | 2021-03-10 | 仮想、拡張、および複合現実システムのための深度感知技法 |
JP2022184776A Pending JP2023018033A (ja) | 2017-03-21 | 2022-11-18 | 仮想、拡張、および複合現実システムのための深度感知技法 |
JP2023197268A Pending JP2024020489A (ja) | 2017-03-21 | 2023-11-21 | 仮想、拡張、および複合現実システムのための深度感知技法 |
Country Status (9)
Country | Link |
---|---|
US (4) | US10455153B2 (ja) |
EP (2) | EP3603055B1 (ja) |
JP (4) | JP7198766B2 (ja) |
KR (2) | KR102527329B1 (ja) |
CN (2) | CN113568508A (ja) |
AU (1) | AU2018237067B2 (ja) |
CA (1) | CA3055572C (ja) |
IL (3) | IL302172B2 (ja) |
WO (1) | WO2018175344A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2018237067B2 (en) | 2017-03-21 | 2022-11-10 | Magic Leap, Inc. | Depth sensing techniques for virtual, augmented, and mixed reality systems |
US11619814B1 (en) * | 2018-06-04 | 2023-04-04 | Meta Platforms Technologies, Llc | Apparatus, system, and method for improving digital head-mounted displays |
US11985440B2 (en) | 2018-11-12 | 2024-05-14 | Magic Leap, Inc. | Depth based dynamic vision sensor |
WO2020101895A1 (en) * | 2018-11-12 | 2020-05-22 | Magic Leap, Inc. | Event-based camera with high-resolution frame output |
US11902677B2 (en) | 2018-11-12 | 2024-02-13 | Magic Leap, Inc. | Patch tracking image sensor |
US10861165B2 (en) * | 2019-01-11 | 2020-12-08 | Microsoft Technology Licensing, Llc | Subject tracking with aliased time-of-flight data |
EP3914997A4 (en) | 2019-01-25 | 2022-10-12 | Magic Leap, Inc. | OCULOMETRY USING IMAGES WITH DIFFERENT EXPOSURE TIMES |
WO2020163662A1 (en) | 2019-02-07 | 2020-08-13 | Magic Leap, Inc. | Lightweight cross reality device with passive depth extraction |
CN113678435A (zh) | 2019-02-07 | 2021-11-19 | 奇跃公司 | 具有高时间分辨率的轻型低功耗交叉现实设备 |
WO2020236827A1 (en) | 2019-05-20 | 2020-11-26 | Magic Leap, Inc. | Systems and techniques for estimating eye pose |
US20220229189A1 (en) * | 2019-07-05 | 2022-07-21 | Sony Semiconductor Solutions Corporation | Time-of-flight sensor and system |
JP7175872B2 (ja) * | 2019-11-14 | 2022-11-21 | 株式会社日立エルジーデータストレージ | 測距装置 |
US12000931B2 (en) * | 2020-05-15 | 2024-06-04 | Analog Devices International Unlimited Company | Continuous wave time of flight system |
US11998275B2 (en) | 2020-07-15 | 2024-06-04 | Magic Leap, Inc. | Eye tracking using aspheric cornea model |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001337166A (ja) | 2000-05-26 | 2001-12-07 | Minolta Co Ltd | 3次元入力方法および3次元入力装置 |
JP2004157061A (ja) | 2002-11-08 | 2004-06-03 | Nikon-Trimble Co Ltd | 距離測定装置 |
JP2008183049A (ja) | 2007-01-26 | 2008-08-14 | Matsushita Electric Ind Co Ltd | 撮像装置、カプセル型内視カメラ |
JP2010085277A (ja) | 2008-09-30 | 2010-04-15 | Panasonic Electric Works Co Ltd | 車両用周辺監視装置 |
JP2010230366A (ja) | 2009-03-26 | 2010-10-14 | Denso Corp | 障害物検出装置 |
JP2016503629A (ja) | 2012-12-27 | 2016-02-04 | インテル コーポレイション | 状況アウェアなセンサ電力管理 |
WO2016208214A1 (ja) | 2015-06-24 | 2016-12-29 | 株式会社村田製作所 | 距離センサ |
Family Cites Families (60)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4628312A (en) * | 1983-10-19 | 1986-12-09 | Vega Precision Laboratories, Inc. | Decoding apparatus and method for a position coded pulse communication system |
JPH0553568A (ja) | 1991-08-22 | 1993-03-05 | Seiko Epson Corp | 画像処理装置 |
US6222525B1 (en) | 1992-03-05 | 2001-04-24 | Brad A. Armstrong | Image controllers with sheet connected sensors |
US5670988A (en) | 1995-09-05 | 1997-09-23 | Interlink Electronics, Inc. | Trigger operated electronic device |
JPH1153568A (ja) * | 1997-08-07 | 1999-02-26 | Matsushita Electric Ind Co Ltd | 画像処理装置 |
USD514570S1 (en) | 2004-06-24 | 2006-02-07 | Microsoft Corporation | Region of a fingerprint scanning device with an illuminated ring |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
JP4936528B2 (ja) | 2007-03-28 | 2012-05-23 | 富士フイルム株式会社 | カプセル内視鏡システム、およびカプセル内視鏡システムの作動方法 |
US7852461B2 (en) * | 2007-11-15 | 2010-12-14 | Microsoft International Holdings B.V. | Dual mode depth imaging |
US20120056982A1 (en) * | 2010-09-08 | 2012-03-08 | Microsoft Corporation | Depth camera based on structured light and stereo vision |
US8681255B2 (en) * | 2010-09-28 | 2014-03-25 | Microsoft Corporation | Integrated low power depth camera and projection device |
US9304319B2 (en) | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
AU2011348122A1 (en) | 2010-12-24 | 2013-07-11 | Magic Leap Inc. | An ergonomic head mounted display device and optical system |
US10156722B2 (en) | 2010-12-24 | 2018-12-18 | Magic Leap, Inc. | Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality |
JP5330431B2 (ja) * | 2011-03-11 | 2013-10-30 | 富士フイルム株式会社 | 超音波プローブおよび超音波診断装置 |
CA2835120C (en) | 2011-05-06 | 2019-05-28 | Magic Leap, Inc. | Massive simultaneous remote digital presence world |
US10795448B2 (en) | 2011-09-29 | 2020-10-06 | Magic Leap, Inc. | Tactile glove for human-computer interaction |
CA3207408A1 (en) | 2011-10-28 | 2013-06-13 | Magic Leap, Inc. | System and method for augmented and virtual reality |
KR101869277B1 (ko) * | 2011-11-17 | 2018-06-22 | 삼성전자주식회사 | 화소 회로 및 이를 포함하는 깊이 센서 |
KR102376368B1 (ko) | 2011-11-23 | 2022-03-17 | 매직 립, 인코포레이티드 | 3차원 가상 및 증강 현실 디스플레이 시스템 |
JP2013123172A (ja) | 2011-12-12 | 2013-06-20 | Nikon Corp | 撮像装置およびプログラム |
KR102306729B1 (ko) | 2012-04-05 | 2021-09-28 | 매직 립, 인코포레이티드 | 능동 포비에이션 능력을 갖는 와이드-fov(field of view) 이미지 디바이스들 |
JP5968025B2 (ja) * | 2012-04-11 | 2016-08-10 | キヤノン株式会社 | 撮像装置及び撮像装置の制御方法 |
CN115494654A (zh) | 2012-06-11 | 2022-12-20 | 奇跃公司 | 使用波导反射器阵列投射器的多深度平面三维显示器 |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
US10629003B2 (en) * | 2013-03-11 | 2020-04-21 | Magic Leap, Inc. | System and method for augmented and virtual reality |
US9740006B2 (en) | 2012-09-11 | 2017-08-22 | Magic Leap, Inc. | Ergonomic head mounted display device and optical system |
JP6434918B2 (ja) | 2013-01-15 | 2018-12-05 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 超高分解能の走査ファイバディスプレイ |
US9142019B2 (en) * | 2013-02-28 | 2015-09-22 | Google Technology Holdings LLC | System for 2D/3D spatial feature processing |
US9407837B2 (en) * | 2013-02-28 | 2016-08-02 | Google Inc. | Depth sensor using modulated light projector and image sensor with color and IR sensing |
KR102458124B1 (ko) | 2013-03-15 | 2022-10-21 | 매직 립, 인코포레이티드 | 디스플레이 시스템 및 방법 |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
KR101631281B1 (ko) * | 2013-07-12 | 2016-06-16 | 삼성전자주식회사 | 뷰 합성 예측을 이용한 인터 레이어 비디오 복호화 방법 및 그 장치 뷰 합성 예측을 이용한 인터 레이어 비디오 부호화 방법 및 장치 |
KR102341870B1 (ko) | 2013-10-16 | 2021-12-20 | 매직 립, 인코포레이티드 | 조절가능한 동공간 거리를 가지는 가상 또는 증강 현실 헤드셋들 |
EP4220999A3 (en) | 2013-11-27 | 2023-08-09 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US9857591B2 (en) | 2014-05-30 | 2018-01-02 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual and augmented reality |
KR102177133B1 (ko) * | 2014-01-31 | 2020-11-10 | 매직 립, 인코포레이티드 | 멀티-포컬 디스플레이 시스템 및 방법 |
CA3089749A1 (en) | 2014-01-31 | 2015-08-06 | Magic Leap, Inc. | Multi-focal display system and method |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US9389069B2 (en) * | 2014-03-26 | 2016-07-12 | Alces Technology, Inc. | Compact 3D depth capture systems |
JP2017526078A (ja) | 2014-05-09 | 2017-09-07 | グーグル インコーポレイテッド | 実在および仮想のオブジェクトと対話するための生体力学ベースの眼球信号のためのシステムおよび方法 |
USD759657S1 (en) | 2014-05-19 | 2016-06-21 | Microsoft Corporation | Connector with illumination region |
CA3124368C (en) | 2014-05-30 | 2023-04-25 | Magic Leap, Inc. | Methods and systems for generating virtual content display with a virtual or augmented reality apparatus |
USD752529S1 (en) | 2014-06-09 | 2016-03-29 | Comcast Cable Communications, Llc | Electronic housing with illuminated region |
US20160140760A1 (en) * | 2014-11-13 | 2016-05-19 | Upton Beall Bowden | Adapting a display on a transparent electronic display |
US9552816B2 (en) * | 2014-12-19 | 2017-01-24 | Amazon Technologies, Inc. | Application focus in speech-based systems |
US9967535B2 (en) * | 2015-04-17 | 2018-05-08 | Light Labs Inc. | Methods and apparatus for reducing noise in images |
JP2016213786A (ja) | 2015-05-13 | 2016-12-15 | パナソニックIpマネジメント株式会社 | カメラ装置 |
USD758367S1 (en) | 2015-05-14 | 2016-06-07 | Magic Leap, Inc. | Virtual reality headset |
US9683834B2 (en) * | 2015-05-27 | 2017-06-20 | Intel Corporation | Adaptable depth sensing system |
CN105357511B (zh) * | 2015-12-08 | 2018-05-15 | 上海图漾信息科技有限公司 | 深度数据检测系统 |
US10341633B2 (en) * | 2015-11-20 | 2019-07-02 | Qualcomm Incorporated | Systems and methods for correcting erroneous depth information |
US10477157B1 (en) * | 2016-03-02 | 2019-11-12 | Meta View, Inc. | Apparatuses, methods and systems for a sensor array adapted for vision computing |
USD805734S1 (en) | 2016-03-04 | 2017-12-26 | Nike, Inc. | Shirt |
USD794288S1 (en) | 2016-03-11 | 2017-08-15 | Nike, Inc. | Shoe with illuminable sole light sequence |
US10110840B2 (en) * | 2016-10-25 | 2018-10-23 | Semiconductor Components Industries, Llc | Image sensor pixels with overflow capabilities |
AU2018237067B2 (en) | 2017-03-21 | 2022-11-10 | Magic Leap, Inc. | Depth sensing techniques for virtual, augmented, and mixed reality systems |
-
2018
- 2018-03-19 AU AU2018237067A patent/AU2018237067B2/en active Active
- 2018-03-19 IL IL302172A patent/IL302172B2/en unknown
- 2018-03-19 WO PCT/US2018/023179 patent/WO2018175344A1/en unknown
- 2018-03-19 CN CN202110857359.0A patent/CN113568508A/zh active Pending
- 2018-03-19 JP JP2019548327A patent/JP7198766B2/ja active Active
- 2018-03-19 IL IL269008A patent/IL269008B2/en unknown
- 2018-03-19 EP EP18771170.0A patent/EP3603055B1/en active Active
- 2018-03-19 EP EP22157426.2A patent/EP4020982A3/en active Pending
- 2018-03-19 KR KR1020237003052A patent/KR102527329B1/ko active IP Right Grant
- 2018-03-19 IL IL308454A patent/IL308454A/en unknown
- 2018-03-19 CN CN201880019671.9A patent/CN110431841B/zh active Active
- 2018-03-19 CA CA3055572A patent/CA3055572C/en active Active
- 2018-03-19 US US15/925,577 patent/US10455153B2/en active Active
- 2018-03-19 KR KR1020197030693A patent/KR102493992B1/ko active IP Right Grant
-
2019
- 2019-09-17 US US16/573,891 patent/US11303809B2/en active Active
-
2021
- 2021-03-10 JP JP2021038206A patent/JP7198850B2/ja active Active
-
2022
- 2022-03-09 US US17/690,956 patent/US11778318B2/en active Active
- 2022-11-18 JP JP2022184776A patent/JP2023018033A/ja active Pending
-
2023
- 2023-08-22 US US18/453,762 patent/US20230396881A1/en active Pending
- 2023-11-21 JP JP2023197268A patent/JP2024020489A/ja active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001337166A (ja) | 2000-05-26 | 2001-12-07 | Minolta Co Ltd | 3次元入力方法および3次元入力装置 |
JP2004157061A (ja) | 2002-11-08 | 2004-06-03 | Nikon-Trimble Co Ltd | 距離測定装置 |
JP2008183049A (ja) | 2007-01-26 | 2008-08-14 | Matsushita Electric Ind Co Ltd | 撮像装置、カプセル型内視カメラ |
JP2010085277A (ja) | 2008-09-30 | 2010-04-15 | Panasonic Electric Works Co Ltd | 車両用周辺監視装置 |
JP2010230366A (ja) | 2009-03-26 | 2010-10-14 | Denso Corp | 障害物検出装置 |
JP2016503629A (ja) | 2012-12-27 | 2016-02-04 | インテル コーポレイション | 状況アウェアなセンサ電力管理 |
WO2016208214A1 (ja) | 2015-06-24 | 2016-12-29 | 株式会社村田製作所 | 距離センサ |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7198850B2 (ja) | 仮想、拡張、および複合現実システムのための深度感知技法 | |
CN105264401B (zh) | 用于tof系统的干扰减小 | |
US8548270B2 (en) | Time-of-flight depth imaging | |
CN105190426B (zh) | 飞行时间传感器装仓 | |
CN112189147B (zh) | 一种飞行时间ToF相机和一种ToF方法 | |
JP2016038889A (ja) | モーション感知を伴う拡張現実 | |
CN110572635A (zh) | 一种用于手持控制设备追踪定位的方法、设备与系统 | |
US20190045169A1 (en) | Maximizing efficiency of flight optical depth sensors in computing environments | |
JP2023036676A (ja) | プロセスデータ共有のための方法及びデバイス | |
CN110806797A (zh) | 一种基于头部运动对游戏进行控制的方法和装置 | |
CN106774935B (zh) | 一种显示设备 | |
CN110806811A (zh) | 一种通过mpu生成鼠标控制指令的方法和装置 | |
KR20240039599A (ko) | 예측 관점 보정 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210310 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220405 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220819 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221219 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7198766 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |