JP2022082560A - 低電力レンダリングを伴う複合現実システム - Google Patents
低電力レンダリングを伴う複合現実システム Download PDFInfo
- Publication number
- JP2022082560A JP2022082560A JP2022033544A JP2022033544A JP2022082560A JP 2022082560 A JP2022082560 A JP 2022082560A JP 2022033544 A JP2022033544 A JP 2022033544A JP 2022033544 A JP2022033544 A JP 2022033544A JP 2022082560 A JP2022082560 A JP 2022082560A
- Authority
- JP
- Japan
- Prior art keywords
- content
- cpu
- mixed reality
- gpu
- examples
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000009877 rendering Methods 0.000 title abstract description 16
- 238000000034 method Methods 0.000 claims description 95
- 238000012545 processing Methods 0.000 claims description 47
- 230000000007 visual effect Effects 0.000 claims description 46
- 230000007704 transition Effects 0.000 claims description 7
- 230000005540 biological transmission Effects 0.000 claims description 3
- 230000008901 benefit Effects 0.000 abstract description 9
- 238000007796 conventional method Methods 0.000 abstract description 4
- 230000015654 memory Effects 0.000 description 64
- 230000008569 process Effects 0.000 description 50
- 230000036544 posture Effects 0.000 description 45
- 238000004590 computer program Methods 0.000 description 17
- 230000003993 interaction Effects 0.000 description 16
- 238000004364 calculation method Methods 0.000 description 13
- 230000033001 locomotion Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 230000008447 perception Effects 0.000 description 10
- 230000004044 response Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 230000003068 static effect Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000002085 persistent effect Effects 0.000 description 2
- 230000000704 physical effect Effects 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000037081 physical activity Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000004148 unit process Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3234—Power saving characterised by the action undertaken
- G06F1/3243—Power saving in microcontroller unit
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/60—Memory management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/28—Indexing scheme for image data processing or generation, in general involving image processing hardware
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Optics & Photonics (AREA)
- Computer Graphics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Image Generation (AREA)
- Closed-Circuit Television Systems (AREA)
- Power Sources (AREA)
Abstract
Description
本願は、米国仮特許出願第62/423,154号(2016年11月16日出願、名称「Mixed-Reality System with Reduced Power Rendering」)に対する優先権を主張し、上記出願の開示は、あらゆる目的のためにその全体が参照により本明細書に引用される。
複合現実は、デジタル情報を物理的環境のユーザの視野とリアルタイムで組み合わせることを含むことができる。デジタル情報は、物理的環境に定着され、デジタル情報が物理的環境内にある印象を与えることができる。複合現実を実装するために、物理的環境が分析され、デジタル情報が生成されることができる。しかしながら、現実的組み合わせを作成するために、分析と生成とは、頻繁に実施されなければならず、それは、大量の電力を消費し得る。したがって、当技術分野において、複合現実を実装するときの電力消費を低減させるための改良された方法およびシステムの必要がある。
複合現実を実装する方法、システム、およびコンピュータプログラム製品が、提供される。いくつかの例では、グラフィック処理ユニット(GPU)は、少なくとも部分的に、中央処理ユニット(CPU)の使用を取り除くことができる。そのような例では、受動状態は、CPUによって処理される必要がない予測可能なコンテンツをレンダリングすることができる。そのような例では、予測可能なコンテンツは、CPUが低電力モードにある間、GPUによってレンダリングされることができる。
例えば、本願は以下の項目を提供する。
(項目1)
複合現実デバイスを使用して、複合現実コンテンツを提示する方法であって、前記方法は、
物理的環境に関連付けられたセンサデータを取得することであって、前記センサデータは、1つ以上のセンサを使用して取得される、ことと、
視覚処理ユニット(VPU)によって、前記センサデータを使用して、前記デバイスの姿勢を決定することと、
前記デバイスの前記姿勢を少なくとも1つのグラフィック処理ユニット(GPU)に送信することと、
前記少なくとも1つのGPUによって、前記デバイスの前記姿勢に対応するコンテンツを識別することと、
前記少なくとも1つのGPUによって、前記コンテンツを前記物理的環境に整列させることと、
前記整列させられたコンテンツを前記デバイスに送信することと、
ディスプレイを使用して、前記整列させられたコンテンツを提示することと
を含む、方法。
(項目2)
前記デバイスの前記姿勢は、前記デバイスの位置および向きを含む、項目1に記載の方法。
(項目3)
前記少なくとも1つのGPUは、前記デバイスから遠隔にある、項目1に記載の方法。
(項目4)
前記コンテンツは、前記コンテンツを識別することに先立って、前記少なくとも1つのGPUのキャッシュ内に記憶されている、項目1に記載の方法。
(項目5)
前記デバイスの前記姿勢を中央処理ユニット(CPU)に送信することをさらに含む、項目1に記載の方法。
(項目6)
前記CPUは、低電力モードで動作中である、項目5に記載の方法。
(項目7)
前記識別されたコンテンツが動的コンテンツであることを決定することと、 メッセージを前記CPUに送信することと
をさらに含み、
前記メッセージは、前記CPUに前記低電力モードから高電力モードに遷移させる、項目6に記載の方法。
(項目8)
前記識別されたコンテンツが予測可能なコンテンツであることを決定することと、
前記識別されたコンテンツが予測可能であることの決定に応答して、前記識別されたコンテンツを前記少なくとも1つのGPUのキャッシュから取得することと
をさらに含む、項目1に記載の方法。
(項目9)
デバイスを備えているシステムであって、前記デバイスは、
1つ以上のセンサであって、前記1つ以上のセンサのうちのセンサは、センサデータを捕捉するように構成されている、1つ以上のセンサと、
前記デバイスに関連付けられた姿勢を決定するように構成された視覚処理ユニット(VPU)であって、前記姿勢は、前記センサデータを使用して決定される、VPUと、
ディスプレイと、
少なくとも1つのグラフィック処理ユニット(GPU)と
含み、
前記少なくとも1つのGPUは、
前記姿勢を前記VPUから受信することと、
前記ディスプレイによって提示されるべきコンテンツを識別することであって、前記コンテンツは、前記姿勢に基づいて識別される、ことと、
前記コンテンツを物理的環境と整列させることと、
前記ディスプレイによって提示されるべき前記整列させられたコンテンツを前記デバイスに伝送することと
を行うように構成されている、システム。
(項目10)
前記姿勢は、前記複合現実デバイスの構成空間内にあり、前記姿勢は、前記複合現実デバイスの位置および向きを定義する、項目9に記載のシステム。
(項目11)
前記1つ以上のセンサのうちのセンサは、カメラ、加速度計、ジャイロスコープ、トーテム、および全地球測位システムのうちの1つである、項目9に記載のシステム。
(項目12)
前記少なくとも1つのGPUは、前記デバイスから遠隔にある、項目9に記載のシステム。
(項目13)
前記コンテンツは、予測可能なコンテンツである、項目9に記載のシステム。
(項目14)
前記デバイスは、前記姿勢を前記VPUから受信するように構成された中央処理ユニット(CPU)をさらに含む、項目13に記載のシステム。
(項目15)
前記CPUは、前記コンテンツが予測可能なコンテンツであることの識別に応答してバイパスされる、項目14に記載のシステム。
(項目16)
前記コンテンツは、前記コンテンツを識別することに先立って、前記少なくとも1つのGPUのキャッシュ内に記憶されている、項目9に記載のシステム。
(項目17)
非一過性機械読み取り可能な記憶媒体内に有形に具現化されるコンピュータプログラム製品であって、前記コンピュータプログラム製品は、命令を含み、前記命令は、1つ以上のプロセッサによって実行されると、
物理的環境に関連付けられたセンサデータを取得することであって、前記センサデータは、1つ以上のセンサを使用して取得される、ことと、
視覚処理ユニット(VPU)によって、前記センサデータを使用して、デバイスの姿勢を決定することと、
前記デバイスの前記姿勢を少なくとも1つのグラフィック処理ユニット(GPU)に送信することと、
前記少なくとも1つのGPUによって、前記姿勢に対応するコンテンツを識別することと、
前記少なくとも1つのGPUによって、前記コンテンツを前記物理的環境と整列させることと、
前記整列させられたコンテンツを前記デバイスに送信することと、
ディスプレイを使用して、前記整列させられたコンテンツを提示することと
を前記1つ以上のプロセッサに行わせる、コンピュータプログラム製品。
(項目18)
前記姿勢は、前記デバイスの構成空間におけるものであり、前記姿勢は、前記デバイスの位置および向きを定義する、項目17に記載のコンピュータプログラム製品。
(項目19)
前記1つ以上のセンサのうちのセンサは、カメラ、加速度計、ジャイロスコープ、トーテム、および全地球測位システムのうちの1つである、項目17に記載のコンピュータプログラム製品。
(項目20)
前記少なくとも1つのGPUは、前記デバイスから遠隔にある、項目17に記載のコンピュータプログラム製品。
(項目21)
前記命令は、前記1つ以上のプロセッサによって実行されると、
前記デバイスの前記姿勢を中央処理ユニット(CPU)に送信することを前記1つ以上のプロセッサにさらに行わせる、項目17に記載のコンピュータプログラム製品。
(項目22)
前記コンテンツは、予測可能なコンテンツであり、前記CPUは、前記コンテンツが予測可能なコンテンツであることの識別に応答してバイパスされる、項目21に記載のコンピュータプログラム製品。
(項目23)
前記コンテンツは、前記コンテンツを識別することに先立って、前記少なくとも1つのGPUのキャッシュ内に記憶されている、項目17に記載のコンピュータプログラム製品。
以下の説明では、説明の目的のために、本開示の実施形態の完全な理解を提供するために、具体的詳細が記載される。しかしながら、種々の実施形態は、これらの具体的詳細を伴わずに実践され得ることが明白であろう。図および説明は、制限であることを意図するものではない。
Claims (19)
- 複合現実デバイスを使用して、複合現実コンテンツを提示する方法であって、前記方法は、
物理的環境に関連付けられたセンサデータを受信することであって、前記センサデータは、1つ以上のセンサから受信される、ことと、
前記複合現実デバイスの視覚処理ユニット(VPU)が、前記センサデータを使用して、前記複合現実デバイスの姿勢を識別することと、
前記複合現実デバイスの前記姿勢を前記VPUから中央処理ユニット(CPU)に送信することと、
前記VPUが、前記物理的環境の1つ以上の特徴を前記センサデータから識別することと、
前記1つ以上の特徴を前記CPUに送信することと、
前記VPUが、前記物理的環境の1つ以上の特徴を使用して、前記物理的環境の表現を生成することと、
前記CPUが、前記物理的環境と共に提示されるべきコンテンツを決定することと、
前記コンテンツを使用して、前記物理的環境の前記表現を更新することと、
前記CPUが、前記コンテンツおよび前記物理的環境の前記更新された表現をグラフィック処理ユニット(GPU)に送信することと、
前記GPUから低電力モードで動作中の前記CPUにメッセージを送信することであって、前記メッセージは、前記低電力モードから高電力モードに遷移することを前記CPUに行わせる、ことと、
前記高電力モードから前記低電力モードに前記CPUを遷移させることと
を含む、方法。 - 前記1つ以上のセンサは、常時オンセンサを含む、請求項1に記載の方法。
- 前記1つ以上のセンサは、視覚センサを含む、請求項1に記載の方法。
- 前記1つ以上のセンサは、高フレームレートで動作する、請求項1に記載の方法。
- 前記姿勢は、将来の時間における前記複合現実デバイスの視野の予測を含む、請求項1に記載の方法。
- 前記1つ以上の特徴は、前記物理的環境内のオブジェクトの角または縁を含む、請求項1に記載の方法。
- 前記方法は、前記物理的環境の前記表現を生成する前に、前記低電力モードから前記高電力モードに前記CPUを遷移させることさらに含む、請求項1に記載の方法。
- 前記表現は、3次元における前記物理的環境のコンピュータでシミュレートされた再現を含む、請求項1に記載の方法。
- 前記物理的環境と共に提示されるべきコンテンツは、視覚コンテンツを含む、請求項1に記載の方法。
- 前記方法は、前記物理的環境のビュー上に前記仮想コンテンツをオーバーレイすることをさらに含む、請求項9に記載の方法。
- 前記CPUは、前記物理的環境の前記表現に基づいて前記コンテンツを生成する、請求項1に記載の方法。
- 前記表現を更新することは、前記コンテンツを前記表現の中に挿入することを含む、請求項1に記載の方法。
- 前記表現を更新することは、位置情報を前記コンテンツに関連付けることを含み、前記位置情報は、前記表現に対応する、請求項1に記載の方法。
- 前記表現は、前記コンテンツを決定することに先立って、コンテンツキャッシュ内に記憶されていない、請求項1に記載の方法。
- 前記複合現実デバイスの前記姿勢は、前記複合現実デバイスの位置および向きを含む、請求項1に記載の方法。
- 前記GPUは、前記デバイスから遠隔にある、請求項1に記載の方法。
- 前記1つ以上のセンサのうちのセンサは、カメラ、加速度計、ジャイロスコープ、全地球測位システムのうちの1つである、請求項1に記載の方法。
- 前記GPUおよび前記CPUは、前記デバイスと共に配置されている、請求項1に記載の方法。
- 前記GPUおよび前記CPUは、バッテリパックと共に配置されている、請求項1に記載の方法。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662423154P | 2016-11-16 | 2016-11-16 | |
US62/423,154 | 2016-11-16 | ||
JP2019525822A JP7037560B2 (ja) | 2016-11-16 | 2017-11-15 | 低電力レンダリングを伴う複合現実システム |
PCT/US2017/061835 WO2018093923A1 (en) | 2016-11-16 | 2017-11-15 | Mixed reality system with reduced power rendering |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019525822A Division JP7037560B2 (ja) | 2016-11-16 | 2017-11-15 | 低電力レンダリングを伴う複合現実システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022082560A true JP2022082560A (ja) | 2022-06-02 |
JP7350115B2 JP7350115B2 (ja) | 2023-09-25 |
Family
ID=62108510
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019525822A Active JP7037560B2 (ja) | 2016-11-16 | 2017-11-15 | 低電力レンダリングを伴う複合現実システム |
JP2022033544A Active JP7350115B2 (ja) | 2016-11-16 | 2022-03-04 | 低電力レンダリングを伴う複合現実システム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019525822A Active JP7037560B2 (ja) | 2016-11-16 | 2017-11-15 | 低電力レンダリングを伴う複合現実システム |
Country Status (9)
Country | Link |
---|---|
US (2) | US10782796B2 (ja) |
EP (2) | EP3542358B1 (ja) |
JP (2) | JP7037560B2 (ja) |
KR (2) | KR102517795B1 (ja) |
CN (2) | CN110100274B (ja) |
AU (1) | AU2017361245B2 (ja) |
CA (1) | CA3042553C (ja) |
IL (2) | IL302483B2 (ja) |
WO (1) | WO2018093923A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7037560B2 (ja) | 2016-11-16 | 2022-03-16 | マジック リープ, インコーポレイテッド | 低電力レンダリングを伴う複合現実システム |
CA3046329A1 (en) * | 2016-12-06 | 2018-06-14 | Donn M. GURULE | Systems and methods for a chronological-based search engine |
CN110798497A (zh) * | 2018-08-03 | 2020-02-14 | 中国移动通信集团有限公司 | 混合现实交互系统和方法 |
CN109741463B (zh) * | 2019-01-02 | 2022-07-19 | 京东方科技集团股份有限公司 | 虚拟现实场景的渲染方法、装置及设备 |
US11334174B2 (en) * | 2019-07-18 | 2022-05-17 | Eyal Shlomot | Universal pointing and interacting device |
US11232834B2 (en) * | 2019-10-29 | 2022-01-25 | Qualcomm Incorporated | Pose estimation in extended reality systems |
CN114341924A (zh) | 2019-12-17 | 2022-04-12 | 谷歌有限责任公司 | 低功率视觉感测 |
US20240193870A1 (en) * | 2022-12-13 | 2024-06-13 | Snap Inc. | Content creation platform for xr devices |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010061644A (ja) * | 2008-07-29 | 2010-03-18 | Nvidia Corp | プラットフォームベースのアイドルタイム処理 |
US20150029218A1 (en) * | 2013-07-25 | 2015-01-29 | Oliver Michael Christian Williams | Late stage reprojection |
US20150229839A1 (en) * | 2013-03-12 | 2015-08-13 | Qualcomm Incorporated | Adaptive data path for computer-vision applications |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4532856B2 (ja) * | 2003-07-08 | 2010-08-25 | キヤノン株式会社 | 位置姿勢計測方法及び装置 |
JP4218952B2 (ja) * | 2003-09-30 | 2009-02-04 | キヤノン株式会社 | データ変換方法及び装置 |
US20100258000A1 (en) * | 2005-05-05 | 2010-10-14 | Matthew Charles Hagerty | Wireless, waterproof remote video weapon mounted sighting system, SmartSight |
JP5047090B2 (ja) * | 2008-07-31 | 2012-10-10 | キヤノン株式会社 | システム |
US10096161B2 (en) * | 2010-06-15 | 2018-10-09 | Live Nation Entertainment, Inc. | Generating augmented reality images using sensor and location data |
US8576276B2 (en) * | 2010-11-18 | 2013-11-05 | Microsoft Corporation | Head-mounted display device which provides surround video |
US20120177119A1 (en) * | 2011-01-07 | 2012-07-12 | Sony Corporation | Faster motion estimation in an avc software encoder using general purpose graphic process units (gpgpu) |
US8638986B2 (en) * | 2011-04-20 | 2014-01-28 | Qualcomm Incorporated | Online reference patch generation and pose estimation for augmented reality |
US8761448B1 (en) * | 2012-12-13 | 2014-06-24 | Intel Corporation | Gesture pre-processing of video stream using a markered region |
US8805017B2 (en) * | 2012-12-13 | 2014-08-12 | Intel Corporation | Gesture pre-processing of video stream to reduce platform power |
DE112013001305B4 (de) * | 2013-01-06 | 2024-08-22 | Intel Corporation | Ein Verfahren, eine Vorrichtung und ein System zur verteilten Vorverarbeitung von Berührungsdaten und Anzeigebereichsteuerung |
US9201487B2 (en) * | 2013-03-05 | 2015-12-01 | Intel Corporation | Reducing power consumption during graphics rendering |
US9898866B2 (en) * | 2013-03-13 | 2018-02-20 | The University Of North Carolina At Chapel Hill | Low latency stabilization for head-worn displays |
US10139623B2 (en) * | 2013-06-18 | 2018-11-27 | Microsoft Technology Licensing, Llc | Virtual object orientation and visualization |
US10295338B2 (en) * | 2013-07-12 | 2019-05-21 | Magic Leap, Inc. | Method and system for generating map data from an image |
AU2015255652B2 (en) * | 2014-05-09 | 2018-03-29 | Google Llc | Systems and methods for using eye signals with secure mobile communications |
US10332229B2 (en) * | 2014-05-12 | 2019-06-25 | Palo Alto Research Center Incorporated | System and method for high performance k-means clustering on GPU with smart kernels |
US9741169B1 (en) * | 2014-05-20 | 2017-08-22 | Leap Motion, Inc. | Wearable augmented reality devices with object detection and tracking |
KR101626375B1 (ko) * | 2015-06-30 | 2016-06-01 | 한양대학교 산학협력단 | 증강현실 물체를 감지하는 장갑형 촉각전달 장치 및 그 방법 |
US10149958B1 (en) * | 2015-07-17 | 2018-12-11 | Bao Tran | Systems and methods for computer assisted operation |
US9928655B1 (en) * | 2015-08-31 | 2018-03-27 | Amazon Technologies, Inc. | Predictive rendering of augmented reality content to overlay physical structures |
US9298283B1 (en) * | 2015-09-10 | 2016-03-29 | Connectivity Labs Inc. | Sedentary virtual reality method and systems |
JP7037560B2 (ja) | 2016-11-16 | 2022-03-16 | マジック リープ, インコーポレイテッド | 低電力レンダリングを伴う複合現実システム |
-
2017
- 2017-11-15 JP JP2019525822A patent/JP7037560B2/ja active Active
- 2017-11-15 WO PCT/US2017/061835 patent/WO2018093923A1/en unknown
- 2017-11-15 AU AU2017361245A patent/AU2017361245B2/en active Active
- 2017-11-15 KR KR1020197017219A patent/KR102517795B1/ko active IP Right Grant
- 2017-11-15 EP EP17872026.4A patent/EP3542358B1/en active Active
- 2017-11-15 CN CN201780070885.4A patent/CN110100274B/zh active Active
- 2017-11-15 IL IL302483A patent/IL302483B2/en unknown
- 2017-11-15 US US15/814,175 patent/US10782796B2/en active Active
- 2017-11-15 CA CA3042553A patent/CA3042553C/en active Active
- 2017-11-15 IL IL266497A patent/IL266497B2/en unknown
- 2017-11-15 EP EP24183234.4A patent/EP4428824A2/en active Pending
- 2017-11-15 CN CN202310114856.0A patent/CN116109467A/zh active Pending
- 2017-11-15 KR KR1020237010837A patent/KR102631245B1/ko active IP Right Grant
-
2020
- 2020-08-18 US US16/996,354 patent/US11567587B2/en active Active
-
2022
- 2022-03-04 JP JP2022033544A patent/JP7350115B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010061644A (ja) * | 2008-07-29 | 2010-03-18 | Nvidia Corp | プラットフォームベースのアイドルタイム処理 |
US20150229839A1 (en) * | 2013-03-12 | 2015-08-13 | Qualcomm Incorporated | Adaptive data path for computer-vision applications |
US20150029218A1 (en) * | 2013-07-25 | 2015-01-29 | Oliver Michael Christian Williams | Late stage reprojection |
Also Published As
Publication number | Publication date |
---|---|
US10782796B2 (en) | 2020-09-22 |
KR20230049756A (ko) | 2023-04-13 |
EP4428824A2 (en) | 2024-09-11 |
IL302483A (en) | 2023-06-01 |
US20180136745A1 (en) | 2018-05-17 |
AU2017361245A1 (en) | 2019-05-23 |
CN116109467A (zh) | 2023-05-12 |
EP3542358A4 (en) | 2019-11-20 |
IL266497A (en) | 2019-07-31 |
KR102517795B1 (ko) | 2023-04-03 |
IL266497B2 (en) | 2023-10-01 |
EP3542358A1 (en) | 2019-09-25 |
KR20190085051A (ko) | 2019-07-17 |
IL302483B2 (en) | 2024-06-01 |
NZ794498A (en) | 2023-12-22 |
JP7350115B2 (ja) | 2023-09-25 |
US20210034172A1 (en) | 2021-02-04 |
NZ752758A (en) | 2023-12-22 |
US11567587B2 (en) | 2023-01-31 |
AU2017361245B2 (en) | 2023-06-22 |
IL302483B1 (en) | 2024-02-01 |
JP2019537143A (ja) | 2019-12-19 |
CN110100274B (zh) | 2023-02-17 |
CA3042553C (en) | 2024-01-02 |
IL266497B1 (en) | 2023-06-01 |
CN110100274A (zh) | 2019-08-06 |
KR102631245B1 (ko) | 2024-01-29 |
CA3042553A1 (en) | 2018-05-24 |
EP3542358B1 (en) | 2024-06-26 |
WO2018093923A1 (en) | 2018-05-24 |
JP7037560B2 (ja) | 2022-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7037560B2 (ja) | 低電力レンダリングを伴う複合現実システム | |
US20220284539A1 (en) | Method and apparatus for efficient loop processing in a graphics hardware front end | |
US11010302B2 (en) | General purpose input/output data capture and neural cache system for autonomous machines | |
US10692170B2 (en) | Software scoreboard information and synchronization | |
US11314515B2 (en) | Instructions and logic for vector multiply add with zero skipping | |
US11037269B1 (en) | High-speed resume for GPU applications | |
US12124852B2 (en) | Instruction prefetch based on thread dispatch commands | |
EP3284058A1 (en) | Supporting multi-level nesting of command buffers in graphics command streams at computing devices | |
JP2021077347A (ja) | ドット積乗算器メカニズム | |
EP3907606A1 (en) | Compaction of diverged lanes for efficient use of alus | |
US20210349717A1 (en) | Compaction of diverged lanes for efficient use of alus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220304 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230424 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230509 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230525 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230824 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230912 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7350115 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |