JP2022537810A - クロスリアリティシステムにおけるスケーラブル3次元オブジェクト認識 - Google Patents
クロスリアリティシステムにおけるスケーラブル3次元オブジェクト認識 Download PDFInfo
- Publication number
- JP2022537810A JP2022537810A JP2021574263A JP2021574263A JP2022537810A JP 2022537810 A JP2022537810 A JP 2022537810A JP 2021574263 A JP2021574263 A JP 2021574263A JP 2021574263 A JP2021574263 A JP 2021574263A JP 2022537810 A JP2022537810 A JP 2022537810A
- Authority
- JP
- Japan
- Prior art keywords
- image
- bounding box
- recognized
- objects
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 75
- 238000003860 storage Methods 0.000 claims abstract description 58
- 230000004927 fusion Effects 0.000 claims description 54
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 7
- 238000004590 computer program Methods 0.000 abstract description 16
- 230000008569 process Effects 0.000 description 32
- 238000012545 processing Methods 0.000 description 26
- 238000004422 calculation algorithm Methods 0.000 description 23
- 238000001514 detection method Methods 0.000 description 17
- 230000009471 action Effects 0.000 description 15
- 230000011218 segmentation Effects 0.000 description 14
- 238000010801 machine learning Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000004807 localization Effects 0.000 description 4
- 238000003909 pattern recognition Methods 0.000 description 4
- 230000001629 suppression Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 3
- 241000699666 Mus <mouse, genus> Species 0.000 description 3
- 241000699670 Mus sp. Species 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 230000003116 impacting effect Effects 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 230000002085 persistent effect Effects 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 230000014616 translation Effects 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 238000013341 scale-up Methods 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000026676 system process Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 101100180402 Caenorhabditis elegans jun-1 gene Proteins 0.000 description 1
- 241000009334 Singa Species 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Architecture (AREA)
- Image Analysis (AREA)
Abstract
Description
本特許出願は、参照することによってその全体として本明細書に組み込まれる、2019年6月14日に出願され、「OBJECT RECOGNITION AND SCENE UNDERSTANDING」と題された、米国仮特許出願第62/861,784号の優先権および利点を主張する。本特許出願はまた、参照することによってその全体として本明細書に組み込まれる、2020年1月30日に出願され、「A CROSS REALITY SYSTEM」と題された、米国仮特許出願第62/968,023号の優先権および利点を主張する。本特許出願はまた、参照することによってその全体として本明細書に組み込まれる、2020年4月7日に出願され、「SCALABLE THREE-DIMENSIONAL OBJECT RECOGNITION IN A CROSS REALITY SYSTEM」と題された、米国仮特許出願第63/006,408号の優先権および利点を主張する。本特許出願はまた、参照することによってその全体として本明細書に組み込まれる、2020年5月13日に出願され、「SCALABLE THREE-DIMENSIONAL OBJECT RECOGNITION IN A CROSS REALITY SYSTEM」と題された、米国仮特許出願第63/024,291号の優先権および利点を主張する。
Claims (19)
- コンピュータ実装方法であって、前記方法は、
環境内の場面内で認識されているオブジェクトを規定するオブジェクトデータを維持することと、
前記場面の入力画像のストリームを受信することであって、前記入力画像のストリームは、カラー画像のストリームと、深度画像のストリームとを備える、ことと、
前記カラー画像のストリーム内の複数のカラー画像の各々に対し、
前記カラー画像を入力としてオブジェクト認識システムに提供することと、
前記オブジェクト認識システムからの出力として、前記カラー画像内で認識されている1つ以上のオブジェクトの各々に対し、前記カラー画像内の個別のオブジェクトマスクを識別する認識出力を受信することと、
対応する深度画像のタイムスタンプおよび前記カラー画像のタイムスタンプに基づいて、前記カラー画像のための対応する深度画像を決定する同期システムに、前記カラー画像および前記深度画像のストリーム内の複数の深度画像を入力として提供することと、
前記オブジェクトデータ、前記オブジェクトマスク、および前記対応する深度画像から、前記カラー画像内で認識されているオブジェクトのうちの1つ以上のものの各々に対し、個別の3-D境界ボックスを決定する3次元(3-D)境界ボックス生成システムに、前記オブジェクトデータ、前記オブジェクトマスクを識別する認識出力、および前記対応する深度画像を入力として提供することと、
前記3-D境界ボックス生成システムからの出力として、前記カラー画像内で認識されたオブジェクトのうちの1つ以上のもののための1つ以上の3-D境界ボックスを規定するデータを受信することと、
出力として、前記1つ以上の3-D境界ボックスを規定するデータを提供することと
を含む、方法。 - 前記3-D境界ボックス生成システムは、
3-Dオブジェクトマスクの初期セットを生成するマルチビュー融合システムを備える、請求項1に記載の方法。 - 前記オブジェクト認識システム、前記同期システム、前記マルチビュー融合システムは、ステートレス様式で、相互から独立して動作する、請求項2に記載の方法。
- 前記マルチビュー融合システムは、
関連付けシステムであって、前記関連付けシステムは、前記維持されるオブジェクトデータから、対応するオブジェクトを規定する、前記カラー画像内の各認識されたオブジェクトの個別のオブジェクトマスクと合致されたオブジェクトデータを識別する、関連付けシステムと、
融合システムであって、前記融合システムは、前記カラー画像内のオブジェクトマスクと前記合致されたオブジェクトデータを組み合わせることによって、前記カラー画像内の各認識されたオブジェクトに対し、初期3-Dオブジェクトマスクを生成する、融合システムと
を備える、請求項2-3のいずれか1項に記載の方法。 - 前記3-D境界ボックス生成システムはさらに、前記3-Dオブジェクトマスクの初期セットを精緻化し、3-D境界ボックスの初期セットを生成するオブジェクト精緻化システムを備える、前記請求項のいずれかに記載の方法。
- 前記3-D境界ボックス生成システムはさらに、前記3-D境界ボックスの初期セットを精緻化し、前記1つ以上の3-D境界ボックスを生成する境界ボックス精緻化システムを備える、前記請求項のいずれかに記載の方法。
- 前記オブジェクト認識システムは、前記カラー画像を入力としてとり、前記カラー画像内で認識されている1つ以上のオブジェクトの各々に対し、個別の2次元(2-D)オブジェクトマスクを生成する訓練された深層ニューラルネットワーク(DNN)モデルを備える、前記請求項のいずれかに記載の方法。
- 前記同期システムによって、前記対応する深度画像のタイムスタンプおよび前記カラー画像のタイムスタンプに基づいて、前記カラー画像のための対応する深度を決定することは、
前記カラー画像のタイムスタンプに最も近いタイムスタンプを有する候補深度画像を識別することと、
前記候補深度画像と前記カラー画像との間の時間差が閾値未満であることを決定することと、
それに応答して、前記候補深度画像を前記カラー画像のための対応する深度画像として決定することと
を含む、前記請求項のいずれかに記載の方法。 - 前記3-D境界ボックス生成システムは、前記オブジェクトマスクおよび前記対応する深度画像から、前記カラー画像内で認識されているオブジェクトのうちの1つ以上のものの各々に対し、個別の3-Dオブジェクトマスクを決定し、前記方法はさらに、
前記3-D境界ボックス生成システムからの出力として、前記カラー画像内で認識されたオブジェクトのうちの1つ以上のもののための1つ以上の3-Dオブジェクトマスクを規定するデータを受信することと、
出力として、前記1つ以上の3-Dオブジェクトマスクを規定するデータを提供することと
を含む、前記請求項のいずれかに記載の方法。 - システムであって、前記システムは、1つ以上のコンピュータと、1つ以上の記憶デバイスとを備え、前記1つ以上の記憶デバイスは、命令を記憶しており、前記命令は、前記1つ以上のコンピュータによって実行されると、前記1つ以上のコンピュータに、前記請求項のいずれかに記載の方法の個別の動作を実施させる、システム。
- 1つ以上の非一過性コンピュータ可読記憶媒体であって、前記1つ以上の非一過性コンピュータ可読記憶媒体は、命令を記憶しており、前記命令は、1つ以上のコンピュータによって実行されると、前記1つ以上のコンピュータに、前記請求項のいずれかに記載の方法の個別の動作を実施させる、1つ以上の非一過性コンピュータ可読記憶媒体。
- コンピュータ実装方法であって、前記方法は、
環境内の場面内で認識されているオブジェクトを規定するオブジェクトデータを維持することと、
前記場面の入力画像のストリームを受信することと、
前記入力画像のストリーム内の複数の入力画像の各々に対し、
前記入力画像を入力としてオブジェクト認識システムに提供することと、
前記オブジェクト認識システムからの出力として、前記入力画像内で認識されている1つ以上のオブジェクトの各々に対し、前記入力画像内の個別の境界ボックスを識別する認識出力を受信することと、
前記オブジェクトデータおよび前記境界ボックスから、前記入力画像内で認識されているオブジェクトのうちの1つ以上のものの各々に対し、個別の3-D境界ボックスを決定する3次元(3-D)境界ボックス生成システムに、前記境界ボックスを識別するデータを入力として提供することと、
前記3-D境界ボックス生成システムからの出力として、前記入力画像内で認識されたオブジェクトのうちの1つ以上のもののための1つ以上の3-D境界ボックスを規定するデータを受信することと、
出力として、前記1つ以上の3-D境界ボックスを規定するデータを提供することと
を含む、方法。 - 前記3-D境界ボックス生成システムは、
3-D境界ボックスの初期セットを生成するマルチビュー融合システムと、
前記3-D境界ボックスの初期セットを精緻化し、前記1つ以上の3-D境界ボックスを生成する境界ボックス精緻化システムと
を備える、請求項12に記載の方法。 - 前記オブジェクト認識システム、前記マルチビュー融合システム、および前記境界ボックス精緻化システムは、ステートレス様式で、相互から独立して動作する、請求項13に記載の方法。
- 前記維持されるオブジェクトデータは、前記場面内で認識されている各オブジェクトの複数の2次元(2-D)境界ボックスから生成される楕円体を備え、前記マルチビュー融合システムは、少なくとも、
前記入力画像内で識別された各2-D境界ボックスに対し、
前記入力画像内で識別された2-D境界ボックスが、前記維持されるオブジェクトデータ内で認識されているオブジェクトの1つ以上の2-D境界ボックスと関連付けられるかどうかを決定するステップと、
前記入力画像内で識別された2-D境界ボックスが、認識されているオブジェクトの1つ以上の2-D境界ボックスと関連付けられることの決定に応答して、前記入力画像内で識別された2-D境界ボックスを使用して、前記オブジェクトの更新された楕円体を計算することによって、前記維持されるオブジェクトデータを更新するステップと、
前記入力画像内で識別された2-D境界ボックスが、認識されている任意のオブジェクトと関連付けられないことの決定に応答して、前記入力画像内で識別された少なくとも2-D境界ボックスから楕円体を生成することによって、新しいオブジェクトを作成するステップと、
前記入力画像内で認識されているオブジェクトの楕円体を使用して、前記3-D境界ボックスの初期セットを生成するステップと
を実施することによって、前記3-D境界ボックスの初期セットを生成する、請求項13-14のいずれか1項に記載の方法。 - 前記オブジェクト認識システムは、前記入力画像をとり、前記入力画像内で認識されている1つ以上のオブジェクトの各々に対し、個別の2次元(2-D)オブジェクト境界ボックスを生成する訓練された深層ニューラルネットワーク(DNN)モデルを備える、請求項12-15のいずれか1項に記載の方法。
- 前記場面の入力画像のストリームは、2つ以上のユーザデバイスから捕捉される、請求項12-16のいずれか1項に記載の方法。
- システムであって、前記システムは、1つ以上のコンピュータと、1つ以上の記憶デバイスとを備え、前記1つ以上の記憶デバイスは、命令を記憶しており、前記命令は、前記1つ以上のコンピュータによって実行されると、前記1つ以上のコンピュータに、請求項12-17のいずれか1項に記載の方法の個別の動作を実施させる、システム。
- 1つ以上の非一過性コンピュータ可読記憶媒体であって、前記1つ以上の非一過性コンピュータ可読記憶媒体は、命令を記憶しており、前記命令は、1つ以上のコンピュータによって実行されると、前記1つ以上のコンピュータに、請求項12-17のいずれか1項に記載の方法の個別の動作を実施させる、1つ以上の非一過性コンピュータ可読記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023196666A JP2024012657A (ja) | 2019-06-14 | 2023-11-20 | クロスリアリティシステムにおけるスケーラブル3次元オブジェクト認識 |
Applications Claiming Priority (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962861784P | 2019-06-14 | 2019-06-14 | |
US62/861,784 | 2019-06-14 | ||
US202062968023P | 2020-01-30 | 2020-01-30 | |
US62/968,023 | 2020-01-30 | ||
US202063006408P | 2020-04-07 | 2020-04-07 | |
US63/006,408 | 2020-04-07 | ||
US202063024291P | 2020-05-13 | 2020-05-13 | |
US63/024,291 | 2020-05-13 | ||
PCT/US2020/037573 WO2020252371A1 (en) | 2019-06-14 | 2020-06-12 | Scalable three-dimensional object recognition in a cross reality system |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023196666A Division JP2024012657A (ja) | 2019-06-14 | 2023-11-20 | クロスリアリティシステムにおけるスケーラブル3次元オブジェクト認識 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022537810A true JP2022537810A (ja) | 2022-08-30 |
JPWO2020252371A5 JPWO2020252371A5 (ja) | 2023-07-12 |
JP7448566B2 JP7448566B2 (ja) | 2024-03-12 |
Family
ID=73745180
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021574263A Active JP7448566B2 (ja) | 2019-06-14 | 2020-06-12 | クロスリアリティシステムにおけるスケーラブル3次元オブジェクト認識 |
JP2023196666A Pending JP2024012657A (ja) | 2019-06-14 | 2023-11-20 | クロスリアリティシステムにおけるスケーラブル3次元オブジェクト認識 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023196666A Pending JP2024012657A (ja) | 2019-06-14 | 2023-11-20 | クロスリアリティシステムにおけるスケーラブル3次元オブジェクト認識 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11257300B2 (ja) |
EP (1) | EP3983941A4 (ja) |
JP (2) | JP7448566B2 (ja) |
CN (1) | CN114730498A (ja) |
WO (1) | WO2020252371A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019161562A1 (en) * | 2018-02-26 | 2019-08-29 | Intel Corporation | Object detection with image background subtracted |
WO2019205069A1 (en) * | 2018-04-27 | 2019-10-31 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for updating 3d model of building |
US11257300B2 (en) | 2019-06-14 | 2022-02-22 | Magic Leap, Inc. | Scalable three-dimensional object recognition in a cross reality system |
US11688073B2 (en) * | 2020-04-14 | 2023-06-27 | Samsung Electronics Co., Ltd. | Method and system for depth map reconstruction |
US11394799B2 (en) | 2020-05-07 | 2022-07-19 | Freeman Augustus Jackson | Methods, systems, apparatuses, and devices for facilitating for generation of an interactive story based on non-interactive data |
US11615594B2 (en) | 2021-01-21 | 2023-03-28 | Samsung Electronics Co., Ltd. | Systems and methods for reconstruction of dense depth maps |
US12008787B2 (en) * | 2021-07-20 | 2024-06-11 | Ford Global Technologies, Llc | Object pose estimation |
US11854255B2 (en) * | 2021-07-27 | 2023-12-26 | Ubkang (Qingdao) Technology Co., Ltd. | Human-object scene recognition method, device and computer-readable storage medium |
US11417069B1 (en) * | 2021-10-05 | 2022-08-16 | Awe Company Limited | Object and camera localization system and localization method for mapping of the real world |
US20240037966A1 (en) * | 2022-07-28 | 2024-02-01 | Tmrw Foundation Ip S. À R.L. | System and method for transmitting color and depth information |
US11776206B1 (en) | 2022-12-23 | 2023-10-03 | Awe Company Limited | Extended reality system and extended reality method with two-way digital interactive digital twins |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8355079B2 (en) * | 2009-02-10 | 2013-01-15 | Thomson Licensing | Temporally consistent caption detection on videos using a 3D spatiotemporal method |
US8842163B2 (en) | 2011-06-07 | 2014-09-23 | International Business Machines Corporation | Estimation of object properties in 3D world |
US9542626B2 (en) * | 2013-09-06 | 2017-01-10 | Toyota Jidosha Kabushiki Kaisha | Augmenting layer-based object detection with deep convolutional neural networks |
US9251598B2 (en) | 2014-04-10 | 2016-02-02 | GM Global Technology Operations LLC | Vision-based multi-camera factory monitoring with dynamic integrity scoring |
US9866815B2 (en) * | 2015-01-05 | 2018-01-09 | Qualcomm Incorporated | 3D object segmentation |
US10410096B2 (en) | 2015-07-09 | 2019-09-10 | Qualcomm Incorporated | Context-based priors for object detection in images |
US10482681B2 (en) * | 2016-02-09 | 2019-11-19 | Intel Corporation | Recognition-based object segmentation of a 3-dimensional image |
US10373380B2 (en) * | 2016-02-18 | 2019-08-06 | Intel Corporation | 3-dimensional scene analysis for augmented reality operations |
PL3497550T3 (pl) | 2016-08-12 | 2023-07-24 | Packsize, Llc | Systemy i sposoby automatycznego generowania metadanych dla dokumentów multimedialnych |
US11257300B2 (en) | 2019-06-14 | 2022-02-22 | Magic Leap, Inc. | Scalable three-dimensional object recognition in a cross reality system |
-
2020
- 2020-06-12 US US16/899,878 patent/US11257300B2/en active Active
- 2020-06-12 EP EP20822482.4A patent/EP3983941A4/en active Pending
- 2020-06-12 JP JP2021574263A patent/JP7448566B2/ja active Active
- 2020-06-12 CN CN202080057105.4A patent/CN114730498A/zh active Pending
- 2020-06-12 WO PCT/US2020/037573 patent/WO2020252371A1/en active Application Filing
-
2022
- 2022-01-12 US US17/574,305 patent/US11704806B2/en active Active
-
2023
- 2023-11-20 JP JP2023196666A patent/JP2024012657A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
US20200394848A1 (en) | 2020-12-17 |
WO2020252371A1 (en) | 2020-12-17 |
US11257300B2 (en) | 2022-02-22 |
JP7448566B2 (ja) | 2024-03-12 |
EP3983941A4 (en) | 2023-05-17 |
CN114730498A (zh) | 2022-07-08 |
US20220139057A1 (en) | 2022-05-05 |
US11704806B2 (en) | 2023-07-18 |
EP3983941A1 (en) | 2022-04-20 |
JP2024012657A (ja) | 2024-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7448566B2 (ja) | クロスリアリティシステムにおけるスケーラブル3次元オブジェクト認識 | |
US10977818B2 (en) | Machine learning based model localization system | |
US10460512B2 (en) | 3D skeletonization using truncated epipolar lines | |
GB2584176A (en) | 3D object reconstruction using photometric mesh representation | |
US11410376B2 (en) | Systems and methods for end to end scene reconstruction from multiview images | |
US20210407125A1 (en) | Object recognition neural network for amodal center prediction | |
CN113421328B (zh) | 一种三维人体虚拟化重建方法及装置 | |
Li et al. | Animated 3D human avatars from a single image with GAN-based texture inference | |
US11451758B1 (en) | Systems, methods, and media for colorizing grayscale images | |
WO2022197825A1 (en) | Generating and modifying representations of dynamic objects in an artificial reality environment | |
US20230290132A1 (en) | Object recognition neural network training using multiple data sources | |
Li et al. | Immersive neural graphics primitives | |
Michael et al. | Model-based generation of personalized full-body 3D avatars from uncalibrated multi-view photographs | |
KR20230095197A (ko) | 3차원 공간에서 생성한 인지적 매쉬 정보와 가상 객체들간의 상호작용 방법 및 그 장치 | |
WO2022147227A1 (en) | Systems and methods for generating stabilized images of a real environment in artificial reality | |
Jian et al. | Realistic face animation generation from videos | |
Lee et al. | Toward immersive telecommunication: 3D video avatar with physical interaction | |
Yao et al. | Neural Radiance Field-based Visual Rendering: A Comprehensive Review | |
Hall et al. | Networked and multimodal 3d modeling of cities for collaborative virtual environments | |
Syed et al. | 3d human reconstruction with corresponding 3d texture model: A comparison of salient approaches | |
US20240062425A1 (en) | Automatic Colorization of Grayscale Stereo Images | |
US20240127538A1 (en) | Scene understanding using occupancy grids | |
CN115552468A (zh) | 用于计算3d环境的合成表示的计算高效方法 | |
近藤生也 et al. | 3D Physical State Prediction and Visualization using Deep Billboard | |
JP2024512672A (ja) | 複数のカメラからの表面テクスチャリング |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220120 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230612 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230612 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230612 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230809 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20230809 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20230809 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230922 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231120 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240202 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240229 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7448566 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |