JP7448566B2 - クロスリアリティシステムにおけるスケーラブル3次元オブジェクト認識 - Google Patents
クロスリアリティシステムにおけるスケーラブル3次元オブジェクト認識 Download PDFInfo
- Publication number
- JP7448566B2 JP7448566B2 JP2021574263A JP2021574263A JP7448566B2 JP 7448566 B2 JP7448566 B2 JP 7448566B2 JP 2021574263 A JP2021574263 A JP 2021574263A JP 2021574263 A JP2021574263 A JP 2021574263A JP 7448566 B2 JP7448566 B2 JP 7448566B2
- Authority
- JP
- Japan
- Prior art keywords
- color image
- recognized
- objects
- image
- bounding box
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 86
- 230000004927 fusion Effects 0.000 claims description 74
- 238000003860 storage Methods 0.000 claims description 57
- 238000012545 processing Methods 0.000 claims description 29
- 238000004590 computer program Methods 0.000 claims description 19
- 230000004044 response Effects 0.000 claims description 10
- 238000013528 artificial neural network Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 description 32
- 238000004422 calculation algorithm Methods 0.000 description 24
- 238000001514 detection method Methods 0.000 description 17
- 230000009471 action Effects 0.000 description 14
- 238000004364 calculation method Methods 0.000 description 12
- 230000011218 segmentation Effects 0.000 description 11
- 238000010801 machine learning Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 241000699666 Mus <mouse, genus> Species 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000004807 localization Effects 0.000 description 4
- 238000013341 scale-up Methods 0.000 description 4
- 230000001629 suppression Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 230000002085 persistent effect Effects 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 230000014616 translation Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000007670 refining Methods 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000026676 system process Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 101100180402 Caenorhabditis elegans jun-1 gene Proteins 0.000 description 1
- 241000009334 Singa Species 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Description
本特許出願は、参照することによってその全体として本明細書に組み込まれる、2019年6月14日に出願され、「OBJECT RECOGNITION AND SCENE UNDERSTANDING」と題された、米国仮特許出願第62/861,784号の優先権および利点を主張する。本特許出願はまた、参照することによってその全体として本明細書に組み込まれる、2020年1月30日に出願され、「A CROSS REALITY SYSTEM」と題された、米国仮特許出願第62/968,023号の優先権および利点を主張する。本特許出願はまた、参照することによってその全体として本明細書に組み込まれる、2020年4月7日に出願され、「SCALABLE THREE-DIMENSIONAL OBJECT RECOGNITION IN A CROSS REALITY SYSTEM」と題された、米国仮特許出願第63/006,408号の優先権および利点を主張する。本特許出願はまた、参照することによってその全体として本明細書に組み込まれる、2020年5月13日に出願され、「SCALABLE THREE-DIMENSIONAL OBJECT RECOGNITION IN A CROSS REALITY SYSTEM」と題された、米国仮特許出願第63/024,291号の優先権および利点を主張する。
本発明は、例えば、以下を提供する。
(項目1)
コンピュータ実装方法であって、前記方法は、
環境内の場面内で認識されているオブジェクトを規定するオブジェクトデータを維持することと、
前記場面の入力画像のストリームを受信することであって、前記入力画像のストリームは、カラー画像のストリームと、深度画像のストリームとを備える、ことと、
前記カラー画像のストリーム内の複数のカラー画像の各々に対し、
前記カラー画像を入力としてオブジェクト認識システムに提供することと、
前記オブジェクト認識システムからの出力として、前記カラー画像内で認識されている1つ以上のオブジェクトの各々に対し、前記カラー画像内の個別のオブジェクトマスクを識別する認識出力を受信することと、
対応する深度画像のタイムスタンプおよび前記カラー画像のタイムスタンプに基づいて、前記カラー画像のための対応する深度画像を決定する同期システムに、前記カラー画像および前記深度画像のストリーム内の複数の深度画像を入力として提供することと、
前記オブジェクトデータ、前記オブジェクトマスク、および前記対応する深度画像から、前記カラー画像内で認識されているオブジェクトのうちの1つ以上のものの各々に対し、個別の3-D境界ボックスを決定する3次元(3-D)境界ボックス生成システムに、前記オブジェクトデータ、前記オブジェクトマスクを識別する認識出力、および前記対応する深度画像を入力として提供することと、
前記3-D境界ボックス生成システムからの出力として、前記カラー画像内で認識されたオブジェクトのうちの1つ以上のもののための1つ以上の3-D境界ボックスを規定するデータを受信することと、
出力として、前記1つ以上の3-D境界ボックスを規定するデータを提供することと
を含む、方法。
(項目2)
前記3-D境界ボックス生成システムは、
3-Dオブジェクトマスクの初期セットを生成するマルチビュー融合システムを備える、項目1に記載の方法。
(項目3)
前記オブジェクト認識システム、前記同期システム、前記マルチビュー融合システムは、ステートレス様式で、相互から独立して動作する、項目2に記載の方法。
(項目4)
前記マルチビュー融合システムは、
関連付けシステムであって、前記関連付けシステムは、前記維持されるオブジェクトデータから、対応するオブジェクトを規定する、前記カラー画像内の各認識されたオブジェクトの個別のオブジェクトマスクと合致されたオブジェクトデータを識別する、関連付けシステムと、
融合システムであって、前記融合システムは、前記カラー画像内のオブジェクトマスクと前記合致されたオブジェクトデータを組み合わせることによって、前記カラー画像内の各認識されたオブジェクトに対し、初期3-Dオブジェクトマスクを生成する、融合システムと
を備える、項目2-3のいずれか1項に記載の方法。
(項目5)
前記3-D境界ボックス生成システムはさらに、前記3-Dオブジェクトマスクの初期セットを精緻化し、3-D境界ボックスの初期セットを生成するオブジェクト精緻化システムを備える、前記項目のいずれかに記載の方法。
(項目6)
前記3-D境界ボックス生成システムはさらに、前記3-D境界ボックスの初期セットを精緻化し、前記1つ以上の3-D境界ボックスを生成する境界ボックス精緻化システムを備える、前記項目のいずれかに記載の方法。
(項目7)
前記オブジェクト認識システムは、前記カラー画像を入力としてとり、前記カラー画像内で認識されている1つ以上のオブジェクトの各々に対し、個別の2次元(2-D)オブジェクトマスクを生成する訓練された深層ニューラルネットワーク(DNN)モデルを備える、前記項目のいずれかに記載の方法。
(項目8)
前記同期システムによって、前記対応する深度画像のタイムスタンプおよび前記カラー画像のタイムスタンプに基づいて、前記カラー画像のための対応する深度を決定することは、
前記カラー画像のタイムスタンプに最も近いタイムスタンプを有する候補深度画像を識別することと、
前記候補深度画像と前記カラー画像との間の時間差が閾値未満であることを決定することと、
それに応答して、前記候補深度画像を前記カラー画像のための対応する深度画像として決定することと
を含む、前記項目のいずれかに記載の方法。
(項目9)
前記3-D境界ボックス生成システムは、前記オブジェクトマスクおよび前記対応する深度画像から、前記カラー画像内で認識されているオブジェクトのうちの1つ以上のものの各々に対し、個別の3-Dオブジェクトマスクを決定し、前記方法はさらに、
前記3-D境界ボックス生成システムからの出力として、前記カラー画像内で認識されたオブジェクトのうちの1つ以上のもののための1つ以上の3-Dオブジェクトマスクを規定するデータを受信することと、
出力として、前記1つ以上の3-Dオブジェクトマスクを規定するデータを提供することと
を含む、前記項目のいずれかに記載の方法。
(項目10)
システムであって、前記システムは、1つ以上のコンピュータと、1つ以上の記憶デバイスとを備え、前記1つ以上の記憶デバイスは、命令を記憶しており、前記命令は、前記1つ以上のコンピュータによって実行されると、前記1つ以上のコンピュータに、前記項目のいずれかに記載の方法の個別の動作を実施させる、システム。
(項目11)
1つ以上の非一過性コンピュータ可読記憶媒体であって、前記1つ以上の非一過性コンピュータ可読記憶媒体は、命令を記憶しており、前記命令は、1つ以上のコンピュータによって実行されると、前記1つ以上のコンピュータに、前記項目のいずれかに記載の方法の個別の動作を実施させる、1つ以上の非一過性コンピュータ可読記憶媒体。
(項目12)
コンピュータ実装方法であって、前記方法は、
環境内の場面内で認識されているオブジェクトを規定するオブジェクトデータを維持することと、
前記場面の入力画像のストリームを受信することと、
前記入力画像のストリーム内の複数の入力画像の各々に対し、
前記入力画像を入力としてオブジェクト認識システムに提供することと、
前記オブジェクト認識システムからの出力として、前記入力画像内で認識されている1つ以上のオブジェクトの各々に対し、前記入力画像内の個別の境界ボックスを識別する認識出力を受信することと、
前記オブジェクトデータおよび前記境界ボックスから、前記入力画像内で認識されているオブジェクトのうちの1つ以上のものの各々に対し、個別の3-D境界ボックスを決定する3次元(3-D)境界ボックス生成システムに、前記境界ボックスを識別するデータを入力として提供することと、
前記3-D境界ボックス生成システムからの出力として、前記入力画像内で認識されたオブジェクトのうちの1つ以上のもののための1つ以上の3-D境界ボックスを規定するデータを受信することと、
出力として、前記1つ以上の3-D境界ボックスを規定するデータを提供することと
を含む、方法。
(項目13)
前記3-D境界ボックス生成システムは、
3-D境界ボックスの初期セットを生成するマルチビュー融合システムと、
前記3-D境界ボックスの初期セットを精緻化し、前記1つ以上の3-D境界ボックスを生成する境界ボックス精緻化システムと
を備える、項目12に記載の方法。
(項目14)
前記オブジェクト認識システム、前記マルチビュー融合システム、および前記境界ボックス精緻化システムは、ステートレス様式で、相互から独立して動作する、項目13に記載の方法。
(項目15)
前記維持されるオブジェクトデータは、前記場面内で認識されている各オブジェクトの複数の2次元(2-D)境界ボックスから生成される楕円体を備え、前記マルチビュー融合システムは、少なくとも、
前記入力画像内で識別された各2-D境界ボックスに対し、
前記入力画像内で識別された2-D境界ボックスが、前記維持されるオブジェクトデータ内で認識されているオブジェクトの1つ以上の2-D境界ボックスと関連付けられるかどうかを決定するステップと、
前記入力画像内で識別された2-D境界ボックスが、認識されているオブジェクトの1つ以上の2-D境界ボックスと関連付けられることの決定に応答して、前記入力画像内で識別された2-D境界ボックスを使用して、前記オブジェクトの更新された楕円体を計算することによって、前記維持されるオブジェクトデータを更新するステップと、
前記入力画像内で識別された2-D境界ボックスが、認識されている任意のオブジェクトと関連付けられないことの決定に応答して、前記入力画像内で識別された少なくとも2-D境界ボックスから楕円体を生成することによって、新しいオブジェクトを作成するステップと、
前記入力画像内で認識されているオブジェクトの楕円体を使用して、前記3-D境界ボックスの初期セットを生成するステップと
を実施することによって、前記3-D境界ボックスの初期セットを生成する、項目13-14のいずれか1項に記載の方法。
(項目16)
前記オブジェクト認識システムは、前記入力画像をとり、前記入力画像内で認識されている1つ以上のオブジェクトの各々に対し、個別の2次元(2-D)オブジェクト境界ボックスを生成する訓練された深層ニューラルネットワーク(DNN)モデルを備える、項目12-15のいずれか1項に記載の方法。
(項目17)
前記場面の入力画像のストリームは、2つ以上のユーザデバイスから捕捉される、項目12-16のいずれか1項に記載の方法。
(項目18)
システムであって、前記システムは、1つ以上のコンピュータと、1つ以上の記憶デバイスとを備え、前記1つ以上の記憶デバイスは、命令を記憶しており、前記命令は、前記1つ以上のコンピュータによって実行されると、前記1つ以上のコンピュータに、項目12-17のいずれか1項に記載の方法の個別の動作を実施させる、システム。
(項目19)
1つ以上の非一過性コンピュータ可読記憶媒体であって、前記1つ以上の非一過性コンピュータ可読記憶媒体は、命令を記憶しており、前記命令は、1つ以上のコンピュータによって実行されると、前記1つ以上のコンピュータに、項目12-17のいずれか1項に記載の方法の個別の動作を実施させる、1つ以上の非一過性コンピュータ可読記憶媒体。
Claims (20)
- コンピュータ実装方法であって、前記方法は、
環境内の場面内で認識されているオブジェクトを規定するオブジェクトデータを維持することと、
前記場面の入力画像のストリームを受信することであって、前記入力画像のストリームは、カラー画像のストリームと、深度画像のストリームとを備える、ことと、
前記カラー画像のストリーム内の複数のカラー画像の各々に対し、
前記カラー画像を入力としてオブジェクト認識システムに提供することと、
前記オブジェクト認識システムからの出力として、前記カラー画像内で認識されている1つ以上のオブジェクトの各々に対し、前記カラー画像内の個別のオブジェクトマスクを識別する認識出力を受信することと、
対応する深度画像のタイムスタンプおよび前記カラー画像のタイムスタンプに基づいて、前記カラー画像のための対応する深度画像を決定する同期システムに、前記カラー画像および前記深度画像のストリーム内の複数の深度画像を入力として提供することと、
前記オブジェクトデータ、前記オブジェクトマスク、および前記対応する深度画像から、前記カラー画像内で認識されているオブジェクトのうちの1つ以上のものの各々に対し、個別の3-D境界ボックスを決定する3次元(3-D)境界ボックス生成システムに、前記オブジェクトデータ、前記オブジェクトマスクを識別する認識出力、および前記対応する深度画像を入力として提供することと、
前記3-D境界ボックス生成システムからの出力として、前記カラー画像内で認識されたオブジェクトのうちの1つ以上のもののための1つ以上の3-D境界ボックスを規定するデータを受信することと、
出力として、前記1つ以上の3-D境界ボックスを規定するデータを提供することと
を含む、方法。 - 前記3-D境界ボックス生成システムは、
3-Dオブジェクトマスクの初期セットを生成するマルチビュー融合システムを備える、請求項1に記載の方法。 - 前記オブジェクト認識システム、前記同期システム、前記マルチビュー融合システムは、ステートレス様式で、相互から独立して動作する、請求項2に記載の方法。
- 前記マルチビュー融合システムは、
関連付けシステムであって、前記関連付けシステムは、前記維持されるオブジェクトデータから、対応するオブジェクトを規定する、前記カラー画像内の各認識されたオブジェクトの個別のオブジェクトマスクと合致されたオブジェクトデータを識別する、関連付けシステムと、
融合システムであって、前記融合システムは、前記カラー画像内のオブジェクトマスクと前記合致されたオブジェクトデータを組み合わせることによって、前記カラー画像内の各認識されたオブジェクトに対し、初期3-Dオブジェクトマスクを生成する、融合システムと
を備える、請求項2に記載の方法。 - 前記3-D境界ボックス生成システムは、前記3-Dオブジェクトマスクの初期セットを精緻化し、3-D境界ボックスの初期セットを生成するオブジェクト精緻化システムをさらに備える、請求項2に記載の方法。
- 前記3-D境界ボックス生成システムは、前記3-D境界ボックスの初期セットを精緻化し、前記1つ以上の3-D境界ボックスを生成する境界ボックス精緻化システムをさらに備える、請求項2に記載の方法。
- 前記オブジェクト認識システムは、前記カラー画像を入力としてとり、前記カラー画像内で認識されている1つ以上のオブジェクトの各々に対し、個別の2次元(2-D)オブジェクトマスクを生成する訓練された深層ニューラルネットワーク(DNN)モデルを備える、請求項1に記載の方法。
- 前記同期システムによって、前記対応する深度画像のタイムスタンプおよび前記カラー画像のタイムスタンプに基づいて、前記カラー画像のための対応する深度画像を決定することは、
前記カラー画像のタイムスタンプに最も近いタイムスタンプを有する候補深度画像を識別することと、
前記候補深度画像と前記カラー画像との間の時間差が閾値未満であることを決定することと、
それに応答して、前記候補深度画像を前記カラー画像のための対応する深度画像として決定することと
を含む、請求項1に記載の方法。 - 前記3-D境界ボックス生成システムは、前記オブジェクトマスクおよび前記対応する深度画像から、前記カラー画像内で認識されているオブジェクトのうちの1つ以上のものの各々に対し、個別の3-Dオブジェクトマスクを決定し、前記方法は、
前記3-D境界ボックス生成システムからの出力として、前記カラー画像内で認識されたオブジェクトのうちの1つ以上のもののための1つ以上の3-Dオブジェクトマスクを規定するデータを受信することと、
出力として、前記1つ以上の3-Dオブジェクトマスクを規定するデータを提供することと
をさらに含む、請求項1に記載の方法。 - システムであって、前記システムは、1つ以上のコンピュータと、1つ以上の記憶デバイスとを備え、前記1つ以上の記憶デバイスは、命令を記憶しており、前記命令は、前記1つ以上のコンピュータによって実行されると、
環境内の場面内で認識されているオブジェクトを規定するオブジェクトデータを維持することと、
前記場面の入力画像のストリームを受信することであって、前記入力画像のストリームは、カラー画像のストリームと、深度画像のストリームとを備える、ことと、
前記カラー画像のストリーム内の複数のカラー画像の各々に対し、
前記カラー画像を入力としてオブジェクト認識システムに提供することと、
前記オブジェクト認識システムからの出力として、前記カラー画像内で認識されている1つ以上のオブジェクトの各々に対し、前記カラー画像内の個別のオブジェクトマスクを識別する認識出力を受信することと、
対応する深度画像のタイムスタンプおよび前記カラー画像のタイムスタンプに基づいて、前記カラー画像のための対応する深度画像を決定する同期システムに、前記カラー画像および前記深度画像のストリーム内の複数の深度画像を入力として提供することと、
前記オブジェクトデータ、前記オブジェクトマスク、および前記対応する深度画像から、前記カラー画像内で認識されているオブジェクトのうちの1つ以上のものの各々に対し、個別の3-D境界ボックスを決定する3次元(3-D)境界ボックス生成システムに、前記オブジェクトデータ、前記オブジェクトマスクを識別する認識出力、および前記対応する深度画像を入力として提供することと、
前記3-D境界ボックス生成システムからの出力として、前記カラー画像内で認識されたオブジェクトのうちの1つ以上のもののための1つ以上の3-D境界ボックスを規定するデータを受信することと、
出力として、前記1つ以上の3-D境界ボックスを規定するデータを提供することと
を含む動作を前記1つ以上のコンピュータに実施させる、システム。 - 前記3-D境界ボックス生成システムは、3-Dオブジェクトマスクの初期セットを生成するマルチビュー融合システムを備え、前記オブジェクト認識システム、前記同期システム、前記マルチビュー融合システムは、ステートレス様式で、相互から独立して動作する、請求項10に記載のシステム。
- 前記マルチビュー融合システムは、
関連付けシステムであって、前記関連付けシステムは、前記維持されるオブジェクトデータから、対応するオブジェクトを規定する、前記カラー画像内の各認識されたオブジェクトの個別のオブジェクトマスクと合致されたオブジェクトデータを識別する、関連付けシステムと、
融合システムであって、前記融合システムは、前記カラー画像内のオブジェクトマスクと前記合致されたオブジェクトデータを組み合わせることによって、前記カラー画像内の各認識されたオブジェクトに対し、初期3-Dオブジェクトマスクを生成する、融合システムと
を備える、請求項11に記載のシステム。 - 前記3-D境界ボックス生成システムは、前記3-Dオブジェクトマスクの初期セットを精緻化し、3-D境界ボックスの初期セットを生成するオブジェクト精緻化システムをさらに備える、請求項11に記載のシステム。
- 前記3-D境界ボックス生成システムは、前記3-D境界ボックスの初期セットを精緻化し、前記1つ以上の3-D境界ボックスを生成する境界ボックス精緻化システムをさらに備える、請求項11に記載のシステム。
- 前記オブジェクト認識システムは、前記カラー画像を入力としてとり、前記カラー画像内で認識されている1つ以上のオブジェクトの各々に対し、個別の2次元(2-D)オブジェクトマスクを生成する訓練された深層ニューラルネットワーク(DNN)モデルを備える、請求項10に記載のシステム。
- 前記同期システムによって、前記対応する深度画像のタイムスタンプおよび前記カラー画像のタイムスタンプに基づいて、前記カラー画像のための対応する深度画像を決定することは、
前記カラー画像のタイムスタンプに最も近いタイムスタンプを有する候補深度画像を識別することと、
前記候補深度画像と前記カラー画像との間の時間差が閾値未満であることを決定することと、
それに応答して、前記候補深度画像を前記カラー画像のための対応する深度画像として決定することと
を含む、請求項10に記載のシステム。 - 前記3-D境界ボックス生成システムは、前記オブジェクトマスクおよび前記対応する深度画像から、前記カラー画像内で認識されているオブジェクトのうちの1つ以上のものの各々に対し、個別の3-Dオブジェクトマスクを決定し、前記動作は、
前記3-D境界ボックス生成システムからの出力として、前記カラー画像内で認識されたオブジェクトのうちの1つ以上のもののための1つ以上の3-Dオブジェクトマスクを規定するデータを受信することと、
出力として、前記1つ以上の3-Dオブジェクトマスクを規定するデータを提供することと
をさらに含む、請求項10に記載のシステム。 - 1つ以上の非一過性コンピュータ可読記憶媒体上にエンコーディングされたコンピュータプログラム製品であって、前記コンピュータプログラム製品は、命令を備え、前記命令は、1つ以上のコンピュータによって実行されると、
環境内の場面内で認識されているオブジェクトを規定するオブジェクトデータを維持することと、
前記場面の入力画像のストリームを受信することであって、前記入力画像のストリームは、カラー画像のストリームと、深度画像のストリームとを備える、ことと、
前記カラー画像のストリーム内の複数のカラー画像の各々に対し、
前記カラー画像を入力としてオブジェクト認識システムに提供することと、
前記オブジェクト認識システムからの出力として、前記カラー画像内で認識されている1つ以上のオブジェクトの各々に対し、前記カラー画像内の個別のオブジェクトマスクを識別する認識出力を受信することと、
対応する深度画像のタイムスタンプおよび前記カラー画像のタイムスタンプに基づいて、前記カラー画像のための対応する深度画像を決定する同期システムに、前記カラー画像および前記深度画像のストリーム内の複数の深度画像を入力として提供することと、
前記オブジェクトデータ、前記オブジェクトマスク、および前記対応する深度画像から、前記カラー画像内で認識されているオブジェクトのうちの1つ以上のものの各々に対し、個別の3-D境界ボックスを決定する3次元(3-D)境界ボックス生成システムに、前記オブジェクトデータ、前記オブジェクトマスクを識別する認識出力、および前記対応する深度画像を入力として提供することと、
前記3-D境界ボックス生成システムからの出力として、前記カラー画像内で認識されたオブジェクトのうちの1つ以上のもののための1つ以上の3-D境界ボックスを規定するデータを受信することと、
出力として、前記1つ以上の3-D境界ボックスを規定するデータを提供することと
を含む動作を前記1つ以上のコンピュータに実施させる、コンピュータプログラム製品。 - 前記3-D境界ボックス生成システムは、3-Dオブジェクトマスクの初期セットを生成するマルチビュー融合システムを備え、前記オブジェクト認識システム、前記同期システム、前記マルチビュー融合システムは、ステートレス様式で、相互から独立して動作する、請求項18に記載のコンピュータプログラム製品。
- 前記マルチビュー融合システムは、
関連付けシステムであって、前記関連付けシステムは、前記維持されるオブジェクトデータから、対応するオブジェクトを規定する、前記カラー画像内の各認識されたオブジェクトの個別のオブジェクトマスクと合致されたオブジェクトデータを識別する、関連付けシステムと、
融合システムであって、前記融合システムは、前記カラー画像内のオブジェクトマスクと前記合致されたオブジェクトデータを組み合わせることによって、前記カラー画像内の各認識されたオブジェクトに対し、初期3-Dオブジェクトマスクを生成する、融合システムと
を備える、請求項19に記載のコンピュータプログラム製品。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023196666A JP7569439B2 (ja) | 2019-06-14 | 2023-11-20 | クロスリアリティシステムにおけるスケーラブル3次元オブジェクト認識 |
Applications Claiming Priority (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962861784P | 2019-06-14 | 2019-06-14 | |
US62/861,784 | 2019-06-14 | ||
US202062968023P | 2020-01-30 | 2020-01-30 | |
US62/968,023 | 2020-01-30 | ||
US202063006408P | 2020-04-07 | 2020-04-07 | |
US63/006,408 | 2020-04-07 | ||
US202063024291P | 2020-05-13 | 2020-05-13 | |
US63/024,291 | 2020-05-13 | ||
PCT/US2020/037573 WO2020252371A1 (en) | 2019-06-14 | 2020-06-12 | Scalable three-dimensional object recognition in a cross reality system |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023196666A Division JP7569439B2 (ja) | 2019-06-14 | 2023-11-20 | クロスリアリティシステムにおけるスケーラブル3次元オブジェクト認識 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022537810A JP2022537810A (ja) | 2022-08-30 |
JPWO2020252371A5 JPWO2020252371A5 (ja) | 2023-07-12 |
JP7448566B2 true JP7448566B2 (ja) | 2024-03-12 |
Family
ID=73745180
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021574263A Active JP7448566B2 (ja) | 2019-06-14 | 2020-06-12 | クロスリアリティシステムにおけるスケーラブル3次元オブジェクト認識 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11257300B2 (ja) |
EP (1) | EP3983941A4 (ja) |
JP (1) | JP7448566B2 (ja) |
CN (1) | CN114730498A (ja) |
WO (1) | WO2020252371A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019161562A1 (en) * | 2018-02-26 | 2019-08-29 | Intel Corporation | Object detection with image background subtracted |
WO2019205069A1 (en) * | 2018-04-27 | 2019-10-31 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for updating 3d model of building |
JP7448566B2 (ja) | 2019-06-14 | 2024-03-12 | マジック リープ, インコーポレイテッド | クロスリアリティシステムにおけるスケーラブル3次元オブジェクト認識 |
US11688073B2 (en) * | 2020-04-14 | 2023-06-27 | Samsung Electronics Co., Ltd. | Method and system for depth map reconstruction |
US11394799B2 (en) | 2020-05-07 | 2022-07-19 | Freeman Augustus Jackson | Methods, systems, apparatuses, and devices for facilitating for generation of an interactive story based on non-interactive data |
US11615594B2 (en) | 2021-01-21 | 2023-03-28 | Samsung Electronics Co., Ltd. | Systems and methods for reconstruction of dense depth maps |
US12008787B2 (en) * | 2021-07-20 | 2024-06-11 | Ford Global Technologies, Llc | Object pose estimation |
US11854255B2 (en) * | 2021-07-27 | 2023-12-26 | Ubkang (Qingdao) Technology Co., Ltd. | Human-object scene recognition method, device and computer-readable storage medium |
US12086929B2 (en) | 2021-09-12 | 2024-09-10 | NexTech AR Solutions Corp. | Material estimation for three-dimensional (3D) modeling |
US11417069B1 (en) * | 2021-10-05 | 2022-08-16 | Awe Company Limited | Object and camera localization system and localization method for mapping of the real world |
US20230237612A1 (en) * | 2022-01-26 | 2023-07-27 | Intuitive Research And Technology Corporation | Determining volume of a selectable region using extended reality |
US20230410530A1 (en) * | 2022-05-30 | 2023-12-21 | Ehsan Taghavi | Systems and methods for enhancement of 3d object detection using point cloud semantic segmentation and attentive anchor generation |
US20240037966A1 (en) * | 2022-07-28 | 2024-02-01 | Tmrw Foundation Ip S. À R.L. | System and method for transmitting color and depth information |
US11776206B1 (en) | 2022-12-23 | 2023-10-03 | Awe Company Limited | Extended reality system and extended reality method with two-way digital interactive digital twins |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180046649A1 (en) | 2016-08-12 | 2018-02-15 | Aquifi, Inc. | Systems and methods for automatically generating metadata for media documents |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8355079B2 (en) * | 2009-02-10 | 2013-01-15 | Thomson Licensing | Temporally consistent caption detection on videos using a 3D spatiotemporal method |
US8842163B2 (en) * | 2011-06-07 | 2014-09-23 | International Business Machines Corporation | Estimation of object properties in 3D world |
US9542626B2 (en) | 2013-09-06 | 2017-01-10 | Toyota Jidosha Kabushiki Kaisha | Augmenting layer-based object detection with deep convolutional neural networks |
US9251598B2 (en) * | 2014-04-10 | 2016-02-02 | GM Global Technology Operations LLC | Vision-based multi-camera factory monitoring with dynamic integrity scoring |
US9866815B2 (en) * | 2015-01-05 | 2018-01-09 | Qualcomm Incorporated | 3D object segmentation |
US10410096B2 (en) * | 2015-07-09 | 2019-09-10 | Qualcomm Incorporated | Context-based priors for object detection in images |
US10482681B2 (en) * | 2016-02-09 | 2019-11-19 | Intel Corporation | Recognition-based object segmentation of a 3-dimensional image |
US10373380B2 (en) * | 2016-02-18 | 2019-08-06 | Intel Corporation | 3-dimensional scene analysis for augmented reality operations |
JP7448566B2 (ja) | 2019-06-14 | 2024-03-12 | マジック リープ, インコーポレイテッド | クロスリアリティシステムにおけるスケーラブル3次元オブジェクト認識 |
-
2020
- 2020-06-12 JP JP2021574263A patent/JP7448566B2/ja active Active
- 2020-06-12 WO PCT/US2020/037573 patent/WO2020252371A1/en active Application Filing
- 2020-06-12 US US16/899,878 patent/US11257300B2/en active Active
- 2020-06-12 EP EP20822482.4A patent/EP3983941A4/en active Pending
- 2020-06-12 CN CN202080057105.4A patent/CN114730498A/zh active Pending
-
2022
- 2022-01-12 US US17/574,305 patent/US11704806B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180046649A1 (en) | 2016-08-12 | 2018-02-15 | Aquifi, Inc. | Systems and methods for automatically generating metadata for media documents |
Non-Patent Citations (2)
Title |
---|
Zhuo Deng;Longin Jan Latecki,Amodal Detection of 3D Objects: Inferring 3D Bounding Boxes from 2D Ones in RGB-Depth Images,2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR),IEEE,2017年,pp.398-406 |
高橋 正裕,ステレオカメラによるYOLOと3次元点群を利用した人物検出,SSII2019 ,日本,画像センシング技術研究会,2019年12月31日 |
Also Published As
Publication number | Publication date |
---|---|
US20220139057A1 (en) | 2022-05-05 |
WO2020252371A1 (en) | 2020-12-17 |
JP2024012657A (ja) | 2024-01-30 |
CN114730498A (zh) | 2022-07-08 |
US11704806B2 (en) | 2023-07-18 |
US20200394848A1 (en) | 2020-12-17 |
EP3983941A1 (en) | 2022-04-20 |
EP3983941A4 (en) | 2023-05-17 |
JP2022537810A (ja) | 2022-08-30 |
US11257300B2 (en) | 2022-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7448566B2 (ja) | クロスリアリティシステムにおけるスケーラブル3次元オブジェクト認識 | |
US10977818B2 (en) | Machine learning based model localization system | |
US11215465B2 (en) | Methods for simultaneous localization and mapping (SLAM) and related apparatus and systems | |
US10460512B2 (en) | 3D skeletonization using truncated epipolar lines | |
CN110889890B (zh) | 图像处理方法及装置、处理器、电子设备及存储介质 | |
GB2584176A (en) | 3D object reconstruction using photometric mesh representation | |
US11989900B2 (en) | Object recognition neural network for amodal center prediction | |
US11451758B1 (en) | Systems, methods, and media for colorizing grayscale images | |
CN113315878A (zh) | 单程对象扫描 | |
Manni et al. | Snap2cad: 3D indoor environment reconstruction for AR/VR applications using a smartphone device | |
Li et al. | Animated 3D human avatars from a single image with GAN-based texture inference | |
WO2022147227A1 (en) | Systems and methods for generating stabilized images of a real environment in artificial reality | |
US20230290132A1 (en) | Object recognition neural network training using multiple data sources | |
CN115375836A (zh) | 基于多元置信度滤波的点云融合三维重建方法和系统 | |
CN115272608A (zh) | 一种人手重建方法及设备 | |
WO2022087932A1 (en) | Non-rigid 3d object modeling using scene flow estimation | |
Yao et al. | Neural Radiance Field-based Visual Rendering: A Comprehensive Review | |
KR20230095197A (ko) | 3차원 공간에서 생성한 인지적 매쉬 정보와 가상 객체들간의 상호작용 방법 및 그 장치 | |
JP2024512672A (ja) | 複数のカメラからの表面テクスチャリング | |
Jian et al. | Realistic face animation generation from videos | |
Zhang et al. | A smart method for developing game-based virtual laboratories | |
US20240312166A1 (en) | Rotation, inpainting and completion for generalizable scene completion | |
US20240062425A1 (en) | Automatic Colorization of Grayscale Stereo Images | |
JP2024506299A (ja) | 占有率グリッドを使用した場面理解 | |
近藤生也 et al. | 3D Physical State Prediction and Visualization using Deep Billboard |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220120 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230612 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230612 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230612 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230809 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20230809 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20230809 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230922 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231120 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240202 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240229 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7448566 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |