JP7452698B2 - 画像間の空間的関係をラベリングする強化学習モデル - Google Patents
画像間の空間的関係をラベリングする強化学習モデル Download PDFInfo
- Publication number
- JP7452698B2 JP7452698B2 JP2022562851A JP2022562851A JP7452698B2 JP 7452698 B2 JP7452698 B2 JP 7452698B2 JP 2022562851 A JP2022562851 A JP 2022562851A JP 2022562851 A JP2022562851 A JP 2022562851A JP 7452698 B2 JP7452698 B2 JP 7452698B2
- Authority
- JP
- Japan
- Prior art keywords
- map
- image
- labeling
- candidate
- interest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000002372 labelling Methods 0.000 title claims description 322
- 230000002787 reinforcement Effects 0.000 title claims description 74
- 238000012549 training Methods 0.000 claims description 96
- 238000000034 method Methods 0.000 claims description 78
- 230000009471 action Effects 0.000 claims description 67
- 238000011156 evaluation Methods 0.000 claims description 63
- 230000003287 optical effect Effects 0.000 claims description 48
- 230000006870 function Effects 0.000 claims description 25
- 230000001186 cumulative effect Effects 0.000 claims description 19
- 238000010801 machine learning Methods 0.000 claims description 11
- 239000003795 chemical substances by application Substances 0.000 description 64
- 238000013527 convolutional neural network Methods 0.000 description 23
- 239000011159 matrix material Substances 0.000 description 21
- 238000003860 storage Methods 0.000 description 19
- 239000013598 vector Substances 0.000 description 15
- 238000012545 processing Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 210000002569 neuron Anatomy 0.000 description 8
- 238000013459 approach Methods 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 230000009466 transformation Effects 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 4
- 238000003491 array Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 241000473391 Archosargus rhomboidalis Species 0.000 description 1
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 1
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 1
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 1
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000007177 brain activity Effects 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011982 device technology Methods 0.000 description 1
- 238000011143 downstream manufacturing Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005111 flow chemistry technique Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003094 perturbing effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 231100000735 select agent Toxicity 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
- G06V10/7515—Shifting the patterns to accommodate for positional errors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
Description
Claims (20)
- 第1の画像のラベリングマップを受信し、
強化学習モデルを訓練する
プロセッサを含み、
前記ラベリングマップは、前記第1の画像に含まれる第1の関心領域と、第2の画像に含まれる第2の関心領域との間の空間的な関係を示し、
前記強化学習モデルは、少なくとも、前記ラベリングマップ、前記第1の画像、および前記第2の画像に基づいて、第1の画像に対し、更新されたラベリングマップを生成する
コンピューティングシステム。 - 前記訓練された強化学習モデルは、複数の訓練画像を用いて訓練され、
各前記複数の訓練画像について前記訓練された強化学習モデルを訓練するとき、前記プロセッサは、
エージェントモジュールにおいて、1つまたは複数のエージェントパラメータを有するポリシー関数を、候補ラベリングマップ、前記訓練画像、および前記複数の訓練画像のうちの追加の訓練画像に適用することによって、少なくとも部分的に前記訓練画像と関連付けられる前記候補ラベリングマップの候補ラベリング更新アクションを決定し、
評価モジュールにおいて、前記候補ラベリングマップの評価メトリック値を決定し、
環境モジュールにおいて、
少なくとも前記候補ラベリングマップおよび前記候補ラベリング更新アクションに基づいて、更新された候補ラベリングマップを決定し、
前記候補ラベリング更新アクションおよび前記評価メトリック値に基づいて、報酬値を決定し、
更新モジュールにおいて、少なくとも、前記候補ラベリングマップ、前記候補ラベリング更新アクション、前記更新された候補ラベリングマップ、および前記報酬値の少なくとも一部に基づいて、前記エージェントモジュールの1つまたは複数のエージェントパラメータを変更する
請求項1に記載のコンピューティングシステム。 - 前記候補ラベリングマップは、前記訓練画像の訓練関心領域と、追加の訓練画像の追加の訓練関心領域との候補空間的関係を含む
請求項2に記載のコンピューティングシステム。 - 前記評価モジュールにおいて、前記プロセッサは、さらに、
手動で生成されたラベリングマップを受信し、
少なくとも、部分的に前記候補ラベリングマップと前記手動で生成されたラベリングマップとの差に基づいて、前記評価メトリック値を決定する
請求項2に記載のコンピューティングシステム。 - 前記更新モジュールにおいて、前記プロセッサは、さらに、
前記複数の訓練画像に対応する複数のパラメータ更新サイクルにわたり、それらのパラメータ更新サイクルの前記環境モジュールにおいて決定された、前記それぞれの報酬値に基づいて、予測累積報酬値を決定し、
現在のパラメータ更新サイクルにおいて、前記予測累積報酬値を増加させる1つまたは複数のパラメータのそれぞれのパラメータ値を選択する
請求項2に記載のコンピューティングシステム。 - 前記ラベリングマップは、それぞれ第1の画像の第1の関心領域と、第2の画像の第2の関心領域とに含まれる画素との間の複数のオプティカルフロー値のオプティカルフローマップである
請求項1に記載のコンピューティングシステム。 - 前記ラベリングマップは、それぞれ、前記第1の画像の前記第1の関心領域および前記第2の画像の前記第2の関心領域に含まれる画素の複数の画素の位置の差の視差マップである
請求項1に記載のコンピューティングシステム。 - 前記ラベリングマップは、それぞれ、前記第1の画像の前記第1の関心領域および前記第2の画像の前記第2の関心領域に含まれる複数の画素の空間的深度値の深度マップである
請求項1に記載のコンピューティングシステム。 - 前記プロセッサは、さらに、
1つまたは複数の畳み込み層において、第1の関心領域の第1の特徴マップと、第2の関心領域の第2の特徴マップを生成する
請求項1に記載のコンピューティングシステム。 - 前記第1の関心領域および前記第2の関心領域は、それぞれ、複数の空間的に隣接する画素を含む
請求項1に記載のコンピューティングシステム。 - 前記プロセッサは、さらに、
複数のラベリングマップ更新サイクルにわたり、前記訓練された強化学習モデルにおいて、前記更新されたラベリングマップを、反復的に更新する、
請求項1に記載のコンピューティングシステム。 - 前記訓練された強化学習モデルは、マルチエージェント強化学習モデルである
請求項1に記載のコンピューティングシステム。 - コンピューティングシステムで用いられる方法であって、
第1の画像のラベリングマップを受信し、
前記ラベリングマップは、前記第1の画像に含まれる第1の関心領域と、第2の画像に含まれる第2の関心領域との間の空間的な関係を示し、
訓練された強化学習モデルにおいて、少なくとも、前記ラベリングマップ、前記第1の画像、および前記第2の画像に基づいて、第1の画像に対し、更新されたラベリングマップを生成する
方法。 - さらに、少なくとも、
エージェントモジュールにおいて、1つまたは複数のエージェントパラメータを有するポリシー関数を、候補ラベリングマップ、訓練画像、および複数の訓練画像のうちの追加の訓練画像に適用することによって、少なくとも部分的に前記訓練画像と関連付けられる前記候補ラベリングマップの候補ラベリング更新アクションを決定し、
評価モジュールにおいて、前記候補ラベリングマップの評価メトリック値を決定し、
環境モジュールにおいて、
少なくとも前記候補ラベリングマップおよび前記候補ラベリング更新アクションに基づいて更新された候補ラベリングマップを決定し、
前記候補ラベリング更新アクションおよび前記評価メトリック値に基づいて、報酬値を決定し、
更新モジュールにおいて、少なくとも、前記候補ラベリングマップ、前記候補ラベリング更新アクション、前記更新された候補ラベリングマップ、および前記報酬値の少なくとも一部に基づいて、前記エージェントモジュールの1つまたは複数のエージェントパラメータを変更する、
ことにより、前記複数の訓練画像により複数の訓練された機械学習モデルを訓練する
請求項13に記載の方法。 - さらに、前記評価モジュールにおいて、手動で生成されたラベリングマップを受信し、
少なくとも、部分的に前記候補ラベリングマップと前記手動で生成されたラベリングマップとの差に基づいて、前記評価メトリック値を決定する
請求項14に記載の方法。 - さらに、前記更新モジュールにおいて、
前記複数の訓練画像に対応する複数のパラメータ更新サイクルにわたり、それらのパラメータ更新サイクルの前記環境モジュールにおいて決定された、それぞれの報酬値に基づいて、予測累積報酬値を決定し、
現在のパラメータ更新サイクルにおいて、前記予測累積報酬値を増加させる1つまたは複数のパラメータのそれぞれのパラメータ値を選択する
請求項14に記載の方法。 - 前記ラベリングマップは、それぞれ第1の画像の第1の関心領域と、第2の画像の第2の関心領域とに含まれる画素との間の複数のオプティカルフロー値のオプティカルフローマップである
請求項13に記載の方法。 - 前記ラベリングマップは、それぞれ、前記第1の画像の前記第1の関心領域および前記第2の画像の前記第2の関心領域に含まれる画素の複数の画素の位置の差の視差マップである
請求項13に記載の方法。 - 前記ラベリングマップは、それぞれ、前記第1の画像の前記第1の関心領域および前記第2の画像の前記第2の関心領域に含まれる複数の画素の空間的深度値の深度マップである
請求項13に記載の方法。 - コンピューティングシステムは、1つまたは複数のプロセッサを含み、
複数の訓練画像を用いて、少なくとも前記訓練画像の一部により、訓練された強化学習モデルを生成し、
エージェントモジュールにおいて、1つまたは複数のエージェントパラメータを有するポリシー関数を、候補ラベリングマップ、前記訓練画像、および前記複数の訓練画像のうちの追加の訓練画像に適用することによって、少なくとも部分的に前記訓練画像と関連付けられる前記候補ラベリングマップの候補ラベリング更新アクションを決定し、
評価モジュールにおいて、前記候補ラベリングマップの評価メトリック値を決定し、
環境モジュールにおいて、
少なくとも前記候補ラベリングマップおよび前記候補ラベリング更新アクションに基づいて、更新された候補ラベリングマップを決定し、
前記候補ラベリング更新アクションおよび前記評価メトリック値に基づいて、報酬値を決定し、
更新モジュールにおいて、少なくとも、前記候補ラベリングマップ、前記候補ラベリング更新アクション、前記更新された候補ラベリングマップ、および前記報酬値の少なくとも一部に基づいて、前記エージェントモジュールの1つまたは複数のエージェントパラメータを変更し、
実行時において、
第1の画像のラベリングマップを受信し、
前記ラベリングマップは、第1の画像に含まれる第1の関心領域と、第2の画像に含まれる第2の関心領域との空間的関係を示し、
前記ラベリングマップは、オプティカルフローマップ、視差マップまたは、深度マップであって、
更新された強化学習モデルにおいて、少なくとも、前記ラベリングマップ、前記第1の画像、および前記第2の画像に基づいて、前記第1の画像の更新されたラベリングマップを生成する
コンピューティングシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/861,124 | 2020-04-28 | ||
US16/861,124 US11222237B2 (en) | 2020-04-28 | 2020-04-28 | Reinforcement learning model for labeling spatial relationships between images |
PCT/JP2021/013027 WO2021220688A1 (en) | 2020-04-28 | 2021-03-26 | Reinforcement learning model for labeling spatial relationships between images |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023522041A JP2023522041A (ja) | 2023-05-26 |
JP7452698B2 true JP7452698B2 (ja) | 2024-03-19 |
Family
ID=78222393
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022562851A Active JP7452698B2 (ja) | 2020-04-28 | 2021-03-26 | 画像間の空間的関係をラベリングする強化学習モデル |
Country Status (5)
Country | Link |
---|---|
US (1) | US11222237B2 (ja) |
EP (1) | EP4143783A4 (ja) |
JP (1) | JP7452698B2 (ja) |
CN (1) | CN115362478A (ja) |
WO (1) | WO2021220688A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102020209025A1 (de) * | 2020-07-20 | 2022-01-20 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zur Bestimmung einer auffälligen Teil-Sequenz einer Überwachungs-Bildersequenz |
US12039663B2 (en) | 2021-10-28 | 2024-07-16 | Nvidia Corporation | 3D surface structure estimation using neural networks for autonomous systems and applications |
US12100230B2 (en) | 2021-10-28 | 2024-09-24 | Nvidia Corporation | Using neural networks for 3D surface structure estimation based on real-world data for autonomous systems and applications |
US20230136235A1 (en) * | 2021-10-28 | 2023-05-04 | Nvidia Corporation | 3d surface reconstruction with point cloud densification using artificial intelligence for autonomous systems and applications |
US20230146979A1 (en) * | 2021-11-06 | 2023-05-11 | International Business Machines Corporation | Enhancing natural language processing accuracy in computer systems |
US12003691B1 (en) * | 2023-05-02 | 2024-06-04 | Microsoft Technology Licensing, Llc | Camera focus adjustment |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170262995A1 (en) | 2016-03-11 | 2017-09-14 | Qualcomm Incorporated | Video analysis with convolutional attention recurrent neural networks |
US20200050893A1 (en) | 2018-08-10 | 2020-02-13 | Buffalo Automation Group Inc. | Training a deep learning system for maritime applications |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200125955A1 (en) * | 2018-10-23 | 2020-04-23 | International Business Machines Corporation | Efficiently learning from highly-diverse data sets |
US20210004962A1 (en) * | 2019-07-02 | 2021-01-07 | Qualcomm Incorporated | Generating effects on images using disparity guided salient object detection |
-
2020
- 2020-04-28 US US16/861,124 patent/US11222237B2/en active Active
-
2021
- 2021-03-26 WO PCT/JP2021/013027 patent/WO2021220688A1/en unknown
- 2021-03-26 JP JP2022562851A patent/JP7452698B2/ja active Active
- 2021-03-26 CN CN202180026127.9A patent/CN115362478A/zh active Pending
- 2021-03-26 EP EP21797234.8A patent/EP4143783A4/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170262995A1 (en) | 2016-03-11 | 2017-09-14 | Qualcomm Incorporated | Video analysis with convolutional attention recurrent neural networks |
US20200050893A1 (en) | 2018-08-10 | 2020-02-13 | Buffalo Automation Group Inc. | Training a deep learning system for maritime applications |
Also Published As
Publication number | Publication date |
---|---|
US20210334592A1 (en) | 2021-10-28 |
JP2023522041A (ja) | 2023-05-26 |
EP4143783A1 (en) | 2023-03-08 |
WO2021220688A1 (en) | 2021-11-04 |
CN115362478A (zh) | 2022-11-18 |
EP4143783A4 (en) | 2024-05-22 |
US11222237B2 (en) | 2022-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7452698B2 (ja) | 画像間の空間的関係をラベリングする強化学習モデル | |
US11557085B2 (en) | Neural network processing for multi-object 3D modeling | |
JP7106665B2 (ja) | 単眼深度推定方法およびその装置、機器ならびに記憶媒体 | |
US12106554B2 (en) | Image sequence processing using neural networks | |
WO2019099305A1 (en) | Meta-learning for multi-task learning for neural networks | |
EP3326156B1 (en) | Consistent tessellation via topology-aware surface tracking | |
CN113592913A (zh) | 一种消除自监督三维重建不确定性的方法 | |
US11188787B1 (en) | End-to-end room layout estimation | |
JP2019016164A (ja) | 学習データ生成装置、推定装置、推定方法及びコンピュータプログラム | |
KR102549778B1 (ko) | 다시점에 관련한 복수의 이미지에 대한 전처리를 수행하고, 전처리된 복수의 이미지를 통해 큐브맵을 생성하기 위한 방법, 서버 및 컴퓨터 프로그램 | |
Zhang et al. | Unsupervised learning of monocular depth and ego-motion with space–temporal-centroid loss | |
CN116977547A (zh) | 一种三维人脸重建方法、装置、电子设备和存储介质 | |
US20220180548A1 (en) | Method and apparatus with object pose estimation | |
Fanany et al. | A neural network for recovering 3D shape from erroneous and few depth maps of shaded images | |
KR102689030B1 (ko) | 측지 거리를 사용하여 이미지들의 조밀한 대응관계를 예측하기 위한 트레이닝 모델용 시스템 및 방법 | |
US20230177722A1 (en) | Apparatus and method with object posture estimating | |
KR102546588B1 (ko) | 멀티뷰 이미지 기반 관심 물체 영역 구성 방법, 서버 및 컴퓨터 프로그램 | |
US20240331356A1 (en) | Generating images for neural network training | |
Kostusiak et al. | Enhancing Visual Odometry with Estimated Scene Depth: Leveraging RGB-D Data with Deep Learning. | |
Fjøsne | Better Mixed Reality Through Depth Estimation on Machine Learning | |
Belos | A Mixed Method for Monocular Simultaneous Localization and Mapping | |
KR20230036213A (ko) | 이미지 복원 모델 학습 방법 및 장치 | |
KR20240106531A (ko) | 선택적 초해상화에 기반한 다중시점 리얼타임 메타버스 컨텐츠데이터를 구축하는 방법 및 시스템 | |
CN117726746A (zh) | 三维人体重建方法、装置、设备、存储介质及程序产品 | |
CN117218278A (zh) | 三维模型的重建方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221014 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240219 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7452698 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |