JP2024513815A - シーンに関連付けられたマンハッタンレイアウトを推定するための方法、装置及びコンピュータプログラム - Google Patents
シーンに関連付けられたマンハッタンレイアウトを推定するための方法、装置及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2024513815A JP2024513815A JP2023560170A JP2023560170A JP2024513815A JP 2024513815 A JP2024513815 A JP 2024513815A JP 2023560170 A JP2023560170 A JP 2023560170A JP 2023560170 A JP2023560170 A JP 2023560170A JP 2024513815 A JP2024513815 A JP 2024513815A
- Authority
- JP
- Japan
- Prior art keywords
- edge
- polygon
- layout
- scene
- edges
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 78
- 238000004590 computer program Methods 0.000 title 1
- 230000008569 process Effects 0.000 claims description 30
- 238000012545 processing Methods 0.000 claims description 27
- 230000004044 response Effects 0.000 claims description 9
- 238000012935 Averaging Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 4
- 238000002372 labelling Methods 0.000 claims description 3
- 238000005266 casting Methods 0.000 claims 1
- 230000036544 posture Effects 0.000 claims 1
- 230000006835 compression Effects 0.000 description 36
- 238000007906 compression Methods 0.000 description 36
- 230000011218 segmentation Effects 0.000 description 26
- 238000010586 diagram Methods 0.000 description 21
- 230000033001 locomotion Effects 0.000 description 21
- 238000013139 quantization Methods 0.000 description 20
- 239000013598 vector Substances 0.000 description 14
- 238000004891 communication Methods 0.000 description 13
- 238000009499 grossing Methods 0.000 description 13
- 239000000872 buffer Substances 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 230000002123 temporal effect Effects 0.000 description 7
- 238000012546 transfer Methods 0.000 description 7
- 238000012856 packing Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 230000006837 decompression Effects 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 238000009877 rendering Methods 0.000 description 5
- 241000023320 Luma <angiosperm> Species 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 238000013403 standard screening design Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
- G06T11/203—Drawing of straight lines or curves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/06—Ray-tracing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/16—Image acquisition using multiple overlapping images; Image stitching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/04—Architectural design, interior design
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
Description
本出願は、2022年11月4日に出願された米国特許出願第17/981,156号「ジオメトリおよび意味情報を使用したマンハッタンレイアウト推定」に対する優先権の利益を主張し、同出願は、2022年2月2日に出願された米国仮出願第63/306,001号「ジオメトリおよび意味セグメンテーション情報を使用した複数のパノラマ画像からのマンハッタンレイアウト推定のための方法」に対する優先権の利益を主張する。先行出願の開示は、その全体が参照により本明細書に組み込まれる。
pc,1,pc,2,pc,3,…,pc,n
pf,1,pf,2,pf,3,…,pf,n
天井から地面までの第1の距離と、カメラから地面までの第2の距離との間の比rに基づいて、未完了境界線の点をスケーリング(または推定)して、以下の式(1)の天井境界線および床境界線上の投影点を組み合わせることができる。
(1)各エッジ
(2)eiに対する
(1)2つのエッジは平行である。
(2)2つのエッジ間の距離は、第1の閾値未満など、十分に小さい。
(3)2つのエッジ間の投影された重複は、第2の閾値よりも大きいなど、十分に大きい。
Claims (20)
- シーンに関連付けられたマンハッタンレイアウトを推定するための方法であって、前記方法は、
前記シーンの複数の2次元(2D)画像を受信するステップと、
前記複数の2D画像の各々のジオメトリ情報および意味情報を決定するステップであって、前記ジオメトリ情報は、前記それぞれの2D画像において検出された線および基準方向を示し、前記意味情報は、前記それぞれの2D画像におけるピクセルの分類情報を含む、ステップと、
前記それぞれの2D画像の前記ジオメトリ情報および前記意味情報に基づいて、前記シーンの前記それぞれの2D画像に関連付けられたレイアウト推定を決定するステップと、
前記シーンの前記複数の2D画像に関連付けられた複数の前記決定されたレイアウト推定に基づいて、前記シーンに関連付けられた結合レイアウト推定を決定するステップと、
前記結合レイアウト推定に基づいて、前記シーンに関連付けられた前記マンハッタンレイアウトを生成するステップであって、前記マンハッタンレイアウトは、互いに直交する壁面を含む前記シーンの少なくとも3次元(3D)形状を含む、ステップとを含む、方法。 - 前記ジオメトリ情報および前記意味情報を決定する前記ステップは、
前記複数の2D画像のうちの第1の2D画像の第1のジオメトリ情報を抽出するステップであって、前記第1のジオメトリ情報は、検出された線、前記第1の2D画像の基準方向、天井から地面までの第1の距離とカメラから前記地面までの第2の距離との比、または前記複数の2D画像のうちの前記第1の2D画像と第2の2D画像との間の相対姿勢のうちの少なくとも1つを含む、ステップと、
前記第1の2D画像のピクセルをラベル付けして第1の意味情報を生成するステップであって、前記第1の意味情報は、前記第1の2D画像における前記ピクセルの第1の構造情報を示す、ステップとをさらに含む、請求項1に記載の方法。 - 前記シーンの前記それぞれの2D画像に関連付けられた前記レイアウト推定を決定する前記ステップは、
前記第1の2D画像の前記第1のジオメトリ情報および前記第1の意味情報に基づいて、前記シーンに関連付けられた前記複数の前記決定されたレイアウト推定の第1のレイアウト推定を決定するステップとをさらに含み、
前記第1のレイアウト推定を決定する前記ステップは、
前記検出された線の各々が前記シーンにおける壁の境界に対応する境界線であるかどうかを決定するステップと、
前記検出された線の前記境界線を前記第1の2D画像の前記基準方向と位置合わせするステップと、
2D多角形ノイズ除去および階段除去のうちの1つを用いて、前記位置合わせされた境界線に基づいて前記第1のレイアウト推定を示す第1の多角形を生成するステップとをさらに含む、請求項2に記載の方法。 - 前記第1の多角形を生成する前記ステップが、
前記境界線の天井境界線と床境界線との組み合わせに基づいて、複数の未完了境界線を推定するステップと、
前記複数の未完了境界線のうちの一対の未完了境界線を、(i)前記一対の未完了境界線が平行であることに応答して前記一対の未完了境界線に垂直線を追加するステップ、および(ii)前記一対の未完了境界線のうちの少なくとも1つを拡張するステップであって、その結果、前記一対の未完了境界線の交点が前記拡張された一対の未完了境界線上に位置する、ステップのうちの一方に基づいて接続するステップとのうちの1つに基づいて前記境界線の前記複数の未完了境界線を完成させるステップをさらに含む、請求項3に記載の方法。 - 前記シーンに関連付けられた前記結合レイアウト推定を決定する前記ステップは、
多角形和アルゴリズムを介して複数の多角形を結合することによって基準多角形を決定するステップであって、前記複数の多角形の各々は、前記複数の前記決定されたレイアウト推定のそれぞれのレイアウト推定に対応する、ステップと、
前記基準多角形に基づいて収縮多角形を決定するステップであって、前記収縮多角形は、前記基準多角形のエッジから更新される更新されたエッジを含む、ステップと、
前記2D多角形ノイズ除去および前記階段除去のうちの1つを用いて、前記収縮多角形に基づいて最終多角形を決定するステップであって、前記最終多角形が、前記シーンに関連付けられた前記結合レイアウト推定に対応する、ステップとをさらに含む、請求項3に記載の方法。 - 前記収縮多角形を決定する前記ステップは、
前記基準多角形の前記エッジについて前記複数の多角形から複数の候補エッジを決定するステップであって、前記複数の候補エッジの各々は、前記基準多角形のそれぞれのエッジに対応する、ステップと、
前記基準多角形の前記対応する1つまたは複数のエッジよりも前記複数の2D画像において元のビュー位置に近い前記1つまたは複数の候補エッジに応答して、前記基準多角形の1つまたは複数のエッジを前記対応する1つまたは複数の候補エッジで置き換えることにより、前記収縮多角形の前記更新されたエッジを生成するステップとをさらに含む、請求項5に記載の方法。 - 前記複数の候補エッジの各々は、前記基準多角形の前記対応するエッジと平行であり、
前記それぞれの候補エッジと前記基準多角形の前記対応するエッジとの間の投影された重複部分は、閾値よりも大きい、
請求項6に記載の方法。 - 前記シーンに関連付けられた前記結合レイアウト推定を決定する前記ステップは、
前記最終多角形のエッジを含むエッジ集合を決定するステップと、
前記エッジ集合に基づいて複数のエッジグループを生成するステップと、
前記エッジ集合の1つまたは複数のエッジグループの複数の平均エッジによって示される前記最終多角形の複数の内縁を生成するステップであって、前記複数のエッジグループの前記1つまたは複数のエッジグループの各々は、目標値よりも大きいそれぞれの数のエッジを含み、前記複数の平均エッジの各々は、前記1つまたは複数のエッジグループのうちのそれぞれの1つのエッジを平均化することによって取得される、ステップとをさらに含む、請求項5に記載の方法。 - 前記複数のエッジグループは、第1のエッジグループを含み、
前記第1のエッジグループは、第1のエッジおよび第2のエッジをさらに含み、前記第1のエッジおよび前記第2のエッジは平行であり、前記第1のエッジと前記第2のエッジとの間の距離は第1の閾値未満であり、前記第1のエッジと前記第2のエッジとの間の投影された重複領域は第2の閾値より大きい、
請求項8に記載の方法。 - 前記シーンに関連付けられた前記マンハッタンレイアウトを生成する前記ステップは、
前記結合レイアウト推定から三角形分割された三角形メッシュ、前記結合レイアウト推定から四角形分割された四辺形メッシュ、前記三角形メッシュおよび前記四辺形メッシュのうちの1つからサンプリングされたサンプリング点、またはボクセル化を介して前記三角形メッシュおよび前記四辺形メッシュのうちの1つから生成された離散グリッドのうちの1つに基づいて、前記シーンに関連付けられた前記マンハッタンレイアウトを生成するステップをさらに含む、請求項1に記載の方法。 - 前記シーンに関連付けられた前記マンハッタンレイアウトは、前記結合レイアウト推定から三角形分割された前記三角形メッシュに基づいて生成され、
前記シーンに関連付けられた前記マンハッタンレイアウトを生成する前記ステップは、
前記結合レイアウト推定を三角形分割することによって、前記シーンにおける天井面および床面を生成するステップと、
前記シーンにおける天井境界線および床境界線を囲む長方形を三角形分割することによって前記シーンにおいて前記壁面を生成するステップと、
レイキャスティングベースのプロセスを介して前記シーンに関連付けられた前記マンハッタンレイアウトのテクスチャを生成するステップとをさらに含む、請求項10に記載の方法。 - シーンに関連付けられたマンハッタンレイアウトを推定するための装置であって、前記装置は、
前記シーンの複数の2次元(2D)画像を受信し、
前記複数の2D画像の各々のジオメトリ情報および意味情報を決定し、前記ジオメトリ情報は、前記それぞれの2D画像において検出された線および基準方向を示し、前記意味情報は、前記それぞれの2D画像におけるピクセルの分類情報を含み、
前記それぞれの2D画像の前記ジオメトリ情報および前記意味情報に基づいて、前記シーンの前記それぞれの2D画像に関連付けられたレイアウト推定を決定し、
前記シーンの前記複数の2D画像に関連付けられた複数の前記決定されたレイアウト推定に基づいて、前記シーンに関連付けられた結合レイアウト推定を決定し、
前記結合レイアウト推定に基づいて、前記シーンに関連付けられた前記マンハッタンレイアウトを生成し、前記マンハッタンレイアウトは、互いに直交する壁面を含む前記シーンの少なくとも3次元(3D)形状を含む
ように構成された処理回路を備える、装置。 - 前記処理回路は、
前記複数の2D画像のうちの第1の2D画像の第1のジオメトリ情報を抽出し、前記第1のジオメトリ情報は、検出された線、前記第1の2D画像の基準方向、天井から地面までの第1の距離とカメラから前記地面までの第2の距離との比、または前記複数の2D画像のうちの前記第1の2D画像と第2の2D画像との間の相対姿勢のうちの少なくとも1つを含み、
前記第1の2D画像のピクセルをラベル付けして第1の意味情報を生成し、前記第1の意味情報は、前記第1の2D画像における前記ピクセルの第1の構造情報を示すように構成される、請求項12に記載の装置。 - 前記処理回路は、
前記第1の2D画像の前記第1のジオメトリ情報および前記第1の意味情報に基づいて、前記シーンに関連付けられた前記複数の前記決定されたレイアウト推定の第1のレイアウト推定を決定するように構成され、
前記第1のレイアウト推定を決定するために、前記処理回路は、
前記検出された線の各々が前記シーンにおける壁の境界に対応する境界線であるかどうかを決定し、
前記検出された線の前記境界線を前記第1の2D画像の前記基準方向と位置合わせし、
2D多角形ノイズ除去および階段除去のうちの1つを用いて、前記位置合わせされた境界線に基づいて前記第1のレイアウト推定を示す第1の多角形を生成するようにさらに構成される、請求項13に記載の装置。 - 前記処理回路は、
前記境界線の天井境界線と床境界線との組み合わせに基づいて、複数の未完了境界線を推定することと、
前記複数の未完了境界線のうちの一対の未完了境界線を、(i)前記一対の未完了境界線が平行であることに応答して前記一対の未完了境界線に垂直線を追加すること、および(ii)前記一対の未完了境界線のうちの少なくとも1つを拡張することであって、その結果、前記一対の未完了境界線の交点が前記拡張された一対の未完了境界線上に位置する、ことのうちの一方に基づいて接続することとのうちの1つに基づいて前記境界線の前記複数の未完了境界線を完成させるように構成される、請求項14に記載の装置。 - 前記処理回路は、
多角形和アルゴリズムを介して複数の多角形を結合することによって基準多角形を決定し、前記複数の多角形の各々は、前記複数の前記決定されたレイアウト推定のそれぞれのレイアウト推定に対応し、
前記基準多角形に基づいて収縮多角形を決定し、前記収縮多角形は、前記基準多角形のエッジから更新される更新されたエッジを含み、
前記2D多角形ノイズ除去および前記階段除去のうちの1つを用いて、前記収縮多角形に基づいて最終多角形を決定し、前記最終多角形が、前記シーンに関連付けられた前記結合レイアウト推定に対応するように構成される、請求項14に記載の装置。 - 前記処理回路は、
前記基準多角形の前記エッジについて前記複数の多角形から複数の候補エッジを決定し、前記複数の候補エッジの各々は、前記基準多角形のそれぞれのエッジに対応し、
前記基準多角形の前記対応する1つまたは複数のエッジよりも前記複数の2D画像において元のビュー位置に近い前記1つまたは複数の候補エッジに応答して、前記基準多角形の1つまたは複数のエッジを前記対応する1つまたは複数の候補エッジで置き換えることにより、前記収縮多角形の前記更新されたエッジを生成するように構成される、請求項16に記載の装置。 - 前記複数の候補エッジの各々は、前記基準多角形の前記対応するエッジと平行であり、
前記それぞれの候補エッジと前記基準多角形の前記対応するエッジとの間の投影された重複部分は、閾値よりも大きい、
請求項17に記載の装置。 - 前記処理回路は、
前記最終多角形のエッジを含むエッジ集合を決定し、
前記エッジ集合に基づいて複数のエッジグループを生成し、
前記エッジ集合の1つまたは複数のエッジグループの複数の平均エッジによって示される前記最終多角形の複数の内縁を生成し、前記複数のエッジグループの前記1つまたは複数のエッジグループの各々は、目標値よりも大きいそれぞれの数のエッジを含み、前記複数の平均エッジの各々は、前記1つまたは複数のエッジグループのうちのそれぞれの1つのエッジを平均化することによって取得されるように構成される、請求項16に記載の装置。 - 前記複数のエッジグループは、第1のエッジグループを含み、
前記第1のエッジグループは、第1のエッジおよび第2のエッジをさらに含み、前記第1のエッジおよび前記第2のエッジは平行であり、前記第1のエッジと前記第2のエッジとの間の距離は第1の閾値未満であり、前記第1のエッジと前記第2のエッジとの間の投影された重複領域は第2の閾値より大きい、
請求項19に記載の装置。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202263306001P | 2022-02-02 | 2022-02-02 | |
US63/306,001 | 2022-02-02 | ||
US17/981,156 US20230245390A1 (en) | 2022-02-02 | 2022-11-04 | Manhattan layout estimation using geometric and semantic information |
US17/981,156 | 2022-11-04 | ||
PCT/US2022/079437 WO2023149969A1 (en) | 2022-02-02 | 2022-11-08 | Manhattan layout estimation using geometric and semantic |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024513815A true JP2024513815A (ja) | 2024-03-27 |
Family
ID=87432380
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023560170A Pending JP2024513815A (ja) | 2022-02-02 | 2022-11-08 | シーンに関連付けられたマンハッタンレイアウトを推定するための方法、装置及びコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230245390A1 (ja) |
JP (1) | JP2024513815A (ja) |
KR (1) | KR20230148257A (ja) |
CN (1) | CN117242480A (ja) |
WO (1) | WO2023149969A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112020630B (zh) * | 2018-04-27 | 2024-06-28 | 北京嘀嘀无限科技发展有限公司 | 用于更新建筑物的3d模型的系统和方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6052124A (en) * | 1997-02-03 | 2000-04-18 | Yissum Research Development Company | System and method for directly estimating three-dimensional structure of objects in a scene and camera motion from three two-dimensional views of the scene |
US9595134B2 (en) * | 2013-05-11 | 2017-03-14 | Mitsubishi Electric Research Laboratories, Inc. | Method for reconstructing 3D scenes from 2D images |
US20150199573A1 (en) * | 2014-01-10 | 2015-07-16 | Mitsubishi Electric Research Laboratories, Inc. | Global Scene Descriptors for Matching Manhattan Scenes using Edge Maps Associated with Vanishing Points |
-
2022
- 2022-11-04 US US17/981,156 patent/US20230245390A1/en active Pending
- 2022-11-08 WO PCT/US2022/079437 patent/WO2023149969A1/en active Application Filing
- 2022-11-08 CN CN202280012631.8A patent/CN117242480A/zh active Pending
- 2022-11-08 KR KR1020237033278A patent/KR20230148257A/ko active Search and Examination
- 2022-11-08 JP JP2023560170A patent/JP2024513815A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
KR20230148257A (ko) | 2023-10-24 |
US20230245390A1 (en) | 2023-08-03 |
WO2023149969A1 (en) | 2023-08-10 |
CN117242480A (zh) | 2023-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2023552116A (ja) | メッシュ解凍のための方法、処理回路構成を含む装置、並びに関連するプログラム及び記憶媒体 | |
JP7476432B2 (ja) | メッシュ復元のための方法、装置及びコンピュータプログラム | |
JP2024515984A (ja) | メッシュ圧縮のための境界ジオメトリ情報の予測コーディング | |
US20240062466A1 (en) | Point cloud optimization using instance segmentation | |
US20230245390A1 (en) | Manhattan layout estimation using geometric and semantic information | |
EP4441715A1 (en) | Dynamic mesh compression based on point cloud compression | |
WO2023122377A1 (en) | Checking overlapping-free property for patches in mesh compression | |
JP2024518767A (ja) | 3次元(3d)メッシュフレームの第1の部分を2次元(2d)占有マップに投影するための方法、デバイスおよびコンピュータプログラム | |
CN116368526A (zh) | 在用于网格压缩的顶点重新排序方法中编码连接性 | |
US11967025B2 (en) | Detection of boundary loops in non-manifold meshes | |
US12125250B2 (en) | Decoding of patch temporal alignment for mesh compression | |
JP7537033B2 (ja) | メッシュ展開のための方法、装置、およびコンピュータプログラム | |
US12131508B2 (en) | Dynamic mesh compression based on point cloud compression | |
JP7504298B2 (ja) | 3次元(3d)メッシュのuv座標を処理するための方法、装置及びコンピュータプログラム | |
JP7544973B2 (ja) | 動的メッシュ圧縮のための方法および装置 | |
US20230162403A1 (en) | Encoding of patch temporal alignment for mesh compression | |
JP2023552414A (ja) | メッシュ圧縮のための頂点の並べ替え | |
JP2024509988A (ja) | チャートベースのメッシュ圧縮の方法、装置およびコンピュータプログラム | |
EP4453889A1 (en) | Checking overlapping-free property for patches in mesh compression |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230928 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230928 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240712 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240805 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20240920 |