JP2022501751A - 3d幾何抽出のために画像の複数から相補的画像を選択するシステムおよび方法 - Google Patents
3d幾何抽出のために画像の複数から相補的画像を選択するシステムおよび方法 Download PDFInfo
- Publication number
- JP2022501751A JP2022501751A JP2021538866A JP2021538866A JP2022501751A JP 2022501751 A JP2022501751 A JP 2022501751A JP 2021538866 A JP2021538866 A JP 2021538866A JP 2021538866 A JP2021538866 A JP 2021538866A JP 2022501751 A JP2022501751 A JP 2022501751A
- Authority
- JP
- Japan
- Prior art keywords
- image
- user
- images
- optimal
- interest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 149
- 230000000295 complement effect Effects 0.000 title claims abstract description 66
- 238000000605 extraction Methods 0.000 title description 3
- 238000012545 processing Methods 0.000 claims abstract description 83
- 238000012937 correction Methods 0.000 claims description 25
- 238000001125 extrusion Methods 0.000 claims description 7
- 239000011295 pitch Substances 0.000 description 47
- 230000006870 function Effects 0.000 description 35
- 238000004364 calculation method Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 230000009471 action Effects 0.000 description 8
- 230000009466 transformation Effects 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 6
- 230000004304 visual acuity Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 210000000887 face Anatomy 0.000 description 3
- 238000010187 selection method Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 208000007345 glycogen storage disease Diseases 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 239000000700 radioactive tracer Substances 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/40—Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
- G06F18/41—Interactive pattern learning with a human teacher
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/001—Industrial image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/759—Region-based matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/176—Urban or other man-made structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/30—Interpretation of pictures by triangulation
- G01C11/34—Aerial triangulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30132—Masonry; Concrete
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30184—Infrastructure
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/12—Acquisition of 3D measurements of objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Geometry (AREA)
- Quality & Reliability (AREA)
- Human Computer Interaction (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Biology (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
Description
本開示は、2018年9月18日に出願された米国仮特許出願第62/732768号の優先権を主張し、その内容はここに参照により組み込まれる。参照による組み込みが認められない管轄区域においては、出願人は、当該米国仮特許出願第62/732768号の内容の一部または全部を本明細書に付録として追加して本明細書の一部をなす権利を留保する。
本発明は、3D幾何を抽出するために使用される一組の画像を選択し、優先順位をつけるためのシステムおよび方法に関する。前記幾何抽出は、点または特徴の異なる視点での複数の画像を使用する。
本明細書には、三角測量およびユーザー選択された点もしくは関心対象の幾何学的特徴の3D属性、たとえば建物の屋根の傾き(ピッチとも呼ばれる)および一つまたは複数の寸法に関する情報の決定に関して使用するために、一組の提供された画像から一つまたは複数の相補的画像を自動的に選択するためのシステムおよび方法が記載される。前記一つまたは複数の相補的画像は、本明細書で相補性基準とも呼ばれる最適性基準を使って、前記方法によって自動的に選択される。
本発明の実施形態は、初期画像における関心対象の特徴(単数または複数)の3D測定のための画像を自動的に選択する方法を含む。
簡略化されたブロック図
図2は、本発明のある実施形態のデータ・フローの簡略化されたブロック図を示す。画像集合は、画像の順序なし集合205と、初期画像207とを含む。選択(相補性)エンジン203は、一組の選択尺度に基づく選択基準を使用する。いくつかの実施形態において、選択(相補性)エンジン203は、画像処理システム1431において実装される。これらの選択尺度は、上述のカメラ・モデルとともに、方位(heading)、ピッチ(pitch)、およびロール(roll)における角度制約条件209を含んでいてもよく、これらの制約条件はそれぞれθH、θP、およびθRと記される。この文脈において、いくつかの実施形態では、ピッチは、水平面から基礎面への角度を指すことを注意しておく。よって、カメラが真下に向けられ、たとえば家の上面の画像を形成する場合、画像は90度のピッチを有する。他方、水平線の画像は、0度のピッチを有することになる;いくつかのそのような実施形態において、方位は、真北に対する角度を意味する。よって、真下を向くカメラが画像を撮影する場合、たとえば建物の上面のその画像は、90度の方位にあり、一方、水平線の画像は、0度の方位にある。
用語
初期画像207は、その中で特徴が選択される、または関心対象の点を含む最初の画像である。「初期カメラ・モデル」は、初期画像を捕捉するために使用された装置(本明細書ではカメラと呼ぶ)を記述す特性の集合を含む。「最適画像」は、初期画像207に対する最も高いスコアの(最も相補的な)画像である。「最適カメラ・モデル」は、「最適画像」を捕捉するために使用された装置を記述する特性の集合である。「画像集合」205は、初期画像を除くすべての利用可能な画像である。最適集合213は、初期画像207に対する相補性スコアに従ってランク付けされた画像の集合である。
特定の画像についての「カメラ・モデル」は、捕捉時のカメラ・システムの位置(たとえば、偏東距離(easting)、偏北距離(northing)、高度、UTM座標)、捕捉時のカメラ・システムの回転および配向(たとえば、方位、ピッチ、ロール)、ならびに使用されるカメラ・システムの解像度を含み、使用されるカメラ・システムのレンズ歪みモデルおよび使用されるカメラ・システムのセンサー種別および形状を含んでいてもよい。同様に、「特定のビューポート」は、画像の局所部分を記述するために使用されてもよく、これはズームによって、またはピクセル単位での画像内の局所的な境界によって記述できる。「レンズ歪みモデル」は、複数のカメラ・センサーおよびレンズ特性の関数であってもよいことに注意されたい。
ある実施形態では、図2の選択(相補性)エンジン203は、一組の選択基準を使用する。各選択基準は、画像の、たとえば初期画像および関心対象のユーザー選択された幾何学的特徴(単数または複数)の、潜在的な最適画像に対する幾何学的相補性を決定するために使用される対応する選択尺度を使用する。選択基準において使用される対応する選択尺度は、以下に記載される尺度および対応する選択基準のうちの少なくともいくつかを含み、いくつかの実施形態では全部を含み、さらに他の実施形態では一つだけを含む。
図3は、本発明のある実施形態による、画像重複の有望な尺度として使用される、カメラ視錐台の交わりの単純化された図を示す。これは、図2のエンジン203において示されるf1(intersection)に含まれる。2つのカメラ位置303および305と、表面(surface)301、典型的には基礎面(ground)上の捕捉領域313および315と、領域313および315の重なりの上の、2つのカメラ視錐台の交差体積317とが示されている。そのような交差体積が重なりの尺度をなす。そのような尺度は、初期カメラ・モデル錐台と潜在的な最適画像のカメラ・モデル錐台(潜在最適カメラ・モデル錐台と呼ばれる)とによって形成される交差体積317を計算することによって得られる。それは、各カメラ位置のレンズ境界(光線)を、ユーザー選択された幾何学的特徴(図3には示さず)を含む表面301上に投影し、それらがどこで重なるか、および/または何パーセント重なるか、および/または全交差体積を決定することによる。そのような交わりのための公式は、当業者に知られているように、また特にコンピュータグラフィックスの教程で教えられるように、直接的な幾何学を用いて決定できる。たとえば非特許文献1を参照。そのような公式の使用例は非特許文献2、3、4にも見出せる。
Y. Zamani, H. Shirzad and S. Kasaei, "Similarity measures for intersection of camera view frustums," 2017 10th Iranian Conference on Machine Vision and Image Processing (MVIP), Isfahan, 2017, pp.171-175 S. Hornus, "A review of polyhedral intersection detection and new techniques," [Research Report] RR-8730, INRIA Nancy-Grand Est (Villers-les-Nancy, France), pp.35; 2015 M. Levoy, "A hybrid ray tracer for rendering polygon and volume data," TR89-035, The University of North Carolina at Chapel Hill Department of Computer Science, 1989 G.T. Toussaint, "A simple linear algorithm for intersecting convex polygons," The Visual Computer, August 1985, Vol.1, No.2, pp.118-123
もう1つの選択尺度は、地理的近接性または被覆率の尺度である。これも、図2のエンジン203に示されている関数f1(intersection)に含まれる。ある実施形態では、この尺度は、ひとたび画像が表面上に投影されたら、それぞれのカメラによって得られた各画像の中心ピクセルの位置の間の距離を計算することによって決定される。図4は、それぞれカメラ1およびカメラ2とラベル付けされた2つのカメラ403および401によって得られた2つの重複する画像の簡略化された概略図を示す。これらの画像は、それぞれ、表面位置411および表面位置413にそれぞれの中心ピクセルを有する。近接性の1つの尺度は、2つの中心間の距離415である。別の、同じくらい有望な尺度は、投影された表面上での、一方の画像の別の画像に対する2D重なり417(被覆率(coverage))である。これは当業者に公知の尺度である。近接性の別の尺度は、初期画像におけるユーザー選択された特徴の位置と、相補的画像でありうる各画像の中心ピクセル位置との間の計算された距離である。そのような距離のための公式は、下記の直接的な幾何学を用いて決定されうる。そのような計算は当業者には知られているだろう。
distance=surface location2−surface location1
〔距離=表面位置2−表面位置1〕
と定義する。ここで、距離および表面位置は、2Dまたは3Dベクトルである。
もう1つの選択尺度は、錐台と推定された押し出し部もしくは任意の体積との間の交わりの尺度である。ユーザー選択された関心対象の特徴は、潜在的な相補的画像によって表わされる2D平面上に正確に載らない可能性が非常に高い。これは、初期画像上で平面状であった非平面状特徴が、画像集合の別の画像中では、その平面から押し出されたり、その平面から持ち上げられたりすることがありうるという意味においてである。よって、初期画像および潜在的最適画像のカメラ・モデルの錐台とは無関係に、特定の方向に延在しうる、または特定の形状を有しうる、前記特徴を取り囲む体積が存在する。最適画像の錐台は、ユーザー選択された関心対象の特徴を取り囲むこの任意の体積の交差を最大化するべきである。この尺度は、潜在的な最適画像の錐台が前記任意の体積と交わる交わりとして決定される。図5は、簡略化された概略図として、1つのカメラ505(第2のカメラは図示せず)、ならびに、錐台と、関心対象の特徴を含む推定された体積のまわりにある任意の体積507との間の交差体積を示している。そのような交差体積をどのように決定するかは、直接的な幾何学を使用し、そのための公式は錐台間の交差の尺度についてのものと同じである。使用される場合、この尺度も、図2のエンジン203におけるf1(intersection)に含まれる。
もう一つの尺度は角度偏差の尺度である。いくつかの応用では、応用の要件により、カメラ・モデルの回転および配向特性の許容範囲または制約条件が生じる場合がある。選択(相補性)エンジン203による最適画像の決定は、そのような範囲または制約条件を受け入れてもよい。角度制約条件と呼ばれ、図2において方位、ピッチおよびロールについてθH、θP、およびθRと記された角度偏差は、多くの仕方で測定され、制約されることができる。たとえば、後述する視力尺度を使用することによって、単にカメラ装置の回転パラメータを測定することによって、および/または用途固有の制約条件を提供することによってである。
M. Kalloniatis, C. Luu, "Visual Acuity," In: Kolb H, Fernandez E, Nelson R, editors, Webvision: The Organization of the Retina and Visual System [Internet]. Salt Lake City (UT): University of Utah Health Sciences Center; 1995, 最終更新5 June 2007, webvision~dot~med~dot~utah~dot~edu/book/part-viii-gabac-receptors/visual-acuity/で入手可能(2018年9月11日に検索)。ここで、~dot~は実際のURLにおけるピリオド(".")記号を示している。
空間分解能=1.220×((焦点距離×光の波長)/光ビームの直径)。
"Angular Resolution"、en~dot~wikipedia~dot~org/wiki/Anqular_resolution、最終更新25 June 2018(2018年9月11日に検索)。ここで、~dot~は実際のURLにおけるピリオド(".")記号を示している。
第5の尺度は、図2においてf5(resolution)として示される分解能の尺度である。画像の表面への投影が特定の分解能をもたらすことを考えると、複数の画像における点の同定、および該同定または幾何抽出の精度も、分解能に依存する。ここで、精度は、分解能、焦点距離およびカメラ・センサーから関心対象の点までの距離の関数である。分解能はまた、上述の角度偏差制約条件および角度分解能の式にも直接的な影響を及ぼす。分解能は、多くの仕方でシステムにおいて測定できるが、いくつかのそのような例は、GSD、またはピクセル密度を含む。分解能は、多くの仕方で制約されることができ、数学的にはたとえば、クランプ関数、制約関数、フィルタ関数、または範囲関数〔レンジ関数〕を使用して、ある種の分解能の好適さを決定することによって制約されることができる。そのような機能のための公式は当業者に公知であり、提供された参考文献において利用可能である。
以下のステップは、最適性の尺度(すなわち、相補性の尺度)に従って画像を選択し、ランク付けするために、選択(相補性)エンジン203によって使用される幾何学的解析のプロセスの一実施形態を記述する。これらのステップは、第1のステップ、第2のステップなどと呼ばれるが、これらのステップが実行される順序が暗に示されるものではないことに注意されたい。
実施形態Aと呼ばれるこの実施形態については、選択された初期画像および関心対象の幾何学的特徴(単数または複数)について最適画像を選択するために、カメラ・モデル特性の特定の部分集合を使用し、「錐台重複」選択尺度および基準のみを使用する仕方を記述する。カメラ・モデルの位置、回転、配向、レンズ歪み、センサー形状特性が、この例示的実施形態のために選択され、選択プロセスへの入力パラメータとして使用される。
(intersectionVolume/originalFrustumVolume)*100
}
diff=absolute(initialPitch−otherPitch)
if (diff<pitchConstraint) {
return 0
} else { return ((180−pitchConstraint−diff)/(180−pitchConstraint))*100}
}
diff=absolute(initialHeading−otherHeading)
if (diff<headingConstraint) {
return headingConstraint−diff*10
} else {return 0}
}
実施形態Bと呼ばれる別の例示的な実施形態は、図4に示されるように、初期画像ビューポートの中心ピクセル位置と潜在的な最適画像の中心ピクセル位置(主ピクセル位置)との間の距離を使用して、初期画像と潜在的な最適画像との間の地理的近接性または被覆率の尺度を使用する方法である。位置、回転、配向、レンズ歪み、センサー形状が入力パラメータとして使用されるカメラ・モデル特性である。
下記の関数は、実施形態Bの方法において、たとえばoptimise(100,10,20,[imagel,image2,image3])として使用される。下記の擬似コードでは:
Ci0=初期画像における特徴の、表面上の位置
Hi0=初期画像のカメラの方位
Pi0=初期画像のカメラのピッチ
Set[iN]=N枚の他の画像の集合
CN=初期画像ビューポイント中心位置から画像Nの中心までの距離
HN=初期画像方位と画像Nの方位における差
PN=初期画像ピッチと画像Nのピッチにおける差
Wc=中心距離のための重み付け
Wh=方位差のための重み付け
Wp=ピッチ差のための重み付け
CT=CNと重みが与えられたときの画像Nについての中心スコア
HT=HNと重みが与えられたときの画像Nについての方位スコア
PT=PNと重みが与えられたときの画像Nについてのピッチ・スコア
imageScore=スコアの和
optimalImage=maxスコアでソートしたときのnewSet〔新しい集合〕の最初の画像。
newSet()
Set[iN]内の各画像について:
CN=Ci0からCiNまでの距離
HN=Hi0からHiNへの差
PN=Pi0からPiNへの差
Wc,Wh,Wp=weightFunction(image);
CT=scoreFunction(Wc,CN)
HT=scoreFunction(Wh,HN)
PT=scoreFunction(Wp,PN)
imageScore=CT+HT+P
newSet.add(imageScore)
break
optimalImage=max(newSet)
}
例示的実施形態Cとして参照される別の例示的な方法実施形態は、相補的な3Dデータが選択方法における追加データとして使用される場合であり、選択プロセスは、押出し体積交差尺度に基づく選択基準を使用する。位置、回転、配向、レンズ歪み、センサー形状が、入力パラメータ部分集合として使用される特性である。同様に、平均基礎面高さおよび最大特徴高さが、相補的な入力であり、別個の方法によって前もって決定され、システムに入力される。この実装は、そのような相補的な入力が利用可能であると想定している。ある実施形態では、平均地上高さは、表面上の画像投影された写真境界に局在化された(localized to the images projected photo bounds on the surface)DSM(digital surface model[デジタル表面モデル])から収集された特徴点高さのヒストグラムから計算される。建物の高さについて、特徴はこの目的のためには建物の頂点〔バーテックス〕である可能性が高く、ほとんどの建物の高さは500m以下であるとの想定がされる。これは、たとえば関心対象の点を中心とし、表面上の画像境界交差点によって境を定められる前記任意の体積の寸法(500m×500m×500m)である。もちろん、異なる応用では、たとえば高さ500mを超える極端な高層建築物については、異なる想定がなされ、前記任意の体積はより大きくなる。
図9〜図13は、画像を表示することによって、ユーザーが画像集合から初期画像を選択し、ユーザーが選択された初期画像上の関心対象の特徴として傾きの2つの頂点を選択し、次いで、本明細書に記載の最適画像選択方法を用いて、選択された最適画像において決定された関心対象の特徴を表示してユーザーが選択された最適画像内の特徴の位置を補正できるようにし、ユーザーの補正を使って特徴の一つまたは複数の幾何学的パラメータ(特徴の3D幾何)を推定する(特徴の頂点〔バーテックス〕間の傾きを決定することを含む)ことを含む方法を例解する。
Richard I. Hartley and Peter Sturm, "Triangulation," Comput. Vis. Image Underst. Vol.68, No.2 (November 1997), pp.146-157 Richard Hartley and Andrew Zisserman, "Multiple View Geometry in computer vision," Cambridge University Press, 2003 Krzystek, P., T. Heuchek, U. Hirt, and E Petran, "A New Concept for Automatic Digital Aerial Triangulation, Proc. of Photogrammetric Week '95, pp.215-223, 11-15 September 1995, Stuttgart, Germany, 1995
特に断りのない限り、以下の議論から明らかなように、本明細書を通じて、「処理」、「コンピューティング」、「計算」、「決定」などの用語を使用する議論は、ホスト装置または計算システム、または同様の電子計算装置のアクションおよび/またはプロセスであって、電子的な量のような物理的な量として表わされるデータを操作および/または変換して、物理的な量として同様に表わされる他のデータにするものを指すことが理解される。
Claims (15)
- 異なるビューおよび/または位置から捕捉された複数の画像から相補的画像を選択するための、デジタル処理システムによって実装される方法であって、各画像は、それぞれのカメラ属性をもつそれぞれのカメラから捕捉されており、当該方法は:
前記複数の画像を受け入れる段階であって、受け入れられる各画像について、その受け入れられる画像およびその受け入れられる画像を捕捉したカメラの属性に関係したパラメータを含む、段階と;
受け入れられた画像の1つを初期画像として選択する、ユーザーからの入力を受け入れる段階と;
関心対象の一つまたは複数の幾何学的特徴を指示するユーザーからの入力を受け入れる段階と;
指示された一つまたは複数の幾何学的特徴の一つまたは複数の3D属性を決定する目的のために、前記初期画像に対して相補的な最適画像を、受け入れられた複数の画像から、最適性基準を使って自動的に選択する段階とを含む、
方法。 - 前記初期画像における関心対象の前記一つまたは複数の幾何学的特徴は、点、線、および面からなる特徴の集合のうちの1つを含む、請求項1に記載の方法。
- 前記自動的に選択することは、受け入れられた複数の画像から、前記最適画像とともに最適集合を形成する一つまたは複数の追加的画像を自動的に選択することを含み、前記最適集合の各画像は、前記指示された一つまたは複数の幾何学的特徴の3D属性を決定するために前記初期画像に対して相補的である、請求項2に記載の方法。
- 前記最適性基準に従って前記最適集合における画像の一部または全部をランク付けすることをさらに含み、該ランク付けは、前記初期画像に対する相補的画像として使用するための好適さに基づき、最も高くランク付けされた画像が前記最適画像である、請求項3に記載の方法。
- 前記最適画像をユーザーに対して表示する段階であって、関心対象の前記一つまたは複数の幾何学的特徴が表示される、段階をさらに含む、
請求項1ないし4のうちいずれか一項に記載の方法。 - 前記自動的に選択することは、前記再適正基準として、前記初期画像および前記一つまたは複数の幾何学的特徴の、潜在的な最適画像に対する相補性の全体的な尺度を使用し、該相補性の全体的な尺度は、一つまたは複数の個別的尺度と、対応する選択基準を含み、前記一つまたは複数の個別的尺度は、錐台の間の交わりの尺度、被覆率の尺度、錐台と推定される押し出し部または任意の体積との間の交わりの尺度、角度偏差の尺度、および解像度の尺度のうちの一つまたは複数を含む、請求項5に記載の方法。
- 関心対象の前記一つまたは複数の表示された幾何学的特徴のうち少なくとも1つの幾何学的特徴の補正をユーザーから受け入れ、該補正の位置が、関心対象の前記一つまたは複数の幾何学的特徴の一つまたは複数の幾何学的属性を決定するために使用できる、段階と;
前記指示された一つまたは複数の幾何学的特徴の一つまたは複数の3D属性を決定する段階とをさらに含む、
請求項6に記載の方法。 - 前記最適集合からの他の画像のうちの1つ画像の、新しい最適画像としての選択をユーザーから受け入れる段階と;
前記新しい最適画像をユーザーに対して表示し、関心対象の前記一つまたは複数の幾何学的特徴が前記新しい最適画像の上に表示される、段階と;
前記新しい最適画像の上の関心対象の前記一つまたは複数の表示された幾何学的特徴のうち少なくとも1つの幾何学的特徴の補正をユーザーから受け入れ、該補正の前記新しい最適画像上での位置が、関心対象の前記一つまたは複数の幾何学的特徴の前記一つまたは複数の幾何学的属性を決定するために使用できる、段階と;
前記指示された一つまたは複数の幾何学的特徴の前記一つまたは複数の3D属性を決定する段階とをさらに含む、
請求項6または7に記載の方法。 - 前記選択する、ユーザーからの入力を受け入れること;前記指示するユーザーからの入力を受け入れること、および前記補正をユーザーから受け入れることが、画像を表示するグラフィック・ユーザー・インターフェースを介して行なわれる、請求項7または8に記載の方法。
- 前記一つまたは複数の3D属性は、建物の屋根の傾きを含む、請求項9に記載の方法。
- 現在の初期画像において以前に選択されたのと同じ幾何学的特徴であってもよい、関心対象の一つまたは複数の新しい幾何学的特徴の、ユーザーからの指示を受け入れる段階であって、関心対象の一つまたは複数の新しい幾何学的特徴の前記指示を受け入れた後の前記最適画像は新しい初期画像である、段階と;
抑止する目的のために、前記新しい初期画像に対して相補的な新しい最適画像を、受け入れられた複数の画像から、最適性基準を使って自動的に選択する段階と;
前記新しい最適画像をユーザーに対して表示し、関心対象の前記一つまたは複数の追加的な幾何学的特徴が表示される、段階とをさらに含む、
請求項7に記載の方法。 - 表示された、関心対象の前記一つまたは複数の新しい幾何学的特徴のうち少なくとも1つの幾何学的特徴の新しい補正をユーザーから受け入れ、該新しい補正の位置が関心対象の前記一つまたは複数の新しい幾何学的特徴の一つまたは複数の幾何学的属性を決定するために使用できる、段階と;
前記指示された一つまたは複数の新しい幾何学的特徴の一つまたは複数の3D属性を決定する段階とをさらに含む、
請求項11に記載の方法。 - デジタル処理システムであって:
異なるビューおよび/または位置から捕捉された複数の画像を受け入れるように構成された入力ポートであって、各画像は、それぞれのカメラから捕捉されたものであり、該受け入れることは、受け入れられる各画像について、受け入れられるそれぞれの画像および受け入れられるそれぞれの画像を捕捉したそれぞれのカメラの属性(まとめて「カメラ・モデル」)に関係したそれぞれのパラメータを受け入れることを含む、入力ポートと;
表示画面およびユーザー・インターフェースを有するユーザー端末であって、該表示画面上での表示を可能にし、ユーザーが入力を提供し、他の仕方で前記表示画面に表示された画像と対話することを可能にする、ユーザー端末と;
前記ユーザー端末に結合されたデジタル画像処理システムであって、該デジタル画像処理システムは、一つまたは複数のデジタル・プロセッサおよび命令を含んでいる記憶サブシステムを含み、前記命令は、当該デジタル処理システムによって実行されたときに、当該デジタル処理システムに、請求項1ないし12のうちいずれか一項に記載の、前記入力ポートを介して受け入れられた複数の画像から一つまたは複数の相補的画像を選択する方法を実行させるものである、デジタル画像処理システムとを有する、
デジタル処理システム。 - 命令を有する非一時的な機械可読媒体であって、前記命令は、デジタル処理システムの一つまたは複数のデジタル・プロセッサ上で実行されると、請求項1ないし12のうちいずれか一項に記載の方法を実行させるものである、非一時的な機械可読媒体。
- 記憶サブシステムと;
一つまたは複数のプロセッサとを有する処理システムであって、
前記記憶サブシステムは請求項14に記載の非一時的な機械可読媒体を含んでいる、
処理システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862732768P | 2018-09-18 | 2018-09-18 | |
US62/732,768 | 2018-09-18 | ||
PCT/AU2019/000110 WO2020056446A1 (en) | 2018-09-18 | 2019-09-17 | System and method of selecting a complementary image from a plurality of images for 3d geometry extraction |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022501751A true JP2022501751A (ja) | 2022-01-06 |
JPWO2020056446A5 JPWO2020056446A5 (ja) | 2023-03-22 |
JP7420815B2 JP7420815B2 (ja) | 2024-01-23 |
Family
ID=69886776
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021538866A Active JP7420815B2 (ja) | 2018-09-18 | 2019-09-17 | 3d幾何抽出のために画像の複数から相補的画像を選択するシステムおよび方法 |
Country Status (9)
Country | Link |
---|---|
US (1) | US20210201522A1 (ja) |
EP (1) | EP3853813A4 (ja) |
JP (1) | JP7420815B2 (ja) |
KR (1) | KR20210094517A (ja) |
CN (1) | CN113168712A (ja) |
AU (1) | AU2019344408A1 (ja) |
CA (1) | CA3109097A1 (ja) |
SG (1) | SG11202101867QA (ja) |
WO (1) | WO2020056446A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113781410B (zh) * | 2021-08-25 | 2023-10-13 | 南京邮电大学 | 一种基于MEDU-Net+网络的医学图像分割方法和系统 |
CN115775324B (zh) * | 2022-12-13 | 2024-01-02 | 武汉大学 | 一种交叉尺度滤波引导下的相位相关图像匹配方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8942483B2 (en) * | 2009-09-14 | 2015-01-27 | Trimble Navigation Limited | Image-based georeferencing |
JP2010540811A (ja) * | 2007-10-04 | 2010-12-24 | サンジェヴィティ | エネルギーシステムを提供するための方法及びシステム |
JP2009237846A (ja) | 2008-03-27 | 2009-10-15 | Sony Corp | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
US8170840B2 (en) * | 2008-10-31 | 2012-05-01 | Eagle View Technologies, Inc. | Pitch determination systems and methods for aerial roof estimation |
US8401222B2 (en) * | 2009-05-22 | 2013-03-19 | Pictometry International Corp. | System and process for roof measurement using aerial imagery |
WO2013102880A1 (en) * | 2012-01-06 | 2013-07-11 | Koninklijke Philips Electronics N.V. | Real-time display of vasculature views for optimal device navigation |
US8928666B2 (en) * | 2012-10-11 | 2015-01-06 | Google Inc. | Navigating visual data associated with a point of interest |
US10080004B2 (en) * | 2014-11-06 | 2018-09-18 | Disney Enterprises, Inc. | Method and system for projector calibration |
AU2016315938B2 (en) * | 2015-08-31 | 2022-02-24 | Cape Analytics, Inc. | Systems and methods for analyzing remote sensing imagery |
US9904867B2 (en) * | 2016-01-29 | 2018-02-27 | Pointivo, Inc. | Systems and methods for extracting information about objects from scene information |
-
2019
- 2019-09-17 KR KR1020217011195A patent/KR20210094517A/ko unknown
- 2019-09-17 AU AU2019344408A patent/AU2019344408A1/en active Pending
- 2019-09-17 CN CN201980061047.XA patent/CN113168712A/zh active Pending
- 2019-09-17 JP JP2021538866A patent/JP7420815B2/ja active Active
- 2019-09-17 CA CA3109097A patent/CA3109097A1/en active Pending
- 2019-09-17 EP EP19863067.5A patent/EP3853813A4/en active Pending
- 2019-09-17 SG SG11202101867QA patent/SG11202101867QA/en unknown
- 2019-09-17 WO PCT/AU2019/000110 patent/WO2020056446A1/en unknown
-
2021
- 2021-03-10 US US17/198,168 patent/US20210201522A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
EP3853813A4 (en) | 2022-06-22 |
AU2019344408A1 (en) | 2021-03-11 |
CN113168712A (zh) | 2021-07-23 |
SG11202101867QA (en) | 2021-04-29 |
CA3109097A1 (en) | 2020-03-26 |
KR20210094517A (ko) | 2021-07-29 |
WO2020056446A1 (en) | 2020-03-26 |
EP3853813A1 (en) | 2021-07-28 |
JP7420815B2 (ja) | 2024-01-23 |
WO2020056446A9 (en) | 2020-04-30 |
US20210201522A1 (en) | 2021-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11829592B2 (en) | Integrating maps and street views | |
US9542770B1 (en) | Automatic method for photo texturing geolocated 3D models from geolocated imagery | |
US11783543B2 (en) | Method and system for displaying and navigating an optimal multi-dimensional building model | |
US9330504B2 (en) | 3D building model construction tools | |
US8422825B1 (en) | Method and system for geometry extraction, 3D visualization and analysis using arbitrary oblique imagery | |
US8749580B1 (en) | System and method of texturing a 3D model from video | |
US10521962B1 (en) | Method and system for visualizing overlays in virtual environments | |
US10733777B2 (en) | Annotation generation for an image network | |
GB2553363B (en) | Method and system for recording spatial information | |
US20130127852A1 (en) | Methods for providing 3d building information | |
US11682168B1 (en) | Method and system for virtual area visualization | |
US10089418B2 (en) | Structure model segmentation from a three dimensional surface | |
US20210201522A1 (en) | System and method of selecting a complementary image from a plurality of images for 3d geometry extraction | |
JP2020017109A (ja) | ブレイクライン抽出プログラム、ブレイクライン抽出システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210616 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220907 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230313 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230712 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230718 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231010 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240111 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7420815 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |