JP2017130146A - Image management apparatus, image management method and program - Google Patents

Image management apparatus, image management method and program Download PDF

Info

Publication number
JP2017130146A
JP2017130146A JP2016010776A JP2016010776A JP2017130146A JP 2017130146 A JP2017130146 A JP 2017130146A JP 2016010776 A JP2016010776 A JP 2016010776A JP 2016010776 A JP2016010776 A JP 2016010776A JP 2017130146 A JP2017130146 A JP 2017130146A
Authority
JP
Japan
Prior art keywords
image
dimensional
dimensional point
management apparatus
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016010776A
Other languages
Japanese (ja)
Other versions
JP6723748B2 (en
Inventor
康平 岩渕
Kohei Iwabuchi
康平 岩渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016010776A priority Critical patent/JP6723748B2/en
Publication of JP2017130146A publication Critical patent/JP2017130146A/en
Application granted granted Critical
Publication of JP6723748B2 publication Critical patent/JP6723748B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image management apparatus capable of acquiring images for each structural group, and an image management method and a program.SOLUTION: The image management apparatus includes: extraction means (306) that, when a coordinate is specified in a three-dimensional space, extracts three-dimensional points corresponding to a segment which is a structural group in a structure from the three-dimensional dot groups relevant to the structure depending on the specified coordinate; and acquisition means (307) that acquires an image which is associated with three-dimensional points corresponding to the segment, which is extracted by the extraction means.SELECTED DRAWING: Figure 3

Description

本発明は、画像管理装置、画像管理方法及びプログラムに関する。   The present invention relates to an image management apparatus, an image management method, and a program.

橋梁等の点検対象構造物の撮影において、撮影した画像データとその撮影内容の関連付けは、野帳にメモを残すことで行われる。例えば、橋梁を対象にした点検において、主桁や床版等の点検対象部位を撮影した画像をまとめて閲覧したい場合、野帳に書き込まれたメモを参考に、大量の画像データの中から目的の画像を手動で探す必要がある。このような、画像を手動で探す煩雑さを低減する方法として、次に挙げる技術が開示されている。   In photographing a structure to be inspected such as a bridge, the association between the photographed image data and the photographing content is performed by leaving a memo in the field book. For example, if you want to view images of inspection parts such as main girders and floor slabs together in inspections for bridges, refer to the memo written in the field book and select the target from a large amount of image data. You need to search for images manually. The following techniques are disclosed as methods for reducing the complexity of manually searching for images.

特許文献1には、三次元空間に配置された画像に対して、ユーザが関心のある領域を指定することで、その領域に関連付けられた画像を表示する技術が開示されている。この技術では、画像と三次元点が相互に関連付けられており、ユーザが指定する矩形領域に囲われた三次元点について関連付けられた画像を取得し、表示する。   Patent Document 1 discloses a technique for displaying an image associated with an area in which the user is interested by designating an area arranged in a three-dimensional space. In this technique, an image and a three-dimensional point are associated with each other, and an image associated with a three-dimensional point surrounded by a rectangular area designated by the user is acquired and displayed.

米国特許第8744214号明細書U.S. Pat. No. 8,744,214

しかし、特許文献1では、矩形で選択された範囲の三次元点に関連付けられた画像を取得するに留まり、点検対象構造物の三次元的な構造を考慮して、点検対象部位毎に画像を取得することはできない。   However, in Patent Document 1, it is only necessary to acquire an image associated with a three-dimensional point in a range selected by a rectangle, and an image is obtained for each inspection target part in consideration of the three-dimensional structure of the inspection target structure. It cannot be acquired.

本発明の目的は、構造的なまとまり毎に画像を取得することができる画像管理装置、画像管理方法及びプログラムを提供することである。   An object of the present invention is to provide an image management apparatus, an image management method, and a program capable of acquiring an image for each structural unit.

本発明の画像管理装置は、三次元空間における座標が指定されると、前記指定される座標に応じて、構造物に係る三次元点群の中から、前記構造物における構造的なまとまりであるセグメントに対応する三次元点を抽出する抽出手段と、前記抽出手段により抽出される、前記セグメントに対応する三次元点に関連付けられた画像を取得する取得手段とを有することを特徴とする。   The image management apparatus according to the present invention is a structural unit in the structure from among the three-dimensional point group related to the structure, according to the designated coordinates, when coordinates in the three-dimensional space are designated. It has an extraction means for extracting a three-dimensional point corresponding to a segment, and an acquisition means for acquiring an image associated with the three-dimensional point corresponding to the segment extracted by the extraction means.

本発明によれば、構造的なまとまりであるセグメント毎に画像を取得することができる。   According to the present invention, an image can be acquired for each segment that is a structural unit.

第1の実施形態による画像管理装置の画面を示す図である。It is a figure which shows the screen of the image management apparatus by 1st Embodiment. 画像管理装置のハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of an image management apparatus. 第1の実施形態による画像管理装置の機能ブロックを示す図である。It is a figure which shows the functional block of the image management apparatus by 1st Embodiment. 三次元点群、画像、三次元点と画像の間の関連情報を示す図である。It is a figure which shows the relevant information between a three-dimensional point group, an image, and a three-dimensional point and an image. 第1の実施形態による画像取得時の動作を示すフローチャートである。It is a flowchart which shows the operation | movement at the time of the image acquisition by 1st Embodiment. 推定されたセグメントの例を示す図である。It is a figure which shows the example of the estimated segment. 第2の実施形態による画像管理装置の画面を示す図である。It is a figure which shows the screen of the image management apparatus by 2nd Embodiment. 第2の実施形態による画像管理装置の機能ブロックを示す図である。It is a figure which shows the functional block of the image management apparatus by 2nd Embodiment. 第2の実施形態による画像取得時の動作を示すフローチャートである。It is a flowchart which shows the operation | movement at the time of the image acquisition by 2nd Embodiment. 第3の実施形態による画像管理装置の機能ブロックを示す図である。It is a figure which shows the functional block of the image management apparatus by 3rd Embodiment. 画像撮影時のカメラ位置を記録するテーブルを示す図である。It is a figure which shows the table which records the camera position at the time of image photography. 第3の実施形態による画像取得時の動作を示すフローチャートである。It is a flowchart which shows the operation | movement at the time of the image acquisition by 3rd Embodiment. 画像を正対度に基づいてソートする動作を示すフローチャートである。It is a flowchart which shows the operation | movement which sorts an image based on confrontation degree. 一時データを記録するテーブルを示す図である。It is a figure which shows the table which records temporary data. 正対度を算出する動作を説明するための図である。It is a figure for demonstrating the operation | movement which calculates a confrontation degree.

(第1の実施形態)
本発明の第1の実施形態では、点検対象構造物は、三次元点群として表現され、三次元点群に含まれる各三次元点には画像が関連付けられている。なお、点検対象構造物を例に説明するが、点検以外の目的にも本発明は適用可能である。立体形状の構造物であれば本発明を適用することができる。例えば、CADや3Dプリンタに関する目的にも本発明は適用可能である。
(First embodiment)
In the first embodiment of the present invention, the inspection target structure is expressed as a three-dimensional point group, and an image is associated with each three-dimensional point included in the three-dimensional point group. Although the structure to be inspected is described as an example, the present invention can be applied to purposes other than inspection. The present invention can be applied to a three-dimensional structure. For example, the present invention can also be applied to purposes related to CAD and 3D printers.

以下では、ユーザによって入力された座標情報に基づいて、点検対象構造物に係る三次元点群の部分集合であるセグメントを推定し、推定されたセグメントに含まれる各三次元点に関連付けられた画像を取得する画像管理装置について説明する。   In the following, based on the coordinate information input by the user, a segment that is a subset of the three-dimensional point group related to the inspection target structure is estimated, and an image associated with each three-dimensional point included in the estimated segment An image management apparatus that acquires the image will be described.

図1は、本発明の第1の実施形態による画像管理装置の画面例を示す図である。表示領域101は、三次元点群102(三次元モデル701(図7))を表示する領域であり、ユーザの操作に従って任意の視点から三次元点群102(三次元モデル701)を閲覧することができる。三次元点群102は、表示領域101に表示された三次元点群である。表示領域103は、三次元点群102の中でユーザによって選択された三次元点に関連付けられた画像104が一覧表示される領域である。ボタン105は、三次元点群102を読み込むためのボタンである。ボタン106は、ボタン105で読み込まれた三次元点群102に関連付けられた画像104を読み込むためのボタンである。   FIG. 1 is a diagram showing an example of a screen of the image management apparatus according to the first embodiment of the present invention. The display area 101 is an area for displaying the three-dimensional point group 102 (three-dimensional model 701 (FIG. 7)), and viewing the three-dimensional point group 102 (three-dimensional model 701) from an arbitrary viewpoint according to a user operation. Can do. The three-dimensional point group 102 is a three-dimensional point group displayed in the display area 101. The display area 103 is an area where a list of images 104 associated with the three-dimensional point selected by the user in the three-dimensional point group 102 is displayed. A button 105 is a button for reading the three-dimensional point group 102. The button 106 is a button for reading the image 104 associated with the three-dimensional point group 102 read by the button 105.

図2は、本実施形態による画像管理装置のハードウェア構成例を示す図である。CPU201は、各種処理のための演算や論理判断等を行い、バス207に接続された各構成要素を制御する。画像管理装置には、プログラムメモリとデータメモリを含むメモリが搭載されている。プログラムメモリは、後述するフローチャートの処理ステップを含むCPU201による制御のためのプログラムを格納する。メモリは、ROM202であってもよいし、外部記憶装置等からプログラムがロードされるRAM203であってもよい。ストレージ204は、三次元点群102(三次元モデル701)、三次元点群102に含まれる各三次元点に関連付けられた画像104を格納するためのデバイスである。表示デバイス205は、三次元点群102(三次元モデル701)を表示する領域101と、ユーザの入力に応じて取得された画像104を表示する領域103を有する。ポインティングデバイス206は、表示デバイス205に表示された三次元空間において、座標情報を入力するためのデバイスである。   FIG. 2 is a diagram illustrating a hardware configuration example of the image management apparatus according to the present embodiment. The CPU 201 performs calculations and logic determinations for various processes, and controls each component connected to the bus 207. The image management apparatus is equipped with a memory including a program memory and a data memory. The program memory stores a program for control by the CPU 201 including processing steps of a flowchart described later. The memory may be the ROM 202 or the RAM 203 into which a program is loaded from an external storage device or the like. The storage 204 is a device for storing the three-dimensional point group 102 (three-dimensional model 701) and the image 104 associated with each three-dimensional point included in the three-dimensional point group 102. The display device 205 includes a region 101 for displaying the three-dimensional point group 102 (three-dimensional model 701) and a region 103 for displaying the image 104 acquired in response to a user input. The pointing device 206 is a device for inputting coordinate information in the three-dimensional space displayed on the display device 205.

図3は、本実施形態による画像管理装置の機能ブロックを示す図である。画像管理装置は、CPU201がプログラムを実行することにより、図3の機能ブロックを実現する。三次元点群記憶部301は、点検対象構造物を表現する三次元点群102を記憶する。   FIG. 3 is a diagram showing functional blocks of the image management apparatus according to the present embodiment. The image management apparatus implements the functional blocks shown in FIG. 3 when the CPU 201 executes the program. The three-dimensional point group storage unit 301 stores a three-dimensional point group 102 representing the inspection target structure.

なお、三次元点群102を示す情報は、三次元点群記憶部301によって予め記憶していてもよいし、外部から取得して三次元点群記憶部301に記憶させてもよい。   Information indicating the three-dimensional point group 102 may be stored in advance by the three-dimensional point group storage unit 301, or may be acquired from the outside and stored in the three-dimensional point group storage unit 301.

また、図示を省略する三次元点群算出手段によって、点検対象構造物を撮像した複数の画像から算出するようにしてもよい。三次元点群算出手段は、例えば、一般的な三次元点群算出処理であるStructure from Motion 技術を用いて三次元点群算出することができる。この技術は、例えば、マッチングされた特徴点組の位置関係からエピポーラ幾何的計算法により画像の撮影された相対的な位置と画像の姿勢(例えば重力方向)を推定する。そして、画像のExif(Exchangeable image file format)情報から焦点距離などのパラメータを取得し、その焦点距離を示す情報に基づいて特徴点の組が表す三次元空間上の座標位置を算出する。更に、これらの算出値をバンドル調整法を用いた最適化のための計算を行うことで、特徴点の組が表す三次元空間上の座標位置を決定するという処理を行う。   Moreover, you may make it calculate from the several image which imaged the structure for inspection by the three-dimensional point group calculation means which abbreviate | omits illustration. The three-dimensional point group calculation means can calculate the three-dimensional point group using, for example, Structure from Motion technology which is a general three-dimensional point group calculation process. In this technique, for example, a relative position where an image is photographed and an attitude of the image (for example, a gravitational direction) are estimated from a positional relationship between matched feature point sets by an epipolar geometric calculation method. Then, parameters such as the focal length are acquired from Exif (Exchangeable image file format) information of the image, and the coordinate position in the three-dimensional space represented by the set of feature points is calculated based on the information indicating the focal length. Further, by performing calculation for optimization using the bundle adjustment method for these calculated values, a process of determining the coordinate position in the three-dimensional space represented by the set of feature points is performed.

また、例えば、傾きセンサやGPS受信機を備えたカメラを用いて各画像を撮影するようにしてもよい。そのようにすれば画像と、その画像が撮影された位置を示す情報と、撮影方向を示す情報とを関連付けることができる。それらの情報に基づいて、三次元点群を算出するようにしてもよい。   Further, for example, each image may be taken using a camera equipped with a tilt sensor and a GPS receiver. By doing so, it is possible to associate an image, information indicating the position where the image was captured, and information indicating the imaging direction. A three-dimensional point group may be calculated based on such information.

画像記憶部302は、三次元点群記憶部301に記憶されている三次元点群102の各三次元点に関連付けられた画像104を記憶する。関連情報記憶部303は、三次元点群記憶部301に記憶されている三次元点群102の各三次元点と、画像記憶部302に記憶されている画像104との間の関連情報を記憶する。三次元点群表示部304は、三次元点群表示手段であり、三次元点群記憶部301に記憶されている三次元点群102を表示デバイス205上に表示する。座標入力部305は、ユーザの操作に応じて、座標情報を入力する。セグメント選択部306は、座標入力部305において入力された座標情報に基づいて、三次元点群記憶部301に記憶されている三次元点群102の部分集合であるセグメントを選択する。セグメントは、点検対象構造物における構造的なまとまりである。画像取得部307は、取得手段であり、セグメント選択部306で選択されたセグメントに含まれる各三次元点に関連付けられた画像104を取得する。画像表示部308は、画像表示手段であり、画像取得部307により取得された画像104を表示デバイス205に表示する。   The image storage unit 302 stores an image 104 associated with each three-dimensional point of the three-dimensional point group 102 stored in the three-dimensional point group storage unit 301. The related information storage unit 303 stores related information between each 3D point of the 3D point group 102 stored in the 3D point group storage unit 301 and the image 104 stored in the image storage unit 302. To do. The three-dimensional point group display unit 304 is a three-dimensional point group display unit, and displays the three-dimensional point group 102 stored in the three-dimensional point group storage unit 301 on the display device 205. The coordinate input unit 305 inputs coordinate information according to a user operation. The segment selection unit 306 selects a segment that is a subset of the 3D point group 102 stored in the 3D point group storage unit 301 based on the coordinate information input by the coordinate input unit 305. A segment is a structural unit in a structure to be inspected. The image acquisition unit 307 is an acquisition unit, and acquires the image 104 associated with each three-dimensional point included in the segment selected by the segment selection unit 306. The image display unit 308 is an image display unit, and displays the image 104 acquired by the image acquisition unit 307 on the display device 205.

図4(a)は、三次元点群102を表すテーブルであり、三次元点群記憶部301に格納される。図4(a)の一行は、一つの三次元点に対応する。テーブルの各三次元点は、三次元点ID401及び三次元座標402を有する。   FIG. 4A is a table representing the three-dimensional point group 102 and is stored in the three-dimensional point group storage unit 301. One line in FIG. 4A corresponds to one three-dimensional point. Each three-dimensional point in the table has a three-dimensional point ID 401 and a three-dimensional coordinate 402.

図4(b)は、画像集合を表すテーブルであり、画像記憶部302に格納される。図4(b)の一行は、一枚の画像に対応する。テーブルの各画像は、画像ID403及び画像名404を有する。画像名404は、ストレージ204に格納されている画像データを一意に指定可能な文字列である。   FIG. 4B is a table representing an image set and is stored in the image storage unit 302. One line in FIG. 4B corresponds to one image. Each image in the table has an image ID 403 and an image name 404. The image name 404 is a character string that can uniquely specify image data stored in the storage 204.

図4(c)は、三次元点と画像の間の関連情報を保持するテーブルであり、関連情報記憶部303に格納される。図4(c)の一行は、一つの三次元点とそれに関連付けられた一枚以上の画像の間の関連情報に対応する。テーブルの各関連情報は、関連情報ID405、三次元点ID406、及び関連画像ID407を有する。関連画像ID407は、三次元点ID406が表す三次元点に関連付けられた一枚以上の画像の画像IDを示す。   FIG. 4C is a table that holds related information between the three-dimensional point and the image, and is stored in the related information storage unit 303. One line in FIG. 4C corresponds to related information between one three-dimensional point and one or more images associated therewith. Each related information in the table has a related information ID 405, a three-dimensional point ID 406, and a related image ID 407. The related image ID 407 indicates the image ID of one or more images associated with the three-dimensional point represented by the three-dimensional point ID 406.

図5は、第1の実施形態による画像管理装置の画像管理方法を示すフローチャートである。三次元点群表示部304は、図1のように、三次元点群記憶部301に記憶されている三次元点群102を表示領域101に表示する。ステップS501では、座標入力部305は、例えば図1の表示領域101に表示される三次元点群102の上で、ユーザの操作に応じて、二次元座標を入力する。次に、ステップS502では、座標入力部305は、入力された二次元座標と、図4(a)に含まれる三次元点を表示デバイス205に投影したときの二次元座標との間の距離を計算する。そして、座標入力部305は、図4(a)に含まれる三次元点の中から、ステップS501の入力座標に対する最近傍の三次元点を一つ探索する。すなわち、座標入力部305は、一つの三次元点を探索することにより、三次元空間における座標を指定する。ここで、座標入力部305は、ステップS501で入力された二次元座標に基づいて、視点位置から直線を引き、図4(a)の三次元点群に含まれる各三次元点について、直線との距離を計算することによって最近傍点を探索してもよい。また、座標入力部305は、ステップS501で三次元座標を直接入力し、ステップS502では、その三次元座標と図4(a)の三次元点群に含まれる各三次元点との距離を計算することで最近傍点を探索してもよい。   FIG. 5 is a flowchart illustrating an image management method of the image management apparatus according to the first embodiment. As shown in FIG. 1, the three-dimensional point group display unit 304 displays the three-dimensional point group 102 stored in the three-dimensional point group storage unit 301 in the display area 101. In step S501, the coordinate input unit 305 inputs two-dimensional coordinates in accordance with a user operation on the three-dimensional point group 102 displayed in the display area 101 of FIG. Next, in step S502, the coordinate input unit 305 calculates the distance between the input two-dimensional coordinates and the two-dimensional coordinates when the three-dimensional points included in FIG. calculate. Then, the coordinate input unit 305 searches for the nearest three-dimensional point with respect to the input coordinates in step S501 from the three-dimensional points included in FIG. That is, the coordinate input unit 305 specifies coordinates in the three-dimensional space by searching for one three-dimensional point. Here, the coordinate input unit 305 draws a straight line from the viewpoint position based on the two-dimensional coordinates input in step S501, and for each three-dimensional point included in the three-dimensional point group in FIG. The nearest neighbor point may be searched by calculating the distance. In addition, the coordinate input unit 305 directly inputs the three-dimensional coordinates in step S501, and in step S502, calculates the distance between the three-dimensional coordinates and each three-dimensional point included in the three-dimensional point group in FIG. By doing so, the nearest point may be searched.

次に、ステップS503では、セグメント選択部306は、ステップS502で探索された三次元点に基づき、三次元点群記憶部301に記憶されている三次元点群の部分集合であるセグメントを選択する。ここで、セグメント選択部306は、セグメントの選択に先んじて、三次元点群に対してセグメンテーションを実行し、選択対象となるセグメントを取得しておく。また、セグメント選択部306は、三次元点群全体に対して予めセグメンテーションを実行しておいてもよいし、ステップS502で探索された三次元点に基づいて、セグメンテーションの範囲を限定してもよい。ここで、セグメンテーションの手法として、ステップS502で探索された三次元点をシード点として、法線や色の類似度によってシード点からセグメントを拡張していく領域成長法(Region Growing)を利用してもよい。また、RANSAC等の既知のモデルフィッティング手法によってセグメントを推定してもよい。また、セグメント選択部306は、予め、点検対象部位毎に三次元点群を手動でセグメントに分割しておき、その中からステップS502で探索された三次元点を含むセグメントを選択してもよい。ここで、セグメントの分割方法には、各セグメントに属する三次元点を、それぞれリストとして保持する方法と、三次元点群を空間的に分割し、各分割された空間に内包される三次元点を同一セグメントとする方法がある。前者では、セグメントを表す三次元点のリストの中に、ステップS502で探索された三次元点が含まれているかでセグメントを選択する。後者では、ユーザが、分割された空間のいずれを選択したかを判断することでセグメントを選択する。後者の場合、ステップS502において、ユーザの入力座標に基づいて三次元点を探索する必要はない。なお、三次元点群表示部304は、ユーザが意図した点検対象部位に対する適切なセグメントが推定できたかを確認するために、図6のように、セグメント602に含まれる三次元点の色を変える等で、推定されたセグメント602を強調表示してもよい。ここで、三次元点601は、ステップS502で探索された三次元点であり、セグメント602は、三次元点601に基づいて推定されたセグメントである。セグメント選択部306は、抽出手段であり、選択されたセグメント602に対応する三次元点を抽出する。具体的には、セグメント選択部306は、選択されたセグメント602に含まれる三次元点を抽出する。   Next, in step S503, the segment selection unit 306 selects a segment that is a subset of the three-dimensional point group stored in the three-dimensional point group storage unit 301 based on the three-dimensional point searched in step S502. . Here, prior to selecting a segment, the segment selection unit 306 performs segmentation on the three-dimensional point group and acquires a segment to be selected. In addition, the segment selection unit 306 may perform segmentation on the entire 3D point group in advance, or may limit the segmentation range based on the 3D points searched in step S502. . Here, as a segmentation technique, a region growing method (Region Growing) is used in which the 3D point searched in step S502 is used as a seed point, and the segment is expanded from the seed point according to the normal or color similarity. Also good. Alternatively, the segment may be estimated by a known model fitting method such as RANSAC. In addition, the segment selection unit 306 may manually divide the three-dimensional point group into segments for each part to be inspected in advance, and select a segment including the three-dimensional point searched in step S502 from the segment. . Here, the segment dividing method includes a method of holding a list of three-dimensional points belonging to each segment, and a three-dimensional point included in each divided space by spatially dividing a three-dimensional point group. There is a method of making the same segment. In the former, a segment is selected based on whether the 3D point searched in step S502 is included in the list of 3D points representing the segment. In the latter, a segment is selected by determining which of the divided spaces the user has selected. In the latter case, it is not necessary to search for a three-dimensional point based on the input coordinates of the user in step S502. Note that the three-dimensional point cloud display unit 304 changes the color of the three-dimensional point included in the segment 602 as shown in FIG. 6 in order to confirm whether an appropriate segment for the inspection target part intended by the user has been estimated. Etc., the estimated segment 602 may be highlighted. Here, the three-dimensional point 601 is the three-dimensional point searched in step S502, and the segment 602 is a segment estimated based on the three-dimensional point 601. The segment selection unit 306 is an extraction unit, and extracts a three-dimensional point corresponding to the selected segment 602. Specifically, the segment selection unit 306 extracts three-dimensional points included in the selected segment 602.

次に、ステップS504では、画像取得部307は、ステップS503で選択されたセグメント602に含まれる各三次元点について、図4(c)の関連情報テーブルを参照し、画像記憶部302から各三次元点に関連付けられた画像を取得する。次に、ステップS505では、画像表示部308は、図1のように、ステップS504で取得された画像104を表示デバイス205に表示する。   Next, in step S504, the image acquisition unit 307 refers to the related information table in FIG. 4C for each three-dimensional point included in the segment 602 selected in step S503, and stores each tertiary from the image storage unit 302. Get the image associated with the origin. In step S505, the image display unit 308 displays the image 104 acquired in step S504 on the display device 205 as illustrated in FIG.

以上説明したように、本実施形態によれば、ユーザが入力した座標情報に基づいて、三次元点群からセグメント602を選択し、選択されたセグメント602単位で三次元点に関連付けられた画像104を取得し、ユーザに提示する。これにより、点検対象部位毎に画像を検索し、閲覧することが可能となる。   As described above, according to the present embodiment, the segment 602 is selected from the three-dimensional point group based on the coordinate information input by the user, and the image 104 associated with the three-dimensional point in the selected segment 602 unit. Is obtained and presented to the user. Thereby, it becomes possible to search and browse images for each inspection target part.

(第2の実施形態)
第1の実施形態では、点検対象構造物を三次元点群で表現していた。しかし、三次元点群では、点検対象構造物の概形しか把握することができないため、三次元点群を基に生成したメッシュからなる三次元モデルをユーザに提示するのが好ましい。一方で、三次元モデルに対するユーザの座標入力に応じて画像を取得するためには、例えば、三次元モデルの各頂点に画像が関連付けられていなければならない。三次元モデルの生成は、第1の実施形態で扱った疎な三次元点群を入力として、Multi-view Stereo等の手法により密な三次元点群を推定し、マーチングキューブ法等の手法によりメッシュを生成することにより行うことができる。このようにして生成された精細な三次元モデルでは、頂点数が膨大になり、それに伴って関連情報が増加することによって、画像取得に係わる処理コストの上昇につながる。
(Second Embodiment)
In the first embodiment, the inspection target structure is expressed by a three-dimensional point group. However, since the three-dimensional point cloud can only grasp the outline of the structure to be inspected, it is preferable to present the user with a three-dimensional model composed of a mesh generated based on the three-dimensional point cloud. On the other hand, in order to acquire an image according to a user's coordinate input with respect to the three-dimensional model, for example, the image must be associated with each vertex of the three-dimensional model. The 3D model is generated by using the sparse 3D point cloud handled in the first embodiment as an input, estimating a dense 3D point cloud using a method such as Multi-view Stereo, and using a marching cube method or the like. This can be done by generating a mesh. In the fine three-dimensional model generated in this way, the number of vertices becomes enormous, and associated information increases accordingly, leading to an increase in processing cost for image acquisition.

そこで、本発明の第2の実施形態では、ユーザに提示する三次元モデルと、画像が関連付けられた三次元点からなる三次元点群をそれぞれ個別に用意することで、処理コストを下げる。以下、ユーザの座標入力に応じて画像を取得する動作について説明する。   Therefore, in the second embodiment of the present invention, the processing cost is reduced by separately preparing a three-dimensional point group composed of a three-dimensional model to be presented to the user and a three-dimensional point associated with an image. Hereinafter, an operation for acquiring an image according to a coordinate input by the user will be described.

図7は、本発明の第2の実施形態による画像管理装置の画面例を示す図である。図7の画面は、図1の画面に対して、三次元点群102の代わりに、三次元モデル701を設けたものである。図7の101、103から106までは、第1の実施形態による図1の101、103から106までと同一である。以下、本実施形態が第1の実施形態と異なる点を説明する。三次元モデル701は、三次元点群を基に生成したメッシュからなる三次元モデルであり、表示領域101に表示される。   FIG. 7 is a diagram showing an example of a screen of the image management apparatus according to the second embodiment of the present invention. The screen in FIG. 7 is obtained by providing a three-dimensional model 701 instead of the three-dimensional point group 102 with respect to the screen in FIG. 7 are the same as 101, 103 to 106 of FIG. 1 according to the first embodiment. Hereinafter, the points of the present embodiment different from the first embodiment will be described. The three-dimensional model 701 is a three-dimensional model composed of a mesh generated based on a three-dimensional point group, and is displayed in the display area 101.

図8は、本実施形態による画像管理装置の機能ブロックを示す図である。画像管理装置は、CPU201がプログラムを実行することにより、図3の機能ブロックを実現する。図8の画像管理装置は、図3の画像管理装置と比較して、三次元モデル表示部802を、三次元点群表示部304の代わりに設けている。また、三次元モデル記憶部801が新たに追加されている。図8の301から303、305から308までは、第1の実施形態による図3の301から303、305から308までと同一である。三次元モデル記憶部801は、三次元点群記憶部301に記憶されている三次元点群を基に生成したメッシュからなる三次元モデルを記憶する。ここで、三次元モデルは、三次元点群記憶部301に記憶されている三次元点群に対して位置合わせが行われており、三次元空間内で三次元点群に重なる位置に存在している。三次元モデル表示部802は、三次元モデル表示手段であり、三次元モデル記憶部801に記憶されている三次元モデル701(図7)を表示デバイス205上に表示する。三次元モデル701は、三次元点群102に対して三次元的に位置合わせが行われた三次元モデルである。   FIG. 8 is a diagram showing functional blocks of the image management apparatus according to the present embodiment. The image management apparatus implements the functional blocks shown in FIG. 3 when the CPU 201 executes the program. The image management apparatus in FIG. 8 is provided with a 3D model display unit 802 instead of the 3D point cloud display unit 304, as compared with the image management apparatus in FIG. In addition, a three-dimensional model storage unit 801 is newly added. 8 are the same as 301 to 303 and 305 to 308 in FIG. 3 according to the first embodiment. The three-dimensional model storage unit 801 stores a three-dimensional model including a mesh generated based on the three-dimensional point group stored in the three-dimensional point group storage unit 301. Here, the three-dimensional model is aligned with the three-dimensional point group stored in the three-dimensional point group storage unit 301 and exists at a position overlapping the three-dimensional point group in the three-dimensional space. ing. The 3D model display unit 802 is a 3D model display unit, and displays the 3D model 701 (FIG. 7) stored in the 3D model storage unit 801 on the display device 205. The three-dimensional model 701 is a three-dimensional model that is three-dimensionally aligned with the three-dimensional point group 102.

図9は、第2の実施形態による画像管理装置の画像管理方法を示すフローチャートである。図9のフローチャートは、図5のフローチャートに対して、ステップS502の代わりに、ステップS901を設けたものである。図9のS501、S503からS505までは、第1の実施形態による図5のS501、S503からS505までと同一である。三次元モデル表示部802は、図7のように、三次元モデル記憶部801に記憶されている三次元モデル701を表示領域101に表示する。ステップS501では、座標入力部305は、例えば図7の表示領域101に表示された三次元モデル701の上で、ユーザの操作に応じて、二次元座標を入力する。画像管理装置は、ステップS501の後、ステップS901に処理を進める。ステップS901では、座標入力部305は、三次元点群記憶部301に記憶されている三次元点群であって、三次元モデル701と重なる位置に存在する三次元点群の中から、ステップS501で入力された座標情報に対して最近傍の三次元点を一つ探索する。最近傍の三次元点の探索については、図5のステップS502で説明した方法を用いることができる。その後、画像管理装置は、ステップS503〜S505の処理を行う。   FIG. 9 is a flowchart illustrating an image management method of the image management apparatus according to the second embodiment. The flowchart in FIG. 9 is different from the flowchart in FIG. 5 in that step S901 is provided instead of step S502. S501 and S503 to S505 in FIG. 9 are the same as S501 and S503 to S505 in FIG. 5 according to the first embodiment. The three-dimensional model display unit 802 displays the three-dimensional model 701 stored in the three-dimensional model storage unit 801 in the display area 101 as shown in FIG. In step S501, the coordinate input unit 305 inputs two-dimensional coordinates in accordance with a user operation on the three-dimensional model 701 displayed in the display area 101 of FIG. After step S501, the image management apparatus advances the process to step S901. In step S <b> 901, the coordinate input unit 305 is a 3D point group stored in the 3D point group storage unit 301, and the step S <b> 501 is performed from among the 3D point groups existing at positions overlapping the 3D model 701. One nearest three-dimensional point is searched for the coordinate information input in. The method described in step S502 in FIG. 5 can be used for searching for the nearest three-dimensional point. Thereafter, the image management apparatus performs steps S503 to S505.

なお、三次元モデル表示部802は、三次元モデル701の上に、三次元点群記憶部301に記憶されている三次元点群102(図1)を表示してもよい。その場合、ステップS501では、座標入力部305は、例えば図7の表示領域101に表示された三次元モデル701及び三次元点群102の上で、ユーザの操作に応じて、二次元座標を入力する。   Note that the 3D model display unit 802 may display the 3D point group 102 (FIG. 1) stored in the 3D point group storage unit 301 on the 3D model 701. In that case, in step S501, the coordinate input unit 305 inputs two-dimensional coordinates in accordance with a user operation on the three-dimensional model 701 and the three-dimensional point group 102 displayed in the display area 101 of FIG. To do.

以上説明したように、本実施形態によれば、三次元的な位置合わせが行われた三次元モデル及び三次元点群をそれぞれ用意し、三次元モデル701をユーザに提示する一方で、ユーザの座標入力に応じて画像104を取得する処理は三次元点群に対して実行される。これにより、ユーザは、点検対象構造物の詳細な外観を把握して三次元座標を入力することができ、また、画像の取得に係わる処理コストを抑えることが可能となる。   As described above, according to the present embodiment, a three-dimensional model and a three-dimensional point group that have been three-dimensionally aligned are prepared, and the three-dimensional model 701 is presented to the user, while the user's The process of acquiring the image 104 according to the coordinate input is executed for the three-dimensional point group. Thereby, the user can grasp the detailed appearance of the structure to be inspected and input the three-dimensional coordinates, and can reduce the processing cost for acquiring the image.

(第3の実施形態)
図10は、本発明の第3の実施形態による画像管理装置の機能ブロックを示す図である。画像管理装置は、CPU201がプログラムを実行することにより、図10の機能ブロックを実現する。本実施形態では、第1の実施形態において取得された画像104について、点検対象構造物に対する画像の正対度に基づくソート動作について説明する。図10の画像管理装置は、図3の画像管理装置に対して、画像ソート部1001を追加したものである。図10の301から308までは、第1の実施形態による図3の301から308までと同一である。以下、本実施形態が第1の実施形態と異なる点を説明する。画像ソート部1001は、画像ソート手段であり、画像取得部307により取得された画像を所定の基準に基づいてソートする。画像表示部308は、画像ソート部1001によってソートされた画像を表示デバイス205に表示する。
(Third embodiment)
FIG. 10 is a diagram showing functional blocks of the image management apparatus according to the third embodiment of the present invention. The image management apparatus implements the functional blocks of FIG. 10 when the CPU 201 executes a program. In the present embodiment, a sorting operation based on the degree of confrontation of the image with respect to the inspection target structure will be described for the image 104 acquired in the first embodiment. The image management apparatus in FIG. 10 is obtained by adding an image sorting unit 1001 to the image management apparatus in FIG. 10 are the same as 301 to 308 in FIG. 3 according to the first embodiment. Hereinafter, the points of the present embodiment different from the first embodiment will be described. The image sorting unit 1001 is an image sorting unit, and sorts the images acquired by the image acquisition unit 307 based on a predetermined standard. The image display unit 308 displays the images sorted by the image sort unit 1001 on the display device 205.

図11は、画像記憶部302に記憶されている各画像の撮影時におけるカメラパラメータを表すテーブルであり、各画像と関連付けられて画像記憶部302に格納される。図11の一行は、一枚の画像に対するカメラパラメータに対応する。そのテーブルは、カメラパラメータID1101、画像ID1102、及びカメラ位置1103の対応関係を有する。ここで、カメラ位置1103は、点検対象構造物について視点を変えながら撮影した複数の画像から三次元点とカメラ位置を推定する、Structure from Motion等の既知の手法によって求めることができる。   FIG. 11 is a table showing camera parameters at the time of shooting each image stored in the image storage unit 302, and is stored in the image storage unit 302 in association with each image. One line in FIG. 11 corresponds to the camera parameter for one image. The table has a correspondence relationship between the camera parameter ID 1101, the image ID 1102, and the camera position 1103. Here, the camera position 1103 can be obtained by a known method such as Structure from Motion that estimates a three-dimensional point and a camera position from a plurality of images taken while changing the viewpoint of the inspection target structure.

図12は、第3の実施形態による画像管理装置の画像管理方法を示すフローチャートである。図12のフローチャートは、図5のフローチャートに対して、ステップS1201を追加したものである。図12のS501からS505までは、第1の実施形態による図5のS501からS505までと同一である。ステップS504の後、ステップS1201では、画像ソート部1001は、ステップS504で取得した画像を、点検対象構造物に対する正対度(正対度合い)に従ってソートする。ここで、正対度は、点検対象構造物に属するある面の法線と撮影時のカメラの視線方向がなす角度のことである。正対度の算出に関しては、図13のフローチャートを用いて後述する。ステップS505では、画像表示部308は、画像ソート部1001によってソートされた画像を表示デバイス205に表示する。   FIG. 12 is a flowchart illustrating an image management method of the image management apparatus according to the third embodiment. The flowchart of FIG. 12 is obtained by adding step S1201 to the flowchart of FIG. S501 to S505 in FIG. 12 are the same as S501 to S505 in FIG. 5 according to the first embodiment. After step S504, in step S1201, the image sorting unit 1001 sorts the images acquired in step S504 according to the degree of confrontation (degree of confrontation) with respect to the inspection target structure. Here, the degree of confrontation is an angle formed by the normal of a certain surface belonging to the inspection target structure and the viewing direction of the camera at the time of photographing. The calculation of the degree of confrontation will be described later using the flowchart of FIG. In step S505, the image display unit 308 displays the images sorted by the image sort unit 1001 on the display device 205.

図13は、図12のステップS1201の詳細を示すフローチャートである。このステップS1201では、画像ソート部1001は、ステップS504で取得した各画像について正対度を算出し、正対度に基づいてソートを実行する。画像ソート部1001は、図14(a)及び(b)に示すように、一時データを格納するために一時データテーブルを利用する。このテーブルは、例えばRAM203上に格納される。ステップS1301では、画像ソート部1001は、図14(a)に示すように、一時データテーブルを初期化する。図14(a)は、ステップS1301による初期化処理後の一時データテーブルを表す。図14(a)の一行は、一枚の画像に対する一時データに対応する。一時データテーブルの各行は、画像ID1401、処理ステータス1402、及び正対度1403の対応関係を有する。ステップS1301の初期化処理によって、一時データテーブルには、ステップS504で取得された画像数の行が追加され、処理ステータス1402は未処理としてマークされる。次に、ステップS1302では、画像ソート部1001は、図14(a)の一時データテーブルと図4(b)の画像集合を表すテーブルを参照し、未処理の画像を一枚取得する。   FIG. 13 is a flowchart showing details of step S1201 in FIG. In step S1201, the image sorting unit 1001 calculates the degree of confrontation for each image acquired in step S504, and executes sorting based on the degree of confrontation. As shown in FIGS. 14A and 14B, the image sorting unit 1001 uses a temporary data table to store temporary data. This table is stored on the RAM 203, for example. In step S1301, the image sorting unit 1001 initializes the temporary data table as shown in FIG. FIG. 14A shows the temporary data table after the initialization process in step S1301. One line in FIG. 14A corresponds to temporary data for one image. Each row of the temporary data table has a correspondence relationship of an image ID 1401, a processing status 1402, and a confrontation degree 1403. As a result of the initialization processing in step S1301, a row of the number of images acquired in step S504 is added to the temporary data table, and the processing status 1402 is marked as unprocessed. Next, in step S1302, the image sorting unit 1001 refers to the temporary data table in FIG. 14A and the table representing the image set in FIG. 4B, and acquires one unprocessed image.

図15(a)は、ある画像に対する正対度の算出方法について説明する図である。三次元点1501は、図5のステップS502で探索された三次元点である。カメラ位置1502は、ステップS1302で取得した処理対象画像の撮影時のカメラ位置である。範囲1503は、ステップS1302で取得した処理対象の画像に写っている点検対象部位の範囲を三次元空間において表したものである。ステップS1303では、画像ソート部1001は、三次元点1501の座標とカメラ位置1502を結ぶベクトル1504を求める。ここで、画像ソート部1001は、カメラ位置1502を図11のテーブルから取得する。次に、S1304では、画像ソート部1001は、ステップS1302で取得した画像の中の三次元点1501の法線1505を算出する。ここで、法線の算出は、複数の近傍三次元点について既知のモデルフィッティング手法で平面を推定し、推定された平面についての法線を算出すればよい。また、画像ソート部1001は、予め各三次元点について法線を算出しておいてもよい。その場合、画像ソート部1001は、三次元点群記憶部301に格納されている図4(a)のテーブルに法線ベクトルを格納するカラムを追加する。次に、ステップS1305では、画像ソート部1001は、ベクトル1504と法線1505がなす角度を基に正対度を算出する。例えば、正対度は、ベクトル1504と法線1505がなす角度の逆数である。次に、ステップS1306では、画像ソート部1001は、図14(b)に示すように、一時データテーブルに対して、ステップS1302で取得した画像に対応するステップS1305で算出した正対度1403を保存する。次に、ステップS1307では、画像ソート部1001は、図14(b)に示すように、一時データテーブルに対して、ステップS1302で取得した画像に対応する処理ステータス1402に処理済みをマークする。図14(b)は、複数の画像について、正対度の算出が完了した後の一時データテーブルを表す。次に、ステップS1308では、画像ソート部1001は、図14(b)の一時データテーブルを参照して、未処理の画像が存在するかを判定する。画像ソート部1001は、存在すればステップS1302に処理を戻し、存在しなければ、すべての画像について正対度を算出したとして、ステップS1309に処理を進める。ステップS1309では、画像ソート部1001は、一時データテーブルの正対度1403を参照して、画像をソートする。   FIG. 15A is a diagram for explaining a method of calculating the degree of confrontation for a certain image. The three-dimensional point 1501 is the three-dimensional point searched in step S502 in FIG. The camera position 1502 is a camera position at the time of photographing the processing target image acquired in step S1302. A range 1503 represents the range of the inspection target part shown in the processing target image acquired in step S1302 in a three-dimensional space. In step S1303, the image sorting unit 1001 obtains a vector 1504 connecting the coordinates of the three-dimensional point 1501 and the camera position 1502. Here, the image sorting unit 1001 acquires the camera position 1502 from the table of FIG. In step S1304, the image sorting unit 1001 calculates a normal 1505 of the three-dimensional point 1501 in the image acquired in step S1302. Here, the normal can be calculated by estimating a plane with a known model fitting method for a plurality of neighboring three-dimensional points and calculating the normal for the estimated plane. Further, the image sorting unit 1001 may calculate a normal for each three-dimensional point in advance. In that case, the image sorting unit 1001 adds a column for storing normal vectors to the table of FIG. 4A stored in the three-dimensional point cloud storage unit 301. In step S1305, the image sorting unit 1001 calculates the degree of confrontation based on the angle formed by the vector 1504 and the normal 1505. For example, the degree of confrontation is the reciprocal of the angle formed by the vector 1504 and the normal 1505. Next, in step S1306, as shown in FIG. 14B, the image sorting unit 1001 stores the degree of confrontation 1403 calculated in step S1305 corresponding to the image acquired in step S1302 in the temporary data table. To do. Next, in step S1307, the image sorting unit 1001 marks the temporary data table as processed in the processing status 1402 corresponding to the image acquired in step S1302, as shown in FIG. 14B. FIG. 14B shows a temporary data table after the calculation of the confrontation degree is completed for a plurality of images. In step S1308, the image sorting unit 1001 refers to the temporary data table in FIG. 14B to determine whether there is an unprocessed image. If the image sort unit 1001 exists, the process returns to step S1302. If not, the image sort unit 1001 advances the process to step S1309, assuming that the degree of confrontation is calculated for all images. In step S1309, the image sorting unit 1001 sorts the images with reference to the degree of confrontation 1403 of the temporary data table.

図15(b)は、図15(a)と異なる画像に対して正対度を算出する動作を説明する図である。範囲1507は、ステップS1302で取得した処理対象の画像に写っている点検対象部位の範囲を三次元空間において表したものである。画像ソート部1001は、図15(a)の場合と同様に、三次元点1501とカメラ位置1506を結ぶベクトル1508と、三次元点1501の法線1505を算出し、ベクトル1508と法線1505がなす角度を正対度として求める。図15(b)は、図15(a)に比べ、三次元点1501の法線1505の方向と近いカメラ位置1506から画像を撮影しているため、図15(b)の正対度は、図15(a)の正対度よりも大きくなる。   FIG. 15B is a diagram for explaining the operation of calculating the degree of confrontation for an image different from that in FIG. A range 1507 represents the range of the inspection target part in the processing target image acquired in step S1302 in a three-dimensional space. As in the case of FIG. 15A, the image sorting unit 1001 calculates a vector 1508 connecting the three-dimensional point 1501 and the camera position 1506, and a normal 1505 of the three-dimensional point 1501, and the vector 1508 and the normal 1505 are The angle formed is determined as the degree of confrontation. In FIG. 15B, since the image is taken from the camera position 1506 that is closer to the direction of the normal 1505 of the three-dimensional point 1501 than in FIG. 15A, the degree of confrontation in FIG. It becomes larger than the confrontation degree of Fig.15 (a).

なお、本実施形態では、所定の基準が正対度1403である場合の画像のソートについて説明したが、所定の基準は正対度1403に限定されない。画像ソート部1001は、取得した画像の撮影日時や、取得した画像の三次元的な位置、三次元空間に写像した画像の三次元的な位置とステップS502で探索された三次元点との間の距離等の正対度以外の所定の基準によって画像をソートしてもよい。また、画像ソート部1001は、取得した画像の中のステップS503で選択したセグメントの大きさ(面積)等の正対度以外の所定の基準によって画像をソートしてもよい。さらに、画像ソート部1001は、上記のような基準によるソート後の画像の中から、上記の所定の基準に基づいて画像を削除してもよい。つまり、画像ソート部1001は、削除手段としても機能する。具体的には、画像ソート部1001は、上記の所定の基準の値が所定の閾値以下の画像を非表示とするようなフィルタリングを行ってもよい。画像表示部308は、画像ソート部1001によりフィルタリングされた画像を表示する。   In the present embodiment, the sorting of images in the case where the predetermined criterion is the confrontation degree 1403 has been described. However, the predetermined reference is not limited to the confrontation degree 1403. The image sorting unit 1001 captures the captured date and time of the acquired image, the three-dimensional position of the acquired image, the three-dimensional position of the image mapped in the three-dimensional space, and the three-dimensional point searched in step S502. The images may be sorted according to a predetermined standard other than the degree of confrontation such as the distance. The image sorting unit 1001 may sort the images according to a predetermined criterion other than the degree of confrontation such as the size (area) of the segment selected in step S503 in the acquired image. Furthermore, the image sorting unit 1001 may delete images based on the predetermined criterion from the images sorted based on the criterion as described above. That is, the image sorting unit 1001 also functions as a deletion unit. Specifically, the image sorting unit 1001 may perform filtering such that images whose predetermined reference value is equal to or less than a predetermined threshold are not displayed. The image display unit 308 displays the image filtered by the image sort unit 1001.

以上説明したように、本実施形態によれば、点検対象部位(セグメント)毎に取得した画像を、正対度をはじめとした基準に基づいてソートした上でユーザに提示する。これにより、点検対象部位が明瞭に写っている画像が取得結果の上位に表示されたり、取得した画像の三次元的な位置関係の順や、時系列順に画像を閲覧することができたりするため、ユーザの利便性が高まる。   As described above, according to the present embodiment, images acquired for each inspection target region (segment) are presented to the user after being sorted based on criteria such as the degree of confrontation. This makes it possible to display an image clearly showing the site to be inspected at the top of the acquisition result, or to view the image in the order of the three-dimensional positional relationship of the acquired image or in time series , User convenience is enhanced.

第1〜第3の実施形態によれば、三次元点群に含まれる各三次元点に画像を関連付けることで画像を管理し、三次元点群とのインタラクションによって画像検索を行い、構造的なまとまりであるセグメント毎に画像を取得して表示することができる。   According to the first to third embodiments, an image is managed by associating an image with each three-dimensional point included in the three-dimensional point group, and an image search is performed by interaction with the three-dimensional point group. Images can be acquired and displayed for each segment that is a unit.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

なお、上記実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

301 三次元点群記憶部、302 画像記憶部、303 関連情報記憶部、304 三次元点群表示部、305 座標入力部、306 セグメント選択部、307 画像取得部、308 画像表示部 301 three-dimensional point group storage unit, 302 image storage unit, 303 related information storage unit, 304 three-dimensional point group display unit, 305 coordinate input unit, 306 segment selection unit, 307 image acquisition unit, 308 image display unit

Claims (15)

三次元空間における座標が指定されると、前記指定される座標に応じて、構造物に係る三次元点群の中から、前記構造物における構造的なまとまりであるセグメントに対応する三次元点を抽出する抽出手段と、
前記抽出手段により抽出される、前記セグメントに対応する三次元点に関連付けられた画像を取得する取得手段と
を有することを特徴とする画像管理装置。
When coordinates in a three-dimensional space are designated, a three-dimensional point corresponding to a segment that is a structural unit in the structure is selected from a group of three-dimensional points related to the structure according to the designated coordinates. Extracting means for extracting;
An image management apparatus comprising: an acquisition unit configured to acquire an image associated with a three-dimensional point corresponding to the segment extracted by the extraction unit.
さらに、前記取得手段により取得される画像を表示する画像表示手段を有することを特徴とする請求項1記載の画像管理装置。   The image management apparatus according to claim 1, further comprising image display means for displaying an image acquired by the acquisition means. さらに、前記三次元点群を表示する三次元点群表示手段を有し、
前記抽出手段は、前記三次元点群表示手段により表示される三次元点群を基に前記座標が指定されることを特徴とする請求項1又は2記載の画像管理装置。
Furthermore, it has a three-dimensional point cloud display means for displaying the three-dimensional point cloud,
3. The image management apparatus according to claim 1, wherein the extracting unit specifies the coordinates based on a three-dimensional point group displayed by the three-dimensional point group displaying unit.
さらに、前記三次元点群に対して三次元的に位置合わせが行われた三次元モデルを表示する三次元モデル表示手段と、
前記抽出手段は、前記三次元モデル表示手段により表示される三次元モデルを基に前記座標が指定されることを特徴とする請求項1又は2記載の画像管理装置。
Furthermore, a three-dimensional model display means for displaying a three-dimensional model that has been three-dimensionally aligned with the three-dimensional point group,
The image management apparatus according to claim 1, wherein the extraction unit is configured to designate the coordinates based on a three-dimensional model displayed by the three-dimensional model display unit.
前記三次元モデル表示手段は、前記三次元モデルの上に前記三次元点群を表示し、
前記抽出手段は、前記三次元モデル表示手段により表示される三次元モデル及び三次元点群を基に前記座標が指定されることを特徴とする請求項4記載の画像管理装置。
The 3D model display means displays the 3D point cloud on the 3D model,
5. The image management apparatus according to claim 4, wherein the extracting means designates the coordinates based on a three-dimensional model and a three-dimensional point group displayed by the three-dimensional model display means.
さらに、前記取得手段により取得される画像を所定の基準に基づいてソートする画像ソート手段を有することを特徴とする請求項1〜5のいずれか1項に記載の画像管理装置。   The image management apparatus according to claim 1, further comprising an image sorting unit that sorts the images acquired by the acquiring unit based on a predetermined reference. さらに、前記取得手段により取得される画像の中から所定の基準に基づいて画像を削除する削除手段を有することを特徴とする請求項1〜6のいずれか1項に記載の画像管理装置。   The image management apparatus according to claim 1, further comprising a deletion unit that deletes an image based on a predetermined reference from images acquired by the acquisition unit. 前記抽出手段は、前記三次元点群の中から、前記指定される座標に対応する三次元点を探索し、前記探索される三次元点に対応する前記セグメントを選択し、前記選択されるセグメントに対応する三次元点を抽出することを特徴とする請求項1〜7のいずれか1項に記載の画像管理装置。   The extraction means searches for a 3D point corresponding to the designated coordinates from the 3D point group, selects the segment corresponding to the searched 3D point, and selects the selected segment. The image management apparatus according to claim 1, wherein a three-dimensional point corresponding to is extracted. 前記所定の基準は、前記画像の中の三次元点の法線と前記画像の撮影時のカメラ位置とに基づく正対度であることを特徴とする請求項6〜8のいずれか1項に記載の画像管理装置。   The said predetermined reference | standard is the confrontation degree based on the normal of the three-dimensional point in the said image, and the camera position at the time of imaging | photography of the said image, The any one of Claims 6-8 characterized by the above-mentioned. The image management apparatus described. 前記所定の基準は、前記画像の撮影日時であることを特徴とする請求項6〜8のいずれか1項に記載の画像管理装置。   The image management apparatus according to claim 6, wherein the predetermined criterion is a shooting date and time of the image. 前記所定の基準は、前記画像の三次元的な位置であることを特徴とする請求項6〜8のいずれか1項に記載の画像管理装置。   The image management apparatus according to claim 6, wherein the predetermined reference is a three-dimensional position of the image. 前記所定の基準とは、前記画像の三次元的な位置と前記抽出手段により探索される三次元点との間の距離であることを特徴とする請求項6〜8のいずれか1項に記載の画像管理装置。   The said predetermined reference | standard is the distance between the three-dimensional position of the said image, and the three-dimensional point searched by the said extraction means, The any one of Claims 6-8 characterized by the above-mentioned. Image management device. 前記所定の基準は、前記画像の中の前記セグメントの面積であることを特徴とする請求項6〜8のいずれか1項に記載の画像管理装置。   The image management apparatus according to claim 6, wherein the predetermined reference is an area of the segment in the image. 抽出手段により、三次元空間における座標が指定されると、前記指定される座標に応じて、構造物に係る三次元点群の中から、前記構造物における構造的なまとまりであるセグメントに対応する三次元点を抽出する抽出ステップと、
取得手段により、前記抽出ステップで抽出される、前記セグメントに対応する三次元点に関連付けられた画像を取得する取得ステップと
を有することを特徴とする画像管理方法。
When the coordinates in the three-dimensional space are designated by the extracting means, the segment corresponding to the segment that is a structural unit in the structure is selected from the three-dimensional point group related to the structure according to the designated coordinates. An extraction step for extracting a three-dimensional point;
An image management method comprising: an acquisition step of acquiring an image associated with a three-dimensional point corresponding to the segment, which is extracted in the extraction step by an acquisition unit.
三次元空間における座標が指定されると、前記指定される座標に応じて、構造物に係る三次元点群の中から、前記構造物における構造的なまとまりであるセグメントに対応する三次元点を抽出する抽出ステップと、
前記抽出ステップで抽出される、前記セグメントに対応する三次元点に関連付けられた画像を取得する取得ステップと
をコンピュータに実行させるためのプログラム。
When coordinates in a three-dimensional space are designated, a three-dimensional point corresponding to a segment that is a structural unit in the structure is selected from a group of three-dimensional points related to the structure according to the designated coordinates. An extraction step to extract;
A program for causing a computer to execute an acquisition step of acquiring an image associated with a three-dimensional point corresponding to the segment extracted in the extraction step.
JP2016010776A 2016-01-22 2016-01-22 Image management apparatus, image management method and program Active JP6723748B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016010776A JP6723748B2 (en) 2016-01-22 2016-01-22 Image management apparatus, image management method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016010776A JP6723748B2 (en) 2016-01-22 2016-01-22 Image management apparatus, image management method and program

Publications (2)

Publication Number Publication Date
JP2017130146A true JP2017130146A (en) 2017-07-27
JP6723748B2 JP6723748B2 (en) 2020-07-15

Family

ID=59395662

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016010776A Active JP6723748B2 (en) 2016-01-22 2016-01-22 Image management apparatus, image management method and program

Country Status (1)

Country Link
JP (1) JP6723748B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019145072A (en) * 2018-02-23 2019-08-29 株式会社Lixil Supporting device
JP2019175350A (en) * 2018-03-29 2019-10-10 公益財団法人鉄道総合技術研究所 Structure inspection system, structure inspection device, and structure inspection method
JP2019196982A (en) * 2018-05-10 2019-11-14 コニカミノルタ株式会社 Image processing device, overloading detection device, overloading detection system and program
JP2020010318A (en) * 2018-05-28 2020-01-16 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH Method and system for reproducing visual and/or audio content synchronously by one group of devices
WO2021014775A1 (en) 2019-07-19 2021-01-28 富士フイルム株式会社 Image display device, method, and program
WO2021014751A1 (en) 2019-07-19 2021-01-28 富士フイルム株式会社 Image display device, method, and program
WO2021100681A1 (en) 2019-11-20 2021-05-27 パナソニックIpマネジメント株式会社 Three-dimensional model generation method and three-dimensional model generation device
JPWO2021166381A1 (en) * 2020-02-18 2021-08-26
WO2021193672A1 (en) 2020-03-27 2021-09-30 パナソニックIpマネジメント株式会社 Three-dimensional model generation method and three-dimensional model generation device
WO2021200432A1 (en) 2020-03-30 2021-10-07 パナソニックIpマネジメント株式会社 Imaging instruction method, imaging method, imaging instruction device, and imaging device
WO2022059335A1 (en) 2020-09-18 2022-03-24 パナソニックIpマネジメント株式会社 Three-dimensional model generation method and three-dimensional model generation device
WO2022124017A1 (en) 2020-12-08 2022-06-16 パナソニックIpマネジメント株式会社 Three-dimensional model generation method and three-dimensional model generation device
WO2024047782A1 (en) * 2022-08-31 2024-03-07 三菱電機株式会社 Point group data drawing system, server, point group data drawing device, and point group data drawing method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008099915A1 (en) * 2007-02-16 2008-08-21 Mitsubishi Electric Corporation Road/feature measuring device, feature identifying device, road/feature measuring method, road/feature measuring program, measuring device, measuring method, measuring program, measured position data, measuring terminal, measuring server device, drawing device, drawing method, drawing program, and drawing data
JP2010039932A (en) * 2008-08-07 2010-02-18 Ricoh Co Ltd Image processing apparatus, image processing method and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008099915A1 (en) * 2007-02-16 2008-08-21 Mitsubishi Electric Corporation Road/feature measuring device, feature identifying device, road/feature measuring method, road/feature measuring program, measuring device, measuring method, measuring program, measured position data, measuring terminal, measuring server device, drawing device, drawing method, drawing program, and drawing data
JP2010039932A (en) * 2008-08-07 2010-02-18 Ricoh Co Ltd Image processing apparatus, image processing method and program

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019145072A (en) * 2018-02-23 2019-08-29 株式会社Lixil Supporting device
JP7240846B2 (en) 2018-02-23 2023-03-16 株式会社Lixil support equipment
JP2019175350A (en) * 2018-03-29 2019-10-10 公益財団法人鉄道総合技術研究所 Structure inspection system, structure inspection device, and structure inspection method
JP6996415B2 (en) 2018-05-10 2022-02-04 コニカミノルタ株式会社 Image processing equipment, overload detection equipment, overload detection system and programs
JP2019196982A (en) * 2018-05-10 2019-11-14 コニカミノルタ株式会社 Image processing device, overloading detection device, overloading detection system and program
JP2020010318A (en) * 2018-05-28 2020-01-16 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH Method and system for reproducing visual and/or audio content synchronously by one group of devices
JP7069085B2 (en) 2018-05-28 2022-05-17 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハー Methods and systems for synchronously playing visual and / or audio content on a group of devices
WO2021014775A1 (en) 2019-07-19 2021-01-28 富士フイルム株式会社 Image display device, method, and program
WO2021014751A1 (en) 2019-07-19 2021-01-28 富士フイルム株式会社 Image display device, method, and program
WO2021100681A1 (en) 2019-11-20 2021-05-27 パナソニックIpマネジメント株式会社 Three-dimensional model generation method and three-dimensional model generation device
US11869146B2 (en) 2019-11-20 2024-01-09 Panasonic Intellectual Property Management Co., Ltd. Three-dimensional model generation method and three-dimensional model generation device
WO2021166381A1 (en) * 2020-02-18 2021-08-26 富士フイルム株式会社 Point cloud data processing device, point cloud data processing method, and program
JP7392101B2 (en) 2020-02-18 2023-12-05 富士フイルム株式会社 Point cloud data processing device, point cloud data processing method, and program
JPWO2021166381A1 (en) * 2020-02-18 2021-08-26
WO2021193672A1 (en) 2020-03-27 2021-09-30 パナソニックIpマネジメント株式会社 Three-dimensional model generation method and three-dimensional model generation device
WO2021200432A1 (en) 2020-03-30 2021-10-07 パナソニックIpマネジメント株式会社 Imaging instruction method, imaging method, imaging instruction device, and imaging device
WO2022059335A1 (en) 2020-09-18 2022-03-24 パナソニックIpマネジメント株式会社 Three-dimensional model generation method and three-dimensional model generation device
WO2022124017A1 (en) 2020-12-08 2022-06-16 パナソニックIpマネジメント株式会社 Three-dimensional model generation method and three-dimensional model generation device
WO2024047782A1 (en) * 2022-08-31 2024-03-07 三菱電機株式会社 Point group data drawing system, server, point group data drawing device, and point group data drawing method

Also Published As

Publication number Publication date
JP6723748B2 (en) 2020-07-15

Similar Documents

Publication Publication Date Title
JP6723748B2 (en) Image management apparatus, image management method and program
US10964108B2 (en) Augmentation of captured 3D scenes with contextual information
JP6948175B2 (en) Image processing device and its control method
US8487926B2 (en) Method and apparatus for generating 3D image using 2D photograph images
JP5093053B2 (en) Electronic camera
JP4770960B2 (en) Image search system and image search method
JP6144364B2 (en) Work support data creation program
US11263477B2 (en) Method of auto-generation of multidepth image by interconnecting images into tree structure
CN105023266A (en) Method and device for implementing augmented reality (AR) and terminal device
WO2014112138A1 (en) Information processing device, information processing system, and information processing program
JP6921686B2 (en) Generator, generation method, and program
JP6096634B2 (en) 3D map display system using virtual reality
JP2023010759A (en) Information processing device, information processing method, and program
CN104700355A (en) Generation method, device and system for indoor two-dimension plan
KR101574636B1 (en) Change region detecting system using time-series aerial photograph captured by frame type digital aerial camera and stereoscopic vision modeling the aerial photograph with coordinate linkage
JP2017003525A (en) Three-dimensional measuring device
KR102475790B1 (en) Map making Platform apparatus and map making method using the platform
JP6210807B2 (en) Display control device and control method of display control device
JP6719945B2 (en) Information processing apparatus, information processing method, information processing system, and program
JP7015130B2 (en) Data processing equipment
CN116051736A (en) Three-dimensional reconstruction method, device, edge equipment and storage medium
CN113298871B (en) Map generation method, positioning method, system thereof, and computer-readable storage medium
Bourke Novel imaging of heritage objects and sites
JP2020091718A (en) Photographed image classification device and photographed image classification method
JP6606748B2 (en) Stereo pair image display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200624

R151 Written notification of patent or utility model registration

Ref document number: 6723748

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151