JPWO2020039470A1 - Image processing system - Google Patents

Image processing system Download PDF

Info

Publication number
JPWO2020039470A1
JPWO2020039470A1 JP2020537904A JP2020537904A JPWO2020039470A1 JP WO2020039470 A1 JPWO2020039470 A1 JP WO2020039470A1 JP 2020537904 A JP2020537904 A JP 2020537904A JP 2020537904 A JP2020537904 A JP 2020537904A JP WO2020039470 A1 JPWO2020039470 A1 JP WO2020039470A1
Authority
JP
Japan
Prior art keywords
image information
image
processing unit
information
processing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020537904A
Other languages
Japanese (ja)
Other versions
JP6910622B2 (en
Inventor
一人 小山
一人 小山
克彦 洞口
克彦 洞口
健二郎 兼平
健二郎 兼平
典久 羽田
羽田  典久
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Datt Japan Inc
Original Assignee
Datt Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Datt Japan Inc filed Critical Datt Japan Inc
Application granted granted Critical
Publication of JP6910622B2 publication Critical patent/JP6910622B2/en
Publication of JPWO2020039470A1 publication Critical patent/JPWO2020039470A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

本発明は,画像処理システムを提供することを目的とする。対象物をモデル化するために用いる複数の画像情報に対する画像処理システムであって,画像処理システムは,複数の画像情報の入力を受け付ける画像情報入力受付処理部と,入力を受け付けた画像情報のうち,基準とする画像情報の撮影領域との重複度合いに関する条件を充足する画像情報を特定するオーバーラップ処理部と,画像情報の画質の判定を行う画質判定処理部と,を有しており,オーバーラップ処理部において特定した画像情報のうち,画質判定処理部で判定した結果を用いて,画質に関する条件を充足する画像情報を特定し,その画像情報を出力対象として選択する,画像処理システムである。An object of the present invention is to provide an image processing system. An image processing system for a plurality of image information used for modeling an object. The image processing system includes an image information input reception processing unit that accepts input of a plurality of image information and an image information that receives the input. It has an overlap processing unit that specifies image information that satisfies the conditions related to the degree of overlap of the reference image information with the shooting area, and an image quality determination processing unit that determines the image quality of the image information. This is an image processing system that uses the results determined by the image quality determination processing unit to identify the image information that satisfies the conditions related to image quality from the image information specified by the wrap processing unit, and selects that image information as the output target. ..

Description

本発明は,画像処理システムに関する。 The present invention relates to an image processing system.

近年,橋梁,ダム,トンネルなどの各種構造物の老朽化の維持管理や災害対策などの観点から,構造物の点検業務が重要となっている。構造物の点検業務においては,点検ロボットやUAV(Unmanned Aerial Vehicle),情報技術の活用する取り組みが行われている。 In recent years, structural inspection work has become important from the viewpoint of maintenance and management of aging of various structures such as bridges, dams, and tunnels, and disaster countermeasures. In the inspection work of structures, efforts are being made to utilize inspection robots, UAVs (Unmanned Aerial Vehicles), and information technology.

そして点検業務の一つの方法として,検査対象物となる構造物の状況を3次元モデルで再現することで,構造物の損傷や劣化の状況をコンピュータの画面上で確認する方法がある。 Then, as one method of inspection work, there is a method of confirming the state of damage or deterioration of the structure on a computer screen by reproducing the state of the structure to be inspected with a three-dimensional model.

3次元モデルで再現する場合,構造物を多視点から撮影した画像情報を用い,画像情報間の特徴点を対応づけ,その特徴点の3次元上の座標を,三角測量の原理により,3次元形状を再現する技術を用いる。この技術は,SfM(Structure from Motion)と呼ばれている。 When reproducing with a three-dimensional model, the image information obtained by photographing the structure from multiple viewpoints is used, the feature points between the image information are associated with each other, and the three-dimensional coordinates of the feature points are three-dimensionally measured by the principle of triangulation. Use a technique to reproduce the shape. This technique is called SfM (Structure from Motion).

SfMを用いる場合,同一の構造物の同一箇所を異なる視点から,少なくとも2以上の視点から画像を撮影していなければならない。そのため,SfMに用いる画像情報では,撮影位置を変更しながら,ほかの画像情報と撮影範囲が重なる(オーバーラップ)するように撮影されている。 When SfM is used, images of the same part of the same structure must be taken from different viewpoints and from at least two viewpoints. Therefore, in the image information used for SfM, while changing the shooting position, the image information is photographed so as to overlap (overlap) with other image information.

特許文献1および特許文献2には,画像情報間の特徴点を対応づける技術が開示されている。また特許文献3には撮影した画像から物体形状を生成する精度を向上させる技術が開示されている。さらに,特許文献4には良質の画像を選定する画像評価方法が開示されている。 Patent Document 1 and Patent Document 2 disclose a technique for associating feature points between image information. Further, Patent Document 3 discloses a technique for improving the accuracy of generating an object shape from a captured image. Further, Patent Document 4 discloses an image evaluation method for selecting a high-quality image.

特開2017−021427号公報Japanese Unexamined Patent Publication No. 2017-021427 特開2017−041141号公報JP-A-2017-041141 特開2014−109819号公報Japanese Unexamined Patent Publication No. 2014-109819 特開2008−234509号公報Japanese Unexamined Patent Publication No. 2008-23459

SfMを用いて構造物の画像を撮影して構造物の3次元モデルを生成する場合,2次元の画像情報から3次元に再構成する必要があることから,膨大な処理時間が発生する。とくに点検業務の場合,高解像度の画像情報を用いるため,処理時間が大きくなる。たとえば画像情報間のオーバーラップ率を60%程度とした場合であっても,画像情報が5000枚程度の場合,GPU(Graphics Processing Unit)を搭載した専用のコンピュータを用いたとしても数日や1週間程度の処理時間を要することがある。そのため処理時間の短縮が求められている。 When an image of a structure is taken using SfM to generate a three-dimensional model of the structure, a huge amount of processing time is required because it is necessary to reconstruct the structure from the two-dimensional image information in three dimensions. Especially in the case of inspection work, high-resolution image information is used, which increases the processing time. For example, even if the overlap rate between image information is about 60%, if the image information is about 5000 sheets, even if a dedicated computer equipped with a GPU (Graphics Processing Unit) is used, it will take several days or 1 It may take about a week to process. Therefore, reduction of processing time is required.

しかし特許文献1乃至特許文献3の技術をSfMに適用したとしても,多少の高速化は期待できる可能性があるが,大幅な処理時間の短縮を図ることはできない。なぜならSfMにおける処理時間は,画像情報の枚数の組み合わせ数に比例することから,SfMそのものにおける処理の高速化では解決が難しいからである。 However, even if the techniques of Patent Documents 1 to 3 are applied to SfM, some speedup may be expected, but the processing time cannot be significantly reduced. This is because the processing time in SfM is proportional to the number of combinations of the number of image information, and it is difficult to solve the problem by speeding up the processing in SfM itself.

また,特許文献4の方法で選定される画像の「最良の写真」とは情緒的な「良い写真」の意味である。そのため,かかる方法を用いたとしても,計測上の精度の高いデータとしての意味での最良の写真を得ることはできない。 Further, the "best photograph" of the image selected by the method of Patent Document 4 means an emotional "good photograph". Therefore, even if such a method is used, it is not possible to obtain the best photograph in the sense of highly accurate measurement data.

そこで本発明者は上記課題に鑑み,3次元モデルの再構成に要する処理時間の短縮を図ることができる画像処理システムを発明した。 Therefore, in view of the above problems, the present inventor has invented an image processing system capable of shortening the processing time required for reconstructing a three-dimensional model.

第1の発明は,対象物をモデル化するために用いる複数の画像情報に対する画像処理システムであって,前記画像処理システムは,前記複数の画像情報の入力を受け付ける画像情報入力受付処理部と,前記入力を受け付けた画像情報のうち,基準とする画像情報の撮影領域との重複度合いに関する条件を充足する画像情報を特定するオーバーラップ処理部と,前記画像情報の画質の判定を行う画質判定処理部と,を有しており,前記オーバーラップ処理部において特定した画像情報のうち,前記画質判定処理部で判定した結果を用いて,画質に関する条件を充足する画像情報を特定し,その画像情報を出力対象として選択する,画像処理システムである。 The first invention is an image processing system for a plurality of image information used for modeling an object, wherein the image processing system includes an image information input reception processing unit that accepts input of the plurality of image information. Of the image information received, the overlap processing unit that specifies the image information that satisfies the condition regarding the degree of overlap of the reference image information with the shooting area, and the image quality determination process that determines the image quality of the image information. Of the image information specified by the overlap processing unit, the image information that satisfies the conditions related to image quality is specified by using the result of determination by the image quality determination processing unit, and the image information is specified. Is an image processing system that selects as an output target.

本発明のように構成することで,対象物をモデル化するために用いる画像情報のうち,重複度合いが高い画像情報についてはその一部を間引くことができ,モデル化に用いる画像情報の数を減らすことができる。また,画質を考慮して画像情報の選択をしているので,高品質の画像情報でモデル化を実行できるので,モデル化の際の精度を向上させることができる。 By configuring as in the present invention, among the image information used for modeling the object, a part of the image information having a high degree of duplication can be thinned out, and the number of image information used for modeling can be reduced. Can be reduced. In addition, since the image information is selected in consideration of the image quality, modeling can be performed with high quality image information, so that the accuracy at the time of modeling can be improved.

上述の発明において,前記画像処理システムは,前記入力を受け付けた画像情報に撮影位置等情報が対応づけられていない場合には,撮影位置等情報を推定する撮影位置推定処理部,を有する画像処理システムのように構成することができる。 In the above-described invention, the image processing system includes an image processing unit that estimates shooting position information when information such as shooting position is not associated with the image information that has received the input. It can be configured like a system.

撮影装置に撮影位置や撮影方向を計測する装置を取り付けた上で対象物の撮影を行うことが好ましいが,そうでない場合であっても,本発明の処理を用いることで,撮影位置や撮影方向である撮影位置等情報を推定することができる。 It is preferable to attach a device for measuring the shooting position and shooting direction to the shooting device before shooting the object, but even if this is not the case, the processing of the present invention can be used to shoot the shooting position and shooting direction. Information such as the shooting position can be estimated.

上述の発明において,前記撮影位置推定処理部は,比較対象とする画像情報のそれぞれの特徴点を対応づけることでその移動量を算出し,前記算出した移動量を用いて相対位置を算出することで画像情報の撮影位置等情報を推定する,画像処理システムのように構成することができる。 In the above-described invention, the imaging position estimation processing unit calculates the movement amount by associating the feature points of the image information to be compared with each other, and calculates the relative position using the calculated movement amount. It can be configured like an image processing system that estimates information such as the shooting position of image information.

撮影位置等情報の推定処理にはさまざまな処理があるが,本発明の処理のように実行するとよい。 There are various processes for estimating information such as the shooting position, but it is preferable to execute the process as in the process of the present invention.

上述の発明において,前記画像処理システムは,画像情報における撮影位置等情報を用いて,その画像情報における撮影領域を算出する撮影領域算出処理部,を有する画像処理システムのように構成することができる。 In the above-described invention, the image processing system can be configured like an image processing system having a shooting area calculation processing unit that calculates a shooting area in the image information by using information such as a shooting position in the image information. ..

画像情報の撮影領域は本発明を用いることで算出できる。 The imaging area of image information can be calculated by using the present invention.

第5の発明は,画像処理システムであって,対象物を撮影した複数の画像情報の入力を受け付ける画像情報入力受付処理部と,前記複数の画像情報から画像情報を選択する画像情報選択処理部と,を有しており,前記画像情報選択処理部は,画像情報の撮影領域の重複度合いに関する条件を充足する画像情報のうち,画質に関する条件を充足する画像情報を選択する,画像処理システムである。 A fifth invention is an image processing system, which is an image information input reception processing unit that accepts input of a plurality of image information obtained by photographing an object, and an image information selection processing unit that selects image information from the plurality of image information. The image information selection processing unit is an image processing system that selects image information that satisfies the condition related to image quality from among the image information satisfying the condition related to the degree of duplication of the shooting area of the image information. be.

複数の画像情報から必要な画像情報を選択する場合には,本発明を用いることがよい。 The present invention may be used when necessary image information is selected from a plurality of image information.

上述の発明において,前記画像処理システムは,前記画像情報選択処理部で選択した画像情報を,画像情報に基づいて対象物のモデル化の処理を実行するソフトウェアに出力する出力処理部,を有する画像処理システムのように構成することができる。 In the above-described invention, the image processing system includes an output processing unit that outputs image information selected by the image information selection processing unit to software that executes modeling processing of an object based on the image information. It can be configured like a processing system.

上述の各発明は,本発明の処理によって選択した画像情報は,複数の画像情報に基づいて対象物をモデル化するためのソフトウェアに出力すると,高い技術的効果を得ることができる。 In each of the above-mentioned inventions, when the image information selected by the processing of the present invention is output to software for modeling an object based on a plurality of image information, a high technical effect can be obtained.

第1の発明は,本発明のプログラムをコンピュータに読み込ませて実行することで実現できる。すなわち,コンピュータを,対象物をモデル化するために用いる複数の画像情報の入力を受け付ける画像情報入力受付処理部,前記入力を受け付けた画像情報のうち,基準とする画像情報の撮影領域との重複度合いに関する条件を充足する画像情報を特定するオーバーラップ処理部,前記画像情報の画質の判定を行う画質判定処理部,として機能させる画像処理プログラムであって,前記オーバーラップ処理部において特定した画像情報のうち,前記画質判定処理部で判定した結果を用いて,画質に関する条件を充足する画像情報を特定し,その画像情報を出力対象として選択する,画像処理プログラムである。 The first invention can be realized by loading and executing the program of the present invention in a computer. That is, the computer is used in the image information input reception processing unit that accepts the input of a plurality of image information used for modeling the object, and the image information that has received the input overlaps with the shooting area of the reference image information. An image processing program that functions as an overlap processing unit that specifies image information that satisfies the conditions related to the degree, and an image quality determination processing unit that determines the image quality of the image information, and is the image information specified by the overlap processing unit. Among these, it is an image processing program that identifies image information that satisfies the conditions related to image quality by using the result of determination by the image quality determination processing unit, and selects the image information as an output target.

第5の発明は,本発明のプログラムをコンピュータに読み込ませて実行することで実現できる。すなわち,コンピュータを,対象物を撮影した複数の画像情報の入力を受け付ける画像情報入力受付処理部,前記複数の画像情報から画像情報を選択する画像情報選択処理部,として機能させる画像処理プログラムであって,前記画像情報選択処理部は,画像情報の撮影領域の重複度合いに関する条件を充足する画像情報のうち,画質に関する条件を充足する画像情報を選択する,画像処理プログラムである。 The fifth invention can be realized by loading the program of the present invention into a computer and executing it. That is, it is an image processing program that causes a computer to function as an image information input reception processing unit that accepts input of a plurality of image information obtained by photographing an object, and an image information selection processing unit that selects image information from the plurality of image information. The image information selection processing unit is an image processing program that selects image information that satisfies the condition related to image quality from among the image information satisfying the condition relating to the degree of duplication of the imaging area of the image information.

本発明の画像処理システムを発明することで,3次元モデルの再構成に要する処理時間の短縮を図ることができる。また,画質を加味した画像情報を選択することで,3次元モデルの再構成についても精度の向上を図ることができる。 By inventing the image processing system of the present invention, the processing time required for reconstructing the three-dimensional model can be shortened. Further, by selecting the image information in consideration of the image quality, it is possible to improve the accuracy of the reconstruction of the three-dimensional model.

本発明の画像処理システムの処理機能の一例を示すブロック図である。It is a block diagram which shows an example of the processing function of the image processing system of this invention. 本発明の画像処理システムにおける撮影位置推定処理部の処理機能の一例を示すブロック図である。It is a block diagram which shows an example of the processing function of the photographing position estimation processing part in the image processing system of this invention. 本発明の画像処理システムにおける画像情報選択処理部の処理機能の一例を示すブロック図である。It is a block diagram which shows an example of the processing function of the image information selection processing part in the image processing system of this invention. 本発明の画像処理システムで用いるコンピュータのハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware composition of the computer used in the image processing system of this invention. 本発明の画像処理システムの全体の処理プロセスの一例を示すフローチャートである。It is a flowchart which shows an example of the whole processing process of the image processing system of this invention. 本発明の画像処理システムの撮影位置推定処理の処理プロセスの一例を示すフローチャートである。It is a flowchart which shows an example of the processing process of the imaging position estimation processing of the image processing system of this invention. 本発明の画像処理システムの画像情報選択処理の処理プロセスの一例を示すフローチャートである。It is a flowchart which shows an example of the processing process of the image information selection processing of the image processing system of this invention. 画像情報選択処理部における処理の概念の一例を示す図である。It is a figure which shows an example of the concept of processing in an image information selection processing part. すべての画像情報を用いてSfMの処理を実行した場合と,本発明を用いて選択した画像情報を用いてSfMの処理を実行した場合を比較した実験結果を示す表である。It is a table which shows the experimental result which compared the case where the processing of SfM was executed using all the image information, and the case where the processing of SfM was executed using the image information selected by using this invention. すべての画像情報を用いてSfMの処理を実行した3次元モデルと,本発明を用いて選択した画像情報を用いてSfMの処理を実行した3次元モデルとを示す図である。It is a figure which shows the 3D model which executed SfM processing using all image information, and 3D model which performed SfM processing using image information selected by using this invention.

本発明の画像処理システム1の全体の処理機能の構成の一例を図1に,後述する撮影位置推定処理部21の処理機能の構成の一例を図2に,後述する画像情報選択処理部23の処理機能の構成の一例を図3に,画像処理システム1で用いるコンピュータのハードウェア構成の一例を図4に示す。 An example of the configuration of the entire processing function of the image processing system 1 of the present invention is shown in FIG. 1, and an example of the configuration of the processing function of the photographing position estimation processing unit 21 described later is shown in FIG. FIG. 3 shows an example of the configuration of the processing function, and FIG. 4 shows an example of the hardware configuration of the computer used in the image processing system 1.

画像処理システム1は制御コンピュータ2を用いる。制御コンピュータ2は,画像処理システム1における処理機能を実現するためのコンピュータである。 The image processing system 1 uses a control computer 2. The control computer 2 is a computer for realizing the processing function in the image processing system 1.

制御コンピュータ2は,プログラムの演算処理を実行するCPUなどの演算装置70と,情報を記憶するRAMやハードディスクなどの記憶装置71と,ディスプレイなどの表示装置72と,情報の入力を行う入力装置73と,演算装置70の処理結果や記憶装置71に記憶する情報を通信する通信装置74とを有している。なお,コンピュータがタッチパネルディスプレイを備えている場合には表示装置72と入力装置73とが一体的に構成されていてもよい。タッチパネルディスプレイは,たとえばタブレット型コンピュータやスマートフォンなどの可搬型通信端末などで利用されることが多いが,それに限定するものではない。 The control computer 2 includes an arithmetic unit 70 such as a CPU that executes arithmetic processing of a program, a storage device 71 such as a RAM or a hard disk that stores information, a display device 72 such as a display, and an input device 73 that inputs information. And a communication device 74 that communicates the processing result of the arithmetic unit 70 and the information stored in the storage device 71. When the computer is provided with a touch panel display, the display device 72 and the input device 73 may be integrally configured. Touch panel displays are often used, for example, in portable communication terminals such as tablet computers and smartphones, but are not limited thereto.

タッチパネルディスプレイは,そのディスプレイ上で,直接,所定の入力デバイス(タッチパネル用のペンなど)や指などによって入力を行える点で,表示装置72と入力装置73の機能が一体化した装置である。 The touch panel display is a device in which the functions of the display device 72 and the input device 73 are integrated in that input can be performed directly on the display with a predetermined input device (such as a pen for a touch panel) or a finger.

画像処理システム1は一台のコンピュータによって実現されていてもよいが,その一部または全部の機能が複数のコンピュータによって実現されていてもよい。この場合のコンピュータとして,たとえばクラウドサーバであってもよい。また,画像処理システム1におけるコンピュータが,携帯電話,スマートフォン,タブレット型コンピュータなどの可搬型通信端末であってもよい。 The image processing system 1 may be realized by one computer, but some or all of its functions may be realized by a plurality of computers. The computer in this case may be, for example, a cloud server. Further, the computer in the image processing system 1 may be a portable communication terminal such as a mobile phone, a smartphone, or a tablet computer.

本発明の画像処理システム1における各手段は,その機能が論理的に区別されているのみであって,物理上あるいは事実上は同一の領域を為していても良い。 Each means in the image processing system 1 of the present invention is only logically distinguished in its function, and may form the same area physically or substantially.

画像処理システム1は,画像情報入力受付処理部20と撮影位置推定処理部21と撮影領域算出処理部22と画像情報選択処理部23と出力処理部24とを有する。 The image processing system 1 includes an image information input reception processing unit 20, a shooting position estimation processing unit 21, a shooting area calculation processing unit 22, an image information selection processing unit 23, and an output processing unit 24.

画像情報入力受付処理部20は,構造物などの対象物を撮影した画像情報の入力を撮影装置などから受け付ける。なお画像情報としては動画像であってもよいし静止画像であってもよい。動画像の場合には,フレームごとの静止画像に変換したうえで処理を実行する。対象物などを撮影した画像情報は連続しており,前後の画像情報同士は,撮影位置も近接している。そのため,画像情報入力受付処理部20で入力を受け付ける画像情報では,前後の画像情報について,同じ領域を異なる位置(異なる視点)から撮影している。なお,同じ領域を同じ位置(同じ視点)から撮影していてもよい。また,画像情報には,撮影位置および撮影方向を記録する装置を撮影装置に取り付けることで,画像情報ごとに撮影位置および撮影方向を示す情報(撮影位置等情報)を対応づけておいてもよい。 The image information input reception processing unit 20 receives input of image information obtained by photographing an object such as a structure from an imaging device or the like. The image information may be a moving image or a still image. In the case of a moving image, the process is executed after converting it to a still image for each frame. The image information obtained by photographing an object or the like is continuous, and the image information before and after the image information is close to each other. Therefore, in the image information for which input is received by the image information input reception processing unit 20, the same area is photographed from different positions (different viewpoints) for the previous and next image information. The same area may be photographed from the same position (same viewpoint). Further, the image information may be associated with information indicating the shooting position and the shooting direction (information such as the shooting position) for each image information by attaching a device for recording the shooting position and the shooting direction to the shooting device. ..

撮影位置推定処理部21は,画像情報に撮影位置等情報が対応づけられていない場合に,当該画像情報の撮影位置等情報を推定する処理を実行する。すなわち,画像情報入力受付処理部20で入力を受け付けた画像情報のうち,比較対象とする2つの画像情報の特徴点を対応づけ,それに基づいて相対位置を算出することで,撮影位置等情報を推定する。 The shooting position estimation processing unit 21 executes a process of estimating the shooting position information of the image information when the shooting position information is not associated with the image information. That is, among the image information input received by the image information input reception processing unit 20, the feature points of the two image information to be compared are associated with each other, and the relative position is calculated based on the correspondence, so that the information such as the shooting position can be obtained. presume.

撮影位置推定処理部21は,特徴点抽出処理部210と特徴点対応検索処理部211と相対位置算出処理部212とを有する。 The shooting position estimation processing unit 21 has a feature point extraction processing unit 210, a feature point correspondence search processing unit 211, and a relative position calculation processing unit 212.

特徴点抽出処理部210は,画像情報における特徴点を抽出する。特徴点を抽出する処理としては,たとえばSIFT,SURF,ORB,KAZEなどが一例としたあるが,それに限定されない。 The feature point extraction processing unit 210 extracts feature points in the image information. Examples of the processing for extracting feature points include SIFT, SURF, ORB, and KAZE, but are not limited thereto.

特徴点対応検索処理部211は,2つの画像情報における特徴点を対応づける射影行列を求める。 The feature point correspondence search processing unit 211 obtains a projection matrix that associates feature points in two image information.

相対位置算出処理部212は,特徴点対応検索処理部211で特定した射影行列に基づいて算出した移動量を用いて,画像情報PXに対する画像情報PYの相対位置を算出し,撮影位置等情報として推定する。 The relative position calculation processing unit 212 calculates the relative position of the image information PY with respect to the image information PX using the movement amount calculated based on the projection matrix specified by the feature point correspondence search processing unit 211, and uses it as information such as the shooting position. presume.

具体的には,画像情報入力受付処理部20で入力を受け付けた一つの画像情報P1,たとえば画像情報入力受付処理部20で入力を受け付けた画像情報のうちの最初の画像情報を特定し,その画像情報P1に対する特徴点を特徴点抽出処理部210が抽出する。また,その画像情報P1の撮影位置を原点として設定する。そして,当該画像情報P1と比較する画像情報P2(たとえば画像情報P1の次の画像情報など,画像情報P1にオーバーラップする領域がある画像情報)を特定し,画像情報P2の特徴点を特徴点抽出処理部210が抽出する。そして,特徴点対応検索処理部211は,画像情報P1における特徴点と画像情報P2における特徴点とを対応づける射影行列を公知の手法により求める。なお,特徴点のベクトルは主に,平行移動と回転であることから,それ以外の特徴点は誤判定であるとして削除する。そして,相対位置算出処理部212は,特徴点対応検索処理部211が求めた射影行列に基づいて,画像情報P1から画像情報P2への移動量を算出することで,画像情報P2の画像情報P1に対する相対位置を求め,撮影位置等情報として推定する。 Specifically, one image information P1 for which input is received by the image information input reception processing unit 20, for example, the first image information among the image information for which input is received by the image information input reception processing unit 20 is specified, and the first image information is specified. The feature point extraction processing unit 210 extracts the feature points for the image information P1. Further, the shooting position of the image information P1 is set as the origin. Then, the image information P2 to be compared with the image information P1 (for example, image information having an area overlapping with the image information P1 such as the next image information of the image information P1) is specified, and the feature points of the image information P2 are feature points. The extraction processing unit 210 extracts. Then, the feature point correspondence search processing unit 211 obtains a projection matrix for associating the feature points in the image information P1 with the feature points in the image information P2 by a known method. Since the vector of feature points is mainly translation and rotation, other feature points are deleted as erroneous judgments. Then, the relative position calculation processing unit 212 calculates the amount of movement from the image information P1 to the image information P2 based on the projection matrix obtained by the feature point correspondence search processing unit 211, so that the image information P1 of the image information P2 is calculated. The relative position to the image is obtained and estimated as information such as the shooting position.

なお,撮影位置推定処理部21は,上述の処理において画像情報入力受付処理部20で受け付けた画像情報をそのまま用いてもよいが,たとえばグレースケールなどへの変換,ファイルの大きさ(縦や横の大きさ)の縮小などをしてデータ量を減らしたあとに,特徴点抽出処理部210,特徴点対応検索処理部211,相対位置算出処理部212の処理などをしてもよい。特徴点を抽出するにあたり,画像情報の色と画像情報の大きさは必要ないからである。 The shooting position estimation processing unit 21 may use the image information received by the image information input reception processing unit 20 as it is in the above processing, but for example, conversion to grayscale or the like, file size (vertical or horizontal). After reducing the amount of data by reducing the size of), the feature point extraction processing unit 210, the feature point correspondence search processing unit 211, the relative position calculation processing unit 212, and the like may be processed. This is because the color of the image information and the size of the image information are not required to extract the feature points.

撮影領域算出処理部22は,画像情報に対応づけられた撮影位置等情報または撮影位置推定処理部21で推定した撮影位置等情報に基づいて,対象物の撮影領域を算出する。具体的には撮影装置の情報(撮像素子サイズ,レンズの焦点距離)と撮影対象物までの平均距離の入力を受け付け,これらの情報に基づいて画像情報に写っている物体の実際のサイズ(大きさ)を算出する。そして,撮影画像のピクセル単位の長さを実寸換算したmmの長さを利用し,撮影位置と撮影方向とを示す撮影位置等情報から撮影領域を算出する。 The shooting area calculation processing unit 22 calculates the shooting area of the object based on the shooting position and the like information associated with the image information or the shooting position and the like information estimated by the shooting position estimation processing unit 21. Specifically, it accepts input of the information of the photographing device (image sensor size, focal length of the lens) and the average distance to the object to be photographed, and based on this information, the actual size (large size) of the object reflected in the image information. ) Is calculated. Then, the shooting area is calculated from information such as the shooting position indicating the shooting position and the shooting direction by using the length of mm obtained by converting the length of the shot image in pixel units into the actual size.

画像情報選択処理部23は,画像情報入力受付処理部20で画像情報のうち,必要な画像情報を選択する(不要な画像情報を間引く)処理を実行する。画像情報選択処理部23は,オーバーラップ処理部230と画質判定処理部231とを有する。 The image information selection processing unit 23 executes a process of selecting necessary image information (thinning out unnecessary image information) from the image information in the image information input reception processing unit 20. The image information selection processing unit 23 includes an overlap processing unit 230 and an image quality determination processing unit 231.

オーバーラップ処理部230は,注目する画像情報の撮影領域へのオーバーラップ率が所定の閾値以上である画像情報を特定する。そして,特定した画像情報のうち,画質判定処理部231における画質判定処理による最適な画像情報を特定し,出力対象リストとして追加する。オーバーラップ率は比較対象とする2つの画像情報の撮影領域がどれだけ重複しているかの比率の算出で行える。 The overlap processing unit 230 identifies the image information in which the overlap rate of the image information of interest with the photographing region is equal to or greater than a predetermined threshold value. Then, among the specified image information, the optimum image information by the image quality determination processing in the image quality determination processing unit 231 is specified and added as an output target list. The overlap rate can be calculated by calculating the ratio of how much the shooting areas of the two image information to be compared overlap.

画質判定処理部231は,画像情報が最適な画像情報であるか否かを判定する。最適な画像情報か否かは,コントラストが高い画像情報であるか,エッジのはっきりした画像情報であるかなど,画質に関する要素をスコアリングすることで判定できる。最適な画像情報であるか否かは,これらに限定するものではなく,画質の良さ(画像情報にボケやブレがない)を判定することに用いる処理であればいかなる処理であっても用いることができる。たとえば機械学習によって,画質の良さを学習させ,判定させてもよい。コントラストが高いか否かは,画像情報における輝度値の分散に基づいて判定でき,分散の大きさに応じたスコア(評価値)を付与する。分散が大きい画像情報は高コントラストとして高いスコアが付与される。またエッジのある画像情報か否かは,ラプラシアンフィルタ(差分フィルタ)の分散から求めることができ,分散の大きさに応じたスコア(評価値)を付与する。コントラストおよびエッジに対する各評価値を用いて所定の演算をすることで,画質に関する要素をスコアリングした評価値である画質スコアを算出する。画質スコアが高ければ3次元モデルの再構成などに向いている計測上の精度の高い画像情報と判定でき,低ければそうではない画像情報と判定できる。なお,コントラスト,エッジに関する処理についても,これらに限定するものではなく,ほかの処理を用いることができる。また,オーバーラップ率の閾値は,任意のタイミングで入力を受け付けてもよいし,あらかじめ所定値が設定されていてもよい。 The image quality determination processing unit 231 determines whether or not the image information is the optimum image information. Whether or not the image information is optimal can be determined by scoring factors related to image quality, such as whether the image information has high contrast or the image information has clear edges. Whether or not the image information is optimal is not limited to these, and any process used to judge the good image quality (the image information has no blur or blur) should be used. Can be done. For example, machine learning may be used to learn and judge the quality of image quality. Whether or not the contrast is high can be determined based on the variance of the luminance value in the image information, and a score (evaluation value) according to the magnitude of the variance is given. Image information with a large variance is given a high score as high contrast. Whether or not the image information has edges can be determined from the variance of the Laplacian filter (difference filter), and a score (evaluation value) is given according to the size of the variance. An image quality score, which is an evaluation value obtained by scoring elements related to image quality, is calculated by performing a predetermined calculation using each evaluation value for contrast and edge. If the image quality score is high, it can be determined that the image information has high measurement accuracy suitable for reconstruction of a three-dimensional model, and if it is low, it can be determined that the image information is not. The processing related to contrast and edge is not limited to these, and other processing can be used. Further, the threshold value of the overlap rate may be input at an arbitrary timing or may be set to a predetermined value in advance.

画質判定処理部231における各画像情報の画質をスコアリングする処理は,それを用いる前であればいかなるタイミングで行ってもよい。 The process of scoring the image quality of each image information in the image quality determination processing unit 231 may be performed at any timing before using it.

図8に画像情報選択処理部23における処理の概念の一例を示す。注目する画像情報がP1であったとき,オーバーラップ処理部230は,あらかじめ定められたオーバーラップ率(たとえば20%)を充足する画像情報を,画像情報P1よりも後の画像情報から探索をする。そして,探索の結果,画像情報P2(P1へのオーバーラップ率60%),画像情報P3(P1へのオーバーラップ率40%,),画像情報P4(P1へのオーバーラップ20%)を特定したとする。また,画質判定処理部231で特定した画像情報P2,P3,P4の画質スコアがそれぞれ10,30,20であったとする。 FIG. 8 shows an example of the concept of processing in the image information selection processing unit 23. When the image information of interest is P1, the overlap processing unit 230 searches for image information satisfying a predetermined overlap rate (for example, 20%) from the image information after the image information P1. .. Then, as a result of the search, image information P2 (overlap rate to P1 60%), image information P3 (overlap rate to P1 40%,), and image information P4 (overlap rate to P1 20%) were identified. And. Further, it is assumed that the image quality scores of the image information P2, P3, and P4 specified by the image quality determination processing unit 231 are 10, 30, and 20, respectively.

このとき,オーバーラップ処理部230は,もっとも画質スコアの高い画像情報P3を選択し,出力対象リストに追加をする。 At this time, the overlap processing unit 230 selects the image information P3 having the highest image quality score and adds it to the output target list.

つぎに,オーバーラップ処理部230は,選択した画像情報P3を基準に,画像情報P3へのオーバーラップ率が所定の閾値以上の画像情報を,画像情報P3よりも後の画像情報から探索をする。そして,探索の結果,画像情報P4(P3へのオーバーラップ率80%),画像情報P5(P3へのオーバーラップ率40%,),画像情報P6(P3へのオーバーラップ20%)を特定したとする。また,画質判定処理部231で特定した画像情報P4,P5,P6の画質スコアが20,30,40であったとする。このとき,オーバーラップ処理部230は,もっとも画質スコアの高い画像情報P6を選択し,出力対象リストに追加をする。 Next, the overlap processing unit 230 searches for image information whose overlap rate with the image information P3 is equal to or greater than a predetermined threshold value from the image information after the image information P3, based on the selected image information P3. .. Then, as a result of the search, image information P4 (overlap rate to P3 80%), image information P5 (overlap rate to P3 40%,), and image information P6 (overlap rate to P3 20%) were identified. And. Further, it is assumed that the image quality scores of the image information P4, P5, and P6 specified by the image quality determination processing unit 231 are 20, 30, and 40. At this time, the overlap processing unit 230 selects the image information P6 having the highest image quality score and adds it to the output target list.

つぎに,オーバーラップ処理部230は,選択した画像情報P6を基準に,上述と同様の処理を,後続する画像情報がなくなるまで繰り返す。 Next, the overlap processing unit 230 repeats the same processing as described above based on the selected image information P6 until there is no subsequent image information.

このように,従来であれば,画像情報P1乃至P6の6枚の画像情報があったところ,画像情報P1,画像情報P3,画像情報P6の3枚のみを選択し,画像情報P2,画像情報P4,画像情報P5を間引くことができる。また選択した3枚の画像情報はいずれも画質がオーバーラップしていたほかの画像情報より良いので,3次元モデルの再構成にあたり,精度を向上することもできる。 As described above, conventionally, where there were six image information of image information P1 to P6, only three images of image information P1, image information P3, and image information P6 were selected, and image information P2 and image information were selected. P4 and image information P5 can be thinned out. Moreover, since the three selected image information are all better than the other image information whose image quality overlaps, the accuracy can be improved when reconstructing the three-dimensional model.

なお,オーバーラップ処理部230は,オーバーラップ率の閾値を充足する画像情報のうち,画質判定処理部231で判定した画質スコアがもっともよい画像情報を選択したが,一つに限ることなく,複数の画像情報を選択するようにしても良い。たとえば画質スコアが一定の閾値以上である画像情報を出力対象リストに追加するようにしても良い。複数の画像情報を選択した場合,次の処理の基準とする画像情報としては,選択した画像情報のうち,もっとも後ろにある画像情報を選択することが好ましいがそれに限定しない。 The overlap processing unit 230 selected the image information having the best image quality score determined by the image quality determination processing unit 231 among the image information satisfying the overlap rate threshold value, but the number is not limited to one. The image information of may be selected. For example, image information whose image quality score is equal to or higher than a certain threshold value may be added to the output target list. When a plurality of image information is selected, it is preferable, but not limited to, to select the image information at the end of the selected image information as the image information to be used as the reference for the next processing.

また,オーバーラップによる判定で画像情報を選択する場合,たとえば構造物の隅の方の画像情報など,画像情報の抜けが発生する可能性がある。そこで,画像情報選択処理部23は,撮影領域の周辺にある画像情報であって,出力対象リストに加えていない画像情報を出力対象リストに追加をする処理を実行してもよい。具体的には,出力対象リストに含まれている画像情報がカバーしている撮影領域全体に対し,出力対象リストに含まれていない画像情報から,今の撮影領域全体を拡大することができる画像情報を出力対象リストに追加することで行う。 In addition, when image information is selected by judgment based on overlap, there is a possibility that image information may be omitted, for example, image information in the corner of a structure. Therefore, the image information selection processing unit 23 may execute a process of adding the image information around the shooting area, which is not added to the output target list, to the output target list. Specifically, for the entire shooting area covered by the image information included in the output target list, the entire current shooting area can be enlarged from the image information not included in the output target list. This is done by adding the information to the output target list.

出力処理部24は,出力対象リストにある画像情報を抽出し,3次元モデルの再構成処理などで用いる画像情報として出力をする。たとえばSfMの処理を実行するソフトウェアに出力対象リストにある画像情報を入力する。 The output processing unit 24 extracts the image information in the output target list and outputs it as the image information used in the reconstruction processing of the three-dimensional model or the like. For example, the image information in the output target list is input to the software that executes the SfM process.

つぎに本発明の画像処理システム1を用いた処理プロセスの一例を,図5乃至図7のフローチャートを用いて説明する。 Next, an example of the processing process using the image processing system 1 of the present invention will be described with reference to the flowcharts of FIGS. 5 to 7.

まず3次元モデル化する構造物などの対象物を撮影した画像情報P1乃至Pnを制御コンピュータ2に読み込ませ,画像情報入力受付処理部20でその入力を受け付ける(S100)。この際に,撮影位置等情報がある場合には,画像情報に対応づけてその入力を受け付ける。画像情報入力受付処理部20は,入力を受け付けた画像情報,撮影位置等情報を記憶装置71に記憶させる。 First, the control computer 2 is made to read the image information P1 to Pn obtained by photographing an object such as a structure to be three-dimensionally modeled, and the image information input reception processing unit 20 receives the input (S100). At this time, if there is information such as the shooting position, the input is accepted in association with the image information. The image information input reception processing unit 20 stores the input-received image information, shooting position, and other information in the storage device 71.

そして撮影位置等情報が画像情報に対応づけられていない場合(S110),撮影位置推定処理部21は,撮影位置推定処理を実行する(S120)。 When the information such as the shooting position is not associated with the image information (S110), the shooting position estimation processing unit 21 executes the shooting position estimation process (S120).

具体的には,まず撮影位置推定処理部21は,記憶装置71に記憶した画像情報について,グレースケールに変換をし,また,ファイルの縦,横のサイズを等倍で縮小する。そして,特徴点抽出処理部210は,撮影位置等情報の原点として用いる画像情報P1の特徴点を抽出する(S200)。また画像情報P1の撮影位置およびその撮影方向を基準となる原点として設定する。なお,撮影位置および撮影方向は,担当者による入力を受け付けてもよい。 Specifically, first, the photographing position estimation processing unit 21 converts the image information stored in the storage device 71 into grayscale, and reduces the vertical and horizontal sizes of the file by the same magnification. Then, the feature point extraction processing unit 210 extracts the feature points of the image information P1 used as the origin of the information such as the shooting position (S200). Further, the shooting position of the image information P1 and the shooting direction thereof are set as a reference origin. The shooting position and shooting direction may be input by the person in charge.

そして,特徴点対応検索処理部211は,画像情報P1を第1の比較画像PX,画像情報P1の次の画像情報P2を第2の比較画像PYとして設定する(S220)。また特徴点抽出処理部210は,第2の比較画像PY(画像情報P2)の特徴点を抽出する(S230)。 Then, the feature point correspondence search processing unit 211 sets the image information P1 as the first comparison image PX and the next image information P2 of the image information P1 as the second comparison image PY (S220). Further, the feature point extraction processing unit 210 extracts the feature points of the second comparative image PY (image information P2) (S230).

このように第1の比較画像PX,第2の比較画像PYの特徴点がそれぞれ抽出できると,特徴点対応検索処理部211は,平行移動と回転以外であるベクトルを有する特徴点を削除した上で,第1の比較画像PXの特徴点と,第2の比較画像PYの特徴点とを対応づける射影行列を求める(S240)。 When the feature points of the first comparison image PX and the second comparison image PY can be extracted in this way, the feature point correspondence search processing unit 211 deletes the feature points having a vector other than translation and rotation. Then, the projection matrix that associates the feature points of the first comparative image PX with the feature points of the second comparative image PY is obtained (S240).

そして,相対位置算出処理部212は,射影行列に基づいて第1の比較画像PXの撮影位置から第2の比較画像PYへの移動量を算出し,第2の比較画像PYの相対位置を算出する(S250)。これによって,画像情報P2の画像情報P1の撮影位置に対する相対位置が特定できる。 Then, the relative position calculation processing unit 212 calculates the amount of movement from the shooting position of the first comparative image PX to the second comparative image PY based on the projection matrix, and calculates the relative position of the second comparative image PY. (S250). Thereby, the relative position of the image information P2 with respect to the shooting position of the image information P1 can be specified.

そして,画像情報P2の次に画像情報がある場合(S260),第2の比較画像PYを第1の比較画像PX,第2の比較画像PY(画像情報P2)の次の画像情報P3を第2の比較画像PXとして設定して(S270),S230以降と同様の処理を反復する。 Then, when there is image information next to the image information P2 (S260), the second comparison image PY is the first comparison image PX, and the second comparison image PY (image information P2) is the next image information P3. It is set as the comparison image PX of 2 (S270), and the same processing as after S230 is repeated.

このような処理を実行することで,隣り合う画像情報同士の相対位置が特定できるので,撮影位置推定処理部21は,原点とした画像情報P1の撮影位置等情報に基づいて相対位置を絶対位置に変換することで,各画像情報の撮影位置等情報の絶対位置を推定する。 By executing such processing, the relative positions of adjacent image information can be specified. Therefore, the shooting position estimation processing unit 21 sets the relative position to the absolute position based on the shooting position and other information of the image information P1 as the origin. By converting to, the absolute position of information such as the shooting position of each image information is estimated.

以上のようにして撮影位置推定処理部21で各画像情報の撮影位置等情報の推定処理後,または画像情報に撮影位置等情報が対応づけられている場合(S110),撮影領域算出処理部22が,撮影位置等情報に基づいて,各画像情報P1乃至Pnにおける撮影領域(画像情報が写している領域)を算出する(S130)。 After the shooting position estimation processing unit 21 estimates the shooting position information of each image information as described above, or when the shooting position information is associated with the image information (S110), the shooting area calculation processing unit 22 However, the shooting area (area in which the image information is copied) in each image information P1 to Pn is calculated based on the information such as the shooting position (S130).

撮影領域算出処理部22において,各画像情報P1乃至Pnにおける撮影領域を算出後,画像情報選択処理部23は,不要な画像情報を間引き,必要な画像情報を選択する画像情報選択処理を実行する(S140)。 After the shooting area calculation processing unit 22 calculates the shooting area for each image information P1 to Pn, the image information selection processing unit 23 thins out unnecessary image information and executes an image information selection process for selecting the necessary image information. (S140).

まず画像情報選択処理部23は,基準とする画像情報として画像情報P1を出力対象リストに追加する(S300)。そしてオーバーラップ処理部230は,画像情報P1を注目画像情報Pαに,画像情報P1の撮影領域A1を注目画像情報Pαの撮影領域Aαとして設定する(S310)。 First, the image information selection processing unit 23 adds the image information P1 as the reference image information to the output target list (S300). Then, the overlap processing unit 230 sets the image information P1 as the attention image information Pα and the shooting area A1 of the image information P1 as the shooting area Aα of the attention image information Pα (S310).

そして,オーバーラップ処理部230は,撮影領域Aαへのオーバーラップ率の閾値以上,たとえば20%以上となる撮影領域を有する画像情報を,注目画像情報Pα(画像情報P1)より後の画像情報から探索し,特定する(S320)。図8の場合,画像情報P2(P1へのオーバーラップ率60%),画像情報P3(P1へのオーバーラップ率40%,),画像情報P4(P1へのオーバーラップ20%)を特定したとする。なお,画像情報は連続的であるため,いったん,オーバーラップ率の閾値を充足しない画像情報があった場合,それ以後の画像情報ではオーバーラップ率の閾値を充足することは考えにくい。そのため,オーバーラップ処理部230がオーバーラップ率の閾値を充足しない画像情報があることを判定した場合には,その時点でオーバーラップ率を充足する画像情報の探索を終了してもよい。 Then, the overlap processing unit 230 obtains image information having a shooting area that is equal to or greater than the threshold value of the overlap rate with the imaging region Aα, for example, 20% or more, from the image information after the attention image information Pα (image information P1). Search and identify (S320). In the case of FIG. 8, it is said that the image information P2 (overlap rate to P1 is 60%), the image information P3 (overlap rate to P1 is 40%,), and the image information P4 (overlap rate to P1 is 20%) are specified. do. Since the image information is continuous, once there is image information that does not satisfy the overlap rate threshold value, it is unlikely that the subsequent image information will satisfy the overlap rate threshold value. Therefore, when the overlap processing unit 230 determines that there is image information that does not satisfy the overlap rate threshold value, the search for the image information that satisfies the overlap rate may be completed at that time.

そしてS320においてオーバーラップ率を充足する画像情報を特定すると,画像情報選択処理部23は,画質判定処理部231でスコアリングした画質スコアに基づいて,所定条件を充足する画質スコアを有する画像情報,たとえばもっとも高い画質スコアを有する画像情報を出力対象リストに追加する画像情報として特定し,その画像情報を出力対象リストに追加する(S330)。たとえば,図8において,画質判定処理部231で特定した画像情報P2,P3,P4の画質スコアがそれぞれ10,30,20であったとすると,画像情報P3を出力対象リストに追加する画像情報として特定する。また,出力対象リストに追加した画像情報P3を画像情報Pβ,画像情報P3の撮影領域A3を画像情報Pβの撮影領域Aβとして設定する(S330)。 Then, when the image information satisfying the overlap rate is specified in S320, the image information selection processing unit 23 has the image information having the image quality score satisfying the predetermined condition based on the image quality score scored by the image quality determination processing unit 231. For example, the image information having the highest image quality score is specified as the image information to be added to the output target list, and the image information is added to the output target list (S330). For example, in FIG. 8, assuming that the image quality scores of the image information P2, P3, and P4 specified by the image quality determination processing unit 231 are 10, 30, and 20, respectively, the image information P3 is specified as the image information to be added to the output target list. do. Further, the image information P3 added to the output target list is set as the image information Pβ, and the shooting area A3 of the image information P3 is set as the shooting area Aβ of the image information Pβ (S330).

そして出力対象リストに追加した画像情報P3のあとに画像情報がある場合(S340),画像情報Pβ(画像情報P3)を注目画像情報Pαに,撮影領域Aβを注目画像情報Pαの撮影領域Aα(画像情報P3の撮影領域A3)として設定する(S350)。そして,S320以降の処理を反復する。 When there is image information after the image information P3 added to the output target list (S340), the image information Pβ (image information P3) is set to the attention image information Pα, and the shooting area Aβ is set to the shooting area Aα of the attention image information Pα (S340). It is set as the shooting area A3) of the image information P3 (S350). Then, the processing after S320 is repeated.

オーバーラップ処理部230は,同様の処理を実行する。たとえば図8に示すように,撮影領域Aα(画像情報P3の撮影領域A3)へのオーバーラップ率が20%以上となる撮影領域を有する画像情報を,注目画像情報Pα(画像情報P3)より後の画像情報から探索し,画像情報P4(P3へのオーバーラップ率80%),画像情報P5(P3へのオーバーラップ率40%,),画像情報P6(P3へのオーバーラップ20%)を特定する(S320)。そして,特定した画像情報P4,P5,P6の画質スコアが20,30,40であったとすると,その中から画質スコアに関する条件を充足する画像情報,たとえば画質スコアがもっともよい画像情報P6を出力対象リストに追加する画像情報として特定する(S330)。 The overlap processing unit 230 executes the same processing. For example, as shown in FIG. 8, the image information having a shooting area in which the overlap rate with the shooting area Aα (shooting area A3 of the image information P3) is 20% or more is after the attention image information Pα (image information P3). Image information P4 (overlap rate to P3 80%), image information P5 (overlap rate to P3 40%,), image information P6 (overlap rate to P3 20%) are specified by searching from the image information of. (S320). Then, assuming that the image quality scores of the specified image information P4, P5, and P6 are 20, 30, and 40, the image information satisfying the conditions related to the image quality score, for example, the image information P6 having the best image quality score is output. It is specified as image information to be added to the list (S330).

そして出力対象リストに追加した画像情報P6のあとに画像情報がある場合(S340),画像情報Pβ(画像情報P6)を注目画像情報Pαに,撮影領域Aβを注目画像情報Pαの撮影領域Aα(画像情報P6の撮影領域A6)として設定する(S350)。そして,S320以降の処理を反復する。 When there is image information after the image information P6 added to the output target list (S340), the image information Pβ (image information P6) is set to the attention image information Pα, and the shooting area Aβ is set to the shooting area Aα of the attention image information Pα (S340). It is set as the shooting area A6) of the image information P6 (S350). Then, the processing after S320 is repeated.

画像情報選択処理部23は,以上の処理を,後続する画像情報がなくなるまで繰り返す。 The image information selection processing unit 23 repeats the above processing until there is no subsequent image information.

なお画像情報選択処理部23が選択した画像情報のリストである出力対象リストの情報は,記憶装置71に記憶される。 The output target list information, which is a list of image information selected by the image information selection processing unit 23, is stored in the storage device 71.

画像情報選択処理部23は,S340で後続する画像情報がなくなったことを判定すると,撮影領域の周辺にある画像情報であって,出力対象リストに加えていない画像情報を出力対象リストに追加をする処理を実行する(S360)。この処理としては,担当者が手作業で行ってもよい。 When the image information selection processing unit 23 determines in S340 that the subsequent image information has disappeared, the image information selection processing unit 23 adds the image information around the shooting area, which is not added to the output target list, to the output target list. (S360). This process may be performed manually by the person in charge.

以上のように画像情報選択処理部23による画像情報選択処理の終了後,出力処理部24は,出力対象リストにある画像情報を記憶装置71から抽出して出力する(S150)。たとえばSfMの処理を実行するソフトウェアに画像情報を渡す。 After the image information selection process by the image information selection processing unit 23 is completed as described above, the output processing unit 24 extracts the image information in the output target list from the storage device 71 and outputs it (S150). For example, image information is passed to software that executes SfM processing.

そしてSfMの処理を実行するソフトウェアは,本発明の画像処理システム1から受け取った画像情報に基づいてSfMの処理を実行することで,従来よりも処理時間を短縮して,かつ精度の良い3次元モデルの再構成を行うことができる。 Then, the software that executes the SfM processing executes the SfM processing based on the image information received from the image processing system 1 of the present invention, thereby shortening the processing time and having high accuracy in three dimensions. The model can be reconstructed.

本発明の画像処理システム1を用いることで,対象物の全体を一度に処理するのではなく,部分(たとえば橋梁のうち橋脚部分)に分けて処理を実行することが可能となる。 By using the image processing system 1 of the present invention, it is possible to perform the processing by dividing the entire object into parts (for example, the pier portion of the bridge) instead of processing the entire object at once.

対象物(橋梁の橋脚部分)を撮影したすべての画像情報が141枚の場合について,本発明の画像処理システムによってオーバーラップ率を70%以上として選択した画像情報が70枚となったとき,図9に示す実験結果となった。なお,図9の実験では,CPUとしてIntel Core i7−6850K 3.6GHz,メモリとして64GB,GraphicsとしてNVIDIA GTX1060を3枚,OSとしてWindows10 64bit,三次元化プログラムとしてAgi社PhotoScanVer.1.4.1を用いた。 In the case where all the image information obtained by photographing the object (the pier portion of the bridge) is 141 images, when the image information selected by the image processing system of the present invention with the overlap rate of 70% or more is 70 images, the figure is shown. The experimental results shown in 9 were obtained. In the experiment of FIG. 9, Intel Core i7-6850K 3.6 GHz was used as the CPU, 64 GB was used as the memory, three NVIDIA GTX 1060s were used as the Graphics, Windows 10 64 bits were used as the OS, and PhotoScan Ver. 1.4.1 was used.

図9の実験結果によれば,141枚のすべての画像情報についてSfMの処理を実行した場合の処理時間が4時間24分1秒であるのに対し,本発明の画像処理システム1による処理を用いた場合には,本発明の処理(事前選別処理時間)の処理時間が8分45秒,SfMの処理を実行した場合の処理時間が3時間9分50秒であった。そのため,合計の処理時間でも3時間18分35秒となり,1時間5分26秒(全体の30%程度)の処理時間を短縮できている。図9ではすべての画像が141枚であったが,実際の作業では,たとえば一つの橋梁は5000枚程度の画像情報が3次元モデルの再構成に用いられる。そのため処理時間として3日程度要している。本発明の画像処理システム1を用いて30%程度の処理時間が短縮できれば,2.1日程度の処理時間で足り,大幅な処理時間の短縮となる。 According to the experimental results of FIG. 9, the processing time when the SfM processing is executed for all 141 image information is 4 hours 24 minutes 1 second, whereas the processing by the image processing system 1 of the present invention is performed. When used, the processing time of the processing (pre-sorting processing time) of the present invention was 8 minutes and 45 seconds, and the processing time when the SfM processing was executed was 3 hours and 9 minutes and 50 seconds. Therefore, the total processing time is 3 hours 18 minutes 35 seconds, and the processing time of 1 hour 5 minutes 26 seconds (about 30% of the total) can be shortened. In FIG. 9, all the images were 141 images, but in the actual work, for example, about 5000 images of one bridge are used for reconstructing the three-dimensional model. Therefore, it takes about 3 days as the processing time. If the processing time can be shortened by about 30% using the image processing system 1 of the present invention, the processing time of about 2.1 days is sufficient, and the processing time can be significantly reduced.

また図9の実験結果で出力した際の,橋梁の橋脚部分の3次元モデルが図10である。図10(a)が141枚のすべての画像情報を用いてSfMの処理を実行した場合であり,図10(b)が本発明の処理によって出力した70枚の画像情報を用いてSfMの処理を実行した場合である。本発明の処理によって画像情報を選択したとしても,3次元モデルを再構成できる。 Further, FIG. 10 shows a three-dimensional model of the pier portion of the bridge when the experimental result of FIG. 9 is output. FIG. 10A shows a case where the SfM process is executed using all 141 image information, and FIG. 10B shows the SfM process using the 70 image information output by the process of the present invention. Is executed. Even if the image information is selected by the process of the present invention, the three-dimensional model can be reconstructed.

本発明の画像処理システム1は,SfMの処理のほか,複数の画像情報に基づいて一つの画像情報やモデルを再構成する場合,たとえば構造物の写真をパノラマ合成する場合などにも適用できる。 The image processing system 1 of the present invention can be applied not only to SfM processing but also to the case of reconstructing one image information or model based on a plurality of image information, for example, the case of panoramic composition of photographs of structures.

また,機械学習用の正解データの作成処理にも用いることができる。すなわち,画像情報に写っている物体を認識するための機械学習をさせるには,画像情報のどこに何が写っているのかの正解データを用意しなければならない。この正解データの作成の際に,物体を撮影した画像情報から同じような画像情報(オーバーラップ率が大きく変化のない画像情報)を取り除いて正解データを作成する作業を効率化する処理にも適用することができる。 It can also be used to create correct answer data for machine learning. That is, in order to perform machine learning for recognizing an object reflected in the image information, it is necessary to prepare correct answer data of what is reflected in the image information. When creating this correct answer data, it is also applied to the process of removing similar image information (image information with a large overlap rate and no change) from the image information of the captured object to streamline the work of creating the correct answer data. can do.

本発明の画像処理システム1を発明することで,3次元モデルの再構成に要する処理時間の短縮を図ることができる。また,画質を加味した画像情報を選択することで,3次元モデルの再構成についても精度の向上を図ることができる。 By inventing the image processing system 1 of the present invention, the processing time required for reconstructing the three-dimensional model can be shortened. Further, by selecting the image information in consideration of the image quality, it is possible to improve the accuracy of the reconstruction of the three-dimensional model.

1:画像処理システム
2:制御コンピュータ
20:画像情報入力受付処理部
21:撮影位置推定処理部
22:撮影領域算出処理部
23:画像情報選択処理部
24:出力処理部
70:演算装置
71:記憶装置
72:表示装置
73:入力装置
74:通信装置
210:特徴点抽出処理部
211:特徴点対応検索処理部
212:相対位置算出処理部
230:オーバーラップ処理部
231:画質判定処理部
1: Image processing system 2: Control computer 20: Image information input reception processing unit 21: Shooting position estimation processing unit 22: Shooting area calculation processing unit 23: Image information selection processing unit 24: Output processing unit 70: Computing device 71: Storage Device 72: Display device 73: Input device 74: Communication device 210: Feature point extraction processing unit 211: Feature point correspondence search processing unit 212: Relative position calculation processing unit 230: Overlap processing unit 231: Image quality determination processing unit

Claims (8)

対象物をモデル化するために用いる複数の画像情報に対する画像処理システムであって,
前記画像処理システムは,
前記複数の画像情報の入力を受け付ける画像情報入力受付処理部と,
前記入力を受け付けた画像情報のうち,基準とする画像情報の撮影領域との重複度合いに関する条件を充足する画像情報を特定するオーバーラップ処理部と,
前記画像情報の画質の判定を行う画質判定処理部と,を有しており,
前記オーバーラップ処理部において特定した画像情報のうち,前記画質判定処理部で判定した結果を用いて,画質に関する条件を充足する画像情報を特定し,その画像情報を出力対象として選択する,
ことを特徴とする画像処理システム。
An image processing system for multiple image information used to model an object.
The image processing system is
An image information input reception processing unit that accepts the input of a plurality of image information, and an image information input reception processing unit.
Of the image information that has received the input, the overlap processing unit that specifies the image information that satisfies the condition regarding the degree of overlap of the reference image information with the shooting area, and the overlap processing unit.
It has an image quality determination processing unit that determines the image quality of the image information.
Of the image information specified by the overlap processing unit, the image information that satisfies the conditions related to image quality is specified by using the result determined by the image quality determination processing unit, and the image information is selected as an output target.
An image processing system characterized by this.
前記画像処理システムは,
前記入力を受け付けた画像情報に撮影位置等情報が対応づけられていない場合には,撮影位置等情報を推定する撮影位置推定処理部,
を有することを特徴とする請求項1に記載の画像処理システム。
The image processing system is
When the information such as the shooting position is not associated with the image information that has received the input, the shooting position estimation processing unit that estimates the information such as the shooting position,
The image processing system according to claim 1, wherein the image processing system comprises.
前記撮影位置推定処理部は,
比較対象とする画像情報のそれぞれの特徴点を対応づけることでその移動量を算出し,前記算出した移動量を用いて相対位置を算出することで画像情報の撮影位置等情報を推定する,
ことを特徴とする請求項2に記載の画像処理システム。
The shooting position estimation processing unit
The amount of movement is calculated by associating each feature point of the image information to be compared, and the relative position is calculated using the calculated amount of movement to estimate information such as the shooting position of the image information.
The image processing system according to claim 2, wherein the image processing system is characterized by the above.
前記画像処理システムは,
画像情報における撮影位置等情報を用いて,その画像情報における撮影領域を算出する撮影領域算出処理部,
を有することを特徴とする請求項2または請求項3に記載の画像処理システム。
The image processing system is
Shooting area calculation processing unit that calculates the shooting area in the image information using information such as the shooting position in the image information,
The image processing system according to claim 2 or 3, wherein the image processing system has.
画像処理システムであって,
対象物を撮影した複数の画像情報の入力を受け付ける画像情報入力受付処理部と,
前記複数の画像情報から画像情報を選択する画像情報選択処理部と,を有しており,
前記画像情報選択処理部は,
画像情報の撮影領域の重複度合いに関する条件を充足する画像情報のうち,画質に関する条件を充足する画像情報を選択する,
ことを特徴とする画像処理システム。
It is an image processing system
An image information input reception processing unit that accepts input of multiple image information of an object, and
It has an image information selection processing unit that selects image information from the plurality of image information.
The image information selection processing unit is
Select the image information that satisfies the condition related to image quality from the image information that satisfies the condition related to the degree of duplication of the shooting area of the image information.
An image processing system characterized by this.
前記画像処理システムは,
前記画像情報選択処理部で選択した画像情報を,画像情報に基づいて対象物のモデル化の処理を実行するソフトウェアに出力する出力処理部,
を有することを特徴とする請求項1から請求項5のいずれかに記載の画像処理システム。
The image processing system is
An output processing unit that outputs the image information selected by the image information selection processing unit to software that executes modeling processing of an object based on the image information.
The image processing system according to any one of claims 1 to 5, wherein the image processing system has.
コンピュータを,
対象物をモデル化するために用いる複数の画像情報の入力を受け付ける画像情報入力受付処理部,
前記入力を受け付けた画像情報のうち,基準とする画像情報の撮影領域との重複度合いに関する条件を充足する画像情報を特定するオーバーラップ処理部,
前記画像情報の画質の判定を行う画質判定処理部,
として機能させる画像処理プログラムであって,
前記オーバーラップ処理部において特定した画像情報のうち,前記画質判定処理部で判定した結果を用いて,画質に関する条件を充足する画像情報を特定し,その画像情報を出力対象として選択する,
ことを特徴とする画像処理プログラム。
Computer,
Image information input reception processing unit that accepts input of multiple image information used to model an object,
An overlap processing unit that specifies image information that satisfies the condition regarding the degree of overlap of the reference image information with the shooting area among the image information that has received the input.
Image quality determination processing unit that determines the image quality of the image information,
It is an image processing program that functions as
Of the image information specified by the overlap processing unit, the image information that satisfies the conditions related to image quality is specified by using the result determined by the image quality determination processing unit, and the image information is selected as an output target.
An image processing program characterized by this.
コンピュータを,
対象物を撮影した複数の画像情報の入力を受け付ける画像情報入力受付処理部,
前記複数の画像情報から画像情報を選択する画像情報選択処理部,
として機能させる画像処理プログラムであって,
前記画像情報選択処理部は,
画像情報の撮影領域の重複度合いに関する条件を充足する画像情報のうち,画質に関する条件を充足する画像情報を選択する,
ことを特徴とする画像処理プログラム。
Computer,
Image information input reception processing unit that accepts input of multiple image information of an object,
Image information selection processing unit that selects image information from the plurality of image information,
It is an image processing program that functions as
The image information selection processing unit is
Select the image information that satisfies the condition related to image quality from the image information that satisfies the condition related to the degree of duplication of the shooting area of the image information.
An image processing program characterized by this.
JP2020537904A 2018-08-20 2018-08-20 Image processing system Active JP6910622B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/030642 WO2020039470A1 (en) 2018-08-20 2018-08-20 Image processing system

Publications (2)

Publication Number Publication Date
JP6910622B2 JP6910622B2 (en) 2021-07-28
JPWO2020039470A1 true JPWO2020039470A1 (en) 2021-08-10

Family

ID=69592502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020537904A Active JP6910622B2 (en) 2018-08-20 2018-08-20 Image processing system

Country Status (2)

Country Link
JP (1) JP6910622B2 (en)
WO (1) WO2020039470A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2022181024A1 (en) * 2021-02-26 2022-09-01

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011139367A (en) * 2009-12-28 2011-07-14 Canon Inc Apparatus and method for processing image
JP2017182695A (en) * 2016-03-31 2017-10-05 富士通株式会社 Information processing program, information processing method, and information processing apparatus
JP2018090982A (en) * 2016-11-30 2018-06-14 国際航業株式会社 Inspection device and inspection method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011139367A (en) * 2009-12-28 2011-07-14 Canon Inc Apparatus and method for processing image
JP2017182695A (en) * 2016-03-31 2017-10-05 富士通株式会社 Information processing program, information processing method, and information processing apparatus
JP2018090982A (en) * 2016-11-30 2018-06-14 国際航業株式会社 Inspection device and inspection method

Also Published As

Publication number Publication date
WO2020039470A1 (en) 2020-02-27
JP6910622B2 (en) 2021-07-28

Similar Documents

Publication Publication Date Title
CN109003325B (en) Three-dimensional reconstruction method, medium, device and computing equipment
JP7403528B2 (en) Method and system for reconstructing color and depth information of a scene
KR100793838B1 (en) Appratus for findinng the motion of camera, system and method for supporting augmented reality in ocean scene using the appratus
JP6491517B2 (en) Image recognition AR device, posture estimation device, and posture tracking device
CN107274337B (en) Image splicing method based on improved optical flow
US9542735B2 (en) Method and device to compose an image by eliminating one or more moving objects
CN109472820B (en) Monocular RGB-D camera real-time face reconstruction method and device
US20120212573A1 (en) Method, terminal and computer-readable recording medium for generating panoramic images
WO2017091927A1 (en) Image processing method and dual-camera system
US10785469B2 (en) Generation apparatus and method for generating a virtual viewpoint image
JP2014003520A (en) Image processing device and imaging device equipped with image processing device, image processing method, and image processing program
US20210295467A1 (en) Method for merging multiple images and post-processing of panorama
JP5439277B2 (en) Position / orientation measuring apparatus and position / orientation measuring program
US20190228563A1 (en) Image processing apparatus, image processing method, and storage medium
WO2023093739A1 (en) Multi-view three-dimensional reconstruction method
CN105809664B (en) Method and device for generating three-dimensional image
KR101593316B1 (en) Method and apparatus for recontructing 3-dimension model using stereo camera
CN111080776A (en) Processing method and system for human body action three-dimensional data acquisition and reproduction
CN103700082B (en) Image split-joint method based on dual quaterion relative orientation
CN111105452A (en) High-low resolution fusion stereo matching method based on binocular vision
JP6910622B2 (en) Image processing system
US9098746B2 (en) Building texture extracting apparatus and method thereof
KR101566459B1 (en) Concave surface modeling in image-based visual hull
CN115239559A (en) Depth map super-resolution method and system for fusion view synthesis
CN113034345B (en) Face recognition method and system based on SFM reconstruction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210629

R150 Certificate of patent or registration of utility model

Ref document number: 6910622

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250