JP2021103126A - Information processing device, photographing support method and photographing support program - Google Patents

Information processing device, photographing support method and photographing support program Download PDF

Info

Publication number
JP2021103126A
JP2021103126A JP2019234530A JP2019234530A JP2021103126A JP 2021103126 A JP2021103126 A JP 2021103126A JP 2019234530 A JP2019234530 A JP 2019234530A JP 2019234530 A JP2019234530 A JP 2019234530A JP 2021103126 A JP2021103126 A JP 2021103126A
Authority
JP
Japan
Prior art keywords
image
images
inspection target
generated
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019234530A
Other languages
Japanese (ja)
Other versions
JP2021103126A5 (en
Inventor
昭宗 板橋
Akimune Itabashi
昭宗 板橋
光則 緒方
Mitsunori Ogata
光則 緒方
あづさ 松本
Azusa Matsumoto
あづさ 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Original Assignee
Canon Marketing Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc filed Critical Canon Marketing Japan Inc
Priority to JP2019234530A priority Critical patent/JP2021103126A/en
Publication of JP2021103126A publication Critical patent/JP2021103126A/en
Publication of JP2021103126A5 publication Critical patent/JP2021103126A5/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Processing (AREA)

Abstract

To determine whether an image detective area occurs in a combined image of an inspection object in a photographing process.SOLUTION: An information processing device 1 is used in a photographing process for photographing an inspection object in state change analysis for detecting state change of the inspection object by analyzing a combined image obtained by combining a plurality of images obtained by photographing the inspection object. The information processing device 1 includes an acquisition part 32 for acquiring a plurality of images acquired by two-dimensionally or three-dimensionally moving a photographing device so as to generate an overlapping area in a photographing range with respect to the inspection object as an image group, and a determination part 33 for using images included in the image group acquired by the acquisition part 32 to determine whether an image detective area occurs in a combined image generated from the image group.SELECTED DRAWING: Figure 8

Description

本発明は、情報処理装置及び撮影支援方法並びに撮影支援プログラムに関するものである。 The present invention relates to an information processing device, a shooting support method, and a shooting support program.

従来、ダム、橋梁、トンネル等のコンクリート壁面やビル等のコンクリート床面等、構造物の点検において、点検対象をカメラで撮像し、取得した画像を解析することによりひび割れ等の変状を検出することが行われている(例えば、特許文献1参照)。 Conventionally, in the inspection of structures such as concrete walls such as dams, bridges and tunnels and concrete floors such as buildings, the inspection target is imaged with a camera and the acquired image is analyzed to detect deformation such as cracks. Is being done (see, for example, Patent Document 1).

特開2019−114238号公報Japanese Unexamined Patent Publication No. 2019-14238

点検対象物が大型の場合、一枚の画像では解像度が十分でなく、十分な精度の変状検出を行うことができない。このため、例えば、画角に重畳領域が生じるようにカメラを移動させながら撮像を行うことで高精細な多数の画像を取得し、取得した画像を結合した結合画像を用いて画像解析を行い、変状を検出することが行われている。 When the object to be inspected is large, the resolution of one image is not sufficient, and it is not possible to detect deformation with sufficient accuracy. Therefore, for example, a large number of high-definition images are acquired by performing imaging while moving the camera so that a superposed region is generated at the angle of view, and image analysis is performed using the combined image obtained by combining the acquired images. Deformation is being detected.

画像の結合処理は、互いに隣接する画像を結合することで行われる。しかしながら、隣接する画像の重畳領域が少ない場合には、画像結合のための十分な情報を得ることができず、画像結合ができない場合がある。この場合、構造物全体を表す結合画像に画像欠陥領域が生じてしまう。 The image combination process is performed by combining images that are adjacent to each other. However, when the overlapping region of adjacent images is small, sufficient information for image combination cannot be obtained, and image combination may not be possible. In this case, an image defect region is generated in the combined image representing the entire structure.

特に、ダムや橋梁等の比較的大型な構造物では、撮影にドローンを用いることもあり、風の影響等を受けることにより安定した推進制御が難しく、予定通りの飛行進路で画像を取得することが難しいといった問題がある。このような場合には、結合画像に画像欠陥領域が生じる可能性も更に高くなる。 In particular, for relatively large structures such as dams and bridges, drones may be used for shooting, and stable propulsion control is difficult due to the influence of wind, etc., so it is necessary to acquire images in the planned flight course. There is a problem that it is difficult. In such a case, there is a higher possibility that an image defect region will occur in the combined image.

点検対象の構造物がダムや橋梁等の場合、撮影を行う撮影過程と、取得した画像を基に画像結合処理を行う画像結合過程とは、別日程で組まれることが一般的である。したがって、画像結合過程で結合画像に画像欠陥領域が生じてしまった場合には、画像欠陥領域に対応する部分の構造物の画像を再度取得しなければならず、撮影日程の再調整等が必要となり、欠陥解析までの工数が増えてしまう。 When the structure to be inspected is a dam, a bridge, or the like, the shooting process of taking a picture and the image joining process of performing an image joining process based on the acquired image are generally set up on different schedules. Therefore, if an image defect region is generated in the combined image in the image combination process, the image of the structure corresponding to the image defect region must be acquired again, and it is necessary to readjust the shooting schedule or the like. Therefore, the man-hours required for defect analysis will increase.

本発明は、このような事情に鑑みてなされたものであって、変状検出のための画像解析に用いられる結合画像に画像欠陥領域が生じることを回避することのできる情報処理装置及び撮影支援方法並びに撮影支援プログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and is an information processing device and an imaging support capable of avoiding the occurrence of an image defect region in a combined image used for image analysis for detecting deformation. The purpose is to provide methods and photography support programs.

本発明の第1態様は、点検対象を撮影した複数の画像を結合した結合画像を解析することにより、前記点検対象の変状を検出する変状解析において、前記点検対象を撮影する撮影過程で用いられる情報処理装置であって、前記点検対象に対し、撮影範囲に重畳領域が生じるように撮像手段を二次元又は三次元的に移動させることによって取得された複数の画像を画像群として取得する取得手段と、前記取得手段により取得された前記画像群に含まれる画像を用いて、前記画像群から生成される結合画像に画像欠陥領域が生じるか否かを判定する判定手段とを備える情報処理装置である。 The first aspect of the present invention is in the process of photographing the inspection target in the deformation analysis of detecting the deformation of the inspection target by analyzing the combined image obtained by combining a plurality of images of the inspection target. The information processing apparatus used, which acquires a plurality of images acquired by moving the imaging means two-dimensionally or three-dimensionally so as to generate a superposed region in the imaging range with respect to the inspection target as an image group. Information processing including an acquisition means and a determination means for determining whether or not an image defect region occurs in a combined image generated from the image group by using an image included in the image group acquired by the acquisition means. It is a device.

本発明の第2態様は、点検対象を撮影した複数の画像を結合する第1画像結合処理を実行し、前記第1画像結合処理で生成された結合画像を解析することにより、前記点検対象の変状を検出する変状解析において、前記点検対象を撮影する撮影過程で用いられる情報処理装置であって、前記点検対象に対し、撮影範囲に重畳領域が生じるように撮像手段を二次元又は三次元的に移動させることによって取得された複数の画像を画像群として取得する取得手段と、前記第1画像結合処理よりも処理量の少ない第2画像結合処理を実行し、前記取得手段によって取得された前記画像群に含まれる画像から結合画像を生成する結合画像生成手段と、生成された前記結合画像を表示する表示手段とを備える情報処理装置である。 In the second aspect of the present invention, the inspection target is subjected to the first image combination processing of combining a plurality of images of the inspection target, and the combined image generated by the first image combination process is analyzed. An information processing device used in the imaging process of photographing the inspection target in the deformation analysis for detecting the deformation, and the imaging means is set to be two-dimensional or tertiary so that an overlapping region is generated in the imaging range with respect to the inspection target. An acquisition means for acquiring a plurality of images originally acquired by moving them as an image group and a second image combination process in which the amount of processing is smaller than that of the first image combination process are executed and acquired by the acquisition means. It is an information processing apparatus including a combined image generation means for generating a combined image from an image included in the image group, and a display means for displaying the generated combined image.

本発明の第3態様は、点検対象を撮影した複数の画像を結合した結合画像を解析することにより、前記点検対象の変状を検出する変状解析において、前記点検対象を撮影する撮影過程で実行される撮影支援方法であって、前記点検対象に対し、撮影範囲に重畳領域が生じるように撮像手段を二次元又は三次元的に移動させることによって取得された複数の画像を画像群として取得する工程と、前記画像群に含まれる画像を用いて、前記画像群から生成される結合画像に画像欠陥領域が生じるか否かを判定する工程とをコンピュータが実行する撮影支援方法である。 A third aspect of the present invention is in the process of photographing the inspection target in the deformation analysis for detecting the deformation of the inspection target by analyzing the combined image obtained by combining a plurality of images of the inspection target. This is an image shooting support method to be executed, and a plurality of images acquired by moving the imaging means two-dimensionally or three-dimensionally so as to generate a superposed area in the photographing range are acquired as an image group with respect to the inspection target. This is a photographing support method in which a computer executes a step of determining whether or not an image defect region occurs in a combined image generated from the image group by using the image included in the image group.

本発明の第4態様は、点検対象を撮影した複数の画像を結合する第1画像結合処理を実行し、前記第1画像結合処理で生成された結合画像を解析することにより、前記点検対象の変状を検出する変状解析において、前記点検対象を撮影する撮影過程で実行される撮影支援方法であって、前記点検対象に対し、撮影範囲に重畳領域が生じるように撮像手段を二次元又は三次元的に移動させることによって取得された複数の画像を画像群として取得する工程と、前記第1画像結合処理よりも処理量の少ない第2画像結合処理を実行し、前記画像群に含まれる画像から結合画像を生成する工程と、生成された前記結合画像を表示する工程とをコンピュータが実行する撮影支援方法である。 A fourth aspect of the present invention is to execute a first image combination process of combining a plurality of images of an inspection target, and analyze the combined image generated by the first image combination process to obtain the inspection target. In the deformation analysis for detecting deformation, it is a shooting support method executed in the shooting process of shooting the inspection target, and the imaging means is two-dimensional or the imaging means is set so as to generate an overlapping region in the shooting range with respect to the inspection target. A step of acquiring a plurality of images acquired by three-dimensionally moving them as an image group and a second image combining process in which the amount of processing is smaller than that of the first image combining process are executed and included in the image group. This is a shooting support method in which a computer executes a step of generating a combined image from an image and a step of displaying the generated combined image.

本発明の第5態様は、点検対象を撮影した複数の画像を結合した結合画像を解析することにより、前記点検対象の変状を検出する変状解析において、前記点検対象を撮影する撮影過程において実行される撮影支援プログラムであって、前記点検対象に対し、撮影範囲に重畳領域が生じるように撮像手段を二次元又は三次元的に移動させることによって取得された複数の画像を画像群として取得する処理と、前記画像群に含まれる画像を用いて、前記画像群から生成される結合画像に画像欠陥領域が生じるか否かを判定する処理とをコンピュータに実行させるための撮影支援プログラムである。 A fifth aspect of the present invention is in a deformation analysis for detecting a deformation of the inspection target by analyzing a combined image obtained by combining a plurality of images of the inspection target, in a photographing process of photographing the inspection target. An image shooting support program to be executed, in which a plurality of images acquired by moving the imaging means two-dimensionally or three-dimensionally so as to generate a superposed area in the photographing range are acquired as an image group with respect to the inspection target. This is a shooting support program for causing a computer to perform a process of performing the process and a process of determining whether or not an image defect region is generated in the combined image generated from the image group by using the image included in the image group. ..

本発明の第6態様は、点検対象を撮影した複数の画像を結合する第1画像結合処理を実行し、前記第1画像結合処理で生成された結合画像を解析することにより、前記点検対象の変状を検出する変状解析において、前記点検対象を撮影する撮影過程において実行される撮影支援プログラムであって、前記点検対象に対し、撮影範囲に重畳領域が生じるように撮像手段を二次元又は三次元的に移動させることによって取得された複数の画像を画像群として取得する処理と、前記第1画像結合処理よりも処理量の少ない第2画像結合処理を実行し、前記画像群に含まれる画像から結合画像を生成する処理と、生成された前記結合画像を表示させる処理とをコンピュータに実行させるための撮影支援プログラムである。 A sixth aspect of the present invention is to execute a first image combination process of combining a plurality of images of an inspection target, and analyze the combined image generated by the first image combination process to obtain the inspection target. In the deformation analysis for detecting deformation, it is a shooting support program executed in the shooting process of shooting the inspection target, and the imaging means is set in two dimensions or the imaging means is set so that an overlapping region is generated in the shooting range with respect to the inspection target. A process of acquiring a plurality of images acquired by moving three-dimensionally as an image group and a second image combination process in which the amount of processing is smaller than that of the first image combination process are executed and included in the image group. This is a shooting support program for causing a computer to execute a process of generating a combined image from an image and a process of displaying the generated combined image.

本発明によれば、変状検出のための画像解析に用いられる結合画像に画像欠陥領域が生じることを回避することができるという効果を奏する。 According to the present invention, it is possible to prevent an image defect region from being generated in a combined image used for image analysis for detecting deformation.

本発明の第1実施形態に係る変状解析方法の概略工程を示した図である。It is a figure which showed the schematic process of the deformation analysis method which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る点検対象(構造物)及び点検対象に対して予め設定された移動経路の一例を模式的に示した図である。It is a figure which showed typically an example of the inspection object (structure) which concerns on 1st Embodiment of this invention, and the movement path set in advance with respect to the inspection object. 本発明の第1実施形態に係る撮影過程において、予め設定された移動経路に沿って撮影が行われた場合に取得される画像の画角の一例を模式的に示した図である。It is a figure which showed typically an example of the angle of view of the image acquired when the image is taken along the preset movement path in the image-taking process which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る情報処理装置のハードウェア構成を示した図である。It is a figure which showed the hardware configuration of the information processing apparatus which concerns on 1st Embodiment of this invention. 予め設定された移動経路に対して実際の移動軌跡がずれてしまう場合を模式的に示した図である。It is a figure which showed typically the case where the actual movement locus deviates from the preset movement path. 予め設定された移動経路に対して実際の移動軌跡がずれてしまった場合の画角を模式的に示した図である。It is a figure which showed typically the angle of view when the actual movement locus deviates from the preset movement path. 結合画像に発生する画像欠陥領域の一例を模式的に示した図である。It is a figure which showed typically an example of the image defect region generated in the combined image. 本発明の第1実施形態に係る情報処理装置が備える撮影支援機能を示した機能構成図である。It is a functional block diagram which showed the photographing support function provided in the information processing apparatus which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る処理対象領域の一例を模式的に示した図である。It is a figure which showed typically an example of the processing target area which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る撮影支援方法の処理手順の一例を示したフローチャートである。It is a flowchart which showed an example of the processing procedure of the photographing support method which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る撮影支援方法の処理手順の他の例を示したフローチャートである。It is a flowchart which showed the other example of the processing procedure of the photographing support method which concerns on 1st Embodiment of this invention. 本発明の第2実施形態に係る情報処理装置が備える撮影支援機能を示した機能構成図である。It is a functional block diagram which showed the photographing support function provided in the information processing apparatus which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る特定部によって実現される処理内容について説明するための図である。It is a figure for demonstrating the processing content realized by the specific part which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る撮影支援方法の処理手順の一例を示したフローチャートである。It is a flowchart which showed an example of the processing procedure of the photographing support method which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る撮影支援方法の処理手順の一例を示したフローチャートである。It is a flowchart which showed an example of the processing procedure of the photographing support method which concerns on 2nd Embodiment of this invention. 本発明の第3実施形態に係る情報処理装置が備える撮影支援機能を示した機能構成図である。It is a functional block diagram which showed the photographing support function provided in the information processing apparatus which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る撮影支援方法の処理手順の一例を示したフローチャートである。It is a flowchart which showed an example of the processing procedure of the photographing support method which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る撮影支援方法の処理手順の一例を示したフローチャートである。It is a flowchart which showed an example of the processing procedure of the photographing support method which concerns on 3rd Embodiment of this invention.

〔第1実施形態〕
以下に、本発明の第1実施形態に係る情報処理装置及び撮影支援方法並びに撮影支援プログラムについて、図面を参照して説明する。
図1は、本実施形態に係る変状解析方法の概略工程を示した図である。図1に示すように、変状解析方法は、撮影過程(SA1)、結合画像生成過程(SA2)、画像解析過程(SA3)、及び解析結果出力過程(SA4)を有している。
[First Embodiment]
Hereinafter, the information processing apparatus, the photographing support method, and the photographing support program according to the first embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a schematic process of a deformation analysis method according to the present embodiment. As shown in FIG. 1, the deformation analysis method includes a photographing process (SA1), a combined image generation process (SA2), an image analysis process (SA3), and an analysis result output process (SA4).

撮影過程では、点検対象となる構造物の撮影を行う。撮影は、例えば、予め設定された移動経路に沿うようにカメラ等の撮像装置を移動させ、多数の画像を取得する。撮影過程で取得された画像は、情報処理装置1(図4参照)に一旦取り込まれ、ここで所定の前処理が行われた後、クラウドサーバや記録媒体に記録され、後段の結合画像生成過程にて利用される。なお、撮影過程の詳細は後述する。 In the shooting process, the structure to be inspected is photographed. For shooting, for example, an imaging device such as a camera is moved along a preset movement path to acquire a large number of images. The image acquired in the shooting process is once taken into the information processing device 1 (see FIG. 4), subjected to predetermined preprocessing here, and then recorded on a cloud server or a recording medium, and the combined image generation process in the subsequent stage. It is used in. The details of the shooting process will be described later.

結合画像生成過程では、撮影過程で取得された複数の画像を結合し、結合画像を生成する。点検対象となる構造物が大型であるほど、撮影過程で取得される画像の枚数は膨大となるので、結合画像生成に要する時間も膨大となり、例えば、数日間にわたって処理が行われることもある。
結合画像生成過程は、例えば、撮影過程とは異なる場所で行われるため、結合画像生成過程で用いられる情報処理装置は、例えば、撮影過程で用いられる情報処理装置1(図4参照)とは異なる端末とされる。
結合画像生成過程は、情報処理装置が画像結合処理(第1画像結合処理)のための画像結合プログラムを実行することにより実現される。
In the combined image generation process, a plurality of images acquired in the shooting process are combined to generate a combined image. The larger the structure to be inspected, the larger the number of images acquired in the shooting process, and the longer the time required to generate the combined image. For example, the processing may be performed for several days.
Since the combined image generation process is performed at a place different from the imaging process, for example, the information processing device used in the combined image generation process is different from the information processing device 1 (see FIG. 4) used in the imaging process, for example. It is said to be a terminal.
The combined image generation process is realized by the information processing apparatus executing an image combining program for the image combining process (first image combining process).

画像解析過程では、結合画像生成過程で生成された結合画像を画像解析することにより、構造物の変状が検出される。画像解析過程は、情報処理装置が画像解析プログラムを実行することにより実現される。 In the image analysis process, deformation of the structure is detected by image analysis of the combined image generated in the combined image generation process. The image analysis process is realized by the information processing apparatus executing an image analysis program.

解析結果出力過程では、画像解析過程で得られた解析結果、すなわち、変状解析結果が表示装置などに表示されることで、変状解析結果が作業員等に通知される。 In the analysis result output process, the analysis result obtained in the image analysis process, that is, the deformation analysis result is displayed on a display device or the like, so that the worker or the like is notified of the deformation analysis result.

上記結合画像生成過程、画像解析過程、及び解析結果出力過程は、公知の技術を適宜採用し、実現することが可能である。 The combined image generation process, the image analysis process, and the analysis result output process can be realized by appropriately adopting known techniques.

次に、上述した撮影過程(SA1)について、図面を参照してより詳しく説明する。
図2は、点検対象(構造物)及び点検対象に対して予め設定された移動経路の一例を模式的に示した図である。ここで、点検対象は、構造体であり、一例として、ダム、橋梁、トンネル等のコンクリート壁面や、ビル等のコンクリート床面等が挙げられる。図2に示すように、撮影過程では、点検対象に対して予め設定された移動経路に沿うようにカメラ等の撮像装置を移動させ、多数の画像を取得する。このとき、図3に示すように、移動方向であるオーバーラップ方向及び移動方向に直交する方向であるサイドラップ方向において、撮影範囲(画角)に重畳領域が生じるように画像の取得が行われる。
撮影は、例えば、カメラを搭載した自走式ロボットを移動経路に沿って二次元的に移動させることによって行ってもよいし、カメラを搭載したドローンを人の操作により移動経路に沿って二次元的又は三次元的に移動させることによって行ってもよい。
Next, the above-mentioned photographing process (SA1) will be described in more detail with reference to the drawings.
FIG. 2 is a diagram schematically showing an example of an inspection target (structure) and a movement route preset for the inspection target. Here, the inspection target is a structure, and examples thereof include concrete walls such as dams, bridges, and tunnels, and concrete floors such as buildings. As shown in FIG. 2, in the photographing process, an imaging device such as a camera is moved along a movement path set in advance with respect to the inspection target, and a large number of images are acquired. At this time, as shown in FIG. 3, the image is acquired so that a superposed region is generated in the shooting range (angle of view) in the overlapping direction which is the moving direction and the side wrap direction which is the direction orthogonal to the moving direction. ..
Shooting may be performed, for example, by moving a self-propelled robot equipped with a camera two-dimensionally along a moving path, or by manipulating a drone equipped with a camera two-dimensionally along the moving path. It may be done by moving the target or three-dimensionally.

撮影によって取得された画像は、識別番号(ファイル番号)、撮影時刻等と紐づけられて、例えば、カメラ内の記録媒体に保存される。そして、記録媒体の残りデータ量が所定値を切ると、新しい記録媒体と交換され、撮影が継続される。
また、画像が記録された記録媒体は、撮影過程で用いられる情報処理装置1(図4参照)に接続されることで、記録媒体に記録された画像が情報処理装置1に取り込まれる。以下、一つの記録媒体に記録された画像群を「サブ画像群」といい、「サブ画像群」に対応する点検対象の領域を「サブ領域」という。換言すると、「サブ領域」は、点検対象全体の一部の領域に相当し、「サブ画像群」は、点検対象全体の一部の領域に対応する複数の画像から構成される。そして、複数のサブ画像群によって点検対象全体の画像が構成される。
The image acquired by shooting is associated with the identification number (file number), shooting time, etc., and is stored in, for example, a recording medium in the camera. Then, when the amount of remaining data on the recording medium falls below a predetermined value, the data is replaced with a new recording medium and shooting is continued.
Further, the recording medium on which the image is recorded is connected to the information processing device 1 (see FIG. 4) used in the photographing process, so that the image recorded on the recording medium is taken into the information processing device 1. Hereinafter, the image group recorded on one recording medium is referred to as a "sub-image group", and the area to be inspected corresponding to the "sub-image group" is referred to as a "sub-area". In other words, the "sub-region" corresponds to a part of the entire inspection target, and the "sub-image group" is composed of a plurality of images corresponding to a part of the entire inspection target. Then, an image of the entire inspection target is composed of a plurality of sub-image groups.

取り込まれたサブ画像群は、例えば、情報処理装置1内の記憶部31(図8参照)において一つのフォルダ内に格納される。このようにして、情報処理装置1の記憶部31には、カメラ等の撮像装置によって取得された画像がサブ画像群毎に蓄積されることとなる。 The captured sub-image group is stored in one folder in the storage unit 31 (see FIG. 8) in the information processing device 1, for example. In this way, the storage unit 31 of the information processing device 1 stores the images acquired by the image pickup device such as a camera for each sub-image group.

なお、情報処理装置1における画像の取得手法は、上記例に限定されず、例えば、無線通信によってカメラ等の撮像装置から情報処理装置1に対して逐次画像が送信され、情報処理装置1内の記憶部31(図8参照)に蓄積されるような構成としてもよい。この場合、逐次入力される複数の画像は所定の枚数毎にサブ画像群とされ、記憶部31に格納されてもよい。 The image acquisition method in the information processing device 1 is not limited to the above example. For example, images are sequentially transmitted from an image pickup device such as a camera to the information processing device 1 by wireless communication, and the image is sequentially transmitted to the information processing device 1 in the information processing device 1. The configuration may be such that it is stored in the storage unit 31 (see FIG. 8). In this case, the plurality of images sequentially input may be set as a sub-image group for each predetermined number of images and stored in the storage unit 31.

図4は、本実施形態に係る情報処理装置1のハードウェア構成を示した図である。図4に示すように、本実施形態に係る情報処理装置1は、例えば、CPU11、CPU11が実行するプログラム等を記憶するための補助記憶装置12、各プログラム実行時のワーク領域として機能する主記憶装置13、ネットワークに接続するための通信インターフェース14、キーボードやマウス等からなる入力部15、及びデータを表示する液晶表示装置等の表示部16等を備えている。これら各部は、例えば、バス18を介して接続されている。補助記憶装置12の一例として、磁気ディスク、光磁気ディスク、半導体メモリ等が挙げられる。 FIG. 4 is a diagram showing a hardware configuration of the information processing device 1 according to the present embodiment. As shown in FIG. 4, the information processing device 1 according to the present embodiment includes, for example, a CPU 11, an auxiliary storage device 12 for storing a program executed by the CPU 11, and a main memory functioning as a work area at the time of executing each program. It includes a device 13, a communication interface 14 for connecting to a network, an input unit 15 including a keyboard, a mouse, and the like, and a display unit 16 such as a liquid crystal display device for displaying data. Each of these parts is connected via, for example, a bus 18. Examples of the auxiliary storage device 12 include magnetic disks, magneto-optical disks, semiconductor memories, and the like.

本実施形態に係る情報処理装置1は、撮影支援機能を有している。
例えば、上述した点検対象の撮影は、周囲環境の影響を受ける場合がある。例えば、ドローンを用いて撮影を行うような場合、風の影響や操縦の難しさ等により、図5に一例を示すように、予め設定された移動経路に対して実際の移動軌跡がずれてしまうおそれがある。このような場合、例えば、図6に示すように、実際に取得される画像の画角(撮影範囲)が予定していた画角から大きく外れてしまい、隣接する画像の重畳領域が十分に得られない場合がある。特に、この重畳領域の低減は、オーバーラップ方向に交差する方向に発生しやすい。そして、このような移動軌跡のずれが生じた場合、図7に示すように、後に行われる結合画像生成過程において、結合画像に画像欠陥領域が生じる可能性がある。
The information processing device 1 according to the present embodiment has a shooting support function.
For example, the above-mentioned photography of the inspection target may be affected by the surrounding environment. For example, when shooting with a drone, the actual movement trajectory deviates from the preset movement path as shown in FIG. 5 due to the influence of wind and the difficulty of maneuvering. There is a risk. In such a case, for example, as shown in FIG. 6, the angle of view (shooting range) of the actually acquired image deviates greatly from the planned angle of view, and a sufficiently superimposed area of adjacent images can be obtained. It may not be possible. In particular, this reduction in the overlapping region tends to occur in the direction intersecting the overlapping direction. Then, when such a deviation of the movement locus occurs, as shown in FIG. 7, there is a possibility that an image defect region may occur in the combined image in the combined image generation process performed later.

したがって、本実施形態に係る情報処理装置1は、撮像装置によって取得された画像に基づいて、その画像から生成される結合画像に画像欠陥領域が生じるか否かを撮影過程において判定し、画像欠陥領域が生じると判定した場合には、その画像欠陥領域を含むような再撮影領域を設定し、再撮影領域を作業員に通知することとしている。このように、撮影段階において、画像欠陥領域を作業員に通知することで、後に行われる結合画像生成過程において、結合画像に画像欠陥領域が生じることを回避し、再撮影等の調整を不要とすることができる。 Therefore, the information processing apparatus 1 according to the present embodiment determines in the imaging process whether or not an image defect region is generated in the combined image generated from the image based on the image acquired by the image pickup apparatus, and determines whether or not an image defect region is generated, and the image defect. When it is determined that an area is generated, a re-shooting area including the image defect area is set, and the re-shooting area is notified to the worker. In this way, by notifying the worker of the image defect area at the shooting stage, it is possible to prevent the image defect area from being generated in the combined image in the subsequent combined image generation process, and it is not necessary to make adjustments such as re-shooting. can do.

以下、本実施形態に係る情報処理装置1が備える撮影支援機能について図面を参照して説明する。図8は、本実施形態に係る情報処理装置1が備える撮影支援機能を示した機能構成図である。図8に示すように、情報処理装置1は、記憶部31、取得部32、判定部33、表示部16を備えている。これら各部によって実現される機能は、例えば、CPU11が補助記憶装置12に記憶されている画像欠陥判定プログラムを主記憶装置13に読み出して実行することにより実現されるものである。 Hereinafter, the photographing support function included in the information processing apparatus 1 according to the present embodiment will be described with reference to the drawings. FIG. 8 is a functional configuration diagram showing a photographing support function included in the information processing device 1 according to the present embodiment. As shown in FIG. 8, the information processing device 1 includes a storage unit 31, an acquisition unit 32, a determination unit 33, and a display unit 16. The function realized by each of these parts is realized, for example, by the CPU 11 reading the image defect determination program stored in the auxiliary storage device 12 into the main storage device 13 and executing the program.

記憶部31には、点検対象に対し、撮影範囲(画角)に重畳領域が生じるように撮像装置を二次元又は三次元的に移動させることによって連続的に取得された複数の画像が蓄積されている。上述したように、本実施形態に係る記憶部31には、一例として、複数の画像がサブ画像群毎にフォルダ分けされて格納されている。 The storage unit 31 stores a plurality of images continuously acquired by moving the image pickup device two-dimensionally or three-dimensionally so that a superposed area is generated in the shooting range (angle of view) with respect to the inspection target. ing. As described above, in the storage unit 31 according to the present embodiment, as an example, a plurality of images are stored in folders for each sub-image group.

取得部32は、例えば、記憶部31からサブ画像群毎に複数の画像を取得する。
判定部33は、サブ画像群毎の複数の画像を用いて、サブ画像群から生成される結合画像に画像欠陥領域が生じるか否かを判定する。例えば、判定部33は、設定部41と、抽出部42と、結合画像生成部43とを備えている。
The acquisition unit 32 acquires a plurality of images for each sub-image group from the storage unit 31, for example.
The determination unit 33 uses a plurality of images for each sub-image group to determine whether or not an image defect region occurs in the combined image generated from the sub-image group. For example, the determination unit 33 includes a setting unit 41, an extraction unit 42, and a combined image generation unit 43.

設定部41は、例えば、図9に示すように、サブ画像群に相当するサブ領域において、オーバーラップ方向と交差する方向に複数の処理対象領域を設定する。
抽出部42は、サブ画像群から処理対象領域に対応する複数の画像を処理対象領域毎に抽出する。ここで、撮影の際の諸条件、例えば、画角、オーバーラップ方向における隣接する画像の重畳比率(重ね合わせ量)、及び移動経路がわかれば、各画像が移動経路におけるどの位置に対応する画像かを特定することができ、これにより、点検対象全体(サブ領域)のどの位置における画像であるかを特定することができる。なお、画角はカメラの焦点距離と画素数から特定可能である。抽出部42は、上記の条件に基づいて処理対象領域に対応する複数の画像をサブ画像群から抽出する。
For example, as shown in FIG. 9, the setting unit 41 sets a plurality of processing target areas in a direction intersecting the overlapping direction in the sub area corresponding to the sub image group.
The extraction unit 42 extracts a plurality of images corresponding to the processing target area from the sub-image group for each processing target area. Here, if the various conditions at the time of shooting, for example, the angle of view, the superposition ratio (overlapping amount) of adjacent images in the overlapping direction, and the movement path are known, the image corresponding to which position in the movement path each image is known. This makes it possible to specify at which position the image is in the entire inspection target (sub-region). The angle of view can be specified from the focal length of the camera and the number of pixels. The extraction unit 42 extracts a plurality of images corresponding to the processing target area from the sub-image group based on the above conditions.

結合画像生成部43は、抽出部42によって抽出された複数の画像を用いて処理対象領域の結合画像を生成する。結合画像生成部43は、例えば、公知の画像結合処理(第2画像結合処理)を実行することにより、結合画像を生成する。結合画像生成部43が採用する画像結合処理は、特に限定されないが、後に実施される結合画像生成過程(SA2)で用いられる画像結合処理(第1画像結合処理)に比べて処理量が少ない、換言すると、結合精度の低い画像結合処理を用いるとよい。 The combined image generation unit 43 generates a combined image of the processing target region using a plurality of images extracted by the extraction unit 42. The combined image generation unit 43 generates a combined image by, for example, executing a known image combining process (second image combining process). The image combination process adopted by the combined image generation unit 43 is not particularly limited, but the amount of processing is smaller than that of the image combination process (first image combination process) used in the combined image generation process (SA2) to be performed later. In other words, it is preferable to use an image combination process having low combination accuracy.

判定部33は、結合画像生成部43によって生成された結合画像に画像欠陥領域が生じているか否かを判定し、判定結果を表示部16に表示させる。判定部33は、例えば、画像欠陥領域が生じている場合には、点検対象の全体に対する画像欠陥領域の位置がわかるように表示部16に表示させる。また、このとき、判定部33は、画像欠陥領域を含む再撮影領域を設定し、点検対象における再撮影領域を示す表示画像を表示部16に表示させてもよい。これにより、作業員は、どの領域に対して撮影を再度行えばよいか容易に把握することができ、効率的に撮影を再度行うことが可能となる。 The determination unit 33 determines whether or not an image defect region is generated in the combined image generated by the combined image generation unit 43, and causes the display unit 16 to display the determination result. For example, when an image defect region is generated, the determination unit 33 causes the display unit 16 to display the position of the image defect region with respect to the entire inspection target. Further, at this time, the determination unit 33 may set the re-photographing area including the image defect area, and display the display image indicating the re-photographing area in the inspection target on the display unit 16. As a result, the worker can easily grasp which area the shooting should be performed again, and the shooting can be efficiently performed again.

次に、本実施形態に係る撮影支援方法について図10を参照して説明する。図10は本実施形態に係る撮影支援方法の処理手順の一例を示したフローチャートである。
図10に示すように、まず、記憶部31から未処理のサブ画像群に対応する複数の画像を取得し(SB1)、取得したサブ画像群の画像から所定の条件を満たす画像を排除する前処理を行う(SB2)。ここで、「所定の条件を満たす画像」とは、例えば、ピンボケ画像、異物(例えば、作業員の指等)が入っている画像、ハレーション(白とび)、影がある画像等である。前処理では、このような所定の条件を満たす画像を自動又は手動で特定し、これらの画像を排除する。
Next, the photographing support method according to the present embodiment will be described with reference to FIG. FIG. 10 is a flowchart showing an example of the processing procedure of the shooting support method according to the present embodiment.
As shown in FIG. 10, first, a plurality of images corresponding to the unprocessed sub-image group are acquired from the storage unit 31 (SB1), and before the images satisfying a predetermined condition are excluded from the acquired images of the sub-image group. Perform processing (SB2). Here, the "image satisfying a predetermined condition" is, for example, an out-of-focus image, an image containing foreign matter (for example, a worker's finger, etc.), halation (overexposure), an image having shadows, or the like. In the preprocessing, images satisfying such a predetermined condition are automatically or manually identified, and these images are excluded.

続いて、サブ画像群に対応するサブ領域において、図9に示したように、オーバーラップ方向と交差する方向に複数の処理対象領域を設定する(SB3)。続いて、前処理後のサブ画像群から未処理の処理対象領域に対応する複数の画像を抽出する(SB4)。続いて、抽出した複数の画像を用いて結合画像を生成する(SB5)。 Subsequently, in the sub-region corresponding to the sub-image group, as shown in FIG. 9, a plurality of processing target regions are set in the direction intersecting the overlapping direction (SB3). Subsequently, a plurality of images corresponding to the unprocessed processing target area are extracted from the pre-processed sub-image group (SB4). Subsequently, a combined image is generated using the extracted plurality of images (SB5).

続いて、全ての処理対象領域に対して結合画像を生成したか否かを判定し(SB6)、生成していなければ(SB6:NO)、ステップSB4に戻り、結合画像を生成していない未処理の処理対象領域に対応する複数の画像を抽出する。そして、ステップSB4からステップSB5の処理を繰り返し行うことにより、全ての処理対象領域に対して結合画像が生成されると(SB6:YES)、各結合画像に画像欠陥領域が生じているか否かを判定し(SB7)、判定結果を表示画面に表示させる(SB8)。 Subsequently, it is determined whether or not the combined image has been generated for all the processing target areas (SB6), and if it has not been generated (SB6: NO), the process returns to step SB4 and the combined image has not been generated yet. A plurality of images corresponding to the processing target area of the processing are extracted. Then, when the combined images are generated for all the processing target regions by repeating the processing of steps SB4 to SB5 (SB6: YES), it is determined whether or not an image defect region is generated in each combined image. The determination is made (SB7), and the determination result is displayed on the display screen (SB8).

判定結果の表示例は特に限定されないが、例えば、画像欠陥領域が生じていない場合には、当該サブ領域はエラーが発生していない旨を示すメッセージを表示させ、画像欠陥領域が生じている場合には、サブ領域における画像欠陥領域の位置がわかるような表示画面が表示される。このとき、サブ領域が点検対象全体のどの領域に相当するかを示す情報を併せて表示させてもよい。さらに、当該サブ領域における画像欠陥領域を含む再撮影領域を設定し、点検対象全体における再撮撮影領域がわかるような表示画面を表示部16に表示させてもよい。 The display example of the determination result is not particularly limited, but for example, when the image defect area does not occur, a message indicating that no error has occurred is displayed in the sub area, and the image defect area occurs. A display screen is displayed so that the position of the image defect area in the sub area can be known. At this time, information indicating which area of the entire inspection target the sub-area corresponds to may also be displayed. Further, a re-photographing area including an image defect area in the sub-area may be set, and a display screen may be displayed on the display unit 16 so that the re-photographing area of the entire inspection target can be seen.

続いて、全てのサブ領域に対して画像欠陥判定を行ったか否かを判定し(SB9)、全てのサブ領域に対して画像欠陥判定が終了していなければ(SB9:NO)、ステップSB1に戻り、未判定のサブ領域に対応するサブ画像群を取得し、以降の処理を繰り返し行う。そして、ステップSB9において、全てのサブ領域に対して画像欠陥判定を行った場合(SB9:YES)、処理を終了する。 Subsequently, it is determined whether or not the image defect determination has been performed for all the sub-regions (SB9), and if the image defect determination has not been completed for all the sub-regions (SB9: NO), step SB1 is performed. Return, acquire the sub-image group corresponding to the undetermined sub-area, and repeat the subsequent processing. Then, in step SB9, when the image defect determination is performed for all the sub-regions (SB9: YES), the process ends.

以上説明したように、本実施形態に係る情報処理装置及び撮影支援方法並びに撮影支援プログラムによれば、撮影過程において、結合画像に画像欠陥領域が生じるか否かを判定するので、結合画像に画像点検領域が生じている可能性があるか否かを撮影過程において作業員に通知することができる。これにより、撮影過程よりも後に行われる結合画像生成過程において生成される結合画像に画像欠陥領域が生じることを回避することができる。この結果、撮影のための再調整等を不要にでき、変状解析を効率的に行うことが可能となる。 As described above, according to the information processing apparatus, the shooting support method, and the shooting support program according to the present embodiment, it is determined whether or not an image defect region occurs in the combined image in the shooting process. It is possible to notify the worker in the shooting process whether or not there is a possibility that an inspection area has occurred. As a result, it is possible to prevent an image defect region from being generated in the combined image generated in the combined image generation process performed after the photographing process. As a result, it is possible to eliminate the need for readjustment for photographing, and it is possible to efficiently perform deformation analysis.

また、本実施形態係る情報処理装置及び撮影支援方法並びに撮影支援プログラムによれば、画像欠陥領域の位置を作業員が確認できるように表示部16に判定結果を表示させる。したがって、この表示画面を確認した作業員は、点検対象におけるどの領域に対して再度撮影を行ったらよいかを把握することができる。これにより、効率よく再撮影を行うことが可能となる。また、このようにして、再度撮影が行われた場合には、再撮影によって得られた画像群に対して、再度、画像欠陥領域が生じているか否かを判定することとしてもよい。これにより、後の過程において、変状解析のための結合画像を確実に生成することが可能となる。 Further, according to the information processing device, the shooting support method, and the shooting support program according to the present embodiment, the display unit 16 displays the determination result so that the worker can confirm the position of the image defect region. Therefore, the worker who has confirmed this display screen can grasp which area of the inspection target should be photographed again. This makes it possible to efficiently perform re-shooting. Further, in this way, when the image is photographed again, it may be determined whether or not the image defect region is generated again with respect to the image group obtained by the re-imaging. This makes it possible to reliably generate a combined image for deformation analysis in a later process.

なお、本実施形態において、図11に示すように、ステップSB2において行われる前処理の後に、更に、画素数を低減させるサイズダウン処理を行うこととしてもよい(SB2’)。このように、画素数を低減させることにより、後の処理を軽減することが可能となり、画像欠陥判定処理に要する処理時間を短縮することが可能となる。
なお、画素数を低減させるサイズダウン処理は、ステップSB1以降、かつ、ステップSB5以前であればどのタイミングで行ってもよく、例えば、ステップSB3とSB4の間、または、ステップSB4とSB5の間において行うこととしてもよい。
In this embodiment, as shown in FIG. 11, after the preprocessing performed in step SB2, a size reduction process for further reducing the number of pixels may be performed (SB2'). By reducing the number of pixels in this way, it is possible to reduce the subsequent processing, and it is possible to shorten the processing time required for the image defect determination processing.
The size reduction process for reducing the number of pixels may be performed at any timing after step SB1 and before step SB5, for example, between steps SB3 and SB4, or between steps SB4 and SB5. You may do it.

また、本実施形態では、判定部33による判定結果を表示部16に表示することとしたが、判定結果に代えて、結合画像生成部43によって生成された結合画像を表示部16に表示させることとしてもよい。すなわち、この場合、結合画像生成部43によって生成された結合画像に基づいて画像欠陥領域が生じているか否かを判定する処理は不要となる。
このように、結合画像を表示部16に表示させることで、この結合画像を確認した作業員はどの領域に画像欠陥が生じているのかを確認することができる。これにより、作業員に対して、再撮影が必要であることを伝えることが可能となる。
Further, in the present embodiment, the determination result by the determination unit 33 is displayed on the display unit 16, but instead of the determination result, the combined image generated by the combined image generation unit 43 is displayed on the display unit 16. May be. That is, in this case, it is not necessary to determine whether or not an image defect region is generated based on the combined image generated by the combined image generation unit 43.
By displaying the combined image on the display unit 16 in this way, the worker who has confirmed the combined image can confirm in which region the image defect has occurred. This makes it possible to inform the worker that re-shooting is necessary.

また、本実施形態では、結合画像生成部43によって生成される結合画像は、サブ領域における対象処理領域とされていたが、結合画像を生成する領域はこの例に限定されない。例えば、サブ画像群の全ての画像を用いて結合画像を生成することとしてもよい。また、この例に限定されず、例えば、点検対象全体の撮影が終了した後に、点検対象全体の画像を用いて結合画像を生成することとしてもよい。この場合、サブ画像群毎に結合画像を生成するよりも時間を要することとなるが、後に実施される結合画像生成過程(図1のSA2)で用いられる画像結合処理(第1画像結合処理)に比べて処理量の少ない画像結合プログラムを用いて画像結合を行うことにより、結合画像生成過程における結合画像生成処理よりも短時間で結合画像を得ることが可能となる。
また、この場合においても、画素数を低減させるサイズダウン処理が施された画像を用いて結合画像を生成することとしてもよく、この場合には、更に結合画像生成に要する時間を更に短縮することが可能となる。
Further, in the present embodiment, the combined image generated by the combined image generation unit 43 is set as the target processing region in the sub-region, but the region for generating the combined image is not limited to this example. For example, a combined image may be generated using all the images in the sub-image group. Further, the present invention is not limited to this example, and for example, a combined image may be generated using the image of the entire inspection target after the photographing of the entire inspection target is completed. In this case, it takes more time than generating a combined image for each sub-image group, but the image combining process (first image combining process) used in the combined image generation process (SA2 in FIG. 1) to be performed later. By performing image combination using an image combination program with a smaller amount of processing than the above, it is possible to obtain a combined image in a shorter time than the combined image generation process in the combined image generation process.
Further, in this case as well, the combined image may be generated using an image that has been subjected to the size reduction processing that reduces the number of pixels. In this case, the time required for generating the combined image is further shortened. Is possible.

〔第2実施形態〕
次に、本発明の第2実施形態に係る情報処理装置及び撮影支援方法並びに撮影支援プログラムについて図面を参照して説明する。
上述した第1実施形態では、結合画像を生成して画像欠陥判定を行っていたが、本実施形態では、結合画像を生成しないで画像欠陥判定を行う点において上記第1実施形態と異なる。以下、本実施形態について上述した第1実施形態と同一の構成については同一の符号を付して説明を省略し、異なる点について主に説明する。
[Second Embodiment]
Next, the information processing device, the shooting support method, and the shooting support program according to the second embodiment of the present invention will be described with reference to the drawings.
In the above-described first embodiment, the combined image is generated and the image defect determination is performed, but this embodiment is different from the above-mentioned first embodiment in that the image defect determination is performed without generating the combined image. Hereinafter, the same configurations as those of the first embodiment described above will be assigned the same reference numerals to the present embodiment, and the description thereof will be omitted, and the differences will be mainly described.

図12は、本実施形態に係る情報処理装置1aが備える撮影支援機能を示した機能構成図である。図12に示すように、情報処理装置1aは、判定部33aとして、設定部41と、抽出部42と、特定部44とを備えている。すなわち、上述した第1実施形態に係る結合画像生成部43に代えて、特定部44を備えている。 FIG. 12 is a functional configuration diagram showing a photographing support function included in the information processing device 1a according to the present embodiment. As shown in FIG. 12, the information processing device 1a includes a setting unit 41, an extraction unit 42, and a specific unit 44 as the determination unit 33a. That is, the specific unit 44 is provided in place of the combined image generation unit 43 according to the first embodiment described above.

特定部44は、抽出部42によって抽出された処理対象領域に対応する複数の画像の中からサイドラップ方向に隣接する2つの画像を組画像として抽出する。そして、例えば、図13に示すように、組画像において相互に対応する特徴点を対応点として特定する。そして、特定した対応点の数(図13の場合は、3点)が所定の閾値以下である場合に、組画像の領域を画像欠陥領域として特定する。 The specific unit 44 extracts two images adjacent to each other in the side wrap direction as a set image from a plurality of images corresponding to the processing target area extracted by the extraction unit 42. Then, for example, as shown in FIG. 13, feature points corresponding to each other in the set image are specified as corresponding points. Then, when the number of the specified corresponding points (3 points in the case of FIG. 13) is equal to or less than a predetermined threshold value, the region of the set image is specified as the image defect region.

そして、特定部44によって処理対象領域における全ての組画像に対して上記処理が行われることで、対応点の数に応じて画像欠陥領域か否かが判定され、その判定結果が表示部16に表示される。表示画面の例については、第1実施形態と同様である。 Then, the specific unit 44 performs the above processing on all the set images in the processing target area, so that it is determined whether or not the image is a defective area according to the number of corresponding points, and the determination result is displayed on the display unit 16. Is displayed. The example of the display screen is the same as that of the first embodiment.

次に、本実施形態に係る撮影支援方法について図14及び図15を参照して説明する。図14及び図15は本実施形態に係る撮影支援方法の処理手順の一例を示したフローチャートである。
図14に示すように、まず、記憶部31から未処理のサブ画像群に対応する複数の画像を取得し(SC1)、取得したサブ画像群の画像から所定の条件を満たす画像を排除する前処理を行う(SC2)。続いて、サブ画像群に対応するサブ領域において、図9に示したように、オーバーラップ方向と交差する方向に複数の処理対象領域を設定し(SC3)、前処理後のサブ画像群から未処理の処理対象領域に対応する複数の画像を抽出する(SC4)。このように、SC1〜SC4は、第1実施形態に係るSB1〜SB4と同様の処理となる。
Next, the photographing support method according to the present embodiment will be described with reference to FIGS. 14 and 15. 14 and 15 are flowcharts showing an example of the processing procedure of the shooting support method according to the present embodiment.
As shown in FIG. 14, first, a plurality of images corresponding to the unprocessed sub-image group are acquired from the storage unit 31 (SC1), and before the images satisfying a predetermined condition are excluded from the acquired images of the sub-image group. Perform processing (SC2). Subsequently, in the sub-area corresponding to the sub-image group, as shown in FIG. 9, a plurality of processing target areas are set in the direction intersecting the overlapping direction (SC3), and the sub-image group after the preprocessing is not yet processed. A plurality of images corresponding to the processing target area of the processing are extracted (SC4). As described above, SC1 to SC4 are processed in the same manner as SB1 to SB4 according to the first embodiment.

続いて、抽出した複数の画像から隣接2つの画像を組画像として抽出し(SC5)、組画像において相互に対応する特徴点を対応点として特定する(SC6)。次に、対応点の数が所定の閾値以下であるか否かを判定する(SC7)。この閾値は、結合画像を生成することのできる程度の対応点の数とされている。すなわち、対応点の数が閾値を超える場合には結合画像を生成でき、閾値以下の場合には結合画像を生成できないとみなすことができる。この結果、対応点の数が閾値以下である場合には(SC7:YES)、組画像の領域を画像欠陥領域として特定する(SC8)。一方、対応点の数が閾値を超えている場合には、画像欠陥領域ではないと判定し、ステップSC9に移行する。 Subsequently, two adjacent images are extracted as a set image from the extracted plurality of images (SC5), and feature points corresponding to each other in the set image are specified as corresponding points (SC6). Next, it is determined whether or not the number of corresponding points is equal to or less than a predetermined threshold value (SC7). This threshold is set to the number of corresponding points to the extent that a combined image can be generated. That is, when the number of corresponding points exceeds the threshold value, it can be considered that the combined image can be generated, and when it is less than the threshold value, the combined image cannot be generated. As a result, when the number of corresponding points is equal to or less than the threshold value (SC7: YES), the region of the set image is specified as the image defect region (SC8). On the other hand, when the number of corresponding points exceeds the threshold value, it is determined that the region is not an image defect region, and the process proceeds to step SC9.

ステップSC9では、当該処理対象領域において全ての組画像について対応点の特定を行ったか否かを判定し、全ての組画像について対応点の特定を行っていない場合には、ステップSC5に戻り、未処理の組画像を抽出する。そして、ステップSC5からステップSC9の処理を繰り返し行うことにより、当該処理対象領域における全ての組画像について対応点の特定及び判定処理が行われると(SC9:YES)、全ての処理対象領域において処理が終了したか否かを判定する(SC10)。この結果、全ての処理対象領域について処理が終了していない場合には(SC10:NO)、ステップSC4に戻り、未処理の処理対象領域について同様の処理を行う。この結果、ステップSC10において、全ての処理対象について処理が終了したと判定すると(SC10:YES)、判定結果を表示部16に表示させる(SC11)。 In step SC9, it is determined whether or not the corresponding points have been specified for all the group images in the processing target area, and if the corresponding points have not been specified for all the group images, the process returns to step SC5 and is not yet performed. Extract the set image of processing. Then, when the corresponding points are specified and determined for all the set images in the processing target area by repeating the processing from step SC5 to step SC9 (SC9: YES), the processing is performed in all the processing target areas. It is determined whether or not it has finished (SC10). As a result, if the processing is not completed for all the processing target areas (SC10: NO), the process returns to step SC4, and the same processing is performed for the unprocessed processing target areas. As a result, in step SC10, when it is determined that the processing has been completed for all the processing targets (SC10: YES), the determination result is displayed on the display unit 16 (SC11).

これにより、例えば、画像欠陥領域が生じていない場合には、当該サブ領域はエラーが発生していない旨を示すメッセージを表示させ、画像欠陥領域が生じている場合には、サブ領域における画像欠陥領域(ステップSC8において、画像欠陥領域として特定された領域)がわかるような表示画面を表示させる。このとき、サブ領域が点検対象全体のどの領域に相当するかを示す情報を合わせて表示させてもよい。さらに、当該サブ領域における画像欠陥領域を含む再撮影領域を設定し、点検対象全体における再撮影領域がわかるような表示画面を表示部16に表示させてもよい。 As a result, for example, when the image defect region does not occur, a message indicating that no error has occurred in the sub region is displayed, and when the image defect region occurs, the image defect in the sub region is displayed. A display screen is displayed so that the area (the area specified as the image defect area in step SC8) can be seen. At this time, information indicating which area of the entire inspection target the sub-area corresponds to may be displayed together. Further, a re-photographing area including an image defect area in the sub-area may be set, and a display screen may be displayed on the display unit 16 so that the re-photographing area in the entire inspection target can be seen.

続いて、全てのサブ領域に対して画像欠陥判定を行ったか否かを判定し(SC12)、全てのサブ領域に対して画像欠陥判定が終了していなければ(SC12:NO)、図14のステップSC1に戻り、未判定のサブ領域に対応するサブ画像群を取得し、以降の処理を繰り返し行う。そして、ステップSC12において、全てのサブ領域に対して画像欠陥判定を行ったと判定した場合は(SC12:YES)、処理を終了する。 Subsequently, it is determined whether or not the image defect determination has been performed for all the sub-regions (SC12), and if the image defect determination has not been completed for all the sub-regions (SC12: NO), FIG. Returning to step SC1, the sub-image group corresponding to the undetermined sub-region is acquired, and the subsequent processing is repeated. Then, in step SC12, when it is determined that the image defect determination has been performed for all the sub-regions (SC12: YES), the process ends.

以上説明したように、本実施形態に係る情報処理装置及び撮影支援方法並びに撮影支援プログラムによれば、結合画像を生成せずに、組画像における対応点の数に基づいて画像欠陥領域か否かを判定するので、結合画像を生成する場合に比べて、画像欠陥判定処理に要する時間を短くすることができる。 As described above, according to the information processing device, the shooting support method, and the shooting support program according to the present embodiment, whether or not the region is an image defect region based on the number of corresponding points in the group image without generating a combined image. Therefore, the time required for the image defect determination process can be shortened as compared with the case of generating the combined image.

なお、本実施形態では、サブ画像群毎に欠陥画像領域が生じるか否かを判定していたが、この例に限定されない。例えば、サブ画像群毎に判定を行うのではなく、点検対象の全ての撮影が行われた後に、点検対象全体に対応する複数の画像を含む画像群を対象として欠陥画像領域が生じるか否かを判定することとしてもよい。 In the present embodiment, it is determined whether or not a defective image region is generated for each sub-image group, but the present invention is not limited to this example. For example, instead of making a judgment for each sub-image group, whether or not a defective image area is generated for an image group including a plurality of images corresponding to the entire inspection target after all the images to be inspected have been photographed. May be determined.

また、本実施形態においても、ステップSC1からステップSC6の間の任意のタイミングで、画素数を低減させるサイズダウン処理を行うこととしてもよい。このように、画素数を低減させることにより、後の処理を軽減することが可能となり、画像欠陥判定処理に要する処理時間を更に短縮することが可能となる。 Further, also in the present embodiment, the size reduction process for reducing the number of pixels may be performed at an arbitrary timing between steps SC1 and SC6. By reducing the number of pixels in this way, it is possible to reduce the subsequent processing, and it is possible to further shorten the processing time required for the image defect determination processing.

〔第3実施形態〕
次に、本発明の第3実施形態に係る情報処理装置及び撮影支援方法並びに撮影支援プログラムについて図面を参照して説明する。
上述した第2実施形態では、組画像において相互に対応する特徴点を対応点として特定し、対応点の数に基づいて画像欠陥判定を行っていたが、本実施形態では、画像の類似度に基づいて画像欠陥判定を行う点が上記第1実施形態や第2実施形態と異なる。
以下、本実施形態について上述した第1実施形態、第2実施形態と同一の構成については同一の符号を付して説明を省略し、異なる点について主に説明する。
[Third Embodiment]
Next, the information processing device, the shooting support method, and the shooting support program according to the third embodiment of the present invention will be described with reference to the drawings.
In the second embodiment described above, feature points corresponding to each other in the set image are specified as corresponding points, and image defect determination is performed based on the number of corresponding points. However, in the present embodiment, the degree of similarity of the images is determined. It differs from the first embodiment and the second embodiment in that the image defect is determined based on the above.
Hereinafter, the same configurations as those of the first embodiment and the second embodiment described above will be designated by the same reference numerals, and the description thereof will be omitted, and the differences will be mainly described.

図16は、本実施形態に係る情報処理装置1bが備える撮影支援機能を示した機能構成図である。図16に示すように、情報処理装置1bは、判定部33bとして、類似画像特定部45を備える。 FIG. 16 is a functional configuration diagram showing a photographing support function included in the information processing apparatus 1b according to the present embodiment. As shown in FIG. 16, the information processing device 1b includes a similar image identification unit 45 as a determination unit 33b.

類似画像特定部45は、抽出部42によって抽出された処理対象領域に対応する複数の画像の中から順次対象画像を特定し、特定した対象画像に類似する画像を当該処理対象領域の複数の画像の中から検出する。類似する画像とは、例えば、類似度が所定の閾値以上の画像をいう。この結果、類似度が所定の閾値以上の画像が検出できなかった場合には、その対象画像及びその周辺領域を画像欠陥領域として特定する。そして、このような処理を処理対象領域における各画像に対して順次行うことにより、処理対象領域における画像欠陥領域を判定する。 The similar image identification unit 45 sequentially identifies a target image from a plurality of images corresponding to the processing target area extracted by the extraction unit 42, and a plurality of images in the processing target area are similar to the specified target image. Detect from inside. The similar image means, for example, an image having a degree of similarity equal to or higher than a predetermined threshold value. As a result, when an image having a similarity equal to or higher than a predetermined threshold value cannot be detected, the target image and its peripheral region are specified as an image defect region. Then, by sequentially performing such processing on each image in the processing target area, the image defect area in the processing target area is determined.

そして、全ての処理対象領域における画像欠陥判定が終了すると、その判定結果が表示部16に表示される。表示画面の例については、第1実施形態と同様である。 Then, when the image defect determination in all the processing target areas is completed, the determination result is displayed on the display unit 16. The example of the display screen is the same as that of the first embodiment.

次に、本実施形態に係る撮影支援方法について図17及び図18を参照して説明する。図17及び図18は本実施形態に係る撮影支援方法の処理手順の一例を示したフローチャートである。
図17に示すように、まず、記憶部31からサブ画像群に対応する複数の画像を取得し(SD1)、取得したサブ画像群の画像から所定の条件を満たす画像を排除する前処理を行う(SD2)。続いて、サブ画像群に対応するサブ領域において、図6に示したように、オーバーラップ方向と交差する方向に複数の処理対象領域を設定し(SD3)、前処理後のサブ画像群から未処理の処理対象領域に対応する複数の画像を抽出する(SD4)。このように、SD1〜SD4は、第1実施形態に係るSB1〜SB4と同様の処理である。
Next, the photographing support method according to the present embodiment will be described with reference to FIGS. 17 and 18. 17 and 18 are flowcharts showing an example of the processing procedure of the shooting support method according to the present embodiment.
As shown in FIG. 17, first, a plurality of images corresponding to the sub image group are acquired from the storage unit 31 (SD1), and preprocessing is performed to exclude an image satisfying a predetermined condition from the acquired images of the sub image group. (SD2). Subsequently, in the sub-area corresponding to the sub-image group, as shown in FIG. 6, a plurality of processing target areas are set in the direction intersecting the overlapping direction (SD3), and the sub-image group after the preprocessing is not yet processed. A plurality of images corresponding to the processing target area of the processing are extracted (SD4). As described above, SD1 to SD4 are the same processes as SB1 to SB4 according to the first embodiment.

続いて、抽出した複数の画像から処理対象となる対象画像を一枚特定し(SD5)、特定した対象画像に類似する画像をステップSD4において抽出された複数の画像の中から検出する(SD6)。続いて、類似画像が検出されたか否かを判定し(SD7)、検出されなかった場合には(SD7:NO)、対象画像を含む所定領域を画像欠陥領域として特定する(SD8)。一方、類似画像が検出された場合には(SD7:YES)、画像欠陥領域ではないと判定し、ステップSD9に移行する。 Subsequently, one target image to be processed is specified from the extracted plurality of images (SD5), and an image similar to the specified target image is detected from the plurality of images extracted in step SD4 (SD6). .. Subsequently, it is determined whether or not a similar image is detected (SD7), and if it is not detected (SD7: NO), a predetermined region including the target image is specified as an image defect region (SD8). On the other hand, when a similar image is detected (SD7: YES), it is determined that the region is not an image defect region, and the process proceeds to step SD9.

ステップSD9では、当該処理対象領域において全ての画像について類似画像の検出処理を行ったか否かを判定し、全ての画像について行っていない場合には(SD9:NO)、ステップSD5に戻り、未処理の画像を対象画像として特定する。そして、ステップSD5からステップSD9の処理を繰り返し行うことにより、当該処理対象領域における全ての画像について類似画像の検出処理が行われると(SD9:YES)、全ての処理対象領域において処理が終了したか否かを判定する(図18のSD10)。 In step SD9, it is determined whether or not similar image detection processing has been performed for all images in the processing target area, and if not all images have been detected (SD9: NO), the process returns to step SD5 and is not processed. The image of is specified as the target image. Then, when the similar image detection processing is performed for all the images in the processing target area by repeating the processing from step SD5 to step SD9 (SD9: YES), is the processing completed in all the processing target areas? Whether or not it is determined (SD10 in FIG. 18).

この結果、全ての処理対象領域について処理が終了していない場合には(SD10:NO)、図17のステップSD4に戻り、未処理の処理対象領域について同様の処理を行う。この結果、ステップSD10において、全ての処理対象領域について処理が終了したと判定すると(SD10:YES)、判定結果を表示部16に表示させる(SD11)。 As a result, if the processing is not completed for all the processing target areas (SD10: NO), the process returns to step SD4 of FIG. 17, and the same processing is performed for the unprocessed processing target areas. As a result, in step SD10, when it is determined that the processing has been completed for all the processing target areas (SD10: YES), the determination result is displayed on the display unit 16 (SD11).

これにより、例えば、画像欠陥領域が生じていない場合には、当該サブ領域はエラーが発生していない旨を示すメッセージを表示させ、画像欠陥領域が生じている場合には、サブ領域における画像欠陥領域(ステップSD8において、画像欠陥領域として特定された領域)の位置がわかるような表示画面を表示させる。このとき、サブ領域が点検対象全体のどの領域に相当するかを示す情報を合わせて表示させてもよい。さらに、当該サブ領域における画像欠陥領域を含む再撮影領域を設定し、点検対象全体における再撮撮影領域がわかるような表示画面を表示部16に表示させてもよい。 As a result, for example, when the image defect region does not occur, a message indicating that no error has occurred in the sub region is displayed, and when the image defect region occurs, the image defect in the sub region is displayed. A display screen is displayed so that the position of the region (the region specified as the image defect region in step SD8) can be seen. At this time, information indicating which area of the entire inspection target the sub-area corresponds to may be displayed together. Further, a re-photographing area including an image defect area in the sub-area may be set, and a display screen may be displayed on the display unit 16 so that the re-photographing area of the entire inspection target can be seen.

続いて、全てのサブ領域に対して画像欠陥判定を行ったか否かを判定し(SD12)、全てのサブ領域に対して画像欠陥判定が終了していなければ(SD12:NO)、図17のステップSD1に戻り、未判定のサブ領域に対応するサブ画像群を取得し、以降の処理を繰り返し行う。そして、ステップSD12において、全てのサブ領域に対して画像欠陥判定を行ったと判定した場合は(SD12:YES)、処理を終了する。 Subsequently, it is determined whether or not the image defect determination has been performed for all the sub-regions (SD12), and if the image defect determination has not been completed for all the sub-regions (SD12: NO), FIG. Returning to step SD1, the sub-image group corresponding to the undetermined sub-region is acquired, and the subsequent processing is repeated. Then, in step SD12, when it is determined that the image defect determination has been performed for all the sub-regions (SD12: YES), the process ends.

以上説明したように、本実施形態に係る情報処理装置及び撮影支援方法並びに撮影支援プログラムによれば、結合画像を生成せずに、組画像における対応点の数に基づいて画像欠陥領域か否かを判定するので、結合画像を生成する場合に比べて、画像欠陥判定処理に要する時間を短くすることができる。
なお、本実施形態では、サブ画像群毎に欠陥画像領域が生じるか否かを判定していたが、この例に限定されない。例えば、サブ画像群毎に判定を行うのではなく、点検対象の全ての撮影が行われた後に、点検対象全体に対応する複数の画像を含む画像群を対象として欠陥画像領域が生じるか否かを判定することとしてもよい。
As described above, according to the information processing device, the shooting support method, and the shooting support program according to the present embodiment, whether or not the region is an image defect region based on the number of corresponding points in the group image without generating a combined image. Therefore, the time required for the image defect determination process can be shortened as compared with the case of generating the combined image.
In the present embodiment, it is determined whether or not a defective image region is generated for each sub-image group, but the present invention is not limited to this example. For example, instead of making a judgment for each sub-image group, whether or not a defective image area is generated for an image group including a plurality of images corresponding to the entire inspection target after all the images to be inspected have been photographed. May be determined.

また、本実施形態においても、ステップSD1からステップSD6の間の任意のタイミングで、画素数を低減させるサイズダウン処理を行うこととしてもよい。このように、画素数を低減させることにより、後の処理を軽減することが可能となり、画像欠陥判定処理に要する処理時間を更に短縮することが可能となる。 Further, also in the present embodiment, the size reduction process for reducing the number of pixels may be performed at an arbitrary timing between step SD1 and step SD6. By reducing the number of pixels in this way, it is possible to reduce the subsequent processing, and it is possible to further shorten the processing time required for the image defect determination processing.

以上、本発明について実施形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。発明の要旨を逸脱しない範囲で上記実施形態に多様な変更又は改良を加えることができ、該変更又は改良を加えた形態も本発明の技術的範囲に含まれる。また、上記実施形態を適宜組み合わせてもよい。
また、上記実施形態で説明した各フローチャートにおける処理手順も一例であり、本発明の主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよい。
Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. Various changes or improvements can be made to the above embodiments without departing from the gist of the invention, and the modified or improved forms are also included in the technical scope of the present invention. In addition, the above embodiments may be combined as appropriate.
Further, the processing procedure in each flowchart described in the above embodiment is also an example, and unnecessary steps are deleted, new steps are added, or the processing order is changed within a range that does not deviate from the gist of the present invention. You may.

1 :情報処理装置
16 :表示部
18 :バス
31 :記憶部
32 :取得部
33、33a、33b:判定部
41 :設定部
42 :抽出部
43 :結合画像生成部
44 :特定部
45 :類似画像特定部
1: Information processing device 16: Display unit 18: Bus 31: Storage unit 32: Acquisition unit 33, 33a, 33b: Judgment unit 41: Setting unit 42: Extraction unit 43: Combined image generation unit 44: Specific unit 45: Similar image Specific part

Claims (17)

点検対象を撮影した複数の画像を結合した結合画像を解析することにより、前記点検対象の変状を検出する変状解析において、前記点検対象を撮影する撮影過程で用いられる情報処理装置であって、
前記点検対象に対し、撮影範囲に重畳領域が生じるように撮像手段を二次元又は三次元的に移動させることによって取得された複数の画像を画像群として取得する取得手段と、
前記取得手段により取得された前記画像群に含まれる画像を用いて、前記画像群から生成される結合画像に画像欠陥領域が生じるか否かを判定する判定手段と
を備える情報処理装置。
An information processing device used in the imaging process of photographing the inspection target in the deformation analysis for detecting the deformation of the inspection target by analyzing the combined image obtained by combining a plurality of images of the inspection target. ,
An acquisition means for acquiring a plurality of images acquired by moving the imaging means two-dimensionally or three-dimensionally so as to generate a superposed region in the photographing range with respect to the inspection target, and an acquisition means for acquiring a plurality of images as an image group.
An information processing device including a determination means for determining whether or not an image defect region is generated in a combined image generated from the image group by using an image included in the image group acquired by the acquisition means.
前記判定手段は、前記点検対象の一部の領域であるサブ領域に対応するサブ画像群毎に、前記画像欠陥領域が生じるか否かを判定する請求項1に記載の情報処理装置。 The information processing device according to claim 1, wherein the determination means determines whether or not the image defect region occurs for each sub-image group corresponding to the sub-region that is a part of the inspection target. 前記判定手段は、
前記サブ領域においてオーバーラップ方向と交差する方向に複数の処理対象領域を設定する設定手段と、
前記処理対象領域に相当する複数の画像を抽出する抽出手段と
を備え、
前記処理対象領域毎に前記画像欠陥領域が生じるか否かを判定する請求項2に記載の情報処理装置。
The determination means
A setting means for setting a plurality of processing target areas in a direction intersecting the overlapping direction in the sub-region, and
It is provided with an extraction means for extracting a plurality of images corresponding to the processing target area.
The information processing apparatus according to claim 2, wherein it is determined whether or not the image defect region is generated for each processing target region.
前記判定手段は、前記画像群を構成する画像のうち、所定の条件を満たす欠陥画像を排除する前処理を行い、
前記設定手段は、前記前処理で排除された欠陥画像に対応する位置を含むように前記処理対象領域を設定する請求項3に記載の情報処理装置。
The determination means performs preprocessing to eliminate defective images satisfying a predetermined condition from the images constituting the image group.
The information processing apparatus according to claim 3, wherein the setting means sets the processing target area so as to include a position corresponding to a defect image excluded in the preprocessing.
前記判定手段は、
前記サブ画像群から結合画像を生成する画像結合手段を備え、
前記画像結合手段によって生成された前記結合画像に基づいて、前記画像欠陥領域の有無を判定する請求項2から4のいずれかに記載の情報処理装置。
The determination means
An image combining means for generating a combined image from the sub-image group is provided.
The information processing apparatus according to any one of claims 2 to 4, wherein the presence or absence of the image defect region is determined based on the combined image generated by the image combining means.
前記判定手段は、
前記サブ画像群から隣接する2枚の画像を組画像として抽出し、前記組画像において相互に対応する特徴点を対応点として特定する特定手段を備え、
特定した対応点の数が所定の閾値以下であるか否かに応じて、前記画像欠陥領域が生じるか否かを判定する請求項2から4のいずれかに記載の情報処理装置。
The determination means
A specific means for extracting two adjacent images from the sub-image group as a set image and specifying feature points corresponding to each other in the set image as corresponding points is provided.
The information processing apparatus according to any one of claims 2 to 4, wherein it is determined whether or not the image defect region is generated depending on whether or not the number of the specified corresponding points is equal to or less than a predetermined threshold value.
前記判定手段は、
前記サブ画像群から対象画像を特定し、特定した対象画像に類似する類似画像を前記サブ画像群から検出する類似画像検出手段を備え、
類似画像が検出されるか否かに応じて、前記画像欠陥領域が生じるか否かを判定する請求項2から4のいずれかに記載の情報処理装置。
The determination means
A similar image detecting means for identifying a target image from the sub-image group and detecting a similar image similar to the specified target image from the sub-image group is provided.
The information processing apparatus according to any one of claims 2 to 4, wherein it is determined whether or not the image defect region is generated depending on whether or not a similar image is detected.
前記判定手段による判定結果を表示する表示手段を備える請求項1から7のいずれかに記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 7, further comprising a display means for displaying a determination result by the determination means. 前記取得手段により取得された前記画像群に含まれる画像のデータ量を低減させる処理を行うデータ量低減手段を備え、
前記判定手段は、前記データ量が低減された前記画像群の画像を用いて前記画像欠陥領域が生じるか否かを判定する請求項1から8のいずれかに記載の情報処理装置。
A data amount reducing means for performing a process of reducing the data amount of the image included in the image group acquired by the acquisition means is provided.
The information processing apparatus according to any one of claims 1 to 8, wherein the determination means determines whether or not the image defect region is generated by using the image of the image group in which the amount of data is reduced.
点検対象を撮影した複数の画像を結合する第1画像結合処理を実行し、前記第1画像結合処理で生成された結合画像を解析することにより、前記点検対象の変状を検出する変状解析において、前記点検対象を撮影する撮影過程で用いられる情報処理装置であって、
前記点検対象に対し、撮影範囲に重畳領域が生じるように撮像手段を二次元又は三次元的に移動させることによって取得された複数の画像を画像群として取得する取得手段と、
前記第1画像結合処理よりも処理量の少ない第2画像結合処理を実行し、前記取得手段によって取得された前記画像群に含まれる画像から結合画像を生成する結合画像生成手段と、
生成された前記結合画像を表示する表示手段と
を備える情報処理装置。
Deformation analysis that detects deformation of the inspection target by executing the first image combination processing that combines a plurality of images of the inspection target and analyzing the combined image generated by the first image combination processing. In the information processing device used in the imaging process of photographing the inspection target,
An acquisition means for acquiring a plurality of images acquired by moving the imaging means two-dimensionally or three-dimensionally so as to generate a superposed region in the photographing range with respect to the inspection target, and an acquisition means for acquiring a plurality of images as an image group.
A combined image generating means that executes a second image combining process with a processing amount smaller than that of the first image combining process and generates a combined image from the images included in the image group acquired by the acquiring means.
An information processing device including a display means for displaying the generated combined image.
前記結合画像生成手段は、前記画像群から前記点検対象における一部の領域に対応する複数の画像を抽出し、抽出した複数の画像を用いて結合画像を生成する請求項10に記載の情報処理装置。 The information processing according to claim 10, wherein the combined image generation means extracts a plurality of images corresponding to a part of a region in the inspection target from the image group, and generates a combined image using the extracted plurality of images. apparatus. 前記点検対象においてオーバーラップ方向と交差する方向に複数の処理対象領域を設定する設定手段と、
各前記処理対象領域に相当する複数の画像を抽出する抽出手段と
を備え、
前記結合画像生成手段は、前記抽出手段によって抽出された複数の画像から前記処理対象領域毎に結合画像を生成する請求項11に記載の情報処理装置。
A setting means for setting a plurality of processing target areas in a direction intersecting the overlapping direction in the inspection target, and
It is provided with an extraction means for extracting a plurality of images corresponding to each of the processing target areas.
The information processing apparatus according to claim 11, wherein the combined image generation means generates a combined image for each processing target region from a plurality of images extracted by the extraction means.
前記取得手段により取得された前記画像群に含まれる画像のデータ量を低減させる処理を行うデータ量低減手段を備え、
前記結合画像生成手段は、前記データ量が低減された前記画像群の画像を用いて結合画像を生成する請求項10から12のいずれかに記載の情報処理装置。
A data amount reducing means for performing a process of reducing the data amount of the image included in the image group acquired by the acquisition means is provided.
The information processing apparatus according to any one of claims 10 to 12, wherein the combined image generation means generates a combined image using an image of the image group in which the amount of data is reduced.
点検対象を撮影した複数の画像を結合した結合画像を解析することにより、前記点検対象の変状を検出する変状解析において、前記点検対象を撮影する撮影過程で実行される撮影支援方法であって、
前記点検対象に対し、撮影範囲に重畳領域が生じるように撮像手段を二次元又は三次元的に移動させることによって取得された複数の画像を画像群として取得する工程と、
前記画像群に含まれる画像を用いて、前記画像群から生成される結合画像に画像欠陥領域が生じるか否かを判定する工程と
をコンピュータが実行する撮影支援方法。
It is a shooting support method executed in the shooting process of shooting the inspection target in the deformation analysis for detecting the deformation of the inspection target by analyzing the combined image obtained by combining a plurality of images of the inspection target. hand,
A step of acquiring a plurality of images acquired by moving the imaging means two-dimensionally or three-dimensionally so that a superposed region is generated in the imaging range with respect to the inspection target, and a step of acquiring a plurality of images as an image group.
A photographing support method in which a computer executes a step of determining whether or not an image defect region occurs in a combined image generated from the image group using an image included in the image group.
点検対象を撮影した複数の画像を結合する第1画像結合処理を実行し、前記第1画像結合処理で生成された結合画像を解析することにより、前記点検対象の変状を検出する変状解析において、前記点検対象を撮影する撮影過程で実行される撮影支援方法であって、
前記点検対象に対し、撮影範囲に重畳領域が生じるように撮像手段を二次元又は三次元的に移動させることによって取得された複数の画像を画像群として取得する工程と、
前記第1画像結合処理よりも処理量の少ない第2画像結合処理を実行し、前記画像群に含まれる画像から結合画像を生成する工程と、
生成された前記結合画像を表示する工程と
をコンピュータが実行する撮影支援方法。
Deformation analysis that detects the deformation of the inspection target by executing the first image combination processing that combines a plurality of images of the inspection target and analyzing the combined image generated by the first image combination processing. Is a shooting support method executed in the shooting process of shooting the inspection target.
A step of acquiring a plurality of images acquired by moving the imaging means two-dimensionally or three-dimensionally so that a superposed region is generated in the imaging range with respect to the inspection target, and a step of acquiring a plurality of images as an image group.
A step of executing a second image combining process in which the amount of processing is smaller than that of the first image combining process and generating a combined image from the images included in the image group.
A shooting support method in which a computer executes a step of displaying the generated combined image.
点検対象を撮影した複数の画像を結合した結合画像を解析することにより、前記点検対象の変状を検出する変状解析において、前記点検対象を撮影する撮影過程において実行される撮影支援プログラムであって、
前記点検対象に対し、撮影範囲に重畳領域が生じるように撮像手段を二次元又は三次元的に移動させることによって取得された複数の画像を画像群として取得する処理と、
前記画像群に含まれる画像を用いて、前記画像群から生成される結合画像に画像欠陥領域が生じるか否かを判定する処理と
をコンピュータに実行させるための撮影支援プログラム。
It is a shooting support program that is executed in the shooting process of shooting the inspection target in the deformation analysis that detects the deformation of the inspection target by analyzing the combined image that combines multiple images of the inspection target. hand,
A process of acquiring a plurality of images acquired by moving the imaging means two-dimensionally or three-dimensionally so that a superposed region is generated in the imaging range with respect to the inspection target, and a process of acquiring a plurality of images as an image group.
A shooting support program for causing a computer to execute a process of determining whether or not an image defect region is generated in a combined image generated from the image group by using an image included in the image group.
点検対象を撮影した複数の画像を結合する第1画像結合処理を実行し、前記第1画像結合処理で生成された結合画像を解析することにより、前記点検対象の変状を検出する変状解析において、前記点検対象を撮影する撮影過程において実行される撮影支援プログラムであって、
前記点検対象に対し、撮影範囲に重畳領域が生じるように撮像手段を二次元又は三次元的に移動させることによって取得された複数の画像を画像群として取得する処理と、
前記第1画像結合処理よりも処理量の少ない第2画像結合処理を実行し、前記画像群に含まれる画像から結合画像を生成する処理と、
生成された前記結合画像を表示させる処理と
をコンピュータに実行させるための撮影支援プログラム。
Deformation analysis that detects deformation of the inspection target by executing the first image combination processing that combines a plurality of images of the inspection target and analyzing the combined image generated by the first image combination processing. Is a shooting support program executed in the shooting process of shooting the inspection target.
A process of acquiring a plurality of images acquired by moving the imaging means two-dimensionally or three-dimensionally so that a superposed region is generated in the imaging range with respect to the inspection target, and a process of acquiring a plurality of images as an image group.
A process of executing a second image combination process in which the amount of processing is smaller than that of the first image combination process and generating a combined image from the images included in the image group.
A shooting support program for causing a computer to execute a process of displaying the generated combined image.
JP2019234530A 2019-12-25 2019-12-25 Information processing device, photographing support method and photographing support program Pending JP2021103126A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019234530A JP2021103126A (en) 2019-12-25 2019-12-25 Information processing device, photographing support method and photographing support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019234530A JP2021103126A (en) 2019-12-25 2019-12-25 Information processing device, photographing support method and photographing support program

Publications (2)

Publication Number Publication Date
JP2021103126A true JP2021103126A (en) 2021-07-15
JP2021103126A5 JP2021103126A5 (en) 2023-02-24

Family

ID=76755037

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019234530A Pending JP2021103126A (en) 2019-12-25 2019-12-25 Information processing device, photographing support method and photographing support program

Country Status (1)

Country Link
JP (1) JP2021103126A (en)

Similar Documents

Publication Publication Date Title
JP2017198671A (en) Image processor and image processing method
JP2009053126A (en) Image measuring device
WO2011033569A1 (en) Image processing device and image processing method
JP2007306524A (en) Mobile device with camera, method for assisting photographing
CN102349291A (en) Imaging device and control method therefor
JP5018868B2 (en) Sample observation method and apparatus
JP2020126590A (en) Information processing apparatus, information processing method, and program
JPWO2020021858A1 (en) Imaging support device and imaging support method
JP2018172849A (en) Information processing device, information processing method and program
JPWO2019003796A1 (en) Image combining method, image combining apparatus, and recording medium
WO2021186672A1 (en) Image processing method
KR20240051806A (en) Deep learning based exterior inspection method using dron image
JP2021103126A (en) Information processing device, photographing support method and photographing support program
JP4415285B1 (en) Wire inspection apparatus, wire inspection method, and wire inspection program
JP2010066186A (en) Inspection apparatus and method
JP2020182048A (en) Imaging device, image processing device, and image processing method
JP7152515B2 (en) Image processing device, image processing method, and program
US9721371B2 (en) Systems and methods for stitching metallographic and stereoscopic images
WO2021220336A1 (en) Image inspection device and image inspection method
JP6350988B2 (en) Camera for diagnosing bridge damage
JPWO2022180786A5 (en) Image processing device, image processing method and program
JP2018092507A (en) Image processing apparatus, image processing method, and program
JP7195782B2 (en) Information processing device, control method and program
JP2020095017A (en) Information processing device, control method thereof, program, and storage medium
JP2021085838A (en) Bar arrangement inspection system, bar arrangement inspection method and bar arrangement inspection program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240322

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240618