JP2023007662A - Damage diagram creation method - Google Patents

Damage diagram creation method Download PDF

Info

Publication number
JP2023007662A
JP2023007662A JP2021110656A JP2021110656A JP2023007662A JP 2023007662 A JP2023007662 A JP 2023007662A JP 2021110656 A JP2021110656 A JP 2021110656A JP 2021110656 A JP2021110656 A JP 2021110656A JP 2023007662 A JP2023007662 A JP 2023007662A
Authority
JP
Japan
Prior art keywords
image
images
damage
unit
synthesizing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021110656A
Other languages
Japanese (ja)
Inventor
栄二 吉野
Eiji Yoshino
征二 吉村
Seiji Yoshimura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021110656A priority Critical patent/JP2023007662A/en
Publication of JP2023007662A publication Critical patent/JP2023007662A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a novel image synthesis method which improves damage shape measurement accuracy in overlapping areas.SOLUTION: An image synthesis method is provided, for generating a synthesized image using a plurality of images obtained by split-imaging an object such that some areas overlap. In an overlapping area, one having a smaller synthesis parameter is selected for synthesis.SELECTED DRAWING: Figure 30

Description

本発明は損傷図作成方法、損傷図作成装置、損傷図作成システム、及び記録媒体に関し、特に被写体を分割撮影して取得した複数の画像に基づいて損傷を検出する技術に関する。 The present invention relates to a damage diagram creation method, a damage diagram creation apparatus, a damage diagram creation system, and a recording medium, and more particularly, to a technique for detecting damage based on a plurality of images obtained by separately photographing an object.

従前より、橋梁などの巨大な構造物の劣化や損傷状態を、構造物を撮影した画像に基づき解析するシステムが知られている。例えば特許文献1では、橋梁などの構造物について、複数のエリアごとに分割して撮影し、それらつなぎ合わせて1枚の合成画像を生成して、ひびなどの損傷個所の特定と、そのデータ作成(ひびの長さや幅のサイズなどのデータ作成)を行うことが記載されている。合成画像の作成のためには、分割画像は互いに重複領域が発生するように撮影し、そして重複領域の特徴に基づき互いの画像の射影変換を行い、特徴位置が一致するように互いの画像の位置関係を決め、1枚の合成画像を生成する。そして合成画像の作成においては重複領域における画像の劣化を防止するため、2枚の画像を合成して重複領域の画像を生成するのではなく、いずれか一方の画像のみを用いて(採用して)重複領域画像を得ている。そして採用する画像の選択方法は、画像の明るさ、被写体の鮮明さ等に基づき選択することも記載されている。 Conventionally, there has been known a system that analyzes the state of deterioration and damage of a huge structure such as a bridge based on images of the structure. For example, in Patent Document 1, a structure such as a bridge is divided into a plurality of areas and photographed, and then stitched together to generate a single composite image, identifying damaged locations such as cracks, and creating data thereof. (Creation of data such as crack length and width size) is described. In order to create a composite image, the divided images are photographed so that overlapping regions are generated, and projective transformation is performed on each of the images based on the features of the overlapping regions. A positional relationship is determined to generate a composite image. In order to prevent deterioration of the image in the overlapping area when creating the synthesized image, instead of synthesizing two images to generate an image of the overlapping area, only one of the images is used (adopted ) is getting the overlap region image. It is also described that the image selection method to be adopted is based on the brightness of the image, the sharpness of the subject, and the like.

WO/2019/003796WO/2019/003796

しかし、重複領域の画像の選択を画像の明るさや鮮鋭さに基づき決定すると、損傷(ひび等)のデータ精度が低下する場合があった。 However, if the selection of the image of the overlap region is determined based on the brightness and sharpness of the image, the data accuracy of the damage (cracks, etc.) may be degraded.

そこで、上記課題を解決する本発明は、被写体を一部の領域が重複するように分割撮影して取得した複数の画像を入力するステップと、前記複数の画像を合成するための合成パラメータ(ex.射影変換パラメータ)を画像どうしの対応点に基づいて算出するステップと、
前記複数の画像を構成する画像から前記被写体の損傷の検出を行うステップと、前記複数の画像についての前記検出の結果を前記合成パラメータに基づいて合成するステップと、を有し、
前記合成するステップにおいて、重複する領域においては、重複する複数の画像のうちの一方の画像を選択して合成を行い、該選択された一方の画像は、他方の画像よりも前記合成パラメータの値が小さいことを特徴とする。
Therefore, the present invention for solving the above problems provides a step of inputting a plurality of images acquired by dividing and photographing a subject such that a part of the area overlaps; a step of calculating a projective transformation parameter) based on the corresponding points of the images;
a step of detecting damage to the subject from images constituting the plurality of images; and a step of synthesizing the detection results of the plurality of images based on the synthesis parameter;
In the synthesizing step, in the overlapping region, one of the multiple overlapping images is selected and synthesized, and the selected one image has a higher value of the synthesizing parameter than the other image. is small.

本発明によれば、重複領域における、損傷の形状に関する測定精度が向上する。 According to the present invention, the measurement accuracy of the shape of the damage in the overlap region is improved.

第1の実施形態に係る損傷図作成システムの構成を示すブロック図である。1 is a block diagram showing the configuration of a damage drawing creation system according to a first embodiment; FIG. 処理部の構成を示す図である。It is a figure which shows the structure of a process part. 記憶部に記憶される情報を示す図である。It is a figure which shows the information memorize|stored in a memory|storage part. サーバの構成を示す図である。It is a figure which shows the structure of a server. 第1の実施形態に係る損傷図作成方法のフローチャートを示す図である。It is a figure which shows the flowchart of the damage diagram preparation method which concerns on 1st Embodiment. 第1の実施形態に係る損傷図作成方法のフローチャートを示す他の図である。FIG. 5 is another diagram showing a flow chart of the damage diagram creation method according to the first embodiment. 床版の撮影手順の例を示す図である。It is a figure which shows the example of the imaging|photography procedure of a floor slab. 格間の撮影手順の例を示す図である。It is a figure which shows the example of the photography procedure of a coffer. 各画像の撮影範囲を示す図である。It is a figure which shows the imaging|photography range of each image. 各撮影画像を示す図である。It is a figure which shows each picked-up image. フォルダの階層構造を示す図である。FIG. 4 is a diagram showing a hierarchical structure of folders; 撮影画像をフォルダに格納した様子を示す図である。FIG. 10 is a diagram showing a state in which photographed images are stored in a folder; 画像配置決定の処理を示すフローチャートである。10 is a flow chart showing image layout determination processing. 基準画像設定の様子を示す図である。FIG. 10 is a diagram showing how a reference image is set; 画像群ごとの画像配置の例を示す図である。FIG. 4 is a diagram showing an example of image arrangement for each image group; 画像群ごとの画像配置の例を示す他の図である。FIG. 11 is another diagram showing an example of image arrangement for each image group; ベクトル化した検出結果を画像に重畳表示した様子を示す図である。It is a figure which shows a mode that the vectorized detection result was superimposed and displayed on the image. 画像群ごとの相対配置の変更の様子を示す図である。FIG. 10 is a diagram showing how the relative arrangement of each image group is changed; 画像群に対応点を設定する様子を示す図である。FIG. 10 is a diagram showing how corresponding points are set in an image group; 検出結果の合成を示す図である。It is a figure which shows the synthesis|combination of a detection result. 検出結果の合成を示す他の図である。FIG. 11 is another diagram showing synthesis of detection results; 画像が重複する領域での検出結果の合成を示す図である。FIG. 10 is a diagram illustrating synthesis of detection results in areas where images overlap; 合成した画像を示す図である。It is a figure which shows the synthesized image. 合成した画像を示す他の図である。FIG. 11 is another diagram showing a synthesized image; 検出結果等を画像と同一のフォルダに格納した様子を示す図である。It is a figure which shows a mode that the detection result etc. were stored in the same folder as an image. 第2の実施形態に係る損傷図作成装置の構成を示すブロック図である。FIG. 11 is a block diagram showing the configuration of a damage diagram creation device according to a second embodiment; 画像が重複する領域での検出結果の合成の他の例を示す図である。FIG. 10 is a diagram showing another example of combining detection results in an area where images overlap; 画像が重複する領域での検出結果の合成の他の例を示す図である。FIG. 10 is a diagram showing another example of combining detection results in an area where images overlap; 画像が重複する領域での合成パラメータ算出の例を示す図である。FIG. 10 is a diagram illustrating an example of calculation of synthesis parameters in an area where images overlap; 第3の実施形態に係る損傷図作成方法のフローチャートを示す図である。FIG. 11 is a diagram showing a flowchart of a damage diagram creation method according to a third embodiment; 第3の実施形態に係る損傷図作成方法の概念図である。FIG. 11 is a conceptual diagram of a damage diagram creation method according to a third embodiment;

以下、添付図面を参照しつつ、本発明に係る損傷図作成方法、損傷図作成装置、損傷図作成システム、及び記録媒体の実施形態について、詳細に説明する。 EMBODIMENT OF THE INVENTION Hereafter, embodiment of the damage diagram creation method, damage diagram creation apparatus, damage diagram creation system, and recording medium which concerns on this invention is described in detail, referring an accompanying drawing.

<第1の実施形態>
<橋梁の構造>
本発明の損傷図作成方法及び損傷図作成装置を適用しうる好ましい構造物として、例えば橋梁がある。この構造ついては特許文献1の図1を参照されたい。尚、以下の本実施形態では橋梁を対象(被写体)とする場合について説明するが、対象とする建造物は橋梁に限らずトンネル、ビル等、道路等でもよい。
<First Embodiment>
<Bridge structure>
A preferred structure to which the damage diagram creation method and damage diagram creation apparatus of the present invention can be applied is, for example, a bridge. See FIG. 1 of Patent Document 1 for this structure. In the present embodiment below, a bridge will be described as an object (subject), but the object building is not limited to a bridge, but may be a tunnel, a building, a road, or the like.

<画像の取得>
橋梁の画像を撮影して損傷を検出する場合、検査員はデジタルカメラ100(図1参照)を用いて橋梁を下方から撮影し、検査範囲について複数の撮影画像(橋梁の異なる部分がそれぞれ撮影された複数の画像)を分割して取得する。撮影は、橋梁の延伸方向及びその直交方向に適宜移動しながら行う。なお橋梁の周辺状況により検査員の移動が困難な場合は、橋梁に沿って移動可能な移動体にデジタルカメラ100を設けて撮影を行ってもよい。このような移動体には、デジタルカメラ100の昇降機構、回転機構(パン及び/またはチルトを行う機構)を設けてもよい。なお移動体の例としては車輌、ロボット、及び飛翔体(ドローン等)を挙げることができるが、これらに限定されるものではない。
<Acquisition of image>
When detecting damage by photographing an image of a bridge, the inspector photographs the bridge from below using the digital camera 100 (see FIG. 1), and obtains a plurality of photographed images (different parts of the bridge are respectively photographed) for the inspection range. multiple images) are divided and acquired. Photographing is performed while moving appropriately in the extension direction of the bridge and in the orthogonal direction. If it is difficult for the inspector to move due to the surrounding conditions of the bridge, a digital camera 100 may be provided on a movable body that can move along the bridge to take pictures. An elevating mechanism and a rotating mechanism (a mechanism for panning and/or tilting) of the digital camera 100 may be provided in such a moving body. Examples of mobile objects include vehicles, robots, and flying objects (drones, etc.), but are not limited to these.

<損傷図作成システムの構成>
図1は、損傷図作成システム10(損傷図作成システム)の概略構成を示すブロック図である。損傷図作成システム10はデジタルカメラ100、クライアント200、及びサーバ300を備え、被写体を分割撮影して取得した複数の画像について損傷の検出、検出結果の合成等を行い損傷図の作成をするシステムである。損傷図作成システム10では、画像を入力して結果をサーバ300から受け取るパーソナルコンピュータ、タブレット端末、スマートフォン等の機器(情報端末)をクライアント200として用いることができ、クライアント200とネットワーク接続されたコンピュータをサーバ300として用いることができる。
<Configuration of damage diagram creation system>
FIG. 1 is a block diagram showing a schematic configuration of a damage diagram creation system 10 (damage diagram creation system). The damage drawing creation system 10 is equipped with a digital camera 100, a client 200, and a server 300, and is a system for creating a damage drawing by detecting damage in a plurality of images obtained by separately photographing a subject, synthesizing the detection results, and the like. be. In the damage drawing creation system 10, a device (information terminal) such as a personal computer, a tablet terminal, or a smart phone that inputs an image and receives the result from the server 300 can be used as the client 200. A computer connected to the client 200 via a network can be used. It can be used as the server 300 .

<デジタルカメラの構成>
デジタルカメラ100は、図示せぬ撮影レンズ及び撮像素子を備える撮像光学系110により画像を取得する。撮像素子の例としてはCCD(Charge Coupled Device)型の撮像素子及びCMOS(Complementary Metal-Oxide Semiconductor)型の撮像素子を挙げることができる。撮像素子の受光面上にはR(赤),G(緑),またはB(青)のカラーフィルタが設けられており、各色の信号に基づいて被写体のカラー画像を取得することができる。デジタルカメラ100は、無線通信部130及びアンテナ132を介してクライアント200との無線通信を行い、撮影された画像が処理部210に入力されて後述する処理が行われる。なお、デジタルカメラ100はクライアント200と別々の筐体に組み込んでもよいし、一体化してもよい。
<Configuration of digital camera>
The digital camera 100 acquires an image by an image pickup optical system 110 having a photographing lens and an image sensor (not shown). Examples of the imaging device include a CCD (Charge Coupled Device) type imaging device and a CMOS (Complementary Metal-Oxide Semiconductor) type imaging device. A color filter of R (red), G (green), or B (blue) is provided on the light receiving surface of the imaging device, and a color image of the subject can be obtained based on the signals of each color. The digital camera 100 wirelessly communicates with the client 200 via the wireless communication unit 130 and the antenna 132, and the photographed image is input to the processing unit 210 for processing described later. Note that the digital camera 100 and the client 200 may be incorporated in separate housings, or integrated with each other.

<クライアントの全体構成>
クライアント200は処理部210、記憶部220、表示部230、及び操作部240を備え、これら各部は互いに接続されて必要な情報が送受信される。また、クライアント200はアンテナ212を介してデジタルカメラ100との間で無線通信を行い、デジタルカメラ100で撮影された撮影画像を取得する。さらに、クライアント200はネットワークNWを介してサーバ300と接続され、サーバ300との間で、取得した画像の送信、及び送信された画像に対する処理結果(合成検出結果、合成画像等)、処理要求とその応答等を送受信する。
<Overall configuration of the client>
The client 200 includes a processing unit 210, a storage unit 220, a display unit 230, and an operation unit 240. These units are connected to each other to transmit and receive necessary information. Also, the client 200 performs wireless communication with the digital camera 100 via the antenna 212 and acquires an image captured by the digital camera 100 . Further, the client 200 is connected to the server 300 via the network NW, and exchanges with the server 300 the transmission of the acquired image, the processing result (composite detection result, composite image, etc.) for the transmitted image, the processing request, and the processing request. Send and receive the response, etc.

<処理部の構成>
図2は処理部210の構成を示す図である。処理部210は、画像入力部210A(画像入力部)、ファイル管理部210B、表示制御部210C、通信制御部210Dを備え、デジタルカメラ100で取得した撮影画像のサーバ300への送信、処理結果の受信、及び処理結果のモニタ232への表示制御等を行う。画像入力部210Aは、デジタルカメラ100(または記録媒体、ネットワーク等)から橋梁の撮影画像(橋梁を分割撮影した複数の画像)を入力する。ファイル管理部210Bは、キーボード242及び/またはマウス244を介したユーザ操作に応じてフォルダを作成する。表示制御部210Cは、取得した画像、受信した処理結果等のモニタ232への表示制御を行う。通信制御部210Dは、アンテナ212を介してデジタルカメラ100との間で画像、情報を送受信し、またネットワークNWを介してサーバ300との間で画像、情報を送受信する。ROM210E(ROM:Read Only Memory、非一時的記録媒体)には、画像取得、送受信等の処理に必要なプログラム(本発明に係る損傷図作成方法を実行するためのプログラムまたはその一部を含む)のコンピュータ読み取り可能なコードが記録される。
<Structure of Processing Unit>
FIG. 2 is a diagram showing the configuration of the processing unit 210. As shown in FIG. The processing unit 210 includes an image input unit 210A (image input unit), a file management unit 210B, a display control unit 210C, and a communication control unit 210D. It receives and controls the display of processing results on the monitor 232 . The image input unit 210A inputs photographed images of a bridge (a plurality of images obtained by dividing and photographing a bridge) from the digital camera 100 (or recording medium, network, etc.). The file management unit 210B creates folders according to user operations via the keyboard 242 and/or the mouse 244. FIG. The display control unit 210C performs display control on the monitor 232 of the obtained image, the received processing result, and the like. The communication control unit 210D transmits and receives images and information to and from the digital camera 100 via the antenna 212, and transmits and receives images and information to and from the server 300 via the network NW. The ROM 210E (ROM: Read Only Memory, non-temporary recording medium) contains programs necessary for processing such as image acquisition, transmission and reception (including a program for executing the damage diagram creation method according to the present invention or a part thereof) computer readable code is recorded.

上述した処理部210の各機能は、サーバ300について詳細を後述するのと同様に、各種のプロセッサあるいは電気回路が記録媒体に記録されたソフトウェアを参照することで実現することができる。 Each function of the processing unit 210 described above can be realized by referring to software recorded in a recording medium by various processors or electric circuits, in the same way as the server 300 will be described in detail later.

<記憶部の構成>
記憶部220はCD(Compact Disk)、DVD(Digital Versatile Disk)、ハードディスク(Hard Disk)、各種半導体メモリ等の非一時的記録媒体及びその制御部により構成され、図3に示す画像及び情報が互いに関連づけて記憶される。撮影画像220Aは、被写体である橋梁(床版の部分)をデジタルカメラ100で分割撮影し画像入力部210Aで入力した複数の画像である。なお、デジタルカメラ100及び画像入力部210Aにより入力した画像でなく、ネットワーク、記録媒体経由で取得した画像を記憶してもよい。検出結果220Bは、撮影画像220Aを構成する個々の画像に対する損傷の検出結果、及び個々の画像に対する検出結果を合成した検出結果を含む。合成画像220Cは、撮影画像を合成した画像(部分的に合成した画像群を含む)である。損傷マッピング画像220Dは、損傷を示す情報(検出結果等)をマッピングした画像である。これらの画像及び情報は、フォルダに格納することができる(図11,12参照)。
<Structure of storage unit>
The storage unit 220 is composed of a non-temporary recording medium such as a CD (Compact Disk), a DVD (Digital Versatile Disk), a hard disk, various semiconductor memories, etc., and a control unit thereof, and the images and information shown in FIG. stored in association with each other. The photographed image 220A is a plurality of images obtained by dividing and photographing the bridge (floor slab portion), which is a subject, with the digital camera 100 and inputting the photographed image with the image input unit 210A. It should be noted that an image obtained via a network or a recording medium may be stored instead of the image input by the digital camera 100 and the image input unit 210A. The detection result 220B includes damage detection results for the individual images that make up the captured image 220A and detection results obtained by synthesizing the detection results for the individual images. The synthesized image 220C is an image obtained by synthesizing the captured images (including a partially synthesized image group). The damage mapping image 220D is an image in which information indicating damage (detection results, etc.) is mapped. These images and information can be stored in folders (see FIGS. 11 and 12).

<表示部及び操作部の構成>
表示部230はモニタ232(表示装置)を備えており、入力した画像、記憶部220に記憶された画像及び情報、サーバ300による処理の結果等を表示することができる。操作部240は入力デバイス及び/またはポインティングデバイスとしてのキーボード242及びマウス244を含んでおり、ユーザはこれらのデバイス及びモニタ232の画面を介して、フォルダの作成、画像のフォルダへの格納、対応点の指定等、本発明に係る損傷図作成方法の実行に必要な操作を行うことができる(後述)。
<Configuration of display unit and operation unit>
The display unit 230 includes a monitor 232 (display device), and can display input images, images and information stored in the storage unit 220, results of processing by the server 300, and the like. The operation unit 240 includes a keyboard 242 and a mouse 244 as input devices and/or pointing devices, and the user can create folders, store images in folders, and create corresponding points via these devices and the screen of the monitor 232 . , and other operations necessary for executing the damage diagram creation method according to the present invention (described later).

<サーバの構成>
図4はサーバ300の構成を示す図である。サーバ300は画像取得部300A(画像取得部)、合成パラメータ算出部300B(合成パラメータ算出部)、画像合成部300C、損傷検出部300D(損傷検出部)、検出結果合成部300E(検出結果合成部)、対応点指定部300F(対応点指定部)を備える。サーバ300は、さらに損傷マッピング部300G、検出結果出力部300H(検出結果出力部)、表示制御部300I(表示制御部)、通信制御部300J、及びROM300K(非一時的記録媒体)を備える。サーバ300はネットワークNWを介してクライアント200と接続され、クライアント200から撮影画像(図3の撮影画像220A)を取得して損傷の検出、検出結果の合成等を行う。
<Server configuration>
FIG. 4 is a diagram showing the configuration of the server 300. As shown in FIG. The server 300 includes an image acquisition unit 300A (image acquisition unit), a synthesis parameter calculation unit 300B (synthesis parameter calculation unit), an image synthesis unit 300C, a damage detection unit 300D (damage detection unit), a detection result synthesis unit 300E (detection result synthesis unit ), and a corresponding point designating section 300F (corresponding point designating section). The server 300 further includes a damage mapping section 300G, a detection result output section 300H (detection result output section), a display control section 300I (display control section), a communication control section 300J, and a ROM 300K (non-temporary recording medium). The server 300 is connected to the client 200 via the network NW, acquires a photographed image (the photographed image 220A in FIG. 3) from the client 200, detects damage, synthesizes the detection results, and the like.

画像取得部300Aは、クライアント200から撮影画像(図3の撮影画像220A)を入力する。合成パラメータ算出部300Bは、撮影画像を合成するための合成パラメータを、画像どうしの対応点に基づいて算出する。画像合成部300Cは、合成パラメータに基づいて撮影画像を合成する。損傷検出部300Dは、撮影画像から被写体(橋梁)の損傷(ひび割れ、剥離、腐食等)を検出(抽出及び計測)する。検出結果合成部300Eは、撮影画像についての損傷の検出結果(検出の結果)を、合成パラメータ算出部300Bが算出した合成パラメータに基づいて合成する。対応点指定部300Fは、ユーザの指示入力に基づいて、表示された画像群のうちの一の画像群と画像群のうちの他の画像群とについて対応点を指定する。損傷マッピング部300Gは、損傷を示す情報を合成画像にマッピングする。検出結果出力部300Hは、損傷の検出結果、合成した検出結果、識別情報、合成画像、損傷マッピング画像等をクライアント200に出力する。表示制御部300Iは、撮影画像、検出結果等をモニタ232(表示装置)に表示させる。通信制御部300Jは、ネットワークNWを介してクライアント200との間で画像、情報を送受信する。ROM300K(非一時的記録媒体)には、本発明に係る損傷図作成方法を実行するための損傷図作成プログラム等、損傷図作成システム10が動作するための各種プログラムのコンピュータ読み取り可能なコードが記録される。サーバ300は、上述の各部の他に図示せぬ記録装置(例えば、ハードディスク等の光磁気記録媒体)を備え、クライアント200から取得した画像及び情報、またサーバ300の各部による処理結果(損傷の検出結果等)を記録する。記録された画像等は、要求に応じてクライアント200に送信することができる。 The image acquisition unit 300A receives a captured image (captured image 220A in FIG. 3) from the client 200 . The compositing parameter calculator 300B calculates compositing parameters for compositing captured images based on corresponding points between the images. The image synthesizing unit 300C synthesizes the captured images based on the synthesizing parameters. The damage detection unit 300D detects (extracts and measures) damage (cracks, delamination, corrosion, etc.) of the subject (bridge) from the captured image. The detection result synthesizing unit 300E synthesizes damage detection results (detection results) for the captured image based on the synthesis parameters calculated by the synthesis parameter calculating unit 300B. The corresponding point designation unit 300F designates corresponding points for one image group among the displayed image groups and another image group among the image groups based on the instruction input by the user. The damage mapping unit 300G maps information indicating damage to the composite image. The detection result output unit 300</b>H outputs damage detection results, synthesized detection results, identification information, synthesized images, damage mapping images, and the like to the client 200 . The display control unit 300I causes the monitor 232 (display device) to display the captured image, the detection result, and the like. The communication control unit 300J transmits and receives images and information to and from the client 200 via the network NW. The ROM 300K (non-temporary recording medium) records computer-readable codes of various programs for operating the damage diagram creation system 10, such as a damage diagram creation program for executing the damage diagram creation method according to the present invention. be done. The server 300 includes a recording device (for example, a magneto-optical recording medium such as a hard disk) (not shown) in addition to the above-described units. results, etc.). The recorded images and the like can be transmitted to the client 200 upon request.

上述したサーバ300の各部の機能は、各種のプロセッサ(processor)を用いて実現できる。各種のプロセッサには、例えばソフトウェア(プログラム)を実行して各種の機能を実現する汎用的なプロセッサであるCPU(Central Processing Unit)が含まれる。また、上述した各種のプロセッサには、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)も含まれる。さらに、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路なども上述した各種のプロセッサに含まれる。 The function of each unit of the server 300 described above can be realized using various processors. Various processors include, for example, a CPU (Central Processing Unit), which is a general-purpose processor that executes software (programs) to realize various functions. The various processors described above also include a programmable logic device (PLD), which is a processor whose circuit configuration can be changed after manufacturing, such as an FPGA (Field Programmable Gate Array). Furthermore, a dedicated electric circuit, which is a processor having a circuit configuration specially designed for executing specific processing such as ASIC (Application Specific Integrated Circuit), is also included in the various processors described above.

各部の機能は1つのプロセッサにより実現されてもよいし、複数のプロセッサを組み合わせて実現されてもよい。また、複数の機能を1つのプロセッサで実現してもよい。複数の機能を1つのプロセッサで構成する例としては、第1に、クライアント、サーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の機能として実現する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、システム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の機能は、ハードウェア的な構造として、上述した各種のプロセッサを1つ以上用いて構成される。さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。 The function of each unit may be realized by one processor, or may be realized by combining a plurality of processors. Also, a plurality of functions may be realized by one processor. As an example of configuring a plurality of functions in one processor, first, as represented by computers such as clients and servers, one processor is configured by combining one or more CPUs and software, and this processor is implemented as multiple functions. Secondly, as typified by System On Chip (SoC), there is a form of using a processor that implements the functions of the entire system with a single IC (Integrated Circuit) chip. In this way, various functions are configured using one or more of the various processors described above as a hardware structure. Further, the hardware structure of these various processors is, more specifically, an electric circuit combining circuit elements such as semiconductor elements.

上述したプロセッサあるいは電気回路がソフトウェア(プログラム)を実行する際は、実行するソフトウェア(本発明に係る損傷図作成方法を実行するためのプログラムを含む)のプロセッサ(コンピュータ)読み取り可能なコードをROM300K(図4を参照)等の非一時的記録媒体に記憶しておき、プロセッサがそのソフトウェアを参照する。ROM300Kではなく各種光磁気記録装置、半導体メモリ等の非一時的記録媒体にコードを記録してもよい。ソフトウェアを用いた処理の際には例えばRAM(Random Access Memory)が一時的記憶領域として用いられ、また例えばEEPROM(Electronically Erasable and Programmable Read Only Memory)に記憶されたデータが参照される。なお、図4ではRAM,EEPROM等のデバイスの図示は省略する。 When the processor or electric circuit described above executes software (program), the processor (computer) readable code of the software to be executed (including the program for executing the damage diagram creation method according to the present invention) is stored in the ROM 300K ( (see FIG. 4), etc.), and the processor refers to the software. Codes may be recorded in non-temporary recording media such as various magneto-optical recording devices and semiconductor memories instead of the ROM 300K. During processing using software, for example, a RAM (Random Access Memory) is used as a temporary storage area, and data stored in, for example, an EEPROM (Electronically Erasable and Programmable Read Only Memory) is referred to. In FIG. 4, illustration of devices such as RAM and EEPROM is omitted.

なお、上述したクライアント200の各機能も、サーバ300と同様に各種プロセッサ、電気回路、及びソフトウェアにより実現することができる。 Each function of the client 200 described above can also be realized by various processors, electrical circuits, and software, like the server 300 .

<画像処理の手順>
損傷図作成システム10による画像処理について説明する。図5,6は画像処理(本発明に係る損傷図作成方法の各処理を含む)の手順を示すフローチャートである。これらの図において、ステップS100~S112はクライアント200での処理を示し、ステップS200~S236はサーバ300での処理を示す。
<Image processing procedure>
Image processing by the damage diagram creation system 10 will be described. 5 and 6 are flow charts showing the procedure of image processing (including each process of the damage diagram creation method according to the present invention). In these figures, steps S100 to S112 show processing in client 200, and steps S200 to S236 show processing in server 300. FIG.

<撮影>
図5,6に示す手順では、デジタルカメラ100により橋梁1(建造物)を分割撮影して複数の撮影画像を取得する(ステップS100)。
photograph
In the procedure shown in FIGS. 5 and 6, the digital camera 100 divides and photographs the bridge 1 (building) to obtain a plurality of photographed images (step S100).

本実施形態では、床版6を撮影する場合について説明する。図7は床版6の撮影手順の例を示す図である。図7では、主桁(x方向に伸びる部材)及び横桁(y方向に伸びる部材)で規定される格間GOを含む領域Aを単位として撮影を行い、撮影領域をy方向及びx方向に(矢印の方向に)順次移動させながら撮影を繰り返す様子を示している。撮影範囲全体の画像が取得できれば、撮影は他の手順で行ってもよい。なお、図7では橋梁(床版)の延伸方向をx、床版の面内でxと直交する方向をy、床版と直交する方向(垂直下方向)をzとし、(x,y,z)で座標を構成している。 In this embodiment, a case of photographing the floor slab 6 will be described. FIG. 7 is a diagram showing an example of the photographing procedure of the floor slab 6. As shown in FIG. In FIG. 7, an area A including a coffer GO defined by a main girder (a member extending in the x direction) and a horizontal girder (a member extending in the y direction) is photographed as a unit, and the photographing area is taken in the y direction and the x direction. It shows a state in which photographing is repeated while being sequentially moved (in the direction of the arrow). As long as an image of the entire imaging range can be acquired, the imaging may be performed by other procedures. In FIG. 7, the extending direction of the bridge (floor slab) is x, the direction perpendicular to x in the plane of the floor slab is y, the direction perpendicular to the floor slab (vertically downward direction) is z, and (x, y, z) constitute the coordinates.

図8は1つの格間GOでの撮影手順の例を示す図である。図8の例では、格間GOの+x側端部の領域A1から開始して-x方向端部の領域Aiに至るまで移動しながら撮影し、再度+x側端部に戻って領域Ajから初めて-x方向端部の領域Anに至るまで、合計n枚(nは2以上の整数)の画像を撮影する。これと異なるパターン(例えば領域A1~Ai~An~Ajの順)で撮影してもよい。撮影の際は、1画像を撮影するごとに撮影位置を移動し常に正対した画像を撮影してもよいし、1つの撮影位置で撮影方向を変えながら複数の画像を撮影してもよい(この場合、斜め方向から撮影された画像が含まれることになる)。また撮影においては、撮影位置及び撮影方向を適切に設定することにより隣接する画像で十分な(例えば、30%程度)重複を生じさせ、対応点の検出及び設定を容易かつ高精度にすることが好ましい。 FIG. 8 is a diagram showing an example of a photographing procedure in one crate GO. In the example of FIG. 8, the image is taken while moving from the area A1 on the +x side end of the partition GO to the area Ai on the -x direction end, then returning to the +x side end again and starting from the area Aj. A total of n images (n is an integer equal to or greater than 2) are taken up to the area An at the end in the -x direction. A pattern different from this (for example, the order of areas A1 to Ai to An to Aj) may be used. When shooting, the shooting position may be moved each time an image is shot and an image always facing the front may be shot, or a plurality of images may be shot while changing the shooting direction at one shooting position ( In this case, images taken from an oblique direction will be included). In addition, in photographing, by appropriately setting the photographing position and photographing direction, it is possible to generate a sufficient overlap (for example, about 30%) in adjacent images, and to easily detect and set corresponding points with high accuracy. preferable.

図9は撮影画像の例であり、画像i1~i10まで10枚の画像を、重複を確保しつつ撮影した様子を示している。また、図10は画像i1~i10を個別に示す図である。なお図9,10では、格間GOの枠F(主桁及び横桁で規定される矩形)を図示しており、その他の部材及び床板に生じた損傷は図示を省略している。 FIG. 9 is an example of captured images, and shows how 10 images i1 to i10 are captured while ensuring overlap. Also, FIG. 10 is a diagram showing the images i1 to i10 individually. 9 and 10 show the frame F of the coffer GO (a rectangle defined by the main girder and the horizontal girder), and omit the illustration of damage to other members and floorboards.

クライアント200は、デジタルカメラ100(撮像光学系110、無線通信部130、アンテナ132)及び処理部210(通信制御部210D、画像入力部210A、アンテナ212)を介して、上述した複数の撮影画像を入力する(ステップS102)。 The client 200 captures the plurality of captured images via the digital camera 100 (imaging optical system 110, wireless communication unit 130, antenna 132) and processing unit 210 (communication control unit 210D, image input unit 210A, antenna 212). Input (step S102).

<画像及び情報の格納>
損傷図作成システム10では、クライアント200の記憶部220にフォルダを作成して撮影画像を格納する。図11はフォルダ構造の例を示す図である。図11の例では、橋梁の全体に対してメインフォルダMFを作成し、このメインフォルダの中に撮影領域(検査領域1A,検査領域1B)ごとにサブフォルダSF1,SF2を作成している。撮影領域ごとのサブフォルダの中には、主桁及び横桁で規定される格間GOごとにさらにサブフォルダSS1~SS5を作成して撮影画像を格納している。図12は格間番号がA001の格間(サブフォルダSS1)について10枚の撮影画像を格納した様子を示す。
<Storing images and information>
In the damage drawing creation system 10, a folder is created in the storage unit 220 of the client 200 to store the photographed images. FIG. 11 is a diagram showing an example of the folder structure. In the example of FIG. 11, a main folder MF is created for the entire bridge, and subfolders SF1 and SF2 are created in this main folder for each imaging area (inspection area 1A, inspection area 1B). In the subfolder for each photographing area, subfolders SS1 to SS5 are further created for each girder GO defined by the main girder and the horizontal girder to store the photographed images. FIG. 12 shows a state in which 10 photographed images are stored for the case with the case number A001 (subfolder SS1).

図11,12に示すフォルダ構造は、ファイル管理部210Bが操作部240(キーボード242、マウス244)の操作に応じて作成することができる。なおフォルダ構成は図11,12の例と異なる態様でもよく、例えば部材番号ごとにサブフォルダを作成してもよい。詳細を後述するように、損傷図作成システム10では損傷の検出結果(検出の結果)をフォルダ(サブフォルダも「フォルダ」に含む)ごとに合成し、合成した検出結果を撮影画像と同一のフォルダに格納する。 The folder structures shown in FIGS. 11 and 12 can be created by the file management unit 210B according to the operation of the operation unit 240 (keyboard 242, mouse 244). The folder structure may be different from the examples shown in FIGS. 11 and 12. For example, subfolders may be created for each member number. As will be described in detail later, the damage diagram creation system 10 synthesizes the damage detection results (detection results) for each folder (subfolders are also included in "folders"), and stores the synthesized detection results in the same folder as the captured image. Store.

<画像取得>
クライアント200の操作部240はキーボード242及び/またはマウス244を介した損傷検出及び合成の指示操作を受け付け(ステップS104)、この操作に応じてサーバ300(画像取得部300A)が撮影画像を取得する(ステップS200)。画像取得部300Aは、クライアント200(記憶部220)の同一のフォルダに格納された画像を同一のグループに属する画像として取得する。例えば、図11,12に示すサブフォルダSS1に格納された10枚の撮像画像を同一のグループに属する画像として取得する。
<Image acquisition>
The operation unit 240 of the client 200 receives an instruction operation for damage detection and synthesis via the keyboard 242 and/or the mouse 244 (step S104), and the server 300 (image acquisition unit 300A) acquires a captured image in response to this operation. (Step S200). The image acquisition unit 300A acquires images stored in the same folder in the client 200 (storage unit 220) as images belonging to the same group. For example, ten captured images stored in the subfolder SS1 shown in FIGS. 11 and 12 are acquired as images belonging to the same group.

<合成パラメータの算出>
ステップS200で撮影画像が取得されたら、サーバ300(合成パラメータ算出部300B)は、複数の画像を合成するための合成パラメータを画像どうしの対応点に基づいて算出する(ステップS202)。例えば、撮影画像のうちの基準画像に対する他の画像の射影変換行列を合成パラメータとして算出することができる。なお、図5のフローチャートではステップS202の合成パラメータ算出を先に行う例を記載しているが、ステップS204の損傷検出を先に行ってもよいし、ステップS202,S204を並行して行ってもよい。
<Calculation of synthetic parameters>
After the captured images are acquired in step S200, the server 300 (synthesis parameter calculation unit 300B) calculates synthesis parameters for synthesizing a plurality of images based on corresponding points between the images (step S202). For example, a projective transformation matrix of another image with respect to the reference image among the captured images can be calculated as a synthesis parameter. Although the flow chart of FIG. 5 describes an example in which the synthetic parameter calculation in step S202 is performed first, the damage detection in step S204 may be performed first, or steps S202 and S204 may be performed in parallel. good.

<損傷の検出>
サーバ300(損傷検出部300D)は、取得した撮影画像から損傷を検出(抽出及び計測)する(ステップS204)。損傷の分類としては剥離、漏水、ひび割れ、錆などを挙げることができるが、具体的に検出する損傷の種類は建造物(被写体)の種類、特徴、検査の目的等の条件に応じて設定してよい。また、検出する項目としては位置、大きさ、方向、範囲、形状等があるが、検出項目についても損傷の分類に応じて、また建造物の種類、特徴、検査の目的等の条件に応じて設定してよい。損傷の検出においては、損傷検出部300Dが検出結果(検出の結果)をベクトル化し、始点及び終点を有する線分またはその集合(ひび割れ等、線状の損傷の場合)、またはそのような線分により構成される多角形等の図形(剥離、腐食のように広がりのある損傷の場合)で表す。
<Damage detection>
The server 300 (damage detection unit 300D) detects (extracts and measures) damage from the captured image (step S204). Damage can be classified into delamination, water leakage, cracks, rust, etc., but the specific types of damage to be detected are set according to conditions such as the type and characteristics of the building (object) and the purpose of the inspection. you can The items to be detected include position, size, direction, range, shape, etc. The items to be detected also depend on the type of damage, the type of building, the characteristics of the building, the purpose of the inspection, and other conditions. can be set. In the damage detection, the damage detection unit 300D vectorizes the detection result (detection result), a line segment having a start point and an end point or a set thereof (in the case of linear damage such as a crack), or such a line segment It is represented by a figure such as a polygon formed by (in the case of extensive damage such as peeling and corrosion).

損傷の検出は分類に応じて種々の手法により行うことができるが、ひび割れについては、例えば特許4006007号公報に記載されたひび割れ検出方法を用いることができる。この方法は、ウェーブレット画像を作成する工程と、ウェーブレット画像に基づいてひび割れ領域を判定する工程と、を有するひび割れ検出方法である。ウェーブレット画像を作成する工程では、対比される2つの濃度に対応したウェーブレット係数を算定するとともに、その2つの濃度をそれぞれ変化させた場合のそれぞれのウェーブレット係数を算定してウェーブレット係数テーブルを作成し、ひび割れ検出対象であるコンクリート表面を撮影した入力画像をウェーブレット変換する。ひび割れ領域を判定する工程では、ウェーブレット係数テーブル内において、局所領域内の近傍画素の平均濃度と注目画素の濃度に対応するウェーブレット係数を閾値として、注目画素のウェーブレット係数と閾値とを比較することによりひび割れ領域とひび割れでない領域とを判定する。 Damage can be detected by various methods depending on the classification. For cracks, for example, the crack detection method described in Japanese Patent No. 4006007 can be used. The method is a crack detection method comprising the steps of creating a wavelet image and determining a crack region based on the wavelet image. In the step of creating a wavelet image, calculating wavelet coefficients corresponding to two densities to be compared, and calculating respective wavelet coefficients when the two densities are changed respectively to create a wavelet coefficient table, Wavelet transformation is performed on the input image of the concrete surface, which is the target of crack detection. In the step of determining a crack region, the wavelet coefficients corresponding to the average density of neighboring pixels in the local region and the density of the pixel of interest are used as thresholds in the wavelet coefficient table, and the wavelet coefficients of the pixel of interest are compared with the threshold. Cracked and non-cracked areas are determined.

また、錆及び剥離を検出する方法としては、例えば特表2010-538258号公報に記載された鋼橋の塗膜検査システムの処理方法を用いることができる。この処理方法では、撮影された鋼橋塗膜の画像ファイルからの色情報、映像処理、ウォーターシェッド、パルツェン窓を用いて錆と剥離を検出している。 Further, as a method for detecting rust and peeling, for example, a processing method for a coating film inspection system for steel bridges described in Japanese Patent Publication No. 2010-538258 can be used. In this processing method, rust and flaking are detected using color information, image processing, water sheds, and Parzen windows from image files of steel bridge coatings taken.

第1の実施形態に係る損傷図作成システム10では、このように合成前の撮影画像から損傷を検出する。したがって画像の重複領域での画質劣化に起因して損傷検出性能が劣化することがないので、被写体を分割撮影して取得した複数の画像に基づいて損傷を高精度に検出することができる。なお、損傷の検出結果は、後述するように画像どうしの合成パラメータを用いて合成する。 In the damage diagram creation system 10 according to the first embodiment, damage is detected from the photographed images before synthesis in this way. Therefore, damage detection performance is not degraded due to deterioration of image quality in the overlapped area of the images, so damage can be detected with high accuracy based on a plurality of images obtained by separately photographing the subject. As will be described later, the damage detection result is synthesized using the synthesis parameters of the images.

<合成可否の判断>
サーバ300(合成パラメータ算出部300B)は、ステップS202で算出した合成パラメータに基づいて全ての撮影画像を1つに合成することができるか否かを判断する(ステップS206)。合成できるか否かは、対応点の数、対応点の信頼性が十分であるか否か(対応点が特徴的な点であるか否か)、対応点により射影変換行列が算出できるか等に基づいて判断することができる。この際、RANSAC(RANdom SAmple Consensus)アルゴリズム等により対応点の組合せを変えて射影変換行列とその評価値の算出を繰り返して判断してもよい。全ての画像を1つの画像に合成できる場合(ステップS206でYES)はステップS222に進んで検出結果(検出の結果)の合成を行う。全ての画像を1つの画像に合成できない場合(ステップS206でNO)は、以下に説明するようにステップS208~S220の処理を行ってからステップS222に進む。ステップS208~S220は全ての画像を1つの画像に合成(自動合成)できない場合の処理であり、これらのステップでは、合成が可能な画像群については画像群ごとに合成パラメータを算出して損傷の検出結果を画像群ごとに合成する。一方、合成ができない画像群の間では、以下に説明するようにユーザ操作に基づき対応点を指定して合成パラメータを算出し、算出した合成パラメータに基づいて検出結果を合成する。例えば、後述する画像群G1,G2(図15~18参照)の場合、画像群G1,G2を構成する画像については検出結果をそれぞれ合成し、画像群G1,G2の間では、ユーザ操作に基づいて算出した合成パラメータに基づいて、画像群G1,G2について合成された検出結果を1つに合成する(図19~21参照)。
<Judgment on whether synthesis is possible>
The server 300 (synthesis parameter calculation unit 300B) determines whether or not all the captured images can be synthesized into one based on the synthesis parameter calculated in step S202 (step S206). Whether or not synthesis is possible depends on the number of corresponding points, whether or not the reliability of the corresponding points is sufficient (whether or not the corresponding points are characteristic points), and whether or not the projective transformation matrix can be calculated from the corresponding points. can be determined based on At this time, the combination of corresponding points may be changed by a RANSAC (RANdom SAmple Consensus) algorithm or the like, and the projective transformation matrix and its evaluation value may be repeatedly calculated and determined. If all the images can be combined into one image (YES in step S206), the process proceeds to step S222 to combine the detection results (detection results). If all the images cannot be combined into one image (NO in step S206), steps S208 to S220 are performed as described below, and then the process proceeds to step S222. Steps S208 to S220 are processing when all images cannot be synthesized (automatic synthesis) into one image. The detection results are combined for each image group. On the other hand, between image groups that cannot be combined, as described below, corresponding points are specified based on user operations, combining parameters are calculated, and detection results are combined based on the calculated combining parameters. For example, in the case of image groups G1 and G2 (see FIGS. 15 to 18), which will be described later, the detection results of the images constituting the image groups G1 and G2 are respectively combined, and between the image groups G1 and G2, based on the user's operation. Based on the synthesis parameters calculated in the above, the detection results synthesized for the image groups G1 and G2 are synthesized into one (see FIGS. 19 to 21).

<画像の分類>
ステップS206で「全ての撮影画像を1つの画像に合成できない」と判断された場合、合成パラメータ算出部300Bは撮影画像を合成が可能な画像群に分け(ステップS208)、画像群ごとに、画像どうしの対応点に基づいて画像配置を決定(合成パラメータを算出)する(ステップS210)。画像配置が決定すれば、その配置に基づいて検出結果を合成することができる。
<Image classification>
If it is determined in step S206 that "all the captured images cannot be combined into one image", the combining parameter calculation unit 300B divides the captured images into groups of images that can be combined (step S208), The image arrangement is determined (combining parameters are calculated) based on the corresponding points (step S210). Once the image layout is determined, detection results can be synthesized based on the layout.

<画像配置の決定>
図13は、図5のステップS210における画像配置決定の処理の詳細を示すフローチャートである。合成パラメータ算出部300Bは、複数の撮影画像のうちから射影変換の基準となる基準画像を設定する(ステップS210A)。基準画像は正対度、鮮明度等の画像の特徴により設定(選択)できるが、特定の撮影順の画像(例えば、最初に撮影した画像)を基準画像としてもよい。図9,10の例では、図14の(a)部分に示すように、画像i1,i2に対し画像i1を基準画像として設定することができる。
<Determination of image layout>
FIG. 13 is a flow chart showing the details of the image layout determination process in step S210 of FIG. The synthesis parameter calculation unit 300B sets a reference image that serves as a reference for projective transformation from among the plurality of captured images (step S210A). The reference image can be set (selected) according to the characteristics of the image such as the degree of positivity and sharpness, but an image in a specific photographing order (for example, the first photographed image) may be used as the reference image. In the examples of FIGS. 9 and 10, as shown in part (a) of FIG. 14, the image i1 can be set as the reference image for the images i1 and i2.

基準画像が設定されたら、合成パラメータ算出部300Bは、基準画像以外の画像の基準画像に対する射影変換行列を、画像どうしの対応点に基づいて算出する(ステップS210B)。図9,10の例では、図14の(a)部分に示すように、画像i2(基準画像以外の画像)を画像i1(基準画像)と同一平面に射影し、対応点を一致させるための射影変換行列を算出する。画像i2の画像i1(基準画像)に対する射影変換行列が算出されたら、図14の(b)部分に示すように変換後の画像i2を基準画像とし、変換後の画像i2に対する画像i3の射影変換行列を算出する。このように、基準画像を替えながら、画像群の全画像について(ステップS210CでYESになるまで)射影変換行列を算出する。 After the reference image is set, the synthesizing parameter calculation unit 300B calculates a projective transformation matrix of an image other than the reference image with respect to the reference image based on corresponding points between the images (step S210B). In the examples of FIGS. 9 and 10, as shown in part (a) of FIG. 14, an image i2 (an image other than the reference image) is projected onto the same plane as the image i1 (reference image), and the corresponding points are matched. Calculate the projective transformation matrix. When the projective transformation matrix of image i2 with respect to image i1 (reference image) is calculated, as shown in part (b) of FIG. Compute the matrix. In this way, while changing the reference image, the projective transformation matrix is calculated for all the images in the image group (until YES in step S210C).

全画像について射影変換行列を算出したら、合成パラメータ算出部300Bは、算出した射影変換行列に基づいて各画像に対し移動、回転、拡大または縮小、及び変形等を行い、画像群の各画像の配置を決定する(ステップS210D)。以下では、画像i1~i4及び画像i6~i9が合成可能な画像群G1を構成し、画像i5及び画像i10が合成可能な画像群G2を構成するものとして説明する。なお、上述した画像配置の決定においては各画像を射影変換行列により移動、回転、変形等するが、図示する例は画像の配置等を概念的に示すものであり、画像の移動、回転、変形等を正確に表すものではない。 After calculating the projective transformation matrix for all images, the synthesis parameter calculating unit 300B moves, rotates, enlarges or reduces, transforms, etc. each image based on the calculated projective transformation matrix, and arranges each image in the image group. is determined (step S210D). In the following description, images i1 to i4 and i6 to i9 constitute a synthesizable image group G1, and images i5 and i10 constitute a synthesizable image group G2. In the determination of the image layout described above, each image is moved, rotated, deformed, etc., using a projective transformation matrix. etc. is not an accurate representation.

ステップS210Dで決定する画像配置は、画像どうしで重複する領域が重なる画像配置(図15参照)でもよいし、画像どうしが重ならない画像配置(図16参照)でもよい。画像どうしが重ならない画像配置の場合、図16に示すように画像をx方向及びy方向に離間させて配置し、画像の向きは射影変換行列により求めた向きと変えない(画像を回転させない)配置とすることができる。 The image layout determined in step S210D may be an image layout in which the overlapping areas of the images overlap (see FIG. 15) or an image layout in which the images do not overlap (see FIG. 16). In the case of image arrangement in which the images do not overlap each other, the images are spaced apart in the x and y directions as shown in FIG. can be arranged.

<画像表示>
ステップS210(ステップS210A~S210D)で画像配置が決定すると、サーバ300(表示制御部300I、通信制御部300J)は合成可能な画像群を表示するようクライアント200に指示する(ステップS212)。クライアント200への指示には、表示させる画像、画像の配置の情報、及びステップS204において損傷の検出結果をベクトル化した情報を含める。クライアント200(表示制御部210C)は、表示の指示に応じて損傷の検出結果をベクトル化した情報を画像と重畳し、合成可能な画像群ごとにモニタ232に表示する(ステップS106)。上述の例では、表示制御部210Cは画像群G1,G2を図15または図16のような画像配置により表示させる。図15の画像配置において画像i4,i5,i9,i10におけるひび割れをベクトル化して重畳表示した様子を図17に示す。なお、表示の際に、表示制御部300I及び/または表示制御部210Cが画像群G1,G2に対しそれぞれ枠で囲む、画像群ごとに異なる色で表示する、画像群の番号を表示する等の処理を施して、画像群を容易に識別できるようにしてもよい。
<Image display>
When the image layout is determined in step S210 (steps S210A to S210D), server 300 (display control unit 300I, communication control unit 300J) instructs client 200 to display a group of images that can be combined (step S212). The instruction to the client 200 includes the image to be displayed, information on the arrangement of the image, and information obtained by vectorizing the damage detection results in step S204. The client 200 (display control unit 210C) superimposes the information obtained by vectorizing the damage detection result on the image in accordance with the display instruction, and displays it on the monitor 232 for each synthesizable image group (step S106). In the above example, the display control unit 210C displays the image groups G1 and G2 in an image arrangement as shown in FIG. 15 or FIG. FIG. 17 shows how the cracks in the images i4, i5, i9, and i10 in the image arrangement of FIG. 15 are vectorized and superimposed. During display, the display control unit 300I and/or the display control unit 210C may surround the image groups G1 and G2 with a frame, display each image group in a different color, or display the number of the image group. Processing may be applied to facilitate identification of groups of images.

ステップS106での表示の際、画像群の間での配置が不適切な場合がある。例えば、図18に示すように、画像群G1の下部(-x方向)に配置されるべき画像群G2が画像群G1の横方向に配置される場合がある。そこでサーバ300(合成パラメータ算出部300B)は画像群の配置を変更するか否か判断し(ステップS214)、変更する場合(ステップS214でYES)はステップS212に戻って、クライアント200に対し変更後の配置で画像群G1,G2を再度表示させる。ステップS214の判断は、ユーザの指示入力(例えば、キーボード242及び/またはマウス244を介した画像群G2の移動、すなわち相対配置の変更操作)に基づいて行うことができる。図18の例の場合、ユーザの操作(例えば、マウス244でドラッグ)に基づいて合成パラメータ算出部300B及び表示制御部300Iが画像群G2を画像群G1の下部に移動(矢印の方向に移動)し、図15のように表示することができる。 When displaying in step S106, there are cases where the arrangement between the image groups is inappropriate. For example, as shown in FIG. 18, an image group G2 to be arranged below the image group G1 (-x direction) may be arranged in the horizontal direction of the image group G1. Therefore, the server 300 (synthesis parameter calculation unit 300B) determines whether or not to change the arrangement of the image group (step S214). The image groups G1 and G2 are displayed again in the arrangement of . The determination in step S214 can be made based on the user's instruction input (for example, movement of the image group G2 via the keyboard 242 and/or the mouse 244, that is, operation to change the relative arrangement). In the example of FIG. 18, the synthesis parameter calculation unit 300B and the display control unit 300I move the image group G2 below the image group G1 (move in the direction of the arrow) based on the user's operation (for example, dragging with the mouse 244). and can be displayed as shown in FIG.

画像群どうしの相対配置が不適切な状態で表示すると対応点の指定に時間が掛かる場合があるが、損傷図作成システム10では、このような配置の変更を行うことで対応点の指定を迅速かつ容易に行うことができる。 If the image groups are displayed in an inappropriate relative arrangement, it may take time to specify the corresponding points. and can be done easily.

<対応点の指定>
ステップS214までの処理により画像群の配置が決定すると、サーバ300(対応点指定部300F)は、表示された画像群のうちの一の画像群と他の画像群とについて対応点を指定する(ステップS216)。例えば画像群G1,G2が図15のように配置及び表示されている場合、図19に示すように、画像群G1におけるマウス244のクリック等(ステップS108の対応点指定操作)に応じて点P1aを指定し、画像群G2において点P1aの対応点である点P1bを指定する。対応点としては、例えば「同一」と判断されたひび割れの始点、終点、分岐点、及び/または部材の端部、辺部、接合部等の特徴点を指定することができる。この際、対応点指定部300F及び表示制御部300Iが指定された点P1a,P1bを直線でつなぐ等により対応関係を識別表示する(図19参照)ことで、指定された点が対応することを容易に把握することができる。以下、同様に点P2aと点P2b、点P3aと点P3b、点P4aと点P4b、点P5aと点P5b、点P6aと点P6bについても指定する。
<Specification of corresponding points>
When the arrangement of the image groups is determined by the processing up to step S214, the server 300 (corresponding point designation unit 300F) designates corresponding points for one image group and the other image group among the displayed image groups ( step S216). For example, when the image groups G1 and G2 are arranged and displayed as shown in FIG. 15, a point P1a is displayed in response to a click of the mouse 244 in the image group G1 or the like (corresponding point designation operation in step S108), as shown in FIG. is specified, and a point P1b corresponding to the point P1a in the image group G2 is specified. As corresponding points, it is possible to designate, for example, characteristic points such as start points, end points, branch points of cracks, and/or end portions, side portions, joint portions, etc. of members that are determined to be "same". At this time, the corresponding point specifying unit 300F and the display control unit 300I connect the specified points P1a and P1b with a straight line to identify and display the correspondence (see FIG. 19), thereby indicating that the specified points correspond to each other. can be easily grasped. Similarly, points P2a and P2b, points P3a and P3b, points P4a and P4b, points P5a and P5b, and points P6a and P6b are also designated.

なお、図19では画像群G1,G2について対応点を6点ずつ指定する例を示しているが、指定する対応点の数は特に限定されない。また、画像群G1,G2が図16のように配置及び表示されている場合も、同様に画像i4,i5と画像i9,i10とで対応点を指定することができる。 Note that FIG. 19 shows an example in which six corresponding points are specified for each of the image groups G1 and G2, but the number of corresponding points to be specified is not particularly limited. Similarly, when the image groups G1 and G2 are arranged and displayed as shown in FIG. 16, corresponding points can be similarly specified between the images i4 and i5 and the images i9 and i10.

このように、第1の実施形態に係る損傷図作成システム10では、合成可能な画像群(画像群G1,G2)が画像群ごとに表示されるので、どの画像群について(自動的に)合成できたか、あるいはできなかったかを容易に把握することができる。また、合成できなかった画像群(画像群G1と画像群G2)について対応点を指定すれば良いので、全ての画像について対応点を指定する必要がなく、対応点の指定、及び指定された対応点に基づく合成パラメータの算出を迅速かつ容易に行うことができる。 As described above, in the damage diagram creation system 10 according to the first embodiment, since image groups (image groups G1 and G2) that can be synthesized are displayed for each image group, which image group is (automatically) synthesized It is possible to easily grasp whether it was possible or not. In addition, since it is sufficient to specify corresponding points for the group of images (image group G1 and image group G2) that could not be synthesized, there is no need to specify corresponding points for all images. Calculation of point-based synthesis parameters can be done quickly and easily.

上述のように指定した対応点では合成パラメータを精度良く算出できない場合は、サーバ300(合成パラメータ算出部300B、対応点指定部300F、表示制御部300I等)及びクライアント200(表示制御部210C等)によりモニタ232に警告メッセージを表示させて、再度対応点指定操作を行うようユーザを促してもよい。 If the synthesis parameters cannot be calculated with high accuracy for the corresponding points specified as described above, the server 300 (the synthesis parameter calculation unit 300B, the corresponding point designation unit 300F, the display control unit 300I, etc.) and the client 200 (the display control unit 210C, etc.) , a warning message may be displayed on the monitor 232 to prompt the user to perform the corresponding point designation operation again.

<指定された対応点に基づく画像配置決定>
ステップS216で対応点が指定されたら、サーバ300(合成パラメータ算出部300B)は、指定された対応点に基づいて合成が可能な画像群ごとに合成パラメータを算出する(ステップS218)。図19の例では、合成パラメータ算出部300Bは、対応点である点P1a~P6bに基づいて、画像群G1を基準とした画像群G2の射影変換行列(または画像群G2を基準とした画像群G1の射影変換行列)を算出する。画像合成部300C,合成パラメータ算出部300Bは、このようにして算出した射影変換行列により画像群G2を構成する画像(画像i5,i10)を移動、回転、変形等して、画像配置を決定する(ステップS220)。ステップS220での画像配置の決定は、ステップS210と同様の手順に行うことができる。
<Determination of Image Arrangement Based on Designated Corresponding Points>
After the corresponding points are specified in step S216, the server 300 (synthesis parameter calculation unit 300B) calculates synthesis parameters for each image group that can be synthesized based on the specified corresponding points (step S218). In the example of FIG. 19, the synthesis parameter calculation unit 300B calculates the projective transformation matrix of the image group G2 with the image group G1 as the reference (or the image group G2 with the image group G2 as the reference) based on the corresponding points P1a to P6b Projective transformation matrix of G1) is calculated. The image synthesis unit 300C and synthesis parameter calculation unit 300B move, rotate, transform, etc. the images (images i5 and i10) that make up the image group G2 using the projective transformation matrix thus calculated, and determine the image layout. (Step S220). The determination of the image layout in step S220 can be performed in the same procedure as in step S210.

<検出結果の合成>
サーバ300(検出結果合成部300E)は、ステップS202、S220で算出した合成パラメータ(射影変換行列)に基づいて検出結果(検出の結果)を合成する(ステップS222)。例えば、図20の(a)部分及び(b)部分に示すように画像i1,i2において損傷ベクトルV1,V2の異なる部分(一部重複)が検出されたとし、損傷ベクトルV1,V2の始点、終点が点P7~P12であるとする。なお、図21の(a)部分及び(b)部分は、図20の(a)部分及び(b)部分にそれぞれ対応した損傷ベクトルV1,V2の始点、終点を示す表である。この場合、合成後の検出結果は、図20の(c)部分(画像i2を射影変換行列により移動、回転等して合成)に示すように損傷ベクトルV1は始点、終点がそれぞれ点P7,P8となり、損傷ベクトルV2は始点、終点がそれぞれ点P8、P12となる。図21の(c)部分は図20の(c)部分に対応しており、合成後の損傷ベクトルV1,V2の始点、終点を示す。
<Synthesis of detection results>
The server 300 (detection result synthesizing unit 300E) synthesizes the detection result (detection result) based on the synthetic parameters (projective transformation matrix) calculated in steps S202 and S220 (step S222). For example, assuming that different parts (partial overlap) of damage vectors V1 and V2 are detected in images i1 and i2 as shown in parts (a) and (b) of FIG. Assume that the end points are points P7 to P12. Parts (a) and (b) of FIG. 21 are tables showing start points and end points of damage vectors V1 and V2 corresponding to parts (a) and (b) of FIG. 20, respectively. In this case, as shown in part (c) of FIG. 20 (image i2 is synthesized by moving and rotating image i2 using a projective transformation matrix), the damage vector V1 has the starting point and the ending point at points P7 and P8, respectively. Thus, the damage vector V2 has a starting point and an ending point at points P8 and P12, respectively. Part (c) of FIG. 21 corresponds to part (c) of FIG. 20 and shows the start and end points of damage vectors V1 and V2 after synthesis.

<画像の重複領域における検出結果の合成>
上述のように撮影範囲の一部が重複するように画像を取得する場合、複数の画像が重複する領域では、本来ならば1つに合成されるべき検出結果が画像のずれにより複数になる等、合成精度が劣化する場合がある。そこで、損傷図作成システム10では、複数の画像が重複する領域においては重複する複数の画像のうち1つを選択して検出結果を合成して、検出結果を高精度に合成することができる。このような合成の様子を図22に示す。図22の例では、領域OLで画像i1,i2が重複しているので、この領域OLでは合成パラメータの値が小さい画像i2を選択し、画像i2についての検出結果を用いて合成している(図22の(b)参照)。
<Synthesis of Detection Results in Overlapping Areas of Images>
When acquiring images such that the photographing ranges partially overlap as described above, in areas where multiple images overlap, the detection results that should normally be combined into one become multiple due to misalignment of the images. , the synthesis accuracy may deteriorate. Therefore, in the damage diagram creation system 10, in a region where a plurality of images overlap, one of the plurality of overlapping images is selected and the detection results can be synthesized, so that the detection results can be synthesized with high accuracy. FIG. 22 shows how such synthesis is performed. In the example of FIG. 22, since the images i1 and i2 overlap in the area OL, the image i2 with the smaller value of the synthesis parameter is selected in this area OL, and synthesized using the detection result for the image i2 ( (see FIG. 22(b)).

これにより、損傷の変形、位置ずれを抑制できるため、損傷検出結果及びそのデータ算出の正確性が向上する。 As a result, the deformation of the damage and the displacement of the damage can be suppressed, and the accuracy of the damage detection result and its data calculation is improved.

尚、合成パラメータの値とは、上述の射影変換の場合には、射影変換の程度(射影変換による変形の態度)を表す値であり、合成領域における射影変換による座標の移動量が大きいほど合成パラメータの値は大きくなる。 In the case of the above-mentioned projective transformation, the value of the synthesis parameter is a value representing the degree of projective transformation (deformation attitude due to projective transformation). parameter value is increased.

図29を用いて具体的に説明する。図29(a)のi1及びi2の2枚の元画像を合成する場合を考える。i1は、前述の方法により、図示しないi0を基準画像として射影変換行列が算出され、図29(b)のi1のように射影変換される。この際、i1における特定の座標P1a、P2a、P3a、P4aは、射影変換によりP1a´、P2a´、P3a´、P4a´に移動する。次に、射影変換後のi1を基準画像としてi2の射影変換行列を算出するために、各画像の対応点P1a~P4a、P1b~P4bを指定する(PxaとPxbがそれぞれ対応点となる)。これらの対応点を元にi2の射影変換行列を算出し、図29(b)のi2のように射影変換される。この際、i2におけるP1b、P2b、P3b、P4bは、射影変換によりP1b´、P2b´、P3b´、P4b´に移動する。そして、i1のP1a´~P4a´とi2のP1b´~P4b´の各対応点が一致するように画像配置を決定する。 A specific description will be given with reference to FIG. Consider a case where two original images i1 and i2 in FIG. 29(a) are synthesized. For i1, a projective transformation matrix is calculated using i0 (not shown) as a reference image by the above-described method, and projective transformation is performed as i1 in FIG. 29(b). At this time, specific coordinates P1a, P2a, P3a, and P4a in i1 are moved to P1a', P2a', P3a', and P4a' by projective transformation. Next, corresponding points P1a to P4a and P1b to P4b of each image are specified (Pxa and Pxb are corresponding points) in order to calculate the projective transformation matrix of i2 using i1 after projective transformation as a reference image. A projective transformation matrix of i2 is calculated based on these corresponding points, and projective transformation is performed as i2 in FIG. 29(b). At this time, P1b, P2b, P3b, and P4b in i2 move to P1b', P2b', P3b', and P4b' by projective transformation. Then, the image layout is determined so that the corresponding points P1a' to P4a' of i1 and P1b' to P4b' of i2 match each other.

ここで、i1のP1a~P4aが射影変換によりどれだけ移動したのかを算出する。具体的には、P1aとP1a´の距離(|P1a-P1a´|)を算出し、これをP2a~P4aについても繰り返し、最後にその総和を取る。これをi1の合成パラメータとする。i2に関しても同様にP1bとP1b´の距離(|P1b-P1b´|)を算出し、これをP2b~P4bについても繰り返し、最後にその総和を取る。これをi2の合成パラメータとする。このようにして算出した合成パラメータを使用して、i1とi2の重複領域において合成パラメータの小さい画像(図29(c)の例ではi2)を選択し、合成する。 Here, how much P1a to P4a of i1 have moved due to the projective transformation is calculated. Specifically, the distance (|P1a-P1a'|) between P1a and P1a' is calculated, this is repeated for P2a to P4a, and finally the sum is obtained. Let this be the synthesis parameter of i1. Similarly for i2, the distance between P1b and P1b' (|P1b-P1b'|) is calculated, this is repeated for P2b to P4b, and finally the sum is taken. Let this be the synthesis parameter of i2. Using the compositing parameters calculated in this way, an image with a small compositing parameter (i2 in the example of FIG. 29(c)) is selected and composited in the overlapping region of i1 and i2.

以上説明したように、合成パラメータは射影変換による座標の移動量を表しているので、変換の程度(変形の程度)が大きいほど、合成パラメータの値は大きくなる。なお、本実施例では合成パラメータを座標の移動距離の総和と定義したが、変形の程度を表すパラメータであれば、他の算出方法でも構わない。例えば、P1a~P4aを結んで形成される図形と、P1a´~P4a´を結んで形成される図形とで、形状の類似度を算出する方法等がある。この場合は、比較する図形のサイズをあらかじめ正規化しておくことで、図形のサイズの違いは無視し、変形の度合いだけに着目して合成パラメータを算出することができる。なお、この場合は、より形状の類似度が高い方の画像が、変形の度合いが小さい(合成パラメータが小さい)ものとして、重複領域の選択を行う。 As described above, the synthesis parameter represents the amount of coordinate movement due to projective transformation, so the larger the degree of transformation (the degree of deformation), the larger the value of the synthesis parameter. In this embodiment, the synthesis parameter is defined as the sum of the movement distances of the coordinates, but other calculation methods may be used as long as the parameter represents the degree of deformation. For example, there is a method of calculating the degree of similarity between a figure formed by connecting P1a to P4a and a figure formed by connecting P1a' to P4a'. In this case, by normalizing the sizes of the figures to be compared in advance, it is possible to ignore the difference in the size of the figures and focus only on the degree of deformation to calculate the synthesis parameter. In this case, the overlap region is selected assuming that the image with the higher shape similarity has a smaller degree of deformation (smaller synthesis parameter).

上述した検出結果の合成は、同一のフォルダに格納された画像(グループに分けられた複数の画像)について行われる。図12に示す例では、サブフォルダSS1に格納された10枚の画像について検出結果が合成される(検出結果をグループごとに合成する)。 Synthesis of the detection results described above is performed for images (a plurality of images divided into groups) stored in the same folder. In the example shown in FIG. 12, detection results are combined for ten images stored in the subfolder SS1 (detection results are combined for each group).

<画像の合成>
サーバ300(画像合成部300C)は、ステップS202、S218で算出した合成パラメータ(射影変換行列)に基づいて画像を合成する(ステップS224)。図23は、合成した画像G3を示す。図24は、図22と同様に画像が重複する領域では1つの画像を選択して合成した画像G3aを示す。なお、検出結果が合成されれば損傷図を作成できるので、画像の合成は省略してもよい。
<Synthesis of images>
The server 300 (image synthesizing unit 300C) synthesizes images based on the synthesizing parameters (projective transformation matrix) calculated in steps S202 and S218 (step S224). FIG. 23 shows the synthesized image G3. FIG. 24 shows an image G3a obtained by selecting and synthesizing one image in an area where images overlap, as in FIG. Since a damage diagram can be created by synthesizing the detection results, the synthesizing of images may be omitted.

<合成後の正対補正>
損傷図作成システム10では、上述のように基準画像に対する他の画像の射影変換行列を算出して画像配置を決定するが、基準画像が撮影方向に対し正対していない場合、合成後の画像において本来矩形であるべき領域が矩形にならない場合がある。例えば、合成後の画像において格間の枠Fが台形状になる場合がある。この場合、サーバ300(合成パラメータ算出部300B、画像合成部300C等)はキーボード242及び/またはマウス244を介したユーザの操作に基づいて矩形を形成する点(例えば、枠Fの4隅の点)を指定し、射影変換によりこれら4点に矩形を形成させる。これにより、画像合成後においても被写体が正対した画像(正対画像)を得ることができる。
<Orientation Correction after Synthesis>
In the damage diagram creation system 10, as described above, the projective transformation matrix of the other images with respect to the reference image is calculated to determine the image arrangement. A region that should be rectangular may not be rectangular. For example, the frame F between the cells may be trapezoidal in the synthesized image. In this case, the server 300 (synthesis parameter calculator 300B, image synthesizer 300C, etc.) generates a rectangle based on the user's operation via the keyboard 242 and/or the mouse 244 (for example, points at the four corners of the frame F). ) and let these four points form a rectangle by projective transformation. As a result, it is possible to obtain an image in which the subject faces directly (directly facing image) even after the image synthesis.

<計測結果のマッピング>
サーバ300(損傷マッピング部300G)は、損傷の検出結果を合成画像にマッピングしてもよい。マッピングは、例えば検出結果と関連づけられた文字、図形、記号等を合成画像に表示することにより行うことができる。表示する文字、図形、記号等は操作部240(キーボード242及び/またはマウス244)を介した操作により選択することができ、選択に応じてサーバ300(損傷マッピング部300G、表示制御部300I等)及びクライアント200(表示制御部210C)がモニタ232にマッピングした画像を表示させる。文字、図形、記号等は実際の損傷を簡略化あるいは強調したものでもよいし、損傷の種別、大きさ等に応じて異なる態様で表示してもよい。計測結果がマッピングされた画像は記憶部220に記憶され(図3の損傷マッピング画像220D)、表示制御部210Cの制御によりモニタ232に表示される。損傷マッピング画像には損傷情報を入力してもよい。
<Mapping of measurement results>
The server 300 (damage mapping unit 300G) may map the damage detection result to the composite image. Mapping can be performed, for example, by displaying characters, graphics, symbols, etc. associated with the detection result in the composite image. Characters, graphics, symbols, etc. to be displayed can be selected by operation via the operation unit 240 (keyboard 242 and/or mouse 244), and the server 300 (damage mapping unit 300G, display control unit 300I, etc.) according to the selection. And the client 200 (display control unit 210C) causes the monitor 232 to display the mapped image. Characters, figures, symbols, etc. may be simplified or emphasized actual damage, and may be displayed in different modes according to the type, size, etc. of the damage. An image in which the measurement result is mapped is stored in the storage unit 220 (damage mapping image 220D in FIG. 3) and displayed on the monitor 232 under the control of the display control unit 210C. Damage information may be input to the damage mapping image.

このような計測結果のマッピングは、橋梁1の形状を示す線図情報を含む図面データ(例えばCADデータ、CAD:Computer-Aided Design)に対して行ってもよい。この際、CADデータを規定する座標系が図23,24等に示す座標系と異なる場合は、座標系の関係に応じた座標変換(移動、回転、ミラーリング等)を行う。このような変換は、サーバ300(損傷マッピング部300G)により行うことができる。 Such mapping of measurement results may be performed on drawing data (for example, CAD data, CAD: Computer-Aided Design) including diagrammatic information indicating the shape of the bridge 1 . At this time, if the coordinate system defining the CAD data differs from the coordinate system shown in FIGS. 23, 24, etc., coordinate conversion (movement, rotation, mirroring, etc.) is performed according to the relationship between the coordinate systems. Such conversion can be performed by server 300 (damage mapper 300G).

<結果表示>
サーバ300(検出結果出力部300H、表示制御部300I、通信制御部300J等)はクライアント200に対し検出結果の表示を指示し(ステップS226)、この指示に応じてクライアント200(表示制御部210C等)は検出結果をモニタ232に表示させる(ステップS110)。検出結果は文字、数字、記号等により表示することができ、各撮影画像に対する検出結果を表示してもよいし、合成した検出結果を表示してもよい(図20,21を参照)。また、検出結果と合わせて、または検出結果に代えて撮影画像、合成画像、損傷マッピング画像等を表示してもよい。また、検出結果をベクトル化した情報(図20,21を参照)を画像と重畳して表示してもよい。表示制御部210Cは、モニタ232に表示する内容及びその態様を操作部240の操作に応じて選択することができる。表示制御部210Cは、結果を表示してからの時間を計測し、また結果表示後の出力指示の有無を判断する。出力指示なしで表示時間が長い、出力指示なしで他の画面に遷移したなどの場合は目視による複写のような不正が行われている可能性があり、表示時間の計測及び出力指示の有無を判断することで、そのような不正を検知しうる。不正を検知した場合、例えば表示を停止する等の対応を取りうる。
<Result display>
Server 300 (detection result output unit 300H, display control unit 300I, communication control unit 300J, etc.) instructs client 200 to display the detection result (step S226). ) displays the detection result on the monitor 232 (step S110). The detection results can be displayed using characters, numbers, symbols, etc. The detection results for each captured image may be displayed, or a combined detection result may be displayed (see FIGS. 20 and 21). In addition, together with the detection result or instead of the detection result, a photographed image, a synthesized image, a damage mapping image, or the like may be displayed. Information (see FIGS. 20 and 21) obtained by vectorizing the detection result may be superimposed on the image and displayed. The display control section 210</b>C can select the content and mode to be displayed on the monitor 232 according to the operation of the operation section 240 . The display control unit 210C measures the time after the result is displayed, and determines whether or not there is an output instruction after the result is displayed. If the display time is long without an output instruction, or if the screen transitions to another screen without an output instruction, there is a possibility that fraudulent copying such as visual copying has been performed. Judgment can detect such fraud. When fraud is detected, countermeasures such as stopping the display can be taken.

<結果出力>
サーバ300(検出結果出力部300H等)は、ステップS110で表示した検出結果に対する出力の指示操作(例えば、操作部240を介した出力指示操作)があったか否かを判断する(ステップS228)。出力指示操作があった場合(ステップS228でYES)のみ、ステップS230へ進んでクライアント200に対し検出結果(各画像に対する検出結果、及び合成された検出結果)の出力を指示し、クライアント200(ファイル管理部210B)は出力指示に応じて検出結果を出力する(ステップS112)。図12の例では、サブフォルダSS1に格納された画像に対する検出結果を、画像が格納されているのと同一のサブフォルダSS1に格納する(検出結果をグループに関連づけて出力する;図25参照)。検出結果は、橋梁1(被写体)の形状を示す線図情報を含む図面データ(例えばCADデータ)と同一のフォーマットで出力してもよい。また、図示せぬプリンタで検出結果を印刷してもよい。
<Result output>
The server 300 (detection result output unit 300H, etc.) determines whether or not there is an output instruction operation (for example, an output instruction operation via the operation unit 240) for the detection result displayed in step S110 (step S228). Only when there is an output instruction operation (YES in step S228), the process advances to step S230 to instruct the client 200 to output the detection result (detection result for each image and synthesized detection result), and the client 200 (file The management unit 210B) outputs the detection result according to the output instruction (step S112). In the example of FIG. 12, the detection results for the images stored in the subfolder SS1 are stored in the same subfolder SS1 in which the images are stored (detection results are output in association with groups; see FIG. 25). The detection result may be output in the same format as drawing data (for example, CAD data) including diagrammatic information indicating the shape of the bridge 1 (subject). Also, the detection result may be printed by a printer (not shown).

このように、第1の実施形態では画像が格納されたフォルダと同一のフォルダに検出結果を格納するので、入力した画像と合成された検出結果との対応が明確になり、画像及び検出結果の管理、利用を容易に行うことができる。なお、検出結果の出力は出力操作指示があった場合(ステップS228でYESとなった場合)にのみ行い、出力操作指示がなかった場合は画像に対し識別情報を付与して(ステップS232)、付与した識別情報をクライアント200に通知して画像が格納されたフォルダと同一のフォルダ(図12,25の例ではサブフォルダSS1)に格納する。 As described above, in the first embodiment, the detection result is stored in the same folder as the folder in which the image is stored. Easy to manage and use. The output of the detection result is performed only when there is an output operation instruction (when YES in step S228), and when there is no output operation instruction, identification information is added to the image (step S232) The assigned identification information is notified to the client 200 and stored in the same folder as the folder in which the image is stored (subfolder SS1 in the examples of FIGS. 12 and 25).

検出結果または識別情報が出力されたら、サーバ300は全フォルダについての処理が終了したか否かを判断する(ステップS234)。判断が肯定されたら、サーバ300はステップS236でクライアント200に終了を通知して(ステップS236)、処理を終了する。全フォルダについての処理が終了していない場合は、ステップS202に戻って他のフォルダについてステップS202~S234を繰り返す。 After the detection result or identification information is output, server 300 determines whether or not the processing for all folders has been completed (step S234). If the determination is affirmative, the server 300 notifies the end to the client 200 in step S236 (step S236) and ends the process. If the processing for all folders has not been completed, the process returns to step S202 and steps S202 to S234 are repeated for other folders.

以上説明したように、第1の実施形態に係る損傷図作成システム10によれば、被写体を分割撮影して取得した複数の画像に基づいて損傷を高精度に検出することができる。 As described above, according to the damage diagram creation system 10 according to the first embodiment, damage can be detected with high accuracy based on a plurality of images obtained by separately photographing the subject.

<第2の実施形態>
上述した第1の実施形態ではサーバ300及びクライアント200を備える損傷図作成システム10について説明したが、第2の実施形態では損傷図作成装置20について説明する。図26は損傷図作成装置20の構成を示す図である。損傷図作成装置20はデジタルカメラ100と装置本体500とにより構成される。デジタルカメラ100の構成は第1の実施形態におけるデジタルカメラ100の構成と同じであるので、同一の参照符号を付し詳細な説明を省略する。なお、デジタルカメラ100は装置本体500と一体に構成されていてもよい。
<Second embodiment>
In the above-described first embodiment, the damage diagram creation system 10 including the server 300 and the client 200 has been described, but in the second embodiment, the damage diagram creation apparatus 20 will be described. FIG. 26 is a diagram showing the configuration of the damage diagram creation device 20. As shown in FIG. The damage diagram creation device 20 is composed of a digital camera 100 and a device body 500 . Since the configuration of the digital camera 100 is the same as that of the digital camera 100 in the first embodiment, the same reference numerals are given and detailed description thereof will be omitted. Note that the digital camera 100 may be configured integrally with the device body 500 .

<損傷図作成装置の構成>
第1の実施形態に係る損傷図作成システム10はサーバ300及びクライアント200を備え損傷の検出、合成等、処理の主たる部分をサーバ300で行うが、第2の実施形態に係る損傷図作成装置20では、装置本体500の処理部510が処理を行う。具体的には、処理部510は図2に示すクライアント200の機能と図4に示すサーバ300の機能とを有する。記憶部520には、第1の実施形態に係る記憶部220と同様の情報(図3参照)が記憶される。操作部540(キーボード542,マウス544)の構成及び機能は第1の実施形態に係る操作部240(キーボード242,マウス244)と同様である。また、表示部530(モニタ532)の構成及び機能は第1の実施形態に係る表示部230(モニタ232)と同様である。損傷図作成装置20では、画像を入力して損傷の検出、合成等の処理を行うパーソナルコンピュータ、タブレット端末、スマートフォン等の機器(情報端末)を装置本体500として用いることができる。
<Configuration of damage diagram creation device>
The damage diagram creation system 10 according to the first embodiment includes a server 300 and a client 200, and main processing such as damage detection and synthesis is performed by the server 300. However, the damage diagram creation apparatus 20 according to the second embodiment Then, the processing unit 510 of the apparatus main body 500 performs the processing. Specifically, the processing unit 510 has the functions of the client 200 shown in FIG. 2 and the functions of the server 300 shown in FIG. The storage unit 520 stores the same information (see FIG. 3) as the storage unit 220 according to the first embodiment. The configuration and function of the operation unit 540 (keyboard 542, mouse 544) are the same as those of the operation unit 240 (keyboard 242, mouse 244) according to the first embodiment. Also, the configuration and function of the display unit 530 (monitor 532) are the same as those of the display unit 230 (monitor 232) according to the first embodiment. In the damage diagram creating apparatus 20, a device (information terminal) such as a personal computer, a tablet terminal, and a smart phone that inputs an image and performs processing such as damage detection and synthesis can be used as the device main body 500.

<損傷図作成方法の処理>
損傷図作成装置20における処理(本発明に係る損傷図作成方法の処理)は図5,6,13のフローチャートと同様である。例えば、被写体を分割撮影して取得した複数の画像を入力し、複数の画像を合成するための合成パラメータ(射影変換行列)を画像どうしの対応点に基づいて算出し、複数の画像を構成する画像から被写体の損傷を検出し、複数の画像についての検出結果を合成パラメータに基づいて合成する。このような処理は装置本体500の処理部510が行う。なお、第1の実施形態ではクライアント200とサーバ300の通信が行われるが、損傷図作成装置20では装置本体500の内部での通信となる。
<Processing of damage diagram creation method>
The processing in the damage diagram creating apparatus 20 (processing of the damage diagram creating method according to the present invention) is the same as the flow charts of FIGS. For example, multiple images captured by splitting the subject are input, and the synthesis parameters (projective transformation matrix) for synthesizing the multiple images are calculated based on the corresponding points between the images to form multiple images. Damage to a subject is detected from images, and detection results for a plurality of images are synthesized based on synthesis parameters. Such processing is performed by the processing unit 510 of the device main body 500 . In the first embodiment, communication is performed between the client 200 and the server 300 , but in the damage diagram creation device 20 , communication is performed inside the device body 500 .

第2の実施形態に係る損傷図作成装置20においても、第1の実施形態に係る損傷図作成システム10と同様に合成前の撮影画像から損傷を検出する。そして重複領域の画像は、第1の実施形態と同様に、合成パラメータの値が小さい画像を使用する。これによって損傷の変形、位置ずれを抑制できるため、損傷検出結果及びそのデータ算出の正確性が向上する。 In the damage diagram creation apparatus 20 according to the second embodiment, as in the damage diagram creation system 10 according to the first embodiment, damage is detected from the photographed images before synthesis. As for the image of the overlapping area, an image with a small synthesis parameter value is used as in the first embodiment. As a result, the deformation and displacement of the damage can be suppressed, and the accuracy of the damage detection result and its data calculation is improved.

したがって画像の重複領域での画質劣化に起因して損傷検出性能が劣化することがないので、被写体を分割撮影して取得した複数の画像に基づいて損傷を高精度に検出することができる。 Therefore, damage detection performance is not degraded due to deterioration of image quality in the overlapped area of the images, so damage can be detected with high accuracy based on a plurality of images obtained by separately photographing the subject.

尚、上述の第1の実施形態、第2の実施形態ともに、重複領域と損傷(ひび等)との位置関係によって、使用する画像を選別してもよい。例えば、図27の(a)に示すように、重複領域に損傷が存在し、画像i2はその損傷が重複領域内から領域外に跨って位置し、画像i1は跨って位置していない場合がある。このような場合には、(合成パラメータの値によらず、)図27の(b)に示すように、重複領域の画像は一方の画像i2を使用しても良い。換言すると、一方の画像i2は重複領域内から重複領域外に損傷がはみ出して位置し、他方の画像i1は重複領域内に損傷が収まっている(はみ出していない)場合には、(合成パラメータの値によらず)重複領域の画像は一方の画像i2を使用しても良い。これによって、損傷の連続性が確保され、損傷検出結果及びそのデータ算出の正確性が向上する。尚、図28の(a)に示すように、一方の画像i2と他方の画像i1共に、重複領域内外に跨って損傷が位置する場合には、図28の(b)に示すように、重複領域内外に跨る損傷の数が多い方の画像i2を重複領域で使用すると良い。これによって、連続性が失われる損傷の数を低減でき、損傷検出結果及びそのデータ算出の正確性が向上する。 In both the first embodiment and the second embodiment described above, images to be used may be selected according to the positional relationship between the overlapping area and damage (cracks, etc.). For example, as shown in (a) of FIG. 27 , there is a case where damage exists in the overlapping region, the damage is located in the image i2 from the inside of the overlapping region to the outside of the region, and the damage is not located in the image i1. be. In such a case, as shown in FIG. 27(b), one image i2 may be used as the image of the overlapping area (irrespective of the value of the synthesis parameter). In other words, in one image i2, the damage protrudes outside the overlapping region, and in the other image i1, if the damage is contained (does not protrude) within the overlapping region, (combining parameter One image i2 may be used as the image of the overlap region (regardless of the value). This ensures the continuity of damage and improves the accuracy of damage detection results and data calculation thereof. In addition, as shown in (a) of FIG. 28, when the damage is positioned across the inside and outside of the overlap region in both the image i2 and the image i1 of the other, as shown in (b) of FIG. It is preferable to use the image i2 with a larger number of damages that span the inside and outside of the region in the overlapping region. This reduces the number of lesions for which continuity is lost and improves the accuracy of the lesion detection results and their data calculations.

また、重複領域のうち損傷が存在しない重複領域については、合成パラメータの値によらず、画質の良い画像を重複領域の画像として使用してもよい。この際、画質の良し悪しは、明るさの適性度や、彩度の適性度や、合焦具合等の画質判断情報から良し悪しを判定すれば良い。これによって、損傷の検出結果及びそのデータ算出の正確性の向上だけでなく、合成画像の画質の向上も図れ、ユーザにより良い損傷図を提供することが可能になる。尚、画質の良し悪しは、一つの画質判断情報(明るさの適性度や、彩度の定期精度や、合焦具合等のいずれか一つの判断情報)だけで判定するのではなく、2つ以上の判断情報に基づき総合判定して判定結果を得るのが良い。これによって、ユーザにより良い損傷図を提供することが可能になる。このように、上記の場合に該当しない重複領域には合成パラメータの値が小さい画像を選択して合成を行い、上記の場合に該当する重複領域には上記の条件で画像を選択して合成を行うことで、損傷検出結果及びそのデータ算出の正確性が向上するとともに、上記様々な効果を得ることが可能となる。 Also, for an overlapping area in which there is no damage among the overlapping areas, an image with good image quality may be used as the image of the overlapping area regardless of the value of the synthesis parameter. At this time, whether the image quality is good or bad can be judged from image quality judgment information such as the appropriateness of brightness, the appropriateness of saturation, and the degree of focusing. This not only improves the accuracy of damage detection results and data calculation, but also improves the image quality of the composite image, making it possible to provide better damage diagrams to the user. It should be noted that the quality of the image quality is not determined by only one image quality judgment information (one of judgment information such as the appropriateness of brightness, the regular accuracy of saturation, and the degree of focus), but two It is preferable to obtain a judgment result by comprehensively judging based on the above judgment information. This makes it possible to provide the user with a better damage diagram. In this way, for overlapping areas that do not correspond to the above case, images with small synthesis parameter values are selected and synthesized, and for overlapping areas that apply to the above case, images are selected and synthesized under the above conditions. By doing so, it is possible to improve the accuracy of damage detection results and data calculation thereof, and to obtain the various effects described above.

<第3の実施形態>
上述した損傷図作成装置10及び20における処理に関して、第3の実施形態を説明する。
<Third Embodiment>
A third embodiment will be described with respect to the processing in the damage diagram creation apparatuses 10 and 20 described above.

ここでは第1の実施形態での損傷図作成システム10の構成を用いて説明するが、第2の実施形態での損傷図作成装置20の構成に適用することもできる。また、損傷図作成装置における処理は図5、6のフローチャートと同様であるが、ステップS210及びS220での画像配置の決定処理が異なる。 Although the configuration of the damage diagram creation system 10 in the first embodiment will be described here, it can also be applied to the configuration of the damage diagram creation device 20 in the second embodiment. Also, the processing in the damage diagram creation apparatus is the same as that in the flow charts of FIGS. 5 and 6, but the image arrangement determination processing in steps S210 and S220 is different.

具体的に、第3の実施形態における画像配置の決定処理を、図30、31を用いて説明する。なお、ここでは、例として図31(a)のようにアーチ状の橋梁を下から撮影した画像群から損傷図を作成する方法について説明する。 Specifically, image layout determination processing in the third embodiment will be described with reference to FIGS. Here, as an example, a method of creating a damage diagram from a group of images of an arch-shaped bridge photographed from below as shown in FIG. 31(a) will be described.

<画像配置の決定>
図30は、図5のステップS210、S220における画像配置決定の処理の詳細を示すフローチャートである。合成パラメータ算出部300Bは、複数の撮影画像のうちから射影変換の基準となる基準画像を設定する(ステップS210E)。基準画像は正対度、鮮明度等の画像の特徴により設定(選択)できるが、特定の撮影順の画像(例えば、最初に撮影した画像)を基準画像としてもよい。図31の例では、i1、i2、i3、・・・と撮影した画像に対し画像i1を基準画像として設定することができる。
<Determination of image layout>
FIG. 30 is a flow chart showing the details of the image layout determination process in steps S210 and S220 of FIG. The synthesis parameter calculation unit 300B sets a reference image that serves as a reference for projective transformation from among the plurality of captured images (step S210E). The reference image can be set (selected) according to the characteristics of the image such as the degree of positivity and sharpness, but an image in a specific photographing order (for example, the first photographed image) may be used as the reference image. In the example of FIG. 31, the image i1 can be set as the reference image for the images i1, i2, i3, .

基準画像が設定されたら、合成パラメータ算出部300Bは、基準画像に隣り合う画像の基準画像に対する射影変換行列を、画像同士の対応点に基づいて算出する(ステップS210F)。図31の例では、図31(b)に示すように、画像i2(基準画像に隣り合う画像)を画像i1(基準画像)と同一平面に射影し、対応点を一致させるための射影変換行列を算出する。 After the reference image is set, the synthesizing parameter calculator 300B calculates the projective transformation matrix of the image adjacent to the reference image with respect to the reference image based on the corresponding points between the images (step S210F). In the example of FIG. 31, as shown in FIG. 31(b), the image i2 (image adjacent to the reference image) is projected onto the same plane as the image i1 (reference image), and the projective transformation matrix for matching the corresponding points is Calculate

画像i2における射影変換行列を算出したら、合成パラメータ算出部300Bは、算出した射影変換行列に基づいてi2の合成パラメータを算出する。ここで合成パラメータとは、射影変換の程度(射影変換による変形の度合い)を表す値であり、撮影画像平面(光軸を法線とする平面)と投影平面とのなす角度が大きいほど合成パラメータの値は大きくなる。具体的には、第1の実施形態で説明したように、射影変換による各対応点の座標の移動量により算出できる。なお、第1の実施形態ではi1とi2の重複領域に着目して合成パラメータを算出したが、第3の実施形態では画像i2全体に着目して射影変換の程度を算出するのが望ましいので、画像i2の4頂点の座標の移動量により合成パラメータを算出してもよい。 After calculating the projective transformation matrix for the image i2, the synthesis parameter calculation unit 300B calculates the synthesis parameter for i2 based on the calculated projective transformation matrix. Here, the synthesis parameter is a value that represents the degree of projective transformation (the degree of deformation due to projective transformation). becomes larger. Specifically, as described in the first embodiment, it can be calculated from the amount of movement of the coordinates of each corresponding point by projective transformation. In the first embodiment, the synthesis parameter is calculated by focusing on the overlapping region of i1 and i2. A synthesis parameter may be calculated from the amount of movement of the coordinates of the four vertices of the image i2.

画像i2における合成パラメータを算出したら、合成パラメータ算出部300Bは、算出した合成パラメータに基づいて画像i2の射影変換を許可するかどうか判定する(ステップS210H)。ここでは、算出した合成パラメータが所定の値以下であれば射影変換を許可し、所定の値より大きい場合は射影変換を許可しない。 After calculating the synthesis parameters for the image i2, the synthesis parameter calculator 300B determines whether or not to permit the projective transformation of the image i2 based on the calculated synthesis parameters (step S210H). Here, if the calculated synthesis parameter is equal to or less than a predetermined value, the projective transformation is permitted, and if it is greater than the predetermined value, the projective transformation is not permitted.

射影変換を許可する場合は、合成パラメータ算出部300Bは、算出した射影変換行列に基づいて画像i2に対し射影変換を行い(ステップS210I)、画像i1と並べて配置する(ステップS210J)。このとき、画像どうしで重複する領域が重なる画像配置でもよいし、画像どうしが重ならない画像配置でもよい。 When projective transformation is permitted, the synthesis parameter calculation unit 300B performs projective transformation on image i2 based on the calculated projective transformation matrix (step S210I), and arranges it side by side with image i1 (step S210J). At this time, the image arrangement may be such that the overlapping areas of the images overlap, or the image arrangement may be such that the images do not overlap each other.

射影変換を許可しない場合は、合成パラメータ算出部300Bは、画像i2に対し射影変換を行わずに、画像i1と並べて配置する(ステップS210J)。このときは、画像どうしで重複する領域が重ならない画像配置とする。 When the projective transformation is not permitted, the synthesis parameter calculation unit 300B arranges the image i2 side by side with the image i1 without performing the projective transformation on the image i2 (step S210J). In this case, the image layout is such that areas where the images overlap each other do not overlap.

その後、画像i2を基準画像に設定して、画像i2と隣り合う画像i3に関して上述の処理(ステップS210E~S210J)を同様に行う。このように、基準画像を替えながら、画像群の全画像について(ステップS210KでYESになるまで)繰り返す。 After that, the image i2 is set as the reference image, and the above-described processing (steps S210E to S210J) is similarly performed on the image i3 adjacent to the image i2. In this way, while changing the reference image, the process is repeated for all the images in the image group (until YES in step S210K).

図31の例では、橋梁がアーチ状となっているため、画像i1を最初の基準画像として射影変換を繰り返していくと徐々に射影変換による変形の度合いが大きくなっていく(画像i1と同一平面になるよう投影するため)。したがって、図31(b)に示すように、画像i2、i3は問題なく射影変換して合成できるが、画像i4以降になると変形の度合いが大きくなり、損傷図として適さない。そこで、第3の実施形態のステップS210Hにおいて適切な値を設定しておくことで、画像i4の射影変換を許可しないようにすることができる(図31(c))。この場合、画像i4は画像i3と合成することはできないが、各画像が損傷図として適した画質(形状)を維持することができる。 In the example of FIG. 31, since the bridge is arch-shaped, as the projective transformation is repeated with the image i1 as the first reference image, the degree of deformation due to the projective transformation gradually increases (the same plane as the image i1). ). Therefore, as shown in FIG. 31(b), images i2 and i3 can be projectively transformed and combined without any problem, but images i4 and subsequent images are not suitable as damage diagrams because the degree of deformation increases. Therefore, by setting an appropriate value in step S210H of the third embodiment, projective transformation of image i4 can be prohibited (FIG. 31(c)). In this case, the image i4 cannot be synthesized with the image i3, but each image can maintain the image quality (shape) suitable for the damage diagram.

なお、図31(c)に示すように、ステップS210Hにおいて射影変換を許可しなかった場合は、画像i3とi4の間に点線を入れる等ユーザがその旨認識できるような表示形態で表示してもよい。 As shown in FIG. 31(c), if the projective transformation is not permitted in step S210H, the display is displayed in such a manner that the user can recognize that effect, such as by inserting a dotted line between the images i3 and i4. good too.

また、ステップS210Hにおいて射影変換を許可するかどうか判定するとき、撮影画像の正対度を基に判定してもよい。例えば、撮影画像が正対していて、射影変換により正対しない方向に変形する場合は射影変換を許可しないが、もともと撮影画像が正対しておらず、射影変換することにより正対する方向に変形する場合は、射影変換を許可するように判定してもよい。 Further, when determining whether or not to permit the projective transformation in step S210H, the determination may be made based on the positivity of the captured image. For example, if the photographed image faces the object and is deformed in the opposite direction due to the projective transformation, the projective transformation is not permitted. In this case, it may be determined to allow the projective transformation.

以上、第3の実施形態によれば、アーチ状の橋梁のような同一平面上にない構造物においても、適切な損傷図を作成することができる。 As described above, according to the third embodiment, it is possible to create an appropriate damage diagram even for a structure such as an arch-shaped bridge that is not on the same plane.

以上で本発明の実施形態に関して説明してきたが、本発明は上述した態様に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能である。 Although the embodiments of the present invention have been described above, the present invention is not limited to the above aspects, and various modifications are possible without departing from the spirit of the present invention.

200 クライアント
210 処理部
210A 画像入力部
220 記憶部
220A 撮影画像
300 サーバ
300A 画像取得部
300B 合成パラメータ算出部
300C 画像合成部
300D 損傷検出部
300E 検出結果合成部
200 Client 210 Processing Unit 210A Image Input Unit 220 Storage Unit 220A Captured Image 300 Server 300A Image Acquisition Unit 300B Synthesis Parameter Calculation Unit 300C Image Synthesis Unit 300D Damage Detection Unit 300E Detection Result Synthesis Unit

Claims (9)

被写体を一部の領域が重複するように分割撮影して取得した複数の画像を入力するステップと、
前記複数の画像を合成するための合成パラメータを画像どうしの対応点に基づいて算出するステップと、
前記複数の画像を構成する画像から前記被写体の損傷の検出を行うステップと、
前記複数の画像についての前記検出の結果を前記合成パラメータに基づいて合成するステップと、
を有し、
前記合成するステップにおいて、重複する領域においては、重複する複数の画像のうちの1つの画像を選択して合成を行い、該選択された1つの画像は、他の画像よりも前記合成パラメータの値が小さいことを特徴とする損傷図作成方法。
a step of inputting a plurality of images acquired by dividing and photographing a subject so that some areas overlap;
calculating synthesis parameters for synthesizing the plurality of images based on corresponding points between the images;
a step of detecting damage to the subject from images constituting the plurality of images;
combining results of the detection for the plurality of images based on the combining parameters;
has
In the synthesizing step, in the overlapping region, one image is selected from among the plurality of overlapping images and synthesized, and the selected one image has a higher value of the synthesizing parameter than the other images. is small.
前記合成するステップにおいて、前記重複する領域に損傷が存在しない場合は、前記選択された1つの画像が前記他の画像よりも画質判断情報の判定結果が良いことを特徴とする請求項1に記載の損傷図作成方法。 2. The method according to claim 1, wherein in said synthesizing step, said selected one image has a better judgment result of image quality judgment information than said other image when said overlapped area is free of damage. damage diagram creation method. 前記画質判断情報が、明るさの適性度、または彩度の適性度、または合焦の適性度のいずれかであることを特徴とする請求項2に記載の損傷図作成方法。 3. The damage diagram creation method according to claim 2, wherein the image quality determination information is any one of brightness adequacy, chroma adequacy, and focusing adequacy. 前記判定結果が、少なくとも2つ以上の前記判断情報に基づき判定されることを特徴とする請求項3に記載の損傷図作成方法。 4. The damage diagram creation method according to claim 3, wherein said determination result is determined based on at least two pieces of said determination information. 前記合成するステップにおいて、前記重複する領域に損傷が収まっている画像と重複する領域内外に損傷がまたがっている画像とで画像合成する場合は、前記選択された1つの画像が、前記重複する領域内外に損傷が跨っている画像であることを特徴とする請求項1に記載の損傷図作成方法。 In the synthesizing step, when synthesizing an image in which the damage is contained in the overlapping region and an image in which the damage extends inside and outside the overlapping region, the selected one image is the overlapping region 2. The method of creating a diagram of damage according to claim 1, wherein the image is an image in which the damage straddles the inside and outside. 前記合成するステップにおいて、重複する領域内外に損傷がまたがっている画像同士で画像合成する場合は、前記選択された1つの画像が、他の画像よりも前記重複する領域内外に跨っている損傷の数が多い画像であることを特徴とする請求項1に記載の損傷図作成方法。 In the synthesizing step, if the images in which the damage extends inside and outside the overlapping region are synthesized, the selected one image is more likely to have damage that extends inside and outside the overlapping region than the other images. 2. The method of creating a damage diagram according to claim 1, wherein the images are a large number of images. 被写体を一部の領域が重複するように分割撮影して取得した複数の画像を入力する画像入力部と、
前記複数の画像を合成するための合成パラメータを画像どうしの対応点に基づいて算出する合成パラメータ算出部と、
前記複数の画像を構成する画像から前記被写体の損傷の検出を行う損傷検出部と、
前記複数の画像についての前記検出の結果を前記合成パラメータに基づいて合成する検出結果合成部と、
を有し、
前記検出結果合成部は、重複する領域においては、重複する複数の画像のうちの1つの画像を選択して合成を行い、該選択された1つの画像は、他の画像よりも前記合成パラメータの値が小さいことを特徴とする損傷図作成装置。
an image input unit for inputting a plurality of images acquired by dividing the subject so that some areas overlap;
a synthesis parameter calculation unit that calculates a synthesis parameter for synthesizing the plurality of images based on corresponding points between the images;
a damage detection unit that detects damage to the subject from images constituting the plurality of images;
a detection result synthesizing unit that synthesizes the detection results of the plurality of images based on the synthesis parameter;
has
The detection result synthesizing unit selects and synthesizes one image from among the plurality of overlapping images in the overlapping region, and the selected one image has the synthesis parameter higher than the other images. A damage diagram creation device characterized by having a small value.
サーバとクライアントとを備える損傷図作成システムであって、
前記クライアントは、
被写体を一部の領域が重複するように分割撮影して取得した複数の画像を入力する画像入力部を備え、
前記サーバは、
前記複数の画像を前記クライアントから取得する画像取得部と、
前記取得した複数の画像を合成するための合成パラメータを画像どうしの対応点に基づいて算出する合成パラメータ算出部と、
前記複数の画像を構成する画像から前記被写体の損傷の検出を行う損傷検出部と、
前記複数の画像についての前記検出の結果を前記合成パラメータに基づいて合成する検出結果合成部と、
前記検出の結果を前記クライアントに出力する検出結果出力部と、
を備え、
前記検出結果合成部は、重複する領域においては、重複する複数の画像のうちの1つの画像を選択して合成を行い、該選択された1つの画像は、他の画像よりも前記合成パラメータの値が小さいことを特徴とする損傷図作成システム。
A damage diagramming system comprising a server and a client,
Said client
An image input unit for inputting a plurality of images acquired by dividing the subject so that some areas overlap,
The server is
an image acquisition unit that acquires the plurality of images from the client;
a synthesis parameter calculation unit that calculates a synthesis parameter for synthesizing the plurality of acquired images based on corresponding points between the images;
a damage detection unit that detects damage to the subject from images constituting the plurality of images;
a detection result synthesizing unit that synthesizes the detection results of the plurality of images based on the synthesis parameter;
a detection result output unit that outputs the detection result to the client;
with
The detection result synthesizing unit selects and synthesizes one image from among the plurality of overlapping images in the overlapping region, and the selected one image has the synthesis parameter higher than the other images. A damage diagram creation system characterized by a small value.
請求項1から8のいずれか1項に記載の損傷図作成方法をコンピュータに実行させるプログラムのコンピュータ読み取り可能なコードが記録された記録媒体。 9. A recording medium in which computer-readable code of a program for causing a computer to execute the damage diagram creation method according to any one of claims 1 to 8 is recorded.
JP2021110656A 2021-07-02 2021-07-02 Damage diagram creation method Pending JP2023007662A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021110656A JP2023007662A (en) 2021-07-02 2021-07-02 Damage diagram creation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021110656A JP2023007662A (en) 2021-07-02 2021-07-02 Damage diagram creation method

Publications (1)

Publication Number Publication Date
JP2023007662A true JP2023007662A (en) 2023-01-19

Family

ID=85111978

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021110656A Pending JP2023007662A (en) 2021-07-02 2021-07-02 Damage diagram creation method

Country Status (1)

Country Link
JP (1) JP2023007662A (en)

Similar Documents

Publication Publication Date Title
US11080911B2 (en) Mosaic oblique images and systems and methods of making and using same
JP6807459B2 (en) Damage diagram creation method, damage diagram creation device, damage diagram creation system, and recording medium
EP3550513B1 (en) Method of generating panorama views on a mobile mapping system
Hirschmuller Stereo processing by semiglobal matching and mutual information
CN110490967B (en) Image processing method, image processing apparatus, object modeling method, object modeling apparatus, image processing apparatus, object modeling apparatus, and medium
JP5439277B2 (en) Position / orientation measuring apparatus and position / orientation measuring program
CN111598777A (en) Sky cloud image processing method, computer device and readable storage medium
Alsadik Guided close range photogrammetry for 3D modelling of cultural heritage sites
CN112243518A (en) Method and device for acquiring depth map and computer storage medium
US11423511B2 (en) Image composition method, image composition device, and recording medium
KR101868740B1 (en) Apparatus and method for generating panorama image
JP2006113832A (en) Stereoscopic image processor and program
CN116402934A (en) Automatic texture mapping method, terminal and storage medium for three-dimensional reconstruction
US20220276046A1 (en) System and method for providing improved geocoded reference data to a 3d map representation
JP2023007662A (en) Damage diagram creation method
Pramulyo et al. Towards better 3D model accuracy with spherical photogrammetry
JP2001167249A (en) Method and device for synthesizing image and recording medium stored with image synthesizing program
WO2023062706A1 (en) Information processing device, information processing method, information processing system, and recording medium
CN117635702A (en) Positioning method of image acquisition equipment, projection system and storage medium
CN117764954A (en) New view synthesis and detection method, system, equipment and storage medium
CN114943711A (en) Building extraction method and system based on LiDAR point cloud and image
CN116128978A (en) Laser radar-camera external parameter self-calibration method and device

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213