JP2023007662A - Damage diagram creation method - Google Patents
Damage diagram creation method Download PDFInfo
- Publication number
- JP2023007662A JP2023007662A JP2021110656A JP2021110656A JP2023007662A JP 2023007662 A JP2023007662 A JP 2023007662A JP 2021110656 A JP2021110656 A JP 2021110656A JP 2021110656 A JP2021110656 A JP 2021110656A JP 2023007662 A JP2023007662 A JP 2023007662A
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- damage
- unit
- synthesizing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010586 diagram Methods 0.000 title claims description 90
- 238000000034 method Methods 0.000 title claims description 47
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 90
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 90
- 238000001514 detection method Methods 0.000 claims description 115
- 230000002194 synthesizing effect Effects 0.000 claims description 33
- 238000004364 calculation method Methods 0.000 claims description 31
- 238000003384 imaging method Methods 0.000 abstract description 11
- 238000005259 measurement Methods 0.000 abstract description 5
- 238000001308 synthesis method Methods 0.000 abstract 2
- 230000009466 transformation Effects 0.000 description 61
- 238000012545 processing Methods 0.000 description 46
- 239000011159 matrix material Substances 0.000 description 27
- 230000006870 function Effects 0.000 description 14
- 238000004891 communication Methods 0.000 description 12
- 238000013507 mapping Methods 0.000 description 12
- 238000003860 storage Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 10
- 239000002131 composite material Substances 0.000 description 9
- 238000007689 inspection Methods 0.000 description 6
- 230000015654 memory Effects 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 230000006866 deterioration Effects 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- JEIPFZHSYJVQDO-UHFFFAOYSA-N iron(III) oxide Inorganic materials O=[Fe]O[Fe]=O JEIPFZHSYJVQDO-UHFFFAOYSA-N 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 229910000831 Steel Inorganic materials 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000000576 coating method Methods 0.000 description 2
- 230000007797 corrosion Effects 0.000 description 2
- 238000005260 corrosion Methods 0.000 description 2
- 230000032798 delamination Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000003902 lesion Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 239000010959 steel Substances 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 239000011248 coating agent Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000011960 computer-aided design Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003028 elevating effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Abstract
Description
本発明は損傷図作成方法、損傷図作成装置、損傷図作成システム、及び記録媒体に関し、特に被写体を分割撮影して取得した複数の画像に基づいて損傷を検出する技術に関する。 The present invention relates to a damage diagram creation method, a damage diagram creation apparatus, a damage diagram creation system, and a recording medium, and more particularly, to a technique for detecting damage based on a plurality of images obtained by separately photographing an object.
従前より、橋梁などの巨大な構造物の劣化や損傷状態を、構造物を撮影した画像に基づき解析するシステムが知られている。例えば特許文献1では、橋梁などの構造物について、複数のエリアごとに分割して撮影し、それらつなぎ合わせて1枚の合成画像を生成して、ひびなどの損傷個所の特定と、そのデータ作成(ひびの長さや幅のサイズなどのデータ作成)を行うことが記載されている。合成画像の作成のためには、分割画像は互いに重複領域が発生するように撮影し、そして重複領域の特徴に基づき互いの画像の射影変換を行い、特徴位置が一致するように互いの画像の位置関係を決め、1枚の合成画像を生成する。そして合成画像の作成においては重複領域における画像の劣化を防止するため、2枚の画像を合成して重複領域の画像を生成するのではなく、いずれか一方の画像のみを用いて(採用して)重複領域画像を得ている。そして採用する画像の選択方法は、画像の明るさ、被写体の鮮明さ等に基づき選択することも記載されている。
Conventionally, there has been known a system that analyzes the state of deterioration and damage of a huge structure such as a bridge based on images of the structure. For example, in
しかし、重複領域の画像の選択を画像の明るさや鮮鋭さに基づき決定すると、損傷(ひび等)のデータ精度が低下する場合があった。 However, if the selection of the image of the overlap region is determined based on the brightness and sharpness of the image, the data accuracy of the damage (cracks, etc.) may be degraded.
そこで、上記課題を解決する本発明は、被写体を一部の領域が重複するように分割撮影して取得した複数の画像を入力するステップと、前記複数の画像を合成するための合成パラメータ(ex.射影変換パラメータ)を画像どうしの対応点に基づいて算出するステップと、
前記複数の画像を構成する画像から前記被写体の損傷の検出を行うステップと、前記複数の画像についての前記検出の結果を前記合成パラメータに基づいて合成するステップと、を有し、
前記合成するステップにおいて、重複する領域においては、重複する複数の画像のうちの一方の画像を選択して合成を行い、該選択された一方の画像は、他方の画像よりも前記合成パラメータの値が小さいことを特徴とする。
Therefore, the present invention for solving the above problems provides a step of inputting a plurality of images acquired by dividing and photographing a subject such that a part of the area overlaps; a step of calculating a projective transformation parameter) based on the corresponding points of the images;
a step of detecting damage to the subject from images constituting the plurality of images; and a step of synthesizing the detection results of the plurality of images based on the synthesis parameter;
In the synthesizing step, in the overlapping region, one of the multiple overlapping images is selected and synthesized, and the selected one image has a higher value of the synthesizing parameter than the other image. is small.
本発明によれば、重複領域における、損傷の形状に関する測定精度が向上する。 According to the present invention, the measurement accuracy of the shape of the damage in the overlap region is improved.
以下、添付図面を参照しつつ、本発明に係る損傷図作成方法、損傷図作成装置、損傷図作成システム、及び記録媒体の実施形態について、詳細に説明する。 EMBODIMENT OF THE INVENTION Hereafter, embodiment of the damage diagram creation method, damage diagram creation apparatus, damage diagram creation system, and recording medium which concerns on this invention is described in detail, referring an accompanying drawing.
<第1の実施形態>
<橋梁の構造>
本発明の損傷図作成方法及び損傷図作成装置を適用しうる好ましい構造物として、例えば橋梁がある。この構造ついては特許文献1の図1を参照されたい。尚、以下の本実施形態では橋梁を対象(被写体)とする場合について説明するが、対象とする建造物は橋梁に限らずトンネル、ビル等、道路等でもよい。
<First Embodiment>
<Bridge structure>
A preferred structure to which the damage diagram creation method and damage diagram creation apparatus of the present invention can be applied is, for example, a bridge. See FIG. 1 of
<画像の取得>
橋梁の画像を撮影して損傷を検出する場合、検査員はデジタルカメラ100(図1参照)を用いて橋梁を下方から撮影し、検査範囲について複数の撮影画像(橋梁の異なる部分がそれぞれ撮影された複数の画像)を分割して取得する。撮影は、橋梁の延伸方向及びその直交方向に適宜移動しながら行う。なお橋梁の周辺状況により検査員の移動が困難な場合は、橋梁に沿って移動可能な移動体にデジタルカメラ100を設けて撮影を行ってもよい。このような移動体には、デジタルカメラ100の昇降機構、回転機構(パン及び/またはチルトを行う機構)を設けてもよい。なお移動体の例としては車輌、ロボット、及び飛翔体(ドローン等)を挙げることができるが、これらに限定されるものではない。
<Acquisition of image>
When detecting damage by photographing an image of a bridge, the inspector photographs the bridge from below using the digital camera 100 (see FIG. 1), and obtains a plurality of photographed images (different parts of the bridge are respectively photographed) for the inspection range. multiple images) are divided and acquired. Photographing is performed while moving appropriately in the extension direction of the bridge and in the orthogonal direction. If it is difficult for the inspector to move due to the surrounding conditions of the bridge, a
<損傷図作成システムの構成>
図1は、損傷図作成システム10(損傷図作成システム)の概略構成を示すブロック図である。損傷図作成システム10はデジタルカメラ100、クライアント200、及びサーバ300を備え、被写体を分割撮影して取得した複数の画像について損傷の検出、検出結果の合成等を行い損傷図の作成をするシステムである。損傷図作成システム10では、画像を入力して結果をサーバ300から受け取るパーソナルコンピュータ、タブレット端末、スマートフォン等の機器(情報端末)をクライアント200として用いることができ、クライアント200とネットワーク接続されたコンピュータをサーバ300として用いることができる。
<Configuration of damage diagram creation system>
FIG. 1 is a block diagram showing a schematic configuration of a damage diagram creation system 10 (damage diagram creation system). The damage
<デジタルカメラの構成>
デジタルカメラ100は、図示せぬ撮影レンズ及び撮像素子を備える撮像光学系110により画像を取得する。撮像素子の例としてはCCD(Charge Coupled Device)型の撮像素子及びCMOS(Complementary Metal-Oxide Semiconductor)型の撮像素子を挙げることができる。撮像素子の受光面上にはR(赤),G(緑),またはB(青)のカラーフィルタが設けられており、各色の信号に基づいて被写体のカラー画像を取得することができる。デジタルカメラ100は、無線通信部130及びアンテナ132を介してクライアント200との無線通信を行い、撮影された画像が処理部210に入力されて後述する処理が行われる。なお、デジタルカメラ100はクライアント200と別々の筐体に組み込んでもよいし、一体化してもよい。
<Configuration of digital camera>
The
<クライアントの全体構成>
クライアント200は処理部210、記憶部220、表示部230、及び操作部240を備え、これら各部は互いに接続されて必要な情報が送受信される。また、クライアント200はアンテナ212を介してデジタルカメラ100との間で無線通信を行い、デジタルカメラ100で撮影された撮影画像を取得する。さらに、クライアント200はネットワークNWを介してサーバ300と接続され、サーバ300との間で、取得した画像の送信、及び送信された画像に対する処理結果(合成検出結果、合成画像等)、処理要求とその応答等を送受信する。
<Overall configuration of the client>
The
<処理部の構成>
図2は処理部210の構成を示す図である。処理部210は、画像入力部210A(画像入力部)、ファイル管理部210B、表示制御部210C、通信制御部210Dを備え、デジタルカメラ100で取得した撮影画像のサーバ300への送信、処理結果の受信、及び処理結果のモニタ232への表示制御等を行う。画像入力部210Aは、デジタルカメラ100(または記録媒体、ネットワーク等)から橋梁の撮影画像(橋梁を分割撮影した複数の画像)を入力する。ファイル管理部210Bは、キーボード242及び/またはマウス244を介したユーザ操作に応じてフォルダを作成する。表示制御部210Cは、取得した画像、受信した処理結果等のモニタ232への表示制御を行う。通信制御部210Dは、アンテナ212を介してデジタルカメラ100との間で画像、情報を送受信し、またネットワークNWを介してサーバ300との間で画像、情報を送受信する。ROM210E(ROM:Read Only Memory、非一時的記録媒体)には、画像取得、送受信等の処理に必要なプログラム(本発明に係る損傷図作成方法を実行するためのプログラムまたはその一部を含む)のコンピュータ読み取り可能なコードが記録される。
<Structure of Processing Unit>
FIG. 2 is a diagram showing the configuration of the
上述した処理部210の各機能は、サーバ300について詳細を後述するのと同様に、各種のプロセッサあるいは電気回路が記録媒体に記録されたソフトウェアを参照することで実現することができる。
Each function of the
<記憶部の構成>
記憶部220はCD(Compact Disk)、DVD(Digital Versatile Disk)、ハードディスク(Hard Disk)、各種半導体メモリ等の非一時的記録媒体及びその制御部により構成され、図3に示す画像及び情報が互いに関連づけて記憶される。撮影画像220Aは、被写体である橋梁(床版の部分)をデジタルカメラ100で分割撮影し画像入力部210Aで入力した複数の画像である。なお、デジタルカメラ100及び画像入力部210Aにより入力した画像でなく、ネットワーク、記録媒体経由で取得した画像を記憶してもよい。検出結果220Bは、撮影画像220Aを構成する個々の画像に対する損傷の検出結果、及び個々の画像に対する検出結果を合成した検出結果を含む。合成画像220Cは、撮影画像を合成した画像(部分的に合成した画像群を含む)である。損傷マッピング画像220Dは、損傷を示す情報(検出結果等)をマッピングした画像である。これらの画像及び情報は、フォルダに格納することができる(図11,12参照)。
<Structure of storage unit>
The
<表示部及び操作部の構成>
表示部230はモニタ232(表示装置)を備えており、入力した画像、記憶部220に記憶された画像及び情報、サーバ300による処理の結果等を表示することができる。操作部240は入力デバイス及び/またはポインティングデバイスとしてのキーボード242及びマウス244を含んでおり、ユーザはこれらのデバイス及びモニタ232の画面を介して、フォルダの作成、画像のフォルダへの格納、対応点の指定等、本発明に係る損傷図作成方法の実行に必要な操作を行うことができる(後述)。
<Configuration of display unit and operation unit>
The
<サーバの構成>
図4はサーバ300の構成を示す図である。サーバ300は画像取得部300A(画像取得部)、合成パラメータ算出部300B(合成パラメータ算出部)、画像合成部300C、損傷検出部300D(損傷検出部)、検出結果合成部300E(検出結果合成部)、対応点指定部300F(対応点指定部)を備える。サーバ300は、さらに損傷マッピング部300G、検出結果出力部300H(検出結果出力部)、表示制御部300I(表示制御部)、通信制御部300J、及びROM300K(非一時的記録媒体)を備える。サーバ300はネットワークNWを介してクライアント200と接続され、クライアント200から撮影画像(図3の撮影画像220A)を取得して損傷の検出、検出結果の合成等を行う。
<Server configuration>
FIG. 4 is a diagram showing the configuration of the
画像取得部300Aは、クライアント200から撮影画像(図3の撮影画像220A)を入力する。合成パラメータ算出部300Bは、撮影画像を合成するための合成パラメータを、画像どうしの対応点に基づいて算出する。画像合成部300Cは、合成パラメータに基づいて撮影画像を合成する。損傷検出部300Dは、撮影画像から被写体(橋梁)の損傷(ひび割れ、剥離、腐食等)を検出(抽出及び計測)する。検出結果合成部300Eは、撮影画像についての損傷の検出結果(検出の結果)を、合成パラメータ算出部300Bが算出した合成パラメータに基づいて合成する。対応点指定部300Fは、ユーザの指示入力に基づいて、表示された画像群のうちの一の画像群と画像群のうちの他の画像群とについて対応点を指定する。損傷マッピング部300Gは、損傷を示す情報を合成画像にマッピングする。検出結果出力部300Hは、損傷の検出結果、合成した検出結果、識別情報、合成画像、損傷マッピング画像等をクライアント200に出力する。表示制御部300Iは、撮影画像、検出結果等をモニタ232(表示装置)に表示させる。通信制御部300Jは、ネットワークNWを介してクライアント200との間で画像、情報を送受信する。ROM300K(非一時的記録媒体)には、本発明に係る損傷図作成方法を実行するための損傷図作成プログラム等、損傷図作成システム10が動作するための各種プログラムのコンピュータ読み取り可能なコードが記録される。サーバ300は、上述の各部の他に図示せぬ記録装置(例えば、ハードディスク等の光磁気記録媒体)を備え、クライアント200から取得した画像及び情報、またサーバ300の各部による処理結果(損傷の検出結果等)を記録する。記録された画像等は、要求に応じてクライアント200に送信することができる。
The
上述したサーバ300の各部の機能は、各種のプロセッサ(processor)を用いて実現できる。各種のプロセッサには、例えばソフトウェア(プログラム)を実行して各種の機能を実現する汎用的なプロセッサであるCPU(Central Processing Unit)が含まれる。また、上述した各種のプロセッサには、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)も含まれる。さらに、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路なども上述した各種のプロセッサに含まれる。
The function of each unit of the
各部の機能は1つのプロセッサにより実現されてもよいし、複数のプロセッサを組み合わせて実現されてもよい。また、複数の機能を1つのプロセッサで実現してもよい。複数の機能を1つのプロセッサで構成する例としては、第1に、クライアント、サーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の機能として実現する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、システム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の機能は、ハードウェア的な構造として、上述した各種のプロセッサを1つ以上用いて構成される。さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。 The function of each unit may be realized by one processor, or may be realized by combining a plurality of processors. Also, a plurality of functions may be realized by one processor. As an example of configuring a plurality of functions in one processor, first, as represented by computers such as clients and servers, one processor is configured by combining one or more CPUs and software, and this processor is implemented as multiple functions. Secondly, as typified by System On Chip (SoC), there is a form of using a processor that implements the functions of the entire system with a single IC (Integrated Circuit) chip. In this way, various functions are configured using one or more of the various processors described above as a hardware structure. Further, the hardware structure of these various processors is, more specifically, an electric circuit combining circuit elements such as semiconductor elements.
上述したプロセッサあるいは電気回路がソフトウェア(プログラム)を実行する際は、実行するソフトウェア(本発明に係る損傷図作成方法を実行するためのプログラムを含む)のプロセッサ(コンピュータ)読み取り可能なコードをROM300K(図4を参照)等の非一時的記録媒体に記憶しておき、プロセッサがそのソフトウェアを参照する。ROM300Kではなく各種光磁気記録装置、半導体メモリ等の非一時的記録媒体にコードを記録してもよい。ソフトウェアを用いた処理の際には例えばRAM(Random Access Memory)が一時的記憶領域として用いられ、また例えばEEPROM(Electronically Erasable and Programmable Read Only Memory)に記憶されたデータが参照される。なお、図4ではRAM,EEPROM等のデバイスの図示は省略する。
When the processor or electric circuit described above executes software (program), the processor (computer) readable code of the software to be executed (including the program for executing the damage diagram creation method according to the present invention) is stored in the
なお、上述したクライアント200の各機能も、サーバ300と同様に各種プロセッサ、電気回路、及びソフトウェアにより実現することができる。
Each function of the
<画像処理の手順>
損傷図作成システム10による画像処理について説明する。図5,6は画像処理(本発明に係る損傷図作成方法の各処理を含む)の手順を示すフローチャートである。これらの図において、ステップS100~S112はクライアント200での処理を示し、ステップS200~S236はサーバ300での処理を示す。
<Image processing procedure>
Image processing by the damage
<撮影>
図5,6に示す手順では、デジタルカメラ100により橋梁1(建造物)を分割撮影して複数の撮影画像を取得する(ステップS100)。
photograph
In the procedure shown in FIGS. 5 and 6, the
本実施形態では、床版6を撮影する場合について説明する。図7は床版6の撮影手順の例を示す図である。図7では、主桁(x方向に伸びる部材)及び横桁(y方向に伸びる部材)で規定される格間GOを含む領域Aを単位として撮影を行い、撮影領域をy方向及びx方向に(矢印の方向に)順次移動させながら撮影を繰り返す様子を示している。撮影範囲全体の画像が取得できれば、撮影は他の手順で行ってもよい。なお、図7では橋梁(床版)の延伸方向をx、床版の面内でxと直交する方向をy、床版と直交する方向(垂直下方向)をzとし、(x,y,z)で座標を構成している。 In this embodiment, a case of photographing the floor slab 6 will be described. FIG. 7 is a diagram showing an example of the photographing procedure of the floor slab 6. As shown in FIG. In FIG. 7, an area A including a coffer GO defined by a main girder (a member extending in the x direction) and a horizontal girder (a member extending in the y direction) is photographed as a unit, and the photographing area is taken in the y direction and the x direction. It shows a state in which photographing is repeated while being sequentially moved (in the direction of the arrow). As long as an image of the entire imaging range can be acquired, the imaging may be performed by other procedures. In FIG. 7, the extending direction of the bridge (floor slab) is x, the direction perpendicular to x in the plane of the floor slab is y, the direction perpendicular to the floor slab (vertically downward direction) is z, and (x, y, z) constitute the coordinates.
図8は1つの格間GOでの撮影手順の例を示す図である。図8の例では、格間GOの+x側端部の領域A1から開始して-x方向端部の領域Aiに至るまで移動しながら撮影し、再度+x側端部に戻って領域Ajから初めて-x方向端部の領域Anに至るまで、合計n枚(nは2以上の整数)の画像を撮影する。これと異なるパターン(例えば領域A1~Ai~An~Ajの順)で撮影してもよい。撮影の際は、1画像を撮影するごとに撮影位置を移動し常に正対した画像を撮影してもよいし、1つの撮影位置で撮影方向を変えながら複数の画像を撮影してもよい(この場合、斜め方向から撮影された画像が含まれることになる)。また撮影においては、撮影位置及び撮影方向を適切に設定することにより隣接する画像で十分な(例えば、30%程度)重複を生じさせ、対応点の検出及び設定を容易かつ高精度にすることが好ましい。 FIG. 8 is a diagram showing an example of a photographing procedure in one crate GO. In the example of FIG. 8, the image is taken while moving from the area A1 on the +x side end of the partition GO to the area Ai on the -x direction end, then returning to the +x side end again and starting from the area Aj. A total of n images (n is an integer equal to or greater than 2) are taken up to the area An at the end in the -x direction. A pattern different from this (for example, the order of areas A1 to Ai to An to Aj) may be used. When shooting, the shooting position may be moved each time an image is shot and an image always facing the front may be shot, or a plurality of images may be shot while changing the shooting direction at one shooting position ( In this case, images taken from an oblique direction will be included). In addition, in photographing, by appropriately setting the photographing position and photographing direction, it is possible to generate a sufficient overlap (for example, about 30%) in adjacent images, and to easily detect and set corresponding points with high accuracy. preferable.
図9は撮影画像の例であり、画像i1~i10まで10枚の画像を、重複を確保しつつ撮影した様子を示している。また、図10は画像i1~i10を個別に示す図である。なお図9,10では、格間GOの枠F(主桁及び横桁で規定される矩形)を図示しており、その他の部材及び床板に生じた損傷は図示を省略している。 FIG. 9 is an example of captured images, and shows how 10 images i1 to i10 are captured while ensuring overlap. Also, FIG. 10 is a diagram showing the images i1 to i10 individually. 9 and 10 show the frame F of the coffer GO (a rectangle defined by the main girder and the horizontal girder), and omit the illustration of damage to other members and floorboards.
クライアント200は、デジタルカメラ100(撮像光学系110、無線通信部130、アンテナ132)及び処理部210(通信制御部210D、画像入力部210A、アンテナ212)を介して、上述した複数の撮影画像を入力する(ステップS102)。
The
<画像及び情報の格納>
損傷図作成システム10では、クライアント200の記憶部220にフォルダを作成して撮影画像を格納する。図11はフォルダ構造の例を示す図である。図11の例では、橋梁の全体に対してメインフォルダMFを作成し、このメインフォルダの中に撮影領域(検査領域1A,検査領域1B)ごとにサブフォルダSF1,SF2を作成している。撮影領域ごとのサブフォルダの中には、主桁及び横桁で規定される格間GOごとにさらにサブフォルダSS1~SS5を作成して撮影画像を格納している。図12は格間番号がA001の格間(サブフォルダSS1)について10枚の撮影画像を格納した様子を示す。
<Storing images and information>
In the damage drawing
図11,12に示すフォルダ構造は、ファイル管理部210Bが操作部240(キーボード242、マウス244)の操作に応じて作成することができる。なおフォルダ構成は図11,12の例と異なる態様でもよく、例えば部材番号ごとにサブフォルダを作成してもよい。詳細を後述するように、損傷図作成システム10では損傷の検出結果(検出の結果)をフォルダ(サブフォルダも「フォルダ」に含む)ごとに合成し、合成した検出結果を撮影画像と同一のフォルダに格納する。
The folder structures shown in FIGS. 11 and 12 can be created by the
<画像取得>
クライアント200の操作部240はキーボード242及び/またはマウス244を介した損傷検出及び合成の指示操作を受け付け(ステップS104)、この操作に応じてサーバ300(画像取得部300A)が撮影画像を取得する(ステップS200)。画像取得部300Aは、クライアント200(記憶部220)の同一のフォルダに格納された画像を同一のグループに属する画像として取得する。例えば、図11,12に示すサブフォルダSS1に格納された10枚の撮像画像を同一のグループに属する画像として取得する。
<Image acquisition>
The
<合成パラメータの算出>
ステップS200で撮影画像が取得されたら、サーバ300(合成パラメータ算出部300B)は、複数の画像を合成するための合成パラメータを画像どうしの対応点に基づいて算出する(ステップS202)。例えば、撮影画像のうちの基準画像に対する他の画像の射影変換行列を合成パラメータとして算出することができる。なお、図5のフローチャートではステップS202の合成パラメータ算出を先に行う例を記載しているが、ステップS204の損傷検出を先に行ってもよいし、ステップS202,S204を並行して行ってもよい。
<Calculation of synthetic parameters>
After the captured images are acquired in step S200, the server 300 (synthesis
<損傷の検出>
サーバ300(損傷検出部300D)は、取得した撮影画像から損傷を検出(抽出及び計測)する(ステップS204)。損傷の分類としては剥離、漏水、ひび割れ、錆などを挙げることができるが、具体的に検出する損傷の種類は建造物(被写体)の種類、特徴、検査の目的等の条件に応じて設定してよい。また、検出する項目としては位置、大きさ、方向、範囲、形状等があるが、検出項目についても損傷の分類に応じて、また建造物の種類、特徴、検査の目的等の条件に応じて設定してよい。損傷の検出においては、損傷検出部300Dが検出結果(検出の結果)をベクトル化し、始点及び終点を有する線分またはその集合(ひび割れ等、線状の損傷の場合)、またはそのような線分により構成される多角形等の図形(剥離、腐食のように広がりのある損傷の場合)で表す。
<Damage detection>
The server 300 (
損傷の検出は分類に応じて種々の手法により行うことができるが、ひび割れについては、例えば特許4006007号公報に記載されたひび割れ検出方法を用いることができる。この方法は、ウェーブレット画像を作成する工程と、ウェーブレット画像に基づいてひび割れ領域を判定する工程と、を有するひび割れ検出方法である。ウェーブレット画像を作成する工程では、対比される2つの濃度に対応したウェーブレット係数を算定するとともに、その2つの濃度をそれぞれ変化させた場合のそれぞれのウェーブレット係数を算定してウェーブレット係数テーブルを作成し、ひび割れ検出対象であるコンクリート表面を撮影した入力画像をウェーブレット変換する。ひび割れ領域を判定する工程では、ウェーブレット係数テーブル内において、局所領域内の近傍画素の平均濃度と注目画素の濃度に対応するウェーブレット係数を閾値として、注目画素のウェーブレット係数と閾値とを比較することによりひび割れ領域とひび割れでない領域とを判定する。 Damage can be detected by various methods depending on the classification. For cracks, for example, the crack detection method described in Japanese Patent No. 4006007 can be used. The method is a crack detection method comprising the steps of creating a wavelet image and determining a crack region based on the wavelet image. In the step of creating a wavelet image, calculating wavelet coefficients corresponding to two densities to be compared, and calculating respective wavelet coefficients when the two densities are changed respectively to create a wavelet coefficient table, Wavelet transformation is performed on the input image of the concrete surface, which is the target of crack detection. In the step of determining a crack region, the wavelet coefficients corresponding to the average density of neighboring pixels in the local region and the density of the pixel of interest are used as thresholds in the wavelet coefficient table, and the wavelet coefficients of the pixel of interest are compared with the threshold. Cracked and non-cracked areas are determined.
また、錆及び剥離を検出する方法としては、例えば特表2010-538258号公報に記載された鋼橋の塗膜検査システムの処理方法を用いることができる。この処理方法では、撮影された鋼橋塗膜の画像ファイルからの色情報、映像処理、ウォーターシェッド、パルツェン窓を用いて錆と剥離を検出している。 Further, as a method for detecting rust and peeling, for example, a processing method for a coating film inspection system for steel bridges described in Japanese Patent Publication No. 2010-538258 can be used. In this processing method, rust and flaking are detected using color information, image processing, water sheds, and Parzen windows from image files of steel bridge coatings taken.
第1の実施形態に係る損傷図作成システム10では、このように合成前の撮影画像から損傷を検出する。したがって画像の重複領域での画質劣化に起因して損傷検出性能が劣化することがないので、被写体を分割撮影して取得した複数の画像に基づいて損傷を高精度に検出することができる。なお、損傷の検出結果は、後述するように画像どうしの合成パラメータを用いて合成する。
In the damage
<合成可否の判断>
サーバ300(合成パラメータ算出部300B)は、ステップS202で算出した合成パラメータに基づいて全ての撮影画像を1つに合成することができるか否かを判断する(ステップS206)。合成できるか否かは、対応点の数、対応点の信頼性が十分であるか否か(対応点が特徴的な点であるか否か)、対応点により射影変換行列が算出できるか等に基づいて判断することができる。この際、RANSAC(RANdom SAmple Consensus)アルゴリズム等により対応点の組合せを変えて射影変換行列とその評価値の算出を繰り返して判断してもよい。全ての画像を1つの画像に合成できる場合(ステップS206でYES)はステップS222に進んで検出結果(検出の結果)の合成を行う。全ての画像を1つの画像に合成できない場合(ステップS206でNO)は、以下に説明するようにステップS208~S220の処理を行ってからステップS222に進む。ステップS208~S220は全ての画像を1つの画像に合成(自動合成)できない場合の処理であり、これらのステップでは、合成が可能な画像群については画像群ごとに合成パラメータを算出して損傷の検出結果を画像群ごとに合成する。一方、合成ができない画像群の間では、以下に説明するようにユーザ操作に基づき対応点を指定して合成パラメータを算出し、算出した合成パラメータに基づいて検出結果を合成する。例えば、後述する画像群G1,G2(図15~18参照)の場合、画像群G1,G2を構成する画像については検出結果をそれぞれ合成し、画像群G1,G2の間では、ユーザ操作に基づいて算出した合成パラメータに基づいて、画像群G1,G2について合成された検出結果を1つに合成する(図19~21参照)。
<Judgment on whether synthesis is possible>
The server 300 (synthesis
<画像の分類>
ステップS206で「全ての撮影画像を1つの画像に合成できない」と判断された場合、合成パラメータ算出部300Bは撮影画像を合成が可能な画像群に分け(ステップS208)、画像群ごとに、画像どうしの対応点に基づいて画像配置を決定(合成パラメータを算出)する(ステップS210)。画像配置が決定すれば、その配置に基づいて検出結果を合成することができる。
<Image classification>
If it is determined in step S206 that "all the captured images cannot be combined into one image", the combining
<画像配置の決定>
図13は、図5のステップS210における画像配置決定の処理の詳細を示すフローチャートである。合成パラメータ算出部300Bは、複数の撮影画像のうちから射影変換の基準となる基準画像を設定する(ステップS210A)。基準画像は正対度、鮮明度等の画像の特徴により設定(選択)できるが、特定の撮影順の画像(例えば、最初に撮影した画像)を基準画像としてもよい。図9,10の例では、図14の(a)部分に示すように、画像i1,i2に対し画像i1を基準画像として設定することができる。
<Determination of image layout>
FIG. 13 is a flow chart showing the details of the image layout determination process in step S210 of FIG. The synthesis
基準画像が設定されたら、合成パラメータ算出部300Bは、基準画像以外の画像の基準画像に対する射影変換行列を、画像どうしの対応点に基づいて算出する(ステップS210B)。図9,10の例では、図14の(a)部分に示すように、画像i2(基準画像以外の画像)を画像i1(基準画像)と同一平面に射影し、対応点を一致させるための射影変換行列を算出する。画像i2の画像i1(基準画像)に対する射影変換行列が算出されたら、図14の(b)部分に示すように変換後の画像i2を基準画像とし、変換後の画像i2に対する画像i3の射影変換行列を算出する。このように、基準画像を替えながら、画像群の全画像について(ステップS210CでYESになるまで)射影変換行列を算出する。
After the reference image is set, the synthesizing
全画像について射影変換行列を算出したら、合成パラメータ算出部300Bは、算出した射影変換行列に基づいて各画像に対し移動、回転、拡大または縮小、及び変形等を行い、画像群の各画像の配置を決定する(ステップS210D)。以下では、画像i1~i4及び画像i6~i9が合成可能な画像群G1を構成し、画像i5及び画像i10が合成可能な画像群G2を構成するものとして説明する。なお、上述した画像配置の決定においては各画像を射影変換行列により移動、回転、変形等するが、図示する例は画像の配置等を概念的に示すものであり、画像の移動、回転、変形等を正確に表すものではない。
After calculating the projective transformation matrix for all images, the synthesis
ステップS210Dで決定する画像配置は、画像どうしで重複する領域が重なる画像配置(図15参照)でもよいし、画像どうしが重ならない画像配置(図16参照)でもよい。画像どうしが重ならない画像配置の場合、図16に示すように画像をx方向及びy方向に離間させて配置し、画像の向きは射影変換行列により求めた向きと変えない(画像を回転させない)配置とすることができる。 The image layout determined in step S210D may be an image layout in which the overlapping areas of the images overlap (see FIG. 15) or an image layout in which the images do not overlap (see FIG. 16). In the case of image arrangement in which the images do not overlap each other, the images are spaced apart in the x and y directions as shown in FIG. can be arranged.
<画像表示>
ステップS210(ステップS210A~S210D)で画像配置が決定すると、サーバ300(表示制御部300I、通信制御部300J)は合成可能な画像群を表示するようクライアント200に指示する(ステップS212)。クライアント200への指示には、表示させる画像、画像の配置の情報、及びステップS204において損傷の検出結果をベクトル化した情報を含める。クライアント200(表示制御部210C)は、表示の指示に応じて損傷の検出結果をベクトル化した情報を画像と重畳し、合成可能な画像群ごとにモニタ232に表示する(ステップS106)。上述の例では、表示制御部210Cは画像群G1,G2を図15または図16のような画像配置により表示させる。図15の画像配置において画像i4,i5,i9,i10におけるひび割れをベクトル化して重畳表示した様子を図17に示す。なお、表示の際に、表示制御部300I及び/または表示制御部210Cが画像群G1,G2に対しそれぞれ枠で囲む、画像群ごとに異なる色で表示する、画像群の番号を表示する等の処理を施して、画像群を容易に識別できるようにしてもよい。
<Image display>
When the image layout is determined in step S210 (steps S210A to S210D), server 300 (display control unit 300I,
ステップS106での表示の際、画像群の間での配置が不適切な場合がある。例えば、図18に示すように、画像群G1の下部(-x方向)に配置されるべき画像群G2が画像群G1の横方向に配置される場合がある。そこでサーバ300(合成パラメータ算出部300B)は画像群の配置を変更するか否か判断し(ステップS214)、変更する場合(ステップS214でYES)はステップS212に戻って、クライアント200に対し変更後の配置で画像群G1,G2を再度表示させる。ステップS214の判断は、ユーザの指示入力(例えば、キーボード242及び/またはマウス244を介した画像群G2の移動、すなわち相対配置の変更操作)に基づいて行うことができる。図18の例の場合、ユーザの操作(例えば、マウス244でドラッグ)に基づいて合成パラメータ算出部300B及び表示制御部300Iが画像群G2を画像群G1の下部に移動(矢印の方向に移動)し、図15のように表示することができる。
When displaying in step S106, there are cases where the arrangement between the image groups is inappropriate. For example, as shown in FIG. 18, an image group G2 to be arranged below the image group G1 (-x direction) may be arranged in the horizontal direction of the image group G1. Therefore, the server 300 (synthesis
画像群どうしの相対配置が不適切な状態で表示すると対応点の指定に時間が掛かる場合があるが、損傷図作成システム10では、このような配置の変更を行うことで対応点の指定を迅速かつ容易に行うことができる。 If the image groups are displayed in an inappropriate relative arrangement, it may take time to specify the corresponding points. and can be done easily.
<対応点の指定>
ステップS214までの処理により画像群の配置が決定すると、サーバ300(対応点指定部300F)は、表示された画像群のうちの一の画像群と他の画像群とについて対応点を指定する(ステップS216)。例えば画像群G1,G2が図15のように配置及び表示されている場合、図19に示すように、画像群G1におけるマウス244のクリック等(ステップS108の対応点指定操作)に応じて点P1aを指定し、画像群G2において点P1aの対応点である点P1bを指定する。対応点としては、例えば「同一」と判断されたひび割れの始点、終点、分岐点、及び/または部材の端部、辺部、接合部等の特徴点を指定することができる。この際、対応点指定部300F及び表示制御部300Iが指定された点P1a,P1bを直線でつなぐ等により対応関係を識別表示する(図19参照)ことで、指定された点が対応することを容易に把握することができる。以下、同様に点P2aと点P2b、点P3aと点P3b、点P4aと点P4b、点P5aと点P5b、点P6aと点P6bについても指定する。
<Specification of corresponding points>
When the arrangement of the image groups is determined by the processing up to step S214, the server 300 (corresponding
なお、図19では画像群G1,G2について対応点を6点ずつ指定する例を示しているが、指定する対応点の数は特に限定されない。また、画像群G1,G2が図16のように配置及び表示されている場合も、同様に画像i4,i5と画像i9,i10とで対応点を指定することができる。 Note that FIG. 19 shows an example in which six corresponding points are specified for each of the image groups G1 and G2, but the number of corresponding points to be specified is not particularly limited. Similarly, when the image groups G1 and G2 are arranged and displayed as shown in FIG. 16, corresponding points can be similarly specified between the images i4 and i5 and the images i9 and i10.
このように、第1の実施形態に係る損傷図作成システム10では、合成可能な画像群(画像群G1,G2)が画像群ごとに表示されるので、どの画像群について(自動的に)合成できたか、あるいはできなかったかを容易に把握することができる。また、合成できなかった画像群(画像群G1と画像群G2)について対応点を指定すれば良いので、全ての画像について対応点を指定する必要がなく、対応点の指定、及び指定された対応点に基づく合成パラメータの算出を迅速かつ容易に行うことができる。
As described above, in the damage
上述のように指定した対応点では合成パラメータを精度良く算出できない場合は、サーバ300(合成パラメータ算出部300B、対応点指定部300F、表示制御部300I等)及びクライアント200(表示制御部210C等)によりモニタ232に警告メッセージを表示させて、再度対応点指定操作を行うようユーザを促してもよい。
If the synthesis parameters cannot be calculated with high accuracy for the corresponding points specified as described above, the server 300 (the synthesis
<指定された対応点に基づく画像配置決定>
ステップS216で対応点が指定されたら、サーバ300(合成パラメータ算出部300B)は、指定された対応点に基づいて合成が可能な画像群ごとに合成パラメータを算出する(ステップS218)。図19の例では、合成パラメータ算出部300Bは、対応点である点P1a~P6bに基づいて、画像群G1を基準とした画像群G2の射影変換行列(または画像群G2を基準とした画像群G1の射影変換行列)を算出する。画像合成部300C,合成パラメータ算出部300Bは、このようにして算出した射影変換行列により画像群G2を構成する画像(画像i5,i10)を移動、回転、変形等して、画像配置を決定する(ステップS220)。ステップS220での画像配置の決定は、ステップS210と同様の手順に行うことができる。
<Determination of Image Arrangement Based on Designated Corresponding Points>
After the corresponding points are specified in step S216, the server 300 (synthesis
<検出結果の合成>
サーバ300(検出結果合成部300E)は、ステップS202、S220で算出した合成パラメータ(射影変換行列)に基づいて検出結果(検出の結果)を合成する(ステップS222)。例えば、図20の(a)部分及び(b)部分に示すように画像i1,i2において損傷ベクトルV1,V2の異なる部分(一部重複)が検出されたとし、損傷ベクトルV1,V2の始点、終点が点P7~P12であるとする。なお、図21の(a)部分及び(b)部分は、図20の(a)部分及び(b)部分にそれぞれ対応した損傷ベクトルV1,V2の始点、終点を示す表である。この場合、合成後の検出結果は、図20の(c)部分(画像i2を射影変換行列により移動、回転等して合成)に示すように損傷ベクトルV1は始点、終点がそれぞれ点P7,P8となり、損傷ベクトルV2は始点、終点がそれぞれ点P8、P12となる。図21の(c)部分は図20の(c)部分に対応しており、合成後の損傷ベクトルV1,V2の始点、終点を示す。
<Synthesis of detection results>
The server 300 (detection
<画像の重複領域における検出結果の合成>
上述のように撮影範囲の一部が重複するように画像を取得する場合、複数の画像が重複する領域では、本来ならば1つに合成されるべき検出結果が画像のずれにより複数になる等、合成精度が劣化する場合がある。そこで、損傷図作成システム10では、複数の画像が重複する領域においては重複する複数の画像のうち1つを選択して検出結果を合成して、検出結果を高精度に合成することができる。このような合成の様子を図22に示す。図22の例では、領域OLで画像i1,i2が重複しているので、この領域OLでは合成パラメータの値が小さい画像i2を選択し、画像i2についての検出結果を用いて合成している(図22の(b)参照)。
<Synthesis of Detection Results in Overlapping Areas of Images>
When acquiring images such that the photographing ranges partially overlap as described above, in areas where multiple images overlap, the detection results that should normally be combined into one become multiple due to misalignment of the images. , the synthesis accuracy may deteriorate. Therefore, in the damage
これにより、損傷の変形、位置ずれを抑制できるため、損傷検出結果及びそのデータ算出の正確性が向上する。 As a result, the deformation of the damage and the displacement of the damage can be suppressed, and the accuracy of the damage detection result and its data calculation is improved.
尚、合成パラメータの値とは、上述の射影変換の場合には、射影変換の程度(射影変換による変形の態度)を表す値であり、合成領域における射影変換による座標の移動量が大きいほど合成パラメータの値は大きくなる。 In the case of the above-mentioned projective transformation, the value of the synthesis parameter is a value representing the degree of projective transformation (deformation attitude due to projective transformation). parameter value is increased.
図29を用いて具体的に説明する。図29(a)のi1及びi2の2枚の元画像を合成する場合を考える。i1は、前述の方法により、図示しないi0を基準画像として射影変換行列が算出され、図29(b)のi1のように射影変換される。この際、i1における特定の座標P1a、P2a、P3a、P4aは、射影変換によりP1a´、P2a´、P3a´、P4a´に移動する。次に、射影変換後のi1を基準画像としてi2の射影変換行列を算出するために、各画像の対応点P1a~P4a、P1b~P4bを指定する(PxaとPxbがそれぞれ対応点となる)。これらの対応点を元にi2の射影変換行列を算出し、図29(b)のi2のように射影変換される。この際、i2におけるP1b、P2b、P3b、P4bは、射影変換によりP1b´、P2b´、P3b´、P4b´に移動する。そして、i1のP1a´~P4a´とi2のP1b´~P4b´の各対応点が一致するように画像配置を決定する。 A specific description will be given with reference to FIG. Consider a case where two original images i1 and i2 in FIG. 29(a) are synthesized. For i1, a projective transformation matrix is calculated using i0 (not shown) as a reference image by the above-described method, and projective transformation is performed as i1 in FIG. 29(b). At this time, specific coordinates P1a, P2a, P3a, and P4a in i1 are moved to P1a', P2a', P3a', and P4a' by projective transformation. Next, corresponding points P1a to P4a and P1b to P4b of each image are specified (Pxa and Pxb are corresponding points) in order to calculate the projective transformation matrix of i2 using i1 after projective transformation as a reference image. A projective transformation matrix of i2 is calculated based on these corresponding points, and projective transformation is performed as i2 in FIG. 29(b). At this time, P1b, P2b, P3b, and P4b in i2 move to P1b', P2b', P3b', and P4b' by projective transformation. Then, the image layout is determined so that the corresponding points P1a' to P4a' of i1 and P1b' to P4b' of i2 match each other.
ここで、i1のP1a~P4aが射影変換によりどれだけ移動したのかを算出する。具体的には、P1aとP1a´の距離(|P1a-P1a´|)を算出し、これをP2a~P4aについても繰り返し、最後にその総和を取る。これをi1の合成パラメータとする。i2に関しても同様にP1bとP1b´の距離(|P1b-P1b´|)を算出し、これをP2b~P4bについても繰り返し、最後にその総和を取る。これをi2の合成パラメータとする。このようにして算出した合成パラメータを使用して、i1とi2の重複領域において合成パラメータの小さい画像(図29(c)の例ではi2)を選択し、合成する。 Here, how much P1a to P4a of i1 have moved due to the projective transformation is calculated. Specifically, the distance (|P1a-P1a'|) between P1a and P1a' is calculated, this is repeated for P2a to P4a, and finally the sum is obtained. Let this be the synthesis parameter of i1. Similarly for i2, the distance between P1b and P1b' (|P1b-P1b'|) is calculated, this is repeated for P2b to P4b, and finally the sum is taken. Let this be the synthesis parameter of i2. Using the compositing parameters calculated in this way, an image with a small compositing parameter (i2 in the example of FIG. 29(c)) is selected and composited in the overlapping region of i1 and i2.
以上説明したように、合成パラメータは射影変換による座標の移動量を表しているので、変換の程度(変形の程度)が大きいほど、合成パラメータの値は大きくなる。なお、本実施例では合成パラメータを座標の移動距離の総和と定義したが、変形の程度を表すパラメータであれば、他の算出方法でも構わない。例えば、P1a~P4aを結んで形成される図形と、P1a´~P4a´を結んで形成される図形とで、形状の類似度を算出する方法等がある。この場合は、比較する図形のサイズをあらかじめ正規化しておくことで、図形のサイズの違いは無視し、変形の度合いだけに着目して合成パラメータを算出することができる。なお、この場合は、より形状の類似度が高い方の画像が、変形の度合いが小さい(合成パラメータが小さい)ものとして、重複領域の選択を行う。 As described above, the synthesis parameter represents the amount of coordinate movement due to projective transformation, so the larger the degree of transformation (the degree of deformation), the larger the value of the synthesis parameter. In this embodiment, the synthesis parameter is defined as the sum of the movement distances of the coordinates, but other calculation methods may be used as long as the parameter represents the degree of deformation. For example, there is a method of calculating the degree of similarity between a figure formed by connecting P1a to P4a and a figure formed by connecting P1a' to P4a'. In this case, by normalizing the sizes of the figures to be compared in advance, it is possible to ignore the difference in the size of the figures and focus only on the degree of deformation to calculate the synthesis parameter. In this case, the overlap region is selected assuming that the image with the higher shape similarity has a smaller degree of deformation (smaller synthesis parameter).
上述した検出結果の合成は、同一のフォルダに格納された画像(グループに分けられた複数の画像)について行われる。図12に示す例では、サブフォルダSS1に格納された10枚の画像について検出結果が合成される(検出結果をグループごとに合成する)。 Synthesis of the detection results described above is performed for images (a plurality of images divided into groups) stored in the same folder. In the example shown in FIG. 12, detection results are combined for ten images stored in the subfolder SS1 (detection results are combined for each group).
<画像の合成>
サーバ300(画像合成部300C)は、ステップS202、S218で算出した合成パラメータ(射影変換行列)に基づいて画像を合成する(ステップS224)。図23は、合成した画像G3を示す。図24は、図22と同様に画像が重複する領域では1つの画像を選択して合成した画像G3aを示す。なお、検出結果が合成されれば損傷図を作成できるので、画像の合成は省略してもよい。
<Synthesis of images>
The server 300 (
<合成後の正対補正>
損傷図作成システム10では、上述のように基準画像に対する他の画像の射影変換行列を算出して画像配置を決定するが、基準画像が撮影方向に対し正対していない場合、合成後の画像において本来矩形であるべき領域が矩形にならない場合がある。例えば、合成後の画像において格間の枠Fが台形状になる場合がある。この場合、サーバ300(合成パラメータ算出部300B、画像合成部300C等)はキーボード242及び/またはマウス244を介したユーザの操作に基づいて矩形を形成する点(例えば、枠Fの4隅の点)を指定し、射影変換によりこれら4点に矩形を形成させる。これにより、画像合成後においても被写体が正対した画像(正対画像)を得ることができる。
<Orientation Correction after Synthesis>
In the damage
<計測結果のマッピング>
サーバ300(損傷マッピング部300G)は、損傷の検出結果を合成画像にマッピングしてもよい。マッピングは、例えば検出結果と関連づけられた文字、図形、記号等を合成画像に表示することにより行うことができる。表示する文字、図形、記号等は操作部240(キーボード242及び/またはマウス244)を介した操作により選択することができ、選択に応じてサーバ300(損傷マッピング部300G、表示制御部300I等)及びクライアント200(表示制御部210C)がモニタ232にマッピングした画像を表示させる。文字、図形、記号等は実際の損傷を簡略化あるいは強調したものでもよいし、損傷の種別、大きさ等に応じて異なる態様で表示してもよい。計測結果がマッピングされた画像は記憶部220に記憶され(図3の損傷マッピング画像220D)、表示制御部210Cの制御によりモニタ232に表示される。損傷マッピング画像には損傷情報を入力してもよい。
<Mapping of measurement results>
The server 300 (
このような計測結果のマッピングは、橋梁1の形状を示す線図情報を含む図面データ(例えばCADデータ、CAD:Computer-Aided Design)に対して行ってもよい。この際、CADデータを規定する座標系が図23,24等に示す座標系と異なる場合は、座標系の関係に応じた座標変換(移動、回転、ミラーリング等)を行う。このような変換は、サーバ300(損傷マッピング部300G)により行うことができる。
Such mapping of measurement results may be performed on drawing data (for example, CAD data, CAD: Computer-Aided Design) including diagrammatic information indicating the shape of the
<結果表示>
サーバ300(検出結果出力部300H、表示制御部300I、通信制御部300J等)はクライアント200に対し検出結果の表示を指示し(ステップS226)、この指示に応じてクライアント200(表示制御部210C等)は検出結果をモニタ232に表示させる(ステップS110)。検出結果は文字、数字、記号等により表示することができ、各撮影画像に対する検出結果を表示してもよいし、合成した検出結果を表示してもよい(図20,21を参照)。また、検出結果と合わせて、または検出結果に代えて撮影画像、合成画像、損傷マッピング画像等を表示してもよい。また、検出結果をベクトル化した情報(図20,21を参照)を画像と重畳して表示してもよい。表示制御部210Cは、モニタ232に表示する内容及びその態様を操作部240の操作に応じて選択することができる。表示制御部210Cは、結果を表示してからの時間を計測し、また結果表示後の出力指示の有無を判断する。出力指示なしで表示時間が長い、出力指示なしで他の画面に遷移したなどの場合は目視による複写のような不正が行われている可能性があり、表示時間の計測及び出力指示の有無を判断することで、そのような不正を検知しうる。不正を検知した場合、例えば表示を停止する等の対応を取りうる。
<Result display>
Server 300 (detection
<結果出力>
サーバ300(検出結果出力部300H等)は、ステップS110で表示した検出結果に対する出力の指示操作(例えば、操作部240を介した出力指示操作)があったか否かを判断する(ステップS228)。出力指示操作があった場合(ステップS228でYES)のみ、ステップS230へ進んでクライアント200に対し検出結果(各画像に対する検出結果、及び合成された検出結果)の出力を指示し、クライアント200(ファイル管理部210B)は出力指示に応じて検出結果を出力する(ステップS112)。図12の例では、サブフォルダSS1に格納された画像に対する検出結果を、画像が格納されているのと同一のサブフォルダSS1に格納する(検出結果をグループに関連づけて出力する;図25参照)。検出結果は、橋梁1(被写体)の形状を示す線図情報を含む図面データ(例えばCADデータ)と同一のフォーマットで出力してもよい。また、図示せぬプリンタで検出結果を印刷してもよい。
<Result output>
The server 300 (detection
このように、第1の実施形態では画像が格納されたフォルダと同一のフォルダに検出結果を格納するので、入力した画像と合成された検出結果との対応が明確になり、画像及び検出結果の管理、利用を容易に行うことができる。なお、検出結果の出力は出力操作指示があった場合(ステップS228でYESとなった場合)にのみ行い、出力操作指示がなかった場合は画像に対し識別情報を付与して(ステップS232)、付与した識別情報をクライアント200に通知して画像が格納されたフォルダと同一のフォルダ(図12,25の例ではサブフォルダSS1)に格納する。
As described above, in the first embodiment, the detection result is stored in the same folder as the folder in which the image is stored. Easy to manage and use. The output of the detection result is performed only when there is an output operation instruction (when YES in step S228), and when there is no output operation instruction, identification information is added to the image (step S232) The assigned identification information is notified to the
検出結果または識別情報が出力されたら、サーバ300は全フォルダについての処理が終了したか否かを判断する(ステップS234)。判断が肯定されたら、サーバ300はステップS236でクライアント200に終了を通知して(ステップS236)、処理を終了する。全フォルダについての処理が終了していない場合は、ステップS202に戻って他のフォルダについてステップS202~S234を繰り返す。
After the detection result or identification information is output,
以上説明したように、第1の実施形態に係る損傷図作成システム10によれば、被写体を分割撮影して取得した複数の画像に基づいて損傷を高精度に検出することができる。
As described above, according to the damage
<第2の実施形態>
上述した第1の実施形態ではサーバ300及びクライアント200を備える損傷図作成システム10について説明したが、第2の実施形態では損傷図作成装置20について説明する。図26は損傷図作成装置20の構成を示す図である。損傷図作成装置20はデジタルカメラ100と装置本体500とにより構成される。デジタルカメラ100の構成は第1の実施形態におけるデジタルカメラ100の構成と同じであるので、同一の参照符号を付し詳細な説明を省略する。なお、デジタルカメラ100は装置本体500と一体に構成されていてもよい。
<Second embodiment>
In the above-described first embodiment, the damage
<損傷図作成装置の構成>
第1の実施形態に係る損傷図作成システム10はサーバ300及びクライアント200を備え損傷の検出、合成等、処理の主たる部分をサーバ300で行うが、第2の実施形態に係る損傷図作成装置20では、装置本体500の処理部510が処理を行う。具体的には、処理部510は図2に示すクライアント200の機能と図4に示すサーバ300の機能とを有する。記憶部520には、第1の実施形態に係る記憶部220と同様の情報(図3参照)が記憶される。操作部540(キーボード542,マウス544)の構成及び機能は第1の実施形態に係る操作部240(キーボード242,マウス244)と同様である。また、表示部530(モニタ532)の構成及び機能は第1の実施形態に係る表示部230(モニタ232)と同様である。損傷図作成装置20では、画像を入力して損傷の検出、合成等の処理を行うパーソナルコンピュータ、タブレット端末、スマートフォン等の機器(情報端末)を装置本体500として用いることができる。
<Configuration of damage diagram creation device>
The damage
<損傷図作成方法の処理>
損傷図作成装置20における処理(本発明に係る損傷図作成方法の処理)は図5,6,13のフローチャートと同様である。例えば、被写体を分割撮影して取得した複数の画像を入力し、複数の画像を合成するための合成パラメータ(射影変換行列)を画像どうしの対応点に基づいて算出し、複数の画像を構成する画像から被写体の損傷を検出し、複数の画像についての検出結果を合成パラメータに基づいて合成する。このような処理は装置本体500の処理部510が行う。なお、第1の実施形態ではクライアント200とサーバ300の通信が行われるが、損傷図作成装置20では装置本体500の内部での通信となる。
<Processing of damage diagram creation method>
The processing in the damage diagram creating apparatus 20 (processing of the damage diagram creating method according to the present invention) is the same as the flow charts of FIGS. For example, multiple images captured by splitting the subject are input, and the synthesis parameters (projective transformation matrix) for synthesizing the multiple images are calculated based on the corresponding points between the images to form multiple images. Damage to a subject is detected from images, and detection results for a plurality of images are synthesized based on synthesis parameters. Such processing is performed by the
第2の実施形態に係る損傷図作成装置20においても、第1の実施形態に係る損傷図作成システム10と同様に合成前の撮影画像から損傷を検出する。そして重複領域の画像は、第1の実施形態と同様に、合成パラメータの値が小さい画像を使用する。これによって損傷の変形、位置ずれを抑制できるため、損傷検出結果及びそのデータ算出の正確性が向上する。
In the damage diagram creation apparatus 20 according to the second embodiment, as in the damage
したがって画像の重複領域での画質劣化に起因して損傷検出性能が劣化することがないので、被写体を分割撮影して取得した複数の画像に基づいて損傷を高精度に検出することができる。 Therefore, damage detection performance is not degraded due to deterioration of image quality in the overlapped area of the images, so damage can be detected with high accuracy based on a plurality of images obtained by separately photographing the subject.
尚、上述の第1の実施形態、第2の実施形態ともに、重複領域と損傷(ひび等)との位置関係によって、使用する画像を選別してもよい。例えば、図27の(a)に示すように、重複領域に損傷が存在し、画像i2はその損傷が重複領域内から領域外に跨って位置し、画像i1は跨って位置していない場合がある。このような場合には、(合成パラメータの値によらず、)図27の(b)に示すように、重複領域の画像は一方の画像i2を使用しても良い。換言すると、一方の画像i2は重複領域内から重複領域外に損傷がはみ出して位置し、他方の画像i1は重複領域内に損傷が収まっている(はみ出していない)場合には、(合成パラメータの値によらず)重複領域の画像は一方の画像i2を使用しても良い。これによって、損傷の連続性が確保され、損傷検出結果及びそのデータ算出の正確性が向上する。尚、図28の(a)に示すように、一方の画像i2と他方の画像i1共に、重複領域内外に跨って損傷が位置する場合には、図28の(b)に示すように、重複領域内外に跨る損傷の数が多い方の画像i2を重複領域で使用すると良い。これによって、連続性が失われる損傷の数を低減でき、損傷検出結果及びそのデータ算出の正確性が向上する。 In both the first embodiment and the second embodiment described above, images to be used may be selected according to the positional relationship between the overlapping area and damage (cracks, etc.). For example, as shown in (a) of FIG. 27 , there is a case where damage exists in the overlapping region, the damage is located in the image i2 from the inside of the overlapping region to the outside of the region, and the damage is not located in the image i1. be. In such a case, as shown in FIG. 27(b), one image i2 may be used as the image of the overlapping area (irrespective of the value of the synthesis parameter). In other words, in one image i2, the damage protrudes outside the overlapping region, and in the other image i1, if the damage is contained (does not protrude) within the overlapping region, (combining parameter One image i2 may be used as the image of the overlap region (regardless of the value). This ensures the continuity of damage and improves the accuracy of damage detection results and data calculation thereof. In addition, as shown in (a) of FIG. 28, when the damage is positioned across the inside and outside of the overlap region in both the image i2 and the image i1 of the other, as shown in (b) of FIG. It is preferable to use the image i2 with a larger number of damages that span the inside and outside of the region in the overlapping region. This reduces the number of lesions for which continuity is lost and improves the accuracy of the lesion detection results and their data calculations.
また、重複領域のうち損傷が存在しない重複領域については、合成パラメータの値によらず、画質の良い画像を重複領域の画像として使用してもよい。この際、画質の良し悪しは、明るさの適性度や、彩度の適性度や、合焦具合等の画質判断情報から良し悪しを判定すれば良い。これによって、損傷の検出結果及びそのデータ算出の正確性の向上だけでなく、合成画像の画質の向上も図れ、ユーザにより良い損傷図を提供することが可能になる。尚、画質の良し悪しは、一つの画質判断情報(明るさの適性度や、彩度の定期精度や、合焦具合等のいずれか一つの判断情報)だけで判定するのではなく、2つ以上の判断情報に基づき総合判定して判定結果を得るのが良い。これによって、ユーザにより良い損傷図を提供することが可能になる。このように、上記の場合に該当しない重複領域には合成パラメータの値が小さい画像を選択して合成を行い、上記の場合に該当する重複領域には上記の条件で画像を選択して合成を行うことで、損傷検出結果及びそのデータ算出の正確性が向上するとともに、上記様々な効果を得ることが可能となる。 Also, for an overlapping area in which there is no damage among the overlapping areas, an image with good image quality may be used as the image of the overlapping area regardless of the value of the synthesis parameter. At this time, whether the image quality is good or bad can be judged from image quality judgment information such as the appropriateness of brightness, the appropriateness of saturation, and the degree of focusing. This not only improves the accuracy of damage detection results and data calculation, but also improves the image quality of the composite image, making it possible to provide better damage diagrams to the user. It should be noted that the quality of the image quality is not determined by only one image quality judgment information (one of judgment information such as the appropriateness of brightness, the regular accuracy of saturation, and the degree of focus), but two It is preferable to obtain a judgment result by comprehensively judging based on the above judgment information. This makes it possible to provide the user with a better damage diagram. In this way, for overlapping areas that do not correspond to the above case, images with small synthesis parameter values are selected and synthesized, and for overlapping areas that apply to the above case, images are selected and synthesized under the above conditions. By doing so, it is possible to improve the accuracy of damage detection results and data calculation thereof, and to obtain the various effects described above.
<第3の実施形態>
上述した損傷図作成装置10及び20における処理に関して、第3の実施形態を説明する。
<Third Embodiment>
A third embodiment will be described with respect to the processing in the damage
ここでは第1の実施形態での損傷図作成システム10の構成を用いて説明するが、第2の実施形態での損傷図作成装置20の構成に適用することもできる。また、損傷図作成装置における処理は図5、6のフローチャートと同様であるが、ステップS210及びS220での画像配置の決定処理が異なる。
Although the configuration of the damage
具体的に、第3の実施形態における画像配置の決定処理を、図30、31を用いて説明する。なお、ここでは、例として図31(a)のようにアーチ状の橋梁を下から撮影した画像群から損傷図を作成する方法について説明する。 Specifically, image layout determination processing in the third embodiment will be described with reference to FIGS. Here, as an example, a method of creating a damage diagram from a group of images of an arch-shaped bridge photographed from below as shown in FIG. 31(a) will be described.
<画像配置の決定>
図30は、図5のステップS210、S220における画像配置決定の処理の詳細を示すフローチャートである。合成パラメータ算出部300Bは、複数の撮影画像のうちから射影変換の基準となる基準画像を設定する(ステップS210E)。基準画像は正対度、鮮明度等の画像の特徴により設定(選択)できるが、特定の撮影順の画像(例えば、最初に撮影した画像)を基準画像としてもよい。図31の例では、i1、i2、i3、・・・と撮影した画像に対し画像i1を基準画像として設定することができる。
<Determination of image layout>
FIG. 30 is a flow chart showing the details of the image layout determination process in steps S210 and S220 of FIG. The synthesis
基準画像が設定されたら、合成パラメータ算出部300Bは、基準画像に隣り合う画像の基準画像に対する射影変換行列を、画像同士の対応点に基づいて算出する(ステップS210F)。図31の例では、図31(b)に示すように、画像i2(基準画像に隣り合う画像)を画像i1(基準画像)と同一平面に射影し、対応点を一致させるための射影変換行列を算出する。
After the reference image is set, the synthesizing
画像i2における射影変換行列を算出したら、合成パラメータ算出部300Bは、算出した射影変換行列に基づいてi2の合成パラメータを算出する。ここで合成パラメータとは、射影変換の程度(射影変換による変形の度合い)を表す値であり、撮影画像平面(光軸を法線とする平面)と投影平面とのなす角度が大きいほど合成パラメータの値は大きくなる。具体的には、第1の実施形態で説明したように、射影変換による各対応点の座標の移動量により算出できる。なお、第1の実施形態ではi1とi2の重複領域に着目して合成パラメータを算出したが、第3の実施形態では画像i2全体に着目して射影変換の程度を算出するのが望ましいので、画像i2の4頂点の座標の移動量により合成パラメータを算出してもよい。
After calculating the projective transformation matrix for the image i2, the synthesis
画像i2における合成パラメータを算出したら、合成パラメータ算出部300Bは、算出した合成パラメータに基づいて画像i2の射影変換を許可するかどうか判定する(ステップS210H)。ここでは、算出した合成パラメータが所定の値以下であれば射影変換を許可し、所定の値より大きい場合は射影変換を許可しない。
After calculating the synthesis parameters for the image i2, the
射影変換を許可する場合は、合成パラメータ算出部300Bは、算出した射影変換行列に基づいて画像i2に対し射影変換を行い(ステップS210I)、画像i1と並べて配置する(ステップS210J)。このとき、画像どうしで重複する領域が重なる画像配置でもよいし、画像どうしが重ならない画像配置でもよい。
When projective transformation is permitted, the synthesis
射影変換を許可しない場合は、合成パラメータ算出部300Bは、画像i2に対し射影変換を行わずに、画像i1と並べて配置する(ステップS210J)。このときは、画像どうしで重複する領域が重ならない画像配置とする。
When the projective transformation is not permitted, the synthesis
その後、画像i2を基準画像に設定して、画像i2と隣り合う画像i3に関して上述の処理(ステップS210E~S210J)を同様に行う。このように、基準画像を替えながら、画像群の全画像について(ステップS210KでYESになるまで)繰り返す。 After that, the image i2 is set as the reference image, and the above-described processing (steps S210E to S210J) is similarly performed on the image i3 adjacent to the image i2. In this way, while changing the reference image, the process is repeated for all the images in the image group (until YES in step S210K).
図31の例では、橋梁がアーチ状となっているため、画像i1を最初の基準画像として射影変換を繰り返していくと徐々に射影変換による変形の度合いが大きくなっていく(画像i1と同一平面になるよう投影するため)。したがって、図31(b)に示すように、画像i2、i3は問題なく射影変換して合成できるが、画像i4以降になると変形の度合いが大きくなり、損傷図として適さない。そこで、第3の実施形態のステップS210Hにおいて適切な値を設定しておくことで、画像i4の射影変換を許可しないようにすることができる(図31(c))。この場合、画像i4は画像i3と合成することはできないが、各画像が損傷図として適した画質(形状)を維持することができる。 In the example of FIG. 31, since the bridge is arch-shaped, as the projective transformation is repeated with the image i1 as the first reference image, the degree of deformation due to the projective transformation gradually increases (the same plane as the image i1). ). Therefore, as shown in FIG. 31(b), images i2 and i3 can be projectively transformed and combined without any problem, but images i4 and subsequent images are not suitable as damage diagrams because the degree of deformation increases. Therefore, by setting an appropriate value in step S210H of the third embodiment, projective transformation of image i4 can be prohibited (FIG. 31(c)). In this case, the image i4 cannot be synthesized with the image i3, but each image can maintain the image quality (shape) suitable for the damage diagram.
なお、図31(c)に示すように、ステップS210Hにおいて射影変換を許可しなかった場合は、画像i3とi4の間に点線を入れる等ユーザがその旨認識できるような表示形態で表示してもよい。 As shown in FIG. 31(c), if the projective transformation is not permitted in step S210H, the display is displayed in such a manner that the user can recognize that effect, such as by inserting a dotted line between the images i3 and i4. good too.
また、ステップS210Hにおいて射影変換を許可するかどうか判定するとき、撮影画像の正対度を基に判定してもよい。例えば、撮影画像が正対していて、射影変換により正対しない方向に変形する場合は射影変換を許可しないが、もともと撮影画像が正対しておらず、射影変換することにより正対する方向に変形する場合は、射影変換を許可するように判定してもよい。 Further, when determining whether or not to permit the projective transformation in step S210H, the determination may be made based on the positivity of the captured image. For example, if the photographed image faces the object and is deformed in the opposite direction due to the projective transformation, the projective transformation is not permitted. In this case, it may be determined to allow the projective transformation.
以上、第3の実施形態によれば、アーチ状の橋梁のような同一平面上にない構造物においても、適切な損傷図を作成することができる。 As described above, according to the third embodiment, it is possible to create an appropriate damage diagram even for a structure such as an arch-shaped bridge that is not on the same plane.
以上で本発明の実施形態に関して説明してきたが、本発明は上述した態様に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能である。 Although the embodiments of the present invention have been described above, the present invention is not limited to the above aspects, and various modifications are possible without departing from the spirit of the present invention.
200 クライアント
210 処理部
210A 画像入力部
220 記憶部
220A 撮影画像
300 サーバ
300A 画像取得部
300B 合成パラメータ算出部
300C 画像合成部
300D 損傷検出部
300E 検出結果合成部
200
Claims (9)
前記複数の画像を合成するための合成パラメータを画像どうしの対応点に基づいて算出するステップと、
前記複数の画像を構成する画像から前記被写体の損傷の検出を行うステップと、
前記複数の画像についての前記検出の結果を前記合成パラメータに基づいて合成するステップと、
を有し、
前記合成するステップにおいて、重複する領域においては、重複する複数の画像のうちの1つの画像を選択して合成を行い、該選択された1つの画像は、他の画像よりも前記合成パラメータの値が小さいことを特徴とする損傷図作成方法。 a step of inputting a plurality of images acquired by dividing and photographing a subject so that some areas overlap;
calculating synthesis parameters for synthesizing the plurality of images based on corresponding points between the images;
a step of detecting damage to the subject from images constituting the plurality of images;
combining results of the detection for the plurality of images based on the combining parameters;
has
In the synthesizing step, in the overlapping region, one image is selected from among the plurality of overlapping images and synthesized, and the selected one image has a higher value of the synthesizing parameter than the other images. is small.
前記複数の画像を合成するための合成パラメータを画像どうしの対応点に基づいて算出する合成パラメータ算出部と、
前記複数の画像を構成する画像から前記被写体の損傷の検出を行う損傷検出部と、
前記複数の画像についての前記検出の結果を前記合成パラメータに基づいて合成する検出結果合成部と、
を有し、
前記検出結果合成部は、重複する領域においては、重複する複数の画像のうちの1つの画像を選択して合成を行い、該選択された1つの画像は、他の画像よりも前記合成パラメータの値が小さいことを特徴とする損傷図作成装置。 an image input unit for inputting a plurality of images acquired by dividing the subject so that some areas overlap;
a synthesis parameter calculation unit that calculates a synthesis parameter for synthesizing the plurality of images based on corresponding points between the images;
a damage detection unit that detects damage to the subject from images constituting the plurality of images;
a detection result synthesizing unit that synthesizes the detection results of the plurality of images based on the synthesis parameter;
has
The detection result synthesizing unit selects and synthesizes one image from among the plurality of overlapping images in the overlapping region, and the selected one image has the synthesis parameter higher than the other images. A damage diagram creation device characterized by having a small value.
前記クライアントは、
被写体を一部の領域が重複するように分割撮影して取得した複数の画像を入力する画像入力部を備え、
前記サーバは、
前記複数の画像を前記クライアントから取得する画像取得部と、
前記取得した複数の画像を合成するための合成パラメータを画像どうしの対応点に基づいて算出する合成パラメータ算出部と、
前記複数の画像を構成する画像から前記被写体の損傷の検出を行う損傷検出部と、
前記複数の画像についての前記検出の結果を前記合成パラメータに基づいて合成する検出結果合成部と、
前記検出の結果を前記クライアントに出力する検出結果出力部と、
を備え、
前記検出結果合成部は、重複する領域においては、重複する複数の画像のうちの1つの画像を選択して合成を行い、該選択された1つの画像は、他の画像よりも前記合成パラメータの値が小さいことを特徴とする損傷図作成システム。 A damage diagramming system comprising a server and a client,
Said client
An image input unit for inputting a plurality of images acquired by dividing the subject so that some areas overlap,
The server is
an image acquisition unit that acquires the plurality of images from the client;
a synthesis parameter calculation unit that calculates a synthesis parameter for synthesizing the plurality of acquired images based on corresponding points between the images;
a damage detection unit that detects damage to the subject from images constituting the plurality of images;
a detection result synthesizing unit that synthesizes the detection results of the plurality of images based on the synthesis parameter;
a detection result output unit that outputs the detection result to the client;
with
The detection result synthesizing unit selects and synthesizes one image from among the plurality of overlapping images in the overlapping region, and the selected one image has the synthesis parameter higher than the other images. A damage diagram creation system characterized by a small value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021110656A JP2023007662A (en) | 2021-07-02 | 2021-07-02 | Damage diagram creation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021110656A JP2023007662A (en) | 2021-07-02 | 2021-07-02 | Damage diagram creation method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023007662A true JP2023007662A (en) | 2023-01-19 |
Family
ID=85111978
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021110656A Pending JP2023007662A (en) | 2021-07-02 | 2021-07-02 | Damage diagram creation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023007662A (en) |
-
2021
- 2021-07-02 JP JP2021110656A patent/JP2023007662A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11080911B2 (en) | Mosaic oblique images and systems and methods of making and using same | |
JP6807459B2 (en) | Damage diagram creation method, damage diagram creation device, damage diagram creation system, and recording medium | |
EP3550513B1 (en) | Method of generating panorama views on a mobile mapping system | |
Hirschmuller | Stereo processing by semiglobal matching and mutual information | |
CN110490967B (en) | Image processing method, image processing apparatus, object modeling method, object modeling apparatus, image processing apparatus, object modeling apparatus, and medium | |
JP5439277B2 (en) | Position / orientation measuring apparatus and position / orientation measuring program | |
CN111598777A (en) | Sky cloud image processing method, computer device and readable storage medium | |
Alsadik | Guided close range photogrammetry for 3D modelling of cultural heritage sites | |
CN112243518A (en) | Method and device for acquiring depth map and computer storage medium | |
US11423511B2 (en) | Image composition method, image composition device, and recording medium | |
KR101868740B1 (en) | Apparatus and method for generating panorama image | |
JP2006113832A (en) | Stereoscopic image processor and program | |
CN116402934A (en) | Automatic texture mapping method, terminal and storage medium for three-dimensional reconstruction | |
US20220276046A1 (en) | System and method for providing improved geocoded reference data to a 3d map representation | |
JP2023007662A (en) | Damage diagram creation method | |
Pramulyo et al. | Towards better 3D model accuracy with spherical photogrammetry | |
JP2001167249A (en) | Method and device for synthesizing image and recording medium stored with image synthesizing program | |
WO2023062706A1 (en) | Information processing device, information processing method, information processing system, and recording medium | |
CN117635702A (en) | Positioning method of image acquisition equipment, projection system and storage medium | |
CN117764954A (en) | New view synthesis and detection method, system, equipment and storage medium | |
CN114943711A (en) | Building extraction method and system based on LiDAR point cloud and image | |
CN116128978A (en) | Laser radar-camera external parameter self-calibration method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20231213 |