JP2023078205A - Image processing device, image processing system, operation method of image processing device and image processing program - Google Patents
Image processing device, image processing system, operation method of image processing device and image processing program Download PDFInfo
- Publication number
- JP2023078205A JP2023078205A JP2023033675A JP2023033675A JP2023078205A JP 2023078205 A JP2023078205 A JP 2023078205A JP 2023033675 A JP2023033675 A JP 2023033675A JP 2023033675 A JP2023033675 A JP 2023033675A JP 2023078205 A JP2023078205 A JP 2023078205A
- Authority
- JP
- Japan
- Prior art keywords
- image
- crack
- information
- images
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 95
- 238000000034 method Methods 0.000 title claims abstract description 18
- 238000012937 correction Methods 0.000 claims abstract description 94
- 239000002131 composite material Substances 0.000 claims abstract description 70
- 238000003702 image correction Methods 0.000 claims abstract description 29
- 238000010191 image analysis Methods 0.000 claims abstract description 21
- 238000010801 machine learning Methods 0.000 claims description 35
- 238000007689 inspection Methods 0.000 claims description 28
- 230000015572 biosynthetic process Effects 0.000 claims description 27
- 238000003786 synthesis reaction Methods 0.000 claims description 27
- 238000005336 cracking Methods 0.000 claims description 21
- 238000012986 modification Methods 0.000 claims description 7
- 230000004048 modification Effects 0.000 claims description 7
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 239000003086 colorant Substances 0.000 claims description 3
- 238000011017 operating method Methods 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 239000000203 mixture Substances 0.000 abstract description 6
- 239000013598 vector Substances 0.000 description 99
- 238000003384 imaging method Methods 0.000 description 62
- 238000010586 diagram Methods 0.000 description 36
- 230000005540 biological transmission Effects 0.000 description 21
- 238000011156 evaluation Methods 0.000 description 20
- 238000011960 computer-aided design Methods 0.000 description 19
- 238000001514 detection method Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 17
- 239000004567 concrete Substances 0.000 description 8
- 238000005259 measurement Methods 0.000 description 8
- 230000007246 mechanism Effects 0.000 description 8
- 238000013473 artificial intelligence Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000012423 maintenance Methods 0.000 description 6
- 230000007613 environmental effect Effects 0.000 description 5
- 101150013335 img1 gene Proteins 0.000 description 5
- 101000652578 Homo sapiens Thyroid transcription factor 1-associated protein 26 Proteins 0.000 description 4
- 102100030344 Thyroid transcription factor 1-associated protein 26 Human genes 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 101150071665 img2 gene Proteins 0.000 description 4
- 102100040160 Rabankyrin-5 Human genes 0.000 description 3
- 101710086049 Rabankyrin-5 Proteins 0.000 description 3
- 235000008733 Citrus aurantifolia Nutrition 0.000 description 2
- 235000011941 Tilia x europaea Nutrition 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 2
- 239000004571 lime Substances 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000002528 anti-freeze Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000001035 drying Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 238000005498 polishing Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Landscapes
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Immunology (AREA)
- Biochemistry (AREA)
- General Health & Medical Sciences (AREA)
- Analytical Chemistry (AREA)
- Chemical & Material Sciences (AREA)
- Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、高額な装置を必要とせずにひび割れ箇所の画像を解析し、かつユーザの操作を煩雑にすることなくひび割れ箇所の合成画像及び画像解析結果を提示することを可能にする画像処理装置、画像処理システム、画像処理装置の作動方法、及び画像処理プログラムに関する。 INDUSTRIAL APPLICABILITY The present invention is an image processing apparatus that can analyze an image of a crack location without requiring an expensive device, and can present a composite image of the crack location and the image analysis results without complicating the user's operation. , an image processing system, an operating method of an image processing apparatus, and an image processing program.
社会的なインフラストラクチャーとして、橋梁、トンネルといった構造物が存在する。これらの構造物には損傷が発生し、その損傷は進行する性質を持つため、定期的に点検を行うことが求められている。また的確な点検結果を報告することが求められている。例えば、構造物の表面に生じたひび割れの性状を的確に把握して点検結果を報告することが求められており、その報告に基づいてひび割れの進行程度に応じた適切な維持管理を行う必要がある。 Structures such as bridges and tunnels exist as social infrastructure. These structures are subject to damage, and the damage tends to progress, so regular inspections are required. It is also required to report accurate inspection results. For example, it is necessary to accurately grasp the properties of cracks that occur on the surface of structures and report the inspection results, and based on the reports, it is necessary to perform appropriate maintenance and management according to the progress of cracks. be.
特許文献1には、コンクリート壁面をレーザ発射体付きのカメラで撮像して得られたレーザ光点付きの遠景画像及び近接画像をモバイルパソコンから送信すると、遠景画像及び近接画像をコンクリート壁面の正面から見た画像に正規化し、更に画像解析対象の近接画像を指定するために近接画像が遠景画像のどのエリアのものかを割り付ける操作をモバイルパソコンで行って解析指示を送信すると、指定の近接画像を画像解析してひび割れ幅を計測するサーバ装置が、記載されている。
In
特許文献2には、パーソナルコンピュータにおいて、点検現場での作業時に野帳に記入された撮影位置の情報に基づいてコンクリート構造物の画像をCAD(computer aided design)図面上に貼り付ける操作を行うと、その操作に応じて画像をCAD図面と関連付け、更に画像上でひび割れをトレースする操作を行うと、その操作に応じて画像上のひび割れをCAD図面に写像し、CAD図面の情報を用いてひび割れの幅及び長さを算出することが、記載されている。
特許文献3には、パーソナルコンピュータにおいて、カメラからコンクリート壁面までの距離とカメラの光軸に対するコンクリート壁面の傾斜角とを計測して、複数枚の画像を接合し且つコンクリート壁面の正面から見た画像に補正し、更にコンクリート壁面のひび割れの分布状態とひび割れの幅とを求めて状態図を表示することが、記載されている。実際はひび割れであるにもかかわらず認識できていないひび割れは、マウスやペン入力装置を用いてトレースする操作により入力することができる。
In
特許文献4には、ひび割れの識別処理をサポートベクトルマシンアルゴリズムを用いて機械学習する際に、複数の領域画像のうち各領域画像の中心と各領域画像中の識別対象物(ひび割れ、汚れ、他の凹凸など)の重心とが一致する領域画像だけを学習対象のサンプルとして選択することが、記載されている。
In
特許文献1~4には、構造物を分割撮像して得られた複数の画像と共に各画像の位置情報をユーザ端末から送信してサーバ装置で一枚の画像に合成することについて、開示が無い。
また、特許文献1に記載されたモバイルパソコン(ユーザ端末の一形態である)及びサーバ装置からなるシステムでは、レーザ発射体を設けたカメラが必要となるだけではなくて、遠景画像及び近接画像が必要であり、更には遠景画像に対して近接画像を割り付けるユーザ操作により画像解析対象の近接画像を指定する必要がある。従って、高額な装置が必要になるだけでなく、ひび割れの画像解析結果を得るまでのユーザの操作が煩雑であると言える。
In addition, the system described in
また、ユーザ端末でひび割れ箇所の合成画像を生成し且つひび割れの画像解析を行う場合には、高額なハードウエア又は高額なソフトウエアが必要であった。つまり、高額な装置を必要とした。 Further, when a user terminal generates a composite image of a cracked portion and analyzes the image of the crack, expensive hardware or software is required. In other words, an expensive device was required.
特許文献2には、パーソナルコンピュータ(ユーザ端末の一形態である)において、画像をCAD図面上に貼り付ける操作と、画像上でひび割れをトレースする操作とを行うと、ひび割れの幅及び長さを算出することが記載されているにすぎない。
In
特許文献3に記載された技術では、ひび割れ情報を修正する場合にはマウスやペン入力装置を用いて一本ずつトレースする操作が必要となる。このようなトレース操作によるひび割れ情報の修正機能を用いれば、どのようなパターンのひび割れに対しても一本ずつ個別に修正できるけれども、操作が煩雑であり、作業時間が掛かってしまうため、繁忙な作業員にとって実際には行えない場合がある。
In the technique described in
特許文献4には、構造物の画像に基づいてひび割れの識別処理を学習することが記載されているにすぎない。
以上のように構造物の表面に生じるひび割れの性状を的確に把握して点検結果を報告することを支援するための各種の装置が提案又は提供されてきたが、ひび割れ箇所の画像を解析してひび割れの画像解析結果をユーザに提示するためには、高額な装置が必要になるとともに、ひび割れ箇所の複数の画像を合成するためのユーザの負荷が大きいといった問題があった。 As described above, various devices have been proposed or provided to assist in accurately grasping the properties of cracks occurring on the surface of structures and reporting the inspection results. In order to present the crack image analysis results to the user, there is a problem that an expensive device is required and the burden on the user for synthesizing a plurality of images of the crack location is heavy.
本発明は、高額な装置を必要とせずにひび割れ箇所の画像を解析し、かつユーザの操作を煩雑にすることなくひび割れ箇所の合成画像及び画像解析結果を提示することを可能にする画像処理装置、画像処理システム、画像処理装置の作動方法、及び画像処理プログラムを提供することを目的とする。 INDUSTRIAL APPLICABILITY The present invention is an image processing apparatus that can analyze an image of a crack location without requiring an expensive device, and can present a composite image of the crack location and the image analysis results without complicating the user's operation. , an image processing system, an operating method of an image processing apparatus, and an image processing program.
上述した目的を達成するため、本発明の第1の態様に係るサーバ装置は、構造物の表面を示す複数の画像と、複数の画像の位置情報とを、ユーザ端末から受信する受信部と、受信された複数の画像及び位置情報に基づいて、構造物の表面を示す合成画像を生成する合成画像生成部と、合成画像または合成前の画像を画像解析して構造物の表面のひび割れを検出するひび割れ検出部と、検出されたひび割れに対応するひび割れ画像と検出されたひび割れの特徴量とを示すひび割れ情報を生成するひび割れ情報生成部と、を備える。 In order to achieve the object described above, a server device according to a first aspect of the present invention includes a receiving unit that receives a plurality of images showing the surface of a structure and position information of the plurality of images from a user terminal; A synthetic image generation unit that generates a synthetic image showing the surface of the structure based on the received multiple images and position information, and an image analysis of the synthetic image or the image before synthesis to detect cracks on the surface of the structure. and a crack information generation unit that generates crack information indicating a crack image corresponding to the detected crack and the feature amount of the detected crack.
本態様によれば、ユーザ端末から構造物の表面を示す複数の画像とその複数の画像の位置情報とを送信すると、サーバ装置により複数の画像及び画像の位置情報に基づいて合成画像が生成され、且つひび割れ情報が生成されるので、高額な装置を必要とせずにひび割れ箇所の画像を解析し、かつユーザの操作を煩雑にすることなくひび割れ箇所の合成画像及び画像解析結果を提示することが可能になる。また、本態様によれば、ユーザ端末から送信された画像及びその位置情報、更にはサーバ装置で生成された合成画像及びひび割れ情報を、蓄積してビッグデータ化することが可能になるので、そのビッグデータの二次利用により適切な合成画像及び適切な画像解析結果を導き出せるようにすることが可能になるとも言える。 According to this aspect, when a plurality of images showing the surface of a structure and the positional information of the plurality of images are transmitted from the user terminal, a composite image is generated by the server device based on the plurality of images and the positional information of the images. Furthermore, since the crack information is generated, it is possible to analyze the image of the crack location without requiring an expensive device, and to present the composite image of the crack location and the image analysis results without complicating the user's operation. be possible. In addition, according to this aspect, it is possible to store the image transmitted from the user terminal and its position information, as well as the composite image and crack information generated by the server device, into big data. It can be said that the secondary use of big data enables us to derive appropriate synthetic images and appropriate image analysis results.
本発明の第2の態様に係るサーバ装置では、合成画像とひび割れ情報とをユーザ端末に送信してユーザ端末の画面に合成画像とひび割れ情報とを表示させる送信部を備え、受信部は、ユーザ端末でのマニュアル操作に応じたひび割れ情報の修正要求をユーザ端末から受信し、ひび割れ情報生成部は、修正要求に基づいてひび割れ情報を修正し、送信部は、修正されたひび割れ情報をユーザ端末に送信する。本態様によれば、ユーザ端末の画面に合成画像及びひび割れ情報が表示され、その表示の内容に対してユーザがマニュアル操作を行った場合、そのマニュアル操作に応じた修正要求をサーバに蓄積することが可能になる。従って、より適切な画像解析結果を導き出せるように、サーバ装置での画像解析処理を改良することが容易になる。つまり、画像処理結果の修正のための煩雑なユーザ操作を減らしつつ、より適切な画像解析結果をユーザに対して提示することが可能になる。 The server device according to the second aspect of the present invention includes a transmission unit that transmits the composite image and the crack information to the user terminal and displays the composite image and the crack information on the screen of the user terminal. A crack information correction request is received from the user terminal according to manual operation at the terminal, the crack information generation unit corrects the crack information based on the correction request, and the transmission unit sends the corrected crack information to the user terminal. Send. According to this aspect, when the composite image and the crack information are displayed on the screen of the user terminal, and the user performs manual operation on the contents of the display, the correction request corresponding to the manual operation is stored in the server. becomes possible. Therefore, it becomes easy to improve the image analysis processing in the server device so that more appropriate image analysis results can be derived. That is, it is possible to present more appropriate image analysis results to the user while reducing complicated user operations for correcting image processing results.
本発明の第3の態様に係るサーバ装置では、受信部は、ひび割れ情報の修正内容を特徴量で示した修正要求をユーザ端末から受信し、ひび割れ情報生成部は、修正要求で示された特徴量に基づいて、ひび割れ情報を修正する。本態様によれば、ひび割れの特徴量でひび割れ情報の修正要求を示すユーザ操作が可能になる。例えばトレース操作に基づいてひび割れ情報を一本ずつ修正する場合と比較して、簡易な操作でひび割れ情報を修正することが可能になる。 In the server device according to the third aspect of the present invention, the receiving unit receives from the user terminal a correction request indicating the content of correction of crack information in the form of a feature amount, and the crack information generating unit receives the feature indicated by the correction request Modify the crack information based on the amount. According to this aspect, it is possible to perform a user operation to indicate a crack information correction request using the crack feature amount. For example, compared to the case of correcting crack information one by one based on a tracing operation, crack information can be corrected with a simple operation.
本発明の第4の態様に係るサーバ装置では、特徴量に対する合成画像中の線分の検出度数を示す度数分布と、特徴量でひび割れ情報の修正内容を指示入力するためのスライダとを、ひび割れ情報に付加し、ユーザ端末でのスライダを用いたユーザ操作に応じてひび割れ情報を修正する。本態様によれば、特徴量に対する線分の検出度数を見ながらスライダを操作するという簡易な操作で、ひび割れ情報を修正することが可能になる。 In the server device according to the fourth aspect of the present invention, the frequency distribution indicating the detection frequency of the line segment in the composite image with respect to the feature amount and the slider for instructing and inputting the correction content of the crack information with the feature amount are combined into cracks. It is added to the information and the crack information is modified according to the user's operation using the slider on the user terminal. According to this aspect, it is possible to correct the crack information by a simple operation of operating the slider while looking at the detection frequency of the line segment with respect to the feature amount.
本発明の第5の態様に係るサーバ装置では、ひび割れ情報生成部は、特徴量に基づいてひび割れ画像をグルーピングして、ユーザ端末でのひび割れ画像のグループを選択するマニュアル操作に応じてひび割れ情報を修正する。本態様によれば、ひび割れ画像のグループを選択するという簡易な操作で、ひび割れ情報を修正することが可能になる。 In the server device according to the fifth aspect of the present invention, the crack information generation unit groups the crack images based on the feature amount, and generates the crack information according to the manual operation of selecting the crack image group on the user terminal. fix it. According to this aspect, it is possible to correct crack information by a simple operation of selecting a group of crack images.
本発明の第6の態様に係るサーバ装置では、ユーザ端末でのマニュアル操作に基づいて、ひび割れの検出を機械学習する機械学習部を備える。本態様によれば、ユーザ端末でのマニュアル操作に基づいてひび割れの検出が機械学習されるので、画像解析結果を修正するための煩雑なユーザ操作を着実に減少させてゆくことが可能になる。 A server device according to a sixth aspect of the present invention includes a machine learning unit that machine-learns crack detection based on a manual operation at a user terminal. According to this aspect, detection of cracks is machine-learned based on manual operations at the user terminal, so it is possible to steadily reduce complicated user operations for correcting image analysis results.
本発明の第7の態様に係るサーバ装置では、特徴量は、ひび割れの方向、長さ、幅、エッジの強度、及びエッジの密度のうち少なくともいずれかを含む。 In the server device according to the seventh aspect of the present invention, the feature amount includes at least one of crack direction, length, width, edge strength, and edge density.
本発明の第8の態様に係る画像処理方法では、合成画像生成部は、複数の画像に対して、画像位置情報、縮尺、あおり及び回転角度のうち少なくとも一つの補正を行う。 In the image processing method according to the eighth aspect of the present invention, the composite image generator corrects at least one of image position information, scale, tilt, and rotation angle for the plurality of images.
本発明の第9の態様に係るサーバ装置では、合成画像生成部は、複数の画像に基づいて補正パラメータを導き出し、補正を行う。 In the server device according to the ninth aspect of the present invention, the composite image generator derives correction parameters based on the plurality of images and performs correction.
本発明の第10の態様に係るサーバ装置では、ひび割れ情報に基づいて、ひび割れ画像によって示されるひび割れの幅をユーザ端末の画面上で測定するためのスケール画像を生成するスケール画像生成部を備え、ひび割れ情報生成部は、スケール画像をひび割れ情報に付加する。 A server device according to a tenth aspect of the present invention comprises a scale image generation unit that generates a scale image for measuring the width of the crack indicated by the crack image on the screen of the user terminal based on the crack information, The crack information generator adds the scale image to the crack information.
本発明の第11の態様に係るサーバ装置では、少なくともひび割れ情報に基づいて、ひび割れの程度を評価し、構造物のひび割れ程度の評価区分を判別するひび割れ評価部を備える。 The server device according to the eleventh aspect of the present invention includes a crack evaluation unit that evaluates the degree of cracking based on at least crack information and determines the evaluation classification of the degree of cracking of the structure.
本発明の第12の態様に係るサーバ装置では、判別された評価区分を含む構造物の点検結果を示す帳票を作成する帳票作成部を備える。 A server device according to a twelfth aspect of the present invention includes a form creating unit that creates a form indicating inspection results of structures including the determined evaluation category.
本発明の第13の態様に係るサーバ装置では、合成画像とひび割れ情報とを、予め決められたデータ形式のCADデータに変換するデータ変換部を備える。 A server device according to a thirteenth aspect of the present invention includes a data conversion unit that converts the composite image and the crack information into CAD data in a predetermined data format.
本発明の第14の態様に係るサーバ装置では、構造物の構造情報、環境条件情報、使用条件情報、維持管理履歴情報、及び災害履歴情報のうち少なくともひとつの情報と、ひび割れ情報とに基づいて、ひび割れの進行を予測する予測部を備える。 In the server device according to the fourteenth aspect of the present invention, based on at least one of structural information of a structure, environmental condition information, use condition information, maintenance history information, and disaster history information, and crack information, , and a predictor for predicting crack progression.
本発明の第15の態様に係る画像処理システムは、ユーザ端末及びサーバ装置を含む画像処理システムであって、ユーザ端末は、構造物の表面を示す複数の画像と、複数の画像の位置情報とを入力する端末入力部と、サーバ装置に対して、複数の画像及び位置情報を送信する端末送信部と、サーバ装置から、複数の画像に対する画像処理結果を受信する端末受信部と、画像処理結果を表示する端末表示部と、を備え、サーバ装置は、ユーザ端末から、複数の画像と位置情報とを受信するサーバ受信部と、受信された複数の画像及び位置情報に基づいて、構造物の表面を示す合成画像を生成する合成画像生成部と、合成画像または合成前の画像を画像解析して構造物の表面のひび割れを検出するひび割れ検出部と、検出されたひび割れに対応するひび割れ画像と検出されたひび割れの特徴量とを示すひび割れ情報を生成するひび割れ情報生成部と、複数の画像に対する画像処理結果として、合成画像とひび割れ情報とをユーザ端末に送信するサーバ送信部と、を備え、端末表示部は、合成画像とひび割れ情報とを表示する。 An image processing system according to a fifteenth aspect of the present invention is an image processing system including a user terminal and a server device, wherein the user terminal comprises a plurality of images showing surfaces of structures, position information of the plurality of images, and a terminal input unit for inputting a terminal transmission unit for transmitting a plurality of images and position information to a server device; a terminal reception unit for receiving image processing results for a plurality of images from the server device; and an image processing result and a terminal display unit that displays the structure, based on the server reception unit that receives a plurality of images and position information from the user terminal, and the received plurality of images and position information. A synthetic image generation unit that generates a synthetic image showing the surface, a crack detection unit that analyzes the synthetic image or the image before synthesis to detect cracks on the surface of the structure, and a crack image corresponding to the detected crack. A crack information generation unit that generates crack information indicating the feature amount of the detected crack, and a server transmission unit that transmits a composite image and crack information to the user terminal as image processing results for a plurality of images, The terminal display unit displays the composite image and the crack information.
本発明の第16の態様に係る画像処理方法では、構造物の表面を示す複数の画像と、複数の画像の位置情報とを、ユーザ端末から受信するステップと、受信された複数の画像及び画像位置情報に基づいて、構造物の表面を示す合成画像を生成するステップと、合成画像または合成前の画像を画像解析して構造物の表面のひび割れを検出するステップと、検出されたひび割れに対応するひび割れ画像と検出されたひび割れの特徴量とを示すひび割れ情報を生成するステップと、を含む。 In the image processing method according to the sixteenth aspect of the present invention, a step of receiving, from a user terminal, a plurality of images showing a surface of a structure and position information of the plurality of images; generating a synthetic image showing the surface of the structure based on the positional information; analyzing the synthetic image or the pre-synthesis image to detect cracks on the surface of the structure; and responding to the detected cracks. and generating crack information indicating the crack image and the feature quantity of the detected crack.
本発明よれば、高額な装置を必要とせずにひび割れ箇所の画像を解析し、かつユーザの操作を煩雑にすることなくひび割れ箇所の合成画像及び画像解析結果を提示することが可能になる。 According to the present invention, it is possible to analyze an image of a crack location without requiring an expensive device, and to present a composite image of the crack location and the image analysis results without complicating the user's operation.
以下、添付図面に従って、本発明に係る画像処理装置、画像処理システム、画像処理装置の作動方法、及び画像処理プログラムを実施するための形態について説明する。 An image processing apparatus, an image processing system, an operation method of the image processing apparatus, and an image processing program according to the present invention will be described below with reference to the accompanying drawings.
[構造物例]
図1は、本発明が適用される構造物の一例である橋梁の構造を示す斜視図である。図1に示す橋梁1は複数の主桁3を有し、主桁3同士は接合部3Aで接合されている。主桁3の上部には、コンクリート製の部材である床版2が打設されている。橋梁1は、床版2及び主桁3の他に、図示しない横桁、対傾構、及び横構等の部材を有する。
[Structure example]
FIG. 1 is a perspective view showing the structure of a bridge, which is an example of a structure to which the present invention is applied. The
尚、本発明における「構造物」は、橋梁に限定されない。構造物は、トンネル、ダム、建築物などでもよい。 In addition, the "structure" in the present invention is not limited to a bridge. A structure may be a tunnel, a dam, a building, or the like.
[第1の実施形態]
図2は、第1の実施形態における画像処理システムの構成例を示すブロック図である。
[First embodiment]
FIG. 2 is a block diagram showing a configuration example of an image processing system according to the first embodiment.
ユーザ端末10とサーバ装置20とにより、クライアントサーバ型の画像処理システムが構成される。実際には複数のユーザ端末10がネットワークNWに接続される。ユーザ端末10はユーザに対するフロントエンド処理を行うコンピュータ装置によって構成され、サーバ装置20は画像処理等のバックエンド処理を行うコンピュータ装置によって構成される。ユーザ端末10として、例えば、パーソナルコンピュータ、タブレット、スマートフォン等のコンピュータ装置を用いることができる。サーバ装置20は、複数のコンピュータ装置で構成してもよい。本例のサーバ装置20は、説明の便宜上、データベース50を含んで構成される。サーバ装置20とデータベース50とを異なる装置として設けてよい。
The
ユーザ端末10は、構造物の表面を示す複数の画像と、複数の画像の位置情報を含む画像合成に必要な情報とを入力する端末入力部11と、入力された複数の画像と画像合成に必要な情報とをサーバ装置20に対して送信する端末送信部12と、サーバ装置20から複数の画像に対する画像処理結果を受信する端末受信部13と、サーバ装置20の画像処理結果を表示する端末表示部14と、ユーザのマニュアル操作を受け付ける端末操作部15と、ユーザ端末10用のフロントエンドプログラムに従ってユーザ端末10の各部を制御する端末制御部16と、フロントエンドプログラムとそのフロントエンドプログラムの実行に必要な各種情報とを記憶する端末記憶部17とを備える。
The
端末入力部11は、例えば、無線通信又は有線通信により画像及び画像の位置情報を入力する通信デバイスにより構成することができる。メモリカード等の記憶媒体から画像を入力する記憶媒体インタフェースデバイスと、人から画像の位置情報の入力操作を受け付ける操作デバイスとを含んで、端末入力部11を構成してもよい。端末送信部12及び端末受信部13は、ネットワークNWを介して、サーバ装置20を含む他の装置と通信するための通信デバイスによって構成することができる。端末表示部14は、液晶表示デバイス等の表示デバイスによって構成することができる。端末操作部15は、キーボード、マウス、タッチパネル等の操作デバイスによって構成することができる。端末制御部16は、例えばCPU(central processing unit)によって構成することができる。端末記憶部17は、メモリデバイスによって構成することができる。
The terminal input unit 11 can be configured by, for example, a communication device that inputs an image and position information of the image by wireless communication or wired communication. The terminal input unit 11 may include a storage medium interface device for inputting an image from a storage medium such as a memory card, and an operation device for receiving an input operation of image position information from a person. The
サーバ装置20は、ユーザ端末10から複数の画像と複数の画像の位置情報を含む画像合成に必要な情報とを受信する受信部22と、サーバ装置20での画像処理結果をユーザ端末10に対して送信する送信部24と、複数の画像及び画像合成に必要な情報に基づいて、構造物の表面を示す合成画像を生成する合成画像生成部26と、合成画像または合成前の画像を画像解析して構造物の表面のひび割れを検出するひび割れ検出部28と、検出されたひび割れに対応するひび割れ画像と検出されたひび割れの特徴量とを示すひび割れ情報を生成するひび割れ情報生成部30と、ユーザ端末10でのユーザ操作に基づいて、ひび割れの検出を機械学習する機械学習部32と、を含んで構成される。送信部24は、合成画像とひび割れ情報とをユーザ端末10に送信して、ユーザ端末10の画面に合成画像とひび割れ情報とを表示させる。受信部22は、ユーザ端末10でのユーザ操作に応じたひび割れ情報の修正要求をユーザ端末10から受信する。ひび割れ情報生成部30は、修正要求に基づいてひび割れ情報を修正する。送信部24は、修正されたひび割れ情報をユーザ端末10に送信する。データベース50は、ユーザ端末10から受信した情報(複数の画像、画像合成に必要な情報、マニュアル操作情報等)と、サーバ装置20での画像処理結果(合成画像、ひび割れ情報等)とを関連付けて蓄積する。
The
また、サーバ装置20は、生成されたひび割れ情報に基づいて、ひび割れ画像によって示されるひび割れの幅をユーザ端末10の画面上で測定するためのスケール画像を生成するスケール画像生成部34を備える。ひび割れ情報生成部30は、生成されたスケール画像をひび割れ情報に付加する。送信部24は、スケール画像が付加されたひび割れ情報をユーザ端末10に送信する。
The
本例のサーバ装置20は、少なくともひび割れ情報に基づいて、ひび割れの程度を評価し、構造物のひび割れ程度の評価区分(以下「ランク情報」ともいう)を判別するひび割れ評価部36を備える。ひび割れ情報生成部30は、判別されたランク情報をひび割れ情報に付加する。送信部24は、ランク情報が付加されたひび割れ情報をユーザ端末10に送信する。
The
更に、サーバ装置20は、合成画像とひび割れ情報とを予め決められたデータ形式のCAD(computer aided design)データに変換することによりCADデータを取得するCADデータ取得部38(「データ変換部」の一形態である)を備える。
Furthermore, the
更に、サーバ装置20は、判別されたひび割れ程度の評価区分を含む構造物の点検結果を示す帳票(以下「点検調書」ともいう)を作成する帳票作成部40を備える。送信部24は、作成された帳票をユーザ端末10に送信する。
Further, the
また、サーバ装置20は、バックエンドプログラムとそのバックエンドプログラムの実行に必要な各種情報とを記憶する記憶部42を備える。
The
受信部22及び送信部24は、ネットワークNWを介して、ユーザ端末10を含む他の装置と通信するための通信デバイスによって構成することができる。合成画像生成部26、ひび割れ検出部28、ひび割れ情報生成部30、機械学習部32、スケール画像生成部34、ひび割れ評価部36、CADデータ取得部38、及び帳票作成部40は、例えばCPUによって構成することができる。複数のCPUにより構成してもよい。記憶部42は、メモリデバイスによって構成することができる。
The receiving unit 22 and the transmitting
ユーザ端末10からサーバ装置20に送信される画像の位置情報(以下「画像位置情報」ともいう)は、構造物の表面に対する各画像の位置関係を示す場合(つまり構造物の表面における複数の被撮像領域のそれぞれの位置を示す場合)と、複数の画像同士の相対的な位置関係を示す場合とがある。
Image position information (hereinafter also referred to as “image position information”) transmitted from the
<画像補正>
サーバ装置20の合成画像生成部26は、複数の画像を画像補正後に合成する。本例の合成画像生成部26は、複数の画像に基づいて補正パラメータを導き出し、複数の画像に対して補正を行うことができる。本例の合成画像生成部26は、複数の画像に対して次の画像補正1~4のうち少なくとも一つの補正を行う機能を有する。
<Image Correction>
The
画像補正1(画像位置情報補正):複数の画像同士の相対的な位置関係を、被撮像面(例えば橋梁の床版)における複数の被撮像領域同士の相対的な位置関係にマッチングさせる画像処理である。つまり、不正確な画像位置情報をユーザ端末10から受信したと判定した場合、その不正確な画像位置情報をより正確な画像位置情報に補正する。例えば、画像中のひび割れをベクトル化したひび割れベクトルに基づいて、隣接する画像間を跨ぐひび割れが存在するのにそのひび割れ画像が隣接する画像間で離間していて繋がっていない場合、そのひび割れを隣接する画像間で繋がらせる。画像中の構造物の非ひび割れ(例えば構造物の模様)をベクトル化した非ひび割れベクトルに基づいて、本補正を行ってもよい。橋梁1の床版2の格間ごとに撮像する場合、画像中の格間の縁部に基づいて画像位置情報を補正してもよい。本例の合成画像生成部26は、最新の点検時の画像に基づいて画像位置情報補正を行う機能の他に、最新の点検時の画像と過去の点検時の画像(合成画像又は合成前の画像)に基づいて画像位置情報補正を行う機能を有する。これにより、不正確な画像位置情報を正確な画像位置情報に容易に補正することが可能である。正確な画像位置情報をユーザ端末10から受信したと判定した場合には、本補正を行わなくてよい。
Image correction 1 (image position information correction): Image processing that matches the relative positional relationship between multiple images with the relative positional relationship between multiple imaged areas on the imaged surface (for example, the floor slab of a bridge). is. That is, when it is determined that inaccurate image position information has been received from the
画像補正2(縮尺補正):複数の画像の縮尺を一致させる画像処理(「拡縮」ともいう)である。つまり、撮像装置60から構造物の被撮像面までの距離が不一致である複数の画像をユーザ端末10から受信したと判定した場合、その被撮像面までの距離がより一致した複数の画像(「一定距離の画像」ともいう)に補正する。画像に距離情報が関連付けられている場合、その距離情報に基づいて拡縮すればよい。例えば、画像中のひび割れをベクトル化したひび割れベクトルに基づいて、隣接する画像間を跨ぐ複数のひび割れが存在するのにひび割れ画像の間隔が隣接する画像間で一致していない場合、その複数のひび割れ画像の間隔を隣接する画像間で一致させる画像処理が挙げられる。画像中の構造物の非ひび割れ(例えば構造物の模様)をベクトル化した非ひび割れベクトルに基づいて、補正してもよい。橋梁1の床版2の格間ごとに撮像する場合、画像中の格間の縁部に基づいて縮尺補正を行ってもよい。本例の合成画像生成部26は、最新の点検時の画像に基づいて縮尺補正を行う機能の他に、最新の点検時の画像と過去の点検時の画像(合成画像又は合成前の画像)に基づいて縮尺補正を行う機能を有する。一定距離で分割撮像を行った場合には、本補正を行わなくてよい。
Image correction 2 (scale correction): image processing (also referred to as “scaling”) for matching the scales of a plurality of images. That is, when it is determined that a plurality of images in which the distances from the
画像補正3(あおり補正):複数の画像のそれぞれのあおりを補正する画像処理である。つまり、撮像装置の撮像方向に対する構造物の被撮像面の傾き角度が不一致である複数の画像をユーザ端末10から受信したと判定した場合、その被撮像面の傾き角度がより一致した複数の画像(「一定傾き角度の画像」ともいう)に補正する。画像に傾き角度情報が関連付けられている場合、その傾き角度情報に基づいてあおり補正を行えばよい。例えば、画像中のひび割れをベクトル化したひび割れベクトルに基づいて、ひび割れの方向をマッチングさせる。画像中の構造物の非ひび割れ(例えば構造物の模様)をベクトル化した非ひび割れベクトルに基づいて、補正してもよい。橋梁1の床版2の格間ごとに撮像する場合、画像中の格間の縁部に基づいてあおり補正を行ってもよい。本例の合成画像生成部26は、最新の点検時の画像に基づいてあおり補正を行う機能の他に、最新の点検時の画像と過去の点検時の画像(合成画像又は合成前の画像)に基づいてあおり補正を行う機能を有する。一定傾き角度で分割撮像を行った場合には、本補正を行わなくてよい。
Image correction 3 (tilt correction): Image processing for correcting the tilt of each of a plurality of images. That is, when it is determined that a plurality of images in which the tilt angles of the surface to be captured of the structure with respect to the imaging direction of the imaging device do not match have been received from the
画像補正4(回転角度補正):複数の画像のそれぞれの被撮像面に対する回転角度を補正する画像処理である。つまり、構造物の被撮像面に対する撮像装置の撮像方向回りの回転角度(「方位角」ともいう)が不一致である複数の画像をユーザ端末10から受信したと判定した場合、その被撮像面に対する回転角度がより一致した複数の画像(「一定回転角度の画像」ともいう)に補正する。画像に回転角度情報が関連付けられている場合、その回転角度情報に基づいて回転を行えばよい。例えば、画像中のひび割れをベクトル化したひび割れベクトルに基づいて、ひび割れの方向をマッチングさせる。画像中の構造物の非ひび割れ(例えば構造物の模様)をベクトル化した非ひび割れベクトルに基づいて、補正してもよい。橋梁1の床版2の格間ごとに撮像する場合、画像中の格間の縁部に基づいて回転角度補正を行ってもよい。本例の合成画像生成部26は、最新の点検時の画像に基づいて回転角度補正を行う機能の他に、最新の点検時の画像と過去の点検時の画像(合成画像又は合成前の画像)に基づいて回転角度補正を行う機能を有する。一定回転角度で分割撮像を行った場合には、本補正を行わなくてよい。
Image correction 4 (rotational angle correction): Image processing for correcting the rotational angles of each of a plurality of images with respect to the surface to be captured. That is, when it is determined that a plurality of images having mismatched rotation angles (also referred to as "azimuth angles") around the imaging direction of the imaging device with respect to the imaging plane of the structure are received from the
<ひび割れ情報の一括修正>
ユーザ端末10でのユーザ操作に応じて本例のサーバ装置20のひび割れ情報生成部30で行うひび割れ情報の修正処理について、説明する。
<Batch correction of crack information>
The crack information correction process performed by the crack
本例のサーバ装置20のひび割れ情報生成部30は、ユーザ端末10でユーザが指示したひび割れの特徴量に基づいて、複数のひび割れに関して一括してひび割れ情報を修正する機能(以下「一括修正」という)を有する。サーバ装置20の受信部22は、ひび割れ情報の修正内容をひび割れの特徴量で示した修正要求を、ユーザ端末10から受信する。サーバ装置20のひび割れ情報生成部30は、修正要求で示された特徴量に基づいて、ひび割れ情報を修正する。このような特徴量に基づいたひび割れ情報の修正(一括修正)の態様として、各種の態様が挙げられる。
The crack
第1の一括修正の態様として、ユーザ端末10の画面に表示させたスライダを用いたマニュアル操作(以下「スライド操作」という)に応じて一括修正を行う態様が挙げられる。本態様のひび割れ情報生成部30は、特徴量に対する合成画像中の線分(以下「線状パターン」ともいう)の検出度数を示す度数分布(「ヒストグラム」ともいう)と、特徴量でひび割れ情報の修正内容を指示入力するためのスライダとを、ユーザ端末10に対して送信されるひび割れ情報に付加し、ユーザ端末10でのスライダを用いた操作に応じて、ひび割れ情報を修正する。
As a first collective correction mode, there is a mode in which batch correction is performed according to manual operation (hereinafter referred to as “slide operation”) using a slider displayed on the screen of the
図3は、度数分布及びスライダの第1の表示例を示す図である。本例では、ユーザ端末10の画面に表示された合成画像IMG1上に、検出されたひび割れを示すひび割れ画像CR1、CR2、CR3、CR4を表示させる。更に、合成画像IMG1の近傍に、特徴量に対する合成画像IMG1中の線分(ひび割れ候補である)の検出度数を示す度数分布HG1(ヒストグラム)と、特徴量でひび割れ情報の修正内容を指示入力するためのスライダSL1とを表示させる。度数分布HG1のy方向(画面の上下方向)がひび割れ候補である線分の特徴量を示し、度数分布HG1のx方向(画面の左右方向)がひび割れ候補である線分の度数を示す。スライダSL1は、合成画像IMG1中の線分がひび割れであるか否かの判定基準を調節するためのスライド式のGUI(graphical user interface)である。本例のスライダSL1は一本のバーBR1を有し、その一本のバーBR1の表示位置を基準にして、度数分布HG1のうちのひび割れ対象領域AR1が決まる。図3の上下方向(x方向)において、度数分布HG1のうち、バーBR1の表示位置よりも上の領域がひび割れ対象領域AR1であり、そのひび割れ対象領域AR1内の特徴量を持つ線分が「ひび割れ」として検出される。
FIG. 3 is a diagram showing a first display example of the frequency distribution and the slider. In this example, crack images CR1, CR2, CR3, and CR4 representing the detected cracks are displayed on the composite image IMG1 displayed on the screen of the
図4は、度数分布及びスライダの第2の表示例を示す図である。本例のスライダSL2は二本のバーBR21、BR22を有し、その二本のバーBR21、BR22の表示位置を基準にしてひび割れ対象領域AR2が決まる。図4のy方向(画面の上下方向)において、度数分布HG1のうち二本のバーBR21、BR22で挟まれた領域がひび割れ対象領域AR2であり、そのひび割れ対象領域AR2内の特徴量を持つ線分が「ひび割れ」として検出される。 FIG. 4 is a diagram showing a second display example of the frequency distribution and the slider. The slider SL2 of this example has two bars BR21 and BR22, and the crack target area AR2 is determined based on the display positions of the two bars BR21 and BR22. In the y direction of FIG. 4 (vertical direction of the screen), the area sandwiched between the two bars BR21 and BR22 in the frequency distribution HG1 is the crack target area AR2. Minutes are detected as "cracks".
図5は、度数分布及びスライダの第3の表示例を示す図である。本例では、二つのスライダSL1、SL2を表示して、複数の特徴量に基づいて、ひび割れ対象領域AR1、AR2を選択入力することができる。 FIG. 5 is a diagram showing a third display example of the frequency distribution and the slider. In this example, two sliders SL1 and SL2 are displayed, and crack target areas AR1 and AR2 can be selected and input based on a plurality of feature amounts.
図6は、度数分布及びスライダの第4の表示例を示す図である。本例では、チェックボックスBX1,BX2,BX3を表示して、損傷の種類を選択入力することができる。 FIG. 6 is a diagram showing a fourth display example of the frequency distribution and the slider. In this example, check boxes BX1, BX2, and BX3 are displayed, and the type of damage can be selected and input.
特徴量は、ひび割れの方向、長さ、幅、エッジの強度、及びエッジの密度のうち少なくともいずれかを含む。他の特徴量でもよい。ひび割れ情報生成部30は、度数分布(ヒストグラム)とスライダとをひび割れ情報に付加し、ユーザ端末10でのスライダを用いたマニュアル操作に応じて、ひび割れ情報を修正する。
The feature quantity includes at least one of crack direction, length, width, edge strength, and edge density. Other feature quantities may be used. The
以上のように、特徴量(ひび割れ検出部28により検出された線分の特徴量である)に対する線分の検出度数を示す度数分布と、特徴量でひび割れ情報の修正内容を指示入力するためのスライダとを、ひび割れ情報に付加し、ユーザ端末10でのスライダを用いたスライド操作に応じてひび割れ情報を修正することにより、簡易な操作でより精度が高いひび割れ情報に修正することが可能になる。
As described above, the frequency distribution indicating the detection frequency of the line segment with respect to the feature quantity (which is the feature quantity of the line segment detected by the crack detection unit 28), and the correction content of the crack information using the feature quantity. By adding the slider to the crack information and correcting the crack information according to the slide operation using the slider on the
第2に、ユーザ端末10の画面に表示させたひび割れ画像に対するグループ選択操作に応じて一括修正を行う態様が挙げられる。本態様のひび割れ情報生成部30は、特徴量に基づいてひび割れ画像をグルーピングし、ユーザ端末10でのひび割れ画像のグループを選択するマニュアル操作に応じてひび割れ情報を修正する。
Secondly, there is a mode in which collective correction is performed in accordance with a group selection operation for cracked images displayed on the screen of the
図7は、ひび割れ画像を方向(特徴量の一形態である)に基づいてグルーピングしてグループ毎に異なる線種で表示した例を示す。本例では、同一方向及び類似方向の複数のひび割れ画像(ひび割れ検出部28によりひび割れとして検出された線分に対応する画像である)で一つのグループを形成した。第1のグループG1のひび割れ画像を実線で表示させ、第2のグループG2のひび割れ画像を破線で表示させ、第3のグループG3のひび割れ画像を一点鎖線で表示させている。尚、図示の都合上、グループ毎に異なる線種で表示させた場合を例示したが、グループ毎に異なる色で表示させてもよい。 FIG. 7 shows an example in which crack images are grouped based on the direction (one form of feature quantity) and displayed with different line types for each group. In this example, a plurality of crack images (images corresponding to line segments detected as cracks by the crack detector 28) in the same direction and similar directions form one group. The crack images of the first group G1 are displayed with solid lines, the crack images of the second group G2 are displayed with dashed lines, and the crack images of the third group G3 are displayed with dashed lines. For convenience of illustration, the case where different line types are displayed for each group is exemplified, but different colors may be used for each group.
ユーザは、ユーザ端末10の画面の表示を見て、削除対象のグループのうち少なくとも一本のひび割れ画像を囲うタッチ操作を行う。そうすると囲まれたひび割れ画像の方向に基づいて、そのひび割れ画像が属するグループ内の全てのひび割れ画像(同一方向及び類似方向のひび割れ画像である)が一括して消去される。同時に、選択されたグループのひび割れ情報がサーバ装置20で削除される。図7に示す例では、タッチ操作で囲われた選択領域ARに含まれる同一グループのひび割れ画像が画面から消去され、かつ同一グループのひび割れ情報が削除される。
The user looks at the display on the screen of the
ひび割れ画像を囲う操作ではなくて、削除対象のグループをユーザに直接的に選択させてもよい。例えば、図7の点線表示された第2のグループG2のひび割れ情報を削除する場合、「点線」を選択する操作をユーザ端末10で受け付ける。グループ毎に異なる色でひび割れ画像を表示させた場合には、色(例えば「赤」)を選択する操作を受け付ける。グループの識別情報(例えばグループ番号)を選択する操作を受け付けてもよい。
Instead of enclosing the cracked image, the user may directly select the group to be deleted. For example, when deleting the crack information of the second group G2 indicated by the dotted line in FIG. 7, the
また、ひび割れ情報の「削除」に限らず、ひび割れ情報の「追加」、「増加」及び「減少」の操作を受け付けることが好ましい。 In addition, it is preferable to accept operations of "addition", "increase" and "decrease" of crack information, not limited to "delete" of crack information.
以上のように、特徴量に基づいてひび割れ画像をグルーピングし、ユーザ端末10でのひび割れ画像のグループを選択するユーザ操作に応じてひび割れ情報を修正することにより、簡易な操作でより精度が高いひび割れ情報に修正することが可能になる。
As described above, the crack images are grouped based on the feature amount, and the crack information is corrected in accordance with the user operation of selecting the group of crack images on the
<機械学習>
サーバ装置20の機械学習部32は、例えば人工知能によって構成される。人工知能として、例えば人工ニューラルネットワークを用いてもよいし、他の公知の人工知能を用いてもよい。ただし、本発明は機械学習部32として人工知能を用いない場合(例えば単なる検索手段を用いて情報を取得する場合)にも適用可能であり、また機械学習部32を省略することも可能である。
<Machine learning>
The
機械学習部32は、第1の学習として、ユーザ端末10でのユーザ操作に基づいて、ひび割れの検出を機械学習する。本例の機械学習部32は、少なくとも、ユーザ端末10でのひび割れ情報の編集のためのユーザ操作の履歴と、データベース50に記憶された画像(合成画像又は合成前の画像である)と、データベース50に記憶されたひび割れ情報とに基づいて、ひび割れの検出を機械学習する。
As the first learning, the
本例の機械学習部32は、データベース50に記憶されたひび割れ情報に関する操作履歴に基づいて、データベース50に記憶された編集履歴(ひび割れ情報の修正の内容を示す履歴である)のうちから学習すべき編集履歴を特定し、特定された編集履歴と、その特定された編集履歴に対応する合成画像及びひび割れ情報とに基づいて、合成画像(又は合成前の画像)から検出すべきひび割れの特徴量を機械学習する。つまり、ひび割れ検出部28のひび割れ検出で用いるモデルを更新する。
The
尚、本例のひび割れ情報生成部30は、前述のようにひび割れ情報の修正指示を特徴量単位で受け付ける「一括修正」の機能を有する。そこで本例の機械学習部32は、ユーザ端末10での特徴量単位のユーザ操作の履歴と、合成画像及びひび割れ情報との対応関係に基づいて、ひび割れ検出を機械学習する。合成前の画像を画像解析してひび割れを検出する場合には、特徴量単位の操作の履歴と合成前の画像及びひび割れ情報との対応関係に基づいて機械学習する。
Incidentally, the crack
また、機械学習部32は、第2の学習として、ユーザ端末10でのユーザ操作に基づいて、画像補正を機械学習する。本例の機械学習部32は、少なくとも、ユーザ端末10での画像補正のためのユーザ操作の履歴と、データベース50に記憶された画像(補正前の画像及び補正後の画像である)とに基づいて、画像補正を機械学習する。
As second learning, the
本例の機械学習部32は、データベース50に記憶された画像補正の操作履歴に基づいて、データベース50に記憶された画像補正履歴(画像の補正の内容を示す履歴である)のうちから学習すべき画像補正履歴を特定し、特定された画像補正履歴と、その特定された画像補正履歴に対応する補正前の画像及び補正後の画像(合成画像でよい)とに基づいて、補正前の画像と画像補正の内容との対応関係を機械学習する。つまり、合成画像生成部26の画像補正で用いるモデルを更新する。
The
尚、本例の合成画像生成部26は、前述のように画像位置情報補正、縮尺補正、あおり補正及び回転角度補正の機能を有する。そこで本例の機械学習部32は、ユーザ端末10での画像位置情報補正、縮尺補正、あおり補正又は回転角度補正のためのユーザ操作の履歴と、補正前の画像及び補正後の画像(合成画像でよい)との対応関係に基づいて、画像補正を機械学習する。
It should be noted that the composite
人工知能技術の進歩が著しく、優秀な人の頭脳を超える画像解析を行い得る人工知能が期待されている。ただし、未学習の事象の発生時(例えば学習初期段階)には修正操作が必要になる場合がある。従って、機械学習部32として人工知能を採用した場合でも、前述の「一括修正」のように、簡易なユーザ操作でひび割れ情報を編集する機能を、機械学習機能と併せてサーバ装置20に実装することが好ましい。
Advances in artificial intelligence technology have been remarkable, and expectations are high for artificial intelligence that can perform image analysis that surpasses the brains of talented people. However, when an unlearned event occurs (for example, at the early stage of learning), corrective operation may be required. Therefore, even when artificial intelligence is adopted as the
<第1の画像処理例>
図8は、第1実施形態における第1の画像処理例の流れを示すフローチャートである。
<First example of image processing>
FIG. 8 is a flow chart showing the flow of the first image processing example in the first embodiment.
本図の左側のフロントエンド処理はユーザ端末10の端末記憶部17に記憶されたプログラム(フロントエンドプログラム)に従ってユーザ端末10で開始される(ステップS2)。また、本図の右側のバックエンド処理は、サーバ装置20の記憶部42に記憶されたプログラム(バックエンドプログラム)に従ってサーバ装置20で開始される(ステップS4)。
The front-end processing on the left side of the figure is started in the
本例では、図9に示すように点検現場で撮像装置60により得られた複数の画像が事務所のユーザ端末10に入力され(ステップS6)、且つ点検現場でユーザにより野帳に記入された画像位置情報が事務所のユーザ端末10に入力される(ステップS8)。
In this example, as shown in FIG. 9, a plurality of images obtained by the
複数の画像は、撮像装置60により橋梁の床版の格間を複数に分割撮像して得られる。これらの複数の画像は、例えば有線通信又は近距離無線通信を用いて、端末入力部11により入力する。メモリカード等の記憶媒体から入力してもよい。撮像装置60からネットワークNW上の図示しない記憶デバイスに複数の画像をアップロードし、その記憶デバイスからネットワークNWを介して複数の画像を入力してもよい。
A plurality of images are obtained by capturing images of the coffers of the floor slab of the bridge divided into a plurality of images by the
野帳には、ユーザが橋梁の床版を目視して得た情報が記入されている。図示を省略した計測器を用いて計測した情報を野帳に記入してもよい。以下の説明では、少なくとも、橋梁の床版に対する複数の画像の位置関係を示す手書きの情報(手書きの画像位置情報)が、野帳に記入されているものとする。 The field notebook contains information obtained by the user's visual inspection of the floor slab of the bridge. Information measured using a measuring instrument (not shown) may be entered in a field notebook. In the following description, it is assumed that at least handwritten information (handwritten image position information) indicating the positional relationship of a plurality of images with respect to the floor slab of a bridge is entered in a field notebook.
橋梁の床版を表したCAD(computer aided design)図面が作成済である場合、そのCAD図面を端末表示部14に表示させて、その表示されたCAD図面中の床版の格間の被撮影位置に対して各画像を嵌め込むマニュアル操作を端末操作部15により受け付ける。このようなマニュアル操作に応じて、CAD図面中の床版の基準位置に対する各画像の位置関係を示す画像位置情報が入力される。
When a CAD (computer aided design) drawing showing the floor slab of the bridge has been created, the CAD drawing is displayed on the
橋梁の床版を表したCAD図面が未作成である場合、図10に示すように、端末表示部14の画面上で複数の画像を並べるマニュアル操作を端末操作部15により受け付ける。このようなマニュアル操作に応じて、複数の画像同士の相対的な位置関係を示す画像位置情報が入力される。この態様では、サーバ装置20において、複数の画像同士の相対的な位置関係を、床版の基準位置に対する各画像の位置関係に変換することが、好ましい。隣接する画像同士の共通部分を重ね合わせるマニュアル操作を受け付けてもよい。
When a CAD drawing representing the floor slab of the bridge has not yet been created, the
また、必要に応じて、後の画像補正(ステップS16)の示唆となる情報(以下「補正ヒント情報」という)が、ユーザ端末10に入力される(ステップS10)。 Further, if necessary, information (hereinafter referred to as "correction hint information") that suggests subsequent image correction (step S16) is input to the user terminal 10 (step S10).
例えば、複数の画像の全部について床版の正面から撮像した場合には「全部正面」、複数の画像の全部について床版の非正面から撮像した場合には「全部あおり」、複数の画像のうち一部だけ床版の非正面から撮像した場合には「一部あおり」といったような、あおり補正のヒント情報を入力するマニュアル操作を、端末操作部15により受け付ける。具体的なあおりの角度(撮像装置60の撮像方向に対する床版の傾き角度である)の入力を受け付けてもよいが、この場合には概略の角度が入力される可能性があり、後の工程でサーバ装置20において、概略の角度を詳細な角度に補正することが、好ましい。縮尺補正(拡縮)、回転角度補正等、他の画像補正のための補正ヒント情報の入力を受け付けてもよい。あおり補正、縮尺補正及び回転角度補正が不要である場合には、本ステップを省略してよい。
For example, if all of the multiple images are captured from the front of the floor slab, "all front", if all of the multiple images are captured from the non-front of the floor slab, "all tilt", and among the plurality of images The
次に、ユーザ端末10の端末制御部16により画像処理要求情報を生成して、ユーザ端末10の端末送信部12により、生成された画像処理要求情報をサーバ装置20に対して送信する(ステップS12)。画像処理要求情報は、サーバ装置20の受信部22により受信され、データベース50に登録される(ステップS14)。
Next, the
画像処理要求情報には、ステップS6で入力された複数の画像と、ステップS8で入力された画像位置情報とが含まれる。ステップS10で補正ヒント情報が入力された場合、その補正ヒント情報も画像処理要求情報に含まれる。 The image processing request information includes the plurality of images input in step S6 and the image position information input in step S8. When correction hint information is input in step S10, the correction hint information is also included in the image processing request information.
次に、サーバ装置20の合成画像生成部26により、複数の画像を補正する(ステップS16)。例えば、前述の画像補正(画像位置情報補正、縮尺補正、あおり補正、及び回転角度補正)のうち、必要な補正が行われる。ステップS10で補正ヒント情報が入力された場合、その補正ヒント情報に基づいて、画像補正が行われる。
Next, the multiple images are corrected by the
次に、サーバ装置20の合成画像生成部26により、複数の画像及び画像位置情報に基づいて、床版の格間ごとに一枚の合成画像が生成される(ステップS18)。合成画像は、データベース50に登録される。
Next, one composite image is generated for each coffer of the floor slab based on the plurality of images and the image position information by the composite
次に、サーバ装置20の機械学習部32により、合成画像が不適切であるか否かを判断する(ステップS20)。機械学習部32は、データベース50に記憶された各種の情報に基づいて、合成画像が適切である事象及び不適切である事象を学習しており、その学習結果に基づいて今回の合成画像が不適切であるか否かを判断することができる。機械学習部32は、例えば、原画像(合成前の画像)間で構造物上の模様が繋がらない等の異常を検出する機能を学習結果として持つことが可能である。合成画像が不適切であると判断された場合(ステップS20でYESの場合)、画像補正及び画像合成に関するパラメータを変更してステップS16に戻り、適切であると判断された場合(ステップS20でNOの場合)、ステップS22に進む。
Next, the
次に、サーバ装置20のひび割れ検出部28により、床版の格間ごとの合成画像を画像解析して、床版のひび割れを格間ごとに検出する(ステップS22)。
Next, the
次に、サーバ装置20のひび割れ情報生成部30により、検出されたひび割れに対応するひび割れ画像と、検出されたひび割れの特徴量とを示す、ひび割れ情報を生成する(ステップS24)。特徴量には、ひび割れの幅、長さ、間隔等、床版のひび割れ程度の評価区分を判別するために必要な情報が含まれる。また、特徴量には、一括編集に必要な情報が含まれる。生成されたひび割れ情報は、データベース50に登録される。
Next, the crack
本例は、一括編集に必要な、度数分布、スライダ、グループ情報等が、ひび割れ情報に付加される。また、スケール画像生成部34により生成されたスケール画像がひび割れ情報に付加されてもよい。スケール画像の具体例は後述する。
In this example, the frequency distribution, slider, group information, etc. required for collective editing are added to the crack information. Also, the scale image generated by the scale
ひび割れ評価部36により、少なくともひび割れ情報に基づいて、橋梁の床版におけるひび割れの程度を評価して、そのひび割れ程度の評価区分を示すランク情報を生成し、そのランク情報をひび割れ情報に付加してもよい。以下では、説明の便宜上、ランク情報がひび割れ情報に付加されなかったものとする。
Based on at least the crack information, the
次に、サーバ装置20の送信部24により、床版の格間ごとの合成画像とひび割れ情報とをユーザ端末10に対して送信する(ステップS26)。合成画像及びひび割れ情報は、ユーザ端末10の端末受信部13により受信され、端末表示部14に表示される(ステップS28)。
Next, the
例えば、図11に示すように、端末表示部14の画面に、床版の格間ごとの合成画像IMG2と、ひび割れ画像CRを含むひび割れ情報が表示される。本例では、合成画像IMG2中のひび割れが検出された位置に、ひび割れ画像CRが重ね合される。尚、図11では、スケール画像を省略しているが、合成画像IMG2に更にスケール画像を重ね合わせて表示してもよい。
For example, as shown in FIG. 11, the screen of the
次に、ユーザ端末10の端末操作部15によりユーザからひび割れ情報の修正操作を受け付けたか否かを判定し(ステップS32)、修正操作を受け付けた場合(ステップS32でYESの場合)、ユーザ端末10の端末送信部12により、ユーザの修正操作に対応したひび割れ情報の修正要求をサーバ装置20に対して送信する(ステップS34)。修正要求は、サーバ装置20の受信部22により受信され、データベース50に登録される(ステップS36)。
Next, the
また、ユーザは、端末表示部14の表示を見て、ひび割れ程度の評価区分を示すランク情報を端末操作部15により入力することができる。
Also, the user can view the display on the
図12は、ひび割れの進行モデルの一例を模式的に示す図である。この進行モデルでは、ランク情報が「RANK1」~「RANK5」の五段階で表される。各ランク情報とひび割れ状態との対応関係は次の通りである。 FIG. 12 is a diagram schematically showing an example of a crack progression model. In this progression model, rank information is expressed in five stages from "RANK1" to "RANK5". Correspondence between each rank information and the crack state is as follows.
RANK1:損傷なし。 RANK 1: No damage.
RANK2:横方向(車輌の通行方向に直交する短手方向)に沿って複数のひび割れが並列に発生した状態である。乾燥収縮による複数のひび割れが並列の梁状になる段階である。 RANK 2: A state in which a plurality of cracks are generated in parallel along the lateral direction (transverse direction orthogonal to the vehicle traffic direction). This is the stage where multiple cracks due to drying shrinkage form parallel beams.
RANK3:縦方向(車輌の通行方向に平行な長手方向)のひび割れ及び横方向のひび割れが互いに交差した状態である。活荷重により複数のひび割れが格子状になり、その格子状の領域のひび割れ密度が増加する段階である。後半時期には、ひび割れが床版の上下方向(床版下面に直交する垂直方向)で貫通する。 RANK 3: A crack in the longitudinal direction (longitudinal direction parallel to the direction of travel of the vehicle) and a crack in the lateral direction intersect each other. This is the stage where multiple cracks form a grid due to the live load and the crack density in the grid region increases. In the latter half of the period, cracks penetrate the floor slab in the vertical direction (perpendicular to the bottom surface of the floor slab).
RANK4:格子状の領域のひび割れ密度が規定値を超え、貫通した複数のひび割れの破面同士が平滑化された状態である。摺り磨き作用により床版がせん断抵抗を失う段階である。 RANK 4: A state in which the crack density in the lattice-like region exceeds a specified value, and the fracture surfaces of a plurality of penetrating cracks are smoothed. This is the stage where the floor slab loses shear resistance due to the polishing action.
RANK5:抜け落ちが生じた状態である。低下した押抜きせん断強度を超える輪荷重により抜け落ちが生じる。 RANK 5: A state in which omission has occurred. Wheel loads exceeding the reduced punch shear strength cause pull-out.
次に、サーバ装置20のひび割れ情報生成部30により、受信された修正要求に基づいて、ひび割れ情報を修正する(ステップS38)。ランク情報がユーザ端末10で入力された場合には、そのランク情報をひび割れ情報に付加する。
Next, the
次に、サーバ装置20の送信部24により、修正後のひび割れ情報をユーザ端末10に対して送信する(ステップS40)。修正後のひび割れ情報は、ユーザ端末10の端末受信部13により受信され、端末表示部14に表示される(ステップS42)。
Next, the modified crack information is transmitted to the
次に、ユーザ端末10の端末操作部15によりユーザから帳票作成指示の入力を受け付けたか否かを判定し(ステップS44)、帳票作成指示の入力を受け付けた場合(ステップS44でYESの場合)、ユーザ端末10の端末送信部12により、帳票要求がサーバ装置20に対して送信される(ステップS46)。帳票要求は、サーバ装置20の受信部22により受信される(ステップS48)。
Next, the
次に、サーバ装置20の帳票作成部40により、橋梁の床版の点検結果を示す帳票(点検調書)を作成する(ステップS50)。帳票は、橋梁の床版におけるひび割れ程度の評価区分を示すランク情報を含む。
Next, the
次に、サーバ装置20の送信部24により、ユーザ端末10に対して帳票を送信する(ステップS52)。帳票は、ユーザ端末10の端末受信部13により受信され、端末表示部14により帳票受信がユーザに対して報知される(ステップS54)。帳票は、ユーザの操作に応じて、端末表示部14に表示させることが可能であり、またネットワークNWに接続されたプリンタ(図示を省略)に印刷させることも可能である。
Next, the form is transmitted to the
図13は、帳票としての損傷図の一例を示す図である。この損傷図は、点検対象である橋梁の床版に生じた各損傷について、格間ごとに、損傷表示(ひび割れ表示、漏水表示、遊離石灰表示等)、部材名(「床版」等)、要素番号(Ds0201等)、損傷の種類(「ひび割れ」、「漏水」、「遊離石灰」等)、損傷程度の評価区分(ランク情報)が記載されたものである。尚、図13では、図12に示した五段階の評価区分(「RANK1」~「RANK5」)を、アルファベットの「a」~「e」で表している。 FIG. 13 is a diagram showing an example of a damage diagram as a form. This damage diagram shows damage indications (crack indications, water leakage indications, free lime indications, etc.), component names (“floor slabs,” etc.), Element number (Ds0201 etc.), type of damage ("crack", "leakage", "free lime" etc.), evaluation classification (rank information) of degree of damage are described. In FIG. 13, the five-level evaluation categories (“RANK1” to “RANK5”) shown in FIG. 12 are represented by alphabetical characters “a” to “e”.
<第2の画像処理例>
図14は、第1実施形態における第2の画像処理例の流れを示すフローチャートである。
<Second Image Processing Example>
FIG. 14 is a flow chart showing the flow of the second image processing example in the first embodiment.
本例のステップS2~S16は、図8に示した第1の画像処理例と同様である。 Steps S2 to S16 in this example are the same as in the first image processing example shown in FIG.
本例では、合成前の各画像を画像解析してひび割れを検出し(ステップS218)、合成画像を生成する(ステップS220)。次に、機械学習部32により、合成画像が不適切であるか否かを判断する(ステップS222)。機械学習部32は、データベース50に記憶された各種の情報に基づいて、合成画像が適切である事象及び合成画像が不適切である事象を学習しており、その学習結果に基づいて今回の合成画像が不適切であるか否かを判断することができる。機械学習部32は、例えば、原画像(合成前の画像)間でひび割れ画像が繋がらない等の異常を検出する機能を学習結果として持つことが可能である。不適切であると判断された場合(ステップS222でYESの場合)、画像補正及び画像合成に関するパラメータを変更してステップS16に戻り、適切であると判断された場合(ステップS222でNOの場合)、ステップS24に進む。
In this example, each image before synthesis is analyzed to detect cracks (step S218), and a synthesized image is generated (step S220). Next, the
ステップS24~S54は、図8に示した第1の画像処理例と同様である。 Steps S24 to S54 are the same as in the first image processing example shown in FIG.
<第3の画像処理例>
図15は、第1実施形態における第3の画像処理例の流れを示すフローチャートである。
<Third Image Processing Example>
FIG. 15 is a flow chart showing the flow of the third image processing example in the first embodiment.
本例では、図16に示すように点検現場でロボット装置70に搭載された撮像装置62により分割撮像して得られた複数の二視点画像がユーザ端末10により入力され(ステップS306)、且つロボット装置70の撮像装置制御に従った撮像装置制御情報がユーザ端末10により入力される(ステップS308)。本例の撮像装置制御情報は、画像位置情報、距離情報、傾き角度情報及び回転角度情報を含む。
In this example, as shown in FIG. 16, a plurality of two-viewpoint images obtained by split imaging by the
本例のロボット装置70は、橋梁に懸垂した懸垂式ロボットであり、図16ではその撮像に関する要部のみを示している。尚、懸垂式ロボットは、橋梁に懸垂する代わりに、橋梁上の走行体(車輌)に懸垂する方式のロボットでもよい。また、懸垂式ロボットの代わりに、ドローン(無人飛行体)等の無人飛行式ロボットを用いる場合にも本発明を適用可能である。
The
本例の撮像装置62は、複眼式であり、二視点でそれぞれ構造物の被撮像面を撮像することにより、二視点画像(「立体視画像」ともいう)を取得する。ロボット装置70は、二視点画像に対して画像処理を行うことにより、撮像装置62から被撮像面内の各点までの距離を算出することができる。また、本例のロボット装置70は、撮像装置62の回動及び移動の制御を行う撮像装置制御機構72を備える。撮像装置制御機構72は、撮像装置62を互いに直交するX方向、Y方向及びZ方向のそれぞれで移動可能なXYZ移動機構と、撮像装置62をパン方向P及びチルト方向Tのそれぞれで回動可能なパンチルト機構とを兼ねている。撮像装置制御機構72により、構造物の被撮像面(表面)の基準点に対する撮像装置62の位置を自在に設定することができる。つまり、複数回の分割撮像で得られる複数の画像のそれぞれの位置情報を自在に設定することができる。また、撮像装置制御機構72により、撮像装置62と構造物の被撮像面との距離、撮像装置62の撮像方向と構造物の被撮像面との傾き角度、及び撮像装置62の撮像方向と構造物の被撮像面との回転角度を、それぞれ自在に設定することができる。つまり、複数回の分割撮像で得られる複数の画像のそれぞれの距離情報、傾き角度情報、回転角度情報を自在に設定することができる。
The
ユーザ端末10の端末入力部11は、画像位置情報、距離情報、傾き角度情報及び回転角度情報を含む撮像装置制御情報を、複数の画像と共に、メモリカード等の記憶媒体、又はネットワークNWを介して、入力することができる。
The terminal input unit 11 of the
ステップS12~S54は、図8に示した第1の画像処理例と同様である。 Steps S12 to S54 are the same as in the first image processing example shown in FIG.
尚、画像位置情報、距離情報、傾き角度情報及び回転角度情報等の画像合成又は画像補正に必要な全ての情報が、計測により正確に取得された場合には、適切な合成画像が生成されることになるので、ステップS20(合成画像が不適切か否かの判定)を省略することができる。 If all information necessary for image composition or image correction, such as image position information, distance information, tilt angle information, and rotation angle information, is accurately obtained by measurement, an appropriate composite image is generated. Therefore, step S20 (determination of whether or not the synthesized image is inappropriate) can be omitted.
<第4の画像処理例>
図17は、第1実施形態における第4の画像処理例の流れを示すフローチャートである。
<Fourth example of image processing>
FIG. 17 is a flow chart showing the flow of the fourth example of image processing in the first embodiment.
本例のステップS2、S4、S306~S308、及びS12~S16は、図15に示した第3の画像処理例と同様である。第3の画像処理例と同様に、ロボット装置70に搭載された複眼式の撮像装置62により分割撮像して得られた複数の二視点画像が入力され(ステップS306)、且つロボット装置70の撮像装置制御機構72の撮像装置制御に従った撮像装置制御情報が入力される(ステップS308)。
Steps S2, S4, S306-S308, and S12-S16 in this example are the same as in the third image processing example shown in FIG. As in the third image processing example, a plurality of two-viewpoint images obtained by split imaging are input by the compound-
ステップS218~S222は、図14に示した第2の画像処理例と同様である。つまり、ステップS218で合成前の画像を解析してひび割れを検出した後、ステップS220で合成画像の生成及び登録を行い、ステップS222で合成画像が不適切であるか否か判定する。ステップS222は、第3の画像処理例のS20と同様、省略することができる。 Steps S218 to S222 are the same as in the second image processing example shown in FIG. That is, after detecting cracks by analyzing the pre-composite image in step S218, a composite image is generated and registered in step S220, and whether or not the composite image is inappropriate is determined in step S222. Step S222 can be omitted, like S20 in the third image processing example.
ステップS24~S54は、第1の画像処理例と同様である。 Steps S24 to S54 are the same as in the first image processing example.
尚、人が撮像装置を操作して構造物を撮像した場合の画像処理例(第1の画像処理例及び第2の画像処理例)と、ロボット装置70が撮像装置を制御して構造物を撮像した場合の画像処理例(第3の画像処理例及び第4の画像処理例)とを、便宜上、別々に説明したが、本発明は、いずれか一方の場合に閉じた構成で実施される場合には限定されず、むしろ両方の場合を含むオープンな構成で実施されることが、好ましい。即ち、本例のサーバ装置20は、人が撮像装置を操作した場合の画像、画像の合成及び補正に必要な情報(画像位置情報を含む)、操作履歴等をデータベース50に記憶させるだけでなく、ロボット装置70が撮像装置を制御した場合の画像、撮像装置制御情報(画像位置情報を含む)、操作履歴等をデータベース50に記憶させて、両方の場合について機械学習を行う。これにより、人が撮像装置を操作して構造物を撮像した場合でも、ロボット装置70が撮像装置を制御した場合の画像処理の機械学習結果に基づいて、クローズした構成よりも適切な合成画像を生成することが可能になる。
An image processing example (a first image processing example and a second image processing example) in which a person operates an imaging device to capture an image of a structure and a
[第2の実施形態]
図18は、第2の実施形態における画像処理システムの構成例を示すブロック図である。本図のユーザ端末10は第1実施形態と同じである。本図のサーバ装置200は、図2に示した第1の実施形態のサーバ装置20に対して、ひび割れの進行を予測する予測部44を追加した構成である。
[Second embodiment]
FIG. 18 is a block diagram showing a configuration example of an image processing system according to the second embodiment. The
予測部44は、データベース50に記憶された橋梁に関する各種情報と、ひび割れ情報生成部30によって生成されたひび割れ情報とに基づいて、橋梁のひび割れの進行を予測する。送信部24は、ひび割れの進行の予測結果をユーザ端末10に送信する。
The
本例のデータベース50は、橋梁の構造情報、橋梁の環境条件情報、橋梁の使用条件情報、橋梁の維持管理履歴情報、及び橋梁の災害履歴情報を記憶する。本例の予測部44は、橋梁の構造情報、橋梁の環境条件情報、橋梁の使用条件情報、橋梁の維持管理履歴情報、及び橋梁の災害履歴情報のうち少なくとも一つの情報と、橋梁のひび割れ情報とに基づいて、橋梁におけるひび割れの進行を予測する。
The
ランク情報は、例えば橋梁の点検部位(例えば床版の格間)ごとの評価区分である。ランク情報は、橋梁の健全性を段階的又は数値的に表した「健全度」を含んでもよい。 The rank information is, for example, an evaluation division for each inspection part of a bridge (for example, a floor slab coffer). The rank information may include a "soundness" representing the soundness of the bridge in stages or numerically.
橋梁の構造情報は、橋梁全体のうち少なくとも評価対象である床版及びその周辺の部材を含む部分の構造を示す。例えば、構造形式、構造的特徴が挙げられる。荷重と床版との関係、地震の震動と床版との関係、雨水と床版との関係、温度と床版との関係等、床版のひび割れの進行に関連する構造上の情報を含む。アルカリ骨材反応を生じ易い材料を使用しているか否か等の化学的な情報でもよい。ひび割れが発生し易い部分を直接的に表した情報でもよい。 The structural information of a bridge indicates the structure of at least a portion of the entire bridge including the floor slab and surrounding members that are subject to evaluation. Examples include structural form and structural features. Including structural information related to the progression of floor slab cracking, such as the relationship between load and floor slab, the relationship between earthquake vibration and floor slab, the relationship between rainwater and floor slab, the relationship between temperature and floor slab, etc. . Chemical information such as whether or not a material that easily causes an alkali-aggregate reaction is used may be used. Information that directly represents a portion where cracks are likely to occur may be used.
橋梁の環境条件情報は、例えば塩分が飛来するか否か等の立地条件が挙げられる。 The environmental condition information of the bridge includes, for example, location conditions such as whether or not salinity will fly.
橋梁の使用条件情報は、例えば、車輌の交通量、大型車混入率が挙げられる。 The bridge use condition information includes, for example, the traffic volume of vehicles and the ratio of large vehicles.
橋梁の維持管理履歴情報は、例えば凍結防止剤の散布履歴情報が挙げられる。補修及び補強の履歴情報を含んでもよい。 Bridge maintenance management history information includes, for example, antifreeze spraying history information. Repair and retrofit history information may also be included.
橋梁の災害履歴情報は、橋梁が受けた台風、地震等の災害の履歴情報である。 The bridge disaster history information is history information of disasters such as typhoons and earthquakes that the bridge has suffered.
本例のデータベース50は、更に、橋梁のひび割れ程度の評価区分を示すランク情報を、橋梁の合成画像及びひび割れ情報と関連付けて、記憶する。本例の予測部44は、ひび割れ評価部36で評価された橋梁のランク情報が未来どのように変化するかを予測するシミュレーション処理を実行する。
The
また、予測部44により、過去から現在までどのように変化したかをシミュレーションしてもよい。ひび割れ情報生成部30により、過去から現在までのシミュレーション結果と現在の画像(合成画像又は合成前の画像)とに基づいて、ひび割れ情報を生成することで、ひび割れ情報の精度を更に向上させることができる。
Also, the
本例の機械学習部32は、操作履歴、画像(合成画像又は合成前の画像)、及びひび割れ情報のほかに、予測部44の予測結果にも基づいて、ひび割れ検出を機械学習することが可能である。機械学習部32は、更に、橋梁の構造情報、橋梁の環境条件情報、橋梁の使用条件情報、橋梁の維持管理履歴情報、及び橋梁の災害履歴情報のうち少なくとも一つの情報にも基づいて、ひび割れ検出を学習することが、好ましい。
The
[ベクトル化]
ひび割れ画像のベクトル化について、図19~図22を用いて説明する。
[Vectorization]
Vectorization of a crack image will be described with reference to FIGS. 19 to 22. FIG.
サーバ装置20のひび割れ情報生成部30は、合成画像又は合成前の画像から抽出したひび割れの部分をベクトル化して、ひび割れのベクトルデータ(以下「ひび割れベクトル」又は単に「ベクトル」という)を生成する。つまり、ひび割れ情報生成部30は、ひび割れ部分をベクトル化する。サーバ装置20の送信部24は、ベクトル化されたひび割れ画像であるひび割れベクトルを含むひび割れ情報を、合成画像と共に、ユーザ端末10に送信する。ユーザ端末10の端末表示部14には、ベクトル化されたひび割れ画像が合成画像に重ね合されて表示される。
The crack
ひび割れ情報生成部30は、ベクトル化に際して、検出されたひび割れを必要に応じ2値化及び/または細線化する。「ベクトル化」とは、ひび割れに対し始点及び終点で定まる線分を求めることであり、ひび割れが曲線状の場合、曲線と線分の距離が閾値以下になるようにひび割れを複数の区間に分割し、複数の区間のそれぞれについてひび割れベクトルを生成する。
The crack
ひび割れベクトルの生成に際しては、例えば床版2の特徴点を座標系の原点とし、ひび割れベクトルのグループ(ベクトルグループ)について、原点からの距離が最小になる端点を第1の始点とし、以下ひび割れベクトルの走行方向に沿って順次終点、始点を決定することができる。図19の例では、床版2上の点P0を座標系の原点、図の右方向及び下方向をそれぞれ座標系のX軸方向、Y軸方向としたときに、ベクトルグループC7の点P13,P14,P15,P16のうち点P0からの距離dが最も短くなる点P13をひび割れベクトルC7-1の始点とし、以下、点P14をひび割れベクトルC7-1の終点(かつひび割れベクトルC7-2,C7-3の始点)、点P15,P16をそれぞれひび割れベクトルC7-2,C7-3の終点とすることができる。
When generating the crack vectors, for example, the characteristic point of the
しかしながら、同様の手法でベクトルグループC8の始点を決定すると、点P17がひび割れベクトルC8-1の始点、点P18がひび割れベクトルC8-2,C8-3の始点となり、ひび割れベクトルC8-3の走行方向(点P18から点P20へ向かう方向)がひび割れベクトルC8-1の走行方向と逆行してしまう。そこでこのような場合は、図20に示すように点P19をひび割れベクトルC8A-1の始点とし、以下、点P18をひび割れベクトルC8A-1の終点(かつひび割れベクトルC8A-2,C8A-3の始点)、点P17,P20をそれぞれひび割れベクトルC8A-2,C8A-3の終点とするようにしてもよい。なおこの場合のひび割れベクトルの集合体をベクトルグループC8Aと表記する。 However, when the starting point of the vector group C8 is determined by a similar method, the point P17 becomes the starting point of the crack vector C8-1, the point P18 becomes the starting point of the crack vectors C8-2 and C8-3, and the running direction of the crack vector C8-3. (Direction from point P18 to point P20) runs counter to the running direction of crack vector C8-1. Therefore, in such a case, as shown in FIG. 20, the point P19 is the starting point of the crack vector C8A-1, and the point P18 is the end point of the crack vector C8A-1 (and the starting point of the crack vectors C8A-2 and C8A-3). ), and the points P17 and P20 may be the end points of the crack vectors C8A-2 and C8A-3, respectively. A set of crack vectors in this case is denoted as vector group C8A.
上述のようにしてひび割れベクトルを生成する場合、ひび割れが床版2の内部では連続しているが表面では分離していると、分離したひび割れベクトルとして認識されてしまう可能性がある。そこで、複数のひび割れベクトルを連結して1または複数のベクトルを生成する。
When generating crack vectors as described above, if the cracks are continuous inside the
図21はひび割れベクトルの連結の例を示す図であり、ひび割れベクトルC3-1(点P21、点P22がそれぞれ始点、終点)を含むベクトルグループC3と、ひび割れベクトルC4-1(点P23、点P24がそれぞれ始点、終点)を含むベクトルグループC4とが抽出された状況を示している。また、ひび割れベクトルC3-1が点P22及び点P23を結ぶ線分となす角をα1とし、点P22及び点P23を結ぶ線分がひび割れベクトルC4-1となす角をα2とする。このとき、角α1及び角α2が共に閾値以下ならば、ひび割れベクトルC3-1及びC4-1を連結し、またベクトルグループC3及びC4を融合させる。具体的には、図22に示すように新たなひび割れベクトルC5-2を生成してその他のひび割れベクトルC5-1(ひび割れベクトルC3-1と同一)及びC5-3(ひび割れベクトルC4-1と同一)と連結させ、これらひび割れベクトルC5-1,C5-2,及びC5-3を含む新たなベクトルグループをベクトルグループC5とする。このように、空間的に(床版2の表面で)分離したベクトルを適宜連結させることにより、ベクトル同士の連結関係を正確に把握することができる。 FIG. 21 is a diagram showing an example of connection of crack vectors. A vector group C3 including a crack vector C3-1 (points P21 and P22 are the start and end points, respectively), and a crack vector C4-1 (points P23 and P24). indicates a situation in which a vector group C4 containing a starting point and an end point, respectively, is extracted. The angle formed by the crack vector C3-1 with the line segment connecting the points P22 and P23 is α1, and the angle formed by the line segment connecting the points P22 and P23 with the crack vector C4-1 is α2. At this time, if both the angles α1 and α2 are less than the threshold value, the crack vectors C3-1 and C4-1 are connected and the vector groups C3 and C4 are merged. Specifically, as shown in FIG. 22, a new crack vector C5-2 is generated and other crack vectors C5-1 (same as crack vector C3-1) and C5-3 (same as crack vector C4-1) ), and a new vector group including these crack vectors C5-1, C5-2, and C5-3 is defined as vector group C5. In this way, by appropriately connecting the vectors that are spatially separated (on the surface of the floor slab 2), it is possible to accurately grasp the connection relationship between the vectors.
尚、上述のベクトル連結は一例であり、他の方法を用いてもよい。 Note that the vector concatenation described above is an example, and other methods may be used.
また、ひび割れ情報生成部30は、複数のベクトル同士の相対角度を算出する。つまり、一のベクトルと他のベクトルとが成す角度を算出する。
Further, the
また、ひび割れ情報生成部30は、ひび割れベクトルの階層構造を示す階層構造情報を生成する。階層構造情報は、ベクトル同士の連結関係を階層的に表現した情報である。階層構造情報は、複数のベクトルによって構成されるベクトルグループのうちで各ベクトルがどの階層に属するかを示す階層識別情報(「所属階層情報」ともいう)を含む。階層識別情報は、例えば、数字で表現された階層番号を用いることができる。数字以外のコード(例えば英字、記号)で表現してもよい。
In addition, the crack
図23は、ベクトルグループC1を示す図である。ベクトルグループC1は、ひび割れベクトルC1-1~C1-6により構成されており、これらひび割れベクトルは点P1~P7を始点または終点としている。このような状況において、ひび割れベクトルが分岐する(あるひび割れベクトルの終点が他の複数のひび割れベクトルの始点となっている)ごとに階層が下位になるとしている。具体的にはひび割れベクトルC1-1の階層を最も上位の“レベル1”として、ひび割れベクトルC1-1の終点である点P2を始点とするひび割れベクトルC1-2及びC1-3の階層は、ひび割れベクトルC1-1よりも下位である“レベル2”とする。同様に、ひび割れベクトルC1-3の終点である点P4を始点とするひび割れベクトルC1-5及びC1-6の階層は、ひび割れベクトルC1-3よりも下位である“レベル3”とする。一方、ひび割れベクトルC1-2の終点である点P3はひび割れベクトルC1-4の始点であるが、点P3を始点とするひび割れベクトルはひび割れベクトルC1-4だけであり分岐はないので、ひび割れベクトルC1-4の階層はC1-2と同じ“レベル2”とする。このようにして決定した各ひび割れベクトルの階層は、階層構造情報に含まれる。
FIG. 23 is a diagram showing vector group C1. The vector group C1 is composed of crack vectors C1-1 to C1-6, which start or end at points P1 to P7. In such a situation, each time the crack vector branches (the end point of a certain crack vector is the start point of a plurality of other crack vectors), the hierarchy is said to be lower. Specifically, the hierarchy of the crack vector C1-1 is the highest "
図24は、ベクトルグループC1(ひび割れベクトル同士の連結関係は図23に示すものと同一)を示す図である。本例では、連結するひび割れベクトルのうち他のひび割れベクトルとなす角度が閾値以下であるもの(木構造における「幹」に相当するひび割れベクトル)は同一の階層に属するものとしている。具体的には図24の点線内(参照符号Lv1で示す範囲)に存在するひび割れベクトルC1-1,C1-2,及びC1-4は同一の階層である“レベル1”(最上位)とする。また、それ以外のひび割れベクトルC1-3,C1-5,及びC1-6については、ひび割れベクトルが分岐するごとに階層が下位になるとしており、ひび割れベクトルC1-3(木構造における「枝」に相当)を“レベル2”、ひび割れベクトルC1-5及びC1-6(木構造における「葉」に相当)を“レベル3”としている。このようにして決定した各ひび割れベクトルの階層及び種別(幹、枝、あるいは葉)は、階層構造情報に含まれる。
FIG. 24 is a diagram showing vector group C1 (the connection relationship between crack vectors is the same as that shown in FIG. 23). In this example, among the crack vectors to be connected, those whose angles with other crack vectors are equal to or less than a threshold value (crack vectors corresponding to the "trunk" in the tree structure) belong to the same hierarchy. Specifically, the crack vectors C1-1, C1-2, and C1-4 existing within the dotted line in FIG. . As for the other crack vectors C1-3, C1-5, and C1-6, the hierarchy becomes lower each time the crack vector branches. equivalent) is "
尚、図23及び図24を用いて説明した階層構造化は例であり、変形した方法あるいは異なる方法で階層構造化してよい。 Note that the hierarchical structuring described with reference to FIGS. 23 and 24 is an example, and the hierarchical structuring may be performed by a modified method or a different method.
更に、ひび割れ情報生成部30は、ベクトルに各種の付加情報(属性情報)を付加する
。例えば、各ひび割れの幅を示す情報(幅情報)を各ベクトルに付加する。
Further, the
以上のように、サーバ装置20のひび割れ情報生成部30によってひび割れ画像のベクトル化及び階層構造化を行うので、生成されたひび割れベクトル及び階層構造情報を用いて各種の処理を効率良く且つ適切に行うことが可能になる。
As described above, since the crack image is vectorized and hierarchically structured by the crack
例えば、ひび割れベクトル及び階層構造情報を用いて、画像補正を行うことが可能になる。また、ひび割れベクトル及び階層構造情報を用いて、合成画像が不適切であるか否かを判定することが可能になる。また、ひび割れベクトル及び階層構造情報を用いて、機械学習を行うことが可能になる。また、ひび割れベクトル及び階層構造情報を用いて、ひび割れ程度の評価区分を判別することが可能になる。また、ひび割れベクトル及び階層構造情報を用いて、ひび割れの進行を予測することが可能になる。 For example, image correction can be performed using crack vectors and hierarchical structure information. Also, it becomes possible to determine whether or not the synthesized image is inappropriate using the crack vector and the hierarchical structure information. In addition, machine learning can be performed using crack vectors and hierarchical structure information. In addition, it becomes possible to discriminate the evaluation classification of the degree of cracking using the crack vector and the hierarchical structure information. In addition, it becomes possible to predict the progression of cracks using crack vectors and hierarchical structure information.
[スケール画像例]
スケール画像生成部34によって生成されるスケール画像の例を説明する。スケール画像生成部34は、ひび割れ画像によって示されるひび割れの特徴量(例えばひび割れの幅)をユーザ端末10の画面上で測定するための各種のスケール画像を生成する。スケール画像は、ひび割れ情報に付加される。
[Scale image example]
An example of a scale image generated by the
図25は、スケール画像の表示例を示す図である。図示及び説明の便宜上、測定対象のひび割れを示すひび割れ画像CR11(CR11-1、CR11-2、CR11-3)を、拡大して示す。 FIG. 25 is a diagram showing a display example of a scale image. For convenience of illustration and explanation, crack images CR11 (CR11-1, CR11-2, CR11-3) showing cracks to be measured are shown in enlarged form.
スケール画像CS1、CS2、CS3、CS4は、構造物の測定面(本例では橋梁の床版である)に生じたひび割れの測定を行うための画像である。これらのスケール画像CS1~CS4は、サーバ装置20のスケール画像生成部34により生成される。本例のスケール画像生成部34は、ひび割れの長さを測定するための目盛りが付されたスケールを示すスケール画像CS1、CS2と、ひび割れの幅を測定するための線画及び数字が付されたスケールを示すスケール画像CS3、CS4を生成する。スケール画像CS1~CS4は、撮像装置と測定面との距離、及び撮像装置の撮像方向に対する測定面の傾き角度に応じたスケールを示す。スケール画像生成部34は、距離及び角度に応じて、スケールの種類、形状、大きさ等を異ならせる。本例のスケール画像生成部34は、距離及び傾き角度に応じて、長さ測定用のスケール画像CS1、CS2の目盛りを異ならせ、幅測定用のスケール画像CS3、CS4の線画及び数字を異ならせている。
The scale images CS1, CS2, CS3, and CS4 are images for measuring cracks occurring in the measurement surface of the structure (the floor slab of the bridge in this example). These scale images CS1 to CS4 are generated by the
サーバ装置20のひび割れ情報生成部30は、スケール画像CS1~CS4をひび割れ情報に付加する。サーバ装置20の送信部24は、スケール画像CS1~CS4が付加されたひび割れ情報を、構造物の合成画像と共に、ユーザ端末10に送信する。送信されたスケール画像付きのひび割れ情報及び合成画像は、ユーザ端末10の端末受信部13により受信される。
The
ユーザ端末10の端末表示部14における表示領域DAは、構造物の合成画像及びスケール画像を表示する画像表示領域IAと、その画像表示領域IAに表示可能な種類のスケール画像(つまりユーザが選択可能なスケール画像)を表示するスケール画像選択領域SAとを含む。スケール画像選択領域SAには、スケール画像CS1~CS4の他に、スケール画像の選択を確定するためのOKボタンBU1、スケール画像の選択をキャンセルするためのキャンセルボタンBU2、画像表示領域IAに表示されたスケール画像を消去するための消去ボタンBU3が表示されている。
The display area DA in the
端末操作部15は、スケール画像選択領域SAに表示されたスケール画像CS1~CS4に対するユーザの選択操作を受け付ける。ユーザは、ボタン、マウス等を用いて選択操作を行う。スケール画像選択領域SAに表示された複数のスケール画像CS1~CS4のうちから、ユーザの選択操作に対応したスケール画像(本例ではCS2及びCS3)が画像表示領域IAに表示される。
The
端末表示部14は、画像表示領域IAに、合成画像とスケール画像とを重ね合わせて表示する。合成画像におけるひび割れ画像の位置及び方向に応じて、スケール画像の位置及び方向が決まる。本例のひび割れ画像CR11は、階層構造であって、親のひび割れ画像CR11-1と、子のひび割れ画像CR11-2及びCR11-3とを含む。長さ測定用のスケール画像CS2は、ひび割れ画像CR11-2の方向に沿って、且つひび割れ画像CR11-2の近傍の位置に、表示されている。幅測定用のスケール画像CS3は、ひび割れ画像CR11-1の方向と直交した方向に沿って、且つひび割れ画像CR11-1の幅に最も近い幅を有する線画(本例では1.4mmの線画)がひび割れ画像CR11-1に位置合わせされて、表示されている。
The
図示を省略したが、スケール画像を移動させるための移動ボタン、スケール画像を回転するための回転ボタン、スケール画像を拡大するための拡大ボタン、スケール画像を縮小するための縮小ボタン等もスケール画像選択領域SAに表示させることが好ましい。マウスの移動操作により、スケール画像の移動、回転、拡大、縮小等を指示してもよい。 Although not shown, a move button for moving the scaled image, a rotate button for rotating the scaled image, an enlarge button for enlarging the scaled image, a reduce button for reducing the scaled image, etc. are also used for scale image selection. It is preferable to display it in the area SA. Movement, rotation, enlargement, reduction, etc. of the scale image may be instructed by moving the mouse.
尚、画像表示領域IAに二つのスケール画像CS2、CS3を表示させた場合を例示したが、画像表示領域IAに表示させるスケール画像の数は限定されない。 Although two scale images CS2 and CS3 are displayed in the image display area IA, the number of scale images displayed in the image display area IA is not limited.
以上、本発明を実施するための形態に関して説明してきたが、本発明は上述した実施形態及び変形例に限定されず、本発明の主旨を逸脱しない範囲で種々の変形が可能である。 Although the embodiments for carrying out the present invention have been described above, the present invention is not limited to the above-described embodiments and modifications, and various modifications are possible without departing from the gist of the present invention.
1 橋梁
2 床版
3 主桁
3A 接合部
10 ユーザ端末
11 端末入力部
12 端末送信部
13 端末受信部
14 端末表示部
15 端末操作部
16 端末制御部
17 端末記憶部
20、200 サーバ装置
22 受信部
24 送信部
26 合成画像生成部
28 ひび割れ検出部
30 ひび割れ情報生成部
32 機械学習部
34 スケール画像生成部
36 ひび割れ評価部
38 CADデータ取得部(データ変換部)
40 帳票作成部
42 記憶部
44 予測部
50 データベース
60、62 撮像装置
70 ロボット装置
72 撮像装置制御機構
AR 選択領域
AR1、AR2 ひび割れ対象領域
BR1、BR21、BR22 バー
BU1 OKボタン
BU2 キャンセルボタン
BU3 消去ボタン
BX1、BX2、BX3 チェックボックス
C1、C3、C4、C5、C7、C8、C8A ベクトルグループ
C1-1、C1-2、C1-3、C1-4、C1-5、C3-1、C4-1、C5-1、C5-2、C7-1、C7-2、C8-1、C8-2、C8-3、C8A-1、C8A-2 ベクトル
CR、CR1、CR2、CR3、CR4、CR11、CR11-1、CR11-2、CR11-3 ひび割れ画像
CS1、CS2、CS3、CS4 スケール画像
DA 表示領域
G1 第1のグループ
G2 第2のグループ
G3 第3のグループ
HG1、HG2 度数分布
IA 画像表示領域
IMG1、IMG2 合成画像
NW ネットワーク
SA スケール画像選択領域
SL1、SL2 スライダ
d 距離
α1、α2 角
1
40
Claims (12)
前記プロセッサは、
構造物の表面を示す複数の画像を取得し、
前記取得した複数の画像を画像合成して前記構造物の表面を示す合成画像を生成し、
前記合成画像が不適切であるか否かの判断結果を取得し、
前記取得した前記判断結果が、前記合成画像が不適切であることを示す場合は、画像補正及び/または画像合成のための修正パラメータを取得して、前記修正パラメータに基づいて再度前記合成画像を生成し、
前記合成画像または合成前の前記画像を画像解析して前記構造物の表面のひび割れを検出する画像処理装置。 An image processing device comprising a processor,
The processor
Acquiring multiple images showing the surface of the structure,
synthesizing the plurality of acquired images to generate a synthetic image showing the surface of the structure;
Acquiring a judgment result as to whether or not the synthesized image is inappropriate;
if the acquired determination result indicates that the synthesized image is inappropriate, acquiring modification parameters for image correction and/or image synthesis, and recreating the synthesized image based on the modification parameters; generate and
An image processing device that analyzes the synthesized image or the image before synthesis to detect cracks on the surface of the structure.
前記プロセッサは、前記ユーザ端末から前記複数の画像を取得する画像処理システム。 An image processing system comprising the image processing device according to any one of claims 1 to 9 and a user terminal,
The image processing system, wherein the processor acquires the plurality of images from the user terminal.
前記プロセッサは、
構造物の表面を示す複数の画像を取得し、
前記取得した複数の画像を画像合成して前記構造物の表面を示す合成画像を生成し、
前記合成画像が不適切であるか否かの判断結果を取得し、
前記取得した前記判断結果が、前記合成画像が不適切であることを示す場合は、画像補正及び/または画像合成のための修正パラメータを取得して、前記修正パラメータに基づいて再度前記合成画像を生成し、
前記合成画像または合成前の前記画像を画像解析して前記構造物の表面のひび割れを検出する作動方法。 A method of operating an image processing device comprising a processor, comprising:
The processor
Acquiring multiple images showing the surface of the structure,
synthesizing the plurality of acquired images to generate a synthetic image showing the surface of the structure;
Acquiring a judgment result as to whether or not the synthesized image is inappropriate;
if the acquired determination result indicates that the synthesized image is inappropriate, acquiring modification parameters for image correction and/or image synthesis, and recreating the synthesized image based on the modification parameters; generate and
A method of operation comprising image analysis of said composite image or said image prior to composite to detect cracks in the surface of said structure.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016117868 | 2016-06-14 | ||
JP2016117868 | 2016-06-14 | ||
JP2019218028A JP6944506B2 (en) | 2016-06-14 | 2019-12-02 | Image processing method, image processing device, and image processing program |
JP2021147462A JP7241139B2 (en) | 2016-06-14 | 2021-09-10 | Server device, image processing method, and image processing system |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021147462A Division JP7241139B2 (en) | 2016-06-14 | 2021-09-10 | Server device, image processing method, and image processing system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023078205A true JP2023078205A (en) | 2023-06-06 |
Family
ID=60664350
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018523607A Active JP6626970B2 (en) | 2016-06-14 | 2017-05-19 | Server device, image processing system, and image processing method |
JP2019218028A Active JP6944506B2 (en) | 2016-06-14 | 2019-12-02 | Image processing method, image processing device, and image processing program |
JP2021147462A Active JP7241139B2 (en) | 2016-06-14 | 2021-09-10 | Server device, image processing method, and image processing system |
JP2023033675A Pending JP2023078205A (en) | 2016-06-14 | 2023-03-06 | Image processing device, image processing system, operation method of image processing device and image processing program |
Family Applications Before (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018523607A Active JP6626970B2 (en) | 2016-06-14 | 2017-05-19 | Server device, image processing system, and image processing method |
JP2019218028A Active JP6944506B2 (en) | 2016-06-14 | 2019-12-02 | Image processing method, image processing device, and image processing program |
JP2021147462A Active JP7241139B2 (en) | 2016-06-14 | 2021-09-10 | Server device, image processing method, and image processing system |
Country Status (2)
Country | Link |
---|---|
JP (4) | JP6626970B2 (en) |
WO (1) | WO2017217185A1 (en) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6833356B2 (en) * | 2016-06-16 | 2021-02-24 | キヤノン株式会社 | Information processing equipment, information processing methods and programs |
WO2019130391A1 (en) * | 2017-12-25 | 2019-07-04 | 富士通株式会社 | Image processing program, image processing method, and image processing device |
JP6814431B2 (en) * | 2018-02-26 | 2021-01-20 | 株式会社オプティム | Computer systems, drone control methods and programs |
JP7336750B2 (en) * | 2018-10-12 | 2023-09-01 | パナソニックIpマネジメント株式会社 | Prediction device and prediction method |
JP7263074B2 (en) * | 2019-03-22 | 2023-04-24 | キヤノン株式会社 | Information processing device, its control method, program, and storage medium |
US20220155277A1 (en) * | 2019-04-01 | 2022-05-19 | Aipore Inc. | Machine-Learning Program, Method, and Apparatus for Measuring, by Pore Electric Resistance Method, Transient Change in Ion Current Associated with Passage of Target Particles through Pores and for Analyzing Pulse Waveform of Said Transient Change |
JP7316097B2 (en) * | 2019-05-24 | 2023-07-27 | 日本放送協会 | Object trajectory generator and its program |
JP7151652B2 (en) * | 2019-07-18 | 2022-10-12 | 株式会社デンソー | Crack width measuring device |
JP7427381B2 (en) * | 2019-07-22 | 2024-02-05 | キヤノン株式会社 | Information processing device, system, information processing method and program |
JPWO2021200675A1 (en) | 2020-04-01 | 2021-10-07 | ||
CN115443407A (en) | 2020-05-07 | 2022-12-06 | 富士胶片株式会社 | Damage evaluation device, method, and program |
JP7453848B2 (en) * | 2020-05-21 | 2024-03-21 | 清水建設株式会社 | Face image processing device, face image processing method |
KR102374840B1 (en) * | 2020-10-20 | 2022-03-15 | 두산중공업 주식회사 | Defect image generation method for deep learning and system therefor |
WO2022209709A1 (en) * | 2021-04-02 | 2022-10-06 | 富士フイルム株式会社 | Image processing device, image processing method, and image processing program |
WO2023047859A1 (en) * | 2021-09-22 | 2023-03-30 | 富士フイルム株式会社 | Information processing device, method and program, and image data structure |
KR102635926B1 (en) * | 2023-08-29 | 2024-02-13 | 디엘이앤씨 주식회사 | Facility Crack Measuring System |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06148089A (en) * | 1992-05-29 | 1994-05-27 | Shimizu Corp | Craze measuring processor |
JP3067652B2 (en) * | 1996-09-04 | 2000-07-17 | 関西電力株式会社 | Concrete crack measuring method and measuring device |
JP4269461B2 (en) * | 2000-01-14 | 2009-05-27 | 株式会社Ihi | Graphic processing method using elliptical area |
JP2002310920A (en) * | 2001-04-19 | 2002-10-23 | Keisoku Kensa Kk | Method for detecting crack in concrete wall and device thereof |
JP4010806B2 (en) * | 2001-12-20 | 2007-11-21 | 西松建設株式会社 | Concrete surface deformation investigation system and concrete surface deformation investigation method |
JP2004069434A (en) * | 2002-08-05 | 2004-03-04 | Tokyo Electric Power Co Inc:The | Image processing method using image with laser light spot, mosaic processing method using the image, and normalization service system using the method |
JP2005062041A (en) | 2003-08-15 | 2005-03-10 | Junichi Izumo | Soundness evaluation method, evaluation program and evaluation device |
JP2006132973A (en) * | 2004-11-02 | 2006-05-25 | Fujimitsu Komuten:Kk | Crack inspection device and method of concrete structure |
JP4954006B2 (en) * | 2007-09-28 | 2012-06-13 | 三洋電機株式会社 | Crack width measuring system, operating device, crack width measuring method, and crack width measuring program |
JP5688533B1 (en) * | 2014-01-23 | 2015-03-25 | デ・ファクト・スタンダード合同会社 | Concrete structure maintenance management system |
JP6597603B2 (en) * | 2014-04-25 | 2019-10-30 | ソニー株式会社 | Control device, imaging device, control method, imaging method, and computer program |
CN110954545B (en) * | 2014-04-25 | 2023-01-13 | 索尼公司 | Information processing apparatus, information processing method, and computer program |
JP6368207B2 (en) * | 2014-09-25 | 2018-08-01 | 前田建設工業株式会社 | Inspection support device, inspection support method, and program for concrete structure |
JP6387782B2 (en) * | 2014-10-17 | 2018-09-12 | ソニー株式会社 | Control device, control method, and computer program |
-
2017
- 2017-05-19 WO PCT/JP2017/018917 patent/WO2017217185A1/en active Application Filing
- 2017-05-19 JP JP2018523607A patent/JP6626970B2/en active Active
-
2019
- 2019-12-02 JP JP2019218028A patent/JP6944506B2/en active Active
-
2021
- 2021-09-10 JP JP2021147462A patent/JP7241139B2/en active Active
-
2023
- 2023-03-06 JP JP2023033675A patent/JP2023078205A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2020038227A (en) | 2020-03-12 |
JP6626970B2 (en) | 2019-12-25 |
JPWO2017217185A1 (en) | 2019-02-28 |
WO2017217185A1 (en) | 2017-12-21 |
JP7241139B2 (en) | 2023-03-16 |
JP2022000646A (en) | 2022-01-04 |
JP6944506B2 (en) | 2021-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7241139B2 (en) | Server device, image processing method, and image processing system | |
CN111459166B (en) | Scene map construction method containing trapped person position information in post-disaster rescue environment | |
Duque et al. | Bridge deterioration quantification protocol using UAV | |
JP7102569B2 (en) | Damage information processing device, damage information processing method, and damage information processing program | |
JP7146013B2 (en) | Server device, image processing method, and program | |
KR102423579B1 (en) | Integral maintenance control method and system for managing dam safety based on 3d modelling | |
CN103988069A (en) | Inspection area setting method for image inspecting device | |
Sabato et al. | Noncontact sensing techniques for AI-aided structural health monitoring: a systematic review | |
CN112241950A (en) | Detection method of tower crane crack image | |
CN114463932B (en) | Non-contact construction safety distance active dynamic identification early warning system and method | |
Park et al. | A framework for improving object recognition of structural components in construction site photos using deep learning approaches | |
Hess et al. | Interactive classification of construction materials: Feedback driven framework for annotation and analysis of 3D point clouds | |
Sgrenzaroli et al. | Indoor mobile mapping systems and (BIM) digital models for construction progress monitoring | |
CN117610375A (en) | Bridge suspension casting construction digital twin method, device and equipment based on machine vision | |
Braun et al. | Classification of detection states in construction progress monitoring | |
Qureshi et al. | Smart rebar progress monitoring using 3D point cloud model | |
Liang et al. | An Automatic Measurement Method of Test Beam Response Based on Spliced Images | |
CN109934333A (en) | Object localization method based on full Connection Neural Network | |
CN116433755B (en) | Structure dense displacement recognition method and system based on deformable three-dimensional model and optical flow representation learning | |
KR102554504B1 (en) | Method for inspecting steel structure automatically based on 3d modeling | |
Shu et al. | Automated generation of FE mesh of concrete structures from 3D point cloud using computer vision technology | |
Saeedfar et al. | Dynamic Space Conflict Modeling for Construction Operations | |
Ziolkowski | Remote sensing in laboratory diagnostics of reinforced concrete elements—current development and vision for the future | |
Kreyenschmidt | Exemplary integration of machine learning for information extraction in existing buildings | |
Ronit | Review Of Bridge Structural Inspection Aided By Augmented Reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230309 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231006 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20231124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240209 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240529 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240603 |