JP6626970B2 - Server device, image processing system, and image processing method - Google Patents

Server device, image processing system, and image processing method Download PDF

Info

Publication number
JP6626970B2
JP6626970B2 JP2018523607A JP2018523607A JP6626970B2 JP 6626970 B2 JP6626970 B2 JP 6626970B2 JP 2018523607 A JP2018523607 A JP 2018523607A JP 2018523607 A JP2018523607 A JP 2018523607A JP 6626970 B2 JP6626970 B2 JP 6626970B2
Authority
JP
Japan
Prior art keywords
crack
information
image
user terminal
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018523607A
Other languages
Japanese (ja)
Other versions
JPWO2017217185A1 (en
Inventor
佐藤 康平
康平 佐藤
学斌 胡
学斌 胡
康彦 金子
康彦 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2017217185A1 publication Critical patent/JPWO2017217185A1/en
Priority to JP2019218028A priority Critical patent/JP6944506B2/en
Application granted granted Critical
Publication of JP6626970B2 publication Critical patent/JP6626970B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Description

本発明は、高額な装置を必要とせずにひび割れ箇所の画像を解析し、かつユーザの操作を煩雑にすることなくひび割れ箇所の合成画像及び画像解析結果を提示することを可能にするサーバ装置、画像処理システム及び画像処理方法に関する。   The present invention provides a server device that analyzes an image of a crack without requiring an expensive device, and that can present a composite image of a crack and an image analysis result without complicating a user's operation, The present invention relates to an image processing system and an image processing method.

社会的なインフラストラクチャーとして、橋梁、トンネルといった構造物が存在する。これらの構造物には損傷が発生し、その損傷は進行する性質を持つため、定期的に点検を行うことが求められている。また的確な点検結果を報告することが求められている。例えば、構造物の表面に生じたひび割れの性状を的確に把握して点検結果を報告することが求められており、その報告に基づいてひび割れの進行程度に応じた適切な維持管理を行う必要がある。   Structures such as bridges and tunnels exist as social infrastructure. These structures are subject to damage, and the damage tends to progress, so that periodic inspections are required. In addition, it is required to report accurate inspection results. For example, it is required to accurately understand the nature of cracks that have occurred on the surface of structures and report inspection results, and it is necessary to perform appropriate maintenance based on the progress of cracks based on the reports. is there.

特許文献1には、コンクリート壁面をレーザ発射体付きのカメラで撮像して得られたレーザ光点付きの遠景画像及び近接画像をモバイルパソコンから送信すると、遠景画像及び近接画像をコンクリート壁面の正面から見た画像に正規化し、更に画像解析対象の近接画像を指定するために近接画像が遠景画像のどのエリアのものかを割り付ける操作をモバイルパソコンで行って解析指示を送信すると、指定の近接画像を画像解析してひび割れ幅を計測するサーバ装置が、記載されている。   Patent Document 1 discloses that when a distant view image and a close-up image with a laser beam spot obtained by imaging a concrete wall surface with a camera equipped with a laser projectile are transmitted from a mobile personal computer, the distant view image and the close-up image are viewed from the front of the concrete wall surface. Normalizing to the viewed image, and further performing an operation of assigning which area of the distant view image the proximity image belongs to in order to specify the proximity image of the image analysis target and transmitting an analysis instruction, the specified proximity image is transmitted. A server device that measures the width of a crack by image analysis is described.

特許文献2には、パーソナルコンピュータにおいて、点検現場での作業時に野帳に記入された撮影位置の情報に基づいてコンクリート構造物の画像をCAD(computer aided design)図面上に貼り付ける操作を行うと、その操作に応じて画像をCAD図面と関連付け、更に画像上でひび割れをトレースする操作を行うと、その操作に応じて画像上のひび割れをCAD図面に写像し、CAD図面の情報を用いてひび割れの幅及び長さを算出することが、記載されている。   Patent Document 2 discloses that an operation of pasting an image of a concrete structure on a CAD (computer aided design) drawing based on information on a photographing position written in a field note at the time of work at an inspection site is performed using a personal computer. When an operation is performed to associate an image with a CAD drawing according to the operation and trace the crack on the image, the crack on the image is mapped to the CAD drawing according to the operation, and the crack is generated using the information of the CAD drawing. To calculate the width and length of the.

特許文献3には、パーソナルコンピュータにおいて、カメラからコンクリート壁面までの距離とカメラの光軸に対するコンクリート壁面の傾斜角とを計測して、複数枚の画像を接合し且つコンクリート壁面の正面から見た画像に補正し、更にコンクリート壁面のひび割れの分布状態とひび割れの幅とを求めて状態図を表示することが、記載されている。実際はひび割れであるにもかかわらず認識できていないひび割れは、マウスやペン入力装置を用いてトレースする操作により入力することができる。   Patent Document 3 discloses a personal computer in which the distance from a camera to a concrete wall surface and the angle of inclination of the concrete wall surface with respect to the optical axis of the camera are measured, and a plurality of images are joined and viewed from the front of the concrete wall surface. It is described that the distribution state of the cracks on the concrete wall surface and the width of the cracks are obtained and a state diagram is displayed. Cracks that are not recognized even though they are actually cracks can be input by a trace operation using a mouse or a pen input device.

特許文献4には、ひび割れの識別処理をサポートベクトルマシンアルゴリズムを用いて機械学習する際に、複数の領域画像のうち各領域画像の中心と各領域画像中の識別対象物(ひび割れ、汚れ、他の凹凸など)の重心とが一致する領域画像だけを学習対象のサンプルとして選択することが、記載されている。   Patent Document 4 discloses that when performing machine learning for crack identification processing using a support vector machine algorithm, the center of each area image among a plurality of area images and the identification target (crack, dirt, etc.) in each area image are disclosed. It is described that only a region image whose center of gravity coincides with the center of gravity of the learning target sample is selected as a learning target sample.

特開2004−69434号公報JP-A-2004-69434 特開2005−310044号公報JP 2005-310044 A 特開平10−78305号公報JP-A-10-78305 特開2003−216953号公報JP-A-2003-216953

特許文献1〜4には、構造物を分割撮像して得られた複数の画像と共に各画像の位置情報をユーザ端末から送信してサーバ装置で一枚の画像に合成することについて、開示が無い。   Patent Documents 1 to 4 do not disclose transmitting position information of each image together with a plurality of images obtained by dividing and imaging a structure from a user terminal and synthesizing them into one image by a server device. .

また、特許文献1に記載されたモバイルパソコン(ユーザ端末の一形態である)及びサーバ装置からなるシステムでは、レーザ発射体を設けたカメラが必要となるだけではなくて、遠景画像及び近接画像が必要であり、更には遠景画像に対して近接画像を割り付けるユーザ操作により画像解析対象の近接画像を指定する必要がある。従って、高額な装置が必要になるだけでなく、ひび割れの画像解析結果を得るまでのユーザの操作が煩雑であると言える。   Further, the system including a mobile personal computer (which is an embodiment of a user terminal) and a server device described in Patent Literature 1 requires not only a camera provided with a laser projectile but also a distant view image and a close image. It is necessary, and further, it is necessary to specify a close image to be analyzed by a user operation of assigning a close image to a distant view image. Therefore, it can be said that not only an expensive device is required, but also the operation of the user until obtaining the image analysis result of the crack is complicated.

また、ユーザ端末でひび割れ箇所の合成画像を生成し且つひび割れの画像解析を行う場合には、高額なハードウエア又は高額なソフトウエアが必要であった。つまり、高額な装置を必要とした。   In addition, when a composite image of a crack location is generated and a crack image is analyzed on a user terminal, expensive hardware or expensive software is required. That is, an expensive device was required.

特許文献2には、パーソナルコンピュータ(ユーザ端末の一形態である)において、画像をCAD図面上に貼り付ける操作と、画像上でひび割れをトレースする操作とを行うと、ひび割れの幅及び長さを算出することが記載されているにすぎない。   Patent Document 2 discloses that when a personal computer (which is an embodiment of a user terminal) performs an operation of pasting an image on a CAD drawing and an operation of tracing a crack on the image, the width and length of the crack are reduced. It only states that it is calculated.

特許文献3に記載された技術では、ひび割れ情報を修正する場合にはマウスやペン入力装置を用いて一本ずつトレースする操作が必要となる。このようなトレース操作によるひび割れ情報の修正機能を用いれば、どのようなパターンのひび割れに対しても一本ずつ個別に修正できるけれども、操作が煩雑であり、作業時間が掛かってしまうため、繁忙な作業員にとって実際には行えない場合がある。   In the technique described in Patent Document 3, when crack information is corrected, an operation of tracing one by one using a mouse or a pen input device is required. If the function of correcting crack information by such a trace operation is used, cracks of any pattern can be individually corrected one by one, but the operation is complicated and requires a long working time, so that it is busy. In some cases, it may not be possible for workers.

特許文献4には、構造物の画像に基づいてひび割れの識別処理を学習することが記載されているにすぎない。   Patent Literature 4 merely describes that a process of identifying a crack is learned based on an image of a structure.

以上のように構造物の表面に生じるひび割れの性状を的確に把握して点検結果を報告することを支援するための各種の装置が提案又は提供されてきたが、ひび割れ箇所の画像を解析してひび割れの画像解析結果をユーザに提示するためには、高額な装置が必要になるとともに、ひび割れ箇所の複数の画像を合成するためのユーザの負荷が大きいといった問題があった。   As described above, various devices have been proposed or provided to assist in accurately grasping the properties of cracks generated on the surface of the structure and reporting the inspection results, but by analyzing images of the cracked portions. In order to present the result of the image analysis of the crack to the user, there is a problem that an expensive device is required, and a user's load for synthesizing a plurality of images of the cracked portion is large.

本発明は、高額な装置を必要とせずにひび割れ箇所の画像を解析し、かつユーザの操作を煩雑にすることなくひび割れ箇所の合成画像及び画像解析結果を提示することを可能にするサーバ装置、画像処理システム及び画像処理方法を提供することを目的とする。   The present invention provides a server device that analyzes an image of a crack without requiring an expensive device, and that can present a composite image of a crack and an image analysis result without complicating a user's operation, It is an object to provide an image processing system and an image processing method.

上述した目的を達成するため、本発明の第1の態様に係るサーバ装置は、構造物の表面を示す複数の画像と、複数の画像の位置情報とを、ユーザ端末から受信する受信部と、受信された複数の画像及び位置情報に基づいて、構造物の表面を示す合成画像を生成する合成画像生成部と、合成画像または合成前の画像を画像解析して構造物の表面のひび割れを検出するひび割れ検出部と、検出されたひび割れに対応するひび割れ画像と検出されたひび割れの特徴量とを示すひび割れ情報を生成するひび割れ情報生成部と、を備える。   In order to achieve the above-described object, a server device according to a first aspect of the present invention includes a receiving unit that receives, from a user terminal, a plurality of images indicating a surface of a structure, and position information of the plurality of images. A composite image generation unit that generates a composite image showing the surface of the structure based on the received multiple images and position information, and detects cracks on the surface of the structure by analyzing the composite image or the image before the composition. And a crack information generating unit that generates crack information indicating a crack image corresponding to the detected crack and a characteristic amount of the detected crack.

本態様によれば、ユーザ端末から構造物の表面を示す複数の画像とその複数の画像の位置情報とを送信すると、サーバ装置により複数の画像及び画像の位置情報に基づいて合成画像が生成され、且つひび割れ情報が生成されるので、高額な装置を必要とせずにひび割れ箇所の画像を解析し、かつユーザの操作を煩雑にすることなくひび割れ箇所の合成画像及び画像解析結果を提示することが可能になる。また、本態様によれば、ユーザ端末から送信された画像及びその位置情報、更にはサーバ装置で生成された合成画像及びひび割れ情報を、蓄積してビッグデータ化することが可能になるので、そのビッグデータの二次利用により適切な合成画像及び適切な画像解析結果を導き出せるようにすることが可能になるとも言える。   According to this aspect, when a plurality of images indicating the surface of the structure and the position information of the plurality of images are transmitted from the user terminal, a composite image is generated by the server device based on the plurality of images and the position information of the images. In addition, since the crack information is generated, it is possible to analyze the image of the crack location without requiring an expensive device, and to present the composite image and the image analysis result of the crack location without complicating the operation of the user. Will be possible. Further, according to this aspect, the image transmitted from the user terminal and its position information, and further, the synthesized image and the crack information generated by the server device can be accumulated and converted into big data. It can be said that the secondary use of big data makes it possible to derive an appropriate composite image and an appropriate image analysis result.

本発明の第2の態様に係るサーバ装置では、合成画像とひび割れ情報とをユーザ端末に送信してユーザ端末の画面に合成画像とひび割れ情報とを表示させる送信部を備え、受信部は、ユーザ端末でのマニュアル操作に応じたひび割れ情報の修正要求をユーザ端末から受信し、ひび割れ情報生成部は、修正要求に基づいてひび割れ情報を修正し、送信部は、修正されたひび割れ情報をユーザ端末に送信する。本態様によれば、ユーザ端末の画面に合成画像及びひび割れ情報が表示され、その表示の内容に対してユーザがマニュアル操作を行った場合、そのマニュアル操作に応じた修正要求をサーバに蓄積することが可能になる。従って、より適切な画像解析結果を導き出せるように、サーバ装置での画像解析処理を改良することが容易になる。つまり、画像処理結果の修正のための煩雑なユーザ操作を減らしつつ、より適切な画像解析結果をユーザに対して提示することが可能になる。   The server device according to the second aspect of the present invention includes a transmission unit that transmits the composite image and the crack information to the user terminal and displays the composite image and the crack information on the screen of the user terminal. A request for correcting crack information according to the manual operation at the terminal is received from the user terminal, the crack information generating unit corrects the crack information based on the correction request, and the transmitting unit transmits the corrected crack information to the user terminal. Send. According to this aspect, the composite image and the crack information are displayed on the screen of the user terminal, and when the user performs a manual operation on the content of the display, a correction request corresponding to the manual operation is stored in the server. Becomes possible. Therefore, it is easy to improve the image analysis processing in the server device so that a more appropriate image analysis result can be derived. That is, it is possible to present a more appropriate image analysis result to the user while reducing complicated user operations for correcting the image processing result.

本発明の第3の態様に係るサーバ装置では、受信部は、ひび割れ情報の修正内容を特徴量で示した修正要求をユーザ端末から受信し、ひび割れ情報生成部は、修正要求で示された特徴量に基づいて、ひび割れ情報を修正する。本態様によれば、ひび割れの特徴量でひび割れ情報の修正要求を示すユーザ操作が可能になる。例えばトレース操作に基づいてひび割れ情報を一本ずつ修正する場合と比較して、簡易な操作でひび割れ情報を修正することが可能になる。   In the server device according to the third aspect of the present invention, the receiving unit receives, from the user terminal, a correction request indicating the content of the correction of the crack information in the form of a feature, and the crack information generating unit outputs the characteristic indicated by the correction request. Modify the crack information based on the amount. According to this aspect, it is possible to perform a user operation indicating a request for correcting crack information with the feature amount of the crack. For example, it is possible to correct the crack information by a simple operation as compared with a case where the crack information is corrected one by one based on the trace operation.

本発明の第4の態様に係るサーバ装置では、特徴量に対する合成画像中の線分の検出度数を示す度数分布と、特徴量でひび割れ情報の修正内容を指示入力するためのスライダとを、ひび割れ情報に付加し、ユーザ端末でのスライダを用いたユーザ操作に応じてひび割れ情報を修正する。本態様によれば、特徴量に対する線分の検出度数を見ながらスライダを操作するという簡易な操作で、ひび割れ情報を修正することが可能になる。   In the server device according to the fourth aspect of the present invention, the frequency distribution indicating the detection frequency of the line segment in the composite image with respect to the feature amount, and the slider for instructing and inputting the details of the correction of the crack information by the feature amount, In addition to the information, the crack information is corrected in accordance with a user operation using a slider on the user terminal. According to this aspect, it is possible to correct the crack information by a simple operation of operating the slider while watching the detection frequency of the line segment with respect to the feature amount.

本発明の第5の態様に係るサーバ装置では、ひび割れ情報生成部は、特徴量に基づいてひび割れ画像をグルーピングして、ユーザ端末でのひび割れ画像のグループを選択するマニュアル操作に応じてひび割れ情報を修正する。本態様によれば、ひび割れ画像のグループを選択するという簡易な操作で、ひび割れ情報を修正することが可能になる。   In the server device according to the fifth aspect of the present invention, the crack information generation unit groups the crack images based on the feature amount, and generates the crack information according to a manual operation of selecting a group of the crack images on the user terminal. Fix it. According to this aspect, it is possible to correct the crack information by a simple operation of selecting a group of crack images.

本発明の第6の態様に係るサーバ装置では、ユーザ端末でのマニュアル操作に基づいて、ひび割れの検出を機械学習する機械学習部を備える。本態様によれば、ユーザ端末でのマニュアル操作に基づいてひび割れの検出が機械学習されるので、画像解析結果を修正するための煩雑なユーザ操作を着実に減少させてゆくことが可能になる。   The server device according to the sixth aspect of the present invention includes a machine learning unit that machine-learns crack detection based on a manual operation at a user terminal. According to this aspect, since the detection of the crack is machine-learned based on the manual operation on the user terminal, it is possible to steadily reduce the complicated user operation for correcting the image analysis result.

本発明の第7の態様に係るサーバ装置では、特徴量は、ひび割れの方向、長さ、幅、エッジの強度、及びエッジの密度のうち少なくともいずれかを含む。   In the server device according to the seventh aspect of the present invention, the feature quantity includes at least one of a crack direction, a length, a width, an edge strength, and an edge density.

本発明の第8の態様に係る画像処理方法では、合成画像生成部は、複数の画像に対して、画像位置情報、縮尺、あおり及び回転角度のうち少なくとも一つの補正を行う。   In the image processing method according to the eighth aspect of the present invention, the composite image generation unit corrects at least one of image position information, scale, tilt, and rotation angle for a plurality of images.

本発明の第9の態様に係るサーバ装置では、合成画像生成部は、複数の画像に基づいて補正パラメータを導き出し、補正を行う。   In the server device according to the ninth aspect of the present invention, the composite image generation unit derives a correction parameter based on a plurality of images and performs correction.

本発明の第10の態様に係るサーバ装置では、ひび割れ情報に基づいて、ひび割れ画像によって示されるひび割れの幅をユーザ端末の画面上で測定するためのスケール画像を生成するスケール画像生成部を備え、ひび割れ情報生成部は、スケール画像をひび割れ情報に付加する。   The server device according to the tenth aspect of the present invention includes a scale image generation unit that generates a scale image for measuring the width of a crack indicated by the crack image on a screen of the user terminal based on the crack information, The crack information generation unit adds the scale image to the crack information.

本発明の第11の態様に係るサーバ装置では、少なくともひび割れ情報に基づいて、ひび割れの程度を評価し、構造物のひび割れ程度の評価区分を判別するひび割れ評価部を備える。   The server device according to the eleventh aspect of the present invention includes a crack evaluation unit that evaluates the degree of crack based on at least the crack information and determines an evaluation category of the degree of crack of the structure.

本発明の第12の態様に係るサーバ装置では、判別された評価区分を含む構造物の点検結果を示す帳票を作成する帳票作成部を備える。   The server device according to the twelfth aspect of the present invention includes a form creation unit that creates a form showing the inspection result of the structure including the determined evaluation category.

本発明の第13の態様に係るサーバ装置では、合成画像とひび割れ情報とを、予め決められたデータ形式のCADデータに変換するデータ変換部を備える。   The server device according to the thirteenth aspect of the present invention includes a data conversion unit that converts the composite image and the crack information into CAD data in a predetermined data format.

本発明の第14の態様に係るサーバ装置では、構造物の構造情報、環境条件情報、使用条件情報、維持管理履歴情報、及び災害履歴情報のうち少なくともひとつの情報と、ひび割れ情報とに基づいて、ひび割れの進行を予測する予測部を備える。   In the server device according to the fourteenth aspect of the present invention, based on at least one of structural information of a structure, environmental condition information, use condition information, maintenance management history information, and disaster history information, and the crack information. And a prediction unit for predicting the progress of cracks.

本発明の第15の態様に係る画像処理システムは、ユーザ端末及びサーバ装置を含む画像処理システムであって、ユーザ端末は、構造物の表面を示す複数の画像と、複数の画像の位置情報とを入力する端末入力部と、サーバ装置に対して、複数の画像及び位置情報を送信する端末送信部と、サーバ装置から、複数の画像に対する画像処理結果を受信する端末受信部と、画像処理結果を表示する端末表示部と、を備え、サーバ装置は、ユーザ端末から、複数の画像と位置情報とを受信するサーバ受信部と、受信された複数の画像及び位置情報に基づいて、構造物の表面を示す合成画像を生成する合成画像生成部と、合成画像または合成前の画像を画像解析して構造物の表面のひび割れを検出するひび割れ検出部と、検出されたひび割れに対応するひび割れ画像と検出されたひび割れの特徴量とを示すひび割れ情報を生成するひび割れ情報生成部と、複数の画像に対する画像処理結果として、合成画像とひび割れ情報とをユーザ端末に送信するサーバ送信部と、を備え、端末表示部は、合成画像とひび割れ情報とを表示する。   An image processing system according to a fifteenth aspect of the present invention is an image processing system including a user terminal and a server device, wherein the user terminal includes a plurality of images indicating a surface of a structure, and position information of the plurality of images. A terminal input unit that inputs a plurality of images and position information to the server device, a terminal receiving unit that receives image processing results for the plurality of images from the server device, and an image processing result. A server display unit that receives a plurality of images and position information from a user terminal, and a server device based on the received plurality of images and position information. A composite image generation unit that generates a composite image showing the surface, a crack detection unit that detects a crack on the surface of the structure by performing image analysis on the composite image or an image before synthesis, and a crack detection unit that responds to the detected crack. A crack information generation unit that generates crack information indicating a crack image and a feature amount of a detected crack, and a server transmission unit that transmits a composite image and crack information to a user terminal as an image processing result for a plurality of images, And the terminal display unit displays the composite image and the crack information.

本発明の第16の態様に係る画像処理方法では、構造物の表面を示す複数の画像と、複数の画像の位置情報とを、ユーザ端末から受信するステップと、受信された複数の画像及び画像位置情報に基づいて、構造物の表面を示す合成画像を生成するステップと、合成画像または合成前の画像を画像解析して構造物の表面のひび割れを検出するステップと、検出されたひび割れに対応するひび割れ画像と検出されたひび割れの特徴量とを示すひび割れ情報を生成するステップと、を含む。   In the image processing method according to a sixteenth aspect of the present invention, a step of receiving, from a user terminal, a plurality of images showing a surface of a structure and position information of the plurality of images, Generating a composite image showing the surface of the structure based on the position information; analyzing the composite image or an image before synthesis to detect cracks on the surface of the structure; and responding to the detected cracks Generating crack information indicating the cracked image to be cracked and the detected feature amount of the crack.

本発明よれば、高額な装置を必要とせずにひび割れ箇所の画像を解析し、かつユーザの操作を煩雑にすることなくひび割れ箇所の合成画像及び画像解析結果を提示することが可能になる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to analyze the image of a cracked part without requiring an expensive apparatus, and to present the composite image and the image analysis result of the cracked part without complicating the operation of the user.

図1は、本発明が適用される構造物の一例である橋梁を示す斜視図である。FIG. 1 is a perspective view showing a bridge which is an example of a structure to which the present invention is applied. 図2は、第1の実施形態における画像処理システムの構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration example of the image processing system according to the first embodiment. 図3は、度数分布及びスライダの第1の表示例を示す図である。FIG. 3 is a diagram showing a frequency distribution and a first display example of a slider. 図4は、度数分布及びスライダの第2の表示例を示す図である。FIG. 4 is a diagram showing a frequency distribution and a second display example of the slider. 図5は、度数分布及びスライダの第3の表示例を示す図である。FIG. 5 is a diagram showing a third distribution example of the frequency distribution and the slider. 図6は、度数分布及びスライダの第4の表示例を示す図である。FIG. 6 is a diagram showing a frequency distribution and a fourth display example of the slider. 図7は、ひび割れ画像を特徴量に基づいてグルーピングした場合の表示例を示す図である。FIG. 7 is a diagram illustrating a display example in the case where cracked images are grouped based on feature amounts. 図8は、第1実施形態における第1の画像処理例の流れを示すフローチャートである。FIG. 8 is a flowchart showing the flow of the first example of image processing in the first embodiment. 図9は、第1実施形態における第1の画像処理例の説明に用いる説明図である。FIG. 9 is an explanatory diagram used for describing a first example of image processing in the first embodiment. 図10は、複数の画像を並べる操作の説明に用いる説明図である。FIG. 10 is an explanatory diagram used for describing an operation of arranging a plurality of images. 図11は、合成画像及びひび割れ画像の表示例を示す図である。FIG. 11 is a diagram illustrating a display example of a composite image and a crack image. 図12は、ひび割れの進行モデルの一例を模式的に示す図である。FIG. 12 is a diagram schematically illustrating an example of a crack progressing model. 図13は、帳票としての損傷図の一例を示す図である。FIG. 13 is a diagram illustrating an example of a damage diagram as a form. 図14は、第1実施形態における第2の画像処理例の流れを示すフローチャートである。FIG. 14 is a flowchart illustrating the flow of the second image processing example according to the first embodiment. 図15は、第1実施形態における第3の画像処理例の流れを示すフローチャートである。FIG. 15 is a flowchart illustrating the flow of the third image processing example according to the first embodiment. 図16は、第1実施形態における第3の画像処理例の説明に用いる説明図である。FIG. 16 is an explanatory diagram used for describing a third image processing example in the first embodiment. 図17は、第1実施形態における第4の画像処理例の流れを示すフローチャートである。FIG. 17 is a flowchart illustrating the flow of the fourth image processing example according to the first embodiment. 図18は、第2の実施形態における画像処理システムの構成例を示すブロック図である。FIG. 18 is a block diagram illustrating a configuration example of an image processing system according to the second embodiment. ひび割れ画像のベクトル化の説明に用いる第1の説明図である。It is a 1st explanatory view used for description of vectorization of a crack image. ひび割れ画像のベクトル化の説明に用いる第2の説明図である。It is a 2nd explanatory view used for explanation of vectorization of a crack image. ひび割れ画像のベクトル化の説明に用いる第3の説明図である。It is the 3rd explanatory view used for description of vectorization of a crack image. ひび割れ画像のベクトル化の説明に用いる第4の説明図である。It is the 4th explanatory view used for explanation of vectorization of a crack image. ひび割れ画像のベクトル化の説明に用いる第5の説明図である。It is the 5th explanatory view used for description of vectorization of a crack image. ひび割れ画像のベクトル化の説明に用いる第6の説明図である。It is a 6th explanatory view used for explanation of vectorization of a crack image. スケール画像の表示例を示す図である。It is a figure showing the example of a display of a scale image.

以下、添付図面に従って、本発明に係るサーバ装置、画像処理システム及び画像処理方法を実施するための形態について説明する。   Hereinafter, embodiments for implementing a server device, an image processing system, and an image processing method according to the present invention will be described with reference to the accompanying drawings.

[構造物例]
図1は、本発明が適用される構造物の一例である橋梁の構造を示す斜視図である。図1に示す橋梁1は複数の主桁3を有し、主桁3同士は接合部3Aで接合されている。主桁3の上部には、コンクリート製の部材である床版2が打設されている。橋梁1は、床版2及び主桁3の他に、図示しない横桁、対傾構、及び横構等の部材を有する。
[Example of structure]
FIG. 1 is a perspective view showing a structure of a bridge which is an example of a structure to which the present invention is applied. The bridge 1 shown in FIG. 1 has a plurality of main girders 3, and the main girders 3 are joined at a joint 3A. On the upper part of the main girder 3, a floor slab 2 which is a member made of concrete is cast. The bridge 1 has, in addition to the floor slab 2 and the main girder 3, members (not shown) such as a horizontal girder, an inclined structure, and a horizontal structure.

尚、本発明における「構造物」は、橋梁に限定されない。構造物は、トンネル、ダム、建築物などでもよい。   The “structure” in the present invention is not limited to a bridge. The structure may be a tunnel, a dam, a building or the like.

[第1の実施形態]
図2は、第1の実施形態における画像処理システムの構成例を示すブロック図である。
[First Embodiment]
FIG. 2 is a block diagram illustrating a configuration example of the image processing system according to the first embodiment.

ユーザ端末10とサーバ装置20とにより、クライアントサーバ型の画像処理システムが構成される。実際には複数のユーザ端末10がネットワークNWに接続される。ユーザ端末10はユーザに対するフロントエンド処理を行うコンピュータ装置によって構成され、サーバ装置20は画像処理等のバックエンド処理を行うコンピュータ装置によって構成される。ユーザ端末10として、例えば、パーソナルコンピュータ、タブレット、スマートフォン等のコンピュータ装置を用いることができる。サーバ装置20は、複数のコンピュータ装置で構成してもよい。本例のサーバ装置20は、説明の便宜上、データベース50を含んで構成される。サーバ装置20とデータベース50とを異なる装置として設けてよい。   The user terminal 10 and the server device 20 constitute a client-server type image processing system. Actually, a plurality of user terminals 10 are connected to the network NW. The user terminal 10 is configured by a computer device that performs front-end processing for the user, and the server device 20 is configured by a computer device that performs back-end processing such as image processing. As the user terminal 10, for example, a computer device such as a personal computer, a tablet, and a smartphone can be used. The server device 20 may be composed of a plurality of computer devices. The server device 20 of this example is configured to include a database 50 for convenience of explanation. The server device 20 and the database 50 may be provided as different devices.

ユーザ端末10は、構造物の表面を示す複数の画像と、複数の画像の位置情報を含む画像合成に必要な情報とを入力する端末入力部11と、入力された複数の画像と画像合成に必要な情報とをサーバ装置20に対して送信する端末送信部12と、サーバ装置20から複数の画像に対する画像処理結果を受信する端末受信部13と、サーバ装置20の画像処理結果を表示する端末表示部14と、ユーザのマニュアル操作を受け付ける端末操作部15と、ユーザ端末10用のフロントエンドプログラムに従ってユーザ端末10の各部を制御する端末制御部16と、フロントエンドプログラムとそのフロントエンドプログラムの実行に必要な各種情報とを記憶する端末記憶部17とを備える。   The user terminal 10 includes a terminal input unit 11 for inputting a plurality of images showing the surface of the structure and information necessary for image synthesis including positional information of the plurality of images. A terminal transmitting unit 12 for transmitting necessary information to the server device 20, a terminal receiving unit 13 for receiving image processing results for a plurality of images from the server device 20, and a terminal for displaying the image processing results of the server device 20 A display unit 14, a terminal operation unit 15 for receiving a user's manual operation, a terminal control unit 16 for controlling each unit of the user terminal 10 according to a front end program for the user terminal 10, a front end program and execution of the front end program And a terminal storage unit 17 for storing various information required for the terminal.

端末入力部11は、例えば、無線通信又は有線通信により画像及び画像の位置情報を入力する通信デバイスにより構成することができる。メモリカード等の記憶媒体から画像を入力する記憶媒体インタフェースデバイスと、人から画像の位置情報の入力操作を受け付ける操作デバイスとを含んで、端末入力部11を構成してもよい。端末送信部12及び端末受信部13は、ネットワークNWを介して、サーバ装置20を含む他の装置と通信するための通信デバイスによって構成することができる。端末表示部14は、液晶表示デバイス等の表示デバイスによって構成することができる。端末操作部15は、キーボード、マウス、タッチパネル等の操作デバイスによって構成することができる。端末制御部16は、例えばCPU(central processing unit)によって構成することができる。端末記憶部17は、メモリデバイスによって構成することができる。   The terminal input unit 11 can be configured by, for example, a communication device that inputs an image and position information of the image by wireless communication or wired communication. The terminal input unit 11 may include a storage medium interface device that inputs an image from a storage medium such as a memory card, and an operation device that receives an input operation of position information of an image from a person. The terminal transmission unit 12 and the terminal reception unit 13 can be configured by a communication device for communicating with another device including the server device 20 via the network NW. The terminal display unit 14 can be configured by a display device such as a liquid crystal display device. The terminal operation unit 15 can be configured by operation devices such as a keyboard, a mouse, and a touch panel. The terminal control unit 16 can be configured by, for example, a CPU (central processing unit). The terminal storage unit 17 can be configured by a memory device.

サーバ装置20は、ユーザ端末10から複数の画像と複数の画像の位置情報を含む画像合成に必要な情報とを受信する受信部22と、サーバ装置20での画像処理結果をユーザ端末10に対して送信する送信部24と、複数の画像及び画像合成に必要な情報に基づいて、構造物の表面を示す合成画像を生成する合成画像生成部26と、合成画像または合成前の画像を画像解析して構造物の表面のひび割れを検出するひび割れ検出部28と、検出されたひび割れに対応するひび割れ画像と検出されたひび割れの特徴量とを示すひび割れ情報を生成するひび割れ情報生成部30と、ユーザ端末10でのユーザ操作に基づいて、ひび割れの検出を機械学習する機械学習部32と、を含んで構成される。送信部24は、合成画像とひび割れ情報とをユーザ端末10に送信して、ユーザ端末10の画面に合成画像とひび割れ情報とを表示させる。受信部22は、ユーザ端末10でのユーザ操作に応じたひび割れ情報の修正要求をユーザ端末10から受信する。ひび割れ情報生成部30は、修正要求に基づいてひび割れ情報を修正する。送信部24は、修正されたひび割れ情報をユーザ端末10に送信する。データベース50は、ユーザ端末10から受信した情報(複数の画像、画像合成に必要な情報、マニュアル操作情報等)と、サーバ装置20での画像処理結果(合成画像、ひび割れ情報等)とを関連付けて蓄積する。   The server device 20 receives, from the user terminal 10, a plurality of images and information necessary for image synthesis including positional information of the plurality of images, a receiving unit 22, and transmits an image processing result of the server device 20 to the user terminal 10. Transmitting section 24, a composite image generating section 26 for generating a composite image showing the surface of a structure based on a plurality of images and information necessary for image composition, and image analysis of the composite image or the image before the composition. A crack detection unit 28 that detects cracks on the surface of the structure, and a crack information generation unit 30 that generates crack information indicating a crack image corresponding to the detected crack and a characteristic amount of the detected crack. And a machine learning unit 32 that machine-learns crack detection based on a user operation on the terminal 10. The transmitting unit 24 transmits the synthesized image and the crack information to the user terminal 10 and causes the screen of the user terminal 10 to display the synthesized image and the crack information. The receiving unit 22 receives, from the user terminal 10, a request for correcting crack information according to a user operation on the user terminal 10. The crack information generation unit 30 corrects the crack information based on the correction request. The transmitting unit 24 transmits the corrected crack information to the user terminal 10. The database 50 associates information (a plurality of images, information necessary for image synthesis, manual operation information, etc.) received from the user terminal 10 with image processing results (synthesized images, crack information, etc.) in the server device 20. accumulate.

また、サーバ装置20は、生成されたひび割れ情報に基づいて、ひび割れ画像によって示されるひび割れの幅をユーザ端末10の画面上で測定するためのスケール画像を生成するスケール画像生成部34を備える。ひび割れ情報生成部30は、生成されたスケール画像をひび割れ情報に付加する。送信部24は、スケール画像が付加されたひび割れ情報をユーザ端末10に送信する。   In addition, the server device 20 includes a scale image generation unit 34 that generates a scale image for measuring the width of a crack indicated by the crack image on the screen of the user terminal 10 based on the generated crack information. The crack information generation unit 30 adds the generated scale image to the crack information. The transmitting unit 24 transmits the crack information to which the scale image has been added to the user terminal 10.

本例のサーバ装置20は、少なくともひび割れ情報に基づいて、ひび割れの程度を評価し、構造物のひび割れ程度の評価区分(以下「ランク情報」ともいう)を判別するひび割れ評価部36を備える。ひび割れ情報生成部30は、判別されたランク情報をひび割れ情報に付加する。送信部24は、ランク情報が付加されたひび割れ情報をユーザ端末10に送信する。   The server device 20 of the present example includes a crack evaluation unit 36 that evaluates the degree of cracking based on at least the crack information and determines an evaluation category (hereinafter, also referred to as “rank information”) of the degree of cracking of the structure. The crack information generating unit 30 adds the determined rank information to the crack information. The transmitting unit 24 transmits the crack information to which the rank information has been added to the user terminal 10.

更に、サーバ装置20は、合成画像とひび割れ情報とを予め決められたデータ形式のCAD(computer aided design)データに変換することによりCADデータを取得するCADデータ取得部38(「データ変換部」の一形態である)を備える。   Further, the server device 20 converts the composite image and the crack information into CAD (computer aided design) data in a predetermined data format, thereby obtaining CAD data. Which is one form).

更に、サーバ装置20は、判別されたひび割れ程度の評価区分を含む構造物の点検結果を示す帳票(以下「点検調書」ともいう)を作成する帳票作成部40を備える。送信部24は、作成された帳票をユーザ端末10に送信する。   Further, the server device 20 includes a form creation unit 40 that creates a form (hereinafter, also referred to as an “inspection record”) indicating the inspection result of the structure including the determined classification of the degree of cracking. The transmitting unit 24 transmits the created form to the user terminal 10.

また、サーバ装置20は、バックエンドプログラムとそのバックエンドプログラムの実行に必要な各種情報とを記憶する記憶部42を備える。   In addition, the server device 20 includes a storage unit 42 that stores a back-end program and various information necessary for executing the back-end program.

受信部22及び送信部24は、ネットワークNWを介して、ユーザ端末10を含む他の装置と通信するための通信デバイスによって構成することができる。合成画像生成部26、ひび割れ検出部28、ひび割れ情報生成部30、機械学習部32、スケール画像生成部34、ひび割れ評価部36、CADデータ取得部38、及び帳票作成部40は、例えばCPUによって構成することができる。複数のCPUにより構成してもよい。記憶部42は、メモリデバイスによって構成することができる。   The receiving unit 22 and the transmitting unit 24 can be configured by a communication device for communicating with another device including the user terminal 10 via the network NW. The synthetic image generation unit 26, the crack detection unit 28, the crack information generation unit 30, the machine learning unit 32, the scale image generation unit 34, the crack evaluation unit 36, the CAD data acquisition unit 38, and the form creation unit 40 are configured by, for example, a CPU. can do. It may be constituted by a plurality of CPUs. The storage unit 42 can be configured by a memory device.

ユーザ端末10からサーバ装置20に送信される画像の位置情報(以下「画像位置情報」ともいう)は、構造物の表面に対する各画像の位置関係を示す場合(つまり構造物の表面における複数の被撮像領域のそれぞれの位置を示す場合)と、複数の画像同士の相対的な位置関係を示す場合とがある。   The position information of an image transmitted from the user terminal 10 to the server device 20 (hereinafter also referred to as “image position information”) indicates a positional relationship of each image with respect to the surface of the structure (that is, a plurality of objects on the surface of the structure). There is a case where the position of each of the imaging regions is indicated) and a case where the relative positional relationship between a plurality of images is indicated.

<画像補正>
サーバ装置20の合成画像生成部26は、複数の画像を画像補正後に合成する。本例の合成画像生成部26は、複数の画像に基づいて補正パラメータを導き出し、複数の画像に対して補正を行うことができる。本例の合成画像生成部26は、複数の画像に対して次の画像補正1〜4のうち少なくとも一つの補正を行う機能を有する。
<Image correction>
The composite image generation unit 26 of the server device 20 composites a plurality of images after image correction. The composite image generation unit 26 of the present example can derive a correction parameter based on a plurality of images and perform correction on the plurality of images. The composite image generation unit 26 of the present example has a function of performing at least one of the following image corrections 1 to 4 on a plurality of images.

画像補正1(画像位置情報補正):複数の画像同士の相対的な位置関係を、被撮像面(例えば橋梁の床版)における複数の被撮像領域同士の相対的な位置関係にマッチングさせる画像処理である。つまり、不正確な画像位置情報をユーザ端末10から受信したと判定した場合、その不正確な画像位置情報をより正確な画像位置情報に補正する。例えば、画像中のひび割れをベクトル化したひび割れベクトルに基づいて、隣接する画像間を跨ぐひび割れが存在するのにそのひび割れ画像が隣接する画像間で離間していて繋がっていない場合、そのひび割れを隣接する画像間で繋がらせる。画像中の構造物の非ひび割れ(例えば構造物の模様)をベクトル化した非ひび割れベクトルに基づいて、本補正を行ってもよい。橋梁1の床版2の格間ごとに撮像する場合、画像中の格間の縁部に基づいて画像位置情報を補正してもよい。本例の合成画像生成部26は、最新の点検時の画像に基づいて画像位置情報補正を行う機能の他に、最新の点検時の画像と過去の点検時の画像(合成画像又は合成前の画像)に基づいて画像位置情報補正を行う機能を有する。これにより、不正確な画像位置情報を正確な画像位置情報に容易に補正することが可能である。正確な画像位置情報をユーザ端末10から受信したと判定した場合には、本補正を行わなくてよい。   Image correction 1 (image position information correction): Image processing for matching the relative positional relationship between a plurality of images with the relative positional relationship between a plurality of imaged regions on an imaged surface (for example, a bridge slab). It is. That is, when it is determined that incorrect image position information has been received from the user terminal 10, the incorrect image position information is corrected to more accurate image position information. For example, based on a crack vector obtained by vectorizing a crack in an image, if there is a crack straddling between adjacent images, but the crack image is separated between adjacent images and is not connected, the crack is adjacent. To connect the images. This correction may be performed based on a non-crack vector obtained by vectorizing a non-crack (for example, a pattern of a structure) of a structure in the image. When an image is taken for each crest of the floor slab 2 of the bridge 1, the image position information may be corrected based on the crimper edge in the image. The composite image generation unit 26 of the present example has a function of performing image position information correction based on the latest image at the time of inspection, as well as an image at the time of the latest inspection and an image at the time of the past inspection (the composite image or the image before synthesis). Image) based on the image. This makes it possible to easily correct incorrect image position information to accurate image position information. If it is determined that accurate image position information has been received from the user terminal 10, this correction need not be performed.

画像補正2(縮尺補正):複数の画像の縮尺を一致させる画像処理(「拡縮」ともいう)である。つまり、撮像装置60から構造物の被撮像面までの距離が不一致である複数の画像をユーザ端末10から受信したと判定した場合、その被撮像面までの距離がより一致した複数の画像(「一定距離の画像」ともいう)に補正する。画像に距離情報が関連付けられている場合、その距離情報に基づいて拡縮すればよい。例えば、画像中のひび割れをベクトル化したひび割れベクトルに基づいて、隣接する画像間を跨ぐ複数のひび割れが存在するのにひび割れ画像の間隔が隣接する画像間で一致していない場合、その複数のひび割れ画像の間隔を隣接する画像間で一致させる画像処理が挙げられる。画像中の構造物の非ひび割れ(例えば構造物の模様)をベクトル化した非ひび割れベクトルに基づいて、補正してもよい。橋梁1の床版2の格間ごとに撮像する場合、画像中の格間の縁部に基づいて縮尺補正を行ってもよい。本例の合成画像生成部26は、最新の点検時の画像に基づいて縮尺補正を行う機能の他に、最新の点検時の画像と過去の点検時の画像(合成画像又は合成前の画像)に基づいて縮尺補正を行う機能を有する。一定距離で分割撮像を行った場合には、本補正を行わなくてよい。   Image correction 2 (scale reduction): Image processing for matching the scales of a plurality of images (also referred to as “enlargement / reduction”). That is, when it is determined that a plurality of images having different distances from the imaging device 60 to the imaging surface of the structure have been received from the user terminal 10, a plurality of images whose distances to the imaging surface are more consistent ("" (Also referred to as "an image at a fixed distance"). When distance information is associated with an image, the image may be enlarged or reduced based on the distance information. For example, based on a crack vector obtained by vectorizing cracks in an image, if there are multiple cracks straddling between adjacent images, but the intervals between the cracked images do not match between the adjacent images, the plurality of cracks Image processing for matching the interval between images between adjacent images is exemplified. The non-crack of the structure in the image (for example, the pattern of the structure) may be corrected based on the vectorized non-crack vector. When an image is taken for each crest of the floor slab 2 of the bridge 1, the scale correction may be performed based on the crimper edges in the image. The composite image generation unit 26 of the present example has a function of performing scale correction based on the latest inspection image, a latest inspection image and a past inspection image (a composite image or an image before combination). Has the function of performing scale correction based on When the divided imaging is performed at a fixed distance, the main correction need not be performed.

画像補正3(あおり補正):複数の画像のそれぞれのあおりを補正する画像処理である。つまり、撮像装置の撮像方向に対する構造物の被撮像面の傾き角度が不一致である複数の画像をユーザ端末10から受信したと判定した場合、その被撮像面の傾き角度がより一致した複数の画像(「一定傾き角度の画像」ともいう)に補正する。画像に傾き角度情報が関連付けられている場合、その傾き角度情報に基づいてあおり補正を行えばよい。例えば、画像中のひび割れをベクトル化したひび割れベクトルに基づいて、ひび割れの方向をマッチングさせる。画像中の構造物の非ひび割れ(例えば構造物の模様)をベクトル化した非ひび割れベクトルに基づいて、補正してもよい。橋梁1の床版2の格間ごとに撮像する場合、画像中の格間の縁部に基づいてあおり補正を行ってもよい。本例の合成画像生成部26は、最新の点検時の画像に基づいてあおり補正を行う機能の他に、最新の点検時の画像と過去の点検時の画像(合成画像又は合成前の画像)に基づいてあおり補正を行う機能を有する。一定傾き角度で分割撮像を行った場合には、本補正を行わなくてよい。   Image correction 3 (tilt correction): Image processing for correcting the tilt of each of a plurality of images. That is, when it is determined that a plurality of images in which the inclination angles of the imaging surface of the structure with respect to the imaging direction of the imaging device do not match are received from the user terminal 10, the plurality of images in which the inclination angles of the imaging surfaces are more consistent. (Also referred to as an “image with a constant tilt angle”). When tilt angle information is associated with an image, tilt correction may be performed based on the tilt angle information. For example, the direction of the crack is matched based on a crack vector obtained by vectorizing the crack in the image. The non-crack of the structure in the image (for example, the pattern of the structure) may be corrected based on the vectorized non-crack vector. When an image is taken for each crest of the floor slab 2 of the bridge 1, a tilt correction may be performed based on the crimper edge in the image. The composite image generation unit 26 of the present example has a function of performing a tilt correction based on the latest image at the time of inspection, an image at the latest inspection and an image at the time of the past inspection (a composite image or an image before combination). Has a function of performing tilt correction based on When the divided imaging is performed at a fixed inclination angle, the main correction need not be performed.

画像補正4(回転角度補正):複数の画像のそれぞれの被撮像面に対する回転角度を補正する画像処理である。つまり、構造物の被撮像面に対する撮像装置の撮像方向回りの回転角度(「方位角」ともいう)が不一致である複数の画像をユーザ端末10から受信したと判定した場合、その被撮像面に対する回転角度がより一致した複数の画像(「一定回転角度の画像」ともいう)に補正する。画像に回転角度情報が関連付けられている場合、その回転角度情報に基づいて回転を行えばよい。例えば、画像中のひび割れをベクトル化したひび割れベクトルに基づいて、ひび割れの方向をマッチングさせる。画像中の構造物の非ひび割れ(例えば構造物の模様)をベクトル化した非ひび割れベクトルに基づいて、補正してもよい。橋梁1の床版2の格間ごとに撮像する場合、画像中の格間の縁部に基づいて回転角度補正を行ってもよい。本例の合成画像生成部26は、最新の点検時の画像に基づいて回転角度補正を行う機能の他に、最新の点検時の画像と過去の点検時の画像(合成画像又は合成前の画像)に基づいて回転角度補正を行う機能を有する。一定回転角度で分割撮像を行った場合には、本補正を行わなくてよい。   Image correction 4 (rotation angle correction): Image processing for correcting the rotation angle of each of a plurality of images with respect to the imaging surface. That is, when it is determined that a plurality of images in which the rotation angles (also referred to as “azimuth angles”) of the imaging device with respect to the imaging surface with respect to the imaging surface of the structure do not match are received from the user terminal 10, The images are corrected to a plurality of images whose rotation angles are more consistent (also referred to as “images with a constant rotation angle”). When rotation angle information is associated with an image, rotation may be performed based on the rotation angle information. For example, the direction of the crack is matched based on a crack vector obtained by vectorizing the crack in the image. The non-crack of the structure in the image (for example, the pattern of the structure) may be corrected based on the vectorized non-crack vector. When an image is taken for each crest of the floor slab 2 of the bridge 1, the rotation angle may be corrected based on the crimper edge in the image. The composite image generation unit 26 of the present example has a function of performing the rotation angle correction based on the latest image at the time of inspection, and also has the latest image at the time of inspection and the image at the time of the past inspection (the composite image or the image before synthesis). ) Has the function of correcting the rotation angle based on the above. When the divided imaging is performed at a fixed rotation angle, the main correction need not be performed.

<ひび割れ情報の一括修正>
ユーザ端末10でのユーザ操作に応じて本例のサーバ装置20のひび割れ情報生成部30で行うひび割れ情報の修正処理について、説明する。
<Batch correction of crack information>
A description will be given of a process of correcting crack information performed by the crack information generation unit 30 of the server device 20 according to the present embodiment in response to a user operation on the user terminal 10.

本例のサーバ装置20のひび割れ情報生成部30は、ユーザ端末10でユーザが指示したひび割れの特徴量に基づいて、複数のひび割れに関して一括してひび割れ情報を修正する機能(以下「一括修正」という)を有する。サーバ装置20の受信部22は、ひび割れ情報の修正内容をひび割れの特徴量で示した修正要求を、ユーザ端末10から受信する。サーバ装置20のひび割れ情報生成部30は、修正要求で示された特徴量に基づいて、ひび割れ情報を修正する。このような特徴量に基づいたひび割れ情報の修正(一括修正)の態様として、各種の態様が挙げられる。   The crack information generation unit 30 of the server device 20 of the present embodiment corrects the crack information for a plurality of cracks at once based on the feature amount of the crack designated by the user at the user terminal 10 (hereinafter referred to as “collective correction”). ). The receiving unit 22 of the server device 20 receives, from the user terminal 10, a correction request in which the content of the correction of the crack information is indicated by the characteristic amount of the crack. The crack information generation unit 30 of the server device 20 corrects the crack information based on the feature indicated by the correction request. Various modes can be cited as modes for correcting (collective correction) of crack information based on such feature amounts.

第1の一括修正の態様として、ユーザ端末10の画面に表示させたスライダを用いたマニュアル操作(以下「スライド操作」という)に応じて一括修正を行う態様が挙げられる。本態様のひび割れ情報生成部30は、特徴量に対する合成画像中の線分(以下「線状パターン」ともいう)の検出度数を示す度数分布(「ヒストグラム」ともいう)と、特徴量でひび割れ情報の修正内容を指示入力するためのスライダとを、ユーザ端末10に対して送信されるひび割れ情報に付加し、ユーザ端末10でのスライダを用いた操作に応じて、ひび割れ情報を修正する。   As a first batch correction mode, there is a mode in which batch correction is performed in response to a manual operation using a slider displayed on the screen of the user terminal 10 (hereinafter, referred to as “slide operation”). The crack information generation unit 30 according to the present embodiment includes a frequency distribution (also referred to as a “histogram”) indicating the detection frequency of a line segment (hereinafter also referred to as a “linear pattern”) in the composite image with respect to the feature amount, and the crack information by the feature amount. Is added to the crack information transmitted to the user terminal 10, and the crack information is corrected according to the operation of the user terminal 10 using the slider.

図3は、度数分布及びスライダの第1の表示例を示す図である。本例では、ユーザ端末10の画面に表示された合成画像IMG1上に、検出されたひび割れを示すひび割れ画像CR1、CR2、CR3、CR4を表示させる。更に、合成画像IMG1の近傍に、特徴量に対する合成画像IMG1中の線分(ひび割れ候補である)の検出度数を示す度数分布HG1(ヒストグラム)と、特徴量でひび割れ情報の修正内容を指示入力するためのスライダSL1とを表示させる。度数分布HG1のy方向(画面の上下方向)がひび割れ候補である線分の特徴量を示し、度数分布HG1のx方向(画面の左右方向)がひび割れ候補である線分の度数を示す。スライダSL1は、合成画像IMG1中の線分がひび割れであるか否かの判定基準を調節するためのスライド式のGUI(graphical user interface)である。本例のスライダSL1は一本のバーBR1を有し、その一本のバーBR1の表示位置を基準にして、度数分布HG1のうちのひび割れ対象領域AR1が決まる。図3の上下方向(x方向)において、度数分布HG1のうち、バーBR1の表示位置よりも上の領域がひび割れ対象領域AR1であり、そのひび割れ対象領域AR1内の特徴量を持つ線分が「ひび割れ」として検出される。   FIG. 3 is a diagram showing a frequency distribution and a first display example of a slider. In this example, crack images CR1, CR2, CR3, and CR4 indicating the detected cracks are displayed on the composite image IMG1 displayed on the screen of the user terminal 10. Further, in the vicinity of the composite image IMG1, a frequency distribution HG1 (histogram) indicating the frequency of detection of a line segment (a crack candidate) in the composite image IMG1 with respect to the characteristic amount, and a correction content of the crack information are input by the characteristic amount. Is displayed. The y direction (vertical direction of the screen) of the frequency distribution HG1 indicates the feature amount of the line segment that is a crack candidate, and the x direction (the horizontal direction of the screen) of the frequency distribution HG1 indicates the frequency of the line segment that is a crack candidate. The slider SL1 is a slide-type GUI (graphical user interface) for adjusting a criterion for determining whether or not a line segment in the composite image IMG1 is cracked. The slider SL1 of this example has one bar BR1, and the crack target area AR1 in the frequency distribution HG1 is determined based on the display position of the one bar BR1. In the vertical direction (x direction) of FIG. 3, in the frequency distribution HG1, an area above the display position of the bar BR1 is a crack target area AR1, and a line segment having a feature amount in the crack target area AR1 is “ It is detected as "crack".

図4は、度数分布及びスライダの第2の表示例を示す図である。本例のスライダSL2は二本のバーBR21、BR22を有し、その二本のバーBR21、BR22の表示位置を基準にしてひび割れ対象領域AR2が決まる。図4のy方向(画面の上下方向)において、度数分布HG1のうち二本のバーBR21、BR22で挟まれた領域がひび割れ対象領域AR2であり、そのひび割れ対象領域AR2内の特徴量を持つ線分が「ひび割れ」として検出される。   FIG. 4 is a diagram showing a frequency distribution and a second display example of the slider. The slider SL2 of this example has two bars BR21 and BR22, and the crack target area AR2 is determined based on the display positions of the two bars BR21 and BR22. In the y direction of FIG. 4 (vertical direction of the screen), a region between the two bars BR21 and BR22 in the frequency distribution HG1 is a crack target region AR2, and a line having a feature amount in the crack target region AR2. Minutes are detected as "cracks".

図5は、度数分布及びスライダの第3の表示例を示す図である。本例では、二つのスライダSL1、SL2を表示して、複数の特徴量に基づいて、ひび割れ対象領域AR1、AR2を選択入力することができる。   FIG. 5 is a diagram showing a third distribution example of the frequency distribution and the slider. In this example, two sliders SL1 and SL2 are displayed, and the crack target areas AR1 and AR2 can be selectively input based on a plurality of feature amounts.

図6は、度数分布及びスライダの第4の表示例を示す図である。本例では、チェックボックスBX1,BX2,BX3を表示して、損傷の種類を選択入力することができる。   FIG. 6 is a diagram showing a frequency distribution and a fourth display example of the slider. In this example, check boxes BX1, BX2, and BX3 are displayed, and the type of damage can be selected and input.

特徴量は、ひび割れの方向、長さ、幅、エッジの強度、及びエッジの密度のうち少なくともいずれかを含む。他の特徴量でもよい。ひび割れ情報生成部30は、度数分布(ヒストグラム)とスライダとをひび割れ情報に付加し、ユーザ端末10でのスライダを用いたマニュアル操作に応じて、ひび割れ情報を修正する。   The feature quantity includes at least one of a crack direction, a length, a width, an edge strength, and an edge density. Other feature values may be used. The crack information generation unit 30 adds a frequency distribution (histogram) and a slider to the crack information, and corrects the crack information according to a manual operation of the user terminal 10 using the slider.

以上のように、特徴量(ひび割れ検出部28により検出された線分の特徴量である)に対する線分の検出度数を示す度数分布と、特徴量でひび割れ情報の修正内容を指示入力するためのスライダとを、ひび割れ情報に付加し、ユーザ端末10でのスライダを用いたスライド操作に応じてひび割れ情報を修正することにより、簡易な操作でより精度が高いひび割れ情報に修正することが可能になる。   As described above, the frequency distribution indicating the detection frequency of the line segment with respect to the characteristic amount (which is the characteristic amount of the line segment detected by the crack detection unit 28), and the instruction for inputting the correction content of the crack information by the characteristic amount By adding a slider to the crack information and correcting the crack information according to the sliding operation using the slider on the user terminal 10, it is possible to correct the crack information with higher accuracy by a simple operation. .

第2に、ユーザ端末10の画面に表示させたひび割れ画像に対するグループ選択操作に応じて一括修正を行う態様が挙げられる。本態様のひび割れ情報生成部30は、特徴量に基づいてひび割れ画像をグルーピングし、ユーザ端末10でのひび割れ画像のグループを選択するマニュアル操作に応じてひび割れ情報を修正する。   Second, there is a mode in which batch correction is performed in response to a group selection operation on a cracked image displayed on the screen of the user terminal 10. The crack information generation unit 30 according to the present embodiment groups crack images based on the feature amount, and corrects the crack information according to a manual operation of selecting a group of crack images on the user terminal 10.

図7は、ひび割れ画像を方向(特徴量の一形態である)に基づいてグルーピングしてグループ毎に異なる線種で表示した例を示す。本例では、同一方向及び類似方向の複数のひび割れ画像(ひび割れ検出部28によりひび割れとして検出された線分に対応する画像である)で一つのグループを形成した。第1のグループG1のひび割れ画像を実線で表示させ、第2のグループG2のひび割れ画像を破線で表示させ、第3のグループG3のひび割れ画像を一点鎖線で表示させている。尚、図示の都合上、グループ毎に異なる線種で表示させた場合を例示したが、グループ毎に異なる色で表示させてもよい。   FIG. 7 shows an example in which cracked images are grouped based on directions (one form of feature amount) and displayed with different line types for each group. In this example, one group is formed of a plurality of crack images in the same direction and similar directions (images corresponding to line segments detected as cracks by the crack detection unit 28). The crack image of the first group G1 is displayed by a solid line, the crack image of the second group G2 is displayed by a broken line, and the crack image of the third group G3 is displayed by an alternate long and short dash line. In addition, for convenience of illustration, the case where the line type is displayed for each group is illustrated, but the display may be performed in a different color for each group.

ユーザは、ユーザ端末10の画面の表示を見て、削除対象のグループのうち少なくとも一本のひび割れ画像を囲うタッチ操作を行う。そうすると囲まれたひび割れ画像の方向に基づいて、そのひび割れ画像が属するグループ内の全てのひび割れ画像(同一方向及び類似方向のひび割れ画像である)が一括して消去される。同時に、選択されたグループのひび割れ情報がサーバ装置20で削除される。図7に示す例では、タッチ操作で囲われた選択領域ARに含まれる同一グループのひび割れ画像が画面から消去され、かつ同一グループのひび割れ情報が削除される。   The user looks at the display on the screen of the user terminal 10 and performs a touch operation surrounding at least one cracked image in the group to be deleted. Then, based on the direction of the enclosed cracked image, all the cracked images in the group to which the cracked image belongs (cracked images in the same direction and a similar direction) are collectively erased. At the same time, the server 20 deletes the crack information of the selected group. In the example shown in FIG. 7, the crack image of the same group included in the selection area AR surrounded by the touch operation is deleted from the screen, and the crack information of the same group is deleted.

ひび割れ画像を囲う操作ではなくて、削除対象のグループをユーザに直接的に選択させてもよい。例えば、図7の点線表示された第2のグループG2のひび割れ情報を削除する場合、「点線」を選択する操作をユーザ端末10で受け付ける。グループ毎に異なる色でひび割れ画像を表示させた場合には、色(例えば「赤」)を選択する操作を受け付ける。グループの識別情報(例えばグループ番号)を選択する操作を受け付けてもよい。   Instead of the operation surrounding the cracked image, the user may directly select the group to be deleted. For example, when deleting the crack information of the second group G2 indicated by the dotted line in FIG. 7, the user terminal 10 accepts the operation of selecting the “dotted line”. When a cracked image is displayed in a different color for each group, an operation of selecting a color (for example, “red”) is accepted. An operation of selecting group identification information (for example, a group number) may be accepted.

また、ひび割れ情報の「削除」に限らず、ひび割れ情報の「追加」、「増加」及び「減少」の操作を受け付けることが好ましい。   In addition, it is preferable to accept not only “deletion” of crack information but also “add”, “increase”, and “decrease” operations of crack information.

以上のように、特徴量に基づいてひび割れ画像をグルーピングし、ユーザ端末10でのひび割れ画像のグループを選択するユーザ操作に応じてひび割れ情報を修正することにより、簡易な操作でより精度が高いひび割れ情報に修正することが可能になる。   As described above, the crack images are grouped based on the feature amounts, and the crack information is corrected in accordance with the user operation of selecting the group of the crack images on the user terminal 10, so that the crack is more highly accurate with a simple operation. The information can be corrected.

<機械学習>
サーバ装置20の機械学習部32は、例えば人工知能によって構成される。人工知能として、例えば人工ニューラルネットワークを用いてもよいし、他の公知の人工知能を用いてもよい。ただし、本発明は機械学習部32として人工知能を用いない場合(例えば単なる検索手段を用いて情報を取得する場合)にも適用可能であり、また機械学習部32を省略することも可能である。
<Machine learning>
The machine learning unit 32 of the server device 20 is configured by, for example, artificial intelligence. As the artificial intelligence, for example, an artificial neural network may be used, or another known artificial intelligence may be used. However, the present invention can be applied to a case where artificial intelligence is not used as the machine learning unit 32 (for example, a case where information is acquired using a simple search unit), and the machine learning unit 32 can be omitted. .

機械学習部32は、第1の学習として、ユーザ端末10でのユーザ操作に基づいて、ひび割れの検出を機械学習する。本例の機械学習部32は、少なくとも、ユーザ端末10でのひび割れ情報の編集のためのユーザ操作の履歴と、データベース50に記憶された画像(合成画像又は合成前の画像である)と、データベース50に記憶されたひび割れ情報とに基づいて、ひび割れの検出を機械学習する。   The machine learning unit 32 performs machine learning on crack detection based on a user operation on the user terminal 10 as first learning. The machine learning unit 32 of this example includes at least a history of a user operation for editing crack information on the user terminal 10, an image stored in the database 50 (a synthesized image or an image before synthesis), and a database Machine detection of cracks is machine-learned based on the crack information stored in 50.

本例の機械学習部32は、データベース50に記憶されたひび割れ情報に関する操作履歴に基づいて、データベース50に記憶された編集履歴(ひび割れ情報の修正の内容を示す履歴である)のうちから学習すべき編集履歴を特定し、特定された編集履歴と、その特定された編集履歴に対応する合成画像及びひび割れ情報とに基づいて、合成画像(又は合成前の画像)から検出すべきひび割れの特徴量を機械学習する。つまり、ひび割れ検出部28のひび割れ検出で用いるモデルを更新する。   The machine learning unit 32 of this example learns from the editing history (a history indicating the content of the correction of the crack information) stored in the database 50 based on the operation history regarding the crack information stored in the database 50. An editing history to be specified, and a characteristic amount of a crack to be detected from a synthesized image (or an image before synthesis) based on the specified editing history and a synthesized image and crack information corresponding to the specified editing history. Machine learning. That is, the model used for crack detection by the crack detection unit 28 is updated.

尚、本例のひび割れ情報生成部30は、前述のようにひび割れ情報の修正指示を特徴量単位で受け付ける「一括修正」の機能を有する。そこで本例の機械学習部32は、ユーザ端末10での特徴量単位のユーザ操作の履歴と、合成画像及びひび割れ情報との対応関係に基づいて、ひび割れ検出を機械学習する。合成前の画像を画像解析してひび割れを検出する場合には、特徴量単位の操作の履歴と合成前の画像及びひび割れ情報との対応関係に基づいて機械学習する。   Note that the crack information generation unit 30 of the present example has a function of “batch correction” for receiving a crack information correction instruction in units of feature amounts as described above. Therefore, the machine learning unit 32 of the present example machine-learns crack detection based on the correspondence between the user operation history of the feature amount unit on the user terminal 10 and the synthesized image and the crack information. When cracks are detected by image analysis of an image before combining, machine learning is performed based on the correspondence between the operation history of the feature amount unit and the image before combining and the crack information.

また、機械学習部32は、第2の学習として、ユーザ端末10でのユーザ操作に基づいて、画像補正を機械学習する。本例の機械学習部32は、少なくとも、ユーザ端末10での画像補正のためのユーザ操作の履歴と、データベース50に記憶された画像(補正前の画像及び補正後の画像である)とに基づいて、画像補正を機械学習する。   Further, the machine learning unit 32 performs the machine learning of the image correction based on the user operation on the user terminal 10 as the second learning. The machine learning unit 32 of this example is based on at least a history of a user operation for image correction on the user terminal 10 and images stored in the database 50 (an image before correction and an image after correction). Machine learning of image correction.

本例の機械学習部32は、データベース50に記憶された画像補正の操作履歴に基づいて、データベース50に記憶された画像補正履歴(画像の補正の内容を示す履歴である)のうちから学習すべき画像補正履歴を特定し、特定された画像補正履歴と、その特定された画像補正履歴に対応する補正前の画像及び補正後の画像(合成画像でよい)とに基づいて、補正前の画像と画像補正の内容との対応関係を機械学習する。つまり、合成画像生成部26の画像補正で用いるモデルを更新する。   The machine learning unit 32 of the present example learns from the image correction history (a history indicating the content of the image correction) stored in the database 50 based on the operation history of the image correction stored in the database 50. The image correction history to be specified is specified, and the image before correction is determined based on the specified image correction history and the image before correction and the corrected image (may be a composite image) corresponding to the specified image correction history. Machine learning of the correspondence between the image and the contents of the image correction. That is, the model used in the image correction of the composite image generation unit 26 is updated.

尚、本例の合成画像生成部26は、前述のように画像位置情報補正、縮尺補正、あおり補正及び回転角度補正の機能を有する。そこで本例の機械学習部32は、ユーザ端末10での画像位置情報補正、縮尺補正、あおり補正又は回転角度補正のためのユーザ操作の履歴と、補正前の画像及び補正後の画像(合成画像でよい)との対応関係に基づいて、画像補正を機械学習する。   Note that the composite image generation unit 26 of this example has functions of image position information correction, scale correction, tilt correction, and rotation angle correction as described above. Therefore, the machine learning unit 32 of this example includes a user operation history for image position information correction, scale reduction, tilt correction, or rotation angle correction at the user terminal 10 and an image before correction and an image after correction (synthesized image). Machine learning of image correction based on the correspondence relationship with

人工知能技術の進歩が著しく、優秀な人の頭脳を超える画像解析を行い得る人工知能が期待されている。ただし、未学習の事象の発生時(例えば学習初期段階)には修正操作が必要になる場合がある。従って、機械学習部32として人工知能を採用した場合でも、前述の「一括修正」のように、簡易なユーザ操作でひび割れ情報を編集する機能を、機械学習機能と併せてサーバ装置20に実装することが好ましい。   2. Description of the Related Art Artificial intelligence technology has advanced remarkably, and artificial intelligence capable of performing image analysis beyond the brains of excellent humans is expected. However, when an unlearned event occurs (for example, in the initial stage of learning), a correction operation may be required. Therefore, even when artificial intelligence is employed as the machine learning unit 32, a function of editing crack information by a simple user operation, such as the above-described “batch correction”, is implemented in the server device 20 together with the machine learning function. Is preferred.

<第1の画像処理例>
図8は、第1実施形態における第1の画像処理例の流れを示すフローチャートである。
<First Example of Image Processing>
FIG. 8 is a flowchart showing the flow of the first example of image processing in the first embodiment.

本図の左側のフロントエンド処理はユーザ端末10の端末記憶部17に記憶されたプログラム(フロントエンドプログラム)に従ってユーザ端末10で開始される(ステップS2)。また、本図の右側のバックエンド処理は、サーバ装置20の記憶部42に記憶されたプログラム(バックエンドプログラム)に従ってサーバ装置20で開始される(ステップS4)。   The front end process on the left side of the figure is started by the user terminal 10 according to a program (front end program) stored in the terminal storage unit 17 of the user terminal 10 (step S2). Further, the back-end processing on the right side of the figure is started by the server device 20 according to a program (back-end program) stored in the storage unit 42 of the server device 20 (step S4).

本例では、図9に示すように点検現場で撮像装置60により得られた複数の画像が事務所のユーザ端末10に入力され(ステップS6)、且つ点検現場でユーザにより野帳に記入された画像位置情報が事務所のユーザ端末10に入力される(ステップS8)。   In this example, as shown in FIG. 9, a plurality of images obtained by the imaging device 60 at the inspection site are input to the user terminal 10 in the office (step S6), and are entered in the field book by the user at the inspection site. The image position information is input to the office user terminal 10 (step S8).

複数の画像は、撮像装置60により橋梁の床版の格間を複数に分割撮像して得られる。これらの複数の画像は、例えば有線通信又は近距離無線通信を用いて、端末入力部11により入力する。メモリカード等の記憶媒体から入力してもよい。撮像装置60からネットワークNW上の図示しない記憶デバイスに複数の画像をアップロードし、その記憶デバイスからネットワークNWを介して複数の画像を入力してもよい。   The plurality of images are obtained by dividing and photographing the space between the decks of the bridge into a plurality by the imaging device 60. The plurality of images are input by the terminal input unit 11 using, for example, wired communication or short-range wireless communication. It may be input from a storage medium such as a memory card. A plurality of images may be uploaded from the imaging device 60 to a storage device (not shown) on the network NW, and the plurality of images may be input from the storage device via the network NW.

野帳には、ユーザが橋梁の床版を目視して得た情報が記入されている。図示を省略した計測器を用いて計測した情報を野帳に記入してもよい。以下の説明では、少なくとも、橋梁の床版に対する複数の画像の位置関係を示す手書きの情報(手書きの画像位置情報)が、野帳に記入されているものとする。   In the field note, information obtained by the user by looking at the floor slab of the bridge is entered. Information measured using a measuring device (not shown) may be written in a field note. In the following description, it is assumed that at least handwritten information (handwritten image position information) indicating the positional relationship between the plurality of images with respect to the floor slab of the bridge has been entered in the field notebook.

橋梁の床版を表したCAD(computer aided design)図面が作成済である場合、そのCAD図面を端末表示部14に表示させて、その表示されたCAD図面中の床版の格間の被撮影位置に対して各画像を嵌め込むマニュアル操作を端末操作部15により受け付ける。このようなマニュアル操作に応じて、CAD図面中の床版の基準位置に対する各画像の位置関係を示す画像位置情報が入力される。   If a CAD (computer aided design) drawing representing the floor slab of the bridge has been created, the CAD drawing is displayed on the terminal display unit 14, and the crest of the floor slab in the displayed CAD drawing is captured. A manual operation for fitting each image to the position is received by the terminal operation unit 15. In response to such a manual operation, image position information indicating the positional relationship of each image with respect to the reference position of the floor slab in the CAD drawing is input.

橋梁の床版を表したCAD図面が未作成である場合、図10に示すように、端末表示部14の画面上で複数の画像を並べるマニュアル操作を端末操作部15により受け付ける。このようなマニュアル操作に応じて、複数の画像同士の相対的な位置関係を示す画像位置情報が入力される。この態様では、サーバ装置20において、複数の画像同士の相対的な位置関係を、床版の基準位置に対する各画像の位置関係に変換することが、好ましい。隣接する画像同士の共通部分を重ね合わせるマニュアル操作を受け付けてもよい。   When a CAD drawing representing a floor slab of a bridge has not been created, a manual operation of arranging a plurality of images on the screen of the terminal display unit 14 is received by the terminal operation unit 15 as shown in FIG. In response to such a manual operation, image position information indicating a relative positional relationship between a plurality of images is input. In this aspect, it is preferable that the server device 20 converts the relative positional relationship between the plurality of images into the positional relationship of each image with respect to the reference position of the floor slab. A manual operation of superimposing a common part between adjacent images may be accepted.

また、必要に応じて、後の画像補正(ステップS16)の示唆となる情報(以下「補正ヒント情報」という)が、ユーザ端末10に入力される(ステップS10)。   In addition, information (hereinafter, referred to as “correction hint information”) indicating the later image correction (step S16) is input to the user terminal 10 as needed (step S10).

例えば、複数の画像の全部について床版の正面から撮像した場合には「全部正面」、複数の画像の全部について床版の非正面から撮像した場合には「全部あおり」、複数の画像のうち一部だけ床版の非正面から撮像した場合には「一部あおり」といったような、あおり補正のヒント情報を入力するマニュアル操作を、端末操作部15により受け付ける。具体的なあおりの角度(撮像装置60の撮像方向に対する床版の傾き角度である)の入力を受け付けてもよいが、この場合には概略の角度が入力される可能性があり、後の工程でサーバ装置20において、概略の角度を詳細な角度に補正することが、好ましい。縮尺補正(拡縮)、回転角度補正等、他の画像補正のための補正ヒント情報の入力を受け付けてもよい。あおり補正、縮尺補正及び回転角度補正が不要である場合には、本ステップを省略してよい。   For example, when all of the plurality of images are imaged from the front of the floor slab, "all front" is obtained. When only a part of the image is taken from the non-front side of the floor slab, the terminal operation unit 15 accepts a manual operation for inputting hint correction hint information such as “partial tilt”. An input of a specific tilt angle (which is a tilt angle of the floor slab with respect to the imaging direction of the imaging device 60) may be accepted, but in this case, an approximate angle may be input, and a subsequent process may be performed. In the server device 20, it is preferable to correct the approximate angle to a detailed angle. Input of correction hint information for other image correction such as scale correction (enlargement / reduction) and rotation angle correction may be received. If the tilt correction, the scale correction, and the rotation angle correction are unnecessary, this step may be omitted.

次に、ユーザ端末10の端末制御部16により画像処理要求情報を生成して、ユーザ端末10の端末送信部12により、生成された画像処理要求情報をサーバ装置20に対して送信する(ステップS12)。画像処理要求情報は、サーバ装置20の受信部22により受信され、データベース50に登録される(ステップS14)。   Next, the image processing request information is generated by the terminal control unit 16 of the user terminal 10, and the generated image processing request information is transmitted to the server device 20 by the terminal transmission unit 12 of the user terminal 10 (step S12). ). The image processing request information is received by the receiving unit 22 of the server device 20 and registered in the database 50 (Step S14).

画像処理要求情報には、ステップS6で入力された複数の画像と、ステップS8で入力された画像位置情報とが含まれる。ステップS10で補正ヒント情報が入力された場合、その補正ヒント情報も画像処理要求情報に含まれる。   The image processing request information includes the plurality of images input in step S6 and the image position information input in step S8. When the correction hint information is input in step S10, the correction hint information is also included in the image processing request information.

次に、サーバ装置20の合成画像生成部26により、複数の画像を補正する(ステップS16)。例えば、前述の画像補正(画像位置情報補正、縮尺補正、あおり補正、及び回転角度補正)のうち、必要な補正が行われる。ステップS10で補正ヒント情報が入力された場合、その補正ヒント情報に基づいて、画像補正が行われる。   Next, a plurality of images are corrected by the composite image generation unit 26 of the server device 20 (Step S16). For example, necessary correction is performed among the above-described image corrections (image position information correction, scale correction, tilt correction, and rotation angle correction). When correction hint information is input in step S10, image correction is performed based on the correction hint information.

次に、サーバ装置20の合成画像生成部26により、複数の画像及び画像位置情報に基づいて、床版の格間ごとに一枚の合成画像が生成される(ステップS18)。合成画像は、データベース50に登録される。   Next, the composite image generation unit 26 of the server device 20 generates one composite image for each floor space, based on the plurality of images and the image position information (step S18). The composite image is registered in the database 50.

次に、サーバ装置20の機械学習部32により、合成画像が不適切であるか否かを判断する(ステップS20)。機械学習部32は、データベース50に記憶された各種の情報に基づいて、合成画像が適切である事象及び不適切である事象を学習しており、その学習結果に基づいて今回の合成画像が不適切であるか否かを判断することができる。機械学習部32は、例えば、原画像(合成前の画像)間で構造物上の模様が繋がらない等の異常を検出する機能を学習結果として持つことが可能である。合成画像が不適切であると判断された場合(ステップS20でYESの場合)、画像補正及び画像合成に関するパラメータを変更してステップS16に戻り、適切であると判断された場合(ステップS20でNOの場合)、ステップS22に進む。   Next, the machine learning unit 32 of the server device 20 determines whether or not the synthesized image is inappropriate (step S20). The machine learning unit 32 learns an event in which the composite image is appropriate and an event in which the composite image is inappropriate based on various types of information stored in the database 50. It can be determined whether or not it is appropriate. The machine learning unit 32 can have, as a learning result, a function of detecting an abnormality such as a pattern on a structure not being connected between original images (images before synthesis). If it is determined that the synthesized image is inappropriate (YES in step S20), the parameters related to image correction and image synthesis are changed, and the process returns to step S16. If it is determined that the synthesized image is appropriate (NO in step S20). ), The process proceeds to step S22.

次に、サーバ装置20のひび割れ検出部28により、床版の格間ごとの合成画像を画像解析して、床版のひび割れを格間ごとに検出する(ステップS22)。   Next, the crack detection unit 28 of the server device 20 performs image analysis of the composite image of each floor space, and detects cracks of the floor space for each space (step S22).

次に、サーバ装置20のひび割れ情報生成部30により、検出されたひび割れに対応するひび割れ画像と、検出されたひび割れの特徴量とを示す、ひび割れ情報を生成する(ステップS24)。特徴量には、ひび割れの幅、長さ、間隔等、床版のひび割れ程度の評価区分を判別するために必要な情報が含まれる。また、特徴量には、一括編集に必要な情報が含まれる。生成されたひび割れ情報は、データベース50に登録される。   Next, the crack information generation unit 30 of the server device 20 generates crack information indicating a crack image corresponding to the detected crack and a characteristic amount of the detected crack (step S24). The feature quantity includes information necessary for determining the evaluation category of the degree of cracking of the floor slab, such as the width, length, and interval of the crack. The feature amount includes information necessary for batch editing. The generated crack information is registered in the database 50.

本例は、一括編集に必要な、度数分布、スライダ、グループ情報等が、ひび割れ情報に付加される。また、スケール画像生成部34により生成されたスケール画像がひび割れ情報に付加されてもよい。スケール画像の具体例は後述する。   In this example, the frequency distribution, slider, group information, and the like necessary for batch editing are added to the crack information. Further, the scale image generated by the scale image generation unit 34 may be added to the crack information. A specific example of the scale image will be described later.

ひび割れ評価部36により、少なくともひび割れ情報に基づいて、橋梁の床版におけるひび割れの程度を評価して、そのひび割れ程度の評価区分を示すランク情報を生成し、そのランク情報をひび割れ情報に付加してもよい。以下では、説明の便宜上、ランク情報がひび割れ情報に付加されなかったものとする。   The crack evaluation unit 36 evaluates the degree of cracks in the floor slab of the bridge based on at least the crack information, generates rank information indicating the evaluation category of the degree of crack, and adds the rank information to the crack information. Is also good. In the following, it is assumed that rank information has not been added to the crack information for convenience of explanation.

次に、サーバ装置20の送信部24により、床版の格間ごとの合成画像とひび割れ情報とをユーザ端末10に対して送信する(ステップS26)。合成画像及びひび割れ情報は、ユーザ端末10の端末受信部13により受信され、端末表示部14に表示される(ステップS28)。   Next, the transmission unit 24 of the server device 20 transmits the composite image and the crack information for each coffer of the floor slab to the user terminal 10 (step S26). The composite image and the crack information are received by the terminal receiving unit 13 of the user terminal 10 and displayed on the terminal display unit 14 (Step S28).

例えば、図11に示すように、端末表示部14の画面に、床版の格間ごとの合成画像IMG2と、ひび割れ画像CRを含むひび割れ情報が表示される。本例では、合成画像IMG2中のひび割れが検出された位置に、ひび割れ画像CRが重ね合される。尚、図11では、スケール画像を省略しているが、合成画像IMG2に更にスケール画像を重ね合わせて表示してもよい。   For example, as shown in FIG. 11, on the screen of the terminal display unit 14, a composite image IMG2 for each floor space and crack information including a crack image CR are displayed. In this example, the crack image CR is superimposed on the position where the crack is detected in the composite image IMG2. Although the scale image is omitted in FIG. 11, the scale image may be further superimposed and displayed on the composite image IMG2.

次に、ユーザ端末10の端末操作部15によりユーザからひび割れ情報の修正操作を受け付けたか否かを判定し(ステップS32)、修正操作を受け付けた場合(ステップS32でYESの場合)、ユーザ端末10の端末送信部12により、ユーザの修正操作に対応したひび割れ情報の修正要求をサーバ装置20に対して送信する(ステップS34)。修正要求は、サーバ装置20の受信部22により受信され、データベース50に登録される(ステップS36)。   Next, it is determined by the terminal operation unit 15 of the user terminal 10 whether or not a correction operation of crack information has been received from the user (step S32). If the correction operation has been received (YES in step S32), the user terminal 10 The terminal transmitting unit 12 transmits a request for correcting crack information corresponding to the user's correction operation to the server device 20 (step S34). The correction request is received by the receiving unit 22 of the server device 20 and registered in the database 50 (Step S36).

また、ユーザは、端末表示部14の表示を見て、ひび割れ程度の評価区分を示すランク情報を端末操作部15により入力することができる。   In addition, the user can input the rank information indicating the evaluation classification of the degree of cracking through the terminal operation unit 15 while viewing the display on the terminal display unit 14.

図12は、ひび割れの進行モデルの一例を模式的に示す図である。この進行モデルでは、ランク情報が「RANK1」〜「RANK5」の五段階で表される。各ランク情報とひび割れ状態との対応関係は次の通りである。   FIG. 12 is a diagram schematically illustrating an example of a crack progressing model. In this progress model, rank information is represented by five levels of “RANK1” to “RANK5”. The correspondence between each rank information and the crack state is as follows.

RANK1:損傷なし。   RANK 1: No damage.

RANK2:横方向(車輌の通行方向に直交する短手方向)に沿って複数のひび割れが並列に発生した状態である。乾燥収縮による複数のひび割れが並列の梁状になる段階である。   RANK2: A state in which a plurality of cracks are generated in parallel along the lateral direction (the short direction orthogonal to the vehicle traffic direction). This is a stage where a plurality of cracks due to drying shrinkage become parallel beams.

RANK3:縦方向(車輌の通行方向に平行な長手方向)のひび割れ及び横方向のひび割れが互いに交差した状態である。活荷重により複数のひび割れが格子状になり、その格子状の領域のひび割れ密度が増加する段階である。後半時期には、ひび割れが床版の上下方向(床版下面に直交する垂直方向)で貫通する。   RANK3: A state in which a crack in a vertical direction (a longitudinal direction parallel to a traffic direction of a vehicle) and a crack in a lateral direction cross each other. This is a stage where the plurality of cracks are formed into a lattice by the live load, and the crack density in the lattice-like region increases. In the latter half, cracks penetrate in the vertical direction of the floor slab (vertical direction perpendicular to the lower surface of the floor slab).

RANK4:格子状の領域のひび割れ密度が規定値を超え、貫通した複数のひび割れの破面同士が平滑化された状態である。摺り磨き作用により床版がせん断抵抗を失う段階である。   RANK4: A state in which the crack density of the lattice region exceeds a specified value and the fracture surfaces of a plurality of penetrating cracks are smoothed. This is the stage where the floor slab loses shear resistance due to the rubbing action.

RANK5:抜け落ちが生じた状態である。低下した押抜きせん断強度を超える輪荷重により抜け落ちが生じる。   RANK5: A state in which dropout has occurred. Wheel load exceeding the reduced punching shear strength causes dropout.

次に、サーバ装置20のひび割れ情報生成部30により、受信された修正要求に基づいて、ひび割れ情報を修正する(ステップS38)。ランク情報がユーザ端末10で入力された場合には、そのランク情報をひび割れ情報に付加する。   Next, the crack information generation unit 30 of the server device 20 corrects the crack information based on the received correction request (step S38). When rank information is input at the user terminal 10, the rank information is added to the crack information.

次に、サーバ装置20の送信部24により、修正後のひび割れ情報をユーザ端末10に対して送信する(ステップS40)。修正後のひび割れ情報は、ユーザ端末10の端末受信部13により受信され、端末表示部14に表示される(ステップS42)。   Next, the corrected crack information is transmitted to the user terminal 10 by the transmission unit 24 of the server device 20 (step S40). The corrected crack information is received by the terminal receiving unit 13 of the user terminal 10 and displayed on the terminal display unit 14 (Step S42).

次に、ユーザ端末10の端末操作部15によりユーザから帳票作成指示の入力を受け付けたか否かを判定し(ステップS44)、帳票作成指示の入力を受け付けた場合(ステップS44でYESの場合)、ユーザ端末10の端末送信部12により、帳票要求がサーバ装置20に対して送信される(ステップS46)。帳票要求は、サーバ装置20の受信部22により受信される(ステップS48)。   Next, it is determined whether or not an input of a form creation instruction has been received from the user by the terminal operation unit 15 of the user terminal 10 (step S44), and if the input of the form creation instruction has been received (YES in step S44), The form request is transmitted to the server device 20 by the terminal transmission unit 12 of the user terminal 10 (Step S46). The form request is received by the receiving unit 22 of the server device 20 (Step S48).

次に、サーバ装置20の帳票作成部40により、橋梁の床版の点検結果を示す帳票(点検調書)を作成する(ステップS50)。帳票は、橋梁の床版におけるひび割れ程度の評価区分を示すランク情報を含む。   Next, the form creation unit 40 of the server device 20 creates a form (inspection record) showing the inspection result of the floor slab of the bridge (step S50). The form includes rank information indicating an evaluation category of the degree of cracking in the floor slab of the bridge.

次に、サーバ装置20の送信部24により、ユーザ端末10に対して帳票を送信する(ステップS52)。帳票は、ユーザ端末10の端末受信部13により受信され、端末表示部14により帳票受信がユーザに対して報知される(ステップS54)。帳票は、ユーザの操作に応じて、端末表示部14に表示させることが可能であり、またネットワークNWに接続されたプリンタ(図示を省略)に印刷させることも可能である。   Next, the form is transmitted to the user terminal 10 by the transmission unit 24 of the server device 20 (step S52). The form is received by the terminal receiving unit 13 of the user terminal 10, and the user is notified of the form reception by the terminal display unit 14 (step S54). The form can be displayed on the terminal display unit 14 according to a user operation, and can also be printed by a printer (not shown) connected to the network NW.

図13は、帳票としての損傷図の一例を示す図である。この損傷図は、点検対象である橋梁の床版に生じた各損傷について、格間ごとに、損傷表示(ひび割れ表示、漏水表示、遊離石灰表示等)、部材名(「床版」等)、要素番号(Ds0201等)、損傷の種類(「ひび割れ」、「漏水」、「遊離石灰」等)、損傷程度の評価区分(ランク情報)が記載されたものである。尚、図13では、図12に示した五段階の評価区分(「RANK1」〜「RANK5」)を、アルファベットの「a」〜「e」で表している。   FIG. 13 is a diagram illustrating an example of a damage diagram as a form. This damage diagram shows damage indications (crack indications, water leak indications, free lime indications, etc.), material names (such as "slabs") for each damage that occurred on the floor slab of the bridge to be inspected. Element numbers (such as Ds0201), types of damage (such as "crack", "water leakage", and "free lime"), and evaluation categories (rank information) of the degree of damage are described. In FIG. 13, the five-grade evaluation categories (“RANK1” to “RANK5”) shown in FIG. 12 are represented by alphabetical letters “a” to “e”.

<第2の画像処理例>
図14は、第1実施形態における第2の画像処理例の流れを示すフローチャートである。
<Second image processing example>
FIG. 14 is a flowchart illustrating the flow of the second image processing example according to the first embodiment.

本例のステップS2〜S16は、図8に示した第1の画像処理例と同様である。   Steps S2 to S16 in this example are the same as those in the first image processing example shown in FIG.

本例では、合成前の各画像を画像解析してひび割れを検出し(ステップS218)、合成画像を生成する(ステップS220)。次に、機械学習部32により、合成画像が不適切であるか否かを判断する(ステップS222)。機械学習部32は、データベース50に記憶された各種の情報に基づいて、合成画像が適切である事象及び合成画像が不適切である事象を学習しており、その学習結果に基づいて今回の合成画像が不適切であるか否かを判断することができる。機械学習部32は、例えば、原画像(合成前の画像)間でひび割れ画像が繋がらない等の異常を検出する機能を学習結果として持つことが可能である。不適切であると判断された場合(ステップS222でYESの場合)、画像補正及び画像合成に関するパラメータを変更してステップS16に戻り、適切であると判断された場合(ステップS222でNOの場合)、ステップS24に進む。   In this example, each image before synthesis is subjected to image analysis to detect cracks (step S218), and generate a synthesized image (step S220). Next, the machine learning unit 32 determines whether or not the synthesized image is inappropriate (step S222). The machine learning unit 32 learns an event in which the synthesized image is appropriate and an event in which the synthesized image is inappropriate based on various types of information stored in the database 50, and based on the learning result, the current synthesis. It can be determined whether the image is inappropriate. The machine learning unit 32 can have, as a learning result, a function of detecting an abnormality, for example, such that a cracked image is not connected between original images (images before synthesis). If determined to be inappropriate (YES in step S222), parameters related to image correction and image composition are changed, and the process returns to step S16. If determined to be appropriate (NO in step S222). The process proceeds to step S24.

ステップS24〜S54は、図8に示した第1の画像処理例と同様である。   Steps S24 to S54 are the same as those in the first image processing example shown in FIG.

<第3の画像処理例>
図15は、第1実施形態における第3の画像処理例の流れを示すフローチャートである。
<Third image processing example>
FIG. 15 is a flowchart illustrating the flow of the third image processing example according to the first embodiment.

本例では、図16に示すように点検現場でロボット装置70に搭載された撮像装置62により分割撮像して得られた複数の二視点画像がユーザ端末10により入力され(ステップS306)、且つロボット装置70の撮像装置制御に従った撮像装置制御情報がユーザ端末10により入力される(ステップS308)。本例の撮像装置制御情報は、画像位置情報、距離情報、傾き角度情報及び回転角度情報を含む。   In the present example, as shown in FIG. 16, a plurality of two-view images obtained by dividing and imaging by the imaging device 62 mounted on the robot device 70 at the inspection site are input by the user terminal 10 (step S306), and the robot The imaging device control information according to the imaging device control of the device 70 is input by the user terminal 10 (step S308). The imaging device control information of this example includes image position information, distance information, tilt angle information, and rotation angle information.

本例のロボット装置70は、橋梁に懸垂した懸垂式ロボットであり、図16ではその撮像に関する要部のみを示している。尚、懸垂式ロボットは、橋梁に懸垂する代わりに、橋梁上の走行体(車輌)に懸垂する方式のロボットでもよい。また、懸垂式ロボットの代わりに、ドローン(無人飛行体)等の無人飛行式ロボットを用いる場合にも本発明を適用可能である。   The robot device 70 of this example is a suspension type robot suspended from a bridge, and FIG. 16 shows only a main part related to imaging. It should be noted that the suspension type robot may be a robot that suspends on a running body (vehicle) on the bridge instead of hanging on the bridge. The present invention is also applicable to a case where an unmanned flying robot such as a drone (unmanned flying object) is used instead of the suspension robot.

本例の撮像装置62は、複眼式であり、二視点でそれぞれ構造物の被撮像面を撮像することにより、二視点画像(「立体視画像」ともいう)を取得する。ロボット装置70は、二視点画像に対して画像処理を行うことにより、撮像装置62から被撮像面内の各点までの距離を算出することができる。また、本例のロボット装置70は、撮像装置62の回動及び移動の制御を行う撮像装置制御機構72を備える。撮像装置制御機構72は、撮像装置62を互いに直交するX方向、Y方向及びZ方向のそれぞれで移動可能なXYZ移動機構と、撮像装置62をパン方向P及びチルト方向Tのそれぞれで回動可能なパンチルト機構とを兼ねている。撮像装置制御機構72により、構造物の被撮像面(表面)の基準点に対する撮像装置62の位置を自在に設定することができる。つまり、複数回の分割撮像で得られる複数の画像のそれぞれの位置情報を自在に設定することができる。また、撮像装置制御機構72により、撮像装置62と構造物の被撮像面との距離、撮像装置62の撮像方向と構造物の被撮像面との傾き角度、及び撮像装置62の撮像方向と構造物の被撮像面との回転角度を、それぞれ自在に設定することができる。つまり、複数回の分割撮像で得られる複数の画像のそれぞれの距離情報、傾き角度情報、回転角度情報を自在に設定することができる。   The imaging device 62 of the present example is of a compound-eye type, and acquires a two-viewpoint image (also referred to as a “stereoscopic image”) by imaging the imaging surface of the structure from each of two viewpoints. The robot device 70 can calculate the distance from the imaging device 62 to each point in the imaging target surface by performing image processing on the two viewpoint images. Further, the robot device 70 of the present example includes an imaging device control mechanism 72 that controls rotation and movement of the imaging device 62. The imaging device control mechanism 72 can rotate the imaging device 62 in each of the pan direction P and the tilt direction T, and an XYZ movement mechanism that can move the imaging device 62 in each of the X, Y, and Z directions orthogonal to each other. Double pan / tilt mechanism. By the imaging device control mechanism 72, the position of the imaging device 62 with respect to the reference point on the imaging surface (surface) of the structure can be set freely. That is, position information of each of a plurality of images obtained by a plurality of divided imagings can be set freely. The imaging device control mechanism 72 also controls the distance between the imaging device 62 and the imaging surface of the structure, the inclination angle between the imaging direction of the imaging device 62 and the imaging surface of the structure, and the imaging direction and structure of the imaging device 62. The rotation angle of the object with respect to the imaging surface can be freely set. That is, it is possible to freely set the distance information, the tilt angle information, and the rotation angle information of each of the plurality of images obtained by the plurality of divided imagings.

ユーザ端末10の端末入力部11は、画像位置情報、距離情報、傾き角度情報及び回転角度情報を含む撮像装置制御情報を、複数の画像と共に、メモリカード等の記憶媒体、又はネットワークNWを介して、入力することができる。   The terminal input unit 11 of the user terminal 10 transmits the imaging device control information including image position information, distance information, tilt angle information, and rotation angle information together with a plurality of images via a storage medium such as a memory card or a network NW. , Can be entered.

ステップS12〜S54は、図8に示した第1の画像処理例と同様である。   Steps S12 to S54 are the same as those in the first image processing example shown in FIG.

尚、画像位置情報、距離情報、傾き角度情報及び回転角度情報等の画像合成又は画像補正に必要な全ての情報が、計測により正確に取得された場合には、適切な合成画像が生成されることになるので、ステップS20(合成画像が不適切か否かの判定)を省略することができる。   If all information necessary for image synthesis or image correction, such as image position information, distance information, tilt angle information, and rotation angle information, is accurately obtained by measurement, an appropriate synthesized image is generated. Therefore, step S20 (determination of whether or not the synthesized image is inappropriate) can be omitted.

<第4の画像処理例>
図17は、第1実施形態における第4の画像処理例の流れを示すフローチャートである。
<Fourth image processing example>
FIG. 17 is a flowchart illustrating the flow of the fourth image processing example according to the first embodiment.

本例のステップS2、S4、S306〜S308、及びS12〜S16は、図15に示した第3の画像処理例と同様である。第3の画像処理例と同様に、ロボット装置70に搭載された複眼式の撮像装置62により分割撮像して得られた複数の二視点画像が入力され(ステップS306)、且つロボット装置70の撮像装置制御機構72の撮像装置制御に従った撮像装置制御情報が入力される(ステップS308)。   Steps S2, S4, S306 to S308, and S12 to S16 of this example are the same as those of the third image processing example shown in FIG. Similarly to the third image processing example, a plurality of two-viewpoint images obtained by dividing and imaging by the compound eye type imaging device 62 mounted on the robot device 70 are input (step S306), and the imaging of the robot device 70 is performed. Image capturing device control information according to the image capturing device control of the device control mechanism 72 is input (step S308).

ステップS218〜S222は、図14に示した第2の画像処理例と同様である。つまり、ステップS218で合成前の画像を解析してひび割れを検出した後、ステップS220で合成画像の生成及び登録を行い、ステップS222で合成画像が不適切であるか否か判定する。ステップS222は、第3の画像処理例のS20と同様、省略することができる。   Steps S218 to S222 are the same as those in the second image processing example shown in FIG. That is, after analyzing the image before synthesis in Step S218 to detect a crack, a generation and registration of a synthesized image are performed in Step S220, and it is determined in Step S222 whether the synthesized image is inappropriate. Step S222 can be omitted similarly to S20 of the third image processing example.

ステップS24〜S54は、第1の画像処理例と同様である。   Steps S24 to S54 are the same as in the first image processing example.

尚、人が撮像装置を操作して構造物を撮像した場合の画像処理例(第1の画像処理例及び第2の画像処理例)と、ロボット装置70が撮像装置を制御して構造物を撮像した場合の画像処理例(第3の画像処理例及び第4の画像処理例)とを、便宜上、別々に説明したが、本発明は、いずれか一方の場合に閉じた構成で実施される場合には限定されず、むしろ両方の場合を含むオープンな構成で実施されることが、好ましい。即ち、本例のサーバ装置20は、人が撮像装置を操作した場合の画像、画像の合成及び補正に必要な情報(画像位置情報を含む)、操作履歴等をデータベース50に記憶させるだけでなく、ロボット装置70が撮像装置を制御した場合の画像、撮像装置制御情報(画像位置情報を含む)、操作履歴等をデータベース50に記憶させて、両方の場合について機械学習を行う。これにより、人が撮像装置を操作して構造物を撮像した場合でも、ロボット装置70が撮像装置を制御した場合の画像処理の機械学習結果に基づいて、クローズした構成よりも適切な合成画像を生成することが可能になる。   Note that an image processing example in which a person operates the imaging apparatus to image a structure (a first image processing example and a second image processing example), and that the robot apparatus 70 controls the imaging apparatus to generate a structure. The image processing examples (third image processing example and fourth image processing example) in the case of imaging are described separately for the sake of convenience, but the present invention is implemented in a closed configuration in any one of the cases. It is preferable that the present invention is not limited to the case, but rather implemented in an open configuration including both cases. That is, the server device 20 of the present embodiment not only stores, in the database 50, an image when a person operates the imaging device, information (including image position information) necessary for image synthesis and correction, an operation history, and the like. The image when the robot device 70 controls the imaging device, the imaging device control information (including image position information), the operation history, and the like are stored in the database 50, and machine learning is performed in both cases. Accordingly, even when a person operates the imaging device to image a structure, a synthesized image that is more appropriate than a closed configuration is obtained based on the machine learning result of image processing when the robot device 70 controls the imaging device. Can be generated.

[第2の実施形態]
図18は、第2の実施形態における画像処理システムの構成例を示すブロック図である。本図のユーザ端末10は第1実施形態と同じである。本図のサーバ装置200は、図2に示した第1の実施形態のサーバ装置20に対して、ひび割れの進行を予測する予測部44を追加した構成である。
[Second embodiment]
FIG. 18 is a block diagram illustrating a configuration example of an image processing system according to the second embodiment. The user terminal 10 in the figure is the same as in the first embodiment. The server device 200 of this figure has a configuration in which a prediction unit 44 for predicting the progress of cracks is added to the server device 20 of the first embodiment shown in FIG.

予測部44は、データベース50に記憶された橋梁に関する各種情報と、ひび割れ情報生成部30によって生成されたひび割れ情報とに基づいて、橋梁のひび割れの進行を予測する。送信部24は、ひび割れの進行の予測結果をユーザ端末10に送信する。   The prediction unit 44 predicts the progress of cracks in the bridge based on various information related to the bridge stored in the database 50 and the crack information generated by the crack information generation unit 30. The transmitting unit 24 transmits the prediction result of the progress of the crack to the user terminal 10.

本例のデータベース50は、橋梁の構造情報、橋梁の環境条件情報、橋梁の使用条件情報、橋梁の維持管理履歴情報、及び橋梁の災害履歴情報を記憶する。本例の予測部44は、橋梁の構造情報、橋梁の環境条件情報、橋梁の使用条件情報、橋梁の維持管理履歴情報、及び橋梁の災害履歴情報のうち少なくとも一つの情報と、橋梁のひび割れ情報とに基づいて、橋梁におけるひび割れの進行を予測する。   The database 50 in this example stores bridge structural information, bridge environmental condition information, bridge use condition information, bridge maintenance management history information, and bridge disaster history information. The prediction unit 44 of this example includes at least one of bridge structural information, bridge environmental condition information, bridge use condition information, bridge maintenance management history information, and bridge disaster history information, and bridge crack information. Based on these, the progress of cracks in the bridge is predicted.

ランク情報は、例えば橋梁の点検部位(例えば床版の格間)ごとの評価区分である。ランク情報は、橋梁の健全性を段階的又は数値的に表した「健全度」を含んでもよい。   The rank information is, for example, an evaluation section for each inspection site of the bridge (for example, a space between floor slabs). The rank information may include a “health degree” that indicates the health of the bridge in a stepwise or numerical manner.

橋梁の構造情報は、橋梁全体のうち少なくとも評価対象である床版及びその周辺の部材を含む部分の構造を示す。例えば、構造形式、構造的特徴が挙げられる。荷重と床版との関係、地震の震動と床版との関係、雨水と床版との関係、温度と床版との関係等、床版のひび割れの進行に関連する構造上の情報を含む。アルカリ骨材反応を生じ易い材料を使用しているか否か等の化学的な情報でもよい。ひび割れが発生し易い部分を直接的に表した情報でもよい。   The structural information of the bridge indicates the structure of at least the portion including the floor slab to be evaluated and its peripheral members in the entire bridge. For example, there are structural forms and structural characteristics. Includes structural information related to the progression of floor slabs, such as the relationship between load and floor slab, the relationship between earthquake vibration and floor slab, the relationship between rainwater and floor slab, and the relationship between temperature and floor slab . Chemical information such as whether or not a material that easily causes an alkali-aggregate reaction may be used. Information that directly indicates a portion where cracks are likely to occur may be used.

橋梁の環境条件情報は、例えば塩分が飛来するか否か等の立地条件が挙げられる。   The environmental condition information of the bridge includes, for example, location conditions such as whether or not the salt comes.

橋梁の使用条件情報は、例えば、車輌の交通量、大型車混入率が挙げられる。   The bridge use condition information includes, for example, the traffic volume of vehicles and the mixing ratio of large vehicles.

橋梁の維持管理履歴情報は、例えば凍結防止剤の散布履歴情報が挙げられる。補修及び補強の履歴情報を含んでもよい。   The bridge maintenance management history information includes, for example, spraying history information of an antifreeze agent. Repair and reinforcement history information may be included.

橋梁の災害履歴情報は、橋梁が受けた台風、地震等の災害の履歴情報である。   The disaster history information of a bridge is history information of a disaster such as a typhoon or an earthquake received by the bridge.

本例のデータベース50は、更に、橋梁のひび割れ程度の評価区分を示すランク情報を、橋梁の合成画像及びひび割れ情報と関連付けて、記憶する。本例の予測部44は、ひび割れ評価部36で評価された橋梁のランク情報が未来どのように変化するかを予測するシミュレーション処理を実行する。   The database 50 of the present example further stores rank information indicating an evaluation category of the degree of cracking of the bridge in association with the composite image of the bridge and the crack information. The prediction unit 44 in this example executes a simulation process for predicting how the rank information of the bridge evaluated by the crack evaluation unit 36 will change in the future.

また、予測部44により、過去から現在までどのように変化したかをシミュレーションしてもよい。ひび割れ情報生成部30により、過去から現在までのシミュレーション結果と現在の画像(合成画像又は合成前の画像)とに基づいて、ひび割れ情報を生成することで、ひび割れ情報の精度を更に向上させることができる。   Further, the prediction unit 44 may simulate how it has changed from the past to the present. By generating the crack information based on the simulation result from the past to the present and the current image (the synthesized image or the image before the synthesis) by the crack information generation unit 30, the accuracy of the crack information can be further improved. it can.

本例の機械学習部32は、操作履歴、画像(合成画像又は合成前の画像)、及びひび割れ情報のほかに、予測部44の予測結果にも基づいて、ひび割れ検出を機械学習することが可能である。機械学習部32は、更に、橋梁の構造情報、橋梁の環境条件情報、橋梁の使用条件情報、橋梁の維持管理履歴情報、及び橋梁の災害履歴情報のうち少なくとも一つの情報にも基づいて、ひび割れ検出を学習することが、好ましい。   The machine learning unit 32 of this example can machine-learn crack detection based on the prediction result of the prediction unit 44 in addition to the operation history, the image (the synthesized image or the image before the synthesis), and the crack information. It is. The machine learning unit 32 further performs a crack based on at least one of bridge structural information, bridge environmental condition information, bridge use condition information, bridge maintenance management history information, and bridge disaster history information. Learning detection is preferred.

[ベクトル化]
ひび割れ画像のベクトル化について、図19〜図22を用いて説明する。
[Vectorization]
Vectorization of a cracked image will be described with reference to FIGS.

サーバ装置20のひび割れ情報生成部30は、合成画像又は合成前の画像から抽出したひび割れの部分をベクトル化して、ひび割れのベクトルデータ(以下「ひび割れベクトル」又は単に「ベクトル」という)を生成する。つまり、ひび割れ情報生成部30は、ひび割れ部分をベクトル化する。サーバ装置20の送信部24は、ベクトル化されたひび割れ画像であるひび割れベクトルを含むひび割れ情報を、合成画像と共に、ユーザ端末10に送信する。ユーザ端末10の端末表示部14には、ベクトル化されたひび割れ画像が合成画像に重ね合されて表示される。   The crack information generation unit 30 of the server device 20 generates a vector of a crack (hereinafter, referred to as a “crack vector” or simply “vector”) by vectorizing the crack portion extracted from the synthesized image or the image before the synthesis. That is, the crack information generation unit 30 converts the cracked portion into a vector. The transmission unit 24 of the server device 20 transmits the crack information including the crack vector, which is the vectorized crack image, to the user terminal 10 together with the composite image. On the terminal display unit 14 of the user terminal 10, the vectorized cracked image is displayed superimposed on the composite image.

ひび割れ情報生成部30は、ベクトル化に際して、検出されたひび割れを必要に応じ2値化及び/または細線化する。「ベクトル化」とは、ひび割れに対し始点及び終点で定まる線分を求めることであり、ひび割れが曲線状の場合、曲線と線分の距離が閾値以下になるようにひび割れを複数の区間に分割し、複数の区間のそれぞれについてひび割れベクトルを生成する。   When vectorizing, the crack information generation unit 30 binarizes and / or thins the detected cracks as necessary. `` Vectorization '' means finding a line segment defined by a start point and an end point for a crack.If the crack is curved, the crack is divided into a plurality of sections so that the distance between the curve and the line segment is equal to or less than a threshold. Then, a crack vector is generated for each of the plurality of sections.

ひび割れベクトルの生成に際しては、例えば床版2の特徴点を座標系の原点とし、ひび割れベクトルのグループ(ベクトルグループ)について、原点からの距離が最小になる端点を第1の始点とし、以下ひび割れベクトルの走行方向に沿って順次終点、始点を決定することができる。図19の例では、床版2上の点P0を座標系の原点、図の右方向及び下方向をそれぞれ座標系のX軸方向、Y軸方向としたときに、ベクトルグループC7の点P13,P14,P15,P16のうち点P0からの距離dが最も短くなる点P13をひび割れベクトルC7−1の始点とし、以下、点P14をひび割れベクトルC7−1の終点(かつひび割れベクトルC7−2,C7−3の始点)、点P15,P16をそれぞれひび割れベクトルC7−2,C7−3の終点とすることができる。   When generating the crack vector, for example, the feature point of the floor slab 2 is set as the origin of the coordinate system, and for a group of crack vectors (vector group), the end point at which the distance from the origin is the minimum is set as the first start point. The end point and the start point can be sequentially determined along the traveling direction. In the example of FIG. 19, when the point P0 on the floor slab 2 is the origin of the coordinate system, and the rightward and downward directions in the figure are the X-axis direction and the Y-axis direction of the coordinate system, respectively, the points P13, Among the points P14, P15, and P16, the point P13 at which the distance d from the point P0 is the shortest is set as the start point of the crack vector C7-1, and the point P14 is hereinafter referred to as the end point of the crack vector C7-1 (and the crack vectors C7-2, C7). -3) and the points P15 and P16 can be the end points of the crack vectors C7-2 and C7-3, respectively.

しかしながら、同様の手法でベクトルグループC8の始点を決定すると、点P17がひび割れベクトルC8−1の始点、点P18がひび割れベクトルC8−2,C8−3の始点となり、ひび割れベクトルC8−3の走行方向(点P18から点P20へ向かう方向)がひび割れベクトルC8−1の走行方向と逆行してしまう。そこでこのような場合は、図20に示すように点P19をひび割れベクトルC8A−1の始点とし、以下、点P18をひび割れベクトルC8A−1の終点(かつひび割れベクトルC8A−2,C8A−3の始点)、点P17,P20をそれぞれひび割れベクトルC8A−2,C8A−3の終点とするようにしてもよい。なおこの場合のひび割れベクトルの集合体をベクトルグループC8Aと表記する。   However, when the starting point of the vector group C8 is determined in the same manner, the point P17 is the starting point of the crack vector C8-1, the point P18 is the starting point of the crack vectors C8-2 and C8-3, and the running direction of the crack vector C8-3. (The direction from the point P18 to the point P20) is opposite to the traveling direction of the crack vector C8-1. Therefore, in such a case, as shown in FIG. 20, the point P19 is set as the starting point of the crack vector C8A-1, and the point P18 is hereinafter referred to as the end point of the crack vector C8A-1 (and the starting point of the crack vectors C8A-2 and C8A-3). ) And points P17 and P20 may be the end points of the crack vectors C8A-2 and C8A-3, respectively. The aggregate of the crack vectors in this case is referred to as a vector group C8A.

上述のようにしてひび割れベクトルを生成する場合、ひび割れが床版2の内部では連続しているが表面では分離していると、分離したひび割れベクトルとして認識されてしまう可能性がある。そこで、複数のひび割れベクトルを連結して1または複数のベクトルを生成する。   When the crack vector is generated as described above, if the crack is continuous inside the floor slab 2 but separated on the surface, the crack may be recognized as a separated crack vector. Therefore, a plurality of crack vectors are connected to generate one or a plurality of vectors.

図21はひび割れベクトルの連結の例を示す図であり、ひび割れベクトルC3−1(点P21、点P22がそれぞれ始点、終点)を含むベクトルグループC3と、ひび割れベクトルC4−1(点P23、点P24がそれぞれ始点、終点)を含むベクトルグループC4とが抽出された状況を示している。また、ひび割れベクトルC3−1が点P22及び点P23を結ぶ線分となす角をα1とし、点P22及び点P23を結ぶ線分がひび割れベクトルC4−1となす角をα2とする。このとき、角α1及び角α2が共に閾値以下ならば、ひび割れベクトルC3−1及びC4−1を連結し、またベクトルグループC3及びC4を融合させる。具体的には、図22に示すように新たなひび割れベクトルC5−2を生成してその他のひび割れベクトルC5−1(ひび割れベクトルC3−1と同一)及びC5−3(ひび割れベクトルC4−1と同一)と連結させ、これらひび割れベクトルC5−1,C5−2,及びC5−3を含む新たなベクトルグループをベクトルグループC5とする。このように、空間的に(床版2の表面で)分離したベクトルを適宜連結させることにより、ベクトル同士の連結関係を正確に把握することができる。   FIG. 21 is a diagram showing an example of the connection of the crack vectors. The vector group C3 includes the crack vector C3-1 (the points P21 and P22 are respectively the start point and the end point), and the crack vector C4-1 (the points P23 and P24). Indicate the vector group C4 including the start point and the end point, respectively. The angle formed by the crack vector C3-1 and the line connecting the points P22 and P23 is α1, and the angle formed by the line connecting the points P22 and P23 and the crack vector C4-1 is α2. At this time, if both the angle α1 and the angle α2 are equal to or smaller than the threshold value, the crack vectors C3-1 and C4-1 are connected, and the vector groups C3 and C4 are fused. Specifically, as shown in FIG. 22, a new crack vector C5-2 is generated and other crack vectors C5-1 (same as crack vector C3-1) and C5-3 (same as crack vector C4-1). ), And a new vector group including these crack vectors C5-1, C5-2, and C5-3 is referred to as a vector group C5. In this manner, by appropriately connecting the spatially separated vectors (at the surface of the floor slab 2), the connection relationship between the vectors can be accurately grasped.

尚、上述のベクトル連結は一例であり、他の方法を用いてもよい。   Note that the above-described vector concatenation is an example, and another method may be used.

また、ひび割れ情報生成部30は、複数のベクトル同士の相対角度を算出する。つまり、一のベクトルと他のベクトルとが成す角度を算出する。   Further, the crack information generation unit 30 calculates a relative angle between a plurality of vectors. That is, the angle between one vector and another vector is calculated.

また、ひび割れ情報生成部30は、ひび割れベクトルの階層構造を示す階層構造情報を生成する。階層構造情報は、ベクトル同士の連結関係を階層的に表現した情報である。階層構造情報は、複数のベクトルによって構成されるベクトルグループのうちで各ベクトルがどの階層に属するかを示す階層識別情報(「所属階層情報」ともいう)を含む。階層識別情報は、例えば、数字で表現された階層番号を用いることができる。数字以外のコード(例えば英字、記号)で表現してもよい。   Further, the crack information generation unit 30 generates hierarchical structure information indicating a hierarchical structure of the crack vector. The hierarchical structure information is information that hierarchically expresses a connection relationship between vectors. The hierarchical structure information includes hierarchical identification information (also referred to as “belonging hierarchical information”) indicating to which hierarchical layer each vector belongs in a vector group composed of a plurality of vectors. As the layer identification information, for example, a layer number represented by a numeral can be used. It may be represented by a code other than a number (for example, an alphabetic character or a symbol).

図23は、ベクトルグループC1を示す図である。ベクトルグループC1は、ひび割れベクトルC1−1〜C1−6により構成されており、これらひび割れベクトルは点P1〜P7を始点または終点としている。このような状況において、ひび割れベクトルが分岐する(あるひび割れベクトルの終点が他の複数のひび割れベクトルの始点となっている)ごとに階層が下位になるとしている。具体的にはひび割れベクトルC1−1の階層を最も上位の“レベル1”として、ひび割れベクトルC1−1の終点である点P2を始点とするひび割れベクトルC1−2及びC1−3の階層は、ひび割れベクトルC1−1よりも下位である“レベル2”とする。同様に、ひび割れベクトルC1−3の終点である点P4を始点とするひび割れベクトルC1−5及びC1−6の階層は、ひび割れベクトルC1−3よりも下位である“レベル3”とする。一方、ひび割れベクトルC1−2の終点である点P3はひび割れベクトルC1−4の始点であるが、点P3を始点とするひび割れベクトルはひび割れベクトルC1−4だけであり分岐はないので、ひび割れベクトルC1−4の階層はC1−2と同じ“レベル2”とする。このようにして決定した各ひび割れベクトルの階層は、階層構造情報に含まれる。   FIG. 23 is a diagram illustrating the vector group C1. The vector group C1 is composed of crack vectors C1-1 to C1-6, and these crack vectors have points P1 to P7 as start points or end points. In such a situation, it is assumed that the hierarchy becomes lower each time the crack vector branches (the end point of a certain crack vector is the start point of another plurality of crack vectors). Specifically, the hierarchy of the crack vector C1-1 is set to the highest level “level 1”, and the hierarchy of the crack vectors C1-2 and C1-3 starting from the point P2 which is the end point of the crack vector C1-1 is a crack. It is assumed that “level 2” is lower than the vector C1-1. Similarly, the hierarchy of the crack vectors C1-5 and C1-6 starting from the point P4, which is the end point of the crack vector C1-3, is "level 3" lower than the crack vector C1-3. On the other hand, the point P3 which is the end point of the crack vector C1-2 is the start point of the crack vector C1-4, but the crack vector starting from the point P3 is only the crack vector C1-4 and has no branch, so the crack vector C1 The layer of -4 is "level 2" which is the same as C1-2. The hierarchy of each crack vector determined in this way is included in the hierarchical structure information.

図24は、ベクトルグループC1(ひび割れベクトル同士の連結関係は図23に示すものと同一)を示す図である。本例では、連結するひび割れベクトルのうち他のひび割れベクトルとなす角度が閾値以下であるもの(木構造における「幹」に相当するひび割れベクトル)は同一の階層に属するものとしている。具体的には図24の点線内(参照符号Lv1で示す範囲)に存在するひび割れベクトルC1−1,C1−2,及びC1−4は同一の階層である“レベル1”(最上位)とする。また、それ以外のひび割れベクトルC1−3,C1−5,及びC1−6については、ひび割れベクトルが分岐するごとに階層が下位になるとしており、ひび割れベクトルC1−3(木構造における「枝」に相当)を“レベル2”、ひび割れベクトルC1−5及びC1−6(木構造における「葉」に相当)を“レベル3”としている。このようにして決定した各ひび割れベクトルの階層及び種別(幹、枝、あるいは葉)は、階層構造情報に含まれる。   FIG. 24 is a diagram showing a vector group C1 (the connection relationship between the crack vectors is the same as that shown in FIG. 23). In the present example, among the connected crack vectors, the one that forms an angle with another crack vector that is equal to or smaller than a threshold (a crack vector corresponding to a “trunk” in a tree structure) belongs to the same hierarchy. Specifically, the crack vectors C1-1, C1-2, and C1-4 existing within the dotted line (range indicated by the reference numeral Lv1) in FIG. 24 are set to “Level 1” (the highest level) which is the same hierarchy. . In addition, for the other crack vectors C1-3, C1-5, and C1-6, it is assumed that the hierarchy becomes lower each time the crack vector branches, and the crack vector C1-3 (the "branch" in the tree structure). Equivalent) is defined as “level 2”, and the crack vectors C1-5 and C1-6 (corresponding to “leaves” in the tree structure) are defined as “level 3”. The hierarchy and type (stem, branch, or leaf) of each crack vector determined in this way are included in the hierarchical structure information.

尚、図23及び図24を用いて説明した階層構造化は例であり、変形した方法あるいは異なる方法で階層構造化してよい。   The hierarchical structure described with reference to FIGS. 23 and 24 is an example, and the hierarchical structure may be modified or modified.

更に、ひび割れ情報生成部30は、ベクトルに各種の付加情報(属性情報)を付加する。例えば、各ひび割れの幅を示す情報(幅情報)を各ベクトルに付加する。   Further, the crack information generation unit 30 adds various types of additional information (attribute information) to the vector. For example, information (width information) indicating the width of each crack is added to each vector.

以上のように、サーバ装置20のひび割れ情報生成部30によってひび割れ画像のベクトル化及び階層構造化を行うので、生成されたひび割れベクトル及び階層構造情報を用いて各種の処理を効率良く且つ適切に行うことが可能になる。   As described above, since the crack image is vectorized and hierarchically structured by the crack information generation unit 30 of the server device 20, various processes are efficiently and appropriately performed using the generated crack vector and hierarchical structure information. It becomes possible.

例えば、ひび割れベクトル及び階層構造情報を用いて、画像補正を行うことが可能になる。また、ひび割れベクトル及び階層構造情報を用いて、合成画像が不適切であるか否かを判定することが可能になる。また、ひび割れベクトル及び階層構造情報を用いて、機械学習を行うことが可能になる。また、ひび割れベクトル及び階層構造情報を用いて、ひび割れ程度の評価区分を判別することが可能になる。また、ひび割れベクトル及び階層構造情報を用いて、ひび割れの進行を予測することが可能になる。   For example, image correction can be performed using a crack vector and hierarchical structure information. Further, it is possible to determine whether or not the composite image is inappropriate using the crack vector and the hierarchical structure information. Further, machine learning can be performed using the crack vector and the hierarchical structure information. In addition, it is possible to determine the evaluation category of the degree of crack using the crack vector and the hierarchical structure information. Further, it is possible to predict the progress of the crack using the crack vector and the hierarchical structure information.

[スケール画像例]
スケール画像生成部34によって生成されるスケール画像の例を説明する。スケール画像生成部34は、ひび割れ画像によって示されるひび割れの特徴量(例えばひび割れの幅)をユーザ端末10の画面上で測定するための各種のスケール画像を生成する。スケール画像は、ひび割れ情報に付加される。
[Example of scale image]
An example of a scale image generated by the scale image generation unit 34 will be described. The scale image generation unit 34 generates various scale images for measuring the characteristic amount of the crack (for example, the width of the crack) indicated by the crack image on the screen of the user terminal 10. The scale image is added to the crack information.

図25は、スケール画像の表示例を示す図である。図示及び説明の便宜上、測定対象のひび割れを示すひび割れ画像CR11(CR11−1、CR11−2、CR11−3)を、拡大して示す。   FIG. 25 is a diagram illustrating a display example of a scale image. For convenience of illustration and description, a crack image CR11 (CR11-1, CR11-2, CR11-3) showing a crack to be measured is shown in an enlarged manner.

スケール画像CS1、CS2、CS3、CS4は、構造物の測定面(本例では橋梁の床版である)に生じたひび割れの測定を行うための画像である。これらのスケール画像CS1〜CS4は、サーバ装置20のスケール画像生成部34により生成される。本例のスケール画像生成部34は、ひび割れの長さを測定するための目盛りが付されたスケールを示すスケール画像CS1、CS2と、ひび割れの幅を測定するための線画及び数字が付されたスケールを示すスケール画像CS3、CS4を生成する。スケール画像CS1〜CS4は、撮像装置と測定面との距離、及び撮像装置の撮像方向に対する測定面の傾き角度に応じたスケールを示す。スケール画像生成部34は、距離及び角度に応じて、スケールの種類、形状、大きさ等を異ならせる。本例のスケール画像生成部34は、距離及び傾き角度に応じて、長さ測定用のスケール画像CS1、CS2の目盛りを異ならせ、幅測定用のスケール画像CS3、CS4の線画及び数字を異ならせている。   The scale images CS1, CS2, CS3, and CS4 are images for measuring a crack generated on a measurement surface of a structure (in this example, a floor slab of a bridge). These scale images CS1 to CS4 are generated by the scale image generation unit 34 of the server device 20. The scale image generation unit 34 of the present example includes scale images CS1 and CS2 indicating a scale with a scale for measuring the length of a crack, and a scale with a line drawing and a number for measuring the width of the crack. Are generated as scale images CS3 and CS4. The scale images CS1 to CS4 indicate scales according to the distance between the imaging device and the measurement surface and the inclination angle of the measurement surface with respect to the imaging direction of the imaging device. The scale image generation unit 34 changes the type, shape, size, and the like of the scale according to the distance and the angle. The scale image generation unit 34 of this example changes the scales of the scale images CS1 and CS2 for length measurement and the line drawings and numbers of the scale images CS3 and CS4 for width measurement according to the distance and the tilt angle. ing.

サーバ装置20のひび割れ情報生成部30は、スケール画像CS1〜CS4をひび割れ情報に付加する。サーバ装置20の送信部24は、スケール画像CS1〜CS4が付加されたひび割れ情報を、構造物の合成画像と共に、ユーザ端末10に送信する。送信されたスケール画像付きのひび割れ情報及び合成画像は、ユーザ端末10の端末受信部13により受信される。   The crack information generation unit 30 of the server device 20 adds the scale images CS1 to CS4 to the crack information. The transmission unit 24 of the server device 20 transmits the crack information to which the scale images CS1 to CS4 are added to the user terminal 10 together with the composite image of the structure. The transmitted crack information with the scale image and the synthesized image are received by the terminal receiving unit 13 of the user terminal 10.

ユーザ端末10の端末表示部14における表示領域DAは、構造物の合成画像及びスケール画像を表示する画像表示領域IAと、その画像表示領域IAに表示可能な種類のスケール画像(つまりユーザが選択可能なスケール画像)を表示するスケール画像選択領域SAとを含む。スケール画像選択領域SAには、スケール画像CS1〜CS4の他に、スケール画像の選択を確定するためのOKボタンBU1、スケール画像の選択をキャンセルするためのキャンセルボタンBU2、画像表示領域IAに表示されたスケール画像を消去するための消去ボタンBU3が表示されている。   The display area DA in the terminal display unit 14 of the user terminal 10 includes an image display area IA that displays a composite image and a scale image of a structure, and a scale image of a type that can be displayed in the image display area IA (that is, a user can select the scale image). And a scale image selection area SA for displaying a large scale image. In the scale image selection area SA, in addition to the scale images CS1 to CS4, an OK button BU1 for confirming the selection of the scale image, a cancel button BU2 for canceling the selection of the scale image, and an image display area IA are displayed. An erase button BU3 for erasing the scaled image is displayed.

端末操作部15は、スケール画像選択領域SAに表示されたスケール画像CS1〜CS4に対するユーザの選択操作を受け付ける。ユーザは、ボタン、マウス等を用いて選択操作を行う。スケール画像選択領域SAに表示された複数のスケール画像CS1〜CS4のうちから、ユーザの選択操作に対応したスケール画像(本例ではCS2及びCS3)が画像表示領域IAに表示される。   The terminal operation unit 15 receives a user's selection operation on the scale images CS1 to CS4 displayed in the scale image selection area SA. The user performs a selection operation using a button, a mouse, or the like. From the plurality of scale images CS1 to CS4 displayed in the scale image selection area SA, scale images (CS2 and CS3 in this example) corresponding to the user's selection operation are displayed in the image display area IA.

端末表示部14は、画像表示領域IAに、合成画像とスケール画像とを重ね合わせて表示する。合成画像におけるひび割れ画像の位置及び方向に応じて、スケール画像の位置及び方向が決まる。本例のひび割れ画像CR11は、階層構造であって、親のひび割れ画像CR11−1と、子のひび割れ画像CR11−2及びCR11−3とを含む。長さ測定用のスケール画像CS2は、ひび割れ画像CR11−2の方向に沿って、且つひび割れ画像CR11−2の近傍の位置に、表示されている。幅測定用のスケール画像CS3は、ひび割れ画像CR11−1の方向と直交した方向に沿って、且つひび割れ画像CR11−1の幅に最も近い幅を有する線画(本例では1.4mmの線画)がひび割れ画像CR11−1に位置合わせされて、表示されている。   The terminal display unit 14 displays the composite image and the scale image in a superimposed manner on the image display area IA. The position and direction of the scale image are determined according to the position and direction of the crack image in the composite image. The crack image CR11 of the present example has a hierarchical structure and includes a parent crack image CR11-1 and child crack images CR11-2 and CR11-3. The scale image CS2 for length measurement is displayed along the direction of the crack image CR11-2 and at a position near the crack image CR11-2. The scale image CS3 for width measurement has a line drawing (a line drawing of 1.4 mm in this example) having the width closest to the width of the crack image CR11-1 along a direction orthogonal to the direction of the crack image CR11-1. It is displayed in alignment with the cracked image CR11-1.

図示を省略したが、スケール画像を移動させるための移動ボタン、スケール画像を回転するための回転ボタン、スケール画像を拡大するための拡大ボタン、スケール画像を縮小するための縮小ボタン等もスケール画像選択領域SAに表示させることが好ましい。マウスの移動操作により、スケール画像の移動、回転、拡大、縮小等を指示してもよい。   Although not shown, a scale button for moving the scale image, a rotation button for rotating the scale image, an enlargement button for enlarging the scale image, a reduction button for reducing the scale image, and the like are also scale image selections. It is preferable to display in the area SA. Movement, rotation, enlargement, reduction, and the like of the scale image may be instructed by a mouse movement operation.

尚、画像表示領域IAに二つのスケール画像CS2、CS3を表示させた場合を例示したが、画像表示領域IAに表示させるスケール画像の数は限定されない。   Although the case where two scale images CS2 and CS3 are displayed in the image display area IA has been illustrated, the number of scale images displayed in the image display area IA is not limited.

以上、本発明を実施するための形態に関して説明してきたが、本発明は上述した実施形態及び変形例に限定されず、本発明の主旨を逸脱しない範囲で種々の変形が可能である。   Although the embodiments for carrying out the present invention have been described above, the present invention is not limited to the above-described embodiments and modifications, and various modifications can be made without departing from the gist of the present invention.

1 橋梁
2 床版
3 主桁
3A 接合部
10 ユーザ端末
11 端末入力部
12 端末送信部
13 端末受信部
14 端末表示部
15 端末操作部
16 端末制御部
17 端末記憶部
20、200 サーバ装置
22 受信部
24 送信部
26 合成画像生成部
28 ひび割れ検出部
30 ひび割れ情報生成部
32 機械学習部
34 スケール画像生成部
36 ひび割れ評価部
38 CADデータ取得部(データ変換部)
40 帳票作成部
42 記憶部
44 予測部
50 データベース
60、62 撮像装置
70 ロボット装置
72 撮像装置制御機構
AR 選択領域
AR1、AR2 ひび割れ対象領域
BR1、BR21、BR22 バー
BU1 OKボタン
BU2 キャンセルボタン
BU3 消去ボタン
BX1、BX2、BX3 チェックボックス
C1、C3、C4、C5、C7、C8、C8A ベクトルグループ
C1−1、C1−2、C1−3、C1−4、C1−5、C3−1、C4−1、C5−1、C5−2、C7−1、C7−2、C8−1、C8−2、C8−3、C8A−1、C8A−2 ベクトル
CR、CR1、CR2、CR3、CR4、CR11、CR11−1、CR11−2、CR11−3 ひび割れ画像
CS1、CS2、CS3、CS4 スケール画像
DA 表示領域
G1 第1のグループ
G2 第2のグループ
G3 第3のグループ
HG1、HG2 度数分布
IA 画像表示領域
IMG1、IMG2 合成画像
NW ネットワーク
SA スケール画像選択領域
SL1、SL2 スライダ
d 距離
α1、α2 角
Reference Signs List 1 bridge 2 floor slab 3 main girder 3A joint 10 user terminal 11 terminal input unit 12 terminal transmission unit 13 terminal reception unit 14 terminal display unit 15 terminal operation unit 16 terminal control unit 17 terminal storage unit 20, 200 server device 22 reception unit 24 Transmitting unit 26 Synthetic image generating unit 28 Crack detecting unit 30 Crack information generating unit 32 Machine learning unit 34 Scale image generating unit 36 Crack evaluating unit 38 CAD data obtaining unit (data converting unit)
40 form creation unit 42 storage unit 44 prediction unit 50 database 60, 62 imaging device 70 robot device 72 imaging device control mechanism AR selection region AR1, AR2 crack target regions BR1, BR21, BR22 bar BU1 OK button BU2 cancel button BU3 erase button BX1 , BX2, BX3 check boxes C1, C3, C4, C5, C7, C8, C8A vector groups C1-1, C1-2, C1-3, C1-4, C1-5, C3-1, C4-1, C5 -1, C5-2, C7-1, C7-2, C8-1, C8-2, C8-3, C8A-1, C8A-2 Vector CR, CR1, CR2, CR3, CR4, CR11, CR11-1 , CR11-2, CR11-3 Cracked images CS1, CS2, CS3, CS4 Scaled image DA Display area G1 First group G2 Second group G3 Third group HG1, HG2 Frequency distribution IA Image display area IMG1, IMG2 Composite image NW Network SA Scale image selection area SL1, SL2 Slider d Distance α1, α2 Angle

Claims (18)

構造物の表面を示す複数の画像と、前記複数の画像の位置情報とを、ユーザ端末から受信する受信部と、
前記受信された複数の画像及び前記位置情報に基づいて、前記構造物の表面を示す合成画像を生成する合成画像生成部と、
前記合成画像または合成前の前記画像を画像解析して前記構造物の表面のひび割れを検出するひび割れ検出部と、
前記検出されたひび割れに対応するひび割れ画像と前記検出されたひび割れの特徴量とを示すひび割れ情報を生成するひび割れ情報生成部と、
前記合成画像と前記ひび割れ情報とを前記ユーザ端末に送信して前記ユーザ端末の画面に前記合成画像と前記ひび割れ情報とを表示させる送信部と、を備え、
前記受信部は、前記ユーザ端末でのユーザ操作に応じた前記ひび割れ情報の修正内容を前記特徴量で示した修正要求を前記ユーザ端末から受信し、
前記ひび割れ情報生成部は、前記修正要求で示された前記特徴量に基づいて、前記ひび割れ情報を修正し、
前記送信部は、前記修正されたひび割れ情報を前記ユーザ端末に送信し、
前記特徴量に対する前記合成画像中の線分の検出度数を示す度数分布と、前記特徴量で前記ひび割れ情報の修正内容を指示入力するためのスライダとを、前記ひび割れ情報に付加し、前記ユーザ端末での前記スライダを用いた前記ユーザ操作に応じて前記ひび割れ情報を修正する、サーバ装置。
A plurality of images showing the surface of the structure, and position information of the plurality of images, a receiving unit that receives from the user terminal,
Based on the received plurality of images and the position information, a composite image generation unit that generates a composite image showing the surface of the structure,
A crack detection unit that analyzes the synthesized image or the image before synthesis to detect cracks on the surface of the structure,
A crack information generating unit that generates a crack image corresponding to the detected crack and crack information indicating the feature amount of the detected crack,
A transmission unit that transmits the composite image and the crack information to the user terminal and displays the composite image and the crack information on a screen of the user terminal,
The receiving unit receives, from the user terminal, a correction request indicating the correction content of the crack information according to the user operation on the user terminal, using the feature amount.
The crack information generating unit corrects the crack information based on the feature amount indicated in the correction request,
The transmitting unit transmits the corrected crack information to the user terminal,
Adding, to the crack information, a frequency distribution indicating a detection frequency of a line segment in the composite image with respect to the feature amount, and a slider for inputting a correction content of the crack information with the feature amount; A server device that corrects the crack information in accordance with the user operation using the slider in (1) .
前記受信部が受信した前記修正要求の履歴と、前記履歴に対応する前記合成画像及び前記ひび割れ情報と、に基づいて、前記ひび割れの検出を機械学習する機械学習部を備える、
請求項1に記載のサーバ装置。
A history of the correction request received by the receiving unit, based on the composite image and the crack information corresponding to the history, based on the machine learning unit that machine learning of the detection of the crack,
The server device according to claim 1 .
構造物の表面を示す複数の画像と、前記複数の画像の位置情報とを、ユーザ端末から受信する受信部と、
前記受信された複数の画像及び前記位置情報に基づいて、前記構造物の表面を示す合成画像を生成する合成画像生成部と、
前記合成画像または合成前の前記画像を画像解析して前記構造物の表面のひび割れを検出するひび割れ検出部と、
前記検出されたひび割れに対応するひび割れ画像と前記検出されたひび割れの特徴量とを示すひび割れ情報を生成するひび割れ情報生成部と、
前記合成画像と前記ひび割れ情報とを前記ユーザ端末に送信して前記ユーザ端末の画面に前記合成画像と前記ひび割れ情報とを表示させる送信部と、を備え、
前記受信部は、前記ユーザ端末でのユーザ操作に応じた前記ひび割れ情報の修正要求を前記ユーザ端末から受信し、
前記ひび割れ情報生成部は、前記修正要求に基づいて前記ひび割れ情報を修正し、
前記送信部は、前記修正されたひび割れ情報を前記ユーザ端末に送信し、
前記受信部が受信した前記修正要求の履歴と、前記履歴に対応する前記合成画像及び前記ひび割れ情報と、に基づいて、前記ひび割れの検出を機械学習する機械学習部を備える、サーバ装置。
A plurality of images showing the surface of the structure, and position information of the plurality of images, a receiving unit that receives from the user terminal,
Based on the received plurality of images and the position information, a composite image generation unit that generates a composite image showing the surface of the structure,
A crack detection unit that analyzes the synthesized image or the image before synthesis to detect cracks on the surface of the structure,
A crack information generating unit that generates a crack image corresponding to the detected crack and crack information indicating the feature amount of the detected crack,
A transmission unit that transmits the composite image and the crack information to the user terminal and displays the composite image and the crack information on a screen of the user terminal,
The receiving unit receives a correction request for the crack information from the user terminal according to a user operation on the user terminal,
The crack information generating unit corrects the crack information based on the correction request,
The transmitting unit transmits the corrected crack information to the user terminal,
A server device , comprising: a machine learning unit that machine-learns the detection of the crack based on the history of the correction request received by the receiving unit, the synthesized image corresponding to the history, and the crack information .
前記受信部は、前記ひび割れ情報の修正内容を前記特徴量で示した前記修正要求を前記ユーザ端末から受信し、
前記ひび割れ情報生成部は、前記修正要求で示された前記特徴量に基づいて、前記ひび割れ情報を修正する、
請求項に記載のサーバ装置。
The receiving unit receives, from the user terminal, the correction request indicating the correction content of the crack information in the feature amount,
The crack information generating unit corrects the crack information based on the feature amount indicated in the correction request,
The server device according to claim 3 .
前記特徴量に対する前記合成画像中の線分の検出度数を示す度数分布と、前記特徴量で前記ひび割れ情報の修正内容を指示入力するためのスライダとを、前記ひび割れ情報に付加し、前記ユーザ端末での前記スライダを用いた前記ユーザ操作に応じて前記ひび割れ情報を修正する、
請求項に記載のサーバ装置。
Adding, to the crack information, a frequency distribution indicating a detection frequency of a line segment in the composite image with respect to the feature amount, and a slider for inputting a correction content of the crack information with the feature amount; Correcting the crack information according to the user operation using the slider in,
The server device according to claim 4 .
前記ひび割れ情報生成部は、前記特徴量に基づいて前記ひび割れ画像をグルーピングして、前記ユーザ端末での前記ひび割れ画像のグループを選択するユーザ操作に応じて前記ひび割れ情報を修正する、
請求項1、2、4、5のうちいずれか一項に記載のサーバ装置。
The crack information generating unit groups the crack images based on the feature amount, and corrects the crack information according to a user operation of selecting a group of the crack images on the user terminal.
The server device according to any one of claims 1, 2, 4, and 5 .
前記特徴量は、前記ひび割れの方向、長さ、幅、エッジの強度、及びエッジの密度のうち少なくともいずれかを含む、
請求項1から6のうちいずれか一項に記載のサーバ装置。
The feature amount includes at least one of the direction of the crack, length, width, edge strength, and edge density,
The server device according to claim 1.
前記合成画像生成部は、前記複数の画像に対して、前記位置情報、縮尺、あおり及び回転角度のうち少なくとも一つの補正を行う、
請求項1から7のうちいずれか一項に記載のサーバ装置。
The composite image generation unit, for the plurality of images, performs at least one correction of the position information, scale, tilt and rotation angle,
The server device according to any one of claims 1 to 7.
前記合成画像生成部は、前記複数の画像に基づいて補正パラメータを導き出し、前記補正を行う、
請求項8に記載のサーバ装置。
The composite image generating unit derives a correction parameter based on the plurality of images, and performs the correction,
The server device according to claim 8.
前記ひび割れ情報に基づいて、前記ひび割れ画像によって示されるひび割れの幅を前記ユーザ端末の画面上で測定するためのスケール画像を生成するスケール画像生成部を備え、
前記ひび割れ情報生成部は、前記スケール画像を前記ひび割れ情報に付加する、
請求項1から9のうちいずれか一項に記載のサーバ装置。
Based on the crack information, comprising a scale image generating unit that generates a scale image for measuring the width of the crack indicated by the crack image on the screen of the user terminal,
The crack information generating unit adds the scale image to the crack information,
The server device according to any one of claims 1 to 9.
少なくとも前記ひび割れ情報に基づいて、前記ひび割れの程度を評価し、前記構造物のひび割れ程度の評価区分を判別するひび割れ評価部を備える、
請求項1から10のうちいずれか一項に記載のサーバ装置。
Based on at least the crack information, a degree of the crack is evaluated, comprising a crack evaluation unit that determines an evaluation category of the degree of crack of the structure,
The server device according to any one of claims 1 to 10.
前記判別された評価区分を含む前記構造物の点検結果を示す帳票を作成する帳票作成部を備える、
請求項11に記載のサーバ装置。
A form creation unit that creates a form showing an inspection result of the structure including the determined evaluation section,
The server device according to claim 11.
前記合成画像と前記ひび割れ情報とを、予め決められたデータ形式のCADデータに変換するデータ変換部を備える、
請求項1から12のうちいずれか一項に記載のサーバ装置。
A data conversion unit that converts the composite image and the crack information into CAD data in a predetermined data format;
The server device according to claim 1.
前記構造物の構造情報、環境条件情報、使用条件情報、維持管理履歴情報、及び災害履歴情報のうち少なくともひとつの情報と、前記ひび割れ情報とに基づいて、前記ひび割れの進行を予測する予測部を備える、
請求項1から13のうちいずれか一項に記載のサーバ装置。
Based on at least one of the structural information of the structure, environmental condition information, use condition information, maintenance history information, and disaster history information, and the crack information, a prediction unit that predicts the progress of the crack. Prepare,
14. The server device according to claim 1.
ユーザ端末及びサーバ装置を含む画像処理システムであって、
前記ユーザ端末は、
構造物の表面を示す複数の画像と、前記複数の画像の位置情報とを入力する端末入力部と、
前記サーバ装置に対して、前記複数の画像及び前記位置情報を送信する端末送信部と、
前記サーバ装置から、前記複数の画像に対する画像処理結果を受信する端末受信部と、
前記画像処理結果を表示する端末表示部と、
を備え、
前記サーバ装置は、
前記ユーザ端末から、前記複数の画像と前記位置情報とを受信する受信部と、
前記受信された前記複数の画像及び前記位置情報に基づいて、前記構造物の表面を示す合成画像を生成する合成画像生成部と、
前記合成画像または合成前の前記画像を画像解析して前記構造物の表面のひび割れを検出するひび割れ検出部と、
前記検出されたひび割れに対応するひび割れ画像と前記検出されたひび割れの特徴量とを示すひび割れ情報を生成するひび割れ情報生成部と、
前記複数の画像に対する前記画像処理結果として、前記合成画像と前記ひび割れ情報とを前記ユーザ端末に送信する送信部と、
を備え、
前記端末表示部は、前記合成画像と前記ひび割れ情報とを表示し、
前記受信部は、前記ユーザ端末でのユーザ操作に応じた前記ひび割れ情報の修正内容を前記特徴量で示した修正要求を前記ユーザ端末から受信し、
前記ひび割れ情報生成部は、前記修正要求で示された前記特徴量に基づいて、前記ひび割れ情報を修正し、
前記送信部は、前記修正されたひび割れ情報を前記ユーザ端末に送信し、
前記サーバ装置は、前記特徴量に対する前記合成画像中の線分の検出度数を示す度数分布と、前記特徴量で前記ひび割れ情報の修正内容を指示入力するためのスライダとを、前記ひび割れ情報に付加し、前記ユーザ端末での前記スライダを用いた前記ユーザ操作に応じて前記ひび割れ情報を修正する、
画像処理システム。
An image processing system including a user terminal and a server device,
The user terminal,
A plurality of images showing the surface of the structure, a terminal input unit for inputting the position information of the plurality of images,
For the server device, a terminal transmission unit that transmits the plurality of images and the position information,
From the server device, a terminal receiving unit that receives an image processing result for the plurality of images,
A terminal display unit for displaying the image processing result,
With
The server device,
From the user terminal, a receiving unit that receives the plurality of images and the position information,
Based on the received plurality of images and the position information, based on the synthesized image generating unit that generates a synthesized image showing the surface of the structure,
A crack detection unit that analyzes the synthesized image or the image before synthesis to detect cracks on the surface of the structure,
A crack information generation unit that generates a crack image corresponding to the detected crack and crack information indicating the feature amount of the detected crack,
A transmission unit that transmits the composite image and the crack information to the user terminal as the image processing result for the plurality of images,
With
The terminal display unit displays the composite image and the crack information ,
The receiving unit receives, from the user terminal, a correction request indicating the correction content of the crack information according to the user operation on the user terminal, using the feature amount.
The crack information generating unit corrects the crack information based on the feature amount indicated in the correction request,
The transmitting unit transmits the corrected crack information to the user terminal,
The server device adds, to the crack information, a frequency distribution indicating a detection frequency of a line segment in the composite image with respect to the feature amount, and a slider for instructing and inputting the content of correction of the crack information with the feature amount. And correcting the crack information in accordance with the user operation using the slider in the user terminal,
Image processing system.
ユーザ端末及びサーバ装置を含む画像処理システムであって、
前記ユーザ端末は、
構造物の表面を示す複数の画像と、前記複数の画像の位置情報とを入力する端末入力部と、
前記サーバ装置に対して、前記複数の画像及び前記位置情報を送信する端末送信部と、
前記サーバ装置から、前記複数の画像に対する画像処理結果を受信する端末受信部と、
前記画像処理結果を表示する端末表示部と、
を備え、
前記サーバ装置は、
前記ユーザ端末から、前記複数の画像と前記位置情報とを受信する受信部と、
前記受信された前記複数の画像及び前記位置情報に基づいて、前記構造物の表面を示す合成画像を生成する合成画像生成部と、
前記合成画像または合成前の前記画像を画像解析して前記構造物の表面のひび割れを検出するひび割れ検出部と、
前記検出されたひび割れに対応するひび割れ画像と前記検出されたひび割れの特徴量とを示すひび割れ情報を生成するひび割れ情報生成部と、
前記複数の画像に対する前記画像処理結果として、前記合成画像と前記ひび割れ情報とを前記ユーザ端末に送信する送信部と、
を備え、
前記端末表示部は、前記合成画像と前記ひび割れ情報とを表示し、
前記受信部は、前記ユーザ端末でのユーザ操作に応じた前記ひび割れ情報の修正要求を前記ユーザ端末から受信し、
前記ひび割れ情報生成部は、前記修正要求に基づいて前記ひび割れ情報を修正し、
前記送信部は、前記修正されたひび割れ情報を前記ユーザ端末に送信し、
前記サーバ装置は、前記受信部が受信した前記修正要求の履歴と、前記履歴に対応する前記合成画像及び前記ひび割れ情報と、に基づいて、前記ひび割れの検出を機械学習する機械学習部を備える、
画像処理システム。
An image processing system including a user terminal and a server device,
The user terminal,
A plurality of images showing the surface of the structure, a terminal input unit for inputting the position information of the plurality of images,
For the server device, a terminal transmission unit that transmits the plurality of images and the position information,
From the server device, a terminal receiving unit that receives an image processing result for the plurality of images,
A terminal display unit for displaying the image processing result,
With
The server device,
From the user terminal, a receiving unit that receives the plurality of images and the position information,
Based on the received plurality of images and the position information, based on the synthesized image generating unit that generates a synthesized image showing the surface of the structure,
A crack detection unit that analyzes the synthesized image or the image before synthesis to detect cracks on the surface of the structure,
A crack information generation unit that generates a crack image corresponding to the detected crack and crack information indicating the feature amount of the detected crack,
A transmission unit that transmits the composite image and the crack information to the user terminal as the image processing result for the plurality of images,
With
The terminal display unit displays the composite image and the crack information ,
The receiving unit receives a correction request for the crack information from the user terminal according to a user operation on the user terminal,
The crack information generating unit corrects the crack information based on the correction request,
The transmitting unit transmits the corrected crack information to the user terminal,
The server device, a history of the correction request received by the receiving unit, based on the synthesized image and the crack information corresponding to the history, based on the machine learning unit that machine learning of the detection of the crack,
Image processing system.
構造物の表面を示す複数の画像と、前記複数の画像の位置情報とを、ユーザ端末から受信するステップと、
前記受信された複数の画像及び前記位置情報に基づいて、前記構造物の表面を示す合成画像を生成するステップと、
前記合成画像または合成前の前記画像を画像解析して前記構造物の表面のひび割れを検出するステップと、
前記検出されたひび割れに対応するひび割れ画像と前記検出されたひび割れの特徴量とを示すひび割れ情報を生成するステップと、
前記合成画像と前記ひび割れ情報とを前記ユーザ端末に送信して前記ユーザ端末の画面に前記合成画像と前記ひび割れ情報とを表示させるステップと、
前記ユーザ端末でのユーザ操作に応じた前記ひび割れ情報の修正内容を前記特徴量で示した修正要求を前記ユーザ端末から受信するステップと、
前記修正要求で示された前記特徴量に基づいて、前記ひび割れ情報を修正するステップと、
前記修正されたひび割れ情報を前記ユーザ端末に送信するステップと、
前記特徴量に対する前記合成画像中の線分の検出度数を示す度数分布と、前記特徴量で前記ひび割れ情報の修正内容を指示入力するためのスライダとを、前記ひび割れ情報に付加し、前記ユーザ端末での前記スライダを用いた前記ユーザ操作に応じて前記ひび割れ情報を修正するステップと、
を含む画像処理方法。
A plurality of images showing the surface of the structure, and the position information of the plurality of images, receiving from a user terminal,
Based on the received plurality of images and the position information, generating a composite image showing the surface of the structure,
Image analysis of the synthesized image or the image before synthesis to detect cracks on the surface of the structure,
Generating crack information indicating the crack image corresponding to the detected crack and the feature amount of the detected crack,
Transmitting the composite image and the crack information to the user terminal to display the composite image and the crack information on a screen of the user terminal;
Receiving from the user terminal a correction request indicating the correction content of the crack information according to a user operation at the user terminal, the correction amount being indicated by the feature amount;
Correcting the crack information based on the feature amount indicated in the correction request;
Transmitting the modified crack information to the user terminal;
Adding, to the crack information, a frequency distribution indicating a detection frequency of a line segment in the composite image with respect to the feature amount, and a slider for inputting a correction content of the crack information with the feature amount; Correcting the crack information in response to the user operation using the slider in,
An image processing method including:
構造物の表面を示す複数の画像と、前記複数の画像の位置情報とを、ユーザ端末から受信するステップと、
前記受信された複数の画像及び前記位置情報に基づいて、前記構造物の表面を示す合成画像を生成するステップと、
前記合成画像または合成前の前記画像を画像解析して前記構造物の表面のひび割れを検出するステップと、
前記検出されたひび割れに対応するひび割れ画像と前記検出されたひび割れの特徴量とを示すひび割れ情報を生成するステップと、
前記合成画像と前記ひび割れ情報とを前記ユーザ端末に送信して前記ユーザ端末の画面に前記合成画像と前記ひび割れ情報とを表示させるステップと、
前記ユーザ端末でのユーザ操作に応じた前記ひび割れ情報の修正要求を前記ユーザ端末から受信するステップと、
前記修正要求に基づいて、前記ひび割れ情報を修正するステップと、
前記修正されたひび割れ情報を前記ユーザ端末に送信するステップと、
前記受信した前記修正要求の履歴と、前記履歴に対応する前記合成画像及び前記ひび割れ情報と、に基づいて、前記ひび割れの検出を機械学習するステップと、
を含む画像処理方法。
A plurality of images showing the surface of the structure, and the position information of the plurality of images, receiving from a user terminal,
Based on the received plurality of images and the position information, generating a composite image showing the surface of the structure,
Image analysis of the synthesized image or the image before synthesis to detect cracks on the surface of the structure,
Generating crack information indicating the crack image corresponding to the detected crack and the feature amount of the detected crack,
Transmitting the composite image and the crack information to the user terminal to display the composite image and the crack information on a screen of the user terminal;
Receiving a request for correction of the crack information from the user terminal according to a user operation at the user terminal,
Correcting the crack information based on the correction request;
Transmitting the modified crack information to the user terminal;
Based on the received history of the correction request, the composite image and the crack information corresponding to the history, based on machine learning of the crack detection,
An image processing method including:
JP2018523607A 2016-06-14 2017-05-19 Server device, image processing system, and image processing method Active JP6626970B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019218028A JP6944506B2 (en) 2016-06-14 2019-12-02 Image processing method, image processing device, and image processing program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016117868 2016-06-14
JP2016117868 2016-06-14
PCT/JP2017/018917 WO2017217185A1 (en) 2016-06-14 2017-05-19 Server device, image processing system, and image processing method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019218028A Division JP6944506B2 (en) 2016-06-14 2019-12-02 Image processing method, image processing device, and image processing program

Publications (2)

Publication Number Publication Date
JPWO2017217185A1 JPWO2017217185A1 (en) 2019-02-28
JP6626970B2 true JP6626970B2 (en) 2019-12-25

Family

ID=60664350

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2018523607A Active JP6626970B2 (en) 2016-06-14 2017-05-19 Server device, image processing system, and image processing method
JP2019218028A Active JP6944506B2 (en) 2016-06-14 2019-12-02 Image processing method, image processing device, and image processing program
JP2021147462A Active JP7241139B2 (en) 2016-06-14 2021-09-10 Server device, image processing method, and image processing system
JP2023033675A Pending JP2023078205A (en) 2016-06-14 2023-03-06 Image processing device, image processing system, operation method of image processing device and image processing program

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2019218028A Active JP6944506B2 (en) 2016-06-14 2019-12-02 Image processing method, image processing device, and image processing program
JP2021147462A Active JP7241139B2 (en) 2016-06-14 2021-09-10 Server device, image processing method, and image processing system
JP2023033675A Pending JP2023078205A (en) 2016-06-14 2023-03-06 Image processing device, image processing system, operation method of image processing device and image processing program

Country Status (2)

Country Link
JP (4) JP6626970B2 (en)
WO (1) WO2017217185A1 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6833356B2 (en) * 2016-06-16 2021-02-24 キヤノン株式会社 Information processing equipment, information processing methods and programs
JP6901008B2 (en) 2017-12-25 2021-07-14 富士通株式会社 Image processing programs, image processing methods, and image processing equipment
WO2019163118A1 (en) * 2018-02-26 2019-08-29 株式会社オプティム Computer system, drone control method, and program
CN112334732B (en) * 2018-10-12 2023-06-09 松下知识产权经营株式会社 Prediction device and prediction method
JP7263074B2 (en) * 2019-03-22 2023-04-24 キヤノン株式会社 Information processing device, its control method, program, and storage medium
JP7309227B2 (en) * 2019-04-01 2023-07-18 アイポア株式会社 Machine learning program, method, and device for measuring transient changes in ion current accompanying passage of particles to be measured through pores by pore electrical resistance method and analyzing the pulse waveform
JP7316097B2 (en) * 2019-05-24 2023-07-27 日本放送協会 Object trajectory generator and its program
JP7151652B2 (en) * 2019-07-18 2022-10-12 株式会社デンソー Crack width measuring device
JP7427381B2 (en) * 2019-07-22 2024-02-05 キヤノン株式会社 Information processing device, system, information processing method and program
JPWO2021200675A1 (en) * 2020-04-01 2021-10-07
EP4148663A4 (en) 2020-05-07 2023-10-25 FUJIFILM Corporation Damage evaluating device, method, and program
JP7453848B2 (en) * 2020-05-21 2024-03-21 清水建設株式会社 Face image processing device, face image processing method
KR102374840B1 (en) * 2020-10-20 2022-03-15 두산중공업 주식회사 Defect image generation method for deep learning and system therefor
WO2022209709A1 (en) * 2021-04-02 2022-10-06 富士フイルム株式会社 Image processing device, image processing method, and image processing program
WO2023047859A1 (en) * 2021-09-22 2023-03-30 富士フイルム株式会社 Information processing device, method and program, and image data structure
KR102635926B1 (en) * 2023-08-29 2024-02-13 디엘이앤씨 주식회사 Facility Crack Measuring System

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06148089A (en) * 1992-05-29 1994-05-27 Shimizu Corp Craze measuring processor
JP3067652B2 (en) * 1996-09-04 2000-07-17 関西電力株式会社 Concrete crack measuring method and measuring device
JP4269461B2 (en) * 2000-01-14 2009-05-27 株式会社Ihi Graphic processing method using elliptical area
JP2002310920A (en) * 2001-04-19 2002-10-23 Keisoku Kensa Kk Method for detecting crack in concrete wall and device thereof
JP4010806B2 (en) * 2001-12-20 2007-11-21 西松建設株式会社 Concrete surface deformation investigation system and concrete surface deformation investigation method
JP2004069434A (en) * 2002-08-05 2004-03-04 Tokyo Electric Power Co Inc:The Image processing method using image with laser light spot, mosaic processing method using the image, and normalization service system using the method
JP2005062041A (en) * 2003-08-15 2005-03-10 Junichi Izumo Soundness evaluation method, evaluation program and evaluation device
JP2006132973A (en) * 2004-11-02 2006-05-25 Fujimitsu Komuten:Kk Crack inspection device and method of concrete structure
JP4954006B2 (en) * 2007-09-28 2012-06-13 三洋電機株式会社 Crack width measuring system, operating device, crack width measuring method, and crack width measuring program
JP5688533B1 (en) * 2014-01-23 2015-03-25 デ・ファクト・スタンダード合同会社 Concrete structure maintenance management system
CN111717407B (en) * 2014-04-25 2023-09-29 索尼公司 Control method and control device
US11250585B2 (en) * 2014-04-25 2022-02-15 Sony Corporation Information processing device, information processing method, and computer program
JP6368207B2 (en) * 2014-09-25 2018-08-01 前田建設工業株式会社 Inspection support device, inspection support method, and program for concrete structure
JP6387782B2 (en) * 2014-10-17 2018-09-12 ソニー株式会社 Control device, control method, and computer program

Also Published As

Publication number Publication date
JPWO2017217185A1 (en) 2019-02-28
JP2020038227A (en) 2020-03-12
WO2017217185A1 (en) 2017-12-21
JP6944506B2 (en) 2021-10-06
JP7241139B2 (en) 2023-03-16
JP2023078205A (en) 2023-06-06
JP2022000646A (en) 2022-01-04

Similar Documents

Publication Publication Date Title
JP6626970B2 (en) Server device, image processing system, and image processing method
Elghaish et al. Toward digitalization in the construction industry with immersive and drones technologies: a critical literature review
CN111459166B (en) Scene map construction method containing trapped person position information in post-disaster rescue environment
Duque et al. Bridge deterioration quantification protocol using UAV
JP6857218B2 (en) Damage information processing device and damage information processing method
EP3396358A1 (en) Information processing device and information processing method
JP7146013B2 (en) Server device, image processing method, and program
US11144590B2 (en) Similar damage search device and a similar damage search method
Pantoja-Rosero et al. Damage-augmented digital twins towards the automated inspection of buildings
CN112241950A (en) Detection method of tower crane crack image
Xu et al. Computer vision techniques in construction, operation and maintenance phases of civil assets: A critical review
Obiechefu et al. Damage detection techniques for structural health monitoring of bridges from computer vision derived parameters
Park et al. A framework for improving object recognition of structural components in construction site photos using deep learning approaches
Taraben et al. Automated linking of 3D inspection data for damage analysis
Jayaram Computer vision applications in construction material and structural health monitoring: A scoping review
Braun et al. Classification of detection states in construction progress monitoring
Liang et al. Intelligent Defect Diagnosis of Appearance Quality for Prefabricated Concrete Components Based on Target Detection and Multimodal Fusion Decision
Ding et al. Adaptive vision feature extractions and reinforced learning-assisted evolution for structural condition assessment
Flores-Fuentes Bridge load classifier based on deep learning for structural displacement correlation
Saeedfar et al. Dynamic Space Conflict Modeling for Construction Operations
Subedi et al. Spatial change tracking of structural elements of a girder bridge under construction using 3D point cloud
JP7401478B2 (en) Information processing device, information processing method, and program
Qureshi et al. Smart rebar progress monitoring using 3D point cloud model
Bae et al. Segmentation approach to detection of discrepancy between as-built and as-planned structure images on a construction site
Lin et al. Bridge Inspection with Aerial Robots and Computer Vision: A Japanese National Initiative

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A5211

Effective date: 20181011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181025

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191202

R150 Certificate of patent or registration of utility model

Ref document number: 6626970

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250