JP6944506B2 - Image processing method, image processing device, and image processing program - Google Patents

Image processing method, image processing device, and image processing program Download PDF

Info

Publication number
JP6944506B2
JP6944506B2 JP2019218028A JP2019218028A JP6944506B2 JP 6944506 B2 JP6944506 B2 JP 6944506B2 JP 2019218028 A JP2019218028 A JP 2019218028A JP 2019218028 A JP2019218028 A JP 2019218028A JP 6944506 B2 JP6944506 B2 JP 6944506B2
Authority
JP
Japan
Prior art keywords
image
crack
information
user terminal
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019218028A
Other languages
Japanese (ja)
Other versions
JP2020038227A (en
Inventor
佐藤 康平
康平 佐藤
学斌 胡
学斌 胡
康彦 金子
康彦 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JP2020038227A publication Critical patent/JP2020038227A/en
Priority to JP2021147462A priority Critical patent/JP7241139B2/en
Application granted granted Critical
Publication of JP6944506B2 publication Critical patent/JP6944506B2/en
Priority to JP2023033675A priority patent/JP2023078205A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Immunology (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Processing (AREA)

Description

本発明は、高額な装置を必要とせずにひび割れ箇所の画像を解析し、かつユーザの操作を煩雑にすることなくひび割れ箇所の合成画像及び画像解析結果を提示することを可能にする画像処理方法、画像処理装置、及び画像処理プログラムに関する。 The present invention is an image processing method capable of analyzing an image of a cracked portion without requiring an expensive device and presenting a composite image of the cracked portion and an image analysis result without complicating the user's operation. , Image processing device, and image processing program.

社会的なインフラストラクチャーとして、橋梁、トンネルといった構造物が存在する。これらの構造物には損傷が発生し、その損傷は進行する性質を持つため、定期的に点検を行うことが求められている。また的確な点検結果を報告することが求められている。例えば、構造物の表面に生じたひび割れの性状を的確に把握して点検結果を報告することが求められており、その報告に基づいてひび割れの進行程度に応じた適切な維持管理を行う必要がある。 As social infrastructure, there are structures such as bridges and tunnels. Since these structures are damaged and the damage is progressive, it is required to be inspected regularly. It is also required to report accurate inspection results. For example, it is required to accurately grasp the properties of cracks generated on the surface of the structure and report the inspection results, and based on the report, it is necessary to carry out appropriate maintenance according to the degree of progress of the cracks. be.

特許文献1には、コンクリート壁面をレーザ発射体付きのカメラで撮像して得られたレーザ光点付きの遠景画像及び近接画像をモバイルパソコンから送信すると、遠景画像及び近接画像をコンクリート壁面の正面から見た画像に正規化し、更に画像解析対象の近接画像を指定するために近接画像が遠景画像のどのエリアのものかを割り付ける操作をモバイルパソコンで行って解析指示を送信すると、指定の近接画像を画像解析してひび割れ幅を計測するサーバ装置が、記載されている。 In Patent Document 1, when a distant view image and a close-up image with a laser beam spot obtained by imaging a concrete wall surface with a camera equipped with a laser projectile are transmitted from a mobile personal computer, the distant view image and the close-up image are transmitted from the front of the concrete wall surface. If you use a mobile computer to perform an operation to assign the proximity image to which area of the distant view image in order to normalize it to the viewed image and further specify the proximity image to be image-analyzed, and send the analysis instruction, the specified proximity image will be displayed. A server device that analyzes an image and measures the crack width is described.

特許文献2には、パーソナルコンピュータにおいて、点検現場での作業時に野帳に記入された撮影位置の情報に基づいてコンクリート構造物の画像をCAD(computer aided design)図面上に貼り付ける操作を行うと、その操作に応じて画像をCAD図面と関連付け、更に画像上でひび割れをトレースする操作を行うと、その操作に応じて画像上のひび割れをCAD図面に写像し、CAD図面の情報を用いてひび割れの幅及び長さを算出することが、記載されている。 According to Patent Document 2, in a personal computer, an operation of pasting an image of a concrete structure on a CAD (computer aided design) drawing based on information on a shooting position entered in a field book during work at an inspection site is performed. , The image is associated with the CAD drawing according to the operation, and when the operation of tracing the crack on the image is performed, the crack on the image is mapped to the CAD drawing according to the operation, and the crack is mapped using the information of the CAD drawing. It is stated that the width and length of the

特許文献3には、パーソナルコンピュータにおいて、カメラからコンクリート壁面までの距離とカメラの光軸に対するコンクリート壁面の傾斜角とを計測して、複数枚の画像を接合し且つコンクリート壁面の正面から見た画像に補正し、更にコンクリート壁面のひび割れの分布状態とひび割れの幅とを求めて状態図を表示することが、記載されている。実際はひび割れであるにもかかわらず認識できていないひび割れは、マウスやペン入力装置を用いてトレースする操作により入力することができる。 In Patent Document 3, a personal computer measures the distance from the camera to the concrete wall surface and the inclination angle of the concrete wall surface with respect to the optical axis of the camera, joins a plurality of images, and views the image from the front of the concrete wall surface. It is described that the state diagram is displayed by obtaining the distribution state of cracks on the concrete wall surface and the width of the cracks. Cracks that are actually cracks but cannot be recognized can be input by tracing using a mouse or a pen input device.

特許文献4には、ひび割れの識別処理をサポートベクトルマシンアルゴリズムを用いて機械学習する際に、複数の領域画像のうち各領域画像の中心と各領域画像中の識別対象物(ひび割れ、汚れ、他の凹凸など)の重心とが一致する領域画像だけを学習対象のサンプルとして選択することが、記載されている。 Patent Document 4 supports crack identification processing. When machine learning is performed using a vector machine algorithm, the center of each region image among a plurality of region images and the identification target in each region image (cracks, stains, etc.) It is described that only the region image that coincides with the center of gravity of (such as the unevenness of) is selected as the sample to be learned.

特開2004−69434号公報Japanese Unexamined Patent Publication No. 2004-69434 特開2005−310044号公報Japanese Unexamined Patent Publication No. 2005-310044 特開平10−78305号公報Japanese Unexamined Patent Publication No. 10-78305 特開2003−216953号公報Japanese Unexamined Patent Publication No. 2003-216953

特許文献1〜4には、構造物を分割撮像して得られた複数の画像と共に各画像の位置情報をユーザ端末から送信してサーバ装置で一枚の画像に合成することについて、開示が無い。 Patent Documents 1 to 4 do not disclose that the position information of each image is transmitted from the user terminal together with a plurality of images obtained by dividing and imaging the structure and combined into one image by the server device. ..

また、特許文献1に記載されたモバイルパソコン(ユーザ端末の一形態である)及びサーバ装置からなるシステムでは、レーザ発射体を設けたカメラが必要となるだけではなくて、遠景画像及び近接画像が必要であり、更には遠景画像に対して近接画像を割り付けるユーザ操作により画像解析対象の近接画像を指定する必要がある。従って、高額な装置が必要になるだけでなく、ひび割れの画像解析結果を得るまでのユーザの操作が煩雑であると言える。 Further, in the system including a mobile personal computer (a form of a user terminal) and a server device described in Patent Document 1, not only a camera provided with a laser projectile is required, but also a distant view image and a close-up image are provided. It is necessary, and further, it is necessary to specify the proximity image to be image-analyzed by the user operation of allocating the proximity image to the distant view image. Therefore, it can be said that not only an expensive device is required, but also the user's operation until the image analysis result of the crack is obtained is complicated.

また、ユーザ端末でひび割れ箇所の合成画像を生成し且つひび割れの画像解析を行う場合には、高額なハードウエア又は高額なソフトウエアが必要であった。つまり、高額な装置を必要とした。 Further, in order to generate a composite image of a cracked portion on a user terminal and perform image analysis of the cracked portion, expensive hardware or expensive software is required. In other words, it required an expensive device.

特許文献2には、パーソナルコンピュータ(ユーザ端末の一形態である)において、画像をCAD図面上に貼り付ける操作と、画像上でひび割れをトレースする操作とを行うと、ひび割れの幅及び長さを算出することが記載されているにすぎない。 In Patent Document 2, when an operation of pasting an image on a CAD drawing and an operation of tracing a crack on the image are performed on a personal computer (a form of a user terminal), the width and length of the crack are determined. It only states that it should be calculated.

特許文献3に記載された技術では、ひび割れ情報を修正する場合にはマウスやペン入力装置を用いて一本ずつトレースする操作が必要となる。このようなトレース操作によるひび割れ情報の修正機能を用いれば、どのようなパターンのひび割れに対しても一本ずつ個別に修正できるけれども、操作が煩雑であり、作業時間が掛かってしまうため、繁忙な作業員にとって実際には行えない場合がある。 In the technique described in Patent Document 3, when correcting crack information, it is necessary to perform an operation of tracing one by one using a mouse or a pen input device. By using the crack information correction function by such a trace operation, it is possible to individually correct cracks of any pattern one by one, but the operation is complicated and it takes a lot of work time, so it is busy. It may not be possible for workers to actually do it.

特許文献4には、構造物の画像に基づいてひび割れの識別処理を学習することが記載されているにすぎない。 Patent Document 4 merely describes learning the crack identification process based on the image of the structure.

以上のように構造物の表面に生じるひび割れの性状を的確に把握して点検結果を報告することを支援するための各種の装置が提案又は提供されてきたが、ひび割れ箇所の画像を解析してひび割れの画像解析結果をユーザに提示するためには、高額な装置が必要になるとともに、ひび割れ箇所の複数の画像を合成するためのユーザの負荷が大きいといった問題があった。 As described above, various devices have been proposed or provided to help accurately grasp the properties of cracks generated on the surface of the structure and report the inspection results, but the images of the cracked parts are analyzed. In order to present the image analysis result of the crack to the user, an expensive device is required, and there is a problem that the load on the user for synthesizing a plurality of images of the cracked portion is heavy.

本発明は、高額な装置を必要とせずにひび割れ箇所の画像を解析し、かつユーザの操作を煩雑にすることなくひび割れ箇所の合成画像及び画像解析結果を提示することを可能にする画像処理方法、画像処理装置、及び画像処理プログラムを提供することを目的とする。 The present invention is an image processing method capable of analyzing an image of a cracked portion without requiring an expensive device and presenting a composite image of the cracked portion and an image analysis result without complicating the user's operation. , An image processing apparatus, and an image processing program.

上述した目的を達成するため、本発明の第1の態様に係るサーバ装置は、構造物の表面を示す複数の画像と、複数の画像の位置情報とを、ユーザ端末から受信する受信部と、受信された複数の画像及び位置情報に基づいて、構造物の表面を示す合成画像を生成する合成画像生成部と、合成画像または合成前の画像を画像解析して構造物の表面のひび割れを検出するひび割れ検出部と、検出されたひび割れに対応するひび割れ画像と検出されたひび割れの特徴量とを示すひび割れ情報を生成するひび割れ情報生成部と、を備える。 In order to achieve the above-mentioned object, the server device according to the first aspect of the present invention includes a receiving unit that receives a plurality of images showing the surface of the structure and position information of the plurality of images from the user terminal. Based on a plurality of received images and position information, a composite image generator that generates a composite image showing the surface of the structure and an image analysis of the composite image or the image before synthesis are performed to detect cracks on the surface of the structure. A crack detection unit is provided, and a crack information generation unit that generates crack information indicating a crack image corresponding to the detected crack and a feature amount of the detected crack is provided.

本態様によれば、ユーザ端末から構造物の表面を示す複数の画像とその複数の画像の位置情報とを送信すると、サーバ装置により複数の画像及び画像の位置情報に基づいて合成画像が生成され、且つひび割れ情報が生成されるので、高額な装置を必要とせずにひび割れ箇所の画像を解析し、かつユーザの操作を煩雑にすることなくひび割れ箇所の合成画像及び画像解析結果を提示することが可能になる。また、本態様によれば、ユーザ端末から送信された画像及びその位置情報、更にはサーバ装置で生成された合成画像及びひび割れ情報を、蓄積してビッグデータ化することが可能になるので、そのビッグデータの二次利用により適切な合成画像及び適切な画像解析結果を導き出せるようにすることが可能になるとも言える。 According to this aspect, when a plurality of images showing the surface of a structure and position information of the plurality of images are transmitted from a user terminal, a composite image is generated based on the plurality of images and the position information of the images by the server device. Moreover, since the crack information is generated, it is possible to analyze the image of the cracked portion without requiring an expensive device and to present the composite image and the image analysis result of the cracked portion without complicating the user's operation. It will be possible. Further, according to this aspect, the image transmitted from the user terminal and its position information, as well as the composite image and crack information generated by the server device can be accumulated and converted into big data. It can be said that the secondary use of big data makes it possible to derive appropriate composite images and appropriate image analysis results.

本発明の第2の態様に係るサーバ装置では、合成画像とひび割れ情報とをユーザ端末に送信してユーザ端末の画面に合成画像とひび割れ情報とを表示させる送信部を備え、受信部は、ユーザ端末でのマニュアル操作に応じたひび割れ情報の修正要求をユーザ端末から受信し、ひび割れ情報生成部は、修正要求に基づいてひび割れ情報を修正し、送信部は、修正されたひび割れ情報をユーザ端末に送信する。本態様によれば、ユーザ端末の画面に合成画像及びひび割れ情報が表示され、その表示の内容に対してユーザがマニュアル操作を行った場合、そのマニュアル操作に応じた修正要求をサーバに蓄積することが可能になる。従って、より適切な画像解析結果を導き出せるように、サーバ装置での画像解析処理を改良することが容易になる。つまり、画像処理結果の修正のための煩雑なユーザ操作を減らしつつ、より適切な画像解析結果をユーザに対して提示することが可能になる。 The server device according to the second aspect of the present invention includes a transmission unit that transmits a composite image and crack information to a user terminal and displays the composite image and crack information on the screen of the user terminal, and the reception unit is a user. A request for correction of crack information according to a manual operation on the terminal is received from the user terminal, the crack information generation unit corrects the crack information based on the correction request, and the transmission unit transmits the corrected crack information to the user terminal. Send. According to this aspect, when a composite image and crack information are displayed on the screen of the user terminal and the user manually operates the displayed contents, a correction request corresponding to the manual operation is stored in the server. Becomes possible. Therefore, it becomes easy to improve the image analysis process in the server device so that a more appropriate image analysis result can be derived. That is, it is possible to present a more appropriate image analysis result to the user while reducing complicated user operations for correcting the image processing result.

本発明の第3の態様に係るサーバ装置では、受信部は、ひび割れ情報の修正内容を特徴量で示した修正要求をユーザ端末から受信し、ひび割れ情報生成部は、修正要求で示された特徴量に基づいて、ひび割れ情報を修正する。本態様によれば、ひび割れの特徴量でひび割れ情報の修正要求を示すユーザ操作が可能になる。例えばトレース操作に基づいてひび割れ情報を一本ずつ修正する場合と比較して、簡易な操作でひび割れ情報を修正することが可能になる。 In the server device according to the third aspect of the present invention, the receiving unit receives a correction request indicating the correction content of the crack information in a feature amount from the user terminal, and the crack information generating unit receives the correction request indicated by the feature. Correct crack information based on quantity. According to this aspect, it is possible to perform a user operation indicating a request for correction of crack information by the feature amount of the crack. For example, compared with the case where the crack information is corrected one by one based on the trace operation, the crack information can be corrected by a simple operation.

本発明の第4の態様に係るサーバ装置では、特徴量に対する合成画像中の線分の検出度数を示す度数分布と、特徴量でひび割れ情報の修正内容を指示入力するためのスライダとを、ひび割れ情報に付加し、ユーザ端末でのスライダを用いたユーザ操作に応じてひび割れ情報を修正する。本態様によれば、特徴量に対する線分の検出度数を見ながらスライダを操作するという簡易な操作で、ひび割れ情報を修正することが可能になる。 In the server device according to the fourth aspect of the present invention, the frequency distribution indicating the detection frequency of the line segment in the composite image with respect to the feature amount and the slider for instructing and inputting the correction content of the crack information by the feature amount are cracked. It is added to the information, and the crack information is corrected according to the user operation using the slider on the user terminal. According to this aspect, the crack information can be corrected by a simple operation of operating the slider while observing the detection frequency of the line segment with respect to the feature amount.

本発明の第5の態様に係るサーバ装置では、ひび割れ情報生成部は、特徴量に基づいてひび割れ画像をグルーピングして、ユーザ端末でのひび割れ画像のグループを選択するマニュアル操作に応じてひび割れ情報を修正する。本態様によれば、ひび割れ画像のグループを選択するという簡易な操作で、ひび割れ情報を修正することが可能になる。 In the server device according to the fifth aspect of the present invention, the crack information generation unit groups the crack images based on the feature amount and generates the crack information according to the manual operation of selecting the group of the crack images on the user terminal. Fix it. According to this aspect, the crack information can be corrected by a simple operation of selecting a group of crack images.

本発明の第6の態様に係るサーバ装置では、ユーザ端末でのマニュアル操作に基づいて、ひび割れの検出を機械学習する機械学習部を備える。本態様によれば、ユーザ端末でのマニュアル操作に基づいてひび割れの検出が機械学習されるので、画像解析結果を修正するための煩雑なユーザ操作を着実に減少させてゆくことが可能になる。 The server device according to the sixth aspect of the present invention includes a machine learning unit that machine-learns the detection of cracks based on a manual operation on the user terminal. According to this aspect, since the detection of cracks is machine-learned based on the manual operation on the user terminal, it is possible to steadily reduce the complicated user operation for correcting the image analysis result.

本発明の第7の態様に係るサーバ装置では、特徴量は、ひび割れの方向、長さ、幅、エッジの強度、及びエッジの密度のうち少なくともいずれかを含む。 In the server device according to the seventh aspect of the present invention, the feature amount includes at least one of the crack direction, length, width, edge strength, and edge density.

本発明の第8の態様に係る画像処理方法では、合成画像生成部は、複数の画像に対して、画像位置情報、縮尺、あおり及び回転角度のうち少なくとも一つの補正を行う。 In the image processing method according to the eighth aspect of the present invention, the composite image generation unit corrects at least one of image position information, scale, tilt, and rotation angle for a plurality of images.

本発明の第9の態様に係るサーバ装置では、合成画像生成部は、複数の画像に基づいて補正パラメータを導き出し、補正を行う。 In the server device according to the ninth aspect of the present invention, the composite image generation unit derives correction parameters based on a plurality of images and performs correction.

本発明の第10の態様に係るサーバ装置では、ひび割れ情報に基づいて、ひび割れ画像によって示されるひび割れの幅をユーザ端末の画面上で測定するためのスケール画像を生成するスケール画像生成部を備え、ひび割れ情報生成部は、スケール画像をひび割れ情報に付加する。 The server device according to the tenth aspect of the present invention includes a scale image generation unit that generates a scale image for measuring the width of the crack indicated by the crack image on the screen of the user terminal based on the crack information. The crack information generation unit adds a scale image to the crack information.

本発明の第11の態様に係るサーバ装置では、少なくともひび割れ情報に基づいて、ひび割れの程度を評価し、構造物のひび割れ程度の評価区分を判別するひび割れ評価部を備える。 The server device according to the eleventh aspect of the present invention includes a crack evaluation unit that evaluates the degree of cracks based on at least the crack information and determines the evaluation classification of the degree of cracks in the structure.

本発明の第12の態様に係るサーバ装置では、判別された評価区分を含む構造物の点検結果を示す帳票を作成する帳票作成部を備える。 The server device according to the twelfth aspect of the present invention includes a form creation unit that creates a form showing the inspection result of the structure including the determined evaluation category.

本発明の第13の態様に係るサーバ装置では、合成画像とひび割れ情報とを、予め決められたデータ形式のCADデータに変換するデータ変換部を備える。 The server device according to the thirteenth aspect of the present invention includes a data conversion unit that converts a composite image and crack information into CAD data in a predetermined data format.

本発明の第14の態様に係るサーバ装置では、構造物の構造情報、環境条件情報、使用条件情報、維持管理履歴情報、及び災害履歴情報のうち少なくともひとつの情報と、ひび割れ情報とに基づいて、ひび割れの進行を予測する予測部を備える。 In the server device according to the fourteenth aspect of the present invention, based on at least one of the structural information, the environmental condition information, the usage condition information, the maintenance management history information, and the disaster history information of the structure, and the crack information. , It is equipped with a prediction unit that predicts the progress of cracks.

本発明の第15の態様に係る画像処理システムは、ユーザ端末及びサーバ装置を含む画像処理システムであって、ユーザ端末は、構造物の表面を示す複数の画像と、複数の画像の位置情報とを入力する端末入力部と、サーバ装置に対して、複数の画像及び位置情報を送信する端末送信部と、サーバ装置から、複数の画像に対する画像処理結果を受信する端末受信部と、画像処理結果を表示する端末表示部と、を備え、サーバ装置は、ユーザ端末から、複数の画像と位置情報とを受信するサーバ受信部と、受信された複数の画像及び位置情報に基づいて、構造物の表面を示す合成画像を生成する合成画像生成部と、合成画像または合成前の画像を画像解析して構造物の表面のひび割れを検出するひび割れ検出部と、検出されたひび割れに対応するひび割れ画像と検出されたひび割れの特徴量とを示すひび割れ情報を生成するひび割れ情報生成部と、複数の画像に対する画像処理結果として、合成画像とひび割れ情報とをユーザ端末に送信するサーバ送信部と、を備え、端末表示部は、合成画像とひび割れ情報とを表示する。 The image processing system according to the fifteenth aspect of the present invention is an image processing system including a user terminal and a server device, and the user terminal includes a plurality of images showing the surface of a structure and position information of the plurality of images. A terminal input unit for inputting images, a terminal transmitter unit for transmitting a plurality of images and position information to the server device, a terminal receiver unit for receiving image processing results for a plurality of images from the server device, and an image processing result. The server device includes a terminal display unit for displaying the above, and the server device receives a plurality of images and position information from the user terminal, and a structure based on the received plurality of images and position information. A composite image generator that generates a composite image showing the surface, a crack detection unit that detects cracks on the surface of the structure by analyzing the composite image or the image before synthesis, and a crack image corresponding to the detected cracks. It is provided with a crack information generation unit that generates crack information indicating the detected feature amount of the crack, and a server transmission unit that transmits a composite image and crack information to a user terminal as an image processing result for a plurality of images. The terminal display unit displays a composite image and crack information.

本発明の第16の態様に係る画像処理方法では、構造物の表面を示す複数の画像と、複数の画像の位置情報とを、ユーザ端末から受信するステップと、受信された複数の画像及び画像位置情報に基づいて、構造物の表面を示す合成画像を生成するステップと、合成画像または合成前の画像を画像解析して構造物の表面のひび割れを検出するステップと、検出されたひび割れに対応するひび割れ画像と検出されたひび割れの特徴量とを示すひび割れ情報を生成するステップと、を含む。 In the image processing method according to the sixteenth aspect of the present invention, a step of receiving a plurality of images showing the surface of a structure and position information of the plurality of images from a user terminal, and a plurality of received images and images. Corresponds to the step of generating a composite image showing the surface of the structure based on the position information, the step of analyzing the composite image or the image before synthesis to detect the crack on the surface of the structure, and the detected crack. It includes a step of generating crack information indicating the crack image to be performed and the feature amount of the detected crack.

本発明よれば、高額な装置を必要とせずにひび割れ箇所の画像を解析し、かつユーザの操作を煩雑にすることなくひび割れ箇所の合成画像及び画像解析結果を提示することが可能になる。 According to the present invention, it is possible to analyze an image of a cracked portion without requiring an expensive device, and to present a composite image of the cracked portion and an image analysis result without complicating the user's operation.

図1は、本発明が適用される構造物の一例である橋梁を示す斜視図である。FIG. 1 is a perspective view showing a bridge which is an example of a structure to which the present invention is applied. 図2は、第1の実施形態における画像処理システムの構成例を示すブロック図である。FIG. 2 is a block diagram showing a configuration example of the image processing system according to the first embodiment. 図3は、度数分布及びスライダの第1の表示例を示す図である。FIG. 3 is a diagram showing a frequency distribution and a first display example of the slider. 図4は、度数分布及びスライダの第2の表示例を示す図である。FIG. 4 is a diagram showing a frequency distribution and a second display example of the slider. 図5は、度数分布及びスライダの第3の表示例を示す図である。FIG. 5 is a diagram showing a frequency distribution and a third display example of the slider. 図6は、度数分布及びスライダの第4の表示例を示す図である。FIG. 6 is a diagram showing a frequency distribution and a fourth display example of the slider. 図7は、ひび割れ画像を特徴量に基づいてグルーピングした場合の表示例を示す図である。FIG. 7 is a diagram showing a display example when the cracked images are grouped based on the feature amount. 図8は、第1実施形態における第1の画像処理例の流れを示すフローチャートである。FIG. 8 is a flowchart showing the flow of the first image processing example in the first embodiment. 図9は、第1実施形態における第1の画像処理例の説明に用いる説明図である。FIG. 9 is an explanatory diagram used for explaining the first image processing example in the first embodiment. 図10は、複数の画像を並べる操作の説明に用いる説明図である。FIG. 10 is an explanatory diagram used for explaining an operation of arranging a plurality of images. 図11は、合成画像及びひび割れ画像の表示例を示す図である。FIG. 11 is a diagram showing a display example of a composite image and a cracked image. 図12は、ひび割れの進行モデルの一例を模式的に示す図である。FIG. 12 is a diagram schematically showing an example of a crack progress model. 図13は、帳票としての損傷図の一例を示す図である。FIG. 13 is a diagram showing an example of a damage diagram as a form. 図14は、第1実施形態における第2の画像処理例の流れを示すフローチャートである。FIG. 14 is a flowchart showing the flow of the second image processing example in the first embodiment. 図15は、第1実施形態における第3の画像処理例の流れを示すフローチャートである。FIG. 15 is a flowchart showing the flow of the third image processing example in the first embodiment. 図16は、第1実施形態における第3の画像処理例の説明に用いる説明図である。FIG. 16 is an explanatory diagram used for explaining a third image processing example in the first embodiment. 図17は、第1実施形態における第4の画像処理例の流れを示すフローチャートである。FIG. 17 is a flowchart showing a flow of a fourth image processing example in the first embodiment. 図18は、第2の実施形態における画像処理システムの構成例を示すブロック図である。FIG. 18 is a block diagram showing a configuration example of the image processing system according to the second embodiment. ひび割れ画像のベクトル化の説明に用いる第1の説明図である。It is a 1st explanatory diagram used for the explanation of the vectorization of the crack image. ひび割れ画像のベクトル化の説明に用いる第2の説明図である。It is a 2nd explanatory diagram used for the explanation of the vectorization of the crack image. ひび割れ画像のベクトル化の説明に用いる第3の説明図である。It is a 3rd explanatory diagram used for the explanation of the vectorization of the crack image. ひび割れ画像のベクトル化の説明に用いる第4の説明図である。It is a 4th explanatory diagram used for the explanation of the vectorization of the crack image. ひび割れ画像のベクトル化の説明に用いる第5の説明図である。FIG. 5 is a fifth explanatory diagram used for explaining the vectorization of a cracked image. ひび割れ画像のベクトル化の説明に用いる第6の説明図である。FIG. 6 is a sixth explanatory diagram used for explaining the vectorization of a cracked image. スケール画像の表示例を示す図である。It is a figure which shows the display example of the scale image.

以下、添付図面に従って、本発明に係る画像処理方法、画像処理装置、及び画像処理プログラムを実施するための形態について説明する。 Hereinafter, an image processing method, an image processing apparatus, and a mode for carrying out an image processing program according to the present invention will be described with reference to the accompanying drawings.

[構造物例]
図1は、本発明が適用される構造物の一例である橋梁の構造を示す斜視図である。図1に示す橋梁1は複数の主桁3を有し、主桁3同士は接合部3Aで接合されている。主桁3の上部には、コンクリート製の部材である床版2が打設されている。橋梁1は、床版2及び主桁3の他に、図示しない横桁、対傾構、及び横構等の部材を有する。
[Structure example]
FIG. 1 is a perspective view showing a structure of a bridge, which is an example of a structure to which the present invention is applied. The bridge 1 shown in FIG. 1 has a plurality of main girders 3, and the main girders 3 are joined by a joint portion 3A. A floor slab 2, which is a concrete member, is placed on the upper part of the main girder 3. In addition to the floor slab 2 and the main girder 3, the bridge 1 has members such as a horizontal girder, an anti-tilt structure, and a horizontal structure (not shown).

尚、本発明における「構造物」は、橋梁に限定されない。構造物は、トンネル、ダム、建築物などでもよい。 The "structure" in the present invention is not limited to bridges. The structure may be a tunnel, a dam, a building, or the like.

[第1の実施形態]
図2は、第1の実施形態における画像処理システムの構成例を示すブロック図である。
[First Embodiment]
FIG. 2 is a block diagram showing a configuration example of the image processing system according to the first embodiment.

ユーザ端末10とサーバ装置20とにより、クライアントサーバ型の画像処理システムが構成される。実際には複数のユーザ端末10がネットワークNWに接続される。ユーザ端末10はユーザに対するフロントエンド処理を行うコンピュータ装置によって構成され、サーバ装置20は画像処理等のバックエンド処理を行うコンピュータ装置によって構成される。ユーザ端末10として、例えば、パーソナルコンピュータ、タブレット、スマートフォン等のコンピュータ装置を用いることができる。サーバ装置20は、複数のコンピュータ装置で構成してもよい。本例のサーバ装置20は、説明の便宜上、データベース50を含んで構成される。サーバ装置20とデータベース50とを異なる装置として設けてよい。 A client-server type image processing system is configured by the user terminal 10 and the server device 20. Actually, a plurality of user terminals 10 are connected to the network NW. The user terminal 10 is composed of a computer device that performs front-end processing for the user, and the server device 20 is composed of a computer device that performs back-end processing such as image processing. As the user terminal 10, for example, a computer device such as a personal computer, a tablet, or a smartphone can be used. The server device 20 may be composed of a plurality of computer devices. The server device 20 of this example includes a database 50 for convenience of explanation. The server device 20 and the database 50 may be provided as different devices.

ユーザ端末10は、構造物の表面を示す複数の画像と、複数の画像の位置情報を含む画像合成に必要な情報とを入力する端末入力部11と、入力された複数の画像と画像合成に必要な情報とをサーバ装置20に対して送信する端末送信部12と、サーバ装置20から複数の画像に対する画像処理結果を受信する端末受信部13と、サーバ装置20の画像処理結果を表示する端末表示部14と、ユーザのマニュアル操作を受け付ける端末操作部15と、ユーザ端末10用のフロントエンドプログラムに従ってユーザ端末10の各部を制御する端末制御部16と、フロントエンドプログラムとそのフロントエンドプログラムの実行に必要な各種情報とを記憶する端末記憶部17とを備える。 The user terminal 10 is used for a terminal input unit 11 for inputting a plurality of images showing the surface of a structure and information necessary for image composition including position information of the plurality of images, and for image composition with the input plurality of images. A terminal transmitting unit 12 that transmits necessary information to the server device 20, a terminal receiving unit 13 that receives image processing results for a plurality of images from the server device 20, and a terminal that displays the image processing results of the server device 20. The display unit 14, the terminal operation unit 15 that accepts the user's manual operation, the terminal control unit 16 that controls each part of the user terminal 10 according to the front-end program for the user terminal 10, and the execution of the front-end program and its front-end program. It is provided with a terminal storage unit 17 that stores various information necessary for the program.

端末入力部11は、例えば、無線通信又は有線通信により画像及び画像の位置情報を入力する通信デバイスにより構成することができる。メモリカード等の記憶媒体から画像を入力する記憶媒体インタフェースデバイスと、人から画像の位置情報の入力操作を受け付ける操作デバイスとを含んで、端末入力部11を構成してもよい。端末送信部12及び端末受信部13は、ネットワークNWを介して、サーバ装置20を含む他の装置と通信するための通信デバイスによって構成することができる。端末表示部14は、液晶表示デバイス等の表示デバイスによって構成することができる。端末操作部15は、キーボード、マウス、タッチパネル等の操作デバイスによって構成することができる。端末制御部16は、例えばCPU(central processing unit)によって構成することができる。端末記憶部17は、メモリデバイスによって構成することができる。 The terminal input unit 11 can be configured by, for example, a communication device for inputting an image and position information of the image by wireless communication or wired communication. The terminal input unit 11 may be configured to include a storage medium interface device for inputting an image from a storage medium such as a memory card, and an operation device for receiving an operation for inputting image position information from a person. The terminal transmitting unit 12 and the terminal receiving unit 13 can be configured by a communication device for communicating with other devices including the server device 20 via the network NW. The terminal display unit 14 can be configured by a display device such as a liquid crystal display device. The terminal operation unit 15 can be configured by an operation device such as a keyboard, a mouse, and a touch panel. The terminal control unit 16 can be configured by, for example, a CPU (central processing unit). The terminal storage unit 17 can be configured by a memory device.

サーバ装置20は、ユーザ端末10から複数の画像と複数の画像の位置情報を含む画像合成に必要な情報とを受信する受信部22と、サーバ装置20での画像処理結果をユーザ端末10に対して送信する送信部24と、複数の画像及び画像合成に必要な情報に基づいて、構造物の表面を示す合成画像を生成する合成画像生成部26と、合成画像または合成前の画像を画像解析して構造物の表面のひび割れを検出するひび割れ検出部28と、検出されたひび割れに対応するひび割れ画像と検出されたひび割れの特徴量とを示すひび割れ情報を生成するひび割れ情報生成部30と、ユーザ端末10でのユーザ操作に基づいて、ひび割れの検出を機械学習する機械学習部32と、を含んで構成される。送信部24は、合成画像とひび割れ情報とをユーザ端末10に送信して、ユーザ端末10の画面に合成画像とひび割れ情報とを表示させる。受信部22は、ユーザ端末10でのユーザ操作に応じたひび割れ情報の修正要求をユーザ端末10から受信する。ひび割れ情報生成部30は、修正要求に基づいてひび割れ情報を修正する。送信部24は、修正されたひび割れ情報をユーザ端末10に送信する。データベース50は、ユーザ端末10から受信した情報(複数の画像、画像合成に必要な情報、マニュアル操作情報等)と、サーバ装置20での画像処理結果(合成画像、ひび割れ情報等)とを関連付けて蓄積する。 The server device 20 receives from the user terminal 10 a plurality of images and information necessary for image composition including position information of the plurality of images, and a receiving unit 22 and an image processing result in the server device 20 are transmitted to the user terminal 10. Image analysis of the composite image or the image before synthesis with the transmission unit 24 for transmitting the image, the composite image generation unit 26 for generating a composite image showing the surface of the structure based on a plurality of images and information necessary for image synthesis. A crack detection unit 28 that detects cracks on the surface of the structure, a crack information generation unit 30 that generates crack information indicating a crack image corresponding to the detected cracks and a feature amount of the detected cracks, and a user. It includes a machine learning unit 32 that performs machine learning to detect cracks based on a user operation on the terminal 10. The transmission unit 24 transmits the composite image and the crack information to the user terminal 10, and displays the composite image and the crack information on the screen of the user terminal 10. The receiving unit 22 receives from the user terminal 10 a request for correcting crack information according to the user operation on the user terminal 10. The crack information generation unit 30 corrects the crack information based on the correction request. The transmission unit 24 transmits the corrected crack information to the user terminal 10. The database 50 associates the information received from the user terminal 10 (a plurality of images, information necessary for image composition, manual operation information, etc.) with the image processing result (composite image, crack information, etc.) of the server device 20. accumulate.

また、サーバ装置20は、生成されたひび割れ情報に基づいて、ひび割れ画像によって示されるひび割れの幅をユーザ端末10の画面上で測定するためのスケール画像を生成するスケール画像生成部34を備える。ひび割れ情報生成部30は、生成されたスケール画像をひび割れ情報に付加する。送信部24は、スケール画像が付加されたひび割れ情報をユーザ端末10に送信する。 Further, the server device 20 includes a scale image generation unit 34 that generates a scale image for measuring the width of the crack indicated by the crack image on the screen of the user terminal 10 based on the generated crack information. The crack information generation unit 30 adds the generated scale image to the crack information. The transmission unit 24 transmits the crack information to which the scale image is added to the user terminal 10.

本例のサーバ装置20は、少なくともひび割れ情報に基づいて、ひび割れの程度を評価し、構造物のひび割れ程度の評価区分(以下「ランク情報」ともいう)を判別するひび割れ評価部36を備える。ひび割れ情報生成部30は、判別されたランク情報をひび割れ情報に付加する。送信部24は、ランク情報が付加されたひび割れ情報をユーザ端末10に送信する。 The server device 20 of this example includes a crack evaluation unit 36 that evaluates the degree of cracks based on at least the crack information and determines the evaluation category of the degree of cracks in the structure (hereinafter, also referred to as “rank information”). The crack information generation unit 30 adds the determined rank information to the crack information. The transmission unit 24 transmits the crack information to which the rank information is added to the user terminal 10.

更に、サーバ装置20は、合成画像とひび割れ情報とを予め決められたデータ形式のCAD(computer aided design)データに変換することによりCADデータを取得するCADデータ取得部38(「データ変換部」の一形態である)を備える。 Further, the server device 20 acquires CAD data by converting the composite image and crack information into CAD (computer aided design) data in a predetermined data format (of the "data conversion unit"). It is a form).

更に、サーバ装置20は、判別されたひび割れ程度の評価区分を含む構造物の点検結果を示す帳票(以下「点検調書」ともいう)を作成する帳票作成部40を備える。送信部24は、作成された帳票をユーザ端末10に送信する。 Further, the server device 20 includes a form creation unit 40 that creates a form (hereinafter, also referred to as “inspection record”) showing the inspection result of the structure including the evaluation classification of the determined crack degree. The transmission unit 24 transmits the created form to the user terminal 10.

また、サーバ装置20は、バックエンドプログラムとそのバックエンドプログラムの実行に必要な各種情報とを記憶する記憶部42を備える。 Further, the server device 20 includes a storage unit 42 that stores a back-end program and various information necessary for executing the back-end program.

受信部22及び送信部24は、ネットワークNWを介して、ユーザ端末10を含む他の装置と通信するための通信デバイスによって構成することができる。合成画像生成部26、ひび割れ検出部28、ひび割れ情報生成部30、機械学習部32、スケール画像生成部34、ひび割れ評価部36、CADデータ取得部38、及び帳票作成部40は、例えばCPUによって構成することができる。複数のCPUにより構成してもよい。記憶部42は、メモリデバイスによって構成することができる。 The receiving unit 22 and the transmitting unit 24 can be configured by a communication device for communicating with other devices including the user terminal 10 via the network NW. The composite image generation unit 26, the crack detection unit 28, the crack information generation unit 30, the machine learning unit 32, the scale image generation unit 34, the crack evaluation unit 36, the CAD data acquisition unit 38, and the form creation unit 40 are composed of, for example, a CPU. can do. It may be configured by a plurality of CPUs. The storage unit 42 can be configured by a memory device.

ユーザ端末10からサーバ装置20に送信される画像の位置情報(以下「画像位置情報」ともいう)は、構造物の表面に対する各画像の位置関係を示す場合(つまり構造物の表面における複数の被撮像領域のそれぞれの位置を示す場合)と、複数の画像同士の相対的な位置関係を示す場合とがある。 The position information of the image transmitted from the user terminal 10 to the server device 20 (hereinafter, also referred to as “image position information”) indicates the positional relationship of each image with respect to the surface of the structure (that is, a plurality of objects on the surface of the structure). There are cases where each position of the imaging region is shown) and cases where the relative positional relationship between a plurality of images is shown.

<画像補正>
サーバ装置20の合成画像生成部26は、複数の画像を画像補正後に合成する。本例の合成画像生成部26は、複数の画像に基づいて補正パラメータを導き出し、複数の画像に対して補正を行うことができる。本例の合成画像生成部26は、複数の画像に対して次の画像補正1〜4のうち少なくとも一つの補正を行う機能を有する。
<Image correction>
The composite image generation unit 26 of the server device 20 synthesizes a plurality of images after image correction. The composite image generation unit 26 of this example can derive correction parameters based on a plurality of images and perform correction on a plurality of images. The composite image generation unit 26 of this example has a function of performing at least one of the following image corrections 1 to 4 on a plurality of images.

画像補正1(画像位置情報補正):複数の画像同士の相対的な位置関係を、被撮像面(例えば橋梁の床版)における複数の被撮像領域同士の相対的な位置関係にマッチングさせる画像処理である。つまり、不正確な画像位置情報をユーザ端末10から受信したと判定した場合、その不正確な画像位置情報をより正確な画像位置情報に補正する。例えば、画像中のひび割れをベクトル化したひび割れベクトルに基づいて、隣接する画像間を跨ぐひび割れが存在するのにそのひび割れ画像が隣接する画像間で離間していて繋がっていない場合、そのひび割れを隣接する画像間で繋がらせる。画像中の構造物の非ひび割れ(例えば構造物の模様)をベクトル化した非ひび割れベクトルに基づいて、本補正を行ってもよい。橋梁1の床版2の格間ごとに撮像する場合、画像中の格間の縁部に基づいて画像位置情報を補正してもよい。本例の合成画像生成部26は、最新の点検時の画像に基づいて画像位置情報補正を行う機能の他に、最新の点検時の画像と過去の点検時の画像(合成画像又は合成前の画像)に基づいて画像位置情報補正を行う機能を有する。これにより、不正確な画像位置情報を正確な画像位置情報に容易に補正することが可能である。正確な画像位置情報をユーザ端末10から受信したと判定した場合には、本補正を行わなくてよい。 Image correction 1 (image position information correction): Image processing that matches the relative positional relationship between a plurality of images with the relative positional relationship between a plurality of imaged areas on an imaged surface (for example, a deck of a bridge). Is. That is, when it is determined that the inaccurate image position information is received from the user terminal 10, the inaccurate image position information is corrected to more accurate image position information. For example, based on a crack vector that vectorizes cracks in an image, if there are cracks that straddle adjacent images, but the crack images are separated and not connected between adjacent images, the cracks are adjacent. Connect between the images you want to do. This correction may be performed based on the non-crack vector obtained by vectorizing the non-crack (for example, the pattern of the structure) of the structure in the image. When the image is taken for each coffer of the floor slab 2 of the bridge 1, the image position information may be corrected based on the edge of the coffer in the image. The composite image generation unit 26 of this example has a function of correcting image position information based on the image at the time of the latest inspection, as well as an image at the time of the latest inspection and an image at the time of the past inspection (composite image or before compositing). It has a function to correct image position information based on the image). Thereby, it is possible to easily correct the inaccurate image position information to the accurate image position information. If it is determined that accurate image position information has been received from the user terminal 10, this correction does not have to be performed.

画像補正2(縮尺補正):複数の画像の縮尺を一致させる画像処理(「拡縮」ともいう)である。つまり、撮像装置60から構造物の被撮像面までの距離が不一致である複数の画像をユーザ端末10から受信したと判定した場合、その被撮像面までの距離がより一致した複数の画像(「一定距離の画像」ともいう)に補正する。画像に距離情報が関連付けられている場合、その距離情報に基づいて拡縮すればよい。例えば、画像中のひび割れをベクトル化したひび割れベクトルに基づいて、隣接する画像間を跨ぐ複数のひび割れが存在するのにひび割れ画像の間隔が隣接する画像間で一致していない場合、その複数のひび割れ画像の間隔を隣接する画像間で一致させる画像処理が挙げられる。画像中の構造物の非ひび割れ(例えば構造物の模様)をベクトル化した非ひび割れベクトルに基づいて、補正してもよい。橋梁1の床版2の格間ごとに撮像する場合、画像中の格間の縁部に基づいて縮尺補正を行ってもよい。本例の合成画像生成部26は、最新の点検時の画像に基づいて縮尺補正を行う機能の他に、最新の点検時の画像と過去の点検時の画像(合成画像又は合成前の画像)に基づいて縮尺補正を行う機能を有する。一定距離で分割撮像を行った場合には、本補正を行わなくてよい。 Image correction 2 (scale correction): Image processing (also referred to as “scale correction”) for matching the scales of a plurality of images. That is, when it is determined that a plurality of images in which the distances from the image pickup device 60 to the imaged surface of the structure do not match are received from the user terminal 10, a plurality of images having more matched distances to the imaged surface (““ It is also called "image of a certain distance"). If the image is associated with distance information, it may be scaled based on the distance information. For example, based on a crack vector obtained by vectorizing cracks in an image, if there are a plurality of cracks straddling adjacent images but the intervals between the cracked images do not match between the adjacent images, the plurality of cracks. Image processing that matches the spacing between images between adjacent images can be mentioned. The non-cracking of the structure in the image (for example, the pattern of the structure) may be corrected based on the vectorized non-cracking vector. When the image is taken for each coffer of the floor slab 2 of the bridge 1, the scale may be corrected based on the edge of the coffer in the image. The composite image generation unit 26 of this example has a function of performing scale correction based on the image at the time of the latest inspection, as well as an image at the time of the latest inspection and an image at the time of the past inspection (composite image or image before composition). It has a function to perform scale correction based on. When divided imaging is performed at a fixed distance, this correction does not have to be performed.

画像補正3(あおり補正):複数の画像のそれぞれのあおりを補正する画像処理である。つまり、撮像装置の撮像方向に対する構造物の被撮像面の傾き角度が不一致である複数の画像をユーザ端末10から受信したと判定した場合、その被撮像面の傾き角度がより一致した複数の画像(「一定傾き角度の画像」ともいう)に補正する。画像に傾き角度情報が関連付けられている場合、その傾き角度情報に基づいてあおり補正を行えばよい。例えば、画像中のひび割れをベクトル化したひび割れベクトルに基づいて、ひび割れの方向をマッチングさせる。画像中の構造物の非ひび割れ(例えば構造物の模様)をベクトル化した非ひび割れベクトルに基づいて、補正してもよい。橋梁1の床版2の格間ごとに撮像する場合、画像中の格間の縁部に基づいてあおり補正を行ってもよい。本例の合成画像生成部26は、最新の点検時の画像に基づいてあおり補正を行う機能の他に、最新の点検時の画像と過去の点検時の画像(合成画像又は合成前の画像)に基づいてあおり補正を行う機能を有する。一定傾き角度で分割撮像を行った場合には、本補正を行わなくてよい。 Image correction 3 (tilt correction): Image processing for correcting the tilt of each of a plurality of images. That is, when it is determined that a plurality of images in which the tilt angles of the imaged surface of the structure do not match with respect to the imaging direction of the imaging device are received from the user terminal 10, the plurality of images having more matched tilt angles of the imaged surface. (Also called "image with constant tilt angle"). When the tilt angle information is associated with the image, the tilt correction may be performed based on the tilt angle information. For example, the directions of cracks are matched based on the crack vector obtained by vectorizing the cracks in the image. The non-cracking of the structure in the image (for example, the pattern of the structure) may be corrected based on the vectorized non-cracking vector. In the case of taking an image for each coffer of the floor slab 2 of the bridge 1, the tilt correction may be performed based on the edge of the coffer in the image. The composite image generation unit 26 of this example has a function of performing tilt correction based on the image at the time of the latest inspection, as well as an image at the time of the latest inspection and an image at the time of the past inspection (composite image or image before composition). It has a function to correct the tilt based on. When divided imaging is performed at a constant tilt angle, this correction does not have to be performed.

画像補正4(回転角度補正):複数の画像のそれぞれの被撮像面に対する回転角度を補正する画像処理である。つまり、構造物の被撮像面に対する撮像装置の撮像方向回りの回転角度(「方位角」ともいう)が不一致である複数の画像をユーザ端末10から受信したと判定した場合、その被撮像面に対する回転角度がより一致した複数の画像(「一定回転角度の画像」ともいう)に補正する。画像に回転角度情報が関連付けられている場合、その回転角度情報に基づいて回転を行えばよい。例えば、画像中のひび割れをベクトル化したひび割れベクトルに基づいて、ひび割れの方向をマッチングさせる。画像中の構造物の非ひび割れ(例えば構造物の模様)をベクトル化した非ひび割れベクトルに基づいて、補正してもよい。橋梁1の床版2の格間ごとに撮像する場合、画像中の格間の縁部に基づいて回転角度補正を行ってもよい。本例の合成画像生成部26は、最新の点検時の画像に基づいて回転角度補正を行う機能の他に、最新の点検時の画像と過去の点検時の画像(合成画像又は合成前の画像)に基づいて回転角度補正を行う機能を有する。一定回転角度で分割撮像を行った場合には、本補正を行わなくてよい。 Image correction 4 (rotation angle correction): This is an image process for correcting the rotation angle of a plurality of images with respect to the imaged surface. That is, when it is determined that a plurality of images in which the rotation angles (also referred to as "azimuths") of the imaging device with respect to the image-imposed surface of the structure do not match are received from the user terminal 10, the image-imposed surface thereof. It is corrected to a plurality of images (also referred to as "images having a constant rotation angle") having more matching rotation angles. When the rotation angle information is associated with the image, the rotation may be performed based on the rotation angle information. For example, the directions of cracks are matched based on the crack vector obtained by vectorizing the cracks in the image. The non-cracking of the structure in the image (for example, the pattern of the structure) may be corrected based on the vectorized non-cracking vector. In the case of taking an image for each coffer of the floor slab 2 of the bridge 1, the rotation angle may be corrected based on the edge of the coffer in the image. In addition to the function of correcting the rotation angle based on the image at the time of the latest inspection, the composite image generation unit 26 of this example has an image at the time of the latest inspection and an image at the time of the past inspection (composite image or image before composition). ), It has a function to correct the rotation angle. When divided imaging is performed at a constant rotation angle, this correction does not have to be performed.

<ひび割れ情報の一括修正>
ユーザ端末10でのユーザ操作に応じて本例のサーバ装置20のひび割れ情報生成部30で行うひび割れ情報の修正処理について、説明する。
<Batch correction of crack information>
The crack information correction process performed by the crack information generation unit 30 of the server device 20 of this example according to the user operation on the user terminal 10 will be described.

本例のサーバ装置20のひび割れ情報生成部30は、ユーザ端末10でユーザが指示したひび割れの特徴量に基づいて、複数のひび割れに関して一括してひび割れ情報を修正する機能(以下「一括修正」という)を有する。サーバ装置20の受信部22は、ひび割れ情報の修正内容をひび割れの特徴量で示した修正要求を、ユーザ端末10から受信する。サーバ装置20のひび割れ情報生成部30は、修正要求で示された特徴量に基づいて、ひび割れ情報を修正する。このような特徴量に基づいたひび割れ情報の修正(一括修正)の態様として、各種の態様が挙げられる。 The crack information generation unit 30 of the server device 20 of this example has a function of collectively correcting crack information for a plurality of cracks based on the feature amount of the crack instructed by the user on the user terminal 10 (hereinafter referred to as "batch correction"). ). The receiving unit 22 of the server device 20 receives from the user terminal 10 a correction request indicating the correction content of the crack information by the feature amount of the crack. The crack information generation unit 30 of the server device 20 corrects the crack information based on the feature amount indicated by the correction request. Various modes can be mentioned as a mode of correction (collective correction) of crack information based on such a feature amount.

第1の一括修正の態様として、ユーザ端末10の画面に表示させたスライダを用いたマニュアル操作(以下「スライド操作」という)に応じて一括修正を行う態様が挙げられる。本態様のひび割れ情報生成部30は、特徴量に対する合成画像中の線分(以下「線状パターン」ともいう)の検出度数を示す度数分布(「ヒストグラム」ともいう)と、特徴量でひび割れ情報の修正内容を指示入力するためのスライダとを、ユーザ端末10に対して送信されるひび割れ情報に付加し、ユーザ端末10でのスライダを用いた操作に応じて、ひび割れ情報を修正する。 As a first mode of batch correction, there is a mode in which batch correction is performed according to a manual operation (hereinafter referred to as “slide operation”) using a slider displayed on the screen of the user terminal 10. The crack information generation unit 30 of this embodiment has a frequency distribution (also referred to as a “histogram”) indicating the detection frequency of a line segment (hereinafter, also referred to as a “linear pattern”) in a composite image with respect to the feature amount, and crack information based on the feature amount. A slider for instructing and inputting the correction content of the above is added to the crack information transmitted to the user terminal 10, and the crack information is corrected according to the operation using the slider on the user terminal 10.

図3は、度数分布及びスライダの第1の表示例を示す図である。本例では、ユーザ端末10の画面に表示された合成画像IMG1上に、検出されたひび割れを示すひび割れ画像CR1、CR2、CR3、CR4を表示させる。更に、合成画像IMG1の近傍に、特徴量に対する合成画像IMG1中の線分(ひび割れ候補である)の検出度数を示す度数分布HG1(ヒストグラム)と、特徴量でひび割れ情報の修正内容を指示入力するためのスライダSL1とを表示させる。度数分布HG1のy方向(画面の上下方向)がひび割れ候補である線分の特徴量を示し、度数分布HG1のx方向(画面の左右方向)がひび割れ候補である線分の度数を示す。スライダSL1は、合成画像IMG1中の線分がひび割れであるか否かの判定基準を調節するためのスライド式のGUI(graphical user interface)である。本例のスライダSL1は一本のバーBR1を有し、その一本のバーBR1の表示位置を基準にして、度数分布HG1のうちのひび割れ対象領域AR1が決まる。図3の上下方向(x方向)において、度数分布HG1のうち、バーBR1の表示位置よりも上の領域がひび割れ対象領域AR1であり、そのひび割れ対象領域AR1内の特徴量を持つ線分が「ひび割れ」として検出される。 FIG. 3 is a diagram showing a frequency distribution and a first display example of the slider. In this example, the crack images CR1, CR2, CR3, and CR4 showing the detected cracks are displayed on the composite image IMG1 displayed on the screen of the user terminal 10. Further, in the vicinity of the composite image IMG1, the frequency distribution HG1 (histogram) indicating the detection frequency of the line segment (crack candidate) in the composite image IMG1 with respect to the feature amount and the correction content of the crack information are instructed and input by the feature amount. To display the slider SL1 for. The y direction of the frequency distribution HG1 (vertical direction of the screen) indicates the feature amount of the line segment that is a candidate for cracking, and the x direction of the frequency distribution HG1 (horizontal direction of the screen) indicates the frequency of the line segment that is a candidate for cracking. The slider SL1 is a slide-type GUI (graphical user interface) for adjusting a criterion for determining whether or not a line segment in the composite image IMG1 is a crack. The slider SL1 of this example has one bar BR1, and the crack target region AR1 in the frequency distribution HG1 is determined with reference to the display position of the one bar BR1. In the vertical direction (x direction) of FIG. 3, in the frequency distribution HG1, the area above the display position of the bar BR1 is the crack target area AR1, and the line segment having the feature amount in the crack target area AR1 is ". Detected as "crack".

図4は、度数分布及びスライダの第2の表示例を示す図である。本例のスライダSL2は二本のバーBR21、BR22を有し、その二本のバーBR21、BR22の表示位置を基準にしてひび割れ対象領域AR2が決まる。図4のy方向(画面の上下方向)において、度数分布HG1のうち二本のバーBR21、BR22で挟まれた領域がひび割れ対象領域AR2であり、そのひび割れ対象領域AR2内の特徴量を持つ線分が「ひび割れ」として検出される。 FIG. 4 is a diagram showing a frequency distribution and a second display example of the slider. The slider SL2 of this example has two bars BR21 and BR22, and the crack target region AR2 is determined with reference to the display positions of the two bars BR21 and BR22. In the y direction of FIG. 4 (vertical direction of the screen), the region of the frequency distribution HG1 sandwiched between the two bars BR21 and BR22 is the crack target region AR2, and the line having the feature amount in the crack target region AR2. Minutes are detected as "cracks".

図5は、度数分布及びスライダの第3の表示例を示す図である。本例では、二つのスライダSL1、SL2を表示して、複数の特徴量に基づいて、ひび割れ対象領域AR1、AR2を選択入力することができる。 FIG. 5 is a diagram showing a frequency distribution and a third display example of the slider. In this example, two sliders SL1 and SL2 can be displayed, and the crack target areas AR1 and AR2 can be selectively input based on a plurality of feature quantities.

図6は、度数分布及びスライダの第4の表示例を示す図である。本例では、チェックボックスBX1,BX2,BX3を表示して、損傷の種類を選択入力することができる。 FIG. 6 is a diagram showing a frequency distribution and a fourth display example of the slider. In this example, the check boxes BX1, BX2, and BX3 can be displayed and the type of damage can be selected and input.

特徴量は、ひび割れの方向、長さ、幅、エッジの強度、及びエッジの密度のうち少なくともいずれかを含む。他の特徴量でもよい。ひび割れ情報生成部30は、度数分布(ヒストグラム)とスライダとをひび割れ情報に付加し、ユーザ端末10でのスライダを用いたマニュアル操作に応じて、ひび割れ情報を修正する。 Features include at least one of crack direction, length, width, edge strength, and edge density. Other features may be used. The crack information generation unit 30 adds a frequency distribution (histogram) and a slider to the crack information, and corrects the crack information according to a manual operation using the slider on the user terminal 10.

以上のように、特徴量(ひび割れ検出部28により検出された線分の特徴量である)に対する線分の検出度数を示す度数分布と、特徴量でひび割れ情報の修正内容を指示入力するためのスライダとを、ひび割れ情報に付加し、ユーザ端末10でのスライダを用いたスライド操作に応じてひび割れ情報を修正することにより、簡易な操作でより精度が高いひび割れ情報に修正することが可能になる。 As described above, the frequency distribution indicating the detection frequency of the line segment with respect to the feature amount (the feature amount of the line segment detected by the crack detection unit 28) and the correction content of the crack information are instructed and input by the feature amount. By adding a slider to the crack information and correcting the crack information according to the slide operation using the slider on the user terminal 10, it is possible to correct the crack information with higher accuracy by a simple operation. ..

第2に、ユーザ端末10の画面に表示させたひび割れ画像に対するグループ選択操作に応じて一括修正を行う態様が挙げられる。本態様のひび割れ情報生成部30は、特徴量に基づいてひび割れ画像をグルーピングし、ユーザ端末10でのひび割れ画像のグループを選択するマニュアル操作に応じてひび割れ情報を修正する。 Secondly, there is an embodiment in which batch correction is performed according to a group selection operation for a cracked image displayed on the screen of the user terminal 10. The crack information generation unit 30 of this aspect groups the crack images based on the feature amount, and corrects the crack information according to a manual operation of selecting a group of the crack images on the user terminal 10.

図7は、ひび割れ画像を方向(特徴量の一形態である)に基づいてグルーピングしてグループ毎に異なる線種で表示した例を示す。本例では、同一方向及び類似方向の複数のひび割れ画像(ひび割れ検出部28によりひび割れとして検出された線分に対応する画像である)で一つのグループを形成した。第1のグループG1のひび割れ画像を実線で表示させ、第2のグループG2のひび割れ画像を破線で表示させ、第3のグループG3のひび割れ画像を一点鎖線で表示させている。尚、図示の都合上、グループ毎に異なる線種で表示させた場合を例示したが、グループ毎に異なる色で表示させてもよい。 FIG. 7 shows an example in which crack images are grouped based on a direction (a form of a feature amount) and displayed with different line types for each group. In this example, one group is formed by a plurality of crack images in the same direction and similar directions (images corresponding to line segments detected as cracks by the crack detection unit 28). The crack image of the first group G1 is displayed by a solid line, the crack image of the second group G2 is displayed by a broken line, and the crack image of the third group G3 is displayed by a dashed-dotted line. For convenience of illustration, the case where different line types are displayed for each group is illustrated, but different colors may be displayed for each group.

ユーザは、ユーザ端末10の画面の表示を見て、削除対象のグループのうち少なくとも一本のひび割れ画像を囲うタッチ操作を行う。そうすると囲まれたひび割れ画像の方向に基づいて、そのひび割れ画像が属するグループ内の全てのひび割れ画像(同一方向及び類似方向のひび割れ画像である)が一括して消去される。同時に、選択されたグループのひび割れ情報がサーバ装置20で削除される。図7に示す例では、タッチ操作で囲われた選択領域ARに含まれる同一グループのひび割れ画像が画面から消去され、かつ同一グループのひび割れ情報が削除される。 The user looks at the display on the screen of the user terminal 10 and performs a touch operation to enclose at least one cracked image in the group to be deleted. Then, based on the direction of the enclosed crack image, all the crack images (the crack images in the same direction and the similar direction) in the group to which the crack image belongs are deleted at once. At the same time, the crack information of the selected group is deleted by the server device 20. In the example shown in FIG. 7, the crack image of the same group included in the selection area AR surrounded by the touch operation is deleted from the screen, and the crack information of the same group is deleted.

ひび割れ画像を囲う操作ではなくて、削除対象のグループをユーザに直接的に選択させてもよい。例えば、図7の点線表示された第2のグループG2のひび割れ情報を削除する場合、「点線」を選択する操作をユーザ端末10で受け付ける。グループ毎に異なる色でひび割れ画像を表示させた場合には、色(例えば「赤」)を選択する操作を受け付ける。グループの識別情報(例えばグループ番号)を選択する操作を受け付けてもよい。 Instead of enclosing the cracked image, the user may be allowed to directly select the group to be deleted. For example, when deleting the crack information of the second group G2 displayed by the dotted line in FIG. 7, the user terminal 10 accepts the operation of selecting the “dotted line”. When the cracked image is displayed in a different color for each group, the operation of selecting the color (for example, "red") is accepted. The operation of selecting the group identification information (for example, the group number) may be accepted.

また、ひび割れ情報の「削除」に限らず、ひび割れ情報の「追加」、「増加」及び「減少」の操作を受け付けることが好ましい。 Further, it is preferable to accept not only "deletion" of crack information but also "addition", "increase" and "decrease" operations of crack information.

以上のように、特徴量に基づいてひび割れ画像をグルーピングし、ユーザ端末10でのひび割れ画像のグループを選択するユーザ操作に応じてひび割れ情報を修正することにより、簡易な操作でより精度が高いひび割れ情報に修正することが可能になる。 As described above, by grouping the crack images based on the feature amount and correcting the crack information according to the user operation of selecting the group of the crack images on the user terminal 10, the crack with higher accuracy is performed by a simple operation. It becomes possible to correct the information.

<機械学習>
サーバ装置20の機械学習部32は、例えば人工知能によって構成される。人工知能として、例えば人工ニューラルネットワークを用いてもよいし、他の公知の人工知能を用いてもよい。ただし、本発明は機械学習部32として人工知能を用いない場合(例えば単なる検索手段を用いて情報を取得する場合)にも適用可能であり、また機械学習部32を省略することも可能である。
<Machine learning>
The machine learning unit 32 of the server device 20 is composed of, for example, artificial intelligence. As the artificial intelligence, for example, an artificial neural network may be used, or another known artificial intelligence may be used. However, the present invention can be applied even when artificial intelligence is not used as the machine learning unit 32 (for example, when information is acquired by using a simple search means), and the machine learning unit 32 can be omitted. ..

機械学習部32は、第1の学習として、ユーザ端末10でのユーザ操作に基づいて、ひび割れの検出を機械学習する。本例の機械学習部32は、少なくとも、ユーザ端末10でのひび割れ情報の編集のためのユーザ操作の履歴と、データベース50に記憶された画像(合成画像又は合成前の画像である)と、データベース50に記憶されたひび割れ情報とに基づいて、ひび割れの検出を機械学習する。 As the first learning, the machine learning unit 32 machine-learns the detection of cracks based on the user operation on the user terminal 10. The machine learning unit 32 of this example has at least a history of user operations for editing crack information on the user terminal 10, an image stored in the database 50 (composite image or an image before synthesis), and a database. Based on the crack information stored in 50, the detection of cracks is machine-learned.

本例の機械学習部32は、データベース50に記憶されたひび割れ情報に関する操作履歴に基づいて、データベース50に記憶された編集履歴(ひび割れ情報の修正の内容を示す履歴である)のうちから学習すべき編集履歴を特定し、特定された編集履歴と、その特定された編集履歴に対応する合成画像及びひび割れ情報とに基づいて、合成画像(又は合成前の画像)から検出すべきひび割れの特徴量を機械学習する。つまり、ひび割れ検出部28のひび割れ検出で用いるモデルを更新する。 The machine learning unit 32 of this example learns from the editing history (history indicating the content of correction of the crack information) stored in the database 50 based on the operation history related to the crack information stored in the database 50. The feature amount of cracks to be detected from the composite image (or the image before synthesis) based on the specified edit history and the composite image and crack information corresponding to the specified edit history. Machine learning. That is, the model used for crack detection of the crack detection unit 28 is updated.

尚、本例のひび割れ情報生成部30は、前述のようにひび割れ情報の修正指示を特徴量単位で受け付ける「一括修正」の機能を有する。そこで本例の機械学習部32は、ユーザ端末10での特徴量単位のユーザ操作の履歴と、合成画像及びひび割れ情報との対応関係に基づいて、ひび割れ検出を機械学習する。合成前の画像を画像解析してひび割れを検出する場合には、特徴量単位の操作の履歴と合成前の画像及びひび割れ情報との対応関係に基づいて機械学習する。 The crack information generation unit 30 of this example has a "batch correction" function of receiving a correction instruction of crack information in feature quantity units as described above. Therefore, the machine learning unit 32 of this example machine-learns the crack detection based on the correspondence relationship between the user operation history of the feature amount unit on the user terminal 10 and the composite image and the crack information. When cracks are detected by image analysis of the image before composition, machine learning is performed based on the correspondence between the operation history of the feature unit and the image before composition and the crack information.

また、機械学習部32は、第2の学習として、ユーザ端末10でのユーザ操作に基づいて、画像補正を機械学習する。本例の機械学習部32は、少なくとも、ユーザ端末10での画像補正のためのユーザ操作の履歴と、データベース50に記憶された画像(補正前の画像及び補正後の画像である)とに基づいて、画像補正を機械学習する。 Further, as the second learning, the machine learning unit 32 machine-learns the image correction based on the user operation on the user terminal 10. The machine learning unit 32 of this example is based on at least a history of user operations for image correction on the user terminal 10 and an image stored in the database 50 (an image before correction and an image after correction). And machine learning image correction.

本例の機械学習部32は、データベース50に記憶された画像補正の操作履歴に基づいて、データベース50に記憶された画像補正履歴(画像の補正の内容を示す履歴である)のうちから学習すべき画像補正履歴を特定し、特定された画像補正履歴と、その特定された画像補正履歴に対応する補正前の画像及び補正後の画像(合成画像でよい)とに基づいて、補正前の画像と画像補正の内容との対応関係を機械学習する。つまり、合成画像生成部26の画像補正で用いるモデルを更新する。 The machine learning unit 32 of this example learns from the image correction history (history indicating the content of image correction) stored in the database 50 based on the operation history of the image correction stored in the database 50. The image to be corrected is specified, and the image before correction is based on the specified image correction history and the image before correction and the image after correction (which may be a composite image) corresponding to the specified image correction history. Machine learning the correspondence between image correction and the content of image correction. That is, the model used in the image correction of the composite image generation unit 26 is updated.

尚、本例の合成画像生成部26は、前述のように画像位置情報補正、縮尺補正、あおり補正及び回転角度補正の機能を有する。そこで本例の機械学習部32は、ユーザ端末10での画像位置情報補正、縮尺補正、あおり補正又は回転角度補正のためのユーザ操作の履歴と、補正前の画像及び補正後の画像(合成画像でよい)との対応関係に基づいて、画像補正を機械学習する。 The composite image generation unit 26 of this example has the functions of image position information correction, scale correction, tilt correction, and rotation angle correction as described above. Therefore, the machine learning unit 32 of this example includes a history of user operations for image position information correction, scale correction, tilt correction, or rotation angle correction on the user terminal 10, and an image before correction and an image after correction (composite image). Image correction is machine-learned based on the correspondence with (may be sufficient).

人工知能技術の進歩が著しく、優秀な人の頭脳を超える画像解析を行い得る人工知能が期待されている。ただし、未学習の事象の発生時(例えば学習初期段階)には修正操作が必要になる場合がある。従って、機械学習部32として人工知能を採用した場合でも、前述の「一括修正」のように、簡易なユーザ操作でひび割れ情報を編集する機能を、機械学習機能と併せてサーバ装置20に実装することが好ましい。 The progress of artificial intelligence technology is remarkable, and artificial intelligence that can perform image analysis beyond the brains of excellent people is expected. However, when an unlearned event occurs (for example, in the initial stage of learning), a correction operation may be required. Therefore, even when artificial intelligence is adopted as the machine learning unit 32, a function of editing crack information by a simple user operation, as in the above-mentioned "batch correction", is implemented in the server device 20 together with the machine learning function. Is preferable.

<第1の画像処理例>
図8は、第1実施形態における第1の画像処理例の流れを示すフローチャートである。
<First image processing example>
FIG. 8 is a flowchart showing the flow of the first image processing example in the first embodiment.

本図の左側のフロントエンド処理はユーザ端末10の端末記憶部17に記憶されたプログラム(フロントエンドプログラム)に従ってユーザ端末10で開始される(ステップS2)。また、本図の右側のバックエンド処理は、サーバ装置20の記憶部42に記憶されたプログラム(バックエンドプログラム)に従ってサーバ装置20で開始される(ステップS4)。 The front-end process on the left side of the figure is started at the user terminal 10 according to the program (front-end program) stored in the terminal storage unit 17 of the user terminal 10 (step S2). Further, the back-end processing on the right side of this figure is started in the server device 20 according to the program (back-end program) stored in the storage unit 42 of the server device 20 (step S4).

本例では、図9に示すように点検現場で撮像装置60により得られた複数の画像が事務所のユーザ端末10に入力され(ステップS6)、且つ点検現場でユーザにより野帳に記入された画像位置情報が事務所のユーザ端末10に入力される(ステップS8)。 In this example, as shown in FIG. 9, a plurality of images obtained by the imaging device 60 at the inspection site are input to the user terminal 10 of the office (step S6), and are entered in the field note by the user at the inspection site. The image position information is input to the user terminal 10 of the office (step S8).

複数の画像は、撮像装置60により橋梁の床版の格間を複数に分割撮像して得られる。これらの複数の画像は、例えば有線通信又は近距離無線通信を用いて、端末入力部11により入力する。メモリカード等の記憶媒体から入力してもよい。撮像装置60からネットワークNW上の図示しない記憶デバイスに複数の画像をアップロードし、その記憶デバイスからネットワークNWを介して複数の画像を入力してもよい。 The plurality of images are obtained by dividing the space between the decks of the bridge into a plurality of images by the image pickup device 60. These plurality of images are input by the terminal input unit 11 using, for example, wired communication or short-range wireless communication. You may input from a storage medium such as a memory card. A plurality of images may be uploaded from the image pickup apparatus 60 to a storage device (not shown) on the network NW, and a plurality of images may be input from the storage device via the network NW.

野帳には、ユーザが橋梁の床版を目視して得た情報が記入されている。図示を省略した計測器を用いて計測した情報を野帳に記入してもよい。以下の説明では、少なくとも、橋梁の床版に対する複数の画像の位置関係を示す手書きの情報(手書きの画像位置情報)が、野帳に記入されているものとする。 The field note contains information obtained by the user visually observing the deck of the bridge. Information measured using a measuring instrument (not shown) may be entered in a field note. In the following description, it is assumed that at least handwritten information (handwritten image position information) indicating the positional relationship of a plurality of images with respect to the deck of the bridge is entered in the field note.

橋梁の床版を表したCAD(computer aided design)図面が作成済である場合、そのCAD図面を端末表示部14に表示させて、その表示されたCAD図面中の床版の格間の被撮影位置に対して各画像を嵌め込むマニュアル操作を端末操作部15により受け付ける。このようなマニュアル操作に応じて、CAD図面中の床版の基準位置に対する各画像の位置関係を示す画像位置情報が入力される。 If a CAD (computer aided design) drawing showing the floor slab of the bridge has been created, the CAD drawing is displayed on the terminal display unit 14, and the floor slab in the displayed CAD drawing is photographed. The terminal operation unit 15 receives a manual operation for fitting each image with respect to the position. In response to such a manual operation, image position information indicating the positional relationship of each image with respect to the reference position of the floor slab in the CAD drawing is input.

橋梁の床版を表したCAD図面が未作成である場合、図10に示すように、端末表示部14の画面上で複数の画像を並べるマニュアル操作を端末操作部15により受け付ける。このようなマニュアル操作に応じて、複数の画像同士の相対的な位置関係を示す画像位置情報が入力される。この態様では、サーバ装置20において、複数の画像同士の相対的な位置関係を、床版の基準位置に対する各画像の位置関係に変換することが、好ましい。隣接する画像同士の共通部分を重ね合わせるマニュアル操作を受け付けてもよい。 When the CAD drawing showing the deck of the bridge has not been created, the terminal operation unit 15 accepts the manual operation of arranging a plurality of images on the screen of the terminal display unit 14, as shown in FIG. In response to such a manual operation, image position information indicating a relative positional relationship between a plurality of images is input. In this aspect, in the server device 20, it is preferable to convert the relative positional relationship between the plurality of images into the positional relationship of each image with respect to the reference position of the deck. You may accept a manual operation of superimposing common parts between adjacent images.

また、必要に応じて、後の画像補正(ステップS16)の示唆となる情報(以下「補正ヒント情報」という)が、ユーザ端末10に入力される(ステップS10)。 Further, if necessary, information (hereinafter referred to as "correction hint information") suggestive of later image correction (step S16) is input to the user terminal 10 (step S10).

例えば、複数の画像の全部について床版の正面から撮像した場合には「全部正面」、複数の画像の全部について床版の非正面から撮像した場合には「全部あおり」、複数の画像のうち一部だけ床版の非正面から撮像した場合には「一部あおり」といったような、あおり補正のヒント情報を入力するマニュアル操作を、端末操作部15により受け付ける。具体的なあおりの角度(撮像装置60の撮像方向に対する床版の傾き角度である)の入力を受け付けてもよいが、この場合には概略の角度が入力される可能性があり、後の工程でサーバ装置20において、概略の角度を詳細な角度に補正することが、好ましい。縮尺補正(拡縮)、回転角度補正等、他の画像補正のための補正ヒント情報の入力を受け付けてもよい。あおり補正、縮尺補正及び回転角度補正が不要である場合には、本ステップを省略してよい。 For example, "all front" when all of a plurality of images are taken from the front of the deck, "all tilt" when all of the multiple images are taken from the non-front of the deck, and among the multiple images. The terminal operation unit 15 accepts a manual operation for inputting hint information for tilt correction, such as "partially tilt" when only a part of the image is taken from the non-front of the floor slab. You may accept the input of a specific tilt angle (the tilt angle of the floor slab with respect to the imaging direction of the imaging device 60), but in this case, an approximate angle may be input, and a later step In the server device 20, it is preferable to correct the approximate angle to a detailed angle. Input of correction hint information for other image correction such as scale correction (scale correction) and rotation angle correction may be accepted. If tilt correction, scale correction, and rotation angle correction are not required, this step may be omitted.

次に、ユーザ端末10の端末制御部16により画像処理要求情報を生成して、ユーザ端末10の端末送信部12により、生成された画像処理要求情報をサーバ装置20に対して送信する(ステップS12)。画像処理要求情報は、サーバ装置20の受信部22により受信され、データベース50に登録される(ステップS14)。 Next, the terminal control unit 16 of the user terminal 10 generates image processing request information, and the terminal transmission unit 12 of the user terminal 10 transmits the generated image processing request information to the server device 20 (step S12). ). The image processing request information is received by the receiving unit 22 of the server device 20 and registered in the database 50 (step S14).

画像処理要求情報には、ステップS6で入力された複数の画像と、ステップS8で入力された画像位置情報とが含まれる。ステップS10で補正ヒント情報が入力された場合、その補正ヒント情報も画像処理要求情報に含まれる。 The image processing request information includes a plurality of images input in step S6 and image position information input in step S8. When the correction hint information is input in step S10, the correction hint information is also included in the image processing request information.

次に、サーバ装置20の合成画像生成部26により、複数の画像を補正する(ステップS16)。例えば、前述の画像補正(画像位置情報補正、縮尺補正、あおり補正、及び回転角度補正)のうち、必要な補正が行われる。ステップS10で補正ヒント情報が入力された場合、その補正ヒント情報に基づいて、画像補正が行われる。 Next, the composite image generation unit 26 of the server device 20 corrects a plurality of images (step S16). For example, among the above-mentioned image corrections (image position information correction, scale correction, tilt correction, and rotation angle correction), necessary corrections are performed. When the correction hint information is input in step S10, the image correction is performed based on the correction hint information.

次に、サーバ装置20の合成画像生成部26により、複数の画像及び画像位置情報に基づいて、床版の格間ごとに一枚の合成画像が生成される(ステップS18)。合成画像は、データベース50に登録される。 Next, the composite image generation unit 26 of the server device 20 generates one composite image for each floor slab coffer based on a plurality of images and image position information (step S18). The composite image is registered in the database 50.

次に、サーバ装置20の機械学習部32により、合成画像が不適切であるか否かを判断する(ステップS20)。機械学習部32は、データベース50に記憶された各種の情報に基づいて、合成画像が適切である事象及び不適切である事象を学習しており、その学習結果に基づいて今回の合成画像が不適切であるか否かを判断することができる。機械学習部32は、例えば、原画像(合成前の画像)間で構造物上の模様が繋がらない等の異常を検出する機能を学習結果として持つことが可能である。合成画像が不適切であると判断された場合(ステップS20でYESの場合)、画像補正及び画像合成に関するパラメータを変更してステップS16に戻り、適切であると判断された場合(ステップS20でNOの場合)、ステップS22に進む。 Next, the machine learning unit 32 of the server device 20 determines whether or not the composite image is inappropriate (step S20). The machine learning unit 32 learns an event in which the composite image is appropriate and an event in which the composite image is inappropriate based on various information stored in the database 50, and the composite image this time is not available based on the learning result. It is possible to judge whether it is appropriate or not. The machine learning unit 32 can have, for example, a function of detecting an abnormality such as a pattern on a structure not being connected between original images (images before composition) as a learning result. If it is determined that the composite image is inappropriate (YES in step S20), the parameters related to image correction and image composition are changed to return to step S16, and if it is determined to be appropriate (NO in step S20). In the case of), the process proceeds to step S22.

次に、サーバ装置20のひび割れ検出部28により、床版の格間ごとの合成画像を画像解析して、床版のひび割れを格間ごとに検出する(ステップS22)。 Next, the crack detection unit 28 of the server device 20 analyzes the composite image of each deck of the floor slab, and detects the crack of the deck for each coffer (step S22).

次に、サーバ装置20のひび割れ情報生成部30により、検出されたひび割れに対応するひび割れ画像と、検出されたひび割れの特徴量とを示す、ひび割れ情報を生成する(ステップS24)。特徴量には、ひび割れの幅、長さ、間隔等、床版のひび割れ程度の評価区分を判別するために必要な情報が含まれる。また、特徴量には、一括編集に必要な情報が含まれる。生成されたひび割れ情報は、データベース50に登録される。 Next, the crack information generation unit 30 of the server device 20 generates crack information indicating the crack image corresponding to the detected crack and the feature amount of the detected crack (step S24). The feature amount includes information necessary for discriminating the evaluation classification of the degree of cracks in the deck, such as the width, length, and spacing of cracks. In addition, the feature amount includes information necessary for batch editing. The generated crack information is registered in the database 50.

本例は、一括編集に必要な、度数分布、スライダ、グループ情報等が、ひび割れ情報に付加される。また、スケール画像生成部34により生成されたスケール画像がひび割れ情報に付加されてもよい。スケール画像の具体例は後述する。 In this example, the frequency distribution, slider, group information, etc. required for batch editing are added to the crack information. Further, the scale image generated by the scale image generation unit 34 may be added to the crack information. Specific examples of the scale image will be described later.

ひび割れ評価部36により、少なくともひび割れ情報に基づいて、橋梁の床版におけるひび割れの程度を評価して、そのひび割れ程度の評価区分を示すランク情報を生成し、そのランク情報をひび割れ情報に付加してもよい。以下では、説明の便宜上、ランク情報がひび割れ情報に付加されなかったものとする。 The crack evaluation unit 36 evaluates the degree of cracks in the deck of the bridge based on at least the crack information, generates rank information indicating the evaluation classification of the degree of cracks, and adds the rank information to the crack information. May be good. In the following, for convenience of explanation, it is assumed that the rank information is not added to the crack information.

次に、サーバ装置20の送信部24により、床版の格間ごとの合成画像とひび割れ情報とをユーザ端末10に対して送信する(ステップS26)。合成画像及びひび割れ情報は、ユーザ端末10の端末受信部13により受信され、端末表示部14に表示される(ステップS28)。 Next, the transmission unit 24 of the server device 20 transmits the composite image and the crack information for each floor slab to the user terminal 10 (step S26). The composite image and the crack information are received by the terminal receiving unit 13 of the user terminal 10 and displayed on the terminal display unit 14 (step S28).

例えば、図11に示すように、端末表示部14の画面に、床版の格間ごとの合成画像IMG2と、ひび割れ画像CRを含むひび割れ情報が表示される。本例では、合成画像IMG2中のひび割れが検出された位置に、ひび割れ画像CRが重ね合される。尚、図11では、スケール画像を省略しているが、合成画像IMG2に更にスケール画像を重ね合わせて表示してもよい。 For example, as shown in FIG. 11, on the screen of the terminal display unit 14, the composite image IMG2 for each floor slab and the crack information including the crack image CR are displayed. In this example, the crack image CR is superimposed on the position where the crack is detected in the composite image IMG2. Although the scale image is omitted in FIG. 11, the scale image may be further superimposed on the composite image IMG2 and displayed.

次に、ユーザ端末10の端末操作部15によりユーザからひび割れ情報の修正操作を受け付けたか否かを判定し(ステップS32)、修正操作を受け付けた場合(ステップS32でYESの場合)、ユーザ端末10の端末送信部12により、ユーザの修正操作に対応したひび割れ情報の修正要求をサーバ装置20に対して送信する(ステップS34)。修正要求は、サーバ装置20の受信部22により受信され、データベース50に登録される(ステップS36)。 Next, the terminal operation unit 15 of the user terminal 10 determines whether or not the correction operation of the crack information has been accepted from the user (step S32), and when the correction operation is accepted (YES in step S32), the user terminal 10 The terminal transmission unit 12 of the above transmits a request for correction of crack information corresponding to the correction operation of the user to the server device 20 (step S34). The correction request is received by the receiving unit 22 of the server device 20 and registered in the database 50 (step S36).

また、ユーザは、端末表示部14の表示を見て、ひび割れ程度の評価区分を示すランク情報を端末操作部15により入力することができる。 Further, the user can see the display of the terminal display unit 14 and input the rank information indicating the evaluation classification of the degree of cracking by the terminal operation unit 15.

図12は、ひび割れの進行モデルの一例を模式的に示す図である。この進行モデルでは、ランク情報が「RANK1」〜「RANK5」の五段階で表される。各ランク情報とひび割れ状態との対応関係は次の通りである。 FIG. 12 is a diagram schematically showing an example of a crack progress model. In this progression model, the rank information is represented by five stages of "RANK1" to "RANK5". The correspondence between each rank information and the cracked state is as follows.

RANK1:損傷なし。 RANK1: No damage.

RANK2:横方向(車輌の通行方向に直交する短手方向)に沿って複数のひび割れが並列に発生した状態である。乾燥収縮による複数のひび割れが並列の梁状になる段階である。 RANK2: A state in which a plurality of cracks are generated in parallel along the lateral direction (the short direction orthogonal to the traffic direction of the vehicle). This is the stage where multiple cracks due to drying shrinkage form parallel beams.

RANK3:縦方向(車輌の通行方向に平行な長手方向)のひび割れ及び横方向のひび割れが互いに交差した状態である。活荷重により複数のひび割れが格子状になり、その格子状の領域のひび割れ密度が増加する段階である。後半時期には、ひび割れが床版の上下方向(床版下面に直交する垂直方向)で貫通する。 RANK3: A state in which cracks in the vertical direction (longitudinal direction parallel to the traffic direction of the vehicle) and cracks in the horizontal direction intersect each other. This is a stage in which a plurality of cracks are formed into a grid pattern due to live load, and the crack density in the grid pattern region is increased. In the latter half of the period, cracks penetrate the deck in the vertical direction (vertical direction orthogonal to the lower surface of the deck).

RANK4:格子状の領域のひび割れ密度が規定値を超え、貫通した複数のひび割れの破面同士が平滑化された状態である。摺り磨き作用により床版がせん断抵抗を失う段階である。 RANK4: A state in which the crack density of the grid-like region exceeds a specified value and the fracture surfaces of a plurality of cracks that have penetrated are smoothed. This is the stage where the deck loses its shear resistance due to the polishing action.

RANK5:抜け落ちが生じた状態である。低下した押抜きせん断強度を超える輪荷重により抜け落ちが生じる。 RANK5: A state in which omission has occurred. Falling out occurs due to a wheel load that exceeds the reduced punching shear strength.

次に、サーバ装置20のひび割れ情報生成部30により、受信された修正要求に基づいて、ひび割れ情報を修正する(ステップS38)。ランク情報がユーザ端末10で入力された場合には、そのランク情報をひび割れ情報に付加する。 Next, the crack information generation unit 30 of the server device 20 corrects the crack information based on the received correction request (step S38). When the rank information is input by the user terminal 10, the rank information is added to the crack information.

次に、サーバ装置20の送信部24により、修正後のひび割れ情報をユーザ端末10に対して送信する(ステップS40)。修正後のひび割れ情報は、ユーザ端末10の端末受信部13により受信され、端末表示部14に表示される(ステップS42)。 Next, the transmission unit 24 of the server device 20 transmits the corrected crack information to the user terminal 10 (step S40). The modified crack information is received by the terminal receiving unit 13 of the user terminal 10 and displayed on the terminal display unit 14 (step S42).

次に、ユーザ端末10の端末操作部15によりユーザから帳票作成指示の入力を受け付けたか否かを判定し(ステップS44)、帳票作成指示の入力を受け付けた場合(ステップS44でYESの場合)、ユーザ端末10の端末送信部12により、帳票要求がサーバ装置20に対して送信される(ステップS46)。帳票要求は、サーバ装置20の受信部22により受信される(ステップS48)。 Next, when the terminal operation unit 15 of the user terminal 10 determines whether or not the input of the form creation instruction is accepted from the user (step S44) and the input of the form creation instruction is accepted (YES in step S44), The form request is transmitted to the server device 20 by the terminal transmission unit 12 of the user terminal 10 (step S46). The form request is received by the receiving unit 22 of the server device 20 (step S48).

次に、サーバ装置20の帳票作成部40により、橋梁の床版の点検結果を示す帳票(点検調書)を作成する(ステップS50)。帳票は、橋梁の床版におけるひび割れ程度の評価区分を示すランク情報を含む。 Next, the form creation unit 40 of the server device 20 creates a form (inspection record) showing the inspection result of the deck of the bridge (step S50). The form contains rank information indicating the evaluation classification of the degree of cracks in the deck of the bridge.

次に、サーバ装置20の送信部24により、ユーザ端末10に対して帳票を送信する(ステップS52)。帳票は、ユーザ端末10の端末受信部13により受信され、端末表示部14により帳票受信がユーザに対して報知される(ステップS54)。帳票は、ユーザの操作に応じて、端末表示部14に表示させることが可能であり、またネットワークNWに接続されたプリンタ(図示を省略)に印刷させることも可能である。 Next, the transmission unit 24 of the server device 20 transmits the form to the user terminal 10 (step S52). The form is received by the terminal receiving unit 13 of the user terminal 10, and the terminal display unit 14 notifies the user of the form reception (step S54). The form can be displayed on the terminal display unit 14 according to the operation of the user, and can also be printed on a printer (not shown) connected to the network NW.

図13は、帳票としての損傷図の一例を示す図である。この損傷図は、点検対象である橋梁の床版に生じた各損傷について、格間ごとに、損傷表示(ひび割れ表示、漏水表示、遊離石灰表示等)、部材名(「床版」等)、要素番号(Ds0201等)、損傷の種類(「ひび割れ」、「漏水」、「遊離石灰」等)、損傷程度の評価区分(ランク情報)が記載されたものである。尚、図13では、図12に示した五段階の評価区分(「RANK1」〜「RANK5」)を、アルファベットの「a」〜「e」で表している。 FIG. 13 is a diagram showing an example of a damage diagram as a form. In this damage diagram, for each damage that occurred on the deck of the bridge to be inspected, the damage display (crack display, water leakage display, free lime display, etc.), member name ("deck", etc.), The element number (Ds0201 etc.), the type of damage (“crack”, “water leakage”, “free lime”, etc.), and the evaluation classification (rank information) of the degree of damage are described. In FIG. 13, the five-level evaluation categories (“RANK1” to “RANK5”) shown in FIG. 12 are represented by the alphabets “a” to “e”.

<第2の画像処理例>
図14は、第1実施形態における第2の画像処理例の流れを示すフローチャートである。
<Second image processing example>
FIG. 14 is a flowchart showing the flow of the second image processing example in the first embodiment.

本例のステップS2〜S16は、図8に示した第1の画像処理例と同様である。 Steps S2 to S16 of this example are the same as the first image processing example shown in FIG.

本例では、合成前の各画像を画像解析してひび割れを検出し(ステップS218)、合成画像を生成する(ステップS220)。次に、機械学習部32により、合成画像が不適切であるか否かを判断する(ステップS222)。機械学習部32は、データベース50に記憶された各種の情報に基づいて、合成画像が適切である事象及び合成画像が不適切である事象を学習しており、その学習結果に基づいて今回の合成画像が不適切であるか否かを判断することができる。機械学習部32は、例えば、原画像(合成前の画像)間でひび割れ画像が繋がらない等の異常を検出する機能を学習結果として持つことが可能である。不適切であると判断された場合(ステップS222でYESの場合)、画像補正及び画像合成に関するパラメータを変更してステップS16に戻り、適切であると判断された場合(ステップS222でNOの場合)、ステップS24に進む。 In this example, each image before composition is image-analyzed to detect cracks (step S218), and a composite image is generated (step S220). Next, the machine learning unit 32 determines whether or not the composite image is inappropriate (step S222). The machine learning unit 32 learns an event in which the composite image is appropriate and an event in which the composite image is inappropriate based on various information stored in the database 50, and this synthesis is based on the learning result. It is possible to determine whether the image is inappropriate. The machine learning unit 32 can have, for example, a function of detecting an abnormality such as a cracked image not being connected between original images (images before composition) as a learning result. If it is determined to be inappropriate (YES in step S222), the parameters related to image correction and image composition are changed to return to step S16, and if it is determined to be appropriate (NO in step S222). , Step S24.

ステップS24〜S54は、図8に示した第1の画像処理例と同様である。 Steps S24 to S54 are the same as the first image processing example shown in FIG.

<第3の画像処理例>
図15は、第1実施形態における第3の画像処理例の流れを示すフローチャートである。
<Third image processing example>
FIG. 15 is a flowchart showing the flow of the third image processing example in the first embodiment.

本例では、図16に示すように点検現場でロボット装置70に搭載された撮像装置62により分割撮像して得られた複数の二視点画像がユーザ端末10により入力され(ステップS306)、且つロボット装置70の撮像装置制御に従った撮像装置制御情報がユーザ端末10により入力される(ステップS308)。本例の撮像装置制御情報は、画像位置情報、距離情報、傾き角度情報及び回転角度情報を含む。 In this example, as shown in FIG. 16, a plurality of two-viewpoint images obtained by split imaging by the imaging device 62 mounted on the robot device 70 at the inspection site are input by the user terminal 10 (step S306), and the robot The image pickup device control information according to the image pickup device control of the device 70 is input by the user terminal 10 (step S308). The image pickup device control information of this example includes image position information, distance information, tilt angle information, and rotation angle information.

本例のロボット装置70は、橋梁に懸垂した懸垂式ロボットであり、図16ではその撮像に関する要部のみを示している。尚、懸垂式ロボットは、橋梁に懸垂する代わりに、橋梁上の走行体(車輌)に懸垂する方式のロボットでもよい。また、懸垂式ロボットの代わりに、ドローン(無人飛行体)等の無人飛行式ロボットを用いる場合にも本発明を適用可能である。 The robot device 70 of this example is a suspension type robot suspended from a bridge, and FIG. 16 shows only the main parts related to the imaging thereof. The suspension type robot may be a robot that suspends from a traveling body (vehicle) on the bridge instead of suspending from the bridge. The present invention can also be applied when an unmanned flying robot such as a drone (unmanned aerial vehicle) is used instead of the suspended robot.

本例の撮像装置62は、複眼式であり、二視点でそれぞれ構造物の被撮像面を撮像することにより、二視点画像(「立体視画像」ともいう)を取得する。ロボット装置70は、二視点画像に対して画像処理を行うことにより、撮像装置62から被撮像面内の各点までの距離を算出することができる。また、本例のロボット装置70は、撮像装置62の回動及び移動の制御を行う撮像装置制御機構72を備える。撮像装置制御機構72は、撮像装置62を互いに直交するX方向、Y方向及びZ方向のそれぞれで移動可能なXYZ移動機構と、撮像装置62をパン方向P及びチルト方向Tのそれぞれで回動可能なパンチルト機構とを兼ねている。撮像装置制御機構72により、構造物の被撮像面(表面)の基準点に対する撮像装置62の位置を自在に設定することができる。つまり、複数回の分割撮像で得られる複数の画像のそれぞれの位置情報を自在に設定することができる。また、撮像装置制御機構72により、撮像装置62と構造物の被撮像面との距離、撮像装置62の撮像方向と構造物の被撮像面との傾き角度、及び撮像装置62の撮像方向と構造物の被撮像面との回転角度を、それぞれ自在に設定することができる。つまり、複数回の分割撮像で得られる複数の画像のそれぞれの距離情報、傾き角度情報、回転角度情報を自在に設定することができる。 The image pickup device 62 of this example is a compound eye type, and acquires a two-viewpoint image (also referred to as a “stereoscopic image”) by taking an image of the imaged surface of the structure from each of the two viewpoints. The robot device 70 can calculate the distance from the image pickup device 62 to each point in the imaged surface by performing image processing on the two-viewpoint image. Further, the robot device 70 of this example includes an image pickup device control mechanism 72 that controls the rotation and movement of the image pickup device 62. The image pickup device control mechanism 72 has an XYZ movement mechanism capable of moving the image pickup device 62 in each of the X, Y, and Z directions orthogonal to each other, and the image pickup device 62 can be rotated in each of the pan direction P and the tilt direction T. It also serves as a pan-tilt mechanism. The image pickup device control mechanism 72 allows the position of the image pickup device 62 to be freely set with respect to a reference point on the surface to be imaged (surface) of the structure. That is, it is possible to freely set the position information of each of the plurality of images obtained by the plurality of divided imaging. Further, by the image pickup device control mechanism 72, the distance between the image pickup device 62 and the imaged surface of the structure, the tilt angle between the image pickup direction of the image pickup device 62 and the image imaged surface of the structure, and the image pickup direction and structure of the image pickup device 62. The rotation angle of the object with the image-imparted surface can be freely set. That is, it is possible to freely set the distance information, the tilt angle information, and the rotation angle information of each of the plurality of images obtained by the plurality of divided imaging.

ユーザ端末10の端末入力部11は、画像位置情報、距離情報、傾き角度情報及び回転角度情報を含む撮像装置制御情報を、複数の画像と共に、メモリカード等の記憶媒体、又はネットワークNWを介して、入力することができる。 The terminal input unit 11 of the user terminal 10 transmits image pickup device control information including image position information, distance information, tilt angle information, and rotation angle information together with a plurality of images via a storage medium such as a memory card or a network NW. , Can be entered.

ステップS12〜S54は、図8に示した第1の画像処理例と同様である。 Steps S12 to S54 are the same as the first image processing example shown in FIG.

尚、画像位置情報、距離情報、傾き角度情報及び回転角度情報等の画像合成又は画像補正に必要な全ての情報が、計測により正確に取得された場合には、適切な合成画像が生成されることになるので、ステップS20(合成画像が不適切か否かの判定)を省略することができる。 If all the information necessary for image composition or image correction such as image position information, distance information, tilt angle information, and rotation angle information is accurately acquired by measurement, an appropriate composite image is generated. Therefore, step S20 (determination of whether or not the composite image is inappropriate) can be omitted.

<第4の画像処理例>
図17は、第1実施形態における第4の画像処理例の流れを示すフローチャートである。
<Fourth image processing example>
FIG. 17 is a flowchart showing a flow of a fourth image processing example in the first embodiment.

本例のステップS2、S4、S306〜S308、及びS12〜S16は、図15に示した第3の画像処理例と同様である。第3の画像処理例と同様に、ロボット装置70に搭載された複眼式の撮像装置62により分割撮像して得られた複数の二視点画像が入力され(ステップS306)、且つロボット装置70の撮像装置制御機構72の撮像装置制御に従った撮像装置制御情報が入力される(ステップS308)。 Steps S2, S4, S306 to S308, and S12 to S16 of this example are the same as the third image processing example shown in FIG. Similar to the third image processing example, a plurality of two-viewpoint images obtained by split imaging by the compound-eye image pickup device 62 mounted on the robot apparatus 70 are input (step S306), and the robot apparatus 70 is imaged. The image pickup device control information according to the image pickup device control of the device control mechanism 72 is input (step S308).

ステップS218〜S222は、図14に示した第2の画像処理例と同様である。つまり、ステップS218で合成前の画像を解析してひび割れを検出した後、ステップS220で合成画像の生成及び登録を行い、ステップS222で合成画像が不適切であるか否か判定する。ステップS222は、第3の画像処理例のS20と同様、省略することができる。 Steps S218 to S222 are the same as the second image processing example shown in FIG. That is, after analyzing the image before composition in step S218 and detecting cracks, the composite image is generated and registered in step S220, and it is determined in step S222 whether or not the composite image is inappropriate. Step S222 can be omitted as in S20 of the third image processing example.

ステップS24〜S54は、第1の画像処理例と同様である。 Steps S24 to S54 are the same as in the first image processing example.

尚、人が撮像装置を操作して構造物を撮像した場合の画像処理例(第1の画像処理例及び第2の画像処理例)と、ロボット装置70が撮像装置を制御して構造物を撮像した場合の画像処理例(第3の画像処理例及び第4の画像処理例)とを、便宜上、別々に説明したが、本発明は、いずれか一方の場合に閉じた構成で実施される場合には限定されず、むしろ両方の場合を含むオープンな構成で実施されることが、好ましい。即ち、本例のサーバ装置20は、人が撮像装置を操作した場合の画像、画像の合成及び補正に必要な情報(画像位置情報を含む)、操作履歴等をデータベース50に記憶させるだけでなく、ロボット装置70が撮像装置を制御した場合の画像、撮像装置制御情報(画像位置情報を含む)、操作履歴等をデータベース50に記憶させて、両方の場合について機械学習を行う。これにより、人が撮像装置を操作して構造物を撮像した場合でも、ロボット装置70が撮像装置を制御した場合の画像処理の機械学習結果に基づいて、クローズした構成よりも適切な合成画像を生成することが可能になる。 An image processing example (first image processing example and second image processing example) when a person operates an image pickup device to image a structure, and a robot device 70 controls the image pickup device to capture the structure. Image processing examples (third image processing example and fourth image processing example) in the case of imaging have been described separately for convenience, but the present invention is carried out in a closed configuration in either case. It is not limited to cases, but rather it is preferable to carry out in an open configuration including both cases. That is, the server device 20 of this example not only stores an image when a person operates the image pickup device, information necessary for image composition and correction (including image position information), an operation history, and the like in the database 50. , The image when the robot device 70 controls the image pickup device, the image pickup device control information (including the image position information), the operation history, and the like are stored in the database 50, and machine learning is performed in both cases. As a result, even when a person operates an image pickup device to image a structure, a composite image more appropriate than a closed configuration can be obtained based on the machine learning result of image processing when the robot device 70 controls the image pickup device. It becomes possible to generate.

[第2の実施形態]
図18は、第2の実施形態における画像処理システムの構成例を示すブロック図である。本図のユーザ端末10は第1実施形態と同じである。本図のサーバ装置200は、図2に示した第1の実施形態のサーバ装置20に対して、ひび割れの進行を予測する予測部44を追加した構成である。
[Second Embodiment]
FIG. 18 is a block diagram showing a configuration example of the image processing system according to the second embodiment. The user terminal 10 in this figure is the same as that of the first embodiment. The server device 200 of this figure has a configuration in which a prediction unit 44 for predicting the progress of cracks is added to the server device 20 of the first embodiment shown in FIG.

予測部44は、データベース50に記憶された橋梁に関する各種情報と、ひび割れ情報生成部30によって生成されたひび割れ情報とに基づいて、橋梁のひび割れの進行を予測する。送信部24は、ひび割れの進行の予測結果をユーザ端末10に送信する。 The prediction unit 44 predicts the progress of cracks in the bridge based on various information about the bridge stored in the database 50 and the crack information generated by the crack information generation unit 30. The transmission unit 24 transmits the prediction result of the progress of cracks to the user terminal 10.

本例のデータベース50は、橋梁の構造情報、橋梁の環境条件情報、橋梁の使用条件情報、橋梁の維持管理履歴情報、及び橋梁の災害履歴情報を記憶する。本例の予測部44は、橋梁の構造情報、橋梁の環境条件情報、橋梁の使用条件情報、橋梁の維持管理履歴情報、及び橋梁の災害履歴情報のうち少なくとも一つの情報と、橋梁のひび割れ情報とに基づいて、橋梁におけるひび割れの進行を予測する。 The database 50 of this example stores bridge structural information, bridge environmental condition information, bridge usage condition information, bridge maintenance history information, and bridge disaster history information. The prediction unit 44 of this example includes at least one of bridge structural information, bridge environmental condition information, bridge usage condition information, bridge maintenance history information, and bridge disaster history information, and bridge crack information. Based on the above, the progress of cracks in the bridge is predicted.

ランク情報は、例えば橋梁の点検部位(例えば床版の格間)ごとの評価区分である。ランク情報は、橋梁の健全性を段階的又は数値的に表した「健全度」を含んでもよい。 The rank information is, for example, an evaluation classification for each inspection site of a bridge (for example, a floor slab coffer). The rank information may include "health", which is a gradual or numerical representation of the soundness of the bridge.

橋梁の構造情報は、橋梁全体のうち少なくとも評価対象である床版及びその周辺の部材を含む部分の構造を示す。例えば、構造形式、構造的特徴が挙げられる。荷重と床版との関係、地震の震動と床版との関係、雨水と床版との関係、温度と床版との関係等、床版のひび割れの進行に関連する構造上の情報を含む。アルカリ骨材反応を生じ易い材料を使用しているか否か等の化学的な情報でもよい。ひび割れが発生し易い部分を直接的に表した情報でもよい。 The structural information of the bridge indicates the structure of at least the part of the entire bridge including the floor slab to be evaluated and the members around it. For example, structural form and structural features can be mentioned. Includes structural information related to the progress of cracks in the deck, such as the relationship between loads and decks, the relationship between earthquake vibrations and decks, the relationship between rainwater and decks, and the relationship between temperature and decks. .. Chemical information such as whether or not a material that easily causes an alkaline aggregate reaction is used may be used. Information that directly represents a part where cracks are likely to occur may be used.

橋梁の環境条件情報は、例えば塩分が飛来するか否か等の立地条件が挙げられる。 The environmental condition information of the bridge includes, for example, the location condition such as whether or not salt comes in.

橋梁の使用条件情報は、例えば、車輌の交通量、大型車混入率が挙げられる。 Information on the conditions for using bridges includes, for example, the traffic volume of vehicles and the mixing rate of large vehicles.

橋梁の維持管理履歴情報は、例えば凍結防止剤の散布履歴情報が挙げられる。補修及び補強の履歴情報を含んでもよい。 Examples of bridge maintenance history information include spraying history information of antifreeze agents. It may include history information of repairs and reinforcements.

橋梁の災害履歴情報は、橋梁が受けた台風、地震等の災害の履歴情報である。 The disaster history information of a bridge is the history information of disasters such as typhoons and earthquakes received by the bridge.

本例のデータベース50は、更に、橋梁のひび割れ程度の評価区分を示すランク情報を、橋梁の合成画像及びひび割れ情報と関連付けて、記憶する。本例の予測部44は、ひび割れ評価部36で評価された橋梁のランク情報が未来どのように変化するかを予測するシミュレーション処理を実行する。 The database 50 of this example further stores rank information indicating the evaluation classification of the degree of cracking of the bridge in association with the composite image of the bridge and the crack information. The prediction unit 44 of this example executes a simulation process for predicting how the rank information of the bridge evaluated by the crack evaluation unit 36 will change in the future.

また、予測部44により、過去から現在までどのように変化したかをシミュレーションしてもよい。ひび割れ情報生成部30により、過去から現在までのシミュレーション結果と現在の画像(合成画像又は合成前の画像)とに基づいて、ひび割れ情報を生成することで、ひび割れ情報の精度を更に向上させることができる。 In addition, the prediction unit 44 may simulate how the change has occurred from the past to the present. The crack information generation unit 30 can further improve the accuracy of crack information by generating crack information based on the simulation results from the past to the present and the current image (composite image or image before synthesis). can.

本例の機械学習部32は、操作履歴、画像(合成画像又は合成前の画像)、及びひび割れ情報のほかに、予測部44の予測結果にも基づいて、ひび割れ検出を機械学習することが可能である。機械学習部32は、更に、橋梁の構造情報、橋梁の環境条件情報、橋梁の使用条件情報、橋梁の維持管理履歴情報、及び橋梁の災害履歴情報のうち少なくとも一つの情報にも基づいて、ひび割れ検出を学習することが、好ましい。 The machine learning unit 32 of this example can perform machine learning of crack detection based on the prediction result of the prediction unit 44 in addition to the operation history, the image (composite image or the image before composition), and the crack information. Is. The machine learning unit 32 further cracks based on at least one of bridge structural information, bridge environmental condition information, bridge usage condition information, bridge maintenance history information, and bridge disaster history information. Learning detection is preferred.

[ベクトル化]
ひび割れ画像のベクトル化について、図19〜図22を用いて説明する。
[Vectorization]
The vectorization of the cracked image will be described with reference to FIGS. 19 to 22.

サーバ装置20のひび割れ情報生成部30は、合成画像又は合成前の画像から抽出したひび割れの部分をベクトル化して、ひび割れのベクトルデータ(以下「ひび割れベクトル」又は単に「ベクトル」という)を生成する。つまり、ひび割れ情報生成部30は、ひび割れ部分をベクトル化する。サーバ装置20の送信部24は、ベクトル化されたひび割れ画像であるひび割れベクトルを含むひび割れ情報を、合成画像と共に、ユーザ端末10に送信する。ユーザ端末10の端末表示部14には、ベクトル化されたひび割れ画像が合成画像に重ね合されて表示される。 The crack information generation unit 30 of the server device 20 vectorizes the crack portion extracted from the composite image or the image before synthesis to generate crack vector data (hereinafter, referred to as “crack vector” or simply “vector”). That is, the crack information generation unit 30 vectorizes the crack portion. The transmission unit 24 of the server device 20 transmits the crack information including the crack vector, which is a vectorized crack image, to the user terminal 10 together with the composite image. The vectorized crack image is superimposed and displayed on the composite image on the terminal display unit 14 of the user terminal 10.

ひび割れ情報生成部30は、ベクトル化に際して、検出されたひび割れを必要に応じ2値化及び/または細線化する。「ベクトル化」とは、ひび割れに対し始点及び終点で定まる線分を求めることであり、ひび割れが曲線状の場合、曲線と線分の距離が閾値以下になるようにひび割れを複数の区間に分割し、複数の区間のそれぞれについてひび割れベクトルを生成する。 The crack information generation unit 30 binarizes and / or thins the detected cracks as necessary at the time of vectorization. "Vectoring" is to find a line segment determined by the start point and end point for a crack. When the crack is curved, the crack is divided into multiple sections so that the distance between the curve and the line segment is less than the threshold. Then, a crack vector is generated for each of the plurality of intervals.

ひび割れベクトルの生成に際しては、例えば床版2の特徴点を座標系の原点とし、ひび割れベクトルのグループ(ベクトルグループ)について、原点からの距離が最小になる端点を第1の始点とし、以下ひび割れベクトルの走行方向に沿って順次終点、始点を決定することができる。図19の例では、床版2上の点P0を座標系の原点、図の右方向及び下方向をそれぞれ座標系のX軸方向、Y軸方向としたときに、ベクトルグループC7の点P13,P14,P15,P16のうち点P0からの距離dが最も短くなる点P13をひび割れベクトルC7−1の始点とし、以下、点P14をひび割れベクトルC7−1の終点(かつひび割れベクトルC7−2,C7−3の始点)、点P15,P16をそれぞれひび割れベクトルC7−2,C7−3の終点とすることができる。 When generating the crack vector, for example, the feature point of the floor slab 2 is set as the origin of the coordinate system, and for the group of crack vectors (vector group), the end point at which the distance from the origin is minimized is set as the first starting point, and the following crack vector It is possible to determine the end point and the start point in sequence along the traveling direction of. In the example of FIG. 19, when the point P0 on the floor slab 2 is the origin of the coordinate system and the right and downward directions of the figure are the X-axis direction and the Y-axis direction of the coordinate system, respectively, the points P13 of the vector group C7, Of P14, P15, and P16, the point P13 where the distance d from the point P0 is the shortest is set as the start point of the crack vector C7-1, and hereinafter, the point P14 is the end point of the crack vector C7-1 (and the crack vectors C7-2 and C7). The start point of -3) and points P15 and P16 can be set as the end points of the crack vectors C7-2 and C7-3, respectively.

しかしながら、同様の手法でベクトルグループC8の始点を決定すると、点P17がひび割れベクトルC8−1の始点、点P18がひび割れベクトルC8−2,C8−3の始点となり、ひび割れベクトルC8−3の走行方向(点P18から点P20へ向かう方向)がひび割れベクトルC8−1の走行方向と逆行してしまう。そこでこのような場合は、図20に示すように点P19をひび割れベクトルC8A−1の始点とし、以下、点P18をひび割れベクトルC8A−1の終点(かつひび割れベクトルC8A−2,C8A−3の始点)、点P17,P20をそれぞれひび割れベクトルC8A−2,C8A−3の終点とするようにしてもよい。なおこの場合のひび割れベクトルの集合体をベクトルグループC8Aと表記する。 However, when the start point of the vector group C8 is determined by the same method, the point P17 becomes the start point of the crack vector C8-1, the point P18 becomes the start point of the crack vectors C8-2 and C8-3, and the traveling direction of the crack vector C8-3. (The direction from the point P18 to the point P20) is opposite to the traveling direction of the crack vector C8-1. Therefore, in such a case, as shown in FIG. 20, the point P19 is set as the start point of the crack vector C8A-1, and hereinafter, the point P18 is the end point of the crack vector C8A-1 (and the start point of the crack vectors C8A-2 and C8A-3). ), Points P17 and P20 may be set as the end points of the crack vectors C8A-2 and C8A-3, respectively. The aggregate of crack vectors in this case is referred to as vector group C8A.

上述のようにしてひび割れベクトルを生成する場合、ひび割れが床版2の内部では連続しているが表面では分離していると、分離したひび割れベクトルとして認識されてしまう可能性がある。そこで、複数のひび割れベクトルを連結して1または複数のベクトルを生成する。 When the crack vector is generated as described above, if the cracks are continuous inside the deck 2 but separated on the surface, they may be recognized as separated crack vectors. Therefore, a plurality of crack vectors are concatenated to generate one or a plurality of vectors.

図21はひび割れベクトルの連結の例を示す図であり、ひび割れベクトルC3−1(点P21、点P22がそれぞれ始点、終点)を含むベクトルグループC3と、ひび割れベクトルC4−1(点P23、点P24がそれぞれ始点、終点)を含むベクトルグループC4とが抽出された状況を示している。また、ひび割れベクトルC3−1が点P22及び点P23を結ぶ線分となす角をα1とし、点P22及び点P23を結ぶ線分がひび割れベクトルC4−1となす角をα2とする。このとき、角α1及び角α2が共に閾値以下ならば、ひび割れベクトルC3−1及びC4−1を連結し、またベクトルグループC3及びC4を融合させる。具体的には、図22に示すように新たなひび割れベクトルC5−2を生成してその他のひび割れベクトルC5−1(ひび割れベクトルC3−1と同一)及びC5−3(ひび割れベクトルC4−1と同一)と連結させ、これらひび割れベクトルC5−1,C5−2,及びC5−3を含む新たなベクトルグループをベクトルグループC5とする。このように、空間的に(床版2の表面で)分離したベクトルを適宜連結させることにより、ベクトル同士の連結関係を正確に把握することができる。 FIG. 21 is a diagram showing an example of connecting crack vectors, in which a vector group C3 including a crack vector C3-1 (point P21 and a point P22 are start points and end points, respectively) and a crack vector C4-1 (point P23, point P24) are shown. Indicates a situation in which the vector group C4 including the start point and the end point) is extracted. Further, the angle formed by the crack vector C3-1 with the line segment connecting the points P22 and P23 is α1, and the angle formed by the line segment connecting the points P22 and P23 with the crack vector C4-1 is α2. At this time, if both the angles α1 and the angles α2 are equal to or less than the threshold value, the crack vectors C3-1 and C4-1 are connected, and the vector groups C3 and C4 are fused. Specifically, as shown in FIG. 22, a new crack vector C5-2 is generated to generate other crack vectors C5-1 (same as the crack vector C3-1) and C5-3 (same as the crack vector C4-1). ), And a new vector group including these crack vectors C5-1, C5-2, and C5-3 is designated as a vector group C5. By appropriately connecting the spatially separated vectors (on the surface of the deck 2) in this way, the connection relationship between the vectors can be accurately grasped.

尚、上述のベクトル連結は一例であり、他の方法を用いてもよい。 The above-mentioned vector connection is an example, and other methods may be used.

また、ひび割れ情報生成部30は、複数のベクトル同士の相対角度を算出する。つまり、一のベクトルと他のベクトルとが成す角度を算出する。 Further, the crack information generation unit 30 calculates the relative angles between the plurality of vectors. That is, the angle formed by one vector and the other vector is calculated.

また、ひび割れ情報生成部30は、ひび割れベクトルの階層構造を示す階層構造情報を生成する。階層構造情報は、ベクトル同士の連結関係を階層的に表現した情報である。階層構造情報は、複数のベクトルによって構成されるベクトルグループのうちで各ベクトルがどの階層に属するかを示す階層識別情報(「所属階層情報」ともいう)を含む。階層識別情報は、例えば、数字で表現された階層番号を用いることができる。数字以外のコード(例えば英字、記号)で表現してもよい。 Further, the crack information generation unit 30 generates hierarchical structure information indicating the hierarchical structure of the crack vector. Hierarchical structure information is information that hierarchically expresses the connection relationship between vectors. The hierarchical structure information includes hierarchical identification information (also referred to as “affiliation hierarchical information”) indicating which hierarchy each vector belongs to in a vector group composed of a plurality of vectors. As the layer identification information, for example, a layer number represented by a number can be used. It may be expressed by a code other than numbers (for example, letters and symbols).

図23は、ベクトルグループC1を示す図である。ベクトルグループC1は、ひび割れベクトルC1−1〜C1−6により構成されており、これらひび割れベクトルは点P1〜P7を始点または終点としている。このような状況において、ひび割れベクトルが分岐する(あるひび割れベクトルの終点が他の複数のひび割れベクトルの始点となっている)ごとに階層が下位になるとしている。具体的にはひび割れベクトルC1−1の階層を最も上位の“レベル1”として、ひび割れベクトルC1−1の終点である点P2を始点とするひび割れベクトルC1−2及びC1−3の階層は、ひび割れベクトルC1−1よりも下位である“レベル2”とする。同様に、ひび割れベクトルC1−3の終点である点P4を始点とするひび割れベクトルC1−5及びC1−6の階層は、ひび割れベクトルC1−3よりも下位である“レベル3”とする。一方、ひび割れベクトルC1−2の終点である点P3はひび割れベクトルC1−4の始点であるが、点P3を始点とするひび割れベクトルはひび割れベクトルC1−4だけであり分岐はないので、ひび割れベクトルC1−4の階層はC1−2と同じ“レベル2”とする。このようにして決定した各ひび割れベクトルの階層は、階層構造情報に含まれる。 FIG. 23 is a diagram showing the vector group C1. The vector group C1 is composed of crack vectors C1-1 to C1-6, and these crack vectors have points P1 to P7 as a start point or an end point. In such a situation, each time the crack vector branches (the end point of one crack vector is the start point of a plurality of other crack vectors), the hierarchy is lowered. Specifically, the hierarchy of the crack vector C1-1 is set as the highest "level 1", and the layers of the crack vectors C1-2 and C1-3 starting from the point P2 which is the end point of the crack vector C1-1 are cracked. Let it be "level 2", which is lower than the vector C1-1. Similarly, the hierarchy of the crack vectors C1-5 and C1-6 starting from the point P4 which is the end point of the crack vector C1-3 is set to "level 3" which is lower than the crack vector C1-3. On the other hand, the point P3 which is the end point of the crack vector C1-2 is the start point of the crack vector C1-4, but the crack vector starting from the point P3 is only the crack vector C1-4 and there is no branch, so the crack vector C1 The hierarchy of -4 is the same as C1-2, "level 2". The hierarchy of each crack vector determined in this way is included in the hierarchical structure information.

図24は、ベクトルグループC1(ひび割れベクトル同士の連結関係は図23に示すものと同一)を示す図である。本例では、連結するひび割れベクトルのうち他のひび割れベクトルとなす角度が閾値以下であるもの(木構造における「幹」に相当するひび割れベクトル)は同一の階層に属するものとしている。具体的には図24の点線内(参照符号Lv1で示す範囲)に存在するひび割れベクトルC1−1,C1−2,及びC1−4は同一の階層である“レベル1”(最上位)とする。また、それ以外のひび割れベクトルC1−3,C1−5,及びC1−6については、ひび割れベクトルが分岐するごとに階層が下位になるとしており、ひび割れベクトルC1−3(木構造における「枝」に相当)を“レベル2”、ひび割れベクトルC1−5及びC1−6(木構造における「葉」に相当)を“レベル3”としている。このようにして決定した各ひび割れベクトルの階層及び種別(幹、枝、あるいは葉)は、階層構造情報に含まれる。 FIG. 24 is a diagram showing vector group C1 (the connection relationship between the crack vectors is the same as that shown in FIG. 23). In this example, among the crack vectors to be connected, those whose angles formed with other crack vectors are equal to or less than the threshold value (crack vectors corresponding to the "trunk" in the tree structure) belong to the same hierarchy. Specifically, the crack vectors C1-1, C1-2, and C1-4 existing in the dotted line in FIG. 24 (the range indicated by the reference code Lv1) are set to "level 1" (top level), which is the same layer. .. Regarding the other crack vectors C1-3, C1-5, and C1-6, it is said that the hierarchy becomes lower each time the crack vector branches, and the crack vector C1-3 (“branch” in the tree structure). (Equivalent) is defined as "level 2", and crack vectors C1-5 and C1-6 (corresponding to "leaves" in the tree structure) are defined as "level 3". The hierarchy and type (trunk, branch, or leaf) of each crack vector determined in this way are included in the hierarchical structure information.

尚、図23及び図24を用いて説明した階層構造化は例であり、変形した方法あるいは異なる方法で階層構造化してよい。 The hierarchical structure described with reference to FIGS. 23 and 24 is an example, and the hierarchical structure may be formed by a modified method or a different method.

更に、ひび割れ情報生成部30は、ベクトルに各種の付加情報(属性情報)を付加する。例えば、各ひび割れの幅を示す情報(幅情報)を各ベクトルに付加する。 Further, the crack information generation unit 30 adds various additional information (attribute information) to the vector. For example, information indicating the width of each crack (width information) is added to each vector.

以上のように、サーバ装置20のひび割れ情報生成部30によってひび割れ画像のベクトル化及び階層構造化を行うので、生成されたひび割れベクトル及び階層構造情報を用いて各種の処理を効率良く且つ適切に行うことが可能になる。 As described above, since the crack information generation unit 30 of the server device 20 vectorizes and hierarchically structures the crack image, various processes are efficiently and appropriately performed using the generated crack vector and the hierarchical structure information. Will be possible.

例えば、ひび割れベクトル及び階層構造情報を用いて、画像補正を行うことが可能になる。また、ひび割れベクトル及び階層構造情報を用いて、合成画像が不適切であるか否かを判定することが可能になる。また、ひび割れベクトル及び階層構造情報を用いて、機械学習を行うことが可能になる。また、ひび割れベクトル及び階層構造情報を用いて、ひび割れ程度の評価区分を判別することが可能になる。また、ひび割れベクトル及び階層構造情報を用いて、ひび割れの進行を予測することが可能になる。 For example, image correction can be performed using the crack vector and the hierarchical structure information. In addition, it becomes possible to determine whether or not the composite image is inappropriate by using the crack vector and the hierarchical structure information. In addition, machine learning can be performed using the crack vector and the hierarchical structure information. In addition, the crack vector and the hierarchical structure information can be used to determine the evaluation classification of the degree of crack. In addition, it becomes possible to predict the progress of cracks by using the crack vector and the hierarchical structure information.

[スケール画像例]
スケール画像生成部34によって生成されるスケール画像の例を説明する。スケール画像生成部34は、ひび割れ画像によって示されるひび割れの特徴量(例えばひび割れの幅)をユーザ端末10の画面上で測定するための各種のスケール画像を生成する。スケール画像は、ひび割れ情報に付加される。
[Example of scale image]
An example of the scale image generated by the scale image generation unit 34 will be described. The scale image generation unit 34 generates various scale images for measuring the feature amount of the crack (for example, the width of the crack) indicated by the crack image on the screen of the user terminal 10. The scale image is added to the crack information.

図25は、スケール画像の表示例を示す図である。図示及び説明の便宜上、測定対象のひび割れを示すひび割れ画像CR11(CR11−1、CR11−2、CR11−3)を、拡大して示す。 FIG. 25 is a diagram showing a display example of a scale image. For convenience of illustration and description, the crack images CR11 (CR11-1, CR11-2, CR11-3) showing the cracks to be measured are shown in an enlarged manner.

スケール画像CS1、CS2、CS3、CS4は、構造物の測定面(本例では橋梁の床版である)に生じたひび割れの測定を行うための画像である。これらのスケール画像CS1〜CS4は、サーバ装置20のスケール画像生成部34により生成される。本例のスケール画像生成部34は、ひび割れの長さを測定するための目盛りが付されたスケールを示すスケール画像CS1、CS2と、ひび割れの幅を測定するための線画及び数字が付されたスケールを示すスケール画像CS3、CS4を生成する。スケール画像CS1〜CS4は、撮像装置と測定面との距離、及び撮像装置の撮像方向に対する測定面の傾き角度に応じたスケールを示す。スケール画像生成部34は、距離及び角度に応じて、スケールの種類、形状、大きさ等を異ならせる。本例のスケール画像生成部34は、距離及び傾き角度に応じて、長さ測定用のスケール画像CS1、CS2の目盛りを異ならせ、幅測定用のスケール画像CS3、CS4の線画及び数字を異ならせている。 Scale images CS1, CS2, CS3, and CS4 are images for measuring cracks generated on the measurement surface of a structure (in this example, the deck of a bridge). These scale images CS1 to CS4 are generated by the scale image generation unit 34 of the server device 20. The scale image generation unit 34 of this example includes scale images CS1 and CS2 showing scales with scales for measuring the length of cracks, and scales with line drawings and numbers for measuring the width of cracks. Scale images CS3 and CS4 showing the above are generated. The scale images CS1 to CS4 show scales according to the distance between the imaging device and the measuring surface and the tilt angle of the measuring surface with respect to the imaging direction of the imaging device. The scale image generation unit 34 makes the type, shape, size, etc. of the scale different according to the distance and the angle. The scale image generation unit 34 of this example makes the scales of the scale images CS1 and CS2 for length measurement different according to the distance and the tilt angle, and makes the line drawings and numbers of the scale images CS3 and CS4 for width measurement different. ing.

サーバ装置20のひび割れ情報生成部30は、スケール画像CS1〜CS4をひび割れ情報に付加する。サーバ装置20の送信部24は、スケール画像CS1〜CS4が付加されたひび割れ情報を、構造物の合成画像と共に、ユーザ端末10に送信する。送信されたスケール画像付きのひび割れ情報及び合成画像は、ユーザ端末10の端末受信部13により受信される。 The crack information generation unit 30 of the server device 20 adds the scale images CS1 to CS4 to the crack information. The transmission unit 24 of the server device 20 transmits the crack information to which the scale images CS1 to CS4 are added to the user terminal 10 together with the composite image of the structure. The transmitted crack information with the scale image and the composite image are received by the terminal receiving unit 13 of the user terminal 10.

ユーザ端末10の端末表示部14における表示領域DAは、構造物の合成画像及びスケール画像を表示する画像表示領域IAと、その画像表示領域IAに表示可能な種類のスケール画像(つまりユーザが選択可能なスケール画像)を表示するスケール画像選択領域SAとを含む。スケール画像選択領域SAには、スケール画像CS1〜CS4の他に、スケール画像の選択を確定するためのOKボタンBU1、スケール画像の選択をキャンセルするためのキャンセルボタンBU2、画像表示領域IAに表示されたスケール画像を消去するための消去ボタンBU3が表示されている。 The display area DA in the terminal display unit 14 of the user terminal 10 is an image display area IA for displaying a composite image and a scale image of a structure, and a scale image of a type that can be displayed in the image display area IA (that is, the user can select the scale image). Scale image selection area SA for displaying a large scale image) is included. In the scale image selection area SA, in addition to the scale images CS1 to CS4, an OK button BU1 for confirming the selection of the scale image, a cancel button BU2 for canceling the selection of the scale image, and an image display area IA are displayed. The erase button BU3 for erasing the scale image is displayed.

端末操作部15は、スケール画像選択領域SAに表示されたスケール画像CS1〜CS4に対するユーザの選択操作を受け付ける。ユーザは、ボタン、マウス等を用いて選択操作を行う。スケール画像選択領域SAに表示された複数のスケール画像CS1〜CS4のうちから、ユーザの選択操作に対応したスケール画像(本例ではCS2及びCS3)が画像表示領域IAに表示される。 The terminal operation unit 15 accepts a user's selection operation for the scale images CS1 to CS4 displayed in the scale image selection area SA. The user performs a selection operation using a button, a mouse, or the like. From the plurality of scale images CS1 to CS4 displayed in the scale image selection area SA, scale images (CS2 and CS3 in this example) corresponding to the user's selection operation are displayed in the image display area IA.

端末表示部14は、画像表示領域IAに、合成画像とスケール画像とを重ね合わせて表示する。合成画像におけるひび割れ画像の位置及び方向に応じて、スケール画像の位置及び方向が決まる。本例のひび割れ画像CR11は、階層構造であって、親のひび割れ画像CR11−1と、子のひび割れ画像CR11−2及びCR11−3とを含む。長さ測定用のスケール画像CS2は、ひび割れ画像CR11−2の方向に沿って、且つひび割れ画像CR11−2の近傍の位置に、表示されている。幅測定用のスケール画像CS3は、ひび割れ画像CR11−1の方向と直交した方向に沿って、且つひび割れ画像CR11−1の幅に最も近い幅を有する線画(本例では1.4mmの線画)がひび割れ画像CR11−1に位置合わせされて、表示されている。 The terminal display unit 14 superimposes and displays the composite image and the scale image on the image display area IA. The position and direction of the scale image are determined according to the position and direction of the cracked image in the composite image. The crack image CR11 of this example has a hierarchical structure and includes a parent crack image CR11-1 and child crack images CR11-2 and CR11-3. The scale image CS2 for length measurement is displayed along the direction of the crack image CR11-2 and at a position near the crack image CR11-2. The scale image CS3 for width measurement is a line drawing (1.4 mm line drawing in this example) having a width closest to the width of the crack image CR11-1 along a direction orthogonal to the direction of the crack image CR11-1. It is aligned with the crack image CR11-1 and displayed.

図示を省略したが、スケール画像を移動させるための移動ボタン、スケール画像を回転するための回転ボタン、スケール画像を拡大するための拡大ボタン、スケール画像を縮小するための縮小ボタン等もスケール画像選択領域SAに表示させることが好ましい。マウスの移動操作により、スケール画像の移動、回転、拡大、縮小等を指示してもよい。 Although not shown, the scale image selection also includes a move button for moving the scale image, a rotation button for rotating the scale image, an enlargement button for enlarging the scale image, and a reduction button for reducing the scale image. It is preferable to display it in the area SA. You may instruct the movement, rotation, enlargement, reduction, etc. of the scale image by the movement operation of the mouse.

尚、画像表示領域IAに二つのスケール画像CS2、CS3を表示させた場合を例示したが、画像表示領域IAに表示させるスケール画像の数は限定されない。 Although the case where two scale images CS2 and CS3 are displayed in the image display area IA is illustrated, the number of scale images to be displayed in the image display area IA is not limited.

以上、本発明を実施するための形態に関して説明してきたが、本発明は上述した実施形態及び変形例に限定されず、本発明の主旨を逸脱しない範囲で種々の変形が可能である。 Although the embodiments for carrying out the present invention have been described above, the present invention is not limited to the above-described embodiments and modifications, and various modifications can be made without departing from the gist of the present invention.

1 橋梁
2 床版
3 主桁
3A 接合部
10 ユーザ端末
11 端末入力部
12 端末送信部
13 端末受信部
14 端末表示部
15 端末操作部
16 端末制御部
17 端末記憶部
20、200 サーバ装置
22 受信部
24 送信部
26 合成画像生成部
28 ひび割れ検出部
30 ひび割れ情報生成部
32 機械学習部
34 スケール画像生成部
36 ひび割れ評価部
38 CADデータ取得部(データ変換部)
40 帳票作成部
42 記憶部
44 予測部
50 データベース
60、62 撮像装置
70 ロボット装置
72 撮像装置制御機構
AR 選択領域
AR1、AR2 ひび割れ対象領域
BR1、BR21、BR22 バー
BU1 OKボタン
BU2 キャンセルボタン
BU3 消去ボタン
BX1、BX2、BX3 チェックボックス
C1、C3、C4、C5、C7、C8、C8A ベクトルグループ
C1−1、C1−2、C1−3、C1−4、C1−5、C3−1、C4−1、C5−1、C5−2、C7−1、C7−2、C8−1、C8−2、C8−3、C8A−1、C8A−2 ベクトル
CR、CR1、CR2、CR3、CR4、CR11、CR11−1、CR11−2、CR11−3 ひび割れ画像
CS1、CS2、CS3、CS4 スケール画像
DA 表示領域
G1 第1のグループ
G2 第2のグループ
G3 第3のグループ
HG1、HG2 度数分布
IA 画像表示領域
IMG1、IMG2 合成画像
NW ネットワーク
SA スケール画像選択領域
SL1、SL2 スライダ
d 距離
α1、α2 角
1 Bridge 2 Floor slab 3 Main girder 3A Joint 10 User terminal 11 Terminal input unit 12 Terminal transmission unit 13 Terminal reception unit 14 Terminal display unit 15 Terminal operation unit 16 Terminal control unit 17 Terminal storage unit 20, 200 Server device 22 Receiver unit 24 Transmission unit 26 Composite image generation unit 28 Crack detection unit 30 Crack information generation unit 32 Machine learning unit 34 Scale image generation unit 36 Crack evaluation unit 38 CAD data acquisition unit (data conversion unit)
40 Form creation unit 42 Storage unit 44 Prediction unit 50 Database 60, 62 Imaging device 70 Robot device 72 Imaging device control mechanism AR Selection area AR1, AR2 Crack target area BR1, BR21, BR22 Bar BU1 OK button BU2 Cancel button BU3 Erase button BX1 , BX2, BX3 check boxes C1, C3, C4, C5, C7, C8, C8A Vector groups C1-1, C1-2, C1-3, C1-4, C1-5, C3-1, C4-1, C5 -1, C5-2, C7-1, C7-2, C8-1, C8-2, C8-3, C8A-1, C8A-2 Vector CR, CR1, CR2, CR3, CR4, CR11, CR11-1 , CR11-2, CR11-3 Cracked image CS1, CS2, CS3, CS4 Scale image DA Display area G1 First group G2 Second group G3 Third group HG1, HG2 Frequency distribution IA Image display area IMG1, IMG2 synthesis Image NW network SA scale image selection area SL1, SL2 slider d distance α1, α2 angle

Claims (7)

構造物の表面を示す複数の画像を、ユーザ端末から受信するステップと、
前記受信された複数の画像を画像合成して前記構造物の表面を示す合成画像を生成するステップと、
前記合成画像または合成前の前記複数の画像を画像解析して前記構造物の表面のひび割れを検出するステップと、
前記検出されたひび割れに対応するひび割れ画像と前記検出されたひび割れの特徴量とを示すひび割れ情報を生成するステップと、
前記特徴量に基づいて前記ひび割れ画像をグルーピングするステップと、
前記合成画像と前記ひび割れ情報とを前記ユーザ端末に送信して前記ユーザ端末の画面に前記合成画像と前記ひび割れ情報とを表示させるステップと、
前記ひび割れ画像をグループ毎に異なる線種または色を用いて前記ユーザ端末の画面に表示させるステップと、
前記グループを選択する操作を前記ユーザ端末から受信するステップと、
前記選択されたグループに対する前記ひび割れ情報の修正要求を前記ユーザ端末から受信するステップと、
前記受信した前記修正要求に応じて前記ひび割れ情報を修正するステップと、
を含む画像処理方法。
A step of receiving a plurality of images showing the surface of a structure from a user terminal,
A step of image-synthesizing the plurality of received images to generate a composite image showing the surface of the structure.
A step of image-analyzing the composite image or the plurality of images before synthesis to detect cracks on the surface of the structure.
A step of generating crack information indicating a crack image corresponding to the detected crack and a feature amount of the detected crack, and
A step of grouping the cracked images based on the feature amount,
A step of transmitting the composite image and the crack information to the user terminal and displaying the composite image and the crack information on the screen of the user terminal.
A step of displaying the cracked image on the screen of the user terminal using a different line type or color for each group, and
A step of receiving the operation of selecting the group from the user terminal, and
The step of receiving the correction request of the crack information for the selected group from the user terminal, and
The step of correcting the crack information in response to the received correction request, and
Image processing method including.
記受信した前記修正要求の履歴と、前記履歴に対応する前記合成画像及び前記ひび割れ情報と、に基づいて、前記ひび割れの検出を機械学習するステップと、
を含む請求項1に記載の画像処理方法。
A history of the correction request received before reporting, the steps and the composite image and the cracking information corresponding to the history, based on the, to machine learning to detect the cracks,
The image processing method according to claim 1.
前記特徴量は、前記ひび割れの方向、長さ、幅、エッジの強度、及びエッジの密度のうち少なくともいずれかを含む、請求項1または2のいずれかに記載の画像処理方法。 The image processing method according to claim 1 or 2, wherein the feature amount includes at least one of the crack direction, length, width, edge strength, and edge density. 構造物の表面を示す複数の画像を、ユーザ端末から受信する受信部と、
前記受信された複数の画像を画像合成して前記構造物の表面を示す合成画像を生成する合成画像生成部と、
前記合成画像または合成前の前記複数の画像を画像解析して前記構造物の表面のひび割れを検出するひび割れ検出部と、
前記検出されたひび割れに対応するひび割れ画像と前記検出されたひび割れの特徴量とを示すひび割れ情報を生成し、前記特徴量に基づいて前記ひび割れ画像をグルーピングするひび割れ情報生成部と、
グループ毎に異なる線種または色を用いて表示されたひび割れ画像を含む前記ひび割れ情報と前記合成画像とを前記ユーザ端末に送信する送信部と、
前記グループを選択する操作を前記ユーザ端末から受信する選択操作受信部と、
前記選択されたグループに対する前記ひび割れ情報の修正要求を前記ユーザ端末から受信する修正要求受信部と、
前記受信した前記修正要求に応じて前記ひび割れ情報を修正するひび割れ情報修正部と、
を備える画像処理装置。
A receiver that receives a plurality of images showing the surface of a structure from a user terminal, and
A composite image generation unit that synthesizes a plurality of received images to generate a composite image showing the surface of the structure, and a composite image generation unit.
A crack detection unit that detects cracks on the surface of the structure by image-analyzing the composite image or the plurality of images before synthesis.
A crack information generation unit that generates crack information indicating a crack image corresponding to the detected crack and a feature amount of the detected crack, and groups the crack image based on the feature amount.
A transmission unit that transmits the crack information including the crack image displayed using different line types or colors for each group and the composite image to the user terminal.
A selection operation receiving unit that receives an operation for selecting the group from the user terminal, and
A correction request receiving unit that receives a correction request for the crack information for the selected group from the user terminal, and a correction request receiving unit.
A crack information correction unit that corrects the crack information in response to the received correction request,
An image processing device comprising.
記受信した前記修正要求の履歴と、前記履歴に対応する前記合成画像及び前記ひび割れ情報と、に基づいて、前記ひび割れの検出を機械学習する機械学習部を備える請求項4に記載の画像処理装置。 A history of the correction request received before reporting, and the composite image and the cracking information corresponding to the history, on the basis of image processing according to claim 4, comprising a machine learning unit for machine learning to detect the cracks Device. 前記特徴量は、前記ひび割れの方向、長さ、幅、エッジの強度、及びエッジの密度のうち少なくともいずれかを含む、請求項4または5のいずれかに記載の画像処理装置。 The image processing apparatus according to claim 4, wherein the feature amount includes at least one of the crack direction, length, width, edge strength, and edge density. 請求項1に記載の画像処理方法をコンピュータに実行させる画像処理プログラム。
An image processing program that causes a computer to execute the image processing method according to claim 1.
JP2019218028A 2016-06-14 2019-12-02 Image processing method, image processing device, and image processing program Active JP6944506B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021147462A JP7241139B2 (en) 2016-06-14 2021-09-10 Server device, image processing method, and image processing system
JP2023033675A JP2023078205A (en) 2016-06-14 2023-03-06 Image processing device, image processing system, operation method of image processing device and image processing program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016117868 2016-06-14
JP2016117868 2016-06-14
JP2018523607A JP6626970B2 (en) 2016-06-14 2017-05-19 Server device, image processing system, and image processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018523607A Division JP6626970B2 (en) 2016-06-14 2017-05-19 Server device, image processing system, and image processing method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021147462A Division JP7241139B2 (en) 2016-06-14 2021-09-10 Server device, image processing method, and image processing system

Publications (2)

Publication Number Publication Date
JP2020038227A JP2020038227A (en) 2020-03-12
JP6944506B2 true JP6944506B2 (en) 2021-10-06

Family

ID=60664350

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2018523607A Active JP6626970B2 (en) 2016-06-14 2017-05-19 Server device, image processing system, and image processing method
JP2019218028A Active JP6944506B2 (en) 2016-06-14 2019-12-02 Image processing method, image processing device, and image processing program
JP2021147462A Active JP7241139B2 (en) 2016-06-14 2021-09-10 Server device, image processing method, and image processing system
JP2023033675A Pending JP2023078205A (en) 2016-06-14 2023-03-06 Image processing device, image processing system, operation method of image processing device and image processing program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018523607A Active JP6626970B2 (en) 2016-06-14 2017-05-19 Server device, image processing system, and image processing method

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2021147462A Active JP7241139B2 (en) 2016-06-14 2021-09-10 Server device, image processing method, and image processing system
JP2023033675A Pending JP2023078205A (en) 2016-06-14 2023-03-06 Image processing device, image processing system, operation method of image processing device and image processing program

Country Status (2)

Country Link
JP (4) JP6626970B2 (en)
WO (1) WO2017217185A1 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6833356B2 (en) * 2016-06-16 2021-02-24 キヤノン株式会社 Information processing equipment, information processing methods and programs
WO2019130391A1 (en) * 2017-12-25 2019-07-04 富士通株式会社 Image processing program, image processing method, and image processing device
JP6814431B2 (en) * 2018-02-26 2021-01-20 株式会社オプティム Computer systems, drone control methods and programs
JP7336750B2 (en) * 2018-10-12 2023-09-01 パナソニックIpマネジメント株式会社 Prediction device and prediction method
JP7263074B2 (en) * 2019-03-22 2023-04-24 キヤノン株式会社 Information processing device, its control method, program, and storage medium
US20220155277A1 (en) * 2019-04-01 2022-05-19 Aipore Inc. Machine-Learning Program, Method, and Apparatus for Measuring, by Pore Electric Resistance Method, Transient Change in Ion Current Associated with Passage of Target Particles through Pores and for Analyzing Pulse Waveform of Said Transient Change
JP7316097B2 (en) * 2019-05-24 2023-07-27 日本放送協会 Object trajectory generator and its program
JP7151652B2 (en) * 2019-07-18 2022-10-12 株式会社デンソー Crack width measuring device
JP7427381B2 (en) * 2019-07-22 2024-02-05 キヤノン株式会社 Information processing device, system, information processing method and program
JPWO2021200675A1 (en) 2020-04-01 2021-10-07
CN115443407A (en) 2020-05-07 2022-12-06 富士胶片株式会社 Damage evaluation device, method, and program
JP7453848B2 (en) * 2020-05-21 2024-03-21 清水建設株式会社 Face image processing device, face image processing method
KR102374840B1 (en) * 2020-10-20 2022-03-15 두산중공업 주식회사 Defect image generation method for deep learning and system therefor
WO2022209709A1 (en) * 2021-04-02 2022-10-06 富士フイルム株式会社 Image processing device, image processing method, and image processing program
WO2023047859A1 (en) * 2021-09-22 2023-03-30 富士フイルム株式会社 Information processing device, method and program, and image data structure
KR102635926B1 (en) * 2023-08-29 2024-02-13 디엘이앤씨 주식회사 Facility Crack Measuring System

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06148089A (en) * 1992-05-29 1994-05-27 Shimizu Corp Craze measuring processor
JP3067652B2 (en) * 1996-09-04 2000-07-17 関西電力株式会社 Concrete crack measuring method and measuring device
JP4269461B2 (en) * 2000-01-14 2009-05-27 株式会社Ihi Graphic processing method using elliptical area
JP2002310920A (en) * 2001-04-19 2002-10-23 Keisoku Kensa Kk Method for detecting crack in concrete wall and device thereof
JP4010806B2 (en) * 2001-12-20 2007-11-21 西松建設株式会社 Concrete surface deformation investigation system and concrete surface deformation investigation method
JP2004069434A (en) * 2002-08-05 2004-03-04 Tokyo Electric Power Co Inc:The Image processing method using image with laser light spot, mosaic processing method using the image, and normalization service system using the method
JP2005062041A (en) 2003-08-15 2005-03-10 Junichi Izumo Soundness evaluation method, evaluation program and evaluation device
JP2006132973A (en) * 2004-11-02 2006-05-25 Fujimitsu Komuten:Kk Crack inspection device and method of concrete structure
JP4954006B2 (en) * 2007-09-28 2012-06-13 三洋電機株式会社 Crack width measuring system, operating device, crack width measuring method, and crack width measuring program
JP5688533B1 (en) * 2014-01-23 2015-03-25 デ・ファクト・スタンダード合同会社 Concrete structure maintenance management system
JP6597603B2 (en) * 2014-04-25 2019-10-30 ソニー株式会社 Control device, imaging device, control method, imaging method, and computer program
CN110954545B (en) * 2014-04-25 2023-01-13 索尼公司 Information processing apparatus, information processing method, and computer program
JP6368207B2 (en) * 2014-09-25 2018-08-01 前田建設工業株式会社 Inspection support device, inspection support method, and program for concrete structure
JP6387782B2 (en) * 2014-10-17 2018-09-12 ソニー株式会社 Control device, control method, and computer program

Also Published As

Publication number Publication date
JP2020038227A (en) 2020-03-12
JP6626970B2 (en) 2019-12-25
JPWO2017217185A1 (en) 2019-02-28
WO2017217185A1 (en) 2017-12-21
JP7241139B2 (en) 2023-03-16
JP2022000646A (en) 2022-01-04
JP2023078205A (en) 2023-06-06

Similar Documents

Publication Publication Date Title
JP6944506B2 (en) Image processing method, image processing device, and image processing program
JP7102569B2 (en) Damage information processing device, damage information processing method, and damage information processing program
Dupont et al. Potential applications of UAV along the construction's value chain
CN108463717B (en) Crack information detection device, crack information detection method, and storage medium
CN111459166B (en) Scene map construction method containing trapped person position information in post-disaster rescue environment
CN108474748B (en) Crack information editing device, method, and program
KR102423579B1 (en) Integral maintenance control method and system for managing dam safety based on 3d modelling
JP7146013B2 (en) Server device, image processing method, and program
US20210256679A1 (en) System for building photogrammetry
US11144590B2 (en) Similar damage search device and a similar damage search method
CN112241950A (en) Detection method of tower crane crack image
Park et al. A framework for improving object recognition of structural components in construction site photos using deep learning approaches
WO2019171823A1 (en) Photographing evaluation map, photographing evaluation map generation device, photographing evaluation map generation method, and photographing evaluation map generation program
CN109754665A (en) A kind of machine-building mould virtual assembly training information processing system and Training Methodology
JP2021012141A (en) Abnormality inspection system, abnormality inspection device, abnormality inspection method and abnormality inspection program
Fawad et al. Integration of bridge health monitoring system with augmented reality application developed using 3D game engine–Case Study
JP7401478B2 (en) Information processing device, information processing method, and program
Saeedfar et al. Dynamic Space Conflict Modeling for Construction Operations
Izutsu et al. Chapter As-Built Detection of Structures by the Segmentation of Three-Dimensional Models and Point Cloud Data
JP2024066079A (en) Measurement device, measurement system, and measurement method
Karamoozian et al. Applications of Big Data and Opportunities for the Construction Industry
Zhang Four-dimensional and vision-based framework for infrastructure maintenance management
CN116703835A (en) Intelligent reinforcement detection method and system based on convolutional neural network and binocular vision
NAZIM et al. URBAN ANALYTICS AND GENERATIVE DEEP LEARNING FOR CONTEXT RESPONSIVE DESIGN IN DIGITAL TWINS

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210910

R150 Certificate of patent or registration of utility model

Ref document number: 6944506

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150