JP2023078205A - Image processing device, image processing system, operation method of image processing device and image processing program - Google Patents

Image processing device, image processing system, operation method of image processing device and image processing program Download PDF

Info

Publication number
JP2023078205A
JP2023078205A JP2023033675A JP2023033675A JP2023078205A JP 2023078205 A JP2023078205 A JP 2023078205A JP 2023033675 A JP2023033675 A JP 2023033675A JP 2023033675 A JP2023033675 A JP 2023033675A JP 2023078205 A JP2023078205 A JP 2023078205A
Authority
JP
Japan
Prior art keywords
image
crack
information
images
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023033675A
Other languages
Japanese (ja)
Inventor
康平 佐藤
Kohei Sato
学斌 胡
Gakuhin Ko
康彦 金子
Yasuhiko Kaneko
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JP2023078205A publication Critical patent/JP2023078205A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Immunology (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Processing (AREA)

Abstract

To provide an image processing device, an image processing system, an operation method of the image processing device and an image processing program which make it possible to analyze an image of a cracked location without the need for an expensive device, and to present a composite image of the cracked location and the result of the image analysis without complicating an operation performed by a user.SOLUTION: In an image processing device, a processor acquires a plurality of images showing a surface of a structure, generates a composite image showing the surface of the structure by performing image composition of the acquired images, acquires a determination result on whether the composite image is inappropriate, acquires a correction parameter for image correction and/or image composition when the acquired determination result shows that the composite image is inappropriate, generates the composite image again on the basis of the correction parameter, and detects a crack on the surface of the structure by performing image analysis on the composite image or an image before composition.SELECTED DRAWING: Figure 2

Description

本発明は、高額な装置を必要とせずにひび割れ箇所の画像を解析し、かつユーザの操作を煩雑にすることなくひび割れ箇所の合成画像及び画像解析結果を提示することを可能にする画像処理装置、画像処理システム、画像処理装置の作動方法、及び画像処理プログラムに関する。 INDUSTRIAL APPLICABILITY The present invention is an image processing apparatus that can analyze an image of a crack location without requiring an expensive device, and can present a composite image of the crack location and the image analysis results without complicating the user's operation. , an image processing system, an operating method of an image processing apparatus, and an image processing program.

社会的なインフラストラクチャーとして、橋梁、トンネルといった構造物が存在する。これらの構造物には損傷が発生し、その損傷は進行する性質を持つため、定期的に点検を行うことが求められている。また的確な点検結果を報告することが求められている。例えば、構造物の表面に生じたひび割れの性状を的確に把握して点検結果を報告することが求められており、その報告に基づいてひび割れの進行程度に応じた適切な維持管理を行う必要がある。 Structures such as bridges and tunnels exist as social infrastructure. These structures are subject to damage, and the damage tends to progress, so regular inspections are required. It is also required to report accurate inspection results. For example, it is necessary to accurately grasp the properties of cracks that occur on the surface of structures and report the inspection results, and based on the reports, it is necessary to perform appropriate maintenance and management according to the progress of cracks. be.

特許文献1には、コンクリート壁面をレーザ発射体付きのカメラで撮像して得られたレーザ光点付きの遠景画像及び近接画像をモバイルパソコンから送信すると、遠景画像及び近接画像をコンクリート壁面の正面から見た画像に正規化し、更に画像解析対象の近接画像を指定するために近接画像が遠景画像のどのエリアのものかを割り付ける操作をモバイルパソコンで行って解析指示を送信すると、指定の近接画像を画像解析してひび割れ幅を計測するサーバ装置が、記載されている。 In Patent Document 1, when a background image and a close-up image with a laser light spot obtained by imaging a concrete wall surface with a camera with a laser projectile are sent from a mobile personal computer, the background image and the close-up image are transmitted from the front of the concrete wall surface. Normalize the viewed image, and assign which area of the background image the close-up image belongs to in order to specify the close-up image for image analysis on the mobile computer. A server device for image analysis to measure crack width is described.

特許文献2には、パーソナルコンピュータにおいて、点検現場での作業時に野帳に記入された撮影位置の情報に基づいてコンクリート構造物の画像をCAD(computer aided design)図面上に貼り付ける操作を行うと、その操作に応じて画像をCAD図面と関連付け、更に画像上でひび割れをトレースする操作を行うと、その操作に応じて画像上のひび割れをCAD図面に写像し、CAD図面の情報を用いてひび割れの幅及び長さを算出することが、記載されている。 Patent Document 2 describes an operation in which an image of a concrete structure is pasted onto a CAD (computer aided design) drawing based on information on the shooting position entered in a field notebook during work at an inspection site on a personal computer. , the image is associated with the CAD drawing according to the operation, and if the operation of tracing the crack on the image is performed, the crack on the image is mapped to the CAD drawing according to the operation, and the crack is detected using the information of the CAD drawing. It is described to calculate the width and length of the .

特許文献3には、パーソナルコンピュータにおいて、カメラからコンクリート壁面までの距離とカメラの光軸に対するコンクリート壁面の傾斜角とを計測して、複数枚の画像を接合し且つコンクリート壁面の正面から見た画像に補正し、更にコンクリート壁面のひび割れの分布状態とひび割れの幅とを求めて状態図を表示することが、記載されている。実際はひび割れであるにもかかわらず認識できていないひび割れは、マウスやペン入力装置を用いてトレースする操作により入力することができる。 In Patent Document 3, in a personal computer, the distance from a camera to a concrete wall surface and the inclination angle of the concrete wall surface with respect to the optical axis of the camera are measured, a plurality of images are joined, and an image of the concrete wall surface viewed from the front is obtained. and to obtain the distribution of cracks on the concrete wall surface and the width of the cracks to display a state diagram. A crack that cannot be recognized even though it is actually a crack can be input by a tracing operation using a mouse or a pen input device.

特許文献4には、ひび割れの識別処理をサポートベクトルマシンアルゴリズムを用いて機械学習する際に、複数の領域画像のうち各領域画像の中心と各領域画像中の識別対象物(ひび割れ、汚れ、他の凹凸など)の重心とが一致する領域画像だけを学習対象のサンプルとして選択することが、記載されている。 In Patent Document 4, when performing machine learning for crack identification processing using a support vector machine algorithm, among a plurality of area images, the center of each area image and the identification target in each area image (cracks, dirt, etc. It is described that only region images whose centroids coincide with each other (e.g., unevenness of the surface) are selected as learning target samples.

特開2004-69434号公報JP-A-2004-69434 特開2005-310044号公報JP 2005-310044 A 特開平10-78305号公報JP-A-10-78305 特開2003-216953号公報Japanese Patent Application Laid-Open No. 2003-216953

特許文献1~4には、構造物を分割撮像して得られた複数の画像と共に各画像の位置情報をユーザ端末から送信してサーバ装置で一枚の画像に合成することについて、開示が無い。 Patent Literatures 1 to 4 do not disclose that a plurality of images obtained by separately imaging a structure and the position information of each image are transmitted from the user terminal and synthesized into one image by the server device. .

また、特許文献1に記載されたモバイルパソコン(ユーザ端末の一形態である)及びサーバ装置からなるシステムでは、レーザ発射体を設けたカメラが必要となるだけではなくて、遠景画像及び近接画像が必要であり、更には遠景画像に対して近接画像を割り付けるユーザ操作により画像解析対象の近接画像を指定する必要がある。従って、高額な装置が必要になるだけでなく、ひび割れの画像解析結果を得るまでのユーザの操作が煩雑であると言える。 In addition, the system described in Patent Document 1, which consists of a mobile personal computer (a form of user terminal) and a server device, not only requires a camera provided with a laser projectile, but also provides a background image and a close-up image. Further, it is necessary to specify the proximity image to be subjected to image analysis by the user's operation for allocating the proximity image to the background image. Therefore, it can be said that not only is an expensive device required, but also the user's operation is complicated until the image analysis result of the crack is obtained.

また、ユーザ端末でひび割れ箇所の合成画像を生成し且つひび割れの画像解析を行う場合には、高額なハードウエア又は高額なソフトウエアが必要であった。つまり、高額な装置を必要とした。 Further, when a user terminal generates a composite image of a cracked portion and analyzes the image of the crack, expensive hardware or software is required. In other words, an expensive device was required.

特許文献2には、パーソナルコンピュータ(ユーザ端末の一形態である)において、画像をCAD図面上に貼り付ける操作と、画像上でひび割れをトレースする操作とを行うと、ひび割れの幅及び長さを算出することが記載されているにすぎない。 In Patent Document 2, when an operation of pasting an image on a CAD drawing and an operation of tracing a crack on the image are performed on a personal computer (one form of a user terminal), the width and length of the crack can be obtained. It is only described to calculate.

特許文献3に記載された技術では、ひび割れ情報を修正する場合にはマウスやペン入力装置を用いて一本ずつトレースする操作が必要となる。このようなトレース操作によるひび割れ情報の修正機能を用いれば、どのようなパターンのひび割れに対しても一本ずつ個別に修正できるけれども、操作が煩雑であり、作業時間が掛かってしまうため、繁忙な作業員にとって実際には行えない場合がある。 In the technique described in Patent Document 3, when correcting crack information, it is necessary to perform an operation of tracing one by one using a mouse or a pen input device. If the crack information correction function by such a tracing operation is used, cracks of any pattern can be individually corrected one by one. It may not be practical for workers.

特許文献4には、構造物の画像に基づいてひび割れの識別処理を学習することが記載されているにすぎない。 Patent Literature 4 merely describes learning a crack identification process based on an image of a structure.

以上のように構造物の表面に生じるひび割れの性状を的確に把握して点検結果を報告することを支援するための各種の装置が提案又は提供されてきたが、ひび割れ箇所の画像を解析してひび割れの画像解析結果をユーザに提示するためには、高額な装置が必要になるとともに、ひび割れ箇所の複数の画像を合成するためのユーザの負荷が大きいといった問題があった。 As described above, various devices have been proposed or provided to assist in accurately grasping the properties of cracks occurring on the surface of structures and reporting the inspection results. In order to present the crack image analysis results to the user, there is a problem that an expensive device is required and the burden on the user for synthesizing a plurality of images of the crack location is heavy.

本発明は、高額な装置を必要とせずにひび割れ箇所の画像を解析し、かつユーザの操作を煩雑にすることなくひび割れ箇所の合成画像及び画像解析結果を提示することを可能にする画像処理装置、画像処理システム、画像処理装置の作動方法、及び画像処理プログラムを提供することを目的とする。 INDUSTRIAL APPLICABILITY The present invention is an image processing apparatus that can analyze an image of a crack location without requiring an expensive device, and can present a composite image of the crack location and the image analysis results without complicating the user's operation. , an image processing system, an operating method of an image processing apparatus, and an image processing program.

上述した目的を達成するため、本発明の第1の態様に係るサーバ装置は、構造物の表面を示す複数の画像と、複数の画像の位置情報とを、ユーザ端末から受信する受信部と、受信された複数の画像及び位置情報に基づいて、構造物の表面を示す合成画像を生成する合成画像生成部と、合成画像または合成前の画像を画像解析して構造物の表面のひび割れを検出するひび割れ検出部と、検出されたひび割れに対応するひび割れ画像と検出されたひび割れの特徴量とを示すひび割れ情報を生成するひび割れ情報生成部と、を備える。 In order to achieve the object described above, a server device according to a first aspect of the present invention includes a receiving unit that receives a plurality of images showing the surface of a structure and position information of the plurality of images from a user terminal; A synthetic image generation unit that generates a synthetic image showing the surface of the structure based on the received multiple images and position information, and an image analysis of the synthetic image or the image before synthesis to detect cracks on the surface of the structure. and a crack information generation unit that generates crack information indicating a crack image corresponding to the detected crack and the feature amount of the detected crack.

本態様によれば、ユーザ端末から構造物の表面を示す複数の画像とその複数の画像の位置情報とを送信すると、サーバ装置により複数の画像及び画像の位置情報に基づいて合成画像が生成され、且つひび割れ情報が生成されるので、高額な装置を必要とせずにひび割れ箇所の画像を解析し、かつユーザの操作を煩雑にすることなくひび割れ箇所の合成画像及び画像解析結果を提示することが可能になる。また、本態様によれば、ユーザ端末から送信された画像及びその位置情報、更にはサーバ装置で生成された合成画像及びひび割れ情報を、蓄積してビッグデータ化することが可能になるので、そのビッグデータの二次利用により適切な合成画像及び適切な画像解析結果を導き出せるようにすることが可能になるとも言える。 According to this aspect, when a plurality of images showing the surface of a structure and the positional information of the plurality of images are transmitted from the user terminal, a composite image is generated by the server device based on the plurality of images and the positional information of the images. Furthermore, since the crack information is generated, it is possible to analyze the image of the crack location without requiring an expensive device, and to present the composite image of the crack location and the image analysis results without complicating the user's operation. be possible. In addition, according to this aspect, it is possible to store the image transmitted from the user terminal and its position information, as well as the composite image and crack information generated by the server device, into big data. It can be said that the secondary use of big data enables us to derive appropriate synthetic images and appropriate image analysis results.

本発明の第2の態様に係るサーバ装置では、合成画像とひび割れ情報とをユーザ端末に送信してユーザ端末の画面に合成画像とひび割れ情報とを表示させる送信部を備え、受信部は、ユーザ端末でのマニュアル操作に応じたひび割れ情報の修正要求をユーザ端末から受信し、ひび割れ情報生成部は、修正要求に基づいてひび割れ情報を修正し、送信部は、修正されたひび割れ情報をユーザ端末に送信する。本態様によれば、ユーザ端末の画面に合成画像及びひび割れ情報が表示され、その表示の内容に対してユーザがマニュアル操作を行った場合、そのマニュアル操作に応じた修正要求をサーバに蓄積することが可能になる。従って、より適切な画像解析結果を導き出せるように、サーバ装置での画像解析処理を改良することが容易になる。つまり、画像処理結果の修正のための煩雑なユーザ操作を減らしつつ、より適切な画像解析結果をユーザに対して提示することが可能になる。 The server device according to the second aspect of the present invention includes a transmission unit that transmits the composite image and the crack information to the user terminal and displays the composite image and the crack information on the screen of the user terminal. A crack information correction request is received from the user terminal according to manual operation at the terminal, the crack information generation unit corrects the crack information based on the correction request, and the transmission unit sends the corrected crack information to the user terminal. Send. According to this aspect, when the composite image and the crack information are displayed on the screen of the user terminal, and the user performs manual operation on the contents of the display, the correction request corresponding to the manual operation is stored in the server. becomes possible. Therefore, it becomes easy to improve the image analysis processing in the server device so that more appropriate image analysis results can be derived. That is, it is possible to present more appropriate image analysis results to the user while reducing complicated user operations for correcting image processing results.

本発明の第3の態様に係るサーバ装置では、受信部は、ひび割れ情報の修正内容を特徴量で示した修正要求をユーザ端末から受信し、ひび割れ情報生成部は、修正要求で示された特徴量に基づいて、ひび割れ情報を修正する。本態様によれば、ひび割れの特徴量でひび割れ情報の修正要求を示すユーザ操作が可能になる。例えばトレース操作に基づいてひび割れ情報を一本ずつ修正する場合と比較して、簡易な操作でひび割れ情報を修正することが可能になる。 In the server device according to the third aspect of the present invention, the receiving unit receives from the user terminal a correction request indicating the content of correction of crack information in the form of a feature amount, and the crack information generating unit receives the feature indicated by the correction request Modify the crack information based on the amount. According to this aspect, it is possible to perform a user operation to indicate a crack information correction request using the crack feature amount. For example, compared to the case of correcting crack information one by one based on a tracing operation, crack information can be corrected with a simple operation.

本発明の第4の態様に係るサーバ装置では、特徴量に対する合成画像中の線分の検出度数を示す度数分布と、特徴量でひび割れ情報の修正内容を指示入力するためのスライダとを、ひび割れ情報に付加し、ユーザ端末でのスライダを用いたユーザ操作に応じてひび割れ情報を修正する。本態様によれば、特徴量に対する線分の検出度数を見ながらスライダを操作するという簡易な操作で、ひび割れ情報を修正することが可能になる。 In the server device according to the fourth aspect of the present invention, the frequency distribution indicating the detection frequency of the line segment in the composite image with respect to the feature amount and the slider for instructing and inputting the correction content of the crack information with the feature amount are combined into cracks. It is added to the information and the crack information is modified according to the user's operation using the slider on the user terminal. According to this aspect, it is possible to correct the crack information by a simple operation of operating the slider while looking at the detection frequency of the line segment with respect to the feature amount.

本発明の第5の態様に係るサーバ装置では、ひび割れ情報生成部は、特徴量に基づいてひび割れ画像をグルーピングして、ユーザ端末でのひび割れ画像のグループを選択するマニュアル操作に応じてひび割れ情報を修正する。本態様によれば、ひび割れ画像のグループを選択するという簡易な操作で、ひび割れ情報を修正することが可能になる。 In the server device according to the fifth aspect of the present invention, the crack information generation unit groups the crack images based on the feature amount, and generates the crack information according to the manual operation of selecting the crack image group on the user terminal. fix it. According to this aspect, it is possible to correct crack information by a simple operation of selecting a group of crack images.

本発明の第6の態様に係るサーバ装置では、ユーザ端末でのマニュアル操作に基づいて、ひび割れの検出を機械学習する機械学習部を備える。本態様によれば、ユーザ端末でのマニュアル操作に基づいてひび割れの検出が機械学習されるので、画像解析結果を修正するための煩雑なユーザ操作を着実に減少させてゆくことが可能になる。 A server device according to a sixth aspect of the present invention includes a machine learning unit that machine-learns crack detection based on a manual operation at a user terminal. According to this aspect, detection of cracks is machine-learned based on manual operations at the user terminal, so it is possible to steadily reduce complicated user operations for correcting image analysis results.

本発明の第7の態様に係るサーバ装置では、特徴量は、ひび割れの方向、長さ、幅、エッジの強度、及びエッジの密度のうち少なくともいずれかを含む。 In the server device according to the seventh aspect of the present invention, the feature amount includes at least one of crack direction, length, width, edge strength, and edge density.

本発明の第8の態様に係る画像処理方法では、合成画像生成部は、複数の画像に対して、画像位置情報、縮尺、あおり及び回転角度のうち少なくとも一つの補正を行う。 In the image processing method according to the eighth aspect of the present invention, the composite image generator corrects at least one of image position information, scale, tilt, and rotation angle for the plurality of images.

本発明の第9の態様に係るサーバ装置では、合成画像生成部は、複数の画像に基づいて補正パラメータを導き出し、補正を行う。 In the server device according to the ninth aspect of the present invention, the composite image generator derives correction parameters based on the plurality of images and performs correction.

本発明の第10の態様に係るサーバ装置では、ひび割れ情報に基づいて、ひび割れ画像によって示されるひび割れの幅をユーザ端末の画面上で測定するためのスケール画像を生成するスケール画像生成部を備え、ひび割れ情報生成部は、スケール画像をひび割れ情報に付加する。 A server device according to a tenth aspect of the present invention comprises a scale image generation unit that generates a scale image for measuring the width of the crack indicated by the crack image on the screen of the user terminal based on the crack information, The crack information generator adds the scale image to the crack information.

本発明の第11の態様に係るサーバ装置では、少なくともひび割れ情報に基づいて、ひび割れの程度を評価し、構造物のひび割れ程度の評価区分を判別するひび割れ評価部を備える。 The server device according to the eleventh aspect of the present invention includes a crack evaluation unit that evaluates the degree of cracking based on at least crack information and determines the evaluation classification of the degree of cracking of the structure.

本発明の第12の態様に係るサーバ装置では、判別された評価区分を含む構造物の点検結果を示す帳票を作成する帳票作成部を備える。 A server device according to a twelfth aspect of the present invention includes a form creating unit that creates a form indicating inspection results of structures including the determined evaluation category.

本発明の第13の態様に係るサーバ装置では、合成画像とひび割れ情報とを、予め決められたデータ形式のCADデータに変換するデータ変換部を備える。 A server device according to a thirteenth aspect of the present invention includes a data conversion unit that converts the composite image and the crack information into CAD data in a predetermined data format.

本発明の第14の態様に係るサーバ装置では、構造物の構造情報、環境条件情報、使用条件情報、維持管理履歴情報、及び災害履歴情報のうち少なくともひとつの情報と、ひび割れ情報とに基づいて、ひび割れの進行を予測する予測部を備える。 In the server device according to the fourteenth aspect of the present invention, based on at least one of structural information of a structure, environmental condition information, use condition information, maintenance history information, and disaster history information, and crack information, , and a predictor for predicting crack progression.

本発明の第15の態様に係る画像処理システムは、ユーザ端末及びサーバ装置を含む画像処理システムであって、ユーザ端末は、構造物の表面を示す複数の画像と、複数の画像の位置情報とを入力する端末入力部と、サーバ装置に対して、複数の画像及び位置情報を送信する端末送信部と、サーバ装置から、複数の画像に対する画像処理結果を受信する端末受信部と、画像処理結果を表示する端末表示部と、を備え、サーバ装置は、ユーザ端末から、複数の画像と位置情報とを受信するサーバ受信部と、受信された複数の画像及び位置情報に基づいて、構造物の表面を示す合成画像を生成する合成画像生成部と、合成画像または合成前の画像を画像解析して構造物の表面のひび割れを検出するひび割れ検出部と、検出されたひび割れに対応するひび割れ画像と検出されたひび割れの特徴量とを示すひび割れ情報を生成するひび割れ情報生成部と、複数の画像に対する画像処理結果として、合成画像とひび割れ情報とをユーザ端末に送信するサーバ送信部と、を備え、端末表示部は、合成画像とひび割れ情報とを表示する。 An image processing system according to a fifteenth aspect of the present invention is an image processing system including a user terminal and a server device, wherein the user terminal comprises a plurality of images showing surfaces of structures, position information of the plurality of images, and a terminal input unit for inputting a terminal transmission unit for transmitting a plurality of images and position information to a server device; a terminal reception unit for receiving image processing results for a plurality of images from the server device; and an image processing result and a terminal display unit that displays the structure, based on the server reception unit that receives a plurality of images and position information from the user terminal, and the received plurality of images and position information. A synthetic image generation unit that generates a synthetic image showing the surface, a crack detection unit that analyzes the synthetic image or the image before synthesis to detect cracks on the surface of the structure, and a crack image corresponding to the detected crack. A crack information generation unit that generates crack information indicating the feature amount of the detected crack, and a server transmission unit that transmits a composite image and crack information to the user terminal as image processing results for a plurality of images, The terminal display unit displays the composite image and the crack information.

本発明の第16の態様に係る画像処理方法では、構造物の表面を示す複数の画像と、複数の画像の位置情報とを、ユーザ端末から受信するステップと、受信された複数の画像及び画像位置情報に基づいて、構造物の表面を示す合成画像を生成するステップと、合成画像または合成前の画像を画像解析して構造物の表面のひび割れを検出するステップと、検出されたひび割れに対応するひび割れ画像と検出されたひび割れの特徴量とを示すひび割れ情報を生成するステップと、を含む。 In the image processing method according to the sixteenth aspect of the present invention, a step of receiving, from a user terminal, a plurality of images showing a surface of a structure and position information of the plurality of images; generating a synthetic image showing the surface of the structure based on the positional information; analyzing the synthetic image or the pre-synthesis image to detect cracks on the surface of the structure; and responding to the detected cracks. and generating crack information indicating the crack image and the feature quantity of the detected crack.

本発明よれば、高額な装置を必要とせずにひび割れ箇所の画像を解析し、かつユーザの操作を煩雑にすることなくひび割れ箇所の合成画像及び画像解析結果を提示することが可能になる。 According to the present invention, it is possible to analyze an image of a crack location without requiring an expensive device, and to present a composite image of the crack location and the image analysis results without complicating the user's operation.

図1は、本発明が適用される構造物の一例である橋梁を示す斜視図である。FIG. 1 is a perspective view showing a bridge as an example of a structure to which the present invention is applied. 図2は、第1の実施形態における画像処理システムの構成例を示すブロック図である。FIG. 2 is a block diagram showing a configuration example of an image processing system according to the first embodiment. 図3は、度数分布及びスライダの第1の表示例を示す図である。FIG. 3 is a diagram showing a first display example of the frequency distribution and the slider. 図4は、度数分布及びスライダの第2の表示例を示す図である。FIG. 4 is a diagram showing a second display example of the frequency distribution and the slider. 図5は、度数分布及びスライダの第3の表示例を示す図である。FIG. 5 is a diagram showing a third display example of the frequency distribution and the slider. 図6は、度数分布及びスライダの第4の表示例を示す図である。FIG. 6 is a diagram showing a fourth display example of the frequency distribution and the slider. 図7は、ひび割れ画像を特徴量に基づいてグルーピングした場合の表示例を示す図である。FIG. 7 is a diagram showing a display example when crack images are grouped based on feature amounts. 図8は、第1実施形態における第1の画像処理例の流れを示すフローチャートである。FIG. 8 is a flow chart showing the flow of the first image processing example in the first embodiment. 図9は、第1実施形態における第1の画像処理例の説明に用いる説明図である。FIG. 9 is an explanatory diagram used for explaining the first image processing example in the first embodiment. 図10は、複数の画像を並べる操作の説明に用いる説明図である。FIG. 10 is an explanatory diagram used for explaining the operation of arranging a plurality of images. 図11は、合成画像及びひび割れ画像の表示例を示す図である。FIG. 11 is a diagram showing a display example of a composite image and a crack image. 図12は、ひび割れの進行モデルの一例を模式的に示す図である。FIG. 12 is a diagram schematically showing an example of a crack progression model. 図13は、帳票としての損傷図の一例を示す図である。FIG. 13 is a diagram showing an example of a damage diagram as a form. 図14は、第1実施形態における第2の画像処理例の流れを示すフローチャートである。FIG. 14 is a flow chart showing the flow of the second image processing example in the first embodiment. 図15は、第1実施形態における第3の画像処理例の流れを示すフローチャートである。FIG. 15 is a flow chart showing the flow of the third image processing example in the first embodiment. 図16は、第1実施形態における第3の画像処理例の説明に用いる説明図である。FIG. 16 is an explanatory diagram used for explaining the third image processing example in the first embodiment. 図17は、第1実施形態における第4の画像処理例の流れを示すフローチャートである。FIG. 17 is a flow chart showing the flow of the fourth example of image processing in the first embodiment. 図18は、第2の実施形態における画像処理システムの構成例を示すブロック図である。FIG. 18 is a block diagram showing a configuration example of an image processing system according to the second embodiment. ひび割れ画像のベクトル化の説明に用いる第1の説明図である。FIG. 4 is a first explanatory diagram used for explaining vectorization of crack images; ひび割れ画像のベクトル化の説明に用いる第2の説明図である。FIG. 11 is a second explanatory diagram used for explaining vectorization of crack images; ひび割れ画像のベクトル化の説明に用いる第3の説明図である。FIG. 11 is a third explanatory diagram used for explaining vectorization of a crack image; ひび割れ画像のベクトル化の説明に用いる第4の説明図である。FIG. 11 is a fourth explanatory diagram used for explaining vectorization of a crack image; ひび割れ画像のベクトル化の説明に用いる第5の説明図である。FIG. 11 is a fifth explanatory diagram used for explaining vectorization of a crack image; ひび割れ画像のベクトル化の説明に用いる第6の説明図である。FIG. 11 is a sixth explanatory diagram used for explaining vectorization of a crack image; スケール画像の表示例を示す図である。FIG. 10 is a diagram showing a display example of a scale image;

以下、添付図面に従って、本発明に係る画像処理装置、画像処理システム、画像処理装置の作動方法、及び画像処理プログラムを実施するための形態について説明する。 An image processing apparatus, an image processing system, an operation method of the image processing apparatus, and an image processing program according to the present invention will be described below with reference to the accompanying drawings.

[構造物例]
図1は、本発明が適用される構造物の一例である橋梁の構造を示す斜視図である。図1に示す橋梁1は複数の主桁3を有し、主桁3同士は接合部3Aで接合されている。主桁3の上部には、コンクリート製の部材である床版2が打設されている。橋梁1は、床版2及び主桁3の他に、図示しない横桁、対傾構、及び横構等の部材を有する。
[Structure example]
FIG. 1 is a perspective view showing the structure of a bridge, which is an example of a structure to which the present invention is applied. The bridge 1 shown in FIG. 1 has a plurality of main girders 3, and the main girders 3 are joined together at joints 3A. A floor slab 2 made of concrete is placed on top of the main girder 3 . The bridge 1 has members such as a lateral girder, a tilting structure, and a lateral structure (not shown) in addition to the floor slab 2 and the main girder 3 .

尚、本発明における「構造物」は、橋梁に限定されない。構造物は、トンネル、ダム、建築物などでもよい。 In addition, the "structure" in the present invention is not limited to a bridge. A structure may be a tunnel, a dam, a building, or the like.

[第1の実施形態]
図2は、第1の実施形態における画像処理システムの構成例を示すブロック図である。
[First embodiment]
FIG. 2 is a block diagram showing a configuration example of an image processing system according to the first embodiment.

ユーザ端末10とサーバ装置20とにより、クライアントサーバ型の画像処理システムが構成される。実際には複数のユーザ端末10がネットワークNWに接続される。ユーザ端末10はユーザに対するフロントエンド処理を行うコンピュータ装置によって構成され、サーバ装置20は画像処理等のバックエンド処理を行うコンピュータ装置によって構成される。ユーザ端末10として、例えば、パーソナルコンピュータ、タブレット、スマートフォン等のコンピュータ装置を用いることができる。サーバ装置20は、複数のコンピュータ装置で構成してもよい。本例のサーバ装置20は、説明の便宜上、データベース50を含んで構成される。サーバ装置20とデータベース50とを異なる装置として設けてよい。 The user terminal 10 and the server device 20 constitute a client-server type image processing system. A plurality of user terminals 10 are actually connected to the network NW. The user terminal 10 is configured by a computer device that performs front-end processing for the user, and the server device 20 is configured by a computer device that performs back-end processing such as image processing. As the user terminal 10, for example, a computer device such as a personal computer, tablet, or smart phone can be used. The server device 20 may be composed of a plurality of computer devices. The server device 20 of this example includes a database 50 for convenience of explanation. The server device 20 and the database 50 may be provided as different devices.

ユーザ端末10は、構造物の表面を示す複数の画像と、複数の画像の位置情報を含む画像合成に必要な情報とを入力する端末入力部11と、入力された複数の画像と画像合成に必要な情報とをサーバ装置20に対して送信する端末送信部12と、サーバ装置20から複数の画像に対する画像処理結果を受信する端末受信部13と、サーバ装置20の画像処理結果を表示する端末表示部14と、ユーザのマニュアル操作を受け付ける端末操作部15と、ユーザ端末10用のフロントエンドプログラムに従ってユーザ端末10の各部を制御する端末制御部16と、フロントエンドプログラムとそのフロントエンドプログラムの実行に必要な各種情報とを記憶する端末記憶部17とを備える。 The user terminal 10 includes a terminal input unit 11 for inputting a plurality of images showing the surface of a structure and information necessary for image synthesis including position information of the plurality of images, and a terminal input unit 11 for inputting the plurality of input images and image synthesis. a terminal transmitting unit 12 for transmitting necessary information to the server device 20; a terminal receiving unit 13 for receiving image processing results for a plurality of images from the server device 20; and a terminal for displaying the image processing results of the server device 20. a display unit 14, a terminal operation unit 15 for accepting a user's manual operation, a terminal control unit 16 for controlling each unit of the user terminal 10 according to the front end program for the user terminal 10, a front end program, and execution of the front end program. and a terminal storage unit 17 for storing various kinds of information necessary for

端末入力部11は、例えば、無線通信又は有線通信により画像及び画像の位置情報を入力する通信デバイスにより構成することができる。メモリカード等の記憶媒体から画像を入力する記憶媒体インタフェースデバイスと、人から画像の位置情報の入力操作を受け付ける操作デバイスとを含んで、端末入力部11を構成してもよい。端末送信部12及び端末受信部13は、ネットワークNWを介して、サーバ装置20を含む他の装置と通信するための通信デバイスによって構成することができる。端末表示部14は、液晶表示デバイス等の表示デバイスによって構成することができる。端末操作部15は、キーボード、マウス、タッチパネル等の操作デバイスによって構成することができる。端末制御部16は、例えばCPU(central processing unit)によって構成することができる。端末記憶部17は、メモリデバイスによって構成することができる。 The terminal input unit 11 can be configured by, for example, a communication device that inputs an image and position information of the image by wireless communication or wired communication. The terminal input unit 11 may include a storage medium interface device for inputting an image from a storage medium such as a memory card, and an operation device for receiving an input operation of image position information from a person. The terminal transmission unit 12 and the terminal reception unit 13 can be configured by communication devices for communicating with other devices including the server device 20 via the network NW. The terminal display unit 14 can be configured by a display device such as a liquid crystal display device. The terminal operation unit 15 can be configured by an operation device such as a keyboard, mouse, touch panel, or the like. The terminal control unit 16 can be configured by, for example, a CPU (central processing unit). The terminal storage unit 17 can be configured by a memory device.

サーバ装置20は、ユーザ端末10から複数の画像と複数の画像の位置情報を含む画像合成に必要な情報とを受信する受信部22と、サーバ装置20での画像処理結果をユーザ端末10に対して送信する送信部24と、複数の画像及び画像合成に必要な情報に基づいて、構造物の表面を示す合成画像を生成する合成画像生成部26と、合成画像または合成前の画像を画像解析して構造物の表面のひび割れを検出するひび割れ検出部28と、検出されたひび割れに対応するひび割れ画像と検出されたひび割れの特徴量とを示すひび割れ情報を生成するひび割れ情報生成部30と、ユーザ端末10でのユーザ操作に基づいて、ひび割れの検出を機械学習する機械学習部32と、を含んで構成される。送信部24は、合成画像とひび割れ情報とをユーザ端末10に送信して、ユーザ端末10の画面に合成画像とひび割れ情報とを表示させる。受信部22は、ユーザ端末10でのユーザ操作に応じたひび割れ情報の修正要求をユーザ端末10から受信する。ひび割れ情報生成部30は、修正要求に基づいてひび割れ情報を修正する。送信部24は、修正されたひび割れ情報をユーザ端末10に送信する。データベース50は、ユーザ端末10から受信した情報(複数の画像、画像合成に必要な情報、マニュアル操作情報等)と、サーバ装置20での画像処理結果(合成画像、ひび割れ情報等)とを関連付けて蓄積する。 The server device 20 includes a receiving unit 22 that receives a plurality of images and information necessary for image composition including position information of the plurality of images from the user terminal 10, and an image processing result in the server device 20 to the user terminal 10. a transmission unit 24 for transmitting a plurality of images and information necessary for image synthesis, a synthetic image generation unit 26 for generating a synthetic image showing the surface of a structure based on the information necessary for image synthesis, and an image analysis of the synthetic image or the image before synthesis a crack detection unit 28 for detecting cracks on the surface of the structure by doing so, a crack information generation unit 30 for generating crack information indicating a crack image corresponding to the detected crack and the feature amount of the detected crack, and a user and a machine learning unit 32 that machine-learns detection of cracks based on user operations on the terminal 10 . The transmission unit 24 transmits the composite image and the crack information to the user terminal 10 and causes the screen of the user terminal 10 to display the composite image and the crack information. The receiving unit 22 receives from the user terminal 10 a correction request for crack information according to a user operation on the user terminal 10 . The crack information generator 30 corrects the crack information based on the correction request. The transmission unit 24 transmits the corrected crack information to the user terminal 10 . The database 50 associates information received from the user terminal 10 (multiple images, information necessary for image synthesis, manual operation information, etc.) with image processing results (composite image, crack information, etc.) in the server device 20. accumulate.

また、サーバ装置20は、生成されたひび割れ情報に基づいて、ひび割れ画像によって示されるひび割れの幅をユーザ端末10の画面上で測定するためのスケール画像を生成するスケール画像生成部34を備える。ひび割れ情報生成部30は、生成されたスケール画像をひび割れ情報に付加する。送信部24は、スケール画像が付加されたひび割れ情報をユーザ端末10に送信する。 The server device 20 also includes a scale image generation unit 34 that generates a scale image for measuring the crack width indicated by the crack image on the screen of the user terminal 10 based on the generated crack information. The crack information generator 30 adds the generated scale image to the crack information. The transmission unit 24 transmits the crack information to which the scale image is added to the user terminal 10 .

本例のサーバ装置20は、少なくともひび割れ情報に基づいて、ひび割れの程度を評価し、構造物のひび割れ程度の評価区分(以下「ランク情報」ともいう)を判別するひび割れ評価部36を備える。ひび割れ情報生成部30は、判別されたランク情報をひび割れ情報に付加する。送信部24は、ランク情報が付加されたひび割れ情報をユーザ端末10に送信する。 The server device 20 of this example includes a crack evaluation unit 36 that evaluates the degree of cracking based on at least the crack information and determines the evaluation classification of the crack degree of the structure (hereinafter also referred to as "rank information"). The crack information generator 30 adds the determined rank information to the crack information. The transmitting unit 24 transmits the crack information to which the rank information is added to the user terminal 10 .

更に、サーバ装置20は、合成画像とひび割れ情報とを予め決められたデータ形式のCAD(computer aided design)データに変換することによりCADデータを取得するCADデータ取得部38(「データ変換部」の一形態である)を備える。 Furthermore, the server device 20 has a CAD data acquisition unit 38 (“data conversion unit”) that acquires CAD data by converting the composite image and the crack information into CAD (computer aided design) data in a predetermined data format. is one form).

更に、サーバ装置20は、判別されたひび割れ程度の評価区分を含む構造物の点検結果を示す帳票(以下「点検調書」ともいう)を作成する帳票作成部40を備える。送信部24は、作成された帳票をユーザ端末10に送信する。 Further, the server device 20 includes a form creation unit 40 that creates a form (hereinafter also referred to as an "inspection report") showing the inspection result of the structure including the determined evaluation category of the degree of cracking. The transmission unit 24 transmits the created form to the user terminal 10 .

また、サーバ装置20は、バックエンドプログラムとそのバックエンドプログラムの実行に必要な各種情報とを記憶する記憶部42を備える。 The server device 20 also includes a storage unit 42 that stores a backend program and various information necessary for executing the backend program.

受信部22及び送信部24は、ネットワークNWを介して、ユーザ端末10を含む他の装置と通信するための通信デバイスによって構成することができる。合成画像生成部26、ひび割れ検出部28、ひび割れ情報生成部30、機械学習部32、スケール画像生成部34、ひび割れ評価部36、CADデータ取得部38、及び帳票作成部40は、例えばCPUによって構成することができる。複数のCPUにより構成してもよい。記憶部42は、メモリデバイスによって構成することができる。 The receiving unit 22 and the transmitting unit 24 can be configured by communication devices for communicating with other devices including the user terminal 10 via the network NW. The synthetic image generation unit 26, the crack detection unit 28, the crack information generation unit 30, the machine learning unit 32, the scale image generation unit 34, the crack evaluation unit 36, the CAD data acquisition unit 38, and the form creation unit 40 are configured by, for example, a CPU. can do. A plurality of CPUs may be used. The storage unit 42 can be configured by a memory device.

ユーザ端末10からサーバ装置20に送信される画像の位置情報(以下「画像位置情報」ともいう)は、構造物の表面に対する各画像の位置関係を示す場合(つまり構造物の表面における複数の被撮像領域のそれぞれの位置を示す場合)と、複数の画像同士の相対的な位置関係を示す場合とがある。 Image position information (hereinafter also referred to as “image position information”) transmitted from the user terminal 10 to the server device 20 indicates the positional relationship of each image with respect to the surface of the structure. The position of each image area is indicated), and the relative positional relationship between a plurality of images is indicated.

<画像補正>
サーバ装置20の合成画像生成部26は、複数の画像を画像補正後に合成する。本例の合成画像生成部26は、複数の画像に基づいて補正パラメータを導き出し、複数の画像に対して補正を行うことができる。本例の合成画像生成部26は、複数の画像に対して次の画像補正1~4のうち少なくとも一つの補正を行う機能を有する。
<Image Correction>
The composite image generator 26 of the server device 20 synthesizes a plurality of images after correcting the images. The composite image generator 26 of this example can derive correction parameters based on a plurality of images and perform correction on the plurality of images. The composite image generator 26 of this example has a function of performing at least one of the following image corrections 1 to 4 on a plurality of images.

画像補正1(画像位置情報補正):複数の画像同士の相対的な位置関係を、被撮像面(例えば橋梁の床版)における複数の被撮像領域同士の相対的な位置関係にマッチングさせる画像処理である。つまり、不正確な画像位置情報をユーザ端末10から受信したと判定した場合、その不正確な画像位置情報をより正確な画像位置情報に補正する。例えば、画像中のひび割れをベクトル化したひび割れベクトルに基づいて、隣接する画像間を跨ぐひび割れが存在するのにそのひび割れ画像が隣接する画像間で離間していて繋がっていない場合、そのひび割れを隣接する画像間で繋がらせる。画像中の構造物の非ひび割れ(例えば構造物の模様)をベクトル化した非ひび割れベクトルに基づいて、本補正を行ってもよい。橋梁1の床版2の格間ごとに撮像する場合、画像中の格間の縁部に基づいて画像位置情報を補正してもよい。本例の合成画像生成部26は、最新の点検時の画像に基づいて画像位置情報補正を行う機能の他に、最新の点検時の画像と過去の点検時の画像(合成画像又は合成前の画像)に基づいて画像位置情報補正を行う機能を有する。これにより、不正確な画像位置情報を正確な画像位置情報に容易に補正することが可能である。正確な画像位置情報をユーザ端末10から受信したと判定した場合には、本補正を行わなくてよい。 Image correction 1 (image position information correction): Image processing that matches the relative positional relationship between multiple images with the relative positional relationship between multiple imaged areas on the imaged surface (for example, the floor slab of a bridge). is. That is, when it is determined that inaccurate image position information has been received from the user terminal 10, the inaccurate image position information is corrected to more accurate image position information. For example, based on a crack vector obtained by vectorizing a crack in an image, if there is a crack that straddles adjacent images but the crack image is separated and not connected between the adjacent images, the crack is Make connections between images. This correction may be performed based on a non-cracking vector obtained by vectorizing the non-cracking of the structure (for example, the pattern of the structure) in the image. When imaging each coffer of the floor slab 2 of the bridge 1, the image position information may be corrected based on the edge of the coffer in the image. In addition to the function of correcting the image position information based on the latest inspection image, the synthetic image generation unit 26 of this example has the latest inspection image and past inspection images (composite image or pre-synthesis image). It has a function to correct the image position information based on the image). This makes it possible to easily correct inaccurate image position information to accurate image position information. If it is determined that accurate image position information has been received from the user terminal 10, this correction need not be performed.

画像補正2(縮尺補正):複数の画像の縮尺を一致させる画像処理(「拡縮」ともいう)である。つまり、撮像装置60から構造物の被撮像面までの距離が不一致である複数の画像をユーザ端末10から受信したと判定した場合、その被撮像面までの距離がより一致した複数の画像(「一定距離の画像」ともいう)に補正する。画像に距離情報が関連付けられている場合、その距離情報に基づいて拡縮すればよい。例えば、画像中のひび割れをベクトル化したひび割れベクトルに基づいて、隣接する画像間を跨ぐ複数のひび割れが存在するのにひび割れ画像の間隔が隣接する画像間で一致していない場合、その複数のひび割れ画像の間隔を隣接する画像間で一致させる画像処理が挙げられる。画像中の構造物の非ひび割れ(例えば構造物の模様)をベクトル化した非ひび割れベクトルに基づいて、補正してもよい。橋梁1の床版2の格間ごとに撮像する場合、画像中の格間の縁部に基づいて縮尺補正を行ってもよい。本例の合成画像生成部26は、最新の点検時の画像に基づいて縮尺補正を行う機能の他に、最新の点検時の画像と過去の点検時の画像(合成画像又は合成前の画像)に基づいて縮尺補正を行う機能を有する。一定距離で分割撮像を行った場合には、本補正を行わなくてよい。 Image correction 2 (scale correction): image processing (also referred to as “scaling”) for matching the scales of a plurality of images. That is, when it is determined that a plurality of images in which the distances from the imaging device 60 to the surface to be imaged of the structure do not match have been received from the user terminal 10, a plurality of images in which the distances to the surface to be imaged are more consistent (" (also called "image at a fixed distance"). If distance information is associated with the image, scaling may be performed based on the distance information. For example, based on a crack vector obtained by vectorizing cracks in an image, if there are multiple cracks across adjacent images but the intervals between the crack images do not match between the adjacent images, the cracks An example of image processing is to match the intervals between adjacent images. Correction may be performed based on a non-cracking vector obtained by vectorizing the non-cracking of the structure (for example, the pattern of the structure) in the image. When imaging each coffer of the floor slab 2 of the bridge 1, scale correction may be performed based on the edge of the coffer in the image. In addition to the function of performing scale correction based on the latest inspection image, the synthetic image generation unit 26 of this example has the latest inspection image and the past inspection image (composite image or image before synthesis). It has a function to perform scale correction based on When divided imaging is performed at a constant distance, this correction need not be performed.

画像補正3(あおり補正):複数の画像のそれぞれのあおりを補正する画像処理である。つまり、撮像装置の撮像方向に対する構造物の被撮像面の傾き角度が不一致である複数の画像をユーザ端末10から受信したと判定した場合、その被撮像面の傾き角度がより一致した複数の画像(「一定傾き角度の画像」ともいう)に補正する。画像に傾き角度情報が関連付けられている場合、その傾き角度情報に基づいてあおり補正を行えばよい。例えば、画像中のひび割れをベクトル化したひび割れベクトルに基づいて、ひび割れの方向をマッチングさせる。画像中の構造物の非ひび割れ(例えば構造物の模様)をベクトル化した非ひび割れベクトルに基づいて、補正してもよい。橋梁1の床版2の格間ごとに撮像する場合、画像中の格間の縁部に基づいてあおり補正を行ってもよい。本例の合成画像生成部26は、最新の点検時の画像に基づいてあおり補正を行う機能の他に、最新の点検時の画像と過去の点検時の画像(合成画像又は合成前の画像)に基づいてあおり補正を行う機能を有する。一定傾き角度で分割撮像を行った場合には、本補正を行わなくてよい。 Image correction 3 (tilt correction): Image processing for correcting the tilt of each of a plurality of images. That is, when it is determined that a plurality of images in which the tilt angles of the surface to be captured of the structure with respect to the imaging direction of the imaging device do not match have been received from the user terminal 10, a plurality of images in which the tilt angles of the surface to be captured are more consistent. (Also called “image with a constant tilt angle”). When tilt angle information is associated with an image, tilt correction may be performed based on the tilt angle information. For example, the directions of cracks are matched based on crack vectors obtained by vectorizing cracks in the image. Correction may be performed based on a non-cracking vector obtained by vectorizing the non-cracking of the structure (for example, the pattern of the structure) in the image. When imaging each coffer of the floor slab 2 of the bridge 1, tilt correction may be performed based on the edge of the coffer in the image. In addition to the function of performing tilt correction based on the latest inspection image, the synthetic image generation unit 26 of this example has the latest inspection image and the past inspection image (composite image or image before synthesis). It has a function of performing tilt correction based on This correction does not need to be performed when divided imaging is performed at a constant tilt angle.

画像補正4(回転角度補正):複数の画像のそれぞれの被撮像面に対する回転角度を補正する画像処理である。つまり、構造物の被撮像面に対する撮像装置の撮像方向回りの回転角度(「方位角」ともいう)が不一致である複数の画像をユーザ端末10から受信したと判定した場合、その被撮像面に対する回転角度がより一致した複数の画像(「一定回転角度の画像」ともいう)に補正する。画像に回転角度情報が関連付けられている場合、その回転角度情報に基づいて回転を行えばよい。例えば、画像中のひび割れをベクトル化したひび割れベクトルに基づいて、ひび割れの方向をマッチングさせる。画像中の構造物の非ひび割れ(例えば構造物の模様)をベクトル化した非ひび割れベクトルに基づいて、補正してもよい。橋梁1の床版2の格間ごとに撮像する場合、画像中の格間の縁部に基づいて回転角度補正を行ってもよい。本例の合成画像生成部26は、最新の点検時の画像に基づいて回転角度補正を行う機能の他に、最新の点検時の画像と過去の点検時の画像(合成画像又は合成前の画像)に基づいて回転角度補正を行う機能を有する。一定回転角度で分割撮像を行った場合には、本補正を行わなくてよい。 Image correction 4 (rotational angle correction): Image processing for correcting the rotational angles of each of a plurality of images with respect to the surface to be captured. That is, when it is determined that a plurality of images having mismatched rotation angles (also referred to as "azimuth angles") around the imaging direction of the imaging device with respect to the imaging plane of the structure are received from the user terminal 10, A plurality of images with more consistent rotation angles (also referred to as “images with constant rotation angles”) are corrected. When rotation angle information is associated with an image, rotation may be performed based on the rotation angle information. For example, the directions of cracks are matched based on crack vectors obtained by vectorizing cracks in the image. Correction may be performed based on a non-cracking vector obtained by vectorizing the non-cracking of the structure (for example, the pattern of the structure) in the image. When imaging each coffer of the floor slab 2 of the bridge 1, the rotation angle correction may be performed based on the edge of the coffer in the image. In addition to the function of correcting the rotation angle based on the latest inspection image, the synthetic image generation unit 26 of this example has the function of performing the rotation angle correction based on the latest inspection image and the past inspection image (composite image or pre-synthesis image). ) to correct the rotation angle. When divided imaging is performed at a constant rotation angle, this correction need not be performed.

<ひび割れ情報の一括修正>
ユーザ端末10でのユーザ操作に応じて本例のサーバ装置20のひび割れ情報生成部30で行うひび割れ情報の修正処理について、説明する。
<Batch correction of crack information>
The crack information correction process performed by the crack information generation unit 30 of the server device 20 of the present example in accordance with the user's operation on the user terminal 10 will be described.

本例のサーバ装置20のひび割れ情報生成部30は、ユーザ端末10でユーザが指示したひび割れの特徴量に基づいて、複数のひび割れに関して一括してひび割れ情報を修正する機能(以下「一括修正」という)を有する。サーバ装置20の受信部22は、ひび割れ情報の修正内容をひび割れの特徴量で示した修正要求を、ユーザ端末10から受信する。サーバ装置20のひび割れ情報生成部30は、修正要求で示された特徴量に基づいて、ひび割れ情報を修正する。このような特徴量に基づいたひび割れ情報の修正(一括修正)の態様として、各種の態様が挙げられる。 The crack information generation unit 30 of the server device 20 of the present example has a function of collectively correcting crack information for a plurality of cracks based on the feature amount of cracks specified by the user on the user terminal 10 (hereinafter referred to as "batch correction" ). The receiving unit 22 of the server device 20 receives, from the user terminal 10, a correction request indicating the content of correction of the crack information in terms of crack feature amounts. The crack information generator 30 of the server device 20 modifies the crack information based on the feature amount indicated by the correction request. There are various modes of correcting crack information (batch correction) based on such feature amounts.

第1の一括修正の態様として、ユーザ端末10の画面に表示させたスライダを用いたマニュアル操作(以下「スライド操作」という)に応じて一括修正を行う態様が挙げられる。本態様のひび割れ情報生成部30は、特徴量に対する合成画像中の線分(以下「線状パターン」ともいう)の検出度数を示す度数分布(「ヒストグラム」ともいう)と、特徴量でひび割れ情報の修正内容を指示入力するためのスライダとを、ユーザ端末10に対して送信されるひび割れ情報に付加し、ユーザ端末10でのスライダを用いた操作に応じて、ひび割れ情報を修正する。 As a first collective correction mode, there is a mode in which batch correction is performed according to manual operation (hereinafter referred to as “slide operation”) using a slider displayed on the screen of the user terminal 10 . The crack information generation unit 30 of this embodiment generates a frequency distribution (also referred to as a "histogram") indicating the detection frequency of line segments (hereinafter also referred to as "linear patterns") in the composite image with respect to the feature amount, and crack information with the feature amount. is added to the crack information transmitted to the user terminal 10, and the crack information is corrected according to the operation using the slider on the user terminal 10.

図3は、度数分布及びスライダの第1の表示例を示す図である。本例では、ユーザ端末10の画面に表示された合成画像IMG1上に、検出されたひび割れを示すひび割れ画像CR1、CR2、CR3、CR4を表示させる。更に、合成画像IMG1の近傍に、特徴量に対する合成画像IMG1中の線分(ひび割れ候補である)の検出度数を示す度数分布HG1(ヒストグラム)と、特徴量でひび割れ情報の修正内容を指示入力するためのスライダSL1とを表示させる。度数分布HG1のy方向(画面の上下方向)がひび割れ候補である線分の特徴量を示し、度数分布HG1のx方向(画面の左右方向)がひび割れ候補である線分の度数を示す。スライダSL1は、合成画像IMG1中の線分がひび割れであるか否かの判定基準を調節するためのスライド式のGUI(graphical user interface)である。本例のスライダSL1は一本のバーBR1を有し、その一本のバーBR1の表示位置を基準にして、度数分布HG1のうちのひび割れ対象領域AR1が決まる。図3の上下方向(x方向)において、度数分布HG1のうち、バーBR1の表示位置よりも上の領域がひび割れ対象領域AR1であり、そのひび割れ対象領域AR1内の特徴量を持つ線分が「ひび割れ」として検出される。 FIG. 3 is a diagram showing a first display example of the frequency distribution and the slider. In this example, crack images CR1, CR2, CR3, and CR4 representing the detected cracks are displayed on the composite image IMG1 displayed on the screen of the user terminal 10. FIG. Furthermore, in the vicinity of the synthesized image IMG1, a frequency distribution HG1 (histogram) indicating the frequency of detection of line segments (crack candidates) in the synthesized image IMG1 with respect to the feature quantity, and the content of correction of the crack information with the feature quantity are input. to display the slider SL1. The y direction (vertical direction of the screen) of the frequency distribution HG1 indicates the feature quantity of the line segment that is the crack candidate, and the x direction (horizontal direction of the screen) of the frequency distribution HG1 indicates the frequency of the line segment that is the crack candidate. The slider SL1 is a sliding GUI (graphical user interface) for adjusting criteria for determining whether a line segment in the composite image IMG1 is a crack. The slider SL1 of this example has one bar BR1, and the crack target area AR1 in the frequency distribution HG1 is determined based on the display position of the one bar BR1. In the vertical direction (x direction) of FIG. 3, the area above the display position of the bar BR1 in the frequency distribution HG1 is the crack target area AR1. detected as cracks.

図4は、度数分布及びスライダの第2の表示例を示す図である。本例のスライダSL2は二本のバーBR21、BR22を有し、その二本のバーBR21、BR22の表示位置を基準にしてひび割れ対象領域AR2が決まる。図4のy方向(画面の上下方向)において、度数分布HG1のうち二本のバーBR21、BR22で挟まれた領域がひび割れ対象領域AR2であり、そのひび割れ対象領域AR2内の特徴量を持つ線分が「ひび割れ」として検出される。 FIG. 4 is a diagram showing a second display example of the frequency distribution and the slider. The slider SL2 of this example has two bars BR21 and BR22, and the crack target area AR2 is determined based on the display positions of the two bars BR21 and BR22. In the y direction of FIG. 4 (vertical direction of the screen), the area sandwiched between the two bars BR21 and BR22 in the frequency distribution HG1 is the crack target area AR2. Minutes are detected as "cracks".

図5は、度数分布及びスライダの第3の表示例を示す図である。本例では、二つのスライダSL1、SL2を表示して、複数の特徴量に基づいて、ひび割れ対象領域AR1、AR2を選択入力することができる。 FIG. 5 is a diagram showing a third display example of the frequency distribution and the slider. In this example, two sliders SL1 and SL2 are displayed, and crack target areas AR1 and AR2 can be selected and input based on a plurality of feature amounts.

図6は、度数分布及びスライダの第4の表示例を示す図である。本例では、チェックボックスBX1,BX2,BX3を表示して、損傷の種類を選択入力することができる。 FIG. 6 is a diagram showing a fourth display example of the frequency distribution and the slider. In this example, check boxes BX1, BX2, and BX3 are displayed, and the type of damage can be selected and input.

特徴量は、ひび割れの方向、長さ、幅、エッジの強度、及びエッジの密度のうち少なくともいずれかを含む。他の特徴量でもよい。ひび割れ情報生成部30は、度数分布(ヒストグラム)とスライダとをひび割れ情報に付加し、ユーザ端末10でのスライダを用いたマニュアル操作に応じて、ひび割れ情報を修正する。 The feature quantity includes at least one of crack direction, length, width, edge strength, and edge density. Other feature quantities may be used. The crack information generator 30 adds a frequency distribution (histogram) and a slider to the crack information, and corrects the crack information according to manual operation using the slider on the user terminal 10 .

以上のように、特徴量(ひび割れ検出部28により検出された線分の特徴量である)に対する線分の検出度数を示す度数分布と、特徴量でひび割れ情報の修正内容を指示入力するためのスライダとを、ひび割れ情報に付加し、ユーザ端末10でのスライダを用いたスライド操作に応じてひび割れ情報を修正することにより、簡易な操作でより精度が高いひび割れ情報に修正することが可能になる。 As described above, the frequency distribution indicating the detection frequency of the line segment with respect to the feature quantity (which is the feature quantity of the line segment detected by the crack detection unit 28), and the correction content of the crack information using the feature quantity. By adding the slider to the crack information and correcting the crack information according to the slide operation using the slider on the user terminal 10, it is possible to correct the crack information to higher accuracy with a simple operation. .

第2に、ユーザ端末10の画面に表示させたひび割れ画像に対するグループ選択操作に応じて一括修正を行う態様が挙げられる。本態様のひび割れ情報生成部30は、特徴量に基づいてひび割れ画像をグルーピングし、ユーザ端末10でのひび割れ画像のグループを選択するマニュアル操作に応じてひび割れ情報を修正する。 Secondly, there is a mode in which collective correction is performed in accordance with a group selection operation for cracked images displayed on the screen of the user terminal 10 . The crack information generation unit 30 of this aspect groups crack images based on the feature amount, and corrects the crack information in accordance with a manual operation of selecting a group of crack images on the user terminal 10 .

図7は、ひび割れ画像を方向(特徴量の一形態である)に基づいてグルーピングしてグループ毎に異なる線種で表示した例を示す。本例では、同一方向及び類似方向の複数のひび割れ画像(ひび割れ検出部28によりひび割れとして検出された線分に対応する画像である)で一つのグループを形成した。第1のグループG1のひび割れ画像を実線で表示させ、第2のグループG2のひび割れ画像を破線で表示させ、第3のグループG3のひび割れ画像を一点鎖線で表示させている。尚、図示の都合上、グループ毎に異なる線種で表示させた場合を例示したが、グループ毎に異なる色で表示させてもよい。 FIG. 7 shows an example in which crack images are grouped based on the direction (one form of feature quantity) and displayed with different line types for each group. In this example, a plurality of crack images (images corresponding to line segments detected as cracks by the crack detector 28) in the same direction and similar directions form one group. The crack images of the first group G1 are displayed with solid lines, the crack images of the second group G2 are displayed with dashed lines, and the crack images of the third group G3 are displayed with dashed lines. For convenience of illustration, the case where different line types are displayed for each group is exemplified, but different colors may be used for each group.

ユーザは、ユーザ端末10の画面の表示を見て、削除対象のグループのうち少なくとも一本のひび割れ画像を囲うタッチ操作を行う。そうすると囲まれたひび割れ画像の方向に基づいて、そのひび割れ画像が属するグループ内の全てのひび割れ画像(同一方向及び類似方向のひび割れ画像である)が一括して消去される。同時に、選択されたグループのひび割れ情報がサーバ装置20で削除される。図7に示す例では、タッチ操作で囲われた選択領域ARに含まれる同一グループのひび割れ画像が画面から消去され、かつ同一グループのひび割れ情報が削除される。 The user looks at the display on the screen of the user terminal 10 and performs a touch operation to enclose at least one cracked image in the group to be deleted. Then, based on the direction of the enclosed crack image, all crack images in the group to which the crack image belongs (which are crack images with the same orientation and similar orientation) are collectively erased. At the same time, the server device 20 deletes the crack information of the selected group. In the example shown in FIG. 7, the crack images of the same group included in the selection area AR surrounded by the touch operation are erased from the screen, and the crack information of the same group is deleted.

ひび割れ画像を囲う操作ではなくて、削除対象のグループをユーザに直接的に選択させてもよい。例えば、図7の点線表示された第2のグループG2のひび割れ情報を削除する場合、「点線」を選択する操作をユーザ端末10で受け付ける。グループ毎に異なる色でひび割れ画像を表示させた場合には、色(例えば「赤」)を選択する操作を受け付ける。グループの識別情報(例えばグループ番号)を選択する操作を受け付けてもよい。 Instead of enclosing the cracked image, the user may directly select the group to be deleted. For example, when deleting the crack information of the second group G2 indicated by the dotted line in FIG. 7, the user terminal 10 receives an operation to select "dotted line". When the crack images are displayed in different colors for each group, an operation of selecting a color (for example, "red") is accepted. An operation of selecting group identification information (for example, group number) may be accepted.

また、ひび割れ情報の「削除」に限らず、ひび割れ情報の「追加」、「増加」及び「減少」の操作を受け付けることが好ましい。 In addition, it is preferable to accept operations of "addition", "increase" and "decrease" of crack information, not limited to "delete" of crack information.

以上のように、特徴量に基づいてひび割れ画像をグルーピングし、ユーザ端末10でのひび割れ画像のグループを選択するユーザ操作に応じてひび割れ情報を修正することにより、簡易な操作でより精度が高いひび割れ情報に修正することが可能になる。 As described above, the crack images are grouped based on the feature amount, and the crack information is corrected in accordance with the user operation of selecting the group of crack images on the user terminal 10, so that the crack can be formed with a simple operation and with higher accuracy. information can be corrected.

<機械学習>
サーバ装置20の機械学習部32は、例えば人工知能によって構成される。人工知能として、例えば人工ニューラルネットワークを用いてもよいし、他の公知の人工知能を用いてもよい。ただし、本発明は機械学習部32として人工知能を用いない場合(例えば単なる検索手段を用いて情報を取得する場合)にも適用可能であり、また機械学習部32を省略することも可能である。
<Machine learning>
The machine learning unit 32 of the server device 20 is configured by artificial intelligence, for example. As artificial intelligence, for example, an artificial neural network may be used, or other known artificial intelligence may be used. However, the present invention can also be applied when artificial intelligence is not used as the machine learning unit 32 (for example, when information is acquired using a simple search means), and the machine learning unit 32 can be omitted. .

機械学習部32は、第1の学習として、ユーザ端末10でのユーザ操作に基づいて、ひび割れの検出を機械学習する。本例の機械学習部32は、少なくとも、ユーザ端末10でのひび割れ情報の編集のためのユーザ操作の履歴と、データベース50に記憶された画像(合成画像又は合成前の画像である)と、データベース50に記憶されたひび割れ情報とに基づいて、ひび割れの検出を機械学習する。 As the first learning, the machine learning unit 32 machine-learns detection of cracks based on the user's operation on the user terminal 10 . The machine learning unit 32 of this example includes at least a history of user operations for editing crack information on the user terminal 10, an image stored in the database 50 (a composite image or an image before composite), and a database The crack detection is machine-learned based on the crack information stored in 50 .

本例の機械学習部32は、データベース50に記憶されたひび割れ情報に関する操作履歴に基づいて、データベース50に記憶された編集履歴(ひび割れ情報の修正の内容を示す履歴である)のうちから学習すべき編集履歴を特定し、特定された編集履歴と、その特定された編集履歴に対応する合成画像及びひび割れ情報とに基づいて、合成画像(又は合成前の画像)から検出すべきひび割れの特徴量を機械学習する。つまり、ひび割れ検出部28のひび割れ検出で用いるモデルを更新する。 The machine learning unit 32 of this example learns from the editing history (a history indicating the content of correction of crack information) stored in the database 50 based on the operation history related to the crack information stored in the database 50. A feature amount of a crack to be detected from a synthesized image (or an image before synthesis) based on the specified editing history and the synthesized image and crack information corresponding to the specified editing history. machine learning. That is, the model used for crack detection by the crack detector 28 is updated.

尚、本例のひび割れ情報生成部30は、前述のようにひび割れ情報の修正指示を特徴量単位で受け付ける「一括修正」の機能を有する。そこで本例の機械学習部32は、ユーザ端末10での特徴量単位のユーザ操作の履歴と、合成画像及びひび割れ情報との対応関係に基づいて、ひび割れ検出を機械学習する。合成前の画像を画像解析してひび割れを検出する場合には、特徴量単位の操作の履歴と合成前の画像及びひび割れ情報との対応関係に基づいて機械学習する。 Incidentally, the crack information generation unit 30 of this example has a function of "batch correction" of receiving correction instructions for crack information in units of feature amounts as described above. Therefore, the machine learning unit 32 of this example machine-learns crack detection based on the correspondence relationship between the history of user operations in units of feature amounts in the user terminal 10, the composite image, and the crack information. When an image before synthesis is analyzed to detect cracks, machine learning is performed based on the correspondence relationship between the operation history of each feature amount, the image before synthesis, and the crack information.

また、機械学習部32は、第2の学習として、ユーザ端末10でのユーザ操作に基づいて、画像補正を機械学習する。本例の機械学習部32は、少なくとも、ユーザ端末10での画像補正のためのユーザ操作の履歴と、データベース50に記憶された画像(補正前の画像及び補正後の画像である)とに基づいて、画像補正を機械学習する。 As second learning, the machine learning unit 32 machine-learns image correction based on user operations on the user terminal 10 . The machine learning unit 32 of this example is based on at least the history of user operations for image correction on the user terminal 10 and the images stored in the database 50 (images before correction and images after correction). machine learning for image correction.

本例の機械学習部32は、データベース50に記憶された画像補正の操作履歴に基づいて、データベース50に記憶された画像補正履歴(画像の補正の内容を示す履歴である)のうちから学習すべき画像補正履歴を特定し、特定された画像補正履歴と、その特定された画像補正履歴に対応する補正前の画像及び補正後の画像(合成画像でよい)とに基づいて、補正前の画像と画像補正の内容との対応関係を機械学習する。つまり、合成画像生成部26の画像補正で用いるモデルを更新する。 The machine learning unit 32 of this example learns from the image correction history (a history indicating the content of image correction) stored in the database 50 based on the image correction operation history stored in the database 50. The image before correction is specified based on the specified image correction history and the image before correction and the image after correction (which may be a composite image) corresponding to the specified image correction history. and the content of image correction are machine-learned. That is, the model used for image correction by the composite image generator 26 is updated.

尚、本例の合成画像生成部26は、前述のように画像位置情報補正、縮尺補正、あおり補正及び回転角度補正の機能を有する。そこで本例の機械学習部32は、ユーザ端末10での画像位置情報補正、縮尺補正、あおり補正又は回転角度補正のためのユーザ操作の履歴と、補正前の画像及び補正後の画像(合成画像でよい)との対応関係に基づいて、画像補正を機械学習する。 It should be noted that the composite image generation unit 26 of this example has the functions of image position information correction, scale correction, tilt correction, and rotation angle correction, as described above. Therefore, the machine learning unit 32 of this example includes a history of user operations for image position information correction, scale correction, tilt correction, or rotation angle correction on the user terminal 10, an image before correction and an image after correction (composite image machine learning for image correction based on the correspondence relationship with

人工知能技術の進歩が著しく、優秀な人の頭脳を超える画像解析を行い得る人工知能が期待されている。ただし、未学習の事象の発生時(例えば学習初期段階)には修正操作が必要になる場合がある。従って、機械学習部32として人工知能を採用した場合でも、前述の「一括修正」のように、簡易なユーザ操作でひび割れ情報を編集する機能を、機械学習機能と併せてサーバ装置20に実装することが好ましい。 Advances in artificial intelligence technology have been remarkable, and expectations are high for artificial intelligence that can perform image analysis that surpasses the brains of talented people. However, when an unlearned event occurs (for example, at the early stage of learning), corrective operation may be required. Therefore, even when artificial intelligence is adopted as the machine learning unit 32, a function of editing crack information with a simple user operation, such as the above-mentioned "batch correction", is implemented in the server device 20 together with the machine learning function. is preferred.

<第1の画像処理例>
図8は、第1実施形態における第1の画像処理例の流れを示すフローチャートである。
<First example of image processing>
FIG. 8 is a flow chart showing the flow of the first image processing example in the first embodiment.

本図の左側のフロントエンド処理はユーザ端末10の端末記憶部17に記憶されたプログラム(フロントエンドプログラム)に従ってユーザ端末10で開始される(ステップS2)。また、本図の右側のバックエンド処理は、サーバ装置20の記憶部42に記憶されたプログラム(バックエンドプログラム)に従ってサーバ装置20で開始される(ステップS4)。 The front-end processing on the left side of the figure is started in the user terminal 10 according to a program (front-end program) stored in the terminal storage unit 17 of the user terminal 10 (step S2). Further, the back-end processing on the right side of the drawing is started in the server device 20 according to the program (back-end program) stored in the storage unit 42 of the server device 20 (step S4).

本例では、図9に示すように点検現場で撮像装置60により得られた複数の画像が事務所のユーザ端末10に入力され(ステップS6)、且つ点検現場でユーザにより野帳に記入された画像位置情報が事務所のユーザ端末10に入力される(ステップS8)。 In this example, as shown in FIG. 9, a plurality of images obtained by the imaging device 60 at the inspection site are input to the user terminal 10 in the office (step S6), and entered in a field notebook by the user at the inspection site. Image position information is input to the user terminal 10 in the office (step S8).

複数の画像は、撮像装置60により橋梁の床版の格間を複数に分割撮像して得られる。これらの複数の画像は、例えば有線通信又は近距離無線通信を用いて、端末入力部11により入力する。メモリカード等の記憶媒体から入力してもよい。撮像装置60からネットワークNW上の図示しない記憶デバイスに複数の画像をアップロードし、その記憶デバイスからネットワークNWを介して複数の画像を入力してもよい。 A plurality of images are obtained by capturing images of the coffers of the floor slab of the bridge divided into a plurality of images by the image capturing device 60 . These multiple images are input through the terminal input unit 11 using, for example, wired communication or short-range wireless communication. You may input from storage media, such as a memory card. A plurality of images may be uploaded from the imaging device 60 to a storage device (not shown) on the network NW, and the plurality of images may be input from the storage device via the network NW.

野帳には、ユーザが橋梁の床版を目視して得た情報が記入されている。図示を省略した計測器を用いて計測した情報を野帳に記入してもよい。以下の説明では、少なくとも、橋梁の床版に対する複数の画像の位置関係を示す手書きの情報(手書きの画像位置情報)が、野帳に記入されているものとする。 The field notebook contains information obtained by the user's visual inspection of the floor slab of the bridge. Information measured using a measuring instrument (not shown) may be entered in a field notebook. In the following description, it is assumed that at least handwritten information (handwritten image position information) indicating the positional relationship of a plurality of images with respect to the floor slab of a bridge is entered in a field notebook.

橋梁の床版を表したCAD(computer aided design)図面が作成済である場合、そのCAD図面を端末表示部14に表示させて、その表示されたCAD図面中の床版の格間の被撮影位置に対して各画像を嵌め込むマニュアル操作を端末操作部15により受け付ける。このようなマニュアル操作に応じて、CAD図面中の床版の基準位置に対する各画像の位置関係を示す画像位置情報が入力される。 When a CAD (computer aided design) drawing showing the floor slab of the bridge has been created, the CAD drawing is displayed on the terminal display unit 14, and the coffers of the floor slab in the displayed CAD drawing are photographed. The terminal operation unit 15 accepts a manual operation for fitting each image to a position. According to such manual operation, image position information indicating the positional relationship of each image with respect to the reference position of the floor slab in the CAD drawing is input.

橋梁の床版を表したCAD図面が未作成である場合、図10に示すように、端末表示部14の画面上で複数の画像を並べるマニュアル操作を端末操作部15により受け付ける。このようなマニュアル操作に応じて、複数の画像同士の相対的な位置関係を示す画像位置情報が入力される。この態様では、サーバ装置20において、複数の画像同士の相対的な位置関係を、床版の基準位置に対する各画像の位置関係に変換することが、好ましい。隣接する画像同士の共通部分を重ね合わせるマニュアル操作を受け付けてもよい。 When a CAD drawing representing the floor slab of the bridge has not yet been created, the terminal operation unit 15 accepts a manual operation of arranging a plurality of images on the screen of the terminal display unit 14 as shown in FIG. Image position information indicating the relative positional relationship between a plurality of images is input according to such manual operation. In this aspect, it is preferable that the server device 20 converts the relative positional relationship between the plurality of images into the positional relationship of each image with respect to the reference position of the floor slab. A manual operation of superimposing common portions of adjacent images may be accepted.

また、必要に応じて、後の画像補正(ステップS16)の示唆となる情報(以下「補正ヒント情報」という)が、ユーザ端末10に入力される(ステップS10)。 Further, if necessary, information (hereinafter referred to as "correction hint information") that suggests subsequent image correction (step S16) is input to the user terminal 10 (step S10).

例えば、複数の画像の全部について床版の正面から撮像した場合には「全部正面」、複数の画像の全部について床版の非正面から撮像した場合には「全部あおり」、複数の画像のうち一部だけ床版の非正面から撮像した場合には「一部あおり」といったような、あおり補正のヒント情報を入力するマニュアル操作を、端末操作部15により受け付ける。具体的なあおりの角度(撮像装置60の撮像方向に対する床版の傾き角度である)の入力を受け付けてもよいが、この場合には概略の角度が入力される可能性があり、後の工程でサーバ装置20において、概略の角度を詳細な角度に補正することが、好ましい。縮尺補正(拡縮)、回転角度補正等、他の画像補正のための補正ヒント情報の入力を受け付けてもよい。あおり補正、縮尺補正及び回転角度補正が不要である場合には、本ステップを省略してよい。 For example, if all of the multiple images are captured from the front of the floor slab, "all front", if all of the multiple images are captured from the non-front of the floor slab, "all tilt", and among the plurality of images The terminal operation unit 15 accepts a manual operation for inputting hint information for tilt correction, such as "partial tilt" when only a part of the floor slab is imaged from the non-front side. An input of a specific tilt angle (the tilt angle of the floor slab with respect to the imaging direction of the imaging device 60) may be accepted, but in this case, there is a possibility that an approximate angle is input, and the subsequent steps are performed. In the server device 20, it is preferable to correct the general angle to a detailed angle. Input of correction hint information for other image corrections such as scale correction (enlargement/reduction) and rotation angle correction may be accepted. If tilt correction, scale correction, and rotation angle correction are unnecessary, this step may be omitted.

次に、ユーザ端末10の端末制御部16により画像処理要求情報を生成して、ユーザ端末10の端末送信部12により、生成された画像処理要求情報をサーバ装置20に対して送信する(ステップS12)。画像処理要求情報は、サーバ装置20の受信部22により受信され、データベース50に登録される(ステップS14)。 Next, the terminal control unit 16 of the user terminal 10 generates image processing request information, and the terminal transmission unit 12 of the user terminal 10 transmits the generated image processing request information to the server device 20 (step S12). ). The image processing request information is received by the receiving unit 22 of the server device 20 and registered in the database 50 (step S14).

画像処理要求情報には、ステップS6で入力された複数の画像と、ステップS8で入力された画像位置情報とが含まれる。ステップS10で補正ヒント情報が入力された場合、その補正ヒント情報も画像処理要求情報に含まれる。 The image processing request information includes the plurality of images input in step S6 and the image position information input in step S8. When correction hint information is input in step S10, the correction hint information is also included in the image processing request information.

次に、サーバ装置20の合成画像生成部26により、複数の画像を補正する(ステップS16)。例えば、前述の画像補正(画像位置情報補正、縮尺補正、あおり補正、及び回転角度補正)のうち、必要な補正が行われる。ステップS10で補正ヒント情報が入力された場合、その補正ヒント情報に基づいて、画像補正が行われる。 Next, the multiple images are corrected by the composite image generator 26 of the server device 20 (step S16). For example, among the aforementioned image corrections (image position information correction, scale correction, tilt correction, and rotation angle correction), necessary corrections are performed. When correction hint information is input in step S10, image correction is performed based on the correction hint information.

次に、サーバ装置20の合成画像生成部26により、複数の画像及び画像位置情報に基づいて、床版の格間ごとに一枚の合成画像が生成される(ステップS18)。合成画像は、データベース50に登録される。 Next, one composite image is generated for each coffer of the floor slab based on the plurality of images and the image position information by the composite image generation unit 26 of the server device 20 (step S18). A composite image is registered in the database 50 .

次に、サーバ装置20の機械学習部32により、合成画像が不適切であるか否かを判断する(ステップS20)。機械学習部32は、データベース50に記憶された各種の情報に基づいて、合成画像が適切である事象及び不適切である事象を学習しており、その学習結果に基づいて今回の合成画像が不適切であるか否かを判断することができる。機械学習部32は、例えば、原画像(合成前の画像)間で構造物上の模様が繋がらない等の異常を検出する機能を学習結果として持つことが可能である。合成画像が不適切であると判断された場合(ステップS20でYESの場合)、画像補正及び画像合成に関するパラメータを変更してステップS16に戻り、適切であると判断された場合(ステップS20でNOの場合)、ステップS22に進む。 Next, the machine learning unit 32 of the server device 20 determines whether or not the synthesized image is inappropriate (step S20). Based on various information stored in the database 50, the machine learning unit 32 learns events in which the synthesized image is appropriate and events in which the synthesized image is inappropriate. It can be judged whether it is appropriate or not. The machine learning unit 32 can have, as a learning result, a function of detecting an abnormality such as a pattern on a structure not being connected between original images (images before synthesis), for example. If it is determined that the synthesized image is inappropriate (YES in step S20), the parameters relating to image correction and image synthesis are changed and the process returns to step S16. case), the process proceeds to step S22.

次に、サーバ装置20のひび割れ検出部28により、床版の格間ごとの合成画像を画像解析して、床版のひび割れを格間ごとに検出する(ステップS22)。 Next, the crack detector 28 of the server device 20 performs image analysis on the composite image for each coffer of the floor slab to detect cracks in the floor slab for each coffer (step S22).

次に、サーバ装置20のひび割れ情報生成部30により、検出されたひび割れに対応するひび割れ画像と、検出されたひび割れの特徴量とを示す、ひび割れ情報を生成する(ステップS24)。特徴量には、ひび割れの幅、長さ、間隔等、床版のひび割れ程度の評価区分を判別するために必要な情報が含まれる。また、特徴量には、一括編集に必要な情報が含まれる。生成されたひび割れ情報は、データベース50に登録される。 Next, the crack information generation unit 30 of the server device 20 generates crack information indicating the crack image corresponding to the detected crack and the feature amount of the detected crack (step S24). The feature quantity includes information necessary for discriminating the evaluation classification of the degree of cracking in the floor slab, such as crack width, length, and interval. In addition, the feature amount includes information necessary for batch editing. The generated crack information is registered in the database 50 .

本例は、一括編集に必要な、度数分布、スライダ、グループ情報等が、ひび割れ情報に付加される。また、スケール画像生成部34により生成されたスケール画像がひび割れ情報に付加されてもよい。スケール画像の具体例は後述する。 In this example, the frequency distribution, slider, group information, etc. required for collective editing are added to the crack information. Also, the scale image generated by the scale image generation unit 34 may be added to the crack information. A specific example of the scale image will be described later.

ひび割れ評価部36により、少なくともひび割れ情報に基づいて、橋梁の床版におけるひび割れの程度を評価して、そのひび割れ程度の評価区分を示すランク情報を生成し、そのランク情報をひび割れ情報に付加してもよい。以下では、説明の便宜上、ランク情報がひび割れ情報に付加されなかったものとする。 Based on at least the crack information, the crack evaluation unit 36 evaluates the degree of cracks in the floor slab of the bridge, generates rank information indicating the evaluation classification of the degree of cracking, and adds the rank information to the crack information. good too. For convenience of explanation, it is assumed below that the rank information is not added to the crack information.

次に、サーバ装置20の送信部24により、床版の格間ごとの合成画像とひび割れ情報とをユーザ端末10に対して送信する(ステップS26)。合成画像及びひび割れ情報は、ユーザ端末10の端末受信部13により受信され、端末表示部14に表示される(ステップS28)。 Next, the transmission unit 24 of the server device 20 transmits the composite image for each coffer of the floor slab and the crack information to the user terminal 10 (step S26). The composite image and crack information are received by the terminal receiver 13 of the user terminal 10 and displayed on the terminal display 14 (step S28).

例えば、図11に示すように、端末表示部14の画面に、床版の格間ごとの合成画像IMG2と、ひび割れ画像CRを含むひび割れ情報が表示される。本例では、合成画像IMG2中のひび割れが検出された位置に、ひび割れ画像CRが重ね合される。尚、図11では、スケール画像を省略しているが、合成画像IMG2に更にスケール画像を重ね合わせて表示してもよい。 For example, as shown in FIG. 11, the screen of the terminal display unit 14 displays a composite image IMG2 for each coffer of the floor slab and crack information including a crack image CR. In this example, the crack image CR is superimposed on the position where the crack is detected in the synthetic image IMG2. Although the scale image is omitted in FIG. 11, the scale image may be superimposed on the composite image IMG2 and displayed.

次に、ユーザ端末10の端末操作部15によりユーザからひび割れ情報の修正操作を受け付けたか否かを判定し(ステップS32)、修正操作を受け付けた場合(ステップS32でYESの場合)、ユーザ端末10の端末送信部12により、ユーザの修正操作に対応したひび割れ情報の修正要求をサーバ装置20に対して送信する(ステップS34)。修正要求は、サーバ装置20の受信部22により受信され、データベース50に登録される(ステップS36)。 Next, the terminal operation unit 15 of the user terminal 10 determines whether or not an operation for correcting crack information has been received from the user (step S32). terminal transmission unit 12 transmits a request for correction of crack information corresponding to the user's correction operation to server device 20 (step S34). The correction request is received by the receiving unit 22 of the server device 20 and registered in the database 50 (step S36).

また、ユーザは、端末表示部14の表示を見て、ひび割れ程度の評価区分を示すランク情報を端末操作部15により入力することができる。 Also, the user can view the display on the terminal display unit 14 and input the rank information indicating the evaluation classification of the degree of cracking through the terminal operation unit 15 .

図12は、ひび割れの進行モデルの一例を模式的に示す図である。この進行モデルでは、ランク情報が「RANK1」~「RANK5」の五段階で表される。各ランク情報とひび割れ状態との対応関係は次の通りである。 FIG. 12 is a diagram schematically showing an example of a crack progression model. In this progression model, rank information is expressed in five stages from "RANK1" to "RANK5". Correspondence between each rank information and the crack state is as follows.

RANK1:損傷なし。 RANK 1: No damage.

RANK2:横方向(車輌の通行方向に直交する短手方向)に沿って複数のひび割れが並列に発生した状態である。乾燥収縮による複数のひび割れが並列の梁状になる段階である。 RANK 2: A state in which a plurality of cracks are generated in parallel along the lateral direction (transverse direction orthogonal to the vehicle traffic direction). This is the stage where multiple cracks due to drying shrinkage form parallel beams.

RANK3:縦方向(車輌の通行方向に平行な長手方向)のひび割れ及び横方向のひび割れが互いに交差した状態である。活荷重により複数のひび割れが格子状になり、その格子状の領域のひび割れ密度が増加する段階である。後半時期には、ひび割れが床版の上下方向(床版下面に直交する垂直方向)で貫通する。 RANK 3: A crack in the longitudinal direction (longitudinal direction parallel to the direction of travel of the vehicle) and a crack in the lateral direction intersect each other. This is the stage where multiple cracks form a grid due to the live load and the crack density in the grid region increases. In the latter half of the period, cracks penetrate the floor slab in the vertical direction (perpendicular to the bottom surface of the floor slab).

RANK4:格子状の領域のひび割れ密度が規定値を超え、貫通した複数のひび割れの破面同士が平滑化された状態である。摺り磨き作用により床版がせん断抵抗を失う段階である。 RANK 4: A state in which the crack density in the lattice-like region exceeds a specified value, and the fracture surfaces of a plurality of penetrating cracks are smoothed. This is the stage where the floor slab loses shear resistance due to the polishing action.

RANK5:抜け落ちが生じた状態である。低下した押抜きせん断強度を超える輪荷重により抜け落ちが生じる。 RANK 5: A state in which omission has occurred. Wheel loads exceeding the reduced punch shear strength cause pull-out.

次に、サーバ装置20のひび割れ情報生成部30により、受信された修正要求に基づいて、ひび割れ情報を修正する(ステップS38)。ランク情報がユーザ端末10で入力された場合には、そのランク情報をひび割れ情報に付加する。 Next, the crack information generator 30 of the server device 20 corrects the crack information based on the received correction request (step S38). When the rank information is input by the user terminal 10, the rank information is added to the crack information.

次に、サーバ装置20の送信部24により、修正後のひび割れ情報をユーザ端末10に対して送信する(ステップS40)。修正後のひび割れ情報は、ユーザ端末10の端末受信部13により受信され、端末表示部14に表示される(ステップS42)。 Next, the modified crack information is transmitted to the user terminal 10 by the transmission unit 24 of the server device 20 (step S40). The corrected crack information is received by the terminal receiver 13 of the user terminal 10 and displayed on the terminal display 14 (step S42).

次に、ユーザ端末10の端末操作部15によりユーザから帳票作成指示の入力を受け付けたか否かを判定し(ステップS44)、帳票作成指示の入力を受け付けた場合(ステップS44でYESの場合)、ユーザ端末10の端末送信部12により、帳票要求がサーバ装置20に対して送信される(ステップS46)。帳票要求は、サーバ装置20の受信部22により受信される(ステップS48)。 Next, the terminal operation unit 15 of the user terminal 10 determines whether input of a form creation instruction has been received from the user (step S44). The terminal transmission unit 12 of the user terminal 10 transmits the form request to the server device 20 (step S46). The form request is received by the receiving unit 22 of the server device 20 (step S48).

次に、サーバ装置20の帳票作成部40により、橋梁の床版の点検結果を示す帳票(点検調書)を作成する(ステップS50)。帳票は、橋梁の床版におけるひび割れ程度の評価区分を示すランク情報を含む。 Next, the form creating unit 40 of the server device 20 creates a form (inspection report) indicating the inspection result of the floor slab of the bridge (step S50). The form includes rank information indicating the evaluation classification of the degree of cracking in the floor slab of the bridge.

次に、サーバ装置20の送信部24により、ユーザ端末10に対して帳票を送信する(ステップS52)。帳票は、ユーザ端末10の端末受信部13により受信され、端末表示部14により帳票受信がユーザに対して報知される(ステップS54)。帳票は、ユーザの操作に応じて、端末表示部14に表示させることが可能であり、またネットワークNWに接続されたプリンタ(図示を省略)に印刷させることも可能である。 Next, the form is transmitted to the user terminal 10 by the transmission unit 24 of the server device 20 (step S52). The form is received by the terminal receiving section 13 of the user terminal 10, and the terminal display section 14 notifies the user of receipt of the form (step S54). The form can be displayed on the terminal display unit 14 according to the user's operation, and can also be printed by a printer (not shown) connected to the network NW.

図13は、帳票としての損傷図の一例を示す図である。この損傷図は、点検対象である橋梁の床版に生じた各損傷について、格間ごとに、損傷表示(ひび割れ表示、漏水表示、遊離石灰表示等)、部材名(「床版」等)、要素番号(Ds0201等)、損傷の種類(「ひび割れ」、「漏水」、「遊離石灰」等)、損傷程度の評価区分(ランク情報)が記載されたものである。尚、図13では、図12に示した五段階の評価区分(「RANK1」~「RANK5」)を、アルファベットの「a」~「e」で表している。 FIG. 13 is a diagram showing an example of a damage diagram as a form. This damage diagram shows damage indications (crack indications, water leakage indications, free lime indications, etc.), component names (“floor slabs,” etc.), Element number (Ds0201 etc.), type of damage ("crack", "leakage", "free lime" etc.), evaluation classification (rank information) of degree of damage are described. In FIG. 13, the five-level evaluation categories (“RANK1” to “RANK5”) shown in FIG. 12 are represented by alphabetical characters “a” to “e”.

<第2の画像処理例>
図14は、第1実施形態における第2の画像処理例の流れを示すフローチャートである。
<Second Image Processing Example>
FIG. 14 is a flow chart showing the flow of the second image processing example in the first embodiment.

本例のステップS2~S16は、図8に示した第1の画像処理例と同様である。 Steps S2 to S16 in this example are the same as in the first image processing example shown in FIG.

本例では、合成前の各画像を画像解析してひび割れを検出し(ステップS218)、合成画像を生成する(ステップS220)。次に、機械学習部32により、合成画像が不適切であるか否かを判断する(ステップS222)。機械学習部32は、データベース50に記憶された各種の情報に基づいて、合成画像が適切である事象及び合成画像が不適切である事象を学習しており、その学習結果に基づいて今回の合成画像が不適切であるか否かを判断することができる。機械学習部32は、例えば、原画像(合成前の画像)間でひび割れ画像が繋がらない等の異常を検出する機能を学習結果として持つことが可能である。不適切であると判断された場合(ステップS222でYESの場合)、画像補正及び画像合成に関するパラメータを変更してステップS16に戻り、適切であると判断された場合(ステップS222でNOの場合)、ステップS24に進む。 In this example, each image before synthesis is analyzed to detect cracks (step S218), and a synthesized image is generated (step S220). Next, the machine learning unit 32 determines whether the synthesized image is inappropriate (step S222). Based on various information stored in the database 50, the machine learning unit 32 learns events in which the synthesized image is appropriate and events in which the synthesized image is inappropriate. It can be determined whether the image is inappropriate. The machine learning unit 32 can have, as a learning result, a function of detecting an abnormality such as a crack image not connecting between original images (images before synthesis), for example. If it is determined to be inappropriate (YES in step S222), the parameters related to image correction and image synthesis are changed and the process returns to step S16, and if it is determined to be appropriate (NO in step S222). , the process proceeds to step S24.

ステップS24~S54は、図8に示した第1の画像処理例と同様である。 Steps S24 to S54 are the same as in the first image processing example shown in FIG.

<第3の画像処理例>
図15は、第1実施形態における第3の画像処理例の流れを示すフローチャートである。
<Third Image Processing Example>
FIG. 15 is a flow chart showing the flow of the third image processing example in the first embodiment.

本例では、図16に示すように点検現場でロボット装置70に搭載された撮像装置62により分割撮像して得られた複数の二視点画像がユーザ端末10により入力され(ステップS306)、且つロボット装置70の撮像装置制御に従った撮像装置制御情報がユーザ端末10により入力される(ステップS308)。本例の撮像装置制御情報は、画像位置情報、距離情報、傾き角度情報及び回転角度情報を含む。 In this example, as shown in FIG. 16, a plurality of two-viewpoint images obtained by split imaging by the imaging device 62 mounted on the robot device 70 at the inspection site are input by the user terminal 10 (step S306), and the robot Imaging device control information in accordance with imaging device control of the device 70 is input by the user terminal 10 (step S308). The imaging device control information of this example includes image position information, distance information, tilt angle information, and rotation angle information.

本例のロボット装置70は、橋梁に懸垂した懸垂式ロボットであり、図16ではその撮像に関する要部のみを示している。尚、懸垂式ロボットは、橋梁に懸垂する代わりに、橋梁上の走行体(車輌)に懸垂する方式のロボットでもよい。また、懸垂式ロボットの代わりに、ドローン(無人飛行体)等の無人飛行式ロボットを用いる場合にも本発明を適用可能である。 The robot device 70 of this example is a suspended robot suspended from a bridge, and FIG. 16 shows only the essential parts related to its imaging. The suspended robot may be a robot that suspends from a running body (vehicle) on a bridge instead of suspending from the bridge. The present invention can also be applied to a case where an unmanned flying robot such as a drone (unmanned flying object) is used instead of the suspended robot.

本例の撮像装置62は、複眼式であり、二視点でそれぞれ構造物の被撮像面を撮像することにより、二視点画像(「立体視画像」ともいう)を取得する。ロボット装置70は、二視点画像に対して画像処理を行うことにより、撮像装置62から被撮像面内の各点までの距離を算出することができる。また、本例のロボット装置70は、撮像装置62の回動及び移動の制御を行う撮像装置制御機構72を備える。撮像装置制御機構72は、撮像装置62を互いに直交するX方向、Y方向及びZ方向のそれぞれで移動可能なXYZ移動機構と、撮像装置62をパン方向P及びチルト方向Tのそれぞれで回動可能なパンチルト機構とを兼ねている。撮像装置制御機構72により、構造物の被撮像面(表面)の基準点に対する撮像装置62の位置を自在に設定することができる。つまり、複数回の分割撮像で得られる複数の画像のそれぞれの位置情報を自在に設定することができる。また、撮像装置制御機構72により、撮像装置62と構造物の被撮像面との距離、撮像装置62の撮像方向と構造物の被撮像面との傾き角度、及び撮像装置62の撮像方向と構造物の被撮像面との回転角度を、それぞれ自在に設定することができる。つまり、複数回の分割撮像で得られる複数の画像のそれぞれの距離情報、傾き角度情報、回転角度情報を自在に設定することができる。 The imaging device 62 of this example is of a compound-eye type, and obtains a two-viewpoint image (also referred to as a “stereoscopic image”) by capturing images of the surface of the structure to be imaged from two viewpoints. The robot device 70 can calculate the distance from the imaging device 62 to each point in the plane to be imaged by performing image processing on the two-viewpoint images. The robot device 70 of this example also includes an imaging device control mechanism 72 that controls the rotation and movement of the imaging device 62 . The imaging device control mechanism 72 includes an XYZ moving mechanism capable of moving the imaging device 62 in each of the mutually orthogonal X, Y, and Z directions, and capable of rotating the imaging device 62 in each of the pan direction P and tilt direction T. It also serves as a pan-tilt mechanism. The imaging device control mechanism 72 can freely set the position of the imaging device 62 with respect to the reference point of the surface to be imaged (surface) of the structure. In other words, it is possible to freely set position information for each of a plurality of images obtained by a plurality of times of divided imaging. Further, the imaging device control mechanism 72 controls the distance between the imaging device 62 and the surface to be imaged of the structure, the inclination angle between the imaging direction of the imaging device 62 and the imaging surface of the structure, the imaging direction of the imaging device 62 and the structure. It is possible to freely set the rotation angle of the object with respect to the surface to be imaged. In other words, it is possible to freely set the distance information, the tilt angle information, and the rotation angle information of each of a plurality of images obtained by a plurality of times of divided imaging.

ユーザ端末10の端末入力部11は、画像位置情報、距離情報、傾き角度情報及び回転角度情報を含む撮像装置制御情報を、複数の画像と共に、メモリカード等の記憶媒体、又はネットワークNWを介して、入力することができる。 The terminal input unit 11 of the user terminal 10 transmits imaging device control information including image position information, distance information, tilt angle information, and rotation angle information together with a plurality of images via a storage medium such as a memory card or a network NW. , can be entered.

ステップS12~S54は、図8に示した第1の画像処理例と同様である。 Steps S12 to S54 are the same as in the first image processing example shown in FIG.

尚、画像位置情報、距離情報、傾き角度情報及び回転角度情報等の画像合成又は画像補正に必要な全ての情報が、計測により正確に取得された場合には、適切な合成画像が生成されることになるので、ステップS20(合成画像が不適切か否かの判定)を省略することができる。 If all information necessary for image composition or image correction, such as image position information, distance information, tilt angle information, and rotation angle information, is accurately obtained by measurement, an appropriate composite image is generated. Therefore, step S20 (determination of whether or not the synthesized image is inappropriate) can be omitted.

<第4の画像処理例>
図17は、第1実施形態における第4の画像処理例の流れを示すフローチャートである。
<Fourth example of image processing>
FIG. 17 is a flow chart showing the flow of the fourth example of image processing in the first embodiment.

本例のステップS2、S4、S306~S308、及びS12~S16は、図15に示した第3の画像処理例と同様である。第3の画像処理例と同様に、ロボット装置70に搭載された複眼式の撮像装置62により分割撮像して得られた複数の二視点画像が入力され(ステップS306)、且つロボット装置70の撮像装置制御機構72の撮像装置制御に従った撮像装置制御情報が入力される(ステップS308)。 Steps S2, S4, S306-S308, and S12-S16 in this example are the same as in the third image processing example shown in FIG. As in the third image processing example, a plurality of two-viewpoint images obtained by split imaging are input by the compound-eye imaging device 62 mounted on the robot device 70 (step S306), and the imaging of the robot device 70 is performed. Imaging device control information according to the imaging device control of the device control mechanism 72 is input (step S308).

ステップS218~S222は、図14に示した第2の画像処理例と同様である。つまり、ステップS218で合成前の画像を解析してひび割れを検出した後、ステップS220で合成画像の生成及び登録を行い、ステップS222で合成画像が不適切であるか否か判定する。ステップS222は、第3の画像処理例のS20と同様、省略することができる。 Steps S218 to S222 are the same as in the second image processing example shown in FIG. That is, after detecting cracks by analyzing the pre-composite image in step S218, a composite image is generated and registered in step S220, and whether or not the composite image is inappropriate is determined in step S222. Step S222 can be omitted, like S20 in the third image processing example.

ステップS24~S54は、第1の画像処理例と同様である。 Steps S24 to S54 are the same as in the first image processing example.

尚、人が撮像装置を操作して構造物を撮像した場合の画像処理例(第1の画像処理例及び第2の画像処理例)と、ロボット装置70が撮像装置を制御して構造物を撮像した場合の画像処理例(第3の画像処理例及び第4の画像処理例)とを、便宜上、別々に説明したが、本発明は、いずれか一方の場合に閉じた構成で実施される場合には限定されず、むしろ両方の場合を含むオープンな構成で実施されることが、好ましい。即ち、本例のサーバ装置20は、人が撮像装置を操作した場合の画像、画像の合成及び補正に必要な情報(画像位置情報を含む)、操作履歴等をデータベース50に記憶させるだけでなく、ロボット装置70が撮像装置を制御した場合の画像、撮像装置制御情報(画像位置情報を含む)、操作履歴等をデータベース50に記憶させて、両方の場合について機械学習を行う。これにより、人が撮像装置を操作して構造物を撮像した場合でも、ロボット装置70が撮像装置を制御した場合の画像処理の機械学習結果に基づいて、クローズした構成よりも適切な合成画像を生成することが可能になる。 An image processing example (a first image processing example and a second image processing example) in which a person operates an imaging device to capture an image of a structure and a robot device 70 controlling the imaging device to capture an image of a structure. For the sake of convenience, the image processing examples (the third image processing example and the fourth image processing example) in the case of imaging have been separately described, but the present invention is implemented in a closed configuration in either case. It is preferable to implement in an open configuration including both cases without being limited to the case. That is, the server device 20 of this example not only stores in the database 50 images when a person operates the imaging device, information (including image position information) necessary for synthesizing and correcting images, operation history, and the like. , images when the robot device 70 controls the imaging device, imaging device control information (including image position information), operation history, etc. are stored in the database 50, and machine learning is performed for both cases. As a result, even when a person operates the imaging device to capture an image of a structure, a composite image that is more suitable than a closed configuration can be obtained based on the machine learning results of image processing when the imaging device is controlled by the robot device 70. can be generated.

[第2の実施形態]
図18は、第2の実施形態における画像処理システムの構成例を示すブロック図である。本図のユーザ端末10は第1実施形態と同じである。本図のサーバ装置200は、図2に示した第1の実施形態のサーバ装置20に対して、ひび割れの進行を予測する予測部44を追加した構成である。
[Second embodiment]
FIG. 18 is a block diagram showing a configuration example of an image processing system according to the second embodiment. The user terminal 10 in this figure is the same as in the first embodiment. A server device 200 of this figure has a configuration in which a prediction unit 44 for predicting progress of cracks is added to the server device 20 of the first embodiment shown in FIG.

予測部44は、データベース50に記憶された橋梁に関する各種情報と、ひび割れ情報生成部30によって生成されたひび割れ情報とに基づいて、橋梁のひび割れの進行を予測する。送信部24は、ひび割れの進行の予測結果をユーザ端末10に送信する。 The prediction unit 44 predicts progress of cracks in the bridge based on the various information about the bridge stored in the database 50 and the crack information generated by the crack information generation unit 30 . The transmission unit 24 transmits the predicted progress of cracking to the user terminal 10 .

本例のデータベース50は、橋梁の構造情報、橋梁の環境条件情報、橋梁の使用条件情報、橋梁の維持管理履歴情報、及び橋梁の災害履歴情報を記憶する。本例の予測部44は、橋梁の構造情報、橋梁の環境条件情報、橋梁の使用条件情報、橋梁の維持管理履歴情報、及び橋梁の災害履歴情報のうち少なくとも一つの情報と、橋梁のひび割れ情報とに基づいて、橋梁におけるひび割れの進行を予測する。 The database 50 of this example stores bridge structural information, bridge environmental condition information, bridge usage condition information, bridge maintenance history information, and bridge disaster history information. The prediction unit 44 of this example includes at least one of bridge structure information, bridge environmental condition information, bridge usage condition information, bridge maintenance history information, and bridge disaster history information, and bridge crack information. Predict the progression of cracks in bridges based on

ランク情報は、例えば橋梁の点検部位(例えば床版の格間)ごとの評価区分である。ランク情報は、橋梁の健全性を段階的又は数値的に表した「健全度」を含んでもよい。 The rank information is, for example, an evaluation division for each inspection part of a bridge (for example, a floor slab coffer). The rank information may include a "soundness" representing the soundness of the bridge in stages or numerically.

橋梁の構造情報は、橋梁全体のうち少なくとも評価対象である床版及びその周辺の部材を含む部分の構造を示す。例えば、構造形式、構造的特徴が挙げられる。荷重と床版との関係、地震の震動と床版との関係、雨水と床版との関係、温度と床版との関係等、床版のひび割れの進行に関連する構造上の情報を含む。アルカリ骨材反応を生じ易い材料を使用しているか否か等の化学的な情報でもよい。ひび割れが発生し易い部分を直接的に表した情報でもよい。 The structural information of a bridge indicates the structure of at least a portion of the entire bridge including the floor slab and surrounding members that are subject to evaluation. Examples include structural form and structural features. Including structural information related to the progression of floor slab cracking, such as the relationship between load and floor slab, the relationship between earthquake vibration and floor slab, the relationship between rainwater and floor slab, the relationship between temperature and floor slab, etc. . Chemical information such as whether or not a material that easily causes an alkali-aggregate reaction is used may be used. Information that directly represents a portion where cracks are likely to occur may be used.

橋梁の環境条件情報は、例えば塩分が飛来するか否か等の立地条件が挙げられる。 The environmental condition information of the bridge includes, for example, location conditions such as whether or not salinity will fly.

橋梁の使用条件情報は、例えば、車輌の交通量、大型車混入率が挙げられる。 The bridge use condition information includes, for example, the traffic volume of vehicles and the ratio of large vehicles.

橋梁の維持管理履歴情報は、例えば凍結防止剤の散布履歴情報が挙げられる。補修及び補強の履歴情報を含んでもよい。 Bridge maintenance management history information includes, for example, antifreeze spraying history information. Repair and retrofit history information may also be included.

橋梁の災害履歴情報は、橋梁が受けた台風、地震等の災害の履歴情報である。 The bridge disaster history information is history information of disasters such as typhoons and earthquakes that the bridge has suffered.

本例のデータベース50は、更に、橋梁のひび割れ程度の評価区分を示すランク情報を、橋梁の合成画像及びひび割れ情報と関連付けて、記憶する。本例の予測部44は、ひび割れ評価部36で評価された橋梁のランク情報が未来どのように変化するかを予測するシミュレーション処理を実行する。 The database 50 of the present example further stores rank information indicating evaluation categories of the degree of cracking of the bridge in association with the composite image of the bridge and the crack information. The prediction unit 44 of this example executes simulation processing for predicting how the rank information of the bridge evaluated by the crack evaluation unit 36 will change in the future.

また、予測部44により、過去から現在までどのように変化したかをシミュレーションしてもよい。ひび割れ情報生成部30により、過去から現在までのシミュレーション結果と現在の画像(合成画像又は合成前の画像)とに基づいて、ひび割れ情報を生成することで、ひび割れ情報の精度を更に向上させることができる。 Also, the prediction unit 44 may simulate how things have changed from the past to the present. The crack information generation unit 30 generates crack information based on the simulation results from the past to the present and the current image (composite image or image before composition), thereby further improving the accuracy of the crack information. can.

本例の機械学習部32は、操作履歴、画像(合成画像又は合成前の画像)、及びひび割れ情報のほかに、予測部44の予測結果にも基づいて、ひび割れ検出を機械学習することが可能である。機械学習部32は、更に、橋梁の構造情報、橋梁の環境条件情報、橋梁の使用条件情報、橋梁の維持管理履歴情報、及び橋梁の災害履歴情報のうち少なくとも一つの情報にも基づいて、ひび割れ検出を学習することが、好ましい。 The machine learning unit 32 of this example can machine-learn crack detection based on the prediction result of the prediction unit 44 in addition to the operation history, image (composite image or image before synthesis), and crack information. is. The machine learning unit 32 further determines cracks based on at least one of bridge structural information, bridge environmental condition information, bridge usage condition information, bridge maintenance management history information, and bridge disaster history information. Learning to detect is preferred.

[ベクトル化]
ひび割れ画像のベクトル化について、図19~図22を用いて説明する。
[Vectorization]
Vectorization of a crack image will be described with reference to FIGS. 19 to 22. FIG.

サーバ装置20のひび割れ情報生成部30は、合成画像又は合成前の画像から抽出したひび割れの部分をベクトル化して、ひび割れのベクトルデータ(以下「ひび割れベクトル」又は単に「ベクトル」という)を生成する。つまり、ひび割れ情報生成部30は、ひび割れ部分をベクトル化する。サーバ装置20の送信部24は、ベクトル化されたひび割れ画像であるひび割れベクトルを含むひび割れ情報を、合成画像と共に、ユーザ端末10に送信する。ユーザ端末10の端末表示部14には、ベクトル化されたひび割れ画像が合成画像に重ね合されて表示される。 The crack information generation unit 30 of the server device 20 vectorizes the crack portion extracted from the synthesized image or the image before synthesis to generate crack vector data (hereinafter referred to as "crack vector" or simply "vector"). That is, the crack information generator 30 vectorizes the crack portion. The transmission unit 24 of the server device 20 transmits crack information including a crack vector, which is a vectorized crack image, to the user terminal 10 together with the composite image. The vectorized crack image is superimposed on the composite image and displayed on the terminal display unit 14 of the user terminal 10 .

ひび割れ情報生成部30は、ベクトル化に際して、検出されたひび割れを必要に応じ2値化及び/または細線化する。「ベクトル化」とは、ひび割れに対し始点及び終点で定まる線分を求めることであり、ひび割れが曲線状の場合、曲線と線分の距離が閾値以下になるようにひび割れを複数の区間に分割し、複数の区間のそれぞれについてひび割れベクトルを生成する。 The crack information generation unit 30 binarizes and/or thins the detected cracks as necessary during vectorization. "Vectorization" is to find a line segment determined by the start and end points of a crack, and if the crack is curved, divide the crack into multiple sections so that the distance between the curve and the line segment is less than the threshold. and generate a crack vector for each of a plurality of sections.

ひび割れベクトルの生成に際しては、例えば床版2の特徴点を座標系の原点とし、ひび割れベクトルのグループ(ベクトルグループ)について、原点からの距離が最小になる端点を第1の始点とし、以下ひび割れベクトルの走行方向に沿って順次終点、始点を決定することができる。図19の例では、床版2上の点P0を座標系の原点、図の右方向及び下方向をそれぞれ座標系のX軸方向、Y軸方向としたときに、ベクトルグループC7の点P13,P14,P15,P16のうち点P0からの距離dが最も短くなる点P13をひび割れベクトルC7-1の始点とし、以下、点P14をひび割れベクトルC7-1の終点(かつひび割れベクトルC7-2,C7-3の始点)、点P15,P16をそれぞれひび割れベクトルC7-2,C7-3の終点とすることができる。 When generating the crack vectors, for example, the characteristic point of the floor slab 2 is set as the origin of the coordinate system, and for a group of crack vectors (vector group), the end point with the minimum distance from the origin is set as the first starting point. The end point and the start point can be determined sequentially along the running direction of . In the example of FIG. 19, when the point P0 on the floor slab 2 is the origin of the coordinate system, and the rightward and downward directions of the drawing are the X-axis direction and the Y-axis direction of the coordinate system, points P13, P13, and P13 of the vector group C7 The point P13 at which the distance d from the point P0 is the shortest among P14, P15, and P16 is defined as the starting point of the crack vector C7-1, and hereinafter, the point P14 is defined as the end point of the crack vector C7-1 (and the crack vectors C7-2, C7 -3), and points P15 and P16 can be the end points of crack vectors C7-2 and C7-3, respectively.

しかしながら、同様の手法でベクトルグループC8の始点を決定すると、点P17がひび割れベクトルC8-1の始点、点P18がひび割れベクトルC8-2,C8-3の始点となり、ひび割れベクトルC8-3の走行方向(点P18から点P20へ向かう方向)がひび割れベクトルC8-1の走行方向と逆行してしまう。そこでこのような場合は、図20に示すように点P19をひび割れベクトルC8A-1の始点とし、以下、点P18をひび割れベクトルC8A-1の終点(かつひび割れベクトルC8A-2,C8A-3の始点)、点P17,P20をそれぞれひび割れベクトルC8A-2,C8A-3の終点とするようにしてもよい。なおこの場合のひび割れベクトルの集合体をベクトルグループC8Aと表記する。 However, when the starting point of the vector group C8 is determined by a similar method, the point P17 becomes the starting point of the crack vector C8-1, the point P18 becomes the starting point of the crack vectors C8-2 and C8-3, and the running direction of the crack vector C8-3. (Direction from point P18 to point P20) runs counter to the running direction of crack vector C8-1. Therefore, in such a case, as shown in FIG. 20, the point P19 is the starting point of the crack vector C8A-1, and the point P18 is the end point of the crack vector C8A-1 (and the starting point of the crack vectors C8A-2 and C8A-3). ), and the points P17 and P20 may be the end points of the crack vectors C8A-2 and C8A-3, respectively. A set of crack vectors in this case is denoted as vector group C8A.

上述のようにしてひび割れベクトルを生成する場合、ひび割れが床版2の内部では連続しているが表面では分離していると、分離したひび割れベクトルとして認識されてしまう可能性がある。そこで、複数のひび割れベクトルを連結して1または複数のベクトルを生成する。 When generating crack vectors as described above, if the cracks are continuous inside the floor slab 2 but separated on the surface, they may be recognized as separate crack vectors. Therefore, one or more vectors are generated by concatenating a plurality of crack vectors.

図21はひび割れベクトルの連結の例を示す図であり、ひび割れベクトルC3-1(点P21、点P22がそれぞれ始点、終点)を含むベクトルグループC3と、ひび割れベクトルC4-1(点P23、点P24がそれぞれ始点、終点)を含むベクトルグループC4とが抽出された状況を示している。また、ひび割れベクトルC3-1が点P22及び点P23を結ぶ線分となす角をα1とし、点P22及び点P23を結ぶ線分がひび割れベクトルC4-1となす角をα2とする。このとき、角α1及び角α2が共に閾値以下ならば、ひび割れベクトルC3-1及びC4-1を連結し、またベクトルグループC3及びC4を融合させる。具体的には、図22に示すように新たなひび割れベクトルC5-2を生成してその他のひび割れベクトルC5-1(ひび割れベクトルC3-1と同一)及びC5-3(ひび割れベクトルC4-1と同一)と連結させ、これらひび割れベクトルC5-1,C5-2,及びC5-3を含む新たなベクトルグループをベクトルグループC5とする。このように、空間的に(床版2の表面で)分離したベクトルを適宜連結させることにより、ベクトル同士の連結関係を正確に把握することができる。 FIG. 21 is a diagram showing an example of connection of crack vectors. A vector group C3 including a crack vector C3-1 (points P21 and P22 are the start and end points, respectively), and a crack vector C4-1 (points P23 and P24). indicates a situation in which a vector group C4 containing a starting point and an end point, respectively, is extracted. The angle formed by the crack vector C3-1 with the line segment connecting the points P22 and P23 is α1, and the angle formed by the line segment connecting the points P22 and P23 with the crack vector C4-1 is α2. At this time, if both the angles α1 and α2 are less than the threshold value, the crack vectors C3-1 and C4-1 are connected and the vector groups C3 and C4 are merged. Specifically, as shown in FIG. 22, a new crack vector C5-2 is generated and other crack vectors C5-1 (same as crack vector C3-1) and C5-3 (same as crack vector C4-1) ), and a new vector group including these crack vectors C5-1, C5-2, and C5-3 is defined as vector group C5. In this way, by appropriately connecting the vectors that are spatially separated (on the surface of the floor slab 2), it is possible to accurately grasp the connection relationship between the vectors.

尚、上述のベクトル連結は一例であり、他の方法を用いてもよい。 Note that the vector concatenation described above is an example, and other methods may be used.

また、ひび割れ情報生成部30は、複数のベクトル同士の相対角度を算出する。つまり、一のベクトルと他のベクトルとが成す角度を算出する。 Further, the crack information generator 30 calculates relative angles between the vectors. That is, the angle formed by one vector and another vector is calculated.

また、ひび割れ情報生成部30は、ひび割れベクトルの階層構造を示す階層構造情報を生成する。階層構造情報は、ベクトル同士の連結関係を階層的に表現した情報である。階層構造情報は、複数のベクトルによって構成されるベクトルグループのうちで各ベクトルがどの階層に属するかを示す階層識別情報(「所属階層情報」ともいう)を含む。階層識別情報は、例えば、数字で表現された階層番号を用いることができる。数字以外のコード(例えば英字、記号)で表現してもよい。 In addition, the crack information generation unit 30 generates hierarchical structure information indicating the hierarchical structure of crack vectors. Hierarchical structure information is information that hierarchically expresses the connection relationship between vectors. The hierarchical structure information includes hierarchical identification information (also referred to as “hierarchy belonging information”) indicating to which hierarchy each vector belongs in a vector group composed of a plurality of vectors. For the layer identification information, for example, a layer number represented by numbers can be used. Codes other than numbers (for example, letters and symbols) may be used.

図23は、ベクトルグループC1を示す図である。ベクトルグループC1は、ひび割れベクトルC1-1~C1-6により構成されており、これらひび割れベクトルは点P1~P7を始点または終点としている。このような状況において、ひび割れベクトルが分岐する(あるひび割れベクトルの終点が他の複数のひび割れベクトルの始点となっている)ごとに階層が下位になるとしている。具体的にはひび割れベクトルC1-1の階層を最も上位の“レベル1”として、ひび割れベクトルC1-1の終点である点P2を始点とするひび割れベクトルC1-2及びC1-3の階層は、ひび割れベクトルC1-1よりも下位である“レベル2”とする。同様に、ひび割れベクトルC1-3の終点である点P4を始点とするひび割れベクトルC1-5及びC1-6の階層は、ひび割れベクトルC1-3よりも下位である“レベル3”とする。一方、ひび割れベクトルC1-2の終点である点P3はひび割れベクトルC1-4の始点であるが、点P3を始点とするひび割れベクトルはひび割れベクトルC1-4だけであり分岐はないので、ひび割れベクトルC1-4の階層はC1-2と同じ“レベル2”とする。このようにして決定した各ひび割れベクトルの階層は、階層構造情報に含まれる。 FIG. 23 is a diagram showing vector group C1. The vector group C1 is composed of crack vectors C1-1 to C1-6, which start or end at points P1 to P7. In such a situation, each time the crack vector branches (the end point of a certain crack vector is the start point of a plurality of other crack vectors), the hierarchy is said to be lower. Specifically, the hierarchy of the crack vector C1-1 is the highest "level 1", and the hierarchy of the crack vectors C1-2 and C1-3 starting from the point P2, which is the end point of the crack vector C1-1, is the crack Let it be "level 2" which is lower than the vector C1-1. Similarly, the hierarchy of crack vectors C1-5 and C1-6 starting from point P4, which is the end point of crack vector C1-3, is "level 3", which is lower than crack vector C1-3. On the other hand, the point P3, which is the end point of the crack vector C1-2, is the starting point of the crack vector C1-4. The hierarchy of -4 is the same "level 2" as C1-2. The hierarchy of each crack vector determined in this way is included in the hierarchical structure information.

図24は、ベクトルグループC1(ひび割れベクトル同士の連結関係は図23に示すものと同一)を示す図である。本例では、連結するひび割れベクトルのうち他のひび割れベクトルとなす角度が閾値以下であるもの(木構造における「幹」に相当するひび割れベクトル)は同一の階層に属するものとしている。具体的には図24の点線内(参照符号Lv1で示す範囲)に存在するひび割れベクトルC1-1,C1-2,及びC1-4は同一の階層である“レベル1”(最上位)とする。また、それ以外のひび割れベクトルC1-3,C1-5,及びC1-6については、ひび割れベクトルが分岐するごとに階層が下位になるとしており、ひび割れベクトルC1-3(木構造における「枝」に相当)を“レベル2”、ひび割れベクトルC1-5及びC1-6(木構造における「葉」に相当)を“レベル3”としている。このようにして決定した各ひび割れベクトルの階層及び種別(幹、枝、あるいは葉)は、階層構造情報に含まれる。 FIG. 24 is a diagram showing vector group C1 (the connection relationship between crack vectors is the same as that shown in FIG. 23). In this example, among the crack vectors to be connected, those whose angles with other crack vectors are equal to or less than a threshold value (crack vectors corresponding to the "trunk" in the tree structure) belong to the same hierarchy. Specifically, the crack vectors C1-1, C1-2, and C1-4 existing within the dotted line in FIG. . As for the other crack vectors C1-3, C1-5, and C1-6, the hierarchy becomes lower each time the crack vector branches. equivalent) is "level 2", and crack vectors C1-5 and C1-6 (corresponding to "leaves" in the tree structure) are "level 3". The hierarchy and type (trunk, branch, or leaf) of each crack vector thus determined are included in the hierarchical structure information.

尚、図23及び図24を用いて説明した階層構造化は例であり、変形した方法あるいは異なる方法で階層構造化してよい。 Note that the hierarchical structuring described with reference to FIGS. 23 and 24 is an example, and the hierarchical structuring may be performed by a modified method or a different method.

更に、ひび割れ情報生成部30は、ベクトルに各種の付加情報(属性情報)を付加する
。例えば、各ひび割れの幅を示す情報(幅情報)を各ベクトルに付加する。
Further, the crack information generator 30 adds various types of additional information (attribute information) to the vector. For example, information indicating the width of each crack (width information) is added to each vector.

以上のように、サーバ装置20のひび割れ情報生成部30によってひび割れ画像のベクトル化及び階層構造化を行うので、生成されたひび割れベクトル及び階層構造情報を用いて各種の処理を効率良く且つ適切に行うことが可能になる。 As described above, since the crack image is vectorized and hierarchically structured by the crack information generating unit 30 of the server device 20, various processes are efficiently and appropriately performed using the generated crack vector and hierarchical structure information. becomes possible.

例えば、ひび割れベクトル及び階層構造情報を用いて、画像補正を行うことが可能になる。また、ひび割れベクトル及び階層構造情報を用いて、合成画像が不適切であるか否かを判定することが可能になる。また、ひび割れベクトル及び階層構造情報を用いて、機械学習を行うことが可能になる。また、ひび割れベクトル及び階層構造情報を用いて、ひび割れ程度の評価区分を判別することが可能になる。また、ひび割れベクトル及び階層構造情報を用いて、ひび割れの進行を予測することが可能になる。 For example, image correction can be performed using crack vectors and hierarchical structure information. Also, it becomes possible to determine whether or not the synthesized image is inappropriate using the crack vector and the hierarchical structure information. In addition, machine learning can be performed using crack vectors and hierarchical structure information. In addition, it becomes possible to discriminate the evaluation classification of the degree of cracking using the crack vector and the hierarchical structure information. In addition, it becomes possible to predict the progression of cracks using crack vectors and hierarchical structure information.

[スケール画像例]
スケール画像生成部34によって生成されるスケール画像の例を説明する。スケール画像生成部34は、ひび割れ画像によって示されるひび割れの特徴量(例えばひび割れの幅)をユーザ端末10の画面上で測定するための各種のスケール画像を生成する。スケール画像は、ひび割れ情報に付加される。
[Scale image example]
An example of a scale image generated by the scale image generator 34 will be described. The scale image generation unit 34 generates various scale images for measuring the crack feature amount (for example, crack width) indicated by the crack image on the screen of the user terminal 10 . A scale image is added to the crack information.

図25は、スケール画像の表示例を示す図である。図示及び説明の便宜上、測定対象のひび割れを示すひび割れ画像CR11(CR11-1、CR11-2、CR11-3)を、拡大して示す。 FIG. 25 is a diagram showing a display example of a scale image. For convenience of illustration and explanation, crack images CR11 (CR11-1, CR11-2, CR11-3) showing cracks to be measured are shown in enlarged form.

スケール画像CS1、CS2、CS3、CS4は、構造物の測定面(本例では橋梁の床版である)に生じたひび割れの測定を行うための画像である。これらのスケール画像CS1~CS4は、サーバ装置20のスケール画像生成部34により生成される。本例のスケール画像生成部34は、ひび割れの長さを測定するための目盛りが付されたスケールを示すスケール画像CS1、CS2と、ひび割れの幅を測定するための線画及び数字が付されたスケールを示すスケール画像CS3、CS4を生成する。スケール画像CS1~CS4は、撮像装置と測定面との距離、及び撮像装置の撮像方向に対する測定面の傾き角度に応じたスケールを示す。スケール画像生成部34は、距離及び角度に応じて、スケールの種類、形状、大きさ等を異ならせる。本例のスケール画像生成部34は、距離及び傾き角度に応じて、長さ測定用のスケール画像CS1、CS2の目盛りを異ならせ、幅測定用のスケール画像CS3、CS4の線画及び数字を異ならせている。 The scale images CS1, CS2, CS3, and CS4 are images for measuring cracks occurring in the measurement surface of the structure (the floor slab of the bridge in this example). These scale images CS1 to CS4 are generated by the scale image generator 34 of the server device 20. FIG. The scale image generator 34 of this example includes scale images CS1 and CS2 showing scales with graduations for measuring crack lengths, and scales with line drawings and numbers for measuring crack widths. to generate scale images CS3 and CS4. The scale images CS1 to CS4 show scales corresponding to the distance between the imaging device and the measurement plane and the tilt angle of the measurement plane with respect to the imaging direction of the imaging device. The scale image generator 34 varies the type, shape, size, etc. of the scale according to the distance and angle. The scale image generation unit 34 of this example varies the scales of the scale images CS1 and CS2 for length measurement, and varies the line drawings and numbers of the scale images CS3 and CS4 for width measurement, according to the distance and the tilt angle. ing.

サーバ装置20のひび割れ情報生成部30は、スケール画像CS1~CS4をひび割れ情報に付加する。サーバ装置20の送信部24は、スケール画像CS1~CS4が付加されたひび割れ情報を、構造物の合成画像と共に、ユーザ端末10に送信する。送信されたスケール画像付きのひび割れ情報及び合成画像は、ユーザ端末10の端末受信部13により受信される。 The crack information generator 30 of the server device 20 adds the scale images CS1 to CS4 to the crack information. The transmission unit 24 of the server device 20 transmits the crack information to which the scale images CS1 to CS4 are added to the user terminal 10 together with the composite image of the structure. The transmitted crack information with the scale image and the synthesized image are received by the terminal reception unit 13 of the user terminal 10 .

ユーザ端末10の端末表示部14における表示領域DAは、構造物の合成画像及びスケール画像を表示する画像表示領域IAと、その画像表示領域IAに表示可能な種類のスケール画像(つまりユーザが選択可能なスケール画像)を表示するスケール画像選択領域SAとを含む。スケール画像選択領域SAには、スケール画像CS1~CS4の他に、スケール画像の選択を確定するためのOKボタンBU1、スケール画像の選択をキャンセルするためのキャンセルボタンBU2、画像表示領域IAに表示されたスケール画像を消去するための消去ボタンBU3が表示されている。 The display area DA in the terminal display unit 14 of the user terminal 10 includes an image display area IA that displays a composite image and a scale image of a structure, and a scale image of a type that can be displayed in the image display area IA (that is, a user selectable and a scale image selection area SA for displaying a scale image). In the scale image selection area SA, in addition to the scale images CS1 to CS4, an OK button BU1 for confirming the selection of the scale image, a cancel button BU2 for canceling the selection of the scale image, and an image display area IA. An erase button BU3 is displayed for erasing the scale image.

端末操作部15は、スケール画像選択領域SAに表示されたスケール画像CS1~CS4に対するユーザの選択操作を受け付ける。ユーザは、ボタン、マウス等を用いて選択操作を行う。スケール画像選択領域SAに表示された複数のスケール画像CS1~CS4のうちから、ユーザの選択操作に対応したスケール画像(本例ではCS2及びCS3)が画像表示領域IAに表示される。 The terminal operation unit 15 receives a user's selection operation for the scale images CS1 to CS4 displayed in the scale image selection area SA. A user performs a selection operation using a button, a mouse, or the like. Scale images (CS2 and CS3 in this example) corresponding to the user's selection operation are displayed in the image display area IA from among the plurality of scale images CS1 to CS4 displayed in the scale image selection area SA.

端末表示部14は、画像表示領域IAに、合成画像とスケール画像とを重ね合わせて表示する。合成画像におけるひび割れ画像の位置及び方向に応じて、スケール画像の位置及び方向が決まる。本例のひび割れ画像CR11は、階層構造であって、親のひび割れ画像CR11-1と、子のひび割れ画像CR11-2及びCR11-3とを含む。長さ測定用のスケール画像CS2は、ひび割れ画像CR11-2の方向に沿って、且つひび割れ画像CR11-2の近傍の位置に、表示されている。幅測定用のスケール画像CS3は、ひび割れ画像CR11-1の方向と直交した方向に沿って、且つひび割れ画像CR11-1の幅に最も近い幅を有する線画(本例では1.4mmの線画)がひび割れ画像CR11-1に位置合わせされて、表示されている。 The terminal display unit 14 superimposes and displays the composite image and the scale image in the image display area IA. The position and orientation of the scale image are determined according to the position and orientation of the crack image in the composite image. The crack image CR11 in this example has a hierarchical structure and includes a parent crack image CR11-1 and child crack images CR11-2 and CR11-3. The scale image CS2 for length measurement is displayed along the direction of the crack image CR11-2 and at a position near the crack image CR11-2. The scale image CS3 for width measurement is a line drawing along a direction perpendicular to the direction of the crack image CR11-1 and having a width closest to the width of the crack image CR11-1 (a line drawing of 1.4 mm in this example). It is displayed aligned with the crack image CR11-1.

図示を省略したが、スケール画像を移動させるための移動ボタン、スケール画像を回転するための回転ボタン、スケール画像を拡大するための拡大ボタン、スケール画像を縮小するための縮小ボタン等もスケール画像選択領域SAに表示させることが好ましい。マウスの移動操作により、スケール画像の移動、回転、拡大、縮小等を指示してもよい。 Although not shown, a move button for moving the scaled image, a rotate button for rotating the scaled image, an enlarge button for enlarging the scaled image, a reduce button for reducing the scaled image, etc. are also used for scale image selection. It is preferable to display it in the area SA. Movement, rotation, enlargement, reduction, etc. of the scale image may be instructed by moving the mouse.

尚、画像表示領域IAに二つのスケール画像CS2、CS3を表示させた場合を例示したが、画像表示領域IAに表示させるスケール画像の数は限定されない。 Although two scale images CS2 and CS3 are displayed in the image display area IA, the number of scale images displayed in the image display area IA is not limited.

以上、本発明を実施するための形態に関して説明してきたが、本発明は上述した実施形態及び変形例に限定されず、本発明の主旨を逸脱しない範囲で種々の変形が可能である。 Although the embodiments for carrying out the present invention have been described above, the present invention is not limited to the above-described embodiments and modifications, and various modifications are possible without departing from the gist of the present invention.

1 橋梁
2 床版
3 主桁
3A 接合部
10 ユーザ端末
11 端末入力部
12 端末送信部
13 端末受信部
14 端末表示部
15 端末操作部
16 端末制御部
17 端末記憶部
20、200 サーバ装置
22 受信部
24 送信部
26 合成画像生成部
28 ひび割れ検出部
30 ひび割れ情報生成部
32 機械学習部
34 スケール画像生成部
36 ひび割れ評価部
38 CADデータ取得部(データ変換部)
40 帳票作成部
42 記憶部
44 予測部
50 データベース
60、62 撮像装置
70 ロボット装置
72 撮像装置制御機構
AR 選択領域
AR1、AR2 ひび割れ対象領域
BR1、BR21、BR22 バー
BU1 OKボタン
BU2 キャンセルボタン
BU3 消去ボタン
BX1、BX2、BX3 チェックボックス
C1、C3、C4、C5、C7、C8、C8A ベクトルグループ
C1-1、C1-2、C1-3、C1-4、C1-5、C3-1、C4-1、C5-1、C5-2、C7-1、C7-2、C8-1、C8-2、C8-3、C8A-1、C8A-2 ベクトル
CR、CR1、CR2、CR3、CR4、CR11、CR11-1、CR11-2、CR11-3 ひび割れ画像
CS1、CS2、CS3、CS4 スケール画像
DA 表示領域
G1 第1のグループ
G2 第2のグループ
G3 第3のグループ
HG1、HG2 度数分布
IA 画像表示領域
IMG1、IMG2 合成画像
NW ネットワーク
SA スケール画像選択領域
SL1、SL2 スライダ
d 距離
α1、α2 角
1 Bridge 2 Floor slab 3 Main girder 3A Joint 10 User terminal 11 Terminal input unit 12 Terminal transmission unit 13 Terminal reception unit 14 Terminal display unit 15 Terminal operation unit 16 Terminal control unit 17 Terminal storage unit 20, 200 Server device 22 Reception unit 24 transmission unit 26 composite image generation unit 28 crack detection unit 30 crack information generation unit 32 machine learning unit 34 scale image generation unit 36 crack evaluation unit 38 CAD data acquisition unit (data conversion unit)
40 Form creation unit 42 Storage unit 44 Prediction unit 50 Databases 60, 62 Imaging device 70 Robot device 72 Imaging device control mechanism AR Selection areas AR1, AR2 Crack target areas BR1, BR21, BR22 Bar BU1 OK button BU2 Cancel button BU3 Erase button BX1 , BX2, BX3 Check boxes C1, C3, C4, C5, C7, C8, C8A Vector groups C1-1, C1-2, C1-3, C1-4, C1-5, C3-1, C4-1, C5 -1, C5-2, C7-1, C7-2, C8-1, C8-2, C8-3, C8A-1, C8A-2 Vector CR, CR1, CR2, CR3, CR4, CR11, CR11-1 , CR11-2, CR11-3 Crack images CS1, CS2, CS3, CS4 Scaled image DA Display area G1 First group G2 Second group G3 Third group HG1, HG2 Frequency distribution IA Image display areas IMG1, IMG2 Synthesis Image NW Network SA Scale image selection area SL1, SL2 Slider d Distance α1, α2 Angle

Claims (12)

プロセッサを備える画像処理装置であって、
前記プロセッサは、
構造物の表面を示す複数の画像を取得し、
前記取得した複数の画像を画像合成して前記構造物の表面を示す合成画像を生成し、
前記合成画像が不適切であるか否かの判断結果を取得し、
前記取得した前記判断結果が、前記合成画像が不適切であることを示す場合は、画像補正及び/または画像合成のための修正パラメータを取得して、前記修正パラメータに基づいて再度前記合成画像を生成し、
前記合成画像または合成前の前記画像を画像解析して前記構造物の表面のひび割れを検出する画像処理装置。
An image processing device comprising a processor,
The processor
Acquiring multiple images showing the surface of the structure,
synthesizing the plurality of acquired images to generate a synthetic image showing the surface of the structure;
Acquiring a judgment result as to whether or not the synthesized image is inappropriate;
if the acquired determination result indicates that the synthesized image is inappropriate, acquiring modification parameters for image correction and/or image synthesis, and recreating the synthesized image based on the modification parameters; generate and
An image processing device that analyzes the synthesized image or the image before synthesis to detect cracks on the surface of the structure.
前記修正パラメータは、前記複数の画像同士の相対的な位置関係を示すパラメータ、前記複数の画像の拡大または縮小を示すパラメータ、前記複数の画像のそれぞれのあおりを示すパラメータ、及び前記複数の画像のそれぞれの、被撮像面に対する回転角度を示すパラメータのうち少なくとも1つを含む請求項1に記載の画像処理装置。 The modification parameters include a parameter indicating relative positional relationship between the plurality of images, a parameter indicating enlargement or reduction of the plurality of images, a parameter indicating tilt of each of the plurality of images, and a parameter indicating the tilt of each of the plurality of images. 2. The image processing apparatus according to claim 1, comprising at least one parameter indicating a rotation angle with respect to each surface to be imaged. 前記プロセッサは、前記画像補正の示唆となる情報である補正ヒント情報を取得し、前記補正ヒント情報に基づいて前記修正パラメータを取得する請求項1または2に記載の画像処理装置。 3. The image processing apparatus according to claim 1, wherein the processor acquires correction hint information that is information suggestive of the image correction, and acquires the correction parameter based on the correction hint information. 前記プロセッサは、前記画像におけるひび割れを示す情報及び/または前記構造物の非ひび割れを示す情報に基づいて前記修正パラメータを取得する請求項1から3のいずれか1項に記載の画像処理装置。 4. The image processing apparatus according to any one of claims 1 to 3, wherein the processor obtains the correction parameters based on information indicating cracks in the image and/or information indicating non-cracking of the structure. 前記プロセッサは、最新の点検時に取得した前記複数の画像、及び/または過去の点検時に取得した前記複数の画像に基づいて前記修正パラメータを取得する請求項1から4のいずれか1項に記載の画像処理装置。 5. The processor according to any one of claims 1 to 4, wherein the processor obtains the modified parameters based on the plurality of images acquired during a most recent inspection and/or the plurality of images acquired during a previous inspection. Image processing device. 前記プロセッサは、機械学習の手法により得られた前記判断結果を取得する請求項1から5のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 5, wherein the processor acquires the judgment result obtained by a machine learning technique. 前記プロセッサは、前記検出されたひび割れに対応するひび割れ画像と前記検出されたひび割れの特徴量とを示すひび割れ情報を生成する請求項1から6のいずれか1項に記載の画像処理装置。 7. The image processing apparatus according to any one of claims 1 to 6, wherein said processor generates crack information indicating a crack image corresponding to said detected crack and a feature amount of said detected crack. 前記プロセッサは、前記特徴量に基づいて前記ひび割れ画像をグルーピングし、前記ひび割れ画像のグループを選択する操作に応じて前記ひび割れ情報を修正する請求項7に記載の画像処理装置。 8. The image processing apparatus according to claim 7, wherein the processor groups the cracked images based on the feature amount, and modifies the cracked information according to an operation of selecting the group of the cracked images. 前記プロセッサは、前記ひび割れ画像をグループ毎に異なる線種または色を用いて表示させる請求項7または8に記載の画像処理装置。 9. The image processing apparatus according to claim 7, wherein the processor displays the crack images using different line types or colors for each group. 請求項1から9のいずれか1項に記載の画像処理装置と、ユーザ端末と、を備える画像処理システムであって、
前記プロセッサは、前記ユーザ端末から前記複数の画像を取得する画像処理システム。
An image processing system comprising the image processing device according to any one of claims 1 to 9 and a user terminal,
The image processing system, wherein the processor acquires the plurality of images from the user terminal.
プロセッサを備える画像処理装置の作動方法であって、
前記プロセッサは、
構造物の表面を示す複数の画像を取得し、
前記取得した複数の画像を画像合成して前記構造物の表面を示す合成画像を生成し、
前記合成画像が不適切であるか否かの判断結果を取得し、
前記取得した前記判断結果が、前記合成画像が不適切であることを示す場合は、画像補正及び/または画像合成のための修正パラメータを取得して、前記修正パラメータに基づいて再度前記合成画像を生成し、
前記合成画像または合成前の前記画像を画像解析して前記構造物の表面のひび割れを検出する作動方法。
A method of operating an image processing device comprising a processor, comprising:
The processor
Acquiring multiple images showing the surface of the structure,
synthesizing the plurality of acquired images to generate a synthetic image showing the surface of the structure;
Acquiring a judgment result as to whether or not the synthesized image is inappropriate;
if the acquired determination result indicates that the synthesized image is inappropriate, acquiring modification parameters for image correction and/or image synthesis, and recreating the synthesized image based on the modification parameters; generate and
A method of operation comprising image analysis of said composite image or said image prior to composite to detect cracks in the surface of said structure.
請求項11に記載の作動方法を画像処理装置に実行させる画像処理プログラム。 An image processing program that causes an image processing apparatus to execute the operating method according to claim 11 .
JP2023033675A 2016-06-14 2023-03-06 Image processing device, image processing system, operation method of image processing device and image processing program Pending JP2023078205A (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2016117868 2016-06-14
JP2016117868 2016-06-14
JP2019218028A JP6944506B2 (en) 2016-06-14 2019-12-02 Image processing method, image processing device, and image processing program
JP2021147462A JP7241139B2 (en) 2016-06-14 2021-09-10 Server device, image processing method, and image processing system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021147462A Division JP7241139B2 (en) 2016-06-14 2021-09-10 Server device, image processing method, and image processing system

Publications (1)

Publication Number Publication Date
JP2023078205A true JP2023078205A (en) 2023-06-06

Family

ID=60664350

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2018523607A Active JP6626970B2 (en) 2016-06-14 2017-05-19 Server device, image processing system, and image processing method
JP2019218028A Active JP6944506B2 (en) 2016-06-14 2019-12-02 Image processing method, image processing device, and image processing program
JP2021147462A Active JP7241139B2 (en) 2016-06-14 2021-09-10 Server device, image processing method, and image processing system
JP2023033675A Pending JP2023078205A (en) 2016-06-14 2023-03-06 Image processing device, image processing system, operation method of image processing device and image processing program

Family Applications Before (3)

Application Number Title Priority Date Filing Date
JP2018523607A Active JP6626970B2 (en) 2016-06-14 2017-05-19 Server device, image processing system, and image processing method
JP2019218028A Active JP6944506B2 (en) 2016-06-14 2019-12-02 Image processing method, image processing device, and image processing program
JP2021147462A Active JP7241139B2 (en) 2016-06-14 2021-09-10 Server device, image processing method, and image processing system

Country Status (2)

Country Link
JP (4) JP6626970B2 (en)
WO (1) WO2017217185A1 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6833356B2 (en) * 2016-06-16 2021-02-24 キヤノン株式会社 Information processing equipment, information processing methods and programs
WO2019130391A1 (en) * 2017-12-25 2019-07-04 富士通株式会社 Image processing program, image processing method, and image processing device
JP6814431B2 (en) * 2018-02-26 2021-01-20 株式会社オプティム Computer systems, drone control methods and programs
JP7336750B2 (en) * 2018-10-12 2023-09-01 パナソニックIpマネジメント株式会社 Prediction device and prediction method
JP7263074B2 (en) * 2019-03-22 2023-04-24 キヤノン株式会社 Information processing device, its control method, program, and storage medium
US20220155277A1 (en) * 2019-04-01 2022-05-19 Aipore Inc. Machine-Learning Program, Method, and Apparatus for Measuring, by Pore Electric Resistance Method, Transient Change in Ion Current Associated with Passage of Target Particles through Pores and for Analyzing Pulse Waveform of Said Transient Change
JP7316097B2 (en) * 2019-05-24 2023-07-27 日本放送協会 Object trajectory generator and its program
JP7151652B2 (en) * 2019-07-18 2022-10-12 株式会社デンソー Crack width measuring device
JP7427381B2 (en) * 2019-07-22 2024-02-05 キヤノン株式会社 Information processing device, system, information processing method and program
JPWO2021200675A1 (en) 2020-04-01 2021-10-07
CN115443407A (en) 2020-05-07 2022-12-06 富士胶片株式会社 Damage evaluation device, method, and program
JP7453848B2 (en) * 2020-05-21 2024-03-21 清水建設株式会社 Face image processing device, face image processing method
KR102374840B1 (en) * 2020-10-20 2022-03-15 두산중공업 주식회사 Defect image generation method for deep learning and system therefor
WO2022209709A1 (en) * 2021-04-02 2022-10-06 富士フイルム株式会社 Image processing device, image processing method, and image processing program
WO2023047859A1 (en) * 2021-09-22 2023-03-30 富士フイルム株式会社 Information processing device, method and program, and image data structure
KR102635926B1 (en) * 2023-08-29 2024-02-13 디엘이앤씨 주식회사 Facility Crack Measuring System

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06148089A (en) * 1992-05-29 1994-05-27 Shimizu Corp Craze measuring processor
JP3067652B2 (en) * 1996-09-04 2000-07-17 関西電力株式会社 Concrete crack measuring method and measuring device
JP4269461B2 (en) * 2000-01-14 2009-05-27 株式会社Ihi Graphic processing method using elliptical area
JP2002310920A (en) * 2001-04-19 2002-10-23 Keisoku Kensa Kk Method for detecting crack in concrete wall and device thereof
JP4010806B2 (en) * 2001-12-20 2007-11-21 西松建設株式会社 Concrete surface deformation investigation system and concrete surface deformation investigation method
JP2004069434A (en) * 2002-08-05 2004-03-04 Tokyo Electric Power Co Inc:The Image processing method using image with laser light spot, mosaic processing method using the image, and normalization service system using the method
JP2005062041A (en) 2003-08-15 2005-03-10 Junichi Izumo Soundness evaluation method, evaluation program and evaluation device
JP2006132973A (en) * 2004-11-02 2006-05-25 Fujimitsu Komuten:Kk Crack inspection device and method of concrete structure
JP4954006B2 (en) * 2007-09-28 2012-06-13 三洋電機株式会社 Crack width measuring system, operating device, crack width measuring method, and crack width measuring program
JP5688533B1 (en) * 2014-01-23 2015-03-25 デ・ファクト・スタンダード合同会社 Concrete structure maintenance management system
JP6597603B2 (en) * 2014-04-25 2019-10-30 ソニー株式会社 Control device, imaging device, control method, imaging method, and computer program
CN110954545B (en) * 2014-04-25 2023-01-13 索尼公司 Information processing apparatus, information processing method, and computer program
JP6368207B2 (en) * 2014-09-25 2018-08-01 前田建設工業株式会社 Inspection support device, inspection support method, and program for concrete structure
JP6387782B2 (en) * 2014-10-17 2018-09-12 ソニー株式会社 Control device, control method, and computer program

Also Published As

Publication number Publication date
JP2020038227A (en) 2020-03-12
JP6626970B2 (en) 2019-12-25
JPWO2017217185A1 (en) 2019-02-28
WO2017217185A1 (en) 2017-12-21
JP7241139B2 (en) 2023-03-16
JP2022000646A (en) 2022-01-04
JP6944506B2 (en) 2021-10-06

Similar Documents

Publication Publication Date Title
JP7241139B2 (en) Server device, image processing method, and image processing system
CN111459166B (en) Scene map construction method containing trapped person position information in post-disaster rescue environment
Duque et al. Bridge deterioration quantification protocol using UAV
JP7102569B2 (en) Damage information processing device, damage information processing method, and damage information processing program
JP7146013B2 (en) Server device, image processing method, and program
KR102423579B1 (en) Integral maintenance control method and system for managing dam safety based on 3d modelling
CN103988069A (en) Inspection area setting method for image inspecting device
Sabato et al. Noncontact sensing techniques for AI-aided structural health monitoring: a systematic review
CN112241950A (en) Detection method of tower crane crack image
CN114463932B (en) Non-contact construction safety distance active dynamic identification early warning system and method
Park et al. A framework for improving object recognition of structural components in construction site photos using deep learning approaches
Hess et al. Interactive classification of construction materials: Feedback driven framework for annotation and analysis of 3D point clouds
Sgrenzaroli et al. Indoor mobile mapping systems and (BIM) digital models for construction progress monitoring
CN117610375A (en) Bridge suspension casting construction digital twin method, device and equipment based on machine vision
Braun et al. Classification of detection states in construction progress monitoring
Qureshi et al. Smart rebar progress monitoring using 3D point cloud model
Liang et al. An Automatic Measurement Method of Test Beam Response Based on Spliced Images
CN109934333A (en) Object localization method based on full Connection Neural Network
CN116433755B (en) Structure dense displacement recognition method and system based on deformable three-dimensional model and optical flow representation learning
KR102554504B1 (en) Method for inspecting steel structure automatically based on 3d modeling
Shu et al. Automated generation of FE mesh of concrete structures from 3D point cloud using computer vision technology
Saeedfar et al. Dynamic Space Conflict Modeling for Construction Operations
Ziolkowski Remote sensing in laboratory diagnostics of reinforced concrete elements—current development and vision for the future
Kreyenschmidt Exemplary integration of machine learning for information extraction in existing buildings
Ronit Review Of Bridge Structural Inspection Aided By Augmented Reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231006

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240209

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240529

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240603