JP2021047197A - Damage data editing device, damage data editing method and program - Google Patents

Damage data editing device, damage data editing method and program Download PDF

Info

Publication number
JP2021047197A
JP2021047197A JP2020201168A JP2020201168A JP2021047197A JP 2021047197 A JP2021047197 A JP 2021047197A JP 2020201168 A JP2020201168 A JP 2020201168A JP 2020201168 A JP2020201168 A JP 2020201168A JP 2021047197 A JP2021047197 A JP 2021047197A
Authority
JP
Japan
Prior art keywords
damage
unit
data
damage data
editing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020201168A
Other languages
Japanese (ja)
Other versions
JP7170023B2 (en
JP2021047197A5 (en
Inventor
浩明 菊池
Hiroaki Kikuchi
浩明 菊池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JP2021047197A publication Critical patent/JP2021047197A/en
Publication of JP2021047197A5 publication Critical patent/JP2021047197A5/en
Application granted granted Critical
Publication of JP7170023B2 publication Critical patent/JP7170023B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Immunology (AREA)
  • Analytical Chemistry (AREA)
  • Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Pathology (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Bridges Or Land Bridges (AREA)

Abstract

To provide a damage data editing device, a damage data editing method and a program capable of acquiring damage data in which damage shown in a photographed image is accurately depicted.SOLUTION: A damage data editing device (20) comprises: an image acquisition section (22); a damage data generation section (32) for generating the damage data by image-analyzing the photographed image; a display section (26); a display control section (38) for causing the display section (26) to display the photographed image and to overlay the damage data on the photographed image; an editing section (40) for receiving a command to edit the damage data displayed on the display section (26) and editing the damage data on the basis of the command to edit; a drawing data acquisition section (24); a projection relationship reception section (34); and an output section (44).SELECTED DRAWING: Figure 2

Description

本発明は、損傷データ編集装置、損傷データ編集方法、およびプログラムに関し、特に点検対象である建造物の撮影画像から生成される損傷データを編集する技術に関する。 The present invention relates to a damage data editing device, a damage data editing method, and a program, and more particularly to a technique for editing damage data generated from a photographed image of a building to be inspected.

橋梁、トンネル等の建造物は、継時的に損傷の発生する可能性が高くなる。したがって、定期的に損傷の発生および損傷の進行状況の点検を行うことが求められている。 Buildings such as bridges and tunnels are more likely to be damaged over time. Therefore, it is required to regularly check the occurrence of damage and the progress of damage.

建造物を点検する調査員は、点検の結果を示す帳票として所定形式の点検調書を作成する必要がある。その点検調書の一つとして建造物の損傷状態を図示する損傷図がある。実際に点検した調査員とは異なる専門家であっても、所定形式で作成された損傷図を見ることにより、建造物の損傷の発生および進行状況を把握し、その建造物の維持管理計画を策定することが可能になる。 An investigator who inspects a building needs to prepare an inspection record in a predetermined format as a form showing the result of the inspection. As one of the inspection records, there is a damage diagram showing the damage state of the building. Even if you are an expert different from the investigator who actually inspected, you can grasp the occurrence and progress of damage to the building by looking at the damage diagram created in the prescribed format, and make a maintenance plan for the building. It will be possible to formulate.

また近年において建造物の点検は、撮影画像を利用して行われる場合がある。すなわち、調査員は、点検対象である建造物の撮影画像を取得し、その撮影画像から損傷(例えばひび割れ)を検出することにより、建造物の損傷の点検を行う。 Further, in recent years, inspections of buildings may be performed using captured images. That is, the investigator inspects the damage of the building by acquiring a photographed image of the building to be inspected and detecting damage (for example, a crack) from the photographed image.

特許文献1には、建造物の撮影画像を利用して検査図面(損傷図に相当)の作成を行う技術が記載されている。具体的には、点検対象の建造物の撮影画像における損傷の特徴から線や面や文字の損傷オブジェクトを作成し、スキャナで読み込んだ製図面データ上に配置する技術が記載されている。 Patent Document 1 describes a technique for creating an inspection drawing (corresponding to a damage drawing) using a photographed image of a building. Specifically, it describes a technique of creating a damaged object of a line, a surface, or a character from a damaged feature in a photographed image of a building to be inspected and arranging it on drawing data read by a scanner.

特開2004−318790号公報Japanese Unexamined Patent Publication No. 2004-318790

ここで、撮影画像から画像処理により損傷を検出する場合には、撮影画像に射影変換等の加工を加える前に損傷の検出処理を行うと、より精度の高い損傷の検出を行うことができる。すなわち、撮影画像に射影変換等の加工が加えられると、加工の影響により撮影画像のデータに影響が及ぼされて、精度の良い損傷の検出が行えない場合が発生する。 Here, when the damage is detected from the captured image by image processing, if the damage detection processing is performed before the captured image is subjected to processing such as projective conversion, the damage can be detected with higher accuracy. That is, when processing such as projective transformation is applied to the captured image, the data of the captured image may be affected by the effect of the processing, and damage may not be detected with high accuracy.

しかしながら、特許文献1に記載された技術では、射影変換前の撮影画像に基づいて損傷オブジェクトが生成されることに関しては言及されていない。 However, the technique described in Patent Document 1 does not mention that a damaged object is generated based on a captured image before projective transformation.

また、撮影画像から画像処理により損傷を検出する場合には、必ずしも精度良く損傷が検出されるとは限らず、画像処理により損傷を検出したのちにユーザが確認し、必要に応じて損傷の検出結果を編集(修正および加工)することが必要になる場合がある。 In addition, when damage is detected from a captured image by image processing, the damage is not always detected with high accuracy, and the user confirms the damage after detecting the damage by image processing, and detects the damage if necessary. It may be necessary to edit (correct and process) the results.

しかしながら、特許文献1に記載された技術では、損傷の検出結果であるオブジェクトデータの生成の際に、撮影画像の損傷とオブジェクトデータとを合わせるような編集機能に関して言及されていない。すなわち、特許文献1に記載された技術では、生成されたオブジェクトデータが精度良く撮影画像の損傷を表現しているかユーザが確認し編集する機能に関しては言及されていない。 However, the technique described in Patent Document 1 does not mention an editing function for matching the damage of the photographed image with the object data when generating the object data which is the detection result of the damage. That is, the technique described in Patent Document 1 does not mention a function for the user to confirm and edit whether the generated object data accurately represents the damage of the captured image.

本発明はこのような事情に鑑みてなされたもので、その目的は、撮影画像に写された損傷が精度良く表現された損傷データを得ることができる損傷データ編集装置、損傷データ編集方法、およびプログラムを提供することである。 The present invention has been made in view of such circumstances, and an object of the present invention is a damage data editing device, a damage data editing method, and a damage data editing method capable of obtaining damage data in which the damage captured in a captured image is accurately expressed. To provide a program.

上記目的を達成するための本発明の一の態様である損傷データ編集装置は、点検対象の建造物が撮影された撮影画像を取得する画像取得部と、撮影画像を画像解析することにより、損傷データを生成する損傷データ生成部と、表示部と、表示部に撮影画像を表示させるとともに、損傷データを撮影画像にオーバレイ表示させる表示制御部と、表示部に表示された損傷データの編集の指令を受け付けて、編集の指令に基づいて損傷データを編集する編集部と、点検対象の建造物の図面データを取得する図面データ取得部と、表示部に表示された撮影画像と図面データ取得部で取得された図面データとの射影関係の入力を受け付ける射影関係受付部と、射影関係受付部で受け付けられた射影関係に基づいて、損傷データ生成部で生成した損傷データまたは編集部で編集された損傷データを射影変換する射影変換部と、射影変換部で射影変換された損傷データを出力する出力部と、を備える。 The damage data editing device, which is one aspect of the present invention for achieving the above object, is damaged by an image acquisition unit that acquires a photographed image of a building to be inspected and an image analysis of the photographed image. A damage data generation unit that generates data, a display unit, a display control unit that displays a captured image on the display unit and overlays the damaged data on the captured image, and a command for editing the damage data displayed on the display unit. In the editorial department that accepts and edits damage data based on the editing command, the drawing data acquisition unit that acquires the drawing data of the building to be inspected, and the photographed image and drawing data acquisition unit displayed on the display unit. Damage data generated by the damage data generation unit or damage edited by the editorial department based on the projection relationship reception unit that accepts the input of the projection relationship with the acquired drawing data and the projection relationship reception unit. It includes a projection conversion unit that projects data and an output unit that outputs damage data that has been projected and converted by the projection conversion unit.

本態様によれば、損傷データ生成部で撮影画像を画像解析されることにより損傷データが生成され、そして生成された損傷データは、撮影画像と図面データとの射影関係に基づいて射影変換される。すなわち、本態様の損傷データは、射影変換前の撮影画像における損傷の検出に基づいて生成され、その後射影変換される。これにより本態様は、損傷の検出を行う撮影画像において射影変換による画質劣化の影響を受けることがなく、撮影画像に写された損傷を精度良く再現した損傷データを生成することができる。 According to this aspect, damage data is generated by image analysis of the captured image in the damage data generation unit, and the generated damage data is projected and transformed based on the projective relationship between the captured image and the drawing data. .. That is, the damage data of this embodiment is generated based on the detection of damage in the captured image before the projective transformation, and then the projective transformation is performed. As a result, in this embodiment, it is possible to generate damage data that accurately reproduces the damage captured in the captured image without being affected by the deterioration of the image quality due to the projective transformation in the captured image that detects the damage.

また本態様によれば、表示制御部により、表示部に撮影画像を表示させるとともに、損傷データを撮影画像にオーバレイ表示されるので、ユーザは、そのオーバレイ表示を確認して、生成された損傷データを編集することができる。すなわちユーザは、生成された損傷データが、撮影画像に写っている損傷を精度良く表現しているか否かを確認することができる。例えばユーザは、撮影画像に写っている損傷と損傷データとの間に差異がある場合には、撮影画像に写っている損傷を参照して損傷データを編集することができる。これにより、本態様は、撮影画像に写された損傷を精度良く表現した損傷データを生成することができる。 Further, according to this aspect, the display control unit displays the captured image on the display unit and overlays the damaged data on the captured image. Therefore, the user confirms the overlay display and the generated damage data. Can be edited. That is, the user can confirm whether or not the generated damage data accurately represents the damage shown in the captured image. For example, if there is a difference between the damage in the captured image and the damage data, the user can edit the damage data with reference to the damage in the captured image. As a result, this aspect can generate damage data that accurately represents the damage captured in the captured image.

好ましくは、表示制御部は、表示部に図面データを表示させ、射影関係受付部は、表示部に表示された撮影画像と図面データ取得部で取得された図面データとの射影関係を示す、撮影画像の4点および図面データの4点を受け付ける。 Preferably, the display control unit displays the drawing data on the display unit, and the projection-related reception unit shows the projection relationship between the captured image displayed on the display unit and the drawing data acquired by the drawing data acquisition unit. Accepts 4 points of images and 4 points of drawing data.

本態様によれば、射影関係受付部により、表示部に表示された撮影画像と図面データ取得部で取得された図面データとの射影関係を示す、撮影画像の4点および図面データの4点が受け付けられる。これにより本態様は、適切に射影関係が受け付けられて、正確な損傷データの射影変換が行われる。 According to this aspect, four points of the photographed image and four points of the drawing data showing the projection relationship between the photographed image displayed on the display unit and the drawing data acquired by the drawing data acquisition unit by the projection-related reception unit. Accepted. As a result, in this aspect, the projective relationship is appropriately accepted, and accurate projective transformation of the damage data is performed.

好ましくは、射影変換部は、撮影画像の4点を図面データの4点に合わせる射影変換行列を算出し、算出した射影変換行列により損傷データ生成部で生成した損傷データまたは編集部で編集された損傷データを射影変換する。 Preferably, the projective transformation unit calculates a projective transformation matrix that matches the four points of the captured image with the four points of the drawing data, and the damage data generated by the damage data generation unit or edited by the editorial unit using the calculated projective transformation matrix. Homographic transformation of damage data.

本態様によれば、射影変換部により、撮影画像の4点を図面データの4点に合わせる射影変換行列が算出され、算出した射影変換行列により損傷データ生成部で生成した損傷データまたは編集部で編集された損傷データが射影変換される。これにより、本態様は、正確に損傷データの射影変換を行うことができる。 According to this aspect, the projective transformation unit calculates a projective transformation matrix that matches the four points of the captured image with the four points of the drawing data, and the damage data generated by the damage data generation unit or the editorial unit uses the calculated projective transformation matrix. The edited damage data is projected and transformed. Thereby, this aspect can accurately perform the projective transformation of the damage data.

好ましくは、損傷データ編集装置は、表示部に表示された撮影画像と図面データ取得部で取得された図面データとのミラーリング関係の入力を受け付けるミラーリング関係受付部と、ミラーリング関係受付部で受け付けられたミラーリング関係に基づいて、損傷データをミラーリングするミラーリング部と、を備え、出力部は、ミラーリングおよび射影変換された損傷データを出力する。 Preferably, the damage data editing device is received by the mirroring-related reception unit and the mirroring-related reception unit that accept the mirroring-related input between the captured image displayed on the display unit and the drawing data acquired by the drawing data acquisition unit. A mirroring unit that mirrors the damage data based on the mirroring relationship is provided, and the output unit outputs the mirrored and projected damage data.

本態様によれば、ミラーリング関係受付部により、表示部に表示された撮影画像と図面データ取得部で取得された図面データとのミラーリング関係の入力が受け付けられ、ミラーリング部により、ミラーリング関係受付部で受け付けられたミラーリング関係に基づいて、損傷データがミラーリングされる。これにより本態様は、ミラーリングされた損傷データを得ることができ、建造物の撮影側とは反対側から見た損傷状態を図示する損傷データを得ることができる。 According to this aspect, the mirroring-related reception unit receives the mirroring-related input between the captured image displayed on the display unit and the drawing data acquired by the drawing data acquisition unit, and the mirroring unit receives the mirroring-related input at the mirroring-related reception unit. Damage data is mirrored based on the accepted mirroring relationships. Thereby, in this aspect, mirrored damage data can be obtained, and damage data illustrating the damage state as seen from the side opposite to the photographing side of the building can be obtained.

好ましくは、損傷データ編集装置は、建造物の一区画を分割撮影することにより得られる複数の撮影画像を合成する撮影画像合成部を備え、損傷データ生成部は、複数の撮影画像の各々について、損傷データを生成する。 Preferably, the damage data editing device includes a captured image compositing unit that synthesizes a plurality of captured images obtained by dividing and photographing a section of the building, and the damage data generating unit is for each of the plurality of captured images. Generate damage data.

本態様によれば、撮影画像合成部により、建造物の一区画を分割撮影することにより得られる複数の撮影画像が合成されるので、合成された撮影画像を取得することができ、合成された撮影画像の表示を行うことができる。また、本態様によれば、損傷データ生成部により複数の撮影画像の各々について、損傷データが生成される。すなわち、本態様では、合成される前の各撮影画像において損傷データが生成されるので、損傷データ生成部は、撮影画像の合成の影響を受けずに、精度良く損傷データの生成を行うことができる。 According to this aspect, since the photographed image synthesizing unit synthesizes a plurality of photographed images obtained by dividing and photographing a section of the building, the combined photographed images can be acquired and combined. The captured image can be displayed. Further, according to this aspect, the damage data generation unit generates damage data for each of the plurality of captured images. That is, in this aspect, since the damage data is generated in each photographed image before being combined, the damage data generation unit can accurately generate the damage data without being affected by the composition of the photographed images. it can.

好ましくは、撮影画像合成部は、図面データに表される一区画に対応して撮影された複数の撮影画像を、一区画毎に合成を行う。 Preferably, the photographed image synthesizing unit synthesizes a plurality of photographed images photographed corresponding to one section represented by the drawing data for each section.

本態様によれば、撮影画像合成部により、図面データに表される一区画に対応して撮影された複数の撮影画像を、一区画毎に合成が行われる。これにより本態様は、一区画毎の合成画像を得ることができ、一区画毎の合成画像を表示することができる。 According to this aspect, the captured image synthesizing unit synthesizes a plurality of captured images taken corresponding to one section represented in the drawing data for each section. Thereby, in this aspect, the composite image for each section can be obtained, and the composite image for each section can be displayed.

好ましくは、損傷データ編集装置は、撮影画像合成部で合成された複数の撮影画像の合成情報に基づいて、損傷データを合成する損傷データ合成部を備える。 Preferably, the damage data editing device includes a damage data synthesizing unit that synthesizes damage data based on the composite information of a plurality of captured images synthesized by the captured image synthesizing unit.

本態様によれば、損傷データ合成部により、撮影画像合成部で合成された複数の撮影画像の合成情報に基づいて、損傷データを合成する。これにより本態様は、合成された損傷データを得ることができる。 According to this aspect, the damage data synthesizing unit synthesizes damage data based on the composite information of a plurality of captured images synthesized by the captured image synthesizing unit. This aspect allows the synthesized damage data to be obtained.

好ましくは、損傷データ合成部は、一区画毎に合成を行う。 Preferably, the damage data synthesizing unit synthesizes each section.

本態様によれば、損傷データ合成部により、一区画毎に合成が行われる。これにより、本態様は一区画毎に合成された損傷データを得ることができる。 According to this aspect, the damage data synthesizing unit synthesizes each section. Thereby, this aspect can obtain the damage data synthesized for each section.

好ましくは、損傷データ編集装置は、射影変換部で射影変換された損傷データと損傷データに対応する図面データとが重畳された損傷図面データを作成する損傷図面データ作成部を備え、出力部は、損傷図面データを出力する。 Preferably, the damage data editing device includes a damage drawing data creation unit that creates damage drawing data in which the damage data projected by the projection conversion unit and the drawing data corresponding to the damage data are superimposed, and the output unit is provided with a damage drawing data creation unit. Output damage drawing data.

本態様によれば、損傷図面データ作成部により、射影変換部で射影変換された損傷データと損傷データに対応する図面データとが重畳された損傷図面データが作成され、出力部により、損傷図面データが出力される。これにより本態様は、精度良く撮影画像の損傷を表現した損傷データを有する損傷図面データを得ることができる。 According to this aspect, the damage drawing data creation unit creates damage drawing data in which the damage data projected by the projective conversion unit and the drawing data corresponding to the damage data are superimposed, and the output unit creates the damage drawing data. Is output. Thereby, in this aspect, it is possible to obtain the damage drawing data having the damage data expressing the damage of the photographed image with high accuracy.

好ましくは、建造物は、橋梁またはトンネルである。 Preferably, the building is a bridge or tunnel.

本発明の他の態様である損傷データ編集方法は、点検対象の建造物が撮影された撮影画像を取得する画像取得ステップと、撮影画像を画像解析することにより、損傷データを生成する損傷データ生成ステップと、表示部に撮影画像を表示させるとともに、損傷データを撮影画像にオーバレイ表示させる表示制御ステップと、表示部に表示された損傷データの編集の指令を受け付けて、編集の指令に基づいて損傷データを編集する編集ステップと、点検対象の建造物の図面データを取得する図面データ取得ステップと、表示部に表示された撮影画像と図面データ取得ステップで取得された図面データとの射影関係の入力を受け付ける射影関係受付ステップと、射影関係受付ステップで受け付けられた射影関係に基づいて、損傷データ生成ステップで生成した損傷データまたは編集ステップで編集された損傷データを射影変換する射影変換ステップと、射影変換ステップで射影変換された損傷データを出力する出力ステップと、を含む。 The damage data editing method, which is another aspect of the present invention, includes an image acquisition step of acquiring a photographed image of the building to be inspected, and damage data generation that generates damage data by analyzing the photographed image. The step, the display control step of displaying the captured image on the display unit and overlaying the damage data on the captured image, and the instruction to edit the damage data displayed on the display unit are received, and the damage is damaged based on the editing command. Input of the projection relationship between the edit step to edit the data, the drawing data acquisition step to acquire the drawing data of the building to be inspected, and the photographed image displayed on the display unit and the drawing data acquired in the drawing data acquisition step. Based on the projection relationship received in the projection relationship reception step and the projection relationship reception step, the damage data generated in the damage data generation step or the damage data edited in the editing step is projected and converted. Includes an output step that outputs the damage data projected and transformed in the conversion step.

本発明の他の態様である損傷データ編集工程をコンピュータに実行させるプログラムは、点検対象の建造物が撮影された撮影画像を取得する画像取得ステップと、撮影画像を画像解析することにより、損傷データを生成する損傷データ生成ステップと、表示部に撮影画像を表示させるとともに、損傷データを撮影画像にオーバレイ表示させる表示制御ステップと、表示部に表示された損傷データの編集の指令を受け付けて、編集の指令に基づいて損傷データを編集する編集ステップと、点検対象の建造物の図面データを取得する図面データ取得ステップと、表示部に表示された撮影画像と図面データ取得ステップで取得された図面データとの射影関係の入力を受け付ける射影関係受付ステップと、射影関係受付ステップで受け付けられた射影関係に基づいて、損傷データ生成ステップで生成した損傷データまたは編集ステップで編集された損傷データを射影変換する射影変換ステップと、射影変換ステップで射影変換された損傷データを出力する出力ステップと、を含む。 A program for causing a computer to execute a damage data editing step according to another aspect of the present invention is a program that acquires damage data by acquiring an image acquisition step of acquiring a photographed image of a building to be inspected and analyzing the photographed image. The damage data generation step to generate the damage data, the display control step to display the captured image on the display unit and overlay the damage data on the captured image, and the instruction to edit the damage data displayed on the display unit are accepted and edited. The editing step of editing the damage data based on the command of, the drawing data acquisition step of acquiring the drawing data of the building to be inspected, and the photographed image displayed on the display unit and the drawing data acquired in the drawing data acquisition step. Based on the projection relationship reception step that accepts the input of the projection relationship with and the projection relationship received in the projection relationship reception step, the damage data generated in the damage data generation step or the damage data edited in the editing step is projected and converted. It includes a projection conversion step and an output step that outputs the damage data projected and converted in the projection conversion step.

本発明によれば、損傷データが、射影変換前の撮影画像における損傷の検出に基づいて生成され、その後射影変換されるので、損傷の検出を行う撮影画像において射影変換による画質劣化の影響を受けることがなく、撮影画像に写された損傷を精度良く再現した損傷データを生成することができる。また本発明によれば、ユーザに、生成された損傷データが、撮影画像に写っている損傷を精度良く表現しているか否かを確認し編集する機能を提供することができ、撮影画像に写された損傷を精度良く表現した損傷データを生成することができる。 According to the present invention, the damage data is generated based on the detection of damage in the captured image before the projective conversion, and then the projective conversion is performed. Therefore, the captured image for which the damage is detected is affected by the deterioration of the image quality due to the projective conversion. It is possible to generate damage data that accurately reproduces the damage captured in the captured image. Further, according to the present invention, it is possible to provide the user with a function of confirming and editing whether or not the generated damage data accurately expresses the damage reflected in the captured image, and captures the captured image. It is possible to generate damage data that accurately represents the damage that has been done.

図1は建造物の一例である橋梁の構造を示す斜視図である。FIG. 1 is a perspective view showing the structure of a bridge, which is an example of a building. 図2は損傷データ編集装置の構成例を示すブロック図である。FIG. 2 is a block diagram showing a configuration example of the damage data editing device. 図3は記憶部に記憶される損傷図形の例を示す図である。FIG. 3 is a diagram showing an example of a damaged figure stored in the storage unit. 図4は損傷データ編集装置の動作フローを示すフローチャートである。FIG. 4 is a flowchart showing an operation flow of the damage data editing device. 図5は射影関係受付部で受け付けられる射影関係の具体例を説明する図である。FIG. 5 is a diagram illustrating a specific example of the projection relationship accepted by the projection relationship reception unit. 図6は損傷データ編集装置の構成例を示すブロック図である。FIG. 6 is a block diagram showing a configuration example of the damage data editing device. 図7はミラーリングに関して説明する図である。FIG. 7 is a diagram illustrating mirroring. 図8はミラーリングに関して説明する図である。FIG. 8 is a diagram illustrating mirroring. 図9は損傷図面データの例を示す図である。FIG. 9 is a diagram showing an example of damage drawing data. 図10は反転損傷図面データの例を示す図である。FIG. 10 is a diagram showing an example of reverse damage drawing data. 図11は損傷データ編集装置の動作フローを示すフローチャートである。FIG. 11 is a flowchart showing an operation flow of the damage data editing device. 図12はCAD図面の一例を示す図である。FIG. 12 is a diagram showing an example of a CAD drawing. 図13は射影関係およびミラーリング関係の入力の具体例を説明する図である。FIG. 13 is a diagram illustrating a specific example of input related to projection and mirroring. 図14はミラーリングに関して説明する図である。FIG. 14 is a diagram illustrating mirroring. 図15はミラーリングして得られた損傷データを示す図である。FIG. 15 is a diagram showing damage data obtained by mirroring. 図16は損傷図面データの作成に関して説明する図である。FIG. 16 is a diagram illustrating the creation of damage drawing data. 図17は床版の格間に関する編集画面の表示例を示す図である。FIG. 17 is a diagram showing a display example of an edit screen relating to the coffer of the floor slab. 図18は床版におけるひび割れの進行モデルの一例を模式的に示す図である。FIG. 18 is a diagram schematically showing an example of a crack progress model in a floor slab. 図19は格間が撮影された撮影画像を示す図である。FIG. 19 is a diagram showing a photographed image in which the coffer was photographed. 図20は撮影装置を備えるロボット装置を概念的に示す図である。FIG. 20 is a diagram conceptually showing a robot device including a photographing device. 図21はミラーリングのバリエーションの説明のための説明図である。FIG. 21 is an explanatory diagram for explaining variations of mirroring.

以下、添付図面にしたがって本発明にかかる損傷データ編集装置、損傷データ編集方法およびプログラムの好ましい実施の形態について説明する。 Hereinafter, preferred embodiments of the damage data editing apparatus, the damage data editing method, and the program according to the present invention will be described with reference to the accompanying drawings.

図1は、本発明が適用される建造物の一例である橋梁の構造を示す斜視図であって、橋梁1を下側から見た場合の斜視図である。本図の橋梁1は、主桁2と、横桁3と、対傾構4と、横構5とを有する。主桁2の上部には、コンクリート製の部材である床版6が設けられている。主桁2は、橋脚7(または橋台)の間に渡され、床版6上の荷重を支える部材である。横桁3は、荷重を複数の主桁2で支えるため、主桁2を連結する部材である。対傾構4および横構5は、特に横荷重に抵抗するため、主桁2を連結する部材である。橋脚7は、橋梁1の主桁2、横桁3、対傾構4、横構5、および床版6の上部構造を支える柱であり、橋梁1の脚に相当する部材である。 FIG. 1 is a perspective view showing a structure of a bridge which is an example of a building to which the present invention is applied, and is a perspective view when the bridge 1 is viewed from below. The bridge 1 in this figure has a main girder 2, a cross girder 3, an anti-tilt structure 4, and a horizontal structure 5. A floor slab 6, which is a concrete member, is provided on the upper part of the main girder 2. The main girder 2 is a member that is passed between the piers 7 (or the abutment) and supports the load on the floor slab 6. The cross girder 3 is a member that connects the main girders 2 in order to support the load by the plurality of main girders 2. The anti-tilt structure 4 and the horizontal structure 5 are members for connecting the main girder 2 in order to particularly resist a lateral load. The pier 7 is a column that supports the superstructures of the main girder 2, the cross girder 3, the anti-tilt structure 4, the horizontal structure 5, and the floor slab 6 of the bridge 1, and is a member corresponding to the leg of the bridge 1.

なお、図1に示した橋梁1は本発明の説明に用いるために紹介した建造物の一例であり、本発明における建造物は、このような橋梁1に限定されない。撮影画像により損傷の検出が行えて、点検が行える対象であれば、本発明の建造物に該当する。例えば本発明における建造物は、トンネルでもよい。 The bridge 1 shown in FIG. 1 is an example of a building introduced for use in the description of the present invention, and the building in the present invention is not limited to such a bridge 1. If the object can be inspected by detecting damage from the captured image, it corresponds to the building of the present invention. For example, the building in the present invention may be a tunnel.

<第1の実施形態>
図2は、第1の実施形態における損傷データ編集装置20の構成例を示すブロック図である。損傷データ編集装置20は、撮影装置10で撮影された点検対象の建造物の撮影画像を取得する。
<First Embodiment>
FIG. 2 is a block diagram showing a configuration example of the damage data editing device 20 according to the first embodiment. The damage data editing device 20 acquires a photographed image of the building to be inspected photographed by the photographing device 10.

撮影装置10は、点検対象の建造物を撮影する撮影デバイスによって構成される。撮影デバイスの例として、デジタルカメラ、スマートフォンに内蔵されたカメラ、タブレット端末に内蔵されたカメラが挙げられる。撮影装置10で取得された撮影画像は、損傷データ編集装置20に入力される。 The photographing device 10 is composed of a photographing device that photographs a building to be inspected. Examples of shooting devices include digital cameras, cameras built into smartphones, and cameras built into tablet terminals. The captured image acquired by the photographing device 10 is input to the damage data editing device 20.

本形態の損傷データ編集装置20は、例えばコンピュータに設けられる。損傷データ編集装置20は、主に、画像取得部22、図面データ取得部24、表示部26、操作部28、CPU30、および記憶部50を備える。 The damage data editing device 20 of this embodiment is provided in, for example, a computer. The damage data editing device 20 mainly includes an image acquisition unit 22, a drawing data acquisition unit 24, a display unit 26, an operation unit 28, a CPU 30, and a storage unit 50.

画像取得部22は、点検対象の建造物が撮影された撮影画像を取得する。また画像取得部22は、建造物の一区画を分割撮影することにより得られる複数の撮影画像を取得してもよい。ここで建造物の一区画とは例えば、点検を行う際に便宜上区切りを付ける建造物の一区画であり、床版6における格間(図1および図19を参照)が挙げられる。 The image acquisition unit 22 acquires a photographed image of the building to be inspected. Further, the image acquisition unit 22 may acquire a plurality of captured images obtained by separately photographing a section of the building. Here, a section of a building is, for example, a section of a building that is separated for convenience during inspection, and includes a coffer in the floor slab 6 (see FIGS. 1 and 19).

図面データ取得部24は、点検対象の建造物の図面データを取得する。例えば図面データ取得部24は、点検対象の建造物を示すCAD(computer aided design)図面を取得する。また、図面データ取得部24は、スキャナ等で読み込ませた図面データを取得してもよい。 The drawing data acquisition unit 24 acquires drawing data of the building to be inspected. For example, the drawing data acquisition unit 24 acquires a CAD (computer aided design) drawing showing a building to be inspected. Further, the drawing data acquisition unit 24 may acquire drawing data read by a scanner or the like.

画像取得部22および図面データ取得部24は、デジタル信号の入力を行う入力デバイスによって構成することができる。このような入力デバイスとして、例えば、無線通信または有線通信を行う通信デバイスを用いてもよい。メモリカード等の記憶媒体とのインタフェースデバイスを入力デバイスとして用いてもよい。 The image acquisition unit 22 and the drawing data acquisition unit 24 can be configured by an input device that inputs a digital signal. As such an input device, for example, a communication device that performs wireless communication or wired communication may be used. An interface device with a storage medium such as a memory card may be used as an input device.

表示部26は、液晶表示デバイス等の表示デバイスによって構成される。例えば表示部26は、コンピュータのモニタにより構成される。 The display unit 26 is composed of a display device such as a liquid crystal display device. For example, the display unit 26 is composed of a computer monitor.

操作部28は、ユーザの操作を受け付ける。キーボードおよびマウスによって構成することができる。これら以外の操作デバイス、例えば表示部26に設けられるタッチパネルによって操作部28を構成してもよい。 The operation unit 28 accepts the user's operation. It can be configured with a keyboard and mouse. The operation unit 28 may be configured by an operation device other than these, for example, a touch panel provided on the display unit 26.

CPU30は、プログラムを実行するCPU(central processing unit)30であり、単数または複数のCPUにより構成される。 The CPU 30 is a CPU (central processing unit) 30 that executes a program, and is composed of a single CPU or a plurality of CPUs.

記憶部50は、プログラムおよびそのプログラムの実行に必要な情報を記憶する。記憶部50は、メモリデバイスによって構成される。 The storage unit 50 stores the program and information necessary for executing the program. The storage unit 50 is composed of a memory device.

CPU30は、損傷データ生成部32、射影関係受付部34、射影変換部36、表示制御部38、編集部40、および出力部44を備える。 The CPU 30 includes a damage data generation unit 32, a projection-related reception unit 34, a projection conversion unit 36, a display control unit 38, an editing unit 40, and an output unit 44.

損傷データ生成部32は、撮影画像を画像解析することにより、損傷データを生成する。すなわち、損傷データ生成部32は、画像取得部22で取得された撮影画像に対して画像解析を実行することにより損傷を検出し、その損傷を表現する損傷データを生成する。ここで、撮影画像に写る損傷としては、ひび割れ、剥離、鉄筋露出、遊離石灰、および漏水が挙げられる。また損傷データとは、撮影画像に写っている損傷を表示部26において表現するデータである。例えば損傷データとしては、撮影画像に写っている損傷をトレースした画像データであったり、予め損傷の種別毎に記憶部50に記憶された損傷図形(図3参照)であったりする。なお、損傷データ生成部32が行う撮影画像における損傷画像を検出するための画像解析、および損傷データを生成する技術は公知の技術が用いられる。 The damage data generation unit 32 generates damage data by analyzing the captured image. That is, the damage data generation unit 32 detects damage by performing image analysis on the captured image acquired by the image acquisition unit 22, and generates damage data expressing the damage. Here, the damages shown in the photographed image include cracks, peeling, exposed reinforcing bars, free lime, and water leakage. Further, the damage data is data that expresses the damage shown in the captured image on the display unit 26. For example, the damage data may be image data that traces the damage shown in the captured image, or may be a damage figure (see FIG. 3) previously stored in the storage unit 50 for each type of damage. A known technique is used for the image analysis for detecting the damaged image in the captured image performed by the damage data generation unit 32 and the technique for generating the damage data.

図3は、記憶部50に記憶される損傷図形の例を示す図である。図3に示すように、記憶部50には損傷の種類に応じた損傷図形を記憶部50に記憶させておき、損傷データ生成部32には検出した損傷に応じて記憶されている損傷図形を損傷データとして使用してもよい。図3には、ひび割れ、剥離、鉄筋露出、遊離石灰、漏水の損傷図形が例示されている。 FIG. 3 is a diagram showing an example of a damaged figure stored in the storage unit 50. As shown in FIG. 3, the storage unit 50 stores the damage figure according to the type of damage in the storage unit 50, and the damage data generation unit 32 stores the damage figure stored according to the detected damage. It may be used as damage data. FIG. 3 illustrates damaged figures of cracks, peeling, exposed rebar, free lime, and water leaks.

射影関係受付部34は、表示部26に表示された撮影画像と図面データ取得部24で取得された図面データとの射影関係の入力を受け付ける。射影関係受付部34で受け付けられる射影関係は、様々な形態で受け付けられる。例えば射影関係受付部34は、撮影画像と図面データとでそれぞれ対応する4点の指定を受け付けることにより、射影関係を受け付けてもよい。また例えば射影関係受付部34は、撮影画像における矩形であるべき箇所を公知の画像認識技術により検出し、検出された矩形であるべき箇所に対応する図面データの箇所を指定することにより、射影関係を受け付けてもよい。 The projection-related reception unit 34 receives an input of a projection-related relationship between the captured image displayed on the display unit 26 and the drawing data acquired by the drawing data acquisition unit 24. The projection relationship accepted by the projection relationship reception unit 34 is accepted in various forms. For example, the projection-related reception unit 34 may accept the projection-related relationship by accepting the designation of four points corresponding to the captured image and the drawing data. Further, for example, the projection-related reception unit 34 detects a portion of the captured image that should be a rectangle by a known image recognition technique, and specifies a portion of drawing data corresponding to the detected portion that should be a rectangle. May be accepted.

射影変換部36は、射影関係受付部34で受け付けられた射影関係に基づいて、損傷データ生成部32で検出した損傷データまたは編集部40で編集された損傷データを射影変換する。射影変換部36は、公知の技術によって損傷データまたは編集部40で編集された損傷データを射影変換する。例えば射影変換部36は、撮影画像の4点を図面データの4点に合わせる射影変換行列を算出し、算出した射影変換行列により損傷データ生成部32で生成した損傷データまたは編集部40で編集された損傷データを射影変換する。 The projective conversion unit 36 projects and converts the damage data detected by the damage data generation unit 32 or the damage data edited by the editorial unit 40 based on the projection relationship received by the projective relationship reception unit 34. The projective conversion unit 36 projects and converts the damage data or the damage data edited by the editorial unit 40 by a known technique. For example, the projective transformation unit 36 calculates a projective transformation matrix that matches the four points of the captured image with the four points of the drawing data, and is edited by the damage data generated by the damage data generation unit 32 or the editorial unit 40 using the calculated projective transformation matrix. Homography of damaged data.

表示制御部38は、表示部26に撮影画像を表示させるとともに、損傷データを撮影画像にオーバレイ表示させる。すなわち表示制御部38は、撮影画像を表示部26に表示させ、且つ撮影画像における損傷に対応するように損傷データを重畳表示させる。なお、表示制御部38は、撮影画像、損傷データ、図面データ、および損傷図面データを表示部26に適宜表示させる機能を有する。 The display control unit 38 displays the captured image on the display unit 26 and overlays the damaged data on the captured image. That is, the display control unit 38 displays the captured image on the display unit 26, and superimposes and displays the damage data so as to correspond to the damage in the captured image. The display control unit 38 has a function of appropriately displaying the captured image, damage data, drawing data, and damage drawing data on the display unit 26.

編集部40は、表示部26に表示された損傷データの編集の指令を受け付けて、編集の指令に基づいて損傷データを編集する。例えばユーザは、表示部26に表示された撮影画像と損傷データ生成部32で自動的に生成された損傷データを見比べて、正確に損傷データが撮影画像の損傷を表現できていない場合には、損傷データを編集(加工)する。この場合、ユーザはコンピュータに取り付けられたマウス(操作部28)を使用して、損傷データの編集に関する指令を入力する。そして、編集部40は、その編集の指令に基づいて損傷データを編集する。編集部40は、追加、削除、および修正といった各種の編集操作も受け付ける。 The editorial unit 40 receives a command for editing the damage data displayed on the display unit 26, and edits the damage data based on the editing command. For example, the user compares the captured image displayed on the display unit 26 with the damage data automatically generated by the damage data generation unit 32, and if the damage data cannot accurately represent the damage of the captured image, the user can not accurately represent the damage of the captured image. Edit (process) damage data. In this case, the user uses a mouse (operation unit 28) attached to the computer to input a command regarding editing of damage data. Then, the editorial unit 40 edits the damage data based on the editing command. The editorial unit 40 also accepts various editing operations such as addition, deletion, and modification.

出力部44は、射影変換部36で射影変換された損傷データを出力する。出力部44の出力形態は特に限定されるものではなく、損傷データまたは損傷図面データ(図9および図10)を有効に利用できるものであればよい。例えば出力部44は、DXF(Drawing Exchange Format)のファイル形式で出力してもよいし、他の画像データのフォーマットで出力してもよい。 The output unit 44 outputs the damage data projected and converted by the projective conversion unit 36. The output form of the output unit 44 is not particularly limited, and any damage data or damage drawing data (FIGS. 9 and 10) may be effectively used. For example, the output unit 44 may output in a DXF (Drawing Exchange Format) file format, or may output in another image data format.

次に、損傷データ編集装置20の動作フローに関して説明する。図4は、第1の実施形態の損傷データ編集装置20の動作フローを示すフローチャートである。 Next, the operation flow of the damage data editing device 20 will be described. FIG. 4 is a flowchart showing an operation flow of the damage data editing device 20 of the first embodiment.

先ず、画像取得部22は、撮影装置10により撮影された撮影画像を取得する(ステップS10:画像取得ステップ)。そして、損傷データ生成部32は、取得された撮影画像について画像解析を行って、撮影画像に写っている損傷を検出し、その検出結果に基づいて損傷データを生成する(ステップS11:損傷データ生成ステップ)。その後、表示制御部38により、撮影画像と検出された損傷データとを表示部26にオーバレイ表示する(ステップS12:表示制御ステップ)。 First, the image acquisition unit 22 acquires a captured image captured by the photographing device 10 (step S10: image acquisition step). Then, the damage data generation unit 32 performs image analysis on the acquired captured image, detects the damage reflected in the captured image, and generates damage data based on the detection result (step S11: damage data generation). Step). After that, the display control unit 38 overlays the captured image and the detected damage data on the display unit 26 (step S12: display control step).

ユーザは、表示部26に表示された撮影画像と損傷データとを確認しながら、表示部26に表示された損傷データの編集の指令をパソコンに接続されているマウスにより入力し、編集部40は入力された指令に基づいて損傷データを編集する(ステップS13:編集ステップ)。 While checking the captured image and the damage data displayed on the display unit 26, the user inputs a command for editing the damage data displayed on the display unit 26 with a mouse connected to the personal computer, and the editorial unit 40 inputs the command for editing the damage data. The damage data is edited based on the input command (step S13: editing step).

次に、図面データ取得部24により図面データが取得される(ステップS14:図面データ取得ステップ)。なお、図面データの取得は、予め行われていてもよい。例えば、図面データ取得部24は、点検作業前に点検対象の建造物の図面データを取得し、取得された図面データは記憶部50に記憶されていてもよい。 Next, the drawing data acquisition unit 24 acquires the drawing data (step S14: drawing data acquisition step). The drawing data may be acquired in advance. For example, the drawing data acquisition unit 24 may acquire drawing data of the building to be inspected before the inspection work, and the acquired drawing data may be stored in the storage unit 50.

その後、射影関係受付部34により、射影関係の入力が受け付けられる(ステップS15:射影関係受付ステップ)。 After that, the projection-related input is received by the projection-related reception unit 34 (step S15: projection-related reception step).

図5は、射影関係受付部34で受け付けられる射影関係の具体例を説明する図である。 FIG. 5 is a diagram illustrating a specific example of the projection relationship received by the projection relationship reception unit 34.

表示制御部38により、表示部26に点検対象である橋脚7の撮影画像100が表示され、また建造物のCAD図面70(図面データ)が表示されている。具体的には、コンピュータのモニタに撮影画像100およびCAD図面70が表示されている。 The display control unit 38 displays a photographed image 100 of the pier 7 to be inspected on the display unit 26, and also displays a CAD drawing 70 (drawing data) of the building. Specifically, the captured image 100 and the CAD drawing 70 are displayed on the monitor of the computer.

損傷データ生成部32で生成された損傷データDD1およびDD2が、撮影画像における損傷に対応するようにオーバレイ表示されている。 The damage data DD1 and DD2 generated by the damage data generation unit 32 are overlaid so as to correspond to the damage in the captured image.

ユーザは、表示部26に表示された撮影画像100と橋脚7のCAD図面70において、コンピュータのポインティングデバイスにより、矩形の4点に対応する点を入力する。すなわち、撮影画像100のA1、B1、C1、およびD1の4点を指定して入力し、CAD図面70において対応するA2、B2、C2、およびD2の4点を指定して入力する。そして、射影関係受付部34は、ユーザから入力された各4点(撮影画像100のA1、B1、C1、およびD1と、A2、B2、C2、およびD2)を射影関係として受け付ける。 In the captured image 100 displayed on the display unit 26 and the CAD drawing 70 of the pier 7, the user inputs points corresponding to the four rectangular points by the pointing device of the computer. That is, the four points A1, B1, C1, and D1 of the captured image 100 are designated and input, and the corresponding four points A2, B2, C2, and D2 in the CAD drawing 70 are designated and input. Then, the projection-related reception unit 34 receives each of the four points (A1, B1, C1, and D1 and A2, B2, C2, and D2 of the captured image 100) input by the user as a projection relationship.

図4に戻って、射影変換部36により、射影関係受付部34で受け付けられた射影関係に基づいて、撮影画像100の損傷データDD1およびDD2が射影変換される(ステップS16:射影変換ステップ)。具体的には射影変換部36は、撮影画像100のA1、B1、C1、およびD1の4点を、図面データのA2、B2、C2、およびD2の4点に合わせる射影変換行列を算出し、算出した射影変換行列により損傷データ生成部32で検出した損傷データまたは編集部40で編集された損傷データを射影変換する。 Returning to FIG. 4, the projection conversion unit 36 projects the damage data DD1 and DD2 of the captured image 100 based on the projection relationship received by the projection relationship reception unit 34 (step S16: projection conversion step). Specifically, the projective conversion unit 36 calculates a projective conversion matrix that aligns the four points A1, B1, C1, and D1 of the captured image 100 with the four points A2, B2, C2, and D2 of the drawing data. The damage data detected by the damage data generation unit 32 or the damage data edited by the editing unit 40 is projected and converted by the calculated projection conversion matrix.

その後、出力部44により射影変換された損傷データが出力される(ステップS17:出力ステップ)。 After that, the projective-transformed damage data is output by the output unit 44 (step S17: output step).

上記実施形態において、各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。 In the above embodiment, the hardware structure of the processing unit that executes various processes is various processors as shown below. Programmable processors include CPUs, which are general-purpose processors that execute software (programs) and function as various processing units, and FPGAs (Field Programmable Gate Arrays), which can change the circuit configuration after manufacturing. A dedicated electric circuit which is a processor having a circuit configuration specially designed for executing a specific process such as a logic device (Programmable Logic Device: PLD) and an ASIC (Application Specific Integrated Circuit) is included.

1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種または異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。 One processing unit may be composed of one of these various processors, or may be composed of two or more processors of the same type or different types (for example, a plurality of FPGAs or a combination of a CPU and an FPGA). You may. Further, a plurality of processing units may be configured by one processor. As an example of configuring a plurality of processing units with one processor, first, one processor is configured by a combination of one or more CPUs and software, as represented by a computer such as a client or a server. There is a form in which the processor functions as a plurality of processing units. Secondly, as typified by System On Chip (SoC), there is a form in which a processor that realizes the functions of the entire system including a plurality of processing units with one IC (Integrated Circuit) chip is used. is there. As described above, the various processing units are configured by using one or more of the above-mentioned various processors as a hardware-like structure.

さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。 Further, the hardware structure of these various processors is, more specifically, an electric circuit (circuitry) in which circuit elements such as semiconductor elements are combined.

上記の各構成および機能は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって適宜実現可能である。例えば、上記の処理ステップ(処理手順)をコンピュータに実行させるプログラム、そのようなプログラムを記録したコンピュータ読み取り可能な記録媒体(非一時的記録媒体)、或いはそのようなプログラムをインストール可能なコンピュータに対しても本発明を適用することが可能である。 Each of the above configurations and functions can be appropriately realized by any hardware, software, or a combination of both. For example, for a program that causes a computer to perform the above processing steps, a computer-readable recording medium (non-temporary recording medium) that records such a program, or a computer on which such a program can be installed. However, it is possible to apply the present invention.

<第2の実施形態>
次に、本発明の第2の実施形態に関して説明する。
<Second embodiment>
Next, a second embodiment of the present invention will be described.

図6は、第2の実施形態における損傷データ編集装置20の構成例を示すブロック図である。なお、図2において既に説明を行った箇所は同じ符号を付して説明は省略する。損傷データ編集装置20は、主に、画像取得部22、図面データ取得部24、表示部26、操作部28、CPU30、および記憶部50を備える。 FIG. 6 is a block diagram showing a configuration example of the damage data editing device 20 according to the second embodiment. The parts already described in FIG. 2 are designated by the same reference numerals and the description thereof will be omitted. The damage data editing device 20 mainly includes an image acquisition unit 22, a drawing data acquisition unit 24, a display unit 26, an operation unit 28, a CPU 30, and a storage unit 50.

CPU30は、損傷データ生成部32、撮影画像合成部46、損傷データ合成部48、ミラーリング関係受付部52、射影関係受付部34、射影変換部36、ミラーリング部54、表示制御部38、編集部40、損傷図面データ作成部42、および出力部44を備える。 The CPU 30 includes a damage data generation unit 32, a captured image composition unit 46, a damage data composition unit 48, a mirroring-related reception unit 52, a projection-related reception unit 34, a projection conversion unit 36, a mirroring unit 54, a display control unit 38, and an editorial unit 40. , A damage drawing data creation unit 42, and an output unit 44.

撮影画像合成部46は、建造物の一区画を分割撮影することにより得られる複数の撮影画像を合成する。すなわち、撮影画像合成部46は、画像取得部22により複数の撮影画像が入力された場合に、入力された複数の撮影画像を合成する。撮影画像合成部46の画像合成は公知の技術を使用することにより行われ、例えば各撮影画像の特徴点を検出することにより撮影画像の合成を行う。また、撮影画像合成部46は、図面データに表される一区画に対応して撮影された複数の撮影画像を、一区画毎に合成を行ってもよい。例えば撮影画像合成部46は、一区画として格間が採用された複数の撮影画像が入力された場合には、格間毎に、撮影画像を合成してもよい。 The captured image synthesizing unit 46 synthesizes a plurality of captured images obtained by dividing and photographing a section of the building. That is, when a plurality of captured images are input by the image acquisition unit 22, the captured image synthesizing unit 46 synthesizes the input plurality of captured images. The image composition of the captured image synthesizing unit 46 is performed by using a known technique, for example, the captured images are synthesized by detecting the feature points of each captured image. Further, the photographed image synthesizing unit 46 may synthesize a plurality of photographed images photographed corresponding to one section represented by the drawing data for each section. For example, the captured image synthesizing unit 46 may synthesize captured images for each coffer when a plurality of captured images in which coffers are adopted as one section are input.

損傷データ生成部32は、画像取得部22において複数の撮影画像が取得された場合においても、複数の撮影画像の各々について、損傷を検出し損傷データを生成する。すなわち、損傷データ生成部32は、画像取得部22により複数の画像が取得された場合であっても、合成される前の取得された各撮影画像に対して画像処理を行い、損傷データを生成する。これにより、画像合成の影響により、損傷の検出精度の低下を抑制することができる。 The damage data generation unit 32 detects damage and generates damage data for each of the plurality of captured images even when a plurality of captured images are acquired by the image acquisition unit 22. That is, even when a plurality of images are acquired by the image acquisition unit 22, the damage data generation unit 32 performs image processing on each acquired image before being combined to generate damage data. To do. As a result, it is possible to suppress a decrease in damage detection accuracy due to the influence of image composition.

損傷データ合成部48は、撮影画像合成部46で合成された複数の撮影画像の合成情報に基づいて、損傷データを合成する。すなわち、損傷データ合成部48は、撮影画像合成部46において合成される場合の合成情報(例えば合成する際の各撮影画像の重なり、特徴点の座標等)に基づいて、各撮影画像において生成された損傷データを合成する。また損傷データ合成部48は、一区画毎に複数の撮影画像の合成を行ってもよい。例えば損傷データ合成部48は、一区画として格間が採用されている場合には、格間毎に損傷データを合成する。 The damage data synthesizing unit 48 synthesizes damage data based on the composite information of a plurality of captured images synthesized by the captured image synthesizing unit 46. That is, the damage data compositing unit 48 is generated in each captured image based on the compositing information (for example, the overlap of the captured images at the time of compositing, the coordinates of the feature points, etc.) when the captured image compositing unit 46 synthesizes. Combine the damage data. Further, the damage data synthesizing unit 48 may synthesize a plurality of captured images for each section. For example, the damage data synthesizing unit 48 synthesizes damage data for each coffer when a coffer is adopted as one section.

ミラーリング関係受付部52は、表示部26に表示された撮影画像と図面データ取得部24で取得された図面データとのミラーリング関係の入力を受け付ける。ミラーリング関係の入力は、例えばユーザにより、表示部26に表示された撮影画像と図面データとの対応する各4点がポインティングデバイスにより指定されることにより行われる。 The mirroring-related reception unit 52 receives an input related to mirroring between the captured image displayed on the display unit 26 and the drawing data acquired by the drawing data acquisition unit 24. The mirroring-related input is performed, for example, by the user designating each of the four corresponding points of the captured image displayed on the display unit 26 and the drawing data by the pointing device.

ミラーリング部54は、ミラーリング関係受付部52で受け付けられたミラーリング関係に基づいて、損傷データをミラーリングする。なお、ミラーリングは、鏡映反転ともいう。ミラーリングの中心となる軸(以下「ミラーリング軸」という)の方向は、画像の上下方向には限定されない。つまりミラーリングは、いわゆる左右反転には限定されない。ミラーリングは、左右反転以外の反転(例えば上下反転)を含む。本発明におけるミラーリングは、ミラーリング軸を中心として損傷データを反転させる画像処理であるといえる。ミラーリング軸の方向は、ミラーリング部54により、入力された撮影画像を画像解析して、決定することができる。また、本発明のミラーリングは、ミラーリング軸の方向を固定にした態様と、ミラーリング軸の方向を可変にした態様とがある。本明細書において、後者の方向可変の態様は後に詳説する。 The mirroring unit 54 mirrors the damage data based on the mirroring relationship received by the mirroring relationship reception unit 52. Mirroring is also referred to as reflection reversal. The direction of the axis that is the center of mirroring (hereinafter referred to as "mirroring axis") is not limited to the vertical direction of the image. That is, mirroring is not limited to so-called left-right reversal. Mirroring includes inversion other than left-right inversion (for example, upside-down inversion). It can be said that the mirroring in the present invention is an image process that inverts the damage data about the mirroring axis. The direction of the mirroring axis can be determined by image analysis of the input captured image by the mirroring unit 54. Further, the mirroring of the present invention has a mode in which the direction of the mirroring shaft is fixed and a mode in which the direction of the mirroring shaft is variable. In the present specification, the latter mode of variable direction will be described in detail later.

このようなミラーリングについて、図7および図8を用いて説明する。図7に示すように、仮に床版6の上面に描かれた「F」の文字を床版6の下側から透視したとすると、実際には「F」を上下反転した形状に見える。これは「F」が非線対称の形状を有するからである。同様に、一般的な損傷(例えばひび割れ)は、非線対称の形状を有するため、橋梁1の下側から床版6を撮影して得られた画像中の損傷の形状と、橋梁1の上側から床版6を透視して見た場合の損傷の形状とは、互いにミラーリングの関係になることが分かる。そこで、図8に示すように、橋梁1の下側から撮影して得られた撮影画像IMG1を、ミラーリングにより、橋梁1の上側から見た画像に相当する鏡映画像IMG2に変換する。そうすると、損傷の形状は、橋梁1の下側から見た場合の形状(図8では「F」を上下反転した形状)から、橋梁1の上側から見た形状(図8では「F」の形状)に変換される。画像中の損傷の位置も、ミラーリングにより、撮影側から見た場合の位置から、撮影側とは反対側から見た場合の位置に変換できることが分かる。 Such mirroring will be described with reference to FIGS. 7 and 8. As shown in FIG. 7, if the letter "F" drawn on the upper surface of the floor slab 6 is seen through from the lower side of the floor slab 6, it actually looks like the "F" is turned upside down. This is because "F" has a non-axisymmetric shape. Similarly, since general damage (for example, cracks) has a non-axisymmetric shape, the shape of the damage in the image obtained by photographing the floor slab 6 from the lower side of the bridge 1 and the upper side of the bridge 1 It can be seen that the shape of the damage when the floor slab 6 is viewed through is in a mirroring relationship with each other. Therefore, as shown in FIG. 8, the photographed image IMG1 obtained by photographing from the lower side of the bridge 1 is converted into the mirrored image IMG2 corresponding to the image seen from the upper side of the bridge 1 by mirroring. Then, the shape of the damage is changed from the shape seen from the lower side of the bridge 1 (the shape in which "F" is turned upside down in FIG. 8) to the shape seen from the upper side of the bridge 1 (the shape of "F" in FIG. 8). ) Is converted to. It can be seen that the position of damage in the image can also be changed from the position when viewed from the shooting side to the position when viewed from the side opposite to the shooting side by mirroring.

図8に示した例では、橋梁1を基準とした全体座標系の座標軸Gxの方向と撮影画像IMG1の左右方向(x方向)とがマッチングしているため、ミラーリングとして撮影画像IMG1を上下反転したが、例えば全体座標系の座標軸Gxの方向と撮影画像IMG1の上下方向(y方向)とがマッチングしている場合には、ミラーリングとして撮影画像IMG1を左右反転させる。 In the example shown in FIG. 8, since the direction of the coordinate axis Gx of the overall coordinate system with respect to the bridge 1 and the left-right direction (x direction) of the captured image IMG1 match, the captured image IMG1 is turned upside down as mirroring. However, for example, when the direction of the coordinate axis Gx of the overall coordinate system and the vertical direction (y direction) of the captured image IMG1 match, the captured image IMG1 is flipped horizontally as mirroring.

損傷図面データ作成部42は、射影変換部36で射影変換された損傷データと損傷データに対応する図面データとが重畳された損傷図面データ(損傷図)を作成する。また、損傷図面データ作成部42は、操作部28により入力された各種の情報を、損傷図面データに追加することができる。 The damage drawing data creation unit 42 creates damage drawing data (damage diagram) in which the damage data projected by the projective conversion unit 36 and the drawing data corresponding to the damage data are superimposed. In addition, the damage drawing data creation unit 42 can add various information input by the operation unit 28 to the damage drawing data.

損傷図面データ作成部42は、入力された点検結果情報を損傷図面データに追加する。例えば、損傷の種類、および損傷程度の評価区分(「ランク情報」ともいう)を、操作部28を介して入力されると、損傷図面データ作成部42は、損傷図面データに追加する。なお、点検結果情報の「入力」は、予め決められた候補から選択する形式の入力である「選択入力」でもよい。 The damage drawing data creation unit 42 adds the input inspection result information to the damage drawing data. For example, when the type of damage and the evaluation classification of the degree of damage (also referred to as “rank information”) are input via the operation unit 28, the damage drawing data creation unit 42 adds to the damage drawing data. The "input" of the inspection result information may be "selection input" which is an input in a format for selecting from predetermined candidates.

また、損傷図面データ作成部42は、損傷データまたは撮影画像に基づいて損傷の特徴量を計測する特徴量計測機能を有する。損傷図面データ作成部42は、計測した特徴量を示す情報を損傷図面データに追加する。例えば、橋梁1の床版6の損傷データ中におけるひび割れ画像の幅、長さ、および間隔を局所座標系の寸法として検出し、その局所座標系の寸法を全体座標系の寸法に換算する。表示制御部38は、計測された損傷の特徴量と鏡映画像とを、表示部26に表示させる。 In addition, the damage drawing data creation unit 42 has a feature amount measuring function for measuring the feature amount of damage based on the damage data or the photographed image. The damage drawing data creation unit 42 adds information indicating the measured feature amount to the damage drawing data. For example, the width, length, and spacing of the crack image in the damage data of the floor slab 6 of the bridge 1 are detected as the dimensions of the local coordinate system, and the dimensions of the local coordinate system are converted into the dimensions of the overall coordinate system. The display control unit 38 causes the display unit 26 to display the measured feature amount of damage and the mirrored image.

出力部44は、ミラーリングおよび射影変換された損傷データを出力する。また、損傷図面データ作成部42で損傷図面データが作成された場合には、出力部44は損傷図面データを出力する。 The output unit 44 outputs the mirrored and projective-transformed damage data. When the damage drawing data creation unit 42 creates the damage drawing data, the output unit 44 outputs the damage drawing data.

以下に、損傷図面データ作成部42で損傷図面データが作成された場合の出力部44で出力される損傷図面データに関して説明する。なお損傷図面データとは損傷図を表すデータのことである。 The damage drawing data output by the output unit 44 when the damage drawing data is created by the damage drawing data creation unit 42 will be described below. The damage drawing data is data representing the damage drawing.

図9は、損傷図面データの例を示す図である。この損傷図面データは、点検対象である橋梁1の床版6に生じた各損傷について、格間ごとに、ひび割れ、漏水、遊離石灰といった損傷を示す損傷データと、部材名(本例では「床版」)と、要素番号(Ds0101〜Ds0104、Ds0201〜Ds0204)と、損傷の種類(「ひび割れ」、「漏水」、「遊離石灰」等)と、損傷程度の評価区分(「ランク情報」ともいう)と、損傷の特徴量(例えばひび割れの幅、間隔)とが記載されたものである。本図では、損傷程度として評価区分を、アルファベットの「a」〜「e」により、五段階で表している。 FIG. 9 is a diagram showing an example of damage drawing data. This damage drawing data shows damage data such as cracks, water leaks, and free lime for each damage that occurred on the floor slab 6 of the bridge 1 to be inspected, and the member name (in this example, "floor". Plate "), element number (Ds0101 to Ds0104, Ds0201 to Ds0204), type of damage ("crack", "leakage", "free lime", etc.), and evaluation classification of the degree of damage (also called "rank information"). ) And the characteristic amount of damage (for example, the width and interval of cracks) are described. In this figure, the evaluation classification as the degree of damage is represented by the alphabets "a" to "e" in five stages.

さらに、図10は、図9に示した損傷図面データを反転した反転損傷図面データの例を示す図である。図10に示した反転損傷図面データは、ミラーリング部54によりミラーリングされた損傷データにより構成される。また、図面データもミラーリング部54によりミラーリングされている。本発明では、撮影された側からの損傷図面データ(図9)と、撮影された側の反対側から見た反転損傷図面データ(図10)を構成する損傷データへの編集(加工)が可能である。 Further, FIG. 10 is a diagram showing an example of inverted damage drawing data in which the damage drawing data shown in FIG. 9 is inverted. The inverted damage drawing data shown in FIG. 10 is composed of damage data mirrored by the mirroring unit 54. The drawing data is also mirrored by the mirroring unit 54. In the present invention, it is possible to edit (process) the damage drawing data (FIG. 9) from the photographed side and the damage data constituting the inverted damage drawing data (FIG. 10) viewed from the opposite side of the photographed side. Is.

図10に示した反転損傷図面データは、CAD図面、損傷データといった非テキスト成分をミラーリング部54によりミラーリングされている。また、部材名、要素番号、損傷の種類、ランク情報、損傷の特徴量といったテキスト成分をミラーリングせずに図中の位置を損傷図面データ作成部42で変更している。 In the inverted damage drawing data shown in FIG. 10, non-text components such as CAD drawings and damage data are mirrored by the mirroring unit 54. Further, the damage drawing data creation unit 42 changes the position in the drawing without mirroring the text components such as the member name, the element number, the type of damage, the rank information, and the feature amount of damage.

図11は、第2の実施形態の損傷データ編集装置20の動作フローを示すフローチャートである。 FIG. 11 is a flowchart showing an operation flow of the damage data editing device 20 of the second embodiment.

先ず、画像取得部22は、撮影装置10により撮影された複数の撮影画像を取得する(ステップS20)。その後、損傷データ生成部32は、各撮影画像に対して画像処理を行うことにより、撮影画像に写っている損傷を検出し、その検出に基づいて損傷データを生成する(ステップS21)。 First, the image acquisition unit 22 acquires a plurality of captured images captured by the photographing device 10 (step S20). After that, the damage data generation unit 32 detects the damage appearing in the captured image by performing image processing on each captured image, and generates damage data based on the detection (step S21).

次に、撮影画像合成部46により取得された複数の各撮影画像が合成される(ステップS22)。そして、撮影画像合成部46により撮影画像が合成された結果に基づいて、損傷データ合成部48により、損傷データが合成される(ステップS23)。 Next, the plurality of captured images acquired by the captured image synthesizing unit 46 are combined (step S22). Then, based on the result of synthesizing the captured image by the captured image synthesizing unit 46, the damage data synthesizing unit 48 synthesizes the damage data (step S23).

その後、表示制御部38により、撮影画像と検出された損傷データとを表示部26にオーバレイ表示する(ステップS24)。 After that, the display control unit 38 overlays the captured image and the detected damage data on the display unit 26 (step S24).

ユーザは、表示部26に表示された撮影画像と損傷データとを確認しながら、表示部26に表示された損傷データの編集の指令を例えばパソコンに接続されているマウスにより入力し、編集部40は入力された編集指令に基づいて損傷データを編集する(ステップS25)。 While checking the captured image and the damage data displayed on the display unit 26, the user inputs a command for editing the damage data displayed on the display unit 26, for example, with a mouse connected to a personal computer, and the editorial unit 40 Edits the damage data based on the input editing command (step S25).

次に、図面データ取得部24により図面データが取得される(ステップS26)。例えば、図面データ取得部24により、図面データとして橋梁1を示すCAD図面が入力される。図12は、CAD図面の一例を示す図である。図中の「DsXXXX」(Ds0101〜Ds0105およびDs0201〜DS0205)は、橋梁1の床版6の要素である格間を識別する要素番号である。ここで「Ds」は、「床版」を表わす記号であり、「XXXX」は、床版6のうちの主桁2と横桁3とで囲まれた範囲である格間の格子状配列位置を示す番号である。言い換えると、本例の床版6は、格子状配列の複数の格間によって構成されており、格間毎に要素番号が付与されている。本例のCAD図面80は、格間の矩形枠情報を含んでいる。図中の要素番号DsXXXXは、表示部26での表示を省略してもよい。 Next, the drawing data acquisition unit 24 acquires the drawing data (step S26). For example, the drawing data acquisition unit 24 inputs a CAD drawing showing the bridge 1 as drawing data. FIG. 12 is a diagram showing an example of a CAD drawing. “DsXXXXX” (Ds0101 to Ds0105 and Ds0201 to DS0205) in the figure is an element number for identifying the coffer, which is an element of the floor slab 6 of the bridge 1. Here, "Ds" is a symbol representing "floor slab", and "XXXX" is a grid-like arrangement position of coffers which is a range surrounded by the main girder 2 and the horizontal girder 3 of the floor slab 6. It is a number indicating. In other words, the floor slab 6 of this example is composed of a plurality of coffers in a grid pattern, and an element number is assigned to each coffer. The CAD drawing 80 of this example includes information on a rectangular frame between coffers. The element number DsXXXXX in the figure may be omitted from the display unit 26.

図11に戻って、射影関係受付部34により、射影関係の入力が受け付けられて、ミラーリング関係受付部52により、ミラーリング関係の入力が受け付けられる(ステップS27)。 Returning to FIG. 11, the projection-related input is received by the projection-related reception unit 34, and the mirroring-related input is received by the mirroring-related reception unit 52 (step S27).

図13は、射影関係受付部34およびミラーリング関係受付部52で受け付けられる射影関係およびミラーリング関係の入力の具体例を説明する図である。なお、図13に示す場合では、射影関係とミラーリング関係とが同時に入力される例である。 FIG. 13 is a diagram illustrating a specific example of the projection-related and mirroring-related inputs received by the projection-related reception unit 34 and the mirroring-related reception unit 52. In the case shown in FIG. 13, the projection relationship and the mirroring relationship are input at the same time.

表示制御部38により、表示部26に点検対象である橋脚7の撮影画像102が表示され、また建造物のCAD図面80が表示されている。撮影画像102は、床版6の格間が撮影されており、床版6には損傷(ひび割れ)が発生している。また損傷データ生成部32が撮影画像102を画像解析して、ひび割れを検出し生成した損傷データDD3が重畳的に表示されている。すなわち、損傷データDD3は、撮影画像102の損傷にオーバレイ表示されている。 The display control unit 38 displays a photographed image 102 of the pier 7 to be inspected on the display unit 26, and also displays a CAD drawing 80 of the building. In the photographed image 102, the coffer of the floor slab 6 is photographed, and the floor slab 6 is damaged (cracked). Further, the damage data generation unit 32 analyzes the captured image 102 to detect cracks, and the damage data DD3 generated is displayed in a superimposed manner. That is, the damage data DD3 is overlaid on the damage of the captured image 102.

例えばユーザは、表示部26に表示された撮影画像100と橋脚7のCAD図面において、コンピュータのポインティングデバイスにより、矩形の4点に対応する点を入力する。すなわち、撮影画像100のA1、B1、C1、およびD1の4点を指定して入力し、CAD図面において対応するA2、B2、C2、およびD2の4点を指定して入力する。この入力は、射影関係の入力と同時にミラーリング関係の入力である。 For example, in the captured image 100 and the CAD drawing of the pier 7 displayed on the display unit 26, the user inputs points corresponding to four rectangular points by a pointing device of a computer. That is, the four points A1, B1, C1, and D1 of the captured image 100 are designated and input, and the corresponding four points A2, B2, C2, and D2 in the CAD drawing are designated and input. This input is a mirroring-related input at the same time as a projection-related input.

次に射影変換部36により、射影関係受付部34で受け付けられた射影関係に基づいて、撮影画像100の損傷データDD3が射影変換およびミラーリングされる(ステップS28)。例えば、損傷データDD3が射影変換されると損傷データDD4のようになる。 Next, the projective conversion unit 36 projects and mirrors the damage data DD3 of the captured image 100 based on the projective relationship received by the projective relationship reception unit 34 (step S28). For example, when the damage data DD3 is projected and transformed, it becomes the damage data DD4.

図14は、ミラーリング部54により行われる、各損傷データのミラーリングに関して説明する図である。図14は、ミラーリングされる前の格間の損傷データDD5を示す。この損傷データDD5は、橋梁1の下側から見た損傷状態を示す画像であって、床版6のうちの一つの格間の損傷状態を示す画像である。図15は、図14の損傷データDD5をミラーリングして得られた損傷データDD6を示す図である。本例では、橋梁1を基準とした全体座標系の座標軸Gxと損傷データDD5の左右方向(x方向)とがマッチングしているので、損傷データDD5をミラーリングとして上下反転することにより、損傷データDD6が取得される。つまり、本例でのミラーリング軸MAxの方向は、損傷データDD5の左右方向(x方向)である。 FIG. 14 is a diagram illustrating mirroring of each damage data performed by the mirroring unit 54. FIG. 14 shows the coffer damage data DD5 before mirroring. The damage data DD5 is an image showing the damage state seen from the lower side of the bridge 1, and is an image showing the damage state of one of the coffers 6 of the floor slab 6. FIG. 15 is a diagram showing damage data DD6 obtained by mirroring the damage data DD5 of FIG. In this example, since the coordinate axes Gx of the overall coordinate system with respect to the bridge 1 and the left-right direction (x direction) of the damage data DD5 match, the damage data DD6 is inverted by turning the damage data DD5 upside down as mirroring. Is obtained. That is, the direction of the mirroring axis MAX in this example is the left-right direction (x direction) of the damage data DD5.

図11に戻って、その後、出力部44により射影変換された損傷データで構成される損傷図面データを出力する(ステップS29)。 Returning to FIG. 11, after that, the damage drawing data composed of the damage data projected and transformed by the output unit 44 is output (step S29).

ここで、損傷図面データ作成部42で行われる損傷図面データの作成に関して具体例を説明する。 Here, a specific example will be described with respect to the creation of the damage drawing data performed by the damage drawing data creation unit 42.

図16は、損傷図面データ作成部42で行われる損傷図面データの作成に関して説明する図である。損傷図面データ作成部42により生成された損傷データDD6をCAD図面80に重ね合わせて表示させた損傷図面データが表示部26に表示される。図16は、図12に示したCAD図面80に、図15に示した損傷データDD6を重ね合わせて表示した例を示す。なおCAD図面80と損傷データDD6との位置合わせは、公知の技術により行われる。例えば、CAD図面80が有する座標データと損傷データDD6が有する座標データに基づいて、CAD図面80と損傷データDD6との位置合わせが行われる。 FIG. 16 is a diagram illustrating the creation of damage drawing data performed by the damage drawing data creation unit 42. The damage drawing data in which the damage data DD6 generated by the damage drawing data creation unit 42 is superimposed on the CAD drawing 80 and displayed is displayed on the display unit 26. FIG. 16 shows an example in which the damage data DD6 shown in FIG. 15 is superimposed and displayed on the CAD drawing 80 shown in FIG. The alignment of the CAD drawing 80 and the damage data DD6 is performed by a known technique. For example, the CAD drawing 80 and the damage data DD6 are aligned based on the coordinate data of the CAD drawing 80 and the coordinate data of the damage data DD6.

次に、損傷図面データ作成部42により、損傷データDD6に基づいて、損傷の特徴量を計測する。例えば、ひび割れの幅および間隔が、特徴量として計測される。 Next, the damage drawing data creation unit 42 measures the feature amount of the damage based on the damage data DD6. For example, the width and spacing of cracks are measured as features.

次に、損傷図面データ作成部42により、損傷図面データの各要素に関する編集が行われる。図17は、床版6の要素番号Ds0202が付与された格間に関する編集画面の表示例を示す図である。本例では、表示部26に、CAD図面80および損傷データDD6を表示させると同時に、損傷リスト82を表示させている。本例では、要素番号Ds0202の格間に、損傷データDD6に基づいてひび割れが検出されているので、その「種別」(損傷の種類)である「ひび割れ」が損傷図面データ作成部42により損傷リスト82に自動的に記入される。また、要素番号Ds0202の格間の「ひび割れ」の特徴量として、損傷図面データ作成部42により「ひび割れ」の幅および間隔が計測されているので、損傷図面データ作成部42により損傷リスト82の「寸法」の欄に自動的に記入される。損傷図面データ作成部42により自動的に記入されなかった項目は、操作部28によりユーザが入力することができる。例えば、損傷データDD6において漏水および遊離石灰を視認できる場合、その種別である「漏水+遊離石灰」をユーザが操作部28を介して入力することができる。 Next, the damage drawing data creation unit 42 edits each element of the damage drawing data. FIG. 17 is a diagram showing a display example of an edit screen relating to a coffer to which the element number Ds0202 of the floor slab 6 is assigned. In this example, the display unit 26 displays the CAD drawing 80 and the damage data DD6, and at the same time, displays the damage list 82. In this example, since a crack is detected in the coffer of the element number Ds0202 based on the damage data DD6, the "crack" which is the "type" (type of damage) is the damage list by the damage drawing data creation unit 42. It is automatically filled in 82. Further, since the width and interval of the "cracks" are measured by the damage drawing data creation unit 42 as the feature amount of the "cracks" between the coffers of the element number Ds0202, the damage drawing data creation unit 42 measures the "cracks" in the damage list 82. It is automatically filled in the "Dimensions" field. Items that are not automatically filled in by the damage drawing data creation unit 42 can be input by the user by the operation unit 28. For example, when water leakage and free lime can be visually recognized in the damage data DD6, the user can input the type “water leakage + free lime” via the operation unit 28.

また、自動的に未検出のひび割れが損傷データDD6中に視認できる場合、そのひび割れの種別および寸法を操作部28を介してユーザが入力することができる。なお、図17では図示しなかったが、ひび割れの寸法を計測するためのスケール画像を表示部26に表示させることができ、そのスケール画像を用いて未検出のひび割れの寸法を計測することが可能である。未検出のひび割れを損傷図面データに反映させるため、損傷データDD6中の損傷画像に対して、操作部28によりトレース操作を行うことができる。例えば、操作部28がタッチパネルにより構成されている場合、損傷データDD6中のひび割れ画像を指あるいはペンでトレースすると、そのトレースの軌跡が損傷データとして損傷図面データに追加される。ここで、CAD図面80における損傷データDD6中のひび割れ画像の形状および位置は、橋梁1を上側(撮影側とは反対側である)から見た場合の実際のひび割れの形状および位置に相当するので、容易且つ正確に入力することができる。 Further, when an undetected crack is automatically visible in the damage data DD6, the user can input the type and size of the crack via the operation unit 28. Although not shown in FIG. 17, a scale image for measuring the size of the crack can be displayed on the display unit 26, and the size of the undetected crack can be measured using the scale image. Is. In order to reflect the undetected cracks in the damage drawing data, the operation unit 28 can perform a trace operation on the damage image in the damage data DD6. For example, when the operation unit 28 is composed of a touch panel, when the crack image in the damage data DD6 is traced with a finger or a pen, the trace of the trace is added to the damage drawing data as damage data. Here, since the shape and position of the crack image in the damage data DD6 in the CAD drawing 80 correspond to the actual shape and position of the crack when the bridge 1 is viewed from the upper side (the side opposite to the photographing side). , Easy and accurate input.

損傷リスト82の「区分」は、損傷程度の評価区分(「ランク情報」ともいう)を入力するための欄である。図18は、床版6におけるひび割れの進行モデルの一例を模式的に示す図である。この進行モデルでは、評価区分RANKが「a」〜「e」の五段階で表される。各評価区分RANKとひび割れ状態STATEとの対応関係は次の通りである。 The “category” of the damage list 82 is a column for inputting an evaluation category (also referred to as “rank information”) of the degree of damage. FIG. 18 is a diagram schematically showing an example of a crack progress model in the floor slab 6. In this progression model, the evaluation category RANK is represented by five stages from "a" to "e". The correspondence between each evaluation category RANK and the cracked state STATE is as follows.

a:損傷なし。 a: No damage.

b:横方向(車輌の通行方向に直交する短手方向)に沿って複数のひび割れが並列に発生した状態である。乾燥収縮による複数のひび割れが並列の梁状になる段階である。 b: A state in which a plurality of cracks are generated in parallel along the lateral direction (the short direction orthogonal to the traffic direction of the vehicle). This is the stage where multiple cracks due to drying shrinkage form parallel beams.

c:縦方向(車輌の通行方向に平行な長手方向)のひび割れおよび横方向のひび割れが互いに交差した状態である。活荷重により複数のひび割れが格子状になり、その格子状の領域のひび割れ密度が増加する段階である。後半時期には、ひび割れが床版6の上下方向(床版下面に直交する垂直方向)で貫通する。 c: A state in which cracks in the vertical direction (longitudinal direction parallel to the traffic direction of the vehicle) and cracks in the horizontal direction intersect each other. This is a stage in which a plurality of cracks are formed into a grid pattern due to live load, and the crack density in the grid pattern region is increased. In the latter half of the period, cracks penetrate the floor slab 6 in the vertical direction (vertical direction orthogonal to the lower surface of the floor slab).

d:格子状の領域のひび割れ密度が規定値を超え、貫通した複数のひび割れの破面同士が平滑化された状態である。摺り磨き作用により床版6がせん断抵抗を失う段階である。 d: A state in which the crack density of the grid-like region exceeds a specified value and the fracture surfaces of a plurality of cracks that have penetrated are smoothed. This is the stage where the floor slab 6 loses its shear resistance due to the rubbing action.

e:抜け落ちが生じた状態である。低下した押抜きせん断強度を超える輪荷重により抜け落ちが生じる。 e: A state in which omission has occurred. Falling out occurs due to a wheel load that exceeds the reduced punching shear strength.

このように損傷図面データ作成部42により、損傷図面データの全体に関する編集が行われる。また例えば、損傷図面データ作成部42により、損傷図面データに床版6の全体に関する健全性の判定区分を操作部28を介して入力されてもよい。 In this way, the damage drawing data creation unit 42 edits the entire damage drawing data. Further, for example, the damage drawing data creation unit 42 may input the soundness determination classification for the entire floor slab 6 into the damage drawing data via the operation unit 28.

次に、損傷図面データ作成部42で編集が完了した損傷図面データを出力部44が出力する。損傷図面データは、表示制御部38により表示部26に表示出力させることができるほか、ネットワークを介してプリンタ(図示を省略)に印刷出力させることができる。例えば、図9に示した損傷図面データがプリンタにより印刷出力される。また、損傷図面データは、ネットワークを介してデータベース(図示を省略)にアップロードすることができる。 Next, the output unit 44 outputs the damage drawing data that has been edited by the damage drawing data creation unit 42. The damaged drawing data can be displayed and output to the display unit 26 by the display control unit 38, and can be printed and output to a printer (not shown) via the network. For example, the damaged drawing data shown in FIG. 9 is printed out by a printer. In addition, the damage drawing data can be uploaded to a database (not shown) via a network.

<ミラーリングのバリエーション>
前述の第2の実施形態では、本発明の理解を容易にするため、ミラーリング軸の方向が固定である場合を例に説明したが、本発明はそのようなミラーリング軸の方向が固定である場合に限定されない。本発明は、ミラーリング軸の方向を可変にした構成でもよい。
<Variations of mirroring>
In the second embodiment described above, in order to facilitate understanding of the present invention, a case where the direction of the mirroring axis is fixed has been described as an example, but the present invention has a case where the direction of such a mirroring axis is fixed. Not limited to. The present invention may have a configuration in which the direction of the mirroring axis is variable.

ミラーリング部54は、各種の情報に基づいて、ミラーリング軸の方向を決定する機能を有する。ミラーリング部54は、決定した方向のミラーリング軸を中心としてミラーリングを行う。 The mirroring unit 54 has a function of determining the direction of the mirroring axis based on various information. The mirroring unit 54 performs mirroring around the mirroring axis in the determined direction.

第1に、画像取得部22により入力された画像(ミラーリング前の画像である)を画像解析して、その画像解析の結果に基づいてミラーリング軸の方向を決定する態様がある。 First, there is an embodiment in which an image (an image before mirroring) input by the image acquisition unit 22 is image-analyzed, and the direction of the mirroring axis is determined based on the result of the image analysis.

図19は、格間が撮影された撮影画像を示す図である。例えば、図19に示す、床版6の格間の撮影画像IMG21を取得したとする。この撮影画像IMG21は、格間の縁部の画像EG(以下「縁部画像」という)を含む。実空間において、格間の縁部の形状は矩形であり、その矩形を構成する互いに直交する二辺は一般に長さが異なる。つまり縁部の矩形は、互いに直交する長辺と短辺とを有する。また、実空間において、縁部の矩形の互いに直交する二辺は、橋梁1を基準とした全体座標系における二つの座標軸Gx、Gyと方向が一致している。そこで、ミラーリング部54は、撮影画像IMG21から縁部画像を検出し、その縁部画像を必要に応じて矩形に射影変換した後、その矩形の互いに直交する長辺および短辺のうちいずれか一辺の方向に基づいて、ミラーリング軸の方向を決定することができる。もっとも、本発明の撮影対象(点検対象である)は床版6の格間に限定されず、他の撮影対象の幾何学的特徴に基づいてミラーリング軸の方向を決定してよいことは、言うまでもない。 FIG. 19 is a diagram showing a photographed image in which the coffer was photographed. For example, it is assumed that the captured image IMG21 of the coffer of the floor slab 6 shown in FIG. 19 is acquired. The captured image IMG 21 includes an image EG of the edge of the coffer (hereinafter referred to as “edge image”). In real space, the shape of the edges of the coffers is rectangular, and the two orthogonal sides that make up the rectangle generally have different lengths. That is, the rectangle at the edge has a long side and a short side that are orthogonal to each other. Further, in the real space, the two orthogonal sides of the rectangular edges are in the same direction as the two coordinate axes Gx and Gy in the overall coordinate system with respect to the bridge 1. Therefore, the mirroring unit 54 detects an edge image from the captured image IMG21, projects the edge image into a rectangle as necessary, and then projects one of the long side and the short side orthogonal to each other of the rectangle. The direction of the mirroring axis can be determined based on the direction of. However, it goes without saying that the imaging object (inspection object) of the present invention is not limited to the coffer of the floor slab 6, and the direction of the mirroring axis may be determined based on the geometrical features of other imaging objects. No.

第2に、建造物を基準にした全体座標系(「第1の座標系」である)の座標軸と、画像を撮影した撮影装置10を基準にした局所座標系(「第2の座標系」である)の座標軸とがなす角度に基づいて、ミラーリング軸の方向を決定する態様がある。 Second, the coordinate axes of the overall coordinate system (“first coordinate system”) based on the building and the local coordinate system (“second coordinate system”) based on the photographing device 10 that captured the image. There is an embodiment in which the direction of the mirroring axis is determined based on the angle formed by the coordinate axes of).

例えば、図20に示すようにロボット装置90に搭載された撮影装置10により撮影して得られた画像が画像取得部22により入力され、かつロボット装置90の撮影装置制御に従った撮影装置制御情報が画像取得部22により入力される。この撮影装置制御情報には、図21に示すように、橋梁1を基準にした全体座標系の座標軸Gx、Gy、Gzと、撮影装置10を基準にした局所座標系の座標軸Lx、Ly、Lzとがなす角度を示す角度情報が含まれる。本例の局所座標系において、互いに直交する三つの座標軸Lx、Ly、Lzのうち一つの座標軸Lzは、撮影装置10の撮影方向(光軸方向ともいう)であり、かつ橋梁1の床版6(被撮影面である)と直交する。つまり、本例では、全体座標系の一つの座標軸Gzの方向と局所座標系の一つの座標軸Lzの方向とが一致している。 For example, as shown in FIG. 20, an image obtained by being photographed by the photographing device 10 mounted on the robot device 90 is input by the image acquisition unit 22, and the photographing device control information according to the photographing device control of the robot device 90. Is input by the image acquisition unit 22. As shown in FIG. 21, the imaging device control information includes the coordinate axes Gx, Gy, Gz of the entire coordinate system based on the bridge 1 and the coordinate axes Lx, Ly, Lz of the local coordinate system based on the imaging device 10. It contains angle information that indicates the angle between the two. In the local coordinate system of this example, the coordinate axis Lz of one of the three coordinate axes Lx, Ly, and Lz orthogonal to each other is the photographing direction (also referred to as the optical axis direction) of the photographing apparatus 10 and the floor slab 6 of the bridge 1. It is orthogonal to (the surface to be photographed). That is, in this example, the direction of one coordinate axis Gz in the overall coordinate system and the direction of one coordinate axis Lz in the local coordinate system coincide with each other.

本例のロボット装置90は、橋梁1に懸垂した懸垂式ロボットであり、図20ではその撮影に関する要部のみを示した。なお、懸垂式ロボットは、橋梁1に懸垂する代わりに、橋梁上の走行体(車輌)に懸垂する方式のロボットでもよい。また、懸垂式ロボットの代わりに、ドローン(無人飛行体)等の無人飛行式ロボットを用いる場合にも本発明を適用可能である。 The robot device 90 of this example is a suspension type robot suspended from the bridge 1, and FIG. 20 shows only the main parts related to the photographing. The suspension type robot may be a robot that suspends from a traveling body (vehicle) on the bridge instead of suspending from the bridge 1. The present invention can also be applied when an unmanned aerial vehicle such as a drone (unmanned aerial vehicle) is used instead of the suspended robot.

本例のロボット装置90は、撮影装置10の移動および回動の制御を行う撮影装置制御機構92を備える。この撮影装置制御機構92は、撮影装置10を互いに直交するGx方向、Gy方向およびGz方向のそれぞれで移動可能なXYZ移動機構と、撮影装置10をパン方向Pおよびチルト方向Tのそれぞれで回動可能なパンチルト機構とを兼ねている。 The robot device 90 of this example includes a photographing device control mechanism 92 that controls the movement and rotation of the photographing device 10. The photographing device control mechanism 92 has an XYZ moving mechanism capable of moving the photographing device 10 in each of the Gx direction, the Gy direction, and the Gz direction orthogonal to each other, and the photographing device 10 is rotated in each of the pan direction P and the tilt direction T. It also serves as a possible pan-tilt mechanism.

ミラーリング部54は、全体座標系の座標軸Gx(またはGy)と局所座標系の座標軸Lx(またはLy)とでなす角度を示す角度情報に基づいて、ミラーリング軸の方向を決定することが可能である。 The mirroring unit 54 can determine the direction of the mirroring axis based on the angle information indicating the angle formed by the coordinate axis Gx (or Gy) of the global coordinate system and the coordinate axis Lx (or Ly) of the local coordinate system. ..

また、撮影装置10をパン方向Pに回動させる場合、つまり橋梁1を基準とした全体座標系に対して撮影装置10の方位角度が可変である場合、ミラーリング部54は、全体座標系の座標軸GxまたはGyに対する撮影装置10の方位角度に基づいて、ミラーリング軸の方向を決定することが可能である。 Further, when the photographing device 10 is rotated in the pan direction P, that is, when the azimuth angle of the photographing device 10 is variable with respect to the overall coordinate system with respect to the bridge 1, the mirroring unit 54 uses the coordinate axes of the overall coordinate system. It is possible to determine the direction of the mirroring axis based on the azimuth angle of the imaging device 10 with respect to Gx or Gy.

なお、全体座標系の座標軸Gx、Gy、Gzに対する局所座標系の座標軸Lx、Ly、Lzの設定態様、および撮影装置10のパンチルトの態様(角度制御態様)には、各種あるため、その局所座標系の座標軸の設定態様および撮影装置10の角度制御態様に応じた角度情報を取得して、その角度情報に基づいてミラーリング軸の方向を決定すればよい。 Since there are various modes of setting the coordinate axes Lx, Ly, and Lz of the local coordinate system with respect to the coordinate axes Gx, Gy, and Gz of the overall coordinate system, and the mode of pan-tilting (angle control mode) of the photographing device 10, the local coordinates thereof. Angle information corresponding to the setting mode of the coordinate axes of the system and the angle control mode of the photographing device 10 may be acquired, and the direction of the mirroring axis may be determined based on the angle information.

<クライアントサーバ型>
クライアントサーバ型のシステムでは、クライアント装置およびサーバ装置の少なくともいずれかにより損傷データ編集装置20を構成してもよい。言い換えると、本発明の損傷データ編集装置20は、クライアントサーバ型のシステムのうちの一つまたは複数のコンピュータ装置により構成してよい。
<Client-server type>
In the client-server type system, the damage data editing device 20 may be configured by at least one of the client device and the server device. In other words, the damage data editing device 20 of the present invention may be composed of one or more computer devices of the client-server type system.

以上、本発明を実施するための形態に関して説明してきたが、本発明は上記した実施形態および変形例に限定されず、本発明の主旨を逸脱しない範囲で種々の変形が可能である。 Although the embodiments for carrying out the present invention have been described above, the present invention is not limited to the above-described embodiments and modifications, and various modifications can be made without departing from the gist of the present invention.

1 橋梁
2 主桁
3 横桁
4 対傾構
5 横構
6 床版
7 橋脚
10 撮影装置
20 損傷データ編集装置
22 画像取得部
24 図面データ取得部
26 表示部
28 操作部
30 CPU
32 損傷データ生成部
34 射影関係受付部
36 射影変換部
38 表示制御部
40 編集部
42 損傷図面データ作成部
44 出力部
46 撮影画像合成部
48 損傷データ合成部
50 記憶部
52 ミラーリング関係受付部
54 ミラーリング部
82 損傷リスト
90 ロボット装置
92 撮影装置制御機構
ステップS10−ステップS17 第1の実施形態の損傷データ編集工程
ステップS20−ステップS29 第2の実施形態の損傷データ編集工程
1 Bridge 2 Main girder 3 Horizontal girder 4 Anti-tilt structure 5 Horizontal structure 6 Floor slab 7 Pier 10 Imaging device 20 Damage data editing device 22 Image acquisition unit 24 Drawing data acquisition unit 26 Display unit 28 Operation unit 30 CPU
32 Damage data generation unit 34 Projection-related reception unit 36 Projection conversion unit 38 Display control unit 40 Editing department 42 Damage drawing data creation unit 44 Output unit 46 Photographed image composition unit 48 Damage data composition unit 50 Storage unit 52 Mirroring-related reception unit 54 Mirroring Part 82 Damage list 90 Robot device 92 Imaging device control mechanism Step S10-Step S17 Damage data editing step of the first embodiment Step S20-Step S29 Damage data editing step of the second embodiment

Claims (13)

点検対象の建造物が撮影された撮影画像を取得する画像取得部と、
前記撮影画像を画像解析することにより、損傷データを生成する損傷データ生成部と、
表示部と、
前記表示部に前記撮影画像を表示させるとともに、前記損傷データを前記撮影画像にオーバレイ表示させる表示制御部と、
前記表示部に表示された前記損傷データの編集の指令を受け付けて、前記編集の指令に基づいて前記損傷データを編集する編集部と、
前記点検対象の建造物の図面データを取得する図面データ取得部と、
前記表示部に表示された前記撮影画像と前記図面データ取得部で取得された前記図面データとの射影関係の入力を受け付ける射影関係受付部と、
前記射影関係受付部で受け付けられた前記射影関係に基づいて、前記損傷データ生成部で生成した前記損傷データまたは前記編集部で編集された前記損傷データを射影変換する射影変換部と、
前記射影変換部で射影変換された前記損傷データを出力する出力部と、
を備える損傷データ編集装置。
An image acquisition unit that acquires captured images of the building to be inspected,
A damage data generation unit that generates damage data by analyzing the captured image.
Display and
A display control unit that displays the captured image on the display unit and overlays the damaged data on the captured image.
An editorial unit that receives a command for editing the damage data displayed on the display unit and edits the damage data based on the editing command.
A drawing data acquisition unit that acquires drawing data of the building to be inspected,
A projection-related reception unit that accepts input of a projection relationship between the captured image displayed on the display unit and the drawing data acquired by the drawing data acquisition unit, and a projection-related reception unit.
A projective conversion unit that projects and converts the damage data generated by the damage data generation unit or the damage data edited by the editorial unit based on the projection relationship received by the projection relationship reception unit.
An output unit that outputs the damage data projected by the projective conversion unit, and an output unit that outputs the damage data.
Damage data editing device equipped with.
前記表示制御部は、前記表示部に前記図面データを表示させ、
前記射影関係受付部は、前記表示部に表示された前記撮影画像と前記図面データ取得部で取得された前記図面データとの前記射影関係を示す、前記撮影画像の4点および前記図面データの4点を受け付ける請求項1に記載の損傷データ編集装置。
The display control unit causes the display unit to display the drawing data.
The projection-related reception unit shows four points of the photographed image and four of the drawing data showing the projection relationship between the photographed image displayed on the display unit and the drawing data acquired by the drawing data acquisition unit. The damage data editing device according to claim 1, which accepts points.
前記射影変換部は、前記撮影画像の4点を前記図面データの4点に合わせる射影変換行列を算出し、前記算出した射影変換行列により前記損傷データ生成部で生成した前記損傷データまたは前記編集部で編集された前記損傷データを射影変換する請求項1または2に記載の損傷データ編集装置。 The projective transformation unit calculates a projective transformation matrix that matches the four points of the captured image with the four points of the drawing data, and the damage data or the editorial unit generated by the damage data generation unit based on the calculated projective transformation matrix. The damage data editing apparatus according to claim 1 or 2, which projects and transforms the damage data edited in. 前記表示部に表示された前記撮影画像と前記図面データ取得部で取得された前記図面データとのミラーリング関係の入力を受け付けるミラーリング関係受付部と、
前記ミラーリング関係受付部で受け付けられた前記ミラーリング関係に基づいて、前記損傷データをミラーリングするミラーリング部と、を備え、
前記出力部は、ミラーリングおよび射影変換された前記損傷データを出力する請求項1から3のいずれか1項に記載の損傷データ編集装置。
A mirroring-related reception unit that accepts input of a mirroring-related relationship between the captured image displayed on the display unit and the drawing data acquired by the drawing data acquisition unit, and a mirroring-related reception unit.
A mirroring unit for mirroring the damage data based on the mirroring relationship received by the mirroring-related reception unit is provided.
The damage data editing device according to any one of claims 1 to 3, wherein the output unit outputs the damage data that has been mirrored and projected.
前記建造物の一区画を分割撮影することにより得られる複数の撮影画像を合成する撮影画像合成部を備え、
前記損傷データ生成部は、前記複数の撮影画像の各々について、前記損傷データを生成する請求項1から4のいずれか1項に記載の損傷データ編集装置。
It is provided with a photographed image synthesizing unit that synthesizes a plurality of photographed images obtained by dividing a section of the building.
The damage data editing device according to any one of claims 1 to 4, wherein the damage data generation unit generates the damage data for each of the plurality of captured images.
前記撮影画像合成部は、前記図面データに表される一区画に対応して撮影された前記複数の撮影画像を、前記一区画毎に合成を行う請求項5に記載の損傷データ編集装置。 The damage data editing device according to claim 5, wherein the photographed image synthesizing unit synthesizes the plurality of photographed images photographed corresponding to one section represented by the drawing data for each section. 前記撮影画像合成部で合成された前記複数の撮影画像の合成情報に基づいて、前記損傷データを合成する損傷データ合成部を備える請求項6に記載の損傷データ編集装置。 The damage data editing apparatus according to claim 6, further comprising a damage data synthesizing unit that synthesizes the damage data based on the composite information of the plurality of captured images synthesized by the captured image synthesizing unit. 前記損傷データ合成部は、前記一区画毎に合成を行う請求項7に記載の損傷データ編集装置。 The damage data editing device according to claim 7, wherein the damage data synthesizing unit synthesizes each section. 前記射影変換部で射影変換された前記損傷データと前記損傷データに対応する前記図面データとが重畳された損傷図面データを作成する損傷図面データ作成部を備え、
前記出力部は、前記損傷図面データを出力する請求項1から8のいずれか1項に記載の損傷データ編集装置。
A damage drawing data creation unit for creating damage drawing data in which the damage data projected and transformed by the projection conversion unit and the drawing data corresponding to the damage data are superimposed is provided.
The damage data editing device according to any one of claims 1 to 8, wherein the output unit outputs the damage drawing data.
前記建造物は、橋梁またはトンネルである請求項1から9のいずれか1項に記載の損傷データ編集装置。 The damage data editing device according to any one of claims 1 to 9, wherein the building is a bridge or a tunnel. 点検対象の建造物が撮影された撮影画像を取得する画像取得ステップと、
前記撮影画像を画像解析することにより、損傷データを生成する損傷データ生成ステップと、
表示部に前記撮影画像を表示させるとともに、前記損傷データを前記撮影画像にオーバレイ表示させる表示制御ステップと、
前記表示部に表示された前記損傷データの編集の指令を受け付けて、前記編集の指令に基づいて前記損傷データを編集する編集ステップと、
前記点検対象の建造物の図面データを取得する図面データ取得ステップと、
前記表示部に表示された前記撮影画像と前記図面データ取得ステップで取得された前記図面データとの射影関係の入力を受け付ける射影関係受付ステップと、
前記射影関係受付ステップで受け付けられた前記射影関係に基づいて、前記損傷データ生成ステップで生成した前記損傷データまたは前記編集ステップで編集された前記損傷データを射影変換する射影変換ステップと、
前記射影変換ステップで射影変換された前記損傷データを出力する出力ステップと、
を含む損傷データ編集方法。
An image acquisition step to acquire a photographed image of the building to be inspected, and
A damage data generation step of generating damage data by image analysis of the captured image, and
A display control step of displaying the captured image on the display unit and overlaying the damaged data on the captured image.
An editing step of receiving a command for editing the damage data displayed on the display unit and editing the damage data based on the editing command, and
The drawing data acquisition step for acquiring the drawing data of the building to be inspected, and
A projection relationship reception step that accepts input of a projection relationship between the captured image displayed on the display unit and the drawing data acquired in the drawing data acquisition step, and a projection relationship reception step.
A projective conversion step of projecting and transforming the damage data generated in the damage data generation step or the damage data edited in the editing step based on the projection relationship received in the projection relationship reception step.
An output step that outputs the damage data projected and transformed in the projective transformation step, and
Damage data editing methods including.
点検対象の建造物が撮影された撮影画像を取得する画像取得ステップと、
前記撮影画像を画像解析することにより、損傷データを生成する損傷データ生成ステップと、
表示部に前記撮影画像を表示させるとともに、前記損傷データを前記撮影画像にオーバレイ表示させる表示制御ステップと、
前記表示部に表示された前記損傷データの編集の指令を受け付けて、前記編集の指令に基づいて前記損傷データを編集する編集ステップと、
前記点検対象の建造物の図面データを取得する図面データ取得ステップと、
前記表示部に表示された前記撮影画像と前記図面データ取得ステップで取得された前記図面データとの射影関係の入力を受け付ける射影関係受付ステップと、
前記射影関係受付ステップで受け付けられた前記射影関係に基づいて、前記損傷データ生成ステップで生成した前記損傷データまたは前記編集ステップで編集された前記損傷データを射影変換する射影変換ステップと、
前記射影変換ステップで射影変換された前記損傷データを出力する出力ステップと、
を含む損傷データ編集工程をコンピュータに実行させるプログラム。
An image acquisition step to acquire a photographed image of the building to be inspected, and
A damage data generation step of generating damage data by image analysis of the captured image, and
A display control step of displaying the captured image on the display unit and overlaying the damaged data on the captured image.
An editing step of receiving a command for editing the damage data displayed on the display unit and editing the damage data based on the editing command, and
The drawing data acquisition step for acquiring the drawing data of the building to be inspected, and
A projection relationship reception step that accepts input of a projection relationship between the captured image displayed on the display unit and the drawing data acquired in the drawing data acquisition step, and a projection relationship reception step.
A projective conversion step of projecting and transforming the damage data generated in the damage data generation step or the damage data edited in the editing step based on the projection relationship received in the projection relationship reception step.
An output step that outputs the damage data projected and transformed in the projective transformation step, and
A program that causes a computer to perform a damage data editing process, including.
請求項12に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。 A computer-readable recording medium on which the program according to claim 12 is recorded.
JP2020201168A 2017-07-27 2020-12-03 DAMAGE DATA EDITING DEVICE, DAMAGE DATA EDITING METHOD, PROGRAM, AND SYSTEM Active JP7170023B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017145567 2017-07-27
JP2017145567 2017-07-27

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019532452A Division JP6805351B2 (en) 2017-07-27 2018-06-26 Damage data editing equipment, damage data editing methods, and programs

Publications (3)

Publication Number Publication Date
JP2021047197A true JP2021047197A (en) 2021-03-25
JP2021047197A5 JP2021047197A5 (en) 2021-07-29
JP7170023B2 JP7170023B2 (en) 2022-11-11

Family

ID=65041050

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019532452A Active JP6805351B2 (en) 2017-07-27 2018-06-26 Damage data editing equipment, damage data editing methods, and programs
JP2020201168A Active JP7170023B2 (en) 2017-07-27 2020-12-03 DAMAGE DATA EDITING DEVICE, DAMAGE DATA EDITING METHOD, PROGRAM, AND SYSTEM

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019532452A Active JP6805351B2 (en) 2017-07-27 2018-06-26 Damage data editing equipment, damage data editing methods, and programs

Country Status (2)

Country Link
JP (2) JP6805351B2 (en)
WO (1) WO2019021719A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102378411B1 (en) * 2021-12-14 2022-03-24 (주) 다음기술단 Making and visualizing method of appearance inspection drawing using portable electronic device
KR102387717B1 (en) * 2021-12-14 2022-04-18 (주) 다음기술단 Method for inspection and diagnosis of facilities damage using photo album technique and drone photograph

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7356242B2 (en) * 2019-03-18 2023-10-04 デンカ株式会社 Concrete structure management device, information processing system, concrete structure management method, and program
JP7312581B2 (en) * 2019-03-18 2023-07-21 デンカ株式会社 Concrete structure management device, information processing system, concrete structure management method, and program
JP7427381B2 (en) * 2019-07-22 2024-02-05 キヤノン株式会社 Information processing device, system, information processing method and program
JP2024000324A (en) * 2022-06-20 2024-01-05 キヤノン株式会社 Information processing device, information processing method, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001099784A (en) * 1999-09-29 2001-04-13 Keisoku Kensa Kk Method for detecting crack on floor board of existing bridge and method for displaying the same
JP2002310920A (en) * 2001-04-19 2002-10-23 Keisoku Kensa Kk Method for detecting crack in concrete wall and device thereof
JP2002328096A (en) * 2001-04-27 2002-11-15 Tokyo Electric Power Co Inc:The Program, method, and system for detecting crack defect generated on structure
JP2004318790A (en) * 2003-04-16 2004-11-11 Im Soft Kk Inspection device and inspection method for structure, and recording medium
JP2005310044A (en) * 2004-04-26 2005-11-04 Constec Engi Co Apparatus, method and program for data processing
JP2016099235A (en) * 2014-11-21 2016-05-30 株式会社ソーシャル・キャピタル・デザイン Normally placed image processing system and structure maintenance management business system
WO2017051633A1 (en) * 2015-09-25 2017-03-30 富士フイルム株式会社 Damage diagram generation apparatus and damage diagram generation method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006132973A (en) * 2004-11-02 2006-05-25 Fujimitsu Komuten:Kk Crack inspection device and method of concrete structure
JP5803723B2 (en) * 2012-02-14 2015-11-04 富士通株式会社 Structure inspection support method, structure inspection support program, and structure inspection support device
JP6029870B2 (en) * 2012-06-27 2016-11-24 公益財団法人鉄道総合技術研究所 Method and apparatus for detecting deformation of concrete surface
JP2016126769A (en) * 2014-12-26 2016-07-11 古河機械金属株式会社 Inspection result output device, inspection result output method, and program
WO2017103982A1 (en) * 2015-12-14 2017-06-22 株式会社 ニコン・トリンブル Defect detection apparatus and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001099784A (en) * 1999-09-29 2001-04-13 Keisoku Kensa Kk Method for detecting crack on floor board of existing bridge and method for displaying the same
JP2002310920A (en) * 2001-04-19 2002-10-23 Keisoku Kensa Kk Method for detecting crack in concrete wall and device thereof
JP2002328096A (en) * 2001-04-27 2002-11-15 Tokyo Electric Power Co Inc:The Program, method, and system for detecting crack defect generated on structure
JP2004318790A (en) * 2003-04-16 2004-11-11 Im Soft Kk Inspection device and inspection method for structure, and recording medium
JP2005310044A (en) * 2004-04-26 2005-11-04 Constec Engi Co Apparatus, method and program for data processing
JP2016099235A (en) * 2014-11-21 2016-05-30 株式会社ソーシャル・キャピタル・デザイン Normally placed image processing system and structure maintenance management business system
WO2017051633A1 (en) * 2015-09-25 2017-03-30 富士フイルム株式会社 Damage diagram generation apparatus and damage diagram generation method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102378411B1 (en) * 2021-12-14 2022-03-24 (주) 다음기술단 Making and visualizing method of appearance inspection drawing using portable electronic device
KR102387717B1 (en) * 2021-12-14 2022-04-18 (주) 다음기술단 Method for inspection and diagnosis of facilities damage using photo album technique and drone photograph

Also Published As

Publication number Publication date
JPWO2019021719A1 (en) 2020-04-16
WO2019021719A1 (en) 2019-01-31
JP7170023B2 (en) 2022-11-11
JP6805351B2 (en) 2020-12-23

Similar Documents

Publication Publication Date Title
JP6805351B2 (en) Damage data editing equipment, damage data editing methods, and programs
JP6874096B2 (en) Damage diagram editing device and program
US11189009B2 (en) Image processing apparatus and image processing method
JP6733267B2 (en) Information processing program, information processing method, and information processing apparatus
Lattanzi et al. 3D scene reconstruction for robotic bridge inspection
WO2006049174A1 (en) Concrete structure crack inspection device and crack inspection method
JP6937391B2 (en) Repair length determination method and repair length determination device
JP6775054B2 (en) Inspection support device
CN113167742B (en) Point inspection support device, point inspection support method, and recording medium for concrete structure
US20220405878A1 (en) Image processing apparatus, image processing method, and image processing program
US11959862B2 (en) Damage figure creation supporting apparatus, damage figure creation supporting method, damage figure creation supporting program, and damage figure creation supporting system
JP2024012527A (en) Information display device, method, and program
JP2005310044A (en) Apparatus, method and program for data processing
WO2022070734A1 (en) Structure inspection assistance device, structure inspection assistance method, and program
JP6564738B2 (en) Drawing creating apparatus and drawing creating method
US11922659B2 (en) Coordinate calculation apparatus, coordinate calculation method, and computer-readable recording medium
JP6779368B2 (en) Image processing equipment, image processing methods, and programs
WO2023047859A1 (en) Information processing device, method and program, and image data structure
JP7424092B2 (en) Information processing device and computer program
JP7429774B2 (en) Damage evaluation device, method and program
WO2020116279A1 (en) Inspection assistance device and method for structure
JP7326446B2 (en) Image display device, method and program
JP7433623B2 (en) Structure image management system
US20220383487A1 (en) Image processing apparatus, image processing method, and image processing program
JP2024000324A (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210615

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210615

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221031

R150 Certificate of patent or registration of utility model

Ref document number: 7170023

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150