JP6829846B2 - Structure inspection system, structure inspection method and program - Google Patents

Structure inspection system, structure inspection method and program Download PDF

Info

Publication number
JP6829846B2
JP6829846B2 JP2019103965A JP2019103965A JP6829846B2 JP 6829846 B2 JP6829846 B2 JP 6829846B2 JP 2019103965 A JP2019103965 A JP 2019103965A JP 2019103965 A JP2019103965 A JP 2019103965A JP 6829846 B2 JP6829846 B2 JP 6829846B2
Authority
JP
Japan
Prior art keywords
inspection
deformation
space recognition
unit
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019103965A
Other languages
Japanese (ja)
Other versions
JP2020197460A (en
Inventor
幸治 金野
幸治 金野
小山 孝
孝 小山
祐一郎 藤原
祐一郎 藤原
宏彰 若林
宏彰 若林
諭 長沼
諭 長沼
貴憲 小田部
貴憲 小田部
朗 宮島
朗 宮島
豪 石井
豪 石井
英明 北園
英明 北園
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Informatix Inc
Original Assignee
Informatix Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Informatix Inc filed Critical Informatix Inc
Priority to JP2019103965A priority Critical patent/JP6829846B2/en
Publication of JP2020197460A publication Critical patent/JP2020197460A/en
Application granted granted Critical
Publication of JP6829846B2 publication Critical patent/JP6829846B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は構造物の検査システム、構造物の検査方法及びプログラムに関し、特に変状箇所の状態と座標とを簡易に関連付ける技術に関する。 The present invention relates to a structure inspection system, a structure inspection method and a program, and particularly to a technique for easily associating the state of a deformed portion with coordinates.

従来、トンネル、橋梁及びビル等の構造物の検査業務においては、壁面の目視、打音及び触診等により人が変状や劣化(以下、単に変状という)の発生箇所(以下、変状箇所という)を認識し、変状箇所に筆記具でマーキングを施し、マーキング箇所をスケッチし、スケッチに基づいて図面への反映作業を行っていた。例えばトンネル検査であれば、覆工表面の変状箇所をチョークでマーキングし、マーキング位置を紙面にスケッチし、スケッチをCADでトレースして覆工展開図を作成していた。 Conventionally, in the inspection work of structures such as tunnels, bridges and buildings, the place where a person is deformed or deteriorated (hereinafter, simply referred to as “deformed”) by visual inspection, tapping sound, palpation, etc. of the wall surface (hereinafter, deformed part). ), Marked the deformed part with a writing tool, sketched the marked part, and reflected it in the drawing based on the sketch. For example, in the case of tunnel inspection, the deformed part of the lining surface is marked with chalk, the marking position is sketched on a paper surface, and the sketch is traced by CAD to create a lining development drawing.

しかしながら、従来方式ではマーキング位置をスケッチし、スケッチを持ち帰ってデータ化するなど情報を転記する作業が必要である。このような転記作業は非常に煩雑であり時間と手間を要する。また、転記作業は人の手作業によって行われるのでミスや誤差が入り込む可能性がある。 However, in the conventional method, it is necessary to sketch the marking position, bring back the sketch and convert it into data, and transfer the information. Such a posting operation is very complicated and takes time and effort. In addition, since the posting work is performed manually by humans, mistakes and errors may be introduced.

すなわち、従来、点検により得られる情報(変状箇所の状態)と、点検した箇所(変状箇所の座標)との対応付けは人の手作業に依存していた。両者の関係性を証明するために点検状況をデジタルカメラで撮影するなどの手法がとられることもあるが、あくまで手作業を補助するものにすぎなかった。 That is, conventionally, the correspondence between the information obtained by the inspection (state of the deformed part) and the inspected part (coordinates of the deformed part) has depended on human manual work. In order to prove the relationship between the two, a method such as taking a picture of the inspection status with a digital camera may be taken, but it is only an aid to manual work.

そこで、変状箇所の状態と座標とを何らかの手法で電子的に把握し、自動的に関連付けを行うことができれば、検査業務の効率性及び正確性を向上させることができるはずである。 Therefore, if the state and coordinates of the deformed part can be electronically grasped by some method and automatically associated with each other, the efficiency and accuracy of the inspection work should be improved.

特許文献1には、トンネル内覆工にチョークでマーキングされた変状箇所を撮影し(レーザスキャナにより輝度情報付き三次元モデルを作成する)、撮影データを基に覆工展開図を作成し、検査者が覆工展開図上でマーキングを視認しトレースすることで、覆工展開図上に変状箇所の座標をプロットする構成が記載されている。特許文献2には、構造物の外壁面の撮影画像を距離情報とともに取得し、撮影画像が表示されたモニター上に検査結果をペンデバイスでマーキングする構成が記載されている。 In Patent Document 1, a deformed portion marked with a chalk on the tunnel interior lining is photographed (a three-dimensional model with brightness information is created by a laser scanner), and a lining development drawing is created based on the photographed data. A configuration is described in which the inspector visually recognizes and traces the markings on the lining development drawing to plot the coordinates of the deformed portion on the lining development drawing. Patent Document 2 describes a configuration in which a photographed image of an outer wall surface of a structure is acquired together with distance information, and an inspection result is marked with a pen device on a monitor on which the photographed image is displayed.

特開2019−020348号公報JP-A-2019-020348 特開2003−214829号公報Japanese Unexamined Patent Publication No. 2003-214829

しかしながら、特許文献1及び2記載の手法では、変状箇所の座標を得るために三次元レーザスキャナや固定式のレーザ距離計等が必要であり、装置設置の手間がかること、見通しの悪い箇所や高所等での作業には適さないこと等の問題がある。 However, in the methods described in Patent Documents 1 and 2, a three-dimensional laser scanner, a fixed laser range finder, or the like is required to obtain the coordinates of the deformed portion, which requires time and effort to install the device, and a location with poor visibility. There is a problem that it is not suitable for work in high places.

本発明はこのような問題点を解決するためになされたものであり、変状箇所の状態と座標とを簡易に関連付けることが可能な検査システム、構造物の検査方法及びプログラムを提供することを目的とする。 The present invention has been made to solve such a problem, and provides an inspection system, a structure inspection method, and a program capable of easily associating the state of a deformed portion with the coordinates. The purpose.

本発明の一形態である検査システムは、構造物表面の検査位置において変状を検査する検査装置と、前記構造物の三次元形状及び前記検査装置の位置を認識し、前記構造物の三次元形状に基づいて自己位置を認識する空間認識装置と、前記検査装置と前記空間認識装置を搭載した移動体と、を含み、前記検査装置が前記検査を実行したことを検知し、前記検知時における前記検査位置を特定する検査位置特定部と、前記変状に関する情報と、前記検査位置と、を記憶領域に出力する出力部と、を有し、前記移動体は、前記検査装置が過去に行った前記検査における前記検査位置を目標位置として受け取り、前記自己位置に基づいて前記目標位置に向かって移動し、前記検査装置は、前記目標位置に到達したことを検知し、前記検査を実行する。
本発明の一形態である検査システムは、構造物表面の検査位置において前記構造物の表面を撮影することにより、変状を検査する検査装置と、前記構造物の三次元形状及び前記検査装置の位置を認識する空間認識装置と、前記空間認識装置と通信可能な端末装置と、を含み、前記端末装置は、前記検査装置が前記検査を実行したことを検知し、前記検知時における前記検査位置を特定する検査位置特定部と、前記変状に関する情報を記憶領域に出力する出力部と、前記撮影画像を表示する表示部と、前記画像上で検査者が指定した1以上の2次元座標からなる時系列データを取得する入力部と、前記2次元座標を前記構造物の表面に投影した、1以上の3次元座標からなる時系列データを、前記変状に関する情報として取得する軌跡取得部と、を有する。
本発明の一形態である検査システムは、構造物表面の検査位置において変状を検査する検査装置と、前記構造物の三次元形状及び前記検査装置の位置を認識する空間認識装置と、前記検査位置をプロットするプロット装置と、を含み、前記空間認識装置は、前記検査装置が前記検査を実行したことを検知し、前記検知時における前記検査位置を特定する検査位置特定部と、前記変状に関する情報と、前記検査位置と、を記憶領域に出力する出力部と、を有し、前記プロット装置は、前記検査位置を、実空間に設定された原点により規定される座標系に変換した三次元座標情報を取得する変換座標取得部と、前記三次元座標情報を図面内にプロットするプロット部と、を有し、前記プロット部は、前記三次元座標情報が前記構造物の表面上にない場合、前記三次元座標情報を前記構造物の表面への投影点に変換する。
本発明の一形態である検査方法は、構造物の三次元形状及び検査装置の位置を認識し、前記構造物の三次元形状に基づいて自己位置を認識する空間認識装置と、前記検査装置と、を搭載した移動体が、前記検査装置が過去に行った検査における検査位置を目標位置として受け取り、前記自己位置に基づいて前記目標位置に向かって移動するステップと、前記検査装置が、前記移動体が前記目標位置に到達したことを検知し、前記構造物表面の前記検査位置において変状を検査するステップと、前記空間認識装置が、前記検査装置が前記検査を実行したことを検知し、前記検知時における前記検査位置を特定するステップと、前記空間認識装置が、前記変状に関する情報と、前記検査位置と、を記憶領域に出力するステップと、を含む。
本発明の一形態である検査方法は、検査装置が、構造物表面の検査位置において前記構造物の表面を撮影することにより、変状を検査するステップと、空間認識装置が、前記構造物の三次元形状及び前記検査装置の位置を認識するステップと、前記端末装置が、前記検査装置が前記検査を実行したことを検知し、前記検知時における前記検査位置を特定するステップと、端末装置が、前記撮影画像を表示するステップと、前記端末装置が、前記画像上で検査者が指定した1以上の2次元座標からなる時系列データを取得するステップと、前記端末装置が、前記2次元座標を前記構造物の表面に投影した、1以上の3次元座標からなる時系列データを、前記変状に関する情報として取得するステップと、前記端末装置が、前記変状に関する情報記憶領域に出力するステップと、を含む。
本発明の一形態である検査方法は、検査装置が、構造物表面の検査位置において変状を検査するステップと、前記構造物の三次元形状及び前記検査装置の位置を認識する空間認識装置が、前記検査装置が前記検査を実行したことを検知し、前記検知時における前記検査位置を特定するステップと、前記空間認識装置が、前記変状に関する情報と、前記検査位置と、を記憶領域に出力するステップと、プロット装置が、前記検査位置を、実空間に設定された原点により規定される座標系に変換した三次元座標情報を取得するステップと、前記プロット装置が、前記三次元座標情報が前記構造物の表面上にない場合、前記三次元座標情報を前記構造物の表面への投影点に変換し、図面内にプロットするステップと、を含む。
本発明の一形態であるプログラムは、コンピュータに上記方法を実行させるためのプログラムである。
An inspection system according to an embodiment of the present invention recognizes an inspection device that inspects deformation at an inspection position on the surface of a structure, a three-dimensional shape of the structure, and a position of the inspection device, and three-dimensionally recognizes the structure. wherein recognizing space recognition device its own position based on the shape, the moving unit incorporating the said test device and the space recognition apparatus, and detects that the test device has performed the test, when the detection The moving body has an inspection position specifying unit for specifying the inspection position, information on the deformation, and an output unit for outputting the inspection position to a storage area, and the moving body has the inspection device in the past. The inspection position in the inspection performed is received as a target position, and the inspection position is moved toward the target position based on the self-position. The inspection device detects that the target position has been reached and executes the inspection. ..
An inspection system according to an embodiment of the present invention includes an inspection device that inspects deformation by photographing the surface of the structure at an inspection position on the surface of the structure, and a three-dimensional shape of the structure and the inspection device. The terminal device includes a space recognition device that recognizes a position and a terminal device that can communicate with the space recognition device. The terminal device detects that the inspection device has executed the inspection, and the inspection position at the time of the detection. and examination-position specifying unit for specifying a, the output unit for outputting the information in the storage area related to changing the shape, a display unit for displaying the previous SL photographic image, one or more two-dimensional inspector on the image is specified An input unit for acquiring time-series data consisting of coordinates, and a trajectory acquisition for acquiring time-series data consisting of one or more three-dimensional coordinates obtained by projecting the two-dimensional coordinates onto the surface of the structure as information on the deformation. It has a part and.
The inspection system according to one embodiment of the present invention includes an inspection device that inspects deformation at an inspection position on the surface of a structure, a space recognition device that recognizes the three-dimensional shape of the structure and the position of the inspection device, and the inspection. The space recognition device includes an inspection position specifying unit that detects that the inspection device has executed the inspection and specifies the inspection position at the time of the detection, including a plotting device that plots the position, and the deformation. The plotting device has the information about, the inspection position, and an output unit that outputs the inspection position to the storage area, and the plotting device converts the inspection position into a coordinate system defined by the origin set in the real space. It has a conversion coordinate acquisition unit that acquires the original coordinate information and a plot unit that plots the three-dimensional coordinate information in the drawing, and the plot unit does not have the three-dimensional coordinate information on the surface of the structure. In the case, the three-dimensional coordinate information is converted into a projection point on the surface of the structure.
An inspection method according to an embodiment of the present invention includes a space recognition device that recognizes a three-dimensional shape of a structure and a position of an inspection device, and recognizes a self-position based on the three-dimensional shape of the structure, and the inspection device. the equipped with moving body receives the inspection position in the inspection of the inspection apparatus has performed in the past as target position, and moving toward the target position based on the self-position, the inspection apparatus, the moving The step of detecting that the body has reached the target position and inspecting the deformation at the inspection position on the surface of the structure, and the space recognition device detecting that the inspection device has performed the inspection, The step includes a step of specifying the inspection position at the time of the detection, and a step of the space recognition device outputting the information regarding the deformation and the inspection position to the storage area.
The inspection method, which is one embodiment of the present invention, includes a step in which the inspection device inspects the deformation by photographing the surface of the structure at the inspection position on the surface of the structure, and a space recognition device in which the structure is inspected. The step of recognizing the three-dimensional shape and the position of the inspection device, the step of detecting that the inspection device has executed the inspection, and the step of specifying the inspection position at the time of the detection, and the terminal device , The step of displaying the captured image, the step of the terminal device acquiring time series data consisting of one or more two-dimensional coordinates specified by the inspector on the image, and the step of the terminal device performing the two-dimensional coordinates. The step of acquiring time-series data consisting of one or more three-dimensional coordinates obtained by projecting the above on the surface of the structure as information on the deformation, and the terminal device outputs the information on the deformation to the storage area. Including steps.
The inspection method according to one embodiment of the present invention includes a step in which the inspection device inspects the deformation at the inspection position on the surface of the structure, and a space recognition device that recognizes the three-dimensional shape of the structure and the position of the inspection device. , The step of detecting that the inspection device has executed the inspection and specifying the inspection position at the time of the detection, and the space recognition device stores information about the deformation and the inspection position in a storage area. An output step, a step in which the plotting device acquires three-dimensional coordinate information obtained by converting the inspection position into a coordinate system defined by an origin set in the real space, and a step in which the plotting device obtains the three-dimensional coordinate information. Includes a step of converting the three-dimensional coordinate information into projection points on the surface of the structure and plotting them in the drawing if is not on the surface of the structure.
A program according to an embodiment of the present invention is a program for causing a computer to execute the above method .

本発明により、変状箇所の状態と座標とを簡易に関連付けることが可能な検査システム、構造物の検査方法及びプログラムを提供することができる。 INDUSTRIAL APPLICABILITY According to the present invention, it is possible to provide an inspection system, a structure inspection method, and a program capable of easily associating the state of a deformed portion with the coordinates.

空間認識装置1の機能構成を示す図である。It is a figure which shows the functional structure of the space recognition apparatus 1. 空間認識装置1の外観を示す図である。It is a figure which shows the appearance of the space recognition apparatus 1. 実施の形態1にかかる検査システム100の機能構成を示す図である。It is a figure which shows the functional structure of the inspection system 100 which concerns on Embodiment 1. FIG. 実施の形態1にかかる検査システム100のハードウェア構成例を示す図である。It is a figure which shows the hardware configuration example of the inspection system 100 which concerns on Embodiment 1. FIG. 実施の形態2にかかる検査システム100の機能構成を示す図である。It is a figure which shows the functional structure of the inspection system 100 which concerns on Embodiment 2. FIG. 実施の形態2にかかる検査システム100のハードウェア構成例を示す図である。It is a figure which shows the hardware configuration example of the inspection system 100 which concerns on Embodiment 2. FIG. 実施の形態3にかかる検査システム100の機能構成を示す図である。It is a figure which shows the functional structure of the inspection system 100 which concerns on Embodiment 3. FIG. 実施の形態3にかかる検査システム100のハードウェア構成例を示す図である。It is a figure which shows the hardware configuration example of the inspection system 100 which concerns on Embodiment 3. FIG. 実施の形態4にかかる検査システム100の機能構成を示す図である。It is a figure which shows the functional structure of the inspection system 100 which concerns on Embodiment 4. FIG. 実施の形態5にかかる検査システム100の機能構成を示す図である。It is a figure which shows the functional structure of the inspection system 100 which concerns on Embodiment 5.

コンクリート等の構造物は、変状及び劣化を生じることがある。変状は、豆板、コールドジョイント、内部欠陥、砂すじ、表面気泡、ひび割れ・浮き・はく離、錆汁、エフロレッセンス、汚れ(変色)、すり減り、たわみ、変形、漏水、塗装膨れ等を含む。劣化は、中性化、塩害、アルカリシリカ反応、凍害、化学的腐食、疲労、風化・老化、火災等を含む。本明細書では、これらの変状及び劣化を包括して、単に変状と称する。本発明の実施の形態にかかる検査システム100は、変状箇所の状態と座標とを簡易に関連付けることができるシステムである。以下、本発明の実施の形態について、図面を用いて説明する。 Structures such as concrete may be deformed and deteriorated. Deformations include bean boards, cold joints, internal defects, sand streaks, surface bubbles, cracks / floats / peeling, rust juice, efflorescence, stains (discoloration), wear, deflection, deformation, water leakage, paint swelling, etc. Deterioration includes neutralization, salt damage, alkali-silica reaction, frost damage, chemical corrosion, fatigue, weathering / aging, fire and the like. In the present specification, these deformations and deteriorations are collectively referred to as deformations. The inspection system 100 according to the embodiment of the present invention is a system capable of easily associating the state of the deformed portion with the coordinates. Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の実施の形態で使用される空間認識装置1の機能構成の一例を示す図である。空間認識装置1は、検査位置特定部11、出力部13を有する。 FIG. 1 is a diagram showing an example of a functional configuration of the space recognition device 1 used in the embodiment of the present invention. The space recognition device 1 has an inspection position specifying unit 11 and an output unit 13.

検査位置特定部11は、構造物の検査が行われた位置(検査位置という)を示す3次元座標を特定する処理を行う。出力部13は、検査位置特定部11が特定した検査位置などを出力する処理を行う。これらの処理部の詳細な動作については後述する。 The inspection position specifying unit 11 performs a process of specifying three-dimensional coordinates indicating a position (referred to as an inspection position) where the structure is inspected. The output unit 13 performs a process of outputting the inspection position and the like specified by the inspection position specifying unit 11. The detailed operation of these processing units will be described later.

図2は、空間認識装置1の外観の一例を示す図であり、頭部装着型デバイスの筐体内に、検査位置特定部11、出力部13が実装されている。頭部装着型デバイスは、典型的にはカメラ、デプスセンサ及び透過型ディスプレイを有するHMD(Head Mounted Display)であり、例えばHololens(登録商標)等が含まれる。デプスセンサは、現実空間をスキャンして近距離の物体の形状を示す3次元点群データを取得することができる。透過型ディスプレイは、現実空間と任意の情報とを同時にユーザに視認させる。これは例えば光学透過又はビデオ透過ディスプレイ上に任意の情報を重畳表示することにより実現可能である。 FIG. 2 is a diagram showing an example of the appearance of the space recognition device 1, in which the inspection position specifying unit 11 and the output unit 13 are mounted in the housing of the head-mounted device. The head-mounted device is typically an HMD (Head Mounted Display) having a camera, a depth sensor and a transmissive display, and includes, for example, Hollens® and the like. The depth sensor can scan the real space and acquire three-dimensional point cloud data showing the shape of a short-distance object. The transmissive display allows the user to see the real space and arbitrary information at the same time. This can be achieved, for example, by superimposing arbitrary information on an optical transmission or video transmission display.

空間認識装置1は、デプスセンサにより周囲の構造物の表面の形状を示す3次元点群データを取得する。3次元点群データは、所定の設定操作により、装置固有の座標空間にマッピングされる。空間認識装置1が移動するとき、デプスセンサにより取得される3次元点群データと、座標空間にマッピングされた3次元点群データとを比較することで、座標空間内での自己位置を特定することができる。 The space recognition device 1 acquires three-dimensional point cloud data indicating the shape of the surface of the surrounding structure by the depth sensor. The three-dimensional point cloud data is mapped to the device-specific coordinate space by a predetermined setting operation. When the space recognition device 1 moves, the self-position in the coordinate space is specified by comparing the 3D point cloud data acquired by the depth sensor with the 3D point cloud data mapped in the coordinate space. Can be done.

カメラの視野内にARマーカなどの基点が予め設置されている場合、空間認識装置1は、カメラによりARマーカを含む画像を撮影し、ARマーカの角度や大きさ等を解析することによりARマーカを原点とする座標空間における空間認識装置1の座標を算出することができる。この場合、空間認識装置1は、装置固有の座標空間と、ARマーカを原点とする座標空間とを相互に変換することが可能である。 When a base point such as an AR marker is set in advance in the field of view of the camera, the space recognition device 1 captures an image including the AR marker with the camera and analyzes the angle and size of the AR marker to analyze the AR marker. It is possible to calculate the coordinates of the space recognition device 1 in the coordinate space whose origin is. In this case, the space recognition device 1 can mutually convert the device-specific coordinate space and the coordinate space with the AR marker as the origin.

<実施の形態1>
図3は、本発明の実施の形態1にかかる検査システム100の機能構成を示す図である。検査システム100は、空間認識装置1、検査装置2を含む。空間認識装置1は、検査位置特定部11、出力部13を有する。
<Embodiment 1>
FIG. 3 is a diagram showing a functional configuration of the inspection system 100 according to the first embodiment of the present invention. The inspection system 100 includes a space recognition device 1 and an inspection device 2. The space recognition device 1 has an inspection position specifying unit 11 and an output unit 13.

図4は、検査システム100のハードウェア構成例を示す図である。空間認識装置1としては、上述した頭部装着型デバイスを採用できる。 FIG. 4 is a diagram showing a hardware configuration example of the inspection system 100. As the space recognition device 1, the head-mounted device described above can be adopted.

空間認識装置1は、自己位置を特定することができるほか、カメラの視野内に検査装置2が存在する場合、カメラ又はデプスセンサが取得する画像データ又は3次元点群データを解析することにより、検査装置2の位置や検査装置2の特定の部位の位置を特定することも可能である。 The space recognition device 1 can identify the self-position, and when the inspection device 2 is present in the field of view of the camera, the space recognition device 1 inspects by analyzing the image data or the three-dimensional point group data acquired by the camera or the depth sensor. It is also possible to specify the position of the device 2 and the position of a specific part of the inspection device 2.

検査装置2は、構造物表面の検査位置において変状を検査する装置であり、例えば打音検査、赤外線検査、外観検査、コンクリートの圧縮強度検査、ひび割れ・はく離・空洞検査、鉄筋・かぶり厚さ・埋設物検査、鉄筋腐食検査、アルカリシリカ反応検査、火災検査等を実行する。また、検査装置2には、地盤の検査位置において地盤状況を検査する装置もあり、例えば地質調査、原位置試験、物理探査等を実行することができる。 The inspection device 2 is a device that inspects deformation at the inspection position on the surface of the structure, for example, tapping sound inspection, infrared inspection, appearance inspection, compression strength inspection of concrete, crack / peeling / cavity inspection, reinforcing bar / cover thickness.・ Perform buried object inspection, rebar corrosion inspection, alkali silica reaction inspection, fire inspection, etc. Further, the inspection device 2 also includes a device for inspecting the ground condition at the inspection position of the ground, and can perform, for example, a geological survey, an in-situ test, a geophysical survey, and the like.

打音検査には、点検ハンマーで打撃し打音の違いにより変状箇所を判定する手法や、打撃による弾性波の周波数の違いにより変状箇所を判定する手法等がある。これらの手法を実現するための検査装置2として、集音機付きハンマー、周波数測定器付きハンマー等がある。 The hitting sound inspection includes a method of hitting with an inspection hammer and determining a deformed part based on the difference in hitting sound, and a method of judging a deformed part based on a difference in the frequency of elastic waves due to hitting. As the inspection device 2 for realizing these methods, there are a hammer with a sound collector, a hammer with a frequency measuring device, and the like.

赤外線検査は、物体表面から放射される赤外線を映像として捉え、コンター図が示す寒暖の違いから変状箇所を特定する手法である。この手法を実現するための検査装置2として、赤外線カメラ(ビデオカメラを含む)等がある。 Infrared inspection is a method of capturing infrared rays radiated from the surface of an object as an image and identifying the deformed part from the difference in temperature shown in the contour diagram. As an inspection device 2 for realizing this method, there is an infrared camera (including a video camera) and the like.

このほか、外観検査はデジタルカメラ等により実施できる。コンクリートの圧縮強度検査(コア強度、反発度法等による強度推定)はコアドリル、リバウンドハンマー等により実施できる。ひび割れ・はく離・空洞検査(サーモグラフィー、弾性波、打音法等による)は赤外線映像装置、弾性波発生・受信装置、AE信号検出装置等により実施できる。鉄筋・かぶり厚さ・埋設物検査(電磁誘導、電磁波レーダ、X線等による)は鉄筋探査機、電磁波レーダ、X線装置等により実施できる。鉄筋腐食検査(中性化深さ、塩化物イオン含有量、鉄筋腐食量等による)はドリル、電圧計、分極抵抗計測器、電気抵抗計測器等により実施できる。アルカリシリカ反応検査は電子顕微鏡により実施できる。火災検査(反発度試験、中性化試験、コア抜取り試験、振動試験、載荷試験等)はリバウンドハンマー、ドリル、コアドリル、振動試験装置等により実施できる。また、地盤状況を検査する装置として、地質調査(ボーリングコア、N値、穿孔エネルギー等による)はボーリングマシン、標準貫入試験器、削孔検層器等により実施できる。原位置試験(弾性係数、地盤支持力、コーン指数、岩盤強度等による)は孔内載荷試験機、平板載荷試験機、コーン貫入試験機、ロックシュミットハンマー等により実施できる。物理探査(弾性波、比抵抗等による)は弾性波発生・受信装置、電気探査装置等により実施できる。 In addition, visual inspection can be carried out with a digital camera or the like. The compressive strength inspection of concrete (strength estimation by core strength, resilience method, etc.) can be carried out by a core drill, rebound hammer, or the like. Crack / peeling / cavity inspection (by thermography, elastic wave, tapping method, etc.) can be performed by an infrared imaging device, elastic wave generator / receiver, AE signal detection device, or the like. Reinforcing bar / cover thickness / buried object inspection (by electromagnetic induction, electromagnetic wave radar, X-ray, etc.) can be carried out by a reinforcing bar probe, electromagnetic wave radar, X-ray device, or the like. Reinforcing bar corrosion inspection (based on neutralization depth, chloride ion content, reinforcing bar corrosion amount, etc.) can be carried out by a drill, a voltmeter, a polarization resistance measuring instrument, an electric resistance measuring instrument, or the like. The alkali-silica reaction test can be performed with an electron microscope. Fire inspection (repulsion test, neutralization test, core extraction test, vibration test, loading test, etc.) can be performed by a rebound hammer, drill, core drill, vibration test device, or the like. In addition, as a device for inspecting the ground condition, a geological survey (based on boring core, N value, drilling energy, etc.) can be carried out by a boring machine, a standard penetration tester, a drilling logging device, or the like. The in-situ test (based on elastic modulus, ground bearing capacity, cone index, rock strength, etc.) can be performed by an in-hole loading tester, a flat plate loading tester, a cone penetration tester, a rock Schmidt hammer, or the like. Geophysical exploration (by elastic wave, resistivity, etc.) can be carried out by elastic wave generator / receiver, electrical exploration device, etc.

検査位置特定部11は、検査装置2が上述のような検査を実行したことを検知する。例えば打音検査の場合、検査位置特定部11は、検査装置2が備える点検ハンマーによる打撃を検出する。例えば、空間認識装置1と検査装置2とが連結していれば、検査位置特定部11は、空間認識装置1が備える加速度センサにより打撃の際に生じる加速度の変化を検出することができる。又は、検査位置特定部11は、カメラ又はデプスセンサが取得する画像データ又は3次元点群データを解析することにより、点検ハンマーの先端部が構造物表面に接触したことを検出することができる。あるいは、検査位置特定部11は、空間認識装置1が備えるマイクにより打撃の際に生じる音の変化を検出することができる。赤外線検査の場合、検査位置特定部11は検査装置2と通信し、検査装置2が備える赤外線カメラの撮影実行を検出することができる。 The inspection position specifying unit 11 detects that the inspection device 2 has executed the above-mentioned inspection. For example, in the case of a tapping sound inspection, the inspection position specifying unit 11 detects a hit by an inspection hammer included in the inspection device 2. For example, if the space recognition device 1 and the inspection device 2 are connected, the inspection position specifying unit 11 can detect the change in acceleration that occurs at the time of hitting by the acceleration sensor included in the space recognition device 1. Alternatively, the inspection position specifying unit 11 can detect that the tip of the inspection hammer has come into contact with the surface of the structure by analyzing the image data or the three-dimensional point cloud data acquired by the camera or the depth sensor. Alternatively, the inspection position specifying unit 11 can detect a change in sound generated at the time of hitting by the microphone provided in the space recognition device 1. In the case of infrared inspection, the inspection position specifying unit 11 can communicate with the inspection device 2 and detect the shooting execution of the infrared camera included in the inspection device 2.

加えて、検査位置特定部11は、検査装置2により検査が実行された際の検査位置を特定する。例えば打音検査の場合、検査位置特定部11は、カメラ又はデプスセンサが取得する画像データ又は3次元点群データを解析することにより、検査の実行を検知した瞬間の点検ハンマーの先端部の座標を特定することができる。赤外線検査の場合、検査位置特定部11は、空間認識装置1と検査装置2との相対的な位置関係や赤外線カメラの向き及び画角等に基づいて、赤外線カメラの撮影範囲を示す座標のセットを特定することができる。 In addition, the inspection position specifying unit 11 specifies the inspection position when the inspection is executed by the inspection device 2. For example, in the case of tapping sound inspection, the inspection position specifying unit 11 analyzes the image data or the three-dimensional point cloud data acquired by the camera or the depth sensor to obtain the coordinates of the tip of the inspection hammer at the moment when the inspection execution is detected. Can be identified. In the case of infrared inspection, the inspection position specifying unit 11 sets coordinates indicating the shooting range of the infrared camera based on the relative positional relationship between the space recognition device 1 and the inspection device 2, the orientation of the infrared camera, the angle of view, and the like. Can be identified.

出力部13は、検査位置特定部11が取得した検査位置と、検査装置2による検査結果とを関連付けて出力する。検査位置は、1以上の三次元座標データである。検査結果は、変状に関する情報であり、例えば打音検査であれば打撃時の音響データ、赤外線検査であれば撮影データ、又はこれらのデータに基づく検査者の所見を示す情報等であっても良い。例えば空間認識装置1内の図示しない記憶領域に出力しても良く、空間認識装置1の通信機能を介して外部の装置に出力しても良い。 The output unit 13 outputs the inspection position acquired by the inspection position specifying unit 11 in association with the inspection result by the inspection device 2. The inspection position is one or more three-dimensional coordinate data. The inspection result is information on the deformation, for example, acoustic data at the time of hitting in the case of tapping sound inspection, imaging data in the case of infrared inspection, or information indicating the inspector's findings based on these data. good. For example, it may be output to a storage area (not shown) in the space recognition device 1, or may be output to an external device via the communication function of the space recognition device 1.

実施の形態1では、検査装置2による構造物の検査の様子を空間認識装置1が観察することで、変状に関する情報と検査位置とをデータとして直接取得することができる。これにより、従来の手作業に比較して効率性および正確性が向上する。 In the first embodiment, the space recognition device 1 observes the state of the structure inspection by the inspection device 2, so that the information on the deformation and the inspection position can be directly acquired as data. This improves efficiency and accuracy compared to traditional manual labor.

<実施の形態2>
図5は、本発明の実施の形態2にかかる検査システム100の機能構成を示す図である。検査システム100は、実施の形態1と同様の空間認識装置1、検査装置2のほか、これらを搭載した移動体3を含む。
<Embodiment 2>
FIG. 5 is a diagram showing a functional configuration of the inspection system 100 according to the second embodiment of the present invention. The inspection system 100 includes a space recognition device 1 and an inspection device 2 similar to those in the first embodiment, and a mobile body 3 equipped with these.

図6は、検査システム100のハードウェア構成例を示す図である。空間認識装置1としては、実施の形態1と同様の頭部装着型デバイスを採用できる。また検査装置2として、頭部装着型デバイスが搭載するカメラを採用できる。空間認識装置1、検査装置2の構成及び効果のうち実施の形態1と重複するものについては、本実施の形態では適宜記載を省略する。 FIG. 6 is a diagram showing a hardware configuration example of the inspection system 100. As the space recognition device 1, a head-mounted device similar to that of the first embodiment can be adopted. Further, as the inspection device 2, a camera mounted on a head-mounted device can be adopted. Of the configurations and effects of the space recognition device 1 and the inspection device 2, those that overlap with the first embodiment will be omitted as appropriate in the present embodiment.

実施の形態1と同様に、空間認識装置1は自己位置を特定することができる。また、実施の形態1と同様に、検査位置特定部11は、検査装置2による検査の実行、例えば頭部装着型デバイスが搭載するカメラによる撮影を実行したことを検知し、撮影範囲を示す座標のセットを特定して検査位置とする。出力部13は、検査位置と、撮影データ(画像データ)とを関連付けて出力する。 Similar to the first embodiment, the space recognition device 1 can specify the self-position. Further, as in the first embodiment, the inspection position specifying unit 11 detects that the inspection device 2 has executed the inspection, for example, the shooting by the camera mounted on the head-mounted device, and the coordinates indicating the shooting range. The set of is specified and set as the inspection position. The output unit 13 outputs the inspection position in association with the shooting data (image data).

実施の形態2にかかる空間認識装置1は、移動指示部14をさらに有する。移動指示部14は、空間認識装置1が認識する自己位置と、予め指定された移動経路とに基づいて、移動体3に移動を指令する。典型的には、所定の間隔で自己位置を更新しつつ、予め指定された移動経路との差分に基づくフィードバック制御等を行いながら、移動方向及び速度等を含む指令を出力する。 The space recognition device 1 according to the second embodiment further includes a movement instruction unit 14. The movement instruction unit 14 commands the moving body 3 to move based on the self-position recognized by the space recognition device 1 and the movement route designated in advance. Typically, while updating the self-position at predetermined intervals and performing feedback control or the like based on the difference from the movement path specified in advance, a command including the movement direction and speed is output.

移動経路は、典型的には順序又は時刻情報を持つ1以上の3次元座標データのセットとして与えられる。例えば、図示しないPC(Personal Computer)等を使用し、検査対象の構造物のCADデータ上で、移動の最終目的地である目標地点と、自動航行する移動体3を経由させたい座標を順番に指定する。こうして得られた3次元座標データのセットを移動経路として移動指示部14に入力する。空間認識装置1は、CADデータの座標系と自己が認識する座標系とを相互に変換できる。よって移動指示部14は、CADデータ上で指定された移動経路を自己が認識する座標系に置き換え、現実空間に適合した移動経路を指令できる。すなわち、空間認識装置1を搭載した移動体3の現在位置を出発地点とし、最初に指定された座標まで移動するよう指令を出力する。その座標に到達したならば、次に指定された座標へ移動させる。これを繰り返すことで目標地点の座標まで移動体3を自動航行させることができる。 The travel path is typically given as a set of one or more 3D coordinate data with sequence or time information. For example, using a PC (Personal Computer) or the like (not shown), on the CAD data of the structure to be inspected, the target point, which is the final destination of the movement, and the coordinates to be passed through the automatically navigating moving body 3 are sequentially set. specify. The set of the three-dimensional coordinate data thus obtained is input to the movement instruction unit 14 as a movement path. The space recognition device 1 can mutually convert the coordinate system of CAD data and the coordinate system recognized by itself. Therefore, the movement instruction unit 14 can replace the movement route specified on the CAD data with a coordinate system recognized by itself, and can command a movement route suitable for the real space. That is, the current position of the moving body 3 equipped with the space recognition device 1 is set as the starting point, and a command is output to move to the coordinates specified first. When it reaches that coordinate, it moves to the next specified coordinate. By repeating this, the moving body 3 can be automatically navigated to the coordinates of the target point.

移動体3は、与えられる指令に従って空間内を移動可能な装置であり、例えばドローンや車両である。移動体3は、カメラリグ31、移動制御部32を有する。図6の例では、空間認識装置1、検査装置2である頭部装着型デバイスが、カメラリグ31を介して、移動体3であるドローンに固定されている。また移動体3は、移動体3自身や空間認識装置1、検査装置2を壁面等との衝突に伴う衝撃から守るためのゲージを備えていても良い。 The moving body 3 is a device that can move in space according to a given command, for example, a drone or a vehicle. The moving body 3 has a camera rig 31 and a movement control unit 32. In the example of FIG. 6, the head-mounted device, which is the space recognition device 1 and the inspection device 2, is fixed to the drone, which is the moving body 3, via the camera rig 31. Further, the moving body 3 may be provided with a gauge for protecting the moving body 3 itself, the space recognition device 1, and the inspection device 2 from an impact caused by a collision with a wall surface or the like.

移動制御部32は、移動指示部14が出力する指令を受信し、指令に従って移動方向及び速度等を制御する。 The movement control unit 32 receives a command output by the movement instruction unit 14, and controls the movement direction, speed, and the like according to the command.

検査装置2は、移動体3が目標地点に到達したことを検知し、検査を実行する。例えば、頭部装着型デバイスが搭載するカメラにより構造物の表面を撮影する。 The inspection device 2 detects that the moving body 3 has reached the target point and executes the inspection. For example, the surface of a structure is photographed by a camera mounted on a head-mounted device.

移動指示部14は、検査装置2による検査の実行および検査位置特定部11による検査位置の特定が完了したならば、往路を逆に辿る指令を移動制御部32に順次与えることにより、出発地点まで自律航行することができる。 When the movement instruction unit 14 completes the execution of the inspection by the inspection device 2 and the identification of the inspection position by the inspection position identification unit 11, the movement instruction unit 14 sequentially gives a command to follow the outward route in the reverse direction to the movement control unit 32 to reach the starting point. It can navigate autonomously.

実施の形態2では、Hololens等の空間認識装置1を用いて、事前に指定した検査箇所にドローン等の移動体3を自律航行させ、検査箇所における検査を実行し、検査結果と検査箇所の座標とを関連付けて取得する。これにより、人による接近が難しい検査箇所における検査を実行できる。例えば、自然災害発生箇所、トンネル施工中の切羽、橋梁などの高所等において、盛土、切土などの土構造物の地層、亀裂、変状状況等、コンクリート構造物のひび割れ、損傷、剥離、剥落、漏水、変状状況等、トンネル施工中の切羽における地質、風化変質状況、亀裂幅、亀裂間隔、湧水状況等を検査することができる。しかも、目標地点等を任意に設定できるため、例えばカメラにより近接目視できるような距離まで検査装置2を近づかせ、精緻に変状の調査を行うことができる。 In the second embodiment, a space recognition device 1 such as HoloLens is used to autonomously navigate a moving body 3 such as a drone to a predetermined inspection location, execute an inspection at the inspection location, and perform an inspection at the inspection location. Get in association with. This makes it possible to carry out an inspection at an inspection site that is difficult for humans to approach. For example, cracks, damage, peeling, etc. of concrete structures such as embankments, cuts and other soil structures, cracks, deformations, etc., at places where natural disasters occur, facets during tunnel construction, high places such as bridges, etc. It is possible to inspect the geology, weathering and alteration of the face during tunnel construction, crack width, crack interval, spring water, etc., such as exfoliation, water leakage, and deformation. Moreover, since the target point and the like can be set arbitrarily, the inspection device 2 can be brought close to a distance that can be visually observed by a camera, and the deformation can be investigated precisely.

従来のGPSによる自律航行機能を備えたドローンでは、自動航行の精度はGPSの精度に大きく左右されるが、実施の形態2によれば、移動体3を正確に目標地点に航行させることが可能となる。 In the conventional drone equipped with the autonomous navigation function by GPS, the accuracy of automatic navigation is greatly affected by the accuracy of GPS, but according to the second embodiment, the moving body 3 can be accurately navigated to the target point. It becomes.

実施の形態2の応用例として、以前に実施の形態1の手法で特定した検査箇所、又は検査員が手作業で検査を行った際の検査箇所を、移動指示部14に目標地点として与えることができる。これにより、例えば盛土、切土などの土構造物の地層、亀裂、変状状況等、コンクリート構造物のひび割れ、損傷、剥離、剥落、漏水、変状等の進展状況を継続的に観察することが可能となる。 As an application example of the second embodiment, the inspection point previously specified by the method of the first embodiment or the inspection point when the inspector manually inspects is given to the movement instruction unit 14 as a target point. Can be done. In this way, it is possible to continuously observe the progress of cracks, damage, peeling, exfoliation, water leakage, deformation, etc. of concrete structures, such as strata, cracks, and deformation of soil structures such as embankments and cuts. Is possible.

<実施の形態3>
図7は、本発明の実施の形態3にかかる検査システム100の機能構成を示す図である。検査システム100は、実施の形態2と同様の空間認識装置1、検査装置2、移動体3のほか、空間認識装置1と相互に通信可能な端末装置4を含む。端末装置4は、表示部41、入力部42、検査位置特定部43、軌跡取得部44、出力部45を含む。
<Embodiment 3>
FIG. 7 is a diagram showing a functional configuration of the inspection system 100 according to the third embodiment of the present invention. The inspection system 100 includes a space recognition device 1, an inspection device 2, a mobile body 3 similar to the second embodiment, and a terminal device 4 capable of communicating with the space recognition device 1. The terminal device 4 includes a display unit 41, an input unit 42, an inspection position specifying unit 43, a locus acquisition unit 44, and an output unit 45.

図8は、検査システム100のハードウェア構成例を示す図である。空間認識装置1としては、実施の形態1及び2と同様の頭部装着型デバイスを採用できる。また検査装置2として、頭部装着型デバイスが搭載するカメラを採用できる。移動体3は、例えば空間認識装置1、検査装置2を搭載して自動航行するドローンである。端末装置4は、空間認識装置1、検査装置2、移動体3から遠隔した位置に配置される情報処理装置である。空間認識装置1、検査装置2、移動体3の構成及び効果のうち実施の形態1及び2と重複するものについては、本実施の形態では適宜記載を省略する。 FIG. 8 is a diagram showing a hardware configuration example of the inspection system 100. As the space recognition device 1, a head-mounted device similar to the first and second embodiments can be adopted. Further, as the inspection device 2, a camera mounted on a head-mounted device can be adopted. The moving body 3 is, for example, a drone equipped with a space recognition device 1 and an inspection device 2 and automatically navigates. The terminal device 4 is an information processing device arranged at a position remote from the space recognition device 1, the inspection device 2, and the mobile body 3. Of the configurations and effects of the space recognition device 1, the inspection device 2, and the moving body 3, those that overlap with the first and second embodiments will be omitted as appropriate in the present embodiment.

端末装置4は、空間認識装置1と通信を行い、空間認識装置1の現在位置で撮影された画像データと、撮影時の周囲の構造物の表面の形状を示す三次元点群データ、カメラの位置及び向きを示すデータ等を取得する。 The terminal device 4 communicates with the space recognition device 1, and includes image data taken at the current position of the space recognition device 1, three-dimensional point cloud data indicating the shape of the surface of the surrounding structure at the time of shooting, and a camera. Acquire data indicating the position and orientation.

表示部41は、取得された画像データを表示する。入力部42は、この画像に対して検査者が実行する入力操作を取得する。例えば、表示部41、入力部42はタッチパネルディスプレイとして一体化された装置であって良い。この場合、入力部42は、表示部41であるディスプレイに表示された画像上で検査者がタッチした位置(指定位置)の座標を取得する。 The display unit 41 displays the acquired image data. The input unit 42 acquires an input operation performed by the inspector on this image. For example, the display unit 41 and the input unit 42 may be an integrated device as a touch panel display. In this case, the input unit 42 acquires the coordinates of the position (designated position) touched by the inspector on the image displayed on the display which is the display unit 41.

検査位置特定部43は、画像上における指定位置の座標を、撮影時の周囲の構造物の表面の形状を示す3次元点群データの座標系に変換し、変換後の指定位置をカメラ視点で構造物表面に投影した投影点を検査位置として特定する。 The inspection position specifying unit 43 converts the coordinates of the designated position on the image into a coordinate system of three-dimensional point cloud data indicating the shape of the surface of the surrounding structure at the time of shooting, and the converted designated position is viewed from the camera viewpoint. The projection point projected on the surface of the structure is specified as the inspection position.

軌跡取得部44は、1以上の検査位置からなる時系列データを軌跡として取得する。例えば検査者がタッチパネル上で指先を動かす動作をした場合、その指先の軌跡、より正確には指先の座標の構造物表面への投影点の時系列データが取得される。 The locus acquisition unit 44 acquires time-series data consisting of one or more inspection positions as a locus. For example, when the inspector moves the fingertip on the touch panel, the trajectory of the fingertip, or more accurately, the time-series data of the projection point of the coordinates of the fingertip on the structure surface is acquired.

出力部45は、軌跡取得部44が取得した軌跡を出力する。 The output unit 45 outputs the locus acquired by the locus acquisition unit 44.

実施の形態3では、検査者はドローン等に搭載された空間認識装置1から端末装置4に配信される映像をモニターで見ながら、モニター上で壁面のひび割れ等の変状箇所を指先でなぞるような動作を行う。これにより、ひび割れの形状(大きさ、角度等の情報を含む)や座標を、指先で指図した軌跡の形状や座標といったデータとして直接取得することができる。この際、指先は変状箇所に直接触れる必要はなく、モニター上でなぞる動作をすれば、指先の延長上にある壁面上の座標が取得できる。 In the third embodiment, the inspector traces a deformed part such as a crack on the wall surface on the monitor while watching the image delivered from the space recognition device 1 mounted on the drone or the like to the terminal device 4 on the monitor. Perform various operations. As a result, the shape (including information such as size and angle) and coordinates of the crack can be directly acquired as data such as the shape and coordinates of the locus instructed by the fingertip. At this time, the fingertip does not have to touch the deformed part directly, and the coordinates on the wall surface on the extension of the fingertip can be obtained by tracing on the monitor.

実施の形態3によれば、検査者が直接近接することが難しい検査位置であっても、遠隔地から検査を行うことが可能となる。これにより、人を近接させるために要していた設備、例えば高所作業車等が不要となる。また、検査者の安全性が確保される。さらに、専門知識を有する技術者の現地派遣が不要となるため、限られた人材を有効に活用することができる。 According to the third embodiment, it is possible to perform the inspection from a remote place even at the inspection position where it is difficult for the inspector to directly approach. This eliminates the need for equipment required to bring people closer, such as aerial work platforms. In addition, the safety of the inspector is ensured. Furthermore, since it is not necessary to dispatch engineers with specialized knowledge to the site, limited human resources can be effectively utilized.

実施の形態3の応用例として、移動体3にスプレーやカラーボール等のマーキング装置を搭載し、遠隔で指定された検査位置に対してスプレーやカラーボール等を発射することで、構造物の表面に直接マーキングを行うことができる。これにより、従来の目視による検査と本発明とを併用することも可能とある。 As an application example of the third embodiment, a marking device such as a spray or a color ball is mounted on the moving body 3, and the spray or the color ball or the like is fired at a remotely designated inspection position to obtain the surface of the structure. Can be marked directly on. This makes it possible to use the conventional visual inspection and the present invention in combination.

また、実施の形態3においては、端末装置4において軌跡の形状及び座標を取得できるため、空間認識装置1は、検査位置特定部11、出力部13を必ずしも備えなくても良い。 Further, in the third embodiment, since the shape and coordinates of the locus can be acquired by the terminal device 4, the space recognition device 1 does not necessarily have to include the inspection position specifying unit 11 and the output unit 13.

<実施の形態4>
図9は、本発明の実施の形態4にかかる検査システム100の機能構成を示す図である。検査システム100は、実施の形態1乃至3のような空間認識装置1、検査装置2を含む。さらに、実施の形態2のような移動体3、実施の形態3のような端末装置4を含んでも良い。
<Embodiment 4>
FIG. 9 is a diagram showing a functional configuration of the inspection system 100 according to the fourth embodiment of the present invention. The inspection system 100 includes a space recognition device 1 and an inspection device 2 as in the first to third embodiments. Further, the mobile body 3 as in the second embodiment and the terminal device 4 as in the third embodiment may be included.

これらに加えて、検査システム100は、機械学習部5を有する。機械学習部5は、前処理部51、認識部52を有する。機械学習部5は、典型的には空間認識装置1が備えるが、検査装置2、端末装置4など他のハードウェア内に実装されても良い。あるいは、図示しない外部のサーバや、クラウドコンピューティング、エッジコンピューティング、フォグコンピューティング等の手法により実装されても良い。 In addition to these, the inspection system 100 has a machine learning unit 5. The machine learning unit 5 has a preprocessing unit 51 and a recognition unit 52. The machine learning unit 5 is typically provided in the space recognition device 1, but may be mounted in other hardware such as the inspection device 2 and the terminal device 4. Alternatively, it may be implemented by an external server (not shown) or a method such as cloud computing, edge computing, or fog computing.

前処理部51は、検査装置2による検査結果に基づく機械学習用データを生成する。例えば、検査装置2であるカメラにより撮影された構造物の表面の画像データから抽出した特徴量を機械学習用データとして利用できる。又は、点検ハンマーによる打撃時の音響データから特徴量を機械学習用データとして利用することもできる。 The preprocessing unit 51 generates machine learning data based on the inspection result by the inspection device 2. For example, the feature amount extracted from the image data of the surface of the structure taken by the camera which is the inspection device 2 can be used as the machine learning data. Alternatively, the feature amount can be used as machine learning data from the acoustic data at the time of hitting with the inspection hammer.

認識部52は、機械学習用データを学習済みモデルに入力し、変状を認識する。学習済みモデルは、機械学習用データの入力に対して、それが変状であるか否かを示す判定データを出力することができる。学習済みモデルは、例えば過去の検査において収集された画像データ又は音響データと、熟練の検査者によって作成された当該画像又は音が変状であるか否かを示すデータと、を教師データとする教師あり学習を行うことにより生成できる。 The recognition unit 52 inputs machine learning data into the trained model and recognizes the deformation. The trained model can output determination data indicating whether or not it is deformed in response to input of machine learning data. The trained model uses, for example, image data or acoustic data collected in a past inspection and data indicating whether or not the image or sound created by a skilled inspector is deformed as supervised data. It can be generated by supervised learning.

実施の形態4によれば、例えば移動体3を移動させながらカメラ又は点検ハンマー等を稼働させ、取得された画像データ又は音響データ等を用いて機械学習部5による変状の有無の判定を行い、変状であると判定された場合に検査位置と検査結果とを関連付けて出力するよう構成することができる。これにより、自律的な変状検査が可能となる。 According to the fourth embodiment, for example, the camera or the inspection hammer is operated while moving the moving body 3, and the machine learning unit 5 determines whether or not there is any deformation using the acquired image data or acoustic data. , It can be configured to output the inspection position and the inspection result in association with each other when it is determined to be abnormal. This enables autonomous deformation inspection.

<実施の形態5>
図10は、本発明の実施の形態5にかかる検査システム100の機能構成を示す図である。検査システム100は、実施の形態1乃至4に示すような空間認識装置1のほか、検査装置2、移動体3、端末装置4を含んで良い。
<Embodiment 5>
FIG. 10 is a diagram showing a functional configuration of the inspection system 100 according to the fifth embodiment of the present invention. The inspection system 100 may include an inspection device 2, a mobile body 3, and a terminal device 4 in addition to the space recognition device 1 as shown in the first to fourth embodiments.

これらに加えて、検査システム100は、プロット装置6を有する。プロット装置6は、変換座標取得部61、プロット部62を有する。 In addition to these, the inspection system 100 has a plotting device 6. The plotting device 6 has a converted coordinate acquisition unit 61 and a plotting unit 62.

変換座標取得部61は、検査位置の座標を、実空間に設定された原点により規定される座標系に変換する。すなわち、実空間に任意の原点を設定すると、空間認識装置1の位置は原点に対する相対位置として表される。上述の実施の形態では主に、空間認識装置1が出力する検査位置は空間認識装置1固有の座標系で表現されている場合について説明した。変換座標取得部61は、このような検査位置の座標を実空間に設定した座標系に変換し、変換後の検査位置の座標を出力する。座標は三次元座標である。なお、空間認識装置1が複数の検査位置を保存しており、変換前の検査位置に順序、時間、又は任意の属性情報等が付加されている場合、変換座標取得部61は、変換後の検査位置にもこれらの情報を付加することができる。これにより、例えばどのような順序でどのような種別の座標が形成されたかを管理できる。 The conversion coordinate acquisition unit 61 converts the coordinates of the inspection position into a coordinate system defined by the origin set in the real space. That is, when an arbitrary origin is set in the real space, the position of the space recognition device 1 is expressed as a relative position with respect to the origin. In the above-described embodiment, the case where the inspection position output by the space recognition device 1 is represented by the coordinate system peculiar to the space recognition device 1 has been mainly described. The converted coordinate acquisition unit 61 converts the coordinates of such an inspection position into a coordinate system set in the real space, and outputs the coordinates of the converted inspection position. The coordinates are three-dimensional coordinates. When the space recognition device 1 stores a plurality of inspection positions and the order, time, or arbitrary attribute information is added to the inspection positions before conversion, the conversion coordinate acquisition unit 61 performs the conversion after conversion. This information can also be added to the inspection position. Thereby, for example, it is possible to manage what kind of coordinates are formed in what order.

プロット部62は、変換座標取得部61が生成した三次元座標情報を図面内にプロットする。典型的なプロット手法としては、CADデータ内にプロットする手法と、展開図にプロットする手法とがある。 The plotting unit 62 plots the three-dimensional coordinate information generated by the conversion coordinate acquisition unit 61 in the drawing. Typical plotting methods include a method of plotting in CAD data and a method of plotting in a development view.

CADデータにプロットする場合、プロット部62は、変換座標取得部61が出力する三次元座標を、CADデータの座標系に変換し、検査位置に相当する点座標を描画する。複数の検査位置が出力されており、順序又は時間等のデータが付加されている場合、プロット部62は、検査位置に相当する点座標を時系列順につなぎ合わせた軌跡を描画しても良い。検査位置に属性情報等のデータが付加されている場合、プロット部62は、属性情報に応じた表示を行っても良い。例えば、検査位置に相当する点座標や軌跡の表示形態(色やサイズ等)を属性情報に応じて変更しても良い。又は、属性情報を示す文字や記号等を描画しても良い。 When plotting on CAD data, the plotting unit 62 converts the three-dimensional coordinates output by the conversion coordinate acquisition unit 61 into the coordinate system of the CAD data, and draws the point coordinates corresponding to the inspection position. When a plurality of inspection positions are output and data such as order or time is added, the plotting unit 62 may draw a locus in which the point coordinates corresponding to the inspection positions are connected in chronological order. When data such as attribute information is added to the inspection position, the plotting unit 62 may display according to the attribute information. For example, the display form (color, size, etc.) of the point coordinates and the locus corresponding to the inspection position may be changed according to the attribute information. Alternatively, characters or symbols indicating attribute information may be drawn.

構造物の二次元展開図にプロットする場合、プロット部62は、構造物を二次元に展開した展開図を生成した後、各検査位置に相当する点座標を展開図上に描画する。 When plotting on a two-dimensional development view of a structure, the plotting unit 62 draws point coordinates corresponding to each inspection position on the development view after generating a development view in which the structure is two-dimensionally developed.

弧を有する構造物の展開図を生成する場合、プロット部62は、空間認識装置1が取得した構造物の表面の三次元点群データに基づいて弧の曲率を求め、構造物の表面を、弧を直線化したXY平面に変換する。これにより、検査位置もXY表面上の点として表現される。なお、デプスセンサの精度のばらつき等により、検査位置の座標がXY平面上にない場合もある。この場合は、検査位置を、XY平面への垂直投影点等の近似値に変換したうえでプロットする。 When generating a development view of a structure having an arc, the plotting unit 62 obtains the curvature of the arc based on the three-dimensional point group data of the surface of the structure acquired by the space recognition device 1, and obtains the curvature of the arc on the surface of the structure. Converts the arc into a straightened XY plane. Thereby, the inspection position is also expressed as a point on the XY surface. The coordinates of the inspection position may not be on the XY plane due to variations in the accuracy of the depth sensor. In this case, the inspection position is converted into an approximate value such as a vertical projection point on the XY plane and then plotted.

弧を有しない構造物の展開図を生成する場合、プロット部62は、空間認識装置1が取得した構造物の表面の三次元点群データに基づいて、構造物の上面図、底面図、各方位の側面図を生成する。そして、これらの各図に検査位置をプロットする。なお、デプスセンサの精度のばらつき等により、検査位置の座標が各図の平面上にない場合もある。この場合は、検査位置を、最も近い平面への垂直投影点等の近似値に変換したうえでプロットする。 When generating a developed view of a structure having no arc, the plotting unit 62 sets the top view and bottom view of the structure based on the three-dimensional point cloud data of the surface of the structure acquired by the space recognition device 1. Generate a side view of the orientation. Then, the inspection position is plotted on each of these figures. The coordinates of the inspection position may not be on the plane of each figure due to variations in the accuracy of the depth sensor. In this case, the inspection position is converted into an approximate value such as a vertical projection point on the nearest plane before plotting.

なお、構造物の二次元展開図にプロットする場合も、複数の検査位置が出力されており、順序又は時間等のデータが付加されている場合は、プロット部62は、検査位置に相当する点座標を時系列順につなぎ合わせた軌跡を描画しても良い。検査位置に属性情報等のデータが付加されている場合、プロット部62は、属性情報に応じた表示を行っても良い。 Even when plotting on a two-dimensional development view of a structure, if a plurality of inspection positions are output and data such as order or time is added, the plotting unit 62 is a point corresponding to the inspection position. A locus in which the coordinates are connected in chronological order may be drawn. When data such as attribute information is added to the inspection position, the plotting unit 62 may display according to the attribute information.

実施の形態5によれば、小型のデプスセンサを搭載したウェアラブル端末等の空間認識装置1を使用することによって、変状の位置管理から展開図生成までもが可能になる。よって、従来のレーザスキャナ等のような固定的な装置を設置することによる制約を受けない。また、従来の手作業による点検と比較しても、点検により得られる情報(変状箇所の状態)と、点検した箇所(変状箇所の座標)とを関連付けたデータが一気通貫で出力できるので、効率性および正確性に優れ、過去に記録した変状との比較等も容易となる。 According to the fifth embodiment, by using the space recognition device 1 such as a wearable terminal equipped with a small depth sensor, it is possible to manage the deformed position and generate the development view. Therefore, it is not restricted by installing a fixed device such as a conventional laser scanner. In addition, even when compared with the conventional manual inspection, data that associates the information obtained by the inspection (state of the deformed part) with the inspected part (coordinates of the deformed part) can be output all at once. Therefore, it is excellent in efficiency and accuracy, and it is easy to compare with the deformation recorded in the past.

なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上述の実施の形態において示した各種処理手段のソフトウェア又はハードウェアによる実装方法はあくまで一例であり、他の手法で代替されても良い。例えば、実施の形態では同一の筐体内に実装することとした複数の処理手段を、複数の異なるハードウェアとして提供することができる。又は、実施の形態では異なるハードウェアに実装することとした複数の処理手段を、1つのハードウェアに実装することができる。また、任意の処理手段又は処理手段のうち一部の機能をクラウドコンピューティング、エッジコンピューティング、フォグコンピューティング等の技術により実現することとしても良い。 The present invention is not limited to the above embodiment, and can be appropriately modified without departing from the spirit. For example, the method of implementing the various processing means shown in the above-described embodiment by software or hardware is merely an example, and may be replaced by another method. For example, in the embodiment, it is possible to provide a plurality of processing means to be mounted in the same housing as a plurality of different hardware. Alternatively, a plurality of processing means that are to be implemented in different hardware in the embodiment can be implemented in one hardware. Further, some functions of any processing means or processing means may be realized by technologies such as cloud computing, edge computing, and fog computing.

また、上述の実施の形態において示した計算手法、センシング手法等はあくまで一例であり、同等の機能を有する他の手法によって代替されても良い。 Further, the calculation method, the sensing method, and the like shown in the above-described embodiment are merely examples, and may be replaced by another method having an equivalent function.

また本発明を構成する各処理手段は、ハードウェアにより構成されるものであってもよく、任意の処理をCPUにコンピュータプログラムを実行させることにより実現するものであってもよい。また、コンピュータプログラムは、様々なタイプの一時的又は非一時的なコンピュータ可読媒体を用いて格納され、コンピュータに供給することができる。一時的なコンピュータ可読媒体は、例えば有線又は無線によりコンピュータに供給される電磁的な信号を含む。 Further, each processing means constituting the present invention may be configured by hardware, or may be realized by causing a CPU to execute a computer program for arbitrary processing. Computer programs can also be stored and supplied to a computer using various types of temporary or non-transitory computer-readable media. Temporary computer-readable media include electromagnetic signals supplied to the computer, for example by wire or wirelessly.

100 構造物の検査システム
1 空間認識装置
11 検査位置特定部
13 出力部
14 移動指示部
2 検査装置
3 移動体
31 移動制御部
4 端末装置
41 表示部
42 入力部
43 検査位置特定部
44 軌跡取得部
45 出力部
5 機械学習部
51 前処理部
52 認識部
6 プロット装置
61 変換座標取得部
62 プロット部
100 Structure inspection system 1 Space recognition device 11 Inspection position identification unit 13 Output unit 14 Movement instruction unit 2 Inspection device 3 Mobile unit 31 Movement control unit 4 Terminal device 41 Display unit 42 Input unit 43 Inspection position identification unit 44 Trajectory acquisition unit 45 Output unit 5 Machine learning unit 51 Preprocessing unit 52 Recognition unit 6 Plot device 61 Conversion coordinate acquisition unit 62 Plot unit

Claims (7)

構造物表面の検査位置において変状を検査する検査装置と、
前記構造物の三次元形状及び前記検査装置の位置を認識し、前記構造物の三次元形状に基づいて自己位置を認識する空間認識装置と、
前記検査装置と前記空間認識装置を搭載した移動体と、を含み、
前記検査装置が前記検査を実行したことを検知し、前記検知時における前記検査位置を特定する検査位置特定部と、
前記変状に関する情報と、前記検査位置と、を記憶領域に出力する出力部と、を有し、
前記移動体は、前記検査装置が過去に行った前記検査における前記検査位置を目標位置として受け取り、前記自己位置に基づいて前記目標位置に向かって移動し、
前記検査装置は、前記目標位置に到達したことを検知し、前記検査を実行する
検査システム。
An inspection device that inspects deformation at the inspection position on the surface of the structure,
A space recognition device that recognizes the three-dimensional shape of the structure and the position of the inspection device and recognizes its own position based on the three-dimensional shape of the structure.
Anda moving unit incorporating the said space recognition device and the inspection device,
An inspection position specifying unit that detects that the inspection device has executed the inspection and specifies the inspection position at the time of the detection.
It has an output unit that outputs information about the deformation, the inspection position, and the storage area.
The moving body receives the inspection position in the inspection performed in the past by the inspection device as a target position, and moves toward the target position based on the self-position.
The inspection device is an inspection system that detects that the target position has been reached and executes the inspection.
構造物表面の検査位置において前記構造物の表面を撮影することにより、変状を検査する検査装置と、
前記構造物の三次元形状及び前記検査装置の位置を認識する空間認識装置と、
前記空間認識装置と通信可能な端末装置と、を含み、
前記端末装置は、
前記検査装置が前記検査を実行したことを検知し、前記検知時における前記検査位置を特定する検査位置特定部と、
前記変状に関する情報を記憶領域に出力する出力部と
前記撮影画像を表示する表示部と、
前記画像上で検査者が指定した1以上の2次元座標からなる時系列データを取得する入力部と、
前記2次元座標を前記構造物の表面に投影した、1以上の3次元座標からなる時系列データを、前記変状に関する情報として取得する軌跡取得部と、を有する
検査システム。
An inspection device that inspects deformation by photographing the surface of the structure at the inspection position on the surface of the structure.
A space recognition device that recognizes the three-dimensional shape of the structure and the position of the inspection device,
Including a terminal device capable of communicating with the space recognition device,
The terminal device is
An inspection position specifying unit that detects that the inspection device has executed the inspection and specifies the inspection position at the time of the detection.
An output unit for outputting information about the Deformation in the storage area,
A display unit that displays the captured image and
An input unit that acquires time-series data consisting of one or more two-dimensional coordinates specified by the inspector on the image, and an input unit.
An inspection system including a locus acquisition unit that acquires time-series data consisting of one or more three-dimensional coordinates by projecting the two-dimensional coordinates onto the surface of the structure as information on the deformation.
構造物表面の検査位置において変状を検査する検査装置と、
前記構造物の三次元形状及び前記検査装置の位置を認識する空間認識装置と、
前記検査位置をプロットするプロット装置と、を含み、
前記空間認識装置は、
前記検査装置が前記検査を実行したことを検知し、前記検知時における前記検査位置を特定する検査位置特定部と、
前記変状に関する情報と、前記検査位置と、を記憶領域に出力する出力部と、を有し、
前記プロット装置は、
前記検査位置を、実空間に設定された原点により規定される座標系に変換した三次元座標情報を取得する変換座標取得部と、
前記三次元座標情報を図面内にプロットするプロット部と、を有し、
前記プロット部は、前記三次元座標情報が前記構造物の表面上にない場合、前記三次元座標情報を前記構造物の表面への投影点に変換する
検査システム。
An inspection device that inspects deformation at the inspection position on the surface of the structure,
A space recognition device that recognizes the three-dimensional shape of the structure and the position of the inspection device,
Including a plotting device for plotting the inspection position.
The space recognition device is
An inspection position specifying unit that detects that the inspection device has executed the inspection and specifies the inspection position at the time of the detection.
It has an output unit that outputs information about the deformation, the inspection position, and the storage area.
The plotting device is
A conversion coordinate acquisition unit that acquires three-dimensional coordinate information obtained by converting the inspection position into a coordinate system defined by the origin set in the real space.
It has a plot section for plotting the three-dimensional coordinate information in the drawing, and
The plotting unit is an inspection system that converts the three-dimensional coordinate information into a projection point on the surface of the structure when the three-dimensional coordinate information is not on the surface of the structure.
構造物の三次元形状及び検査装置の位置を認識し、前記構造物の三次元形状に基づいて自己位置を認識する空間認識装置と、前記検査装置と、を搭載した移動体が、前記検査装置が過去に行った検査における検査位置を目標位置として受け取り、前記自己位置に基づいて前記目標位置に向かって移動するステップと、
前記検査装置が、前記移動体が前記目標位置に到達したことを検知し、前記構造物表面の前記検査位置において変状を検査するステップと、
前記空間認識装置が、前記検査装置が前記検査を実行したことを検知し、前記検知時における前記検査位置を特定するステップと、
前記空間認識装置が、前記変状に関する情報と、前記検査位置と、を記憶領域に出力するステップと、を含む
検査方法。
A moving body equipped with a space recognition device that recognizes the three-dimensional shape of a structure and the position of an inspection device and recognizes its own position based on the three-dimensional shape of the structure, and the inspection device is the inspection device. a step but which receives an inspection position in the inspection performed in the past as a target position, moves toward the target position based on the self-position,
A step in which the inspection device detects that the moving body has reached the target position and inspects the deformation at the inspection position on the surface of the structure.
The space recognition device detects that the inspection device has executed the inspection, and identifies the inspection position at the time of the detection.
An inspection method in which the space recognition device includes a step of outputting information on the deformation and the inspection position to a storage area.
検査装置が、構造物表面の検査位置において前記構造物の表面を撮影することにより、変状を検査するステップと、
空間認識装置が、前記構造物の三次元形状及び前記検査装置の位置を認識するステップと
端末装置が、前記検査装置が前記検査を実行したことを検知し、前記検知時における前記検査位置を特定するステップと、
端末装置が、前記撮影画像を表示するステップと、
前記端末装置が、前記画像上で検査者が指定した1以上の2次元座標からなる時系列データを取得するステップと、
前記端末装置が、前記2次元座標を前記構造物の表面に投影した、1以上の3次元座標からなる時系列データを、前記変状に関する情報として取得するステップと、
前記端末装置が、前記変状に関する情報を記憶領域に出力するステップと、を含む
検査方法。
A step in which the inspection device inspects the deformation by photographing the surface of the structure at the inspection position on the surface of the structure.
Space recognition apparatus, comprising: recognizing a three-dimensional shape and position of the inspection device of the structure,
A step in which the terminal device detects that the inspection device has executed the inspection and identifies the inspection position at the time of the detection.
When the terminal device displays the captured image,
A step in which the terminal device acquires time-series data consisting of one or more two-dimensional coordinates specified by the inspector on the image.
A step in which the terminal device acquires time-series data consisting of one or more three-dimensional coordinates obtained by projecting the two-dimensional coordinates onto the surface of the structure as information on the deformation.
The terminal device, the inspection method comprising the steps of outputting information about the Deformation in the storage area.
検査装置が、構造物表面の検査位置において変状を検査するステップと、
前記構造物の三次元形状及び前記検査装置の位置を認識する空間認識装置が、前記検査装置が前記検査を実行したことを検知し、前記検知時における前記検査位置を特定するステップと、
前記空間認識装置が、前記変状に関する情報と、前記検査位置と、を記憶領域に出力するステップと、
プロット装置が、前記検査位置を、実空間に設定された原点により規定される座標系に変換した三次元座標情報を取得するステップと、
前記プロット装置が、前記三次元座標情報が前記構造物の表面上にない場合、前記三次元座標情報を前記構造物の表面への投影点に変換し、図面内にプロットするステップと、を含む
検査方法。
The step that the inspection device inspects for deformation at the inspection position on the surface of the structure,
A step of detecting that the inspection device has executed the inspection by a space recognition device that recognizes the three-dimensional shape of the structure and the position of the inspection device and specifying the inspection position at the time of the detection.
A step in which the space recognition device outputs information on the deformation and the inspection position to a storage area.
A step in which the plotting device acquires three-dimensional coordinate information obtained by converting the inspection position into a coordinate system defined by an origin set in real space.
The plotting device includes a step of converting the three-dimensional coordinate information into a projection point on the surface of the structure and plotting it in the drawing when the three-dimensional coordinate information is not on the surface of the structure. Inspection methods.
コンピュータに請求項4乃至6いずれか1項記載の方法を実行させるためのプログラム。 A program for causing a computer to execute the method according to any one of claims 4 to 6.
JP2019103965A 2019-06-03 2019-06-03 Structure inspection system, structure inspection method and program Active JP6829846B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019103965A JP6829846B2 (en) 2019-06-03 2019-06-03 Structure inspection system, structure inspection method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019103965A JP6829846B2 (en) 2019-06-03 2019-06-03 Structure inspection system, structure inspection method and program

Publications (2)

Publication Number Publication Date
JP2020197460A JP2020197460A (en) 2020-12-10
JP6829846B2 true JP6829846B2 (en) 2021-02-17

Family

ID=73649112

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019103965A Active JP6829846B2 (en) 2019-06-03 2019-06-03 Structure inspection system, structure inspection method and program

Country Status (1)

Country Link
JP (1) JP6829846B2 (en)

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2633336A4 (en) * 2010-10-25 2015-01-21 Lockheed Corp Remote flooded member detection
JP5907022B2 (en) * 2012-09-20 2016-04-20 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
JP6290718B2 (en) * 2014-06-04 2018-03-07 日立Geニュークリア・エナジー株式会社 Ultrasonic inspection apparatus and ultrasonic inspection method
WO2017217268A1 (en) * 2016-06-17 2017-12-21 コニカミノルタ株式会社 Image processing device, image processing method, and program
JP6653674B2 (en) * 2017-03-14 2020-02-26 朝日航洋株式会社 Inspection device for underside of pier upper part, inspection system for underside of pier upper part, and inspection method for underside of pier upper part
JP2018185240A (en) * 2017-04-26 2018-11-22 大成建設株式会社 Position specifying device
JP6765353B2 (en) * 2017-07-28 2020-10-07 公益財団法人鉄道総合技術研究所 Structure inspection system, structure inspection equipment and structure inspection method
JP2019053466A (en) * 2017-09-14 2019-04-04 富士通株式会社 Management device, information processing system, and storage area management problem
JP7045030B2 (en) * 2017-09-15 2022-03-31 エナジー・ソリューションズ株式会社 Inspection system, inspection method, server equipment, and program
JP6918672B2 (en) * 2017-10-11 2021-08-11 株式会社日立システムズ Deterioration diagnosis system

Also Published As

Publication number Publication date
JP2020197460A (en) 2020-12-10

Similar Documents

Publication Publication Date Title
CN107402000B (en) Method and system for correlating a display device with respect to a measurement instrument
CN111459166B (en) Scene map construction method containing trapped person position information in post-disaster rescue environment
KR101171264B1 (en) Apparatus for providing building structure information and displaying building structure using argumented reality and method for maintenance of building structure using the same
US8655022B2 (en) System and method for detecting position of underwater vehicle
JP6586834B2 (en) Work support method, work support program, and work support system
EP3639218A1 (en) Method and system for generating an adaptive projected reality in construction sites
JP6650639B1 (en) Structure inspection apparatus, structure inspection method and program
US20100030528A1 (en) Method, Apparatus, and System for Determining Accurate Location Data Related to Underground Installations
CN106018411A (en) Crack width measuring and computing method and measuring device
WO2015106799A1 (en) Mine vehicle, mine control system and mapping method
CN105115442A (en) Tunnel internal surface form detecting method, apparatus and system
JP7113611B2 (en) LOCATION IDENTIFICATION APPARATUS, LOCATION IDENTIFICATION PROGRAM AND LOCATION IDENTIFICATION METHOD, PHOTOGRAPHED IMAGE REGISTRATION APPARATUS, PHOTOGRAPHED IMAGE REGISTRATION PROGRAM AND PHOTOGRAPHIED IMAGE REGISTRATION METHOD
JP3809542B2 (en) Remote operation system
CN105136134A (en) Heading machine position and posture detection and adjustment method and system
Watanabe et al. Robot-assisted acoustic inspection of infrastructures-cooperative hammer sounding inspection
Chou et al. Encoder-camera-ground penetrating radar sensor fusion: Bimodal calibration and subsurface mapping
JP6829846B2 (en) Structure inspection system, structure inspection method and program
Hu et al. Augmented reality based visualization for concrete bridge deck deterioration characterized by ground penetrating radar
US11509881B2 (en) Stereo camera and stereophotogrammetric method
CN111047699A (en) Seabed detection image display method, device, equipment and storage medium
JP2000251059A (en) Ground surface image monitoring device
JP6163391B2 (en) Underwater moving object position detection device
JP6478305B1 (en) Method and apparatus for measuring underground position of sheet pile applying SLAM method
CN111780804A (en) Rock lithology determination system and method
JP2010170288A (en) Three-dimensional modeling device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200110

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200110

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210107

R150 Certificate of patent or registration of utility model

Ref document number: 6829846

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250