JP2007113240A - Self-location detection method and facility of robot by camera sensor and distance sensor - Google Patents

Self-location detection method and facility of robot by camera sensor and distance sensor Download PDF

Info

Publication number
JP2007113240A
JP2007113240A JP2005304484A JP2005304484A JP2007113240A JP 2007113240 A JP2007113240 A JP 2007113240A JP 2005304484 A JP2005304484 A JP 2005304484A JP 2005304484 A JP2005304484 A JP 2005304484A JP 2007113240 A JP2007113240 A JP 2007113240A
Authority
JP
Japan
Prior art keywords
robot
distance
self
sensor
pipe
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005304484A
Other languages
Japanese (ja)
Inventor
Alireza Ahrary
アフラリ・アリレザ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kitakyushu Foundation for Advancement of Industry Science and Technology
Original Assignee
Kitakyushu Foundation for Advancement of Industry Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kitakyushu Foundation for Advancement of Industry Science and Technology filed Critical Kitakyushu Foundation for Advancement of Industry Science and Technology
Priority to JP2005304484A priority Critical patent/JP2007113240A/en
Publication of JP2007113240A publication Critical patent/JP2007113240A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a simple method and a facility capable of precisely making detection of a self-location of a robot autonomously traveling inside of a pipe conduit such as a sewer or the like in real time. <P>SOLUTION: A camera sensor and a distance sensor are mounted on the autonomous traveling type robot making detection of defects in the pipe conduit by autonomously traveling inside of the sewer or the like, description points including a manhole, a T-shaped junction, a Y-shaped junction, a differential diameter junction and a joint section, etc. are identified by the distance sensor, and an operational calculation of the self-location of the autonomous traveling robot is made as a distance from the description points by contrasting a number of edge pixels of an interested domain obtained from image data acquired by the camera sensor with a number of pixels in a table of a number of pixels corresponding to the distance from the description points formed in advance. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、下水道管等管渠の内部を自律的に走行し管渠内部の欠陥等を検出するロボットの自己位置をリアルタイムに検知する方法及びそのための装置に関する。   The present invention relates to a method for detecting the self-position of a robot that autonomously travels inside a pipe tub such as a sewer pipe and detects defects in the pipe tub in real time, and an apparatus therefor.

下水道管等管渠の内部の欠陥の有無およびその程度を早期に検出し必要な処置を的確に施すことは、インフラ構造の安全性を確保・維持する上で重要である。而して、下水道管等管渠の内部を自律的に走行し管渠内部の欠陥等を検出するロボットが用いられる。かかる自律走行型ロボットが撮像した下水道管等管渠の内部の欠陥位置即ち自律走行型ロボットの下水道管等管渠の内部における位置情報を的確に得ることが重要となる。   It is important to detect the presence and level of defects inside the sewer pipes and to take necessary measures accurately in order to secure and maintain the safety of the infrastructure. Thus, a robot that autonomously travels inside a sewer pipe or the like and detects defects inside the pipe is used. It is important to accurately obtain the position of the defect inside the sewer pipe such as the sewer pipe captured by the autonomous traveling robot, that is, the position information inside the sewer pipe such as the autonomous traveling robot.

下水道管等管渠の内部を自律的に走行する自律走行型ロボットといった走行体の自己位置を、駆動輪や別途配設される回転輪の回転数を検出するエンコーダ情報を用いて走行体の走行距離を算出することによって検知することが一般に行われている。しかしながら、管内を走行するロボット等においては、たとえば管内壁面と駆動輪や別途配設される回転輪の間でスリップを生じることが多く、車輪の回転数に基づく走行距離の算出に誤差を生じ、エンコーダ情報のみで自律走行型ロボットの自己位置を確定するには難がある。   The self-position of a traveling body such as an autonomous traveling robot that autonomously travels inside a sewer pipe, such as a sewer pipe, and the traveling information of the traveling body using encoder information that detects the rotational speed of a driving wheel or a separately disposed rotating wheel In general, detection is performed by calculating a distance. However, in a robot or the like that travels in a pipe, for example, slip often occurs between the inner wall surface of the pipe and a driving wheel or a separately disposed rotating wheel, resulting in an error in calculating a traveling distance based on the number of rotations of the wheel, It is difficult to determine the self-position of the autonomously traveling robot using only the encoder information.

一方、自律走行型ロボット等走行体の自己位置を、走行途次において、既知の特徴点たとえばマンホールの位置に自律走行型ロボット等走行体が到達した時点で補正することが考えられるが、下水道管等管渠におけるマンホール、T字状接合点、Y字状接合点、異径接合点、ジョイント部といった特徴点を、簡便に各特徴点の種別毎に検出する手段は未だ提案されていない。   On the other hand, it is conceivable to correct the self-position of the traveling body such as the autonomous traveling robot when the traveling body such as the autonomous traveling robot arrives at a known feature point, for example, the position of the manhole in the traveling process. No means has yet been proposed for simply detecting feature points such as manholes, T-shaped joint points, Y-shaped joint points, different-diameter joint points, and joint portions in the equal pipe rod for each type of each feature point.

他方、GPSを用いた車両等の自己位置検出システムが既知である(たとえば、特許文献1参照)。しかし、GPSを用いる車両等走行体の自己位置検出システムは、下水道管等地下に埋設される配管等の内部を走行する自律走行型ロボット等走行体の自己位置検知手段としては適用することができない。
特開平08−082526号公報
On the other hand, a self-position detection system such as a vehicle using GPS is known (for example, see Patent Document 1). However, a self-position detection system for a traveling body such as a vehicle using GPS cannot be applied as a self-position detecting means for a traveling body such as an autonomous traveling robot that travels inside a pipe or the like buried underground such as a sewer pipe. .
Japanese Patent Laid-Open No. 08-082526

また、CCDカメラ等で取得された画像データを処理して、カメラ設置位置から対象までの距離を知る手段が知られている(たとえば、特許文献2参照)。しかしながら、この先行技術は、固定されたカメラ設置地点から対象までの距離を検出する手段を提供するに止まり、下水道管等管渠の内部を自律的に走行する自律走行型ロボット等の自己位置をリアルタイムに検知する手段を教示するものではない。
特開2002−042142号公報
There is also known a means for processing the image data acquired by a CCD camera or the like to know the distance from the camera installation position to the target (for example, see Patent Document 2). However, this prior art only provides a means for detecting the distance from the fixed camera installation point to the target, and determines the self-position of an autonomous traveling robot or the like that autonomously travels inside a pipe such as a sewer pipe. It does not teach means for real-time detection.
Japanese Patent Laid-Open No. 2002-042142

叙上のように、下水道管等管渠の内部を自律的に走行する自律走行型ロボット等の自己位置を正確に検知するシステムがないために、自律走行型ロボット等が下水道管等管渠の内部で取得した管内欠陥部を示す画像データの取得位置を確定することおよび万一、自律走行型ロボット等が故障した場合の自律走行型ロボット等の自己位置を確定することが困難であった。本発明は、下水道管等管渠の内部を自律的に走行する自律走行型ロボットの自己位置を正確かつリアルタイムに検知する簡便な方法及び装置を提供することを目的とする。   As mentioned above, since there is no system for accurately detecting the self-position of an autonomous traveling robot etc. that autonomously travels inside a sewer pipe etc., the autonomous running robot etc. It was difficult to determine the acquisition position of the image data indicating the defect portion in the pipe acquired inside and to determine the self-position of the autonomous traveling robot or the like when the autonomous traveling robot or the like breaks down. An object of this invention is to provide the simple method and apparatus which detect the self-position of the autonomous traveling type robot which autonomously travels inside pipes, such as a sewer pipe, correctly and in real time.

上記課題を解決するための、請求項1に記載の発明は、下水道管等の内部を自律的に走行し管渠内部の欠陥等を検出するロボットの自己位置を検知する方法であって、前記自律走行型ロボットにカメラセンサおよび距離センサを搭載し、距離センサによって下水道管等におけるマンホール、T字状接合点、Y字状接合点、異径接合点、ジョイント部等の特徴点を識別し、カメラセンサによって取得した画像データのエッジ画素数と、予め作成しておいた前記各特徴点からの距離に対応するエッジ画素数との対比によって、前記自律走行型ロボットの自己位置を前記特徴点からの距離として演算算出するようにしたカメラセンサと距離センサによるロボットの自己位置検知方法である。   In order to solve the above-mentioned problem, the invention according to claim 1 is a method for detecting the self-position of a robot that autonomously travels inside a sewer pipe or the like and detects a defect or the like inside a pipe tub. A camera sensor and a distance sensor are mounted on an autonomous traveling robot, and feature points such as manholes, T-shaped joints, Y-shaped joints, different-diameter joints, joints, etc. in sewer pipes are identified by the distance sensor. By comparing the number of edge pixels of the image data acquired by the camera sensor with the number of edge pixels corresponding to the distance from each feature point created in advance, the self-position of the autonomous mobile robot is determined from the feature points. This is a self-position detection method for a robot using a camera sensor and a distance sensor that calculate and calculate the distance.

請求項2に記載の発明は、下水道管等の内部を自律的に走行し管渠内部の欠陥等を検出するロボットの自己位置を検知する装置であって、前記自律走行型ロボットと、該自律走行型ロボットに搭載されるカメラセンサおよび前記自律走行型ロボットから下水道管等の半径方向の距離を測定しその結果に基づいて下水道管等におけるマンホール、T字状接合点、Y字状接合点、異径接合点、ジョイント部等の特徴点を識別する距離センサと、前記カメラセンサによって取得された画像をエッジ処理する画像処理手段と、予め作成された、特徴点からの距離に対応するエッジ画素数のテーブルにおけるエッジ画素数と前記カメラセンサによって取得された画像をエッジ処理して得られたエッジ画素数を対比し、自律走行型ロボットの自己位置を前記各特徴点からの距離として演算算出する演算処理装置とを有するカメラセンサと距離センサによるロボットの自己位置検知装置である。   The invention according to claim 2 is an apparatus for detecting the self-position of a robot that autonomously travels inside a sewer pipe and detects a defect or the like inside the pipe, and the autonomous traveling robot and the autonomous robot Measuring the radial distance of the sewer pipe etc. from the camera sensor mounted on the running robot and the autonomous running robot, and based on the result, manholes in the sewer pipe etc., T-shaped junction, Y-shaped junction, Distance sensor for identifying feature points such as joints with different diameters and joints, image processing means for performing edge processing on images acquired by the camera sensor, and edge pixels corresponding to the distance from the feature points, which are created in advance By comparing the number of edge pixels in the table of numbers with the number of edge pixels obtained by edge processing of the image acquired by the camera sensor, A self-position detecting apparatus for a robot by the camera sensor and a distance sensor and a processing unit for calculating calculated as the distance from the feature points.

本発明によれば、距離センサによって、マンホール、T字状接合点、Y字状接合点、異径接合点、ジョイント部といった特徴点を種別毎に的確に検出できるから、各特徴点毎に自律走行型ロボットの自己位置の補正ができ、高い精度で自律走行型ロボットの自己位置の検知が可能となる。また、カメラセンサによって取得した画像データによって、自律走行型ロボットの自己位置を上記各特徴点からの距離として演算算出することができる。   According to the present invention, feature points such as manholes, T-shaped joints, Y-shaped joints, different-diameter joints, and joints can be accurately detected for each type by the distance sensor, so each feature point is autonomous. The self-position of the traveling robot can be corrected, and the self-position of the autonomous traveling robot can be detected with high accuracy. Further, the self-position of the autonomously traveling robot can be calculated and calculated as the distance from each feature point based on the image data acquired by the camera sensor.

距離センサおよびカメラセンサからの情報を組み合わせることによって、自律走行型ロボットのナビゲーションマップ(管渠及び特徴点配置・位置情報)を再生できる。さらに、本発明によるときは、定量化したセンサの情報を用いるため、自律走行型ロボットの自己位置を正確に確定できる。また、本発明においては、自律走行型ロボットの自己位置の演算算出に際しては、カメラセンサによって取得した画像データの、たとえばマンホール存在箇所といった関心領域といった一部の画像データのみをエッジ処理しその画素数と、予め作成しておいた各特徴点からの距離に対応するエッジ画素数とを対比することによって各特徴点からの自律走行型ロボットまでの距離を演算算出するようにしているから、要処理画像データ量が大きく削減され、リアルタイムでの自律走行型ロボットの自己位置の検知が可能となる。   By combining information from the distance sensor and camera sensor, the navigation map (pipe and feature point arrangement / position information) of the autonomous traveling robot can be reproduced. Furthermore, according to the present invention, since the quantified sensor information is used, the self-position of the autonomous traveling robot can be accurately determined. Further, in the present invention, when calculating the self-position of the autonomous traveling robot, only a part of the image data such as a region of interest such as a manhole existing portion of the image data acquired by the camera sensor is subjected to edge processing and the number of pixels. Since the distance from each feature point to the autonomous robot is calculated by comparing the number of edge pixels corresponding to the distance from each feature point created in advance. The amount of image data is greatly reduced, and the self-position of the autonomous traveling robot can be detected in real time.

本発明において、カメラセンサおよび距離センサを搭載する自律走行型ロボット(管内走行装置)としては、出願人が特願2005−017384号にて提案した、図12および図13に示す自律走行型ロボット(管内走行装置)を好適に用いることができる。この管内走行装置は、図12および図13に示すように、フレーム2とフレーム2の前部右側、前部左側、後部右側および後部左側に設けられた回動軸18〜21に軸支されて水平面内で回動自在な第1乃至第4のアーム3〜6と、第1乃至第4のアーム3〜6の一端に軸支されて水平面内で回転駆動される第1乃至第4の駆動輪11〜14と、第1乃至第4のアーム3〜6に回動軸18〜21回りの復元力を印加する第1および第2のばね15、16を備えた構成になる。   In the present invention, as an autonomous traveling robot (in-pipe traveling device) equipped with a camera sensor and a distance sensor, the autonomous traveling robot (shown in FIG. 12 and FIG. 13) proposed by the applicant in Japanese Patent Application No. 2005-017384 ( An in-pipe traveling apparatus) can be suitably used. As shown in FIGS. 12 and 13, the in-pipe travel device is supported by pivots 18 to 21 provided on the frame 2 and the front right side, the front left side, the rear right side, and the rear left side of the frame 2. First to fourth arms 3 to 6 that are rotatable in a horizontal plane, and first to fourth drives that are pivotally supported by one ends of the first to fourth arms 3 to 6 and rotated in the horizontal plane. It becomes the structure provided with the 1st and 2nd springs 15 and 16 which apply the restoring force around the rotating shafts 18 to 21 to the wheels 11 to 14 and the first to fourth arms 3 to 6.

上記構成になる自律走行型ロボット(管内走行装置)は、複雑な操舵機構や外部制御機構を用いることなく、彎曲した管路、内径の変化する管路、分岐のある管路等を自在に走行できるので、各種配管、わけても地中に埋設されている上下水道配管、ガス配管等の内部を検査する検査装置用として有用である。   The autonomous traveling robot (in-pipe travel device) configured as described above can freely travel on a curved pipe, a pipe with a changing inner diameter, a pipe with a branch, etc., without using a complicated steering mechanism or external control mechanism. Therefore, it is useful as an inspection device for inspecting the inside of various pipes, especially water and sewage pipes buried in the ground, gas pipes and the like.

本発明において自律走行型ロボット(管内走行装置)に搭載されるカメラセンサは、好ましくは、魚眼レンズを装着した1台のカメラで構成される。自律走行型ロボット(管内走行装置)は、魚眼レンズを装着したカメラ(撮像装置)1台と距離センサを搭載して下水道管等管渠の内部を自律的に移動し、管内を魚眼レンズを装着したカメラで撮像して取得した画像データを、自律走行型ロボット(管内走行装置)本体内に配設されたハードディスク等(図示せず)の記憶装置に格納するか或いは外部のコンピュータに伝送する。   In the present invention, the camera sensor mounted on the autonomous traveling robot (in-pipe traveling device) is preferably composed of one camera equipped with a fisheye lens. An autonomously traveling robot (in-pipe travel device) is a camera that is equipped with a fisheye lens-equipped camera (imaging device) and a distance sensor, autonomously moves inside a pipe such as a sewer pipe, and has a fisheye lens in the tube. The image data obtained by imaging in (1) is stored in a storage device such as a hard disk (not shown) provided in the body of the autonomous traveling robot (in-pipe traveling device) or transmitted to an external computer.

而して本発明においては、自律走行型ロボットに搭載されるカメラセンサおよび距離センサのフュージョンによって自律走行型ロボットの自己位置をリアルタイムに検知するシステムである。距離センサによって自律走行型ロボットからの下水道管等の半径方向の距離を測定し、その結果に基づいてマンホール、T字状接合点、Y字状接合点、異径接合点、ジョイント部といった特徴点を種別毎に識別する。また、カメラセンサによって管内の画像データを取得するとともに、画像処理手段によって、特徴点等関心領域のエッジ処理を行う。   Thus, the present invention is a system that detects the self-position of the autonomous traveling robot in real time by the fusion of the camera sensor and the distance sensor mounted on the autonomous traveling robot. A distance sensor measures the radial distance of a sewer pipe, etc. from an autonomously traveling robot, and features such as manholes, T-shaped joints, Y-shaped joints, different-diameter joints, and joints based on the results Is identified for each type. In addition, the image data in the tube is acquired by the camera sensor, and the edge processing of the region of interest such as the feature point is performed by the image processing means.

一方、各特徴点からの距離に対応するエッジ画素数のテーブル(マップ)を予め作成しておく。而して、カメラセンサによって取得された画像の関心領域(ROI:region of interest)をエッジ処理して得られた画素数と、前記テーブルにおける各特徴点からの距離に対応するエッジ画素数とを対比し、自律走行型ロボットの自己位置を、各特徴点からの距離として演算算出する。   On the other hand, a table (map) of the number of edge pixels corresponding to the distance from each feature point is created in advance. Thus, the number of pixels obtained by performing edge processing on the region of interest (ROI) of the image acquired by the camera sensor, and the number of edge pixels corresponding to the distance from each feature point in the table. In contrast, the self-position of the autonomously traveling robot is calculated and calculated as the distance from each feature point.

図1に、本発明の、カメラセンサおよび距離センサによるロボットの自己位置検知装置を示す。図1に示すように、自律走行型ロボット(管内走行装置)31の先頭部には、カメラセンサ32およびセンサ34−1乃至34−4からなる距離センサ34が搭載されている。距離センサ34によって下水道配管網におけるマンホール、T字状接合点、Y字状接合点、異径接合点、ジョイント部といった特徴点を種別毎に識別するとともに、カメラセンサ32によって取得した画像データおよびエッジ画素数テーブル(マップ)との対比によって、そのときの自律走行型ロボット(管内走行装置)31の自己位置を各特徴点からの距離としてコンピュータで演算算出する。   FIG. 1 shows a self-position detecting device for a robot using a camera sensor and a distance sensor according to the present invention. As shown in FIG. 1, a distance sensor 34 including a camera sensor 32 and sensors 34-1 to 34-4 is mounted at the head of an autonomous traveling robot (in-pipe traveling apparatus) 31. The distance sensor 34 identifies feature points such as manholes, T-shaped joints, Y-shaped joints, different-diameter joints, and joints in the sewer piping network for each type, and image data and edges acquired by the camera sensor 32. By comparison with the pixel number table (map), the self-position of the autonomous traveling robot (in-pipe traveling device) 31 at that time is calculated and calculated by the computer as the distance from each feature point.

本発明においては、センサ34−1乃至34−4からなる距離センサ34によって、自律走行型ロボット(管内走行装置)31から下水道管等における内壁面までの距離といった半径方向の距離が測定され、その結果に基づいて下水道配管網におけるマンホール、T字状接合点、Y字状接合点、異径接合点、ジョイント部といった特徴点を種別毎に識別する。   In the present invention, a distance in the radial direction such as the distance from the autonomously traveling robot (in-pipe travel device) 31 to the inner wall surface of the sewer pipe or the like is measured by the distance sensor 34 including the sensors 34-1 to 34-4. Based on the results, feature points such as manholes, T-shaped joints, Y-shaped joints, different-diameter joints, and joints in the sewer piping network are identified for each type.

センサ34−1乃至34−4からなる距離センサ34として、この実施例においては、シャープ電機株式会社製のモデルNo.GP2D120の赤外線距離計を用いている。本発明はこれに限ることなく、種々の距離センサを用い得ることは勿論である。 In this embodiment, the distance sensor 34 including the sensors 34-1 to 34-4 is model No. manufactured by Sharp Electric Co., Ltd. A GP2D120 infrared rangefinder is used. The present invention is not limited to this, and various distance sensors can of course be used.

図2乃至図11を参照しながら、本発明のカメラセンサおよび距離センサによるロボットの自己位置検知方法を実施するときのプロセスを説明する。   With reference to FIGS. 2 to 11, a process when the robot self-position detection method using the camera sensor and the distance sensor of the present invention is carried out will be described.

1)カメラセンサによる画像取得ならびに自律走行型ロボット(管内走行装置)31の自己位置の演算算出
ア.エッジ画素数の算出
自律走行型ロボット(管内走行装置)31に搭載されたカメラセンサ32によって取得された画像データ、たとえば図9に示すマンホール近傍といった特徴点で取得された画像データから、図3に示す関心領域ROI(マンホール、T字状接合点、Y字状接合点、異径接合点、ジョイント部等)を抽出する(図2参照)。その後、エッジ処理を施す。ここで、エッジ処理とは、画像データにおいて白く強調された画素を抽出することであり、図10に示すような画像が得られる。特徴点の存在しない主管の定常部においては、図10に示すようなエッジは現れず全体が黒い画像となる。図11に、マンホールから遠い位置で得られた画像から抽出されたエッジを示す。得られたエッジ画像において、エッジ画素数Nedgeを計算する。
1) Image acquisition by camera sensor and calculation of self-position of autonomous traveling robot (in-pipe traveling device) 31 a. Calculation of the Number of Edge Pixels From the image data acquired by the camera sensor 32 mounted on the autonomous traveling robot (in-pipe traveling device) 31, for example, the image data acquired at the feature points such as the vicinity of the manhole shown in FIG. A region of interest ROI to be shown (manhole, T-shaped joint point, Y-shaped joint point, different-diameter joint point, joint portion, etc.) is extracted (see FIG. 2). Thereafter, edge processing is performed. Here, the edge processing is extraction of pixels emphasized in white in the image data, and an image as shown in FIG. 10 is obtained. In the stationary part of the main pipe where no feature point exists, the edge as shown in FIG. 10 does not appear and the whole is a black image. FIG. 11 shows an edge extracted from an image obtained at a position far from the manhole. In the obtained edge image, the number of edge pixels N edge is calculated.

イ.距離テーブルの作成
カメラセンサ32によって取得された画像データにおける、図3に示すような、関心領域(ROI)のエッジ画素数Nedgeから自律走行型ロボット(管内走行装置)31の自己位置を演算算出するために、予め、各特徴点からの距離に対応するエッジ画素数を示す距離テーブルを作成する。距離テーブルは特徴点の種別毎に作成されるが、一般に、下水道管等は、図4に示すように、下記の特徴点をもつことから、必要なテーブルは自ずと定まってくる。
a.マンホールM間の最大距離は、50mである。
b.下水道管等における主管Pの最大長さ(ジョイントJの間隔)は、5mである。
c.T字状接合点、Y字状接合点は、主管P(5m長さ)の途中に存在する。
d.主管Pのサイズ(内径または外径)が決まると、T字状接合点、Y字状接合点等における管のサイズも決まる。
以上のことから、下水道管等においては、軸方向5m以内に何らかの特徴点が出現する。従って、これら各特徴点と、自律走行型ロボット(管内走行装置)31の距離を0〜500cmに設定し、距離とそれに対応するエッジ画素数のテーブルを予め作成しておく。なお、万一特徴点における管サイズが規定外のものである場合は、事前情報として織り込めるのでそれに対応した距離対応エッジ画素数テーブルの作成が可能である。
I. Creation of Distance Table Calculate and calculate the self-position of the autonomous traveling robot (in-pipe traveling device) 31 from the number of edge pixels N edge of the region of interest (ROI) in the image data acquired by the camera sensor 32, as shown in FIG. Therefore, a distance table indicating the number of edge pixels corresponding to the distance from each feature point is created in advance. A distance table is created for each type of feature point. Generally, a sewer pipe or the like has the following feature points as shown in FIG.
a. The maximum distance between manholes M is 50 m.
b. The maximum length (interval of the joint J) of the main pipe P in a sewer pipe or the like is 5 m.
c. The T-shaped joint point and the Y-shaped joint point exist in the middle of the main pipe P (5 m length).
d. When the size (inner diameter or outer diameter) of the main pipe P is determined, the sizes of the pipes at the T-shaped joint point, the Y-shaped joint point, and the like are also determined.
From the above, some feature points appear within 5 m in the axial direction in sewer pipes and the like. Therefore, the distance between each feature point and the autonomous traveling robot (in-pipe traveling device) 31 is set to 0 to 500 cm, and a table of the distance and the number of edge pixels corresponding to the distance is created in advance. If the tube size at the feature point is outside the specified range, it can be incorporated as prior information, so that it is possible to create a distance corresponding edge pixel number table corresponding thereto.

ウ.自律走行型ロボットの自己位置の演算算出
走行中の自律走行型ロボット(管内走行装置)31に搭載されているカメラセンサ32によって取得された画像データの関心領域(ROI)をエッジ処理して得られたエッジ画素数Nedgeを距離対応画素数テーブルにおけるエッジ画素数NTedgeと対比することによって、自律走行型ロボット(管内走行装置)31の自己位置を各特徴点からの距離として演算算出できる。なお、対比する画素数テーブルにおけるエッジ画素数NTedgeの選定は、エッジ画素数Nedgeが図3におけるどの関心領域(ROI)から得られたものであるかが容易に判別できるので、正確に行うことができる。
C. Calculation of calculation of self-position of autonomous traveling robot Obtained by edge processing of region of interest (ROI) of image data acquired by camera sensor 32 mounted on traveling autonomous traveling robot (in-pipe traveling device) 31 By comparing the edge pixel number N edge with the edge pixel number NT edge in the distance corresponding pixel number table, the self-position of the autonomous traveling robot (in-pipe traveling device) 31 can be calculated and calculated as the distance from each feature point. It should be noted that the selection of the edge pixel number NT edge in the pixel number table to be compared is performed accurately because it can be easily determined from which region of interest (ROI) in FIG. 3 the edge pixel number N edge is obtained. be able to.

2)距離センサによる特徴点の種別検出
叙上のように、カメラセンサ32によって取得された画像における関心領域(ROI)のエッジから算出されたエッジ画素数Nedgeと、距離対応画素数テーブルにおける画素数NTedgeとを対比することによって自律走行型ロボット(管内走行装置)31の自己位置ならびに特徴点の種別の判別が可能であるが、主管P内に亀裂や汚れ、介在物といった外乱が存在する場合もエッジが抽出される。このような場合、本発明においては、距離センサ34によって自律走行型ロボット(管内走行装置)31の自己位置の補正を行う。
2) Feature Point Type Detection by Distance Sensor As described above, the number of edge pixels N edge calculated from the edge of the region of interest (ROI) in the image acquired by the camera sensor 32 and the pixels in the distance corresponding pixel number table It is possible to discriminate the self-position of the autonomous traveling robot (in-pipe traveling device) 31 and the type of feature point by comparing with several NT edges , but there are disturbances such as cracks, dirt, and inclusions in the main pipe P. Even in this case, an edge is extracted. In such a case, in the present invention, the self-position of the autonomous traveling robot (in-pipe traveling device) 31 is corrected by the distance sensor 34.

ア.距離センサ34によって得られた情報の確認
図2に示すように、カメラセンサ32によって取得された画像の関心領域(ROI)をエッジ抽出して得られたエッジ画素数NedgeがTという値よりも大きくなった場合に、距離センサ34による情報を確認する。距離センサ34による特徴点(マンホール等)の種別の検出は、自律走行型ロボット(管内走行装置)31を微小移動させて2回行う。
A. Confirmation of Information Obtained by Distance Sensor 34 As shown in FIG. 2, the number of edge pixels N edge obtained by extracting the region of interest (ROI) of the image obtained by the camera sensor 32 is smaller than the value T. When it becomes large, the information by the distance sensor 34 is confirmed. Detection of the type of feature point (manhole, etc.) by the distance sensor 34 is performed twice by moving the autonomously traveling robot (in-pipe traveling device) 31 slightly.

ここで、定義したTという値は、自律走行型ロボット(管内走行装置)31が特徴点に到達したときの、外乱がない場合のエッジ画素数である。即ち、外乱がない場合に、カメラセンサ32によって取得された画像データから抽出された関心領域(ROI)のエッジから算出されたエッジ画素数Nedgeの最大値がTである。 Here, the defined value T is the number of edge pixels when there is no disturbance when the autonomous traveling robot (in-pipe traveling device) 31 reaches the feature point. That is, when there is no disturbance, T is the maximum value of the number of edge pixels N edge calculated from the edge of the region of interest (ROI) extracted from the image data acquired by the camera sensor 32.

イ.特徴点の種別の検出
距離センサ34による特徴点の種別の検出は、以下のようにしてなされる。
a.図5に示すように、距離センサ34−1の値が最大値を示した場合、その特徴点はマンホールMである。
b.図6に示すように、距離センサ34−4の値が最大値を示した場合、その特徴点はT字状接合点(右方)である。また、距離センサ34−2の値が最大値を示した場合、その特徴点はT字状接合点(左方)である。
c.図7に示すように、距離センサ34−4の値が、自律走行型ロボット(管内走行装置)31を微小移動させて2回測定したときに変動した場合、その特徴点はY字状接合点(右方)である。また、距離センサ34−2の値が、自律走行型ロボット(管内走行装置)31を微小移動させて2回測定したときに変動した場合、その特徴点はY字状接合点(左方)である。
d.図8に示すように、距離センサ34−1乃至34−4全ての値が、自律走行型ロボット(管内走行装置)31を微小移動させて2回測定したときに変動した場合、その特徴点は異径接合点(段差部)Dである。
I. Detection of Feature Point Type The feature point type is detected by the distance sensor 34 as follows.
a. As shown in FIG. 5, when the value of the distance sensor 34-1 indicates the maximum value, the feature point is a manhole M.
b. As shown in FIG. 6, when the value of the distance sensor 34-4 shows the maximum value, the feature point is a T-shaped junction (right side). Further, when the value of the distance sensor 34-2 shows the maximum value, the feature point is a T-shaped joint point (left side).
c. As shown in FIG. 7, when the value of the distance sensor 34-4 fluctuates when the autonomous traveling robot (in-pipe traveling device) 31 is moved slightly and measured twice, the characteristic point is the Y-shaped joint point. (Right). Further, when the value of the distance sensor 34-2 changes when the autonomous traveling robot (in-pipe traveling device) 31 is slightly moved and measured twice, the feature point is a Y-shaped junction (left side). is there.
d. As shown in FIG. 8, when the values of all the distance sensors 34-1 to 34-4 fluctuate when the autonomous traveling robot (in-pipe traveling device) 31 is slightly moved and measured twice, the feature point is It is a different diameter joint point (stepped portion) D.

3)距離センサ34による距離補正
叙上のように、距離センサ34によって下水道管等における特徴点(マンホール等)の種別を確実に判別できるので、下水道管等管渠内部に自律走行型ロボット(管内走行装置)31を走行(ナビゲート)させる場合、識別された各特徴点と予め作成しておいた下水道配管マップとを照合することによって自律走行型ロボット(管内走行装置)31の自己位置の補正が可能となる。
3) Distance correction by the distance sensor 34 As described above, since the type of the feature point (manhole, etc.) in the sewer pipe can be reliably determined by the distance sensor 34, the autonomous traveling robot (inside the pipe) When traveling (navigating) the traveling device 31, the self-position correction of the autonomous traveling robot (in-pipe traveling device) 31 is performed by comparing each identified feature point with a previously created sewer piping map. Is possible.

本発明の一実施例に係るカメラセンサと距離センサによるロボットの自己位置検知装置を示す図 (a)は側面図 (b)は正面図である。The figure which shows the self-position detection apparatus of the robot by the camera sensor and distance sensor which concern on one Example of this invention (a) is a side view, (b) is a front view. 本発明の一実施例に係るカメラセンサと距離センサによるロボットの自己位置検知方法の処理フローを示すブロックダイアグラムThe block diagram which shows the processing flow of the self-position detection method of the robot by the camera sensor and distance sensor which concern on one Example of this invention 本発明の一実施例に係るカメラセンサと距離センサによるロボットの自己位置検知方法において、取得画像から関心領域のエッジ画素数を算出するステップを示すブロックダイアグラム1 is a block diagram showing steps of calculating the number of edge pixels of a region of interest from an acquired image in a robot self-position detection method using a camera sensor and a distance sensor according to an embodiment of the present invention; 本発明の一実施例に係るカメラセンサと距離センサによるロボットの自己位置検知装置及び方法における自律走行型ロボットの自己位置の演算算出段階および距離センサによる特徴点の検出位置を示す模式図FIG. 4 is a schematic diagram showing a calculation calculation stage of a self-position of an autonomous traveling robot and a detection position of a feature point by a distance sensor in a robot self-position detection apparatus and method using a camera sensor and a distance sensor according to an embodiment of the present invention; 本発明の一実施例に係る、距離センサによるマンホールの識別の模様を示す模式図The schematic diagram which shows the pattern of the identification of the manhole by a distance sensor based on one Example of this invention 本発明の一実施例に係る、距離センサによるT字状接合点の識別の模様を示す模式図The schematic diagram which shows the pattern of the identification of the T-shaped junction by a distance sensor based on one Example of this invention 本発明の一実施例に係る、距離センサによるY字状接合点の識別の模様を示す模式図The schematic diagram which shows the pattern of the identification of the Y-shaped junction by a distance sensor based on one Example of this invention 本発明の一実施例に係る、距離センサによる異径接合点の識別の模様を示す模式図The schematic diagram which shows the pattern of the identification of the different diameter joint point by the distance sensor based on one Example of this invention 本発明の一実施例に係る、カメラセンサによって取得された画像(マンホール部)を示す図The figure which shows the image (manhole part) acquired by the camera sensor based on one Example of this invention. 本発明の一実施例に係る、カメラセンサによって取得された画像(マンホール部)の関心領域のエッジ処理後の画像(マンホール近傍)を示す図The figure which shows the image (manhole vicinity) after the edge process of the region of interest of the image (manhole part) acquired by the camera sensor based on one Example of this invention. 本発明の一実施例に係る、カメラセンサによって取得された画像(マンホール部)の関心領域のエッジ処理後の画像(マンホール遠方)を示す図The figure which shows the image (manhole distant) after the edge process of the region of interest of the image (manhole part) acquired by the camera sensor based on one Example of this invention 本発明の一実施例に係る、自律走行型ロボット(管内走行装置)を示す平面図The top view which shows the autonomous traveling type robot (in-pipe traveling apparatus) based on one Example of this invention. 本発明の一実施例に係る、自律走行型ロボット(管内走行装置)を示す正面図The front view which shows the autonomous traveling type robot (in-pipe traveling apparatus) based on one Example of this invention.

符号の説明Explanation of symbols

1 管内走行装置
2 フレーム
3 第1のアーム
4 第2のアーム
5 第3のアーム
6 第4のアーム
7 第1の駆動モータ
8 第2の駆動モータ
9 第3の駆動モータ
10 第4の駆動モータ
11 第1の駆動輪
12 第2の駆動輪
13 第3の駆動輪
14 第4の駆動輪
15 第1のばね
16 第2のばね
17 ペイロード
18 回動軸
19 回動軸
20 回動軸
21 回動軸
22 管
31 自律走行型ロボット(管内走行装置)
32 カメラセンサ
34 距離センサ
M マンホール
J ジョイント部
T T字状接合点
Y Y字状接合点
P 主管
D 異径接合点
DESCRIPTION OF SYMBOLS 1 In-pipe traveling apparatus 2 Frame 3 1st arm 4 2nd arm 5 3rd arm 6 4th arm 7 1st drive motor 8 2nd drive motor 9 3rd drive motor 10 4th drive motor DESCRIPTION OF SYMBOLS 11 1st driving wheel 12 2nd driving wheel 13 3rd driving wheel 14 4th driving wheel 15 1st spring 16 2nd spring 17 Payload 18 Rotating shaft 19 Rotating shaft 20 Rotating shaft 21 times Dynamic axis 22 Tube 31 Autonomous traveling robot (in-pipe traveling device)
32 Camera sensor 34 Distance sensor M Manhole J Joint part T T-shaped joint Y Y-shaped joint P Main pipe D Different diameter joint

Claims (2)

下水道管等の内部を自律的に走行し管渠内部の欠陥等を検出するロボットの自己位置を検知する方法であって、前記自律走行型ロボットにカメラセンサおよび距離センサを搭載し、距離センサによって下水道管等におけるマンホール、T字状接合点、Y字状接合点、異径接合点、ジョイント部等の特徴点を識別し、カメラセンサによって取得した画像データのエッジ画素数と、予め作成しておいた前記各特徴点からの距離に対応するエッジ画素数との対比によって、前記自律走行型ロボットの自己位置を前記特徴点からの距離として演算算出するようにしたことを特徴とするカメラセンサと距離センサによるロボットの自己位置検知方法。   A method of detecting the self-position of a robot that autonomously travels inside a sewer pipe and detects a defect or the like inside a pipe tub, wherein a camera sensor and a distance sensor are mounted on the autonomous traveling robot. Identify feature points such as manholes, T-shaped joints, Y-shaped joints, different-diameter joints, joints, etc. in sewer pipes, and create the number of edge pixels in the image data acquired by the camera sensor in advance. A camera sensor that calculates and calculates the self-position of the autonomous mobile robot as a distance from the feature point by comparing with the number of edge pixels corresponding to the distance from each feature point. A robot self-position detection method using a distance sensor. 下水道管等の内部を自律的に走行し管渠内部の欠陥等を検出するロボットの自己位置を検知する装置であって、前記自律走行型ロボットと、該自律走行型ロボットに搭載されるカメラセンサおよび前記自律走行型ロボットから下水道管等の半径方向の距離を測定しその結果に基づいて下水道管等におけるマンホール、T字状接合点、Y字状接合点、異径接合点、ジョイント部等の特徴点を識別する距離センサと、前記カメラセンサによって取得された画像をエッジ処理する画像処理手段と、予め作成された、特徴点からの距離に対応するエッジ画素数のテーブルにおけるエッジ画素数と前記カメラセンサによって取得された画像をエッジ処理して得られたエッジ画素数を対比し、自律走行型ロボットの自己位置を前記各特徴点からの距離として演算算出する演算処理装置とを有することを特徴とするカメラセンサと距離センサによるロボットの自己位置検知装置。
An apparatus for detecting a self-position of a robot that autonomously travels inside a sewer pipe and detects a defect or the like inside a pipe tub, the autonomous traveling robot and a camera sensor mounted on the autonomous traveling robot And the distance in the radial direction of the sewer pipe or the like from the autonomous traveling robot is measured, and based on the result, the manhole, the T-shaped joint, the Y-shaped joint, the different-diameter joint, the joint, etc. A distance sensor for identifying a feature point; an image processing means for performing edge processing on an image acquired by the camera sensor; and the number of edge pixels in a table of edge pixels corresponding to a distance from a feature point, The number of edge pixels obtained by edge processing of the image acquired by the camera sensor is compared, and the self-position of the autonomous traveling robot is defined as the distance from each feature point. Self-position detecting apparatus for a robot by the camera sensor and the distance sensor; and a processor for calculating calculated.
JP2005304484A 2005-10-19 2005-10-19 Self-location detection method and facility of robot by camera sensor and distance sensor Pending JP2007113240A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005304484A JP2007113240A (en) 2005-10-19 2005-10-19 Self-location detection method and facility of robot by camera sensor and distance sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005304484A JP2007113240A (en) 2005-10-19 2005-10-19 Self-location detection method and facility of robot by camera sensor and distance sensor

Publications (1)

Publication Number Publication Date
JP2007113240A true JP2007113240A (en) 2007-05-10

Family

ID=38095687

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005304484A Pending JP2007113240A (en) 2005-10-19 2005-10-19 Self-location detection method and facility of robot by camera sensor and distance sensor

Country Status (1)

Country Link
JP (1) JP2007113240A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011048706A (en) * 2009-08-28 2011-03-10 Fujitsu Ltd Device, method, and program for automatically generating map by sensor fusion and moving mobile body by using the map automatically generated
KR101086827B1 (en) * 2008-09-16 2011-11-24 배석동 Water Tight Panel Location Adjustable Sewer Duct Blocking Robot System and Adjustment Method
KR101692300B1 (en) * 2016-01-26 2017-01-17 주식회사 비츠로씨앤씨 Exploration device for detecting location of sewer facility
KR101715610B1 (en) * 2016-01-26 2017-03-13 주식회사 비츠로씨앤씨 Exploration device for detecting location of sewer facility
WO2017199940A1 (en) * 2016-05-16 2017-11-23 株式会社日水コン Inspection device for duct inner wall, and computer program
JP2018013949A (en) * 2016-07-21 2018-01-25 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Mobile body, method for detecting obstacle of mobile body, and program for detecting obstacle of mobile body
CN107709926A (en) * 2015-06-11 2018-02-16 金斯顿女王大学 The mobile ground mapping of automation
JP2018040577A (en) * 2016-09-05 2018-03-15 富士通株式会社 Movement distance calculation device, mobile imaging device, movement distance calculation method, and movement distance calculation program
US20190250060A1 (en) * 2018-02-09 2019-08-15 Olympus Corporation Pipeline inspection information managing device and pipeline inspection information managing method
JP2020135478A (en) * 2019-02-20 2020-08-31 三菱重工業株式会社 Traveling support system
JPWO2021070308A1 (en) * 2019-10-09 2021-04-15
CN112991328A (en) * 2021-04-15 2021-06-18 新疆爱华盈通信息技术有限公司 Well lid detection method and well lid monitoring system based on intelligent lamp pole
KR102503510B1 (en) * 2022-10-11 2023-02-28 (주)조은공간정보 Underground facility survey system for monitoring position change of underground facility and survey method therefor
JP7390630B1 (en) 2022-06-27 2023-12-04 東京都公立大学法人 Inspection device

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101086827B1 (en) * 2008-09-16 2011-11-24 배석동 Water Tight Panel Location Adjustable Sewer Duct Blocking Robot System and Adjustment Method
JP2011048706A (en) * 2009-08-28 2011-03-10 Fujitsu Ltd Device, method, and program for automatically generating map by sensor fusion and moving mobile body by using the map automatically generated
US11226201B2 (en) 2015-06-11 2022-01-18 Queen's University At Kingston Automated mobile geotechnical mapping
CN107709926A (en) * 2015-06-11 2018-02-16 金斯顿女王大学 The mobile ground mapping of automation
KR101692300B1 (en) * 2016-01-26 2017-01-17 주식회사 비츠로씨앤씨 Exploration device for detecting location of sewer facility
KR101715610B1 (en) * 2016-01-26 2017-03-13 주식회사 비츠로씨앤씨 Exploration device for detecting location of sewer facility
WO2017199940A1 (en) * 2016-05-16 2017-11-23 株式会社日水コン Inspection device for duct inner wall, and computer program
JPWO2017199940A1 (en) * 2016-05-16 2019-05-23 株式会社日水コン Investigation apparatus and computer program for inner wall of pipeline
JP2018013949A (en) * 2016-07-21 2018-01-25 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Mobile body, method for detecting obstacle of mobile body, and program for detecting obstacle of mobile body
JP2018040577A (en) * 2016-09-05 2018-03-15 富士通株式会社 Movement distance calculation device, mobile imaging device, movement distance calculation method, and movement distance calculation program
US20190250060A1 (en) * 2018-02-09 2019-08-15 Olympus Corporation Pipeline inspection information managing device and pipeline inspection information managing method
JP2020135478A (en) * 2019-02-20 2020-08-31 三菱重工業株式会社 Traveling support system
JP7156967B2 (en) 2019-02-20 2022-10-19 三菱重工業株式会社 driving support system
WO2021070308A1 (en) * 2019-10-09 2021-04-15 日本電信電話株式会社 Unmanned aircraft, and method for controlling unmanned aircraft
JPWO2021070308A1 (en) * 2019-10-09 2021-04-15
JP7324388B2 (en) 2019-10-09 2023-08-10 日本電信電話株式会社 Unmanned aerial vehicle and method of controlling unmanned aerial vehicle
CN112991328A (en) * 2021-04-15 2021-06-18 新疆爱华盈通信息技术有限公司 Well lid detection method and well lid monitoring system based on intelligent lamp pole
JP7390630B1 (en) 2022-06-27 2023-12-04 東京都公立大学法人 Inspection device
JP2024003622A (en) * 2022-06-27 2024-01-15 東京都公立大学法人 Inspection device
KR102503510B1 (en) * 2022-10-11 2023-02-28 (주)조은공간정보 Underground facility survey system for monitoring position change of underground facility and survey method therefor

Similar Documents

Publication Publication Date Title
JP2007113240A (en) Self-location detection method and facility of robot by camera sensor and distance sensor
US20230010498A1 (en) System and method for data acquisition
JP5421461B2 (en) Mobile robot slip sensing apparatus and method
CN109490331B (en) High-speed pipeline inspection system
US11519738B2 (en) Position calculating apparatus
WO2014083827A1 (en) Vehicle acceleration-suppression device
JP4751991B2 (en) Method and apparatus for detecting and discriminating defects inside a tube
US20220268393A1 (en) Pipeline Inspection Device
Abdellatif et al. Mechatronics design of an autonomous pipe-inspection robot
US20190331496A1 (en) Locating a vehicle
JP2007278813A (en) Vehicle-position positioning device
Walter et al. Design considerations of robotic system for cleaning and inspection of large‐diameter sewers
WO2014067684A1 (en) Method to enhance underwater localization
CN110989638A (en) Underwater building defect detection method based on autonomous navigation technology
US20220268392A1 (en) Pipeline Inspection Device
JP2005326168A (en) Driving support system, vehicle, and driving support method
KR20150092574A (en) defect information detection image processing system using robot
Drews Jr et al. Tracking system for underwater inspection using computer vision
CN109427212A (en) Vehicle running detection method and vehicle running detection system
JPH05116626A (en) Obstacle detecting device for railway rolling stock
hyeuk Lee et al. Elbow detection for localization of a mobile robot inside pipeline using laser pointers
KR101693734B1 (en) Precise measuring system of water and sewage pipe and method thereof
KR20060134719A (en) Method for recognizing parking site of vehicle
JP5605491B2 (en) Chassis dynamometer
JP5087360B2 (en) Inspection system