JP5614118B2 - Landmark detection method, robot and program - Google Patents
Landmark detection method, robot and program Download PDFInfo
- Publication number
- JP5614118B2 JP5614118B2 JP2010136213A JP2010136213A JP5614118B2 JP 5614118 B2 JP5614118 B2 JP 5614118B2 JP 2010136213 A JP2010136213 A JP 2010136213A JP 2010136213 A JP2010136213 A JP 2010136213A JP 5614118 B2 JP5614118 B2 JP 5614118B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- landmark
- feature vector
- vector
- mahalanobis distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 title claims description 72
- 239000013598 vector Substances 0.000 claims description 218
- 238000003860 storage Methods 0.000 claims description 57
- 238000011156 evaluation Methods 0.000 claims description 50
- 238000004364 calculation method Methods 0.000 claims description 40
- 238000000034 method Methods 0.000 claims description 24
- 239000011159 matrix material Substances 0.000 claims description 23
- 238000009826 distribution Methods 0.000 claims description 12
- 238000005259 measurement Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 7
- 238000000605 extraction Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000000052 comparative effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
Description
本発明は、ランドマーク検知方法、ランドマーク検知機能を有するロボット、及びコンピュータにランドマーク検知手順を実行させるプログラムに関する。本発明は、このようなプログラムを格納したコンピュータ読み取り可能な記憶媒体にも関する。 The present invention relates to a landmark detection method, a robot having a landmark detection function, and a program for causing a computer to execute a landmark detection procedure. The present invention also relates to a computer-readable storage medium storing such a program.
自律走行型ロボットには、ランドマークを用いるものがある。先ず、ロボットの位置が既知の状態で、ロボットの走行経路上で目印となる物をランドマークとして登録する。図1は、ロボットの位置に対して登録されるランドマークの一例を示す平面図である。図1及び後述する図2において、太い平行な縦線はロボットが移動可能な経路を示し、ロボットの位置は○印で示し、ランドマークの位置は×印で示す。図1の例では、ロボットの位置p1に対して登録されるランドマークmk1のxy座標が(xl1,yl1)であり、ロボットの位置p2に対して登録されるランドマークmk2のxy座標が(xl2,yl2)である。 Some autonomously traveling robots use landmarks. First, in the state where the position of the robot is known, an object to be a mark on the traveling route of the robot is registered as a landmark. FIG. 1 is a plan view showing an example of landmarks registered with respect to the position of the robot. In FIG. 1 and FIG. 2 described later, thick parallel vertical lines indicate paths through which the robot can move, the position of the robot is indicated by a circle, and the position of the landmark is indicated by an x mark. In the example of FIG. 1, the xy coordinates of the landmark mk 1 registered with respect to the robot position p 1 are (x 11 , y 11 ), and the xy of the landmark mk 2 registered with respect to the robot position p 2 . coordinate is the (x l2, yl2).
ランドマークの登録時には、ロボットに搭載された距離センサでランドマークmk1,mk2の位置を計測する。具体的には、既知であるロボットの位置のxy座標に、距離センサで計測したロボットから見た各ランドマークmk1,mk2の相対座標を加えることにより、各ランドマークmk1,mk2の座標を求める。又、ロボットに搭載されたカメラで各位置p1,p2から対応するランドマークmk1,mk2を撮像して、ランドマークmk1,mk2の撮像画像の特徴を表す特徴ベクトルを求める。ランドマークmk1,mk2としては、例えば扉の角等の撮像画像中で特徴的な点、即ち、特徴点を用いる。特徴点の抽出方法自体は周知であり、各種抽出方法が提案されている。このようにして求めたランドマークmk1,mk2の位置(xy座標)と特徴ベクトルを登録しておき、ロボットが自律走行するランドマークの検知時に現在のロボットの位置(即ち、ロボットの現在位置)を計算するのに用いる。
When the landmark is registered, the positions of the landmarks mk 1 and mk 2 are measured by a distance sensor mounted on the robot. Specifically, by adding the relative coordinates of the landmarks mk 1 and mk 2 viewed from the robot measured by the distance sensor to the xy coordinates of the known robot position, each of the landmarks mk 1 and mk 2 Find the coordinates. Also,
ロボットが自律走行するランドマークの検知時には、登録されているランドマークmk1,mk2の特徴ベクトルを用いて、ロボットの走行時にカメラで撮像された撮像画像の中からランドマークmk1,mk2を検知する。図2は、撮像画像の中からランドマークmk1が検知された場合を示す図である。ロボットから検知したランドマークmk1までの距離を距離センサで求めて、ロボットの現在位置p1’から検知したランドマークmk1までの相対位置を求め、この相対位置と登録されているランドマークmk1の位置(xy座標)からロボットの現在位置を計算することができる。図2では、ロボットの現在位置p1’のxy座標(xr,ry)は未知であり、ロボットから検知したランドマークmk1までの相対位置が(x’l1,y’l1)であるものとする。厳密には等式は成立しないが、誤差が無視できるものであるとすると、ロボットの現在位置p1’のxy座標(xl,yl)は、(xl,yl)=(xr,ry)+(xl1,yl1)から計算することができる。 At the time of detecting the landmark where the robot autonomously travels, the landmark mk 1 , mk 2 is picked up from the captured images captured by the camera when the robot travels using the feature vectors of the registered landmarks mk 1 , mk 2. Is detected. FIG. 2 is a diagram illustrating a case where the landmark mk 1 is detected from the captured image. The distance from the robot to the detected landmark mk 1 is obtained by a distance sensor, the relative position from the current position p1 ′ of the robot to the detected landmark mk 1 is obtained, and this relative position and the registered landmark mk 1 The current position of the robot can be calculated from the position (xy coordinates). In FIG. 2, the xy coordinates (x r , r y ) of the current position p1 ′ of the robot are unknown, and the relative position to the landmark mk 1 detected from the robot is (x ′ l1 , y ′ l1 ). And Strictly speaking, the equation does not hold, but if the error is negligible, the xy coordinates (x 1 , y 1 ) of the current position p1 ′ of the robot are (x 1 , y 1 ) = (x r , r y ) + (x 11 , y 11 ).
従来のランドマーク検知方法では、ランドマークを登録した時のロボットの位置と、ロボットの走行時にランドマークを検知をする際のロボットの現在位置とが近い場合は、ランドマークの検知が成功し易い。しかし、ランドマークを登録した時のロボットの位置と、ロボットの走行時にランドマークを検知をする際のロボットの現在位置とが大きく離れている場合には、ランドマークの登録時とランドマークの検知時とで撮像画像の視点がずれており撮像画像が大きく変化する。このため、撮像画像の大きな変化に伴い特徴ベクトルも大きく変化してしまい、ロボットの走行時にランドマークを検知できない場合が生じる。そこで、例えばランドマーク登録時にはロボットの多くの位置での特徴ベクトルを登録して、ランドマークの検知時にはそれら全ての特徴ベクトルを用いてマッチングすることが考えられるものの、計算量が非常に多くなり、ロボットに搭載される計算機の性能を考慮すると現実的ではない。又、特徴ベクトルの平均を求めてそれをマッチングに用いることも考えられるが、単純な統計量を用いて計算量を減らしたのではランドマークの誤検知を生じる可能性があり、ランドマークの検知精度を向上させることは期待できない。 In the conventional landmark detection method, if the position of the robot when the landmark is registered is close to the current position of the robot when the landmark is detected when the robot is running, the landmark detection is likely to succeed. . However, if the position of the robot when the landmark is registered and the current position of the robot when detecting the landmark when the robot is traveling are far apart, the landmark detection and landmark detection The viewpoint of the captured image is shifted from time to time, and the captured image changes greatly. For this reason, the feature vector also changes greatly with a large change in the captured image, and the landmark may not be detected when the robot travels. Therefore, for example, when registering landmarks, it is possible to register feature vectors at many positions of the robot, and when detecting landmarks, it is possible to match using all of the feature vectors, but the amount of calculation becomes very large, Considering the performance of the computer installed in the robot, it is not realistic. It is also possible to find the average of feature vectors and use it for matching. However, if the amount of calculation is reduced using simple statistics, there is a possibility of erroneous detection of landmarks. It cannot be expected to improve accuracy.
従来のランドマーク検知方法では、ランドマークの誤検知を生じることがあるため、ランドマークの検知精度を向上させることは難しいという問題があった。 In the conventional landmark detection method, there is a problem in that it is difficult to improve the detection accuracy of the landmark because erroneous detection of the landmark may occur.
そこで、本発明は、ランドマークの検知精度を向上可能なランドマーク検知方法、ロボット及びプログラムを提供することを目的とする。 Therefore, an object of the present invention is to provide a landmark detection method, a robot, and a program that can improve the detection accuracy of landmarks.
本発明の一観点によれば、自律走行型ロボットからランドマークを検知するランドマーク検知方法であって、前記ロボット内でカメラが出力する撮像画像に基づいて特徴ベクトル生成装置によりランドマークの特徴点の特徴ベクトルを生成する工程と、前記ロボット内で、マハラノビス距離計算装置により前記特徴ベクトルと記憶装置に登録されているランドマーク登録時の特徴点の特徴ベクトルとに基づいてマハラノビス距離を計算する工程と、前記ロボット内で、前記マハラノビス距離が最小の特徴ベクトルをランドマーク検知結果生成装置により選択してランドマークの検知結果として出力する工程と、前記ロボット内で、走行装置の出力に基づき、現在位置候補生成装置により前記ロボットの移動量と正規分布に従って分布する測定の誤差に基づいて前記ロボットの現在位置の候補を求める工程と、前記ロボット内で、前記ロボットの現在位置の候補について、前記記憶装置に登録されているランドマークの位置との整合性を整合性評価装置により評価して評価結果を出力する工程と、前記ロボット内で、重み付き平均計算装置により前記ロボット位置の候補の座標値の重み付け平均を、前記評価結果に応じた重み付け平均を計算することで求めて前記ロボットの推定位置を得る工程を含むランドマーク検知方法が提供される。 According to one aspect of the present invention, there is provided a landmark detection method for detecting a landmark from an autonomously traveling robot, wherein a feature vector generating device uses a landmark vector to generate a landmark feature point based on a captured image output by a camera within the robot. And a step of calculating a Mahalanobis distance in the robot based on the feature vector and the feature vector of the feature point at the time of landmark registration registered in the storage device by the Mahalanobis distance calculation device. When, in the robot, and outputting a detection result of the landmark the Mahalanobis distance is selected by the minimum of the feature vector landmark detection result generating device, within the robot,-out based on the output of the drive device , measurements distributed according to the movement amount and the normal distribution of the robot by the current position candidate generation unit A step of determining a candidate of the current position of the robot based on the error, in the robot, the candidate of the current position of the robot, consistency evaluate the consistency with the position of the landmark which is registered in the storage device A step of evaluating by the apparatus and outputting an evaluation result; and within the robot, calculating a weighted average of coordinate values of the robot position candidates by a weighted average calculating apparatus, and calculating a weighted average corresponding to the evaluation result landmark detection method comprising the step of obtaining an estimated position of said robot is provided asking.
本発明の一観点によれば、ランドマークを検知する自律走行型ロボットであって、カメラと、記憶装置と、走行装置と、前記カメラが出力する撮像画像に基づいてランドマークの特徴点の特徴ベクトルを生成する特徴ベクトル生成装置と、前記特徴ベクトルと前記記憶装置に登録されているランドマーク登録時の特徴点の特徴ベクトルとに基づいてマハラノビス距離を計算するマハラノビス距離計算装置と、前記マハラノビス距離が最小の特徴ベクトルを選択してランドマークの検知結果として出力するランドマーク検知結果生成装置と、前記走行装置の出力に基づき、前記ロボットの移動量と正規分布に従って分布する測定の誤差に基づいて前記ロボットの現在位置の候補を求める現在位置候補生成装置と、前記ロボットの現在位置の候補について、前記記憶装置に登録されているランドマークの位置との整合性を評価して評価結果を出力する整合性評価装置と、前記ロボット位置の候補の座標値の重み付け平均を、前記評価結果に応じた重み付け平均を計算することで求めて前記ロボットの推定位置を得る重み付き平均計算装置を備えたロボットが提供される。 According to an aspect of the present invention, there is provided an autonomous traveling robot that detects a landmark, the feature of a landmark feature point based on a camera, a storage device, a traveling device, and a captured image output by the camera. A feature vector generating device for generating a vector; a Mahalanobis distance calculating device for calculating a Mahalanobis distance based on the feature vector and a feature vector of a feature point registered in the storage device; and the Mahalanobis distance a landmark detection result generating unit for outputting a detection result of the landmarks but by selecting the minimum of the feature vector,-out based on the output of the traveling device, the error of measurement distributed in accordance with the movement amount and the normal distribution of the robot A current position candidate generating device for obtaining a current position candidate of the robot based on the current position candidate of the robot; For it, the integrity evaluation device for outputting an evaluation result by evaluating the consistency of the position of the landmark which is registered in the storage device, a weighted average of the coordinate values of the candidate of the robot position, the evaluation result There is provided a robot provided with a weighted average calculating device that obtains an estimated position of the robot by calculating a corresponding weighted average .
本発明の一観点によれば、コンピュータに、自律走行型ロボットからランドマークを検知させるプログラムであって、前記ロボットのカメラが出力する撮像画像に基づいてランドマークの特徴点の特徴ベクトルを生成する手順と、前記特徴ベクトルと前記ロボットの記憶装置に登録されているランドマーク登録時の特徴点の特徴ベクトルとに基づいてマハラノビス距離を計算する手順と、前記マハラノビス距離が最小の特徴ベクトルを選択してランドマークの検知結果として出力する手順と、前記ロボットの走行装置の出力に基づき、前記ロボットの移動量と正規分布に従って分布する測定の誤差に基づいて前記ロボットの現在位置の候補を求める手順と、前記ロボットの現在位置の候補について、前記記憶装置に登録されているランドマークの位置との整合性を評価して評価結果を出力する手順と、前記ロボット位置の候補の座標値の重み付け平均を、前記評価結果に応じた重み付け平均を計算することで求めて前記ロボットの推定位置を得る手順を前記コンピュータに実行させるプログラムが提供される。 According to one aspect of the present invention, the computer, a program which Ru is detected landmark from autonomous robots, the feature vector of the feature point of the landmark based on the captured image by the camera of the robot output A step of generating, a step of calculating a Mahalanobis distance based on the feature vector and a feature vector of a feature point at the time of landmark registration registered in the storage device of the robot, and a feature vector having the smallest Mahalanobis distance. a step of outputting a detection result of the landmark selected, the-out based on the output of the traveling device of the robot, the current position of the robot based on the error of measurement distributed in accordance with the movement amount and the normal distribution of the robot candidate And a landmarker registered in the storage device for the current position candidate of the robot. A step of outputting to the evaluation result evaluated consistent with the position of the weighted average of the coordinate values of the candidate robot position, estimation of the robot determined by calculating the weighted average in accordance with the evaluation result A program for causing the computer to execute a procedure for obtaining a position is provided.
開示のランドマーク検知方法、ロボット及びプログラムによれば、ランドマークの検知精度を向上させることができる。 According to the disclosed landmark detection method, robot, and program, landmark detection accuracy can be improved.
開示のランドマーク検知方法、ロボット及びプログラムでは、予めランドマークの特徴ベクトルを学習して作成した識別器を用いてランドマークを検知する。 In the disclosed landmark detection method, robot, and program, a landmark is detected using a discriminator created by learning a landmark feature vector in advance.
識別器を拡張して、特徴ベクトルとロボットの座標値を組み合わせたベクトルを用いてランドマークを検知するようにしても良い。 The classifier may be extended so that the landmark is detected using a vector that combines the feature vector and the coordinate value of the robot.
以下に、開示のランドマーク検知方法、ロボット及びプログラムの各実施例を図面と共に説明する。 Hereinafter, embodiments of the disclosed landmark detection method, robot, and program will be described with reference to the drawings.
本発明の一実施例では、ランドマーク検知方法が自律走行型ロボット(図示せず)に適用されている。 In one embodiment of the present invention, the landmark detection method is applied to an autonomous traveling robot (not shown).
ランドマークの登録時には、ロボットに搭載されたカメラによりランドマークをロボットの複数の位置で撮像し、各位置で求められたランドマークの撮像画像から特徴ベクトルを学習して識別器、即ち、マハラノビス距離(Mahalanobis Distance)を作成する。一方、ロボットが自律走行するランドマークの検知時には、識別器を用いてランドマークを検知する。 At the time of registration of landmarks, the landmarks are imaged at a plurality of positions of the robot by a camera mounted on the robot, and feature vectors are learned from the captured images of the landmarks obtained at the respective positions to identify the classifier, that is, the Mahalanobis distance. Create (Mahalanobis Distance). On the other hand, when a landmark where the robot autonomously travels is detected, the landmark is detected using an identifier.
識別器を拡張して、各位置でのランドマークの撮像画像に対してランドマークの画像特徴ベクトルと座標値を成分とする組み合わせのベクトルを作成して、この組み合わせのベクトルから識別器を作成してランドマークの検知に用いても良い。 The classifier is expanded to create a vector of combinations of the landmark image feature vector and coordinate values as components for the captured image of the landmark at each position, and a classifier is created from this combination vector. It may be used for landmark detection.
ランドマークとしては、例えば扉の角等のカメラの撮像画像中で特徴的な点、即ち、特徴点を用いる。特徴点の抽出方法自体は周知であり、ハリスオペレータ(Harris Operator)やSIFT(Scale Invariant Feature Transform)等を用いる各種抽出方法が提案されている。図3は、ランドマークの登録時の特徴点の抽出方法の一例を説明する図である。図3に示すように、撮像画像101中の特徴点(即ち、ランドマーク)102の周辺の例えば20画素×20画素のサイズの例えば16(=4×4)個の領域を切り出して、切り出した各領域の画素の濃淡値νi,Mを並べたベクトルを作成してM次元の特徴ベクトルを求める。次式は、この例で求められるi番目のランドマークの特徴ベクトルνiを表し、上付きの添え字tは転置(Transpose)を表す。
As the landmark, for example, a characteristic point in the captured image of the camera such as a corner of the door, that is, a characteristic point is used. The feature point extraction method itself is well known, and various extraction methods using a Harris Operator, SIFT (Scale Invariant Feature Transform), or the like have been proposed. FIG. 3 is a diagram for explaining an example of a feature point extraction method at the time of landmark registration. As shown in FIG. 3, for example, 16 (= 4 × 4) areas having a size of, for example, 20 pixels × 20 pixels around the feature point (ie, landmark) 102 in the captured
ランドマークの検知時には、カメラの撮像画像から特徴点を抽出する。図4は、ランドマークの検知時の特徴点の抽出方法の一例を説明する図である。図4(a)に示すように、撮像画像101Aの1つの特徴点102−1Aを選択し、その特徴点102−1Aの特徴ベクトルと登録されている各ランドマーク102−1〜102−iの特徴ベクトルとの間のユークリッド距離(Euclidean Metric)、即ち、特徴ベクトルの各成分の差の二乗和を求める。ユークリッド距離が最も小さくなった特徴ベクトルを有するランドマーク102−1を特徴点102−1Aに対応するランドマークとして選択する。この場合、特徴点102−1Aの検知結果は、ランドマーク102−1であることを示す。同様にして、図4(b)のように、撮像画像101Aの他の1つの特徴点102−2Aを選択し、その特徴点102−2Aの特徴ベクトルと登録されている各ランドマーク102−1〜102−iの特徴ベクトルとの間のユークリッド距離を求める。ユークリッド距離が最も小さくなった特徴ベクトルを有するランドマーク102−2を特徴点102−2Aに対応するランドマークとして選択する。この場合、特徴点102−2Aの検知結果は、ランドマーク102−2であることを示す。
When a landmark is detected, feature points are extracted from the captured image of the camera. FIG. 4 is a diagram for explaining an example of a feature point extraction method when a landmark is detected. As shown in FIG. 4A, one feature point 102-1A of the captured
次に、マハラノビス距離を用いたことによる効果を以下に説明する。平均ベクトルを詳しく記述すると、次式のようになる。 Next, the effects of using the Mahalanobis distance will be described below. When the average vector is described in detail, the following equation is obtained.
又、共分散行列は、次式のようになる。 The covariance matrix is as follows.
更に、マハラノビス距離は、次式のようになる。 Further, the Mahalanobis distance is as follows.
特徴ベクトルはM次元ベクトル(即ち、ベクトルが持っている値の数がM)であり、上記の図3の場合は説明の便宜上M=16であが、ランドマークを検知する場合は一般的にMの値は数十から数百である。このように特徴ベクトルの次元が大きいと、特徴ベクトルを図示するのが困難であるため、この例では便宜上、特徴ベクトルが1次元(M=1)であるものと仮定して説明する。特徴ベクトルの次元が大きくても、基本的な概念は以下に説明する1次元の場合と同様である。 The feature vector is an M-dimensional vector (that is, the number of values held by the vector is M). In the case of FIG. 3 described above, M = 16 for convenience of explanation. The value of M is several tens to several hundreds. If the dimension of the feature vector is large, it is difficult to illustrate the feature vector. In this example, for the sake of convenience, description will be made assuming that the feature vector is one-dimensional (M = 1). Even if the dimension of the feature vector is large, the basic concept is the same as the one-dimensional case described below.
特徴ベクトルが1次元の場合、マハラノビス距離は次式のようになる。 When the feature vector is one-dimensional, the Mahalanobis distance is as follows:
このように、第1の比較例ではランドマークの誤検知を生じることがあるため、ランドマークの検知精度を向上させることは難しい。一方、第2の比較例では、ランドマークの誤検知を防止するには計算量が非常に多くなり、ロボットに搭載される計算機の性能を考慮するとランドマークの検知精度を向上させることは難しい。つまり、特徴ベクトルをユークリッド距離に基づいて評価する第1及び第2の比較例では、ランドマークの検知精度を向上させることは難しい。 As described above, in the first comparative example, since erroneous detection of the landmark may occur, it is difficult to improve the detection accuracy of the landmark. On the other hand, in the second comparative example, the amount of calculation is very large in order to prevent erroneous detection of the landmark, and it is difficult to improve the detection accuracy of the landmark in consideration of the performance of the computer mounted on the robot. That is, in the first and second comparative examples in which the feature vector is evaluated based on the Euclidean distance, it is difficult to improve the landmark detection accuracy.
学習のためには多数の特徴ベクトルを求める必要があるが、ロボットをランドマーク撮像位置まで移動させた上で画像を撮像させて特徴ベクトルを求めるのでは作業量が大きい。そこで、上記の手順で、ある位置における特徴ベクトルの成分をその付近の位置における特徴ベクトルの成分を用いて近似して補間することにより、ロボットを各ランドマーク撮像位置まで移動させた上で画像を撮像させて特徴を求める場合と比較すると、作業量が大幅に軽減される。 For learning, it is necessary to obtain a large number of feature vectors. However, if the robot is moved to the landmark imaging position and an image is taken to obtain a feature vector, the amount of work is large. Therefore, by moving the robot to each landmark imaging position by approximating and interpolating the feature vector component at a certain position using the feature vector component at the nearby position in the above procedure, the image is obtained. The amount of work is greatly reduced as compared with the case of obtaining a feature by imaging.
尚、本変形例における特徴ベクトルの成分の近似及び補間は、省略しても良いことは言うまでもない。 Needless to say, the approximation and interpolation of the feature vector components in this modification may be omitted.
ところで、異なるランドマークに対して作成した特徴ベクトルの中に類似したものが含まれていると、検知性能が低下する可能性がある。図13は、異なるランドマークk',k'"に対して作成した特徴ベクトルの中に類似したものが含まれている場合を説明する図である。図13(a)はランドマーク撮像位置とランドマークの関係を示し、図13(b)は特徴ベクトルの評価を説明するためにランドマークの共分散行列を示す。図10(b)に示すように、2つのランドマークの分布は類似する特徴ベクトルについて破線で囲んで示すように重なる。異なるランドマークk',k'"に対して作成した特徴ベクトルの中に類似した特徴ベクトルが含まれる理由としては、作成した特徴ベクトルはデータ量が多い分異なるランドマークk',k'"に対して作成した特徴ベクトルの中に類似したものが含まれている可能性があることが挙げられる。 By the way, if similar features are included in feature vectors created for different landmarks, the detection performance may be degraded. FIG. 13 is a diagram for explaining a case in which similar features are included in feature vectors created for different landmarks k ′ and k ′ ″. FIG. 13 (b) shows a landmark covariance matrix to explain the evaluation of the feature vector, and the distribution of the two landmarks is similar as shown in FIG. The feature vectors overlap as shown by being surrounded by a broken line. The reason why similar feature vectors are included in the feature vectors created for different landmarks k ', k' " It is possible that similar features may be included in the feature vectors created for the different landmarks k ′ and k ′ ″.
そこで、本実施例の第2の変形例では、異なるランドマークk',k'"に対して作成した特徴ベクトルの中から類似した特徴ベクトルを区別するために、ランドマークk',k'"の登録時のロボットの位置を用いる。ランドマーク撮像位置と、特徴ベクトルを近似した位置の夫々において、図14に示すように、特徴ベクトルνiの各成分νi,1,...,νi,Mと位置の座標値xri,yriを組み合わせたベクトルVi= (νi,1,...,νi,M,xri,yri)を作成する。図14は、特徴ベクトルの各成分と位置の座標値を組み合わせたベクトルの作成を説明する図である。 Therefore, in the second modification of the present embodiment, in order to distinguish similar feature vectors from feature vectors created for different landmarks k ′, k ′ ″, landmarks k ′, k ′ ″ are used. The robot position at the time of registration is used. At each of the landmark imaging position and the position approximating the feature vector, as shown in FIG. 14, each component ν i, 1 , ..., ν i, M of the feature vector ν i and the position coordinate value x ri , y ri is combined to create a vector V i = (ν i, 1 , ..., ν i, M , x ri , y ri ). FIG. 14 is a diagram illustrating the creation of a vector that combines each component of the feature vector and the coordinate value of the position.
尚、本変形例における特徴ベクトル及びロボット位置の座標値を組み合わせたベクトルの生成は省略して、特徴ベクトルの平均ベクトルと共分散行列を計算しても良いことは言うまでもない。 Needless to say, the generation of the vector combining the feature vector and the coordinate value of the robot position in this modification may be omitted, and the average vector and covariance matrix of the feature vector may be calculated.
尚、本変形例における特徴ベクトル及びロボット予測位置の座標値を組み合わせたベクトルの生成は省略して、特徴ベクトルの平均ベクトルと共分散行列を計算しても良いことは言うまでもない。 Needless to say, the generation of a vector combining the feature vector and the coordinate value of the predicted robot position in this modification may be omitted, and the average vector of the feature vectors and the covariance matrix may be calculated.
次に、本実施例におけるロボットの構成の一例を、図18と共に説明する。図18は、ロボットの構成の一例を示すブロック図である。 Next, an example of the configuration of the robot in the present embodiment will be described with reference to FIG. FIG. 18 is a block diagram illustrating an example of the configuration of the robot.
図18に示すロボット20は、カメラ1、画像入力装置2、特徴点抽出装置3、特徴ベクトル生成装置4、特徴ベクトル近似装置5、特徴ベクトル及びロボット座標値組み合わせ装置6、平均共分散行列計算装置7、距離センサ8、ランドマーク記憶装置9、走行装置10、エンコーダ11、予測位置生成装置12、マハラノビス距離計算装置13、ランドマーク検知結果生成装置14、現在位置候補生成装置15、整合性評価装置16、及び重み付け平均計算装置17を有する。
18 includes a
カメラ1は、ランドマークを含む画像を撮像し、撮像画像を表すビデオ信号を出力する。画像入力装置2は、カメラ1から出力されるビデオ信号を受け取り、各画素の濃淡値を示す画像データを特徴点抽出装置3に出力する。特徴点抽出装置3は、画像データに対して特徴点抽出処理を施し、特徴点データを特徴ベクトル生成装置4に出力する。特徴ベクトル生成装置4は、特徴点データに基づき、特徴点周辺の各画素の濃淡値から特徴ベクトルを生成して出力する。
The
ランドマークの登録時には、特徴ベクトル生成装置4は特徴ベクトルを特徴ベクトル近似装置5及び特徴ベクトル及びロボット座標値組み合わせ装置6に出力する。特徴ベクトル近似装置5は、特徴ベクトルを、付近のランドマーク撮像位置の特徴ベクトルで近似し、近似を行った位置での特徴ベクトルを特徴ベクトル及びロボット座標組み合わせ装置6に出力する。特徴ベクトル及びロボット座標組み合わせ装置6は、特徴ベクトル生成装置4又は特徴ベクトル近似装置5からの特徴ベクトルの各成分とロボット20の位置の座標値を組み合わせたベクトルを作成して平均及び共分散行列計算装置7に出力する。ランドマーク登録時には、ロボット20は例えば人の手によりランドマークを撮像するべき位置まで移動されるので、ロボット20の位置の座標値は既知である。しかし、後述する走行装置10を用いてロボット20をランドマークを撮像するべき位置まで自走で移動させる場合には、後述する予測位置生成装置12が生成したロボット20の予測位置の座標値をロボット20の位置の座標値として使用しても良い。平均及び共分散行列計算装置7は、特徴ベクトルの各成分とロボット20の位置の座標値を組み合わせたベクトル(即ち、学習データ)の平均と共分散行列を求めてランドマーク記憶装置9に出力して記憶する。
At the time of landmark registration, the feature
又、ランドマークの登録時には、距離センサ8は、ロボット20からランドマークまでの距離を計測して、現在のロボット20の位置を基準としたランドマークの座標をランドマーク記憶装置9に出力して記憶する。これにより、ランドマーク記憶装置9には、ランドマークの位置の座標値と、特徴ベクトルの各成分とロボット20の位置の座標値を組み合わせたベクトル(又、学習データ)の平均及び共分散行列が記憶(即ち、登録)される。
When the landmark is registered, the distance sensor 8 measures the distance from the
走行装置10は、モータ(図示せず)によって車輪(図示せず)を回転させてロボット20を走行させる周知の構成を有する。エンコーダ11は、例えば車輪に取り付けられており、走行装置10から出力される車輪回転情報に基づいて車輪回転数データ、即ち、ロボット20の移動量を求めて出力する。予測位置生成装置12は、過去のロボット20の位置とエンコーダ11から得たロボット20の移動量から現在のロボット20の予測位置(即ち、ロボット予測位置)を求めて、特徴ベクトル及びロボット座標組み合わせ装置6及び現在位置候補生成装置15に出力する。
The traveling
ランドマークの検知時には、特徴ベクトル生成装置4は、現在のロボット20の位置でカメラ1が出力するビデオ信号(即ち、撮像画像)に基づいて生成された特徴ベクトルを特徴ベクトル及びロボット座標組み合わせ装置6に出力する。特徴ベクトル及びロボット座標組み合わせ装置6は、特徴ベクトル生成装置4からの特徴ベクトルの各成分と予測位置生成装置12からのロボット予測位置の座標値を組み合わせたベクトルを作成してマハラノビス距離計算装置13に出力する。又、ランドマーク記憶装置9に記憶されたランドマークの座標値が読み出されてマハラノビス距離計算装置13に出力される。
When the landmark is detected, the feature
マハラノビス距離計算装置13は、ランドマーク記憶装置9から読み出されたランドマーク登録時のロボット20の位置での平均及び共分散行列と、特徴ベクトル及びロボット座標組み合わせ装置6からの現在のロボット予測位置での平均及び共分散行列に基づいてマハラノビス距離を計算し、ランドマーク検知結果生成装置14に出力する。ランドマーク検知結果生成装置14は、撮像画像の各特徴点に対して、マハラノビス距離が最も小さいランドマークを選択してランドマーク検知結果として整合性評価装置16に出力する。一方、現在位置候補生成装置15は、現在のロボット予測位置に基づいて、エンコーダ11から出力されたロボット20の移動量と正規分布誤差に基づいて、現在のロボット20の位置の候補(即ち、ロボット位置の候補)を生成する。現在位置候補生成装置15で生成されたロボット位置の候補は、整合性評価装置16及び重み付き平均計算装置17に出力される。
The Mahalanobis
従って、ランドマーク検知時には、整合性評価装置16は、現在のロボット20の位置で距離センサ8により測定されたランドマークの座標値及び現在位置候補生成装置15からのロボット位置の候補を基準として、ランドマーク検知結果生成装置14からのランドマーク検知結果(又は、ランドマークの位置)のランドマーク記憶装置9から読み出されたにランドマークの登録時のランドマークの座標値(又は、ランドマークの位置)との整合性を評価する。整合性評価装置16の評価結果は、重み付き平均計算装置17に出力される。重み付き平均計算装置17は、ロボット位置の候補の座標に、整合性評価装置16から出力される評価結果に応じて重み付け平均を計算してロボット20の推定位置を得る。
Therefore, at the time of landmark detection, the
図18において、カメラ1、距離センサ8、ランドマーク記憶装置9、走行装置10、及びエンコーダ11以外のロボット20の構成要素(即ち、装置)の機能は、CPU(Central Processing Unit)等のプロセッサ及び記憶装置を備えた周知の汎用コンピュータ(図示せず)により実現可能である。この場合、コンピュータの記憶装置は、ランドマーク記憶装置9として機能しても良い。コンピュータの記憶装置は、CPUが実行するプログラム、CPUが実行する演算の中間結果を含む各種データを格納する。CPUがプログラムを実行することにより、ロボット20の各機能が実現され、ロボット20が実行する処理の各手順が実行される。プログラムは、コンピュータの記憶装置を含む各種コンピュータ読み取り可能な記憶媒体に格納可能である。
In FIG. 18, the functions of the components (that is, the device) of the
図19は、ベクトル間距離計算装置を説明するブロック図である。図19中、図18と同一部分には同一符号を付し、その説明は省略する。図19に破線で囲んで示すように、ベクトル間距離計算装置40は、図18に示す特徴ベクトル及びロボット座標値組み合わせ装置6及びマハラノビス距離計算装置13で形成されている。このベクトル間距離計算装置40の機能も、CPU等のプロセッサ及び記憶装置を備えた周知の汎用コンピュータにより実現可能である。
FIG. 19 is a block diagram for explaining an inter-vector distance calculation apparatus. In FIG. 19, the same parts as those in FIG. 19, the inter-vector distance calculation device 40 is formed by the feature vector and robot coordinate
図20は、図18に示すロボット20のランドマーク登録時の動作を説明するフローチャートである。図20において、ステップS1では、ランドマークを撮影する任意の位置を選択し、ステップS2では、ランドマークに対してステップS1で選択した位置からカメラ1による撮影と距離センサ8による距離測定を行う。ステップS3では、カメラ1の出力ビデオ信号に基づいて、画像入力装置2、特徴点抽出装置3及び特徴ベクトル生成装置4がランドマークの特徴ベクトルを抽出(又は、生成)する。ステップS4では、十分な数のランドマークを撮影したか否かを判定し、判定結果がNOであると処理はステップS1へ戻る。一方、ステップS4の判定結果がYESであるとであるとであると、ステップS5では、特徴ベクトル近似装置5が近似を行う座標を選択して付近の3箇所のランドマークの撮影位置を求める。又、ステップS6では、特徴ベクトル近似装置5がステップS5で選択した付近の3箇所のランドマークの特徴ベクトルから近似を行い、近似を行った位置での特徴ベクトルを生成する。ステップS7では、ロボット座標値組み合わせ装置6及び平均及び共分散行列計算装置7が特徴ベクトル生成装置4及び特徴ベクトル近似装置5からの特徴ベクトルとロボット20の既知の座標値を組み合わせたベクトルの平均及び共分散行列を計算してランドマーク記憶装置9に記憶し、処理は終了する。
FIG. 20 is a flowchart for explaining the operation at the time of landmark registration of the
図21は、図18に示すロボット20が走行するランドマーク検知時の動作を説明するフローチャートである。図21において、ステップS11では、カメラ1の出力ビデオ信号に基づいて、画像入力装置2、特徴点抽出装置3及び特徴ベクトル生成装置4がランドマークの特徴ベクトルを求める(又は、生成する)。ステップS12では、特徴ベクトル及びロボット座標値組み合わせ装置6が特徴ベクトル生成装置4からの特徴ベクトルと予測位置生成装置12からのロボットの予測位置の座標値を組み合わせたベクトルを計算する。ステップS13では、マハラノビス距離計算装置13が、ランドマーク記憶装置9から読み出されたランドマーク登録時のロボット20の位置での平均及び共分散行列と、特徴ベクトル及びロボット座標組み合わせ装置6からの現在のロボット予測位置での平均及び共分散行列に基づいてマハラノビス距離を計算する。ステップS14では、ランドマーク検知結果生成装置14が、撮像画像の各特徴点に対して、マハラノビス距離が最も小さいランドマークを選択してランドマーク検知結果を得る。ステップS15では、走行装置10から出力される車輪回転情報に基づいてエンコーダ11、予測位置生成装置12及び現在位置候補生成装置15がロボット20の移動量と正規分布誤差に基づいて現在のロボット20の位置の候補を求める。ステップS16では、整合性評価装置16が、現在のロボット20の位置で距離センサ8により測定されたランドマークの座標値及びステップS15で求められたロボット位置の候補を基準として、ステップS14で得られたランドマーク検知結果(又は、ランドマークの位置)のランドマーク記憶装置9から読み出されたにランドマークの登録時のランドマークの座標値(又は、ランドマークの位置)との整合性を評価する。ステップS17では、重み付き平均計算装置17が、ロボット位置の候補の座標に、ステップS16で得られた整合性の評価結果に応じて重み付け平均を計算してロボット20の推定位置とし、処理は終了する。
FIG. 21 is a flowchart for explaining the operation at the time of detecting a landmark traveled by the
図22は、図18に示す特徴ベクトル近似装置5の動作を説明するフローチャートである。図22は、1つのランドマークに対する処理を示しており、このような処理が各ランドマークに対して行われる。
FIG. 22 is a flowchart for explaining the operation of the feature
図23は、図18に示す特徴ベクトル及びロボット座標値組み合わせ装置6の動作を説明するフローチャートである。図23は、1つのランドマークに対する処理を示しており、このような処理が各ランドマークに対して行われる。
FIG. 23 is a flowchart for explaining the operation of the feature vector and robot coordinate
図23において、ステップS41では、学習データの番号を表す変数iを1にセットする。ステップS42では、特徴ベクトルνiの成分とロボット20の座標値xri,yriを組み合わせたベクトルViを作成する。ステップS43では、i≧Nであるか否かを判定し、判定結果がNOであるとステップS44においてiを1だけインクリメントしてから処理はステップS42へ戻る。一方、ステップS43の判定結果がYESであると、処理は終了する。
In FIG. 23, in step S41, a variable i representing a learning data number is set to 1. In step S42, a vector V i is generated by combining the component of the feature vector ν i and the coordinate values x ri and y ri of the
尚、上記実施例及び変形例では、ランドマーク検知方法が自律走行型ロボットに適用されているが、ロボットに周知のGPS(Global Positioning System)を搭載しておき、ランドマーク検知方法に基づいて検知されたロボットの位置とGPSにより検知されたロボットの位置とに基づいて、ロボットの位置検知精度を更に向上することも可能である。この場合、人工衛星からの電波がロボットまで届かない等の理由でGPSが動作しない状態でも、ランドマーク検知方法に基づいてロボットの位置を検知することができる。 In the above-described embodiments and modifications, the landmark detection method is applied to an autonomous traveling robot. However, a well-known GPS (Global Positioning System) is mounted on the robot, and detection is performed based on the landmark detection method. Based on the position of the detected robot and the position of the robot detected by GPS, the position detection accuracy of the robot can be further improved. In this case, the position of the robot can be detected based on the landmark detection method even when the GPS does not operate because the radio wave from the artificial satellite does not reach the robot.
以上の実施例を含む実施形態に関し、更に以下の付記を開示する。
(付記1)
自律走行型ロボットからランドマークを検知するランドマーク検知方法であって、
前記ロボット内でカメラが出力する撮像画像に基づいて特徴ベクトル生成装置によりランドマークの特徴点の特徴ベクトルを生成する工程と、
前記ロボット内で、マハラノビス距離計算装置により前記特徴ベクトルと記憶装置に登録されているランドマーク登録時の特徴点の特徴ベクトルとに基づいてマハラノビス距離を計算する工程と、
前記ロボット内で、前記マハラノビス距離が最小の特徴ベクトルをランドマーク検知結果生成装置により選択してランドマークの検知結果として出力する工程と、
前記ロボット内で、走行装置の出力に基づいて現在位置候補生成装置により前記ロボットの移動量と正規分布誤差に基づいて前記ロボットの現在位置の候補を求める工程と、
前記ロボット内で、前記ロボットの現在位置の候補について、前記記憶装置に登録されているランドマークの位置との整合性を整合性評価装置により評価して評価結果を出力する工程と、
前記ロボット内で、重み付き平均計算装置により前記ロボット位置の候補の座標に前記評価結果に応じて重み付け平均を計算して前記ロボットの推定位置を得る工程を含む、ランドマーク検知方法。
(付記2)
前記ロボット内で、予測位置生成装置により過去の前記ロボットの位置と前記ロボットの移動量から現在のロボットの予測位置を求める工程を更に含み、
前記特徴ベクトルを生成する工程は、特徴ベクトル及びロボット座標組み合わせ装置により前記特徴ベクトルの各成分と前記ロボットの予測位置の座標値を組み合わせたベクトルを作成し、
前記マハラノビス距離を計算する工程は、前記マハラノビス距離計算装置により前記組み合わせのベクトルと前記記憶装置に登録されているランドマーク登録時の特徴ベクトルの各成分と前記ロボットの位置の座標値を組み合わせたベクトルとに基づいてマハラノビス距離を計算する、付記1記載のランドマーク検知方法。
(付記3)
前記マハラノビス距離を計算する工程は、前記マハラノビス距離計算装置により前記組み合わせのベクトルと前記記憶装置に登録されているランドマーク登録時の特徴ベクトルの各成分と前記ロボットの位置の座標値を組み合わせたベクトルの平均及び共分散行列とに基づいてマハラノビス距離を計算する、付記2記載のランドマーク検知方法。
(付記4)
前記評価結果を出力する工程は、現在のロボットの位置で距離センサにより測定されたランドマークの座標値及び前記ロボットの現在位置の候補を基準として、前記記憶装置に登録されているランドマークの位置との整合性を前記整合性評価装置により評価して評価結果を出力する、付記1乃至3のいずれか1項記載のランドマーク検知方法。
(付記5)
前記評価結果を出力する工程は、前記ロボットの現在位置の候補について、前記記憶装置に登録されている複数のランドマークの位置との整合性を整合性評価装置により評価して評価結果を出力する、付記1乃至4のいずれか1項記載のランドマーク検知方法。
(付記6)
ランドマークを検知する自律走行型ロボットであって、
カメラと、
記憶装置と、
走行装置と、
前記カメラが出力する撮像画像に基づいてランドマークの特徴点の特徴ベクトルを生成する特徴ベクトル生成装置と、
前記特徴ベクトルと前記記憶装置に登録されているランドマーク登録時の特徴点の特徴ベクトルとに基づいてマハラノビス距離を計算するマハラノビス距離計算装置と、
前記マハラノビス距離が最小の特徴ベクトルを選択してランドマークの検知結果として出力するランドマーク検知結果生成装置と、
前記走行装置の出力に基づいて前記ロボットの移動量と正規分布誤差に基づいて前記ロボットの現在位置の候補を求める現在位置候補生成装置と、
前記ロボットの現在位置の候補について、前記記憶装置に登録されているランドマークの位置との整合性を評価して評価結果を出力する整合性評価装置と、
前記ロボット位置の候補の座標に前記評価結果に応じて重み付け平均を計算して前記ロボットの推定位置を得る重み付き平均計算装置を備えた、ロボット。
(付記7)
過去の前記ロボットの位置と前記ロボットの移動量から現在のロボットの予測位置を求める予測位置生成装置と、
前記特徴ベクトルの各成分と前記ロボットの予測位置の座標値を組み合わせたベクトルを作成する特徴ベクトル及びロボット座標組み合わせ装置を更に備え、
前記マハラノビス距離計算装置は、前記組み合わせのベクトルと前記記憶装置に登録されているランドマーク登録時の特徴ベクトルの各成分と前記ロボットの位置の座標値を組み合わせたベクトルとに基づいてマハラノビス距離を計算する、付記5記載のロボット。
(付記8)
前記マハラノビス距離計算装置は、前記組み合わせのベクトルと前記記憶装置に登録されているランドマーク登録時の特徴ベクトルの各成分と前記ロボットの位置の座標値を組み合わせたベクトルの平均及び共分散行列とに基づいてマハラノビス距離を計算する、付記7記載のロボット。
(付記9)
距離センサを更に備え、
前記整合性評価装置は、現在のロボットの位置で前記距離センサにより測定されたランドマークの座標値及び前記ロボットの現在位置の候補を基準として、前記記憶装置に登録されているランドマークの位置との整合性を評価して評価結果を出力する、付記6乃至8のいずれか1項記載のロボット。
(付記10)
前記整合性評価装置は、前記ロボットの現在位置の候補について、前記記憶装置に登録されている複数のランドマークの位置との整合性を評価して評価結果を出力する、付記6乃至9のいずれか1項記載のロボット。
(付記11)
コンピュータに、自律走行型ロボットからランドマークを検知さるプログラムであって、
前記ロボットのカメラが出力する撮像画像に基づいてランドマークの特徴点の特徴ベクトルを生成する手順と、
前記特徴ベクトルと前記ロボットの記憶装置に登録されているランドマーク登録時の特徴点の特徴ベクトルとに基づいてマハラノビス距離を計算する手順と、
前記マハラノビス距離が最小の特徴ベクトルを選択してランドマークの検知結果として出力する手順と、
前記ロボットの走行装置の出力に基づいて前記ロボットの移動量と正規分布誤差に基づいて前記ロボットの現在位置の候補を求める手順と、
前記ロボットの現在位置の候補について、前記記憶装置に登録されているランドマークの位置との整合性を評価して評価結果を出力する手順と、
前記ロボット位置の候補の座標に前記評価結果に応じて重み付け平均を計算して前記ロボットの推定位置を得る手順
を前記コンピュータに実行させる、プログラム。
(付記12)
過去の前記ロボットの位置と前記ロボットの移動量から現在のロボットの予測位置を求める手順
を更に前記コンピュータに実行させ、
前記特徴ベクトルを生成する手順は、前記特徴ベクトルの各成分と前記ロボットの予測位置の座標値を組み合わせたベクトルを作成し、
前記マハラノビス距離を計算する手順は、前記組み合わせのベクトルと前記記憶装置に登録されているランドマーク登録時の特徴ベクトルの各成分と前記ロボットの位置の座標値を組み合わせたベクトルとに基づいてマハラノビス距離を計算する、付記11記載のプログラム。
(付記13)
前記マハラノビス距離を計算する手順は、前記組み合わせのベクトルと前記記憶装置に登録されているランドマーク登録時の特徴ベクトルの各成分と前記ロボットの位置の座標値を組み合わせたベクトルの平均及び共分散行列とに基づいてマハラノビス距離を計算する、付記12記載のプログラム。
(付記14)
前記評価結果を出力する手順は、現在のロボットの位置で前記ロボットの距離センサにより測定されたランドマークの座標値及び前記ロボットの現在位置の候補を基準として、前記記憶装置に登録されているランドマークの位置との整合性を評価して評価結果を出力する、付記11乃至13のいずれか1項記載のプログラム。
(付記15)
前記評価結果を出力する手順は、前記ロボットの現在位置の候補について、前記記憶装置に登録されている複数のランドマークの位置との整合性を評価して評価結果を出力する、付記11乃至14のいずれか1項記載のプログラム。
(付記16)
付記11乃至15のいずれか1項記載のプログラムを格納した、コンピュータ読み取り可能な記憶媒体。
The following additional notes are further disclosed with respect to the embodiment including the above examples.
(Appendix 1)
A landmark detection method for detecting a landmark from an autonomous traveling robot,
Generating a feature vector of a landmark feature point by a feature vector generation device based on a captured image output by a camera in the robot;
In the robot, a Mahalanobis distance is calculated based on the feature vector registered in the storage device by the Mahalanobis distance calculation device based on the feature vector at the time of landmark registration;
In the robot, a feature vector having the smallest Mahalanobis distance is selected by a landmark detection result generation device and is output as a landmark detection result;
In the robot, obtaining a candidate for the current position of the robot based on a movement amount and a normal distribution error of the robot by a current position candidate generation device based on the output of the traveling device;
In the robot, for the candidate of the current position of the robot, a process of evaluating the consistency with the position of the landmark registered in the storage device and outputting an evaluation result;
A landmark detection method comprising: calculating a weighted average according to the evaluation result on the coordinates of the robot position candidate by a weighted average calculation device in the robot to obtain an estimated position of the robot.
(Appendix 2)
Within the robot, the method further includes a step of obtaining a predicted position of the current robot from a past position of the robot and a movement amount of the robot by a predicted position generation device,
The step of generating the feature vector creates a vector that combines each component of the feature vector and the coordinate value of the predicted position of the robot by a feature vector and robot coordinate combination device,
The step of calculating the Mahalanobis distance is performed by combining the vector of the combination by the Mahalanobis distance calculation device, each component of the feature vector registered in the storage device and the coordinate value of the position of the robot. The landmark detection method according to
(Appendix 3)
The step of calculating the Mahalanobis distance is performed by combining the vector of the combination by the Mahalanobis distance calculation device, each component of the feature vector registered in the storage device and the coordinate value of the position of the robot. The landmark detection method according to
(Appendix 4)
The step of outputting the evaluation result includes the landmark position registered in the storage device with reference to the coordinate value of the landmark measured by the distance sensor at the current robot position and the current position candidate of the robot. The landmark detection method according to any one of
(Appendix 5)
The step of outputting the evaluation result evaluates the consistency of the current position candidate of the robot with the positions of a plurality of landmarks registered in the storage device, and outputs the evaluation result. The landmark detection method according to any one of
(Appendix 6)
An autonomous traveling robot that detects landmarks,
A camera,
A storage device;
A traveling device;
A feature vector generation device for generating a feature vector of a landmark feature point based on a captured image output by the camera;
A Mahalanobis distance calculation device for calculating a Mahalanobis distance based on the feature vector and the feature vector of the feature point at the time of landmark registration registered in the storage device;
A landmark detection result generating device for selecting the feature vector having the smallest Mahalanobis distance and outputting it as a landmark detection result;
A current position candidate generation device that obtains a candidate for the current position of the robot based on a movement amount of the robot and a normal distribution error based on the output of the traveling device;
Consistency evaluation device that evaluates the consistency with the position of the landmark registered in the storage device and outputs an evaluation result for the current position candidate of the robot;
A robot comprising a weighted average calculation device that calculates a weighted average of the coordinates of the robot position candidate according to the evaluation result to obtain an estimated position of the robot.
(Appendix 7)
A predicted position generation device for obtaining a predicted position of the current robot from a past position of the robot and a movement amount of the robot;
Further comprising a feature vector and robot coordinate combination device for creating a vector combining each component of the feature vector and the coordinate value of the predicted position of the robot;
The Mahalanobis distance calculation device calculates the Mahalanobis distance based on the vector of the combination, each vector of the feature vector registered in the storage device at the time of landmark registration, and a vector obtained by combining the coordinate values of the position of the robot. The robot according to
(Appendix 8)
The Mahalanobis distance calculation device uses the combination vector, a vector vector and a covariance matrix obtained by combining each component of the feature vector registered in the storage device and the coordinate value of the position of the robot. The robot according to
(Appendix 9)
A distance sensor;
The consistency evaluation device uses the landmark coordinate value measured by the distance sensor at the current robot position and the current position candidate of the robot as a reference, and the landmark position registered in the storage device. The robot according to any one of
(Appendix 10)
Any one of
(Appendix 11)
A computer program that detects landmarks from an autonomous robot.
Generating a feature vector of landmark feature points based on a captured image output by the camera of the robot;
Calculating Mahalanobis distance based on the feature vector and the feature vector of the feature point at the time of landmark registration registered in the storage device of the robot;
A procedure for selecting the feature vector having the smallest Mahalanobis distance and outputting it as a landmark detection result;
A procedure for obtaining a candidate for the current position of the robot based on a movement amount and a normal distribution error of the robot based on an output of the traveling device of the robot;
For the current position candidate of the robot, a procedure for evaluating the consistency with the position of the landmark registered in the storage device and outputting an evaluation result;
A program that causes the computer to execute a procedure of calculating a weighted average of coordinates of the robot position candidates according to the evaluation result to obtain an estimated position of the robot.
(Appendix 12)
Causing the computer to further execute a procedure for obtaining a predicted position of the current robot from a past position of the robot and a movement amount of the robot;
The procedure for generating the feature vector is to create a vector combining each component of the feature vector and the coordinate value of the predicted position of the robot,
The Mahalanobis distance is calculated based on the Mahalanobis distance based on the combination vector, a vector obtained by combining each component of the feature vector registered in the storage device and the coordinate value of the position of the robot. The program according to
(Appendix 13)
The procedure for calculating the Mahalanobis distance includes the vector and the covariance matrix of the combination vector, each component of the feature vector registered in the storage device and the coordinate value of the position of the robot. The program according to
(Appendix 14)
The procedure for outputting the evaluation result is based on the landmark coordinate value measured by the distance sensor of the robot at the current robot position and the candidate for the current position of the robot as a reference, and the land registered in the storage device. 14. The program according to any one of
(Appendix 15)
The procedure for outputting the evaluation result includes evaluating the consistency of the current position candidate of the robot with the positions of a plurality of landmarks registered in the storage device, and outputting the evaluation result. The program according to any one of the above.
(Appendix 16)
A computer-readable storage medium storing the program according to any one of
以上、開示のランドマーク検知方法、ロボット及びプログラムを実施例により説明したが、本発明は上記実施例に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能であることは言うまでもない。 As mentioned above, although the disclosed landmark detection method, robot, and program have been described by the embodiments, the present invention is not limited to the above embodiments, and various modifications and improvements can be made within the scope of the present invention. Needless to say.
1 カメラ
2 画像入力装置
3 特徴点抽出装置
4 特徴ベクトル生成装置
5 特徴ベクトル近似装置
6 特徴ベクトル及びロボット座標値組み合わせ装置
7 平均共分散行列計算装置
8 距離センサ
9 ランドマーク記憶装置
10 走行装置
11 エンコーダ
12 予測位置生成装置
13 マハラノビス距離計算装置
14 ランドマーク検知結果生成装置
15 現在位置候補生成装置
16 整合性評価装置
17 重み付け平均計算装置
20 ロボット
DESCRIPTION OF
Claims (6)
カメラと、
記憶装置と、
走行装置と、
前記カメラが出力する撮像画像に基づいてランドマークの特徴点の特徴ベクトルを生成する特徴ベクトル生成装置と、
前記特徴ベクトルと前記記憶装置に登録されているランドマーク登録時の特徴点の特徴ベクトルとに基づいてマハラノビス距離を計算するマハラノビス距離計算装置と、
前記マハラノビス距離が最小の特徴ベクトルを選択してランドマークの検知結果として出力するランドマーク検知結果生成装置と、
前記走行装置の出力に基づき、前記ロボットの移動量と正規分布に従って分布する測定の誤差に基づいて前記ロボットの現在位置の候補を求める現在位置候補生成装置と、
前記ロボットの現在位置の候補について、前記記憶装置に登録されているランドマークの位置との整合性を評価して評価結果を出力する整合性評価装置と、
前記ロボット位置の候補の座標値の重み付け平均を、前記評価結果に応じた重み付け平均を計算することで求めて前記ロボットの推定位置を得る重み付き平均計算装置を備えた、ロボット。 An autonomous traveling robot that detects landmarks,
A camera,
A storage device;
A traveling device;
A feature vector generation device for generating a feature vector of a landmark feature point based on a captured image output by the camera;
A Mahalanobis distance calculation device for calculating a Mahalanobis distance based on the feature vector and the feature vector of the feature point at the time of landmark registration registered in the storage device;
A landmark detection result generating device for selecting the feature vector having the smallest Mahalanobis distance and outputting it as a landmark detection result;
-Out based on the output of the traveling device, the current position candidate generating apparatus for determining the candidate of the current position of the robot based on the error of measurement distributed in accordance with the movement amount and the normal distribution of the robot,
Consistency evaluation device that evaluates the consistency with the position of the landmark registered in the storage device and outputs an evaluation result for the current position candidate of the robot;
A robot comprising a weighted average calculation device that obtains an estimated position of the robot by calculating a weighted average of coordinate values of the robot position candidates by calculating a weighted average corresponding to the evaluation result.
前記特徴ベクトルの各成分と前記ロボットの予測位置の座標値を組み合わせたベクトルを作成する特徴ベクトル及びロボット座標組み合わせ装置を更に備え、
前記マハラノビス距離計算装置は、前記組み合わせのベクトルと前記記憶装置に登録されているランドマーク登録時の特徴ベクトルの各成分と前記ロボットの位置の座標値を組み合わせたベクトルとに基づいてマハラノビス距離を計算する、請求項1記載のロボット。 A predicted position generation device for obtaining a predicted position of the current robot from a past position of the robot and a movement amount of the robot;
Further comprising a feature vector and robot coordinate combination device for creating a vector combining each component of the feature vector and the coordinate value of the predicted position of the robot;
The Mahalanobis distance calculation device calculates the Mahalanobis distance based on the vector of the combination, each vector of the feature vector registered in the storage device at the time of landmark registration, and a vector obtained by combining the coordinate values of the position of the robot. The robot according to claim 1.
前記整合性評価装置は、現在のロボットの位置で前記距離センサにより測定されたランドマークの座標値及び前記ロボットの現在位置の候補を基準として、前記記憶装置に登録されているランドマークの位置との整合性を評価して評価結果を出力する、請求項1乃至3のいずれか1項記載のロボット。 A distance sensor;
The consistency evaluation device uses the landmark coordinate value measured by the distance sensor at the current robot position and the current position candidate of the robot as a reference, and the landmark position registered in the storage device. The robot according to claim 1, wherein the consistency is evaluated and an evaluation result is output.
前記ロボットのカメラが出力する撮像画像に基づいてランドマークの特徴点の特徴ベクトルを生成する手順と、
前記特徴ベクトルと前記ロボットの記憶装置に登録されているランドマーク登録時の特徴点の特徴ベクトルとに基づいてマハラノビス距離を計算する手順と、
前記マハラノビス距離が最小の特徴ベクトルを選択してランドマークの検知結果として出力する手順と、
前記ロボットの走行装置の出力に基づき、前記ロボットの移動量と正規分布に従って分布する測定の誤差に基づいて前記ロボットの現在位置の候補を求める手順と、
前記ロボットの現在位置の候補について、前記記憶装置に登録されているランドマークの位置との整合性を評価して評価結果を出力する手順と、
前記ロボット位置の候補の座標値の重み付け平均を、前記評価結果に応じた重み付け平均を計算することで求めて前記ロボットの推定位置を得る手順
を前記コンピュータに実行させる、プログラム。 To the computer, a program that Ru to detect the landmark from the autonomous robot,
Generating a feature vector of landmark feature points based on a captured image output by the camera of the robot;
Calculating Mahalanobis distance based on the feature vector and the feature vector of the feature point at the time of landmark registration registered in the storage device of the robot;
A procedure for selecting the feature vector having the smallest Mahalanobis distance and outputting it as a landmark detection result;
A step of determining a candidate of the current position of the robot the-out based on the output of the traveling device of the robot, based on the error of measurement distributed in accordance with the movement amount and the normal distribution of the robot,
For the current position candidate of the robot, a procedure for evaluating the consistency with the position of the landmark registered in the storage device and outputting an evaluation result;
A program for causing the computer to execute a procedure for obtaining a weighted average of coordinate values of the robot position candidate by calculating a weighted average corresponding to the evaluation result to obtain an estimated position of the robot.
前記ロボット内でカメラが出力する撮像画像に基づいて特徴ベクトル生成装置によりランドマークの特徴点の特徴ベクトルを生成する工程と、
前記ロボット内で、マハラノビス距離計算装置により前記特徴ベクトルと記憶装置に登録されているランドマーク登録時の特徴点の特徴ベクトルとに基づいてマハラノビス距離を計算する工程と、
前記ロボット内で、前記マハラノビス距離が最小の特徴ベクトルをランドマーク検知結果生成装置により選択してランドマークの検知結果として出力する工程と、
前記ロボット内で、走行装置の出力に基づき、現在位置候補生成装置により前記ロボットの移動量と正規分布に従って分布する測定の誤差に基づいて前記ロボットの現在位置の候補を求める工程と、
前記ロボット内で、前記ロボットの現在位置の候補について、前記記憶装置に登録されているランドマークの位置との整合性を整合性評価装置により評価して評価結果を出力する工程と、
前記ロボット内で、重み付き平均計算装置により前記ロボット位置の候補の座標値の重み付け平均を、前記評価結果に応じた重み付け平均を計算することで求めて前記ロボットの推定位置を得る工程を含む、ランドマーク検知方法。 A landmark detection method for detecting a landmark from an autonomous traveling robot,
Generating a feature vector of a landmark feature point by a feature vector generation device based on a captured image output by a camera in the robot;
In the robot, a Mahalanobis distance is calculated based on the feature vector registered in the storage device by the Mahalanobis distance calculation device based on the feature vector at the time of landmark registration;
In the robot, a feature vector having the smallest Mahalanobis distance is selected by a landmark detection result generation device and is output as a landmark detection result;
Within the robot,-out based on the output of the drive apparatus, a step of determining a candidate of the current position of the robot based on the error of measurement distributed in accordance with the movement amount and the normal distribution of the robot by the current position candidate generating unit,
In the robot, for the candidate of the current position of the robot, a process of evaluating the consistency with the position of the landmark registered in the storage device and outputting an evaluation result;
In the robot, a weighted average of coordinate values of the robot position candidates is obtained by calculating a weighted average according to the evaluation result by a weighted average calculation device, and the estimated position of the robot is obtained. Landmark detection method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010136213A JP5614118B2 (en) | 2010-06-15 | 2010-06-15 | Landmark detection method, robot and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010136213A JP5614118B2 (en) | 2010-06-15 | 2010-06-15 | Landmark detection method, robot and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012003401A JP2012003401A (en) | 2012-01-05 |
JP5614118B2 true JP5614118B2 (en) | 2014-10-29 |
Family
ID=45535329
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010136213A Expired - Fee Related JP5614118B2 (en) | 2010-06-15 | 2010-06-15 | Landmark detection method, robot and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5614118B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5862344B2 (en) * | 2012-02-10 | 2016-02-16 | 富士通株式会社 | Image processing apparatus, prior information update method, and program |
JP2014021624A (en) * | 2012-07-13 | 2014-02-03 | Sharp Corp | Autonomous traveling device and autonomous traveling system |
KR101383828B1 (en) | 2013-01-14 | 2014-04-21 | 충북대학교 산학협력단 | Apparatus and method for estimating location of mobile device using contour information of image |
CN109708643B (en) * | 2019-01-14 | 2020-07-07 | 北京理工大学 | Evaluation and selection method for asteroid surface optical navigation road sign |
CN110095123B (en) * | 2019-05-31 | 2020-07-07 | 北京理工大学 | Method for evaluating and optimizing observation information of road signs on surface of irregular small celestial body |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4042517B2 (en) * | 2002-10-09 | 2008-02-06 | 株式会社日立製作所 | Moving body and position detection device thereof |
US8121399B2 (en) * | 2005-12-16 | 2012-02-21 | Ihi Corporation | Self-position identifying method and device, and three-dimensional shape measuring method and device |
-
2010
- 2010-06-15 JP JP2010136213A patent/JP5614118B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2012003401A (en) | 2012-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112785702B (en) | SLAM method based on tight coupling of 2D laser radar and binocular camera | |
US8792726B2 (en) | Geometric feature extracting device, geometric feature extracting method, storage medium, three-dimensional measurement apparatus, and object recognition apparatus | |
US10636168B2 (en) | Image processing apparatus, method, and program | |
CN107533763B (en) | Image processing apparatus, image processing method, and program | |
KR101776622B1 (en) | Apparatus for recognizing location mobile robot using edge based refinement and method thereof | |
JP3735344B2 (en) | Calibration apparatus, calibration method, and calibration program | |
KR101776620B1 (en) | Apparatus for recognizing location mobile robot using search based correlative matching and method thereof | |
JP5181704B2 (en) | Data processing apparatus, posture estimation system, posture estimation method and program | |
KR100702663B1 (en) | Method for catadioptric vision based localization and mapping in a particle filter framework | |
US20110205338A1 (en) | Apparatus for estimating position of mobile robot and method thereof | |
JP6405778B2 (en) | Object tracking method and object tracking apparatus | |
JP2018522345A5 (en) | ||
JP2010033447A (en) | Image processor and image processing method | |
JP6782903B2 (en) | Self-motion estimation system, control method and program of self-motion estimation system | |
KR20150144727A (en) | Apparatus for recognizing location mobile robot using edge based refinement and method thereof | |
JP5614118B2 (en) | Landmark detection method, robot and program | |
Michot et al. | Bi-objective bundle adjustment with application to multi-sensor slam | |
WO2017051480A1 (en) | Image processing device and image processing method | |
JP6234349B2 (en) | Mobile object position estimation device, mobile object position estimation method, and mobile object position estimation program | |
CN108256563B (en) | Visual dictionary closed-loop detection method and device based on distance measurement | |
WO2008032375A1 (en) | Image correcting device and method, and computer program | |
JP6523196B2 (en) | Estimation apparatus, method and program | |
JP2018205950A (en) | Environment map generation apparatus for estimating self vehicle position, self vehicle position estimation device, environment map generation program for estimating self vehicle position, and self vehicle position estimation program | |
JP4935769B2 (en) | Plane region estimation apparatus and program | |
Li et al. | RD-VIO: Robust visual-inertial odometry for mobile augmented reality in dynamic environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130403 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140311 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140507 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140812 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140825 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5614118 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |