JP5614118B2 - Landmark detection method, robot and program - Google Patents

Landmark detection method, robot and program Download PDF

Info

Publication number
JP5614118B2
JP5614118B2 JP2010136213A JP2010136213A JP5614118B2 JP 5614118 B2 JP5614118 B2 JP 5614118B2 JP 2010136213 A JP2010136213 A JP 2010136213A JP 2010136213 A JP2010136213 A JP 2010136213A JP 5614118 B2 JP5614118 B2 JP 5614118B2
Authority
JP
Japan
Prior art keywords
robot
landmark
feature vector
vector
mahalanobis distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010136213A
Other languages
Japanese (ja)
Other versions
JP2012003401A (en
Inventor
章博 ▲今▼井
章博 ▲今▼井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010136213A priority Critical patent/JP5614118B2/en
Publication of JP2012003401A publication Critical patent/JP2012003401A/en
Application granted granted Critical
Publication of JP5614118B2 publication Critical patent/JP5614118B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Description

本発明は、ランドマーク検知方法、ランドマーク検知機能を有するロボット、及びコンピュータにランドマーク検知手順を実行させるプログラムに関する。本発明は、このようなプログラムを格納したコンピュータ読み取り可能な記憶媒体にも関する。   The present invention relates to a landmark detection method, a robot having a landmark detection function, and a program for causing a computer to execute a landmark detection procedure. The present invention also relates to a computer-readable storage medium storing such a program.

自律走行型ロボットには、ランドマークを用いるものがある。先ず、ロボットの位置が既知の状態で、ロボットの走行経路上で目印となる物をランドマークとして登録する。図1は、ロボットの位置に対して登録されるランドマークの一例を示す平面図である。図1及び後述する図2において、太い平行な縦線はロボットが移動可能な経路を示し、ロボットの位置は○印で示し、ランドマークの位置は×印で示す。図1の例では、ロボットの位置p1に対して登録されるランドマークmkのxy座標が(xl1,yl1)であり、ロボットの位置p2に対して登録されるランドマークmkのxy座標が(xl2,yl2)である。 Some autonomously traveling robots use landmarks. First, in the state where the position of the robot is known, an object to be a mark on the traveling route of the robot is registered as a landmark. FIG. 1 is a plan view showing an example of landmarks registered with respect to the position of the robot. In FIG. 1 and FIG. 2 described later, thick parallel vertical lines indicate paths through which the robot can move, the position of the robot is indicated by a circle, and the position of the landmark is indicated by an x mark. In the example of FIG. 1, the xy coordinates of the landmark mk 1 registered with respect to the robot position p 1 are (x 11 , y 11 ), and the xy of the landmark mk 2 registered with respect to the robot position p 2 . coordinate is the (x l2, yl2).

ランドマークの登録時には、ロボットに搭載された距離センサでランドマークmk,mkの位置を計測する。具体的には、既知であるロボットの位置のxy座標に、距離センサで計測したロボットから見た各ランドマークmk,mkの相対座標を加えることにより、各ランドマークmk,mkの座標を求める。又、ロボットに搭載されたカメラで各位置p1,p2から対応するランドマークmk,mkを撮像して、ランドマークmk,mkの撮像画像の特徴を表す特徴ベクトルを求める。ランドマークmk,mkとしては、例えば扉の角等の撮像画像中で特徴的な点、即ち、特徴点を用いる。特徴点の抽出方法自体は周知であり、各種抽出方法が提案されている。このようにして求めたランドマークmk,mkの位置(xy座標)と特徴ベクトルを登録しておき、ロボットが自律走行するランドマークの検知時に現在のロボットの位置(即ち、ロボットの現在位置)を計算するのに用いる。 When the landmark is registered, the positions of the landmarks mk 1 and mk 2 are measured by a distance sensor mounted on the robot. Specifically, by adding the relative coordinates of the landmarks mk 1 and mk 2 viewed from the robot measured by the distance sensor to the xy coordinates of the known robot position, each of the landmarks mk 1 and mk 2 Find the coordinates. Also, landmarks mk 1, mk 2 corresponding the respective positions p1, p2 a camera mounted on the robot by imaging, obtains a feature vector representing a feature of the landmark mk 1, mk 2 of the captured image. As the landmarks mk 1 and mk 2 , for example, characteristic points in the captured image such as door corners, that is, characteristic points are used. The feature point extraction method itself is well known, and various extraction methods have been proposed. The positions (xy coordinates) and feature vectors of the landmarks mk 1 and mk 2 obtained in this way are registered, and the current robot position (that is, the current position of the robot) when the landmark where the robot autonomously travels is detected. ) Is used to calculate.

ロボットが自律走行するランドマークの検知時には、登録されているランドマークmk,mkの特徴ベクトルを用いて、ロボットの走行時にカメラで撮像された撮像画像の中からランドマークmk,mkを検知する。図2は、撮像画像の中からランドマークmkが検知された場合を示す図である。ロボットから検知したランドマークmkまでの距離を距離センサで求めて、ロボットの現在位置p1’から検知したランドマークmkまでの相対位置を求め、この相対位置と登録されているランドマークmkの位置(xy座標)からロボットの現在位置を計算することができる。図2では、ロボットの現在位置p1’のxy座標(x,r)は未知であり、ロボットから検知したランドマークmkまでの相対位置が(x’l1,y’l1)であるものとする。厳密には等式は成立しないが、誤差が無視できるものであるとすると、ロボットの現在位置p1’のxy座標(x,y)は、(x,y)=(x,r)+(xl1,yl1)から計算することができる。 At the time of detecting the landmark where the robot autonomously travels, the landmark mk 1 , mk 2 is picked up from the captured images captured by the camera when the robot travels using the feature vectors of the registered landmarks mk 1 , mk 2. Is detected. FIG. 2 is a diagram illustrating a case where the landmark mk 1 is detected from the captured image. The distance from the robot to the detected landmark mk 1 is obtained by a distance sensor, the relative position from the current position p1 ′ of the robot to the detected landmark mk 1 is obtained, and this relative position and the registered landmark mk 1 The current position of the robot can be calculated from the position (xy coordinates). In FIG. 2, the xy coordinates (x r , r y ) of the current position p1 ′ of the robot are unknown, and the relative position to the landmark mk 1 detected from the robot is (x ′ l1 , y ′ l1 ). And Strictly speaking, the equation does not hold, but if the error is negligible, the xy coordinates (x 1 , y 1 ) of the current position p1 ′ of the robot are (x 1 , y 1 ) = (x r , r y ) + (x 11 , y 11 ).

従来のランドマーク検知方法では、ランドマークを登録した時のロボットの位置と、ロボットの走行時にランドマークを検知をする際のロボットの現在位置とが近い場合は、ランドマークの検知が成功し易い。しかし、ランドマークを登録した時のロボットの位置と、ロボットの走行時にランドマークを検知をする際のロボットの現在位置とが大きく離れている場合には、ランドマークの登録時とランドマークの検知時とで撮像画像の視点がずれており撮像画像が大きく変化する。このため、撮像画像の大きな変化に伴い特徴ベクトルも大きく変化してしまい、ロボットの走行時にランドマークを検知できない場合が生じる。そこで、例えばランドマーク登録時にはロボットの多くの位置での特徴ベクトルを登録して、ランドマークの検知時にはそれら全ての特徴ベクトルを用いてマッチングすることが考えられるものの、計算量が非常に多くなり、ロボットに搭載される計算機の性能を考慮すると現実的ではない。又、特徴ベクトルの平均を求めてそれをマッチングに用いることも考えられるが、単純な統計量を用いて計算量を減らしたのではランドマークの誤検知を生じる可能性があり、ランドマークの検知精度を向上させることは期待できない。   In the conventional landmark detection method, if the position of the robot when the landmark is registered is close to the current position of the robot when the landmark is detected when the robot is running, the landmark detection is likely to succeed. . However, if the position of the robot when the landmark is registered and the current position of the robot when detecting the landmark when the robot is traveling are far apart, the landmark detection and landmark detection The viewpoint of the captured image is shifted from time to time, and the captured image changes greatly. For this reason, the feature vector also changes greatly with a large change in the captured image, and the landmark may not be detected when the robot travels. Therefore, for example, when registering landmarks, it is possible to register feature vectors at many positions of the robot, and when detecting landmarks, it is possible to match using all of the feature vectors, but the amount of calculation becomes very large, Considering the performance of the computer installed in the robot, it is not realistic. It is also possible to find the average of feature vectors and use it for matching. However, if the amount of calculation is reduced using simple statistics, there is a possibility of erroneous detection of landmarks. It cannot be expected to improve accuracy.

特開2006−172016号公報JP 2006-172016 A 特開2008−102856号公報JP 2008-102856 A

従来のランドマーク検知方法では、ランドマークの誤検知を生じることがあるため、ランドマークの検知精度を向上させることは難しいという問題があった。   In the conventional landmark detection method, there is a problem in that it is difficult to improve the detection accuracy of the landmark because erroneous detection of the landmark may occur.

そこで、本発明は、ランドマークの検知精度を向上可能なランドマーク検知方法、ロボット及びプログラムを提供することを目的とする。   Therefore, an object of the present invention is to provide a landmark detection method, a robot, and a program that can improve the detection accuracy of landmarks.

本発明の一観点によれば、自律走行型ロボットからランドマークを検知するランドマーク検知方法であって、前記ロボット内でカメラが出力する撮像画像に基づいて特徴ベクトル生成装置によりランドマークの特徴点の特徴ベクトルを生成する工程と、前記ロボット内で、マハラノビス距離計算装置により前記特徴ベクトルと記憶装置に登録されているランドマーク登録時の特徴点の特徴ベクトルとに基づいてマハラノビス距離を計算する工程と、前記ロボット内で、前記マハラノビス距離が最小の特徴ベクトルをランドマーク検知結果生成装置により選択してランドマークの検知結果として出力する工程と、前記ロボット内で、走行装置の出力に基づき、現在位置候補生成装置により前記ロボットの移動量と正規分布に従って分布する測定の誤差に基づいて前記ロボットの現在位置の候補を求める工程と、前記ロボット内で、前記ロボットの現在位置の候補について、前記記憶装置に登録されているランドマークの位置との整合性を整合性評価装置により評価して評価結果を出力する工程と、前記ロボット内で、重み付き平均計算装置により前記ロボット位置の候補の座標値の重み付け平均を、前記評価結果に応じた重み付け平均を計算することで求めて前記ロボットの推定位置を得る工程を含むランドマーク検知方法が提供される。 According to one aspect of the present invention, there is provided a landmark detection method for detecting a landmark from an autonomously traveling robot, wherein a feature vector generating device uses a landmark vector to generate a landmark feature point based on a captured image output by a camera within the robot. And a step of calculating a Mahalanobis distance in the robot based on the feature vector and the feature vector of the feature point at the time of landmark registration registered in the storage device by the Mahalanobis distance calculation device. When, in the robot, and outputting a detection result of the landmark the Mahalanobis distance is selected by the minimum of the feature vector landmark detection result generating device, within the robot,-out based on the output of the drive device , measurements distributed according to the movement amount and the normal distribution of the robot by the current position candidate generation unit A step of determining a candidate of the current position of the robot based on the error, in the robot, the candidate of the current position of the robot, consistency evaluate the consistency with the position of the landmark which is registered in the storage device A step of evaluating by the apparatus and outputting an evaluation result; and within the robot, calculating a weighted average of coordinate values of the robot position candidates by a weighted average calculating apparatus, and calculating a weighted average corresponding to the evaluation result landmark detection method comprising the step of obtaining an estimated position of said robot is provided asking.

本発明の一観点によれば、ランドマークを検知する自律走行型ロボットであって、カメラと、記憶装置と、走行装置と、前記カメラが出力する撮像画像に基づいてランドマークの特徴点の特徴ベクトルを生成する特徴ベクトル生成装置と、前記特徴ベクトルと前記記憶装置に登録されているランドマーク登録時の特徴点の特徴ベクトルとに基づいてマハラノビス距離を計算するマハラノビス距離計算装置と、前記マハラノビス距離が最小の特徴ベクトルを選択してランドマークの検知結果として出力するランドマーク検知結果生成装置と、前記走行装置の出力に基づき、前記ロボットの移動量と正規分布に従って分布する測定の誤差に基づいて前記ロボットの現在位置の候補を求める現在位置候補生成装置と、前記ロボットの現在位置の候補について、前記記憶装置に登録されているランドマークの位置との整合性を評価して評価結果を出力する整合性評価装置と、前記ロボット位置の候補の座標値の重み付け平均を、前記評価結果に応じた重み付け平均を計算することで求めて前記ロボットの推定位置を得る重み付き平均計算装置を備えたロボットが提供される。 According to an aspect of the present invention, there is provided an autonomous traveling robot that detects a landmark, the feature of a landmark feature point based on a camera, a storage device, a traveling device, and a captured image output by the camera. A feature vector generating device for generating a vector; a Mahalanobis distance calculating device for calculating a Mahalanobis distance based on the feature vector and a feature vector of a feature point registered in the storage device; and the Mahalanobis distance a landmark detection result generating unit for outputting a detection result of the landmarks but by selecting the minimum of the feature vector,-out based on the output of the traveling device, the error of measurement distributed in accordance with the movement amount and the normal distribution of the robot A current position candidate generating device for obtaining a current position candidate of the robot based on the current position candidate of the robot; For it, the integrity evaluation device for outputting an evaluation result by evaluating the consistency of the position of the landmark which is registered in the storage device, a weighted average of the coordinate values of the candidate of the robot position, the evaluation result There is provided a robot provided with a weighted average calculating device that obtains an estimated position of the robot by calculating a corresponding weighted average .

本発明の一観点によれば、コンピュータに、自律走行型ロボットからランドマークを検知さるプログラムであって、前記ロボットのカメラが出力する撮像画像に基づいてランドマークの特徴点の特徴ベクトルを生成する手順と、前記特徴ベクトルと前記ロボットの記憶装置に登録されているランドマーク登録時の特徴点の特徴ベクトルとに基づいてマハラノビス距離を計算する手順と、前記マハラノビス距離が最小の特徴ベクトルを選択してランドマークの検知結果として出力する手順と、前記ロボットの走行装置の出力に基づき、前記ロボットの移動量と正規分布に従って分布する測定の誤差に基づいて前記ロボットの現在位置の候補を求める手順と、前記ロボットの現在位置の候補について、前記記憶装置に登録されているランドマークの位置との整合性を評価して評価結果を出力する手順と、前記ロボット位置の候補の座標値の重み付け平均を、前記評価結果に応じた重み付け平均を計算することで求めて前記ロボットの推定位置を得る手順を前記コンピュータに実行させるプログラムが提供される。 According to one aspect of the present invention, the computer, a program which Ru is detected landmark from autonomous robots, the feature vector of the feature point of the landmark based on the captured image by the camera of the robot output A step of generating, a step of calculating a Mahalanobis distance based on the feature vector and a feature vector of a feature point at the time of landmark registration registered in the storage device of the robot, and a feature vector having the smallest Mahalanobis distance. a step of outputting a detection result of the landmark selected, the-out based on the output of the traveling device of the robot, the current position of the robot based on the error of measurement distributed in accordance with the movement amount and the normal distribution of the robot candidate And a landmarker registered in the storage device for the current position candidate of the robot. A step of outputting to the evaluation result evaluated consistent with the position of the weighted average of the coordinate values of the candidate robot position, estimation of the robot determined by calculating the weighted average in accordance with the evaluation result A program for causing the computer to execute a procedure for obtaining a position is provided.

開示のランドマーク検知方法、ロボット及びプログラムによれば、ランドマークの検知精度を向上させることができる。   According to the disclosed landmark detection method, robot, and program, landmark detection accuracy can be improved.

ロボットの位置に対して登録されるランドマークの一例を示す平面図である。It is a top view which shows an example of the landmark registered with respect to the position of a robot. 撮像画像の中からランドマークが検知された場合を示す図である。It is a figure which shows the case where the landmark is detected from the captured image. ランドマークの登録時の特徴点の抽出方法の一例を説明する図である。It is a figure explaining an example of the extraction method of the feature point at the time of landmark registration. ランドマークの検知時の特徴点の抽出方法の一例を説明する図である。It is a figure explaining an example of the extraction method of the feature point at the time of the detection of a landmark. ロボットの位置からランドマークまでの距離を測定してランドマークを撮像する様子を説明する図である。It is a figure explaining a mode that the distance from the position of a robot to a landmark is measured, and a landmark is imaged. 撮像画像が大きく変化する場合に第1の比較例で求められる特徴ベクトルをグラフ上で表す図である。It is a figure which represents on the graph the feature vector calculated | required by the 1st comparative example when a captured image changes a lot. 第2の比較例で求められる特徴ベクトルをグラフ上で表す図である。It is a figure showing the feature vector calculated | required by the 2nd comparative example on a graph. 特徴ベクトルのマハラノビス距離に基づいた評価を説明する図である。It is a figure explaining evaluation based on Mahalanobis distance of a feature vector. ロボットの位置からランドマークまでの距離を測定してランドマークを撮像する様子を説明する図である。It is a figure explaining a mode that the distance from the position of a robot to a landmark is measured, and a landmark is imaged. 特徴ベクトルの近似を説明する図である。It is a figure explaining the approximation of a feature vector. 特徴ベクトルのj番目の成分を説明する図である。It is a figure explaining the jth component of a feature vector. 三次元座標を説明する図である。It is a figure explaining a three-dimensional coordinate. 異なるランドマークに対して作成した特徴ベクトルの中に類似したものが含まれている場合を説明する図である。It is a figure explaining the case where the similar thing is contained in the feature vector produced with respect to a different landmark. 特徴ベクトルの各成分と位置の座標値を組み合わせたベクトルの作成を説明する図である。It is a figure explaining creation of a vector which combined each component of a feature vector, and a coordinate value of a position. 特徴ベクトルの各成分と位置の座標値を組み合わせたベクトルの平均ベクトルと共分散行列を求めるランドマークの登録を説明する図である。It is a figure explaining the registration of the landmark which calculates | requires the average vector and covariance matrix of the vector which combined each component of the feature vector, and the coordinate value of a position. 現在のロボットの予測位置の生成を説明する図である。It is a figure explaining the production | generation of the predicted position of the present robot. パーティクルフィルタを用いた現在のロボットの位置の候補の作成を説明する図である。It is a figure explaining creation of the candidate of the position of the present robot using a particle filter. ロボットの構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of a robot. ベクトル間距離計算装置を説明するブロック図である。It is a block diagram explaining the distance calculation apparatus between vectors. ロボットのランドマーク登録時の動作を説明するフローチャートである。It is a flowchart explaining the operation | movement at the time of landmark registration of a robot. ロボットが走行するランドマーク検知時の動作を説明するフローチャートである。It is a flowchart explaining the operation | movement at the time of the landmark detection which a robot drive | works. 特徴ベクトル近似装置の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the feature vector approximation apparatus. 特徴ベクトル及びロボット座標値組み合わせ装置の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the feature vector and robot coordinate value combination apparatus. 平均及び共分散行列計算装置の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of an average and a covariance matrix calculation apparatus.

開示のランドマーク検知方法、ロボット及びプログラムでは、予めランドマークの特徴ベクトルを学習して作成した識別器を用いてランドマークを検知する。   In the disclosed landmark detection method, robot, and program, a landmark is detected using a discriminator created by learning a landmark feature vector in advance.

識別器を拡張して、特徴ベクトルとロボットの座標値を組み合わせたベクトルを用いてランドマークを検知するようにしても良い。   The classifier may be extended so that the landmark is detected using a vector that combines the feature vector and the coordinate value of the robot.

以下に、開示のランドマーク検知方法、ロボット及びプログラムの各実施例を図面と共に説明する。   Hereinafter, embodiments of the disclosed landmark detection method, robot, and program will be described with reference to the drawings.

本発明の一実施例では、ランドマーク検知方法が自律走行型ロボット(図示せず)に適用されている。   In one embodiment of the present invention, the landmark detection method is applied to an autonomous traveling robot (not shown).

ランドマークの登録時には、ロボットに搭載されたカメラによりランドマークをロボットの複数の位置で撮像し、各位置で求められたランドマークの撮像画像から特徴ベクトルを学習して識別器、即ち、マハラノビス距離(Mahalanobis Distance)を作成する。一方、ロボットが自律走行するランドマークの検知時には、識別器を用いてランドマークを検知する。   At the time of registration of landmarks, the landmarks are imaged at a plurality of positions of the robot by a camera mounted on the robot, and feature vectors are learned from the captured images of the landmarks obtained at the respective positions to identify the classifier, that is, the Mahalanobis distance. Create (Mahalanobis Distance). On the other hand, when a landmark where the robot autonomously travels is detected, the landmark is detected using an identifier.

識別器を拡張して、各位置でのランドマークの撮像画像に対してランドマークの画像特徴ベクトルと座標値を成分とする組み合わせのベクトルを作成して、この組み合わせのベクトルから識別器を作成してランドマークの検知に用いても良い。   The classifier is expanded to create a vector of combinations of the landmark image feature vector and coordinate values as components for the captured image of the landmark at each position, and a classifier is created from this combination vector. It may be used for landmark detection.

ランドマークとしては、例えば扉の角等のカメラの撮像画像中で特徴的な点、即ち、特徴点を用いる。特徴点の抽出方法自体は周知であり、ハリスオペレータ(Harris Operator)やSIFT(Scale Invariant Feature Transform)等を用いる各種抽出方法が提案されている。図3は、ランドマークの登録時の特徴点の抽出方法の一例を説明する図である。図3に示すように、撮像画像101中の特徴点(即ち、ランドマーク)102の周辺の例えば20画素×20画素のサイズの例えば16(=4×4)個の領域を切り出して、切り出した各領域の画素の濃淡値νi,Mを並べたベクトルを作成してM次元の特徴ベクトルを求める。次式は、この例で求められるi番目のランドマークの特徴ベクトルνを表し、上付きの添え字tは転置(Transpose)を表す。 As the landmark, for example, a characteristic point in the captured image of the camera such as a corner of the door, that is, a characteristic point is used. The feature point extraction method itself is well known, and various extraction methods using a Harris Operator, SIFT (Scale Invariant Feature Transform), or the like have been proposed. FIG. 3 is a diagram for explaining an example of a feature point extraction method at the time of landmark registration. As shown in FIG. 3, for example, 16 (= 4 × 4) areas having a size of, for example, 20 pixels × 20 pixels around the feature point (ie, landmark) 102 in the captured image 101 are cut out and cut out. A vector in which the gray values ν i, M of the pixels in each region are arranged is created to obtain an M-dimensional feature vector. The following equation represents the feature vector ν i of the i-th landmark obtained in this example, and the superscript t represents transpose.

Figure 0005614118
Figure 0005614118

ランドマークの検知時には、カメラの撮像画像から特徴点を抽出する。図4は、ランドマークの検知時の特徴点の抽出方法の一例を説明する図である。図4(a)に示すように、撮像画像101Aの1つの特徴点102−1Aを選択し、その特徴点102−1Aの特徴ベクトルと登録されている各ランドマーク102−1〜102−iの特徴ベクトルとの間のユークリッド距離(Euclidean Metric)、即ち、特徴ベクトルの各成分の差の二乗和を求める。ユークリッド距離が最も小さくなった特徴ベクトルを有するランドマーク102−1を特徴点102−1Aに対応するランドマークとして選択する。この場合、特徴点102−1Aの検知結果は、ランドマーク102−1であることを示す。同様にして、図4(b)のように、撮像画像101Aの他の1つの特徴点102−2Aを選択し、その特徴点102−2Aの特徴ベクトルと登録されている各ランドマーク102−1〜102−iの特徴ベクトルとの間のユークリッド距離を求める。ユークリッド距離が最も小さくなった特徴ベクトルを有するランドマーク102−2を特徴点102−2Aに対応するランドマークとして選択する。この場合、特徴点102−2Aの検知結果は、ランドマーク102−2であることを示す。   When a landmark is detected, feature points are extracted from the captured image of the camera. FIG. 4 is a diagram for explaining an example of a feature point extraction method when a landmark is detected. As shown in FIG. 4A, one feature point 102-1A of the captured image 101A is selected, and the feature vector of the feature point 102-1A and each of the registered landmarks 102-1 to 102-i are selected. The Euclidean Metric with the feature vector, that is, the sum of squares of the difference of each component of the feature vector is obtained. The landmark 102-1 having the feature vector having the smallest Euclidean distance is selected as the landmark corresponding to the feature point 102-1A. In this case, the detection result of the feature point 102-1A indicates that it is the landmark 102-1. Similarly, as shown in FIG. 4B, another feature point 102-2A of the captured image 101A is selected, and each landmark 102-1 registered with the feature vector of the feature point 102-2A is selected. The Euclidean distance between the feature vectors of ˜102 and i is calculated. The landmark 102-2 having the feature vector having the smallest Euclidean distance is selected as the landmark corresponding to the feature point 102-2A. In this case, the detection result of the feature point 102-2A indicates that it is the landmark 102-2.

Figure 0005614118
Figure 0005614118

Figure 0005614118
Figure 0005614118

Figure 0005614118
Figure 0005614118

次に、マハラノビス距離を用いたことによる効果を以下に説明する。平均ベクトルを詳しく記述すると、次式のようになる。   Next, the effects of using the Mahalanobis distance will be described below. When the average vector is described in detail, the following equation is obtained.

Figure 0005614118
Figure 0005614118

又、共分散行列は、次式のようになる。   The covariance matrix is as follows.

Figure 0005614118
Figure 0005614118

更に、マハラノビス距離は、次式のようになる。   Further, the Mahalanobis distance is as follows.

Figure 0005614118
Figure 0005614118

特徴ベクトルはM次元ベクトル(即ち、ベクトルが持っている値の数がM)であり、上記の図3の場合は説明の便宜上M=16であが、ランドマークを検知する場合は一般的にMの値は数十から数百である。このように特徴ベクトルの次元が大きいと、特徴ベクトルを図示するのが困難であるため、この例では便宜上、特徴ベクトルが1次元(M=1)であるものと仮定して説明する。特徴ベクトルの次元が大きくても、基本的な概念は以下に説明する1次元の場合と同様である。   The feature vector is an M-dimensional vector (that is, the number of values held by the vector is M). In the case of FIG. 3 described above, M = 16 for convenience of explanation. The value of M is several tens to several hundreds. If the dimension of the feature vector is large, it is difficult to illustrate the feature vector. In this example, for the sake of convenience, description will be made assuming that the feature vector is one-dimensional (M = 1). Even if the dimension of the feature vector is large, the basic concept is the same as the one-dimensional case described below.

特徴ベクトルが1次元の場合、マハラノビス距離は次式のようになる。   When the feature vector is one-dimensional, the Mahalanobis distance is as follows:

Figure 0005614118
Figure 0005614118

Figure 0005614118
Figure 0005614118

Figure 0005614118
Figure 0005614118

Figure 0005614118
Figure 0005614118

Figure 0005614118
Figure 0005614118

このように、第1の比較例ではランドマークの誤検知を生じることがあるため、ランドマークの検知精度を向上させることは難しい。一方、第2の比較例では、ランドマークの誤検知を防止するには計算量が非常に多くなり、ロボットに搭載される計算機の性能を考慮するとランドマークの検知精度を向上させることは難しい。つまり、特徴ベクトルをユークリッド距離に基づいて評価する第1及び第2の比較例では、ランドマークの検知精度を向上させることは難しい。   As described above, in the first comparative example, since erroneous detection of the landmark may occur, it is difficult to improve the detection accuracy of the landmark. On the other hand, in the second comparative example, the amount of calculation is very large in order to prevent erroneous detection of the landmark, and it is difficult to improve the detection accuracy of the landmark in consideration of the performance of the computer mounted on the robot. That is, in the first and second comparative examples in which the feature vector is evaluated based on the Euclidean distance, it is difficult to improve the landmark detection accuracy.

Figure 0005614118
Figure 0005614118

Figure 0005614118
Figure 0005614118

Figure 0005614118
Figure 0005614118

Figure 0005614118
Figure 0005614118

Figure 0005614118
Figure 0005614118

Figure 0005614118
Figure 0005614118

学習のためには多数の特徴ベクトルを求める必要があるが、ロボットをランドマーク撮像位置まで移動させた上で画像を撮像させて特徴ベクトルを求めるのでは作業量が大きい。そこで、上記の手順で、ある位置における特徴ベクトルの成分をその付近の位置における特徴ベクトルの成分を用いて近似して補間することにより、ロボットを各ランドマーク撮像位置まで移動させた上で画像を撮像させて特徴を求める場合と比較すると、作業量が大幅に軽減される。   For learning, it is necessary to obtain a large number of feature vectors. However, if the robot is moved to the landmark imaging position and an image is taken to obtain a feature vector, the amount of work is large. Therefore, by moving the robot to each landmark imaging position by approximating and interpolating the feature vector component at a certain position using the feature vector component at the nearby position in the above procedure, the image is obtained. The amount of work is greatly reduced as compared with the case of obtaining a feature by imaging.

尚、本変形例における特徴ベクトルの成分の近似及び補間は、省略しても良いことは言うまでもない。   Needless to say, the approximation and interpolation of the feature vector components in this modification may be omitted.

ところで、異なるランドマークに対して作成した特徴ベクトルの中に類似したものが含まれていると、検知性能が低下する可能性がある。図13は、異なるランドマークk',k'"に対して作成した特徴ベクトルの中に類似したものが含まれている場合を説明する図である。図13(a)はランドマーク撮像位置とランドマークの関係を示し、図13(b)は特徴ベクトルの評価を説明するためにランドマークの共分散行列を示す。図10(b)に示すように、2つのランドマークの分布は類似する特徴ベクトルについて破線で囲んで示すように重なる。異なるランドマークk',k'"に対して作成した特徴ベクトルの中に類似した特徴ベクトルが含まれる理由としては、作成した特徴ベクトルはデータ量が多い分異なるランドマークk',k'"に対して作成した特徴ベクトルの中に類似したものが含まれている可能性があることが挙げられる。   By the way, if similar features are included in feature vectors created for different landmarks, the detection performance may be degraded. FIG. 13 is a diagram for explaining a case in which similar features are included in feature vectors created for different landmarks k ′ and k ′ ″. FIG. 13 (b) shows a landmark covariance matrix to explain the evaluation of the feature vector, and the distribution of the two landmarks is similar as shown in FIG. The feature vectors overlap as shown by being surrounded by a broken line. The reason why similar feature vectors are included in the feature vectors created for different landmarks k ', k' " It is possible that similar features may be included in the feature vectors created for the different landmarks k ′ and k ′ ″.

そこで、本実施例の第2の変形例では、異なるランドマークk',k'"に対して作成した特徴ベクトルの中から類似した特徴ベクトルを区別するために、ランドマークk',k'"の登録時のロボットの位置を用いる。ランドマーク撮像位置と、特徴ベクトルを近似した位置の夫々において、図14に示すように、特徴ベクトルνiの各成分νi,1,...,νi,Mと位置の座標値xri,yriを組み合わせたベクトルVi= (νi,1,...,νi,M,xri,yri)を作成する。図14は、特徴ベクトルの各成分と位置の座標値を組み合わせたベクトルの作成を説明する図である。 Therefore, in the second modification of the present embodiment, in order to distinguish similar feature vectors from feature vectors created for different landmarks k ′, k ′ ″, landmarks k ′, k ′ ″ are used. The robot position at the time of registration is used. At each of the landmark imaging position and the position approximating the feature vector, as shown in FIG. 14, each component ν i, 1 , ..., ν i, M of the feature vector ν i and the position coordinate value x ri , y ri is combined to create a vector V i = (ν i, 1 , ..., ν i, M , x ri , y ri ). FIG. 14 is a diagram illustrating the creation of a vector that combines each component of the feature vector and the coordinate value of the position.

Figure 0005614118
Figure 0005614118

尚、本変形例における特徴ベクトル及びロボット位置の座標値を組み合わせたベクトルの生成は省略して、特徴ベクトルの平均ベクトルと共分散行列を計算しても良いことは言うまでもない。   Needless to say, the generation of the vector combining the feature vector and the coordinate value of the robot position in this modification may be omitted, and the average vector and covariance matrix of the feature vector may be calculated.

Figure 0005614118
Figure 0005614118

尚、本変形例における特徴ベクトル及びロボット予測位置の座標値を組み合わせたベクトルの生成は省略して、特徴ベクトルの平均ベクトルと共分散行列を計算しても良いことは言うまでもない。   Needless to say, the generation of a vector combining the feature vector and the coordinate value of the predicted robot position in this modification may be omitted, and the average vector of the feature vectors and the covariance matrix may be calculated.

Figure 0005614118
Figure 0005614118

次に、本実施例におけるロボットの構成の一例を、図18と共に説明する。図18は、ロボットの構成の一例を示すブロック図である。   Next, an example of the configuration of the robot in the present embodiment will be described with reference to FIG. FIG. 18 is a block diagram illustrating an example of the configuration of the robot.

図18に示すロボット20は、カメラ1、画像入力装置2、特徴点抽出装置3、特徴ベクトル生成装置4、特徴ベクトル近似装置5、特徴ベクトル及びロボット座標値組み合わせ装置6、平均共分散行列計算装置7、距離センサ8、ランドマーク記憶装置9、走行装置10、エンコーダ11、予測位置生成装置12、マハラノビス距離計算装置13、ランドマーク検知結果生成装置14、現在位置候補生成装置15、整合性評価装置16、及び重み付け平均計算装置17を有する。   18 includes a camera 1, an image input device 2, a feature point extraction device 3, a feature vector generation device 4, a feature vector approximation device 5, a feature vector and robot coordinate value combination device 6, and an average covariance matrix calculation device. 7, distance sensor 8, landmark storage device 9, traveling device 10, encoder 11, predicted position generation device 12, Mahalanobis distance calculation device 13, landmark detection result generation device 14, current position candidate generation device 15, consistency evaluation device 16 and a weighted average calculation device 17.

カメラ1は、ランドマークを含む画像を撮像し、撮像画像を表すビデオ信号を出力する。画像入力装置2は、カメラ1から出力されるビデオ信号を受け取り、各画素の濃淡値を示す画像データを特徴点抽出装置3に出力する。特徴点抽出装置3は、画像データに対して特徴点抽出処理を施し、特徴点データを特徴ベクトル生成装置4に出力する。特徴ベクトル生成装置4は、特徴点データに基づき、特徴点周辺の各画素の濃淡値から特徴ベクトルを生成して出力する。   The camera 1 captures an image including a landmark and outputs a video signal representing the captured image. The image input device 2 receives the video signal output from the camera 1, and outputs image data indicating the gray value of each pixel to the feature point extraction device 3. The feature point extraction device 3 performs feature point extraction processing on the image data and outputs the feature point data to the feature vector generation device 4. The feature vector generation device 4 generates and outputs a feature vector from the gray value of each pixel around the feature point based on the feature point data.

ランドマークの登録時には、特徴ベクトル生成装置4は特徴ベクトルを特徴ベクトル近似装置5及び特徴ベクトル及びロボット座標値組み合わせ装置6に出力する。特徴ベクトル近似装置5は、特徴ベクトルを、付近のランドマーク撮像位置の特徴ベクトルで近似し、近似を行った位置での特徴ベクトルを特徴ベクトル及びロボット座標組み合わせ装置6に出力する。特徴ベクトル及びロボット座標組み合わせ装置6は、特徴ベクトル生成装置4又は特徴ベクトル近似装置5からの特徴ベクトルの各成分とロボット20の位置の座標値を組み合わせたベクトルを作成して平均及び共分散行列計算装置7に出力する。ランドマーク登録時には、ロボット20は例えば人の手によりランドマークを撮像するべき位置まで移動されるので、ロボット20の位置の座標値は既知である。しかし、後述する走行装置10を用いてロボット20をランドマークを撮像するべき位置まで自走で移動させる場合には、後述する予測位置生成装置12が生成したロボット20の予測位置の座標値をロボット20の位置の座標値として使用しても良い。平均及び共分散行列計算装置7は、特徴ベクトルの各成分とロボット20の位置の座標値を組み合わせたベクトル(即ち、学習データ)の平均と共分散行列を求めてランドマーク記憶装置9に出力して記憶する。   At the time of landmark registration, the feature vector generation device 4 outputs the feature vector to the feature vector approximation device 5 and the feature vector / robot coordinate value combination device 6. The feature vector approximating device 5 approximates the feature vector with the feature vector of the nearby landmark imaging position, and outputs the feature vector at the approximated position to the feature vector and robot coordinate combining device 6. The feature vector and robot coordinate combination device 6 creates a vector by combining each component of the feature vector from the feature vector generation device 4 or the feature vector approximation device 5 and the coordinate value of the position of the robot 20, and calculates the mean and covariance matrix. Output to the device 7. At the time of landmark registration, the robot 20 is moved to a position where the landmark should be imaged, for example, by a human hand, so the coordinate value of the position of the robot 20 is known. However, when the robot 20 is moved to the position where the landmark should be imaged by using the traveling device 10 described later, the coordinate value of the predicted position of the robot 20 generated by the predicted position generation device 12 described later is used as the robot. You may use as a coordinate value of 20 positions. The average and covariance matrix calculation device 7 calculates the average and covariance matrix of a vector (that is, learning data) obtained by combining each component of the feature vector and the coordinate value of the position of the robot 20 and outputs the average and covariance matrix to the landmark storage device 9. Remember.

又、ランドマークの登録時には、距離センサ8は、ロボット20からランドマークまでの距離を計測して、現在のロボット20の位置を基準としたランドマークの座標をランドマーク記憶装置9に出力して記憶する。これにより、ランドマーク記憶装置9には、ランドマークの位置の座標値と、特徴ベクトルの各成分とロボット20の位置の座標値を組み合わせたベクトル(又、学習データ)の平均及び共分散行列が記憶(即ち、登録)される。   When the landmark is registered, the distance sensor 8 measures the distance from the robot 20 to the landmark, and outputs the landmark coordinates based on the current position of the robot 20 to the landmark storage device 9. Remember. As a result, the landmark storage device 9 has the average value and the covariance matrix of the coordinate value of the landmark position, and the vector (or learning data) obtained by combining each component of the feature vector and the coordinate value of the position of the robot 20. Stored (ie, registered).

走行装置10は、モータ(図示せず)によって車輪(図示せず)を回転させてロボット20を走行させる周知の構成を有する。エンコーダ11は、例えば車輪に取り付けられており、走行装置10から出力される車輪回転情報に基づいて車輪回転数データ、即ち、ロボット20の移動量を求めて出力する。予測位置生成装置12は、過去のロボット20の位置とエンコーダ11から得たロボット20の移動量から現在のロボット20の予測位置(即ち、ロボット予測位置)を求めて、特徴ベクトル及びロボット座標組み合わせ装置6及び現在位置候補生成装置15に出力する。   The traveling device 10 has a known configuration in which the robot 20 is caused to travel by rotating wheels (not shown) by a motor (not shown). The encoder 11 is attached to a wheel, for example, and obtains and outputs wheel rotation number data, that is, a movement amount of the robot 20 based on wheel rotation information output from the traveling device 10. The predicted position generation device 12 obtains the current predicted position of the robot 20 (that is, the predicted robot position) from the past position of the robot 20 and the movement amount of the robot 20 obtained from the encoder 11, and combines the feature vector and the robot coordinate system. 6 and the current position candidate generation device 15.

ランドマークの検知時には、特徴ベクトル生成装置4は、現在のロボット20の位置でカメラ1が出力するビデオ信号(即ち、撮像画像)に基づいて生成された特徴ベクトルを特徴ベクトル及びロボット座標組み合わせ装置6に出力する。特徴ベクトル及びロボット座標組み合わせ装置6は、特徴ベクトル生成装置4からの特徴ベクトルの各成分と予測位置生成装置12からのロボット予測位置の座標値を組み合わせたベクトルを作成してマハラノビス距離計算装置13に出力する。又、ランドマーク記憶装置9に記憶されたランドマークの座標値が読み出されてマハラノビス距離計算装置13に出力される。   When the landmark is detected, the feature vector generation device 4 uses the feature vector generated based on the video signal (that is, the captured image) output from the camera 1 at the current position of the robot 20 as the feature vector and robot coordinate combination device 6. Output to. The feature vector / robot coordinate combination device 6 creates a vector by combining each component of the feature vector from the feature vector generation device 4 and the coordinate value of the robot predicted position from the prediction position generation device 12, and sends it to the Mahalanobis distance calculation device 13. Output. In addition, the coordinate value of the landmark stored in the landmark storage device 9 is read and output to the Mahalanobis distance calculation device 13.

マハラノビス距離計算装置13は、ランドマーク記憶装置9から読み出されたランドマーク登録時のロボット20の位置での平均及び共分散行列と、特徴ベクトル及びロボット座標組み合わせ装置6からの現在のロボット予測位置での平均及び共分散行列に基づいてマハラノビス距離を計算し、ランドマーク検知結果生成装置14に出力する。ランドマーク検知結果生成装置14は、撮像画像の各特徴点に対して、マハラノビス距離が最も小さいランドマークを選択してランドマーク検知結果として整合性評価装置16に出力する。一方、現在位置候補生成装置15は、現在のロボット予測位置に基づいて、エンコーダ11から出力されたロボット20の移動量と正規分布誤差に基づいて、現在のロボット20の位置の候補(即ち、ロボット位置の候補)を生成する。現在位置候補生成装置15で生成されたロボット位置の候補は、整合性評価装置16及び重み付き平均計算装置17に出力される。   The Mahalanobis distance calculation device 13 reads the mean and covariance matrix at the position of the robot 20 at the time of landmark registration read out from the landmark storage device 9, and the current robot predicted position from the feature vector and robot coordinate combination device 6. The Mahalanobis distance is calculated based on the mean and covariance matrix at, and is output to the landmark detection result generation device 14. The landmark detection result generation device 14 selects a landmark having the shortest Mahalanobis distance for each feature point of the captured image and outputs it to the consistency evaluation device 16 as a landmark detection result. On the other hand, the current position candidate generation device 15 determines the current position candidate of the robot 20 (that is, the robot) based on the movement amount of the robot 20 output from the encoder 11 and the normal distribution error based on the current predicted robot position. Position candidates). The robot position candidates generated by the current position candidate generation device 15 are output to the consistency evaluation device 16 and the weighted average calculation device 17.

従って、ランドマーク検知時には、整合性評価装置16は、現在のロボット20の位置で距離センサ8により測定されたランドマークの座標値及び現在位置候補生成装置15からのロボット位置の候補を基準として、ランドマーク検知結果生成装置14からのランドマーク検知結果(又は、ランドマークの位置)のランドマーク記憶装置9から読み出されたにランドマークの登録時のランドマークの座標値(又は、ランドマークの位置)との整合性を評価する。整合性評価装置16の評価結果は、重み付き平均計算装置17に出力される。重み付き平均計算装置17は、ロボット位置の候補の座標に、整合性評価装置16から出力される評価結果に応じて重み付け平均を計算してロボット20の推定位置を得る。   Therefore, at the time of landmark detection, the consistency evaluation device 16 uses the landmark coordinate values measured by the distance sensor 8 at the current position of the robot 20 and the robot position candidates from the current position candidate generation device 15 as references. The landmark detection result (or the position of the landmark) from the landmark detection result generation device 14 is read from the landmark storage device 9 and the landmark coordinate value (or the landmark information) when the landmark is registered. Position). The evaluation result of the consistency evaluation device 16 is output to the weighted average calculation device 17. The weighted average calculation device 17 obtains an estimated position of the robot 20 by calculating a weighted average for the coordinates of the robot position candidate according to the evaluation result output from the consistency evaluation device 16.

図18において、カメラ1、距離センサ8、ランドマーク記憶装置9、走行装置10、及びエンコーダ11以外のロボット20の構成要素(即ち、装置)の機能は、CPU(Central Processing Unit)等のプロセッサ及び記憶装置を備えた周知の汎用コンピュータ(図示せず)により実現可能である。この場合、コンピュータの記憶装置は、ランドマーク記憶装置9として機能しても良い。コンピュータの記憶装置は、CPUが実行するプログラム、CPUが実行する演算の中間結果を含む各種データを格納する。CPUがプログラムを実行することにより、ロボット20の各機能が実現され、ロボット20が実行する処理の各手順が実行される。プログラムは、コンピュータの記憶装置を含む各種コンピュータ読み取り可能な記憶媒体に格納可能である。   In FIG. 18, the functions of the components (that is, the device) of the robot 20 other than the camera 1, the distance sensor 8, the landmark storage device 9, the traveling device 10, and the encoder 11 are a processor such as a CPU (Central Processing Unit), and the like. This can be realized by a known general-purpose computer (not shown) provided with a storage device. In this case, the storage device of the computer may function as the landmark storage device 9. The storage device of the computer stores various data including a program executed by the CPU and intermediate results of operations executed by the CPU. When the CPU executes the program, each function of the robot 20 is realized, and each procedure of processing executed by the robot 20 is executed. The program can be stored in various computer-readable storage media including a computer storage device.

図19は、ベクトル間距離計算装置を説明するブロック図である。図19中、図18と同一部分には同一符号を付し、その説明は省略する。図19に破線で囲んで示すように、ベクトル間距離計算装置40は、図18に示す特徴ベクトル及びロボット座標値組み合わせ装置6及びマハラノビス距離計算装置13で形成されている。このベクトル間距離計算装置40の機能も、CPU等のプロセッサ及び記憶装置を備えた周知の汎用コンピュータにより実現可能である。   FIG. 19 is a block diagram for explaining an inter-vector distance calculation apparatus. In FIG. 19, the same parts as those in FIG. 19, the inter-vector distance calculation device 40 is formed by the feature vector and robot coordinate value combination device 6 and the Mahalanobis distance calculation device 13 shown in FIG. The functions of the inter-vector distance calculation device 40 can also be realized by a known general-purpose computer including a processor such as a CPU and a storage device.

図20は、図18に示すロボット20のランドマーク登録時の動作を説明するフローチャートである。図20において、ステップS1では、ランドマークを撮影する任意の位置を選択し、ステップS2では、ランドマークに対してステップS1で選択した位置からカメラ1による撮影と距離センサ8による距離測定を行う。ステップS3では、カメラ1の出力ビデオ信号に基づいて、画像入力装置2、特徴点抽出装置3及び特徴ベクトル生成装置4がランドマークの特徴ベクトルを抽出(又は、生成)する。ステップS4では、十分な数のランドマークを撮影したか否かを判定し、判定結果がNOであると処理はステップS1へ戻る。一方、ステップS4の判定結果がYESであるとであるとであると、ステップS5では、特徴ベクトル近似装置5が近似を行う座標を選択して付近の3箇所のランドマークの撮影位置を求める。又、ステップS6では、特徴ベクトル近似装置5がステップS5で選択した付近の3箇所のランドマークの特徴ベクトルから近似を行い、近似を行った位置での特徴ベクトルを生成する。ステップS7では、ロボット座標値組み合わせ装置6及び平均及び共分散行列計算装置7が特徴ベクトル生成装置4及び特徴ベクトル近似装置5からの特徴ベクトルとロボット20の既知の座標値を組み合わせたベクトルの平均及び共分散行列を計算してランドマーク記憶装置9に記憶し、処理は終了する。   FIG. 20 is a flowchart for explaining the operation at the time of landmark registration of the robot 20 shown in FIG. In FIG. 20, in step S1, an arbitrary position for photographing a landmark is selected. In step S2, photographing with the camera 1 and distance measurement by the distance sensor 8 are performed on the landmark from the position selected in step S1. In step S3, the image input device 2, the feature point extraction device 3, and the feature vector generation device 4 extract (or generate) a landmark feature vector based on the output video signal of the camera 1. In step S4, it is determined whether or not a sufficient number of landmarks have been photographed. If the determination result is NO, the process returns to step S1. On the other hand, if the determination result in step S4 is YES, in step S5, the feature vector approximation device 5 selects the coordinates to be approximated, and obtains the shooting positions of three nearby landmarks. In step S6, the feature vector approximating device 5 performs approximation from the feature vectors of the three nearby landmarks selected in step S5, and generates a feature vector at the approximated position. In step S7, the robot coordinate value combination device 6 and the average and covariance matrix calculation device 7 calculate the average of the vector obtained by combining the feature vector from the feature vector generation device 4 and the feature vector approximation device 5 and the known coordinate value of the robot 20, and The covariance matrix is calculated and stored in the landmark storage device 9, and the process ends.

図21は、図18に示すロボット20が走行するランドマーク検知時の動作を説明するフローチャートである。図21において、ステップS11では、カメラ1の出力ビデオ信号に基づいて、画像入力装置2、特徴点抽出装置3及び特徴ベクトル生成装置4がランドマークの特徴ベクトルを求める(又は、生成する)。ステップS12では、特徴ベクトル及びロボット座標値組み合わせ装置6が特徴ベクトル生成装置4からの特徴ベクトルと予測位置生成装置12からのロボットの予測位置の座標値を組み合わせたベクトルを計算する。ステップS13では、マハラノビス距離計算装置13が、ランドマーク記憶装置9から読み出されたランドマーク登録時のロボット20の位置での平均及び共分散行列と、特徴ベクトル及びロボット座標組み合わせ装置6からの現在のロボット予測位置での平均及び共分散行列に基づいてマハラノビス距離を計算する。ステップS14では、ランドマーク検知結果生成装置14が、撮像画像の各特徴点に対して、マハラノビス距離が最も小さいランドマークを選択してランドマーク検知結果を得る。ステップS15では、走行装置10から出力される車輪回転情報に基づいてエンコーダ11、予測位置生成装置12及び現在位置候補生成装置15がロボット20の移動量と正規分布誤差に基づいて現在のロボット20の位置の候補を求める。ステップS16では、整合性評価装置16が、現在のロボット20の位置で距離センサ8により測定されたランドマークの座標値及びステップS15で求められたロボット位置の候補を基準として、ステップS14で得られたランドマーク検知結果(又は、ランドマークの位置)のランドマーク記憶装置9から読み出されたにランドマークの登録時のランドマークの座標値(又は、ランドマークの位置)との整合性を評価する。ステップS17では、重み付き平均計算装置17が、ロボット位置の候補の座標に、ステップS16で得られた整合性の評価結果に応じて重み付け平均を計算してロボット20の推定位置とし、処理は終了する。   FIG. 21 is a flowchart for explaining the operation at the time of detecting a landmark traveled by the robot 20 shown in FIG. In FIG. 21, in step S <b> 11, the image input device 2, the feature point extraction device 3, and the feature vector generation device 4 obtain (or generate) a landmark feature vector based on the output video signal of the camera 1. In step S <b> 12, the feature vector and robot coordinate value combination device 6 calculates a vector that combines the feature vector from the feature vector generation device 4 and the coordinate value of the predicted position of the robot from the predicted position generation device 12. In step S13, the Mahalanobis distance calculation device 13 reads the mean and covariance matrix at the position of the robot 20 at the time of landmark registration read from the landmark storage device 9, and the current vector from the feature vector and robot coordinate combination device 6. The Mahalanobis distance is calculated based on the mean and covariance matrix at the predicted robot position. In step S14, the landmark detection result generation device 14 selects a landmark having the shortest Mahalanobis distance for each feature point of the captured image and obtains a landmark detection result. In step S <b> 15, the encoder 11, the predicted position generation device 12, and the current position candidate generation device 15 based on the wheel rotation information output from the traveling device 10 cause the current robot 20 to move based on the movement amount of the robot 20 and the normal distribution error. Find position candidates. In step S16, the consistency evaluation device 16 is obtained in step S14 based on the landmark coordinate value measured by the distance sensor 8 at the current position of the robot 20 and the robot position candidate obtained in step S15. The consistency of the detected landmark detection result (or landmark position) with the landmark coordinate value (or landmark position) when the landmark is registered in the landmark storage device 9 is evaluated. To do. In step S17, the weighted average calculation device 17 calculates the weighted average for the coordinates of the candidate robot position according to the consistency evaluation result obtained in step S16 to obtain the estimated position of the robot 20, and the process ends. To do.

図22は、図18に示す特徴ベクトル近似装置5の動作を説明するフローチャートである。図22は、1つのランドマークに対する処理を示しており、このような処理が各ランドマークに対して行われる。   FIG. 22 is a flowchart for explaining the operation of the feature vector approximating apparatus 5 shown in FIG. FIG. 22 shows processing for one landmark, and such processing is performed for each landmark.

Figure 0005614118
Figure 0005614118

図23は、図18に示す特徴ベクトル及びロボット座標値組み合わせ装置6の動作を説明するフローチャートである。図23は、1つのランドマークに対する処理を示しており、このような処理が各ランドマークに対して行われる。   FIG. 23 is a flowchart for explaining the operation of the feature vector and robot coordinate value combination device 6 shown in FIG. FIG. 23 shows processing for one landmark, and such processing is performed for each landmark.

図23において、ステップS41では、学習データの番号を表す変数iを1にセットする。ステップS42では、特徴ベクトルνiの成分とロボット20の座標値xri,yriを組み合わせたベクトルViを作成する。ステップS43では、i≧Nであるか否かを判定し、判定結果がNOであるとステップS44においてiを1だけインクリメントしてから処理はステップS42へ戻る。一方、ステップS43の判定結果がYESであると、処理は終了する。 In FIG. 23, in step S41, a variable i representing a learning data number is set to 1. In step S42, a vector V i is generated by combining the component of the feature vector ν i and the coordinate values x ri and y ri of the robot 20. In step S43, it is determined whether i ≧ N. If the determination result is NO, i is incremented by 1 in step S44, and then the process returns to step S42. On the other hand, the process ends if the decision result in the step S43 is YES.

Figure 0005614118
Figure 0005614118

Figure 0005614118
Figure 0005614118

Figure 0005614118
Figure 0005614118

尚、上記実施例及び変形例では、ランドマーク検知方法が自律走行型ロボットに適用されているが、ロボットに周知のGPS(Global Positioning System)を搭載しておき、ランドマーク検知方法に基づいて検知されたロボットの位置とGPSにより検知されたロボットの位置とに基づいて、ロボットの位置検知精度を更に向上することも可能である。この場合、人工衛星からの電波がロボットまで届かない等の理由でGPSが動作しない状態でも、ランドマーク検知方法に基づいてロボットの位置を検知することができる。   In the above-described embodiments and modifications, the landmark detection method is applied to an autonomous traveling robot. However, a well-known GPS (Global Positioning System) is mounted on the robot, and detection is performed based on the landmark detection method. Based on the position of the detected robot and the position of the robot detected by GPS, the position detection accuracy of the robot can be further improved. In this case, the position of the robot can be detected based on the landmark detection method even when the GPS does not operate because the radio wave from the artificial satellite does not reach the robot.

以上の実施例を含む実施形態に関し、更に以下の付記を開示する。
(付記1)
自律走行型ロボットからランドマークを検知するランドマーク検知方法であって、
前記ロボット内でカメラが出力する撮像画像に基づいて特徴ベクトル生成装置によりランドマークの特徴点の特徴ベクトルを生成する工程と、
前記ロボット内で、マハラノビス距離計算装置により前記特徴ベクトルと記憶装置に登録されているランドマーク登録時の特徴点の特徴ベクトルとに基づいてマハラノビス距離を計算する工程と、
前記ロボット内で、前記マハラノビス距離が最小の特徴ベクトルをランドマーク検知結果生成装置により選択してランドマークの検知結果として出力する工程と、
前記ロボット内で、走行装置の出力に基づいて現在位置候補生成装置により前記ロボットの移動量と正規分布誤差に基づいて前記ロボットの現在位置の候補を求める工程と、
前記ロボット内で、前記ロボットの現在位置の候補について、前記記憶装置に登録されているランドマークの位置との整合性を整合性評価装置により評価して評価結果を出力する工程と、
前記ロボット内で、重み付き平均計算装置により前記ロボット位置の候補の座標に前記評価結果に応じて重み付け平均を計算して前記ロボットの推定位置を得る工程を含む、ランドマーク検知方法。
(付記2)
前記ロボット内で、予測位置生成装置により過去の前記ロボットの位置と前記ロボットの移動量から現在のロボットの予測位置を求める工程を更に含み、
前記特徴ベクトルを生成する工程は、特徴ベクトル及びロボット座標組み合わせ装置により前記特徴ベクトルの各成分と前記ロボットの予測位置の座標値を組み合わせたベクトルを作成し、
前記マハラノビス距離を計算する工程は、前記マハラノビス距離計算装置により前記組み合わせのベクトルと前記記憶装置に登録されているランドマーク登録時の特徴ベクトルの各成分と前記ロボットの位置の座標値を組み合わせたベクトルとに基づいてマハラノビス距離を計算する、付記1記載のランドマーク検知方法。
(付記3)
前記マハラノビス距離を計算する工程は、前記マハラノビス距離計算装置により前記組み合わせのベクトルと前記記憶装置に登録されているランドマーク登録時の特徴ベクトルの各成分と前記ロボットの位置の座標値を組み合わせたベクトルの平均及び共分散行列とに基づいてマハラノビス距離を計算する、付記2記載のランドマーク検知方法。
(付記4)
前記評価結果を出力する工程は、現在のロボットの位置で距離センサにより測定されたランドマークの座標値及び前記ロボットの現在位置の候補を基準として、前記記憶装置に登録されているランドマークの位置との整合性を前記整合性評価装置により評価して評価結果を出力する、付記1乃至3のいずれか1項記載のランドマーク検知方法。
(付記5)
前記評価結果を出力する工程は、前記ロボットの現在位置の候補について、前記記憶装置に登録されている複数のランドマークの位置との整合性を整合性評価装置により評価して評価結果を出力する、付記1乃至4のいずれか1項記載のランドマーク検知方法。
(付記6)
ランドマークを検知する自律走行型ロボットであって、
カメラと、
記憶装置と、
走行装置と、
前記カメラが出力する撮像画像に基づいてランドマークの特徴点の特徴ベクトルを生成する特徴ベクトル生成装置と、
前記特徴ベクトルと前記記憶装置に登録されているランドマーク登録時の特徴点の特徴ベクトルとに基づいてマハラノビス距離を計算するマハラノビス距離計算装置と、
前記マハラノビス距離が最小の特徴ベクトルを選択してランドマークの検知結果として出力するランドマーク検知結果生成装置と、
前記走行装置の出力に基づいて前記ロボットの移動量と正規分布誤差に基づいて前記ロボットの現在位置の候補を求める現在位置候補生成装置と、
前記ロボットの現在位置の候補について、前記記憶装置に登録されているランドマークの位置との整合性を評価して評価結果を出力する整合性評価装置と、
前記ロボット位置の候補の座標に前記評価結果に応じて重み付け平均を計算して前記ロボットの推定位置を得る重み付き平均計算装置を備えた、ロボット。
(付記7)
過去の前記ロボットの位置と前記ロボットの移動量から現在のロボットの予測位置を求める予測位置生成装置と、
前記特徴ベクトルの各成分と前記ロボットの予測位置の座標値を組み合わせたベクトルを作成する特徴ベクトル及びロボット座標組み合わせ装置を更に備え、
前記マハラノビス距離計算装置は、前記組み合わせのベクトルと前記記憶装置に登録されているランドマーク登録時の特徴ベクトルの各成分と前記ロボットの位置の座標値を組み合わせたベクトルとに基づいてマハラノビス距離を計算する、付記5記載のロボット。
(付記8)
前記マハラノビス距離計算装置は、前記組み合わせのベクトルと前記記憶装置に登録されているランドマーク登録時の特徴ベクトルの各成分と前記ロボットの位置の座標値を組み合わせたベクトルの平均及び共分散行列とに基づいてマハラノビス距離を計算する、付記7記載のロボット。
(付記9)
距離センサを更に備え、
前記整合性評価装置は、現在のロボットの位置で前記距離センサにより測定されたランドマークの座標値及び前記ロボットの現在位置の候補を基準として、前記記憶装置に登録されているランドマークの位置との整合性を評価して評価結果を出力する、付記6乃至8のいずれか1項記載のロボット。
(付記10)
前記整合性評価装置は、前記ロボットの現在位置の候補について、前記記憶装置に登録されている複数のランドマークの位置との整合性を評価して評価結果を出力する、付記6乃至9のいずれか1項記載のロボット。
(付記11)
コンピュータに、自律走行型ロボットからランドマークを検知さるプログラムであって、
前記ロボットのカメラが出力する撮像画像に基づいてランドマークの特徴点の特徴ベクトルを生成する手順と、
前記特徴ベクトルと前記ロボットの記憶装置に登録されているランドマーク登録時の特徴点の特徴ベクトルとに基づいてマハラノビス距離を計算する手順と、
前記マハラノビス距離が最小の特徴ベクトルを選択してランドマークの検知結果として出力する手順と、
前記ロボットの走行装置の出力に基づいて前記ロボットの移動量と正規分布誤差に基づいて前記ロボットの現在位置の候補を求める手順と、
前記ロボットの現在位置の候補について、前記記憶装置に登録されているランドマークの位置との整合性を評価して評価結果を出力する手順と、
前記ロボット位置の候補の座標に前記評価結果に応じて重み付け平均を計算して前記ロボットの推定位置を得る手順
を前記コンピュータに実行させる、プログラム。
(付記12)
過去の前記ロボットの位置と前記ロボットの移動量から現在のロボットの予測位置を求める手順
を更に前記コンピュータに実行させ、
前記特徴ベクトルを生成する手順は、前記特徴ベクトルの各成分と前記ロボットの予測位置の座標値を組み合わせたベクトルを作成し、
前記マハラノビス距離を計算する手順は、前記組み合わせのベクトルと前記記憶装置に登録されているランドマーク登録時の特徴ベクトルの各成分と前記ロボットの位置の座標値を組み合わせたベクトルとに基づいてマハラノビス距離を計算する、付記11記載のプログラム。
(付記13)
前記マハラノビス距離を計算する手順は、前記組み合わせのベクトルと前記記憶装置に登録されているランドマーク登録時の特徴ベクトルの各成分と前記ロボットの位置の座標値を組み合わせたベクトルの平均及び共分散行列とに基づいてマハラノビス距離を計算する、付記12記載のプログラム。
(付記14)
前記評価結果を出力する手順は、現在のロボットの位置で前記ロボットの距離センサにより測定されたランドマークの座標値及び前記ロボットの現在位置の候補を基準として、前記記憶装置に登録されているランドマークの位置との整合性を評価して評価結果を出力する、付記11乃至13のいずれか1項記載のプログラム。
(付記15)
前記評価結果を出力する手順は、前記ロボットの現在位置の候補について、前記記憶装置に登録されている複数のランドマークの位置との整合性を評価して評価結果を出力する、付記11乃至14のいずれか1項記載のプログラム。
(付記16)
付記11乃至15のいずれか1項記載のプログラムを格納した、コンピュータ読み取り可能な記憶媒体。
The following additional notes are further disclosed with respect to the embodiment including the above examples.
(Appendix 1)
A landmark detection method for detecting a landmark from an autonomous traveling robot,
Generating a feature vector of a landmark feature point by a feature vector generation device based on a captured image output by a camera in the robot;
In the robot, a Mahalanobis distance is calculated based on the feature vector registered in the storage device by the Mahalanobis distance calculation device based on the feature vector at the time of landmark registration;
In the robot, a feature vector having the smallest Mahalanobis distance is selected by a landmark detection result generation device and is output as a landmark detection result;
In the robot, obtaining a candidate for the current position of the robot based on a movement amount and a normal distribution error of the robot by a current position candidate generation device based on the output of the traveling device;
In the robot, for the candidate of the current position of the robot, a process of evaluating the consistency with the position of the landmark registered in the storage device and outputting an evaluation result;
A landmark detection method comprising: calculating a weighted average according to the evaluation result on the coordinates of the robot position candidate by a weighted average calculation device in the robot to obtain an estimated position of the robot.
(Appendix 2)
Within the robot, the method further includes a step of obtaining a predicted position of the current robot from a past position of the robot and a movement amount of the robot by a predicted position generation device,
The step of generating the feature vector creates a vector that combines each component of the feature vector and the coordinate value of the predicted position of the robot by a feature vector and robot coordinate combination device,
The step of calculating the Mahalanobis distance is performed by combining the vector of the combination by the Mahalanobis distance calculation device, each component of the feature vector registered in the storage device and the coordinate value of the position of the robot. The landmark detection method according to appendix 1, wherein the Mahalanobis distance is calculated based on:
(Appendix 3)
The step of calculating the Mahalanobis distance is performed by combining the vector of the combination by the Mahalanobis distance calculation device, each component of the feature vector registered in the storage device and the coordinate value of the position of the robot. The landmark detection method according to appendix 2, wherein the Mahalanobis distance is calculated based on the mean and the covariance matrix.
(Appendix 4)
The step of outputting the evaluation result includes the landmark position registered in the storage device with reference to the coordinate value of the landmark measured by the distance sensor at the current robot position and the current position candidate of the robot. The landmark detection method according to any one of appendices 1 to 3, wherein the consistency evaluation apparatus evaluates consistency with the consistency evaluation apparatus and outputs an evaluation result.
(Appendix 5)
The step of outputting the evaluation result evaluates the consistency of the current position candidate of the robot with the positions of a plurality of landmarks registered in the storage device, and outputs the evaluation result. The landmark detection method according to any one of appendices 1 to 4.
(Appendix 6)
An autonomous traveling robot that detects landmarks,
A camera,
A storage device;
A traveling device;
A feature vector generation device for generating a feature vector of a landmark feature point based on a captured image output by the camera;
A Mahalanobis distance calculation device for calculating a Mahalanobis distance based on the feature vector and the feature vector of the feature point at the time of landmark registration registered in the storage device;
A landmark detection result generating device for selecting the feature vector having the smallest Mahalanobis distance and outputting it as a landmark detection result;
A current position candidate generation device that obtains a candidate for the current position of the robot based on a movement amount of the robot and a normal distribution error based on the output of the traveling device;
Consistency evaluation device that evaluates the consistency with the position of the landmark registered in the storage device and outputs an evaluation result for the current position candidate of the robot;
A robot comprising a weighted average calculation device that calculates a weighted average of the coordinates of the robot position candidate according to the evaluation result to obtain an estimated position of the robot.
(Appendix 7)
A predicted position generation device for obtaining a predicted position of the current robot from a past position of the robot and a movement amount of the robot;
Further comprising a feature vector and robot coordinate combination device for creating a vector combining each component of the feature vector and the coordinate value of the predicted position of the robot;
The Mahalanobis distance calculation device calculates the Mahalanobis distance based on the vector of the combination, each vector of the feature vector registered in the storage device at the time of landmark registration, and a vector obtained by combining the coordinate values of the position of the robot. The robot according to appendix 5.
(Appendix 8)
The Mahalanobis distance calculation device uses the combination vector, a vector vector and a covariance matrix obtained by combining each component of the feature vector registered in the storage device and the coordinate value of the position of the robot. The robot according to appendix 7, which calculates a Mahalanobis distance based on it.
(Appendix 9)
A distance sensor;
The consistency evaluation device uses the landmark coordinate value measured by the distance sensor at the current robot position and the current position candidate of the robot as a reference, and the landmark position registered in the storage device. The robot according to any one of appendices 6 to 8, wherein the consistency is evaluated and an evaluation result is output.
(Appendix 10)
Any one of appendices 6 to 9, wherein the consistency evaluation device evaluates the consistency of the current position candidate of the robot with the positions of a plurality of landmarks registered in the storage device, and outputs an evaluation result. The robot according to claim 1.
(Appendix 11)
A computer program that detects landmarks from an autonomous robot.
Generating a feature vector of landmark feature points based on a captured image output by the camera of the robot;
Calculating Mahalanobis distance based on the feature vector and the feature vector of the feature point at the time of landmark registration registered in the storage device of the robot;
A procedure for selecting the feature vector having the smallest Mahalanobis distance and outputting it as a landmark detection result;
A procedure for obtaining a candidate for the current position of the robot based on a movement amount and a normal distribution error of the robot based on an output of the traveling device of the robot;
For the current position candidate of the robot, a procedure for evaluating the consistency with the position of the landmark registered in the storage device and outputting an evaluation result;
A program that causes the computer to execute a procedure of calculating a weighted average of coordinates of the robot position candidates according to the evaluation result to obtain an estimated position of the robot.
(Appendix 12)
Causing the computer to further execute a procedure for obtaining a predicted position of the current robot from a past position of the robot and a movement amount of the robot;
The procedure for generating the feature vector is to create a vector combining each component of the feature vector and the coordinate value of the predicted position of the robot,
The Mahalanobis distance is calculated based on the Mahalanobis distance based on the combination vector, a vector obtained by combining each component of the feature vector registered in the storage device and the coordinate value of the position of the robot. The program according to appendix 11, which calculates
(Appendix 13)
The procedure for calculating the Mahalanobis distance includes the vector and the covariance matrix of the combination vector, each component of the feature vector registered in the storage device and the coordinate value of the position of the robot. The program according to appendix 12, wherein the Mahalanobis distance is calculated based on:
(Appendix 14)
The procedure for outputting the evaluation result is based on the landmark coordinate value measured by the distance sensor of the robot at the current robot position and the candidate for the current position of the robot as a reference, and the land registered in the storage device. 14. The program according to any one of appendices 11 to 13, which evaluates consistency with a mark position and outputs an evaluation result.
(Appendix 15)
The procedure for outputting the evaluation result includes evaluating the consistency of the current position candidate of the robot with the positions of a plurality of landmarks registered in the storage device, and outputting the evaluation result. The program according to any one of the above.
(Appendix 16)
A computer-readable storage medium storing the program according to any one of appendices 11 to 15.

以上、開示のランドマーク検知方法、ロボット及びプログラムを実施例により説明したが、本発明は上記実施例に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能であることは言うまでもない。   As mentioned above, although the disclosed landmark detection method, robot, and program have been described by the embodiments, the present invention is not limited to the above embodiments, and various modifications and improvements can be made within the scope of the present invention. Needless to say.

1 カメラ
2 画像入力装置
3 特徴点抽出装置
4 特徴ベクトル生成装置
5 特徴ベクトル近似装置
6 特徴ベクトル及びロボット座標値組み合わせ装置
7 平均共分散行列計算装置
8 距離センサ
9 ランドマーク記憶装置
10 走行装置
11 エンコーダ
12 予測位置生成装置
13 マハラノビス距離計算装置
14 ランドマーク検知結果生成装置
15 現在位置候補生成装置
16 整合性評価装置
17 重み付け平均計算装置
20 ロボット
DESCRIPTION OF SYMBOLS 1 Camera 2 Image input device 3 Feature point extraction device 4 Feature vector generation device 5 Feature vector approximation device 6 Feature vector and robot coordinate value combination device 7 Average covariance matrix calculation device 8 Distance sensor 9 Landmark storage device 10 Traveling device 11 Encoder 12 Predicted position generation device 13 Mahalanobis distance calculation device 14 Landmark detection result generation device 15 Current position candidate generation device 16 Consistency evaluation device 17 Weighted average calculation device 20 Robot

Claims (6)

ランドマークを検知する自律走行型ロボットであって、
カメラと、
記憶装置と、
走行装置と、
前記カメラが出力する撮像画像に基づいてランドマークの特徴点の特徴ベクトルを生成する特徴ベクトル生成装置と、
前記特徴ベクトルと前記記憶装置に登録されているランドマーク登録時の特徴点の特徴ベクトルとに基づいてマハラノビス距離を計算するマハラノビス距離計算装置と、
前記マハラノビス距離が最小の特徴ベクトルを選択してランドマークの検知結果として出力するランドマーク検知結果生成装置と、
前記走行装置の出力に基づき、前記ロボットの移動量と正規分布に従って分布する測定の誤差に基づいて前記ロボットの現在位置の候補を求める現在位置候補生成装置と、
前記ロボットの現在位置の候補について、前記記憶装置に登録されているランドマークの位置との整合性を評価して評価結果を出力する整合性評価装置と、
前記ロボット位置の候補の座標値の重み付け平均を、前記評価結果に応じた重み付け平均を計算することで求めて前記ロボットの推定位置を得る重み付き平均計算装置を備えた、ロボット。
An autonomous traveling robot that detects landmarks,
A camera,
A storage device;
A traveling device;
A feature vector generation device for generating a feature vector of a landmark feature point based on a captured image output by the camera;
A Mahalanobis distance calculation device for calculating a Mahalanobis distance based on the feature vector and the feature vector of the feature point at the time of landmark registration registered in the storage device;
A landmark detection result generating device for selecting the feature vector having the smallest Mahalanobis distance and outputting it as a landmark detection result;
-Out based on the output of the traveling device, the current position candidate generating apparatus for determining the candidate of the current position of the robot based on the error of measurement distributed in accordance with the movement amount and the normal distribution of the robot,
Consistency evaluation device that evaluates the consistency with the position of the landmark registered in the storage device and outputs an evaluation result for the current position candidate of the robot;
A robot comprising a weighted average calculation device that obtains an estimated position of the robot by calculating a weighted average of coordinate values of the robot position candidates by calculating a weighted average corresponding to the evaluation result.
過去の前記ロボットの位置と前記ロボットの移動量から現在のロボットの予測位置を求める予測位置生成装置と、
前記特徴ベクトルの各成分と前記ロボットの予測位置の座標値を組み合わせたベクトルを作成する特徴ベクトル及びロボット座標組み合わせ装置を更に備え、
前記マハラノビス距離計算装置は、前記組み合わせのベクトルと前記記憶装置に登録されているランドマーク登録時の特徴ベクトルの各成分と前記ロボットの位置の座標値を組み合わせたベクトルとに基づいてマハラノビス距離を計算する、請求項1記載のロボット。
A predicted position generation device for obtaining a predicted position of the current robot from a past position of the robot and a movement amount of the robot;
Further comprising a feature vector and robot coordinate combination device for creating a vector combining each component of the feature vector and the coordinate value of the predicted position of the robot;
The Mahalanobis distance calculation device calculates the Mahalanobis distance based on the vector of the combination, each vector of the feature vector registered in the storage device at the time of landmark registration, and a vector obtained by combining the coordinate values of the position of the robot. The robot according to claim 1.
前記マハラノビス距離計算装置は、前記組み合わせのベクトルと前記記憶装置に登録されているランドマーク登録時の特徴ベクトルの各成分と前記ロボットの位置の座標値を組み合わせたベクトルの平均及び共分散行列とに基づいてマハラノビス距離を計算する、請求項2記載のロボット。   The Mahalanobis distance calculation device uses the combination vector, a vector vector and a covariance matrix obtained by combining each component of the feature vector registered in the storage device and the coordinate value of the position of the robot. The robot according to claim 2, wherein the Mahalanobis distance is calculated based on the distance. 距離センサを更に備え、
前記整合性評価装置は、現在のロボットの位置で前記距離センサにより測定されたランドマークの座標値及び前記ロボットの現在位置の候補を基準として、前記記憶装置に登録されているランドマークの位置との整合性を評価して評価結果を出力する、請求項1乃至3のいずれか1項記載のロボット。
A distance sensor;
The consistency evaluation device uses the landmark coordinate value measured by the distance sensor at the current robot position and the current position candidate of the robot as a reference, and the landmark position registered in the storage device. The robot according to claim 1, wherein the consistency is evaluated and an evaluation result is output.
コンピュータに、自律走行型ロボットからランドマークを検知さるプログラムであって、
前記ロボットのカメラが出力する撮像画像に基づいてランドマークの特徴点の特徴ベクトルを生成する手順と、
前記特徴ベクトルと前記ロボットの記憶装置に登録されているランドマーク登録時の特徴点の特徴ベクトルとに基づいてマハラノビス距離を計算する手順と、
前記マハラノビス距離が最小の特徴ベクトルを選択してランドマークの検知結果として出力する手順と、
前記ロボットの走行装置の出力に基づき、前記ロボットの移動量と正規分布に従って分布する測定の誤差に基づいて前記ロボットの現在位置の候補を求める手順と、
前記ロボットの現在位置の候補について、前記記憶装置に登録されているランドマークの位置との整合性を評価して評価結果を出力する手順と、
前記ロボット位置の候補の座標値の重み付け平均を、前記評価結果に応じた重み付け平均を計算することで求めて前記ロボットの推定位置を得る手順
を前記コンピュータに実行させる、プログラム。
To the computer, a program that Ru to detect the landmark from the autonomous robot,
Generating a feature vector of landmark feature points based on a captured image output by the camera of the robot;
Calculating Mahalanobis distance based on the feature vector and the feature vector of the feature point at the time of landmark registration registered in the storage device of the robot;
A procedure for selecting the feature vector having the smallest Mahalanobis distance and outputting it as a landmark detection result;
A step of determining a candidate of the current position of the robot the-out based on the output of the traveling device of the robot, based on the error of measurement distributed in accordance with the movement amount and the normal distribution of the robot,
For the current position candidate of the robot, a procedure for evaluating the consistency with the position of the landmark registered in the storage device and outputting an evaluation result;
A program for causing the computer to execute a procedure for obtaining a weighted average of coordinate values of the robot position candidate by calculating a weighted average corresponding to the evaluation result to obtain an estimated position of the robot.
自律走行型ロボットからランドマークを検知するランドマーク検知方法であって、
前記ロボット内でカメラが出力する撮像画像に基づいて特徴ベクトル生成装置によりランドマークの特徴点の特徴ベクトルを生成する工程と、
前記ロボット内で、マハラノビス距離計算装置により前記特徴ベクトルと記憶装置に登録されているランドマーク登録時の特徴点の特徴ベクトルとに基づいてマハラノビス距離を計算する工程と、
前記ロボット内で、前記マハラノビス距離が最小の特徴ベクトルをランドマーク検知結果生成装置により選択してランドマークの検知結果として出力する工程と、
前記ロボット内で、走行装置の出力に基づき、現在位置候補生成装置により前記ロボットの移動量と正規分布に従って分布する測定の誤差に基づいて前記ロボットの現在位置の候補を求める工程と、
前記ロボット内で、前記ロボットの現在位置の候補について、前記記憶装置に登録されているランドマークの位置との整合性を整合性評価装置により評価して評価結果を出力する工程と、
前記ロボット内で、重み付き平均計算装置により前記ロボット位置の候補の座標値の重み付け平均を、前記評価結果に応じた重み付け平均を計算することで求めて前記ロボットの推定位置を得る工程を含む、ランドマーク検知方法。
A landmark detection method for detecting a landmark from an autonomous traveling robot,
Generating a feature vector of a landmark feature point by a feature vector generation device based on a captured image output by a camera in the robot;
In the robot, a Mahalanobis distance is calculated based on the feature vector registered in the storage device by the Mahalanobis distance calculation device based on the feature vector at the time of landmark registration;
In the robot, a feature vector having the smallest Mahalanobis distance is selected by a landmark detection result generation device and is output as a landmark detection result;
Within the robot,-out based on the output of the drive apparatus, a step of determining a candidate of the current position of the robot based on the error of measurement distributed in accordance with the movement amount and the normal distribution of the robot by the current position candidate generating unit,
In the robot, for the candidate of the current position of the robot, a process of evaluating the consistency with the position of the landmark registered in the storage device and outputting an evaluation result;
In the robot, a weighted average of coordinate values of the robot position candidates is obtained by calculating a weighted average according to the evaluation result by a weighted average calculation device, and the estimated position of the robot is obtained. Landmark detection method.
JP2010136213A 2010-06-15 2010-06-15 Landmark detection method, robot and program Expired - Fee Related JP5614118B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010136213A JP5614118B2 (en) 2010-06-15 2010-06-15 Landmark detection method, robot and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010136213A JP5614118B2 (en) 2010-06-15 2010-06-15 Landmark detection method, robot and program

Publications (2)

Publication Number Publication Date
JP2012003401A JP2012003401A (en) 2012-01-05
JP5614118B2 true JP5614118B2 (en) 2014-10-29

Family

ID=45535329

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010136213A Expired - Fee Related JP5614118B2 (en) 2010-06-15 2010-06-15 Landmark detection method, robot and program

Country Status (1)

Country Link
JP (1) JP5614118B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5862344B2 (en) * 2012-02-10 2016-02-16 富士通株式会社 Image processing apparatus, prior information update method, and program
JP2014021624A (en) * 2012-07-13 2014-02-03 Sharp Corp Autonomous traveling device and autonomous traveling system
KR101383828B1 (en) 2013-01-14 2014-04-21 충북대학교 산학협력단 Apparatus and method for estimating location of mobile device using contour information of image
CN109708643B (en) * 2019-01-14 2020-07-07 北京理工大学 Evaluation and selection method for asteroid surface optical navigation road sign
CN110095123B (en) * 2019-05-31 2020-07-07 北京理工大学 Method for evaluating and optimizing observation information of road signs on surface of irregular small celestial body

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4042517B2 (en) * 2002-10-09 2008-02-06 株式会社日立製作所 Moving body and position detection device thereof
US8121399B2 (en) * 2005-12-16 2012-02-21 Ihi Corporation Self-position identifying method and device, and three-dimensional shape measuring method and device

Also Published As

Publication number Publication date
JP2012003401A (en) 2012-01-05

Similar Documents

Publication Publication Date Title
CN112785702B (en) SLAM method based on tight coupling of 2D laser radar and binocular camera
US8792726B2 (en) Geometric feature extracting device, geometric feature extracting method, storage medium, three-dimensional measurement apparatus, and object recognition apparatus
US10636168B2 (en) Image processing apparatus, method, and program
CN107533763B (en) Image processing apparatus, image processing method, and program
KR101776622B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
JP3735344B2 (en) Calibration apparatus, calibration method, and calibration program
KR101776620B1 (en) Apparatus for recognizing location mobile robot using search based correlative matching and method thereof
JP5181704B2 (en) Data processing apparatus, posture estimation system, posture estimation method and program
KR100702663B1 (en) Method for catadioptric vision based localization and mapping in a particle filter framework
US20110205338A1 (en) Apparatus for estimating position of mobile robot and method thereof
JP6405778B2 (en) Object tracking method and object tracking apparatus
JP2018522345A5 (en)
JP2010033447A (en) Image processor and image processing method
JP6782903B2 (en) Self-motion estimation system, control method and program of self-motion estimation system
KR20150144727A (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
JP5614118B2 (en) Landmark detection method, robot and program
Michot et al. Bi-objective bundle adjustment with application to multi-sensor slam
WO2017051480A1 (en) Image processing device and image processing method
JP6234349B2 (en) Mobile object position estimation device, mobile object position estimation method, and mobile object position estimation program
CN108256563B (en) Visual dictionary closed-loop detection method and device based on distance measurement
WO2008032375A1 (en) Image correcting device and method, and computer program
JP6523196B2 (en) Estimation apparatus, method and program
JP2018205950A (en) Environment map generation apparatus for estimating self vehicle position, self vehicle position estimation device, environment map generation program for estimating self vehicle position, and self vehicle position estimation program
JP4935769B2 (en) Plane region estimation apparatus and program
Li et al. RD-VIO: Robust visual-inertial odometry for mobile augmented reality in dynamic environments

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140311

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140812

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140825

R150 Certificate of patent or registration of utility model

Ref document number: 5614118

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees