JP5222971B2 - Walking robot apparatus and control program therefor - Google Patents

Walking robot apparatus and control program therefor Download PDF

Info

Publication number
JP5222971B2
JP5222971B2 JP2011080577A JP2011080577A JP5222971B2 JP 5222971 B2 JP5222971 B2 JP 5222971B2 JP 2011080577 A JP2011080577 A JP 2011080577A JP 2011080577 A JP2011080577 A JP 2011080577A JP 5222971 B2 JP5222971 B2 JP 5222971B2
Authority
JP
Japan
Prior art keywords
image
environment
photographed
map
self
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011080577A
Other languages
Japanese (ja)
Other versions
JP2012216051A (en
Inventor
卓也 石田
大志 渡辺
直輝 杉本
匡将 榎本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Soft Inc
Original Assignee
Fuji Soft Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Soft Inc filed Critical Fuji Soft Inc
Priority to JP2011080577A priority Critical patent/JP5222971B2/en
Publication of JP2012216051A publication Critical patent/JP2012216051A/en
Application granted granted Critical
Publication of JP5222971B2 publication Critical patent/JP5222971B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Description

本発明は、歩行ロボット装置及びその制御プログラムに関する。   The present invention relates to a walking robot apparatus and a control program therefor.

自律移動する歩行ロボットは、障害物や段差を自律的に回避しながら移動する。そのため歩行ロボットは、移動環境を記述した環境地図を用いて、常に正確な自己位置を算出する必要がある。従来の歩行ロボットでは、移動環境内を正確に移動することが求められていることから、環境地図は高い精度で作成されなければならない。   A walking robot that moves autonomously moves while avoiding obstacles and steps autonomously. Therefore, it is necessary for the walking robot to always calculate an accurate self-location using an environment map describing the moving environment. Since a conventional walking robot is required to move accurately in a moving environment, the environment map must be created with high accuracy.

特開2007−322138号公報JP 2007-322138 A

ところで、家庭内での使用を目的としたホームロボットには、必ずしも高性能・高精度であることが求められているわけではなく、必要最低限の機能を備え、必要十分な性能・精度を満たしていれば良い場合もある。
しかしながら、従来の環境地図の作成と自己位置推定では、歩行ロボットに高価なセンサ、測定器を搭載し、負荷の大きい演算処理を行なう必要があったため、小型化や多機能同時処理や低価格化には制限があった。
By the way, home robots intended for use in the home are not necessarily required to have high performance and high accuracy, but have the minimum necessary functions and satisfy the necessary and sufficient performance and accuracy. Sometimes it is good.
However, in the conventional environmental map creation and self-position estimation, it was necessary to install expensive sensors and measuring devices on the walking robot and perform heavy processing operations. There were limitations.

本発明は、このような従来の状況に鑑みて提案されたものであり、環境地図の作成と自己位置推定を、求められる精度を確保しつつ、簡易に実現することのできる歩行ロボット装置及びその制御プログラムを提供することを目的とする。   The present invention has been proposed in view of such a conventional situation, and a walking robot apparatus capable of easily realizing environmental map creation and self-position estimation while ensuring the required accuracy, and its An object is to provide a control program.

上記課題を解決するための本発明は、搭載した一台の撮像装置を用いて撮影した画像に基づいて環境地図を生成し、生成した環境地図を用いて自己位置を推定して、所定領域内を2足歩行する歩行ロボット装置であって、環境地図を作成する機能は、2ヶ所において撮影した地図作成用環境画像から撮影対象物毎に当該撮影対象物を示す代表点を抽出する代表点抽出部と、2ヶ所において撮影した地図作成用環境画像のそれぞれの代表点の位置と、撮影した歩行ロボット装置の位置座標とから前記撮影対象物の位置座標を求める位置座標取得部と、前記撮影した地図作成用環境画像、代表点の位置及び前記撮影対象物の位置座標とを関連付けた環境地図を作成する環境地図作成部とを有し、自己位置を推定する機能は、任意の位置座標において撮影した位置推定用環境画像中の撮影対象物と、前記環境地図に含まれる地図作成用環境画像中の撮影対象物とを対応させる撮影対象物対応部と、位置推定用環境画像中の撮影対象物の代表点に、対応する地図作成用環境画像中の撮影対象物の位置座標を対応させる位置座標対応部と、位置座標が対応した位置推定用環境画像中の撮影対象物の代表点を用いた交会法によって前記歩行ロボット装置の自己位置を算出する自己位置算出部とを有し、前記撮影対象物を示す代表点は、前記撮影対象物上の複数の特徴ある点から求められる当該撮影対象物を代表して示す点であるIn order to solve the above problems, the present invention generates an environment map based on an image captured using a single mounted imaging device, estimates the self-position using the generated environment map, and within a predetermined area. A biped walking robot device that creates an environment map is a representative point extraction that extracts a representative point indicating the object to be photographed for each object to be photographed from two map creation environment images. A position coordinate acquisition unit that obtains the position coordinates of the object to be photographed from the position of each representative point of the environment image for map creation photographed at two locations and the position coordinates of the photographed walking robot device, and the photographed An environment map creation unit that creates an environment map that associates the environment image for map creation, the position of the representative point, and the position coordinates of the object to be photographed, and the function of estimating the self-position is at any position coordinates A shooting object corresponding unit that associates a shooting object in the captured environment image for position estimation with a shooting object in the environment image for map creation included in the environment map, and a shooting object in the environment image for position estimation The position coordinate corresponding unit that associates the position coordinates of the object to be photographed in the corresponding mapping environment image with the representative point of the object, and the point representative of the object to be photographed in the environment image for position estimation corresponding to the position coordinate are used. have a self position calculating unit for calculating its own position of the walking robot by stomach resection, representative point indicating the imaging object, the imaging target obtained from a point where a plurality of features on the shooting target It is the point which shows a thing on behalf .

この発明によれば、環境地図の作成と自己位置推定を、求められる精度を確保しつつ、安価あるいは小型化や多機能化を実現することのできる歩行ロボット装置及びその制御プログラムを提供することができる。   According to the present invention, it is possible to provide a walking robot apparatus capable of realizing cost reduction, downsizing, and multi-functionality, and a control program thereof, while ensuring the required accuracy for creating an environmental map and self-position estimation. it can.

ロボット装置の外観構成を示す図。The figure which shows the external appearance structure of a robot apparatus. ロボット装置の環境地図の作成と自己位置推定を制御する制御ブロックの構成と、制御ブロック間の信号のフローを示す図。The figure which shows the structure of the control block which controls creation of the environmental map of a robot apparatus, and self-position estimation, and the flow of the signal between control blocks. 環境地図を作成する手順を示すフロー図。The flowchart which shows the procedure which creates an environmental map. 環境地図を作成する方法を説明するための図。The figure for demonstrating the method of creating an environmental map. 特徴点関数を撮影画像をXY平面とする三次元直交座標で表した模式図。The schematic diagram which represented the feature point function by the three-dimensional orthogonal coordinate which makes a picked-up image an XY plane. ランドマーク候補領域を説明する図。The figure explaining a landmark candidate area | region. 特徴点が重複した場合の処理方法を説明する図。The figure explaining the processing method when a feature point overlaps. ランドマークの重心位置座標を算出する方法を示す図。The figure which shows the method of calculating the gravity center position coordinate of a landmark. 自己位置を推定する手順を示すフロー図。The flowchart which shows the procedure which estimates a self-position. 自己位置を推定する方法を説明するための図。The figure for demonstrating the method of estimating a self-position. 現在位置を求める方法を説明するための図。The figure for demonstrating the method of calculating | requiring a present position.

[第1の実施の形態]
本実施の形態の歩行ロボット装置(以下、ロボット装置という)は、主として人に毎日の生活を楽しんでもらいながら情報やサービスの提供を行うパーソナルホームコンシェルジュとしての働きを担っている。このために、ロボット装置には、「コミュニケーション知能」による自然なコミュニケーションと共に「移動知能」による生活空間内の自由な移動が求められる。従って、生活空間における家具などが複数存在する環境下において目的地まで自律的に移動できなければならない。
[First embodiment]
The walking robot apparatus (hereinafter referred to as a robot apparatus) of the present embodiment mainly serves as a personal home concierge that provides information and services while allowing people to enjoy daily life. For this reason, the robot apparatus is required to freely move in the living space by “moving intelligence” as well as natural communication by “communication intelligence”. Therefore, it must be able to move autonomously to the destination in an environment where there are a plurality of furniture in the living space.

図1は、ロボット装置1の外観構成を示す図である。
このロボット装置1は、視覚、聴覚、会話及び2足歩行の機能を備えたヒューマノイド型として構成されている。このような機能を安価に実現するために、複数の汎用技術を組み合わせて高度・高性能な技術を実現するマルチプレックス方式を採用している。例えば、マザーボード、アクチュエータ等ハードウエアには汎用部品を採用し、ソフトウエアで機能を補完するなどの設計思想が採用されている。
FIG. 1 is a diagram illustrating an external configuration of the robot apparatus 1.
This robot apparatus 1 is configured as a humanoid type having functions of vision, hearing, conversation and bipedal walking. In order to realize such a function at a low cost, a multiplex system is adopted that realizes a high-performance technology by combining a plurality of general-purpose technologies. For example, a design concept is adopted in which general-purpose parts are used for hardware such as a mother board and an actuator, and functions are complemented by software.

ロボット装置1には、カメラ10が搭載され、ロボット装置1の周囲の環境を撮影する。ロボット装置1は、カメラ10で撮影された周囲の環境映像に基づいて環境地図の作成と自己位置推定を実行する。さらにロボット装置1は、図1に示すように、複数の圧力センサ、ジャイロ、加速度センサなどを搭載し、各関節軸の動きを制御して安定した2足歩行動作を実現するが、その詳細の説明は省略する。以下の説明においては、このロボット装置1が、制御装置(不図示)の指令に基づいて任意の姿勢をとることができること、また任意の方向に安定した2足歩行動作を行い得ることに留意されたい。   The robot apparatus 1 is equipped with a camera 10 and images the environment around the robot apparatus 1. The robot apparatus 1 executes creation of an environment map and self-position estimation based on surrounding environment images captured by the camera 10. Furthermore, as shown in FIG. 1, the robot apparatus 1 is equipped with a plurality of pressure sensors, gyros, acceleration sensors, and the like, and realizes a stable bipedal walking operation by controlling the movement of each joint axis. Description is omitted. In the following description, it is noted that the robot device 1 can take an arbitrary posture based on a command from a control device (not shown) and can perform a stable biped walking operation in an arbitrary direction. I want.

次に、以下の説明において使用される用語を定義する。
*ランドマーク:環境地図上において目標物として扱われる撮影画像上の領域。
*撮影対象物:撮影画像内にある物体。
*ランドマーク対象物:ランドマークに対応する撮影対象物。
*撮影情報:撮影画像、撮影角度、撮影したロボット位置などを含む情報。
*特徴情報:撮影画像上の特徴ある点(特徴点)の位置、特徴点の特徴量、特徴点の数学的なパラメータ(特徴点量)などを含む情報。
*ランドマーク情報:ランドマークごとの撮影情報、特徴情報、領域を表す座標、領域の重心座標などを含む情報。
Next, terms used in the following description are defined.
* Landmark: An area on the captured image that is treated as a target on the environmental map.
* Object to be photographed: An object in the photographed image.
* Landmark object: A shooting object corresponding to a landmark.
* Shooting information: Information including the shot image, shooting angle, and the position of the robot that shot the shot.
* Feature information: Information including the position of a characteristic point (feature point) on the photographed image, the feature amount of the feature point, the mathematical parameter (feature point amount) of the feature point, and the like.
* Landmark information: Information including shooting information for each landmark, feature information, coordinates representing the area, and barycentric coordinates of the area.

図2は、ロボット装置1の環境地図の作成と自己位置推定を制御する制御ブロックの構成と、制御ブロック間の信号のフローを示す図である。   FIG. 2 is a diagram illustrating a configuration of a control block that controls creation of an environment map and self-position estimation of the robot apparatus 1 and a signal flow between the control blocks.

ロボット装置1には制御ブロックとして、環境画像撮影部21、環境画像連結部22、特徴情報生成部23、歩行処理部24、現在位置座標算出部25、撮影情報生成部26、ランドマーク候補生成部27、対応点抽出部30、ランドマーク生成部31及びランドマーク対象物重心位置座標算出部32が備わっている。   The robot apparatus 1 includes, as control blocks, an environment image capturing unit 21, an environment image connecting unit 22, a feature information generating unit 23, a walking processing unit 24, a current position coordinate calculating unit 25, a shooting information generating unit 26, and a landmark candidate generating unit. 27, a corresponding point extraction unit 30, a landmark generation unit 31, and a landmark object gravity center position coordinate calculation unit 32 are provided.

また、ロボット装置1には記憶装置40が設けられている。この記憶装置40には、環境地図が格納される。環境地図には、詳細は後述するが、生活空間における家具などのランドマークの存在する位置情報、そのランドマークの特徴情報などが記載される。   The robot apparatus 1 is provided with a storage device 40. The storage device 40 stores an environmental map. As will be described in detail later, the environment map describes position information on the presence of landmarks such as furniture in the living space, feature information of the landmarks, and the like.

図2では、環境地図作成機能を実現するためのブロックを開示している、位置Aとして表される枠内は移動前の位置における制御ブロック間の信号フローを表し、位置Bとして表される枠内は移動後の位置における制御ブロック間の信号フローを表している。なお、同一の機能を備えた制御ブロックは同一の参照符号を付している。   In FIG. 2, a block for realizing the environment map creation function is disclosed. A frame represented as a position A represents a signal flow between control blocks at a position before movement, and a frame represented as a position B. The inside shows the signal flow between the control blocks at the position after movement. In addition, the control block provided with the same function attaches | subjects the same referential mark.

位置Aとして表した枠内において、環境画像撮影部21は、カメラ10を用いて撮影した周囲の環境画像を取得する。環境画像連結部22は、複数の環境画像を連結処理して1枚の画像にする。特徴情報生成部23は、連結処理された画像から特徴となる情報を抽出する。歩行処理部24は、歩幅、歩数、旋回角を積算する。現在位置座標算出部25は、積算された歩幅、歩数、旋回角から現在位置を表す座標値を算出する。
撮影情報生成部26は、撮影画像、撮影位置、撮影方向などを関連付けた撮影情報を生成する。ランドマーク候補生成部27は、撮影情報と特徴情報とからランドマーク候補を抽出し、ランドマーク候補情報を出力する。
In the frame represented as the position A, the environment image capturing unit 21 acquires a surrounding environment image captured using the camera 10. The environment image connection unit 22 performs connection processing of a plurality of environment images to form one image. The feature information generation unit 23 extracts feature information from the connected images. The walking processing unit 24 integrates the stride, the number of steps, and the turning angle. The current position coordinate calculation unit 25 calculates a coordinate value representing the current position from the accumulated stride, the number of steps, and the turning angle.
The shooting information generation unit 26 generates shooting information that associates a shot image, a shooting position, a shooting direction, and the like. The landmark candidate generation unit 27 extracts landmark candidates from the shooting information and the feature information, and outputs the landmark candidate information.

位置Bとして表した枠内において、上述と同様に周囲環境の撮影が行なわれ撮影情報と特徴情報とが生成される。但し、位置Bにおいてはランドマーク候補情報は生成されない。ランドマーク候補情報は、移動前の状態において生成される。   In the frame represented as the position B, the surrounding environment is photographed in the same manner as described above, and photographing information and feature information are generated. However, landmark candidate information is not generated at position B. The landmark candidate information is generated in a state before movement.

対応点抽出部30は、移動前と移動後との異なる位置で撮影した座標から取得した情報を比較してそれぞれの情報の対応付けを行なう。ランドマーク生成部31は、互いの情報から類似した特徴を有する領域(ランドマーク)を抽出する。ランドマーク対象物重心位置座標算出部32は、ランドマークに対応する撮影対象物(ランドマーク対象物)の重心位置座標を算出する。そして、これらのランドマーク情報、ランドマーク対象物重心位置座標は環境地図として記憶部40に格納される。   The corresponding point extraction unit 30 compares information acquired from coordinates captured at different positions before and after movement, and associates the information with each other. The landmark generation unit 31 extracts regions (landmarks) having similar characteristics from each other's information. The landmark object center-of-gravity position coordinate calculation unit 32 calculates the center-of-gravity position coordinates of the photographing object (landmark object) corresponding to the landmark. These landmark information and landmark object center-of-gravity position coordinates are stored in the storage unit 40 as an environmental map.

図3は、環境地図を作成する手順を示すフロー図である。図4は、環境地図を作成する方法を説明するための図である。図3及び図4を参照しつつ環境地図作成動作について説明する。
ユーザが、ロボット装置1に対して環境地図作成を指示することによって、ロボット装置1は、環境地図作成動作を開始する。ここで、歩行空間内の座標は、所定位置を基準(原点)とした世界座標系で表されている。この座標系では、ロボット装置1の位置は、X座標、Y座標、ロボット装置1の向きを表す角度情報をパラメータとして(x、y、θ)で表される。ロボット装置1は、自律で移動する。そして、ロボット装置1は、歩数、歩幅、旋回角を積算することにより、現在位置の座標(x、y、θ)を算出する。従って、環境地図作成を指示された時点において、ロボット装置1は、現在位置の座標(x、y、θ)を把握しているものとして以下の手順を説明する。
FIG. 3 is a flowchart showing a procedure for creating an environment map. FIG. 4 is a diagram for explaining a method of creating an environment map. The environment map creation operation will be described with reference to FIGS.
When the user instructs the robot apparatus 1 to create an environment map, the robot apparatus 1 starts an environment map creation operation. Here, the coordinates in the walking space are expressed in a world coordinate system with a predetermined position as a reference (origin). In this coordinate system, the position of the robot apparatus 1 is represented by (x, y, θ) using X coordinate, Y coordinate, and angle information indicating the orientation of the robot apparatus 1 as parameters. The robot apparatus 1 moves autonomously. The robot apparatus 1 calculates the coordinates (x, y, θ) of the current position by integrating the number of steps, the stride, and the turning angle. Accordingly, the following procedure will be described on the assumption that the robot apparatus 1 has grasped the coordinates (x, y, θ) of the current position at the time when the environment map creation is instructed.

図3のステップS01において、ロボット装置1は、現在位置の周囲を撮影して特徴のある対象物をランドマーク候補として抽出する。このステップS01の処理は次のように実施する。   In step S01 in FIG. 3, the robot apparatus 1 captures a characteristic target object as a landmark candidate by photographing around the current position. The process of step S01 is performed as follows.

(100)現在位置座標算出部25が、ロボット装置1の現在位置A(X1、Y1、θ1)を取得する。
(101)環境画像撮影部21は、ロボット装置1の頭部のカメラ10で、現在位置Aの周囲を撮影する。撮影枚数には特に制限がなく、カメラの回動する範囲、画角等から定められる。全周囲を撮影することが望ましいが、進行方向を中心にして左右側にそれぞれ2枚、合計で4枚撮影でも十分である。図4では、移動方向を基準線として、左側1枚(θα)、右側2枚(θβ、θγ)の3枚が撮影されている。
(102)撮影情報生成部26は、撮影した画像、撮影位置の座標、撮影方向を関連付けて撮影情報として記憶部40に格納する。
(100) The current position coordinate calculation unit 25 acquires the current position A (X1, Y1, θ1) of the robot apparatus 1.
(101) The environment image photographing unit 21 photographs the surroundings of the current position A with the camera 10 on the head of the robot apparatus 1. The number of shots is not particularly limited and is determined from the range in which the camera rotates, the angle of view, and the like. Although it is desirable to photograph the entire periphery, it is sufficient to photograph four images in total, two on the left and right sides of the traveling direction. In FIG. 4, three images, one on the left side (θα) and two on the right side (θβ, θγ), are taken using the moving direction as a reference line.
(102) The photographing information generation unit 26 stores the photographed image, the coordinates of the photographing position, and the photographing direction in the storage unit 40 in association with the photographing information.

(103)環境画像連結部22は、撮影範囲が連続している画像同士を水平方向につなぎ合わせて1枚の画像とする。   (103) The environment image coupling unit 22 stitches together images having continuous shooting ranges in the horizontal direction to form one image.

(104)特徴情報生成部23は、撮影した画像から特徴点を探索する。特徴点とは、照明などの環境変化や物体の見え方の違いなど様々な不確定要素に対して不変である特徴量を持つ点あって、対象物の特徴の抽出に適した点のことである。なお、特徴量として一般的に知られているものには、形状やテクスチャ(物の表面の質感)などに基づく特徴量や、画像から特徴点を抽出してその点での特徴ベクトルを特徴量として抽出したSIFT特徴量やSURF特徴量などがある。
特徴情報生成部23は、探索した特徴点毎に特徴量と特徴点量とを算出し、特徴情報として記憶部40に記憶する。SURFによる特徴量抽出では、特徴量として64次元あるいは128次元のパラメータをもつ特徴ベクトルを得る。また、特徴点量として、画像内の特徴点の座標(X,Y)、Laplacian(その点におけるラプラシアンの符号)、Size(特徴のサイズ)、Dir(特徴の方向)、Hessian(ヘシアンの値:特徴の強さを推定できる。)を得る。
(104) The feature information generation unit 23 searches for feature points from the captured image. A feature point is a point that has features that are invariant to various uncertainties such as changes in the environment such as lighting and differences in the appearance of objects, and is suitable for extracting features of an object. is there. Note that what is generally known as a feature quantity is a feature quantity based on a shape or texture (texture of the surface of an object), or a feature point extracted from an image and a feature vector at that point as a feature quantity. There are extracted SIFT feature values and SURF feature values.
The feature information generation unit 23 calculates a feature amount and a feature point amount for each searched feature point, and stores them in the storage unit 40 as feature information. In the feature quantity extraction by SURF, a feature vector having 64-dimensional or 128-dimensional parameters is obtained as a feature quantity. Further, as feature point quantities, the coordinates (X, Y), Laplacian (sign of Laplacian at that point), Size (feature size), Dir (feature direction), Hessian (value of Hessian: The strength of the feature can be estimated.)

(105)ランドマーク候補生成部27は、記憶部40に格納されている撮影情報及び特徴情報に基いて、ランドマーク候補となる対象物の領域を抽出する。ランドマーク候補の領域を抽出する処理は次のように実施される。   (105) The landmark candidate generation unit 27 extracts an area of the target object that is a landmark candidate based on the shooting information and feature information stored in the storage unit 40. The process of extracting the landmark candidate area is performed as follows.

(105−1)それぞれの特徴点iに対して式(1)で表される特徴点関数Z(i)を定義する。

Figure 0005222971
(105-1) A feature point function Z (i) expressed by the equation (1) is defined for each feature point i.
Figure 0005222971

なお、撮影画像内に設定した座標系での特徴点iの座標を(Xi,Yi,0)、特徴点iにおける特徴のサイズをS(i)、特徴点iにおける特徴のヘシアンをH(i)としている。 Note that the coordinates of the feature point i in the coordinate system set in the photographed image are (X i , Y i , 0), the feature size at the feature point i is S (i), and the feature Hessian at the feature point i is H (i).

図5は、特徴点関数を撮影画像をXY平面とする三次元直交座標で表した模式図である。特徴点関数は、XY平面上では、特徴点を中心として直径がSizeの円に投影される立体形状である。特徴点関数の値は、特徴点において最大値(=ヘシアンの値)となり、特徴点から離れるにつれて余弦関数に従って減少し、円領域の境界点において最小値(=0)となる。なお、特徴点から円領域の境界点へ向かって減少するカーブは、余弦関数に限られない。単調に減少する関数であれば良い。   FIG. 5 is a schematic diagram showing the feature point function in three-dimensional orthogonal coordinates with the captured image as the XY plane. The feature point function is a three-dimensional shape projected on a circle with a diameter having a feature point as the center on the XY plane. The value of the feature point function becomes the maximum value (= Hessian value) at the feature point, decreases according to the cosine function as the distance from the feature point, and becomes the minimum value (= 0) at the boundary point of the circular region. Note that the curve that decreases from the feature point toward the boundary point of the circular region is not limited to the cosine function. Any function that decreases monotonously is acceptable.

(105−2)全特徴点関数の値を加算し、その加算された値が所定の閾値(T)以上の領域を撮影画像内のXY平面に投影する。この領域を「ランドマーク候補領域」という。
図6は、ランドマーク候補領域を説明する図である。図6(1)は、XY平面上の1つの直線上にある特徴点関数の値を加算して閾値以上となる範囲を示す図である。図6(1)では、L1からL2の範囲が求められる。またこの範囲に属する特徴点も求められる。図6(2)は、特徴点関数の値を加算した値が閾値以上となる範囲をXY平面に表した図である。
(105-2) The values of all feature point functions are added, and an area where the added value is equal to or greater than a predetermined threshold (T) is projected onto the XY plane in the captured image. This area is referred to as a “landmark candidate area”.
FIG. 6 is a diagram illustrating landmark candidate areas. FIG. 6A is a diagram illustrating a range in which the values of feature point functions on one straight line on the XY plane are added and become equal to or greater than the threshold value. In FIG. 6A, the range from L1 to L2 is obtained. In addition, feature points belonging to this range are also obtained. FIG. 6B is a diagram showing, on the XY plane, a range in which a value obtained by adding feature point function values is equal to or greater than a threshold value.

(105−3)ランドマーク候補領域に外接し、X軸、Y軸と平行な長方形Fを求める。この長方形Fで囲まれる領域を「ランドマーク候補」という。また、この長方形Fで囲まれる領域に対応する撮影対象物を「ランドマーク候補対象物」という。次に、この長方形Fの重心座標、即ち、対角線の交点座標を求める。   (105-3) A rectangle F circumscribing the landmark candidate region and parallel to the X axis and the Y axis is obtained. An area surrounded by the rectangle F is referred to as a “landmark candidate”. In addition, a photographing object corresponding to the area surrounded by the rectangle F is referred to as a “landmark candidate object”. Next, the barycentric coordinates of the rectangle F, that is, the intersection coordinates of the diagonal lines are obtained.

(105−4)長方形で囲まれる領域に含まれる少なくとも一つの特徴点の特徴量と特徴点量、長方形の頂点座標、重心座標、撮影情報を対応付けて、ランドマーク候補情報として記憶部40に格納する。   (105-4) The feature amount of at least one feature point included in the region surrounded by the rectangle and the feature point amount, the vertex coordinates of the rectangle, the barycentric coordinates, and the shooting information are associated with each other in the storage unit 40 as landmark candidate information. Store.

図3のステップS02において、ロボット装置1は、環境地図作成領域内の異なる位置(以下、「位置B」という。)へ移動する。現在位置座標算出部25は、歩数、歩幅、旋回角の積算(オドメトリ)により現在位置Bの座標(x2、y2、θ2)を算出して取得する。   In step S02 of FIG. 3, the robot apparatus 1 moves to a different position (hereinafter referred to as “position B”) in the environment map creation area. The current position coordinate calculation unit 25 calculates and acquires the coordinates (x2, y2, θ2) of the current position B by integrating (odometry) the number of steps, the stride, and the turning angle.

ステップS03において、ロボット装置1の頭部のカメラ10で、現在位置Bの周囲を撮影する。撮影枚数には特に制限がなく、カメラの回動する範囲、画角等から定められる。例えば、進行方向を中心にして左右側にそれぞれ2枚、合計で4枚撮影する。図4では、移動方向に対して、左側1枚(θδ)、右側2枚(θε、θζ)の3枚が撮影されている。
そして、ロボット装置1は撮影した画像より特徴量、特徴点量を抽出するが、この処理は、ステップ01の処理(104)と同じであるため詳細の説明は省略する。
In step S03, the periphery of the current position B is photographed by the camera 10 on the head of the robot apparatus 1. The number of shots is not particularly limited and is determined from the range in which the camera rotates, the angle of view, and the like. For example, two images are taken on the left and right sides around the traveling direction, for a total of four images. In FIG. 4, three images are taken, one on the left side (θδ) and two on the right side (θε, θζ) with respect to the moving direction.
Then, the robot apparatus 1 extracts feature amounts and feature point amounts from the captured image. Since this process is the same as the process (104) in step 01, detailed description thereof is omitted.

ステップS04において、対応点抽出部30は、移動前後の撮影画像から同じ対象物を対応付ける。このステップS04の処理は次のように実施する。なお、以下の説明では、ロボット装置1が位置Aで撮影した画像を画像Aと呼び、位置Bで撮影した画像を画像Bと呼ぶ。   In step S04, the corresponding point extraction unit 30 associates the same object with the captured images before and after the movement. The process of step S04 is performed as follows. In the following description, an image captured by the robot apparatus 1 at the position A is referred to as an image A, and an image captured at the position B is referred to as an image B.

(200)画像Aの長方形で囲まれた領域から特徴点を任意に1点選択する。また画像Bから特徴点を任意に1点選択する。この画像Bの特徴点を選択する際には、それぞれの特徴点の特徴点量Laplacianが同一のものを選択する。Laplacianが異なる特徴同士はマッチしないためである。   (200) One feature point is arbitrarily selected from the area surrounded by the rectangle of the image A. Further, one feature point is arbitrarily selected from the image B. When selecting the feature points of the image B, those having the same feature point amount Laplacian of each feature point are selected. This is because features with different laplacians do not match.

(201)選択された2つの特徴点について、特徴量の全パラメータに基づいてユークリッド距離を式(2)で算出する。

Figure 0005222971
(201) For the two selected feature points, Euclidean distance is calculated by Equation (2) based on all the parameters of the feature amount.
Figure 0005222971

(202)ユークリッド距離が閾値以下の場合、それら特徴点の組み合わせと算出したユークリッド距離とを関連付けて記憶部40に記憶する。
(203)画像Bにある全ての特徴点について、処理(201)、(202)を実行し、最小のユークリッド距離を与える特徴点の組み合わせを求める。
(202) When the Euclidean distance is equal to or smaller than the threshold value, the combination of the feature points and the calculated Euclidean distance are associated and stored in the storage unit 40.
(203) The processes (201) and (202) are executed for all feature points in the image B, and a combination of feature points that gives the minimum Euclidean distance is obtained.

(204)画像Aの長方形の内部にある特徴点すべてに対して処理(201)〜(203)を実行し、最小のユークリッド距離を与える特徴点の組み合わせを求める。この際、画像B上の特徴点が重複して関連付けられることを回避する。   (204) The processes (201) to (203) are executed for all the feature points inside the rectangle of the image A, and a combination of feature points giving the minimum Euclidean distance is obtained. At this time, it is avoided that the feature points on the image B are associated with each other.

図7は、特徴点が重複した場合の処理方法を説明する図である。
画像A上の特徴点a1と画像B上の特徴点b1とがユークリッド距離=100で対応付けられていたとする。対応付け処理において、画像A上の特徴点a2と画像B上の特徴点b1とがユークリッド距離=120で対応付けられた場合、特徴点b1が重複して対応付けられる。このときは、ユークリッド距離が小さいほうの組み合わせが採用され、ユークリッド距離が大きい組み合わせが棄却される。その結果、画像A上の特徴点a2は、ユークリッド距離が2番目に小さい組み合わせである、画像B上の特徴点b2と対応付けられる。
FIG. 7 is a diagram illustrating a processing method when feature points overlap.
It is assumed that the feature point a1 on the image A and the feature point b1 on the image B are associated with each other with Euclidean distance = 100. In the association process, when the feature point a2 on the image A and the feature point b1 on the image B are associated with each other at the Euclidean distance = 120, the feature point b1 is associated with the feature point b1 in an overlapping manner. At this time, the combination with the smaller Euclidean distance is adopted, and the combination with the larger Euclidean distance is rejected. As a result, the feature point a2 on the image A is associated with the feature point b2 on the image B, which is the combination with the second smallest Euclidean distance.

図3のステップS05において、ランドマーク生成部31は、ランドマークを抽出する。このステップS05の処理は次のように実施する。
(300)画像B上にXY直交座標系を設定し、画像B上の対応付けられた特徴点の座標を決定する。
In step S05 of FIG. 3, the landmark generation unit 31 extracts a landmark. The process of step S05 is performed as follows.
(300) An XY orthogonal coordinate system is set on the image B, and coordinates of feature points associated with the image B are determined.

(301)画像A上と画像B上の対応付けられた特徴点を任意に4組選択し、その4組を用いて画像Aと画像Bとを一致させるための仮の射影変換行列を求める。
(302)画像A上の特徴点の座標を仮の射影変換行列を用いて、画像B上の座標に変換し、対応する特徴点の座標との距離を求める。そして、距離が所定値以下の組数を、前記仮の射影変換行列のスコアとする。
(301) Arbitrary four sets of feature points associated with each other on image A and image B are selected, and a temporary projective transformation matrix for matching image A and image B is obtained using the four sets.
(302) The coordinates of the feature points on the image A are converted into the coordinates on the image B using the temporary projective transformation matrix, and the distance from the coordinates of the corresponding feature points is obtained. Then, the number of pairs whose distance is equal to or smaller than a predetermined value is used as the score of the temporary projective transformation matrix.

(303)画像A上と画像B上の対応付けられた特徴点の4組を選択する全ての組み合わせについて、処理(301)〜(302)を実行して仮の射影変換行列のスコアを求める。
(304)最もスコアが高い仮の変換行列を、画像Aの座標系と画像Bの座標系とを一致させるための真の変換行列とする。
(303) For all combinations for selecting four pairs of feature points associated with each other on the image A and the image B, the processing (301) to (302) is executed to obtain the score of the temporary projective transformation matrix.
(304) The provisional transformation matrix having the highest score is set as a true transformation matrix for matching the coordinate system of the image A and the coordinate system of the image B.

(305)真の変換行列を用いて画像Aの長方形を画像B上に射影する。画像B上では長方形は四辺形として射影される。
画像A上の現在選択されている長方形で囲まれる領域、及び、これに対応する画像B上の四辺形で囲まれる領域をランドマークという。
前記長方形で囲まれる領域に対応する撮影対象物と前記四辺形で囲まれる領域に対応する撮影対象物は、それぞれ位置A、位置Bから撮影した同一の撮影対象物であって、この撮影対象物をランドマーク対象物という。
(305) Project the rectangle of image A onto image B using the true transformation matrix. On the image B, the rectangle is projected as a quadrilateral.
A region surrounded by the currently selected rectangle on the image A and a region surrounded by the corresponding quadrilateral on the image B are referred to as landmarks.
The object to be imaged corresponding to the area surrounded by the rectangle and the object to be imaged corresponding to the area surrounded by the quadrilateral are the same object to be imaged from positions A and B, respectively. Is called a landmark object.

(306)現在選択されている長方形で囲まれる領域に含まれる特徴点の特徴量と特徴点量、前記長方形の画像Aの座標系での頂点座標と重心位置座標、撮影情報A、前記長方形に対応する四辺形で囲まれる領域に含まれる特徴点の特徴量と特徴点量、前記四辺形の画像Bの座標系での頂点座標と重心座標、撮影情報Bを関連付けてランドマーク情報として記憶部40に記憶する。   (306) Feature amounts and feature point amounts of feature points included in the region enclosed by the currently selected rectangle, vertex coordinates and barycentric position coordinates in the coordinate system of the rectangular image A, shooting information A, and the rectangle Storage unit as landmark information by associating feature amounts and feature point amounts of feature points included in a region surrounded by the corresponding quadrilateral, vertex coordinates and barycentric coordinates in the coordinate system of the image B of the quadrilateral, and shooting information B 40.

図3のステップS06において、ランドマーク対象物重心位置座標算出部32は、ランドマークの重心位置座標を算出する。このステップS06の処理は次のように実施する。
図8は、ランドマークの重心位置座標を算出する方法を示す図である。
In step S06 in FIG. 3, the landmark object gravity center position coordinate calculation unit 32 calculates the gravity center position coordinates of the landmark. The process of step S06 is performed as follows.
FIG. 8 is a diagram illustrating a method of calculating the center-of-gravity position coordinates of the landmark.

(400)撮影情報Aと撮影情報Bを基に、位置Aと位置Bを結ぶ線分(以下、「線分AB」という。)の長さを算出する。   (400) Based on the shooting information A and the shooting information B, the length of a line segment connecting the position A and the position B (hereinafter referred to as “line segment AB”) is calculated.

(401)現在選択されているランドマーク対象物をLMαとし、位置Aからの撮影により設定されたLMαの重心位置を位置α‘としたとき、そのランドマーク情報を基に、位置Aと位置α‘を結ぶ線分(以下、「直線Aα‘」という。)と、線分ABとのなす角θαを算出する。   (401) When the currently selected landmark object is LMα and the center of gravity position of LMα set by photographing from the position A is position α ′, the position A and the position α are based on the landmark information. An angle θα formed by a line segment connecting '(hereinafter referred to as “straight line Aα”) and the line segment AB is calculated.

(402)位置Bからの撮影により設定されたLMαの重心位置を位置α“としたとき、そのランドマーク情報を基に、位置Bと位置α“を結ぶ線分(以下、「直線Bα“」という。)と、線分ABとのなす角θδを算出する。   (402) Assuming that the position of the center of gravity of LMα set by photographing from the position B is the position α ″, based on the landmark information, a line segment connecting the position B and the position α ″ (hereinafter referred to as “straight line Bα”) And the angle θδ formed by the line segment AB is calculated.

(403)三角測量法に基づき、直線Aα‘と直線Bα“の交点の位置座標を、現在選択されているランドマーク対象物の重心位置の仮の座標として算出する。   (403) Based on the triangulation method, the position coordinates of the intersection of the straight line Aα ′ and the straight line Bα are calculated as temporary coordinates of the center of gravity position of the currently selected landmark object.

(404)現在選択されているランドマーク対象物の重心位置の仮の座標が、位置A及び位置B以外の位置での環境地図作成においても算出され、既に記憶されている場合は、全ての仮の座標の相加平均を、現在選択されているランドマーク対象物の重心位置の新たな仮の座標として算出する。なお、当該ランドマーク対象物が同一か否かは、ランドマーク対象物の重心位置の差(距離)が所定値以内であるかどうかで判断する。   (404) Temporary coordinates of the center of gravity position of the currently selected landmark object are also calculated in environment map creation at positions other than position A and position B. Is calculated as a new temporary coordinate of the center of gravity position of the currently selected landmark object. Whether or not the landmark objects are the same is determined by whether or not the difference (distance) in the center of gravity of the landmark objects is within a predetermined value.

図3のステップS07において、ランドマーク対象物重心位置座標算出部32は、算出されたランドマーク対象物の重心位置の仮の座標を記憶部40に記憶する。   In step S07 of FIG. 3, the landmark object gravity center position coordinate calculation unit 32 stores the calculated temporary coordinates of the gravity center position of the landmark object in the storage unit 40.

ステップS08において、更なる移動先(ロボット位置)が規定されている場合(ステップS08 No)は、ステップS09において、当該移動先において、ステップS01からの処理を繰り返して実行する。そして、規定されている所定の位置において、処理を実行した後は、ランドマーク対象物の重心位置の最終的な仮の座標を、そのランドマーク対象物の重心位置の真の座標として、そのランドマーク情報と関連付けて環境地図に保存する。   In step S08, when a further movement destination (robot position) is defined (No in step S08), in step S09, the processing from step S01 is repeatedly executed in the movement destination. Then, after the processing is executed at the prescribed position specified, the final provisional coordinates of the center of gravity position of the landmark object are used as the true coordinates of the center of gravity position of the landmark object. Save it in the environmental map in association with the mark information.

なお、上述の形態では、2点のロボット位置で環境地図を作成したが、L字型(又は逆L字型)に移動して3点のロボット位置で環境地図を作成してもよく、コの字型(又は逆コの字型)に移動して4点のロボット位置で環境地図を作成してもよい。更に、これらの動作を任意の数組み合わせた複数点のロボット位置で環境地図を作成してもよい。移動経路は、ロボット装置1が適用される環境に合わせて設定しても良い。また、ステップS09において、ロボット装置1は移動せずに、位置Bその場において向きを変え位置Bを新たな位置Aとしてこれら手順を繰り返して周囲全体の地図を作成しても良い。結果として、L字型、コの字型に移動したものと同様の情報を得ることができる。ステップS09の移動はこのような動作も含んだ概念として記載している。   In the above-described embodiment, the environment map is created with two robot positions. However, the environment map may be created with three robot positions by moving to an L shape (or inverted L shape). The environment map may be created with four robot positions by moving to a U-shaped (or inverted U-shaped). Furthermore, an environment map may be created with a plurality of robot positions combining any number of these operations. The movement path may be set according to the environment to which the robot apparatus 1 is applied. In step S09, the robot apparatus 1 may change the direction at the position B and change the position B to the new position A to create a map of the entire surroundings without moving, in step S09. As a result, the same information as that moved to the L shape or the U shape can be obtained. The movement in step S09 is described as a concept including such an operation.

また、上述の形態では、ロボット位置Aで長方形を形成し、ロボット位置Bで四辺形を形成した。即ち、ロボット位置Aで撮影した画像を基準として、ロボット位置Bで撮影した画像との比較でランドマークを抽出した。そのため、ロボット位置Aでは撮影されておらず、ロボット位置Bで初めて撮影された対象物のランドマークは抽出されない。
従って、例えば、ロボット位置A→B→C→Dと移動する場合において、ロボット位置Aを基準としてロボット位置Bとの比較でランドマークを抽出したあとは、ロボット位置Bを基準としてロボット位置Cとの比較でランドマークを抽出し、ロボット位置Cを基準としてロボット位置Dとの比較でランドマークを抽出しても良い。
In the above-described embodiment, a rectangle is formed at the robot position A, and a quadrilateral is formed at the robot position B. That is, the landmark is extracted by comparing the image captured at the robot position A with the image captured at the robot position B as a reference. For this reason, the landmark of the object that is not photographed at the robot position A and is photographed for the first time at the robot position B is not extracted.
Therefore, for example, when moving from robot position A → B → C → D, after extracting a landmark by comparison with robot position B using robot position A as a reference, robot position C May be extracted, and the landmark may be extracted by comparison with the robot position D using the robot position C as a reference.

続いて、上述のようにして作成した環境地図を用いて自己位置を推定する方法を説明する。
図9は、自己位置を推定する手順を示すフロー図である。図10は、自己位置を推定する方法を説明するための図である。図9及び図10を参照しつつ自己位置を推定する動作について説明する。
ロボット装置1は、ユーザによって移動空間内の任意の位置に設置され動作開始を指示されたときに現在自身が存在する位置(自己位置)を推定する。更に、ロボット装置1は、所定距離移動したときに自己位置を推定する。従って、ロボットが自己位置を推定する際には、オドメトリにより自己位置が把握できる場合と、自己位置がまったく不明である場合の2つの場合が存在する。図9、図10に示す自己位置を推定する方法では、この2つの場合における自己位置推定方法を開示する。
Next, a method for estimating the self-location using the environment map created as described above will be described.
FIG. 9 is a flowchart showing a procedure for estimating the self-position. FIG. 10 is a diagram for explaining a method of estimating the self position. The operation of estimating the self position will be described with reference to FIGS.
The robot apparatus 1 estimates a position (self position) where the robot apparatus 1 is present when it is installed at an arbitrary position in the movement space and an operation start is instructed by the user. Furthermore, the robot apparatus 1 estimates its own position when it moves a predetermined distance. Therefore, when the robot estimates its own position, there are two cases: the case where the self position can be grasped by odometry and the case where the self position is completely unknown. The self-position estimation methods shown in FIGS. 9 and 10 disclose self-position estimation methods in these two cases.

ステップT01において、ロボット装置1は、位置認識フラグをセットして、自己位置推定動作を開始する。オドメトリにより自己位置が把握できる場合には位置認識フラグをオンとし、自己位置がまったく不明である場合には位置認識フラグをオフとする。   In step T01, the robot apparatus 1 sets a position recognition flag and starts a self-position estimation operation. The position recognition flag is turned on when the self position can be grasped by odometry, and the position recognition flag is turned off when the self position is completely unknown.

ステップT02において、ロボット装置1は、周囲を撮影して環境地図にあるランドマークと同一のランドマークを抽出する。このステップST02の処理は次のように実施する。   In step T02, the robot apparatus 1 captures the surroundings and extracts the same landmarks as those on the environment map. The process in step ST02 is performed as follows.

(500)環境画像撮影部21は、ロボット装置1の頭部のカメラ10で、現在位置(位置C)の周囲を撮影する。撮影枚数には制限が設けられない。撮影された複数枚の画像を撮影範囲の重複が生じないように水平方向につなぎ合わせて、1枚の画像(画像C)を生成する。   (500) The environment image photographing unit 21 photographs the surroundings of the current position (position C) with the camera 10 on the head of the robot apparatus 1. There is no limit on the number of shots. A plurality of photographed images are connected in the horizontal direction so as not to overlap the photographing ranges, and one image (image C) is generated.

(501)画像Cから特徴点を探索し、特徴点毎に特徴量と特徴点量(特徴情報C)を算出する。この処理は、ステップ01の処理(104)と同じであるため詳細の説明は省略する。   (501) A feature point is searched from the image C, and a feature amount and a feature point amount (feature information C) are calculated for each feature point. Since this process is the same as the process (104) of step 01, detailed description thereof is omitted.

(502)特徴情報Cを参照して、対応点抽出部30は、算出した特徴点の内、環境地図に保存されているランドマーク上の特徴点と対応する特徴点(対応点)を対応付ける。この処理は、図3のステップS04の処理(200)〜(204)と同じであるため詳細の説明は省略する。   (502) With reference to the feature information C, the corresponding point extraction unit 30 associates the feature points (corresponding points) corresponding to the feature points on the landmark stored in the environment map among the calculated feature points. Since this process is the same as the processes (200) to (204) in step S04 in FIG. 3, detailed description thereof is omitted.

(503)なお、対応点が存在していない場合は、現在の位置が不適当な場合であるため、位置を変更する。例えば、特徴点が画像の端部に存在している場合は、向きをその端部の方向に変更する。また特徴点が存在していない場合は、向きを後方に変更する。そして、処理(500)〜(502)を実行する。   (503) Note that if there is no corresponding point, the current position is inappropriate, so the position is changed. For example, when the feature point exists at the end of the image, the direction is changed to the direction of the end. If no feature point exists, the direction is changed backward. Then, processes (500) to (502) are executed.

(504)抽出された対応点を基にして、環境地図に保存されているランドマークと類似した特徴を有する領域を、画像Cから抽出する。この処理は、ステップS05の処理(300)〜(306)と同じであるため詳細の説明は省略する。
ここで抽出された領域は、環境地図に保存されているランドマークを画像Cの座標系へ射影変換した形状である。つまり、抽出された領域に対応する撮影対象物は、環境地図を作成する際に設定されたランドマーク対象物と同一であり、抽出された領域に対応する撮影対象物は、位置Cから撮影したランドマーク対象物である。実際は、対応点抽出や射影変換などの誤差により、抽出された領域に対応する撮影対象物の位置と設定されたランドマーク対象物の位置とは若干異なることがある。
(504) Based on the extracted corresponding points, an area having a feature similar to the landmark stored in the environment map is extracted from the image C. Since this process is the same as the processes (300) to (306) in step S05, a detailed description thereof will be omitted.
The extracted area is a shape obtained by projective transformation of the landmark stored in the environment map to the coordinate system of the image C. That is, the shooting target corresponding to the extracted area is the same as the landmark target set when creating the environment map, and the shooting target corresponding to the extracted area was shot from the position C. It is a landmark object. Actually, the position of the photographing object corresponding to the extracted area may be slightly different from the set position of the landmark object due to errors such as corresponding point extraction or projective transformation.

図9のステップT03において、環境地図から前記領域に対応する撮影対象物の重心の位置座標を得る。このようにして、画像C中に存在するランドマークの座標を環境地図から得る。   In step T03 of FIG. 9, the position coordinates of the center of gravity of the object to be imaged corresponding to the area are obtained from the environment map. In this way, the coordinates of landmarks existing in the image C are obtained from the environment map.

図9のステップT04において、ロボット装置1の現在位置Cを平板測量でよく用いられる交会法の応用によって求める。このステップT04の処理は次のように実施する。
図11は、現在位置を求める方法を説明するための図である。
In step T04 of FIG. 9, the current position C of the robot apparatus 1 is obtained by application of a meeting method often used in flat plate surveying. The process of step T04 is performed as follows.
FIG. 11 is a diagram for explaining a method for obtaining the current position.

(600)抽出されたランドマークを任意に2個選択する。図11に示すように選択した2個のランドマークに対応するランドマーク対象物をLMδ、LMεとし、その重心位置をそれぞれ位置δ、位置εとする。環境地図に保存されているランドマーク情報を基に、∠δCε(=∠θα)を算出する。   (600) Select two arbitrarily selected landmarks. As shown in FIG. 11, the landmark objects corresponding to the two selected landmarks are denoted by LMδ and LMε, and the center positions thereof are denoted by position δ and position ε, respectively. Based on the landmark information stored in the environmental map, ∠δCε (= 保存 θα) is calculated.

(601)位置δ、位置ε及び位置Cを通る円の中心座標Oαと半径R1とを求める。∠θαは円の円周角であるため、中心角は2×∠θαとして求められる。従って、この円の中心座標は、位置δ、位置εより等距離(=R1)にある頂角が2×∠θαの二等辺三角形の頂点座標として求めることができる。   (601) A center coordinate Oα and a radius R1 of a circle passing through the position δ, the position ε, and the position C are obtained. Since ∠θα is the circumference angle of the circle, the center angle is obtained as 2 × ∠θα. Therefore, the center coordinates of the circle can be obtained as vertex coordinates of an isosceles triangle having an apex angle of 2 × ∠θα that is equidistant (= R1) from the position δ and the position ε.

(602)抽出されたn個のランドマークの内、2個のランドマークを選択する全組合せ(nC2通り)について円の中心座標と半径とを求める。   (602) The center coordinates and radius of the circle are obtained for all combinations (nC2 ways) of selecting two landmarks among the extracted n landmarks.

(603)2個の円を選択すれば、位置Cはその交点座標で表すことができる。そこで、2個の円を選択する全組合せについて位置Cの交点座標を求める。そして、これらの相加平均を現在位置Cの座標として算出する。   (603) If two circles are selected, the position C can be expressed by the intersection coordinates. Therefore, the intersection coordinates of the position C are obtained for all combinations for selecting two circles. These arithmetic averages are calculated as the coordinates of the current position C.

図9のステップT05において、位置認識フラグがONか否かを判断する。
位置認識フラグがOFFの場合(ステップT05 No)、即ち自己位置がまったく不明である場合には、ステップT06において、交会法を応用して求めた現在位置Cをロボット装置1の自己位置とする。
そして、自己位置推定処理を終了する。
In step T05 of FIG. 9, it is determined whether or not the position recognition flag is ON.
When the position recognition flag is OFF (No at Step T05), that is, when the self position is completely unknown, the current position C obtained by applying the meeting method is set as the self position of the robot apparatus 1 at Step T06.
Then, the self-position estimation process ends.

位置認識フラグがONの場合(ステップT05 No)、即ちオドメトリにより自己位置が把握できる場合には、ステップT07において、オドメトリによる現在位置を算出する。
そして、ステップT08において、オドメトリにより算出された位置座標と交会法で算出された位置座標とを融合して新たに位置座標を算出し、この座標を現在位置Cの真の座標とする。
When the position recognition flag is ON (No at Step T05), that is, when the self position can be grasped by odometry, the current position by odometry is calculated at Step T07.
In step T08, a new position coordinate is calculated by fusing the position coordinate calculated by odometry and the position coordinate calculated by the intersection method, and this coordinate is set as the true coordinate of the current position C.

ここで融合とは、オドメトリによる誤差と交会法による誤差をお互いに相殺するように、オドメトリと交会法の両者の値を処理して、より真実に近い値を算出する手法である。融合については、例えば、POEM(Position Estimation module)や、「日本ロボット学会誌 Vol.15 No.8,PP.1180〜1187,1997」などを参考にして行うことができる。   Here, the fusion is a method of calculating a value closer to the truth by processing both the values of the odometry and the association method so that the error due to the odometry and the error due to the association method cancel each other. The fusion can be performed with reference to, for example, POEM (Position Estimation module) or “Journal of the Robotics Society of Japan Vol.15 No.8, PP.1180-1187,1997”.

以上、説明した実施の形態によれば、種々の効果を得ることができる。   As described above, according to the embodiment described above, various effects can be obtained.

本実施の形態のロボット装置では、従来のロボットにおいて標準的に装備されていたレーザレンジファインダなどの測距手段は搭載していない。また、周囲環境を撮影するカメラも1台である。従って、ロボット装置のコストを低減することができる。
また、このような低廉なハードウエア構成において、所要の精度を確保するために、環境地図は、ランドマークを表す特徴量、ランドマークを表す重心位置座標などのランドマーク情報の集合で構成している。この結果、画像処理などの処理時間と処理データが少なくなり、負荷の大きい演算処理を排除することが可能となっている。
The robot apparatus according to the present embodiment is not equipped with a distance measuring means such as a laser range finder that is normally equipped in a conventional robot. There is also one camera that captures the surrounding environment. Therefore, the cost of the robot apparatus can be reduced.
Also, in such an inexpensive hardware configuration, in order to ensure the required accuracy, the environmental map is composed of a set of landmark information such as feature quantities representing landmarks and barycentric position coordinates representing landmarks. Yes. As a result, the processing time and processing data for image processing and the like are reduced, and it is possible to eliminate arithmetic processing with a large load.

また、ランドマークの位置をランドマークの特徴量分布から求めた四辺形の重心位置として一点の座標位置で規定している。この結果、自己位置推定処理が簡便化され効率的に処理することが可能となった。   In addition, the position of the landmark is defined by the coordinate position of one point as the center of gravity of the quadrilateral obtained from the feature amount distribution of the landmark. As a result, the self-position estimation process is simplified and can be processed efficiently.

このように、本実施の形態のロボット装置は、ホームユースに求められる精度を確保しつつ安価に実現することのできる歩行ロボット装置として構成されている。   Thus, the robot apparatus according to the present embodiment is configured as a walking robot apparatus that can be realized at low cost while ensuring the accuracy required for home use.

なお、上述の各実施の形態で説明した機能は、ハードウェアを用いて構成するに留まらず、ソフトウェアを用いて各機能を記載したプログラムをコンピュータに読み込ませて実現することもできる。また、各機能は、適宜ソフトウェア、ハードウェアのいずれかを選択して構成するものであっても良い。   Note that the functions described in the above-described embodiments are not limited to being configured using hardware, and can be realized by causing a computer to read a program describing each function using software. Each function may be configured by appropriately selecting either software or hardware.

尚、本発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。
上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage.
Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, you may combine suitably the component covering different embodiment.

1…ロボット装置、10…カメラ、21…環境画像撮影部、22…環境画像連結部、23…特徴情報生成部、24…歩行処理部、25…現在位置座標算出部、26…撮影情報生成部、27…ランドマーク候補生成部、30…対応点抽出部、31…ランドマーク生成部、32…ランドマーク対象物重心位置座標算出部、40…記憶部。   DESCRIPTION OF SYMBOLS 1 ... Robot apparatus, 10 ... Camera, 21 ... Environmental image imaging | photography part, 22 ... Environmental image connection part, 23 ... Feature information generation part, 24 ... Walk processing part, 25 ... Current position coordinate calculation part, 26 ... Shooting information generation part 27 ... Landmark candidate generation unit, 30 ... Corresponding point extraction unit, 31 ... Landmark generation unit, 32 ... Landmark object center of gravity position coordinate calculation unit, 40 ... Storage unit.

Claims (5)

搭載した一台の撮像装置を用いて撮影した画像に基づいて環境地図を生成し、生成した環境地図を用いて自己位置を推定して、所定領域内を2足歩行する歩行ロボット装置であって、
環境地図を作成する機能は、
2ヶ所において撮影した地図作成用環境画像から撮影対象物毎に当該撮影対象物を示す代表点を抽出する代表点抽出部と、
2ヶ所において撮影した地図作成用環境画像のそれぞれの代表点の位置と、撮影した歩行ロボット装置の位置座標とから前記撮影対象物の位置座標を求める位置座標取得部と、
前記撮影した地図作成用環境画像、代表点の位置及び前記撮影対象物の位置座標とを関連付けた環境地図を作成する環境地図作成部とを有し、
自己位置を推定する機能は、
任意の位置座標において撮影した位置推定用環境画像中の撮影対象物と、前記環境地図に含まれる地図作成用環境画像中の撮影対象物とを対応させる撮影対象物対応部と、
位置推定用環境画像中の撮影対象物の代表点に、対応する地図作成用環境画像中の撮影対象物の位置座標を対応させる位置座標対応部と、
位置座標が対応した位置推定用環境画像中の撮影対象物の代表点を用いた交会法によって前記歩行ロボット装置の自己位置を算出する自己位置算出部とを有し、
前記撮影対象物を示す代表点は、前記撮影対象物上の複数の特徴ある点から求められる当該撮影対象物を代表して示す点であること
を特徴とする歩行ロボット装置。
A walking robot device that generates an environment map based on an image captured using a single image pickup device, estimates a self-position using the generated environment map, and walks two legs in a predetermined area. ,
The ability to create an environmental map
A representative point extracting unit that extracts a representative point indicating the photographing object for each photographing object from the map creation environment images photographed at two locations;
A position coordinate acquisition unit for obtaining the position coordinates of the object to be photographed from the positions of the representative points of the map creation environment images photographed at two locations and the position coordinates of the photographed walking robot device;
An environment map creation unit that creates an environment map that associates the captured map creation environment image, the position of a representative point, and the position coordinates of the object to be photographed;
The function to estimate the self-position is
An imaging object corresponding unit that associates an imaging object in the position estimation environment image captured at an arbitrary position coordinate with an imaging object in the map creation environment image included in the environment map;
A position coordinate corresponding unit that associates the position coordinates of the imaging object in the corresponding mapping image with the representative point of the imaging object in the environment image for position estimation;
Position coordinates have a self position calculating unit for calculating its own position of the walking robot by resection method using representative points of the object to be shot in the location estimation environment image corresponding,
The walking robot device according to claim 1, wherein the representative point indicating the photographing target is a point representative of the photographing target obtained from a plurality of characteristic points on the photographing target .
自己位置を推定する機能は、
歩行ロボット装置の移動において、歩数、歩幅、旋回角を積算して自己位置を算出する現在位置座標算出部と、
前記自己位置算出部が算出した自己位置と前記現在位置座標算出部が算出した自己位置とを融合して新たな自己位置を算出する手段とを更に備えること
を特徴とする請求項1に記載の歩行ロボット装置。
The function to estimate the self-position is
In the movement of the walking robot device, a current position coordinate calculation unit for calculating the self position by integrating the number of steps, the step length, and the turning angle;
The apparatus according to claim 1, further comprising means for calculating a new self-position by fusing the self-position calculated by the self-position calculation unit and the self-position calculated by the current position coordinate calculation unit . Walking robot device.
前記撮像装置を設けた頭部を回動して撮影した複数の画像を連結して前記地図作成用環境画像及び位置推定用環境画像を生成する連結部を更に備えることを特徴とする請求項2に記載の歩行ロボット装置。   The apparatus further comprises a connecting unit that connects a plurality of images captured by rotating a head provided with the imaging device to generate the environment image for mapping and the environment image for position estimation. The walking robot device described in 1. 環境地図を作成する機能は、環境地図を作成するために歩行と停止とを繰り返して移動する際、停止する毎に地図作成用環境画像を撮影する撮影部を更に備えたことを特徴とする請求項3に記載の歩行ロボット装置。   The function of creating an environmental map further includes a photographing unit for photographing an environmental image for map creation every time the vehicle stops and moves repeatedly to create an environmental map. Item 4. The walking robot device according to item 3. 搭載した一台の撮像装置を用いて撮影した画像に基づいて環境地図を生成し、生成した環境地図を用いて自己位置を推定して、所定領域内を2足歩行する歩行ロボット装置を制御するプログラムであって、
環境地図を作成する際は、
2ヶ所において撮影した地図作成用環境画像から撮影対象物毎に当該撮影対象物を示す代表点を抽出するステップと、
2ヶ所において撮影した地図作成用環境画像のそれぞれの代表点の位置と、撮影した歩行ロボット装置の位置座標とから前記撮影対象物の位置座標を求めるステップと、
前記撮影した地図作成用環境画像、代表点の位置及び前記撮影対象物の位置座標とを関連付けた環境地図を作成するステップと
を前記歩行ロボットに搭載した制御用コンピュータに実行させ、
自己位置を推定する際は、
任意の位置座標において撮影した位置推定用環境画像中の撮影対象物と、前記環境地図に含まれる地図作成用環境画像中の撮影対象物とを対応させるステップと、
位置推定用環境画像中の撮影対象物の代表点に、対応する地図作成用環境画像中の撮影対象物の位置座標を対応させるステップと、
位置座標が対応した位置推定用環境画像中の撮影対象物の代表点を用いた交会法によって前記歩行ロボット装置の自己位置を算出するステップと
を前記歩行ロボットに搭載した制御用コンピュータに実行させ
前記撮影対象物を示す代表点は、前記撮影対象物上の複数の特徴ある点から求められる当該撮影対象物を代表して示す点である、プログラム。
An environment map is generated based on an image photographed using one mounted image pickup device, the self-position is estimated using the generated environment map, and a walking robot apparatus that walks two legs in a predetermined area is controlled. A program,
When creating an environmental map,
Extracting representative points indicating the object to be photographed for each object to be photographed from the map creation environment images photographed at two locations;
Obtaining the position coordinates of the object to be photographed from the positions of the representative points of the map creation environment images photographed at two locations and the position coordinates of the photographed walking robot device;
Creating an environment map in which the captured map creation environment image, the position of the representative point, and the position coordinates of the object to be photographed are associated with each other.
When estimating your position,
Associating a photographing object in a position estimation environment image photographed at an arbitrary position coordinate with a photographing object in a map creation environment image included in the environment map;
Associating the position coordinates of the imaging object in the corresponding mapping environment image with the representative point of the imaging object in the position estimation environment image;
A step of calculating a self-position of the walking robot device by a meeting method using a representative point of the photographing object in the position estimation environment image corresponding to the position coordinates , and causing the control computer mounted on the walking robot to execute
The representative point indicating the object to be photographed is a program that represents the object to be photographed representatively obtained from a plurality of characteristic points on the object to be photographed .
JP2011080577A 2011-03-31 2011-03-31 Walking robot apparatus and control program therefor Active JP5222971B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011080577A JP5222971B2 (en) 2011-03-31 2011-03-31 Walking robot apparatus and control program therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011080577A JP5222971B2 (en) 2011-03-31 2011-03-31 Walking robot apparatus and control program therefor

Publications (2)

Publication Number Publication Date
JP2012216051A JP2012216051A (en) 2012-11-08
JP5222971B2 true JP5222971B2 (en) 2013-06-26

Family

ID=47268766

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011080577A Active JP5222971B2 (en) 2011-03-31 2011-03-31 Walking robot apparatus and control program therefor

Country Status (1)

Country Link
JP (1) JP5222971B2 (en)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102142162B1 (en) 2012-08-27 2020-09-14 에이비 엘렉트로룩스 Robot positioning system
WO2014169944A1 (en) 2013-04-15 2014-10-23 Aktiebolaget Electrolux Robotic vacuum cleaner with protruding sidebrush
KR102118769B1 (en) 2013-04-15 2020-06-03 에이비 엘렉트로룩스 Robotic vacuum cleaner
EP3082541B1 (en) 2013-12-19 2018-04-04 Aktiebolaget Electrolux Adaptive speed control of rotating side brush
JP6494118B2 (en) 2013-12-19 2019-04-03 アクチエボラゲット エレクトロルックス Control method of robot cleaner associated with detection of obstacle climbing, and robot cleaner, program, and computer product having the method
CN105813526B (en) * 2013-12-19 2021-08-24 伊莱克斯公司 Robot cleaning device and method for landmark recognition
CN105849660B (en) 2013-12-19 2020-05-08 伊莱克斯公司 Robot cleaning device
CN105793790B (en) 2013-12-19 2022-03-04 伊莱克斯公司 Prioritizing cleaning zones
CN105792721B (en) 2013-12-19 2020-07-21 伊莱克斯公司 Robotic vacuum cleaner with side brush moving in spiral pattern
ES2656664T3 (en) 2013-12-19 2018-02-28 Aktiebolaget Electrolux Robotic cleaning device with perimeter registration function
KR102116595B1 (en) 2013-12-20 2020-06-05 에이비 엘렉트로룩스 Dust container
JP6443897B2 (en) 2014-09-08 2018-12-26 アクチエボラゲット エレクトロルックス Robot vacuum cleaner
EP3190938A1 (en) 2014-09-08 2017-07-19 Aktiebolaget Electrolux Robotic vacuum cleaner
US10877484B2 (en) 2014-12-10 2020-12-29 Aktiebolaget Electrolux Using laser sensor for floor type detection
EP3229983B1 (en) 2014-12-12 2019-02-20 Aktiebolaget Electrolux Side brush and robotic cleaner
CN106998984B (en) 2014-12-16 2021-07-27 伊莱克斯公司 Cleaning method for a robotic cleaning device
JP6879478B2 (en) 2014-12-16 2021-06-02 アクチエボラゲット エレクトロルックス Experience-based roadmap for robot vacuums
WO2016165772A1 (en) 2015-04-17 2016-10-20 Aktiebolaget Electrolux Robotic cleaning device and a method of controlling the robotic cleaning device
EP3344104B1 (en) 2015-09-03 2020-12-30 Aktiebolaget Electrolux System of robotic cleaning devices
JP6288060B2 (en) 2015-12-10 2018-03-07 カシオ計算機株式会社 Autonomous mobile device, autonomous mobile method and program
JP6311695B2 (en) 2015-12-16 2018-04-18 カシオ計算機株式会社 Autonomous mobile device, autonomous mobile method and program
JP6323439B2 (en) * 2015-12-17 2018-05-16 カシオ計算機株式会社 Autonomous mobile device, autonomous mobile method and program
JP6187623B1 (en) 2016-03-14 2017-08-30 カシオ計算機株式会社 Autonomous mobile device, autonomous mobile method and program
EP3430424B1 (en) 2016-03-15 2021-07-21 Aktiebolaget Electrolux Robotic cleaning device and a method at the robotic cleaning device of performing cliff detection
CN107229274B (en) * 2016-03-24 2022-06-28 松下电器(美国)知识产权公司 Position indication method, terminal device, self-propelled device, and program
EP3454707B1 (en) 2016-05-11 2020-07-08 Aktiebolaget Electrolux Robotic cleaning device
KR20220025250A (en) 2017-06-02 2022-03-03 에이비 엘렉트로룩스 Method of detecting a difference in level of a surface in front of a robotic cleaning device
JP6989210B2 (en) 2017-09-26 2022-01-05 アクチエボラゲット エレクトロルックス Controlling the movement of robot cleaning devices
CN112183171A (en) * 2019-07-05 2021-01-05 杭州海康机器人技术有限公司 Method and device for establishing beacon map based on visual beacon
CN110349207B (en) * 2019-07-10 2022-08-05 国网四川省电力公司电力科学研究院 Visual positioning method in complex environment
JP2021081850A (en) * 2019-11-15 2021-05-27 株式会社東芝 Location estimation device, location estimation method, and program
JP7199337B2 (en) * 2019-11-15 2023-01-05 株式会社東芝 Position estimation device, position estimation method and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4984650B2 (en) * 2006-05-30 2012-07-25 トヨタ自動車株式会社 Mobile device and self-position estimation method of mobile device
JP5068840B2 (en) * 2010-03-30 2012-11-07 富士ソフト株式会社 Robot program and information processing apparatus program

Also Published As

Publication number Publication date
JP2012216051A (en) 2012-11-08

Similar Documents

Publication Publication Date Title
JP5222971B2 (en) Walking robot apparatus and control program therefor
CN112785702B (en) SLAM method based on tight coupling of 2D laser radar and binocular camera
CN107907131B (en) positioning system, method and applicable robot
US9953461B2 (en) Navigation system applying augmented reality
KR102016551B1 (en) Apparatus and method for estimating position
Wang et al. A simple and parallel algorithm for real-time robot localization by fusing monocular vision and odometry/AHRS sensors
US8824775B2 (en) Robot and control method thereof
JP5803367B2 (en) Self-position estimation apparatus, self-position estimation method and program
JP5018458B2 (en) Coordinate correction method, coordinate correction program, and autonomous mobile robot
US20130166137A1 (en) Mobile apparatus and localization method thereof
KR101423139B1 (en) Method for localization and mapping using 3D line, and mobile body thereof
JP2014139538A (en) Topography information acquisition device, topography information acquisition system, topography information acquisition method and program
Shen et al. Localization through fusion of discrete and continuous epipolar geometry with wheel and IMU odometry
Nüchter et al. A man-portable, IMU-free mobile mapping system
Zhou et al. On-board inertial-assisted visual odometer on an embedded system
Bazin et al. UAV attitude estimation by vanishing points in catadioptric images
CN115191113A (en) Wide-view angle stereo camera device and depth image processing method using same
Unicomb et al. Distance function based 6dof localization for unmanned aerial vehicles in gps denied environments
Huai et al. Real-time large scale 3D reconstruction by fusing Kinect and IMU data
Chappellet et al. Humanoid loco-manipulations using combined fast dense 3d tracking and slam with wide-angle depth-images
Hoang et al. A simplified solution to motion estimation using an omnidirectional camera and a 2-D LRF sensor
Mohareri et al. Autonomous humanoid robot navigation using augmented reality technique
WO2022227632A1 (en) Image-based trajectory planning method and motion control method, and mobile machine using same
JP2018156538A (en) Autonomous mobile device, image processing method and program
Hernández et al. Visual SLAM with oriented landmarks and partial odometry

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130311

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5222971

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250