JP2011008320A - Autonomous mobile unit, self position estimating device, and program - Google Patents
Autonomous mobile unit, self position estimating device, and program Download PDFInfo
- Publication number
- JP2011008320A JP2011008320A JP2009148424A JP2009148424A JP2011008320A JP 2011008320 A JP2011008320 A JP 2011008320A JP 2009148424 A JP2009148424 A JP 2009148424A JP 2009148424 A JP2009148424 A JP 2009148424A JP 2011008320 A JP2011008320 A JP 2011008320A
- Authority
- JP
- Japan
- Prior art keywords
- data
- environment
- wall surface
- self
- obstacle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000005259 measurement Methods 0.000 claims abstract description 13
- 238000001514 detection method Methods 0.000 claims description 25
- 230000007613 environmental effect Effects 0.000 claims description 19
- 239000013598 vector Substances 0.000 claims description 18
- 230000000007 visual effect Effects 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 5
- 238000000034 method Methods 0.000 abstract description 31
- 238000013519 translation Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 239000002245 particle Substances 0.000 description 3
- 230000000295 complement effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
本発明は、自律的に移動する自律移動体および自律移動体の自己位置推定方法に関する。 The present invention relates to an autonomous mobile body that moves autonomously and a self-position estimation method of the autonomous mobile body.
近年、ロボットや車両などが自ら目的を達するために考えて、自律移動をする自律移動体が開発されている。自律移動体は、自己が有する参照マップを参照することによって移動経路を計画し、当該移動経路に従って移動を行う。自律移動体において、自身の周囲の環境を認識して経路計画を立て、それに応じて移動する能力は重要である。 In recent years, autonomous moving bodies that move autonomously have been developed in consideration of the purpose of robots, vehicles, etc. themselves. The autonomous mobile body plans a movement route by referring to a reference map that it has, and moves according to the movement route. In an autonomous mobile body, the ability to recognize a surrounding environment and make a route plan and move accordingly is important.
特許文献1では自律移動ロボットが、所定環境内において、自己の位置と壁面との距離を計測して現在位置を推定して目的地に向かう技術が開示されている。該文献では、自己位置の計測ができなくなった場合の回復手段の開示もされている。
また、特許文献2には床面に段差がある領域での移動においても、移動可能か否か判定するための環境マップを作成することができる装置が開示されている。
このように、近年では移動体が適切な自律移動をするための手法について開発されている。
Further,
As described above, in recent years, a technique for allowing a mobile body to perform appropriate autonomous movement has been developed.
特許文献1の自律移動体は、自己の周囲を計測して、自己の位置と周囲の壁面との距離を測る。すなわち、所定環境内の壁面を基準として自己の位置を推定、または修正している。
しかし、前記所定環境内に固定的に存在する障害物は平らな壁面(以下、壁面)だけに限られない。例えば、円弧を描く壁面(以下、曲壁面)、円柱状の柱および所定環境内の床面と高さの異なる段差などが存在している場合もある。
The autonomous mobile body of
However, the obstacle that is fixedly present in the predetermined environment is not limited to a flat wall surface (hereinafter referred to as a wall surface). For example, there may be a wall surface (hereinafter referred to as a curved wall surface) that draws an arc, a columnar column, a step difference in height from the floor surface in a predetermined environment, and the like.
段差は、単なる段差である場合もあるし、移動障害物である場合もある。移動障害物は人間、台車または、他の移動体などが挙げられる。また、柱もまた移動障害物である可能性がある。自律移動体は、固定障害物を基準に自己位置を推定するため、移動障害物を誤って認識した場合には、自己位置を誤って推定する可能性がある。
また、曲壁面および円柱状の柱などは平面検出手段などで検出することはできない。
The step may be a simple step or a moving obstacle. Examples of moving obstacles include humans, carts, and other moving objects. The pillars can also be moving obstacles. Since the autonomous mobile body estimates its own position on the basis of a fixed obstacle, there is a possibility that if the moving obstacle is recognized by mistake, the self-position is erroneously estimated.
Further, a curved wall surface and a columnar column cannot be detected by a plane detecting means or the like.
本発明は、上述の問題を解決するためになされたものであり、自律移動体が自己位置を推定する際に移動障害物の影響を受け難くするとともに、壁面以外の障害物の計測情報も自己位置推定に利用することができる自律移動体および自己位置推定プログラムを提供することを目的とする。 The present invention has been made in order to solve the above-described problem, and makes it difficult for an autonomous mobile body to be affected by a moving obstacle when estimating its own position, and also measures measurement information of obstacles other than walls on its own. An object is to provide an autonomous mobile body and a self-position estimation program that can be used for position estimation.
本発明に係る自律移動体は、移動環境を計測する視覚センサと、前記視覚センサによる計測結果を用いて、前記移動環境内に存在する障害物に関する3次元の位置データ群を含む環境データを生成する3次元環境データ生成部と、前記環境データを用いて、前記移動環境内に存在する平らな壁面を検出する壁面検出部と、前記環境データに含まれる前記位置データ群のうち第1の高さ範囲に属する位置データによって特定される障害物の位置情報、および前記壁面の位置情報を、前記移動環境内に固定的に存在する固定障害物の位置を示す参照マップと照合することによって、自己の位置を推定する自己位置推定部と、を備える自律移動体である。
人間や台車または他の移動体のような移動障害物は、壁や柱などの固定障害物に比べて、高さが低く、3次元空間内の一部に存在する。したがって、特定の高さよりも高い位置データを有する位置情報を基に参照マップと照合することによって、自律移動体が自己位置を推定する際に移動障害物の影響を受け難くするとともに、壁面以外の障害物の計測情報も自己位置推定に利用することが可能となり、正確な自己位置推定が可能となる。
The autonomous mobile body according to the present invention generates environmental data including a three-dimensional position data group related to an obstacle existing in the moving environment by using a visual sensor that measures the moving environment and a measurement result by the visual sensor. A three-dimensional environment data generating unit, a wall surface detecting unit for detecting a flat wall surface existing in the moving environment using the environment data, and a first high-level data among the position data group included in the environment data. By comparing the position information of the obstacle specified by the position data belonging to the range and the position information of the wall surface with a reference map indicating the position of the fixed obstacle that is fixedly present in the moving environment, A self-position estimation unit that estimates the position of
Moving obstacles such as humans, trolleys or other moving bodies are lower in height than fixed obstacles such as walls and pillars, and exist in a part of the three-dimensional space. Therefore, by collating with the reference map based on position information having position data higher than a specific height, the autonomous mobile body is less susceptible to moving obstacles when estimating its own position, and other than the wall surface Obstacle measurement information can also be used for self-position estimation, and accurate self-position estimation becomes possible.
また、前記第1の高さ範囲は、前記位置データ群の高さ分布に基づいて決定されてもよい。前述のように、障害物の高さによって、固定障害物か移動障害物かの傾向がわかる。本構成により、移動障害物を効率よく省いて、前記参照マップとの照合が可能となる。 Further, the first height range may be determined based on a height distribution of the position data group. As described above, the tendency of a fixed obstacle or a moving obstacle can be determined depending on the height of the obstacle. With this configuration, it is possible to efficiently eliminate moving obstacles and collate with the reference map.
さらに、前記第1の高さ範囲は、前記位置データ群のうち最も高さが高いデータを含むように決定されることが好ましい。前述のように、移動障害物などは壁面と比較すると高さが低いため、自己位置推定には不要な移動障害物を抽出せずに固定障害物である曲壁面および円柱状の柱などだけを抽出することが可能となる。 Furthermore, it is preferable that the first height range is determined so as to include data having the highest height in the position data group. As mentioned above, moving obstacles are low in height compared to wall surfaces, so only the curved wall surfaces and cylindrical columns that are fixed obstacles are extracted without extracting moving obstacles that are not necessary for self-position estimation. It becomes possible to extract.
さらにまた、前記位置データ群は、前記環境データに含まれる前記位置データ群から前記壁面に対応する位置データ群を除いた残りのデータ群であってもよい。 Furthermore, the position data group may be a remaining data group obtained by removing the position data group corresponding to the wall surface from the position data group included in the environment data.
ここで、前記位置データに信頼度を付与する信頼度設定部をさらに備えてもよく、前記信頼度設定部は、前記位置データ群のうち第1の高さ範囲に属する位置データによって特定される障害物の位置情報に設定する信頼度よりも、前記壁面の位置情報に設定する信頼度を高くし、前記自己位置推定部は、前記信頼度の高い位置情報を参照マップとの照合に優先的に用いる。この場合、壁や柱などの高さが高い物体と、段差などの高さが低い物体の信頼度を分けることが可能であり、固定障害物と移動障害物の区別が可能となる。なお、本発明でいう信頼度とは、3次元環境データから抽出された壁、柱、段差、その他の障害物が、移動障害物であるか否かを示す度合であり、信頼度が低いほど移動障害物として判断され、その情報を利用することなく自己位置推定することができる。 Here, a reliability setting unit that gives reliability to the position data may be further provided, and the reliability setting unit is specified by position data belonging to a first height range in the position data group. The reliability set in the position information of the wall surface is made higher than the reliability set in the position information of the obstacle, and the self-position estimation unit preferentially matches the position information with the high reliability with the reference map. Used for. In this case, it is possible to separate the reliability of an object having a high height, such as a wall or a column, and an object having a low height, such as a step, so that a fixed obstacle and a moving obstacle can be distinguished. The reliability referred to in the present invention is a degree indicating whether walls, columns, steps, and other obstacles extracted from the three-dimensional environment data are moving obstacles, and the lower the reliability. It is determined as a moving obstacle, and self-location can be estimated without using the information.
また、前記信頼度設定部は、前記環境データに含まれる前記位置データ群のうち第1の高さ範囲に属する位置データによって特定される障害物の位置情報および前記壁面の位置情報をグリッドデータに変換し、前記位置データの夫々が対応する各グリッドに、前記位置データの数に基づいて信頼度を設定してもよい。 Further, the reliability setting unit uses the position data of the obstacle and the position information of the wall surface specified by the position data belonging to the first height range in the position data group included in the environment data as grid data. The degree of reliability may be set based on the number of the position data in each grid corresponding to the position data after conversion.
また、前記自己位置推定部は、前記壁面の法線ベクトルを用いて、前記参照マップによって特定される前記固定障害物の配置に前記壁面を重ね合わせるための回転角度を算出することが好ましい。夫々の壁面の法線ベクトルが一致する回転角度を求めることで、夫々の点と点をマッチングして自己位置推定するよりも、正確な自己位置推定が可能となる。 The self-position estimation unit preferably calculates a rotation angle for superimposing the wall surface on the arrangement of the fixed obstacle specified by the reference map, using a normal vector of the wall surface. By obtaining a rotation angle at which the normal vectors of the respective wall surfaces coincide with each other, it is possible to perform accurate self-position estimation rather than matching each point and self-position estimation.
他方、本発明に係る自己位置推定装置は、移動環境内に存在する障害物に関する3次元の位置データ群を含む環境データに含まれる前記位置データ群のうち第1の高さ範囲に属する位置データによって特定される障害物の位置情報と、前記環境データを用いて検出された平らな壁面の位置情報を、前記移動環境内に固定的に存在する固定障害物の位置を示す参照マップと照合することによって、自己の位置を推定することを特徴とする。 On the other hand, the self-position estimation apparatus according to the present invention includes position data belonging to a first height range among the position data groups included in the environment data including three-dimensional position data groups related to obstacles existing in the moving environment. The position information of the obstacle specified by the position information and the position information of the flat wall surface detected using the environment data are collated with a reference map indicating the position of the fixed obstacle existing in the moving environment. Thus, it is characterized by estimating its own position.
また、本発明に係る自己位置推定プログラムは、移動環境内に存在する障害物に関する3次元の位置データ群を含む環境データに含まれる前記位置データ群のうち第1の高さ範囲に属する位置データによって特定される障害物の位置情報と、前記環境データを用いて検出された平らな壁面の位置情報を、前記移動環境内に固定的に存在する固定障害物の位置を示す参照マップと照合することによって、自己の位置を推定する自己位置推定ステップを備える、自己位置推定処理をコンピュータに実行させるためのプログラムである。 In addition, the self-position estimation program according to the present invention includes position data belonging to a first height range among the position data groups included in the environment data including three-dimensional position data groups related to obstacles existing in the moving environment. The position information of the obstacle specified by the position information and the position information of the flat wall surface detected using the environment data are collated with a reference map indicating the position of the fixed obstacle existing in the moving environment. Thus, there is provided a program for causing a computer to execute a self-position estimation process including a self-position estimation step for estimating the self-position.
本発明により、自律移動体が自己位置を推定する際に移動障害物の影響を受け難くするとともに、壁面以外の障害物の計測情報も自己位置推定に利用することが可能となり、正確な自己位置を推定することができる自律移動体およびその自己位置推定プログラムを提供することができる。 According to the present invention, when an autonomous mobile body estimates its own position, it becomes difficult to be affected by a moving obstacle, and measurement information of obstacles other than the wall surface can be used for self-position estimation. It is possible to provide an autonomous mobile body that can estimate the position of the vehicle and a self-position estimation program thereof.
以下では、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。各図面において、同一要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。 Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings. In the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted as necessary for the sake of clarity.
<発明の実施の形態1>
図1に実施の形態1に係る自律移動体(以下、移動体)100の構成を示す。移動体100は視覚センサ2、3次元環境データ生成部4、壁面検出部6および自己位置推定部8など備えている。
<
FIG. 1 shows a configuration of autonomous mobile body (hereinafter referred to as mobile body) 100 according to
視覚センサ2は、レーザレンジファインダ等のアクティブ距離センサを有している。そして、視覚センサ2は、所定環境の距離画像データを取得する。視覚センサ2が計測を行う範囲は、視覚センサ2の性能によって規定される。
The
なお、視覚センサ2としては、CCD(Charge Coupled Device)イメージセンサまたはCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子を備えた複数のカメラを備えてもよい。そして、視覚センサ2は、これら複数のカメラによって撮影した画像データを用いて距離画像データを生成してもよい。具体的には、視覚センサ2は、複数のカメラによって撮影した画像データから対応点を検出する。次いで、視覚センサ2は、ステレオ視によって対応点の3次元位置を復元すればよい。ここで、複数の撮影画像における対応点の探索は、複数の撮影画像に対する自空間微分の拘束式を用いた勾配法や相関法等の公知の手法を適用して行えばよい。
The
3次元環境データ生成部4では、距離画像データの座標変換を行って環境データを生成する。なお、環境データとは、画像データに含まれる多数の計測点の位置ベクトルを3次元直交座標系で表したデータの集合である。ここで、環境データは位置データ群を含み、前記位置データ群の座標は、移動体100に固定された装置座標系で表示されていてもよいし、環境に固定されたグローバル座標系で表示されていてもよい。
The three-dimensional environment data generation unit 4 generates the environment data by performing coordinate conversion of the distance image data. The environmental data is a set of data in which position vectors of a large number of measurement points included in the image data are represented by a three-dimensional orthogonal coordinate system. Here, the environment data includes a position data group, and the coordinates of the position data group may be displayed in a device coordinate system fixed to the moving
壁面検出部6は、環境データから平面を検出し、検出された平面のなかで床面に平行な法線ベクトルを持つ平面を壁面として検出する。また、壁面検出部6は、検出した平面に平面IDを付与する。
本実施の形態における平面検出には、プレーンセグメントファインダ(Plane Segment Finder(PLS))と呼ばれる手法を用いればよい。プレーンセグメントファインダでは、まず、3次元の点群から2点をランダムにサンプリングする。次いで、当該2点のベクトルをクラスタリングすることにより、平面の位置姿勢を求めるアルゴリズムである。
具体的には、プレーンセグメントファインダでは、まず、環境データに対してランダマイズド3次元ハフ変換を行って、最大平面の傾きを検出する。次に、再び、ランダマイズド3次元ハフ変換を用いて、当該最大平面と原点との距離を検出する。そして、当該最大平面に属する点を抽出することにより、平面領域(プレーンセグメント)を検出する。
The wall
For the plane detection in the present embodiment, a method called a plane segment finder (PLS) may be used. In the plane segment finder, first, two points are randomly sampled from a three-dimensional point group. Next, an algorithm for obtaining the position and orientation of the plane by clustering the vectors of the two points.
Specifically, in the plane segment finder, first, a randomized three-dimensional Hough transform is performed on the environmental data to detect the inclination of the maximum plane. Next, the distance between the maximum plane and the origin is detected again using the randomized three-dimensional Hough transform. Then, a plane area (plane segment) is detected by extracting a point belonging to the maximum plane.
より具体的には、プレーンセグメントファインダにおいて、平面は、以下の数式(1)により表わされる。
ρ=(x0cos(θ)+y0sin(θ))cos(φ)+z0sin(φ)
・・・・・・(1)
数式(1)において、ρは平面から原点へ下ろした垂線の長さ、θは当該垂線をxy平面に投影した線とx軸とのなす角、φは当該垂線とxy平面とのなす角である。
そして、環境データ内の各測定点(x0,y0,z0)を(ρ,θ,φ)空間に投影し、ピークを検出することにより、平面を検出する。プレーンセグメントファインダでは、複数に分割された平面であっても検出することができる。また、環境データの所定部分の測定点のみを(ρ,θ,φ)空間の部分空間に投影して、検出範囲を狭めることができる。これにより、計算コストを大幅に低減することも可能である。
More specifically, in the plane segment finder, the plane is represented by the following formula (1).
ρ = (x 0 cos (θ) + y 0 sin (θ)) cos (φ) + z 0 sin (φ)
(1)
In Equation (1), ρ is the length of a perpendicular line drawn from the plane to the origin, θ is an angle formed by a line obtained by projecting the perpendicular line on the xy plane and the x axis, and φ is an angle formed by the perpendicular line and the xy plane. is there.
Then, each measurement point (x 0 , y 0 , z 0 ) in the environmental data is projected onto a (ρ, θ, φ) space, and a peak is detected to detect a plane. In the plane segment finder, even a plane divided into a plurality of planes can be detected. Further, only the measurement point of the predetermined portion of the environmental data can be projected onto the partial space of (ρ, θ, φ) space, and the detection range can be narrowed. As a result, the calculation cost can be significantly reduced.
さらに、多数の計測点(環境データ)から平面の方程式を表す平面パラメータ(例えば、法線ベクトル及び法線ベクトルの座標系原点からの距離)を検出するために、ハフ変換法やランダムサンプリング法が従来から用いられている。本実施の形態における平面検出に、従来から知られているこれらの手法を適用してもよい。これにより、前記平面の法線ベクトルを得ることができ、床面に平行な法線ベクトルを有する平面を壁面として認識できる。 Furthermore, in order to detect a plane parameter (for example, a normal vector and a distance from the coordinate system origin of the normal vector) representing a plane equation from a large number of measurement points (environmental data), a Hough transform method or a random sampling method is used. Conventionally used. These conventionally known methods may be applied to the plane detection in the present embodiment. Thereby, the normal vector of the said plane can be obtained, and the plane which has a normal vector parallel to a floor surface can be recognized as a wall surface.
本実施の形態における自己位置推定部8では、発明の理解を容易にするため、図2のように、壁面位置情報取得部10、高さ範囲情報取得部12およびマッチング部14に分けて説明する。
In order to facilitate understanding of the invention, the self-position estimation unit 8 in the present embodiment will be described by dividing it into a wall surface position
壁面位置情報取得部10は、壁面検出部6で検出された壁面に属する位置情報を取得する。また、高さ範囲情報取得部12は、環境データから所定の基準で決められた高さ範囲に属する位置データによって特定される障害物の位置情報を取得する。本実施の形態では、図3のように壁面41〜43、段差44および円柱45で構成されている所定環境における3次元空間における環境データの取得について説明する。
The wall surface position
取得する前記高さ範囲は、前記位置データ群の高さ分布に基づいて決定される。また、環境データ内に存在する位置データであって、最も高さの高い位置データを含むように決定されることが好ましい。これにより、背の低い移動障害物を容易に除外でき、より正確な自己位置推定が可能となる。また、前記高さ範囲に属する位置データは、環境データ内に存在する位置データであって、前記壁面検出部6で検出された壁面に対応する位置データを除いた環境データから決定されても良い。
The height range to be acquired is determined based on the height distribution of the position data group. In addition, it is preferable that the position data exists in the environment data and is determined so as to include the position data having the highest height. As a result, a short moving obstacle can be easily excluded, and more accurate self-position estimation becomes possible. Further, the position data belonging to the height range is position data existing in the environment data, and may be determined from environment data excluding position data corresponding to the wall surface detected by the wall
壁面位置情報取得部10および高さ範囲情報取得部12で取得された位置情報を図4のような2次元の環境マップに図示して取得方法を説明する。
まず、壁面位置情報取得部10は、前記壁面検出部6で検出された壁面41〜43の3次元の環境データに含まれる位置データ群を取得する。取得した壁面41〜43の位置データ群から2次元の位置情報を取得し、前記位置情報を2次元の環境マップに直線で図示した。
次に、高さ範囲情報取得部12は、図5のように、環境データ中の前記高さ範囲に設定されたデータ取得空間46に含まれる位置データを取得する。本実施の形態ではデータ取得空間46に含まれる円柱45の位置データ群から2次元の位置情報を取得し、前記位置情報を2次元環境マップの円で図示した。前記データ取得空間46は高さに幅を持たせてもよく、環境データに含まれる位置データ数などによって高さの幅を任意に決めることが可能である。
これにより、柱などの背の高い固定障害物をマップに出力でき、より正確なマッチングが可能となる。
The acquisition method will be described by illustrating the position information acquired by the wall surface position
First, the wall surface position
Next, as shown in FIG. 5, the height range
As a result, tall fixed obstacles such as pillars can be output to the map, and more accurate matching is possible.
自己位置推定が適切にできない場合には、位置データ群を取得する高さ範囲を低く変更してもよい。これは自己位置の推定が正常に終了するまで繰り返し変更されてもよい。 If self-position estimation cannot be performed appropriately, the height range for acquiring the position data group may be changed to a lower value. This may be changed repeatedly until the self-position estimation ends normally.
マッチング部14は、前記自己の周囲の参照マップと前記各情報取得部で取得したデータをマッチングし、移動体100の自己位置を推定する。マッチングについては図6のマッチング部14のブロック図を用いて説明する。本実施の形態ではICP(Interactive Closest Point)アルゴリズムを用いたマッチングについて記述する。
The matching
初期位置設定部16は、前記各情報取得部10、12で取得したデータおよび参照マップの初期位置をデッドレコニングによる自己位置推定方法によって、ICPアルゴリズムを開始する以前に決めている。
The initial
対応壁面検出部18は、ICPアルゴリズムを用いて、参照マップに含まれる壁面と対応する前記壁面位置情報取得部10および前記高さ範囲情報取得部12で取得した位置情報に含まれる壁面を検出する。
図7を用いて、ICPアルゴリズムによる処理を説明する。ICPアルゴリズムは、2つの異なる座標系のデータを合わせるために用いる。本実施の形態では、参照マップに含まれる位置情報と前記壁面位置情報取得部10および高さ範囲情報取得部12で検出された壁面の位置情報を前記2つの異なる座標系のデータとして処理をする。一方のデータに含まれる点(図7において白抜きの丸で示す)から最も近傍にある他方のデータに含まれる点(図7においてハッチングが付された丸で示す)に着目し、当該他方のデータに含まれる点が属する平面の平面IDを検出する。そして、対応壁面検出部18では一方のデータに含まれる平面に属するすべての点から最も近傍にある他方のデータに含まれる点が属する平面IDとして最も多く検出された平面IDを有する平面を、対応する壁面として検出する。
The corresponding wall
Processing using the ICP algorithm will be described with reference to FIG. The ICP algorithm is used to match data from two different coordinate systems. In the present embodiment, the position information included in the reference map and the wall surface position information detected by the wall surface position
剛体変換パラメータ算出部20は、前記対応壁面検出部18において検出された壁面および参照マップならびに高さ範囲情報取得部12で取得した柱などを用いて、2つのデータが一致するような回転Rおよび並進Tを求める。
この座標変換を簡単にするため、一方の形状の座標系を固定し、もう一方の形状を座標変換する。データ全体の点に対してこれらの対応点間で定義されるユークリッド距離が最小化される回転Rおよび並進Tを算出する。
なお、本実施の形態におけるマッチングは、ICPアルゴリズムを用いた手法を紹介したが、各データのマッチングが可能であればどのような手法であってもよい。また、ICPアルゴリズムの代わりにWeissのマッチング手法またはパーティクルフィルタを用いたマッチング手法などを利用してもよい。パーティクルフィルタなどを利用することによって、3次元環境内に壁面が存在せず、柱や段差などが存在する場合であっても、対応壁面検出部18の処理を飛ばして回転Rおよび並進Tを算出することも可能である。
The rigid body transformation
In order to simplify this coordinate conversion, the coordinate system of one shape is fixed and the other shape is coordinate-converted. A rotation R and a translation T that minimize the Euclidean distance defined between these corresponding points are calculated for the points of the entire data.
Note that although the technique using the ICP algorithm has been introduced for the matching in this embodiment, any technique may be used as long as each data can be matched. Further, a Weiss matching method or a matching method using a particle filter may be used instead of the ICP algorithm. By using a particle filter or the like, the rotation R and translation T are calculated by skipping the processing of the corresponding wall
図8は実施の形態1に係る移動体100の自己位置推定手法を示すフローチャートである。3次元計測ステップ(S101)は、移動体100が周囲の環境情報を視覚センサなどの情報取得装置を用いて計測するステップである。3次元環境データ生成ステップ(S102)は、S101で取得した周囲の環境情報を基に3次元の位置データ群を含む環境データに変換する。壁面検出ステップ(S103)は、環境データから平面検出手法を用いて壁面を検出する。壁面位置情報取得ステップ(S104)は、S103で検出された壁面に属する壁面位置情報を取得する。高さ範囲情報取得ステップ(S105)は、環境データ中の所定の基準で決められた高さ範囲に含まれる位置データ群から位置情報を取得する。マッチングステップ(S106)では、移動体100が備える自己の周囲の参照マップと各位置情報取得ステップで取得された位置情報とをマッチングして、移動体100は自己位置を推定する。
壁面検出ステップにおいて、壁面の検出がされなかった場合には、高さ範囲情報取得ステップに移行する。また、マッチングが適切に行われなかった場合には、再度高さ範囲情報取得ステップに移行し、位置データ群を取得する高さ範囲を変更したうえで、位置情報を取得し、マッチングを再度行う。該マッチングは適切に行われるまで、あるいは、全ての高さ範囲情報を取得するまで繰り返されてもよい。
FIG. 8 is a flowchart showing a self-position estimation method of
When the wall surface is not detected in the wall surface detection step, the process proceeds to the height range information acquisition step. If matching is not properly performed, the process proceeds to the height range information acquisition step again, the height range for acquiring the position data group is changed, position information is acquired, and matching is performed again. . The matching may be repeated until it is properly performed or until all the height range information is acquired.
上述した自己位置推定部8による自己位置推定手法は、図8のフローチャートに示した処理手順が記述された自己位置推定プログラムをマイクロプロセッサ等のコンピュータに実行させることによって実現してもよい。 The self-position estimation method by the self-position estimation unit 8 described above may be realized by causing a computer such as a microprocessor to execute a self-position estimation program in which the processing procedure shown in the flowchart of FIG. 8 is described.
自己位置推定プログラムは、様々な種類の記憶媒体に格納することが可能であり、また、通信媒体を介して伝達されることが可能である。ここで、記憶媒体には、例えば、フレキシブルディスク、ハードディスク、磁気ディスク、光磁気ディスク、CD−ROM,DVD、ROMカートリッジ、不揮発性RAMカートリッジ等が含まれる。また、通信媒体には、電話回線等の有線通信媒体、マイクロ波回線等の無線通信媒体等が含まれ、インターネットも含まれる。 The self-position estimation program can be stored in various types of storage media, and can be transmitted via a communication medium. Here, examples of the storage medium include a flexible disk, a hard disk, a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD, a ROM cartridge, and a nonvolatile RAM cartridge. In addition, the communication medium includes a wired communication medium such as a telephone line, a wireless communication medium such as a microwave line, and the Internet.
<発明の実施の形態2>
実施の形態2について図9を用いて説明する。移動体100の自己位置推定部8は、信頼度設定部22をさらに有していてもよい。信頼度設定部22は、前記壁面位置情報取得部10および前記高さ範囲情報取得部12で取得された位置情報に信頼度を設定する。前記のように壁面は平面検出手法を用いて検出されるため、床面に垂直な平面を確実に検出することができるが、弧を描く壁面および円柱状の柱などは平面検出手段では検出することができない。また、柱や段差などは移動障害物の可能性がある。そこで、曲壁面、柱または段差などの障害物の信頼度を低く設定することで、より正確な自己位置推定が可能である。なお、信頼度を設定するタイミングは、壁面位置情報取得部10および高さ範囲情報取得部12で位置情報を取得する前でもよく、その場合は、環境データに対して信頼度を設定してもよいし、位置データに対して信頼度を設定してもよい。
<
The second embodiment will be described with reference to FIG. The self-position estimation unit 8 of the moving
ここで、信頼度設定手法は、壁面の信頼度を1とし、曲壁面、段差または柱の信頼度については数式(2)で設定してもよい。
(段差の信頼度)=(段差の高さ)/(壁面の高さ) ・・・・・・(2)
Here, in the reliability setting method, the reliability of the wall surface may be set to 1, and the reliability of the curved wall surface, the step, or the column may be set by Expression (2).
(Reliability of level difference) = (Level of level difference) / (Height of wall surface) (2)
また、信頼度設定部22は、図10のように、前記壁面位置情報取得部10および前記高さ範囲情報取得部12で取得した位置情報を2次元グリッドデータに変換してもよく、この場合には各グリッドへ投影された位置データの数に応じて、各グリッドの信頼度を決定してもよい。床面に平行な法線ベクトルを有する平面であっても壁面ではなく、段差の場合もあり得る。段差の場合には、壁面に比べて位置データ数が少ないため、グリッドの信頼度は減少する。これにより、壁面と段差の区別が可能となる。
なお、視覚センサ2が、移動環境内に存在する障害物に関する3次元の位置データ群を含む環境データを生成した際に、傾斜したときは、信頼度を低く設定してもよい。正確なマッチングができないおそれがあるからである。
Further, as shown in FIG. 10, the
When the
自己位置推定部8では、設定された信頼度を参照し、特定の閾値を満たす信頼度の位置情報を用いてマッチングする。但し、移動体100が備える参照マップとのマッチングが適切に行われかった場合は、前記閾値を変動させることも可能である。
The self-position estimation unit 8 refers to the set reliability and performs matching using position information with reliability satisfying a specific threshold. However, when the matching with the reference map included in the moving
<発明の実施の形態3>
次に、前記のマッチングとは異なるマッチング手法について述べる。実施の形態3では、環境データ中の壁面データが有する法線ベクトルに着目してマッチングをする。なお、移動体100が備える自己の周囲の参照マップは、あらかじめその壁面の法線ベクトル情報を保持している。
<Third embodiment of the invention>
Next, a matching method different from the above matching will be described. In the third embodiment, matching is performed by paying attention to the normal vector of the wall surface data in the environmental data. In addition, the reference map around the self included in the moving
図11は実施の形態3のマッチング部14のブロック図である。
なお、本実施の形態3では、初期位置の設定については、実施の形態1と同様に、初期位置設定部16においてデッドレコニングによる自己位置推定方法によって設定されている。また、対応する壁面の検出についても、実施の形態1と同様に、対応壁面検出部18において行われる。よって、実施の形態1と共通しているこれらの処理に関する説明を省略する。
FIG. 11 is a block diagram of the
In the third embodiment, the initial position is set by the initial
回転R算出部24は、前記対応壁面検出部18で検出された対応する壁面が有する各法線ベクトルの差が最小になる回転Rを算出する。壁面検出部6によって検出された壁面は、法線ベクトルとともに検出されており、壁面位置情報取得部10によって取得された壁面位置情報もまた法線ベクトルを備えている。式(3)を利用して回転Rを求めることができる。normal()は法線ベクトルを表している。
R=Min(R・normal(a)−normal(A)+R・normal(b)−normal(B)+・・・) ・・・・・・(3)
The rotation R calculation unit 24 calculates the rotation R that minimizes the difference between the normal vectors of the corresponding wall surfaces detected by the corresponding wall
R = Min (R.normal (a) -normal (A) + R.normal (b) -normal (B) +...) (3)
並進T算出部26は、壁面位置情報取得部10が取得した位置情報または自己の周囲の参照マップに含まれる壁面の位置情報をR回転させ、再度マッチング処理をして並進Tを算出する。環境データまたは取得した位置情報に含まれる各点を用いて回転Rおよび並進Tを求めるよりも、各壁面が有する法線ベクトルを用いて回転Rを求めた後に、再度マッチング処理をして並進Tを求めることにより、点と点の誤対応状態でのマッチングを防ぎ、より精度の高いマッチングが可能となる。再度のマッチングではICPアルゴリズム、Weissのマッチング手法またはパーティクルフィルタを用いたマッチング手法などを利用することができる。
The translation
100 ・・・自律移動体
2 ・・・視覚センサ
4 ・・・3次元環境データ生成部
41 ・・・壁面
42 ・・・壁面
43 ・・・壁面
44 ・・・段差
45 ・・・円柱
46 ・・・データ取得空間
6 ・・・壁面検出部
8 ・・・自己位置推定部
10 ・・・壁面位置情報取得部
12 ・・・高さ範囲情報取得部
14 ・・・マッチング部
16 ・・・初期位置設定部
18 ・・・対応壁面検出部
20 ・・・剛体変換パラメータ算出部
22 ・・・信頼度設定部
24 ・・・回転R算出部
26 ・・・並進T算出部
DESCRIPTION OF
Claims (9)
前記視覚センサによる計測結果を用いて、前記移動環境内に存在する障害物に関する3次元の位置データ群を含む環境データを生成する3次元環境データ生成部と、
前記環境データを用いて、前記移動環境内に存在する平らな壁面を検出する壁面検出部と、
前記環境データに含まれる前記位置データ群のうち第1の高さ範囲に属する位置データによって特定される障害物の位置情報、および前記壁面の位置情報を、前記移動環境内に固定的に存在する固定障害物の位置を示す参照マップと照合することによって、自己の位置を推定する自己位置推定部と、
を備える自律移動体。 A visual sensor to measure the moving environment;
Using a measurement result of the visual sensor, a three-dimensional environment data generation unit that generates environment data including a three-dimensional position data group related to an obstacle existing in the moving environment;
Using the environmental data, a wall surface detection unit that detects a flat wall surface existing in the mobile environment,
Position information of an obstacle specified by position data belonging to a first height range in the position data group included in the environment data and position information of the wall surface are fixedly present in the moving environment. A self-position estimation unit that estimates the position of the self by collating with a reference map indicating the position of the fixed obstacle;
An autonomous mobile body comprising
前記信頼度設定部は、前記位置データ群のうち第1の高さ範囲に属する位置データによって特定される障害物の位置情報に設定する信頼度よりも、前記壁面の位置情報に設定する信頼度を高くし、
前記自己位置推定部は、前記信頼度の高い位置情報を参照マップとの照合に優先的に用いる、請求項1〜4のいずれか一項に記載の自律移動体。 A reliability setting unit for adding reliability to the position data;
The reliability setting unit sets the reliability in the position information of the wall surface rather than the reliability set in the position information of the obstacle specified by the position data belonging to the first height range in the position data group. Increase
The autonomous mobile body according to any one of claims 1 to 4, wherein the self-position estimation unit preferentially uses the highly reliable position information for collation with a reference map.
前記位置データの夫々が対応する各グリッドに、前記位置データの数に基づいて信頼度を設定する請求項5に記載の自律移動体。 The reliability setting unit converts the position information of an obstacle and the position information of the wall surface specified by position data belonging to a first height range in the position data group included in the environment data into grid data. ,
The autonomous mobile body according to claim 5, wherein a reliability is set for each grid corresponding to each of the position data based on the number of the position data.
自己位置推定処理をコンピュータに実行させるための自己位置推定プログラム。 The position information of the obstacle specified by the position data belonging to the first height range among the position data group included in the environment data including the three-dimensional position data group related to the obstacle present in the moving environment; Self-position estimation in which self-position estimation is performed by collating position information of a flat wall detected using environment data with a reference map indicating the position of a fixed obstacle that is fixedly present in the moving environment. Comprising steps,
A self-position estimation program for causing a computer to execute self-position estimation processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009148424A JP5141644B2 (en) | 2009-06-23 | 2009-06-23 | Autonomous mobile body, self-position estimation apparatus, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009148424A JP5141644B2 (en) | 2009-06-23 | 2009-06-23 | Autonomous mobile body, self-position estimation apparatus, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011008320A true JP2011008320A (en) | 2011-01-13 |
JP5141644B2 JP5141644B2 (en) | 2013-02-13 |
Family
ID=43564951
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009148424A Expired - Fee Related JP5141644B2 (en) | 2009-06-23 | 2009-06-23 | Autonomous mobile body, self-position estimation apparatus, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5141644B2 (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102650886A (en) * | 2012-04-28 | 2012-08-29 | 浙江工业大学 | Vision system based on active panoramic vision sensor for robot |
JP2013200604A (en) * | 2012-03-23 | 2013-10-03 | Toyota Motor Corp | Mobile robot |
JP2014174683A (en) * | 2013-03-07 | 2014-09-22 | Advanced Telecommunication Research Institute International | Position estimation device, position estimation program, and position estimation method |
JP2015001820A (en) * | 2013-06-14 | 2015-01-05 | シャープ株式会社 | Autonomous mobile body, control system of the same, and own position detection method |
JP2016095590A (en) * | 2014-11-12 | 2016-05-26 | 村田機械株式会社 | Movement amount estimation device, autonomous mobile body, and method of estimating movement amount |
JP2016099172A (en) * | 2014-11-19 | 2016-05-30 | 株式会社豊田中央研究所 | Vehicle position estimation device and program |
CN106574836A (en) * | 2014-04-14 | 2017-04-19 | 软银机器人欧洲公司 | A method for localizing a robot in a localization plane |
JP2017538915A (en) * | 2014-09-17 | 2017-12-28 | ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー | Positioning / mapping method and positioning / mapping system |
WO2019111702A1 (en) * | 2017-12-05 | 2019-06-13 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2019109653A (en) * | 2017-12-18 | 2019-07-04 | パイオニア株式会社 | Self-location estimating apparatus |
JP2022079622A (en) * | 2017-12-18 | 2022-05-26 | ジオテクノロジーズ株式会社 | Self position estimation device and vehicle position estimation system |
WO2022153390A1 (en) * | 2021-01-13 | 2022-07-21 | 株式会社Acsl | Self-position estimation system for estimating self position of uncrewed aircraft, flight control system, uncrewed aircraft, program, and recording medium |
US11520341B2 (en) | 2019-05-07 | 2022-12-06 | Toshiba Tec Kabushiki Kaisha | Information processing apparatus and information processing method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001266123A (en) * | 2000-03-22 | 2001-09-28 | Honda Motor Co Ltd | Picture processor, peculiar part detecting method and recording medium recording peculiar part detection program |
JP2006343881A (en) * | 2005-06-07 | 2006-12-21 | Institute Of Physical & Chemical Research | Self-position estimation system and self-position estimation method |
JP4169043B2 (en) * | 2006-04-24 | 2008-10-22 | 松下電工株式会社 | Mobile device group control system |
JP2009110250A (en) * | 2007-10-30 | 2009-05-21 | Ihi Corp | Map creation device and method for determining traveling path of autonomous traveling object |
-
2009
- 2009-06-23 JP JP2009148424A patent/JP5141644B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001266123A (en) * | 2000-03-22 | 2001-09-28 | Honda Motor Co Ltd | Picture processor, peculiar part detecting method and recording medium recording peculiar part detection program |
JP2006343881A (en) * | 2005-06-07 | 2006-12-21 | Institute Of Physical & Chemical Research | Self-position estimation system and self-position estimation method |
JP4169043B2 (en) * | 2006-04-24 | 2008-10-22 | 松下電工株式会社 | Mobile device group control system |
JP2009110250A (en) * | 2007-10-30 | 2009-05-21 | Ihi Corp | Map creation device and method for determining traveling path of autonomous traveling object |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013200604A (en) * | 2012-03-23 | 2013-10-03 | Toyota Motor Corp | Mobile robot |
CN102650886A (en) * | 2012-04-28 | 2012-08-29 | 浙江工业大学 | Vision system based on active panoramic vision sensor for robot |
JP2014174683A (en) * | 2013-03-07 | 2014-09-22 | Advanced Telecommunication Research Institute International | Position estimation device, position estimation program, and position estimation method |
JP2015001820A (en) * | 2013-06-14 | 2015-01-05 | シャープ株式会社 | Autonomous mobile body, control system of the same, and own position detection method |
JP2017514124A (en) * | 2014-04-14 | 2017-06-01 | ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe | How to localize the robot in the localization plane |
CN106574836A (en) * | 2014-04-14 | 2017-04-19 | 软银机器人欧洲公司 | A method for localizing a robot in a localization plane |
JP2017538915A (en) * | 2014-09-17 | 2017-12-28 | ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー | Positioning / mapping method and positioning / mapping system |
JP2016095590A (en) * | 2014-11-12 | 2016-05-26 | 村田機械株式会社 | Movement amount estimation device, autonomous mobile body, and method of estimating movement amount |
JP2016099172A (en) * | 2014-11-19 | 2016-05-30 | 株式会社豊田中央研究所 | Vehicle position estimation device and program |
US10032278B2 (en) | 2014-11-19 | 2018-07-24 | Kabushiki Kaisha Toyota Chuo Kenkyusho | Vehicle position estimation device, method and computer readable recording medium |
WO2019111702A1 (en) * | 2017-12-05 | 2019-06-13 | ソニー株式会社 | Information processing device, information processing method, and program |
US11531354B2 (en) | 2017-12-05 | 2022-12-20 | Sony Corporation | Image processing apparatus and image processing method |
JP2019109653A (en) * | 2017-12-18 | 2019-07-04 | パイオニア株式会社 | Self-location estimating apparatus |
JP7051416B2 (en) | 2017-12-18 | 2022-04-11 | ジオテクノロジーズ株式会社 | Self-position estimation device |
JP2022079622A (en) * | 2017-12-18 | 2022-05-26 | ジオテクノロジーズ株式会社 | Self position estimation device and vehicle position estimation system |
US11520341B2 (en) | 2019-05-07 | 2022-12-06 | Toshiba Tec Kabushiki Kaisha | Information processing apparatus and information processing method |
WO2022153390A1 (en) * | 2021-01-13 | 2022-07-21 | 株式会社Acsl | Self-position estimation system for estimating self position of uncrewed aircraft, flight control system, uncrewed aircraft, program, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP5141644B2 (en) | 2013-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5141644B2 (en) | Autonomous mobile body, self-position estimation apparatus, and program | |
CN108051002B (en) | Transport vehicle space positioning method and system based on inertial measurement auxiliary vision | |
AU2016213835B2 (en) | Adaptive mapping with spatial summaries of sensor data | |
KR101782057B1 (en) | Apparatus for building map and method thereof | |
KR101072876B1 (en) | Method and apparatus for estimating position in a mobile robot | |
JP4942733B2 (en) | Self-localization method of robot based on object recognition and surrounding environment information including recognized object | |
US8467902B2 (en) | Method and apparatus for estimating pose of mobile robot using particle filter | |
US8600603B2 (en) | Apparatus and method of localization of mobile robot | |
JP5803367B2 (en) | Self-position estimation apparatus, self-position estimation method and program | |
KR101581197B1 (en) | Robot and control method thereof | |
US20110205338A1 (en) | Apparatus for estimating position of mobile robot and method thereof | |
JP6328327B2 (en) | Image processing apparatus and image processing method | |
KR101705601B1 (en) | Apparatus and method for estimating the location of autonomous robot based on three-dimensional depth information | |
US20130158865A1 (en) | Method and apparatus for estimating position of moving object | |
JP2010033447A (en) | Image processor and image processing method | |
JP5819257B2 (en) | Moving object position estimation method and moving object | |
JP2010066595A (en) | Environment map generating device and environment map generating method | |
Lee et al. | A novel method for estimating the heading angle for a home service robot using a forward-viewing mono-camera and motion sensors | |
JP6638753B2 (en) | Autonomous mobile device, autonomous mobile method and program | |
Fabian et al. | One-point visual odometry using a RGB-depth camera pair | |
Lu et al. | SLAM estimation in dynamic outdoor environments | |
CN115700507B (en) | Map updating method and device | |
Wang et al. | Real-time visual odometry estimation based on principal direction detection on ceiling vision | |
Fu et al. | Multi-waypoint visual homing in piecewise linear trajectory | |
JP2004132933A (en) | Position/attitude estimation method of active sensor, its device and position/attitude estimation program of active sensor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111012 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121016 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121023 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121105 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151130 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5141644 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |