JP2011008320A - Autonomous mobile unit, self position estimating device, and program - Google Patents

Autonomous mobile unit, self position estimating device, and program Download PDF

Info

Publication number
JP2011008320A
JP2011008320A JP2009148424A JP2009148424A JP2011008320A JP 2011008320 A JP2011008320 A JP 2011008320A JP 2009148424 A JP2009148424 A JP 2009148424A JP 2009148424 A JP2009148424 A JP 2009148424A JP 2011008320 A JP2011008320 A JP 2011008320A
Authority
JP
Japan
Prior art keywords
data
environment
wall surface
self
obstacle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009148424A
Other languages
Japanese (ja)
Other versions
JP5141644B2 (en
Inventor
Yutaka Takaoka
豊 高岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2009148424A priority Critical patent/JP5141644B2/en
Publication of JP2011008320A publication Critical patent/JP2011008320A/en
Application granted granted Critical
Publication of JP5141644B2 publication Critical patent/JP5141644B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an autonomous mobile unit, capable of making it difficult to be affected by a moving obstacle, when the autonomous mobile unit estimates self-position, and using measurement information of obstacles other than a flat wall surface for self-position estimation, and to provide a self-position estimating method thereof.SOLUTION: The autonomous mobile unit 100 includes a vision sensor 2 for measuring a moving environment; a three-dimensional environment data generating section 4 for generating environment data including a group of three-dimensional position data of the obstacles existed in the moving environment by using measurement results by the vision sensor 2; a wall-surface detecting section 6 for detecting flat wall surface existing in the moving environment by using the environment data; and a self-position estimating section 8 for estimating a self-position by collating position information of the obstacles and position information of the wall surface specified by position data belonging to a first height range among the group of position data contained in the environment data with a reference map indicating the position of a fixed obstacle that fixedly exists in the moving environment.

Description

本発明は、自律的に移動する自律移動体および自律移動体の自己位置推定方法に関する。   The present invention relates to an autonomous mobile body that moves autonomously and a self-position estimation method of the autonomous mobile body.

近年、ロボットや車両などが自ら目的を達するために考えて、自律移動をする自律移動体が開発されている。自律移動体は、自己が有する参照マップを参照することによって移動経路を計画し、当該移動経路に従って移動を行う。自律移動体において、自身の周囲の環境を認識して経路計画を立て、それに応じて移動する能力は重要である。 In recent years, autonomous moving bodies that move autonomously have been developed in consideration of the purpose of robots, vehicles, etc. themselves. The autonomous mobile body plans a movement route by referring to a reference map that it has, and moves according to the movement route. In an autonomous mobile body, the ability to recognize a surrounding environment and make a route plan and move accordingly is important.

特許文献1では自律移動ロボットが、所定環境内において、自己の位置と壁面との距離を計測して現在位置を推定して目的地に向かう技術が開示されている。該文献では、自己位置の計測ができなくなった場合の回復手段の開示もされている。
また、特許文献2には床面に段差がある領域での移動においても、移動可能か否か判定するための環境マップを作成することができる装置が開示されている。
このように、近年では移動体が適切な自律移動をするための手法について開発されている。
Patent Document 1 discloses a technique in which an autonomous mobile robot measures a distance between its own position and a wall surface in a predetermined environment, estimates a current position, and heads for a destination. This document also discloses a recovery means when the self-position cannot be measured.
Further, Patent Document 2 discloses an apparatus that can create an environment map for determining whether or not movement is possible even in movement in a region having a step on the floor surface.
As described above, in recent years, a technique for allowing a mobile body to perform appropriate autonomous movement has been developed.

特開2008−59218号公報JP 2008-59218 A 特開2005−92820号公報JP 2005-92820 A

特許文献1の自律移動体は、自己の周囲を計測して、自己の位置と周囲の壁面との距離を測る。すなわち、所定環境内の壁面を基準として自己の位置を推定、または修正している。
しかし、前記所定環境内に固定的に存在する障害物は平らな壁面(以下、壁面)だけに限られない。例えば、円弧を描く壁面(以下、曲壁面)、円柱状の柱および所定環境内の床面と高さの異なる段差などが存在している場合もある。
The autonomous mobile body of patent document 1 measures the circumference | surroundings of self, and measures the distance of an own position and the surrounding wall surface. That is, the position of itself is estimated or corrected based on the wall surface in the predetermined environment.
However, the obstacle that is fixedly present in the predetermined environment is not limited to a flat wall surface (hereinafter referred to as a wall surface). For example, there may be a wall surface (hereinafter referred to as a curved wall surface) that draws an arc, a columnar column, a step difference in height from the floor surface in a predetermined environment, and the like.

段差は、単なる段差である場合もあるし、移動障害物である場合もある。移動障害物は人間、台車または、他の移動体などが挙げられる。また、柱もまた移動障害物である可能性がある。自律移動体は、固定障害物を基準に自己位置を推定するため、移動障害物を誤って認識した場合には、自己位置を誤って推定する可能性がある。
また、曲壁面および円柱状の柱などは平面検出手段などで検出することはできない。
The step may be a simple step or a moving obstacle. Examples of moving obstacles include humans, carts, and other moving objects. The pillars can also be moving obstacles. Since the autonomous mobile body estimates its own position on the basis of a fixed obstacle, there is a possibility that if the moving obstacle is recognized by mistake, the self-position is erroneously estimated.
Further, a curved wall surface and a columnar column cannot be detected by a plane detecting means or the like.

本発明は、上述の問題を解決するためになされたものであり、自律移動体が自己位置を推定する際に移動障害物の影響を受け難くするとともに、壁面以外の障害物の計測情報も自己位置推定に利用することができる自律移動体および自己位置推定プログラムを提供することを目的とする。   The present invention has been made in order to solve the above-described problem, and makes it difficult for an autonomous mobile body to be affected by a moving obstacle when estimating its own position, and also measures measurement information of obstacles other than walls on its own. An object is to provide an autonomous mobile body and a self-position estimation program that can be used for position estimation.

本発明に係る自律移動体は、移動環境を計測する視覚センサと、前記視覚センサによる計測結果を用いて、前記移動環境内に存在する障害物に関する3次元の位置データ群を含む環境データを生成する3次元環境データ生成部と、前記環境データを用いて、前記移動環境内に存在する平らな壁面を検出する壁面検出部と、前記環境データに含まれる前記位置データ群のうち第1の高さ範囲に属する位置データによって特定される障害物の位置情報、および前記壁面の位置情報を、前記移動環境内に固定的に存在する固定障害物の位置を示す参照マップと照合することによって、自己の位置を推定する自己位置推定部と、を備える自律移動体である。
人間や台車または他の移動体のような移動障害物は、壁や柱などの固定障害物に比べて、高さが低く、3次元空間内の一部に存在する。したがって、特定の高さよりも高い位置データを有する位置情報を基に参照マップと照合することによって、自律移動体が自己位置を推定する際に移動障害物の影響を受け難くするとともに、壁面以外の障害物の計測情報も自己位置推定に利用することが可能となり、正確な自己位置推定が可能となる。
The autonomous mobile body according to the present invention generates environmental data including a three-dimensional position data group related to an obstacle existing in the moving environment by using a visual sensor that measures the moving environment and a measurement result by the visual sensor. A three-dimensional environment data generating unit, a wall surface detecting unit for detecting a flat wall surface existing in the moving environment using the environment data, and a first high-level data among the position data group included in the environment data. By comparing the position information of the obstacle specified by the position data belonging to the range and the position information of the wall surface with a reference map indicating the position of the fixed obstacle that is fixedly present in the moving environment, A self-position estimation unit that estimates the position of
Moving obstacles such as humans, trolleys or other moving bodies are lower in height than fixed obstacles such as walls and pillars, and exist in a part of the three-dimensional space. Therefore, by collating with the reference map based on position information having position data higher than a specific height, the autonomous mobile body is less susceptible to moving obstacles when estimating its own position, and other than the wall surface Obstacle measurement information can also be used for self-position estimation, and accurate self-position estimation becomes possible.

また、前記第1の高さ範囲は、前記位置データ群の高さ分布に基づいて決定されてもよい。前述のように、障害物の高さによって、固定障害物か移動障害物かの傾向がわかる。本構成により、移動障害物を効率よく省いて、前記参照マップとの照合が可能となる。   Further, the first height range may be determined based on a height distribution of the position data group. As described above, the tendency of a fixed obstacle or a moving obstacle can be determined depending on the height of the obstacle. With this configuration, it is possible to efficiently eliminate moving obstacles and collate with the reference map.

さらに、前記第1の高さ範囲は、前記位置データ群のうち最も高さが高いデータを含むように決定されることが好ましい。前述のように、移動障害物などは壁面と比較すると高さが低いため、自己位置推定には不要な移動障害物を抽出せずに固定障害物である曲壁面および円柱状の柱などだけを抽出することが可能となる。   Furthermore, it is preferable that the first height range is determined so as to include data having the highest height in the position data group. As mentioned above, moving obstacles are low in height compared to wall surfaces, so only the curved wall surfaces and cylindrical columns that are fixed obstacles are extracted without extracting moving obstacles that are not necessary for self-position estimation. It becomes possible to extract.

さらにまた、前記位置データ群は、前記環境データに含まれる前記位置データ群から前記壁面に対応する位置データ群を除いた残りのデータ群であってもよい。   Furthermore, the position data group may be a remaining data group obtained by removing the position data group corresponding to the wall surface from the position data group included in the environment data.

ここで、前記位置データに信頼度を付与する信頼度設定部をさらに備えてもよく、前記信頼度設定部は、前記位置データ群のうち第1の高さ範囲に属する位置データによって特定される障害物の位置情報に設定する信頼度よりも、前記壁面の位置情報に設定する信頼度を高くし、前記自己位置推定部は、前記信頼度の高い位置情報を参照マップとの照合に優先的に用いる。この場合、壁や柱などの高さが高い物体と、段差などの高さが低い物体の信頼度を分けることが可能であり、固定障害物と移動障害物の区別が可能となる。なお、本発明でいう信頼度とは、3次元環境データから抽出された壁、柱、段差、その他の障害物が、移動障害物であるか否かを示す度合であり、信頼度が低いほど移動障害物として判断され、その情報を利用することなく自己位置推定することができる。   Here, a reliability setting unit that gives reliability to the position data may be further provided, and the reliability setting unit is specified by position data belonging to a first height range in the position data group. The reliability set in the position information of the wall surface is made higher than the reliability set in the position information of the obstacle, and the self-position estimation unit preferentially matches the position information with the high reliability with the reference map. Used for. In this case, it is possible to separate the reliability of an object having a high height, such as a wall or a column, and an object having a low height, such as a step, so that a fixed obstacle and a moving obstacle can be distinguished. The reliability referred to in the present invention is a degree indicating whether walls, columns, steps, and other obstacles extracted from the three-dimensional environment data are moving obstacles, and the lower the reliability. It is determined as a moving obstacle, and self-location can be estimated without using the information.

また、前記信頼度設定部は、前記環境データに含まれる前記位置データ群のうち第1の高さ範囲に属する位置データによって特定される障害物の位置情報および前記壁面の位置情報をグリッドデータに変換し、前記位置データの夫々が対応する各グリッドに、前記位置データの数に基づいて信頼度を設定してもよい。   Further, the reliability setting unit uses the position data of the obstacle and the position information of the wall surface specified by the position data belonging to the first height range in the position data group included in the environment data as grid data. The degree of reliability may be set based on the number of the position data in each grid corresponding to the position data after conversion.

また、前記自己位置推定部は、前記壁面の法線ベクトルを用いて、前記参照マップによって特定される前記固定障害物の配置に前記壁面を重ね合わせるための回転角度を算出することが好ましい。夫々の壁面の法線ベクトルが一致する回転角度を求めることで、夫々の点と点をマッチングして自己位置推定するよりも、正確な自己位置推定が可能となる。   The self-position estimation unit preferably calculates a rotation angle for superimposing the wall surface on the arrangement of the fixed obstacle specified by the reference map, using a normal vector of the wall surface. By obtaining a rotation angle at which the normal vectors of the respective wall surfaces coincide with each other, it is possible to perform accurate self-position estimation rather than matching each point and self-position estimation.

他方、本発明に係る自己位置推定装置は、移動環境内に存在する障害物に関する3次元の位置データ群を含む環境データに含まれる前記位置データ群のうち第1の高さ範囲に属する位置データによって特定される障害物の位置情報と、前記環境データを用いて検出された平らな壁面の位置情報を、前記移動環境内に固定的に存在する固定障害物の位置を示す参照マップと照合することによって、自己の位置を推定することを特徴とする。   On the other hand, the self-position estimation apparatus according to the present invention includes position data belonging to a first height range among the position data groups included in the environment data including three-dimensional position data groups related to obstacles existing in the moving environment. The position information of the obstacle specified by the position information and the position information of the flat wall surface detected using the environment data are collated with a reference map indicating the position of the fixed obstacle existing in the moving environment. Thus, it is characterized by estimating its own position.

また、本発明に係る自己位置推定プログラムは、移動環境内に存在する障害物に関する3次元の位置データ群を含む環境データに含まれる前記位置データ群のうち第1の高さ範囲に属する位置データによって特定される障害物の位置情報と、前記環境データを用いて検出された平らな壁面の位置情報を、前記移動環境内に固定的に存在する固定障害物の位置を示す参照マップと照合することによって、自己の位置を推定する自己位置推定ステップを備える、自己位置推定処理をコンピュータに実行させるためのプログラムである。   In addition, the self-position estimation program according to the present invention includes position data belonging to a first height range among the position data groups included in the environment data including three-dimensional position data groups related to obstacles existing in the moving environment. The position information of the obstacle specified by the position information and the position information of the flat wall surface detected using the environment data are collated with a reference map indicating the position of the fixed obstacle existing in the moving environment. Thus, there is provided a program for causing a computer to execute a self-position estimation process including a self-position estimation step for estimating the self-position.

本発明により、自律移動体が自己位置を推定する際に移動障害物の影響を受け難くするとともに、壁面以外の障害物の計測情報も自己位置推定に利用することが可能となり、正確な自己位置を推定することができる自律移動体およびその自己位置推定プログラムを提供することができる。   According to the present invention, when an autonomous mobile body estimates its own position, it becomes difficult to be affected by a moving obstacle, and measurement information of obstacles other than the wall surface can be used for self-position estimation. It is possible to provide an autonomous mobile body that can estimate the position of the vehicle and a self-position estimation program thereof.

実施の形態1に係る移動体の制御系を示すブロック図。FIG. 3 is a block diagram showing a control system for a moving body according to the first embodiment. 自己位置推定部を説明するブロック図。The block diagram explaining a self-position estimation part. 実施の形態1の所定環境の斜視図。FIG. 3 is a perspective view of a predetermined environment according to the first embodiment. 環境データから取得したデータを2次元に図示する説明図。Explanatory drawing which illustrates in two dimensions the data acquired from environmental data. 高さ範囲情報を取得する際の説明図。Explanatory drawing at the time of acquiring height range information. 実施の形態2のマッチング部のブロック図。FIG. 6 is a block diagram of a matching unit according to the second embodiment. ICPアルゴリズムの説明図。Explanatory drawing of an ICP algorithm. 実施の形態1の自己位置推定プロセスのフローチャート。3 is a flowchart of a self-position estimation process according to the first embodiment. 実施の形態2の自己位置推定部のブロック図。FIG. 10 is a block diagram of a self-position estimation unit according to the second embodiment. 2次元グリッドマップへ環境データを変換する説明図。Explanatory drawing which converts environmental data into a two-dimensional grid map. 実施の形態3のマッチング部のブロック図。FIG. 10 is a block diagram of a matching unit according to the third embodiment.

以下では、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。各図面において、同一要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。   Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings. In the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted as necessary for the sake of clarity.

<発明の実施の形態1>
図1に実施の形態1に係る自律移動体(以下、移動体)100の構成を示す。移動体100は視覚センサ2、3次元環境データ生成部4、壁面検出部6および自己位置推定部8など備えている。
<Embodiment 1 of the Invention>
FIG. 1 shows a configuration of autonomous mobile body (hereinafter referred to as mobile body) 100 according to Embodiment 1. The moving body 100 includes a visual sensor 2, a three-dimensional environment data generation unit 4, a wall surface detection unit 6, a self-position estimation unit 8, and the like.

視覚センサ2は、レーザレンジファインダ等のアクティブ距離センサを有している。そして、視覚センサ2は、所定環境の距離画像データを取得する。視覚センサ2が計測を行う範囲は、視覚センサ2の性能によって規定される。   The visual sensor 2 has an active distance sensor such as a laser range finder. Then, the visual sensor 2 acquires distance image data of a predetermined environment. The range in which the visual sensor 2 performs measurement is defined by the performance of the visual sensor 2.

なお、視覚センサ2としては、CCD(Charge Coupled Device)イメージセンサまたはCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子を備えた複数のカメラを備えてもよい。そして、視覚センサ2は、これら複数のカメラによって撮影した画像データを用いて距離画像データを生成してもよい。具体的には、視覚センサ2は、複数のカメラによって撮影した画像データから対応点を検出する。次いで、視覚センサ2は、ステレオ視によって対応点の3次元位置を復元すればよい。ここで、複数の撮影画像における対応点の探索は、複数の撮影画像に対する自空間微分の拘束式を用いた勾配法や相関法等の公知の手法を適用して行えばよい。   The visual sensor 2 may include a plurality of cameras including an image sensor such as a charge coupled device (CCD) image sensor or a complementary metal oxide semiconductor (CMOS) image sensor. And the visual sensor 2 may produce | generate distance image data using the image data image | photographed with these several cameras. Specifically, the visual sensor 2 detects corresponding points from image data captured by a plurality of cameras. Next, the visual sensor 2 may restore the three-dimensional position of the corresponding point by stereo vision. Here, the search for the corresponding points in the plurality of captured images may be performed by applying a known method such as a gradient method or a correlation method using a self-space differential constraint formula for the plurality of captured images.

3次元環境データ生成部4では、距離画像データの座標変換を行って環境データを生成する。なお、環境データとは、画像データに含まれる多数の計測点の位置ベクトルを3次元直交座標系で表したデータの集合である。ここで、環境データは位置データ群を含み、前記位置データ群の座標は、移動体100に固定された装置座標系で表示されていてもよいし、環境に固定されたグローバル座標系で表示されていてもよい。   The three-dimensional environment data generation unit 4 generates the environment data by performing coordinate conversion of the distance image data. The environmental data is a set of data in which position vectors of a large number of measurement points included in the image data are represented by a three-dimensional orthogonal coordinate system. Here, the environment data includes a position data group, and the coordinates of the position data group may be displayed in a device coordinate system fixed to the moving body 100 or displayed in a global coordinate system fixed to the environment. It may be.

壁面検出部6は、環境データから平面を検出し、検出された平面のなかで床面に平行な法線ベクトルを持つ平面を壁面として検出する。また、壁面検出部6は、検出した平面に平面IDを付与する。
本実施の形態における平面検出には、プレーンセグメントファインダ(Plane Segment Finder(PLS))と呼ばれる手法を用いればよい。プレーンセグメントファインダでは、まず、3次元の点群から2点をランダムにサンプリングする。次いで、当該2点のベクトルをクラスタリングすることにより、平面の位置姿勢を求めるアルゴリズムである。
具体的には、プレーンセグメントファインダでは、まず、環境データに対してランダマイズド3次元ハフ変換を行って、最大平面の傾きを検出する。次に、再び、ランダマイズド3次元ハフ変換を用いて、当該最大平面と原点との距離を検出する。そして、当該最大平面に属する点を抽出することにより、平面領域(プレーンセグメント)を検出する。
The wall surface detection unit 6 detects a plane from the environment data, and detects a plane having a normal vector parallel to the floor surface as a wall surface among the detected planes. Moreover, the wall surface detection part 6 provides plane ID to the detected plane.
For the plane detection in the present embodiment, a method called a plane segment finder (PLS) may be used. In the plane segment finder, first, two points are randomly sampled from a three-dimensional point group. Next, an algorithm for obtaining the position and orientation of the plane by clustering the vectors of the two points.
Specifically, in the plane segment finder, first, a randomized three-dimensional Hough transform is performed on the environmental data to detect the inclination of the maximum plane. Next, the distance between the maximum plane and the origin is detected again using the randomized three-dimensional Hough transform. Then, a plane area (plane segment) is detected by extracting a point belonging to the maximum plane.

より具体的には、プレーンセグメントファインダにおいて、平面は、以下の数式(1)により表わされる。
ρ=(xcos(θ)+ysin(θ))cos(φ)+zsin(φ)
・・・・・・(1)
数式(1)において、ρは平面から原点へ下ろした垂線の長さ、θは当該垂線をxy平面に投影した線とx軸とのなす角、φは当該垂線とxy平面とのなす角である。
そして、環境データ内の各測定点(x,y,z)を(ρ,θ,φ)空間に投影し、ピークを検出することにより、平面を検出する。プレーンセグメントファインダでは、複数に分割された平面であっても検出することができる。また、環境データの所定部分の測定点のみを(ρ,θ,φ)空間の部分空間に投影して、検出範囲を狭めることができる。これにより、計算コストを大幅に低減することも可能である。
More specifically, in the plane segment finder, the plane is represented by the following formula (1).
ρ = (x 0 cos (θ) + y 0 sin (θ)) cos (φ) + z 0 sin (φ)
(1)
In Equation (1), ρ is the length of a perpendicular line drawn from the plane to the origin, θ is an angle formed by a line obtained by projecting the perpendicular line on the xy plane and the x axis, and φ is an angle formed by the perpendicular line and the xy plane. is there.
Then, each measurement point (x 0 , y 0 , z 0 ) in the environmental data is projected onto a (ρ, θ, φ) space, and a peak is detected to detect a plane. In the plane segment finder, even a plane divided into a plurality of planes can be detected. Further, only the measurement point of the predetermined portion of the environmental data can be projected onto the partial space of (ρ, θ, φ) space, and the detection range can be narrowed. As a result, the calculation cost can be significantly reduced.

さらに、多数の計測点(環境データ)から平面の方程式を表す平面パラメータ(例えば、法線ベクトル及び法線ベクトルの座標系原点からの距離)を検出するために、ハフ変換法やランダムサンプリング法が従来から用いられている。本実施の形態における平面検出に、従来から知られているこれらの手法を適用してもよい。これにより、前記平面の法線ベクトルを得ることができ、床面に平行な法線ベクトルを有する平面を壁面として認識できる。   Furthermore, in order to detect a plane parameter (for example, a normal vector and a distance from the coordinate system origin of the normal vector) representing a plane equation from a large number of measurement points (environmental data), a Hough transform method or a random sampling method is used. Conventionally used. These conventionally known methods may be applied to the plane detection in the present embodiment. Thereby, the normal vector of the said plane can be obtained, and the plane which has a normal vector parallel to a floor surface can be recognized as a wall surface.

本実施の形態における自己位置推定部8では、発明の理解を容易にするため、図2のように、壁面位置情報取得部10、高さ範囲情報取得部12およびマッチング部14に分けて説明する。   In order to facilitate understanding of the invention, the self-position estimation unit 8 in the present embodiment will be described by dividing it into a wall surface position information acquisition unit 10, a height range information acquisition unit 12, and a matching unit 14, as shown in FIG. .

壁面位置情報取得部10は、壁面検出部6で検出された壁面に属する位置情報を取得する。また、高さ範囲情報取得部12は、環境データから所定の基準で決められた高さ範囲に属する位置データによって特定される障害物の位置情報を取得する。本実施の形態では、図3のように壁面41〜43、段差44および円柱45で構成されている所定環境における3次元空間における環境データの取得について説明する。   The wall surface position information acquisition unit 10 acquires position information belonging to the wall surface detected by the wall surface detection unit 6. Further, the height range information acquisition unit 12 acquires position information of an obstacle specified by position data belonging to a height range determined based on a predetermined reference from environmental data. In the present embodiment, acquisition of environmental data in a three-dimensional space in a predetermined environment constituted by wall surfaces 41 to 43, a step 44, and a cylinder 45 as shown in FIG. 3 will be described.

取得する前記高さ範囲は、前記位置データ群の高さ分布に基づいて決定される。また、環境データ内に存在する位置データであって、最も高さの高い位置データを含むように決定されることが好ましい。これにより、背の低い移動障害物を容易に除外でき、より正確な自己位置推定が可能となる。また、前記高さ範囲に属する位置データは、環境データ内に存在する位置データであって、前記壁面検出部6で検出された壁面に対応する位置データを除いた環境データから決定されても良い。   The height range to be acquired is determined based on the height distribution of the position data group. In addition, it is preferable that the position data exists in the environment data and is determined so as to include the position data having the highest height. As a result, a short moving obstacle can be easily excluded, and more accurate self-position estimation becomes possible. Further, the position data belonging to the height range is position data existing in the environment data, and may be determined from environment data excluding position data corresponding to the wall surface detected by the wall surface detection unit 6. .

壁面位置情報取得部10および高さ範囲情報取得部12で取得された位置情報を図4のような2次元の環境マップに図示して取得方法を説明する。
まず、壁面位置情報取得部10は、前記壁面検出部6で検出された壁面41〜43の3次元の環境データに含まれる位置データ群を取得する。取得した壁面41〜43の位置データ群から2次元の位置情報を取得し、前記位置情報を2次元の環境マップに直線で図示した。
次に、高さ範囲情報取得部12は、図5のように、環境データ中の前記高さ範囲に設定されたデータ取得空間46に含まれる位置データを取得する。本実施の形態ではデータ取得空間46に含まれる円柱45の位置データ群から2次元の位置情報を取得し、前記位置情報を2次元環境マップの円で図示した。前記データ取得空間46は高さに幅を持たせてもよく、環境データに含まれる位置データ数などによって高さの幅を任意に決めることが可能である。
これにより、柱などの背の高い固定障害物をマップに出力でき、より正確なマッチングが可能となる。
The acquisition method will be described by illustrating the position information acquired by the wall surface position information acquisition unit 10 and the height range information acquisition unit 12 in a two-dimensional environment map as shown in FIG.
First, the wall surface position information acquisition unit 10 acquires a position data group included in the three-dimensional environment data of the wall surfaces 41 to 43 detected by the wall surface detection unit 6. Two-dimensional position information was acquired from the acquired position data group of the wall surfaces 41 to 43, and the position information was illustrated in a straight line on a two-dimensional environment map.
Next, as shown in FIG. 5, the height range information acquisition unit 12 acquires position data included in the data acquisition space 46 set in the height range in the environmental data. In the present embodiment, two-dimensional position information is acquired from the position data group of the cylinder 45 included in the data acquisition space 46, and the position information is illustrated by a circle of the two-dimensional environment map. The data acquisition space 46 may have a width, and the height width can be arbitrarily determined according to the number of position data included in the environmental data.
As a result, tall fixed obstacles such as pillars can be output to the map, and more accurate matching is possible.

自己位置推定が適切にできない場合には、位置データ群を取得する高さ範囲を低く変更してもよい。これは自己位置の推定が正常に終了するまで繰り返し変更されてもよい。   If self-position estimation cannot be performed appropriately, the height range for acquiring the position data group may be changed to a lower value. This may be changed repeatedly until the self-position estimation ends normally.

マッチング部14は、前記自己の周囲の参照マップと前記各情報取得部で取得したデータをマッチングし、移動体100の自己位置を推定する。マッチングについては図6のマッチング部14のブロック図を用いて説明する。本実施の形態ではICP(Interactive Closest Point)アルゴリズムを用いたマッチングについて記述する。   The matching unit 14 matches the reference map around the self and the data acquired by each information acquisition unit, and estimates the self-position of the moving body 100. The matching will be described with reference to the block diagram of the matching unit 14 in FIG. In the present embodiment, matching using an ICP (Interactive Closest Point) algorithm is described.

初期位置設定部16は、前記各情報取得部10、12で取得したデータおよび参照マップの初期位置をデッドレコニングによる自己位置推定方法によって、ICPアルゴリズムを開始する以前に決めている。   The initial position setting unit 16 determines the initial position of the data and reference map acquired by each of the information acquisition units 10 and 12 by the self-position estimation method using dead reckoning before starting the ICP algorithm.

対応壁面検出部18は、ICPアルゴリズムを用いて、参照マップに含まれる壁面と対応する前記壁面位置情報取得部10および前記高さ範囲情報取得部12で取得した位置情報に含まれる壁面を検出する。
図7を用いて、ICPアルゴリズムによる処理を説明する。ICPアルゴリズムは、2つの異なる座標系のデータを合わせるために用いる。本実施の形態では、参照マップに含まれる位置情報と前記壁面位置情報取得部10および高さ範囲情報取得部12で検出された壁面の位置情報を前記2つの異なる座標系のデータとして処理をする。一方のデータに含まれる点(図7において白抜きの丸で示す)から最も近傍にある他方のデータに含まれる点(図7においてハッチングが付された丸で示す)に着目し、当該他方のデータに含まれる点が属する平面の平面IDを検出する。そして、対応壁面検出部18では一方のデータに含まれる平面に属するすべての点から最も近傍にある他方のデータに含まれる点が属する平面IDとして最も多く検出された平面IDを有する平面を、対応する壁面として検出する。
The corresponding wall surface detection unit 18 uses the ICP algorithm to detect the wall surface included in the position information acquired by the wall surface position information acquisition unit 10 and the height range information acquisition unit 12 corresponding to the wall surface included in the reference map. .
Processing using the ICP algorithm will be described with reference to FIG. The ICP algorithm is used to match data from two different coordinate systems. In the present embodiment, the position information included in the reference map and the wall surface position information detected by the wall surface position information acquisition unit 10 and the height range information acquisition unit 12 are processed as data of the two different coordinate systems. . Pay attention to a point (indicated by a hatched circle in FIG. 7) included in the other nearest data from a point (indicated by a white circle in FIG. 7) included in one data, The plane ID of the plane to which the point included in the data belongs is detected. The corresponding wall surface detection unit 18 corresponds to the plane having the plane ID most detected as the plane ID to which the point included in the other data nearest to all the points belonging to the plane included in one data belongs. Detect as wall surface.

剛体変換パラメータ算出部20は、前記対応壁面検出部18において検出された壁面および参照マップならびに高さ範囲情報取得部12で取得した柱などを用いて、2つのデータが一致するような回転Rおよび並進Tを求める。
この座標変換を簡単にするため、一方の形状の座標系を固定し、もう一方の形状を座標変換する。データ全体の点に対してこれらの対応点間で定義されるユークリッド距離が最小化される回転Rおよび並進Tを算出する。
なお、本実施の形態におけるマッチングは、ICPアルゴリズムを用いた手法を紹介したが、各データのマッチングが可能であればどのような手法であってもよい。また、ICPアルゴリズムの代わりにWeissのマッチング手法またはパーティクルフィルタを用いたマッチング手法などを利用してもよい。パーティクルフィルタなどを利用することによって、3次元環境内に壁面が存在せず、柱や段差などが存在する場合であっても、対応壁面検出部18の処理を飛ばして回転Rおよび並進Tを算出することも可能である。
The rigid body transformation parameter calculation unit 20 uses a wall surface and a reference map detected by the corresponding wall surface detection unit 18 and a column acquired by the height range information acquisition unit 12, and the rotation R and the two data match. Find the translation T.
In order to simplify this coordinate conversion, the coordinate system of one shape is fixed and the other shape is coordinate-converted. A rotation R and a translation T that minimize the Euclidean distance defined between these corresponding points are calculated for the points of the entire data.
Note that although the technique using the ICP algorithm has been introduced for the matching in this embodiment, any technique may be used as long as each data can be matched. Further, a Weiss matching method or a matching method using a particle filter may be used instead of the ICP algorithm. By using a particle filter or the like, the rotation R and translation T are calculated by skipping the processing of the corresponding wall surface detection unit 18 even when there is no wall surface in the three-dimensional environment and there are columns or steps. It is also possible to do.

図8は実施の形態1に係る移動体100の自己位置推定手法を示すフローチャートである。3次元計測ステップ(S101)は、移動体100が周囲の環境情報を視覚センサなどの情報取得装置を用いて計測するステップである。3次元環境データ生成ステップ(S102)は、S101で取得した周囲の環境情報を基に3次元の位置データ群を含む環境データに変換する。壁面検出ステップ(S103)は、環境データから平面検出手法を用いて壁面を検出する。壁面位置情報取得ステップ(S104)は、S103で検出された壁面に属する壁面位置情報を取得する。高さ範囲情報取得ステップ(S105)は、環境データ中の所定の基準で決められた高さ範囲に含まれる位置データ群から位置情報を取得する。マッチングステップ(S106)では、移動体100が備える自己の周囲の参照マップと各位置情報取得ステップで取得された位置情報とをマッチングして、移動体100は自己位置を推定する。
壁面検出ステップにおいて、壁面の検出がされなかった場合には、高さ範囲情報取得ステップに移行する。また、マッチングが適切に行われなかった場合には、再度高さ範囲情報取得ステップに移行し、位置データ群を取得する高さ範囲を変更したうえで、位置情報を取得し、マッチングを再度行う。該マッチングは適切に行われるまで、あるいは、全ての高さ範囲情報を取得するまで繰り返されてもよい。
FIG. 8 is a flowchart showing a self-position estimation method of mobile unit 100 according to Embodiment 1. The three-dimensional measurement step (S101) is a step in which the moving body 100 measures surrounding environmental information using an information acquisition device such as a visual sensor. In the three-dimensional environment data generation step (S102), the surrounding environment information acquired in S101 is converted into environment data including a three-dimensional position data group. In the wall surface detection step (S103), the wall surface is detected from the environment data using a plane detection method. The wall surface position information acquisition step (S104) acquires wall surface position information belonging to the wall surface detected in S103. The height range information acquisition step (S105) acquires position information from the position data group included in the height range determined by a predetermined standard in the environmental data. In the matching step (S106), the mobile object 100 estimates its own position by matching the reference map around the user with the mobile object 100 and the position information acquired in each position information acquisition step.
When the wall surface is not detected in the wall surface detection step, the process proceeds to the height range information acquisition step. If matching is not properly performed, the process proceeds to the height range information acquisition step again, the height range for acquiring the position data group is changed, position information is acquired, and matching is performed again. . The matching may be repeated until it is properly performed or until all the height range information is acquired.

上述した自己位置推定部8による自己位置推定手法は、図8のフローチャートに示した処理手順が記述された自己位置推定プログラムをマイクロプロセッサ等のコンピュータに実行させることによって実現してもよい。   The self-position estimation method by the self-position estimation unit 8 described above may be realized by causing a computer such as a microprocessor to execute a self-position estimation program in which the processing procedure shown in the flowchart of FIG. 8 is described.

自己位置推定プログラムは、様々な種類の記憶媒体に格納することが可能であり、また、通信媒体を介して伝達されることが可能である。ここで、記憶媒体には、例えば、フレキシブルディスク、ハードディスク、磁気ディスク、光磁気ディスク、CD−ROM,DVD、ROMカートリッジ、不揮発性RAMカートリッジ等が含まれる。また、通信媒体には、電話回線等の有線通信媒体、マイクロ波回線等の無線通信媒体等が含まれ、インターネットも含まれる。   The self-position estimation program can be stored in various types of storage media, and can be transmitted via a communication medium. Here, examples of the storage medium include a flexible disk, a hard disk, a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD, a ROM cartridge, and a nonvolatile RAM cartridge. In addition, the communication medium includes a wired communication medium such as a telephone line, a wireless communication medium such as a microwave line, and the Internet.

<発明の実施の形態2>
実施の形態2について図9を用いて説明する。移動体100の自己位置推定部8は、信頼度設定部22をさらに有していてもよい。信頼度設定部22は、前記壁面位置情報取得部10および前記高さ範囲情報取得部12で取得された位置情報に信頼度を設定する。前記のように壁面は平面検出手法を用いて検出されるため、床面に垂直な平面を確実に検出することができるが、弧を描く壁面および円柱状の柱などは平面検出手段では検出することができない。また、柱や段差などは移動障害物の可能性がある。そこで、曲壁面、柱または段差などの障害物の信頼度を低く設定することで、より正確な自己位置推定が可能である。なお、信頼度を設定するタイミングは、壁面位置情報取得部10および高さ範囲情報取得部12で位置情報を取得する前でもよく、その場合は、環境データに対して信頼度を設定してもよいし、位置データに対して信頼度を設定してもよい。
<Embodiment 2 of the Invention>
The second embodiment will be described with reference to FIG. The self-position estimation unit 8 of the moving body 100 may further include a reliability setting unit 22. The reliability setting unit 22 sets the reliability in the position information acquired by the wall surface position information acquisition unit 10 and the height range information acquisition unit 12. As described above, since the wall surface is detected by using the plane detection method, a plane perpendicular to the floor surface can be reliably detected, but the wall surface and the columnar column that draw an arc are detected by the plane detection means. I can't. Also, pillars and steps may be moving obstacles. Therefore, more accurate self-position estimation is possible by setting the reliability of obstacles such as curved walls, columns, or steps to be low. The timing for setting the reliability may be before the position information is acquired by the wall surface position information acquisition unit 10 and the height range information acquisition unit 12, and in that case, the reliability may be set for the environmental data. The reliability may be set for the position data.

ここで、信頼度設定手法は、壁面の信頼度を1とし、曲壁面、段差または柱の信頼度については数式(2)で設定してもよい。
(段差の信頼度)=(段差の高さ)/(壁面の高さ) ・・・・・・(2)
Here, in the reliability setting method, the reliability of the wall surface may be set to 1, and the reliability of the curved wall surface, the step, or the column may be set by Expression (2).
(Reliability of level difference) = (Level of level difference) / (Height of wall surface) (2)

また、信頼度設定部22は、図10のように、前記壁面位置情報取得部10および前記高さ範囲情報取得部12で取得した位置情報を2次元グリッドデータに変換してもよく、この場合には各グリッドへ投影された位置データの数に応じて、各グリッドの信頼度を決定してもよい。床面に平行な法線ベクトルを有する平面であっても壁面ではなく、段差の場合もあり得る。段差の場合には、壁面に比べて位置データ数が少ないため、グリッドの信頼度は減少する。これにより、壁面と段差の区別が可能となる。
なお、視覚センサ2が、移動環境内に存在する障害物に関する3次元の位置データ群を含む環境データを生成した際に、傾斜したときは、信頼度を低く設定してもよい。正確なマッチングができないおそれがあるからである。
Further, as shown in FIG. 10, the reliability setting unit 22 may convert the position information acquired by the wall surface position information acquisition unit 10 and the height range information acquisition unit 12 into two-dimensional grid data. Alternatively, the reliability of each grid may be determined according to the number of position data projected onto each grid. Even a plane having a normal vector parallel to the floor may be a step instead of a wall. In the case of a step, since the number of position data is smaller than the wall surface, the reliability of the grid is reduced. Thereby, the wall surface and the step can be distinguished.
When the visual sensor 2 is tilted when generating environmental data including a three-dimensional position data group related to an obstacle present in the moving environment, the reliability may be set low. This is because accurate matching may not be possible.

自己位置推定部8では、設定された信頼度を参照し、特定の閾値を満たす信頼度の位置情報を用いてマッチングする。但し、移動体100が備える参照マップとのマッチングが適切に行われかった場合は、前記閾値を変動させることも可能である。   The self-position estimation unit 8 refers to the set reliability and performs matching using position information with reliability satisfying a specific threshold. However, when the matching with the reference map included in the moving body 100 is not properly performed, the threshold value can be changed.

<発明の実施の形態3>
次に、前記のマッチングとは異なるマッチング手法について述べる。実施の形態3では、環境データ中の壁面データが有する法線ベクトルに着目してマッチングをする。なお、移動体100が備える自己の周囲の参照マップは、あらかじめその壁面の法線ベクトル情報を保持している。
<Third embodiment of the invention>
Next, a matching method different from the above matching will be described. In the third embodiment, matching is performed by paying attention to the normal vector of the wall surface data in the environmental data. In addition, the reference map around the self included in the moving body 100 holds the normal vector information of the wall surface in advance.

図11は実施の形態3のマッチング部14のブロック図である。
なお、本実施の形態3では、初期位置の設定については、実施の形態1と同様に、初期位置設定部16においてデッドレコニングによる自己位置推定方法によって設定されている。また、対応する壁面の検出についても、実施の形態1と同様に、対応壁面検出部18において行われる。よって、実施の形態1と共通しているこれらの処理に関する説明を省略する。
FIG. 11 is a block diagram of the matching unit 14 according to the third embodiment.
In the third embodiment, the initial position is set by the initial position setting unit 16 by the self-position estimation method using dead reckoning, as in the first embodiment. Also, the detection of the corresponding wall surface is performed in the corresponding wall surface detection unit 18 as in the first embodiment. Therefore, the description regarding these processes common to Embodiment 1 is omitted.

回転R算出部24は、前記対応壁面検出部18で検出された対応する壁面が有する各法線ベクトルの差が最小になる回転Rを算出する。壁面検出部6によって検出された壁面は、法線ベクトルとともに検出されており、壁面位置情報取得部10によって取得された壁面位置情報もまた法線ベクトルを備えている。式(3)を利用して回転Rを求めることができる。normal()は法線ベクトルを表している。
R=Min(R・normal(a)−normal(A)+R・normal(b)−normal(B)+・・・) ・・・・・・(3)
The rotation R calculation unit 24 calculates the rotation R that minimizes the difference between the normal vectors of the corresponding wall surfaces detected by the corresponding wall surface detection unit 18. The wall surface detected by the wall surface detection unit 6 is detected together with the normal vector, and the wall surface position information acquired by the wall surface position information acquisition unit 10 also includes the normal vector. The rotation R can be obtained using Equation (3). normal () represents a normal vector.
R = Min (R.normal (a) -normal (A) + R.normal (b) -normal (B) +...) (3)

並進T算出部26は、壁面位置情報取得部10が取得した位置情報または自己の周囲の参照マップに含まれる壁面の位置情報をR回転させ、再度マッチング処理をして並進Tを算出する。環境データまたは取得した位置情報に含まれる各点を用いて回転Rおよび並進Tを求めるよりも、各壁面が有する法線ベクトルを用いて回転Rを求めた後に、再度マッチング処理をして並進Tを求めることにより、点と点の誤対応状態でのマッチングを防ぎ、より精度の高いマッチングが可能となる。再度のマッチングではICPアルゴリズム、Weissのマッチング手法またはパーティクルフィルタを用いたマッチング手法などを利用することができる。   The translation T calculation unit 26 rotates the position information acquired by the wall surface position information acquisition unit 10 or the position information of the wall surface included in the reference map around itself, and performs the matching process again to calculate the translation T. Rather than obtaining the rotation R and translation T using each point included in the environmental data or the acquired position information, after obtaining the rotation R using the normal vector of each wall surface, matching processing is performed again to obtain the translation T. By obtaining the above, matching in a state where the points are miscorresponding to each other can be prevented, and more accurate matching can be performed. In the second matching, an ICP algorithm, a Weiss matching method, a matching method using a particle filter, or the like can be used.

100 ・・・自律移動体
2 ・・・視覚センサ
4 ・・・3次元環境データ生成部
41 ・・・壁面
42 ・・・壁面
43 ・・・壁面
44 ・・・段差
45 ・・・円柱
46 ・・・データ取得空間
6 ・・・壁面検出部
8 ・・・自己位置推定部
10 ・・・壁面位置情報取得部
12 ・・・高さ範囲情報取得部
14 ・・・マッチング部
16 ・・・初期位置設定部
18 ・・・対応壁面検出部
20 ・・・剛体変換パラメータ算出部
22 ・・・信頼度設定部
24 ・・・回転R算出部
26 ・・・並進T算出部
DESCRIPTION OF SYMBOLS 100 ... Autonomous moving body 2 ... Visual sensor 4 ... Three-dimensional environment data generation part 41 ... Wall surface 42 ... Wall surface 43 ... Wall surface 44 ... Step 45 ... Cylinder 46・ ・ Data acquisition space 6 ・ ・ ・ Wall surface detection unit 8 ・ ・ ・ Self-position estimation unit 10 ・ ・ ・ Wall surface position information acquisition unit 12 ・ ・ ・ Height range information acquisition unit 14 ・ ・ ・ Matching unit 16 ・ ・ ・ Initial Position setting unit 18 ... corresponding wall surface detection unit 20 ... rigid body conversion parameter calculation unit 22 ... reliability setting unit 24 ... rotation R calculation unit 26 ... translation T calculation unit

Claims (9)

移動環境を計測する視覚センサと、
前記視覚センサによる計測結果を用いて、前記移動環境内に存在する障害物に関する3次元の位置データ群を含む環境データを生成する3次元環境データ生成部と、
前記環境データを用いて、前記移動環境内に存在する平らな壁面を検出する壁面検出部と、
前記環境データに含まれる前記位置データ群のうち第1の高さ範囲に属する位置データによって特定される障害物の位置情報、および前記壁面の位置情報を、前記移動環境内に固定的に存在する固定障害物の位置を示す参照マップと照合することによって、自己の位置を推定する自己位置推定部と、
を備える自律移動体。
A visual sensor to measure the moving environment;
Using a measurement result of the visual sensor, a three-dimensional environment data generation unit that generates environment data including a three-dimensional position data group related to an obstacle existing in the moving environment;
Using the environmental data, a wall surface detection unit that detects a flat wall surface existing in the mobile environment,
Position information of an obstacle specified by position data belonging to a first height range in the position data group included in the environment data and position information of the wall surface are fixedly present in the moving environment. A self-position estimation unit that estimates the position of the self by collating with a reference map indicating the position of the fixed obstacle;
An autonomous mobile body comprising
前記第1の高さ範囲は、前記位置データ群の高さ分布に基づいて決定される請求項1に記載の自律移動体。   The autonomous mobile body according to claim 1, wherein the first height range is determined based on a height distribution of the position data group. 前記第1の高さ範囲は、前記位置データ群のうち最も高さが高いデータを含むように決定される請求項1または2に記載の自律移動体。   The autonomous mobile body according to claim 1 or 2, wherein the first height range is determined so as to include data having the highest height in the position data group. 前記位置データ群は、前記環境データに含まれる前記位置データ群から前記壁面に対応する位置データ群を除いた残りのデータ群である請求項2または3に記載の自律移動体。   The autonomous mobile body according to claim 2 or 3, wherein the position data group is a remaining data group obtained by removing a position data group corresponding to the wall surface from the position data group included in the environment data. 前記位置データに信頼度を付与する信頼度設定部をさらに備え、
前記信頼度設定部は、前記位置データ群のうち第1の高さ範囲に属する位置データによって特定される障害物の位置情報に設定する信頼度よりも、前記壁面の位置情報に設定する信頼度を高くし、
前記自己位置推定部は、前記信頼度の高い位置情報を参照マップとの照合に優先的に用いる、請求項1〜4のいずれか一項に記載の自律移動体。
A reliability setting unit for adding reliability to the position data;
The reliability setting unit sets the reliability in the position information of the wall surface rather than the reliability set in the position information of the obstacle specified by the position data belonging to the first height range in the position data group. Increase
The autonomous mobile body according to any one of claims 1 to 4, wherein the self-position estimation unit preferentially uses the highly reliable position information for collation with a reference map.
前記信頼度設定部は、前記環境データに含まれる前記位置データ群のうち第1の高さ範囲に属する位置データによって特定される障害物の位置情報および前記壁面の位置情報をグリッドデータに変換し、
前記位置データの夫々が対応する各グリッドに、前記位置データの数に基づいて信頼度を設定する請求項5に記載の自律移動体。
The reliability setting unit converts the position information of an obstacle and the position information of the wall surface specified by position data belonging to a first height range in the position data group included in the environment data into grid data. ,
The autonomous mobile body according to claim 5, wherein a reliability is set for each grid corresponding to each of the position data based on the number of the position data.
前記自己位置推定部は、前記壁面の法線ベクトルを用いて、前記参照マップによって特定される前記固定障害物の配置に前記壁面を重ね合わせるための回転角度を算出する請求項1〜4のいずれか一項に記載の自律移動体。   The said self-position estimation part calculates the rotation angle for superimposing the said wall surface on arrangement | positioning of the said fixed obstacle specified by the said reference map using the normal vector of the said wall surface. The autonomous mobile body according to claim 1. 移動環境内に存在する障害物に関する3次元の位置データ群を含む環境データに含まれる前記位置データ群のうち第1の高さ範囲に属する位置データによって特定される障害物の位置情報と、前記環境データを用いて検出された平らな壁面の位置情報を、前記移動環境内に固定的に存在する固定障害物の位置を示す参照マップと照合することによって、自己の位置を推定する自己位置推定装置。   The position information of the obstacle specified by the position data belonging to the first height range among the position data group included in the environment data including the three-dimensional position data group related to the obstacle present in the moving environment; Self-position estimation in which self-position estimation is performed by collating position information of a flat wall detected using environment data with a reference map indicating the position of a fixed obstacle that is fixedly present in the moving environment. apparatus. 移動環境内に存在する障害物に関する3次元の位置データ群を含む環境データに含まれる前記位置データ群のうち第1の高さ範囲に属する位置データによって特定される障害物の位置情報と、前記環境データを用いて検出された平らな壁面の位置情報を、前記移動環境内に固定的に存在する固定障害物の位置を示す参照マップと照合することによって、自己の位置を推定する自己位置推定ステップを備える、
自己位置推定処理をコンピュータに実行させるための自己位置推定プログラム。
The position information of the obstacle specified by the position data belonging to the first height range among the position data group included in the environment data including the three-dimensional position data group related to the obstacle present in the moving environment; Self-position estimation in which self-position estimation is performed by collating position information of a flat wall detected using environment data with a reference map indicating the position of a fixed obstacle that is fixedly present in the moving environment. Comprising steps,
A self-position estimation program for causing a computer to execute self-position estimation processing.
JP2009148424A 2009-06-23 2009-06-23 Autonomous mobile body, self-position estimation apparatus, and program Expired - Fee Related JP5141644B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009148424A JP5141644B2 (en) 2009-06-23 2009-06-23 Autonomous mobile body, self-position estimation apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009148424A JP5141644B2 (en) 2009-06-23 2009-06-23 Autonomous mobile body, self-position estimation apparatus, and program

Publications (2)

Publication Number Publication Date
JP2011008320A true JP2011008320A (en) 2011-01-13
JP5141644B2 JP5141644B2 (en) 2013-02-13

Family

ID=43564951

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009148424A Expired - Fee Related JP5141644B2 (en) 2009-06-23 2009-06-23 Autonomous mobile body, self-position estimation apparatus, and program

Country Status (1)

Country Link
JP (1) JP5141644B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102650886A (en) * 2012-04-28 2012-08-29 浙江工业大学 Vision system based on active panoramic vision sensor for robot
JP2013200604A (en) * 2012-03-23 2013-10-03 Toyota Motor Corp Mobile robot
JP2014174683A (en) * 2013-03-07 2014-09-22 Advanced Telecommunication Research Institute International Position estimation device, position estimation program, and position estimation method
JP2015001820A (en) * 2013-06-14 2015-01-05 シャープ株式会社 Autonomous mobile body, control system of the same, and own position detection method
JP2016095590A (en) * 2014-11-12 2016-05-26 村田機械株式会社 Movement amount estimation device, autonomous mobile body, and method of estimating movement amount
JP2016099172A (en) * 2014-11-19 2016-05-30 株式会社豊田中央研究所 Vehicle position estimation device and program
CN106574836A (en) * 2014-04-14 2017-04-19 软银机器人欧洲公司 A method for localizing a robot in a localization plane
JP2017538915A (en) * 2014-09-17 2017-12-28 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー Positioning / mapping method and positioning / mapping system
WO2019111702A1 (en) * 2017-12-05 2019-06-13 ソニー株式会社 Information processing device, information processing method, and program
JP2019109653A (en) * 2017-12-18 2019-07-04 パイオニア株式会社 Self-location estimating apparatus
JP2022079622A (en) * 2017-12-18 2022-05-26 ジオテクノロジーズ株式会社 Self position estimation device and vehicle position estimation system
WO2022153390A1 (en) * 2021-01-13 2022-07-21 株式会社Acsl Self-position estimation system for estimating self position of uncrewed aircraft, flight control system, uncrewed aircraft, program, and recording medium
US11520341B2 (en) 2019-05-07 2022-12-06 Toshiba Tec Kabushiki Kaisha Information processing apparatus and information processing method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001266123A (en) * 2000-03-22 2001-09-28 Honda Motor Co Ltd Picture processor, peculiar part detecting method and recording medium recording peculiar part detection program
JP2006343881A (en) * 2005-06-07 2006-12-21 Institute Of Physical & Chemical Research Self-position estimation system and self-position estimation method
JP4169043B2 (en) * 2006-04-24 2008-10-22 松下電工株式会社 Mobile device group control system
JP2009110250A (en) * 2007-10-30 2009-05-21 Ihi Corp Map creation device and method for determining traveling path of autonomous traveling object

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001266123A (en) * 2000-03-22 2001-09-28 Honda Motor Co Ltd Picture processor, peculiar part detecting method and recording medium recording peculiar part detection program
JP2006343881A (en) * 2005-06-07 2006-12-21 Institute Of Physical & Chemical Research Self-position estimation system and self-position estimation method
JP4169043B2 (en) * 2006-04-24 2008-10-22 松下電工株式会社 Mobile device group control system
JP2009110250A (en) * 2007-10-30 2009-05-21 Ihi Corp Map creation device and method for determining traveling path of autonomous traveling object

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013200604A (en) * 2012-03-23 2013-10-03 Toyota Motor Corp Mobile robot
CN102650886A (en) * 2012-04-28 2012-08-29 浙江工业大学 Vision system based on active panoramic vision sensor for robot
JP2014174683A (en) * 2013-03-07 2014-09-22 Advanced Telecommunication Research Institute International Position estimation device, position estimation program, and position estimation method
JP2015001820A (en) * 2013-06-14 2015-01-05 シャープ株式会社 Autonomous mobile body, control system of the same, and own position detection method
JP2017514124A (en) * 2014-04-14 2017-06-01 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe How to localize the robot in the localization plane
CN106574836A (en) * 2014-04-14 2017-04-19 软银机器人欧洲公司 A method for localizing a robot in a localization plane
JP2017538915A (en) * 2014-09-17 2017-12-28 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー Positioning / mapping method and positioning / mapping system
JP2016095590A (en) * 2014-11-12 2016-05-26 村田機械株式会社 Movement amount estimation device, autonomous mobile body, and method of estimating movement amount
JP2016099172A (en) * 2014-11-19 2016-05-30 株式会社豊田中央研究所 Vehicle position estimation device and program
US10032278B2 (en) 2014-11-19 2018-07-24 Kabushiki Kaisha Toyota Chuo Kenkyusho Vehicle position estimation device, method and computer readable recording medium
WO2019111702A1 (en) * 2017-12-05 2019-06-13 ソニー株式会社 Information processing device, information processing method, and program
US11531354B2 (en) 2017-12-05 2022-12-20 Sony Corporation Image processing apparatus and image processing method
JP2019109653A (en) * 2017-12-18 2019-07-04 パイオニア株式会社 Self-location estimating apparatus
JP7051416B2 (en) 2017-12-18 2022-04-11 ジオテクノロジーズ株式会社 Self-position estimation device
JP2022079622A (en) * 2017-12-18 2022-05-26 ジオテクノロジーズ株式会社 Self position estimation device and vehicle position estimation system
US11520341B2 (en) 2019-05-07 2022-12-06 Toshiba Tec Kabushiki Kaisha Information processing apparatus and information processing method
WO2022153390A1 (en) * 2021-01-13 2022-07-21 株式会社Acsl Self-position estimation system for estimating self position of uncrewed aircraft, flight control system, uncrewed aircraft, program, and recording medium

Also Published As

Publication number Publication date
JP5141644B2 (en) 2013-02-13

Similar Documents

Publication Publication Date Title
JP5141644B2 (en) Autonomous mobile body, self-position estimation apparatus, and program
CN108051002B (en) Transport vehicle space positioning method and system based on inertial measurement auxiliary vision
AU2016213835B2 (en) Adaptive mapping with spatial summaries of sensor data
KR101782057B1 (en) Apparatus for building map and method thereof
KR101072876B1 (en) Method and apparatus for estimating position in a mobile robot
JP4942733B2 (en) Self-localization method of robot based on object recognition and surrounding environment information including recognized object
US8467902B2 (en) Method and apparatus for estimating pose of mobile robot using particle filter
US8600603B2 (en) Apparatus and method of localization of mobile robot
JP5803367B2 (en) Self-position estimation apparatus, self-position estimation method and program
KR101581197B1 (en) Robot and control method thereof
US20110205338A1 (en) Apparatus for estimating position of mobile robot and method thereof
JP6328327B2 (en) Image processing apparatus and image processing method
KR101705601B1 (en) Apparatus and method for estimating the location of autonomous robot based on three-dimensional depth information
US20130158865A1 (en) Method and apparatus for estimating position of moving object
JP2010033447A (en) Image processor and image processing method
JP5819257B2 (en) Moving object position estimation method and moving object
JP2010066595A (en) Environment map generating device and environment map generating method
Lee et al. A novel method for estimating the heading angle for a home service robot using a forward-viewing mono-camera and motion sensors
JP6638753B2 (en) Autonomous mobile device, autonomous mobile method and program
Fabian et al. One-point visual odometry using a RGB-depth camera pair
Lu et al. SLAM estimation in dynamic outdoor environments
CN115700507B (en) Map updating method and device
Wang et al. Real-time visual odometry estimation based on principal direction detection on ceiling vision
Fu et al. Multi-waypoint visual homing in piecewise linear trajectory
JP2004132933A (en) Position/attitude estimation method of active sensor, its device and position/attitude estimation program of active sensor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111012

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121023

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121105

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151130

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5141644

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees