JP5141644B2 - The autonomous moving body, the self-position estimating device, and a program - Google Patents

The autonomous moving body, the self-position estimating device, and a program Download PDF

Info

Publication number
JP5141644B2
JP5141644B2 JP2009148424A JP2009148424A JP5141644B2 JP 5141644 B2 JP5141644 B2 JP 5141644B2 JP 2009148424 A JP2009148424 A JP 2009148424A JP 2009148424 A JP2009148424 A JP 2009148424A JP 5141644 B2 JP5141644 B2 JP 5141644B2
Authority
JP
Japan
Prior art keywords
position
data
self
environment
position data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009148424A
Other languages
Japanese (ja)
Other versions
JP2011008320A (en
Inventor
豊 高岡
Original Assignee
トヨタ自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by トヨタ自動車株式会社 filed Critical トヨタ自動車株式会社
Priority to JP2009148424A priority Critical patent/JP5141644B2/en
Publication of JP2011008320A publication Critical patent/JP2011008320A/en
Application granted granted Critical
Publication of JP5141644B2 publication Critical patent/JP5141644B2/en
Application status is Active legal-status Critical
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、自律的に移動する自律移動体および自律移動体の自己位置推定方法に関する。 The present invention relates to a self-position estimation method of the autonomous moving body and the autonomous moving body that moves autonomously.

近年、ロボットや車両などが自ら目的を達するために考えて、自律移動をする自律移動体が開発されている。 Recently, I thought to robots, vehicles reaches their purpose, the autonomous moving body has been developed for the autonomous mobile. 自律移動体は、自己が有する参照マップを参照することによって移動経路を計画し、当該移動経路に従って移動を行う。 Autonomous moving body, self planning a travel route by referring to the reference map having performs a movement in accordance with the movement path. 自律移動体において、自身の周囲の環境を認識して経路計画を立て、それに応じて移動する能力は重要である。 In the autonomous moving body, it makes a path planning recognizes the environment around the own ability to move accordingly is important.

特許文献1では自律移動ロボットが、所定環境内において、自己の位置と壁面との距離を計測して現在位置を推定して目的地に向かう技術が開示されている。 Autonomous mobile robot in Patent Document 1, in a predetermined environment, technology towards the destination by estimating a current position by measuring the distance between the own position and the wall surface is disclosed. 該文献では、自己位置の計測ができなくなった場合の回復手段の開示もされている。 In the literature, it is also disclosed recovery means when it becomes impossible to measure self-position.
また、特許文献2には床面に段差がある領域での移動においても、移動可能か否か判定するための環境マップを作成することができる装置が開示されている。 Further, Patent Document 2 even in the movement in the region where there is a step on the floor apparatus capable of creating an environment map for determining whether movable is disclosed.
このように、近年では移動体が適切な自律移動をするための手法について開発されている。 Thus, it has been developed for the method for moving object to a proper autonomous mobile in recent years.

特開2008−59218号公報 JP 2008-59218 JP 特開2005−92820号公報 JP 2005-92820 JP

特許文献1の自律移動体は、自己の周囲を計測して、自己の位置と周囲の壁面との距離を測る。 Autonomous moving body in Patent Document 1, by measuring the circumference of the self, measure the distance between the position and the surrounding wall of the self. すなわち、所定環境内の壁面を基準として自己の位置を推定、または修正している。 That is, estimated, or modify its own position relative to the wall surface in a predetermined environment.
しかし、前記所定環境内に固定的に存在する障害物は平らな壁面(以下、壁面)だけに限られない。 However, the predetermined environmental fixedly obstacles present in the flat wall surfaces (hereinafter, the wall surface) not limited to. 例えば、円弧を描く壁面(以下、曲壁面)、円柱状の柱および所定環境内の床面と高さの異なる段差などが存在している場合もある。 For example, there is a wall to draw an arc (hereinafter, music wall), case etc. cylindrical pillars and floor and different step heights in a given environment are present.

段差は、単なる段差である場合もあるし、移動障害物である場合もある。 Step may or may merely step, also be a moving obstacle. 移動障害物は人間、台車または、他の移動体などが挙げられる。 Moving obstacle humans, truck or the like other mobile. また、柱もまた移動障害物である可能性がある。 In addition, there is a possibility pillar is also moving obstacle. 自律移動体は、固定障害物を基準に自己位置を推定するため、移動障害物を誤って認識した場合には、自己位置を誤って推定する可能性がある。 Autonomous moving body, for estimating its own position relative to the fixed obstacle, when recognizing accidentally moving obstacle is likely to erroneously estimated its own position.
また、曲壁面および円柱状の柱などは平面検出手段などで検出することはできない。 Further, such songs wall and cylindrical pillar can not be detected in such a plane detector.

本発明は、上述の問題を解決するためになされたものであり、自律移動体が自己位置を推定する際に移動障害物の影響を受け難くするとともに、壁面以外の障害物の計測情報も自己位置推定に利用することができる自律移動体および自己位置推定プログラムを提供することを目的とする。 The present invention has been made to solve the above problems, the autonomous moving body as well as less susceptible to moving obstacle in estimating its own position, self even measurement information of the obstacle other than the wall surface and to provide an autonomous moving body and self-position estimation program that can be used for position estimation.

本発明に係る自律移動体は、移動環境を計測する視覚センサと、前記視覚センサによる計測結果を用いて、前記移動環境内に存在する障害物に関する3次元の位置データ群を含む環境データを生成する3次元環境データ生成部と、前記環境データを用いて、前記移動環境内に存在する平らな壁面を検出する壁面検出部と、前記環境データに含まれる前記位置データ群のうち第1の高さ範囲に属する位置データによって特定される障害物の位置情報、および前記壁面の位置情報を、前記移動環境内に固定的に存在する固定障害物の位置を示す参照マップと照合することによって、自己の位置を推定する自己位置推定部と、を備える自律移動体である。 Autonomous moving body according to the present invention, generates a visual sensor for measuring a moving environment, using the measurement result by the visual sensor, environmental data including three-dimensional position data group relating to obstacles present in the mobile environment a three-dimensional environment data generating unit that, by using the environment data, the present in the mobile environment and the wall detector for detecting a flat wall surface, the first high among the position data group included in the environmental data by positional information of the obstacle identified, and the position information of the wall surface, to match the reference map showing the position of the fixed obstacles existing fixed to said mobile environment by the position data belonging to the range, self a self-position estimating section for estimating a position, a autonomous moving body comprises a.
人間や台車または他の移動体のような移動障害物は、壁や柱などの固定障害物に比べて、高さが低く、3次元空間内の一部に存在する。 Moving obstacle such as a human or truck or other movable body as compared to fixed obstacles such as walls and pillars, the height low, present in part of the three-dimensional space. したがって、特定の高さよりも高い位置データを有する位置情報を基に参照マップと照合することによって、自律移動体が自己位置を推定する際に移動障害物の影響を受け難くするとともに、壁面以外の障害物の計測情報も自己位置推定に利用することが可能となり、正確な自己位置推定が可能となる。 Therefore, by matching the reference map based on the position information having high positional data than a certain height, with autonomous moving body is less susceptible to moving obstacle in estimating its own position, other than the wall surface measurement information of obstacles also becomes possible to use the self-position estimation, it is possible to accurately self-localization.

また、前記第1の高さ範囲は、前記位置データ群の高さ分布に基づいて決定されてもよい。 Further, the first height range may be determined based on the height distribution of the position data group. 前述のように、障害物の高さによって、固定障害物か移動障害物かの傾向がわかる。 As described above, the height of the obstacle, or trends seen fixed obstacle or moving obstacle. 本構成により、移動障害物を効率よく省いて、前記参照マップとの照合が可能となる。 With this configuration, by omitting the moving obstacle efficiently, it is possible to match with the reference map.

さらに、前記第1の高さ範囲は、前記位置データ群のうち最も高さが高いデータを含むように決定されることが好ましい。 Furthermore, the first height range is preferably tallest among the position data group is determined to include a high data. 前述のように、移動障害物などは壁面と比較すると高さが低いため、自己位置推定には不要な移動障害物を抽出せずに固定障害物である曲壁面および円柱状の柱などだけを抽出することが可能となる。 As described above, since such moving obstacle has a lower height when compared to the wall, only such songs wall and a cylindrical pillar which is fixed obstacle without extracting an unnecessary moving obstacle to self-localization it is possible to extract.

さらにまた、前記位置データ群は、前記環境データに含まれる前記位置データ群から前記壁面に対応する位置データ群を除いた残りのデータ群であってもよい。 Furthermore, the position data set may be a remaining data group except for the position data group corresponding to the wall surface from the position data group included in the environmental data.

ここで、前記位置データに信頼度を付与する信頼度設定部をさらに備えてもよく、前記信頼度設定部は、前記位置データ群のうち第1の高さ範囲に属する位置データによって特定される障害物の位置情報に設定する信頼度よりも、前記壁面の位置情報に設定する信頼度を高くし、前記自己位置推定部は、前記信頼度の高い位置情報を参照マップとの照合に優先的に用いる。 Here, may further comprise a reliability setting unit that imparts confidence in the position data, the reliability setting unit is identified by the position data belonging to the first height range of the position data group than the reliability of setting the position information of the obstacle, to increase the reliability of setting the position information of the wall surface, the self-position estimating unit preferentially the reliable location information to match the reference map used to. この場合、壁や柱などの高さが高い物体と、段差などの高さが低い物体の信頼度を分けることが可能であり、固定障害物と移動障害物の区別が可能となる。 In this case, the height is high objects such as walls and pillars, it is possible to divide the reliability of the object is low in height, such as a step, it is possible to distinguish between fixed obstacles and the moving obstacle. なお、本発明でいう信頼度とは、3次元環境データから抽出された壁、柱、段差、その他の障害物が、移動障害物であるか否かを示す度合であり、信頼度が低いほど移動障害物として判断され、その情報を利用することなく自己位置推定することができる。 Note that the confidence in the present invention, wall extracted from three-dimensional environment data, pillars, steps, and other obstacles, a degree indicating whether the moving obstacle, the lower the reliability is determined as a moving obstacle can be self-position estimation without using the information.

また、前記信頼度設定部は、前記環境データに含まれる前記位置データ群のうち第1の高さ範囲に属する位置データによって特定される障害物の位置情報および前記壁面の位置情報をグリッドデータに変換し、前記位置データの夫々が対応する各グリッドに、前記位置データの数に基づいて信頼度を設定してもよい。 Further, the reliability setting unit, the position information of the position information and the wall surface of the obstacle identified by the position data belonging to the first height range of the position data group included in the environmental data to the grid data converted to each grid each of the position data corresponds may set the reliability based on the number of the position data.

また、前記自己位置推定部は、前記壁面の法線ベクトルを用いて、前記参照マップによって特定される前記固定障害物の配置に前記壁面を重ね合わせるための回転角度を算出することが好ましい。 Also, the self-position estimating unit uses the normal vectors of the wall surface, it is preferable to calculate the rotation angle for superimposing said wall surface to the arrangement of the fixed obstacles identified by the reference map. 夫々の壁面の法線ベクトルが一致する回転角度を求めることで、夫々の点と点をマッチングして自己位置推定するよりも、正確な自己位置推定が可能となる。 By obtaining the rotation angle normal vector of the wall surface of each match, rather than self-localization matching the dots of each, so that accurate self-localization.

他方、本発明に係る自己位置推定装置は、移動環境内に存在する障害物に関する3次元の位置データ群を含む環境データに含まれる前記位置データ群のうち第1の高さ範囲に属する位置データによって特定される障害物の位置情報と、前記環境データを用いて検出された平らな壁面の位置情報を、前記移動環境内に固定的に存在する固定障害物の位置を示す参照マップと照合することによって、自己の位置を推定することを特徴とする。 On the other hand, the self-position estimation apparatus according to the present invention, the position data belonging to the first height range of the position data group included in the environmental data including the three-dimensional position data group about the obstacle existing mobile environment matching the position information of the obstacle identified, the position information of the detected flat wall by using the environment data, the reference map indicating the position of the fixed obstacles existing fixed to said mobile environment by it allows and estimates its own position.

また、本発明に係る自己位置推定プログラムは、移動環境内に存在する障害物に関する3次元の位置データ群を含む環境データに含まれる前記位置データ群のうち第1の高さ範囲に属する位置データによって特定される障害物の位置情報と、前記環境データを用いて検出された平らな壁面の位置情報を、前記移動環境内に固定的に存在する固定障害物の位置を示す参照マップと照合することによって、自己の位置を推定する自己位置推定ステップを備える、自己位置推定処理をコンピュータに実行させるためのプログラムである。 Also, the self-position estimation program according to the present invention, the position data belonging to the first height range of the position data group included in the environmental data including the three-dimensional position data group about the obstacle existing mobile environment matching the position information of the obstacle identified, the position information of the detected flat wall by using the environment data, the reference map indicating the position of the fixed obstacles existing fixed to said mobile environment by by comprises a self-position estimation step of estimating its location, is a program for executing the self-position estimation processing in the computer.

本発明により、自律移動体が自己位置を推定する際に移動障害物の影響を受け難くするとともに、壁面以外の障害物の計測情報も自己位置推定に利用することが可能となり、正確な自己位置を推定することができる自律移動体およびその自己位置推定プログラムを提供することができる。 The present invention, autonomous moving body as well as less susceptible to moving obstacle in estimating its own position, measurement information of the obstacle other than the wall surface also becomes possible to use the self-position estimation, accurate self-position it is possible to provide an autonomous moving body and its self-position estimation program that can be estimated.

実施の形態1に係る移動体の制御系を示すブロック図。 Block diagram showing a control system of the vehicle according to the first embodiment. 自己位置推定部を説明するブロック図。 Block diagram illustrating a self position estimating unit. 実施の形態1の所定環境の斜視図。 Perspective view of a given environment of the first embodiment. 環境データから取得したデータを2次元に図示する説明図。 Explanatory view illustrating the data acquired from the environment data in two dimensions. 高さ範囲情報を取得する際の説明図。 Illustration in acquiring height range information. 実施の形態2のマッチング部のブロック図。 Block diagram of the matching portion of the second embodiment. ICPアルゴリズムの説明図。 Illustration of the ICP algorithm. 実施の形態1の自己位置推定プロセスのフローチャート。 Flow chart of the self-position estimation process of the first embodiment. 実施の形態2の自己位置推定部のブロック図。 Block diagram of the self-position estimating unit of the second embodiment. 2次元グリッドマップへ環境データを変換する説明図。 Diagram to a two-dimensional grid map to convert the environmental data. 実施の形態3のマッチング部のブロック図。 Block diagram of the matching portion of the third embodiment.

以下では、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。 Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings. 各図面において、同一要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。 In the drawings, the same components are denoted by the same reference numerals, for clarity of description, repeated explanation is omitted as appropriate.

<発明の実施の形態1> <Of the implementation of the invention according to the first>
図1に実施の形態1に係る自律移動体(以下、移動体)100の構成を示す。 Autonomous moving body according to the first embodiment in FIG. 1 (hereinafter, mobile) showing a structure of 100. 移動体100は視覚センサ2、3次元環境データ生成部4、壁面検出部6および自己位置推定部8など備えている。 The moving body 100 is a visual sensors 2 dimensional environment data generating unit 4, a wall or other detector 6 and the self-position estimating portion 8.

視覚センサ2は、レーザレンジファインダ等のアクティブ距離センサを有している。 Visual sensor 2 has an active range sensor such as a laser range finder. そして、視覚センサ2は、所定環境の距離画像データを取得する。 The visual sensor 2 acquires range image data of a predetermined environment. 視覚センサ2が計測を行う範囲は、視覚センサ2の性能によって規定される。 Visual sensor 2 range for the measurement is defined by the performance of a visual sensor 2.

なお、視覚センサ2としては、CCD(Charge Coupled Device)イメージセンサまたはCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子を備えた複数のカメラを備えてもよい。 As the visual sensor 2 may comprise a plurality of cameras having a CCD (Charge Coupled Device) image sensor or CMOS (Complementary Metal Oxide Semiconductor) image sensor such as an image sensor. そして、視覚センサ2は、これら複数のカメラによって撮影した画像データを用いて距離画像データを生成してもよい。 The visual sensor 2 may generate the range image data by using the image data captured by these plural cameras. 具体的には、視覚センサ2は、複数のカメラによって撮影した画像データから対応点を検出する。 Specifically, the visual sensor 2 detects corresponding points from the image data captured by multiple cameras. 次いで、視覚センサ2は、ステレオ視によって対応点の3次元位置を復元すればよい。 Then, the visual sensor 2 may be restored to three-dimensional positions of the corresponding points by the stereo vision. ここで、複数の撮影画像における対応点の探索は、複数の撮影画像に対する自空間微分の拘束式を用いた勾配法や相関法等の公知の手法を適用して行えばよい。 Here, the search for the corresponding points in the plurality of captured images may be performed by applying a known method of gradient method or correlation method using a constraint equation of the own spatial derivative with respect to a plurality of captured images.

3次元環境データ生成部4では、距離画像データの座標変換を行って環境データを生成する。 In three-dimensional environment data generation unit 4, a distance coordinate conversion of the image data by performing generate environmental data. なお、環境データとは、画像データに含まれる多数の計測点の位置ベクトルを3次元直交座標系で表したデータの集合である。 Note that the environmental data is a set of data representing the position vector of the number of measurement points included in the image data by three-dimensional orthogonal coordinate system. ここで、環境データは位置データ群を含み、前記位置データ群の座標は、移動体100に固定された装置座標系で表示されていてもよいし、環境に固定されたグローバル座標系で表示されていてもよい。 Here, the environment data includes position data group, the coordinate of the position data group, it may be displayed in a fixed device coordinate system to the mobile 100, are displayed in the global coordinate system fixed to the environment it may be.

壁面検出部6は、環境データから平面を検出し、検出された平面のなかで床面に平行な法線ベクトルを持つ平面を壁面として検出する。 Wall detecting unit 6 detects the plane from the environment data, detects a plane having a normal vector parallel to the floor among the detected plane as the wall surface. また、壁面検出部6は、検出した平面に平面IDを付与する。 Further, the wall surface detecting unit 6 assigns a plan ID to the detected plane.
本実施の形態における平面検出には、プレーンセグメントファインダ(Plane Segment Finder(PLS))と呼ばれる手法を用いればよい。 The flat panel detector of this embodiment may be used a technique called plain segments finder (Plane Segment Finder (PLS)). プレーンセグメントファインダでは、まず、3次元の点群から2点をランダムにサンプリングする。 The plane segments finder, firstly, to sample from the three-dimensional point group two points randomly. 次いで、当該2点のベクトルをクラスタリングすることにより、平面の位置姿勢を求めるアルゴリズムである。 Then, by clustering vector of the two points, an algorithm for determining the position and orientation of the plane.
具体的には、プレーンセグメントファインダでは、まず、環境データに対してランダマイズド3次元ハフ変換を行って、最大平面の傾きを検出する。 Specifically, in the plain segments finder, first, by performing a randomized three-dimensional Hough transform on the environment data, it detects a tilt of up plane. 次に、再び、ランダマイズド3次元ハフ変換を用いて、当該最大平面と原点との距離を検出する。 Then, again, using a randomized three-dimensional Hough transform to detect the distance between the maximum plane origin. そして、当該最大平面に属する点を抽出することにより、平面領域(プレーンセグメント)を検出する。 Then, by extracting the point belonging to the maximum plane, for detecting a plane area (plain segments).

より具体的には、プレーンセグメントファインダにおいて、平面は、以下の数式(1)により表わされる。 More specifically, in the plane segment finder plane is expressed by the following equation (1).
ρ=(x cos(θ)+y sin(θ))cos(φ)+z sin(φ) ρ = (x 0 cos (θ ) + y 0 sin (θ)) cos (φ) + z 0 sin (φ)
・・・・・・(1) ...... (1)
数式(1)において、ρは平面から原点へ下ろした垂線の長さ、θは当該垂線をxy平面に投影した線とx軸とのなす角、φは当該垂線とxy平面とのなす角である。 In Equation (1), [rho is the length of the perpendicular dropped from the plane to the origin, theta is the angle between the line and the x-axis obtained by projecting the perpendicular to the xy plane, phi is the angle between the perpendicular line and the xy plane is there.
そして、環境データ内の各測定点(x ,y ,z )を(ρ,θ,φ)空間に投影し、ピークを検出することにより、平面を検出する。 Then, each measurement point in the environment data (x 0, y 0, z 0) (ρ, θ, φ) is projected in the space, by detecting the peak, to detect the plane. プレーンセグメントファインダでは、複数に分割された平面であっても検出することができる。 The plane segments viewfinder can be detected even in several divided planes. また、環境データの所定部分の測定点のみを(ρ,θ,φ)空間の部分空間に投影して、検出範囲を狭めることができる。 Further, only the measurement points of a predetermined portion of the environmental data (ρ, θ, φ) are projected subspace of the space, it is possible to narrow the detection range. これにより、計算コストを大幅に低減することも可能である。 Thus, it is possible to significantly reduce the computational cost.

さらに、多数の計測点(環境データ)から平面の方程式を表す平面パラメータ(例えば、法線ベクトル及び法線ベクトルの座標系原点からの距離)を検出するために、ハフ変換法やランダムサンプリング法が従来から用いられている。 Furthermore, a number of measurement points plane parameters representing the plane equation from (environmental data) (e.g., the distance from the origin of the coordinate system normal vector and the normal vector) in order to detect, Hough transform method and random sampling method It has been conventionally used. 本実施の形態における平面検出に、従来から知られているこれらの手法を適用してもよい。 The flat panel detector of this embodiment may be applied to these techniques which are known in the art. これにより、前記平面の法線ベクトルを得ることができ、床面に平行な法線ベクトルを有する平面を壁面として認識できる。 Thus, it is possible to obtain the normal vector of the plane, the plane having a normal vector parallel to the floor surface can be recognized as a wall surface.

本実施の形態における自己位置推定部8では、発明の理解を容易にするため、図2のように、壁面位置情報取得部10、高さ範囲情報取得部12およびマッチング部14に分けて説明する。 In self-position estimating portion 8 in the present embodiment, in order to facilitate understanding of the invention, as shown in FIG. 2, the wall surface position information acquisition unit 10, is divided into a height range information acquiring section 12 and the matching section 14 will be described .

壁面位置情報取得部10は、壁面検出部6で検出された壁面に属する位置情報を取得する。 Wall position information acquisition unit 10 acquires the position information belonging to the wall detected in the wall detector 6. また、高さ範囲情報取得部12は、環境データから所定の基準で決められた高さ範囲に属する位置データによって特定される障害物の位置情報を取得する。 The height range information acquiring section 12 acquires the position information of the obstacle identified by the position data belonging from the environment data in the height range determined by predetermined criteria. 本実施の形態では、図3のように壁面41〜43、段差44および円柱45で構成されている所定環境における3次元空間における環境データの取得について説明する。 In this embodiment, the wall surface 41 to 43 as shown in FIG. 3, the acquisition of environmental data in a three-dimensional space in a given environment that consists of steps 44 and cylinder 45 will be described.

取得する前記高さ範囲は、前記位置データ群の高さ分布に基づいて決定される。 The height range to be acquired is determined based on the height distribution of the position data group. また、環境データ内に存在する位置データであって、最も高さの高い位置データを含むように決定されることが好ましい。 Further, a position data existing in the environment data, are preferably determined to contain the tallest high position data. これにより、背の低い移動障害物を容易に除外でき、より正確な自己位置推定が可能となる。 Thus, a low profile moving obstacle can be easily excluded, thereby enabling more accurate self-localization. また、前記高さ範囲に属する位置データは、環境データ内に存在する位置データであって、前記壁面検出部6で検出された壁面に対応する位置データを除いた環境データから決定されても良い。 The position data belonging to the height range is a position data existing in the environment data, it may be determined from the environment data excluding the position data corresponding to the detected wall by the wall surface detector 6 .

壁面位置情報取得部10および高さ範囲情報取得部12で取得された位置情報を図4のような2次元の環境マップに図示して取得方法を説明する。 It illustrates a positional information acquired by the wall surface position information acquisition unit 10 and the height range information acquiring section 12 in a two-dimensional environment map as shown in FIG. 4 will be described how to obtain.
まず、壁面位置情報取得部10は、前記壁面検出部6で検出された壁面41〜43の3次元の環境データに含まれる位置データ群を取得する。 First, the wall surface position information acquisition unit 10 acquires the position data group included in the 3D environment data wall 41 to 43 detected by the wall surface detector 6. 取得した壁面41〜43の位置データ群から2次元の位置情報を取得し、前記位置情報を2次元の環境マップに直線で図示した。 Get the acquired two-dimensional position information from the position data group of the wall 41 to 43, shown with a straight line the position information on the two-dimensional environment map.
次に、高さ範囲情報取得部12は、図5のように、環境データ中の前記高さ範囲に設定されたデータ取得空間46に含まれる位置データを取得する。 Next, the height range information acquiring unit 12, as shown in FIG. 5, to obtain the position data included in the data acquisition space 46 which is set to the height range in the environment data. 本実施の形態ではデータ取得空間46に含まれる円柱45の位置データ群から2次元の位置情報を取得し、前記位置情報を2次元環境マップの円で図示した。 In the present embodiment obtains the two-dimensional position information from the position data group of the cylinder 45 in the data acquisition space 46, shown the position information in a circle of 2-dimensional environment map. 前記データ取得空間46は高さに幅を持たせてもよく、環境データに含まれる位置データ数などによって高さの幅を任意に決めることが可能である。 The data acquisition space 46 may be provided with the width to the height, it is possible to determine arbitrarily the width of the height, such as by position data number included in the environmental data.
これにより、柱などの背の高い固定障害物をマップに出力でき、より正確なマッチングが可能となる。 This enables outputting the tall fixed obstacles such as pillars in the map, thereby enabling more accurate matching.

自己位置推定が適切にできない場合には、位置データ群を取得する高さ範囲を低く変更してもよい。 If the self-position estimation can not be properly may change low height range for acquiring position data group. これは自己位置の推定が正常に終了するまで繰り返し変更されてもよい。 This may be changed repeatedly until the self-position estimation is successful.

マッチング部14は、前記自己の周囲の参照マップと前記各情報取得部で取得したデータをマッチングし、移動体100の自己位置を推定する。 Matching unit 14 matches the data acquired by the a reference map of the periphery of said self respective information acquiring unit estimates the self position of the mobile unit 100. マッチングについては図6のマッチング部14のブロック図を用いて説明する。 The matching will be described with reference to a block diagram of a matching unit 14 of FIG. 本実施の形態ではICP(Interactive Closest Point)アルゴリズムを用いたマッチングについて記述する。 In the present embodiment describes matching using ICP (Interactive Closest Point) algorithm.

初期位置設定部16は、前記各情報取得部10、12で取得したデータおよび参照マップの初期位置をデッドレコニングによる自己位置推定方法によって、ICPアルゴリズムを開始する以前に決めている。 Initial position setting unit 16, the by self-position estimation method according to the dead reckoning the initial position data and the reference map obtained by the information acquisition unit 10 and 12, are determined prior to starting the ICP algorithm.

対応壁面検出部18は、ICPアルゴリズムを用いて、参照マップに含まれる壁面と対応する前記壁面位置情報取得部10および前記高さ範囲情報取得部12で取得した位置情報に含まれる壁面を検出する。 Corresponding wall detection unit 18, using an ICP algorithm, detects a wall included in the positioning information acquired by the wall surface position information acquisition unit 10 and the height range information acquiring unit 12 corresponds to the wall surface that is included in the reference map .
図7を用いて、ICPアルゴリズムによる処理を説明する。 With reference to FIG. 7, the processing by the ICP algorithm. ICPアルゴリズムは、2つの異なる座標系のデータを合わせるために用いる。 ICP algorithm is used to fit data from two different coordinate systems. 本実施の形態では、参照マップに含まれる位置情報と前記壁面位置情報取得部10および高さ範囲情報取得部12で検出された壁面の位置情報を前記2つの異なる座標系のデータとして処理をする。 In this embodiment, the process location information of the detected wall position information included in the reference map and in the wall surface position information acquisition unit 10 and the height range information acquiring section 12 as the data of the two different coordinate systems . 一方のデータに含まれる点(図7において白抜きの丸で示す)から最も近傍にある他方のデータに含まれる点(図7においてハッチングが付された丸で示す)に着目し、当該他方のデータに含まれる点が属する平面の平面IDを検出する。 Points included in one data focused on a point included in the other data in the closest from (indicated by white circles in FIG. 7) (shown by circles hatched in FIG. 7), of the other points included in the data to detect a planar ID planar belongs. そして、対応壁面検出部18では一方のデータに含まれる平面に属するすべての点から最も近傍にある他方のデータに含まれる点が属する平面IDとして最も多く検出された平面IDを有する平面を、対応する壁面として検出する。 Then, the plane having the most detected planar ID as a plane ID that points included in the other data in the most vicinity of all points belonging to the plane included in the corresponding wall in the detection unit 18 one data belongs, corresponds It is detected as a wall surface.

剛体変換パラメータ算出部20は、前記対応壁面検出部18において検出された壁面および参照マップならびに高さ範囲情報取得部12で取得した柱などを用いて、2つのデータが一致するような回転Rおよび並進Tを求める。 Rigid transformation parameter calculating section 20, the use or the like acquired pillars corresponding wall detection unit detected the wall and the reference map and a height in the 18 range information acquiring unit 12, rotation R and as the two data match determine the translation T.
この座標変換を簡単にするため、一方の形状の座標系を固定し、もう一方の形状を座標変換する。 To simplify this coordinate transformation, fixing the coordinate system of one of the shape, coordinate transformation the other shape. データ全体の点に対してこれらの対応点間で定義されるユークリッド距離が最小化される回転Rおよび並進Tを算出する。 Euclidean distance defined between these corresponding points for points of the entire data to calculate the rotation R and translation T is minimized.
なお、本実施の形態におけるマッチングは、ICPアルゴリズムを用いた手法を紹介したが、各データのマッチングが可能であればどのような手法であってもよい。 Incidentally, the matching in the present embodiment is introduced a method using an ICP algorithm may be any method as long as possible matches for each data. また、ICPアルゴリズムの代わりにWeissのマッチング手法またはパーティクルフィルタを用いたマッチング手法などを利用してもよい。 Further, the matching technique or a particle filter Weiss such matching method may be used which was used in place of the ICP algorithm. パーティクルフィルタなどを利用することによって、3次元環境内に壁面が存在せず、柱や段差などが存在する場合であっても、対応壁面検出部18の処理を飛ばして回転Rおよび並進Tを算出することも可能である。 Calculated by using, for example a particle filter, there is no wall surface in the three-dimensional environment, even when such columns and a step is present, the rotation R and translation T skip processing of the corresponding wall surface detecting unit 18 it is also possible to.

図8は実施の形態1に係る移動体100の自己位置推定手法を示すフローチャートである。 Figure 8 is a flow chart showing a self-position estimation method of the mobile unit 100 according to the first embodiment. 3次元計測ステップ(S101)は、移動体100が周囲の環境情報を視覚センサなどの情報取得装置を用いて計測するステップである。 3D measurement step (S101), the mobile 100 is a step of measuring with an information acquisition device, such as a visual sensor for environmental information around. 3次元環境データ生成ステップ(S102)は、S101で取得した周囲の環境情報を基に3次元の位置データ群を含む環境データに変換する。 3D environment data generation step (S102) converts the environmental data including three-dimensional position data group on the basis of the environmental information around acquired in S101. 壁面検出ステップ(S103)は、環境データから平面検出手法を用いて壁面を検出する。 Wall detection step (S103) detects the wall surface with a planar detection technique from the environment data. 壁面位置情報取得ステップ(S104)は、S103で検出された壁面に属する壁面位置情報を取得する。 Wall position information acquisition step (S104) acquires the wall position information belonging to the detected wall in S103. 高さ範囲情報取得ステップ(S105)は、環境データ中の所定の基準で決められた高さ範囲に含まれる位置データ群から位置情報を取得する。 Height range information acquiring step (S105) acquires the position information from the position data group included in the height range determined by predetermined criteria in the environment data. マッチングステップ(S106)では、移動体100が備える自己の周囲の参照マップと各位置情報取得ステップで取得された位置情報とをマッチングして、移動体100は自己位置を推定する。 The matching step (S106), matching the reference map around the self moving body 100 provided with the position information acquired by the positional information acquisition step, the moving body 100 estimates its own position.
壁面検出ステップにおいて、壁面の検出がされなかった場合には、高さ範囲情報取得ステップに移行する。 In the wall surface detecting step, if that were not the detection of the wall, it proceeds to the height range information acquiring step. また、マッチングが適切に行われなかった場合には、再度高さ範囲情報取得ステップに移行し、位置データ群を取得する高さ範囲を変更したうえで、位置情報を取得し、マッチングを再度行う。 Also, if the matching is not properly performed, the process proceeds to the height range information acquiring step again, must change the height range for acquiring position data group, acquires position information, the matching again . 該マッチングは適切に行われるまで、あるいは、全ての高さ範囲情報を取得するまで繰り返されてもよい。 The until matching is suitably performed, or may be repeated until obtaining all the height range information.

上述した自己位置推定部8による自己位置推定手法は、図8のフローチャートに示した処理手順が記述された自己位置推定プログラムをマイクロプロセッサ等のコンピュータに実行させることによって実現してもよい。 Position Estimation Method by the self position estimation unit 8 described above may be realized by executing the self-position estimation program procedure is described as shown in the flowchart of FIG. 8 in a computer such as a microprocessor.

自己位置推定プログラムは、様々な種類の記憶媒体に格納することが可能であり、また、通信媒体を介して伝達されることが可能である。 Self-position estimation program can be stored in various types of storage medium, it is capable of being transmitted through a communication medium. ここで、記憶媒体には、例えば、フレキシブルディスク、ハードディスク、磁気ディスク、光磁気ディスク、CD−ROM,DVD、ROMカートリッジ、不揮発性RAMカートリッジ等が含まれる。 Here, the storage medium such as a flexible disk, hard disk, magnetic disk, optical disk, CD-ROM, DVD, ROM cartridge, includes a non-volatile RAM cartridge, or the like. また、通信媒体には、電話回線等の有線通信媒体、マイクロ波回線等の無線通信媒体等が含まれ、インターネットも含まれる。 Further, communication media includes wired communications media such as a telephone line, includes such as a radio communication medium such as a microwave line, and includes the Internet.

<発明の実施の形態2> <Of the implementation of the invention Embodiment 2>
実施の形態2について図9を用いて説明する。 Second Embodiment A second embodiment will be described with reference to FIG. 移動体100の自己位置推定部8は、信頼度設定部22をさらに有していてもよい。 Self-position estimating portion 8 of the moving body 100 may further have a reliability setting unit 22. 信頼度設定部22は、前記壁面位置情報取得部10および前記高さ範囲情報取得部12で取得された位置情報に信頼度を設定する。 Reliability setting unit 22 sets the reliability on the obtained positional information in the wall surface position information acquisition unit 10 and the height range information acquiring unit 12. 前記のように壁面は平面検出手法を用いて検出されるため、床面に垂直な平面を確実に検出することができるが、弧を描く壁面および円柱状の柱などは平面検出手段では検出することができない。 Since the wall surface is detected using a planar detection technique as, can be reliably detect a plane perpendicular to the floor surface, such as wall and cylindrical pillar sweeping detects a planar detector it can not be. また、柱や段差などは移動障害物の可能性がある。 Further, such columns and a step is likely the moving obstacle. そこで、曲壁面、柱または段差などの障害物の信頼度を低く設定することで、より正確な自己位置推定が可能である。 Therefore, music wall, by setting a low reliability of obstacles such as pillars or steps, it is possible to more accurate self-localization. なお、信頼度を設定するタイミングは、壁面位置情報取得部10および高さ範囲情報取得部12で位置情報を取得する前でもよく、その場合は、環境データに対して信頼度を設定してもよいし、位置データに対して信頼度を設定してもよい。 The timing for setting the reliability may even before acquiring the position information in the wall surface position information acquisition unit 10 and the height range information acquiring unit 12, in that case, setting the reliability to environmental data it may may set the reliability with respect to the position data.

ここで、信頼度設定手法は、壁面の信頼度を1とし、曲壁面、段差または柱の信頼度については数式(2)で設定してもよい。 Here, reliability setting approach, the reliability of the wall is 1 and song wall, for the reliability of the step or pillar or may be set by the equation (2).
(段差の信頼度)=(段差の高さ)/(壁面の高さ) ・・・・・・(2) (Reliability of the step) = (height of the step) / (height of the wall) ...... (2)

また、信頼度設定部22は、図10のように、前記壁面位置情報取得部10および前記高さ範囲情報取得部12で取得した位置情報を2次元グリッドデータに変換してもよく、この場合には各グリッドへ投影された位置データの数に応じて、各グリッドの信頼度を決定してもよい。 Further, the reliability setting unit 22, as shown in FIG. 10, may be converted to the positioning information acquired by the wall surface position information acquisition unit 10 and the height range information acquiring section 12 in a two-dimensional grid data, in this case the depending on the number of position data projected to each grid may be determined reliability of each grid. 床面に平行な法線ベクトルを有する平面であっても壁面ではなく、段差の場合もあり得る。 Rather than the wall be a plane having a normal vector parallel to the floor, it may also be a step. 段差の場合には、壁面に比べて位置データ数が少ないため、グリッドの信頼度は減少する。 In the case of the step, since a small number of positions data as compared to the wall surface, the reliability of the grid is reduced. これにより、壁面と段差の区別が可能となる。 This enables distinction between the wall and the step.
なお、視覚センサ2が、移動環境内に存在する障害物に関する3次元の位置データ群を含む環境データを生成した際に、傾斜したときは、信頼度を低く設定してもよい。 Incidentally, the visual sensor 2, when generating the environmental data including three-dimensional position data group about the obstacle existing mobile environment, when the inclination can be set low reliability. 正確なマッチングができないおそれがあるからである。 This is because there may not be accurate matching.

自己位置推定部8では、設定された信頼度を参照し、特定の閾値を満たす信頼度の位置情報を用いてマッチングする。 In the self-position estimating portion 8, with reference to the set reliability, matching with the position information of the reliability that meet certain threshold. 但し、移動体100が備える参照マップとのマッチングが適切に行われかった場合は、前記閾値を変動させることも可能である。 However, if the matching with the reference map which the moving body 100 is provided tinged done properly, it is possible to vary the threshold value.

<発明の実施の形態3> <A third embodiment of the invention>
次に、前記のマッチングとは異なるマッチング手法について述べる。 Next, we describe different matching approaches to the matching. 実施の形態3では、環境データ中の壁面データが有する法線ベクトルに着目してマッチングをする。 In the third embodiment, the matching by focusing on the normal vector with the wall surface data in the environment data. なお、移動体100が備える自己の周囲の参照マップは、あらかじめその壁面の法線ベクトル情報を保持している。 The reference map around the self moving body 100 is provided holds normal vector information in advance that wall.

図11は実施の形態3のマッチング部14のブロック図である。 Figure 11 is a block diagram of a matching unit 14 of the third embodiment.
なお、本実施の形態3では、初期位置の設定については、実施の形態1と同様に、初期位置設定部16においてデッドレコニングによる自己位置推定方法によって設定されている。 In the third embodiment, setting of the initial position, as in the first embodiment, is set by the self-position estimation method according to the dead reckoning in the initial position setting unit 16. また、対応する壁面の検出についても、実施の形態1と同様に、対応壁面検出部18において行われる。 As for the detection of the corresponding wall surface, as in the first embodiment, it is performed in the corresponding wall surface detection unit 18. よって、実施の形態1と共通しているこれらの処理に関する説明を省略する。 Therefore, description thereof will be omitted for these processes are common with the first embodiment.

回転R算出部24は、前記対応壁面検出部18で検出された対応する壁面が有する各法線ベクトルの差が最小になる回転Rを算出する。 Rotation R calculator 24 calculates the rotation R of the difference between the normal vector the corresponding wall surface detecting unit 18 corresponding wall detected in has is minimized. 壁面検出部6によって検出された壁面は、法線ベクトルとともに検出されており、壁面位置情報取得部10によって取得された壁面位置情報もまた法線ベクトルを備えている。 Detected wall by wall detector 6 is detected with the normal vector, and also provided with a normal vector wall position information acquired by the wall position information acquisition unit 10. 式(3)を利用して回転Rを求めることができる。 It is possible to obtain the rotation R by using equation (3). normal()は法線ベクトルを表している。 normal () represents the normal vector.
R=Min(R・normal(a)−normal(A)+R・normal(b)−normal(B)+・・・) ・・・・・・(3) R = Min (R · normal (a) -normal (A) + R · normal (b) -normal (B) + ···) ······ (3)

並進T算出部26は、壁面位置情報取得部10が取得した位置情報または自己の周囲の参照マップに含まれる壁面の位置情報をR回転させ、再度マッチング処理をして並進Tを算出する。 Translation T calculator 26, the position information of the wall included in the reference map around the position information or the self-wall position information acquisition unit 10 has acquired is R rotated to calculate the translation T and the matching process again. 環境データまたは取得した位置情報に含まれる各点を用いて回転Rおよび並進Tを求めるよりも、各壁面が有する法線ベクトルを用いて回転Rを求めた後に、再度マッチング処理をして並進Tを求めることにより、点と点の誤対応状態でのマッチングを防ぎ、より精度の高いマッチングが可能となる。 Than seeking rotation R and translation T using the points contained in the environment data or acquired position information, after obtaining a rotation R by using a normal vector having the respective wall surfaces, and the matching process again translation T by obtaining the prevent matching in the corresponding state erroneous the dots, thereby enabling more accurate matching. 再度のマッチングではICPアルゴリズム、Weissのマッチング手法またはパーティクルフィルタを用いたマッチング手法などを利用することができる。 Or the like can be used matching method using an ICP algorithm, matching method or particle filter Weiss is again matching.

100 ・・・自律移動体2 ・・・視覚センサ4 ・・・3次元環境データ生成部41 ・・・壁面42 ・・・壁面43 ・・・壁面44 ・・・段差45 ・・・円柱46 ・・・データ取得空間6 ・・・壁面検出部8 ・・・自己位置推定部10 ・・・壁面位置情報取得部12 ・・・高さ範囲情報取得部14 ・・・マッチング部16 ・・・初期位置設定部18 ・・・対応壁面検出部20 ・・・剛体変換パラメータ算出部22 ・・・信頼度設定部24 ・・・回転R算出部26 ・・・並進T算出部 100 ... autonomous moving body 2 ... visual sensor 4 ... 3 dimensional environment data generating unit 41 ... wall 42 ... wall 43 ... wall 44 ... step 45 ... cylinder 46, · data acquisition space 6 ... wall detector 8 ... self-position estimator 10 ... wall position information acquisition unit 12 ... height range information acquiring section 14 ... matching section 16 ... initial position setting unit 18 ... corresponding wall detecting unit 20 ... rigid transformation parameter calculating section 22 ... reliability setting unit 24 ... rotation R computing section 26 ... translation T calculator

Claims (9)

  1. 移動環境を計測する視覚センサと、 A visual sensor for measuring a moving environment,
    前記視覚センサによる計測結果を用いて、前記移動環境内に存在する障害物に関する3次元の位置データ群を含む環境データを生成する3次元環境データ生成部と、 And using said measurement result obtained by the visual sensor, the moving three-dimensional environment data generating unit that generates environmental data including three-dimensional position data group relating to obstacles present in the environment,
    前記環境データを用いて、前記移動環境内に存在する平らな壁面を検出する壁面検出部と、 Using said environment data, and the wall detector for detecting a flat wall surface present in the mobile environment,
    前記環境データに含まれる前記位置データ群のうち第1の高さ範囲に属する位置データによって特定される障害物の位置情報、および前記壁面の位置情報を、前記移動環境内に固定的に存在する固定障害物の位置を示す参照マップと照合することによって、自己の位置を推定する自己位置推定部と、 Position information of the obstacle identified by the position data belonging to the first height range of the position data group included in the environmental data, and the position information of the wall surface, there fixedly to the mobile environment by matching a reference map showing the position of the fixed obstacle, the self-position estimating section for estimating its own position,
    を備える自律移動体。 The autonomous moving body with a.
  2. 前記第1の高さ範囲は、前記位置データ群の高さ分布に基づいて決定される請求項1に記載の自律移動体。 It said first height range is autonomous moving body according to claim 1 which is determined based on the height distribution of the position data group.
  3. 前記第1の高さ範囲は、前記位置データ群のうち最も高さが高いデータを含むように決定される請求項1または2に記載の自律移動体。 It said first height range is autonomous moving body according to claim 1 or 2 tallest among the position data group is determined to include a high data.
  4. 前記位置データ群は、前記環境データに含まれる前記位置データ群から前記壁面に対応する位置データ群を除いた残りのデータ群である請求項2または3に記載の自律移動体。 It said position data group, the autonomous moving body according to claim 2 or 3, the remaining data groups from said position data group except for the position data group corresponding to the wall surface that is included in the environmental data.
  5. 前記位置データに信頼度を付与する信頼度設定部をさらに備え、 Further comprising a reliability setting unit that imparts confidence in the position data,
    前記信頼度設定部は、前記位置データ群のうち第1の高さ範囲に属する位置データによって特定される障害物の位置情報に設定する信頼度よりも、前記壁面の位置情報に設定する信頼度を高くし、 Said reliability setting unit, than the reliability of setting the position information of the obstacle identified by the position data belonging to the first height range of the position data group, the reliability of setting the position information of the wall surface the high,
    前記自己位置推定部は、前記信頼度の高い位置情報を参照マップとの照合に優先的に用いる、請求項1〜4のいずれか一項に記載の自律移動体。 The self-position estimating unit, the use of reliable position information preferentially to match the reference map, the autonomous moving body according to any one of claims 1-4.
  6. 前記信頼度設定部は、前記環境データに含まれる前記位置データ群のうち第1の高さ範囲に属する位置データによって特定される障害物の位置情報および前記壁面の位置情報をグリッドデータに変換し、 It said reliability setting unit converts the position information of the position information and the wall surface of the obstacle identified by the position data belonging to the first height range of the position data group included in the environmental data to the grid data ,
    前記位置データの夫々が対応する各グリッドに、前記位置データの数に基づいて信頼度を設定する請求項5に記載の自律移動体。 Wherein each grid has respective position data corresponding, autonomous moving body according to claim 5 to set the reliability based on the number of the position data.
  7. 前記自己位置推定部は、前記壁面の法線ベクトルを用いて、前記参照マップによって特定される前記固定障害物の配置に前記壁面を重ね合わせるための回転角度を算出する請求項1〜4のいずれか一項に記載の自律移動体。 The self-position estimating unit uses a normal vector of the walls, one of the claims 1 to 4 for calculating the rotation angle for superimposing said wall surface to the arrangement of the fixed obstacles identified by the reference map autonomous moving body according to one paragraph or.
  8. 移動環境内に存在する障害物に関する3次元の位置データ群を含む環境データに含まれる前記位置データ群のうち第1の高さ範囲に属する位置データによって特定される障害物の位置情報と、前記環境データを用いて検出された平らな壁面の位置情報を、前記移動環境内に固定的に存在する固定障害物の位置を示す参照マップと照合することによって、自己の位置を推定する自己位置推定装置。 Position information of the obstacle identified by the position data belonging to the first height range of the position data group included in the environmental data including the three-dimensional position data group about the obstacle existing mobile environment, wherein by the positional information of the detected flat walls with environmental data, to match with the reference map showing the position of the fixed obstacles existing fixed to said moving environment, self-position estimation for estimating its own position apparatus.
  9. 移動環境内に存在する障害物に関する3次元の位置データ群を含む環境データに含まれる前記位置データ群のうち第1の高さ範囲に属する位置データによって特定される障害物の位置情報と、前記環境データを用いて検出された平らな壁面の位置情報を、前記移動環境内に固定的に存在する固定障害物の位置を示す参照マップと照合することによって、自己の位置を推定する自己位置推定ステップを備える、 Position information of the obstacle identified by the position data belonging to the first height range of the position data group included in the environmental data including the three-dimensional position data group about the obstacle existing mobile environment, wherein by the positional information of the detected flat walls with environmental data, to match with the reference map showing the position of the fixed obstacles existing fixed to said moving environment, self-position estimation for estimating its own position comprising the step,
    自己位置推定処理をコンピュータに実行させるための自己位置推定プログラム。 Self-position estimation program for executing a self-position estimation processing in the computer.
JP2009148424A 2009-06-23 2009-06-23 The autonomous moving body, the self-position estimating device, and a program Active JP5141644B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009148424A JP5141644B2 (en) 2009-06-23 2009-06-23 The autonomous moving body, the self-position estimating device, and a program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009148424A JP5141644B2 (en) 2009-06-23 2009-06-23 The autonomous moving body, the self-position estimating device, and a program

Publications (2)

Publication Number Publication Date
JP2011008320A JP2011008320A (en) 2011-01-13
JP5141644B2 true JP5141644B2 (en) 2013-02-13

Family

ID=43564951

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009148424A Active JP5141644B2 (en) 2009-06-23 2009-06-23 The autonomous moving body, the self-position estimating device, and a program

Country Status (1)

Country Link
JP (1) JP5141644B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102650886B (en) * 2012-04-28 2014-03-26 浙江工业大学 Vision system based on active panoramic vision sensor for robot
JP6156793B2 (en) * 2013-03-07 2017-07-05 株式会社国際電気通信基礎技術研究所 Position estimation device, the position estimation program and the position estimation method
JP5826795B2 (en) * 2013-06-14 2015-12-02 シャープ株式会社 The autonomous moving body, the control system, and the self-position detecting method
DK2933604T3 (en) * 2014-04-14 2017-03-13 Softbank Robotics Europe Method for location of a robot in a locating plane
JP2016095590A (en) * 2014-11-12 2016-05-26 村田機械株式会社 Movement amount estimation device, autonomous mobile body, and method of estimating movement amount
JP6225889B2 (en) * 2014-11-19 2017-11-08 株式会社豊田中央研究所 Vehicle position estimating device and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4409035B2 (en) * 2000-03-22 2010-02-03 本田技研工業株式会社 The image processing apparatus, specifically location method, and specific location detecting program recording medium recording
JP2006343881A (en) * 2005-06-07 2006-12-21 Institute Of Physical & Chemical Research Self-position estimation system and self-position estimation method
JP4169043B2 (en) * 2006-04-24 2008-10-22 松下電工株式会社 Mobile device group control system
JP5105596B2 (en) * 2007-10-30 2012-12-26 株式会社Ihi Autonomous travel route determination of mobile map creation unit and the travel path determination map creation method

Also Published As

Publication number Publication date
JP2011008320A (en) 2011-01-13

Similar Documents

Publication Publication Date Title
Kneip et al. Robust real-time visual odometry with a single camera and an IMU
Nedevschi et al. Stereo-based pedestrian detection for collision-avoidance applications
Tardif et al. Monocular visual odometry in urban environments using an omnidirectional camera
JP3719095B2 (en) Behavior detector and gradient detection method
JP3561473B2 (en) Tracking object position-sensing method and vehicle
KR100446636B1 (en) Apparatus and method for measuring ego motion of autonomous vehicles and 3D shape of object in front of autonomous vehicles
Bosse et al. Map matching and data association for large-scale two-dimensional laser scan-based slam
Scaramuzza 1-point-ransac structure from motion for vehicle-mounted cameras by exploiting non-holonomic constraints
US8849036B2 (en) Map generating and updating method for mobile robot position recognition
KR101188588B1 (en) Monocular Motion Stereo-Based Free Parking Space Detection Apparatus and Method
JP3937414B2 (en) Planar detection device and detection method
US8024072B2 (en) Method for self-localization of robot based on object recognition and environment information around recognized object
JP5089545B2 (en) Road boundary detection judging device
US8306738B2 (en) Apparatus and method for building map
US8380384B2 (en) Apparatus and method for localizing mobile robot
KR101572851B1 (en) Mapping of the mobile platform in a dynamic environment, how
KR101619076B1 (en) Method of detecting and tracking moving object for mobile platform
US8238612B2 (en) Method and apparatus for vision based motion determination
US20110123135A1 (en) Method and device of mapping and localization method using the same
CN103052968B (en) Object detection apparatus and method for detecting an object
JP2008219063A (en) Apparatus and method for monitoring vehicle&#39;s surrounding
JP3843119B2 (en) Mobile motion calculation method and apparatus, and a navigation system
Koyasu et al. Recognizing moving obstacles for robot navigation using real-time omnidirectional stereo vision
US8467902B2 (en) Method and apparatus for estimating pose of mobile robot using particle filter
CN103578115B (en) Mobile recognition system and a mobile body identification method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111012

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121016

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121023

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121105

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151130

Year of fee payment: 3