JP2010112836A - Self-position identification device and mobile robot provided with same - Google Patents

Self-position identification device and mobile robot provided with same Download PDF

Info

Publication number
JP2010112836A
JP2010112836A JP2008285752A JP2008285752A JP2010112836A JP 2010112836 A JP2010112836 A JP 2010112836A JP 2008285752 A JP2008285752 A JP 2008285752A JP 2008285752 A JP2008285752 A JP 2008285752A JP 2010112836 A JP2010112836 A JP 2010112836A
Authority
JP
Japan
Prior art keywords
self
feature
line segment
point
identification device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008285752A
Other languages
Japanese (ja)
Inventor
Atsushi Chijiwa
淳 千々和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP2008285752A priority Critical patent/JP2010112836A/en
Publication of JP2010112836A publication Critical patent/JP2010112836A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a self-position identification device capable of identifying a self-position without using a map in a more versatile environment and a mobile robot provided with the self-position identification device. <P>SOLUTION: The self-position identification device has a characteristic point extracting section 11 for extracting characteristic points of environmental information, a characteristic point relating section 12 for relating an aggregate of characteristic points between two successive frames, a self-move distance computing section 13 for computing a self-move distance out of an aggregate of related points, a position converting section 14 for making a coordinate transformation of the self-move distance to obtain the self-position, a position storing section 15 for storing the self-position, and a dead reckoning computing section 16 for computing a dead reckoning value, and further includes a characteristic segment extracting section 17 for extracting characteristic segments of the environmental information based on measurement data from an environment recognition sensor, a virtual characteristic point extracting section 19 for obtaining virtual characteristic points out of extracted characteristic segments, and a characteristic segment relating section 18 for relating an aggregate of characteristic segments between the two successive frames. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、オフィス、工場等の施設内において、環境情報を計測し、その結果を用いて移動する移動ロボットに搭載された自己位置同定装置に関する。   The present invention relates to a self-position identification apparatus mounted on a mobile robot that measures environmental information in a facility such as an office or factory and moves using the result.

車輪などの駆動機構によって移動ロボットは、エンコーダ等の内界センサを使って自己位置を求め制御を行っても、車輪と床面との間の滑りの発生などによって目標位置からの位置誤差が大きくなる。そのため、レーザセンサ、超音波センサなどの外界センサを用いて、周囲環境との位置関係を計測して自己位置同定し、目標位置とのずれを補正している。
従来の移動ロボットの自己位置同定では、外界センサとしてレーザレンジファインダのようなレーザセンサを用いて周期的に周囲環境を計測し、1周期分の計測データを1フレームとして、連続する2フレームについて、それぞれにおける特徴点集合を求め、フレーム間で特徴点の対応付けを行い、フレーム間で対応付けされた特徴点間の二乗距離の和を最小化するように移動ロボットの自己移動量(Δx,Δy,Δθ)を計算し、自己移動量を座標変換し自己位置を求めている(例えば、非特許文献1参照)。
また、レーザセンサによって得られた計測データから線分要素を生成し、線分要素の傾きと線分要素の中点の位置関係から線分要素の融合を行って線分情報を抽出して、予め記憶された地図情報と比較することにより自己位置を同定しているものもある(例えば、特許文献1参照)。
Even if a mobile robot uses a drive mechanism such as a wheel to determine and control its own position using an internal sensor such as an encoder, the position error from the target position is large due to the occurrence of slippage between the wheel and the floor. Become. For this reason, an external sensor such as a laser sensor or an ultrasonic sensor is used to measure the positional relationship with the surrounding environment, identify itself, and correct the deviation from the target position.
In the conventional mobile robot self-position identification, the surrounding environment is periodically measured using a laser sensor such as a laser range finder as an external sensor, and measurement data for one cycle is regarded as one frame, and two consecutive frames are obtained. A feature point set in each is obtained, the feature points are associated between the frames, and the mobile robot's self-movement amount (Δx, Δy) so as to minimize the sum of the square distances between the feature points associated between the frames. , Δθ), and the coordinate of the amount of self movement is converted to obtain the self position (see, for example, Non-Patent Document 1).
In addition, a line segment element is generated from the measurement data obtained by the laser sensor, the line segment element is extracted from the positional relationship between the inclination of the line segment element and the midpoint of the line segment element, and the line segment information is extracted. Some have identified their own positions by comparing with map information stored in advance (see, for example, Patent Document 1).

図9は非特許文献1において自己位置を計算する処理手順を示すフローチャートである。この図を用いて順を追って説明する。
ステップ101で、レーザセンサによって得られた計測データから特徴点を抽出する。計測データの中には、周囲環境のうち移動ロボットから遠い壁面などを計測したデータも含まれている。それらを排除するため閾値を設け、計測データ中、背景から閾値以上手前に突き出た部分を特徴点とする。
ステップ102で、デッドレコニング値を取り込み、今回取得した特徴点に対し座標変換を行い、絶対位置を求める。
なお、絶対位置とは移動ロボットが移動する環境内の予め決められた点を原点とする世界(ワールド)座標系における位置である。これに対し、移動ロボットを原点とするロボット座標系における位置を相対位置とする。
ステップ103で、前回の特徴点の絶対位置を取得する。
ステップ104で、特徴点の絶対位置を比較し特徴点間の距離が閾値よりも近いもの同士を対応付ける。
ステップ105で、ステップ104にて対応付けられた特徴点の組P(X,Y)(前回のフレームの特徴点)とP’(X’,Y’)(今回のフレームの特徴点)を特徴点の対応点集合として出力する。
ステップ106で、自己移動量(Δx,Δy,Δθ)を次の式(1)〜(3)により計算する。
FIG. 9 is a flowchart showing a processing procedure for calculating the self-position in Non-Patent Document 1. This will be described in order with reference to this figure.
In step 101, feature points are extracted from the measurement data obtained by the laser sensor. The measurement data includes data obtained by measuring a wall surface far from the mobile robot in the surrounding environment. A threshold is provided to eliminate them, and a portion of the measurement data that protrudes from the background more than the threshold is used as a feature point.
In step 102, a dead reckoning value is fetched, coordinate conversion is performed on the feature point acquired this time, and an absolute position is obtained.
The absolute position is a position in the world coordinate system having a predetermined point in the environment where the mobile robot moves as the origin. On the other hand, the position in the robot coordinate system with the mobile robot as the origin is set as the relative position.
In step 103, the absolute position of the previous feature point is acquired.
In step 104, the absolute positions of the feature points are compared and the distances between the feature points that are closer than the threshold are associated with each other.
In step 105, the set of feature points P j (X j , Y j ) (feature points of the previous frame) and P ′ j (X ′ j , Y ′ j ) (current frame) associated in step 104 Are output as a corresponding point set of feature points.
In step 106, self-movement amounts (Δx, Δy, Δθ) are calculated by the following equations (1) to (3).











ただし、式(1)〜(3)において、[・]は、jを1からNまで変化させた場合の総和を表す。ここでNは対応付けられた特徴点の組の数である。
ステップ107で、ステップ106で計算された自己移動量を前回の自己位置を用いて座標変換し今回の自己位置を計算する。また、特徴点の計測位置である特徴相対位置と今回の自己位置を使って特徴点の絶対位置も計算する。
ステップ108で、ステップ107で計算された自己位置および特徴点の絶対位置を保存する。
However, in the formulas (1) to (3), [•] represents the total sum when j is changed from 1 to N. Here, N is the number of associated feature point pairs.
In step 107, the self-movement amount calculated in step 106 is coordinate-transformed using the previous self-position to calculate the current self-position. Also, the absolute position of the feature point is calculated using the feature relative position that is the measurement position of the feature point and the current self-position.
In step 108, the self position calculated in step 107 and the absolute position of the feature point are stored.

図10は特許文献1において自己位置を計算する処理手順を示すフローチャートである。この図を用いて順を追って説明する。
ステップ201で、4つの隣接する測定点から線分要素を生成し、線分要素の傾きと線分要素の中点の位置関係から線分要素の融合を行って線分情報を抽出する。また、2線分の距離、角度関係を判定し、オクルージョンなどによって生じる欠損を補間している。
ステップ202で、すべての線分について2本ずつの組み合わせを作り、組み合わせられた2線分の長さ、傾き、位置関係から5つの特徴量を抽出する。
ステップ203で、地図情報として予め生成されたバイナリトリーの検索を行い、5つの特徴量に近似度の高い検索ユニットを選択する。これにより地図との比較が行われたことになる。そして、選択された検索ユニットから位置候補を算出し、位置候補を密度地図上に割り当て最も密度の高い小領域の位置を最尤位置候補として選定し、自己位置として同定する。
このように、従来の自己位置同定は、外界センサを用いて、環境との位置関係を計測して自己位置を求めているのである。
特開平4−216487号公報(第3−5頁、図4) 根岸, 三浦, 白井「全方位ステレオとレーザレンジファインダの統合による移動ロボットの地図生成」日本ロボット学会誌Vol. 21 No. 6, pp.690〜696, 2003
FIG. 10 is a flowchart showing a processing procedure for calculating the self-position in Patent Document 1. This will be described in order with reference to this figure.
In step 201, line segment elements are generated from four adjacent measurement points, and line segment elements are extracted from the positional relationship between the inclination of the line segment elements and the midpoints of the line segment elements to extract line segment information. In addition, the distance and angle relationship between the two lines is determined, and a defect caused by occlusion is interpolated.
In step 202, two combinations are made for all line segments, and five feature quantities are extracted from the length, inclination, and positional relationship of the combined two line segments.
In step 203, a binary tree previously generated as map information is searched, and a search unit having a high degree of approximation to five feature quantities is selected. As a result, the comparison with the map is performed. Then, a position candidate is calculated from the selected search unit, the position candidate is assigned to the density map, the position of the small area with the highest density is selected as the maximum likelihood position candidate, and is identified as the self position.
As described above, the conventional self-position identification uses the external sensor to measure the positional relationship with the environment and obtain the self-position.
Japanese Patent Laid-Open No. 4-216487 (page 3-5, FIG. 4) Negishi, Miura, Shirai "Map Generation for Mobile Robots by Integration of Omnidirectional Stereo and Laser Range Finder" Journal of the Robotics Society of Japan Vol. 21 No. 6, pp.690-696, 2003

しかしながら非特許文献1の自己位置同定は、計測データの中から角部などを特徴点として抽出してフレーム間に対応付けを行っているが、廊下など、移動ロボットの両側に平らな壁面が存在し計測データが直線になっている場合には対応付けができず、自己位置が求められないという問題があった。
また、特許文献1のような場合は、計測データから特徴を求め、地図と比較して自己位置を求めているため、自己位置を求めるのに地図が必要であるという問題があった。また、計測データから線分を抽出して特徴を誘導するが、線分要素の中点の位置関係から線分要素の融合を行って線分情報を得るため、線分要素の長さによって融合の可否の結果が変わってきて正しく線分抽出できないというような問題もあった。また、2線分の距離、角度関係を判定し、欠損を補間しているが、欠損を補間できない場合、特徴量を求められないという問題があった。
さらには、補間する形状を段差や角に限定しているため、実際の形状が補間した形状と異なる場合に地図と比較して誤った結果を出力する可能性があった。
本発明はこのような問題点に鑑みてなされたものであり、角の多い複雑な環境だけでなく、廊下など両側に平らな壁面があるような環境やあるいはそれらが複合した環境、さらには、オクルージョンなどにより欠損がある環境等、より汎用的な環境において地図を用いずに自己位置を求めることができる自己位置同定装置および、該自己位置同定装置を備えた移動ロボットを提供することを目的とする。
However, the self-position identification in Non-Patent Document 1 extracts corners from measurement data as feature points and associates them between frames, but there are flat walls on both sides of the mobile robot, such as a corridor. However, when the measurement data is a straight line, there is a problem that the correlation cannot be made and the self-position cannot be obtained.
Further, in the case of Patent Document 1, since a feature is obtained from measurement data and a self-position is obtained by comparison with a map, there is a problem that a map is necessary to obtain the self-position. In addition, the line segment is extracted from the measurement data to derive the feature, but the line segment element is obtained from the positional relationship of the midpoints of the line segment elements to obtain line segment information. There was also a problem that the line segment could not be extracted correctly because the result of whether or not it was possible to change. Further, although the distance and angle relationship between the two line segments is determined and the defect is interpolated, there is a problem that the feature amount cannot be obtained when the defect cannot be interpolated.
Furthermore, since the shape to be interpolated is limited to steps and corners, there is a possibility that an incorrect result is output compared to the map when the actual shape is different from the interpolated shape.
The present invention has been made in view of such problems, and not only a complicated environment with many corners, but also an environment having flat wall surfaces on both sides such as a corridor, or an environment in which they are combined, It is an object of the present invention to provide a self-position identification device capable of obtaining a self-position without using a map in a more general-purpose environment such as an environment where there is a defect due to occlusion, and a mobile robot equipped with the self-position identification device. To do.

上記問題を解決するため、本発明は、次のように構成したのである。
請求項1に記載の発明は、環境認識センサよって周期的に得られる計測データを元に環境情報の特徴点を抽出する特徴点抽出部と、1周期分の前記計測データを1フレームとして、連続する2フレーム間の特徴点集合を対応付ける特徴点対応部と、対応点集合から自己移動量を計算する自己移動量演算部と、前記自己移動量を座標変換して自己位置を求める位置変換部と、前記自己位置を記憶する位置記憶部と、内界センサからの情報を元にデッドレコニング値を求めるデッドレコニング演算部とを備えた自己位置同定装置において、前記環境認識センサからの計測データを元に環境情報の特徴線分を抽出する特徴線分抽出部と、抽出された前記特徴線分から仮想特徴点を求める仮想特徴点抽出部と、前記連続する2フレーム間の特徴線分集合を対応付ける特徴線分対応部と、を備えたことを特徴とするものである。
In order to solve the above problem, the present invention is configured as follows.
According to the first aspect of the present invention, a feature point extraction unit that extracts feature points of environment information based on measurement data periodically obtained by an environment recognition sensor, and the measurement data for one period as one frame continuously. A feature point correspondence unit that associates a feature point set between two frames, a self-movement amount calculation unit that calculates a self-movement amount from the corresponding point set, a position conversion unit that obtains a self-position by performing coordinate transformation of the self-movement amount, A self-position identification device comprising a position storage section for storing the self-position and a dead reckoning calculation section for obtaining a dead reckoning value based on information from an internal sensor, based on measurement data from the environment recognition sensor. A feature line segment extracting unit for extracting feature line segments of environmental information, a virtual feature point extracting unit for obtaining a virtual feature point from the extracted feature line segment, and a feature line segment collection between the two consecutive frames. And wherein the segment corresponding unit associating, is characterized in that it comprises a.

また、請求項2に記載の発明は、前記特徴線分抽出部は、前記環境認識センサからの計測データを複数の測定点群に分割し、各測定点群内において、測定点の最小二乗近似直線と各測定点との距離が所定の閾値以内となるよう前記測定点群をさらに分割して線分を抽出することを特徴とするものである。   Further, in the invention according to claim 2, the feature line segment extraction unit divides measurement data from the environment recognition sensor into a plurality of measurement point groups, and the least square approximation of the measurement points in each measurement point group. The measurement point group is further divided to extract a line segment so that the distance between the straight line and each measurement point is within a predetermined threshold.

また、請求項3に記載の発明は、前記特徴線分対応部は、前記連続する2フレーム間の特徴線分集合の対応付けにおいて2つの線分の傾きの一致度と線分の端点の絶対位置とを基に端点と線分の重なり具合を評価し、線分に重なった端点ともう一方の線分の両端点の絶対位置から、対応点の相対位置を求めることを特徴とするものである。   Further, in the invention according to claim 3, the feature line segment correspondence unit is configured such that the degree of coincidence of inclinations of two line segments and the absolute value of the end points of the line segments in the association of the feature line segment sets between the two consecutive frames. It is characterized by evaluating the overlap between the end point and the line segment based on the position, and calculating the relative position of the corresponding point from the absolute position of the end point overlapped with the line segment and the end point of the other line segment. is there.

また、請求項4に記載の発明は、前記端点と線分の重なり具合の評価は、前記2つの線分の長さを比較して短線分と長線分に選別し、短線分の端点と長線分との距離が所定の閾値以内であるか否かによって行うことを特徴とするものである。   In the invention according to claim 4, the evaluation of the degree of overlap between the end point and the line segment is performed by comparing the lengths of the two line segments and selecting the short line segment and the long line segment. This is performed depending on whether the distance from the minute is within a predetermined threshold.

また、請求項5に記載の発明は、前記仮想特徴点抽出部は、前記特徴線分抽出部にて抽出された複数の特徴線分を延長した直線の交点を求め。前記交点を仮想特徴点として抽出することを特徴とするものである。   In the invention according to claim 5, the virtual feature point extraction unit obtains an intersection of straight lines obtained by extending a plurality of feature line segments extracted by the feature line segment extraction unit. The intersection point is extracted as a virtual feature point.

また、請求項6に記載の発明は、前記特徴点の数と前記仮想特徴点の数との合計が予め定められた定数より大きい場合には、前記特徴線分対応部における特徴線分の対応付けを行わないことを特徴とするものである。   In the invention according to claim 6, when the total of the number of the feature points and the number of the virtual feature points is larger than a predetermined constant, the feature line segment correspondence in the feature line segment correspondence unit It is characterized by not attaching.

また、請求項7に記載の発明は、前記内界センサとして方位センサを備え、前記自己移動量において、姿勢回転量のみを前記方位センサの情報から求め、今回フレームのデータを前記姿勢回転量だけ回転させたデータから特徴点、特徴線分、および仮想特徴点を求めて前回フレームのデータとの対応付けを行い、前記自己移動量演算部にて、前記対応点集合から各点の並進移動量を求め、平均を取ることにより自己の並進移動量を求め前記姿勢回転量と合わせて自己移動量とすることを特徴とするものである。   The invention according to claim 7 includes an azimuth sensor as the internal sensor, and in the self-movement amount, only the posture rotation amount is obtained from the information of the azimuth sensor, and the data of the current frame is calculated only by the posture rotation amount. A feature point, a feature line segment, and a virtual feature point are obtained from the rotated data and associated with the data of the previous frame, and the translation amount of each point from the corresponding point set is calculated by the self-movement amount calculation unit. The translational movement amount of the self is obtained by taking the average, and the self-movement amount is combined with the posture rotation amount.

また、請求項8に記載の発明は、前記内界センサとして方位センサを備え、前記自己移動量において、姿勢回転量のみを前記方位センサの情報から求め、今回フレームのデータを前記姿勢回転量だけ回転させたデータから特徴点、特徴線分、および仮想特徴点を求めて前回フレームのデータとの対応付けを行い、前記自己移動量演算部にて、前記対応点集合から各点の並進移動量を求め、投票によって最頻値を取ることにより自己の並進移動量を求め前記姿勢回転量と合わせて自己移動量とすることを特徴とするものである。   The invention according to claim 8 includes an azimuth sensor as the inner world sensor, and in the self-movement amount, only the posture rotation amount is obtained from the information of the azimuth sensor, and the data of the current frame is calculated only by the posture rotation amount. A feature point, a feature line segment, and a virtual feature point are obtained from the rotated data and associated with the data of the previous frame, and the translation amount of each point from the corresponding point set is calculated by the self-movement amount calculation unit. And the translational movement amount of the self is obtained by taking the mode value by voting, and the self-movement amount is combined with the posture rotation amount.

また、請求項9に記載の発明は、請求項1乃至8に記載された自己位置同定装置を備えたことを特徴とする移動ロボットである。   According to a ninth aspect of the present invention, there is provided a mobile robot comprising the self-position identification device according to the first to eighth aspects.

請求項1乃至8に記載の発明によると、特徴点だけでなく仮想特徴点を含めた線分も併用して対応を行っており、仮想特徴点は、2フレームの計測データのずれ量を求める際の対応点として求めているだけなので実際の形状と一致している必要がなく、オクルージョンなどにより欠損があっても、形状を補間せずに2フレームの計測データのずれ量を正確に求めることができる。そのため、角の多い複雑な環境だけでなく、廊下など両側に平らな壁面があるような環境やあるいはそれらが複合した環境、さらには、欠損がある環境等、より汎用的な環境において地図を用いずに自己位置を求めることができる。
また請求項9に記載の発明によると、自己位置同定装置によって地図を用いずに自己位置を求めて環境内を移動可能な移動ロボットを実現できる。
According to the first to eighth aspects of the invention, not only the feature point but also the line segment including the virtual feature point is used together, and the virtual feature point obtains the shift amount of the measurement data of two frames. It is not necessary to match the actual shape because it is only determined as a corresponding point at the time, and even if there is a defect due to occlusion etc., the deviation amount of the measurement data of 2 frames can be accurately calculated without interpolating the shape Can do. For this reason, maps are used not only in complex environments with many corners, but also in more general-purpose environments such as corridors and other environments where there are flat walls on both sides, or a combination of these, as well as environments with defects. The self-position can be obtained without.
According to the ninth aspect of the present invention, it is possible to realize a mobile robot that can move within the environment by obtaining a self-position without using a map by the self-position identification device.

以下、本発明の実施の形態について図を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の自己位置同定装置の内部構成を示す図である。自己位置同定装置2は、例えば、CPUやメモリを内蔵した計算機であり、特徴点抽出部11、特徴点対応部12、自己移動量演算部13、位置変換部14、位置記憶部15、デッドレコニング演算部16、特徴線分抽出部17、特徴線分対応部18、仮想特徴点抽出部19から構成され、環境認識センサなどの情報を入力して移動ロボットの自己位置を計算し出力する。   FIG. 1 is a diagram showing an internal configuration of the self-position identification device of the present invention. The self-position identification device 2 is, for example, a computer incorporating a CPU and a memory, and includes a feature point extraction unit 11, a feature point correspondence unit 12, a self-movement amount calculation unit 13, a position conversion unit 14, a position storage unit 15, and dead reckoning. The calculation unit 16, the feature line segment extraction unit 17, the feature line segment correspondence unit 18, and the virtual feature point extraction unit 19 input information such as an environment recognition sensor to calculate and output the mobile robot's own position.

特徴点抽出部11は、環境認識センサからの情報を元に所定の周期で移動ロボット周辺の環境形状を認識し、角部などの特徴点集合を抽出する。
特徴点集合はこの周期に応じて抽出される。定期的に得られる特徴点情報を1フレームとすると、特徴点対応部12では、その特徴点集合をフレームごとに保存して、時間的に連続する2フレーム間の特徴点集合を特徴点の絶対位置を評価して対応付ける。
自己移動量演算部13は、特徴点対応部12から出力された対応点集合を用いてフレーム間で対応付けられた特徴点間の二乗距離の和を最小化するように移動ロボットの自己移動量を計算する。位置変換部14は、自己移動量演算部13から出力された自己移動量を座標変換して自己位置を計算する。
また、今回のフレームの特徴点、仮想特徴点、特徴線分端点について、相対位置(以降、特徴相対位置と呼ぶ)を入力し、特徴相対位置と自己位置を使って特徴点、仮想特徴点、特徴線分端点の絶対位置(以降、特徴位置と呼ぶ)も計算する。
The feature point extraction unit 11 recognizes the environment shape around the mobile robot based on information from the environment recognition sensor and extracts feature point sets such as corners.
The feature point set is extracted according to this period. If the feature point information obtained periodically is one frame, the feature point correspondence unit 12 stores the feature point set for each frame, and the feature point set between two consecutive frames in time is the absolute value of the feature point. Assess and correlate position.
The self-movement amount calculation unit 13 uses the correspondence point set output from the feature point correspondence unit 12 to minimize the sum of the square distances between the feature points associated between the frames. Calculate The position conversion unit 14 performs coordinate conversion of the self-movement amount output from the self-movement amount calculation unit 13 to calculate the self position.
Also, for the feature point, virtual feature point, and feature line segment end point of the current frame, the relative position (hereinafter referred to as feature relative position) is input, and the feature point, virtual feature point, The absolute position of the feature line segment end point (hereinafter referred to as the feature position) is also calculated.

位置記憶部15は、位置変換部14から出力された自己位置および特徴位置を保存する。デッドレコニング演算部16は、位置記憶部15から出力された自己位置にエンコーダなどによる内界センサ情報から求めた移動量を積算することよりデッドレコニング値を計算する。
特徴線分抽出部17は、特徴点抽出部11と同様に環境認識センサの情報を元に環境形状を認識するが、特徴点集合ではなく壁面部などの特徴線分集合を抽出する。
特徴線分対応部18は、特徴点対応部12のように、連続する2フレーム間の特徴線分集合を線分の傾きと線分の端点の絶対位置を評価して対応付ける。
仮想特徴点抽出部19は、特徴線分抽出部17から抽出された特徴線分集合から隣接する2本の特徴線分を取り出し、その2線分をそれぞれ延長した直線の交点を求める。求められた交点を仮想の特徴点として出力する。
The position storage unit 15 stores the self position and the feature position output from the position conversion unit 14. The dead reckoning calculation unit 16 calculates a dead reckoning value by adding the movement amount obtained from the internal sensor information by an encoder or the like to the self position output from the position storage unit 15.
Similar to the feature point extraction unit 11, the feature line segment extraction unit 17 recognizes the environment shape based on the information of the environment recognition sensor, but extracts a feature line segment set such as a wall surface portion instead of the feature point set.
Like the feature point correspondence unit 12, the feature line segment correspondence unit 18 associates the feature line segment set between two consecutive frames by evaluating the inclination of the line segment and the absolute position of the end point of the line segment.
The virtual feature point extraction unit 19 extracts two adjacent feature line segments from the feature line segment set extracted from the feature line segment extraction unit 17, and obtains intersections of straight lines obtained by extending the two line segments. The obtained intersection is output as a virtual feature point.

図2(a)および(b)は、本発明の自己位置同定装置2を搭載した移動ロボットの内部構成を示す図である。移動ロボット1は、自己位置同定装置2、移動ロボット制御装置3、モータ4、エンコーダ5、駆動機構6、環境認識センサ7から構成される。移動ロボット制御装置3は、自己位置同定装置2で計算された自己位置を取得し、指令生成およびサーボ制御を行ってモータ4の駆動制御を行う。モータ4は、駆動機構6を駆動する。エンコーダ5は、モータ4の回転量を計測し内界センサ情報を生成する。内界センサ情報はエンコーダだけでなくジャイロセンサ等の方位センサを移動ロボット1に組み込んで適用するようにしても良い。駆動機構6は、モータ4の出力軸に接続された車輪あるいは操舵軸を複数組有し移動ロボット1を駆動する。
環境認識センサ7は、例えば2次元レーザレンジファインダのような2次元スキャン型距離センサであり、そのレーザ光線が、左右に傾いていない平面(スキャン平面)内において、センサ取付位置を中心にして扇状にスキャンされ、壁などの周囲物体までの距離を計測する。このような構成において、自己位置同定装置2は、環境認識センサ7およびエンコーダ5からの情報を取り込んで自己位置を計算し、移動ロボット1を制御するために必要な情報を生成しているのである。
本発明が従来技術と異なる部分は、自己位置同定装置2に特徴線分抽出部17、特徴線分対応部18、仮想特徴点抽出部19を設けた点である。
2A and 2B are diagrams showing the internal configuration of a mobile robot equipped with the self-position identification device 2 of the present invention. The mobile robot 1 includes a self-position identification device 2, a mobile robot control device 3, a motor 4, an encoder 5, a drive mechanism 6, and an environment recognition sensor 7. The mobile robot control device 3 acquires the self-position calculated by the self-position identification device 2, performs command generation and servo control, and controls the drive of the motor 4. The motor 4 drives the drive mechanism 6. The encoder 5 measures the amount of rotation of the motor 4 and generates internal sensor information. The inner world sensor information may be applied by incorporating not only an encoder but also an orientation sensor such as a gyro sensor in the mobile robot 1. The drive mechanism 6 has a plurality of sets of wheels or steering shafts connected to the output shaft of the motor 4 and drives the mobile robot 1.
The environment recognition sensor 7 is a two-dimensional scanning distance sensor such as a two-dimensional laser range finder, for example, and a fan-shaped laser beam centered on the sensor mounting position in a plane that is not tilted to the left or right (scan plane). To measure the distance to surrounding objects such as walls. In such a configuration, the self-position identification device 2 takes in information from the environment recognition sensor 7 and the encoder 5, calculates the self-position, and generates information necessary for controlling the mobile robot 1. .
The present invention is different from the prior art in that the self-position identification device 2 is provided with a feature line segment extracting unit 17, a feature line segment corresponding unit 18, and a virtual feature point extracting unit 19.

図3は自己位置同定装置2において特徴線分を用いて自己位置を計算する処理手順を示すフローチャートである。この図を用いて本発明における処理を順を追って説明する。
なお説明を簡単にするため、環境認識センサ7を原点とするセンサ座標系はロボット座標系と同一であるとする。
ステップ1では、特徴線分抽出部17にて次に述べるような方法で環境認識センサ7による複数の測定点を線分に分割して直線を抽出する。
まず隣接する測定点間の距離を評価して、連続した測定点群に分割する。すなわち、隣接測定点間の距離が大きい場合、その隣接測定点間で測定対象が不連続になっているものとして、測定点の列を分解して測定点群とする。
測定点列を測定点群に分解する様子を図4に示す。物体1、物体2について環境認識センサ7によって計測を行った場合、物体1と物体2の間で測定点の間の距離が大きくなるため、測定点列が測定点群1、2に分解される。
続いて各測定点群に対し、線分の抽出を行う。線分の抽出はまず、連続する測定点に対する最小二乗近似直線を生成して、測定点との最大距離が予め定められた閾値内であるか評価する。そして最大距離が閾値内であれば隣接する測定点と合併して前記と同様の評価を行う。もし測定点と最小二乗近似直線の距離が閾値を超えた場合は、該測定点の前の測定点で分割し、該測定点を始点として次の線分を抽出する。このような分割を繰り返し行うことで測定点群内において線分を抽出する。
FIG. 3 is a flowchart showing a processing procedure for calculating the self-position using the feature line segment in the self-position identification device 2. The processing in the present invention will be described step by step with reference to this figure.
For the sake of simplicity, it is assumed that the sensor coordinate system having the environment recognition sensor 7 as the origin is the same as the robot coordinate system.
In step 1, the feature line segment extraction unit 17 extracts a straight line by dividing a plurality of measurement points by the environment recognition sensor 7 into line segments by the following method.
First, the distance between adjacent measurement points is evaluated and divided into continuous measurement point groups. That is, when the distance between adjacent measurement points is large, it is assumed that the measurement object is discontinuous between the adjacent measurement points, and the measurement point sequence is disassembled into a measurement point group.
FIG. 4 shows how the measurement point sequence is decomposed into measurement point groups. When the object 1 and the object 2 are measured by the environment recognition sensor 7, the distance between the measurement points increases between the object 1 and the object 2, so that the measurement point sequence is decomposed into the measurement point groups 1 and 2. .
Subsequently, line segments are extracted for each measurement point group. To extract a line segment, first, a least square approximation straight line for successive measurement points is generated, and it is evaluated whether the maximum distance from the measurement point is within a predetermined threshold. If the maximum distance is within the threshold value, the same evaluation as described above is performed by merging with adjacent measurement points. If the distance between the measurement point and the least square approximation straight line exceeds the threshold value, the measurement point is divided at the measurement point before the measurement point, and the next line segment is extracted starting from the measurement point. By repeating such division, a line segment is extracted in the measurement point group.

図5(a)、(b)は、ある測定点群において線分を抽出する様子を説明する図である。図5(a)では測定点2と最小二乗近似直線との距離が閾値を超えているのでその前の測定点1で測定点群を分割し、その時の最小二乗近似直線の一部を線分として抽出する。
そして、測定点2を始点として新たな線分を抽出する。このようにして図5(b)に示すような線分1および線分2が抽出される。線分の端点は隣接する線分を延長して線分同士が交わる場合はその交点とし、交わらない場合あるいは測定点群の始点や終点の場合は分割の始点または終点となる測定点とする。
FIGS. 5A and 5B are diagrams for explaining how line segments are extracted from a certain group of measurement points. In FIG. 5A, since the distance between the measurement point 2 and the least square approximation line exceeds the threshold value, the measurement point group is divided at the previous measurement point 1, and a part of the least square approximation line at that time is segmented. Extract as
Then, a new line segment is extracted starting from the measurement point 2. In this way, line segment 1 and line segment 2 as shown in FIG. 5B are extracted. The end point of the line segment is the intersection point when the line segments intersect with each other by extending the adjacent line segment, and the measurement point that is the start point or end point of the division when not intersecting or the start point or end point of the measurement point group.

ステップ2では、特徴線分抽出部17によって抽出された特徴線分集合から隣接する2本の特徴線分を仮想特徴点抽出部19にて取り出し、その2線分をそれぞれ延長した直線の交点を求める。求められた交点を仮想特徴点として特徴点対応部12に出力する。
図6(a)(b)は、仮想特徴点を抽出する様子を説明する図であり、図6(a)では、線分1と線分2の間に欠損があり、特徴点はないが、それぞれの線分を延長した直線の交点を求めることにより仮想特徴点を求めるようにする。図6(b)でも、図6(a)と同様にして仮想特徴点を求めるようにするが、仮想特徴点は図6(b)のように線分4上にあって欠損した部分になくてもよい。なお、特徴点抽出部11から抽出された特徴点の数と仮想特徴点の数との合計が予め定められた定数より大きければ、ステップ4から6までの処理は行わない。
In step 2, two adjacent feature line segments are extracted by the virtual feature point extraction unit 19 from the feature line segment set extracted by the feature line segment extraction unit 17, and the intersections of the straight lines obtained by extending the two line segments are obtained. Ask. The obtained intersection is output to the feature point correspondence unit 12 as a virtual feature point.
6 (a) and 6 (b) are diagrams for explaining how virtual feature points are extracted. In FIG. 6 (a), there is a defect between line segment 1 and line segment 2, but there is no feature point. The virtual feature point is obtained by obtaining the intersection of the straight lines obtained by extending the respective line segments. 6B, the virtual feature points are obtained in the same manner as in FIG. 6A, but the virtual feature points are not on the missing portion on the line segment 4 as shown in FIG. 6B. May be. If the sum of the number of feature points extracted from the feature point extraction unit 11 and the number of virtual feature points is larger than a predetermined constant, the processing from step 4 to step 6 is not performed.

ステップ3では、デッドレコニング演算部16からデッドレコニング値を取り込み、今回取得した線分の端点および仮想特徴点に対し座標変換を行い、絶対位置を求める。
ステップ4では、位置記憶部15から前回の特徴位置すなわち前回の特徴線分集合の端点の絶対位置を取得する。
ステップ5では、特徴線分対応部18にて、2フレーム間の線分集合対応付けを、線分の傾きの一致度とステップ3、4で求めた端点の位置とから、線分の重なり具合を評価して行う。
In step 3, a dead reckoning value is taken from the dead reckoning calculation unit 16, coordinate conversion is performed on the end points and virtual feature points of the line segment acquired this time, and an absolute position is obtained.
In step 4, the previous feature position, that is, the absolute position of the end point of the previous feature line segment set is acquired from the position storage unit 15.
In step 5, the feature line segment correspondence unit 18 associates the line segment sets between the two frames based on the degree of coincidence of the line segment inclinations and the end point positions obtained in steps 3 and 4. To evaluate.

図7は、線分集合の対応付けをするときの説明図である。図7のxy座標系は前述の絶対位置の基準となる世界座標系である。
まず各フレームの線分集合から線分を1本ずつ取り出し、取り出された2つの線分の長さを比較して長い方を長線分、短い方を短線分として選別する。その後、長線分と短線分の傾きの一致度と長線分と短線分の重なり具合の評価を行う。線分の傾きの一致度は図7に示すようにx軸とのなす角度をそれぞれθ、θとし、また閾値をeとして次式により評価する。
FIG. 7 is an explanatory diagram for associating line segment sets. The xy coordinate system in FIG. 7 is a world coordinate system that serves as a reference for the absolute position described above.
First, one line segment is extracted from the line segment set of each frame, and the lengths of the two extracted line segments are compared to select the longer one as the long line segment and the shorter one as the short line segment. Thereafter, the degree of coincidence of the slopes of the long line segment and the short line segment and the degree of overlap between the long line segment and the short line segment are evaluated. As shown in FIG. 7, the degree of coincidence of the slopes of the line segments is evaluated according to the following equation, assuming that the angles formed with the x axis are θ l and θ s respectively, and the threshold is e 1 .





線分の重なり具合の評価では、図7に示すように短線分の端点と長線分との距離rが閾値eより小さいかを次式により判定する。ただし、短線分の端点から長線分に降ろした垂線が長線分と交わらない場合(長線分上に交点がない場合)は、除外して該端点に対しては判定を行わない。 In the evaluation of the overlapping state of the line segments, it is determined by the following formula whether the distance r between the end point of the short line segment and the long line segment is smaller than the threshold value e 2 as shown in FIG. However, when the perpendicular line dropped from the end point of the short line segment to the long line segment does not intersect with the long line segment (when there is no intersection point on the long line segment), the determination is not performed on the end point.





上式のxl4、yl4は端点4のx座標、y座標、xi、yi(i=0、1)は短線分の端点のx座標、y座標である。判定を短線分の両端点に関し行い、少なくとも1つが式(5)(6)の条件を満たせば長線分と短線分とが重なっていると評価する。
なお長線分と短線分は、正確には図8のように一部がほぼ重なるような位置関係となるが、図7においては長線分、短線分の各端点や距離rについての説明を分かり易くするために拡大して長線分、短線分を離して描いている。
In the above expression, x 14 and y 14 are the x coordinate and y coordinate of the end point 4, and xi and yi (i = 0, 1) are the x coordinate and y coordinate of the end point of the short line segment. The determination is performed with respect to both end points of the short line segment, and it is evaluated that the long line segment and the short line segment overlap if at least one satisfies the conditions of equations (5) and (6).
Note that the long line segment and the short line segment have a positional relationship in which the portions overlap each other exactly as shown in FIG. 8, but in FIG. 7, the explanation about each end point and the distance r of the long line segment and the short line segment is easy to understand. In order to enlarge, the long line segment and the short line segment are drawn apart.

続いてステップ6で、長線分に重なった短線分の端点の絶対位置と長線分の両端点の絶対位置とから長線分上の対応点(図8の端点1’)の相対位置(ロボット座標系位置)を求める。
図8は対応点の位置を求める説明図であり、この図をもとに説明する。端点1に対応する端点1’の絶対位置は同じであるので、図8のように長線分に重なった端点1と長線分の両端点3、4の絶対位置から端点1’が長線分上のどこにあるか、すなわち、式(7)で表される長線分の式における直線パラメータtを式(8)により求める。
Subsequently, in step 6, the relative position (robot coordinate system) of the corresponding point (end point 1 'in FIG. 8) on the long line segment from the absolute position of the end point of the short line segment that overlaps the long line segment and the absolute position of both end points of the long line segment. Position).
FIG. 8 is an explanatory diagram for obtaining the position of the corresponding point, which will be described based on this diagram. Since the absolute position of the end point 1 ′ corresponding to the end point 1 is the same, the end point 1 ′ is on the long line segment from the absolute position of the end point 1 overlapping the long line segment and the end points 3 and 4 of the long line segment as shown in FIG. 8. Wherein, that is, the straight line parameter t in the long line expression expressed by Expression (7) is obtained by Expression (8).





ただし、p’は端点1’の絶対位置を表すベクトル、d’は端点4(絶対位置)からみた端点3(絶対位置)の位置ベクトル、a’は端点4の絶対位置を表すベクトル、e’は端点4(絶対位置)からみた端点1(絶対位置)の位置ベクトル、| |はベクトルの大きさを表す。その後、各端点の相対位置は環境認識センサの計測データよりわかっているため、式(8)で求められた直線パラメータtから端点1’の相対位置を次式により求める。   Here, p ′ is a vector representing the absolute position of the end point 1 ′, d ′ is a position vector of the end point 3 (absolute position) viewed from the end point 4 (absolute position), a ′ is a vector representing the absolute position of the end point 4, e ′ Represents the position vector of the end point 1 (absolute position) viewed from the end point 4 (absolute position), and || represents the magnitude of the vector. After that, since the relative position of each end point is known from the measurement data of the environment recognition sensor, the relative position of the end point 1 'is obtained from the straight line parameter t obtained by the equation (8) by the following equation.





ただし、pは端点1’の相対位置を表すベクトル、dは端点4(相対位置)からみた端点3(相対位置)の位置ベクトル、aは端点4の相対位置を表すベクトルである。
そして、端点1と端点1’のうち、前回値と今回値を対応させることにより、特徴線分の対応点の組P(X,Y)(前回値)とP’(X’,Y’)(今回値)が特徴線分の対応点集合として求められる。
具体的には、端点1が元々前回値のデータであれば端点1をPに追加登録し端点1’をP’に追加登録する。端点1が今回値ならば逆に端点1をP’に登録し、端点1’をPに登録する。
Here, p is a vector representing the relative position of the end point 1 ′, d is a position vector of the end point 3 (relative position) viewed from the end point 4 (relative position), and a is a vector representing the relative position of the end point 4.
Then, by making the previous value and the current value correspond to each other between the end point 1 and the end point 1 ′, a set of corresponding points P j (X j , Y j ) (previous value) and P ′ j (X ′) j , Y ′ j ) (current value) is obtained as a corresponding point set of feature line segments.
Specifically, if the end point 1 is originally data of the previous value, the end point 1 is additionally registered in P, and the end point 1 ′ is additionally registered in P ′. If the end point 1 is the current value, the end point 1 is registered in P ′ and the end point 1 ′ is registered in P.

ステップ7では、ステップ6で求めた特徴線分の対応点集合を特徴点および仮想特徴点の対応点集合に加えて対応点集合として出力する。ステップ8で、自己移動量(Δx,Δy,Δθ)を式(1)〜(3)により計算する。
ステップ9で、位置変換部14にて、ステップ8で計算された自己移動量を前回の自己位置を用いて座標変換し今回の自己位置(絶対位置)を計算する。また、今回の特徴相対位置と自己位置を使って特徴位置も計算する。
ステップ10で、ステップ9で計算された自己位置および特徴位置を位置記憶部15に保存する。
In step 7, the corresponding point set obtained in step 6 is output as a corresponding point set in addition to the corresponding point set of the feature points and the virtual feature points. In step 8, self-movement amounts (Δx, Δy, Δθ) are calculated by equations (1) to (3).
In step 9, the position conversion unit 14 performs coordinate conversion of the self-movement amount calculated in step 8 using the previous self-position, and calculates the current self-position (absolute position). Also, the feature position is calculated using the current feature relative position and the self-position.
In step 10, the self position and feature position calculated in step 9 are stored in the position storage unit 15.

このように、本発明では特徴線分抽出部17、特徴線分対応部18、仮想特徴点抽出部19によって特徴点だけでなく仮想特徴点を含めた線分も併用して対応を行っており、仮想特徴点は、2フレームの計測データのずれ量を求める際の対応点として求めているだけなので実際の形状と一致している必要がなく、オクルージョンなどにより欠損があっても、形状を補間せずに2フレームの計測データのずれ量を正確に求めることができる。そのため、角の多い複雑な環境だけでなく、廊下など両側に平らな壁面がある環境や、それらが複合した環境、さらには、欠損がある環境等、より汎用的な環境において地図を用いずに自己位置を求めることができる。   As described above, according to the present invention, the feature line segment extraction unit 17, the feature line segment correspondence unit 18, and the virtual feature point extraction unit 19 handle not only the feature points but also the line segments including the virtual feature points. Because the virtual feature point is only obtained as a corresponding point when calculating the deviation of the measurement data of two frames, it does not need to match the actual shape, and even if there is a defect due to occlusion, the shape is interpolated Without this, the deviation amount of the measurement data of the two frames can be accurately obtained. Therefore, not only in a complicated environment with many corners, but also in a more general-purpose environment, such as an environment with flat walls on both sides such as a corridor, an environment where they are combined, or an environment with defects, without using a map Self-position can be obtained.

実施例1では、自己移動量演算部13において特徴点対応部12から出力された対応点集合を用いて式(1)〜(3)により自己移動量(Δx,Δy,Δθ)を計算していたが、本実施例ではジャイロ等の方位センサを具備した構成にし、姿勢回転量Δθは、方位センサから取得される姿勢θの値、すなわち前回フレーム計測時の値と今回フレーム計測時の値との差分として求め、今回フレームのデータをΔθだけ回転させたデータから特徴点、特徴線分、および仮想特徴点を求めて、前回フレームのデータとの対応付けを行う。
その後自己移動量演算部13にて対応点集合P(X,Y)(前回値)とP’(X’,Y’)(今回値)から各点の並進移動量(ΔX,ΔY)=(X−X’,Y−Y’)を求め、次式のように平均を取ることにより自己の並進移動量Δx,Δyを求め、Δθと合わせて自己移動量とする。
In the first embodiment, the self-movement amount calculation unit 13 calculates the self-movement amount (Δx, Δy, Δθ) by the equations (1) to (3) using the corresponding point set output from the feature point correspondence unit 12. However, in this embodiment, it is configured to include an orientation sensor such as a gyro, and the posture rotation amount Δθ is a value of the orientation θ acquired from the orientation sensor, that is, a value at the previous frame measurement and a value at the current frame measurement. The feature point, the feature line segment, and the virtual feature point are obtained from the data obtained by rotating the data of the current frame by Δθ, and are associated with the data of the previous frame.
Thereafter, the translation amount of each point (from the corresponding point set P j (X j , Y j ) (previous value)) and P ′ j (X ′ j , Y ′ j ) (current value) is calculated by the self-movement calculating unit 13. ΔX j , ΔY j ) = (X j −X ′ j , Y j −Y ′ j ) is obtained, and the translational movement amounts Δx and Δy of its own are obtained by taking an average as in the following equation, and combined with Δθ The amount of self movement.

ただし、式(10)(11)において、[・]は、jを1からNまで変化させた場合の総和を表す。ここでNは対応付けられた特徴点の組の数である。
また、平均を取って自己の並進移動量を求める代わりに、各点の並進移動量(ΔX,ΔY)を精度、処理速度に応じて単位を変えて整数化し、整数化されたΔX,ΔYに関し、投票で最頻値を取ることにより自己の並進移動量を求めてもよい。
However, in Expressions (10) and (11), [•] represents the total sum when j is changed from 1 to N. Here, N is the number of associated feature point pairs.
Further, instead of obtaining a translation amount of the self-taking average translational movement amount of each point (ΔX j, ΔY j) accuracy, and integer a change in units according to the processing speed, integer been [Delta] X j , ΔY j , the translation amount of the self may be obtained by taking a mode value by voting.

本発明の自己位置同定装置の装置構成図Device configuration diagram of self-position identification device of the present invention 本発明の自己位置同定装置を搭載した移動ロボットの装置構成図Device configuration diagram of a mobile robot equipped with the self-position identification device of the present invention 本発明の自己位置同定装置の処理手順を示すフローチャートThe flowchart which shows the process sequence of the self-position identification apparatus of this invention. 本発明の測定点列を測定点群に分解する説明図Explanatory drawing which decomposes | disassembles the measurement point sequence of this invention into a measurement point group 本発明の測定点群から線分を抽出する説明図Explanatory drawing which extracts a line segment from the measurement point group of this invention 本発明の仮想特徴点を抽出する説明図Explanatory drawing which extracts the virtual feature point of this invention 本発明の線分集合対応付けの説明図Explanatory drawing of line segment set matching of this invention 本発明の対応端点の位置を求める説明図Explanatory drawing which calculates | requires the position of the corresponding end point of this invention 従来例1の自己位置同定計算の処理手順を示すフローチャートThe flowchart which shows the process sequence of the self-position identification calculation of the prior art example 1. 従来例2の自己位置同定計算の処理手順を示すフローチャートThe flowchart which shows the process sequence of the self-position identification calculation of the prior art example 2.

符号の説明Explanation of symbols

1 移動ロボット
2 自己位置同定装置
3 移動ロボット制御装置
4 モータ
5 エンコーダ
6 駆動機構
7 環境認識センサ
11 特徴点抽出部
12 特徴点対応部
13 自己移動量演算部
14 位置変換部
15 位置記憶部
16 デッドレコニング演算部
17 特徴線分抽出部
18 特徴線分対応部
19 仮想特徴点抽出部
DESCRIPTION OF SYMBOLS 1 Mobile robot 2 Self-position identification apparatus 3 Mobile robot control apparatus 4 Motor 5 Encoder 6 Drive mechanism 7 Environment recognition sensor 11 Feature point extraction part 12 Feature point correspondence part 13 Self-movement amount calculation part 14 Position conversion part 15 Position storage part 16 Dead Reckoning calculation unit 17 Feature line segment extraction unit 18 Feature line segment correspondence unit 19 Virtual feature point extraction unit

Claims (9)

環境認識センサよって周期的に得られる計測データを元に環境情報の特徴点を抽出する特徴点抽出部と、
1周期分の前記計測データを1フレームとして、連続する2フレーム間の特徴点集合を対応付ける特徴点対応部と、
対応点集合から自己移動量を計算する自己移動量演算部と、
前記自己移動量を座標変換して自己位置を求める位置変換部と、
前記自己位置を記憶する位置記憶部と、
内界センサからの情報を元にデッドレコニング値を求めるデッドレコニング演算部とを備えた自己位置同定装置において、
前記環境認識センサからの計測データを元に環境情報の特徴線分を抽出する特徴線分抽出部と、
抽出された前記特徴線分から仮想特徴点を求める仮想特徴点抽出部と、
前記連続する2フレーム間の特徴線分集合を対応付ける特徴線分対応部と、
を備えたことを特徴とする自己位置同定装置。
A feature point extraction unit that extracts feature points of environment information based on measurement data periodically obtained by the environment recognition sensor;
A feature point corresponding unit that associates a set of feature points between two consecutive frames, with the measurement data for one period as one frame,
A self-movement amount calculation unit for calculating a self-movement amount from the corresponding point set;
A position conversion unit that determines the self position by performing coordinate conversion of the self-movement amount;
A position storage unit for storing the self-position;
In the self-position identification device provided with a dead reckoning calculation unit for obtaining a dead reckoning value based on information from the internal sensor,
A feature line segment extraction unit for extracting feature line segments of environment information based on measurement data from the environment recognition sensor;
A virtual feature point extraction unit for obtaining a virtual feature point from the extracted feature line segment;
A feature line segment corresponding unit that associates a set of feature line segments between the two consecutive frames;
A self-position identification device comprising:
前記特徴線分抽出部は、前記環境認識センサからの計測データを複数の測定点群に分割し、各測定点群内において、測定点の最小二乗近似直線と各測定点との距離が所定の閾値以内となるよう前記測定点群をさらに分割して線分を抽出することを特徴とする請求項1記載の自己位置同定装置。   The feature line segment extraction unit divides measurement data from the environment recognition sensor into a plurality of measurement point groups, and within each measurement point group, a distance between the least square approximation straight line of the measurement points and each measurement point is a predetermined distance. 2. The self-position identification apparatus according to claim 1, wherein the measurement point group is further divided so as to be within a threshold value and a line segment is extracted. 前記特徴線分対応部は、前記連続する2フレーム間の特徴線分集合の対応付けにおいて
2つの線分の傾きの一致度と線分の端点の絶対位置とを基に端点と線分の重なり具合を評価し、
線分に重なった端点ともう一方の線分の両端点の絶対位置から、対応点の相対位置を求めることを特徴とする請求項1記載の自己位置同定装置。
The feature line segment correspondence unit overlaps the end points and the line segments based on the degree of coincidence of the inclinations of the two line segments and the absolute position of the end points of the line segments in the association of the feature line segment sets between the two consecutive frames. Evaluate the condition,
2. The self-position identification device according to claim 1, wherein the relative position of the corresponding point is obtained from the absolute position of the end point overlapped with the line segment and the end point of the other line segment.
前記端点と線分の重なり具合の評価は、前記2つの線分の長さを比較して短線分と長線分に選別し、短線分の端点と長線分との距離が所定の閾値以内であるか否かによって行うことを特徴とする請求項3記載の自己位置同定装置。   The evaluation of the degree of overlap between the end point and the line segment is made by comparing the lengths of the two line segments and selecting the short line segment and the long line segment, and the distance between the end point of the short line segment and the long line segment is within a predetermined threshold. 4. The self-position identification device according to claim 3, wherein the self-position identification device is performed depending on whether or not. 前記仮想特徴点抽出部は、前記特徴線分抽出部にて抽出された複数の特徴線分を延長した直線の交点を求め。前記交点を仮想特徴点として抽出することを特徴とする請求項1記載の自己位置同定装置。   The virtual feature point extraction unit obtains intersections of straight lines obtained by extending a plurality of feature line segments extracted by the feature line segment extraction unit. The self-position identification apparatus according to claim 1, wherein the intersection is extracted as a virtual feature point. 前記特徴点の数と前記仮想特徴点の数との合計が予め定められた定数より大きい場合には、前記特徴線分対応部における特徴線分の対応付けを行わないことを特徴とする請求項1記載の自己位置同定装置。   The feature line segment is not associated in the feature line segment correspondence unit when the sum of the number of feature points and the number of virtual feature points is greater than a predetermined constant. The self-position identification apparatus according to 1. 前記内界センサとして方位センサを備え、前記自己移動量において、姿勢回転量のみを前記方位センサの情報から求め、今回フレームのデータを前記姿勢回転量だけ回転させたデータから特徴点、特徴線分、および仮想特徴点を求めて前回フレームのデータとの対応付けを行い、
前記自己移動量演算部にて、前記対応点集合から各点の並進移動量を求め、平均を取ることにより自己の並進移動量を求め前記姿勢回転量と合わせて自己移動量とすることを特徴とする請求項1乃至6のいずれか1項記載の自己位置同定装置。
An azimuth sensor is provided as the internal sensor, and in the amount of self-movement, only the posture rotation amount is obtained from the information of the azimuth sensor, and feature points and feature line segments are obtained from data obtained by rotating the data of the current frame by the posture rotation amount. , And the virtual feature point is determined and associated with the data of the previous frame,
In the self-movement amount calculation unit, the translational movement amount of each point is obtained from the corresponding point set, and the translational movement amount of the self is obtained by taking an average, and the self-movement amount is combined with the posture rotation amount. The self-position identification device according to any one of claims 1 to 6.
前記内界センサとして方位センサを備え、前記自己移動量において、姿勢回転量のみを前記方位センサの情報から求め、今回フレームのデータを前記姿勢回転量だけ回転させたデータから特徴点、特徴線分、および仮想特徴点を求めて前回フレームのデータとの対応付けを行い、
前記自己移動量演算部にて、前記対応点集合から各点の並進移動量を求め、投票によって最頻値を取ることにより自己の並進移動量を求め前記姿勢回転量と合わせて自己移動量とすることを特徴とする請求項1乃至6のいずれか1項記載の自己位置同定装置。
An azimuth sensor is provided as the internal sensor, and in the amount of self-movement, only the posture rotation amount is obtained from the information of the azimuth sensor, and feature points and feature line segments are obtained from data obtained by rotating the data of the current frame by the posture rotation amount. , And the virtual feature point is determined and associated with the data of the previous frame,
In the self-moving amount calculation unit, a translational movement amount of each point is obtained from the corresponding point set, and a self-translational movement amount is obtained by taking a mode value by voting. The self-position identification device according to any one of claims 1 to 6, wherein
請求項1乃至8に記載された自己位置同定装置を備えたことを特徴とする移動ロボット。   A mobile robot comprising the self-position identification device according to claim 1.
JP2008285752A 2008-11-06 2008-11-06 Self-position identification device and mobile robot provided with same Pending JP2010112836A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008285752A JP2010112836A (en) 2008-11-06 2008-11-06 Self-position identification device and mobile robot provided with same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008285752A JP2010112836A (en) 2008-11-06 2008-11-06 Self-position identification device and mobile robot provided with same

Publications (1)

Publication Number Publication Date
JP2010112836A true JP2010112836A (en) 2010-05-20

Family

ID=42301498

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008285752A Pending JP2010112836A (en) 2008-11-06 2008-11-06 Self-position identification device and mobile robot provided with same

Country Status (1)

Country Link
JP (1) JP2010112836A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2388658A2 (en) 2010-05-17 2011-11-23 Konica Minolta Business Technologies, Inc. Fixing device and image forming apparatus
JP2012096028A (en) * 2010-11-03 2012-05-24 Lg Electronics Inc Robot cleaner and controlling method of the same
JP2018105802A (en) * 2016-12-28 2018-07-05 日立Geニュークリア・エナジー株式会社 Inspection apparatus
CN110226186A (en) * 2016-12-26 2019-09-10 宝马股份公司 A kind of method and apparatus for indicating map element and vehicle/robot method and apparatus are positioned based on this
JP2019537715A (en) * 2016-10-25 2019-12-26 ツァイニャオ スマート ロジスティクス ホールディング リミティド Obstacle detection system and method
CN110652256A (en) * 2018-06-28 2020-01-07 松下知识产权经营株式会社 Mobile robot and control method
JP2021169947A (en) * 2020-04-15 2021-10-28 株式会社日立製作所 Object recognition device and object recognition method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2388658A2 (en) 2010-05-17 2011-11-23 Konica Minolta Business Technologies, Inc. Fixing device and image forming apparatus
JP2012096028A (en) * 2010-11-03 2012-05-24 Lg Electronics Inc Robot cleaner and controlling method of the same
US8705842B2 (en) 2010-11-03 2014-04-22 Lg Electronics Inc. Robot cleaner and controlling method of the same
JP2019537715A (en) * 2016-10-25 2019-12-26 ツァイニャオ スマート ロジスティクス ホールディング リミティド Obstacle detection system and method
CN110226186A (en) * 2016-12-26 2019-09-10 宝马股份公司 A kind of method and apparatus for indicating map element and vehicle/robot method and apparatus are positioned based on this
JP2018105802A (en) * 2016-12-28 2018-07-05 日立Geニュークリア・エナジー株式会社 Inspection apparatus
CN110652256A (en) * 2018-06-28 2020-01-07 松下知识产权经营株式会社 Mobile robot and control method
CN110652256B (en) * 2018-06-28 2022-07-29 松下知识产权经营株式会社 Mobile robot and control method
JP2021169947A (en) * 2020-04-15 2021-10-28 株式会社日立製作所 Object recognition device and object recognition method
JP7407648B2 (en) 2020-04-15 2024-01-04 株式会社日立製作所 Object recognition device and object recognition method

Similar Documents

Publication Publication Date Title
Kim et al. SLAM-driven robotic mapping and registration of 3D point clouds
CN107239076B (en) AGV laser SLAM method based on virtual scanning and distance measurement matching
US11525923B2 (en) Real-time three-dimensional map building method and device using three-dimensional lidar
CN109459039B (en) Laser positioning navigation system and method of medicine carrying robot
JP4533659B2 (en) Apparatus and method for generating map image by laser measurement
JP2010112836A (en) Self-position identification device and mobile robot provided with same
Kuramachi et al. G-ICP SLAM: An odometry-free 3D mapping system with robust 6DoF pose estimation
CN112070770B (en) High-precision three-dimensional map and two-dimensional grid map synchronous construction method
JP2008076252A (en) Own position recognition system
JP2009157430A (en) Coordinate correction method, coordinate correction program and autonomous mobile robot
TWI772743B (en) Information processing device and mobile robot
JP2003015739A (en) External environment map, self-position identifying device and guide controller
Kim et al. Autonomous mobile robot localization and mapping for unknown construction environments
JP2009128192A (en) Object recognition device and robot device
Donoso-Aguirre et al. Mobile robot localization using the Hausdorff distance
JPH07103715A (en) Method and apparatus for recognizing three-dimensional position and attitude based on visual sense
JP5477167B2 (en) Moving body
JP2010238217A (en) Self-localization method of mobile robot and the mobile robot
Blanco et al. Localization by voronoi diagrams correlation
JP2011511943A (en) A method for calculating the motion of an object from sensor data with the aid of a computer
Lee et al. Robust Robot Navigation using Polar Coordinates in Dynamic Environments
Kumar Development of SLAM algorithm for a Pipe Inspection Serpentine Robot
Tungadi et al. Multiple laser polar scan matching with application to SLAM
Torres-Torriti et al. Scan-to-map matching using the Hausdorff distance for robust mobile robot localization
Jež 3D mapping and localization using leveled map accelerated ICP