JP6801269B2 - Autonomous mobile device - Google Patents
Autonomous mobile device Download PDFInfo
- Publication number
- JP6801269B2 JP6801269B2 JP2016134018A JP2016134018A JP6801269B2 JP 6801269 B2 JP6801269 B2 JP 6801269B2 JP 2016134018 A JP2016134018 A JP 2016134018A JP 2016134018 A JP2016134018 A JP 2016134018A JP 6801269 B2 JP6801269 B2 JP 6801269B2
- Authority
- JP
- Japan
- Prior art keywords
- distance data
- distance
- self
- corrected
- horizontal plane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000005259 measurement Methods 0.000 claims description 39
- 238000010586 diagram Methods 0.000 description 12
- 238000000034 method Methods 0.000 description 12
- 238000001514 detection method Methods 0.000 description 2
- 206010034719 Personality change Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
Images
Landscapes
- Measurement Of Optical Distance (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
本発明は、2次元のレーザレンジファインダ(LRF)を用いて周辺環境を計測しながら動作する移動体(ロボット車両や自動搬送車(AGV))において、移動体が傾いた場合のLRFからの距離データを補正する自律移動装置に関するものである。 The present invention is a moving body (robot vehicle or automatic guided vehicle (AGV)) that operates while measuring the surrounding environment using a two-dimensional laser range finder (LRF), and the distance from the LRF when the moving body is tilted. It relates to an autonomous mobile device that corrects data.
2次元のLRFを用いて周辺環境を計測しながら動作する移動体は、LRFからの距離データを基に2次元の地図生成及び自己位置姿勢推定を行っている(この場合の「位置姿勢」は、2次元なので位置(x,y)と姿勢θ(=水平面上での向き)となる)。しかしながら、LRFからの距離データを基に地図生成・自己位置姿勢推定を行う際、路面状況により移動体の姿勢(この場合の「姿勢」は3次元なのでロール・ピッチ・ヨーそれぞれ(ψ,φ,θ)とする)が傾く(ロールψ及びピッチφが変化する)と、この距離データが歪み、地図生成及び自己位置姿勢推定の精度が低下してしまう。 A moving object that operates while measuring the surrounding environment using a two-dimensional LRF performs two-dimensional map generation and self-position / attitude estimation based on the distance data from the LRF (the "position / attitude" in this case is Since it is two-dimensional, it has a position (x, y) and a posture θ (= orientation on a horizontal plane). However, when map generation and self-position attitude estimation are performed based on the distance data from the LRF, the attitude of the moving object (the "attitude" in this case is three-dimensional, so roll, pitch, and yaw (ψ, φ, respectively) If (θ) is tilted (roll ψ and pitch φ change), this distance data will be distorted, and the accuracy of map generation and self-position attitude estimation will decrease.
上記特許文献1では、移動体が傾いているとき、又は、移動体の傾きが変動している間、LRFからの距離データに基づく地図生成・自己位置姿勢推定を一時中断する(自己位置姿勢推定は、駆動系からのオドメトリ情報を用いて行う)ことで、精度低下を抑える技術が開示されている。
In
しかしながら、この技術では、路面において長距離にわたり凹凸が存在する場合など、長い間傾いている状態、又は、その傾きの変動が長く続く場合に、LRFからの距離データに基づく地図生成・自己位置姿勢推定が長時間行われないことになる。これにより、特に地図生成については、生成精度の低下や地図分断の可能性もある。 However, with this technology, when the road surface is tilted for a long time, such as when there are irregularities over a long distance, or when the fluctuation of the tilt continues for a long time, map generation / self-position posture based on the distance data from the LRF Estimates will not be made for a long time. As a result, especially for map generation, there is a possibility that the generation accuracy may decrease and the map may be divided.
本発明は、上述の技術的課題に鑑みて、移動体が傾いているとき、及び、移動体の傾きが変動している間にも、2次元の地図生成及び自己位置姿勢推定を高精度に行うことができる、自律移動装置を提供することを目的とする。 In view of the above-mentioned technical problems, the present invention makes two-dimensional map generation and self-position / orientation estimation highly accurate even when the moving body is tilted and while the tilt of the moving body is fluctuating. It is an object of the present invention to provide an autonomous mobile device that can be performed.
上記課題を解決する第1の発明に係る自律移動装置は、
移動経路上にある物体までの距離を計測する距離センサを搭載した移動体に設けられる自律移動装置であって、
前記距離センサにより計測した距離データを取得する距離データ取得部と、
前記移動体の水平面上での移動量及び姿勢変化量を取得する位置姿勢変化量計測部と、
前記移動体のロール角及びピッチ角を計測する傾き計測部と、
前記ロール角及び前記ピッチ角に基づき前記距離データを補正し、補正済み距離データとする距離データ補正部と、
前記補正済み距離データに基づき、前記距離センサによる現在の計測範囲の局所地図を生成する局所地図生成部と、
前記局所地図、前記移動体の自己位置及び自己姿勢に基づき、大域地図を生成する大域地図生成部と、
直前の前記自己位置及び前記自己姿勢に前記移動量及び前記姿勢変化量を反映して更新したデータを、前記大域地図及び前記補正済み距離データに基づき補正して、最新の前記自己位置及び前記自己姿勢を求める自己位置姿勢推定部とを備える
ことを特徴とする。
The autonomous mobile device according to the first invention that solves the above problems is
It is an autonomous mobile device installed in a moving body equipped with a distance sensor that measures the distance to an object on the moving path.
A distance data acquisition unit that acquires distance data measured by the distance sensor,
A position / posture change amount measuring unit that acquires the movement amount and the posture change amount of the moving body on the horizontal plane, and
A tilt measuring unit that measures the roll angle and pitch angle of the moving body,
A distance data correction unit that corrects the distance data based on the roll angle and the pitch angle to obtain the corrected distance data,
A local map generator that generates a local map of the current measurement range by the distance sensor based on the corrected distance data.
A global map generator that generates a global map based on the local map, the self-position of the moving body, and the self-posture.
The data updated by reflecting the movement amount and the posture change amount on the self-position and the self-posture immediately before is corrected based on the global map and the corrected distance data, and the latest self-position and the self are corrected. It is characterized by having a self-position posture estimation unit that obtains a posture.
上記課題を解決する第2の発明に係る自律移動装置は、
上記第1の発明に係る自律移動装置において、
前記距離データ補正部は、
前記ロール角及び前記ピッチ角を用いて、前記距離データを補正し、前記補正済み距離データとする
ことを特徴とする。
The autonomous mobile device according to the second invention that solves the above problems is
In the autonomous mobile device according to the first invention.
The distance data correction unit
The distance data is corrected by using the roll angle and the pitch angle to obtain the corrected distance data.
上記課題を解決する第3の発明に係る自律移動装置は、
上記第2の発明に係る自律移動装置において、
前記距離データ補正部は、
計測角度が等間隔の前記距離データから得られる計測点を、前記ロール角及び前記ピッチ角に基づき前記距離センサの中心点を基準とした水平面へ投影し、該水平面に投影した該計測点の点群を順に結んだ線と、前記距離センサの中心点から前記計測角度毎の方向に伸ばした直線との交点を求め、前記距離センサの中心点から該交点までの距離を算出し、これを前記補正済み距離データとする
ことを特徴とする。
The autonomous mobile device according to the third invention that solves the above problems is
In the autonomous mobile device according to the second invention,
The distance data correction unit
The measurement points obtained from the distance data at equal intervals of measurement angles are projected onto a horizontal plane based on the roll angle and the pitch angle with reference to the center point of the distance sensor, and the points of the measurement points projected onto the horizontal plane. The intersection of the line connecting the groups in order and the straight line extending from the center point of the distance sensor in the direction of each measurement angle is obtained, the distance from the center point of the distance sensor to the intersection is calculated, and this is calculated as described above. The feature is that the corrected distance data is used.
上記課題を解決する第4の発明に係る自律移動装置は、
上記第3の発明に係る自律移動装置において、
前記距離データ補正部は、
前記水平面投影前の前記計測点の前記水平面からの高さが所定範囲外のデータを削除する
ことを特徴とする。
The autonomous mobile device according to the fourth invention that solves the above problems is
In the autonomous mobile device according to the third invention.
The distance data correction unit
It is characterized in that data in which the height of the measurement point from the horizontal plane before the horizontal plane projection is out of a predetermined range is deleted.
本発明に係る自律移動装置によれば、移動体が傾いているとき、及び、移動体の傾きが変動している間にも、地図生成・自己位置姿勢推定を高精度に行うことができる。 According to the autonomous moving device according to the present invention, map generation and self-position / posture estimation can be performed with high accuracy even when the moving body is tilted and while the tilt of the moving body is fluctuating.
以下、本発明に係る自律移動装置を、実施例にて図面を用いて説明する。 Hereinafter, the autonomous mobile device according to the present invention will be described with reference to the drawings in Examples.
[実施例1]
まず、本実施例に係る自律移動装置の構成について、図1を用いて説明する。図1は、該補正システムの構成を説明するブロック図である。
[Example 1]
First, the configuration of the autonomous mobile device according to this embodiment will be described with reference to FIG. FIG. 1 is a block diagram illustrating a configuration of the correction system.
本実施例に係る自律移動装置は、移動経路上にある物体までの距離を計測する距離センサとしてのLRFを搭載した移動体(ロボット車両や自動搬送車(AGV))に設けられるものであり、LRF距離データ取得部11、位置・姿勢変化量計測部12、傾き計測部13、距離データ補正部14、局所地図生成部15、大域地図生成部16、自己位置姿勢推定部17、及び、記憶部18を備える。
The autonomous moving device according to the present embodiment is provided on a moving body (robot vehicle or automatic transport vehicle (AGV)) equipped with an LRF as a distance sensor for measuring the distance to an object on the moving path. LRF distance
LRF距離データ取得部11では、2次元のLRFにより計測した距離データを取得し、記憶部18へ保管する。
The LRF distance
位置・姿勢変化量計測部12では、移動体の駆動部分から、水平面(2次元)上での移動体の移動量及び姿勢変化量を取得し、このデータ(位置・姿勢変化量データ)を記憶部18へ保管する。
The position / posture change
傾き計測部13では、ジャイロセンサ・加速度センサ等の情報から、移動体の3次元での姿勢を計測し、この姿勢の傾き(ロール角及びピッチ角)のデータ(傾きデータ)を記憶部18へ保管する。
The
距離データ補正部14では、傾き計測部13で計測した傾きデータに基づき、LRF距離データ取得部11で取得した距離データを補正し、このデータを「補正済み距離データ」として記憶部18へ保管する。
The distance
局所地図生成部15では、距離データ補正部14で補正した補正済み距離データに基づき、LRFによる現在の計測範囲の局所地図を生成し、記憶部18へ保管する。なお、「局所地図」とは、現在LRFで見えている範囲の2次元の地図であり、移動体が該範囲の障害物などの情報を基に、行きたい方向(行くべき方向)へ進むために用いる地図である。局所地図の具体的な生成手順については、上記特許文献2に記載されたとおりである。
The local
大域地図生成部16では、局所地図生成部15で生成した局所地図、及び、局所地図生成時の自己位置・姿勢データ(移動体の水平面上での自己位置及び自己姿勢のデータを指す。詳細は後述する。)に基づき、大域地図を生成し、記憶部18へ保管する。なお、「大域地図」とは、例えば工場などの施設全体の2次元の地図であり、上記「局所地図」をつなぎ合わせて生成する。移動体は、この「大域地図」上で自分がどこにいるか、そして目的地はどこかを知り、目的地に向かうための経路を決定する。また、大域地図の具体的な生成手順については、上記特許文献2に記載されたとおりである。
The global
なお、スタート時には、水平面上での自己位置・姿勢データを例えば座標(x,y,θ)=(0,0,0)として(あるいは特別な座標を設定しておいても構わない)、大域地図の作成を開始する。 At the start, the self-position / attitude data on the horizontal plane is set to, for example, coordinates (x, y, θ) = (0,0,0) (or special coordinates may be set), and the global range is set. Start creating the map.
自己位置姿勢推定部17では、直前の自己位置・姿勢データに位置・姿勢変化量データを反映して更新したデータを、大域地図生成部16で生成した大域地図と補正済み距離データとをマッチングすることにより補正して、最新の自己位置・姿勢データを生成し、記憶部18へ保管する。自己位置・姿勢データの具体的な生成手順については、上記特許文献2に記載されたとおりである。
In the self-position /
次に、本実施例に係る自律移動装置の「補正済み距離データ」を算出するまでの動作について、図2のフローチャートを用いて説明する。 Next, the operation until the "corrected distance data" of the autonomous mobile device according to this embodiment is calculated will be described with reference to the flowchart of FIG.
本実施例では、「移動体の周辺環境の障害物には、壁などの垂直な(鉛直方向に延伸した)ものが多い」と仮定し、傾き計測部13から取得する傾きデータを用いて、LRF距離データ取得部11で取得した距離データを水平面上に投影して補正する。
In this embodiment, it is assumed that "many obstacles in the surrounding environment of the moving body are vertical (extended in the vertical direction) such as a wall", and the inclination data acquired from the
ステップS1では、LRF距離データ取得部11により、LRFから距離データを取得し、ステップS2では、傾き計測部13により、傾きデータを取得する。また、下記ステップS3〜S10については、「距離データ補正部14」により行われる。
In step S1, the LRF distance
ステップS3では、距離データから得られる計測点を、傾きデータを基に、LRFの中心点を基準とした水平面へ投影する。このステップS3について、以下詳述する。 In step S3, the measurement points obtained from the distance data are projected onto the horizontal plane with the center point of the LRF as a reference based on the inclination data. This step S3 will be described in detail below.
図3は、LRFが傾いた状態で取得した距離データを示す概念図である。計測角度(ψi)が等間隔の距離データから取得できるそれぞれの計測点piは、LRFの中心点を基準とした極座標系でpi(ψi,li)(ただし、正面がψi=0,0≦i≦N)となるとすると、LRFの中心点を基準としたx‐y‐z座標系では(licosψi,lisinψi,0)となる。 FIG. 3 is a conceptual diagram showing the distance data acquired in a state where the LRF is tilted. Each measurement point p i whose measurement angle (ψ i ) can be obtained from distance data at equal intervals is p i (ψ i , l i ) (however, the front is ψ i ) in the polar coordinate system based on the center point of the LRF. = 0,0 ≦ i ≦ N) and the when, in the x-y-z coordinate system relative to the center point of the LRF a (l i cosψ i, l i sinψ i, 0).
移動体がロール角φピッチ角θで傾いた場合、x‐y平面が水平なLRFの中心点を基準とする座標系において、回転後のpiの位置(xi,yi,zi)は、
図4は、LRFが傾いた状態で取得した距離データ(図3)を、水平面上へ投影した状態を示す概念図である。傾いた距離データを水平面に投影した座標は、
p´i(licosθcosψi+lisinθsinφsinψi,licosφsinψi)となる。
なお、水平面からの高さはlicosθsinφsinψi−lisinθcosψiとなる。
以上がステップS3の説明である。
FIG. 4 is a conceptual diagram showing a state in which the distance data (FIG. 3) acquired in a state where the LRF is tilted is projected onto a horizontal plane. The coordinates of the tilted distance data projected onto the horizontal plane are
p'i (l i cosθcosψ i + l i sinθsinφsinψ i, l i cosφsinψ i) a.
The height from the horizontal plane is l i cos θ sin φ sin ψ i − l i sin θ cos ψ i .
The above is the description of step S3.
ステップS4では、上記iを0とする。ステップS5では、iがN未満であればステップS6へ移行し、iがNとなると動作を終了する(下記ステップS10により、下記ステップS6〜S9のサイクルを一順するたびに、iは0,1,2,3,…,Nと上がっていく)。 In step S4, the above i is set to 0. In step S5, if i is less than N, the process proceeds to step S6, and when i becomes N, the operation ends (according to step S10 below, each time the cycles of steps S6 to S9 below are ordered, i becomes 0, 1, 2, 3, ..., N).
ステップS6では、図5の概念図に示すように、水平面に投影した隣り合う計測点間を結び、この線分の内、LRFの中心点から角度ψi方向に伸ばした直線との交わる線分を探索する。 In step S6, as shown in the conceptual diagram of FIG. 5, a line segment connecting adjacent measurement points projected on a horizontal plane and intersecting a straight line extending from the center point of the LRF in the angle ψ i direction within this line segment. To explore.
ステップS7では、上記ステップS6において該当する線分があった場合は、下記ステップS8へ移行し、該当する線分がなかった場合には、ステップS9へ移行する。 In step S7, if there is a corresponding line segment in step S6, the process proceeds to step S8 below, and if there is no corresponding line segment, the process proceeds to step S9.
ステップS8では、図6の概念図に示すように、上記ステップS6における線分と、LRFの中心点から角度ψi方向に伸ばした直線との交点を求め、LRFの中心点から該交点までの距離を算出し、角度ψiの「補正済み距離データ」とし、下記ステップS10へ移行する。 In step S8, as shown in the conceptual diagram of FIG. 6, the intersection of the line segment in step S6 and the straight line extending in the angle ψ i direction from the center point of the LRF is obtained, and from the center point of the LRF to the intersection. The distance is calculated, the "corrected distance data" of the angle ψ i is used , and the process proceeds to step S10 below.
すなわち、上記ステップS6〜S8では、上記ステップS3において水平面に投影した点p´i,とその隣の点p´i+1の、LRFの中心点から見た角度は、回転した歪みにより等間隔ではなくなる。そのため、水平面に投影した距離データの点群を順に結んだ線と、LRFの中心点から角度ψi方向に伸ばした直線との交点を求め、LRFの中心点から該交点までの距離を算出し、「補正済み距離データ」とするというものである。 Equidistant That is, in step S6 to S8, p'point projected on a horizontal plane in the step S3 i, the point p'i + 1 of the next, the angle viewed from the center point of the LRF, due distortion rotated Is no longer. Therefore, the intersection of the line connecting the points of the distance data projected on the horizontal plane in order and the straight line extending from the center point of the LRF in the direction of the angle ψ i is obtained, and the distance from the center point of the LRF to the intersection is calculated. , "Corrected distance data".
ステップS9では、上記ステップS7において該当する線分がなかった場合に、ψi方向の距離データを「−1」とし、ステップS10へ移行する。なお、この「−1」は、距離データがないことを示し、地図生成や自己位置姿勢推定には用いられない(距離データが削除される)。
そして、ステップS10では、上記iの値を1つ繰り上げステップS5へ移行する。
In step S9, when there is no corresponding line segment in step S7, the distance data in the ψ i direction is set to “-1”, and the process proceeds to step S10. Note that this "-1" indicates that there is no distance data, and is not used for map generation or self-position / orientation estimation (distance data is deleted).
Then, in step S10, the value of i is moved up by one to move to step S5.
すなわち、本実施例では、「移動体の周辺環境の障害物には、壁などの垂直な(鉛直方向に延伸した)ものが多い」と仮定し、傾き計測部13から取得する傾きデータのロール角及びピッチ角を用いて、LRF距離データ取得部11で取得した距離データを水平面上に投影して補正する。
That is, in this embodiment, it is assumed that "many obstacles in the surrounding environment of the moving body are vertical (extended in the vertical direction) such as a wall", and the roll of the inclination data acquired from the
より詳しくは、距離データ補正部14において、計測角度が等間隔の距離データから得られる計測点を、移動体のロール角及びピッチ角に基づきLRFの中心点を基準とした水平面へ投影し、該水平面に投影した該計測点の点群を順に結んだ線と、LRFの中心点から計測角度(ψi)毎の方向に伸ばした直線との交点を求め、LRFの中心点から該交点までの距離を算出し、これを「補正済み距離データ」とするものである。
More specifically, the distance
本実施例によれば、移動体の傾きによりLRFの距離データが歪むことによっておこる、地図生成時の精度及び自己位置姿勢推定の精度の劣化を、改善することができるため、移動体が傾いているとき、又は、移動体の傾きが変動している間も、地図生成・自己位置姿勢推定を高精度に行うことができる。 According to this embodiment, the deterioration of the accuracy at the time of map generation and the accuracy of self-position / posture estimation caused by the distortion of the LRF distance data due to the inclination of the moving body can be improved, so that the moving body is tilted. Map generation and self-position / orientation estimation can be performed with high accuracy even when the moving body is tilted or the inclination of the moving body is fluctuating.
[実施例2]
実施例1の場合、移動体の傾きが小さくても距離の遠いところでは、大きく高さの異なる障害物を検出することがある。例えば、LRFの探索方向が下向きになったとき、遠方の道路面を検出する場合がある。
[Example 2]
In the case of the first embodiment, even if the inclination of the moving body is small, obstacles having a large difference in height may be detected at a long distance. For example, when the search direction of the LRF is downward, a distant road surface may be detected.
本実施例では、実施例1と同等の処理を行う際に、LRFの中心点を基準とした水平面へ投影する前の高さ(計測点piの高さzi)を用い、この高さが所定範囲外であれば、距離データとして使用しないようにすることで、余分な検出を削除することができる。 In this embodiment, when performing the same processing as in Example 1, using the height of the front projecting into the horizontal plane relative to the center point of the LRF (height z i of the measurement point p i), the height If is out of the predetermined range, extra detection can be deleted by not using it as distance data.
図7は、本実施例に係る自律移動装置の「補正済み距離データ」を算出するまでの動作を説明するフローチャートである。図7に示すように、実施例1において説明したステップS8を、下記ステップS8´‐1〜S8´‐4に変更する。なお、その他のステップは実施例1と同一のため、以下ではステップS8´‐1〜S8´‐4を中心に説明する。また、これらのステップについては、実施例1同様「距離データ補正部14」によって行われる。
FIG. 7 is a flowchart illustrating the operation until the “corrected distance data” of the autonomous mobile device according to the present embodiment is calculated. As shown in FIG. 7, step S8 described in the first embodiment is changed to the following steps S8'-1 to S8'-4. Since the other steps are the same as those in the first embodiment, steps S8'-1 to S8'-4 will be mainly described below. Further, these steps are performed by the "distance
ステップS8´‐1では、ステップS6(実施例1参照)における線分と、LRFの中心点から角度ψi方向に伸ばした直線との交点を求め、LRFの中心点から該交点までの距離を算出し、これを角度ψiの距離データとし、ステップS10(実施例1参照)へ移行する。 In step S8'-1, the intersection of the line segment in step S6 (see Example 1) and the straight line extending in the angle ψ i direction from the center point of the LRF is obtained, and the distance from the center point of the LRF to the intersection is obtained. It is calculated, and this is used as the distance data of the angle ψ i , and the process proceeds to step S10 (see Example 1).
ステップS8´‐2では、上記ステップS8´‐1で求めた交点の水平面投影前の、水平面からの高さ(計測点piの高さzi)を算出する。 In Step S8 '-2, and calculates the front horizontal projection of the intersection point calculated in step S8'-1, the height from the horizontal plane (height z i of the measurement point p i).
ステップS8´‐3では、上記ステップS8´‐2で求めた高さが、所定範囲内であるか否かを判断する。ここで、図8は、本実施例における計測点と所定範囲の上限値及び下限値との位置関係を説明する模式図であり、図中のAは傾いた移動体を示している。図8(a)に示すように計測点piの高さziが所定範囲内であれば、下記ステップS8´‐4へ、図8(b)に示すように計測点piの高さziが所定範囲外であれば、ステップS9(実施例1参照)へ、それぞれ移行する。 In step S8'-3, it is determined whether or not the height obtained in step S8'-2 is within a predetermined range. Here, FIG. 8 is a schematic diagram for explaining the positional relationship between the measurement points and the upper limit value and the lower limit value in the predetermined range in this embodiment, and A in the figure shows a tilted moving body. Within height z i is a predetermined range of the measurement points p i as shown in FIG. 8 (a), to the following step S8 '-4, the height of the measurement point p i as shown in FIG. 8 (b) If z i is out of the predetermined range, the process proceeds to step S9 (see Example 1).
すなわち、ステップS6(実施例1参照)において線分がないと判断した場合に加え、上記ステップS8´‐3では、上記ステップS8´‐2において算出した高さが所定範囲外である場合にも、距離データを「−1」(ステップS9)として、距離データがないものとし、データを削除する。 That is, in addition to the case where it is determined in step S6 (see Example 1) that there is no line segment, in the above step S8'-3, even when the height calculated in the above step S8'-2 is out of the predetermined range. , The distance data is set to "-1" (step S9), it is assumed that there is no distance data, and the data is deleted.
ステップS8´‐4では、LRFの中心点から上記ステップS8´‐1で求めた(水平面上の)交点までの距離を算出し、これを角度ψiの「補正済み距離データ」とする。 In step S8'-4, the distance from the center point of the LRF to the intersection (on the horizontal plane) obtained in step S8'-1 is calculated, and this is used as the "corrected distance data" of the angle ψ i .
すなわち、本実施例では、実施例1にて説明した処理に加え、移動体が傾いたときの水平面からの高さに所定範囲(上限値及び下限値)を設定することで、計測点の水平面からの高さが所定範囲外である場合のデータを、余分なデータ(例えば道路面の検出など)として、水平面に投影したデータから削除することで、走行可能な路面を障害物として検出することを防ぐことができる。 That is, in this embodiment, in addition to the process described in the first embodiment, by setting a predetermined range (upper limit value and lower limit value) for the height from the horizontal plane when the moving body is tilted, the horizontal plane of the measurement point is set. By deleting the data when the height from the road is out of the predetermined range from the data projected on the horizontal plane as extra data (for example, detection of the road surface), the road surface that can be driven is detected as an obstacle. Can be prevented.
本発明は、LRFを用いて周辺環境を計測しながら動作する移動体において、移動体が傾いた場合のLRFからの距離データを補正する自律移動装置として好適である。 The present invention is suitable as an autonomous moving device that corrects distance data from the LRF when the moving body is tilted in a moving body that operates while measuring the surrounding environment using the LRF.
11 LRF距離データ取得部
12 位置・姿勢変化量計測部
13 傾き計測部
14 距離データ補正部
15 局所地図生成部
16 大域地図生成部
17 自己位置姿勢推定部
18 記憶部
11 LRF distance
Claims (2)
前記距離センサにより計測した距離データを取得する距離データ取得部と、
前記移動体の水平面上での移動量及び姿勢変化量を取得する位置姿勢変化量計測部と、
前記移動体のロール角及びピッチ角を計測する傾き計測部と、
前記ロール角及び前記ピッチ角に基づき前記距離データを補正し、補正済み距離データとする距離データ補正部と、
前記補正済み距離データに基づき、前記距離センサによる現在の計測範囲の局所地図を生成する局所地図生成部と、
前記局所地図、前記移動体の自己位置及び自己姿勢に基づき、大域地図を生成する大域地図生成部と、
直前の前記自己位置及び前記自己姿勢に前記移動量及び前記姿勢変化量を反映して更新したデータを、前記大域地図及び前記補正済み距離データに基づき補正して、最新の前記自己位置及び前記自己姿勢を求める自己位置姿勢推定部とを備え、
前記距離データ補正部は、
前記ロール角及び前記ピッチ角を用いて、前記距離データを補正し、前記補正済み距離データとし、
計測角度が等間隔の前記距離データから得られる計測点を、前記ロール角及び前記ピッチ角に基づき前記距離センサの中心点を基準とした水平面へ投影し、該水平面に投影した該計測点の点群を順に結んだ線と、前記距離センサの中心点から前記計測角度毎の方向に伸ばした直線との交点を求め、前記距離センサの中心点から該交点までの距離を算出し、これを前記補正済み距離データとする
ことを特徴とする自律移動装置。 It is an autonomous moving device installed in a moving body equipped with a distance sensor that measures the distance to an object on the moving path.
A distance data acquisition unit that acquires distance data measured by the distance sensor,
A position / posture change amount measuring unit that acquires the movement amount and the posture change amount of the moving body on the horizontal plane, and
A tilt measuring unit that measures the roll angle and pitch angle of the moving body,
A distance data correction unit that corrects the distance data based on the roll angle and the pitch angle to obtain the corrected distance data,
A local map generator that generates a local map of the current measurement range by the distance sensor based on the corrected distance data,
A global map generator that generates a global map based on the local map, the self-position of the moving body, and the self-posture.
The data updated by reflecting the movement amount and the posture change amount on the self-position and the self-posture immediately before is corrected based on the global map and the corrected distance data, and the latest self-position and the self are corrected. and a self-position and orientation estimation unit for obtaining the position,
The distance data correction unit
Using the roll angle and the pitch angle, the distance data is corrected to obtain the corrected distance data.
The measurement points obtained from the distance data at equal intervals of measurement angles are projected onto a horizontal plane based on the roll angle and the pitch angle with reference to the center point of the distance sensor, and the points of the measurement points projected onto the horizontal plane. The intersection of the line connecting the groups in order and the straight line extending from the center point of the distance sensor in the direction of each measurement angle is obtained, the distance from the center point of the distance sensor to the intersection is calculated, and this is calculated as described above. An autonomous moving device characterized in that it is corrected distance data .
前記水平面投影前の前記計測点の前記水平面からの高さが所定範囲外のデータを削除する
ことを特徴とする請求項1に記載の自律移動装置。
The distance data correction unit
The autonomous moving device according to claim 1 , wherein the data in which the height of the measurement point from the horizontal plane before the horizontal plane projection is out of a predetermined range is deleted.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016134018A JP6801269B2 (en) | 2016-07-06 | 2016-07-06 | Autonomous mobile device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016134018A JP6801269B2 (en) | 2016-07-06 | 2016-07-06 | Autonomous mobile device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018005709A JP2018005709A (en) | 2018-01-11 |
JP6801269B2 true JP6801269B2 (en) | 2020-12-16 |
Family
ID=60949350
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016134018A Active JP6801269B2 (en) | 2016-07-06 | 2016-07-06 | Autonomous mobile device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6801269B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018110774A1 (en) * | 2018-05-04 | 2019-11-07 | Valeo Schalter Und Sensoren Gmbh | Method for determining a roll angle of an optoelectronic sensor by means of sampling points of a sensor image and optoelectronic sensor |
JP6950638B2 (en) | 2018-07-13 | 2021-10-13 | オムロン株式会社 | Manipulator controller, manipulator control method, and manipulator control program |
JP7227849B2 (en) * | 2019-05-20 | 2023-02-22 | 株式会社豊田中央研究所 | Trajectory generator |
JP7294162B2 (en) * | 2020-01-22 | 2023-06-20 | 株式会社豊田自動織機 | driverless forklift |
CN112284387A (en) * | 2020-09-07 | 2021-01-29 | 安克创新科技股份有限公司 | Positioning method for cleaning device, and storage medium |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009258779A (en) * | 2008-04-11 | 2009-11-05 | Toyota Motor Corp | Mobile robot and footprint planning method |
JP5463628B2 (en) * | 2008-06-05 | 2014-04-09 | 日産自動車株式会社 | Position estimation device |
JP5444952B2 (en) * | 2009-08-28 | 2014-03-19 | 富士通株式会社 | Apparatus, method, and program for automatic generation of map by sensor fusion, and movement of moving object using such automatically generated map |
KR20120071738A (en) * | 2010-12-23 | 2012-07-03 | 한국전자통신연구원 | Mobility sensor stabilization apparatus and method for unstructured environment |
KR101415516B1 (en) * | 2012-12-07 | 2014-08-06 | 주식회사 유진로봇 | Method and Apparatus for Estimating Three Dimension of Mobile Robot and Mobile Robot Using the Same |
-
2016
- 2016-07-06 JP JP2016134018A patent/JP6801269B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018005709A (en) | 2018-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6801269B2 (en) | Autonomous mobile device | |
EP3715785B1 (en) | Slam assisted ins | |
Georgiev et al. | Localization methods for a mobile robot in urban environments | |
JP4672190B2 (en) | Video navigation device | |
KR101976241B1 (en) | Map building system and its method based on multi-robot localization | |
US11512975B2 (en) | Method of navigating an unmanned vehicle and system thereof | |
JP2002511614A (en) | Tracking and detection of object position | |
JP5610870B2 (en) | Unmanned traveling vehicle guidance device and unmanned traveling vehicle guidance method | |
JP2015006874A (en) | Systems and methods for autonomous landing using three dimensional evidence grid | |
AU2012260626C1 (en) | Vehicle navigation | |
JP5147129B2 (en) | Autonomous mobile | |
JP2011150473A (en) | Autonomous traveling object | |
KR102115004B1 (en) | Apparatus and method for generating three dimensional map using aerial images | |
CN110325822B (en) | Cradle head pose correction method and cradle head pose correction device | |
KR20220024791A (en) | Method and apparatus for determining the trajectory of a vehicle | |
US20210364296A1 (en) | Positioning method, positioning apparatus, and computer-program product | |
US20190331496A1 (en) | Locating a vehicle | |
JP2020038498A (en) | Apparatus for estimating self-location | |
CN110389369A (en) | Canopy point cloud acquisition methods based on RTK-GPS and mobile two dimensional laser scanning | |
JP2020064011A (en) | Laser scanner calibration method, and transporting machine | |
JP2023164553A (en) | Position estimation device, estimation device, control method, program and storage medium | |
JP2023521700A (en) | Visual cue-based random access LIDAR system and method for location and navigation | |
JP2009295107A (en) | Guidance system and guidance method | |
WO2021112177A1 (en) | Information processing apparatus, control method, program, and storage medium | |
KR102589296B1 (en) | Apparatus and method for generating three dimensional map using aerial images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190524 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190605 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190529 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190628 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200722 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200804 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200911 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201027 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201109 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6801269 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |