JP6801269B2 - Autonomous mobile device - Google Patents

Autonomous mobile device Download PDF

Info

Publication number
JP6801269B2
JP6801269B2 JP2016134018A JP2016134018A JP6801269B2 JP 6801269 B2 JP6801269 B2 JP 6801269B2 JP 2016134018 A JP2016134018 A JP 2016134018A JP 2016134018 A JP2016134018 A JP 2016134018A JP 6801269 B2 JP6801269 B2 JP 6801269B2
Authority
JP
Japan
Prior art keywords
distance data
distance
self
corrected
horizontal plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016134018A
Other languages
Japanese (ja)
Other versions
JP2018005709A (en
Inventor
宍道 洋
洋 宍道
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meidensha Corp
Original Assignee
Meidensha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meidensha Corp filed Critical Meidensha Corp
Priority to JP2016134018A priority Critical patent/JP6801269B2/en
Publication of JP2018005709A publication Critical patent/JP2018005709A/en
Application granted granted Critical
Publication of JP6801269B2 publication Critical patent/JP6801269B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、2次元のレーザレンジファインダ(LRF)を用いて周辺環境を計測しながら動作する移動体(ロボット車両や自動搬送車(AGV))において、移動体が傾いた場合のLRFからの距離データを補正する自律移動装置に関するものである。 The present invention is a moving body (robot vehicle or automatic guided vehicle (AGV)) that operates while measuring the surrounding environment using a two-dimensional laser range finder (LRF), and the distance from the LRF when the moving body is tilted. It relates to an autonomous mobile device that corrects data.

2次元のLRFを用いて周辺環境を計測しながら動作する移動体は、LRFからの距離データを基に2次元の地図生成及び自己位置姿勢推定を行っている(この場合の「位置姿勢」は、2次元なので位置(x,y)と姿勢θ(=水平面上での向き)となる)。しかしながら、LRFからの距離データを基に地図生成・自己位置姿勢推定を行う際、路面状況により移動体の姿勢(この場合の「姿勢」は3次元なのでロール・ピッチ・ヨーそれぞれ(ψ,φ,θ)とする)が傾く(ロールψ及びピッチφが変化する)と、この距離データが歪み、地図生成及び自己位置姿勢推定の精度が低下してしまう。 A moving object that operates while measuring the surrounding environment using a two-dimensional LRF performs two-dimensional map generation and self-position / attitude estimation based on the distance data from the LRF (the "position / attitude" in this case is Since it is two-dimensional, it has a position (x, y) and a posture θ (= orientation on a horizontal plane). However, when map generation and self-position attitude estimation are performed based on the distance data from the LRF, the attitude of the moving object (the "attitude" in this case is three-dimensional, so roll, pitch, and yaw (ψ, φ, respectively) If (θ) is tilted (roll ψ and pitch φ change), this distance data will be distorted, and the accuracy of map generation and self-position attitude estimation will decrease.

特許第5141507号公報Japanese Patent No. 5141507 特願2015‐225493号Japanese Patent Application No. 2015-225493

上記特許文献1では、移動体が傾いているとき、又は、移動体の傾きが変動している間、LRFからの距離データに基づく地図生成・自己位置姿勢推定を一時中断する(自己位置姿勢推定は、駆動系からのオドメトリ情報を用いて行う)ことで、精度低下を抑える技術が開示されている。 In Patent Document 1, the map generation and self-position / posture estimation based on the distance data from the LRF are temporarily suspended when the moving body is tilted or while the moving body is tilted (self-position / posture estimation). Is performed using odometry information from the drive system), which discloses a technique for suppressing a decrease in accuracy.

しかしながら、この技術では、路面において長距離にわたり凹凸が存在する場合など、長い間傾いている状態、又は、その傾きの変動が長く続く場合に、LRFからの距離データに基づく地図生成・自己位置姿勢推定が長時間行われないことになる。これにより、特に地図生成については、生成精度の低下や地図分断の可能性もある。 However, with this technology, when the road surface is tilted for a long time, such as when there are irregularities over a long distance, or when the fluctuation of the tilt continues for a long time, map generation / self-position posture based on the distance data from the LRF Estimates will not be made for a long time. As a result, especially for map generation, there is a possibility that the generation accuracy may decrease and the map may be divided.

本発明は、上述の技術的課題に鑑みて、移動体が傾いているとき、及び、移動体の傾きが変動している間にも、2次元の地図生成及び自己位置姿勢推定を高精度に行うことができる、自律移動装置を提供することを目的とする。 In view of the above-mentioned technical problems, the present invention makes two-dimensional map generation and self-position / orientation estimation highly accurate even when the moving body is tilted and while the tilt of the moving body is fluctuating. It is an object of the present invention to provide an autonomous mobile device that can be performed.

上記課題を解決する第1の発明に係る自律移動装置は、
移動経路上にある物体までの距離を計測する距離センサを搭載した移動体に設けられる自律移動装置であって、
前記距離センサにより計測した距離データを取得する距離データ取得部と、
前記移動体の水平面上での移動量及び姿勢変化量を取得する位置姿勢変化量計測部と、
前記移動体のロール角及びピッチ角を計測する傾き計測部と、
前記ロール角及び前記ピッチ角に基づき前記距離データを補正し、補正済み距離データとする距離データ補正部と、
前記補正済み距離データに基づき、前記距離センサによる現在の計測範囲の局所地図を生成する局所地図生成部と、
前記局所地図、前記移動体の自己位置及び自己姿勢に基づき、大域地図を生成する大域地図生成部と、
直前の前記自己位置及び前記自己姿勢に前記移動量及び前記姿勢変化量を反映して更新したデータを、前記大域地図及び前記補正済み距離データに基づき補正して、最新の前記自己位置及び前記自己姿勢を求める自己位置姿勢推定部とを備える
ことを特徴とする。
The autonomous mobile device according to the first invention that solves the above problems is
It is an autonomous mobile device installed in a moving body equipped with a distance sensor that measures the distance to an object on the moving path.
A distance data acquisition unit that acquires distance data measured by the distance sensor,
A position / posture change amount measuring unit that acquires the movement amount and the posture change amount of the moving body on the horizontal plane, and
A tilt measuring unit that measures the roll angle and pitch angle of the moving body,
A distance data correction unit that corrects the distance data based on the roll angle and the pitch angle to obtain the corrected distance data,
A local map generator that generates a local map of the current measurement range by the distance sensor based on the corrected distance data.
A global map generator that generates a global map based on the local map, the self-position of the moving body, and the self-posture.
The data updated by reflecting the movement amount and the posture change amount on the self-position and the self-posture immediately before is corrected based on the global map and the corrected distance data, and the latest self-position and the self are corrected. It is characterized by having a self-position posture estimation unit that obtains a posture.

上記課題を解決する第2の発明に係る自律移動装置は、
上記第1の発明に係る自律移動装置において、
前記距離データ補正部は、
前記ロール角及び前記ピッチ角を用いて、前記距離データを補正し、前記補正済み距離データとする
ことを特徴とする。
The autonomous mobile device according to the second invention that solves the above problems is
In the autonomous mobile device according to the first invention.
The distance data correction unit
The distance data is corrected by using the roll angle and the pitch angle to obtain the corrected distance data.

上記課題を解決する第3の発明に係る自律移動装置は、
上記第2の発明に係る自律移動装置において、
前記距離データ補正部は、
計測角度が等間隔の前記距離データから得られる計測点を、前記ロール角及び前記ピッチ角に基づき前記距離センサの中心点を基準とした水平面へ投影し、該水平面に投影した該計測点の点群を順に結んだ線と、前記距離センサの中心点から前記計測角度毎の方向に伸ばした直線との交点を求め、前記距離センサの中心点から該交点までの距離を算出し、これを前記補正済み距離データとする
ことを特徴とする。
The autonomous mobile device according to the third invention that solves the above problems is
In the autonomous mobile device according to the second invention,
The distance data correction unit
The measurement points obtained from the distance data at equal intervals of measurement angles are projected onto a horizontal plane based on the roll angle and the pitch angle with reference to the center point of the distance sensor, and the points of the measurement points projected onto the horizontal plane. The intersection of the line connecting the groups in order and the straight line extending from the center point of the distance sensor in the direction of each measurement angle is obtained, the distance from the center point of the distance sensor to the intersection is calculated, and this is calculated as described above. The feature is that the corrected distance data is used.

上記課題を解決する第4の発明に係る自律移動装置は、
上記第3の発明に係る自律移動装置において、
前記距離データ補正部は、
前記水平面投影前の前記計測点の前記水平面からの高さが所定範囲外のデータを削除する
ことを特徴とする。
The autonomous mobile device according to the fourth invention that solves the above problems is
In the autonomous mobile device according to the third invention.
The distance data correction unit
It is characterized in that data in which the height of the measurement point from the horizontal plane before the horizontal plane projection is out of a predetermined range is deleted.

本発明に係る自律移動装置によれば、移動体が傾いているとき、及び、移動体の傾きが変動している間にも、地図生成・自己位置姿勢推定を高精度に行うことができる。 According to the autonomous moving device according to the present invention, map generation and self-position / posture estimation can be performed with high accuracy even when the moving body is tilted and while the tilt of the moving body is fluctuating.

本発明の実施例1に係る自律移動装置の構成を説明するブロック図である。It is a block diagram explaining the structure of the autonomous mobile device which concerns on Example 1 of this invention. 本発明の実施例1に係る自律移動装置の「補正済み距離データ」を算出するまでの動作を説明するフローチャートである。It is a flowchart explaining operation until "corrected distance data" of the autonomous movement device which concerns on Example 1 of this invention is calculated. 本発明の実施例1においてLRFが傾いた状態で取得した距離データを示す概念図である。It is a conceptual diagram which shows the distance data acquired in the state which LRF is tilted in Example 1 of this invention. 本発明の実施例1においてLRFが傾いた状態で取得した距離データを水平面上へ投影した状態を示す概念図である。FIG. 5 is a conceptual diagram showing a state in which distance data acquired in a state where the LRF is tilted in Example 1 of the present invention is projected onto a horizontal plane. 本発明の実施例1において水平面に投影した隣り合う計測点間を結んだ状態を示す概念図である。It is a conceptual diagram which shows the state which connected the adjacent measurement points projected on the horizontal plane in Example 1 of this invention. 本発明の実施例1においてLRFを中心に角度ψiで直線を伸ばし、交点を求める様子を示す概念図である。FIG. 5 is a conceptual diagram showing a state in which a straight line is extended at an angle ψ i about the LRF in the first embodiment of the present invention to obtain an intersection. 本発明の実施例2に係る自律移動装置の「補正済み距離データ」を算出するまでの動作を説明するフローチャートである。It is a flowchart explaining operation until "corrected distance data" of the autonomous movement device which concerns on Example 2 of this invention is calculated. 本発明の実施例2における計測点と所定範囲(上限値及び下限値)との位置関係を説明する模式図である。(a)は計測点が所定範囲内にある状態を示し、(b)は計測点が所定範囲外にある状態を示している。It is a schematic diagram explaining the positional relationship between a measurement point and a predetermined range (upper limit value and lower limit value) in Example 2 of the present invention. (A) indicates a state in which the measurement point is within the predetermined range, and (b) indicates a state in which the measurement point is outside the predetermined range.

以下、本発明に係る自律移動装置を、実施例にて図面を用いて説明する。 Hereinafter, the autonomous mobile device according to the present invention will be described with reference to the drawings in Examples.

[実施例1]
まず、本実施例に係る自律移動装置の構成について、図1を用いて説明する。図1は、該補正システムの構成を説明するブロック図である。
[Example 1]
First, the configuration of the autonomous mobile device according to this embodiment will be described with reference to FIG. FIG. 1 is a block diagram illustrating a configuration of the correction system.

本実施例に係る自律移動装置は、移動経路上にある物体までの距離を計測する距離センサとしてのLRFを搭載した移動体(ロボット車両や自動搬送車(AGV))に設けられるものであり、LRF距離データ取得部11、位置・姿勢変化量計測部12、傾き計測部13、距離データ補正部14、局所地図生成部15、大域地図生成部16、自己位置姿勢推定部17、及び、記憶部18を備える。 The autonomous moving device according to the present embodiment is provided on a moving body (robot vehicle or automatic transport vehicle (AGV)) equipped with an LRF as a distance sensor for measuring the distance to an object on the moving path. LRF distance data acquisition unit 11, position / attitude change amount measurement unit 12, tilt measurement unit 13, distance data correction unit 14, local map generation unit 15, global map generation unit 16, self-position / orientation estimation unit 17, and storage unit 18 is provided.

LRF距離データ取得部11では、2次元のLRFにより計測した距離データを取得し、記憶部18へ保管する。 The LRF distance data acquisition unit 11 acquires the distance data measured by the two-dimensional LRF and stores it in the storage unit 18.

位置・姿勢変化量計測部12では、移動体の駆動部分から、水平面(2次元)上での移動体の移動量及び姿勢変化量を取得し、このデータ(位置・姿勢変化量データ)を記憶部18へ保管する。 The position / posture change amount measuring unit 12 acquires the movement amount and the posture change amount of the moving body on the horizontal plane (two-dimensional) from the driving part of the moving body, and stores this data (position / posture change amount data). Store in part 18.

傾き計測部13では、ジャイロセンサ・加速度センサ等の情報から、移動体の3次元での姿勢を計測し、この姿勢の傾き(ロール角及びピッチ角)のデータ(傾きデータ)を記憶部18へ保管する。 The tilt measuring unit 13 measures the three-dimensional posture of the moving body from the information of the gyro sensor, the acceleration sensor, and the like, and stores the data (tilt data) of the tilt (roll angle and pitch angle) of this posture to the storage unit 18. store.

距離データ補正部14では、傾き計測部13で計測した傾きデータに基づき、LRF距離データ取得部11で取得した距離データを補正し、このデータを「補正済み距離データ」として記憶部18へ保管する。 The distance data correction unit 14 corrects the distance data acquired by the LRF distance data acquisition unit 11 based on the inclination data measured by the inclination measurement unit 13, and stores this data in the storage unit 18 as "corrected distance data". ..

局所地図生成部15では、距離データ補正部14で補正した補正済み距離データに基づき、LRFによる現在の計測範囲の局所地図を生成し、記憶部18へ保管する。なお、「局所地図」とは、現在LRFで見えている範囲の2次元の地図であり、移動体が該範囲の障害物などの情報を基に、行きたい方向(行くべき方向)へ進むために用いる地図である。局所地図の具体的な生成手順については、上記特許文献2に記載されたとおりである。 The local map generation unit 15 generates a local map of the current measurement range by LRF based on the corrected distance data corrected by the distance data correction unit 14, and stores it in the storage unit 18. The "local map" is a two-dimensional map of the range currently visible in the LRF, and the moving body moves in the desired direction (direction to go) based on information such as obstacles in the range. It is a map used for. The specific procedure for generating the local map is as described in Patent Document 2 above.

大域地図生成部16では、局所地図生成部15で生成した局所地図、及び、局所地図生成時の自己位置・姿勢データ(移動体の水平面上での自己位置及び自己姿勢のデータを指す。詳細は後述する。)に基づき、大域地図を生成し、記憶部18へ保管する。なお、「大域地図」とは、例えば工場などの施設全体の2次元の地図であり、上記「局所地図」をつなぎ合わせて生成する。移動体は、この「大域地図」上で自分がどこにいるか、そして目的地はどこかを知り、目的地に向かうための経路を決定する。また、大域地図の具体的な生成手順については、上記特許文献2に記載されたとおりである。 The global map generation unit 16 refers to the local map generated by the local map generation unit 15 and the self-position / posture data (self-position / self-posture data of the moving body on the horizontal plane) at the time of local map generation. A global map is generated based on (described later) and stored in the storage unit 18. The "global map" is, for example, a two-dimensional map of the entire facility such as a factory, and is generated by connecting the above "local maps". The mover knows where he is and where he is on this "global map" and decides the route to his destination. Further, the specific procedure for generating the global map is as described in Patent Document 2 above.

なお、スタート時には、水平面上での自己位置・姿勢データを例えば座標(x,y,θ)=(0,0,0)として(あるいは特別な座標を設定しておいても構わない)、大域地図の作成を開始する。 At the start, the self-position / attitude data on the horizontal plane is set to, for example, coordinates (x, y, θ) = (0,0,0) (or special coordinates may be set), and the global range is set. Start creating the map.

自己位置姿勢推定部17では、直前の自己位置・姿勢データに位置・姿勢変化量データを反映して更新したデータを、大域地図生成部16で生成した大域地図と補正済み距離データとをマッチングすることにより補正して、最新の自己位置・姿勢データを生成し、記憶部18へ保管する。自己位置・姿勢データの具体的な生成手順については、上記特許文献2に記載されたとおりである。 In the self-position / posture estimation unit 17, the data updated by reflecting the position / posture change amount data in the immediately preceding self-position / posture data is matched with the global map generated by the global map generation unit 16 and the corrected distance data. By doing so, the latest self-position / posture data is generated and stored in the storage unit 18. The specific procedure for generating the self-position / posture data is as described in Patent Document 2 above.

次に、本実施例に係る自律移動装置の「補正済み距離データ」を算出するまでの動作について、図2のフローチャートを用いて説明する。 Next, the operation until the "corrected distance data" of the autonomous mobile device according to this embodiment is calculated will be described with reference to the flowchart of FIG.

本実施例では、「移動体の周辺環境の障害物には、壁などの垂直な(鉛直方向に延伸した)ものが多い」と仮定し、傾き計測部13から取得する傾きデータを用いて、LRF距離データ取得部11で取得した距離データを水平面上に投影して補正する。 In this embodiment, it is assumed that "many obstacles in the surrounding environment of the moving body are vertical (extended in the vertical direction) such as a wall", and the inclination data acquired from the inclination measurement unit 13 is used. The distance data acquired by the LRF distance data acquisition unit 11 is projected onto a horizontal plane for correction.

ステップS1では、LRF距離データ取得部11により、LRFから距離データを取得し、ステップS2では、傾き計測部13により、傾きデータを取得する。また、下記ステップS3〜S10については、「距離データ補正部14」により行われる。 In step S1, the LRF distance data acquisition unit 11 acquires the distance data from the LRF, and in step S2, the inclination measurement unit 13 acquires the inclination data. Further, the following steps S3 to S10 are performed by the "distance data correction unit 14".

ステップS3では、距離データから得られる計測点を、傾きデータを基に、LRFの中心点を基準とした水平面へ投影する。このステップS3について、以下詳述する。 In step S3, the measurement points obtained from the distance data are projected onto the horizontal plane with the center point of the LRF as a reference based on the inclination data. This step S3 will be described in detail below.

図3は、LRFが傾いた状態で取得した距離データを示す概念図である。計測角度(ψi)が等間隔の距離データから取得できるそれぞれの計測点piは、LRFの中心点を基準とした極座標系でpi(ψi,li)(ただし、正面がψi=0,0≦i≦N)となるとすると、LRFの中心点を基準としたx‐y‐z座標系では(licosψi,lisinψi,0)となる。 FIG. 3 is a conceptual diagram showing the distance data acquired in a state where the LRF is tilted. Each measurement point p i whose measurement angle (ψ i ) can be obtained from distance data at equal intervals is p ii , l i ) (however, the front is ψ i ) in the polar coordinate system based on the center point of the LRF. = 0,0 ≦ i ≦ N) and the when, in the x-y-z coordinate system relative to the center point of the LRF a (l i cosψ i, l i sinψ i, 0).

移動体がロール角φピッチ角θで傾いた場合、x‐y平面が水平なLRFの中心点を基準とする座標系において、回転後のpiの位置(xi,yi,zi)は、

Figure 0006801269
となる。 If the moving body is inclined in the roll angle φ pitch angle theta, in the coordinate system the x-y plane is based on the center point of the horizontal LRF, the position of the p i after the rotation (x i, y i, z i) Is
Figure 0006801269
Will be.

図4は、LRFが傾いた状態で取得した距離データ(図3)を、水平面上へ投影した状態を示す概念図である。傾いた距離データを水平面に投影した座標は、
p´i(licosθcosψi+lisinθsinφsinψi,licosφsinψi)となる。
なお、水平面からの高さはlicosθsinφsinψi−lisinθcosψiとなる。
以上がステップS3の説明である。
FIG. 4 is a conceptual diagram showing a state in which the distance data (FIG. 3) acquired in a state where the LRF is tilted is projected onto a horizontal plane. The coordinates of the tilted distance data projected onto the horizontal plane are
p'i (l i cosθcosψ i + l i sinθsinφsinψ i, l i cosφsinψ i) a.
The height from the horizontal plane is l i cos θ sin φ sin ψ i − l i sin θ cos ψ i .
The above is the description of step S3.

ステップS4では、上記iを0とする。ステップS5では、iがN未満であればステップS6へ移行し、iがNとなると動作を終了する(下記ステップS10により、下記ステップS6〜S9のサイクルを一順するたびに、iは0,1,2,3,…,Nと上がっていく)。 In step S4, the above i is set to 0. In step S5, if i is less than N, the process proceeds to step S6, and when i becomes N, the operation ends (according to step S10 below, each time the cycles of steps S6 to S9 below are ordered, i becomes 0, 1, 2, 3, ..., N).

ステップS6では、図5の概念図に示すように、水平面に投影した隣り合う計測点間を結び、この線分の内、LRFの中心点から角度ψi方向に伸ばした直線との交わる線分を探索する。 In step S6, as shown in the conceptual diagram of FIG. 5, a line segment connecting adjacent measurement points projected on a horizontal plane and intersecting a straight line extending from the center point of the LRF in the angle ψ i direction within this line segment. To explore.

ステップS7では、上記ステップS6において該当する線分があった場合は、下記ステップS8へ移行し、該当する線分がなかった場合には、ステップS9へ移行する。 In step S7, if there is a corresponding line segment in step S6, the process proceeds to step S8 below, and if there is no corresponding line segment, the process proceeds to step S9.

ステップS8では、図6の概念図に示すように、上記ステップS6における線分と、LRFの中心点から角度ψi方向に伸ばした直線との交点を求め、LRFの中心点から該交点までの距離を算出し、角度ψiの「補正済み距離データ」とし、下記ステップS10へ移行する。 In step S8, as shown in the conceptual diagram of FIG. 6, the intersection of the line segment in step S6 and the straight line extending in the angle ψ i direction from the center point of the LRF is obtained, and from the center point of the LRF to the intersection. The distance is calculated, the "corrected distance data" of the angle ψ i is used , and the process proceeds to step S10 below.

すなわち、上記ステップS6〜S8では、上記ステップS3において水平面に投影した点p´i,とその隣の点p´i+1の、LRFの中心点から見た角度は、回転した歪みにより等間隔ではなくなる。そのため、水平面に投影した距離データの点群を順に結んだ線と、LRFの中心点から角度ψi方向に伸ばした直線との交点を求め、LRFの中心点から該交点までの距離を算出し、「補正済み距離データ」とするというものである。 Equidistant That is, in step S6 to S8, p'point projected on a horizontal plane in the step S3 i, the point p'i + 1 of the next, the angle viewed from the center point of the LRF, due distortion rotated Is no longer. Therefore, the intersection of the line connecting the points of the distance data projected on the horizontal plane in order and the straight line extending from the center point of the LRF in the direction of the angle ψ i is obtained, and the distance from the center point of the LRF to the intersection is calculated. , "Corrected distance data".

ステップS9では、上記ステップS7において該当する線分がなかった場合に、ψi方向の距離データを「−1」とし、ステップS10へ移行する。なお、この「−1」は、距離データがないことを示し、地図生成や自己位置姿勢推定には用いられない(距離データが削除される)。
そして、ステップS10では、上記iの値を1つ繰り上げステップS5へ移行する。
In step S9, when there is no corresponding line segment in step S7, the distance data in the ψ i direction is set to “-1”, and the process proceeds to step S10. Note that this "-1" indicates that there is no distance data, and is not used for map generation or self-position / orientation estimation (distance data is deleted).
Then, in step S10, the value of i is moved up by one to move to step S5.

すなわち、本実施例では、「移動体の周辺環境の障害物には、壁などの垂直な(鉛直方向に延伸した)ものが多い」と仮定し、傾き計測部13から取得する傾きデータのロール角及びピッチ角を用いて、LRF距離データ取得部11で取得した距離データを水平面上に投影して補正する。 That is, in this embodiment, it is assumed that "many obstacles in the surrounding environment of the moving body are vertical (extended in the vertical direction) such as a wall", and the roll of the inclination data acquired from the inclination measurement unit 13 Using the angle and pitch angle, the distance data acquired by the LRF distance data acquisition unit 11 is projected onto a horizontal plane for correction.

より詳しくは、距離データ補正部14において、計測角度が等間隔の距離データから得られる計測点を、移動体のロール角及びピッチ角に基づきLRFの中心点を基準とした水平面へ投影し、該水平面に投影した該計測点の点群を順に結んだ線と、LRFの中心点から計測角度(ψi)毎の方向に伸ばした直線との交点を求め、LRFの中心点から該交点までの距離を算出し、これを「補正済み距離データ」とするものである。 More specifically, the distance data correction unit 14 projects measurement points obtained from distance data having equal measurement angles onto a horizontal plane with reference to the center point of the LRF based on the roll angle and pitch angle of the moving body. Find the intersection of the line connecting the points of the measurement points projected on the horizontal plane in order and the straight line extending from the center point of the LRF in the direction of each measurement angle (ψ i ), and from the center point of the LRF to the intersection. The distance is calculated and used as "corrected distance data".

本実施例によれば、移動体の傾きによりLRFの距離データが歪むことによっておこる、地図生成時の精度及び自己位置姿勢推定の精度の劣化を、改善することができるため、移動体が傾いているとき、又は、移動体の傾きが変動している間も、地図生成・自己位置姿勢推定を高精度に行うことができる。 According to this embodiment, the deterioration of the accuracy at the time of map generation and the accuracy of self-position / posture estimation caused by the distortion of the LRF distance data due to the inclination of the moving body can be improved, so that the moving body is tilted. Map generation and self-position / orientation estimation can be performed with high accuracy even when the moving body is tilted or the inclination of the moving body is fluctuating.

[実施例2]
実施例1の場合、移動体の傾きが小さくても距離の遠いところでは、大きく高さの異なる障害物を検出することがある。例えば、LRFの探索方向が下向きになったとき、遠方の道路面を検出する場合がある。
[Example 2]
In the case of the first embodiment, even if the inclination of the moving body is small, obstacles having a large difference in height may be detected at a long distance. For example, when the search direction of the LRF is downward, a distant road surface may be detected.

本実施例では、実施例1と同等の処理を行う際に、LRFの中心点を基準とした水平面へ投影する前の高さ(計測点piの高さzi)を用い、この高さが所定範囲外であれば、距離データとして使用しないようにすることで、余分な検出を削除することができる。 In this embodiment, when performing the same processing as in Example 1, using the height of the front projecting into the horizontal plane relative to the center point of the LRF (height z i of the measurement point p i), the height If is out of the predetermined range, extra detection can be deleted by not using it as distance data.

図7は、本実施例に係る自律移動装置の「補正済み距離データ」を算出するまでの動作を説明するフローチャートである。図7に示すように、実施例1において説明したステップS8を、下記ステップS8´‐1〜S8´‐4に変更する。なお、その他のステップは実施例1と同一のため、以下ではステップS8´‐1〜S8´‐4を中心に説明する。また、これらのステップについては、実施例1同様「距離データ補正部14」によって行われる。 FIG. 7 is a flowchart illustrating the operation until the “corrected distance data” of the autonomous mobile device according to the present embodiment is calculated. As shown in FIG. 7, step S8 described in the first embodiment is changed to the following steps S8'-1 to S8'-4. Since the other steps are the same as those in the first embodiment, steps S8'-1 to S8'-4 will be mainly described below. Further, these steps are performed by the "distance data correction unit 14" as in the first embodiment.

ステップS8´‐1では、ステップS6(実施例1参照)における線分と、LRFの中心点から角度ψi方向に伸ばした直線との交点を求め、LRFの中心点から該交点までの距離を算出し、これを角度ψiの距離データとし、ステップS10(実施例1参照)へ移行する。 In step S8'-1, the intersection of the line segment in step S6 (see Example 1) and the straight line extending in the angle ψ i direction from the center point of the LRF is obtained, and the distance from the center point of the LRF to the intersection is obtained. It is calculated, and this is used as the distance data of the angle ψ i , and the process proceeds to step S10 (see Example 1).

ステップS8´‐2では、上記ステップS8´‐1で求めた交点の水平面投影前の、水平面からの高さ(計測点piの高さzi)を算出する。 In Step S8 '-2, and calculates the front horizontal projection of the intersection point calculated in step S8'-1, the height from the horizontal plane (height z i of the measurement point p i).

ステップS8´‐3では、上記ステップS8´‐2で求めた高さが、所定範囲内であるか否かを判断する。ここで、図8は、本実施例における計測点と所定範囲の上限値及び下限値との位置関係を説明する模式図であり、図中のAは傾いた移動体を示している。図8(a)に示すように計測点piの高さziが所定範囲内であれば、下記ステップS8´‐4へ、図8(b)に示すように計測点piの高さziが所定範囲外であれば、ステップS9(実施例1参照)へ、それぞれ移行する。 In step S8'-3, it is determined whether or not the height obtained in step S8'-2 is within a predetermined range. Here, FIG. 8 is a schematic diagram for explaining the positional relationship between the measurement points and the upper limit value and the lower limit value in the predetermined range in this embodiment, and A in the figure shows a tilted moving body. Within height z i is a predetermined range of the measurement points p i as shown in FIG. 8 (a), to the following step S8 '-4, the height of the measurement point p i as shown in FIG. 8 (b) If z i is out of the predetermined range, the process proceeds to step S9 (see Example 1).

すなわち、ステップS6(実施例1参照)において線分がないと判断した場合に加え、上記ステップS8´‐3では、上記ステップS8´‐2において算出した高さが所定範囲外である場合にも、距離データを「−1」(ステップS9)として、距離データがないものとし、データを削除する。 That is, in addition to the case where it is determined in step S6 (see Example 1) that there is no line segment, in the above step S8'-3, even when the height calculated in the above step S8'-2 is out of the predetermined range. , The distance data is set to "-1" (step S9), it is assumed that there is no distance data, and the data is deleted.

ステップS8´‐4では、LRFの中心点から上記ステップS8´‐1で求めた(水平面上の)交点までの距離を算出し、これを角度ψiの「補正済み距離データ」とする。 In step S8'-4, the distance from the center point of the LRF to the intersection (on the horizontal plane) obtained in step S8'-1 is calculated, and this is used as the "corrected distance data" of the angle ψ i .

すなわち、本実施例では、実施例1にて説明した処理に加え、移動体が傾いたときの水平面からの高さに所定範囲(上限値及び下限値)を設定することで、計測点の水平面からの高さが所定範囲外である場合のデータを、余分なデータ(例えば道路面の検出など)として、水平面に投影したデータから削除することで、走行可能な路面を障害物として検出することを防ぐことができる。 That is, in this embodiment, in addition to the process described in the first embodiment, by setting a predetermined range (upper limit value and lower limit value) for the height from the horizontal plane when the moving body is tilted, the horizontal plane of the measurement point is set. By deleting the data when the height from the road is out of the predetermined range from the data projected on the horizontal plane as extra data (for example, detection of the road surface), the road surface that can be driven is detected as an obstacle. Can be prevented.

本発明は、LRFを用いて周辺環境を計測しながら動作する移動体において、移動体が傾いた場合のLRFからの距離データを補正する自律移動装置として好適である。 The present invention is suitable as an autonomous moving device that corrects distance data from the LRF when the moving body is tilted in a moving body that operates while measuring the surrounding environment using the LRF.

11 LRF距離データ取得部
12 位置・姿勢変化量計測部
13 傾き計測部
14 距離データ補正部
15 局所地図生成部
16 大域地図生成部
17 自己位置姿勢推定部
18 記憶部
11 LRF distance data acquisition unit 12 Position / posture change amount measurement unit 13 Tilt measurement unit 14 Distance data correction unit 15 Local map generation unit 16 Global map generation unit 17 Self-position / posture estimation unit 18 Storage unit

Claims (2)

移動経路上にある物体までの距離を計測する距離センサを搭載した移動体に設けられる自律移動装置であって、
前記距離センサにより計測した距離データを取得する距離データ取得部と、
前記移動体の水平面上での移動量及び姿勢変化量を取得する位置姿勢変化量計測部と、
前記移動体のロール角及びピッチ角を計測する傾き計測部と、
前記ロール角及び前記ピッチ角に基づき前記距離データを補正し、補正済み距離データとする距離データ補正部と、
前記補正済み距離データに基づき、前記距離センサによる現在の計測範囲の局所地図を生成する局所地図生成部と、
前記局所地図、前記移動体の自己位置及び自己姿勢に基づき、大域地図を生成する大域地図生成部と、
直前の前記自己位置及び前記自己姿勢に前記移動量及び前記姿勢変化量を反映して更新したデータを、前記大域地図及び前記補正済み距離データに基づき補正して、最新の前記自己位置及び前記自己姿勢を求める自己位置姿勢推定部とを備え
前記距離データ補正部は、
前記ロール角及び前記ピッチ角を用いて、前記距離データを補正し、前記補正済み距離データとし、
計測角度が等間隔の前記距離データから得られる計測点を、前記ロール角及び前記ピッチ角に基づき前記距離センサの中心点を基準とした水平面へ投影し、該水平面に投影した該計測点の点群を順に結んだ線と、前記距離センサの中心点から前記計測角度毎の方向に伸ばした直線との交点を求め、前記距離センサの中心点から該交点までの距離を算出し、これを前記補正済み距離データとする
ことを特徴とする自律移動装置。
It is an autonomous moving device installed in a moving body equipped with a distance sensor that measures the distance to an object on the moving path.
A distance data acquisition unit that acquires distance data measured by the distance sensor,
A position / posture change amount measuring unit that acquires the movement amount and the posture change amount of the moving body on the horizontal plane, and
A tilt measuring unit that measures the roll angle and pitch angle of the moving body,
A distance data correction unit that corrects the distance data based on the roll angle and the pitch angle to obtain the corrected distance data,
A local map generator that generates a local map of the current measurement range by the distance sensor based on the corrected distance data,
A global map generator that generates a global map based on the local map, the self-position of the moving body, and the self-posture.
The data updated by reflecting the movement amount and the posture change amount on the self-position and the self-posture immediately before is corrected based on the global map and the corrected distance data, and the latest self-position and the self are corrected. and a self-position and orientation estimation unit for obtaining the position,
The distance data correction unit
Using the roll angle and the pitch angle, the distance data is corrected to obtain the corrected distance data.
The measurement points obtained from the distance data at equal intervals of measurement angles are projected onto a horizontal plane based on the roll angle and the pitch angle with reference to the center point of the distance sensor, and the points of the measurement points projected onto the horizontal plane. The intersection of the line connecting the groups in order and the straight line extending from the center point of the distance sensor in the direction of each measurement angle is obtained, the distance from the center point of the distance sensor to the intersection is calculated, and this is calculated as described above. An autonomous moving device characterized in that it is corrected distance data .
前記距離データ補正部は、
前記水平面投影前の前記計測点の前記水平面からの高さが所定範囲外のデータを削除する
ことを特徴とする請求項に記載の自律移動装置。
The distance data correction unit
The autonomous moving device according to claim 1 , wherein the data in which the height of the measurement point from the horizontal plane before the horizontal plane projection is out of a predetermined range is deleted.
JP2016134018A 2016-07-06 2016-07-06 Autonomous mobile device Active JP6801269B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016134018A JP6801269B2 (en) 2016-07-06 2016-07-06 Autonomous mobile device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016134018A JP6801269B2 (en) 2016-07-06 2016-07-06 Autonomous mobile device

Publications (2)

Publication Number Publication Date
JP2018005709A JP2018005709A (en) 2018-01-11
JP6801269B2 true JP6801269B2 (en) 2020-12-16

Family

ID=60949350

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016134018A Active JP6801269B2 (en) 2016-07-06 2016-07-06 Autonomous mobile device

Country Status (1)

Country Link
JP (1) JP6801269B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018110774A1 (en) * 2018-05-04 2019-11-07 Valeo Schalter Und Sensoren Gmbh Method for determining a roll angle of an optoelectronic sensor by means of sampling points of a sensor image and optoelectronic sensor
JP6950638B2 (en) 2018-07-13 2021-10-13 オムロン株式会社 Manipulator controller, manipulator control method, and manipulator control program
JP7227849B2 (en) * 2019-05-20 2023-02-22 株式会社豊田中央研究所 Trajectory generator
JP7294162B2 (en) * 2020-01-22 2023-06-20 株式会社豊田自動織機 driverless forklift
CN112284387A (en) * 2020-09-07 2021-01-29 安克创新科技股份有限公司 Positioning method for cleaning device, and storage medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009258779A (en) * 2008-04-11 2009-11-05 Toyota Motor Corp Mobile robot and footprint planning method
JP5463628B2 (en) * 2008-06-05 2014-04-09 日産自動車株式会社 Position estimation device
JP5444952B2 (en) * 2009-08-28 2014-03-19 富士通株式会社 Apparatus, method, and program for automatic generation of map by sensor fusion, and movement of moving object using such automatically generated map
KR20120071738A (en) * 2010-12-23 2012-07-03 한국전자통신연구원 Mobility sensor stabilization apparatus and method for unstructured environment
KR101415516B1 (en) * 2012-12-07 2014-08-06 주식회사 유진로봇 Method and Apparatus for Estimating Three Dimension of Mobile Robot and Mobile Robot Using the Same

Also Published As

Publication number Publication date
JP2018005709A (en) 2018-01-11

Similar Documents

Publication Publication Date Title
JP6801269B2 (en) Autonomous mobile device
EP3715785B1 (en) Slam assisted ins
Georgiev et al. Localization methods for a mobile robot in urban environments
JP4672190B2 (en) Video navigation device
KR101976241B1 (en) Map building system and its method based on multi-robot localization
US11512975B2 (en) Method of navigating an unmanned vehicle and system thereof
JP2002511614A (en) Tracking and detection of object position
JP5610870B2 (en) Unmanned traveling vehicle guidance device and unmanned traveling vehicle guidance method
JP2015006874A (en) Systems and methods for autonomous landing using three dimensional evidence grid
AU2012260626C1 (en) Vehicle navigation
JP5147129B2 (en) Autonomous mobile
JP2011150473A (en) Autonomous traveling object
KR102115004B1 (en) Apparatus and method for generating three dimensional map using aerial images
CN110325822B (en) Cradle head pose correction method and cradle head pose correction device
KR20220024791A (en) Method and apparatus for determining the trajectory of a vehicle
US20210364296A1 (en) Positioning method, positioning apparatus, and computer-program product
US20190331496A1 (en) Locating a vehicle
JP2020038498A (en) Apparatus for estimating self-location
CN110389369A (en) Canopy point cloud acquisition methods based on RTK-GPS and mobile two dimensional laser scanning
JP2020064011A (en) Laser scanner calibration method, and transporting machine
JP2023164553A (en) Position estimation device, estimation device, control method, program and storage medium
JP2023521700A (en) Visual cue-based random access LIDAR system and method for location and navigation
JP2009295107A (en) Guidance system and guidance method
WO2021112177A1 (en) Information processing apparatus, control method, program, and storage medium
KR102589296B1 (en) Apparatus and method for generating three dimensional map using aerial images

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190524

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190605

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190529

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201109

R150 Certificate of patent or registration of utility model

Ref document number: 6801269

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150