JP5909486B2 - Self-position / posture estimation system - Google Patents

Self-position / posture estimation system Download PDF

Info

Publication number
JP5909486B2
JP5909486B2 JP2013522770A JP2013522770A JP5909486B2 JP 5909486 B2 JP5909486 B2 JP 5909486B2 JP 2013522770 A JP2013522770 A JP 2013522770A JP 2013522770 A JP2013522770 A JP 2013522770A JP 5909486 B2 JP5909486 B2 JP 5909486B2
Authority
JP
Japan
Prior art keywords
orientation
orientation estimation
mobile robot
estimation
evaluation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013522770A
Other languages
Japanese (ja)
Other versions
JPWO2013002067A1 (en
Inventor
修一 槙
修一 槙
高斉 松本
高斉 松本
正木 良三
良三 正木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Industrial Equipment Systems Co Ltd
Original Assignee
Hitachi Industrial Equipment Systems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Industrial Equipment Systems Co Ltd filed Critical Hitachi Industrial Equipment Systems Co Ltd
Priority to JP2013522770A priority Critical patent/JP5909486B2/en
Publication of JPWO2013002067A1 publication Critical patent/JPWO2013002067A1/en
Application granted granted Critical
Publication of JP5909486B2 publication Critical patent/JP5909486B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels

Description

発明は、移動体に搭載され、自己位置姿勢を推定する機能を有する自己位置姿勢
推定システムに関する。
The present invention relates to a self-position / posture estimation system mounted on a moving body and having a function of estimating a self-position / posture.

所定の領域内で自律移動ロボットを物品の搬送などの作業を行う作業システムを組み込んだ自律移動ロボットシステムがある。
このようなシステムにおいて、自律移動ロボットは、自律移動に不可欠な位置姿勢の推定が正常に行われているか否かの判定機能の実現が非常に重要になっている。位置姿勢推定が正常に動作していないと直ちにこれを検出し、動作モードを通常走行から速度制限や緊急停止などのモードに切り換え、トラブルに対処することができる。
また、不安全状況を引き起こす危険を未然に防止し、危険な場所を回避しながら目的地に移動する自律移動ロボットに関することが特許文献1(特開2005−242409号公報)に開示されている。
There is an autonomous mobile robot system that incorporates a work system that performs operations such as conveying an article with an autonomous mobile robot within a predetermined area.
In such a system, it is very important for an autonomous mobile robot to realize a function for determining whether or not a position and orientation indispensable for autonomous movement is normally estimated. If the position / orientation estimation is not operating normally, this can be detected immediately, and the operation mode can be switched from normal running to a mode such as speed limit or emergency stop to deal with troubles.
Further, Patent Document 1 (Japanese Patent Laid-Open No. 2005-242409) discloses an autonomous mobile robot that moves to a destination while preventing a danger that causes an unsafe situation and avoiding a dangerous place.

また、特許文献2(特開2011−43405号公報)には、自己位置推定を高精度に行うために、検出領域内の物体との距離情報を検出する距離センサを備え、距離センサにより検出された物体との距離情報に基づいて、自己位置を推定することが開示されている。また、特許文献3(特開2011−65308号公報)には、測定装置の測定データに基づいて自己位置を推定しながら自律移動する装置について開示されている。   Patent Document 2 (Japanese Patent Application Laid-Open No. 2011-43405) includes a distance sensor that detects distance information with respect to an object in a detection region in order to perform self-position estimation with high accuracy, and is detected by the distance sensor. It is disclosed that the self-position is estimated based on the distance information with respect to the object. Japanese Patent Application Laid-Open No. 2011-65308 discloses a device that autonomously moves while estimating its own position based on measurement data of the measurement device.

特開2005−242409号公報JP 2005-242409 A 特開2011−43405号公報JP 2011-43405 A 特開2011−65308号公報JP 2011-65308 A

特許文献1には、移動環境に設けられた標識、例えば、マークやパターン、超音波発生器、レーザ発光装置などを用い、検出手段として、それぞれの標識に対応したCCD又はCMOSセンサなどの画像センサ、超音波受信器、レーザ光受光素子があり、これらの検出結果により位置方向を示し、自己位置推定の誤りを検知でき、危険回避を行うことができると記載してある。しかし、この方式は、標識の設置や登録等の作業コストが大きくなるなどの課題がある。   In Patent Document 1, a sign provided in a moving environment, for example, a mark or pattern, an ultrasonic generator, a laser light emitting device, or the like is used, and an image sensor such as a CCD or CMOS sensor corresponding to each sign is used as a detection means. , There are ultrasonic receivers and laser light receiving elements, the position direction is indicated by the detection results, an error in self-position estimation can be detected, and danger avoidance is described. However, this method has problems such as increased work costs such as installation and registration of signs.

また、特許文献2は、位置姿勢推定評価値として、一致度を用いる手法が提案されているが、長い廊下など同じ風景が連続する場合に正しく評価することができない。さらに、特許文献3は、誤差分散地図を用いて、位置姿勢推定の信頼度を評価しながら運用する手法が提案されているが、ランドマークに対するセンサの特性が既知であることを前提としており、未知の環境で安全なシステムを構築することが難しい。   Further, Patent Document 2 proposes a method that uses the degree of coincidence as a position / orientation estimation evaluation value, but it cannot be correctly evaluated when the same scenery such as a long corridor continues. Furthermore, Patent Document 3 proposes a method of operating while evaluating the reliability of position and orientation estimation using an error variance map, but assumes that the characteristics of the sensor with respect to the landmark are known, It is difficult to build a safe system in an unknown environment.

本発明は、上記課題を解消するため、移動ロボットにおいて、パーティクルフィルタを用いて位置姿勢推定を行い、その位置姿勢推定の状態を判定する量としてパーティクルの分散により位置姿勢推定の閾値を求め、移動ロボットの減速、停止を行うことを目的とする。
また、本発明は、上記課題を解消するため、移動ロボットなどの移動体に搭載される自己位置姿勢推定システムにおいて、パーティクルフィルタを用いて位置姿勢推定を行い、その位置姿勢推定の状態を判定する量としてパーティクルの分散により位置姿勢推定の閾値を求め、位置姿勢推定が正常に動作していない場合に、位置姿勢推定が正常に動作していないことを示す情報、信号を出力可能とすることを目的とする。
In order to solve the above problems, the present invention performs position and orientation estimation using a particle filter in a mobile robot, obtains a position and orientation estimation threshold based on particle dispersion as an amount for determining the position and orientation estimation state, and moves The purpose is to decelerate and stop the robot.
In order to solve the above problems, the present invention performs position and orientation estimation using a particle filter in a self-position and orientation estimation system mounted on a moving body such as a mobile robot, and determines the position and orientation estimation state. The position and orientation estimation threshold value is obtained as a quantity based on particle dispersion, and when the position and orientation estimation is not operating normally, information and signals indicating that the position and orientation estimation is not operating normally can be output. Objective.

本発明は、上記課題を解決するため、移動体に搭載され、移動体の位置姿勢推定を行う
自己位置姿勢推定システムを、移動体に設けられた距離センサからの計測データと地図デ
ータを照合することで移動体の位置と姿勢を推定する位置姿勢推定部と、位置姿勢推定部
の位置姿勢推定結果の信頼度の評価値を算出する位置姿勢推定評価値算出部と、を備え、
位置姿勢推定評価値算出部は、距離センサからの計測データと地図データの一致度及び位
置姿勢推定結果の分散を算出することにより位置姿勢推定部の位置姿勢推定結果の信頼度の評価値を算出するようにした。
In order to solve the above-described problems, the present invention is a self-position / posture estimation system that is mounted on a mobile body and estimates the position / posture of the mobile body, and compares measurement data from a distance sensor provided on the mobile body with map data. A position and orientation estimation unit that estimates the position and orientation of the moving body, and a position and orientation estimation evaluation value calculation unit that calculates an evaluation value of the reliability of the position and orientation estimation result of the position and orientation estimation unit,
The position and orientation estimation evaluation value calculation unit calculates the evaluation value of the reliability of the position and orientation estimation result of the position and orientation estimation unit by calculating the degree of coincidence between the measurement data from the distance sensor and the map data and the variance of the position and orientation estimation result I tried to do it.

本発明によれば、移動ロボットの位置姿勢推定が正常に行われているか否かを判定し、正常でない場合はロボットを減速させたりあるいは緊急停止させたりできるため、衝突事故を未然に防ぐことができる。
また、本発明によれば、移動体の位置姿勢推定が正常に行なわれているか否かを判定し、正常でない場合は、正常に行なわれていないことを示す情報、または信号を移動体に出力することを可能とする。
According to the present invention, it is determined whether or not the position / orientation estimation of the mobile robot is performed normally. If the position / orientation estimation is not normal, the robot can be decelerated or stopped urgently. it can.
Further, according to the present invention, it is determined whether or not the position / orientation estimation of the moving body is performed normally. If not, information or a signal indicating that the position / orientation estimation is not performed normally is output to the moving body. It is possible to do.

本発明の自律移動ロボットのシステムブロック図を示す。The system block diagram of the autonomous mobile robot of this invention is shown. 障害物のある地図と移動ロボットの経路及び計測状態を示す。The map with obstacles and the route and measurement status of the mobile robot are shown. 移動ロボットの走行時の計測状態を示す。The measurement state when the mobile robot is traveling is shown. 移動ロボットの走行時の計測状態を示す。The measurement state when the mobile robot is traveling is shown. パーティクルフィルタを説明する図を示す。The figure explaining a particle filter is shown. 移動ロボットの動作モード判定部の内容を説明する図を示す。The figure explaining the content of the operation mode determination part of a mobile robot is shown. 移動ロボットの動作モード判定部の内容を説明する図を示す。The figure explaining the content of the operation mode determination part of a mobile robot is shown. 障害物が動いた場合の移動ロボットの動作モード判定部の内容を説明する図を示す。The figure explaining the content of the operation mode determination part of a mobile robot when an obstruction moves is shown. 位置姿勢推定評価値に基づく減速又は停止の処理フローチャートを示す。The processing flowchart of the deceleration or stop based on a position and orientation estimation evaluation value is shown. 環境変化があった場合の地図変更を行うフローチャートを示す。The flowchart which performs map change when there exists environmental change is shown. 移動ロボットの走行経路を示す図である。It is a figure which shows the driving | running route of a mobile robot. 移動ロボットの試行時に位置姿勢推定評価値の閾値を決めるフローチャートを示す。7 is a flowchart for determining a threshold value of a position / orientation estimation evaluation value when a mobile robot is tried. 本発明の自律移動ロボットにおけるオドメトリなしの場合のシステムブロック図を示す。The system block diagram in the case of no odometry in the autonomous mobile robot of this invention is shown.

以下、本発明の実施の形態を図面を用いて説明する。
以下の明細書では、移動ロボット、及び移動体に搭載される自己位置姿勢推定システムについて説明している。ここで、前記「自己位置姿勢推定」を示す名称について、以下に確認的に説明をする。
「自己位置姿勢推定」は、移動ロボットもしくは自己位置姿勢推定システムが搭載されている移動体の自己の位置(x、y)と姿勢θを推定することを意味し、位置のみ、姿勢のみしか推定を行わない場合も含む。
学会等では、多くの場合、「姿勢」を省略し、単に「自己位置推定」と表記されており、この名称も、以下の明細書にて説明している「自己位置姿勢推定」と同義である。
なお、英語での名称についても、以下に説明する。
英語の名称としては、”position and orientation estimation”と訳される。
”position”は位置(x、y)、”orientation”は姿勢θに相当する。
学会等では、”orientation”を省略し、単に”position estimation”と表記されることがあり、”position and orientation estimation”と同義であり、以下の明細書にて説明されている。
同様に”pose estimation”、”position and posture estimation”、”configuration estimation”、との名称としても同義であり、以下の明細書にて説明がされているものである。
なお、以下の実施の形態の説明では、移動体として、移動ロボットを例にして説明する。
また、移動体に搭載される自己位置姿勢推定システムは、前記移動ロボットに搭載されている位置姿勢推定部を含み構成されるシステムにて説明するものとする。
(実施例1)
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
In the following specification, a mobile robot and a self-position / posture estimation system mounted on a mobile body are described. Here, the name indicating the “self-position / posture estimation” will be described as follows.
“Self-position / posture estimation” means to estimate the position (x, y) and posture θ of a mobile robot or a mobile object equipped with a self-position / posture estimation system. Including the case where no.
In academic societies, in many cases, “posture” is omitted, and simply “self-position estimation” is written, and this name is also synonymous with “self-position / posture estimation” described in the following specification. is there.
The name in English will also be described below.
The English name is translated as “position and orientation estimation”.
“Position” corresponds to the position (x, y), and “orientation” corresponds to the posture θ.
In academic societies and the like, “orientation” may be omitted and simply referred to as “position estimation”, which is synonymous with “position and orientation estimation” and is described in the following specification.
Similarly, the names “pose estimation”, “position and posture estimation”, and “configuration estimation” are synonymous and are described in the following specification.
In the following description of the embodiments, a mobile robot will be described as an example of the mobile body.
The self-position / posture estimation system mounted on the mobile body will be described as a system including a position / posture estimation unit mounted on the mobile robot.
(Example 1)

図1は、本発明の実施例の自律移動ロボットのシステムブロック図である。
図1において、1は自律移動ロボット、9は位置姿勢推定部、2は位置姿勢推定部の結果を評価するための位置姿勢推定評価値計算部、3は動作モードを判定する動作モード判定部、5は距離を計測するレーザ距離センサ、6は、障害物の特徴を記載した地図を記憶した地図記憶部、7は移動ロボットの位置姿勢を制御する位置姿勢制御部で、8a、8bは車輪の回転数を計測するエンコーダである。また、50は地図と地図上におけるロボットの位置姿勢とレーザ距離センサの計測データなどを表示する画像表示器である。
FIG. 1 is a system block diagram of an autonomous mobile robot according to an embodiment of the present invention.
In FIG. 1, 1 is an autonomous mobile robot, 9 is a position and orientation estimation unit, 2 is a position and orientation estimation evaluation value calculation unit for evaluating the result of the position and orientation estimation unit, 3 is an operation mode determination unit that determines an operation mode, 5 is a laser distance sensor that measures distance, 6 is a map storage unit that stores a map that describes the characteristics of an obstacle, 7 is a position and orientation control unit that controls the position and orientation of the mobile robot, and 8a and 8b are wheel positions. It is an encoder that measures the number of rotations. Reference numeral 50 denotes an image display for displaying a map, the position and orientation of the robot on the map, the measurement data of the laser distance sensor, and the like.

自律移動ロボット1は、障害物との距離dを計測するためのレーザ距離センサ5と、地図記憶部6に記憶した障害物の特徴を記載した地図と、車輪の回転数を計算するエンコーダ8a、8bを備え、距離d22と地図6と回転数をもとにロボット1の位置姿勢を推定する位置姿勢推定部9と、位置姿勢推定結果を評価するための評価値計算部2と計算された評価値をもとに動作モードを判定する動作モード判定部3と動作モードと位置姿勢推定結果をもとに移動ロボット1の位置姿勢を制御する位置姿勢制御部7から構成される。
ここで、基準となる座標系(世界座標系)に対する移動ロボット1の位置を(x,y)、x軸を基準とした移動ロボット1の姿勢をθとし、まとめて(x,y,θ)で表すことにする。
The autonomous mobile robot 1 includes a laser distance sensor 5 for measuring the distance d to the obstacle, a map describing the characteristics of the obstacle stored in the map storage unit 6, an encoder 8a for calculating the number of rotations of the wheels, 8b, a position / orientation estimation unit 9 for estimating the position / orientation of the robot 1 based on the distance d22, the map 6, and the number of rotations; an evaluation value calculation unit 2 for evaluating the position / orientation estimation result; The operation mode determination unit 3 determines the operation mode based on the value, and the position / orientation control unit 7 controls the position / orientation of the mobile robot 1 based on the operation mode and the position / orientation estimation result.
Here, the position of the mobile robot 1 with respect to the reference coordinate system (world coordinate system) is (x, y), the posture of the mobile robot 1 with respect to the x-axis is θ, and collectively (x, y, θ). It will be expressed as

次に、図3を用いて本実施例で使用されているレーザ距離センサ5について説明する。
図3において、1は移動ロボット、61は壁、14は障害物である作業台、22は移動ロボットのレーザ距離センサ5から障害物までの距離データ、23は移動後のロボットで、24はその移動量uを表している。
移動ロボット1に搭載したレーザ距離センサ5は、±W(deg)の範囲を分解能Δθで、移動ロボット1の周囲にある物体との距離を計測する(例えばW=90、θ=0.5)。この計測データを距離データd22と呼ぶ。このデータは、移動ロボット1の周囲にある計測物の形状を計測していることになる。そして、この距離データd22と地図の情報を照合することで、移動ロボット1の位置姿勢を推定することができる。
Next, the laser distance sensor 5 used in this embodiment will be described with reference to FIG.
In FIG. 3, 1 is a mobile robot, 61 is a wall, 14 is a work table which is an obstacle, 22 is distance data from the laser distance sensor 5 of the mobile robot to the obstacle, 23 is a robot after movement, 24 is its This represents the movement amount u.
The laser distance sensor 5 mounted on the mobile robot 1 measures a distance from an object around the mobile robot 1 with a resolution Δθ in a range of ± W (deg) (for example, W = 90, θ = 0.5). . This measurement data is called distance data d22. This data measures the shape of the measurement object around the mobile robot 1. The position and orientation of the mobile robot 1 can be estimated by collating the distance data d22 with the map information.

次に、図2乃至図5を用いて位置姿勢推定部9に実装されているパーティクルフィルタの説明を行う。
図2において、10は移動ロボットが走行する領域を表す地図で、11,12,13,14及び16は障害物を表している。17,18は、搬送用荷物の積み下ろし場所で、32,33は作業員を示している。
また、図2に示す地図で、積み下ろし場所17、18間の経路は、下側の通路と右側の通路の経路19、障害物11,13と障害物12,14の間の通路の経路20、及び左側の通路から上側の通路の通る経路21を示している。
Next, the particle filter mounted on the position / orientation estimation unit 9 will be described with reference to FIGS.
In FIG. 2, 10 is a map representing an area where the mobile robot travels, and 11, 12, 13, 14 and 16 represent obstacles. Reference numerals 17 and 18 denote loading and unloading places, and reference numerals 32 and 33 denote workers.
Further, in the map shown in FIG. 2, the path between the unloading places 17 and 18 includes a path 19 on the lower path and a path on the right side, a path 20 on the path between the obstacles 11 and 13 and the obstacles 12 and 14, In addition, a path 21 from the left passage to the upper passage is shown.

図4において、25は移動前の移動ロボットの位置を示している。27は移動量ue26だけ移動した状態を表している。
さらに図5において、28は移動ロボットが移動する前のパーティクルで、30は移動量ue29だけ移動し、この領域でのパーティクルを表し、31は分散したパーティクルの重み付けが大きいパーティクルを表したものである。
パーティクルフィルタは、複数のセンサからの位置姿勢推定結果を確率的に融合し、推定誤差を軽減することが可能である。移動ロボット1の位置姿勢候補はパーティクルと呼ばれる複数の候補(xi,yi,θi);i=1,・・・,Mによって表現される。レーザ距離センサによる位置姿勢推定結果として複数の解を持つ場合にも有効な手段である。
In FIG. 4, 25 indicates the position of the mobile robot before movement. Reference numeral 27 denotes a state in which the movement amount ue26 has been moved.
Further, in FIG. 5, 28 is a particle before the mobile robot moves, 30 is a particle moved in this area by a movement amount ue29, and 31 is a particle with a large weight of dispersed particles. .
The particle filter can probabilistically merge the position and orientation estimation results from a plurality of sensors and reduce the estimation error. The position and orientation candidates of the mobile robot 1 are expressed by a plurality of candidates (xi, yi, θi); i = 1,. This is an effective means even when the position / orientation estimation result by the laser distance sensor has a plurality of solutions.

パーティクルフィルタは、予測ステップ、更新ステップの2ステップで実行される。予測ステップでは、エンコーダ8a,8bから算出されるオドメトリを用いて移動ロボット1の移動後の位置を推定する。更新ステップでは、レーザ距離センサと地図による位置推定結果に基づいて予測されたロボットの位置姿勢を更新する。   The particle filter is executed in two steps: a prediction step and an update step. In the prediction step, the post-movement position of the mobile robot 1 is estimated using odometry calculated from the encoders 8a and 8b. In the update step, the position and orientation of the robot predicted based on the position estimation result using the laser distance sensor and the map are updated.

以下、予測ステップと更新ステップについて詳しく述べる。
1)予測ステップ
予測ステップについて図3乃至図5を用いて説明する。ここでは説明の簡単のためM=1とする。
図3は移動ロボット1が初期位置姿勢(x0,y0,θ0)から移動量uだけ移動し、23の位置姿勢(x,y,θ)でレーザ距離センサ5によって計測物61、62との距離を計測した状態を表している。ここで、移動ロボット1の初めの位置姿勢(x0,y0,θ0)は既知であるとする。図4は初期位置姿勢(x0,y0,θ0)25からエンコーダ8a,8bの値を用いて移動量ue=(ue_x,ue_y,ue_θ)26を計算し、この値から移動後の位置姿勢を予測した状態を表す。このとき移動後の位置姿勢(x,y,θ)に対して予測値27は(x0+ue_x,y0+ue_y,θ0+ue_θ)となる。この移動量(ue_x,ue_y,ue_θ)の値には車輪のスリップ等誤差が含まれているため、予測ステップではエンコーダ8a,8bの誤差分布に従う位置姿勢候補を用いて予測値を複数個生成する。この複数個の位置姿勢候補を、予測パーティクル(xp,yp,θp);p=1,・・・,Nで表し、擬似乱数などを利用して作成する。
図5は初期パーティクル28(M=5)から移動量ueに基づいて生成された予測パーティクル30(xp,yp,θp);p=1,・・・,MNを示している。予測パーティクル30はエンコーダ8a、8bの誤差の分だけ初期パーティクル28より広い面積に分布していることが分かる。
Hereinafter, the prediction step and the update step will be described in detail.
1) Prediction Step The prediction step will be described with reference to FIGS. Here, for simplicity of explanation, M = 1.
In FIG. 3, the mobile robot 1 moves from the initial position and orientation (x0, y0, θ0) by a movement amount u, and the distance from the measurement objects 61 and 62 by the laser distance sensor 5 at the position and orientation (x, y, θ) of 23. Represents the measured state. Here, it is assumed that the initial position and orientation (x0, y0, θ0) of the mobile robot 1 is known. In FIG. 4, the movement amount ue = (ue_x, ue_y, ue_θ) 26 is calculated from the initial position / posture (x0, y0, θ0) 25 using the values of the encoders 8a, 8b, and the post-movement position / posture is predicted from this value. Represents the state. At this time, the predicted value 27 is (x0 + ue_x, y0 + ue_y, θ0 + ue_θ) with respect to the position and orientation (x, y, θ) after movement. Since the value of this movement amount (ue_x, ue_y, ue_θ) includes errors such as wheel slip, a plurality of predicted values are generated in the prediction step using position and orientation candidates according to the error distribution of the encoders 8a and 8b. . The plurality of position / orientation candidates are represented by predicted particles (xp, yp, θp); p = 1,..., N, and are created using pseudorandom numbers or the like.
FIG. 5 shows predicted particles 30 (xp, yp, θp); p = 1,..., MN generated from the initial particles 28 (M = 5) based on the movement amount ue. It can be seen that the predicted particles 30 are distributed over a larger area than the initial particles 28 by the error of the encoders 8a and 8b.

2)更新ステップ
次に、更新ステップについて図3乃至図5で説明する。
更新ステップでは、まず予測パーティクル(xp,yp,θp);p=1,・・・,Nに対して、距離データd22と地図10、14との一致具合を計算する。具体的には、位置姿勢(xp,yp,θp)で距離データd22を計測したと仮定し、地図10、14と距離データd22の重なっている点数を計算する。この値を一致度Rと呼ぶ。一致度Rは、真の位置姿勢(x,y,θ)と予測パーティクル(xp,yp,θp)が近い距離にあれば高い値となり、大幅にずれていると低い値となる。図4はパーティクル27に対して、図3のレーザ距離センサ5による距離データd22を当てはめ、一致度を計算した例である。移動量ue26に誤差が含まれるため、そのままあてはめると地図10、14とずれていることがわかる。
2) Update Step Next, the update step will be described with reference to FIGS.
In the updating step, first, the degree of coincidence between the distance data d22 and the maps 10 and 14 is calculated for the predicted particles (xp, yp, θp); Specifically, assuming that the distance data d22 is measured by the position and orientation (xp, yp, θp), the number of points where the maps 10, 14 and the distance data d22 overlap is calculated. This value is called the matching degree R. The coincidence degree R is a high value if the true position / posture (x, y, θ) and the predicted particle (xp, yp, θp) are close to each other, and a low value if the coincidence is greatly deviated. FIG. 4 shows an example in which the degree of coincidence is calculated by fitting the distance data d22 from the laser distance sensor 5 of FIG. Since the amount of movement ue26 includes an error, it can be seen that the maps 10 and 14 are deviated if applied as they are.

次に、すべての予測パーティクル(xp,yp,θp);p=1,・・・,Nに対してこの一致度Rを計算することで、もっとも一致の高い位置姿勢(xe,ye,θe)を見つける。この位置姿勢(xe,ye,θe)がレーザ距離センサ5で観測した位置姿勢(x,y,θ)に近いであろうから、この点をロボットの位置姿勢推定結果とし、次のステップの(x0,y0,θ0)とする。   Next, by calculating the degree of coincidence R for all predicted particles (xp, yp, θp); p = 1,..., N, the position and orientation (xe, ye, θe) with the highest coincidence is calculated. Find out. Since this position / orientation (xe, ye, θe) will be close to the position / orientation (x, y, θ) observed by the laser distance sensor 5, this point is taken as the position / orientation estimation result of the robot, and (x0) in the next step , Y0, θ0).

図5に示すように、初期位置が正確にわからない場合は、ロボットの位置姿勢は複数のパーティクルによって表現される。このときはM点の初期パーティクル(x0i,y0i,θ0i)それぞれに対して、予測ステップを適用し、生成された予測パーティクル(xp,yp,θp);p=1,・・・,MN、に対して一致度を計算する。そのなかで一致度がもっとも高いものをロボットの推定位置姿勢として採用する。その後、一致度に従ってMN点の中からM点を選定することで、初期パーティクル(x0i,y0i,θ0i)を更新する。   As shown in FIG. 5, when the initial position is not accurately known, the position and orientation of the robot are expressed by a plurality of particles. At this time, a prediction step is applied to each of the M initial particles (x0i, y0i, θ0i), and the generated predicted particles (xp, yp, θp); p = 1,. The degree of coincidence is calculated for it. Among them, the one with the highest degree of coincidence is adopted as the estimated position and orientation of the robot. Thereafter, the initial particle (x0i, y0i, θ0i) is updated by selecting the M point from the MN points according to the degree of coincidence.

以上がパーティクルフィルタのアルゴリズムである。上記更新ステップでは(xp,yp,θp)に対して計算された一致度のもっとも高いものを推定結果として採用した。しかしながら、ここで注意しなければならないのは、最大値となる一致度を持つパーティクルが2点存在する場合があることである。この状況において、一致度最大である2点間の距離が近い場合はどちらを選んでも本質的な問題とはならないが、問題となるのは2点間の距離が離れている場合である。この場合、どちらのパーティクルを選ぶべきか、一致度で区別することができない。また、2点ではなく複数点でも一致度が同じ値で最大値となってしまう場合がある。このような状況では、推定結果のばらつきが大きくなるため、移動ロボットがこの値をそのまま制御に用いるのは性能面、安全面において好ましくない。よって、推定結果の信頼性の評価を行うため、位置姿勢推定評価値Eを定義する必要がある。この値Eを用いれば、移動ロボット1が位置姿勢推定値を取捨選択する、もしくは、減速・停止することが可能であり、移動ロボット1はより安全な自律移動を行うことができる。   The above is the particle filter algorithm. In the update step, the one with the highest degree of coincidence calculated for (xp, yp, θp) was adopted as the estimation result. However, it should be noted here that there are cases where there are two particles having a matching degree that is the maximum value. In this situation, if the distance between the two points having the highest degree of coincidence is close, it does not matter whether either one is selected, but the problem is when the distance between the two points is far. In this case, which particle should be selected cannot be distinguished by the degree of coincidence. In some cases, the degree of coincidence is the same value at a plurality of points instead of two points, and becomes the maximum value. In such a situation, since the dispersion of estimation results becomes large, it is not preferable in terms of performance and safety that the mobile robot uses this value as it is for control. Therefore, in order to evaluate the reliability of the estimation result, it is necessary to define the position / orientation estimation evaluation value E. If this value E is used, the mobile robot 1 can select or estimate the position / orientation estimated value or decelerate / stop, and the mobile robot 1 can perform safer autonomous movement.

ここで、複数個のパーティクルの一致度が最大となり、この最大一致度であるパーティクル間の距離が広くなると状態は、パーティクル31の分散値が大きい状態であると考えられるため、本実施例では、このような位置姿勢推定評価値Eとしてパーティクルの平均値周りの分散σを適用する。
分散が大きくなってしまう例としては、移動ロボット1周辺に環境変化(地図に記載された計測物の移動、作業員等)がある場合に距離データd22と地図10,14が一致せず、パーティクルが広範囲に分布することがある。また、距離データd22と地図10,14が良く一致する場合でも、長い廊下などでは廊下の長手方向にパーティクルが広範囲に分布してしまう。このような状況において、パーティクルの分散を用いることで位置姿勢推定結果の信頼性を評価することが可能となる。
Here, since the degree of coincidence of a plurality of particles is maximized, and the distance between particles having the maximum degree of coincidence increases, the state is considered to be a state in which the dispersion value of the particles 31 is large. The variance σ around the average value of the particles is applied as the position / orientation estimation evaluation value E.
As an example in which the dispersion becomes large, the distance data d22 and the maps 10 and 14 do not coincide with each other when there is a change in the environment around the mobile robot 1 (the movement of the measurement object described on the map, a worker, etc.). May be widely distributed. Further, even when the distance data d22 and the maps 10 and 14 are in good agreement, particles are distributed over a wide range in the longitudinal direction of the corridor in a long corridor. In such a situation, it is possible to evaluate the reliability of the position / orientation estimation result by using particle dispersion.

位置姿勢推定評価値計算部2では、パーティクルの分散を計算するが、本実施例では次のような評価式を用いる。   The position / orientation estimation evaluation value calculation unit 2 calculates the dispersion of particles. In this embodiment, the following evaluation formula is used.

E×E=σx×σx+σy×σy+α×σθ×σθ (数1)
x,y,θの標準偏差σx,σy,σθに対して、それぞれの和をとったものである。αは正規化定数であり、位置の分散と姿勢の分散の平均値をそろえる値に設定する。
このように、Eの値として分散の和をとれば1次元化することができ、評価が簡単になる効果がある。この他に共分散行列の固有値や、x、y、θの分散を個別に評価する方法があり、評価方法が複雑化するがより細やかな評価が可能となる。
E × E = σx × σx + σy × σy + α × σθ × σθ (Equation 1)
These are the sums of the standard deviations σx, σy, σθ of x, y, θ. α is a normalization constant, and is set to a value that equals the average value of the position variance and the attitude variance.
In this way, if the sum of variances is taken as the value of E, it can be made one-dimensional, and the evaluation is simplified. In addition, there is a method for individually evaluating eigenvalues of the covariance matrix and variances of x, y, and θ. Although the evaluation method is complicated, more detailed evaluation is possible.

次に、動作モード判定部3について、図6、図7、図8を用いて詳しく説明する。
図6は、移動ロボットの前に作業員32,33が重なった状態で立っている場合のパーティクル31を示している。また、図7は、移動ロボットの前に作業員32,33が並んだ状態で立っている場合のパーティクル31を示している。
図8は、障害者が地震や人がぶつかって動いた場合を示している。図8(a)は移動ロボットの距離を計測している状態を示し、図8(b)はその時のパーティクル31を示す。
Next, the operation mode determination unit 3 will be described in detail with reference to FIGS. 6, 7, and 8.
FIG. 6 shows the particles 31 when the workers 32 and 33 are standing in front of the mobile robot. FIG. 7 shows the particles 31 when the workers 32 and 33 are standing in front of the mobile robot.
FIG. 8 shows a case where the handicapped person moved by an earthquake or a person hit. FIG. 8A shows a state in which the distance of the mobile robot is being measured, and FIG. 8B shows the particle 31 at that time.

図8は、最大一致度が複数点表れる状態を示している。図8(a)では地図作成後に、作業員32,33の接触等により作業台14が意図せずに移動してしまった状況で移動ロボット1がレーザ距離センサによる計測を行った状況を示している。地図は移動前の作業台62の配置が記載されているため、距離データd22と地図10、14が完全に一致する位置姿勢(x,y,θ)は存在しない。この状態でパーティクルフィルタによって位置姿勢推定を行った結果を図8(b)に示す。一致度が高い場所としては本来の位置と、この位置とは別に移動ロボット進行方向に対して左側にもできている。これは作業台14が移動してしまったために、通路幅が狭くなり、通路の両側の壁に対して距離データd22が一致するものが出現してしまうためである。この状況では大きく分けて、40、41が一致しているものと、40,42が一致しているものの2パターンが更新ステップ後にも残り、パーティクルが広く分布するため、位置姿勢推定評価値Eの値が増加し、位置姿勢推定状態として不安定になりつつあるということを評価することが可能となる。   FIG. 8 shows a state where a plurality of maximum matching degrees appear. FIG. 8A shows a situation in which the mobile robot 1 performs measurement by the laser distance sensor in a situation where the work table 14 has moved unintentionally due to contact of the workers 32 and 33 after the map is created. Yes. Since the map describes the arrangement of the work table 62 before movement, there is no position and orientation (x, y, θ) where the distance data d22 and the maps 10 and 14 completely coincide. FIG. 8B shows the result of position and orientation estimation performed by the particle filter in this state. A place with a high degree of coincidence is formed on the left side with respect to the moving direction of the mobile robot separately from the original position and this position. This is because the work table 14 has moved, the passage width becomes narrower, and the distance data d22 that matches the walls on both sides of the passage appears. In this situation, roughly divided, two patterns of 40 and 41 match and 40 and 42 match remain after the update step, and the particles are widely distributed. It is possible to evaluate that the value increases and the position / orientation estimation state is becoming unstable.

図6、7は、移動中の移動ロボット1の前方に現場の作業員32、33が存在する場合を表している。図6は作業員32、33によって移動ロボット1前方の距離データが半分ほど隠されている。このとき、図5の状態に比べて前後方向の計測点数が減少したことにより、移動ロボット1の前後方向に対して相対的に一致度の高いパーティクルが増加する。よって、更新ステップによって選ばれるパーティクルが移動ロボット1の前後方向に通常より広く分布するため位置姿勢推定評価値Eの値は大きくなるため、移動ロボット1は減速の制御を行い、より安全な移動が可能となる。   6 and 7 show a case where workers 32 and 33 at the site are present in front of the moving mobile robot 1. In FIG. 6, about half of the distance data in front of the mobile robot 1 is hidden by the workers 32 and 33. At this time, the number of measurement points in the front-rear direction is reduced compared to the state of FIG. Therefore, since the particles selected in the update step are distributed more widely than usual in the front-rear direction of the mobile robot 1, the position / orientation estimation evaluation value E increases, so that the mobile robot 1 performs deceleration control, thereby enabling safer movement. It becomes possible.

図7は、移動ロボット1の前方を作業員32、33が完全に隠しており、移動ロボット1の前後方向の座標を推定することがほぼできない状態にある。このとき位置姿勢推定評価値Eの値は図6の状態からさらに悪化するため、この値に基づいて動作モード判定部は移動ロボット1を安全に停止させる。   In FIG. 7, the workers 32 and 33 completely hide the front of the mobile robot 1, and it is almost impossible to estimate the front-rear direction coordinates of the mobile robot 1. At this time, the value of the position / orientation estimation evaluation value E is further deteriorated from the state of FIG. 6, so that the operation mode determination unit stops the mobile robot 1 safely based on this value.

移動ロボット1を安全に停止させる方法として、レーザ距離センサの計測範囲の中で、ロボットの進行方法にロボットの移動速度に比例する大きさの物体検出エリアを設け、そのエリアに計測物が検出された場合に危険とみなして停止するものがある。しかしながら、この手法を用いるとロボット旋回時に不要に壁を検出し、ノイズを検出してしまうなどの問題があり、作業効率を下げる原因となってしまう。本発明は位置推定結果の信頼性に基づいた、本質的に必要な停止処理であり、ノイズを検出して不要に停止するといったことは起こらないことが本発明の特徴である。   As a method for stopping the mobile robot 1 safely, an object detection area having a size proportional to the moving speed of the robot is provided in the robot travel method within the measurement range of the laser distance sensor, and the measurement object is detected in that area. Some of them are considered dangerous and stop. However, when this method is used, there is a problem that a wall is unnecessarily detected when the robot turns and noise is detected, which causes a reduction in work efficiency. The present invention is essentially a necessary stop process based on the reliability of the position estimation result, and it is a feature of the present invention that no noise is detected to cause an unnecessary stop process.

また、移動ロボット1は一旦停止閾値を越えてしまったため、その原因が作業員の遮りであるか、環境変化であるかなどを特定するまで復帰することはできない。このときには、作業員が移動ロボット1の状態を確認、操作することを想定し、自動的に手動モードに切り替わることも特徴である。   In addition, since the mobile robot 1 has once exceeded the stop threshold, it cannot be restored until it is identified whether the cause is an operator blockage or an environmental change. At this time, it is also a feature that it is automatically switched to the manual mode on the assumption that the worker confirms and operates the state of the mobile robot 1.

図9は、位置姿勢推定評価値Eに基づいて、移動ロボット1の減速・停止を行う処理のフローチャートである。
先ず、移動ロボット1は、荷物の積み下ろし場所17または18に荷積みを行い、目的地に向かって自律移動をする(ステップ201)。そして、移動している間、移動ロボット1は、センシングを行い、位置姿勢推定を行う(ステップ202)。次に、位置姿勢推定結果に対して、位置姿勢推定評価値Eの計算処理を実施する(ステップ203)。
移動ロボット1は、位置姿勢推定結果から目的地に到達したかを判定する(ステップ204)。到達していれば動作を終了し、到達していなければ位置姿勢推定評価値Eに基づき、動作モードの変更を行い、位置姿勢推定評価値Eと閾値E1との比較を行う(ステップ205)。ここで、位置姿勢推定評価値Eが閾値E1より大きければ、移動ロボット1は通常走行モードから減速モードに移行する(ステップ206)。
評価値Eが閾値E1より小さければ、自律移動のステップ201へ戻る。
減速モード(ステップ206)になると、次に位置姿勢推定評価値Eと閾値E2とを比較し、評価値Eが大きければ、すなわち停止の閾値を超えてしまった場合、自律移動は事実上不可能の状態であるため、手動モードへ移行する(ステップ208)。
FIG. 9 is a flowchart of processing for decelerating and stopping the mobile robot 1 based on the position / orientation estimation evaluation value E.
First, the mobile robot 1 loads the luggage loading / unloading location 17 or 18 and autonomously moves toward the destination (step 201). While moving, the mobile robot 1 performs sensing and estimates position and orientation (step 202). Next, the position / orientation estimation evaluation value E is calculated for the position / orientation estimation result (step 203).
The mobile robot 1 determines whether the destination has been reached from the position / orientation estimation result (step 204). If it has reached, the operation is terminated, and if not, the operation mode is changed based on the position / orientation estimation evaluation value E, and the position / orientation estimation evaluation value E is compared with the threshold E1 (step 205). Here, if the position / orientation estimation evaluation value E is larger than the threshold value E1, the mobile robot 1 shifts from the normal travel mode to the deceleration mode (step 206).
If the evaluation value E is smaller than the threshold value E1, the process returns to step 201 for autonomous movement.
In the deceleration mode (step 206), the position / orientation estimation evaluation value E and the threshold value E2 are compared, and if the evaluation value E is large, that is, if the stop threshold value is exceeded, autonomous movement is virtually impossible. Therefore, the process shifts to the manual mode (step 208).

評価値Eが閾値E2より小さければ、動作モードは減速モードの状態で、自律移動を継続する(ステップ201に戻る)。
手動モードに切り替わったら(ステップ208)、切り替わったことを作業者に通知し(ステップ209)、移動ロボット1は停止する。
本実施例では、減速の閾値は1段階のみ設けているが、多段階に閾値を設けて減速することも可能である。
If the evaluation value E is smaller than the threshold value E2, the operation mode is the deceleration mode and the autonomous movement is continued (return to step 201).
When the manual mode is switched (step 208), the operator is notified of the switching (step 209), and the mobile robot 1 stops.
In this embodiment, the deceleration threshold value is provided in only one stage, but it is also possible to provide deceleration in multiple stages for deceleration.

図10は、停止閾値を越えてしまった場合の移動ロボット1の復帰手順を示すフローチャートを示す。
まず移動ロボット1は位置姿勢推定を行っている(ステップ301)。次にステップ301の位置姿勢推定結果に対する評価値を計算する(ステップ302)。次に移動ロボット1は現在停止中であることを作業員/管理者に通知を行う(ステップ303)。通知を受けた作業員は移動ロボット1に取り付けられた画像表示器50を確認し、位置姿勢推定評価値Eが停止閾値E2より小であることと、距離データdと地図10、14が良く一致していることを確認する(ステップ304)。このとき、画像表示器には地図6と移動ロボット1の位置と、距離データdと評価値E、一致度Rなどが表示されている。距離データは地図と重なっている点と重なっていない点で色分けされており、環境変化がある点について一目瞭然な状態となっていることが特徴である。
FIG. 10 is a flowchart showing a return procedure of the mobile robot 1 when the stop threshold is exceeded.
First, the mobile robot 1 performs position and orientation estimation (step 301). Next, an evaluation value for the position / orientation estimation result in step 301 is calculated (step 302). Next, the mobile robot 1 notifies the worker / manager that it is currently stopped (step 303). The worker who has received the notification confirms the image display 50 attached to the mobile robot 1 and confirms that the position / orientation estimation evaluation value E is smaller than the stop threshold E2 and that the distance data d and the maps 10 and 14 are the same. It confirms that it has done (step 304). At this time, the position of the map 6 and the mobile robot 1, the distance data d, the evaluation value E, the matching degree R, and the like are displayed on the image display. The distance data is color-coded according to the points that overlap the map and the points that do not overlap, and is characterized by the fact that the point where the environment changes is clear.

ステップ304で作業員が現状を確認後、閾値を超えた原因が作業員である場合に、手動モードを解除し、移動ロボット1を作業に復帰させる(ステップ308)。距離データdと地図10、14が一致しておらず、その原因が作業台など、計測物の移動であると認められた場合、作業者/管理者は移動ロボット1が停止した周辺の地図を更新する(ステップ306)。地図の更新には、手動モードに切り替えられた移動ロボット1を操作し、距離データdを収集しても良いし、地図作成専用の器具を用いても良い。また、このとき地図の更新は移動ロボット1の表示で確認しながらロボット上で行っても良いし、距離データdのみを持ち帰り、別のPCで地図作成を行うことも可能である。その後、移動ロボット1は更新された地図を読み込み、作業に復帰する。   After the worker confirms the current state in step 304, if the cause of exceeding the threshold is the worker, the manual mode is canceled and the mobile robot 1 is returned to work (step 308). When the distance data d and the maps 10 and 14 do not match and the cause is recognized as the movement of the measurement object such as a work table, the worker / administrator views the map around the mobile robot 1 stopped. Update (step 306). For updating the map, the mobile robot 1 switched to the manual mode may be operated to collect the distance data d, or an instrument dedicated to map creation may be used. At this time, the update of the map may be performed on the robot while confirming the display of the mobile robot 1, or only the distance data d can be taken home and the map can be created on another PC. Thereafter, the mobile robot 1 reads the updated map and returns to work.

図11は、ロボット1の作業現場環境を示している。作業現場には荷の積み下ろし場所17、18が存在し、それを結ぶ移動経路19、20、21が設定されている。ロボット1がこの環境において自律移動を行うためには、まず現場の地図を作成する必要がある。次に地図作成が正しく行われているかの確認のため、ロボット1は現場で試走を行う。
この試走における計測データに基づいて閾値Eを設定する。閾値の値はセンサの特性から決定されるべきものであるが、センサの特性は計測物の材質や色に依存するため、すべての組み合わせを把握することは難しい。よって、実際に計測を行うことで、現場に適した閾値を設定することができるため、より安全な自律移動が可能となる。
FIG. 11 shows the work site environment of the robot 1. There are loading and unloading places 17, 18 at the work site, and movement paths 19, 20, 21 connecting them are set. In order for the robot 1 to move autonomously in this environment, it is first necessary to create a map of the site. Next, the robot 1 performs a trial run on the site to confirm whether the mapping is correctly performed.
A threshold E is set based on the measurement data in this trial run. Although the threshold value should be determined from the sensor characteristics, it is difficult to grasp all combinations because the sensor characteristics depend on the material and color of the measurement object. Therefore, by actually measuring, a threshold suitable for the site can be set, so that safer autonomous movement is possible.

図12は、この閾値決めの処理のフローチャートを示す。
先ず、移動ロボット1は環境地図の作成を行う(ステップ101)。次に、移動ロボット1は、ステップ101で作成された地図を用いて、ロボットが実際に運用される経路にそって自律移動を行う(ステップ102)。このとき移動ロボット1は実際に位置姿勢推定を行い、この結果を地図記憶部6に保存しながら移動を行う。このとき、移動ロボット1が問題なく移動経路を走破した場合、記憶部6に保存された位置姿勢推定評価値を用いて、閾値決めのためのデータ処理を行う(ステップ103)。閾値が決まったら実際の走行で運用する(ステップ104)。
FIG. 12 shows a flowchart of the threshold determination process.
First, the mobile robot 1 creates an environmental map (step 101). Next, the mobile robot 1 performs autonomous movement along the route on which the robot is actually operated, using the map created in step 101 (step 102). At this time, the mobile robot 1 actually estimates the position and orientation, and moves while saving the result in the map storage unit 6. At this time, when the mobile robot 1 runs through the movement route without any problem, data processing for determining a threshold value is performed using the position / orientation estimation evaluation value stored in the storage unit 6 (step 103). When the threshold is determined, the vehicle is operated in actual driving (step 104).

具体的には、移動ロボット1が問題なく試走を終えた場合において、走行中に計算された位置姿勢推定評価値Eの最大値EmaxなどEの統計量を利用して閾値の設定を行う。減速の閾値として2Emax>E1>Emaxの値を利用し、停止の閾値としてはE2=2Emaxを用いる。閾値としてこのような値を用いるのは、Emaxまでの値は地図作成直後の試走で発生した値であり、この範囲であれば通常走行可能であることが保証されているためである。ここまでが移動ロボット1の実運用における準備段階である。   Specifically, when the mobile robot 1 completes the trial run without any problem, the threshold value is set by using an E statistic such as the maximum value Emax of the position / orientation estimation evaluation value E calculated during the travel. A value of 2Emax> E1> Emax is used as a deceleration threshold, and E2 = 2Emax is used as a stop threshold. The reason why such a value is used as the threshold value is that the value up to Emax is a value generated in the trial run immediately after the map creation, and it is guaranteed that the vehicle can normally run within this range. This is the preparation stage in the actual operation of the mobile robot 1.

本実施例において、パーティクルフィルタの推定結果を一致度最大のパーティクルとしたが、パーティクルの平均値をもって位置姿勢推定結果としても良い。
本実施例において、位置姿勢推定評価値として、パーティクルの分散を用いたが、パーティクルの広がりを表す統計量、たとえば、パーティクルすべてを含む長方形、楕円の面積などそのまま本発明に適用することが可能である。
In this embodiment, the particle filter estimation result is the particle having the highest degree of coincidence, but the average value of the particles may be used as the position and orientation estimation result.
In this embodiment, the dispersion of particles is used as the position / orientation estimation evaluation value. However, a statistic indicating the spread of particles, for example, the rectangle including all particles, the area of an ellipse, and the like can be directly applied to the present invention. is there.

また、評価値として一致度Rを用いることもできる。一致度は環境変化の程度をそのまま表すものであり、移動ロボット1の周囲環境の情報を与える重要な値である。
ただし、本実施例で述べたとおり一致度のみでは位置推定結果の信頼性を評価することができないため、分散を含めた形で評価を行う。評価方法としては、一致度Rと分散を個別に評価した結果を統合しても良いし、多次元評価がわずらわしい場合には、一次元的に評価できる評価関数を作成しても良い。具体的な評価関数の例としては次式のようなものを用いる。
Also, the degree of coincidence R can be used as the evaluation value. The degree of coincidence represents the degree of environmental change as it is, and is an important value that gives information on the surrounding environment of the mobile robot 1.
However, as described in the present embodiment, since the reliability of the position estimation result cannot be evaluated only by the degree of coincidence, the evaluation is performed including the variance. As an evaluation method, the results of individually evaluating the degree of coincidence R and the variance may be integrated, or when multidimensional evaluation is troublesome, an evaluation function that can be evaluated one-dimensionally may be created. As a specific example of the evaluation function, the following equation is used.

E=R/(1+σ/2σmax) (数2)
この式において、σmaxは図11の試走行で決定される標準偏差の最大値を表す。この式は分散値が良い値であるときは、一致度で評価を行い、一致度が良いときは分散値で評価を行うといった形となっている。標準偏差σは0の時が最良であるが、このときはE=Rとなる。このときE=0.5は計測物50%であることを表す。また、Rは1が最良であり、このとき、評価値はE=1/(1+σ/2σmax)となり、σ=2σmaxのとき、E=0.5となる。よって、停止閾値を0.5とすれば一致度を含めた、より良い評価が可能となる。
E = R / (1 + σ / 2σmax) (Equation 2)
In this equation, σmax represents the maximum value of the standard deviation determined by the trial run in FIG. This formula is such that when the variance value is a good value, the evaluation is performed with the degree of coincidence, and when the degree of coincidence is good, the evaluation is performed with the dispersion value. The standard deviation σ is best when it is 0, but at this time, E = R. At this time, E = 0.5 represents that the measured object is 50%. Further, R is best, and at this time, the evaluation value is E = 1 / (1 + σ / 2σmax), and when σ = 2σmax, E = 0.5. Therefore, if the stop threshold is set to 0.5, a better evaluation including the degree of coincidence can be performed.

本実施例において、位置姿勢推定方法としてパーティクルフィルタを適用して位置姿勢推定評価値の説明を行ったが、推定方法としてカルマンフィルタを利用し、位置姿勢推定評価値としては、推定誤差の共分散行列を用いてもよい。また、オドメトリがない状態、つまり、予測が全くできない状態でも、移動量uをも誤差とみなし、パーティクルフィルタ、カルマンフィルタを適用することもできる。   In this embodiment, the position / orientation estimation evaluation value has been described by applying a particle filter as the position / orientation estimation method. However, the Kalman filter is used as the estimation method, and the estimation / error estimation covariance matrix is used as the position / orientation estimation evaluation value. May be used. Further, even in a state where there is no odometry, that is, a state where prediction is not possible at all, the moving amount u can be regarded as an error, and a particle filter and a Kalman filter can be applied.

さらにまた、初期位置姿勢(x0,y0,θ0)を中心とした探索領域(x0±Lx,y±Ly,θ0±Lθ)を設け、その探索領域内を(x0±k1Δx、y0±k2Δy、θ0±k3Δθ);(ただし、k1,k2,k3は整数。)とし、とびとびに表現される格子点上で一致度を計算すれば、パーティクルフィルタと同様の位置姿勢推定評価値を定義することができる。具体的には、一致度を重みとして探索領域内で画像処理における主成分分析を行い、その主成分値を用いればよい。以下これを詳しく述べる。   Furthermore, a search region (x0 ± Lx, y ± Ly, θ0 ± Lθ) centered on the initial position and orientation (x0, y0, θ0) is provided, and the inside of the search region is (x0 ± k1Δx, y0 ± k2Δy, θ0). (Where k1, k2, and k3 are integers) and the degree of coincidence is calculated on the lattice points expressed in a discrete manner, the position / orientation estimation evaluation value similar to that of the particle filter can be defined. . Specifically, the principal component analysis in the image processing is performed in the search region using the degree of coincidence as a weight, and the principal component value may be used. This will be described in detail below.

図13はオドメトリがない状態の位置姿勢推定システムの構成図である。図1と異なりオドメトリの入力が位置姿勢処理部に入力されていない。このとき、移動後のロボット位置姿勢予測ができないために計算コストが増加するため、高性能のCPUを利用する必要がある。
しかしながら、エンコーダなしの車輪を用いることが可能となり、位置姿勢推定システムを手軽に活用できるメリットもある。
この場合における位置姿勢推定方式としてマッチング処理を例として、位置姿勢推定評価値の算出方法について述べる。
マッチング処理においては、パーティクルフィルタのようにランダムに選んだ位置姿勢に対して一致度を計算するのではなく、初期位置姿勢(x0,y0,θ0)を中心とした限られた領域を、格子点状に選んだ位置姿勢に対して一致度を計算することで最も一致度の高い点を検出し、推定位置姿勢とする方式である。初期位置姿勢(x0,y0,θ0)としては前回の位置姿勢推定結果を用いる。
FIG. 13 is a configuration diagram of a position and orientation estimation system in a state where there is no odometry. Unlike FIG. 1, the input of odometry is not input to the position and orientation processing unit. At this time, since it is impossible to predict the position and orientation of the robot after movement, the calculation cost increases, and it is necessary to use a high-performance CPU.
However, it is possible to use wheels without an encoder, and there is an advantage that the position and orientation estimation system can be easily used.
As an example of the position / orientation estimation method in this case, a method for calculating a position / orientation estimation evaluation value will be described using matching processing as an example.
In the matching process, the degree of coincidence is not calculated for a randomly selected position and orientation as in a particle filter, but a limited area centered on the initial position and orientation (x0, y0, θ0) is used as a lattice point. This is a method of detecting the point with the highest degree of coincidence by calculating the degree of coincidence with respect to the position and orientation selected in a shape and setting it as the estimated position and orientation. As the initial position and orientation (x0, y0, θ0), the previous position and orientation estimation result is used.

具体的な処理方法としては以下のように行う。
まず、初期位置姿勢(x0,y0,θ0)を中心とした探索領域(x0±Lx,y±Ly, θ0±Lθ)を設け、その領域内のとびとびの点(X,Y,Θ)=(x0±k1Δx, y0±k2Δy, θ0±k3Δθ)で表現される格子点上で一致度を計算する。
ここで、Lx、Ly、Lθは正の実数であり、ロボットの移動速度を考慮した大きさに設定する。前記のとおり、k1,k2,k3は整数であり、Δx、Δy、Δθは格子点の幅を表す。このとき、この各点における一致度をR(X,Y,Θ)で表し、この値が最も高い(X,Y,Θ)を位置姿勢推定結果とする。以上がマッチング処理の概略である。
A specific processing method is as follows.
First, a search region (x0 ± Lx, y ± Ly, θ0 ± Lθ) centered on the initial position and orientation (x0, y0, θ0) is provided, and a jump point (X, Y, Θ) = (X The degree of coincidence is calculated on a lattice point expressed by x0 ± k1Δx, y0 ± k2Δy, θ0 ± k3Δθ).
Here, Lx, Ly, and Lθ are positive real numbers, and are set to a size that considers the moving speed of the robot. As described above, k1, k2, and k3 are integers, and Δx, Δy, and Δθ represent grid point widths. At this time, the degree of coincidence at each point is represented by R (X, Y, Θ), and the highest value (X, Y, Θ) is taken as the position and orientation estimation result. The above is the outline of the matching process.

次に位置姿勢評価値の計算方法について述べる。図7の状態でマッチング処理を行った場合、ロボット前方の作業員がレーザ光を遮っている。このため、ロボット両側にある壁としか一致せず、R(X,Y,Θ)のなかで壁に沿った位置姿勢に対する一致度が相対的に高くなる。
逆に、R(X,Y,Θ)の計算結果として、一致度の高い値が広く分布する方向には推定結果が不定となることを表しているため、このR(X,Y,Θ)における一致度の分散度を計算することでパーティクルフィルタと同様の位置姿勢評価値を定義することができる。この一致度が強く分散する方向を検出するために、まずRの共分散行列B(3×3行列)を計算する。
Next, a method for calculating the position / orientation evaluation value will be described. When matching processing is performed in the state of FIG. 7, the worker in front of the robot blocks the laser beam. For this reason, only the walls on both sides of the robot coincide with each other, and the degree of coincidence with respect to the position and orientation along the wall is relatively high in R (X, Y, Θ).
Conversely, the calculation result of R (X, Y, Θ) indicates that the estimation result is indefinite in the direction in which values having a high degree of coincidence are widely distributed. The position / orientation evaluation value similar to that of the particle filter can be defined by calculating the degree of dispersion of the degree of coincidence. In order to detect the direction in which the degree of coincidence is strongly dispersed, first, the R covariance matrix B (3 × 3 matrix) is calculated.

B=ΣR(X,Y,Θ)(X−μ,Y−μ,Θ−μθ)(X−μ,Y−μ,Θ−μθ) (数3)
(上付きのTはベクトルの転置を表す。μ、μy、μθはX,Y,ΘのR (X,Y,Θ)で重み付けした平均値を表す。Σは探索領域内の格子点(X,Y,Θ)に対する総和を表す。)
次に、Bを固有値分解すれば、次式のように表現される。
B = ΣR (X, Y, Θ) (X−μ x , Y−μ y , Θ−μ θ ) T (X−μ x , Y−μ y , Θ−μ θ ) (Equation 3)
(The superscript T represents the transpose of the vector. Μ x , μ y, μ θ represent the average value weighted by R (X, Y, Θ) of X, Y, Θ. Σ represents the lattice in the search region. Represents the sum of points (X, Y, Θ).)
Next, if B is subjected to eigenvalue decomposition, it is expressed as follows.

B = λ + λ + λ (数4)
このvは3次元の固有ベクトル(行ベクトル)であり一致度が分散する方向を表す。λ1≧λ≧λ3は固有値であり、それぞれλ1はvの方向に一致度がどの程度分散しているのを表している。このような手法は主成分分析とも呼ばれ、λ1は第一主成分、λ2は第二主成分などと呼ばれる。
この主成分値λを用いることによって、パーティクルフィルタと同様に、位置姿勢推定ができない状態を検出することが可能となる。
評価を行う際の閾値はパーティクルフィルタと同様に決定する。
B = λ 1 v 1 T v 1 + λ 2 v 2 T v 2 + λ 3 v 3 T v 3 (Equation 4)
The v 1 represents the direction in which the degree of coincidence is dispersed a 3-dimensional eigenvector (row vector). λ 1 ≧ λ 2 ≧ λ 3 are eigenvalues, and each λ 1 represents how much the degree of coincidence is dispersed in the direction of v 1 . Such a method is also called principal component analysis, where λ 1 is called a first principal component, λ 2 is called a second principal component, and so on.
By using this principal component value λ, it is possible to detect a state in which position and orientation cannot be estimated as in the particle filter.
The threshold for evaluation is determined in the same manner as for the particle filter.

1‥自律移動ロボット
2‥位置姿勢推定評価値計算部 3‥動作モード判定部
5‥レーザ距離センサ 6‥地図記憶部 7‥位置姿勢制御部
8a、8b‥エンコーダ 9‥位置姿勢推定部 10‥地図
14‥作業台 19,20,21‥移動経路
22‥距離データd 24‥移動量u
31‥パーティクル 32、33‥作業員
50‥画像表示器
DESCRIPTION OF SYMBOLS 1 ... Autonomous mobile robot 2 ... Position / orientation estimation evaluation value calculation part 3 ... Operation mode determination part 5 ... Laser distance sensor 6 ... Map storage part 7 ... Position / orientation control part 8a, 8b ... Encoder 9 ... Position / orientation estimation part 10 ... Map 14. Work table 19, 20, 21 Movement path 22 Distance data d 24 Movement amount u
31 ... Particle 32, 33 ... Worker 50 ... Image display

Claims (4)

移動体に搭載され、移動体の位置姿勢推定を行う自己位置姿勢推定システムであって、
移動体に設けられた距離センサからの計測データと地図データを照合することで前記移動体の位置と姿勢を推定する位置姿勢推定部と、
前記位置姿勢推定部の位置姿勢推定結果の信頼度の評価値を算出する位置姿勢推定評価値算出部と、を備え、
前記位置姿勢推定評価値算出部は、前記距離センサからの計測データと地図データの一致度及び位置姿勢推定結果の分散を算出することにより前記位置姿勢推定部の位置姿勢推定結果の信頼度の評価値を算出することを特徴とする位置姿勢推定システム。
A self-position / posture estimation system that is mounted on a mobile body and estimates the position / posture of the mobile body,
A position and orientation estimation unit that estimates the position and orientation of the moving body by collating measurement data from a distance sensor provided on the moving body with map data;
A position and orientation estimation evaluation value calculation unit that calculates an evaluation value of reliability of the position and orientation estimation result of the position and orientation estimation unit, and
The position / orientation estimation evaluation value calculation unit evaluates the reliability of the position / orientation estimation result of the position / orientation estimation unit by calculating the degree of coincidence between the measurement data from the distance sensor and the map data and the variance of the position / orientation estimation result. A position and orientation estimation system characterized by calculating a value.
前記移動体において取得する前記距離センサからの計測データは地図データの作成に使用されることを特徴とする請求項1に記載の位置姿勢推定システム。 The position / orientation estimation system according to claim 1, wherein measurement data from the distance sensor acquired in the moving body is used to create map data. 前記移動体の移動量を計測するエンコーダからの計測データによって移動量を推定する移動量推定部を備えることを特徴とする請求項1に記載の位置姿勢推定システム。 The position and orientation estimation system according to claim 1, further comprising a movement amount estimation unit that estimates a movement amount based on measurement data from an encoder that measures the movement amount of the moving body. 前記移動体は、前記評価値に応じて、減速または停止を行うことを特徴とする請求項1に記載の位置姿勢推定システム。 The position / orientation estimation system according to claim 1, wherein the moving body decelerates or stops according to the evaluation value.
JP2013522770A 2011-06-29 2012-06-19 Self-position / posture estimation system Active JP5909486B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013522770A JP5909486B2 (en) 2011-06-29 2012-06-19 Self-position / posture estimation system

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011143921 2011-06-29
JP2011143921 2011-06-29
JP2013522770A JP5909486B2 (en) 2011-06-29 2012-06-19 Self-position / posture estimation system
PCT/JP2012/065626 WO2013002067A1 (en) 2011-06-29 2012-06-19 Mobile robot and self location and attitude estimation system installed upon mobile body

Publications (2)

Publication Number Publication Date
JPWO2013002067A1 JPWO2013002067A1 (en) 2015-02-23
JP5909486B2 true JP5909486B2 (en) 2016-04-26

Family

ID=47423965

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013522770A Active JP5909486B2 (en) 2011-06-29 2012-06-19 Self-position / posture estimation system

Country Status (2)

Country Link
JP (1) JP5909486B2 (en)
WO (1) WO2013002067A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190096364A (en) * 2016-12-09 2019-08-19 디버세이, 인크 Robot cleaning device to change the operating speed based on the environment
JP7459733B2 (en) 2020-09-08 2024-04-02 株式会社豊田自動織機 Self-location estimation device

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140102859A1 (en) 2012-10-12 2014-04-17 Mckesson Automation Inc. Apparatuses, systems, and methods for dispensing medications from a central pharmacy to a patient in a healthcare facility
US9150119B2 (en) 2013-03-15 2015-10-06 Aesynt Incorporated Apparatuses, systems, and methods for anticipating and delivering medications from a central pharmacy to a patient using a track based transport system
JP6240995B2 (en) * 2013-01-15 2017-12-06 株式会社国際電気通信基礎技術研究所 Mobile object, acoustic source map creation system, and acoustic source map creation method
JP6233706B2 (en) * 2013-04-02 2017-11-22 パナソニックIpマネジメント株式会社 Autonomous mobile device and self-position estimation method of autonomous mobile device
BR112016002163A2 (en) 2013-08-01 2017-08-01 Nissan Motor vehicle position attitude angle estimating device and vehicle position attitude angle estimation method
JP5837902B2 (en) * 2013-08-12 2015-12-24 ヤマハ発動機株式会社 Autonomous traveling vehicle, autonomous traveling vehicle control system, and autonomous traveling vehicle control method
JP5949814B2 (en) * 2014-03-06 2016-07-13 トヨタ自動車株式会社 Autonomous mobile robot and control method thereof
WO2015141445A1 (en) * 2014-03-19 2015-09-24 株式会社日立産機システム Mobile object
JP2016024766A (en) * 2014-07-24 2016-02-08 日本精工株式会社 Robot for guidance
WO2017038012A1 (en) * 2015-08-28 2017-03-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Mapping method, localization method, robot system, and robot
JP6849330B2 (en) * 2015-08-28 2021-03-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Map generation method, self-position estimation method, robot system, and robot
JP6642026B2 (en) * 2016-01-20 2020-02-05 株式会社豊田自動織機 Autonomous mobile control device
CN107589749B (en) * 2017-09-19 2019-09-17 浙江大学 Underwater robot autonomous positioning and node map construction method
CN107741745B (en) * 2017-09-19 2019-10-22 浙江大学 A method of realizing mobile robot autonomous positioning and map structuring
WO2019202806A1 (en) * 2018-04-20 2019-10-24 本田技研工業株式会社 Self-location estimation method
JP2021081850A (en) * 2019-11-15 2021-05-27 株式会社東芝 Location estimation device, location estimation method, and program
JP7458003B2 (en) 2020-08-25 2024-03-29 パナソニックIpマネジメント株式会社 Self-position estimation accuracy evaluation method and self-position estimation accuracy evaluation device
JP2022124817A (en) * 2021-02-16 2022-08-26 三菱ロジスネクスト株式会社 Moving vehicle control method, moving vehicle, and program
WO2023037539A1 (en) * 2021-09-13 2023-03-16 日本電気株式会社 Control system, information processing device, control method, and control value generation method
CN114326740B (en) * 2021-12-30 2023-06-27 杭州海康机器人股份有限公司 Collaborative handling processing method, device, electronic equipment and system
KR20240027473A (en) * 2022-08-23 2024-03-04 삼성전자주식회사 Robot device for identifying movement path using reliability value and and control method thereof

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009217333A (en) * 2008-03-07 2009-09-24 Toyota Motor Corp Mobile robot and operation control method thereof
JP2010176283A (en) * 2009-01-28 2010-08-12 Panasonic Electric Works Co Ltd Autonomous mobile device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190096364A (en) * 2016-12-09 2019-08-19 디버세이, 인크 Robot cleaning device to change the operating speed based on the environment
KR102490996B1 (en) * 2016-12-09 2023-01-25 디버세이, 인크 A robotic cleaning device that changes its operating speed based on the environment
JP7459733B2 (en) 2020-09-08 2024-04-02 株式会社豊田自動織機 Self-location estimation device

Also Published As

Publication number Publication date
JPWO2013002067A1 (en) 2015-02-23
WO2013002067A1 (en) 2013-01-03

Similar Documents

Publication Publication Date Title
JP5909486B2 (en) Self-position / posture estimation system
EP3168705B1 (en) Domestic robotic system
JP4852753B2 (en) Autonomous mobile robot with learning function
US9229450B2 (en) Autonomous movement system
JP6132659B2 (en) Ambient environment recognition device, autonomous mobile system using the same, and ambient environment recognition method
US8793069B2 (en) Object recognition system for autonomous mobile body
KR100811886B1 (en) Autonomous mobile robot capable of detouring obstacle and method thereof
WO2013027803A1 (en) Autonomous driving control system for vehicle
US9434074B2 (en) Autonomous running control method and device of autonomous running apparatus, and program for autonomous running control device
JP5247494B2 (en) Autonomous mobile device
JPWO2019026761A1 (en) Mobile and computer programs
WO2019187816A1 (en) Mobile body and mobile body system
TWI772743B (en) Information processing device and mobile robot
WO2019054209A1 (en) Map creation system and map creation device
CN111065981A (en) Moving body and moving body system
JP6187499B2 (en) Self-localization method for autonomous mobile robot, autonomous mobile robot, and landmark for self-localization
JP2019175137A (en) Mobile body and mobile body system
WO2019194079A1 (en) Position estimation system, moving body comprising said position estimation system, and computer program
KR102564663B1 (en) Coordinates recognition apparatus of automatic guided vehicle and method thereof
Papa et al. DIFFERENT SAFETY CERTIFIABLE CONCEPTS FOR MOBILE ROBOTS IN INDUSTRIAL ENVIRONMENTS.
JP2019175136A (en) Mobile body
JP2019079171A (en) Movable body
JP2013250795A (en) Movable body guiding device and movable body guiding method
Hess et al. Simultaneous calibration of odometry and external sensors of omnidirectional automated guided vehicles (AGVs)
Vasiljevic et al. Multi-layer mapping-based autonomous forklift localization in an industrial environment

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160328

R150 Certificate of patent or registration of utility model

Ref document number: 5909486

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150