JP5276931B2 - Method for recovering from moving object and position estimation error state of moving object - Google Patents

Method for recovering from moving object and position estimation error state of moving object Download PDF

Info

Publication number
JP5276931B2
JP5276931B2 JP2008227744A JP2008227744A JP5276931B2 JP 5276931 B2 JP5276931 B2 JP 5276931B2 JP 2008227744 A JP2008227744 A JP 2008227744A JP 2008227744 A JP2008227744 A JP 2008227744A JP 5276931 B2 JP5276931 B2 JP 5276931B2
Authority
JP
Japan
Prior art keywords
moving body
map
posture
estimated
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008227744A
Other languages
Japanese (ja)
Other versions
JP2010061484A (en
Inventor
高斉 松本
俊夫 守屋
良三 正木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Industrial Equipment Systems Co Ltd
Original Assignee
Hitachi Industrial Equipment Systems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Industrial Equipment Systems Co Ltd filed Critical Hitachi Industrial Equipment Systems Co Ltd
Priority to JP2008227744A priority Critical patent/JP5276931B2/en
Publication of JP2010061484A publication Critical patent/JP2010061484A/en
Application granted granted Critical
Publication of JP5276931B2 publication Critical patent/JP5276931B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To construct a mobile object capable of recovering to a state in which a position prediction is enabled by itself when run into the state where the position prediction error occurs. <P>SOLUTION: Using an environmental map and moving information of a vehicle body, sensor data, to be captured when actually measured by the sensor, is predicted, by comparing the sensor data by this prediction and the sensor data by the actual measurement, when the position prediction error is determined to have occurred, turning on the spot is executed, by predicting the position using the sensor data and the map captured in the state where the sensor is not shielded after the turning, the position prediction is recovered from the error state. <P>COPYRIGHT: (C)2010,JPO&amp;INPIT

Description

本発明は、位置推定誤りの状態に陥った際に、自身で位置推定可能な状態に復帰する移動体およびその位置推定誤り状態からの復帰方法に関する。   The present invention relates to a moving body that returns to a state in which position estimation can be performed by itself when it falls into a position estimation error state and a method for returning from the position estimation error state.

特許文献1では、位置推定誤り状態に陥った場合に、環境に設置されたRFIDタグを読み取り、予め登録しておいたRFIDタグのIDと位置とを関連付けの情報を用いておよその位置を認識し、さらに周辺のランドマークをステレオカメラで認識することによって、位置推定誤りの状態から位置推定が可能な状態に復帰するロボットが提案されている。   In Patent Document 1, when a position estimation error occurs, an RFID tag installed in the environment is read, and an approximate position is recognized using information relating the ID and position of the RFID tag registered in advance. Furthermore, a robot that returns to a state in which position estimation is possible from a position estimation error state by recognizing surrounding landmarks with a stereo camera has been proposed.

特開2007−249735号公報JP 2007-249735 A

特許文献1の手法は、環境中に多数のRFIDタグを予め設置し、また、その座標を計測するコストが必要となる。   The method of Patent Document 1 requires a large number of RFID tags installed in the environment in advance and the cost of measuring their coordinates.

本発明の目的は、RFIDタグの設置など無しに、移動体を位置推定誤り状態から位置推定可能な状態に復帰させることが可能な装置および方法を提供することである。   An object of the present invention is to provide an apparatus and a method capable of returning a mobile object from a position estimation error state to a state in which position estimation can be performed without installing an RFID tag.

本発明は、移動体によって、位置推定誤りが検出された際には、移動体にその場で旋回させ、旋回後にセンサを用いた環境の計測を行わせ、この計測によって得られるセンサデータと地図を用いての位置推定を行わせることで、移動体を位置推定誤り状態から位置推定可能な状態に復帰させる。   In the present invention, when a position estimation error is detected by a mobile body, the mobile body is swung on the spot, and the environment using the sensor is measured after the turn. By performing the position estimation using, the mobile body is returned from the position estimation error state to a position estimation possible state.

本発明は、位置推定誤りが検出された場合には、その場で旋回する。   The present invention turns on the spot when a position estimation error is detected.

本発明は、位置推定に誤りがあると判定された場合には、位置推定に誤りが生じる前の推定位置と地図の情報を用いて、センサから周囲の環境に存在する障害物までの距離が大きくなる方向に、その場で旋回する。   In the present invention, when it is determined that there is an error in position estimation, the distance from the sensor to an obstacle existing in the surrounding environment is calculated using the estimated position and the map information before the position estimation error occurs. Turn on the spot in the direction of increasing.

本発明は、マッチング処理結果が予め定めた範囲内でない場合に、前回のタイミングで推定された移動体の地図上での位置および姿勢から今回の移動体の位置および姿勢を推定し、今回の計測結果が今回の移動体の位置および姿勢にて得られたものとして、計測結果と地図との差分をとることによって両者で一致しない領域を検出し、一致しない領域の領域間の距離に基づいてクラスタリング処理を行い、求めたクラスタのうち最大のクラスタの姿勢をセンサのセンシング範囲に含まれない姿勢として検出し、前記センサのセンシング範囲に含まれない姿勢のうち、今回の移動体の位置および姿勢にて旋回した場合に得られるセンサデータのシミュレーションに基づいて移動体から環境に存在する障害物までの距離が大きいセンサデータが得られるときの姿勢を旋回後の移動体の姿勢として検出する。   The present invention estimates the position and orientation of the current moving body from the position and posture on the map of the moving body estimated at the previous timing when the matching processing result is not within a predetermined range, and measures this time Assuming that the results were obtained from the position and orientation of the moving body this time, the difference between the measurement results and the map is detected to detect areas that do not match, and clustering based on the distance between the areas of the areas that do not match Process to detect the posture of the largest cluster among the obtained clusters as a posture that is not included in the sensing range of the sensor, and out of the postures that are not included in the sensing range of the sensor, Based on a simulation of sensor data obtained when the vehicle turns, sensor data with a large distance from the moving object to the obstacle present in the environment is obtained. Posture detected as posture of the moving body after pivoting of when.

本発明により、RFIDタグのように、位置推定誤りからの復帰を補助する機器を環境中に予め設置すること無しに、位置推定誤り状態にある移動体を位置推定可能な状態に復帰させることが可能となる。   According to the present invention, it is possible to return a mobile object in a position estimation error state to a position capable of position estimation without previously installing in the environment a device that assists recovery from a position estimation error, such as an RFID tag. It becomes possible.

ここでは、センサによる計測が遮られることによって、位置推定誤りが生じても、自ら位置推定が可能な状態に復帰して、自律移動を行う移動体の実施例について述べる。   Here, an embodiment of a moving body that returns to a state in which position estimation can be performed by itself even if a position estimation error occurs due to interruption of measurement by the sensor and performs autonomous movement will be described.

本実施例で用いる移動体の構成を図1に示す。移動体1001は、プロセッサ1002、メモリ1003、キーボード1004、ビデオカード1005、ディスプレイ1006、通信線1007、レーザー距離センサ1008、移動機構1009、エンコーダ1010、カメラ1011、記憶装置1012から構成される。本実施例では、移動機構として、2つの駆動輪とキャスターを備え、駆動輪の回転角速度と回転方向を制御することで、移動体のその場での旋回を可能とする移動機構を想定しているが、同様の効果が得られるのであれば、無限軌道や脚、船舶、航空機、各種ロボットなど、移動機構の形態は問わない。また、本実施例では、環境の幾何形状を計測するセンサとして、水平方向にレーザーを走査しながら、照射したレーザー光が障害物から反射して戻る時間の計測によって障害物までの距離を算出し、2次元水平面における物体の幾何形状を計測するレーザー距離センサを想定している。しかし、この他のセンサとして、例えば、水平方向以外も走査することで物体の3次元の幾何形状を計測するレーザー距離センサ、画像特徴の三角測量によって物体の3次元の幾何形状を計測するステレオカメラ、あるいは、同様に幾何形状の計測が可能な超音波センサなど、幾何形状が計測可能であればそのセンサの形態は問わない。また、本実施例では、それぞれの構成要素が有線の通信線にて接続されていることを想定しているが、通信が可能であれば無線であってもよい。また、本実施例における移動体の構成要素のうち、特定の要素のみが物理的に遠隔にあってもよい。センサによるセンシング範囲は、移動体の周囲360°ではなく、限られた角度(例えば、180°)であってもよい。   The structure of the moving body used in this embodiment is shown in FIG. The moving body 1001 includes a processor 1002, a memory 1003, a keyboard 1004, a video card 1005, a display 1006, a communication line 1007, a laser distance sensor 1008, a moving mechanism 1009, an encoder 1010, a camera 1011, and a storage device 1012. In this embodiment, the moving mechanism is assumed to be a moving mechanism that includes two drive wheels and casters, and that allows the mobile body to turn on the spot by controlling the rotational angular velocity and direction of rotation of the drive wheels. However, as long as the same effect can be obtained, the form of the moving mechanism such as an endless track, a leg, a ship, an aircraft, and various robots is not limited. In this embodiment, as a sensor for measuring the geometric shape of the environment, the distance to the obstacle is calculated by measuring the time when the irradiated laser light is reflected and returned from the obstacle while scanning the laser in the horizontal direction. Suppose a laser distance sensor that measures the geometric shape of an object in a two-dimensional horizontal plane. However, as other sensors, for example, a laser distance sensor that measures a three-dimensional geometric shape of an object by scanning other than in the horizontal direction, and a stereo camera that measures the three-dimensional geometric shape of an object by triangulation of image features Alternatively, the form of the sensor is not limited as long as the geometric shape can be measured, such as an ultrasonic sensor capable of measuring the geometric shape. In this embodiment, it is assumed that each component is connected by a wired communication line, but may be wireless as long as communication is possible. In addition, only specific elements may be physically remote among the components of the moving body in the present embodiment. The sensing range by the sensor may be a limited angle (for example, 180 °) instead of 360 ° around the moving body.

記憶装置1012には、OS1013、全体制御部1014、レーザー距離センサ1008を用いて幾何データを取得するレーザー距離センサ値取得部1015、移動機構に取り付けられたエンコーダ1010による車輪の回転データを取得するエンコーダ値取得部1016、経路追従や旋回動作のための車輪の回転制御を行う移動機構制御部1017、ある時刻における車輪の回転速度より次の時刻に到達する移動体の位置と姿勢(向き)を推定する到達予定位置推定部1018、レーザー距離センサ1008による幾何データを用いて移動体の位置と姿勢を求める現在位置推定部1019、現在の位置・姿勢と地図とを用いることで目的地までの経路を算出する経路計画部1020、センサが人などによって遮られて位置推定誤りが生じているかどうかを判定する位置推定誤り判定部1021、位置推定結果を用いて環境の地図を更新する地図更新部1023、ビデオカード1005を介して地図や移動体の位置の画像をディスプレイ1006に表示する表示部1024、位置推定に用いる地図データ1025が格納されている。なお、本実施例では、プロセッサ1002が、記憶装置1012のプログラムをメモリ1003にロードして処理として実行することを想定しているが、これと同等の働きをするのであれば、FPGA(Field Programmable Grid Array)やCPLD(Complex Programmable Logic Device)などのプログラマブルなハードウェアで実現してもよい。また、前述のプログラムやデータは、CD-ROM等の記憶媒体から移してもよいし、ネットワーク経由で他の装置からダウンロードしてもよい。また、以上のハードウェアやソフトウェアは、実施形態に応じて、取捨選択してもよい。   The storage device 1012 includes an OS 1013, an overall control unit 1014, a laser distance sensor value acquisition unit 1015 that acquires geometric data using a laser distance sensor 1008, and an encoder that acquires wheel rotation data by an encoder 1010 attached to the moving mechanism. A value acquisition unit 1016, a moving mechanism control unit 1017 that performs wheel rotation control for path following and turning operations, and estimates the position and orientation (orientation) of a moving body that reaches the next time from the rotation speed of the wheel at a certain time. The estimated arrival position estimation unit 1018, the current position estimation unit 1019 that obtains the position and orientation of the moving object using the geometric data by the laser distance sensor 1008, and the route to the destination by using the current position / orientation and map. Route planning unit 1020 to calculate, sensor is obstructed by people etc. and position estimation error occurs A position estimation error determination unit 1021 for determining whether there is a map, a map update unit 1023 for updating a map of the environment using the position estimation result, and a display for displaying an image of a map or a position of a moving object on the display 1006 via a video card 1005 A part 1024 and map data 1025 used for position estimation are stored. In the present embodiment, it is assumed that the processor 1002 loads the program in the storage device 1012 into the memory 1003 and executes it as a process. However, if the processor 1002 performs an equivalent function, an FPGA (Field Programmable) is used. You may implement | achieve by programmable hardware, such as Grid Array) and CPLD (Complex Programmable Logic Device). Further, the above-described program and data may be transferred from a storage medium such as a CD-ROM, or may be downloaded from another device via a network. The above hardware and software may be selected according to the embodiment.

以上のような構成の移動体が、環境内を自律移動するものとする。図2は、移動体が移動する環境とその移動経路を示す図である。移動体2009は、レーザー距離センサ2010を用いて、周辺の棚や壁などの障害物2001を計測して位置推定を行い、初期位置2009から目的地2002までの自律移動を行うものとする。この移動の際に、環境中に居合わせた人間2003によって、移動体のレーザー距離センサ2010による計測が遮られ、位置推定に誤りが生じた場合に、位置推定が可能な状態に復帰し、自律移動を続ける際に移動体2009が行う一連の処理を図3に示す。   It is assumed that the moving body configured as described above autonomously moves in the environment. FIG. 2 is a diagram illustrating an environment in which a moving body moves and a moving route thereof. The moving body 2009 uses the laser distance sensor 2010 to measure obstacles 2001 such as peripheral shelves and walls, perform position estimation, and autonomously move from the initial position 2009 to the destination 2002. During this movement, if the human 2003 that is present in the environment interrupts the measurement of the moving object by the laser distance sensor 2010 and an error occurs in the position estimation, it returns to a state in which position estimation is possible, and autonomous movement FIG. 3 shows a series of processes performed by the moving body 2009 when continuing.

キーボード1004からの入力によりプログラムが開始されると(3001)、まず、プログラム全体の処理を統括する全体制御部1014によって、地図データ1024が読み込まれる(3002)。この地図データ1024は、図4の4001のように、環境の幾何形状を表すものとなっている。   When a program is started by an input from the keyboard 1004 (3001), first, map data 1024 is read by an overall control unit 1014 that supervises processing of the entire program (3002). The map data 1024 represents the geometric shape of the environment as indicated by reference numeral 4001 in FIG.

続いて、レーザー距離センサ制御部1015により、初期位置2011におけるレーザー距離センサデータの取得が行われる(3003)。レーザー距離センサデータには、レーザーを走査した際に、レーザースポット光が障害物に当たった点の座標が記録されている。例えば、位置2004でレーザーの走査2014を行ったとするとスポット光の反射した点群2013のセンサ座標系における座標値が得られる。   Subsequently, the laser distance sensor control unit 1015 acquires the laser distance sensor data at the initial position 2011 (3003). In the laser distance sensor data, coordinates of a point where the laser spot light hits an obstacle when the laser is scanned are recorded. For example, if the laser scanning 2014 is performed at the position 2004, the coordinate value in the sensor coordinate system of the point group 2013 reflected by the spot light is obtained.

移動体2009は、初期位置2011でのレーザー距離センサデータを地図データ4001にマッチングすることによって、自身の初期位置2011の推定を行う(3004)。ここでのマッチングとは、レーザー距離センサデータと地図データ4001の幾何的な特徴が最もよく重なる位置と姿勢を算出することを指す。本実施例では、マッチングの手法として、ICP(Iterative Closest Point)の利用を想定するが、同様の効果が得られるならばマッチングの手法は問わない。このマッチングにより、初期位置2011における移動体2009の位置・姿勢が算出される。この移動体の位置と姿勢の算出を、以下では単に位置推定と呼ぶ。なお、本実施例での位置推定としては、2次元の位置推定を想定しているが、3次元計測が可能なセンサによるデータを用いて3次元での位置推定を行い、これを位置推定値として用いてもよい。   The moving body 2009 estimates its own initial position 2011 by matching the laser distance sensor data at the initial position 2011 with the map data 4001 (3004). Matching here refers to calculating the position and orientation at which the geometric features of the laser distance sensor data and the map data 4001 best overlap. In this embodiment, it is assumed that ICP (Iterative Closest Point) is used as a matching method, but any matching method can be used as long as the same effect can be obtained. By this matching, the position / posture of the moving body 2009 at the initial position 2011 is calculated. This calculation of the position and orientation of the moving body is hereinafter simply referred to as position estimation. In addition, although the two-dimensional position estimation is assumed as the position estimation in the present embodiment, the three-dimensional position estimation is performed using data from a sensor capable of three-dimensional measurement, and the position estimation value is obtained. It may be used as

続いて、求めた初期位置2011と地図データ4001を用いて、目的地2002までの経路計画を行う(3005)。この時点では、人間2003は環境内にいない状況であり、経路2008が求められたものとする。   Subsequently, a route plan to the destination 2002 is performed using the obtained initial position 2011 and map data 4001 (3005). At this time, it is assumed that the human 2003 is not in the environment and the path 2008 is obtained.

経路2008に沿って移動するため、移動体2009は、移動機構制御部1015によって、車輪を回転制御して、移動する(3006)。このときの移動機構の制御情報をもとに、移動体は、レーザー距離センサデータを次回取得する際に自身が到達する位置と姿勢を推定する(3007)。以下では、この移動体の到達予定の位置と姿勢を合わせて、単に到達予定位置と呼ぶ。   In order to move along the path 2008, the moving body 2009 moves by moving the wheel by the moving mechanism control unit 1015 (3006). Based on the control information of the moving mechanism at this time, the moving body estimates the position and posture that the moving body will reach when the laser distance sensor data is acquired next time (3007). Hereinafter, the position and posture of the moving body that are scheduled to reach are combined and simply referred to as the scheduled position of arrival.

次に、推定した到達予定位置と地図データ4001から、到達予定位置において移動体がレーザー距離センサによる計測を行った場合に得られるセンサデータを算出する(3008)。   Next, sensor data obtained when the moving body performs measurement by the laser distance sensor at the estimated arrival position from the estimated arrival position and map data 4001 are calculated (3008).

次に、移動体2009が移動して実際に到達した位置にて、レーザー距離センサ2010による計測を行う(3009)。このとき、移動機構に取り付けられたエンコーダ1010での計測にもとづくオドメトリデータもレーザー距離センサデータと同時に取得される。オドメトリとは、車輪移動機構を備える移動体やロボットにおいて、左右の車輪の回転速度から、移動体の並進速度と移動体本体の角速度を求め、 それを積分しロボットの位置と姿勢を求める方法である。なお、ここでのオドメトリは、移動体の初期値からの絶対位置・姿勢ではなく、前回レーザー距離センサデータを用いて位置推定を行ったときからの移動量(相対的な位置・姿勢)をさすものとする。   Next, measurement by the laser distance sensor 2010 is performed at the position where the moving body 2009 has moved and actually reached (3009). At this time, odometry data based on measurement by the encoder 1010 attached to the moving mechanism is also acquired simultaneously with the laser distance sensor data. Odometry is a method of calculating the translation speed of the moving body and the angular velocity of the moving body from the rotational speeds of the left and right wheels in a moving body or robot equipped with a wheel moving mechanism, and integrating them to determine the position and orientation of the robot. is there. The odometry here is not the absolute position / posture from the initial value of the moving body, but the amount of movement (relative position / posture) from the previous position estimation using the laser distance sensor data. Shall.

次に、移動体のセンサが人などに遮蔽されるなどして位置推定誤りが生じているかどうかの判定を行う(3012)。この判定は、処理3008によって算出した到達予定位置におけるレーザー距離センサデータと、処理3009によって実際の到達位置で取得したレーザー距離センサデータのマッチングによって行われる。マッチングの手法は問わないが、ここでは、前述のICPを用いてマッチングを行うことを想定する。ICPを用いたマッチングにより、幾何的特徴が最も重なり合うときのセンサデータの相対位置と姿勢とマッチング評価値が得られる。ここでのマッチング評価値とは、センサデータ同士の幾何的特徴の重なり合いの程度を表す値である。ここでは、ICPで定義されるところの最近傍の点群の点間距離の総和をマッチング評価値とし、評価値が小さいほどマッチングがよいとみなす。今、人間2003によってセンサが遮蔽された状態で、移動体が位置2004で、環境を実測することで得られるセンサデータ5002と、処理3009で予測したセンサデータ5001があるとき、ICPを用いたマッチング5003によって、マッチング結果5004が得られる。このマッチングにより、センサデータ同士が重なってない部分がどの程度かを示す量として、マッチング評価値が得られる。このマッチング評価値が予め設定した閾値よりも小さい(位置推定誤りがない範囲内)場合は、位置推定誤りが生じていないものと判定して、位置推定処理3013に処理を進め、閾値よりも大きい(位置推定誤りがない範囲外)場合は位置推定誤りが生じているものと判定して、復帰動作3018に処理を進める(3011)。閾値よりも大きい場合は移動体の移動を停止してから復帰動作3018の処理を行ってもよい。   Next, it is determined whether or not a position estimation error has occurred due to the mobile body sensor being shielded by a person or the like (3012). This determination is performed by matching the laser distance sensor data at the planned arrival position calculated by the process 3008 with the laser distance sensor data acquired at the actual arrival position by the process 3009. The matching method is not limited, but here it is assumed that matching is performed using the above-described ICP. By matching using ICP, the relative position and orientation of the sensor data and the matching evaluation value when the geometric features overlap most are obtained. Here, the matching evaluation value is a value representing the degree of overlapping of geometric features between sensor data. Here, the sum of the distances between points in the nearest point group defined by ICP is used as the matching evaluation value, and the smaller the evaluation value, the better the matching. Now, when there is sensor data 5002 obtained by actually measuring the environment with the moving body at the position 2004 while the sensor is shielded by the human 2003 and the sensor data 5001 predicted by the processing 3009, matching using ICP By 5003, a matching result 5004 is obtained. By this matching, a matching evaluation value is obtained as an amount indicating how much the sensor data does not overlap. If this matching evaluation value is smaller than a preset threshold value (within a range where there is no position estimation error), it is determined that no position estimation error has occurred, and the process proceeds to position estimation processing 3013, which is larger than the threshold value. If it is outside the range where there is no position estimation error, it is determined that a position estimation error has occurred, and the process proceeds to a return operation 3018 (3011). When it is larger than the threshold value, the return operation 3018 may be performed after the movement of the moving body is stopped.

まず、処理3011で、マッチング評価値が閾値より小さいと判定された場合に行われる位置推定3012について述べる。ここでは、初期位置の推定3004と同様にレーザー距離センサデータと地図データ4001とのマッチングが行われ、移動体の位置・姿勢が求められる(3013)。また、この移動体の位置・姿勢にレーザー距離センサデータを座標変換、すなわちセンサ座標系のデータを地図の座標系に変換し、地図データ4001に書き込むことで、地図の更新を行う(3014)。更新した地図と移動体の位置、計画した経路、目的地などは、表示部1024により画像として生成され、ビデオカード1008を介してディスプレイ1009に表示される。続いて、移動体の位置より、目的地に移動体が到着したかどうかの判定がなされ(3015)、到着と判定されればプログラムは終了となり(3016)、到着していないと判定されれば、現在位置から目的地までの経路計画が行われ(3005)、目的地に到着するまでの間、移動が繰り返される。   First, the position estimation 3012 performed when it is determined in the process 3011 that the matching evaluation value is smaller than the threshold will be described. Here, as with the initial position estimation 3004, matching between the laser distance sensor data and the map data 4001 is performed, and the position / orientation of the moving object is obtained (3013). Further, the laser distance sensor data is coordinate-converted to the position / orientation of the moving body, that is, the map is updated by converting the sensor coordinate system data into the map coordinate system and writing it into the map data 4001 (3014). The updated map, the position of the moving object, the planned route, the destination, and the like are generated as images by the display unit 1024 and displayed on the display 1009 via the video card 1008. Subsequently, it is determined whether the mobile object has arrived at the destination from the position of the mobile object (3015). If it is determined that the mobile object has arrived, the program ends (3016). A route plan from the current position to the destination is performed (3005), and the movement is repeated until the destination is reached.

次に、処理3011で、マッチング評価値が閾値より大きいと判定された場合、すなわち位置推定に誤りが生じていると判定された場合に、移動体が位置推定可能な状態に復帰するために行う処理3017について述べる。処理3017は、復帰動作計画部1022によって行われる。以下では、その一連の処理について述べる。マッチング評価値が閾値より大きい場合、ここでは、センサが人などの地図にない障害物によって遮蔽されるなどして、位置推定誤りが生じていると判定し、この位置推定誤り状態から位置推定可能な状態へと復帰する動作を行う。このため、まず、周期的なタイミングにおける前回のタイミング(所定時間前)でのレーザー距離センサデータを用いた推定位置に処理3009によるオドメトリデータによる相対移動量を加算することで、オドメトリデータにもとづくおよその現在位置と姿勢を推定する(3018)。続いて、推定された位置・姿勢をもとに、実測のレーザー距離センサデータを地図の座標系に変換し、レーザー距離センサデータから地図と重なり合う部分を引くことにより、差分をとる(つまりセンサデータと地図との不一致箇所を特定する)(3019)。差分は、両者が一致していない位置の座標で表しても良い。続いて、レーザー距離センサデータと地図との差分によって残った領域(つまりセンサデータと地図とが一致していない領域)について、領域間の距離にもとづいたクラスタリングを行う(3020)。クラスタリング手法としては、自己組織化マップやK平均など、何を用いても良い。求めたクラスタのうち、分布が最大のクラスタ、すなわちセンサを遮蔽している人間が存在していると思われる領域がセンシング範囲に入らないように、処理3018で求めた現在位置での旋回と旋回時に得られるレーザー距離センサデータのシミュレーションを行う。シミュレーションによって得られる、旋回時の姿勢と姿勢毎に得られるセンサデータを用い、センサから障害物までの距離の平均値が最大となるときのセンサデータを求め、これに対応する搬送車2009の姿勢2005を求める。処理3018で求められている搬送車の姿勢から、姿勢2005に旋回する際の旋回角度が小さくなる方の旋回方向2006と旋回角度を求め(3021)、この旋回角度と旋回方向となるように車体をその場で旋回させる(3022)。   Next, when it is determined in processing 3011 that the matching evaluation value is larger than the threshold value, that is, when it is determined that there is an error in position estimation, this is performed to return the mobile body to a state in which position estimation is possible. Processing 3017 will be described. Processing 3017 is performed by the return operation planning unit 1022. Hereinafter, the series of processes will be described. If the matching evaluation value is larger than the threshold value, it is determined here that a position estimation error has occurred because the sensor is shielded by an obstacle that is not on the map, such as a person, and the position can be estimated from this position estimation error state. To return to the correct state. For this reason, first, by adding the relative movement amount based on the odometry data in the processing 3009 to the estimated position using the laser distance sensor data at the previous timing (predetermined time) in the periodic timing, the approximate amount based on the odometry data is obtained. Is estimated (3018). Subsequently, based on the estimated position / orientation, the measured laser distance sensor data is converted into a map coordinate system, and the difference is obtained by subtracting the overlapping area with the map from the laser distance sensor data (that is, sensor data). And the map and the map are identified) (3019). The difference may be expressed by coordinates of a position where the two do not match. Subsequently, clustering based on the distance between the regions is performed on the region remaining due to the difference between the laser distance sensor data and the map (that is, the region where the sensor data does not match the map) (3020). As the clustering method, any method such as a self-organizing map or a K-average may be used. Among the obtained clusters, the cluster having the maximum distribution, that is, the turning and turning at the current position obtained in the processing 3018 so that the region where the person who is shielding the sensor is supposed to exist does not enter the sensing range. Simulation of laser distance sensor data that is sometimes obtained. Using the sensor data obtained by simulation and the sensor data obtained for each attitude obtained by simulation, the sensor data when the average value of the distance from the sensor to the obstacle is maximum is obtained, and the attitude of the transport vehicle 2009 corresponding to this is obtained. 2005 is determined. A turning direction 2006 and a turning angle with a smaller turning angle when turning to the posture 2005 are obtained from the posture of the transport vehicle obtained in the processing 3018 (3021), and the vehicle body is set to be the turning angle and the turning direction. Is turned on the spot (3022).

なお、旋回角度が小さくなる方の旋回方向の算出は必須ではない。つまり、時計周りなど旋回方向を予め定めておいてもよい。また、センサを遮蔽している人間が存在していると思われる領域がセンシング範囲に入らないのが好ましいが、人間が存在していると思われる領域がセンシング範囲に入っていても、マッチング評価値が閾値より小さくなる姿勢があればよい。   Note that the calculation of the turning direction with the smaller turning angle is not essential. That is, the turning direction such as clockwise may be determined in advance. In addition, it is preferable that the area where humans who are shielding the sensor are present does not enter the sensing range, but the matching evaluation is performed even if the area where humans are present is within the sensing range. There may be any posture whose value is smaller than the threshold value.

なお、ここでの車体の旋回としては、超信地旋回、信地旋回や車体が円や弧を描くような旋回など、いずれでもよい。旋回後は、センサが人間によって遮られた状態から脱した状態にあることが期待されるため、レーザー距離センサデータをあらためて取得し、そのデータを用いての位置推定を行い、位置推定誤りの状態から復帰する。位置推定誤りから復帰できた場合は、目的地へ移動する一連の処理に戻る。   Note that the turning of the vehicle body here may be any of super turning, believing turning, turning such that the vehicle body draws a circle or an arc, and the like. After turning, the sensor is expected to be out of the state where it was obstructed by humans. Therefore, the laser distance sensor data is obtained again, the position is estimated using that data, and the position estimation error state Return from. If it is possible to recover from the position estimation error, the process returns to a series of processes for moving to the destination.

以上の実施例では、移動体2009のレーザー距離センサ2010によって、センサが遮蔽されていることを検出しているが、レーザー距離センサ以外のセンサとして、例えばカメラ1011により取得される画像から、センサが遮蔽されていることを検出しても良い。   In the above embodiment, the laser distance sensor 2010 of the moving body 2009 detects that the sensor is shielded. However, as a sensor other than the laser distance sensor, for example, the sensor is detected from an image acquired by the camera 1011. You may detect having been shielded.

また、以上の実施例では、位置推定誤りの判定によって、その場での旋回を行うかどうかを決定していたが、電源を切るなどして、位置がまったく不明な移動体が電源が入れられるなどして、センサや車体を駆動できる状態となったときには、位置推定が正しいか誤っているかに関わらず、超信地旋回して得られたデータをもとに、初期位置推定を行ってもよい。   In the above embodiment, it is determined whether or not to turn on the spot by determining the position estimation error. However, the mobile body whose position is completely unknown can be turned on by turning off the power. For example, when it is possible to drive the sensor and the vehicle body, the initial position estimation can be performed based on the data obtained by turning the superstrate regardless of whether the position estimation is correct or incorrect. Good.

また、以上の実施例では、位置推定誤りと判定された場合にのみ、その場での旋回を行っていたが、位置推定誤りの有無に関わらず、環境の複数の地点において旋回するものとして、旋回時に得られるセンサデータ群を1組として、センサの計測範囲を見かけ上広げることで、センサデータの組同士のマッチングの精度を向上とこれに伴う地図作成精度の向上のために旋回を用いてもよい。   Further, in the above embodiment, turning was performed on the spot only when it was determined as a position estimation error, but as a result of turning at a plurality of points in the environment regardless of the presence or absence of a position estimation error, By using the swivel to improve the matching accuracy of the sensor data sets and the accompanying map creation accuracy by apparently expanding the sensor measurement range as one set of sensor data group obtained at the time of turning Also good.

本実施例により、人に囲まれるなどして、位置推定が困難となっても、位置推定が可能な状態に自ら復帰し、自律移動を継続する移動体が実現可能となる。また、位置推定が可能な状態に復帰するために移動体が行う動作は、その場での旋回のみであり、移動を伴わないため、人や物体への衝突なしに、安全に位置推定が可能な状態に復帰できるという効果がある。   According to this embodiment, even if position estimation becomes difficult due to being surrounded by a person or the like, it is possible to realize a mobile body that returns to a state where position estimation is possible and continues autonomous movement. In addition, the movement that the moving body performs to return to a state in which position estimation is possible is only turning on the spot and does not involve movement, so it is possible to safely estimate the position without collision with people or objects There is an effect that it is possible to return to a proper state.

装置の構成を示す図。The figure which shows the structure of an apparatus. 環境と自律移動の様子を示す図。The figure which shows the mode of the environment and autonomous movement. 処理の流れを示す図。The figure which shows the flow of a process. 地図データを示す図。The figure which shows map data. 予測によるセンサデータと実測によるセンサデータのマッチングを示す図。The figure which shows the matching of the sensor data by prediction, and the sensor data by actual measurement.

符号の説明Explanation of symbols

1001…移動体、1002…プロセッサ、1003…メモリ、1004…キーボード、1005…ビデオカード、1006…ディスプレイ、1007…通信線、1008…レーザー距離センサ、1009…移動機構、1010…エンコーダ、1011…カメラ、1012…記憶装置、1013…OS、1014…全体制御部、1015…レーザー距離センサ値取得部、1016…エンコーダ値取得部、1017…移動機構制御部、1018…到達予定位置推定部、1019…現在位置推定部、1020…経路計画部、1021…位置推定誤り判定部、1022…復帰動作計画部、1023…地図更新部、1024…表示部、1025…地図データ   DESCRIPTION OF SYMBOLS 1001 ... Mobile body, 1002 ... Processor, 1003 ... Memory, 1004 ... Keyboard, 1005 ... Video card, 1006 ... Display, 1007 ... Communication line, 1008 ... Laser distance sensor, 1009 ... Moving mechanism, 1010 ... Encoder, 1011 ... Camera, DESCRIPTION OF SYMBOLS 1012 ... Memory | storage device, 1013 ... OS, 1014 ... Overall control part, 1015 ... Laser distance sensor value acquisition part, 1016 ... Encoder value acquisition part, 1017 ... Movement mechanism control part, 1018 ... Expected arrival position estimation part, 1019 ... Current position Estimating unit, 1020 ... route planning unit, 1021 ... position estimation error determining unit, 1022 ... return operation planning unit, 1023 ... map updating unit, 1024 ... display unit, 1025 ... map data

Claims (2)

移動体の周囲の環境を周期的に計測し、その計測結果と予め保持する地図とを比較することにより移動体の前記地図上での位置および姿勢を推定し、その推定結果に基づいて目的地へ移動する移動体において、The environment around the moving object is periodically measured, and the position and orientation of the moving object on the map are estimated by comparing the measurement result with a map stored in advance. Based on the estimated result, the destination In a moving body that moves to
前記計測結果と前記地図とのマッチング処理を行う処理部と、A processing unit for performing a matching process between the measurement result and the map;
前記マッチング処理結果が予め定めた範囲内である場合に、マッチングした前記地図に基づいて前記移動体の前記地図上での位置および姿勢を推定し、前記マッチング処理結果が予め定めた範囲内でない場合に、前回のタイミングで推定された前記移動体の前記地図上での位置および姿勢から今回の移動体の位置および姿勢を推定し、今回の計測結果が前記今回の移動体の位置および姿勢にて得られたものとして、計測結果と地図との差分をとることによって両者で一致しない領域を検出し、一致しない領域の領域間の距離に基づいてクラスタリング処理を行い、求めたクラスタのうち最大のクラスタの姿勢を、センサのセンシング範囲に含まれない姿勢として検出し、前記センサのセンシング範囲に含まれない姿勢のうち、前記今回の移動体の位置および姿勢にて旋回した場合に得られるセンサデータのシミュレーションに基づいて前記移動体から前記環境に存在する障害物までの距離が大きいセンサデータが得られるときの姿勢を旋回後の前記移動体の姿勢として検出する処理部と、When the matching processing result is within a predetermined range, the position and orientation of the moving body on the map are estimated based on the matched map, and the matching processing result is not within the predetermined range In addition, the position and posture of the moving body is estimated from the position and posture of the moving body on the map estimated at the previous timing, and the current measurement result is the position and posture of the moving body. As a result, the difference between the measurement result and the map is detected to detect a region that does not match, and the clustering process is performed based on the distance between the regions that do not match. Are detected as postures that are not included in the sensing range of the sensor, and the current movement of the postures that are not included in the sensing range of the sensor is detected. The moving body after turning the posture when sensor data having a large distance from the moving body to the obstacle existing in the environment is obtained based on the simulation of the sensor data obtained when turning at the position and posture A processing unit that detects the posture of
検出された前記移動体の姿勢へ前記移動体が旋回するように指示する処理部とを備えることを特徴とする移動体。And a processing unit that instructs the mobile body to turn to the detected posture of the mobile body.
移動体の周囲の環境を周期的に計測し、その計測結果と予め保持する地図とを比較することにより移動体の前記地図上での位置および姿勢を推定し、その推定結果に基づいて目的地へ移動する移動体の位置推定誤り状態からの復帰方法において、The environment around the moving object is periodically measured, and the position and orientation of the moving object on the map are estimated by comparing the measurement result with a map stored in advance. Based on the estimated result, the destination In the recovery method from the position estimation error state of the moving body moving to
前記計測結果と前記地図とのマッチング処理を行い、Perform a matching process between the measurement result and the map,
前記マッチング処理結果が予め定めた範囲内である場合に、マッチングした前記地図に基づいて前記移動体の前記地図上での位置および姿勢を推定し、When the result of the matching process is within a predetermined range, the position and orientation of the moving body on the map are estimated based on the matched map,
前記マッチング処理結果が予め定めた範囲内でない場合に、前回のタイミングで推定された前記移動体の前記地図上での位置および姿勢から今回の移動体の位置および姿勢を推定し、今回の計測結果が前記今回の移動体の位置および姿勢にて得られたものとして、計測結果と地図との差分をとることによって両者で一致しない領域を検出し、一致しない領域の領域間の距離に基づいてクラスタリング処理を行い、求めたクラスタのうち最大のクラスタの姿勢をセンサのセンシング範囲に含まれない姿勢として検出し、前記センサのセンシング範囲に含まれない姿勢のうち、前記今回の移動体の位置および姿勢にて旋回した場合に得られるセンサデータのシミュレーションに基づいて前記移動体から前記環境に存在する障害物までの距離が大きいセンサデータが得られるときの姿勢を旋回後の前記移動体の姿勢として検出し、When the matching processing result is not within a predetermined range, the position and posture of the moving body is estimated from the position and posture on the map of the moving body estimated at the previous timing, and the current measurement result Is obtained from the position and orientation of the moving body this time, by taking the difference between the measurement result and the map, a region that does not match is detected, and clustering is performed based on the distance between the regions that do not match Processing, detecting the posture of the largest cluster among the obtained clusters as a posture not included in the sensing range of the sensor, and among the postures not included in the sensing range of the sensor, the position and posture of the current moving body The distance from the moving body to the obstacle present in the environment is large based on the simulation of sensor data obtained when turning at It detected as posture of the moving body posture after turning when the sensor data is obtained,
検出された前記移動体の姿勢へ前記移動体が旋回するように指示することを特徴とする移動体の位置推定誤り状態からの復帰方法。A method for returning from a position estimation error state of a moving body, wherein the moving body is instructed to turn to the detected posture of the moving body.
JP2008227744A 2008-09-05 2008-09-05 Method for recovering from moving object and position estimation error state of moving object Expired - Fee Related JP5276931B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008227744A JP5276931B2 (en) 2008-09-05 2008-09-05 Method for recovering from moving object and position estimation error state of moving object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008227744A JP5276931B2 (en) 2008-09-05 2008-09-05 Method for recovering from moving object and position estimation error state of moving object

Publications (2)

Publication Number Publication Date
JP2010061484A JP2010061484A (en) 2010-03-18
JP5276931B2 true JP5276931B2 (en) 2013-08-28

Family

ID=42188197

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008227744A Expired - Fee Related JP5276931B2 (en) 2008-09-05 2008-09-05 Method for recovering from moving object and position estimation error state of moving object

Country Status (1)

Country Link
JP (1) JP5276931B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5427662B2 (en) * 2010-03-23 2014-02-26 株式会社日立産機システム Robot system
JP5503419B2 (en) * 2010-06-03 2014-05-28 株式会社日立製作所 Automated guided vehicle and travel control method
JP5429901B2 (en) * 2012-02-08 2014-02-26 富士ソフト株式会社 Robot and information processing apparatus program
JP6052045B2 (en) * 2013-05-01 2016-12-27 村田機械株式会社 Autonomous mobile
SE538868C2 (en) 2015-05-04 2017-01-17 Husqvarna Ab Improved error detection and resetting of a robotic work tool
JP6475191B2 (en) * 2016-05-26 2019-02-27 ベステラ株式会社 Patrol work robot and alarm system using patrol work robot
US10571913B2 (en) * 2016-08-05 2020-02-25 Aptiv Technologies Limited Operation-security system for an automated vehicle
CN110998473A (en) * 2017-09-04 2020-04-10 日本电产株式会社 Position estimation system and mobile body having the same
JP7472468B2 (en) 2019-03-20 2024-04-23 株式会社リコー Illumination devices, projection devices, measuring devices, robots, electronic devices, moving objects, and modeling devices
WO2020230325A1 (en) * 2019-05-16 2020-11-19 三菱電機株式会社 Information processing device, information processing method, and information processing program
JP7350671B2 (en) * 2020-02-25 2023-09-26 三菱重工業株式会社 Position estimation device, control device, industrial vehicle, logistics support system, position estimation method and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2644868B2 (en) * 1988-12-28 1997-08-25 株式会社日立製作所 Mobile environment recognition device
JP3176701B2 (en) * 1992-04-15 2001-06-18 本田技研工業株式会社 Mobile object current position recognition processor
JPH10260724A (en) * 1997-03-19 1998-09-29 Yaskawa Electric Corp Map generating method for passage environment
JP4175165B2 (en) * 2002-04-17 2008-11-05 松下電工株式会社 Autonomous mobile device
JP4279703B2 (en) * 2004-02-24 2009-06-17 パナソニック電工株式会社 Autonomous mobile robot system
KR100834761B1 (en) * 2005-11-23 2008-06-05 삼성전자주식회사 Method and apparatus for reckoning position of moving robot

Also Published As

Publication number Publication date
JP2010061484A (en) 2010-03-18

Similar Documents

Publication Publication Date Title
JP5276931B2 (en) Method for recovering from moving object and position estimation error state of moving object
KR102455845B1 (en) Robot mapping system and method
CN108290294B (en) Mobile robot and control method thereof
US10006772B2 (en) Map production method, mobile robot, and map production system
CN106796434B (en) Map generation method, self-position estimation method, robot system, and robot
CN108051002B (en) Transport vehicle space positioning method and system based on inertial measurement auxiliary vision
US10328575B2 (en) Method for building a map of probability of one of absence and presence of obstacles for an autonomous robot
Lingemann et al. High-speed laser localization for mobile robots
EP2888603B1 (en) Robot positioning system
JP5216690B2 (en) Robot management system, robot management terminal, robot management method and program
US8676429B2 (en) Autonomous mobile device
JP5803367B2 (en) Self-position estimation apparatus, self-position estimation method and program
KR20120046974A (en) Moving robot and simultaneous localization and map-buliding method thereof
JP2009031884A (en) Autonomous mobile body, map information creation method in autonomous mobile body and moving route specification method in autonomous mobile body
CN112740274A (en) System and method for VSLAM scale estimation on robotic devices using optical flow sensors
JP6074205B2 (en) Autonomous mobile
JP2015055974A (en) Three-dimensional object recognition device, three-dimensional object recognition method, and moving body
JP2013020345A (en) Position and posture estimation system for traveling object
JP2009223757A (en) Autonomous mobile body, control system, and self-position estimation method
Tsai et al. Use of ultrasonic sensors to enable wheeled mobile robots to avoid obstacles
CN113158779A (en) Walking method and device and computer storage medium
KR100784125B1 (en) Method for extracting coordinates of landmark of mobile robot with a single camera
JP5427662B2 (en) Robot system
Delibasis et al. Real time indoor robot localization using a stationary fisheye camera
JP6260509B2 (en) robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110606

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130520

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5276931

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees