JP2007249632A - Mobile robot moving autonomously under environment with obstruction, and control method for mobile robot - Google Patents

Mobile robot moving autonomously under environment with obstruction, and control method for mobile robot Download PDF

Info

Publication number
JP2007249632A
JP2007249632A JP2006072459A JP2006072459A JP2007249632A JP 2007249632 A JP2007249632 A JP 2007249632A JP 2006072459 A JP2006072459 A JP 2006072459A JP 2006072459 A JP2006072459 A JP 2006072459A JP 2007249632 A JP2007249632 A JP 2007249632A
Authority
JP
Japan
Prior art keywords
robot
obstacle
mobile robot
route
travel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006072459A
Other languages
Japanese (ja)
Other versions
JP4467534B2 (en
Inventor
Akira Chin
彬 陳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2006072459A priority Critical patent/JP4467534B2/en
Publication of JP2007249632A publication Critical patent/JP2007249632A/en
Application granted granted Critical
Publication of JP4467534B2 publication Critical patent/JP4467534B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To autonomously move while generating the optimum route along a predetermined route while avoiding an obstacle. <P>SOLUTION: A control engine 11 estimates a current position of a robot, based on a travel distance and a travel direction of the robot, and based on a peripheral situation observed by a stereo-vision sensor 40, prepares an integrated map by superposing environmental information stored in advance, with information of the observed obstacle, and transfers the position of the robot and the integrated map to a route planning engine 12. The route planning engine 12 prepares a search graph, selects the optimum path for moving a virtual robot along the predetermined route, while avoiding the obstacle on the integrated map, using a search method of A-star, and transfers a point sequence of through points of the virtual robot to the control engine 11. The control engine 11 controls a travel control system 20 to move the robot along the point sequence. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、与えられた経路に沿って移動する自律移動ロボットに関し、特に、障害物がある環境下において、障害物をよけながら予め定められた経路に沿って自律移動することができる移動ロボットおよびその制御方法に関するものである。   The present invention relates to an autonomous mobile robot that moves along a given route, and in particular, a mobile robot that can move autonomously along a predetermined route while avoiding an obstacle in an environment with an obstacle. And a control method thereof.

従来から、予め設定された走行経路に沿って移動ロボットを移動させるようにした技術が種々提案されている(例えば特許文献1、特許文献2参照)。
例えば、特許文献1には、予定走行経路を示す地点を点列として与え、移動ロボットが自分の位置・姿勢を計測し、上記点列のうちの目標地点と移動ロボットの現在位置との差に基づき、進行方向を決めるようにしたものが記載されている。
一方、障害物のある環境下で、障害物を避ける経路を生成し、障害物を避けながらロボットを移動させるようにした障害物回避経路方式が種々提案されている(例えば特許文献3、特許文献4参照)。
特開平1−280807号公報 特開平8−123547号公報 特開平7−129238号公報 特開平5−250023号公報
Conventionally, various techniques for moving a mobile robot along a preset travel route have been proposed (see, for example, Patent Document 1 and Patent Document 2).
For example, in Patent Document 1, a point indicating a planned travel route is given as a point sequence, the mobile robot measures its own position and orientation, and the difference between the target point in the point sequence and the current position of the mobile robot is calculated. Based on this, the direction of travel is determined.
On the other hand, various obstacle avoidance route methods have been proposed in which a route for avoiding an obstacle is generated in an environment with an obstacle, and the robot is moved while avoiding the obstacle (for example, Patent Document 3 and Patent Document 3). 4).
JP-A-1-280807 JP-A-8-123547 JP 7-129238 A JP-A-5-250023

予め設定された走行経路に沿って移動させる移動ロボットとしては、前記した特許文献1に記載されたものや、与えられた曲線に沿って移動させるようにした曲線追従方式が知られている。これらのうち、前記特許文献1に記載されるように、ロボットの自分の位置・姿勢と次のサブゴールとを比較して進行方向を決めるものでは、必ずしも、安定な制御を行なうことができず、例えば次のサブゴールに到達できない場合には、途中で止まってしまうといった場合も生ずる。また、与えられた曲線に沿って移動させるようにした曲線追従方式は、煩雑な処理を必要とし、組み込み制御システムに応用しにくい。
一方、障害物を回避させながらロボットを移動させ、回避後に経路に復帰させるようにしたものも考えられているが、グローバル的最適な経路を生成するものではなく、複雑な環境下でロボットは極小点に落ち込む可能性が高い。
本発明は、上記事情に鑑みなされたものであって、折線を複数の線分に分解し、ロボットの追従線分の切り替えを制御することにより、情報処理が簡単で、リアルタイム性が高く、折線に沿って滑らかに移動させることでき、さらに、障害物があっても、障害物を回避しながらグローバル的最適な経路を生成して自律的に移動することが可能な移動ロボットおよび移動ロボットの制御方法を提供することである。
As a mobile robot that moves along a preset travel route, those described in Patent Document 1 described above and a curve following method that moves along a given curve are known. Among these, as described in the above-mentioned Patent Document 1, the robot's own position / posture and the next subgoal are determined to determine the direction of travel, and thus stable control cannot always be performed, For example, when the next subgoal cannot be reached, it may stop in the middle. Further, the curve following method that moves along a given curve requires complicated processing and is difficult to apply to an embedded control system.
On the other hand, it is also possible to move the robot while avoiding obstacles and return to the path after avoiding it, but it does not generate a globally optimal path, and the robot is extremely small in a complicated environment. There is a high possibility of falling into a spot.
The present invention has been made in view of the above circumstances, and by disassembling a broken line into a plurality of line segments and controlling switching of the tracking line segments of the robot, information processing is simple, real-time performance is high, and the broken line Mobile robot and mobile robot control that can move smoothly along the path, and even if there is an obstacle, it can generate a globally optimal route and move autonomously while avoiding the obstacle Is to provide a method.

本発明においては、サブコールをつなぐ直線からなる折線を移動経路として移動ロボットに与える。また、環境情報地図と、ステレオビジョンセンサで観測した情報を統合して、固定物の位置や障害物の位置を示す統合マップを作成する。そして、仮想ロボットを、上記統合マップ上で上記障害物を回避させながら、前記予め定められた経路に沿って移動させ、仮想ロボットの通過点を求め、この通過点の点列沿って移動ロボットが移動するように上記走行制御系を制御する。
以上のように、本発明では、以下のようにして前記課題を解決する。
(1)障害物が存在する環境化において、与えられた経路に沿って移動する自律走行制御装置を備えた移動ロボットにおいて、該移動ロボットに、走行制御系と、移動ロボットの周囲の固定物および障害物の相対位置を観測する手段と、経路計画エンジンと、制御エンジンとを設ける。
上記制御エンジンは、移動ロボットの走行距離・走行方向と、上記観測した固定物もしくは障害物の相対位置から現在のロボットの位置を推定し、また、予め格納された移動ロボットの走行領域の固定物の位置を表すグリッドマップと上記観測した障害物の情報とを重ね合わせて統合マップを作成し、現在のロボットの位置と該統合マップを上記経路計画エンジンに渡して経路計画をリクエストする。
経路計画エンジンは、上記リクエストがあったとき、仮想ロボットを、上記統合マップ上で上記障害物を回避させながら、前記予め定められた経路に沿って移動させ、仮想ロボットの通過点を求め、この通過点の点列を上記制御エンジンに渡し、上記制御エンジンは、上記通過点の点列に沿って移動ロボットが移動するように上記走行制御系を制御する。(2)上記(1)において経路計画エンジンは、上記統合マップ上で、前方の障害物との距離を求める仮想的距離センサにより、仮想ロボットと障害物および/または壁との距離を求め、この距離と障害物および/または壁に応じて設定された重みとにより定まる値と、閾値とを比較して、仮想ロボットの前方の開いている自由空間を求め、該自由空間の方向を移動先として仮想ロボットを移動させる。
(3)上記(1)または(2)において、経路計画エンジンは、上記移動先が複数あるとき、各移動先へ移動したときのコストを計算し、最適な移動先を探索する
(4)上記(1)または(2)において、障害物があるときは、障害物を避ける移動経路を探索し、障害物がないときは、設定された経路に従って移動経路探索する。
In the present invention, a broken line composed of straight lines connecting the subcalls is given to the mobile robot as a movement path. Also, the environment information map and the information observed by the stereo vision sensor are integrated to create an integrated map indicating the position of the fixed object and the position of the obstacle. Then, the virtual robot is moved along the predetermined route while avoiding the obstacle on the integrated map, the passing point of the virtual robot is obtained, and the moving robot is moved along the point sequence of the passing points. The travel control system is controlled to move.
As described above, the present invention solves the above-described problem as follows.
(1) In a mobile robot including an autonomous travel control device that moves along a given route in an environment where an obstacle exists, the mobile robot includes a travel control system, a fixed object around the mobile robot, Means for observing the relative position of the obstacle, a path planning engine, and a control engine are provided.
The control engine estimates the current robot position from the travel distance and travel direction of the mobile robot and the relative position of the observed fixed object or obstacle, and also stores the fixed object in the travel area of the mobile robot stored in advance. An integrated map is created by superimposing the grid map representing the position of the obstacle and the observed obstacle information, and the current robot position and the integrated map are passed to the path planning engine to request a path plan.
When the path planning engine receives the request, the path planning engine moves the virtual robot along the predetermined path while avoiding the obstacle on the integrated map to obtain a passing point of the virtual robot. The point sequence of passing points is passed to the control engine, and the control engine controls the traveling control system so that the mobile robot moves along the point sequence of passing points. (2) In the above (1), the path planning engine obtains the distance between the virtual robot and the obstacle and / or the wall by a virtual distance sensor for obtaining the distance from the obstacle in front on the integrated map. A value determined by a distance and a weight set according to an obstacle and / or a wall is compared with a threshold value to obtain an open free space in front of the virtual robot, and the direction of the free space is set as a movement destination. Move the virtual robot.
(3) In the above (1) or (2), when there are a plurality of destinations, the route planning engine calculates a cost when moving to each destination and searches for an optimum destination (4) In (1) or (2), when there is an obstacle, a travel route that avoids the obstacle is searched, and when there is no obstacle, the travel route is searched according to the set route.

本発明においては、以下の効果を得ることができる。
(1)グラフ探索を利用して、障害物を回避させながら、既定の経路に追従してロボットを走行させるようにしたので、複雑な環境下においても、最適な経路の探索が可能となり、経路追従と障害物回避とを統合させてロボットを走行させることができる。
(2)環境情報地図と、ステレオビジョンセンサで観測した情報を統合して、固定物の位置や障害物の位置を把握し、この地図上で仮想ロボットを移動させて、障害物を回避させながら上記折線に沿って移動する経路を求め、この経路を走行制御系に与えてロボットを走行させているので、グローバル的な最適な経路を生成してロボットを走行させることができる。
また、サブゴールの近傍で、仮想ロボットが追従する線分を切り換えるようにしたので、サブゴールの近くでもロボットを滑らかに移動させることができで、サブゴールでロボットが停止してしまうこともない。
(3)従来では、ロボットが自由に移動できる空間に関する情報の取得には、大規模な距離をセンシングする装置が必要であった。また、単純なステレオビジョン計測の場合では、空間情報を欠如するという問題があった。本発明では、環境情報地図と、ステレオビジョンセンサで観測した情報を統合して、固定物の位置や障害物の位置を把握しているので、ロボットが自由に移動できる空間に関する情報を比較的容易に取得することが可能となり、障害物のある環境下においても、障害物を回避させながらロボットを移動させることが可能となる。
In the present invention, the following effects can be obtained.
(1) Since the robot is made to follow the predetermined route while avoiding obstacles using the graph search, the optimum route can be searched even in a complicated environment. The robot can be run by integrating tracking and obstacle avoidance.
(2) By integrating the environment information map and the information observed by the stereo vision sensor, grasp the position of the fixed object and the position of the obstacle, and move the virtual robot on this map to avoid the obstacle Since the route moving along the broken line is obtained and the robot is caused to travel by giving this route to the traveling control system, the robot can be caused to travel by generating a globally optimum route.
In addition, since the line segment that the virtual robot follows is switched near the subgoal, the robot can be smoothly moved near the subgoal, and the robot does not stop at the subgoal.
(3) Conventionally, in order to acquire information related to a space where the robot can move freely, a device for sensing a large distance has been required. Further, in the case of simple stereo vision measurement, there is a problem of lack of spatial information. In the present invention, the environment information map and the information observed by the stereo vision sensor are integrated to grasp the position of the fixed object and the position of the obstacle. Therefore, information on the space where the robot can move freely is relatively easy. Therefore, even in an environment with an obstacle, the robot can be moved while avoiding the obstacle.

図1は本発明の実施例の移動ロボットの制御系の概略構成例を示す図である。
図1に示す移動ロボット(以下単にロボットという)100は4つの車輪101と、これを駆動するモータ102を有し、モータ102にはエンコーダ103が設けられている。エンコーダ103の出力は移動量算出部104に入力され、移動量算出部104で、車輪102の回転量、すなわち、ロボットの移動量を算出する。従って、ロボットの出発位置(初期位置)が与えられれば、上記移動量からロボットの大まかな位置を求めることができる。
また、本実施例のロボット100は、ステレオビジョンセンサ40が設けられ、ステレオビジョンセンサ40により、例えば図2に示すようにロボット100の移動方向の固定物(障害物)との距離a1,a2,a3などを求めることができる。
さらに、ロボット100は、移動する領域の固定物などの位置を事前に記録した環境地図情報を有する。図3はロボット100が有する環境地図情報の一例を示す図であり、同図に示すように、環境地図情報は、例えばロボットの走行領域のグリッドマップであり、壁面などの固定物の位置が記録されている。ここでグリッドマップは、図3に示すように、水平面をある大きさのブロックで分割した平面からなる地図であり、固定物、障害物のあるグリッドには、例えば0以上の値、障害物のないグリッドには、0が与えられている。
したがって、上記グリッドマップ上の固定物の位置と、上記ステレオビジョンセンサ40で観測したロボットの周囲の固定物との距離とを照合することで、ロボットの位置をさらに正確に把握することができる。
FIG. 1 is a diagram showing a schematic configuration example of a control system of a mobile robot according to an embodiment of the present invention.
A mobile robot (hereinafter simply referred to as a robot) 100 shown in FIG. 1 has four wheels 101 and a motor 102 that drives the wheels 101, and the motor 102 is provided with an encoder 103. The output of the encoder 103 is input to the movement amount calculation unit 104, and the movement amount calculation unit 104 calculates the rotation amount of the wheel 102, that is, the movement amount of the robot. Therefore, if the starting position (initial position) of the robot is given, the approximate position of the robot can be obtained from the amount of movement.
Further, the robot 100 according to the present embodiment is provided with a stereo vision sensor 40. The stereo vision sensor 40 allows distances a1, a2, and a distance from the fixed object (obstacle) in the moving direction of the robot 100, for example, as shown in FIG. a3 and the like can be obtained.
Furthermore, the robot 100 has environment map information in which the position of a fixed object or the like in the moving area is recorded in advance. FIG. 3 is a diagram showing an example of the environmental map information that the robot 100 has. As shown in the figure, the environmental map information is, for example, a grid map of the robot travel area, and the position of a fixed object such as a wall surface is recorded. Has been. Here, as shown in FIG. 3, the grid map is a map composed of a plane obtained by dividing a horizontal plane into blocks of a certain size. For a grid with fixed objects and obstacles, for example, a value of 0 or more, No grid is given 0.
Therefore, by comparing the position of the fixed object on the grid map with the distance between the fixed object around the robot observed by the stereo vision sensor 40, the position of the robot can be grasped more accurately.

また、ロボットの走行方向にある障害物の位置は、図4に示すようにグリッドマップ上に反映させる。
すなわち、図4(a)のように新しい環境情報を観測した時に、障害物の位置が記録されたグリッドマップをコピーし、同図(b)に示すように、ロボットのステレオビジョンセンサ40の視野内のデータをクリアする。
ついで、同図(c)に示すように、ステレオビジョンセンサ40で観測して障害物の位置を得て、同図(d)に示すように(b)(c)のデータを統合し、新しい環境情報が書き込まれたグリッドマップを生成する。これにより、ロボットの走行領域の環境情報をグリッドマップで表現することができる。
さらに、上記事前に作られた環境地図情報とステレオビジョンセンサ40で障害物の位置情報を統合して、図5に示すように、経路計画用のグリッドマップを生成する。
すなわち、事前に固定物の位置が記録された環境地図情報と、上記のようにステレオビジョンセンサ40で観測した障害物の位置を示す地図情報を重ね合わせ、統合したグリッドマップを生成する。後述する経路計画においては、この統合グリッドマップを使用して、ロボットの走行方向を選定する。
Further, the position of the obstacle in the traveling direction of the robot is reflected on the grid map as shown in FIG.
That is, when new environmental information is observed as shown in FIG. 4A, the grid map in which the position of the obstacle is recorded is copied, and as shown in FIG. 4B, the field of view of the stereo vision sensor 40 of the robot is displayed. Clear the data inside.
Next, as shown in the figure (c), the position of the obstacle is obtained by observing with the stereo vision sensor 40, and the data of (b) and (c) are integrated as shown in the figure (d). Generate a grid map with environment information. Thereby, the environment information of the traveling region of the robot can be expressed by the grid map.
Furthermore, the environmental map information created in advance and the position information of the obstacle are integrated by the stereo vision sensor 40 to generate a grid map for route planning as shown in FIG.
That is, the environment map information in which the position of the fixed object is recorded in advance and the map information indicating the position of the obstacle observed by the stereo vision sensor 40 as described above are overlapped to generate an integrated grid map. In the route plan to be described later, the traveling direction of the robot is selected using this integrated grid map.

図1に戻り、10は自律走行モジュール、20は走行制御系、30はCPUであり、CPU30から例えば、ロボットの初期位置とロボットのグローバル経路を入力する。
ロボット100に与えられる経路情報は、例えば図6(a)に示すように、ロボットの現在位置から目的地までのパスを、サブゴール(同図の通過点A,B,C…)をつなぐ折線で表したものである。
上記サブゴールをつなぐ折線は、図7に示すように線分1〜線分nに分解されてサブゴールスタックに格納される。
Returning to FIG. 1, 10 is an autonomous travel module, 20 is a travel control system, and 30 is a CPU. The CPU 30 inputs, for example, the initial position of the robot and the global route of the robot.
For example, as shown in FIG. 6A, the path information given to the robot 100 is a broken line that connects the path from the current position of the robot to the destination and connects the subgoals (passing points A, B, C... It is a representation.
The broken line connecting the subgoals is decomposed into line segments 1 to n as shown in FIG. 7 and stored in the subgoal stack.

ロボット100の自律走行モジュール10は、前述したように、ロボットの初期位置からの移動量、ステレオビジョンセンサ40により観測された周囲の固定物との距離、および環境地図情報に基づき、ロボットの現在位置を求める。
そして、障害物がないときには、上記折線とのずれによって、既定経路に復帰するローカルな図6(b)に示すようなパスを生成し、また、図8に示すように経路上に障害物があるとき、この障害物を回避するパスを生成しながら、既定の折線の分解された線分に対して追従するようなグローバル的な最適なパスを生成し、このパスに沿ってロボット100が移動するように、走行制御系20に制御信号を送出する。
走行制御系20は、前記モータ103を駆動してロボットを移動させる。
なお、図1では車輪によってロボットを移動させる場合について示したが、ロボットの走行手段は上記に限られず、その他の走行手段を有するものであってもよい。
As described above, the autonomous running module 10 of the robot 100 determines the current position of the robot based on the movement amount from the initial position of the robot, the distance from the surrounding fixed object observed by the stereo vision sensor 40, and the environmental map information. Ask for.
Then, when there is no obstacle, a local path as shown in FIG. 6B returning to the default route is generated by the deviation from the broken line, and an obstacle is present on the route as shown in FIG. At a certain time, while generating a path that avoids this obstacle, a global optimum path that follows a segment of a predetermined broken line is generated, and the robot 100 moves along this path. Thus, a control signal is sent to the traveling control system 20.
The traveling control system 20 drives the motor 103 to move the robot.
Although FIG. 1 shows the case where the robot is moved by the wheels, the traveling means of the robot is not limited to the above, and may include other traveling means.

図9に、本実施例の自律走行モジュール10のブロック図を示す。同図に示すように、自律走行モジュール10は、制御エンジン11と経路計画エンジン12の2つから構成される。
制御エンジン11は、ロボット位置推定部11aと、経路計画要求部11bと、走行コマンド生成部11cと、統合マップ作成部11dを具備し、環境情報の収集、ロボットの自己位置推定、経路計画エンジンを呼び出し、計画した経路の走行系への送信、及びロボットの追従する線分の切り替えなどを、ロボットが最終ゴールに到達まで繰り返し実行する。
すなわち、ロボット位置推定部11aは、ステレオビジョンセンサ40と、前記移動量算出部104で求めたロボットの大まかな位置を、前述したようにステレオビジョンセンサ40の観測値とグリッドマップ14(図3参照)とに基づき補正して、ロボットの現在位置を推定する。
In FIG. 9, the block diagram of the autonomous running module 10 of a present Example is shown. As shown in the figure, the autonomous traveling module 10 includes two components, a control engine 11 and a route planning engine 12.
The control engine 11 includes a robot position estimation unit 11a, a route plan request unit 11b, a travel command generation unit 11c, and an integrated map creation unit 11d, and collects environmental information, estimates the robot's own position, and uses a route plan engine. Calling, sending the planned route to the traveling system, and switching the line segment that the robot follows are repeatedly executed until the robot reaches the final goal.
That is, the robot position estimation unit 11a determines the approximate position of the robot obtained by the stereo vision sensor 40 and the movement amount calculation unit 104, and the observation value of the stereo vision sensor 40 and the grid map 14 (see FIG. 3). ) And the current position of the robot is estimated.

また、統合マップ作成部11dは、前記図3で説明したように環境地図情報と、ステレオビジョンセンサ40で観測した障害物の位置を示す地図情報を重ね合わせ、統合したグリッドマップを生成する。
一方、前述したようにCPU30からロボットのグローバル移動経路であるサブゴールをつなぐ折線が与えられる。この折線は分解されてサブゴールスタック13に格納されている。
ロボット位置推定部11aは、ロボットの現在位置が上記サブゴールあるいは最終ゴールに達したか判定し、達していなければ上記サブゴールスタック13に格納された追従すべき線分を経路計画エンジン12に渡す。経路計画要求部11bは経路計画エンジン12に対して経路計画を要求する。
Further, the integrated map creating unit 11d generates an integrated grid map by superimposing the environmental map information and the map information indicating the position of the obstacle observed by the stereo vision sensor 40 as described in FIG.
On the other hand, as described above, the CPU 30 gives a broken line that connects the subgoals that are global movement paths of the robot. This broken line is disassembled and stored in the subgoal stack 13.
The robot position estimation unit 11a determines whether the current position of the robot has reached the subgoal or the final goal, and if not, passes the line segment to be followed stored in the subgoal stack 13 to the path planning engine 12. The route plan request unit 11b requests the route plan engine 12 for a route plan.

経路計画エンジン12は、制御エンジン11からの追従すべき折線の情報とロボットの現在姿勢を受信して、仮想的な距離センサを持つ仮想ロボットを、前述した統合したグリッドマップ上で走行させて、経路追跡と障害物回避を統合したグローバル的最適な経路を生成する。
すなわち、障害物の近傍にロボットがいないときは、制御エンジン11からの追従すべき折線の情報とロボットの現在姿勢を受信して、折線を追従するように仮想ロボットを走行させる。
このため仮想ロボットが追従すべき折線を複数線分の追従に分解する。例えば、仮想ロボットがA点からスタートし、追従する折線をABCとする場合、制御は線分をAB、BCに分解し、それぞれの線分に沿って仮想ロボットが走行するように制御する。ただし、後述するように、途中で追従する線分を切り替える。
すなわち、経路計画エンジン12の経路計画部12aは、仮想ロボットの位置と上記追従すべき線分とのエラーに基づき仮想ロボットの速度と角度を決定する。そして、仮想ロボットを上記のように走行させて、仮想ロボットの通過点の点列を求める。
The path planning engine 12 receives the information of the broken line to be followed from the control engine 11 and the current posture of the robot, runs the virtual robot having a virtual distance sensor on the integrated grid map described above, A globally optimal route that combines route tracking and obstacle avoidance is generated.
That is, when there is no robot in the vicinity of the obstacle, information on the broken line to be followed from the control engine 11 and the current posture of the robot are received, and the virtual robot is caused to follow the broken line.
For this reason, the broken line that the virtual robot should follow is decomposed into follow-up of a plurality of line segments. For example, when the virtual robot starts from point A and the following broken line is ABC, control is performed so that the line segment is divided into AB and BC, and the virtual robot travels along each line segment. However, as will be described later, the line segment to follow in the middle is switched.
That is, the path planning unit 12a of the path planning engine 12 determines the speed and angle of the virtual robot based on the error between the position of the virtual robot and the line segment to be followed. Then, the virtual robot is caused to travel as described above to obtain a point sequence of the passing points of the virtual robot.

また、ロボットの近傍に障害物があるときは、障害物をよける行動を探索する。図10(a)に示すように、仮想ロボットは、その胴体の正面に5度刻みで計36個の仮想的距離センサを持ち、これによって、グリッドマップから仮想ロボットと周りの障害物、壁との距離を取得する。そして、障害物の種類に応じた重みと距離の逆数との積を計算する。例えば、壁に対して1.0の重みを使用する。人間に対して0.5を使用する。
これによって、ロボットと各物体との安全な距離を設定する。この値に対して、図10(b)に示すように閾値を設定して、ロボットの前に開いている自由空間を決める。
そして、すべての開いている自由空間を移動先とするが、各選択肢にコストを付けて、グラブとしてつなげていき、このグラフに対してAスターの探索方法(例えば、P. E. Hart, N. J. Nilsson, B. Raphael: A Formal Basis for the Heuristic Determ ination of Minimum Cost Paths, IEEE Transactions on Systems Science and Cybern etics SSC4 (2), pp. 100-107, 1968. 参照)を利用して最適な経路を選択する。Aスターの探索方法は、ノードからリンクから構成されるグラフ探索の一つのアルゴリズムであり、Aスター探索方法を利用することにより、スタートノードからゴールノードまでの累積コストが最小となる経路を決定することができる。
When there is an obstacle near the robot, the robot searches for an action to avoid the obstacle. As shown in FIG. 10 (a), the virtual robot has a total of 36 virtual distance sensors in 5 degree increments in front of its torso, so that the virtual robot and surrounding obstacles, walls and Get the distance. And the product of the weight according to the kind of obstacle and the reciprocal of distance is calculated. For example, use a weight of 1.0 for the wall. Use 0.5 for humans.
Thus, a safe distance between the robot and each object is set. With respect to this value, a threshold is set as shown in FIG. 10B to determine a free space opened in front of the robot.
All open free spaces are the destinations of movement, but each option is costed and connected as a grab. A search method for A star (for example, PE Hart, NJ Nilsson, B) Raphael: A Formal Basis for the Heuristic Determination of Minimum Cost Paths, IEEE Transactions on Systems Science and Cybernetics SSC4 (2), pp. 100-107, 1968. The A star search method is an algorithm for searching a graph composed of nodes and links. By using the A star search method, a route with the minimum accumulated cost from the start node to the goal node is determined. be able to.

図11に上記折線追従と障害物回避を統合させた最適経路の計画方法の概念図を示す。 同図に示すように、障害物がないときは、折線に沿ってロボットは移動する。また、前方に障害物があるときは、障害物を回避する最適な経路を選択して移動する。
例えば、前方に障害物があるノードAにロボットがあるとき、障害物を回避して移動できる選択肢はノードB,Cであるが、ノードB,Cの内、コストが小さいノードBへの経路を選択する。以下同様に、コストが小さくなる経路を選択することにより、障害物を回避する最適な経路を選択する。
経路計画エンジン12は上記のようにして仮想ロボットの移動経路を求め、経路計画として制御エンジン11に渡す。
制御エンジン11の走行コマンド生成部11cは、上記経路計画エンジン12から得た経路計画に基づき、走行制御系を駆動する走行コマンドを生成する。
この走行コマンドに基づき走行制御系20は、前記したようにモータ102を駆動し、ロボット100を移動させる。
ここで、上記各ノードはグリッドマップ上のグリッドに対応しており、隣り合うグリッドはリンクにより結合されている。そして、例えばノードB,Cに対応するグリッドは、ノードAに対応するグリッドから見て、障害物を回避して移動可能なノードAに対応するグリッドに隣接するグリッドである。
あるグリッド上にいるロボットが隣のグリッド上に移動するとき、コストが発生する。このコストとしては、例えば、障害物に接近して生じる危険の度合い、ゴールとの距離、旋回角度の大きさ、目標地点への旋回角度である。
FIG. 11 is a conceptual diagram of an optimal route planning method in which the broken line tracking and obstacle avoidance are integrated. As shown in the figure, when there is no obstacle, the robot moves along the broken line. When there is an obstacle ahead, the optimum route that avoids the obstacle is selected and moved.
For example, when there is a robot at node A that has an obstacle ahead, the options for moving around the obstacle are nodes B and C. Among the nodes B and C, the route to the node B with the lower cost is selected. select. Similarly, an optimum route that avoids an obstacle is selected by selecting a route that reduces the cost.
The route planning engine 12 obtains the moving route of the virtual robot as described above and passes it to the control engine 11 as a route plan.
The travel command generator 11 c of the control engine 11 generates a travel command for driving the travel control system based on the route plan obtained from the route plan engine 12.
Based on this travel command, the travel control system 20 drives the motor 102 and moves the robot 100 as described above.
Here, each of the nodes corresponds to a grid on the grid map, and adjacent grids are connected by links. For example, the grids corresponding to the nodes B and C are adjacent to the grid corresponding to the node A that can move while avoiding the obstacle as viewed from the grid corresponding to the node A.
A cost is incurred when a robot on one grid moves to the next grid. This cost includes, for example, the degree of danger caused by approaching an obstacle, the distance from the goal, the magnitude of the turning angle, and the turning angle to the target point.

図12は、上記制御エンジン11における処理内容を示すフローチャートである。
同図に示すように、制御エンジン11は、ロボットの現在位置Pを読み込み、現在位置Pが最終ゴールに達したかを判定する(ステップS1,S2)。
ロボットの位置が最終ゴールに達した場合は、処理を終了する。
また、最終ゴールに達していない場合は、前記したように、ステレオビジョンセンサ40で観測した周囲の状況とグリッドマップ14を重ね合わせて、現在位置を推定して補正量ΔPを求め、移動量算出部104で推定したロボットの現在位置Pを補正量ΔPで補正する(ステップS3)。また、前記図5で説明したように、環境地図情報と、ステレオビジョンセンサ40で観測した障害物の位置を示す地図情報を重ね合わせ、統合したグリッドマップを生成する(ステップS4)。
ついで、現在位置Pがサブゴールに達したかを判定し、サブゴールに達した場合は、サブゴールスタックから次のサブゴールを取り出し(ステップS5,S6)、ステップS7に行く。また、現在位置Pがサブゴールに達していない場合には、ステップS5からステップS7に行き、経路計画エンジン12にパス・ プラニング(経路計画)を要求する(ステップS7)。
そして、経路計画エンジン12からパス・プラニングを取得し(ステップS8)、走行制御系20に走行コマンドを送出する。
FIG. 12 is a flowchart showing the processing contents in the control engine 11.
As shown in the figure, the control engine 11 reads the current position P of the robot and determines whether the current position P has reached the final goal (steps S1 and S2).
When the position of the robot reaches the final goal, the process is terminated.
If the final goal has not been reached, as described above, the surrounding situation observed by the stereo vision sensor 40 and the grid map 14 are superimposed, the current position is estimated to obtain the correction amount ΔP, and the movement amount is calculated. The current position P of the robot estimated by the unit 104 is corrected with the correction amount ΔP (step S3). Further, as described with reference to FIG. 5, the environmental map information and the map information indicating the position of the obstacle observed by the stereo vision sensor 40 are overlapped to generate an integrated grid map (step S4).
Next, it is determined whether or not the current position P has reached the subgoal. If the current position P has reached the subgoal, the next subgoal is extracted from the subgoal stack (steps S5 and S6), and the process goes to step S7. If the current position P has not reached the subgoal, the process goes from step S5 to step S7 to request path planning (path planning) from the path planning engine 12 (step S7).
Then, path planning is acquired from the route planning engine 12 (step S8), and a travel command is sent to the travel control system 20.

図13は、上記経路計画エンジン12における処理内容を示すフローチャートである。 経路計画エンジン12は、探索グラフを作成し、前述したAスターの探索方法を利用して仮想ロボットの最適な経路を選択する。ここで、探索グラフは、前記図11に示したように、仮想ロボットの移動先の選択肢をグラフとして表したものであり、このグラフ上でコストの最も小さい経路を選択する。
図13において、制御エンジン11から経路計画エンジン12に対して経路計画の要求があると、探索グラフを作成し(ステップS1,S2)、このグラフ上のルートノード上に、現在のロボット位置をセットする(ステップS3)。また、オープンリストにこのルートノードを追加する(ステップS4)。
ついで、上記オープンリストからノードを取得し、このノード上に仮想ロボットをセットし(ステップS5,S6)、仮想ロボットが最終ゴールに達したかを判定する(ステップS7)。仮想ロボットが最終ゴールに達したら処理を終わる。
最終ゴールに到達していなければ、サブゴールを切り換えるか、すなわち、追従する線分を切り換えるかを判定する。
FIG. 13 is a flowchart showing the processing contents in the route planning engine 12. The route planning engine 12 creates a search graph and selects the optimal route of the virtual robot using the A star search method described above. Here, as shown in FIG. 11, the search graph is a graph representing the destination options of the virtual robot, and the route with the lowest cost is selected on this graph.
In FIG. 13, when there is a route planning request from the control engine 11 to the route planning engine 12, a search graph is created (steps S1 and S2), and the current robot position is set on the route node on this graph. (Step S3). Further, this root node is added to the open list (step S4).
Next, a node is acquired from the open list, a virtual robot is set on this node (steps S5 and S6), and it is determined whether the virtual robot has reached the final goal (step S7). The process ends when the virtual robot reaches the final goal.
If the final goal has not been reached, it is determined whether to switch the subgoal, that is, to switch the following line segment.

折線のサブゴールはスタックに保存されており、ロボットの線分追跡の完了次第、サブゴールをスタックから吐き出し、次に追跡する線分に切り替える。
追従する線分を切り替える条件としては、図14(a)に示すように、ロボットと現在向かっているサブゴールBとの距離dが閾値より小さい場合、あるいは図14(b)に示すように、仮想ロボットの現在追従している線分からの誤差εABより、次の線分からの誤差εBCが小さい場合である。
サブゴールを切り換える場合には、サブゴールスタックから次のサブゴールを取り出す(ステップS8,S9)。また、サブゴールを切り換えない場合には、ステップS10に行き、ループ回数が閾値THを越えたか否かを判定する。ループ回数が閾値THを越えたら、上記処理により得られた仮想ロボットの走行経路の点列を制御エンジン11に渡す。なお、この閾値THは、制御エンジン11に渡す点列の数を設定するものであり、この閾値に応じた数の点列が制御エンジンに渡される。
制御エンジン11は、経路計画エンジン12から受け取った点列(通過点ポイント)の数が0以上の場合、走行制御系20に走行コマンドを与える。ポイントの数が0である場合は、ロボットの移動先がないと意味するため、走行制御系20に走行停止を指示する。 制御エンジン11が次の循環に入る。各循環では経路計画エンジン12から生成した通過点の数が連続的に0である場合、ロボットを現在のサブゴールに向け、ランダムに向きを変え、経路を探す。
The broken line subgoal is stored in the stack. Upon completion of tracking of the line segment of the robot, the subgoal is ejected from the stack and switched to the line segment to be traced next.
As a condition for switching the line segment to follow, as shown in FIG. 14A, when the distance d between the robot and the subgoal B that is currently facing is smaller than the threshold value, or as shown in FIG. This is a case where the error ε BC from the next line segment is smaller than the error ε AB from the line segment that the robot is currently following.
When switching the subgoal, the next subgoal is taken out from the subgoal stack (steps S8 and S9). If the subgoal is not switched, the process goes to step S10 to determine whether or not the number of loops exceeds the threshold value TH. When the number of loops exceeds the threshold value TH, the point sequence of the travel route of the virtual robot obtained by the above process is passed to the control engine 11. The threshold TH sets the number of point sequences to be passed to the control engine 11, and the number of point sequences corresponding to the threshold is passed to the control engine.
When the number of point sequences (passing point points) received from the route planning engine 12 is 0 or more, the control engine 11 gives a travel command to the travel control system 20. When the number of points is 0, it means that there is no destination for the robot, and therefore the travel control system 20 is instructed to stop travel. The control engine 11 enters the next circulation. In each circulation, when the number of passing points generated from the route planning engine 12 is continuously 0, the robot is turned to the current subgoal and randomly turned to search for a route.

ループ回数が閾値THを越えていなければ、前記図10で説明した仮想センサアレイにより、グリッドマップ周囲の距離取得する(ステップS12)。そして、ロボットが障害物の近傍にいるかを判定する(ステップS13)。
ロボットが障害物の近傍にいない場合には、ステップS14にいき、仮想ロボットの位置と上記追従すべき線分とのエラーを求め、このエラーに基づき仮想ロボットの速度と角度を決定し(ステップS15)、ステップS17に行く。
If the number of loops does not exceed the threshold TH, the distance around the grid map is acquired by the virtual sensor array described with reference to FIG. 10 (step S12). Then, it is determined whether the robot is in the vicinity of the obstacle (step S13).
If the robot is not in the vicinity of the obstacle, the process goes to step S14, where an error between the position of the virtual robot and the line segment to be followed is obtained, and the speed and angle of the virtual robot are determined based on this error (step S15). ), Go to step S17.

また、ロボットが障害物の近傍にいるときには、障害物をよける行動を探索する。すなわち、前記図10で説明したようにロボットの前に開いている自由空間を求め、移動可能な選択肢を求める。
ついで、ステップS17にいき、移動可能な選択肢を親ノードに子ノードとして追加し、コスト計算をする(ステップS18)。
ついで、オープンリストに全ての子ノードを追加し、コストによりオープンリストをソートする(ステップS19,S20)。
図15は、上記ステップS17からS20の処理を説明する図である。
同図に示すように選択肢となる子ノードが3つある場合、親ノードa1に3つの子ノードb1,b2,b3が追加され、それぞれの子ノードのコストが計算される。コストは、前述したように、例えばロボットが移動先へ移動する際の旋回角度の大きさ、次の移動先の障害物との間の距離、ゴールとなるサブゴールとの間の距離、現在のロボットの向きとゴール方向との角度の差等から計算される。例えば、旋回角度が小さく、次の移動先と障害物との距離が遠く、ゴールとの距離が近く、現在のロボットの向きとゴール方向との角度の差が小さい場合にコストが小さくなる。
図13に戻り、コストが計算されると、子ノードがオープンリストに追加され、オープンリストがコストによりソートされ、コストの少ない子ノードが次の親ノードとなる。
ついで、ステップS5に戻り、上記ノードをオープンリストから取得し、上記処理を繰り返す。
Further, when the robot is in the vicinity of the obstacle, the robot searches for an action to avoid the obstacle. That is, as described with reference to FIG. 10, a free space opened in front of the robot is obtained, and a movable option is obtained.
Next, the process goes to step S17 to add a movable option as a child node to the parent node and calculate the cost (step S18).
Next, all child nodes are added to the open list, and the open list is sorted by cost (steps S19 and S20).
FIG. 15 is a diagram for explaining the processing of steps S17 to S20.
As shown in the figure, when there are three child nodes as options, three child nodes b1, b2, and b3 are added to the parent node a1, and the cost of each child node is calculated. As described above, the cost includes, for example, the magnitude of the turning angle when the robot moves to the destination, the distance between the next destination obstacle, the distance between the goal sub-goal, the current robot It is calculated from the difference in angle between the direction of the goal and the goal direction. For example, if the turning angle is small, the distance between the next destination and the obstacle is long, the distance to the goal is close, and the difference in angle between the current robot direction and the goal direction is small, the cost is small.
Returning to FIG. 13, when the cost is calculated, the child node is added to the open list, the open list is sorted by cost, and the child node with the lower cost becomes the next parent node.
Next, the process returns to step S5, the node is acquired from the open list, and the above process is repeated.

図16に、上記仮想ロボットを線分に追従させるための制御則の一例を示す。
本実施例においては、図16(b)の(1)(2)(3)式の制御則により、現在の仮想ロボットの進行方向に対する旋回角度ζおよび仮想ロボットの単位時間当たりの移動距離νを求める(定数kθ(θは下添え字)、ke 、Mは定数)。
ここで、同図(a)はサブゴールを結ぶ線分と、仮想ロボットの位置と進行方向の関係を示し、Aw (xa ,ya )、Bw (xb ,yb )は、それぞれ、スタートのサブゴール、目標となるサブゴールの位置座標(wの添え字を付したものはワールド座標)、Rw (xr ,yr )はロボットの現在位置の位置座標(ワールド座標)、Xr はロボットの移動方向、Yr はロボットの移動する方向に直交する方向、db はロボットとゴールとなるサブゴールとの間の距離、αはロボットの進行方向と、ゴールとなるサブゴールとロボットを結ぶ線との間の角度である。
また、同図(b)において、(4)式は、ワールド座標系(添え字wの座標系)とロボット座標系(添え字rの座標系)の変換式、(5)(9)式は、それぞれ追従すべき線分の傾き、この線分のX軸に対する角度θを示し、また、(6)(7)(8)式におけるεABはロボット位置と線分との誤差を示す。
FIG. 16 shows an example of a control rule for causing the virtual robot to follow a line segment.
In the present embodiment, the turning angle ζ with respect to the current traveling direction of the virtual robot and the movement distance ν per unit time of the virtual robot are determined by the control law of the equations (1), (2), and (3) in FIG. obtaining (lower constant k- [theta (theta subscript), k e, M is a constant).
Here, (a) shows the relationship between the line segment connecting the subgoals, the position of the virtual robot and the traveling direction, and A w (x a , y a ) and B w (x b , y b ) are respectively , The start subgoal, the position coordinates of the target subgoal (the world coordinates with the subscript of w), R w (x r , y r ) are the position coordinates (world coordinates) of the current position of the robot, X r the moving direction, Y r of the robot direction orthogonal to the direction of movement of the robot, d b is the distance between the subgoal to be a robot and the goal, alpha is connecting the traveling direction of the robot, the subgoal and robot as a goal The angle between the line.
In FIG. 5B, equation (4) is a conversion equation between the world coordinate system (coordinate system of the subscript w) and the robot coordinate system (coordinate system of the subscript r), and equations (5) and (9) are , The inclination of the line segment to be followed, and the angle θ with respect to the X axis of this line segment, and ε AB in the equations (6), (7), and (8) indicate the error between the robot position and the line segment.

本発明の実施例の移動ロボットの制御系の概略構成例を示す図である。It is a figure which shows the example of schematic structure of the control system of the mobile robot of the Example of this invention. ステレオビジョンセンサによる周囲状況の観測を説明する図である。It is a figure explaining observation of the surrounding situation by a stereo vision sensor. 環境地図情報の一例を示す図である。It is a figure which shows an example of environmental map information. ステレオビジョンセンサによる観測マップの作成を説明する図である。It is a figure explaining creation of an observation map by a stereo vision sensor. 経路計画用グリッドマップの生成を説明する図である。It is a figure explaining the production | generation of the grid map for route planning. 本発明において、ロボットに与えられる経路情報を示す図である。In this invention, it is a figure which shows the route information given to a robot. サブゴールをつなぐ折線の格納を説明する図である。It is a figure explaining storing of the broken line which connects a subgoal. 経路追従と障害物回避を説明する図である。It is a figure explaining route follow-up and obstacle avoidance. 本発明の実施例の自律走行モジュールのブロック図である。It is a block diagram of the autonomous running module of the Example of this invention. 仮想ロボットと仮想センサによる自由空間の検出を説明する図である。It is a figure explaining the detection of the free space by a virtual robot and a virtual sensor. 折線追従と障害物回避を統合させた最適経路の計画方法の概念図である。It is a conceptual diagram of the optimal route planning method which integrated broken line tracking and obstacle avoidance. 制御エンジンにおける処理内容を示すフローチャートである。It is a flowchart which shows the processing content in a control engine. 経路計画エンジンにおける処理内容を示すフローチャートである。It is a flowchart which shows the processing content in a route planning engine. サブゴール近くでの追従する線分の切り換えを説明する図である。It is a figure explaining switching of the line segment which follows near a subgoal. 図13のフローチャートにおける処理を説明する図である。It is a figure explaining the process in the flowchart of FIG. 仮想ロボットを線分に追従させるための制御則を説明する図である。It is a figure explaining the control law for making a virtual robot follow a line segment.

符号の説明Explanation of symbols

10 自律走行モジュール
11 制御エンジン
12 経路計画エンジン
13 サブゴールスタック
14 グリッドマップ
20 走行制御系
30 CPU
40 ステレオビジョンセンサ
100 移動ロボット
101 車輪
102 モータ
103 エンコーダ
104 移動量算出部



DESCRIPTION OF SYMBOLS 10 Autonomous travel module 11 Control engine 12 Path planning engine 13 Subgoal stack 14 Grid map 20 Travel control system 30 CPU
40 Stereo Vision Sensor 100 Mobile Robot 101 Wheel 102 Motor 103 Encoder 104 Movement Amount Calculation Unit



Claims (5)

障害物が存在する環境化において、与えられた経路に沿って移動する自律走行制御装置を備えた移動ロボットであって、
上記移動ロボットは、該ロボットを移動させる走行制御系と、移動ロボットの周囲の固定物および障害物の相対位置を観測する手段と、経路計画エンジンと、制御エンジンとを備え、
上記制御エンジンは、移動ロボットの走行距離・走行方向と、上記観測した固定物もしくは障害物の相対位置から現在のロボットの位置を推定し、また、予め格納された移動ロボットの走行領域の固定物の位置を表すグリッドマップと上記観測した障害物の情報とを重ね合わせて統合マップを作成し、
現在のロボットの位置と該統合マップを上記経路計画エンジンに渡して経路計画をリクエストし、
経路計画エンジンは、上記リクエストがあったとき、仮想ロボットを、上記統合マップ上で上記障害物を回避させながら、前記予め定められた経路に沿って移動させ、仮想ロボットの通過点を求め、この通過点の点列を上記制御エンジンに渡し、
上記制御エンジンは、上記通過点の点列に沿って移動ロボットが移動するように上記走行制御系を制御する
ことを特徴とする自律走行機能を備えた移動ロボット。
A mobile robot equipped with an autonomous traveling control device that moves along a given route in an environment where obstacles exist,
The mobile robot includes a travel control system for moving the robot, means for observing the relative positions of fixed objects and obstacles around the mobile robot, a route planning engine, and a control engine.
The control engine estimates the current robot position from the travel distance and travel direction of the mobile robot and the relative position of the observed fixed object or obstacle, and also stores the fixed object in the travel area of the mobile robot stored in advance. Create an integrated map by superimposing the grid map representing the location of the above and the observed obstacle information,
Request the route plan by passing the current robot position and the integrated map to the route plan engine.
When the path planning engine receives the request, the path planning engine moves the virtual robot along the predetermined path while avoiding the obstacle on the integrated map to obtain a passing point of the virtual robot. Pass the point sequence of passing points to the control engine,
A mobile robot having an autonomous travel function, wherein the control engine controls the travel control system so that the mobile robot moves along a point sequence of the passing points.
上記経路計画エンジンは、上記統合マップ上で、前方の障害物との距離を求める仮想的距離センサにより、仮想ロボットと障害物および/または壁との距離を求め、
この距離と障害物および/または壁に応じて設定された重みとにより定まる値と、閾値とを比較して、仮想ロボットの前方の開いている自由空間を求め、該自由空間の方向を移動先として仮想ロボットを移動させる
ことを特徴とする請求項1の自律走行機能を備えた移動ロボット。
The path planning engine obtains a distance between the virtual robot and the obstacle and / or the wall by a virtual distance sensor that obtains a distance from the obstacle in front on the integrated map.
A value determined by the distance and the weight set according to the obstacle and / or the wall is compared with a threshold value to obtain an open free space in front of the virtual robot, and the direction of the free space is changed to the destination. The mobile robot having the autonomous traveling function according to claim 1, wherein the virtual robot is moved as follows.
上記経路計画エンジンは、上記移動先が複数あるとき、各移動先へ移動したときのコストを計算し、最適な移動先を探索する
ことを特徴とする請求項1または請求項2の自律走行機能を備えた移動ロボット。
3. The autonomous traveling function according to claim 1, wherein when there are a plurality of destinations, the route planning engine calculates a cost when moving to each destination and searches for an optimum destination. Mobile robot equipped with.
障害物があるときは、障害物を避ける移動経路を探索し、障害物がないときは、設定された経路に従って移動経路探索する
ことを特徴とする請求項1または請求項2の自律走行機能を備えた移動ロボット。
The autonomous traveling function according to claim 1 or 2, wherein when there is an obstacle, a travel route that avoids the obstacle is searched, and when there is no obstacle, the travel route is searched according to the set route. Mobile robot equipped.
障害物が存在する環境化において、与えられた経路に沿って移動する自律走行制御装置を備えた移動ロボットの制御方法であって、
上記移動ロボットは、該ロボットを移動させる走行制御系と、移動ロボットの周囲の固定物および障害物の相対位置を観測する手段を備え、
移動ロボットの走行距離・走行方向と、上記観測した固定物もしくは障害物の相対位置から現在のロボットの位置を推定し、
また、予め格納された移動ロボットの走行領域の固定物の位置を表すグリッドマップと上記観測した障害物の情報とを重ね合わせて統合マップを作成し、
仮想ロボットを、上記統合マップ上で上記障害物を回避させながら、前記予め定められた経路に沿って移動させ、仮想ロボットの通過点を求め、この通過点の点列沿って移動ロボットが移動するように上記走行制御系を制御する
ことを特徴とする移動ロボットの制御方法。
A control method of a mobile robot equipped with an autonomous traveling control device that moves along a given route in an environment where obstacles exist,
The mobile robot includes a traveling control system for moving the robot, and means for observing the relative positions of fixed objects and obstacles around the mobile robot,
Estimate the current robot position from the travel distance and direction of the mobile robot and the relative position of the observed fixed or obstacle,
In addition, a grid map representing the position of a fixed object in the traveling area of the mobile robot stored in advance and the information on the observed obstacle are overlapped to create an integrated map,
The virtual robot is moved along the predetermined route while avoiding the obstacle on the integrated map, the passing point of the virtual robot is obtained, and the moving robot moves along the point sequence of the passing point. A control method for a mobile robot, characterized by controlling the travel control system as described above.
JP2006072459A 2006-03-16 2006-03-16 A mobile robot that moves autonomously in an environment with obstacles and a method for controlling the mobile robot. Expired - Fee Related JP4467534B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006072459A JP4467534B2 (en) 2006-03-16 2006-03-16 A mobile robot that moves autonomously in an environment with obstacles and a method for controlling the mobile robot.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006072459A JP4467534B2 (en) 2006-03-16 2006-03-16 A mobile robot that moves autonomously in an environment with obstacles and a method for controlling the mobile robot.

Publications (2)

Publication Number Publication Date
JP2007249632A true JP2007249632A (en) 2007-09-27
JP4467534B2 JP4467534B2 (en) 2010-05-26

Family

ID=38593853

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006072459A Expired - Fee Related JP4467534B2 (en) 2006-03-16 2006-03-16 A mobile robot that moves autonomously in an environment with obstacles and a method for controlling the mobile robot.

Country Status (1)

Country Link
JP (1) JP4467534B2 (en)

Cited By (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009110154A (en) * 2007-10-29 2009-05-21 Ihi Corp Route generator, route generating method, and moving device provided with route generator
JP2010197997A (en) * 2009-02-23 2010-09-09 Samsung Electronics Co Ltd Map building apparatus and map building method
WO2011064821A1 (en) * 2009-11-27 2011-06-03 トヨタ自動車株式会社 Autonomous moving object and control method
WO2011074165A1 (en) * 2009-12-17 2011-06-23 村田機械株式会社 Autonomous mobile device
JP2011150473A (en) * 2010-01-20 2011-08-04 Ihi Aerospace Co Ltd Autonomous traveling object
US8234032B2 (en) 2008-11-10 2012-07-31 Electronics And Telecommunications Research Institute Method and apparatus for generating safe path of mobile robot
CN103399327A (en) * 2013-07-23 2013-11-20 东北大学 Beidou system-based satellite signal optimizing system and method
US8840848B2 (en) 2010-07-23 2014-09-23 Beckman Coulter, Inc. System and method including analytical units
US8849559B2 (en) 2009-02-18 2014-09-30 Samsung Electronics Co., Ltd. Apparatus and method for generating and using a grid map path
US8973736B2 (en) 2011-11-07 2015-03-10 Beckman Coulter, Inc. Magnetic damping for specimen transport system
US9046506B2 (en) 2011-11-07 2015-06-02 Beckman Coulter, Inc. Specimen container detection
US9182762B2 (en) 2008-02-07 2015-11-10 Toyota Jidosha Kabushiki Kaisha Autonomous moving body, its control method, and control system
US9248982B2 (en) 2011-05-13 2016-02-02 Beckman Coulter, Inc. System and method including laboratory product transport element
JP2016057660A (en) * 2014-09-05 2016-04-21 株式会社Ihi Moving body route planning method and moving body route planning device
US9446418B2 (en) 2011-11-07 2016-09-20 Beckman Coulter, Inc. Robotic arm
US9459273B2 (en) 2011-05-13 2016-10-04 Beckman Coulter, Inc. Laboratory product transport element and path arrangement
US9482684B2 (en) 2011-11-07 2016-11-01 Beckman Coulter, Inc. Centrifuge system and workflow
US9506943B2 (en) 2011-11-07 2016-11-29 Beckman Coulter, Inc. Aliquotter system and workflow
CN106371445A (en) * 2016-11-17 2017-02-01 浙江大学 Unmanned vehicle planning control method based on topology map
US9588038B2 (en) 2012-09-14 2017-03-07 Beckman Coulter, Inc. Analytical system with capillary transport
WO2017041730A1 (en) * 2015-09-09 2017-03-16 北京进化者机器人科技有限公司 Method and system for navigating mobile robot to bypass obstacle
WO2017130419A1 (en) * 2016-01-29 2017-08-03 株式会社小松製作所 Work machine management system, work machine, and work machine management method
WO2017130418A1 (en) * 2016-01-29 2017-08-03 株式会社小松製作所 Work machine management system and work machine
WO2017151943A1 (en) * 2016-03-03 2017-09-08 Uber Technologies, Inc. Planar-beam, light detection and ranging system
JP2017529631A (en) * 2014-09-30 2017-10-05 エヌイーシー ヨーロッパ リミテッドNec Europe Ltd. Method and system for determining a path of an object that moves from a start state to an end state set while avoiding one or more obstacles
CN107291084A (en) * 2017-08-08 2017-10-24 小狗电器互联网科技(北京)股份有限公司 Sweeping robot charging system, sweeping robot and cradle
US9910054B2 (en) 2011-11-07 2018-03-06 Beckman Coulter, Inc. System and method for processing samples
KR20180087784A (en) * 2017-01-25 2018-08-02 엘지전자 주식회사 Method of drawing map by identifying moving object and robot implementing thereof
US10338225B2 (en) 2015-12-15 2019-07-02 Uber Technologies, Inc. Dynamic LIDAR sensor controller
KR20190096327A (en) * 2017-01-25 2019-08-19 엘지전자 주식회사 Method of drawing map by identifying moving object and robot implementing thereof
CN110275535A (en) * 2019-06-27 2019-09-24 大连理工大学 A kind of multimode vehicle path planning method based on improvement A star algorithm
JP2019175128A (en) * 2018-03-28 2019-10-10 セコム株式会社 Movement control system
US10496093B2 (en) 2017-03-17 2019-12-03 Kabushiki Kaisha Toshiba Movement control system, movement control device, and computer-implemented program for movement control
CN110652256A (en) * 2018-06-28 2020-01-07 松下知识产权经营株式会社 Mobile robot and control method
JP2020004421A (en) * 2019-08-01 2020-01-09 エヌイーシー ラボラトリーズ ヨーロッパ ゲーエムベーハー Methods and systems for determining a path of an object moving from an initial state to final state set while avoiding one or more obstacle
CN111443696A (en) * 2018-12-28 2020-07-24 珠海市一微半导体有限公司 Laser floor sweeping robot path planning method, device and chip
WO2020203341A1 (en) * 2019-04-02 2020-10-08 ソニー株式会社 Control device, control method, and program
WO2020203342A1 (en) * 2019-04-02 2020-10-08 ソニー株式会社 Control device, control method, and program
US10914820B2 (en) 2018-01-31 2021-02-09 Uatc, Llc Sensor assembly for vehicles
WO2021079794A1 (en) 2019-10-25 2021-04-29 ソニー株式会社 Information processing device, information processing method, program, and flying body
JP2021105816A (en) * 2019-12-26 2021-07-26 株式会社竹中工務店 Movement route determination device
CN113805575A (en) * 2020-06-12 2021-12-17 颜炳郎 Carrier system
WO2022118656A1 (en) * 2020-12-01 2022-06-09 オムロン株式会社 Device and method for simulating mobile robot at work site
CN114859914A (en) * 2022-05-09 2022-08-05 广东利元亨智能装备股份有限公司 Obstacle detection method, apparatus, device and storage medium
CN115617053A (en) * 2022-12-19 2023-01-17 松灵机器人(深圳)有限公司 Obstacle traversing method and device, mowing robot and storage medium
WO2023155371A1 (en) * 2022-02-21 2023-08-24 上海机器人产业技术研究院有限公司 Stable movement global path planning method for indoor mobile robot
WO2023160606A1 (en) * 2022-02-24 2023-08-31 苏州科瓴精密机械科技有限公司 Grid map-based robot pathfinding method and apparatus, robot and storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04365104A (en) * 1991-06-13 1992-12-17 Toshiba Corp Optimum course planning device and autonomously moving robot
JP2005315746A (en) * 2004-04-28 2005-11-10 Mitsubishi Heavy Ind Ltd Own position identifying method, and device therefor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04365104A (en) * 1991-06-13 1992-12-17 Toshiba Corp Optimum course planning device and autonomously moving robot
JP2005315746A (en) * 2004-04-28 2005-11-10 Mitsubishi Heavy Ind Ltd Own position identifying method, and device therefor

Cited By (91)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009110154A (en) * 2007-10-29 2009-05-21 Ihi Corp Route generator, route generating method, and moving device provided with route generator
US9182762B2 (en) 2008-02-07 2015-11-10 Toyota Jidosha Kabushiki Kaisha Autonomous moving body, its control method, and control system
US8234032B2 (en) 2008-11-10 2012-07-31 Electronics And Telecommunications Research Institute Method and apparatus for generating safe path of mobile robot
US8849559B2 (en) 2009-02-18 2014-09-30 Samsung Electronics Co., Ltd. Apparatus and method for generating and using a grid map path
JP2010197997A (en) * 2009-02-23 2010-09-09 Samsung Electronics Co Ltd Map building apparatus and map building method
US9164512B2 (en) 2009-11-27 2015-10-20 Toyota Jidosha Kabushiki Kaisha Autonomous moving body and control method thereof
CN102782600A (en) * 2009-11-27 2012-11-14 丰田自动车株式会社 Autonomous moving object and control method
JP5062364B2 (en) * 2009-11-27 2012-10-31 トヨタ自動車株式会社 Autonomous mobile body and control method thereof
WO2011064821A1 (en) * 2009-11-27 2011-06-03 トヨタ自動車株式会社 Autonomous moving object and control method
JP2011128899A (en) * 2009-12-17 2011-06-30 Murata Machinery Ltd Autonomous mobile device
WO2011074165A1 (en) * 2009-12-17 2011-06-23 村田機械株式会社 Autonomous mobile device
US8897947B2 (en) 2009-12-17 2014-11-25 Murata Machinery, Ltd. Autonomous mobile device
JP2011150473A (en) * 2010-01-20 2011-08-04 Ihi Aerospace Co Ltd Autonomous traveling object
US8840848B2 (en) 2010-07-23 2014-09-23 Beckman Coulter, Inc. System and method including analytical units
US9285382B2 (en) 2010-07-23 2016-03-15 Beckman Coulter, Inc. Reaction vessel
US8962308B2 (en) 2010-07-23 2015-02-24 Beckman Coulter, Inc. System and method including thermal cycler modules
US9519000B2 (en) 2010-07-23 2016-12-13 Beckman Coulter, Inc. Reagent cartridge
US8996320B2 (en) 2010-07-23 2015-03-31 Beckman Coulter, Inc. System and method including analytical units
US8956570B2 (en) 2010-07-23 2015-02-17 Beckman Coulter, Inc. System and method including analytical units
US9046455B2 (en) 2010-07-23 2015-06-02 Beckman Coulter, Inc. System and method including multiple processing lanes executing processing protocols
US9140715B2 (en) 2010-07-23 2015-09-22 Beckman Coulter, Inc. System and method for controlling thermal cycler modules
US8932541B2 (en) 2010-07-23 2015-01-13 Beckman Coulter, Inc. Pipettor including compliant coupling
US9274132B2 (en) 2010-07-23 2016-03-01 Beckman Coulter, Inc. Assay cartridge with reaction well
US9459273B2 (en) 2011-05-13 2016-10-04 Beckman Coulter, Inc. Laboratory product transport element and path arrangement
US9658239B2 (en) 2011-05-13 2017-05-23 Beckman Coulter, Inc. Laboratory product transport element and path arrangement
US9248982B2 (en) 2011-05-13 2016-02-02 Beckman Coulter, Inc. System and method including laboratory product transport element
US10473676B2 (en) 2011-05-13 2019-11-12 Beckman Coulter, Inc. Laboratory product transport element and path arrangement
US9506943B2 (en) 2011-11-07 2016-11-29 Beckman Coulter, Inc. Aliquotter system and workflow
US9046506B2 (en) 2011-11-07 2015-06-02 Beckman Coulter, Inc. Specimen container detection
US9482684B2 (en) 2011-11-07 2016-11-01 Beckman Coulter, Inc. Centrifuge system and workflow
US8973736B2 (en) 2011-11-07 2015-03-10 Beckman Coulter, Inc. Magnetic damping for specimen transport system
US10048284B2 (en) 2011-11-07 2018-08-14 Beckman Coulter, Inc. Sample container cap with centrifugation status indicator device
US10274505B2 (en) 2011-11-07 2019-04-30 Beckman Coulter, Inc. Robotic arm
US9446418B2 (en) 2011-11-07 2016-09-20 Beckman Coulter, Inc. Robotic arm
US9910054B2 (en) 2011-11-07 2018-03-06 Beckman Coulter, Inc. System and method for processing samples
US9588038B2 (en) 2012-09-14 2017-03-07 Beckman Coulter, Inc. Analytical system with capillary transport
CN103399327A (en) * 2013-07-23 2013-11-20 东北大学 Beidou system-based satellite signal optimizing system and method
JP2016057660A (en) * 2014-09-05 2016-04-21 株式会社Ihi Moving body route planning method and moving body route planning device
JP2017529631A (en) * 2014-09-30 2017-10-05 エヌイーシー ヨーロッパ リミテッドNec Europe Ltd. Method and system for determining a path of an object that moves from a start state to an end state set while avoiding one or more obstacles
US10365110B2 (en) 2014-09-30 2019-07-30 Nec Corporation Method and system for determining a path of an object for moving from a starting state to an end state set avoiding one or more obstacles
WO2017041730A1 (en) * 2015-09-09 2017-03-16 北京进化者机器人科技有限公司 Method and system for navigating mobile robot to bypass obstacle
US10338225B2 (en) 2015-12-15 2019-07-02 Uber Technologies, Inc. Dynamic LIDAR sensor controller
US10677925B2 (en) 2015-12-15 2020-06-09 Uatc, Llc Adjustable beam pattern for lidar sensor
US11740355B2 (en) 2015-12-15 2023-08-29 Uatc, Llc Adjustable beam pattern for LIDAR sensor
JPWO2017130419A1 (en) * 2016-01-29 2018-11-22 株式会社小松製作所 Work machine management system, work machine, and work machine management method
US10801852B2 (en) 2016-01-29 2020-10-13 Komatsu Ltd. Work machine management system and work machine
JPWO2017130418A1 (en) * 2016-01-29 2018-11-29 株式会社小松製作所 Work machine management system and work machine
US10801846B2 (en) 2016-01-29 2020-10-13 Komatsu Ltd. Work machine management system, work machine, and work machine management method
WO2017130419A1 (en) * 2016-01-29 2017-08-03 株式会社小松製作所 Work machine management system, work machine, and work machine management method
WO2017130418A1 (en) * 2016-01-29 2017-08-03 株式会社小松製作所 Work machine management system and work machine
AU2016390302B2 (en) * 2016-01-29 2019-11-07 Komatsu Ltd. Work machine management system and work machine
AU2016390303B2 (en) * 2016-01-29 2019-10-24 Komatsu Ltd. Work machine management system, work machine, and work machine management method
WO2017151943A1 (en) * 2016-03-03 2017-09-08 Uber Technologies, Inc. Planar-beam, light detection and ranging system
US11604475B2 (en) 2016-03-03 2023-03-14 Uatc, Llc Planar-beam, light detection and ranging system
US10942524B2 (en) 2016-03-03 2021-03-09 Uatc, Llc Planar-beam, light detection and ranging system
US10281923B2 (en) 2016-03-03 2019-05-07 Uber Technologies, Inc. Planar-beam, light detection and ranging system
CN106371445A (en) * 2016-11-17 2017-02-01 浙江大学 Unmanned vehicle planning control method based on topology map
CN106371445B (en) * 2016-11-17 2019-05-14 浙江大学 A kind of unmanned vehicle planning control method based on topological map
US10783363B2 (en) 2017-01-25 2020-09-22 Lg Electronics Inc. Method of creating map by identifying moving object, and robot implementing the method
KR102420090B1 (en) * 2017-01-25 2022-07-11 엘지전자 주식회사 Method of drawing map by identifying moving object and robot implementing thereof
KR20190096327A (en) * 2017-01-25 2019-08-19 엘지전자 주식회사 Method of drawing map by identifying moving object and robot implementing thereof
KR102012549B1 (en) * 2017-01-25 2019-08-20 엘지전자 주식회사 Method of drawing map by identifying moving object and robot implementing thereof
KR20180087784A (en) * 2017-01-25 2018-08-02 엘지전자 주식회사 Method of drawing map by identifying moving object and robot implementing thereof
US10496093B2 (en) 2017-03-17 2019-12-03 Kabushiki Kaisha Toshiba Movement control system, movement control device, and computer-implemented program for movement control
CN107291084A (en) * 2017-08-08 2017-10-24 小狗电器互联网科技(北京)股份有限公司 Sweeping robot charging system, sweeping robot and cradle
CN107291084B (en) * 2017-08-08 2023-08-15 小狗电器互联网科技(北京)股份有限公司 Sweeping robot charging system, sweeping robot and charging seat
US10914820B2 (en) 2018-01-31 2021-02-09 Uatc, Llc Sensor assembly for vehicles
US11747448B2 (en) 2018-01-31 2023-09-05 Uatc, Llc Sensor assembly for vehicles
JP7126366B2 (en) 2018-03-28 2022-08-26 セコム株式会社 movement control system
JP2019175128A (en) * 2018-03-28 2019-10-10 セコム株式会社 Movement control system
CN110652256B (en) * 2018-06-28 2022-07-29 松下知识产权经营株式会社 Mobile robot and control method
CN110652256A (en) * 2018-06-28 2020-01-07 松下知识产权经营株式会社 Mobile robot and control method
CN111443696A (en) * 2018-12-28 2020-07-24 珠海市一微半导体有限公司 Laser floor sweeping robot path planning method, device and chip
CN111443696B (en) * 2018-12-28 2023-08-15 珠海一微半导体股份有限公司 Laser sweeping robot path planning method, device and chip
WO2020203342A1 (en) * 2019-04-02 2020-10-08 ソニー株式会社 Control device, control method, and program
WO2020203341A1 (en) * 2019-04-02 2020-10-08 ソニー株式会社 Control device, control method, and program
CN110275535B (en) * 2019-06-27 2022-02-15 大连理工大学 Multi-state vehicle path planning method based on improved A star algorithm
CN110275535A (en) * 2019-06-27 2019-09-24 大连理工大学 A kind of multimode vehicle path planning method based on improvement A star algorithm
JP2020004421A (en) * 2019-08-01 2020-01-09 エヌイーシー ラボラトリーズ ヨーロッパ ゲーエムベーハー Methods and systems for determining a path of an object moving from an initial state to final state set while avoiding one or more obstacle
WO2021079794A1 (en) 2019-10-25 2021-04-29 ソニー株式会社 Information processing device, information processing method, program, and flying body
US11854210B2 (en) 2019-10-25 2023-12-26 Sony Group Corporation Information processing apparatus, information processing method, program, and flight object
JP2021105816A (en) * 2019-12-26 2021-07-26 株式会社竹中工務店 Movement route determination device
JP7379802B2 (en) 2019-12-26 2023-11-15 株式会社竹中工務店 Travel route determination device
CN113805575A (en) * 2020-06-12 2021-12-17 颜炳郎 Carrier system
WO2022118656A1 (en) * 2020-12-01 2022-06-09 オムロン株式会社 Device and method for simulating mobile robot at work site
JP7452706B2 (en) 2020-12-01 2024-03-19 オムロン株式会社 Apparatus and method for simulating mobile robots at work sites
WO2023155371A1 (en) * 2022-02-21 2023-08-24 上海机器人产业技术研究院有限公司 Stable movement global path planning method for indoor mobile robot
WO2023160606A1 (en) * 2022-02-24 2023-08-31 苏州科瓴精密机械科技有限公司 Grid map-based robot pathfinding method and apparatus, robot and storage medium
CN114859914A (en) * 2022-05-09 2022-08-05 广东利元亨智能装备股份有限公司 Obstacle detection method, apparatus, device and storage medium
WO2023216596A1 (en) * 2022-05-09 2023-11-16 广东利元亨智能装备股份有限公司 Obstacle detection method and apparatus, and device and storage medium
CN115617053A (en) * 2022-12-19 2023-01-17 松灵机器人(深圳)有限公司 Obstacle traversing method and device, mowing robot and storage medium

Also Published As

Publication number Publication date
JP4467534B2 (en) 2010-05-26

Similar Documents

Publication Publication Date Title
JP4467534B2 (en) A mobile robot that moves autonomously in an environment with obstacles and a method for controlling the mobile robot.
JP6882296B2 (en) Autonomous visual navigation
KR101372482B1 (en) Method and apparatus of path planning for a mobile robot
JP5112666B2 (en) Mobile device
JP5402057B2 (en) Mobile robot control system, route search method, route search program
US8515612B2 (en) Route planning method, route planning device and autonomous mobile device
JP6771588B2 (en) Moving body and control method of moving body
JP5287051B2 (en) Autonomous mobile device
JP4467533B2 (en) Folding line following mobile robot and control method of broken line following mobile robot
KR20210066791A (en) Systems and Methods for Optimizing Path Planning for Tight Turns in Robotic Devices
KR101990878B1 (en) Online bidirectional trajectory planning method in state-time space and recording medium storing program for executing the same, and computer program stored in recording medium for executing the same
JP2008152600A (en) Moving route generation method, autonomous moving object, and autonomous moving object control system
KR101598385B1 (en) Autonomous driving method and robot using recognition scene based on straight line information
JP2012243029A (en) Traveling object with route search function
JP2010160735A (en) Mobile robot, running plan map generation method and management system
JP2008152599A (en) Moving route generation method, autonomous moving object, and autonomous moving object control system
JP2008134744A (en) Autonomous moving device group control system
Chen et al. Collision-free UAV navigation with a monocular camera using deep reinforcement learning
JP5287050B2 (en) Route planning method, route planning device, and autonomous mobile device
JP5321214B2 (en) Mobile body and control method thereof
Zelinsky et al. A unified approach to planning, sensing and navigation for mobile robots
Luo et al. An effective trace-guided wavefront navigation and map-building approach for autonomous mobile robots
Dai et al. Autonomous navigation for wheeled mobile robots-a survey
JP7243141B2 (en) Movement route generation device, movement route generation method, and computer program
JP2022013243A (en) Mobile body controller, map generation method and map generation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100223

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100223

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140305

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees