JP2007316799A - Autonomous mobile robot having learning function - Google Patents

Autonomous mobile robot having learning function Download PDF

Info

Publication number
JP2007316799A
JP2007316799A JP2006143783A JP2006143783A JP2007316799A JP 2007316799 A JP2007316799 A JP 2007316799A JP 2006143783 A JP2006143783 A JP 2006143783A JP 2006143783 A JP2006143783 A JP 2006143783A JP 2007316799 A JP2007316799 A JP 2007316799A
Authority
JP
Japan
Prior art keywords
mobile robot
autonomous mobile
obstacle
learning function
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006143783A
Other languages
Japanese (ja)
Other versions
JP4852753B2 (en
Inventor
Masaaki Okita
正昭 大北
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tottori University NUC
Original Assignee
Tottori University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tottori University NUC filed Critical Tottori University NUC
Priority to JP2006143783A priority Critical patent/JP4852753B2/en
Publication of JP2007316799A publication Critical patent/JP2007316799A/en
Application granted granted Critical
Publication of JP4852753B2 publication Critical patent/JP4852753B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an autonomous mobile robot having learning function, capable of correcting and adding a traveling rule, according to the circumstances of a traveling path and utilizing the corrected and added traveling rules, together with preliminarily prepared traveling rules for the next traveling. <P>SOLUTION: This autonomous mobile robot with learning function is provided with an environment map 5, in which the environment information of a traveling path is stored; and a learning function 6 having an SOM 8 in which the traveling rule is preliminarily learned. A self-location is recognized by a self-location recognizing function 2 from the circumstances of the traveling path detected by sensors 1 and is inputted to the environment map 5, and an obstacle is recognized by an obstacle recognizing function 3, from the circumstances of the traveling path detected by the sensors 1 and is inputted to the environment map 5; and when the environment information of the environment map 5 is inputted, the learning function 6 outputs steering information, corresponding to the environment information inputted by using an SOM 8. Thus, move this autonomous mobile robot can be moved to its destination safely and surely. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

自律移動能力及び学習機能を有し、走行のたびごとに新たな知識を獲得し、以後の走行に活用できるようにした学習機能をもつ自律移動ロボットに関するものである。   The present invention relates to an autonomous mobile robot having a learning function that has an autonomous movement capability and a learning function, acquires new knowledge every time it travels, and can be used for subsequent traveling.

従来の自律移動ロボットは、走行路にランドマーク、電磁界等の目印が設備されて、それらの目印に沿って走行するものであり、決められたルールの範囲内でしか移動できない。また、走行中にあらかじめ用意されたルールで対応できない場合には、走行を継続することは難しい。
また、従来の自律移動ロボットとして、特許文献1には、強化学習法を用いたものが記載されている。特許文献1では、ロボット(エージェント)が走行環境を走行し、その良しあしの評価により報酬を定義し、評価を良くする手法が記載されている。
また、特許文献2には、ニュ−ラルネットワークにもとづく学習機能を搭載する移動体が記載されている。特許文献2では、人間の経験則で決まる走行ルールを準備し、SOM(Self−Organizing Map、自己組織化マップ)を学習させ、走行に用いるもので、基本的には初めに準備したルールにより走行させるものである。
A conventional autonomous mobile robot is provided with landmarks such as landmarks and electromagnetic fields on a traveling path, and travels along those landmarks, and can move only within a range of predetermined rules. In addition, it is difficult to continue traveling when the rules prepared in advance cannot be used during traveling.
Further, as a conventional autonomous mobile robot, Patent Document 1 describes a robot using a reinforcement learning method. Patent Document 1 describes a technique in which a robot (agent) travels in a traveling environment, defines a reward based on evaluation of the quality, and improves the evaluation.
Patent Document 2 describes a mobile body equipped with a learning function based on a neural network. In Patent Document 2, a travel rule determined by human empirical rules is prepared, SOM (Self-Organizing Map) is learned and used for travel. Basically, travel is performed according to the rules prepared first. It is something to be made.

特開2005−293154号公報(第4〜14頁、図2)Japanese Patent Laying-Open No. 2005-293154 (pages 4 to 14, FIG. 2) 特開2000−122991号公報(第5〜9頁、図1)JP 2000-122991 A (pages 5-9, FIG. 1)

従来の自律移動ロボットは、走行路にランドマーク、電磁界等の何らかの目印が設備されて、それらの目印に沿って走行するものであり、これであると、目印以外の行路を走行できない、という問題がある。
特許文献1では、ロボット(エージェント)が走行環境を走行し、その良しあしの評価により報酬を定義し、評価を良くする手法が用いられ、この手法では、走行環境を教師データとして走行評価を行い、走行に必要なルールを優先して生成するので、計算負荷が大きく、複雑な多数の走行ルールを必要とするときには、実用面と、走行の多様性に対する適応能力から考慮すると、問題が残る。
特許文献2については、人間の経験則で決まる走行ルールを準備し、SOMを学習させ、走行に用いるものの、基本的には初めに準備したルールにより走行させるものであり、行路の変化に対応できないという問題がある。
Conventional autonomous mobile robots are equipped with some landmarks such as landmarks, electromagnetic fields, etc. on the traveling road, and travel along those landmarks. There's a problem.
In Patent Document 1, a method is used in which a robot (agent) travels in a traveling environment, and a reward is defined by evaluation of the goodness and the evaluation is improved. In this method, traveling evaluation is performed using the traveling environment as teacher data. Since the rules necessary for driving are generated with priority, when a large calculation load is required and a large number of complicated driving rules are required, problems remain in consideration of practicality and adaptability to the diversity of driving.
Regarding Patent Document 2, although travel rules determined based on human empirical rules are prepared, SOM is learned and used for travel, the travel is basically performed according to the rules prepared first, and cannot cope with changes in the route. There is a problem.

この発明は、上述のような課題を解決するためになされたものであり、走行路の状況に応じて、走行ルールを修正及び追加し、あらかじめ準備した走行ルールとともに、次の走行に活用できるようにした学習機能をもつ自律移動ロボットを得ることを目的にしている。   The present invention has been made to solve the above-described problems. The travel rules are corrected and added according to the conditions of the travel path, and can be used for the next travel together with the travel rules prepared in advance. The purpose is to obtain an autonomous mobile robot with learning function.

この発明に係わる学習機能をもつ自律移動ロボットにおいては、走行路の環境情報が格納された環境マップ、走行中に走行路の状況を検出するセンサ類、このセンサ類により検出された走行路の状況から自己位置を認識し、環境マップに入力する自己位置認識手段、センサ類から検出された走行路の状況から障害物を認識し、環境マップに入力する障害物認識手段、及び環境マップの環境情報が入力され、操舵情報を出力する学習手段を備え、学習手段は、環境情報を入力値とする走行ルールを学習済みの自己組織化マップを有し、この自己組織化マップの走行ルールに応じて操舵情報を出力するものである。   In the autonomous mobile robot having the learning function according to the present invention, the environment map storing the environment information of the travel path, the sensors for detecting the status of the travel path during the travel, the status of the travel path detected by the sensors Self-position recognition means for recognizing the self-position from the vehicle and inputting it to the environment map, obstacle recognition means for recognizing an obstacle from the road conditions detected by the sensors and inputting it to the environment map, and environment information of the environment map And learning means for outputting steering information. The learning means has a self-organizing map that has learned a driving rule having environmental information as an input value, and corresponds to the driving rule of the self-organizing map. Steering information is output.

この発明は、以上説明したように、走行路の環境情報が格納された環境マップ、走行中に走行路の状況を検出するセンサ類、このセンサ類により検出された走行路の状況から自己位置を認識し、環境マップに入力する自己位置認識手段、センサ類から検出された走行路の状況から障害物を認識し、環境マップに入力する障害物認識手段、及び環境マップの環境情報が入力され、操舵情報を出力する学習手段を備え、学習手段は、環境情報を入力値とする走行ルールを学習済みの自己組織化マップを有し、この自己組織化マップの走行ルールに応じて操舵情報を出力するので、走行路の状況に応じて、走行ルールを修正及び追加し、あらかじめ準備した走行ルールとともに、次の走行に活用でき、安全にかつ確実に目的地まで移動することができる。   As described above, according to the present invention, the self-position is determined from the environment map storing the environment information of the travel path, the sensors for detecting the condition of the travel path during traveling, and the condition of the travel path detected by the sensors. Self-recognition means for recognizing and inputting to the environment map, obstacle recognition means for recognizing obstacles from the road conditions detected from the sensors, and input to the environment map, and environment information of the environment map are input, A learning means for outputting steering information is provided. The learning means has a self-organizing map in which driving rules having environmental information as input values have been learned, and outputs steering information according to the driving rules of the self-organizing map. Therefore, it is possible to modify and add the travel rules according to the conditions of the travel route, and use them for the next travel together with the travel rules prepared in advance, so that you can move to the destination safely and reliably. That.

実施の形態1.
この発明の学習機能をもつ自律移動ロボット(以下、単に自律移動ロボットともいう。)は、はじめに経路を探索し、センサ情報により環境を認識しながら、予め学習させた自己組織化マップ(SOM)を基に方位、速度を決め、これを走行法の基礎とするものである。走行途中に障害物にぶつかりそうになる等の不都合が生じても、走行ルールを修正し、そこで得られた知識を走行ルールとして、追加学習し、新たに得られた走行ルールとあらかじめ準備した走行ルールとを次の走行に活用できるようにしたものであり、“走行のたびに賢くなる”自律移動ロボットである。
以下、これについて詳述する。
Embodiment 1 FIG.
An autonomous mobile robot (hereinafter also simply referred to as an autonomous mobile robot) having a learning function according to the present invention first searches for a route, recognizes an environment from sensor information, and uses a self-organizing map (SOM) learned in advance. The direction and speed are determined based on the driving method. Even if inconveniences such as hitting an obstacle occur during driving, the driving rules are corrected, the knowledge obtained there is additionally learned as driving rules, and newly acquired driving rules and driving prepared in advance It is an autonomous mobile robot that makes it possible to use rules for the next run and "gets smarter every time you run."
This will be described in detail below.

図1は、この発明の実施の形態1による学習機能をもつ自律移動ロボットを示す構成図である。
図1において、センサ類1は、自律移動ロボットに取りつけられ、走行路に設けられたランドマークや障害物などを検知する。エンコーダ、ジャイロ・センサ、超音波センサ、ドプラセンサなどが含まれる。自己位置認識機能2(自己位置認識手段)は、センサ類1からの信号により、自己位置を認識し、環境マップ5に書き込む。障害物認識機能3(障害物認識手段)は、センサ類1からの信号及びカメラ4からの映像を元にして障害物を認識し、環境マップ5に書き込む。カメラ4は、走行路を撮像し、その映像を障害物認識機能3に出力する。
環境マップ5は、学習機能をもつ自律移動ロボットに搭載したパーソナル・コンピュータ上で1ドットが1[cm]となるように、屋内全体の壁・柱・固定障害物などの走行路にあらかじめ存在する情報を書き込んだ地図情報である。目的地指定用のタッチパネル10(入力手段)により、自律移動ロボットの目的地が環境マップ5に書き込まれ、この目的地までの経路を決定した際、この環境マップ5に書き込まれた環境情報は、学習機能6(学習手段)の入力になる。
1 is a block diagram showing an autonomous mobile robot having a learning function according to Embodiment 1 of the present invention.
In FIG. 1, sensors 1 are attached to an autonomous mobile robot and detect landmarks, obstacles, and the like provided on a travel path. Encoders, gyro sensors, ultrasonic sensors, Doppler sensors and the like are included. The self-position recognition function 2 (self-position recognition means) recognizes the self-position by a signal from the sensors 1 and writes it in the environment map 5. The obstacle recognition function 3 (obstacle recognition means) recognizes an obstacle based on the signal from the sensors 1 and the video from the camera 4 and writes it in the environment map 5. The camera 4 captures the road and outputs the image to the obstacle recognition function 3.
The environment map 5 is pre-existing on a traveling path such as a wall, a pillar, or a fixed obstacle in the whole indoor so that one dot becomes 1 [cm] on a personal computer mounted on an autonomous mobile robot having a learning function. It is the map information that wrote the information. When the destination of the autonomous mobile robot is written in the environment map 5 by the touch panel 10 (input means) for specifying the destination, and the route to this destination is determined, the environment information written in the environment map 5 is: This is an input to the learning function 6 (learning means).

学習機能6は、入力された情報を用いて、学習機能をもつ自律移動ロボットを目的地へ誘導するように走行目標角度、行動パターンを駆動系入力7へ出力する。
学習機能6は、人間の脳の情報処理の方法を模擬したアルゴリズムであり、多次元データの分類・予測手法である。この学習機能6は、走行ルールの不適切があれば、修正・補正し、走行ルールを追加する機能である走行ルール追加機能61(走行ルール追加手段)と、既知の障害物及び未知の移動障害物を回避して走行する障害物回避機能62(障害物回避手段)とを有している。
走行ルール追加機能61と障害物回避機能62とは、SOM8を用いて、その学習機能を応用する。
SOM8は、走行ルールをノードとして持ち、学習によって走行ルールを追加することができる。環境マップ5は、SOM8による走行ルールの実行による経路の確認を担うものである。この確認で走行が適当なときには、自律移動ロボットの走行を続行し、壁や障害物の出現(これは環境マップ5に入力される。)のために走行が不適当なときには、走行ルールを修正して走行し、このとき、走行ルールの追加を行う。
駆動系入力7に入力された、学習機能をもつ自律移動ロボットを目的地へ誘導するための走行目標角度、行動パターンは、駆動系9に伝えられて、自律移動ロボットを目的地へ誘導する。
The learning function 6 outputs the travel target angle and the action pattern to the drive system input 7 so as to guide the autonomous mobile robot having the learning function to the destination using the input information.
The learning function 6 is an algorithm simulating the information processing method of the human brain, and is a multidimensional data classification / prediction method. This learning function 6 includes a travel rule addition function 61 (travel rule addition means) that corrects and corrects a travel rule and adds a travel rule if a travel rule is inappropriate, a known obstacle, and an unknown travel obstacle. The vehicle has an obstacle avoidance function 62 (obstacle avoidance means) that travels while avoiding an object.
The travel rule addition function 61 and the obstacle avoidance function 62 apply their learning functions using the SOM 8.
The SOM 8 has a travel rule as a node, and can add a travel rule by learning. The environment map 5 is responsible for confirming the route by executing the travel rules by the SOM 8. If this check confirms that travel is appropriate, the autonomous mobile robot will continue to travel. If travel is inappropriate due to the appearance of walls or obstacles (this is input to the environment map 5), the travel rules will be corrected. Then, run rules are added at this time.
The travel target angle and action pattern for guiding the autonomous mobile robot having the learning function, which is input to the drive system input 7, to the destination are transmitted to the drive system 9, and the autonomous mobile robot is guided to the destination.

なお、図1の自己位置認識機能2、障害物認識機能3、環境マップ5、学習機能6は、マイクロコンピュータを用い、ソフトウエアによって構成することができる。   The self-position recognition function 2, the obstacle recognition function 3, the environment map 5, and the learning function 6 in FIG. 1 can be configured by software using a microcomputer.

図2は、この発明の実施の形態1による環境マップ上での学習機能をもつ自律移動ロボットモデルを示す図である。
図2において、自律移動ロボットモデル11の左右車輪の中心位置(X、Y)が示されている。
図3は、この発明の実施の形態1による学習機能をもつ自律移動ロボットの1周期の処理の流れを示すフローチャートである。
図4は、この発明の実施の形態1による学習機能をもつ自律移動ロボットの障害物が書き込まれた環境マップを示す図である。
図4において、自律移動ロボットモデル11が障害物13を避けて壁14の間を走行する様子が示されている。
FIG. 2 is a diagram showing an autonomous mobile robot model having a learning function on the environment map according to Embodiment 1 of the present invention.
In FIG. 2, the center positions (X, Y) of the left and right wheels of the autonomous mobile robot model 11 are shown.
FIG. 3 is a flowchart showing a flow of processing in one cycle of the autonomous mobile robot having a learning function according to Embodiment 1 of the present invention.
FIG. 4 is a diagram showing an environment map in which obstacles of the autonomous mobile robot having a learning function according to the first embodiment of the present invention are written.
FIG. 4 shows the autonomous mobile robot model 11 traveling between the walls 14 avoiding the obstacle 13.

次に、動作について説明する。
自律移動ロボットの走行を考えると、安全性と信頼性の高い動作が必須条件となる。走行の安全性と信頼性を向上させる方法として、この発明では、環境マップ5を導入する。環境マップ5は、自律移動ロボットに搭載したパーソナル・コンピュータ上で1ドットが1[cm]となるように、屋内全体の壁・柱・固定障害物などのあらかじめ存在する情報を書き込み、地図の形状に合わせて行動パターンを切り替えるための境界線も書き込んだ地図情報である。この環境マップ5には、境界線で囲まれた領域ごとに、目的地までの経路を決定した際、環境情報を学習機能6に与えて、この学習機能6が自律移動ロボットを目的地へ誘導するように走行目標角度、行動パターンを、駆動系入力7に入力する。ここで環境マップ5上での自律移動ロボットモデル11は、図2のように、「センサを含めた車体全体の一番外枠を矩形」で表現する。
Next, the operation will be described.
Considering the traveling of an autonomous mobile robot, safe and reliable operation is a prerequisite. In the present invention, an environment map 5 is introduced as a method for improving the safety and reliability of traveling. The environment map 5 is written with pre-existing information such as walls, pillars, fixed obstacles, etc. of the whole indoor so that 1 dot becomes 1 [cm] on a personal computer mounted on the autonomous mobile robot, and the shape of the map This is map information in which a boundary line for switching an action pattern is also written. In this environment map 5, when the route to the destination is determined for each area surrounded by the boundary line, the environment information is given to the learning function 6, and the learning function 6 guides the autonomous mobile robot to the destination. The driving target angle and the action pattern are input to the drive system input 7 as described above. Here, the autonomous mobile robot model 11 on the environment map 5 is expressed as “the outermost frame of the entire vehicle body including the sensor is rectangular” as shown in FIG.

学習機能をもつ自律移動ロボットの存在する位置や未知の移動物体を含む障害物をセンサ類1によって確認することで、環境マップ5を常に更新し、境界線により走行パターンを切り替えながら走行制御を行い、ゴールまで走行する。
学習機能をもつ自律移動ロボットでは、走行中に得られたセンサ値を用いて、自己位置認識機能2により自己位置の決定を行い、障害物認識手段3により未知の静止及び移動する障害物の発見を行い、この自己位置と未知の障害物を環境マップ5に書き込み、環境マップ5を更新する。
走行中は、あらかじめ設定した走行ルールに従うが、環境状況によって、適応的に走行できない時には、走行ルールを修正・調整し、走行する。ここで得られた走行ルールを、次の走行に生かせるよう、学習機能6として、追加学習可能なSOMアルゴリズムを搭載している。すなわち、“走行するたびごとに賢くなる”学習機能をもつ自律移動ロボットである。
By checking the position of the autonomous mobile robot with learning function and obstacles including unknown moving objects with the sensors 1, the environment map 5 is constantly updated, and the driving control is performed while switching the driving pattern by the boundary line. Drive to the goal.
In an autonomous mobile robot having a learning function, a self-position recognition function 2 is used to determine a self-position by using a sensor value obtained during traveling, and the obstacle recognition means 3 finds an unknown stationary and moving obstacle. The self-position and the unknown obstacle are written in the environment map 5 and the environment map 5 is updated.
While traveling, the travel rules set in advance are followed, but when the vehicle cannot adaptively travel due to environmental conditions, the travel rules are corrected and adjusted to travel. An SOM algorithm that can be additionally learned is installed as the learning function 6 so that the travel rules obtained here can be used for the next travel. That is, it is an autonomous mobile robot having a learning function of “being smarter every time it travels”.

図3には、自律移動ロボットの走行の流れが示されている。ここで走行中に障害物13が認識された時、障害物13を環境マップ5に書き込み、障害物回避行動をとる。この時、同時に自律移動ロボットは、環境マップ5に書き込まれた障害物13の回避行動をとりながら自己位置を更新し、図4のように、障害物13の付近を、書き込みながら走行する。
図3では、ステップS1で、走行経路を決定する。ステップS2で、各センサの値を取得し、ステップS3で、これらを用いて、自己位置の認識、障害物の認識の情報処理を行う。次いで、ステップS4で、これらを用いて環境マップ5を更新する。ここで、ステップS5で、障害物が検知されれば、ステップS3で、障害物認識の処理を行い、ステップS4で、環境マップを更新する。
次いで、ステップS6で、環境マップ5からSOM入力値を取得し、ステップS7でSOM推論を実行し、ステップS8で、駆動系9に出力して、自律移動ロボットを走行させる。
FIG. 3 shows the flow of travel of the autonomous mobile robot. Here, when the obstacle 13 is recognized during traveling, the obstacle 13 is written in the environment map 5 and an obstacle avoidance action is taken. At this time, at the same time, the autonomous mobile robot updates its own position while taking the avoidance action of the obstacle 13 written in the environment map 5 and travels while writing in the vicinity of the obstacle 13 as shown in FIG.
In FIG. 3, a travel route is determined in step S1. In step S2, the value of each sensor is acquired, and in step S3, information of self position recognition and obstacle recognition is performed using these values. Next, in step S4, the environment map 5 is updated using these. If an obstacle is detected in step S5, an obstacle recognition process is performed in step S3, and the environment map is updated in step S4.
Next, in step S6, an SOM input value is acquired from the environment map 5, SOM inference is executed in step S7, and output to the drive system 9 in step S8 to run the autonomous mobile robot.

以下に、自律移動ロボットの走行について、詳細に順を追って、説明する。
まず、自己位置認識機能2による自律移動ロボットの自己位置の認識について、手段1〜手段7により説明する。
手段1.
学習機能をもつ自律移動ロボットの位置情報は、自己位置認識手段2により、図2のように、環境マップ5上での自律移動ロボットの左右の車輪間の中心座標X、Y及び車体の角度θで出力され、この値より環境マップ5上に現在位置を書き込む。
Hereinafter, the traveling of the autonomous mobile robot will be described in detail.
First, the self-position recognition of the autonomous mobile robot by the self-position recognition function 2 will be described by means 1 to means 7.
Means 1.
As shown in FIG. 2, the position information of the autonomous mobile robot having the learning function is obtained from the center coordinates X and Y between the left and right wheels of the autonomous mobile robot on the environment map 5 and the angle θ of the vehicle body. The current position is written on the environment map 5 from this value.

手段2.
手段1において、エンコーダ、ジャイロ・センサ、超音波センサ、ドプラセンサのそれぞれの値及びカメラ画像の処理値を用いて、図2に示すような、環境マップ上での自律移動ロボットモデル11の左右の車輪間の中心座標X、Y及び車体の角度θを算出する手法を以下に示す。
自己位置認識手段2への入力値を、エンコーダより得られた左右輪の回転数とジャイロ・センサから得られた姿勢角変化値とする。これらの情報を用い、前の制御動作(前周期)での学習機能をもつ自律移動ロボットの自己位置より、図5のように、得られた姿勢角変化値θの方向に、左右輪の回転数より算出したそれぞれの走行距離値e1、e2を直進的に延長し、自律移動ロボットの左右輪の中心座標(X、Y)、(X、Y)をそれぞれ算出する。次に、この2点の中点を求めることで、出力値(X、Y、θ)を得る。
Mean 2.
In the means 1, the left and right wheels of the autonomous mobile robot model 11 on the environment map as shown in FIG. 2 using the values of the encoder, the gyro sensor, the ultrasonic sensor, the Doppler sensor and the processing values of the camera image. A method for calculating the center coordinates X, Y and the vehicle body angle θ between them is shown below.
The input value to the self-position recognition means 2 is the rotation number of the left and right wheels obtained from the encoder and the attitude angle change value obtained from the gyro sensor. Using these pieces of information, from the self-position of the autonomous mobile robot having the learning function in the previous control operation (previous cycle), the left and right wheels are moved in the direction of the obtained posture angle change value θ 1 as shown in FIG. The travel distance values e1 and e2 calculated from the number of revolutions are linearly extended, and the center coordinates (X l , Y l ) and (X r , Y r ) of the left and right wheels of the autonomous mobile robot are calculated. Next, an output value (X 1 , Y 1 , θ 1 ) is obtained by obtaining the midpoint of these two points.

手段3.
手段1において、エンコーダより得られた左右輪の回転数を入力値として、定式を用いて算出する方法。この入力値より、前周期において決定した自己位置から、今周期の左右輪の回転数より現在位置を算出するために導出した走行軌跡の定式を用い、出力値(X、Y、θ)を得る。
Means 3.
In the first means, the rotational speed of the left and right wheels obtained from the encoder is used as an input value to calculate using a formula. From this input value, using the traveling locus formula derived to calculate the current position from the rotation speed of the left and right wheels in the current cycle from the self position determined in the previous cycle, the output values (X 2 , Y 2 , θ 2). )

手段4.
手段1において画像処理を用いる手法。入力値をカメラ4からの2次元画像とし、出力値(X、Y、θ)を得る。これはカメラを約1[m]の高さに固定して前方を撮影し、その撮影された画像を処理することで得られる。
Means 4.
A method using image processing in the first means. The input value is a two-dimensional image from the camera 4, and output values (X 3 , Y 3 , θ 3 ) are obtained. This can be obtained by fixing the camera to a height of about 1 [m], photographing the front, and processing the photographed image.

手段5.
手段1において、ランドマーク・リーダの検知信号を用いる手法。図6のように、施設内のランドマーク12は、直線の廊下と交差点の境目などに設置しており、環境マップ5の境界線の一部は、あらかじめ施設内に設置したランドマーク12と同じ位置に書き込んでいる。
そして学習機能をもつ自律移動ロボットの走行中に、センサ類1の一つであるランドマーク・リーダによるランドマーク検知信号を取得すると、検知時の自律移動ロボットの現在位置から、壁14に平行にし、検知した環境マップ5上でのランドマーク12の座標に、図6及び図7に示すように修正する。
すなわち、図7のようにランドマーク12に、自律移動ロボットモデル11の左右車輪間の中心座標を合わせるように、環境マップ5を修正する。これにより、センサの値の校正及び経路の確認を行うことができる。
Means 5.
A method of using a landmark reader detection signal in the first means. As shown in FIG. 6, the landmark 12 in the facility is installed at the boundary between the straight corridor and the intersection, and part of the boundary line of the environment map 5 is the same as the landmark 12 installed in the facility in advance. Writing in position.
When a landmark detection signal is acquired by a landmark reader, which is one of the sensors 1, while the autonomous mobile robot having a learning function is running, it is parallel to the wall 14 from the current position of the autonomous mobile robot at the time of detection. Then, the coordinates of the landmark 12 on the detected environment map 5 are corrected as shown in FIGS.
That is, the environment map 5 is corrected so that the center coordinates between the left and right wheels of the autonomous mobile robot model 11 are aligned with the landmark 12 as shown in FIG. Thereby, the calibration of the value of the sensor and the confirmation of the path can be performed.

手段6.
手段5のランドマークを用いた手法は、手段2、手段3及び手段4と同時に用いるものではなく、これらとは別に、ランドマーク検知時だけに用いる。
Means 6.
The method using the landmark of the means 5 is not used at the same time as the means 2, means 3 and 4 and is used only when the landmark is detected.

手段7.
通常走行の場合、手段2、手段3及び手段4により、以下の条件式を用いることにより誤差が少なくなるように自己位置(X、Y)を決定する。
自己位置(X、Y)については、まず、以下の式1、式2より、L、Lを求める。
Mean 7
In the case of normal traveling, the self position (X, Y) is determined by means 2, 3 and 4 by using the following conditional expression so as to reduce the error.
For the self-position (X, Y), first, L 1 and L 2 are obtained from the following expressions 1 and 2.

Figure 2007316799
Figure 2007316799

Figure 2007316799
Figure 2007316799

ここで、L、Lの値が共に20[cm]以下なら、3つの予測は、誤差が少ないとみなし、XとYは、 Here, if the values of L 1 and L 2 are both 20 cm or less, the three predictions are regarded as having little error, and X and Y are

Figure 2007316799
Figure 2007316799

Figure 2007316799
Figure 2007316799

上記以外で50[cm]以下なら Other than the above, if 50cm or less

Figure 2007316799
Figure 2007316799

Figure 2007316799
Figure 2007316799

上記以外なら
X=X
Y=Y
とする。
θの値については、まず式(3)、(4)、(5)より△θ、△θ、△θを求める。
Other than the above
X = X 1
Y = Y 1
And
As for the value of θ, Δθ 1 , Δθ 2 , and Δθ 3 are first obtained from the equations (3), (4), and (5).

Figure 2007316799
Figure 2007316799

Figure 2007316799
Figure 2007316799

Figure 2007316799
Figure 2007316799

これより、△θ、△θ、△θの値が全て5[deg]以内なら、 From this, if the values of Δθ 1 , Δθ 2 , Δθ 3 are all within 5 [deg],

Figure 2007316799
Figure 2007316799

上記以外なら
θ=θ (11)
とする。
以上の操作により決定した自律移動ロボットの自己位置を環境マップ5に書き込む。
これらの式は、いずれもカメラ画像を用いる手法により決定した自己位置に比重をおいた式となっている。
Other than the above
θ = θ 3 (11)
And
The autonomous position of the autonomous mobile robot determined by the above operation is written in the environment map 5.
Each of these expressions is an expression that places a specific gravity on the self-position determined by a technique using a camera image.

次に、障害物認識機能3による障害物の認識と環境マップへの書き込みについて、手段8〜手段11により説明する。
手段8.
手段8は、センサ類1の一つである超音波センサーの値を用いて、走行領域の把握及び障害物を認識する。10組の超音波センサから取得した値を使用し、環境マップ5上に書き込まれている自律移動ロボットの現在位置から、自律移動ロボットの車体に取り付けられた10組の超音波センサと同位置となる箇所から、超音波センサの指向性を考慮し(センサの向いている方向に対して±23[deg]の広がり)、適切な位置に弧を描くように環境マップ5に書き込む。
例えば、図8のように、学習機能をもつ自律移動ロボットの前方に障害物13aが存在すると仮定し、自律移動ロボット前方左の超音波センサからx[cm]の値を取得したとすると、図9に示すように、障害物13までの測定値を環境マップ5に書き込む。
さらに、超音波センサ、ドプラセンサ、カメラの複眼視により、移動障害物の距離、方位、速さを認識する。
Next, the recognition of the obstacle by the obstacle recognition function 3 and the writing to the environment map will be described by means 8 to 11.
Means 8.
The means 8 uses the value of the ultrasonic sensor that is one of the sensors 1 to recognize the traveling area and recognize the obstacle. Using the values obtained from the 10 sets of ultrasonic sensors, the current position of the autonomous mobile robot written on the environment map 5 and the same position as the 10 sets of ultrasonic sensors attached to the body of the autonomous mobile robot From this point, the directivity of the ultrasonic sensor is taken into consideration (spread of ± 23 [deg] with respect to the direction in which the sensor is directed), and written in the environment map 5 so as to draw an arc at an appropriate position.
For example, assuming that an obstacle 13a is present in front of an autonomous mobile robot having a learning function as shown in FIG. 8 and the value of x [cm] is obtained from an ultrasonic sensor on the left in front of the autonomous mobile robot, FIG. As shown in FIG. 9, the measured values up to the obstacle 13 are written in the environment map 5.
Furthermore, the distance, direction, and speed of the moving obstacle are recognized by the compound eye view of the ultrasonic sensor, the Doppler sensor, and the camera.

手段9.
カメラ画像を処理することにより、学習機能をもつ自律移動ロボットから障害物までの距離、障害物の幅を算出する。この手法においては、現在までにカメラ4より得られた画像から水平エッジ(床と障害物との境界)の検出を行い、その処理した画像を用いることで、障害物の有無、障害物までの距離を取得する手法(参考文献[1])が提案されている。例えば、図8のような環境で、障害物13aが発見されれば、環境マップ5上に書き込まれている現在位置より、図10のように環境マップ5上に、得られた障害物の距離および幅を用いることにより障害物13を書き込む。この時に環境マップ5上に描き込む障害物13の幅は、カメラ4の指向性を考慮して描き込むこととする。
Means 9.
By processing the camera image, the distance from the autonomous mobile robot having a learning function to the obstacle and the width of the obstacle are calculated. In this method, the horizontal edge (the boundary between the floor and the obstacle) is detected from the images obtained from the camera 4 so far, and by using the processed image, the presence or absence of the obstacle, A method for obtaining a distance (reference document [1]) has been proposed. For example, if an obstacle 13a is found in the environment as shown in FIG. 8, the distance of the obtained obstacle from the current position written on the environment map 5 to the environment map 5 as shown in FIG. And write the obstacle 13 by using the width. At this time, the width of the obstacle 13 drawn on the environment map 5 is drawn in consideration of the directivity of the camera 4.

手段10.
タッチ・センサを用いて障害物を検知する手法では、まずタッチ・センサの前後計8箇所に取り付けられたマイクロ・スイッチの検出信号により、検出したマイクロ・スイッチの個所から、前方の左右の前方・横方向、後方に障害物が存在することを認識する。そして、学習機能をもつ自律移動ロボットの現在位置より図11のように障害物13を書き込む。図11は、学習機能をもつ自律移動ロボット前方のマイクロ・スイッチが障害物を検知した時の環境マップ上の様子を示している。
タッチセンサにより障害物を検知したときは、走行を緊急停止する。
Means 10.
In the method of detecting an obstacle using a touch sensor, first, the detection signal of the micro switch attached to the front and rear total of eight places of the touch sensor is used to detect the front, left and right front, Recognize that there are obstacles in the lateral and backward directions. Then, the obstacle 13 is written as shown in FIG. 11 from the current position of the autonomous mobile robot having the learning function. FIG. 11 shows a state on the environment map when the micro switch in front of the autonomous mobile robot having a learning function detects an obstacle.
When the obstacle is detected by the touch sensor, the traveling is stopped urgently.

手段11.
ここで、手段8の超音波センサの距離測定での不安定動作を補うため、手段9のカメラ情報により発見された障害物も含め、その存在確率として5段階の危険度を与える(障害物の存在しない時存在確率を1とする)。環境マップ5上では危険度が5段階目(危険度を示す数字が5になった時)に達したとき、初めて障害物と認める。
危険度の区別を以下のようにする。
(1)画像処理によって発見された物体のある位置の値に危険度3を加える。
(2)画像処理によって障害物の無いことが確認されると、その位置の危険度に−2を加える。
(3)超音波センサによって発見された物体のある位置の値に1を加える。
(4)タッチ・センサによって発見された物体のある位置の値に5を加える。
(5)危険度は5を超えることは無く、0を下回ることも無い。
Means 11.
Here, in order to compensate for the unstable operation in the distance measurement of the ultrasonic sensor of the means 8, including the obstacle discovered by the camera information of the means 9, a five-stage risk is given as the existence probability (of the obstacle) The probability of existence when it does not exist is 1). On the environment map 5, when the risk reaches the fifth level (when the number indicating the risk reaches 5), it is recognized as an obstacle for the first time.
The risk classification is as follows.
(1) Add a degree of risk 3 to the value of a certain position of an object found by image processing.
(2) When it is confirmed by the image processing that there is no obstacle, -2 is added to the danger level of the position.
(3) Add 1 to the value of a certain position of the object found by the ultrasonic sensor.
(4) Add 5 to the value of a certain position of the object found by the touch sensor.
(5) The risk does not exceed 5 and does not fall below 0.

次に、環境マップからSOMへの入力及びSOMからの出力について、手段12〜手段15により説明する。
手段12.
学習機能をもつ自律移動ロボットでは、その環境マップ5に書き込まれた現在位置とその周囲の環境情報及び移動物体情報の学習により得られた速さ、方位情報を用いて、あらかじめ学習されたSOM8の入力値を取得し、ベスト・マッチ・ユニットを計算し、自律移動ロボットの次の動作の決定を行う。
Next, input from the environment map to the SOM and output from the SOM will be described by means 12 to means 15.
Means 12.
In an autonomous mobile robot having a learning function, the SOM 8 trained in advance using the current position written in the environment map 5 and the speed and direction information obtained by learning the surrounding environment information and moving object information. Get the input value, calculate the best match unit, and determine the next action of the autonomous mobile robot.

手段13.
あらかじめ学習されたSOM8の入力値として、図12のように学習機能をもつ自律移動ロボットの周囲を11個の領域に分け、それぞれの領域内で超音波センサが取得した距離情報の値を、SOM8への入力値として適用している。それぞれの入力値に対してベスト・マッチ・ユニットを算出し、出力値を求めている。
Means 13.
As an input value of the SOM 8 learned in advance, the area of the autonomous mobile robot having a learning function as shown in FIG. 12 is divided into 11 regions, and the value of the distance information acquired by the ultrasonic sensor in each region is used as the SOM 8 It is applied as an input value to. The best match unit is calculated for each input value, and the output value is obtained.

手段14.
ここで、手段13の図12の各領域の最短距離値の取得法は、環境マップ5上より、図13のように各領域ごとに車体からの距離が1[cm]づつ広がるような形で、壁14や障害物が存在するかどうか確認して行く。そして障害物が存在するとそこまでの距離値を障害物までの最短距離値として取得する。図13では、図12の領域5と領域8での値の取得法を示している。
Means 14.
Here, the method of obtaining the shortest distance value of each area in FIG. 12 of the means 13 is such that the distance from the vehicle body increases by 1 [cm] for each area from the environment map 5 as shown in FIG. Check if there are any walls 14 or obstacles. If there is an obstacle, the distance value to that point is acquired as the shortest distance value to the obstacle. FIG. 13 shows a method of acquiring values in the areas 5 and 8 in FIG.

手段15.
SOM8による推論出力値は、学習機能をもつ自律移動ロボットを直進または左右どちらの方向にどれだけの旋回半径で旋回走行させるかということを表わす旋回半径値で出力される。
Means 15.
The inference output value by the SOM 8 is output as a turning radius value indicating how much turning radius the autonomous mobile robot having a learning function turns straight or left and right.

次に、走行準備として環境マップの作成について、手段16、手段17により説明する。
手段16.
走行準備として環境マップ5を作成する。環境マップ5は、施設内の廊下の幅や柱、長椅子などの固定障害物を1[cm]単位で測って作成し、作成した環境マップ5に学習機能をもつ自律移動ロボットの走行方法を切り替えるための境界線も書き込む。
Next, creation of an environment map as preparation for traveling will be described by means 16 and means 17.
Means 16.
The environment map 5 is created as preparation for traveling. The environment map 5 is created by measuring fixed obstacles such as corridor widths, pillars, and chaise longues in the facility in units of 1 [cm], and the travel method of the autonomous mobile robot having a learning function is switched to the created environment map 5 Write a boundary line.

手段17.
作成した環境マップ5に初期位置、目的地を入力し、目的値までの経路を決定し、環境マップ5の各領域に学習機能をもつ自律移動ロボットを目的地に誘導するように目標角、走行方向を入力する。
Means 17.
The initial position and destination are input to the created environment map 5, the route to the target value is determined, and the target angle and travel so that an autonomous mobile robot having a learning function in each area of the environment map 5 is guided to the destination. Enter the direction.

次に、自律移動ロボットの走行による環境マップの更新について、手段18〜手段21により説明する。
手段18.
学習機能をもつ自律移動ロボットの走行を開始させる。走行中は、まずエンコーダ、ジャイロ・センサからの値、カメラからカメラ画像を取得する。ここで取得した値と走行特性を定式化した式を用いて、学習機能をもつ自律移動ロボットの位置認識を行う。
Next, the update of the environment map by the traveling of the autonomous mobile robot will be described by means 18 to 21.
Means 18.
Start running of an autonomous mobile robot with a learning function. During traveling, first the values from the encoder and gyro sensor and the camera image from the camera are acquired. The position of the autonomous mobile robot having a learning function is recognized using the formula obtained by formulating the acquired value and the running characteristic.

手段19.
得られた学習機能をもつ自律移動ロボットの位置情報を用いて、環境マップ5上に書き込む。
Means 19.
Using the obtained position information of the autonomous mobile robot having the learning function, the information is written on the environment map 5.

次に、SOMの作成について、手段20により説明する。
手段20.
学習機能をもつ自律移動ロボットの現在位置が環境マップ5に書き込まれると、次に超音波センサとカメラ画像を用いて未知の障害物の認識を行う。
Next, the creation of the SOM will be described by means 20.
Means 20.
When the current position of the autonomous mobile robot having a learning function is written in the environment map 5, an unknown obstacle is recognized using an ultrasonic sensor and a camera image.

走行路上に置かれた物、移動する物、人、他の車椅子などの障害物に遭遇したとき、走行移動中の自律移動ロボットは、それらの位置、速度、方向をリアルタイムに計測し、自己の走行方向および速度を制御する必要がある。
本システムでは、図14のように、自律移動ロボット周辺の環境情報及び障害物移動情報(位置、速度、方向)から、SOM8により、自己の操舵情報(走行速度、方向)を類推し、安全に目的地まで自律移動ロボットを移動させることになる。
走行中の自律移動ロボットに対する移動障害物の位置、速度、方向は、自律移動ロボットに搭載されたセンサにより検知する。障害物の位置は、超音波センサにより、速度は、ドプラーセンサにより、方向は、2台のカメラによる両眼視による方位角センサにより計測する。
これらのセンサからの信号は、障害物認識機能3により、障害物として認識され、環境マップ5に書き込まれる。そして、環境マップ5から、あらかじめ用意されたSOM8に入力され、その時々の操舵情報を求める。ただし、方位については、経路探索により得た、目的地へ向かう経路情報とマッチングを取りながら決定する。
When an obstacle such as an object placed on the road, a moving object, a person, or another wheelchair is encountered, the autonomous mobile robot that is traveling is measuring its position, speed, and direction in real time, It is necessary to control the traveling direction and speed.
In this system, as shown in FIG. 14, by using SOM8, the steering information (traveling speed and direction) is estimated from environmental information and obstacle movement information (position, speed and direction) around the autonomous mobile robot, and safely. The autonomous mobile robot will be moved to the destination.
The position, speed, and direction of the moving obstacle with respect to the traveling autonomous mobile robot are detected by sensors mounted on the autonomous mobile robot. The position of the obstacle is measured by an ultrasonic sensor, the speed is measured by a Doppler sensor, and the direction is measured by an azimuth angle sensor by binocular vision using two cameras.
Signals from these sensors are recognized as obstacles by the obstacle recognition function 3 and written to the environment map 5. And it inputs into SOM8 prepared beforehand from the environment map 5, and obtains the steering information at that time. However, the direction is determined while matching with the route information to the destination obtained by the route search.

このため、走行状態を学習させるためのSOM8を作成する必要がある。
そのために、
(a)現場に出かけて、具体的な状況で自律移動ロボットを動かして、周囲情報と操舵情報のデータを収集する。
(b)上記の同様な状況で、計算機シミュレーションにより周囲情報と操舵情報のデータを収集する。
(c)(a)(b)両者のマッチングを取る。
For this reason, it is necessary to create the SOM 8 for learning the running state.
for that reason,
(A) Go to the site, move the autonomous mobile robot in a specific situation, and collect data of surrounding information and steering information.
(B) Collect data of surrounding information and steering information by computer simulation in the same situation as above.
(C) (a) (b) Match both.

種々の現場において自律移動ロボットを走行させ、走行中の自律移動ロボットに対する周囲情報及び障害物の位置、速度、方向のデータをとり、その場合の適当な走行方向、走行速度を決め、予め、図15のようなSOM8を学習、作成する必要がある。SOM8を学習するには、図17(a)のように、自律移動ロボットの周囲の環境情報、障害物移動情報、目的地情報、操舵情報を使用する。完成した(学習した)SOM8を自律移動ロボットに搭載、図17(b)のように、具体的な走行状態に応じて、センサ情報(障害物移動情報)、目的地情報、周囲情報をSOM8に入力し、その出力から自律移動ロボットの操舵情報(方位、速度)を得て、駆動系9に出力し、自律移動ロボットの実環境での走行に生かす。
自律移動ロボットにセンサ群1を搭載し、走行中の自律移動ロボットに対する障害物の位置、速度、方向を得て、環境マップ5上に書き込みながら、自律移動ロボットモデルの走行を実現する。
実環境での走行情報、環境マップ5上での走行情報のマッチングを取ることにより、安全走行が可能になる。
図16は、学習による自律移動ロボットの走行システムでのSOMのイメージ図を示している。
The autonomous mobile robot is run at various sites, the surrounding information for the autonomous mobile robot that is running and the position, speed, and direction data of the obstacle are taken, and the appropriate travel direction and travel speed in that case are determined in advance. SOM8 like 15 needs to be learned and created. In order to learn SOM8, as shown in FIG. 17A, environmental information, obstacle movement information, destination information, and steering information around the autonomous mobile robot are used. The completed (learned) SOM 8 is mounted on an autonomous mobile robot, and sensor information (obstacle movement information), destination information, and surrounding information are stored in the SOM 8 according to a specific traveling state as shown in FIG. The steering information (azimuth and speed) of the autonomous mobile robot is obtained from the input, and output to the drive system 9 for use in traveling in the actual environment of the autonomous mobile robot.
The sensor group 1 is mounted on the autonomous mobile robot, the position, speed, and direction of the obstacle with respect to the traveling autonomous mobile robot are obtained, and the autonomous mobile robot model travels while writing on the environment map 5.
Safe driving is possible by matching the driving information in the real environment and the driving information on the environment map 5.
FIG. 16 shows an image diagram of the SOM in the traveling system of the autonomous mobile robot by learning.

手段21.
未知の障害物が発見されれば、手段11の危険度を参照しつつ環境マップ5を更新する。
Means 21.
If an unknown obstacle is found, the environment map 5 is updated while referring to the danger level of the means 11.

次に、走行によるSOMの走行ルールの修正及び追加について、手段22により説明する。
手段22.
ここまでの処理が終了すると、学習機能をもつ自律移動ロボット走行中の最新の環境マップ5が完成する。この環境マップ5を用いて、SOM8による操作情報決定のための入力値を取得し、SOM8の推論能力を用いて、次の動作の決定を行う。
学習機能をもつ自律移動ロボットは、このセンサ値の取得、自己位置認識、障害物認識、SOM8の推論能力を用いた次の動作の決定を繰り返すことで、目的地まで走行する。
Next, the correction and addition of the SOM traveling rules by traveling will be described by means 22.
Means 22.
When the processing so far is completed, the latest environment map 5 during traveling of the autonomous mobile robot having a learning function is completed. Using this environment map 5, an input value for determining operation information by the SOM 8 is acquired, and the next operation is determined using the inference ability of the SOM 8.
The autonomous mobile robot having a learning function travels to the destination by repeating the acquisition of the sensor value, self-position recognition, obstacle recognition, and determination of the next operation using the inference ability of SOM8.

次に、走行評価及び追加学習データの獲得を環境マップ上で考える。図18は、走行評価及び追加学習データの獲得を示している。
走行中、自律移動ロボットと障害物との衝突が予測されれば、走行方向を調整する。これにより、得られた走行ルールデータを追加学習の際に使用する。初めに学習により用意したSOM8から、環境情報を入力し、得られた走行ルールにより走行予測を行い、危険度(近接度)が低ければ、そのまま走行する。危険度がある値を超えると、環境情報を入力し、得られた走行ルールと障害物情報により走行ルールを修正する。この修正は、予め得られた走行ルールと障害物情報を入力とするファジィ制御により行う(図18参照)。
Next, the travel evaluation and acquisition of additional learning data are considered on the environment map. FIG. 18 shows driving evaluation and acquisition of additional learning data.
If a collision between the autonomous mobile robot and an obstacle is predicted during traveling, the traveling direction is adjusted. Thus, the obtained travel rule data is used for additional learning. First, environmental information is input from the SOM 8 prepared by learning, and travel prediction is performed based on the obtained travel rules. If the risk (proximity) is low, the vehicle travels as it is. When the degree of risk exceeds a certain value, environmental information is input and the driving rule is corrected based on the obtained driving rule and obstacle information. This correction is performed by fuzzy control using the travel rules and obstacle information obtained in advance as inputs (see FIG. 18).

次に、図19の走行評価及び追加学習データの獲得のフローチャートについて、図15を参照して説明する。
ステップS11で、学習済みのSOM8に、環境情報を入力し、操舵角、速度の出力を得る。次いで、ステップS12で、この出力を駆動系9に与えて試行し、ステップS13で、その走行ルールを評価する(図15参照)。危険であれば、ステップS14で、走行ルールを修正し、ステップS12に戻って再試行するとともに、ステップS15で、SOM8への追加学習する。
ステップS13で、評価がOKであれば、ステップS16で、走行し、目標地点に到達すれば終了する。目標地点に到達しなければ、ステップS1から繰り返す。
図20は、実環境上及び、図19による走行による環境マップ上での障害物回避行動を示している。
Next, a flowchart of the travel evaluation and acquisition of additional learning data in FIG. 19 will be described with reference to FIG.
In step S11, environmental information is input to the learned SOM 8, and outputs of steering angle and speed are obtained. Next, in step S12, this output is given to the drive system 9 for trial. In step S13, the travel rule is evaluated (see FIG. 15). If it is dangerous, the travel rule is corrected in step S14, the process returns to step S12 and is retried, and additional learning to SOM 8 is performed in step S15.
If the evaluation is OK in step S13, the vehicle travels in step S16, and the process ends if the target point is reached. If it does not reach the target point, it repeats from step S1.
FIG. 20 shows the obstacle avoidance behavior in the actual environment and on the environment map by running according to FIG.

実施の形態1によれば、走行路の状況に応じて、走行ルールを修正及び追加し、あらかじめ準備した走行ルールとともに、次の走行に活用できるようにした学習機能をもつ自律移動ロボットを提供でき、工場、福祉施設内および病院のロビー等内で、安全にかつ確実に目的地まで移動できる学習機能をもつ自律移動ロボットを構築することができる。   According to the first embodiment, it is possible to provide an autonomous mobile robot having a learning function that can be used for the next travel along with the travel rules prepared and corrected in advance according to the conditions of the travel path. It is possible to construct an autonomous mobile robot having a learning function that can safely and reliably move to a destination in a factory, a welfare facility, a hospital lobby, or the like.

参考文献
[1] 菅野祥伸、山本寿、大木誠、大北正昭:屋内環境におけるカメラ・データと現在地推定データのマッチングによる位置認識、電気学会全国大会講演論文集、3−043、p.4(2002)。
References [1] Yoshinobu Kanno, Hisashi Yamamoto, Makoto Oki, Masaaki Ohkita: Position recognition by matching camera data and current location data in indoor environment, Proceedings of the IEEJ National Conference, 3-043, p. 4 (2002).

学習機能を有する自律移動ロボットの制御技術は種々の分野で応用できる。例えば、病院であれば、学習機能をもつ自律移動ベッド、福祉施設では学習機能をもつ自律移動車椅子、さらに、掃除ロボット、案内・ガイドロボット等である。   Control technology of autonomous mobile robot with learning function can be applied in various fields. For example, an autonomous mobile bed having a learning function in a hospital, an autonomous mobile wheelchair having a learning function in a welfare facility, a cleaning robot, a guide / guide robot, and the like.

この発明の実施の形態1による学習機能をもつ自律移動ロボットを示す構成図である。It is a block diagram which shows the autonomous mobile robot with a learning function by Embodiment 1 of this invention. この発明の実施の形態1による環境マップ上での学習機能をもつ自律移動ロボットモデルを示す図である。It is a figure which shows the autonomous mobile robot model which has a learning function on the environment map by Embodiment 1 of this invention. この発明の実施の形態1による学習機能をもつ自律移動ロボットの1周期の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process of 1 period of the autonomous mobile robot with a learning function by Embodiment 1 of this invention. この発明の実施の形態1による学習機能をもつ自律移動ロボットの障害物が書き込まれた環境マップを示す図である。It is a figure which shows the environment map in which the obstacle of the autonomous mobile robot with a learning function by Embodiment 1 of this invention was written. この発明の実施の形態1による学習機能をもつ自律移動ロボットのエンコーダとジャイロ・センサによる学習機能をもつ自律移動ロボットモデルの位置と姿勢角の決定を示す図である。It is a figure which shows the determination of the position and attitude | position angle of the autonomous mobile robot model which has a learning function by the encoder and gyro sensor of the autonomous mobile robot which has a learning function by Embodiment 1 of this invention. この発明の実施の形態1による学習機能をもつ自律移動ロボットのランドマークによる自己位置の修正1を示す図である。It is a figure which shows the correction 1 of the self-position by the landmark of the autonomous mobile robot with a learning function by Embodiment 1 of this invention. この発明の実施の形態1による学習機能をもつ自律移動ロボットのランドマークによる自己位置の修正2を示す図である。It is a figure which shows the correction 2 of the self position by the landmark of the autonomous mobile robot with a learning function by Embodiment 1 of this invention. この発明の実施の形態1による学習機能をもつ自律移動ロボットが走行する障害物の存在する環境を示す図である。It is a figure which shows the environment where the obstruction which the autonomous mobile robot with a learning function by Embodiment 1 of this invention drive | works exists. この発明の実施の形態1による学習機能をもつ自律移動ロボットの超音波センサによる環境マップの更新を示す図である。It is a figure which shows the update of the environment map by the ultrasonic sensor of the autonomous mobile robot with a learning function by Embodiment 1 of this invention. この発明の実施の形態1による学習機能をもつ自律移動ロボットのカメラ画像による障害物認識を示す図である。It is a figure which shows the obstruction recognition by the camera image of the autonomous mobile robot with a learning function by Embodiment 1 of this invention. この発明の実施の形態1による学習機能をもつ自律移動ロボットのタッチ・センサでの環境マップの更新を示す図である。It is a figure which shows the update of the environment map with the touch sensor of the autonomous mobile robot with a learning function by Embodiment 1 of this invention. この発明の実施の形態1による学習機能をもつ自律移動ロボットの距離計測のための車体周辺領域の分割を示す図である。It is a figure which shows the division | segmentation of the vehicle body periphery area | region for the distance measurement of the autonomous mobile robot with a learning function by Embodiment 1 of this invention. この発明の実施の形態1による学習機能をもつ自律移動ロボットの定義された領域(5、8)でのSOM推論の入力値距離情報取得例を示す図である。It is a figure which shows the input value distance information acquisition example of the SOM inference in the area | region (5, 8) where the autonomous mobile robot with a learning function by Embodiment 1 of this invention was defined. この発明の実施の形態1による学習機能をもつ自律移動ロボットの学習による走行システムを示すイメージ図である。It is an image figure which shows the driving | running | working system by learning of the autonomous mobile robot with a learning function by Embodiment 1 of this invention. この発明の実施の形態1による学習機能をもつ自律移動ロボットのSOMの追加学習による知識の獲得過程を示す図である。It is a figure which shows the acquisition process of the knowledge by the additional learning of SOM of the autonomous mobile robot with the learning function by Embodiment 1 of this invention. この発明の実施の形態1による学習機能をもつ自律移動ロボットの学習による自律移動ロボットの走行システムSOMマップを示すイメージ図である。It is an image figure which shows the traveling system SOM map of the autonomous mobile robot by learning of the autonomous mobile robot with the learning function by Embodiment 1 of this invention. この発明の実施の形態1による学習機能をもつ自律移動ロボットのSOMの学習と学習されたSOMの利用を示す図である。It is a figure which shows the learning of SOM of the autonomous mobile robot with a learning function by Embodiment 1 of this invention, and utilization of the learned SOM. この発明の実施の形態1による学習機能をもつ自律移動ロボットの走行評価及び追加学習データの獲得を示す図である。It is a figure which shows driving | running | working evaluation and acquisition of additional learning data of the autonomous mobile robot with a learning function by Embodiment 1 of this invention. この発明の実施の形態1による学習機能をもつ自律移動ロボットの走行評価及び追加学習データの獲得を示すフローチャートである。It is a flowchart which shows driving | running | working evaluation and acquisition of additional learning data of the autonomous mobile robot with a learning function by Embodiment 1 of this invention. この発明の実施の形態1による学習機能をもつ自律移動ロボットの実環境上及び環境マップ上での障害物回避行動を示す図である。It is a figure which shows the obstacle avoidance action on the real environment and environment map of the autonomous mobile robot with a learning function by Embodiment 1 of this invention.

符号の説明Explanation of symbols

1 センサ類
2 自己位置認識機能
3 障害物認識機能
4 カメラ
5 環境マップ
6 学習機能
7 駆動系入力
8 SOM
9 駆動系
10 タッチパネル
11 環境マップ上の自律移動ロボットモデル
11a 実環境での自律移動ロボット
12 環境マップ上のランドマーク
13 環境マップ上の障害物
13a 実環境での障害物
14 環境マップ上の壁
61 走行ルール追加機能
62 障害物回避機能
1 Sensors 2 Self-position recognition function 3 Obstacle recognition function 4 Camera 5 Environment map 6 Learning function 7 Drive system input 8 SOM
9 Driving system 10 Touch panel 11 Autonomous mobile robot model 11a on the environment map Autonomous mobile robot 12 in the real environment 12 Landmark on the environmental map 13 Obstacle on the environmental map 13a Obstacle in the real environment 14 Wall 61 on the environmental map Travel rule addition function 62 Obstacle avoidance function

Claims (10)

走行路の環境情報が格納された環境マップ、走行中に上記走行路の状況を検出するセンサ類、このセンサ類により検出された上記走行路の状況から自己位置を認識し、上記環境マップに入力する自己位置認識手段、上記センサ類から検出された上記走行路の状況から障害物を認識し、上記環境マップに入力する障害物認識手段、及び上記環境マップの環境情報が入力され、操舵情報を出力する学習手段を備え、上記学習手段は、上記環境情報を入力値とする走行ルールを学習済みの自己組織化マップを有し、この自己組織化マップの走行ルールに応じて操舵情報を出力することを特徴とする学習機能をもつ自律移動ロボット。   An environment map that stores environmental information of the road, sensors that detect the status of the road during driving, and the self-position is recognized from the conditions of the road detected by the sensors and input to the environment map. Self-position recognizing means for recognizing obstacles from the road conditions detected by the sensors and inputting the obstacle information to the environment map, and environment information of the environment map is inputted, and steering information is obtained. A learning means for outputting, and the learning means has a self-organizing map having learned the driving rules having the environment information as an input value, and outputs steering information according to the driving rules of the self-organizing map. An autonomous mobile robot with a learning function characterized by 上記学習手段は、走行中に上記環境マップに障害物が入力されたとき、上記障害物を回避する障害物回避手段を有することを特徴とする請求項1記載の学習機能をもつ自律移動ロボット。   2. The autonomous mobile robot having a learning function according to claim 1, wherein the learning means includes obstacle avoidance means for avoiding the obstacle when an obstacle is input to the environment map during traveling. 上記学習手段は、走行中に上記環境マップに障害物が入力されたとき、上記障害物を回避する走行ルールを上記自己組織化マップに追加する走行ルール追加手段を有することを特徴とする請求項1記載の学習機能をもつ自律移動ロボット。   The said learning means has the driving rule addition means which adds the driving rule which avoids the said obstacle to the said self-organization map, when the obstacle is input into the said environment map during driving | running | working. An autonomous mobile robot having the learning function according to 1. 上記自己組織化マップは、上記環境マップのもつ環境情報及びこれに対応する操舵情報が入力されることにより、上記走行ルールを学習したことを特徴とする請求項1記載の学習機能をもつ自律移動ロボット。   2. The autonomous movement having a learning function according to claim 1, wherein the self-organizing map has learned the driving rule by inputting environmental information of the environmental map and steering information corresponding thereto. robot. 上記障害物回避手段は、上記環境マップの環境情報により、自己組織化マップの走行ルールで走行が可能かどうかを評価し、走行できないときは、上記走行ルールを修正して障害物を回避することを特徴とする請求項2記載の学習機能をもつ自律移動ロボット。   The obstacle avoiding means evaluates whether or not the vehicle can run according to the driving rules of the self-organizing map based on the environmental information of the environmental map, and when the vehicle cannot run, corrects the driving rules to avoid the obstacle. An autonomous mobile robot having a learning function according to claim 2. 上記環境マップに目的地を入力する入力手段を備えたことを特徴とする請求項1記載の学習機能をもつ自律移動ロボット。   2. The autonomous mobile robot having a learning function according to claim 1, further comprising input means for inputting a destination to the environment map. 上記センサ類は、複数のセンサを有し、上記自己位置認識手段は、複数のセンサ情報を用いて、自己位置を認識することを特徴とする請求項1記載の学習機能をもつ自律移動ロボット。   2. The autonomous mobile robot having a learning function according to claim 1, wherein the sensors include a plurality of sensors, and the self-position recognition means recognizes the self-position using a plurality of sensor information. 上記センサ類は、複数のセンサを有し、上記障害物認識手段は、複数のセンサ情報を用いて、障害物を認識することを特徴とする請求項1記載の学習機能をもつ自律移動ロボット。   2. The autonomous mobile robot having a learning function according to claim 1, wherein the sensors include a plurality of sensors, and the obstacle recognition means recognizes an obstacle using a plurality of sensor information. 上記走行路には、ランドマークが定義され、上記自己位置認識手段は、上記ランドマークにより自己位置を確認することを特徴とする請求項1記載の学習機能をもつ自律移動ロボット。   2. The autonomous mobile robot having a learning function according to claim 1, wherein a landmark is defined on the travel path, and the self-position recognition means confirms the self-position based on the landmark. 上記センサ類には、タッチセンサが含まれ、上記タッチセンサからの情報に応じて、走行を緊急停止することを特徴とする請求項1記載の学習機能をもつ自律移動ロボット。
The autonomous mobile robot having a learning function according to claim 1, wherein the sensors include a touch sensor, and the travel is stopped urgently according to information from the touch sensor.
JP2006143783A 2006-05-24 2006-05-24 Autonomous mobile robot with learning function Active JP4852753B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006143783A JP4852753B2 (en) 2006-05-24 2006-05-24 Autonomous mobile robot with learning function

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006143783A JP4852753B2 (en) 2006-05-24 2006-05-24 Autonomous mobile robot with learning function

Publications (2)

Publication Number Publication Date
JP2007316799A true JP2007316799A (en) 2007-12-06
JP4852753B2 JP4852753B2 (en) 2012-01-11

Family

ID=38850618

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006143783A Active JP4852753B2 (en) 2006-05-24 2006-05-24 Autonomous mobile robot with learning function

Country Status (1)

Country Link
JP (1) JP4852753B2 (en)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009245195A (en) * 2008-03-31 2009-10-22 Fujitsu Ltd Autonomous mobile robot and obstacle identification method thereof
JP2012173013A (en) * 2011-02-17 2012-09-10 Fujitsu Ltd Estimated position evaluation system and program
JP2013206237A (en) * 2012-03-29 2013-10-07 Denso It Laboratory Inc Autonomous travel robot and travel control method of autonomous travel robot
JP2016024766A (en) * 2014-07-24 2016-02-08 日本精工株式会社 Robot for guidance
WO2017188706A1 (en) * 2016-04-25 2017-11-02 엘지전자 주식회사 Mobile robot and mobile robot control method
KR20180023100A (en) * 2016-08-23 2018-03-07 한국철도기술연구원 A Method and Apparatus for Decision and Control for Robust Platooning
WO2018193653A1 (en) * 2017-04-21 2018-10-25 パナソニックIpマネジメント株式会社 Mobile device, object detection method, and program
CN109382825A (en) * 2017-08-08 2019-02-26 发那科株式会社 Control device and learning device
JP2019059148A (en) * 2017-09-27 2019-04-18 京セラドキュメントソリューションズ株式会社 Delivery device and delivery system
CN110315553A (en) * 2019-06-23 2019-10-11 大国重器自动化设备(山东)股份有限公司 A kind of dining room robot collision avoidance system and method
WO2019203022A1 (en) * 2018-04-20 2019-10-24 ソニー株式会社 Moving body, information processing device, information processing method, and program
JP2020107024A (en) * 2018-12-27 2020-07-09 株式会社ダイヘン Moving object, learned element, and learned element generation method
JP2020140490A (en) * 2019-02-28 2020-09-03 三菱ロジスネクスト株式会社 Transportation system, area determination device, and area determination method
CN111673730A (en) * 2019-03-11 2020-09-18 本田技研工业株式会社 Path determining method
JP2020194432A (en) * 2019-05-29 2020-12-03 トヨタ自動車株式会社 Machine learning method and mobile robot
JP6815571B1 (en) * 2020-02-27 2021-01-20 三菱電機株式会社 Robot control device, robot control method and learning model generation device
JP2021033685A (en) * 2019-08-26 2021-03-01 株式会社デンソー Learning program and learning method
JP2021076995A (en) * 2019-11-07 2021-05-20 三菱ロジスネクスト株式会社 Cargo handling system
JP6896179B1 (en) * 2020-02-10 2021-06-30 三菱電機株式会社 Control device and learning device
US11110603B2 (en) 2018-10-02 2021-09-07 Toyota Research Institute, Inc. Systems and methods for naïve physics for contact and contact-awareness in robotic teleoperation
CN114012732A (en) * 2021-11-26 2022-02-08 北京云迹科技有限公司 Robot control method, device, equipment and medium
CN114167857A (en) * 2021-11-08 2022-03-11 北京三快在线科技有限公司 Control method and device of unmanned equipment
JP2022543559A (en) * 2019-08-06 2022-10-13 シーメンス エレクトロニック デザイン オートメーション ゲゼルシャフト ミット ベシュレンクテル ハフツング Method, Apparatus, and System for Controlling Autonomous Vehicles

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL2017645B1 (en) * 2016-10-20 2018-04-26 Lely Patent Nv Animal farm system and method of generating barn map information of said animal farm system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0289134A (en) * 1988-09-26 1990-03-29 Nippon Telegr & Teleph Corp <Ntt> Rule learning processing system
JP2005211442A (en) * 2004-01-30 2005-08-11 Tottori Univ Autonomously movable wheelchair

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0289134A (en) * 1988-09-26 1990-03-29 Nippon Telegr & Teleph Corp <Ntt> Rule learning processing system
JP2005211442A (en) * 2004-01-30 2005-08-11 Tottori Univ Autonomously movable wheelchair

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009245195A (en) * 2008-03-31 2009-10-22 Fujitsu Ltd Autonomous mobile robot and obstacle identification method thereof
JP2012173013A (en) * 2011-02-17 2012-09-10 Fujitsu Ltd Estimated position evaluation system and program
JP2013206237A (en) * 2012-03-29 2013-10-07 Denso It Laboratory Inc Autonomous travel robot and travel control method of autonomous travel robot
JP2016024766A (en) * 2014-07-24 2016-02-08 日本精工株式会社 Robot for guidance
KR102192791B1 (en) 2016-04-25 2020-12-18 엘지전자 주식회사 Mobile robot and control method of mobile robot
WO2017188706A1 (en) * 2016-04-25 2017-11-02 엘지전자 주식회사 Mobile robot and mobile robot control method
KR20180125010A (en) * 2016-04-25 2018-11-21 엘지전자 주식회사 Control method of mobile robot and mobile robot
US10939791B2 (en) 2016-04-25 2021-03-09 Lg Electronics Inc. Mobile robot and mobile robot control method
KR20180023100A (en) * 2016-08-23 2018-03-07 한국철도기술연구원 A Method and Apparatus for Decision and Control for Robust Platooning
KR101889607B1 (en) * 2016-08-23 2018-08-22 한국철도기술연구원 A Method and Apparatus for Decision and Control for Robust Platooning
WO2018193653A1 (en) * 2017-04-21 2018-10-25 パナソニックIpマネジメント株式会社 Mobile device, object detection method, and program
CN109382825B (en) * 2017-08-08 2021-03-02 发那科株式会社 Control device and learning device
US10953538B2 (en) 2017-08-08 2021-03-23 Fanuc Corporation Control device and learning device
CN109382825A (en) * 2017-08-08 2019-02-26 发那科株式会社 Control device and learning device
JP2019030941A (en) * 2017-08-08 2019-02-28 ファナック株式会社 Control device and learning device
JP2019059148A (en) * 2017-09-27 2019-04-18 京セラドキュメントソリューションズ株式会社 Delivery device and delivery system
WO2019203022A1 (en) * 2018-04-20 2019-10-24 ソニー株式会社 Moving body, information processing device, information processing method, and program
US11110603B2 (en) 2018-10-02 2021-09-07 Toyota Research Institute, Inc. Systems and methods for naïve physics for contact and contact-awareness in robotic teleoperation
JP7360792B2 (en) 2018-12-27 2023-10-13 株式会社ダイヘン Mobile object, learning device, and learning device manufacturing method
JP2020107024A (en) * 2018-12-27 2020-07-09 株式会社ダイヘン Moving object, learned element, and learned element generation method
JP2020140490A (en) * 2019-02-28 2020-09-03 三菱ロジスネクスト株式会社 Transportation system, area determination device, and area determination method
CN111673730A (en) * 2019-03-11 2020-09-18 本田技研工业株式会社 Path determining method
US11669096B2 (en) 2019-03-11 2023-06-06 Honda Motor Co., Ltd. Route determination method
JP2020194432A (en) * 2019-05-29 2020-12-03 トヨタ自動車株式会社 Machine learning method and mobile robot
US11703872B2 (en) 2019-05-29 2023-07-18 Toyota Jidosha Kabushiki Kaisha Machine learning method and mobile robot
JP7188279B2 (en) 2019-05-29 2022-12-13 トヨタ自動車株式会社 Machine learning methods and mobile robots
CN110315553B (en) * 2019-06-23 2023-10-27 大国重器自动化设备(山东)股份有限公司 Robot anti-collision system and method for restaurant
CN110315553A (en) * 2019-06-23 2019-10-11 大国重器自动化设备(山东)股份有限公司 A kind of dining room robot collision avoidance system and method
JP2022543559A (en) * 2019-08-06 2022-10-13 シーメンス エレクトロニック デザイン オートメーション ゲゼルシャフト ミット ベシュレンクテル ハフツング Method, Apparatus, and System for Controlling Autonomous Vehicles
JP2021033685A (en) * 2019-08-26 2021-03-01 株式会社デンソー Learning program and learning method
US11727308B2 (en) 2019-08-26 2023-08-15 Denso Corporation Learning system and method
JP2021076995A (en) * 2019-11-07 2021-05-20 三菱ロジスネクスト株式会社 Cargo handling system
WO2021161374A1 (en) * 2020-02-10 2021-08-19 三菱電機株式会社 Control device and learning device
JP6896179B1 (en) * 2020-02-10 2021-06-30 三菱電機株式会社 Control device and learning device
WO2021171500A1 (en) * 2020-02-27 2021-09-02 三菱電機株式会社 Robot control device, robot control method, and learning model generation device
JP6815571B1 (en) * 2020-02-27 2021-01-20 三菱電機株式会社 Robot control device, robot control method and learning model generation device
DE112020006315B4 (en) 2020-02-27 2023-12-14 Mitsubishi Electric Corporation ROBOT CONTROL DEVICE, ROBOT CONTROL METHOD AND DEVICE FOR GENERATING LEARNING MODELS
CN114167857A (en) * 2021-11-08 2022-03-11 北京三快在线科技有限公司 Control method and device of unmanned equipment
CN114167857B (en) * 2021-11-08 2023-12-22 北京三快在线科技有限公司 Control method and device of unmanned equipment
CN114012732A (en) * 2021-11-26 2022-02-08 北京云迹科技有限公司 Robot control method, device, equipment and medium

Also Published As

Publication number Publication date
JP4852753B2 (en) 2012-01-11

Similar Documents

Publication Publication Date Title
JP4852753B2 (en) Autonomous mobile robot with learning function
JP5402057B2 (en) Mobile robot control system, route search method, route search program
JP5080333B2 (en) Object recognition device for autonomous mobile objects
JP5909486B2 (en) Self-position / posture estimation system
US7873438B2 (en) Mobile apparatus and control program therefor
US20080249662A1 (en) Mobile apparatus, control device and control program
JP5276931B2 (en) Method for recovering from moving object and position estimation error state of moving object
JP4735476B2 (en) Autonomous mobile device
US11604469B2 (en) Route determining device, robot, and route determining method
JP2008059218A (en) Method for restoring self-position of autonomously traveling robot
JP5553220B2 (en) Moving body
CN110865640B (en) Obstacle avoidance structure of intelligent robot
KR101245754B1 (en) Autonomy drive robot, and method for establishing route
JP2011224679A (en) Reaction robot, reaction control method, and reaction control program
CN112631269A (en) Autonomous mobile robot and control program for autonomous mobile robot
JP2005211442A (en) Autonomously movable wheelchair
CN211554738U (en) Obstacle avoidance structure of intelligent robot
US11467592B2 (en) Route determination method
Elsheikh et al. Dynamic path planning and decentralized FLC path following implementation for WMR based on visual servoing
JP2003330538A (en) Autonomous moving robot and autonomous moving method thereof
Ray et al. Sonar based autonomous automatic guided vehicle (AGV) navigation
Mikhail et al. Navigation software system development for a mobile robot to avoid obstacles in a dynamic environment using laser sensor
Gao et al. Shared autonomy for assisted mobile robot teleoperation by recognizing operator intention as contextual task
Sanchez et al. Autonomous navigation with deadlock detection and avoidance
Hess et al. Simultaneous calibration of odometry and external sensors of omnidirectional automated guided vehicles (AGVs)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111004

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150