JP2007316799A - Autonomous mobile robot having learning function - Google Patents
Autonomous mobile robot having learning function Download PDFInfo
- Publication number
- JP2007316799A JP2007316799A JP2006143783A JP2006143783A JP2007316799A JP 2007316799 A JP2007316799 A JP 2007316799A JP 2006143783 A JP2006143783 A JP 2006143783A JP 2006143783 A JP2006143783 A JP 2006143783A JP 2007316799 A JP2007316799 A JP 2007316799A
- Authority
- JP
- Japan
- Prior art keywords
- mobile robot
- autonomous mobile
- obstacle
- learning function
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000006870 function Effects 0.000 title claims abstract description 104
- 230000007613 environmental effect Effects 0.000 claims description 16
- 238000000034 method Methods 0.000 description 23
- 238000011156 evaluation Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000005672 electromagnetic field Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Abstract
Description
自律移動能力及び学習機能を有し、走行のたびごとに新たな知識を獲得し、以後の走行に活用できるようにした学習機能をもつ自律移動ロボットに関するものである。 The present invention relates to an autonomous mobile robot having a learning function that has an autonomous movement capability and a learning function, acquires new knowledge every time it travels, and can be used for subsequent traveling.
従来の自律移動ロボットは、走行路にランドマーク、電磁界等の目印が設備されて、それらの目印に沿って走行するものであり、決められたルールの範囲内でしか移動できない。また、走行中にあらかじめ用意されたルールで対応できない場合には、走行を継続することは難しい。
また、従来の自律移動ロボットとして、特許文献1には、強化学習法を用いたものが記載されている。特許文献1では、ロボット(エージェント)が走行環境を走行し、その良しあしの評価により報酬を定義し、評価を良くする手法が記載されている。
また、特許文献2には、ニュ−ラルネットワークにもとづく学習機能を搭載する移動体が記載されている。特許文献2では、人間の経験則で決まる走行ルールを準備し、SOM(Self−Organizing Map、自己組織化マップ)を学習させ、走行に用いるもので、基本的には初めに準備したルールにより走行させるものである。
A conventional autonomous mobile robot is provided with landmarks such as landmarks and electromagnetic fields on a traveling path, and travels along those landmarks, and can move only within a range of predetermined rules. In addition, it is difficult to continue traveling when the rules prepared in advance cannot be used during traveling.
Further, as a conventional autonomous mobile robot,
従来の自律移動ロボットは、走行路にランドマーク、電磁界等の何らかの目印が設備されて、それらの目印に沿って走行するものであり、これであると、目印以外の行路を走行できない、という問題がある。
特許文献1では、ロボット(エージェント)が走行環境を走行し、その良しあしの評価により報酬を定義し、評価を良くする手法が用いられ、この手法では、走行環境を教師データとして走行評価を行い、走行に必要なルールを優先して生成するので、計算負荷が大きく、複雑な多数の走行ルールを必要とするときには、実用面と、走行の多様性に対する適応能力から考慮すると、問題が残る。
特許文献2については、人間の経験則で決まる走行ルールを準備し、SOMを学習させ、走行に用いるものの、基本的には初めに準備したルールにより走行させるものであり、行路の変化に対応できないという問題がある。
Conventional autonomous mobile robots are equipped with some landmarks such as landmarks, electromagnetic fields, etc. on the traveling road, and travel along those landmarks. There's a problem.
In
Regarding
この発明は、上述のような課題を解決するためになされたものであり、走行路の状況に応じて、走行ルールを修正及び追加し、あらかじめ準備した走行ルールとともに、次の走行に活用できるようにした学習機能をもつ自律移動ロボットを得ることを目的にしている。 The present invention has been made to solve the above-described problems. The travel rules are corrected and added according to the conditions of the travel path, and can be used for the next travel together with the travel rules prepared in advance. The purpose is to obtain an autonomous mobile robot with learning function.
この発明に係わる学習機能をもつ自律移動ロボットにおいては、走行路の環境情報が格納された環境マップ、走行中に走行路の状況を検出するセンサ類、このセンサ類により検出された走行路の状況から自己位置を認識し、環境マップに入力する自己位置認識手段、センサ類から検出された走行路の状況から障害物を認識し、環境マップに入力する障害物認識手段、及び環境マップの環境情報が入力され、操舵情報を出力する学習手段を備え、学習手段は、環境情報を入力値とする走行ルールを学習済みの自己組織化マップを有し、この自己組織化マップの走行ルールに応じて操舵情報を出力するものである。 In the autonomous mobile robot having the learning function according to the present invention, the environment map storing the environment information of the travel path, the sensors for detecting the status of the travel path during the travel, the status of the travel path detected by the sensors Self-position recognition means for recognizing the self-position from the vehicle and inputting it to the environment map, obstacle recognition means for recognizing an obstacle from the road conditions detected by the sensors and inputting it to the environment map, and environment information of the environment map And learning means for outputting steering information. The learning means has a self-organizing map that has learned a driving rule having environmental information as an input value, and corresponds to the driving rule of the self-organizing map. Steering information is output.
この発明は、以上説明したように、走行路の環境情報が格納された環境マップ、走行中に走行路の状況を検出するセンサ類、このセンサ類により検出された走行路の状況から自己位置を認識し、環境マップに入力する自己位置認識手段、センサ類から検出された走行路の状況から障害物を認識し、環境マップに入力する障害物認識手段、及び環境マップの環境情報が入力され、操舵情報を出力する学習手段を備え、学習手段は、環境情報を入力値とする走行ルールを学習済みの自己組織化マップを有し、この自己組織化マップの走行ルールに応じて操舵情報を出力するので、走行路の状況に応じて、走行ルールを修正及び追加し、あらかじめ準備した走行ルールとともに、次の走行に活用でき、安全にかつ確実に目的地まで移動することができる。 As described above, according to the present invention, the self-position is determined from the environment map storing the environment information of the travel path, the sensors for detecting the condition of the travel path during traveling, and the condition of the travel path detected by the sensors. Self-recognition means for recognizing and inputting to the environment map, obstacle recognition means for recognizing obstacles from the road conditions detected from the sensors, and input to the environment map, and environment information of the environment map are input, A learning means for outputting steering information is provided. The learning means has a self-organizing map in which driving rules having environmental information as input values have been learned, and outputs steering information according to the driving rules of the self-organizing map. Therefore, it is possible to modify and add the travel rules according to the conditions of the travel route, and use them for the next travel together with the travel rules prepared in advance, so that you can move to the destination safely and reliably. That.
実施の形態1.
この発明の学習機能をもつ自律移動ロボット(以下、単に自律移動ロボットともいう。)は、はじめに経路を探索し、センサ情報により環境を認識しながら、予め学習させた自己組織化マップ(SOM)を基に方位、速度を決め、これを走行法の基礎とするものである。走行途中に障害物にぶつかりそうになる等の不都合が生じても、走行ルールを修正し、そこで得られた知識を走行ルールとして、追加学習し、新たに得られた走行ルールとあらかじめ準備した走行ルールとを次の走行に活用できるようにしたものであり、“走行のたびに賢くなる”自律移動ロボットである。
以下、これについて詳述する。
An autonomous mobile robot (hereinafter also simply referred to as an autonomous mobile robot) having a learning function according to the present invention first searches for a route, recognizes an environment from sensor information, and uses a self-organizing map (SOM) learned in advance. The direction and speed are determined based on the driving method. Even if inconveniences such as hitting an obstacle occur during driving, the driving rules are corrected, the knowledge obtained there is additionally learned as driving rules, and newly acquired driving rules and driving prepared in advance It is an autonomous mobile robot that makes it possible to use rules for the next run and "gets smarter every time you run."
This will be described in detail below.
図1は、この発明の実施の形態1による学習機能をもつ自律移動ロボットを示す構成図である。
図1において、センサ類1は、自律移動ロボットに取りつけられ、走行路に設けられたランドマークや障害物などを検知する。エンコーダ、ジャイロ・センサ、超音波センサ、ドプラセンサなどが含まれる。自己位置認識機能2(自己位置認識手段)は、センサ類1からの信号により、自己位置を認識し、環境マップ5に書き込む。障害物認識機能3(障害物認識手段)は、センサ類1からの信号及びカメラ4からの映像を元にして障害物を認識し、環境マップ5に書き込む。カメラ4は、走行路を撮像し、その映像を障害物認識機能3に出力する。
環境マップ5は、学習機能をもつ自律移動ロボットに搭載したパーソナル・コンピュータ上で1ドットが1[cm]となるように、屋内全体の壁・柱・固定障害物などの走行路にあらかじめ存在する情報を書き込んだ地図情報である。目的地指定用のタッチパネル10(入力手段)により、自律移動ロボットの目的地が環境マップ5に書き込まれ、この目的地までの経路を決定した際、この環境マップ5に書き込まれた環境情報は、学習機能6(学習手段)の入力になる。
1 is a block diagram showing an autonomous mobile robot having a learning function according to
In FIG. 1,
The
学習機能6は、入力された情報を用いて、学習機能をもつ自律移動ロボットを目的地へ誘導するように走行目標角度、行動パターンを駆動系入力7へ出力する。
学習機能6は、人間の脳の情報処理の方法を模擬したアルゴリズムであり、多次元データの分類・予測手法である。この学習機能6は、走行ルールの不適切があれば、修正・補正し、走行ルールを追加する機能である走行ルール追加機能61(走行ルール追加手段)と、既知の障害物及び未知の移動障害物を回避して走行する障害物回避機能62(障害物回避手段)とを有している。
走行ルール追加機能61と障害物回避機能62とは、SOM8を用いて、その学習機能を応用する。
SOM8は、走行ルールをノードとして持ち、学習によって走行ルールを追加することができる。環境マップ5は、SOM8による走行ルールの実行による経路の確認を担うものである。この確認で走行が適当なときには、自律移動ロボットの走行を続行し、壁や障害物の出現(これは環境マップ5に入力される。)のために走行が不適当なときには、走行ルールを修正して走行し、このとき、走行ルールの追加を行う。
駆動系入力7に入力された、学習機能をもつ自律移動ロボットを目的地へ誘導するための走行目標角度、行動パターンは、駆動系9に伝えられて、自律移動ロボットを目的地へ誘導する。
The
The
The travel
The
The travel target angle and action pattern for guiding the autonomous mobile robot having the learning function, which is input to the
なお、図1の自己位置認識機能2、障害物認識機能3、環境マップ5、学習機能6は、マイクロコンピュータを用い、ソフトウエアによって構成することができる。
The self-
図2は、この発明の実施の形態1による環境マップ上での学習機能をもつ自律移動ロボットモデルを示す図である。
図2において、自律移動ロボットモデル11の左右車輪の中心位置(X、Y)が示されている。
図3は、この発明の実施の形態1による学習機能をもつ自律移動ロボットの1周期の処理の流れを示すフローチャートである。
図4は、この発明の実施の形態1による学習機能をもつ自律移動ロボットの障害物が書き込まれた環境マップを示す図である。
図4において、自律移動ロボットモデル11が障害物13を避けて壁14の間を走行する様子が示されている。
FIG. 2 is a diagram showing an autonomous mobile robot model having a learning function on the environment map according to
In FIG. 2, the center positions (X, Y) of the left and right wheels of the autonomous
FIG. 3 is a flowchart showing a flow of processing in one cycle of the autonomous mobile robot having a learning function according to
FIG. 4 is a diagram showing an environment map in which obstacles of the autonomous mobile robot having a learning function according to the first embodiment of the present invention are written.
FIG. 4 shows the autonomous
次に、動作について説明する。
自律移動ロボットの走行を考えると、安全性と信頼性の高い動作が必須条件となる。走行の安全性と信頼性を向上させる方法として、この発明では、環境マップ5を導入する。環境マップ5は、自律移動ロボットに搭載したパーソナル・コンピュータ上で1ドットが1[cm]となるように、屋内全体の壁・柱・固定障害物などのあらかじめ存在する情報を書き込み、地図の形状に合わせて行動パターンを切り替えるための境界線も書き込んだ地図情報である。この環境マップ5には、境界線で囲まれた領域ごとに、目的地までの経路を決定した際、環境情報を学習機能6に与えて、この学習機能6が自律移動ロボットを目的地へ誘導するように走行目標角度、行動パターンを、駆動系入力7に入力する。ここで環境マップ5上での自律移動ロボットモデル11は、図2のように、「センサを含めた車体全体の一番外枠を矩形」で表現する。
Next, the operation will be described.
Considering the traveling of an autonomous mobile robot, safe and reliable operation is a prerequisite. In the present invention, an
学習機能をもつ自律移動ロボットの存在する位置や未知の移動物体を含む障害物をセンサ類1によって確認することで、環境マップ5を常に更新し、境界線により走行パターンを切り替えながら走行制御を行い、ゴールまで走行する。
学習機能をもつ自律移動ロボットでは、走行中に得られたセンサ値を用いて、自己位置認識機能2により自己位置の決定を行い、障害物認識手段3により未知の静止及び移動する障害物の発見を行い、この自己位置と未知の障害物を環境マップ5に書き込み、環境マップ5を更新する。
走行中は、あらかじめ設定した走行ルールに従うが、環境状況によって、適応的に走行できない時には、走行ルールを修正・調整し、走行する。ここで得られた走行ルールを、次の走行に生かせるよう、学習機能6として、追加学習可能なSOMアルゴリズムを搭載している。すなわち、“走行するたびごとに賢くなる”学習機能をもつ自律移動ロボットである。
By checking the position of the autonomous mobile robot with learning function and obstacles including unknown moving objects with the
In an autonomous mobile robot having a learning function, a self-
While traveling, the travel rules set in advance are followed, but when the vehicle cannot adaptively travel due to environmental conditions, the travel rules are corrected and adjusted to travel. An SOM algorithm that can be additionally learned is installed as the
図3には、自律移動ロボットの走行の流れが示されている。ここで走行中に障害物13が認識された時、障害物13を環境マップ5に書き込み、障害物回避行動をとる。この時、同時に自律移動ロボットは、環境マップ5に書き込まれた障害物13の回避行動をとりながら自己位置を更新し、図4のように、障害物13の付近を、書き込みながら走行する。
図3では、ステップS1で、走行経路を決定する。ステップS2で、各センサの値を取得し、ステップS3で、これらを用いて、自己位置の認識、障害物の認識の情報処理を行う。次いで、ステップS4で、これらを用いて環境マップ5を更新する。ここで、ステップS5で、障害物が検知されれば、ステップS3で、障害物認識の処理を行い、ステップS4で、環境マップを更新する。
次いで、ステップS6で、環境マップ5からSOM入力値を取得し、ステップS7でSOM推論を実行し、ステップS8で、駆動系9に出力して、自律移動ロボットを走行させる。
FIG. 3 shows the flow of travel of the autonomous mobile robot. Here, when the
In FIG. 3, a travel route is determined in step S1. In step S2, the value of each sensor is acquired, and in step S3, information of self position recognition and obstacle recognition is performed using these values. Next, in step S4, the
Next, in step S6, an SOM input value is acquired from the
以下に、自律移動ロボットの走行について、詳細に順を追って、説明する。
まず、自己位置認識機能2による自律移動ロボットの自己位置の認識について、手段1〜手段7により説明する。
手段1.
学習機能をもつ自律移動ロボットの位置情報は、自己位置認識手段2により、図2のように、環境マップ5上での自律移動ロボットの左右の車輪間の中心座標X、Y及び車体の角度θで出力され、この値より環境マップ5上に現在位置を書き込む。
Hereinafter, the traveling of the autonomous mobile robot will be described in detail.
First, the self-position recognition of the autonomous mobile robot by the self-
As shown in FIG. 2, the position information of the autonomous mobile robot having the learning function is obtained from the center coordinates X and Y between the left and right wheels of the autonomous mobile robot on the
手段2.
手段1において、エンコーダ、ジャイロ・センサ、超音波センサ、ドプラセンサのそれぞれの値及びカメラ画像の処理値を用いて、図2に示すような、環境マップ上での自律移動ロボットモデル11の左右の車輪間の中心座標X、Y及び車体の角度θを算出する手法を以下に示す。
自己位置認識手段2への入力値を、エンコーダより得られた左右輪の回転数とジャイロ・センサから得られた姿勢角変化値とする。これらの情報を用い、前の制御動作(前周期)での学習機能をもつ自律移動ロボットの自己位置より、図5のように、得られた姿勢角変化値θ1の方向に、左右輪の回転数より算出したそれぞれの走行距離値e1、e2を直進的に延長し、自律移動ロボットの左右輪の中心座標(Xl、Yl)、(Xr、Yr)をそれぞれ算出する。次に、この2点の中点を求めることで、出力値(X1、Y1、θ1)を得る。
In the
The input value to the self-position recognition means 2 is the rotation number of the left and right wheels obtained from the encoder and the attitude angle change value obtained from the gyro sensor. Using these pieces of information, from the self-position of the autonomous mobile robot having the learning function in the previous control operation (previous cycle), the left and right wheels are moved in the direction of the obtained posture angle change value θ 1 as shown in FIG. The travel distance values e1 and e2 calculated from the number of revolutions are linearly extended, and the center coordinates (X l , Y l ) and (X r , Y r ) of the left and right wheels of the autonomous mobile robot are calculated. Next, an output value (X 1 , Y 1 , θ 1 ) is obtained by obtaining the midpoint of these two points.
手段3.
手段1において、エンコーダより得られた左右輪の回転数を入力値として、定式を用いて算出する方法。この入力値より、前周期において決定した自己位置から、今周期の左右輪の回転数より現在位置を算出するために導出した走行軌跡の定式を用い、出力値(X2、Y2、θ2)を得る。
In the first means, the rotational speed of the left and right wheels obtained from the encoder is used as an input value to calculate using a formula. From this input value, using the traveling locus formula derived to calculate the current position from the rotation speed of the left and right wheels in the current cycle from the self position determined in the previous cycle, the output values (X 2 , Y 2 , θ 2). )
手段4.
手段1において画像処理を用いる手法。入力値をカメラ4からの2次元画像とし、出力値(X3、Y3、θ3)を得る。これはカメラを約1[m]の高さに固定して前方を撮影し、その撮影された画像を処理することで得られる。
Means 4.
A method using image processing in the first means. The input value is a two-dimensional image from the camera 4, and output values (X 3 , Y 3 , θ 3 ) are obtained. This can be obtained by fixing the camera to a height of about 1 [m], photographing the front, and processing the photographed image.
手段5.
手段1において、ランドマーク・リーダの検知信号を用いる手法。図6のように、施設内のランドマーク12は、直線の廊下と交差点の境目などに設置しており、環境マップ5の境界線の一部は、あらかじめ施設内に設置したランドマーク12と同じ位置に書き込んでいる。
そして学習機能をもつ自律移動ロボットの走行中に、センサ類1の一つであるランドマーク・リーダによるランドマーク検知信号を取得すると、検知時の自律移動ロボットの現在位置から、壁14に平行にし、検知した環境マップ5上でのランドマーク12の座標に、図6及び図7に示すように修正する。
すなわち、図7のようにランドマーク12に、自律移動ロボットモデル11の左右車輪間の中心座標を合わせるように、環境マップ5を修正する。これにより、センサの値の校正及び経路の確認を行うことができる。
A method of using a landmark reader detection signal in the first means. As shown in FIG. 6, the
When a landmark detection signal is acquired by a landmark reader, which is one of the
That is, the
手段6.
手段5のランドマークを用いた手法は、手段2、手段3及び手段4と同時に用いるものではなく、これらとは別に、ランドマーク検知時だけに用いる。
The method using the landmark of the
手段7.
通常走行の場合、手段2、手段3及び手段4により、以下の条件式を用いることにより誤差が少なくなるように自己位置(X、Y)を決定する。
自己位置(X、Y)については、まず、以下の式1、式2より、L1、L2を求める。
In the case of normal traveling, the self position (X, Y) is determined by
For the self-position (X, Y), first, L 1 and L 2 are obtained from the following
ここで、L1、L2の値が共に20[cm]以下なら、3つの予測は、誤差が少ないとみなし、XとYは、 Here, if the values of L 1 and L 2 are both 20 cm or less, the three predictions are regarded as having little error, and X and Y are
上記以外で50[cm]以下なら Other than the above, if 50cm or less
上記以外なら
X=X1
Y=Y1
とする。
θの値については、まず式(3)、(4)、(5)より△θ1、△θ2、△θ3を求める。
Other than the above
X = X 1
Y = Y 1
And
As for the value of θ, Δθ 1 , Δθ 2 , and Δθ 3 are first obtained from the equations (3), (4), and (5).
これより、△θ1、△θ2、△θ3の値が全て5[deg]以内なら、 From this, if the values of Δθ 1 , Δθ 2 , Δθ 3 are all within 5 [deg],
上記以外なら
θ=θ3 (11)
とする。
以上の操作により決定した自律移動ロボットの自己位置を環境マップ5に書き込む。
これらの式は、いずれもカメラ画像を用いる手法により決定した自己位置に比重をおいた式となっている。
Other than the above
θ = θ 3 (11)
And
The autonomous position of the autonomous mobile robot determined by the above operation is written in the
Each of these expressions is an expression that places a specific gravity on the self-position determined by a technique using a camera image.
次に、障害物認識機能3による障害物の認識と環境マップへの書き込みについて、手段8〜手段11により説明する。
手段8.
手段8は、センサ類1の一つである超音波センサーの値を用いて、走行領域の把握及び障害物を認識する。10組の超音波センサから取得した値を使用し、環境マップ5上に書き込まれている自律移動ロボットの現在位置から、自律移動ロボットの車体に取り付けられた10組の超音波センサと同位置となる箇所から、超音波センサの指向性を考慮し(センサの向いている方向に対して±23[deg]の広がり)、適切な位置に弧を描くように環境マップ5に書き込む。
例えば、図8のように、学習機能をもつ自律移動ロボットの前方に障害物13aが存在すると仮定し、自律移動ロボット前方左の超音波センサからx[cm]の値を取得したとすると、図9に示すように、障害物13までの測定値を環境マップ5に書き込む。
さらに、超音波センサ、ドプラセンサ、カメラの複眼視により、移動障害物の距離、方位、速さを認識する。
Next, the recognition of the obstacle by the
The
For example, assuming that an
Furthermore, the distance, direction, and speed of the moving obstacle are recognized by the compound eye view of the ultrasonic sensor, the Doppler sensor, and the camera.
手段9.
カメラ画像を処理することにより、学習機能をもつ自律移動ロボットから障害物までの距離、障害物の幅を算出する。この手法においては、現在までにカメラ4より得られた画像から水平エッジ(床と障害物との境界)の検出を行い、その処理した画像を用いることで、障害物の有無、障害物までの距離を取得する手法(参考文献[1])が提案されている。例えば、図8のような環境で、障害物13aが発見されれば、環境マップ5上に書き込まれている現在位置より、図10のように環境マップ5上に、得られた障害物の距離および幅を用いることにより障害物13を書き込む。この時に環境マップ5上に描き込む障害物13の幅は、カメラ4の指向性を考慮して描き込むこととする。
By processing the camera image, the distance from the autonomous mobile robot having a learning function to the obstacle and the width of the obstacle are calculated. In this method, the horizontal edge (the boundary between the floor and the obstacle) is detected from the images obtained from the camera 4 so far, and by using the processed image, the presence or absence of the obstacle, A method for obtaining a distance (reference document [1]) has been proposed. For example, if an
手段10.
タッチ・センサを用いて障害物を検知する手法では、まずタッチ・センサの前後計8箇所に取り付けられたマイクロ・スイッチの検出信号により、検出したマイクロ・スイッチの個所から、前方の左右の前方・横方向、後方に障害物が存在することを認識する。そして、学習機能をもつ自律移動ロボットの現在位置より図11のように障害物13を書き込む。図11は、学習機能をもつ自律移動ロボット前方のマイクロ・スイッチが障害物を検知した時の環境マップ上の様子を示している。
タッチセンサにより障害物を検知したときは、走行を緊急停止する。
In the method of detecting an obstacle using a touch sensor, first, the detection signal of the micro switch attached to the front and rear total of eight places of the touch sensor is used to detect the front, left and right front, Recognize that there are obstacles in the lateral and backward directions. Then, the
When the obstacle is detected by the touch sensor, the traveling is stopped urgently.
手段11.
ここで、手段8の超音波センサの距離測定での不安定動作を補うため、手段9のカメラ情報により発見された障害物も含め、その存在確率として5段階の危険度を与える(障害物の存在しない時存在確率を1とする)。環境マップ5上では危険度が5段階目(危険度を示す数字が5になった時)に達したとき、初めて障害物と認める。
危険度の区別を以下のようにする。
(1)画像処理によって発見された物体のある位置の値に危険度3を加える。
(2)画像処理によって障害物の無いことが確認されると、その位置の危険度に−2を加える。
(3)超音波センサによって発見された物体のある位置の値に1を加える。
(4)タッチ・センサによって発見された物体のある位置の値に5を加える。
(5)危険度は5を超えることは無く、0を下回ることも無い。
Here, in order to compensate for the unstable operation in the distance measurement of the ultrasonic sensor of the
The risk classification is as follows.
(1) Add a degree of
(2) When it is confirmed by the image processing that there is no obstacle, -2 is added to the danger level of the position.
(3) Add 1 to the value of a certain position of the object found by the ultrasonic sensor.
(4) Add 5 to the value of a certain position of the object found by the touch sensor.
(5) The risk does not exceed 5 and does not fall below 0.
次に、環境マップからSOMへの入力及びSOMからの出力について、手段12〜手段15により説明する。
手段12.
学習機能をもつ自律移動ロボットでは、その環境マップ5に書き込まれた現在位置とその周囲の環境情報及び移動物体情報の学習により得られた速さ、方位情報を用いて、あらかじめ学習されたSOM8の入力値を取得し、ベスト・マッチ・ユニットを計算し、自律移動ロボットの次の動作の決定を行う。
Next, input from the environment map to the SOM and output from the SOM will be described by
In an autonomous mobile robot having a learning function, the
手段13.
あらかじめ学習されたSOM8の入力値として、図12のように学習機能をもつ自律移動ロボットの周囲を11個の領域に分け、それぞれの領域内で超音波センサが取得した距離情報の値を、SOM8への入力値として適用している。それぞれの入力値に対してベスト・マッチ・ユニットを算出し、出力値を求めている。
As an input value of the
手段14.
ここで、手段13の図12の各領域の最短距離値の取得法は、環境マップ5上より、図13のように各領域ごとに車体からの距離が1[cm]づつ広がるような形で、壁14や障害物が存在するかどうか確認して行く。そして障害物が存在するとそこまでの距離値を障害物までの最短距離値として取得する。図13では、図12の領域5と領域8での値の取得法を示している。
Here, the method of obtaining the shortest distance value of each area in FIG. 12 of the
手段15.
SOM8による推論出力値は、学習機能をもつ自律移動ロボットを直進または左右どちらの方向にどれだけの旋回半径で旋回走行させるかということを表わす旋回半径値で出力される。
Means 15.
The inference output value by the
次に、走行準備として環境マップの作成について、手段16、手段17により説明する。
手段16.
走行準備として環境マップ5を作成する。環境マップ5は、施設内の廊下の幅や柱、長椅子などの固定障害物を1[cm]単位で測って作成し、作成した環境マップ5に学習機能をもつ自律移動ロボットの走行方法を切り替えるための境界線も書き込む。
Next, creation of an environment map as preparation for traveling will be described by
The
手段17.
作成した環境マップ5に初期位置、目的地を入力し、目的値までの経路を決定し、環境マップ5の各領域に学習機能をもつ自律移動ロボットを目的地に誘導するように目標角、走行方向を入力する。
The initial position and destination are input to the created
次に、自律移動ロボットの走行による環境マップの更新について、手段18〜手段21により説明する。
手段18.
学習機能をもつ自律移動ロボットの走行を開始させる。走行中は、まずエンコーダ、ジャイロ・センサからの値、カメラからカメラ画像を取得する。ここで取得した値と走行特性を定式化した式を用いて、学習機能をもつ自律移動ロボットの位置認識を行う。
Next, the update of the environment map by the traveling of the autonomous mobile robot will be described by means 18 to 21.
Means 18.
Start running of an autonomous mobile robot with a learning function. During traveling, first the values from the encoder and gyro sensor and the camera image from the camera are acquired. The position of the autonomous mobile robot having a learning function is recognized using the formula obtained by formulating the acquired value and the running characteristic.
手段19.
得られた学習機能をもつ自律移動ロボットの位置情報を用いて、環境マップ5上に書き込む。
Means 19.
Using the obtained position information of the autonomous mobile robot having the learning function, the information is written on the
次に、SOMの作成について、手段20により説明する。
手段20.
学習機能をもつ自律移動ロボットの現在位置が環境マップ5に書き込まれると、次に超音波センサとカメラ画像を用いて未知の障害物の認識を行う。
Next, the creation of the SOM will be described by means 20.
Means 20.
When the current position of the autonomous mobile robot having a learning function is written in the
走行路上に置かれた物、移動する物、人、他の車椅子などの障害物に遭遇したとき、走行移動中の自律移動ロボットは、それらの位置、速度、方向をリアルタイムに計測し、自己の走行方向および速度を制御する必要がある。
本システムでは、図14のように、自律移動ロボット周辺の環境情報及び障害物移動情報(位置、速度、方向)から、SOM8により、自己の操舵情報(走行速度、方向)を類推し、安全に目的地まで自律移動ロボットを移動させることになる。
走行中の自律移動ロボットに対する移動障害物の位置、速度、方向は、自律移動ロボットに搭載されたセンサにより検知する。障害物の位置は、超音波センサにより、速度は、ドプラーセンサにより、方向は、2台のカメラによる両眼視による方位角センサにより計測する。
これらのセンサからの信号は、障害物認識機能3により、障害物として認識され、環境マップ5に書き込まれる。そして、環境マップ5から、あらかじめ用意されたSOM8に入力され、その時々の操舵情報を求める。ただし、方位については、経路探索により得た、目的地へ向かう経路情報とマッチングを取りながら決定する。
When an obstacle such as an object placed on the road, a moving object, a person, or another wheelchair is encountered, the autonomous mobile robot that is traveling is measuring its position, speed, and direction in real time, It is necessary to control the traveling direction and speed.
In this system, as shown in FIG. 14, by using SOM8, the steering information (traveling speed and direction) is estimated from environmental information and obstacle movement information (position, speed and direction) around the autonomous mobile robot, and safely. The autonomous mobile robot will be moved to the destination.
The position, speed, and direction of the moving obstacle with respect to the traveling autonomous mobile robot are detected by sensors mounted on the autonomous mobile robot. The position of the obstacle is measured by an ultrasonic sensor, the speed is measured by a Doppler sensor, and the direction is measured by an azimuth angle sensor by binocular vision using two cameras.
Signals from these sensors are recognized as obstacles by the
このため、走行状態を学習させるためのSOM8を作成する必要がある。
そのために、
(a)現場に出かけて、具体的な状況で自律移動ロボットを動かして、周囲情報と操舵情報のデータを収集する。
(b)上記の同様な状況で、計算機シミュレーションにより周囲情報と操舵情報のデータを収集する。
(c)(a)(b)両者のマッチングを取る。
For this reason, it is necessary to create the
for that reason,
(A) Go to the site, move the autonomous mobile robot in a specific situation, and collect data of surrounding information and steering information.
(B) Collect data of surrounding information and steering information by computer simulation in the same situation as above.
(C) (a) (b) Match both.
種々の現場において自律移動ロボットを走行させ、走行中の自律移動ロボットに対する周囲情報及び障害物の位置、速度、方向のデータをとり、その場合の適当な走行方向、走行速度を決め、予め、図15のようなSOM8を学習、作成する必要がある。SOM8を学習するには、図17(a)のように、自律移動ロボットの周囲の環境情報、障害物移動情報、目的地情報、操舵情報を使用する。完成した(学習した)SOM8を自律移動ロボットに搭載、図17(b)のように、具体的な走行状態に応じて、センサ情報(障害物移動情報)、目的地情報、周囲情報をSOM8に入力し、その出力から自律移動ロボットの操舵情報(方位、速度)を得て、駆動系9に出力し、自律移動ロボットの実環境での走行に生かす。
自律移動ロボットにセンサ群1を搭載し、走行中の自律移動ロボットに対する障害物の位置、速度、方向を得て、環境マップ5上に書き込みながら、自律移動ロボットモデルの走行を実現する。
実環境での走行情報、環境マップ5上での走行情報のマッチングを取ることにより、安全走行が可能になる。
図16は、学習による自律移動ロボットの走行システムでのSOMのイメージ図を示している。
The autonomous mobile robot is run at various sites, the surrounding information for the autonomous mobile robot that is running and the position, speed, and direction data of the obstacle are taken, and the appropriate travel direction and travel speed in that case are determined in advance. SOM8 like 15 needs to be learned and created. In order to learn SOM8, as shown in FIG. 17A, environmental information, obstacle movement information, destination information, and steering information around the autonomous mobile robot are used. The completed (learned)
The
Safe driving is possible by matching the driving information in the real environment and the driving information on the
FIG. 16 shows an image diagram of the SOM in the traveling system of the autonomous mobile robot by learning.
手段21.
未知の障害物が発見されれば、手段11の危険度を参照しつつ環境マップ5を更新する。
Means 21.
If an unknown obstacle is found, the
次に、走行によるSOMの走行ルールの修正及び追加について、手段22により説明する。
手段22.
ここまでの処理が終了すると、学習機能をもつ自律移動ロボット走行中の最新の環境マップ5が完成する。この環境マップ5を用いて、SOM8による操作情報決定のための入力値を取得し、SOM8の推論能力を用いて、次の動作の決定を行う。
学習機能をもつ自律移動ロボットは、このセンサ値の取得、自己位置認識、障害物認識、SOM8の推論能力を用いた次の動作の決定を繰り返すことで、目的地まで走行する。
Next, the correction and addition of the SOM traveling rules by traveling will be described by means 22.
Means 22.
When the processing so far is completed, the
The autonomous mobile robot having a learning function travels to the destination by repeating the acquisition of the sensor value, self-position recognition, obstacle recognition, and determination of the next operation using the inference ability of SOM8.
次に、走行評価及び追加学習データの獲得を環境マップ上で考える。図18は、走行評価及び追加学習データの獲得を示している。
走行中、自律移動ロボットと障害物との衝突が予測されれば、走行方向を調整する。これにより、得られた走行ルールデータを追加学習の際に使用する。初めに学習により用意したSOM8から、環境情報を入力し、得られた走行ルールにより走行予測を行い、危険度(近接度)が低ければ、そのまま走行する。危険度がある値を超えると、環境情報を入力し、得られた走行ルールと障害物情報により走行ルールを修正する。この修正は、予め得られた走行ルールと障害物情報を入力とするファジィ制御により行う(図18参照)。
Next, the travel evaluation and acquisition of additional learning data are considered on the environment map. FIG. 18 shows driving evaluation and acquisition of additional learning data.
If a collision between the autonomous mobile robot and an obstacle is predicted during traveling, the traveling direction is adjusted. Thus, the obtained travel rule data is used for additional learning. First, environmental information is input from the
次に、図19の走行評価及び追加学習データの獲得のフローチャートについて、図15を参照して説明する。
ステップS11で、学習済みのSOM8に、環境情報を入力し、操舵角、速度の出力を得る。次いで、ステップS12で、この出力を駆動系9に与えて試行し、ステップS13で、その走行ルールを評価する(図15参照)。危険であれば、ステップS14で、走行ルールを修正し、ステップS12に戻って再試行するとともに、ステップS15で、SOM8への追加学習する。
ステップS13で、評価がOKであれば、ステップS16で、走行し、目標地点に到達すれば終了する。目標地点に到達しなければ、ステップS1から繰り返す。
図20は、実環境上及び、図19による走行による環境マップ上での障害物回避行動を示している。
Next, a flowchart of the travel evaluation and acquisition of additional learning data in FIG. 19 will be described with reference to FIG.
In step S11, environmental information is input to the learned
If the evaluation is OK in step S13, the vehicle travels in step S16, and the process ends if the target point is reached. If it does not reach the target point, it repeats from step S1.
FIG. 20 shows the obstacle avoidance behavior in the actual environment and on the environment map by running according to FIG.
実施の形態1によれば、走行路の状況に応じて、走行ルールを修正及び追加し、あらかじめ準備した走行ルールとともに、次の走行に活用できるようにした学習機能をもつ自律移動ロボットを提供でき、工場、福祉施設内および病院のロビー等内で、安全にかつ確実に目的地まで移動できる学習機能をもつ自律移動ロボットを構築することができる。 According to the first embodiment, it is possible to provide an autonomous mobile robot having a learning function that can be used for the next travel along with the travel rules prepared and corrected in advance according to the conditions of the travel path. It is possible to construct an autonomous mobile robot having a learning function that can safely and reliably move to a destination in a factory, a welfare facility, a hospital lobby, or the like.
参考文献
[1] 菅野祥伸、山本寿、大木誠、大北正昭:屋内環境におけるカメラ・データと現在地推定データのマッチングによる位置認識、電気学会全国大会講演論文集、3−043、p.4(2002)。
References [1] Yoshinobu Kanno, Hisashi Yamamoto, Makoto Oki, Masaaki Ohkita: Position recognition by matching camera data and current location data in indoor environment, Proceedings of the IEEJ National Conference, 3-043, p. 4 (2002).
学習機能を有する自律移動ロボットの制御技術は種々の分野で応用できる。例えば、病院であれば、学習機能をもつ自律移動ベッド、福祉施設では学習機能をもつ自律移動車椅子、さらに、掃除ロボット、案内・ガイドロボット等である。 Control technology of autonomous mobile robot with learning function can be applied in various fields. For example, an autonomous mobile bed having a learning function in a hospital, an autonomous mobile wheelchair having a learning function in a welfare facility, a cleaning robot, a guide / guide robot, and the like.
1 センサ類
2 自己位置認識機能
3 障害物認識機能
4 カメラ
5 環境マップ
6 学習機能
7 駆動系入力
8 SOM
9 駆動系
10 タッチパネル
11 環境マップ上の自律移動ロボットモデル
11a 実環境での自律移動ロボット
12 環境マップ上のランドマーク
13 環境マップ上の障害物
13a 実環境での障害物
14 環境マップ上の壁
61 走行ルール追加機能
62 障害物回避機能
1
9 Driving
Claims (10)
The autonomous mobile robot having a learning function according to claim 1, wherein the sensors include a touch sensor, and the travel is stopped urgently according to information from the touch sensor.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006143783A JP4852753B2 (en) | 2006-05-24 | 2006-05-24 | Autonomous mobile robot with learning function |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006143783A JP4852753B2 (en) | 2006-05-24 | 2006-05-24 | Autonomous mobile robot with learning function |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007316799A true JP2007316799A (en) | 2007-12-06 |
JP4852753B2 JP4852753B2 (en) | 2012-01-11 |
Family
ID=38850618
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006143783A Active JP4852753B2 (en) | 2006-05-24 | 2006-05-24 | Autonomous mobile robot with learning function |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4852753B2 (en) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009245195A (en) * | 2008-03-31 | 2009-10-22 | Fujitsu Ltd | Autonomous mobile robot and obstacle identification method thereof |
JP2012173013A (en) * | 2011-02-17 | 2012-09-10 | Fujitsu Ltd | Estimated position evaluation system and program |
JP2013206237A (en) * | 2012-03-29 | 2013-10-07 | Denso It Laboratory Inc | Autonomous travel robot and travel control method of autonomous travel robot |
JP2016024766A (en) * | 2014-07-24 | 2016-02-08 | 日本精工株式会社 | Robot for guidance |
WO2017188706A1 (en) * | 2016-04-25 | 2017-11-02 | 엘지전자 주식회사 | Mobile robot and mobile robot control method |
KR20180023100A (en) * | 2016-08-23 | 2018-03-07 | 한국철도기술연구원 | A Method and Apparatus for Decision and Control for Robust Platooning |
WO2018193653A1 (en) * | 2017-04-21 | 2018-10-25 | パナソニックIpマネジメント株式会社 | Mobile device, object detection method, and program |
CN109382825A (en) * | 2017-08-08 | 2019-02-26 | 发那科株式会社 | Control device and learning device |
JP2019059148A (en) * | 2017-09-27 | 2019-04-18 | 京セラドキュメントソリューションズ株式会社 | Delivery device and delivery system |
CN110315553A (en) * | 2019-06-23 | 2019-10-11 | 大国重器自动化设备(山东)股份有限公司 | A kind of dining room robot collision avoidance system and method |
WO2019203022A1 (en) * | 2018-04-20 | 2019-10-24 | ソニー株式会社 | Moving body, information processing device, information processing method, and program |
JP2020107024A (en) * | 2018-12-27 | 2020-07-09 | 株式会社ダイヘン | Moving object, learned element, and learned element generation method |
JP2020140490A (en) * | 2019-02-28 | 2020-09-03 | 三菱ロジスネクスト株式会社 | Transportation system, area determination device, and area determination method |
CN111673730A (en) * | 2019-03-11 | 2020-09-18 | 本田技研工业株式会社 | Path determining method |
JP2020194432A (en) * | 2019-05-29 | 2020-12-03 | トヨタ自動車株式会社 | Machine learning method and mobile robot |
JP6815571B1 (en) * | 2020-02-27 | 2021-01-20 | 三菱電機株式会社 | Robot control device, robot control method and learning model generation device |
JP2021033685A (en) * | 2019-08-26 | 2021-03-01 | 株式会社デンソー | Learning program and learning method |
JP2021076995A (en) * | 2019-11-07 | 2021-05-20 | 三菱ロジスネクスト株式会社 | Cargo handling system |
JP6896179B1 (en) * | 2020-02-10 | 2021-06-30 | 三菱電機株式会社 | Control device and learning device |
US11110603B2 (en) | 2018-10-02 | 2021-09-07 | Toyota Research Institute, Inc. | Systems and methods for naïve physics for contact and contact-awareness in robotic teleoperation |
CN114012732A (en) * | 2021-11-26 | 2022-02-08 | 北京云迹科技有限公司 | Robot control method, device, equipment and medium |
CN114167857A (en) * | 2021-11-08 | 2022-03-11 | 北京三快在线科技有限公司 | Control method and device of unmanned equipment |
JP2022543559A (en) * | 2019-08-06 | 2022-10-13 | シーメンス エレクトロニック デザイン オートメーション ゲゼルシャフト ミット ベシュレンクテル ハフツング | Method, Apparatus, and System for Controlling Autonomous Vehicles |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
NL2017645B1 (en) * | 2016-10-20 | 2018-04-26 | Lely Patent Nv | Animal farm system and method of generating barn map information of said animal farm system |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0289134A (en) * | 1988-09-26 | 1990-03-29 | Nippon Telegr & Teleph Corp <Ntt> | Rule learning processing system |
JP2005211442A (en) * | 2004-01-30 | 2005-08-11 | Tottori Univ | Autonomously movable wheelchair |
-
2006
- 2006-05-24 JP JP2006143783A patent/JP4852753B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0289134A (en) * | 1988-09-26 | 1990-03-29 | Nippon Telegr & Teleph Corp <Ntt> | Rule learning processing system |
JP2005211442A (en) * | 2004-01-30 | 2005-08-11 | Tottori Univ | Autonomously movable wheelchair |
Cited By (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009245195A (en) * | 2008-03-31 | 2009-10-22 | Fujitsu Ltd | Autonomous mobile robot and obstacle identification method thereof |
JP2012173013A (en) * | 2011-02-17 | 2012-09-10 | Fujitsu Ltd | Estimated position evaluation system and program |
JP2013206237A (en) * | 2012-03-29 | 2013-10-07 | Denso It Laboratory Inc | Autonomous travel robot and travel control method of autonomous travel robot |
JP2016024766A (en) * | 2014-07-24 | 2016-02-08 | 日本精工株式会社 | Robot for guidance |
KR102192791B1 (en) | 2016-04-25 | 2020-12-18 | 엘지전자 주식회사 | Mobile robot and control method of mobile robot |
WO2017188706A1 (en) * | 2016-04-25 | 2017-11-02 | 엘지전자 주식회사 | Mobile robot and mobile robot control method |
KR20180125010A (en) * | 2016-04-25 | 2018-11-21 | 엘지전자 주식회사 | Control method of mobile robot and mobile robot |
US10939791B2 (en) | 2016-04-25 | 2021-03-09 | Lg Electronics Inc. | Mobile robot and mobile robot control method |
KR20180023100A (en) * | 2016-08-23 | 2018-03-07 | 한국철도기술연구원 | A Method and Apparatus for Decision and Control for Robust Platooning |
KR101889607B1 (en) * | 2016-08-23 | 2018-08-22 | 한국철도기술연구원 | A Method and Apparatus for Decision and Control for Robust Platooning |
WO2018193653A1 (en) * | 2017-04-21 | 2018-10-25 | パナソニックIpマネジメント株式会社 | Mobile device, object detection method, and program |
CN109382825B (en) * | 2017-08-08 | 2021-03-02 | 发那科株式会社 | Control device and learning device |
US10953538B2 (en) | 2017-08-08 | 2021-03-23 | Fanuc Corporation | Control device and learning device |
CN109382825A (en) * | 2017-08-08 | 2019-02-26 | 发那科株式会社 | Control device and learning device |
JP2019030941A (en) * | 2017-08-08 | 2019-02-28 | ファナック株式会社 | Control device and learning device |
JP2019059148A (en) * | 2017-09-27 | 2019-04-18 | 京セラドキュメントソリューションズ株式会社 | Delivery device and delivery system |
WO2019203022A1 (en) * | 2018-04-20 | 2019-10-24 | ソニー株式会社 | Moving body, information processing device, information processing method, and program |
US11110603B2 (en) | 2018-10-02 | 2021-09-07 | Toyota Research Institute, Inc. | Systems and methods for naïve physics for contact and contact-awareness in robotic teleoperation |
JP7360792B2 (en) | 2018-12-27 | 2023-10-13 | 株式会社ダイヘン | Mobile object, learning device, and learning device manufacturing method |
JP2020107024A (en) * | 2018-12-27 | 2020-07-09 | 株式会社ダイヘン | Moving object, learned element, and learned element generation method |
JP2020140490A (en) * | 2019-02-28 | 2020-09-03 | 三菱ロジスネクスト株式会社 | Transportation system, area determination device, and area determination method |
CN111673730A (en) * | 2019-03-11 | 2020-09-18 | 本田技研工业株式会社 | Path determining method |
US11669096B2 (en) | 2019-03-11 | 2023-06-06 | Honda Motor Co., Ltd. | Route determination method |
JP2020194432A (en) * | 2019-05-29 | 2020-12-03 | トヨタ自動車株式会社 | Machine learning method and mobile robot |
US11703872B2 (en) | 2019-05-29 | 2023-07-18 | Toyota Jidosha Kabushiki Kaisha | Machine learning method and mobile robot |
JP7188279B2 (en) | 2019-05-29 | 2022-12-13 | トヨタ自動車株式会社 | Machine learning methods and mobile robots |
CN110315553B (en) * | 2019-06-23 | 2023-10-27 | 大国重器自动化设备(山东)股份有限公司 | Robot anti-collision system and method for restaurant |
CN110315553A (en) * | 2019-06-23 | 2019-10-11 | 大国重器自动化设备(山东)股份有限公司 | A kind of dining room robot collision avoidance system and method |
JP2022543559A (en) * | 2019-08-06 | 2022-10-13 | シーメンス エレクトロニック デザイン オートメーション ゲゼルシャフト ミット ベシュレンクテル ハフツング | Method, Apparatus, and System for Controlling Autonomous Vehicles |
JP2021033685A (en) * | 2019-08-26 | 2021-03-01 | 株式会社デンソー | Learning program and learning method |
US11727308B2 (en) | 2019-08-26 | 2023-08-15 | Denso Corporation | Learning system and method |
JP2021076995A (en) * | 2019-11-07 | 2021-05-20 | 三菱ロジスネクスト株式会社 | Cargo handling system |
WO2021161374A1 (en) * | 2020-02-10 | 2021-08-19 | 三菱電機株式会社 | Control device and learning device |
JP6896179B1 (en) * | 2020-02-10 | 2021-06-30 | 三菱電機株式会社 | Control device and learning device |
WO2021171500A1 (en) * | 2020-02-27 | 2021-09-02 | 三菱電機株式会社 | Robot control device, robot control method, and learning model generation device |
JP6815571B1 (en) * | 2020-02-27 | 2021-01-20 | 三菱電機株式会社 | Robot control device, robot control method and learning model generation device |
DE112020006315B4 (en) | 2020-02-27 | 2023-12-14 | Mitsubishi Electric Corporation | ROBOT CONTROL DEVICE, ROBOT CONTROL METHOD AND DEVICE FOR GENERATING LEARNING MODELS |
CN114167857A (en) * | 2021-11-08 | 2022-03-11 | 北京三快在线科技有限公司 | Control method and device of unmanned equipment |
CN114167857B (en) * | 2021-11-08 | 2023-12-22 | 北京三快在线科技有限公司 | Control method and device of unmanned equipment |
CN114012732A (en) * | 2021-11-26 | 2022-02-08 | 北京云迹科技有限公司 | Robot control method, device, equipment and medium |
Also Published As
Publication number | Publication date |
---|---|
JP4852753B2 (en) | 2012-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4852753B2 (en) | Autonomous mobile robot with learning function | |
JP5402057B2 (en) | Mobile robot control system, route search method, route search program | |
JP5080333B2 (en) | Object recognition device for autonomous mobile objects | |
JP5909486B2 (en) | Self-position / posture estimation system | |
US7873438B2 (en) | Mobile apparatus and control program therefor | |
US20080249662A1 (en) | Mobile apparatus, control device and control program | |
JP5276931B2 (en) | Method for recovering from moving object and position estimation error state of moving object | |
JP4735476B2 (en) | Autonomous mobile device | |
US11604469B2 (en) | Route determining device, robot, and route determining method | |
JP2008059218A (en) | Method for restoring self-position of autonomously traveling robot | |
JP5553220B2 (en) | Moving body | |
CN110865640B (en) | Obstacle avoidance structure of intelligent robot | |
KR101245754B1 (en) | Autonomy drive robot, and method for establishing route | |
JP2011224679A (en) | Reaction robot, reaction control method, and reaction control program | |
CN112631269A (en) | Autonomous mobile robot and control program for autonomous mobile robot | |
JP2005211442A (en) | Autonomously movable wheelchair | |
CN211554738U (en) | Obstacle avoidance structure of intelligent robot | |
US11467592B2 (en) | Route determination method | |
Elsheikh et al. | Dynamic path planning and decentralized FLC path following implementation for WMR based on visual servoing | |
JP2003330538A (en) | Autonomous moving robot and autonomous moving method thereof | |
Ray et al. | Sonar based autonomous automatic guided vehicle (AGV) navigation | |
Mikhail et al. | Navigation software system development for a mobile robot to avoid obstacles in a dynamic environment using laser sensor | |
Gao et al. | Shared autonomy for assisted mobile robot teleoperation by recognizing operator intention as contextual task | |
Sanchez et al. | Autonomous navigation with deadlock detection and avoidance | |
Hess et al. | Simultaneous calibration of odometry and external sensors of omnidirectional automated guided vehicles (AGVs) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090413 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110419 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110527 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111004 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |