JP4852753B2 - 学習機能をもつ自律移動ロボット - Google Patents

学習機能をもつ自律移動ロボット Download PDF

Info

Publication number
JP4852753B2
JP4852753B2 JP2006143783A JP2006143783A JP4852753B2 JP 4852753 B2 JP4852753 B2 JP 4852753B2 JP 2006143783 A JP2006143783 A JP 2006143783A JP 2006143783 A JP2006143783 A JP 2006143783A JP 4852753 B2 JP4852753 B2 JP 4852753B2
Authority
JP
Japan
Prior art keywords
mobile robot
autonomous mobile
obstacle
self
learning function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006143783A
Other languages
English (en)
Other versions
JP2007316799A (ja
Inventor
正昭 大北
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tottori University
Original Assignee
Tottori University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tottori University filed Critical Tottori University
Priority to JP2006143783A priority Critical patent/JP4852753B2/ja
Publication of JP2007316799A publication Critical patent/JP2007316799A/ja
Application granted granted Critical
Publication of JP4852753B2 publication Critical patent/JP4852753B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

自律移動能力及び学習機能を有し、走行のたびごとに新たな知識を獲得し、以後の走行に活用できるようにした学習機能をもつ自律移動ロボットに関するものである。
従来の自律移動ロボットは、走行路にランドマーク、電磁界等の目印が設備されて、それらの目印に沿って走行するものであり、決められたルールの範囲内でしか移動できない。また、走行中にあらかじめ用意されたルールで対応できない場合には、走行を継続することは難しい。
また、従来の自律移動ロボットとして、特許文献1には、強化学習法を用いたものが記載されている。特許文献1では、ロボット(エージェント)が走行環境を走行し、その良しあしの評価により報酬を定義し、評価を良くする手法が記載されている。
また、特許文献2には、ニュ−ラルネットワークにもとづく学習機能を搭載する移動体が記載されている。特許文献2では、人間の経験則で決まる走行ルールを準備し、SOM(Self−Organizing Map、自己組織化マップ)を学習させ、走行に用いるもので、基本的には初めに準備したルールにより走行させるものである。
特開2005−293154号公報(第4〜14頁、図2) 特開2000−122991号公報(第5〜9頁、図1)
従来の自律移動ロボットは、走行路にランドマーク、電磁界等の何らかの目印が設備されて、それらの目印に沿って走行するものであり、これであると、目印以外の行路を走行できない、という問題がある。
特許文献1では、ロボット(エージェント)が走行環境を走行し、その良しあしの評価により報酬を定義し、評価を良くする手法が用いられ、この手法では、走行環境を教師データとして走行評価を行い、走行に必要なルールを優先して生成するので、計算負荷が大きく、複雑な多数の走行ルールを必要とするときには、実用面と、走行の多様性に対する適応能力から考慮すると、問題が残る。
特許文献2については、人間の経験則で決まる走行ルールを準備し、SOMを学習させ、走行に用いるものの、基本的には初めに準備したルールにより走行させるものであり、行路の変化に対応できないという問題がある。
この発明は、上述のような課題を解決するためになされたものであり、走行路の状況に応じて、走行ルールを修正及び追加し、あらかじめ準備した走行ルールとともに、次の走行に活用できるようにした学習機能をもつ自律移動ロボットを得ることを目的にしている。
この発明に係わる学習機能をもつ自律移動ロボットにおいては、走行路の環境情報が格納された環境マップ、走行中に走行路の状況を検出するセンサ類、このセンサ類により検出された走行路の状況から自己位置を認識し、環境マップに入力する自己位置認識手段、センサ類から検出された走行路の状況から障害物を認識し、環境マップに入力する障害物認識手段、及び環境マップの環境情報を入力値とする走行ルールを学習済みの自己組織化マップを有し、入力される環境マップの環境情報に応じた操舵情報を出力する学習手段を備え、学習手段は、出力した操舵情報による走行の危険度を評価し、危険度が所定値を超える場合には自己組織化マップの走行ルールを修正するものである。
この発明は、以上説明したように、走行路の環境情報が格納された環境マップ、走行中に走行路の状況を検出するセンサ類、このセンサ類により検出された走行路の状況から自己位置を認識し、環境マップに入力する自己位置認識手段、センサ類から検出された走行路の状況から障害物を認識し、環境マップに入力する障害物認識手段、及び環境マップの環境情報を入力値とする走行ルールを学習済みの自己組織化マップを有し、入力される環境マップの環境情報に応じた操舵情報を出力する学習手段を備え、学習手段は、出力した操舵情報による走行の危険度を評価し、危険度が所定値を超える場合には自己組織化マップの走行ルールを修正するので、走行路の状況に応じて、走行ルールを修正及び追加し、あらかじめ準備した走行ルールとともに、次の走行に活用でき、安全にかつ確実に目的地まで移動することができる。


実施の形態1.
この発明の学習機能をもつ自律移動ロボット(以下、単に自律移動ロボットともいう。)は、はじめに経路を探索し、センサ情報により環境を認識しながら、予め学習させた自己組織化マップ(SOM)を基に方位、速度を決め、これを走行法の基礎とするものである。走行途中に障害物にぶつかりそうになる等の不都合が生じても、走行ルールを修正し、そこで得られた知識を走行ルールとして、追加学習し、新たに得られた走行ルールとあらかじめ準備した走行ルールとを次の走行に活用できるようにしたものであり、“走行のたびに賢くなる”自律移動ロボットである。
以下、これについて詳述する。
図1は、この発明の実施の形態1による学習機能をもつ自律移動ロボットを示す構成図である。
図1において、センサ類1は、自律移動ロボットに取りつけられ、走行路に設けられたランドマークや障害物などを検知する。エンコーダ、ジャイロ・センサ、超音波センサ、ドプラセンサなどが含まれる。自己位置認識機能2(自己位置認識手段)は、センサ類1からの信号により、自己位置を認識し、環境マップ5に書き込む。障害物認識機能3(障害物認識手段)は、センサ類1からの信号及びカメラ4からの映像を元にして障害物を認識し、環境マップ5に書き込む。カメラ4は、走行路を撮像し、その映像を障害物認識機能3に出力する。
環境マップ5は、学習機能をもつ自律移動ロボットに搭載したパーソナル・コンピュータ上で1ドットが1[cm]となるように、屋内全体の壁・柱・固定障害物などの走行路にあらかじめ存在する情報を書き込んだ地図情報である。目的地指定用のタッチパネル10(入力手段)により、自律移動ロボットの目的地が環境マップ5に書き込まれ、この目的地までの経路を決定した際、この環境マップ5に書き込まれた環境情報は、学習機能6(学習手段)の入力になる。
学習機能6は、入力された情報を用いて、学習機能をもつ自律移動ロボットを目的地へ誘導するように走行目標角度、行動パターンを駆動系入力7へ出力する。
学習機能6は、人間の脳の情報処理の方法を模擬したアルゴリズムであり、多次元データの分類・予測手法である。この学習機能6は、走行ルールの不適切があれば、修正・補正し、走行ルールを追加する機能である走行ルール追加機能61(走行ルール追加手段)と、既知の障害物及び未知の移動障害物を回避して走行する障害物回避機能62(障害物回避手段)とを有している。
走行ルール追加機能61と障害物回避機能62とは、SOM8を用いて、その学習機能を応用する。
SOM8は、走行ルールをノードとして持ち、学習によって走行ルールを追加することができる。環境マップ5は、SOM8による走行ルールの実行による経路の確認を担うものである。この確認で走行が適当なときには、自律移動ロボットの走行を続行し、壁や障害物の出現(これは環境マップ5に入力される。)のために走行が不適当なときには、走行ルールを修正して走行し、このとき、走行ルールの追加を行う。
駆動系入力7に入力された、学習機能をもつ自律移動ロボットを目的地へ誘導するための走行目標角度、行動パターンは、駆動系9に伝えられて、自律移動ロボットを目的地へ誘導する。
なお、図1の自己位置認識機能2、障害物認識機能3、環境マップ5、学習機能6は、マイクロコンピュータを用い、ソフトウエアによって構成することができる。
図2は、この発明の実施の形態1による環境マップ上での学習機能をもつ自律移動ロボットモデルを示す図である。
図2において、自律移動ロボットモデル11の左右車輪の中心位置(X、Y)が示されている。
図3は、この発明の実施の形態1による学習機能をもつ自律移動ロボットの1周期の処理の流れを示すフローチャートである。
図4は、この発明の実施の形態1による学習機能をもつ自律移動ロボットの障害物が書き込まれた環境マップを示す図である。
図4において、自律移動ロボットモデル11が障害物13を避けて壁14の間を走行する様子が示されている。
次に、動作について説明する。
自律移動ロボットの走行を考えると、安全性と信頼性の高い動作が必須条件となる。走行の安全性と信頼性を向上させる方法として、この発明では、環境マップ5を導入する。環境マップ5は、自律移動ロボットに搭載したパーソナル・コンピュータ上で1ドットが1[cm]となるように、屋内全体の壁・柱・固定障害物などのあらかじめ存在する情報を書き込み、地図の形状に合わせて行動パターンを切り替えるための境界線も書き込んだ地図情報である。この環境マップ5には、境界線で囲まれた領域ごとに、目的地までの経路を決定した際、環境情報を学習機能6に与えて、この学習機能6が自律移動ロボットを目的地へ誘導するように走行目標角度、行動パターンを、駆動系入力7に入力する。ここで環境マップ5上での自律移動ロボットモデル11は、図2のように、「センサを含めた車体全体の一番外枠を矩形」で表現する。
学習機能をもつ自律移動ロボットの存在する位置や未知の移動物体を含む障害物をセンサ類1によって確認することで、環境マップ5を常に更新し、境界線により走行パターンを切り替えながら走行制御を行い、ゴールまで走行する。
学習機能をもつ自律移動ロボットでは、走行中に得られたセンサ値を用いて、自己位置認識機能2により自己位置の決定を行い、障害物認識手段3により未知の静止及び移動する障害物の発見を行い、この自己位置と未知の障害物を環境マップ5に書き込み、環境マップ5を更新する。
走行中は、あらかじめ設定した走行ルールに従うが、環境状況によって、適応的に走行できない時には、走行ルールを修正・調整し、走行する。ここで得られた走行ルールを、次の走行に生かせるよう、学習機能6として、追加学習可能なSOMアルゴリズムを搭載している。すなわち、“走行するたびごとに賢くなる”学習機能をもつ自律移動ロボットである。
図3には、自律移動ロボットの走行の流れが示されている。ここで走行中に障害物13が認識された時、障害物13を環境マップ5に書き込み、障害物回避行動をとる。この時、同時に自律移動ロボットは、環境マップ5に書き込まれた障害物13の回避行動をとりながら自己位置を更新し、図4のように、障害物13の付近を、書き込みながら走行する。
図3では、ステップS1で、走行経路を決定する。ステップS2で、各センサの値を取得し、ステップS3で、これらを用いて、自己位置の認識、障害物の認識の情報処理を行う。次いで、ステップS4で、これらを用いて環境マップ5を更新する。ここで、ステップS5で、障害物が検知されれば、ステップS3で、障害物認識の処理を行い、ステップS4で、環境マップを更新する。
次いで、ステップS6で、環境マップ5からSOM入力値を取得し、ステップS7でSOM推論を実行し、ステップS8で、駆動系9に出力して、自律移動ロボットを走行させる。
以下に、自律移動ロボットの走行について、詳細に順を追って、説明する。
まず、自己位置認識機能2による自律移動ロボットの自己位置の認識について、手段1〜手段7により説明する。
手段1.
学習機能をもつ自律移動ロボットの位置情報は、自己位置認識手段2により、図2のように、環境マップ5上での自律移動ロボットの左右の車輪間の中心座標X、Y及び車体の角度θで出力され、この値より環境マップ5上に現在位置を書き込む。
手段2.
手段1において、エンコーダ、ジャイロ・センサ、超音波センサ、ドプラセンサのそれぞれの値及びカメラ画像の処理値を用いて、図2に示すような、環境マップ上での自律移動ロボットモデル11の左右の車輪間の中心座標X、Y及び車体の角度θを算出する手法を以下に示す。
自己位置認識手段2への入力値を、エンコーダより得られた左右輪の回転数とジャイロ・センサから得られた姿勢角変化値とする。これらの情報を用い、前の制御動作(前周期)での学習機能をもつ自律移動ロボットの自己位置より、図5のように、得られた姿勢角変化値θの方向に、左右輪の回転数より算出したそれぞれの走行距離値e1、e2を直進的に延長し、自律移動ロボットの左右輪の中心座標(X、Y)、(X、Y)をそれぞれ算出する。次に、この2点の中点を求めることで、出力値(X、Y、θ)を得る。
手段3.
手段1において、エンコーダより得られた左右輪の回転数を入力値として、定式を用いて算出する方法。この入力値より、前周期において決定した自己位置から、今周期の左右輪の回転数より現在位置を算出するために導出した走行軌跡の定式を用い、出力値(X、Y、θ)を得る。
手段4.
手段1において画像処理を用いる手法。入力値をカメラ4からの2次元画像とし、出力値(X、Y、θ)を得る。これはカメラを約1[m]の高さに固定して前方を撮影し、その撮影された画像を処理することで得られる。
手段5.
手段1において、ランドマーク・リーダの検知信号を用いる手法。図6のように、施設内のランドマーク12は、直線の廊下と交差点の境目などに設置しており、環境マップ5の境界線の一部は、あらかじめ施設内に設置したランドマーク12と同じ位置に書き込んでいる。
そして学習機能をもつ自律移動ロボットの走行中に、センサ類1の一つであるランドマーク・リーダによるランドマーク検知信号を取得すると、検知時の自律移動ロボットの現在位置から、壁14に平行にし、検知した環境マップ5上でのランドマーク12の座標に、図6及び図7に示すように修正する。
すなわち、図7のようにランドマーク12に、自律移動ロボットモデル11の左右車輪間の中心座標を合わせるように、環境マップ5を修正する。これにより、センサの値の校正及び経路の確認を行うことができる。
手段6.
手段5のランドマークを用いた手法は、手段2、手段3及び手段4と同時に用いるものではなく、これらとは別に、ランドマーク検知時だけに用いる。
手段7.
通常走行の場合、手段2、手段3及び手段4により、以下の条件式を用いることにより誤差が少なくなるように自己位置(X、Y)を決定する。
自己位置(X、Y)については、まず、以下の式1、式2より、L、Lを求める。
Figure 0004852753
Figure 0004852753
ここで、L、Lの値が共に20[cm]以下なら、3つの予測は、誤差が少ないとみなし、XとYは、
Figure 0004852753
Figure 0004852753
上記以外で50[cm]以下なら
Figure 0004852753
Figure 0004852753
上記以外なら
X=X
Y=Y
とする。
θの値については、まず式(3)、(4)、(5)より△θ、△θ、△θを求める。
Figure 0004852753
Figure 0004852753
Figure 0004852753
これより、△θ、△θ、△θの値が全て5[deg]以内なら、
Figure 0004852753
上記以外なら
θ=θ (11)
とする。
以上の操作により決定した自律移動ロボットの自己位置を環境マップ5に書き込む。
これらの式は、いずれもカメラ画像を用いる手法により決定した自己位置に比重をおいた式となっている。
次に、障害物認識機能3による障害物の認識と環境マップへの書き込みについて、手段8〜手段11により説明する。
手段8.
手段8は、センサ類1の一つである超音波センサーの値を用いて、走行領域の把握及び障害物を認識する。10組の超音波センサから取得した値を使用し、環境マップ5上に書き込まれている自律移動ロボットの現在位置から、自律移動ロボットの車体に取り付けられた10組の超音波センサと同位置となる箇所から、超音波センサの指向性を考慮し(センサの向いている方向に対して±23[deg]の広がり)、適切な位置に弧を描くように環境マップ5に書き込む。
例えば、図8のように、学習機能をもつ自律移動ロボットの前方に障害物13aが存在すると仮定し、自律移動ロボット前方左の超音波センサからx[cm]の値を取得したとすると、図9に示すように、障害物13までの測定値を環境マップ5に書き込む。
さらに、超音波センサ、ドプラセンサ、カメラの複眼視により、移動障害物の距離、方位、速さを認識する。
手段9.
カメラ画像を処理することにより、学習機能をもつ自律移動ロボットから障害物までの距離、障害物の幅を算出する。この手法においては、現在までにカメラ4より得られた画像から水平エッジ(床と障害物との境界)の検出を行い、その処理した画像を用いることで、障害物の有無、障害物までの距離を取得する手法(参考文献[1])が提案されている。例えば、図8のような環境で、障害物13aが発見されれば、環境マップ5上に書き込まれている現在位置より、図10のように環境マップ5上に、得られた障害物の距離および幅を用いることにより障害物13を書き込む。この時に環境マップ5上に描き込む障害物13の幅は、カメラ4の指向性を考慮して描き込むこととする。
手段10.
タッチ・センサを用いて障害物を検知する手法では、まずタッチ・センサの前後計8箇所に取り付けられたマイクロ・スイッチの検出信号により、検出したマイクロ・スイッチの個所から、前方の左右の前方・横方向、後方に障害物が存在することを認識する。そして、学習機能をもつ自律移動ロボットの現在位置より図11のように障害物13を書き込む。図11は、学習機能をもつ自律移動ロボット前方のマイクロ・スイッチが障害物を検知した時の環境マップ上の様子を示している。
タッチセンサにより障害物を検知したときは、走行を緊急停止する。
手段11.
ここで、手段8の超音波センサの距離測定での不安定動作を補うため、手段9のカメラ情報により発見された障害物も含め、その存在確率として5段階の危険度を与える(障害物の存在しない時存在確率を1とする)。環境マップ5上では危険度が5段階目(危険度を示す数字が5になった時)に達したとき、初めて障害物と認める。
危険度の区別を以下のようにする。
(1)画像処理によって発見された物体のある位置の値に危険度3を加える。
(2)画像処理によって障害物の無いことが確認されると、その位置の危険度に−2を加える。
(3)超音波センサによって発見された物体のある位置の値に1を加える。
(4)タッチ・センサによって発見された物体のある位置の値に5を加える。
(5)危険度は5を超えることは無く、0を下回ることも無い。
次に、環境マップからSOMへの入力及びSOMからの出力について、手段12〜手段15により説明する。
手段12.
学習機能をもつ自律移動ロボットでは、その環境マップ5に書き込まれた現在位置とその周囲の環境情報及び移動物体情報の学習により得られた速さ、方位情報を用いて、あらかじめ学習されたSOM8の入力値を取得し、ベスト・マッチ・ユニットを計算し、自律移動ロボットの次の動作の決定を行う。
手段13.
あらかじめ学習されたSOM8の入力値として、図12のように学習機能をもつ自律移動ロボットの周囲を11個の領域に分け、それぞれの領域内で超音波センサが取得した距離情報の値を、SOM8への入力値として適用している。それぞれの入力値に対してベスト・マッチ・ユニットを算出し、出力値を求めている。
手段14.
ここで、手段13の図12の各領域の最短距離値の取得法は、環境マップ5上より、図13のように各領域ごとに車体からの距離が1[cm]づつ広がるような形で、壁14や障害物が存在するかどうか確認して行く。そして障害物が存在するとそこまでの距離値を障害物までの最短距離値として取得する。図13では、図12の領域5と領域8での値の取得法を示している。
手段15.
SOM8による推論出力値は、学習機能をもつ自律移動ロボットを直進または左右どちらの方向にどれだけの旋回半径で旋回走行させるかということを表わす旋回半径値で出力される。
次に、走行準備として環境マップの作成について、手段16、手段17により説明する。
手段16.
走行準備として環境マップ5を作成する。環境マップ5は、施設内の廊下の幅や柱、長椅子などの固定障害物を1[cm]単位で測って作成し、作成した環境マップ5に学習機能をもつ自律移動ロボットの走行方法を切り替えるための境界線も書き込む。
手段17.
作成した環境マップ5に初期位置、目的地を入力し、目的値までの経路を決定し、環境マップ5の各領域に学習機能をもつ自律移動ロボットを目的地に誘導するように目標角、走行方向を入力する。
次に、自律移動ロボットの走行による環境マップの更新について、手段18〜手段21により説明する。
手段18.
学習機能をもつ自律移動ロボットの走行を開始させる。走行中は、まずエンコーダ、ジャイロ・センサからの値、カメラからカメラ画像を取得する。ここで取得した値と走行特性を定式化した式を用いて、学習機能をもつ自律移動ロボットの位置認識を行う。
手段19.
得られた学習機能をもつ自律移動ロボットの位置情報を用いて、環境マップ5上に書き込む。
次に、SOMの作成について、手段20により説明する。
手段20.
学習機能をもつ自律移動ロボットの現在位置が環境マップ5に書き込まれると、次に超音波センサとカメラ画像を用いて未知の障害物の認識を行う。
走行路上に置かれた物、移動する物、人、他の車椅子などの障害物に遭遇したとき、走行移動中の自律移動ロボットは、それらの位置、速度、方向をリアルタイムに計測し、自己の走行方向および速度を制御する必要がある。
本システムでは、図14のように、自律移動ロボット周辺の環境情報及び障害物移動情報(位置、速度、方向)から、SOM8により、自己の操舵情報(走行速度、方向)を類推し、安全に目的地まで自律移動ロボットを移動させることになる。
走行中の自律移動ロボットに対する移動障害物の位置、速度、方向は、自律移動ロボットに搭載されたセンサにより検知する。障害物の位置は、超音波センサにより、速度は、ドプラーセンサにより、方向は、2台のカメラによる両眼視による方位角センサにより計測する。
これらのセンサからの信号は、障害物認識機能3により、障害物として認識され、環境マップ5に書き込まれる。そして、環境マップ5から、あらかじめ用意されたSOM8に入力され、その時々の操舵情報を求める。ただし、方位については、経路探索により得た、目的地へ向かう経路情報とマッチングを取りながら決定する。
このため、走行状態を学習させるためのSOM8を作成する必要がある。
そのために、
(a)現場に出かけて、具体的な状況で自律移動ロボットを動かして、周囲情報と操舵情報のデータを収集する。
(b)上記の同様な状況で、計算機シミュレーションにより周囲情報と操舵情報のデータを収集する。
(c)(a)(b)両者のマッチングを取る。
種々の現場において自律移動ロボットを走行させ、走行中の自律移動ロボットに対する周囲情報及び障害物の位置、速度、方向のデータをとり、その場合の適当な走行方向、走行速度を決め、予め、図15のようなSOM8を学習、作成する必要がある。SOM8を学習するには、図17(a)のように、自律移動ロボットの周囲の環境情報、障害物移動情報、目的地情報、操舵情報を使用する。完成した(学習した)SOM8を自律移動ロボットに搭載、図17(b)のように、具体的な走行状態に応じて、センサ情報(障害物移動情報)、目的地情報、周囲情報をSOM8に入力し、その出力から自律移動ロボットの操舵情報(方位、速度)を得て、駆動系9に出力し、自律移動ロボットの実環境での走行に生かす。
自律移動ロボットにセンサ群1を搭載し、走行中の自律移動ロボットに対する障害物の位置、速度、方向を得て、環境マップ5上に書き込みながら、自律移動ロボットモデルの走行を実現する。
実環境での走行情報、環境マップ5上での走行情報のマッチングを取ることにより、安全走行が可能になる。
図16は、学習による自律移動ロボットの走行システムでのSOMのイメージ図を示している。
手段21.
未知の障害物が発見されれば、手段11の危険度を参照しつつ環境マップ5を更新する。
次に、走行によるSOMの走行ルールの修正及び追加について、手段22により説明する。
手段22.
ここまでの処理が終了すると、学習機能をもつ自律移動ロボット走行中の最新の環境マップ5が完成する。この環境マップ5を用いて、SOM8による操作情報決定のための入力値を取得し、SOM8の推論能力を用いて、次の動作の決定を行う。
学習機能をもつ自律移動ロボットは、このセンサ値の取得、自己位置認識、障害物認識、SOM8の推論能力を用いた次の動作の決定を繰り返すことで、目的地まで走行する。
次に、走行評価及び追加学習データの獲得を環境マップ上で考える。図18は、走行評価及び追加学習データの獲得を示している。
走行中、自律移動ロボットと障害物との衝突が予測されれば、走行方向を調整する。これにより、得られた走行ルールデータを追加学習の際に使用する。初めに学習により用意したSOM8から、環境情報を入力し、得られた走行ルールにより走行予測を行い、危険度(近接度)が低ければ、そのまま走行する。危険度がある値を超えると、環境情報を入力し、得られた走行ルールと障害物情報により走行ルールを修正する。この修正は、予め得られた走行ルールと障害物情報を入力とするファジィ制御により行う(図18参照)。
次に、図19の走行評価及び追加学習データの獲得のフローチャートについて、図15を参照して説明する。
ステップS11で、学習済みのSOM8に、環境情報を入力し、操舵角、速度の出力を得る。次いで、ステップS12で、この出力を駆動系9に与えて試行し、ステップS13で、その走行ルールを評価する(図15参照)。危険であれば、ステップS14で、走行ルールを修正し、ステップS12に戻って再試行するとともに、ステップS15で、SOM8への追加学習する。
ステップS13で、評価がOKであれば、ステップS16で、走行し、目標地点に到達すれば終了する。目標地点に到達しなければ、ステップS1から繰り返す。
図20は、実環境上及び、図19による走行による環境マップ上での障害物回避行動を示している。
実施の形態1によれば、走行路の状況に応じて、走行ルールを修正及び追加し、あらかじめ準備した走行ルールとともに、次の走行に活用できるようにした学習機能をもつ自律移動ロボットを提供でき、工場、福祉施設内および病院のロビー等内で、安全にかつ確実に目的地まで移動できる学習機能をもつ自律移動ロボットを構築することができる。
参考文献
[1] 菅野祥伸、山本寿、大木誠、大北正昭:屋内環境におけるカメラ・データと現在地推定データのマッチングによる位置認識、電気学会全国大会講演論文集、3−043、p.4(2002)。
学習機能を有する自律移動ロボットの制御技術は種々の分野で応用できる。例えば、病院であれば、学習機能をもつ自律移動ベッド、福祉施設では学習機能をもつ自律移動車椅子、さらに、掃除ロボット、案内・ガイドロボット等である。
この発明の実施の形態1による学習機能をもつ自律移動ロボットを示す構成図である。 この発明の実施の形態1による環境マップ上での学習機能をもつ自律移動ロボットモデルを示す図である。 この発明の実施の形態1による学習機能をもつ自律移動ロボットの1周期の処理の流れを示すフローチャートである。 この発明の実施の形態1による学習機能をもつ自律移動ロボットの障害物が書き込まれた環境マップを示す図である。 この発明の実施の形態1による学習機能をもつ自律移動ロボットのエンコーダとジャイロ・センサによる学習機能をもつ自律移動ロボットモデルの位置と姿勢角の決定を示す図である。 この発明の実施の形態1による学習機能をもつ自律移動ロボットのランドマークによる自己位置の修正1を示す図である。 この発明の実施の形態1による学習機能をもつ自律移動ロボットのランドマークによる自己位置の修正2を示す図である。 この発明の実施の形態1による学習機能をもつ自律移動ロボットが走行する障害物の存在する環境を示す図である。 この発明の実施の形態1による学習機能をもつ自律移動ロボットの超音波センサによる環境マップの更新を示す図である。 この発明の実施の形態1による学習機能をもつ自律移動ロボットのカメラ画像による障害物認識を示す図である。 この発明の実施の形態1による学習機能をもつ自律移動ロボットのタッチ・センサでの環境マップの更新を示す図である。 この発明の実施の形態1による学習機能をもつ自律移動ロボットの距離計測のための車体周辺領域の分割を示す図である。 この発明の実施の形態1による学習機能をもつ自律移動ロボットの定義された領域(5、8)でのSOM推論の入力値距離情報取得例を示す図である。 この発明の実施の形態1による学習機能をもつ自律移動ロボットの学習による走行システムを示すイメージ図である。 この発明の実施の形態1による学習機能をもつ自律移動ロボットのSOMの追加学習による知識の獲得過程を示す図である。 この発明の実施の形態1による学習機能をもつ自律移動ロボットの学習による自律移動ロボットの走行システムSOMマップを示すイメージ図である。 この発明の実施の形態1による学習機能をもつ自律移動ロボットのSOMの学習と学習されたSOMの利用を示す図である。 この発明の実施の形態1による学習機能をもつ自律移動ロボットの走行評価及び追加学習データの獲得を示す図である。 この発明の実施の形態1による学習機能をもつ自律移動ロボットの走行評価及び追加学習データの獲得を示すフローチャートである。 この発明の実施の形態1による学習機能をもつ自律移動ロボットの実環境上及び環境マップ上での障害物回避行動を示す図である。
符号の説明
1 センサ類
2 自己位置認識機能
3 障害物認識機能
4 カメラ
5 環境マップ
6 学習機能
7 駆動系入力
8 SOM
9 駆動系
10 タッチパネル
11 環境マップ上の自律移動ロボットモデル
11a 実環境での自律移動ロボット
12 環境マップ上のランドマーク
13 環境マップ上の障害物
13a 実環境での障害物
14 環境マップ上の壁
61 走行ルール追加機能
62 障害物回避機能

Claims (8)

  1. 走行路の環境情報が格納された環境マップ、
    走行中に上記走行路の状況を検出するセンサ類、
    このセンサ類により検出された上記走行路の状況から自己位置を認識し、上記環境マップに入力する自己位置認識手段、
    上記センサ類から検出された上記走行路の状況から障害物を認識し、上記環境マップに入力する障害物認識手段、
    及び上記環境マップの環境情報を入力値とする走行ルールを学習済みの自己組織化マップを有し、上記入力される環境マップの環境情報に応じた操舵情報を出力する学習手段を備え
    上記学習手段は、上記出力した操舵情報による走行の危険度を評価し、危険度が所定値を超える場合には上記自己組織化マップの走行ルールを修正することを特徴とする学習機能をもつ自律移動ロボット。
  2. 上記学習手段は、走行中に上記環境マップに障害物が入力されたとき、上記障害物を回避する走行ルールを上記自己組織化マップに追加する走行ルール追加手段を有することを特徴とする請求項1記載の学習機能をもつ自律移動ロボット。
  3. 上記自己組織化マップは、上記環境マップのもつ環境情報及びこれに対応する操舵情報が入力されることにより、上記走行ルールを学習したことを特徴とする請求項1記載の学習機能をもつ自律移動ロボット。
  4. 上記環境マップに目的地を入力する入力手段を備えたことを特徴とする請求項1記載の学習機能をもつ自律移動ロボット。
  5. 上記センサ類は、複数のセンサを有し、上記自己位置認識手段は、複数のセンサ情報を用いて、自己位置を認識することを特徴とする請求項1記載の学習機能をもつ自律移動ロボット。
  6. 上記センサ類は、複数のセンサを有し、上記障害物認識手段は、複数のセンサ情報を用いて、障害物を認識することを特徴とする請求項1記載の学習機能をもつ自律移動ロボット。
  7. 上記走行路には、ランドマークが定義され、上記自己位置認識手段は、上記ランドマークにより自己位置を確認することを特徴とする請求項1記載の学習機能をもつ自律移動ロボット。
  8. 上記センサ類には、タッチセンサが含まれ、上記タッチセンサからの情報に応じて、走行を緊急停止することを特徴とする請求項1記載の学習機能をもつ自律移動ロボット。
JP2006143783A 2006-05-24 2006-05-24 学習機能をもつ自律移動ロボット Active JP4852753B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006143783A JP4852753B2 (ja) 2006-05-24 2006-05-24 学習機能をもつ自律移動ロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006143783A JP4852753B2 (ja) 2006-05-24 2006-05-24 学習機能をもつ自律移動ロボット

Publications (2)

Publication Number Publication Date
JP2007316799A JP2007316799A (ja) 2007-12-06
JP4852753B2 true JP4852753B2 (ja) 2012-01-11

Family

ID=38850618

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006143783A Active JP4852753B2 (ja) 2006-05-24 2006-05-24 学習機能をもつ自律移動ロボット

Country Status (1)

Country Link
JP (1) JP4852753B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11425888B2 (en) * 2016-10-20 2022-08-30 Lely Patent N.V. Animal farm system and method of generating barn map information of said animal farm system

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5120024B2 (ja) * 2008-03-31 2013-01-16 富士通株式会社 自律移動ロボット及びその障害物識別方法
JP5720292B2 (ja) * 2011-02-17 2015-05-20 富士通株式会社 推定位置評価システム及びプログラム
JP5550671B2 (ja) * 2012-03-29 2014-07-16 株式会社デンソーアイティーラボラトリ 自律走行ロボット及び自律走行ロボットの走行制御方法
JP2016024766A (ja) * 2014-07-24 2016-02-08 日本精工株式会社 案内用ロボット
KR102192791B1 (ko) * 2016-04-25 2020-12-18 엘지전자 주식회사 이동 로봇 및 이동 로봇의 제어방법
KR101889607B1 (ko) * 2016-08-23 2018-08-22 한국철도기술연구원 강인한 군집주행을 위한 판단/제어 방법 및 그 판단/제어장치
JP2020106872A (ja) * 2017-04-21 2020-07-09 パナソニックIpマネジメント株式会社 移動装置、物体検出方法及びプログラム
JP6680730B2 (ja) * 2017-08-08 2020-04-15 ファナック株式会社 制御装置及び学習装置
JP6798462B2 (ja) * 2017-09-27 2020-12-09 京セラドキュメントソリューションズ株式会社 配送装置及び配送システム
CN111971635A (zh) * 2018-04-20 2020-11-20 索尼公司 移动体、信息处理装置、信息处理方法和程序
US11110603B2 (en) 2018-10-02 2021-09-07 Toyota Research Institute, Inc. Systems and methods for naïve physics for contact and contact-awareness in robotic teleoperation
KR102696487B1 (ko) * 2018-12-24 2024-08-21 삼성전자주식회사 기계 학습 기반의 로컬 모션 생성 방법 및 장치
JP7360792B2 (ja) * 2018-12-27 2023-10-13 株式会社ダイヘン 移動体、学習器、及び学習器製造方法
JP6711555B1 (ja) * 2019-02-28 2020-06-17 三菱ロジスネクスト株式会社 搬送システム、領域決定装置、および、領域決定方法
JP7250573B2 (ja) * 2019-03-11 2023-04-03 本田技研工業株式会社 倒立振子型ロボット
JP7188279B2 (ja) 2019-05-29 2022-12-13 トヨタ自動車株式会社 機械学習方法および移動ロボット
CN110315553B (zh) * 2019-06-23 2023-10-27 大国重器自动化设备(山东)股份有限公司 一种餐厅用机器人防碰撞系统及方法
KR20220042436A (ko) * 2019-08-06 2022-04-05 지멘스 일렉트로닉 디자인 오토메이션 게엠베하 자율 운반체들을 제어하기 위한 방법, 디바이스 및 시스템
JP2021033685A (ja) * 2019-08-26 2021-03-01 株式会社デンソー 学習プログラム及び学習方法
JP6898054B2 (ja) * 2019-11-07 2021-07-07 三菱ロジスネクスト株式会社 荷役システム
WO2021161374A1 (ja) * 2020-02-10 2021-08-19 三菱電機株式会社 制御装置及び学習装置
WO2021171500A1 (ja) * 2020-02-27 2021-09-02 三菱電機株式会社 ロボット制御装置、ロボット制御方法及び学習モデル生成装置
CN114167857B (zh) * 2021-11-08 2023-12-22 北京三快在线科技有限公司 一种无人驾驶设备的控制方法及装置
CN114012732B (zh) * 2021-11-26 2023-03-31 北京云迹科技股份有限公司 一种机器人控制方法、装置、设备和介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0289134A (ja) * 1988-09-26 1990-03-29 Nippon Telegr & Teleph Corp <Ntt> ルール学習処理方式
JP2005211442A (ja) * 2004-01-30 2005-08-11 Tottori Univ 自律移動型車椅子

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11425888B2 (en) * 2016-10-20 2022-08-30 Lely Patent N.V. Animal farm system and method of generating barn map information of said animal farm system

Also Published As

Publication number Publication date
JP2007316799A (ja) 2007-12-06

Similar Documents

Publication Publication Date Title
JP4852753B2 (ja) 学習機能をもつ自律移動ロボット
JP5402057B2 (ja) 移動ロボット制御システム、経路探索方法、経路探索プログラム
JP5080333B2 (ja) 自律移動体のための物体認識装置
JP5909486B2 (ja) 自己位置姿勢推定システム
KR101522970B1 (ko) 자율 이동 장치 및 그 제어 방법
US11604469B2 (en) Route determining device, robot, and route determining method
US20080249662A1 (en) Mobile apparatus, control device and control program
JP5276931B2 (ja) 移動体および移動体の位置推定誤り状態からの復帰方法
CN112631269B (zh) 自主移动机器人及自主移动机器人的控制程序
EP3892426A1 (en) Autonomously traveling mobile robot and traveling control method therefor
JP2008059218A (ja) 自律走行ロボットの自己位置回復方法
JP2011224679A (ja) 応対ロボット、応対制御方法、及び応対制御プログラム
KR101245754B1 (ko) 자율주행 로봇 및 경로설정 방법
JP5553220B2 (ja) 移動体
JPH03113513A (ja) 自律走行車両の車速感応操舵制御装置
CN110865640A (zh) 一种智能机器人的避障结构
CN211554738U (zh) 一种智能机器人的避障结构
Huang et al. Shared Navigational Control and User Intent Detection in an Intelligent Walker.
JP2005211442A (ja) 自律移動型車椅子
US11467592B2 (en) Route determination method
Elsheikh et al. Dynamic path planning and decentralized FLC path following implementation for WMR based on visual servoing
Ray et al. Sonar based autonomous automatic guided vehicle (AGV) navigation
JP2022181105A (ja) 移動体、制御装置及びそのプログラム
Munoz-Salinas et al. A multi-agent system architecture for mobile robot navigation based on fuzzy and visual behaviour
Mikhail et al. Navigation software system development for a mobile robot to avoid obstacles in a dynamic environment using laser sensor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111004

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150