JP4852753B2 - 学習機能をもつ自律移動ロボット - Google Patents
学習機能をもつ自律移動ロボット Download PDFInfo
- Publication number
- JP4852753B2 JP4852753B2 JP2006143783A JP2006143783A JP4852753B2 JP 4852753 B2 JP4852753 B2 JP 4852753B2 JP 2006143783 A JP2006143783 A JP 2006143783A JP 2006143783 A JP2006143783 A JP 2006143783A JP 4852753 B2 JP4852753 B2 JP 4852753B2
- Authority
- JP
- Japan
- Prior art keywords
- mobile robot
- autonomous mobile
- obstacle
- self
- learning function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000006870 function Effects 0.000 title claims description 95
- 230000007613 environmental effect Effects 0.000 claims description 14
- 238000000034 method Methods 0.000 description 23
- 238000011156 evaluation Methods 0.000 description 11
- 230000009471 action Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000005672 electromagnetic field Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
また、従来の自律移動ロボットとして、特許文献1には、強化学習法を用いたものが記載されている。特許文献1では、ロボット(エージェント)が走行環境を走行し、その良しあしの評価により報酬を定義し、評価を良くする手法が記載されている。
また、特許文献2には、ニュ−ラルネットワークにもとづく学習機能を搭載する移動体が記載されている。特許文献2では、人間の経験則で決まる走行ルールを準備し、SOM(Self−Organizing Map、自己組織化マップ)を学習させ、走行に用いるもので、基本的には初めに準備したルールにより走行させるものである。
特許文献1では、ロボット(エージェント)が走行環境を走行し、その良しあしの評価により報酬を定義し、評価を良くする手法が用いられ、この手法では、走行環境を教師データとして走行評価を行い、走行に必要なルールを優先して生成するので、計算負荷が大きく、複雑な多数の走行ルールを必要とするときには、実用面と、走行の多様性に対する適応能力から考慮すると、問題が残る。
特許文献2については、人間の経験則で決まる走行ルールを準備し、SOMを学習させ、走行に用いるものの、基本的には初めに準備したルールにより走行させるものであり、行路の変化に対応できないという問題がある。
この発明の学習機能をもつ自律移動ロボット(以下、単に自律移動ロボットともいう。)は、はじめに経路を探索し、センサ情報により環境を認識しながら、予め学習させた自己組織化マップ(SOM)を基に方位、速度を決め、これを走行法の基礎とするものである。走行途中に障害物にぶつかりそうになる等の不都合が生じても、走行ルールを修正し、そこで得られた知識を走行ルールとして、追加学習し、新たに得られた走行ルールとあらかじめ準備した走行ルールとを次の走行に活用できるようにしたものであり、“走行のたびに賢くなる”自律移動ロボットである。
以下、これについて詳述する。
図1において、センサ類1は、自律移動ロボットに取りつけられ、走行路に設けられたランドマークや障害物などを検知する。エンコーダ、ジャイロ・センサ、超音波センサ、ドプラセンサなどが含まれる。自己位置認識機能2(自己位置認識手段)は、センサ類1からの信号により、自己位置を認識し、環境マップ5に書き込む。障害物認識機能3(障害物認識手段)は、センサ類1からの信号及びカメラ4からの映像を元にして障害物を認識し、環境マップ5に書き込む。カメラ4は、走行路を撮像し、その映像を障害物認識機能3に出力する。
環境マップ5は、学習機能をもつ自律移動ロボットに搭載したパーソナル・コンピュータ上で1ドットが1[cm]となるように、屋内全体の壁・柱・固定障害物などの走行路にあらかじめ存在する情報を書き込んだ地図情報である。目的地指定用のタッチパネル10(入力手段)により、自律移動ロボットの目的地が環境マップ5に書き込まれ、この目的地までの経路を決定した際、この環境マップ5に書き込まれた環境情報は、学習機能6(学習手段)の入力になる。
学習機能6は、人間の脳の情報処理の方法を模擬したアルゴリズムであり、多次元データの分類・予測手法である。この学習機能6は、走行ルールの不適切があれば、修正・補正し、走行ルールを追加する機能である走行ルール追加機能61(走行ルール追加手段)と、既知の障害物及び未知の移動障害物を回避して走行する障害物回避機能62(障害物回避手段)とを有している。
走行ルール追加機能61と障害物回避機能62とは、SOM8を用いて、その学習機能を応用する。
SOM8は、走行ルールをノードとして持ち、学習によって走行ルールを追加することができる。環境マップ5は、SOM8による走行ルールの実行による経路の確認を担うものである。この確認で走行が適当なときには、自律移動ロボットの走行を続行し、壁や障害物の出現(これは環境マップ5に入力される。)のために走行が不適当なときには、走行ルールを修正して走行し、このとき、走行ルールの追加を行う。
駆動系入力7に入力された、学習機能をもつ自律移動ロボットを目的地へ誘導するための走行目標角度、行動パターンは、駆動系9に伝えられて、自律移動ロボットを目的地へ誘導する。
図2において、自律移動ロボットモデル11の左右車輪の中心位置(X、Y)が示されている。
図3は、この発明の実施の形態1による学習機能をもつ自律移動ロボットの1周期の処理の流れを示すフローチャートである。
図4は、この発明の実施の形態1による学習機能をもつ自律移動ロボットの障害物が書き込まれた環境マップを示す図である。
図4において、自律移動ロボットモデル11が障害物13を避けて壁14の間を走行する様子が示されている。
自律移動ロボットの走行を考えると、安全性と信頼性の高い動作が必須条件となる。走行の安全性と信頼性を向上させる方法として、この発明では、環境マップ5を導入する。環境マップ5は、自律移動ロボットに搭載したパーソナル・コンピュータ上で1ドットが1[cm]となるように、屋内全体の壁・柱・固定障害物などのあらかじめ存在する情報を書き込み、地図の形状に合わせて行動パターンを切り替えるための境界線も書き込んだ地図情報である。この環境マップ5には、境界線で囲まれた領域ごとに、目的地までの経路を決定した際、環境情報を学習機能6に与えて、この学習機能6が自律移動ロボットを目的地へ誘導するように走行目標角度、行動パターンを、駆動系入力7に入力する。ここで環境マップ5上での自律移動ロボットモデル11は、図2のように、「センサを含めた車体全体の一番外枠を矩形」で表現する。
学習機能をもつ自律移動ロボットでは、走行中に得られたセンサ値を用いて、自己位置認識機能2により自己位置の決定を行い、障害物認識手段3により未知の静止及び移動する障害物の発見を行い、この自己位置と未知の障害物を環境マップ5に書き込み、環境マップ5を更新する。
走行中は、あらかじめ設定した走行ルールに従うが、環境状況によって、適応的に走行できない時には、走行ルールを修正・調整し、走行する。ここで得られた走行ルールを、次の走行に生かせるよう、学習機能6として、追加学習可能なSOMアルゴリズムを搭載している。すなわち、“走行するたびごとに賢くなる”学習機能をもつ自律移動ロボットである。
図3では、ステップS1で、走行経路を決定する。ステップS2で、各センサの値を取得し、ステップS3で、これらを用いて、自己位置の認識、障害物の認識の情報処理を行う。次いで、ステップS4で、これらを用いて環境マップ5を更新する。ここで、ステップS5で、障害物が検知されれば、ステップS3で、障害物認識の処理を行い、ステップS4で、環境マップを更新する。
次いで、ステップS6で、環境マップ5からSOM入力値を取得し、ステップS7でSOM推論を実行し、ステップS8で、駆動系9に出力して、自律移動ロボットを走行させる。
まず、自己位置認識機能2による自律移動ロボットの自己位置の認識について、手段1〜手段7により説明する。
手段1.
学習機能をもつ自律移動ロボットの位置情報は、自己位置認識手段2により、図2のように、環境マップ5上での自律移動ロボットの左右の車輪間の中心座標X、Y及び車体の角度θで出力され、この値より環境マップ5上に現在位置を書き込む。
手段1において、エンコーダ、ジャイロ・センサ、超音波センサ、ドプラセンサのそれぞれの値及びカメラ画像の処理値を用いて、図2に示すような、環境マップ上での自律移動ロボットモデル11の左右の車輪間の中心座標X、Y及び車体の角度θを算出する手法を以下に示す。
自己位置認識手段2への入力値を、エンコーダより得られた左右輪の回転数とジャイロ・センサから得られた姿勢角変化値とする。これらの情報を用い、前の制御動作(前周期)での学習機能をもつ自律移動ロボットの自己位置より、図5のように、得られた姿勢角変化値θ1の方向に、左右輪の回転数より算出したそれぞれの走行距離値e1、e2を直進的に延長し、自律移動ロボットの左右輪の中心座標(Xl、Yl)、(Xr、Yr)をそれぞれ算出する。次に、この2点の中点を求めることで、出力値(X1、Y1、θ1)を得る。
手段1において、エンコーダより得られた左右輪の回転数を入力値として、定式を用いて算出する方法。この入力値より、前周期において決定した自己位置から、今周期の左右輪の回転数より現在位置を算出するために導出した走行軌跡の定式を用い、出力値(X2、Y2、θ2)を得る。
手段1において画像処理を用いる手法。入力値をカメラ4からの2次元画像とし、出力値(X3、Y3、θ3)を得る。これはカメラを約1[m]の高さに固定して前方を撮影し、その撮影された画像を処理することで得られる。
手段1において、ランドマーク・リーダの検知信号を用いる手法。図6のように、施設内のランドマーク12は、直線の廊下と交差点の境目などに設置しており、環境マップ5の境界線の一部は、あらかじめ施設内に設置したランドマーク12と同じ位置に書き込んでいる。
そして学習機能をもつ自律移動ロボットの走行中に、センサ類1の一つであるランドマーク・リーダによるランドマーク検知信号を取得すると、検知時の自律移動ロボットの現在位置から、壁14に平行にし、検知した環境マップ5上でのランドマーク12の座標に、図6及び図7に示すように修正する。
すなわち、図7のようにランドマーク12に、自律移動ロボットモデル11の左右車輪間の中心座標を合わせるように、環境マップ5を修正する。これにより、センサの値の校正及び経路の確認を行うことができる。
手段5のランドマークを用いた手法は、手段2、手段3及び手段4と同時に用いるものではなく、これらとは別に、ランドマーク検知時だけに用いる。
通常走行の場合、手段2、手段3及び手段4により、以下の条件式を用いることにより誤差が少なくなるように自己位置(X、Y)を決定する。
自己位置(X、Y)については、まず、以下の式1、式2より、L1、L2を求める。
X=X1
Y=Y1
とする。
θの値については、まず式(3)、(4)、(5)より△θ1、△θ2、△θ3を求める。
θ=θ3 (11)
とする。
以上の操作により決定した自律移動ロボットの自己位置を環境マップ5に書き込む。
これらの式は、いずれもカメラ画像を用いる手法により決定した自己位置に比重をおいた式となっている。
手段8.
手段8は、センサ類1の一つである超音波センサーの値を用いて、走行領域の把握及び障害物を認識する。10組の超音波センサから取得した値を使用し、環境マップ5上に書き込まれている自律移動ロボットの現在位置から、自律移動ロボットの車体に取り付けられた10組の超音波センサと同位置となる箇所から、超音波センサの指向性を考慮し(センサの向いている方向に対して±23[deg]の広がり)、適切な位置に弧を描くように環境マップ5に書き込む。
例えば、図8のように、学習機能をもつ自律移動ロボットの前方に障害物13aが存在すると仮定し、自律移動ロボット前方左の超音波センサからx[cm]の値を取得したとすると、図9に示すように、障害物13までの測定値を環境マップ5に書き込む。
さらに、超音波センサ、ドプラセンサ、カメラの複眼視により、移動障害物の距離、方位、速さを認識する。
カメラ画像を処理することにより、学習機能をもつ自律移動ロボットから障害物までの距離、障害物の幅を算出する。この手法においては、現在までにカメラ4より得られた画像から水平エッジ(床と障害物との境界)の検出を行い、その処理した画像を用いることで、障害物の有無、障害物までの距離を取得する手法(参考文献[1])が提案されている。例えば、図8のような環境で、障害物13aが発見されれば、環境マップ5上に書き込まれている現在位置より、図10のように環境マップ5上に、得られた障害物の距離および幅を用いることにより障害物13を書き込む。この時に環境マップ5上に描き込む障害物13の幅は、カメラ4の指向性を考慮して描き込むこととする。
タッチ・センサを用いて障害物を検知する手法では、まずタッチ・センサの前後計8箇所に取り付けられたマイクロ・スイッチの検出信号により、検出したマイクロ・スイッチの個所から、前方の左右の前方・横方向、後方に障害物が存在することを認識する。そして、学習機能をもつ自律移動ロボットの現在位置より図11のように障害物13を書き込む。図11は、学習機能をもつ自律移動ロボット前方のマイクロ・スイッチが障害物を検知した時の環境マップ上の様子を示している。
タッチセンサにより障害物を検知したときは、走行を緊急停止する。
ここで、手段8の超音波センサの距離測定での不安定動作を補うため、手段9のカメラ情報により発見された障害物も含め、その存在確率として5段階の危険度を与える(障害物の存在しない時存在確率を1とする)。環境マップ5上では危険度が5段階目(危険度を示す数字が5になった時)に達したとき、初めて障害物と認める。
危険度の区別を以下のようにする。
(1)画像処理によって発見された物体のある位置の値に危険度3を加える。
(2)画像処理によって障害物の無いことが確認されると、その位置の危険度に−2を加える。
(3)超音波センサによって発見された物体のある位置の値に1を加える。
(4)タッチ・センサによって発見された物体のある位置の値に5を加える。
(5)危険度は5を超えることは無く、0を下回ることも無い。
手段12.
学習機能をもつ自律移動ロボットでは、その環境マップ5に書き込まれた現在位置とその周囲の環境情報及び移動物体情報の学習により得られた速さ、方位情報を用いて、あらかじめ学習されたSOM8の入力値を取得し、ベスト・マッチ・ユニットを計算し、自律移動ロボットの次の動作の決定を行う。
あらかじめ学習されたSOM8の入力値として、図12のように学習機能をもつ自律移動ロボットの周囲を11個の領域に分け、それぞれの領域内で超音波センサが取得した距離情報の値を、SOM8への入力値として適用している。それぞれの入力値に対してベスト・マッチ・ユニットを算出し、出力値を求めている。
ここで、手段13の図12の各領域の最短距離値の取得法は、環境マップ5上より、図13のように各領域ごとに車体からの距離が1[cm]づつ広がるような形で、壁14や障害物が存在するかどうか確認して行く。そして障害物が存在するとそこまでの距離値を障害物までの最短距離値として取得する。図13では、図12の領域5と領域8での値の取得法を示している。
SOM8による推論出力値は、学習機能をもつ自律移動ロボットを直進または左右どちらの方向にどれだけの旋回半径で旋回走行させるかということを表わす旋回半径値で出力される。
手段16.
走行準備として環境マップ5を作成する。環境マップ5は、施設内の廊下の幅や柱、長椅子などの固定障害物を1[cm]単位で測って作成し、作成した環境マップ5に学習機能をもつ自律移動ロボットの走行方法を切り替えるための境界線も書き込む。
作成した環境マップ5に初期位置、目的地を入力し、目的値までの経路を決定し、環境マップ5の各領域に学習機能をもつ自律移動ロボットを目的地に誘導するように目標角、走行方向を入力する。
手段18.
学習機能をもつ自律移動ロボットの走行を開始させる。走行中は、まずエンコーダ、ジャイロ・センサからの値、カメラからカメラ画像を取得する。ここで取得した値と走行特性を定式化した式を用いて、学習機能をもつ自律移動ロボットの位置認識を行う。
得られた学習機能をもつ自律移動ロボットの位置情報を用いて、環境マップ5上に書き込む。
手段20.
学習機能をもつ自律移動ロボットの現在位置が環境マップ5に書き込まれると、次に超音波センサとカメラ画像を用いて未知の障害物の認識を行う。
本システムでは、図14のように、自律移動ロボット周辺の環境情報及び障害物移動情報(位置、速度、方向)から、SOM8により、自己の操舵情報(走行速度、方向)を類推し、安全に目的地まで自律移動ロボットを移動させることになる。
走行中の自律移動ロボットに対する移動障害物の位置、速度、方向は、自律移動ロボットに搭載されたセンサにより検知する。障害物の位置は、超音波センサにより、速度は、ドプラーセンサにより、方向は、2台のカメラによる両眼視による方位角センサにより計測する。
これらのセンサからの信号は、障害物認識機能3により、障害物として認識され、環境マップ5に書き込まれる。そして、環境マップ5から、あらかじめ用意されたSOM8に入力され、その時々の操舵情報を求める。ただし、方位については、経路探索により得た、目的地へ向かう経路情報とマッチングを取りながら決定する。
そのために、
(a)現場に出かけて、具体的な状況で自律移動ロボットを動かして、周囲情報と操舵情報のデータを収集する。
(b)上記の同様な状況で、計算機シミュレーションにより周囲情報と操舵情報のデータを収集する。
(c)(a)(b)両者のマッチングを取る。
自律移動ロボットにセンサ群1を搭載し、走行中の自律移動ロボットに対する障害物の位置、速度、方向を得て、環境マップ5上に書き込みながら、自律移動ロボットモデルの走行を実現する。
実環境での走行情報、環境マップ5上での走行情報のマッチングを取ることにより、安全走行が可能になる。
図16は、学習による自律移動ロボットの走行システムでのSOMのイメージ図を示している。
未知の障害物が発見されれば、手段11の危険度を参照しつつ環境マップ5を更新する。
手段22.
ここまでの処理が終了すると、学習機能をもつ自律移動ロボット走行中の最新の環境マップ5が完成する。この環境マップ5を用いて、SOM8による操作情報決定のための入力値を取得し、SOM8の推論能力を用いて、次の動作の決定を行う。
学習機能をもつ自律移動ロボットは、このセンサ値の取得、自己位置認識、障害物認識、SOM8の推論能力を用いた次の動作の決定を繰り返すことで、目的地まで走行する。
走行中、自律移動ロボットと障害物との衝突が予測されれば、走行方向を調整する。これにより、得られた走行ルールデータを追加学習の際に使用する。初めに学習により用意したSOM8から、環境情報を入力し、得られた走行ルールにより走行予測を行い、危険度(近接度)が低ければ、そのまま走行する。危険度がある値を超えると、環境情報を入力し、得られた走行ルールと障害物情報により走行ルールを修正する。この修正は、予め得られた走行ルールと障害物情報を入力とするファジィ制御により行う(図18参照)。
ステップS11で、学習済みのSOM8に、環境情報を入力し、操舵角、速度の出力を得る。次いで、ステップS12で、この出力を駆動系9に与えて試行し、ステップS13で、その走行ルールを評価する(図15参照)。危険であれば、ステップS14で、走行ルールを修正し、ステップS12に戻って再試行するとともに、ステップS15で、SOM8への追加学習する。
ステップS13で、評価がOKであれば、ステップS16で、走行し、目標地点に到達すれば終了する。目標地点に到達しなければ、ステップS1から繰り返す。
図20は、実環境上及び、図19による走行による環境マップ上での障害物回避行動を示している。
[1] 菅野祥伸、山本寿、大木誠、大北正昭:屋内環境におけるカメラ・データと現在地推定データのマッチングによる位置認識、電気学会全国大会講演論文集、3−043、p.4(2002)。
2 自己位置認識機能
3 障害物認識機能
4 カメラ
5 環境マップ
6 学習機能
7 駆動系入力
8 SOM
9 駆動系
10 タッチパネル
11 環境マップ上の自律移動ロボットモデル
11a 実環境での自律移動ロボット
12 環境マップ上のランドマーク
13 環境マップ上の障害物
13a 実環境での障害物
14 環境マップ上の壁
61 走行ルール追加機能
62 障害物回避機能
Claims (8)
- 走行路の環境情報が格納された環境マップ、
走行中に上記走行路の状況を検出するセンサ類、
このセンサ類により検出された上記走行路の状況から自己位置を認識し、上記環境マップに入力する自己位置認識手段、
上記センサ類から検出された上記走行路の状況から障害物を認識し、上記環境マップに入力する障害物認識手段、
及び上記環境マップの環境情報を入力値とする走行ルールを学習済みの自己組織化マップを有し、上記入力される環境マップの環境情報に応じた操舵情報を出力する学習手段を備え、
上記学習手段は、上記出力した操舵情報による走行の危険度を評価し、危険度が所定値を超える場合には上記自己組織化マップの走行ルールを修正することを特徴とする学習機能をもつ自律移動ロボット。 - 上記学習手段は、走行中に上記環境マップに障害物が入力されたとき、上記障害物を回避する走行ルールを上記自己組織化マップに追加する走行ルール追加手段を有することを特徴とする請求項1記載の学習機能をもつ自律移動ロボット。
- 上記自己組織化マップは、上記環境マップのもつ環境情報及びこれに対応する操舵情報が入力されることにより、上記走行ルールを学習したことを特徴とする請求項1記載の学習機能をもつ自律移動ロボット。
- 上記環境マップに目的地を入力する入力手段を備えたことを特徴とする請求項1記載の学習機能をもつ自律移動ロボット。
- 上記センサ類は、複数のセンサを有し、上記自己位置認識手段は、複数のセンサ情報を用いて、自己位置を認識することを特徴とする請求項1記載の学習機能をもつ自律移動ロボット。
- 上記センサ類は、複数のセンサを有し、上記障害物認識手段は、複数のセンサ情報を用いて、障害物を認識することを特徴とする請求項1記載の学習機能をもつ自律移動ロボット。
- 上記走行路には、ランドマークが定義され、上記自己位置認識手段は、上記ランドマークにより自己位置を確認することを特徴とする請求項1記載の学習機能をもつ自律移動ロボット。
- 上記センサ類には、タッチセンサが含まれ、上記タッチセンサからの情報に応じて、走行を緊急停止することを特徴とする請求項1記載の学習機能をもつ自律移動ロボット。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006143783A JP4852753B2 (ja) | 2006-05-24 | 2006-05-24 | 学習機能をもつ自律移動ロボット |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006143783A JP4852753B2 (ja) | 2006-05-24 | 2006-05-24 | 学習機能をもつ自律移動ロボット |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007316799A JP2007316799A (ja) | 2007-12-06 |
JP4852753B2 true JP4852753B2 (ja) | 2012-01-11 |
Family
ID=38850618
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006143783A Active JP4852753B2 (ja) | 2006-05-24 | 2006-05-24 | 学習機能をもつ自律移動ロボット |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4852753B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11425888B2 (en) * | 2016-10-20 | 2022-08-30 | Lely Patent N.V. | Animal farm system and method of generating barn map information of said animal farm system |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5120024B2 (ja) * | 2008-03-31 | 2013-01-16 | 富士通株式会社 | 自律移動ロボット及びその障害物識別方法 |
JP5720292B2 (ja) * | 2011-02-17 | 2015-05-20 | 富士通株式会社 | 推定位置評価システム及びプログラム |
JP5550671B2 (ja) * | 2012-03-29 | 2014-07-16 | 株式会社デンソーアイティーラボラトリ | 自律走行ロボット及び自律走行ロボットの走行制御方法 |
JP2016024766A (ja) * | 2014-07-24 | 2016-02-08 | 日本精工株式会社 | 案内用ロボット |
KR102192791B1 (ko) * | 2016-04-25 | 2020-12-18 | 엘지전자 주식회사 | 이동 로봇 및 이동 로봇의 제어방법 |
KR101889607B1 (ko) * | 2016-08-23 | 2018-08-22 | 한국철도기술연구원 | 강인한 군집주행을 위한 판단/제어 방법 및 그 판단/제어장치 |
JP2020106872A (ja) * | 2017-04-21 | 2020-07-09 | パナソニックIpマネジメント株式会社 | 移動装置、物体検出方法及びプログラム |
JP6680730B2 (ja) * | 2017-08-08 | 2020-04-15 | ファナック株式会社 | 制御装置及び学習装置 |
JP6798462B2 (ja) * | 2017-09-27 | 2020-12-09 | 京セラドキュメントソリューションズ株式会社 | 配送装置及び配送システム |
CN111971635A (zh) * | 2018-04-20 | 2020-11-20 | 索尼公司 | 移动体、信息处理装置、信息处理方法和程序 |
US11110603B2 (en) | 2018-10-02 | 2021-09-07 | Toyota Research Institute, Inc. | Systems and methods for naïve physics for contact and contact-awareness in robotic teleoperation |
KR102696487B1 (ko) * | 2018-12-24 | 2024-08-21 | 삼성전자주식회사 | 기계 학습 기반의 로컬 모션 생성 방법 및 장치 |
JP7360792B2 (ja) * | 2018-12-27 | 2023-10-13 | 株式会社ダイヘン | 移動体、学習器、及び学習器製造方法 |
JP6711555B1 (ja) * | 2019-02-28 | 2020-06-17 | 三菱ロジスネクスト株式会社 | 搬送システム、領域決定装置、および、領域決定方法 |
JP7250573B2 (ja) * | 2019-03-11 | 2023-04-03 | 本田技研工業株式会社 | 倒立振子型ロボット |
JP7188279B2 (ja) | 2019-05-29 | 2022-12-13 | トヨタ自動車株式会社 | 機械学習方法および移動ロボット |
CN110315553B (zh) * | 2019-06-23 | 2023-10-27 | 大国重器自动化设备(山东)股份有限公司 | 一种餐厅用机器人防碰撞系统及方法 |
KR20220042436A (ko) * | 2019-08-06 | 2022-04-05 | 지멘스 일렉트로닉 디자인 오토메이션 게엠베하 | 자율 운반체들을 제어하기 위한 방법, 디바이스 및 시스템 |
JP2021033685A (ja) * | 2019-08-26 | 2021-03-01 | 株式会社デンソー | 学習プログラム及び学習方法 |
JP6898054B2 (ja) * | 2019-11-07 | 2021-07-07 | 三菱ロジスネクスト株式会社 | 荷役システム |
WO2021161374A1 (ja) * | 2020-02-10 | 2021-08-19 | 三菱電機株式会社 | 制御装置及び学習装置 |
WO2021171500A1 (ja) * | 2020-02-27 | 2021-09-02 | 三菱電機株式会社 | ロボット制御装置、ロボット制御方法及び学習モデル生成装置 |
CN114167857B (zh) * | 2021-11-08 | 2023-12-22 | 北京三快在线科技有限公司 | 一种无人驾驶设备的控制方法及装置 |
CN114012732B (zh) * | 2021-11-26 | 2023-03-31 | 北京云迹科技股份有限公司 | 一种机器人控制方法、装置、设备和介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0289134A (ja) * | 1988-09-26 | 1990-03-29 | Nippon Telegr & Teleph Corp <Ntt> | ルール学習処理方式 |
JP2005211442A (ja) * | 2004-01-30 | 2005-08-11 | Tottori Univ | 自律移動型車椅子 |
-
2006
- 2006-05-24 JP JP2006143783A patent/JP4852753B2/ja active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11425888B2 (en) * | 2016-10-20 | 2022-08-30 | Lely Patent N.V. | Animal farm system and method of generating barn map information of said animal farm system |
Also Published As
Publication number | Publication date |
---|---|
JP2007316799A (ja) | 2007-12-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4852753B2 (ja) | 学習機能をもつ自律移動ロボット | |
JP5402057B2 (ja) | 移動ロボット制御システム、経路探索方法、経路探索プログラム | |
JP5080333B2 (ja) | 自律移動体のための物体認識装置 | |
JP5909486B2 (ja) | 自己位置姿勢推定システム | |
KR101522970B1 (ko) | 자율 이동 장치 및 그 제어 방법 | |
US11604469B2 (en) | Route determining device, robot, and route determining method | |
US20080249662A1 (en) | Mobile apparatus, control device and control program | |
JP5276931B2 (ja) | 移動体および移動体の位置推定誤り状態からの復帰方法 | |
CN112631269B (zh) | 自主移动机器人及自主移动机器人的控制程序 | |
EP3892426A1 (en) | Autonomously traveling mobile robot and traveling control method therefor | |
JP2008059218A (ja) | 自律走行ロボットの自己位置回復方法 | |
JP2011224679A (ja) | 応対ロボット、応対制御方法、及び応対制御プログラム | |
KR101245754B1 (ko) | 자율주행 로봇 및 경로설정 방법 | |
JP5553220B2 (ja) | 移動体 | |
JPH03113513A (ja) | 自律走行車両の車速感応操舵制御装置 | |
CN110865640A (zh) | 一种智能机器人的避障结构 | |
CN211554738U (zh) | 一种智能机器人的避障结构 | |
Huang et al. | Shared Navigational Control and User Intent Detection in an Intelligent Walker. | |
JP2005211442A (ja) | 自律移動型車椅子 | |
US11467592B2 (en) | Route determination method | |
Elsheikh et al. | Dynamic path planning and decentralized FLC path following implementation for WMR based on visual servoing | |
Ray et al. | Sonar based autonomous automatic guided vehicle (AGV) navigation | |
JP2022181105A (ja) | 移動体、制御装置及びそのプログラム | |
Munoz-Salinas et al. | A multi-agent system architecture for mobile robot navigation based on fuzzy and visual behaviour | |
Mikhail et al. | Navigation software system development for a mobile robot to avoid obstacles in a dynamic environment using laser sensor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090413 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110419 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110527 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111004 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |