JP2015201068A - 行動制御装置、方法及びプログラム - Google Patents
行動制御装置、方法及びプログラム Download PDFInfo
- Publication number
- JP2015201068A JP2015201068A JP2014080002A JP2014080002A JP2015201068A JP 2015201068 A JP2015201068 A JP 2015201068A JP 2014080002 A JP2014080002 A JP 2014080002A JP 2014080002 A JP2014080002 A JP 2014080002A JP 2015201068 A JP2015201068 A JP 2015201068A
- Authority
- JP
- Japan
- Prior art keywords
- action
- control
- value
- unit
- control object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000011800 void material Substances 0.000 claims abstract description 79
- 238000000034 method Methods 0.000 claims abstract description 45
- 230000009471 action Effects 0.000 claims description 257
- 230000008569 process Effects 0.000 claims description 21
- 230000006399 behavior Effects 0.000 abstract description 29
- 230000015572 biosynthetic process Effects 0.000 abstract description 15
- 238000004364 calculation method Methods 0.000 abstract description 8
- 230000006870 function Effects 0.000 description 71
- 238000012545 processing Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 7
- 238000010187 selection method Methods 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 5
- 230000002787 reinforcement Effects 0.000 description 4
- 230000001276 controlling effect Effects 0.000 description 2
- 238000004880 explosion Methods 0.000 description 2
- 239000012530 fluid Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000012141 concentrate Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000004886 process control Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Feedback Control In General (AREA)
Abstract
Description
まず、行動制御装置及び方法の理論的背景について説明する。以下、行動制御の対象である制御対象物が、ロボットである場合を例に挙げて説明するが、制御対象物は、制御の対象となり得るものであれば、ロボット以外であってもよい。
0: 静止
1: 二次元平面上で右方向に1格子だけ移動する
2: 二次元平面上で上方向に1格子だけ移動する
3: 二次元平面上で左方向に1格子だけ移動する
4: 二次元平面上で下方向に1格子だけ移動する
このような任務環境におけるマルコフ状態空間は、ロボット数×2の次元数の状態を持ち、かつ選択可能な行動数は、ロボットの行動(=5通り)のロボット数乗だけ存在する。例えば、ロボット数が50で、部屋の縦横方向の格子数がそれぞれ20であるとすれば状態数は20の100乗個にもなり、探索計算に要する資源の量は膨大なものとなる。さらにロボット数が1台増えるごとに、その状態数は400倍増加していくことになり、複数ロボットを使用する場合の大きな問題となっている。
N台あるすべてのロボットは、この状態変数を引数とした1個の価値関数Q(L,a)を共有する。すなわち、各時刻ステップにおける価値関数Q(L,a)の更新は、N台の各ロボットが同じ価値関数を各々の経験によって更新する(すなわち、一時刻ステップでN回の更新を行う)。更新式は以下の通りである。
(Xre[i],Yre[i])∈G …(3)
として、各ロボットはG内の全ての全ての位置を自由に目標位置とすることができるものとする。つまり、Gをちょうど流体を注ぐ器のようなものとして扱う。すなわち、各ロボットは、Gの境界上にあるどの位置からもGに入ることが可能であるが、一度G内に入ったロボットは、Gを出る行動をとることができないものとする。また、強化学習時における報酬の設定については、Gの境界上に一点だけ入口の点Peを設定し、ロボットがPeからG内に入ったときのみ高報酬であるr=1を与え、それ以外の経験については、すべてr=0を与えるものとする。Peの位置はGの内部であって、Gの境界上であればどこでも構わないが、ロボットの開始位置から近い位置を選ぶのがロボットの動作をスムーズにするうえで効果的である。Peの位置を入口位置と呼ぶ。
a=1のとき、a-1=3
a=2のとき、a-1=4
a=3のとき、a-1=1
a=4のとき、a-1=2
式(4)は、ちょうど通常のQ学習におけるQ(L,a)の更新式である式(1)のLとL’を入れ替えて、時間の流れを逆に扱ったものに等しい。なお、Gの内と外でのQ値の不整合を避けるために、LがGの外部、L’がGの内部の場合には、Qmax(L)の値は0に設定することとする。このようにして更新されたQ値によって導かれる行動方策π(Q値を最大化する行動を返す関数)は、ボイドの最適な行動を返すものとなる。ロボットは、ボイドがそのような行動をとれるように移動を行う。
図を参照して、行動制御装置及び方法の例について説明する。この行動制御装置及び方法は、複数の制御対象物を所定の入口位置を含む目標位置の集合に移動させるための行動制御を行うものである。
入力部11には、N台のロボットのそれぞれの初期位置(xr0[i],yr0[i])及び目標位置(Xre[i],Yre[i])が入力される。ここで、i=1,2,…,Nとする。N個の目標位置の集合は、G={(Xre[1],Yre[1]),(Xre[2],Yre[2]),…,(Xre[N],Yre[N])}として記憶部2に記憶される。
記憶部2には、位置L及びa∈{0,1,2,3,4}の組み合わせのそれぞれについてのQ関数Q(L,a)、各位置Lについての方策π(L)及びQmax(L)の初期値が記憶されているとする。Lの取りうる範囲は、対象となる二次元平面上の領域内の全ての座標である。これらの初期値はランダムな値を設定すればよい。ただし、Lが障害物位置と合致する場合は、Q(L,a)=0と設定してもよい。π(L)、Qmax(L)についても各Lに関するQ関数の初期値Q(L,a)のうちの最大値を設定すればよい。
行動割当部12による行動割当処理は、各ロボットについて順次実行される。行動割当部12は、第1割当部12−1,第i割当部12−i,…,第N割当部12−Nを例えば備えている。
位置判定部12−i−1は、記憶部2からi番目のロボットの位置(xr[i],yr[i])を読み込み、読み込んだ位置(xr[i],yr[i])が目的位置の集合G内に含まれるか否かを判定する。言い換えれば、位置判定部12−i−1は、ロボットが目標位置に位置するか判定する(ステップA1)。
目的領域外行動決定部12−i−2の構成の例を図4に示す。
領域外Q関数更新部12−i−21は、1時間ステップ前のi番目のロボットの位置をL=(xr[i],yr[i])とし、現在のi番目のロボットの位置をL’=(xr’[i],yr’[i])として、記憶部2に記憶されたQ(L,a)とQmax(L’)を参照して、1時間ステップ前のロボットの行動aについて、式(1)によりQ(L,a)を求め、求めたQ(L,a)の値で記憶部2に記憶されたQ(L,a)の値を更新する。また、領域外Q関数更新部12−i−21は、更新前のQ(L,a)の値と更新後のQ(L,a)の値を制御部14へ出力する。
第1領域外行動候補決定部は、L=(xr[i],yr[i])として、記憶部2に記憶されたQ(L,1),Q(L,2),Q(L,3),Q(L,4)のうちの最大値をとるaの値を第1領域外行動候補値として出力する。また、最大となるQ関数の値で記憶部2に記憶されたQmax(L)の値を更新する。
第1領域外包摂制御部12−i−23は、第1領域外行動候補決定部12−i−22で決定された第1領域外行動候補値に従ってi番目のロボットが移動すると仮定したときの移動後の位置(xr’[i],yr’[i])に他のロボットが存在するか否かを判定する。つまり、(xr’[i],yr’[i])=(xr[j],yr[j]) (i≠j)となるjが存在するか否かを判定する。さらに、位置(xr’[i],yr’[i])に障害物が存在するか否かを判定する。
第2領域外行動候補決定部12−i−24は、L=(xr[i], yr[i])として、記憶部2に記憶されたQ(L,1),Q(L,2),Q(L,3),Q(L,4)のうちの2番目に大きな値をとるaの値を第2領域外行動候補値として出力する。
第2領域外包摂制御部12−i−25は、第2領域外行動候補決定部12−i−24で決定された第2領域外行動候補値に従ってi番目のロボットが移動すると仮定したときの移動後の位置(xr’[i],yr’[i])に他のロボットが存在するか否かを判定する。つまり、(xr’[i],yr’[i])=(xr[j],yr[j]) (i≠j)となるjが存在するか否かを判定する。さらに、位置(xr’[i],yr’[i])に障害物が存在するか否かを判定する。
第3領域外行動候補決定部12−i−26は、L=(xr[i],yr[i])として、記憶部2に記憶されたQ(L,1),Q(L,2),Q(L,3),Q(L,4)のうちの3番目に大きな値をとるaの値を第3領域外行動候補値として出力する。
第3領域外包摂制御部12−i−27は、第3領域外行動候補決定部12−i−26で決定された第3領域外行動候補値に従ってi番目のロボットが移動すると仮定したときの移動後の位置(xr’[i],yr’[i])に他のロボットが存在するか否かを判定する。つまり、(xr’[i],yr’[i])=(xr[j],yr[j]) (i≠j)となるjが存在するか否かを判定する。さらに、位置(xr’[i],yr’[i])に障害物が存在するか否かを判定する。
第4領域外行動候補決定部12−i−28は、L=(xr[i],yr[i])として、記憶部2に記憶されたQ(L,1),Q(L,2),Q(L,3),Q(L,4)のうちの4番目に大きな値をとる(つまり、最小値をとる)aの値を第4領域外行動候補値として出力する。
第4領域外包摂制御部12−i−29は、第4領域外行動候補決定部12−i−28で決定された第4領域外行動候補値に従ってi番目のロボットが移動すると仮定したときの移動後の位置(xr’[i],yr’[i])に他のロボットが存在するか否かを判定する。つまり、(xr’[i],yr’[i])=(xr[j],yr[j]) (i≠j)となるjが存在するか否かを判定する。さらに、位置(xr’[i],yr’[i])に障害物が存在するか否かを判定する。
目的領域内行動決定部12−i−3の詳細構成を図5に示す。
領域内Q関数更新部12−i−31は、1ステップ前のi番目のロボットの位置(xr[i],yr[i])をLとし、現在のi番目のロボット位置をボイド位置L’として、記憶部2に記憶されたQ(L’,a)とQmax(L)を参照して、1ステップ前のロボットの行動からa-1を求め、式(4)によりQ(L’,a-1)を求め、求めたQ(L’,a-1)の値で記憶部2に記憶されたQ(L’,a-1)の値を更新する。
a=2であれば、L’=(xr[i], yr[i]+1)
a=3であれば、L’=(xr[i]-1, yr[i])
a=4であれば、L’=(xr[i], yr[i]-1)
領域内Q関数更新部12−i−31は、更新前のQ(L’,a-1)と更新後のQ(L’,a-1)を制御部14に出力する。また、このときのQ関数の最大値で、記憶部2に記憶された方策π(L’)の値を更新する。
候補ボイド集合生成部12−i−32は以下の(1)から(3)の処理を行う。
第1領域内行動候補決定部12−i−33は、「候補ボイド集合」から候補ボイドQ関数値が最小となる候補ボイドQ関数値に対応する候補ボイド位置L’を「第1ターゲット位置」として決定する。
第1領域内包摂制御部12−i−34は、第1領域内行動候補決定部12−i−33で決定された第1領域内行動候補値に従ってi番目のロボットが移動すると仮定したときの移動後の位置(xr’[i],yr’[i])に他のロボットが存在するか否かを判定する。つまり、(xr’[i],yr’[i])=(xr[j],yr[j]) (i≠j)となるjが存在するか否かを判定する。さらに、位置(xr’[i],yr’[i])に障害物が存在するか、位置(xr’[i],yr’[i])がGの外部であるか否かを判定する。
第2領域内行動候補決定部12−i−35は、「候補ボイド集合」から候補ボイドQ関数値が2番目に小さな値をとる候補ボイドQ関数値に対応する候補ボイド位置L’を「第2ターゲット位置」として決定する。
第2領域内包摂制御部12−i−36は、第2領域内行動候補決定部12−i−35で決定された第2領域内行動候補値に従ってi番目のロボットが移動すると仮定したときの移動後の位置(xr’[i],yr’[i])に他のロボットが存在するか否かを判定する。つまり、(xr’[i],yr’[i])=(xr[j],yr[j]) (i≠j)となるjが存在するか否かを判定する。さらに、位置(xr’[i],yr’[i])に障害物が存在するか、位置(xr’[i],yr’[i])がGの外部であるか否かを判定する。
第1領域内行動候補決定部12−i−37は、「候補ボイド集合」から候補ボイドQ関数値が3番目に小さな値をとる候補ボイドQ関数値に対応する候補ボイド位置L’を「第3ターゲット位置」として決定する。
第3領域内包摂制御部12−i−38は、第3領域内行動候補決定部12−i−37で決定された第3領域内行動候補値に従ってi番目のロボットが移動すると仮定したときの移動後の位置(xr’[i],yr’[i])に他のロボットが存在するか否かを判定する。つまり、(xr’[i],yr’[i])=(xr[j],yr[j]) (i≠j)となるjが存在するか否かを判定する。さらに、位置(xr’[i],yr’[i])に障害物が存在するか、位置(xr’[i],yr’[i])がGの外部であるか否かを判定する。
第4領域内行動候補決定部12−i−39は、「候補ボイド集合」から候補ボイドQ関数値が4番目に小さな値をとる候補ボイドQ関数値に対応する候補ボイド位置L’を「第4ターゲット位置」として決定する。
第4領域内包摂制御部12−i−310は、第4領域内行動候補決定部12−i−39で決定された第4領域内行動候補値に従ってi番目のロボットが移動すると仮定したときの移動後の位置(xr’[i],yr’[i])に他のロボットが存在するか否かを判定する。つまり、(xr’[i],yr’[i])=(xr[j],yr[j]) (i≠j)となるjが存在するか否かを判定する。さらに、位置(xr’[i],yr’[i])に障害物が存在するか、位置(xr’[i],yr’[i])がGの外部であるか否かを判定する。
位置更新部13は、各i=1,2,…,Nについて、i番目のロボットの現在の位置(xr[j],yr[j])において、行動割当部12から出力された行動値a[i]に対応する行動をとった場合のロボットの移動後(行動後)の位置(xr’[i],yr’[i])を計算し、計算された(xr’[i],yr’[i])で記憶部2に格納されたi番目のロボットの位置を更新する。言い換えれば、位置更新部13は、行動割当部12によって決定された行動に基づいて例えばロボットである制御対象物のそれぞれの位置を更新する(ステップA4)。更新後の位置の系列{(xr’[1],yr’[1]), (xr’[2],yr’[2]),…, (xr’[N],yr’[N])}は、制御部14に入力される。
制御部14は、行動割当部と位置更新部との処理を繰り返し行うように制御する(ステップA5)。
スケジューリング部3は、以上の学習部1の処理により得られたQ関数と方策を用いて、N台の実ロボットが初期位置から目的の隊列を形成するための各ロボットの行動計画を決定する。スケジューリング部の詳細構成を図6に示す。
初期状態入力部31には、N台のロボットのそれぞれの初期位置(xr0[i], yr0[i])[i=1,2,…,N]が入力される。
行動割当部32の処理は学習部1の行動割当部12と同様である。i=1,2,…,N1として、第i割当部32−iは、学習部1の行動割当部12の第i割当部12−iと同様である。
位置更新部33の処理は、学習部1の位置更新部13と同様である。すなわち、位置更新部33は、行動割当部32によって決定された行動に基づいて例えばロボットである制御対象物のそれぞれの位置を更新する(ステップB4)。
目標位置到達判定部34は、各i=1,2,…,Nについて、位置更新部33から出力された更新後の位置(xr’[i],yr’[i])∈Gであるか否かを判定し、全てのiについて(xr’[i],yr’[i])∈Gである場合には、現在記憶部2に記憶されている行動系列 A[i] ={a1[i],a2[i],…,at−1[i], at[i]}をスケジューリング結果として出力する。少なくとも1つ以上のiについて(xr’[i],yr’[i])∈Gを満たさない場合には、行動割当部32及び位置更新部33を再度実行するよう制御する(ステップB5)。
目的領域外行動決定部12−i−2が4層(第1〜第4)のレイヤで構成されているのは、上記の例では静止(a=0)以外でロボットの取りうる行動が4種類(a=1,2,3,4)であるとしているためである。一般には、行動の種類がM個(静止を含む)あれば、目的領域外行動決定部12−i−2はM-1個のレイヤになる。目的領域内行動決定部12−i−3、目的領域外行動決定部32−i−1及び目的領域内行動決定部32−i−3についても同様である。
2 記憶部
3 スケジューリング部
11 入力部
12 行動割当部
12−i−1 位置判定部
12−i−2 目的領域外行動決定部
12−i−3 目的領域内行動決定部
13 位置更新部
14 制御部
31 初期状態入力部
32 行動割当部
32 行動割当部
32−i−1 位置判定部
32−i−2 目的領域外行動決定部
32−i−3 目的領域内行動決定部
33 位置更新部
34 目標位置到達判定部
Claims (3)
- 複数の制御対象物を所定の入口位置を含む目標位置の集合に移動させるための行動制御を行う行動制御装置であって、
上記制御対象物は、制御対象物がその制御対象物の現在の位置Lにおいて各行動aを取ったときの適切さを表す1個の価値関数に基づいて行動制御が行われるとして、
(1)各上記制御対象物が上記目標位置に位置するか判定する位置判定部と、(2)上記各制御対象物が上記目標位置に位置しないと判定された場合には、制御対象物が上記入口位置に向かうことを理想的な状態として上記各制御対象物の現在の位置に基づいて上記価値関数を更新し、上記各制御対象物が移動可能な位置の中で上記更新後の価値関数の値が最も大きい位置に移動する行動を上記各制御対象物の行動として決定する目的領域外行動決定部と、(3)上記各制御対象物が上記目標位置に位置すると判定された場合には、制御対象物の移動に伴ってその制御対象物と位置が入れ替わる仮想的な存在であるボイドが上記入口位置に向かうことを理想的な状態としてボイドの現在の位置に基づいて上記価値関数を更新し、上記各制御対象物の現在の位置Lに移動可能な位置であるボイド位置の中で上記更新後の価値関数の値を最大にする行動が上記位置Lに移動する行動である位置を候補ボイド位置とし、その最大にする行動に対応する上記更新後の価値関数の値を候補ボイドQ関数値として、上記候補ボイド位置の中で上記各制御対象物が移動可能な位置であり候補ボイドQ関数値が最小である位置に移動する行動を上記各制御対象物の行動として決定する目的領域内行動決定部と、を含む行動割当部と、
上記決定された行動に基づいて上記各制御対象物の位置を更新する位置更新部と、
上記行動割当部と位置更新部との処理を繰り返し行うように制御する制御部と、
を含む行動制御装置。 - 複数の制御対象物を所定の入口位置を含む目標位置の集合に移動させるための行動制御を行う行動制御方法であって、
上記制御対象物は、制御対象物がその制御対象物の現在の位置Lにおいて各行動aを取ったときの適切さを表す1個の価値関数に基づいて行動制御が行われるとして、
(1)位置判定部が、各上記制御対象物が上記目標位置に位置するか判定する位置判定ステップと、(2) 目的領域外行動決定部が、上記各制御対象物が上記目標位置に位置しないと判定された場合には、制御対象物が上記入口位置に向かうことを理想的な状態として上記各制御対象物の現在の位置に基づいて上記価値関数を更新し、上記各制御対象物が移動可能な位置の中で上記更新後の価値関数の値が最も大きい位置に移動する行動を上記各制御対象物の行動として決定する目的領域外行動決定ステップと、(3)目的領域内行動決定部が、上記各制御対象物が上記目標位置に位置すると判定された場合には、制御対象物の移動に伴ってその制御対象物と位置が入れ替わる仮想的な存在であるボイドが上記入口位置に向かうことを理想的な状態としてボイドの現在の位置に基づいて上記価値関数を更新し、上記各制御対象物の現在の位置Lに移動可能な位置であるボイド位置の中で上記更新後の価値関数の値を最大にする行動が上記位置Lに移動する行動である位置を候補ボイド位置とし、その最大にする行動に対応する上記更新後の価値関数の値を候補ボイドQ関数値として、上記候補ボイド位置の中で上記各制御対象物が移動可能な位置であり候補ボイドQ関数値が最小である位置に移動する行動を上記各制御対象物の行動として決定する目的領域内行動決定ステップと、を含む行動割当ステップと、
位置更新部が、上記決定された行動に基づいて上記各制御対象物の位置を更新する位置更新ステップと、
制御部が、上記行動割当部と位置更新部との処理を繰り返し行うように制御する制御ステップと、
を含む行動制御方法。 - 請求項1の行動制御装置の各部としてコンピュータを機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014080002A JP6189784B2 (ja) | 2014-04-09 | 2014-04-09 | 行動制御装置、方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014080002A JP6189784B2 (ja) | 2014-04-09 | 2014-04-09 | 行動制御装置、方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015201068A true JP2015201068A (ja) | 2015-11-12 |
JP6189784B2 JP6189784B2 (ja) | 2017-08-30 |
Family
ID=54552270
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014080002A Active JP6189784B2 (ja) | 2014-04-09 | 2014-04-09 | 行動制御装置、方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6189784B2 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105867428A (zh) * | 2016-05-18 | 2016-08-17 | 南京航空航天大学 | 基于多运动模态多视点几何的多机器人系统队形变换方法 |
JP2017142738A (ja) * | 2016-02-12 | 2017-08-17 | 日本電信電話株式会社 | 行動制御システム、その方法及びプログラム |
CN109656132A (zh) * | 2018-07-26 | 2019-04-19 | 西北工业大学 | 一种空间机器人有限时间协调控制方法 |
WO2019215838A1 (ja) * | 2018-05-09 | 2019-11-14 | 日本電気株式会社 | 自律動作機の制御装置、自律動作機の制御方法、及び、自律動作機の制御プログラムが格納された記録媒体 |
US10962987B2 (en) | 2016-06-06 | 2021-03-30 | Tokyo Denki University | Group robot and collective movement controlling method for group robot |
CN112711261A (zh) * | 2020-12-30 | 2021-04-27 | 浙江大学 | 一种基于局部视野的多智能体编队规划方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05119835A (ja) * | 1991-10-29 | 1993-05-18 | Kawasaki Heavy Ind Ltd | ロボツト装置 |
JP2008052473A (ja) * | 2006-08-24 | 2008-03-06 | Nippon Telegr & Teleph Corp <Ntt> | 水中ロボットの動作制御方法、装置、プログラム及びその記録媒体 |
JP2008158841A (ja) * | 2006-12-25 | 2008-07-10 | Matsushita Electric Works Ltd | 自律移動装置群制御システム |
JP2010165050A (ja) * | 2009-01-13 | 2010-07-29 | Nippon Telegr & Teleph Corp <Ntt> | 自律移動ロボットの動作計画装置、方法、プログラム及び記録媒体並びに自律移動ロボットの動作制御装置及び方法 |
-
2014
- 2014-04-09 JP JP2014080002A patent/JP6189784B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05119835A (ja) * | 1991-10-29 | 1993-05-18 | Kawasaki Heavy Ind Ltd | ロボツト装置 |
JP2008052473A (ja) * | 2006-08-24 | 2008-03-06 | Nippon Telegr & Teleph Corp <Ntt> | 水中ロボットの動作制御方法、装置、プログラム及びその記録媒体 |
JP2008158841A (ja) * | 2006-12-25 | 2008-07-10 | Matsushita Electric Works Ltd | 自律移動装置群制御システム |
JP2010165050A (ja) * | 2009-01-13 | 2010-07-29 | Nippon Telegr & Teleph Corp <Ntt> | 自律移動ロボットの動作計画装置、方法、プログラム及び記録媒体並びに自律移動ロボットの動作制御装置及び方法 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017142738A (ja) * | 2016-02-12 | 2017-08-17 | 日本電信電話株式会社 | 行動制御システム、その方法及びプログラム |
CN105867428A (zh) * | 2016-05-18 | 2016-08-17 | 南京航空航天大学 | 基于多运动模态多视点几何的多机器人系统队形变换方法 |
US10962987B2 (en) | 2016-06-06 | 2021-03-30 | Tokyo Denki University | Group robot and collective movement controlling method for group robot |
WO2019215838A1 (ja) * | 2018-05-09 | 2019-11-14 | 日本電気株式会社 | 自律動作機の制御装置、自律動作機の制御方法、及び、自律動作機の制御プログラムが格納された記録媒体 |
JPWO2019215838A1 (ja) * | 2018-05-09 | 2021-04-22 | 日本電気株式会社 | 自律動作機の制御装置、自律動作機の制御方法、及び、自律動作機の制御プログラム |
JP7070673B2 (ja) | 2018-05-09 | 2022-05-18 | 日本電気株式会社 | 自律動作機の制御装置、自律動作機の制御方法、及び、自律動作機の制御プログラム |
US11740629B2 (en) | 2018-05-09 | 2023-08-29 | Nec Corporation | Control device for autonomous operating machines, control method for autonomous operating machines, and recording medium having control program for autonomous operating machines stored thereon |
CN109656132A (zh) * | 2018-07-26 | 2019-04-19 | 西北工业大学 | 一种空间机器人有限时间协调控制方法 |
CN109656132B (zh) * | 2018-07-26 | 2022-01-07 | 西北工业大学 | 一种空间机器人有限时间协调控制方法 |
CN112711261A (zh) * | 2020-12-30 | 2021-04-27 | 浙江大学 | 一种基于局部视野的多智能体编队规划方法 |
Also Published As
Publication number | Publication date |
---|---|
JP6189784B2 (ja) | 2017-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6189784B2 (ja) | 行動制御装置、方法及びプログラム | |
Chaplot et al. | Neural topological slam for visual navigation | |
JP5997092B2 (ja) | ロボット協調搬送計画装置、方法及びプログラム | |
JP7429372B2 (ja) | 動作環境におけるルートプランを最適化するためのシステム及び方法 | |
Faridi et al. | Multi-robot multi-target dynamic path planning using artificial bee colony and evolutionary programming in unknown environment | |
Nestmeyer et al. | Decentralized simultaneous multi-target exploration using a connected network of multiple robots | |
US20200230945A1 (en) | Three-dimensional printing | |
Ma et al. | Multi-robot informative and adaptive planning for persistent environmental monitoring | |
JP5931685B2 (ja) | ロボット協調搬送計画装置、方法、プログラム | |
Viet et al. | BoB: an online coverage approach for multi-robot systems | |
Godoy et al. | Adaptive learning for multi-agent navigation | |
WO2019141220A1 (zh) | 移动机器人的路径规划方法及系统 | |
Tan et al. | Deep reinforcement learning for decentralized multi-robot exploration with macro actions | |
Guy et al. | Guide to anticipatory collision avoidance | |
Kirik et al. | The shortest time and/or the shortest path strategies in a CA FF pedestrian dynamics model | |
Musiyenko et al. | Simulation the behavior of robot sub-swarm in spatial corridors | |
JP6285849B2 (ja) | 行動制御システム、その方法及びプログラム | |
JP6216700B2 (ja) | 行動制御装置、方法及びプログラム | |
Zhao et al. | Complete coverage path planning scheme for autonomous navigation ROS-based robots | |
Giovanini et al. | Autonomous and decentralized mission planning for clusters of UUVs | |
Kang et al. | Path optimization with limited sensing ability | |
CN113790729A (zh) | 一种基于强化学习算法的无人天车路径规划方法及装置 | |
Haiming et al. | Algorithm of path planning based on time window for multiple mobile robots in warehousing system | |
Wei et al. | Tabu temporal difference learning for robot path planning in uncertain environments | |
Wang et al. | Distributed model predictive control of timed continuous Petri nets |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160719 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170526 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170620 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170719 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170801 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170803 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6189784 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |