JP6285849B2 - 行動制御システム、その方法及びプログラム - Google Patents
行動制御システム、その方法及びプログラム Download PDFInfo
- Publication number
- JP6285849B2 JP6285849B2 JP2014232549A JP2014232549A JP6285849B2 JP 6285849 B2 JP6285849 B2 JP 6285849B2 JP 2014232549 A JP2014232549 A JP 2014232549A JP 2014232549 A JP2014232549 A JP 2014232549A JP 6285849 B2 JP6285849 B2 JP 6285849B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- control
- void
- action
- control object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
[理論的背景]
まず、行動制御システム及び方法の理論的背景について説明する。以下、行動制御の対象である制御対象物が、ロボットである場合を例に挙げて説明するが、制御対象物は、制御の対象となり得るものであれば、ロボット以外であってもよい。
0: 静止
1: 二次元平面上で右方向に1格子だけ移動する
2: 二次元平面上で上方向に1格子だけ移動する
3: 二次元平面上で左方向に1格子だけ移動する
4: 二次元平面上で下方向に1格子だけ移動する
p台あるすべてのロボットは、この状態変数を引数とした1個の価値関数Q(s,a)を共有し、行動決定を行う。
(Xre[i],Yre[i])∈G …(3)
として、各ロボットはG内の全ての全ての位置を自由に目標位置とすることができるものとする。つまり、Gをちょうど流体を注ぐ器のようなものとして扱い、その入口位置をPeとする。すなわち、各ロボットは、Gの境界上に一点だけ設定された入口位置PeからGに入ることが可能であり、一度G内に入ったロボットは、Gを出る行動をとることができないものとする。本実施形態では、Gで構成される一塊の任意の形状(星形)の開始位置に近い1点を選んで入口位置Peとし、入口位置Peにロボットが移動した場合において、高報酬値が与えられ、その他は低報酬が与えられる。入口位置Peの位置はGの内部であって、Gで構成される一塊の任意の形状のいずれかの1点であればどこでも構わないが、ロボットの開始位置から近い位置を選ぶのがロボットの動作をスムーズにするうえで効果的である。
Q関数を計算するために必要なマルコフ状態空間での状態遷移確率と報酬値の設定は、行動aにより、状態(位置)がsからs'に移動したとして、その遷移確率P及び報酬Rとすると、例えば、遷移確率P(s'|s,a)(状態sから行動aにより状態s'に遷移する確率)を以下のように設定する。
(1)sが障害物でなく、s'が行動aの行先のセルのとき、
P(s'|s,a)←1
(2)sが障害物でなく、s'が行動aの行先のセルでないとき、
P(s'|s,a)←0
(3)sが障害物のときで、s'=sのとき、
P(s'|s,a)←1
(4)sが障害物のときで、s'=sではないとき、
P(s'|s,a)←0
また、報酬R(s',s,a) (状態sから行動aにより状態s'に遷移したときの報酬)を以下のように設定する。
(1)If s'=Pe then R(s',s,a) ← r_plus
(状態s'と入口位置とが一致するとき、その報酬R(s',s,a)をr_plusとする。)
(2)Else If sがG内かつs'がG外 then R(s',s,a) ← -r_minus
(つまり、(1)の条件を満たさない場合であって、目標位置の集合内からその外に出ようとするとき、その報酬R(s',s,a)を-r_minusとする。)
(3)Else If sがG外かつs'がG内でかつs'=PeでないthenR(s',s,a)=-r_minus
(つまり、(1)及び(2)の条件を満たさない場合であって、入口位置Pe以外の位置から目標位置の集合内に入ろうとするとき、その報酬R(s',s,a)を-r_minusとする。)
(4)Else R(s',s,a)=0
ここで、r_minusとr_plusとはともに正値とし、r_minus > 10 × r_plusとするのが望ましい。なお、ロボットが障害物には入れず、また、入口位置Pe以外からGに入れず、G内から出られないという条件が記述できていれば、遷移確率と報酬の設定方法はこの限りではない。
複数の開始位置から入口位置Peまでの最短経路を考えたとき、複数の開始位置の設定や、障害物の配置によっては、ロボット群のたどる最短経路が2つ以上になる可能性がある。例えば、図4の場合、ロボットAにとっての最短経路はRAであるが、ロボットBにとっての最短経路はRBである。この場合、1つのQ関数により全てのロボットの経路を決定すると、1つの群れを成さず、分裂する可能性がある。そうすると、p台のロボットで1つの群れを成すという前提が崩れ、自己位置座標を取得することが困難になる場合が生ずる。そこで、ロボット動作の開始前の動作計画において、以下のように、Q関数を学習することが有効である。
(1)まず、前述の方法により、全ての位置について動的計画法による探索計算を行い、各位置のQ関数の値を求める。
(2)続いて、開始位置の集合のみを対象として動的計画法による探索計算を行う。その際に、(1)の結果、計算されたQ関数の値において、開始位置の集合の中で、その位置での全行動の中でのQ値の最大値(Qmax_start(s)とする。)が、最大となる位置のQ関数の値は固定とし、その値の更新は行わないものとする。例えば、図4の場合、開始位置の集合に属する各位置におけるQmax_startの値の中で、ロボットAの開始位置PAに対するQmax_startの値が最も大きい場合、位置PAに対するQ関数の値を固定とし、その値の更新は行わない。さらに、遷移確率Pとして、行動aによって、位置PAを経由せずに開始位置の外に出てしまう行動を禁止する。例えば、遷移確率P(s'|s,a)を以下のように設定する。
(A-1)sが障害物でなく、s'が行動aの行先のセルで、s'が開始位置の集合に含まれるとき、
P(s'|s,a)←1
(A-2)sが障害物でなく、s'が行動aの行先のセルで、s'が開始位置の集合に含まれない(開始隊列の外の)とき、
P(s'|s,a)←0
(A-3)sが障害物でなく、s'が行動aの行先のセルでなく、s'が開始位置の集合に含まれるとき、
P(s'|s,a)←0
(A-4)sが障害物でなく、s'が行動aの行先のセルでなく、s'が開始隊列の集合に含まれないとき、
s'=sならば、P(s'|s,a)←1
そうでなければ、P(s'|s,a)←0
(A-5)sが障害物のときで、s'=sのとき、
P(s'|s,a)←1
(A-6)sが障害物のときで、s'=sではないとき、
P(s'|s,a)←0
通常は、各状態sにあるロボットが、価値関数Q(s,a)を使用して行動選択を行う場合は、各状態sにおいて、Q関数の値を最大にする行動aを選択する。しかし、以上に提示した条件設定で、Q関数を計算した場合、目標隊列エリアGの外にいるロボットも目標隊列エリアGの内にいるロボットもともに、入口位置Peを目指して移動することになる。そこで、以下のルールにより行動選択を行うものとする。この行動方策を行動方策Policy_Gとする。
(1)sがG内のとき、ロボットは、他のロボットの位置や障害物位置に移動しない行動であって、かつ、G外に出ていかない行動であり、かつ、Q(s,a)<Q(s,0)を満たす行動aの中でQ(s,a)を最小化する行動を選択する。そのような行動がない場合は行動a=0(静止)を選択する。
(2)sがG外のとき、ロボットは、、他のロボットの位置や障害物位置に移動しない行動であって、かつ、Q(s,a)>Q(s,0)を満たす行動aの中でQ(s,a)を最大化する行動を選択する。そのような行動がない場合は行動a=0(静止)を選択する。
また、ボイドの位置を制御するという概念を使用する。ここでいうボイドとは、あるロボットが別の位置に移動した後に、元いた位置にできる空隙のことである。なお、伸縮型ロボットがある位置のみを占有する収縮状態から伸長し、もともと占有していた位置と他の位置とを占有する伸長状態に変形したときに、もともと占有していた位置にボイドが生じる、または、もともと占有していた位置にボイドが移動するものとする(図2参照)。一方、不変型ロボットがある位置から他の位置へ移動するときに、ある位置にボイドが生じる、または、移動するものとする(図3参照)。このボイドの動きを制御することで、1つの群れを維持する。後に説明するボイドの制御のための行動方策Policy_Vは、
(3)sがG外であるか、入口位置Peであるとき、ボイドは、移動先が他のロボットの位置に重なる位置となる行動であって、かつ、G内に入っていかない行動であって、かつ、Q(s,a)<Q(s,0)を満たす行動aの中でQ(s,a)を最小化する行動を選択する。そのような行動がない場合は行動a=0(静止)を選択する。このような選択をすることで、ボイドが入口位置Peから遠い目標位置の集合に含まれない位置に移動するように制御される。
(4)sがG内でかつ入口位置Peでないとき、ボイドは、移動先が他のロボットの位置に重なる位置となる行動であって、かつ、Q(s,a)>Q(s,0)を満たす行動aの中でQ(s,a)を最大化する行動を選択する。そのような行動がない場合は行動a=0(静止)を選択する。このような選択をすることで、ボイドが入口位置Peに向かって移動するように制御される。
本実施形態において、ロボットは各々のロボット同士の相対位置関係から、各々の絶対位置を計測することができ、また隣の位置に他のロボットが存在しているか否か、障害物があるか否か、そして、自身が目標位置上にいるかどうかを知ることができるものとする。これを実現するための拘束条件は制御対象となるロボットの構成により異なるため、以下、それぞれ説明する。
伸縮型ロボットのみの制御する場合の位置関係と移動に関する拘束条件は、各ロボットの周囲の格子(伸長状態の場合、周囲の10マス、収縮状態の場合周囲の8マス)のいずれかに他のロボットが存在し、ロボット全体で一つの集合をなすという拘束条件を満たさなければならないことである。この拘束条件を維持しつつ目標位置での隊列形成を行う動作の例を図5〜図9に示す。以下、この条件を維持しながらの、価値関数Q(s,a)を利用した隊列移動の方法について、図10〜図12を用いて説明する。
(1)G内の各ロボットiについて、ロボットiの位置sにおける全行動aの中でのQ(s,a)の最小値Qmin(i)を計算する。
(2)G内の各ロボットiについて、Qmin(i)の値が小さい順に順位付けを行う。
(3)G外の各ロボットiについて、ロボットiの位置sにおける全行動aの中でのQ(s,a)の最大値Qmax(i)を計算する。
(4)G外の各ロボットiについて、Qmax(i)の値が大きい順に順位付けを行う。
(5)G外の各ロボットiの順位値にG内にあるロボット数を加算する。
つづいて、不変型ロボットのみの制御する場合の拘束条件について説明する。この場合、ロボットは、自分が移動する方向と逆方向の向きで接している他のロボットをできるだけ多く引き連れて移動を行う。
さらに、伸縮型ロボットと不変型ロボットが混在する場合について述べる。
<第一実施形態に係る行動制御システム100>
図19は第一実施形態に係る行動制御システム100の機能ブロック図を、図20はその処理フローの例を示す。行動制御システム100は、図19に示すように、動作計画部110と、行動選択部120と、隣接状態判定部121と、位置更新部125と、位置判定部126と、記憶部140と、通信部150と、入力部160とを含む。
動作計画部110は、価値関数Q(s,a)の値を、動的計画法により、ロボットの任務行動開始前に事前に計算し(S110)、記憶部140に格納する。ここで、動作計画部110の計算は、一台のロボットを使用したQ学習に置き換えてもよい。なお、別装置で価値関数Q(s,a)を計算しておき、ロボットの任務行動開始前に事前に記憶部140に格納しておけば、行動制御システム100は、動作計画部110を備えなくともよい。
入力部160には、p台のロボットiのそれぞれの初期位置(Xr0[i],Xr0[i])及びp個の目標位置の集合G={(Xre[0],Yre[0]),(Xre[1],Yre[1]),…,(Xre[p-1],Yre[p-1])}が入力され、記憶部140に記憶される。
記憶部140には、位置s及びa∈{0,1,2,3,4}の組み合わせのそれぞれについての価値関数Q(s,a)が記憶されているとする。sの取りうる範囲は、対象となる二次元平面上の領域内のロボットiが存在しうる全ての座標である。
行動制御システム100が実装されているロボットも含め、全てのロボットは、通信部150を介して、二次元平面上の上、右上、右、右下、下、左下、左、左上方向(以下「8方向」ともいう)において隣接する他のロボットと通信することができる。図21Aの梨地部分は不変型ロボット及び収縮状態の伸縮型ロボットの隣接する通信可能な位置を、図21Bの梨地部分は伸長状態の伸縮型ロボットの隣接する通信可能な位置を示す。
行動選択部120は、記憶部140から価値関数Qを取り出す。行動選択部120は、(伸縮型ロボットのみの制御する場合の拘束条件)、(不変型ロボットのみの制御する場合の拘束条件)、(伸縮型ロボットと不変型ロボットとが混在するときに制御する場合の拘束条件)の部分で説明した方法で、p台のロボットを制御する(s120)。具体的には、図10のs1(初期設定)、s3(先頭移動フラグの判定)、s5(第一制御)、s6(第二制御)を行う。なお、行動方策Policy_G、行動方策Policy_Vにおいて、各ロボットの位置や障害物位置を必要とするが、各ロボットの位置の初期位置(Xr0[i],Xr0[i])については、前述の通り、入力部160を介して入力され記憶部140に記憶されているものを利用し、移動後の各ロボットの位置については、後述する位置判定部126で求め記憶部140に記憶されているものを利用すればよい。障害物の位置に関しては、価値関数Q(s,a)を学習する際に利用した障害物の位置を利用してもよいし、後述する隣接状態判定部121で判定した判定結果を用いて得られるものを利用してもよい。
位置更新部125は、各i=0,1,…,p-1について、i番目のロボットの現在の位置(Xr[i],Yr[i])において、行動選択部120で決定した行動を実行した場合のロボットの移動後(行動後)の位置(Xr'[i],Yr'[i])を計算し、計算された(Xr'[i],Yr'[i])で記憶部140に格納されたi番目のロボットの位置を更新する(S125)。言い換えれば、位置更新部125は、行動選択部120で決定した行動に基づいて、ロボットが行動した場合に想定される位置(以下、「想定位置」ともいう)を計算し、ロボットの位置を更新し記憶部140に格納する。具体的には、図10のs8(位置の更新)を行う。
隣接状態判定部121は、ロボットの2次元平面上の上下左右の隣接する位置に、障害物または他のロボットが存在するか否かを判定し、ロボットの2次元平面上の右上、左上、左下、右下の隣接する位置に他のロボットが存在するか否かを判定し(S121),判定結果を記憶部140に格納する。
位置判定部126は、隣接状態判定部121の判定結果を用いて、行動後位置を求め、行動後位置(Xr"[i],Yr"[i])と想定位置(Xr'[i],Yr'[i])とが一致するか否かを判定する(S126)。なお、一致しない場合には、移動するように制御されたロボットが何らかのトラブルにより、制御通りに移動できなかったと考えられる。この場合、行動後位置(Xr"[i],Yr"[i])と想定位置(Xr'[i],Yr'[i])との少なくとも一方を補正すればよい。補正方法としては様々な手法が考えられる。例えば、移動した全てのロボットに対して、制御前の位置に戻るように指示し、行動後位置(Xr"[i],Yr"[i])を補正してもよいし、想定位置(Xr'[i],Yr'[i])を行動後位置(Xr"[i],Yr"[i])に合わせて補正してもよい。
このような構成により、一台のロボットに必要な分だけのマルコフ状態空間を用意し、それを用いて動的計画法を利用して各位置でのロボットの行動方策を計算し、その行動方策を利用することで、ロボットに任意の隊列形状と、任務環境内の任意の障害物形状に対応した、ロボット同士が接した状態を維持したうえでの多数ロボットのための隊列形成アルゴリズムを獲得することができる。すなわち、ロボット数に依存せずにロボット一台分の計画計算負荷での自己位置座標定義型隊列形成アルゴリズム獲得ができる。また、静止しているロボットに対する相対的な位置を判定することで、絶対的な位置を取得することができるため、付加的な位置計測用の装備を必要としない。
本実施形態では、各格子(マス)は、正方形であるが、他の形状であってもよい。格子は左右方向及び上下方向に連続して配置される。また、各格子は左右方向で他の二つの格子と隣接し、上下方向で他の二つの格子と隣接する。言い換えると、各格子は、ロボットの移動できる方向と同じ方向においてのみ、他の格子と隣接する。この条件を満たせば、各格子はどのような形状であってもよい。また、「直交」とは、厳密に「垂直に交わること」を意味しなくともよく、例えば、図22のように、各格子は、菱形であってもよく、各格子が他の二つの格子と隣接する方向の一方を上下方向とし、他方を左右方向とすればよく、このとき、上下方向と左右方向とは直交するものとする。
本発明は上記の実施形態及び変形例に限定されるものではない。例えば、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
また、上記の実施形態及び変形例で説明した各装置における各種の処理機能をコンピュータによって実現してもよい。その場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
Claims (3)
- 開始位置の集合に配置された複数の制御対象物を所定の入口位置を含む目標位置の集合に移動させるための行動制御を行う行動制御システムであって、
第一方向に対して平行でない方向を第二方向とし、第一方向に対して反対の方向を第三方向とし、第二方向に対して反対の方向を第四方向とし、各開始位置及び各目標位置は、それぞれ前記第一方向〜第四方向の少なくとも何れかの方向において他の開始位置及び目標位置と隣接し、前記目標位置の集合及び前記開始位置の集合はそれぞれ一塊の任意の形状を成し、
前記制御対象物は、当該制御対象物の2次元平面上の第一方向において隣接する第一位置、第二方向において隣接する第二位置、第三方向において隣接する第三位置、及び、第四方向において隣接する第四位置、第一位置に第二方向において隣接する第五位置、第二位置に第三方向において隣接する第六位置、第三位置に第四方向において隣接する第七位置、及び、第四位置に第一方向において隣接する第八位置に存在する他の制御対象物と通信するための通信手段を備え、制御対象物がその制御対象物の現在の位置sにおいて各行
動aを取ったときの適切さを表す1個の価値関数に基づいて制御され、静止するか、また
は、二次元平面上の第一〜第四位置の何れかに移動するように制御されるものとし、
学習に使用するマルコフ状態空間を一台分のロボットの状態変数のみで構成し、p台あるすべてのロボットは、この状態変数を引数とした1個の前記価値関数を共有するものとし、
前記価値関数は、まず、全ての位置において、制御対象物が所定の入口位置に移動した場合に高報酬値を得られるように学習し、次に、全ての開始位置の中で前記価値関数の値が最も大きい一点の位置を目指す行動の前記価値関数の値が高くなるように学習することにより得たものであり、
前記価値関数が記憶される記憶部と、
制御対象物の移動に伴って生じる、または、制御対象物の移動する方向と反対の方向に移動する仮想的な存在をボイドとし、前記価値関数を用いて、(G-1)制御対象物が目標位
置の何れかに存在する場合、その制御対象物が、前記所定の入口位置から遠い他の目標位置に移動するように制御し、(G-2)制御対象物が前記目標位置の集合に含まれない位置に
存在する場合、その制御対象物が、前記所定の入口位置に向かって移動するように制御し、(V-1)ボイドが前記目標位置の集合に含まれない位置または前記所定の入口位置に位置
する場合、そのボイドが前記所定の入口位置から遠い前記目標位置の集合に含まれない位置に移動するように制御し、(V-2)ボイドが前記所定の入口位置を除いた前記目標位置の
何れかに位置する場合、そのボイドが前記所定の入口位置に向かって移動するように制御する行動選択部を含み、
前記行動選択部は、入口位置に近い先頭制御対象物を決め、(G-1)及び(G-2)の制御により移動させることでボイドを発生させる第一制御と、前記第一制御の結果、発生したボイドを前記(V-1)及び(V-2)の制御に従う限り移動させる第二制御とを実行する、
行動制御システム。 - 開始位置の集合に配置された複数の制御対象物を所定の入口位置を含む目標位置の集合に移動させるための行動制御を行う行動制御方法であって、
第一方向に対して平行でない方向を第二方向とし、第一方向に対して反対の方向を第三方向とし、第二方向に対して反対の方向を第四方向とし、各開始位置及び各目標位置は、それぞれ前記第一方向〜第四方向の少なくとも何れかの方向において他の開始位置及び目標位置と隣接し、前記目標位置の集合及び前記開始位置の集合はそれぞれ一塊の任意の形状を成し、
前記制御対象物は、当該制御対象物の2次元平面上の第一方向において隣接する第一位置、第二方向において隣接する第二位置、第三方向において隣接する第三位置、及び、第四方向において隣接する第四位置、第一位置に第二方向において隣接する第五位置、第二位置に第三方向において隣接する第六位置、第三位置に第四方向において隣接する第七位置、及び、第四位置に第一方向において隣接する第八位置に存在する他の制御対象物と通信するための通信手段を備え、制御対象物がその制御対象物の現在の位置sにおいて各行
動aを取ったときの適切さを表す1個の価値関数に基づいて制御され、静止するか、また
は、二次元平面上の第一〜第四位置の何れかに移動するように制御されるものとし、
学習に使用するマルコフ状態空間を一台分のロボットの状態変数のみで構成し、p台あるすべてのロボットは、この状態変数を引数とした1個の前記価値関数を共有するものとし、
前記価値関数は、まず、全ての位置において、制御対象物が所定の入口位置に移動した場合に高報酬値を得られるように学習し、次に、全ての開始位置の中で前記価値関数の値が最も大きい一点の位置を目指す行動の前記価値関数の値が高くなるように学習することにより得たものであり、
行動選択部が、制御対象物の移動に伴って生じる、または、制御対象物の移動する方向と反対の方向に移動する仮想的な存在をボイドとし、前記価値関数を用いて、(G-1)制御
対象物が目標位置の何れかに存在する場合、その制御対象物が、前記所定の入口位置から遠い他の目標位置に移動するように制御し、(G-2)制御対象物が前記目標位置の集合に含
まれない位置に存在する場合、その制御対象物が、前記所定の入口位置に向かって移動するように制御し、(V-1)ボイドが前記目標位置の集合に含まれない位置または前記所定の
入口位置に位置する場合、そのボイドが前記所定の入口位置から遠い前記目標位置の集合に含まれない位置に移動するように制御し、(V-2)ボイドが前記所定の入口位置を除いた
前記目標位置の何れかに位置する場合、そのボイドが前記所定の入口位置に向かって移動するように制御する行動選択ステップを含み、
前記行動選択ステップは、入口位置に近い先頭制御対象物を決め、(G-1)及び(G-2)の制御により移動させることでボイドを発生させる第一制御と、前記第一制御の結果、発生したボイドを前記(V-1)及び(V-2)の制御に従う限り移動させる第二制御とを実行する、
行動制御方法。 - 請求項1の行動制御システムとしてコンピュータを機能させるためのプログラム。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014232549A JP6285849B2 (ja) | 2014-11-17 | 2014-11-17 | 行動制御システム、その方法及びプログラム |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014232549A JP6285849B2 (ja) | 2014-11-17 | 2014-11-17 | 行動制御システム、その方法及びプログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2016095754A JP2016095754A (ja) | 2016-05-26 |
| JP6285849B2 true JP6285849B2 (ja) | 2018-02-28 |
Family
ID=56071751
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2014232549A Active JP6285849B2 (ja) | 2014-11-17 | 2014-11-17 | 行動制御システム、その方法及びプログラム |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6285849B2 (ja) |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP6706173B2 (ja) | 2016-08-09 | 2020-06-03 | 株式会社日立製作所 | 制御装置、制御方法、および制御プログラム |
| CN108646550B (zh) * | 2018-04-03 | 2022-03-22 | 江苏江荣智能科技有限公司 | 一种基于行为选择的多智能体编队方法 |
| CN114442487B (zh) * | 2022-01-18 | 2023-03-21 | 北京理工大学 | 多智能体系统仿射编队中的领导者选取方法 |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2933247B2 (ja) * | 1991-10-29 | 1999-08-09 | 川崎重工業株式会社 | ロボット装置 |
| JP4746349B2 (ja) * | 2005-05-18 | 2011-08-10 | 日本電信電話株式会社 | ロボット行動選択装置及びロボット行動選択方法 |
-
2014
- 2014-11-17 JP JP2014232549A patent/JP6285849B2/ja active Active
Also Published As
| Publication number | Publication date |
|---|---|
| JP2016095754A (ja) | 2016-05-26 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Lakshmanan et al. | Complete coverage path planning using reinforcement learning for tetromino based cleaning and maintenance robot | |
| Phung et al. | Enhanced discrete particle swarm optimization path planning for UAV vision-based surface inspection | |
| Ge et al. | Queues and artificial potential trenches for multirobot formations | |
| JP6174523B2 (ja) | 行動制御システム、その方法及びプログラム | |
| JP5381679B2 (ja) | 経路探索システム、方法、プログラム、並びに移動体 | |
| JP5997092B2 (ja) | ロボット協調搬送計画装置、方法及びプログラム | |
| CN106647771B (zh) | 多移动机器人的最小步编队方法 | |
| Shi et al. | Coverage path planning for cleaning robot based on improved simulated annealing algorithm and ant colony algorithm | |
| JP2015201068A (ja) | 行動制御装置、方法及びプログラム | |
| da Silva | Autonomous adaptive modification of unstructured environments | |
| CN109947132A (zh) | 基于rfid库存盘点的无人机三维路径规划方法 | |
| JP6285849B2 (ja) | 行動制御システム、その方法及びプログラム | |
| JP6559591B2 (ja) | 行動制御システム、その方法及びプログラム | |
| CN112415997A (zh) | 一种用于多机器人协作的路径规划方法及系统 | |
| US12186912B2 (en) | Capability-aware pathfinding for autonomous mobile robots | |
| JP6489923B2 (ja) | 行動制御システム、及びそのプログラム | |
| Hardouin et al. | A multirobot system for 3-d surface reconstruction with centralized and distributed architectures | |
| Badawy et al. | New approach to enhancing the performance of cloud-based vision system of mobile robots | |
| Moussa et al. | Cluster-based distributed self-reconfiguration algorithm for modular robots | |
| Abaee Shoushtary et al. | Team Robot Motion Planning in Dynamics Environments Using a New Hybrid Algorithm (Honey Bee Mating Optimization‐Tabu List) | |
| CN116300905A (zh) | 一种基于二维激光观测的带约束多机器人强化学习安全编队方法 | |
| CN114740849A (zh) | 基于行人步行决策规则的移动机器人自主导航方法及装置 | |
| Shi et al. | Enhancing Adaptability: Hierarchical Frontier-Based Path Planning for Navigation in Challenging Environments | |
| Nishikawa et al. | Coordination control design of heterogeneous swarm robots by means of task-oriented optimization | |
| Wu et al. | Consensus based distributive task allocation for multi-AUV in searching and detecting |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170112 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171027 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171107 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171215 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180130 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180202 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6285849 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |