JP4964255B2 - Autonomous mobile robot operation planning apparatus, method, program and recording medium, and autonomous mobile robot operation control apparatus and method - Google Patents

Autonomous mobile robot operation planning apparatus, method, program and recording medium, and autonomous mobile robot operation control apparatus and method Download PDF

Info

Publication number
JP4964255B2
JP4964255B2 JP2009004996A JP2009004996A JP4964255B2 JP 4964255 B2 JP4964255 B2 JP 4964255B2 JP 2009004996 A JP2009004996 A JP 2009004996A JP 2009004996 A JP2009004996 A JP 2009004996A JP 4964255 B2 JP4964255 B2 JP 4964255B2
Authority
JP
Japan
Prior art keywords
mobile robot
autonomous mobile
state
flow
probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009004996A
Other languages
Japanese (ja)
Other versions
JP2010165050A (en
Inventor
洋 川野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2009004996A priority Critical patent/JP4964255B2/en
Publication of JP2010165050A publication Critical patent/JP2010165050A/en
Application granted granted Critical
Publication of JP4964255B2 publication Critical patent/JP4964255B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Feedback Control In General (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

この発明は、例えば飛行船、潜水艦等の自律移動ロボットの動作計画を行う技術に関する。特に自律移動ロボットに障害物を回避させる動作計画を行う技術に関する。   The present invention relates to a technique for performing an operation plan of an autonomous mobile robot such as an airship or a submarine. In particular, the present invention relates to a technique for making an operation plan for an autonomous mobile robot to avoid an obstacle.

イナーシャ(慣性)が高い劣駆動型の自律移動ロボットの動作計画を行う技術として、マルコフ決定過程における動作計画法を利用した技術が知られている(例えば、特許文献1及び非特許文献1参照。)。   As a technique for performing an operation plan of an under-actuated autonomous mobile robot having high inertia (inertia), a technique using an operation planning method in a Markov decision process is known (for example, see Patent Document 1 and Non-Patent Document 1). ).

この技術においては、想定される流速の下、各状態s∈{s,…,s}にある自律移動ロボットが各行動a∈{a,…,a}を取った場合に各状態s’∈{s,…,s}に遷移する状態遷移確率P ss’と、そのときに得られる報酬R ss’とをまず求める。報酬R ss’については、例えば到達点を含む状態s’に遷移するときに与えられる報酬R ss’を1、障害物を含む状態s’に遷移するときに与えられる報酬R ss’を−1、障害物を含まない状態s’に遷移するときに与えられる報酬R ss’を0とする。 In this technique, under the flow rate is assumed, each state s∈ {s 1, ..., s N} autonomous mobile robot each behavior in a∈ {a 1, ..., a M} each when taking the state s'∈ {s 1, ..., s N} ' and reward R a ss obtained at that time' transition to the state transition probability P a ss to determine first and. For the reward R a ss ′ , for example, the reward R a ss ′ given when transitioning to the state s ′ including the reaching point is 1, and the reward R a ss ′ given when transitioning to the state s ′ including the obstacle is performed. -1, and 0 'reward R a ss given when transitioning to the' state s free of obstructions.

そして、状態遷移確率P ss’及び報酬R ss’を用いて、マルコフ決定過程における動的計画法に基づき、状態価値関数Vπ(s)を求める。そして、想定される流速と実際の流速の流速差を考慮しつつ、状態価値関数Vπ(s)を最大にする行動aを選択し、その選択された行動aに従って自律移動ロボットを制御する。 Then, using a state transition probability P a ss 'and reward R a ss', based on dynamic programming in Markov decision processes, obtains the state value function V [pi a (s). Then, the action a that maximizes the state value function V π (s) is selected in consideration of the difference between the assumed flow speed and the actual flow speed, and the autonomous mobile robot is controlled according to the selected action a.

特開2007−317165号公報JP 2007-317165 A

H.Kawano, “Three Dimensional Obstacle Avoidance of Autonomous Blimp Flying in Unknown Disturbance”, Proceeding of 2006 IEEE/RSJ International Conference on Intelligent Robots and Systems, pp.123-130, October, 2006H. Kawano, “Three Dimensional Obstacle Avoidance of Autonomous Blimp Flying in Unknown Disturbance”, Proceeding of 2006 IEEE / RSJ International Conference on Intelligent Robots and Systems, pp.123-130, October, 2006

しかしながら、非特許文献1及び特許文献1に記載された技術おいては、自律移動ロボットが行動する環境で生じ得る想定外の一時的な流れを考慮して報酬を定めてはいない。   However, in the techniques described in Non-Patent Document 1 and Patent Document 1, a reward is not determined in consideration of an unexpected temporary flow that may occur in an environment in which an autonomous mobile robot acts.

したがって、自律移動ロボットが行動する環境で想定外の一時的な流れが生じた場合に、動作計画が破綻しやすいという課題がある。   Therefore, when an unexpected temporary flow occurs in an environment in which an autonomous mobile robot acts, there is a problem that the motion plan is likely to fail.

上記の課題を解決するために、互いに異なる複数の一時的な流れが生じた場合に、各状態にある上記自律移動ロボットが各行動に基づいて移動した場合に障害物に衝突するかどうかを判定し、衝突すると判定された一時的な流れが生じる確率の総和である衝突確率を計算し、衝突確率を考慮して報酬を決定し、その報酬に基づいて動的計画を行う。   In order to solve the above-mentioned problem, when a plurality of different temporary flows occur, it is determined whether or not the autonomous mobile robot in each state collides with an obstacle when moving based on each action Then, a collision probability which is a sum of the probabilities of occurrence of temporary flows determined to collide is calculated, a reward is determined in consideration of the collision probability, and dynamic planning is performed based on the reward.

この発明は、想定外の一時的な流れを考慮して報酬を決定するため、動作計画はより破綻しづらくなるという効果を奏する。   Since the present invention determines a reward in consideration of an unexpected temporary flow, there is an effect that the motion plan becomes more difficult to break down.

自律移動ロボットの動作計画装置の例の機能ブロック図。The functional block diagram of the example of the operation | movement plan apparatus of an autonomous mobile robot. 状態遷移確率計算部の例のブロック図。The block diagram of the example of a state transition probability calculation part. 自律移動ロボットの動作制御装置の例の機能ブロック図。The functional block diagram of the example of the operation control apparatus of an autonomous mobile robot. 自律移動ロボットの模式図であり、(a)は正面図、(b)は側面図。It is a schematic diagram of an autonomous mobile robot, (a) is a front view, (b) is a side view. 水平方向の位置の変位量を説明するための図。The figure for demonstrating the displacement amount of the position of a horizontal direction. 状態遷移確率の計算を説明するための図。The figure for demonstrating calculation of a state transition probability. 衝突の判定及びその省略を説明するための概念図。The conceptual diagram for demonstrating the determination of a collision, and its omission. 衝突が起こる一時的な流れの集合Sの連続的な概念図。Continuous conceptual view of a set S g of temporary flow collision occurs. 衝突が起こる一時的な流れの集合Sの離散的な概念図。Discrete conceptual view of a set S g of temporary flow collision occurs. 自律移動ロボットの動作制御方法の例を示す流れ図。The flowchart which shows the example of the operation control method of an autonomous mobile robot. 衝突判定部の処理を説明するための図。The figure for demonstrating the process of a collision determination part. 自律移動ロボットの動作制御方法の例を示す流れ図。The flowchart which shows the example of the operation control method of an autonomous mobile robot.

[マルコフ決定過程]
まず、この発明を把握するための基礎知識である強化学習(Reinforcement Learning)におけるマルコフ決定過程(Markov decision Process)の概略を説明する。
[Markov decision process]
First, an outline of a Markov decision process in reinforcement learning (Reinforcement Learning), which is basic knowledge for grasping the present invention, will be described.

環境を構成する離散的な状態の集合をS={s,s,…,s}、行動主体が取り得る行動の集合をA={a,a,…,a}と表す。環境中のある状態s∈Sにおいて、行動主体がある行動a∈Aを実行すると、環境は確率的に状態s’∈Sへ遷移する。その遷移確率(状態遷移確率とも呼ぶ)を
ss’=Pr{st+1=s’|s=s,a=a}
により表す。このとき環境から行動主体へ報酬rが確率的に与えられるが、その期待値を
ss’=E{r|s=s,a=a,st+1=s’}
とする。
S = the set of discrete states which constitute the environmental {s 1, s 2, ... , s N}, action A = the set of entities can take action {a 1, a 2, ... , a M} and To express. In a state sεS in the environment, when an action aεA is executed, the environment probabilistically changes to the state s′εS. The transition probability (also referred to as state transition probability) is P a ss ′ = Pr {s t + 1 = s ′ | s t = s, a t = a}
Is represented by At this time, the reward r is probabilistically given from the environment to the action subject, and the expected value is expressed as R a ss ′ = E {r t | s t = s, a t = a, s t + 1 = s ′}
And

なお、状態s’に附されている記号’は、状態sとの識別を図るための記号である。時間微分を表す記号として記号’を用いることがあるが、記号’が附された対象がマルコフ状態遷移モデルの状態であるか否かで記号’の意味を容易に識別できるので、以降の説明でもこの記法に従うとする。   The symbol 'attached to the state s' is a symbol for identifying the state s. The symbol 'may be used as a symbol representing time differentiation, but the meaning of the symbol' can be easily identified by whether or not the object with the symbol 'is a state of the Markov state transition model. Suppose you follow this notation.

ある時間ステップtで行った行動が、その後の報酬獲得にどの程度貢献したのかを評価するため、その後得られる報酬の時系列を考える。報酬の時系列評価は価値と呼ばれる。行動主体の目標は、価値を最大化すること、又は、価値を最大にする方策π(s,a)を求めることである。方策π(s,a)は、状態sにおいて行動aを取ることを意味し、状態s及び行動aの複数の組のそれぞれについて定義される。価値は、時間の経過とともに報酬を割引率γ(0≦γ<1)で割引いて合計される。すなわち、ある方策πの下での状態sの価値である状態価値関数Vπ(s)は、以下のように定義される。Eπは期待値を求める関数である。 In order to evaluate how much the action performed at a certain time step t contributed to the subsequent reward acquisition, a time series of rewards obtained thereafter is considered. The time series evaluation of reward is called value. The goal of the action subject is to maximize the value or to find a policy π (s, a) that maximizes the value. Policy π (s, a) means taking action a in state s, and is defined for each of a plurality of sets of state s and action a. The value is totaled by discounting the reward with a discount rate γ (0 ≦ γ <1) over time. That is, the state value function V π (s) that is the value of the state s under a certain policy π is defined as follows. E π is a function for obtaining an expected value.

Figure 0004964255
Figure 0004964255

ここでは価値関数として方策πの下での状態sの価値である状態価値関数Vπ(s)を採用したが、方策πの下で状態sにおいて行動aを採ることの価値である行動価値関数Qπ(s,a)を採用することもできる。 Here, the state value function V π (s) that is the value of the state s under the policy π is adopted as the value function, but the behavior value function that is the value of taking the action a in the state s under the policy π. Q π (s, a) can also be adopted.

Figure 0004964255
Figure 0004964255

行動主体の目標は、最適な方策πを求めること、つまり任意の状態sについて価値関数(上記の例では状態価値関数Vπ(s)である。)が他の方策πを採った場合よりも劣るものではない方策πを求めることである。この方策πの探求は、Bellman方程式で表され、状態sと行動aと遷移先の状態s’との各組み合わせについての状態遷移確率P ss’及び報酬R ss’の値が定まっていれば、動的計画法(ダイナミックプログラミング法)により、最適な、状態価値関数Vπ(s)、行動価値関数Qπ(s,a)及び方策πを計算することができる(例えば、三上 貞芳、皆川 雅章 共訳、R.S.Sutton、A.G.Barto 原著「強化学習」森北出版、1998、pp.94-118参照。)。動的計画法の処理は、周知技術であるため説明は省略する。 The goal of the action subject is to obtain an optimal policy π, that is, the value function (in the above example, the state value function V π (s)) for an arbitrary state s than when another policy π is adopted. It is to find a policy π that is not inferior. Quest This measure π is represented by Bellman equations long as definite values of and reward R a ss' 'state transition probability P a ss for each combination of the' state s and action a destination state s For example, the optimal state value function V π (s), action value function Q π (s, a), and policy π can be calculated by dynamic programming (dynamic programming method) (for example, Sadayoshi Mikami) , Masaaki Minagawa co-translation, RSSutton, AGBarto Original work "Reinforcement Learning" Morikita Publishing, 1998, pp.94-118.) Since the dynamic programming process is a well-known technique, the description thereof is omitted.

[自律移動ロボットの動作計画装置及び方法]
自律移動ロボットの動作計画装置及び方法の実施形態について説明する。
[Operation planning apparatus and method for autonomous mobile robot]
An embodiment of an operation planning apparatus and method for an autonomous mobile robot will be described.

行動主体である自律移動ロボットの例を、図4(a)(b)を参照して説明する。自律移動ロボットは、主推進器101、上下方向推進器102、舵103、ゴンドラ104、流速差取得部21、位置計測部25を有する。この自律移動ロボットは、真横方向に直接移動することができない。搭載アクチュエータである主推進器101、上下方向推進器102、舵103が制御可能な運動自由度よりも自律移動ロボットの運動自由度は高いので、この自律移動ロボットは劣駆動ロボットである。この実施形態では、自律移動ロボットとして飛行船タイプのものを採用しているが、水中無人探索機のような水中ロボット等の任意の自律移動ロボットを採用してもよい。自律移動ロボットには、搭載アクチュエータに応じて、行動単位時間Tごとに取り得る行動が定められる。   An example of an autonomous mobile robot that is an action subject will be described with reference to FIGS. The autonomous mobile robot includes a main thruster 101, a vertical thruster 102, a rudder 103, a gondola 104, a flow velocity difference acquisition unit 21, and a position measurement unit 25. This autonomous mobile robot cannot move directly in the lateral direction. Since the autonomous mobile robot has a higher degree of freedom of motion than the degree of freedom of motion that can be controlled by the main thruster 101, the vertical direction thruster 102, and the rudder 103 which are the mounted actuators, this autonomous mobile robot is an underactuated robot. In this embodiment, an airship type robot is used as the autonomous mobile robot, but any autonomous mobile robot such as an underwater robot such as an underwater unmanned searcher may be used. In the autonomous mobile robot, actions that can be taken every action unit time T are determined according to the mounted actuator.

自律移動ロボットは、不定の流速の流れがある流体で満たされた空間を航行する。その空間はマルコフ遷移状態モデルにより離散的にモデル化されており、自律移動ロボットの二次元座標(x,y)、方位角ψ及び旋回速度ψ’の4つ次元から構成される。各次元は、その次元の物理量を測定するセンサの分解能に応じて離散化されている。この空間には、自律移動ロボットの出発位置及び到着位置が予め定められ、また障害物が配置される。   An autonomous mobile robot navigates a space filled with a fluid having an indefinite flow velocity. The space is discretely modeled by a Markov transition state model, and is composed of four dimensions of a two-dimensional coordinate (x, y), an azimuth angle ψ, and a turning speed ψ ′ of an autonomous mobile robot. Each dimension is discretized according to the resolution of the sensor that measures the physical quantity of that dimension. In this space, the departure position and arrival position of the autonomous mobile robot are determined in advance, and obstacles are arranged.

出発位置を含む状態sに位置する自律移動ロボットは、予め定められた行動の集合の中から1つの行動aを選択する。そして、予め定められた行動単位時間Tだけその行動aに従って移動して、遷移先の状態s’に移動する。この遷移先の状態s’において、再び、予め定められた行動の集合の中から1つの行動aを選択して、行動単位時間Tだけその行動に従って移動して、遷移先の状態s’’に移動する。この行動の選択と状態の遷移を繰り返すことにより、初めは出発地点を含む状態にある自律移動ロボットは、空間に配置された予め定められた到達地点を含む状態に移動しようとする。自律移動ロボットの動作計画装置は、そのための動作計画を行う。   The autonomous mobile robot located in the state s including the departure position selects one action a from a predetermined set of actions. Then, the robot moves according to the action a for a predetermined action unit time T and moves to the transition destination state s ′. In this transition destination state s ′, again, one action a is selected from a predetermined set of actions, moved according to the action for the action unit time T, and changed to the transition destination state s ″. Moving. By repeating this action selection and state transition, the autonomous mobile robot initially in a state including the departure point tries to move to a state including a predetermined arrival point arranged in space. The operation planning apparatus for an autonomous mobile robot performs an operation plan for that purpose.

<ステップS1(図10)>
状態遷移確率計算部1(図1)は、予め定められた流れの下で、各状態sにある自律移動ロボットが各行動aを取った場合に各状態sに遷移する状態遷移確率P ss’を計算する(ステップS1)。すなわち、状態s、行動a及び遷移先の状態s’の各組合せについての状態遷移確率P ss’を計算する。計算された状態遷移確率P ss’は、動的計画部2に送られる。
<Step S1 (FIG. 10)>
The state transition probability calculation unit 1 (FIG. 1) performs a state transition probability P a ss that transitions to each state s when the autonomous mobile robot in each state s takes each action a under a predetermined flow. ' Is calculated (step S1). That is, the state transition probability P a ss ′ for each combination of the state s, the action a, and the transition destination state s is calculated. The calculated state transition probability P a ss ′ is sent to the dynamic planning unit 2.

状態遷移確率P ss’の計算方法の例について説明する。この例では、状態遷移確率計算部1は、図2に例示するように、目標速度計算部11、変位量計算部12及び確率計算部13を含む。 It will be described an example of how to calculate the state transition probability P a ss'. In this example, the state transition probability calculation unit 1 includes a target speed calculation unit 11, a displacement amount calculation unit 12, and a probability calculation unit 13, as illustrated in FIG.

≪ステップS11≫
状態遷移確率計算部1の目標速度計算部11(図2)は、自律移動ロボットが各状態sにおいてある各行動aを取ったときの目標速度を決定する(ステップS11)。目標速度は、変位量計算部12に送られる。例えば、各行動aについて、下記の式に従って自律移動ロボットの旋回速度ψ τ(t)と前後方向の速度vxwτ(t)を自律移動ロボットの目標速度として定める。(b,b)はマルコフ状態遷移モデルの各状態sにおける行動aに対応する二次元ベクトル、αは予め定められた旋回加速度であり、βは予め定められた前後方向の加速度であり、τは各行動aの開始時からの経過時間、ψ’τ0は行動aの開始時における自律移動ロボットの旋回速度、vx0は行動aの開始時における自律移動ロボットの前後方向の速度である。
<< Step S11 >>
The target speed calculation unit 11 (FIG. 2) of the state transition probability calculation unit 1 determines a target speed when the autonomous mobile robot takes each action a in each state s (step S11). The target speed is sent to the displacement amount calculation unit 12. For example, for each action a, the turning speed ψ τ (t) of the autonomous mobile robot and the speed v xwτ (t) in the front-rear direction are determined as the target speed of the autonomous mobile robot according to the following formula. (B 1 , b 2 ) is a two-dimensional vector corresponding to the action a in each state s of the Markov state transition model, α is a predetermined turning acceleration, β is a predetermined longitudinal acceleration, τ is the elapsed time from the start of each action a, ψ ′ τ0 is the turning speed of the autonomous mobile robot at the start of action a, and v x0 is the longitudinal speed of the autonomous mobile robot at the start of action a.

Figure 0004964255
Figure 0004964255

ここで、旋回加速度α及び前後方向の加速度βは、自律移動ロボットの性能の限界を超えないように設定される。また、前後方向の速度vx0(t)及び前後方向の加速度βは、それぞれ対流体機体速度及び対流体機体加速度として記述される。 Here, the turning acceleration α and the longitudinal acceleration β are set so as not to exceed the performance limit of the autonomous mobile robot. Further, the longitudinal velocity v x0 (t) and the longitudinal acceleration β are respectively described as the fluid velocity and the fluid acceleration.

≪ステップS12≫
変位量計算部12は、各状態sにある自律移動ロボットが、予め定められた流れの下において、各行動aに従って移動した場合の、自律移動ロボットの世界座標系における水平面内位置のX座標,Y座標,方位角ψ及び旋回速度ψ’がそれぞれどれくらい変位するのか計算する(ステップS12)。計算された変位量は確率計算部13に送られる。
<< Step S12 >>
The displacement amount calculation unit 12 includes an X coordinate of a position in a horizontal plane in the world coordinate system of the autonomous mobile robot when the autonomous mobile robot in each state s moves according to each action a under a predetermined flow, How much the Y coordinate, the azimuth angle ψ, and the turning speed ψ ′ are displaced is calculated (step S12). The calculated displacement amount is sent to the probability calculation unit 13.

予め定められた流れとは、例えば、想定される流れ、想定される流れよりも速い流れである。[自律移動ロボットの動作制御装置及び方法]の欄で後述するように予め定められた流れと流速の実測値とが異なる場合には適宜補正されるため、おおよその流れでよい。予め定められた流れを0としてもよい。もっとも、想定される流れが流速の実測値と近いほど、この動作計画及びこれに基づく動作制御の精度が増す。したがって、予め定められた流れを想定される流れとすることにより、この動作計画及びこれに基づく動作制御の精度が増す。また、自律移動ロボットの出発位置から到達位置に向かう方向と同じ向きで想定される流れよりも速い流れの下で計算を行う場合、後ろから流れを受けるロボットは旋回半径が大きくなるので、現実よりも厳しい条件で動作計画をしていることになるから、より安全な動作計画を行うことができる。   The predetermined flow is, for example, an assumed flow or a flow faster than the assumed flow. As will be described later in the section [Operation control device and method for autonomous mobile robot], when the flow determined in advance is different from the actual measured flow velocity, the flow is approximated as appropriate. The predetermined flow may be set to zero. However, the closer the expected flow is to the actual measurement value of the flow velocity, the greater the accuracy of this operation plan and operation control based on it. Therefore, the accuracy of the operation plan and the operation control based on the operation plan is increased by setting the predetermined flow to an assumed flow. In addition, when calculation is performed under a flow that is faster than the flow assumed in the same direction as the direction from the departure position to the arrival position of the autonomous mobile robot, the robot that receives the flow from behind has a larger turning radius. Since the operation plan is performed under severe conditions, a safer operation plan can be performed.

自律移動ロボットの水平面内位置のX座標の変位量をD(ψ,a)、Y座標の変位量をD(ψ,a)、方位角ψの変位量をDψ(ψ,a)、旋回速度ψ’の変位量をDψ’(ψ,a)とすると、それぞれの変位量は、次式にように与えられる(図5を参照のこと)。 The X-coordinate displacement amount of the position in the horizontal plane of the autonomous mobile robot is D X0 , a), the Y-coordinate displacement amount is DY0 , a), and the azimuth angle ψ displacement amount is D ψ0 , A), where the displacement amount of the turning speed ψ ′ is D ψ ′0 , a), the respective displacement amounts are given by the following equations (see FIG. 5).

Figure 0004964255
Figure 0004964255

ここで、ψは各状態sの開始時の方位角、Tは状態sから次の状態s’に遷移するまでの行動単位時間、fmxは予め定められた流れのX座標の成分、fmyは予め定められた流れのY座標の成分である。なお、方位角ψの変位量Dψ(ψ,a)と、旋回速度ψ’の変位量Dψ’(ψ,a)については、旋回速度ψ’の制御を行うことになるため、風の影響による補正は行わない。行動単位時間は例えば15秒とすることができる。 Here, ψ 0 is an azimuth angle at the start of each state s, T is an action unit time until the transition from the state s to the next state s ′, f mx is a component of the X coordinate of a predetermined flow, f my is a predetermined Y-coordinate component of the flow. Since the displacement amount D ψ0 , a) of the azimuth angle ψ and the displacement amount D ψ ′0 , a) of the turning speed ψ ′, the turning speed ψ ′ is controlled. No correction is made due to wind effects. The action unit time can be set to 15 seconds, for example.

≪ステップS13≫
確率計算部13は、自律移動ロボットの水平面内位置のX座標の変位量D(ψ,a)、Y座標の変位量D(ψ,a)、方位角ψの変位量Dψ(ψ,a)及び旋回速度ψ’の変位量Dψ’(ψ,a)に基づいて、状態遷移確率P ss’を計算する(ステップS13)。
<< Step S13 >>
The probability calculation unit 13 includes an X coordinate displacement amount D X0 , a), a Y coordinate displacement amount D Y0 , a), and an azimuth angle displacement amount D ψ of the position in the horizontal plane of the autonomous mobile robot. Based on (ψ 0 , a) and the displacement amount D ψ ′0 , a) of the turning speed ψ ′, the state transition probability P a ss ′ is calculated (step S13).

まず、状態sが、自律移動ロボットの水平面内位置のX座標、Y座標、方位角ψ及び旋回速度ψ’の4つの次元で構成される格子で示されるとし、その格子をR(s)と定義する(図6を参照のこと)。そして、その格子R(s)を、上記各変位量から構成される変位量ベクトル(D(ψ,a),D(ψ,a),Dψ(ψ,a),Dψ’(ψ,a))で、平行移動したものをR(s)と定義する。 First, it is assumed that the state s is represented by a grid composed of four dimensions of an X coordinate, a Y coordinate, an azimuth angle ψ, and a turning speed ψ ′ of the position in the horizontal plane of the autonomous mobile robot. Define (see FIG. 6). Then, the lattice R (s) is converted into displacement vector (D X0 , a), D Y0 , a), D ψ0 , a), D) composed of the respective displacements. ψ ′0 , a)) is defined as R t (s).

ここで、自律移動ロボットが状態sにあるときは、自律移動ロボットは、その状態sを表わす4次元の格子R(s)の各点の何れかに、等しい確率で存在するものと仮定する。この仮定の下では、状態遷移確率P ss’は、R(s)と各R(s’)の重なった部分の体積に比例してそれぞれ求めることができる。ここで、R(s’)は、R(s)と重なった格子である。すなわち、R(s’)は、状態sにおいてある行動aを取ったときの遷移先の候補の状態s’に対応した4次元の格子である。R(s)は最大で8つのR(s’)と重なる可能性がある。 Here, when the autonomous mobile robot is in the state s, it is assumed that the autonomous mobile robot exists with an equal probability at any point of the four-dimensional lattice R (s) representing the state s. Under this assumption, the state transition probability P a ss ′ can be obtained in proportion to the volume of the overlapping portion of R t (s) and each R (s ′). Here, R (s ′) is a lattice overlapping with R t (s). That is, R (s ′) is a four-dimensional lattice corresponding to the transition destination candidate state s ′ when the action a in the state s is taken. R t (s) may overlap with up to 8 R (s ′).

状態遷移確率P ss’は、R(s)とあるR(s’)の重なった部分の体積をV(s,s’,a)、R(s)とすべてのR(s’)との重なった部分の体積をΣs’(s,s’,a)とすると、次式により求めることができる。 The state transition probability P a ss ′ is the volume of the overlapping portion of R t (s) and a certain R (s ′) as V 0 (s, s ′, a), R t (s) and all R (s If the volume of the portion overlapping with ') is Σ s' V 0 (s, s', a), it can be obtained by the following equation.

Figure 0004964255
Figure 0004964255

ステップS11からステップS13の処理を適宜繰り返すことにより、状態s、行動a及び遷移先の状態s’の各組合せについての状態遷移確率P ss’を求める(ステップS1の説明は以上)。 By appropriately repeating the processing from step S11 to step S13, the state transition probability P a ss ′ for each combination of the state s, the action a, and the transition destination state s ′ is obtained (the description of step S1 has been described above).

次に流れ発生確率記憶部3に格納されるデータについて説明をする。流れ発生確率記憶部3(図1)には、互いに異なる複数の一時的な流れ(f,ψ)と、各一時的な流れ(f,ψ)が生じる確率とが記憶される。一時的な流れは、極座標系、直交座標系、斜光座標系の何れの座標系で記述してもよいが、この例では極座標系で一時的な流れを記述することにする。fは一時的な流れの速さ、ψは一時的な流れの方向を意味する。一時的な流れは、速さf及び方向ψの組で特定される。速さf及び方向ψの一時的な流れを(f,ψ)とも表記する。起こり得る一時的な流れの範囲は、f−ψ平面の集合Sで定義される。 Next, data stored in the flow occurrence probability storage unit 3 will be described. The flow occurrence probability storage unit 3 (FIG. 1) stores a plurality of different temporary flows (f g , ψ g ) and the probabilities that each temporary flow (f g , ψ g ) occurs. . The temporary flow may be described in any of the polar coordinate system, the orthogonal coordinate system, and the oblique coordinate system, but in this example, the temporary flow is described in the polar coordinate system. f g means the speed of the temporary flow, and ψ g means the direction of the temporary flow. Temporary streams are identified by a set of speed f g and direction [psi g. A temporary flow rate f g and direction ψ g (f g, ψ g ) also referred to. The range of possible temporary flows is defined by the set S of f g −ψ g planes.

例えば、自律移動ロボットの行動環境で過去に起こった最大流速をfgmaxとして、集合Sを次のように定義する。 For example, the set S is defined as follows, where f gmax is the maximum flow velocity that has occurred in the past in the behavioral environment of the autonomous mobile robot.

S={(f,ψ)|0≦f≦fgmax,0≦ψ≦360°}
(f,ψ)は一時的な流れの確率分布であり、計算機で扱う場合には離散的な確率となるが、p(f,ψ)を概念的な説明のために確率密度関数と呼ぶこともある。一時的な流れを連続的に考えた場合には、一時的な流れの確率分布は確率密度関数p(f,ψ)で表現することができる。定義により確率密度関数p(f,ψ)を集合Sで積分すると1となる。
S = {(f g , ψ g ) | 0 ≦ f g ≦ f gmax , 0 ≦ ψ g ≦ 360 °}
p g (f g , ψ g ) is a temporary flow probability distribution, which is a discrete probability when handled by a computer, but p g (f g , ψ g ) is used for conceptual explanation. Sometimes called a probability density function. When a temporary flow is considered continuously, the probability distribution of the temporary flow can be expressed by a probability density function p g (f g , ψ g ). By definition, the probability density function p g (f g , ψ g ) is integrated with the set S to be 1.

1=∫p(f,ψ)dfdψ
実際に発生し得る一時的な流れの方向ψは予想することができないので、確率密度関数p(f,ψ)は、速さfについてのみ正規分布に従うとして、例えば下記式のように定義される。σは分散、μは平均値である。
1 = ∫p g (f g , ψ g ) df gg
Since the temporary flow direction ψ g that can actually be generated cannot be predicted, the probability density function pg (f g , ψ g ) is assumed to follow a normal distribution only with respect to the speed f g , for example, Is defined as σ is the variance, and μ is the average value.

Figure 0004964255
Figure 0004964255

μ=0として、速さfの定義域をf>0としてもよい。この場合、1=∫p(f,ψ)dfdψとするために、確率密度関数p(f,ψ)を次のように定義する。 It is also possible to define μ g = 0 and define the range of the speed f g as f g > 0. In this case, 1 = ∫p g (f g , ψ g) in order to df g d [phi] g, defining the probability density function p g (f g, ψ g ) and as follows.

Figure 0004964255
Figure 0004964255

自律移動ロボットの行動環境で過去に測定された流速についての統計データを用いて、確率密度関数p(f,ψ)を定義してもよい。 The probability density function p g (f g , ψ g ) may be defined using statistical data regarding the flow velocity measured in the past in the behavior environment of the autonomous mobile robot.

流れ発生確率記憶部3には、これらの確率密度関数p(f,ψ)を表現するためのデータが格納される。例えば、f−ψ平面をΔf,Δψの幅の格子で分割することにより離散的に表現し、各格子の代表点(例えば格子の中心点)の値f,ψごとに、一時的な流れの確率p(f,ψ)の値を定義する。このとき、p(f)の総和は1となる。すなわち、Σ(f)=1である。 The flow generation probability storage unit 3 stores data for expressing these probability density functions p g (f g , ψ g ). For example, the f gg plane is discretely expressed by dividing it by a grid having a width of Δf g and Δψ g , and the value f g and ψ g of the representative point (for example, the center point of the grid) of each grid. Define the value of the temporary flow probability p g (f g , ψ g ). At this time, the total sum of p g (f g , ψ g ) is 1. That is, Σ S pg (f g , ψ g ) = 1.

<ステップS2>
衝突判定部4は、予め定められた流れ(f,f)、及び、各一時的な流れ(f,ψ)の下で、各状態sにある自律移動ロボットが各行動aに基づいて移動した場合に、障害物に衝突するか判定する(ステップS1)。障害物に衝突すると判定された一時的な流れ(f,ψ)についての情報は、衝突流れ記憶部5に格納される。例えば、後述するように、障害物に衝突すると判定された一時的な流れ(f,ψ)の格子の集合Sについての情報が、衝突流れ記憶部5に格納される。
<Step S2>
The collision determination unit 4 allows the autonomous mobile robot in each state s to move to each action a under a predetermined flow (f x , f y ) and each temporary flow (f g , ψ g ). It is determined whether or not the vehicle collides with an obstacle when moving based on this (step S1). Information about the temporary flow (f g , ψ g ) determined to collide with the obstacle is stored in the collision flow storage unit 5. For example, as will be described later, information on the lattice set S g of the temporary flow (f g , ψ g ) determined to collide with the obstacle is stored in the collision flow storage unit 5.

Figure 0004964255
Figure 0004964255

ステップS1の処理の具体例を、図11を参照して説明する。まず、衝突判定部4は、f−ψ空間の集合Sから、速さf及び方向ψともに最小値となる格子を選択する(ステップS21)。τ=0とする(ステップS22)。上記式により定義されるDXg(s,a,f,ψ)、DYg(s,a,f,ψ)の値を計算して、状態sにおけるX,Yの値をそれぞれ加算する(ステップS23)。すなわち、DXg(s,a,f,ψ)+X、DYg(s,a,f,ψ)+Yの値を計算する。DXg(s,a,f,ψ)+X、DYg(s,a,f,ψ)+Yで示す位置が障害物であるかどうかを判定する(ステップS24)。障害物でないと判定された場合には、τ<Tであるかを判定する(ステップS25)。τ<Tである場合には、τを予め定められた値だけインクリメントし(ステップS26)、その後ステップS23に進む。τ<Tでない場合には、速さfが速さfの最大値fgmaxであるかどうか、すなわちf<fgmaxであるかを判定する(ステップS27)。f<fgmaxである場合には、速さfをインクリメントして(ステップS28)、ステップS22に進む。f<fgmaxでない場合には、ステップS210に進む。 A specific example of the processing in step S1 will be described with reference to FIG. First, the collision determination unit 4 selects, from the set S in the f g −ψ g space, a lattice having a minimum value for both the speed f g and the direction ψ g (step S21). τ = 0 is set (step S22). The values of D Xg (s, a, f g , ψ g ) and D Yg (s, a, f g , ψ g ) defined by the above formula are calculated, and the values of X and Y in the state s are respectively calculated. Add (step S23). That is, the values of D Xg (s, a, f g , ψ g ) + X, DY g (s, a, f g , ψ g ) + Y are calculated. It is determined whether or not the position indicated by D Xg (s, a, f g , ψ g ) + X, D Yg (s, a, f g , ψ g ) + Y is an obstacle (step S24). If it is determined that the object is not an obstacle, it is determined whether τ <T (step S25). If τ <T, τ is incremented by a predetermined value (step S26), and then the process proceeds to step S23. If not tau <T indicates whether the speed f g is the maximum value f gmax faster f g, i.e. determines whether the f g <f gmax (step S27). If f g <f gmax , the speed f g is incremented (step S28), and the process proceeds to step S22. If f g <f gmax is not satisfied, the process proceeds to step S210.

ステップS24において、障害物であると判定された場合には、自律移動ロボットの行動環境で想定される流れ(f,f)、及び、現在選択されている格子の一時的な流れ(f,ψ)の下で、現在選択されている状態sにある自律移動ロボットが現在選択されている行動aに基づいて移動した場合に、障害物に衝突すると判定して、現在選択されている一時的な流れ(f,ψ)の格子を、衝突が起こる一時的な流れの集合Sgに加える(ステップS29)。また、必要に応じて、現在選択されている一時的な流れ(f,ψ)の格子だけではなく、現在選択されている一時的な流れ(f,ψ)と方向ψが同じでよりも速さが速い一時的な流れの格子を、衝突が起こる一時的な流れの集合Sに加えてもよい(ステップS29’)。 If it is determined in step S24 that the vehicle is an obstacle, the flow (f x , f y ) assumed in the behavior environment of the autonomous mobile robot and the temporary flow (f of the currently selected lattice) g , ψ g ), when the autonomous mobile robot in the currently selected state s moves based on the currently selected action a, it is determined that it collides with an obstacle and is currently selected. The temporary flow (f g , ψ g ) grid is added to the temporary flow set Sg where the collision occurs (step S29). If necessary, not only the currently selected temporary flow (f g , ψ g ) lattice but also the currently selected temporary flow (f g , ψ g ) and the direction ψ g a grid of fast transient flow rate than the same, may be added to the set S g of temporary flow collision occurs (step S29 ').

例えば、図7の速さfg2の一時的な流れにおいて衝突が起こると判定された場合には、速さfg2と方向が同じで速さがfg2よりも速い速さfg4の一時的な流れにおいても衝突が起こることは計算をしなくてもわかる。したがって、fg4の一時的な流れについての衝突が起こるかどうかの計算を省略することができるのである。このようにして、一時的な流れについて衝突するかどうかの判定を省略することにより、計算量を削減することができる。図7の状況における、衝突が起こる一時的な流れの集合Sの連続的な概念図を図8に、衝突が起こる一時的な流れの集合Sの離散的な概念図を図9に示す。 For example, if it is determined that a collision occurs in the temporary flow at the speed f g2 in FIG. 7, the speed is temporarily the same as the speed f g2 and the speed f g4 is faster than the speed f g2. It can be seen that a collision occurs even in a simple flow without calculation. Therefore, the calculation of whether or not a collision with respect to the temporary flow of f g4 occurs can be omitted. In this way, it is possible to reduce the amount of calculation by omitting the determination of whether or not the temporary flow collides. In the context of FIG. 7, FIG. 8 continuous conceptual view of a set S g of temporary flow collision occurs, shows a discrete conceptual view of a set S g of temporary flow collision occurs in Figure 9 .

ステップS210において、方向ψ>360°であるか判定する(ステップS210)。方向ψ>360°でないと判定された場合には、方向ψを予め定められた値だけインクリメントし、速さfを0とし(ステップS211)、ステップS22に進む。方向ψ>360度であると判定された場合には、処理を終える。この処理を状態sと行動aの各組について行う。 In step S210, it is determined whether the direction ψ g > 360 ° (step S210). When it is determined that the direction ψ g > 360 ° is not satisfied, the direction ψ g is incremented by a predetermined value, the speed f g is set to 0 (step S211), and the process proceeds to step S22. If it is determined that the direction ψ g > 360 degrees, the process ends. This process is performed for each set of state s and action a.

<ステップS3>
衝突確率計算部6は、障害物に衝突すると判定された一時的な流れが生じる確率を流れ発生確率記憶部3から読み込んで加算することにより、各状態にある上記自律移動ロボットが各行動に基づいて移動した場合に障害物に衝突する衝突確率P(s,a)を計算する(ステップS3)。例えば、集合Sに含まれる衝突が起こる一時的な流れ(f,ψ)のそれぞれが生じる確率p(f,ψ)の総和を計算することにより、衝突確率P(s,a)を計算する。
<Step S3>
The collision probability calculation unit 6 reads from the flow generation probability storage unit 3 and adds the probability that a temporary flow determined to collide with an obstacle is generated, so that the autonomous mobile robot in each state is based on each action. The collision probability P c (s, a) that collides with the obstacle when moving is calculated (step S3). For example, by calculating the sum of the probabilities p g (f g , ψ g ) of each of the temporary flows (f g , ψ g ) in which the collisions included in the set S g occur, the collision probability P c (s , A).

Figure 0004964255
Figure 0004964255

障害物に衝突すると判定された一時的な流れについての情報(例えば、集合Sについての情報)は、衝突流れ記憶部5から読み出す。計算された衝突確率P(s,a)は、報酬決定部7に送られる。 Information about temporary flow that is determined to collide with the obstacle (for example, information about the set S g) reads from the collision flow storage unit 5. The calculated collision probability P c (s, a) is sent to the reward determination unit 7.

<ステップS4>
報酬決定部7は、遷移先の状態s’が到達位置を含む場合の報酬が最も高く、遷移先の状態s’が到達位置を含まない場合には衝突確率P(s,a)が小さいほど報酬が高くなるように、各状態sにある自律移動ロボットが各行動aを取り各状態s’に遷移する場合に得られる報酬r(s,a)を決定する(ステップS4)。決定された報酬r(s,a)は、動的計画部2に送られる。
<Step S4>
The reward determination unit 7 has the highest reward when the transition destination state s ′ includes the arrival position, and the collision probability P c (s, a) is small when the transition destination state s ′ does not include the arrival position. The reward r (s, a) obtained when the autonomous mobile robot in each state s takes each action a and transitions to each state s ′ is determined so that the reward becomes higher (step S4). The determined reward r (s, a) is sent to the dynamic planning unit 2.

関数Fを、単調減少関数とする。単調減少関数とは、任意のx,x(ただし、x<x)に対して、f(x)≧f(x)となる関数fのことを意味する。P(s,a)の定義によりP(s,a)の最小値は0であり最大値は1であるから、関数Fの最大値はF(0)最小値はF(1)である。また、任意の定数Rmaxを、Rmax>F(0)とする。例えば、F(x)=−xとし、Rmax=1とする。このとき、報酬R ss’を例えば次のように決定する。 Let function F be a monotonically decreasing function. The monotone decreasing function means a function f that satisfies f (x 1 ) ≧ f (x 2 ) with respect to arbitrary x 1 , x 2 (where x 1 <x 2 ). P c (s, a) P by the definition of c (s, a) from the minimum value is 0 the maximum value of is 1, the maximum value of the function F is F (0) minimum is F (1) is there. Further, an arbitrary constant R max is set to R max > F (0). For example, F (x) = − x and R max = 1. At this time, to determine the compensation R a ss', for example, as follows.

遷移先の状態s’が到達位置を含む場合⇒R ss’=Rmax
それ以外の場合⇒R ss’=F(P(s,a))
<ステップS5>
動的計画部2は、状態遷移確率及び報酬を用いて、マルコフ決定過程における動的計画法に基づき、自律移動ロボットの上記到達位置への到達しやすさを表す指標を状態ごとに求める(ステップS5)。到達しやすさを表す指標としては、状態価値関数Vπ(s)、行動価値関数Qπ(s,a)及び方策πの何れかを例えば用いることができる。計算された指標は、指標記憶部17に格納される。
When transition destination state s ′ includes an arrival position => R a ss ′ = R max
Otherwise ⇒ R a ss ′ = F (P c (s, a))
<Step S5>
The dynamic planning unit 2 obtains, for each state, an index that represents the ease of reaching the reaching position of the autonomous mobile robot based on the dynamic programming method in the Markov decision process using the state transition probability and the reward (step S5). For example, any one of the state value function V π (s), the behavior value function Q π (s, a), and the policy π can be used as an index representing the ease of reaching. The calculated index is stored in the index storage unit 17.

[マルコフ決定過程]の欄で説明をしたように、状態s、行動a及び遷移先の状態s’の各組合せについての状態遷移確率P ss’及び報酬R ss’が計算されていれば、動的計画法に基づいて、状態価値関数Vπ(s)、行動価値関数Qπ(s,a)及び方策πを計算することができる。 As explained in the column of [Markov decision processes, state s, if it is and calculated reward R a ss' 'state transition probability P a ss for each combination of' action a and destination state s Based on dynamic programming, the state value function V π (s), the action value function Q π (s, a) and the policy π can be calculated.

このように想定外の一時的な流れ(f,ψ)を考慮して報酬R ss’を決定し、この報酬R ss’に基づいて動的計画を行うことにより、生成された動的計画はより破綻しづらくなる。 Thus unexpected temporary flow (f g, ψ g) 'is determined and the reward R a ss' reward R a ss considering the by performing dynamic programming based on, the generated Dynamic planning is less likely to fail.

以上が、自律移動ロボットの動作計画装置及び方法の実施形態について説明である。   The above is the description of the embodiment of the operation planning apparatus and method for the autonomous mobile robot.

[自律移動ロボットの動作制御装置及び方法]
以下、図3及び図12を参照して、生成された動的計画(=指標)を用いて自律移動ロボットの動作を制御する自律移動ロボットの動作制御装置及び方法の実施形態について説明する。
[Operation control apparatus and method for autonomous mobile robot]
Hereinafter, with reference to FIG. 3 and FIG. 12, an embodiment of an operation control apparatus and method for an autonomous mobile robot that controls the operation of the autonomous mobile robot using the generated dynamic plan (= index) will be described.

<ステップA1(図12)>
流速差取得部21(図3)は、動作計画時に予想した予め定められた流れと、流速の実測値との差である流速差を求める(ステップA1)。求まった流速差は、遷移先予測部22に送られる。予め定められた流れのX成分をf、Y成分をfとし、実際の流速のX成分をfxa、Y成分をfyaとすると、流速差dfx,dfyは、それぞれ下記のように表される。
<Step A1 (FIG. 12)>
The flow velocity difference acquisition unit 21 (FIG. 3) obtains a flow velocity difference that is a difference between a predetermined flow predicted at the time of the operation plan and an actual measurement value of the flow velocity (step A1). The obtained flow velocity difference is sent to the transition destination prediction unit 22. The X component of the predetermined flow and f x, the Y component and f y, the actual flow rate of the X component f xa, when the Y component is f ya, flow rate difference d fx, d fy are the following respectively as It is expressed in

fx=f−fxa
fy=f−fya
動作計画時に予想した予め定められた流れを0とした場合には、流速差取得部21は現在の流速の実測値を流速差として求めることができる。
d fx = f x -f xa
d fy = f y -f ya
When the predetermined flow predicted at the time of the operation plan is set to 0, the flow velocity difference acquisition unit 21 can obtain the actual measured value of the current flow velocity as the flow velocity difference.

<ステップA2>
遷移先予測部22は、自律移動ロボットが各行動を取った場合の遷移先の状態s’を、自律移動ロボットの位置を流速差dfx,dfyの分だけ移動させることにより求める(ステップA2)。求まった遷移先の状態s’は、行動決定部23に送られる。
<Step A2>
The transition destination prediction unit 22 obtains the transition destination state s ′ when the autonomous mobile robot takes each action by moving the position of the autonomous mobile robot by the flow velocity differences d fx and d fy (step A2). ). The obtained transition destination state s ′ is sent to the action determining unit 23.

遷移先の状態s’の求め方の例を述べる。
流速差dfxを考慮したときの自律移動ロボットのX軸方向の位置の変位量DXa(ψ,a)と、流速差dfyを考慮したときの自律移動ロボットのY軸方向の位置の変位量DYa(ψ,a)とは、それぞれ以下のように示される。
An example of how to obtain the transition destination state s ′ will be described.
The displacement D Xa0 , a) of the position of the autonomous mobile robot in the X-axis direction when considering the flow velocity difference d fx and the position of the autonomous mobile robot in the Y-axis direction when considering the flow velocity difference d fy The displacement amount D Ya0 , a) is expressed as follows.

Figure 0004964255
Figure 0004964255

遷移先予測部22は、まず、上記式により、すなわち自律移動ロボットの位置を流速差dfx,dfyの分だけ移動させることにより、実際のX軸方向の位置の変位量DXa(ψ,a)及び実際のY軸方向の位置の変位量DYa(ψ,a)を求める。 First, the transition destination prediction unit 22 moves the position of the autonomous mobile robot by the flow velocity differences d fx and d fy by the above-described equation, so that the actual displacement amount X Xa0 , A) and the actual displacement amount D Ya0 , a) in the Y-axis direction.

遷移先予測部22は、次に、下記式により、行動aを取った場合の遷移先の状態s’を求める。具体的には、行動aの開始時における、X軸方向の位置X(s)に、Y軸方向の位置Y(s)、方位角ψ(s)及び旋回速度ψ’(s)に、それぞれ実際のX軸方向の位置の変位量DXa(ψ,a)、実際のY軸方向の位置の変位量DYa(ψ,a)、方位角の変位量Dψ(ψ,a)及び旋回速度ψ’の変位量Dψ’(ψ,a)を加算することにより遷移先の状態s’を求める。 Next, the transition destination predicting unit 22 obtains the transition destination state s ′ when the action a is taken according to the following formula. Specifically, at the start of the action a, the position X (s) in the X-axis direction, the position Y (s) in the Y-axis direction, the azimuth angle ψ 0 (s), and the turning speed ψ ′ 0 (s) , Displacement amounts D Xa0 , a) of actual positions in the X-axis direction, displacement amounts D Ya0 , a) of actual positions in the Y-axis direction, and displacement amounts D ψ0 of azimuth angles) , A) and the displacement D ψ ′0 , a) of the turning speed ψ ′ are added to obtain the transition destination state s ′.

Figure 0004964255
Figure 0004964255

X軸方向の位置X(s)に、Y軸方向の位置Y(s)、方位角ψ(s)及び旋回速度ψ’(s)については、位置計測部25が測定したものを用いる。D(ψ,a)及びD(ψ,a)については、動作計画時に計算したD(ψ,a)及びD(ψ,a)を再利用してもよい。この場合、図示していない記憶部にD(ψ,a)及びD(ψ,a)が記憶され、遷移先予測部22が適宜これらを読み込む。もちろん、遷移先予測部22がこれらを再度計算してもよい。 As the position X (s) in the X-axis direction, the position Y (s), the azimuth angle ψ 0 (s), and the turning speed ψ ′ 0 (s) in the Y-axis direction are those measured by the position measurement unit 25. . The D X0, a) and D Y (ψ 0, a) , D X calculated at the operation plan (ψ 0, a) and D Y0, a) may be reused. In this case, D X0 , a) and D Y0 , a) are stored in a storage unit (not shown), and the transition destination prediction unit 22 reads them appropriately. Of course, the transition destination prediction unit 22 may calculate these again.

<ステップA3>
行動決定部23は、遷移先予測部22が求めた、状態sにおいて取り得る各行動aに従って移動した場合の遷移先の状態s’についての指標を比較して、到達点に最も到達しやすい行動aを決定する(ステップA3)。決定された行動aは、制御部24に送られる。
<Step A3>
The action determination unit 23 compares the indicators for the transition destination state s ′ obtained by the transition destination prediction unit 22 according to each action a that can be taken in the state s, and the action that is most likely to reach the arrival point. a is determined (step A3). The determined action a is sent to the control unit 24.

指標として状態価値関数Vπ(s)を用いた場合には、到達点を含む状態に遷移する場合に得られる報酬が最も高くなるように報酬が決定されているため、状態価値関数Vπ(s)の値を最も大きくする行動aが、到達点に最も到達しやすい行動となる。 In the case of using the state value function V π (s) as an index, since the reward as reward obtained when a transition to a state containing an arrival point is the highest is determined, the state value function V [pi ( The action a that maximizes the value of s) is the action that most easily reaches the reaching point.

したがって、行動決定部23は、指標記憶部17を参照して、状態sにおいて取り得る各行動aに従って移動した場合の遷移先の状態s’における状態価値関数Vπ(s’)をそれぞれ求め、比較することにより、状態価値関数Vπ(s’)の値を最も大きくする行動aを決定する。 Therefore, the action determination unit 23 refers to the index storage unit 17 and obtains the state value function V π (s ′) in the transition destination state s ′ when moving according to each action a that can be taken in the state s. By comparison, the action a that maximizes the value of the state value function V π (s ′) is determined.

<ステップA4>
制御部24は、決定された行動aに従って移動するように、自律移動ロボットを制御する(ステップA4)。具体的には、行動aに対応する目標速度を維持することができるように、自律移動ロボットの主推進器101及び舵103を制御する。
<Step A4>
The control unit 24 controls the autonomous mobile robot to move according to the determined action a (step A4). Specifically, the main propulsion device 101 and the rudder 103 of the autonomous mobile robot are controlled so that the target speed corresponding to the action a can be maintained.

[変形例等]
指標として、上記したように行動価値関数Qπ(s,a)又は方策πを用いてもよい。例えば、行動価値関数Qπ(s,a)を指標として用いた場合、動的計画部2は、状態s、行動a及び遷移先の状態s’の各組合せについての状態遷移確率P ss’及び第一報酬R ss’を用いて、動的計画法に基づいて、行動価値関数Qπ(s,a)を計算する。そして、行動決定部23(図3)は指標である行動価値関数Qπ(s,a)を比較して、到達点に最も到達しやすい行動を決定する。具体的には、行動価値関数Qπ(s,a)がその値が大きい程到達点に到達しやすいことを表すように定められている場合には、遷移前の状態sにおいて取り得る行動を行動a、遷移先の状態s’において取り得る行動を行動a’として、maxa’π(s’,a’)を比較して、maxa’π(s’,a’)を最大にする行動aを選択する。
[Modifications, etc.]
As an index, the action value function Q π (s, a) or the policy π may be used as described above. For example, when the behavior value function Q π (s, a) is used as an index, the dynamic planning unit 2 uses the state transition probability P a ss ′ for each combination of the state s, the behavior a, and the transition destination state s ′. And the behavior value function Q π (s, a) is calculated based on the dynamic programming using the first reward R a ss ′ . Then, the behavior determining unit 23 (FIG. 3) compares the behavior value function Q π (s, a) that is an index to determine the behavior that most easily reaches the reaching point. Specifically, when the action value function Q π (s, a) is determined so as to represent that the reaching point is easily reached as the value increases, actions that can be taken in the state s before the transition are determined. The action a and the action that can be taken in the transition destination state s ′ are set as action a ′, and max a ′ Q π (s ′, a ′) is compared, and max a ′ Q π (s ′, a ′) is maximized. The action a to be selected is selected.

上記自律移動ロボットの動作計画装置及び上記自律移動ロボットの動作制御装置における処理機能は、コンピュータによって実現することができる。この場合、これらの装置がそれぞれ有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、これらの装置における各処理機能が、コンピュータ上で実現される。   The processing functions of the autonomous mobile robot motion planning device and the autonomous mobile robot motion control device can be realized by a computer. In this case, the processing contents of the functions that each of these apparatuses should have are described by a program. Then, by executing this program on a computer, each processing function in these devices is realized on the computer.

この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、これらの装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。   The program describing the processing contents can be recorded on a computer-readable recording medium. In this embodiment, these apparatuses are configured by executing a predetermined program on a computer. However, at least a part of these processing contents may be realized by hardware.

この発明は、上述の実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。   The present invention is not limited to the above-described embodiment, and can be modified as appropriate without departing from the spirit of the present invention.

1 状態遷移確率計算部
11 目標速度計算部
12 変位量計算部
13 確率計算部
2 動的計画部
3 発生確率記憶部
4 衝突判定部
5 記憶部
6 衝突確率計算部
7 報酬決定部
17 指標記憶部
21 流速差取得部
22 遷移先予測部
23 行動決定部
24 制御部
25 位置計測部
DESCRIPTION OF SYMBOLS 1 State transition probability calculation part 11 Target speed calculation part 12 Displacement amount calculation part 13 Probability calculation part 2 Dynamic planning part 3 Occurrence probability memory | storage part 4 Collision determination part 5 Storage part 6 Collision probability calculation part 7 Compensation determination part 17 Index storage part 21 Flow velocity difference acquisition unit 22 Transition destination prediction unit 23 Action determination unit 24 Control unit 25 Position measurement unit

Claims (8)

不定の流速の流れがある流体で満たされ障害物が配置された空間の中で行動単位時間ごとに行動を決定してその行動に基づいて上記行動単位時間だけ移動する動作を繰り返す自律移動ロボットを出発位置から到達位置へ到達させるための動作計画を行う自律移動ロボットの動作計画装置において、
上記空間は、自律移動ロボットの二次元座標(x,y)、方位角ψ及び旋回速度ψ’の4つ次元で構成されるマルコフ遷移状態モデルにより離散的にモデル化されるとして、
予め定められた流れの中で、各状態にある上記自律移動ロボットが各行動を取り上記行動単位時間だけ移動した場合に各状態に遷移する確率である状態遷移確率を計算する状態遷移確率計算部と、
互いに異なる複数の一時的な流れが生じる確率が記憶される流れ発生確率記憶部と、
上記予め定められた流れ、及び、各上記一時的な流れの下で、上記各状態にある上記自律移動ロボットが上記各行動に基づいて移動した場合に、障害物に衝突するか判定する衝突判定部と、
障害物に衝突すると判定された一時的な流れが生じる確率を上記流れ発生確率記憶部から読み込んで加算することにより、上記各状態にある上記自律移動ロボットが上記各行動に基づいて移動した場合に障害物に衝突する衝突確率を計算する衝突確率計算部と、
遷移先の状態が上記到達位置を含む場合の報酬が最も高く、遷移先の状態が上記到達位置を含まない場合には上記衝突確率が小さいほど報酬が高くなるように、各状態にある上記自律移動ロボットが各行動を取り各状態に遷移する場合に得られる報酬を決定する報酬決定部と、
上記状態遷移確率及び上記報酬を用いて、マルコフ決定過程における動的計画法に基づき、上記自律移動ロボットの上記到達位置への到達しやすさを表す指標を状態ごとに求める動的計画部と、
を含む自律移動ロボットの動作計画装置。
An autonomous mobile robot that repeats the movement that moves only for the above behavior unit time based on the behavior determined in the behavior unit time in a space filled with a fluid with an indefinite flow and filled with an obstacle In the motion planning device of an autonomous mobile robot that performs motion planning to reach the arrival position from the departure position,
The space is discretely modeled by a Markov transition state model composed of four dimensions of two-dimensional coordinates (x, y), azimuth angle ψ, and turning speed ψ ′ of an autonomous mobile robot.
State transition probability calculation unit that calculates the state transition probability that is the probability of transitioning to each state when the autonomous mobile robot in each state takes each action and moves for the above behavior unit time in a predetermined flow When,
A flow occurrence probability storage unit that stores a probability of occurrence of a plurality of different temporary flows;
A collision determination that determines whether or not the autonomous mobile robot in each state collides with an obstacle when the autonomous mobile robot in each state moves under the predetermined flow and the temporary flow. And
When the autonomous mobile robot in each state moves based on each action by reading from the flow occurrence probability storage unit and adding the probability that a temporary flow determined to collide with an obstacle is generated A collision probability calculation unit for calculating a collision probability of colliding with an obstacle;
The autonomous system in each state is such that the reward when the transition destination state includes the arrival position is the highest, and the reward is higher as the collision probability is lower when the transition destination state does not include the arrival position. A reward determination unit that determines a reward obtained when the mobile robot takes each action and transitions to each state;
Based on the dynamic programming method in the Markov decision process using the state transition probability and the reward, a dynamic planning unit that obtains an index representing the reachability of the autonomous mobile robot to the reaching position for each state,
An autonomous mobile robot motion planning device.
請求項1に記載の自律移動ロボットの動作計画装置において、
上記衝突判定部は、ある一時的な流れについて障害物に衝突すると判定された場合に、その一時的な流れと方向が同じで速さが速い一時的な流れについても障害物に衝突する一時的な流れであると判定することを特徴とすることを特徴とする自律移動ロボットの動作計画装置。
The operation planning device for an autonomous mobile robot according to claim 1,
When it is determined that the collision determination unit collides with an obstacle for a certain temporary flow, the collision determination unit temporarily collides with the obstacle even for a temporary flow having the same direction and the same speed as the temporary flow. An autonomous mobile robot motion planning device, characterized in that it is determined that the flow is slow.
請求項1又は2に記載の自律移動ロボットの動作計画装置で決まった動作計画に基づき、
不定の流速の流れがある流体で満たされ障害物が配置された空間の中で行動単位時間ごとに行動を決定してその行動に基づいて上記行動単位時間だけ移動する動作を繰り返す自律移動ロボットを出発位置から到達位置へ到達させるように制御する自律移動ロボットの動作制御装置において、
上記予め定められた流れと、流速の実測値との差である流速差を求める流速差取得部と、
上記自律移動ロボットが各行動を取った場合の遷移先の状態を、上記自律移動ロボットの位置を上記流速差の分だけ移動させることにより求める遷移先予測部と、
上記遷移先予測部が求めた遷移先の状態についての上記指標を互いに比較して、上記到達位置に最も到達しやすい行動を決定する行動決定部と、
上記自律移動ロボットが上記決定された行動に従って移動するように、上記自律移動ロボットを制御する制御部と、
を含む自律移動ロボットの動作制御装置。
Based on the motion plan determined by the motion planning device of the autonomous mobile robot according to claim 1 or 2,
An autonomous mobile robot that repeats the movement that moves only for the above behavior unit time based on the behavior determined in the behavior unit time in a space filled with a fluid with an indefinite flow and filled with an obstacle In the autonomous mobile robot motion control device that controls to reach the arrival position from the departure position,
A flow velocity difference acquisition unit for obtaining a flow velocity difference which is a difference between the predetermined flow and an actual measurement value of the flow velocity;
A transition destination prediction unit for obtaining a state of a transition destination when the autonomous mobile robot takes each action by moving the position of the autonomous mobile robot by the amount of the flow velocity difference; and
An action determination unit that compares the indicators for the state of the transition destination obtained by the transition destination prediction unit with each other and determines an action that is most likely to reach the arrival position;
A control unit that controls the autonomous mobile robot so that the autonomous mobile robot moves according to the determined behavior;
Control device for autonomous mobile robot including
不定の流速の流れがある流体で満たされ障害物が配置された空間の中で行動単位時間ごとに行動を決定してその行動に基づいて上記行動単位時間だけ移動する動作を繰り返す自律移動ロボットを出発位置から到達位置へ到達させるための動作計画を行う自律移動ロボットの動作計画方法において、
上記空間は、自律移動ロボットの二次元座標(x,y)、方位角ψ及び旋回速度ψ’の4つ次元で構成されるマルコフ遷移状態モデルにより離散的にモデル化されており、
流れ発生確率記憶部には、互いに異なる複数の一時的な流れが生じる確率が記憶されており、
状態遷移確率計算部が、予め定められた流れの中で、各状態にある上記自律移動ロボットが各行動を取り上記行動単位時間だけ移動した場合に各状態に遷移する確率である状態遷移確率を計算する状態遷移確率計算ステップと、
衝突判定部が、上記予め定められた流れ、及び、各上記一時的な流れの下で、上記各状態にある上記自律移動ロボットが上記各行動に基づいて移動した場合に、障害物に衝突するか判定する衝突判定ステップと、
衝突確率計算部が、障害物に衝突すると判定された一時的な流れが生じる確率を上記流れ発生確率記憶部から読み込んで加算することにより、上記各状態にある上記自律移動ロボットが上記各行動に基づいて移動した場合に障害物に衝突する衝突確率を計算する衝突確率計算ステップと、
報酬決定部が、遷移先の状態が上記到達位置を含む場合の報酬が最も高く、遷移先の状態が上記到達位置を含まない場合には上記衝突確率が小さいほど報酬が高くなるように、各状態にある上記自律移動ロボットが各行動を取り各状態に遷移する場合に得られる報酬を決定する報酬決定ステップと、
動的計画部が、上記状態遷移確率及び上記報酬を用いて、マルコフ決定過程における動的計画法に基づき、上記自律移動ロボットの上記到達位置への到達しやすさを表す指標を状態ごとに求める動的計画ステップと、
を含む自律移動ロボットの動作計画方法。
An autonomous mobile robot that repeats the movement that moves only for the above behavior unit time based on the behavior determined in the behavior unit time in a space filled with a fluid with an indefinite flow and filled with an obstacle In the operation planning method of an autonomous mobile robot that performs an operation plan to reach the arrival position from the departure position,
The above space is discretely modeled by a Markov transition state model composed of four dimensions of the two-dimensional coordinates (x, y), azimuth angle ψ and turning speed ψ ′ of the autonomous mobile robot.
The flow occurrence probability storage unit stores the probability of occurrence of a plurality of different temporary flows from each other,
A state transition probability calculation unit calculates a state transition probability that is a probability of transitioning to each state when the autonomous mobile robot in each state takes each action and moves for the action unit time in a predetermined flow. A state transition probability calculation step to be calculated;
The collision determination unit collides with an obstacle when the autonomous mobile robot in each state moves based on each action under the predetermined flow and each temporary flow. A collision determination step for determining whether or not
The collision probability calculation unit reads from the flow generation probability storage unit and adds the probability that a temporary flow determined to collide with an obstacle is added. A collision probability calculation step for calculating the collision probability of colliding with an obstacle when moving based on
Each reward determination unit has the highest reward when the transition destination state includes the arrival position, and when the transition destination state does not include the arrival position, the reward increases as the collision probability decreases. A reward determination step for determining a reward obtained when the autonomous mobile robot in a state takes each action and transitions to each state;
The dynamic planning unit obtains, for each state, an index indicating the ease of reaching the reaching position of the autonomous mobile robot based on the dynamic programming method in the Markov decision process using the state transition probability and the reward. A dynamic planning step;
Planning method for autonomous mobile robots.
請求項4に記載の自律移動ロボットの動作計画方法において、
上記衝突判定ステップは、ある一時的な流れについて障害物に衝突すると判定された場合に、その一時的な流れと方向が同じで速さが速い一時的な流れについても障害物に衝突する一時的な流れであると判定することを特徴とすることを特徴とする自律移動ロボットの動作計画方法。
The operation planning method for an autonomous mobile robot according to claim 4,
In the collision determination step, when it is determined that a certain temporary flow collides with an obstacle, a temporary flow that has the same direction and a high speed as the temporary flow also collides with the obstacle. An autonomous mobile robot motion planning method, characterized in that it is determined that the flow is slow.
請求項4又は5に記載の自律移動ロボットの動作計画方法で決まった動作計画に基づき、不定の流速の流れがある流体で満たされ障害物が配置された空間の中で行動単位時間ごとに行動を決定してその行動に基づいて上記行動単位時間だけ移動する動作を繰り返す自律移動ロボットを出発位置から到達位置へ到達させるように制御する自律移動ロボットの動作制御方法において、
流速差取得部が、上記予め定められた流れと、流速の実測値との差である流速差を求める流速差取得ステップと、
遷移先予測部が、上記自律移動ロボットが各行動を取った場合の遷移先の状態を、上記自律移動ロボットの位置を上記流速差の分だけ移動させることにより求める遷移先予測ステップと、
行動決定部が、上記遷移先予測部が求めた遷移先の状態についての上記指標を互いに比較して、上記到達位置に最も到達しやすい行動を決定する行動決定ステップと、
制御部が、上記自律移動ロボットが上記決定された行動に従って移動するように、上記自律移動ロボットを制御する制御ステップと、
を含む自律移動ロボットの動作制御方法。
Based on the motion plan determined by the motion planning method of the autonomous mobile robot according to claim 4 or 5, the behavior is performed for each behavior unit time in a space filled with a fluid having an indefinite flow velocity and in which an obstacle is arranged. In an autonomous mobile robot operation control method for controlling an autonomous mobile robot that repeats the movement of the above behavior unit time based on the behavior to reach the arrival position from the departure position,
A flow rate difference acquisition unit for obtaining a flow rate difference that is a difference between the predetermined flow and an actual measurement value of the flow rate;
A transition destination prediction step in which the transition destination prediction unit obtains the state of the transition destination when the autonomous mobile robot takes each action by moving the position of the autonomous mobile robot by the amount of the flow velocity difference;
An action determination unit that compares the indicators for the state of the transition destination obtained by the transition destination prediction unit with each other and determines an action that is most likely to reach the arrival position;
A control unit that controls the autonomous mobile robot such that the autonomous mobile robot moves according to the determined behavior;
Control method of autonomous mobile robot including
請求項1又は2に記載の自律移動ロボットの動作計画装置をコンピュータに実行させるための自律移動ロボットの動作計画プログラム。   An autonomous mobile robot motion planning program for causing a computer to execute the autonomous mobile robot motion planning device according to claim 1. 請求項7に記載の自律移動ロボットの動作計画プログラムを記録したコンピュータ読み取り可能な記録媒体。   The computer-readable recording medium which recorded the operation plan program of the autonomous mobile robot of Claim 7.
JP2009004996A 2009-01-13 2009-01-13 Autonomous mobile robot operation planning apparatus, method, program and recording medium, and autonomous mobile robot operation control apparatus and method Expired - Fee Related JP4964255B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009004996A JP4964255B2 (en) 2009-01-13 2009-01-13 Autonomous mobile robot operation planning apparatus, method, program and recording medium, and autonomous mobile robot operation control apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009004996A JP4964255B2 (en) 2009-01-13 2009-01-13 Autonomous mobile robot operation planning apparatus, method, program and recording medium, and autonomous mobile robot operation control apparatus and method

Publications (2)

Publication Number Publication Date
JP2010165050A JP2010165050A (en) 2010-07-29
JP4964255B2 true JP4964255B2 (en) 2012-06-27

Family

ID=42581177

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009004996A Expired - Fee Related JP4964255B2 (en) 2009-01-13 2009-01-13 Autonomous mobile robot operation planning apparatus, method, program and recording medium, and autonomous mobile robot operation control apparatus and method

Country Status (1)

Country Link
JP (1) JP4964255B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6189784B2 (en) * 2014-04-09 2017-08-30 日本電信電話株式会社 Behavior control device, method and program
US11077555B1 (en) * 2015-12-07 2021-08-03 AI Incorporated Method to minimize collisions of mobile robotic device

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05178294A (en) * 1992-01-08 1993-07-20 Mitsubishi Heavy Ind Ltd Space apparatus control device
JP2952397B2 (en) * 1994-08-23 1999-09-27 科学技術庁航空宇宙技術研究所長 Active air control aircraft using air speed vector measurement device
JP4932269B2 (en) * 2006-02-07 2012-05-16 三菱電機株式会社 Mobile simulator
JP4406436B2 (en) * 2006-04-26 2010-01-27 日本電信電話株式会社 Autonomous mobile robot motion planning method, autonomous mobile robot control method using autonomous mobile robot motion planning method, autonomous mobile robot motion planning device, autonomous mobile robot motion planning program and its recording medium, autonomous mobile robot control program
JP4690239B2 (en) * 2006-04-27 2011-06-01 ヤマハ発動機株式会社 Unmanned helicopter
JP2007290647A (en) * 2006-04-27 2007-11-08 Yamaha Motor Co Ltd Unmanned helicopter and external environment estimating device
JP4495703B2 (en) * 2006-08-24 2010-07-07 日本電信電話株式会社 Operation control method, apparatus and program for underwater robot
JP5082433B2 (en) * 2006-12-26 2012-11-28 トヨタ自動車株式会社 Method, apparatus, and program for determining surrounding object risk

Also Published As

Publication number Publication date
JP2010165050A (en) 2010-07-29

Similar Documents

Publication Publication Date Title
Cesari et al. Scenario model predictive control for lane change assistance and autonomous driving on highways
JP6494872B2 (en) Method for controlling vehicle motion and vehicle control system
US10994729B2 (en) System and method for controlling lateral motion of vehicle
JP4406436B2 (en) Autonomous mobile robot motion planning method, autonomous mobile robot control method using autonomous mobile robot motion planning method, autonomous mobile robot motion planning device, autonomous mobile robot motion planning program and its recording medium, autonomous mobile robot control program
JP6917878B2 (en) Mobile behavior prediction device
JP4495703B2 (en) Operation control method, apparatus and program for underwater robot
Petrich et al. Map-based long term motion prediction for vehicles in traffic environments
JP6939513B2 (en) Model prediction controller
JP5391164B2 (en) Autonomous mobile robot motion planning method, autonomous mobile robot control method using autonomous mobile robot motion planning method, autonomous mobile robot motion planning device, autonomous mobile robot motion control device, autonomous mobile robot motion planning program, autonomous mobile robot Mobile robot control program
KR101048098B1 (en) Robot route planning device and method
JP4746349B2 (en) Robot action selection device and robot action selection method
JP2005339241A (en) Model prediction controller, and vehicular recommended manipulated variable generating device
Berntorp et al. Positive invariant sets for safe integrated vehicle motion planning and control
US20200174482A1 (en) Online bidirectional trajectory planning method in state-time space, recording medium storing program for executing same, and computer program stored in recording medium for executing same
KR102176483B1 (en) Deep Learning-based Vehicle Trajectory Prediction Method and Apparatus using Rasterized Lane Information
JP2020160603A (en) Route determination device, robot, and route determination method
JP7125286B2 (en) Behavior prediction device and automatic driving device
WO2021095464A1 (en) Robot control model learning method, robot control model learning device, robot control model learning program, robot control method, robot control device, robot control program, and robot
Ferrari et al. A potential field approach to finding minimum-exposure paths in wireless sensor networks
JP5079602B2 (en) Autonomous mobile robot operation planning apparatus, method, program and recording medium, and autonomous mobile robot operation control apparatus and method
US11383704B2 (en) Enhanced vehicle operation
JP4964255B2 (en) Autonomous mobile robot operation planning apparatus, method, program and recording medium, and autonomous mobile robot operation control apparatus and method
Rothmund et al. Risk-based obstacle avoidance in unknown environments using scenario-based predictive control for an inspection drone equipped with range finding sensors
Guirguis et al. ROS-based Model Predictive Trajectory Tracking Control Architecture using LiDAR-Based Mapping and Hybrid A Planning
Li et al. Safe autonomous navigation for systems with learned SE (3) Hamiltonian dynamics

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110105

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20110715

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120321

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120327

R150 Certificate of patent or registration of utility model

Ref document number: 4964255

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150406

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees