JP4875080B2 - コントローラ - Google Patents
コントローラ Download PDFInfo
- Publication number
- JP4875080B2 JP4875080B2 JP2008524597A JP2008524597A JP4875080B2 JP 4875080 B2 JP4875080 B2 JP 4875080B2 JP 2008524597 A JP2008524597 A JP 2008524597A JP 2008524597 A JP2008524597 A JP 2008524597A JP 4875080 B2 JP4875080 B2 JP 4875080B2
- Authority
- JP
- Japan
- Prior art keywords
- control
- model
- state
- mdp
- controller
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 claims description 62
- 230000009471 action Effects 0.000 claims description 54
- 238000005259 measurement Methods 0.000 claims description 35
- 230000006870 function Effects 0.000 claims description 29
- 230000008569 process Effects 0.000 claims description 29
- 239000002245 particle Substances 0.000 claims description 17
- 238000011156 evaluation Methods 0.000 claims description 16
- 230000000875 corresponding effect Effects 0.000 claims description 13
- 230000008901 benefit Effects 0.000 claims description 12
- 238000005070 sampling Methods 0.000 claims description 10
- 230000007704 transition Effects 0.000 claims description 9
- 230000001276 controlling effect Effects 0.000 claims description 4
- 230000008859 change Effects 0.000 claims description 2
- 238000004590 computer program Methods 0.000 claims 1
- 238000013461 design Methods 0.000 description 22
- 238000013459 approach Methods 0.000 description 19
- 230000006399 behavior Effects 0.000 description 15
- 239000011159 matrix material Substances 0.000 description 6
- 239000000203 mixture Substances 0.000 description 6
- 238000012544 monitoring process Methods 0.000 description 6
- 239000012636 effector Substances 0.000 description 5
- 238000013507 mapping Methods 0.000 description 5
- 238000000342 Monte Carlo simulation Methods 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 4
- 238000012886 linear function Methods 0.000 description 4
- 238000009472 formulation Methods 0.000 description 3
- 230000002787 reinforcement Effects 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 238000012952 Resampling Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000007654 immersion Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 239000000575 pesticide Substances 0.000 description 2
- 238000005507 spraying Methods 0.000 description 2
- 230000006641 stabilisation Effects 0.000 description 2
- 238000011105 stabilization Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 206010020400 Hostility Diseases 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000003339 best practice Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001364 causal effect Effects 0.000 description 1
- 239000002826 coolant Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000000968 intestinal effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000006187 pill Substances 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0205—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric not using a model or a simulator of the controlled system
- G05B13/024—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric not using a model or a simulator of the controlled system in which a parameter or coefficient is automatically adjusted to optimise the performance
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B17/00—Systems involving the use of models or simulators of said systems
- G05B17/02—Systems involving the use of models or simulators of said systems electric
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Feedback Control In General (AREA)
- Testing And Monitoring For Control Systems (AREA)
- Testing Or Calibration Of Command Recording Devices (AREA)
- Selective Calling Equipment (AREA)
Description
システムの動的進化の確率の少なくとも1つの集合と、システムの前記複数のセンサに対して対応する測定モデルとを定義するシステムモデルと、
前記複数のセンサから測定データを受け取り、前記システムモデルを参照して、それぞれがシステムの状態を表す複数のサンプルを生成するように動作する確率論的な推定器と、
システムの考えられる状態を表す複数の考えられるサンプルのそれぞれについて、システム内で実施される動作を定義する情報を定義する前記システムモデルに対応する規則集合と、
前記確率論的な推定器の出力を受け取り、前記規則集合を参照して、システムで実行される1つ以上の対応する動作を定義する情報を選択するように動作する動作セレクタと、
を備える。
・システム状態Stは、時間「t」での状態が以前の時間の状態だけによって影響を及ぼされるように隠れマルコフプロセスによって決定される。
ある特定のシステム及びある特定の制御問題に関してコントローラ100のセットアップのために従うことができる設計段階プロセスの概要が、本発明の好ましい実施形態に従って図3に関して本明細書で説明される。設計段階プロセスは、好ましくはコントローラ100のオンライン動作の前のオフラインプロセスとして動作し、ある特定のシステム110及び制御問題に関して確率システムモデル120及び制御規則集合125を入力するように設計されている。実際には、設計段階プロセスは計算集約的である。
本発明の好ましい実施態様に最も関連性のある制御問題は、多岐に渡る適用例で、また幅広い範囲の操作要求に対して発生する。これらは複数の工場の監視制御、人間のパイロットによる民間航空機または軍用機の飛行、または補助的なオートパイロットによって拡大される自律コントローラ及びターゲットを追跡するため、または地形を探検するための複数のロボットセンサプラットホームの協調制御を含む。これらの分散制御システムの中心的な問題は、多数の別々の要件によって動かされる別々の制御動作の連携の必要性である。
Claims (5)
- システムの状態を示す複数のセンサから受け取られた測定データに基づいてシステムを制御するように動作するコントローラであって、
システムモデルと、前記システムの前記複数のセンサに対して対応する測定モデルと、
前記複数のセンサから測定データを受け取り、前記システムモデルを参照して、それぞれが前記システムの状態を表す複数のサンプルを生成するように動作する確率論的推定器と、
前記システムの考えられる状態を表す複数の考えられるサンプルのそれぞれについて、前記システムで実施される動作を定義する情報を定義する前記システムモデルに対応する規則集合と、
前記確率論的推定器の出力を受け取り、前記規則集合を参照して、前記システムで実行される1つ以上の対応する動作を定義する情報を選択するように動作する動作セレクタと、
を備え、
前記コントローラは、選択された制御動作が不確実な結果を有する環境において前記システムの自律的な動作を可能にする、前記システムを制御する方法を使用して、前記システムを制御するように動作し、
前記方法は、
(i)制御される前記システムのダイナミクスを表す最初の部分的観測マルコフ決定過程(POMDP)モデルであって、システムの状態の表現と、測定モデルと、1つ以上の制御動作と、特定の制御動作を選択することから生じる利益の測度とを含むPOMDPモデルを構築するステップと、
(ii)前記最初のPOMDPモデルを補助的なマルコフ決定過程(MDP)モデルに変換することによって前記補助的なMDPモデルに対するサンプル状態空間表現を生成し、前記サンプル状態空間表現を使用して、最初の確率システムモデルと制御規則集合とを生成するステップと、
(iii)複数のセンサによる前記システムの観測値と前記環境の観測値とを使用して、選択された制御動作の観測結果に基づいて、且つ前記利益の測度を参照して、前記補助的なMDPの、前記確率システムモデルと前記制御規則集合とを更新するステップと、
を含む、コントローラ。 - 選択された制御動作が不確実な結果を有する環境においてシステムの自律的な動作を可能にする、前記システムを制御する方法であって、
(i)制御される前記システムのダイナミクスを表す最初の部分的観測マルコフ決定過程(POMDP)モデルであって、システムの状態の表現と、測定モデルと、1つ以上の制御動作と、特定の制御動作を選択することから生じる利益の測度とを含むPOMDPモデルを構築するステップと、
(ii)前記最初のPOMDPモデルを補助的なマルコフ決定過程(MDP)モデルに変換することによって前記補助的なMDPモデルに対するサンプル状態空間表現を生成し、前記サンプル状態空間表現を使用して、最初の確率システムモデルと制御規則集合とを生成するステップと、
(iii)複数のセンサによる前記システムの観測値と前記環境の観測値とを使用して、選択された制御動作の観測結果に基づいて、且つ前記利益の測度を参照して、前記補助的なMDPの、前記確率システムモデルと前記制御規則集合とを更新するステップと、
を含む、方法。 - ステップ(ii)は、
前記測定モデルを参照して、状態部分空間の集合を特定するステップと、
各状態部分空間における不確実性を表すのに十分な数のサンプルを選択して、統計サンプリングと粒子フィルタの適用とによって、所定の制御問題に特定のサンプル状態空間表現を生成するステップと、
必要に応じて再正規化される、前記最初のPOMDPモデルからの状態遷移確率の組み合わせの積をとることによって条件付きサンプル−状態遷移確率を計算して、前記サンプル状態空間表現に基づく動的モデルを生成するステップと、
前記サンプル状態空間表現に関する1つ以上の平均評価関数を生成して、前記サンプル状態空間表現及び前記動的モデルと、前記1つ以上の平均評価関数とを組み合わせて、前記最初のPOMDPモデルに対する補助的なMDPとして、前記所定の制御問題を再定義するステップと、
MDP解法アルゴリズムを使用して前記補助的なMDPを解いて、前記システムに対する最初の最適制御解を取得して、前記最初の最適制御解を表にして、前記システムに対する前記制御規則集合を生成するステップと、
を含む、請求項2に記載の方法。 - ステップ(iii)は、
前の観測値を与えた前記システムの1つ以上の状態の再帰的推定値と、将来の制御動作の利益からの純利益の対応する再帰的推定値とを構築するステップと、
現在のサンプルの状態と前記制御規則集合とに基づいて、実行された場合に、前記システムの状態の時間に伴う漸進的な変化に影響を及ぼす1つ以上の制御動作を特定するステップと、
前記1つ以上の制御動作から選択された1つの制御動作と、結果として得られた前記システムの状態とに基づく、前記選択された1つの制御動作の利益を表す直接評価と、考えられる直接評価の範囲から計算され且つ前記システムの全体的な性能を表す予測純利益とを受け取るステップと、
前記観測された測定値と、前記受け取った直接評価と、前記純利益とに基づいて、前記制御規則集合と前記確率システムモデルとを反復的に更新して、前記システムと環境とにおける変化に応答して、将来の制御動作に対する基準を改善するステップと、
を含む、請求項1又は2に記載の方法。 - コンピュータにロードされて実行されたときに、請求項2乃至4の何れか1項に記載の方法を実施する、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB0613955.4 | 2006-07-13 | ||
GBGB0613955.4A GB0613955D0 (en) | 2006-07-13 | 2006-07-13 | Controller |
PCT/GB2007/050391 WO2008007137A1 (en) | 2006-07-13 | 2007-07-10 | Controller |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008537271A JP2008537271A (ja) | 2008-09-11 |
JP4875080B2 true JP4875080B2 (ja) | 2012-02-15 |
Family
ID=37671413
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008524597A Expired - Fee Related JP4875080B2 (ja) | 2006-07-13 | 2007-07-10 | コントローラ |
Country Status (6)
Country | Link |
---|---|
US (1) | US7966276B2 (ja) |
EP (2) | EP2341404A3 (ja) |
JP (1) | JP4875080B2 (ja) |
AU (1) | AU2007274026B2 (ja) |
GB (1) | GB0613955D0 (ja) |
WO (1) | WO2008007137A1 (ja) |
Families Citing this family (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012518326A (ja) * | 2009-02-13 | 2012-08-09 | テレフオンアクチーボラゲット エル エム エリクソン(パブル) | リソースデータを処理するための方法及び装置 |
WO2010101749A1 (en) | 2009-03-05 | 2010-09-10 | Massachusetts Institute Of Technology | Predictive semi-autonomous vehicle navigation system |
US20110257768A1 (en) * | 2010-03-26 | 2011-10-20 | International Business Machines Corporation | Control of a dynamic system cross reference to related application |
US8494690B2 (en) * | 2011-04-26 | 2013-07-23 | The Boeing Company | Flight controller management system with a backdrive monitor |
US8965834B2 (en) | 2011-12-07 | 2015-02-24 | Extendabrain Corporation | Particle methods for nonlinear control |
US10366325B2 (en) | 2011-12-07 | 2019-07-30 | Paul Burchard | Sparse neural control |
US8938348B2 (en) * | 2011-12-13 | 2015-01-20 | Mitsubishi Electric Research Laboratories, Inc. | Method for optimizing run curve of vehicles |
US20130184838A1 (en) * | 2012-01-06 | 2013-07-18 | Michigan Aerospace Corporation | Resource optimization using environmental and condition-based monitoring |
US11495213B2 (en) * | 2012-07-23 | 2022-11-08 | University Of Southern California | Noise speed-ups in hidden markov models with applications to speech recognition |
US20140122396A1 (en) * | 2012-10-29 | 2014-05-01 | Qualcomm Incorporated | Rules engine as a platform for mobile applications |
JP6147691B2 (ja) * | 2014-03-27 | 2017-06-14 | 株式会社デンソーアイティーラボラトリ | 駐車スペース案内システム、駐車スペース案内方法、及びプログラム |
US11256982B2 (en) | 2014-07-18 | 2022-02-22 | University Of Southern California | Noise-enhanced convolutional neural networks |
US10896383B2 (en) | 2014-08-07 | 2021-01-19 | Okinawa Institute Of Science And Technology School Corporation | Direct inverse reinforcement learning with density ratio estimation |
EP3178040A4 (en) * | 2014-08-07 | 2018-04-04 | Okinawa Institute of Science and Technology School Corporation | Inverse reinforcement learning by density ratio estimation |
US20170336764A1 (en) * | 2014-11-04 | 2017-11-23 | Douglas A. Samuelson | Machine Learning and Robust Automatic Control of Complex Systems with Stochastic Factors |
US9745060B2 (en) * | 2015-07-17 | 2017-08-29 | Topcon Positioning Systems, Inc. | Agricultural crop analysis drone |
RU2623464C2 (ru) * | 2015-07-22 | 2017-06-26 | Акционерное общество "Научно-производственное объединение автоматики имени академика Н.А. Семихатова" | Способ идентификации характеристик и возмущений динамических объектов в стохастических системах автоматического управления |
US10540598B2 (en) * | 2015-09-09 | 2020-01-21 | International Business Machines Corporation | Interpolation of transition probability values in Markov decision processes |
US10528883B2 (en) * | 2015-09-09 | 2020-01-07 | International Business Machines Corporation | Hybrid estimation of transition probability values in markov decision processes |
US10231441B2 (en) | 2015-09-24 | 2019-03-19 | Digi-Star, Llc | Agricultural drone for use in livestock feeding |
US10321663B2 (en) | 2015-09-24 | 2019-06-18 | Digi-Star, Llc | Agricultural drone for use in livestock monitoring |
US9807932B2 (en) * | 2015-10-02 | 2017-11-07 | Deere & Company | Probabilistic control of an agricultural machine |
US10839302B2 (en) | 2015-11-24 | 2020-11-17 | The Research Foundation For The State University Of New York | Approximate value iteration with complex returns by bounding |
WO2017213064A1 (ja) * | 2016-06-09 | 2017-12-14 | 日本電気株式会社 | 車両制御システム、車両制御方法およびプログラム記録媒体 |
US11062225B2 (en) * | 2016-12-09 | 2021-07-13 | Adobe Inc. | Techniques for providing sequential recommendations to users |
CA3052951C (en) * | 2017-02-10 | 2023-03-14 | Nissan North America, Inc. | Autonomous vehicle operational management |
CA3052954C (en) * | 2017-02-10 | 2023-04-04 | Nissan North America, Inc. | Autonomous vehicle operational management including operating a partially observable markov decision process model instance |
US11605304B2 (en) * | 2017-03-06 | 2023-03-14 | International Business Machines Corporation | Learning of policy for selection of associative topic in dialog system |
FR3066755B1 (fr) * | 2017-05-23 | 2019-06-07 | Airbus Operations | Procede et dispositif de surveillance et d'estimation de parametres relatifs au vol d'un aeronef. |
WO2019089015A1 (en) | 2017-10-31 | 2019-05-09 | Nissan North America, Inc. | Autonomous vehicle operation with explicit occlusion reasoning |
US11874120B2 (en) | 2017-12-22 | 2024-01-16 | Nissan North America, Inc. | Shared autonomous vehicle operational management |
US20190220016A1 (en) * | 2018-01-15 | 2019-07-18 | Uber Technologies, Inc. | Discrete Decision Architecture for Motion Planning System of an Autonomous Vehicle |
US11119507B2 (en) * | 2018-06-27 | 2021-09-14 | Intel Corporation | Hardware accelerator for online estimation |
US10882522B2 (en) | 2018-09-13 | 2021-01-05 | Toyota Research Institute, Inc. | Systems and methods for agent tracking |
DE102018216561A1 (de) * | 2018-09-27 | 2020-04-02 | Robert Bosch Gmbh | Verfahren, Vorrichtung und Computerprogramm zum Ermitteln einer Strategie eines Agenten |
US11184232B2 (en) | 2018-11-26 | 2021-11-23 | Eagle Technology, Llc | Radio frequency (RF) communication system providing enhanced RF equipment configuration updates for mobile vehicles based upon reward matrices and related methods |
US11095360B2 (en) * | 2018-11-26 | 2021-08-17 | Eagle Technology, Llc | Radio frequency (RF) communication system providing enhanced mobile vehicle positioning based upon reward matrices and related methods |
US10523342B1 (en) * | 2019-03-12 | 2019-12-31 | Bae Systems Information And Electronic Systems Integration Inc. | Autonomous reinforcement learning method of receiver scan schedule control |
US11126891B2 (en) * | 2019-09-11 | 2021-09-21 | Toyota Research Institute, Inc. | Systems and methods for simulating sensor data using a generative model |
US11635758B2 (en) | 2019-11-26 | 2023-04-25 | Nissan North America, Inc. | Risk aware executor with action set recommendations |
US11899454B2 (en) | 2019-11-26 | 2024-02-13 | Nissan North America, Inc. | Objective-based reasoning in autonomous vehicle decision-making |
US11613269B2 (en) | 2019-12-23 | 2023-03-28 | Nissan North America, Inc. | Learning safety and human-centered constraints in autonomous vehicles |
US11300957B2 (en) | 2019-12-26 | 2022-04-12 | Nissan North America, Inc. | Multiple objective explanation and control interface design |
US11577746B2 (en) | 2020-01-31 | 2023-02-14 | Nissan North America, Inc. | Explainability of autonomous vehicle decision making |
US11714971B2 (en) | 2020-01-31 | 2023-08-01 | Nissan North America, Inc. | Explainability of autonomous vehicle decision making |
US11782438B2 (en) | 2020-03-17 | 2023-10-10 | Nissan North America, Inc. | Apparatus and method for post-processing a decision-making model of an autonomous vehicle using multivariate data |
GB2593541A (en) * | 2020-03-27 | 2021-09-29 | Airbus Operations Ltd | Control system |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005078516A (ja) * | 2003-09-02 | 2005-03-24 | Advanced Telecommunication Research Institute International | 並列学習装置、並列学習方法及び並列学習プログラム |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5608843A (en) * | 1994-08-01 | 1997-03-04 | The United States Of America As Represented By The Secretary Of The Air Force | Learning controller with advantage updating algorithm |
US5864773A (en) * | 1995-11-03 | 1999-01-26 | Texas Instruments Incorporated | Virtual sensor based monitoring and fault detection/classification system and method for semiconductor processing equipment |
US6278961B1 (en) * | 1997-07-02 | 2001-08-21 | Nonlinear Solutions, Inc. | Signal and pattern detection or classification by estimation of continuous dynamical models |
US6353815B1 (en) | 1998-11-04 | 2002-03-05 | The United States Of America As Represented By The United States Department Of Energy | Statistically qualified neuro-analytic failure detection method and system |
US6917925B2 (en) * | 2001-03-30 | 2005-07-12 | Intelligent Inference Systems Corporation | Convergent actor critic-based fuzzy reinforcement learning apparatus and method |
US6868310B2 (en) * | 2001-04-06 | 2005-03-15 | Eni Technology, Inc. | Predictive failure scheme for industrial thin films processing power delivery system |
US7539597B2 (en) * | 2001-04-10 | 2009-05-26 | Smartsignal Corporation | Diagnostic systems and methods for predictive condition monitoring |
US6738682B1 (en) * | 2001-09-13 | 2004-05-18 | Advances Micro Devices, Inc. | Method and apparatus for scheduling based on state estimation uncertainties |
SE522691C3 (sv) * | 2002-06-12 | 2004-04-07 | Abb Ab | Dynamisk on-line-optimering av produktionsprocesser |
CA2495147C (en) * | 2002-08-09 | 2013-02-12 | O. Patrick Kreidl | Control systems and methods using a partially-observable markov decision process (po-mdp) |
US6823675B2 (en) * | 2002-11-13 | 2004-11-30 | General Electric Company | Adaptive model-based control systems and methods for controlling a gas turbine |
US7128167B2 (en) * | 2002-12-27 | 2006-10-31 | Schlumberger Technology Corporation | System and method for rig state detection |
US7296007B1 (en) * | 2004-07-06 | 2007-11-13 | Ailive, Inc. | Real time context learning by software agents |
US7536595B1 (en) * | 2005-10-19 | 2009-05-19 | At&T Intellectual Property, Ii, L.P. | Systems, devices, and methods for initiating recovery |
-
2006
- 2006-07-13 GB GBGB0613955.4A patent/GB0613955D0/en not_active Ceased
-
2007
- 2007-07-10 EP EP11161444.2A patent/EP2341404A3/en not_active Withdrawn
- 2007-07-10 JP JP2008524597A patent/JP4875080B2/ja not_active Expired - Fee Related
- 2007-07-10 EP EP07766433A patent/EP2041631A1/en not_active Withdrawn
- 2007-07-10 US US11/884,565 patent/US7966276B2/en not_active Expired - Fee Related
- 2007-07-10 AU AU2007274026A patent/AU2007274026B2/en not_active Ceased
- 2007-07-10 WO PCT/GB2007/050391 patent/WO2008007137A1/en active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005078516A (ja) * | 2003-09-02 | 2005-03-24 | Advanced Telecommunication Research Institute International | 並列学習装置、並列学習方法及び並列学習プログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2008007137A1 (en) | 2008-01-17 |
US7966276B2 (en) | 2011-06-21 |
EP2341404A2 (en) | 2011-07-06 |
US20090299496A1 (en) | 2009-12-03 |
AU2007274026B2 (en) | 2011-07-14 |
EP2341404A3 (en) | 2017-07-26 |
EP2041631A1 (en) | 2009-04-01 |
JP2008537271A (ja) | 2008-09-11 |
AU2007274026A1 (en) | 2008-01-17 |
GB0613955D0 (en) | 2007-01-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4875080B2 (ja) | コントローラ | |
Brunke et al. | Safe learning in robotics: From learning-based control to safe reinforcement learning | |
Wang et al. | Adaptive and extendable control of unmanned surface vehicle formations using distributed deep reinforcement learning | |
Qiu et al. | RMIX: Learning risk-sensitive policies for cooperative reinforcement learning agents | |
Precup et al. | Grey wolf optimizer-based approaches to path planning and fuzzy logic-based tracking control for mobile robots | |
Botteghi et al. | On reward shaping for mobile robot navigation: A reinforcement learning and SLAM based approach | |
Berkenkamp | Safe exploration in reinforcement learning: Theory and applications in robotics | |
Dalmau et al. | Air traffic control using message passing neural networks and multi-agent reinforcement learning | |
Zhou et al. | Decentralized optimal large scale multi-player pursuit-evasion strategies: A mean field game approach with reinforcement learning | |
Bouton et al. | Utility decomposition with deep corrections for scalable planning under uncertainty | |
Slade et al. | Simultaneous active parameter estimation and control using sampling-based Bayesian reinforcement learning | |
Bai et al. | Learning-based multi-UAV flocking control with limited visual field and instinctive repulsion | |
Mustafa | Towards continuous control for mobile robot navigation: A reinforcement learning and slam based approach | |
Dyro et al. | Particle MPC for uncertain and learning-based control | |
Chen | Perspective view of autonomous control in unknown environment: Dual control for exploitation and exploration vs reinforcement learning | |
Wei et al. | Monte Carlo-based reinforcement learning control for unmanned aerial vehicle systems | |
Shivam et al. | A predictive deep learning approach to output regulation: The case of collaborative pursuit evasion | |
Guo et al. | Cross-Entropy Regularized Policy Gradient for Multirobot Nonadversarial Moving Target Search | |
Zamfirache et al. | Adaptive reinforcement learning-based control using proximal policy optimization and slime mould algorithm with experimental tower crane system validation | |
Zhu et al. | An approach for multi-UAV system navigation and target finding in cluttered environments | |
Scola et al. | Biologically plausible robust control with neural network weight reset for unmanned aircraft systems under impulsive disturbances | |
Olcay et al. | Headland Turn Automation Concept for Tractor-Trailer System with Deep Reinforcement Learning | |
Thomas et al. | Inverse Reinforcement Learning for Generalized Labeled Multi-Bernoulli Multi-Target Tracking | |
Gupta et al. | Decentralized Multi-agent Formation Control via Deep Reinforcement Learning. | |
Anderson et al. | Stochastic optimal enhancement of distributed formation control using Kalman smoothers |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100518 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20100730 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20100806 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110603 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111025 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111124 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141202 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4875080 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |