JP7459238B2 - ユーザ選好による強化学習基盤の自律走行最適化方法およびシステム - Google Patents
ユーザ選好による強化学習基盤の自律走行最適化方法およびシステム Download PDFInfo
- Publication number
- JP7459238B2 JP7459238B2 JP2022519438A JP2022519438A JP7459238B2 JP 7459238 B2 JP7459238 B2 JP 7459238B2 JP 2022519438 A JP2022519438 A JP 2022519438A JP 2022519438 A JP2022519438 A JP 2022519438A JP 7459238 B2 JP7459238 B2 JP 7459238B2
- Authority
- JP
- Japan
- Prior art keywords
- autonomous driving
- learning
- parameters
- computer system
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 51
- 230000002787 reinforcement Effects 0.000 title claims description 17
- 238000005457 optimization Methods 0.000 title claims description 15
- 230000015654 memory Effects 0.000 claims description 25
- 238000013528 artificial neural network Methods 0.000 claims description 14
- 238000004088 simulation Methods 0.000 claims description 10
- 238000013531 bayesian neural network Methods 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 5
- 230000000306 recurrent effect Effects 0.000 claims description 2
- 238000003860 storage Methods 0.000 description 15
- 238000004891 communication Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 230000001133 acceleration Effects 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000003044 adaptive effect Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000002085 persistent effect Effects 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000013476 bayesian approach Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011112 process operation Methods 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0088—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0265—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
- G05B13/027—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0287—Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/091—Active learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/092—Reinforcement learning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39271—Ann artificial neural network, ffw-nn, feedforward neural network
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40499—Reinforcement learning algorithm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Description
多くのパラメータが、強化学習基盤の自律走行エージェントの動作に影響を与える。例えば、7つのパラメータで構成された自律走行パラメータ
を効率的に探索するエージェントを訓練させることにある。
エージェントの観測形式は、数式(2)のとおりとなる。
エージェントのアクションは、[-1,1]2におけるベクトルとして間隔[-0.2m/s,wmaxV]に正規化されたロボットの所望する線形速力を示し、角速度は、[-wmaxW,wmaxW]に正規化される。ロボットがアクションを実行すれば±waccWの各加速度が適用され、速度を増加させるときは線形加速度がwaccVであり、減少させるときは-0.2m/sである。
報酬関数r:S×A×W→Rは、数式(4)のように、5つの構成要素の和を意味する。
Claims (16)
- コンピュータシステムが実行する自律走行学習方法であって、
前記コンピュータシステムは、メモリに含まれるコンピュータ読み取り可能な命令を実行するように構成された少なくとも1つのプロセッサを含み、
前記自律走行学習方法は、
前記少なくとも1つのプロセッサが、システムによる自動設定または管理者による直接設定によって互いに異なる自律走行パラメータをシミュレーション上の複数のロボットエージェントに付与して、ロボット自律走行を学習する段階
を含み、
前記学習する段階は、
前記ロボット自律走行の学習のためのニューラルネットワークの入力として、ロボットからリアルタイムで取得するセンサ値と、自律走行ポリシーと関連してランダムに付与される自律走行パラメータとを使用して、モデルのNll(negative log-likelihood)を最小化する段階を含む、
自律走行学習方法。 - 前記学習する段階は、
前記複数のロボットエージェントを対象に、ランダムにサンプリングされた自律走行パラメータを入力とする強化学習(reinforcement learning)を同時に実行すること
を特徴とする、請求項1に記載の自律走行学習方法。 - 前記学習する段階は、
全結合層(fully-connected layer)とGRU(gated recurrent units)で構成されたニューラルネットワークを利用して、前記複数のロボットエージェントの自律走行を同時に学習することを特徴とする、請求項1又は2に記載の自律走行学習方法。 - 前記自律走行学習方法は、
前記少なくとも1つのプロセッサが、前記自律走行パラメータに対する人間の選好データ(preference data)を利用して、選好度モデルに近接させるように前記自律走行パラメータを最適化する段階
をさらに含む、請求項1乃至3のいずれか一項に記載の自律走行学習方法。 - 前記最適化する段階は、
前記自律走行パラメータが互いに異なるように設定されたロボットの走行映像に対するフィードバックを反映して、前記自律走行パラメータを最適化すること
を特徴とする、請求項4に記載の自律走行学習方法。 - 前記最適化する段階は、
前記自律走行パラメータの一対比較(pairwise comparisons)によって、前記自律走行パラメータに対する選好度を評価する段階
を含む、請求項4に記載の自律走行学習方法。 - コンピュータシステムが実行する自律走行学習方法であって、
前記コンピュータシステムは、メモリに含まれるコンピュータ読み取り可能な命令を実行するように構成された少なくとも1つのプロセッサを含み、
前記自律走行学習方法は、
前記少なくとも1つのプロセッサが、システムによる自動設定または管理者による直接設定によって互いに異なる自律走行パラメータをシミュレーション上の複数のロボットエージェントに付与して、ロボット自律走行を学習する段階
を含み、
前記自律走行学習方法は、
前記少なくとも1つのプロセッサが、前記自律走行パラメータに対する人間の選好データ(preference data)を利用して、選好度モデルに近接させるように前記自律走行パラメータを最適化する段階
をさらに含み、
前記最適化する段階は、
ベイジアンニューラルネットワーク(Bayesian neural network)モデルを使用して、前記自律走行パラメータに対する選好度をモデリングする段階
を含む、自律走行学習方法。 - 請求項1~7のうちのいずれか一項に記載の自律走行学習方法を前記コンピュータシステムに実行させるために非一時的なコンピュータ読み取り可能な記録媒体に記録される、コンピュータプログラム。
- 請求項1~7のうちのいずれか一項に記載の自律走行学習方法をコンピュータに実行させるためのプログラムが記録されている、非一時的なコンピュータ読み取り可能な記録媒体。
- コンピュータシステムであって、
メモリに含まれるコンピュータ読み取り可能な命令を実行するように構成された少なくとも1つのプロセッサ
を含み、
前記少なくとも1つのプロセッサは、
シミュレーション上の複数のロボットエージェントにシステムによる自動設定または管理者による直接設定によって互いに異なる自律走行パラメータを付与して、ロボット自律走行を学習する学習部
を含み、
前記学習部は、
前記ロボット自律走行の学習のためのニューラルネットワークの入力として、ロボットからリアルタイムで取得するセンサ値と、自律走行ポリシーと関連してランダムに付与される自律走行パラメータとを使用して、モデルのNll(negative log-likelihood)を最小化すること、を特徴とする、
コンピュータシステム。 - 前記学習部は、
前記複数のロボットエージェントを対象に、ランダムにサンプリングされた自律走行パラメータを入力とする強化学習を同時に実行すること
を特徴とする、請求項10に記載のコンピュータシステム。 - 前記学習部は、
全結合層とGRUで構成されたニューラルネットワークを利用して、前記複数のロボットエージェントの自律走行を同時に学習すること
を特徴とする、請求項10又は11に記載のコンピュータシステム。 - 前記少なくとも1つのプロセッサは、
前記自律走行パラメータに対する人間の選好データを利用して、選好度モデルに近接させるように前記自律走行パラメータを最適化する最適化部
をさらに含む、請求項10乃至12のいずれか一項に記載のコンピュータシステム。 - 前記最適化部は、
前記自律走行パラメータが互いに異なるように設定されたロボットの走行映像に対するフィードバックを反映して、前記自律走行パラメータを最適化すること
を特徴とする、請求項13に記載のコンピュータシステム。 - 前記最適化部は、
前記自律走行パラメータの一対比較によって、前記自律走行パラメータに対する選好度を評価すること
を特徴とする、請求項13に記載のコンピュータシステム。 - 前記最適化部は、
ベイジアンニューラルネットワークモデルを使用して、前記自律走行パラメータに対する選好度をモデリングすること
を特徴とする、請求項13に記載のコンピュータシステム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20190132808 | 2019-10-24 | ||
KR10-2019-0132808 | 2019-10-24 | ||
KR10-2020-0009729 | 2020-01-28 | ||
KR1020200009729A KR102303126B1 (ko) | 2019-10-24 | 2020-01-28 | 사용자 선호에 따른 강화학습 기반 자율주행 최적화 방법 및 시스템 |
PCT/KR2020/011304 WO2021080151A1 (ko) | 2019-10-24 | 2020-08-25 | 사용자 선호에 따른 강화학습 기반 자율주행 최적화 방법 및 시스템 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022550122A JP2022550122A (ja) | 2022-11-30 |
JP7459238B2 true JP7459238B2 (ja) | 2024-04-01 |
Family
ID=75619837
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022519438A Active JP7459238B2 (ja) | 2019-10-24 | 2020-08-25 | ユーザ選好による強化学習基盤の自律走行最適化方法およびシステム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220229435A1 (ja) |
EP (1) | EP4019202A4 (ja) |
JP (1) | JP7459238B2 (ja) |
WO (1) | WO2021080151A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004033159A1 (ja) | 2002-10-11 | 2004-04-22 | Fujitsu Limited | ロボット制御アルゴリズム構築装置、ロボット制御アルゴリズム構築プログラム、ロボット制御装置、ロボット制御プログラム、およびロボット |
JP2007041723A (ja) | 2005-08-01 | 2007-02-15 | Advanced Telecommunication Research Institute International | センサ設計装置、センサ設計方法、センサ設計プログラム及びロボット |
JP2019101907A (ja) | 2017-12-06 | 2019-06-24 | 国立大学法人 東京大学 | 物体間関係認識装置、学習済みモデル、認識方法及びプログラム |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101771643B1 (ko) | 2015-07-15 | 2017-08-25 | 주식회사 마로로봇 테크 | 자율주행로봇 및 이의 네비게이션 방법 |
JP6875513B2 (ja) * | 2016-10-10 | 2021-05-26 | ディープマインド テクノロジーズ リミテッド | ロボットエージェントによって実行されるべきアクションを選択するためのニューラルネットワーク |
KR20180070103A (ko) * | 2016-12-16 | 2018-06-26 | 삼성전자주식회사 | 인식 방법 및 인식 장치 |
WO2018211142A1 (en) * | 2017-05-19 | 2018-11-22 | Deepmind Technologies Limited | Imagination-based agent neural networks |
DE102018205561A1 (de) * | 2017-08-18 | 2019-02-21 | Robert Bosch Gmbh | Vorrichtung zur Klassifizierung von Signalen |
KR101974447B1 (ko) * | 2017-10-13 | 2019-05-02 | 네이버랩스 주식회사 | 게임 환경 추상화를 통한 강화 학습 기반의 모바일 로봇 제어 |
US10926408B1 (en) * | 2018-01-12 | 2021-02-23 | Amazon Technologies, Inc. | Artificial intelligence system for efficiently learning robotic control policies |
US20210166715A1 (en) * | 2018-02-16 | 2021-06-03 | Hewlett-Packard Development Company, L.P. | Encoded features and rate-based augmentation based speech authentication |
US11580378B2 (en) * | 2018-03-14 | 2023-02-14 | Electronic Arts Inc. | Reinforcement learning for concurrent actions |
KR102503757B1 (ko) * | 2018-04-03 | 2023-02-23 | 엘지전자 주식회사 | 각각의 인공지능을 탑재한 복수의 로봇을 포함하는 로봇 시스템 |
US11403521B2 (en) * | 2018-06-22 | 2022-08-02 | Insilico Medicine Ip Limited | Mutual information adversarial autoencoder |
KR20200080396A (ko) * | 2018-12-18 | 2020-07-07 | 삼성전자주식회사 | 자율 주행 방법 및 장치 |
KR102287460B1 (ko) * | 2019-08-16 | 2021-08-10 | 엘지전자 주식회사 | 인공지능 무빙 에이전트 |
-
2020
- 2020-08-25 JP JP2022519438A patent/JP7459238B2/ja active Active
- 2020-08-25 WO PCT/KR2020/011304 patent/WO2021080151A1/ko unknown
- 2020-08-25 EP EP20878770.5A patent/EP4019202A4/en active Pending
-
2022
- 2022-04-04 US US17/657,878 patent/US20220229435A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004033159A1 (ja) | 2002-10-11 | 2004-04-22 | Fujitsu Limited | ロボット制御アルゴリズム構築装置、ロボット制御アルゴリズム構築プログラム、ロボット制御装置、ロボット制御プログラム、およびロボット |
JP2007041723A (ja) | 2005-08-01 | 2007-02-15 | Advanced Telecommunication Research Institute International | センサ設計装置、センサ設計方法、センサ設計プログラム及びロボット |
JP2019101907A (ja) | 2017-12-06 | 2019-06-24 | 国立大学法人 東京大学 | 物体間関係認識装置、学習済みモデル、認識方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2021080151A1 (ko) | 2021-04-29 |
EP4019202A4 (en) | 2023-08-09 |
EP4019202A1 (en) | 2022-06-29 |
US20220229435A1 (en) | 2022-07-21 |
JP2022550122A (ja) | 2022-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11726477B2 (en) | Methods and systems for trajectory forecasting with recurrent neural networks using inertial behavioral rollout | |
WO2019124001A1 (ja) | 移動体挙動予測装置および移動体挙動予測方法 | |
KR102303126B1 (ko) | 사용자 선호에 따른 강화학습 기반 자율주행 최적화 방법 및 시스템 | |
US20210397961A1 (en) | Method and system for training autonomous driving agent on basis of deep reinforcement learning | |
Sombolestan et al. | Optimal path-planning for mobile robots to find a hidden target in an unknown environment based on machine learning | |
US20200401148A1 (en) | Path planning for autonomous moving devices | |
KR20210061461A (ko) | 자율 차량 계획 | |
US20190382030A1 (en) | Feedback for an autonomous vehicle | |
CN111971574A (zh) | 用于自动驾驶车辆的lidar定位的基于深度学习的特征提取 | |
CN112438664B (zh) | 通过人工智能识别卡堵情形的机器人清洁器及其操作方法 | |
US11514363B2 (en) | Using a recursive reinforcement model to determine an agent action | |
Liu et al. | Episodic memory-based robotic planning under uncertainty | |
CN114667494A (zh) | 机器人控制模型学习方法、机器人控制模型学习装置、机器人控制模型学习程序、机器人控制方法、机器人控制装置、机器人控制程序以及机器人 | |
KR20240008386A (ko) | 리스크 척도를 나타내는 파라미터에 기반하여 훈련된 모델을 사용하여, 주어진 상황에 대한 디바이스의 행동을 결정하는 방법 및 시스템 | |
CN113988196A (zh) | 一种机器人移动方法、装置、设备及存储介质 | |
US20210109541A1 (en) | Method of estimating position in local area of large space and robot and cloud server implementing thereof | |
JP7459238B2 (ja) | ユーザ選好による強化学習基盤の自律走行最適化方法およびシステム | |
Quinones-Ramirez et al. | Robot path planning using deep reinforcement learning | |
JP2023051421A (ja) | 移動体制御装置、移動体、学習装置、学習方法、および、プログラム | |
KR102617418B1 (ko) | 센서 구성과 로봇 형태에 적응 가능한 강화학습 기반 자율주행 방법, 컴퓨터 시스템, 및 컴퓨터 프로그램 | |
Wei et al. | Deep reinforcement learning with heuristic corrections for UGV navigation | |
Przybylski et al. | A new CNN-based method of path planning in dynamic environment | |
US20230132280A1 (en) | Robotic navigation and transport of objects | |
KR20240021092A (ko) | 로봇 제어 시스템 및 방법 | |
Knudson et al. | Towards coordinating autonomous robots for exploration in dynamic environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220328 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230628 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230912 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240319 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7459238 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |