JP7328463B1 - ロボットシステム、ロボットの制御装置、及びロボットの制御方法 - Google Patents
ロボットシステム、ロボットの制御装置、及びロボットの制御方法 Download PDFInfo
- Publication number
- JP7328463B1 JP7328463B1 JP2022563038A JP2022563038A JP7328463B1 JP 7328463 B1 JP7328463 B1 JP 7328463B1 JP 2022563038 A JP2022563038 A JP 2022563038A JP 2022563038 A JP2022563038 A JP 2022563038A JP 7328463 B1 JP7328463 B1 JP 7328463B1
- Authority
- JP
- Japan
- Prior art keywords
- robot
- information
- objects
- future
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 25
- 230000009471 action Effects 0.000 claims abstract description 102
- 230000006399 behavior Effects 0.000 claims description 47
- 230000003542 behavioural effect Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 30
- 238000004364 calculation method Methods 0.000 description 15
- 238000001514 detection method Methods 0.000 description 10
- 238000009826 distribution Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000015654 memory Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 241000282412 Homo Species 0.000 description 6
- 230000008451 emotion Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000005303 weighing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electromagnetism (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Manipulator (AREA)
Abstract
Description
図1は、実施例1の自律ロボットのハードウェア構成の一例を示す図である。
F=A+SUM(bi×Bi)+SUM(ci×Ci) …(1)
F=A+SUM(vi×Bi×Ci)+SUM(bi×Bi) …(2)
実施例2では、他者の重み付け情報に関する点が実施例1と異なる。以下、実施例1との差異を中心に実施例2について説明し、実施例1と同じ構成の説明は省略する。
実施例3では、自律ロボット300の周囲の他者が、自律ロボット300に対して将来の状態を予測する、他者自己予測情報803の生成に関する点が異なる。以下、実施例1との差異を中心に実施例3について説明し、実施例1と同じ構成の説明は省略する。
実施例4では、他者観測情報生成部210が、実施例1より多くの情報に基づいて他者観測情報を生成する例を示す。以下、実施例1との差異を中心に実施例4について説明し、実施例1と同じ構成の説明は省略する。
Claims (11)
- ロボットシステムであって、
計算機によって制御されるロボットを備え、
前記ロボットは、
前記計算機に接続され、前記ロボットの行動を制御する制御装置と、
前記計算機に接続され、前記ロボットの周囲を観測する観測装置とを有し、
前記計算機は、
プログラムを実行する演算装置、前記演算装置に接続される記憶装置、前記演算装置に接続されるインタフェースを有し、
前記観測装置が観測した観測情報を用いて、周囲に存在する複数の物体を検出し、前記検出された複数の物体の各々の第1の状態情報を保持し、
物体の将来の状態を予測するための第1のモデルを用いて、前記第1の状態情報から前記検出された複数の物体の将来の状態を予測し、
前記検出された複数の物体が観測する周囲の第2の状態情報を生成し、
前記第1のモデルを用いて、前記第2の状態情報から前記ロボットの将来の状態を予測し、
与えられた行動目標と、前記予測された複数の物体の将来の状態と、前記予測されたロボットの将来の状態とに基づいて、前記ロボットの将来の行動を決定することを特徴とするロボットシステム。 - 請求項1に記載のロボットシステムであって、
前記計算機は、
前記検出された物体の種類及び特徴の少なくとも一つに基づいて、
前記検出された物体毎の重みを計算し、
前記計算された重みを用いて、前記行動を決定することを特徴とするロボットシステム。 - 請求項2に記載のロボットシステムであって、
前記計算機は、前記与えられた行動目標と実際の行動の差を表す行動目標差、自己による前記ロボットの将来の状態の予測と前記検出された複数の物体による前記ロボットの将来の状態の予測の差を表す他者期待差、及び、前記検出された複数の物体の予測された将来の状態のエントロピーを表す他者不確実性の重み付け和が小さい行動を決定することを特徴とするロボットシステム。 - 請求項1に記載のロボットシステムであって、
前記計算機は、
物体の種別を特定するための分類定義情報に従って、前記物体の種別を判定し、
前記物体の種別に従って第2の状態情報を生成することを特徴とするロボットシステム。 - 請求項1に記載のロボットシステムであって、
前記計算機は、
前記複数の物体の将来の予測情報と、次の時刻において、前記観測情報から生成される周囲の状態情報とを比較し、前記複数の物体の予測誤差を計算し、
前記計算された予測誤差に基づいて計算された物体毎の重みを用いて、前記行動を決定することを特徴とするロボットシステム。 - 請求項1に記載のロボットシステムであって、
前記計算機は、
前記観測情報から生成される周囲の状態情報を入力とし、前記行動の制御結果を表す行動情報を出力とする第2のモデルを有し、
前記第2のモデルを用いて、前記検出された複数の物体が観測する周囲の状態情報から前記複数の物体の行動情報を予測し、
前記予測された複数の物体の行動情報を用いて、前記複数の物体の将来の状態を予測することを特徴とするロボットシステム。 - 請求項1に記載のロボットシステムであって、
前記計算機は、
前記観測装置が取得した観測画像を用いて、前記複数の物体からの観測画像を生成し、
前記第1のモデルを用いて、前記複数の物体からの観測画像を前記第2の状態情報として前記ロボットの将来の状態情報を予測することを特徴とするロボットシステム。 - 請求項7に記載のロボットシステムであって、
前記計算機は、
前記観測画像と当該観測画像を取得した視点の視点情報から、別の視点における観測画像を生成する第3のモデルを有し、
複数地点で観測された観測画像を用いて、前記第3のモデルを学習し、
前記学習された第3のモデルを用いて、前記観測画像と当該観測画像を取得した視点の視点情報から、前記複数の物体の観測画像を生成することを特徴とするロボットシステム。 - 請求項1に記載のロボットシステムであって、
前記計算機は、前記ロボットに内蔵される又は別体に設けられることを特徴とするロボットシステム。 - ロボットの制御装置であって、
プログラムを実行する演算装置、前記演算装置に接続される記憶装置、前記演算装置に接続されるインタフェースを有する計算機によって構成され、
前記ロボットは、前記インタフェースに接続され、前記ロボットの行動を制御する制御装置と、前記インタフェースに接続され、前記ロボットの周囲を観測する観測装置とを有し、
前記制御装置は、
前記観測装置が取得したデータを用いて、周囲に存在する複数の物体を検出し、前記検出された複数の物体の各々の第1の状態情報を保持し、
物体の将来の状態を予測するための第1のモデルを用いて、前記第1の状態情報から前記検出された複数の物体の将来の状態を予測し、
前記検出された複数の物体が観測する周囲の第2の状態情報を生成し、
前記第1のモデルを用いて、前記第2の状態情報から前記ロボットの将来の状態を予測し、
与えられた行動目標と、前記予測された複数の物体の将来の状態と、前記予測されたロボットの将来の状態とに基づいて、前記ロボットの将来の行動を決定することを特徴とする制御装置。 - 計算機が実行するロボットの制御方法であって、
前記計算機は、プログラムを実行する演算装置、前記演算装置に接続される記憶装置、前記演算装置に接続されるインタフェースを有し、
前記ロボットは、前記インタフェースに接続される制御装置と、前記インタフェースに接続される観測装置とを有し、
前記制御方法は、
前記演算装置は、前記観測装置が取得したデータを用いて、周囲に存在する複数の物体を検出し、前記検出された複数の物体の各々の第1の状態情報を前記記憶装置に保持し、
前記演算装置が、物体の将来の状態を予測するための第1のモデルを用いて、前記第1の状態情報から前記検出された複数の物体の将来の状態を予測し、
前記演算装置が、前記検出された複数の物体が観測する周囲の第2の状態情報を生成し、
前記演算装置が、前記第1のモデルを用いて、前記第2の状態情報から前記ロボットの将来の状態を予測し、
前記演算装置が、与えられた行動目標と、前記予測された複数の物体の将来の状態と、前記予測されたロボットの将来の状態とに基づいて、前記ロボットの将来の行動を決定することを特徴とする制御方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/041765 WO2023084745A1 (ja) | 2021-11-12 | 2021-11-12 | ロボットシステム、ロボットの制御装置、及びロボットの制御方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2023084745A1 JPWO2023084745A1 (ja) | 2023-05-19 |
JP7328463B1 true JP7328463B1 (ja) | 2023-08-16 |
JPWO2023084745A5 JPWO2023084745A5 (ja) | 2023-10-04 |
Family
ID=86335431
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022563038A Active JP7328463B1 (ja) | 2021-11-12 | 2021-11-12 | ロボットシステム、ロボットの制御装置、及びロボットの制御方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20240061431A1 (ja) |
JP (1) | JP7328463B1 (ja) |
WO (1) | WO2023084745A1 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012130986A (ja) | 2010-12-21 | 2012-07-12 | Toyota Motor Corp | 移動体 |
WO2019116643A1 (ja) | 2017-12-12 | 2019-06-20 | ソニー株式会社 | 情報処理装置および情報処理方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6771730B2 (ja) * | 2016-07-08 | 2020-10-21 | 株式会社システック | 自律調整動作体 |
CN111708361B (zh) * | 2020-05-19 | 2023-09-08 | 上海有个机器人有限公司 | 多机器人碰撞预测方法和装置 |
-
2021
- 2021-11-12 WO PCT/JP2021/041765 patent/WO2023084745A1/ja active Application Filing
- 2021-11-12 US US17/924,381 patent/US20240061431A1/en active Pending
- 2021-11-12 JP JP2022563038A patent/JP7328463B1/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012130986A (ja) | 2010-12-21 | 2012-07-12 | Toyota Motor Corp | 移動体 |
WO2019116643A1 (ja) | 2017-12-12 | 2019-06-20 | ソニー株式会社 | 情報処理装置および情報処理方法 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2023084745A1 (ja) | 2023-05-19 |
WO2023084745A1 (ja) | 2023-05-19 |
US20240061431A1 (en) | 2024-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6632173B1 (ja) | ロボットの地図構築及び位置推定 | |
JP6917878B2 (ja) | 移動体挙動予測装置 | |
US20200401148A1 (en) | Path planning for autonomous moving devices | |
Samal et al. | Task-driven rgb-lidar fusion for object tracking in resource-efficient autonomous system | |
Premebida et al. | Dynamic bayesian network for semantic place classification in mobile robotics | |
Botteghi et al. | On reward shaping for mobile robot navigation: A reinforcement learning and SLAM based approach | |
Anavatti et al. | Path-planning modules for Autonomous Vehicles: Current status and challenges | |
Han et al. | Deep reinforcement learning for robot collision avoidance with self-state-attention and sensor fusion | |
Guizilini et al. | Dynamic hilbert maps: Real-time occupancy predictions in changing environments | |
Cardarelli et al. | Multisensor data fusion for obstacle detection in automated factory logistics | |
KR20210048969A (ko) | 사용자 선호에 따른 강화학습 기반 자율주행 최적화 방법 및 시스템 | |
WO2020008755A1 (ja) | 情報処理装置、情報処理システム、行動計画方法及びプログラム | |
Silva et al. | Online social robot navigation in indoor, large and crowded environments | |
JP7328463B1 (ja) | ロボットシステム、ロボットの制御装置、及びロボットの制御方法 | |
Jacinto et al. | Navigation of autonomous vehicles using reinforcement learning with generalized advantage estimation | |
Mughal et al. | UAVs path planning by particle swarm optimization based on visual-SLAM algorithm | |
Chen et al. | Social crowd navigation of a mobile robot based on human trajectory prediction and hybrid sensing | |
WO2021235100A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
Gattu | Autonomous Navigation and Obstacle Avoidance using Self-Guided and Self-Regularized Actor-Critic | |
Kim et al. | Active object tracking using context estimation: handling occlusions and detecting missing targets | |
CN113671942A (zh) | 用于控制机器人的设备和方法 | |
Liu et al. | Cooperative search using human-UAV teams | |
Rawat | Environment Perception for Autonomous Driving: A 1/10 Scale Implementation Of Low Level Sensor Fusion Using Occupancy Grid Mapping | |
Gao et al. | Efficient hierarchical reinforcement learning for mapless navigation with predictive neighbouring space scoring | |
Ngoc et al. | Efficient Evaluation of SLAM Methods and Integration of Human Detection with YOLO Based on Multiple Optimization in ROS2. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221017 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221017 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230718 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230803 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7328463 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |