JP7264184B2 - 学習装置、学習方法、及び学習プログラム - Google Patents
学習装置、学習方法、及び学習プログラム Download PDFInfo
- Publication number
- JP7264184B2 JP7264184B2 JP2021064707A JP2021064707A JP7264184B2 JP 7264184 B2 JP7264184 B2 JP 7264184B2 JP 2021064707 A JP2021064707 A JP 2021064707A JP 2021064707 A JP2021064707 A JP 2021064707A JP 7264184 B2 JP7264184 B2 JP 7264184B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- simulator
- neural network
- real environment
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
図1は、第1の実施形態に係る学習システム100の構成の一例を示すブロック図である。
単眼深度推定は、単眼カメラで撮影した画像から深度、つまり、画像の被写体までの距離を推定する技術であり、基本的に実環境で真値深度を得ることは難しい。一方、シミュレータ20では真値深度は容易に収集できるため、以下のニューラルネットワークを学習することが可能とされる。以下、説明を簡単にするために、活性化関数f(・)を単にニューラルネットワークと称する。
Dest=fdepth(Zsim)
Zreal=fz(Ireal)
単眼カメラで撮影した画像から機械学習で走行可否判断を行う場合、走行できたか、あるいは、走行できなかったか(障害物との衝突、もしくは障害物の落下)のデータを収集する必要がある。この場合、走行できないデータを実環境で収集することは危険を伴うため、望ましくない。一方、シミュレータ20では危険を伴わずにデータを集めることが可能である。このとき、走行可能確率Pestは次式によって推定されるとする。
Pest=ftrav(Zsim)
Zreal=fz(Ireal)
まず、上述の非特許文献2を要約して、その手法の概要を説明する。制御則は、次式によって定められる。
Zg=fz(Ig)
V=fnav(Zc、Zg)
Zgx=fz(Igx)
上記第1の実施形態で説明した学習方法をより精度良く機能させるためには、実環境画像Ireal及びシミュレータ画像Isimを取得したときのそれぞれの環境及び位置姿勢を一致させることが望ましい。環境は、例えば、実環境を撮影した結果を用いてシミュレータを構築する参考文献1に記載の方法を用いて対応すればよい。
Fei Xia and et al., “Interactive Gibson Benchmark” IEEE Robotics and Automation Letters, 2020
11 プロセッサ
11A 取得部
11B 学習部
11C 生成部
11D 決定部
12 ROM
13 RAM
14 I/O
15 記憶部
15A 学習プログラム
16 表示部
17 操作部
18 通信部
20 シミュレータ
30 ロボット
100 学習システム
Claims (7)
- ニューラルネットワークの学習装置であって、
シミュレータにより生成された観測量を前記ニューラルネットワークに入力して得られる第1特徴量と、実環境から得られた観測量を前記ニューラルネットワークに入力して得られる第2特徴量とを取得する取得部と、
前記第1特徴量と前記第2特徴量との差を含む評価関数を用いて、前記ニューラルネットワークを学習する学習部と、
を備えた学習装置。 - 前記実環境で動作する物体の複数の位置姿勢候補の各々に対応して、前記シミュレータを用いて複数の観測量を生成する生成部と、
前記生成部により生成された複数の観測量のうち、前記実環境の前記物体から得られた観測量との類似度が最も高い観測量を、前記ニューラルネットワークに入力する前記シミュレータの観測量として決定する決定部と、
を更に備えた
請求項1に記載の学習装置。 - 前記複数の位置姿勢候補は、前記実環境で前記物体が観測量を収集する際に自己位置を推定した結果から得られる
請求項2に記載の学習装置。 - 前記シミュレータにより生成された観測量は、前記シミュレータにより生成された画像として表され、
前記実環境から得られた観測量は、前記実環境から得られた画像として表される
請求項1~請求項3の何れか1項に記載の学習装置。 - 前記シミュレータにより生成された観測量は、前記シミュレータにより生成された画像及び当該画像の被写体までの距離を表す深度として表され、
前記実環境から得られた観測量は、前記実環境から得られた画像及び当該画像の被写体までの距離を表す深度として表される
請求項1~請求項3の何れか1項に記載の学習装置。 - ニューラルネットワークの学習装置が実行する学習方法であって、
シミュレータにより生成された観測量を前記ニューラルネットワークに入力して得られる第1特徴量と、実環境から得られた観測量を前記ニューラルネットワークに入力して得られる第2特徴量とを取得し、
前記第1特徴量と前記第2特徴量との差を含む評価関数を用いて、前記ニューラルネットワークを学習する、
学習方法。 - ニューラルネットワークの学習プログラムであって、
コンピュータを、
シミュレータにより生成された観測量を前記ニューラルネットワークに入力して得られる第1特徴量と、実環境から得られた観測量を前記ニューラルネットワークに入力して得られる第2特徴量とを取得する取得部、及び、
前記第1特徴量と前記第2特徴量との差を含む評価関数を用いて、前記ニューラルネットワークを学習する学習部、
として機能させるための学習プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021064707A JP7264184B2 (ja) | 2021-04-06 | 2021-04-06 | 学習装置、学習方法、及び学習プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021064707A JP7264184B2 (ja) | 2021-04-06 | 2021-04-06 | 学習装置、学習方法、及び学習プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022160144A JP2022160144A (ja) | 2022-10-19 |
JP7264184B2 true JP7264184B2 (ja) | 2023-04-25 |
Family
ID=83657834
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021064707A Active JP7264184B2 (ja) | 2021-04-06 | 2021-04-06 | 学習装置、学習方法、及び学習プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7264184B2 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019098419A (ja) | 2017-11-28 | 2019-06-24 | キユーピー株式会社 | 粉体、粒体又は流体の取り出し動作を学習する機械学習方法およびロボット機械学習制御装置 |
JP2020075340A (ja) | 2018-11-08 | 2020-05-21 | 株式会社東芝 | 作動システム、制御装置、およびプログラム |
JP2020115289A (ja) | 2019-01-17 | 2020-07-30 | 富士通株式会社 | 学習方法、学習プログラムおよび学習装置 |
-
2021
- 2021-04-06 JP JP2021064707A patent/JP7264184B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019098419A (ja) | 2017-11-28 | 2019-06-24 | キユーピー株式会社 | 粉体、粒体又は流体の取り出し動作を学習する機械学習方法およびロボット機械学習制御装置 |
JP2020075340A (ja) | 2018-11-08 | 2020-05-21 | 株式会社東芝 | 作動システム、制御装置、およびプログラム |
JP2020115289A (ja) | 2019-01-17 | 2020-07-30 | 富士通株式会社 | 学習方法、学習プログラムおよび学習装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2022160144A (ja) | 2022-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110363058B (zh) | 使用单触发卷积神经网络的用于避障的三维对象定位 | |
EP3405845B1 (en) | Object-focused active three-dimensional reconstruction | |
Sless et al. | Road scene understanding by occupancy grid learning from sparse radar clusters using semantic segmentation | |
Premebida et al. | Intelligent robotic perception systems | |
JP2019517701A (ja) | 画像内の物体を検出する方法及び物体検出システム | |
US11900645B2 (en) | Systems and methods for modeling and controlling physical dynamical systems using artificial intelligence | |
CN110941272A (zh) | 自动驾驶控制方法和设备 | |
US10268188B2 (en) | Active camera movement determination for object position and extent in three-dimensional space | |
Zieliński et al. | 3D robotic navigation using a vision-based deep reinforcement learning model | |
WO2022023442A1 (en) | Semi-supervised keypoint based models | |
KR20180027242A (ko) | 무인 차량을 위한 주변 환경 매핑 방법 및 장치 | |
EP3867021B1 (en) | Robot navigation using a high-level policy model and a trained low-level policy model | |
Kim et al. | An open-source low-cost mobile robot system with an RGB-D camera and efficient real-time navigation algorithm | |
Ahmad et al. | End-to-end probabilistic depth perception and 3d obstacle avoidance using pomdp | |
JP7264184B2 (ja) | 学習装置、学習方法、及び学習プログラム | |
Ramírez-Bedoya et al. | Implementation of reinforcement-learning algorithms in autonomous robot navigation | |
Boufous | Deep reinforcement learning for complete coverage path planning in unknown environments | |
Barrozo et al. | Simulation of an Autonomous Vehicle Control System Based on Image Processing | |
Haque et al. | Vision based trajectory following robot and swarm | |
Horita et al. | Improving multi-goal and target-driven reinforcement learning with supervised auxiliary task | |
Li et al. | Multi-altitude multi-sensor fusion framework for AUV exploration and survey | |
JP7459238B2 (ja) | ユーザ選好による強化学習基盤の自律走行最適化方法およびシステム | |
Singh et al. | Enhancing Object Mapping in SLAM using CNN. | |
Vitória | Image-Based Real-Time Path Generation Using Deep Neural Networks | |
Roghair | A vision based DQN exploration algorithm for collision avoidance |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220323 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230314 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230327 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7264184 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |