JP7221203B2 - モバイル装置の位置特定方法 - Google Patents
モバイル装置の位置特定方法 Download PDFInfo
- Publication number
- JP7221203B2 JP7221203B2 JP2019539772A JP2019539772A JP7221203B2 JP 7221203 B2 JP7221203 B2 JP 7221203B2 JP 2019539772 A JP2019539772 A JP 2019539772A JP 2019539772 A JP2019539772 A JP 2019539772A JP 7221203 B2 JP7221203 B2 JP 7221203B2
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- images
- image
- series
- orientation information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Description
好ましくは、一連の画像の画像が単眼画像である。
好ましくは、一連の画像の画像が単眼画像である。
好適には、第2のニューラルネットワークがリカレントニューラルネットワークである。この場合、好ましくは、第2のニューラルネットワークが長・短期記憶ニューラルネットワークである。
そして、最終層(つまりConv6)からの特徴が、CNNの出力になる。
従って、このようにして自律型ロボット1は、カメラ3からの画像を使用して、その位置、特にそのポーズを推定する。
Claims (18)
- カメラを含むモバイル装置の位置を特定するための、コンピュータで実行される方法であって、
前記カメラを使用して、一定期間にわたって一連の画像を取り込むステップと、
前記一連の画像からの、複数の連続した一対の画像について、各一対の画像のうち1番目の画像が取り込まれた時間と、各一対の画像のうち2番目の画像が取り込まれた時間との間の、前記装置の動きを示す特徴を、第1のニューラルネットワークを用いて抽出するステップと、
一連の連続した画像について、前記第1のニューラルネットワークによって抽出された特徴から、前記装置の位置を示す特徴を、第2のニューラルネットワークを用いて抽出するステップと、
一連の連続した画像について、前記第2のニューラルネットワークによって抽出された特徴から、前記装置の位置を特定するステップと、
テストデータ及び目的関数を提供して、前記第1のニューラルネットワーク及び前記第2のニューラルネットワークを訓練するステップと、
前記第2のニューラルネットワークによって抽出された特徴から、連続して取り込まれた各一対の画像について、前記装置の相対的な位置及び向きの情報を抽出するステップと、
連続して取り込まれた各一対の画像について、前記相対的な位置及び向きの情報に対応する不確実性の情報を抽出するステップと、を含み、
前記目的関数を、前記相対的な位置及び向きの情報の推定に関連する部分と、前記不確実性の情報に関連する部分とで構成することを特徴とする方法。 - 前記装置の位置を特定するステップは、前記第2のニューラルネットワークによって抽出された特徴から抽出される、前記相対的な位置及び向きの情報を構成することを含むことを特徴とする請求項1記載の方法。
- 前記装置の位置に加えて、前記装置の向きを特定することを特徴とする請求項1又は2記載の方法。
- 前記一連の画像の画像は、単眼画像であることを特徴とする請求項1から3のいずれか1項記載の方法。
- 前記第1のニューラルネットワークは、畳み込みニューラルネットワークであることを特徴とする請求項1から4のいずれか1項記載の方法。
- 前記第2のニューラルネットワークは、リカレントニューラルネットワークであることを特徴とする請求項1から5のいずれか1項記載の方法。
- 前記第2のニューラルネットワークは、長・短期記憶ニューラルネットワークであることを特徴とする請求項6記載の方法。
- 前記一連の画像の各画像は、その対応する位置及び向きの情報に関連付けられており、
前記第1のニューラルネットワーク及び前記第2のニューラルネットワークを訓練するステップは、更に前記対応する位置及び向きの情報を使用することを特徴とする請求項1から7のいずれか1項記載の方法。 - 前記装置は、自律型ロボットであることを特徴とする請求項1から8のいずれか1項記載の方法。
- モバイル装置であって、
メモリ、プロセッサ、及びカメラを含み、
前記カメラを使用して、一定期間にわたって一連の画像を取り込み、
前記一連の画像からの、複数の連続した一対の画像について、各一対の画像のうち1番目の画像が取り込まれた時間と、各一対の画像のうち2番目の画像が取り込まれた時間との間の、当該装置の動きを示す特徴を、前記プロセッサにより提供される第1のニューラルネットワークを用いて抽出し、
一連の連続した画像について、前記第1のニューラルネットワークによって抽出された特徴から、当該装置の位置を示す特徴を、前記プロセッサにより提供される第2のニューラルネットワークを用いて抽出し、
一連の連続した画像について、前記第2のニューラルネットワークによって抽出された特徴から、当該装置の位置を特定するように構成され、
前記第1のニューラルネットワーク及び前記第2のニューラルネットワークは、テストデータ及び目的関数が提供されて訓練されたものであり、
更に、前記第2のニューラルネットワークによって抽出された特徴から、連続して取り込まれた各一対の画像について、当該装置の相対的な位置及び向きの情報を抽出するように構成され、
更に、連続して取り込まれた各一対の画像について、前記相対的な位置及び向きの情報に対応する不確実性の情報を抽出するように構成され、
前記目的関数が、前記相対的な位置及び向きの情報の推定に関連する部分と、前記不確実性の情報に関連する部分とで構成されていることを特徴とする装置。 - 前記第2のニューラルネットワークによって抽出された特徴から抽出される、前記相対的な位置及び向きの情報を構成することにより、当該装置の位置を特定するように構成されていることを特徴とする請求項10記載の装置。
- 当該装置の位置に加えて、当該装置の向きを特定するように構成されていることを特徴とする請求項10又は11記載の装置。
- 前記一連の画像の画像は、単眼画像であることを特徴とする請求項10から12のいずれか1項記載の装置。
- 前記第1のニューラルネットワークは、畳み込みニューラルネットワークであることを特徴とする請求項10から13のいずれか1項記載の装置。
- 前記第2のニューラルネットワークは、リカレントニューラルネットワークであることを特徴とする請求項10から14のいずれか1項記載の装置。
- 前記第2のニューラルネットワークは、長・短期記憶ニューラルネットワークであることを特徴とする請求項15記載の装置。
- モバイル装置で実行されたときに、請求項1から9のいずれか1項記載の方法を実行するように構成されていることを特徴とするコンピュータプログラム。
- モバイル装置で実行されたときに、請求項10から16のいずれか1項記載のモバイル装置を提供するように構成されていることを特徴とするコンピュータプログラム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GR20170100024 | 2017-01-23 | ||
GR20170100024 | 2017-01-23 | ||
GBGB1703005.7A GB201703005D0 (en) | 2017-02-24 | 2017-02-24 | Determining the location of a mobile device |
GB1703005.7 | 2017-02-24 | ||
PCT/GB2018/050134 WO2018134589A1 (en) | 2017-01-23 | 2018-01-17 | Determining the location of a mobile device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020506471A JP2020506471A (ja) | 2020-02-27 |
JP7221203B2 true JP7221203B2 (ja) | 2023-02-13 |
Family
ID=61028084
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019539772A Active JP7221203B2 (ja) | 2017-01-23 | 2018-01-17 | モバイル装置の位置特定方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11436749B2 (ja) |
EP (1) | EP3571665B1 (ja) |
JP (1) | JP7221203B2 (ja) |
CN (1) | CN110785777B (ja) |
AU (1) | AU2018208816B2 (ja) |
WO (1) | WO2018134589A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201804079D0 (en) | 2018-01-10 | 2018-04-25 | Univ Oxford Innovation Ltd | Determining the location of a mobile device |
CN110349185B (zh) * | 2019-07-12 | 2022-10-11 | 安徽大学 | 一种rgbt目标跟踪模型的训练方法及装置 |
CN110503152B (zh) * | 2019-08-26 | 2022-08-26 | 北京迈格威科技有限公司 | 用于目标检测的双路神经网络训练方法及图像处理方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009009296A (ja) | 2007-06-27 | 2009-01-15 | Noritsu Koki Co Ltd | 顔画像変形方法とこの方法を実施する顔画像変形装置 |
Family Cites Families (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4419925A1 (de) | 1994-06-08 | 1995-12-14 | Bodenseewerk Geraetetech | Inertialsensor-Einheit |
JP3655033B2 (ja) | 1996-12-10 | 2005-06-02 | 株式会社リコー | 携帯型情報処理装置及び携帯型情報処理装置の場所識別方法 |
JPH11110542A (ja) | 1997-09-30 | 1999-04-23 | Toshiba Corp | パターン抽出方法および装置、そのプログラムを記録した媒体 |
US6704621B1 (en) * | 1999-11-26 | 2004-03-09 | Gideon P. Stein | System and method for estimating ego-motion of a moving vehicle using successive images recorded along the vehicle's path of motion |
WO2006084385A1 (en) | 2005-02-11 | 2006-08-17 | Macdonald Dettwiler & Associates Inc. | 3d imaging system |
US7925049B2 (en) | 2006-08-15 | 2011-04-12 | Sri International | Stereo-based visual odometry method and system |
US20080195316A1 (en) | 2007-02-12 | 2008-08-14 | Honeywell International Inc. | System and method for motion estimation using vision sensors |
US9766074B2 (en) | 2008-03-28 | 2017-09-19 | Regents Of The University Of Minnesota | Vision-aided inertial navigation |
US8213706B2 (en) | 2008-04-22 | 2012-07-03 | Honeywell International Inc. | Method and system for real-time visual odometry |
US8259994B1 (en) | 2010-09-14 | 2012-09-04 | Google Inc. | Using image and laser constraints to obtain consistent and improved pose estimates in vehicle pose databases |
US8761439B1 (en) | 2011-08-24 | 2014-06-24 | Sri International | Method and apparatus for generating three-dimensional pose using monocular visual sensor and inertial measurement unit |
US9148650B2 (en) | 2012-09-17 | 2015-09-29 | Nec Laboratories America, Inc. | Real-time monocular visual odometry |
US9576183B2 (en) | 2012-11-02 | 2017-02-21 | Qualcomm Incorporated | Fast initialization for monocular visual SLAM |
US10254118B2 (en) | 2013-02-21 | 2019-04-09 | Regents Of The University Of Minnesota | Extrinsic parameter calibration of a vision-aided inertial navigation system |
US9674507B2 (en) | 2013-04-30 | 2017-06-06 | Qualcomm Incorporated | Monocular visual SLAM with general and panorama camera movements |
US20140341465A1 (en) | 2013-05-16 | 2014-11-20 | The Regents Of The University Of California | Real-time pose estimation system using inertial and feature measurements |
WO2015013418A2 (en) | 2013-07-23 | 2015-01-29 | The Regents Of The University Of California | Method for processing feature measurements in vision-aided inertial navigation |
US10306206B2 (en) | 2013-07-23 | 2019-05-28 | The Regents Of The University Of California | 3-D motion estimation and online temporal calibration for camera-IMU systems |
EP3025275A4 (en) | 2013-07-24 | 2017-02-15 | The Regents Of The University Of California | Method for camera motion estimation and correction |
EP2854104A1 (en) | 2013-09-25 | 2015-04-01 | Technische Universität München | Semi-dense simultaneous localization and mapping |
US9243915B2 (en) | 2013-10-16 | 2016-01-26 | Physical Devices, Llc | Devices and methods for passive navigation |
US9390344B2 (en) | 2014-01-09 | 2016-07-12 | Qualcomm Incorporated | Sensor-based camera motion detection for unconstrained slam |
CN103983263A (zh) | 2014-05-30 | 2014-08-13 | 东南大学 | 一种采用迭代扩展卡尔曼滤波与神经网络的惯性/视觉组合导航方法 |
US9430847B2 (en) | 2014-06-12 | 2016-08-30 | Mitsubishi Electric Research Laboratories, Inc. | Method for stereo visual odometry using points, lines and planes |
US10113910B2 (en) * | 2014-08-26 | 2018-10-30 | Digimarc Corporation | Sensor-synchronized spectrally-structured-light imaging |
US9709404B2 (en) | 2015-04-17 | 2017-07-18 | Regents Of The University Of Minnesota | Iterative Kalman Smoother for robust 3D localization for vision-aided inertial navigation |
US9902401B2 (en) | 2015-05-10 | 2018-02-27 | Mobileye Vision Technologies Ltd. | Road profile along a predicted path |
EP3158293B1 (en) | 2015-05-23 | 2019-01-23 | SZ DJI Technology Co., Ltd. | Sensor fusion using inertial and image sensors |
US9965705B2 (en) * | 2015-11-03 | 2018-05-08 | Baidu Usa Llc | Systems and methods for attention-based configurable convolutional neural networks (ABC-CNN) for visual question answering |
CN105374043B (zh) * | 2015-12-02 | 2017-04-05 | 福州华鹰重工机械有限公司 | 视觉里程计背景过滤方法及装置 |
EP3182373B1 (en) | 2015-12-17 | 2019-06-19 | STMicroelectronics S.A. | Improvements in determination of an ego-motion of a video apparatus in a slam type algorithm |
CN105911518A (zh) * | 2016-03-31 | 2016-08-31 | 山东大学 | 机器人定位方法 |
CN106017458B (zh) | 2016-05-18 | 2019-08-27 | 宁波华狮智能科技有限公司 | 移动机器人组合式导航方法及装置 |
CN106097391B (zh) * | 2016-06-13 | 2018-11-16 | 浙江工商大学 | 一种基于深度神经网络的识别辅助的多目标跟踪方法 |
GB201616097D0 (en) * | 2016-09-21 | 2016-11-02 | Univ Oxford Innovation Ltd | Segmentation of path proposals |
WO2018212538A1 (en) * | 2017-05-16 | 2018-11-22 | Samsung Electronics Co., Ltd. | Electronic device and method of detecting driving event of vehicle |
EP3495992A1 (en) * | 2017-12-07 | 2019-06-12 | IMRA Europe SAS | Danger ranking using end to end deep neural network |
-
2018
- 2018-01-17 WO PCT/GB2018/050134 patent/WO2018134589A1/en active Application Filing
- 2018-01-17 JP JP2019539772A patent/JP7221203B2/ja active Active
- 2018-01-17 CN CN201880020542.1A patent/CN110785777B/zh active Active
- 2018-01-17 EP EP18701541.7A patent/EP3571665B1/en active Active
- 2018-01-17 US US16/479,868 patent/US11436749B2/en active Active
- 2018-01-17 AU AU2018208816A patent/AU2018208816B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009009296A (ja) | 2007-06-27 | 2009-01-15 | Noritsu Koki Co Ltd | 顔画像変形方法とこの方法を実施する顔画像変形装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2020506471A (ja) | 2020-02-27 |
AU2018208816A1 (en) | 2019-08-15 |
CN110785777A (zh) | 2020-02-11 |
US11436749B2 (en) | 2022-09-06 |
WO2018134589A1 (en) | 2018-07-26 |
CN110785777B (zh) | 2024-04-02 |
US20210350563A1 (en) | 2021-11-11 |
EP3571665B1 (en) | 2023-06-07 |
AU2018208816B2 (en) | 2022-06-16 |
EP3571665A1 (en) | 2019-11-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7121017B2 (ja) | モバイル装置の位置特定方法 | |
Teed et al. | Droid-slam: Deep visual slam for monocular, stereo, and rgb-d cameras | |
Kim et al. | Transfer learning for automated optical inspection | |
JP7153090B2 (ja) | 目標オブジェクト検出方法、及び装置、電子機器、並びに記憶媒体 | |
US10885659B2 (en) | Object pose estimating method and apparatus | |
Iyer et al. | Geometric consistency for self-supervised end-to-end visual odometry | |
Peretroukhin et al. | Reducing drift in visual odometry by inferring sun direction using a bayesian convolutional neural network | |
Varma et al. | Transformers in self-supervised monocular depth estimation with unknown camera intrinsics | |
US11138742B2 (en) | Event-based feature tracking | |
JP7221203B2 (ja) | モバイル装置の位置特定方法 | |
EP3588129A1 (en) | Apparatus and method with ego motion estimation | |
CN114565655B (zh) | 一种基于金字塔分割注意力的深度估计方法及装置 | |
CN111914878B (zh) | 特征点跟踪训练及跟踪方法、装置、电子设备及存储介质 | |
Shamwell et al. | Vision-aided absolute trajectory estimation using an unsupervised deep network with online error correction | |
CN109544632B (zh) | 一种基于层次主题模型的语义slam对象关联方法 | |
Forechi et al. | Visual global localization with a hybrid WNN-CNN approach | |
Zhou et al. | Learned monocular depth priors in visual-inertial initialization | |
Cassinis et al. | Leveraging neural network uncertainty in adaptive unscented Kalman Filter for spacecraft pose estimation | |
Gaspar et al. | Comparative study of visual odometry and slam techniques | |
Tiefenbacher et al. | Off-the-shelf sensor integration for mono-SLAM on smart devices | |
CN109297469A (zh) | 估算无人机所观测场景的位移及地速的电子装置和方法 | |
Hashimoto et al. | Self-localization from a 360-Degree Camera Based on the Deep Neural Network | |
Zeng et al. | SF-VIO: a visual-inertial odometry based on selective feature sample using attention mechanism | |
JP2009053080A (ja) | 3次元位置情報復元装置およびその方法 | |
Ke | Efficient and Accurate Visual-Inertial Localization and Mapping |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210115 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220407 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220727 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221017 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230118 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230201 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7221203 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |