JP2020506471A - モバイル装置の位置特定方法 - Google Patents
モバイル装置の位置特定方法 Download PDFInfo
- Publication number
- JP2020506471A JP2020506471A JP2019539772A JP2019539772A JP2020506471A JP 2020506471 A JP2020506471 A JP 2020506471A JP 2019539772 A JP2019539772 A JP 2019539772A JP 2019539772 A JP2019539772 A JP 2019539772A JP 2020506471 A JP2020506471 A JP 2020506471A
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- images
- series
- pair
- extracting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000013528 artificial neural network Methods 0.000 claims abstract description 71
- 230000033001 locomotion Effects 0.000 claims abstract description 17
- 238000013527 convolutional neural network Methods 0.000 claims description 22
- 238000012549 training Methods 0.000 claims description 17
- 230000015654 memory Effects 0.000 claims description 11
- 230000000306 recurrent effect Effects 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 4
- 230000007787 long-term memory Effects 0.000 claims description 4
- 230000006403 short-term memory Effects 0.000 claims description 4
- 230000010365 information processing Effects 0.000 claims 1
- 230000006870 function Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
Description
好ましくは、一連の画像の画像が単眼画像である。
好ましくは、一連の画像の画像が単眼画像である。
好適には、第2のニューラルネットワークがリカレントニューラルネットワークである。この場合、好ましくは、第2のニューラルネットワークが長・短期記憶ニューラルネットワークである。
そして、最終層(つまりConv6)からの特徴が、CNNの出力になる。
従って、このようにして自律型ロボット1は、カメラ3からの画像を使用して、その位置、特にそのポーズを推定する。
Claims (22)
- カメラを含むモバイル装置の位置を特定するための、コンピュータで実行される方法であって、
前記カメラを使用して、一定期間にわたって一連の画像を取り込むステップと、
前記一連の画像からの、複数の連続した一対の画像について、各一対の画像のうち1番目の画像が取り込まれた時間と、各一対の画像のうち2番目の画像が取り込まれた時間との間の、前記装置の動きを示す特徴を、第1のニューラルネットワークを用いて抽出するステップと、
一連の連続した画像について、前記第1のニューラルネットワークによって抽出された特徴から、前記装置の位置を示す特徴を、第2のニューラルネットワークを用いて抽出するステップと、
一連の連続した画像について、前記第2のニューラルネットワークによって抽出された特徴から、前記装置の位置を特定するステップと、を含むことを特徴とする方法。 - 前記装置の位置に加えて、前記装置の向きを特定することを特徴とする請求項1記載の方法。
- 前記一連の画像の画像は、単眼画像であることを特徴とする請求項1又は2記載の方法。
- 前記第1のニューラルネットワークは、畳み込みニューラルネットワークであることを特徴とする請求項1から3のいずれか1項記載の方法。
- 前記第2のニューラルネットワークは、リカレントニューラルネットワークであることを特徴とする請求項1から4のいずれか1項記載の方法。
- 前記第2のニューラルネットワークは、長・短期記憶ニューラルネットワークであることを特徴とする請求項5記載の方法。
- 更に、前記第2のニューラルネットワークによって抽出された特徴から、連続して取り込まれた各一対の画像について、前記装置の相対的な位置及び向きの情報を抽出するステップを含むことを特徴とする請求項1から6のいずれか1項記載の方法。
- 前記装置の位置を特定するステップは、前記第2のニューラルネットワークによって抽出された特徴から抽出される、前記相対的な位置及び向きの情報を構成することを含むことを特徴とする請求項7記載の方法。
- 更に、連続して取り込まれた各一対の画像について、前記相対的な位置及び向きの情報に対応する不確実性の情報を抽出するステップを含むことを特徴とする請求項7又は8記載の方法。
- 前記一連の画像の各画像は、その対応する位置(及び向き)の情報に関連付けられており、
更に、前記対応する位置(及び向き)の情報を使用して、前記第1のニューラルネットワーク及び前記第2のニューラルネットワークを訓練するステップを含むことを特徴とする請求項1から9のいずれか1項記載の方法。 - 前記装置は、自律型ロボットであることを特徴とする請求項1から10のいずれか1項記載の方法。
- モバイル装置であって、
メモリ、プロセッサ、及びカメラを含み、
前記カメラを使用して、一定期間にわたって一連の画像を取り込み、
前記一連の画像からの、複数の連続した一対の画像について、各一対の画像のうち1番目の画像が取り込まれた時間と、各一対の画像のうち2番目の画像が取り込まれた時間との間の、当該装置の動きを示す特徴を、前記プロセッサにより提供される第1のニューラルネットワークを用いて抽出し、
一連の連続した画像について、前記第1のニューラルネットワークによって抽出された特徴から、当該装置の位置を示す特徴を、前記プロセッサにより提供される第2のニューラルネットワークを用いて抽出し、
一連の連続した画像について、前記第2のニューラルネットワークによって抽出された特徴から、当該装置の位置を特定するように構成されていることを特徴とする装置。 - 当該装置の位置に加えて、当該装置の向きを特定するように構成されていることを特徴とする請求項12記載の装置。
- 前記一連の画像の画像は、単眼画像であることを特徴とする請求項12又は13記載の装置。
- 前記第1のニューラルネットワークは、畳み込みニューラルネットワークであることを特徴とする請求項12から14のいずれか1項記載の装置。
- 前記第2のニューラルネットワークは、リカレントニューラルネットワークであることを特徴とする請求項12から15のいずれか1項記載の装置。
- 前記第2のニューラルネットワークは、長・短期記憶ニューラルネットワークであることを特徴とする請求項16記載の装置。
- 更に、前記第2のニューラルネットワークによって抽出された特徴から、連続して取り込まれた各一対の画像について、当該装置の相対的な位置及び向きの情報を抽出するように構成されていることを特徴とする請求項12から17のいずれか1項記載の装置。
- 前記第2のニューラルネットワークによって抽出された特徴から抽出される、前記相対的な位置及び向きの情報を構成することにより、当該装置の位置を特定するように構成されていることを特徴とする請求項18記載の装置。
- 更に、連続して取り込まれた各一対の画像について、前記相対的な位置及び向きの情報に対応する不確実性の情報を抽出するように構成されていることを特徴とする請求項18又は19記載の装置。
- モバイル装置で実行されたときに、請求項1から11のいずれか1項記載の方法を実行するように構成されていることを特徴とするコンピュータプログラム製品。
- モバイル装置で実行されたときに、請求項12から20のいずれか1項記載のモバイル装置を提供するように構成されていることを特徴とするコンピュータプログラム製品。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GR20170100024 | 2017-01-23 | ||
GR20170100024 | 2017-01-23 | ||
GBGB1703005.7A GB201703005D0 (en) | 2017-02-24 | 2017-02-24 | Determining the location of a mobile device |
GB1703005.7 | 2017-02-24 | ||
PCT/GB2018/050134 WO2018134589A1 (en) | 2017-01-23 | 2018-01-17 | Determining the location of a mobile device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020506471A true JP2020506471A (ja) | 2020-02-27 |
JP7221203B2 JP7221203B2 (ja) | 2023-02-13 |
Family
ID=61028084
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019539772A Active JP7221203B2 (ja) | 2017-01-23 | 2018-01-17 | モバイル装置の位置特定方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11436749B2 (ja) |
EP (1) | EP3571665B1 (ja) |
JP (1) | JP7221203B2 (ja) |
CN (1) | CN110785777B (ja) |
AU (1) | AU2018208816B2 (ja) |
WO (1) | WO2018134589A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201804079D0 (en) | 2018-01-10 | 2018-04-25 | Univ Oxford Innovation Ltd | Determining the location of a mobile device |
CN110349185B (zh) * | 2019-07-12 | 2022-10-11 | 安徽大学 | 一种rgbt目标跟踪模型的训练方法及装置 |
CN110503152B (zh) * | 2019-08-26 | 2022-08-26 | 北京迈格威科技有限公司 | 用于目标检测的双路神经网络训练方法及图像处理方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10170299A (ja) * | 1996-12-10 | 1998-06-26 | Ricoh Co Ltd | 携帯型情報処理装置及び携帯型情報処理装置の場所識別方法 |
JPH11110542A (ja) * | 1997-09-30 | 1999-04-23 | Toshiba Corp | パターン抽出方法および装置、そのプログラムを記録した媒体 |
JP2009009296A (ja) * | 2007-06-27 | 2009-01-15 | Noritsu Koki Co Ltd | 顔画像変形方法とこの方法を実施する顔画像変形装置 |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4419925A1 (de) | 1994-06-08 | 1995-12-14 | Bodenseewerk Geraetetech | Inertialsensor-Einheit |
US6704621B1 (en) * | 1999-11-26 | 2004-03-09 | Gideon P. Stein | System and method for estimating ego-motion of a moving vehicle using successive images recorded along the vehicle's path of motion |
US7860301B2 (en) * | 2005-02-11 | 2010-12-28 | Macdonald Dettwiler And Associates Inc. | 3D imaging system |
US7925049B2 (en) | 2006-08-15 | 2011-04-12 | Sri International | Stereo-based visual odometry method and system |
US20080195316A1 (en) | 2007-02-12 | 2008-08-14 | Honeywell International Inc. | System and method for motion estimation using vision sensors |
US9766074B2 (en) | 2008-03-28 | 2017-09-19 | Regents Of The University Of Minnesota | Vision-aided inertial navigation |
US8213706B2 (en) | 2008-04-22 | 2012-07-03 | Honeywell International Inc. | Method and system for real-time visual odometry |
US8259994B1 (en) | 2010-09-14 | 2012-09-04 | Google Inc. | Using image and laser constraints to obtain consistent and improved pose estimates in vehicle pose databases |
US8761439B1 (en) | 2011-08-24 | 2014-06-24 | Sri International | Method and apparatus for generating three-dimensional pose using monocular visual sensor and inertial measurement unit |
US9148650B2 (en) | 2012-09-17 | 2015-09-29 | Nec Laboratories America, Inc. | Real-time monocular visual odometry |
US9576183B2 (en) | 2012-11-02 | 2017-02-21 | Qualcomm Incorporated | Fast initialization for monocular visual SLAM |
US10254118B2 (en) | 2013-02-21 | 2019-04-09 | Regents Of The University Of Minnesota | Extrinsic parameter calibration of a vision-aided inertial navigation system |
US9674507B2 (en) | 2013-04-30 | 2017-06-06 | Qualcomm Incorporated | Monocular visual SLAM with general and panorama camera movements |
US20140341465A1 (en) | 2013-05-16 | 2014-11-20 | The Regents Of The University Of California | Real-time pose estimation system using inertial and feature measurements |
US10247556B2 (en) | 2013-07-23 | 2019-04-02 | The Regents Of The University Of California | Method for processing feature measurements in vision-aided inertial navigation |
US10306206B2 (en) | 2013-07-23 | 2019-05-28 | The Regents Of The University Of California | 3-D motion estimation and online temporal calibration for camera-IMU systems |
KR20160037972A (ko) | 2013-07-24 | 2016-04-06 | 더 리전트 오브 더 유니버시티 오브 캘리포니아 | 카메라 모션 추정 및 정정 방법 |
EP2854104A1 (en) | 2013-09-25 | 2015-04-01 | Technische Universität München | Semi-dense simultaneous localization and mapping |
US9243915B2 (en) | 2013-10-16 | 2016-01-26 | Physical Devices, Llc | Devices and methods for passive navigation |
US9390344B2 (en) | 2014-01-09 | 2016-07-12 | Qualcomm Incorporated | Sensor-based camera motion detection for unconstrained slam |
CN103983263A (zh) | 2014-05-30 | 2014-08-13 | 东南大学 | 一种采用迭代扩展卡尔曼滤波与神经网络的惯性/视觉组合导航方法 |
US9430847B2 (en) | 2014-06-12 | 2016-08-30 | Mitsubishi Electric Research Laboratories, Inc. | Method for stereo visual odometry using points, lines and planes |
US10113910B2 (en) * | 2014-08-26 | 2018-10-30 | Digimarc Corporation | Sensor-synchronized spectrally-structured-light imaging |
US9709404B2 (en) | 2015-04-17 | 2017-07-18 | Regents Of The University Of Minnesota | Iterative Kalman Smoother for robust 3D localization for vision-aided inertial navigation |
EP3295422B1 (en) * | 2015-05-10 | 2020-01-01 | Mobileye Vision Technologies Ltd. | Road profile along a predicted path |
WO2016187757A1 (en) | 2015-05-23 | 2016-12-01 | SZ DJI Technology Co., Ltd. | Sensor fusion using inertial and image sensors |
US9965705B2 (en) * | 2015-11-03 | 2018-05-08 | Baidu Usa Llc | Systems and methods for attention-based configurable convolutional neural networks (ABC-CNN) for visual question answering |
CN105374043B (zh) * | 2015-12-02 | 2017-04-05 | 福州华鹰重工机械有限公司 | 视觉里程计背景过滤方法及装置 |
EP3182373B1 (en) | 2015-12-17 | 2019-06-19 | STMicroelectronics S.A. | Improvements in determination of an ego-motion of a video apparatus in a slam type algorithm |
CN105911518A (zh) * | 2016-03-31 | 2016-08-31 | 山东大学 | 机器人定位方法 |
CN106017458B (zh) | 2016-05-18 | 2019-08-27 | 宁波华狮智能科技有限公司 | 移动机器人组合式导航方法及装置 |
CN106097391B (zh) * | 2016-06-13 | 2018-11-16 | 浙江工商大学 | 一种基于深度神经网络的识别辅助的多目标跟踪方法 |
GB201616097D0 (en) * | 2016-09-21 | 2016-11-02 | Univ Oxford Innovation Ltd | Segmentation of path proposals |
US10803323B2 (en) * | 2017-05-16 | 2020-10-13 | Samsung Electronics Co., Ltd. | Electronic device and method of detecting driving event of vehicle |
EP3495992A1 (en) * | 2017-12-07 | 2019-06-12 | IMRA Europe SAS | Danger ranking using end to end deep neural network |
-
2018
- 2018-01-17 AU AU2018208816A patent/AU2018208816B2/en active Active
- 2018-01-17 JP JP2019539772A patent/JP7221203B2/ja active Active
- 2018-01-17 EP EP18701541.7A patent/EP3571665B1/en active Active
- 2018-01-17 WO PCT/GB2018/050134 patent/WO2018134589A1/en active Application Filing
- 2018-01-17 CN CN201880020542.1A patent/CN110785777B/zh active Active
- 2018-01-17 US US16/479,868 patent/US11436749B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10170299A (ja) * | 1996-12-10 | 1998-06-26 | Ricoh Co Ltd | 携帯型情報処理装置及び携帯型情報処理装置の場所識別方法 |
JPH11110542A (ja) * | 1997-09-30 | 1999-04-23 | Toshiba Corp | パターン抽出方法および装置、そのプログラムを記録した媒体 |
JP2009009296A (ja) * | 2007-06-27 | 2009-01-15 | Noritsu Koki Co Ltd | 顔画像変形方法とこの方法を実施する顔画像変形装置 |
Also Published As
Publication number | Publication date |
---|---|
US11436749B2 (en) | 2022-09-06 |
JP7221203B2 (ja) | 2023-02-13 |
US20210350563A1 (en) | 2021-11-11 |
AU2018208816B2 (en) | 2022-06-16 |
WO2018134589A1 (en) | 2018-07-26 |
EP3571665B1 (en) | 2023-06-07 |
CN110785777A (zh) | 2020-02-11 |
AU2018208816A1 (en) | 2019-08-15 |
CN110785777B (zh) | 2024-04-02 |
EP3571665A1 (en) | 2019-11-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7121017B2 (ja) | モバイル装置の位置特定方法 | |
Clark et al. | Vinet: Visual-inertial odometry as a sequence-to-sequence learning problem | |
US10885659B2 (en) | Object pose estimating method and apparatus | |
US11559885B2 (en) | Method and system for grasping an object | |
EP3588129A1 (en) | Apparatus and method with ego motion estimation | |
US11138742B2 (en) | Event-based feature tracking | |
Peretroukhin et al. | Reducing drift in visual odometry by inferring sun direction using a bayesian convolutional neural network | |
CN111914878B (zh) | 特征点跟踪训练及跟踪方法、装置、电子设备及存储介质 | |
US11315264B2 (en) | Laser sensor-based map generation | |
US20230080133A1 (en) | 6d pose and shape estimation method | |
JP7221203B2 (ja) | モバイル装置の位置特定方法 | |
CN113033555B (zh) | 基于度量学习的视觉slam闭环检测方法 | |
US20220292715A1 (en) | Method and apparatus for estimating pose of device | |
Ge et al. | Vipose: Real-time visual-inertial 6d object pose tracking | |
CN116433722A (zh) | 目标跟踪方法、电子设备、存储介质及程序产品 | |
Azzam et al. | A deep learning framework for robust semantic SLAM | |
Gaspar et al. | Comparative study of visual odometry and slam techniques | |
KR102615412B1 (ko) | 비주얼 로컬라이제이션을 수행하기 위한 방법 및 장치 | |
US11922667B2 (en) | Object region identification device, object region identification method, and object region identification program | |
KR102497640B1 (ko) | 이미지의 객체 감지 및 분류 방법 및 시스템 | |
US20230419507A1 (en) | Systems and methods for motion estimation and view prediction | |
Zeng et al. | SF-VIO: a visual-inertial odometry based on selective feature sample using attention mechanism | |
Holmboe | Fish tracking using detection in Aquaculture: A Pilot Study | |
WO2022183137A1 (en) | Visual-inertial slam system | |
CN117274373A (zh) | 通过隐式神经光场表示的实时单目slam方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210115 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220407 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220727 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221017 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230118 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230201 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7221203 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |