JP2017117386A - 自己運動推定システム、自己運動推定システムの制御方法及びプログラム - Google Patents
自己運動推定システム、自己運動推定システムの制御方法及びプログラム Download PDFInfo
- Publication number
- JP2017117386A JP2017117386A JP2015255056A JP2015255056A JP2017117386A JP 2017117386 A JP2017117386 A JP 2017117386A JP 2015255056 A JP2015255056 A JP 2015255056A JP 2015255056 A JP2015255056 A JP 2015255056A JP 2017117386 A JP2017117386 A JP 2017117386A
- Authority
- JP
- Japan
- Prior art keywords
- image
- timing
- distance
- light
- self
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 28
- 230000033001 locomotion Effects 0.000 claims abstract description 113
- 230000008859 change Effects 0.000 claims abstract description 10
- 238000004364 calculation method Methods 0.000 claims description 20
- 230000009466 transformation Effects 0.000 claims description 13
- 238000003708 edge detection Methods 0.000 claims description 12
- 238000003384 imaging method Methods 0.000 claims description 12
- 238000013459 approach Methods 0.000 claims description 11
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 230000001186 cumulative effect Effects 0.000 claims description 2
- 238000005259 measurement Methods 0.000 description 35
- 238000012545 processing Methods 0.000 description 16
- 230000014509 gene expression Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 5
- 238000013500 data storage Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000002939 conjugate gradient method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000010248 power generation Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
【解決手段】移動体に搭載され、外界の存在物との相対的な位置の変化を検出することにより移動体の運動状態を推定する自己運動推定システムであって、外界の明暗画像と外界の各点までの複数の距離情報を有する距離画像とを所定周期に取得し、明暗画像からエッジを検出し、第1タイミングで取得した距離画像と明暗画像とを照合し、明暗画像におけるエッジの位置に対応する距離画像内の距離情報をエッジ位置距離情報として特定し、第1タイミングにおけるエッジ位置距離情報と、第1タイミングから第2タイミングまでの間の移動体の推定移動量と、を用いて算出される、エッジ位置距離情報の第2タイミングにおける明暗画像内での投影位置が、第2タイミングで取得される明暗画像から検出されるエッジの位置に近づくように推定移動量を算出する。
【選択図】図1
Description
本実施形態に係る移動体1000は、例えば自動運転車、ヒューマノイドロボット、パーソナルモビリティなど、自らの判断で自らの運動を自律的に制御することが可能な装置である。
自己運動推定システム100は、図1に示すように、距離画像取得部111、距離測定データ記憶部112、明暗画像取得部121、エッジ検出部122、特徴ペア生成部131、特徴ペア記憶部132、移動量算出部141、移動量記憶部142、3次元地図生成部150を備える。
なおwiはスケールである。そして、エッジ画像Etのqt,iでの画素値が1ならば、pt,iとqt,iを対応づけ、RGBD特徴ペアとする。その画素値が0ならば何もしない。時刻tにおけるRGBD特徴ペアの集合をCtとする。
そして移動量算出部141は、Etの中でqt,iに最も近いエッジ点et,iを、pt-1,iに対応づける。ただしこの際、対応づけの精度を上げるために、原画像It-1とItにおいて、qt-1,iとet,iをそれぞれ中心とする局所画像のコサイン相関あるいは正規化相関を計算して、相関値が閾値を超えた場合に、et,iをpt-1,iに対応づけると良い。
次に、本実施形態に係る自己運動推定システム100の処理の流れを、図6に示すフローチャートに従って説明する。
以下に、自己運動推定システム100のその他の実施形態を説明する。以下に記載する各態様により、より一層効率的かつ正確に自己運動状態を推定することが可能となる。
上述したように、時刻tの距離画像Ptと明暗画像Itとの組を、フレームFt=(Pt,It)と呼ぶが、一般的に画像センサ300の方が距離センサ200よりも取得周期が短い。この場合、明暗画像取得部121が第1時間毎に明暗画像Itを取得するとすると、距離画像取得部111は、第1時間の整数倍(n倍)の第2時間毎に距離画像Ptを取得する。
より具体的には、画像センサ300の取得周期が距離センサ200の取得周期の1/n倍の場合、1つの3D点群Pt-1に対して、n枚の明暗画像It-1,It…It+n-2が対応するが、自己運動推定システム100は、It+k-1(k=0,…,n-1)までの推定移動量が得られているとして、It+kの位置合せを次のように行う。
この際自己運動推定システム100は、第1実施形態と同様に、原画像It+k-1とIt+kにおいて、qt+k-1,iとet,iをそれぞれ中心とする局所画像のコサイン相関あるいは正規化相関を計算して相関値が閾値を超えた場合に、et+k,iをpt-1,iに対応づける。なお相関計算にはqt-1,iを用いてもよいが、qt+k-1,iの方が視点変化による画像の歪みを小さくできる。
次に、本実施形態に係る自己運動推定システム100は、明暗画像Itを階層化して処理することも可能である。
次に、本実施形態に係る自己運動推定システム100は、移動量を推定する処理を以下のように改良することも可能である。つまり、過去のフレームで算出した推定移動量を用いて、ICPの探索範囲を狭める。
次に、本実施形態に係る自己運動推定システム100は、以下のようにして過去Nフレームの距離画像を用いて距離画像Ptを強化することで、よりロバストに運動推定を行うことも可能である。
とくに、移動体1000が単調な環境を走行する場合のように、目立ったランドマークが少なく、また、繰り返し構造があるような場合に顕著である。フレーム間の移動距離が大きいほど予測誤差は大きくなり、はずれる可能性も高くなる。
111 距離画像取得部
112 距離測定データ記憶部
121 明暗画像取得部
122 エッジ検出部
131 特徴ペア生成部
132 特徴ペア記憶部
141 移動量算出部
142 移動量記憶部
150 3次元地図生成部
200 距離センサ
300 画像センサ
400 運動制御部
500 アクチュエータ
1000 移動体
Claims (8)
- 移動体に搭載され、外界の存在物との相対的な位置の変化を検出することにより、前記移動体の運動状態を推定する自己運動推定システムであって、
前記移動体に搭載される画像センサによって所定周期で撮影される外界の明暗画像を取得する明暗画像取得部と、
前記移動体に搭載される距離センサによって所定周期で計測される、前記画像センサの撮影範囲に含まれる外界の各点までの複数の距離情報を有する距離画像を取得する距離画像取得部と、
前記明暗画像からエッジを検出するエッジ検出部と、
第1タイミングで取得した前記距離画像と前記明暗画像とを照合し、前記明暗画像におけるエッジの位置に対応する前記距離画像内の距離情報を、エッジ位置距離情報として特定するエッジ位置距離情報特定部と、
前記第1タイミングにおける前記エッジ位置距離情報と、前記第1タイミングから第2タイミングまでの間の所定時間における前記移動体の推定移動量と、を用いて算出される、前記エッジ位置距離情報の前記第2タイミングにおける明暗画像内での透視変換による投影位置が、前記第2タイミングで取得される前記明暗画像から検出されるエッジの位置に近づくように、前記移動体の前記推定移動量を算出する移動量算出部と、
を備えることを特徴とする自己運動推定システム。 - 請求項1に記載の自己運動推定システムであって、
前記明暗画像取得部は、第1時間毎に前記明暗画像を取得し、
前記距離画像取得部は、前記第1時間の整数倍の第2時間毎に前記距離画像を取得し、
前記移動量算出部は、前記明暗画像及び前記距離画像の双方を取得するタイミングを前記第1タイミングとすると共に、新たな前記明暗画像を取得する前記第1時間毎に到来するタイミングを前記第2タイミングとして、前記第1時間毎に、前記推定移動量を算出し、
前記エッジ位置距離情報特定部は、前記明暗画像取得部が前記明暗画像を取得する前記第1時間毎に、前記第1タイミングで取得した前記距離画像と、前記第1タイミングから前記第2タイミングまでの前記推定移動量の累積値とを用いて算出される、前記第2タイミングにおける前記距離画像の透視変換による投影位置と、前記第2タイミングにおける前記明暗画像と、を照合し、前記明暗画像におけるエッジの位置に対応する前記距離画像内の距離情報を、エッジ位置距離情報として特定する
ことを特徴とする自己運動推定システム。 - 請求項1又は2に記載の自己運動推定システムであって、
前記明暗画像には、解像度が相対的に低い第1明暗画像と、解像度が相対的に高い第2明暗画像と、が含まれ、
前記エッジ検出部は、前記第1明暗画像及び前記第2明暗画像のそれぞれについてエッジを検出し、
前記エッジ位置距離情報特定部は、前記第1タイミングで取得した前記距離画像と前記第1明暗画像とを照合し、前記第1明暗画像におけるエッジの位置に対応する前記距離画像内の距離情報を第1エッジ位置距離情報として特定すると共に、前記第1タイミングで取得した前記距離画像と前記第2明暗画像とを照合し、前記第2明暗画像におけるエッジの位置に対応する前記距離画像内の距離情報を第2エッジ位置距離情報として特定し、
前記移動量算出部は、前記第1タイミングにおける前記第1エッジ位置距離情報と、前記第1タイミングから前記第2タイミングまでの前記所定時間における前記移動体の推定移動量と、を用いて算出される、前記第1エッジ位置距離情報の前記第2タイミングにおける明暗画像内での透視変換による投影位置が、前記第2タイミングで取得される第1明暗画像におけるエッジの位置に近づくように、前記推定移動量を算出した後に、前記算出した推定移動量を初期値として、前記第1タイミングにおける前記第2エッジ位置距離情報と、前記第1タイミングから前記第2タイミングまでの前記所定時間における前記移動体の推定移動量と、を用いて算出される、前記第2エッジ位置距離情報の前記第2タイミングにおける明暗画像内での透視変換による投影位置が、前記第2タイミングで取得される第2明暗画像におけるエッジの位置に近づくように、前記推定移動量を算出する
ことを特徴とする自己運動推定システム。 - 請求項1〜3のいずれかに記載の自己運動推定システムであって、
前記移動量算出部は、前記所定時間毎に前記推定移動量を算出する際に、直近に算出した前記移動体の推定移動量を予測値として用いる
ことを特徴とする自己運動推定システム。 - 請求項1〜4のいずれかに記載の自己運動推定システムであって、
前記距離画像取得部は、前記距離センサから新たな距離画像を取得した際に、過去に取得した距離画像と、前記過去の距離画像を取得した時点から現在までの前記移動体の推定移動量と、を用いて、前記過去の距離画像に含まれる距離情報の位置を現在の位置に投影し、投影後の前記距離情報を前記新たな距離画像に追加する
ことを特徴とする自己運動推定システム。 - 請求項1〜5のいずれかに記載の自己運動推定システムであって、
前記画像センサは、第1撮影範囲の撮影を行う第1画像センサと、第2撮影範囲の撮影を行う第2画像センサと、を有して構成され、
前記明暗画像取得部が取得する前記明暗画像には、前記第1画像センサにより撮影された第1明暗画像と、前記第2画像センサにより撮影された第2明暗画像と、が含まれる
ことを特徴とする自己運動推定システム。 - 移動体に搭載され、外界の存在物との相対的な位置の変化を検出することにより、前記移動体の運動状態を推定する自己運動推定システムの制御方法であって、
前記自己運動推定システムは、前記移動体に搭載される画像センサによって所定周期で撮影される外界の明暗画像を取得し、
前記自己運動推定システムは、前記移動体に搭載される距離センサによって所定周期で計測される、前記画像センサの撮影範囲に含まれる外界の各点までの複数の距離情報を有する距離画像を取得し、
前記自己運動推定システムは、前記明暗画像からエッジを検出し、
前記自己運動推定システムは、第1タイミングで取得した前記距離画像と前記明暗画像とを照合し、前記明暗画像におけるエッジの位置に対応する前記距離画像内の距離情報を、エッジ位置距離情報として特定し、
前記自己運動推定システムは、前記第1タイミングにおける前記エッジ位置距離情報と、前記第1タイミングから第2タイミングまでの間の所定時間における前記移動体の推定移動量と、を用いて算出される、前記エッジ位置距離情報の前記第2タイミングにおける明暗画像内での透視変換による投影位置が、前記第2タイミングで取得される前記明暗画像から検出されるエッジの位置に近づくように、前記移動体の前記推定移動量を算出する
ことを特徴とする自己運動推定システムの制御方法。 - 移動体に搭載され、外界の存在物との相対的な位置の変化を検出することにより、前記移動体の運動状態を推定するコンピュータからなる自己運動推定システムに、
前記移動体に搭載される画像センサによって所定周期で撮影される外界の明暗画像を取得する手順と、
前記移動体に搭載される距離センサによって所定周期で計測される、前記画像センサの撮影範囲に含まれる外界の各点までの複数の距離情報を有する距離画像を取得する手順と、
前記明暗画像からエッジを検出する手順と、
第1タイミングで取得した前記距離画像と前記明暗画像とを照合し、前記明暗画像におけるエッジの位置に対応する前記距離画像内の距離情報を、エッジ位置距離情報として特定する手順と、
前記第1タイミングにおける前記エッジ位置距離情報と、前記第1タイミングから第2タイミングまでの間の所定時間における前記移動体の推定移動量と、を用いて算出される、前記エッジ位置距離情報の前記第2タイミングにおける明暗画像内での透視変換による投影位置が、前記第2タイミングで取得される前記明暗画像から検出されるエッジの位置に近づくように、前記移動体の前記推定移動量を算出する手順と、
を実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015255056A JP6782903B2 (ja) | 2015-12-25 | 2015-12-25 | 自己運動推定システム、自己運動推定システムの制御方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015255056A JP6782903B2 (ja) | 2015-12-25 | 2015-12-25 | 自己運動推定システム、自己運動推定システムの制御方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017117386A true JP2017117386A (ja) | 2017-06-29 |
JP6782903B2 JP6782903B2 (ja) | 2020-11-11 |
Family
ID=59231729
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015255056A Active JP6782903B2 (ja) | 2015-12-25 | 2015-12-25 | 自己運動推定システム、自己運動推定システムの制御方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6782903B2 (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019044500A1 (ja) * | 2017-09-04 | 2019-03-07 | 日本電産株式会社 | 位置推定システム、および当該位置推定システムを備える移動体 |
WO2019053986A1 (ja) * | 2017-09-14 | 2019-03-21 | ソニー株式会社 | 自己位置推定装置と自己位置推定方法とプログラムおよび移動体装置 |
JP2019187908A (ja) * | 2018-04-26 | 2019-10-31 | 株式会社三共 | 遊技機 |
JP2020148700A (ja) * | 2019-03-15 | 2020-09-17 | オムロン株式会社 | 距離画像センサ、および角度情報取得方法 |
JP2020161141A (ja) * | 2019-03-27 | 2020-10-01 | エルジー エレクトロニクス インコーポレイティド | 移動ロボット及びその制御方法 |
CN112649815A (zh) * | 2019-10-10 | 2021-04-13 | 华为技术有限公司 | 处理数据的方法和装置 |
JP2021101365A (ja) * | 2020-06-22 | 2021-07-08 | 北京百度網訊科技有限公司 | 測位方法、測位装置及び電子機器 |
WO2021181686A1 (ja) * | 2020-03-13 | 2021-09-16 | 学校法人 千葉工業大学 | 自己位置推定装置 |
JP2022504787A (ja) * | 2018-10-31 | 2022-01-13 | ルノー エス.ア.エス. | 自動車両の移動ベクトルを決定するための方法、車両の速度を判断するための方法、および関連する車両 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007316966A (ja) * | 2006-05-26 | 2007-12-06 | Fujitsu Ltd | 移動ロボット、その制御方法及びプログラム |
JP2008197884A (ja) * | 2007-02-13 | 2008-08-28 | Toyota Motor Corp | 環境地図の生成方法及び移動ロボット |
JP2009017462A (ja) * | 2007-07-09 | 2009-01-22 | Sanyo Electric Co Ltd | 運転支援システム及び車両 |
JP2010060451A (ja) * | 2008-09-04 | 2010-03-18 | Toyota Motor Corp | ロボット装置及び物体の位置姿勢推定方法 |
JP2012123781A (ja) * | 2010-11-19 | 2012-06-28 | Canon Inc | 情報処理装置、情報処理システム及び情報処理方法 |
JP2013003110A (ja) * | 2011-06-21 | 2013-01-07 | Denso Corp | 車両状態検出装置 |
WO2015072217A1 (ja) * | 2013-11-13 | 2015-05-21 | 日産自動車株式会社 | 移動体位置推定装置および移動体位置推定方法 |
US20150292891A1 (en) * | 2014-04-11 | 2015-10-15 | Nissan North America, Inc | Vehicle position estimation system |
-
2015
- 2015-12-25 JP JP2015255056A patent/JP6782903B2/ja active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007316966A (ja) * | 2006-05-26 | 2007-12-06 | Fujitsu Ltd | 移動ロボット、その制御方法及びプログラム |
JP2008197884A (ja) * | 2007-02-13 | 2008-08-28 | Toyota Motor Corp | 環境地図の生成方法及び移動ロボット |
JP2009017462A (ja) * | 2007-07-09 | 2009-01-22 | Sanyo Electric Co Ltd | 運転支援システム及び車両 |
JP2010060451A (ja) * | 2008-09-04 | 2010-03-18 | Toyota Motor Corp | ロボット装置及び物体の位置姿勢推定方法 |
JP2012123781A (ja) * | 2010-11-19 | 2012-06-28 | Canon Inc | 情報処理装置、情報処理システム及び情報処理方法 |
JP2013003110A (ja) * | 2011-06-21 | 2013-01-07 | Denso Corp | 車両状態検出装置 |
WO2015072217A1 (ja) * | 2013-11-13 | 2015-05-21 | 日産自動車株式会社 | 移動体位置推定装置および移動体位置推定方法 |
US20150292891A1 (en) * | 2014-04-11 | 2015-10-15 | Nissan North America, Inc | Vehicle position estimation system |
Non-Patent Citations (6)
Title |
---|
JI ZHANG,外1名: ""Visual-lidar Odometry and Mapping: Low-drift, Robust, and Fast"", 2015 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION (ICRA), JPN6019033590, 2015, pages 2174 - 2181, XP033168700, ISSN: 0004354852, DOI: 10.1109/ICRA.2015.7139486 * |
JOHN CANNY: ""A Computational Approach to Edge Detection"", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, vol. 8, no. 6, JPN6019033593, 1986, pages 679 - 698, ISSN: 0004354854 * |
MASAHIRO TOMONO: ""Line-based 3D Mapping from Edge-Points Using a Stereo Camera"", 2014 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION (ICRA), JPN6019033596, 2014, pages 3728 - 3734, ISSN: 0004354856 * |
MASAHIRO TOMONO: ""Robust 3D SLAM with a Stereo Camera Based on an Edge-Point ICP Algorithm"", 2009 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION, JPN6019033591, 2009, pages 4306 - 4311, XP031509763, ISSN: 0004354853 * |
PAUL J. BESL,外1名: ""A Method of Registration of 3-D Shapes"", ,IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, vol. 14, no. 2, JPN6019033595, 1992, pages 239 - 256, XP002809829, ISSN: 0004354855 * |
友納正裕: "「エッジ点追跡に基づくステレオカメラを用いた三次元SLAM」", 日本ロボット学会誌, vol. 27巻,7号, JPN6019033598, 2009, pages 759 - 767, ISSN: 0004354857 * |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019044500A1 (ja) * | 2017-09-04 | 2019-03-07 | 日本電産株式会社 | 位置推定システム、および当該位置推定システムを備える移動体 |
JPWO2019044500A1 (ja) * | 2017-09-04 | 2020-10-01 | 日本電産株式会社 | 位置推定システム、および当該位置推定システムを備える移動体 |
WO2019053986A1 (ja) * | 2017-09-14 | 2019-03-21 | ソニー株式会社 | 自己位置推定装置と自己位置推定方法とプログラムおよび移動体装置 |
JP2019187908A (ja) * | 2018-04-26 | 2019-10-31 | 株式会社三共 | 遊技機 |
JP7166447B2 (ja) | 2018-10-31 | 2022-11-07 | ルノー エス.ア.エス. | 自動車両の移動ベクトルを決定するための方法、車両の速度を判断するための方法、および関連する車両 |
JP2022504787A (ja) * | 2018-10-31 | 2022-01-13 | ルノー エス.ア.エス. | 自動車両の移動ベクトルを決定するための方法、車両の速度を判断するための方法、および関連する車両 |
CN113508309A (zh) * | 2019-03-15 | 2021-10-15 | 欧姆龙株式会社 | 距离图像传感器以及角度信息获取方法 |
JP2020148700A (ja) * | 2019-03-15 | 2020-09-17 | オムロン株式会社 | 距離画像センサ、および角度情報取得方法 |
WO2020189071A1 (ja) * | 2019-03-15 | 2020-09-24 | オムロン株式会社 | 距離画像センサ、および角度情報取得方法 |
JP2020161141A (ja) * | 2019-03-27 | 2020-10-01 | エルジー エレクトロニクス インコーポレイティド | 移動ロボット及びその制御方法 |
US11400600B2 (en) | 2019-03-27 | 2022-08-02 | Lg Electronics Inc. | Mobile robot and method of controlling the same |
JP7150773B2 (ja) | 2019-03-27 | 2022-10-11 | エルジー エレクトロニクス インコーポレイティド | 移動ロボット及びその制御方法 |
AU2020247141B2 (en) * | 2019-03-27 | 2023-05-11 | Lg Electronics Inc. | Mobile robot and method of controlling the same |
CN112649815A (zh) * | 2019-10-10 | 2021-04-13 | 华为技术有限公司 | 处理数据的方法和装置 |
JPWO2021181686A1 (ja) * | 2020-03-13 | 2021-09-16 | ||
WO2021181686A1 (ja) * | 2020-03-13 | 2021-09-16 | 学校法人 千葉工業大学 | 自己位置推定装置 |
JP7199772B2 (ja) | 2020-03-13 | 2023-01-06 | 学校法人千葉工業大学 | 自己位置推定装置 |
JP2021101365A (ja) * | 2020-06-22 | 2021-07-08 | 北京百度網訊科技有限公司 | 測位方法、測位装置及び電子機器 |
JP7258066B2 (ja) | 2020-06-22 | 2023-04-14 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 測位方法、測位装置及び電子機器 |
US11713970B2 (en) | 2020-06-22 | 2023-08-01 | Beijing Baidu Netcom Science Technology Co., Ltd. | Positioning method, electronic device and computer readable storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP6782903B2 (ja) | 2020-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6782903B2 (ja) | 自己運動推定システム、自己運動推定システムの制御方法及びプログラム | |
CN112785702B (zh) | 一种基于2d激光雷达和双目相机紧耦合的slam方法 | |
Ishikawa et al. | Lidar and camera calibration using motions estimated by sensor fusion odometry | |
CN107160395B (zh) | 地图构建方法及机器人控制系统 | |
US10334168B2 (en) | Threshold determination in a RANSAC algorithm | |
CN106940186B (zh) | 一种机器人自主定位与导航方法及系统 | |
KR101725060B1 (ko) | 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
CN108020827B (zh) | 移动成像平台校准 | |
US11003939B2 (en) | Information processing apparatus, information processing method, and storage medium | |
CN104848858B (zh) | 二维码以及用于机器人的视觉-惯性组合导航系统及方法 | |
EP3028252B1 (en) | Rolling sequential bundle adjustment | |
KR101776622B1 (ko) | 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
US10529076B2 (en) | Image processing apparatus and image processing method | |
JP7134012B2 (ja) | 視差推定装置及び方法 | |
KR101776620B1 (ko) | 검색 기반 상관 매칭을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
US8824775B2 (en) | Robot and control method thereof | |
CN110689584A (zh) | 多相机环境中主动式刚体的位姿定位方法及相关设备 | |
Muñoz-Bañón et al. | Targetless camera-LiDAR calibration in unstructured environments | |
CN109214254B (zh) | 一种确定机器人位移的方法及装置 | |
Cvišić et al. | Recalibrating the KITTI dataset camera setup for improved odometry accuracy | |
CN111998862A (zh) | 一种基于bnn的稠密双目slam方法 | |
JP6410231B2 (ja) | 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム | |
El Bouazzaoui et al. | Enhancing RGB-D SLAM performances considering sensor specifications for indoor localization | |
Herau et al. | MOISST: Multimodal Optimization of Implicit Scene for SpatioTemporal Calibration | |
US20220291009A1 (en) | Information processing apparatus, information processing method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181005 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190823 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190903 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191028 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200317 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200401 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200929 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201007 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6782903 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |