JP7236565B2 - 位置姿勢決定方法、装置、電子機器、記憶媒体及びコンピュータプログラム - Google Patents
位置姿勢決定方法、装置、電子機器、記憶媒体及びコンピュータプログラム Download PDFInfo
- Publication number
- JP7236565B2 JP7236565B2 JP2021568700A JP2021568700A JP7236565B2 JP 7236565 B2 JP7236565 B2 JP 7236565B2 JP 2021568700 A JP2021568700 A JP 2021568700A JP 2021568700 A JP2021568700 A JP 2021568700A JP 7236565 B2 JP7236565 B2 JP 7236565B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- map
- global
- point cloud
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Image Processing (AREA)
Description
本願は、2020年8月17日に中国特許局に提出された、出願番号が202010826704.Xである、中国特許出願に基づいて提出されるものであり、当該中国特許出願の優先権を主張し、当該中国特許出願の全ての内容が参照によって本願に組み込まれる。
目標場面における第1端末によって収集される収集データを取得することと、前記目標場面を含む全局地図を取得することであって、ここで、前記全局地図は、第2端末が前記目標場面を含む全局場面に対してデータ収集を行って得られた地図データに基づいて生成されるものであり、前記全局地図は、精度条件を満たすことと、
前記収集データと前記全局地図との特徴対応関係に基づいて、収集過程における前記第1端末の少なくとも1つの第1位置姿勢を決定することと、を含む。
目標場面における第1端末によって収集される収集データを取得するように構成される、収集データ取得モジュールと、
前記目標場面を含む全局地図を取得するように構成される、全局地図取得モジュールであって、ここで、前記全局地図は、第2端末が前記目標場面を含む全局場面に対してデータ収集を行って得られた地図データに基づいて生成されるものであり、前記全局地図は、精度条件を満たす、全局地図取得モジュールと、
前記収集データと前記全局地図との特徴対応関係に基づいて、収集過程における前記第1端末の少なくとも1つの第1位置姿勢を決定するように構成される、位置姿勢決定モジュールと、を備える。
本発明の実施例は、さらに、プロセッサと、プロセッサ実行可能命令を記憶するように構成されるメモリとを備える、電子機器を提供し、ここで、前記プロセッサは、前記メモリに記憶される命令を呼び出して、上記のいずれか1つの位置姿勢決定方法を実行するように構成される。
第2端末によって収集される全局場面の地図データを取得することと、
地図データに基づいて、全局場面に対してオフラインで再構築を行い、全局場面の全局地図を生成することと、をさらに含む。
第2IMUデータ及びレーザ点群に基づいて、データ収集過程における第2端末の少なくとも1つの第2位置姿勢を決定することと、
少なくとも1つの第2位置姿勢、及び第2収集画像に基づいて、全局場面に対して視覚地図再構築を行い、少なくとも1フレームの視覚点群を得ることであって、ここで、視覚点群は、全局場面における少なくとも1つの三次元特徴点を含むことと、
少なくとも1フレームの視覚点群に基づいて、全局場面の全局地図を得ることと、を含む。
少なくとも1つの第2位置姿勢、及び第2収集画像に基づいて、全局場面に対して視覚地図再構築を行い、少なくとも1フレームの初期視覚点群を得ることと、
レーザ点群及び/又は第2収集画像に基づいて、視覚地図再構築過程における第3拘束情報を取得することと、
第3拘束情報に基づいて、少なくとも1フレームの初期視覚点群を最適化して、少なくとも1フレームの視覚点群を得ることと、を含む。
リアルタイムのレーザオドメトリとマッピング(LOAM:Lidar Odometry and Mapping in real-time)方法によって、レーザ点群に対して特徴抽出を行い、レーザ点群の平面特徴情報及びエッジ特徴情報を決定することと、
レーザ点群の平面特徴情報に基づいて、視覚地図再構築過程におけるレーザ点群の平面拘束情報を決定することと、
レーザ点群のエッジ特徴情報に基づいて、視覚地図再構築過程におけるレーザ点群のエッジ拘束情報を決定することと、
レーザ点群の平面拘束情報及び/又はレーザ点群のエッジ拘束情報に基づいて、視覚地図再構築過程における第3拘束情報を取得することと、を含み得る。
(1)
及び
は、2つの異なるレーザ点群座標系であり、
は、座標系
における特徴点
の平面特徴の法線ベクトルであり、
は、
の転置であり、
は、座標系nとmとの変換関係であり、
は、座標系nにおける特徴点であり、
は、座標系mにおける特徴点であり、
は、
という座標変換関係に基づいて、
に対して実行された座標変換であり、
は、レーザ点群の平面特徴の共分散行列であり、ここで、
の数値は、実際の場合に応じて柔軟に設定することができ、例えば、
は、0.2m2に設定することができる。
(2)
は、座標系mにおける特徴点
のエッジ特徴方向ベクトルであり、
は、レーザ点群のエッジ特徴の共分散行列であり、他のパラメータは、式(1)の対応するパラメータと同じ意味であり、ここで、
の数値は、実際の場合に応じて柔軟に設定することができ、例えば、
は、0.5m2に設定することができる。
初期視覚点群に対応する三次元特徴点を初期視覚点群に投影して、投影結果を得ることと、
投影結果と、初期視覚点群内の二次元特徴点との誤差に基づいて、視覚地図再構築過程における視覚拘束情報を取得することであって、ここで、二次元特徴点は、初期視覚点群内の三次元特徴点に対応する二次元特徴点であることと、
視覚拘束情報に基づいて、視覚地図再構築過程における第3拘束情報を取得することと、を含み得る。
(3)
は、視覚点群に対応する第j個の三次元特徴点であり、
は、第iフレームの初期視覚点群内の三次元特徴点
に対応する二次元特徴点であり、
は、三次元特徴点
を第iフレームの初期視覚点群に投影した投影結果であり、
は、画像特徴拘束の共分散行列であり、ここで、
の数値は、実際の場合に応じて柔軟に設定することができ、例示的に、
は、2画素の平方に設定することができる。
(4)
は、レーザ点群内の、平面に属する点によって構成された点群であり、
は、
の集合であり、
は、レーザ点群内の、エッジに属する点によって構成された点群であり、
は、
の集合であり、他の各パラメータの意味は、上記の各開示された実施例を参照することができる。
全局場面におけるレーザ点群を取得するために使用される、レーダと、
全局場面における第2収集画像を取得するために使用される、視覚センサと、
全局場面における第2IMUデータを取得するために使用される、IMUセンサと、を備えることができる。
視覚センサとIMUセンサとの座標変換関係を較正して、第1較正結果を得ることと、
レーダと視覚センサとの座標変換関係を較正して、第2較正結果を得ることと、
第1較正結果及び第2較正結果に基づいて、視覚センサ、IMUセンサ及びレーダの間の座標変換関係に対して共同較正を行うことと、をさらに含み得る。
は、第2端末内の第i個の視覚センサであり、Iは、IMUセンサであり、Lは、レーダであり、
は、第i個の視覚センサとIMUセンサとの座標変換関係であり、
は、レーダとIMUセンサとの座標変換関係であり、
は、レーダと第i個の視覚センサとの座標変換関係であり、共分散
は、それぞれ、IMUセンサ及びレーダそれぞれの較正過程における誤差を表し、当該誤差の値は、実際の場合に応じて柔軟に設定することができ、例示的に、
及び
の対角行列内のすべての回転成分を、0.01rad2に設定することができ、
のすべての変換成分を、0.03m2に設定することができ、
のすべての変換分類を、(0.03、0.03、0.15)m2に設定することができる。
第2端末が地図データを収集する過程において、地図データに基づいて、全局場面に対してリアルタイムの再構築を行い、全局場面のリアルタイム地図を生成することと、
目標機器に地図データ及び/又はリアルタイム地図を送信することと、をさらに含み、ここで、目標機器は、全局場面に対してデータ収集を完了した地理範囲を表示するために使用される。
第1収集画像及び少なくとも1フレームの視覚点群に対して特徴マッチングを行い、全局特徴マッチング結果を得ることと、
全局特徴マッチング結果に基づいて、収集過程における第1端末の少なくとも1つの第1位置姿勢を決定することと、を含み得る。
第1収集画像内の二次元特徴点を、少なくとも1フレームの視覚点群に含まれる三次元特徴点とマッチングして、全局特徴マッチング結果を得ることを含み得る。
全局特徴マッチング結果及び/又はローカル特徴マッチング結果に基づいて、第1拘束情報を取得することと、
第1IMUデータに基づいて、第2拘束情報を取得することと、
第1拘束情報及び第2拘束情報のうちの少なくとも1つに基づいて、全局特徴マッチング結果及びローカル特徴マッチング結果を処理して、収集過程における第1端末の少なくとも1つの第1位置姿勢を得ることと、を含み得る。
(6)
は、第1端末内の第1収集画像を収集するための機器が、第iフレームの第1収集画像を収集する時の位置姿勢であり、
は、全局特徴マッチング結果内のマッチングする第j個の三次元特徴点であり、
は、全局特徴マッチング結果内の
マッチングする二次元特徴点であり、
は、三次元特徴点
を第iフレームの第1収集画像に投影した投影結果である。
(7)
は、ローカル特徴マッチング結果内のマッチングする第j個の二次元特徴点であり、
は、ローカル特徴マッチング結果内の、
が目標場面にマッピングした三次元特徴点であり、
は、三次元特徴点
を第iフレームの第1収集画像に投影した投影結果であり、他のパラメータの意味は、上記の開示された実施例を参照することができる。
(8)
は、第iフレームの第1収集画像を収集する時の第1端末のパラメータであり、
は、第1端末の速度であり、
は、第1端末内の、第1IMUデータを測定する機器の加速度オフセットであり、
は、第1端末内の、第1IMUデータを測定する機器のジャイロスコープ測定オフセットであり、
は、IMUコスト関数であり、他のパラメータの意味は上記の各開示された実施例を参照することができる。
(9)
収集過程における第1端末の少なくとも1つの第1位置姿勢に基づいて、運動真値データを決定することをさらに含み、ここで、運動真値データは、
測位結果の精度を判断すること、ニューラルネットワークを訓練すること、及び全局地図と情報融合を行うこと、のうちの少なくとも1つに使用される。
収集過程における第1端末の少なくとも1つの第1位置姿勢を前記運動真値データとすること、及び/又は、
収集データのうちの少なくとも1つ、及び収集過程における第1端末の少なくとも1つの第1位置姿勢を、運動真値データとすることを含み得、ここで、収集データは、
ワイヤレスネットワーク(WiFi)データ、ブルートゥースデータ、地磁気データ、超広帯域(UWB)データ、第1収集画像及び第1IMUデータのうちの1つ又は複数を含む。
Claims (17)
- 位置姿勢決定装置が実行する、位置姿勢決定方法であって、
目標場面における第1端末によって収集される収集データを取得することと、
前記目標場面を含む全局地図を取得することであって、前記全局地図は、第2端末が前記目標場面を含む全局場面に対してデータ収集を行って得られた地図データに基づいて生成されるものであり、前記全局地図は、精度条件を満たすことと、
前記収集データと前記全局地図との特徴対応関係に基づいて、収集過程における前記第1端末の少なくとも1つの第1位置姿勢を決定することと、を含み、
前記地図データは、前記全局場面におけるレーザ点群、第2収集画像及び第2IMUデータを含み、
前記位置姿勢決定方法は、
前記第2端末によって収集される前記全局場面の地図データを取得することと、
前記第2IMUデータ及び前記レーザ点群に基づいて、データ収集過程における前記第2端末の少なくとも1つの第2位置姿勢を決定することと、
少なくとも1つの前記第2位置姿勢及び前記第2収集画像に基づいて、前記全局場面に対して視覚地図再構築を行い、少なくとも1フレームの視覚点群を得ることであって、前記視覚点群は、前記全局場面における少なくとも1つの三次元特徴点を含むことと、
前記少なくとも1フレームの視覚点群に基づいて、前記全局場面の全局地図を得ることと、をさらに含む、
位置姿勢決定方法。 - 前記全局地図は、少なくとも1フレームの視覚点群を含み、前記視覚点群は、前記全局場面における少なくとも1つの三次元特徴点を含み、前記収集データは、第1収集画像を含み、
前記収集データと前記全局地図との特徴対応関係に基づいて、収集過程における前記第1端末の少なくとも1つの第1位置姿勢を決定することは、
前記第1収集画像及び前記少なくとも1フレームの視覚点群に対して特徴マッチングを行い、全局特徴マッチング結果を得ることと、
前記全局特徴マッチング結果に基づいて、収集過程における前記第1端末の少なくとも1つの前記第1位置姿勢を決定することと、を含む、
請求項1に記載の位置姿勢決定方法。 - 前記全局地図は、前記目標場面における少なくとも1フレームの視覚点群を含み、前記収集データは、少なくとも2フレームの第1収集画像を含み、
前記収集データと前記全局地図との特徴対応関係に基づいて、収集過程における前記第1端末の少なくとも1つの第1位置姿勢を決定することは、
前記第1収集画像及び前記少なくとも1フレームの視覚点群に対して特徴マッチングを行い、全局特徴マッチング結果を得ることと、
前記少なくとも2フレームの第1収集画像に対して特徴マッチングを行い、ローカル特徴マッチング結果を得ることと、
前記全局特徴マッチング結果及び前記ローカル特徴マッチング結果に基づいて、収集過程における前記第1端末の少なくとも1つの前記第1位置姿勢を決定することと、を含む、
請求項1に記載の位置姿勢決定方法。 - 前記収集データは、さらに、第1慣性計測(IMU)データを含み、
前記全局特徴マッチング結果及び前記ローカル特徴マッチング結果に基づいて、収集過程における前記第1端末の少なくとも1つの第1位置姿勢を決定することは、
前記全局特徴マッチング結果及び/又は前記ローカル特徴マッチング結果に基づいて、第1拘束情報を取得することと、
前記第1IMUデータに基づいて、第2拘束情報を取得することと、
前記第1拘束情報及び前記第2拘束情報のうちの少なくとも1つに基づいて、前記全局特徴マッチング結果及び前記ローカル特徴マッチング結果を処理して、収集過程における前記第1端末の少なくとも1つの前記第1位置姿勢を得ることと、を含む、
請求項3に記載の位置姿勢決定方法。 - 前記全局特徴マッチング結果及び前記ローカル特徴マッチング結果を処理することは、
バンドル調整によって、前記全局特徴マッチング結果及び前記ローカル特徴マッチング結果を処理することを含む、
請求項4に記載の位置姿勢決定方法。 - 前記第1収集画像及び前記少なくとも1フレームの視覚点群に対して特徴マッチングを行い、全局特徴マッチング結果を得ることは、
前記第1収集画像内の二次元特徴点を、前記少なくとも1フレームの視覚点群に含まれる三次元特徴点とマッチングして、前記全局特徴マッチング結果を得ることを含む、
請求項2ないし5のいずれか一項に記載の位置姿勢決定方法。 - 前記位置姿勢決定方法は、
収集過程における前記第1端末の少なくとも1つの前記第1位置姿勢に基づいて、運動真値データを決定することをさらに含む、
請求項1に記載の位置姿勢決定方法。 - 前記収集過程における前記第1端末の少なくとも1つの前記第1位置姿勢に基づいて、運動真値データを決定することは、
収集過程における前記第1端末の少なくとも1つの前記第1位置姿勢を前記運動真値データとすること、
及び/又は、
前記収集データのうちの少なくとも1つ、及び収集過程における前記第1端末の少なくとも1つの前記第1位置姿勢を、前記運動真値データとすることを含み、前記収集データは、
ワイヤレスネットワーク(WiFi)データ、ブルートゥースデータ、地磁気データ、超広帯域(UWB)データ、第1収集画像及び第1IMUデータのうちの1つ又は複数を含む、
請求項7に記載の位置姿勢決定方法。 - 前記運動真値データは、
測位結果の精度を判断すること、ニューラルネットワークを訓練すること、及び前記全局地図と情報融合を行うこと、のうちの少なくとも1つに使用される、
請求項7又は8のいずれか一項に記載の位置姿勢決定方法。 - 前記少なくとも1つの前記第2位置姿勢及び前記第2収集画像に基づいて、前記全局場面に対して視覚地図再構築を行い、少なくとも1フレームの視覚点群を得ることは、
前記少なくとも1つの前記第2位置姿勢及び前記第2収集画像に基づいて、前記全局場面に対して視覚地図再構築を行い、少なくとも1フレームの初期視覚点群を得ることと、
前記レーザ点群及び/又は前記第2収集画像に基づいて、視覚地図再構築過程における第3拘束情報を取得することであって、前記第3拘束情報は、前記レーザ点群の平面拘束情報、前記レーザ点群のエッジ拘束情報及び視覚拘束情報のうちの1つ又は複数を含むことと、
前記第3拘束情報に基づいて、前記少なくとも1フレームの初期視覚点群を最適化して、少なくとも1フレームの視覚点群を得ることと、を含む、
請求項1に記載の位置姿勢決定方法。 - 前記第2端末は、
前記全局場面におけるレーザ点群を取得するために使用される、レーダと、
前記全局場面における第2収集画像を取得するために使用される、視覚センサと、
前記全局場面における第2IMUデータを取得するために使用される、IMUセンサと、を備える、
請求項1に記載の位置姿勢決定方法。 - 前記地図データに基づいて、前記全局場面に対してオフラインで再構築を行い、前記全局場面の全局地図を生成する前に、
前記視覚センサと前記IMUセンサとの座標変換関係を較正して、第1較正結果を得ることと、
前記レーダと前記視覚センサとの座標変換関係を較正して、第2較正結果を得ることと、
前記第1較正結果及び前記第2較正結果に基づいて、前記視覚センサ、IMUセンサ及びレーダの間の座標変換関係に対して共同較正を行うことと、をさらに含む、
請求項11に記載の位置姿勢決定方法。 - 前記位置姿勢決定方法は、
前記第2端末で前記地図データを収集する過程において、前記地図データに基づいて、前記全局場面に対してリアルタイムの再構築を行い、前記全局場面のリアルタイム地図を生成することと、
目標機器に前記地図データ及び/又は前記リアルタイム地図を送信することと、をさらに含み、前記目標機器は、前記全局場面に対してデータ収集を完了した地理範囲を表示するために使用される、
請求項1ないし12のいずれか一項に記載の位置姿勢決定方法。 - 位置姿勢決定装置であって、
目標場面における第1端末によって収集される収集データを取得するように構成される、収集データ取得モジュールと、
前記目標場面を含む全局地図を取得するように構成される、全局地図取得モジュールであって、前記全局地図は、第2端末が前記目標場面を含む全局場面に対してデータ収集を行って得られた地図データに基づいて生成されるものであり、前記全局地図は、精度条件を満たす、全局地図取得モジュールと、
前記収集データと前記全局地図との特徴対応関係に基づいて、収集過程における前記第1端末の少なくとも1つの第1位置姿勢を決定するように構成される、位置姿勢決定モジュールと、を備え、
前記地図データは、前記全局場面におけるレーザ点群、第2収集画像及び第2IMUデータを含み、前記位置姿勢決定装置は、さらに、地図データ取得モジュール及び全局地図生成モジュールを備え、
前記地図データ取得モジュールは、前記第2端末によって収集される前記全局場面の地図データを取得するように構成され、
前記全局地図生成モジュールは、
前記第2IMUデータ及び前記レーザ点群に基づいて、データ収集過程における前記第2端末の少なくとも1つの第2位置姿勢を決定することと、
少なくとも1つの前記第2位置姿勢及び前記第2収集画像に基づいて、前記全局場面に対して視覚地図再構築を行い、少なくとも1フレームの視覚点群を得ることであって、前記視覚点群は、前記全局場面における少なくとも1つの三次元特徴点を含むことと、
前記少なくとも1フレームの視覚点群に基づいて、前記全局場面の全局地図を得ることと、を行うように構成される、
位置姿勢決定装置。 - 電子機器であって、
プロセッサと、
プロセッサ実行可能命令を記憶するように構成される、メモリと、を備え、
前記プロセッサは、前記メモリによって記憶される命令を呼び出して、請求項1ないし13のいずれか一項に記載の位置姿勢決定方法を実行するように構成される、電子機器。 - コンピュータプログラム命令が記憶される、コンピュータ可読記憶媒体であって、
前記コンピュータプログラム命令がプロセッサに、請求項1ないし13のいずれか1項に記載の位置姿勢決定方法を実行させる、コンピュータ可読記憶媒体。 - 電子機器のプロセッサに、請求項1ないし13のいずれか一項に記載の位置姿勢決定方法を実行させる、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010826704.X | 2020-08-17 | ||
CN202010826704.XA CN111983635B (zh) | 2020-08-17 | 2020-08-17 | 位姿确定方法及装置、电子设备和存储介质 |
PCT/CN2020/140274 WO2022036980A1 (zh) | 2020-08-17 | 2020-12-28 | 位姿确定方法、装置、电子设备、存储介质及程序 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022548441A JP2022548441A (ja) | 2022-11-21 |
JP7236565B2 true JP7236565B2 (ja) | 2023-03-09 |
Family
ID=73435659
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021568700A Active JP7236565B2 (ja) | 2020-08-17 | 2020-12-28 | 位置姿勢決定方法、装置、電子機器、記憶媒体及びコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
JP (1) | JP7236565B2 (ja) |
KR (1) | KR20220028042A (ja) |
CN (2) | CN111983635B (ja) |
TW (1) | TW202208879A (ja) |
WO (1) | WO2022036980A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111983635B (zh) * | 2020-08-17 | 2022-03-29 | 浙江商汤科技开发有限公司 | 位姿确定方法及装置、电子设备和存储介质 |
CN112433211B (zh) * | 2020-11-27 | 2022-11-29 | 浙江商汤科技开发有限公司 | 一种位姿确定方法及装置、电子设备和存储介质 |
WO2022133986A1 (en) * | 2020-12-25 | 2022-06-30 | SZ DJI Technology Co., Ltd. | Accuracy estimation method and system |
CN113108792A (zh) * | 2021-03-16 | 2021-07-13 | 中山大学 | Wi-Fi指纹地图重建方法、装置、终端设备及介质 |
CN112948411B (zh) * | 2021-04-15 | 2022-10-18 | 深圳市慧鲤科技有限公司 | 位姿数据的处理方法及接口、装置、系统、设备和介质 |
CN114827727B (zh) * | 2022-04-25 | 2024-05-07 | 深圳创维-Rgb电子有限公司 | 电视控制方法、装置、电视及计算机可读存储介质 |
CN115439536B (zh) * | 2022-08-18 | 2023-09-26 | 北京百度网讯科技有限公司 | 视觉地图更新方法、装置及电子设备 |
WO2024085266A1 (ko) * | 2022-10-17 | 2024-04-25 | 삼성전자 주식회사 | 초광대역 통신 신호를 이용하여 제스처를 검출하기 위한 방법 및 장치 |
CN115497087B (zh) * | 2022-11-18 | 2024-04-19 | 广州煌牌自动设备有限公司 | 一种餐具姿态的识别系统及其方法 |
CN116202511B (zh) * | 2023-05-06 | 2023-07-07 | 煤炭科学研究总院有限公司 | 长巷道超宽带一维约束下的移动装备位姿确定方法及装置 |
CN116518961B (zh) * | 2023-06-29 | 2023-09-01 | 煤炭科学研究总院有限公司 | 大规模固定视觉传感器全局位姿的确定方法和装置 |
CN117636251B (zh) * | 2023-11-30 | 2024-05-17 | 交通运输部公路科学研究所 | 一种基于机器人的灾损检测方法和系统 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014228637A (ja) | 2013-05-21 | 2014-12-08 | 株式会社デンソー | 道路情報送信装置、地図生成装置、道路情報収集システム |
JP2017055397A (ja) | 2015-09-08 | 2017-03-16 | キヤノン株式会社 | 画像処理装置、画像合成装置、画像処理システム、画像処理方法、及びプログラム |
CN106940186A (zh) | 2017-02-16 | 2017-07-11 | 华中科技大学 | 一种机器人自主定位与导航方法及系统 |
US20180188060A1 (en) | 2016-12-30 | 2018-07-05 | DeepMap Inc. | Traffic Sign Feature Creation for High Definition Maps Used for Navigating Autonomous Vehicles |
JP2018534698A (ja) | 2015-11-20 | 2018-11-22 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | Rgbdカメラ姿勢のラージスケール判定のための方法およびシステム |
JP2019074532A (ja) | 2017-10-17 | 2019-05-16 | 有限会社ネットライズ | Slamデータに実寸法を付与する方法とそれを用いた位置測定 |
JP2019211466A (ja) | 2018-06-04 | 2019-12-12 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | 3次元シーンを再構成するための方法、装置、機器及びコンピュータ可読記憶媒体 |
CN110849374A (zh) | 2019-12-03 | 2020-02-28 | 中南大学 | 地下环境定位方法、装置、设备及存储介质 |
CN111442722A (zh) | 2020-03-26 | 2020-07-24 | 达闼科技成都有限公司 | 定位方法、装置、存储介质及电子设备 |
US20200240792A1 (en) | 2019-01-25 | 2020-07-30 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for generating driving path |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101192825B1 (ko) * | 2011-06-30 | 2012-10-18 | 서울시립대학교 산학협력단 | Gps/ins/영상at를 통합한 라이다 지오레퍼린싱 장치 및 방법 |
EP3078935A1 (en) * | 2015-04-10 | 2016-10-12 | The European Atomic Energy Community (EURATOM), represented by the European Commission | Method and device for real-time mapping and localization |
JP2017097402A (ja) * | 2015-11-18 | 2017-06-01 | 株式会社明電舎 | 周辺地図作成方法、自己位置推定方法および自己位置推定装置 |
US10600206B2 (en) * | 2017-04-28 | 2020-03-24 | Htc Corporation | Tracking system and method thereof |
US10636198B2 (en) * | 2017-12-28 | 2020-04-28 | Beijing Jingdong Shangke Information Technology Co., Ltd. | System and method for monocular simultaneous localization and mapping |
CN108489482B (zh) * | 2018-02-13 | 2019-02-26 | 视辰信息科技(上海)有限公司 | 视觉惯性里程计的实现方法及系统 |
CN109084732B (zh) * | 2018-06-29 | 2021-01-12 | 北京旷视科技有限公司 | 定位与导航方法、装置及处理设备 |
CN110118554B (zh) * | 2019-05-16 | 2021-07-16 | 达闼机器人有限公司 | 基于视觉惯性的slam方法、装置、存储介质和设备 |
CN110246182B (zh) * | 2019-05-29 | 2021-07-30 | 达闼机器人有限公司 | 基于视觉的全局地图定位方法、装置、存储介质和设备 |
CN110335316B (zh) * | 2019-06-28 | 2023-04-18 | Oppo广东移动通信有限公司 | 基于深度信息的位姿确定方法、装置、介质与电子设备 |
CN110389348B (zh) * | 2019-07-30 | 2020-06-23 | 四川大学 | 基于激光雷达与双目相机的定位与导航方法及装置 |
CN111983635B (zh) * | 2020-08-17 | 2022-03-29 | 浙江商汤科技开发有限公司 | 位姿确定方法及装置、电子设备和存储介质 |
-
2020
- 2020-08-17 CN CN202010826704.XA patent/CN111983635B/zh active Active
- 2020-08-17 CN CN202210363072.7A patent/CN114814872A/zh active Pending
- 2020-12-28 JP JP2021568700A patent/JP7236565B2/ja active Active
- 2020-12-28 KR KR1020227003200A patent/KR20220028042A/ko active Search and Examination
- 2020-12-28 WO PCT/CN2020/140274 patent/WO2022036980A1/zh active Application Filing
-
2021
- 2021-07-30 TW TW110128193A patent/TW202208879A/zh unknown
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014228637A (ja) | 2013-05-21 | 2014-12-08 | 株式会社デンソー | 道路情報送信装置、地図生成装置、道路情報収集システム |
JP2017055397A (ja) | 2015-09-08 | 2017-03-16 | キヤノン株式会社 | 画像処理装置、画像合成装置、画像処理システム、画像処理方法、及びプログラム |
JP2018534698A (ja) | 2015-11-20 | 2018-11-22 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | Rgbdカメラ姿勢のラージスケール判定のための方法およびシステム |
US20180188060A1 (en) | 2016-12-30 | 2018-07-05 | DeepMap Inc. | Traffic Sign Feature Creation for High Definition Maps Used for Navigating Autonomous Vehicles |
CN106940186A (zh) | 2017-02-16 | 2017-07-11 | 华中科技大学 | 一种机器人自主定位与导航方法及系统 |
JP2019074532A (ja) | 2017-10-17 | 2019-05-16 | 有限会社ネットライズ | Slamデータに実寸法を付与する方法とそれを用いた位置測定 |
JP2019211466A (ja) | 2018-06-04 | 2019-12-12 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | 3次元シーンを再構成するための方法、装置、機器及びコンピュータ可読記憶媒体 |
US20200240792A1 (en) | 2019-01-25 | 2020-07-30 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for generating driving path |
CN110849374A (zh) | 2019-12-03 | 2020-02-28 | 中南大学 | 地下环境定位方法、装置、设备及存储介质 |
CN111442722A (zh) | 2020-03-26 | 2020-07-24 | 达闼科技成都有限公司 | 定位方法、装置、存储介质及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
TW202208879A (zh) | 2022-03-01 |
CN111983635A (zh) | 2020-11-24 |
CN114814872A (zh) | 2022-07-29 |
CN111983635B (zh) | 2022-03-29 |
KR20220028042A (ko) | 2022-03-08 |
WO2022036980A1 (zh) | 2022-02-24 |
JP2022548441A (ja) | 2022-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7236565B2 (ja) | 位置姿勢決定方法、装置、電子機器、記憶媒体及びコンピュータプログラム | |
US9886774B2 (en) | Photogrammetric methods and devices related thereto | |
CN113284240B (zh) | 地图构建方法及装置、电子设备和存储介质 | |
EP3134870B1 (en) | Electronic device localization based on imagery | |
US9646384B2 (en) | 3D feature descriptors with camera pose information | |
TWI753348B (zh) | 位姿確定方法、位姿確定裝置、電子設備和電腦可讀儲存媒介 | |
WO2018140107A1 (en) | System for 3d image filtering | |
US10545215B2 (en) | 4D camera tracking and optical stabilization | |
EP2981945A1 (en) | Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system | |
WO2019019819A1 (zh) | 一种用于处理任务区域的任务的移动电子设备以及方法 | |
US20220084249A1 (en) | Method for information processing, electronic equipment, and storage medium | |
CN115421158B (zh) | 自监督学习的固态激光雷达三维语义建图方法与装置 | |
KR20220123218A (ko) | 타깃 포지셔닝 방법, 장치, 전자 기기, 저장 매체 및 프로그램 | |
CN113610702B (zh) | 一种建图方法、装置、电子设备及存储介质 | |
CN114185073A (zh) | 一种位姿显示方法、装置及系统 | |
CN113066135A (zh) | 图像采集设备的标定方法及装置、电子设备和存储介质 | |
WO2023088127A1 (zh) | 室内导航方法、服务器、装置和终端 | |
Liu et al. | LSFB: A low-cost and scalable framework for building large-scale localization benchmark | |
KR20220169472A (ko) | 센서 캘리브레이트 방법 및 장치, 전자 기기와 저장 매체 | |
US20220345621A1 (en) | Scene lock mode for capturing camera images | |
WO2024083010A1 (zh) | 一种视觉定位方法及相关装置 | |
US20240029350A1 (en) | Computing apparatus and model generation method | |
Mai et al. | Development of an indoor positioning and navigation system using monocular SLAM and IMU | |
CN114707392A (zh) | 一种局部slam构建方法、全局slam构建方法和构建装置 | |
CN117994332A (zh) | 位姿确定方法及装置、计算机可读存储介质和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211116 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230203 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230221 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230227 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7236565 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |