JP7300550B2 - 視覚標識に基づき標識マップを構築する方法、装置 - Google Patents
視覚標識に基づき標識マップを構築する方法、装置 Download PDFInfo
- Publication number
- JP7300550B2 JP7300550B2 JP2022500643A JP2022500643A JP7300550B2 JP 7300550 B2 JP7300550 B2 JP 7300550B2 JP 2022500643 A JP2022500643 A JP 2022500643A JP 2022500643 A JP2022500643 A JP 2022500643A JP 7300550 B2 JP7300550 B2 JP 7300550B2
- Authority
- JP
- Japan
- Prior art keywords
- class
- pose
- visual
- image frame
- sign
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
- G01C21/383—Indoor data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3837—Data obtained from a single source
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K7/00—Methods or arrangements for sensing record carriers, e.g. for reading patterns
- G06K7/10—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
- G06K7/10544—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
- G06K7/10712—Fixed beam scanning
- G06K7/10722—Photodetector array or CCD scanning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/245—Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Automation & Control Theory (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Toxicology (AREA)
- Artificial Intelligence (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Processing (AREA)
Description
本願は、2019年7月5日に中国国家知的財産権局により出願された、出願番号が201910603494.5であり、発明名称が「視覚標識に基づく標識マップを構築する方法、装置」である中国特許出願に基づく優先権を主張する。ここで、その全ての内容は、援用により本願に組み込まれる。
少なくとも画像フレームを含むターゲット検出データと、ターゲット測定データとを取得し、画像フレームは、ロボットが予め配置された視覚標識に対する画像採取プロセスで採取した画像であり、ターゲット測定データは、画像フレームが採取された時点のロボットのロボット本体のオドメトリ座標系におけるポーズを含むことと、
構築しようとする標識マップの物理環境に配置された各視覚標識の画像を少なくとも1回採取して、少なくとも画像フレームを含むターゲット検出データを得ることと、
画像フレームの採取と同じ時点でターゲット測定データの測定を行うことと、を含んでよい。
下記の条件、即ち、
のいずれか、又はそれらの組み合わせにより、複数の画像フレームからキーフレームを選別すること、を含み、
のいずれか、又はそれらの組み合わせにより、キーフレームを選別することを含んでよい、と理解される。
前記画像フレームにおける任意の視覚標識に対して、当該視覚標識が最初に観測されたときの当該視覚標識が属する画像フレームに対応するカメラポーズ、及び当該ターゲット検出データに基づいて、ワールド座標系における当該視覚標識の位置の初期化結果と、ワールド座標系における当該視覚標識の姿勢の初期化結果とをそれぞれ取得し、
前記画像フレームにおける任意の視覚標識に対して、前記画像フレームに対応する第1類ポーズのベクトル、カメラの外部パラメーターのポーズベクトル、及び観測された測定値のベクトルに基づいて、前記視覚標識のワールド座標系における位置の初期化結果を取得し、当該視覚標識が属する画像フレームに対応する第1類ポーズのベクトル及びカメラの外部パラメーターのポーズベクトルに基づいて、当該視覚標識が最初に観測されたときの視覚標識が属する画像フレームに対応するカメラポーズを取得し、
前記画像フレームにおける視覚標識の局所的位置に関する拘束残差である、前記視覚標識に関する第3類残差を取得し、
第2共同最適化モジュールを含む。
少なくとも画像フレームを含むターゲット検出データと、ターゲット測定データとを取得することに続いて、下記の条件、即ち、
のいずれか、又はそれらの組み合わせにより、複数の画像フレームからキーフレームを選別し、
Claims (16)
- 視覚標識に基づき標識マップを構築する方法であって、
少なくとも画像フレームを含むターゲット検出データと、ターゲット測定データとを取得し、前記画像フレームは、ロボットが予め配置された視覚標識に対する画像採取プロセスで採取した画像であり、前記ターゲット測定データは、前記画像フレームが採取された時点の前記ロボットのロボット本体のオドメトリ座標系におけるポーズを含み、前記ターゲット検出データは、採取された画像フレームと、視覚標識の標識IDと、視覚標識の各特徴点の画像座標とを含むことと、
前記ターゲット測定データに基づいて前記画像フレームに対応する第1類ポーズの初期化結果を取得し、前記第1類ポーズは、前記画像フレームが採取された時点のロボット本体のワールド座標系におけるポーズであることと、
前記ターゲット検出データに基づいて前記視覚標識に対応する第2類ポーズの初期化結果を取得し、前記第2類ポーズは前記視覚標識のワールド座標系におけるポーズであることと、
前記ターゲット測定データに基づいて取得された前記画像フレームに関する第1類残差と、前記ターゲット検出データに基づいて取得された前記画像フレームと視覚標識に関する第2類残差とに対して、前記第1類ポーズを状態変数とし、前記第2類ポーズを状態変数とする共同最適化を行って、前記第2類ポーズの最適化結果を取得し、前記第1類残差は、前記画像フレームのオドメトリに関する拘束残差であり、前記第2類残差は、前記視覚標識の特徴点の前記画像フレームにおける再投影の拘束残差であり、前記第1類ポーズの初期値は、前記第1類ポーズの初期化結果であり、前記第2類ポーズの初期値は、前記第2類ポーズの初期化結果であることと、
得られた前記第2類ポーズの最適化結果に基づいて標識マップを構築することと、を含む
方法。 - 前記ターゲット検出データに基づいて前記視覚標識に対応する第2類ポーズの初期化結果を取得することに続いて、
前記視覚標識に関する第3類残差を取得し、前記第3類残差は、前記画像フレームにおける視覚標識の局所的位置に関する拘束残差であることと、
前記第1類残差と第3類残差に対して、前記第1類ポーズを状態変数とし、前記第2類ポーズにおける大域的位置を状態変数とする共同最適化を行って、第1類ポーズの初歩的な最適化結果と前記第2類ポーズにおける大域的位置の初歩的な最適化結果とを取得し、前記第1類ポーズの初期値は、前記第1類ポーズの初期化結果であり、前記第2類ポーズにおける大域的位置の初期値は、前記第2類ポーズにおける大域的位置の初期化結果であることと、
前記第1類ポーズの初歩的な最適化結果を、前記第1類ポーズの初期化結果とすることと、
前記第2類ポーズにおける大域的位置の初始最適化結果を、前記第2類ポーズにおける大域的位置の初期化結果とすることと、
前記ターゲット検出データに基づいて前記視覚標識に対応する第2類ポーズにおける大域的姿勢を取得し、前記視覚標識が最初に観測されたときの前記視覚標識が属する画像フレームに対応するカメラポーズ、及び前記ターゲット検出データに基づいて、前記視覚標識に対応する第2類姿勢における大域的姿勢の初期化結果を取得することと、を含む
請求項1に記載の方法。 - 前記画像フレームの数は複数であり、
前記第1類ポーズを状態変数とし前記第2類ポーズにおける大域的位置を状態変数とする共同最適化を行って、第1類ポーズの初歩的な最適化結果と前記第2類ポーズにおける大域的位置の初歩的な最適化結果とを取得することは、
各第1類残差と各第3類残差とを融合する第1ターゲット関数を構築し、各第1類ポーズの初期化結果及び各第2類ポーズにおける大域的位置の初期化結果を反復初期値とする反復により、前記第1ターゲット関数が最小値になるときの各第1類ポーズの初歩的な最適化結果と各第2類ポーズにおける大域的位置の初歩的な最適化結果とを取得すること、を含む
請求項2に記載の方法。 - 前記画像フレームの数は複数であり、
前記第1類ポーズを状態変数とし前記第2類ポーズを状態変数とする共同最適化を行って、前記第2類ポーズの最適化結果を取得することは、
各第1類残差と各第2類残差とを融合する第2ターゲット関数を構築し、各第1類ポーズの初期化結果及び各第2類ポーズの初期化結果を反復初期値とする反復により、前記第2ターゲット関数が最小値になるときの各第2類ポーズの最適化結果を取得すること、を含む
請求項1乃至3のいずれかに記載の方法。 - ターゲット測定データに基づいて取得された前記画像フレームに関する前記第1類残差を取得するプロセスは、
画像フレームごとに、前記ターゲット測定データに基づいて、当該画像フレームとそれに隣接する画像フレームとの間の、第1類相対ポーズと第2類相対ポーズとを取得し、前記第1類相対ポーズ及び第2類相対ポーズは、いずれも、当該画像フレームが採取された時点の、隣接する画像フレームが採取された時点に対するロボット本体のポーズ変化であり、前記第1類相対ポーズは、前記第1類ポーズの状態変数に基づいて定められ、前記第2類相対ポーズは、前記ターゲット測定データに基づいて定められることと、
前記第1類相対ポーズと第2類相対ポーズとの差により、当該画像フレームに関する第1類残差を計算することと、
各前記画像フレームに関する第1類残差を積算して、全ての前記画像フレームに関する第1類残差を得ることと、を含む
請求項4に記載の方法。 - 前記視覚標識に関する第3類残差を取得するプロセスは、
画像フレームごとに、任意の視覚標識に対して、当該視覚標識の当該画像フレームに対応するカメラ座標系における局所的位置と当該視覚標識が観測された測定値との間の差を取得して、当該視覚標識に関する第3類残差を得ることと、
各視覚標識に関する第3類残差を積算して、全ての視覚標識に関する第3類残差を得ることと、を含み、
前記視覚標識の当該画像フレームに対応するカメラ座標系における局所的位置は、当該視覚標識に対応するカメラの外部パラメーターのポーズと、当該画像フレームに対応する第1類ポーズの現在状態ベクトルと、当該視覚標識に対応する第2類ポーズにおける大域的位置の現在状態ベクトルによって取得され、1回目の反復時の当該画像フレームに対応する第1類ポーズの現在状態ベクトルは、当該画像フレームに対応する第1類ポーズの初期化結果であり、1回目の反復時の当該視覚標識に対応する第2類ポーズにおける大域的位置の現在状態ベクトルは、当該視覚標識に対応する第2類ポーズにおける大域的位置の初期化結果のベクトルである
請求項4に記載の方法。 - 前記ターゲット検出データに基づいて取得された前記画像フレームと視覚標識とに関する第2類残差を確定するプロセスは、
画像フレームごとに、当該画像フレームにおける各視覚標識に対応する第2類ポーズの現在の状態変数、及び前記ターゲット検出データに基づいて、当該画像フレームにおける全ての視覚標識の全ての特徴点の当該画像フレームにおける再投影の拘束残差を取得すること、を含む
請求項4に記載の方法。 - 前記画像フレームごとに、当該画像フレームにおける各視覚標識に対応する第2類ポーズの現在の状態変数、及び前記ターゲット検出データに基づいて、当該画像フレームにおける全ての視覚標識の全ての特徴点の当該画像フレームにおける再投影の拘束残差を取得することは、
画像フレームごとに、任意の視覚標識が持つ任意の特徴点に対して、カメラの内部パラメーターマトリクス、当該画像フレームに対応する第1類ポーズの現在の状態変数、当該視覚標識に対応する第2類ポーズの現在の状態変数、及び当該特徴点の標識座標系における局所的位置の投影関数と当該特徴点の画像座標における測定値との間の差によって、当該視覚標識における当該特徴点のその画像フレームにおける再投影の誤差を取得することと、
各視覚標識の各特徴点の再投影誤差を積算して、全ての視覚標識の全ての特徴点の画像フレームにおける再投影の拘束残差を得ることと、を含む
請求項7に記載の方法。 - 前記ターゲット測定データに基づいて前記画像フレームに対応する第1類ポーズの初期化結果を取得することは、
前記画像フレームが採取された時点の前記ロボットのロボット本体のオドメトリ座標系におけるポーズを、前記画像フレームに対応する第1類ポーズの初期化結果とすることを含み、
前記ターゲット検出データに基づいて前記視覚標識に対応する第2類ポーズの初期化結果を取得することは、
前記画像フレームにおける任意の視覚標識に対して、当該視覚標識が最初に観測されたときの当該視覚標識が属する画像フレームに対応するカメラポーズ、及び当該ターゲット検出データに基づいて、ワールド座標系における当該視覚標識の位置の初期化結果と、ワールド座標系における当該視覚標識の姿勢の初期化結果とをそれぞれ取得することを含み、
前記ターゲット検出データは、視覚標識のカメラ座標系に対する局所的ポーズから取得された、視覚標識が観測された測定値を含み、
前記視覚標識のカメラ座標系に対する局所的ポーズは、視覚標識の特徴点の画像座標、カメラの内部パラメーター、及び標識のパラメーターによって取得され、
当該視覚標識が属する画像フレームに対応するカメラポーズは、当該視覚標識が属する画像フレームを取得するときのカメラのカメラポーズである
請求項1に記載の方法。 - 前記画像フレームにおける任意の視覚標識に対して、当該視覚標識が最初に観測されたときの当該視覚標識が属する画像フレームに対応するカメラポーズ、及び当該ターゲット検出データに基づいて、ワールド座標系における当該視覚標識の位置の初期化結果と、ワールド座標系における当該視覚標識の姿勢の初期化結果とをそれぞれ取得することは、
前記画像フレームにおける任意の視覚標識に対して、前記画像フレームに対応する第1類ポーズのベクトル、カメラの外部パラメーターのポーズベクトル、及び観測された測定値のベクトルに基づいて、ワールド座標系における前記視覚標識の位置の初期化結果を取得することと、
当該視覚標識が属する画像フレームに対応する第1類ポーズのベクトル、及びカメラの外部パラメーターのポーズベクトルに基づいて、当該視覚標識が最初に観測されたときの視覚標識が属する画像フレームに対応するカメラポーズを得ることと、
ロボット本体座標系の大域的回転ベクトル、カメラの外部パラメーターの回転ベクトル、及びカメラ座標系における当該視覚標識の局所的回転ベクトルに基づいて、ワールド座標系における当該視覚標識の姿勢の初期化結果を取得することと、を含み、
前記ロボット本体座標系の大域的回転ベクトルは、前記第1類ポーズの初期化結果から取得され、
前記カメラの外部パラメーターの回転ベクトルは、前記カメラの外部パラメーターのポーズから取得され、
当該視覚標識のカメラ座標系における局所的回転ベクトルは、カメラ座標系に対する当該視覚標識の局所的ポーズから取得される
請求項9に記載の方法。 - 前記少なくとも画像フレームを含むターゲット検出データと、ターゲット測定データとを取得することは、
構築しようとする標識マップの物理環境に配置された各視覚標識の画像を少なくとも1回採取して、少なくとも画像フレームを含むターゲット検出データを得ることと、
画像フレームの採取と同じ時点でターゲット測定データの測定を行うことと、を含む
請求項4に記載の方法。 - 前記画像フレームの数は複数であり、
少なくとも画像フレームを含むターゲット検出データと、ターゲット測定データとを取得することに続いて、さらに、
下記の条件、即ち、
現在のフレームに標識画像が存在する場合、当該フレームをキーフレームとすることと、
現在のフレームのオドメトリに関する測定と既存キーフレームのオドメトリに関する測定との間の位置シフト偏差が設定されたシフト閾値より大きい場合、現在のフレームをキーフレームとすることと、
現在のフレームのオドメトリに関する測定と既存キーフレームのオドメトリに関する測定との間の回転偏差が設定された回転閾値より大きい場合、現在のフレームをキーフレームとすることと、
第1フレームがキーフレームであることと
のいずれか、又はそれらの組み合わせにより、複数の画像フレームからキーフレームを選別すること、を含み、
前記ターゲット測定データに基づいて、前記画像フレームに対応する第1類ポーズの初期化結果を取得することは、前記ターゲット測定データに基づいて、前記キーフレームに対応する第1類ポーズの初期化結果を取得すること、を含み、
前記ターゲット測定データに基づいて取得された前記画像フレームに関する第1類残差は、前記ターゲット測定データに基づいて取得された前記キーフレームに関する第1類残差を含み、
前記第2類残差は、前記視覚標識の特徴点の前記キーフレームにおける再投影拘束残差である
請求項1に記載の方法。 - 視覚標識に基づき標識マップを構築する装置であって、
少なくとも画像フレームを含むターゲット検出データと、ターゲット測定データとを取得し、前記画像フレームは、ロボットが予め配置された視覚標識に対する画像採取プロセスで採取した画像であり、前記ターゲット測定データは、前記画像フレームが採取された時点の前記ロボットのロボット本体のオドメトリ座標系におけるポーズを含み、前記ターゲット検出データは、採取された画像フレームと、視覚標識の標識IDと、視覚標識の各特徴点の画像座標とを含む、データ採取モジュールと、
前記ターゲット測定データに基づいて前記画像フレームに対応する第1類ポーズの初期化結果を取得し、前記第1類ポーズは、前記画像フレームが採取された時点のロボット本体のワールド座標系におけるポーズであり、前記ターゲット検出データに基づいて前記視覚標識に対応する第2類ポーズの初期化結果を取得し、前記第2類ポーズは、前記視覚標識のワールド座標系におけるポーズである、初期化モジュールと、
前記ターゲット測定データに基づいて取得された前記画像フレームに関する第1類残差と、前記ターゲット検出データに基づいて取得された前記画像フレームと視覚標識に関する第2類残差とに対して、前記第1類ポーズを状態変数とし、前記第2類ポーズを状態変数とする共同最適化を行って、前記第2類ポーズの最適化結果を取得し、前記第1類残差は、前記画像フレームのオドメトリに関する拘束残差であり、前記第2類残差は、前記視覚標識の特徴点の前記画像フレームにおける再投影の拘束残差であり、前記第1類ポーズの初期値は、前記第1類ポーズの初期化結果であり、前記第2類ポーズの初期値は、前記第2類ポーズの初期化結果である、第1共同最適化モジュールと、
得られた前記第2類ポーズの最適化結果に基づいて標識マップを構築する、マップ構築モジュールと、を含む
視覚標識に基づき標識マップを構築する装置。 - 視覚標識に基づき標識マップを構築する電子機器であって、メモリとプロセッサとを備え、
前記メモリは、コンピュータプログラムを格納することに用いられ、
前記プロセッサは、前記メモリに格納されたプログラムを実行して、請求項1~12のいずれかに記載の視覚標識に基づき標識マップを構築する方法を実現することに用いられる
電子機器。 - コンピュータプログラムが格納されているコンピュータ可読記憶媒体であって、
前記コンピュータプログラムは、プロセッサによって実行されると、請求項1~12のいずれかに記載の視覚標識に基づき標識マップを構築する方法を実現する
コンピュータ可読記憶媒体。 - プロセッサによって実行されると、請求項1~12のいずれかに記載の視覚標識に基づき標識マップを構築する方法を実現する
コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910603494.5A CN112183171B (zh) | 2019-07-05 | 2019-07-05 | 一种基于视觉信标建立信标地图方法、装置 |
CN201910603494.5 | 2019-07-05 | ||
PCT/CN2020/100306 WO2021004416A1 (zh) | 2019-07-05 | 2020-07-04 | 一种基于视觉信标建立信标地图的方法、装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022539422A JP2022539422A (ja) | 2022-09-08 |
JP7300550B2 true JP7300550B2 (ja) | 2023-06-29 |
Family
ID=73915694
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022500643A Active JP7300550B2 (ja) | 2019-07-05 | 2020-07-04 | 視覚標識に基づき標識マップを構築する方法、装置 |
Country Status (5)
Country | Link |
---|---|
EP (1) | EP3995988A4 (ja) |
JP (1) | JP7300550B2 (ja) |
KR (1) | KR20220025028A (ja) |
CN (1) | CN112183171B (ja) |
WO (1) | WO2021004416A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112880687B (zh) * | 2021-01-21 | 2024-05-17 | 深圳市普渡科技有限公司 | 一种室内定位方法、装置、设备和计算机可读存储介质 |
CN112902953B (zh) * | 2021-01-26 | 2022-10-04 | 中国科学院国家空间科学中心 | 一种基于slam技术的自主位姿测量方法 |
CN112862894B (zh) * | 2021-04-12 | 2022-09-06 | 中国科学技术大学 | 一种机器人三维点云地图构建与扩充方法 |
CN113204039B (zh) * | 2021-05-07 | 2024-07-16 | 深圳亿嘉和科技研发有限公司 | 一种应用于机器人的rtk-gnss外参标定方法 |
WO2023280274A1 (en) * | 2021-07-07 | 2023-01-12 | The Hong Kong University Of Science And Technology | Geometric structure aided visual localization method and system |
CN114295138B (zh) * | 2021-12-31 | 2024-01-12 | 深圳市普渡科技有限公司 | 机器人、地图扩建方法、装置和可读存储介质 |
CN114111803B (zh) * | 2022-01-26 | 2022-04-19 | 中国人民解放军战略支援部队航天工程大学 | 一种室内卫星平台的视觉导航方法 |
CN114739382A (zh) * | 2022-03-03 | 2022-07-12 | 深圳市优必选科技股份有限公司 | 机器人及其建图方法、装置及存储介质 |
CN114777757A (zh) * | 2022-03-14 | 2022-07-22 | 深圳市优必选科技股份有限公司 | 信标地图构建方法、装置、设备及存储介质 |
CN114415698B (zh) * | 2022-03-31 | 2022-11-29 | 深圳市普渡科技有限公司 | 机器人、机器人的定位方法、装置和计算机设备 |
CN114463429B (zh) * | 2022-04-12 | 2022-08-16 | 深圳市普渡科技有限公司 | 机器人、地图创建方法、定位方法及介质 |
CN117570969B (zh) * | 2024-01-16 | 2024-09-10 | 锐驰激光(深圳)有限公司 | 割草机视觉定位方法、装置、设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050182518A1 (en) | 2004-02-13 | 2005-08-18 | Evolution Robotics, Inc. | Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system |
JP2012216051A (ja) | 2011-03-31 | 2012-11-08 | Fuji Soft Inc | 歩行ロボット装置及びその制御プログラム |
WO2018140748A1 (en) | 2017-01-26 | 2018-08-02 | The Regents Of The University Of Michigan | Localization using 2d maps which capture vertical structures in 3d point data |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8108092B2 (en) * | 2006-07-14 | 2012-01-31 | Irobot Corporation | Autonomous behaviors for a remote vehicle |
CN104374395A (zh) * | 2014-03-31 | 2015-02-25 | 南京邮电大学 | 基于图的视觉slam方法 |
CN105487557B (zh) * | 2015-12-07 | 2018-06-19 | 浙江大学 | 一种基于日盲区紫外成像的无人机自主着陆引导系统 |
US9969495B2 (en) * | 2016-04-29 | 2018-05-15 | United Parcel Service Of America, Inc. | Unmanned aerial vehicle pick-up and delivery systems |
CN107179080B (zh) * | 2017-06-07 | 2020-07-24 | 纳恩博(北京)科技有限公司 | 电子设备的定位方法和装置、电子设备、电子定位系统 |
CN107516326B (zh) * | 2017-07-14 | 2020-04-03 | 中国科学院计算技术研究所 | 融合单目视觉和编码器信息的机器人定位方法和系统 |
CN109648558B (zh) * | 2018-12-26 | 2020-08-18 | 清华大学 | 机器人曲面运动定位方法及其运动定位系统 |
-
2019
- 2019-07-05 CN CN201910603494.5A patent/CN112183171B/zh active Active
-
2020
- 2020-07-04 KR KR1020227002958A patent/KR20220025028A/ko not_active Application Discontinuation
- 2020-07-04 WO PCT/CN2020/100306 patent/WO2021004416A1/zh unknown
- 2020-07-04 JP JP2022500643A patent/JP7300550B2/ja active Active
- 2020-07-04 EP EP20837645.9A patent/EP3995988A4/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050182518A1 (en) | 2004-02-13 | 2005-08-18 | Evolution Robotics, Inc. | Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system |
JP2012216051A (ja) | 2011-03-31 | 2012-11-08 | Fuji Soft Inc | 歩行ロボット装置及びその制御プログラム |
WO2018140748A1 (en) | 2017-01-26 | 2018-08-02 | The Regents Of The University Of Michigan | Localization using 2d maps which capture vertical structures in 3d point data |
Non-Patent Citations (3)
Title |
---|
Hengbo Tang et al.,Automatic Simultaneous Extrinsic-Odometric Calibration for Camera-Odometry System,IEEE Sensors Journal,米国,IEEE,2018年01月01日,Vol.18, No.1,pp.348-355,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8070932 |
Rafael Munoz-Salinas et al.,SPM-SLAM:Simltaneous Localization and Mapping with Squared Plannar Markers,Pattern Recognition,ELSEVIER,2018年02月,Vol.86,pp.156-171 |
友納 正裕,移動ロボットのための確率的な自己位置推定と地図構築,日本ロボット学会誌,日本,一般社団法人日本ロボット学会,2011年06月15日,第29巻 第5号,pp.21-24 |
Also Published As
Publication number | Publication date |
---|---|
EP3995988A4 (en) | 2022-08-17 |
EP3995988A1 (en) | 2022-05-11 |
WO2021004416A1 (zh) | 2021-01-14 |
JP2022539422A (ja) | 2022-09-08 |
CN112183171B (zh) | 2024-06-28 |
KR20220025028A (ko) | 2022-03-03 |
CN112183171A (zh) | 2021-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7300550B2 (ja) | 視覚標識に基づき標識マップを構築する方法、装置 | |
WO2021212844A1 (zh) | 点云拼接方法、装置、设备和存储设备 | |
Usenko et al. | The double sphere camera model | |
CN112184824B (zh) | 一种相机外参标定方法、装置 | |
CN111561923A (zh) | 基于多传感器融合的slam制图方法、系统 | |
CN110568447A (zh) | 视觉定位的方法、装置及计算机可读介质 | |
CN111127524A (zh) | 一种轨迹跟踪与三维重建方法、系统及装置 | |
CN108537214B (zh) | 一种室内语义地图的自动化构建方法 | |
CN113048980B (zh) | 位姿优化方法、装置、电子设备及存储介质 | |
CN111210478A (zh) | 一种无共同视野多相机系统外参标定方法、介质及系统 | |
WO2024093635A1 (zh) | 相机位姿估计方法、装置及计算机可读存储介质 | |
CN111998862A (zh) | 一种基于bnn的稠密双目slam方法 | |
CN113223078A (zh) | 标志点的匹配方法、装置、计算机设备和存储介质 | |
TW202238449A (zh) | 室內定位系統及室內定位方法 | |
CN113034347A (zh) | 倾斜摄影图像处理方法、装置、处理设备及存储介质 | |
Tao et al. | A convenient and high-accuracy multicamera calibration method based on imperfect spherical objects | |
JP2018173882A (ja) | 情報処理装置、方法、及びプログラム | |
CN113920192A (zh) | 一种视觉定位方法、装置、服务器及计算机可读存储介质 | |
CN105339981A (zh) | 用于使用一组基元配准数据的方法 | |
JP2007034964A (ja) | カメラ視点運動並びに3次元情報の復元及びレンズ歪パラメータの推定方法、装置、カメラ視点運動並びに3次元情報の復元及びレンズ歪パラメータの推定プログラム | |
CN113628284B (zh) | 位姿标定数据集生成方法、装置、系统、电子设备及介质 | |
Hu et al. | Efficient Visual-Inertial navigation with point-plane map | |
CN113516772B (zh) | 三维场景重建方法及装置、bim模型的优化方法及装置 | |
CN117406185B (zh) | 雷达与相机间的外参标定方法、装置、设备及存储介质 | |
Tahri et al. | Efficient decoupled pose estimation from a set of points |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220105 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230502 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230619 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7300550 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |