JP7258250B2 - 位置・姿勢推定装置、位置・姿勢推定方法、及びプログラム - Google Patents
位置・姿勢推定装置、位置・姿勢推定方法、及びプログラム Download PDFInfo
- Publication number
- JP7258250B2 JP7258250B2 JP2022569662A JP2022569662A JP7258250B2 JP 7258250 B2 JP7258250 B2 JP 7258250B2 JP 2022569662 A JP2022569662 A JP 2022569662A JP 2022569662 A JP2022569662 A JP 2022569662A JP 7258250 B2 JP7258250 B2 JP 7258250B2
- Authority
- JP
- Japan
- Prior art keywords
- orientation
- unit
- absolute
- calculation
- absolute position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 91
- 238000004364 calculation method Methods 0.000 claims description 101
- 230000036544 posture Effects 0.000 claims description 84
- 238000012545 processing Methods 0.000 claims description 70
- 230000010354 integration Effects 0.000 claims description 49
- 230000008569 process Effects 0.000 claims description 25
- 238000001514 detection method Methods 0.000 claims description 18
- 238000005457 optimization Methods 0.000 claims description 3
- 239000006185 dispersion Substances 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 25
- 238000010187 selection method Methods 0.000 description 10
- 230000008859 change Effects 0.000 description 8
- 230000001133 acceleration Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000004807 localization Effects 0.000 description 4
- 238000013507 mapping Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000002945 steepest descent method Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/183—Compensation of inertial measurements, e.g. for temperature effects
- G01C21/188—Compensation of inertial measurements, e.g. for temperature effects for accumulated errors, e.g. by coupling inertial systems with absolute positioning systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3844—Data obtained from position sensors only, e.g. from inertial navigation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3863—Structures of map data
- G01C21/387—Organisation of map data, e.g. version management or database structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Description
《1-1》構成
《1-1-1》概要
実施の形態1では、カメラによって撮影された画像であるカメラ画像(すなわち、撮像画像)を用いた絶対位置・姿勢の計算の精度の向上について述べる。カメラ画像を用いて位置・姿勢を推定する方法として、第1の推定方法が知られている。例えば、非特許文献1を参照。
図5は、実施の形態1に係る3次元地図作成装置の構成を概略的に示す機能ブロック図である。図5に示される3次元地図作成装置は、実施の形態1に係る3次元地図作成方法を実行することができる装置である。なお、以下の説明では、3次元地図作成装置が、位置・姿勢推定装置101の一部(すなわち、地図作成登録部)である例を説明する。ただし、3次元地図作成装置は、位置・姿勢推定装置101とは別個の装置であってもよい。この場合、3次元地図作成装置のハードウェア構成は、図4に示されるものと同様である。
図8は、実施の形態1に係る位置・姿勢推定装置101の構成を概略的に示す機能ブロック図である。位置・姿勢推定装置101は、異なる視点で撮影した複数のセンサデータに基づいて、位置・姿勢を計算する処理を行う。ここで、センサデータは、カメラ画像、距離センサの検出データを含む。図8に示されるように、位置・姿勢推定装置101は、データベース読込部15と、フレーム選択部16と、相対位置・姿勢取得部17と、絶対位置・姿勢計算部18と、絶対位置・姿勢統合部19とを有している。
《1-2-1》3次元地図の生成
図9は、実施の形態1に係る3次元地図作成装置による3次元地図の作成のための処理の例を示すフローチャートである。図9に示されるように、キーフレーム検出部10及びキーフレーム位置・姿勢計算部11は、3次元地図の作成を実行する(ステップS101)。3次元地図の作成は、例えば、SLAMを用いて、キーフレームを検出しながら実行される。
図10は、実施の形態1に係る位置・姿勢推定装置101による位置・姿勢の推定のための処理の例を示すフローチャートである。データベース読込部15は、DB保存部14からデータとして3次元地図を読み込む(ステップS111)。フレーム選択部16は、フレームを選択する(ステップS112)。選択されるフレームは、予め決められたルールに基づいて処理するフレームである。
以上に説明したように、実施の形態1に係る位置・姿勢推定装置又は位置姿勢推定方法によれば、複数の画像を用いて得られた位置・姿勢のデータに基づいて位置・姿勢の推定を行うので、位置・姿勢の推定の精度を向上させることができる。
《2-1》構成
《2-1-1》
実施の形態1では、カメラ画像を使った絶対位置・姿勢の計算方法として、直接的なマッチングを用いる第1の計算方法と、2段階のマッチングを用いる第2の計算方法とがあることを説明した。また、実施の形態1では、第2の計算方法を用いる例を説明した。実施の形態2では、カメラ画像を使った直接的なマッチング方法で求めた位置・姿勢を統合する方法と、LiDAR(Light Detection and Ranging)などレーザセンサを使った位置・姿勢統合方法を説明する。
図12は、実施の形態2に係る3次元地図作成装置の構成を概略的に示す機能ブロック図である。図12に示される3次元地図作成装置は、実施の形態2に係る3次元地図作成方法を実行することができる装置である。なお、以下の説明では、3次元地図作成装置が、位置・姿勢推定装置の一部(すなわち、地図作成登録部)である場合を説明するが、3次元地図作成装置は、位置・姿勢推定装置とは別個の装置であってもよい。
図14は、実施の形態2に係る位置・姿勢推定装置の構成を概略的に示す機能ブロック図である。図14に示される位置・姿勢推定装置は、実施の形態2に係る位置・姿勢推定方法を実行することができる装置である。位置・姿勢推定装置は、データベース読込部25と、フレーム選択部26と、相対位置・姿勢取得部27と、絶対位置・姿勢計算部28と、絶対位置・姿勢統合部29とを有している。
《2-2-1》3次元地図の作成
図15は、実施の形態2に係る3次元地図作成装置による3次元地図の作成のための処理の例を示すフローチャートである。3次元地図作成部21及び位置・姿勢分散計算部22は、3次元地図を作成し、画像を用いる場合には、局所特徴とその位置を示す地図、LiDARを用いる場合には、点群(位置のみ)を示す地図を作成する(ステップS201)。対応関係登録部23は、3次元地図作成部21に対応する処理である対応関係の登録を行う(ステップS202)。データベース保存部24は、対応関係をデータベースに保存する処理を行う(ステップS203)。
図16は、実施の形態2に係る位置・姿勢推定装置による位置・姿勢の推定のための処理の例を示すフローチャートである。データベース読込部25は、データベースからデータを読み込む処理を行う(ステップS211)。相対位置・姿勢取得部27は、相対位置・姿勢を取得し、絶対位置・姿勢計算部28は、絶対位置・姿勢の計算を行う(ステップS212~S214)。
以上に説明したように、実施の形態2に係る位置・姿勢推定装置又は位置姿勢推定方法によれば、画像を使用しかつ直接的なマッチング方法を用いる場合、又は、LiDARで観測した形状を用いて絶対位置・姿勢を計算する例において、複数のフレームを用いているので位置・姿勢の推定の精度を向上させることができる。
《3-1》構成
《3-1-1》
ARで用いる端末又はロボットは、相対位置・姿勢を機器内で管理している場合がある。ARの場合、絶対位置・姿勢で定義されたコンテンツの位置を端末で管理している相対位置・姿勢の座標系に変換することで、コンテンツを画像上に重畳表示する。ロボットの場合も同様で、ロボットの目的地が絶対位置で定義されている場合、この位置をロボットが管理する相対位置・姿勢の座標系に変換する必要がある。
実施の形態2に係る3次元地図作成装置は、実施の形態1のものと同じである。
図17は、実施の形態3に係る位置・姿勢推定装置の構成を概略的に示す機能ブロック図である。図17に示される位置・姿勢推定装置は、実施の形態3に係る位置・姿勢推定方法を実行することができる装置である。位置・姿勢推定装置は、データベース読込部35と、フレーム選択部36と、相対位置・姿勢取得部37と、絶対位置・姿勢計算部38と、外部パラメータ計算部38aと、絶対位置・姿勢統合部としての外部パラメータ統合部39とを有している。
《3-2-1》3次元地図の作成
3次元地図作成の処理の流れは、実施の形態1と同じであるため割愛する。外部パラメータを統合する方法の処理の流れを述べる。
図18は、実施の形態3に係る位置・姿勢推定装置による位置・姿勢の推定のための処理の例を示すフローチャートである。データベース読込部35は、データベースからデータを読み込む処理を行う(ステップS301)。相対位置・姿勢取得部37は、装置位置・姿勢を取得する(ステップS302、S303)。絶対位置・姿勢計算部38は、絶対位置・姿勢の計算を行う(ステップS304)。外部パラメータ計算部38aは、外部パラメータを計算する(ステップS305)。
以上に説明したように、実施の形態3に係る位置・姿勢推定装置又は位置姿勢推定方法によれば、絶対位置・姿勢の座標系から相対位置・姿勢の座標系への変換行列を高精度に求めることができるので、ARに適用した端末にコンテンツを高精度に表示することができる。また、ロボットに適用した場合、ロボットの目的地を高精度に求めることができる。
《4-1》構成
《4-1-1》
実施の形態4では、実施の形態1における位置・姿勢推定方法に、複数のフレームを用いたエラー処理を加えた形態を述べる。画像を用いた絶対位置・姿勢の計算では、被写体に特徴的な模様が少ない場合、出力される位置・姿勢の値に大きな誤差が含まれる可能性がある。このような結果を除外するために、実施の形態4に係る位置・姿勢推定装置は、エラー処理を実行する。
実施の形態4に係る3次元地図作成装置の構成は、実施の形態1のものと同じである。
図19は、実施の形態4に係る位置・姿勢推定装置の構成を概略的に示す機能ブロック図である。図19に示される位置・姿勢推定装置は、実施の形態4に係る位置・姿勢推定方法を実行することができる装置である。実施の形態4に係る位置・姿勢推定装置は、エラー処理部48aが追加された点で、実施の形態1のものと異なる。
《4-2-1》3次元地図の作成
実施の形態4に係る3次元地図作成装置の動作は、実施の形態1のものと同じである。
図20は、実施の形態4に係る位置・姿勢推定装置による位置・姿勢の推定のための処理の他の例を示すフローチャートである。図20に示される位置・姿勢推定装置の動作は、エラー処理(ステップS406a)が追加されている点で、図11に示される実施の形態1に係る位置・姿勢推定装置の動作と相違する。図20に示されるステップS401~S406の処理、及びステップS407の処理は、図11に示される、ステップS101~S107の処理と同様である。
以上に説明したように、実施の形態4に係る位置・姿勢推定装置又は位置姿勢推定方法によれば、エラー処理が行われるので、実施の形態1の場合よりも耐環境性の高い絶対位置・姿勢の推定を実現できる(すなわち、各種の環境に対して絶対位置・姿勢の高い推定精度を実現できる)。
Claims (13)
- データベースから3次元地図のデータを読み込むデータベース読込部と、
複数の異なる視点から撮影した画像のフレームの中から位置・姿勢の計算に使用するフレームを選択する処理を行うフレーム選択部と、
前記フレーム選択部によって選択された複数のフレームについての複数の相対位置・姿勢を取得する処理を行う相対位置・姿勢取得部と、
前記フレーム選択部によって選択された複数のフレームについての複数の絶対位置・姿勢を取得する処理を行う絶対位置・姿勢計算部と、
前記相対位置・姿勢取得部によって取得された相対位置・姿勢と、前記絶対位置・姿勢計算部によって取得された絶対位置・姿勢と、を統合して、最終的な絶対位置・姿勢を取得する絶対位置・姿勢統合部と、
を有する位置・姿勢推定装置。 - 地図作成登録部をさらに有し、
前記地図作成登録部は、
カメラで撮影されたカメラ画像からキーフレームを検出するキーフレーム検出部と、
前記キーフレームを撮影した前記カメラの位置及び姿勢を計算するキーフレーム位置・姿勢計算部と、
前記キーフレーム毎に位置・姿勢の分散を計算する処理を実行する位置・姿勢分散計算部と、
フロアマップに3次元地図を位置合わせして登録データを作成する処理を行う対応関係登録部と、
前記データベースに前記登録データを保存する処理を行うデータベース保存と、を有する
請求項1に記載の位置・姿勢推定装置。 - 前記絶対位置・姿勢統合部は、前記キーフレーム毎に計算された前記位置・姿勢の分散に基づいて、前記複数の絶対位置・姿勢を統合する
請求項2に記載の位置・姿勢推定装置。 - 前記絶対位置・姿勢統合部は、前記キーフレームのうちの、前記分散が最も小さいキーフレームで推定した位置・姿勢を前記最終的な絶対位置・姿勢として採用する
請求項3に記載の位置・姿勢推定装置。 - 前記絶対位置・姿勢統合部は、前記キーフレーム毎に、前記分散に基づく重みを計算し、前記重みを用いる重み付け線形和に基づいて、前記複数の絶対位置・姿勢を統合する
請求項3に記載の位置・姿勢推定装置。 - 前記絶対位置・姿勢統合部は、非線形最適化を用いて前記複数の絶対位置・姿勢を統合する
請求項2に記載の位置・姿勢推定装置。 - 地図作成登録部をさらに有し、
前記地図作成登録部は、
カメラで撮影されたカメラ画像又は距離センサで測定された距離情報から局所的な領域毎に3次元地図を作成する3次元地図作成部と、
前記カメラ画像又は前記距離情報から前記領域毎に位置・姿勢の分散を計算する処理を実行する位置・姿勢分散計算部と、
フロアマップに3次元地図を位置合わせして登録データを作成する処理を行う対応関係登録部と、
前記データベースに前記登録データを保存する処理を行うデータベース保存と、を有する
請求項1に記載の位置・姿勢推定装置。 - 前記絶対位置・姿勢統合部は、前記領域毎の位置・姿勢の分散に基づいて、前記複数の絶対位置・姿勢を統合する
請求項7に記載の位置・姿勢推定装置。 - 前記キーフレーム毎に外部パラメータを計算する外部パラメータ計算部をさらに有し、
前記絶対位置・姿勢統合部は、前記外部パラメータ計算部で計算された複数の外部パラメータを統合することで前記複数の絶対位置・姿勢を統合する
請求項2に記載の位置・姿勢推定装置。 - 前記絶対位置・姿勢統合部は、前記キーフレーム毎に計算された前記位置・姿勢の分散に基づいて、前記複数の外部パラメータを統合する
請求項9に記載の位置・姿勢推定装置。 - 前記キーフレーム毎に計算された絶対位置・姿勢の誤差が予め決めされた閾値より大きい場合、前記閾値より大きい誤差の前記絶対位置・姿勢の計算結果を統合処理に使用させないエラー処理部をさらに有する
請求項2、3、4、5、8、9、10のいずれか1項に記載の位置・姿勢推定装置。 - 位置・姿勢推定装置が実行する位置・姿勢推定方法であって、
位置データベースから3次元地図のデータを読み込むステップと、
複数の異なる視点から撮影した画像のフレームの中から位置・姿勢の計算に使用するフレームを選択する処理を行うステップと、
選択された複数のフレームについての複数の相対位置・姿勢を取得する処理を行うステップと、
前記選択された複数のフレームについての複数の絶対位置・姿勢を取得する処理を行うステップと、
取得された前記相対位置・姿勢と、取得された前記絶対位置・姿勢と、を統合して、最終的な絶対位置・姿勢を取得するステップと、
を有する位置・姿勢推定方法。 - 位置データベースから3次元地図のデータを読み込むステップと、
複数の異なる視点から撮影した画像のフレームの中から位置・姿勢の計算に使用するフレームを選択する処理を行うステップと、
選択された複数のフレームについての複数の相対位置・姿勢を取得する処理を行うステップと、
前記選択された複数のフレームについての複数の絶対位置・姿勢を取得する処理を行うステップと、
取得された前記相対位置・姿勢と、取得された前記絶対位置・姿勢と、を統合して、最終的な絶対位置・姿勢を取得するステップと、
をコンピュータに実行させるプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/047417 WO2022130618A1 (ja) | 2020-12-18 | 2020-12-18 | 位置・姿勢推定装置、位置・姿勢推定方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2022130618A1 JPWO2022130618A1 (ja) | 2022-06-23 |
JP7258250B2 true JP7258250B2 (ja) | 2023-04-14 |
Family
ID=82059339
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022569662A Active JP7258250B2 (ja) | 2020-12-18 | 2020-12-18 | 位置・姿勢推定装置、位置・姿勢推定方法、及びプログラム |
Country Status (7)
Country | Link |
---|---|
US (1) | US20230260149A1 (ja) |
JP (1) | JP7258250B2 (ja) |
KR (1) | KR20230087613A (ja) |
CN (1) | CN116635891A (ja) |
DE (1) | DE112020007700T5 (ja) |
TW (1) | TWI817124B (ja) |
WO (1) | WO2022130618A1 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018142580A1 (ja) | 2017-02-03 | 2018-08-09 | 三菱電機株式会社 | 表示制御装置および表示制御方法 |
JP2018147095A (ja) | 2017-03-02 | 2018-09-20 | 富士通株式会社 | カメラ位置姿勢推定装置、方法およびプログラム |
WO2019098002A1 (ja) | 2017-11-20 | 2019-05-23 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム、及び移動体 |
WO2020137312A1 (ja) | 2018-12-28 | 2020-07-02 | パナソニックIpマネジメント株式会社 | 測位装置及び移動体 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2803060A1 (en) * | 2012-01-13 | 2014-11-19 | Pulse Function F6 Limited | Telematics system with 3d inertial sensors |
JP7077691B2 (ja) | 2018-03-16 | 2022-05-31 | トヨタ自動車株式会社 | 自己位置検出装置 |
-
2020
- 2020-12-18 CN CN202080107829.5A patent/CN116635891A/zh active Pending
- 2020-12-18 DE DE112020007700.4T patent/DE112020007700T5/de active Pending
- 2020-12-18 JP JP2022569662A patent/JP7258250B2/ja active Active
- 2020-12-18 KR KR1020237018897A patent/KR20230087613A/ko not_active Application Discontinuation
- 2020-12-18 WO PCT/JP2020/047417 patent/WO2022130618A1/ja active Application Filing
-
2021
- 2021-05-18 TW TW110117868A patent/TWI817124B/zh active
-
2023
- 2023-04-24 US US18/138,300 patent/US20230260149A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018142580A1 (ja) | 2017-02-03 | 2018-08-09 | 三菱電機株式会社 | 表示制御装置および表示制御方法 |
JP2018147095A (ja) | 2017-03-02 | 2018-09-20 | 富士通株式会社 | カメラ位置姿勢推定装置、方法およびプログラム |
WO2019098002A1 (ja) | 2017-11-20 | 2019-05-23 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム、及び移動体 |
WO2020137312A1 (ja) | 2018-12-28 | 2020-07-02 | パナソニックIpマネジメント株式会社 | 測位装置及び移動体 |
Also Published As
Publication number | Publication date |
---|---|
WO2022130618A1 (ja) | 2022-06-23 |
CN116635891A (zh) | 2023-08-22 |
JPWO2022130618A1 (ja) | 2022-06-23 |
DE112020007700T5 (de) | 2023-08-03 |
TW202226003A (zh) | 2022-07-01 |
KR20230087613A (ko) | 2023-06-16 |
US20230260149A1 (en) | 2023-08-17 |
TWI817124B (zh) | 2023-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107862719B (zh) | 相机外参的标定方法、装置、计算机设备和存储介质 | |
US11830216B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP6415066B2 (ja) | 情報処理装置、情報処理方法、位置姿勢推定装置、ロボットシステム | |
CN112567201A (zh) | 距离测量方法以及设备 | |
WO2018177159A1 (zh) | 运动物体的位置确定方法及系统 | |
US10895458B2 (en) | Method, apparatus, and system for determining a movement of a mobile platform | |
WO2017077925A1 (en) | Method and system for estimating three-dimensional pose of sensor | |
EP3236424B1 (en) | Information processing apparatus and method of controlling the same | |
CN110211151B (zh) | 一种运动物体的追踪方法和装置 | |
US11062475B2 (en) | Location estimating apparatus and method, learning apparatus and method, and computer program products | |
JP7173471B2 (ja) | 3次元位置推定装置及びプログラム | |
JP6817742B2 (ja) | 情報処理装置およびその制御方法 | |
JP2019211981A (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム | |
JP7258250B2 (ja) | 位置・姿勢推定装置、位置・姿勢推定方法、及びプログラム | |
CN114842224A (zh) | 一种基于地理底图的单目无人机绝对视觉匹配定位方案 | |
GB2605621A (en) | Monocular depth estimation | |
Cheng et al. | Positioning method research for unmanned aerial vehicles based on meanshift tracking algorithm | |
JP2005063012A (ja) | 全方位カメラ運動と3次元情報の復元方法とその装置及びプログラム並びにこれを記録した記録媒体 | |
EP3610358B1 (en) | Depth information based pose determination for mobile platforms, and associated systems and methods | |
Barron et al. | Motion and structure from time-varying optical flow | |
CN114719759B (zh) | 一种基于slam算法和图像实例分割技术的物体表面周长和面积测量方法 | |
WO2022198603A1 (en) | Real-time simultaneous localization and mapping using an event camera | |
CN114137247B (zh) | 基于事件相机的速度感知方法、装置、设备和介质 | |
CN114983302B (zh) | 姿态的确定方法、装置、清洁设备、存储介质及电子装置 | |
CN115683109B (zh) | 基于cuda和三维栅格地图的视觉动态障碍物检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221115 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20221115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230209 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230307 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230404 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7258250 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |