JP2013534616A - 画像センサおよび運動または位置センサから生じたデータを融合するための方法およびシステム - Google Patents
画像センサおよび運動または位置センサから生じたデータを融合するための方法およびシステム Download PDFInfo
- Publication number
- JP2013534616A JP2013534616A JP2013510540A JP2013510540A JP2013534616A JP 2013534616 A JP2013534616 A JP 2013534616A JP 2013510540 A JP2013510540 A JP 2013510540A JP 2013510540 A JP2013510540 A JP 2013510540A JP 2013534616 A JP2013534616 A JP 2013534616A
- Authority
- JP
- Japan
- Prior art keywords
- image
- sensor
- posture
- motion
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 102
- 230000033001 locomotion Effects 0.000 title claims abstract description 59
- 238000005259 measurement Methods 0.000 claims abstract description 57
- 230000036544 posture Effects 0.000 claims abstract description 54
- 238000012545 processing Methods 0.000 claims description 18
- 230000006872 improvement Effects 0.000 claims description 13
- 239000011159 matrix material Substances 0.000 claims description 8
- 230000009466 transformation Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 abstract description 30
- 238000005457 optimization Methods 0.000 description 17
- 238000004422 calculation algorithm Methods 0.000 description 11
- 230000004927 fusion Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 238000002790 cross-validation Methods 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 238000012897 Levenberg–Marquardt algorithm Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000010420 art technique Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000003750 conditioning effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000002271 resection Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/221—Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/77—Determining position or orientation of objects or cameras using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Probability & Statistics with Applications (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
Abstract
Description
姿勢という単語は、カメラまたはカメラと運動計測モジュールとを含むデバイスの位置および配向の概念を統合したものである。バンドル調整の領域におけるコスト関数の概念は、先行技術に従い、投影誤差を算出する最適化アルゴリズム(二次元観測(画像に対する計測)と理論上の再投影との距離の最小二乗の意味での最小化)に関連するものとして定義される。
t=特定の時点または時間インデックス、
w:カメラ(従って、w=c)または運動センサ(w=kで、kはカメラの音声インデックス)のいずれかである任意のセンサのインデックス、
c:カメラセンサを示すインデックス(あるいは、数個のセンサが存在する場合は、画像センサのインデックス)、
xt:時点tにおけるシーン(またはその一部)およびカメラ姿勢(またはそれらの一部)の推定を含むベクトル、
s:シーン(再構築された環境)、
p:カメラの姿勢、これは、位置Tおよび配向Rを含む。
特定の時点tに関して、デバイス(画像カメラ、および運動および/または位置計測モジュール)の姿勢
同じ特定の時点tに関して、運動および/または位置計測モジュールからの計測結果を用いた、デバイス(カメラおよび運動および/または位置センサ)の姿勢
デバイス(カメラおよびセンサ)kに関する関連の制約εkを決定するステップと、
前記制約の重み付け係数λtを自動的に決定するステップと、
前記デバイスの現在の姿勢ptの推定ステップと、
以下のコスト関数:
を含むことを特徴とする。
本発明によるシステム100は、以下を含む:
・ピンホールカメラ、全方向性、三次元TOFカメラ、ステレオカメラ、ウェブカメラ、赤外線等の画像センサ101、
・GPS、オドメータ等の運動または位置センサ102;画像センサ101および運動センサは、同じ支持材上に存在してもよい;運動または位置センサ102は、それが生成する、または計測するデータを記憶するバッファメモリ107を組み込むことも可能である、
・同じ支持材上に存在する、あるいは正規の位置から離すことも可能な処理装置103。この処理装置が画像および位置センサから離れている場合には、これは、物理的通信手段(有線、インターネット)、または無線あるいはワイヤレス手段によって、情報またはデータのやりとりを行う、
・処理装置103は、例えば、本発明による方法のステップの実行に適したプロセッサ104と、例えばシステムの姿勢のデータベース105、シーンの3Dプリミティブと、3Dプリミティブおよび画像におけるそれらの観測を結び付ける関連性とのデータベース106であるデータの保存手段とから成る。運動センサによって生成されたデータを記憶するためのバッファメモリが運動センサに組み込まれていない場合には、このメモリは、処理装置103に挿入される。
センサの融合の問題は、時間領域で離散化された逆問題として公式化することができる。観測プロセスは、センサwに関して、以下の観測ベクトルの式:
当業者に公知の較正プロセスによってこれの推定を行うことができる。
誤差ベクトル
誤差ベクトル
動的システムの場合、デバイスの経時的挙動を定義する運動モデルを使用する必要がある。使用されるモデルは、
xt=Ft(xt−1)+wtの未知の実ベクトルであり、
式中、Ftは、その前の状態からデバイスの新しい状態wt(特に姿勢を含む)を定義する。
計測結果に雑音が存在し得ることが分かっていれば、不確かで、先験的な計測結果を最も有効にする統計フィルタリングは、動的システムの状態の推定から成る。この方法では、システムの状態(センサからの全ての計測結果)は、確率密度関数(pdf)が求められる確率変数のベクトルである。
インデックスkのセンサに関する平均二乗誤差は、
全ての計測結果が、共分散
センサ融合の問題は、センサの全ての平均二乗誤差を最小にすることから成る。ベイズ推定量の一例は、バンドル調整である。
バンドル調整技術またはBA(Bandle Adjustment)は、非線形最小二乗法(例えば、Gauss−Newton法、Levenberg−Marquardt法等)を解く方法に基づいた最適化技術である。最小化される目的E関数は、通常、画像(単位はピクセルである)に基づいたコスト項であり、例えば、平均二乗誤差MSE:投影誤差
この方程式は、Gauss−Newton法またはLevenberg−Marquardt法等の先行技術の技術によって解くことができる。
カメラkによって行われた観測結果に対する再投影誤差は、ここでは、カメラcによって操作された画像のシーンの1組の3Dプリミティブの投影関数として、
例えば、ピンホールタイプのカメラと、3Dの点によって形成されたプリミティブを用いることができる。
図2は、3Dの点からの投影、
そして、
他の種類のものが、領域中に存在し、当業者には公知のものである。
図3および図4は、本発明による方法の変形実施形態の2つの例を示す。これら2つの変形例において実施されるモジュールおよびそれらの機能性を説明する。
[201、301]データ処理デバイスに配置されたビジョンによる位置測定モジュール
カメラの画像に基づいてシステムの姿勢を推定するために、このモジュールにおいて最先端の技術を用いる。このモジュールは、様々な最先端のアルゴリズムを含むことが可能であり、従って、その実施に従って変化し得る。
本発明による方法にとって重要なことは、ビジョン部の出力において:
・システムの姿勢の推定
・システム(またはその一部)の最後の姿勢の履歴
・シーンの3Dプリミティブおよび画像におけるそれらの観測結果(またはそれらの一部)の履歴
を有することである。
同期的または非同期的にカメラから提供された画像を取得するためのモジュールの考察を行う。
センサが処理装置と同じ支持材上に存在しない場合には、上記で定義した画像を用いてデバイスの姿勢(位置および配向)を推定する。
姿勢の推定は、以下の方法によって行われる。
画像がモジュール[204、304]に届くと、本方法は、興味対象要素の検出を実行する。興味対象要素は、画像において明確に定義された位置を有し、かつ、空間点に対応し、視点または照明の変化時にロバストに検出可能である3Dプリミティブの観測結果である。数多くの検出器が当業者には公知である。
次に、自身が互いに差別化を図ることを可能にし、後続の画像中にそれらを見つけ出すことを可能にする記述子によって、興味対象要素の特徴を定義する。記述子により、その近くの環境までずっと点を認識することが可能となる。
多数の記述子(Zero Mean Normalized Cross Correlationのアングロサクソン式の略称であるZNCC等)が当業者には公知である。
これより、異なる視点から取得された同じシーンの2つの画像を有する場合を検討する。これらの各々に関して、興味対象要素の検出、および対応する記述子の算出を行ったものと仮定する。
幾つかの相関方法が当業者には公知である。
デバイスの姿勢は、一般座標系の三次元(x,y,z)における位置Ttと、例えば回転Rtを有する行列の形式で保存されるデバイスの配向とによって定義される。この方法は変更可能で、例えば、5点アルゴリズムまたは8点アルゴリズム(コンピュータビジョンにおける古典的方法)を用いることが可能で、N個の画像からデバイスの姿勢を算出できる。以前に再構築されたシーン(当業者には公知のリセクションアルゴリズム)を用いることによってデバイスの姿勢を算出することもできる。姿勢を描写するパラメータも異なっていてもよい(回転行列の代わりに四元数等)。
姿勢の第1の推定は、従来の方法による誤差によって混乱する場合があり、ここで、より正確かつロバストな方法でデバイスの姿勢の推定を行うことを提案する。これを行うためには、当業者は、公知の方法:RANSAC、M−Estimator等を用いる。
2つの連続した画像間の動きは、エピポーラ幾何学の正確な算出、従って、2つの画像の姿勢の推定を行うのに十分な大きさである必要がある。従って、この方法は、比較的互いに距離があるが、十分な数の共通点を持つ画像を選択する。これを達成するためには、第1の画像I1は、常にキー画像として選択される。選択される第2の画像I2は、映像中の画像I1から可能な限り離して選択されるが、それは、I1に対して少なくともM個の興味対象対応点を有していなければならない画像である。次に、I3に関しては、I3およびI2間で対応する少なくともM個の興味対象点が存在し、かつI3およびI1間で対応する少なくともM’個の興味対象点が存在するように、I2から最も離れた画像を選択する。このように、カメラの動きを決定するのに十分な共通の興味対象点が画像間に存在する。後に続く画像Inに関して、同様に続行し、画像In−2、In−1、およびInが、同じ3Dプリミティブに対応する少なくともM個の興味対象点を有することを確認する。これらの規則に従う場合、画像Iのみがキー画像Inとなる。キー画像のこの検出方法は異なっていてもよく、ここでは、一例を提案する。
シーンの初期化は、シーケンスの開始時に一度だけ行われる。ここでは、それは、初回に環境を再構築するという問題である。これを達成するためには、例えば、最初の3つのキー姿勢を使用し、3つの画像において、それら(興味対象要素)の観測結果から3Dプリミティブを三角測量することができる(3D三角測量法)。この方法により、特に、キー姿勢およびシーン要素(3D)のデータベースの構築が可能となる。
システムの最後のN個(2〜全て)の姿勢を含むデータベース(現在のカメラ較正パラメータを有する)を所有する場合を検討する。
再構築されたシーンの3Dプリミティブのデータベースを各キー画像におけるそれらの対応(二次元観測結果(x,y)−3Dプリミティブの関連性)と共に所有し、これらの対応において、要素(その姿勢(位置および配向)はデータベース[212]によって分かっている)が検出済みである場合を検討する。3Dプリミティブは、例えば、3D点(x,y,z)であるが、他の要素(パッチ、セグメント等)でもよい。
「姿勢精度向上」および「拡張姿勢精度向上」モジュールは、コンピュータビジョンの領域において非常によく知られたアルゴリズム:バンドル調整に基づく。より正確には、この部分において、本方法は、モジュール[204、304]によって提供された姿勢の第1の推定から開始し、以前に推定されたシーン要素を考慮に入れて、デバイスの現在の姿勢のみを精度向上させる。
3Dプリミティブを再構築するためのこのモジュールは、姿勢の精度向上([209、309])の直後に、あるいは、その後しばらくしてから起動される。これは、シーンの3Dプリミティブ(例えば3D点)を、最後のN個の画像(例えば、N=3)において行われたそれらの二次元観測から三角測量することから成る。これを行うためには、コンピュータビジョンの最新のアルゴリズムを利用する。計算の完了時に、2D/3Dデータベースに3Dプリミティブおよびそれらの対応(二次元観測結果−3Dプリミティブの関連性)を加える。
[205、305]位置/運動センサからのデータの取得
運動および/または位置センサからのデータを非同期的に取り出すことを可能にするシステム(センサおよびドライバリンクに対する処理モジュール)を検討する。運動センサによってデータ項目が生成されると、このデータ項目は、バッファメモリに保存するため、運動および/または位置センサあるいは処理モジュールに配置するために、プログラムによって取り出される。
要求が予測モジュール(206、306)にアドレッシングされると(ビジョンによる姿勢の推定を行うためのモジュール[204、304]によって)、予測モジュールは、同期が必要とする時点の前に、センサの観測結果を取り出し、それらをバッテリまたはバッファメモリから取り除き、次に、これらの計測結果および運動モデル(任意であるが、本方法では、これを用いるとより正確である)からデバイスまたはシステムの姿勢(またはその一部)を算出する。デバイス(カメラおよび運動センサから成る)が例えばPCである処理手段とは別個のものである場合を考えると、この方法は、PCを組み込んだシステムの姿勢ではなく、デバイスの姿勢を算出する。
バンドル調整技術は、最適化速度を提供しないので、これらの量は、上流で推定される必要がある、あるいは、第2の運動および/または位置センサによって直接提供される必要がある。センサkの最後の計測結果
このモジュールは、精度向上コスト関数に加える制約の種類(または誤差の種類)を定義する。
位置制約
スケール係数制約(または変換基準制約)
[210]新しい3Dプリミティブを選択するためのモジュール
制約構築モジュールによって定義される誤差または制約は、その数例を以下に示す特定の技術によって選択される、我々がラムダλと呼ぶ係数によって重み付けされる必要がある。
Lカーブ基準は、本来、モデルの第1のコスト項およびパラメータ数を共に最小にすることが可能な有効正則化パラメータの推定を求める正則化問題において使用されたものである。
さらに、この方法は、幾つかの目的で、非線形最小二乗の最適化の問題において用いられたものであり、この場合、これは、各コスト項の重み付け係数ラムダを推定することによって異なる目的間で妥協点を見つけ出し、それによって、1組の目的の最良の最小化を求めるという問題であった。
従って、Lカーブ基準は、対数−対数スケールで、2つのコスト項間の妥協点を表す。
この基準は、通常、L字形状を有し、垂直部分から水平部分を分離する「角」は、最小化される2つのコスト項(目的)の一方の優勢に対応する。Lカーブ基準の曲率k(l)により、求められる角を見つけ出すことが可能となる:
Lカーブを推定するためには、インデックスcを有するカメラおよびインデックスkを有するセンサに関する数ペアの制約を算出する必要がある(異なるラムダ値に関して最小化される2つの目的(εc、εk)を表す)。これは、ラムダの各値に関して、デバイスの最後の姿勢を最適化する[209]、またはシーンの一部を用いて最後のN個の姿勢を最適化する[314]ことを意味する。次に、上記ペアを用いてLカーブを構築し、最大曲率(k max)に位置する最良ラムダを推定する。
クロス確認
クロス確認法は、統計的考察に基づいた非常に良く知られた手段である:
適切なモデル(ここでは、重み付け係数ラムダ)は、どのような欠測データも正確に予測することができるべきである。より正確には、データセットから2〜3個の計測結果を除去した場合、推定された解(学習フェーズ:モジュール[209または314])は、これらの観測結果を(テストフェーズ中に)予測できるべきである。
クロス確認には幾つかの異なる型が存在し、これらは、主に、それらのテストおよび学習セットの扱いが異なる。現在のケースの場合、限られた数のカメラの観測結果により、「1つ除外する」("leave one out")という表現でよく知られる観測結果を再利用する方法の使用が生じるが、全く同様に、別の異なる型を用いることが可能である。
クロス確認スコアCvloo(l)は、ある特定の重み付けパラメータラムダに関する予測の質を反映する。これは、3D点jの実観測yjと、予測
各重み付き制約は、キー画像の選択ステップが実施されない場合には画像ごとに、あるいは、キー画像ごとにデバイスの姿勢pt cと関連付けられ、その後、データベース211、311に保存される。この制約(重み付けを有する)は、デバイスの関連姿勢が調整モジュール[214、314]において精度向上されるたびに再使用される。制約要素をデータベース211、311に保存する:重み付けλkおよびデバイスの姿勢の予測
バンドル調整は、特定数のデバイスの姿勢(データベース[212、312]から取り出された全てまたは一部)を、(データベース[213、313]に保存された)特定数のシーン3Dプリミティブ(例えば、現在最適化を行っている姿勢が見る全てのプリミティブ)と共に同時に最適化することから成る。
インクリメンタルSLAMの累積誤差を低減するために、シーンおよびシステムの位置測定に対して周期的に精度向上を行う。局所的最適化によって(すなわち、最後の姿勢のみを精度向上させることによって)良い結果が得られる。
従って、例えば、少なくとも最後の2つの姿勢(可能であればキー姿勢)の姿勢を最適化することが可能である。簡単な手順方法は、前の制約をLBAコスト関数に投入することである。Xt=[pt−9・・・・・・・pts’]を定義し、ベクトルは、固定姿勢(pt−9,・・・・pt−3)、精度向上を望むカメラの姿勢(pt−2,pt−1,pt)、および例えば最後のN個の姿勢に見られる3D点のセットである、シーンsの一部s’の現在の推定を含む。
例えば、N=3、M=9とする。
この考えは、姿勢を最適化することであり、すなわち、カメラおよびデバイスの位置および配向を最適化することである。
バンドル調整から直接的に融合を統合する能力を引き出すこのような融合は、リアルタイムでの重み付け項の最適化推定が行えない先行技術の方法では不可能であった。これは、バンドル調整法の範囲内で、データの直接的統合による正確かつ迅速な融合を提供し、実際、拡張カルマンフィルタを用いた方法と比較して、より高い精度を提供する。
この技術によれば、計測の最初の共分散を推定する、あるいは、システム状態に共分散を伝える必要はなく、その理由は、本発明による方法は、自動的に自身を適応させるからである(重み付けパラメータラムダのリアルタイムでの推定)。
重み付け係数の推定は、動的かつリアルタイムである。これは、新しい最適化ごとに計算され、これにより、前の状態の履歴を用いた、より完全な最適化方法、すなわち、先行技術によるカルマンフィルタを用いた方法とは異なり、デバイスの最後のN個の姿勢の精度向上を行う方法が提供される。
Claims (8)
- 第1の画像センサから、および運動および/または位置計測モジュールから生じたデータを融合するための方法において、前記第1のセンサおよび前記運動および/または位置計測モジュールは一体型で、デバイスを形成し、前記方法は、前記デバイスの位置測定を行うために、処理モジュールによって実行され、少なくとも以下のステップ:
特定の時点tに関して、前記デバイス、画像カメラ、および運動および/または位置計測モジュールの現在の姿勢
前記同じ特定の時点tに関して、前記運動および/または位置計測モジュールからの計測結果を用いた、前記デバイス(カメラおよび運動/位置センサ)の予測姿勢
前記デバイス(カメラcおよびセンサk)の前記センサkに関する関連の制約εkを決定するステップと、
前記制約の重み付け係数λtを自動的に決定するステップと、
前記デバイスの現在の姿勢ptの推定ステップと、
以下のコスト関数:
を含むことを特徴とする方法。 - 請求項1に記載の方法において、所定数の第1の姿勢を用いて前記画像センサの環境を再構築し、3Dプリミティブの三角測量を選択された姿勢に関してそれらを構築する興味対象要素から実行することにより、キー姿勢およびシーン要素(3D)のデータベースを初期化するステップを含むことを特徴とする方法。
- 請求項1に記載の方法において、前記重み付け係数の前記自動選択ステップは、前記デバイスの姿勢の精度向上ステップの結果を使用し、ビジョンによる姿勢の推定を行うためのモジュールによって提供された前記デバイスの姿勢の第1の推定[204、304]から開始され、以前に推定されたシーン要素を考慮に入れ[209]、において重み付けの自動選択モジュールによって提供され[208]、前記重み付けの自動選択モジュールにおいて学習された係数ラムダλまたはλtによって重み付けされた[208、308]予測誤差(制約)をコスト項に加えることによって行われ、
前記精度向上ステップの最後に、システムの現在の姿勢を姿勢のデータベース[212]に加えることを特徴とする方法。 - 請求項1に記載の方法において、前記重み付けの自動選択ステップは、前記デバイスの姿勢の精度向上ステップ[309]を含み、モジュール[309]において、前記コスト関数は、前記カメラ上のシーンの3Dプリミティブの再投影誤差のみから成り、前記カメラの姿勢は、現在精度向上が行われており、次に、前記制約の構築ステップが続き、その後、前記重み付けの自動選択ステップが続き、
前記精度向上ステップの最後に、システムの現在の姿勢を姿勢のデータベース(履歴)[312]に加えることを特徴とする方法。 - 請求項1に記載の方法において、以下のステップ:第1の画像I1をキー画像として選択するステップと、次に、映像中でI1から可能な限り離れて、かつI1に対して少なくともM個の興味対象対応点を有して第2の画像I2を選択するステップと、次に、I3およびI2間で対応する少なくともM個の興味対象点が存在し、かつI3およびI1間で対応する少なくともM’個の興味対象点が存在するように、I2から最も離れた第3の画像I3を選択するステップと、後に続く画像Inに関して同様のステップとを含むキー画像の選択ステップを含み、同様に続けることで、画像In−2、In−1、およびInが、同じ3Dプリミティブに対応する少なくともM個の興味対象点を有することを確認することを特徴とする方法。
- 第1の画像センサ(101)から、および運動および/または位置計測モジュールから生じたデータを融合するためのシステムであって、前記第1のセンサおよび前記運動および/または位置計測モジュール(102)は一体型で、デバイスを形成し、前記システムは、請求項1から7のいずれか一項に記載の方法の前記ステップを実行するのに適した処理装置(103)を含むシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1053803A FR2960082B1 (fr) | 2010-05-17 | 2010-05-17 | Procede et systeme pour fusionner des donnees issues de capteurs d'images et de capteurs de mouvement ou de position |
FR1053803 | 2010-05-17 | ||
PCT/EP2011/056241 WO2011144408A1 (fr) | 2010-05-17 | 2011-04-19 | Procede et systeme pour fusionner des donnees issues de capteurs d'images et de capteurs de mouvement ou de position |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013534616A true JP2013534616A (ja) | 2013-09-05 |
JP5987823B2 JP5987823B2 (ja) | 2016-09-07 |
Family
ID=43242616
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013510540A Expired - Fee Related JP5987823B2 (ja) | 2010-05-17 | 2011-04-19 | 画像センサおよび運動または位置センサから生じたデータを融合するための方法およびシステム |
Country Status (5)
Country | Link |
---|---|
US (1) | US9071829B2 (ja) |
EP (1) | EP2572319B1 (ja) |
JP (1) | JP5987823B2 (ja) |
FR (1) | FR2960082B1 (ja) |
WO (1) | WO2011144408A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015508197A (ja) * | 2012-01-26 | 2015-03-16 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | モーションセンサーデータに基づく3dモデルを計算するように構成されたモバイルデバイス |
JP2016502712A (ja) * | 2012-11-02 | 2016-01-28 | クアルコム,インコーポレイテッド | 単眼視覚slamのための高速初期化 |
JP2018512593A (ja) * | 2015-04-10 | 2018-05-17 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh | 車両の移動データを使用した車載カメラによる物体位置測定 |
JP2020113159A (ja) * | 2019-01-16 | 2020-07-27 | Kddi株式会社 | 情報端末装置及びプログラム |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2976107B1 (fr) * | 2011-05-30 | 2014-01-03 | Commissariat Energie Atomique | Procede de localisation d'une camera et de reconstruction 3d dans un environnement partiellement connu |
US9111351B2 (en) * | 2011-12-15 | 2015-08-18 | Sony Corporation | Minimizing drift using depth camera images |
KR101356192B1 (ko) * | 2012-04-26 | 2014-01-24 | 서울시립대학교 산학협력단 | 영상매칭 기반의 스마트폰의 위치자세 결정 방법 및 시스템 |
US9159133B2 (en) * | 2012-11-05 | 2015-10-13 | Qualcomm Incorporated | Adaptive scale and/or gravity estimation |
JP6202559B2 (ja) * | 2013-07-26 | 2017-09-27 | 積水化学工業株式会社 | 埋設管路の計測装置、及び、埋設管路の計測方法 |
ES2763912T3 (es) * | 2013-08-20 | 2020-06-01 | Curefab Tech Gmbh | Seguimiento óptico |
WO2015134795A2 (en) | 2014-03-05 | 2015-09-11 | Smart Picture Technologies, Inc. | Method and system for 3d capture based on structure from motion with pose detection tool |
US20160077166A1 (en) * | 2014-09-12 | 2016-03-17 | InvenSense, Incorporated | Systems and methods for orientation prediction |
US20160260250A1 (en) * | 2015-03-05 | 2016-09-08 | Dejan Jovanovic | Method and system for 3d capture based on structure from motion with pose detection tool |
US10083522B2 (en) | 2015-06-19 | 2018-09-25 | Smart Picture Technologies, Inc. | Image based measurement system |
CN104966123A (zh) * | 2015-07-16 | 2015-10-07 | 北京工业大学 | 基于模糊-自适应的slam数据关联方法 |
US10360718B2 (en) * | 2015-08-14 | 2019-07-23 | Samsung Electronics Co., Ltd. | Method and apparatus for constructing three dimensional model of object |
US10546385B2 (en) * | 2016-02-25 | 2020-01-28 | Technion Research & Development Foundation Limited | System and method for image capture device pose estimation |
US10616552B2 (en) * | 2016-03-25 | 2020-04-07 | Intel Corporation | Multi-modal real-time camera localization and environment mapping |
JP6702543B2 (ja) * | 2016-05-31 | 2020-06-03 | 株式会社東芝 | 情報処理装置、方法およびプログラム |
US10593065B2 (en) * | 2016-07-27 | 2020-03-17 | Htc Corporation | Method and device for camera pose estimation |
KR102462502B1 (ko) | 2016-08-16 | 2022-11-02 | 삼성전자주식회사 | 스테레오 카메라 기반의 자율 주행 방법 및 그 장치 |
AU2017344762A1 (en) * | 2016-10-20 | 2019-05-30 | Spookfish Innovations Pty Ltd | A bundle adjustment system |
WO2019032736A1 (en) | 2017-08-08 | 2019-02-14 | Smart Picture Technologies, Inc. | METHOD OF MEASURING AND MODELING SPACES USING AUGMENTED REALITY WITHOUT MARKER |
US11087453B2 (en) * | 2018-06-11 | 2021-08-10 | Dynatek Labs, Inc. | Automated failure detection for medical device testing systems and methods |
CN109297496A (zh) * | 2018-09-29 | 2019-02-01 | 上海新世纪机器人有限公司 | 基于slam的机器人定位方法及装置 |
WO2020197528A1 (en) * | 2019-03-22 | 2020-10-01 | Hewlett-Packard Development Company L.P. | 3d imaging |
US10955245B2 (en) * | 2019-04-30 | 2021-03-23 | Samsung Electronics Co., Ltd. | System and method for low latency, high performance pose fusion |
WO2020231872A1 (en) | 2019-05-10 | 2020-11-19 | Smart Picture Technologies, Inc. | Methods and systems for measuring and modeling spaces using markerless photo-based augmented reality process |
WO2020247938A1 (en) | 2019-06-07 | 2020-12-10 | Pictometry International Corp. | Using spatial filter to reduce bundle adjustment block size |
CN113190564A (zh) * | 2020-01-14 | 2021-07-30 | 阿里巴巴集团控股有限公司 | 地图更新系统、方法及设备 |
WO2022036284A1 (en) * | 2020-08-13 | 2022-02-17 | Invensense, Inc. | Method and system for positioning using optical sensor and motion sensors |
CN112017229B (zh) * | 2020-09-06 | 2023-06-27 | 桂林电子科技大学 | 一种相机相对位姿求解方法 |
CN112197770B (zh) * | 2020-12-02 | 2021-03-12 | 北京欣奕华数字科技有限公司 | 一种机器人的定位方法及其定位装置 |
WO2022120698A1 (en) * | 2020-12-10 | 2022-06-16 | Intel Corporation | Method and system of image processing with increased subjective quality 3d reconstruction |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003281504A (ja) * | 2002-03-22 | 2003-10-03 | Canon Inc | 撮像部位置姿勢推定装置及びその制御方法並びに複合現実感提示システム |
JP2005033319A (ja) * | 2003-07-08 | 2005-02-03 | Canon Inc | 位置姿勢計測方法及び装置 |
JP2006215924A (ja) * | 2005-02-04 | 2006-08-17 | Canon Inc | 位置姿勢計測方法及び装置 |
JP2008089314A (ja) * | 2006-09-29 | 2008-04-17 | Topcon Corp | 位置測定装置及びその方法 |
JP2010014450A (ja) * | 2008-07-01 | 2010-01-21 | Topcon Corp | 位置測定方法、位置測定装置、およびプログラム |
JP2010014443A (ja) * | 2008-07-01 | 2010-01-21 | Topcon Corp | 位置測定方法、位置測定装置、およびプログラム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004081868A2 (en) * | 2003-03-11 | 2004-09-23 | Sarnoff Corporation | Method and apparatus for determining camera pose from point correspondences |
-
2010
- 2010-05-17 FR FR1053803A patent/FR2960082B1/fr not_active Expired - Fee Related
-
2011
- 2011-04-19 WO PCT/EP2011/056241 patent/WO2011144408A1/fr active Application Filing
- 2011-04-19 EP EP11715235.5A patent/EP2572319B1/fr active Active
- 2011-04-19 JP JP2013510540A patent/JP5987823B2/ja not_active Expired - Fee Related
- 2011-04-19 US US13/698,267 patent/US9071829B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003281504A (ja) * | 2002-03-22 | 2003-10-03 | Canon Inc | 撮像部位置姿勢推定装置及びその制御方法並びに複合現実感提示システム |
JP2005033319A (ja) * | 2003-07-08 | 2005-02-03 | Canon Inc | 位置姿勢計測方法及び装置 |
JP2006215924A (ja) * | 2005-02-04 | 2006-08-17 | Canon Inc | 位置姿勢計測方法及び装置 |
JP2008089314A (ja) * | 2006-09-29 | 2008-04-17 | Topcon Corp | 位置測定装置及びその方法 |
JP2010014450A (ja) * | 2008-07-01 | 2010-01-21 | Topcon Corp | 位置測定方法、位置測定装置、およびプログラム |
JP2010014443A (ja) * | 2008-07-01 | 2010-01-21 | Topcon Corp | 位置測定方法、位置測定装置、およびプログラム |
Non-Patent Citations (1)
Title |
---|
ALEXANDRE EUDES ET AL: "Error Propagations for Local Bundle Adjustment", COMPUTER VISION AND PATTERN RECOGNITION, 2009. CVPR 2009. IEEE CONFERENCE ON, JPN6016012421, 20 June 2009 (2009-06-20), US, pages 2411 - 2418, ISSN: 0003290866 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015508197A (ja) * | 2012-01-26 | 2015-03-16 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | モーションセンサーデータに基づく3dモデルを計算するように構成されたモバイルデバイス |
US9639959B2 (en) | 2012-01-26 | 2017-05-02 | Qualcomm Incorporated | Mobile device configured to compute 3D models based on motion sensor data |
JP2016502712A (ja) * | 2012-11-02 | 2016-01-28 | クアルコム,インコーポレイテッド | 単眼視覚slamのための高速初期化 |
JP2018512593A (ja) * | 2015-04-10 | 2018-05-17 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh | 車両の移動データを使用した車載カメラによる物体位置測定 |
US10423164B2 (en) | 2015-04-10 | 2019-09-24 | Robert Bosch Gmbh | Object position measurement with automotive camera using vehicle motion data |
JP2020113159A (ja) * | 2019-01-16 | 2020-07-27 | Kddi株式会社 | 情報端末装置及びプログラム |
JP7074694B2 (ja) | 2019-01-16 | 2022-05-24 | Kddi株式会社 | 情報端末装置及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP5987823B2 (ja) | 2016-09-07 |
EP2572319A1 (fr) | 2013-03-27 |
FR2960082B1 (fr) | 2012-08-10 |
US20130162785A1 (en) | 2013-06-27 |
WO2011144408A1 (fr) | 2011-11-24 |
FR2960082A1 (fr) | 2011-11-18 |
US9071829B2 (en) | 2015-06-30 |
EP2572319B1 (fr) | 2017-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5987823B2 (ja) | 画像センサおよび運動または位置センサから生じたデータを融合するための方法およびシステム | |
CN109084732B (zh) | 定位与导航方法、装置及处理设备 | |
CN109307508B (zh) | 一种基于多关键帧的全景惯导slam方法 | |
JP7131994B2 (ja) | 自己位置推定装置、自己位置推定方法、自己位置推定プログラム、学習装置、学習方法及び学習プログラム | |
Panahandeh et al. | Vision-aided inertial navigation based on ground plane feature detection | |
US10247556B2 (en) | Method for processing feature measurements in vision-aided inertial navigation | |
JP6534664B2 (ja) | カメラ動き予測及び修正のための方法 | |
KR101776621B1 (ko) | 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
CN112219087A (zh) | 位姿预测方法、地图构建方法、可移动平台及存储介质 | |
JP5444952B2 (ja) | センサフュージョンによる地図の自動生成、およびそのように自動生成された地図を用いて移動体の移動をするための、装置、方法、ならびにプログラム | |
US20130116823A1 (en) | Mobile apparatus and walking robot | |
US20220051031A1 (en) | Moving object tracking method and apparatus | |
CN110260861B (zh) | 位姿确定方法及装置、里程计 | |
WO2022193508A1 (zh) | 位姿优化方法、装置、电子设备、计算机可读存储介质、计算机程序及程序产品 | |
CN112444246B (zh) | 高精度的数字孪生场景中的激光融合定位方法 | |
CN109141411B (zh) | 定位方法、定位装置、移动机器人及存储介质 | |
CN114111776B (zh) | 定位方法及相关装置 | |
JP7114686B2 (ja) | 拡張現実装置及び位置決め方法 | |
WO2023050634A1 (zh) | 定位方法及装置、设备、存储介质及计算机程序产品 | |
CN114429432B (zh) | 一种多源信息分层融合方法、装置及存储介质 | |
CN116721166B (zh) | 双目相机和imu旋转外参在线标定方法、装置及存储介质 | |
CN113379850B (zh) | 移动机器人控制方法、装置、移动机器人及存储介质 | |
CN113034538B (zh) | 一种视觉惯导设备的位姿跟踪方法、装置及视觉惯导设备 | |
CN113670327A (zh) | 视觉惯性里程计初始化方法、装置、设备和存储介质 | |
KR102084756B1 (ko) | Slam 공간 지도의 완성도 판단 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130523 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140331 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140530 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150324 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150901 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151201 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160405 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160414 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160725 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5987823 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |