JP2013534616A - 画像センサおよび運動または位置センサから生じたデータを融合するための方法およびシステム - Google Patents

画像センサおよび運動または位置センサから生じたデータを融合するための方法およびシステム Download PDF

Info

Publication number
JP2013534616A
JP2013534616A JP2013510540A JP2013510540A JP2013534616A JP 2013534616 A JP2013534616 A JP 2013534616A JP 2013510540 A JP2013510540 A JP 2013510540A JP 2013510540 A JP2013510540 A JP 2013510540A JP 2013534616 A JP2013534616 A JP 2013534616A
Authority
JP
Japan
Prior art keywords
image
sensor
posture
motion
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013510540A
Other languages
English (en)
Other versions
JP5987823B2 (ja
Inventor
ミショー、ジュリアン
バルトリ、アドリアン
ガスパール、フランソワ
Original Assignee
コミシリア ア レネルジ アトミック エ オ エナジーズ オルタネティヴズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コミシリア ア レネルジ アトミック エ オ エナジーズ オルタネティヴズ filed Critical コミシリア ア レネルジ アトミック エ オ エナジーズ オルタネティヴズ
Publication of JP2013534616A publication Critical patent/JP2013534616A/ja
Application granted granted Critical
Publication of JP5987823B2 publication Critical patent/JP5987823B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/221Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Probability & Statistics with Applications (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)

Abstract

本発明は、位置測定の適用(SLAM)における「バンドル調整」ステップにおいて重み付けされる姿勢間制約を統合する方法およびシステムに関する。運動モデルに関連する慣性データは、新しい画像時のシステムの姿勢の予測に役立つ。次に、この予測を用いて、姿勢間制約を構築する。学習理論から生じた技術は、効率的に、重み付け係数(共分散信号の雑音比)を選択する。このように重み付けされた姿勢間制約は、次に、バンドル調整のコスト関数の範囲内で統合される。

Description

本発明の対象は、カメラ等の視覚システムのロバストで、すなわち、外部摂動(突然の動き、照明等)に対してあまり敏感でなく、かつ正確な位置測定のために、画像センサおよび運動または位置センサから生じたデータの融合を可能にするシステムおよび方法に関する。
例えば、これを、ある環境の三次元、つまり3Dでの位置測定およびモデリングに適用する。これにより、リアルタイムでの3Dの軌道の算出も可能となり、その結果、「拡張現実」技術の実施に利用することができる。
本発明は、装着型であるか否かを問わずカメラ(例えば、動画でのHDカメラ)、および運動センサ(慣性)または他のあらゆる位置センサ(GPS(Global Positioning System)、オドメータ等)を含むシステムに適用可能である。
より一般的には、これは、コンピュータビジョン技術、拡張現実の領域、3D再構築およびモデリング、ロボット工学等に適用可能である。
定義
姿勢という単語は、カメラまたはカメラと運動計測モジュールとを含むデバイスの位置および配向の概念を統合したものである。バンドル調整の領域におけるコスト関数の概念は、先行技術に従い、投影誤差を算出する最適化アルゴリズム(二次元観測(画像に対する計測)と理論上の再投影との距離の最小二乗の意味での最小化)に関連するものとして定義される。
「最適化姿勢」という表現は、カメラまたはデバイスの位置および配向の最適化を意味する。
シーンという単語は、特に三次元でのそれらの位置(例えば、3Dの点、3Dの線分等)によって特徴付けられる1組のプリミティブを指す。これらの要素またはプリミティブは、1つまたは複数のカメラによって撮影された実環境の再構築を形成する。要約すれば、「シーン」という単語は、再構築された環境に相当する。
「デバイス」という用語は、本明細書において、運動計測モジュールまたは画像センサおよび運動または位置センサを組み込んだカメラによって形成されるアセンブリを指すために用いる。
「システム」という単語は、上記に定義したデバイスに加えて、通信手段と共に情報またはデータを処理する手段を含むアセンブリを指す。
システムは、(動作中である)デバイスの姿勢を算出する。処理装置がデバイスと同じ支持材上にない場合には、姿勢が異なるので、システムの姿勢の算出は行わない。実際、本発明による方法では、システムの移動要素の姿勢を決定する。
各センサは、世界(シーン)を観測し、それ自体の変位(デバイスの変位ではない)の計測を行う。従って、デバイスの動きを得るためには、当業者には公知の座標系の単純な変化(本明細書において後に定義する関数Hkにおいてもモデリングされる)を適用する。
本発明において提起される課題は、特に、様々なセンサに関連する不確定要素に対して先験的とならずに、物体の軌道を決定する、または3Dの環境を再構築する、あるいは、より一般的に、デバイスの位置測定を行うことを目的に、画像および慣性データを融合させるという課題を解決することである。
実際、画像を曖昧にしてしまう雑音(画像、慣性、GPS)の特徴または雑音センサによって提供された情報(さらにこれらは経時的に異なり得る)を得ることは必ずしも可能であるとは限らない。ビジョンおよび慣性データを統合する位置測定技術の大部分は、拡張カルマンフィルタを用いた、あるいは当業者に公知の粒子フィルタを用いた最適化方法に基づく。
これらの方法は、ビジョンアルゴリズムを用いてシステムの姿勢を推定し、その後、拡張カルマンフィルタによって、この「ビジョン」計測結果を融合する。これらの異種データを融合するためには、これらの方法が異なる計測結果に対して雑音共分散因子を導入することが必要である。非常に重要なこの項は、多くの場合、推定が困難であり、一般的に、先験的に固定されている。位置測定の正確さは、このパラメータに非常に左右される。
カルマンによる最適化の別の問題点は、かなり多量のシーンデータを扱う際のその非有効性である。これらの技術は、システムの状態および環境(シーン)のマップである2つの主要素を最適化する。システムステータスは、システムダイナミクスをモデリングするために選択された運動モデルに依存する。一般的に、その中には、必要に応じて速度や加速度と共に、一般座標系で表現されたシステム姿勢(姿勢という単語は、位置および配向の概念を統合したものである)が見られる。環境マップは、位置測定された要素、例えば、撮影されたシーンの点から成る。
リアルタイムの状況では、カルマンに基づいた略称「SLAM」(Simultaneous Localization and Mapping)でよく知られている、リアルタイムで環境の位置測定およびモデリングを行う方法は、マップの要素数を(数十(a few tens)に)制限するものである。この削減の影響は、最終的な位置測定の精度を大幅に損なうことである。
さらに、先行技術において、拡張カルマンフィルタは、Gauss−Newton最適化(第1の反復)の近似であることが示されている。
要するに、これらの方法によって提供される利点にもかかわらず、これらは、以下のデメリットを提示する。
ビジョンのみによる位置測定は、あまりロバストではない(素早い動き、純回転等の重大な動き、カメラの一時的明滅等の問題)。さらに、カメラは、デキャリブレート(decalibrated)状態となり得る(衝撃、温度変化等)。
慣性データの統合による位置測定によれば、中期および長期の正確な位置測定が可能ではない(ドリフト、センサバイアス、雑音等の問題)。従って、正確にシステムの位置測定を行うためには、複数のセンサを用いる必要がある。
定義
t=特定の時点または時間インデックス、
w:カメラ(従って、w=c)または運動センサ(w=kで、kはカメラの音声インデックス)のいずれかである任意のセンサのインデックス、
c:カメラセンサを示すインデックス(あるいは、数個のセンサが存在する場合は、画像センサのインデックス)、
:時点tにおけるシーン(またはその一部)およびカメラ姿勢(またはそれらの一部)の推定を含むベクトル、
Figure 2013534616
:時点tにおいてセンサwによって行われた計測に関連する観測ベクトル、
s:シーン(再構築された環境)、
p:カメラの姿勢、これは、位置Tおよび配向Rを含む。
本発明によるシステムおよび方法は、バンドル調整によって画像に関連するデータを用いて運動および/または位置データ間の自動重み付けを実施する新しいアプローチに基づく。
本発明は、第1の画像センサ、および運動および/または位置計測モジュールから生じたデータを融合するための方法に関し、前記第1のセンサおよび前記運動および/または位置計測モジュールは一体型で、デバイスを形成し、この方法は、前記デバイスの位置測定を行うために処理モジュールによって実行され、この方法は、少なくとも以下のステップ:
特定の時点tに関して、デバイス(画像カメラ、および運動および/または位置計測モジュール)の姿勢
Figure 2013534616
の定義を行うために、画像上の幾つかの点を取得することから成る第1のステップと、
同じ特定の時点tに関して、運動および/または位置計測モジュールからの計測結果を用いた、デバイス(カメラおよび運動および/または位置センサ)の姿勢
Figure 2013534616
の予測ステップと、
デバイス(カメラおよびセンサ)kに関する関連の制約εを決定するステップと、
前記制約の重み付け係数λを自動的に決定するステップと、
前記デバイスの現在の姿勢pの推定ステップと、
以下のコスト関数:
Figure 2013534616
であるコスト関数を用いたバンドル調整技術による同時最適化ステップと、
を含むことを特徴とする。
この方法は、例えば、所定数の第1の姿勢を用いて画像センサの環境を再構築し、3Dプリミティブの三角測量を選択された姿勢に関してそれらを構築する興味対象要素から実行することによって、キー姿勢およびシーン要素(3D)のデータベースを初期化するステップを含む。
ある実施形態によれば、重み付け係数の自動選択ステップは、デバイスの姿勢の精度向上ステップの結果を使用し、これは、ビジョンによって姿勢の推定を行うモジュールによって提供されたデバイスの姿勢の第1の推定から開始され、以前に推定されたシーン要素を考慮に入れ、重み付けの自動選択モジュールによって提供され、重み付けの自動選択モジュールにおいて学習した係数ラムダλまたはλによって重み付けされた予測誤差(制約)をコスト項に加えることにより行われ、精度向上ステップの最後に、システムの現在の姿勢を姿勢のデータベース(履歴)に加える。
重み付けの自動選択ステップは、例えば、デバイスの姿勢の精度向上ステップを含み、精度向上モジュールにおいて、コスト関数は、カメラ上のシーンの3Dプリミティブの再投影誤差のみから成り、このカメラの姿勢は、現在精度向上が行われており、次に、制約の構築ステップが続き、その後、重み付けの自動選択ステップが続き、精度向上ステップの最後に、システムの現在の姿勢を姿勢のデータベース(履歴)に加える。
この方法は、以下のステップ:第1の画像I1をキー画像として選択するステップと、次に、映像中でI1から可能な限り離れて、かつI1に対して少なくともM個の興味対象対応点を有して第2の画像I2を選択するステップと、次に、I3およびI2間で対応する少なくともM個の興味対象点が存在し、かつI3およびI1間で対応する少なくともM’個の興味対象点が存在するように、I2から最も離れた第3の画像I3を選択するステップと、後に続く画像Inに関して同様のステップとを含むキー画像の選択ステップも含むことができ、同様に続けることで、画像In−2、In−1、およびInが、同じ3Dプリミティブに対応する少なくともM個の興味対象点を有することを確認する。
制約の値は、例えば、以下の制約リスト:
位置制約
Figure 2013534616
配向制約
Figure 2013534616
式中、Rは、配向をパラメータ化する回転行列であり、Iは、恒等行列である等
スケール係数制約(または変換基準制約)
Figure 2013534616
から選択される。
デバイスの姿勢
Figure 2013534616
を予測するために、この方法は、センサkの最後の計測結果
Figure 2013534616
に対応する、時点t’≦tにおけるデバイスの状態
Figure 2013534616
の推定を提供する逆観測モデル
Figure 2013534616
を用いることが可能であり、
Figure 2013534616
このモデルは、運動/位置センサによって得られた計測結果
Figure 2013534616
および前の状態xt−1から画像時間Iに対応する時点tにおけるデバイスの姿勢
Figure 2013534616
を推定する。
本発明は、第1の画像センサから、および運動および/または位置計測モジュールから生じたデータを融合するためのシステムにも関し、前記第1のセンサおよび前記運動および/または位置計測モジュールは一体型で、デバイスを形成し、前記システムは、上記方法のステップを実行するのに適した処理装置を含む。
本発明の他の特徴および利点は、図面を添付した、一例として少しも限定的ではなく提供される1つまたは複数の実施形態例の以下の記載を読めば、より明白に分かるであろう。
本発明による方法を実行可能なシステムアーキテクチャの一例である。 観測Oiおよび再投影RPiの図である。 本発明による方法の概要の第1の例である。 本発明による方法の利用の第2の概要である。
本発明において実施される原理およびモジュールのさらなる理解を提供するために、以下の例を、少しも限定的な意味ではなく、本方法の異なる実施形態のステップを実行するのに適した処理装置に接続された画像カメラおよび運動および/または位置センサを含むシステムの実例として提供する。場合によっては、自身の運動の計測を可能にするモジュールを備えたカメラを使用することが可能となる。
要約すると、本発明による方法には、位置測定の適用(SLAM)における「バンドル調整」のステップにおいて重み付けされる姿勢間制約(inter−pose constraint)(すなわち、軌道計測デバイスに接続されたビジョンによって計測される姿勢に対する制約)が組み込まれる。運動モデルに関連する慣性データは、新しい画像の時点におけるシステムの姿勢の予測に役立つ。次に、この予測を用いて、姿勢間制約を構築する。学習理論から生じた技術は、効率的に、すなわち、自動的かつコンテキストに適して、リアルタイムでバンドル調整において直接的に重み付け係数(共分散信号の雑音比)を選択する。このように重み付けされた姿勢間制約は、次に、バンドル調整のコスト関数の範囲内で統合される。拡張バンドル調整は、特に数回のGauss−Newton反復を行うので、カルマンタイプのアルゴリズムと比較してより正確である。
図1は、本方法の実施が可能なシステムアーキテクチャの図の一例を示す。
本発明によるシステム100は、以下を含む:
・ピンホールカメラ、全方向性、三次元TOFカメラ、ステレオカメラ、ウェブカメラ、赤外線等の画像センサ101、
・GPS、オドメータ等の運動または位置センサ102;画像センサ101および運動センサは、同じ支持材上に存在してもよい;運動または位置センサ102は、それが生成する、または計測するデータを記憶するバッファメモリ107を組み込むことも可能である、
・同じ支持材上に存在する、あるいは正規の位置から離すことも可能な処理装置103。この処理装置が画像および位置センサから離れている場合には、これは、物理的通信手段(有線、インターネット)、または無線あるいはワイヤレス手段によって、情報またはデータのやりとりを行う、
・処理装置103は、例えば、本発明による方法のステップの実行に適したプロセッサ104と、例えばシステムの姿勢のデータベース105、シーンの3Dプリミティブと、3Dプリミティブおよび画像におけるそれらの観測を結び付ける関連性とのデータベース106であるデータの保存手段とから成る。運動センサによって生成されたデータを記憶するためのバッファメモリが運動センサに組み込まれていない場合には、このメモリは、処理装置103に挿入される。
LCDスクリーンまたはPCモニタ等のオペレータによる可視化手段108、例えばロボットを自律的に操縦することを目的として(ロボットは、例えばロボットのモータを制御することによって、本発明による方法のおかげで移動する)、ドライバ(モータ等)の制御を行うモジュール109。
各センサは、世界(シーン)を観測し、それ自体の変位(デバイスの変位ではない)の計測を行う。従って、カメラセンサおよび運動センサから成るデバイスの場合にデバイスの動きを得るためには、当業者には公知の座標系の単純な変化(後に記載する関数Hにおいてもモデリングされる)を適用する。
処理デバイスを組み込んだカメラの場合には、処理装置103は、カメラと一体化される。
本発明による方法によって実施される異なるステップを説明する前に、本発明による方法を理解するための幾つかの有用なリマインダーを示す。
リマインダー
センサの融合の問題は、時間領域で離散化された逆問題として公式化することができる。観測プロセスは、センサwに関して、以下の観測ベクトルの式:
Figure 2013534616
によって定義される。式中、
Figure 2013534616
は、特定の時点tにおいてセンサwによって実行された投影関数である。この関数は、実物体または情報x(ここでは、システムおよびシーンの位置測定)を観測ベクトル
Figure 2013534616
に関連付ける。関数
Figure 2013534616
は、座標系の変化を含み、これにより、関係したセンサに特有の座標系で表現された観測を、本発明によるシステムの座標系に渡すことが可能となる。
当業者に公知の較正プロセスによってこれの推定を行うことができる。
誤差ベクトル
Figure 2013534616
は、通常、零平均(白色雑音)によって特徴付けられるガウス関数のベクトルで表される。
誤差ベクトル
Figure 2013534616
は、計測フェーズ中に導入された不正確さをモデリングする。
逆問題の目的は、センサによって提供された複数の観測結果から未知の実ベクトルxを取り出すことである。
動的システムの場合、デバイスの経時的挙動を定義する運動モデルを使用する必要がある。使用されるモデルは、
=F(xt−1)+wの未知の実ベクトルであり、
式中、Fは、その前の状態からデバイスの新しい状態w(特に姿勢を含む)を定義する。
例えばシーンs等の静的システムは、定義上、経時的に一定であり、その結果、時間インデックスtを用いることなく表現することができる。
再帰的ベイズ推定
計測結果に雑音が存在し得ることが分かっていれば、不確かで、先験的な計測結果を最も有効にする統計フィルタリングは、動的システムの状態の推定から成る。この方法では、システムの状態(センサからの全ての計測結果)は、確率密度関数(pdf)が求められる確率変数のベクトルである。
再帰的ベイズ推定量の目的は、このpdfを求め、コスト関数による期待値を最小にすることである。最もよく知られたコスト関数は、推定量と、その観測結果との二乗誤差を最小にしようとする平均二乗誤差、またはMSE関数である。
インデックスkのセンサに関する平均二乗誤差は、
Figure 2013534616
として定義され、式中、
Figure 2013534616
は、残差計測のベクトルであり、
Figure 2013534616
は、その長さであり、
Figure 2013534616
である。
全ての計測結果が、共分散
Figure 2013534616
(Iは、恒等行列である)から互いに独立していると考えられる場合、
Figure 2013534616
が得られる。
センサ融合の問題は、センサの全ての平均二乗誤差を最小にすることから成る。ベイズ推定量の一例は、バンドル調整である。
バンドル調整技術
バンドル調整技術またはBA(Bandle Adjustment)は、非線形最小二乗法(例えば、Gauss−Newton法、Levenberg−Marquardt法等)を解く方法に基づいた最適化技術である。最小化される目的E関数は、通常、画像(単位はピクセルである)に基づいたコスト項であり、例えば、平均二乗誤差MSE:投影誤差
Figure 2013534616
(これは、画像tにおけるカメラcの二次元観測結果
Figure 2013534616
と、画像におけるシーンの再投影との二乗距離の合計である)が用いられる。
Figure 2013534616
バンドル調整技術は、最適化される入力変数に応じて異なる適用に使用される。通常、変数は、最後の姿勢pのみとなり得るが、シーンsのみ、あるいは、特定数の姿勢およびシーンの「姿勢精度向上」について述べ、次に、局所的または一般的バンドル調整(全ての姿勢の精度向上を行う場合)[ps]について述べることとする。
例えば、シーンおよびデバイスの姿勢の精度向上を行うためには、方程式:
Figure 2013534616
を解き、上付き文字cは、これらが、カメラによって行われた観測結果であることを示す。上付き文字*は、最適化を表す。
この方程式は、Gauss−Newton法またはLevenberg−Marquardt法等の先行技術の技術によって解くことができる。
再投影誤差
カメラkによって行われた観測結果に対する再投影誤差は、ここでは、カメラcによって操作された画像のシーンの1組の3Dプリミティブの投影関数として、
Figure 2013534616
と定義され、この姿勢pは、xに含まれる。この関数は、システムに用いられるカメラのタイプおよび3Dプリミティブのタイプに特有のものである。
例えば、ピンホールタイプのカメラと、3Dの点によって形成されたプリミティブを用いることができる。
図2は、3Dの点からの投影、
Figure 2013534616
を示し、
Figure 2013534616
は、分かっている場合には(そうでなければ、
Figure 2013534616
観測結果zijの標準偏差である。
そして、
Figure 2013534616
は、時点tにおけるカメラcの観測結果である。
他の種類のものが、領域中に存在し、当業者には公知のものである。
システムアーキテクチャ用のモジュール
図3および図4は、本発明による方法の変形実施形態の2つの例を示す。これら2つの変形例において実施されるモジュールおよびそれらの機能性を説明する。
ビジョン部による位置測定
[201、301]データ処理デバイスに配置されたビジョンによる位置測定モジュール
カメラの画像に基づいてシステムの姿勢を推定するために、このモジュールにおいて最先端の技術を用いる。このモジュールは、様々な最先端のアルゴリズムを含むことが可能であり、従って、その実施に従って変化し得る。
本発明による方法にとって重要なことは、ビジョン部の出力において:
・システムの姿勢の推定
・システム(またはその一部)の最後の姿勢の履歴
・シーンの3Dプリミティブおよび画像におけるそれらの観測結果(またはそれらの一部)の履歴
を有することである。
[202、302]画像の取得
同期的または非同期的にカメラから提供された画像を取得するためのモジュールの考察を行う。
[204、304]ビジョンによる姿勢の推定
センサが処理装置と同じ支持材上に存在しない場合には、上記で定義した画像を用いてデバイスの姿勢(位置および配向)を推定する。
姿勢の推定は、以下の方法によって行われる。
二次元興味対象要素の検出
画像がモジュール[204、304]に届くと、本方法は、興味対象要素の検出を実行する。興味対象要素は、画像において明確に定義された位置を有し、かつ、空間点に対応し、視点または照明の変化時にロバストに検出可能である3Dプリミティブの観測結果である。数多くの検出器が当業者には公知である。
興味対象要素の説明
次に、自身が互いに差別化を図ることを可能にし、後続の画像中にそれらを見つけ出すことを可能にする記述子によって、興味対象要素の特徴を定義する。記述子により、その近くの環境までずっと点を認識することが可能となる。
多数の記述子(Zero Mean Normalized Cross Correlationのアングロサクソン式の略称であるZNCC等)が当業者には公知である。
興味対象要素の相互相関
これより、異なる視点から取得された同じシーンの2つの画像を有する場合を検討する。これらの各々に関して、興味対象要素の検出、および対応する記述子の算出を行ったものと仮定する。
実際の相関フェーズは、2つの画像間で類似特性を有する興味対象要素間の対応を確立することから成る。
幾つかの相関方法が当業者には公知である。
対応に基づいた姿勢の算出
デバイスの姿勢は、一般座標系の三次元(x,y,z)における位置Tと、例えば回転Rを有する行列の形式で保存されるデバイスの配向とによって定義される。この方法は変更可能で、例えば、5点アルゴリズムまたは8点アルゴリズム(コンピュータビジョンにおける古典的方法)を用いることが可能で、N個の画像からデバイスの姿勢を算出できる。以前に再構築されたシーン(当業者には公知のリセクションアルゴリズム)を用いることによってデバイスの姿勢を算出することもできる。姿勢を描写するパラメータも異なっていてもよい(回転行列の代わりに四元数等)。
姿勢のロバスト推定
姿勢の第1の推定は、従来の方法による誤差によって混乱する場合があり、ここで、より正確かつロバストな方法でデバイスの姿勢の推定を行うことを提案する。これを行うためには、当業者は、公知の方法:RANSAC、M−Estimator等を用いる。
キー姿勢の選択
2つの連続した画像間の動きは、エピポーラ幾何学の正確な算出、従って、2つの画像の姿勢の推定を行うのに十分な大きさである必要がある。従って、この方法は、比較的互いに距離があるが、十分な数の共通点を持つ画像を選択する。これを達成するためには、第1の画像I1は、常にキー画像として選択される。選択される第2の画像I2は、映像中の画像I1から可能な限り離して選択されるが、それは、I1に対して少なくともM個の興味対象対応点を有していなければならない画像である。次に、I3に関しては、I3およびI2間で対応する少なくともM個の興味対象点が存在し、かつI3およびI1間で対応する少なくともM’個の興味対象点が存在するように、I2から最も離れた画像を選択する。このように、カメラの動きを決定するのに十分な共通の興味対象点が画像間に存在する。後に続く画像Inに関して、同様に続行し、画像In−2、In−1、およびInが、同じ3Dプリミティブに対応する少なくともM個の興味対象点を有することを確認する。これらの規則に従う場合、画像Iのみがキー画像Inとなる。キー画像のこの検出方法は異なっていてもよく、ここでは、一例を提案する。
シーンの初期化
シーンの初期化は、シーケンスの開始時に一度だけ行われる。ここでは、それは、初回に環境を再構築するという問題である。これを達成するためには、例えば、最初の3つのキー姿勢を使用し、3つの画像において、それら(興味対象要素)の観測結果から3Dプリミティブを三角測量することができる(3D三角測量法)。この方法により、特に、キー姿勢およびシーン要素(3D)のデータベースの構築が可能となる。
[212、312]キー姿勢のデータベース
システムの最後のN個(2〜全て)の姿勢を含むデータベース(現在のカメラ較正パラメータを有する)を所有する場合を検討する。
[213、313]シーン要素のデータベース
再構築されたシーンの3Dプリミティブのデータベースを各キー画像におけるそれらの対応(二次元観測結果(x,y)−3Dプリミティブの関連性)と共に所有し、これらの対応において、要素(その姿勢(位置および配向)はデータベース[212]によって分かっている)が検出済みである場合を検討する。3Dプリミティブは、例えば、3D点(x,y,z)であるが、他の要素(パッチ、セグメント等)でもよい。
[209、309]拡張姿勢精度向上
「姿勢精度向上」および「拡張姿勢精度向上」モジュールは、コンピュータビジョンの領域において非常によく知られたアルゴリズム:バンドル調整に基づく。より正確には、この部分において、本方法は、モジュール[204、304]によって提供された姿勢の第1の推定から開始し、以前に推定されたシーン要素を考慮に入れて、デバイスの現在の姿勢のみを精度向上させる。
モジュール[309]において、コスト関数は、現在その姿勢の精度向上を行っているカメラ上のシーンの3Dプリミティブの再投影誤差のみから成る。モジュール[209]では、モジュール[208]によって提供され、自動重み付け選択モジュール[208、308]において学習された係数ラムダλまたはλによって重み付けされた予測誤差(制約)をコスト項に加える。
精度向上の最後に、システムの現在の姿勢を姿勢のデータベース(履歴)[212、312]に加える。
姿勢精度向上を以下に記載する詳細な方法で行うことができる。
SfMインクリメンタル追跡法では、精度向上は、新しい画像またはキー画像が検出された際に、カメラの位置測定に関して実行される。
従って、センサからの計測結果
Figure 2013534616
(時点tにおける全てのカメラセンサcおよび運動センサkに関する計測結果の完全集合体)を説明するデバイスの現在の姿勢pを取り出すことが可能である。次に、カメラが一体型の運動計測モジュールを組み込んでいる場合に、センサkまたはカメラによって提供される姿勢予測に基づいて選択された制約
Figure 2013534616
と共に視覚標準誤差項
Figure 2013534616
を用いて、コスト総計関数を構築する。第2の項は、本明細書において後に詳述する以前に選択した重み付け係数λを用いて重み付けされる。
次に、一般項MSE(平均二乗誤差)は、公式
Figure 2013534616
(運動または位置センサk、カメラc、時点tに関する)
によって与えられる。
次に、
Figure 2013534616
を解くために、コスト関数E(x,Z)と共に、Levenberg−Marquardtアルゴリズムを用いて現在の姿勢pを最適化する。
「*」は、pの最良値を得ることを意味する。
[210、310]3Dプリミティブの再構築
3Dプリミティブを再構築するためのこのモジュールは、姿勢の精度向上([209、309])の直後に、あるいは、その後しばらくしてから起動される。これは、シーンの3Dプリミティブ(例えば3D点)を、最後のN個の画像(例えば、N=3)において行われたそれらの二次元観測から三角測量することから成る。これを行うためには、コンピュータビジョンの最新のアルゴリズムを利用する。計算の完了時に、2D/3Dデータベースに3Dプリミティブおよびそれらの対応(二次元観測結果−3Dプリミティブの関連性)を加える。
位置/運動センサからのデータの統合による姿勢の推定部。
[205、305]位置/運動センサからのデータの取得
運動および/または位置センサからのデータを非同期的に取り出すことを可能にするシステム(センサおよびドライバリンクに対する処理モジュール)を検討する。運動センサによってデータ項目が生成されると、このデータ項目は、バッファメモリに保存するため、運動および/または位置センサあるいは処理モジュールに配置するために、プログラムによって取り出される。
[206、306]慣性センサに基づいた姿勢予測
要求が予測モジュール(206、306)にアドレッシングされると(ビジョンによる姿勢の推定を行うためのモジュール[204、304]によって)、予測モジュールは、同期が必要とする時点の前に、センサの観測結果を取り出し、それらをバッテリまたはバッファメモリから取り除き、次に、これらの計測結果および運動モデル(任意であるが、本方法では、これを用いるとより正確である)からデバイスまたはシステムの姿勢(またはその一部)を算出する。デバイス(カメラおよび運動センサから成る)が例えばPCである処理手段とは別個のものである場合を考えると、この方法は、PCを組み込んだシステムの姿勢ではなく、デバイスの姿勢を算出する。
予測モデルの仮定
バンドル調整技術は、最適化速度を提供しないので、これらの量は、上流で推定される必要がある、あるいは、第2の運動および/または位置センサによって直接提供される必要がある。センサkの最後の計測結果
Figure 2013534616
に対応する、時点t’≦tにおけるデバイス
Figure 2013534616
の状態の推定を提供する逆観測モデル
Figure 2013534616
の存在も仮定する。従って、デバイスの運動予測モデルを用いると、時間または時点tにおける予測姿勢は以下の通りである:
Figure 2013534616
このモデルは、運動/位置センサによって得られた計測結果
Figure 2013534616
および前の状態xt−1から画像時間Iに対応する時点tにおけるデバイス(例えば、カメラおよび運動および/または位置センサ)の姿勢
Figure 2013534616
を推定する。従って、誤差ベクトル
Figure 2013534616
およびwは、ゼロであると仮定する。
[207、307]制約定義モジュール
このモジュールは、精度向上コスト関数に加える制約の種類(または誤差の種類)を定義する。
システムの第1のバージョン(図3)では、この方法は、モジュール[209]および[214]のコスト関数を変更するが、図4に示す方法の第2のバージョンの実施では、この項が姿勢調整[314]のコスト関数にのみ加えられる。
この項(コスト関数)は、通常、システムまたはデバイスの現在の姿勢(またはその一部)(これの最適化を行う)と、モジュール[206、306]によって予測された姿勢との距離である。誤差の選択は、設計者によって指定されるものであり、運動または位置センサによって提供される観測の種類によって決まる。例えば、3Dジャイロスコープを用いる場合、後者は、角速度Ωの情報を提供する。この情報は、運動モデル(例えば、一定角速度)との組み合わせで、キー画像(これの現在の配向はqである)と同じ時点において、配向qの予測の構築を可能にする。誤差は、例えば、2つの四元数 ||q−q ||間の距離でもよい。
制約の種類は、センサが取得する計測結果の性質によって決まる。例えば、センサに対して幾つかの制約を提案することができる。
位置制約
Figure 2013534616
配向制約:
Figure 2013534616
(Rは、配向をパラメータ化する回転行列であり、Iは、恒等行列である等)
スケール係数制約(または変換基準制約)
Figure 2013534616
各制約は、位置測定システムに対して異なる影響を持ち、対応するドリフトを修正する傾向がある。本発明による方法は一般的なものであるので、ユーザの定義した制約は、バンドル調整技術において最適化される変数を制約する任意の距離項(最小二乗法における)となることが可能である。
[208]重み付けの自動選択:共分散比の推定
[210]新しい3Dプリミティブを選択するためのモジュール
制約構築モジュールによって定義される誤差または制約は、その数例を以下に示す特定の技術によって選択される、我々がラムダλと呼ぶ係数によって重み付けされる必要がある。
この特定の例では、この重み付け係数を算出するための方法を幾つか提案する。これらの方法は、この問題を解くために互いに独立して利用することができる。
これを行うためには、ビジョンに基づく誤差項を用い、かつラムダによって重み付けされた融合項(前の制約)を用いて、一般コスト関数を構築する。次に、異なるラムダセット(例えば、0.1〜100までの範囲の100のラムダの静的セット)に対して、図3のモジュール[209]を数回起動する、または図4のモジュール[314]を数回起動することによって、幾つかの最適化を実行する。
以下に詳述するように、重み付けパラメータであるラムダの選択基準は変化する。Lカーブ法(これは、ある特定の曲線の最大曲率を決定する問題である)を利用する、あるいはクロス確認として知られる方法を利用し、再投影の予測が最も効果的である最良ラムダ値を求める。
基準(L正接ノルム、Reginska等)または学習(クロス確認等など)による他の方法を利用することもできる。
最良ラムダが選択されると、この重み付けを用いて最後の最適化([209]または[314])に進み、この値および制約パラメータの保存を、この目的で設けられたデータベース[211、311]において行う。
当業者に公知の他の方法を実施することも可能であることは分かっているが、重み付けパラメータを決定する2つの方法を例として提供する。
Lカーブ基準による選択方法
Lカーブ基準は、本来、モデルの第1のコスト項およびパラメータ数を共に最小にすることが可能な有効正則化パラメータの推定を求める正則化問題において使用されたものである。
さらに、この方法は、幾つかの目的で、非線形最小二乗の最適化の問題において用いられたものであり、この場合、これは、各コスト項の重み付け係数ラムダを推定することによって異なる目的間で妥協点を見つけ出し、それによって、1組の目的の最良の最小化を求めるという問題であった。
従って、Lカーブ基準は、対数−対数スケールで、2つのコスト項間の妥協点を表す。
この基準は、通常、L字形状を有し、垂直部分から水平部分を分離する「角」は、最小化される2つのコスト項(目的)の一方の優勢に対応する。Lカーブ基準の曲率k(l)により、求められる角を見つけ出すことが可能となる:
Figure 2013534616
式中、「’」および「"」は、ラムダとの関連で第1および第2の導関数を表す。「良好な」重み付けパラメータラムダは、基準の角付近に位置し、そこでは、曲率kが最大値である。そこから、
Figure 2013534616
を求める。
Lカーブを推定するためには、インデックスcを有するカメラおよびインデックスkを有するセンサに関する数ペアの制約を算出する必要がある(異なるラムダ値に関して最小化される2つの目的(ε、ε)を表す)。これは、ラムダの各値に関して、デバイスの最後の姿勢を最適化する[209]、またはシーンの一部を用いて最後のN個の姿勢を最適化する[314]ことを意味する。次に、上記ペアを用いてLカーブを構築し、最大曲率(k max)に位置する最良ラムダを推定する。
学習による選択方法
クロス確認
クロス確認法は、統計的考察に基づいた非常に良く知られた手段である:
適切なモデル(ここでは、重み付け係数ラムダ)は、どのような欠測データも正確に予測することができるべきである。より正確には、データセットから2〜3個の計測結果を除去した場合、推定された解(学習フェーズ:モジュール[209または314])は、これらの観測結果を(テストフェーズ中に)予測できるべきである。
クロス確認には幾つかの異なる型が存在し、これらは、主に、それらのテストおよび学習セットの扱いが異なる。現在のケースの場合、限られた数のカメラの観測結果により、「1つ除外する」("leave one out")という表現でよく知られる観測結果を再利用する方法の使用が生じるが、全く同様に、別の異なる型を用いることが可能である。
クロス確認スコアCvloo(l)は、ある特定の重み付けパラメータラムダに関する予測の質を反映する。これは、3D点jの実観測yjと、予測
Figure 2013534616
(式中、姿勢
Figure 2013534616
は、点jを用いずに最適化される)との平均差を表す。
Figure 2013534616
Figure 2013534616
は、点jを用いないモジュール[209または314]の解である。クロス確認の目的は、ラムダに関してモジュール[209または314]によって行われる予測の質を最大限に高めることであり、それによって、予測誤差を最小限に抑えることである。
Figure 2013534616
[211、311]重み付き制約のデータベース
各重み付き制約は、キー画像の選択ステップが実施されない場合には画像ごとに、あるいは、キー画像ごとにデバイスの姿勢p と関連付けられ、その後、データベース211、311に保存される。この制約(重み付けを有する)は、デバイスの関連姿勢が調整モジュール[214、314]において精度向上されるたびに再使用される。制約要素をデータベース211、311に保存する:重み付けλおよびデバイスの姿勢の予測
Figure 2013534616
であって、例えば
Figure 2013534616
(Tは、表記に指定されるようにpの一部である)の制約全体ではない。
[214、314]拡張バンドル調整
バンドル調整は、特定数のデバイスの姿勢(データベース[212、312]から取り出された全てまたは一部)を、(データベース[213、313]に保存された)特定数のシーン3Dプリミティブ(例えば、現在最適化を行っている姿勢が見る全てのプリミティブ)と共に同時に最適化することから成る。
最小化される一般コスト関数は、一方では、ビジョンを用いて形成され(画像のシーン要素の再投影と、画像において取得されたそれらの実際の計測結果との距離)、他方では、システムの異なるキー姿勢に関連する全ての重み付き制約(データベース[211、311])によって形成される。
この最適化問題を解くためには、Levenberg−Marquardt法と呼ばれる最適化アルゴリズムを起動する。当業者に公知の他のアルゴリズム(条件付け有りまたは無しの勾配降下法、Gauss−Newton法等)を用いることもできる。
この方法は、通常、最後の3つのキーカメラまたはカメラの最後の3つの姿勢のみを最適化する(ただし、この数は変化し得る)。
局所的バンドル調整(LBA)
インクリメンタルSLAMの累積誤差を低減するために、シーンおよびシステムの位置測定に対して周期的に精度向上を行う。局所的最適化によって(すなわち、最後の姿勢のみを精度向上させることによって)良い結果が得られる。
従って、例えば、少なくとも最後の2つの姿勢(可能であればキー姿勢)の姿勢を最適化することが可能である。簡単な手順方法は、前の制約をLBAコスト関数に投入することである。X=[pt−9・・・・・・・ps’]を定義し、ベクトルは、固定姿勢(pt−9,・・・・pt−3)、精度向上を望むカメラの姿勢(pt−2,pt−1,p)、および例えば最後のN個の姿勢に見られる3D点のセットである、シーンsの一部s’の現在の推定を含む。
例えば、N=3、M=9とする。
この考えは、姿勢を最適化することであり、すなわち、カメラおよびデバイスの位置および配向を最適化することである。
制約を有するバンドル調整コスト関数は、
Figure 2013534616
となる。
この方程式の第1の要素は、例えば、a=3、b=9、d=2で姿勢が固定されたカメラの再投影の合計に相当する。
方程式の第1の部分は、姿勢が精度向上されていない(従って、固定された)カメラの再投影誤差に相当する。
この場合、全ての姿勢を制約する必要はなく、オリジナルの再投影の誤差のみを考慮に入れる。
方程式の第2の部分は、カメラのN個の最新の姿勢に対する再投影誤差および制約から成る。
次に、この方法は、
Figure 2013534616
を解くためにLevenberg−Marquardtアルゴリズムを用いて、システム(カメラの最後のN個)の位置測定およびシーンの一部を最適化する。
従って、本発明による方法およびシステムにより、データ間で効率的、自動的、かつリアルタイムの融合を達成することが可能となる。
バンドル調整から直接的に融合を統合する能力を引き出すこのような融合は、リアルタイムでの重み付け項の最適化推定が行えない先行技術の方法では不可能であった。これは、バンドル調整法の範囲内で、データの直接的統合による正確かつ迅速な融合を提供し、実際、拡張カルマンフィルタを用いた方法と比較して、より高い精度を提供する。
この技術によれば、計測の最初の共分散を推定する、あるいは、システム状態に共分散を伝える必要はなく、その理由は、本発明による方法は、自動的に自身を適応させるからである(重み付けパラメータラムダのリアルタイムでの推定)。
重み付け係数の推定は、動的かつリアルタイムである。これは、新しい最適化ごとに計算され、これにより、前の状態の履歴を用いた、より完全な最適化方法、すなわち、先行技術によるカルマンフィルタを用いた方法とは異なり、デバイスの最後のN個の姿勢の精度向上を行う方法が提供される。

Claims (8)

  1. 第1の画像センサから、および運動および/または位置計測モジュールから生じたデータを融合するための方法において、前記第1のセンサおよび前記運動および/または位置計測モジュールは一体型で、デバイスを形成し、前記方法は、前記デバイスの位置測定を行うために、処理モジュールによって実行され、少なくとも以下のステップ:
    特定の時点tに関して、前記デバイス、画像カメラ、および運動および/または位置計測モジュールの現在の姿勢
    Figure 2013534616
    の定義を行うために、画像上の幾つかの点を取得することから成る第1のステップと、
    前記同じ特定の時点tに関して、前記運動および/または位置計測モジュールからの計測結果を用いた、前記デバイス(カメラおよび運動/位置センサ)の予測姿勢
    Figure 2013534616
    の予測ステップと、
    前記デバイス(カメラcおよびセンサk)の前記センサkに関する関連の制約εを決定するステップと、
    前記制約の重み付け係数λを自動的に決定するステップと、
    前記デバイスの現在の姿勢pの推定ステップと、
    以下のコスト関数:
    Figure 2013534616
    であるコスト関数を用いたバンドル調整技術によって、前記デバイスのカメラおよびセンサの姿勢の同時最適化ステップと、
    を含むことを特徴とする方法。
  2. 請求項1に記載の方法において、所定数の第1の姿勢を用いて前記画像センサの環境を再構築し、3Dプリミティブの三角測量を選択された姿勢に関してそれらを構築する興味対象要素から実行することにより、キー姿勢およびシーン要素(3D)のデータベースを初期化するステップを含むことを特徴とする方法。
  3. 請求項1に記載の方法において、前記重み付け係数の前記自動選択ステップは、前記デバイスの姿勢の精度向上ステップの結果を使用し、ビジョンによる姿勢の推定を行うためのモジュールによって提供された前記デバイスの姿勢の第1の推定[204、304]から開始され、以前に推定されたシーン要素を考慮に入れ[209]、において重み付けの自動選択モジュールによって提供され[208]、前記重み付けの自動選択モジュールにおいて学習された係数ラムダλまたはλによって重み付けされた[208、308]予測誤差(制約)をコスト項に加えることによって行われ、
    前記精度向上ステップの最後に、システムの現在の姿勢を姿勢のデータベース[212]に加えることを特徴とする方法。
  4. 請求項1に記載の方法において、前記重み付けの自動選択ステップは、前記デバイスの姿勢の精度向上ステップ[309]を含み、モジュール[309]において、前記コスト関数は、前記カメラ上のシーンの3Dプリミティブの再投影誤差のみから成り、前記カメラの姿勢は、現在精度向上が行われており、次に、前記制約の構築ステップが続き、その後、前記重み付けの自動選択ステップが続き、
    前記精度向上ステップの最後に、システムの現在の姿勢を姿勢のデータベース(履歴)[312]に加えることを特徴とする方法。
  5. 請求項1に記載の方法において、以下のステップ:第1の画像I1をキー画像として選択するステップと、次に、映像中でI1から可能な限り離れて、かつI1に対して少なくともM個の興味対象対応点を有して第2の画像I2を選択するステップと、次に、I3およびI2間で対応する少なくともM個の興味対象点が存在し、かつI3およびI1間で対応する少なくともM’個の興味対象点が存在するように、I2から最も離れた第3の画像I3を選択するステップと、後に続く画像Inに関して同様のステップとを含むキー画像の選択ステップを含み、同様に続けることで、画像In−2、In−1、およびInが、同じ3Dプリミティブに対応する少なくともM個の興味対象点を有することを確認することを特徴とする方法。
  6. 請求項1に記載の方法において、前記制約は、以下の制約リスト:
    位置制約
    Figure 2013534616
    配向制約
    Figure 2013534616
    式中、Rは、配向をパラメータ化する回転行列であり、Iは、恒等行列であり、スケール係数制約(または変換基準制約)
    Figure 2013534616
    から選択されることを特徴とする方法。
  7. 請求項1に記載の方法において、前記デバイスの姿勢
    Figure 2013534616
    を予測するために、前記センサkの最後の計測結果
    Figure 2013534616
    に対応する、時点t’≦tにおける前記デバイスの状態
    Figure 2013534616
    の推定を提供する逆観測モデル
    Figure 2013534616
    を用い、
    Figure 2013534616
    このモデルは、前記運動/位置センサによって得られた計測結果
    Figure 2013534616
    および前の状態xt−1から画像時間Iに対応する時点tにおける前記デバイスの姿勢
    Figure 2013534616
    を推定することを特徴とする方法。
  8. 第1の画像センサ(101)から、および運動および/または位置計測モジュールから生じたデータを融合するためのシステムであって、前記第1のセンサおよび前記運動および/または位置計測モジュール(102)は一体型で、デバイスを形成し、前記システムは、請求項1から7のいずれか一項に記載の方法の前記ステップを実行するのに適した処理装置(103)を含むシステム。
JP2013510540A 2010-05-17 2011-04-19 画像センサおよび運動または位置センサから生じたデータを融合するための方法およびシステム Expired - Fee Related JP5987823B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1053803A FR2960082B1 (fr) 2010-05-17 2010-05-17 Procede et systeme pour fusionner des donnees issues de capteurs d'images et de capteurs de mouvement ou de position
FR1053803 2010-05-17
PCT/EP2011/056241 WO2011144408A1 (fr) 2010-05-17 2011-04-19 Procede et systeme pour fusionner des donnees issues de capteurs d'images et de capteurs de mouvement ou de position

Publications (2)

Publication Number Publication Date
JP2013534616A true JP2013534616A (ja) 2013-09-05
JP5987823B2 JP5987823B2 (ja) 2016-09-07

Family

ID=43242616

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013510540A Expired - Fee Related JP5987823B2 (ja) 2010-05-17 2011-04-19 画像センサおよび運動または位置センサから生じたデータを融合するための方法およびシステム

Country Status (5)

Country Link
US (1) US9071829B2 (ja)
EP (1) EP2572319B1 (ja)
JP (1) JP5987823B2 (ja)
FR (1) FR2960082B1 (ja)
WO (1) WO2011144408A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015508197A (ja) * 2012-01-26 2015-03-16 クゥアルコム・インコーポレイテッドQualcomm Incorporated モーションセンサーデータに基づく3dモデルを計算するように構成されたモバイルデバイス
JP2016502712A (ja) * 2012-11-02 2016-01-28 クアルコム,インコーポレイテッド 単眼視覚slamのための高速初期化
JP2018512593A (ja) * 2015-04-10 2018-05-17 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh 車両の移動データを使用した車載カメラによる物体位置測定
JP2020113159A (ja) * 2019-01-16 2020-07-27 Kddi株式会社 情報端末装置及びプログラム

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2976107B1 (fr) * 2011-05-30 2014-01-03 Commissariat Energie Atomique Procede de localisation d'une camera et de reconstruction 3d dans un environnement partiellement connu
US9111351B2 (en) * 2011-12-15 2015-08-18 Sony Corporation Minimizing drift using depth camera images
KR101356192B1 (ko) * 2012-04-26 2014-01-24 서울시립대학교 산학협력단 영상매칭 기반의 스마트폰의 위치자세 결정 방법 및 시스템
US9159133B2 (en) * 2012-11-05 2015-10-13 Qualcomm Incorporated Adaptive scale and/or gravity estimation
JP6202559B2 (ja) * 2013-07-26 2017-09-27 積水化学工業株式会社 埋設管路の計測装置、及び、埋設管路の計測方法
ES2763912T3 (es) * 2013-08-20 2020-06-01 Curefab Tech Gmbh Seguimiento óptico
WO2015134795A2 (en) 2014-03-05 2015-09-11 Smart Picture Technologies, Inc. Method and system for 3d capture based on structure from motion with pose detection tool
US20160077166A1 (en) * 2014-09-12 2016-03-17 InvenSense, Incorporated Systems and methods for orientation prediction
US20160260250A1 (en) * 2015-03-05 2016-09-08 Dejan Jovanovic Method and system for 3d capture based on structure from motion with pose detection tool
US10083522B2 (en) 2015-06-19 2018-09-25 Smart Picture Technologies, Inc. Image based measurement system
CN104966123A (zh) * 2015-07-16 2015-10-07 北京工业大学 基于模糊-自适应的slam数据关联方法
US10360718B2 (en) * 2015-08-14 2019-07-23 Samsung Electronics Co., Ltd. Method and apparatus for constructing three dimensional model of object
US10546385B2 (en) * 2016-02-25 2020-01-28 Technion Research & Development Foundation Limited System and method for image capture device pose estimation
US10616552B2 (en) * 2016-03-25 2020-04-07 Intel Corporation Multi-modal real-time camera localization and environment mapping
JP6702543B2 (ja) * 2016-05-31 2020-06-03 株式会社東芝 情報処理装置、方法およびプログラム
US10593065B2 (en) * 2016-07-27 2020-03-17 Htc Corporation Method and device for camera pose estimation
KR102462502B1 (ko) 2016-08-16 2022-11-02 삼성전자주식회사 스테레오 카메라 기반의 자율 주행 방법 및 그 장치
AU2017344762A1 (en) * 2016-10-20 2019-05-30 Spookfish Innovations Pty Ltd A bundle adjustment system
WO2019032736A1 (en) 2017-08-08 2019-02-14 Smart Picture Technologies, Inc. METHOD OF MEASURING AND MODELING SPACES USING AUGMENTED REALITY WITHOUT MARKER
US11087453B2 (en) * 2018-06-11 2021-08-10 Dynatek Labs, Inc. Automated failure detection for medical device testing systems and methods
CN109297496A (zh) * 2018-09-29 2019-02-01 上海新世纪机器人有限公司 基于slam的机器人定位方法及装置
WO2020197528A1 (en) * 2019-03-22 2020-10-01 Hewlett-Packard Development Company L.P. 3d imaging
US10955245B2 (en) * 2019-04-30 2021-03-23 Samsung Electronics Co., Ltd. System and method for low latency, high performance pose fusion
WO2020231872A1 (en) 2019-05-10 2020-11-19 Smart Picture Technologies, Inc. Methods and systems for measuring and modeling spaces using markerless photo-based augmented reality process
WO2020247938A1 (en) 2019-06-07 2020-12-10 Pictometry International Corp. Using spatial filter to reduce bundle adjustment block size
CN113190564A (zh) * 2020-01-14 2021-07-30 阿里巴巴集团控股有限公司 地图更新系统、方法及设备
WO2022036284A1 (en) * 2020-08-13 2022-02-17 Invensense, Inc. Method and system for positioning using optical sensor and motion sensors
CN112017229B (zh) * 2020-09-06 2023-06-27 桂林电子科技大学 一种相机相对位姿求解方法
CN112197770B (zh) * 2020-12-02 2021-03-12 北京欣奕华数字科技有限公司 一种机器人的定位方法及其定位装置
WO2022120698A1 (en) * 2020-12-10 2022-06-16 Intel Corporation Method and system of image processing with increased subjective quality 3d reconstruction

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003281504A (ja) * 2002-03-22 2003-10-03 Canon Inc 撮像部位置姿勢推定装置及びその制御方法並びに複合現実感提示システム
JP2005033319A (ja) * 2003-07-08 2005-02-03 Canon Inc 位置姿勢計測方法及び装置
JP2006215924A (ja) * 2005-02-04 2006-08-17 Canon Inc 位置姿勢計測方法及び装置
JP2008089314A (ja) * 2006-09-29 2008-04-17 Topcon Corp 位置測定装置及びその方法
JP2010014450A (ja) * 2008-07-01 2010-01-21 Topcon Corp 位置測定方法、位置測定装置、およびプログラム
JP2010014443A (ja) * 2008-07-01 2010-01-21 Topcon Corp 位置測定方法、位置測定装置、およびプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004081868A2 (en) * 2003-03-11 2004-09-23 Sarnoff Corporation Method and apparatus for determining camera pose from point correspondences

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003281504A (ja) * 2002-03-22 2003-10-03 Canon Inc 撮像部位置姿勢推定装置及びその制御方法並びに複合現実感提示システム
JP2005033319A (ja) * 2003-07-08 2005-02-03 Canon Inc 位置姿勢計測方法及び装置
JP2006215924A (ja) * 2005-02-04 2006-08-17 Canon Inc 位置姿勢計測方法及び装置
JP2008089314A (ja) * 2006-09-29 2008-04-17 Topcon Corp 位置測定装置及びその方法
JP2010014450A (ja) * 2008-07-01 2010-01-21 Topcon Corp 位置測定方法、位置測定装置、およびプログラム
JP2010014443A (ja) * 2008-07-01 2010-01-21 Topcon Corp 位置測定方法、位置測定装置、およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ALEXANDRE EUDES ET AL: "Error Propagations for Local Bundle Adjustment", COMPUTER VISION AND PATTERN RECOGNITION, 2009. CVPR 2009. IEEE CONFERENCE ON, JPN6016012421, 20 June 2009 (2009-06-20), US, pages 2411 - 2418, ISSN: 0003290866 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015508197A (ja) * 2012-01-26 2015-03-16 クゥアルコム・インコーポレイテッドQualcomm Incorporated モーションセンサーデータに基づく3dモデルを計算するように構成されたモバイルデバイス
US9639959B2 (en) 2012-01-26 2017-05-02 Qualcomm Incorporated Mobile device configured to compute 3D models based on motion sensor data
JP2016502712A (ja) * 2012-11-02 2016-01-28 クアルコム,インコーポレイテッド 単眼視覚slamのための高速初期化
JP2018512593A (ja) * 2015-04-10 2018-05-17 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh 車両の移動データを使用した車載カメラによる物体位置測定
US10423164B2 (en) 2015-04-10 2019-09-24 Robert Bosch Gmbh Object position measurement with automotive camera using vehicle motion data
JP2020113159A (ja) * 2019-01-16 2020-07-27 Kddi株式会社 情報端末装置及びプログラム
JP7074694B2 (ja) 2019-01-16 2022-05-24 Kddi株式会社 情報端末装置及びプログラム

Also Published As

Publication number Publication date
JP5987823B2 (ja) 2016-09-07
EP2572319A1 (fr) 2013-03-27
FR2960082B1 (fr) 2012-08-10
US20130162785A1 (en) 2013-06-27
WO2011144408A1 (fr) 2011-11-24
FR2960082A1 (fr) 2011-11-18
US9071829B2 (en) 2015-06-30
EP2572319B1 (fr) 2017-12-20

Similar Documents

Publication Publication Date Title
JP5987823B2 (ja) 画像センサおよび運動または位置センサから生じたデータを融合するための方法およびシステム
CN109084732B (zh) 定位与导航方法、装置及处理设备
CN109307508B (zh) 一种基于多关键帧的全景惯导slam方法
JP7131994B2 (ja) 自己位置推定装置、自己位置推定方法、自己位置推定プログラム、学習装置、学習方法及び学習プログラム
Panahandeh et al. Vision-aided inertial navigation based on ground plane feature detection
US10247556B2 (en) Method for processing feature measurements in vision-aided inertial navigation
JP6534664B2 (ja) カメラ動き予測及び修正のための方法
KR101776621B1 (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
CN112219087A (zh) 位姿预测方法、地图构建方法、可移动平台及存储介质
JP5444952B2 (ja) センサフュージョンによる地図の自動生成、およびそのように自動生成された地図を用いて移動体の移動をするための、装置、方法、ならびにプログラム
US20130116823A1 (en) Mobile apparatus and walking robot
US20220051031A1 (en) Moving object tracking method and apparatus
CN110260861B (zh) 位姿确定方法及装置、里程计
WO2022193508A1 (zh) 位姿优化方法、装置、电子设备、计算机可读存储介质、计算机程序及程序产品
CN112444246B (zh) 高精度的数字孪生场景中的激光融合定位方法
CN109141411B (zh) 定位方法、定位装置、移动机器人及存储介质
CN114111776B (zh) 定位方法及相关装置
JP7114686B2 (ja) 拡張現実装置及び位置決め方法
WO2023050634A1 (zh) 定位方法及装置、设备、存储介质及计算机程序产品
CN114429432B (zh) 一种多源信息分层融合方法、装置及存储介质
CN116721166B (zh) 双目相机和imu旋转外参在线标定方法、装置及存储介质
CN113379850B (zh) 移动机器人控制方法、装置、移动机器人及存储介质
CN113034538B (zh) 一种视觉惯导设备的位姿跟踪方法、装置及视觉惯导设备
CN113670327A (zh) 视觉惯性里程计初始化方法、装置、设备和存储介质
KR102084756B1 (ko) Slam 공간 지도의 완성도 판단 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130523

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140530

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160414

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160725

R150 Certificate of patent or registration of utility model

Ref document number: 5987823

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees