JP2014032666A - 周囲状況に対するカメラの姿勢を求めるための方法 - Google Patents

周囲状況に対するカメラの姿勢を求めるための方法 Download PDF

Info

Publication number
JP2014032666A
JP2014032666A JP2013151282A JP2013151282A JP2014032666A JP 2014032666 A JP2014032666 A JP 2014032666A JP 2013151282 A JP2013151282 A JP 2013151282A JP 2013151282 A JP2013151282 A JP 2013151282A JP 2014032666 A JP2014032666 A JP 2014032666A
Authority
JP
Japan
Prior art keywords
camera
point
coordinate system
motion
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013151282A
Other languages
English (en)
Other versions
JP5991952B2 (ja
JP2014032666A5 (ja
Inventor
Ramalingam Srikumar
スリクマール・ラマリンガム
Yuichi Taguchi
裕一 田口
Menglong Zhu
メンロン・ズ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JP2014032666A publication Critical patent/JP2014032666A/ja
Publication of JP2014032666A5 publication Critical patent/JP2014032666A5/ja
Application granted granted Critical
Publication of JP5991952B2 publication Critical patent/JP5991952B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】車両に搭載された単眼カメラによって取得された単眼ビデオシーケンスからの周囲状況の相対動き予測及び高密度3D再構成のためのシステム及び方法を提供する。
【解決手段】初期画像のセットから点対応を求め、次いで、2点動き予測をそれらの点対応に適用してカメラ102の初期姿勢のセットを求めることによって、周囲状況に対する可動カメラの姿勢が得られる。初期姿勢のセット及び点対応から点群が生成される。その後、次の各画像について、点対応及び対応する姿勢が求められるとともに、点群が更新される。
【選択図】図1

Description

本発明は、包括的には、コンピュータービジョンを動き予測に用いることに関し、より詳細には、動き予測を車載カメラの姿勢を求めることに用いて車両の近くの障害物を検出することに関する。
車両に搭載されたカメラによって車両の周囲状況、例えば道路又は車庫から取得されたビデオから車両又はロボット等の物体の正確な動きを予測することは、車両ナビゲーション及びロボットナビゲーションにおいて重要な課題である。ほとんどの従来の方法は、カメラモデル(単眼若しくはステレオ)又は動きモデル(平面若しくは非平面)のいずれかを用いる。周囲状況に対する車両の相対的な動きを画像のシーケンスから求めるために、ランダムサンプルコンセンサス(RANSAC:random sample consensus)等の仮説検定の枠組みにおける最小数の特徴対応が、アウトライアー(outliers)が存在する状態で正確な結果を生成する。
車載カメラを用いたビデオシーケンスからの高密度深度予測は、特に車庫、荷物積み下ろし場(loading docks)、ドライブウェイ、駐車場等の狭い周囲状況、及び一般的には道路等において、車両がバックしているときに、動いている車両の近くの人々及び障害物を検出する等の安全の用途に極めて有用であり得る。
最小解決策(minimal solutions)
RANSACの枠組みを用いた、よく知られたNisterの5点法は、アウトライアーの存在する状態での動き予測のための好ましい方法である。2つのカメラ間の相対的な動きの場合、動きパラメーターには、6つの自由度(DOF:degrees of freedom)、すなわち、回転の3つのDOF及び並進の3つのDOFがある。単一の投影中心を有する従来のカメラの場合、5つのパラメーターしか求めることができない。すなわち、並進は、スケールを除いて(up to a scale)しか求めることができない。したがって、最低5つの特徴対応が、動きパラメーターを求めるのに必要とされる。
特徴対応は、例えば、ハリスコーナー(Harris corners)、カナデルーカストマシトラッカー(KLT:Kanade−Lucas−Tomasi tracker)、及びスケール不変特徴変換(SIFT:scale−invariant feature transform)を用いて得ることができる。通例、最小手法(minimal approaches)によって、動きの有限個の解が得られ、正しい動きは、物理的制約又は追加の点対応に基づいて選択される。
幾つかの較正問題及び3D再構成問題のための最小解決策が知られている。すなわち、半径歪(radial distortion)の自動較正、透視型3点問題(perspective three point problem)、5点相対姿勢問題(five point relative pose problem)、6点焦点距離問題、6点一般化カメラ問題、パラ反射屈折(para−catadioptric)基礎行列を予測するための9点問題、9点動径歪問題、6つの対応を用いた点対平面位置合わせ(point−to−plane registration)、点又は線のいずれかを用いたステレオセットアップのための姿勢予測、並びに点及び線の双方を用いた単眼セットアップのための姿勢予測のための最小解決策が知られている。
制限付き動きモデル(restricted motion models)
カメラの相対的な動きは、通例、関連した用途による制約を受ける。例えば、車両に搭載されたカメラは、一般に、6つの全てのDOFを有しているとは限らない。走行面が平面である場合、カメラは、3つのDOF(並進の2つのDOF及び回転の1つのDOF)しか受けることができない。
Scaramuzza他は、ある特定の部類の車両、自転車、及びロボットに対して1つのパラメーターのみを用いて動きをパラメーター化することができることを示した。したがって、1点法(one−point method)を用いることができる。基礎を成すアイデアは、瞬間回転中心(ICR:instantaneous center of rotation)が存在し、車両がICRの周囲の円形のコースに従うということである。
慣性測定ユニット(IMU:inertial measurement unit)が利用可能であるとき、重力ベクトルを用いて2つの測定角度を得ることができる。残りの未知数は、3つのパラメーター(回転の1つのDOF及び並進の2つのDOF)であり、これらは、4次式を用いた3点動き予測方法によって解くことができる。この動き予測方法は、携帯電話等のハンドヘルドデジタル装置内のカメラに有用であり得る。
別の方法は、2点動き予測方法を平面動きシーケンスに用いるものである。室内ロボットに搭載されたカメラが平面上を動くときにそのロボットの自己動き予測(ego−motion estimation)に適用可能である。自由度の数は3(回転の1つのDOF及び並進の2つのDOF)である。しかしながら、相対的な動きはスケールを除いてしか回復することができない。RANSACの枠組みでは、必要な反復数は、通例、動きを求めるのに必要な点の数が減少すると少なくなる。式の複雑度を所与として、その方法は、ニュートンラフソン(Newton−Raphson)アルゴリズムを用いて解を反復的に求める。このアルゴリズムは、時間を消費し、実時間の用途には適していない。
同時の位置特定及びマッピング(SLAM:simultaneous localization and mapping)
SLAMは、動きモデルを用いて、カメラの軌道を滑らかにし、3D周囲状況再構成のための特徴対応のための探索エリアを抑える。SLAMは、慣性測定値を視覚的特徴の観察結果と融合するための方法である。現在のカメラ姿勢に加えて視覚的ランドマークの3D位置も同時に予測される。SLAMに基づく方法は、カメラの姿勢と観察された特徴の3D位置との間に存在する相関を考慮する。
しかしながら、SLAMに基づく方法は、相関を適切に取り扱うことが計算的に複雑であることから、高い計算複雑度を欠点として有し、したがって、数千個の特徴を有する周囲状況においてビジョンに基づくSLAMを実行することは、実時間の用途には問題となる。
多くの可動物体、例えば、車両、自転車、ロボット、及び人々が、カメラを装備することができる。本発明の実施の形態は、物体に搭載された単一のカメラによって取得されたその物体の周囲状況の画像のシーケンスからその物体の相対的な動きを予測するための方法を提供する。この場合、動き予測は、車両の安全な動作及び移動を妨害するおそれがある周囲状況内の障害物を検出するのに用いることができる。カメラは物体に固定されているので、物体の動きは、カメラの姿勢から求めることができる。
姿勢は、本明細書において一般的に定義すると、3Dロケーション及び3D方位を含む。各姿勢の並進ロケーション及び角度方位は、最大で3つの自由度(DOF)を有することができる。
非ホロノーム制約及び平面性の下でのこの動き予測方法の性能は、ロボット工学及びコンピュータービジョンでよく知られている。従来技術の方法は、通常、動きモデルに関して最も少ない数の点対応を用いる。そのような最小の方法は、RANSAC等の仮説検定の枠組みにおいて用いられる場合に効率的であり、アウトライアーに対応することが知られている。
本発明の実施の形態は、同一平面性制約及び正規直交性制約を条件とした単一の2次(2次多項式)式を用いて平面2点動き予測(planar 2−point motion estimation)を解析的に解く。すなわち、この方法は、ニュートンラフソン反復アルゴリズムを用いる従来技術の方法と異なり非反復的である。非反復的方法は、より効率的であり、極小値問題の難点がなく、実時間で実行することができ、これは、車両の安全の用途に必須である。
従来技術の2点動き予測は、視覚的に正確な車両軌道を2Dで生成するが、この動きは、多くの走行面の非平面性に起因して高密度3D再構成を実行できるほど十分精密ではない。
したがって、実施の形態は、2点相対動き方法を初期画像のセットに用い、これに続いて、後続の次の各画像について3点2D/3D(2D−to−3D)カメラ姿勢予測を用いる。
このハイブリッド手法を用いると、障害物検出の用途のための高密度深度マップを生成する平面掃引手順(plane−sweeping procedure)のための正確な動き予測値を生成することができる。
本発明の実施の形態は、(動いている)車両に搭載された単眼カメラによって取得された単眼ビデオシーケンスからの周囲状況の相対動き予測及び高密度3D再構成のためのシステム及び方法を提供する。
平面2点相対動き予測方法のための非反復的な解決策が提供される。この方法は、動き予測とともに平面掃引方法を用いて、ほとんどの従来の画像に基づく方法が提供する疎な点群とは対照的に、周囲状況の高密度深度マップのシーケンスを求める。さらに、車両ナビゲーション装置の組み込みプロセッサ又はGPU(graphic proceesing unit)において実施することができる簡単な非反復的技法が用いられる。
車載カメラからのビデオシーケンスによる深度マップ再構成は、障害物検出等の車両の安全の用途に極めて有用である。
超音波センサー、レーザースキャナー、短距離レーダー網、又はステレオカメラ等の他のセンサーと比較して、本発明者らの単一のカメラに基づく解決策ははるかに安価である。
単一のカメラは、障害物検出のための正確な(高密度)深度マップを得るのに十分である。カメラの正確な動きパラメーターを用いて、深度マップが求められる。動きに基づくステレオ解析に2つの画像しか用いないのではなく、平面掃引プロセスを用いて深度マップが再構成するのに、例えば20個〜30個の画像のセットが用いられる。平面掃引は、GPUにおいて実施することもでき、実時間で実行することができる。
この方法は、同一平面性制約及び正規直交性制約を条件とする単一の2次式を用いて平面2点動き予測を解く。解は、式を簡略化する座標変換手法によって得ることができる。
多くの従来技術の手法は、ニュートンラフソンの方法等の多くの時間を要する反復的技法を用いる。本発明者らの非反復的方法は、より効率的であり、極小値問題の難点がない。
2点動き予測は、視覚的に正確な車両軌道を生成するが、動きは、道路、車庫の床面、ドライブウェイ等の非平面性に起因して高密度3D再構成を実行できるほど十分精密ではない。したがって、初期画像のセットには2点動き方法が用いられ、次いで、後続の次の画像には3点2D/3D姿勢予測が用いられる。このハイブリッド手法を用いると、障害物検出の用途ための高密度深度マップを生成する平面掃引方法のための正確な動き予測値が生成される。
本発明の実施形態による、カメラを有する車両、及び地表面と同一平面にある動き予測された位置の概略図である。 本発明の実施形態による、2点動き予測のための座標変換の概略図である。 本発明の実施形態による、車載カメラの姿勢を求めるための方法の流れ図である。 本発明の実施形態による、高密度深度マップを求めるための平面掃引手順の流れ図である。
本発明の実施形態は、物体に搭載されたカメラによって可動物体の周囲状況103から取得されたビデオにおける画像のシーケンスからカメラの姿勢を求めるための方法を提供する。この物体は、乗用車、トラック、自転車、地上を滑走している飛行機、ロボット、人等とすることができる。カメラは、物体に対して固定した関係にあるので、物体の姿勢、物体の動き、及び物体の近くの潜在的な障害物を求めるのにカメラの姿勢を用いることができる。
姿勢は、本明細書において一般的に定義すると、カメラのロケーション及び方位を含む。並進ロケーションT及び角度方位Rはそれぞれ、最大で3つの自由度を有することができる。
動き予測
図1は、車両101の平面的な動きの2点動き予測を示している。車両の動きは、地表面111と実質的に同一平面上にある。カメラ102は、地表面に平行な平面112上を座標系C、C、C、Cに沿って動く。この図は、2つの座標系C及びCのそれぞれにおけるカメラからの2つの3D点P及びPの投影光線を示している。
座標系変換
カメラ座標系、周囲状況用の世界座標系、及び中間座標系が用いられる。較正及び最初の使用の際、世界座標系は、初期カメラ座標系に変換される。例えば、図1において、座標系Cは、変換後の世界座標系に対応する。その後、後続の座標系C→C→Cは、カメラの動きを明らかにしている。
図2は、本発明の実施形態による2点動き予測方法の座標変換技法の背後にある全般的なアイデアを示している。本発明者らの目標は、動き(R,T)、すなわち、カメラ座標系CとCとの間の姿勢を求めることである。Cは、世界座標系から変換したものであることに留意されたい。座標系C及びCは、2つの中間座標系C’及びC’にそれぞれ変換される。C’とC’との間の動き(R,T)が求められる。
方法
オフライン前処理
図3は、本発明の実施形態による姿勢を求めるための概略の方法を示している。
動作可能な配備を行う前に、以下で詳細に説明するように、カメラを較正することができ(321)、地表面を予測することができる(322)。これは、1回のオフライン前処理320の間に実行することができる。ステップ321及び322は、カメラパラメーター及び地表面パラメーター325を生成する。これによって、世界座標系の初期カメラ座標系への変換が可能になる。
実時間処理
動作中、例えば車両101に搭載されたカメラ102は、当該車両の周囲状況の画像310のシーケンスを取得する。例えば、車両は、道路を走行しており、潜在的な障害物を検出することが所望されている。通常、カメラは、一般に、地表面に向けられている。画像のシーケンスは、初期画像I(i=1,...,m)311及び次の画像I(i=m+1,...,n)312のセットを含む。初期画像のセットは、例えば、20個の画像(すなわち、m=20)を含む。
点対応は、初期画像311のセットから求められる(330)。2点動き予測が点対応に適用されて(350)、初期姿勢p(i=1,...,m)355のセットが得られる。この初期姿勢のセットを用いて、点群(point cloud:ポイントクラウド)361が生成される(370)。この点群は、「疎ら(sparse)」であることが好ましい。ここで、疎とは、不明確な相対語ではなく、それとは逆に、従来から知られているとおりのものであり、数値解析の分野において定義されている。
カメラは車両に対して固定した幾何学的関係にあるので、カメラの姿勢は、車両の動きを求めるのに用いることができ、より詳細には、車両の移動を妨害する可能性のある、ビデオに視認される障害物を突き止めるのに用いることができる。
上述した2点動き予測は、視覚的に正確な路上の車両軌道を生成する。しかしながら、動きは、道路の非平面性に起因して高密度3D再構成を実行できるほど精密ではない。したがって、初期画像311のセットには2点相対動き予測350が用いられ、これに続いて、後続の次の画像312には3点2D/3Dカメラ姿勢予測380が用いられる。すなわち、点対応は、点群に関して次の各画像312について求められる(331)。3点2D/3Dカメラ姿勢予測380は、これらの点対応に適用されて、次の画像の姿勢381が求められ、この姿勢を用いて、点群が更新される(375)。初期画像の姿勢p(i=1,...,m)355及び次の画像の姿勢p(i=m+1,...,n)381のシーケンスは、カメラが遭遇する動きを本質的に明らかにする。
このハイブリッド手法を用いて、障害物検出の用途のための正確な高密度深度マップ430を生成する平面掃引手順420のための正確な動き予測値が生成される。この方法は、短い距離(2メートル未満)にある小物体(10cm幅の棒及び寸法30cmの箱)を再構成できるほど十分正確である。平面掃引手順は、図4を参照して以下で説明する。
図3及び図4に示すステップは、例えば、車両ナビゲーションシステムの一部である車両内のプロセッサを用いて実行することができる。この方法は、実時間で動作することができる。グラフィック処理ユニット(GPU)を用いることもできる。
2点動き予測−ステップ350
動き予測350は、2つの画像用の相対的な姿勢を得る。2つの画像内の対応する特徴点p及びp’が、基本行列Eによって以下のように関係付けられる。
Figure 2014032666
p及びp’は、球画像座標では単位ベクトルとして表されること、すなわち、p及びp’は、
Figure 2014032666
となるように単位球面上に逆投影されたピクセルであることに留意されたい。これは、カメラが較正される(321)ときに常に可能である。
基本行列Eは、関係E=[T]×Rを用いて求めることができる。式中、Rは、3×3回転行列であり、[T]×は、以下のように、3×1並進ベクトルTの歪対称行列である。
Figure 2014032666
平面的動き
図1に示すように、カメラ102は、実質的に平面112内で動く。カメラが車両に搭載されている場合、地表面111はXZ平面に平行であり、カメラはXZ平面112上で動く。したがって、回転行列は以下のとおりである。
Figure 2014032666
この回転行列は、Y軸の回りの角度θの回転を表す。cosθ及びsinθをそれぞれα及びβに置き換えることによって上記回転行列を書き換えると、以下の式となる。
Figure 2014032666
正規直交性制約によれば、α+β=1が得られる。
カメラはXZ平面上で動くので、並進ベクトルのY座標は0である。絶対スケールは求めることができない。それゆえ、並進ベクトルは、
Figure 2014032666
であると仮定される。
=1と固定することによって、動きのスケールが固定される。実行する座標変換に起因して、この仮定は、動きがX方向に沿っていても当てはまる。
式(1)を用いて、未知のパラメーター(T,α,β)が求められる。3つの変数があるが、α+β=1であるので、独立変数の数は2つである。点対応の2つのセットについて式(1)を直接解くことによって、3つの変数(T,α,β)に関する2つの2次(2次多項式)式が得られる。α及びβに関する正規直交性制約を用いると、8つ以下の解が得られる。
以下では、座標変換手法によって単一の2次式が得られることを説明する。この2次式は、動きを求めるために解くことができる。
解析的解法
図2に示すように、(R,T)を直接求めるよりもC’とC’との間の動き(R,T)を求める方がはるかに簡単である。すなわち、これらの2つの座標の座標間の動きを直接求める代わりに、カメラ座標系におけるC及びCの双方を事前に回転して、それぞれ中間基準座標C 及びC にする。
これらの中間基準座標は、動き予測式が可能な限り簡単になるように選択される。中間座標系におけるこれらの座標(R,T)間の動きが求められた後、事後回転を用いて、カメラ座標系における動きを求めることができる。
中間座標
2つの点対応は、それぞれ(p,p’)及び(p,p’)である。図2に示すように、カメラ座標系における第1の座標Cは、第1の点pのz座標が0になるように回転行列Rによって回転される。同様に、第2の座標Cは、第2の点pのz座標が0になるように回転行列Rによって回転される。中間座標はC’及びC’である。新たな対応(a,b)及び(a,b)は、以下のとおりである。
Figure 2014032666
中間座標系において、以下のものが得られる。
Figure 2014032666
及び
Figure 2014032666
回転行列R及びRは、点のZ座標が0になるようにY軸の回りに座標を回転することと同等である。
Figure 2014032666
式中、θ=tan−1(p1z/p1x)であり、θ=tan−1(p2z’/p2x’)である。

式(4)及び(5)を用いると、以下の基本行列が得られる。
Figure 2014032666
座標変換後、式(1)は、i={1,2}について、
Figure 2014032666
となる。i=1のとき、
Figure 2014032666
が得られ、その結果、
Figure 2014032666
となる。式中、
Figure 2014032666
であり、
Figure 2014032666
であり、
Figure 2014032666
である。
i=2のとき、
Figure 2014032666
が得られ、式中は、転置演算子であり、その結果、以下となる。
Figure 2014032666
式中、
Figure 2014032666
であり、
Figure 2014032666
であり、
Figure 2014032666
である。
式(12)及び(17)を用いると、Tについて以下の関係が得られる。
Figure 2014032666
及び
Figure 2014032666
上記式を簡略化することによって、以下の式が得られる。
Figure 2014032666
式中、
Figure 2014032666
であり、
Figure 2014032666
であり、
Figure 2014032666
である。
正規直交性制約α+β=1を用いて、式(23)における全てのβを置き換えると、以下の2次式が得られる。
Figure 2014032666
上記2次式を解くことによって、αについて2つの解が得られる。αを求めた後、βを以下の式のように得ることができる。
Figure 2014032666
次に、式(21)を用いてTを求めることができる。(T,α,β)について2つの解が存在し、追加の対応を用いて正しい解を求めることできることに留意されたい。最後に、以下の演算を実行して、元の座標の座標間の動き
Figure 2014032666
及び
Figure 2014032666
が得られ、初期姿勢p355のセットが得られる。
平面性仮定の感度解析
本発明者らの方法の精度に対する平面性仮定の影響を解析することにする。本発明者らの方法によれば、カメラが、実質的にXZ平面内で動くものと仮定される。この方法が求めることができる唯一の回転は、Y軸の回りのものである。X軸又はZ軸の回りの任意の回転を求めことはできない。並進は、スケールを除いてしか可能でないので、平面上の動きの方向に関して誤差がある。
多くの車両ナビゲーションの用途及び位置特定問題では、Y軸の回りの回転誤差がより重要である。したがって、Y軸の回りの回転の誤差も解析することにする。これは、全体の回転誤差よりもはるかに小さい。サイズ100×100のピクセルの画像を、100の焦点距離を用いて検討した。周囲状況サイズは、寸法100単位の3乗である。試験において0.2の標準偏差を有するガウス雑音を加えた。
全方向カメラ較正
小さな全方向(魚眼)単眼カメラが用いられる。このカメラは、車両に搭載するのが容易である。カメラを車両の前部及び後部の双方に搭載することによって幾つかのビデオシーケンスを試験した。カメラは、チェッカーボードの画像を取得することによって較正される(321)。この較正は、カメラから取得されたビデオシーケンスを調整するのに用いられる。画像解像度は、1920×1080ピクセルである。この較正を用いて、1000×500ピクセルの調整された画像を構成した。
カメラが較正され、画像が調整された後、説明した方法は、任意の全方向カメラに加えて、任意の標準的な透視カメラとともに用いることができる。画像調整によって、元の画像からのピクセルは、投影中心からの共通の画像平面上に投影される。このプロセス中、曲線等の、カメラモデルによって導入された歪も直線に補正される。
地表面予測
世界座標系についての地表面予測322は、前処理320の間に実行することができる。カメラと地表面との間の距離は、カメラの動作中、大きく変動しないものと仮定される。
既知の寸法(約1平方メートル)を有するホワイトボードが地表に設置されて、カメラ座標系における地表面パラメーターが求められる。ビデオシーケンスにおいて、このホワイトボードの4つの境界線が追跡される。これらの境界線を用いて、境界点が求められる。3点2D/3D姿勢予測方法を用いて、ビデオ画像におけるカメラに対するこのボードの姿勢が求められる。このボードの姿勢は、RANSACの枠組みを用いて、複数の画像から求められる。地表面が予測された後、この地表面を用いて、カメラ座標系は、そのXZ平面が地表面に平行になるように位置合わせされる。この位置合わせは、最小2点動き予測350に用いられる。
特徴計算
本発明者らの点を得るために、ハリスコーナー、SIFT特徴、及びKLT特徴を比較した。KLTが、SIFT及びハリスと比較してより均等に分布した特徴を生成することが確認された。したがって、KLT特徴を用いることが好ましい。
動き予測及び姿勢予測
本発明者らの平面的動き仮定は、比較的短い距離にも有効であることが判明した。1つの回転角度で平面上を動いているカメラの場合、エピ極は、常に水平線上にあるはずである。エピ極は、2つの画像からの点対応をつなぐ線分の交点によって求めることができる。幾つかの画像対のエピ極を求め、それらのエピ極が水平線上に常にあるとは限らないことが分かった。
したがって、2点動き予測方法を用いて初期画像のセットの動き予測値が求められる。絶対スケールは、予測された地表面を用いて固定される。
初期画像のセットの後、3点2D/3D姿勢予測を用いて、6つの全てのDOFの動きパラメーターを求めた。これは、大規模な動きからの構造復元問題(structure−from−motion problem)に関係している。
本発明者らの2点方法によって与えられる初期カメラ姿勢355を用いて、点対応が三角測量され、疎な点群が生成される。この疎な点群は、初期再構成を含む。この疎な点群を用いると、後続の次の各画像の姿勢を、3点カメラ姿勢予測方法を用いて求めることができる。疎な初期点群は、新たな3D点が後続の画像において利用可能になると更新される。
5点方法は、前方への動きよりもむしろ横方向への動きに優れていることが確認された。カメラは、点のほとんどをほとんど特徴のない地表面上で観察するので、このシナリオは、5点方法には特に困難である。
高密度深度マップ再構成
図4に示すように、平面掃引手順420は、ビデオシーケンス内の各画像について高密度深度マップ430を求めるように適合される。平面掃引手順への入力410は、カメラ較正パラメーター325と、カメラからの画像310と、これらの画像の姿勢355及び381とを含む。平面掃引は、任意の数の画像及びそれらの画像のカメラ姿勢を入力として用いて深度マップ430を再構成する簡単で効率的な方法を提供する。この手順は、グラフィックスプロセッサユニット(GPU)の実施に適しており、車載カメラからの高密度3D再構成に用いることができる。
本発明者らの実施態様では、現在の画像の座標系において深度d(i=1,...,D)を有する前頭平行面のセットが定義される。各深度層dについて、現在の画像及びN−1個の以前の画像が、GPUにおいて投影テクスチャマッピングを用いて投影され、各ピクセルxのマッチングコストC(x,d)が求められる。
マッチングコストとして、各ピクセルのN個の画像の全ての組み合わせ間の絶対強度差(absolute intensity difference)が求められ、最も小さな50%の値の平均が取られる。これによって、この方法は、閉塞をハンドリングすることが可能になる。次に、各深度層におけるコストが、小さな局所ウィンドウ(11×11ピクセル)を用いて平滑にされる。最後に、各ピクセルの最小コストを
Figure 2014032666
として求めることによって最適な深度が求められる。
発明の効果
本発明の実施の形態は、(動いている)車両に搭載された単眼カメラによって取得された単眼ビデオシーケンスからの周囲状況の相対動き予測及び高密度3D再構成のためのシステム及び方法を提供する。
平面2点相対動き予測方法のための非反復的な解決策が提供される。この方法は、動き予測とともに平面掃引方法を用いて、ほとんどの従来の画像に基づく方法が提供する疎な点群とは対照的に、周囲状況の高密度深度マップのシーケンスを求める。さらに、車両ナビゲーション装置の組み込みプロセッサ又はGPUにおいて実施することができる簡単な非反復的技法が用いられる。
車載カメラからのビデオシーケンスによる深度マップ再構成は、障害物検出等の車両の安全の用途に極めて有用である。
超音波センサー、レーザースキャナー、短距離レーダー網、又はステレオカメラ等の他のセンサーと比較して、本発明者らの単一のカメラに基づく解決策ははるかに安価である。
単一のカメラは、障害物検出のための正確な(高密度)深度マップを得るのに十分である。カメラの正確な動きパラメーターを用いて、深度マップが求められる。動きに基づくステレオ解析に2つの画像しか用いないのではなく、平面掃引プロセスを用いて深度マップが再構成するのに、例えば20個〜30個の画像のセットが用いられる。平面掃引は、GPUにおいて実施することもでき、実時間で実行することができる。
この方法は、同一平面性制約及び正規直交性制約を条件とする単一の2次式を用いて平面2点動き予測を解く。解は、式を簡略化する座標変換手法によって得ることができる。
多くの従来技術の手法は、ニュートンラフソンの方法等の多くの時間を要する反復的技法を用いる。本発明者らの非反復的方法は、より効率的であり、極小値問題の難点がない。
2点動き予測は、視覚的に正確な車両軌道を生成するが、動きは、道路、車庫の床面、ドライブウェイ等の非平面性に起因して高密度3D再構成を実行できるほど十分精密ではない。したがって、初期画像のセットには2点動き方法が用いられ、次いで、後続の次の画像には3点2D/3D姿勢予測が用いられる。このハイブリッド手法を用いると、障害物検出の用途ための高密度深度マップを生成する平面掃引方法のための正確な動き予測値が生成される。

Claims (9)

  1. 周囲状況に対するカメラの姿勢を求めるための方法であって、前記カメラは可動であり、該方法は、
    前記カメラによって前記周囲状況から取得された初期画像のセットから点対応を求めることと、
    2点動き予測を前記点対応に適用することであって、前記カメラの初期姿勢のセットを求めることと、
    前記初期姿勢のセット及び前記点対応から点群を生成するとともに、次の各画像について、
    前記次の画像から前記点対応を求めるステップと、
    前記次の画像の前記点対応及び前記点群から前記カメラの前記姿勢を求めるステップと、
    前記姿勢及び前記次の画像の前記点対応に従って前記点群を更新するステップと、
    を実行することと、
    を含み、前記ステップはプロセッサにおいて実行される、周囲状況に対するカメラの姿勢を求めるための方法。
  2. 前記点群は疎らである、請求項1に記載の方法。
  3. 前記適用することは、
    前記2点動き予測の2次式を解析的に解くこと、
    を更に含む、請求項1に記載の方法。
  4. 前記姿勢とともに前記画像に平面掃引手順を適用することであって、高密度深度マップを生成する、適用すること、
    を更に含む、請求項1に記載の方法。
  5. 前記2点動き予測は、ランダムサンプルコンセンサス(RANSAC)の枠組みにおいて行われる、請求項3に記載の方法。
  6. 前記RANSACの枠組みにおける仮説が、少なくとも2つの点対応を用いて生成される、請求項5に記載の方法。
  7. 前記カメラは、車両に搭載されている、請求項1に記載の方法。
  8. 前記高密度深度マップを用いて障害物を検出すること、
    を更に含む、請求項4に記載の方法。
  9. 前記2点動き予測は、前記点対応から投影光線を得ることと、
    第1のカメラ座標系における前記投影光線を第1の中間座標系に変換するとともに、第2のカメラ座標系における前記投影光線を第2の中間座標系に変換することと、
    同一平面性制約及び正規直交性制約を条件とする2次式を用いて、前記第1の中間座標系における前記投影光線と前記第2の中間座標系における前記投影光線との間の動きを求めることと、
    前記第1の中間座標系及び前記第2の中間座標系において計算された前記動きを用いて、前記第1のカメラ座標系における前記投影光線と前記第2のカメラ座標系における前記投影光線との間の動きを求めることと、
    を更に含む、請求項1に記載の方法。
JP2013151282A 2012-08-01 2013-07-22 周囲状況に対するカメラの姿勢を求めるための方法 Active JP5991952B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/563,925 US8831290B2 (en) 2012-08-01 2012-08-01 Method and system for determining poses of vehicle-mounted cameras for in-road obstacle detection
US13/563,925 2012-08-01

Publications (3)

Publication Number Publication Date
JP2014032666A true JP2014032666A (ja) 2014-02-20
JP2014032666A5 JP2014032666A5 (ja) 2016-06-23
JP5991952B2 JP5991952B2 (ja) 2016-09-14

Family

ID=50025509

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013151282A Active JP5991952B2 (ja) 2012-08-01 2013-07-22 周囲状況に対するカメラの姿勢を求めるための方法

Country Status (3)

Country Link
US (1) US8831290B2 (ja)
JP (1) JP5991952B2 (ja)
CN (1) CN103578117B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107179768A (zh) * 2017-05-15 2017-09-19 上海木爷机器人技术有限公司 一种障碍物识别方法及装置
JP2019021291A (ja) * 2017-07-18 2019-02-07 株式会社東芝 カメラ姿勢推定方法およびシステム
JP2021185542A (ja) * 2015-09-25 2021-12-09 マジック リープ, インコーポレイテッドMagic Leap, Inc. 3次元再構成において構造特徴を検出し、組み合わせるための方法およびシステム

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9990726B2 (en) 2012-09-27 2018-06-05 Apple Inc. Method of determining a position and orientation of a device associated with a capturing device for capturing at least one image
US9576183B2 (en) * 2012-11-02 2017-02-21 Qualcomm Incorporated Fast initialization for monocular visual SLAM
KR102001659B1 (ko) * 2012-11-19 2019-07-19 한국전자통신연구원 차량용 카메라 캘리브레이션 장치 및 방법
KR101431373B1 (ko) * 2013-02-26 2014-08-18 경북대학교 산학협력단 스테레오 정합을 이용한 차량의 움직임 측정 장치
EP2884364B1 (en) * 2013-12-12 2018-09-26 Hexagon Technology Center GmbH Autonomous gardening vehicle with camera
US10339389B2 (en) * 2014-09-03 2019-07-02 Sharp Laboratories Of America, Inc. Methods and systems for vision-based motion estimation
US9607388B2 (en) * 2014-09-19 2017-03-28 Qualcomm Incorporated System and method of pose estimation
CN104299244B (zh) * 2014-09-26 2017-07-25 东软集团股份有限公司 基于单目相机的障碍物检测方法及装置
CN104268551B (zh) * 2014-09-29 2017-08-08 浙江理工大学 基于视觉特征点的转向角度控制方法
US10284794B1 (en) 2015-01-07 2019-05-07 Car360 Inc. Three-dimensional stabilized 360-degree composite image capture
EP3256877B1 (de) * 2015-02-13 2019-04-03 Zoller & Fröhlich GmbH Laserscanner und verfahren zum vermessen eines objektes
US9558424B2 (en) * 2015-06-30 2017-01-31 Mitsubishi Electric Research Laboratories, Inc. On-road stereo visual odometry without explicit pose determinations
US10088318B2 (en) 2015-08-27 2018-10-02 Qualcomm Incorporated Cradle rotation insensitive inertial navigation
GB2541884A (en) 2015-08-28 2017-03-08 Imp College Of Science Tech And Medicine Mapping a space using a multi-directional camera
US9945828B1 (en) 2015-10-23 2018-04-17 Sentek Systems Llc Airborne multispectral imaging system with integrated navigation sensors and automatic image stitching
US9807365B2 (en) * 2015-12-08 2017-10-31 Mitsubishi Electric Research Laboratories, Inc. System and method for hybrid simultaneous localization and mapping of 2D and 3D data acquired by sensors from a 3D scene
US10156441B2 (en) 2016-01-05 2018-12-18 Texas Instruments Incorporated Ground plane estimation in a computer vision system
CN108603933B (zh) * 2016-01-12 2022-07-08 三菱电机株式会社 用于融合具有不同分辨率的传感器输出的系统和方法
FR3052581B1 (fr) * 2016-06-14 2019-07-12 Continental Automotive France Procede de realisation d'une carte de profondeurs a partir d'images successives d'une camera unique (mono) embarquee dans un vehicule automobile
GB2552648B (en) 2016-07-22 2020-09-16 Imperial College Sci Tech & Medicine Estimating dimensions for an enclosed space using a multi-directional camera
EP3493160A1 (en) * 2016-07-29 2019-06-05 Sony Corporation Image processing device and image processing method
US20180068459A1 (en) * 2016-09-08 2018-03-08 Ford Global Technologies, Llc Object Distance Estimation Using Data From A Single Camera
US11132816B2 (en) * 2016-12-21 2021-09-28 Intel Corporation Large scale CNN regression based localization via two-dimensional map
DE102017100062A1 (de) * 2017-01-03 2018-07-05 Connaught Electronics Ltd. Visuelle Odometrie
CN109147374A (zh) * 2017-06-15 2019-01-04 深圳市金溢科技股份有限公司 停车场管理方法、系统、车载单元及后台服务器
WO2019041081A1 (en) * 2017-08-28 2019-03-07 Intel Corporation INSTALLATION ESTIMATE FOR MOBILE AUTONOMOUS APPARATUS AT FRACTIONAL TIME PERIODS OF COMPLETE SENSOR SCAN
CN108107462B (zh) * 2017-12-12 2022-02-25 中国矿业大学 Rtk与高速相机组合的交通标志杆姿态监测装置及方法
WO2019133342A1 (en) * 2017-12-29 2019-07-04 PlusAI Corp Method and system for stereo based vehicle pose estimation
CN108876825A (zh) * 2018-05-15 2018-11-23 北京空间飞行器总体设计部 一种空间非合作目标相对导航三维匹配估计方法
US10565728B2 (en) * 2018-06-01 2020-02-18 Tusimple, Inc. Smoothness constraint for camera pose estimation
DE102018113325A1 (de) * 2018-06-05 2019-12-05 Connaught Electronics Ltd. Verfahren und computergestütztes Ortsbestimmungssystem zum Bestimmen des Ortes mindestens einer Struktur mittels eines bildgebenden Sensors
US10726563B2 (en) * 2018-06-29 2020-07-28 Intel Corporation Visual odometry device for 3D vehicle motion estimation and visual odometry method for 3D vehicle motion estimation
CN109141364B (zh) * 2018-08-01 2020-11-03 北京进化者机器人科技有限公司 障碍物检测方法、系统及机器人
CN110458895B (zh) * 2019-07-31 2020-12-25 腾讯科技(深圳)有限公司 图像坐标系的转换方法、装置、设备及存储介质
KR20210036574A (ko) * 2019-09-26 2021-04-05 삼성전자주식회사 자세 추정 방법 및 장치
CN110796705B (zh) * 2019-10-23 2022-10-11 北京百度网讯科技有限公司 模型误差消除方法、装置、设备及计算机可读存储介质
US11748844B2 (en) 2020-01-08 2023-09-05 Carvana, LLC Systems and methods for generating a virtual display of an item
CN111631637B (zh) * 2020-04-27 2021-08-24 珠海市一微半导体有限公司 视觉机器人确定最佳运动方向和最佳清扫方向的方法
CN112017236B (zh) * 2020-07-13 2023-10-31 魔门塔(苏州)科技有限公司 一种基于单目相机计算目标物位置的方法及装置
US11987236B2 (en) * 2020-08-31 2024-05-21 Nec Corporation Monocular 3D object localization from temporal aggregation
CN114556419A (zh) * 2020-12-15 2022-05-27 深圳市大疆创新科技有限公司 三维点云分割方法和装置、可移动平台
CN112837383B (zh) * 2021-03-01 2022-02-22 东南大学 相机与激光雷达重标定方法、装置及计算机可读存储介质
CN117523010B (zh) * 2024-01-05 2024-04-09 深圳市欧冶半导体有限公司 车辆的相机位姿确定方法、装置、计算机设备和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07162846A (ja) * 1993-12-07 1995-06-23 Sumitomo Electric Ind Ltd 対象物の追従認識装置
JP2001266160A (ja) * 2000-03-22 2001-09-28 Toyota Motor Corp 周辺認識方法および周辺認識装置
JP2009017462A (ja) * 2007-07-09 2009-01-22 Sanyo Electric Co Ltd 運転支援システム及び車両
JP2011008687A (ja) * 2009-06-29 2011-01-13 Sharp Corp 画像処理装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102141398B (zh) * 2010-12-28 2013-01-30 北京航空航天大学 基于单目视觉的多机器人位置与姿态测量方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07162846A (ja) * 1993-12-07 1995-06-23 Sumitomo Electric Ind Ltd 対象物の追従認識装置
JP2001266160A (ja) * 2000-03-22 2001-09-28 Toyota Motor Corp 周辺認識方法および周辺認識装置
JP2009017462A (ja) * 2007-07-09 2009-01-22 Sanyo Electric Co Ltd 運転支援システム及び車両
JP2011008687A (ja) * 2009-06-29 2011-01-13 Sharp Corp 画像処理装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021185542A (ja) * 2015-09-25 2021-12-09 マジック リープ, インコーポレイテッドMagic Leap, Inc. 3次元再構成において構造特徴を検出し、組み合わせるための方法およびシステム
US11688138B2 (en) 2015-09-25 2023-06-27 Magic Leap, Inc. Methods and systems for detecting and combining structural features in 3D reconstruction
CN107179768A (zh) * 2017-05-15 2017-09-19 上海木爷机器人技术有限公司 一种障碍物识别方法及装置
CN107179768B (zh) * 2017-05-15 2020-01-17 上海木木机器人技术有限公司 一种障碍物识别方法及装置
JP2019021291A (ja) * 2017-07-18 2019-02-07 株式会社東芝 カメラ姿勢推定方法およびシステム
US10460471B2 (en) 2017-07-18 2019-10-29 Kabushiki Kaisha Toshiba Camera pose estimating method and system

Also Published As

Publication number Publication date
US8831290B2 (en) 2014-09-09
CN103578117A (zh) 2014-02-12
JP5991952B2 (ja) 2016-09-14
CN103578117B (zh) 2016-09-14
US20140037136A1 (en) 2014-02-06

Similar Documents

Publication Publication Date Title
JP5991952B2 (ja) 周囲状況に対するカメラの姿勢を求めるための方法
Zhang et al. Visual-lidar odometry and mapping: Low-drift, robust, and fast
RU2609434C2 (ru) Выявление расположения и местоположения объектов
US8744169B2 (en) Voting strategy for visual ego-motion from stereo
JP2021508814A (ja) LiDARを用いた車両測位システム
Lagisetty et al. Object detection and obstacle avoidance for mobile robot using stereo camera
Knorr et al. Online extrinsic multi-camera calibration using ground plane induced homographies
JP2008059569A (ja) 接触時間算出装置及び接触時間算出方法
Xia et al. Global calibration of non-overlapping cameras: State of the art
CN104281148A (zh) 基于双目立体视觉的移动机器人自主导航方法
Aliakbarpour et al. Visual servoing of mobile robots using non-central catadioptric cameras
Gong et al. Extrinsic calibration of a 3D LIDAR and a camera using a trihedron
Barczyk et al. Towards realistic covariance estimation of ICP-based Kinect V1 scan matching: The 1D case
García-Moreno et al. Error propagation and uncertainty analysis between 3D laser scanner and camera
Florez et al. An experiment of a 3d real-time robust visual odometry for intelligent vehicles
Zhu et al. Monocular visual odometry and dense 3d reconstruction for on-road vehicles
Jiang et al. Icp stereo visual odometry for wheeled vehicles based on a 1dof motion prior
Hesch et al. Determining the camera to robot-body transformation from planar mirror reflections
Yoo et al. Improved LiDAR-camera calibration using marker detection based on 3D plane extraction
Grinstead et al. Vehicle-borne scanning for detailed 3D terrain model generation
Cheda et al. Camera egomotion estimation in the ADAS context
Tong et al. An Omni-directional vSLAM based on spherical camera model and 3D modeling
US11514588B1 (en) Object localization for mapping applications using geometric computer vision techniques
Munguía et al. Method for slam based on omnidirectional vision: a delayed-ekf approach
Mihalyi et al. Uncertainty estimation of ar-marker poses for graph-slam optimization in 3d object model generation with rgbd data

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160421

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160421

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20160421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160713

TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20160714

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160719

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160816

R150 Certificate of patent or registration of utility model

Ref document number: 5991952

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250