JP6469905B2 - 適応型グランドプレーン推定を用いた自律運転のためのモノキュラ3d位置特定 - Google Patents

適応型グランドプレーン推定を用いた自律運転のためのモノキュラ3d位置特定 Download PDF

Info

Publication number
JP6469905B2
JP6469905B2 JP2018011340A JP2018011340A JP6469905B2 JP 6469905 B2 JP6469905 B2 JP 6469905B2 JP 2018011340 A JP2018011340 A JP 2018011340A JP 2018011340 A JP2018011340 A JP 2018011340A JP 6469905 B2 JP6469905 B2 JP 6469905B2
Authority
JP
Japan
Prior art keywords
ground surface
bounding box
image
camera
monocular
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018011340A
Other languages
English (en)
Other versions
JP2018091857A (ja
Inventor
マンモハン チャンドレイカー、
マンモハン チャンドレイカー、
シユ ソング、
シユ ソング、
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Laboratories America Inc
Original Assignee
NEC Laboratories America Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Laboratories America Inc filed Critical NEC Laboratories America Inc
Publication of JP2018091857A publication Critical patent/JP2018091857A/ja
Application granted granted Critical
Publication of JP6469905B2 publication Critical patent/JP6469905B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Description

本願は、2013年10月30日出願の仮出願第61/897440号、2014年7月18日出願の仮出願第62/026061号、および2014年7月18日出願の仮出願第62/026184号の優先権を主張し、その内容を参照により本明細書に取り込む。
本発明は、Structure from Motion(SFM)を処理するシステムに関する。
自律運転アプリケーションについて、視覚型のStructure from Motion(SFM)の重要性が急速に高まってきている。モノキュラSFMは、コストおよび構成に関する要件が低いので魅力的である。しかし、ステレオと異なり、固定の基線がないことがスケールドリフトにつながり、このことが、ステレオに匹敵する精度を達成することを妨げる主要な障害となっている。現実世界の道路環境でスケールドリフトを効果的に無効にするロバストモノキュラSFMは、大量生産される自律運転システムにとって大きな利益になる。
スケールドリフトに対処する一般的な方法は、グランドプレーン上方のカメラの高さを推定する方法である。従来のモノキュラSFMワークは、疎な特徴マッチングをグランドプレーン推定に使用する。しかし、自律運転では、グランドプレーンは、速く移動する低テクスチャの路面に対応し、そのような特徴マッチングのみに頼ることは実用的でない。また、従来のモノキュラSFMシステムは、単一のキューからグランドプレーンを推定することによってスケールを補正する(疎な特徴マッチング)。従来のキューコンビネーションフレームワークは、フレームごとの視覚データに応じた重み付けを適応しない。従来の位置特定システムは、固定されたグランドプレーンを使用しており、フレームごとの視覚推定にそれを適応しない。
一つのカメラのみから画像を取り込み、疎な特徴、緻密なステレオおよびオブジェクトバウンディングボックスからキューコンビネーションを生成し、グランドプレーン推定のためにキューコンビネーションを使用してモノキュラStructure from Motion(SFM)のスケールを補正し、SFM、グランドプレーンおよびオブジェクトバウンディングボックスを組み合わせて3Dオブジェクト位置特定を生成することによって位置特定を実行することによって、単一のカメラのみで3次元(3D)位置特定を実行する方法。
実施形態は、問題を解決するために、モノキュラリアルタイムSFM、キューコンビネーションフレームワークおよびオブジェクトトラッキングの組み合わせを使用することができる。用途は、自律運転および運転安全性を含む。発明者等の実施形態では、以下のうちの1つまたは複数を適用することができる。
(a)追跡したバウンディングボックスを使用し、背景である画像の領域(移動しないオブジェクト)を決定し、モノキュラSFMを使用してカメラの姿勢およびグランドプレーンを推定する。
(b)オブジェクトに対して緻密なオプティカルフロー推定を実行して、それらオブジェクトをより良好に追跡する。
(c)3D点、緻密なステレオおよび2Dオブジェクトバウンディングボックスといった複数のキューを使用してグランドプレーンを推定する。
(d)様々なキューのフレームごとの相対的な重要度を示すモデルを学習する。
(e)カルマンフィルタ機構内でグランドプレーン推定を組み合わせる。
(f)推定したグランドプレーンを使用して、モノキュラSFMのスケールドリフトを補正する。
(g)推定したグランドプレーンを使用して、オブジェクトを取り囲む3Dバウンディングボックスを見つける。
上記の実施形態の利点は、以下のうちの1つ以上を含んでいても良い。モノキュラグランドプレーン推定のためのデータ駆動型フレームワークは、現実世界の運転における優れた性能を達成する。これは、長距離のリアルタイムモノキュラSFMに高い精度およびロバストネスをもたらし、その結果、公開ベンチマークデータセットについての現況技術のステレオシステムに匹敵する。さらに、発明者等は、正確なグランドプレーンに依存する3Dオブジェクト位置特定などのようなアプリケーションに大きな利点があることを示す。発明者等の解決策のその他の利点は、以下を含んでいても良い。
(a)より正確(発明者等が、スケール補正に複数のキューを使用するので)
(b)より柔軟(発明者等のフレームワークは、多数の異なる種類のキューに跨る)。
(c)より堅牢(発明者等は、複数のキューを、それらのフレームごとの相対的重要度に基づいて、組み合わせる)。
(d)より速く(システムは、リアルタイムであり、高価な動きセグメンテーションを使用しない)。
リアルタイムSFMシステムの一実施形態を示す図である。 図1のシステムの各モジュールをさらに詳細に示す図である。 図1のシステムの各モジュールをさらに詳細に示す図である。 図1のシステムの各モジュールをさらに詳細に示す図である。 図1のシステムの各モジュールをさらに詳細に示す図である。 図1のシステムの各モジュールをさらに詳細に示す図である。 図1のシステムの各モジュールをさらに詳細に示す図である。 図1のシステムの各モジュールをさらに詳細に示す図である。 カメラ高さ決定の一構成を示す図である。 図1〜図8のプロセスを実行するためのコンピュータシステムを示す図である。
グランドプレーン推定にキューコンビネーションフレームワークを使用してスケールドリフトを補正し、長い運転シーケンスの間にステレオに匹敵する精度を得る、リアルタイムモノキュラSFMシステムを開示する。発明者等のグランドプレーン推定は、疎な特徴、緻密なフレーム間ステレオ、および(適用可能な場合には)オブジェクト検出のような複数のキューを使用する。各キューの観測共分散をその基礎をなす変数の誤り挙動と関連付けるトレーニングデータからモデルを学習するためにデータ駆動型機構が提案されている。これにより、テスト中に、視覚データから推測された相対的信頼度に基づいて観測共分散をフレームごとに適応させることが可能になる。発明者等のフレームワークは、モノキュラ自動位置特定の精度を大幅に高めるだけでなく、グランドプレーンに依存するオブジェクト位置特定のようなアプリケーションの精度も大幅に高める。KITTIデータセットに関するいくつかの実験で、従来のシステムとの詳細な比較により、発明者等のグランドプレーン推定、モノキュラSFMおよびグラウンドトゥルースに対するオブジェクト位置特定の正確さが実証されている。
第1に、複数の方法からキューを取り込み、第2に、トレーニングデータから学習したモデルを使用して、それらのキューを、それらのフレームごとの相対的信頼度を考慮するフレームワークで組み合わせる。システムは、連続フレーム間の緻密なステレオと2D検出バウンディングボックス(オブジェクト位置特定アプリケーション)とからキューを取り込む。緻密なステレオキューが、カメラ位置特定を大幅に改善し、検出キューが、オブジェクト位置特定の大きな助けになる。キューを組み合わせるために、データ駆動型フレームワークが使用される。トレーニング期間に、各キューの観測共分散を、視覚データで観測されるような、その基礎をなす変数の誤り挙動と関連付けるモデルを学習する。テスト時に、それらモデルによって予測される共分散を融合することにより、各キューの寄与をフレームごとに適応させて、各キューの相対精度の信頼を反映することができる。
発明者等のフレームワークを使用するグランドプレーン推定の大幅な改善を以下に開示する。この改善は、モノキュラSFMおよび3Dオブジェクト位置特定のようなアプリケーションの優れた性能につながる。KITTIデータセットについて、発明者等のリアルタイムモノキュラSFMは、フレームあたり0.0054°の回転精度アップを達成し、いくつかの最新式のステレオシステムより性能が上回ることさえある。平行移動誤差(トランスレーション誤差)は3.21%という低さであり、これは、ステレオに相当し、また発明者等の知る限り最高のものに相当し、他のモノキュラシステムに類を見ない水準である。また、正確なスケール補正に直接寄与する可能性がある高いロバストネスも提示する。さらに、3Dオブジェクト位置特定に発明者等の地面推定の利点も実証する。発明者等のワークは、当然、検出追跡(tracking-by-detection)フレームワークを補完して、その位置特定精度を高める。例えば、このシステムで、3D位置誤差の6%を超える改善を達成する。
図1は、入力ビデオを処理するためのリアルタイムSFMシステム100の一実施形態を示す。図1のシステムは、以下を実行する。
(a)新規のキューコンビネーションフレームワークを使用して、モノキュラSFMのスケールドリフトを補正する。
(b)スケール補正のために、いくつかのキューを設計してグランドプレーンの高さを推定する。
(c)様々なキューを取り扱うのに十分な柔軟性を有する一般的なデータ駆動型キューコンビネーションフレームワークを設計する。
(d)上記のキューコンビネーションフレームワークで使用する各キューの相対的有効性を示す特定のモデルを学習する。
(e)カメラとシーンの3Dオブジェクトとの両方の高精度位置特定のために、効率的なリアルタイムフレームで、モノキュラSFMと、グランドプレーン推定と、オブジェクト追跡とを組み合わせる。
システム100は、高価な動きセグメンテーションを用いずに移動するオブジェクトを取り扱うことができ、かつ、グランドプレーン推定用の新たなキューコンビネーショフレームワークを使用して高精度スケール補正のために従来のワークよりもはるかに正確である、リアルタイムモノキュラSFMおよびオブジェクト位置特定モジュール101を含む。システムは、グランドプレーン推定を使用して、道路シーン内の消滅する点を決定する。これは、エピポーラ探索範囲を決定し、マッチングウィンドウの大きさを制約するために使用され、速度が速い高速道路シーンでの精度を高める。システムは、オブジェクト誘導型特徴追跡モジュール102を含む。特徴は、モノキュラSFMからエピポーラ幾何制約条件を取得する緻密なオプティカルフローを使用して、オブジェクト上で追跡される。
オブジェクト誘導型特徴追跡102は、キュー組み合せスケール補正モジュール200と通信する。スケールドリフトは、モノキュラSFMにおける最も重要なチャレンジである。発明者等は、新たなキューコンビネーションフレームワークで地面上方のカメラの高さを推定することによってそれを解決する。このフレームワークは、3D点緻密なステレオおよび2Dオブジェクトバウンディングボックスからのキューを組み合わせる。各キューの相対重要度は、観測共分散をその基礎をなす変数の誤りと関連付けるモデルを学習するために新たなフレームワークを用い、視覚データに基づいて、フレームごとに調節される。
3D点、緻密なステレオ、および2Dオブジェクトバウンディングボックスのような、多数のソースからのキューを使用するグランドプレーン推定フレームワーク201が提案されている。フレームワーク201は、路面上の疎な特徴マッチから得られる3D点からグランドプレーンを推定するためにモジュール211(図3)を含む。緻密なステレオ処理モジュール212(図4)は、その画像がホモグラフィマッピングによって関連付けられる、車のすぐ前の面状の領域用の連続フレーム間の緻密なステレオからグランドプレーンを推定する。2Dオブジェクトバウンディングボックス検出モジュール213(図5)は、2Dバウンディングボックスの高さと、3Dオブジェクト高さについてのプライア(prior)とに基づいて、グランドプレーンを推定する。
グランドプレーン推定モジュール201は、フレームごとに、キューの有効性の期待される信頼を観測視覚データと関連付けるために、トレーニングデータからモデルを学習するトレーニンググランドプレーンキューモジュール202(図2)と通信する。学習モジュール201では、学習モジュール221(図6)は、モジュール211(図3)から受信し、フレームごとに、3D点のキューの有効性の期待される信頼を観測視覚データと関連付けるために、モデルをトレーニングデータから学習する。緻密なステレオ学習モジュール222(図7)は、緻密なステレオをモジュール212から受信し、フレームごとに、緻密なステレオキューの有効性の期待される信頼を観測視覚データと関連付けるために、モデルを学習する。2Dオブジェクトバウンディングボックス学習モジュール223(図8)は、2Dオブジェクトバウンディングボックスをモジュール213(図5)から受信し、フレームごとに、2Dオブジェクトバウンディングボックスキューの有効性の期待される信頼を観測視覚データと関連付けるために、モデルをトレーニングデータから学習する。キュー組み合せスケール補正モジュール200は、出力がリアルタイムモノキュラSFM101に提供されるカルマンフィルタに設けられる。
3D位置特定モジュール300は、リアルタイムで、高精度3Dバウンディングボックスをオブジェクトの周りに生成するように、モノキュラSFM、グランドプレーン推定、およびオブジェクト追跡からの情報を組み合せる。
図1〜図8のシステムは、学習したモデルを使用したグランドプレーン推定のための複数のキューを組み合せ、フレームごとの観測共分散に適応的に重み付けを行うデータ駆動型フレームワークを提供する。高精度、ロバストで、スケール補正、およびステレオに匹敵する性能を有するリアルタイムモノキュラSFM。グランド推定のための検出キューを使用することにより、3Dオブジェクト位置特定の精度を高めている。
次に、1つの実施態様の詳細について説明する。発明者等は、x=(x、…、xとしてRのベクトルを示す。行列は、Xで表される。シーケンスのフレームkの変数xは、xで表される。
図9に示すように、カメラの高さ(グランド高さとも呼ばれる)hは、グランドプレーンから主要中心までの距離として定義される。通常は、カメラはグランドプレーンに対して完全には平行になっておらず、非ゼロピッチ角θが存在する。グランド高さhおよび単位法線ベクトルn=(n、n、nが、グランドプレーンを定義する。グランドプレーン上の3D点(X、Y、Z)について、以下の関係が成り立つ。
Figure 0006469905
スケールドリフト補正は、モノキュラSFMの必須の構成要素である。実際は、これは、精度を保証する唯一の最も重要な特徴である。発明者等は、スケール補正のために、カメラに対するグランドプレーンの高さおよび向きを推定する。スケールドリフト下では、任意の推定長lは、スケールファクタs=l/lまで曖昧である。ここで、lは、グラウンドトゥルース長である。スケール補正の目的は、sを計算することである。グランドからカメラの校正した高さをhとすると、見かけの高さhを計算すれば、スケールファクタs=h/hが得られる。次いで、カメラトランスレーションtを、tnew=t/sとして調整することにより、スケールドリフトを補正することができる。第4節では、発明者等は、適応型キューコンビネーション機構を用いてグランドの高さhおよび向きnを推定する、新規の高精度方法を述べる。
グランドの高さおよび向きの両方を正確に推定することは、3Dオブジェクト位置特定のために重要である。Kは、カメラ固有のキャリブレーションマトリクスとする。同次座標で表した2Dバウンディングボックスの底辺b=(x、y、1)は、以下のように、グランドプレーン{h,n}を介して3Dに逆投影することができる。
Figure 0006469905
同様に、オブジェクト高さは、推定したグランドプレーンおよび2Dバウンディングボックスの高さを用いて得ることもできる。
2Dオブジェクト追跡が与えられると、最もよく適合する3Dバウンディングボックスを推定することができる。オブジェクトのピッチおよびロールは、グランドプレーンによって決定される(図0参照)。車両では、初期ヨー角は、車両の移動方向であると仮定され、プライアは、その長さと幅の比に付与される。(2)から初期位置が得られると、その再投影と追跡した2Dバウンディングボックスとの差を最小化することによって、バウンディングボックスを計算することができる。
発明者等は、オブジェクト位置特定の詳細な説明は後に回すが、2つの点に留意している。第1の点は、正確なグランドプレーンは、実際の位置特定フレームワークに関わらず、明らかに、正確なモノキュラ位置特定のキーであるということである。第2の点は、検出バウンディングボックスからグランドプレーン推定にキューを組み込むことが、SFMとオブジェクト位置特定の間に洗練されたフィードバック機構を構成するということである。
様々な方法から推定を組み合わせるために、カルマンフィルタが使用される。
Figure 0006469905
発明者等のアプリケーションでは、(3)中の状態変数は、グランドプレーンであり、ゆえに、x=(n、h)である。|n|=1であるので、nは、nおよびnによって決定され、観測結果は、z=(n、n、h)である。したがって、発明者等の状態遷移行列および観測モデルは、
Figure 0006469905
で与えられる。
観測共分散Uで、グランドプレーンを推定するために、方法i=1、…、mが使用されるものと想定する。そして、時刻kの融像式は、
Figure 0006469905
である。
各キューごとに正確に比例する
Figure 0006469905
で、フレーム毎のUの意味のある推定は、原則に基づいたキューコンビネーションに不可欠である。従来は、固定された共分散を使用して複数のキューを組み合せており、これは、ビデオシーケンスにおけるそれらの有効性のフレームごとのばらつきを考慮しない。これに対し、以下のセクションでは、発明者等は、それらの基礎をなす変数の誤り分布に基づいて、各キューのフレームごとの共分散を適応させるモデルを学習するデータ駆動型機構を提案する。
システムは、疎な特徴マッチングの三角測量、連続したフレーム間の緻密なステレオ、およびオブジェクト検出バウンディングボックスなど複数の方法を使用して、グランドプレーンを推定する。それらの方法によって与えられるキューは、それらのフレームごとの相対的有効性を考慮する原則に基づいたフレームワークで組み合わされる。
プレーン誘導型の緻密なステレオを用いる実施形態では、前景中の関心領域(ROI)(画像の下3分の1の中央の5分の1)は、平らなグランドに対応する。{h,n}の仮定値、およびフレームkとk+1の間の相対的なカメラの姿勢{R,t}について、ホモグラフィ行列
Figure 0006469905
を用いて、ピクセルごとのマッピングを計算することができる。
なお、tは、発明者等が推定しようとしているhにおいて符号化されている未知のスケールドリフトファクタの分だけ、真の平行移動tとは異なることに留意されたい。フレームk+1のピクセルは、フレームkにマッピングされ(良好に実施するためにはサブピクセル精度が重要である)、絶対差合計(SAD)が、双線形補完された画像強度について計算される。ρ=1.5では、Nelder−Meadシンプレックスルーチンを使用して、
Figure 0006469905
を最小化する{h,n}を推定する。
なお、PnP=1であるので、この最適化は、h、nおよびnしか必要としない。キャリブレーションピッチが良好な初期化であり、かつ、費用関数は、通常、その近傍に明確な極小値を有するので、ノルム拘束の実施は限界効果を得る。最適化は、フレームごとに約10msを必要とする。(7)を最小化する{h,n}は、ステレオキューから推定されたグランドプレーンである。
次に、発明者等は、上記の関心領域内で計算される、フレームkとk+1の間で一致した疎なSIFT記述子について考慮する(発明者等は、テクスチャの少ない道路ではORBよりSIFTの方が良好な選択肢であり、SIFTでは小さいROIで実時間の実行が実現できることを発見した)。三角形分割された3D点を通る平面にフィットするために、1つの選択肢は、平面フィッティングに3点RANSACを使用して{h,n}を推定するものである。ただし、発明者等の実験では、キャリブレーションから固定されるべきカメラのピッチを仮定することにより、より良好な結果が得られている。三角形分割された3D点ごとに、(1)を用いて高さhが計算される。高さの差Δhijは、3D点iごとに、その他の点jに対して計算される。推定されたグランドプレーンの高さが、最大スコアqに対応する点iの高さである。ここで、
Figure 0006469905
である。
システムは、オブジェクト検出バウンディングボックスが例えばオブジェクト位置特定アプリケーション内で利用可能であるときには、それらの物体検出バウンディングボックスをキューとして使用することもできる。グランドプレーンピッチ角θは、このキューから推定することができる。グランドの法線n=(n、n、nについて、n=sinθであることを想起されたい。(2)から、2Dバウンディングボックスが与えられれば、発明者等は、グランドプレーンを介したオブジェクトの3D高さhを計算することができる。オブジェクトのプライア高さ
Figure 0006469905
が与えられれば、nは、
Figure 0006469905
を解くことによって得られる。
(2)で使用されるグランド高さhは、SFMスケールドリフトを取り込むことを回避するためにキャリブレーション値に設定され、nは、オブジェクトの高さに対して軽微な影響しか及ぼさないので、0に設定される。
なお、オブジェクトバウンディングボックスキューは、発明者等の車両に近接したROIに注目するだけの緻密なステレオおよび3D点のキューとは異なり、発明者等に固有の長距離情報を提供することに留意されたい。ピッチ角が不正確であると、遠方のオブジェクトの垂直誤差が大きくなる可能性がある。したがって、遠方のオブジェクトの3D位置特定精度は、このキューを組み込むことによって大幅に改善される。
次に、各キューのフレームごとの相対精度を反映しながら上記のキューを組み合わせる、データ駆動型キューコンビネーションについて説明する。当然のことながら、コンビネーションは、特定のフレームにおける視覚入力、および事前知識の両方の影響を受ける。各キューの観測共分散をその基礎をなす変数の誤り挙動と関連付けるためにモデルをトレーニングデータから学習することによって、これを実現する。テスト中に、学習したモデルは、各キューの観測共分散をフレームごとに適応させる。
緻密なステレオおよび3D点のキューについては、発明者等は、F=23201個のフレームからなる、トレーニングのためのKITTI視覚オドメトリデータセットを使用する。KITTI追跡データセットのシーケンス0から8は、オブジェクト検出キューをトレーニングするために使用される。グラウンドトゥルースhおよびnを決定するために、カメラに近接している画像の道路の領域に標識を付け、提供されるVelodyneデータから得られる関連する3D点に平面をフィッティングする。標識のない道路領域もテスト中に利用可能であり、または使用される。
各方法iは、グランドプレーン変数π={h,n}の様々な位置について評価することができるスコア関数fを有する。ステレオ、3D点およびオブジェクトのキューに関する関数fは、それぞれ(7)、(8)および(9)によって与えられる。そして、アルゴリズム1が、トレーニングの一般的な記述である。
Figure 0006469905
直観的に、モデル
Figure 0006469905
のパラメータ
Figure 0006469905
は、フレームkのキューiの有効性の信頼を反映している。F個のトレーニングフレームのパラメータ
Figure 0006469905
をL個のビンに量子化することにより、ビン中心
Figure 0006469905
における観測誤差の分散を推定することが可能になる。次いで、モデルCは、それらの分散
Figure 0006469905
をキューの精度(量子化されたパラメータ
Figure 0006469905
によって表される)と関連付ける。したがって、テスト時には、フレームごとに、純粋に視覚データに基づいて(すなわちaを計算することによって)各キューiの精度を推定することができ、モデルCを使用してその観測分散を決定することができる。
次に、発明者等は、緻密なステレオ、3D点およびオブジェクトのキューのそれぞれについて、モデルAおよびCをトレーニングするための仕様について説明する。発明者等は、緻密なステレオ、3D点およびオブジェクト検出方法のそれぞれを表す標記i∈{s,p,d}を使用する。
各変数h、nおよびnを独立して変化させるので、2つの連続するフレーム間の緻密なステレオの誤り挙動は、ホモグラフィ(6)によって関連付けられる複数の道路領域間のSADスコアのばらつきによって特徴付けられる。このSADスコアの分布の分散が、ステレオキューの誤り挙動を、その変数に対して表す。ステレオ用のスコア関数fが(7)によって与えられることを想起されたい。状態変数が無双間であると仮定する。したがって、h、nおよびnに対応する3つの独立したモデルを学習する。
トレーニング画像kについて、
Figure 0006469905
を、緻密なステレオ方法により、(7)のfを最適化することによって推定されたグランドプレーンであるとする。最初に、
Figure 0006469905
および
Figure 0006469905
を固定し、(6)に従って、範囲
Figure 0006469905
内のhの50個の一様なサンプルについて、フレームkからk+1へのホモグラフィマッピングを構築する(なお、Rおよびtは、スケールは無視してモノキュラSFMによって既に推定されていることに留意されたい)。各ホモグラフィマッピングごとに、(7)を用いてSADスコアf(h)を計算する。ここでは、単変量ガウシアンが、f(h)の分布にフィッティングする。その分散
Figure 0006469905
は、フレームkにおいて緻密なステレオ方法で推定された高さhの精度の信頼を反映するSAD分布の鮮鋭度を取得する。同様の手続きで、姿勢変数に対応する分散
Figure 0006469905
および
Figure 0006469905
も得られる。例示的なフィッティングを、図2に示す。上記のアルゴリズム1を参照すると、
Figure 0006469905
は、厳密に、フレームkにおけるステレオキューの精度を示すパラメータ
Figure 0006469905
である。
次に、モデルCの学習について詳述する。フレームkについて、
Figure 0006469905
を、グラウンドトゥルースに対するグランド高さの誤差とする。パラメータ
Figure 0006469905
をL=100個のビンに量子化し、その結果得られる
Figure 0006469905
のヒストグラムを考慮する。ビンの中心
Figure 0006469905
は、
Figure 0006469905
の密度に一致するように位置決めされる(すなわち、各ビン内でF/L誤差
Figure 0006469905
を分布させる)。同様のプロセスが、nおよびnについて繰り返される。KITTIデータセットについてのヒストグラムを、図3に示す。こうして、アルゴリズム5.1の
Figure 0006469905
を得ている。
次に、l=1、…、Lについて、各ビンl内の誤差の分散
Figure 0006469905
を計算する。これは、観測誤差分散を示す。ここで、hの観測分散を緻密なステレオの有効性と関連付けるためのモデルを提供する
Figure 0006469905
に対する
Figure 0006469905
の分散に、曲線をフィッティングする。KITTIデータセットの結果を、図4に示す。この図では、各データ点が1組の観測誤差共分散
Figure 0006469905
およびパラメータ
Figure 0006469905
を表している。経験的に、良好なフィッティングを生じるには直線で十分である。同様のプロセスが、nおよびnについて繰り返される。こうして、ステレオ方法用のモデルCを得られる(h、nおよびnのそれぞれについて1つずつ)。
緻密なステレオと同様に、ここでもやはり、トレーニングの目的は、3D点方法の観測共分散を、その基礎をなす変数の誤り挙動と関連付けるモデルを発見することである。スコア関数fが(8)によって与えられることを想起されたい。
によって戻されるスコアqが、そのまま、3D点キューを用いて推定されたグランドプレーンの精度の信頼を示す指標になる。したがって、アルゴリズム5.1については、モデルAを明示的に学習することなく、パラメータ
Figure 0006469905
を直接得ることができる。ここで、qは、フレームkのfの最適値である。
残りの手続きは、ステレオ手続きの場合の手続きと同様である。
Figure 0006469905
を、3D点を用いてフレームkで推定されたグランド高さ、すなわち(8)の最適値であるとする。誤差
Figure 0006469905
は、グラウンドトゥルースに対して計算される。上記の
Figure 0006469905
は、
Figure 0006469905
を中心とするL=100個のビンに量子化され、観測誤差
Figure 0006469905
のヒストグラムが構築される。ここで、モデルCが、各ビンにおける観測分散
Figure 0006469905
を対応する精度パラメータ
Figure 0006469905
と関連付けるようにフィットされてもよい。図4に示すように、この場合も、直線フィッティングが妥当である。
検出器が、いくつかの候補バウンディングボックスおよびそれらの各スコア(すなわち、従来の検出器の非最大抑制ステップの前のバウンディングボックス)を提供すると仮定する。バウンディングボックスは、b=(x,y,w,hによって表される。ここで、x,yは、バウンディングボックスの2D位置であり、w,hは、バウンディングボックスの幅および高さである。検出の誤差挙動は、バウンディングボックスbに対して検出スコアαの分散によって量子化される。
発明者等のモデル
Figure 0006469905
は、ガウシアンの混合体である。各フレームで、
Figure 0006469905
のように、μを中心とする4×4フルランク共分散行列Σを推定する。ここで、εmn=b−μであり、Mは、オブジェクトの数であり、Nは、候補バウンディングボックスの数である(kへの依存性は、便宜上抑制されている)。例示的なフィッティング結果を、図6に示す。雑音のある検出器のスコアのばらつきが、モデル
Figure 0006469905
によってよく捉えられていることは明らかである。
(9)のスコア関数fがnを推定することを想起されたい。したがって、yおよびhに対応するΣの成分のみが重要である。σおよび
Figure 0006469905
を、追跡2Dボックスに最も近いΣの対応する対角成分とする。これらを、このキューの精度の信頼を反映する単一のパラメータ
Figure 0006469905
に組み合わせる。
残りの手続きは、ステレオおよび3D点のキューの手続きと同様である。精度パラメータ
Figure 0006469905
は、量子化され、(9)のfによって与えられる観測誤差の対応する分散と関連付けられる。検出キューの観測分散をその予想精度と関連付けるフィッティングされた線型モデルCを、図6に示す。
テスト中に、フレームkごとに、各キュー
Figure 0006469905
に対応するモデル
Figure 0006469905
をフィッティングし、予想精度を伝えるパラメータ
Figure 0006469905
を決定する。次に、モデルCを使用して、観測分散を決定する。
フレームkの観測結果
Figure 0006469905
は、(7)によって与えられるfを最小化することによって得られる。1DガウシアンをホモグラフィマッピングされたSADスコアにフィッティングして、
Figure 0006469905
および
Figure 0006469905
の値を取得する。図4で推定されたモデルCを使用して、対応する分散
Figure 0006469905
を予測する。ここで、緻密なステレオ方法の観測共分散は、
Figure 0006469905
として得られる。
フレームkで、観測結果
Figure 0006469905
は、(8)によって与えられるfから得られる推定グランド高さhである。(8)から得られるqの値は、そのまま予想精度パラメータ
Figure 0006469905
となる。対応する分散
Figure 0006469905
は、図4のモデルCから推定される。ここで、このキューについての観測共分散は、
Figure 0006469905
として得られる。
フレームkで、観測結果
Figure 0006469905
は、各オブジェクトm=1、…、Mについて、(9)によって与えられるfを最小化することによって得られるグランドピッチ角nである。各オブジェクトmについて、(10)を解いた後で、パラメータ
Figure 0006469905
を得る。図6のモデルCを使用して、対応する誤差分散
Figure 0006469905
を予測する。ここで、この方法の観測共分散は、
Figure 0006469905
によって与えられる。
最後に、フレームkについての適応共分散Uは、各オブジェクトmから
Figure 0006469905
および
Figure 0006469905
を組み合わせることによって計算される。そして、発明者等の適応グランド推定zが、(5)を用いて
Figure 0006469905
および
Figure 0006469905
を組み合わせることによって計算される。
したがって、このグランドプレーン推定方法では、トレーニングデータから学習されたモデルを使用して、ステレオ、3D点および検出バウンディングボックスの各キューの相対的重要度をフレームごとに適応させる。実時間での実行を考慮して、緻密なステレオおよび3D点のキューのみが、モノキュラSFMに使用される。検出バウンディングボックスのキューは、それらが利用可能であるオブジェクト位置特定アプリケーションに使用される。
本システムの正確なグランドプレーン推定は、モノキュラビジョン型システムがステレオと同等の性能を達成することを可能にする。特に、発明者等は、従来のワークで使用される伝統的な疎な特徴の他に、グランド推定のために緻密なステレオおよびオブジェクトバウンディングボックスのようなキューを含むことが有利であることを示した。さらに、発明者等は、トレーニングデータから得られる事前知識に加えて、キューのフレームごとの相対的信頼度を反映する、原則に基づいたフレームワーク中でこれらのキューを組み合わせる機構を提案した。
発明者等のロバストで正確なスケール補正は、モノキュラSFMとステレオSFMの間のギャップを埋める上で重要なステップである。発明者等は、これが自律運転アプリケーションにとって大きな利点を有すると考えている。発明者等は、発明者等のグランドプレーン推定を使用するリアルタイムモノキュラSFMの性能が、現実世界の運転シーケンスでステレオに匹敵するものであることを実証している。さらに、やはり発明者等の実験によって実証されているように、発明者等の正確なグランドプレーンは、既存の3D位置特定フレームワークにも有利であることが多い。
本発明は、ハードウェア、ファームウェアまたはソフトウェア、あるいはこれら3つの組合せで実装することが可能である。好ましくは、本発明は、プロセッサ、データ記憶システム、揮発性および不揮発性のメモリおよび/または記憶要素、少なくとも1つの入力デバイス、ならびに少なくとも1つの出力デバイスを有するプログラマブルコンピュータ上で実行されるコンピュータプログラムにおいて使用される。
例えば、このシステムをサポートするコンピュータのブロック図を、図10に示す。このコンピュータは、プロセッサと、ランダムアクセスメモリ(RAM)と、プログラムメモリ(フラッシュROMなどの書込み可能読取り専用メモリ(ROM)であることが好ましい)と、CPUバスによって結合された入出力(I/O)制御装置とを含むことが好ましい。必要に応じて、このコンピュータは、ハードディスクおよびCPUバスに結合されたハードドライブ制御装置を含んでいてもよい。ハードディスクは、本発明などのアプリケーションプログラムおよびデータを記憶するために使用してもよい。あるいは、アプリケーションプログラムは、RAMまたはROMに記憶してもよい。I/O制御装置は、I/OバスによってI/Oインタフェースに結合される。I/Oインタフェースは、シリアルリンク、ローカルエリアネットワーク、ワイヤレスリンクおよびパラレルリンクなどの通信リンクを介して、アナログまたはデジタルの形態のデータを送受信する。必要に応じて、ディスプレイ、キーボードおよびポインティングデバイス(マウス)を、I/Oバスに接続してもよい。あるいは、I/Oインタフェース、ディスプレイ、キーボード、およびポインティングデバイスのために、別個の接続(別個のバス)を使用してもよい。プログラマブル処理システムは、予めプログラムしてあってもよいし、別のソース(例えばフロッピーディスク、CD−ROM、または別のコンピュータ)からプログラムをダウンロードすることによってプログラム(再プログラム)してもよい。
各コンピュータプログラムは、汎用または専用プログラマブルコンピュータによって読取り可能な機械可読記憶媒体またはデバイス(例えばプログラムメモリまたは磁気ディスク)に有形に記憶され、その記憶媒体またはデバイスがコンピュータによって読み取られたときにそのコンピュータの動作を構成および制御して、本明細書に記載された手続きを実行する。本発明のシステムは、コンピュータプログラムを備えた構成のコンピュータ可読記憶媒体に埋め込まれているものとして考慮してもよく、このように構成された記憶媒体は、コンピュータを、特定の予め定義された方法で、本明細書に記載される機能を実行するように動作させる。
本明細書では、特許法に準拠するように、また新規の原理を適用し、これらの特殊な構成要素を必要に応じて構築して使用するために必要な情報を当業者に提供するように、本発明についてかなり詳細に説明した。ただし、本発明は、明白に異なる機器およびデバイスによって実行することもできること、ならびに本発明自体の範囲を逸脱することなく、機器の細部および動作手続きの両方に関する様々な改善を行うことができることを理解されたい。

Claims (18)

  1. 単一のカメラしか必要としない3次元(3D)位置特定を実行する方法であって、
    前記カメラからフレーム単位に画像を取り込むことと、
    それぞれが地表面を推定するためのキューを構成する、前記画像の疎な特徴一致から得られる3D点と、連続フレーム間の緻密なステレオデータと、前記画像上のオブジェクトを取り囲む2次元(2D)オブジェクト境界ボックスとから、前記地表面を推定するためのキュー組み合わせを生成することと、
    前記キュー組み合わせを使用してモノキュラStructure from Motion(SFM)のスケールを補正することと、
    前記モノキュラSFM、前記地表面および前記2Dオブジェクト境界ボックスを組み合わせて3Dオブジェクト位置特定を生成することによって位置特定を実行することと、
    Kを前記カメラに固有のキャリブレーション行列とし、b=(x,y,1)を同次座標の2D境界ボックスの底辺であるものとして、地表面{h,n}:
    Figure 0006469905
    を介して逆投影することとを含み、
    hおよびnは前記カメラに対する前記地表面の高さおよび向きであり、前記画像の疎な特徴一致は、連続する2つのフレームの一方の画像の疎な特徴と他方の画像の疎な特徴との一致である、方法。
  2. 3D位置特定のために、前記モノキュラSFM、前記キュー組み合わせ、およびオブジェクト追跡を組み合わせることを、さらに含む、請求項1に記載の方法。
  3. 前記2Dオブジェクト境界ボックスを追跡し、該追跡したオブジェクト境界ボックスを用いて、背景(非移動オブジェクト)となる画像の領域を決定し、前記モノキュラSFMを使用して前記カメラの姿勢および前記地表面を推定することを、さらに含む、請求項1に記載の方法。
  4. 前記オブジェクトに対して緻密なオプティカルフロー推定を実行することを、さらに含む、請求項1に記載の方法。
  5. 前記3D点、前記緻密なステレオデータおよび2Dオブジェクト境界ボックスを使用して前記地表面を推定することを含む、請求項1に記載の方法。
  6. フレームごとに各キューの相対的な重要度を示す1つ以上のモデルを学習することを、さらに含む、請求項1に記載の方法。
  7. 推定した地表面を適用して、前記モノキュラSFMのスケールドリフトを補正することを、さらに含む、請求項1に記載の方法。
  8. 前記推定した地表面が、前記オブジェクトを囲む3D境界ボックスを求めるために使用される、請求項7に記載の方法。
  9. 前記3D位置特定を用いて自律運転および運転安全性を実行することを、さらに含む、請求項1に記載の方法。
  10. 観測共分散Uで、方法i=1、…、mが、前記地表面を推定するために使用され、
    時刻kで融合を
    Figure 0006469905
    として決定することを含む、請求項1に記載の方法。
  11. 平らな地面に対応する前景中の関心領域(ROI)を決定することを含む、プレーン誘導型の緻密なステレオデータを決定することを、さらに含む、請求項1に記載の方法。
  12. 前記{h,n}の値とフレームkおよびk+1の間の相対的なカメラ姿勢{R,t}とについて、ホモグラフィ行列
    Figure 0006469905
    を使用してピクセルごとのマッピングを決定することを、さらに含む、請求項11に記載の方法。
  13. 単一のカメラしか必要としない、車両または歩行者を含む交通参加者の3次元(3D)位置特定を実行する方法であって、
    前記カメラからフレーム単位に画像を取り込むことと、
    それぞれが地表面を推定するためのキューを構成する、前記画像の疎な特徴一致から得られる3D点と、連続フレーム間の緻密なステレオデータと、前記画像上のオブジェクトを取り囲む2次元(2D)オブジェクト境界ボックスとから、前記地表面を推定するためのキュー組み合わせを生成することと、
    前記キュー組み合わせを使用してモノキュラStructure from Motion(SFM)のスケールを補正することと、
    前記モノキュラSFM、前記地表面および前記2Dオブジェクト境界ボックスを組み合わせて3Dオブジェクト位置特定を生成することによって位置特定を実行することと、
    Kを前記カメラに固有のキャリブレーション行列とし、b=(x,y,1)を同次座標の2D境界ボックスの底辺であるものとして、地表面{h,n}:
    Figure 0006469905
    を介して逆投影することとを含み、
    hおよびnは前記カメラに対する前記地表面の高さおよび向きであり、前記画像の疎な特徴一致は、連続する2つのフレームの一方の画像の疎な特徴と他方の画像の疎な特徴との一致である、方法。
  14. 3D位置特定のために、前記モノキュラSFM、前記キュー組み合わせ、およびオブジェクト追跡を組み合わせることを、さらに含む、請求項13に記載の方法。
  15. 前記2Dオブジェクト境界ボックスを追跡し、該追跡した境界ボックスを用いて、背景(非移動オブジェクト)となる画像の領域を決定し、前記モノキュラSFMを使用して前記カメラの姿勢および前記地表面を推定することを、さらに含む、請求項13に記載の方法。
  16. 前記オブジェクトに対して緻密なオプティカルフロー推定を実行することを、さらに含む、請求項13に記載の方法。
  17. 前記3D点、前記緻密なステレオデータおよび2Dオブジェクト境界ボックスを使用して前記地表面を推定することを含む、請求項13に記載の方法。
  18. 単一のカメラと、
    前記カメラからフレーム単位に画像を取り込んで、車両または歩行者を含む交通参加者の3次元(3D)位置特定を行う位置特定手段と、を含み、
    前記位置特定手段が、
    それぞれが地表面を推定するためのキューを構成する、前記画像の疎な特徴一致から得られる3D点と、連続フレーム間の緻密なステレオデータと、前記画像上のオブジェクトを取り囲む2次元(2D)オブジェクト境界ボックスとから、前記地表面を推定するためのキュー組み合わせを生成する手段と、
    前記キュー組み合わせを使用してモノキュラStructure from Motion(SFM)のスケールを補正する手段と、
    前記モノキュラSFM、前記地表面および前記2Dオブジェクト境界ボックスを組み合わせて3Dオブジェクト位置特定を生成することによって位置特定を実行する手段と、
    Kを前記カメラに固有のキャリブレーション行列とし、b=(x,y,1)を同次座標の2D境界ボックスの底辺であるものとして、地表面{h,n}:
    Figure 0006469905
    を介して逆投影する手段と、を含み、
    hおよびnは前記カメラに対する前記地表面の高さおよび向きであり、前記画像の疎な特徴一致は、連続する2つのフレームの一方の画像の疎な特徴と他方の画像の疎な特徴との一致である、位置特定システム。
JP2018011340A 2013-10-30 2018-01-26 適応型グランドプレーン推定を用いた自律運転のためのモノキュラ3d位置特定 Active JP6469905B2 (ja)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US201361897440P 2013-10-30 2013-10-30
US61/897,440 2013-10-30
US201462026061P 2014-07-18 2014-07-18
US201462026184P 2014-07-18 2014-07-18
US62/026,184 2014-07-18
US62/026,061 2014-07-18
US14/451,280 US9189689B2 (en) 2013-10-30 2014-08-04 Robust scale estimation in real-time monocular SFM for autonomous driving
US14/451,280 2014-08-04

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016527382A Division JP2017500542A (ja) 2013-10-30 2014-08-05 適応型グランドプレーン推定を用いた自律運転のためのモノキュラ3d位置特定

Publications (2)

Publication Number Publication Date
JP2018091857A JP2018091857A (ja) 2018-06-14
JP6469905B2 true JP6469905B2 (ja) 2019-02-13

Family

ID=52995514

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016527382A Pending JP2017500542A (ja) 2013-10-30 2014-08-05 適応型グランドプレーン推定を用いた自律運転のためのモノキュラ3d位置特定
JP2018011340A Active JP6469905B2 (ja) 2013-10-30 2018-01-26 適応型グランドプレーン推定を用いた自律運転のためのモノキュラ3d位置特定

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2016527382A Pending JP2017500542A (ja) 2013-10-30 2014-08-05 適応型グランドプレーン推定を用いた自律運転のためのモノキュラ3d位置特定

Country Status (4)

Country Link
US (1) US9189689B2 (ja)
EP (1) EP3063741B1 (ja)
JP (2) JP2017500542A (ja)
WO (1) WO2015065558A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9367922B2 (en) * 2014-03-06 2016-06-14 Nec Corporation High accuracy monocular moving object localization
US9928875B2 (en) * 2016-03-22 2018-03-27 Nec Corporation Efficient video annotation with optical flow based estimation and suggestion
US10248872B2 (en) * 2016-10-19 2019-04-02 Texas Instruments Incorporated Estimation of time to collision in a computer vision system
CN109389645B (zh) * 2017-08-02 2021-01-01 珊口(上海)智能科技有限公司 相机自校准方法、系统、相机、机器人及云端服务器
US10402724B2 (en) * 2017-10-03 2019-09-03 StradVision, Inc. Method for acquiring a pseudo-3D box from a 2D bounding box by regression analysis and learning device and testing device using the same
US11514594B2 (en) 2019-10-30 2022-11-29 Vergence Automation, Inc. Composite imaging systems using a focal plane array with in-pixel analog storage elements
CN111695480B (zh) * 2020-06-04 2023-04-28 重庆大学 基于单帧图像的实时目标检测与3d定位方法
US11710254B2 (en) 2021-04-07 2023-07-25 Ford Global Technologies, Llc Neural network object detection

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6535114B1 (en) * 2000-03-22 2003-03-18 Toyota Jidosha Kabushiki Kaisha Method and apparatus for environment recognition
US7477776B2 (en) * 2004-03-01 2009-01-13 Brainlab Ag Method and apparatus for determining a plane of symmetry of a three-dimensional object
US7384195B2 (en) * 2004-07-09 2008-06-10 Roplast Industries, Inc. Bag with zippered pouch
JP4810893B2 (ja) * 2005-06-20 2011-11-09 株式会社豊田中央研究所 距離計測装置
US7639565B2 (en) * 2007-06-25 2009-12-29 The United States Of America As Represented By The Secretary Of The Navy Point source localization sonar system and method
EP2071515A1 (en) * 2007-12-11 2009-06-17 Honda Research Institute Europe GmbH Visually tracking an object in real world using 2D appearance and multicue depth estimations
JP5151472B2 (ja) * 2007-12-27 2013-02-27 株式会社豊田中央研究所 距離画像生成装置、環境認識装置、及びプログラム
KR101188588B1 (ko) * 2008-03-27 2012-10-08 주식회사 만도 모노큘러 모션 스테레오 기반의 주차 공간 검출 장치 및방법
US9129432B2 (en) * 2010-01-28 2015-09-08 The Hong Kong University Of Science And Technology Image-based procedural remodeling of buildings
KR20130068510A (ko) * 2011-12-15 2013-06-26 한국전자통신연구원 스파스 특징점 기반 워핑과 스테레오 매칭 융합 방법 및 장치

Also Published As

Publication number Publication date
EP3063741A4 (en) 2017-05-24
US20150117709A1 (en) 2015-04-30
EP3063741B1 (en) 2023-12-27
US9189689B2 (en) 2015-11-17
EP3063741A1 (en) 2016-09-07
JP2018091857A (ja) 2018-06-14
JP2017500542A (ja) 2017-01-05
WO2015065558A1 (en) 2015-05-07

Similar Documents

Publication Publication Date Title
JP6469905B2 (ja) 適応型グランドプレーン推定を用いた自律運転のためのモノキュラ3d位置特定
US11461912B2 (en) Gaussian mixture models for temporal depth fusion
US10553026B2 (en) Dense visual SLAM with probabilistic surfel map
CN106940704B (zh) 一种基于栅格地图的定位方法及装置
US9990736B2 (en) Robust anytime tracking combining 3D shape, color, and motion with annealed dynamic histograms
US9070202B2 (en) Moving object localization in 3D using a single camera
JP6794436B2 (ja) 非障害物エリア検出のためのシステムおよび方法
JP6095018B2 (ja) 移動オブジェクトの検出及び追跡
US9625908B2 (en) Methods and systems for mobile-agent navigation
Krull et al. 6-dof model based tracking via object coordinate regression
US20170126977A1 (en) Robust Image Feature Based Video Stabilization and Smoothing
JP5276721B2 (ja) 画像中の障害物を識別する方法および装置
WO2019202397A2 (en) Vehicle environment modeling with a camera
US9424649B1 (en) Moving body position estimation device and moving body position estimation method
JP6349418B2 (ja) 高精度単眼移動によるオブジェクト位置特定
US11887336B2 (en) Method for estimating a relative position of an object in the surroundings of a vehicle and electronic control unit for a vehicle and vehicle
Munoz-Banon et al. Targetless camera-lidar calibration in unstructured environments
US10192141B2 (en) Determining scale of three dimensional information
Panev et al. Road curb detection and localization with monocular forward-view vehicle camera
CN111247526B (zh) 跟踪二维平面上移动的目标物体位置和方向的方法和系统
Fanani et al. Keypoint trajectory estimation using propagation based tracking
KR101766823B1 (ko) 불규칙한 조도 변화에 강건한 영상 기반 주행거리 측정 시스템 및 방법
JP6186072B2 (ja) 単一カメラを用いた3dでの移動物体の位置測定
US11514588B1 (en) Object localization for mapping applications using geometric computer vision techniques
US20200202140A1 (en) Method and device for evaluating images, operating assistance method, and operating device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190116

R150 Certificate of patent or registration of utility model

Ref document number: 6469905

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350