JP2010165352A - 多重3次元ワーピングに基づく物体運動検出システムおよび方法とこのようなシステムを備えた車両 - Google Patents

多重3次元ワーピングに基づく物体運動検出システムおよび方法とこのようなシステムを備えた車両 Download PDF

Info

Publication number
JP2010165352A
JP2010165352A JP2009297596A JP2009297596A JP2010165352A JP 2010165352 A JP2010165352 A JP 2010165352A JP 2009297596 A JP2009297596 A JP 2009297596A JP 2009297596 A JP2009297596 A JP 2009297596A JP 2010165352 A JP2010165352 A JP 2010165352A
Authority
JP
Japan
Prior art keywords
dimensional
scene
sensor
motion
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009297596A
Other languages
English (en)
Other versions
JP5016022B2 (ja
Inventor
Jannik Fritsch
ヤニック・フリッチ
Thomas Michalke
トーマス・ミハルケ
Robert Kastner
ロベルト・カストナー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Research Institute Europe GmbH
Original Assignee
Honda Research Institute Europe GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Research Institute Europe GmbH filed Critical Honda Research Institute Europe GmbH
Publication of JP2010165352A publication Critical patent/JP2010165352A/ja
Application granted granted Critical
Publication of JP5016022B2 publication Critical patent/JP5016022B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】車両の環境(「シーン」)を表現する信号の中で動的物体を検出するための効果的なアプローチを提供する。
【解決手段】車両の内部センサ、および少なくとも1台が3次元センサである外部センサからの信号を供給するステップと、供給された外部センサ信号に基づいて3次元世界座標の中でシーンモデルを生成するステップと、測定された車両の自己運動を考慮して3次元世界座標の中でシーンモデルを予測するステップと、3次元世界座標の中で表現された、シーン表現の中の動的物体の位置および動的物体の運動パラメータをそれぞれ検出するために、予測されたシーンモデルを外部センサ信号に基づく3次元世界座標の中のシーンモデルと比較するステップと、検出された動的物体および動的物体の運動パラメータを記憶するステップと、を含む。
【選択図】図1

Description

本発明は、3次元情報を含むセンサ信号を用いて動的(すなわち、運動)物体を検出する技術に関係し、例えば、ドライバ支援システムで利用できる。
ドライバ支援システムは、車両(自動車、モーターバイク、航空機、ボートなど)、または、交通関係者の快適性および安全性を高めることを目的とする知的車両テクノロジーの制御システムである。このようなシステムの潜在的な用途は、車線逸脱警報と、車線維持と、衝突警報または回避と、適応走行制御と、混雑した交通状況における低速自動化とを含む。
非特許文献12は、このようなシステムの典型的な用途、すなわち、重要な局面において、組織内のインスピレーションと人間の脳の特徴とを探求する、複雑な高性能ドライバ支援システム(ADAS)について説明する。このようなドライバ支援システムの構造は、このようなシステムが現実世界の屋外シナリオにおいて直面させられる典型的な難問を強調して、詳細に記載されている。システムのリアルタイム能力は、システムを試作車両に統合することによって明らかにされる。リアルタイム能力は、システムが運搬車両の自律的な制動を与えるかなり典型的な交通シナリオに適用される。記載されているシステムは、このようなシステムが直面させられる典型的な問題を明らかにする範囲で本発明に関係する。さらに、ドライバ支援における技術的な最先端に関するかなり包括的な背景が与えられる。
したがって、本発明の状況におけるドライバ支援システムは、ドライバによって誘発されるか、または、実行される動作を「支援」することが可能であるが、車両のための制御動作を自律的に開始および実行することもまた可能である。後者の場合に、ドライバ支援システムは制御信号を車両の1台以上のアクチュエータへ出力する。車両は、その意味で、(複数の)支援システムによって与えられるフィードバックを考慮する人間であるドライバによって運転される。
ドライバ支援システムには、車両の環境、車両の状態、およびドライバに関する情報を提供できる。この情報は、例えば、車両の環境を視覚的に感知するセンサによって供給される。
本明細書の中で説明の目的のため使用される本発明の用途は自動車分野である。しかし、本発明はこの用途分野に限定されることがなく、離陸または着陸フェーズにある飛行機、または、移動ロボットのような他の分野にも適用可能である。さらにこれらの分野において、動的物体の検出は安全運転のため極めて重要である。
ドライバ支援システムは、既にドライバのための非常に有用な支援であり、次の数年にさらに一層有用な支援になる。ドライバ支援システムは、人間と共に、かつ、人間の近くで動作し、このことは、ドライバ支援システムが決定を行い、自律的に行為(例えば、車線上の障害物の検出後の自律的制動)を生成する能力があるとき、高い安全性要件をもたらす。車両領域は、動的物体(例えば、自動車、自転車)と、1つ1つが静的シーン要素である静的物体(例えば、駐車中の自動車、道路、建物)とに細分割可能である。
すべての静的シーン要素に対し、システムは、測定の誤り(すなわち、センサのばらつき)に対処する必要があり、測定の誤りの補正のためにある程度の数の効果的な周知のアプローチ(例えば、モデルベース車線マーク検出システム(非特許文献2)のように、ノイズの多い入力データに依存するアプローチをよりロバストにするカルマンフィルタ(非特許文献1))が存在する。
動的シーン要素に関して、センサのばらつきの対処に加えて、物体によって誘発される運動が考慮されなければならない。以下、このような動的物体の運動は、ADAS(高性能ドライバ支援システム、この用語、およびドライバを支援する典型的なADASに関する包括的な背景情報のため要約された上記の非特許文献12を参照のこと)、および感覚装置を積載する自動車の「車両自己運動」に対して「物体運動」と呼ばれる。前記動的物体は、動的物体の予期しない運動が人に被害を与えるかもしれない危険な状況を招く可能性があるので、ドライバ支援システムに対し非常に関連性がある。したがって、動的であるシーン要素に関する情報をロバストに集めるアプローチはドライバ支援システムに対し非常に関連性がある。
シーンがすべての動的物体に対し静的シーン要素および動的シーン要素に細分割されると、物体運動は、ドライバ支援システムの行為生成およびプランニングに物体運動を組み込むためにモデル化(例えば、動的物体の軌道を推定し、動的物体の軌道を衝突緩和モジュールへ組み込みための専用運動モデルの使用)が可能である。
監視分野における視覚ベースのアプローチは動的物体を検出するため異なる画像を使用する。この場合、時点tでの画像は、時点t−1での画像が差し引かれる。しかし、カメラの自己運動のため、差分画像は、図4に示されているように、動的物体を確実に検出できない。車両自己運動は、殆どすべての画像ピクセル位置の変化を引き起こし、車両自己運動と物体運動との間の確実な分離を実行不可能にする。
別のアプローチ(非特許文献6)は、カルマンフィルタに基づいてオプティカル・フローをステレオ・カメラ・システムの視差マップと組み合わせ、画像の中の単一点の3次元位置および3次元速度を与える。これらの単一点は、複数のフレームに亘ってカメラ車両の自己運動を計算するために使用される。しかし、他の物体の運動は、予測2次元ワープピクセル画像と現在画像との間のオプティカル・フロー計算に基づいて計算される。
非特許文献13では、屋内環境において移動する人を検出するシステムが説明されている。このシステムは監視タスクを遂行する移動ロボットによって搬送される。このシステムは、360度監視を可能にする36台のステレオカメラのカメラセットアップに基づいている。
動的物体の検出のための典型的なシステムは、予測画像(ロボットの自己運動を相殺する前の画像のワーピング)と現在の撮影画像との間で、オプティカル・フロー(像平面上の運動の大きさおよび方向を導出する2つの連続画像のピクセルに関する相関)を計算する。このオプティカル・フローは、動的(すなわち、自己推進)物体を含む画像領域に対する零とは異なる。
この典型的なシステムに反して、非特許文献13に記載されたシステムは、シーンの奥行きマップの計算のためのステレオデータに依存する。前のフレームの奥行きマップおよび推測航法を使用して、自己運動が補償され、予測奥行きマップを導く。予測奥行きマップと測定奥行きマップとの間の差を計算すると、動的物体を含む領域に予期しないピークが現れる(画像座標における)差分奥行きマップが得られる。しかし、結果として得られた奥行きマップがどのように後処理されるかに関する疑問は、移動する各物体が2つの領域(新しい位置と前の位置)の奥行きを変化させるので、答えられないままである。比較的静的な屋内シーンでは、簡単な経験則が現在の物体位置を見つける課題を解決するため適用できる場合がある。いまだに、この点は確定していないままである。
非特許文献13のシステムは、動的物体の検出のためのステレオ情報の重要な役割が認識されている範囲で本発明に関係する。しかし、このアプローチは、典型的なオプティカル・フロー・ベースの画像ワーピングアプローチのように、奥行きマップに、したがって、画像座標において効果を奏する。古典的なアプローチに反して、すべての移動する物体が差分奥行きマップに二重に影響を与えるので(前の物体位置および新しい物体位置のピーク、すなわち、どちらの位置がどちらであるかを導出するための情報が差分奥行きマップに存在しない)、対応する課題が生じる。さらに、用途の分野は、人の監視という主要な用途をもつ移動ロボットプラットフォームに関して屋内である。このような特定のタスク、およびかなり構造化された環境の場合、検出タスクはかなり軽減され、検出システムが環境に合わせられることを可能にする(人の高さにおける物体の探索という典型的な物体サイズに関連した制約が利用され、カメラシステムは接近した物体だけを検出するように設計される)。
移動ロボットに搭載された、動的物体の検出のための多少関連したシステムは、非特許文献14に提案されている。提案されたアプローチは、計算された密なオプティカル・フロー場と、較正されたステレオカメラのペアの画像から計算された密なステレオ視差とに基づいている。非特許文献13において説明されているシステムとは異なり、システムは、車両の自己運動を考慮して期待視差マップ(奥行き情報を計算するための生データ)を計算し、ある種の「視差フロー」を計算することにより、期待視差マップを測定視差マップと比較する。残留視差フローを含む領域でのモジュロ・ノイズは動的物体に印を付ける。要約すると、このアプローチは、u画像座標およびv画像座標の変化の他に視差の変化の3次元場である、いわゆる3次元自己フローを計算する(著者によって明示的に記載されているように、これはXYZ方向の3次元座標と混同すべきでない。非特許文献14のパート2を参照のこと)。
動的物体を推定するためオプティカル・フローを使用する別のアプローチは非特許文献7に記載されている。この場合、時点tでの現在の画像は、既知の自己運動を考慮し、全シーンが静的であると仮定して、時点t−1での画像へピクセル毎に逆投影される。その後、オプティカル・フローが画像t−1と、t−1へ逆投影された時点tでの画像とを使用して、動的物体を検出するため使用される。この方法のリソース要求は、各画像ピクセルの変換が予め実行されなければならないので、前述されたアプローチの場合よりさらに高い。さらに、動的物体のオプティカル・フロー検出は横運動だけに適し、動的物体が奥行き方向において縦に運動する場合に不十分な結果を招く。
情報として視差だけを使用する方法は非特許文献8に記載されている。そのアルゴリズムは、ピクセル毎のカルマンフィルタリング法に基づいて前の視差フレームを現在の視差フレームと統合する。したがって、視差の変化(すなわち、奥行き方向における位置変化)がカルマンフィルタのプロセスモデルに追加される。しかし、横運動および垂直運動はモデル化できない。このアプローチは奥行き情報を改善することを目的としているが、前のアプローチが移動する物体に対し不正確な奥行き推定を生成する問題を解決しようとしている。要約すると、このアプローチは、時間積分を適用することにより、誤りが低減された、密な奥行きマップを集めることを目的としている。副産物として、動的物体が検出可能であるが、横物体運動が像平面で起こる場合に限る。
すべてのこれらの方法は物体運動検出、したがって、像平面上のピクセル毎の変化の探索のためのオプティカル・フローに依存する。オプティカル・フローは、リソース要求が多く、その上、特に、画像の境界で誤りやすいことに注意することが重要である。しかし、オプティカル・フローを使うワーピングアプローチの主要な課題および欠点は、自己カメラ車両の運動に対し横方向の物体運動(例えば、前方で道路を横切る自転車)だけが検出できることである。しかし、像平面に測定可能な横運動が存在せず、したがって、オプティカル・フローは存在しないので、車両進路に対し縦方向に向けられた運動は検出できない(例えば、前方で道路を走行する車両が激しく制動し、接近する)。
R.E.Kalman,"A new approach to linear filtering and prediction problems,"Transactions of the ASME−Journal of Basic Engineering,vol.82,no.Series D,pp.35−45,1960. M.Nieto,L.Salgado,F.Jaureguizar,and J.Cabrera,"Stabilization of inverse perspective mapping images based on robust vanishing point estimation,"in IEEE Intelligent Vehicles Symposium,6 2007. K.Konolige,"Small vision system:Hardware and implementation,"in Eighth International Symposium on Robotics Research,1997. Xuming Luan,"Experimental Investigation of Photonic Mixer Device and Development of TOF 3D Ranging Systems Based on PMD Technology",PHD Thesis,2001. www.velodyne.com/lidar H.Badino,U.Franke,C.Rabe and S.Gehrig."Stereo Vision−Based Detection of Moving Objects under Strong Camera Motion".In 1st International Conference on Computer Vision Theory and Applications(VISAPP),Setubal,Portugal.25−28 February,2006. J.Schmudderich,V.Willert,J.Eggert,S.Rebhan,C.Goerick,G.Sagerer and E.Korner."Estimating object proper motion using optical flow,kinematics,and depth information"in IEEE Transactions on Systems,Man and Cybernetics,Part B,Volume 38,Issue 4,Pages 1139−1151,2008. T.Vaudrey,H.Badino and S.Gehrig "Integrating Disparity Images by Incorporating Disparity Rate".In 2nd Workshop "Robot Vision",Auckland,New Zealand,February 18−20,2008. I.N.Bronstein,K.A.Semendjajew,G.Musiol and H.Muhlig,"Taschenbuch der Mathematik",Verlag Harri Deutsch,Frankfurt am Main,1999. B.Jaehne,"Digital image processing",Springer,Berlin,2005. T.Michalke et.al."A Generic Temporal Integration Approach for Enhancing Feature−based Road−detection Systems",IEEE Intelligent Transportation Systems Conference,Beijing,2008. J.Fritsch et.al.:"Towards a Human−like Vision System for Driver Assistance",IEEE Intelligent Vehicles Symposium,Eindhoven,2008. S.Shimizu:"Moving object detection by mobile stereo omni−directional system(SOS)using spherical depth image",Pattern Analysis and Applications,vol.9,no.2−3,pages 113−126,2005. A.Taluder et.al.:"Real−time detection of moving objects from moving vehicles using dense stereo and optical flow",International Conference on Intelligent Robots and Systems(IROS),Japan,2004. P.Rander:"Virtualized reality:Constructing time−varying virtual worlds from real world events",Annual IEEE Conference on Visualization,pages 277−283,1997.
本発明は車両の環境(「シーン」)を表現する信号の中で動的物体を検出するための効果的なアプローチを提案する。
上記目的は独立請求項の特徴を用いて実現される。従属請求項は本発明の主要なアイデアをさらに展開する。
本発明の第1の態様は、例えば、車両のドライバ支援システムにおいてシーン表現の中の動的物体を検出する方法であって、
車両の内部センサ、および少なくとも1台が3次元センサである外部センサからの信号を供給するステップと、
供給された外部センサ信号に基づいて3次元世界座標の中でシーンモデルを生成するステップと、
測定された車両の自己運動を考慮して3次元世界座標の中でシーンモデルを予測するステップと、
3次元世界座標の中で表現された、シーン表現の中の動的物体の位置および動的物体の運動パラメータをそれぞれ検出するために、予測されたシーンモデルを外部センサ信号に基づく3次元世界座標の中のシーンモデルと比較するステップと、
検出された動的物体および動的物体の運動パラメータを記憶するステップと、を含む方法に関係する。
測定された車両の自己運動を考慮して3次元世界座標の中でシーンモデルを予測するステップは、車両の縦速度およびヨーレートのためのセンサから獲得された情報を使用することがある。
測定された車両の自己運動を考慮して3次元世界座標の中でシーンモデルを予測するステップは、以下のステップ、
a)3次元世界座標で計算されたセンサ信号に関して直接的にアイコニック3次元ワーピングを行うステップ、
b)既知の静的物体が独立に取り扱われるシーン知識のトップダウン知識を使用するステップ、
c)センサ信号の中のノイズ(奥行き値の測定されたノイズ)を減少させるため、環境モデルおよび平面モデルの形式のシーン知識の組み込みを可能にする領域ベースの3次元ワーピングを行うステップ、および/または、
d)3次元ワーピング手順の複雑さを軽減するために、着目中の平面の環境エンベロープを使用するステップ
のうちの1つ以上のステップを含むことが可能である。
例えば、回転レーザスキャナのような3次元奥行きセンサからの情報は外部センサ信号を生成するため使用可能である。
例えば、フォトニック・ミクサ・デバイスのような2次元奥行きセンサからの情報はセンサ信号を生成するため使用可能である。
例えば、レーザスキャナのような1次元奥行きセンサからの情報は3次元データを生成するため使用可能である。
衛星ベースのナビゲーションシステムからの情報が3次元データを生成するため、および/または、環境情報を生成するため使用されてもよい。
本発明のさらなる態様は、先行する請求項のいずれかに記載された方法を実施するため設計されたドライバ支援演算ユニットに関係する。
さらなる態様は、このようなドライバ支援演算ユニットを備えている車両に関係する。
さらなる態様は、演算ユニットで実行されるときに上述されているような方法を実施するコンピュータ・プログラム・プロダクトに関係する。
本発明は、モデル生成装置を備えたドライバ支援システムであって、モデル生成装置が、
環境信号をドライバ支援システムに供給する少なくとも1台の3次元センサと、
少なくとも1台の3次元センサの信号に基づいて3次元世界モデルを生成する演算手段、および3次元世界の中のセンサ信号に基づいて動的物体を検出する手段と、
検出された動的物体および動的物体の運動パラメータを記憶する記憶手段と、
検出された動的物体に基づいてドライバ支援動作を実行するかどうかを決定する手段と、
ドライバ支援動作を実行する手段と、を備える、ドライバ支援システムをさらに提案する。
センサはビデオカメラを含むことがある。
ドライバ支援動作は警告メッセージの発行でもよい。
既知の方法に対し、ここに記載されているアプローチは、奥行きデータの他に内部センサデータ(例えば、自己車両速度)だけに基づき、サポートされる物体運動(横、縦)に関する制限は存在しない。
記載されたアプローチは、以下の点で既存のアプローチとは異なる。
計算時間を短縮し、質を高める計算を要求しないオプティカル・フロー(ビデオデータのストリームの処理)が必要とされる。(www.wikipedia.en.orgによれば、「オプティカル・フローまたはオプティック・フローは、観測者(眼またはカメラ)とシーンとの間の相対運動によって引き起こされた仮想シーンの中での物体、表面、およびエッジの明白な運動のパターンである。」)
既知のオプティカル・フロー・ベースのアプローチは、自己車両運動に直交する物体運動(横運動)を検出可能である。それとは異なり、提案されたアプローチは、自己車両の方向(縦運動方向)における物体運動も検出する。
像平面(すなわち、斜視画像の中のピクセルの中)で物体運動を検出するオプティカル・フロー・ベースのアプローチとは異なり、提案されたアプローチは3次元世界座標の中で物体運動の情報(すなわち、メートル単位での大きさおよび方向)を出す。したがって、(ワーピングと呼ばれる)画像ピクセルのピクセル毎の運動を予測する代わりに、記載されたアプローチは、3次元世界座標を直接的に問題とし、予測する(以下では、像平面に関するピクセル毎のワーピングに対して3次元ワーピングと呼ばれる)。
オプティカル・フロー・ベースのアプローチに相反して、動的物体が一旦検出されると、3次元座標の中での動的物体の運動は利用可能である。オプティカル・フロー・ベースのアプローチは像平面だけでピクセル座標の中で物体運動を与える。
本発明のさらなる態様、目的および利点は、添付図面の中の図と併せて解釈されるならば、本発明の好ましい実施形態の以下の詳細な説明を読むとき当業者にとって明白になる。
例えば、スチールカメラまたはビデオカメラによって作られた、シーン、すなわち、車両の環境の密な3次元データを示す図である(3次元位置座標は視覚化の目的のためだけに像平面に投影され、3次元ワーピング手順は、像平面への任意の投影無しで3次元ボクセルクラウド/世界座標における3次元位置を使用する)。 自動車のシングル・トラック・モデルを示す図である。 本発明によるシステムの概要を示す図である。 動的物体を検出する特徴としての差分画像の潜在的な困難さを説明するために重畳された2つの連続画像を示す図である。
用語および定義(用語集)
以下、明細書の全体を通じて使用される用語が定義される。この用語集は本発明のより十分な理解を促進する。
トップダウン知識
より高水準の情報統合を伴った、システム内の他のモジュールに由来する情報であり、例えば、すべての検出された物体を表現する環境モデルである。
ドライバ支援システム(DAS)
典型的な運転作業の他に、危険な状況においてドライバを支援するシステムである。ドイツ交通法(Strassenverkehrsordung、StVO)に従って、DAS反応は制御可能な状態に留まるべきであり、ドライバによる却下の影響力を可能にしなければならない。それに基づいて、完全に自律的な行為生成は市販されているDASの場合には実行できない。多くの場合に自動車の警報システムはDASの実施である。
高性能ドライバ支援システム(ADAS)
多数のモジュールとモジュール間のリンクとを組み込むドライバ支援システムである。すべてのこれらのコンポーネントは、すべてが相互に絡み合わされ、相互作用するセンサと、計算ハードウェアと、動作主体との複雑な枠組みに統合されている。それに対して、従来のドライバ支援システムは、制限された複雑性と、車両の中の他のモジュールとの情報の共有のためのインターフェイスの欠落とによってマークされる。さらに、従来のドライバ支援システムは単一のタスクおよび適用分野(例えば、高速道路)を対象にしている。
環境エンベロープ
X−Z平面(水平位置座標および奥行き)は3次元ボクセルクラウドの寄せ集め部分である。環境エンベロープは3次元領域の中で表現されたままであり(高さYは一定である)、動的物体を検出するため画像に投影されない。したがって、エンベロープは、X−Z平面内の第1の物体への境界線の図解である。高さが異なるX−Z平面の数は変化可能であり、1つ以上のX−Z平面でのある特定の高さ間隔を近似するためにも使用される。環境エンベロープは、すべてのシーン物体の3次元位置座標の部分集合を含む。カメラからのグレー値ピクセルではなく、高さ値Yが再マッピングされる。環境エンベロープは、任意の画像特徴(例えば、色、構造)にも依存することがなく、3次元データだけに基づいて計算される。
外部センサ
3次元奥行きセンサ(例えば、回転レーザスキャナ)、2次元奥行きセンサ(例えば、フォトニック・ミクサ・デバイス)、1次元奥行きセンサ(例えば、レーザスキャナ)、ステレオカメラなどのように、そのような種類の奥行きセンサでもよい。さらに、ナビゲーションシステムも、環境に関する詳細な情報を提供できるので、外部センサと見なすことができる。したがって、ナビゲーションシステムは、現在の周辺の奥行き情報を提供するために現在のGPS位置およびその地図データを使用する仮想外部センサであり得る。一般に、外部センサの意味は、周囲環境の情報を収集/提供するセンサである。
内部センサ
一般に、内部センサは、環境からの情報と独立に車両運動の情報を収集/提供するセンサである。内部センサは、(車輪回転を測定する)単純な速度インジケータから回転の角度のための環状レーザジャイロスコープまで多岐に亘る。
内部センサデータ
内部センサデータは、車両自体の状態および特性を検出するセンサによって生成されるデータである。
未来時/過去時の予測
自己運動物体を検出するため、一般に、2つの予測方法が存在する。一方で、単純なアプローチは、時点t−1でのシーンモデルが未来の次の時間ステップtの中で予測される(前方ワーピング)。その後、予測が測定と比較され、自己運動物体が抽出される。
他方で、現在の時間ステップtの測定は、過去時(または後方ワーピング)と呼ばれる前の時間ステップt−1に投影可能である。そして、前の測定が投影と比較され、自己運動物体が抽出される。
シーンモデル
現在のシーンコンテキスト(例えば、高速道路、田舎道、都市中心部)および現在の周囲環境からの測定のような他の処理モジュールに基づいて、ある種のモデルが学習可能であるか、または、抽出可能である。そこで、高速道路での運転中に、ガードレールが測定と知識組み込みの組み合わせによって抽出可能である。さらに、典型的な幾何学的形状を測定されたデータに適合させるデータ駆動型アプローチが使用可能である。
シーン表現(または3次元表現)
3次元表現は、センサ層から取り出され、単一センサに拘束されない。このため、3次元表現は、3次元グリッド、ボクセルグラフなどでもよい。したがって、3次元表現は周囲環境のある種の部分を、センサ層から切り離された内部メモリにマッピングする。
実施形態の詳細な説明
本発明は、3次元世界座標における環境(「シーン」)の表現を配信するセンサ(例えば、ステレオカメラに由来する視差情報(非特許文献3)、フォトニック・ミクサ・デバイス(非特許文献4)、または、密なレーザスキャナ(例えば、高品位ライダー・センサ・ベロダイン(非特許文献5))に基づいて、動的物体を検出し、物体運動の大きさを計算する新しいロバストな手順である3次元ワーピングアプローチを提案する。
本発明のシステムは、車両の運転方向に環境を感知する奥行きセンサ(例えば、2台のカメラ)を使用する。「フレームアウト」が起こる間に(すなわち、物体が視野から出る間に)、付加的に組み込まれた環境モデルは、カメラの視野の外にあるときに予測される、過去に検出された物体をさらに含む。本発明のシステムは、計算コストがかなり低いので、リアルタイム用途を考慮に入れる。さらに、システムは、システムに予め認識されていない物体が直ちに評価される必要がある徐々に変化する環境における屋外用途のため設計されている。したがって、システムは、例えば、ドライバが事故を防止するために支援システムからのフィードバックに基づいて遅れずに反応することを可能にするため、自動車分野において必要とされる長距離用途のため設計されている。
本発明のシステムは、主として自動車の中に設置されるように設計されているので、天候および/または照明の変化、車両およびその他の動的物体の高速性に対処できる。この点において、本発明のシステムは、例えば、非特許文献13に記載されているような一般的な屋内システムの機能性に勝る。屋内環境での動作は、実行される検出タスクの複雑さを限定する。他方で、このような屋内シーンは非常に安定性があり、3次元構造の点でかなり低い複雑性によってマークされる。高速に移動することが要求されない移動ロボットのような完全に自律的な車両は、豊富な演算リソースを使用可能であるが、厳しいリアルタイム要件は存在しない。さらに、十分に構造化された屋内環境は自動車分野のため利用できない様々な限定的な仮定を許す。この原因は、システムが変化する環境条件下で、複雑な、どちらかといえば構造化されていない環境の中で作動する間に、厳しいリアルタイム要件が存在するためである。したがって、斬新、精巧なアプローチが要求される。
本発明のシステムにおける物体の検出は、単に奥行き画像から導出された画像座標の中ではなく、3次元空間で起こる(奥行きは3次元空間のほんの1つの次元である)。したがって、発明のシステムは、オクルージョン現象が予測ステップの間に存在しないので、3次元座標(例えば、ボクセルクラウド)を使用する。画像座標(球面画像)を使用する従来のシステムでは、オクルージョン現象は問題である(例えば、非特許文献13を参照のこと、オクルージョンは、システムが画像座標系の中で機能するとき、静的物体および動的物体によって引き起こされる)。この問題を解決するアプローチは、動的物体ではなく、静的物体に関して、非特許文献13に明らかにされている。システム全体で(情報を獲得する際に、シーン表現のため、および後続の予測ステップにおいて)3次元座標を使用する利点は、画像データの3次元空間への変換が必要でないことである。
従来のシステムはセンサ層から抽出するのではなく、カメラ座標の中で(像平面上で)直接的に計算を実行し、その計算の結果は別のカメラ画像(カメラ座標における差分奥行き画像)であるが、本発明のシステムは3次元表現に依存する。3次元表現はセンサ層から抽出され、単一のセンサに拘束されない。この意味で3次元表現は、3次元グリッド、ボクセルグラフなどである。しかし、従来のシステムによって獲得される奥行きマップは、本発明の意味では、3次元シーン表現として認めることができない。奥行きマップは画像座標の中で体系づけられ、奥行きマップは、非線形式によって像平面に投影されたシーンのZ座標を含む。それに対して、提案されたアルゴリズムは、例えば、3次元ボクセルクラウドを構築する3次元座標(X、Y、Z)を問題とする。このアプローチの利点は、動的物体の3次元運動パラメータ(運動の大きさ、および3次元方向)が決定できることである。奥行きマップからは、運動パラメータについてのさらなる情報を伴うことなく、動的物体を含む画像領域しか決定できない。
一般的なシステムにおける検出結果は、多くの場合に、奥行きの変化を伴う画像領域である。しかし、収集された結果は曖昧である(すなわち、移動物体が何個存在しているか?元の物体位置と現在の物体位置はどこか?)。これは実施例によって明確にされる。左から右へ移動する人を考える。これは、左側に奥行き増加を、右側に奥行き減少を引き起こす。同じ結果は、(1人がカメラの左側に、もう1人がカメラの右側にいる)2人がカメラまでの距離を正反対に変える場合に測定される。1人が左から右へ移動する場合と同様に、差分奥行きマップは元の物体位置と新しい物体位置にピークを保持する。差分奥行きマップだけに基づいて、この問題は、屋内シナリオのような、十分に構造化された、かなり単純な環境だけで解決可能である。自動車または交通分野のようなより複雑なシナリオの場合、曖昧な差分奥行きマップの解釈は実行不可能である。本発明は、その代わりに、動的物体検出が3次元空間で行われるので、検出された動的物体の曖昧でない3次元運動パラメータ(運動の大きさおよび方向)を導出する。
同様に、従来のシステムは、テクスチャ/エッジを抽出し、傾き復元のための対応探索を行うため必要とされる画像データに依存するが、本発明は、任意の画像データを必要とせずに、奥行き情報だけを必要とする。さらに、カメラのヨー角およびピッチ角は傾きを復元するため推定される必要がない。
本発明は検出可能な物体クラスの内在的な制限がない。あらゆる大きさおよび方向のあらゆる物体の運動がサポートされる。その他のシステムは、移動物体の探索空間を人またはその他の特定の物体クラスに制限するので、これらのアプローチは移動物体の外観(例えば、高さ、幅など)に関してある種の仮定を設ける(設けることができる)。これは、明らかに、自動車分野に適用される発明のシステムに適していない。
狭い場所では、動的物体の検出は、予測された(すなわち、3次元ワープされた)シーンの3次元データと測定されたシーンの3次元データとの比較に基づく。より詳細には、3次元ワーピング手順では、1つの時間ステップにおける(静的物体および動的物体を含む)シーンの3次元世界座標は、3次元座標に関して表現された車両自体の運動を含むように変換される。車両自体の3次元運動は、シングル・トラック・モデルを使用して、両方共に、例えば、自動車の中のCANバス上で典型的に利用可能である車両の縦速度およびヨーレートのためのセンサを使用して獲得できる。以下、前方3次元ワーピング(および括弧内に入れられた後方3次元ワーピング)のための手順が説明される。
より厳密には、ある時間ステップでのシーンの3次元世界座標は、シーンの中のすべての物体が静的であるという仮定の下で、未来に向かって[時間的に後方へ]予測される。シーンの3次元世界座標は、シングル・トラック・モデルに由来する測定された車両自己運動が誘発した縦運動および横運動の他に、ヨーレートに基づいて予測される(図2を参照)。それによって予測された事前3次元世界位置が、次の時間ステップ[前の時間ステップ]における測定された事後3次元世界位置と比較される。3次元ワープされた世界位置と現実3次元位置との間の比較の残差(差分)は、すべての動的シーン要素をマークする。残差はメトリック世界座標(すなわち、3次元物体運動が誘発した位置変化)で与えられる。
さらに、検出された動的物体の対応するピクセル位置は、ピンホール・カメラ・モデルを用いて計算できる。ピンホール・カメラ・モデルに基づいて、所与の3次元世界位置(X、Y、Z)から2次元画像位置(u、v)を計算するための変換式は以下の通りである(式1および2を参照)。ここで、θ、θおよびθは3つのカメラ角である。さらに、t、tおよびtは、座標系の中心からの3つのカメラオフセットである。パラメータvおよびuは、カメラの垂直主点および水平主点である(ほぼ画像の中心である)。パラメータfおよびfは、水平ピクセルサイズおよび垂直ピクセルサイズに正規化された焦点距離である(以下の式の包括的な説明のため非特許文献11を参照。しかし、式は、別の技術的コンテキストにおいて、すなわち、マークされていない道路検出結果の一般的な改良のため使用されている)。
但し、Y=0
および
非特許文献15において取り扱われているアプローチは、特殊効果および仮想現実感の分野により類似し、したがって、知的交通システムを扱う科学分野とはやや異なるが、本発明のため重要であるいくつかの技術的背景が取り上げられている。より詳細には、非特許文献15は、カメラの自己運動の下でワーピングアルゴリズムが直面する典型的な難問について説明している。さらに、ステレオカメラ較正、オプティカル・フロー計算、オクルージョン(ホールが画像ワーピングの結果として表れる)、および3次元座標対画像変換の問題が取り上げられている。これらすべての態様もまた本発明において重要な役割を果たすので、非特許文献15は本発明のサブモジュールを十分理解するための参考文献として役立つ。
以下、図3に視覚化された4つの処理ステップを区別して、3次元ワーピングアプローチについて説明する。
1.測定キューの計算
ここで説明されるアプローチは、入力として、例えば、2台の平行カメラから得ることができる密な3次元データを使用する。このコンテキストにおいて、「密な」は、シーン全体に対しデータが存在することを表す。より詳細には、2台の平行カメラの画像は相関アプローチに基づいて領域毎に比較される。画像の中のすべてのピクセルに対し、視差と呼ばれる水平シフトを決定できる。視差D(u、v)は奥行きZに反比例する(式3を参照)。よって、画像の中のすべてのピクセルに対し、奥行き値が存在する。これに基づいて、密な奥行きマップ(Zマップ)、密な高さマップY、および画像の中のすべてのピクセルの水平位置を含むXマップを計算できる(式4および5を参照し、図1を参照)。式4および5において、tおよびtは座標系と相対的なカメラの位置を定義し、Bはカメラの水平距離(ステレオ基準)であり、vおよびuは水平および垂直ピクセル位置であり、vおよびuは主点を定義し、fおよびfは垂直および水平焦点距離である。
その他の密な奥行きセンサ、例えば、フォトニック・ミクサ・デバイス(非特許文献4)または密なレーザスキャナ(非特許文献5)も同様にシステムの唯一の入力として使用できる。これらのセンサに基づいて、シーンを表現するXマップ、Yマップ、およびZマップ(すなわち、奥行きマップ)が同様に計算できる。したがって、画像データは説明されているアプローチにおいて必要でない。
2.予測キューの計算
計算は、処理されるデータの量に関して、異なる方法の他に、異なる方法の組み合わせで行うことが可能である。アイコニックベース計算、ボクセルベース計算、およびエンベロープベース計算の3つの異なる計算方法がここに提案されている。以下、異なる計算方法が説明される。
概要
第1の計算方法(2.1)は完全にアイコニックに実行される(すなわち、すべての3次元ボクセルが独立に取り扱われる)。より詳細には、これは環境の中のすべての既知点の既知3次元位置が3次元の車両自己運動を考慮して適合させられることを表す。車両の3次元並進および回転は、各点を独立に3次元ワープするため使用される。その後、予測された(3次元ワープされた)点と測定された点とが、残差に基づいて動的物体を決定するために比較され、この比較は3次元空間の中のどのような距離メトリックによっても行うことができる。
第2の計算方法(2.2)はシーンの3次元ボクセルクラウド(すなわち、3次元セグメントのクラウド)を構築する。第1のアイコニックアプローチとは異なり、領域ベースの後処理およびボクセルクラウド内のモデリングが行われる。それによって、近傍ボクセルからの情報が伝搬され、範囲外にあるボクセルを補正する幾何学的3次元物体モデルが導入され、これらの手段はアプローチの全体的な精度を高める。
第3の計算方法(2.3)は、処理を環境の中の1つ(または、数個)の表面に限定することによって問題の複雑性を軽減する。自動車分野において、この表面は道路表面でもよい。この表面上のシーン要素だけが考慮される。この情報に基づいて、環境エンベロープと呼ばれるエンベロープが構築され、問題の複雑性を軽減する。
2.1 アイコニックベース法
時間ステップt−1(後方ワーピングの場合には時点t)におけるすべての点(u、v)の3次元世界位置がマップX(u、v)、Y(u、v)およびZ(u、v)から読み出され(図1を参照)、CANバスからもたらされる自動車の測定された自己運動(並進運動ΔX、ΔY、および回転運動Δθ)によって適合させられる。
したがって、結果は時間ステップt(後方ワーピングの場合には時点t−1)に対し、車両自己運動を考慮する予測された点位置である。あらゆる予測された点位置は、完全に静的なシーンを仮定して3次元ワープされた。点位置は予測キューとして使用される。
2.2 ボクセルベース法
3次元ボクセル(すなわち、3次元点セグメント)クラウドは、シーンの3次元世界座標マップX、YおよびZから構築される(図1を参照)。適切な離散的3次元グリッドに基づいて、ボクセルクラウドはホールを含み、点はセンサのばらつきに起因して誤った場所に置かれる。これらの誤りは、ホールを閉じ、クラウドの中の誤った場所に置かれたボクセルを調整する3次元環境モデルによって改善できる(例えば、表面を決定し、物体モデルを組み入れる)。さらに、分野専用のコンテキスト知識を組み入れることにより、表面は多次元回帰によって決定できる(例えば、非特許文献9を参照)。このようなモデルはホールを閉じ、ボクセル座標を補正(すなわち、移動)するため使用できる。その後、時間ステップt−1(後方ワーピングの場合には時点t)のボクセルクラウドは、測定された車両自己運動に応じて適合させることができる。より詳細には、クラウドは、ΔXおよびΔZだけ並進されると共に、Δθだけ回転させられ、時間ステップt(後方ワーピングの場合には時点t−1)の予測された(すなわち、3次元ワープされた)ボクセルクラウドを生じる。その後、予測されたボクセルクラウドのすべての点位置が予測キューとして使用される。
2.3 領域ベース法(環境エンベロープ)
パート1における測定キューの計算に加えて、動的物体を検出するための領域を形成するある程度の個数の点が抽出される。より詳細には、時間ステップ毎に、Z、X平面の中にエンベロープを発生させる表面が選択される。この表面に基づいて、定義された表面上の最も接近した障害物の距離と水平位置とを表現する曲線が抽出される。
換言すると、この曲線は定義されたY表面上のシーン要素の環境エンベロープである。
この曲線を計算するため、以下の手順が実行される。道路表面に置かれている物体だけに着目しているので、高さ零の近傍内にある高さマップY(u、v)の値だけが考慮される。その後に、このように選択された高さ値Y(u、v)は、水平位置X(u、v)および奥行きZ(u、v)を読み出すことによりX、Z表面を表現するアレイにマッピングされる。導出されたX、Z表面は連結されていない点クラウドを含む。マッピングされた高さ値Y(u、v)は測定キューを形成するスプラインによって連結される。これは、異なる高さをもつある程度の個数の環境エンベロープを使って、かつ、ある種の高さ間隔をさらに使用して実行可能である。
この手順に基づいて、前の時間ステップt−1(後方ワーピングの場合には時点t)の測定された環境エンベロープが計算される。時間ステップt−1(後方ワーピングの場合には時点t)の結果として得られた曲線は、ΔXおよびΔYだけ並進されると共に、Δθだけ回転させられ、時間ステップt(後方ワーピングの場合には時点t−1)の予測された環境エンベロープを発生する。
3.残差の計算
測定キュー(方法1および2の場合の3次元ワープされた点位置(同様に3次元ワープされたボクセルクラウド)、方法3の場合の3次元ワープされた環境エンベロープ)と、予測キューとの間の差分(残差)の計算の結果として、動的物体が存在しなければならない位置の値を含む残差が得られる。さらに、残差から、3次元座標の中での動的物体の相対運動を導出できる。残差の計算のため、あらゆる3次元距離メトリックを適用できる。
方法1および2の場合、残差は、動的物体を保持する領域の他に、3次元座標の中の物体運動の大きさを直接的に定義する。方法3の場合、残りの環境エンベロープは、XおよびZ方向だけの動的物体の運動を定義する(高さYは環境エンベロープ全体に亘って一定として定義される)。対応する世界位置を決定するため、すべての見つけられた動的物体が対応する表面高さにマッピングされる。この結果として、3次元座標の中で、選択された表面(例えば、道路)に位置付けられた直線セグメントが得られる。したがって、これらの直線セグメントは表面に存在するすべての動的物体の下側境界をマークする。
物体の領域を決定するため、像平面は、見つけられた下側物体境界を考慮する(例えば、類似した奥行き値、構造、または色に基づく)ビジョンベースのセグメンテーションアプローチ(非特許文献10を参照)と共に使用できる。
4.後処理
上述の手順が生成するかもしれないアーティファクトに対処するため、2値化された残差に関する形態的演算が実行される(非特許文献10を参照)。これは、残差のより大きい領域だけが動的であると解釈されることを確実にする。さらに、カメラベースの奥行きデータを使用するとき、正規化された相互相関(NCC)に基づくステレオ視差の計算中に、品質マップが導出される。この品質マップは、各ピクセルとその領域とに対するNCC一致がどの程度良好であったかを評価する。したがって、この品質マップは残差の中の値に重みを付けるために使用できる。さらに、車両分野専用のコンテキスト(トップダウン知識)を組み入れることにより、静的であることがわかっているすべての物体(例えば、見つけられた道路セグメント)は選別が可能であり、3次元ワーピング手順を簡単にする。さらに、衛星ベースのナビゲーションシステムからのデータを組み込むことが可能であり、シーンのさらなる知識、例えば、静的なシーン内容の3次元GPS位置を提供する。
上述の計算方法は、以下の表1に要約されているように、これらの計算方法を異なる分野および用途にさらに適用できるようにするか、または、適用できなくする異なる利点および欠点がある。表2は、既存のピクセルベースの2次元ワーピング手順と、ここで提案されている3次元座標に関する3次元ワーピングアプローチとの間の差を要約している。
表1:動的物体を検出する提案された計算方法の比較
表2:オプティカル・フローを用いるピクセルベースの2次元ワーピングと3次元座標に関する3次元ワーピングとの間の概念的な差

Claims (13)

  1. 車両用のドライバ支援システムのシーン表現の中の動的物体を検出する方法であって、
    車両の内部センサ、および少なくとも1台が3次元センサである外部センサからの信号を供給するステップと、
    供給された外部センサ信号に基づいて3次元世界座標の中でシーンモデルを生成するステップと、
    測定された車両の自己運動を考慮して3次元世界座標の中でシーンモデルを予測するステップと、
    3次元世界座標の中で表現された、シーン表現の中の動的物体の位置および動的物体の運動パラメータをそれぞれ検出するために、予測されたシーンモデルを外部センサ信号に基づく3次元世界座標の中のシーンモデルと比較するステップと、
    検出された動的物体および動的物体の運動パラメータを記憶するステップと、
    を含む方法。
  2. 測定された車両の自己運動を考慮して3次元世界座標の中でシーンモデルを予測するステップが、車両の縦速度およびヨーレートのためのセンサから獲得された情報を使用する、請求項1に記載の方法。
  3. 測定された車両の自己運動を考慮して3次元世界座標の中でシーンモデルを予測するステップが、
    a)3次元世界座標で計算されたセンサ信号に関して直接的にアイコニック3次元ワーピングを行うステップと、
    b)既知の静的物体が独立に取り扱われるシーン知識のトップダウン知識を使用するステップと、
    c)センサ信号の中のノイズを減少させるため、環境モデルおよび平面モデルの形式のシーン知識の組み込みを可能にする領域ベースの3次元ワーピングを行うステップと、および/または、
    d)3次元ワーピング手順の複雑さを軽減するために、着目中の平面の環境エンベロープを使用するステップと、
    のうちの1つ以上のステップを含む、請求項1または2に記載の方法。
  4. 回転レーザスキャナのような3次元奥行きセンサからの情報が外部センサ信号を生成するため使用される、請求項1から3のいずれかに記載の方法。
  5. フォトニック・ミクサ・デバイスのような2次元奥行きセンサからの情報がセンサ信号を生成するため使用される、請求項1から4のいずれかに記載の方法。
  6. レーザスキャナのような1次元奥行きセンサからの情報が3次元データを生成するため使用される、請求項1から5のいずれかに記載の方法。
  7. 衛星ベースのナビゲーションシステムからの情報が3次元データを生成するため、および/または、環境情報を生成するために使用される、請求項1から6のいずれかに記載の方法。
  8. 前記請求項のうちのいずれかに記載された方法を実施するため設計された、ドライバ支援演算ユニット。
  9. 請求項8に記載されたドライバ支援演算ユニットを備えている車両。
  10. 演算ユニットで実行されるときに請求項1ないし7のうちのいずれかに記載された方法を実施する、コンピュータ・プログラム。
  11. モデル生成装置を含むドライバ支援システムであって、モデル生成装置が、
    信号をドライバ支援システムに供給する少なくとも1台の3次元センサと、
    少なくとも1台の3次元センサの信号に基づいて3次元世界モデルを生成する演算手段、および3次元世界の中のセンサ信号に基づいて動的物体を検出する手段と、
    検出された動的物体および動的物体の運動パラメータを記憶する記憶手段と、
    検出された動的物体に基づいてドライバ支援動作を実行するかどうかを決定する手段と、
    ドライバ支援動作を実行する手段と、を備える、ドライバ支援システム。
  12. センサがビデオカメラを含む、請求項11に記載のシステム。
  13. ドライバ支援動作が警告メッセージの発行である、請求項11または12に記載のシステム。
JP2009297596A 2009-01-16 2009-12-28 多重3次元ワーピングに基づく物体運動検出システムおよび方法とこのようなシステムを備えた車両 Expired - Fee Related JP5016022B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
EP09150710.3 2009-01-16
EP09150710 2009-01-16
EP09179636.7 2009-12-17
EP09179636A EP2209091B1 (en) 2009-01-16 2009-12-17 System and method for object motion detection based on multiple 3D warping and vehicle equipped with such system

Publications (2)

Publication Number Publication Date
JP2010165352A true JP2010165352A (ja) 2010-07-29
JP5016022B2 JP5016022B2 (ja) 2012-09-05

Family

ID=40999939

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009297596A Expired - Fee Related JP5016022B2 (ja) 2009-01-16 2009-12-28 多重3次元ワーピングに基づく物体運動検出システムおよび方法とこのようなシステムを備えた車両

Country Status (3)

Country Link
US (1) US8233660B2 (ja)
EP (1) EP2209091B1 (ja)
JP (1) JP5016022B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010282615A (ja) * 2009-05-29 2010-12-16 Honda Research Inst Europe Gmbh 3dワーピング手法と固有対象物運動(pom)の検出の組み合わせに基づく対象物の動き検出システム
KR101679741B1 (ko) 2015-05-06 2016-11-28 고려대학교 산학협력단 외곽 공간 특징 정보 추출 방법

Families Citing this family (84)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8682028B2 (en) 2009-01-30 2014-03-25 Microsoft Corporation Visual target tracking
US8577085B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8588465B2 (en) 2009-01-30 2013-11-19 Microsoft Corporation Visual target tracking
US8577084B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8565476B2 (en) * 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US8565477B2 (en) * 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8267781B2 (en) 2009-01-30 2012-09-18 Microsoft Corporation Visual target tracking
US20100195867A1 (en) * 2009-01-30 2010-08-05 Microsoft Corporation Visual target tracking using model fitting and exemplar
KR101735612B1 (ko) * 2010-08-16 2017-05-15 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US9959595B2 (en) * 2010-09-21 2018-05-01 Mobileye Vision Technologies Ltd. Dense structure from motion
US9280711B2 (en) 2010-09-21 2016-03-08 Mobileye Vision Technologies Ltd. Barrier and guardrail detection using a single camera
US8744169B2 (en) * 2011-05-31 2014-06-03 Toyota Motor Europe Nv/Sa Voting strategy for visual ego-motion from stereo
FR2976355B1 (fr) * 2011-06-09 2013-06-21 Jean Luc Desbordes Dispositif de mesure de vitesse et de position d'un vehicule se deplacant le long d'une voie de guidage, procede et produit programme d'ordinateur correspondant.
US8885884B2 (en) 2011-09-19 2014-11-11 Siemens Corporation Motion analysis through geometry correction and warping
EP2574958B1 (en) * 2011-09-28 2017-02-22 Honda Research Institute Europe GmbH Road-terrain detection method and system for driver assistance systems
GB201116958D0 (en) * 2011-09-30 2011-11-16 Bae Systems Plc Use of synthetic overhead images for vehicle localisation
GB201116960D0 (en) * 2011-09-30 2011-11-16 Bae Systems Plc Monocular camera localisation using prior point clouds
GB201116961D0 (en) 2011-09-30 2011-11-16 Bae Systems Plc Fast calibration for lidars
GB201116959D0 (en) 2011-09-30 2011-11-16 Bae Systems Plc Vehicle localisation with 2d laser scanner and 3d prior scans
US8811938B2 (en) 2011-12-16 2014-08-19 Microsoft Corporation Providing a user interface experience based on inferred vehicle state
US9530060B2 (en) 2012-01-17 2016-12-27 Avigilon Fortress Corporation System and method for building automation using video content analysis with depth sensing
US9466215B2 (en) * 2012-03-26 2016-10-11 Robert Bosch Gmbh Multi-surface model-based tracking
KR101429349B1 (ko) * 2012-09-18 2014-08-12 연세대학교 산학협력단 중간 시점 영상 합성 장치 및 방법과 이에 관한 기록매체
US10599818B2 (en) * 2012-10-02 2020-03-24 Banjo, Inc. Event-based vehicle operation and event remediation
US9165196B2 (en) * 2012-11-16 2015-10-20 Intel Corporation Augmenting ADAS features of a vehicle with image processing support in on-board vehicle platform
EP2757527B1 (en) * 2013-01-16 2018-12-12 Honda Research Institute Europe GmbH System and method for distorted camera image correction
HUP1300328A3 (en) 2013-05-23 2017-03-28 Mta Szamitastechnika Es Automatizalasi Ki Method and system for integrated three dimensional modelling
US9349055B1 (en) * 2013-06-26 2016-05-24 Google Inc. Real-time image-based vehicle detection based on a multi-stage classification
US9182236B2 (en) * 2013-10-25 2015-11-10 Novatel Inc. System for post processing GNSS/INS measurement data and camera image data
US9686514B2 (en) 2014-04-10 2017-06-20 Kip Smrt P1 Lp Systems and methods for an automated cloud-based video surveillance system
US10057546B2 (en) 2014-04-10 2018-08-21 Sensormatic Electronics, LLC Systems and methods for automated cloud-based analytics for security and/or surveillance
US9405979B2 (en) 2014-04-10 2016-08-02 Smartvue Corporation Systems and methods for automated cloud-based analytics and 3-dimensional (3D) display for surveillance systems
US11093545B2 (en) 2014-04-10 2021-08-17 Sensormatic Electronics, LLC Systems and methods for an automated cloud-based video surveillance system
US9407880B2 (en) 2014-04-10 2016-08-02 Smartvue Corporation Systems and methods for automated 3-dimensional (3D) cloud-based analytics for security surveillance in operation areas
US9407879B2 (en) 2014-04-10 2016-08-02 Smartvue Corporation Systems and methods for automated cloud-based analytics and 3-dimensional (3D) playback for surveillance systems
US9420238B2 (en) 2014-04-10 2016-08-16 Smartvue Corporation Systems and methods for automated cloud-based 3-dimensional (3D) analytics for surveillance systems
US9426428B2 (en) 2014-04-10 2016-08-23 Smartvue Corporation Systems and methods for automated cloud-based analytics and 3-dimensional (3D) display for surveillance systems in retail stores
US11120274B2 (en) 2014-04-10 2021-09-14 Sensormatic Electronics, LLC Systems and methods for automated analytics for security surveillance in operation areas
US10084995B2 (en) 2014-04-10 2018-09-25 Sensormatic Electronics, LLC Systems and methods for an automated cloud-based video surveillance system
US10217003B2 (en) 2014-04-10 2019-02-26 Sensormatic Electronics, LLC Systems and methods for automated analytics for security surveillance in operation areas
US9407881B2 (en) 2014-04-10 2016-08-02 Smartvue Corporation Systems and methods for automated cloud-based analytics for surveillance systems with unmanned aerial devices
GB201407643D0 (en) * 2014-04-30 2014-06-11 Tomtom Global Content Bv Improved positioning relatie to a digital map for assisted and automated driving operations
US9183459B1 (en) * 2014-05-06 2015-11-10 The Boeing Company Sensor fusion using detector confidence boosting
US9205562B1 (en) 2014-08-29 2015-12-08 Google Inc. Integration of depth points into a height map
EP3040726A1 (en) * 2014-12-29 2016-07-06 General Electric Company Method and system to determine vehicle speed
DK3123260T3 (da) * 2014-12-31 2021-06-14 Sz Dji Technology Co Ltd Selektiv behandling af sensordata
KR101772084B1 (ko) * 2015-07-29 2017-08-28 엘지전자 주식회사 이동 로봇 및 그 제어방법
EP3998456A1 (en) 2015-08-03 2022-05-18 TomTom Global Content B.V. Methods and systems for generating and using localisation reference data
US10332265B1 (en) * 2015-09-30 2019-06-25 Hrl Laboratories, Llc Robust recognition on degraded imagery by exploiting known image transformation under motion
US9824453B1 (en) * 2015-10-14 2017-11-21 Allstate Insurance Company Three dimensional image scan for vehicle
US10635909B2 (en) * 2015-12-30 2020-04-28 Texas Instruments Incorporated Vehicle control with efficient iterative triangulation
CN105628951B (zh) * 2015-12-31 2019-11-19 北京迈格威科技有限公司 用于测量对象的速度的方法和装置
US10165258B2 (en) * 2016-04-06 2018-12-25 Facebook, Inc. Efficient determination of optical flow between images
CN107396037B (zh) * 2016-05-16 2020-04-03 杭州海康威视数字技术股份有限公司 视频监控方法及装置
CN107563256A (zh) * 2016-06-30 2018-01-09 北京旷视科技有限公司 辅助驾驶信息产生方法及装置、辅助驾驶系统
EP3300023A1 (en) 2016-09-21 2018-03-28 Autoliv Development AB Vision system and method for a motor vehicle
US10460511B2 (en) * 2016-09-23 2019-10-29 Blue Vision Labs UK Limited Method and system for creating a virtual 3D model
DE102016118538A1 (de) * 2016-09-29 2018-03-29 Valeo Schalter Und Sensoren Gmbh Verfahren zum Klassifizieren eines Verkehrszeichens in einem Umgebungsbereich eines Kraftfahrzeugs, Rechenvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
EP3312797A1 (en) 2016-10-18 2018-04-25 Autoliv Development AB Vision system and method for a motor vehicle
EP3340173B1 (en) 2016-12-22 2022-02-02 Veoneer Sweden AB Vision system and method for a motor vehicle
DE102017204404B3 (de) 2017-03-16 2018-06-28 Audi Ag Verfahren und Vorhersagevorrichtung zum Vorhersagen eines Verhaltens eines Objekts in einer Umgebung eines Kraftfahrzeugs und Kraftfahrzeug
US10489663B2 (en) 2017-04-24 2019-11-26 Toyota Research Institute, Inc. Systems and methods for identifying changes within a mapped environment
US10679355B2 (en) * 2017-05-02 2020-06-09 Hrl Laboratories, Llc System and method for detecting moving obstacles based on sensory prediction from ego-motion
US10757485B2 (en) 2017-08-25 2020-08-25 Honda Motor Co., Ltd. System and method for synchronized vehicle sensor data acquisition processing using vehicular communication
CN108230254B (zh) * 2017-08-31 2021-07-27 北京同方软件有限公司 一种自适应场景切换的高速交通全车道线自动检测方法
CN109839945B (zh) * 2017-11-27 2022-04-26 北京京东乾石科技有限公司 无人机降落方法、无人机降落装置及计算机可读存储介质
US11100806B2 (en) 2018-01-08 2021-08-24 Foresight Automotive Ltd. Multi-spectral system for providing precollision alerts
US20190354781A1 (en) * 2018-05-17 2019-11-21 GM Global Technology Operations LLC Method and system for determining an object location by using map information
US11163317B2 (en) 2018-07-31 2021-11-02 Honda Motor Co., Ltd. System and method for shared autonomy through cooperative sensing
US11181929B2 (en) 2018-07-31 2021-11-23 Honda Motor Co., Ltd. System and method for shared autonomy through cooperative sensing
KR20200030305A (ko) * 2018-09-12 2020-03-20 삼성전자주식회사 영상 처리를 위한 학습 데이터 생성 방법, 영상 처리 방법, 및 그 장치들
US11312379B2 (en) * 2019-02-15 2022-04-26 Rockwell Collins, Inc. Occupancy map synchronization in multi-vehicle networks
US20220126864A1 (en) * 2019-03-29 2022-04-28 Intel Corporation Autonomous vehicle system
US11636715B2 (en) * 2019-12-24 2023-04-25 GM Cruise Holdings LLC. Using dynamic triggers in dangerous situations to view sensor data for autonomous vehicle passengers
US11873000B2 (en) 2020-02-18 2024-01-16 Toyota Motor North America, Inc. Gesture detection for transport control
US11055998B1 (en) 2020-02-27 2021-07-06 Toyota Motor North America, Inc. Minimizing traffic signal delays with transports
US11290856B2 (en) 2020-03-31 2022-03-29 Toyota Motor North America, Inc. Establishing connections in transports
US20210304595A1 (en) 2020-03-31 2021-09-30 Toyota Motor North America, Inc. Traffic manager transports
US20220329737A1 (en) * 2021-04-13 2022-10-13 Okibo Ltd 3d polygon scanner
US11398255B1 (en) 2021-05-26 2022-07-26 Flawless Holdings Limited Modification of objects in film
US11715495B2 (en) * 2021-05-26 2023-08-01 Flawless Holdings Limited Modification of objects in film
CN113592865B (zh) * 2021-09-29 2022-01-25 湖北亿咖通科技有限公司 三维地图的质检方法、设备及存储介质
WO2024073088A1 (en) * 2022-09-30 2024-04-04 Tesla, Inc. Modeling techniques for vision-based path determination

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004056763A (ja) * 2002-05-09 2004-02-19 Matsushita Electric Ind Co Ltd 監視装置、監視方法および監視用プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7266220B2 (en) * 2002-05-09 2007-09-04 Matsushita Electric Industrial Co., Ltd. Monitoring device, monitoring method and program for monitoring
KR100471268B1 (ko) * 2002-10-28 2005-03-10 현대자동차주식회사 차간거리 측정 방법
US7446798B2 (en) * 2003-02-05 2008-11-04 Siemens Corporate Research, Inc. Real-time obstacle detection with a calibrated camera and known ego-motion
US7764808B2 (en) * 2003-03-24 2010-07-27 Siemens Corporation System and method for vehicle detection and tracking
EP2383713B1 (en) * 2006-12-06 2013-05-29 Mobileye Technologies Limited Detecting and recognizing traffic signs
US8422741B2 (en) * 2007-08-22 2013-04-16 Honda Research Institute Europe Gmbh Estimating objects proper motion using optical flow, kinematics and depth information

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004056763A (ja) * 2002-05-09 2004-02-19 Matsushita Electric Ind Co Ltd 監視装置、監視方法および監視用プログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010282615A (ja) * 2009-05-29 2010-12-16 Honda Research Inst Europe Gmbh 3dワーピング手法と固有対象物運動(pom)の検出の組み合わせに基づく対象物の動き検出システム
KR101679741B1 (ko) 2015-05-06 2016-11-28 고려대학교 산학협력단 외곽 공간 특징 정보 추출 방법
US9727978B2 (en) 2015-05-06 2017-08-08 Korea University Research And Business Foundation Method for extracting outer space feature information from spatial geometric data

Also Published As

Publication number Publication date
US8233660B2 (en) 2012-07-31
US20100183192A1 (en) 2010-07-22
EP2209091B1 (en) 2012-08-08
JP5016022B2 (ja) 2012-09-05
EP2209091A1 (en) 2010-07-21

Similar Documents

Publication Publication Date Title
JP5016022B2 (ja) 多重3次元ワーピングに基づく物体運動検出システムおよび方法とこのようなシステムを備えた車両
US11138751B2 (en) Systems and methods for semi-supervised training using reprojected distance loss
KR102275310B1 (ko) 자동차 주변의 장애물 검출 방법
US11816991B2 (en) Vehicle environment modeling with a camera
EP2256690B1 (en) Object motion detection system based on combining 3D warping techniques and a proper object motion detection
US8564657B2 (en) Object motion detection system based on combining 3D warping techniques and a proper object motion detection
KR102508843B1 (ko) 서라운드 뷰 영상에서 차량의 자차 동작을 산정하는 방법 및 장치
JP3719095B2 (ja) 挙動検出装置および勾配検出方法
JP5926228B2 (ja) 自律車両用の奥行き検知方法及びシステム
JP6574611B2 (ja) 立体画像に基づいて距離情報を求めるためのセンサシステム
JP6743171B2 (ja) 自動車両の道路付近の物体を検出するための方法、コンピュータデバイス、運転者支援システム、及び、自動車両
US11010592B2 (en) System and method for lifting 3D representations from monocular images
US11904843B2 (en) Autonomous parking systems and methods for vehicles
US11645364B2 (en) Systems and methods for object detection using stereovision information
Li et al. Pitch angle estimation using a Vehicle-Mounted monocular camera for range measurement
Sun et al. Detection and state estimation of moving objects on a moving base for indoor navigation
Jo et al. Real-time Road Surface LiDAR SLAM based on Dead-Reckoning Assisted Registration
Van Crombrugge et al. Fast Ground Detection for Range Cameras on Road Surfaces Using a Three-Step Segmentation
JP2024092716A (ja) 移動体システム及びオルソ画像地図生成方法
JP2024075351A (ja) 障害物マップ作成システム、障害物マップ作成方法及び障害物検知システム
Deigmoeller et al. Monocular rear approach indicator for motorcycles
Gonzalez et al. Transitioning control and sensing technologies from fully-autonomous driving to driver assistance systems
Wang et al. Rapid tracking for autonomous driving with monocular video
Lin et al. Experimental Implementation of a Windshield Warning System on an Actual Vehicle

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110913

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120529

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120607

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150615

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5016022

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees