JP5124592B2 - 車両を検出および追跡するためのシステムおよび方法 - Google Patents

車両を検出および追跡するためのシステムおよび方法 Download PDF

Info

Publication number
JP5124592B2
JP5124592B2 JP2009546431A JP2009546431A JP5124592B2 JP 5124592 B2 JP5124592 B2 JP 5124592B2 JP 2009546431 A JP2009546431 A JP 2009546431A JP 2009546431 A JP2009546431 A JP 2009546431A JP 5124592 B2 JP5124592 B2 JP 5124592B2
Authority
JP
Japan
Prior art keywords
vehicle
tracking
detection
detector
detectors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009546431A
Other languages
English (en)
Other versions
JP2010517139A (ja
Inventor
ツゥ イン
バラトフ グレゴリー
ケーラー トールステン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Automotive GmbH
Siemens Corp
Original Assignee
Continental Automotive GmbH
Siemens Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Automotive GmbH, Siemens Corp filed Critical Continental Automotive GmbH
Publication of JP2010517139A publication Critical patent/JP2010517139A/ja
Application granted granted Critical
Publication of JP5124592B2 publication Critical patent/JP5124592B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

関連出願の相互参照
本出願は2007年1月18日提出の暫定出願第60/885,479号に基づいており、この暫定出願の全内容は参照により開示に含まれる。
背景技術
1.技術分野
本開示は車両検出に、より詳しくは、移動単眼カメラから車両を検出および追跡するためのシステムおよび方法に関する。
2.関連技術の説明
車両の安全と利便性のための機能は重要であり、成長しつつある技術分野である。移動車両に取り付けられたビデオカメラの使用により、ビデオ信号をコンピュータビジョン技術により解析して、車両オペレータに、進歩した運転者支援、さらには、救命サポートさえも提供することが可能になる。例えば、ビデオ信号および/または他のセンサデータを解析することにより、車両オペレータに潜在的な障害物や危険を警告したり、あるケースでは、車両制御を自動アシストすることもできる。
移動中は、潜在的な障害物や危険として、歩行者や他車両のような路面上に現れる物体が含まれる。他車両は特有の危険を示すことが多いため、他車両の検出と追跡は、コンピュータビジョンに基づいた安全および利便性の機能の重要な一部分である。
したがって、例えば車両検出などの障害物検出は、移動車両内または移動車両上に配置されたビデオカメラからのビデオ信号を受け取り、走行シーンから先行車を認識し追跡する。この情報はその後、例えば適応型クルーズコントロール、前方衝突回避、および車線変更支援などの1つまたは複数の安全性および利便性機能によって使用される。
車両の追跡および検出に取り組むために、多くのアプローチが開発されてきた。障害物検出法の1つのカテゴリは動き分析を用いる。この種の方法では、ホスト車両内のビデオカメラの動きが把握されるので、動かない道路を基準として他の物体の動きベクトルを求める。静止した道路に対して動いていると判定された物体は、潜在的な障害物として識別され、相応に監視される。
動き分析を用いた障害物検出のアプローチは画像の雑音と照明の変化に特に敏感である。また、動き分析単独では検出された物体を分類することができない。
別のアプローチでは、3D多面体モデルを使用して、監視設定で車両の検出と追跡が行われる。目標車両は長さパラメータによって規定される辺から構成された2Dビュースケッチに描写される。このアプローチでは、監視されるゾーンは静止していなければならない。したがって、カメラと自車両は動いていない。カメラと自車両がともに動いていれば、背景差分と変化検出の技法を使用しても、変化する交通シーンから目標車両を分離することはできない。
さらに別の公知のアプローチでは、遠くの車両を、その車両の水平および垂直のエッジを検出し、アスペクト比をチェックし、この車両と所定のテンプレートとの相関をとることにより、検出および識別する。カメラパラメータが使えるならば、ホスト車両(すなわち自車両)から検出された車両までの距離を透視投影モデルを使用して推定することができる。いくつかのケースでは、検出は特徴の選択と追跡から始まる。追跡された特徴はシーン内の種々の物体におおよそ対応するクラスタに分けられる。車両はエッジの発見により識別され、確認される。車両の様々なカテゴリを区別するには、アスペクト比に基づいた単純な車両分類方式が用いられる。 別の複数のアプローチでは、確率モデルを用いて、車両境界の周りのエッジの強さがモデル化される。これらのアプローチでは、車両検出は、エッジからバウンディングボックスの位置を同定し、エッジモデルを用いて車両の存在を検証することにより実施される。検出された車両はその後、拡張カルマンフィルタを使用して追跡される。
車両検出アルゴリズムの第2のカテゴリは、車両クラスと非車両クラスを含む2クラスパターン分類問題として検出を取り扱う。車両クラスに関する経験的記述を用いる代わりに、これらのアルゴリズムは画像パッチが車両を含んでいるか否かを判別するために分類関数を使用する。オフラインでの訓練プロセスを通して、分類誤差が最小となる最適な分類関数が多数の車両および非車両の事例から学習される。訓練プロセスは訓練事例の中での車両外観の変動を考慮に入れている。エッジ、形状およびテンプレートを用いた経験的な車両モデルに比べて、訓練・分類アプローチはより信頼できる検出結果をもたらす。
あるアプローチでは、車両検出アルゴリズムが、マルチスケール仮説生成と、外観に基づく仮説検証の2つのステップで実施される。外観に基づく仮説検証は、ウェーブレット特徴抽出アプローチとサポートベクターマシーン(SVM)を分類器として仮説を検証する。別のアプローチでは、SVM分類器をオプティカルフローに基づく追跡器に組み込んだサポートベクター追跡(SVT)法が導入される。連続フレーム間の輝度差の関数を最小化する代わりに、SVTは検出結果が相応するビデオフレーム内で最も高い信頼スコアを有するようにSVMスコアを最大化する。
これらのアプローチでは、分類器の応答は前フレームから検出された車両位置の周りの近傍領域上で計算される。分類器の応答が最大となる場所が現フレームにおける車両の位置と見なされる。このような検出法の焦点は正確かつ効率的な車両検出器(分類器)を形成することにある。追跡は個々のフレームからの検出結果を時間的な走行軌跡に結び付けるデータ結合のプロセスと考えられる。
それゆえに、先行車の検出および追跡のための有効かつ効率的なシステムと方法への需要が存在する。
発明の概要
車両を検出および追跡するための方法が、複数のフレームを含むビデオデータを取得し、取得したビデオデータの第1フレームを1つまたは複数の車両検出器と対比して車両仮説を形成し、一連のcoarse-to-fine制約を用いて車両仮説を剪定および検証して車両を検出し、1つまたは複数の車両検出器との形状テンプレートマッチングを融合することにより、取得したビデオデータの1つまたは複数の後続フレーム内で、検出した車両を追跡することを含む。
ビデオデータは移動中のホスト車両に取り付けられたカメラを用いて取得される。上記車両検出器のうちには、クラス固有の検出器が少なくとも1つ含まれていてよい。上記車両検出器のうちには、乗用車両固有の検出器が少なくとも1つ含まれていてよい。上記車両検出器のうちには、トラック固有の検出器が少なくとも1つ含まれていてよい。上記車両検出器のうちには、L字形コーナ部とその鏡映形コーナ部のそれぞれの検出器が含まれていてよい。
一連のcoarse-to-fine制約には、車両左低部と車両右低部の事例から学習した車両部分検出器が含まれていてよい。車両部分検出器の後に方向ヒストグラム制約が続くようにしてよい。また、方向ヒストグラム制約の後にカスケード乗用車/トラック検出器が続くようにしてよい。
車両仮説は、車両仮説の形成に使用される1つまたは複数の車両検出器とは異なる第2の1つまたは複数の車両検出器によって剪定および検証してもよい。
車両検出器の応答は時系列的に蓄積される。検出された車両は後続フレーム内でカーネルに基づく確率的な形状追跡器によって追跡することができる。このカーネルベースの確率的な形状追跡器は、画像領域内の特徴点を前フレームの相応するターゲットから抽出した1つまたは複数の形状テンプレートとマッチングすることにより車両の動きを推定する。形状テンプレートは一連の零交差点から構成される。零交差点はその位置と勾配ベクトルにより記述される。
画像領域内の特徴点と形状テンプレートのマッチングは、零交差点上でカーネルに基づくノンパラメトリック密度推定を最適化することにより行うことができる。零交差点上でカーネルに基づくノンパラメトリック密度推定を最適化することにより、車両動きパラメータの複数のモードが生じる。車両動きパラメータの単一の最良モードは、カーネルに基づくノンパラメトリック密度推定の最大関数値を有するモードであって、しかも車両検出器からの応答が予め選ばれた値よりも高くなるようなモードとして決定される。ターゲット外観のフレーム間分散を反映させるために、形状テンプレートを更新してもよい。
この方法はさらに検証ステップと追跡ステップの結果をまとめて、追跡を維持するかまたは終了するかを決定することも含む。複数の車両を同時に追跡してもよい。第1ビデオフレームは複数の解像度からなる画像ピラミッドとして表すことができる。車両検出仮説を形成する際、比較的小さく見える車両の検出は比較的高い解像度で行い、比較的大きく見える車両の検出は比較的低い解像度で行うようにしてよい。追跡は複数の解像度で行ってもよい。
一連のcoarse-to-fine制約を用いて車両検出仮説を検証する際、1つまたは複数の要素検出器を使用してよい。検証された車両仮説はパノラマ車両検出器を使用してさらに検証してもよい。テンプレートに基づく追跡は検出された車両を1つまたは複数のフレーム内で追跡するために使用することができる。テンプレートに基づく追跡はカーネルに基づく確率的な形状追跡を使用するものであってよい。
車両検出および追跡のためのシステムは、複数のフレームを含むビデオデータを取得するために移動ホスト車両に取り付けられたカメラと、車両検出仮説を形成するために、取得したビデオデータの第1フレームを1つまたは複数の車両検出器と対比し、車両を検出するために車両検出仮説を検証し、検出した車両を取得したビデオデータの1つまたは複数の後続フレーム内で追跡するための中央追跡器を含む。
上記の複数の車両検出器は、乗用車向けまたはトラック向けの少なくとも1つの専用検出器を含んでいてよい。第1ビデオデータは複数の解像度からなる画像ピラミッドとして表すことができ、追跡は複数の解像度で行われる。テンプレートに基づく追跡は検出した車両を1つまたは複数のフレームの中で追跡するために使用することができ、カーネルに基づく確率的な形状追跡を使用するものであってよい。
コンピュータシステムが、コンピュータシステムにより可読であり、かつ車両検出および追跡のための方法ステップを実行するプロセッサにより実行可能な命令からなるプログラムを実体化したものであるプログラム記憶装置と、プロセッサとを含むものとしてもよい。上記方法は、複数のフレームを含むビデオデータを取得すること、車両検出仮説を形成するために、取得したビデオデータの第1のフレームを1つまたは複数の車両検出器とマッチングすること、および検出した車両を取得したビデオデータの1つまたは複数の後続フレーム内で追跡することを含んでいる。
車両検出仮説は車両検出のための一連のcoarse-to-fine制約を用いて検証することができる。上記の複数の車両検出器は、乗用車向けまたはトラック向けの少なくとも1つの専用検出器を含んでいてよい。第1ビデオデータは複数の解像度からなる画像ピラミッドとして表すことができ、追跡は複数の解像度で行ってよい。テンプレートに基づく追跡は検出した車両を1つまたは複数のフレームの中で追跡するために使用することができ、カーネルに基づく確率的な形状追跡を使用するものであってよい。
本発明の1つの実施例による検出および追跡フレームワークを説明するフローチャートである。 本発明の別の実施例による検出および追跡フレームワークを示すフローチャートである。 本発明の1つの実施例による小規模から大規模のさまざまな検出関心領域を示している。 本発明の1つの実施例による仮説生成(HG)、仮説剪定、および仮説検証(HV)のプロセスを示すフローチャートである。 仮説処理に対する代替的なアプローチを示すブロック図である。 本発明の1つの実施例によるコーナ部検出フィルタにより生成される先行車コーナ部の仮説を示している。 本発明の1つの実施例による部分検出器によって使用される画像領域を示している。 本発明の1つの実施例による画像勾配の向きのヒストグラムを計算するために使用されるU字形の画像領域を示している。 本発明の1つの実施例による車両追跡のプロセスを示すフローチャートである。 本発明の1つの実施例によるローカルターゲット動き推定のプロセスを示すフローチャートである。 本開示の実施形態による方法および装置を実施することのできるコンピュータシステムの一例を示している。 本発明の1つの実施例による検出および追跡フレームワークを示すフローチャートである。
図面の詳細な説明
図面に示されている本開示の実施例を説明するにあたり、明瞭性のために特殊な用語を用いる。しかし、本開示はこのようにして選ばれた特殊な用語に限定されるものではなく、個々の特定の要素は同様に動作するすべての技術的等価物を含むものと理解しなければならない。
本発明の実施例はビデオ車両検出および追跡のためのシステムと方法を提供する。検出および追跡は取得したビデオデータを一連の既知の車両検出器とマッチングすることにより行われる。車両検出器は車両の特定のクラスを示す一連の特徴であり、したがって車両の特定のクラスはビデオ画像の一局面を一連の既知の車両検出器とマッチングすることによりビデオ画像内で識別される。車両識別子はビデオ画像からの訓練データを用いてオフラインで訓練される。
勾配画像または対数勾配画像(すなわち、対数画像の勾配)のいずれかの勾配に基づいた特徴は、車両の輪郭および内部構造を特徴付けるために用いてもよく、積分画像を使用して効率的に実現することができる。部分/乗用車/トラック検出器では種々の特徴が使用されるので、車両検出器は検出精度を上げるために車両の特定のクラスに固有のものとしてよい。
部分/乗用車/トラック検出器は訓練データを用いてオフラインで訓練してもよい。強分類器は、部分/乗用車/トラック検出器を訓練するためにブースティングフレームワークに導入された複数の弱分類器から構成される。個々の特徴によって定義された弱分類器に加えて、補助的な弱分類器を定義するために、特徴のペアに関する弱決定の合成を用いてもよい。複合弱分類器を用いたブースト分類器は同レベルの分類正確度に達するのにより少ない特徴で済む。複合弱分類器に係わる訓練アルゴリズムは公知のものであってよい。
弱分類器を定義する際、複数の決定株を使用してよい。このアプローチは、弱分類器を定義するための単一閾値スキームにとって代わりうる。この新しいスキームは分類エラーを減らし、結果的に同じレベルの正確度を達成するのにより少ない弱分類器で済む。
車両検出器をオフラインで訓練した後、訓練された車両検出器は、オンライン車両検出として知られる他の先行車両の識別および追跡のためにホスト車両内で使用される車両検出および追跡システムに組み込まれるようにしてよい。
本発明のいくつかの実施例では、部分検出器を用いて、例えば地面に接した2つの低いコーナ部などの車両コーナ部の仮説を生成するよりも格段に速い単純なコーナ部検出アプローチが採用される。部分検出器は車両部分のクラスを非車両部分のクラスから別ける2値分類器としてよい。これら部分検出器は車両の事例と非車両の事例とから学習される。
本発明のいくつかの実施例では、一連のcoarse-to-fine制約を用いて仮説検証(HV)が行われる。このcoarse-to-fine制約には、幾何学制約、1クラス制約、非車両仮説を排除する分類器の連鎖、およびブースト車両検出器が含まれうる。左右の車両コーナ部の仮説をまとめて、車両サイズに関する制約を満たすペアにしてもよい。また、単純なコーナ部検出の後により計算コストのかかる部分検出器を適用して、非車両からの仮説を排除してもよい。また、部分検出器の後に、比較的コストの高い方向ヒストグラム制約の手続きを適用して、さらに非車両仮説を排除するようにしてもよい。最後に、方向ヒストグラムチェックの後に、カスケードされた乗用車/トラック検出器の任意選択的なステップを適用して、さらに非車両仮説を除去してもよい。
乗用車とトラックとでは、仮説検証(HV)に使用する検出器が異なっていてよい。厳格な車両分類が必要な場合には、さらなる分類アプローチを用いてもよい。
本発明のいくつかの実施例では、ビデオ画像内の物体の特徴点を、先行ビデオフレームで抽出された相応するターゲットから抽出される形状テンプレートとマッチングすることにより、車両が追跡される。形状テンプレートはターゲット外観のフレーム間分散を反映させるために更新される。テンプレート更新プロセスは外観に基づく検出によりガイドされる。この外観ベースの車両検出器はその後、追跡結果の検証にも使用しうる。
本発明のいくつかの実施例では、フレームごと車両検出とフレーム間車両追跡の融合を行う統合型の検出追跡アプローチが用いられる。統合型の検出追跡では、画像シーケンスの時間的な関連を利用して、フレームごと検出の整合性と正確度が高められる。ターゲット車両は複数のフレームを通して動くので、その外観は経時的に整合しており、連続する複数のフレームにわたって画像領域のマッチングに反映される。時間的関連はターゲットの検出および位置同定にとって必要な制約条件を課す。時間的関連の利用により、単一フレーム検出はフレームごとの証拠の蓄積を通して、連続する複数のフレームにおける車両走行軌跡の検出へと拡張される。
また、フレームごとの車両検出により、時間的追跡が車両ターゲットから逸脱せず(例えば、追跡法一般に付随するドリフト問題)、車両ターゲットが視野から消えないことが検証される。したがって、見失ったまたは無効な走行軌跡を終了するメカニズムで追跡を補うことができる。
本明細書で説明する基本的な検出および追跡機能は、適用要件に合わせて柔軟に複数の仕方で使用または組合せてよい。以下に、2つの例を適用例を示す。(1)交通渋滞アシスト用のカメラシステムでは、車載前方監視カメラシステムを用いて、自車両の前を行く単一車両が検出される。本発明のいくつかの実施例は、すぐ前を走る車両の時間的な走行軌跡を維持し、自車両からの距離と車線の割当てを決定するために使用する。(2)適応型クルーズコントロールおよびプリクラッシュ警告の用途のLicamシステムでは、ビデオ測定を提供するために、本発明のいくつかの実施例をビデオコンポーネントとして、例えばビデオ車両検出モジュール(VVD)として使用する。視野内の他車両を検出および追跡し、ホスト車両に対する先行車両の位置を求めるために、中央検出追跡エンジンを導入して、ビデオ測定をライダー測定と融合する。VVDが中央検出追跡エンジンによって指定された関心領域(ROI)のリスト内で単一または複数の車両検出を行う。検出結果に、車両の2D位置と信頼スコアを含ませる。また、検出結果を中央検出追跡装置に送る。
通過車両を検出するための特定のアルゴリズムは公知であるから、ここでは取り上げない。隣接車線を跨いで通過する車両の粗い追跡およびフラギングのためのさらなるアルゴリズム拡張は公知であるが、ここで取り上げる。このようなアルゴリズムを本明細書で論じる本発明の実施例に適用してよい。
夜間車両検出および追跡のための準備アルゴリズムは公知であるので、ここでは詳しく説明しない。しかし、このようなアルゴリズムを本明細書で論じる本発明の実施例に適用してもよい。
同様に、昼夜融合のためのアルゴリズムも公知であり、現在開発中である。このようなアルゴリズムの例は、D. Acunzo, Y. Zhu, B. Xie, G. Baratoff, "Context-Adaptive Approaches for Vehicle Detection Under Varying Lighting Conditions," IEEE ITSC 2007において論じられており、本明細書に参照として取り入れられている。
オフライン学習、夜間車両検出および追跡、通過車両の検出のアルゴリズムも同様に公知である。
図1は、本発明の1つの実施例による検出および追跡フレームワークを示すフローチャートである。先行車両の後を追う運転者を支援する場合には、単一車両の検出および追跡が行われる。車両の検出および追跡には、検出ステップ(S12)、追跡ステップ(S13)およびアセンブルステップ(S14)の3つの主要機能が含まれている。検出ステップ(S12)では、車両が検出されていない場合(ステップS11のNo)には、新たなターゲットを検出するための機能が実行される。車両が検出されている場合(ステップS11のYes)には、追跡ステップ(S13)が実行され、車両追跡が新しいフレームへと延長される。検出ステップ(S12)と追跡ステップ(S13)の結果はアセンブルステップ(S14)で処理される。アセンブルステップ(S14)では、推論が行われて、単一車両の走行軌跡が開始、維持または終了される、および/または走行軌跡ステータスが更新される。
複数車両を検出および追跡するために、このフレームワークを、例えば図2に示されているように、変更してもよい。図2は、本発明の別の実施例による検出および追跡フレームワークを示すフローチャートである。入来フレームの各々について、既存の車両走行軌跡を新たなレームへと延長するために追跡ステップ(S21)が実行され、次に、新たな車両を認識するために検出ステップ(S22)が実行される。最後に、アセンブルステップ(S23)が実行され、検出および追跡されているターゲットの履歴と空間的関係を調べることにより、検出と追跡の結果が融合される。
以下で論じる実施例では、ホスト車両の前方の単一車両が検出および追跡される。この例は図解の容易さのために為されたものであり、任意の数の車両をホスト車両のどの側から追跡してもよいことを理解されたい。
図3には、小規模から大規模のさまざまな検出ROIが示されている。以下に、図3を詳細に説明する。
車両検出のタスクは、例えば前フレームから識別されていない車両などの、新たな車両の外観を検出することである。図4は、本発明の1つの実施例による仮説生成(HG)、仮説剪定、および仮説検証(HV)のプロセスを示すフローチャートである。ここでは、車両仮説を素速く生成し、仮説を剪定し、より正確でありながら高価な分類器によって残りの仮説を検証するために、単純かつ柔軟なメカニズムを使用する。このアプローチの詳細については、図4を参照しつつ、以下で非常に詳しく説明する。
車両の観察されたサイズはその車両と自車両との間の距離に応じて大幅に変化しうるので、本発明のいくつかの実施例では、任意のサイズの車両を1つの画像フレーム内で検出する。任意のサイズの車両の検出を可能にするため、画像フレームを複数の解像度レベルからなる画像ピラピッドによって表してもよい。小さな車両外観(例えば、遠くの車両)の検出は元々の解像度で行い、大きな車両外観(例えば、近い車両)の検出は解像度を下げて行う。低解像度画像はガウシアンフィルタの使用により、および/または例えば2によるダウンサンプリングにより生成される。解像度の低減に複数のレベルがあって、後続の各画像の解像度がさらに低減されているようにしてもよい。したがって、各画像フレームについて、さまざまな解像度を有する画像のピラミッドが存在する。このピラミッドは大きな車両を低い解像度で追跡するのにも役立つ。
例えば、ピッチ角、ロール角、ヨー角、路面に対するカメラ位置および内部的カメラパラメータなどのカメラパラメータは、車両と路面との間に接触点があると仮定すれば、車両外観の2D幅と地面に接触する車両底部の2D画像位置(垂直)との間の粗いマッピングを得るために使用することができる。或るサイズの車両外観は画像の限られた領域の中にしか現れない。したがって、与えられた車両サイズに対して、そのサイズのための有効検出領域、例えば関心領域(ROI)を定めることができる。
各フレームにおいてすべてのサイズについて検出を行った場合、計算が重くなり過ぎることがあるため、仮説生成(HG)の際にスケール次元に沿った交互スキャン方式を採用してもよい。ここで使用している「スケール」という用語は、例えば後から見た車両外観の2D幅などの、車両サイズを指す。各フレームについて1つのスケールで検出を行い、検出スケールは利用可能なすべてのスケールのうちから交互にとられるようにしてよい。例えば、本発明の1つの実施例では、部分検出器は3つのスケールで、例えば32ピクセル、40ピクセル、50ピクセルの3つのスケールで訓練され、検出は以下のようにして実行される。すなわち、フレーム1では、およそ32ピクセルのサイズの車両が検出され、フレーム2では、およそ40ピクセルのサイズの車両が検出され、フレーム3では、およそ50ピクセルのサイズの車両が検出される等々。しかし、特定の用途により良く合わせるために、複数のフレームにわたって最大限に道路をカバーするように交互スキャンを設計してもよい。検出器スケールよりも大きな車両外観を検出するために、同じ検出を解像度を低くした画像(例えば、表1に示されているような)において行ってもよい。
Figure 0005124592
今の実施例では、3つの異なるスケールをもつ部分検出器が3つの異なる解像度スケールに適用され、32,40,50,64,80,100,128,160および200ピクセルのスケールが効果的にカバーされる。
図3には、小規模から大規模のさまざまな検出ROIが示されている。ここでは、28ピクセルを超える車両外観をカバーするために、9つのオーバーラップするROIがシステム内で画定されている。これらのスケールは部分検出器の定義からして離散ではあるが、部分検出器は車両サイズの連続区間をカバーすることができる。例えば、サイズが32の部分検出器は28〜36ピクセル幅の車両コーナ部を検出し、サイズが40の部分検出器は35〜45ピクセル幅の車両コーナ部を検出する等々。部分検出器が検出できる車両のサイズは部分検出器のスケールと正確に同じである必要はない。
図4は、本発明の1つの実施例による車両検出における仮説生成、仮説剪定、および仮説検証のプロセスを示すフローチャートである。図5は、仮説処理に対する代替的なアプローチを示すブロック図である。
図5のアプローチでは、仮説生成ステップ(HG)の一部として、主部分検出器51を用いて主要車両部分が検出される。仮説検証ステップ(HV)の一部として、第2の部分検出器が使用される。第2の部分検出器が仮説を検証した後、パノラマ車両検出器を用いてさらに仮説が検証される。
本発明の1つの実施例に従って後から見た車両を検出するために、まず、選択されたスケールに合わせて検出ROIを前処理するようにしてよい(ステップS41)。
車両検出のための前処理ステップ(S41)では、現画像フレームについて、選択された検出ROI内の(対数)勾配マップの積分画像が計算される。その際、水平勾配の積分画像と垂直勾配の積分画像の2つの積分画像が計算される。積分画像はスケール1〜3については元の解像度で計算され、スケール4〜6については解像度を(2だけ)下げて計算され、スケール7〜9については解像度を(4だけ)下げて計算される。積分画像は単純コーナ部検出のフィルタ応答と部分検出器の応答を計算するために使用される。パノラマ車両検出器も任意選択のカスケード検出器も積分画像上で計算する必要がなく、その代わり、以下で説明するように、固定サイズの小さなパッチ内で計算してよい。
単純コーナ部検出ステップ(S42)は仮説生成(HG)ステップを含んでいてよい。単純コーナ部検出ステップ(S42)では、L字形コーナ部を検出するために、L字形(およびその鏡映形)フィルタが定義される。L字形フィルタと鏡映L字形フィルタは垂直方向に対称としてよい。これらのフィルタは画像勾配上に定義されており、積分画像の使用により効率的に実現される。フィルタマスクは図6に示されている。左コーナ部検出の場合、位置(x,y)におけるフィルタ応答は次のように定義される。
Figure 0005124592
右コーナ部検出の場合には、位置(x,y)におけるフィルタ応答は次のように定義される。
Figure 0005124592
ここで、GH(x,y)、GV(x,y)は画像座標内の位置(x,y)における水平画像(対数)勾配、垂直画像(対数)勾配をそれぞれ表し、
GH(x,y)=I(x+1,y)-I(x-1,y) (3)
GV(x,y)=I(x,y+1)-I(x,y-1) (4)
I(x,y)は画像座標内の位置(x,y)におけるピクセル値を表し、重みwH(m,n)、wV(m,n)は次のように定められている。
Figure 0005124592
L字形フィルタの適用により、2つの応答マップr(x,y)、すなわち、左コーナ部検出のために1つ、右コーナ部検出のために1つの応答マップが得られる。次に、応答マップ上で非極大点抑制が実行される。非極大点は捨てられ、応答値が予め選ばれた閾値を超えている局所極大点が車両コーナ部の仮説として選ばれる。なお、予め選ばれた閾値は、多数の車両事例上でフィルタ応答を評価し、下限を選ぶことにより得られる。
コーナ部検出の結果の例は図6に示されている。図6では、ボックス61がおよそ32ピクセルの車両の検出ROIを強調表示しており、点62が左コーナ部検出の結果を、点63が右コーナ部検出の結果を示している。
ステップS43〜S48は仮説検証プロセスを含んでいる。次のステップでは、初期コーナ部仮説が車両サイズ制約を使用して剪定される(ステップS43)。地平線より下の各画像行(座標y)については、可能な2D車両サイズ(例えば幅)の範囲は、さまざまな車両モデルの横測定値と路面に対するカメラアングルとに基づいて予め計算される。可能な2D車両サイズの範囲は区間として例えば次のように表される。
Figure 0005124592
左コーナ部の各仮説に関して、距離がサイズ制約を満たすような右コーナ部仮説が存在するならば、仮説は維持される。そうでなければ、仮説は棄却される。剪定プロセスは右コーナ部の仮説にも適用される。
次のステップでは、コーナ部仮説が部分検出器によりさらに剪定される(ステップS44)。部分検出器は、コーナ点周りの画像領域が車両に属しているか否かを識別する訓練された分類器である。図7には、本発明の1つの実施例による部分検出器により使用される、各コーナの周りの画像パッチが示されている。ボックス71は左コーナ部周りの画像パッチを示しており、ボックス72は右コーナ部周りの画像パッチを示している。
図5の単純コーナ部検出と比べて、部分検出器は車両事例上で訓練されており、車両コーナ部により関連している。訓練アルゴリズムも特徴設計も公知である。
次のステップでは、ステップS43で定めた車両サイズ制約を満たす左コーナ部仮説と右コーナ部仮説が車両仮説のグループとして維持される(ステップS45)。
次に、方向ヒストグラムが任意選択的に車両クラスに有効な制約を課す(ステップS46)。車両仮説の画像パッチはまず固定された車両サイズにサイズ変更される。次に、U字形領域における勾配の向きのヒストグラムが計算され、d次元特徴ベクトルHとして扱われる。U字形領域80は図8に示されている。次に、方向ヒストグラムの
Figure 0005124592
と固有ベクトル{Vi}を得るために、車両事例の方向ヒストグラム上で主成分分析が行われる。制約は主成分への射影の範囲を限定することにより課される。
Figure 0005124592
射影係数の上限および下限を車両事例から学習してもよい。
増加する弱分類器を含む一連の分類器{C1,C2,...,Cn}を使用することにより、多数の非物体候補は初期の段階で比較的少数の弱分類器を用いて効率的に除去される(ステップS47)。この手続きの1つの例によれば、個々の分類器C1〜Cnはパスするかまたは拒絶されるかである。どの分類器の拒絶も、テストなしに、後続のすべての分類器の拒絶をもたらす。
次のステップでは、パノラマ分類器(例えば、乗用車向けパノラマ分類器とトラック向けパノラマ分類器)が適用され、前のテストにパスしたすべての車両仮説上で最終的な検出スコアが求められる。仮説は、その検出スコアが予め決められた閾値よりも低ければ拒絶され、そうでなければ、潜在的な車両候補として維持され、追跡・時間融合モジュールに渡される。
単一のターゲットだけを検出および追跡すればいい適用事例については、検出を融合して単一最良仮説を見つけ出す後処理ステップを使用してもよい。
ベイジアンフィルタリングの枠組みはベイズの意味での視覚追跡を提供する。事後確率は反復手続きによって時間的に伝播させることができる。例えば、以下の式に従ってベイジアンフィルタリングを行う。
Figure 0005124592
ガウシアンモデルと線形ダイナミクスの場合、ベイジアンフィルタは周知のカルマンフィルタに還元される。予測ステージでは、新しいフレームItでのターゲット状態(例えば位置)xtが前フレームIt-1での位置xt-1から予測される。
非常に多くの場合、予測されたターゲット位置xtは、ターゲットがランダムウォークすると仮定すれば、xt-1の周りの信頼領域によって記述できる。ビデオ車両追跡の場合、3次元状態変数xtにより車両位置と車両サイズがコード化され、予測される車両位置およびサイズは、推定された車両進行方向と速度とを含むより詳細な動学モデルを介して解くことができる。更新ステップでは、現フレームからのさまざまな測定値が考慮され、事後確率密度関数が更新される。
ベイジアンフィルタリングを実施する際、或る画像キューに対しては正確な尤度関数p(It|xt)が得られない。例えば、車両と非車両の識別を最大化するよう訓練された車両分類器からの応答rtは解析的な尤度項p(rt|xt)に直接対応するものを持っていないかもしれないが、それでもキューは車両追跡にとって重要である。さらに、事後確率密度関数p(xt|It-1)は多モード的な性質を示すことが多く、事後確率を正確な形で維持するには、または追跡における多数の仮説を維持するには時間がかかり過ぎる。これらの問題に対処するために、有効なキューを融合する際にトレードオフや近似を行ってもよい。正確な事後確率を維持するのではなく、最も重要なモードを使用して事後確率を近似するために、単一の最尤仮説または事後確率の高い複数の仮説を維持するようにしてもよい。
ビデオ車両追跡の際に、2種類の測定値を、すなわち、車両分類器の応答と、車両テンプレートとのマッチングを使用してもよい。車両分類器は全車両クラスに外観に基づいた制約を課すが、異なる車両事例を区別できないこともありうる。テンプレートに基づくマッチングは車両追跡のための第2の測定値を提供する。さらに、視覚追跡に内在する時間的関連を利用するために、形状テンプレートを特定の車両事例のための専用モデルとして使用してもよい。このシステムの厳しい実行時要求を満たすためには、単一最良仮説が追跡される。分類器応答とマッチング結果を融合してターゲット位置を求めてもよい。テンプレートマッチングは状態推定の位置特定正確度をより良くし、分類子応答は背景に対する区別をよりはっきりさせるので、2つのタイプの測定を融合することにより、テンプレートマッチングが複数の位置およびサイズ仮説を生成し、分類器が単一最良仮説を決定するのを助けるようにすることができる。
車両検出器を使用してターゲットを追跡する代わりに、「本当の意味の」追跡方式をシステムに導入してもよい。このような方式では、時間マッチングを行うために、カーネルベース確率形状追跡(KPS追跡器)と呼ばれる、テンプレートに基づく追跡アルゴリズムが導入される。その場合、車両検出器は追跡結果の検証に使用される。
図9は、本発明の1つの実施例による車両追跡のプロセスを示すフローチャートである。第1のステップは大域動き補償(ステップS91)を含む。大域的な動きはカメラへの突然の衝撃および/または振動によって引き起こされ、垂直方向に画像の大きな動きを生じさせる。このような大域的な画像の動きを補償するために、オプティカルフローアルゴリズムを使用して、ターゲット車両周りの大きな画像パッチ上で2D動きベクトルが推定される。計算コストを下げるために、解像度を下げた画像でオプティカルフロー推定を行ってもよい。
大域動き補償の後は、局所ターゲット動き推定が行われる(ステップS92)。このステップでは、物体追跡器を用いてターゲット車両の位置が新しいフレーム内でより精確に特定される。次に、カーネルベース確率形状追跡を使用して特徴点をマッチングすることにより物体が追跡される。追跡アルゴリズムがターゲット位置に関する複数の仮説を生成してもよい。各仮説は対応するマッチングスコアを有する。
次に、ターゲット検証が行われる(ステップS93)。このステップはテンプレートマッチングと検出器応答の2つの測定値を融合する。外観に基づいた車両検出器は、追跡器が実際に車両をロックオンしており、背景パッチへと流されていないことを検証するための「ゲート」関数として使用される。ゲート関数は、外観に基づく車両検出器からの応答が所定の閾値を超えているような仮説を受け入れる。単一最良仮説は、例えば、局所ターゲット動き推定ステップ(S92)からのすべての仮説のうち、車両検出器からの応答がゲート関数に受け入れられたものの中で最もテンプレートとマッチする仮説として決定される。ただし、このようにして決定された単一最良仮説は車両検出器からの応答が最も高い仮説ではないことに注意されたい。
それゆえ、時間融合と推論のステップ(ステップS94)では、追跡の特定の事例を続けるべきか止めるべきかが決定される。
例えば、追跡を止めるべきであるとの決定が為された場合には、追跡器が車両をロックオンしないように決定され、被追跡車両が背景パッチへ流れていった場合には、追跡は中止される(ステップS97)。追跡を続けるべきとの決定が下れば、追跡は続けられる(ステップS95)。
新たな車両外観が車両検出器によって初めて検出された場合、このターゲットのために形状テンプレートが形成される。上で論じたように、形状テンプレートは複数の異なる解像度を含むマルチスケールであってよい。追跡が続く間、マルチスケール形状テンプレートは取得したさらなるデータに合わせて更新される(ステップS96)。その後は、追跡が最終的に停止する(ステップS97)までプロセスが繰り返される(ステップS91)。
形状テンプレートを形成する際、ターゲットを含む画像パッチ内で強い水平勾配または垂直勾配を有する画像の2階微分の零交差が抽出される。零交差は1階微分(すなわち画像勾配)の局所極大値である。これらの特徴点は画像座標内での位置と勾配ベクトルにより表され、形状テンプレートを構成する。形状テンプレートに関連した信頼スコアは車両検出器を形状テンプレートに適用することにより生成される。このスコアは車両であることの尤度という観点で形状テンプレートの品質を表すものである。追跡中、形状テンプレートは、より高い検出器スコアがある時間インスタンスにおいて得られると、更新される。テンプレートマッチングにおいて適度な数の特徴点を維持するために、大きなターゲットの追跡は解像度を下げて行ってよい。したがって、マルチスケール形状テンプレートを形成し、複数の解像度において更新するようにしてよい。今の実施例では、形状テンプレートで使用される特徴点の数は車両外観の周りの画像パッチのおよそ10%〜20%である。
カーネルベース確率形状追跡(KPS追跡器)では、形状テンプレート内の特徴点は{Yi=yi,Gi}で表される。ここで、yiは特徴点の画像座標を表し、Giは特徴点の正規化された勾配ベクトルを表している。画像フレーム内の特徴点は{Zi=zi,gi}で表される。ここで、ziとgiは特徴点の画像座標と勾配ベクトルをそれぞれ表している。画像データ内での特徴点の分布を記述する確率モデルはカーネルに基づいた表現で表される。
Figure 0005124592
ここで、k(Z;Zj,Λ)は平均Zjおよび共分散行列
Figure 0005124592
のガウス関数を表し、σzは特徴点の画像位置に関するガウシアンカーネルの帯域幅を表し、σgは特徴点の勾配ベクトルに関するガウシアンカーネルの帯域幅を表している。車両の後部はほぼ平面であり、車両は光軸に沿ってまたは横方向に動いており、例えば、大きな方向転換は考察されないと仮定してよい。車両後部の2次元的な動きは並進とスケーリングによって近似的にモデル化される。最良のターゲット位置およびターゲットサイズを見つけ出すために、3次元の問題が解かれ、例えば、最適の並進およびスケーリングのパラメータが求められる。並進パラメータはT=(Tx,Ty)で表され、スケーリングパラメータはsで表される。画像フレーム内の一連の特徴点と形状テンプレート内の一連の特徴点とのマッチングは以下の最適化問題として定式化される。
Figure 0005124592
ここで、s・zj+Tは画像フレーム内の特徴点をテンプレート座標に写像する逆変換を定義している。変換(T,s)により、画像フレームzjの各特徴点はガウシアンカーネルを通して局所的な距離測度を形成する。
Figure 0005124592
ここで、変換された特徴点s・zj+Tは局所カーネル
Figure 0005124592
の中心を定義しており、正規化された勾配ベクトルgjは正規化された勾配カーネル
Figure 0005124592
の中心を定義している。この局所距離測度は、任意の特徴点Zが(形状テンプレート内の)変換された特徴点にどれだけ近いかを特徴点の位置および特定の変換(T,s)の下で画像勾配の類似の観点から測るものである。したがって、分布した特徴点{Zj:j=1,2,...}上での局所距離測度の総和
Figure 0005124592
は、任意の特徴点のグループ{Yi:i=1,2,...}が特定の変換(T,s)の下でどれだけ特徴点のグループ{Zj:j=1,2,...}に近いかを測るものである。それゆえ、式(10)は、このような変換の下で、形状テンプレート内の特徴点{Yi:i=1,2,...}がその位置および正規化された勾配という点で画像フレームから抽出された一連の特徴点に最も相似した変換となるような、最適な目的変換関数(T,s)optを見つけ出すために使用される。
統計的観点からすれば、目的関数(10)は、テンプレート特徴点が画像特徴点からの特徴点と同じ分布で生成される尤度として解釈される。ガウシアンカーネルは費用関数を定義する際に使用される。ユークリッド距離のような他の距離測度に比べて、このアプローチは外れ値に対する大きな許容差を持っている。というのも、(影によって生じる特徴点などのような)外れ値の影響が限定されるからである。
変換パラメータを繰り返し最適化するためには、勾配上昇法が用いられる。勾配上昇法は、初期点から始めて、目的関数の勾配が上昇する方向に変換パラメータを繰り返し改善する。KPS追跡器の数学的定式化については、以下で詳しく説明する。一般に、様々な並進値およびスケール値におけるマッチング関数の曲面は複数の局所極大値を有する。最大値の位置を特定してもよい。勾配上昇法が局所極大値を出す可能性を最小化するために、パラメータ空間内に複数の初期化を設け、勾配上昇アルゴリズムを複数回実行するようにしてもよい。
目的関数を最適化する反復手続きにより、サブピクセル精度が達成される。しかし、計算の観点からはコスト高であり、かつ低速である。マッチングプロセスを高速化するために、2つのレベルのマッチングを行うcoarse-to-fineアプローチを採用してもよい。
第1レベル(粗マッチング)では、目的関数が粗い近似で置き換えられる。ガウシアン関数を用いてペナルティ項を正規化された勾配ベクトル上で定義する代わりに、勾配ペナルティ項を離散にしてもよい。ここで、各画像ピクセルには、水平方向における零交差点、垂直方向における零交差点、両方向における零交差点、および非零交差点であるピクセルを表すラベル{lH,lV,lHV,lN}が割当てられている。形状テンプレート内のi番目の特徴点のラベルが現フレーム内のj番目の特徴点のラベルとマッチするならば、ki,j=1と定義する。この粗マッチングはガウシアンアプローチよりも計算コストが低く、特徴位置から距離マップを事前に計算しておくことで、かなり効率的な実装が可能になる。
現フレーム内でターゲット車両を追跡するためには、3次元パラメータ空間(s,tx,ty)が前フレームにおけるターゲット位置の周りで一様にサンプリングされ、離散サンプリンググリッド{(si,txi,tyi)}上のマッチング関数が計算される。各サンプル点(si,txi,tyi)について、局所極大値を見つけるために、マッチングスコアの値が隣接サンプル上でのマッチングスコアと比較される。局所極大値は目的関数(式10)のモード点である。粗マッチングでは複数のモードが識別され、これら複数のモードは精マッチングのための初期化として用いられる。
第2レベル(精マッチング)では、第1レベルの粗マッチングで得られたモード位置が、式(10)で定義される目的関数を最適化することにより精緻化される。KPS追跡器との関連で以下に詳しく述べる勾配上昇法は、第1レベルのマッチングにおいてモードとして識別された離散サンプル点から出発して目的関数(10)の局所極大値へと収束するように行われる。
目的関数をカーネル関数から計算するには、複数の指数関数が計算される。ここでは、この計算を単純化する3つのアプローチを示す。
第1のアプローチでは、各カーネル(例えば、Zj=[zj,gj]を中心とする)が限られた台を有するので、Zjから遠く離れた特徴点(x)は無視され、それらの関数値は計算しなくてよい。
第2のアプローチでは、オンライン計算を少なくするため、指数関数を事前に計算し、ルックアップテーブルに格納しておく。
第3のアプローチでは、形状テンプレートを複数の画像領域とマッチングさせる際に、カーネル密度関数のいくつかの計算を異なるマッチの間で共有する。例えば画像グリッド{x}などの探索領域が既知ならば、関数値pD(X|{Zj})は一回で計算される。マスクはマッチング値を合計するために用いるだけでよい。
形状テンプレートマッチングの計算は2つの部分を含む。第1の部分では、量の事前計算が最適化において再利用される画像データ中の特徴点を形成する。事前計算の計算量は探索領域内の特徴点に対して線形である。
第2の部分(マッチング)は複数の初期化点からの反復最適化を含む。目的関数はまず3Dパラメータ空間(T,s)内の粗グリッド上で計算される。パラメータコンフィギュレーションのうちのいくつかは幾何学的制約により除去される。初期化計算の後、少数のトップマッチ(例えば局所極大値)が初期位置として維持され、より正確な(例えばサブピクセル)マッチングのために勾配に基づいた反復最適化が行われる。形状テンプレートマッチングで得られた局所極大値、例えば目的関数におけるモードは、現画像フレームにおけるターゲット車両の位置の候補である。
図10のフローチャートには、本発明の1つの実施例に従ったKPS追跡器のプロセスが示されている。まず、勾配の大きさが閾値を超えている零交差点の数が前フレームからの車両位置の周りの局所画像パッチのサイズに比例するように、適応的閾値が選ばれる。次に、勾配の大きさが適応的閾値を超える零交差が局所画像パッチから抽出され、特徴点を決定する(ステップS101)。次に、局所極大値を、すなわち、車両位置候補を見つけるために、カーネルベース確率形状追跡器が実行される(ステップS102)。最も蓋然性の高い車両位置を決定するため、車両検出器を適用する(ステップS103)。次に、最も蓋然性の高い車両位置で局所画像パッチ内の特徴点を抽出することにより、マルチスケール形状テンプレートが更新され(ステップS104)、またプロセスが繰り返される。
テンプレートに基づくマッチングは、例えば正確なターゲット位置およびサイズの推定などの、ターゲット位置特定のために設計されているので、車両検出器は物体識別のために設計されており、2つの測定が以下のように融合される。車両検出器の応答は、マッチング関数のモードにおいては、車両から離れて流されていることを示すように低い値をとるので、車両検出器の応答はマッチング関数のモードを除去する「ゲート」関数として用いられる。検出応答が十分に高く、マッチング窓がちょうど車両事例上にあることが示唆されるモードの中から、テンプレートとの最良の一致を示すマッチング関数の最高値を有する最良モードが選び出される。この融合戦略によれば、車両検出器応答を用いることでドリフトが検出される。
形状追跡器の正確度は、期間を延長して車両事例を記述するために「マルチプルテンプレート」を使用することで高められる。このアプローチによれば、照明の大きな変化による車両外観の大きな変化に対処するKPSTの能力が改善される。このアプローチによれば、ターゲット車両は、各々が複数のスケールに跨る複数の形状テンプレートに対応付けられる。さらに、最適なテンプレートスケールを選択する際に、実際に求められた車両サイズを利用してもよい。大型車両については、解像度スケールを下げて追跡することにより、解像度スケールを下げた場合のテンプレート特徴点の数が計算的に無理のない程度にすることができる。どのスケールの単一形状テンプレートも追跡ターゲットの1つの時間インスタンスに限定されているので、より多様な情報を取り入れるためにテンプレートを延長してもよい。マルチプルテンプレートアプローチの例はSimon Baker, "The Template Update Problem" IEEE PAMI 2004に見られる。この文献の内容は参照により本開示に含まれる。あるいは、複数事例間の分散を反映するように、テンプレートの統計的表現(例えば、重み付けされた特徴点という形での)を改めてもよい。また、複数事例間の対応関係を探ることにより、車両境界の周りのセグメンテーションをより正確にしてもよい。急な方向転換をする車両を追跡する場合には、3パラメータモデルをアフィン動きモデルへと拡張してもよい。
ビデオ車両検出・追跡モジュールを他のセンサモダリティと融合する際には、ビデオ測定のマルチモーダル性が考慮される。複数仮説分析は、単一仮説のみを追跡する場合であっても、外れ値と背景がカメラセンサによって相互観察されるという理由から実施される。
検出および追跡機能が実行された後、結果がまとめられ、時間に沿って追跡を開始、維持、更新および終了するために使用される。時間融合と推論は「結果をまとめる」の機能において行われる。
適応型クルーズコントロール(ACC)または交通渋滞アシストに適用する場合には、単一の先行車両が時間を追って追尾される。本発明の1つの実施例によれば、「結果をまとめる」機能により以下のステップが実行される。
1.車両が初めて検出されたときに走行軌跡を開始する。
2.既存のターゲットについては、ターゲットを追跡し、信頼スコア(例えば、車両検出器からの応答)を蓄積し、ターゲットの経時的な履歴を維持する。
3.ターゲットが所定の期間を超えて追跡された、およびまたは所定のレベルを超える信頼スコアが得られたら、車両ターゲットであることが確認される。
4.既存ターゲットがホスト車両と同じ車線内を動いているのか否かを判定する。
5.ゲーゲットが車線を外れて動いている、または蓄積された信頼スコアが所定レベルに満たない場合には、走行軌跡を中断する決定を下す。
6.確認されたターゲットを出力する。
本発明の実施例では、複数のターゲットが検出および追跡される。このような実施形態では、「結果をまとめる」機能において以下のステップが行われる。
1.新たに検出された各車両の走行軌跡を開始する。
2.既存のターゲットについては、ターゲットを追跡し、信頼スコア(例えば、車両検出器からの応答)を蓄積し、ターゲットの経時的な履歴を維持する。
3.ターゲットが所定の期間追跡された、およびまたは所定のレベルを超える信頼スコアが得られたら、車両ターゲットであることが確認される。
4.蓄積された信頼スコアが低すぎる場合には、走行軌跡を中断する決定を下す。
5.確認されたターゲットを出力する。
上記のように、カーネルベース確率形状追跡(KPS追跡器)は時間マッチングを行うために使用される。KPS追跡を行う際には、以下の最適化問題が解かれる。
Figure 0005124592
ここで、(T,s)は並進パラメータとスケーリングパラメータを表し、(zj,gj)はテストフレーム内のj番目の特徴点の位置と勾配を表し、(yi,Gi)はテンプレート内のi番目の特徴点の位置と勾配を表している。尤度項(11)を大きくするために、変換パラメータ(T,s)は反復の度に少しずつ繰り返し調整される。
ベクトル形式で解を記述するために、変換パラメータに対して異なる表記法を用いてもよい。
Figure 0005124592
ここで、(s,tx,ty)は1つのスケーリングパラメータと2つの並進パラメータを表しており、(xj,yj)はテストフレーム内のj番目の特徴点の位置を表している。したがって、問題(11)は次のように書ける。
Figure 0005124592
各反復ステップにおいて、テイラー展開が行われる。このステップにおける変換パラメータはTによって与えられると仮定してよい。
Figure 0005124592
ここに示すように、
Figure 0005124592
目的関数は次のように表される。
Figure 0005124592
したがって、下記のような小さな増分δTが見つかる。
Figure 0005124592
図11には、本開示の方法およびシステムを実施するコンピュータシステムの一例が示されている。本開示のシステムおよび方法は、例えばメインフレーム、パーソナルコンピュータ(PC)、ハンドヘルドコンピュータ、サーバなどのコンピュータシステム上で実行されるソフトウェアアプリケーションの形で実施される。このソフトウェアアプリケーションはコンピュータシステムによりローカルにアクセス可能な記録メディアに格納されており、有線または無線のコネクションを介して例えばローカルエリアネットワークやインターネットなどのネットワークへアクセスすることができる。
全体的にシステム1000として参照されるコンピュータシステムは、例えば、中央処理ユニット(CPU)1001、ランダムアクセスメモリ(RAM)1004、プリンタインタフェース1010、ディスプレイユニット1011、ローカルエリアネットワーク(LAN)データ転送コントローラ1005、LANインタフェース1006、ネットワークコントローラ1003、内部バス1002、キーボードやマウスなどの1つまたは複数の入力デバイス1009を含んでいる。図示の通り、システム1000は、リンク1007を介して、例えばハードディスク1008のようなデータストレージデバイスに接続されている。
図12は、本発明の1つの実施例による検出および追跡フレームワークを説明するフローチャートである。この実施例の詳細については、上で詳しく説明した。まず、複数のフレームを含むビデオデータを取得する(ステップS1201)。次に、取得したビデオデータの第1フレームを1つまたは複数の車両検出器と対比し、車両仮説を形成する(ステップS1202)。次に、車両検出のための一連のcoarse-to-fine制約を用いて、車両検出仮説を剪定および検証する(ステップS1203)。最後に、形状テンプレートマッチングと1つまたは複数の車両検出器を融合することにより、検出された車両を取得したビデオの1つまたは複数の後続フレーム内で追跡する(ステップS1204)。
上記した特定の実施例は説明のためのものであり、本開示の趣旨または添付した請求項の範囲を逸脱せずに様々な変更を加えることができる。例えば、異なる実施形態の要素および/または特徴を互いに組み合わせてもよいし、および/または本開示および添付した請求項の範囲内で互いに置換してもよい。

Claims (35)

  1. 車両を検出および追跡する方法において、
    複数のフレームを含むビデオデータを取得し、
    取得したビデオデータの第1フレームを1つまたは複数の車両検出器と対比し、複数の車両仮説を形成し、
    車両検出のための一連のコースツーファイン(coarse-to-fine)制約を用いて前記複数の車両仮説を剪定および検証し、
    形状テンプレートマッチングと前記1つまたは複数の車両検出器のうちの1つまたは複数の車両検出器を組み合わせることにより、検出された車両を前記取得したビデオの1つまたは複数の後続フレーム内で追跡し、
    その際、前記検出された車両は後続フレーム内でカーネルに基づく確率的形状追跡器により追跡され、
    カーネルに基づく前記確率的形状追跡器は、画像領域内の特徴点を先行フレームの相応するターゲットから抽出した1つまたは複数の形状テンプレートとマッチングすることにより車両の動きを推定する
    ことを特徴とする方法。
  2. 前記ビデオデータを移動するホスト車両に取り付けられたカメラを用いて取得する、請求項1記載の方法。
  3. 前記1つまたは複数の車両検出器はクラス固有の検出器を少なくとも1つ含む、請求項1記載の方法。
  4. 前記1つまたは複数の車両検出器は乗用車固有の検出器を少なくとも1つ含む、請求項3記載の方法。
  5. 前記1つまたは複数の車両検出器はトラック固有の検出器を少なくとも1つ含む、請求項3記載の方法。
  6. 前記1つまたは複数の車両検出器はL字形コーナ部検出器とその鏡映形コーナ部検出器を含む、請求項1記載の方法。
  7. 前記一連のコースツーファイン(coarse-to-fine)制約は車両左底部および車両右底部の事例から学習した車両部分検出器を含む、請求項1記載の方法。
  8. 前記車両部分検出器の後に勾配方向ヒストグラム制約が続く、請求項7記載の方法。
  9. 前記勾配方向ヒストグラム制約の後に縦続した乗用車/トラック検出器が続く、請求項8記載の方法。
  10. 前記複数の車両仮説を、前記複数の車両仮説を形成するのに用いた前記1つまたは複数の車両検出器とは異なる第2の1つまたは複数の車両検出器で剪定および検証する、請求項1記載の方法。
  11. 前記車両検出器の応答を時間を追って蓄積する、請求項1記載の方法。
  12. 前記形状テンプレートは一連の零交差点から構成されている、請求項1記載の方法。
  13. 前記零交差点はそれらの位置と勾配ベクトルとにより記述される、請求項12記載の方法。
  14. 画像領域内の特徴点と形状テンプレートとのマッチングを、零交差点上でカーネルに基づくノンパラメトリック密度推定を最適化することにより行う、請求項1記載の方法。
  15. 零交差点上でのカーネルに基づくノンパラメトリック密度推定の前記最適化は車両動きパラメータの複数のモードを生じさせる、請求項14記載の方法。
  16. 車両動きパラメータの単一の最良モードを、カーネルに基づくノンパラメトリック密度推定の最大の関数値を有するモードであって、しかも前記車両検出器からの応答が予め選ばれた値よりも高くなるモードとして決定する、請求項15記載の方法。
  17. 前記形状テンプレートを更新して、ターゲット外観のフレーム間分散を反映させる、請求項1記載の方法。
  18. さらに、前記検証ステップと前記追跡ステップの結果をまとめて、追跡を維持するかまたは終了するかを決定する、請求項1記載の方法。
  19. 複数の車両を同時に追跡する、請求項1記載の方法。
  20. 前記第1ビデオフレームを複数の解像度からなる画像ピラミッドとして表す、請求項1記載の方法。
  21. 前記車両検出仮説を形成する際、比較的小さく見える車両の検出は比較的高い解像度で行い、比較的大きく見える車両の検出は比較的低い解像度で行う、請求項20記載の方法。
  22. 複数の解像度で追跡を行う、請求項20記載の方法。
  23. 一連のコースツーファイン(coarse-to-fine)制約を用いて前記車両検出仮説を検証する際、1つまたは複数の要素検出器を使用する、請求項1記載の方法。
  24. 検証された車両仮説をパノラマ車両検出器を用いてさらに検証する、請求項1記載の方法。
  25. 検出された車両をテンプレートに基づく追跡により前記1つまたは複数のフレーム内で追跡する、請求項1記載の方法。
  26. テンプレートに基づく前記追跡はカーネルに基づく確率的形状追跡を用いる、請求項25記載の方法。
  27. 車両を検出および追跡する方法において、
    複数のフレームを含むビデオデータを取得し、
    取得したビデオデータの第1フレームを1つまたは複数の車両検出器と対比し、複数の車両仮説を形成し、
    車両検出のための一連のコースツーファイン(coarse-to-fine)制約を用いて前記複数の車両仮説を剪定および検証し、
    形状テンプレートマッチングと前記1つまたは複数の車両検出器のうちの1つまたは複数の車両検出器を組み合わせることにより、検出された車両を前記取得したビデオの1つまたは複数の後続フレーム内で追跡し、
    前記一連のコースツーファイン(coarse-to-fine)制約は第1レベルと第2レベルとを含んでおり、第1レベルでは、目的関数が粗い近似で置き換えられ、第2レベルでは、第1レベルで得られたモード位置が、前記目的関数を最適化することにより精緻化される
    ことを特徴とする方法。
  28. 車両を検出および追跡する方法において、
    複数のフレームを含むビデオデータを取得し、
    取得したビデオデータの第1フレームを1つまたは複数の車両検出器と対比し、複数の車両仮説を形成し、
    車両検出のための一連のコースツーファイン(coarse-to-fine)制約を用いて前記複数の車両仮説を剪定および検証し、
    検出された車両を前記取得したビデオの1つまたは複数の後続フレーム内で追跡し、
    前記一連のコースツーファイン(coarse-to-fine)制約は車両左底部および車両右底部の事例から学習した車両部分検出器を含み、
    前記車両部分検出器の後に勾配方向ヒストグラム制約が続く
    ことを特徴とする方法。
  29. 車両を検出および追跡するためのシステムであって、
    複数のフレームを含むビデオデータを取得するために移動ホスト車両に取り付けられたカメラと、
    取得したビデオデータの第1フレームを1つまたは複数の車両検出器と対比して、車両検出仮説を形成し、車両を検出するために前記車両検出仮説を検証し、検出した車両を前記取得したビデオデータの1つまたは複数の後続フレーム内で追跡する中央追跡器と
    を含んでおり、
    前記検出された車両は後続フレーム内でカーネルに基づく確率的形状追跡器により追跡され、
    カーネルに基づく前記確率的形状追跡器は、画像領域内の特徴点を先行フレームの相応するターゲットから抽出した1つまたは複数の形状テンプレートとマッチングすることにより車両の動きを推定する
    ことを特徴とするシステム。
  30. 前記1つまたは複数の車両検出器は乗用車またはトラックに固有の検出器を少なくとも1つ含む、請求項29記載のシステム。
  31. 前記第1ビデオフレームは複数の解像度からなる画像ピラミッドとして表され、追跡は複数の解像度で行われる、請求項29記載のシステム。
  32. プロセッサと、コンピュータシステムにより可読であり、かつ車両検出および追跡のための方法ステップを実行するプロセッサにより実行可能な命令からなるプログラムを実体化したものであるプログラム記憶装置とを含むコンピュータシステムにおいて、
    前記方法が
    複数のフレームを含むビデオデータを取得し、
    取得したビデオデータの第1フレームを1つまたは複数の車両検出器と対比し、車両検出仮説を形成し、
    検出された車両を前記取得したビデオデータの1つまたは複数のフレーム内で追跡し、
    その際、前記検出された車両は後続フレーム内でカーネルに基づく確率的形状追跡器により追跡され、
    カーネルに基づく前記確率的形状追跡器は、画像領域内の特徴点を先行フレームの相応するターゲットから抽出した1つまたは複数の形状テンプレートとマッチングすることにより車両の動きを推定する
    ことを特徴とするコンピュータシステム。
  33. 前記車両検出仮説は車両を検出するための一連のコースツーファイン(coarse-to-fine)制約を用いて検証される、請求項32記載のコンピュータシステム。
  34. 前記1つまたは複数の車両検出器は乗用車またはトラックに固有の検出器を少なくとも1つ含む、請求項32記載のコンピュータシステム。
  35. 前記第1ビデオフレームは複数の解像度からなる画像ピラミッドとして表され、追跡は複数の解像度で行われる、請求項32記載のコンピュータシステム。
JP2009546431A 2007-01-18 2008-01-18 車両を検出および追跡するためのシステムおよび方法 Active JP5124592B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US88547907P 2007-01-18 2007-01-18
US60/885,479 2007-01-18
US12/014,397 US8098889B2 (en) 2007-01-18 2008-01-15 System and method for vehicle detection and tracking
US12/014,397 2008-01-15
PCT/US2008/000692 WO2008088880A1 (en) 2007-01-18 2008-01-18 System and method for vehicle detection and tracking

Publications (2)

Publication Number Publication Date
JP2010517139A JP2010517139A (ja) 2010-05-20
JP5124592B2 true JP5124592B2 (ja) 2013-01-23

Family

ID=39449554

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009546431A Active JP5124592B2 (ja) 2007-01-18 2008-01-18 車両を検出および追跡するためのシステムおよび方法

Country Status (4)

Country Link
US (1) US8098889B2 (ja)
EP (1) EP2121405B1 (ja)
JP (1) JP5124592B2 (ja)
WO (1) WO2008088880A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101809088B1 (ko) * 2017-07-11 2017-12-14 주식회사 에프에스솔루션 전방 차량 추돌 알림 장치 및 방법
JP7281733B2 (ja) 2019-04-15 2023-05-26 パナソニックIpマネジメント株式会社 監視システム、移動体、監視方法及びプログラム

Families Citing this family (112)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007136745A2 (en) 2006-05-19 2007-11-29 University Of Hawaii Motion tracking system for real time adaptive imaging and spectroscopy
US20090245580A1 (en) * 2006-07-21 2009-10-01 Darryl Greig Modifying parameters of an object detector based on detection information
EP2036045A1 (en) * 2007-07-11 2009-03-18 Cairos technologies AG Video tracking method and appartus arrangement for performing the method
KR100918295B1 (ko) * 2007-10-24 2009-09-18 한국전자통신연구원 비디오 트래픽 예측방법 및 그 장치
DE102008042825A1 (de) * 2008-10-14 2010-04-15 Robert Bosch Gmbh Fahrerassistenzsystem für Kraftfahrzeuge
US20100134632A1 (en) * 2008-12-03 2010-06-03 Electronics And Telecommunications Research Institute Apparatus for tracking an object using a moving camera and method thereof
US8311343B2 (en) * 2009-02-12 2012-11-13 Laser Technology, Inc. Vehicle classification by image processing with laser range finder
US8462987B2 (en) * 2009-06-23 2013-06-11 Ut-Battelle, Llc Detecting multiple moving objects in crowded environments with coherent motion regions
FR2947657B1 (fr) * 2009-07-06 2016-05-27 Valeo Vision Procede de detection d'un obstacle pour vehicule automobile
FR2947656B1 (fr) * 2009-07-06 2016-05-27 Valeo Vision Procede de detection d'un obstacle pour vehicule automobile
US9122955B2 (en) * 2010-06-28 2015-09-01 Ramot At Tel-Aviv University Ltd. Method and system of classifying medical images
US10187617B2 (en) * 2010-06-30 2019-01-22 Tata Consultancy Services Limited Automatic detection of moving object by using stereo vision technique
WO2012014972A1 (ja) * 2010-07-30 2012-02-02 国立大学法人九州工業大学 車両挙動解析装置及び車両挙動解析プログラム
CN101950426B (zh) * 2010-09-29 2014-01-01 北京航空航天大学 一种多摄像机场景下车辆接力跟踪方法
CN102044151B (zh) * 2010-10-14 2012-10-17 吉林大学 基于光照可见度辨识的夜间车辆视频检测方法
PT2450865E (pt) * 2010-11-04 2013-04-18 Kapsch Trafficcom Ag Dispositivos e métodos de controlo móveis para veículos
TWI452540B (zh) * 2010-12-09 2014-09-11 Ind Tech Res Inst 影像式之交通參數偵測系統與方法及電腦程式產品
US8855911B2 (en) 2010-12-09 2014-10-07 Honeywell International Inc. Systems and methods for navigation using cross correlation on evidence grids
TWI425454B (zh) * 2010-12-28 2014-02-01 Ind Tech Res Inst 行車路徑重建方法、系統及電腦程式產品
CN103518230B (zh) * 2011-03-14 2017-02-22 加州大学评议会 用于车辆分类的方法和系统
DE112012002885B4 (de) 2011-07-08 2022-01-27 Bendix Commercial Vehicle Systems Llc Verfahren und Vorrichtung zur bildbasierten Fahrzeugerfassung und Entfernungsmessung
US8498448B2 (en) 2011-07-15 2013-07-30 International Business Machines Corporation Multi-view object detection using appearance model transfer from similar scenes
KR101612817B1 (ko) * 2011-08-05 2016-04-15 엘지전자 주식회사 차량 추적 방법 및 그 장치
US9606209B2 (en) 2011-08-26 2017-03-28 Kineticor, Inc. Methods, systems, and devices for intra-scan motion correction
US8582811B2 (en) * 2011-09-01 2013-11-12 Xerox Corporation Unsupervised parameter settings for object tracking algorithms
JP5833887B2 (ja) * 2011-10-27 2015-12-16 東芝アルパイン・オートモティブテクノロジー株式会社 自車移動推定方法および自車移動推定プログラム
US8818722B2 (en) 2011-11-22 2014-08-26 Honeywell International Inc. Rapid lidar image correlation for ground navigation
JP5522157B2 (ja) * 2011-12-14 2014-06-18 株式会社デンソー 先行車判定装置および車間制御装置
EP2831621B1 (en) * 2012-03-26 2016-07-13 Robert Bosch GmbH Multi-surface model-based tracking
CN102695040B (zh) * 2012-05-03 2014-04-16 中兴智能交通(无锡)有限公司 基于gpu的并行高清视频车辆检测方法
KR101326943B1 (ko) * 2012-06-29 2013-11-11 엘지이노텍 주식회사 추월차량 경고 시스템 및 추월차량 경고 방법
US9157743B2 (en) 2012-07-18 2015-10-13 Honeywell International Inc. Systems and methods for correlating reduced evidence grids
GB201213604D0 (en) * 2012-07-31 2012-09-12 Bae Systems Plc Detectig moving vehicles
KR20140019501A (ko) * 2012-08-06 2014-02-17 현대자동차주식회사 장애물 인식을 위한 분류기의 생성방법
JP5937921B2 (ja) * 2012-08-09 2016-06-22 株式会社ブリヂストン 路面状態判別方法とその装置
US8971573B2 (en) * 2012-09-12 2015-03-03 Xerox Corporation Video-tracking for video-based speed enforcement
US9076062B2 (en) * 2012-09-17 2015-07-07 Gravity Jack, Inc. Feature searching along a path of increasing similarity
JP6044293B2 (ja) * 2012-11-19 2016-12-14 株式会社Ihi 3次元物体認識装置および3次元物体認識方法
KR101553012B1 (ko) * 2012-12-03 2015-09-30 한화테크윈 주식회사 객체 추출 장치 및 방법
US10327708B2 (en) 2013-01-24 2019-06-25 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
JP2014142832A (ja) * 2013-01-24 2014-08-07 Canon Inc 画像処理装置、画像処理装置の制御方法、およびプログラム
US9717461B2 (en) 2013-01-24 2017-08-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9305365B2 (en) 2013-01-24 2016-04-05 Kineticor, Inc. Systems, devices, and methods for tracking moving targets
CN105392423B (zh) 2013-02-01 2018-08-17 凯内蒂科尔股份有限公司 生物医学成像中的实时适应性运动补偿的运动追踪系统
KR101391668B1 (ko) 2013-02-06 2014-05-07 한국과학기술연구원 4도체 송전선상의 주행장애물 인식시스템 및 주행장애물 인식방법
WO2014146983A2 (en) * 2013-03-18 2014-09-25 Fotonation Limited A method and apparatus for motion estimation
US9250324B2 (en) 2013-05-23 2016-02-02 GM Global Technology Operations LLC Probabilistic target selection and threat assessment method and application to intersection collision alert system
US9317752B2 (en) * 2013-06-20 2016-04-19 Xerox Corporation Method for detecting large size and passenger vehicles from fixed cameras
US9098752B2 (en) * 2013-08-09 2015-08-04 GM Global Technology Operations LLC Vehicle path assessment
KR101550972B1 (ko) * 2013-09-25 2015-09-07 현대자동차주식회사 레이저 스캐너를 이용하여 장애물을 인식하기 위한 특징점 추출 장치 및 방법
US9495602B2 (en) * 2013-10-23 2016-11-15 Toyota Motor Engineering & Manufacturing North America, Inc. Image and map-based detection of vehicles at intersections
TWI494900B (zh) * 2013-10-30 2015-08-01 Nat Univ Chung Hsing 即時影像追蹤方法
JP6260215B2 (ja) * 2013-11-13 2018-01-17 富士通株式会社 特徴点追跡装置、及び、特徴点追跡方法
US9514366B2 (en) * 2014-02-03 2016-12-06 Xerox Corporation Vehicle detection method and system including irrelevant window elimination and/or window score degradation
US9607228B2 (en) 2014-02-14 2017-03-28 Toyota Motor Engineering & Manufacturing North America, Inc. Parts based object tracking method and apparatus
US10004462B2 (en) 2014-03-24 2018-06-26 Kineticor, Inc. Systems, methods, and devices for removing prospective motion correction from medical imaging scans
US9734425B2 (en) 2015-02-11 2017-08-15 Qualcomm Incorporated Environmental scene condition detection
US9846927B2 (en) * 2014-05-20 2017-12-19 Qualcomm Incorporated Systems and methods for haziness detection
US9508026B2 (en) 2014-07-01 2016-11-29 Irida Labs S.A. System and a method for camera motion analysis and understanding from a video sequence
WO2016014718A1 (en) 2014-07-23 2016-01-28 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US10046715B2 (en) * 2014-10-22 2018-08-14 GM Global Technology Operations LLC Systems and methods for object detection
KR101753097B1 (ko) * 2014-12-30 2017-07-19 광주과학기술원 차량검출방법, 차량검출을 위한 데이터베이스의 구조, 및 차량검출을 위한 데이터베이스 구축방법
WO2016145406A1 (en) 2015-03-11 2016-09-15 Massachusetts Institute Of Technology Methods and apparatus for modeling deformations of an object
US9555736B2 (en) 2015-04-03 2017-01-31 Magna Electronics Inc. Vehicle headlamp control using sensing and communication systems
US9811735B2 (en) * 2015-04-13 2017-11-07 Nec Corporation Generic object detection on fixed surveillance video
US10576974B2 (en) * 2015-06-29 2020-03-03 The Regents Of The University Of California Multiple-parts based vehicle detection integrated with lane detection for improved computational efficiency and robustness
US9943247B2 (en) 2015-07-28 2018-04-17 The University Of Hawai'i Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan
US10204279B2 (en) * 2015-07-30 2019-02-12 Magna Electronics Inc. Vehicle vision system with object detection
US10268904B2 (en) * 2015-07-31 2019-04-23 Magna Electronics Inc. Vehicle vision system with object and lane fusion
CN105046235B (zh) * 2015-08-03 2018-09-07 百度在线网络技术(北京)有限公司 车道线的识别建模方法和装置、识别方法和装置
US10586102B2 (en) * 2015-08-18 2020-03-10 Qualcomm Incorporated Systems and methods for object tracking
US10909394B2 (en) 2015-09-11 2021-02-02 Intel Corporation Real-time multiple vehicle detection and tracking
ITUB20154942A1 (it) * 2015-10-23 2017-04-23 Magneti Marelli Spa Metodo per rilevare un veicolo in arrivo e relativo sistema
CN105427338B (zh) * 2015-11-02 2019-02-15 浙江宇视科技有限公司 一种运动目标的跟踪方法和装置
WO2017091479A1 (en) 2015-11-23 2017-06-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US10011228B2 (en) * 2015-12-17 2018-07-03 Ford Global Technologies, Llc Hitch angle detection for trailer backup assist system using multiple imaging devices
US9659380B1 (en) 2016-01-07 2017-05-23 International Business Machines Corporation Object position tracking using motion estimation
JP6095817B1 (ja) * 2016-03-02 2017-03-15 三菱電機マイコン機器ソフトウエア株式会社 物体検出装置
US10402653B2 (en) * 2016-03-30 2019-09-03 Nec Corporation Large margin high-order deep learning with auxiliary tasks for video-based anomaly detection
US10380745B2 (en) * 2016-09-01 2019-08-13 Massachusetts Institute Of Technology Methods and devices for measuring object motion using camera images
DE102016218852A1 (de) 2016-09-29 2018-03-29 Conti Temic Microelectronic Gmbh Detektion von Objekten aus Bildern einer Kamera
DE102016218849A1 (de) 2016-09-29 2018-03-29 Conti Temic Microelectronic Gmbh Detektion und Tracking von Objekten aus Bildern einer Kamera
DE102016218853A1 (de) 2016-09-29 2018-03-29 Conti Temic Microelectronic Gmbh Detektion und Validierung von Objekten aus Bildern einer Kamera
US10629079B2 (en) * 2016-12-05 2020-04-21 Ford Global Technologies, Llc Vehicle collision avoidance
US10152639B2 (en) 2017-02-16 2018-12-11 Wipro Limited Method and system for identifying a vacant parking space in a parking lot
CN108229386B (zh) * 2017-12-29 2021-12-14 百度在线网络技术(北京)有限公司 用于检测车道线的方法、装置和介质
KR102424664B1 (ko) * 2018-01-08 2022-07-25 현대모비스 주식회사 3차원 영상정보 기반 객체 추적 장치 및 방법
KR102569437B1 (ko) * 2018-01-08 2023-08-24 현대모비스 주식회사 3차원 영상정보 기반 객체 추적 장치 및 방법
KR102458664B1 (ko) * 2018-03-08 2022-10-25 삼성전자주식회사 차량의 주행을 보조하는 전자 장치 및 방법
EP3540710A1 (en) * 2018-03-14 2019-09-18 Honda Research Institute Europe GmbH Method for assisting operation of an ego-vehicle, method for assisting other traffic participants and corresponding assistance systems and vehicles
JP7097215B2 (ja) * 2018-04-11 2022-07-07 清水建設株式会社 車両推定装置、学習装置、及び車両推定方法
DE102018216413A1 (de) * 2018-09-26 2020-03-26 Robert Bosch Gmbh Vorrichtung und Verfahren zur automatischen Bildverbesserung bei Fahrzeugen
US10878580B2 (en) * 2018-10-15 2020-12-29 Tusimple, Inc. Point cluster refinement processing of image data for LiDAR-based vehicle tracking system and method
US10872424B2 (en) * 2018-11-19 2020-12-22 Accenture Global Solutions Limited Object tracking using object attributes
US10467487B1 (en) * 2018-12-11 2019-11-05 Chongqing Jinkang New Energy Automobile Co., Ltd. Fusion-based traffic light recognition for autonomous driving
CN109740595B (zh) * 2018-12-27 2022-12-30 武汉理工大学 一种基于机器视觉的斜向车辆检测与跟踪系统及方法
CN111784769B (zh) * 2019-04-04 2023-07-04 舜宇光学(浙江)研究院有限公司 基于模板的空间定位方法、空间定位装置,电子设备及计算机可读存储介质
US10943132B2 (en) * 2019-04-10 2021-03-09 Black Sesame International Holding Limited Distant on-road object detection
DE102020206659A1 (de) 2019-05-30 2020-12-03 Robert Bosch Gesellschaft mit beschränkter Haftung Multi-hypothesen-objektverfologung für automatisierte fahrsysteme
US20220415054A1 (en) * 2019-06-24 2022-12-29 Nec Corporation Learning device, traffic event prediction system, and learning method
US11556000B1 (en) 2019-08-22 2023-01-17 Red Creamery Llc Distally-actuated scanning mirror
KR20210027894A (ko) 2019-09-03 2021-03-11 삼성전자주식회사 주행 보조 시스템, 전자 장치 및 그 동작 방법
US11776215B1 (en) * 2019-12-16 2023-10-03 Scale AI, Inc. Pre-labeling data with cuboid annotations
CN111008997B (zh) * 2019-12-18 2023-04-07 南京莱斯电子设备有限公司 一种车辆检测与跟踪一体化方法
US11004212B1 (en) * 2020-01-02 2021-05-11 Hong Kong Applied Science and Technology Research Institute Company Limited Object tracking method and system using iterative template matching
US11854279B2 (en) * 2020-05-25 2023-12-26 Subaru Corporation Vehicle exterior environment recognition apparatus
US20220188953A1 (en) 2020-12-15 2022-06-16 Selex Es Inc. Sytems and methods for electronic signature tracking
CN113792634B (zh) * 2021-09-07 2022-04-15 北京易航远智科技有限公司 一种基于车载相机的目标相似性评分计算方法及系统
EP4399694A2 (en) * 2021-09-09 2024-07-17 Selex ES Inc. Systems and methods for electronic surveillance
CN115238801A (zh) * 2022-07-28 2022-10-25 上海理工大学 一种交叉口车辆二维轨迹重构方法
CN118197062B (zh) * 2024-05-16 2024-07-09 图为信息科技(深圳)有限公司 基于边缘计算的智能交通多模态信息融合系统
CN118537819A (zh) * 2024-07-25 2024-08-23 中国海洋大学 一种低算力的帧差法道路车辆视觉识别方法、介质及系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5434927A (en) 1993-12-08 1995-07-18 Minnesota Mining And Manufacturing Company Method and apparatus for machine vision classification and tracking
DE19926559A1 (de) 1999-06-11 2000-12-21 Daimler Chrysler Ag Verfahren und Vorrichtung zur Detektion von Objekten im Umfeld eines Straßenfahrzeugs bis in große Entfernung
JP4016826B2 (ja) * 2002-12-10 2007-12-05 株式会社デンソー 物標識別方法及び装置、プログラム
US7764808B2 (en) * 2003-03-24 2010-07-27 Siemens Corporation System and method for vehicle detection and tracking
JP2005165688A (ja) * 2003-12-02 2005-06-23 Fuji Xerox Co Ltd 複数対象物追跡方法及びシステム
KR100630088B1 (ko) * 2004-12-28 2006-09-27 삼성전자주식회사 옵티컬 플로우를 이용한 차량 감시 장치 및 방법
US7418113B2 (en) * 2005-04-01 2008-08-26 Porikli Fatih M Tracking objects in low frame rate videos
US20080112593A1 (en) * 2006-11-03 2008-05-15 Ratner Edward R Automated method and apparatus for robust image object recognition and/or classification using multiple temporal views

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101809088B1 (ko) * 2017-07-11 2017-12-14 주식회사 에프에스솔루션 전방 차량 추돌 알림 장치 및 방법
JP7281733B2 (ja) 2019-04-15 2023-05-26 パナソニックIpマネジメント株式会社 監視システム、移動体、監視方法及びプログラム

Also Published As

Publication number Publication date
US20080273752A1 (en) 2008-11-06
WO2008088880A1 (en) 2008-07-24
JP2010517139A (ja) 2010-05-20
EP2121405B1 (en) 2016-11-30
US8098889B2 (en) 2012-01-17
EP2121405A1 (en) 2009-11-25

Similar Documents

Publication Publication Date Title
JP5124592B2 (ja) 車両を検出および追跡するためのシステムおよび方法
Ghanem et al. Lane detection under artificial colored light in tunnels and on highways: an IoT-based framework for smart city infrastructure
US9514366B2 (en) Vehicle detection method and system including irrelevant window elimination and/or window score degradation
Gandhi et al. Pedestrian collision avoidance systems: A survey of computer vision based recent studies
US8812226B2 (en) Multiobject fusion module for collision preparation system
US8890951B2 (en) Clear path detection with patch smoothing approach
US8355539B2 (en) Radar guided vision system for vehicle validation and vehicle motion characterization
US8487991B2 (en) Clear path detection using a vanishing point
US8605947B2 (en) Method for detecting a clear path of travel for a vehicle enhanced by object detection
Huang et al. Vehicle detection and inter-vehicle distance estimation using single-lens video camera on urban/suburb roads
US9626599B2 (en) Reconfigurable clear path detection system
EP2131328A2 (en) Method for automatic detection and tracking of multiple objects
US20080199050A1 (en) Detection device, method and program thereof
Takeuchi et al. On-road vehicle tracking using deformable object model and particle filter with integrated likelihoods
CN107066968A (zh) 基于目标识别和跟踪的融合策略的车载行人检测方法
JP7135665B2 (ja) 車両制御システム、車両の制御方法及びコンピュータプログラム
JP6708368B2 (ja) 変形可能部分モデルを使用した車両追跡における部分的隠蔽処理方法及びシステム
Liu et al. Vehicle detection and ranging using two different focal length cameras
Dewangan et al. Towards the design of vision-based intelligent vehicle system: methodologies and challenges
Kumar et al. An efficient approach for highway lane detection based on the Hough transform and Kalman filter
US20220171975A1 (en) Method for Determining a Semantic Free Space
Kim Realtime obstacle detection and tracking based on constrained Delaunay triangulation
Chen et al. Vehicle tracking and distance estimation based on multiple image features
JP5125214B2 (ja) 障害物検出方法および障害物検出装置
Selver et al. Visual and LIDAR data processing and fusion as an element of real time big data analysis for rail vehicle driver support systems

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20101111

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20110523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111201

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120301

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121005

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121029

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151102

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5124592

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S631 Written request for registration of reclamation of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313631

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250