JP2004180200A - Vehicle recognition apparatus and recognition method - Google Patents

Vehicle recognition apparatus and recognition method Download PDF

Info

Publication number
JP2004180200A
JP2004180200A JP2002346879A JP2002346879A JP2004180200A JP 2004180200 A JP2004180200 A JP 2004180200A JP 2002346879 A JP2002346879 A JP 2002346879A JP 2002346879 A JP2002346879 A JP 2002346879A JP 2004180200 A JP2004180200 A JP 2004180200A
Authority
JP
Japan
Prior art keywords
vehicle
feature
image
frame image
contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002346879A
Other languages
Japanese (ja)
Inventor
Hitoomi Takizawa
仁臣 滝澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daihatsu Motor Co Ltd
Original Assignee
Daihatsu Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daihatsu Motor Co Ltd filed Critical Daihatsu Motor Co Ltd
Priority to JP2002346879A priority Critical patent/JP2004180200A/en
Publication of JP2004180200A publication Critical patent/JP2004180200A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To achieve stable vehicle recognition by adopting a robust voting system in vehicle recognition. <P>SOLUTION: When the apparatus acquires a frame image by a CCD camera (S1), a CPU normalizes the height and the width size of the acquired frame image into the same sizes as those of the frame image of a prototype vehicle and differentiates the density of all pixels of the normalized frame image of a front vehicle (S2). Acquired differentiated values of density are binarized by various kinds of previously set thresholds, to form a plurality of contour line images made up of edge patterns (S3), and dimensional compression is applied to each contour line image, to derive a plurality of features (S4). Each feature is voted on a feature plane stored in a memory (S5), peaks to be appeared are searched (S6), and appeared peaks are updated as the feature of the prototype vehicle (S7). <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
この発明は、画像を処理して自車前方の車両を認識する車両認識装置及び認識方法に関する。
【0002】
【従来の技術】
近年、例えば高速道路における追従走行機能や操舵アシスト機能といった、より高度でより快適な運転支援システムを搭載した車両が提案され、その手法のひとつとして、プロトタイプ車両について、その後端面を撮像した教師画像を準備し、単眼カメラによる前方車両の撮像画像と教師画像との照合によって、その撮像画像が車両のものかどうかを判断する手法がある。
【0003】
このとき、前方車両の撮像画像を処理して輪郭線を抽出するが、その際にしきい値の設定が撮像シーンの明るさによって動的に変化するため、同じ車両であるにも拘わらず、前方車両の輪郭線とプロトタイプ車両の輪郭線とが大きく異なって前方車両を認識できなくなるという問題点があった。
【0004】
また、車両認識の場合、プロトタイプ車両の特徴量と前方車両の特徴量とを比較するが、プロトタイプ車両の特徴量を求める場合に、例えば天候、季節や時間帯等によって照明条件が様々に異なることから、各車種毎の教師画像を多数準備することは事実上不可能であった。しかも、このように教師画像の数が多くなると、照合処理が非常に煩雑になって車両かどうか認識するのに長時間を要し、リアルタイム処理が困難になるという不都合が生じる。
【0005】
更に、認識した前方車両を時間的に追跡するときには、カルマンフィルタでその前方車両の次回位置を予測するアルゴリズムを適用することが行われるが、ノイズ等の影響を受け易くロバストでない単眼画像の場合、カルマンフィルタの出力が安定せず、車両追跡に失敗することが多いという問題点もあった。
【0006】
ところで、画像処理を行って道路白線を検知する場合において、ハフ変換による投票方式を採用することも提案されている(例えば特許文献1参照)。
【0007】
【特許文献1】
特開平11−85999号公報(段落[0008]〜[0010])
【0008】
【発明が解決しようとする課題】
この投票方式はノイズに強く、ロバストであることが多くの実験により確認されているため、単眼カメラにより撮像画像を処理して車両認識を行う手法において、ロバスト性の観点から、このような投票方式を採用することが望ましいが、単眼カメラによる撮像画像を処理する車両認識には未だ採用されていない。
【0009】
そこで、本発明は、ロバストな投票方式を車両認識に採用して安定した車両認識を可能にすることを目的とする。
【0010】
【課題を解決するための手段】
上記した目的を達成するために、本発明にかかる車両認識装置は、画像を処理して自車前方の車両を認識する車両認識装置において、撮像部により自車前方の前方車両のフレーム画像を撮像し、処理部により、予め定めたプロトタイプ車両の前記撮像部によるフレーム画像の全画素の濃度を微分処理して得られた全画素についての濃度微分値を2値化しエッジパターンから成る輪郭線画像を形成し、形成した前記プロトタイプ車両の前記輪郭線画像を次元圧縮して固有ベクトルを求めその固有ベクトルである特徴量によって定義される特徴平面または特徴空間を作成し、前記撮像部による前方車両の前記フレーム画像について各種のしきい値で2値化して複数の前記輪郭線画像を形成し、これら各輪郭線画像それぞれを次元圧縮して複数の特徴量を導出し、前記各特徴量を前記特徴平面または特徴空間に投票して前記プロトタイプ車両の前記特徴量を更新することを特徴としている(請求項1)。
【0011】
このような構成によれば、プロトタイプ車両の輪郭線画像を次元圧縮して得られた固有ベクトルである特徴量で定義される特徴平面または特徴空間に、各種のしきい値で2値化して得られる前方車両の輪郭線画像を次元圧縮して導出される複数の特徴量を投票すると、連続するフレーム画像での同じ車両や輪郭線抽出の際のしきい値を若干変更した輪郭線画像は、特徴平面または特徴空間で非常に近いところに投票されることになる。
【0012】
そのため、最適位置にピークが発生し、このピークを新しいプロトタイプ車両の特徴量として捕捉中の前方車両に対して個別に設定することによって、撮像シーンの照明条件等に依存しない安定した車両認識を行うことができ、確実な車両追跡を行うことができる。
【0013】
また、本発明にかかる車両認識装置は、画像を処理して自車前方の車両を認識する車両認識装置において、自車前方を撮像して前方車両のフレーム画像を得る撮像部と、前記撮像部によるフレーム画像の全画素の濃度を微分処理して得られた全画素についての濃度微分値を2値化しエッジパターンから成る輪郭線画像を形成する輪郭線画像形成部と、予め定めたプロトタイプ車両の前記フレーム画像に対する前記輪郭線画像を次元圧縮して固有ベクトルを求めその固有ベクトルである特徴量によって定義される特徴平面または特徴空間を作成する作成部と、前方車両の前記フレーム画像の縦横サイズを前記プロトタイプ車両の前記フレーム画像と同一サイズに正規化する正規化部と、前記正規化部により正規化された前記前方車両の前記フレーム画像について前記輪郭線画像形成部により各種のしきい値で2値化されて形成される複数の前記輪郭線画像それぞれを次元圧縮して複数の特徴量を導出する特徴量導出部と、前記作成部による前記特徴平面または特徴空間に、前記特徴量導出部による前記各特徴量を投票して前記プロトタイプ車両の前記特徴量を更新する投票部とを備えていることを特徴としている(請求項2)。
【0014】
このような構成によれば、輪郭線画像形成部によりプロトタイプ車両の輪郭線画像が形成され、作成部によりその輪郭線画像が次元圧縮されて求められた固有ベクトルである特徴量で定義される特徴平面または特徴空間が作成され、正規化部により前方車両のフレーム画像の縦横サイズがプロトタイプ車両のフレーム画像と同一サイズに正規化され、特徴量導出部により、正規化された前方車両のフレーム画像について輪郭線画像形成部で形成される複数の輪郭線画像が次元圧縮されて複数の特徴量が導出され、投票部により、導出された各特徴量が特徴平面または特徴空間に投票されてプロトタイプ車両の特徴量が更新される。
【0015】
そのため、連続するフレーム画像での同じ車両や輪郭線抽出の際のしきい値を若干変更した輪郭線画像は、特徴平面または特徴空間で非常に近いところに投票されることになって最適位置にピークが発生し、このピークを新しいプロトタイプ車両の特徴量として捕捉中の前方車両に対して個別に設定することによって、撮像シーンの照明条件等に依存しない安定した車両認識を行うことができ、確実な車両追跡を行うことができる。
【0016】
また、本発明にかかる車両認識装置は、前記投票部が、円すい型重みづけ投票を行うことを特徴としている(請求項3)。このような構成によれば、円すい型重みづけ投票の採用により、特徴量導出部により導出される特徴量の投票によって、プロトタイプ車両の特徴量の更新を精度よく行うことができる。
【0017】
また、本発明にかかる車両認識装置は、前記投票部が、前記プロトタイプ車両の前記特徴量の更新を、前記撮像部による前記前方車両の前記フレーム画像の撮像毎にFIFO方式で行うことを特徴としている(請求項4)。
【0018】
このような構成によれば、対象となる前方車両の撮像フレーム毎の明るさの変化や、カーブ路でのフレーム画像の変化にも柔軟に対応することができ、前方車両の捕捉率の向上を図ることができる。
【0019】
また、本発明にかかる車両認識方法は、自車前方を撮像して前方車両のフレーム画像を得る撮像工程と、前記撮像工程によるフレーム画像の全画素の濃度を微分処理して得られた全画素についての濃度微分値を2値化しエッジパターンから成る輪郭線画像を形成する輪郭線画像形成工程と、前記撮像工程において、予め定めたプロトタイプ車両の前記フレーム画像に対する前記輪郭線画像を得てこれを次元圧縮し固有ベクトルを求めその固有ベクトルである特徴量によって定義される特徴平面または特徴空間を作成する作成工程と、前方車両の前記フレーム画像の縦横サイズを前記プロトタイプ車両の前記フレーム画像と同一サイズに正規化する正規化工程と、前記正規化工程により正規化された前記前方車両の前記フレーム画像について前記輪郭線画像形成工程により各種のしきい値で2値化されて形成される複数の前記輪郭線画像を次元圧縮して複数の特徴量を導出する特徴量導出工程と、前記作成工程による前記特徴平面または特徴空間に、前記特徴量導出工程による前記各特徴量を投票して前記プロトタイプ車両の前記特徴量を更新する投票工程とを備えていることを特徴としている(請求項5)。
【0020】
このような構成によれば、輪郭線画像形成工程によりプロトタイプ車両の輪郭線画像が形成され、作成工程によりその輪郭線画像が次元圧縮されて求められた固有ベクトルである特徴量で定義される特徴平面または特徴空間が作成され、正規化工程により前方車両のフレーム画像の縦横サイズがプロトタイプ車両のフレーム画像と同一サイズに正規化され、特徴量導出工程により、正規化された前方車両のフレーム画像について輪郭線画像形成工程で形成される複数の輪郭線画像が次元圧縮されて複数の特徴量が導出され、投票工程により、導出された各特徴量が特徴平面または特徴空間に投票されてプロトタイプ車両の特徴量が更新される。
【0021】
そのため、連続するフレーム画像での同じ車両や輪郭線抽出の際のしきい値を若干変更した輪郭線画像は、特徴平面または特徴空間で非常に近いところに投票されることになって最適位置にピークが発生し、このピークを新しいプロトタイプ車両の特徴量として捕捉中の前方車両に対して個別に設定することによって、撮像シーンの照明条件等に依存しない安定した車両認識を行うことができ、確実な車両追跡を行うことができる。
【0022】
また、本発明にかかる車両認識方法は、前記投票工程において、円すい型重みづけ投票を行うことを特徴としている(請求項6)。このような構成によれば、円すい型重みづけ投票の採用により、特徴量導出部により導出される特徴量の投票によって、プロトタイプ車両の特徴量の更新を精度よく行うことができる。
【0023】
また、本発明にかかる車両認識方法は、前記投票工程において、前記プロトタイプ車両の前記特徴量の更新を、前記撮像工程による前記前方車両の前記フレーム画像の撮像毎にFIFO方式で行うことを特徴としている(請求項7)。
【0024】
このような構成によれば、対象となる前方車両の撮像フレーム毎の明るさの変化や、カーブ路でのフレーム画像の変化にも柔軟に対応することができ、前方車両の捕捉率の向上を図ることができる。
【0025】
【発明の実施の形態】
この発明の一実施形態について図1ないし図3を参照して説明する。但し、図1はブロック図、図2は動作説明図、図3は動作説明用フローチャートである。
【0026】
図1に示すように、撮像部としての単眼CCDカメラ1が車両に搭載され、このCCDカメラ1により自車前方が撮像されて前方車両のフレーム画像が得られ、得られたフレーム画像がCPU2によりVRAM等から成るメモリ3に保存される。そして、処理部であるCPU2により、以下のようにして自車前方の車両認識が行われる。尚、CCDカメラ1による撮像が、本発明における撮像工程に相当する。
【0027】
即ち、CPU2は、CCDカメラ1により撮像されたフレーム画像について、その全画素の濃度を微分処理し、得られた全画素についての濃度微分値を2値化しエッジパターンから成る輪郭線画像を形成する。このとき、前方車両のフレーム画像について、各種のしきい値で2値化して複数の輪郭線画像を形成する。このようなCPUによる輪郭線画像形成処理が、本発明における輪郭線画像形成部及び輪郭線画像形成工程に相当する。
【0028】
更に、CPU2は、予め定めたプロトタイプ車両についてCCDカメラ1により撮像されて得られたフレーム画像についても、同様にして輪郭線画像を形成し、形成した輪郭線画像を2次元に次元圧縮して固有ベクトルを求めてその固有ベクトルによって定義される特徴平面を作成し、これをメモリ3の所定エリアに保存しておく。このようなCPU2による特徴平面の作成処理が、本発明における作成部及び作成工程に相当する。
【0029】
また、CPU2は、CCDカメラ1により撮像された前方車両のフレーム画像について、その縦横サイズをプロトタイプ車両のフレーム画像と同一サイズに正規化し、正規化された前方車両のフレーム画像に対して、上記したように各種のしきい値で2値化して複数の輪郭線画像を形成し、これらをそれぞれ次元圧縮して複数の特徴量を導出する。このようなCPU2による正規化処理が、本発明における正規化部及び正規化工程に相当し、CPU2による特徴量の導出処理が、本発明における特徴量導出部及び特徴量導出工程に相当する。尚、この場合の各種しきい値は、予め定められた所定の範囲内で各々設定しておくのが望ましい。
【0030】
そして、CPU2により、導出された複数の特徴量が特徴平面に投票され、プロトタイプ車両の特徴量が更新される。このとき、円すい型重みづけ投票が採用され、プロトタイプ車両の特徴量の更新は、CCDカメラ1による前方車両のフレーム画像の撮像毎にFIFO(First In First Out)方式で行われる。このようなCPU2による投票・更新処理が、本発明における投票部及び投票工程に相当する。
【0031】
更に、CPU2による輪郭線画像の形成時に、各フレームにおける前方車両の動きをカルマンフィルタにより予測し、次フレームにおける前方車両の位置予測を行った上で、輪郭線画像の形成を行う。こうすることで、フレーム内での前方車両の認識率が向上するため、カルマンフィルタへの位置入力が安定して追跡走行の精度向上を図ることができる。
【0032】
例えば、図2に示すように、プロトタイプ車両についての輪郭線画像に基づき得られる固有ベクトルである特徴量e1,e2により定義される特徴平面に、連続する時刻t、t+1,t+2の各フレーム中の同じ前方車両の画像から、しきい値を変更して導出される複数の特徴量が投票されると、各特徴量は特徴平面上で非常に近い位置に投票されることになり、その結果、特徴平面上の最適位置においてピークが出現する。図2中のt、t+1,t+2の各フレーム画像における白枠は、各種のしきい値を設定する領域を示す。
【0033】
そして、このように投票されて最適位置である特徴量(e1_o,e2_o)が得られると、現在捕捉中の前方車両は、特徴量(e1_o,e2_o)のプロトタイプ車両の特徴量として次フレーム以降で利用されることになるのである。
【0034】
次に、一連の動作について図3のフローチャートを参照して説明する。いま、図3に示すように、CCDカメラ1により自車前方が撮像されてフレーム画像が取得されると(S1)、CPU2により、取得されたフレーム画像について、その縦横サイズがプロトタイプ車両のフレーム画像と同一サイズに正規化され、正規化された前方車両のフレーム画像について全画素の濃度が微分処理され(S2)、得られた全画素についての濃度微分値が予め設定された各種のしきい値で2値化されてエッジパターンから成る複数の輪郭線画像が形成される(S3)。
【0035】
このとき、CPU2により、予め定めたプロトタイプ車両について得られたフレーム画像に対して輪郭線画像が形成され、その輪郭線画像が次元圧縮されて固有ベクトルが求められ、その固有ベクトルによって定義される特徴平面が作成されて既にメモリ3の所定エリアに保存されている。
【0036】
更に、CPU2により、各輪郭線画像がそれぞれ次元圧縮されて複数の特徴量が導出され(S4)、メモリ3に保存されている特徴平面(図2参照)にこれら各特徴量が投票され(S5)、出現するピークの探索が行われ(S6)、出現したピークがプロトタイプ車両の特徴量として更新され(S7)、次フレーム以降で利用され、その後ステップS1に戻る。
【0037】
このように、CPU2により、プロトタイプ車両の輪郭線画像が形成され、その輪郭線画像が次元圧縮されて求められた固有ベクトルで定義される特徴平面が導出され、前方車両のフレーム画像の縦横サイズがプロトタイプ車両のフレーム画像と同一サイズに正規化され、正規化された前方車両のフレーム画像の輪郭線画像が次元圧縮されて特徴量が導出され、導出された特徴量が特徴平面に投票されてプロトタイプ車両の特徴量が更新される。
【0038】
従って、上記した実施形態によれば、連続するフレーム画像での同じ車両や輪郭線抽出の際のしきい値を若干変更した輪郭線画像は、特徴平面で非常に近いところに投票されることになって最適位置にピークが発生し、このピークを新しいプロトタイプ車両の特徴量として捕捉中の前方車両に対して個別に設定することによって、撮像シーンの照明条件等に依存しない安定した車両認識を行うことができ、確実な車両追跡を行うことができる。
【0039】
このとき、特徴量の導出の際に、ある範囲内で設定した各種のしきい値で2値化した輪郭線画像から複数の特徴量を導出するため、明るさの変化による影響をほとんど受けることなく特徴量を導出することができる。
【0040】
更に、図2に示すような連続フレームからの投票によって対象となる前方車両毎に動的にプロトタイプを設定するため、初期に準備するプロトタイプと特徴量が離れている車両であっても容易に認識することができる。
【0041】
また、プロトタイプ車両の特徴量の更新を、CCDカメラ1による前方車両のフレーム画像の撮像毎にFIFO方式で行うようにしているため、対象となる前方車両の撮像フレーム毎の明るさの変化や、カーブ路でのフレーム画像の変化にも柔軟に対応することが可能になり、前方車両の捕捉率の向上を図ることができる。
【0042】
更に、カルマンフィルタにより前方車両の動きをある程度予測するため、前方車両の捕捉率を向上することができ、例えば前方車両の認識に基づく追跡走行の性能向上を図ることができる。
【0043】
なお、本発明は上記した実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行うことが可能である。
【0044】
例えば、上記した実施形態では、プロトタイプ車両の輪郭線画像を2次元に次元圧縮して求めた特徴量により特徴平面を定義した場合について説明したが、3次元やそれ以上に次元圧縮して特徴空間を定義しても良いのは勿論であり、この場合にも上記した実施形態と同等の効果を得ることができる。
【0045】
また、上記した実施形態では、カルマンフィルタによる動き予測を行う場合について説明したが、必ずしもこのような動き予測は行わなくても構わない。
【0046】
更に、自車に搭載すべき撮像部は、上記したCCDカメラ1に限定されるものでないのはいうまでもない。
【0047】
【発明の効果】
以上のように、請求項1,2,5に記載の発明によれば、プロトタイプ車両の輪郭線画像を次元圧縮して得られた固有ベクトルである特徴量で定義される特徴平面または特徴空間に、各種のしきい値で2値化して得られる前方車両の輪郭線画像を次元圧縮して導出される複数の特徴量を投票すると、連続するフレーム画像での同じ車両や、輪郭線抽出の際のしきい値を若干変更した輪郭線画像は、特徴平面または特徴空間で非常に近いところに投票されることになって最適位置にピークが発生する。
【0048】
そのため、最適位置にピークが発生し、このピークを新しいプロトタイプ車両の特徴量として捕捉中の前方車両に対して個別に設定することによって、撮像シーンの照明条件等に依存しない安定した車両認識を行うことができ、確実な車両追跡を行うことが可能になり、安全走行の補助として非常に有効である。
【0049】
また、請求項3,6に記載の発明によれば、円すい型重みづけ投票の採用により、特徴量導出部により導出される特徴量の投票によって、プロトタイプ車両の特徴量の更新を精度よく行うことが可能になる。
【0050】
また、請求項4,7に記載の発明によれば、対象となる前方車両の撮像フレーム毎の明るさの変化や、カーブ路でのフレーム画像の変化にも柔軟に対応することができ、前方車両の捕捉率の向上を図ることが可能になる。
【図面の簡単な説明】
【図1】この発明の一実施形態のブロック図である。
【図2】この発明の一実施形態の動作説明図である。
【図3】この発明の一実施形態の動作説明用フローチャートである。
【符号の説明】
1 CCDカメラ(撮像部)
2 CPU(処理部、輪郭線画像形成部、作成部、正規化部、特徴量導出部、投票部)
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a vehicle recognizing device and a recognizing method for recognizing a vehicle ahead of a host vehicle by processing an image.
[0002]
[Prior art]
In recent years, vehicles equipped with a more advanced and more comfortable driving support system, such as a follow-up driving function and a steering assist function on a highway, have been proposed.As one of the methods, a teacher image of the prototype vehicle taken from the rear end face is taken. There is a method of preparing and comparing a captured image of a vehicle in front with a monocular camera with a teacher image to determine whether the captured image is of a vehicle.
[0003]
At this time, the contour image is extracted by processing the captured image of the preceding vehicle. At this time, the threshold value changes dynamically depending on the brightness of the captured scene. There has been a problem that the outline of the vehicle and the outline of the prototype vehicle are so different that the vehicle in front cannot be recognized.
[0004]
In addition, in the case of vehicle recognition, the feature amount of the prototype vehicle is compared with the feature amount of the preceding vehicle.However, when the feature amount of the prototype vehicle is obtained, the lighting conditions may vary depending on, for example, weather, season, time zone, and the like. Therefore, it was practically impossible to prepare a large number of teacher images for each vehicle type. In addition, when the number of teacher images is increased, the matching process becomes very complicated, and it takes a long time to recognize whether or not the vehicle is a vehicle.
[0005]
Further, when temporally tracking the recognized preceding vehicle, an algorithm for predicting the next position of the preceding vehicle is applied using a Kalman filter. There is also a problem that the output of the vehicle is not stable, and vehicle tracking often fails.
[0006]
By the way, when a road white line is detected by performing image processing, it has been proposed to employ a voting method based on Hough transform (for example, see Patent Document 1).
[0007]
[Patent Document 1]
JP-A-11-85999 (paragraphs [0008] to [0010])
[0008]
[Problems to be solved by the invention]
Since many experiments have confirmed that this voting method is robust against noise and robust, in a method of processing a captured image with a single-lens camera and performing vehicle recognition, such a voting method is used from the viewpoint of robustness. However, it is not yet adopted for vehicle recognition processing an image captured by a monocular camera.
[0009]
Therefore, an object of the present invention is to adopt a robust voting method for vehicle recognition and to enable stable vehicle recognition.
[0010]
[Means for Solving the Problems]
In order to achieve the above object, a vehicle recognition device according to the present invention, in a vehicle recognition device that processes an image to recognize a vehicle ahead of a host vehicle, captures a frame image of a vehicle ahead of the host vehicle by an imaging unit. Then, the processing unit binarizes the density differential values of all the pixels obtained by differentiating the densities of all the pixels of the frame image by the image capturing unit of the predetermined prototype vehicle to obtain a contour image formed of an edge pattern. Forming and dimensionally compressing the contour image of the formed prototype vehicle to obtain an eigenvector, create a feature plane or a feature space defined by a feature amount that is the eigenvector, and generate the frame image of the preceding vehicle by the imaging unit. Are binarized at various threshold values to form a plurality of contour images, and each contour image is dimensionally compressed to obtain a plurality of features. Derives the amount, by voting the each feature quantity in the feature plane or the feature space is characterized by updating the feature value of the prototype vehicle (claim 1).
[0011]
According to such a configuration, the contour line image of the prototype vehicle is obtained by binarizing the feature plane or the feature space defined by the feature amount which is an eigenvector obtained by dimensionally compressing the contour image with various threshold values. When voting for a plurality of feature values derived by dimensionally compressing the contour image of the preceding vehicle, the contour image obtained by slightly changing the threshold value for extracting the same vehicle or contour line in successive frame images is characterized by You will be voted very close in the plane or feature space.
[0012]
Therefore, a peak occurs at the optimum position, and this peak is individually set as a feature value of the new prototype vehicle for the preceding vehicle being captured, thereby performing stable vehicle recognition independent of the lighting conditions of the imaging scene. And reliable vehicle tracking can be performed.
[0013]
Further, a vehicle recognition device according to the present invention is a vehicle recognition device that processes an image to recognize a vehicle ahead of the host vehicle, an imaging unit that captures an image of the front of the host vehicle to obtain a frame image of the vehicle ahead, and the imaging unit. A contour image forming unit for binarizing a density differential value of all pixels obtained by differentiating the densities of all the pixels of the frame image to form a contour image composed of an edge pattern, and a predetermined prototype vehicle. A creating unit for dimensionally compressing the contour image with respect to the frame image to obtain an eigenvector and creating a feature plane or a feature space defined by a feature amount that is the eigenvector; and A normalizing unit for normalizing to the same size as the frame image of the vehicle, and the frame of the preceding vehicle normalized by the normalizing unit. A feature amount deriving unit that derives a plurality of feature amounts by dimensionally compressing each of the plurality of contour line images formed by binarizing the image with various thresholds by the contour image forming unit; A voting unit for voting each of the feature amounts by the feature amount deriving unit and updating the feature amount of the prototype vehicle in the feature plane or the feature space by the creating unit; 2).
[0014]
According to such a configuration, the contour image of the prototype vehicle is formed by the contour image forming unit, and the feature plane defined by the feature amount that is an eigenvector obtained by dimensionally compressing the contour image by the creating unit. Alternatively, a feature space is created, the vertical and horizontal sizes of the frame image of the vehicle in front are normalized by the normalization unit to the same size as the frame image of the prototype vehicle, and the feature amount deriving unit outlines the normalized frame image of the vehicle in front. The plurality of contour images formed by the line image forming unit are dimensionally compressed to derive a plurality of feature values, and the voting unit votes each of the derived feature values to a feature plane or feature space to provide a feature of the prototype vehicle. The amount is updated.
[0015]
For this reason, the same vehicle in consecutive frame images or a contour image with a slightly changed threshold value for contour extraction is voted very close in the feature plane or feature space, and becomes the optimal position. A peak is generated, and by setting this peak individually as a feature value of the new prototype vehicle for the vehicle in front of the vehicle being captured, stable vehicle recognition independent of the lighting conditions of the imaging scene can be performed. Vehicle tracking can be performed.
[0016]
Further, the vehicle recognition device according to the present invention is characterized in that the voting unit performs conical weighted voting (claim 3). According to such a configuration, by adopting the cone-type weighted voting, the feature amount of the prototype vehicle can be accurately updated by voting of the feature amount derived by the feature amount deriving unit.
[0017]
Also, the vehicle recognition device according to the present invention is characterized in that the voting unit updates the feature amount of the prototype vehicle by the FIFO method each time the frame image of the preceding vehicle is captured by the imaging unit. (Claim 4).
[0018]
According to such a configuration, it is possible to flexibly cope with a change in brightness of each of the imaging frames of the target vehicle in front and a change in a frame image on a curved road, and an improvement in the capture rate of the vehicle in front. Can be planned.
[0019]
Further, the vehicle recognition method according to the present invention includes an image capturing step of capturing an image ahead of the own vehicle to obtain a frame image of the vehicle ahead, and all pixels obtained by differentiating density of all pixels of the frame image in the image capturing step. And a contour image forming step of forming a contour image composed of an edge pattern by binarizing the density differential value of the contour image, and obtaining the contour image with respect to the frame image of a predetermined prototype vehicle in the imaging step. Creating a feature plane or feature space defined by a feature amount that is the eigenvector obtained by compressing the dimension and estimating the eigenvector, and normalizing the vertical and horizontal sizes of the frame image of the preceding vehicle to the same size as the frame image of the prototype vehicle. Normalizing step, and the frame image of the preceding vehicle normalized by the normalizing step. A feature value deriving step of dimensionally compressing a plurality of the contour images formed by binarization with various threshold values in the contour image forming step to derive a plurality of feature quantities; A voting step of voting each of the feature quantities in the feature quantity deriving step to update the feature quantity of the prototype vehicle in a plane or a feature space (claim 5).
[0020]
According to such a configuration, the contour image of the prototype vehicle is formed by the contour image forming step, and the contour plane image is dimensionally compressed by the creating step. Alternatively, a feature space is created, the vertical and horizontal sizes of the frame image of the preceding vehicle are normalized to the same size as the frame image of the prototype vehicle by the normalization process, and the contour of the normalized frame image of the preceding vehicle is extracted by the feature derivation process. The plurality of contour images formed in the line image forming process are dimensionally compressed to derive a plurality of feature values, and the voting process is performed so that each of the derived feature values is voted on a feature plane or feature space, and the feature of the prototype vehicle is obtained. The amount is updated.
[0021]
For this reason, the same vehicle in consecutive frame images or a contour image with a slightly changed threshold value for contour extraction is voted very close in the feature plane or feature space, and becomes the optimal position. A peak is generated, and by setting this peak individually as a feature value of the new prototype vehicle for the vehicle in front of the vehicle being captured, stable vehicle recognition independent of the lighting conditions of the imaging scene can be performed. Vehicle tracking can be performed.
[0022]
Further, the vehicle recognition method according to the present invention is characterized in that, in the voting step, a cone-type weighted voting is performed (claim 6). According to such a configuration, by adopting the cone-type weighted voting, the feature amount of the prototype vehicle can be accurately updated by voting of the feature amount derived by the feature amount deriving unit.
[0023]
Further, the vehicle recognition method according to the present invention is characterized in that, in the voting step, the updating of the feature amount of the prototype vehicle is performed by a FIFO method each time the frame image of the preceding vehicle is captured in the imaging step. (Claim 7).
[0024]
According to such a configuration, it is possible to flexibly cope with a change in brightness of each of the imaging frames of the target vehicle in front and a change in a frame image on a curved road, and an improvement in the capture rate of the vehicle in front. Can be planned.
[0025]
BEST MODE FOR CARRYING OUT THE INVENTION
An embodiment of the present invention will be described with reference to FIGS. 1 is a block diagram, FIG. 2 is an operation explanatory diagram, and FIG. 3 is a flowchart for operation explanation.
[0026]
As shown in FIG. 1, a monocular CCD camera 1 as an imaging unit is mounted on a vehicle, and an image of the front of the vehicle is taken by the CCD camera 1 to obtain a frame image of the vehicle in front. It is stored in a memory 3 such as a VRAM. Then, the vehicle in front of the own vehicle is recognized by the CPU 2 as a processing unit as follows. Note that imaging by the CCD camera 1 corresponds to an imaging step in the present invention.
[0027]
That is, the CPU 2 differentiates the densities of all the pixels of the frame image captured by the CCD camera 1 and binarizes the obtained density differential values of all the pixels to form a contour image composed of an edge pattern. . At this time, a plurality of contour images are formed by binarizing the frame image of the vehicle in front with various threshold values. Such contour image forming processing by the CPU corresponds to a contour image forming unit and a contour image forming step in the present invention.
[0028]
Further, the CPU 2 similarly forms a contour image for a frame image obtained by imaging the predetermined prototype vehicle with the CCD camera 1, and compresses the formed contour image two-dimensionally to obtain an eigenvector. And a feature plane defined by the eigenvector is created and stored in a predetermined area of the memory 3. Such a process of creating a feature plane by the CPU 2 corresponds to a creating unit and a creating step in the present invention.
[0029]
Further, the CPU 2 normalizes the vertical and horizontal sizes of the frame image of the front vehicle captured by the CCD camera 1 to the same size as the frame image of the prototype vehicle, and performs the above-described processing on the normalized frame image of the front vehicle. In this manner, a plurality of contour images are formed by binarizing with various threshold values, and these are dimensionally compressed to derive a plurality of feature amounts. Such normalization processing by the CPU 2 corresponds to a normalization unit and a normalization step in the present invention, and the processing of deriving a feature quantity by the CPU 2 corresponds to a feature quantity derivation unit and a feature quantity derivation step in the present invention. It is desirable that the various threshold values in this case are set within a predetermined range.
[0030]
Then, the CPU 2 votes the plurality of derived feature amounts for the feature plane, and updates the feature amounts of the prototype vehicle. At this time, cone-type weighted voting is adopted, and the feature amount of the prototype vehicle is updated by the FIFO (First In First Out) method every time the CCD camera 1 captures a frame image of the preceding vehicle. The voting / updating process by the CPU 2 corresponds to a voting unit and a voting process in the present invention.
[0031]
Further, when the CPU 2 forms the contour image, the motion of the preceding vehicle in each frame is predicted by the Kalman filter, and the position of the preceding vehicle in the next frame is predicted, and then the contour image is formed. By doing so, the recognition rate of the preceding vehicle in the frame is improved, so that the position input to the Kalman filter is stabilized, and the accuracy of tracking and running can be improved.
[0032]
For example, as shown in FIG. 2, a feature plane defined by feature quantities e1 and e2, which are eigenvectors obtained based on a contour image of a prototype vehicle, has the same time t, t + 1, and t + 2 in each frame at successive times. When a plurality of feature values derived by changing the threshold value are voted from the image of the preceding vehicle, each feature value is voted at a very close position on the feature plane, and as a result, the feature A peak appears at the optimum position on the plane. White frames in each of the frame images t, t + 1, and t + 2 in FIG. 2 indicate regions where various threshold values are set.
[0033]
When the feature amount (e1_o, e2_o) at the optimum position is obtained by voting in this manner, the preceding vehicle currently being captured is used as the feature amount of the prototype vehicle of the feature amount (e1_o, e2_o) in the next frame and thereafter. It will be used.
[0034]
Next, a series of operations will be described with reference to the flowchart of FIG. Now, as shown in FIG. 3, when the front of the own vehicle is imaged by the CCD camera 1 and a frame image is obtained (S1), the CPU 2 sets the vertical and horizontal sizes of the obtained frame image by the frame image of the prototype vehicle. The density of all pixels is differentiated with respect to the normalized frame image of the preceding vehicle (S2), and the obtained density differential values of all pixels are set to various predetermined threshold values. Are binarized to form a plurality of contour images composed of edge patterns (S3).
[0035]
At this time, a contour image is formed by the CPU 2 on a frame image obtained for a predetermined prototype vehicle, the contour image is dimensionally compressed to obtain an eigenvector, and a feature plane defined by the eigenvector is determined. It is created and already stored in a predetermined area of the memory 3.
[0036]
Further, each contour line image is dimensionally compressed by the CPU 2 to derive a plurality of feature amounts (S4), and these feature amounts are voted on a feature plane (see FIG. 2) stored in the memory 3 (S5). ), A search for an appearing peak is performed (S6), and the appearing peak is updated as a feature amount of the prototype vehicle (S7), and is used in the next frame and thereafter, and thereafter, the process returns to step S1.
[0037]
As described above, the CPU 2 forms the contour image of the prototype vehicle, derives a feature plane defined by the eigenvectors obtained by dimensionally compressing the contour image, and determines the length and width of the frame image of the vehicle ahead by the prototype. The feature image is normalized by the same size as the frame image of the vehicle, and the contour image of the normalized frame image of the preceding vehicle is dimensionally compressed to derive a feature amount. Are updated.
[0038]
Therefore, according to the above-described embodiment, a contour image obtained by slightly changing the threshold value for extracting the same vehicle or contour in successive frame images is voted very close in the feature plane. A peak is generated at the optimum position, and this peak is individually set as a feature amount of the new prototype vehicle for the preceding vehicle being captured, thereby performing stable vehicle recognition independent of the lighting conditions of the imaging scene. And reliable vehicle tracking can be performed.
[0039]
At this time, when deriving the feature amount, since a plurality of feature amounts are derived from the contour image binarized by various threshold values set within a certain range, the influence of the change in brightness is almost eliminated. And the feature amount can be derived.
[0040]
Further, since a prototype is dynamically set for each target vehicle by voting from a continuous frame as shown in FIG. 2, even a vehicle having a feature amount different from a prototype initially prepared can be easily recognized. can do.
[0041]
In addition, since the update of the feature amount of the prototype vehicle is performed by the FIFO method each time the CCD camera 1 captures a frame image of the front vehicle, a change in brightness of each of the target front vehicle imaging frames, It is possible to flexibly cope with a change in a frame image on a curved road, and it is possible to improve an acquisition rate of a vehicle ahead.
[0042]
Furthermore, since the movement of the preceding vehicle is predicted to some extent by the Kalman filter, the capturing rate of the preceding vehicle can be improved, and for example, the performance of tracking and running based on recognition of the preceding vehicle can be improved.
[0043]
The present invention is not limited to the above-described embodiment, and various changes other than those described above can be made without departing from the gist of the present invention.
[0044]
For example, in the above-described embodiment, a case has been described where a feature plane is defined by a feature amount obtained by two-dimensionally compressing a contour image of a prototype vehicle, but the feature space is three-dimensionally or more dimensionally compressed. May be defined, and in this case, the same effect as in the above-described embodiment can be obtained.
[0045]
Further, in the above-described embodiment, a case has been described in which motion prediction is performed using a Kalman filter. However, such motion prediction does not necessarily have to be performed.
[0046]
Further, it goes without saying that the imaging unit to be mounted on the own vehicle is not limited to the above-described CCD camera 1.
[0047]
【The invention's effect】
As described above, according to the first, second, and fifth aspects of the present invention, a feature plane or a feature space defined by a feature amount, which is an eigenvector obtained by dimensionally compressing a contour image of a prototype vehicle, By voting a plurality of feature values derived by dimensionally compressing a contour image of a preceding vehicle obtained by binarizing with various threshold values, the same vehicle in a continuous frame image or the same vehicle at the time of contour extraction The contour image with the threshold slightly changed is voted very close in the feature plane or the feature space, and a peak occurs at the optimum position.
[0048]
Therefore, a peak occurs at the optimum position, and this peak is individually set as a feature value of the new prototype vehicle for the preceding vehicle being captured, thereby performing stable vehicle recognition independent of the lighting conditions of the imaging scene. This enables reliable vehicle tracking, which is very effective as an aid for safe driving.
[0049]
According to the third and sixth aspects of the present invention, by adopting the cone-type weighted voting, the feature amount of the prototype vehicle is accurately updated by voting of the feature amount derived by the feature amount deriving unit. Becomes possible.
[0050]
Further, according to the inventions described in claims 4 and 7, it is possible to flexibly cope with a change in brightness of each of the imaging frames of the target front vehicle and a change in a frame image on a curved road. It is possible to improve the vehicle capture rate.
[Brief description of the drawings]
FIG. 1 is a block diagram of one embodiment of the present invention.
FIG. 2 is an operation explanatory diagram of one embodiment of the present invention.
FIG. 3 is a flowchart for explaining the operation of the embodiment of the present invention;
[Explanation of symbols]
1 CCD camera (imaging unit)
2 CPU (processing unit, contour image forming unit, creating unit, normalizing unit, feature amount deriving unit, voting unit)

Claims (7)

画像を処理して自車前方の車両を認識する車両認識装置において、
撮像部により自車前方の前方車両のフレーム画像を撮像し、
処理部により、
予め定めたプロトタイプ車両の前記撮像部によるフレーム画像の全画素の濃度を微分処理して得られた全画素についての濃度微分値を2値化しエッジパターンから成る輪郭線画像を形成し、
形成した前記プロトタイプ車両の前記輪郭線画像を次元圧縮して固有ベクトルを求めその固有ベクトルである特徴量によって定義される特徴平面または特徴空間を作成し、
前記撮像部による前方車両の前記フレーム画像について各種のしきい値で2値化して複数の前記輪郭線画像を形成し、これら各輪郭線画像それぞれを次元圧縮して複数の特徴量を導出し、
前記各特徴量を前記特徴平面または特徴空間に投票して前記プロトタイプ車両の前記特徴量を更新する
ことを特徴とする車両認識装置。
In a vehicle recognition device that processes an image to recognize a vehicle ahead of the own vehicle,
The imaging unit captures a frame image of a vehicle ahead of the own vehicle,
By the processing unit,
Binarizing the density differential value of all pixels obtained by differentiating the density of all pixels of the frame image by the imaging unit of the predetermined prototype vehicle to form a contour image composed of an edge pattern,
The contour image of the formed prototype vehicle is dimensionally compressed to obtain an eigenvector, and a feature plane or feature space defined by a feature amount that is the eigenvector is created.
A plurality of contour images are formed by binarizing the frame image of the vehicle in front by the imaging unit with various thresholds, and a plurality of feature amounts are derived by dimensionally compressing each of the contour images.
A vehicle recognizing device, wherein the feature amount of the prototype vehicle is updated by voting each of the feature amounts to the feature plane or feature space.
画像を処理して自車前方の車両を認識する車両認識装置において、
自車前方を撮像して前方車両のフレーム画像を得る撮像部と、
前記撮像部によるフレーム画像の全画素の濃度を微分処理して得られた全画素についての濃度微分値を2値化しエッジパターンから成る輪郭線画像を形成する輪郭線画像形成部と、
予め定めたプロトタイプ車両の前記フレーム画像に対する前記輪郭線画像を次元圧縮して固有ベクトルを求めその固有ベクトルである特徴量によって定義される特徴平面または特徴空間を作成する作成部と、
前方車両の前記フレーム画像の縦横サイズを前記プロトタイプ車両の前記フレーム画像と同一サイズに正規化する正規化部と、
前記正規化部により正規化された前記前方車両の前記フレーム画像について前記輪郭線画像形成部により各種のしきい値で2値化されて形成される複数の前記輪郭線画像それぞれを次元圧縮して複数の特徴量を導出する特徴量導出部と、
前記作成部による前記特徴平面または特徴空間に、前記特徴量導出部による前記各特徴量を投票して前記プロトタイプ車両の前記特徴量を更新する投票部と
を備えていることを特徴とする車両認識装置。
In a vehicle recognition device that processes an image to recognize a vehicle ahead of the own vehicle,
An imaging unit that captures an image of the front of the vehicle and obtains a frame image of the vehicle in front;
A contour image forming unit that binarizes a density differential value of all pixels obtained by differentiating the densities of all pixels of the frame image by the imaging unit to form a contour image composed of an edge pattern;
A creation unit that creates a feature plane or feature space defined by a feature amount that is an eigenvector obtained by dimensionally compressing the contour image with respect to the frame image of a predetermined prototype vehicle,
A normalization unit that normalizes the vertical and horizontal sizes of the frame image of the preceding vehicle to the same size as the frame image of the prototype vehicle,
Each of the plurality of contour images formed by binarizing the frame image of the preceding vehicle normalized by the normalization unit with various threshold values by the contour image forming unit is dimensionally compressed. A feature value deriving unit that derives a plurality of feature values;
A voting section for voting each of the feature quantities by the feature quantity deriving section and updating the feature quantity of the prototype vehicle in the feature plane or feature space by the creating section; apparatus.
前記投票部が、円すい型重みづけ投票を行うことを特徴とする請求項2に記載の車両認識装置。3. The vehicle recognition device according to claim 2, wherein the voting unit performs a cone-type weighted voting. 前記投票部が、前記プロトタイプ車両の前記特徴量の更新を、前記撮像部による前記前方車両の前記フレーム画像の撮像毎にFIFO方式で行うことを特徴とする請求項2または3に記載の車両認識装置。The vehicle recognition according to claim 2, wherein the voting unit updates the feature amount of the prototype vehicle by a FIFO method each time the imaging unit captures the frame image of the preceding vehicle. apparatus. 画像を処理して自車前方の車両を認識する車両認識方法において、
自車前方を撮像して前方車両のフレーム画像を得る撮像工程と、
前記撮像工程によるフレーム画像の全画素の濃度を微分処理して得られた全画素についての濃度微分値を2値化しエッジパターンから成る輪郭線画像を形成する輪郭線画像形成工程と、
前記撮像工程において、予め定めたプロトタイプ車両の前記フレーム画像に対する前記輪郭線画像を得てこれを次元圧縮し固有ベクトルを求めその固有ベクトルである特徴量によって定義される特徴平面または特徴空間を作成する作成工程と、
前方車両の前記フレーム画像の縦横サイズを前記プロトタイプ車両の前記フレーム画像と同一サイズに正規化する正規化工程と、
前記正規化工程により正規化された前記前方車両の前記フレーム画像について前記輪郭線画像形成工程により各種のしきい値で2値化されて形成される複数の前記輪郭線画像を次元圧縮して複数の特徴量を導出する特徴量導出工程と、
前記作成工程による前記特徴平面または特徴空間に、前記特徴量導出工程による前記各特徴量を投票して前記プロトタイプ車両の前記特徴量を更新する投票工程と
を備えていることを特徴とする車両認識方法。
In a vehicle recognition method for processing an image to recognize a vehicle ahead of the own vehicle,
An imaging step of imaging the front of the own vehicle to obtain a frame image of the front vehicle,
A contour image forming step of binarizing a density differential value for all pixels obtained by differentiating the densities of all pixels of the frame image in the image capturing step to form a contour image composed of an edge pattern;
A generating step of obtaining the contour image for the frame image of a predetermined prototype vehicle, compressing the contour image to obtain an eigenvector, obtaining a eigenvector, and creating a feature plane or a feature space defined by a feature amount being the eigenvector in the imaging step; When,
A normalization step of normalizing the vertical and horizontal sizes of the frame image of the preceding vehicle to the same size as the frame image of the prototype vehicle,
A plurality of contour images formed by binarizing the frame images of the preceding vehicle normalized by the normalization step with various thresholds in the contour image forming step are formed. A feature value deriving step of deriving feature values of
A voting step of voting each of the feature quantities in the feature deriving step in the feature plane or feature space in the creating step to update the feature quantity of the prototype vehicle. Method.
前記投票工程において、円すい型重みづけ投票を行うことを特徴とする請求項5に記載の車両認識方法。The vehicle recognition method according to claim 5, wherein in the voting step, a cone-type weighted voting is performed. 前記投票工程において、前記プロトタイプ車両の前記特徴量の更新を、前記撮像工程による前記前方車両の前記フレーム画像の撮像毎にFIFO方式で行うことを特徴とする請求項5または6に記載の車両認識方法。7. The vehicle recognition according to claim 5, wherein, in the voting step, updating of the feature amount of the prototype vehicle is performed by a FIFO method each time the frame image of the preceding vehicle is captured in the imaging step. Method.
JP2002346879A 2002-11-29 2002-11-29 Vehicle recognition apparatus and recognition method Withdrawn JP2004180200A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002346879A JP2004180200A (en) 2002-11-29 2002-11-29 Vehicle recognition apparatus and recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002346879A JP2004180200A (en) 2002-11-29 2002-11-29 Vehicle recognition apparatus and recognition method

Publications (1)

Publication Number Publication Date
JP2004180200A true JP2004180200A (en) 2004-06-24

Family

ID=32707637

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002346879A Withdrawn JP2004180200A (en) 2002-11-29 2002-11-29 Vehicle recognition apparatus and recognition method

Country Status (1)

Country Link
JP (1) JP2004180200A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008020544A1 (en) * 2006-08-18 2008-02-21 Nec Corporation Vehicle detection device, vehicle detection method, and vehicle detection program
JP2009510541A (en) * 2005-09-29 2009-03-12 パナソニック株式会社 Object tracking method and object tracking apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009510541A (en) * 2005-09-29 2009-03-12 パナソニック株式会社 Object tracking method and object tracking apparatus
WO2008020544A1 (en) * 2006-08-18 2008-02-21 Nec Corporation Vehicle detection device, vehicle detection method, and vehicle detection program
US8599257B2 (en) 2006-08-18 2013-12-03 Nec Corporation Vehicle detection device, vehicle detection method, and vehicle detection program

Similar Documents

Publication Publication Date Title
KR101758684B1 (en) Apparatus and method for tracking object
CN108549864B (en) Vehicle-mounted thermal imaging pedestrian detection-oriented region-of-interest filtering method and device
US5715325A (en) Apparatus and method for detecting a face in a video image
EP1320072A2 (en) Lane marker recognition method
CN106503691B (en) Identity labeling method and device for face picture
JP2006268097A (en) On-vehicle object detecting device, and object detecting method
US11270133B2 (en) Object detection device, object detection method, and computer-readable recording medium
US9747507B2 (en) Ground plane detection
CN111539986B (en) Target tracking method, device, computer equipment and storage medium
KR101552600B1 (en) Method for tracking multiple walking object simultaneously using sectioned image
KR20090098167A (en) Method and system for detecting lane by using distance sensor
JP3800785B2 (en) White line recognition device
JP2002228423A (en) Tire detecting method and device
JP2008288684A (en) Person detection device and program
JP2004180200A (en) Vehicle recognition apparatus and recognition method
KR101999354B1 (en) Using Curve Line Curvature Information
JP6677141B2 (en) Parking frame recognition device
KR20150101205A (en) Pedestrian Recognition Apparatus and the Method of Using Integral Vertical Edge
US20240221181A1 (en) Image processing system
Gu et al. Robust road lane detection using extremal-region enhancement
JP4203648B2 (en) Image processing device
Al-Refai et al. A framework for background modeling using vehicle-to-infrastructure communication for improved candidate generation in pedestrian detection
JP4849262B2 (en) License plate extraction system, license plate extraction device, license plate extraction method and program
JP6677142B2 (en) Parking frame recognition device
Lee et al. Robust detection of preceding vehicles in crowded traffic conditions

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060207