JP2004180200A - Vehicle recognition apparatus and recognition method - Google Patents
Vehicle recognition apparatus and recognition method Download PDFInfo
- Publication number
- JP2004180200A JP2004180200A JP2002346879A JP2002346879A JP2004180200A JP 2004180200 A JP2004180200 A JP 2004180200A JP 2002346879 A JP2002346879 A JP 2002346879A JP 2002346879 A JP2002346879 A JP 2002346879A JP 2004180200 A JP2004180200 A JP 2004180200A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- feature
- image
- frame image
- contour
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
この発明は、画像を処理して自車前方の車両を認識する車両認識装置及び認識方法に関する。
【0002】
【従来の技術】
近年、例えば高速道路における追従走行機能や操舵アシスト機能といった、より高度でより快適な運転支援システムを搭載した車両が提案され、その手法のひとつとして、プロトタイプ車両について、その後端面を撮像した教師画像を準備し、単眼カメラによる前方車両の撮像画像と教師画像との照合によって、その撮像画像が車両のものかどうかを判断する手法がある。
【0003】
このとき、前方車両の撮像画像を処理して輪郭線を抽出するが、その際にしきい値の設定が撮像シーンの明るさによって動的に変化するため、同じ車両であるにも拘わらず、前方車両の輪郭線とプロトタイプ車両の輪郭線とが大きく異なって前方車両を認識できなくなるという問題点があった。
【0004】
また、車両認識の場合、プロトタイプ車両の特徴量と前方車両の特徴量とを比較するが、プロトタイプ車両の特徴量を求める場合に、例えば天候、季節や時間帯等によって照明条件が様々に異なることから、各車種毎の教師画像を多数準備することは事実上不可能であった。しかも、このように教師画像の数が多くなると、照合処理が非常に煩雑になって車両かどうか認識するのに長時間を要し、リアルタイム処理が困難になるという不都合が生じる。
【0005】
更に、認識した前方車両を時間的に追跡するときには、カルマンフィルタでその前方車両の次回位置を予測するアルゴリズムを適用することが行われるが、ノイズ等の影響を受け易くロバストでない単眼画像の場合、カルマンフィルタの出力が安定せず、車両追跡に失敗することが多いという問題点もあった。
【0006】
ところで、画像処理を行って道路白線を検知する場合において、ハフ変換による投票方式を採用することも提案されている(例えば特許文献1参照)。
【0007】
【特許文献1】
特開平11−85999号公報(段落[0008]〜[0010])
【0008】
【発明が解決しようとする課題】
この投票方式はノイズに強く、ロバストであることが多くの実験により確認されているため、単眼カメラにより撮像画像を処理して車両認識を行う手法において、ロバスト性の観点から、このような投票方式を採用することが望ましいが、単眼カメラによる撮像画像を処理する車両認識には未だ採用されていない。
【0009】
そこで、本発明は、ロバストな投票方式を車両認識に採用して安定した車両認識を可能にすることを目的とする。
【0010】
【課題を解決するための手段】
上記した目的を達成するために、本発明にかかる車両認識装置は、画像を処理して自車前方の車両を認識する車両認識装置において、撮像部により自車前方の前方車両のフレーム画像を撮像し、処理部により、予め定めたプロトタイプ車両の前記撮像部によるフレーム画像の全画素の濃度を微分処理して得られた全画素についての濃度微分値を2値化しエッジパターンから成る輪郭線画像を形成し、形成した前記プロトタイプ車両の前記輪郭線画像を次元圧縮して固有ベクトルを求めその固有ベクトルである特徴量によって定義される特徴平面または特徴空間を作成し、前記撮像部による前方車両の前記フレーム画像について各種のしきい値で2値化して複数の前記輪郭線画像を形成し、これら各輪郭線画像それぞれを次元圧縮して複数の特徴量を導出し、前記各特徴量を前記特徴平面または特徴空間に投票して前記プロトタイプ車両の前記特徴量を更新することを特徴としている(請求項1)。
【0011】
このような構成によれば、プロトタイプ車両の輪郭線画像を次元圧縮して得られた固有ベクトルである特徴量で定義される特徴平面または特徴空間に、各種のしきい値で2値化して得られる前方車両の輪郭線画像を次元圧縮して導出される複数の特徴量を投票すると、連続するフレーム画像での同じ車両や輪郭線抽出の際のしきい値を若干変更した輪郭線画像は、特徴平面または特徴空間で非常に近いところに投票されることになる。
【0012】
そのため、最適位置にピークが発生し、このピークを新しいプロトタイプ車両の特徴量として捕捉中の前方車両に対して個別に設定することによって、撮像シーンの照明条件等に依存しない安定した車両認識を行うことができ、確実な車両追跡を行うことができる。
【0013】
また、本発明にかかる車両認識装置は、画像を処理して自車前方の車両を認識する車両認識装置において、自車前方を撮像して前方車両のフレーム画像を得る撮像部と、前記撮像部によるフレーム画像の全画素の濃度を微分処理して得られた全画素についての濃度微分値を2値化しエッジパターンから成る輪郭線画像を形成する輪郭線画像形成部と、予め定めたプロトタイプ車両の前記フレーム画像に対する前記輪郭線画像を次元圧縮して固有ベクトルを求めその固有ベクトルである特徴量によって定義される特徴平面または特徴空間を作成する作成部と、前方車両の前記フレーム画像の縦横サイズを前記プロトタイプ車両の前記フレーム画像と同一サイズに正規化する正規化部と、前記正規化部により正規化された前記前方車両の前記フレーム画像について前記輪郭線画像形成部により各種のしきい値で2値化されて形成される複数の前記輪郭線画像それぞれを次元圧縮して複数の特徴量を導出する特徴量導出部と、前記作成部による前記特徴平面または特徴空間に、前記特徴量導出部による前記各特徴量を投票して前記プロトタイプ車両の前記特徴量を更新する投票部とを備えていることを特徴としている(請求項2)。
【0014】
このような構成によれば、輪郭線画像形成部によりプロトタイプ車両の輪郭線画像が形成され、作成部によりその輪郭線画像が次元圧縮されて求められた固有ベクトルである特徴量で定義される特徴平面または特徴空間が作成され、正規化部により前方車両のフレーム画像の縦横サイズがプロトタイプ車両のフレーム画像と同一サイズに正規化され、特徴量導出部により、正規化された前方車両のフレーム画像について輪郭線画像形成部で形成される複数の輪郭線画像が次元圧縮されて複数の特徴量が導出され、投票部により、導出された各特徴量が特徴平面または特徴空間に投票されてプロトタイプ車両の特徴量が更新される。
【0015】
そのため、連続するフレーム画像での同じ車両や輪郭線抽出の際のしきい値を若干変更した輪郭線画像は、特徴平面または特徴空間で非常に近いところに投票されることになって最適位置にピークが発生し、このピークを新しいプロトタイプ車両の特徴量として捕捉中の前方車両に対して個別に設定することによって、撮像シーンの照明条件等に依存しない安定した車両認識を行うことができ、確実な車両追跡を行うことができる。
【0016】
また、本発明にかかる車両認識装置は、前記投票部が、円すい型重みづけ投票を行うことを特徴としている(請求項3)。このような構成によれば、円すい型重みづけ投票の採用により、特徴量導出部により導出される特徴量の投票によって、プロトタイプ車両の特徴量の更新を精度よく行うことができる。
【0017】
また、本発明にかかる車両認識装置は、前記投票部が、前記プロトタイプ車両の前記特徴量の更新を、前記撮像部による前記前方車両の前記フレーム画像の撮像毎にFIFO方式で行うことを特徴としている(請求項4)。
【0018】
このような構成によれば、対象となる前方車両の撮像フレーム毎の明るさの変化や、カーブ路でのフレーム画像の変化にも柔軟に対応することができ、前方車両の捕捉率の向上を図ることができる。
【0019】
また、本発明にかかる車両認識方法は、自車前方を撮像して前方車両のフレーム画像を得る撮像工程と、前記撮像工程によるフレーム画像の全画素の濃度を微分処理して得られた全画素についての濃度微分値を2値化しエッジパターンから成る輪郭線画像を形成する輪郭線画像形成工程と、前記撮像工程において、予め定めたプロトタイプ車両の前記フレーム画像に対する前記輪郭線画像を得てこれを次元圧縮し固有ベクトルを求めその固有ベクトルである特徴量によって定義される特徴平面または特徴空間を作成する作成工程と、前方車両の前記フレーム画像の縦横サイズを前記プロトタイプ車両の前記フレーム画像と同一サイズに正規化する正規化工程と、前記正規化工程により正規化された前記前方車両の前記フレーム画像について前記輪郭線画像形成工程により各種のしきい値で2値化されて形成される複数の前記輪郭線画像を次元圧縮して複数の特徴量を導出する特徴量導出工程と、前記作成工程による前記特徴平面または特徴空間に、前記特徴量導出工程による前記各特徴量を投票して前記プロトタイプ車両の前記特徴量を更新する投票工程とを備えていることを特徴としている(請求項5)。
【0020】
このような構成によれば、輪郭線画像形成工程によりプロトタイプ車両の輪郭線画像が形成され、作成工程によりその輪郭線画像が次元圧縮されて求められた固有ベクトルである特徴量で定義される特徴平面または特徴空間が作成され、正規化工程により前方車両のフレーム画像の縦横サイズがプロトタイプ車両のフレーム画像と同一サイズに正規化され、特徴量導出工程により、正規化された前方車両のフレーム画像について輪郭線画像形成工程で形成される複数の輪郭線画像が次元圧縮されて複数の特徴量が導出され、投票工程により、導出された各特徴量が特徴平面または特徴空間に投票されてプロトタイプ車両の特徴量が更新される。
【0021】
そのため、連続するフレーム画像での同じ車両や輪郭線抽出の際のしきい値を若干変更した輪郭線画像は、特徴平面または特徴空間で非常に近いところに投票されることになって最適位置にピークが発生し、このピークを新しいプロトタイプ車両の特徴量として捕捉中の前方車両に対して個別に設定することによって、撮像シーンの照明条件等に依存しない安定した車両認識を行うことができ、確実な車両追跡を行うことができる。
【0022】
また、本発明にかかる車両認識方法は、前記投票工程において、円すい型重みづけ投票を行うことを特徴としている(請求項6)。このような構成によれば、円すい型重みづけ投票の採用により、特徴量導出部により導出される特徴量の投票によって、プロトタイプ車両の特徴量の更新を精度よく行うことができる。
【0023】
また、本発明にかかる車両認識方法は、前記投票工程において、前記プロトタイプ車両の前記特徴量の更新を、前記撮像工程による前記前方車両の前記フレーム画像の撮像毎にFIFO方式で行うことを特徴としている(請求項7)。
【0024】
このような構成によれば、対象となる前方車両の撮像フレーム毎の明るさの変化や、カーブ路でのフレーム画像の変化にも柔軟に対応することができ、前方車両の捕捉率の向上を図ることができる。
【0025】
【発明の実施の形態】
この発明の一実施形態について図1ないし図3を参照して説明する。但し、図1はブロック図、図2は動作説明図、図3は動作説明用フローチャートである。
【0026】
図1に示すように、撮像部としての単眼CCDカメラ1が車両に搭載され、このCCDカメラ1により自車前方が撮像されて前方車両のフレーム画像が得られ、得られたフレーム画像がCPU2によりVRAM等から成るメモリ3に保存される。そして、処理部であるCPU2により、以下のようにして自車前方の車両認識が行われる。尚、CCDカメラ1による撮像が、本発明における撮像工程に相当する。
【0027】
即ち、CPU2は、CCDカメラ1により撮像されたフレーム画像について、その全画素の濃度を微分処理し、得られた全画素についての濃度微分値を2値化しエッジパターンから成る輪郭線画像を形成する。このとき、前方車両のフレーム画像について、各種のしきい値で2値化して複数の輪郭線画像を形成する。このようなCPUによる輪郭線画像形成処理が、本発明における輪郭線画像形成部及び輪郭線画像形成工程に相当する。
【0028】
更に、CPU2は、予め定めたプロトタイプ車両についてCCDカメラ1により撮像されて得られたフレーム画像についても、同様にして輪郭線画像を形成し、形成した輪郭線画像を2次元に次元圧縮して固有ベクトルを求めてその固有ベクトルによって定義される特徴平面を作成し、これをメモリ3の所定エリアに保存しておく。このようなCPU2による特徴平面の作成処理が、本発明における作成部及び作成工程に相当する。
【0029】
また、CPU2は、CCDカメラ1により撮像された前方車両のフレーム画像について、その縦横サイズをプロトタイプ車両のフレーム画像と同一サイズに正規化し、正規化された前方車両のフレーム画像に対して、上記したように各種のしきい値で2値化して複数の輪郭線画像を形成し、これらをそれぞれ次元圧縮して複数の特徴量を導出する。このようなCPU2による正規化処理が、本発明における正規化部及び正規化工程に相当し、CPU2による特徴量の導出処理が、本発明における特徴量導出部及び特徴量導出工程に相当する。尚、この場合の各種しきい値は、予め定められた所定の範囲内で各々設定しておくのが望ましい。
【0030】
そして、CPU2により、導出された複数の特徴量が特徴平面に投票され、プロトタイプ車両の特徴量が更新される。このとき、円すい型重みづけ投票が採用され、プロトタイプ車両の特徴量の更新は、CCDカメラ1による前方車両のフレーム画像の撮像毎にFIFO(First In First Out)方式で行われる。このようなCPU2による投票・更新処理が、本発明における投票部及び投票工程に相当する。
【0031】
更に、CPU2による輪郭線画像の形成時に、各フレームにおける前方車両の動きをカルマンフィルタにより予測し、次フレームにおける前方車両の位置予測を行った上で、輪郭線画像の形成を行う。こうすることで、フレーム内での前方車両の認識率が向上するため、カルマンフィルタへの位置入力が安定して追跡走行の精度向上を図ることができる。
【0032】
例えば、図2に示すように、プロトタイプ車両についての輪郭線画像に基づき得られる固有ベクトルである特徴量e1,e2により定義される特徴平面に、連続する時刻t、t+1,t+2の各フレーム中の同じ前方車両の画像から、しきい値を変更して導出される複数の特徴量が投票されると、各特徴量は特徴平面上で非常に近い位置に投票されることになり、その結果、特徴平面上の最適位置においてピークが出現する。図2中のt、t+1,t+2の各フレーム画像における白枠は、各種のしきい値を設定する領域を示す。
【0033】
そして、このように投票されて最適位置である特徴量(e1_o,e2_o)が得られると、現在捕捉中の前方車両は、特徴量(e1_o,e2_o)のプロトタイプ車両の特徴量として次フレーム以降で利用されることになるのである。
【0034】
次に、一連の動作について図3のフローチャートを参照して説明する。いま、図3に示すように、CCDカメラ1により自車前方が撮像されてフレーム画像が取得されると(S1)、CPU2により、取得されたフレーム画像について、その縦横サイズがプロトタイプ車両のフレーム画像と同一サイズに正規化され、正規化された前方車両のフレーム画像について全画素の濃度が微分処理され(S2)、得られた全画素についての濃度微分値が予め設定された各種のしきい値で2値化されてエッジパターンから成る複数の輪郭線画像が形成される(S3)。
【0035】
このとき、CPU2により、予め定めたプロトタイプ車両について得られたフレーム画像に対して輪郭線画像が形成され、その輪郭線画像が次元圧縮されて固有ベクトルが求められ、その固有ベクトルによって定義される特徴平面が作成されて既にメモリ3の所定エリアに保存されている。
【0036】
更に、CPU2により、各輪郭線画像がそれぞれ次元圧縮されて複数の特徴量が導出され(S4)、メモリ3に保存されている特徴平面(図2参照)にこれら各特徴量が投票され(S5)、出現するピークの探索が行われ(S6)、出現したピークがプロトタイプ車両の特徴量として更新され(S7)、次フレーム以降で利用され、その後ステップS1に戻る。
【0037】
このように、CPU2により、プロトタイプ車両の輪郭線画像が形成され、その輪郭線画像が次元圧縮されて求められた固有ベクトルで定義される特徴平面が導出され、前方車両のフレーム画像の縦横サイズがプロトタイプ車両のフレーム画像と同一サイズに正規化され、正規化された前方車両のフレーム画像の輪郭線画像が次元圧縮されて特徴量が導出され、導出された特徴量が特徴平面に投票されてプロトタイプ車両の特徴量が更新される。
【0038】
従って、上記した実施形態によれば、連続するフレーム画像での同じ車両や輪郭線抽出の際のしきい値を若干変更した輪郭線画像は、特徴平面で非常に近いところに投票されることになって最適位置にピークが発生し、このピークを新しいプロトタイプ車両の特徴量として捕捉中の前方車両に対して個別に設定することによって、撮像シーンの照明条件等に依存しない安定した車両認識を行うことができ、確実な車両追跡を行うことができる。
【0039】
このとき、特徴量の導出の際に、ある範囲内で設定した各種のしきい値で2値化した輪郭線画像から複数の特徴量を導出するため、明るさの変化による影響をほとんど受けることなく特徴量を導出することができる。
【0040】
更に、図2に示すような連続フレームからの投票によって対象となる前方車両毎に動的にプロトタイプを設定するため、初期に準備するプロトタイプと特徴量が離れている車両であっても容易に認識することができる。
【0041】
また、プロトタイプ車両の特徴量の更新を、CCDカメラ1による前方車両のフレーム画像の撮像毎にFIFO方式で行うようにしているため、対象となる前方車両の撮像フレーム毎の明るさの変化や、カーブ路でのフレーム画像の変化にも柔軟に対応することが可能になり、前方車両の捕捉率の向上を図ることができる。
【0042】
更に、カルマンフィルタにより前方車両の動きをある程度予測するため、前方車両の捕捉率を向上することができ、例えば前方車両の認識に基づく追跡走行の性能向上を図ることができる。
【0043】
なお、本発明は上記した実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行うことが可能である。
【0044】
例えば、上記した実施形態では、プロトタイプ車両の輪郭線画像を2次元に次元圧縮して求めた特徴量により特徴平面を定義した場合について説明したが、3次元やそれ以上に次元圧縮して特徴空間を定義しても良いのは勿論であり、この場合にも上記した実施形態と同等の効果を得ることができる。
【0045】
また、上記した実施形態では、カルマンフィルタによる動き予測を行う場合について説明したが、必ずしもこのような動き予測は行わなくても構わない。
【0046】
更に、自車に搭載すべき撮像部は、上記したCCDカメラ1に限定されるものでないのはいうまでもない。
【0047】
【発明の効果】
以上のように、請求項1,2,5に記載の発明によれば、プロトタイプ車両の輪郭線画像を次元圧縮して得られた固有ベクトルである特徴量で定義される特徴平面または特徴空間に、各種のしきい値で2値化して得られる前方車両の輪郭線画像を次元圧縮して導出される複数の特徴量を投票すると、連続するフレーム画像での同じ車両や、輪郭線抽出の際のしきい値を若干変更した輪郭線画像は、特徴平面または特徴空間で非常に近いところに投票されることになって最適位置にピークが発生する。
【0048】
そのため、最適位置にピークが発生し、このピークを新しいプロトタイプ車両の特徴量として捕捉中の前方車両に対して個別に設定することによって、撮像シーンの照明条件等に依存しない安定した車両認識を行うことができ、確実な車両追跡を行うことが可能になり、安全走行の補助として非常に有効である。
【0049】
また、請求項3,6に記載の発明によれば、円すい型重みづけ投票の採用により、特徴量導出部により導出される特徴量の投票によって、プロトタイプ車両の特徴量の更新を精度よく行うことが可能になる。
【0050】
また、請求項4,7に記載の発明によれば、対象となる前方車両の撮像フレーム毎の明るさの変化や、カーブ路でのフレーム画像の変化にも柔軟に対応することができ、前方車両の捕捉率の向上を図ることが可能になる。
【図面の簡単な説明】
【図1】この発明の一実施形態のブロック図である。
【図2】この発明の一実施形態の動作説明図である。
【図3】この発明の一実施形態の動作説明用フローチャートである。
【符号の説明】
1 CCDカメラ(撮像部)
2 CPU(処理部、輪郭線画像形成部、作成部、正規化部、特徴量導出部、投票部)[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a vehicle recognizing device and a recognizing method for recognizing a vehicle ahead of a host vehicle by processing an image.
[0002]
[Prior art]
In recent years, vehicles equipped with a more advanced and more comfortable driving support system, such as a follow-up driving function and a steering assist function on a highway, have been proposed.As one of the methods, a teacher image of the prototype vehicle taken from the rear end face is taken. There is a method of preparing and comparing a captured image of a vehicle in front with a monocular camera with a teacher image to determine whether the captured image is of a vehicle.
[0003]
At this time, the contour image is extracted by processing the captured image of the preceding vehicle. At this time, the threshold value changes dynamically depending on the brightness of the captured scene. There has been a problem that the outline of the vehicle and the outline of the prototype vehicle are so different that the vehicle in front cannot be recognized.
[0004]
In addition, in the case of vehicle recognition, the feature amount of the prototype vehicle is compared with the feature amount of the preceding vehicle.However, when the feature amount of the prototype vehicle is obtained, the lighting conditions may vary depending on, for example, weather, season, time zone, and the like. Therefore, it was practically impossible to prepare a large number of teacher images for each vehicle type. In addition, when the number of teacher images is increased, the matching process becomes very complicated, and it takes a long time to recognize whether or not the vehicle is a vehicle.
[0005]
Further, when temporally tracking the recognized preceding vehicle, an algorithm for predicting the next position of the preceding vehicle is applied using a Kalman filter. There is also a problem that the output of the vehicle is not stable, and vehicle tracking often fails.
[0006]
By the way, when a road white line is detected by performing image processing, it has been proposed to employ a voting method based on Hough transform (for example, see Patent Document 1).
[0007]
[Patent Document 1]
JP-A-11-85999 (paragraphs [0008] to [0010])
[0008]
[Problems to be solved by the invention]
Since many experiments have confirmed that this voting method is robust against noise and robust, in a method of processing a captured image with a single-lens camera and performing vehicle recognition, such a voting method is used from the viewpoint of robustness. However, it is not yet adopted for vehicle recognition processing an image captured by a monocular camera.
[0009]
Therefore, an object of the present invention is to adopt a robust voting method for vehicle recognition and to enable stable vehicle recognition.
[0010]
[Means for Solving the Problems]
In order to achieve the above object, a vehicle recognition device according to the present invention, in a vehicle recognition device that processes an image to recognize a vehicle ahead of a host vehicle, captures a frame image of a vehicle ahead of the host vehicle by an imaging unit. Then, the processing unit binarizes the density differential values of all the pixels obtained by differentiating the densities of all the pixels of the frame image by the image capturing unit of the predetermined prototype vehicle to obtain a contour image formed of an edge pattern. Forming and dimensionally compressing the contour image of the formed prototype vehicle to obtain an eigenvector, create a feature plane or a feature space defined by a feature amount that is the eigenvector, and generate the frame image of the preceding vehicle by the imaging unit. Are binarized at various threshold values to form a plurality of contour images, and each contour image is dimensionally compressed to obtain a plurality of features. Derives the amount, by voting the each feature quantity in the feature plane or the feature space is characterized by updating the feature value of the prototype vehicle (claim 1).
[0011]
According to such a configuration, the contour line image of the prototype vehicle is obtained by binarizing the feature plane or the feature space defined by the feature amount which is an eigenvector obtained by dimensionally compressing the contour image with various threshold values. When voting for a plurality of feature values derived by dimensionally compressing the contour image of the preceding vehicle, the contour image obtained by slightly changing the threshold value for extracting the same vehicle or contour line in successive frame images is characterized by You will be voted very close in the plane or feature space.
[0012]
Therefore, a peak occurs at the optimum position, and this peak is individually set as a feature value of the new prototype vehicle for the preceding vehicle being captured, thereby performing stable vehicle recognition independent of the lighting conditions of the imaging scene. And reliable vehicle tracking can be performed.
[0013]
Further, a vehicle recognition device according to the present invention is a vehicle recognition device that processes an image to recognize a vehicle ahead of the host vehicle, an imaging unit that captures an image of the front of the host vehicle to obtain a frame image of the vehicle ahead, and the imaging unit. A contour image forming unit for binarizing a density differential value of all pixels obtained by differentiating the densities of all the pixels of the frame image to form a contour image composed of an edge pattern, and a predetermined prototype vehicle. A creating unit for dimensionally compressing the contour image with respect to the frame image to obtain an eigenvector and creating a feature plane or a feature space defined by a feature amount that is the eigenvector; and A normalizing unit for normalizing to the same size as the frame image of the vehicle, and the frame of the preceding vehicle normalized by the normalizing unit. A feature amount deriving unit that derives a plurality of feature amounts by dimensionally compressing each of the plurality of contour line images formed by binarizing the image with various thresholds by the contour image forming unit; A voting unit for voting each of the feature amounts by the feature amount deriving unit and updating the feature amount of the prototype vehicle in the feature plane or the feature space by the creating unit; 2).
[0014]
According to such a configuration, the contour image of the prototype vehicle is formed by the contour image forming unit, and the feature plane defined by the feature amount that is an eigenvector obtained by dimensionally compressing the contour image by the creating unit. Alternatively, a feature space is created, the vertical and horizontal sizes of the frame image of the vehicle in front are normalized by the normalization unit to the same size as the frame image of the prototype vehicle, and the feature amount deriving unit outlines the normalized frame image of the vehicle in front. The plurality of contour images formed by the line image forming unit are dimensionally compressed to derive a plurality of feature values, and the voting unit votes each of the derived feature values to a feature plane or feature space to provide a feature of the prototype vehicle. The amount is updated.
[0015]
For this reason, the same vehicle in consecutive frame images or a contour image with a slightly changed threshold value for contour extraction is voted very close in the feature plane or feature space, and becomes the optimal position. A peak is generated, and by setting this peak individually as a feature value of the new prototype vehicle for the vehicle in front of the vehicle being captured, stable vehicle recognition independent of the lighting conditions of the imaging scene can be performed. Vehicle tracking can be performed.
[0016]
Further, the vehicle recognition device according to the present invention is characterized in that the voting unit performs conical weighted voting (claim 3). According to such a configuration, by adopting the cone-type weighted voting, the feature amount of the prototype vehicle can be accurately updated by voting of the feature amount derived by the feature amount deriving unit.
[0017]
Also, the vehicle recognition device according to the present invention is characterized in that the voting unit updates the feature amount of the prototype vehicle by the FIFO method each time the frame image of the preceding vehicle is captured by the imaging unit. (Claim 4).
[0018]
According to such a configuration, it is possible to flexibly cope with a change in brightness of each of the imaging frames of the target vehicle in front and a change in a frame image on a curved road, and an improvement in the capture rate of the vehicle in front. Can be planned.
[0019]
Further, the vehicle recognition method according to the present invention includes an image capturing step of capturing an image ahead of the own vehicle to obtain a frame image of the vehicle ahead, and all pixels obtained by differentiating density of all pixels of the frame image in the image capturing step. And a contour image forming step of forming a contour image composed of an edge pattern by binarizing the density differential value of the contour image, and obtaining the contour image with respect to the frame image of a predetermined prototype vehicle in the imaging step. Creating a feature plane or feature space defined by a feature amount that is the eigenvector obtained by compressing the dimension and estimating the eigenvector, and normalizing the vertical and horizontal sizes of the frame image of the preceding vehicle to the same size as the frame image of the prototype vehicle. Normalizing step, and the frame image of the preceding vehicle normalized by the normalizing step. A feature value deriving step of dimensionally compressing a plurality of the contour images formed by binarization with various threshold values in the contour image forming step to derive a plurality of feature quantities; A voting step of voting each of the feature quantities in the feature quantity deriving step to update the feature quantity of the prototype vehicle in a plane or a feature space (claim 5).
[0020]
According to such a configuration, the contour image of the prototype vehicle is formed by the contour image forming step, and the contour plane image is dimensionally compressed by the creating step. Alternatively, a feature space is created, the vertical and horizontal sizes of the frame image of the preceding vehicle are normalized to the same size as the frame image of the prototype vehicle by the normalization process, and the contour of the normalized frame image of the preceding vehicle is extracted by the feature derivation process. The plurality of contour images formed in the line image forming process are dimensionally compressed to derive a plurality of feature values, and the voting process is performed so that each of the derived feature values is voted on a feature plane or feature space, and the feature of the prototype vehicle is obtained. The amount is updated.
[0021]
For this reason, the same vehicle in consecutive frame images or a contour image with a slightly changed threshold value for contour extraction is voted very close in the feature plane or feature space, and becomes the optimal position. A peak is generated, and by setting this peak individually as a feature value of the new prototype vehicle for the vehicle in front of the vehicle being captured, stable vehicle recognition independent of the lighting conditions of the imaging scene can be performed. Vehicle tracking can be performed.
[0022]
Further, the vehicle recognition method according to the present invention is characterized in that, in the voting step, a cone-type weighted voting is performed (claim 6). According to such a configuration, by adopting the cone-type weighted voting, the feature amount of the prototype vehicle can be accurately updated by voting of the feature amount derived by the feature amount deriving unit.
[0023]
Further, the vehicle recognition method according to the present invention is characterized in that, in the voting step, the updating of the feature amount of the prototype vehicle is performed by a FIFO method each time the frame image of the preceding vehicle is captured in the imaging step. (Claim 7).
[0024]
According to such a configuration, it is possible to flexibly cope with a change in brightness of each of the imaging frames of the target vehicle in front and a change in a frame image on a curved road, and an improvement in the capture rate of the vehicle in front. Can be planned.
[0025]
BEST MODE FOR CARRYING OUT THE INVENTION
An embodiment of the present invention will be described with reference to FIGS. 1 is a block diagram, FIG. 2 is an operation explanatory diagram, and FIG. 3 is a flowchart for operation explanation.
[0026]
As shown in FIG. 1, a
[0027]
That is, the
[0028]
Further, the
[0029]
Further, the
[0030]
Then, the
[0031]
Further, when the
[0032]
For example, as shown in FIG. 2, a feature plane defined by feature quantities e1 and e2, which are eigenvectors obtained based on a contour image of a prototype vehicle, has the same time t, t + 1, and t + 2 in each frame at successive times. When a plurality of feature values derived by changing the threshold value are voted from the image of the preceding vehicle, each feature value is voted at a very close position on the feature plane, and as a result, the feature A peak appears at the optimum position on the plane. White frames in each of the frame images t, t + 1, and t + 2 in FIG. 2 indicate regions where various threshold values are set.
[0033]
When the feature amount (e1_o, e2_o) at the optimum position is obtained by voting in this manner, the preceding vehicle currently being captured is used as the feature amount of the prototype vehicle of the feature amount (e1_o, e2_o) in the next frame and thereafter. It will be used.
[0034]
Next, a series of operations will be described with reference to the flowchart of FIG. Now, as shown in FIG. 3, when the front of the own vehicle is imaged by the
[0035]
At this time, a contour image is formed by the
[0036]
Further, each contour line image is dimensionally compressed by the
[0037]
As described above, the
[0038]
Therefore, according to the above-described embodiment, a contour image obtained by slightly changing the threshold value for extracting the same vehicle or contour in successive frame images is voted very close in the feature plane. A peak is generated at the optimum position, and this peak is individually set as a feature amount of the new prototype vehicle for the preceding vehicle being captured, thereby performing stable vehicle recognition independent of the lighting conditions of the imaging scene. And reliable vehicle tracking can be performed.
[0039]
At this time, when deriving the feature amount, since a plurality of feature amounts are derived from the contour image binarized by various threshold values set within a certain range, the influence of the change in brightness is almost eliminated. And the feature amount can be derived.
[0040]
Further, since a prototype is dynamically set for each target vehicle by voting from a continuous frame as shown in FIG. 2, even a vehicle having a feature amount different from a prototype initially prepared can be easily recognized. can do.
[0041]
In addition, since the update of the feature amount of the prototype vehicle is performed by the FIFO method each time the
[0042]
Furthermore, since the movement of the preceding vehicle is predicted to some extent by the Kalman filter, the capturing rate of the preceding vehicle can be improved, and for example, the performance of tracking and running based on recognition of the preceding vehicle can be improved.
[0043]
The present invention is not limited to the above-described embodiment, and various changes other than those described above can be made without departing from the gist of the present invention.
[0044]
For example, in the above-described embodiment, a case has been described where a feature plane is defined by a feature amount obtained by two-dimensionally compressing a contour image of a prototype vehicle, but the feature space is three-dimensionally or more dimensionally compressed. May be defined, and in this case, the same effect as in the above-described embodiment can be obtained.
[0045]
Further, in the above-described embodiment, a case has been described in which motion prediction is performed using a Kalman filter. However, such motion prediction does not necessarily have to be performed.
[0046]
Further, it goes without saying that the imaging unit to be mounted on the own vehicle is not limited to the above-described
[0047]
【The invention's effect】
As described above, according to the first, second, and fifth aspects of the present invention, a feature plane or a feature space defined by a feature amount, which is an eigenvector obtained by dimensionally compressing a contour image of a prototype vehicle, By voting a plurality of feature values derived by dimensionally compressing a contour image of a preceding vehicle obtained by binarizing with various threshold values, the same vehicle in a continuous frame image or the same vehicle at the time of contour extraction The contour image with the threshold slightly changed is voted very close in the feature plane or the feature space, and a peak occurs at the optimum position.
[0048]
Therefore, a peak occurs at the optimum position, and this peak is individually set as a feature value of the new prototype vehicle for the preceding vehicle being captured, thereby performing stable vehicle recognition independent of the lighting conditions of the imaging scene. This enables reliable vehicle tracking, which is very effective as an aid for safe driving.
[0049]
According to the third and sixth aspects of the present invention, by adopting the cone-type weighted voting, the feature amount of the prototype vehicle is accurately updated by voting of the feature amount derived by the feature amount deriving unit. Becomes possible.
[0050]
Further, according to the inventions described in
[Brief description of the drawings]
FIG. 1 is a block diagram of one embodiment of the present invention.
FIG. 2 is an operation explanatory diagram of one embodiment of the present invention.
FIG. 3 is a flowchart for explaining the operation of the embodiment of the present invention;
[Explanation of symbols]
1 CCD camera (imaging unit)
2 CPU (processing unit, contour image forming unit, creating unit, normalizing unit, feature amount deriving unit, voting unit)
Claims (7)
撮像部により自車前方の前方車両のフレーム画像を撮像し、
処理部により、
予め定めたプロトタイプ車両の前記撮像部によるフレーム画像の全画素の濃度を微分処理して得られた全画素についての濃度微分値を2値化しエッジパターンから成る輪郭線画像を形成し、
形成した前記プロトタイプ車両の前記輪郭線画像を次元圧縮して固有ベクトルを求めその固有ベクトルである特徴量によって定義される特徴平面または特徴空間を作成し、
前記撮像部による前方車両の前記フレーム画像について各種のしきい値で2値化して複数の前記輪郭線画像を形成し、これら各輪郭線画像それぞれを次元圧縮して複数の特徴量を導出し、
前記各特徴量を前記特徴平面または特徴空間に投票して前記プロトタイプ車両の前記特徴量を更新する
ことを特徴とする車両認識装置。In a vehicle recognition device that processes an image to recognize a vehicle ahead of the own vehicle,
The imaging unit captures a frame image of a vehicle ahead of the own vehicle,
By the processing unit,
Binarizing the density differential value of all pixels obtained by differentiating the density of all pixels of the frame image by the imaging unit of the predetermined prototype vehicle to form a contour image composed of an edge pattern,
The contour image of the formed prototype vehicle is dimensionally compressed to obtain an eigenvector, and a feature plane or feature space defined by a feature amount that is the eigenvector is created.
A plurality of contour images are formed by binarizing the frame image of the vehicle in front by the imaging unit with various thresholds, and a plurality of feature amounts are derived by dimensionally compressing each of the contour images.
A vehicle recognizing device, wherein the feature amount of the prototype vehicle is updated by voting each of the feature amounts to the feature plane or feature space.
自車前方を撮像して前方車両のフレーム画像を得る撮像部と、
前記撮像部によるフレーム画像の全画素の濃度を微分処理して得られた全画素についての濃度微分値を2値化しエッジパターンから成る輪郭線画像を形成する輪郭線画像形成部と、
予め定めたプロトタイプ車両の前記フレーム画像に対する前記輪郭線画像を次元圧縮して固有ベクトルを求めその固有ベクトルである特徴量によって定義される特徴平面または特徴空間を作成する作成部と、
前方車両の前記フレーム画像の縦横サイズを前記プロトタイプ車両の前記フレーム画像と同一サイズに正規化する正規化部と、
前記正規化部により正規化された前記前方車両の前記フレーム画像について前記輪郭線画像形成部により各種のしきい値で2値化されて形成される複数の前記輪郭線画像それぞれを次元圧縮して複数の特徴量を導出する特徴量導出部と、
前記作成部による前記特徴平面または特徴空間に、前記特徴量導出部による前記各特徴量を投票して前記プロトタイプ車両の前記特徴量を更新する投票部と
を備えていることを特徴とする車両認識装置。In a vehicle recognition device that processes an image to recognize a vehicle ahead of the own vehicle,
An imaging unit that captures an image of the front of the vehicle and obtains a frame image of the vehicle in front;
A contour image forming unit that binarizes a density differential value of all pixels obtained by differentiating the densities of all pixels of the frame image by the imaging unit to form a contour image composed of an edge pattern;
A creation unit that creates a feature plane or feature space defined by a feature amount that is an eigenvector obtained by dimensionally compressing the contour image with respect to the frame image of a predetermined prototype vehicle,
A normalization unit that normalizes the vertical and horizontal sizes of the frame image of the preceding vehicle to the same size as the frame image of the prototype vehicle,
Each of the plurality of contour images formed by binarizing the frame image of the preceding vehicle normalized by the normalization unit with various threshold values by the contour image forming unit is dimensionally compressed. A feature value deriving unit that derives a plurality of feature values;
A voting section for voting each of the feature quantities by the feature quantity deriving section and updating the feature quantity of the prototype vehicle in the feature plane or feature space by the creating section; apparatus.
自車前方を撮像して前方車両のフレーム画像を得る撮像工程と、
前記撮像工程によるフレーム画像の全画素の濃度を微分処理して得られた全画素についての濃度微分値を2値化しエッジパターンから成る輪郭線画像を形成する輪郭線画像形成工程と、
前記撮像工程において、予め定めたプロトタイプ車両の前記フレーム画像に対する前記輪郭線画像を得てこれを次元圧縮し固有ベクトルを求めその固有ベクトルである特徴量によって定義される特徴平面または特徴空間を作成する作成工程と、
前方車両の前記フレーム画像の縦横サイズを前記プロトタイプ車両の前記フレーム画像と同一サイズに正規化する正規化工程と、
前記正規化工程により正規化された前記前方車両の前記フレーム画像について前記輪郭線画像形成工程により各種のしきい値で2値化されて形成される複数の前記輪郭線画像を次元圧縮して複数の特徴量を導出する特徴量導出工程と、
前記作成工程による前記特徴平面または特徴空間に、前記特徴量導出工程による前記各特徴量を投票して前記プロトタイプ車両の前記特徴量を更新する投票工程と
を備えていることを特徴とする車両認識方法。In a vehicle recognition method for processing an image to recognize a vehicle ahead of the own vehicle,
An imaging step of imaging the front of the own vehicle to obtain a frame image of the front vehicle,
A contour image forming step of binarizing a density differential value for all pixels obtained by differentiating the densities of all pixels of the frame image in the image capturing step to form a contour image composed of an edge pattern;
A generating step of obtaining the contour image for the frame image of a predetermined prototype vehicle, compressing the contour image to obtain an eigenvector, obtaining a eigenvector, and creating a feature plane or a feature space defined by a feature amount being the eigenvector in the imaging step; When,
A normalization step of normalizing the vertical and horizontal sizes of the frame image of the preceding vehicle to the same size as the frame image of the prototype vehicle,
A plurality of contour images formed by binarizing the frame images of the preceding vehicle normalized by the normalization step with various thresholds in the contour image forming step are formed. A feature value deriving step of deriving feature values of
A voting step of voting each of the feature quantities in the feature deriving step in the feature plane or feature space in the creating step to update the feature quantity of the prototype vehicle. Method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002346879A JP2004180200A (en) | 2002-11-29 | 2002-11-29 | Vehicle recognition apparatus and recognition method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002346879A JP2004180200A (en) | 2002-11-29 | 2002-11-29 | Vehicle recognition apparatus and recognition method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004180200A true JP2004180200A (en) | 2004-06-24 |
Family
ID=32707637
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002346879A Withdrawn JP2004180200A (en) | 2002-11-29 | 2002-11-29 | Vehicle recognition apparatus and recognition method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004180200A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008020544A1 (en) * | 2006-08-18 | 2008-02-21 | Nec Corporation | Vehicle detection device, vehicle detection method, and vehicle detection program |
JP2009510541A (en) * | 2005-09-29 | 2009-03-12 | パナソニック株式会社 | Object tracking method and object tracking apparatus |
-
2002
- 2002-11-29 JP JP2002346879A patent/JP2004180200A/en not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009510541A (en) * | 2005-09-29 | 2009-03-12 | パナソニック株式会社 | Object tracking method and object tracking apparatus |
WO2008020544A1 (en) * | 2006-08-18 | 2008-02-21 | Nec Corporation | Vehicle detection device, vehicle detection method, and vehicle detection program |
US8599257B2 (en) | 2006-08-18 | 2013-12-03 | Nec Corporation | Vehicle detection device, vehicle detection method, and vehicle detection program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101758684B1 (en) | Apparatus and method for tracking object | |
CN108549864B (en) | Vehicle-mounted thermal imaging pedestrian detection-oriented region-of-interest filtering method and device | |
US5715325A (en) | Apparatus and method for detecting a face in a video image | |
EP1320072A2 (en) | Lane marker recognition method | |
CN106503691B (en) | Identity labeling method and device for face picture | |
JP2006268097A (en) | On-vehicle object detecting device, and object detecting method | |
US11270133B2 (en) | Object detection device, object detection method, and computer-readable recording medium | |
US9747507B2 (en) | Ground plane detection | |
CN111539986B (en) | Target tracking method, device, computer equipment and storage medium | |
KR101552600B1 (en) | Method for tracking multiple walking object simultaneously using sectioned image | |
KR20090098167A (en) | Method and system for detecting lane by using distance sensor | |
JP3800785B2 (en) | White line recognition device | |
JP2002228423A (en) | Tire detecting method and device | |
JP2008288684A (en) | Person detection device and program | |
JP2004180200A (en) | Vehicle recognition apparatus and recognition method | |
KR101999354B1 (en) | Using Curve Line Curvature Information | |
JP6677141B2 (en) | Parking frame recognition device | |
KR20150101205A (en) | Pedestrian Recognition Apparatus and the Method of Using Integral Vertical Edge | |
US20240221181A1 (en) | Image processing system | |
Gu et al. | Robust road lane detection using extremal-region enhancement | |
JP4203648B2 (en) | Image processing device | |
Al-Refai et al. | A framework for background modeling using vehicle-to-infrastructure communication for improved candidate generation in pedestrian detection | |
JP4849262B2 (en) | License plate extraction system, license plate extraction device, license plate extraction method and program | |
JP6677142B2 (en) | Parking frame recognition device | |
Lee et al. | Robust detection of preceding vehicles in crowded traffic conditions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20060207 |