JP4697063B2 - Approaching vehicle detection device - Google Patents
Approaching vehicle detection device Download PDFInfo
- Publication number
- JP4697063B2 JP4697063B2 JP2006169697A JP2006169697A JP4697063B2 JP 4697063 B2 JP4697063 B2 JP 4697063B2 JP 2006169697 A JP2006169697 A JP 2006169697A JP 2006169697 A JP2006169697 A JP 2006169697A JP 4697063 B2 JP4697063 B2 JP 4697063B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle detection
- approaching vehicle
- vehicle
- approaching
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、撮像画像に基づいて、自車両に接近してくる車両を検出する装置に関する。 The present invention relates to an apparatus for detecting a vehicle approaching a host vehicle based on a captured image.
従来、車両周囲を撮像した複数の画像に基づいて、テンプレートマッチングによりオプティカルフローを求め、撮像画像上の他車両を検出する技術が知られている(特許文献1参照)。 2. Description of the Related Art Conventionally, a technique for obtaining an optical flow by template matching based on a plurality of images captured around a vehicle and detecting other vehicles on the captured image is known (see Patent Document 1).
しかしながら、オプティカルフローを求める方法では、接近車両を検出するために要する演算量が多くなるという問題がある。 However, the method for obtaining the optical flow has a problem that the amount of calculation required to detect the approaching vehicle increases.
本発明による接近車両検出装置は、車両周囲を撮像する撮像手段と、前記撮像手段によって撮像された映像(以下、撮像映像)上における各画素の輝度の時間変動成分を周波数ごとに分離する周波数分離手段と、前記周波数分離手段によって前記撮像映像の時間変動成分を周波数ごとに分離されたデータに基づいて、前記撮像映像から、自車両に接近してくる接近車両を検出する接近車両検出手段と、前記周波数分離手段によって分離されたデータの中から、輝度の時間変化が所定の周波数以上の画素領域のデータを集めて、映像を再構築する映像合成手段を備え、前記接近車両検出手段は、前記映像合成手段によって再構築された映像に基づいて、テンプレートマッチング処理を行うことにより、前記撮像映像上の接近車両を検出することを行うことを特徴とする。 An approaching vehicle detection device according to the present invention includes an imaging unit that captures an image of the surroundings of a vehicle, and a frequency separation that separates a time-varying component of luminance of each pixel on a video imaged by the imaging unit (hereinafter referred to as a captured image) for each frequency. An approaching vehicle detection means for detecting an approaching vehicle approaching the host vehicle from the captured image based on data obtained by separating the time-varying component of the captured image for each frequency by the frequency separation means; Image data synthesizing means for reconstructing an image by collecting data of pixel regions whose luminance change over time is a predetermined frequency or more from the data separated by the frequency separation means, the approaching vehicle detection means, based on the images that are reconstructed by the image synthesizing means, by performing a template matching process, detecting an approaching vehicle on the captured image And performing.
本発明による接近車両検出装置によれば、車両周囲の映像の時間変動成分を周波数ごとに分離し、分離したデータに基づいて、撮像映像から、自車両に接近してくる車両を検出するので、接近車両を効果的に検出することができる。 According to the approaching vehicle detection device of the present invention, the time fluctuation component of the video around the vehicle is separated for each frequency, and the vehicle approaching the host vehicle is detected from the captured video based on the separated data. An approaching vehicle can be detected effectively.
図1は、一実施の形態における接近車両検出装置の構成を示す図である。一実施の形態における接近車両検出装置は、車載カメラ10と、処理装置20とを備える。図2は、車載カメラ10の取り付け位置の一例を示す図である。図2に示すように、車載カメラ10は、車両100の後部中央に取り付けられて、自車両後方を撮像する。
FIG. 1 is a diagram illustrating a configuration of an approaching vehicle detection device according to an embodiment. The approaching vehicle detection device in one embodiment includes an in-
処理装置20は、プロセッサで構成されており、内部で行う処理機能上、周波数分解部21と、記憶部22と、周波数合成部23と、ノイズ除去部24と、接近車両検出部25とを備える。周波数分解部21は、車載カメラ10によって撮像された映像に基づいて、映像の時間変動成分を周波数領域ごとに分解する処理を行う。記憶部22は、周波数分解部21によって周波数領域ごとに分解されたデータを記憶する。
The
周波数合成部23は、車載カメラ10の取り付け位置、撮像方向、レンズのディストーション(歪み)に応じて、記憶部22に記憶されているデータの中から、撮像画素ごとに必要な周波数領域のデータを集めて、映像を合成(再構築)する処理を行う。ノイズ除去部24は、周波数合成部23で合成された映像から、ノイズを除去する処理を行う。接近車両検出部25は、ノイズ除去部24でノイズが除去された映像に基づいて、自車両に接近してきている車両を検出する。各部21〜25で行われる詳しい処理内容を以下で説明する。
The
図3は、車載カメラ10で撮像された映像の一例を示す図である。図3に示す撮像映像には、隣接車線を走行している車両200、および、自車両の真後ろを走行している車両300が映っている。また、車両200,300以外にも、中央線31、道路の端線32,33、鉄塔35、および、側壁36などが映っている。ここで、隣接車線を走行している車両200は、自車両を追い抜こうとしており、自車両の真後ろを走行している車両300は、自車両とほぼ同じ速度で走行しているものとする。
FIG. 3 is a diagram illustrating an example of an image captured by the in-
周波数分解部21は、車載カメラ10によって撮像された映像に基づいて、映像の時間変動成分を周波数領域ごとに分解する処理を行う。ここでは、映像の時間変動成分を周波数領域ごとに分解する処理を、時間周波数分割と呼ぶ。
The
図4は、撮像映像上の1つの画素(x、y)の輝度の時間変化を示す図である。周波数分解部21は、この輝度の時間変化を、周波数成分に分割する。例えば、異なる時刻に撮影された複数の映像フレームに基づいて、各画素ごとに、輝度値の平均値を演算し、演算した輝度平均値と、現在の映像の輝度値との差分を求めてから、周波数領域ごとに分類する処理を行う。毎秒30フレームで撮影している場合には、15Hz以下のバンドパス成分に分類することができる。周波数分解部21によって周波数領域ごとに分解されたデータは、記憶部22に記憶される。
FIG. 4 is a diagram illustrating a temporal change in luminance of one pixel (x, y) on the captured image. The
時間周波数分割処理を行うと、輝度の変化が少ない画素は低周波成分に分類され、輝度の変化が大きい画素は高周波成分として分類される。従って、空や地面(道路)が映り込んでいる画素は、輝度が時間的に変化しないため、低周波成分として抽出される。一方、接近車両が映り込んでいる画素や、鉄塔などのように、自車両の走行に伴って映像上で移動する画素は、輝度が時間的に変化するため、高周波成分として抽出される。図3に示す映像では、自車両を追い抜こうとしている車両200は、高周波成分となり、自車両とほぼ同じ速度で走行している車両300は低周波成分となる。また、鉄塔35は、自車両の走行に伴って、映像上で移動するため、高周波成分となる。
When the time-frequency division process is performed, pixels with a small change in luminance are classified as low-frequency components, and pixels with a large change in luminance are classified as high-frequency components. Therefore, the pixels in which the sky and the ground (road) are reflected are extracted as low-frequency components because the luminance does not change with time. On the other hand, pixels that move on the image as the host vehicle travels, such as pixels in which an approaching vehicle is reflected or a steel tower, are extracted as high-frequency components because the luminance changes with time. In the video shown in FIG. 3, the
周波数合成部23は、自車両に接近してくる車両を検出するために、記憶部22に記憶されているデータの中から、所定周波数以上の高周波成分のデータを集めて、映像を合成(再構築)する処理を行う。所定周波数以上の高周波成分のデータを集めることにより、上述したように、自車両とほぼ同じ速度で走行している車両300などの低周波成分のデータを除外することができる。
In order to detect a vehicle approaching the host vehicle, the
ここで、撮像映像上に一定の速度で接近してくる車両が映っている場合でも、映っている場所によって、速度が異なって映る。図5は、一定の速度で走行している車両200のオプティカルフローを矢印Y1およびY2で示した図である。図5に示すように、車載カメラ10のレンズ中央に対応する画面中央よりも、車載カメラ10のレンズ周辺に対応する画面外側の位置の方が映像上の移動量が大きくなる。
Here, even when a vehicle approaching at a constant speed is shown on the captured image, the speed appears differently depending on the location where it is shown. FIG. 5 is a diagram showing the optical flow of the
従って、周波数合成部23は、車載カメラ10の取り付け位置、撮像方向、レンズのディストーション(歪み)に応じて、撮像画素に応じた周波数領域のデータを集めて、映像を合成(再構築)する処理を行う。これにより、映像の合成(再構築)を適切に行うことができる。
Therefore, the
ノイズ除去部24は、周波数合成部23で合成された映像から、ノイズを除去する処理を行う。ここでは、周波数合成部23で合成された映像の各画素の輝度値に対して二値化処理を行った後、メディアンフィルタを用いたノイズ除去処理を行う。
The
図6は、周波数合成部23によって合成されて、ノイズ除去部24でノイズ除去処理が行われた映像を示す図である。図6に示すように、自車両と同じ速度で走行していた車両300などの低周波成分は消去されて、接近車両200や、鉄塔35などのように、映像上で変化する部分が残る。特に、車両の場合、バンパーと地面との境界部分や、バンパーとエアインテイクとの境界、ボンネットと窓との境界、屋根と空との境界など、横方向(水平方向)に連続した情報(線)が残りやすい。
FIG. 6 is a diagram showing an image synthesized by the
ノイズ除去部24は、また、車両が存在すると考えられる領域以外の領域から情報を消去する。例えば、映像の上方部分には、空などの背景が映っていることが多く、車両は存在しないと考えられる。従って、映像の上方部分に映っている情報を消去することにより、接近車両を検出するために不必要なデータを消去することができる。図7は、図6に示す映像から、映像の上方部分に映っている鉄塔35が消去された図である。
The
接近車両検出部25は、ノイズが除去された映像(図7参照)に基づいて、自車両に接近中の車両を検出する処理を行う。接近車両検出部25は、まず、横線検出フィルタなどの空間フィルタを用いて、映像上の横エッジを強調する処理を行う。図8は、図7に示す映像に対して、横線検出フィルタを用いて、横エッジを検出する処理を行った後の図である。図8に示すように、縦線の成分が消えて、横方向(水平方向)の成分が強調されている。
The approaching
次に、接近車両検出部25は、テンプレートマッチング処理を行うことにより、接近車両を検出する。図9(a)および図9(b)は、接近車両検出部25が保持している、車両の特徴を表したテンプレートの一例を示す図である。乗用車やトラックは、バンパー下端のエッジ成分が残りやすいので、図9(a)や図9(b)に示すような横線状のテンプレートを用いる。ノイズ除去後の映像において、車両のエッジ成分は、横方向が連続的につながっていない可能性もあるので、図9(b)に示すような不連続な横線状のテンプレートを用いるか、または、エッジ成分が不連続であっても、連続的な直線であるものとして、図9(a)に示すテンプレートを用いるようにする。
Next, the approaching
上述したテンプレートマッチング処理を行うことにより、車両の特徴を表す横エッジが検出される。車両の特徴を表す横エッジを検出すると、接近車両を検出するための車両検出領域を設定する。ここでは、検出した横エッジの長さを一辺とし、検出した横エッジを底辺とする矩形領域を、車両検出領域として設定する。図10は、設定された矩形領域50の一例を示す図である。接近車両検出部25は、設定した車両検出領域内に存在する映像成分に基づいて、車両を検出する。例えば、設定した車両検出領域内に存在する映像成分(横エッジ成分)が所定量以上あれば、その車両検出領域は、接近車両が映り込んでいる領域であると判断する。なお、横エッジの検出処理、および、設定した車両検出領域内での車両検出処理は、撮像映像上の全ての領域を対象として行う。
By performing the template matching process described above, a lateral edge representing the characteristics of the vehicle is detected. When a lateral edge representing the characteristics of the vehicle is detected, a vehicle detection area for detecting an approaching vehicle is set. Here, a rectangular area having the detected horizontal edge as one side and the detected horizontal edge as the bottom is set as the vehicle detection area. FIG. 10 is a diagram illustrating an example of the set
車両の検出処理は、数フレームにわたって行う。あるフレームで接近車両を検出したが、次のフレームにおいて、前のフレームで車両を検出した領域付近に車両を検出できない場合でも、続く数フレームの間は、車両未検出の判断を出さずに、その後の数フレームの間に、再度、近傍に車両を検出した場合には、連続的に車両を検出し続けているという判断を出す。これにより、接近車両が存在しているにも関わらず、画像処理時に、接近車両未検出となってしまった場合でも、接近車両が存在することを継続してユーザに報知することができる。 The vehicle detection process is performed over several frames. Even if an approaching vehicle is detected in a certain frame, but the vehicle cannot be detected in the vicinity of the area where the vehicle was detected in the previous frame in the next frame, the vehicle non-detection is not issued for the following several frames. If a vehicle is detected in the vicinity again in the next several frames, it is determined that the vehicle is continuously detected. Thereby, even when an approaching vehicle exists, even when an approaching vehicle is not detected during image processing, it is possible to continuously notify the user that an approaching vehicle exists.
接近車両検出部25が接近車両を検出すると、図示しないモニタに、接近車両の情報を表示したり、図示しないスピーカから、接近車両の情報を音声により、ドライバに報知することができる。
When the approaching
図11は、上述した処理装置20内の各部21〜25で行われる処理の流れを示すフローチャートである。ステップS10において、周波数分解部21は、車載カメラ10で撮像された複数フレームの映像を取得して、ステップS20に進む。ステップS20では、映像の時間変動成分を周波数領域ごとに分離して、ステップS30に進む。
FIG. 11 is a flowchart showing a flow of processing performed by each
ステップS30において、周波数合成部23は、映像の時間変動成分を周波数領域ごとに分離されたデータの中から、所定周波数以上の高周波成分のデータを集めて、映像を合成(再構築)する処理を行う。ステップS30に続くステップS40において、ノイズ除去部24は、周波数合成部23で合成された映像から、ノイズを除去する処理を行う。
In step S30, the
ステップS40に続くステップS50において、接近車両検出部25は、ノイズが除去された映像上の横エッジを強調する処理を行って、ステップS60に進む。ステップS60では、車両の特徴を表すテンプレートを用いて、テンプレートマッチング処理を行うことにより、車両の特徴を表す横エッジを検出する。ステップS60に続くステップS70では、検出した横エッジの周辺に車両検出領域を設定して、ステップS80に進む。ステップS80では、設定した車両検出領域内に存在する映像成分に基づいて、接近車両を検出する。
In step S50 following step S40, the approaching
一実施の形態における接近車両検出装置によれば、車載カメラ10によって撮像された車両周囲の映像の時間変動成分を周波数ごとに分離し、分離したデータに基づいて、撮像映像から、自車両に接近してくる車両を検出するので、接近車両を効果的に検出することができる。例えば、撮像映像上に、多数の車両が映っている場合でも、少ない演算量で接近車両を検出することができる。
According to the approaching vehicle detection device in one embodiment, the temporal variation component of the image around the vehicle imaged by the in-
特に、撮像映像の各画素の輝度の時間変化を周波数ごとに分離されたデータの中から、輝度の時間変化が所定の周波数以上の画素領域のデータを集めて映像を再構築し、再構築した映像に基づいて、テンプレートマッチング処理を行うので、撮像映像上の接近車両を精度良く検出することができる。 In particular, we reconstructed and reconstructed the video by collecting the data of the pixel area whose temporal change in luminance is greater than or equal to the predetermined frequency from the data obtained by separating the temporal change in luminance of each pixel of the captured video for each frequency. Since template matching processing is performed based on the video, an approaching vehicle on the captured video can be detected with high accuracy.
また、一実施の形態における接近車両検出装置によれば、テンプレートマッチング処理を行うことによって、車両の特徴を表すテンプレートとマッチした画素領域周辺に、所定の車両検出領域を設定し、設定した前記車両検出領域内の横エッジのデータ量に基づいて、撮像映像上の接近車両を検出するので、接近車両をさらに精度良く検出することができる。 Further, according to the approaching vehicle detection device in one embodiment, by performing template matching processing, a predetermined vehicle detection region is set around the pixel region that matches the template representing the characteristics of the vehicle, and the set vehicle Since the approaching vehicle on the captured image is detected based on the data amount of the lateral edge in the detection area, the approaching vehicle can be detected with higher accuracy.
さらに、一実施の形態における接近車両検出装置によれば、再構築した映像からノイズを除去する処理を行った後に、テンプレートマッチング処理を行うので、接近車両の検出精度をさらに向上させることができる。 Furthermore, according to the approaching vehicle detection device in one embodiment, the template matching process is performed after the process of removing noise from the reconstructed video, so that the detection accuracy of the approaching vehicle can be further improved.
本発明は、上述した一実施の形態に限定されることはない。例えば、接近車両検出部25は、テンプレートマッチング処理を行うことにより、車両の特徴を表す横エッジを検出すると、検出した横エッジの長さを一辺とする矩形領域(図10参照)を設定して、接近車両を検出する処理を行った。しかし、検出した横エッジの上下に、複数の車両検出領域を設定することもできる。図12は、検出した横エッジの上下に、それぞれ2つずつ設定された車両検出領域60〜63を示す図である。この場合も、設定した各車両検出領域60〜63内に存在する映像成分(横エッジ成分)が所定量以上ある領域を、接近車両が映り込んでいる領域であると判断する。また、車両検出領域を設定する場所は、検出した横エッジの上下に限定されることはなく、検出した横エッジの周辺であればよい。
The present invention is not limited to the embodiment described above. For example, when the approaching
車両検出領域は、図10や図12に示す矩形領域に限定されることはなく、例えば、図13(a)に示すような正方形であってもよいし、図13(b)に示すような台形であってもよい。すなわち、軽自動車やスポーツカーなど、車両の種類に応じた形状の車両検出領域を予め用意して、複数種類の車両検出領域を適用して車両検出処理を行えば、様々な種類の車両を精度良く検出することができる。 The vehicle detection area is not limited to the rectangular area shown in FIGS. 10 and 12, and may be a square as shown in FIG. 13A, for example, or as shown in FIG. 13B. It may be trapezoidal. That is, if a vehicle detection area having a shape corresponding to the type of vehicle, such as a light vehicle or a sports car, is prepared in advance and a vehicle detection process is performed by applying a plurality of types of vehicle detection areas, various types of vehicles can be accurately detected. It can be detected well.
車両の特徴を表したテンプレートの一例を図9(a)や図9(b)に示したが、二輪車を検出する場合には、二輪車検出用のテンプレートを予め用意しておくことが好ましい。図14は、二輪車検出用のテンプレートの一例を示す図である。二輪車は、ヘルメットや前照灯の形状が映像上に残りやすいので、横方向のエッジと丸い形状を含むテンプレートを用意しておけばよい。 An example of a template representing the characteristics of the vehicle is shown in FIGS. 9A and 9B. However, when detecting a two-wheeled vehicle, it is preferable to prepare a template for detecting the two-wheeled vehicle in advance. FIG. 14 is a diagram showing an example of a template for detecting a motorcycle. For motorcycles, the shape of the helmet or headlight is likely to remain on the image, so a template including a lateral edge and a round shape may be prepared.
車両のテンプレートを、昼夜や降雨などの環境に応じて変更するようにしてもよい。例えば、夜間に接近車両を検出する処理を行う場合には、車両のテンプレートを前照灯を含む形状とすることができる。この場合、夜間における接近車両の検出精度をさらに向上させることができる。 You may make it change the template of a vehicle according to environments, such as day and night, and rainfall. For example, when performing the process of detecting an approaching vehicle at night, the template of the vehicle can be shaped to include a headlamp. In this case, the detection accuracy of the approaching vehicle at night can be further improved.
上述した一実施の形態では、各画素の輝度の時間変化を周波数ごとに分離したデータのうち、所定周波数以上の高周波成分のデータを集めて、映像を合成(再構築)することにより、自車両に接近してくる車両を含む映像を構築するようにした。輝度の時間変化を周波数ごとに分離したデータでは、自車両を基準とする相対速度が小さいほど周波数が低い成分となり、相対速度が大きいほど周波数が高い成分となる。従って、特定の周波数のデータを集めて映像を再構築することにより、特定の相対速度を有する接近車両を検出することも可能となる。 In the embodiment described above, by collecting high-frequency component data of a predetermined frequency or higher among the data obtained by separating the temporal change in luminance of each pixel for each frequency and synthesizing (reconstructing) the video, the vehicle An image including a vehicle approaching to is constructed. In the data in which the change in luminance over time is separated for each frequency, the lower the relative speed with respect to the host vehicle, the lower the frequency component, and the higher the relative speed, the higher the frequency component. Therefore, it is possible to detect an approaching vehicle having a specific relative speed by collecting data of a specific frequency and reconstructing the video.
映像上の横エッジを強調する処理を行うために用いる空間フィルタは、横線検出フィルタに限定されることはなく、他の空間フィルタを用いることもできる。 The spatial filter used for emphasizing the horizontal edge on the video is not limited to the horizontal line detection filter, and other spatial filters may be used.
車両の特徴を表す横エッジを検出する際に、映像の下方から横エッジ検出処理を行っていき、検出した横エッジに基づいて設定された車両検出領域内に車両が映り込んでいると判断した場合には、その車両検出領域内ではエッジ検出処理を行わないようにすれば、車両検出処理に要する演算量を低減することができる。 When detecting the horizontal edge representing the characteristics of the vehicle, the horizontal edge detection process was performed from the bottom of the video, and it was determined that the vehicle was reflected in the vehicle detection area set based on the detected horizontal edge. In this case, if the edge detection process is not performed in the vehicle detection area, the amount of calculation required for the vehicle detection process can be reduced.
上述した一実施の形態では、車載カメラ10を1台だけ設ける例を挙げて説明したが、車載カメラ10を複数設けることもできる。
In the above-described embodiment, an example in which only one in-
特許請求の範囲の構成要素と一実施の形態の構成要素との対応関係は次の通りである。すなわち、車載カメラ10が撮像手段を、処理装置20が周波数分離手段、接近車両検出手段、映像合成手段、および、ノイズ除去手段をそれぞれ構成する。なお、以上の説明はあくまで一例であり、発明を解釈する上で、上記の実施形態の構成要素と本発明の構成要素との対応関係に何ら限定されるものではない。
The correspondence between the constituent elements of the claims and the constituent elements of the embodiment is as follows. That is, the in-
10…車載カメラ、20…処理装置、21…周波数分解部、22…記憶部、23…周波数合成部、24…ノイズ除去部、25…接近車両検出部、100…自車両、200…接近車両
DESCRIPTION OF
Claims (8)
前記撮像手段によって撮像された映像(以下、撮像映像)上における各画素の輝度の時間変動成分を周波数ごとに分離する周波数分離手段と、
前記周波数分離手段によって前記撮像映像の時間変動成分を周波数ごとに分離されたデータに基づいて、前記撮像映像から、自車両に接近してくる接近車両を検出する接近車両検出手段と、
前記周波数分離手段によって分離されたデータの中から、輝度の時間変化が所定の周波数以上の画素領域のデータを集めて、映像を再構築する映像合成手段を備え、
前記接近車両検出手段は、前記映像合成手段によって再構築された映像に基づいて、テンプレートマッチング処理を行うことにより、前記撮像映像上の接近車両を検出することを行うことを特徴とする接近車両検出装置。 Imaging means for imaging the surroundings of the vehicle;
A frequency separation unit that separates a time-varying component of luminance of each pixel on a video imaged by the imaging unit (hereinafter referred to as a captured video image) for each frequency;
An approaching vehicle detection means for detecting an approaching vehicle approaching the host vehicle from the captured image, based on data obtained by separating the time-varying component of the captured image by frequency by the frequency separation means ;
From the data separated by the frequency separation means, it comprises video synthesis means for reconstructing a video by collecting data of pixel areas whose luminance change over time is a predetermined frequency or more,
The approaching vehicle detection means detects an approaching vehicle on the captured image by performing a template matching process based on the video reconstructed by the video composition means. apparatus.
前記接近車両検出手段は、前記映像合成手段によって再構築された映像に対して、横エッジを検出する処理を行った後、前記テンプレートマッチング処理を行うことを特徴とする接近車両検出装置。 The approaching vehicle detection device according to claim 1 ,
The approaching vehicle detection device, wherein the approaching vehicle detection unit performs the template matching process after performing a process of detecting a lateral edge on the video reconstructed by the video composition unit.
前記接近車両検出手段は、横線状のテンプレートを用いて、前記テンプレートマッチング処理を行うことを特徴とする接近車両検出装置。 The approaching vehicle detection device according to claim 2 ,
The approaching vehicle detection device, wherein the approaching vehicle detection means performs the template matching process using a horizontal line template.
前記接近車両検出手段は、前記テンプレートマッチング処理を行うことによって、車両の特徴を表すテンプレートとマッチした画素領域周辺に、所定の車両検出領域を設定し、設定した前記車両検出領域内の横エッジのデータ量に基づいて、前記撮像映像上の接近車両を検出することを行うことを特徴とする接近車両検出装置。 In the approaching vehicle detection device according to claim 1 or 2 ,
The approaching vehicle detection means performs a template matching process to set a predetermined vehicle detection area around a pixel area that matches a template representing a vehicle characteristic, and to detect a lateral edge in the set vehicle detection area. An approaching vehicle detection device that detects an approaching vehicle on the captured image based on a data amount.
前記接近車両検出手段は、前記車両検出領域を、車両の特徴を表すテンプレートとマッチした画素領域周辺に複数設定し、設定した前記車両検出領域内の横エッジのデータ量が最も多い車両検出領域に、前記接近車両が映っていると判断することを特徴とする接近車両検出装置。 The approaching vehicle detection device according to claim 4 ,
The approaching vehicle detection means sets a plurality of the vehicle detection areas around a pixel area that matches a template representing the characteristics of the vehicle, and sets the vehicle detection area with the largest amount of lateral edge data in the set vehicle detection area. An approaching vehicle detection device that judges that the approaching vehicle is reflected.
前記接近車両検出手段は、前記車両検出領域を、車両の種類に応じて、複数種類設定することを特徴とする接近車両検出装置。 In the approaching vehicle detection device according to claim 4 or 5 ,
The approaching vehicle detection device is configured to set a plurality of types of the vehicle detection area according to the type of the vehicle.
前記接近車両検出手段は、昼と夜とにおいて、前記テンプレートマッチング処理を行う際に用いるテンプレートを変更することを特徴とする接近車両検出装置。 In the approaching vehicle detection device according to any one of claims 1 to 6,
The approaching vehicle detection device is characterized in that the approaching vehicle detection means changes a template used when performing the template matching process between day and night.
前記映像合成手段によって再構築された映像からノイズを除去するノイズ除去手段をさらに備え、
前記接近車両検出手段は、前記ノイズ除去手段によってノイズが除去された映像に基づいて、前記テンプレートマッチング処理を行うことを特徴とする接近車両検出装置。
In the approaching vehicle detection device according to any one of claims 1 to 7,
Noise removing means for removing noise from the video reconstructed by the video synthesizing means;
The approaching vehicle detection device, wherein the approaching vehicle detection means performs the template matching process based on an image from which noise has been removed by the noise removal means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006169697A JP4697063B2 (en) | 2006-06-20 | 2006-06-20 | Approaching vehicle detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006169697A JP4697063B2 (en) | 2006-06-20 | 2006-06-20 | Approaching vehicle detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008003660A JP2008003660A (en) | 2008-01-10 |
JP4697063B2 true JP4697063B2 (en) | 2011-06-08 |
Family
ID=39008010
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006169697A Expired - Fee Related JP4697063B2 (en) | 2006-06-20 | 2006-06-20 | Approaching vehicle detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4697063B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012014972A1 (en) * | 2010-07-30 | 2012-02-02 | 国立大学法人九州工業大学 | Vehicle behavior analysis device and vehicle behavior analysis program |
CN110989285A (en) * | 2014-04-22 | 2020-04-10 | 日本电信电话株式会社 | Video generation device, video generation method, data structure, and program |
JP6163453B2 (en) * | 2014-05-19 | 2017-07-12 | 本田技研工業株式会社 | Object detection device, driving support device, object detection method, and object detection program |
JPWO2019131062A1 (en) * | 2017-12-27 | 2021-01-07 | パイオニア株式会社 | Judgment device and information recording device, judgment method and judgment program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06327013A (en) * | 1992-02-28 | 1994-11-25 | Yamaguchi Pref Gov | Moving object extraction system and device therefor |
JP2000067163A (en) * | 1998-08-26 | 2000-03-03 | Nagoya Denki Kogyo Kk | Method and device for detecting bus on specified route |
JP2001229488A (en) * | 2000-02-15 | 2001-08-24 | Hitachi Ltd | Vehicle tracking method and traffic state tracking device |
-
2006
- 2006-06-20 JP JP2006169697A patent/JP4697063B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06327013A (en) * | 1992-02-28 | 1994-11-25 | Yamaguchi Pref Gov | Moving object extraction system and device therefor |
JP2000067163A (en) * | 1998-08-26 | 2000-03-03 | Nagoya Denki Kogyo Kk | Method and device for detecting bus on specified route |
JP2001229488A (en) * | 2000-02-15 | 2001-08-24 | Hitachi Ltd | Vehicle tracking method and traffic state tracking device |
Also Published As
Publication number | Publication date |
---|---|
JP2008003660A (en) | 2008-01-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9813593B2 (en) | Outside recognition apparatus and lens dirtiness detection method | |
JP6772113B2 (en) | Adhesion detection device and vehicle system equipped with it | |
US10297014B2 (en) | Image processing device, monitoring system provided with same, and image processing method | |
WO2010058821A1 (en) | Approaching object detection system | |
CN108860045B (en) | Driving support method, driving support device, and storage medium | |
JP7024782B2 (en) | Image processing device and image processing method and image pickup device | |
WO2014084251A1 (en) | Onboard image processing system | |
JP3941926B2 (en) | Vehicle periphery monitoring device | |
US7873235B2 (en) | Fog isolation and rejection filter | |
CN110659547B (en) | Object recognition method, device, vehicle and computer-readable storage medium | |
JP2009206747A (en) | Ambient condition monitoring system for vehicle, and video display method | |
JP2019004203A (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP4826355B2 (en) | Vehicle surrounding display device | |
JPWO2011043030A1 (en) | Ambient monitoring device for vehicles | |
JP4697063B2 (en) | Approaching vehicle detection device | |
JP6152261B2 (en) | Car parking frame recognition device | |
JP2005184395A (en) | Method, system and apparatus for image processing, and photographing equipment | |
JP2015148887A (en) | Image processing device, object recognition device, moving body instrument control system and object recognition program | |
US9189701B2 (en) | Object detection apparatus, object detection method, storage medium, and integrated circuit | |
JP7271908B2 (en) | Perimeter monitoring device | |
CN107077715B (en) | Vehicle surrounding image display device and vehicle surrounding image display method | |
JP6867023B2 (en) | Video display device for mobiles and its method | |
JP6148848B2 (en) | In-vehicle image processing device | |
US20220408062A1 (en) | Display control apparatus, display control method, and program | |
KR20180117597A (en) | Image processing apparatus, image processing method, computer program and electronic apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090325 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101101 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101109 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110111 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110214 |
|
LAPS | Cancellation because of no payment of annual fees |