JP4697063B2 - Approaching vehicle detection device - Google Patents

Approaching vehicle detection device Download PDF

Info

Publication number
JP4697063B2
JP4697063B2 JP2006169697A JP2006169697A JP4697063B2 JP 4697063 B2 JP4697063 B2 JP 4697063B2 JP 2006169697 A JP2006169697 A JP 2006169697A JP 2006169697 A JP2006169697 A JP 2006169697A JP 4697063 B2 JP4697063 B2 JP 4697063B2
Authority
JP
Japan
Prior art keywords
vehicle detection
approaching vehicle
vehicle
approaching
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006169697A
Other languages
Japanese (ja)
Other versions
JP2008003660A (en
Inventor
聡 知野見
政美 舟川
壮一郎 森
柳  拓良
勉 川野
達美 柳井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2006169697A priority Critical patent/JP4697063B2/en
Publication of JP2008003660A publication Critical patent/JP2008003660A/en
Application granted granted Critical
Publication of JP4697063B2 publication Critical patent/JP4697063B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、撮像画像に基づいて、自車両に接近してくる車両を検出する装置に関する。   The present invention relates to an apparatus for detecting a vehicle approaching a host vehicle based on a captured image.

従来、車両周囲を撮像した複数の画像に基づいて、テンプレートマッチングによりオプティカルフローを求め、撮像画像上の他車両を検出する技術が知られている(特許文献1参照)。   2. Description of the Related Art Conventionally, a technique for obtaining an optical flow by template matching based on a plurality of images captured around a vehicle and detecting other vehicles on the captured image is known (see Patent Document 1).

特開2004−173048号公報JP 2004-173048 A

しかしながら、オプティカルフローを求める方法では、接近車両を検出するために要する演算量が多くなるという問題がある。   However, the method for obtaining the optical flow has a problem that the amount of calculation required to detect the approaching vehicle increases.

本発明による接近車両検出装置は、車両周囲を撮像する撮像手段と、前記撮像手段によって撮像された映像(以下、撮像映像)上における各画素の輝度の時間変動成分を周波数ごとに分離する周波数分離手段と、前記周波数分離手段によって前記撮像映像の時間変動成分を周波数ごとに分離されたデータに基づいて、前記撮像映像から、自車両に接近してくる接近車両を検出する接近車両検出手段と、前記周波数分離手段によって分離されたデータの中から、輝度の時間変化が所定の周波数以上の画素領域のデータを集めて、映像を再構築する映像合成手段を備え、前記接近車両検出手段は、前記映像合成手段によって再構築された映像に基づいて、テンプレートマッチング処理を行うことにより、前記撮像映像上の接近車両を検出することを行うことを特徴とする。 An approaching vehicle detection device according to the present invention includes an imaging unit that captures an image of the surroundings of a vehicle, and a frequency separation that separates a time-varying component of luminance of each pixel on a video imaged by the imaging unit (hereinafter referred to as a captured image) for each frequency. An approaching vehicle detection means for detecting an approaching vehicle approaching the host vehicle from the captured image based on data obtained by separating the time-varying component of the captured image for each frequency by the frequency separation means; Image data synthesizing means for reconstructing an image by collecting data of pixel regions whose luminance change over time is a predetermined frequency or more from the data separated by the frequency separation means, the approaching vehicle detection means, based on the images that are reconstructed by the image synthesizing means, by performing a template matching process, detecting an approaching vehicle on the captured image And performing.

本発明による接近車両検出装置によれば、車両周囲の映像の時間変動成分を周波数ごとに分離し、分離したデータに基づいて、撮像映像から、自車両に接近してくる車両を検出するので、接近車両を効果的に検出することができる。   According to the approaching vehicle detection device of the present invention, the time fluctuation component of the video around the vehicle is separated for each frequency, and the vehicle approaching the host vehicle is detected from the captured video based on the separated data. An approaching vehicle can be detected effectively.

図1は、一実施の形態における接近車両検出装置の構成を示す図である。一実施の形態における接近車両検出装置は、車載カメラ10と、処理装置20とを備える。図2は、車載カメラ10の取り付け位置の一例を示す図である。図2に示すように、車載カメラ10は、車両100の後部中央に取り付けられて、自車両後方を撮像する。   FIG. 1 is a diagram illustrating a configuration of an approaching vehicle detection device according to an embodiment. The approaching vehicle detection device in one embodiment includes an in-vehicle camera 10 and a processing device 20. FIG. 2 is a diagram illustrating an example of an attachment position of the in-vehicle camera 10. As shown in FIG. 2, the in-vehicle camera 10 is attached to the center of the rear part of the vehicle 100 and images the rear of the host vehicle.

処理装置20は、プロセッサで構成されており、内部で行う処理機能上、周波数分解部21と、記憶部22と、周波数合成部23と、ノイズ除去部24と、接近車両検出部25とを備える。周波数分解部21は、車載カメラ10によって撮像された映像に基づいて、映像の時間変動成分を周波数領域ごとに分解する処理を行う。記憶部22は、周波数分解部21によって周波数領域ごとに分解されたデータを記憶する。   The processing device 20 includes a processor, and includes a frequency resolving unit 21, a storage unit 22, a frequency synthesizing unit 23, a noise removing unit 24, and an approaching vehicle detection unit 25 in terms of processing functions performed internally. . The frequency resolving unit 21 performs processing for decomposing time-varying components of the video for each frequency domain based on the video captured by the in-vehicle camera 10. The storage unit 22 stores data decomposed for each frequency domain by the frequency decomposition unit 21.

周波数合成部23は、車載カメラ10の取り付け位置、撮像方向、レンズのディストーション(歪み)に応じて、記憶部22に記憶されているデータの中から、撮像画素ごとに必要な周波数領域のデータを集めて、映像を合成(再構築)する処理を行う。ノイズ除去部24は、周波数合成部23で合成された映像から、ノイズを除去する処理を行う。接近車両検出部25は、ノイズ除去部24でノイズが除去された映像に基づいて、自車両に接近してきている車両を検出する。各部21〜25で行われる詳しい処理内容を以下で説明する。   The frequency synthesizing unit 23 obtains frequency domain data necessary for each imaging pixel from the data stored in the storage unit 22 according to the mounting position of the in-vehicle camera 10, the imaging direction, and the distortion (distortion) of the lens. Collecting and synthesizing (reconstructing) video. The noise removing unit 24 performs processing for removing noise from the video synthesized by the frequency synthesizing unit 23. The approaching vehicle detection unit 25 detects a vehicle approaching the host vehicle based on the image from which noise has been removed by the noise removal unit 24. The detailed processing content performed in each part 21-25 is demonstrated below.

図3は、車載カメラ10で撮像された映像の一例を示す図である。図3に示す撮像映像には、隣接車線を走行している車両200、および、自車両の真後ろを走行している車両300が映っている。また、車両200,300以外にも、中央線31、道路の端線32,33、鉄塔35、および、側壁36などが映っている。ここで、隣接車線を走行している車両200は、自車両を追い抜こうとしており、自車両の真後ろを走行している車両300は、自車両とほぼ同じ速度で走行しているものとする。   FIG. 3 is a diagram illustrating an example of an image captured by the in-vehicle camera 10. The captured image shown in FIG. 3 shows a vehicle 200 traveling in the adjacent lane and a vehicle 300 traveling directly behind the host vehicle. In addition to the vehicles 200 and 300, a center line 31, road end lines 32 and 33, a steel tower 35, a side wall 36, and the like are shown. Here, it is assumed that the vehicle 200 traveling in the adjacent lane is overtaking the host vehicle, and the vehicle 300 traveling directly behind the host vehicle is traveling at substantially the same speed as the host vehicle. .

周波数分解部21は、車載カメラ10によって撮像された映像に基づいて、映像の時間変動成分を周波数領域ごとに分解する処理を行う。ここでは、映像の時間変動成分を周波数領域ごとに分解する処理を、時間周波数分割と呼ぶ。   The frequency resolving unit 21 performs processing for decomposing time-varying components of the video for each frequency domain based on the video captured by the in-vehicle camera 10. Here, the process of decomposing time-varying components of video for each frequency domain is called time-frequency division.

図4は、撮像映像上の1つの画素(x、y)の輝度の時間変化を示す図である。周波数分解部21は、この輝度の時間変化を、周波数成分に分割する。例えば、異なる時刻に撮影された複数の映像フレームに基づいて、各画素ごとに、輝度値の平均値を演算し、演算した輝度平均値と、現在の映像の輝度値との差分を求めてから、周波数領域ごとに分類する処理を行う。毎秒30フレームで撮影している場合には、15Hz以下のバンドパス成分に分類することができる。周波数分解部21によって周波数領域ごとに分解されたデータは、記憶部22に記憶される。   FIG. 4 is a diagram illustrating a temporal change in luminance of one pixel (x, y) on the captured image. The frequency resolving unit 21 divides this temporal change in luminance into frequency components. For example, based on a plurality of video frames taken at different times, an average value of luminance values is calculated for each pixel, and a difference between the calculated luminance average value and the luminance value of the current video is obtained. The processing for classifying by frequency domain is performed. When shooting at 30 frames per second, it can be classified into bandpass components of 15 Hz or less. Data decomposed for each frequency region by the frequency resolving unit 21 is stored in the storage unit 22.

時間周波数分割処理を行うと、輝度の変化が少ない画素は低周波成分に分類され、輝度の変化が大きい画素は高周波成分として分類される。従って、空や地面(道路)が映り込んでいる画素は、輝度が時間的に変化しないため、低周波成分として抽出される。一方、接近車両が映り込んでいる画素や、鉄塔などのように、自車両の走行に伴って映像上で移動する画素は、輝度が時間的に変化するため、高周波成分として抽出される。図3に示す映像では、自車両を追い抜こうとしている車両200は、高周波成分となり、自車両とほぼ同じ速度で走行している車両300は低周波成分となる。また、鉄塔35は、自車両の走行に伴って、映像上で移動するため、高周波成分となる。   When the time-frequency division process is performed, pixels with a small change in luminance are classified as low-frequency components, and pixels with a large change in luminance are classified as high-frequency components. Therefore, the pixels in which the sky and the ground (road) are reflected are extracted as low-frequency components because the luminance does not change with time. On the other hand, pixels that move on the image as the host vehicle travels, such as pixels in which an approaching vehicle is reflected or a steel tower, are extracted as high-frequency components because the luminance changes with time. In the video shown in FIG. 3, the vehicle 200 trying to overtake the host vehicle has a high frequency component, and the vehicle 300 traveling at substantially the same speed as the host vehicle has a low frequency component. In addition, the steel tower 35 moves on the video as the host vehicle travels, and thus becomes a high-frequency component.

周波数合成部23は、自車両に接近してくる車両を検出するために、記憶部22に記憶されているデータの中から、所定周波数以上の高周波成分のデータを集めて、映像を合成(再構築)する処理を行う。所定周波数以上の高周波成分のデータを集めることにより、上述したように、自車両とほぼ同じ速度で走行している車両300などの低周波成分のデータを除外することができる。   In order to detect a vehicle approaching the host vehicle, the frequency synthesizer 23 collects high-frequency component data of a predetermined frequency or higher from the data stored in the storage unit 22 and synthesizes (re-creates) the video. Process). By collecting high-frequency component data of a predetermined frequency or higher, low-frequency component data such as the vehicle 300 traveling at substantially the same speed as the host vehicle can be excluded as described above.

ここで、撮像映像上に一定の速度で接近してくる車両が映っている場合でも、映っている場所によって、速度が異なって映る。図5は、一定の速度で走行している車両200のオプティカルフローを矢印Y1およびY2で示した図である。図5に示すように、車載カメラ10のレンズ中央に対応する画面中央よりも、車載カメラ10のレンズ周辺に対応する画面外側の位置の方が映像上の移動量が大きくなる。   Here, even when a vehicle approaching at a constant speed is shown on the captured image, the speed appears differently depending on the location where it is shown. FIG. 5 is a diagram showing the optical flow of the vehicle 200 traveling at a constant speed by arrows Y1 and Y2. As shown in FIG. 5, the moving amount on the image is larger at the position outside the screen corresponding to the lens periphery of the in-vehicle camera 10 than in the center of the screen corresponding to the lens center of the in-vehicle camera 10.

従って、周波数合成部23は、車載カメラ10の取り付け位置、撮像方向、レンズのディストーション(歪み)に応じて、撮像画素に応じた周波数領域のデータを集めて、映像を合成(再構築)する処理を行う。これにより、映像の合成(再構築)を適切に行うことができる。   Therefore, the frequency synthesizing unit 23 collects frequency domain data corresponding to the imaging pixels according to the mounting position of the in-vehicle camera 10, the imaging direction, and the distortion (distortion) of the lens, and synthesizes (reconstructs) the video. I do. This makes it possible to appropriately perform video composition (reconstruction).

ノイズ除去部24は、周波数合成部23で合成された映像から、ノイズを除去する処理を行う。ここでは、周波数合成部23で合成された映像の各画素の輝度値に対して二値化処理を行った後、メディアンフィルタを用いたノイズ除去処理を行う。   The noise removing unit 24 performs processing for removing noise from the video synthesized by the frequency synthesizing unit 23. Here, the binarization process is performed on the luminance value of each pixel of the video synthesized by the frequency synthesis unit 23, and then the noise removal process using the median filter is performed.

図6は、周波数合成部23によって合成されて、ノイズ除去部24でノイズ除去処理が行われた映像を示す図である。図6に示すように、自車両と同じ速度で走行していた車両300などの低周波成分は消去されて、接近車両200や、鉄塔35などのように、映像上で変化する部分が残る。特に、車両の場合、バンパーと地面との境界部分や、バンパーとエアインテイクとの境界、ボンネットと窓との境界、屋根と空との境界など、横方向(水平方向)に連続した情報(線)が残りやすい。   FIG. 6 is a diagram showing an image synthesized by the frequency synthesis unit 23 and subjected to noise removal processing by the noise removal unit 24. As shown in FIG. 6, the low frequency components such as the vehicle 300 that was traveling at the same speed as the host vehicle are deleted, and there are portions that change on the image, such as the approaching vehicle 200 and the steel tower 35. In particular, in the case of vehicles, information that is continuous in the horizontal direction (horizontal direction), such as the boundary between the bumper and the ground, the boundary between the bumper and the air intake, the boundary between the hood and the window, the boundary between the roof and the sky (line) ) Is likely to remain.

ノイズ除去部24は、また、車両が存在すると考えられる領域以外の領域から情報を消去する。例えば、映像の上方部分には、空などの背景が映っていることが多く、車両は存在しないと考えられる。従って、映像の上方部分に映っている情報を消去することにより、接近車両を検出するために不必要なデータを消去することができる。図7は、図6に示す映像から、映像の上方部分に映っている鉄塔35が消去された図である。   The noise removing unit 24 also erases information from an area other than the area where the vehicle is considered to exist. For example, a background such as the sky is often reflected in the upper part of the video, and it is considered that there is no vehicle. Therefore, by deleting the information shown in the upper part of the video, unnecessary data for detecting the approaching vehicle can be deleted. FIG. 7 is a diagram in which the steel tower 35 shown in the upper part of the video is deleted from the video shown in FIG.

接近車両検出部25は、ノイズが除去された映像(図7参照)に基づいて、自車両に接近中の車両を検出する処理を行う。接近車両検出部25は、まず、横線検出フィルタなどの空間フィルタを用いて、映像上の横エッジを強調する処理を行う。図8は、図7に示す映像に対して、横線検出フィルタを用いて、横エッジを検出する処理を行った後の図である。図8に示すように、縦線の成分が消えて、横方向(水平方向)の成分が強調されている。   The approaching vehicle detection unit 25 performs processing for detecting a vehicle approaching the host vehicle based on the image from which noise is removed (see FIG. 7). The approaching vehicle detection unit 25 first performs a process of enhancing the horizontal edge on the video using a spatial filter such as a horizontal line detection filter. FIG. 8 is a diagram after the processing shown in FIG. 7 for detecting the horizontal edge using the horizontal line detection filter. As shown in FIG. 8, the vertical line component disappears and the horizontal (horizontal) component is emphasized.

次に、接近車両検出部25は、テンプレートマッチング処理を行うことにより、接近車両を検出する。図9(a)および図9(b)は、接近車両検出部25が保持している、車両の特徴を表したテンプレートの一例を示す図である。乗用車やトラックは、バンパー下端のエッジ成分が残りやすいので、図9(a)や図9(b)に示すような横線状のテンプレートを用いる。ノイズ除去後の映像において、車両のエッジ成分は、横方向が連続的につながっていない可能性もあるので、図9(b)に示すような不連続な横線状のテンプレートを用いるか、または、エッジ成分が不連続であっても、連続的な直線であるものとして、図9(a)に示すテンプレートを用いるようにする。   Next, the approaching vehicle detection unit 25 detects an approaching vehicle by performing a template matching process. FIG. 9A and FIG. 9B are diagrams showing an example of a template representing the characteristics of the vehicle, which is held by the approaching vehicle detection unit 25. In passenger cars and trucks, the edge component at the lower end of the bumper tends to remain, so a horizontal line template as shown in FIGS. 9A and 9B is used. In the image after noise removal, the edge component of the vehicle may not be continuously connected in the horizontal direction, so use a discontinuous horizontal line template as shown in FIG. 9B, or Even if the edge component is discontinuous, the template shown in FIG. 9A is used as a continuous straight line.

上述したテンプレートマッチング処理を行うことにより、車両の特徴を表す横エッジが検出される。車両の特徴を表す横エッジを検出すると、接近車両を検出するための車両検出領域を設定する。ここでは、検出した横エッジの長さを一辺とし、検出した横エッジを底辺とする矩形領域を、車両検出領域として設定する。図10は、設定された矩形領域50の一例を示す図である。接近車両検出部25は、設定した車両検出領域内に存在する映像成分に基づいて、車両を検出する。例えば、設定した車両検出領域内に存在する映像成分(横エッジ成分)が所定量以上あれば、その車両検出領域は、接近車両が映り込んでいる領域であると判断する。なお、横エッジの検出処理、および、設定した車両検出領域内での車両検出処理は、撮像映像上の全ての領域を対象として行う。   By performing the template matching process described above, a lateral edge representing the characteristics of the vehicle is detected. When a lateral edge representing the characteristics of the vehicle is detected, a vehicle detection area for detecting an approaching vehicle is set. Here, a rectangular area having the detected horizontal edge as one side and the detected horizontal edge as the bottom is set as the vehicle detection area. FIG. 10 is a diagram illustrating an example of the set rectangular area 50. The approaching vehicle detection unit 25 detects the vehicle based on the video component existing in the set vehicle detection area. For example, if the video component (lateral edge component) existing in the set vehicle detection area is a predetermined amount or more, the vehicle detection area is determined to be an area in which an approaching vehicle is reflected. The lateral edge detection process and the vehicle detection process within the set vehicle detection area are performed for all areas on the captured image.

車両の検出処理は、数フレームにわたって行う。あるフレームで接近車両を検出したが、次のフレームにおいて、前のフレームで車両を検出した領域付近に車両を検出できない場合でも、続く数フレームの間は、車両未検出の判断を出さずに、その後の数フレームの間に、再度、近傍に車両を検出した場合には、連続的に車両を検出し続けているという判断を出す。これにより、接近車両が存在しているにも関わらず、画像処理時に、接近車両未検出となってしまった場合でも、接近車両が存在することを継続してユーザに報知することができる。   The vehicle detection process is performed over several frames. Even if an approaching vehicle is detected in a certain frame, but the vehicle cannot be detected in the vicinity of the area where the vehicle was detected in the previous frame in the next frame, the vehicle non-detection is not issued for the following several frames. If a vehicle is detected in the vicinity again in the next several frames, it is determined that the vehicle is continuously detected. Thereby, even when an approaching vehicle exists, even when an approaching vehicle is not detected during image processing, it is possible to continuously notify the user that an approaching vehicle exists.

接近車両検出部25が接近車両を検出すると、図示しないモニタに、接近車両の情報を表示したり、図示しないスピーカから、接近車両の情報を音声により、ドライバに報知することができる。   When the approaching vehicle detection unit 25 detects an approaching vehicle, information on the approaching vehicle can be displayed on a monitor (not shown), or information on the approaching vehicle can be notified to the driver from a speaker (not shown) by voice.

図11は、上述した処理装置20内の各部21〜25で行われる処理の流れを示すフローチャートである。ステップS10において、周波数分解部21は、車載カメラ10で撮像された複数フレームの映像を取得して、ステップS20に進む。ステップS20では、映像の時間変動成分を周波数領域ごとに分離して、ステップS30に進む。   FIG. 11 is a flowchart showing a flow of processing performed by each unit 21 to 25 in the processing device 20 described above. In step S10, the frequency resolving unit 21 acquires a plurality of frames of images captured by the in-vehicle camera 10, and proceeds to step S20. In step S20, the temporal variation component of the video is separated for each frequency domain, and the process proceeds to step S30.

ステップS30において、周波数合成部23は、映像の時間変動成分を周波数領域ごとに分離されたデータの中から、所定周波数以上の高周波成分のデータを集めて、映像を合成(再構築)する処理を行う。ステップS30に続くステップS40において、ノイズ除去部24は、周波数合成部23で合成された映像から、ノイズを除去する処理を行う。   In step S30, the frequency synthesizer 23 collects high-frequency component data of a predetermined frequency or higher from the data obtained by separating the time-varying components of the video for each frequency domain, and synthesizes (reconstructs) the video. Do. In step S40 following step S30, the noise removing unit 24 performs a process of removing noise from the video synthesized by the frequency synthesizing unit 23.

ステップS40に続くステップS50において、接近車両検出部25は、ノイズが除去された映像上の横エッジを強調する処理を行って、ステップS60に進む。ステップS60では、車両の特徴を表すテンプレートを用いて、テンプレートマッチング処理を行うことにより、車両の特徴を表す横エッジを検出する。ステップS60に続くステップS70では、検出した横エッジの周辺に車両検出領域を設定して、ステップS80に進む。ステップS80では、設定した車両検出領域内に存在する映像成分に基づいて、接近車両を検出する。   In step S50 following step S40, the approaching vehicle detection unit 25 performs a process of enhancing the horizontal edge on the image from which the noise has been removed, and proceeds to step S60. In step S60, a template matching process is performed using a template that represents the characteristics of the vehicle to detect a lateral edge that represents the characteristics of the vehicle. In step S70 following step S60, a vehicle detection region is set around the detected lateral edge, and the process proceeds to step S80. In step S80, an approaching vehicle is detected based on a video component existing in the set vehicle detection area.

一実施の形態における接近車両検出装置によれば、車載カメラ10によって撮像された車両周囲の映像の時間変動成分を周波数ごとに分離し、分離したデータに基づいて、撮像映像から、自車両に接近してくる車両を検出するので、接近車両を効果的に検出することができる。例えば、撮像映像上に、多数の車両が映っている場合でも、少ない演算量で接近車両を検出することができる。   According to the approaching vehicle detection device in one embodiment, the temporal variation component of the image around the vehicle imaged by the in-vehicle camera 10 is separated for each frequency, and the approaching vehicle is approached from the captured image based on the separated data. Since an incoming vehicle is detected, an approaching vehicle can be detected effectively. For example, an approaching vehicle can be detected with a small amount of computation even when a large number of vehicles are shown on the captured image.

特に、撮像映像の各画素の輝度の時間変化を周波数ごとに分離されたデータの中から、輝度の時間変化が所定の周波数以上の画素領域のデータを集めて映像を再構築し、再構築した映像に基づいて、テンプレートマッチング処理を行うので、撮像映像上の接近車両を精度良く検出することができる。   In particular, we reconstructed and reconstructed the video by collecting the data of the pixel area whose temporal change in luminance is greater than or equal to the predetermined frequency from the data obtained by separating the temporal change in luminance of each pixel of the captured video for each frequency. Since template matching processing is performed based on the video, an approaching vehicle on the captured video can be detected with high accuracy.

また、一実施の形態における接近車両検出装置によれば、テンプレートマッチング処理を行うことによって、車両の特徴を表すテンプレートとマッチした画素領域周辺に、所定の車両検出領域を設定し、設定した前記車両検出領域内の横エッジのデータ量に基づいて、撮像映像上の接近車両を検出するので、接近車両をさらに精度良く検出することができる。   Further, according to the approaching vehicle detection device in one embodiment, by performing template matching processing, a predetermined vehicle detection region is set around the pixel region that matches the template representing the characteristics of the vehicle, and the set vehicle Since the approaching vehicle on the captured image is detected based on the data amount of the lateral edge in the detection area, the approaching vehicle can be detected with higher accuracy.

さらに、一実施の形態における接近車両検出装置によれば、再構築した映像からノイズを除去する処理を行った後に、テンプレートマッチング処理を行うので、接近車両の検出精度をさらに向上させることができる。   Furthermore, according to the approaching vehicle detection device in one embodiment, the template matching process is performed after the process of removing noise from the reconstructed video, so that the detection accuracy of the approaching vehicle can be further improved.

本発明は、上述した一実施の形態に限定されることはない。例えば、接近車両検出部25は、テンプレートマッチング処理を行うことにより、車両の特徴を表す横エッジを検出すると、検出した横エッジの長さを一辺とする矩形領域(図10参照)を設定して、接近車両を検出する処理を行った。しかし、検出した横エッジの上下に、複数の車両検出領域を設定することもできる。図12は、検出した横エッジの上下に、それぞれ2つずつ設定された車両検出領域60〜63を示す図である。この場合も、設定した各車両検出領域60〜63内に存在する映像成分(横エッジ成分)が所定量以上ある領域を、接近車両が映り込んでいる領域であると判断する。また、車両検出領域を設定する場所は、検出した横エッジの上下に限定されることはなく、検出した横エッジの周辺であればよい。   The present invention is not limited to the embodiment described above. For example, when the approaching vehicle detection unit 25 detects a lateral edge representing the characteristics of the vehicle by performing template matching processing, the approaching vehicle detection unit 25 sets a rectangular area (see FIG. 10) having the length of the detected lateral edge as one side. The process of detecting approaching vehicles was performed. However, a plurality of vehicle detection areas can be set above and below the detected horizontal edge. FIG. 12 is a diagram illustrating vehicle detection areas 60 to 63 that are respectively set two above and below the detected horizontal edge. Also in this case, it is determined that an area in which the video components (lateral edge components) existing in the set vehicle detection areas 60 to 63 are a predetermined amount or more is an area in which an approaching vehicle is reflected. Moreover, the place where the vehicle detection area is set is not limited to the upper and lower sides of the detected horizontal edge, and may be around the detected horizontal edge.

車両検出領域は、図10や図12に示す矩形領域に限定されることはなく、例えば、図13(a)に示すような正方形であってもよいし、図13(b)に示すような台形であってもよい。すなわち、軽自動車やスポーツカーなど、車両の種類に応じた形状の車両検出領域を予め用意して、複数種類の車両検出領域を適用して車両検出処理を行えば、様々な種類の車両を精度良く検出することができる。   The vehicle detection area is not limited to the rectangular area shown in FIGS. 10 and 12, and may be a square as shown in FIG. 13A, for example, or as shown in FIG. 13B. It may be trapezoidal. That is, if a vehicle detection area having a shape corresponding to the type of vehicle, such as a light vehicle or a sports car, is prepared in advance and a vehicle detection process is performed by applying a plurality of types of vehicle detection areas, various types of vehicles can be accurately detected. It can be detected well.

車両の特徴を表したテンプレートの一例を図9(a)や図9(b)に示したが、二輪車を検出する場合には、二輪車検出用のテンプレートを予め用意しておくことが好ましい。図14は、二輪車検出用のテンプレートの一例を示す図である。二輪車は、ヘルメットや前照灯の形状が映像上に残りやすいので、横方向のエッジと丸い形状を含むテンプレートを用意しておけばよい。   An example of a template representing the characteristics of the vehicle is shown in FIGS. 9A and 9B. However, when detecting a two-wheeled vehicle, it is preferable to prepare a template for detecting the two-wheeled vehicle in advance. FIG. 14 is a diagram showing an example of a template for detecting a motorcycle. For motorcycles, the shape of the helmet or headlight is likely to remain on the image, so a template including a lateral edge and a round shape may be prepared.

車両のテンプレートを、昼夜や降雨などの環境に応じて変更するようにしてもよい。例えば、夜間に接近車両を検出する処理を行う場合には、車両のテンプレートを前照灯を含む形状とすることができる。この場合、夜間における接近車両の検出精度をさらに向上させることができる。   You may make it change the template of a vehicle according to environments, such as day and night, and rainfall. For example, when performing the process of detecting an approaching vehicle at night, the template of the vehicle can be shaped to include a headlamp. In this case, the detection accuracy of the approaching vehicle at night can be further improved.

上述した一実施の形態では、各画素の輝度の時間変化を周波数ごとに分離したデータのうち、所定周波数以上の高周波成分のデータを集めて、映像を合成(再構築)することにより、自車両に接近してくる車両を含む映像を構築するようにした。輝度の時間変化を周波数ごとに分離したデータでは、自車両を基準とする相対速度が小さいほど周波数が低い成分となり、相対速度が大きいほど周波数が高い成分となる。従って、特定の周波数のデータを集めて映像を再構築することにより、特定の相対速度を有する接近車両を検出することも可能となる。   In the embodiment described above, by collecting high-frequency component data of a predetermined frequency or higher among the data obtained by separating the temporal change in luminance of each pixel for each frequency and synthesizing (reconstructing) the video, the vehicle An image including a vehicle approaching to is constructed. In the data in which the change in luminance over time is separated for each frequency, the lower the relative speed with respect to the host vehicle, the lower the frequency component, and the higher the relative speed, the higher the frequency component. Therefore, it is possible to detect an approaching vehicle having a specific relative speed by collecting data of a specific frequency and reconstructing the video.

映像上の横エッジを強調する処理を行うために用いる空間フィルタは、横線検出フィルタに限定されることはなく、他の空間フィルタを用いることもできる。   The spatial filter used for emphasizing the horizontal edge on the video is not limited to the horizontal line detection filter, and other spatial filters may be used.

車両の特徴を表す横エッジを検出する際に、映像の下方から横エッジ検出処理を行っていき、検出した横エッジに基づいて設定された車両検出領域内に車両が映り込んでいると判断した場合には、その車両検出領域内ではエッジ検出処理を行わないようにすれば、車両検出処理に要する演算量を低減することができる。   When detecting the horizontal edge representing the characteristics of the vehicle, the horizontal edge detection process was performed from the bottom of the video, and it was determined that the vehicle was reflected in the vehicle detection area set based on the detected horizontal edge. In this case, if the edge detection process is not performed in the vehicle detection area, the amount of calculation required for the vehicle detection process can be reduced.

上述した一実施の形態では、車載カメラ10を1台だけ設ける例を挙げて説明したが、車載カメラ10を複数設けることもできる。   In the above-described embodiment, an example in which only one in-vehicle camera 10 is provided has been described. However, a plurality of in-vehicle cameras 10 may be provided.

特許請求の範囲の構成要素と一実施の形態の構成要素との対応関係は次の通りである。すなわち、車載カメラ10が撮像手段を、処理装置20が周波数分離手段、接近車両検出手段、映像合成手段、および、ノイズ除去手段をそれぞれ構成する。なお、以上の説明はあくまで一例であり、発明を解釈する上で、上記の実施形態の構成要素と本発明の構成要素との対応関係に何ら限定されるものではない。   The correspondence between the constituent elements of the claims and the constituent elements of the embodiment is as follows. That is, the in-vehicle camera 10 constitutes an imaging unit, and the processing device 20 constitutes a frequency separation unit, an approaching vehicle detection unit, a video composition unit, and a noise removal unit. In addition, the above description is an example to the last, and when interpreting invention, it is not limited to the correspondence of the component of said embodiment and the component of this invention at all.

一実施の形態における接近車両検出装置の構成を示す図The figure which shows the structure of the approaching vehicle detection apparatus in one embodiment. 車載カメラの取り付け位置の位置例を示す図The figure which shows the position example of the attachment position of the vehicle-mounted camera 車載カメラで撮像された映像の一例を示す図The figure which shows an example of the image imaged with the vehicle-mounted camera 撮像映像上の1つの画素(x、y)の輝度の時間変化を示す図The figure which shows the time change of the brightness | luminance of one pixel (x, y) on a picked-up image. 一定の速度で走行している車両のオプティカルフローを矢印Y1およびY2で示した図Diagram showing the optical flow of a vehicle traveling at a constant speed with arrows Y1 and Y2. 周波数合成部によって合成されて、ノイズ除去部でノイズ除去処理が行われた映像を示す図The figure which shows the image synthesize | combined by the frequency synthetic | combination part, and the noise removal process performed by the noise removal part 図6に示す映像から、映像の上方部分に映っている鉄塔が消去された図The figure which the steel tower reflected in the upper part of a picture was deleted from the picture shown in FIG. 図7に示す映像に対して、横線検出フィルタを用いて、横エッジを強調する処理を行った後の図The figure after performing the process which emphasizes a horizontal edge using the horizontal line detection filter with respect to the image | video shown in FIG. 図9(a)および図9(b)は、車両の特徴を表したテンプレートの一例を示す図FIG. 9A and FIG. 9B are diagrams showing an example of a template representing the characteristics of the vehicle. 設定された矩形領域の一例を示す図The figure which shows an example of the set rectangular area 処理装置内で行われる処理の流れを示すフローチャートThe flowchart which shows the flow of the process performed within a processing apparatus. 横エッジの上下に、それぞれ2つずつ設定された車両検出領域を示す図The figure which shows the vehicle detection area set 2 each on the upper and lower sides of a horizontal edge 図13(a)は、車両検出領域を正方形とした場合の図、図13(b)は台形とした場合の図FIG. 13A is a diagram when the vehicle detection area is a square, and FIG. 13B is a diagram when a trapezoid is formed. 二輪車検出用のテンプレートの一例を示す図The figure which shows an example of the template for motorcycle detection

符号の説明Explanation of symbols

10…車載カメラ、20…処理装置、21…周波数分解部、22…記憶部、23…周波数合成部、24…ノイズ除去部、25…接近車両検出部、100…自車両、200…接近車両 DESCRIPTION OF SYMBOLS 10 ... Car-mounted camera, 20 ... Processing apparatus, 21 ... Frequency decomposition part, 22 ... Memory | storage part, 23 ... Frequency synthesis part, 24 ... Noise removal part, 25 ... Approaching vehicle detection part, 100 ... Own vehicle, 200 ... Approaching vehicle

Claims (8)

車両周囲を撮像する撮像手段と、
前記撮像手段によって撮像された映像(以下、撮像映像)上における各画素の輝度の時間変動成分を周波数ごとに分離する周波数分離手段と、
前記周波数分離手段によって前記撮像映像の時間変動成分を周波数ごとに分離されたデータに基づいて、前記撮像映像から、自車両に接近してくる接近車両を検出する接近車両検出手段と、
前記周波数分離手段によって分離されたデータの中から、輝度の時間変化が所定の周波数以上の画素領域のデータを集めて、映像を再構築する映像合成手段を備え、
前記接近車両検出手段は、前記映像合成手段によって再構築された映像に基づいて、テンプレートマッチング処理を行うことにより、前記撮像映像上の接近車両を検出することを行うことを特徴とする接近車両検出装置。
Imaging means for imaging the surroundings of the vehicle;
A frequency separation unit that separates a time-varying component of luminance of each pixel on a video imaged by the imaging unit (hereinafter referred to as a captured video image) for each frequency;
An approaching vehicle detection means for detecting an approaching vehicle approaching the host vehicle from the captured image, based on data obtained by separating the time-varying component of the captured image by frequency by the frequency separation means ;
From the data separated by the frequency separation means, it comprises video synthesis means for reconstructing a video by collecting data of pixel areas whose luminance change over time is a predetermined frequency or more,
The approaching vehicle detection means detects an approaching vehicle on the captured image by performing a template matching process based on the video reconstructed by the video composition means. apparatus.
請求項に記載の接近車両検出装置において、
前記接近車両検出手段は、前記映像合成手段によって再構築された映像に対して、横エッジを検出する処理を行った後、前記テンプレートマッチング処理を行うことを特徴とする接近車両検出装置。
The approaching vehicle detection device according to claim 1 ,
The approaching vehicle detection device, wherein the approaching vehicle detection unit performs the template matching process after performing a process of detecting a lateral edge on the video reconstructed by the video composition unit.
請求項に記載の接近車両検出装置において、
前記接近車両検出手段は、横線状のテンプレートを用いて、前記テンプレートマッチング処理を行うことを特徴とする接近車両検出装置。
The approaching vehicle detection device according to claim 2 ,
The approaching vehicle detection device, wherein the approaching vehicle detection means performs the template matching process using a horizontal line template.
請求項または請求項に記載の接近車両検出装置において、
前記接近車両検出手段は、前記テンプレートマッチング処理を行うことによって、車両の特徴を表すテンプレートとマッチした画素領域周辺に、所定の車両検出領域を設定し、設定した前記車両検出領域内の横エッジのデータ量に基づいて、前記撮像映像上の接近車両を検出することを行うことを特徴とする接近車両検出装置。
In the approaching vehicle detection device according to claim 1 or 2 ,
The approaching vehicle detection means performs a template matching process to set a predetermined vehicle detection area around a pixel area that matches a template representing a vehicle characteristic, and to detect a lateral edge in the set vehicle detection area. An approaching vehicle detection device that detects an approaching vehicle on the captured image based on a data amount.
請求項に記載の接近車両検出装置において、
前記接近車両検出手段は、前記車両検出領域を、車両の特徴を表すテンプレートとマッチした画素領域周辺に複数設定し、設定した前記車両検出領域内の横エッジのデータ量が最も多い車両検出領域に、前記接近車両が映っていると判断することを特徴とする接近車両検出装置。
The approaching vehicle detection device according to claim 4 ,
The approaching vehicle detection means sets a plurality of the vehicle detection areas around a pixel area that matches a template representing the characteristics of the vehicle, and sets the vehicle detection area with the largest amount of lateral edge data in the set vehicle detection area. An approaching vehicle detection device that judges that the approaching vehicle is reflected.
請求項または請求項に記載の接近車両検出装置において、
前記接近車両検出手段は、前記車両検出領域を、車両の種類に応じて、複数種類設定することを特徴とする接近車両検出装置。
In the approaching vehicle detection device according to claim 4 or 5 ,
The approaching vehicle detection device is configured to set a plurality of types of the vehicle detection area according to the type of the vehicle.
請求項から請求項のいずれか一項に記載の接近車両検出装置において、
前記接近車両検出手段は、昼と夜とにおいて、前記テンプレートマッチング処理を行う際に用いるテンプレートを変更することを特徴とする接近車両検出装置。
In the approaching vehicle detection device according to any one of claims 1 to 6,
The approaching vehicle detection device is characterized in that the approaching vehicle detection means changes a template used when performing the template matching process between day and night.
請求項から請求項のいずれか一項に記載の接近車両検出装置において、
前記映像合成手段によって再構築された映像からノイズを除去するノイズ除去手段をさらに備え、
前記接近車両検出手段は、前記ノイズ除去手段によってノイズが除去された映像に基づいて、前記テンプレートマッチング処理を行うことを特徴とする接近車両検出装置。
In the approaching vehicle detection device according to any one of claims 1 to 7,
Noise removing means for removing noise from the video reconstructed by the video synthesizing means;
The approaching vehicle detection device, wherein the approaching vehicle detection means performs the template matching process based on an image from which noise has been removed by the noise removal means.
JP2006169697A 2006-06-20 2006-06-20 Approaching vehicle detection device Expired - Fee Related JP4697063B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006169697A JP4697063B2 (en) 2006-06-20 2006-06-20 Approaching vehicle detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006169697A JP4697063B2 (en) 2006-06-20 2006-06-20 Approaching vehicle detection device

Publications (2)

Publication Number Publication Date
JP2008003660A JP2008003660A (en) 2008-01-10
JP4697063B2 true JP4697063B2 (en) 2011-06-08

Family

ID=39008010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006169697A Expired - Fee Related JP4697063B2 (en) 2006-06-20 2006-06-20 Approaching vehicle detection device

Country Status (1)

Country Link
JP (1) JP4697063B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012014972A1 (en) * 2010-07-30 2012-02-02 国立大学法人九州工業大学 Vehicle behavior analysis device and vehicle behavior analysis program
CN110989285A (en) * 2014-04-22 2020-04-10 日本电信电话株式会社 Video generation device, video generation method, data structure, and program
JP6163453B2 (en) * 2014-05-19 2017-07-12 本田技研工業株式会社 Object detection device, driving support device, object detection method, and object detection program
JPWO2019131062A1 (en) * 2017-12-27 2021-01-07 パイオニア株式会社 Judgment device and information recording device, judgment method and judgment program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06327013A (en) * 1992-02-28 1994-11-25 Yamaguchi Pref Gov Moving object extraction system and device therefor
JP2000067163A (en) * 1998-08-26 2000-03-03 Nagoya Denki Kogyo Kk Method and device for detecting bus on specified route
JP2001229488A (en) * 2000-02-15 2001-08-24 Hitachi Ltd Vehicle tracking method and traffic state tracking device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06327013A (en) * 1992-02-28 1994-11-25 Yamaguchi Pref Gov Moving object extraction system and device therefor
JP2000067163A (en) * 1998-08-26 2000-03-03 Nagoya Denki Kogyo Kk Method and device for detecting bus on specified route
JP2001229488A (en) * 2000-02-15 2001-08-24 Hitachi Ltd Vehicle tracking method and traffic state tracking device

Also Published As

Publication number Publication date
JP2008003660A (en) 2008-01-10

Similar Documents

Publication Publication Date Title
US9813593B2 (en) Outside recognition apparatus and lens dirtiness detection method
JP6772113B2 (en) Adhesion detection device and vehicle system equipped with it
US10297014B2 (en) Image processing device, monitoring system provided with same, and image processing method
WO2010058821A1 (en) Approaching object detection system
CN108860045B (en) Driving support method, driving support device, and storage medium
JP7024782B2 (en) Image processing device and image processing method and image pickup device
WO2014084251A1 (en) Onboard image processing system
JP3941926B2 (en) Vehicle periphery monitoring device
US7873235B2 (en) Fog isolation and rejection filter
CN110659547B (en) Object recognition method, device, vehicle and computer-readable storage medium
JP2009206747A (en) Ambient condition monitoring system for vehicle, and video display method
JP2019004203A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP4826355B2 (en) Vehicle surrounding display device
JPWO2011043030A1 (en) Ambient monitoring device for vehicles
JP4697063B2 (en) Approaching vehicle detection device
JP6152261B2 (en) Car parking frame recognition device
JP2005184395A (en) Method, system and apparatus for image processing, and photographing equipment
JP2015148887A (en) Image processing device, object recognition device, moving body instrument control system and object recognition program
US9189701B2 (en) Object detection apparatus, object detection method, storage medium, and integrated circuit
JP7271908B2 (en) Perimeter monitoring device
CN107077715B (en) Vehicle surrounding image display device and vehicle surrounding image display method
JP6867023B2 (en) Video display device for mobiles and its method
JP6148848B2 (en) In-vehicle image processing device
US20220408062A1 (en) Display control apparatus, display control method, and program
KR20180117597A (en) Image processing apparatus, image processing method, computer program and electronic apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101109

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110111

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110214

LAPS Cancellation because of no payment of annual fees