JP5304292B2 - Vehicle approaching object detection device - Google Patents

Vehicle approaching object detection device Download PDF

Info

Publication number
JP5304292B2
JP5304292B2 JP2009026162A JP2009026162A JP5304292B2 JP 5304292 B2 JP5304292 B2 JP 5304292B2 JP 2009026162 A JP2009026162 A JP 2009026162A JP 2009026162 A JP2009026162 A JP 2009026162A JP 5304292 B2 JP5304292 B2 JP 5304292B2
Authority
JP
Japan
Prior art keywords
vehicle
approaching object
camera
object detection
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009026162A
Other languages
Japanese (ja)
Other versions
JP2010182171A (en
Inventor
柳  拓良
聡 知野見
勉 川野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2009026162A priority Critical patent/JP5304292B2/en
Publication of JP2010182171A publication Critical patent/JP2010182171A/en
Application granted granted Critical
Publication of JP5304292B2 publication Critical patent/JP5304292B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車両用接近物検出装置に関する。   The present invention relates to a vehicle approaching object detection device.

従来、車両の後方向きに設置されたカメラで撮像した画像から、走行中における車両へ
の接近物を検出する車両用接近物検出装置が提案されている。このような装置には、時空
間微分の原理に基づく勾配法を利用したもの(特許文献1、2参照)、及び、ブロックマ
ッチング法を利用したもの(特許文献3参照)がある。
2. Description of the Related Art Conventionally, an approaching object detection device for a vehicle that detects an approaching object to a vehicle during traveling from an image captured by a camera installed in the rearward direction of the vehicle has been proposed. Such devices include those using a gradient method based on the principle of spatiotemporal differentiation (see Patent Documents 1 and 2) and those using a block matching method (see Patent Document 3).

特許3011566号公報Japanese Patent No. 3011566 特許3735468号公報Japanese Patent No. 3735468 特許3776094号公報Japanese Patent No. 3776094

しかし、従来の車両用接近物検出装置において、車両後方を撮像するカメラを広角カメ
ラとした場合には、以下の問題が生じる。例えば、広角カメラにより追越車両を撮像した
場合、1フレーム間に追越車両が数十画素も移動することがある。この場合、ブロックマ
ッチング法を利用すると、接近物を検出するための探索領域を広げる必要があり、計算量
が大きく増加してしまう。また、勾配法を利用した場合、ブロックマッチング法よりも計
算量を抑えることができるが、接近物の検出精度が低くなってしまう。
However, in the conventional approaching object detection device for a vehicle, when the camera that captures the rear of the vehicle is a wide-angle camera, the following problems occur. For example, when an overtaking vehicle is imaged by a wide-angle camera, the overtaking vehicle may move by several tens of pixels during one frame. In this case, when the block matching method is used, it is necessary to widen a search area for detecting an approaching object, which greatly increases the amount of calculation. Further, when the gradient method is used, the amount of calculation can be suppressed as compared with the block matching method, but the detection accuracy of the approaching object is lowered.

本発明はこのような従来の課題を解決するためになされたものであり、その目的とする
ところは、広角カメラを用いた場合であっても、計算量の増大を抑制しつつ接近物の検出
精度の低下を抑えることが可能な車両用接近物検出装置を提供することにある。
The present invention has been made to solve such a conventional problem, and the object of the present invention is to detect an approaching object while suppressing an increase in calculation amount even when a wide-angle camera is used. An object of the present invention is to provide a vehicle approaching object detection device capable of suppressing a decrease in accuracy.

本発明の車両用接近物検出装置は、車両に設けられて車両の後方側を撮像するカメラからの画像に基づいて、車両後方からの接近物を検出する車両用接近物検出装置であって、前記カメラにより撮像された画像のデータを入力する入力手段と、前記入力手段に入力された画像の水平方向の各画素について、隣接する所定画素分の画素値の平均値をその画素の画素値として求める平均化処理を実行する前処理手段と、前記カメラにより撮像された時間が異なる複数の画像のデータであって、前記前処理手段によって求められた水平方向に隣接する所定画素分の画素値の平均値について、空間的変化率と時間的変化率を求める微分手段と、前記微分手段により求められた変化率から車両への接近物を検出する接近物検出手段と、を備え、前記前処理手段は画像の消失点から画素が離れるに従って所定画素の個数を大きくすることを特徴とする。 An approaching object detection device for a vehicle according to the present invention is an approaching object detection device for a vehicle that detects an approaching object from the rear of the vehicle based on an image from a camera that is provided in the vehicle and images the rear side of the vehicle. An input unit that inputs data of an image captured by the camera, and an average value of adjacent pixel values for each pixel in the horizontal direction of the image input to the input unit is used as the pixel value of the pixel. Pre-processing means for executing the averaging processing to be obtained , and data of a plurality of images taken by the camera at different times, the pixel values of predetermined pixels adjacent in the horizontal direction obtained by the pre-processing means the average value, comprising: a differentiating means for determining the spatial rate of change and the temporal change rate, and a approaching object detection means for detecting an approaching object from the obtained rate of change to the vehicle by the differentiating means, the pretreatment Means is characterized by increasing the number of predetermined pixels according to the pixel away from the vanishing point of the image.

本発明によれば、入力手段に入力された画像の水平方向の各画素について、隣接する所
定画素分の画素値の平均値をその画素の画素値として求める平均化処理を実行し、空間的
変化率と時間的変化率を求めて、車両への接近物を検出する。このように、ブロックマッ
チング法を採用せず、勾配法により接近物を検出するため、計算量の増大を抑制すること
ができる。加えて、平均化処理を実行しているため、画像間における急激な変化という変
化率を求める際に制度の低下に繋がる要素を除去することとなり、接近物の検出制度の低
下についても抑えることができる。従って、広角カメラを用いた場合であっても、計算量
の増大を抑制しつつ接近物の検出精度の低下を抑えることができる。
According to the present invention, for each pixel in the horizontal direction of the image input to the input means, an averaging process is performed to obtain an average value of pixel values of adjacent predetermined pixels as the pixel value of the pixel, and the spatial change The approaching object to the vehicle is detected by obtaining the rate and the rate of change over time. Thus, since an approaching object is detected by the gradient method without using the block matching method, an increase in the amount of calculation can be suppressed. In addition, since the averaging process is performed, elements that lead to a decrease in the system when removing the rate of change, that is, a sudden change between images, are removed, and a decrease in the detection system for approaching objects can be suppressed. it can. Therefore, even when a wide-angle camera is used, it is possible to suppress a decrease in the accuracy of detecting an approaching object while suppressing an increase in calculation amount.

本実施形態の車両用接近物検出装置を含む接近物検出システムを示すブロック図である。It is a block diagram which shows the approaching object detection system containing the approaching object detection apparatus for vehicles of this embodiment. 従来の勾配法による一次元フローF(t,x)の算出の様子を示すグラフであり、(a)は時刻tにおけるコラムxの画素値を示し、(b)は時刻t+1におけるコラムxの画素値を示し、(c)は図2(a)及び図2(b)に示したデータから求められる空間的変化率I(t,x)を示し、(d)は図2(a)及び図2(b)に示したデータから求められる時間的変化率I(t,x)を示し、(e)は、図2(c)及び図2(d)から求められる一次元フローF(t,x)を示している。It is a graph which shows the mode of calculation of the one-dimensional flow F (t, x) by the conventional gradient method, (a) shows the pixel value of the column x at the time t, (b) is the pixel of the column x at the time t + 1. (C) shows the spatial change rate I x (t, x) obtained from the data shown in FIGS. 2 (a) and 2 (b), and (d) shows the values shown in FIGS. FIG. 2B shows a temporal change rate I t (t, x) obtained from the data shown in FIG. 2B, and FIG. 2E shows a one-dimensional flow F () obtained from FIG. 2C and FIG. t, x). 図3は、カメラによる撮像画像の例を示し、(a)は、時刻tにおいて撮像された画像例を示し、(b)は、時刻t+1において撮像された画像例を示している。FIG. 3 shows an example of an image taken by the camera, (a) shows an example of an image taken at time t, and (b) shows an example of an image taken at time t + 1. 本実施形態に係る車両用接近物検出装置の動作を説明するためのグラフであり、(a)は時刻tにおけるコラムxの画素値について平均化処理したデータを示し、(b)は時刻t+1におけるコラムxの画素値について平均化処理したデータを示し、(c)は図4(a)及び図4(b)に示したデータから求められる空間的変化率Ia(t,x)を示し、(d)は図4(a)及び図4(b)に示したデータから求められる時間的変化率Ia(t,x)を示し、(e)は、図4(c)及び図4(d)から求められる一次元フローFa(t,x)を示している。It is a graph for demonstrating operation | movement of the approaching object detection apparatus for vehicles which concerns on this embodiment, (a) shows the data which averaged about the pixel value of the column x in the time t, (b) shows in the time t + 1. (C) shows the spatial rate of change Ia x (t, x) obtained from the data shown in FIG. 4 (a) and FIG. 4 (b). (d) are shown to FIGS. 4 (a) and 4 (b) to show temporal change rate Ia t obtained from the data (t, x), (e) is, FIG. 4 (c) and 4 ( A one-dimensional flow Fa (t, x) obtained from d) is shown. 一次元フローFa(t,x)の結果を画像的に示した図である。It is the figure which showed the result of the one-dimensional flow Fa (t, x) graphically. 従来の勾配法による一次元フローF(t,x)の算出の様子を示すグラフであって、ガウジアンフィルタを用いた場合を示し、(a)は時刻tにおけるコラムxの画素値についてガウジアンフィルタを用いたときのデータを示し、(b)は時刻t+1におけるコラムxの画素値についてガウジアンフィルタを用いたときのデータを示し、(c)は図6(a)及び図6(b)に示したデータから求められる空間的変化率Ig(t,x)を示し、(d)は図6(a)及び図6(b)に示したデータから求められる時間的変化率Ig(t,x)を示し、(e)は、図6(c)及び図6(d)から求められる一次元フローFg(t,x)を示している。It is a graph which shows the mode of calculation of the one-dimensional flow F (t, x) by the conventional gradient method, Comprising: The case where a Gaussian filter is used is shown, (a) is a Gaussian about the pixel value of the column x in the time t. FIG. 6B shows data when a filter is used, FIG. 6B shows data when a Gaussian filter is used for the pixel value of column x at time t + 1, and FIG. 6C shows FIGS. 6A and 6B. The spatial change rate Ig x (t, x) obtained from the data shown in FIG. 6 is shown, and (d) shows the temporal change rate Ig t (shown from the data shown in FIGS. 6A and 6B). t, x), and (e) shows the one-dimensional flow Fg (t, x) obtained from FIG. 6 (c) and FIG. 6 (d). 第2実施形態に係る車両用接近物検出装置を含む接近物検出システム2である。It is the approaching object detection system 2 containing the approaching object detection apparatus for vehicles which concerns on 2nd Embodiment. カメラの縦ブレ時における画像を示す図である。It is a figure which shows the image at the time of the vertical blurring of a camera.

以下、本発明の好適な実施形態を図面に基づいて説明する。図1は、本実施形態の車両
用接近物検出装置を含む接近物検出システムを示すブロック図である。図1に示すように
、接近物検出システム1は、カメラ10と車両用接近物検出装置20とから構成されてい
る。カメラ10は、車両の後部に設けられて自車両の後方側を撮像する広角カメラである
。ここで、本実施形態でいう広角カメラとは、対角線画角が約60度以上のものをいう。
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described with reference to the drawings. FIG. 1 is a block diagram showing an approaching object detection system including a vehicle approaching object detection device of the present embodiment. As shown in FIG. 1, the approaching object detection system 1 includes a camera 10 and a vehicle approaching object detection device 20. The camera 10 is a wide-angle camera that is provided at the rear of the vehicle and captures the rear side of the host vehicle. Here, the wide-angle camera in this embodiment refers to a camera having a diagonal angle of view of about 60 degrees or more.

車両用接近物検出装置20は、カメラ10により撮像された時間が異なる複数の画像に
基づいて、車両後方からの接近物(例えば他車両)を検出するものである。このような車
両用接近物検出装置20は、入力部(入力手段)21と、前処理部(前処理手段)22と
、微分演算部(微分手段)23と、接近物検出部(接近物検出手段)24と、出力部25
とを備えている。
The vehicle approaching object detection device 20 detects an approaching object (for example, another vehicle) from the rear of the vehicle based on a plurality of images captured by the camera 10 at different times. Such a vehicle approaching object detection device 20 includes an input unit (input unit) 21, a preprocessing unit (preprocessing unit) 22, a differential operation unit (differentiation unit) 23, and an approaching object detection unit (approaching object detection). Means) 24 and output unit 25
And.

入力部21は、カメラ10により撮像された画像のデータを入力するものである。前処
理部22は、入力部10に入力された画像の水平方向の各画素について、隣接する所定画
素分の画素値の平均値をその画素の画素値として求める平均化処理を実行するものである
。例えば、前処理部22は、或る画素の左右3つずつの画素を含めた7つの画素の平均値
を中央の画素の画素値とする。これにより、前処理部22は画素値の平均化を行う。なお
、前処理部22は、平均値について7つの画素から求める場合に限らず、6つ以下又は8
つ以上の画素から求めてもよいし、或る画素の左の所定個数のみの平均値や右の所定個数
のみの平均値を求めてもよい。また、画素値とは、本実施形態では輝度値を意味するが、
輝度値に限らず、色番号など画像又は画素に関する任意の数値を意味するものである。
The input unit 21 inputs data of an image captured by the camera 10. The preprocessing unit 22 performs an averaging process for obtaining an average value of pixel values of adjacent pixels as the pixel value of each pixel in the horizontal direction of the image input to the input unit 10. . For example, the preprocessing unit 22 sets an average value of seven pixels including three pixels on the left and right of a certain pixel as the pixel value of the center pixel. Thereby, the pre-processing unit 22 averages the pixel values. Note that the preprocessing unit 22 is not limited to the case where the average value is obtained from seven pixels, but six or less or eight.
You may obtain | require from two or more pixels, and you may obtain | require the average value of only the predetermined number of the left of a certain pixel, and the average value of only the predetermined number of right. The pixel value means a luminance value in the present embodiment,
It means not only the luminance value but also any numerical value relating to an image or pixel such as a color number.

微分演算部23は、カメラ10により撮像された時間が異なる複数の画像のデータであ
って、前処理部22により平均化された水平方向のデータについて、空間的変化率(空間
的微分値)と時間的変化率(時間的微分値)を求めるものである。具体的に説明すると、
画像上の或る行において、時刻tにおけるコラムxの輝度値がI(t,x)であるとした
場合、空間的変化率I(t,x)は、I(t,x)=(I(t,x+1)−I(t,
x)+I(t+1,x+1)−I(t+1,x))/2なる演算式で表すことができる。
また、時間的変化率I(t,x)は、I(t,x)は、I(t,x)=(I(t+
1,x)−I(t,x)+I(t+1,x+1)−I(t,x+1))/2なる演算式で
表すことができる。
The differential calculation unit 23 is data of a plurality of images captured by the camera 10 at different times, and the horizontal change rate (spatial differential value) of the horizontal data averaged by the preprocessing unit 22 is calculated. The time change rate (temporal differential value) is obtained. Specifically,
Assuming that the luminance value of the column x at time t is I (t, x) in a certain row on the image, the spatial change rate I x (t, x) is I x (t, x) = (I (t, x + 1) -I (t,
x) + I (t + 1, x + 1) -I (t + 1, x)) / 2.
Further, the temporal change rate I t (t, x) is equal to I t (t, x) is equal to I t (t, x) = (I (t +
1, x) -I (t, x) + I (t + 1, x + 1) -I (t, x + 1)) / 2.

接近物検出部24は、微分演算部23により求められた変化率から車両への接近物を検
出するものである。この接近物検出部24は、空間的変化率と時間的変化率とから水平方
向の一次元フローを求めることができる。具体的に接近物検出部24は、時刻tにおける
コラムxの一次元フローF(t,x)を、F(t,x)=−I(t,x)/I(t,
x)なる演算式から求めることができる。なお、上記演算式においてI(t,x)≠0
である。このように、接近物検出部24は、一次元フローF(t,x)を求めることがで
きるため、画像上において水平方向の他車両等の動きを検出することができ、これに基づ
いて自車両への接近物を検出することができる。
The approaching object detection unit 24 detects an approaching object to the vehicle from the rate of change obtained by the differential calculation unit 23. The approaching object detection unit 24 can obtain a one-dimensional flow in the horizontal direction from the spatial change rate and the temporal change rate. Specifically, the approaching object detection unit 24 calculates the one-dimensional flow F (t, x) of the column x at time t as F (t, x) = − I t (t, x) / I x (t,
x). In the above arithmetic expression, I x (t, x) ≠ 0
It is. In this way, the approaching object detection unit 24 can obtain the one-dimensional flow F (t, x), and therefore can detect the movement of other vehicles in the horizontal direction on the image, and based on this, An approaching object to the vehicle can be detected.

出力部25は、接近物を検出した場合に、自車両の車内に設けられたディスプレイやス
ピーカなどに対して、その情報を出力するものである。これにより、画像によって運転者
に接近物を知らせたり、音声によって接近物を知らせたりして、運転支援を行うことがで
きる。
When the approaching object is detected, the output unit 25 outputs the information to a display, a speaker, or the like provided in the vehicle. Accordingly, driving assistance can be performed by notifying the driver of an approaching object by an image or by notifying an approaching object by voice.

次に、本実施形態に係る車両用接近物検出装置20の動作を説明するに先だって、図2
を参照して、従来の勾配法による一次元フローF(t,x)の算出の様子を説明する。図
2は、従来の勾配法による一次元フローF(t,x)の算出の様子を示すグラフである。
図2(a)は時刻tにおけるコラムxの画素値を示し、図2(b)は時刻t+1における
コラムxの画素値を示している。また、図2(c)は図2(a)及び図2(b)に示した
データから求められる空間的変化率I(t,x)を示し、図2(d)は図2(a)及び
図2(b)に示したデータから求められる時間的変化率I(t,x)を示している。さ
らに、図2(e)は、図2(c)及び図2(d)から求められる一次元フローF(t,x
)を示している。
Next, prior to describing the operation of the vehicle approaching object detection device 20 according to the present embodiment, FIG.
Referring to FIG. 4, the calculation of the one-dimensional flow F (t, x) by the conventional gradient method will be described. FIG. 2 is a graph showing how the one-dimensional flow F (t, x) is calculated by the conventional gradient method.
FIG. 2A shows the pixel value of column x at time t, and FIG. 2B shows the pixel value of column x at time t + 1. 2C shows the spatial change rate I x (t, x) obtained from the data shown in FIGS. 2A and 2B, and FIG. 2D shows the spatial change rate I x (t, x). ) And the temporal change rate I t (t, x) obtained from the data shown in FIG. Further, FIG. 2 (e) shows a one-dimensional flow F (t, x) obtained from FIG. 2 (c) and FIG.
).

図2に示す例において、自車両の後方の車両が10画素程度接近したとする。この場合
、車両が存在する箇所について輝度値が高いとすると、図2(a)及び図2(b)に示す
ように、車両の存在部分において高い輝度値を示すこととなる(符号2a1,2a2,2
b1,2b2参照)。
In the example shown in FIG. 2, it is assumed that the vehicle behind the host vehicle approaches about 10 pixels. In this case, assuming that the luminance value is high at the location where the vehicle exists, as shown in FIGS. 2 (a) and 2 (b), a high luminance value is shown in the vehicle existing portion (reference numerals 2a1, 2a2). , 2
b1, b2).

図3(a)は、時刻tにおいて撮像された画像例を示す図であり、図3(b)は、時刻
t+1において撮像された画像例を示す図である。図3(a)及び図3(b)に示すよう
に、図2(a)及び図2(b)の符号2a1,2a2,2b1,2b2の部分は、図3の
車両100,101の位置に対応している。
FIG. 3A is a diagram illustrating an example of an image captured at time t, and FIG. 3B is a diagram illustrating an example of an image captured at time t + 1. As shown in FIGS. 3A and 3B, portions 2a1, 2a2, 2b1, and 2b2 in FIGS. 2A and 2B are located at the positions of the vehicles 100 and 101 in FIG. It corresponds.

そして、図2(a)及び図2(b)に示すようなデータから空間的変化率I(t,x
)と時間的変化率I(t,x)とを算出すると、図2(c)及び図2(d)に示すよう
になり、これらから一次元フローF(t,x)を算出すると、図2(e)のようになる。
Then, from the data as shown in FIG. 2A and FIG. 2B, the spatial change rate I x (t, x
) And the temporal change rate I t (t, x) are as shown in FIG. 2C and FIG. 2D, and when the one-dimensional flow F (t, x) is calculated from these, As shown in FIG.

図2(e)に示すように、一次元フローF(t,x)の値はほぼ「0」を示している。
このため、自車両の後方の車両100が10画素分接近したにも拘わらず、その接近が検
出されないこととなる。
As shown in FIG. 2E, the value of the one-dimensional flow F (t, x) is substantially “0”.
For this reason, even if the vehicle 100 behind the host vehicle approaches 10 pixels, the approach is not detected.

これに対して、本実施形態では平均化処理を行うこととしている。図4は、本実施形態
に係る車両用接近物検出装置20の動作を説明するためのグラフである。なお、図4(a
)は時刻tにおけるコラムxの画素値について平均化処理したデータを示し、図4(b)
は時刻t+1におけるコラムxの画素値について平均化処理したデータを示している。ま
た、図4(c)は図4(a)及び図4(b)に示したデータから求められる空間的変化率
Ia(t,x)を示し、図4(d)は図4(a)及び図4(b)に示したデータから求
められる時間的変化率Ia(t,x)を示している。さらに、図4(e)は、図4(c
)及び図4(d)から求められる一次元フローFa(t,x)を示している。
On the other hand, in this embodiment, the averaging process is performed. FIG. 4 is a graph for explaining the operation of the vehicle approaching object detection device 20 according to the present embodiment. Note that FIG.
) Shows the data obtained by averaging the pixel values of the column x at time t, and FIG.
Indicates the data obtained by averaging the pixel values of the column x at time t + 1. 4C shows the spatial change rate Ia x (t, x) obtained from the data shown in FIGS. 4A and 4B, and FIG. 4D shows the spatial change rate Ia x (t, x). ) and 4 (temporal change rate obtained from the data shown in b) Ia t (t, shows a x). In addition, FIG. 4 (e) is similar to FIG.
) And FIG. 4D show a one-dimensional flow Fa (t, x).

図4に示す例において、自車両の後方の車両100が10画素分接近したとする。この
場合、車両100,101が存在する箇所について輝度値が高いとすると、図4(a)及
び図4(b)に示すように、車両100,101の存在部分において高い輝度値を示すこ
ととなる(符号4a1,4a2,4b1,4b2参照)。但し、図4に示す例では、平均
化処理がされているため、図2(a)及び図2(b)に示すようにグラフが切り立ったパ
ルスのように表されておらず、やや緩やかなパルスのようになっている。
In the example shown in FIG. 4, it is assumed that the vehicle 100 behind the host vehicle approaches 10 pixels. In this case, assuming that the luminance value is high at a location where the vehicles 100 and 101 exist, as shown in FIGS. 4A and 4B, a high luminance value is shown in the existing portions of the vehicles 100 and 101. (See reference numerals 4a1, 4a2, 4b1, 4b2). However, in the example shown in FIG. 4, since the averaging process is performed, the graph is not represented as a sharp pulse as shown in FIG. 2A and FIG. It looks like a pulse.

そして、このようなデータから空間的変化率Ia(t,x)と時間的変化率Ia
t,x)とを算出すると、図4(c)及び図4(d)に示すようになり、これらから一次
元フローFa(t,x)を算出すると、図4(e)のようになる。
From such data, the spatial change rate Ia x (t, x) and the temporal change rate Ia t (
4 (c) and FIG. 4 (d) are calculated, and when the one-dimensional flow Fa (t, x) is calculated from these, the result is as shown in FIG. 4 (e). .

図4(e)に示すように、一次元フローFa(t,x)の値は「−10」を示している
(符号4e1,4e2参照)。このため、自車両の後方の車両100が10画素分接近し
たことを正確に検出できることとなる。図5は、一次元フローFa(t,x)の結果を画
像的に示した図である。図5に示すように、図3(a)において車両100が存在し、図
3(b)において車両100が存在しなくなった画像箇所51と、図3(a)において車
両100が存在せず、図3(b)において車両100が存在する画像箇所52とが明らか
となっている。
As shown in FIG. 4E, the value of the one-dimensional flow Fa (t, x) indicates “−10” (see reference numerals 4e1 and 4e2). For this reason, it is possible to accurately detect that the vehicle 100 behind the host vehicle approaches 10 pixels. FIG. 5 is a diagram illustrating the result of the one-dimensional flow Fa (t, x) in an image. As shown in FIG. 5, the vehicle 100 exists in FIG. 3A, the image location 51 where the vehicle 100 no longer exists in FIG. 3B, and the vehicle 100 does not exist in FIG. In FIG. 3B, the image location 52 where the vehicle 100 exists is clear.

ここで、比較対象としてガウジアンフィルタを用いた場合の例を示す。図6は、従来の
勾配法による一次元フローF(t,x)の算出の様子を示すグラフであって、ガウジアン
フィルタを用いた場合を示している。なお、図6(a)は時刻tにおけるコラムxの画素
値についてガウジアンフィルタを用いたときのデータを示し、図6(b)は時刻t+1に
おけるコラムxの画素値についてガウジアンフィルタを用いたときのデータを示している
。また、図6(c)は図6(a)及び図6(b)に示したデータから求められる空間的変
化率Ig(t,x)を示し、図6(d)は図6(a)及び図6(b)に示したデータか
ら求められる時間的変化率Ig(t,x)を示している。さらに、図6(e)は、図6
(c)及び図6(d)から求められる一次元フローFg(t,x)を示している。
Here, an example in which a Gaussian filter is used as a comparison target is shown. FIG. 6 is a graph showing a state of calculation of the one-dimensional flow F (t, x) by the conventional gradient method, and shows a case where a Gaussian filter is used. 6A shows data when a Gaussian filter is used for the pixel value of the column x at time t, and FIG. 6B shows the data when the Gaussian filter is used for the pixel value of the column x at time t + 1. Shows the data when. 6C shows the spatial change rate Ig x (t, x) obtained from the data shown in FIGS. 6A and 6B, and FIG. 6D shows the spatial change rate Ig x (t, x). ) And the temporal change rate Ig t (t, x) obtained from the data shown in FIG. 6B. Furthermore, FIG. 6 (e) is similar to FIG.
The one-dimensional flow Fg (t, x) calculated | required from (c) and FIG.6 (d) is shown.

図6に示す例において、自車両の後方の車両100が10画素分接近したとする。この
場合、車両100,101が存在する箇所について輝度値が高いとすると、図6(a)及
び図6(b)に示すように、車両100,101の存在部分において高い輝度値を示すこ
ととなる(符号6a1,6a2,6b1,6b2参照)。但し、図6に示す例では、ガウ
ジアンフィルタが用いられているため、図2(a)及び図2(b)に示すようにグラフが
切り立ったパルスのように表されておらず、正弦波的となっている。
In the example shown in FIG. 6, it is assumed that the vehicle 100 behind the host vehicle approaches 10 pixels. In this case, assuming that the luminance value is high at a location where the vehicles 100 and 101 exist, as shown in FIGS. 6A and 6B, a high luminance value is shown in the existing portions of the vehicles 100 and 101. (See symbols 6a1, 6a2, 6b1, 6b2). However, in the example shown in FIG. 6, since a Gaussian filter is used, the graph is not represented as a sharp pulse as shown in FIGS. 2 (a) and 2 (b). It is the target.

そして、このようなデータから空間的変化率Ia(t,x)と時間的変化率Ia
t,x)とを算出すると、図6(c)及び図6(d)に示すようになり、これらから一次
元フローFa(t,x)を算出すると、図6(e)のようになる。
From such data, the spatial change rate Ia x (t, x) and the temporal change rate Ia t (
6 (c) and FIG. 6 (d) are calculated, and when the one-dimensional flow Fa (t, x) is calculated from these, the result is as shown in FIG. 6 (e). .

図6(e)に示すように、一次元フローFg(t,x)の値は「−10」以上を示して
いる(符号6e1,6e2参照)。このため、自車両の後方の車両100が10画素分接
近したにも拘わらず、それ以上接近したと検出してしまう。特に、このような検出をして
しまうと、接近していない物であっても、接近していると誤検出する虞もある。従って、
本実施形態のように、平均化処理を行う方がガウジアンフィルタを用いるよりも正確な検
出を行うことができる。
As shown in FIG. 6E, the value of the one-dimensional flow Fg (t, x) indicates “−10” or more (see reference numerals 6e1 and 6e2). For this reason, even though the vehicle 100 behind the host vehicle approaches 10 pixels, it is detected that the vehicle 100 approaches further. In particular, if such a detection is performed, there is a possibility that even an object that is not approaching may be erroneously detected as approaching. Therefore,
As in this embodiment, the averaging process can be performed more accurately than using the Gaussian filter.

このようにして、本実施形態に係る車両用接近物検出装置20によれば、入力部21に
入力された画像の水平方向の各画素について、隣接する所定画素分の画素値の平均値をそ
の画素の画素値として求める平均化処理を実行し、空間的変化率と時間的変化率を求めて
、車両への接近物を検出する。このように、ブロックマッチング法を採用せず、勾配法に
より接近物を検出するため、計算量の増大を抑制することができる。加えて、平均化処理
を実行しているため、画像間における急激な変化という変化率を求める際に制度の低下に
繋がる要素を除去することとなり、接近物の検出制度の低下についても抑えることができ
る。従って、広角カメラを用いた場合であっても、計算量の増大を抑制しつつ接近物の検
出精度の低下を抑えることができる。
Thus, according to the approaching object detection device 20 for a vehicle according to the present embodiment, for each pixel in the horizontal direction of the image input to the input unit 21, the average value of the pixel values for the adjacent predetermined pixels is calculated. An averaging process that is obtained as a pixel value of a pixel is executed, a spatial change rate and a temporal change rate are obtained, and an approaching object to the vehicle is detected. Thus, since an approaching object is detected by the gradient method without using the block matching method, an increase in the amount of calculation can be suppressed. In addition, since the averaging process is performed, elements that lead to a decrease in the system when removing the rate of change, that is, a sudden change between images, are removed, and a decrease in the detection system for approaching objects can be suppressed. it can. Therefore, even when a wide-angle camera is used, it is possible to suppress a decrease in the accuracy of detecting an approaching object while suppressing an increase in calculation amount.

次に本発明の第2実施形態を説明する。第2実施形態に係る車両用接近物検出装置20
は第1実施形態のものと同様であるが、構成等が一部異なっている。以下第1実施形態と
の相違点のみを説明する。
Next, a second embodiment of the present invention will be described. Vehicle approaching object detection device 20 according to the second embodiment
Is the same as that of the first embodiment, but the configuration is partially different. Only differences from the first embodiment will be described below.

図7は、第2実施形態に係る車両用接近物検出装置20を含む接近物検出システム2で
ある。図7に示すように、第2実施形態に係る車両用接近物検出装置20は、新たに、第
2微分演算部(第2微分手段)26を備えている。また、前処理部22及び接近物検出部
24の処理内容も第1実施形態のものと異なっている。
FIG. 7 shows an approaching object detection system 2 including the vehicle approaching object detection device 20 according to the second embodiment. As shown in FIG. 7, the approaching object detection device 20 for a vehicle according to the second embodiment newly includes a second differentiation operation unit (second differentiation means) 26. The processing contents of the preprocessing unit 22 and the approaching object detection unit 24 are also different from those of the first embodiment.

第2実施形態において前処理部22は、入力部21に入力された画像の垂直方向の各画
素について、隣接する所定画素分の画素値の平均値をその画素の画素値として求める平均
化処理を実行する。また、第2微分演算部26は、カメラ10により撮像された時間が異
なる複数の画像のデータであって、前処理部22により平均化された垂直方向のデータに
ついて、空間的変化率と時間的変化率を求める。接近物検出部24は、第2微分演算部2
6により求められた変化率から、カメラ10の縦方向のブレを検出する。
In the second embodiment, the preprocessing unit 22 performs an averaging process for obtaining an average value of pixel values for adjacent pixels as the pixel value of each pixel in the vertical direction of the image input to the input unit 21. Run. In addition, the second differential calculation unit 26 is a plurality of image data captured by the camera 10 at different times, and the vertical direction data averaged by the pre-processing unit 22 is subjected to a spatial change rate and a temporal change. Find the rate of change. The approaching object detection unit 24 includes a second differential calculation unit 2.
6 is detected based on the rate of change obtained in step 6.

図8は、カメラ10の縦ブレ時における画像を示す図である。図8(a)に示すように
、道路上に他車両等の物体が何ら存在しないと仮定する。このような場合において、カメ
ラ10が下方向にブレたとする。これにより、図8(b)に示すような画像が取得される
。すなわち、カメラ10が下方向にブレたことによって、画像上において地平線103の
位置がyだけ上昇することとなる。そして、第1実施形態に係る車両用接近物検出装置2
0では、道路上に物体が存在していないにも拘わらず、何らかの物体が離れたと誤判断し
てしまう可能性がある。
FIG. 8 is a diagram illustrating an image when the camera 10 is vertically blurred. As shown in FIG. 8A, it is assumed that there is no object such as another vehicle on the road. In such a case, it is assumed that the camera 10 is shaken downward. Thereby, an image as shown in FIG. 8B is acquired. That is, when the camera 10 is shaken downward, the position of the horizon 103 is raised by y on the image. And the approaching object detection apparatus 2 for vehicles which concerns on 1st Embodiment
In the case of 0, there is a possibility that it is erroneously determined that some object has left even though there is no object on the road.

ところが、第2実施形態に係る車両用接近物検出装置20は、カメラ10の縦ブレを判
断できるため、検出したブレを加味して車両への接近物を検出することができる。すなわ
ち、カメラ10が上にズレた場合、接近物検出部24は、微分演算部23が出力した離れ
ていく動きについて打ち消すように処理し、カメラ10が下にズレた場合、微分演算部2
3が出力した近づく動きについて打ち消すように処理する。これにより、一層精度を高め
ることができる。
However, since the approaching object detection device 20 for a vehicle according to the second embodiment can determine the vertical blur of the camera 10, it can detect an approaching object to the vehicle in consideration of the detected blur. That is, when the camera 10 is shifted upward, the approaching object detection unit 24 performs processing so as to cancel out the moving away movement output from the differential calculation unit 23. When the camera 10 is shifted downward, the differential calculation unit 2
3 is processed to cancel the approaching movement output. Thereby, accuracy can be further improved.

このようにして、第2実施形態に係る車両用接近物検出装置20によれば、第1実施形
態と同様に、広角カメラを用いた場合であっても、計算量の増大を抑制しつつ接近物の検
出精度の低下を抑えることができる。
Thus, according to the approaching object detection device 20 for a vehicle according to the second embodiment, as in the first embodiment, even when a wide-angle camera is used, the approach is performed while suppressing an increase in the amount of calculation. A decrease in detection accuracy of an object can be suppressed.

さらに、垂直方向のデータについて、空間的変化率と時間的変化率を求める第2微分演
算部26を備え、第2微分演算部26により求められた変化率から、カメラ10の縦方向
のブレを検出し、検出したブレを加味して車両への接近物を検出する。このため、カメラ
10が上側にブレて画像が全体的に下側に移動した場合に、白線等を接近物であると誤検
出してしまう可能性を減じることができる。
Further, a second differential operation unit 26 for obtaining a spatial change rate and a temporal change rate for the data in the vertical direction is provided. Based on the change rate obtained by the second differential operation unit 26, the vertical blur of the camera 10 is corrected. Detecting an object approaching the vehicle in consideration of the detected blur. For this reason, when the camera 10 is shaken upward and the image is moved downward as a whole, the possibility of erroneously detecting a white line or the like as an approaching object can be reduced.

以上、実施形態に基づき本発明を説明したが、本発明は上記実施形態に限られるもので
はなく、本発明の趣旨を逸脱しない範囲で、変更を加えてもよい。
As described above, the present invention has been described based on the embodiment, but the present invention is not limited to the above embodiment, and may be modified without departing from the gist of the present invention.

例えば、前処理部22は、車両の速度が高くなるにつれて所定画素の値を大きくするよ
うにしてもよい。これにより、車両の速度が高くなり、画像間における急激な変化が発生
し易くなる状況において、より急激な変化を抑えるような平均化を実行することとなり、
接近物の検出精度の低下を一層抑えることができるからである。
For example, the preprocessing unit 22 may increase the value of the predetermined pixel as the vehicle speed increases. As a result, in a situation where the speed of the vehicle increases and a sudden change between images is likely to occur, averaging is performed so as to suppress a more rapid change.
It is because the fall of the detection accuracy of an approaching object can be suppressed further.

また、前処理部22は、画像の消失点から画素が離れるに従って所定画素の値を大きく
するようにしてもよい。消失点から離れ、画像間における急激な変化が発生し易くなる箇
所について、より急激な変化を抑えるような平均化を実行することとなり、接近物の検出
精度の低下を一層抑えることができるからである。なお、消失点は、画像内のオプティカ
ルフローを求めて、そのオプティカルフローに基づいて求めてもよいし、他の方法によっ
て求めてもよい。
The preprocessing unit 22 may increase the value of the predetermined pixel as the pixel moves away from the vanishing point of the image. Because it is possible to perform averaging that suppresses more rapid changes at locations that are more prone to sudden changes between images, away from the vanishing point, and it is possible to further suppress the decrease in detection accuracy of approaching objects. is there. The vanishing point may be obtained based on the optical flow obtained by obtaining the optical flow in the image, or may be obtained by another method.

1,2…接近物検出システム
10…カメラ
20…車両用接近物検出装置
21…入力部(入力手段)
22…前処理部(前処理手段)
23…微分演算部(微分手段)
24…接近物検出部(接近物検出手段)
25…出力部
26…第2微分演算部(第2微分手段)
DESCRIPTION OF SYMBOLS 1, 2 ... Approaching object detection system 10 ... Camera 20 ... Vehicle approaching object detection apparatus 21 ... Input part (input means)
22: Pre-processing unit (pre-processing means)
23 ... Differential operation section (differentiation means)
24 ... Approaching object detection unit (approaching object detection means)
25... Output unit 26... Second differential operation unit (second differential means)

Claims (3)

車両に設けられて車両の後方側を撮像するカメラからの画像に基づいて、車両後方からの接近物を検出する車両用接近物検出装置であって、
前記カメラにより撮像された画像のデータを入力する入力手段と、
前記入力手段に入力された画像の水平方向の各画素について、隣接する所定画素分の画素値の平均値をその画素の画素値として求める平均化処理を実行する前処理手段と、
前記カメラにより撮像された時間が異なる複数の画像のデータであって、前記前処理手段によって求められた水平方向に隣接する所定画素分の画素値の平均値について、空間的変化率と時間的変化率を求める微分手段と、
前記微分手段により求められた変化率から車両への接近物を検出する接近物検出手段と、を備え
前記前処理手段は画像の消失点から画素が離れるに従って所定画素の個数を大きくすることを特徴とする車両用接近物検出装置。
A vehicle approaching object detection device that detects an approaching object from the rear of the vehicle based on an image from a camera that is provided in the vehicle and captures the rear side of the vehicle,
Input means for inputting data of an image captured by the camera;
Pre-processing means for executing an averaging process for obtaining an average value of pixel values of adjacent pixels as the pixel value of each pixel in the horizontal direction of the image input to the input means;
Spatial change rate and temporal change of data of a plurality of images captured by the camera at different times, and an average value of pixel values of predetermined pixels adjacent in the horizontal direction obtained by the preprocessing unit A differentiating means for determining the rate;
An approaching object detecting means for detecting an approaching object to the vehicle from the rate of change obtained by the differentiating means ,
The vehicle approaching object detection device, wherein the preprocessing means increases the number of predetermined pixels as the pixels move away from the vanishing point of the image .
前記前処理手段は、前記入力手段に入力された画像の垂直方向の各画素について、隣接する所定画素分の画素値の平均値をその画素の画素値として求める平均化処理を実行し、
前記カメラにより撮像された時間が異なる複数の画像のデータであって、前記前処理手段によって求められた垂直方向に隣接する所定画素分の画素値の平均値について、空間的変化率と時間的変化率を求める第2微分手段をさらに備え、
前記接近物検出手段は、前記第2微分手段により求められた変化率から、前記カメラの縦方向のブレを検出し、検出したブレを加味して車両への接近物を検出する
ことを特徴とする請求項1に記載の車両用接近物検出装置。
The preprocessing means performs an averaging process for obtaining an average value of pixel values of adjacent pixels as a pixel value of each pixel in the vertical direction of the image input to the input means,
Spatial change rate and temporal change with respect to an average value of pixel values of predetermined pixels adjacent in the vertical direction obtained by the pre-processing means, which are data of a plurality of images taken by the camera at different times A second differentiating means for obtaining a rate;
The approaching object detecting means detects a camera shake in the vertical direction of the camera from the rate of change obtained by the second differentiating means, and detects an approaching object to the vehicle in consideration of the detected shake. The vehicle approaching object detection device according to claim 1.
前記前処理手段は、車両の速度が高くなるにつれて所定画素の個数を大きくする
ことを特徴とする請求項1又は請求項2のいずれかに記載の車両用接近物検出装置。
The approaching object detection device for a vehicle according to claim 1, wherein the preprocessing unit increases the number of predetermined pixels as the speed of the vehicle increases.
JP2009026162A 2009-02-06 2009-02-06 Vehicle approaching object detection device Expired - Fee Related JP5304292B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009026162A JP5304292B2 (en) 2009-02-06 2009-02-06 Vehicle approaching object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009026162A JP5304292B2 (en) 2009-02-06 2009-02-06 Vehicle approaching object detection device

Publications (2)

Publication Number Publication Date
JP2010182171A JP2010182171A (en) 2010-08-19
JP5304292B2 true JP5304292B2 (en) 2013-10-02

Family

ID=42763723

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009026162A Expired - Fee Related JP5304292B2 (en) 2009-02-06 2009-02-06 Vehicle approaching object detection device

Country Status (1)

Country Link
JP (1) JP5304292B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017179510A1 (en) * 2016-04-11 2017-10-19 コニカミノルタ株式会社 Image processing device, image processing method, image processing program, and gas detection system

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2994170B2 (en) * 1993-04-30 1999-12-27 三菱電機株式会社 Vehicle periphery monitoring device
JP3288566B2 (en) * 1994-11-10 2002-06-04 株式会社豊田中央研究所 Travel lane recognition device
JP3942289B2 (en) * 1998-11-09 2007-07-11 本田技研工業株式会社 Vehicle monitoring device
JP2002140696A (en) * 2000-11-06 2002-05-17 Toyota Central Res & Dev Lab Inc Image pickup and image conversion device
JP2003111075A (en) * 2001-09-27 2003-04-11 Masahiro Sugimoto Obstacle detecting method and apparatus
JP2003150941A (en) * 2001-11-19 2003-05-23 Daihatsu Motor Co Ltd Recognizing device and recognizing method for moving object
JP2008085839A (en) * 2006-09-28 2008-04-10 Fujifilm Corp Error notification method of imaging apparatus, and imaging apparatus

Also Published As

Publication number Publication date
JP2010182171A (en) 2010-08-19

Similar Documents

Publication Publication Date Title
JP4937030B2 (en) Image processing apparatus for vehicle
US8184859B2 (en) Road marking recognition apparatus and method
JP7206583B2 (en) Information processing device, imaging device, device control system, moving object, information processing method and program
JP6316976B2 (en) In-vehicle image recognition device
JP2008165765A (en) Method and apparatus for acquiring vehicle side image, vehicle lamp recognition error detection method and prediction method for safe driving
JP6188592B2 (en) Object detection apparatus, object detection method, and object detection program
JP2009048629A (en) Detecting method
WO2014002692A1 (en) Stereo camera
JP6592991B2 (en) Object detection apparatus, object detection method, and program
WO2013191078A1 (en) Object detection device for area around vehicle
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
WO2019156072A1 (en) Attitude estimating device
JP2020060550A (en) Abnormality detector, method for detecting abnormality, posture estimating device, and mobile control system
JP4798576B2 (en) Attachment detection device
CN112784671A (en) Obstacle detection device and obstacle detection method
JP5304292B2 (en) Vehicle approaching object detection device
JP2016021712A (en) Image processing system and operation support system
JP2020201876A (en) Information processing device and operation support system
JP5493705B2 (en) Vehicle position detection device, vehicle position detection method, and vehicle position detection program
JP2008042759A (en) Image processing apparatus
JP5245471B2 (en) Imaging apparatus, and image processing apparatus and method
JP2005301892A (en) Lane recognition device by a plurality of cameras
JP2005267331A (en) Vehicle circumference monitoring device
JP7134780B2 (en) stereo camera device
JP2015011665A (en) Apparatus and method for detecting marking on road surface

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130226

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130417

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130610

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees