JP2003296878A - Vehicle detection method - Google Patents

Vehicle detection method

Info

Publication number
JP2003296878A
JP2003296878A JP2002095279A JP2002095279A JP2003296878A JP 2003296878 A JP2003296878 A JP 2003296878A JP 2002095279 A JP2002095279 A JP 2002095279A JP 2002095279 A JP2002095279 A JP 2002095279A JP 2003296878 A JP2003296878 A JP 2003296878A
Authority
JP
Japan
Prior art keywords
vehicle
image
road
peak
vehicle detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002095279A
Other languages
Japanese (ja)
Other versions
JP3632088B2 (en
Inventor
Tatsuro Hirayama
達郎 平山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute for Land and Infrastructure Management
Original Assignee
National Institute for Land and Infrastructure Management
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute for Land and Infrastructure Management filed Critical National Institute for Land and Infrastructure Management
Priority to JP2002095279A priority Critical patent/JP3632088B2/en
Publication of JP2003296878A publication Critical patent/JP2003296878A/en
Application granted granted Critical
Publication of JP3632088B2 publication Critical patent/JP3632088B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a vehicle detection method capable of improving the detection accuracy of a vehicle position. <P>SOLUTION: An image processing part 23 determines whether or not the surface reflection of a road 2 is present from the pixels of an image obtained by photographing a vehicle 3 traveling on the road 2. When it is determined that the surface reflection of the road 2 is present, a vehicle detection part 24 adds luminance in a horizontal direction for the respective pixels of a processed image in which the image is edge-processed and detects the position of the vehicle on the basis of the added result. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、道路を走行する車
両を撮影して車両の位置を検出する車両検出方法に関す
るものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle detection method for photographing a vehicle traveling on a road and detecting the position of the vehicle.

【0002】[0002]

【従来の技術】従来、車両検出方法としては、例えば、
CCDカメラ等の撮影手段で撮影して得られた画像と車
両が通行していない状態での画像とを比較して車両の位
置を検出する背景差分方式が知られている。この方式に
より、撮影手段で得られた画像から車両の位置を検出す
ることができる。
2. Description of the Related Art Conventionally, as a vehicle detection method, for example,
A background subtraction method is known in which an image obtained by photographing with a photographing means such as a CCD camera is compared with an image obtained when the vehicle is not passing to detect the position of the vehicle. With this method, the position of the vehicle can be detected from the image obtained by the photographing means.

【0003】[0003]

【発明が解決しようとする課題】しかし、従来の車両検
出方法では、雨天時に路面で反射して発生する車両の反
射像を車両であると検出してしまい車両の位置を正確に
検出できないおそれがある。
However, in the conventional vehicle detection method, there is a possibility that the reflected image of the vehicle, which is reflected on the road surface in rainy weather, is detected as the vehicle, and the position of the vehicle cannot be accurately detected. is there.

【0004】本発明は、上記問題点を解消する為になさ
れたものであり、車両位置の検出精度の向上が図れる車
両検出方法を提供することを目的とする。
The present invention has been made to solve the above problems, and an object of the present invention is to provide a vehicle detection method capable of improving the detection accuracy of the vehicle position.

【0005】[0005]

【課題を解決するための手段】このような目的を達成す
るために、本発明に係る車両検出方法は、道路を走行す
る車両を撮影した画像の画素における輝度に基づいて道
路の路面反射があるか否かを判断する路面判断工程と、
道路の路面反射があると判断されたときに、画像をエッ
ジ処理した処理画像の各画素について横方向の輝度を加
算する加算工程と、加算の結果に基づいて車両の位置を
検出する検出工程とを備えたことを特徴とする。
In order to achieve such an object, a vehicle detection method according to the present invention has a road surface reflection of a road based on the brightness in pixels of an image obtained by photographing a vehicle traveling on the road. A road surface determination step of determining whether or not
When it is determined that there is road surface reflection, an addition step of adding the luminance in the horizontal direction to each pixel of the processed image obtained by edge processing the image, and a detection step of detecting the position of the vehicle based on the result of the addition. It is characterized by having.

【0006】また、本発明に係る車両検出方法は、検出
工程は、加算工程で加算された横方向の輝度の各加算値
について第1のピーク及び第2のピークを検出した後、
第1のピークとなる位置と第2のピークとなる位置との
間において最小値となる位置を検出し、その最小値の位
置を車両の先頭部分として車両の位置を検出することを
特徴とする。
Further, in the vehicle detecting method according to the present invention, in the detecting step, after detecting the first peak and the second peak for each added value of the horizontal luminance added in the adding step,
The position of the minimum value is detected between the position of the first peak and the position of the second peak, and the position of the vehicle is detected with the position of the minimum value as the head portion of the vehicle. .

【0007】この発明によれば、道路の路面反射がある
と判断されたときに、画像をエッジ処理した処理画像の
各画素について横方向の輝度を加算する。その横方向の
輝度を加算して得られた値は、車両とその反射像とに対
応する位置において大きくなる(ピークを持つ)傾向が
ある。逆に、車両とその反射像との境界に対応する位置
において、この値は、ピークでの値に比べ比較的小さく
なる傾向がある。これら傾向を利用することで車両と反
射像との境界位置が正確に判断される。従って、撮影し
た画像において雨天時などであっても車両の位置を正確
に検出することができる。
According to the present invention, when it is determined that there is road surface reflection, the horizontal luminance is added to each pixel of the processed image obtained by edge processing the image. The value obtained by adding the luminance in the lateral direction tends to be large (has a peak) at the position corresponding to the vehicle and its reflection image. On the contrary, at the position corresponding to the boundary between the vehicle and its reflection image, this value tends to be relatively smaller than the value at the peak. By utilizing these tendencies, the boundary position between the vehicle and the reflected image can be accurately determined. Therefore, the position of the vehicle can be accurately detected in the photographed image even in rainy weather.

【0008】[0008]

【発明の実施の形態】以下、添付図面に基づき、本発明
の実施の形態について説明する。なお、各図において同
一要素には同一の符号を付し、重複する説明を省略す
る。また、図面の寸法比率は、説明のものと必ずしも一
致していない。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the accompanying drawings. In each figure, the same elements are designated by the same reference numerals, and overlapping description will be omitted. Further, the dimensional ratios in the drawings do not always match those described.

【0009】実施の形態に係る車両検出方法について説
明する。
A vehicle detection method according to the embodiment will be described.

【0010】図1に本実施の形態に係る車両検出方法の
実施に用いられる車両検出装置の構成図を示す。図1に
示すように、車両検出装置1は、道路2を走行する車両
3を撮影した画像に基づいて車両の位置を検出するもの
であって、例えば、検出された車両位置を示す情報を他
の車両4に報知する衝突防止支援などに用いられる。こ
の車両検出装置1は、CCD(Charge Coupled Devic
e)カメラ10、画像処理装置20を備えている。
FIG. 1 is a block diagram of a vehicle detection device used for carrying out the vehicle detection method according to the present embodiment. As shown in FIG. 1, the vehicle detection device 1 detects the position of the vehicle based on an image obtained by capturing an image of the vehicle 3 traveling on the road 2. For example, the vehicle detection device 1 may include information indicating the detected vehicle position. It is used for collision prevention support and the like for informing the vehicle 4. This vehicle detection device 1 is a CCD (Charge Coupled Devic
e) A camera 10 and an image processing device 20 are provided.

【0011】CCDカメラ10は、車両3を撮影するも
のであり、例えば道路2の斜め上方に固定され、道路2
を走行する車両3を前方又は後方の斜め上方から撮影す
る。CCDカメラ10は、動画として撮影可能な撮像カ
メラが用いられるが、静止画として撮影するものであっ
ても良い。
The CCD camera 10 is for photographing the vehicle 3, and is fixed, for example, diagonally above the road 2,
The vehicle 3 traveling in the direction is photographed from diagonally above the front or the rear. The CCD camera 10 is an imaging camera capable of shooting a moving image, but may be a still image.

【0012】車両検出装置1は、さらに、画像処理装置
20を備えている。画像処理装置20は、CCDカメラ
10と接続され、CCDカメラ10からの撮影映像を入
力し、その撮影映像における撮影画像を用いて車両の位
置を検出するものである。
The vehicle detection device 1 further includes an image processing device 20. The image processing device 20 is connected to the CCD camera 10, inputs a captured image from the CCD camera 10, and detects the position of the vehicle using the captured image in the captured image.

【0013】画像処理装置20は、A/D(analogue-t
o-digital)変換部21、画像メモリ22、画像処理部
23及び車両検出部24とを備えて構成されている。A
/D変換部21は、入力された画像信号等をアナログ信
号からデジタル信号にA/D変換するものであり、例え
ば、ビデオA−Dコンバータなどが用いられる。なお、
カメラ10がデジタル信号を出力するものである場合に
は、このA/D変換部21の設置を省略する場合もあ
る。
The image processing apparatus 20 has an A / D (analogue-t).
An o-digital) conversion unit 21, an image memory 22, an image processing unit 23, and a vehicle detection unit 24. A
The / D conversion unit 21 performs A / D conversion of an input image signal or the like from an analog signal to a digital signal, and for example, a video A / D converter or the like is used. In addition,
When the camera 10 outputs a digital signal, the installation of the A / D converter 21 may be omitted.

【0014】画像メモリ22は、デジタル変換された画
像信号を画像データとして記憶するものである。例え
ば、画像データは、x軸、y軸の座標点ごとに濃淡値を
持つ画素の集合であり、その画素の濃淡は例えば8ビッ
トの256階調とされる。
The image memory 22 stores the digitally converted image signal as image data. For example, the image data is a set of pixels having a gray value for each coordinate point on the x axis and the y axis, and the gray level of the pixel is, for example, 256 gradations of 8 bits.

【0015】画像処理部23は、画像メモリ22に記憶
された画像データを画像処理するものである。車両検出
部24は、画像処理部23によって処理された情報に基
づいて、車両の位置を検出するものである。
The image processing unit 23 performs image processing on the image data stored in the image memory 22. The vehicle detection unit 24 detects the position of the vehicle based on the information processed by the image processing unit 23.

【0016】次に、車両検出装置1の動作とともに車両
検出方法について詳説する。
Next, the operation of the vehicle detection device 1 and the vehicle detection method will be described in detail.

【0017】先ず、道路2を走行している車両3がCC
Dカメラ10に撮影される。このとき、図2に示すよう
に、道路2の路面が雨などによって濡れている場合、車
両3が路面に反射している。CCDカメラ10に撮影さ
れた撮影画像30には、車両3及び路面反射した反射像
3aの両方が写っている。そして、この反射像3aを含
む撮影画像30は、画像信号として画像処理装置20に
入力される。
First, the vehicle 3 running on the road 2 is CC
The image is taken by the D camera 10. At this time, as shown in FIG. 2, when the road surface of the road 2 is wet due to rain or the like, the vehicle 3 is reflected on the road surface. In the captured image 30 captured by the CCD camera 10, both the vehicle 3 and the reflection image 3a reflected on the road surface are shown. Then, the captured image 30 including the reflected image 3a is input to the image processing device 20 as an image signal.

【0018】画像処理装置20に入力された画像信号
は、A/D変換部21によりアナログ信号からデジタル
信号にA/D変換される。デジタル変換された画像信号
は、画像メモリ22により画像データ(各画素の輝度
値)として記憶される。
The image signal input to the image processing device 20 is A / D converted by the A / D converter 21 from an analog signal to a digital signal. The digitally converted image signal is stored in the image memory 22 as image data (luminance value of each pixel).

【0019】そして、図3に示すフローチャートに従
い、画像処理装置20により以下の処理が行われる。す
なわち、図3のS1において、画像メモリ22に記憶さ
れている画像データが画像処理部23により読み込まれ
る。このとき読み込まれるデータは、例えば、車両3が
撮影されてない晴天時のときの基本画像データと今回撮
影された画像データとの輝度データである。
Then, according to the flow chart shown in FIG. 3, the following processing is performed by the image processing apparatus 20. That is, in S1 of FIG. 3, the image data stored in the image memory 22 is read by the image processing unit 23. The data read at this time is, for example, brightness data of the basic image data at the time of fine weather when the vehicle 3 is not photographed and the image data photographed this time.

【0020】そして、S2に移行し、画像処理部23に
より路面判断処理が行われる。路面判断処理は、道路2
を走行する車両3を撮影した画像の画素における輝度に
基づいて道路2の路面反射があるか否かを判断する処理
である。ここでは、例えば、基本画像データ(晴天時の
データ)と今回撮影された画像データとの輝度の値を比
較して、輝度値の差分が所定値以上の場合に路面反射あ
りと判断される。
Then, the flow shifts to S2, and the road surface determination processing is performed by the image processing unit 23. Road surface judgment processing is performed on road 2
It is a process of determining whether or not there is road surface reflection of the road 2 based on the brightness in the pixels of the image of the vehicle 3 traveling in the direction. Here, for example, the luminance values of the basic image data (data in fine weather) and the image data captured this time are compared, and when the difference between the luminance values is equal to or more than a predetermined value, it is determined that there is road surface reflection.

【0021】また、S2において、路面反射なしと判断
されると、S7に移行して、背景差分処理及びエッジ処
理による車両検出が行われる。背景差分処理は、撮影画
像30から予め記憶された背景画像を差し引く処理であ
り、エッジ処理は、差し引きされた画像の各画素の輝度
値が大きく変化するエッジ部を抽出する処理である。こ
の抽出により車両が検出される。
If it is determined in S2 that there is no road surface reflection, the process proceeds to S7 and vehicle detection is performed by background subtraction processing and edge processing. The background subtraction process is a process of subtracting a background image stored in advance from the captured image 30, and the edge process is a process of extracting an edge portion in which the brightness value of each pixel of the subtracted image greatly changes. The vehicle is detected by this extraction.

【0022】一方、S2において、路面反射ありと判断
されると、S3に移行して、画像処理部23により切出
処理が行われる。切出処理は、車両3を含む撮影画像3
0の一部の領域30aを切出画像40として切り出す処
理である。図4に切出処理により切り出された切出画像
40を示す。切り出される部分は、例えば、背景差分方
式などにより決定される。なお、この切出画像40は、
道路2の横幅方向及び長さ方向が画像のx軸、y軸とな
るように座標変換されている。
On the other hand, if it is determined in S2 that there is road reflection, the process proceeds to S3, and the image processing unit 23 performs the clipping process. The cutout process is a captured image 3 including the vehicle 3.
This is a process of cutting out a partial area 30a of 0 as a cut-out image 40. FIG. 4 shows a cutout image 40 cut out by the cutout processing. The cutout portion is determined by, for example, the background difference method. The cutout image 40 is
The coordinates are converted so that the width direction and the length direction of the road 2 are the x axis and the y axis of the image.

【0023】そして、図3のS4に移行して、画像処理
部23によりエッジ処理が行われる。エッジ処理は、図
4における切出画像40の各画素の輝度値が大きく変化
するエッジ部を検出し抽出する処理である。このエッジ
処理により、切出画像40上にて車両3及びその反射像
3aの輪郭が明確になる。また、このエッジ処理によ
り、車両3及びその反射像3a内においても輝度が大き
く変化するエッジ部が明確になる。このエッジ処理され
た処理画像を図5に示す。
Then, the process shifts to S4 in FIG. 3, and the image processing unit 23 performs edge processing. The edge process is a process of detecting and extracting an edge portion in which the luminance value of each pixel of the cutout image 40 in FIG. 4 largely changes. By this edge processing, the contours of the vehicle 3 and its reflection image 3a are made clear on the cut-out image 40. In addition, this edge processing makes clear the edge portion where the brightness changes greatly in the vehicle 3 and its reflection image 3a. The processed image subjected to this edge processing is shown in FIG.

【0024】そして、図3のS5に移行して、車両検出
部24により加算処理が行われる。ここで、加算処理と
は、図6に示すように、画像をエッジ処理した処理画像
の各画素について横方向、すなわちx軸方向の輝度を加
算する処理である。
Then, the process shifts to S5 in FIG. 3, and the addition processing is performed by the vehicle detection unit 24. Here, the addition process is a process of adding the luminance in the horizontal direction, that is, the x-axis direction, to each pixel of the processed image obtained by edge-processing the image, as shown in FIG.

【0025】そして、図3のS6に移行して、車両検出
部24により検出処理が行われる。ここで、検出処理と
は、加算の結果に基づいて車両3の位置を検出する処理
である。ここでは、輝度が加算された各加算値の特徴を
解析して車両3の位置が検出される。そして、車両検出
処理が終了する。
Then, the process shifts to S6 in FIG. 3 and the vehicle detection unit 24 performs a detection process. Here, the detection process is a process of detecting the position of the vehicle 3 based on the result of the addition. Here, the position of the vehicle 3 is detected by analyzing the feature of each added value to which the brightness is added. Then, the vehicle detection process ends.

【0026】次に、図3の車両位置検出処理について図
6及び図7を参照して詳説する。
Next, the vehicle position detection processing of FIG. 3 will be described in detail with reference to FIGS. 6 and 7.

【0027】図7に図3の車両位置検出処理のフローチ
ャートを示す。
FIG. 7 shows a flowchart of the vehicle position detecting process of FIG.

【0028】車両の位置検出については、先ず、S61
において、加算処理で加算された横方向の輝度の各加算
値について第1のピークが検出されるとともに、その第
1のピークとなる位置Yが検出される(図6)。この
第1のピークは、加算処理で加算された横方向の輝度の
各加算値における最大値であるので、この最大値を検出
することで得ることができる。
Regarding the vehicle position detection, first, S61
In, the first peak is detected for each added value of the horizontal luminance added in the addition processing, and the position Y 1 that is the first peak is detected (FIG. 6). This first peak is the maximum value of the added values of the horizontal luminance added in the addition processing, and can be obtained by detecting this maximum value.

【0029】そして、図7のS62に移行して、加算処
理で加算された横方向の輝度の各加算値について第2の
ピークが検出されるとともに、その第2のピークとなる
位置Yが検出される(図6)。ここでいう第2のピー
クとなる位置は、第1のピークとなる位置から所定距離
隔てたY位置領域における加算値のピークであって、第
1のピークの値の次に大きな値をとる位置である。
Then, the flow shifts to S62 in FIG. 7, where the second peak is detected for each added value of the horizontal luminances added in the addition processing, and the position Y 2 which is the second peak is detected. Detected (FIG. 6). The position of the second peak here is the peak of the added value in the Y position area separated by a predetermined distance from the position of the first peak, and is the position having the next largest value after the value of the first peak. Is.

【0030】その後に、図7のS63に移行して、第1
のピークとなる位置Yと第2のピークとなる位置Y
との間において最小値となる位置Yが検出される(図
6)。
After that, the processing shifts to S63 in FIG.
Position Y 1 that is the peak of Y and position Y 2 that is the second peak
The position Y 3 that is the minimum value between and is detected (FIG. 6).

【0031】そして、図7のS64に移行して、その最
小値の位置Yを車両3の先頭部分として車両3の位置
が検出される。
Then, the flow shifts to S64 of FIG. 7, where the position of the vehicle 3 is detected with the position Y 3 having the minimum value as the head portion of the vehicle 3.

【0032】以上のように、本実施形態によれば、道路
2の路面反射があると判断されたときに、画像をエッジ
処理した処理画像の各画素について横方向の輝度を加算
する。その横方向の輝度を加算して得られた値は、車両
3とその反射像3aとに対応する位置において大きくな
る(第1及び第2のピークを持つ)傾向がある。逆に、
車両3とその反射像3aとの境界に対応する位置におい
て、この値は、ピークでの値に比べ比較的小さくなる傾
向がある。これら傾向を利用することで車両3と反射像
3aとの境界位置が正確に判断される。従って、撮影し
た画像において雨天時などであっても車両3の位置を正
確に検出することができる。
As described above, according to this embodiment, when it is determined that there is road reflection on the road 2, the horizontal luminance is added to each pixel of the processed image obtained by edge processing the image. The value obtained by adding the brightness in the lateral direction tends to be large (having the first and second peaks) at the position corresponding to the vehicle 3 and the reflection image 3a thereof. vice versa,
At the position corresponding to the boundary between the vehicle 3 and its reflection image 3a, this value tends to be relatively smaller than the value at the peak. By utilizing these tendencies, the boundary position between the vehicle 3 and the reflection image 3a can be accurately determined. Therefore, the position of the vehicle 3 can be accurately detected in the photographed image even in rainy weather.

【0033】[0033]

【発明の効果】以上詳細に説明したように本発明によれ
ば、撮影した画像において雨天時などであっても車両の
位置を正確に検出することができる。
As described in detail above, according to the present invention, the position of a vehicle can be accurately detected in a photographed image even in rainy weather.

【図面の簡単な説明】[Brief description of drawings]

【図1】本実施の形態に係る車両検出方法の実施に用い
られる車両検出装置の構成図である。
FIG. 1 is a configuration diagram of a vehicle detection device used for implementing a vehicle detection method according to the present embodiment.

【図2】CCDカメラに撮影された撮影画像を示す図で
ある。
FIG. 2 is a diagram showing a captured image captured by a CCD camera.

【図3】本実施の形態に係る車両検出方法における画像
処理及び車両検出処理を示すフローチャートである。
FIG. 3 is a flowchart showing image processing and vehicle detection processing in the vehicle detection method according to the present embodiment.

【図4】本実施の形態に係る車両検出方法において切出
処理され得られた切出画像を示す図である。
FIG. 4 is a diagram showing a cut-out image obtained by cut-out processing in the vehicle detection method according to the present embodiment.

【図5】本実施の形態に係る車両検出方法においてエッ
ジ処理され得られた切出画像を示す図である。
FIG. 5 is a diagram showing a clipped image obtained by edge processing in the vehicle detection method according to the present embodiment.

【図6】本実施の形態に係る車両検出方法において加算
処理された各加算値を示す図である。
FIG. 6 is a diagram showing each added value subjected to addition processing in the vehicle detection method according to the present embodiment.

【図7】図3における車両位置検出処理のフローチャー
トである。
FIG. 7 is a flowchart of vehicle position detection processing in FIG.

【符号の説明】[Explanation of symbols]

1…車両検出装置、2…道路、3…車両、10…CCD
カメラ、20…画像処理装置、23…画像処理部、24
…車両検出部。
1 ... Vehicle detection device, 2 ... Road, 3 ... Vehicle, 10 ... CCD
Camera, 20 ... Image processing device, 23 ... Image processing unit, 24
... Vehicle detection unit.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 道路を走行する車両を撮影した画像の画
素における輝度に基づいて前記道路の路面反射があるか
否かを判断する路面判断工程と、 前記道路の路面反射があると判断されたときに、前記画
像をエッジ処理した処理画像の各画素について横方向の
輝度を加算する加算工程と、 前記加算の結果に基づいて前記車両の位置を検出する検
出工程と、を備えた車両検出方法。
1. A road surface determination step of determining whether or not there is road surface reflection of the road based on the brightness of pixels of an image of a vehicle traveling on the road, and it is determined that there is road surface reflection of the road. At this time, a vehicle detection method comprising: an addition step of adding brightness in the horizontal direction to each pixel of a processed image obtained by edge-processing the image; and a detection step of detecting the position of the vehicle based on a result of the addition. .
【請求項2】 前記検出工程は、前記加算工程で加算さ
れた横方向の輝度の各加算値について第1のピーク及び
第2のピークを検出した後、前記第1のピークとなる位
置と前記第2のピークとなる位置との間において最小値
となる位置を検出し、その最小値の位置を前記車両の先
頭部分として前記車両の位置を検出する請求項1に記載
の車両検出方法。
2. The detecting step detects the first peak and the second peak for each added value of the horizontal luminances added in the adding step, and then determines the position that becomes the first peak and the position where the first peak is reached. The vehicle detection method according to claim 1, wherein a position having a minimum value between the position having the second peak and the position having the minimum value is detected, and the position of the vehicle is detected with the position having the minimum value as the head portion of the vehicle.
JP2002095279A 2002-03-29 2002-03-29 Vehicle detection method Expired - Lifetime JP3632088B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002095279A JP3632088B2 (en) 2002-03-29 2002-03-29 Vehicle detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002095279A JP3632088B2 (en) 2002-03-29 2002-03-29 Vehicle detection method

Publications (2)

Publication Number Publication Date
JP2003296878A true JP2003296878A (en) 2003-10-17
JP3632088B2 JP3632088B2 (en) 2005-03-23

Family

ID=29387182

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002095279A Expired - Lifetime JP3632088B2 (en) 2002-03-29 2002-03-29 Vehicle detection method

Country Status (1)

Country Link
JP (1) JP3632088B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009301495A (en) * 2008-06-17 2009-12-24 Sumitomo Electric Ind Ltd Image processor and image processing method
JP2011232999A (en) * 2010-04-28 2011-11-17 Fujitsu Ltd Object detection device, object detection method, and program
US9888875B2 (en) 2013-11-13 2018-02-13 Denso Corporation Driver monitoring apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009301495A (en) * 2008-06-17 2009-12-24 Sumitomo Electric Ind Ltd Image processor and image processing method
JP2011232999A (en) * 2010-04-28 2011-11-17 Fujitsu Ltd Object detection device, object detection method, and program
US9888875B2 (en) 2013-11-13 2018-02-13 Denso Corporation Driver monitoring apparatus

Also Published As

Publication number Publication date
JP3632088B2 (en) 2005-03-23

Similar Documents

Publication Publication Date Title
US7209832B2 (en) Lane recognition image processing apparatus
JP3083918B2 (en) Image processing device
JP4248558B2 (en) Road marking line detection device
JP4584120B2 (en) Road marking line detection device, road marking line detection method, road marking line detection program
JP4540705B2 (en) Image processing method, image processing system, imaging apparatus, image processing apparatus, and computer program
JP3800785B2 (en) White line recognition device
JPH09113221A (en) On-vehicle device and method for processing picture
JP3632088B2 (en) Vehicle detection method
CN110611772B (en) Image capturing device for vehicle and exposure parameter setting method thereof
US7421091B2 (en) Image-capturing apparatus
JP2007189432A (en) Imaging apparatus for vehicle
JP3638028B2 (en) Vehicle number recognition device
JP3390122B2 (en) Vehicle white line detection device
JP3331095B2 (en) In-vehicle image processing device
JP3198258B2 (en) Parked vehicle detection method and device
JP4995555B2 (en) Image processing device
JPH09288737A (en) Onboard picture processor
JP2876493B2 (en) Vehicle dynamics measurement method
JP3175509B2 (en) Road white line detector
JP2001101428A (en) Image processor
JP2001273499A (en) Method and device for detecting moving object
JPH1097625A (en) Parking vehicle detecting system
JP4347079B2 (en) Vehicle detection device and vehicle detection method
JP2006172064A (en) Object tracking device and method
JP2853361B2 (en) Vehicle dynamics measurement device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041124

R150 Certificate of patent or registration of utility model

Ref document number: 3632088

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

EXPY Cancellation because of completion of term