JP2003271968A - Device and method for detecting mobile-body - Google Patents

Device and method for detecting mobile-body

Info

Publication number
JP2003271968A
JP2003271968A JP2002072354A JP2002072354A JP2003271968A JP 2003271968 A JP2003271968 A JP 2003271968A JP 2002072354 A JP2002072354 A JP 2002072354A JP 2002072354 A JP2002072354 A JP 2002072354A JP 2003271968 A JP2003271968 A JP 2003271968A
Authority
JP
Japan
Prior art keywords
image
moving
moving body
vehicle
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002072354A
Other languages
Japanese (ja)
Inventor
Miyoshi Otomo
美佳 大友
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2002072354A priority Critical patent/JP2003271968A/en
Publication of JP2003271968A publication Critical patent/JP2003271968A/en
Pending legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To surely detect a mobile body while reducing a load for arithmetic processing when the mobile body is detected. <P>SOLUTION: This mobile body detector is provided with cameras 10a, 10b installed on a vehicle to image a prescribed range, a mobile body detecting means 20 for detecting other moving vehicle in a periphery of the vehicle, based on a differential processing result between the first image imaged by the cameras 10a, 10b, and the second image imaged after a prescribed lapse time counted from the imaging of the first image, and a time setting means 20 for shortening the prescribed time in accompaniment to getting close in a distance between the other moving vehicle and the own vehicle. The moving vehicle is surely detected thereby, in any time when the moving vehicle exists in a distant/near place. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、移動体に設けられ
たカメラにより撮像された画像に基づいて、移動体に接
近してくる車両等の他の移動体を検出する移動体検出装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving body detecting apparatus for detecting another moving body such as a vehicle approaching the moving body based on an image taken by a camera provided on the moving body.

【0002】[0002]

【従来の技術】車両に設けられたカメラによって自車両
の周囲を撮像し、撮像した画像に基づいて、自車両に接
近してくる車両等の移動体を検出する技術が知られてい
る。特開2001−167282号公報に開示されてい
る技術によれば、道路上に固定されたカメラによって周
囲を撮像し、撮像時間が異なる2枚の画像の差分を抽出
することにより、車両等の移動体を抽出している。ま
た、移動体がカメラの遠方を移動している場合には、差
分が表れにくいことから、少なくとも2種類の異なる時
間差にてそれぞれ差分処理を行うことにより、移動体が
遠方および近傍のいずれに存在する場合でも確実に移動
体を検出することができる構成としている。
2. Description of the Related Art There is known a technique in which a camera provided in a vehicle captures an image of the surroundings of the vehicle and detects a moving body such as a vehicle approaching the vehicle based on the captured image. According to the technique disclosed in Japanese Patent Laid-Open No. 2001-167288, movement of a vehicle or the like is performed by capturing an image of the surroundings with a camera fixed on a road and extracting a difference between two images having different image capturing times. The body is being extracted. Further, when the moving body is moving far away from the camera, it is difficult for the difference to appear. Therefore, by performing the difference processing with at least two different time differences, the moving body exists in either the distant or the vicinity. Even when it does, it is configured to be able to reliably detect the moving body.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来の
技術によれば、異なる時間間隔により撮像された複数の
画像を用いて、差分処理を少なくとも2回実行する必要
があるので、演算処理の負荷が増大するという問題があ
った。
However, according to the conventional technique, it is necessary to perform the difference processing at least twice using a plurality of images captured at different time intervals, which results in a load of the arithmetic processing. There was a problem of increase.

【0004】本発明の目的は、演算処理の負荷を低減し
つつ、確実に移動体を検出することができる移動体検出
装置および移動体検出方法を提供することにある。
An object of the present invention is to provide a moving body detecting apparatus and a moving body detecting method capable of surely detecting a moving body while reducing the load of arithmetic processing.

【0005】[0005]

【課題を解決するための手段】一実施の形態を示す図
1,図2を参照して本発明を説明する。 (1)請求項1の発明は、移動体1に設置されて所定範
囲を撮像する撮像手段10a,10bと、撮像手段10
a,10bによって撮像された第1の画像と、第1の画
像が撮像された時から所定時間経過後に撮像された第2
の画像との差分処理結果に基づいて、移動体1に対して
相対変位する他の移動体を検出する移動体検出手段20
と、他の移動体と移動体1との距離が近いほど、所定時
間を短くする時間設定手段20とを備えることにより、
上記目的を達成する。 (2)請求項2の発明は、請求項1の移動体検出装置に
おいて、時間設定手段20は、第1の画像および第2の
画像のうちのいずれか一方の画像内における他の移動体
の横方向の位置に基づいて、他の移動体と移動体1との
距離を定めることを特徴とする。 (3)請求項3の発明は、請求項1または2の移動体検
出装置において、第1の画像と第2の画像とに基づい
て、画像内における他の移動体の移動量を検出する移動
量検出手段20をさらに備え、時間設定手段20は、移
動量検出手段20により検出された移動量が一定になる
ように、所定時間を設定することを特徴とする。 (4)請求項4の発明は、移動体1に設置されて所定範
囲を撮像する撮像手段10a,10bによって撮像され
た第1の画像と、第1の画像が撮像された時から所定時
間経過後に撮像された第2の画像との差分処理結果に基
づいて、移動体1に対して相対変位する他の移動体を検
出する移動体検出方法において、他の移動体と移動体1
との距離が近いほど、所定時間を短くすることを特徴と
する。 (5)請求項5の発明は、請求項4の移動体検出方法に
おいて、他の移動体と移動体1との距離は、第1の画像
および第2の画像のうちのいずれか一方の画像内におけ
る他の移動体の横方向の位置に基づいて定めることを特
徴とする。 (6)請求項6の発明は、請求項4または5の移動体検
出方法において、第1の画像と第2の画像とに基づい
て、画像内における他の移動体の移動量を検出し、検出
された他の移動体の移動量が一定になるように、所定時
間を設定することを特徴とする。
The present invention will be described with reference to FIGS. 1 and 2 showing an embodiment. (1) According to the invention of claim 1, the image pickup means 10a and 10b installed in the moving body 1 for picking up an image of a predetermined range, and the image pickup means 10 are provided.
a, 10b, and a second image captured after a predetermined time has elapsed from the time when the first image was captured.
Moving body detecting means 20 for detecting another moving body that is relatively displaced with respect to the moving body 1 based on the difference processing result with the image of
And the time setting means 20 that shortens the predetermined time as the distance between the other moving body and the moving body 1 becomes shorter,
To achieve the above objectives. (2) The invention of claim 2 is the moving object detecting device according to claim 1, wherein the time setting means 20 is configured to detect other moving objects in one of the first image and the second image. It is characterized in that the distance between another moving body and the moving body 1 is determined based on the position in the lateral direction. (3) The invention of claim 3 is the moving body detecting device according to claim 1 or 2, wherein the moving amount is detected based on the first image and the second image. It further comprises an amount detecting means 20, and the time setting means 20 is characterized by setting a predetermined time so that the moving amount detected by the moving amount detecting means 20 becomes constant. (4) In the invention of claim 4, the first image captured by the image capturing means 10a, 10b installed in the moving body 1 and capturing a predetermined range, and a predetermined time from the time when the first image is captured. In a moving body detection method for detecting another moving body that is relatively displaced with respect to the moving body 1, based on a difference processing result with a second image captured later, the other moving body and the moving body 1
The shorter the predetermined time is, the shorter the predetermined time is. (5) The invention of claim 5 is the method for detecting a moving object according to claim 4, wherein the distance between the other moving object and the moving object 1 is one of the first image and the second image. It is characterized in that it is determined on the basis of the lateral position of another moving body inside. (6) The invention of claim 6 is the method for detecting a moving object according to claim 4 or 5, wherein the moving amount of another moving object in the image is detected based on the first image and the second image. The predetermined time is set so that the detected movement amount of the other moving body becomes constant.

【0006】なお、上記課題を解決するための手段の項
では、本発明をわかりやすく説明するために実施の形態
の図1,図2と対応づけたが、これにより本発明が実施
の形態に限定されるものではない。
In the section of means for solving the above-mentioned problems, in order to explain the present invention in an easy-to-understand manner, it corresponds to FIG. 1 and FIG. 2 of the embodiment. It is not limited.

【0007】[0007]

【発明の効果】本発明によれば、次のような効果を奏す
る。 (1)請求項1〜6の発明によれば、第1の画像と第1
の画像が撮像された時から所定時間経過後に撮像された
第2の画像との差分処理により移動体を検出する際に、
撮像手段を搭載した移動体と他の移動体との距離が近い
ほど、撮像間隔の所定時間を短くするので、差分処理を
複数回実行する必要がなく、移動体検出処理の演算負荷
を低減することができる。 (3)請求項3および6の発明によれば、他の移動体の
移動速度に関わらず、確実に他の移動体を検出すること
ができる。
The present invention has the following effects. (1) According to the inventions of claims 1 to 6, the first image and the first image
When a moving object is detected by difference processing with the second image captured after a predetermined time has elapsed from the time when the image of
The shorter the distance between the moving body equipped with the image pickup means and the other moving body, the shorter the predetermined time of the image pickup interval. Therefore, it is not necessary to execute the difference processing a plurality of times, and the calculation load of the moving body detection processing is reduced. be able to. (3) According to the inventions of claims 3 and 6, it is possible to reliably detect the other moving body regardless of the moving speed of the other moving body.

【0008】[0008]

【発明の実施の形態】(第1の実施の形態)図1は、本
発明による移動体検出装置の第1の実施の形態の構成を
示す図である。第1の実施の形態の移動体検出装置は、
前側方カメラ10a,10bと、画像処理ECU20
と、警報ECU30と、車速センサ40と、警報用イン
ジケータ50と、警報用ブザー60と、車載モニタ70
とを備える。前側方カメラ10a,10bは、図2に示
すように、それぞれ車両1のフロントサイド左右に設置
される。カメラ10aは車両1の進行方向左側を、カメ
ラ10bは車両1の進行方向右側をそれぞれ撮像するた
めのものである。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS (First Embodiment) FIG. 1 is a diagram showing a configuration of a first embodiment of a moving body detection apparatus according to the present invention. The moving body detection device according to the first embodiment is
Front side cameras 10a and 10b and image processing ECU 20
An alarm ECU 30, a vehicle speed sensor 40, an alarm indicator 50, an alarm buzzer 60, and an in-vehicle monitor 70.
With. As shown in FIG. 2, the front and side cameras 10a and 10b are installed on the left and right of the front side of the vehicle 1, respectively. The camera 10a is for capturing the left side of the vehicle 1 in the traveling direction, and the camera 10b is for capturing the right side of the vehicle 1 in the traveling direction.

【0009】画像処理ECU20は、前側方カメラ10
a,10bにて撮像された画像に対して、差分処理や移
動体抽出処理等の処理を施す。画像処理ECU20にて
行われる画像処理などの各種処理については、図6〜図
9と図11に示すフローチャートを用いて後述する。画
像処理後の画像は、警報ECU30に送られると共に、
所定の条件に応じて車載モニタ70に表示される。警報
ECU30は、画像処理後の画像と、車速センサ40に
て検出された車速とに基づいて、自車両の危険度等を判
断する。警報ECU30にて自車両が危険であると判断
されると、警報用インジケータ50や警報用ブザー60
を用いて、ドライバに警告する。
The image processing ECU 20 includes a front side camera 10
Processing such as difference processing and moving body extraction processing is performed on the images captured in a and 10b. Various types of processing such as image processing performed by the image processing ECU 20 will be described later with reference to the flowcharts shown in FIGS. 6 to 9 and 11. The image after the image processing is sent to the alarm ECU 30 and
It is displayed on the in-vehicle monitor 70 according to a predetermined condition. The warning ECU 30 determines the degree of danger of the host vehicle based on the image after image processing and the vehicle speed detected by the vehicle speed sensor 40. When the warning ECU 30 determines that the vehicle is dangerous, the warning indicator 50 and the warning buzzer 60 are displayed.
To warn the driver.

【0010】図3は、本実施の形態における移動体検出
装置を搭載した車両1が、図2に示すようなT字路など
の交差点にさしかかった時に、前側方カメラ10bにて
車両右側を撮像した時の図である。図3(a)〜(c)
を用いて、車両等の移動体がカメラ10bの遠方および
近傍に存在する時の、画像上における見かけ上の移動量
の違いについて説明する。図3(a)〜(c)は、一定
の時間間隔ΔTにて撮像された3枚の画像をそれぞれ示
している。これらの画像には、自車両1に接近してくる
車両100が写っている。
FIG. 3 shows an image of the right side of the vehicle 1 taken by the front side camera 10b when the vehicle 1 equipped with the moving body detecting apparatus according to the present embodiment approaches an intersection such as a T-shaped road as shown in FIG. It is a figure when it did. 3 (a)-(c)
The difference in the apparent amount of movement on the image when a moving body such as a vehicle exists in the distance and in the vicinity of the camera 10b will be described with reference to. 3A to 3C respectively show three images captured at a constant time interval ΔT. In these images, the vehicle 100 approaching the vehicle 1 is shown.

【0011】接近車両100は、カメラ10b(自車両
1)から遠い程、画像内で小さく写っており(図3
(a))、カメラ10bに接近してくるにつれて、画像
内にて大きく写ることになる(図3(c))。従って、
車両100が一定速度で走行している場合でも、カメラ
10bにて撮像された画像上では、図3(a)から図3
(b)に示す移動量X1と、図3(b)から図3(c)
に示す移動量X2とでは異なる。すなわち、車両100
がカメラ10bに接近してくる程、画像上に存在する車
両100の見かけ上の移動量は大きくなる。
The approaching vehicle 100 is smaller in the image as it is farther from the camera 10b (own vehicle 1) (see FIG. 3).
(A)), as it approaches the camera 10b, it becomes larger in the image (FIG. 3 (c)). Therefore,
Even when the vehicle 100 is traveling at a constant speed, on the images captured by the camera 10b, the images shown in FIGS.
The movement amount X1 shown in (b) and FIGS. 3 (b) to 3 (c).
It is different from the movement amount X2 shown in. That is, the vehicle 100
As the vehicle approaches the camera 10b, the apparent movement amount of the vehicle 100 existing in the image increases.

【0012】従って、車両100が遠方に存在する時の
移動量X1を基準として撮像間隔を定めると、車両10
0がカメラ10bの近傍まで接近してきた時の移動量が
大きくなりすぎることがある。一方、車両100が近傍
に存在する時の移動量X2を基準として撮像間隔を定め
ると、車両100が遠方に存在する時の移動量が小さく
なって、移動車両100の検出が困難になる。第1の実
施の形態における移動体検出装置では、自車両1に接近
してくる車両のうち、自車両1との距離が最も近い車両
(以下、ターゲット車両と呼ぶ)を検出して、撮像画像
上のターゲット車両の位置に応じて、撮像間隔を定め
る。
Therefore, if the imaging interval is determined with reference to the movement amount X1 when the vehicle 100 is present at a distance, the vehicle 10
The movement amount when 0 approaches the vicinity of the camera 10b may become too large. On the other hand, if the imaging interval is determined with reference to the movement amount X2 when the vehicle 100 is in the vicinity, the movement amount when the vehicle 100 is in the distance is small and it becomes difficult to detect the moving vehicle 100. The moving object detection apparatus according to the first embodiment detects a vehicle (hereinafter, referred to as a target vehicle) having the shortest distance from the host vehicle 1 among the vehicles approaching the host vehicle 1, and captures the captured image. The imaging interval is determined according to the position of the target vehicle above.

【0013】図3(a)〜(c)では、車両100は、
図の中央の右側に位置する道路110の消失点(無限遠
点)から現れて、図の左方向に向かって移動しているよ
うに見える。上述したように、走行車両はカメラ10b
に接近してくる程、画像上での移動量は大きくなるの
で、図3(a)〜(c)では、車両100が画像の左側
に移動する程、見かけ上の移動量は大きくなる。すなわ
ち、車両100の画像上における横方向の位置と見かけ
上の移動量とは相関関係がある。
In FIGS. 3 (a)-(c), the vehicle 100 is
It appears as if it appears from the vanishing point (infinity point) of the road 110 located on the right side of the center of the figure and moves toward the left side of the figure. As described above, the traveling vehicle is the camera 10b.
3A to 3C, the apparent movement amount increases as the vehicle 100 moves to the left side of the image in FIG. 3A to FIG. 3C. That is, there is a correlation between the lateral position of the vehicle 100 on the image and the apparent movement amount.

【0014】図4は、画像を右から順にA,B,Cの3
つの領域に分割した図である。また、画像の最左端に
は、後述するフレームアウト判定領域(斜線部分)が設
けられている。第1の実施の形態における移動体検出装
置は、ターゲット車両が図4の領域A,B,Cのうちの
いずれの領域に存在するかによって、カメラ10bで撮
像する間隔を変える。ここで、ターゲット車両が領域
A,B,Cに存在する時の撮像間隔をそれぞれT,T
,Tとする。ターゲット車両を検知していない場合
の撮像間隔はTとする。カメラ10bで撮像した画像
の場合、ターゲット車両が画像の左側に移動する程、見
かけ上の移動量は大きくなるので、撮像間隔T
,Tの関係をT>T>Tとする。
FIG. 4 shows an image in the order of A, B, and C from the right.
It is the figure divided into one area. Further, a frame-out determination area (hatched portion) described later is provided at the leftmost end of the image. The moving object detection apparatus according to the first embodiment changes the interval at which the camera 10b takes an image, depending on which of the areas A, B, and C in FIG. 4 the target vehicle is in. Here, the imaging intervals when the target vehicle exists in the areas A, B, and C are T A and T, respectively.
Let B and T C. The imaging interval is T A when the target vehicle is not detected. In the case of the image captured by the camera 10b, the apparent movement amount increases as the target vehicle moves to the left side of the image. Therefore, the imaging interval T A ,
The relationship between T B and T C is T A > T B > T C.

【0015】図5(a)は、ターゲット車両の画像内に
おける横方向の位置と見かけの移動量との関係を示す図
である。画像内の横位置は、画像の最左点を基準とす
る。図5(a)には、ターゲット車両の位置に関わら
ず、撮像間隔をT,T,Tの一定間隔とした場合
の結果をそれぞれ示している。図5(a)より、撮像間
隔が大きいほど見かけの移動量が大きくなり、ターゲッ
ト車両が画像の左側に位置するほど見かけの移動量が大
きくなることが分かる。
FIG. 5A is a diagram showing the relationship between the lateral position in the image of the target vehicle and the apparent amount of movement. The lateral position in the image is based on the leftmost point of the image. FIG. 5A shows the results when the imaging intervals are set to constant intervals T A , T B , and T C regardless of the position of the target vehicle. It can be seen from FIG. 5A that the apparent movement amount increases as the imaging interval increases, and the apparent movement amount increases as the target vehicle is located on the left side of the image.

【0016】図5(b)は、第1の実施の形態の移動体
検出装置を用いて、ターゲット車両の位置に応じて撮像
間隔を変えた時の、ターゲット車両の画像内の横位置と
見かけの移動量との関係を示す図である。ターゲット車
両が領域Aに存在する時には撮像間隔をTとし、領域
Bに存在する時には撮像間隔をTとし、領域Cに存在
する時には撮像間隔をTとする。これにより、図5
(b)に示すように、ターゲット車両の位置に関わら
ず、画像上の見かけの移動量の変化を抑えることができ
る。
FIG. 5B shows the lateral position and the apparent position in the image of the target vehicle when the imaging interval is changed according to the position of the target vehicle by using the moving body detecting apparatus according to the first embodiment. It is a figure which shows the relationship with the movement amount of. When the target vehicle is in the area A, the imaging interval is T A , when it is in the area B, the imaging interval is T B, and when it is in the area C, the imaging interval is T C. As a result, FIG.
As shown in (b), it is possible to suppress the change in the apparent movement amount on the image regardless of the position of the target vehicle.

【0017】図4において、斜線にて示されるフレーム
アウト判定領域は、次のターゲット車両の検知処理を迅
速に行うために設けられている。すなわち、ターゲット
車両が、フレームアウト判定領域に差し掛かかった場合
には、次の処理サイクル時には撮像画像上からフレーム
アウトするであろうと判断して、次の処理サイクル時に
は撮像間隔が最大であるTを新たな撮像間隔として、
次のターゲット車両を検知する処理を行う。これによ
り、図4に示す道路110の消失点方向から新たに現れ
る移動車両を迅速かつ確実に検出することができる。
In FIG. 4, the frame-out determination area indicated by diagonal lines is provided for speedily performing the next target vehicle detection processing. That is, when the target vehicle approaches the frame-out determination area, it is determined that the target vehicle will be framed out from the captured image in the next processing cycle, and the imaging interval T is the maximum in the next processing cycle. A is a new imaging interval,
The process of detecting the next target vehicle is performed. Accordingly, a moving vehicle that newly appears from the vanishing point direction of the road 110 shown in FIG. 4 can be detected quickly and reliably.

【0018】図6は、第1の実施の形態における移動体
検出装置により行われるターゲット車両検出処理の処理
手順を示すフローチャートである。この処理は、画像処
理ECU20にて行われる。ステップS10では、カメ
ラ10bにて自車両1の右方向を撮像する間隔を決定す
る。撮像間隔の決定方法については、図7に示すフロー
チャートを用いて後述する。撮像間隔を決定するとステ
ップS20に進む。
FIG. 6 is a flowchart showing the processing procedure of the target vehicle detection processing performed by the moving body detection apparatus according to the first embodiment. This processing is performed by the image processing ECU 20. In step S10, the interval at which the camera 10b images the right direction of the vehicle 1 is determined. The method of determining the imaging interval will be described later with reference to the flowchart shown in FIG. When the imaging interval is determined, the process proceeds to step S20.

【0019】ステップS20では、カメラ10bにて1
枚目の画像を撮像する。撮像した画像は、画像処理EC
U20に取り込まれる。次のステップS30では、ステ
ップS10で定めた撮像間隔にて、カメラ10bを用い
て2枚目の画像を撮像する。撮像した画像を画像処理E
CU20に取り込むと、ステップS40に進む。ステッ
プS40では、ステップS20およびステップS30で
取得した2枚の画像を用いて差分処理を施し、車両が移
動した領域(以下、移動領域と呼ぶ)を抽出する。差分
処理を行うと、ステップS50に進む。
In step S20, the camera 10b
The first image is captured. The captured image is an image processing EC
Captured by U20. In the next step S30, the second image is captured using the camera 10b at the image capturing interval determined in step S10. Image processing E for the captured image
When it is loaded into the CU 20, the process proceeds to step S40. In step S40, difference processing is performed using the two images acquired in step S20 and step S30 to extract a region in which the vehicle has moved (hereinafter referred to as a moving region). After performing the difference processing, the process proceeds to step S50.

【0020】ステップS50では、ステップS40で行
った差分処理結果に基づいて、移動車両を抽出する。移
動車両の抽出処理は、図8に示すフローチャートを用い
て後述する。移動車両を抽出すると、ステップS60に
進む。ステップS60では、ステップS50で抽出した
移動体車両に基づいて、ターゲット車両の検出処理をお
こなう。ターゲット車両の検出処理は、図9に示すフロ
ーチャートを用いて後述する。以後、上述したステップ
S10からステップS60の処理が繰り返し行われる。
In step S50, a moving vehicle is extracted based on the difference processing result obtained in step S40. The moving vehicle extraction processing will be described later with reference to the flowchart shown in FIG. When the moving vehicle is extracted, the process proceeds to step S60. In step S60, a target vehicle detection process is performed based on the mobile vehicle extracted in step S50. The target vehicle detection process will be described later with reference to the flowchart shown in FIG. After that, the processes of steps S10 to S60 described above are repeated.

【0021】図7は、図6に示すフローチャートのステ
ップS10で行われる撮像間隔決定処理の詳細な処理手
順を示すフローチャートである。ステップS110で
は、図6に示すフローチャートによる処理(ステップS
10〜ステップS60)において、前処理サイクル(前
回のステップS10〜ステップS60における処理)時
のステップS60にて行われるターゲット車両の検出処
理結果に基づいて、前処理サイクル時に検出されたター
ゲット車両の画像上の位置を確認する。図6に示すフロ
ーチャートによる処理が初めて行われる場合には、ター
ゲット車両が存在しないものとする。
FIG. 7 is a flow chart showing the detailed processing procedure of the imaging interval determination processing performed in step S10 of the flow chart shown in FIG. In step S110, the processing according to the flowchart shown in FIG. 6 (step S
In 10 to S60), an image of the target vehicle detected in the pre-processing cycle based on the detection processing result of the target vehicle performed in step S60 in the pre-processing cycle (the processing in the previous steps S10 to S60). Check the position above. When the process according to the flowchart shown in FIG. 6 is performed for the first time, it is assumed that the target vehicle does not exist.

【0022】次のステップS120では、ステップS1
10で行われたターゲット車両の位置確認結果に基づい
て、ターゲット車両が存在しないか、または、ターゲッ
ト車両がフレームアウト判定領域に差し掛かっているか
否かを判定する。ターゲット車両が存在しないと判定さ
れるか、または、フレームアウト判定領域に差し掛かっ
ていると判定すると、ステップS130に進み、それ以
外の場合にはステップS140に進む。
In the next step S120, step S1
Based on the position confirmation result of the target vehicle performed in 10, it is determined whether the target vehicle does not exist or the target vehicle is approaching the flameout determination area. If it is determined that the target vehicle does not exist, or if it is determined that the frame-out determination area is approaching, the process proceeds to step S130, and otherwise, the process proceeds to step S140.

【0023】ステップS130では、次に画像を取得す
るための撮像間隔を、撮像間隔が最も長いT(初期撮
像間隔)に設定する。これにより、撮像領域に新たに入
ってくる車両を速やかに検出することができる。一方、
ステップS140では、前処理サイクル時に検出された
ターゲット車両の位置に基づいて、撮像間隔を決定す
る。例えば、前処理サイクル時に検出されたターゲット
車両が領域Bに存在していれば、撮像間隔をTとし、
領域Cに存在していれば撮像時間をTとする。ステッ
プS130またはS140で撮像間隔を決定すると、本
フローチャートによる処理を終了する。
In step S130, the image capturing interval for acquiring the next image is set to T A (initial image capturing interval), which has the longest image capturing interval. As a result, it is possible to quickly detect a vehicle that newly enters the imaging area. on the other hand,
In step S140, the imaging interval is determined based on the position of the target vehicle detected during the preprocessing cycle. For example, if the target vehicle detected during the preprocessing cycle is in the area B, the imaging interval is set to T B ,
If it exists in the region C, the imaging time is set to T C. When the imaging interval is determined in step S130 or S140, the process according to this flowchart ends.

【0024】図8は、図6に示すフローチャートのステ
ップS50で行われる移動車両抽出処理の詳細な処理手
順を示すフローチャートである。ステップS200で
は、画像間差分処理(ステップS40)を行う前の画
像、すなわち、ステップS20またはステップS30で
取得した画像を用いて、道路の白線を検出する。白線の
検出は、画像に含まれる輝度情報を利用する等、公知の
方法により行うことができる。道路の白線を検出する
と、ステップS210に進む。
FIG. 8 is a flow chart showing a detailed processing procedure of the moving vehicle extraction processing performed in step S50 of the flow chart shown in FIG. In step S200, the white line of the road is detected using the image before the inter-image difference process (step S40), that is, the image acquired in step S20 or step S30. The white line can be detected by a known method such as using the luminance information included in the image. When the white line of the road is detected, the process proceeds to step S210.

【0025】ステップS210では、ステップS200
で検出した白線に基づいて、画像中の道路領域を特定す
る。道路領域を特定するとステップS220に進む。ス
テップS220では、図6に示すフローチャートのステ
ップS40で行われた差分処理により抽出された移動領
域の画像に対して、ステップS210で特定された道路
領域内にてマスク処理を行い、道路領域に存在する移動
領域の情報を抽出する。すなわち、道路領域外に存在す
る移動領域は取り除かれる。次のステップS230で
は、ステップS220で抽出された道路領域内の移動領
域部分に対して、ラベリングを行い、ラベルを付された
領域それぞれを移動車両が存在する領域として抽出す
る。すなわち、ステップS230では、道路領域に存在
する移動車両(複数存在する時は、複数の移動車両)を
抽出している。移動車両を抽出すると、本フローチャー
トによる処理を終了する。
In step S210, step S200
The road area in the image is specified based on the white line detected in. When the road area is specified, the process proceeds to step S220. In step S220, the masking process is performed within the road region specified in step S210 on the image of the moving region extracted by the difference process performed in step S40 of the flowchart shown in FIG. The information of the moving area to be extracted is extracted. That is, the moving area existing outside the road area is removed. In the next step S230, labeling is performed on the moving area portion within the road area extracted in step S220, and each labeled area is extracted as an area in which the moving vehicle exists. That is, in step S230, moving vehicles existing in the road area (or plural moving vehicles when there are a plurality of them) are extracted. When the moving vehicle is extracted, the process according to this flowchart ends.

【0026】図9は、図6に示すフローチャートのステ
ップS60で行われるターゲット車両検出処理の詳細な
処理手順を示すフローチャートである。ステップS30
0では、前処理サイクル時のデータと、今回の処理(図
6に示すフローチャートのステップS50)にて抽出さ
れた移動車両のデータを関連付ける処理を行う。具体的
には、画像上における移動車両の位置、前回の処理まで
の移動方向、移動車両データの大きさ等に基づいて、前
処理サイクル時に検出された移動車両と今回の処理にて
抽出された移動車両とが同一車両であるか否かを確認す
る。抽出された移動車両が複数存在する場合には、それ
ら全ての組み合わせについて、同一車両であるか否かの
確認を行う。データの関連付け処理を行うとステップS
310に進む。
FIG. 9 is a flow chart showing a detailed processing procedure of the target vehicle detection processing performed in step S60 of the flow chart shown in FIG. Step S30
In 0, a process of associating the data in the pre-processing cycle with the data of the moving vehicle extracted in the current process (step S50 of the flowchart shown in FIG. 6) is performed. Specifically, based on the position of the moving vehicle on the image, the moving direction up to the previous processing, the size of the moving vehicle data, and the like, the moving vehicle detected during the preprocessing cycle and the current processing are extracted. Check if the moving vehicle is the same vehicle. When there are a plurality of extracted moving vehicles, it is confirmed whether or not they are the same vehicle for all the combinations. When data association processing is performed, step S
Proceed to 310.

【0027】ステップS310では、ステップS300
で行った関連付け処理の結果、同一車両が存在するか否
かの判定を行う。同一車両が存在すると判定するとステ
ップS320に進み、同一車両が存在しないと判定する
とステップS370に進む。ステップS370では、今
回の処理にて検出した移動車両は、新規に検出した車両
であると判定して、ターゲット車両検出処理を終了す
る。
In step S310, step S300
It is determined whether or not the same vehicle exists as a result of the associating process performed in. If it is determined that the same vehicle exists, the process proceeds to step S320, and if it is determined that the same vehicle does not exist, the process proceeds to step S370. In step S370, the moving vehicle detected in this processing is determined to be a newly detected vehicle, and the target vehicle detection processing ends.

【0028】ステップS320では、同一車両と判定さ
れた移動車両の移動方向を判定する。移動方向を判定す
るとステップS330に進む。ステップS330では、
ステップS320で判定した移動方向が自車両1に接近
してくる方向であるか否かを判定する。自車両1に接近
してきていると判定するとステップS340に進み、自
車両1から遠ざかる方向に移動していると判定すると、
本フローチャートによる処理を終了する。
In step S320, the moving direction of the moving vehicle determined to be the same vehicle is determined. When the moving direction is determined, the process proceeds to step S330. In step S330,
It is determined whether or not the moving direction determined in step S320 is a direction approaching the host vehicle 1. If it is determined that the vehicle 1 is approaching, the process proceeds to step S340, and if it is determined that the vehicle is moving away from the vehicle 1,
The process according to this flowchart ends.

【0029】ステップS340では、自車両1に接近し
てきていると判定した全ての移動車両に対して、画像内
の横方向の位置を算出し、ステップS350に進む。ス
テップS350では、ステップS340で算出した全て
の移動車両の横位置のうち、最も横位置が左側にある車
両を特定する。本実施の形態では、カメラ10bを用い
て、自車両1の進行方向右側から接近してくる車両を検
出しているので(図3参照)、画像内の横方向位置が最
も左側にある車両を特定している。本実施の形態の移動
体検出装置では、カメラ10aを用いて左側から接近し
てくる車両を検出することもできるが、この場合には、
横方向位置が最も右側にある車両を特定することにな
る。次のステップS360では、ステップS350で特
定した車両をターゲット車両と判定して、本フローチャ
ートによる処理を終了する。
In step S340, the horizontal position in the image is calculated for all the moving vehicles that are determined to be approaching the host vehicle 1, and the process proceeds to step S350. In step S350, the vehicle having the leftmost lateral position is specified from among the lateral positions of all the moving vehicles calculated in step S340. In the present embodiment, the camera 10b is used to detect a vehicle approaching from the right side in the traveling direction of the host vehicle 1 (see FIG. 3), and therefore the vehicle whose lateral position in the image is on the leftmost side is detected. Have been identified. In the moving body detection device of the present embodiment, it is possible to detect a vehicle approaching from the left side using the camera 10a, but in this case,
The vehicle whose lateral position is the rightmost will be specified. In the next step S360, the vehicle specified in step S350 is determined to be the target vehicle, and the process according to this flowchart ends.

【0030】第1の実施の形態の移動体検出装置によれ
ば、画像内の移動車両の位置に応じて、画像処理により
検出した車両が遠方に存在する場合は撮像間隔を長く
し、近傍に存在する場合は撮像間隔を短くする。この撮
像間隔は、時間差をもって撮像される2枚の画像により
移動車両を抽出できるように、自車両と移動車両との距
離に応じて予め定められるものであるので、画像内の移
動車両の位置に応じて撮像間隔を変えることにより、移
動車両を確実に検出することができる。また、移動車両
がフレームアウト判定領域に差し掛かった時や、移動車
両を検出していない時には撮像時間を最も長く設定する
ので、新たな移動車両を迅速に検出することができる。
According to the moving body detecting apparatus of the first embodiment, the image pickup interval is lengthened in the vicinity of the vehicle detected by the image processing if the vehicle detected by the image processing is present in the distance according to the position of the moving vehicle in the image. If it exists, the imaging interval is shortened. This imaging interval is predetermined according to the distance between the own vehicle and the moving vehicle so that the moving vehicle can be extracted from the two images picked up with a time difference. Accordingly, the moving vehicle can be reliably detected by changing the imaging interval. Further, when the moving vehicle approaches the frame-out determination area or when the moving vehicle is not detected, the imaging time is set to be the longest, so that a new moving vehicle can be detected quickly.

【0031】(第2の実施の形態)自車両1に接近して
くる車両が一定速度で走行している場合には、第1の実
施の形態の移動体検出装置を用いて、確実に移動車両を
検出することができる。しかし、接近車両の走行速度が
異なる場合には、画像内の移動車両の位置に応じて撮像
間隔を変えても、画像内の移動量の均一化を図ることは
できない。接近車両の走行速度が異なる場合の、画像内
の車両の横位置と見かけ上の移動量との関係を図10に
示す。
(Second Embodiment) When a vehicle approaching the host vehicle 1 is traveling at a constant speed, the moving object detecting device of the first embodiment is used to reliably move the vehicle. The vehicle can be detected. However, when the traveling speeds of the approaching vehicles are different, even if the imaging interval is changed according to the position of the moving vehicle in the image, it is not possible to make the moving amount in the image uniform. FIG. 10 shows the relationship between the lateral position of the vehicle in the image and the apparent movement amount when the traveling speeds of the approaching vehicles are different.

【0032】図10(a)は、撮像間隔を一定(T
とした時の、画像内の車両の横位置と見かけ上の移動量
との関係を示しており、実線で示される車両の車速V
1は、点線で示される車両の車速V2よりも小さい。
従って、車両の画像上の横位置と車両の画像上の横
位置とが同じ場合でも、画像上の見かけの移動量は異な
り、車両の見かけ上の移動量の方が車両の見かけ上
の移動量よりも大きくなる。
FIG. 10A shows that the imaging interval is constant (T c ).
Shows the relationship between the lateral position of the vehicle in the image and the apparent movement amount, and the vehicle speed V of the vehicle shown by the solid line.
1 is smaller than the vehicle speed V2 of the vehicle shown by the dotted line.
Therefore, even if the lateral position on the image of the vehicle and the lateral position on the image of the vehicle are the same, the apparent movement amount on the image is different, and the apparent movement amount of the vehicle is the apparent movement amount of the vehicle. Will be larger than.

【0033】図10(b)は、第1の実施の形態の移動
体検出装置を用いた際の、画像内の車両の横位置と見か
け上の移動量との関係を示している。図10(b)に示
すように、車両のように移動速度が大きい場合には、
画像内の移動車両の位置に応じて撮像間隔を変えても、
画像上の移動量の差は大きくなる。第2の実施の形態の
移動体検出装置では、画像処理にて検出した移動車両の
移動速度を算出し、算出した移動速度に応じて撮像間隔
を設定する。これにより、移動車両の移動速度が異なる
場合でも、画像上の見かけの移動量の差を小さくするこ
とができる。
FIG. 10B shows the relationship between the lateral position of the vehicle in the image and the apparent amount of movement when the moving object detecting apparatus according to the first embodiment is used. As shown in FIG. 10B, when the moving speed is high like a vehicle,
Even if the imaging interval is changed according to the position of the moving vehicle in the image,
The difference in the amount of movement on the image becomes large. In the moving body detection device of the second embodiment, the moving speed of the moving vehicle detected by the image processing is calculated, and the imaging interval is set according to the calculated moving speed. As a result, even if the moving speeds of the moving vehicles are different, it is possible to reduce the difference in the apparent moving amount on the image.

【0034】第2の実施の形態の移動体検出装置の構成
は、図1に示す第1の実施の形態の移動体検出装置の構
成と同じであるので、説明は省略する。また、カメラ1
0bにて撮像した2枚の画像に差分処理を施して、移動
車両を抽出してターゲット車両を特定する処理方法(図
6のフローチャート)も、第1の実施の形態の移動体検
出装置と同じである。第2の実施の形態の移動体検出装
置では、図6に示すフローチャートによる処理のうち、
ステップS10で撮像間隔を決定する処理内容が、第1
の実施の形態の移動体検出装置と異なる。
The structure of the moving body detecting apparatus according to the second embodiment is the same as the structure of the moving body detecting apparatus according to the first embodiment shown in FIG. Also, camera 1
The processing method (flowchart in FIG. 6) of performing the difference processing on the two images captured at 0b to extract the moving vehicle and specify the target vehicle is also the same as that of the moving object detection apparatus according to the first embodiment. Is. In the moving body detection device according to the second embodiment, among the processes according to the flowchart shown in FIG.
The processing content for determining the imaging interval in step S10 is the first
This is different from the moving body detection device of the embodiment.

【0035】図11は、カメラ10bにて2枚の画像を
撮像する間隔を決定する処理の詳細な処理手順を示すフ
ローチャートである。第1の実施の形態の移動体検出装
置により行われる、図7に示すフローチャートによる処
理と同一の処理については、同一の符号を付し、異なる
処理を中心に説明する。ステップS110では、前処理
サイクル時のターゲット車両の検出処理結果に基づい
て、前処理サイクル時に検出されたターゲット車両の画
像上の位置を確認し、ステップS120に進む。
FIG. 11 is a flow chart showing the detailed processing procedure of processing for determining the interval at which two images are picked up by the camera 10b. The same processes as the processes according to the flowchart shown in FIG. 7, which are performed by the moving body detection device according to the first embodiment, are designated by the same reference numerals, and different processes will be mainly described. In step S110, the position on the image of the target vehicle detected in the pretreatment cycle is confirmed based on the detection processing result of the target vehicle in the pretreatment cycle, and the process proceeds to step S120.

【0036】ステップS120では、ステップS110
で行われたターゲット車両の位置確認結果に基づいて、
ターゲット車両が存在しないか、または、ターゲット車
両がフレームアウト判定領域に差し掛かっているかを判
定する。ターゲット車両が存在しないと判定されるか、
または、フレームアウト判定領域に差し掛かっていると
判定すると、ステップS130に進み、それ以外の場合
にはステップS400に進む。ステップS130では、
次に画像を取得するための撮像間隔を撮像間隔が最も長
いT(初期撮像間隔)に設定して、本フローチャート
による処理を終了する。
In step S120, step S110
Based on the result of the target vehicle position confirmation performed in
It is determined whether the target vehicle does not exist or the target vehicle is approaching the flameout determination area. Is it determined that the target vehicle does not exist,
Alternatively, if it is determined that the frame-out determination area is approaching, the process proceeds to step S130, and otherwise, the process proceeds to step S400. In step S130,
Next, the image capturing interval for acquiring an image is set to T A (initial image capturing interval), which has the longest image capturing interval, and the processing according to this flowchart ends.

【0037】ステップS400では、前処理サイクル時
に撮像された2枚の画像(図6のフローチャートのステ
ップS20,S30)に基づいて、ターゲット車両の画
像内における移動量を算出する。ターゲット車両の画像
内における移動量を算出するとステップS410に進
む。ステップS410では、ステップS400で算出し
た移動量と、2枚の画像を撮像した間隔とに基づいて、
ターゲット車両の画像内における移動速度を算出する。
ターゲット車両の画像内の移動速度を算出すると、ステ
ップS420に進む。
In step S400, the amount of movement of the target vehicle in the image is calculated based on the two images (steps S20 and S30 in the flowchart of FIG. 6) taken during the preprocessing cycle. When the amount of movement of the target vehicle in the image is calculated, the process proceeds to step S410. In step S410, based on the movement amount calculated in step S400 and the interval at which two images are captured,
The moving speed in the image of the target vehicle is calculated.
When the moving speed in the image of the target vehicle is calculated, the process proceeds to step S420.

【0038】ステップS420では、ステップS410
で算出した移動速度に基づいて、撮像間隔を算出する。
ターゲット車両の画像内での移動量の均一化を図るため
には、画像内での移動速度が大きいほど撮像間隔を小さ
くし、移動速度が小さいほど撮像間隔を大きくする。撮
像間隔は、例えば画像内の移動車両の移動速度と撮像間
隔との関係を定めたテーブルを予め用意しておき、ステ
ップS410で算出した移動速度とこのテーブルとを用
いて算出することができる。また、基準となる移動速度
を予め定めておき、ステップS410で算出した移動速
度と基準速度との差に基づいて、撮像間隔を算出するこ
ともできる。
In step S420, step S410.
The imaging interval is calculated based on the moving speed calculated in.
In order to make the amount of movement of the target vehicle uniform in the image, the imaging interval is made smaller as the moving speed in the image becomes higher, and the imaging interval becomes longer as the moving speed becomes smaller. The imaging interval can be calculated, for example, by preparing in advance a table that defines the relationship between the moving speed of the moving vehicle in the image and the imaging interval, and using the moving speed calculated in step S410 and this table. Alternatively, the reference moving speed may be set in advance, and the imaging interval may be calculated based on the difference between the moving speed calculated in step S410 and the reference speed.

【0039】以上、第2の実施の形態の移動体検出装置
によれば、自車両に接近してくる車両の画像上の移動速
度に応じて撮像間隔を決定するので、移動車両の移動速
度や画像上の位置が異なる場合でも、正確に移動車両を
検出することができる。
As described above, according to the moving object detecting apparatus of the second embodiment, the image pickup interval is determined according to the moving speed on the image of the vehicle approaching the own vehicle. Even if the position on the image is different, the moving vehicle can be accurately detected.

【0040】本発明は、上述した一実施の形態に限定さ
れることはない。例えば、第1の実施の形態では、画像
内の領域を3分割して3種類の撮像間隔を用いたが、画
像内の領域を4以上の領域に分割して4種類以上の撮像
間隔を用いることにより、画像上の移動車両の見かけの
移動量をさらに均一化することができる。また、上述し
た実施の形態では、自車両に接近してくる車両を検出す
る場合について説明したが、自車両から遠ざかる車両を
認知する装置にも適用することができる。
The present invention is not limited to the above-mentioned embodiment. For example, in the first embodiment, the region in the image is divided into three and three types of imaging intervals are used, but the region in the image is divided into four or more regions and four or more types of imaging intervals are used. This makes it possible to further equalize the apparent movement amount of the moving vehicle on the image. Further, in the above-described embodiment, the case where the vehicle approaching the own vehicle is detected has been described, but the present invention can also be applied to a device that recognizes a vehicle moving away from the own vehicle.

【0041】また、本発明による移動体検出装置を搭載
する移動体は車両に限定されることはなく、2輪車等に
も適用することができる。また、移動体検出装置により
検出する移動体も車両に限定されることはなく、人や自
転車等の移動体を検出することができる。
Further, the moving body on which the moving body detecting apparatus according to the present invention is mounted is not limited to a vehicle, but can be applied to a two-wheeled vehicle or the like. The moving body detected by the moving body detection device is not limited to the vehicle, and moving bodies such as people and bicycles can be detected.

【0042】さらに、第2の実施の形態では、自車両に
接近してくる車両の画像上の移動速度に応じて撮像間隔
を決定したが、図11に示すフローチャートのステップ
S400で算出した移動量が一定になるようにフィード
バック制御を行うこともできる。すなわち、ステップS
400で算出した移動量が大きい場合には、移動量を小
さくするために次回の撮像時間を短くし、移動量が小さ
い場合には、移動量を大きくするために次回の撮像時間
を長くする。これにより、移動車両の画像上の位置や移
動速度に関わらず、移動車両を確実に検出することがで
きる。
Further, in the second embodiment, the image pickup interval is determined according to the moving speed on the image of the vehicle approaching the host vehicle. However, the moving amount calculated in step S400 of the flowchart shown in FIG. It is also possible to perform feedback control so that is constant. That is, step S
If the movement amount calculated in 400 is large, the next imaging time is shortened to reduce the movement amount, and if the movement amount is small, the next imaging time is lengthened to increase the movement amount. This makes it possible to reliably detect the moving vehicle regardless of the position of the moving vehicle on the image and the moving speed.

【0043】特許請求の範囲の構成要素と一実施の形態
の構成要素との対応関係は次の通りである。すなわち、
前側方カメラ10a,10bが撮像手段を、画像処理E
CU20が移動体検出手段と時間設定手段と移動量検出
手段とをそれぞれ構成する。なお、本発明の特徴的な機
能を損なわない限り、各構成要素は上記構成に限定され
るものではない。
Correspondence between the constituent elements of the claims and the constituent elements of one embodiment is as follows. That is,
The front and side cameras 10a and 10b serve as image pickup means and perform image processing E.
The CU 20 constitutes a moving body detecting means, a time setting means, and a moving amount detecting means, respectively. Note that each component is not limited to the above configuration as long as the characteristic function of the present invention is not impaired.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明による移動体検出装置の第1の実施の形
態の構成を示す図
FIG. 1 is a diagram showing a configuration of a first embodiment of a moving object detection device according to the present invention.

【図2】前側方カメラを車両に搭載する位置を示す図FIG. 2 is a diagram showing a position where a front side camera is mounted on a vehicle.

【図3】一定の時間間隔にて撮像された画像を示す図FIG. 3 is a diagram showing images taken at regular time intervals.

【図4】画像を3分割した時の領域およびフレームアウ
ト判定領域を示す図
FIG. 4 is a diagram showing an area and a frame-out determination area when an image is divided into three parts.

【図5】ターゲット車両の画像内の横位置と見かけの移
動量との関係を示す図であって、図5(a)は撮像間隔
を一定とした時、図5(b)は領域ごとに撮像間隔を変
えた時の図
FIG. 5 is a diagram showing a relationship between a lateral position in an image of a target vehicle and an apparent movement amount, wherein FIG. 5 (a) shows a case where an imaging interval is constant and FIG. Diagram when the imaging interval is changed

【図6】第1の実施の形態における移動体検出装置を用
いて、ターゲット車両を検出する処理手順を示すフロー
チャート
FIG. 6 is a flowchart showing a processing procedure for detecting a target vehicle by using the moving body detection device according to the first embodiment.

【図7】撮像間隔を決定する処理手順を示すフローチャ
ート
FIG. 7 is a flowchart showing a processing procedure for determining an imaging interval.

【図8】移動車両を抽出する処理手順を示すフローチャ
ート
FIG. 8 is a flowchart showing a processing procedure for extracting a moving vehicle.

【図9】ターゲット車両を決定する処理手順を示すフロ
ーチャート
FIG. 9 is a flowchart showing a processing procedure for determining a target vehicle.

【図10】接近車両の走行速度が異なる場合の、画像内
の車両の横位置と見かけ上の移動量との関係を示す図で
あって、図10(a)は撮像間隔を一定とした時の図、
図10(b)は画像内の位置に応じて撮像間隔を変えた
時の図
FIG. 10 is a diagram showing the relationship between the lateral position of the vehicle in the image and the apparent movement amount when the traveling speeds of the approaching vehicles are different, and FIG. Illustration of
FIG. 10B is a diagram when the imaging interval is changed according to the position in the image.

【図11】第2の実施の形態の移動体検出装置により、
撮像間隔を決定する処理手順を示すフローチャート
FIG. 11 is a block diagram of the moving body detection device according to the second embodiment.
Flowchart showing the processing procedure for determining the imaging interval

【符号の説明】[Explanation of symbols]

1…自車両、10a…前側方カメラ(左)、10b…前
側方カメラ(右)、20…画像処理ECU、30…警報
ECU、40…車速センサ、50…警報用インジケー
タ、60…警報用ブザー、70…車載モニタ、100…
接近車両、110…道路
1 ... Own vehicle, 10a ... Front side camera (left), 10b ... Front side camera (right), 20 ... Image processing ECU, 30 ... Warning ECU, 40 ... Vehicle speed sensor, 50 ... Warning indicator, 60 ... Warning buzzer , 70 ... In-vehicle monitor, 100 ...
Approaching vehicle, 110 ... Road

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 AA16 BA02 DA07 DA08 DB02 DC14 DC32 5C054 CH02 FC01 FC12 FC14 HA30 5H180 AA01 CC04 LL04 LL07 LL08 LL15 5L096 BA04 CA02 DA03 FA03 FA66 GA08 HA04    ─────────────────────────────────────────────────── ─── Continued front page    F term (reference) 5B057 AA16 BA02 DA07 DA08 DB02                       DC14 DC32                 5C054 CH02 FC01 FC12 FC14 HA30                 5H180 AA01 CC04 LL04 LL07 LL08                       LL15                 5L096 BA04 CA02 DA03 FA03 FA66                       GA08 HA04

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】移動体に設置されて所定範囲を撮像する撮
像手段と、 前記撮像手段によって撮像された第1の画像と、前記第
1の画像が撮像された時から所定時間経過後に撮像され
た第2の画像との差分処理結果に基づいて、前記移動体
に対して相対変位する他の移動体を検出する移動体検出
手段と、 前記他の移動体と前記移動体との距離が近いほど、前記
所定時間を短くする時間設定手段とを備えることを特徴
とする移動体検出装置。
1. An image pickup unit installed on a moving body for picking up an image of a predetermined range, a first image picked up by the image pickup unit, and an image picked up after a lapse of a predetermined time from the time when the first image was picked up. The moving body detecting means for detecting another moving body that is relatively displaced with respect to the moving body based on the difference processing result with the second image, and the distance between the other moving body and the moving body is short. The moving object detection device further comprises a time setting means for shortening the predetermined time.
【請求項2】請求項1に記載の移動体検出装置におい
て、 前記時間設定手段は、前記第1の画像および前記第2の
画像のうちのいずれか一方の画像内における前記他の移
動体の横方向の位置に基づいて、前記他の移動体と前記
移動体との距離を定めることを特徴とする移動体検出装
置。
2. The moving body detection device according to claim 1, wherein the time setting unit is configured to detect the other moving body in one of the first image and the second image. A moving body detection device, wherein a distance between the other moving body and the moving body is determined based on a position in the lateral direction.
【請求項3】請求項1または2に記載の移動体検出装置
において、 前記第1の画像と前記第2の画像とに基づいて、画像内
における前記他の移動体の移動量を検出する移動量検出
手段をさらに備え、 前記時間設定手段は、前記移動量検出手段により検出さ
れた移動量が一定になるように、前記所定時間を設定す
ることを特徴とする移動体検出装置。
3. The moving body detecting apparatus according to claim 1, wherein the moving body detects a moving amount of the other moving body in the image based on the first image and the second image. The moving body detecting device further comprising an amount detecting means, wherein the time setting means sets the predetermined time so that the moving amount detected by the moving amount detecting means becomes constant.
【請求項4】移動体に設置されて所定範囲を撮像する撮
像手段によって撮像された第1の画像と、前記第1の画
像が撮像された時から所定時間経過後に撮像された第2
の画像との差分処理結果に基づいて、前記移動体に対し
て相対変位する他の移動体を検出する移動体検出方法に
おいて、 前記他の移動体と前記移動体との距離が近いほど、前記
所定時間を短くすることを特徴とする移動体検出方法。
4. A first image picked up by an image pick-up means installed on a moving body and picking up an image of a predetermined range, and a second image picked up after a lapse of a predetermined time from the time when the first image was picked up.
On the basis of the difference processing result with the image of, a moving body detection method for detecting another moving body that is relatively displaced with respect to the moving body, the closer the distance between the other moving body and the moving body, the more A method of detecting a moving object, characterized by shortening a predetermined time.
【請求項5】請求項4に記載の移動体検出方法におい
て、 前記他の移動体と前記移動体との距離は、前記第1の画
像および前記第2の画像のうちのいずれか一方の画像内
における前記他の移動体の横方向の位置に基づいて定め
ることを特徴とする移動体検出方法。
5. The moving object detection method according to claim 4, wherein the distance between the other moving object and the moving object is one of the first image and the second image. A moving object detection method, characterized in that it is determined based on a lateral position of the other moving object in the inside.
【請求項6】請求項4または5に記載の移動体検出方法
において、 前記第1の画像と前記第2の画像とに基づいて、画像内
における前記他の移動体の移動量を検出し、 前記検出された他の移動体の移動量が一定になるよう
に、前記所定時間を設定することを特徴とする移動体検
出方法。
6. The moving body detection method according to claim 4, wherein the moving amount of the other moving body in the image is detected based on the first image and the second image, The moving body detection method, wherein the predetermined time is set so that the detected moving amount of the other moving body becomes constant.
JP2002072354A 2002-03-15 2002-03-15 Device and method for detecting mobile-body Pending JP2003271968A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002072354A JP2003271968A (en) 2002-03-15 2002-03-15 Device and method for detecting mobile-body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002072354A JP2003271968A (en) 2002-03-15 2002-03-15 Device and method for detecting mobile-body

Publications (1)

Publication Number Publication Date
JP2003271968A true JP2003271968A (en) 2003-09-26

Family

ID=29202374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002072354A Pending JP2003271968A (en) 2002-03-15 2002-03-15 Device and method for detecting mobile-body

Country Status (1)

Country Link
JP (1) JP2003271968A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009294791A (en) * 2008-06-03 2009-12-17 Denso Corp Information service system for vehicle
JP2010122936A (en) * 2008-11-20 2010-06-03 Seiko Epson Corp Sensing circuit, display and electronic apparatus
CN101872196A (en) * 2010-05-10 2010-10-27 北京航天控制仪器研究所 Control system of vehicle-mounted pick-up stable platform
CN103745566A (en) * 2014-01-22 2014-04-23 北京京东方光电科技有限公司 Mobile terminal camera device and method using same to perform vehicle speed measuring and alarming
US8854458B2 (en) 2009-04-15 2014-10-07 Toyota Jidosha Kabushiki Kaisha Object detection device
JP2019046170A (en) * 2017-09-01 2019-03-22 本田技研工業株式会社 Vehicle control system, vehicle, processing method of vehicle control system, and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009294791A (en) * 2008-06-03 2009-12-17 Denso Corp Information service system for vehicle
JP4683240B2 (en) * 2008-06-03 2011-05-18 株式会社デンソー Automotive information provision system
US8089348B2 (en) 2008-06-03 2012-01-03 Denso Corporation Information service system for vehicle
JP2010122936A (en) * 2008-11-20 2010-06-03 Seiko Epson Corp Sensing circuit, display and electronic apparatus
US8854458B2 (en) 2009-04-15 2014-10-07 Toyota Jidosha Kabushiki Kaisha Object detection device
CN101872196A (en) * 2010-05-10 2010-10-27 北京航天控制仪器研究所 Control system of vehicle-mounted pick-up stable platform
CN103745566A (en) * 2014-01-22 2014-04-23 北京京东方光电科技有限公司 Mobile terminal camera device and method using same to perform vehicle speed measuring and alarming
JP2019046170A (en) * 2017-09-01 2019-03-22 本田技研工業株式会社 Vehicle control system, vehicle, processing method of vehicle control system, and program

Similar Documents

Publication Publication Date Title
JP4899424B2 (en) Object detection device
JP5421072B2 (en) Approaching object detection system
US10360460B2 (en) Method and device of lane departure warning and automobile driving assistance system
JP2005300315A (en) Object detection device
CN107750213B (en) Front vehicle collision warning device and warning method
JP2006268097A (en) On-vehicle object detecting device, and object detecting method
JP2010097561A (en) Vehicle periphery monitoring device
JP2011180982A (en) Lane marker detecting apparatus
JP2006031162A (en) Moving obstacle detection device
US20180114078A1 (en) Vehicle detection device, vehicle detection system, and vehicle detection method
CN110383364A (en) Control device, vehicle and the deviation alarm control method of deviation alarm device
JP2009187169A (en) Traveling lane detection device
CN110431611A (en) Control device, vehicle and the deviation alarm control method of deviation alarm device
JP2007066003A (en) Stop-line detection device
JP4798576B2 (en) Attachment detection device
JP2010003253A (en) Motion estimation device
JP2007139564A (en) Obstacle detection system, obstacle detection method and computer program
JP2003271968A (en) Device and method for detecting mobile-body
JP2002367077A (en) Device and method for deciding traffic congestion
JP3729005B2 (en) Vehicle rear monitoring device
JP5717416B2 (en) Driving support control device
JPH1011585A (en) Object detection device
JP2008028478A (en) Obstacle detection system, and obstacle detecting method
JP4601376B2 (en) Image abnormality determination device
JP2011053732A (en) Image processor