JP2003281700A - Cutting-in vehicle detecting device and method - Google Patents

Cutting-in vehicle detecting device and method

Info

Publication number
JP2003281700A
JP2003281700A JP2002084599A JP2002084599A JP2003281700A JP 2003281700 A JP2003281700 A JP 2003281700A JP 2002084599 A JP2002084599 A JP 2002084599A JP 2002084599 A JP2002084599 A JP 2002084599A JP 2003281700 A JP2003281700 A JP 2003281700A
Authority
JP
Japan
Prior art keywords
vehicle
area
boundary line
setting
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002084599A
Other languages
Japanese (ja)
Other versions
JP3656056B2 (en
Inventor
Takeshi Nakano
剛 仲野
Ryuzo Okada
隆三 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2002084599A priority Critical patent/JP3656056B2/en
Publication of JP2003281700A publication Critical patent/JP2003281700A/en
Application granted granted Critical
Publication of JP3656056B2 publication Critical patent/JP3656056B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a cutting-in vehicle detecting device obtaining a traveling track of other vehicles cutting into an own vehicle traveling/stopping lane or an area on which traveling of the own vehicle is assumed from a time series image obtained from an image inputting device mounted on the vehicle by tracking a vehicular potential area, and detecting the cutting-in vehicle from the traveling track thereof. <P>SOLUTION: This cutting-in vehicle detecting device determining the cutting-in vehicle, is composed of an image inputting portion 1 taking in the time series image obtained by an image input device mounted on the vehicle by a single eye, a processing are setting portion 2 setting a reference border line for detecting cutting-in from the time series image, a potential area setting portion 3 setting the vehicular potential area on the outside to the reference border line, a traveling track assuming portion 4 assuming a traveling track of other vehicles by the vehicular potential area having a moving direction special to a specified cutting-in with reference to the reference border line, and a cutting-in determining portion 5 determining the cutting-in vehicle from the other vehicles when the traveling track of the other vehicle has a specified special feature of cutting-in. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、自動車などの車両
に代表される移動体に取り付けられたTVカメラから得
られる画像を用いて、自車両の走行しているレーン、ま
たは、自車両の走行が予測される領域に割り込んでくる
車両を検出する画像処理装置及びその方法に関するもの
である。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention uses an image obtained from a TV camera attached to a moving body represented by a vehicle such as an automobile to drive a lane in which the vehicle is traveling or a traveling of the vehicle. The present invention relates to an image processing device and a method for detecting a vehicle that is interrupting an area in which is predicted.

【0002】[0002]

【従来の技術】「割り込み車両」とは、自車両の走行、
または、停止しているレーン、または、自車両の走行が
予測される領域に侵入してくる車両である。自車と近い
距離で突発的に発生する現象であるため、非常に危険で
あり、迅速に検出する必要がある。
2. Description of the Related Art "Interruption vehicle" means the traveling of the own vehicle,
Alternatively, it is a vehicle entering a stopped lane or an area where the own vehicle is predicted to travel. Since it is a phenomenon that occurs suddenly at a short distance from the own vehicle, it is extremely dangerous and needs to be detected quickly.

【0003】自車両の走行しているレーン、または、自
車両の走行が予測される領域に割り込んでくる車両を検
出する手段として、大きく分けてレーダを用いる方式
と、画像を用いる方式が提案されている。
As means for detecting a lane in which the own vehicle is running or a vehicle that is expected to run in the area where the own vehicle is expected to travel, there are roughly proposed a method using a radar and a method using an image. ing.

【0004】レーダを用いる方式として、特開平7−8
9367号公報において、レーザレーダを用いて検出す
る方法が提案されている。レーザレーダを用いる方式は
雨など悪天候に弱いという問題がある。また、割り込み
車両の場合、レーザレーダが斜めに照射されるため、反
射波を受光できないという問題や、指向性が強く、曲が
った道路での利用などは困難であるということや、他車
両から発せられるレーザと干渉するという問題がある。
As a system using a radar, Japanese Patent Laid-Open No. 7-8
In 9367, a method of detecting using a laser radar is proposed. The method using the laser radar has a problem that it is vulnerable to bad weather such as rain. In the case of an interrupting vehicle, the laser radar irradiates it at an angle, so it cannot receive reflected waves, has a strong directivity, and is difficult to use on curved roads. There is the problem of interfering with the lasers used.

【0005】これに対して、画像を用いる方式では、例
えば自車両の走行レーンを検出することができるため、
自車両の走行に対して危険となる領域を限定することが
できる。このように様々の情報を、画像から取得するこ
とができる。また、装置を安価に構成することもでき
る。したがって、センサとしてレーダを用いるのではな
く画像を用いる。
On the other hand, in the method using the image, for example, the traveling lane of the own vehicle can be detected.
It is possible to limit the area that is dangerous to the traveling of the host vehicle. In this way, various kinds of information can be acquired from the image. Also, the device can be constructed at low cost. Therefore, instead of using a radar as a sensor, an image is used.

【0006】この画像を用いる方式には、複数のTVカ
メラを用いる方式と、単一のTVカメラによって単眼で
撮影した画像を用いる方式とがある。
The method of using this image includes a method of using a plurality of TV cameras and a method of using an image taken by a single eye by a single TV camera.

【0007】複数のTVカメラを用いる方式として、特
開平11−213295号公報において、ステレオ視に
より車両までの距離を計測して、3次元シーンにおける
他車両の移動ベクトルを求め、その延長線と走行レーン
が交わったとき割り込み車両と検出する手法が提案され
ている。このステレオ視による手法は割り込み車両が、
二台のTVカメラの共通視野領域に入ってくるまで検出
できないため、検出が遅くなるという問題がある。ま
た、左右の画像間から互いの点の応対付けにより視差を
求めるので、計算量が大きくなるという問題もある。し
たがって、カメラとしては、複数のカメラを用いるので
はなく、単一のカメラを用いるのが好ましい。
As a system using a plurality of TV cameras, in Japanese Patent Laid-Open No. 11-213295, the distance to a vehicle is stereoscopically measured to obtain a movement vector of another vehicle in a three-dimensional scene, and its extension line and traveling are used. A method of detecting an interrupted vehicle when a lane intersects has been proposed. This stereo vision method is
There is a problem that the detection is delayed because the detection cannot be performed until the two TV cameras enter the common field of view. In addition, since the parallax is obtained from the left and right images by matching each other's points, there is a problem that the amount of calculation becomes large. Therefore, as the camera, it is preferable to use a single camera rather than a plurality of cameras.

【0008】単一のTVカメラによって単眼で撮影した
画像を用いる方式として、下記の二つの方式が知られて
いる。
The following two methods are known as methods using an image photographed with a single eye by a single TV camera.

【0009】第1の方式としては、特開平8−2495
97号公報において、道路面のエッジ点数の変化に注目
して割り込み車両を検出する方法が提案されている。こ
の手法は、予め設定したある領域内部のエッジ点数の最
大値が、ある閾値以上になったときに、割り込み車両が
存在したとする。この手法では、エッジ点数から検出し
ているため、道路面に模様があると車両が存在しなくて
もエッジ点数が増大することから誤検出する可能性があ
る。
A first method is disclosed in Japanese Patent Laid-Open No. 8-2495.
Japanese Unexamined Patent Publication No. 97 proposes a method of detecting an interrupting vehicle by paying attention to a change in the number of edges on the road surface. In this method, it is assumed that an interrupting vehicle exists when the maximum value of the number of edge points inside a certain area set in advance exceeds a certain threshold value. In this method, since the number of edges is detected, the number of edges is increased if there is a pattern on the road surface even if there is no vehicle, and therefore the number of edges may be erroneously detected.

【0010】第2の方式としては、特許第307506
4号公報において、まず車両を検出し、検出した車両が
走行レーン領域に十分に重なったら割り込み車両である
と判断する手法が提案されている。この手法では、正確
な車両検出が必要となるが、精度の良い車両検出自体困
難である。
The second method is Japanese Patent No. 307506.
Japanese Unexamined Patent Publication No. 4 (1994) proposes a method of first detecting a vehicle and determining that the detected vehicle is an interrupting vehicle when the detected vehicle sufficiently overlaps a traveling lane area. This method requires accurate vehicle detection, but it is difficult to detect the vehicle accurately.

【0011】[0011]

【発明が解決しようとする課題】前述のように、単一の
TVカメラを用いる第2の方式においては、割り込み車
両の検出のために車両の正確な検出が必要である。
As described above, in the second method using a single TV camera, accurate detection of a vehicle is necessary to detect an interrupting vehicle.

【0012】しかし、この車両の正確な検出は、非常に
困難である。
However, accurate detection of this vehicle is very difficult.

【0013】そこで本発明では、以上のような点を考慮
して、車両を正確に検出するのでなく、自車両の走行し
ているレーン、または、自車両の走行が予測される領域
に割り込んでくる他車両の走行軌跡を、車両候補領域を
追跡することにより求め、その走行軌跡から割り込み車
両を検出する画像処理装置及びその方法を提供すること
を目的とする。
Therefore, in the present invention, in consideration of the above points, the vehicle is not accurately detected, but is interrupted in the lane in which the vehicle is traveling or in the area where the vehicle is predicted to travel. It is an object of the present invention to provide an image processing apparatus and a method for obtaining a traveling locus of another vehicle coming in by tracing a vehicle candidate area and detecting an interrupting vehicle from the traveling locus.

【0014】[0014]

【課題を解決するための手段】請求項1の発明は、自車
両に搭載された画像入力装置により例えば、単眼で撮影
されて取得される時系列画像を取り込む画像取得手段
と、前記自車両の走行する範囲であって、かつ、他車両
が割り込んでくると前記自車両が危険である範囲を危険
領域として、前記時系列画像に対して前記危険領域の範
囲の基準境界線を設定する基準境界線設定手段と、他車
両と推定される全部、または、一部の領域である車両候
補領域を、前記基準境界線を境界にして前記危険領域の
外側の領域である車両追跡開始領域に設定する候補領域
設定手段と、前記車両候補領域の走行軌跡を前記時系列
画像に基づいて推定する走行軌跡推定手段と、前記推定
した車両候補領域の走行軌跡が前記基準境界線に対して
所定の割り込み条件を持つとき、前記車両候補領域を割
り込み車両として判定する割り込み車両判定手段と、を
具備することを特徴とする割り込み車両検出装置であ
る。
According to a first aspect of the present invention, there is provided image acquisition means for capturing a time-series image obtained by, for example, monocular photography by an image input device mounted in the vehicle, and the vehicle of the vehicle. A reference boundary that sets a reference boundary line of the range of the dangerous area with respect to the time-series image as a dangerous area that is a range in which the vehicle is in danger when another vehicle interrupts The line setting means and the vehicle candidate regions that are all or some of the regions estimated to be other vehicles are set as the vehicle tracking start region that is the region outside the dangerous region with the reference boundary line as a boundary. Candidate region setting means, traveling locus estimation means for estimating a traveling locus of the vehicle candidate region based on the time-series image, and the estimated traveling locus of the vehicle candidate region is a predetermined interrupt condition with respect to the reference boundary line. When holding is an interrupt vehicle detecting apparatus characterized by comprising, an interrupt vehicle determining unit that determines the vehicle candidate region as an interrupt vehicle.

【0015】請求項2の発明は、前記割り込み車両判定
手段は、前記車両候補領域の走行軌跡と前記基準境界線
が交わるという割り込み条件、または、前記車両候補領
域の走行軌跡の延長線が前記基準境界線と所定の角度範
囲を持って交わるという割り込み条件の少なくともどち
らか一方の割り込み条件が具備されたときに、前記車両
候補領域を割り込み車両と判定することを特徴とする請
求項1記載の割り込み車両検出装置である。
According to a second aspect of the present invention, the interrupting vehicle determining means determines that an interrupting condition that the traveling locus of the vehicle candidate area intersects with the reference boundary line or an extension line of the traveling locus of the vehicle candidate area is the reference. 2. The interrupt according to claim 1, wherein the vehicle candidate region is determined to be an interrupting vehicle when at least one of the interrupting conditions of intersecting the boundary line with a predetermined angle range is satisfied. It is a vehicle detection device.

【0016】請求項3の発明は、前記候補領域設定手段
は、前記車両追跡開始領域にエッジ検出フィルタを配置
することにより特定方向のエッジ強度分布を求め、その
求めたエッジ強度分布のピーク位置を前記特定方向のエ
ッジ位置とするものであり、かつ、前記エッジ検出フィ
ルタを前記車両追跡開始領域に配置するときに、画像上
の無限遠点である消失点からの距離が大きい程に前記エ
ッジ検出フィルタの適用領域を大きくするエッジ検出手
段と、前記エッジ位置に前記車両候補領域を設定すると
共に、その車両候補領域の大きさを前記消失点からの距
離や前記基準境界線間の距離に応じた大きさに設定する
車両候補領域設定手段と、を具備することを特徴とする
請求項1または2記載の割り込み車両検出装置である。
According to a third aspect of the present invention, the candidate area setting means obtains an edge intensity distribution in a specific direction by arranging an edge detection filter in the vehicle tracking start area, and determines a peak position of the obtained edge intensity distribution. The edge position is set to the specific direction, and when the edge detection filter is arranged in the vehicle tracking start area, the edge detection is performed as the distance from the vanishing point, which is the infinity point on the image, increases. Edge detection means for enlarging the filter application area and the vehicle candidate area is set at the edge position, and the size of the vehicle candidate area is determined according to the distance from the vanishing point or the distance between the reference boundary lines. 3. An interrupting vehicle detection device according to claim 1 or 2, further comprising: a vehicle candidate area setting means for setting a size.

【0017】請求項4の発明は、前記走行軌跡追跡手段
は、前記基準境界線に対して所定の割り込み特有の運動
方向を持つ車両候補領域に限定して走行軌跡を推定する
ことを特徴とする請求項1から3のうちいずれか一項に
記載の割り込み車両検出装置である。
According to a fourth aspect of the present invention, the traveling locus tracking means estimates the traveling locus only in a vehicle candidate region having a motion direction peculiar to a predetermined interruption with respect to the reference boundary line. The interrupting vehicle detection device according to any one of claims 1 to 3.

【0018】請求項5の発明は、自車両に搭載された画
像入力装置により例えば、単眼で撮影されて取得される
時系列画像を取り込む画像取得ステップと、前記自車両
の走行する範囲であって、かつ、他車両が割り込んでく
ると前記自車両が危険である範囲を危険領域として、前
記時系列画像に対して前記危険領域の範囲の基準境界線
を設定する基準境界線設定ステップと、他車両と推定さ
れる全部、または、一部の領域である車両候補領域を、
前記基準境界線を境界にして前記危険領域の外側の領域
である車両追跡開始領域に設定する候補領域設定ステッ
プと、前記車両候補領域の走行軌跡を前記時系列画像に
基づいて推定する走行軌跡推定ステップと、前記推定し
た車両候補領域の走行軌跡が前記基準境界線に対して所
定の割り込み条件を持つとき、前記車両候補領域を割り
込み車両として判定する割り込み車両判定ステップと、
を具備することを特徴とする割り込み車両検出方法であ
る。
According to a fifth aspect of the present invention, there is provided an image acquisition step of capturing a time-series image captured by, for example, a single eye by an image input device mounted on the host vehicle, and a traveling range of the host vehicle. And, a reference boundary line setting step of setting a reference boundary line of the range of the dangerous area with respect to the time-series image, with a range in which the own vehicle is dangerous when another vehicle comes in, as a dangerous area, The vehicle candidate area, which is all or part of the area estimated to be the vehicle,
A candidate area setting step of setting a vehicle tracking start area, which is an area outside the dangerous area with the reference boundary as a boundary, and a travel trajectory estimation for estimating a travel trajectory of the vehicle candidate area based on the time-series image. An interrupting vehicle determining step of determining the vehicle candidate area as an interrupting vehicle when the estimated traveling path of the vehicle candidate area has a predetermined interrupting condition with respect to the reference boundary line;
The method for detecting an interrupting vehicle is characterized by comprising:

【0019】請求項6の発明は、自車両に搭載された画
像入力装置により例えば、単眼で撮影されて取得される
時系列画像を取り込む画像取得機能と、前記自車両の走
行する範囲であって、かつ、他車両が割り込んでくると
前記自車両が危険である範囲を危険領域として、前記時
系列画像に対して前記危険領域の範囲の基準境界線を設
定する基準境界線設定機能と、他車両と推定される全
部、または、一部の領域である車両候補領域を、前記基
準境界線を境界にして前記危険領域の外側の領域である
車両追跡開始領域に設定する候補領域設定機能と、前記
車両候補領域の走行軌跡を前記時系列画像に基づいて推
定する走行軌跡推定機能と、前記推定した車両候補領域
の走行軌跡が前記基準境界線に対して所定の割り込み条
件を持つとき、前記車両候補領域を割り込み車両として
判定する割り込み車両判定機能と、をコンピュータによ
って実現することを特徴とする割り込み車両検出方法の
プログラムである。
According to a sixth aspect of the present invention, there is provided an image acquisition function of, for example, a time-series image captured and acquired by a single eye by an image input device mounted on the host vehicle, and a traveling range of the host vehicle. , And a reference boundary line setting function for setting a reference boundary line of the range of the dangerous area with respect to the time-series image, with a range in which the own vehicle is dangerous when another vehicle comes in All or a vehicle candidate area that is estimated to be a vehicle, a candidate area setting function that sets a vehicle tracking start area that is an area outside the dangerous area with the reference boundary as a boundary, A traveling locus estimating function for estimating a traveling locus of the vehicle candidate region based on the time-series image; and a case where the estimated traveling locus of the vehicle candidate region has a predetermined interruption condition with respect to the reference boundary line, A program interrupt vehicle detecting method characterized by the determining interrupt vehicle determination function both candidate regions as an interrupt vehicle, the realized by a computer.

【0020】本発明は、車両に搭載された画像入力装置
により例えば、単眼で取得される時系列画像から、車両
領域候補を設定して、その車両領域候補を追跡すること
により車両の移動軌跡を計算して、割り込み車両である
かどうかを判定する。
The present invention sets a vehicle area candidate from a time-series image acquired by a single eye by an image input device mounted on the vehicle, and tracks the vehicle area candidate by tracking the vehicle area candidate. It is calculated to determine whether the vehicle is an interrupting vehicle.

【0021】追跡するときに割り込み車両特有の割り込
み条件を用いることにより、安定な追跡を実現すること
ができて、処理時間を小さくすることができる。
By using the interruption condition peculiar to the interruption vehicle at the time of tracking, stable tracking can be realized and the processing time can be shortened.

【0022】また、車両を認識することなく、割り込み
車両特有の特徴を用いて追跡することによって、割り込
み車両を検出することができる。
Further, an interrupting vehicle can be detected by tracking the vehicle using a characteristic peculiar to the interrupting vehicle without recognizing the vehicle.

【0023】[0023]

【発明の実施の形態】本実施形態では、他車両が、自車
両の走行している領域、または自車両の走行が予測され
る領域に進入する動きを持っていることに着目する。す
なわち、割り込んでくる車両が、自車両の走行している
領域、自車両の停止している領域、または、自車両の走
行が予定される領域の境界線に対して、画像上における
車両の走行軌跡が交わっている状態であることや、交わ
るような動きを持っている場合、割り込み車両の存在及
び画像上の位置を検出する。画像上における車両の走行
軌跡は、車両候補領域を追跡することにより計算され
る。
DESCRIPTION OF THE PREFERRED EMBODIMENTS In the present embodiment, attention is paid to the fact that another vehicle has a movement to enter a region where the own vehicle is traveling or a region where the own vehicle is predicted to be traveling. In other words, the vehicle that is interrupting the vehicle travels on the image with respect to the boundary line of the area where the vehicle is traveling, the area where the vehicle is stopped, or the area where the vehicle is scheduled to travel. If the trajectories are intersecting or if there is a movement that intersects, the presence of the interrupting vehicle and the position on the image are detected. The traveling locus of the vehicle on the image is calculated by tracking the vehicle candidate area.

【0024】[0024]

【実施例】以下、図1から図15を参照して本発明の実
施形態を具体的に実現する一実施例を説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment for specifically realizing the embodiment of the present invention will be described below with reference to FIGS.

【0025】図1に本実施例の割り込み車両検出装置の
基本的な構成例を示す。
FIG. 1 shows a basic configuration example of an interrupting vehicle detection device of this embodiment.

【0026】図1に示すように、割り込み車両検出装置
は、画像入力部1、処理領域設定部2、候補領域設定部
3、走行軌跡推定部4、割り込み判定部5とより構成さ
れ、これら各部1〜5の機能は、コンピュータに記憶さ
れたプログラムによって実現される。
As shown in FIG. 1, the interrupting vehicle detection device is composed of an image input section 1, a processing area setting section 2, a candidate area setting section 3, a running locus estimating section 4 and an interrupt determining section 5, and each of these sections. The functions 1 to 5 are realized by the program stored in the computer.

【0027】自車両に取り付けられた車両周辺の画像を
取得可能な装置(例えば、1台のTVカメラ)である画
像入力部1によって、単眼で撮影された時系列画像を取
得する。
A time-series image captured by a single eye is acquired by the image input unit 1 which is a device (for example, one TV camera) capable of acquiring an image around the vehicle attached to the vehicle.

【0028】この単眼で撮影された時系列画像から、他
車両が割り込みであるかどうか判定するために、自車両
の走行に危険である領域(以下、危険領域という)を画
像内に処理領域設定部2により領域を設定する。
From the time-series image captured by this monocular, in order to determine whether or not another vehicle is interrupting, a region (hereinafter referred to as a dangerous region) that is dangerous for the own vehicle to travel is set in the image as a processing region. The area is set by the unit 2.

【0029】また、割り込み車両の候補を検出するため
に追跡開始領域を画像内に領域を設定する。
Further, a tracking start area is set in the image in order to detect a candidate for an interrupting vehicle.

【0030】なお、「割り込み車両」とは、自車両が走
行している領域、前記自車両が停止している領域、また
は、前記自車両の走行が予測される領域に侵入してくる
車両をいう。
The "interrupting vehicle" is a vehicle that enters the area where the host vehicle is traveling, the area where the host vehicle is stopped, or the area where the host vehicle is predicted to travel. Say.

【0031】(a)処理領域設定部2 図2に示すように、処理領域設定部2は、走行レーン検
出部21、基準境界線設定部22からなる。
(A) Processing Area Setting Unit 2 As shown in FIG. 2, the processing area setting unit 2 comprises a traveling lane detection unit 21 and a reference boundary line setting unit 22.

【0032】(a−1)走行レーン検出部21 割り込み車両が走行レーンの境界線と交わるときを割り
込みであると判断するため、自車両が現在、走行してい
るレーンを検出する。すなわち、自車両は道路を走行し
ているので、白線検出の結果を用いて、白線を走行レー
ンの境界線とする。なお、自車両は停止してもよい。
(A-1) Traveling lane detection unit 21 In order to determine that an interrupting vehicle is an interrupt when the vehicle crosses the boundary line of the traveling lane, the lane in which the vehicle is currently traveling is detected. That is, since the host vehicle is traveling on the road, the white line is used as the boundary line of the traveling lane using the result of the white line detection. The host vehicle may be stopped.

【0033】また、検出された2本の白線の交点を消失
点とする。
The intersection of the two detected white lines is taken as the vanishing point.

【0034】この「消失点」とは、画像上における無限
遠点のことである。白線検出としては、特開平7−89
367による方法など様々な手法が提案されていて、ど
のような手法を用いても良い。
The "vanishing point" is the point at infinity on the image. Japanese Patent Laid-Open No. 7-89 discloses white line detection.
Various methods such as the method according to 367 have been proposed, and any method may be used.

【0035】(a−2)基準境界線設定部22 割り込み車両は、自車両前方の近い距離において走行レ
ーンの外側から進入してくるものである。
(A-2) Reference boundary line setting section 22 The interrupting vehicle comes in from the outside of the traveling lane at a short distance in front of the host vehicle.

【0036】そこで、図6に示すように、自車両からあ
る距離までの走行レーンに挟まれた領域を、危険領域と
設定する。
Therefore, as shown in FIG. 6, the area sandwiched between the traveling lanes up to a certain distance from the vehicle is set as the dangerous area.

【0037】また、危険領域の外側の領域を「車両追跡
開始領域」として設定する。
An area outside the dangerous area is set as a "vehicle tracking start area".

【0038】さらに、危険領域の左右の境界線を「基準
境界線」として設定する。
Further, the left and right boundary lines of the dangerous area are set as "reference boundary lines".

【0039】このときの車両追跡開始領域の幅は、消失
点に近づくにつれて幅が小さくなるように設定される。
The width of the vehicle tracking start area at this time is set so that the width becomes smaller as it approaches the vanishing point.

【0040】(b)候補領域設定部3 図3に示すように、候補領域設定部3は、エッジ検出部
31、車両候補領域設定部32からなる。
(B) Candidate Area Setting Section 3 As shown in FIG. 3, the candidate area setting section 3 comprises an edge detecting section 31 and a vehicle candidate area setting section 32.

【0041】ところで、車両は、垂直・水平の線分が多
い。したがって、垂直・水平方向を持つエッジが多い領
域が車両領域である可能性が高い。そこで、垂直方向ま
たは、水平方向のエッジに注目して、エッジ検出し、そ
の密度が高い領域を「車両候補領域」として設定する。
By the way, a vehicle has many vertical and horizontal line segments. Therefore, there is a high possibility that the region with many edges having vertical and horizontal directions is the vehicle region. Therefore, the edge in the vertical direction or the horizontal direction is noticed, the edge is detected, and the area having a high density is set as the “vehicle candidate area”.

【0042】(b−1)エッジ検出部31 車両候補領域を設定するために水平・垂直エッジ成分が
必要となるので、エッジ検出部31によりエッジ検出を
行う。
(B-1) Edge detection section 31 Since the horizontal and vertical edge components are required to set the vehicle candidate area, the edge detection section 31 performs edge detection.

【0043】車両が走行している環境では、雨、影、照
明変動など環境変化が激しいことがあるので、従来のS
obelフィルタのような画像の局所情報を用いたエッ
ジ検出ではノイズの影響を受けやすく、望ましい結果が
得られないことが多い。
In the environment in which the vehicle is running, environmental changes such as rain, shadows, and lighting fluctuations may occur drastically.
Edge detection using local information of an image like an obel filter is easily affected by noise, and a desired result is often not obtained.

【0044】そこで、“Edge Extractio
n Method Based on Separab
ility of ImageFeatures,IE
ICE TRANS.INF.& SYST.,VO
L.E78−D,NO.12DECEMBER 199
5”において提案されている、分離度フィルタを用いた
エッジ検出を用いる。
Therefore, "Edge Extraction"
n Method Based on Separab
ility of Image Features, IE
ICE TRANS. INF. & SYS. , VO
L. E78-D, NO. 12DECEMBER 199
The edge detection using the separability filter proposed in 5 "is used.

【0045】このエッジ検出手法は、ノイズの影響を受
けにくく特徴点の輝度差に依存しないで求まる。図7に
おいて、分離度ηとは、判別分析により領域1と2にお
ける内部情報(例えば輝度)の差を表す量で、この分離
度を用いたエッジ検出とは、以下のような式を用いて処
理する。
This edge detection method is not easily affected by noise and can be obtained without depending on the brightness difference of the feature points. In FIG. 7, the degree of separation η is an amount that represents the difference between internal information (for example, brightness) in the regions 1 and 2 by discriminant analysis, and the edge detection using this degree of separation uses the following formula. To process.

【0046】[0046]

【数1】 [Equation 1]

【数2】 [Equation 2]

【数3】 ここで、但し、ηは領域1内の画像数、ηは領
域2内の画像数、σは領域全体の分散値、P
領域1の平均輝度値、Pは領域2の平均輝度値、P
は領域全体の平均輝度値、Pは画像における位
置iの輝度値。分離度ηは0から1の範囲の値を取る。
[Equation 3] Where η1Is the number of images in region 1, ηTwoIs the territory
Number of images in area 2, σTIs the variance of the entire region, P1Is
Area 1 average brightness value, PTwoIs the average brightness value of region 2, P
mIs the average brightness value of the entire region, PiIs the position in the image
The brightness value of the position i. The degree of separation η takes a value in the range of 0 to 1.

【0047】この分離度ηを領域1と2の境界線のエッ
ジ強度とする。また、領域1と2を合わせて、分離度フ
ィルタの適用領域とする。
This degree of separation η is taken as the edge strength of the boundary line between regions 1 and 2. Further, the areas 1 and 2 are combined to be an application area of the separability filter.

【0048】なお、エッジ検出に関しては、様々な手法
が提案されており、分離度フィルタによるエッジ検出手
法に限定されず、任意のエッジ検出手法を用いることが
できる。
Various techniques have been proposed for edge detection, and the edge detection technique is not limited to the edge detection technique using the separability filter, and any edge detection technique can be used.

【0049】処理領域設定部2で設定した車両追跡開始
領域に対して、図8(a)に示すように分離度フィルタ
を配置して分離度を求め、そのフィルタにおける中央の
位置を求めるエッジ強度とした。
Edge strength for obtaining a separation degree by arranging a separation degree filter as shown in FIG. 8A for the vehicle tracking start area set by the processing area setting unit 2 and for obtaining the center position of the filter. And

【0050】分離度フィルタの大きさは、幅に関して
は、消失点に近づくにつれて幅が小さくなるように設定
される。
The size of the separability filter is set so that the width becomes smaller as it approaches the vanishing point.

【0051】水平エッジの場合は、図9のような型の分
離度フィルタを消失点に向かって密に配置して、水平エ
ッジを求める。さらに、消失点に向かってエッジ強度の
ピーク検出を行い、ピーク位置をエッジの位置とした。
例えば、図8(b)のような、横軸が水平エッジ強度、
縦軸が位置を表すグラフがある場合、位置方向にある閾
値以上のピーク値をもつ場所を検出して、その位置を水
平エッジが存在する位置とする。
In the case of horizontal edges, separability filters of the type shown in FIG. 9 are densely arranged toward the vanishing point to find horizontal edges. Furthermore, the peak of the edge intensity was detected toward the vanishing point, and the peak position was set as the edge position.
For example, as shown in FIG. 8B, the horizontal axis represents the horizontal edge strength,
When there is a graph in which the vertical axis represents a position, a position having a peak value equal to or greater than a threshold value in the position direction is detected and the position is set as a position where a horizontal edge exists.

【0052】垂直エッジの場合は、図10のような型の
分離度フィルタを用いて、水平エッジの場合と同様に行
う。
In the case of a vertical edge, the same process as in the case of a horizontal edge is performed using a separability filter of the type shown in FIG.

【0053】(b−2)車両候補領域設定部32 車両は、縦方向、横方向の線分を多く含むので、エッジ
検出部31で検出されたエッジ位置周辺に車両候補領域
を設定する。
(B-2) Vehicle candidate area setting unit 32 Since the vehicle includes many vertical and horizontal line segments, the vehicle candidate area is set around the edge position detected by the edge detecting unit 31.

【0054】図11に示すように、車両追跡開始領域内
において、太線の位置にエッジが検出されたとする。す
なわち、水平エッジの場合は、エッジ位置より画像上で
上の領域に、垂直エッジの場合は、エッジ位置を横方向
の中心とした領域を、車両候補領域と設定する。
As shown in FIG. 11, it is assumed that an edge is detected at the position of the thick line in the vehicle tracking start area. That is, in the case of a horizontal edge, an area above the edge position on the image is set, and in the case of a vertical edge, the area with the edge position as the lateral center is set as the vehicle candidate area.

【0055】このときの車両候補領域は、一台の車両に
一個とは限らず、複数個設定することが可能である。
At this time, the number of vehicle candidate areas is not limited to one vehicle, but a plurality of vehicle candidate areas can be set.

【0056】ここで、車両候補領域の大きさは、幅に関
しては、消失点に近づくにつれて幅が小さくなるように
設定される。
Here, the size of the vehicle candidate area is set so that the width becomes smaller as it approaches the vanishing point.

【0057】(c)走行軌跡推定部4 図4に示すように、走行軌跡推定部4は、候補領域追跡
部41、走行軌跡計算部42からなる。
(C) Traveling locus estimating unit 4 As shown in FIG. 4, the traveling locus estimating unit 4 is composed of a candidate area tracking unit 41 and a traveling locus calculating unit 42.

【0058】(c−1)候補領域追跡部41 図5に示すように、候補領域追跡部41は、マッチング
部411、割り込み運動追跡部412よりなる。
(C-1) Candidate Area Tracking Unit 41 As shown in FIG. 5, the candidate area tracking unit 41 comprises a matching unit 411 and an interrupting motion tracking unit 412.

【0059】(c−1−1)マッチング部411 マッチング部411で、フレーム間の画像で車両候補領
域に対してテンプレートマッチングを行う。テンプレー
トマッチングは、2つの画像が与えられるとき、両者を
重ね合わせてその違いを見れば、両者が同じものか否か
を判断することができるというような考えに基づく処理
である。
(C-1-1) Matching Unit 411 The matching unit 411 performs template matching on a vehicle candidate region with an image between frames. Template matching is a process based on the idea that when two images are given, it is possible to determine whether or not they are the same by superimposing the two and seeing the difference.

【0060】このとき、2つの画像間における違いを様
々な尺度で表すことができる。よく使われる尺度として
は、輝度値の残差絶対値和(SAD)や画像間の正規化
相関係数(CC)や“Object Search U
sing Orientation Code Mat
ching,IAPR Workshop on Ma
chine Vision Application
(MVA2000),NOV.28−30,2000”
で提案されている方向符号法(OCM)などがある。
At this time, the difference between the two images can be represented by various scales. Commonly used scales are sums of residual absolute values of luminance values (SAD), normalized correlation coefficients (CC) between images, and “Object Search U”.
sing Orientation Code Mat
ching, IAPR Workshop on Ma
chine Vision Application
(MVA2000), NOV. 28-30, 2000 "
There is a direction coding method (OCM) proposed in.

【0061】なお、マッチングの手法として、この手法
に限定されるわけではなく、装置や必要とされる精度に
応じて、どのようなマッチング手法を用いてもよい。
The matching method is not limited to this method, and any matching method may be used depending on the apparatus and the required accuracy.

【0062】このマッチング部411により、車両候補
領域がどこに動いたかが、画像上の座標値で出力され
る。
The matching section 411 outputs where the vehicle candidate area has moved, as coordinate values on the image.

【0063】(c−1−2)割り込み運動検出部412 割り込み運動検出部412では、割り込み運動を持って
いる車両候補領域のみを追跡して、それ以外の場合、つ
まり下記の(i)マッチングが失敗している場合、(i
i)、(iii)所定の割り込み特有の方向を持ってい
ない場合は、追跡を止めて車両候補領域を破棄する。こ
のように、不要な車両候補領域を破棄するのは、追跡す
る車両候補領域の数を減らして、計算の負担を軽くする
ためである。
(C-1-2) Interruptive Motion Detection Unit 412 The interrupted motion detection unit 412 tracks only vehicle candidate regions having an interrupted motion, and in other cases, that is, the following (i) matching is performed. If it fails, (i
i) and (iii) If the vehicle does not have a direction specific to a predetermined interruption, the tracking is stopped and the vehicle candidate area is discarded. In this way, the unnecessary vehicle candidate areas are discarded because the number of vehicle candidate areas to be tracked is reduced and the calculation load is lightened.

【0064】まず、他車両が右側から割り込んでくるこ
とを想定する。
First, it is assumed that another vehicle cuts in from the right side.

【0065】(i)マッチングが失敗している場合 マッチング部411における車両候補領域の対応付け
は、必ずしも正しいとは限らない。そこで、マッチング
部411の処理から求まる、車両候補領域内における残
差絶対値和の値を用いて、マッチングの信頼性を評価す
る。
(I) When Matching Fails The matching of vehicle candidate areas in the matching unit 411 is not always correct. Therefore, the reliability of matching is evaluated using the value of the residual sum of absolute values in the vehicle candidate area, which is obtained from the processing of the matching unit 411.

【0066】つまり、残差絶対値和の値がある値より小
さいときは、そのマッチングは成功している、大きいと
きは、マッチングが失敗しているとする。
That is, if the value of the residual sum of absolute values is smaller than a certain value, the matching is successful, and if it is larger, the matching is unsuccessful.

【0067】マッチングが失敗している場合は、追跡を
打ち切り、車両候補領域を破棄する。
If the matching is unsuccessful, the tracking is terminated and the vehicle candidate area is discarded.

【0068】(ii)短いフレーム間において、所定の
割り込み特有の方向を持っていない場合 マッチング部411における車両候補領域の対応付けが
成功しているとき、画像上の車両候補領域の運動方向を
求める。
(Ii) In the case of not having a predetermined interruption-specific direction between short frames When the matching of the vehicle candidate areas in the matching unit 411 has succeeded, the motion direction of the vehicle candidate areas on the image is obtained. .

【0069】図12に示すように、画像の垂直の上方向
を0度とすると、短いフレーム間(例えば、1フレーム
間)の車両候補領域の運動方向θが、次の式を満たすと
き、割り込み特有の方向を持っているとし、追跡が成功
しているとする。それ以外のときは、追跡が失敗してい
るとする。
As shown in FIG. 12, assuming that the vertical direction of the image is 0 degrees, when the motion direction θ of the vehicle candidate region between short frames (for example, one frame) satisfies the following equation, an interrupt occurs. Suppose it has a specific direction and tracking is successful. Otherwise, it is assumed that the tracking has failed.

【0070】θ=<θ=<θ 但し、θは画像における垂直の上方向の角度であ
り、θは基準境界線と平行をなす角度である。
Θ 1 = <θ = <θ 2 where θ 1 is the vertical upward angle in the image, and θ 2 is the angle parallel to the reference boundary line.

【0071】追跡が失敗しているときは、追跡を打ち切
り、車両候補領域を破棄する。追跡方向を限定すること
によって、より安定した追跡結果を得ることができる。
If the tracking has failed, the tracking is terminated and the vehicle candidate area is discarded. By limiting the tracking direction, a more stable tracking result can be obtained.

【0072】このような処理を毎フレームごとに行え
ば、車両候補領域の移動履歴がわかる。
If such processing is performed for each frame, the movement history of the vehicle candidate area can be known.

【0073】(iii)長いフレーム間において所定の
割り込み特有の方向を持っていない場合 短いフレーム間だけではなく、長いフレーム間において
も追跡方向を限定する。
(Iii) When there is no direction specific to a predetermined interrupt between long frames The tracking direction is limited not only between short frames but also between long frames.

【0074】車両候補領域の移動距離が短いと、ピクセ
ル量子化のために、追跡方向の分解能は小さいが、長い
フレーム間追跡して移動距離が長くなると分解能が大き
くなる。そこで、ある車両候補領域に対して、ある長さ
のフレーム間の情報が蓄えられると、追跡を開始した点
の座標と現在の位置座標から追跡方向ベクトルを計算し
て、図13に示すように、画像の垂直の上方向を0度と
すると、追跡方向ベクトルの角度θが、下記の式を満た
すとき、割り込み特有の方向を持っているとし、追跡が
成功しているとする。それ以外のときは、追跡が失敗し
ているとする。そして、追跡が失敗しているときは、追
跡を打ち切り、車両候補領域を破棄する。長いフレーム
間の追跡方向を限定することによって、より安定した追
跡結果を得ることができる。
When the moving distance of the vehicle candidate area is short, the resolution in the tracking direction is small because of pixel quantization, but when the moving distance is long after tracking for a long frame, the resolution becomes large. Therefore, when information of frames of a certain length is stored for a certain vehicle candidate area, a tracking direction vector is calculated from the coordinates of the point where tracking is started and the current position coordinates, and as shown in FIG. Assuming that the vertical upward direction of the image is 0 degree, when the angle θ of the tracking direction vector satisfies the following expression, it has a direction peculiar to interrupt, and tracking is successful. Otherwise, it is assumed that the tracking has failed. When the tracking has failed, the tracking is terminated and the vehicle candidate area is discarded. By limiting the tracking direction between long frames, a more stable tracking result can be obtained.

【0075】θ=<θ=<θ 但し、画像における垂直の上方向の角度を0度とする
と、θは基準境界線と平行をなす角度であり、消失
点方向に向かっている方である。θは、基準境界線
と平行をなす角度であり、θとは逆側である。この
角度の範囲は、追跡方向ベクトルの正確さにより変化
し、正確である場合は、さらに角度範囲を限定しても良
い。また、他車両が左側から割り込んでくる場合も同様
に処理する。
Θ 1 = <θ = <θ 2 However, assuming that the vertical upward angle in the image is 0 °, θ 1 is an angle parallel to the reference boundary line, and is the direction toward the vanishing point. Is. θ 2 is an angle that is parallel to the reference boundary line and is on the opposite side of θ 1 . The range of this angle changes depending on the accuracy of the tracking direction vector, and if it is correct, the range of angles may be further limited. The same process is performed when another vehicle comes in from the left side.

【0076】このように処理することにより、長いフレ
ーム間において所定の割り込み車両特有の運動方向を持
つ追跡方向ベクトルが、安定して求まる。また、毎フレ
ームごとに候補領域設定部3から出力される車両候補領
域は、増加していくが、追跡が失敗している車両候補領
域を破棄することにより増加が抑えられることになり、
処理量を小さくすることができる。
By performing the processing as described above, a tracking direction vector having a motion direction peculiar to a predetermined interrupting vehicle can be stably obtained during a long frame. Further, the vehicle candidate area output from the candidate area setting unit 3 for each frame increases, but the increase is suppressed by discarding the vehicle candidate area for which tracking has failed,
The amount of processing can be reduced.

【0077】(c−2)走行軌跡計算部42 走行軌跡計算部42は、割り込み運動検出部412によ
り求まる車両候補領域の追跡方向ベクトルの履歴から走
行軌跡を計算する。
(C-2) Traveling locus calculation unit 42 The traveling locus calculation unit 42 calculates a traveling locus from the history of the tracking direction vector of the vehicle candidate area obtained by the interruption motion detection unit 412.

【0078】具体的には、図14に示すように、1フレ
ーム目の画像上の追跡を開始した位置座標と、Nフレー
ム目の画像上の車両候補領域の位置座標の2点から走行
軌跡を計算する。
Specifically, as shown in FIG. 14, the running locus is calculated from two points, that is, the position coordinates at which the tracking is started on the image of the first frame and the position coordinates of the vehicle candidate area on the image of the Nth frame. calculate.

【0079】また、フレーム間全ての履歴から多くの点
を用いて、最小2乗法などにより走行軌跡を計算しても
良い。
Further, the running locus may be calculated by the least square method or the like using many points from all the histories between frames.

【0080】(d)割り込み判定部5 上記したように、走行軌跡計算部42で走行軌跡が計算
された車両候補領域は、割り込み車両の確率が高いもの
が残っている。そのため、割り込み判定部5では、走行
軌跡計算部42で計算された車両候補領域の走行軌跡と
基準境界線設定部22で設定された基準境界線を用い
て、割り込みであるかどうかをさらに確実に判定する。
判定条件として2種類を用いる。
(D) Interruption determination unit 5 As described above, the vehicle candidate regions for which the travel locus is calculated by the travel locus calculation unit 42 still have a high probability of an interruption vehicle. Therefore, the interruption determination unit 5 uses the traveling locus of the vehicle candidate region calculated by the traveling locus calculation unit 42 and the reference boundary line set by the reference boundary line setting unit 22 to more surely determine whether or not it is an interruption. judge.
Two kinds of judgment conditions are used.

【0081】(i) 入力された時系列画像上において
車両の走行軌跡が基準境界線に交わっている場合 (ii) 入力された時系列画像上において車両の走行
軌跡の延長線が基準境界線に対して、所定の角度範囲を
持って交わる場合 のどちらか一方の条件を用いて割り込み車両を検出でき
る。
(I) When the running trajectory of the vehicle intersects with the reference boundary line on the input time series image (ii) The extension line of the traveling trajectory of the vehicle becomes the reference boundary line on the input time series image On the other hand, the interrupting vehicle can be detected by using one of the conditions when the vehicle intersects with a predetermined angle range.

【0082】まず、他車両が右側から割り込んでくるこ
とを想定する。
First, assume that another vehicle is cutting in from the right side.

【0083】(ii)の所定の角度範囲とは、図15に
示すように、基準境界線と走行軌跡の延長線のなす角度
θが、割り込みであると判定する角度θと次式の条
件を満たしていることである。
The predetermined angle range of (ii) is, as shown in FIG. 15, the angle θ C between the reference boundary line and the extension line of the traveling locus, which is judged to be an interruption, and the condition of the following equation. Is satisfied.

【0084】θ>=θ このθは、カメラの設置位置などにより変化するの
で、適宜に決定する必要がある。
Θ> = θ c Since this θ C changes depending on the installation position of the camera, etc., it must be determined appropriately.

【0085】また、他車両が左側から割り込んでくる場
合も同様に処理する。
The same process is performed when another vehicle comes in from the left side.

【0086】(1)の場合は、交わっている状態である
から、車両が基準領域に対して進入を開始するときから
割り込みであると判定される。
In the case of (1), since the vehicle is in an intersecting state, it is determined that the vehicle is interrupted when the vehicle starts entering the reference area.

【0087】(ii)の場合は、自車両の危険領域に侵
入する前の、早い段階で判定することができる。
In the case of (ii), the determination can be made at an early stage before entering the dangerous area of the vehicle.

【0088】また、割り込みであると判定する角度は、
カメラの設置位置などにより変化するので、適宜に決定
する必要がある。この2つの判定条件のどちらかを満た
していれば割り込み車両と判定する。また、画像上にお
ける割り込み車両の位置は、他車両の走行軌跡または延
長線と基準境界線との交点である。
The angle which is judged to be an interrupt is
Since it changes depending on the installation position of the camera, etc., it needs to be determined appropriately. If either of these two determination conditions is satisfied, it is determined that the vehicle is an interruption vehicle. Further, the position of the interrupting vehicle on the image is the intersection of the traveling locus or extension line of another vehicle and the reference boundary line.

【0089】<変更例1>本発明は、前記実施例で記載
した内容に限定されるものではない。
<Modification 1> The present invention is not limited to the contents described in the above embodiments.

【0090】例えば、走行レーン検出部21において、
自車が走行しているレーンの境界線を検出する手法以外
の、他の手法を用いても良い。
For example, in the traveling lane detector 21,
A method other than the method of detecting the boundary line of the lane in which the vehicle is traveling may be used.

【0091】例えば、自車両の速度、ハンドル舵角から
自車両の走行が予測される領域の境界線を求めて、それ
を走行レーンとみなして用い、同様の処理をしても良
い。
For example, the same process may be performed by obtaining the boundary line of the region where the traveling of the own vehicle is predicted from the velocity of the own vehicle and the steering angle of the steering wheel, and using it as the traveling lane.

【0092】<変更例2>割り込み判定部5において、
割り込みであるかどうか判定する条件は、入力された時
系列画像上における手法と限られず、他の手法を用いて
も良い。
<Modification 2> In the interrupt determination section 5,
The condition for determining whether or not it is an interrupt is not limited to the method on the input time-series image, and another method may be used.

【0093】例えば、画像を道路の真上から見た視点の
画像である逆投影画像に変換してから、(i) 逆投影
画像上において車両の走行軌跡が逆投影画像上に設定し
た基準 境界線に交わっている場合 (ii) 逆投影画像上において車両の走行軌跡の延長
線が逆投影画像上に設定した基準境界線に対して、所定
の角度範囲を持って交わる場合 を判定条件としても良い。
For example, after the image is converted into a back projection image which is an image of a viewpoint seen from directly above the road, (i) the reference locus of the vehicle running trajectory on the back projection image is set on the back projection image. If it intersects with the line (ii), the extension condition of the running trajectory of the vehicle on the back projection image intersects with the reference boundary line set on the back projection image with a predetermined angle range as a determination condition. good.

【0094】このように、本発明は部分的な要素処理の
置き換えなどにより様々な拡張が可能である。
As described above, the present invention can be variously expanded by replacing partial element processing.

【0095】[0095]

【発明の効果】本発明によれば、車両に搭載された画像
入力装置により取得される時系列画像から割り込み車両
を安定に検出することができ、画像情報に基づく機器制
御などの技術の実現に大きく貢献する。
According to the present invention, it is possible to stably detect an interrupting vehicle from a time series image acquired by an image input device mounted on the vehicle, and to realize a technique such as device control based on image information. Make a big contribution.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施形態の構成を示すブロック図で
ある。
FIG. 1 is a block diagram showing a configuration of an embodiment of the present invention.

【図2】図1の処理領域設定部の一実施形態を示すブロ
ック図である。
FIG. 2 is a block diagram showing an embodiment of a processing area setting unit in FIG.

【図3】図1の候補領域設定部の一実施形態を示すブロ
ック図である。
FIG. 3 is a block diagram showing an embodiment of a candidate area setting unit in FIG.

【図4】図1の走行軌跡推定部の一実施形態を示すブロ
ック図である。
FIG. 4 is a block diagram showing an embodiment of the traveling locus estimation unit in FIG.

【図5】図4の候補領域追跡部の一実施形態を示すブロ
ック図である。
5 is a block diagram showing an embodiment of the candidate region tracking unit of FIG.

【図6】処理領域を設定する手法の説明図である。FIG. 6 is an explanatory diagram of a method of setting a processing area.

【図7】分離度フィルタの説明図である。FIG. 7 is an explanatory diagram of a separability filter.

【図8】分離度フィルタによるエッジ検出を行う手法の
説明図である。
FIG. 8 is an explanatory diagram of a method of performing edge detection using a separability filter.

【図9】エッジ検出におけるフィルタの説明図である。FIG. 9 is an explanatory diagram of a filter in edge detection.

【図10】エッジ検出におけるフィルタの説明図であ
る。
FIG. 10 is an explanatory diagram of a filter in edge detection.

【図11】候補領域を設定する手法の説明図である。FIG. 11 is an explanatory diagram of a method of setting a candidate area.

【図12】追跡方向を限定する手法の説明図である。FIG. 12 is an explanatory diagram of a method of limiting a tracking direction.

【図13】追跡方向を限定する手法の説明図である。FIG. 13 is an explanatory diagram of a method of limiting a tracking direction.

【図14】走行軌跡を計算する手法の説明図である。FIG. 14 is an explanatory diagram of a method of calculating a traveling locus.

【図15】割り込み判定条件の説明図である。FIG. 15 is an explanatory diagram of interrupt determination conditions.

【符号の説明】[Explanation of symbols]

1 画像入力部 2 処理領域設定部 3 候補領域設定部 4 走行軌跡推定部 5 割り込み判定部 21 走行レーン検出部 22 基準境界線設定部 31 エッジ検出部 32 車両候補領域設定部 41 候補領域追跡部 42 走行軌跡計算部 411 マッチング部 412 割り込み運動検出部 1 Image input section 2 Processing area setting section 3 Candidate area setting section 4 Running locus estimation unit 5 Interrupt judgment section 21 Running lane detector 22 Standard boundary setting section 31 Edge detector 32 Vehicle candidate area setting unit 41 Candidate area tracking unit 42 Traveling locus calculator 411 Matching unit 412 Interrupt motion detector

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 AA16 AA19 BA02 BA24 DA07 DA15 DB02 DC16 DC19 DC36 5H180 AA01 CC04 CC24 LL01 LL02 LL04 5L096 BA02 BA04 CA04 CA24 DA03 FA06 FA69 HA04    ─────────────────────────────────────────────────── ─── Continued front page    F term (reference) 5B057 AA16 AA19 BA02 BA24 DA07                       DA15 DB02 DC16 DC19 DC36                 5H180 AA01 CC04 CC24 LL01 LL02                       LL04                 5L096 BA02 BA04 CA04 CA24 DA03                       FA06 FA69 HA04

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】自車両に搭載された画像入力装置により撮
影されて取得される時系列画像を取り込む画像取得手段
と、 前記自車両の走行する範囲であって、かつ、他車両が割
り込んでくると前記自車両が危険である範囲を危険領域
として、前記時系列画像に対して前記危険領域の範囲の
基準境界線を設定する基準境界線設定手段と、 他車両と推定される全部、または、一部の領域である車
両候補領域を、前記基準境界線を境界にして前記危険領
域の外側の領域である車両追跡開始領域に設定する候補
領域設定手段と、 前記車両候補領域の走行軌跡を前記時系列画像に基づい
て推定する走行軌跡推定手段と、 前記推定した車両候補領域の走行軌跡が前記基準境界線
に対して所定の割り込み条件を持つとき、前記車両候補
領域を割り込み車両として判定する割り込み車両判定手
段と、 を具備することを特徴とする割り込み車両検出装置。
1. An image acquisition means for capturing a time-series image captured and acquired by an image input device mounted on the host vehicle; and a range within which the host vehicle travels and another vehicle interrupts the vehicle. And a reference boundary line setting means for setting a reference boundary line of the range of the dangerous area with respect to the time-series image, with the area where the own vehicle is dangerous as a dangerous area, all estimated to be other vehicles, or A candidate area setting unit that sets a vehicle candidate area that is a partial area to a vehicle tracking start area that is an area outside the dangerous area with the reference boundary line as a boundary; A traveling locus estimating means for estimating based on a time-series image; and when the estimated traveling locus of the vehicle candidate region has a predetermined interruption condition with respect to the reference boundary line, the vehicle candidate region is regarded as an interruption vehicle. An interrupting vehicle detection device comprising: an interrupting vehicle determining unit.
【請求項2】前記割り込み車両判定手段は、 前記車両候補領域の走行軌跡と前記基準境界線が交わる
という割り込み条件、または、前記車両候補領域の走行
軌跡の延長線が前記基準境界線と所定の角度範囲を持っ
て交わるという割り込み条件の少なくともどちらか一方
の割り込み条件が具備されたときに、前記車両候補領域
を割り込み車両と判定することを特徴とする請求項1記
載の割り込み車両検出装置。
2. The interrupting vehicle determining means is an interrupting condition that a running locus of the vehicle candidate area intersects with the reference boundary line, or an extension line of the running locus of the vehicle candidate area is a predetermined boundary line with the reference boundary line. 2. The interrupting vehicle detection device according to claim 1, wherein the vehicle candidate area is determined to be an interrupting vehicle when at least one of the interrupting conditions of intersecting with an angular range is satisfied.
【請求項3】前記候補領域設定手段は、 前記車両追跡開始領域にエッジ検出フィルタを配置する
ことにより特定方向のエッジ強度分布を求め、その求め
たエッジ強度分布のピーク位置を前記特定方向のエッジ
位置とするものであり、かつ、前記エッジ検出フィルタ
を前記車両追跡開始領域に配置するときに、画像上の無
限遠点である消失点からの距離が大きい程に前記エッジ
検出フィルタの適用領域を大きくするエッジ検出手段
と、 前記エッジ位置に前記車両候補領域を設定すると共に、
その車両候補領域の大きさを前記消失点からの距離や前
記基準境界線間の距離に応じた大きさに設定する車両候
補領域設定手段と、 を具備することを特徴とする請求項1または2記載の割
り込み車両検出装置。
3. The candidate area setting means obtains an edge intensity distribution in a specific direction by arranging an edge detection filter in the vehicle tracking start area, and determines a peak position of the obtained edge intensity distribution as an edge in the specific direction. When the edge detection filter is arranged in the vehicle tracking start area, the area to which the edge detection filter is applied increases as the distance from the vanishing point, which is the point at infinity on the image, increases. An edge detecting means for enlarging, and setting the vehicle candidate area at the edge position,
3. A vehicle candidate area setting means for setting the size of the vehicle candidate area to a size according to the distance from the vanishing point or the distance between the reference boundary lines. The interrupted vehicle detection device described.
【請求項4】前記走行軌跡追跡手段は、 前記基準境界線に対して所定の割り込み特有の運動方向
を持つ車両候補領域に限定して走行軌跡を推定すること
を特徴とする請求項1から3のうちいずれか一項に記載
の割り込み車両検出装置。
4. The running locus tracking means estimates the running locus only in a vehicle candidate region having a motion direction peculiar to a predetermined interruption with respect to the reference boundary line. The interrupted vehicle detection device according to any one of the above.
【請求項5】自車両が走行している領域、前記自車両が
停止している領域、または、前記自車両の走行が予測さ
れる領域に侵入してくる割り込み車両を検出する割り込
み車両検出方法において、 前記自車両に搭載された画像入力装置により単眼で撮影
されて取得される時系列画像を取り込む画像取得ステッ
プと、 前記自車両の走行する範囲であって、かつ、他車両が割
り込んでくると前記自車両が危険である範囲を危険領域
として、前記時系列画像上において前記危険領域の範囲
を示す基準境界線を設定する基準境界線設定ステップ
と、 他車両と推定される全部、または、一部の領域である車
両候補領域を、前記基準境界線を境界にして前記危険領
域の外側の領域である車両追跡開始領域に設定する候補
領域設定ステップと、 前記車両候補領域の走行軌跡を前記時系列画像に基づい
て推定する走行軌跡推定ステップと、 前記推定した車両候補領域の走行軌跡が前記基準境界線
に対して所定の割り込み条件を持つとき、前記車両候補
領域を割り込み車両として判定する割り込み車両判定ス
テップと、 を具備することを特徴とする割り込み車両検出方法。
5. An interrupted vehicle detection method for detecting an interrupted vehicle entering an area in which the own vehicle is traveling, an area in which the own vehicle is stopped, or an area in which the own vehicle is predicted to travel. In the image acquisition step of capturing a time-series image captured and acquired by a single eye by the image input device mounted on the own vehicle, the traveling range of the own vehicle, and another vehicle interrupts And a reference boundary line setting step of setting a reference boundary line indicating the range of the dangerous area on the time-series image, with the area where the own vehicle is dangerous as a dangerous area, all estimated to be other vehicles, or A candidate area setting step of setting a vehicle candidate area, which is a partial area, as a vehicle tracking start area that is an area outside the dangerous area with the reference boundary line as a boundary; A traveling locus estimation step of estimating a traveling locus of a region based on the time-series image; and, when the estimated traveling locus of the vehicle candidate region has a predetermined interruption condition with respect to the reference boundary line, An interrupted vehicle detection method comprising: an interrupted vehicle determination step of determining an interrupted vehicle.
【請求項6】自車両が走行している領域、前記自車両が
停止している領域、または、前記自車両の走行が予測さ
れる領域に侵入してくる割り込み車両を検出する割り込
み車両検出方法をコンピュータによって実現するプログ
ラムにおいて、 前記自車両に搭載された画像入力装置により単眼で撮影
されて取得される時系列画像を取り込む画像取得機能
と、 前記自車両の走行する範囲であって、かつ、他車両が割
り込んでくると前記自車両が危険である範囲を危険領域
として、前記時系列画像上において前記危険領域の範囲
を示す基準境界線を設定する基準境界線設定機能と、 他車両と推定される全部、または、一部の領域である車
両候補領域を、前記基準境界線を境界にして前記危険領
域の外側の領域である車両追跡開始領域に設定する候補
領域設定機能と、 前記車両候補領域の走行軌跡を前記時系列画像に基づい
て推定する走行軌跡推定機能と、 前記推定した車両候補領域の走行軌跡が前記基準境界線
に対して所定の割り込み条件を持つとき、前記車両候補
領域を割り込み車両として判定する割り込み車両判定機
能と、 を実現することを特徴とする割り込み車両検出方法のプ
ログラム。
6. An interrupted vehicle detection method for detecting an interrupted vehicle entering an area in which the own vehicle is traveling, an area in which the own vehicle is stopped, or an area in which the own vehicle is predicted to travel. In a program realized by a computer, an image acquisition function for capturing a time-series image captured and acquired by a single eye by the image input device mounted on the own vehicle, and a traveling range of the own vehicle, and A reference boundary line setting function that sets a reference boundary line indicating the range of the dangerous area on the time-series image as a dangerous area when the own vehicle is in danger when another vehicle comes in A candidate for setting a vehicle candidate area, which is all or a part of the specified area, as a vehicle tracking start area which is an area outside the dangerous area with the reference boundary as a boundary. Area setting function, a traveling locus estimation function for estimating a traveling locus of the vehicle candidate area based on the time-series image, and the estimated traveling locus of the vehicle candidate area has a predetermined interruption condition with respect to the reference boundary line. A program for a method for detecting an interrupted vehicle, which has an interrupting vehicle determination function for determining the vehicle candidate area as an interrupted vehicle when the vehicle has.
JP2002084599A 2002-03-25 2002-03-25 Interrupting vehicle detection device and method Expired - Fee Related JP3656056B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002084599A JP3656056B2 (en) 2002-03-25 2002-03-25 Interrupting vehicle detection device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002084599A JP3656056B2 (en) 2002-03-25 2002-03-25 Interrupting vehicle detection device and method

Publications (2)

Publication Number Publication Date
JP2003281700A true JP2003281700A (en) 2003-10-03
JP3656056B2 JP3656056B2 (en) 2005-06-02

Family

ID=29231859

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002084599A Expired - Fee Related JP3656056B2 (en) 2002-03-25 2002-03-25 Interrupting vehicle detection device and method

Country Status (1)

Country Link
JP (1) JP3656056B2 (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006018751A (en) * 2004-07-05 2006-01-19 Nissan Motor Co Ltd Image processor for vehicle
JP2006048338A (en) * 2004-08-04 2006-02-16 Nissan Motor Co Ltd Mobile object detection apparatus
JP2006072638A (en) * 2004-09-01 2006-03-16 Nissan Motor Co Ltd Apparatus for detecting moving body
JP2008117073A (en) * 2006-11-01 2008-05-22 Fuji Heavy Ind Ltd Interruption vehicle detection device
US8818042B2 (en) 2004-04-15 2014-08-26 Magna Electronics Inc. Driver assistance system for vehicle
US8842176B2 (en) 1996-05-22 2014-09-23 Donnelly Corporation Automatic vehicle exterior light control
US8917169B2 (en) 1993-02-26 2014-12-23 Magna Electronics Inc. Vehicular vision system
CN104350510A (en) * 2012-06-14 2015-02-11 国际商业机器公司 Multi-cue object detection and analysis
JP2015046132A (en) * 2013-08-29 2015-03-12 株式会社デンソー Collision possibility determination apparatus and program
US8993951B2 (en) 1996-03-25 2015-03-31 Magna Electronics Inc. Driver assistance system for a vehicle
US9171217B2 (en) 2002-05-03 2015-10-27 Magna Electronics Inc. Vision system for vehicle
JP2015225546A (en) * 2014-05-28 2015-12-14 本田技研工業株式会社 Object detection device, drive support apparatus, object detection method, and object detection program
KR101593484B1 (en) * 2014-07-10 2016-02-15 경북대학교 산학협력단 Image processing apparatus and method for detecting partially visible object approaching from side using equi-height peripheral mosaicking image, and system for assisting vehicle driving employing the same
US9436880B2 (en) 1999-08-12 2016-09-06 Magna Electronics Inc. Vehicle vision system
US10071676B2 (en) 2006-08-11 2018-09-11 Magna Electronics Inc. Vision system for vehicle
WO2024009583A1 (en) * 2022-07-06 2024-01-11 日立Astemo株式会社 Vehicle control device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05151341A (en) * 1991-11-28 1993-06-18 Nissan Motor Co Ltd Running route detecting device for vehicle
JPH09223235A (en) * 1996-02-19 1997-08-26 Fujitsu Ten Ltd Vehicle recognition device
JPH11232465A (en) * 1998-02-13 1999-08-27 Fujitsu Ltd Mobile object detecting device and program recording medium
JP2000242900A (en) * 1999-02-24 2000-09-08 Mitsubishi Motors Corp Device for detecting interruption vehicle
JP2001023092A (en) * 1999-07-08 2001-01-26 Mitsubishi Motors Corp Monitoring device for vehicle peripheral area
JP2001199260A (en) * 2000-01-20 2001-07-24 Matsushita Electric Ind Co Ltd Inter-vehicle distance controller, vehicle traveling condition display device, vehicle speed control releasing device, and vehicle sudden brake warning device
JP2001216520A (en) * 2000-01-31 2001-08-10 Yazaki Corp Surroundings monitor device for vehicle

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05151341A (en) * 1991-11-28 1993-06-18 Nissan Motor Co Ltd Running route detecting device for vehicle
JPH09223235A (en) * 1996-02-19 1997-08-26 Fujitsu Ten Ltd Vehicle recognition device
JPH11232465A (en) * 1998-02-13 1999-08-27 Fujitsu Ltd Mobile object detecting device and program recording medium
JP2000242900A (en) * 1999-02-24 2000-09-08 Mitsubishi Motors Corp Device for detecting interruption vehicle
JP2001023092A (en) * 1999-07-08 2001-01-26 Mitsubishi Motors Corp Monitoring device for vehicle peripheral area
JP2001199260A (en) * 2000-01-20 2001-07-24 Matsushita Electric Ind Co Ltd Inter-vehicle distance controller, vehicle traveling condition display device, vehicle speed control releasing device, and vehicle sudden brake warning device
JP2001216520A (en) * 2000-01-31 2001-08-10 Yazaki Corp Surroundings monitor device for vehicle

Cited By (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8917169B2 (en) 1993-02-26 2014-12-23 Magna Electronics Inc. Vehicular vision system
US8993951B2 (en) 1996-03-25 2015-03-31 Magna Electronics Inc. Driver assistance system for a vehicle
US8842176B2 (en) 1996-05-22 2014-09-23 Donnelly Corporation Automatic vehicle exterior light control
US9436880B2 (en) 1999-08-12 2016-09-06 Magna Electronics Inc. Vehicle vision system
US10683008B2 (en) 2002-05-03 2020-06-16 Magna Electronics Inc. Vehicular driving assist system using forward-viewing camera
US11203340B2 (en) 2002-05-03 2021-12-21 Magna Electronics Inc. Vehicular vision system using side-viewing camera
US10118618B2 (en) 2002-05-03 2018-11-06 Magna Electronics Inc. Vehicular control system using cameras and radar sensor
US10351135B2 (en) 2002-05-03 2019-07-16 Magna Electronics Inc. Vehicular control system using cameras and radar sensor
US9834216B2 (en) 2002-05-03 2017-12-05 Magna Electronics Inc. Vehicular control system using cameras and radar sensor
US9643605B2 (en) 2002-05-03 2017-05-09 Magna Electronics Inc. Vision system for vehicle
US9555803B2 (en) 2002-05-03 2017-01-31 Magna Electronics Inc. Driver assistance system for vehicle
US9171217B2 (en) 2002-05-03 2015-10-27 Magna Electronics Inc. Vision system for vehicle
US8818042B2 (en) 2004-04-15 2014-08-26 Magna Electronics Inc. Driver assistance system for vehicle
US10015452B1 (en) 2004-04-15 2018-07-03 Magna Electronics Inc. Vehicular control system
US10735695B2 (en) 2004-04-15 2020-08-04 Magna Electronics Inc. Vehicular control system with traffic lane detection
US10187615B1 (en) 2004-04-15 2019-01-22 Magna Electronics Inc. Vehicular control system
US9428192B2 (en) 2004-04-15 2016-08-30 Magna Electronics Inc. Vision system for vehicle
US11847836B2 (en) 2004-04-15 2023-12-19 Magna Electronics Inc. Vehicular control system with road curvature determination
US9736435B2 (en) 2004-04-15 2017-08-15 Magna Electronics Inc. Vision system for vehicle
US10462426B2 (en) 2004-04-15 2019-10-29 Magna Electronics Inc. Vehicular control system
US9609289B2 (en) 2004-04-15 2017-03-28 Magna Electronics Inc. Vision system for vehicle
US9948904B2 (en) 2004-04-15 2018-04-17 Magna Electronics Inc. Vision system for vehicle
US9008369B2 (en) 2004-04-15 2015-04-14 Magna Electronics Inc. Vision system for vehicle
US10306190B1 (en) 2004-04-15 2019-05-28 Magna Electronics Inc. Vehicular control system
US10110860B1 (en) 2004-04-15 2018-10-23 Magna Electronics Inc. Vehicular control system
US9191634B2 (en) 2004-04-15 2015-11-17 Magna Electronics Inc. Vision system for vehicle
US11503253B2 (en) 2004-04-15 2022-11-15 Magna Electronics Inc. Vehicular control system with traffic lane detection
JP2006018751A (en) * 2004-07-05 2006-01-19 Nissan Motor Co Ltd Image processor for vehicle
JP2006048338A (en) * 2004-08-04 2006-02-16 Nissan Motor Co Ltd Mobile object detection apparatus
JP2006072638A (en) * 2004-09-01 2006-03-16 Nissan Motor Co Ltd Apparatus for detecting moving body
US11396257B2 (en) 2006-08-11 2022-07-26 Magna Electronics Inc. Vehicular forward viewing image capture system
US11623559B2 (en) 2006-08-11 2023-04-11 Magna Electronics Inc. Vehicular forward viewing image capture system
US11951900B2 (en) 2006-08-11 2024-04-09 Magna Electronics Inc. Vehicular forward viewing image capture system
US10787116B2 (en) 2006-08-11 2020-09-29 Magna Electronics Inc. Adaptive forward lighting system for vehicle comprising a control that adjusts the headlamp beam in response to processing of image data captured by a camera
US11148583B2 (en) 2006-08-11 2021-10-19 Magna Electronics Inc. Vehicular forward viewing image capture system
US10071676B2 (en) 2006-08-11 2018-09-11 Magna Electronics Inc. Vision system for vehicle
JP2008117073A (en) * 2006-11-01 2008-05-22 Fuji Heavy Ind Ltd Interruption vehicle detection device
JP2016027490A (en) * 2012-06-14 2016-02-18 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Method, system, product and computer program for multi-cue object detection and analysis (multi-cue object detection and analysis)
CN104350510A (en) * 2012-06-14 2015-02-11 国际商业机器公司 Multi-cue object detection and analysis
JP2015046132A (en) * 2013-08-29 2015-03-12 株式会社デンソー Collision possibility determination apparatus and program
JP2015225546A (en) * 2014-05-28 2015-12-14 本田技研工業株式会社 Object detection device, drive support apparatus, object detection method, and object detection program
KR101593484B1 (en) * 2014-07-10 2016-02-15 경북대학교 산학협력단 Image processing apparatus and method for detecting partially visible object approaching from side using equi-height peripheral mosaicking image, and system for assisting vehicle driving employing the same
US9569685B2 (en) 2014-07-10 2017-02-14 Kyungpook National University Industry-Academic Cooperation Foundation Image processing apparatus and method for detecting partially visible object approaching from side using equi-height peripheral mosaicking image, and driving assistance system employing the same
WO2024009583A1 (en) * 2022-07-06 2024-01-11 日立Astemo株式会社 Vehicle control device

Also Published As

Publication number Publication date
JP3656056B2 (en) 2005-06-02

Similar Documents

Publication Publication Date Title
JP3630100B2 (en) Lane detection device
JP5297078B2 (en) Method for detecting moving object in blind spot of vehicle, and blind spot detection device
US7612800B2 (en) Image processing apparatus and method
US6670912B2 (en) Method for detecting stationary object located above road
JP3822515B2 (en) Obstacle detection device and method
US8175331B2 (en) Vehicle surroundings monitoring apparatus, method, and program
JP2002352225A (en) Obstacle detector and its method
JP2003281700A (en) Cutting-in vehicle detecting device and method
JPH08329393A (en) Preceding vehicle detector
JP2007179386A (en) Method and apparatus for recognizing white line
JP2003099762A (en) Precedent vehicle recognition device and recognition method
JP4052291B2 (en) Image processing apparatus for vehicle
KR20120065558A (en) Detection method vehicle in road using region of interest
JP3868915B2 (en) Forward monitoring apparatus and method
JP4762830B2 (en) Perimeter monitoring system
JPH0935198A (en) Traveling road detector for vehicle
Yang Estimation of vehicle's lateral position via the Lucas-Kanade optical flow method
JPH11345392A (en) Device and method for detecting obstacle
JP4462533B2 (en) Road lane detection device
JP4106163B2 (en) Obstacle detection apparatus and method
JP2000259997A (en) Height of preceding vehicle and inter-vehicle distance measuring device
JP2001250199A (en) Travel course estimating device
JP4015036B2 (en) Obstacle detection device and obstacle detection method
JP2003187228A (en) Device and method for recognizing vehicle
JPH0719893A (en) Curvature of-road detector

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041207

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050307

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080311

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090311

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100311

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100311

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110311

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120311

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130311

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130311

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140311

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees