JP2002104113A - Rear monitoring device - Google Patents

Rear monitoring device

Info

Publication number
JP2002104113A
JP2002104113A JP2000297268A JP2000297268A JP2002104113A JP 2002104113 A JP2002104113 A JP 2002104113A JP 2000297268 A JP2000297268 A JP 2000297268A JP 2000297268 A JP2000297268 A JP 2000297268A JP 2002104113 A JP2002104113 A JP 2002104113A
Authority
JP
Japan
Prior art keywords
vehicle
road
lane
behind
lane marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000297268A
Other languages
Japanese (ja)
Other versions
JP3911983B2 (en
Inventor
Toshihiro Yamamura
智弘 山村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2000297268A priority Critical patent/JP3911983B2/en
Publication of JP2002104113A publication Critical patent/JP2002104113A/en
Application granted granted Critical
Publication of JP3911983B2 publication Critical patent/JP3911983B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To simply detect a lane where a vehicle is running in detecting the vehicle approaching from the rear by a camera mounted backward on the vehicle. SOLUTION: A steering angle θ and a driver's own vehicle speed V are stored for the past designated time, whereby the shape of a road is estimated from the locus of running of the own vehicle, an area is set from the approximate shape of each running lane, and approach of some other vehicle and its running lane area are detected from the respective optical flows. As for the running lane, the position of a lane marker very near the own vehicle is detected to estimate the running lane, or from the storage of the lane marker, a more accurate running lane is calculated. Three-dimensional distortion is absorbed by detecting a gradient of a road to further accurately estimate the shape of the road.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、例えばカメラで
自車両後方の画像を撮像し、その画像から、自車両後方
の他車両を検出し、場合によっては危険を判定したり、
警告を発したりする車両用の後方監視装置に関するもの
である。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to, for example, capturing an image behind a host vehicle with a camera, detecting other vehicles behind the host vehicle from the image, and judging danger in some cases.
The present invention relates to a rear monitoring device for a vehicle that issues a warning.

【0002】[0002]

【従来の技術】このような後方監視装置としては、例え
ば特開2000−20686号公報に記載されるものが
ある。この後方監視装置は、自車両の後部に、後側方に
向けてビデオカメラを取付け、その自車両の走行中に得
られた撮像画像の各点が全体として収束するような無限
遠点又は消失点(一般にFOE:Focus of Expansionと
呼ばれる)を求めると共に、前記撮像画像中に他車両の
画像として認識された画像の特徴点を抽出し、その特徴
点の時間的な移動を移動ベクトル、即ちオプティカルフ
ローとして求め、このオプティカルフローが前記無限遠
点又は消失点から発散する方向に向かっているか、或い
は無限遠点又は消失点に収束する方向に向かっているか
に応じて、隣接車線を走行中の他車両或いは後続の他車
両の、自車両に対して接近してくる相対速度或いは相対
距離或いは相対的位置関係を算出するものである。そし
て、それらの他車両の危険性を判定し、危険性有りと判
定された場合には警告を発するように構成されている。
2. Description of the Related Art An example of such a backward monitoring device is described in Japanese Patent Application Laid-Open No. 2000-20686. In this rear monitoring device, a video camera is attached to the rear part of the own vehicle toward the rear side, and each point of a captured image obtained during traveling of the own vehicle converges at infinity or disappearance. A point (generally called FOE: Focus of Expansion) is obtained, a feature point of an image recognized as an image of another vehicle is extracted from the captured image, and a temporal movement of the feature point is represented by a movement vector, that is, an optical vector. It is determined as a flow, and depending on whether this optical flow is diverging from the point at infinity or vanishing point or converging at the point at infinity or vanishing point, the other traveling in the adjacent lane is determined. This is to calculate the relative speed, relative distance, or relative positional relationship of the vehicle or another following vehicle approaching the own vehicle. Then, the danger of these other vehicles is determined, and if it is determined that there is danger, a warning is issued.

【0003】[0003]

【発明が解決しようとする課題】ところで、前述のよう
な後方監視装置で他車両を検出し、危険性有りと判定し
たときに警告を発する構成では、自車両に接近してくる
他車両が、自車両と同じ車線を走行しているのか、隣接
車線を走行しているのかに応じて、警告の仕方が異な
る。例えば、隣接車線を走行している接近他車両に対し
ては、自車両が、その車線に車線変更をしようとしてい
る場合にのみ警告が必要であるが、それ以外は警告不要
である。これを達成するためには、接近他車両の走行車
線を正しく検出する必要があり、従って走行車線を区分
するレーンマーカ(白線)の形状を検出する必要が生じ
る。このため、従来の後方監視装置では、レーンマーカ
の画像とその他の道路や背景などの画像との輝度差を利
用して、それらの間の境界、即ちエッジを求め、これに
よりレーンマーカの形状を検出している。
By the way, in a configuration in which another vehicle is detected by the rear monitoring device as described above and a warning is issued when it is determined that there is a danger, the other vehicle approaching the own vehicle is The warning method differs depending on whether the vehicle is traveling in the same lane as the own vehicle or in the adjacent lane. For example, for an approaching other vehicle traveling in an adjacent lane, a warning is required only when the own vehicle is about to change lanes to that lane, but no warning is required for other vehicles. In order to achieve this, it is necessary to correctly detect the traveling lane of another approaching vehicle, and therefore, it is necessary to detect the shape of a lane marker (white line) that divides the traveling lane. For this reason, the conventional rearward monitoring device obtains a boundary, that is, an edge between the image of the lane marker and an image of other roads, backgrounds, and the like by using the luminance difference between the image and the shape of the lane marker. ing.

【0004】しかしながら、このレーンマーカの検出処
理は、撮像画像の広い範囲に及び、しかも検出されるエ
ッジ画像には、画面内の他車両や物体のエッジ成分も含
まれているため、レーンマーカのみを正確に検出するた
めに複雑な認識処理が必要となり、演算処理所要時間が
長くなってしまう。しかも、後方監視装置としては、前
述したオプティカルフローによる他車両検出処理も行わ
れなければならず、この演算処理も複雑であるため、ト
ータルで必要な演算処理所要時間が膨大なものとなり、
警告装置として使用するには適さない内容となってしま
うという問題がある。
However, this lane marker detection process covers a wide range of the captured image, and the detected edge image also includes edge components of other vehicles and objects in the screen. , A complicated recognition process is required, and the time required for the arithmetic processing becomes long. In addition, as the rear monitoring device, the other vehicle detection process based on the optical flow described above must be performed, and the calculation process is complicated, so that the total time required for the calculation process is enormous.
There is a problem that the content becomes unsuitable for use as a warning device.

【0005】処理内容を簡素化するために、前記レーン
マーカ検出処理を行わず、画像内の予め設定された領域
を各車線領域として、他車両検出処理のみを行う構成も
考えられるが、そのようにすると、例えばカーブ路を走
行している場合には、想定される車線領域と実際の車線
領域とにずれが生じ、他車両の正しい走行車線検出がで
きず、前述したような正確な警告処理ができない。
In order to simplify the processing contents, a configuration is also conceivable in which the lane marker detection processing is not performed and only the other vehicle detection processing is performed by setting a predetermined area in the image as each lane area. Then, for example, when traveling on a curved road, a deviation occurs between the assumed lane area and the actual lane area, the correct lane detection of other vehicles cannot be performed, and the accurate warning processing as described above is performed. Can not.

【0006】本発明は、これらの諸問題を解決すべく開
発されたものであり、自車両の過去の挙動から、自車両
後方の道路の状態を推定することにより、複雑な演算処
理を行うことなく、自車両後方の他車両の走行車線を検
出することが可能な後方監視装置を提供することを目的
とするものである。
SUMMARY OF THE INVENTION The present invention has been developed to solve these problems, and performs complicated arithmetic processing by estimating the state of the road behind the host vehicle from the past behavior of the host vehicle. It is another object of the present invention to provide a rearward monitoring device capable of detecting the traveling lane of another vehicle behind the host vehicle.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するため
に、本発明のうち請求項1に係る後方監視装置は、自車
両の後方の画像を撮像する撮像手段と、過去の自車両の
挙動から自車両後方の道路の状態を推定する後方道路状
態推定手段と、前記撮像手段で撮像された画像内に、前
記後方道路状態推定手段で推定された自車両後方の道路
状態に応じた所定の領域を設定し、その所定の領域内で
他車両を検出する他車両検出手段とを備えたことを特徴
とするものである。
According to a first aspect of the present invention, there is provided a rearward monitoring apparatus, comprising: an image pickup means for picking up an image behind a host vehicle; A rear road condition estimating means for estimating the state of the road behind the own vehicle from the vehicle, and a predetermined image corresponding to the road condition behind the own vehicle estimated by the rear road condition estimating device in the image taken by the image taking means. Another vehicle detecting means for setting an area and detecting another vehicle in the predetermined area is provided.

【0008】また、本発明のうち請求項2に係る後方監
視装置は、前記請求項1の発明において、前記道路状態
推定手段は、前記過去の自車両の挙動として、旋回状態
検出量と自車速とを用いることを特徴とするものであ
る。また、本発明のうち請求項3に係る後方監視装置
は、前記請求項1又は2の発明において、前記撮像手段
で撮像された画像のうち、自車両近傍に所定のレーンマ
ーカ検出領域を設定し、そのレーンマーカ検出領域でレ
ーンマーカの位置を検出する自車両近傍レーンマーカ検
出手段を備え、前記後方道路状態推定手段は、前記自車
両近傍レーンマーカ検出手段で検出されたレーンマーカ
の位置を用いて、自車両後方の道路の状態を推定するこ
とを特徴とするものである。
According to a second aspect of the present invention, in the rearward monitoring device according to the first aspect, the road state estimating means determines the turning state detection amount and the own vehicle speed as the past behavior of the own vehicle. Are used. Further, the rear monitoring device according to claim 3 of the present invention, in the invention according to claim 1 or 2, sets a predetermined lane marker detection area in the vicinity of the own vehicle in the image taken by the imaging means, The vehicle is provided with a lane marker detecting means for detecting the position of the lane marker in the lane marker detection area, and the rear road state estimating means uses the position of the lane marker detected by the lane marker detecting means for the own vehicle to detect the position of the lane marker behind the own vehicle. It is characterized by estimating the state of the road.

【0009】また、本発明のうち請求項4に係る後方監
視装置は、前記請求項1乃至3の発明において、前記後
方道路状態推定手段は、前記自車両近傍レーンマーカ検
出手段で検出された過去所定時間のレーンマーカの位置
の記録を用いて、自車両後方の道路の状態を推定するこ
とを特徴とするものである。また、本発明のうち請求項
5に係る後方監視装置は、前記請求項1乃至4の発明に
おいて、自車両後方の道路勾配を検出する後方道路勾配
検出手段を備え、前記後方道路状態推定手段は、前記後
方道路勾配検出手段で検出された自車両後方の道路勾配
を用いて、自車両後方の道路の状態を推定することを特
徴とするものである。
According to a fourth aspect of the present invention, there is provided a rearward monitoring apparatus according to the first to third aspects, wherein the rear road state estimating means includes a past predetermined lane marker detected by the own vehicle lane marker detecting means. It is characterized in that the state of the road behind the host vehicle is estimated using the record of the time lane marker position. The rearward monitoring device according to a fifth aspect of the present invention, in the first to fourth aspects, further includes a rear road gradient detecting unit that detects a road gradient behind the host vehicle, and the rear road state estimating unit includes: The state of the road behind the host vehicle is estimated using the road gradient behind the host vehicle detected by the rear road gradient detecting means.

【0010】また、本発明のうち請求項6に係る後方監
視装置は、前記請求項1乃至5の発明において、前記後
方道路状態推定手段は、所定の周波数以上の自車両挙動
変化を除去する高周波数域遮断フィルタを備えたことを
特徴とするものである。また、本発明のうち請求項7に
係る後方監視装置は、前記請求項1乃至6の発明におい
て、前記後方道路状態推定手段は、所定の周波数域の自
車両挙動変化を除去する所定周波数域遮断フィルタを備
えたことを特徴とするものである。
According to a sixth aspect of the present invention, there is provided the rearward monitoring apparatus according to the first to fifth aspects, wherein the rear road state estimating means removes a change in the behavior of the own vehicle at a predetermined frequency or higher. A frequency band cutoff filter is provided. Also, in the rearward monitoring device according to claim 7 of the present invention, in the invention of claim 1 to 6, the rear road state estimating means includes a predetermined frequency range cut-off for removing a change in own vehicle behavior in a predetermined frequency range. A filter is provided.

【0011】[0011]

【発明の効果】而して、本発明のうち請求項1に係る候
補監視装置によれば、過去の自車両の挙動から自車両後
方の道路の状態を推定し、撮像された自車両後方画像内
に、推定された自車両後方の道路状態に応じた所定の領
域を設定し、その所定の領域内で他車両を検出する構成
としたため、撮像画像の広い範囲に亘ってレーンマーカ
を検出することなく、走行車線の凡その形状と、他車両
が走行している走行車線とを検出することが可能とな
り、演算処理の所要時間を短縮することができる。
According to the candidate monitoring apparatus of the first aspect of the present invention, the state of the road behind the host vehicle is estimated from the past behavior of the host vehicle, and the captured image of the host vehicle rear is taken. In this configuration, a predetermined area is set according to the estimated road condition behind the host vehicle, and another vehicle is detected in the predetermined area. Therefore, the lane marker can be detected over a wide range of the captured image. In addition, it is possible to detect the approximate shape of the traveling lane and the traveling lane in which the other vehicle is traveling, so that the time required for the arithmetic processing can be reduced.

【0012】また、本発明のうち請求項2に係る後方監
視装置によれば、過去の自車両の挙動として、旋回状態
検出量と自車速とを用いる構成としたため、例えば旋回
状態検出量として操舵角、ヨーレート、横加速度等を適
用すれば、容易且つ安価に自車両挙動を検出することが
でき、これらから容易に自車両後方の道路状態を推定す
ることができる。
Further, according to the rear monitoring device of the present invention, since the turning state detection amount and the own vehicle speed are used as the past behavior of the own vehicle, for example, steering is performed as the turning state detection amount. If the angle, the yaw rate, the lateral acceleration, and the like are applied, the behavior of the own vehicle can be detected easily and inexpensively, and the road condition behind the own vehicle can be easily estimated from these.

【0013】また、本発明のうち請求項3に係る後方監
視装置によれば、撮像された画像のうち、自車両近傍に
所定のレーンマーカ検出領域を設定し、そのレーンマー
カ検出領域でレーンマーカの位置を検出し、そのレーン
マーカの位置を用いて、自車両後方の道路の状態を推定
する構成としたため、自車両後方の道路状態と各走行車
線の形状とを正確に検出することができ、その分だけ他
車両が走行している走行車線を正確に検出することが可
能となる。
According to the rearward monitoring device of the third aspect of the present invention, a predetermined lane marker detection area is set near the own vehicle in the captured image, and the position of the lane marker is determined in the lane marker detection area. Detecting and using the position of the lane marker to estimate the state of the road behind the host vehicle, the road condition behind the host vehicle and the shape of each lane can be accurately detected, and only that much. The traveling lane in which the other vehicle is traveling can be accurately detected.

【0014】また、本発明のうち請求項4に係る後方監
視装置装置によれば、検出された過去所定時間のレーン
マーカの位置の記録を用いて、自車両後方の道路の状態
を推定する構成としたため、自車両後方の道路状態と各
走行車線の形状とをより一層正確に検出することがで
き、その分だけ他車両が走行している走行車線をより一
層正確に検出することが可能となる。
Further, according to the rearward monitoring apparatus of the present invention, the configuration of estimating the state of the road behind the own vehicle using the detected record of the position of the lane marker in the past predetermined time. Therefore, the road condition behind the host vehicle and the shape of each traveling lane can be detected more accurately, and the traveling lane on which the other vehicle is traveling can be more accurately detected. .

【0015】また、本発明のうち請求項5に係る後方監
視装置によれば、自車両後方の道路勾配を検出し、その
自車両後方の道路勾配を用いて、自車両後方の道路の状
態を推定する構成としたため、自車両後方の道路状態を
正確に検出することができ、その分だけ各走行車線の形
状と他車両が走行している走行車線とを正確に検出する
ことが可能となる。
According to the rearward monitoring device of the present invention, the road gradient behind the host vehicle is detected, and the state of the road behind the host vehicle is detected using the road gradient behind the host vehicle. Because of the configuration for estimating, it is possible to accurately detect the road condition behind the own vehicle, and it is possible to accurately detect the shape of each traveling lane and the traveling lane in which another vehicle is traveling by that much. .

【0016】また、本発明のうち請求項6に係る後方監
視装置によれば、高周波数域遮断フィルタで所定の周波
数以上の自車両挙動変化を除去する構成としたため、修
正舵等による微小な車両挙動変化成分を除去して、自車
両後方の道路状態を安定して推定することができ、その
分だけ他車両が走行している走行車線を正確に検出する
ことが可能となる。
Further, according to the rearward monitoring device of the present invention, since a change in the behavior of the host vehicle at a predetermined frequency or higher is removed by a high frequency cutoff filter, a minute vehicle due to a correction steering or the like is removed. By removing the behavior change component, it is possible to stably estimate the road state behind the host vehicle, and it is possible to accurately detect the traveling lane in which the other vehicle is running.

【0017】また、本発明のうち請求項7に係る後方監
視装置によれば、所定周波数域遮断フィルタで所定の周
波数域の自車両挙動変化を除去する構成としたため、車
線変更で生じる自車両挙動変化の周波数域を、この所定
周波数遮断フィルタで除去するようにすれば、自車両の
車線変更に伴う誤差の影響を除去して自車両後方の道路
状態を安定して推定することができ、その分だけ他車両
が走行している走行車線を正確に検出することが可能と
なる。
Further, according to the rearward monitoring device of the present invention, since the change in the vehicle behavior in the predetermined frequency range is removed by the predetermined frequency cutoff filter, the vehicle behavior generated by the lane change is eliminated. If the frequency range of the change is removed by the predetermined frequency cutoff filter, the influence of the error accompanying the lane change of the own vehicle can be removed, and the road condition behind the own vehicle can be stably estimated. It becomes possible to accurately detect the traveling lane in which the other vehicle is traveling.

【0018】[0018]

【発明の実施の形態】以下、本発明の実施の形態を図面
に基づいて説明する。図1は本発明の後方監視装置を利
用した警報装置の概略構成ブロック図である。この後方
監視装置1は、ステアリングホイールに取付けられた操
舵角センサ2で検出される操舵角θと、車速センサ3で
検出される車速Vとから自車両の挙動を推定する車両挙
動推定部1aを備えている。また、この後方監視装置1
は、車両後部に取付けられたCCDカメラなどの車両後
方カメラ4で撮像される自車両後方画像を読込み、合わ
せて前記車両挙動推定部1aからの自車両挙動を記憶し
て、自車両後方の道路状態を推定し、その自車両後方の
道路状態から他車両とその走行車線とを検出する他車両
検出部1bを備えている。また、この後方監視装置1
は、車両に設けられているターンシグナル装置5の作動
状態を読込み、合わせて前記他車両検出部1bで検出さ
れた他車両とその走行車線とから危険性を判定し、危険
性有りと判定される場合に、車両に設けられた警報装置
6を駆動する警報発生部1cを備えている。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a schematic configuration block diagram of an alarm device using the rear monitoring device of the present invention. The rear monitoring device 1 includes a vehicle behavior estimating unit 1a that estimates the behavior of the host vehicle from a steering angle θ detected by a steering angle sensor 2 attached to a steering wheel and a vehicle speed V detected by a vehicle speed sensor 3. Have. Also, the rear monitoring device 1
Reads an image of the host vehicle rear image captured by a vehicle rear camera 4 such as a CCD camera mounted on the rear of the vehicle, stores the host vehicle behavior from the vehicle behavior estimating unit 1a, and stores the image of the road behind the host vehicle. It is provided with another vehicle detection section 1b for estimating the state and detecting the other vehicle and its traveling lane from the road state behind the own vehicle. Also, the rear monitoring device 1
Reads the operation state of the turn signal device 5 provided in the vehicle, determines the danger from the other vehicle detected by the other vehicle detection unit 1b and the traveling lane, and determines that there is danger. In this case, an alarm generator 1c for driving an alarm device 6 provided in the vehicle is provided.

【0019】前記後方監視装置1は、マイクロコンピュ
ータなどの演算処理装置を備えており、前記車両挙動推
定部1aや、他車両検出部1bや、警報発生部1cは演
算処理によって構成されている。図2は、この後方監視
装置1の演算処理装置内で行われる演算処理のフローチ
ャートであり、その演算処理装置内で所定のサンプリン
グ時間(この場合は100msec. )毎にタイマ割込処理
される。なお、このフローチャートでは、特に通信のた
めのステップを設けていないが、例えばフローチャート
中で得られた情報は随時記憶装置に記憶されるし、必要
な情報は随時記憶装置から読出される。また、各装置間
も相互通信を行っており、必要な情報は、主として制御
を司っている装置から常時読み込まれ、送られてきた情
報は、随時記憶装置に記憶される。
The rear monitoring device 1 includes an arithmetic processing device such as a microcomputer, and the vehicle behavior estimating section 1a, the other vehicle detecting section 1b, and the alarm generating section 1c are configured by arithmetic processing. FIG. 2 is a flowchart of the arithmetic processing performed in the arithmetic processing device of the rearward monitoring device 1. In the arithmetic processing device, the timer is interrupted at a predetermined sampling time (in this case, 100 msec.). In this flowchart, no particular communication step is provided. For example, information obtained in the flowchart is stored in the storage device as needed, and necessary information is read from the storage device as needed. In addition, the respective devices also communicate with each other, and necessary information is always read from the device that is mainly in charge of control, and the transmitted information is stored in the storage device as needed.

【0020】この演算処理のステップS1では、同ステ
ップ内で行われる個別の演算処理に従って、前記車両後
方カメラ4で撮像した自車両後方の全画面情報を読込
み、ディジタルフィールドなどからなる配列に入力す
る。本実施形態では、例えば図3に示すように、全画像
の右下隅部を原点とし、右上方に向けて、縦座標(垂直
座標)をx座標、横座標(水平座標)をy座標として、
各画素毎に色合い、明度、輝度等の情報を記憶する。
In step S1 of this arithmetic processing, according to the individual arithmetic processing performed in the step, the whole screen information behind the vehicle taken by the vehicle rear camera 4 is read and input to an array composed of digital fields and the like. . In the present embodiment, for example, as shown in FIG. 3, the lower right corner of the entire image is set as the origin and the ordinate (vertical coordinate) is set as the x coordinate, and the abscissa (horizontal coordinate) is set as the y coordinate.
Information such as hue, brightness, and luminance is stored for each pixel.

【0021】次にステップS2に移行して、前記操舵角
センサ2で検出された操舵角θを読込む。次にステップ
S3に移行して、同ステップ内で行われる個別の演算処
理に従って、前記ステップS2で読込んだ操舵角θの平
滑化処理を行う。この操舵角θの平滑化は、微小な修正
舵の影響を除去するためのものであり、そうした修正舵
は比較的高周波数域の操作となるので、所定の周波数域
以上の操舵角変化を除去するローパスフィルタを用いれ
ばよい。除去される周波数域は、凡そ2Hz以上であ
る。
Next, the process proceeds to step S2, in which the steering angle θ detected by the steering angle sensor 2 is read. Next, the process proceeds to step S3, in which the steering angle θ read in step S2 is smoothed according to the individual calculation process performed in step S3. This smoothing of the steering angle θ is for removing the influence of a minute correction steering. Since such correction steering is an operation in a relatively high frequency range, a change in the steering angle over a predetermined frequency range is removed. A low-pass filter may be used. The frequency range to be removed is about 2 Hz or more.

【0022】次にステップS4に移行して、前記車速セ
ンサ3で検出された自車速Vを読込む。次にステップS
5に移行して、同ステップ内で行われる個別の演算処理
に従って、前記平滑化されて記憶されている操舵角デー
タ及び記憶されている自車速データを用いて、自車両の
後方の道路の消失点(無限遠点)を推定する。具体的に
は、以下のようにして消失点の推定を行う。即ち、この
後方監視装置1の記憶装置には、過去所定時間(n×Δ
T)における平滑化された操舵角θk (k=0,1,
…,n)及び自車速Vk (k=0,1,…,n)が記憶
されている。つまり、記憶装置には、過去前記所定サン
プリング時間ΔT毎にn個のデータが蓄積されており、
ここではk回前の記憶されたデータがθk 、Vk である
ことを示す。そして、図4に示すように、自車両の後方
にX軸、側方にY軸を設定し、下記1〜3式に従って、
前記記憶されている操舵角θk 、自車速Vk から自車両
が走行した後方道路の状態(形状)を推定する。
Next, the process proceeds to step S4, where the vehicle speed V detected by the vehicle speed sensor 3 is read. Next, step S
Then, in accordance with the individual arithmetic processing performed in the same step, the smoothed and stored steering angle data and the stored own vehicle speed data are used to eliminate the road behind the own vehicle. Estimate a point (infinity point). Specifically, the vanishing point is estimated as follows. That is, the storage device of the rear monitoring device 1 stores a past predetermined time (n × Δ
T), the smoothed steering angle θ k (k = 0, 1,
.., N) and the own vehicle speed V k (k = 0, 1,..., N) are stored. That is, in the storage device, n pieces of data have been accumulated in the past at the predetermined sampling time ΔT,
Here, it is shown that the stored data k times before are θ k and V k . Then, as shown in FIG. 4, an X axis is set behind the host vehicle, and a Y axis is set laterally.
The state (shape) of the rear road on which the host vehicle has traveled is estimated from the stored steering angle θ k and host vehicle speed V k .

【0023】[0023]

【数1】 (Equation 1)

【0024】ここで、Kは操舵角θに対するヨー角の比
を示す所定値であり、mは0からnまでの整数である。
前記1〜3式によって、前記図4の(X,Y)座標にお
ける、自車両の走行した道路状態を推定することが可能
となる。前記1式、2式で算出される座標値(Xm ,Y
m )は、即ち自車両が走行してきた軌跡を示す。次に、
前記1式で、X座標値が所定値(例えば200m)を越
えるようなmを求め、1,2式から、消失点座標
(XVP,YVP)を算出する。次に、この座標値を下記4
〜6式によって画像平面に逆透視変換し、図3に示す画
像平面内での消失点VPの位置(xVP,yVP)を算出す
る。
Here, K is a predetermined value indicating the ratio of the yaw angle to the steering angle θ, and m is an integer from 0 to n.
From the above formulas (1) to (3), it is possible to estimate the road condition where the vehicle has traveled at the (X, Y) coordinates in FIG. The coordinate values (X m , Y
m ) indicates the trajectory of the vehicle. next,
Equation (1) is used to determine m such that the X coordinate value exceeds a predetermined value (for example, 200 m), and vanishing point coordinates (X VP , Y VP ) are calculated from Equations 1 and 2. Next, this coordinate value is expressed by the following 4
The inverse perspective transformation is performed on the image plane by Equations (6) to (6) to calculate the position ( xVP , yVP ) of the vanishing point VP in the image plane shown in FIG.

【0025】 x=X・f/L ……… (4) y=Y・f/L ……… (5) L=(X2 +Y2 1/2 ……… (6) ここで、fは車両後方カメラ4の焦点距離である。次に
ステップS6に移行して、同ステップ内で行われる個別
の演算処理に従って、次回以後の処理のために、操舵角
データ、自車速データをメモリする。
X = X · f / L (4) y = Y · f / L (5) L = (X 2 + Y 2 ) 1/2 (6) where f Is the focal length of the camera 4 behind the vehicle. Next, the process proceeds to step S6, in which the steering angle data and the own vehicle speed data are stored for the next and subsequent processes in accordance with the individual calculation processes performed in the step.

【0026】次にステップS7に移行して、同ステップ
内で行われる個別の演算処理に従って、後方道路の領域
抽出を行う。即ち、図3に示すように、前記ステップS
5で算出した消失点VPに対し、予め画像内で設定され
ているA〜Dの各点を結び、そのうちのB点と消失点V
Pとを結ぶ線分と、C点と消失点VPとを結ぶ線分とで
囲まれる三角形の領域を自車両走行車線領域とし、同様
にA点と消失点VPとを結ぶ線分と、B点と消失点VP
とを結ぶ線分とで囲まれる領域を自車両が走行している
車線の右側隣接車線領域とし、同様にC点と消失点VP
とを結ぶ線分と、D点と消失点VPとを結ぶ線分とで囲
まれる領域を自車両が走行している車線の左側隣接車線
領域とする。このようにして設定される車線領域は、レ
ーンマーカを検出していないので、完全に実際の車線領
域と一致しているわけではないが、車線の幅は或る程度
決まっており、車両後方カメラ4で撮像される画像内の
各レーンマーカの位置も或る程度決まっていることか
ら、それらのレーンマーカが写り込むであろう点A〜D
と消失点VPとを結べば、凡そ各車線領域を抽出するこ
とができる。
Next, the process proceeds to step S7, where the rear road area is extracted in accordance with the individual arithmetic processing performed in the step. That is, as shown in FIG.
The points A to D set in the image in advance are connected to the vanishing point VP calculated in step 5, and the point B and the vanishing point V
A triangular area surrounded by a line segment connecting P and a line segment connecting point C and the vanishing point VP is defined as a host vehicle traveling lane region, and similarly, a line segment connecting point A and the vanishing point VP, and B Point and vanishing point VP
Is defined as a lane area adjacent to the right side of the lane in which the host vehicle is traveling, and similarly, point C and vanishing point VP
And an area surrounded by a line connecting the point D and the vanishing point VP is defined as a lane area adjacent to the left side of the lane in which the host vehicle is running. The lane area set in this manner does not completely match the actual lane area since no lane marker is detected, but the width of the lane is determined to some extent, and the vehicle rear camera 4 Since the positions of the lane markers in the image picked up by are also determined to some extent, the points A to D at which the lane markers will appear
And the vanishing point VP, approximately each lane area can be extracted.

【0027】次にステップS8に移行して、同ステップ
内で行われる個別の演算処理に従って、前記ステップS
7で抽出した各車線領域毎にオプティカルフローの検出
を行う。このオプティカルフローの検出は、例えば図5
に示すように、各車占領域を例えば5画素四方の微小領
域に分割し、前回の後方画像における各微小領域が、今
回の後方画像内でどの方向に移動しているかを検出する
ものである。
Next, the processing shifts to step S8, and in accordance with the individual calculation processing performed in the step, the above-mentioned step S8 is performed.
The optical flow is detected for each lane region extracted in step 7. The detection of the optical flow is performed, for example, as shown in FIG.
As shown in FIG. 7, each vehicle occupation area is divided into minute areas of, for example, 5 pixels square, and it is detected in which direction each minute area in the previous rear image is moving in the current rear image. .

【0028】次にステップS9に移行して、同ステップ
内で行われる個別の演算処理に従って、他車両の位置と
相対速度を検出する。具体的には、前記図5に示すよう
に、前記ステップS8で検出したオプティカルフローの
うち、画像内で下方に移動するオプティカルフローは、
即ち自車両に接近する物体、この場合は他車両になるの
で、その位置を求め、更にその位置から透視逆変換をか
けることによって他車両までの距離Lが求まり、更にそ
のオプティカルフローの長さから他車両の相対速度Vr
を求めることができる。図5の場合は、前記点A、点
B、消失点VPで囲まれる右側隣接車線に画像下方への
オプティカルフロー(F部)を検出し、これが接近する
他車両となる。
Next, the process proceeds to step S9, and the position and the relative speed of another vehicle are detected in accordance with the individual calculation processing performed in the step. Specifically, as shown in FIG. 5, among the optical flows detected in step S8, the optical flows moving downward in the image are:
That is, since the object approaches the own vehicle, in this case, the other vehicle, the position is obtained, and the distance L to the other vehicle is obtained by performing a perspective inverse transformation from the position, and further, from the length of the optical flow, Relative speed Vr of other vehicle
Can be requested. In the case of FIG. 5, an optical flow (F section) below the image is detected in the right adjacent lane surrounded by the points A, B and the vanishing point VP, and this is another vehicle approaching.

【0029】次にステップS10に移行して、同ステッ
プ内で行われる個別の演算処理に従って、運転者による
ターンシグナル操作の状況を読込む。具体的には、ター
ンシグナルスイッチが何れの方向に操作されているかに
よって、運転者の車線変更の意思を検出する。次にステ
ップS11に移行して、同ステップ内で行われる個別の
演算処理に従って、接近車両があるか否かの判定を行
い、接近車両がある場合にはステップS12に移行し、
そうでない場合にはメインプログラムに復帰する。具体
的には、前記ステップS9で検出した他車両の位置と相
対速度に合わせて、前記ステップS10で読込んだター
ンシグナル操作状況から、例えば前記図5で検出した右
側隣接車線のF部の他車両に対し、運転者が右側の車線
に車線変更しようとし、更に当該他車両が十分に速いか
又は近いかを判定して、接近車両有りの判定を行う。接
近状態の判定には、前記他車両までの距離Lを相対速度
Vrで除した余裕時間Tpが予め設定した所定時間(例
えば3秒)以下であるか否かの判定を用いてもよい。
Next, the process proceeds to step S10, where the status of the turn signal operation by the driver is read in accordance with the individual arithmetic processing performed in the step. Specifically, the driver's intention to change lanes is detected based on which direction the turn signal switch is operated. Next, the process proceeds to step S11, and it is determined whether there is an approaching vehicle according to the individual calculation processing performed in the step. If there is an approaching vehicle, the process proceeds to step S12.
If not, the program returns to the main program. Specifically, in accordance with the position and relative speed of the other vehicle detected in step S9, the turn signal operation status read in step S10 is used to determine, for example, the F portion of the right adjacent lane detected in FIG. The driver attempts to change lanes to the right lane with respect to the vehicle, and determines whether the other vehicle is sufficiently fast or close to determine the presence of an approaching vehicle. The approach state may be determined by determining whether or not a margin time Tp obtained by dividing the distance L to the other vehicle by the relative speed Vr is equal to or shorter than a predetermined time (for example, 3 seconds).

【0030】前記ステップS12では、同ステップ内で
行われる個別の演算処理に従って、前記警報装置6に対
し、所定の警報発令処理を行ってからメインプログラム
に復帰する。この演算処理では、前述のようにして、複
雑なレーンマーカ検出を行うことなく、車線の凡その形
状と、他車両の走行車線位置を検出することができるた
め、演算処理所要時間を短縮することができる。また、
旋回状態検出量として操舵角θを用い、この操舵角θと
自車速Vとから容易且つ安価に自車両挙動を検出するこ
とができ、これらから容易に自車両後方の道路状態を推
定することができる。また、ローパスフィルタによって
修正舵等による微小な車両挙動変化成分を除去すること
により、自車両後方の道路状態を安定して推定すること
ができ、その分だけ他車両が走行している走行車線を正
確に検出することが可能となる。なお、前記車線領域の
抽出では、例えば道路形状をx、yの多項式等で簡単に
近似するようにすれば、より一層精度の高い車線領域抽
出が可能となる。
In step S12, a predetermined alarm issuance process is performed on the alarm device 6 in accordance with the individual arithmetic processing performed in step S12, and then the process returns to the main program. In this arithmetic processing, as described above, the approximate shape of the lane and the traveling lane position of another vehicle can be detected without performing complicated lane marker detection, so that the time required for the arithmetic processing can be reduced. it can. Also,
Using the steering angle θ as the turning state detection amount, it is possible to easily and inexpensively detect the own vehicle behavior from the steering angle θ and the own vehicle speed V, and to easily estimate the road state behind the own vehicle from these. it can. In addition, by removing a small vehicle behavior change component due to a correction rudder or the like by a low-pass filter, it is possible to stably estimate a road state behind the own vehicle, and to reduce a traveling lane by which another vehicle is traveling. Accurate detection is possible. In the extraction of the lane area, for example, if the road shape is simply approximated by an x, y polynomial or the like, the lane area can be extracted with higher accuracy.

【0031】以上より、前記車両後方カメラ4及び図2
の演算処理のステップS1が本発明の撮像手段を構成
し、以下同様に、操舵角センサ2、車速センサ3及び図
2の演算処理のステップS2〜ステップS6が後方道路
状態推定手段を構成し、図2の演算処理のステップS7
〜ステップS9が他車両検出手段を構成し、図2の演算
処理のステップS3が高周波数域遮断フィルタを構成し
ている。
As described above, the vehicle rear camera 4 and FIG.
Step S1 of the calculation processing constitutes the imaging means of the present invention, and similarly, the steering angle sensor 2, the vehicle speed sensor 3, and steps S2 to S6 of the calculation processing of FIG. Step S7 of the calculation processing of FIG.
Step S9 constitutes another vehicle detection means, and step S3 of the calculation processing in FIG. 2 constitutes a high frequency cutoff filter.

【0032】次に、本発明の後方監視装置の第2実施形
態について、図6〜図9を用いて説明する。この後方監
視装置の概略構成を示す図6は、前記第1実施形態の図
1と類似しており、同等の構成要素には同等の符号を付
してある。この実施形態では、前記他車両検出部1bと
車両後方カメラ4との間に近傍白線(レーンマーカ)検
出部1dが付加されている。この近傍白線検出部1d
は、自車両の極近傍のレーンマーカを検出し、より正確
に車線形状を検出するためのものである。
Next, a second embodiment of the backward monitoring device of the present invention will be described with reference to FIGS. FIG. 6 showing a schematic configuration of the rear monitoring device is similar to FIG. 1 of the first embodiment, and the same components are denoted by the same reference numerals. In this embodiment, a nearby white line (lane marker) detecting unit 1d is added between the other vehicle detecting unit 1b and the vehicle rear camera 4. This neighborhood white line detection unit 1d
Is for detecting a lane marker in the immediate vicinity of the vehicle and detecting the lane shape more accurately.

【0033】この後方監視装置1も、実際には演算処理
装置が行う演算処理によって構成されている。図7は、
その演算処理のフローチャートである。この演算処理に
は、前記第1実施形態の図2の演算処理と同等のステッ
プも多数存在するが、新たに付加されたステップを理解
し易くするために、全てのステップの説明を行う。この
演算処理も、所定のサンプリング時間(この場合は10
0msec. )毎にタイマ割込処理される。なお、このフロ
ーチャートでは、特に通信のためのステップを設けてい
ないが、例えばフローチャート中で得られた情報は随時
記憶装置に記憶されるし、必要な情報は随時記憶装置か
ら読出される。また、各装置間も相互通信を行ってお
り、必要な情報は、主として制御を司っている装置から
常時読み込まれ、送られてきた情報は、随時記憶装置に
記憶される。
This backward monitoring device 1 is also actually configured by arithmetic processing performed by an arithmetic processing device. FIG.
It is a flowchart of the calculation processing. In this calculation processing, there are many steps equivalent to the calculation processing of FIG. 2 of the first embodiment, but all the steps will be described to make it easier to understand the newly added steps. This arithmetic processing is also performed for a predetermined sampling time (in this case, 10
0 msec.), A timer interrupt process is performed. In this flowchart, no particular communication step is provided. For example, information obtained in the flowchart is stored in the storage device as needed, and necessary information is read from the storage device as needed. In addition, the respective devices also communicate with each other, and necessary information is always read from the device that is mainly in charge of control, and the transmitted information is stored in the storage device as needed.

【0034】この演算処理のステップS21では、前記
第1実施形態と同様に、同ステップ内で行われる個別の
演算処理に従って、前記車両後方カメラ4で撮像した自
車両後方の全画面情報を読込み、ディジタルフィールド
などからなる配列に入力する。次にステップS22に移
行して、前記第1実施形態と同様に、前記操舵角センサ
2で検出された操舵角θを読込む。
In step S21 of the arithmetic processing, as in the first embodiment, the full screen information of the rear of the vehicle captured by the vehicle rear camera 4 is read in accordance with the individual arithmetic processing performed in the same step. Input to an array consisting of digital fields. Next, the process proceeds to step S22, where the steering angle θ detected by the steering angle sensor 2 is read in the same manner as in the first embodiment.

【0035】次にステップS23に移行して、前記第1
実施形態と同様に、同ステップ内で行われる個別の演算
処理に従って、前記ステップS22で読込んだ操舵角θ
の平滑化処理を行う。次にステップS24に移行して、
同ステップ内で行われる個別の演算処理に従って、前記
ステップS23で平滑化された操舵角から車線変更成分
を除去する。この操舵角車線変更成分除去処理は、車線
変更に伴う操舵角変化を除去するものであり、凡そ0.
5〜2Hz程度の操舵角変化を、バンドパスフィルタに
よって除去する。
Next, the flow shifts to step S23, where the first
As in the case of the embodiment, the steering angle θ read in step S22 according to the individual arithmetic processing performed in the same step.
Is performed. Next, the process proceeds to step S24,
The lane change component is removed from the steering angle smoothed in step S23 according to the individual arithmetic processing performed in the step. This steering angle lane change component removal processing removes a change in the steering angle due to a lane change.
A change in the steering angle of about 5 to 2 Hz is removed by a band-pass filter.

【0036】次にステップS25に移行して、前記第1
実施形態と同様に、前記車速センサ3で検出された自車
速Vを読込む。次にステップS26に移行して、同ステ
ップ内で行われる個別の演算処理に従って、前記平滑化
されて記憶されている操舵角データ及び記憶されている
自車速データを用いて、自車両の後方の道路の形状(状
態)を推定する。具体的には、前記第1実施形態で説明
した1〜3式に従って、自車両が走行してきた軌跡を表
す座標値(Xm ,Ym )を求め、夫々に前記第1実施形
態で説明した4〜6式による逆透視変換を行って、画像
上の道路形状座標値(xm ,ym )を算出する(図9参
照)。
Next, the flow shifts to step S25, where the first
As in the embodiment, the own vehicle speed V detected by the vehicle speed sensor 3 is read. Next, in step S26, the smoothed steering angle data and the stored own-vehicle speed data are used to calculate the position of the rear of the own vehicle in accordance with the individual arithmetic processing performed in the same step. Estimate the shape (state) of the road. Specifically, coordinate values (X m , Y m ) representing the trajectory of the own vehicle are obtained in accordance with the formulas 1 to 3 described in the first embodiment, and the coordinate values (X m , Y m ) are respectively described in the first embodiment. 4-6 by performing inverse perspective transformation by equation image on the road shape coordinates (x m, y m) is calculated (see FIG. 9).

【0037】次にステップS27に移行して、前記第1
実施形態と同様に、同ステップ内で行われる個別の演算
処理に従って、次回以後の処理のために、操舵角デー
タ、自車速データをメモリする。次にステップS28に
移行して、同ステップ内で行われる個別の演算処理に従
って、自車両近傍の白線(レーンマーカ)検出を行う。
具体的には、図8に示すように、自車両後方画像の下端
部、つまり自車両に最も近い部分にレーンマーカ検出領
域Gを設定し、この領域G内でのみ、輝度の高い点を左
右一つずつ検出する(図中のB’点、C’点)。一般
に、白線のレーンマーカ画像は輝度が高く、容易に検出
することができる。なお、破線のレーンマーカが途切れ
ている部分では、レーンマーカを検出することができな
い。その場合には、前回検出したレーンマーカ位置を流
用する。
Next, the flow shifts to step S27, where the first
As in the case of the embodiment, the steering angle data and the own vehicle speed data are stored in memory for the subsequent processing according to the individual calculation processing performed in the same step. Next, the process proceeds to step S28, where a white line (lane marker) near the own vehicle is detected according to the individual arithmetic processing performed in the step.
Specifically, as shown in FIG. 8, a lane marker detection area G is set at the lower end of the own vehicle rear image, that is, at a portion closest to the own vehicle. Detected one by one (points B 'and C' in the figure). Generally, the lane marker image of the white line has high luminance and can be easily detected. The lane marker cannot be detected in the portion where the broken lane marker is interrupted. In this case, the previously detected lane marker position is used.

【0038】次にステップS29に移行して、同ステッ
プ内で行われる個別の演算処理に従って、後方道路の領
域抽出を行う。この実施形態でも、前記第1実施形態と
同じ画像座標を用いているので、前記ステップS28で
検出したレーンマーカ点、B’点、C’点のy座標値y
B’、yC’を用い、隣接車線の仮想レーンマーカ点
A’点、D’点のy座標値yA’、yD’を下記7式、
8式から求める。
Next, the process proceeds to step S29, and the rear road area is extracted according to the individual arithmetic processing performed in the step. Also in this embodiment, since the same image coordinates as those in the first embodiment are used, the y-coordinate values y of the lane marker points, B 'points, and C' points detected in step S28 are used.
Using B ′ and yC ′, the y-coordinate values yA ′ and yD ′ of the virtual lane marker points A ′ and D ′ of the adjacent lane are calculated by the following equations:
It is calculated from Equation 8.

【0039】 yA’=yB’−(yC’−yB’) ……… (7) yD’=yC’+(yC’−yB’) ……… (8) 次に、図9に示すように、前記ステップS26で算出し
た画像上の道路形状座標値(xm ,ym )を用いて、前
記A’点〜D’点の夫々を通るレーンマーカ座標値(x
A’m ,yA’m )〜(xD’m ,yD’m )を下記9
〜13式に従って設定する。なお、x0 、y0 、xn
n は、夫々、mが0又はnのときのx座標値、y座標
値を示している。
YA ′ = yB ′ − (yC′−yB ′) (7) yD ′ = yC ′ + (yC′−yB ′) (8) Next, as shown in FIG. , using the road shape coordinates on the image calculated in the step S26 (x m, y m), lane marker coordinate value through each of the point a 'to D' point (x
A ′ m , yA ′ m ) to (xD ′ m , yD ′ m ) are as follows:
1313 are set. Note that x 0 , y 0 , x n ,
y n, respectively, x-coordinate values when m is 0 or n, it indicates a y coordinate values.

【0040】 xA’m =xB’m =xC’m =xD’m =xm ……… (9) yA’m =ym +(yA’−y0 )・(xm −xn )/(x0 −xn ) ………(10) yB’m =ym +(yB’−y0 )・(xm −xn )/(x0 −xn ) ………(11) yC’m =ym +(yC’−y0 )・(xm −xn )/(x0 −xn ) ………(12) yD’m =ym +(yD’−y0 )・(xm −xn )/(x0 −xn ) ………(13) 次にステップS30に移行して、同ステップ内で行われ
る個別の演算処理に従って、前記ステップS29で抽出
した各車線領域毎にオプティカルフローの検出を行う。
このオプティカルフローの検出そのものは、前記第1実
施形態のそれと同等である。
XA ′ m = xB ′ m = xC ′ m = xD ′ m = x m (9) yA ′ m = y m + (yA′−y 0 ) · (x m −x n ) / (X 0 −x n ) (10) yB ′ m = y m + (yB′−y 0 ) · (x m −x n ) / (x 0 −x n ) (11) yC 'm = y m + (yC' -y 0) · (x m -x n) / (x 0 -x n) ......... (12) yD' m = y m + (yD'-y 0) · (X m −x n ) / (x 0 −x n ) (13) Next, the process proceeds to step S30, and the respective lanes extracted in step S29 according to the individual calculation processing performed in the step. Optical flow detection is performed for each area.
The detection of the optical flow itself is the same as that of the first embodiment.

【0041】次にステップS31に移行して、前記第1
実施形態と同様に、同ステップ内で行われる個別の演算
処理に従って、他車両の位置と相対速度を検出する。次
にステップS32に移行して、前記第1実施形態と同様
に、同ステップ内で行われる個別の演算処理に従って、
運転者によるターンシグナル操作の状況を読込む。
Next, the flow shifts to step S31, where the first
Similar to the embodiment, the position and the relative speed of the other vehicle are detected according to the individual calculation processing performed in the same step. Next, the process proceeds to step S32, in the same manner as in the first embodiment, according to the individual arithmetic processing performed in the same step.
Read the status of turn signal operation by the driver.

【0042】次にステップS33に移行して、前記第1
実施形態と同様に、同ステップ内で行われる個別の演算
処理に従って、接近車両があるか否かの判定を行い、接
近車両がある場合にはステップS34に移行し、そうで
ない場合にはメインプログラムに復帰する。前記ステッ
プS34では、前記第1実施形態と同様に、同ステップ
内で行われる個別の演算処理に従って、前記警報装置6
に対し、所定の警報発令処理を行ってからメインプログ
ラムに復帰する。
Next, the flow shifts to step S33, where the first
In the same manner as in the embodiment, it is determined whether there is an approaching vehicle according to an individual calculation process performed in the same step. If there is an approaching vehicle, the process proceeds to step S34. Return to. In step S34, similarly to the first embodiment, the alarm device 6 according to the individual arithmetic processing performed in step S34.
Then, after performing a predetermined alarm issuing process, the process returns to the main program.

【0043】この演算処理では、前述のようにして、複
雑なレーンマーカ検出を行うことなく、車線の凡その形
状と、他車両の走行車線位置を検出することができるた
め、演算処理所要時間を短縮することができる。また、
旋回状態検出量として操舵角θを用い、この操舵角θと
自車速Vとから容易且つ安価に自車両挙動を検出するこ
とができ、これらから容易に自車両後方の道路状態を推
定することができる。また、後方画像内自車両近傍にレ
ーンマーカ検出領域を設定し、そのレーンマーカ検出領
域でレーンマーカの位置を検出し、そのレーンマーカの
位置を用いて、自車両後方の車線の形状を推定する構成
としたため、自車両後方の各走行車線の形状と正確に検
出することができ、その分だけ他車両が走行している走
行車線を正確に検出することが可能となる。また、ロー
パスフィルタによって修正舵等による微小な車両挙動変
化成分を除去することにより、自車両後方の道路状態を
安定して推定することができ、その分だけ他車両が走行
している走行車線を正確に検出することが可能となる。
また、バンドパスフィルタで車線変更で生じる自車両挙
動変化の周波数域を除去するようにしたため、自車両の
車線変更に伴う誤差の影響を除去して自車両後方の道路
状態を安定して推定することができ、その分だけ他車両
が走行している走行車線を正確に検出することが可能と
なる。
In this arithmetic processing, as described above, the approximate shape of the lane and the traveling lane position of another vehicle can be detected without performing complicated lane marker detection, so that the time required for the arithmetic processing is reduced. can do. Also,
Using the steering angle θ as the turning state detection amount, it is possible to easily and inexpensively detect the own vehicle behavior from the steering angle θ and the own vehicle speed V, and to easily estimate the road state behind the own vehicle from these. it can. In addition, since the lane marker detection area is set near the own vehicle in the rear image, the position of the lane marker is detected in the lane marker detection area, and the position of the lane marker is used to estimate the shape of the lane behind the own vehicle, It is possible to accurately detect the shape of each traveling lane behind the host vehicle, and accurately detect the traveling lane in which the other vehicle is traveling. In addition, by removing a small vehicle behavior change component due to a correction rudder or the like by a low-pass filter, it is possible to stably estimate a road state behind the own vehicle, and to reduce a traveling lane by which another vehicle is traveling. Accurate detection is possible.
In addition, since the frequency range of the change in the behavior of the own vehicle caused by the lane change is removed by the bandpass filter, the influence of the error due to the change of the lane of the own vehicle is removed, and the road state behind the own vehicle is stably estimated. Therefore, it is possible to accurately detect the traveling lane in which the other vehicle is traveling.

【0044】以上より、前記車両後方カメラ4及び図7
の演算処理のステップS21が本発明の撮像手段を構成
し、以下同様に、操舵角センサ2、車速センサ3及び図
7の演算処理のステップS22〜ステップS27が後方
道路状態推定手段を構成し、図7の演算処理のステップ
S28が自車両近傍レーンマーカ検出手段を構成し、図
7の演算処理のステップS29〜ステップS31が他車
両検出手段を構成し、図7の演算処理のステップS23
が高周波数域遮断フィルタを構成し、図7の演算処理の
ステップS24が所定周波数域遮断フィルタを構成して
いる。
As described above, the vehicle rear camera 4 and FIG.
Step S21 of the calculation processing of the present invention constitutes the imaging means of the present invention, and similarly, the steering angle sensor 2, the vehicle speed sensor 3, and steps S22 to S27 of the calculation processing of FIG. Step S28 of the calculation processing in FIG. 7 constitutes a lane marker detecting means near the own vehicle, steps S29 to S31 of the calculation processing in FIG. 7 constitute another vehicle detection means, and step S23 in the calculation processing in FIG.
Constitutes a high frequency cutoff filter, and step S24 of the arithmetic processing in FIG. 7 constitutes a predetermined frequency cutoff filter.

【0045】次に、本発明の後方監視装置の第3実施形
態について、図10〜図12を用いて説明する。この後
方監視装置の概略構成を示す図10は、前記第2実施形
態の図6と類似しており、同等の構成要素には同等の符
号を付してある。この実施形態では、前記車両挙動推定
部1aへの入力に、道路の勾配を検出する勾配センサ7
が付加されている。この勾配センサ7としては、例えば
特開平9−133699号公報や特開平7−17212
8号公報に記載されるものが適用可能である。
Next, a third embodiment of the backward monitoring device of the present invention will be described with reference to FIGS. FIG. 10 showing a schematic configuration of the rear monitoring device is similar to FIG. 6 of the second embodiment, and the same components are denoted by the same reference numerals. In this embodiment, a gradient sensor 7 that detects a gradient of a road is input to the vehicle behavior estimation unit 1a.
Is added. As the gradient sensor 7, for example, JP-A-9-133699 or JP-A-7-17212
No. 8 is applicable.

【0046】この後方監視装置1も、実際には演算処理
装置が行う演算処理によって構成されている。図11
は、その演算処理のフローチャートである。この演算処
理には、前記第1実施形態の図2や第2実施形態の図7
の演算処理と同等のステップも多数存在するが、新たに
付加されたステップを理解し易くするために、全てのス
テップの説明を行う。
This backward monitoring device 1 is also actually configured by arithmetic processing performed by an arithmetic processing device. FIG.
Is a flowchart of the calculation process. This arithmetic processing is performed in accordance with FIG. 2 of the first embodiment or FIG. 7 of the second embodiment.
Although there are a number of steps equivalent to the calculation processing of the above, all steps will be described to make it easier to understand the newly added steps.

【0047】この演算処理も、所定のサンプリング時間
(この場合は100msec. )毎にタイマ割込処理され
る。なお、このフローチャートでは、特に通信のための
ステップを設けていないが、例えばフローチャート中で
得られた情報は随時記憶装置に記憶されるし、必要な情
報は随時記憶装置から読出される。また、各装置間も相
互通信を行っており、必要な情報は、主として制御を司
っている装置から常時読み込まれ、送られてきた情報
は、随時記憶装置に記憶される。
In this calculation process, a timer interrupt process is performed at every predetermined sampling time (in this case, 100 msec.). In this flowchart, no particular communication step is provided. For example, information obtained in the flowchart is stored in the storage device as needed, and necessary information is read from the storage device as needed. In addition, the respective devices also communicate with each other, and necessary information is always read from the device that is mainly in charge of control, and the transmitted information is stored in the storage device as needed.

【0048】この演算処理のステップS41では、前記
第1、第2実施形態と同様に、同ステップ内で行われる
個別の演算処理に従って、前記車両後方カメラ4で撮像
した自車両後方の全画面情報を読込み、ディジタルフィ
ールドなどからなる配列に入力する。次にステップS4
2に移行して、前記第1、第2実施形態と同様に、前記
操舵角センサ2で検出された操舵角θを読込む。
In step S41 of this calculation processing, as in the first and second embodiments, the full screen information of the rear of the vehicle captured by the vehicle rear camera 4 is obtained according to the individual calculation processing performed in the same step. Is read and input into an array composed of digital fields and the like. Next, step S4
Then, as in the first and second embodiments, the steering angle θ detected by the steering angle sensor 2 is read.

【0049】次にステップS43に移行して、前記第
1、第2実施形態と同様に、同ステップ内で行われる個
別の演算処理に従って、前記ステップS42で読込んだ
操舵角θの平滑化処理を行う。次にステップS44に移
行して、前記第2実施形態と同様に、同ステップ内で行
われる個別の演算処理に従って、前記ステップS43で
平滑化された操舵角から車線変更成分を除去する。
Then, the flow shifts to step S43, where the steering angle θ read in step S42 is smoothed according to the individual arithmetic processing performed in the same step as in the first and second embodiments. I do. Next, the process proceeds to step S44, where the lane change component is removed from the steering angle smoothed in step S43 according to the individual arithmetic processing performed in the same step as in the second embodiment.

【0050】次にステップS45に移行して、前記第
1、第2実施形態と同様に、前記車速センサ3で検出さ
れた自車速Vを読込む。次にステップS46に移行し
て、前記勾配センサ7で検出された道路勾配αを読込
む。次にステップS47に移行して、同ステップ内で行
われる個別の演算処理に従って、前記平滑化されて記憶
されている操舵角データ及び記憶されている自車速デー
タ及び記憶されている道路勾配データを用いて、自車両
の後方の道路の形状(状態)を三次元的に推定する。具
体的には、前記第1実施形態で説明した図4のX軸、Y
軸に加えて、鉛直方向にZ軸を設定し、前記第1実施形
態で説明した1〜3式に加えて、下記14式に従って、
自車両が走行してきた軌跡を表す座標値(Xm ,Ym
m )を求め、夫々に前記第1実施形態で説明した4〜
6式に加えて、下記15式による逆透視変換を行って、
画像上の道路形状座標値(xm,ym ,zm )を算出す
る。
Next, the flow shifts to step S45, where the own vehicle speed V detected by the vehicle speed sensor 3 is read in the same manner as in the first and second embodiments. Next, the process proceeds to step S46, where the road gradient α detected by the gradient sensor 7 is read. Next, in step S47, the smoothed steering angle data, the stored own vehicle speed data, and the stored road gradient data are stored in accordance with the individual arithmetic processing performed in step S47. To estimate the shape (state) of the road behind the own vehicle in three dimensions. Specifically, the X-axis and Y-axis in FIG. 4 described in the first embodiment are used.
In addition to the axis, the Z axis is set in the vertical direction, and in addition to the expressions 1 to 3 described in the first embodiment, according to the following expression 14,
Coordinate values (X m , Y m ,
Z m ) is determined, and each of the values 4 to 7 described in the first embodiment is obtained.
In addition to the expression 6, the inverse perspective transformation by the following expression 15 is performed.
The road shape coordinate values (x m , y m , z m ) on the image are calculated.

【0051】[0051]

【数2】 (Equation 2)

【0052】 z=Z・f/L ………(15) 次にステップS48に移行して、同ステップ内で行われ
る個別の演算処理に従って、次回以後の処理のために、
操舵角データ、自車速データ、道路勾配データをメモリ
する。次にステップS49に移行して、前記第2実施形
態と同様にして、同ステップ内で行われる個別の演算処
理に従って、自車両近傍の白線(レーンマーカ)検出を
行う。
Z = Z · f / L (15) Next, the processing shifts to step S48, and in accordance with the individual arithmetic processing performed in the step, the following processing is performed.
The steering angle data, own vehicle speed data, and road gradient data are stored in memory. Next, the process proceeds to step S49 to detect a white line (lane marker) near the own vehicle according to the individual calculation process performed in the same step as in the second embodiment.

【0053】次にステップS50に移行して、前記ステ
ップS49で検出したレーンマーカの位置、即ち前記
B’点、C’点のy座標値yB’0 、yC’0 をメモリ
する。次にステップS51に移行して、同ステップ内で
行われる個別の演算処理に従って、後方道路の領域抽出
を行う。この実施形態でも、前記第1実施形態と同じ画
像座標を用いているので、前記ステップS49で検出し
たレーンマーカ点、B’点、C’点の最新のy座標値y
B’0 、yC’0 を用い、隣接車線の仮想レーンマーカ
点A’点、D’点のy座標値yA’0 、yD’0 を下記
16式、17式から求める。
[0053] and then proceeds to step S50, the position of the lane marker detected by said step S49, the words the point B ', C' to memory y coordinate value yB '0, yC' 0 points. Next, the process proceeds to step S51, and the rear road area is extracted according to the individual calculation processing performed in the step S51. Also in this embodiment, since the same image coordinates as those in the first embodiment are used, the latest y coordinate values y of the lane marker points, B ′ points, and C ′ points detected in step S49 are used.
Using B ′ 0 and yC ′ 0 , the y-coordinate values yA ′ 0 and yD ′ 0 of the virtual lane marker points A ′ and D ′ in the adjacent lane are obtained from the following equations (16) and (17).

【0054】 yA’0 =yB’0 −(yC’0 −yB’0 ) ………(16) yD’0 =yC’0 +(yC’0 −yB’0 ) ………(17) 次に、図12に示すように、前記ステップS47で算出
した画像上の道路形状座標値(xm ,ym ,zm )を用
いて、前記A’点〜D’点の夫々を通るレーンマーカ座
標値(xA’m ,yA’m ,zA’m )〜(xD’m
yD’m ,zD’m )を下記18〜23式に従って設定
する。
YA ′ 0 = yB ′ 0 − (yC ′ 0 −yB ′ 0 ) (16) yD ′ 0 = yC ′ 0 + (yC ′ 0 −yB ′ 0 ) (17) Next 12, the lane marker coordinates passing through each of the points A ′ to D ′ using the road shape coordinate values (x m , y m , z m ) on the image calculated in step S47. value (xA 'm, yA' m , zA 'm) ~ (xD' m,
yD ' m , zD' m ) are set according to the following equations 18 to 23.

【0055】 xA’m =xB’m =xC’m =xD’m =xm ………(18) yA’m =ym +(yA’0 −y0 )・(xm −xn )/(x0 −xn ) ………(19) yB’m =ym +(yB’0 −y0 )・(xm −xn )/(x0 −xn ) ………(20) yC’m =ym +(yC’0 −y0 )・(xm −xn )/(x0 −xn ) ………(21) yD’m =ym +(yD’0 −y0 )・(xm −xn )/(x0 −xn ) ………(22) zA’m =zB’m =zC’m =zD’m =zm ………(23 ) 次にステップS52に移行して、同ステップ内で行われ
る個別の演算処理に従って、前記ステップS51で抽出
した各車線領域毎にオプティカルフローの検出を行う。
このオプティカルフローの検出そのものは、前記第1実
施形態のそれと同等である。
[0055] xA 'm = xB' m = xC 'm = xD' m = x m ......... (18) yA 'm = y m + (yA' 0 -y 0) · (x m -x n) / (X 0 −x n ) (19) yB ′ m = y m + (yB ′ 0 −y 0 ) · (x m −x n ) / (x 0 −x n ) (20) ) yC ′ m = y m + (yC ′ 0 −y 0 ) · (x m −x n ) / (x 0 −x n ) (21) yD ′ m = y m + (yD ′ 0 −) y 0) · (x m -x n) / (x 0 -x n) ......... (22) zA 'm = zB' m = zC 'm = zD' m = z m ......... (23) next In step S52, the optical flow is detected for each lane region extracted in step S51 according to the individual calculation process performed in step S52.
The detection of the optical flow itself is the same as that of the first embodiment.

【0056】次にステップS53に移行して、前記第
1、第2実施形態と同様に、同ステップ内で行われる個
別の演算処理に従って、他車両の位置と相対速度を検出
する。次にステップS54に移行して、前記第1、第2
実施形態と同様に、同ステップ内で行われる個別の演算
処理に従って、運転者によるターンシグナル操作の状況
を読込む。
Next, the flow shifts to step S53, where the position and the relative speed of another vehicle are detected in accordance with the individual calculation processing performed in the same step as in the first and second embodiments. Next, the process proceeds to step S54, where the first and second
As in the embodiment, the state of the turn signal operation by the driver is read in accordance with the individual calculation processing performed in the same step.

【0057】次にステップS55に移行して、前記第
1、第2実施形態と同様に、同ステップ内で行われる個
別の演算処理に従って、接近車両があるか否かの判定を
行い、接近車両がある場合にはステップS56に移行
し、そうでない場合にはメインプログラムに復帰する。
前記ステップS56では、前記第1、第2実施形態と同
様に、同ステップ内で行われる個別の演算処理に従っ
て、前記警報装置6に対し、所定の警報発令処理を行っ
てからメインプログラムに復帰する。
Then, the flow shifts to step S55, where it is determined whether or not there is an approaching vehicle according to the individual calculation processing performed in the same step as in the first and second embodiments. If there is, the process proceeds to step S56, and if not, the process returns to the main program.
In step S56, as in the first and second embodiments, a predetermined alarm issuance process is performed on the alarm device 6 according to the individual calculation process performed in the step, and the process returns to the main program. .

【0058】この演算処理では、前述のようにして、複
雑なレーンマーカ検出を行うことなく、車線の凡その形
状と、他車両の走行車線位置を検出することができるた
め、演算処理所要時間を短縮することができる。また、
旋回状態検出量として操舵角θを用い、この操舵角θと
自車速Vとから容易且つ安価に自車両挙動を検出するこ
とができ、これらから容易に自車両後方の道路状態を推
定することができる。また、後方画像内自車両近傍にレ
ーンマーカ検出領域を設定し、そのレーンマーカ検出領
域でレーンマーカの位置を検出し、そのレーンマーカの
位置を用いて、自車両後方の車線の形状を推定する構成
としたため、自車両後方の各走行車線の形状を正確に検
出することができ、その分だけ他車両が走行している走
行車線を正確に検出することが可能となる。また、検出
された過去所定時間のレーンマーカの位置の記録を用い
て、自車両後方の道路の状態を推定する構成としたた
め、自車両後方の各走行車線の形状をより一層正確に検
出することができ、その分だけ他車両が走行している走
行車線をより一層正確に検出することが可能となる。ま
た、検出した道路勾配をを用いて、自車両後方の道路の
状態を推定する構成としたため、自車両後方の道路状態
を正確に検出することができ、その分だけ各走行車線の
形状と他車両が走行している走行車線とを正確に検出す
ることが可能となる。また、ローパスフィルタによって
修正舵等による微小な車両挙動変化成分を除去すること
により、自車両後方の道路状態を安定して推定すること
ができ、その分だけ他車両が走行している走行車線を正
確に検出することが可能となる。また、バンドパスフィ
ルタで車線変更で生じる自車両挙動変化の周波数域を除
去するようにしたため、自車両の車線変更に伴う誤差の
影響を除去して自車両後方の道路状態を安定して推定す
ることができ、その分だけ他車両が走行している走行車
線を正確に検出することが可能となる。
In this arithmetic processing, as described above, the approximate shape of the lane and the traveling lane position of another vehicle can be detected without performing complicated lane marker detection, so that the time required for the arithmetic processing is reduced. can do. Also,
Using the steering angle θ as the turning state detection amount, it is possible to easily and inexpensively detect the own vehicle behavior from the steering angle θ and the own vehicle speed V, and to easily estimate the road state behind the own vehicle from these. it can. In addition, since the lane marker detection area is set near the own vehicle in the rear image, the position of the lane marker is detected in the lane marker detection area, and the position of the lane marker is used to estimate the shape of the lane behind the own vehicle, The shape of each traveling lane behind the host vehicle can be accurately detected, and the traveling lane in which another vehicle is traveling can be accurately detected. In addition, since the configuration of the road behind the host vehicle is estimated by using the detected position of the lane marker in the past predetermined time, the shape of each traveling lane behind the host vehicle can be detected more accurately. This makes it possible to more accurately detect the traveling lane in which the other vehicle is traveling. In addition, since the configuration of estimating the state of the road behind the host vehicle using the detected road gradient is used, the road state behind the host vehicle can be accurately detected, and the shape of each traveling lane and the other It is possible to accurately detect the traveling lane in which the vehicle is traveling. In addition, by removing a small vehicle behavior change component due to a correction rudder or the like by a low-pass filter, it is possible to stably estimate a road state behind the own vehicle, and to reduce a traveling lane by which another vehicle is traveling. Accurate detection is possible. In addition, since the frequency range of the change in the behavior of the own vehicle caused by the lane change is removed by the bandpass filter, the influence of the error due to the change of the lane of the own vehicle is removed, and the road state behind the own vehicle is stably estimated. Therefore, it is possible to accurately detect the traveling lane in which the other vehicle is traveling.

【0059】以上より、前記車両後方カメラ4及び図1
1の演算処理のステップS41が本発明の撮像手段を構
成し、以下同様に、前記勾配センサ7及び図11の演算
処理のステップS46が道路勾配検出手段を構成し、操
舵角センサ2、車速センサ3及び図11の演算処理のス
テップS42〜ステップS48が後方道路状態推定手段
を構成し、図11の演算処理のステップS49、ステッ
プS50が自車両近傍レーンマーカ検出手段を構成し、
図11の演算処理のステップS51〜ステップS53が
他車両検出手段を構成し、図11の演算処理のステップ
S43が高周波数域遮断フィルタを構成し、図11の演
算処理のステップS44が所定周波数域遮断フィルタを
構成している。
As described above, the vehicle rear camera 4 and FIG.
Step S41 of the calculation process 1 constitutes the imaging means of the present invention. Similarly, the gradient sensor 7 and step S46 of the calculation process of FIG. 11 constitute the road gradient detection means, and the steering angle sensor 2, the vehicle speed sensor 3 and Steps S42 to S48 of the calculation processing of FIG. 11 constitute the rear road state estimation means, Steps S49 and S50 of the calculation processing of FIG. 11 constitute the lane marker detection means near the own vehicle,
Steps S51 to S53 of the calculation processing in FIG. 11 constitute another vehicle detection means, step S43 of the calculation processing in FIG. 11 forms a high frequency cutoff filter, and step S44 of the calculation processing in FIG. It constitutes a cutoff filter.

【0060】なお、前記各実施形態では、旋回状態検出
手段として操舵角センサを用いたが、これに代えて、或
いは加えて、自車両のヨーレートを検出するヨーレート
センサや、自車両の横加速度を検出する横加速度センサ
を用いてもよい。また、道路勾配を検出する手段として
勾配センサを用いたが、これに代えて、例えばエンジン
出力を推定するスロットル開度と車体の加減速度を検出
する前後加速度センサとを組合せて道路勾配を検出する
ことも可能である。
In each of the above embodiments, the steering angle sensor is used as the turning state detecting means. However, instead of or in addition to this, a yaw rate sensor for detecting the yaw rate of the host vehicle, or a lateral acceleration of the host vehicle, is used. A lateral acceleration sensor for detection may be used. In addition, although a gradient sensor is used as a means for detecting a road gradient, a road gradient is detected by combining, for example, a throttle opening for estimating engine output and a longitudinal acceleration sensor for detecting acceleration / deceleration of a vehicle body. It is also possible.

【0061】また、前記各実施形態では、夫々の演算処
理装置にマイクロコンピュータを用いたが、これに代え
て各種の論理回路を用いることも可能である。
In each of the above embodiments, a microcomputer is used for each arithmetic processing unit. However, various logic circuits can be used instead.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の後方監視装置の第1実施形態を示すシ
ステム構成図である。
FIG. 1 is a system configuration diagram showing a first embodiment of a backward monitoring device of the present invention.

【図2】図1の後方監視装置で行われる演算処理のフロ
ーチャートである。
FIG. 2 is a flowchart of a calculation process performed by the backward monitoring device of FIG. 1;

【図3】図2の演算処理の説明図である。FIG. 3 is an explanatory diagram of the calculation processing of FIG. 2;

【図4】図2の演算処理の説明図である。FIG. 4 is an explanatory diagram of the calculation processing of FIG. 2;

【図5】図2の演算処理の説明図である。FIG. 5 is an explanatory diagram of the calculation processing of FIG. 2;

【図6】本発明の後方監視装置の第2実施形態を示すシ
ステム構成図である。
FIG. 6 is a system configuration diagram showing a second embodiment of the backward monitoring device of the present invention.

【図7】図6の後方監視装置で行われる演算処理のフロ
ーチャートである。
FIG. 7 is a flowchart of a calculation process performed by the backward monitoring device of FIG. 6;

【図8】図7の演算処理の説明図である。FIG. 8 is an explanatory diagram of the calculation processing of FIG. 7;

【図9】図7の演算処理の説明図である。FIG. 9 is an explanatory diagram of the calculation processing of FIG. 7;

【図10】本発明の後方監視装置の第3実施形態を示す
システム構成図である。
FIG. 10 is a system configuration diagram showing a third embodiment of the backward monitoring device of the present invention.

【図11】図10の後方監視装置で行われる演算処理の
フローチャートである。
FIG. 11 is a flowchart of a calculation process performed by the backward monitoring device of FIG. 10;

【図12】図11の演算処理の説明図である。FIG. 12 is an explanatory diagram of the calculation processing of FIG. 11;

【符号の説明】[Explanation of symbols]

1は後方監視装置 2は操舵角センサ 3は車速センサ 4は車両後方カメラ 5はターンシグナル装置 6は警報装置 7は勾配センサ 1 is a rear monitoring device 2 is a steering angle sensor 3 is a vehicle speed sensor 4 is a vehicle rear camera 5 is a turn signal device 6 is an alarm device 7 is a gradient sensor

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 自車両の後方の画像を撮像する撮像手段
と、過去の自車両の挙動から自車両後方の道路の状態を
推定する後方道路状態推定手段と、前記撮像手段で撮像
された画像内に、前記後方道路状態推定手段で推定され
た自車両後方の道路状態に応じた所定の領域を設定し、
その所定の領域内で他車両を検出する他車両検出手段と
を備えたことを特徴とする後方監視装置。
1. An image capturing means for capturing an image behind a host vehicle, a rear road state estimating means for estimating a state of a road behind the host vehicle from past behavior of the host vehicle, and an image captured by the image capturing means Within, set a predetermined area according to the road state behind the host vehicle estimated by the rear road state estimation means,
A rear monitoring device, comprising: another vehicle detecting means for detecting another vehicle in the predetermined area.
【請求項2】 前記道路状態推定手段は、前記過去の自
車両の挙動として、旋回状態検出量と自車速とを用いる
ことを特徴とする請求項1に記載の後方監視装置。
2. The rear monitoring apparatus according to claim 1, wherein the road state estimating means uses a detected turning state and a vehicle speed as the past behavior of the vehicle.
【請求項3】 前記撮像手段で撮像された画像のうち、
自車両近傍に所定のレーンマーカ検出領域を設定し、そ
のレーンマーカ検出領域でレーンマーカの位置を検出す
る自車両近傍レーンマーカ検出手段を備え、前記後方道
路状態推定手段は、前記自車両近傍レーンマーカ検出手
段で検出されたレーンマーカの位置を用いて、自車両後
方の道路の状態を推定することを特徴とする請求項1又
は2に記載の後方監視装置。
3. An image captured by the image capturing means,
A predetermined lane marker detection area is set in the vicinity of the own vehicle; and a lane marker near the own vehicle that detects the position of the lane marker in the lane marker detection area is provided. The rearward monitoring device according to claim 1, wherein a state of a road behind the host vehicle is estimated using the position of the lane marker obtained.
【請求項4】 前記後方道路状態推定手段は、前記自車
両近傍レーンマーカ検出手段で検出された過去所定時間
のレーンマーカの位置の記録を用いて、自車両後方の道
路の状態を推定することを特徴とする請求項1乃至3の
何れかに記載の後方監視装置。
4. The rear road state estimating means estimates a state of a road behind the own vehicle by using a record of a position of a lane marker in the past predetermined time detected by the lane marker detecting means near the own vehicle. The rearward monitoring device according to any one of claims 1 to 3, wherein
【請求項5】 自車両後方の道路勾配を検出する後方道
路勾配検出手段を備え、前記後方道路状態推定手段は、
前記後方道路勾配検出手段で検出された自車両後方の道
路勾配を用いて、自車両後方の道路の状態を推定するこ
とを特徴とする請求項1乃至4の何れかに記載の後方監
視装置。
5. A rear road gradient detecting means for detecting a road gradient behind the host vehicle, wherein the rear road state estimating means comprises:
The rear monitoring apparatus according to claim 1, wherein a state of a road behind the host vehicle is estimated using a road gradient behind the host vehicle detected by the rear road gradient detecting unit.
【請求項6】 前記後方道路状態推定手段は、所定の周
波数以上の自車両挙動変化を除去する高周波数域遮断フ
ィルタを備えたことを特徴とする請求項1乃至5の何れ
かに記載の後方監視装置。
6. The rear road according to claim 1, wherein the rear road state estimating unit includes a high frequency cutoff filter that removes a change in the behavior of the host vehicle at a predetermined frequency or higher. Monitoring device.
【請求項7】 前記後方道路状態推定手段は、所定の周
波数域の自車両挙動変化を除去する所定周波数域遮断フ
ィルタを備えたことを特徴とする1乃至6の何れかに記
載の後方監視装置。
7. The rear monitoring apparatus according to claim 1, wherein the rear road state estimating means includes a predetermined frequency band cutoff filter that removes a change in vehicle behavior in a predetermined frequency band. .
JP2000297268A 2000-09-28 2000-09-28 Rear monitoring device Expired - Fee Related JP3911983B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000297268A JP3911983B2 (en) 2000-09-28 2000-09-28 Rear monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000297268A JP3911983B2 (en) 2000-09-28 2000-09-28 Rear monitoring device

Publications (2)

Publication Number Publication Date
JP2002104113A true JP2002104113A (en) 2002-04-10
JP3911983B2 JP3911983B2 (en) 2007-05-09

Family

ID=18779404

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000297268A Expired - Fee Related JP3911983B2 (en) 2000-09-28 2000-09-28 Rear monitoring device

Country Status (1)

Country Link
JP (1) JP3911983B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004101481A (en) * 2002-09-12 2004-04-02 Matsushita Electric Works Ltd Radar apparatus
JP2005205930A (en) * 2004-01-20 2005-08-04 Clarion Co Ltd Drive recorder device
US7266220B2 (en) 2002-05-09 2007-09-04 Matsushita Electric Industrial Co., Ltd. Monitoring device, monitoring method and program for monitoring
JP2009116723A (en) * 2007-11-08 2009-05-28 Denso Corp Lane change support system
JP2009146132A (en) * 2007-12-13 2009-07-02 Denso Corp On-vehicle image processing apparatus and on-vehicle image display apparatus
WO2010050095A1 (en) 2008-10-31 2010-05-06 株式会社小糸製作所 Headlamp controller
US8207834B2 (en) 2008-02-01 2012-06-26 Hitachi, Ltd. Image processing device and vehicle detection device provided with the same
JP2015011645A (en) * 2013-07-02 2015-01-19 日産自動車株式会社 Optical axis correction device
WO2017169706A1 (en) * 2016-03-30 2017-10-05 マツダ株式会社 Electronic mirror control device
KR102177614B1 (en) * 2020-01-09 2020-11-12 렉스젠(주) Lane generation system for collecting traffic information and method thereof
GB2598082A (en) * 2020-07-08 2022-02-23 Continental Automotive Gmbh Road mirror detection system and method
KR102388054B1 (en) * 2020-12-17 2022-04-21 (주)우신특장 Collision Prevention System for Maintenace Vehicle

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7266220B2 (en) 2002-05-09 2007-09-04 Matsushita Electric Industrial Co., Ltd. Monitoring device, monitoring method and program for monitoring
JP2004101481A (en) * 2002-09-12 2004-04-02 Matsushita Electric Works Ltd Radar apparatus
JP2005205930A (en) * 2004-01-20 2005-08-04 Clarion Co Ltd Drive recorder device
JP2009116723A (en) * 2007-11-08 2009-05-28 Denso Corp Lane change support system
JP2009146132A (en) * 2007-12-13 2009-07-02 Denso Corp On-vehicle image processing apparatus and on-vehicle image display apparatus
US8207834B2 (en) 2008-02-01 2012-06-26 Hitachi, Ltd. Image processing device and vehicle detection device provided with the same
WO2010050095A1 (en) 2008-10-31 2010-05-06 株式会社小糸製作所 Headlamp controller
JP2015011645A (en) * 2013-07-02 2015-01-19 日産自動車株式会社 Optical axis correction device
WO2017169706A1 (en) * 2016-03-30 2017-10-05 マツダ株式会社 Electronic mirror control device
JP2017183974A (en) * 2016-03-30 2017-10-05 マツダ株式会社 Electronic mirror control device
US10596969B2 (en) 2016-03-30 2020-03-24 Mazda Motor Corporation Electronic mirror control device
KR102177614B1 (en) * 2020-01-09 2020-11-12 렉스젠(주) Lane generation system for collecting traffic information and method thereof
GB2598082A (en) * 2020-07-08 2022-02-23 Continental Automotive Gmbh Road mirror detection system and method
KR102388054B1 (en) * 2020-12-17 2022-04-21 (주)우신특장 Collision Prevention System for Maintenace Vehicle

Also Published As

Publication number Publication date
JP3911983B2 (en) 2007-05-09

Similar Documents

Publication Publication Date Title
US7710246B2 (en) Vehicle driving assist system
JP2008168811A (en) Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program
US11157753B2 (en) Road line detection device and road line detection method
JP2001187553A (en) Parking support system
JP6708730B2 (en) Mobile
JPH06107096A (en) Forward monitoring method for vehicle
JP2011065219A (en) Device for estimation of road curvature
JP3911983B2 (en) Rear monitoring device
JP2001216520A (en) Surroundings monitor device for vehicle
JP2002314989A (en) Peripheral monitor for vehicle
JP3823782B2 (en) Leading vehicle recognition device
JP2002334330A (en) Vehicle recognition device
JP2002236927A (en) Curved road recognizing method for lane modeling system
JP2010061375A (en) Apparatus and program for recognizing object
JP2003308599A (en) Traveling route environment detector
JP2007087203A (en) Collision determination system, collision determination method, and computer program
JPH07302325A (en) On-vehicle image recognizing device
JPH1011585A (en) Object detection device
JP6174884B2 (en) Outside environment recognition device and outside environment recognition method
JP2000099896A (en) Traveling path detecting device and vehicle traveling controller and recording medium
WO2022009537A1 (en) Image processing device
JP2001180404A (en) Rear monitor for vehicle
JP3732108B2 (en) Image processing apparatus and image processing method for lane recognition
JP2000168442A (en) Backward monitoring device for vehicle
JP7134780B2 (en) stereo camera device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060718

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061010

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070122

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110209

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120209

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120209

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130209

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130209

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140209

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees