JP2000276697A - Periphery monitoring device for vehicle - Google Patents

Periphery monitoring device for vehicle

Info

Publication number
JP2000276697A
JP2000276697A JP2000008595A JP2000008595A JP2000276697A JP 2000276697 A JP2000276697 A JP 2000276697A JP 2000008595 A JP2000008595 A JP 2000008595A JP 2000008595 A JP2000008595 A JP 2000008595A JP 2000276697 A JP2000276697 A JP 2000276697A
Authority
JP
Japan
Prior art keywords
vehicle
lane
detecting
white line
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000008595A
Other languages
Japanese (ja)
Inventor
Kazutomo Fujinami
一友 藤浪
Naoto Ishikawa
直人 石川
Keiki Shiyuu
桂喜 周
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Corp
Original Assignee
Yazaki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Corp filed Critical Yazaki Corp
Priority to JP2000008595A priority Critical patent/JP2000276697A/en
Publication of JP2000276697A publication Critical patent/JP2000276697A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce a cost without requiring a means for detecting a white line separately by detecting the horizontal position of its own vehicle in its own lane based on the position of the white line in an image detected by a white line detecting means. SOLUTION: A white line detecting means 31-1 processes an image obtained by an image pickup means 1 to detect a pair of white lines positioned on both sides of its own lane on a road surface on which its own vehicle is traveling. A position detecting means 3a-5 detects the horizontal position of its own vehicle in its own lane based on the position of the white line in the image detected by the means 3a-1. Since the means 3a-5 detects the horizontal position of its own vehicle in its own lane by the position of the white line detected by the means 3a-1 like this. Thus, by appropriating the white line detected by the means 3a-1 to detect an optical flow, the means 8a-5 can detect the horizontal position of its own vehicle in its own vehicle by the position of the white line.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は車両用周辺監視装置
に係わり、特に、車両に搭載され、車両の周辺を撮像し
て画像を得る撮像手段と、撮像手段によって得た画像を
処理し、自車両が走行すべき路面上の自車線の両側に位
置する一対の白線を検出する白線検出手段と、白線検出
手段が検出した白線をそれぞれ延長した延長線の交わる
点をFOE(無限遠点)として設定するFOE設定手段
と、FOE設定手段により設定したFOEを利用し、撮
像手段により所定時間前後して得た2画像中の同一点の
移動量をオプティカルフローとして検出するオプティカ
ルフロー検出手段と、自車両の周辺を走行する他車両の
オプティカルフローの大きさに基づいて自車両に接近す
る他車両を検出して危険を判断する危険判断手段とを備
えた車両用周辺監視装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for monitoring the periphery of a vehicle, and more particularly to an image pickup means mounted on a vehicle for picking up an image of the periphery of the vehicle to obtain an image. A point at which an intersection of a white line detecting means for detecting a pair of white lines located on both sides of the own lane on the road surface on which the vehicle is to travel and an extension of the white line detected by the white line detecting means is defined as a FOE (point at infinity). FOE setting means for setting, an optical flow detecting means for detecting, as an optical flow, a movement amount of the same point in two images obtained before and after a predetermined time by the imaging means using the FOE set by the FOE setting means, Danger judging means for judging danger by detecting another vehicle approaching the own vehicle based on the magnitude of the optical flow of the other vehicle traveling around the vehicle To an apparatus.

【0002】[0002]

【従来の技術】従来、この種の車両用周辺監視装置とし
て、特開平7−50769号公報に記載されたようなも
のが知られている。以下、従来の車両用周辺監視装置に
ついて図14を参照して説明する。図14は、カメラに
よって得られる後側方の画像の変化を説明するための図
であり、(b)は(a)に示す自車両を含む状況におい
てカメラ1が時間tで撮像した画像、(c)は時間t+
Δtで撮像した画像をそれぞれ示す。
2. Description of the Related Art Conventionally, as this kind of vehicle periphery monitoring device, one described in Japanese Patent Application Laid-Open No. 7-50769 is known. Hereinafter, a conventional vehicle periphery monitoring device will be described with reference to FIG. FIG. 14 is a diagram for explaining a change in an image on the rear side obtained by the camera. FIG. 14B illustrates an image captured by the camera 1 at time t in a situation including the own vehicle illustrated in FIG. c) is the time t +
Images taken at Δt are shown.

【0003】今、自車両は平坦な道を直進しているとす
ると、例えば後方に見える(a)に示される道路標識及
び建物に注目すると、時間の経過により時間t、時間t
+Δtにおいて、(b)、(c)に示されるような画像
が得られる。この2枚の画像において、対応する同一点
を捜しそれらを結ぶと(d)に示されるような速度ベク
トルが得られる。これがオプティカルフローである。
[0003] Now, assuming that the vehicle is traveling straight on a flat road, for example, if attention is paid to a road sign and a building shown in FIG.
At + Δt, images as shown in (b) and (c) are obtained. In these two images, a search is made for corresponding identical points and they are connected to obtain a velocity vector as shown in (d). This is the optical flow.

【0004】ここでこれらオプティカルフローは、画像
内のFOE(Focus of Expansion)
とよばれる1点から放射状に現れる。FOEとは、無限
遠点又は、消失点と呼ばれ、車両が直進している場合画
像上において自車線の進行方向の正反対方向を示す1点
に対応する。このように、自車両が走行している場合に
求められるオプティカルフローは、FOEから放射状の
方向である。ここで後続または隣接車線を走行中の車両
から発せられたオプティカルフローは、自車線に対する
隣接車線を走行する車両の位置、相対速度からなる情報
を含んでおり、オプティカルフローが長く、かつその方
向がFOEより発散する場合は危険度が高いと考えられ
ている。
[0004] Here, these optical flows correspond to FOE (Focus of Expansion) in an image.
It appears radially from one point called. The FOE is called a point at infinity or a vanishing point, and corresponds to one point indicating the direction opposite to the traveling direction of the own lane on the image when the vehicle is traveling straight. As described above, the optical flow required when the host vehicle is traveling is in a radial direction from the FOE. Here, the optical flow emitted from the vehicle traveling in the succeeding or adjacent lane includes information including the position and the relative speed of the vehicle traveling in the adjacent lane with respect to the own lane, and the optical flow is long and its direction is long. It is considered that the degree of danger is higher when diverging than FOE.

【0005】また、従来技術では、直線道路にて自車両
が走行している自車線の白線を検出することで、自車両
走行車線領域とその横の隣接車線領域とを識別し、識別
した自車両走行車線領域又は隣接車線領域を監視領域に
決定することにより、監視不要なものについての処理時
間を省いて処理の高速化を図っている。そして、検出さ
れた白線の延長線が交わる点をFOE点として設定し、
自車線領域及び隣接車線領域についてそれぞれFOE点
から放射状にオプティカルフローを求めることで自車両
に対する接近車両の検出を行っており、このオプティカ
ルフローの大きさに基づき危険度を判断するように構成
されるので、隣接車線を走行している他車両に関し、そ
の危険度を自動的に判断でき、かつ、特別な距離計を必
要としない利点があり有効である。
In the prior art, the white lane of the own lane on which the host vehicle is traveling on a straight road is detected to identify the own lane running lane area and the adjacent lane area adjacent thereto. By determining the vehicle traveling lane area or the adjacent lane area as the monitoring area, the processing speed for those that do not need to be monitored is reduced and the processing speed is increased. Then, a point at which the detected extension of the white line intersects is set as the FOE point,
The approaching vehicle to the own vehicle is detected by calculating the optical flow radially from the FOE point for the own lane region and the adjacent lane region, and the degree of risk is determined based on the magnitude of the optical flow. Therefore, there is an advantage that the degree of danger can be automatically determined for another vehicle traveling in the adjacent lane, and no special distance meter is required.

【0006】[0006]

【発明が解決しようとする課題】ところで、車両の運転
は常に安定した心身にて行われることが望まれるが、近
年、道路網の発達や余暇の増加などによって車両を運転
する人たちが増えてきている関係で、自己の体調不良や
睡眠不足を自覚しながらもこれを軽視してハンドルを握
ることが多くなってきている。このような体調を無視し
た運転や、長時間の連続運転が行われると、運転者の疲
労が蓄積して集中力が低下することによって、事故を引
き起こす可能性が高くなる。
It is desired that the vehicle be driven with a stable mind and body at all times. However, in recent years, the number of people driving the vehicle has increased due to the development of the road network and an increase in leisure time. Because of this, it is becoming increasingly common to be aware of poor physical condition and lack of sleep and to neglect this and grasp the steering wheel. If such a driving ignoring the physical condition or continuous driving for a long time is performed, the possibility of causing an accident is increased due to accumulation of driver fatigue and a decrease in concentration.

【0007】特に、高速道路での運転は、ハンドル操作
が単調となり、運転者が居眠りを始める可能性が高ま
る。運転者の居眠りは、車線逸脱や蛇行運転の原因とな
り重大事故を引き起こす恐れがある。
In particular, when driving on a highway, the operation of the steering wheel becomes monotonous, and the possibility that the driver starts to fall asleep increases. Drivers falling asleep can cause lane departures and meandering and cause serious accidents.

【0008】そこで、赤外線を運転者の顔面に照射し、
カメラでその眼を撮像し、眼の開閉によって変化するC
CD信号を画像処理することにより瞬きの変化を検出
し、居眠り運転を検出し、その旨を警報する居眠り運転
警報装置が提案されている。
[0008] Then, infrared rays are irradiated on the driver's face,
The image of the eye is taken by the camera, and C changes according to the opening and closing of the eye.
There has been proposed a drowsy driving alarm device that detects a change in blinking by performing image processing on a CD signal, detects drowsy driving, and alerts the driver of the drowsiness.

【0009】上述した居眠り警報装置は、画像処理によ
り運転者自身の挙動を監視することで直接的に運転者の
居眠りを検出するので、画像処理のために高速演算が必
要となり、コスト的に問題があった。したがって、この
ような居眠り警報装置を上述した車両用周辺監視装置に
単純に付加するとコストが高くなる。
The above-mentioned dozing alarm device directly detects a driver's dozing by monitoring the driver's own behavior by image processing, so that high-speed calculation is required for image processing, which is costly. was there. Therefore, simply adding such a drowsiness alarm device to the above-described vehicle periphery monitoring device increases costs.

【0010】また、一般に、運転者の居眠り運転は、車
線逸脱と蛇行運転とを発生する可能性が高い。このた
め、車線逸脱と蛇行運転とを検出して、間接的に居眠り
運転を検出することも考えられるが、従来の車両周辺監
視装置では、他車両の監視は行っているが自車両の監視
は行っていない。
In general, a drowsy driving of a driver has a high possibility of causing lane departure and meandering driving. For this reason, it is conceivable to detect the lane departure and the meandering operation and indirectly detect the dozing operation, but the conventional vehicle periphery monitoring device monitors other vehicles but does not monitor the own vehicle. not going.

【0011】そこで、本発明は、上記のような問題点に
着目し、自車線内における自車両の横方向位置も検出で
きるようにした車両用周辺監視装置を提供することを課
題とする。
SUMMARY OF THE INVENTION It is therefore an object of the present invention to provide a vehicle periphery monitoring device capable of detecting a lateral position of a host vehicle in a host vehicle lane by focusing on the above problems.

【0012】[0012]

【課題を解決するための手段】上記課題を解決するため
になされた請求項1記載の発明は、図1の構成図に示す
ように、車両に搭載され、車両の周辺を撮像して画像を
得る撮像手段1と、前記撮像手段によって得た画像を処
理し、自車両が走行すべき路面上の自車線の両側に位置
する一対の白線を検出する白線検出手段3a−1と、前
記白線検出手段が検出した前記白線をそれぞれ延長した
延長線の交わる点をFOE(無限遠点)として設定する
FOE設定手段3a−2と、前記FOE設定手段により
設定したFOEを利用し、前記撮像手段により所定時間
前後して得た2画像中の同一点の移動量をオプティカル
フローとして検出するオプティカルフロー検出手段3a
−3と、自車両の周辺を走行する他車両のオプティカル
フローの大きさに基づいて自車両に接近する他車両を検
出して危険を判断する危険判断手段3a−4とを備えた
車両用周辺監視装置において、前記白線検出手段により
検出した前記白線の前記画像中の位置に基づいて前記自
車線内における自車両の横方向位置を検出する位置検出
手段3a−5とを備えることを特徴とする車両用周辺監
視装置に存する。
Means for Solving the Problems The invention according to claim 1 for solving the above-mentioned problems is mounted on a vehicle as shown in the block diagram of FIG. An image capturing means 1 for obtaining, a white line detecting means 3a-1 for processing an image obtained by the image capturing means and detecting a pair of white lines located on both sides of the own lane on a road surface on which the own vehicle is to travel; The FOE setting means 3a-2 for setting, as an FOE (point at infinity), a point at which the extension lines obtained by extending the white lines detected by the means intersect with each other, and the imaging means using the FOE set by the FOE setting means. Optical flow detection means 3a for detecting the movement amount of the same point in two images obtained before and after the time as an optical flow
And a danger determining means 3a-4 for detecting another vehicle approaching the own vehicle based on the magnitude of the optical flow of the other vehicle traveling around the own vehicle and determining danger. In the monitoring apparatus, there is provided a position detecting means 3a-5 for detecting a lateral position of the own vehicle in the own lane based on a position in the image of the white line detected by the white line detecting means. It exists in the vehicle periphery monitoring device.

【0013】請求項1記載の発明によれば、位置検出手
段3a−5が白線検出手段3a−1により検出した白線
の位置によって自車線内における自車両の横方向位置を
検出するので、オプティカルフローを検出するために白
線検出手段3a−1が検出した白線を流用して、位置検
出手段3a−5が白線の位置によって自車両内における
自車両の横方向の位置を検出することができ、別途に白
線を検出する手段を必要としない。
According to the first aspect of the present invention, the position detecting means 3a-5 detects the lateral position of the own vehicle in the own lane based on the position of the white line detected by the white line detecting means 3a-1. The white line detected by the white line detecting means 3a-1 can be used to detect the position, and the position detecting means 3a-5 can detect the lateral position of the own vehicle in the own vehicle based on the position of the white line. No means for detecting a white line is required.

【0014】請求項2記載の発明は、前記位置検出手段
は、前記白線の位置に応じて変化する前記白線又はその
延長線と、前記画像上に設定した基準線とのなす角度に
基づいて前記自車線内における自車両の横方向位置を検
出することを特徴とする請求項1記載の車両用周辺監視
装置に存する。
According to a second aspect of the present invention, the position detecting means is configured to detect the position of the white line or an extension of the white line, which changes according to the position of the white line, based on an angle formed by a reference line set on the image. 2. The vehicle periphery monitoring device according to claim 1, wherein a lateral position of the own vehicle in the own lane is detected.

【0015】請求項2記載の発明によれば、FOEから
放射状に発散する方向にある白線と基準線とのなす角度
は、車両の上下振動に伴ってFOE位置が上下しても、
変動することはないことに着目して、位置検出手段3a
−5が白線検出手段3a−1により検出した白線又はそ
の延長線と画像上に設定した基準線とのなす角度に基づ
いて自車線内における自車両の横方向位置を検出するの
で、車両の上下振動の影響を受けることなく、横方向位
置を検出することができる。
According to the second aspect of the present invention, the angle formed by the white line and the reference line in the direction radially diverging from the FOE can be set even if the FOE position moves up and down with the vertical vibration of the vehicle.
Paying attention to the fact that there is no fluctuation, the position detecting means 3a
-5 detects the lateral position of the own vehicle in the own lane based on the angle between the white line detected by the white line detecting means 3a-1 or the extension thereof and the reference line set on the image, The lateral position can be detected without being affected by vibration.

【0016】請求項3記載の発明は、前記位置検出手段
は、前記白線の位置に応じて変化する前記白線又はその
延長線と、前記画像上に設定した基準線との交点位置に
基づき前記自車線内における自車両の横方向位置を検出
することを特徴とする請求項1記載の車両用周辺監視装
置に存する。
According to a third aspect of the present invention, the position detecting means determines the position of the self-line based on the position of the intersection of the white line or an extension of the white line, which changes according to the position of the white line, and a reference line set on the image. 2. A vehicle periphery monitoring device according to claim 1, wherein a lateral position of the own vehicle in the lane is detected.

【0017】請求項3記載の発明によれば、位置検出手
段3a−5が、白線の位置に応じて変化する白線又はそ
の延長線と、画像上に設定した基準線との交点位置に基
づき自車線内における自車両の横方向位置を検出するの
で、オプティカルフローを検出するために白線検出手段
3a−1が検出した白線を流用して、位置検出手段3a
−5が白線と基準線との交点位置によって自車両内にお
ける自車両の横方向の位置を検出することができ、別途
に白線を検出する手段を必要としない。
According to the third aspect of the present invention, the position detecting means 3a-5 automatically detects the position of the white line or its extension line which changes according to the position of the white line and the reference line set on the image. Since the lateral position of the host vehicle in the lane is detected, the white line detected by the white line detecting means 3a-1 is diverted to detect the optical flow, and the position detecting means 3a is used.
-5 can detect the position of the own vehicle in the lateral direction in the own vehicle by the intersection point of the white line and the reference line, and does not require a separate means for detecting the white line.

【0018】請求項4記載の発明は、前記基準線とし
て、前記画像上の周縁を使用することを特徴とする請求
項2又は3記載の車両用周辺監視装置に存する。
According to a fourth aspect of the present invention, there is provided the vehicle periphery monitoring apparatus according to the second or third aspect, wherein a peripheral edge on the image is used as the reference line.

【0019】請求項4記載の発明によれば、基準線とし
て、画像上の周縁を使用しているので、撮像されている
白線の内、車両に最も近い部分と基準線とのなす角度又
は、交点位置に基づいて横方向位置を検出することがで
きる。
According to the fourth aspect of the present invention, since the peripheral edge on the image is used as the reference line, the angle between the reference line and the portion of the captured white line closest to the vehicle, or The lateral position can be detected based on the intersection position.

【0020】請求項5記載の発明は、前記角度又は交点
位置は、前記白線又はその延長線の一方とによるもので
あることを特徴とする請求項2〜4何れか記載の車両用
周辺監視装置に存する。
According to a fifth aspect of the present invention, in the vehicle periphery monitoring device according to any one of the second to fourth aspects, the angle or the position of the intersection is determined by the white line or one of its extension lines. Exists.

【0021】請求項5記載の発明によれば、角度又は交
点位置が、白線又はその延長線の一方とによるものであ
るので、白線又はその延長線の何れか一方と基準線とな
す角度又は交点位置を求めるだけでよく、白線又はその
延長線の各々と基準線とのなす角度又は交点位置をそれ
ぞれ求める必要がない。
According to the fifth aspect of the present invention, since the angle or the intersection point is determined by the white line or one of the extension lines thereof, the angle or the intersection point between one of the white line or the extension line and the reference line is determined. It is only necessary to determine the position, and it is not necessary to determine the angle or the intersection point between each of the white line or its extension and the reference line.

【0022】請求項6記載の発明は、前記位置検出手段
が検出した前記自車線内における自車両の横方向位置に
基づいて自車両の自車線逸脱走行を検出する車線逸脱検
出手段3a−6と、前記車両逸脱検出手段が自車両の自
車線逸脱走行を検出したとき、その旨を知らせる警報を
発する自車線逸脱警報手段5−1とを備えることを特徴
とする請求項1〜5何れか記載の車両用周辺監視装置に
存する。
The invention according to claim 6 is based on lane departure detecting means 3a-6 for detecting the departure of the own vehicle from the lane based on the lateral position of the own vehicle in the own lane detected by the position detecting means. 6. The vehicle lane departure warning means 5-1 for issuing an alarm when the vehicle departure detecting means detects the vehicle's own lane departure traveling. Vehicle peripheral monitoring device.

【0023】請求項6記載の発明によれば、車線逸脱検
出手段3a−6が位置検出手段3a−5により検出した
自車線内における自車両の横方向位置によって自車両の
自車線逸脱走行を検出し、車線逸脱警報手段5−1が、
車線逸脱検出手段3a−6により自車両の自車線逸脱走
行を検出したとき、その旨を知らせる警報を発するの
で、車線逸脱検出手段3a−6が自車線逸脱走行を検出
することにより居眠りを検出し、車両逸脱警報手段5−
1により運転者にその旨を知らせることができる。さら
に、位置検出手段3a−5を利用して居眠りによる車線
逸脱の検出に用いることができる。
According to the present invention, the lane departure detecting means 3a-6 detects the traveling of the own vehicle in the own lane based on the lateral position of the own vehicle in the own lane detected by the position detecting means 3a-5. And the lane departure warning means 5-1 is
When the lane departure detecting means 3a-6 detects the vehicle's own lane departure traveling, an alarm is issued to notify the driver of the lane departure. Therefore, the lane departure detecting means 3a-6 detects drowsiness by detecting the own lane departure traveling. , Vehicle departure warning means 5-
1 allows the driver to be notified. Furthermore, it can be used for detecting a lane departure due to dozing using the position detection means 3a-5.

【0024】請求項7記載の発明は、前記位置検出手段
が検出した前記自車線内における自車両の横方向位置の
時間による変化に基づいて自車両の蛇行運転を検出する
蛇行運転検出手段3a−7と、蛇行運転検出手段が自車
両の蛇行運転を検出したとき、その旨を知らせる警報を
発する蛇行運転警報手段5−2とを備えることを特徴と
する請求項1〜6何れか記載の車両用周辺監視装置に存
する。
According to a seventh aspect of the present invention, there is provided a meandering operation detecting means for detecting a meandering operation of the own vehicle based on a change with time of a lateral position of the own vehicle in the own lane detected by the position detecting means. 7. The vehicle according to any one of claims 1 to 6, further comprising: a meandering operation alarm unit 5-2 that issues an alarm when the meandering operation detecting unit detects the meandering operation of the vehicle. For peripheral monitoring equipment.

【0025】請求項7記載の発明によれば、蛇行運転検
出手段3a−7が、位置検出手段3a−5により検出し
た自車線内における自車両の横方向位置の時間による変
化に基づいて蛇行運転を検出し、蛇行運転警報手段3a
−7が、蛇行運転検出手段3a−7により自車両の蛇行
運転を検出したとき、その旨を知らせる警報を発するの
で、蛇行運転検出手段3a−7が蛇行運転を検出するこ
とにより居眠りを検出し、蛇行運転警報手段5−2によ
り運転者にその旨を知らせることができる。さらに、位
置検出手段3a−5を利用して居眠りによる蛇行運転の
検出に用いることができる。
According to the seventh aspect of the present invention, the meandering operation detecting means 3a-7 performs the meandering operation based on the time-dependent change of the lateral position of the own vehicle in the own lane detected by the position detecting means 3a-5. Detection means 3a
When the meandering operation detecting means 3a-7 detects the meandering operation of the own vehicle, the warning is issued to notify the driver of the occurrence of the meandering operation. Therefore, the meandering operation detecting means 3a-7 detects the snaking operation to detect the dozing. The driver can be informed of this by the meandering operation warning means 5-2. Further, the position detecting means 3a-5 can be used to detect a meandering operation due to dozing.

【0026】[0026]

【発明の実施の形態】第1実施例 以下、本発明の実施の形態を図面に基づいて説明する。
図2は本発明による車両周辺監視装置の構成を示すブロ
ック図であり、同図において、撮像手段としてのカメラ
1は、車両の後側方が撮像できる位置に取り付けられ、
レンズ1aにより規定される画角範囲の画像をイメージ
プレーン1b上に結像させる。
DESCRIPTION OF THE PREFERRED EMBODIMENTS First Embodiment An embodiment of the present invention will be described below with reference to the drawings.
FIG. 2 is a block diagram showing the configuration of the vehicle periphery monitoring device according to the present invention. In FIG.
An image in the angle of view range defined by the lens 1a is formed on the image plane 1b.

【0027】記憶部2は、第1、第2フレームメモリ2
a、2b、微分画像メモリ2c及び発散オプティカルフ
ローメモリ2dを有している。第1フレームメモリ2a
及び第2フレームメモリ2bは、カメラ1のイメージプ
レーン1b上に結像された撮像画像データD1を例えば
512*512画素、輝度0〜255階調といったm行
n列の画素に変換したものを画素データD2、D3とし
て一時的に記憶すると共にマイクロコンピュータ3(以
下マイコン3)に出力する。これらの第1又は第2フレ
ームメモリ2a、2bは、例えば第1フレームメモリ2
aには時間t、第2フレームメモリ2bには時間t+Δ
t、…といったように、所定時間Δt毎に撮像された画
像をm行n列の画素に変換した画素データD2、D3が
順次記憶される。
The storage unit 2 includes first and second frame memories 2
a, 2b, a differential image memory 2c, and a divergent optical flow memory 2d. First frame memory 2a
And the second frame memory 2b converts the captured image data D1 imaged on the image plane 1b of the camera 1 into pixels of m rows and n columns, for example, 512 * 512 pixels and a luminance of 0 to 255 gradations. The data is temporarily stored as data D2 and D3 and output to a microcomputer 3 (hereinafter, microcomputer 3). These first or second frame memories 2a and 2b are, for example, first frame memories 2a and 2b.
a is time t, and the second frame memory 2b is time t + Δ
Pixel data D2 and D3 obtained by converting an image captured every predetermined time Δt into pixels of m rows and n columns, such as t, are sequentially stored.

【0028】微分画像メモリ2cは、カメラ1のイメー
ジプレーン1b上に結像された撮像画像データD1を微
分することにより生成された微分画像データD4を記憶
する。また、発散オプティカルフローメモリ2dは発散
方向のオプティカルフローデータD5を記憶すると共に
マイコン3に出力する。
The differential image memory 2c stores differential image data D4 generated by differentiating the captured image data D1 formed on the image plane 1b of the camera 1. The divergent optical flow memory 2d stores optical flow data D5 in the divergent direction and outputs the data to the microcomputer 3.

【0029】マイコン3は、制御プログラムに従って動
作するCPU3aと、このCPU3aの制御プログラム
及び予め与えられる設定値などを保持するROM3b
と、CPU3aの演算実行時に必要なデータを一時的に
保持するRAM3cとを有している。
The microcomputer 3 comprises a CPU 3a which operates according to a control program, and a ROM 3b which holds a control program of the CPU 3a and preset values.
And a RAM 3c for temporarily storing data necessary when the CPU 3a executes the calculation.

【0030】上述したCPU3aは、自車両が走行すべ
き自車線の両側に位置する一対の白線を検出する白線検
出手段、FOEを設定するFOE設定手段、FOEを利
用しカメラより所定時間前後して得た2画像中の同一点
の移動量をオプティカルフローとして検出するオプティ
カルフロー検出手段、他車両のオプティカルフローの大
きさに基づいて自車両に接近する他車両を検出して危険
を判断する危険判断手段、自車線内における自車両の横
方向位置を検出する位置検出手段、自車線内における自
車両の横方向位置に基づいて車線逸脱走行を検出する車
線逸脱検出手段及び自車線内における自車両の横方向位
置の時間による変化に基づいて蛇行運転を検出する蛇行
運転検出手段として働く。
The above-mentioned CPU 3a uses a white line detecting means for detecting a pair of white lines located on both sides of the own lane on which the own vehicle is to travel, a FOE setting means for setting the FOE, and a predetermined time before or after the camera using the FOE. Optical flow detecting means for detecting an amount of movement of the same point in the two obtained images as an optical flow, a danger judgment for detecting another vehicle approaching the own vehicle based on the size of the optical flow of the other vehicle and determining danger Means, position detecting means for detecting the lateral position of the own vehicle in the own lane, lane departure detecting means for detecting lane departure traveling based on the lateral position of the own vehicle in the own lane, and It functions as a meandering operation detecting means for detecting the meandering operation based on the change of the lateral position with time.

【0031】ウインカ検出部4は、車両のウインカ機構
に取り付けられていて、運転者が車両を左右側に転回さ
せる際に操作するウインカスイッチがオンするとHレベ
ルのウインカ信号S1をマイコン3に対して出力する。
The turn signal detecting section 4 is attached to the turn signal mechanism of the vehicle, and outputs an H-level turn signal S1 to the microcomputer 3 when the turn signal switch operated by the driver to turn the vehicle to the left or right is turned on. Output.

【0032】車線逸脱警報手段及び蛇行運転警報手段と
しての警報発生部5は、スピーカ5aと、表示部5bと
を有している。警報発生部5は、カメラ1が撮像した画
像を表示したり、あるいは、蛇行運転及び車線逸脱が検
出された場合、又は他車両が自車両に急接近してきて接
触の危険があると判断した場合に、それぞれメッセージ
などを表示して運転者に対して危険を映像で知らせる。
The alarm generator 5 as a lane departure alarm and a meandering operation alarm has a speaker 5a and a display 5b. The alarm generation unit 5 displays an image captured by the camera 1, or detects a meandering operation and a lane departure, or determines that there is a danger of contact due to a sudden approach of another vehicle to the own vehicle. Then, a message or the like is displayed to inform the driver of the danger with a video.

【0033】スピーカ5aは、蛇行運転及び車線逸脱が
検出された場合、又は他車両との接触の危険性ありと判
断された場合にそれぞれマイコン3から発せられる音声
信号S2に基づき、音声ガイダンスあるいは警報音とい
った音声を発生する。そして、スピーカ5aは、この音
声により運転者に対して危険を音声で知らせる。
The loudspeaker 5a provides voice guidance or an alarm based on a voice signal S2 issued from the microcomputer 3 when a meandering operation and a lane departure are detected, or when it is determined that there is a risk of contact with another vehicle. Generates sound such as sound. Then, the speaker 5a notifies the driver of the danger by voice using the voice.

【0034】上述した車両用周辺監視装置の動作につい
て以下説明する。まず、カメラ1は、図3に示す撮像画
像を撮像画像データD1としてマイコン3に対して出力
する。この撮像画像は、道路10、道路10上に描かれ
た白線11〜15及び道路10の両脇に立設された壁1
6が、画面上における水平方向中心位置にて消失する画
像となっている。
The operation of the above-described vehicle periphery monitoring device will be described below. First, the camera 1 outputs the captured image shown in FIG. 3 to the microcomputer 3 as captured image data D1. This captured image includes the road 10, the white lines 11 to 15 drawn on the road 10, and the walls 1 standing on both sides of the road 10.
The image 6 disappears at the horizontal center position on the screen.

【0035】図3の撮像画像は、上述したように、カメ
ラ1が車両の後部に後方に向けて取り付けられているの
で、撮像画像における右側が進行方向を基準とした場合
の左側に相当し、撮像画像における左側が進行方向を基
準とした場合の右側に相当する。
As described above, the captured image in FIG. 3 has the camera 1 mounted rearward on the rear portion of the vehicle, so that the right side of the captured image corresponds to the left side with respect to the traveling direction. The left side in the captured image corresponds to the right side with respect to the traveling direction.

【0036】CPU3aは、カメラ1から出力された時
間tにおける撮像画像データD1を上述したような51
2*512画素、輝度0〜255階調の画素データD2
に変換して、第1フレームメモリ2aに出力する。第1
フレームメモリ2aは、この画素データD2をマイコン
3によって常時読み出し可能に、一時記憶する。さら
に、時間Δt後に、マイコン3は、時間t+Δtに撮像
された撮像画像の画素データD3を第2フレームメモリ
2bに出力する。つまり、第1、第2フレームメモリ2
a、2bには所定時間Δt毎に撮像された画像の画素デ
ータD2、D3が順次記憶される。
The CPU 3a converts the picked-up image data D1 at time t output from the camera 1 into the
Pixel data D2 of 2 * 512 pixels and luminance of 0 to 255 gradations
And outputs it to the first frame memory 2a. First
The frame memory 2a temporarily stores the pixel data D2 so that the microcomputer 3 can always read the pixel data D2. Further, after the time Δt, the microcomputer 3 outputs the pixel data D3 of the captured image captured at the time t + Δt to the second frame memory 2b. That is, the first and second frame memories 2
Pixel data D2 and D3 of an image captured every predetermined time Δt are sequentially stored in a and 2b.

【0037】また、CPU3aは車線逸脱又は蛇行運転
の検出を行うため図3に示す撮像画像の画素データD2
に関し、そのm行n列の画素の輝度値Imnを図3にお
ける水平方向に走査し、隣接する画素の輝度値Imn+1
との差Imn+1−Imnが所定輝度値以上のとき、輝度値
mn=1とし、所定輝度値以下のとき、輝度値Imn
0として、図4に示すような撮像画像上のエッジ部分の
みの画像である微分画像(エッジ画像)を生成し、生成
した微分画像を微分画像データD4として微分画像メモ
リ2cに対して出力する。
The CPU 3a detects the departure of the lane or the meandering operation.
, The luminance values Im , n of the pixels in the m rows and n columns are scanned in the horizontal direction in FIG. 3, and the luminance values Im , n + 1 of the adjacent pixels are scanned.
When the difference I m, n + 1 -I m , n is equal to or higher than the predetermined luminance value and, to a luminance value I m, and n = 1, when less than a predetermined luminance value, the luminance value I m, n =
As 0, a differential image (edge image) which is an image of only the edge portion on the captured image as shown in FIG. 4 is generated, and the generated differential image is output to the differential image memory 2c as differential image data D4.

【0038】次に、この微分画像に対し図5に示すよう
な基準線VSLを設定する。この基準線VSLは、微分画像
上の水平方向における中心位置であって垂直方向に、微
分画像を縦断するように設定される。つまり、基準線V
SLは、自車両が走行している白線12及び13によって
区切られた車線の水平方向の中心に設定される。
Next, a reference line VSL as shown in FIG. 5 is set for this differential image. The reference line VSL is set so as to traverse the differential image in the vertical direction at the center position in the horizontal direction on the differential image. That is, the reference line V
SL is set at the center in the horizontal direction of the lane separated by the white lines 12 and 13 where the vehicle is traveling.

【0039】基準線VSLが設定されると、自車両が走行
すべき路面上の自車線の両側に位置する一対の白線12
及び13を構成するエッジ点の探索を行う。この白線1
2及び13を構成するエッジ点の探索は、図5に示す画
面の下端に位置する水平ラインH(LO)から上側に向けて
行われる。すなわち、基準線VSL上であって最下端の点
(SO)から、水平方向両端部に向けてエッジ点の探索を
行う。そして、この探索により、基準線VSLの左側に存
在する白線12のエッジを構成する点P(LO)及び基準線
SLの右側に存在する白線13のエッジを構成する点P
(RO)が取得される。
When the reference line V SL is set, a pair of white lines 12 located on both sides of the own lane on the road surface on which the own vehicle should travel
, And 13 are searched. This white line 1
The search for the edge points that form 2 and 13 is performed upward from the horizontal line H (LO) located at the lower end of the screen shown in FIG. That is, the reference line V SL on the A and the lowermost point P (SO), to search for a edge point toward the horizontal direction at both ends. By this search, point constituting the edge of the white line 13 that is present on the right side of the reference line V SL left P (LO) and the reference line V SL points constituting the edge of the white line 12 in the presence of P
(RO) is obtained.

【0040】続いて、最下端より2番目に位置する点P
(S1)から、水平方向両端部に向けてエッジ点の探索が行
われ、これにより基準線VSLの左側に存在する白線12
のエッジを構成する点P(L1)及び基準線VSLの右側に存
在する白線13のエッジを構成する点P(R1)が取得され
る。
Subsequently, a point P located second from the lowermost end
From (S1), the white line 12 to search for edge points is performed toward the horizontal direction both end portions, that are contained in the left side of the reference line V SL
P points constituting the edge of the white line 13 that is present on the right side of the point P constituting the edges (L1) and the reference line V SL (R1) is obtained.

【0041】このような処理を微分画像における上方に
向けて順次エッジ点を抽出する。このとき、後続を走行
する他車両を構成するエッジ点P(L(m+2))
(R(m+2))、P (L(m+4))及びP(R(m+4))も抽出してしま
うので、この抽出したエッジ点からさらに同一の直線上
にあるもののみを抽出する。この結果、自車両が走行す
べき路面上の自車線の両側に位置する一対の白線12及
び13を構成するエッジ点のみを抽出することができ
る。そして、この抽出したエッジ点を最小二乗法による
近似線を生成し、この近似線を白線12及び13として
検出する。そして、白線12及び13として検出された
近似線を延長させて、その交点をFOEとして設定す
る。さらに、時間Δt後の撮像画像の画素データD3に
関しても同様に自車両が走行すべき路面上の自車線の両
側に位置する一対の白線12及び13を検出し、検出し
た白線12及び13の延長線が交わる点をFOEを設定
する。
The above processing is performed upward in the differential image.
Edge points are sequentially extracted. At this time, follow
Point P that constitutes another vehicle(L (m + 2)),
P(R (m + 2)), P (L (m + 4))And P(R (m + 4))I also extracted
So, on the same straight line from this extracted edge point
Only those that are in As a result, the vehicle travels.
A pair of white lines 12 on either side of the lane
Only the edge points that make up
You. Then, the extracted edge points are calculated by the least squares method.
Generate an approximate line, and use the approximate lines as white lines 12 and 13.
To detect. And detected as white lines 12 and 13
Extend the approximation line and set the intersection as FOE
You. Further, the pixel data D3 of the captured image after the time Δt
The same applies to both lanes on the road where the vehicle should travel.
The pair of white lines 12 and 13 located on the side are detected and detected.
Set the FOE at the point where the extension lines of the white lines 12 and 13 intersect
I do.

【0042】さらに、CPU3aは近接車線を走行する
他車両、又は後続する他車両に対する危険度を検出する
ためオプティカルフローを求める。以下オプティカルフ
ローを求める手順を図6を参照して説明する。まず始め
に第1フレームメモリ2aから画素データD2を取り込
み、時間tでの撮像画像において、着目する1点に対
し、この着目する1点を中心として上述したように設定
したFOEから放射線の方向(すなわちFOEと着目す
る1点を結ぶ方向)に細長い窓を設定する(図6
(a))。次に、第2フレームメモリ2bから画素デー
タD3を取り込み、時間t+Δtでの撮像画像におい
て、窓をFOEから放射状の方向に一点づつ移動しなが
ら、時間tで窓を構成する各画素について、該各画素に
対応した時間t+Δtでの窓を構成する各画素と輝度差
の絶対値を求める。つまり、時間tでの画素P(図6
(a))に対応した時間t+Δtでの画素Q(図6
(b))との輝度差の絶対値を求める。この求めた輝度
差の総和が最小になったときの窓の移動量が、着目する
一点のオプティカルフローとして求められる。
Further, the CPU 3a obtains an optical flow for detecting the degree of danger to another vehicle traveling in a nearby lane or to another following vehicle. Hereinafter, a procedure for obtaining an optical flow will be described with reference to FIG. First, the pixel data D2 is fetched from the first frame memory 2a, and in the captured image at the time t, for one point of interest, the direction of the radiation from the FOE set as described above centering on this one point of interest ( That is, an elongated window is set in the direction connecting the FOE and one point of interest (FIG. 6).
(A)). Next, the pixel data D3 is fetched from the second frame memory 2b, and in the captured image at the time t + Δt, while moving the window one point at a time in the radial direction from the FOE, for each pixel constituting the window at the time t, The absolute value of the luminance difference between each pixel constituting the window at the time t + Δt corresponding to the pixel is obtained. That is, the pixel P at time t (FIG. 6)
The pixel Q at time t + Δt corresponding to (a)) (FIG. 6)
The absolute value of the luminance difference from (b)) is obtained. The amount of movement of the window when the sum of the obtained luminance differences is minimized is obtained as an optical flow of one point of interest.

【0043】以上のような処理を撮像画像の全ての点に
おいて繰り返し行うことにより、撮像画像全体のオプテ
ィカルフローを求めることができる。また、窓内の画素
を走査して、着目する点を抽出し、抽出された点を結ん
でオプティカルフローを求めるようにしてもよい。
By repeating the above-described processing at all points of the captured image, the optical flow of the entire captured image can be obtained. Alternatively, a pixel in the window may be scanned to extract a point of interest, and the extracted points may be connected to obtain an optical flow.

【0044】求めたオプティカルフローの方向がFOE
に向かう方向ならば近隣車線を走行する他車両又は後続
を走行する他車両が自車両の速度より遅く、自車両から
離れていくことを示しており、反対にオプティカルフロ
ーの方向がFOEに対して発散する方向である場合は自
車両に接近していることを示している。
The direction of the obtained optical flow is FOE.
If it is the direction toward, it indicates that another vehicle traveling in the nearby lane or another vehicle traveling in the succeeding lane is slower than the speed of the own vehicle and separates from the own vehicle, and conversely, the direction of the optical flow is relative to the FOE. The direction of divergence indicates that the vehicle is approaching.

【0045】また、撮像画像内の風景や路面上のマーク
等によって生ずるオプティカルフローの方向は全てFO
Eに向かう方向となり、接近する近隣又は後続他車両と
容易に区別できる。この近隣又は後続他車両から発せら
れたオプティカルフローの長さは、自車両と近隣又は後
続他車両との相対速度に比例する。したがって、FOE
から発散する方向のオプティカルフローの長さが、所定
長さを超えたとき他車両が自車両に急接近しているとし
て、その旨を知らせるため例えばスピーカ5aから音声
で「接近してくる車があります」と警報させ、表示部5
bに「他車両接近」の表示を行う。
The directions of optical flows generated by landscapes in the captured image, marks on the road surface, and the like are all FO.
It becomes the direction toward E and can be easily distinguished from the approaching nearby or other following vehicles. The length of the optical flow emitted from this neighboring or following other vehicle is proportional to the relative speed between the own vehicle and the neighboring or following other vehicle. Therefore, FOE
When the length of the optical flow in the direction of divergence from the vehicle exceeds a predetermined length, it is determined that another vehicle is rapidly approaching the own vehicle. There is an alarm ", and the display 5
The message “other vehicle approaching” is displayed in b.

【0046】さらに、CPU3aは、自車線内における
自車両の横方向位置を検出するために、図7に示すよう
にFOEからの垂線Lを基準線として設定し、この垂線
Lと白線12及び13とのなす角度θ1及びθ2を検出
して、角度θ1と角度θ2との角度差θ1−θ2を求め
る。次に、Δt後の撮像画像の画素データD3について
も、同様に角度差θ1−θ2を求める。つまり、Δt毎
に角度差θ1−θ2を求める。
Further, the CPU 3a sets a perpendicular L from the FOE as a reference line as shown in FIG. 7 to detect the lateral position of the own vehicle in the own lane. Are detected, and the angle difference θ1−θ2 between the angle θ1 and the angle θ2 is determined. Next, the angle difference θ1−θ2 is similarly obtained for the pixel data D3 of the captured image after Δt. That is, the angle difference θ1−θ2 is obtained for each Δt.

【0047】角度差θ1−θ2を求めた結果、図7に示
すように車両が車線の中心を走行していれば、角度差θ
1−θ2=0となる(図7(a))。また、自車両内に
おいて、自車両がカメラ1からみて左寄りに走行してい
れば、角度差θ1−θ2<0となり(図7(b))、自
車両が自車線の左側によるほど角度差θ1−θ2の値は
小さくなる。さらに、自車両が自車線をカメラ1からみ
て右寄りに走行していれば、角度差θ1−θ2>0とな
り(図7(c))、車線の右側によればよるほど角度差
θ1−θ2の値は大きくなる。上述したように角度差θ
1−θ2を求めることによって、時間ΔT毎に自車線内
において自車両の横方向位置を検出することができる。
As a result of calculating the angle difference θ1−θ2, if the vehicle is traveling in the center of the lane as shown in FIG.
1−θ2 = 0 (FIG. 7A). In addition, if the own vehicle is traveling leftward as viewed from the camera 1 in the own vehicle, the angle difference becomes θ1−θ2 <0 (FIG. 7 (b)). The value of -θ2 becomes smaller. Furthermore, if the own vehicle is traveling rightward in the own lane as viewed from the camera 1, the angle difference θ1−θ2> 0 (FIG. 7 (c)). The value increases. As described above, the angle difference θ
By obtaining 1−θ2, the lateral position of the host vehicle in the host lane can be detected at every time ΔT.

【0048】また、オプティカルフローを検出するため
に検出した又は、設定した白線とFOEとを流用してF
OEからの垂線と白線の各々とのなす角度θ1及びθ2
により自車線内における自車両の横方向位置を検出する
ことにより、従来の車両用周辺監視装置による自車両に
接近する他車両の検出の他に、安価に自車線内における
自車両の横方向位置も検出することができる。
Also, the white line and the FOE detected or set to detect the optical flow are used to
Angles θ1 and θ2 between each of a perpendicular line from OE and a white line
By detecting the lateral position of the own vehicle in the own lane, in addition to the detection of other vehicles approaching the own vehicle by the conventional vehicle periphery monitoring device, the lateral position of the own vehicle in the own lane at low cost Can also be detected.

【0049】次に、自車線内における自車両の横方向位
置から自車線逸脱走行を検出するために、例えば、角度
差θ1−θ2を求めた結果、ウインカ検出部4からウイ
ンカ信号S1が出力されていなければ、運転者に車線変
更の意志がないと判断して、自車両が自車線のカメラ1
からみて左側に逸脱したときに撮像された画像から求め
た角度差θ1−θ2を第1の所定値、右側に逸脱したと
きに撮像された画像から求めた角度差θ1−θ2を第2
の所定値として、角度差θ1−θ2が第1の所定値以
上、または第2の所定値以下のとき、車線逸脱走行を検
出する。そして、その旨を知らせるため例えばスピーカ
5aから音声で「蛇行運転しています」と警報させ、表
示部5bに「車線逸脱」の表示を行わせることによっ
て、居眠りなどによる車線逸脱走行を警報する。このた
め、居眠りによる事故を未然に防ぐことができる。さら
に、上述しように検出した自車両の横方向位置から居眠
りによる車線逸脱の検出に用いることにより安価に居眠
りによる車線逸脱を検出することができる。
Next, to detect the lane departure from the lateral position of the own vehicle in the own lane, for example, as a result of obtaining an angle difference θ1−θ2, a turn signal signal S1 is output from the turn signal detecting section 4. If not, it is determined that the driver does not intend to change lanes, and the own vehicle is in the camera 1 of the own lane.
The angle difference θ1−θ2 obtained from the image captured when deviating to the left is a first predetermined value, and the angle difference θ1−θ2 obtained from the image captured when deviating to the right is the second value.
When the angle difference θ1−θ2 is equal to or larger than a first predetermined value or equal to or smaller than a second predetermined value, the lane departure traveling is detected. Then, in order to notify the driver of the lane departure due to falling asleep, a warning is given by, for example, a voice from the speaker 5a indicating that the vehicle is running in a meandering manner, and the display unit 5b is displayed to indicate "lane departure." For this reason, an accident due to falling asleep can be prevented. Furthermore, by using the detected lateral position of the vehicle to detect a lane departure due to dozing, it is possible to detect a lane departure due to dozing at low cost.

【0050】さらに、自車線内における自車両の横方向
位置の時間による変化に基づいて自車両の蛇行運転を検
出ために、例えば、図8に示すようにΔtごとに撮像し
た画像から検出した横方向位置から得られる軌跡の山と
なる点N1、N2…を抽出し、隣り合った抽出した点同
士の横方向位置の変位量ΔMが第3の所定値を超える場
合が所定時間以内に所定回数あったとき、蛇行運転を検
出する。そして、その旨を知らせるためスピーカ5aか
ら音声で「蛇行運転しています」と警報させ、表示部5
bに「蛇行運転」の表示を行わせることによって、居眠
りなどによる蛇行運転を警報することができる。このた
め、居眠りによる事故を未然に防ぐことができる。さら
に、上述しように検出した自車両の横方向位置から居眠
りによる車線逸脱の検出に用いることにより安価に居眠
りによる蛇行運転を検出することができる。
Further, in order to detect the meandering operation of the host vehicle based on the time-dependent change in the lateral position of the host vehicle in the host vehicle lane, for example, as shown in FIG. The points N1, N2,..., Which are the peaks of the trajectory obtained from the direction position, are extracted, and when the displacement ΔM of the lateral position between adjacent extracted points exceeds a third predetermined value, the predetermined number of times is determined within a predetermined time. When there is, meandering operation is detected. Then, in order to notify the user, the speaker 5a gives an alarm by sound from the speaker 5a to indicate that "meandering."
By causing b to display “meandering operation”, it is possible to warn of a meandering operation due to dozing or the like. For this reason, an accident due to falling asleep can be prevented. Furthermore, by using the detected lateral position of the host vehicle to detect a lane departure due to dozing, it is possible to detect a meandering operation due to dozing at low cost.

【0051】以上概略説明した動作の詳細をマイコン3
のCPU3aの処理手順を図9示すフローチャートを参
照にして以下説明する。まず図3に示すような時間tの
撮像画像の撮像画像データD1がカメラ1から取り込ま
れ、時間tにおける撮像画像データD1に応じた画素デ
ータD2として第1フレームメモリ2aに記憶される
(ステップSP1)。次に、時間t+Δtの各撮像画像
データD1が取り込まれ、画素データD3としてそれぞ
れ第2フレームメモリ2bに記憶される(ステップSP
2)。この各画素データD2、D3を微分することによ
って微分画像をそれぞれ生成し(ステップSP3)、車
両が走行する自車線の両側を形成する白線を検出する
(ステップSP4)。次に、検出した両側の白線を延長
し、その交点をFOEとして設定する(ステップSP
5)。
The details of the operation outlined above are described in the microcomputer 3
The processing procedure of the CPU 3a will be described below with reference to the flowchart shown in FIG. First, captured image data D1 of a captured image at time t as shown in FIG. 3 is captured from the camera 1 and stored in the first frame memory 2a as pixel data D2 corresponding to the captured image data D1 at time t (step SP1). ). Next, each captured image data D1 at time t + Δt is captured and stored in the second frame memory 2b as pixel data D3 (step SP).
2). Differentiated images are generated by differentiating the respective pixel data D2 and D3 (step SP3), and white lines forming both sides of the own lane on which the vehicle travels are detected (step SP4). Next, the detected white lines on both sides are extended, and their intersection is set as the FOE (step SP
5).

【0052】次に、近接車線を走行する他車両、又は後
続する他車両に対する危険度を検出するためオプティカ
ルフローを検出し(ステップSP6)、求めたオプティ
カルフローがFOEから発散する方向で、かつ長さが所
定長さを超えたとき他車両が自車両に接近しているとし
て(ステップSP7でY)、その旨を知らせるため例え
ばスピーカ5aから音声で「接近してくる車がありま
す」と警報し、表示部5bに他車両急接近の表示を行わ
せて(ステップSP8)、ステップSP2へ戻る。オプ
ティカルフローがFOEに収束する方向であったり、発
散する方向でも長さが所定長さを超えいなかったすると
き接近してくる他車両がないとして(ステップSP7で
N)、次のステップへ進む。
Next, an optical flow is detected in order to detect a danger to another vehicle traveling in a nearby lane or another following vehicle (step SP6), and the obtained optical flow is diverged from the FOE in a long direction. When the vehicle length exceeds a predetermined length, it is determined that another vehicle is approaching the own vehicle (Y in step SP7), and a warning that there is a vehicle approaching is issued by a voice from the speaker 5a, for example, to notify that fact. Then, the display unit 5b is caused to display the other vehicle's sudden approach (step SP8), and the process returns to step SP2. If there is no other vehicle approaching when the optical flow converges on the FOE or the length does not exceed the predetermined length even in the diverging direction (N in step SP7), the process proceeds to the next step. .

【0053】次に、図7に示すように時間tにおける撮
像画像の画素データD2上に設定したFOEから降ろし
た垂線Lと白線12及び13とのなす角θ1及びθ2を
検出して、角θ1と角θ2との角度差θ1−θ2を求め
る。次に、時間t+Δtの撮像画像の画素データD3に
ついても、同様に角度差θ1−θ2を求める(ステップ
SP9)。
Next, as shown in FIG. 7, the angles .theta.1 and .theta.2 between the vertical lines L and the white lines 12 and 13 dropped from the FOE set on the pixel data D2 of the captured image at time t are detected, and the angles .theta.1 Angle θ1−θ2 between the angle θ2 and the angle θ2 is determined. Next, the angle difference θ1−θ2 is similarly obtained for the pixel data D3 of the captured image at time t + Δt (step SP9).

【0054】次に、ウインカ検出部4からウインカ信号
S1が出力されていない場合(ステップSP10で
N)、運転者に車線変更の意志がないと判断して車線逸
脱を検出するためステップSP9で求めた時間tにおけ
る角度差θ1−θ2又は時間t+Δtにおける角度差θ
1−θ2に基づいて自車両が自車線を逸脱したか否かを
判断する(ステップSP11)。この結果、自車両が車
線を逸脱しているときは(ステップSP11でY)車両
が車線逸脱したとしてその旨を知らせるため例えばスピ
ーカ5aから音声で「車線を逸脱しました」と警報し、
表示部5bに車線逸脱の表示を行わせ(ステップSP1
2)、次のステップSP13へ進む。また、車線を逸脱
していないと判断できるときは(ステップSP11で
N)、直接ステップSP13に進む。
Next, if the turn signal S1 is not output from the turn signal detecting section 4 (N in step SP10), it is determined in step SP9 that it is determined that the driver has no intention to change lanes and the lane departure is detected. Angle difference θ1−θ2 at time t or angle difference θ at time t + Δt
It is determined whether or not the own vehicle has deviated from the own lane based on 1-θ2 (step SP11). As a result, when the vehicle deviates from the lane (Y in step SP11), the vehicle departs from the lane to notify the driver that the vehicle has departed from the lane.
The display unit 5b displays the lane departure (step SP1).
2) The process proceeds to the next step SP13. When it can be determined that the vehicle has not deviated from the lane (N in step SP11), the process directly proceeds to step SP13.

【0055】次に、角度差θ1−θ2から検出される自
車線内における自車両の横方向位置の時間による変化に
基づいて蛇行運転を検出する(ステップSP13)。こ
の結果、運転者が蛇行運転をしていた場合は(ステップ
SP13でY)、その旨を知らせるため例えばスピーカ
5aから音声で「蛇行運転しています」と警報し、表示
部5bに蛇行運転の表示を行わせ(ステップSP14)
次のステップSP2へ戻る。蛇行運転していない場合は
(ステップSP13でN)、直接ステップSP2へ戻
る。
Next, a meandering operation is detected based on a temporal change in the lateral position of the vehicle in the vehicle lane detected from the angle difference θ1−θ2 (step SP13). As a result, if the driver is performing the meandering operation (Y in step SP13), for example, a warning is given by voice from the speaker 5a to notify that the driver is performing the meandering operation, and the meandering operation is displayed on the display unit 5b. Display is performed (step SP14).
The process returns to the next step SP2. When the meandering operation is not performed (N in step SP13), the process directly returns to step SP2.

【0056】また、ウインカ検出部4からウインカ信号
S1が出力されている場合(ステップSP10でY)、
運転者に車線変更する意志があると判断して車線逸脱及
び蛇行運転を検出しないでステップSP2へ戻る。
When the blinker signal S1 is output from the blinker detector 4 (Y in step SP10),
It is determined that the driver intends to change lanes, and the process returns to step SP2 without detecting lane departure and meandering operation.

【0057】第2実施例 なお、上述した第1実施例では、FOEからの垂線Lを
基準線として使用するとともに、垂線Lと白線12及
び、13とのなす角度θ1及び、θ2の大小関係によっ
て自車両内における横方向位置を検出していたが、例え
ば、図10に示すように、予め設定された画像に対して
水平な基準線L1と、白線12及び、13とのなす角度
θ11及び、θ21の大小関係によって自車両内におけ
る横方向位置を検出するようにしてもよい。
Second Embodiment In the first embodiment, the perpendicular L from the FOE is used as a reference line, and the angles θ1 and θ2 between the perpendicular L and the white lines 12 and 13 are determined by the magnitude relation. Although the lateral position in the own vehicle was detected, for example, as shown in FIG. 10, the angle θ11 between the reference line L1 and the white lines 12 and 13 which are horizontal with respect to a preset image, and The lateral position in the host vehicle may be detected based on the magnitude relationship of θ21.

【0058】第2実施例における横方向位置検出の詳細
を以下説明する。まず、図10に示すように基準線L1
と白線12及び13とのなす角度θ11及びθ21を検
出して、角度θ11と角度θ21との角度差θ11−θ
21を求める。
The details of the lateral position detection in the second embodiment will be described below. First, as shown in FIG.
And the white lines 12 and 13 detect angles θ11 and θ21, and determine the angle difference θ11−θ between the angles θ11 and θ21.
Find 21.

【0059】角度差θ1−θ2を求めた結果、図10に
示すように車両が車線の中心を走行していれば、角度差
θ11−θ21=0となる(図10(a))。また、自
車線内において、自車両がカメラ1からみて左寄りに走
行していれば、角度差θ11−θ21>0となり(図1
0(b))、自車両が自車線の左側によるほど角度差θ
11−θ21の値は大きくなる。
As a result of calculating the angle difference θ1−θ2, if the vehicle is traveling in the center of the lane as shown in FIG. 10, the angle difference θ11−θ21 = 0 (FIG. 10 (a)). Further, if the own vehicle is traveling leftward as viewed from the camera 1 in the own lane, the angle difference θ11−θ21> 0 (see FIG. 1).
0 (b)), the more the vehicle is to the left of the lane, the more the angle difference θ
The value of 11-θ21 increases.

【0060】さらに、自車両がカメラ1からみて右寄り
に走行していれば、角度差θ11−θ21<0となり
(図10(c))、車線の右側によればよるほど角度差
θ11−θ21の値は大きくなる。上述したように角度
差θ11−θ21を求めることによって、時間ΔT毎に
自車線内において自車両の横方向位置を検出する。
Further, if the vehicle is traveling rightward as viewed from the camera 1, the angle difference θ11−θ21 <0 (FIG. 10 (c)). The value increases. By obtaining the angle difference θ11−θ21 as described above, the lateral position of the own vehicle in the own lane is detected at every time ΔT.

【0061】上述した基準線L1は、図11に示すよう
に、画面上の周縁を構成する底部に設定してもよい。と
ころで、後方道路がカーブしているときなど、撮像され
ている白線の内、車両遠方にある部分はそのカーブに応
じて変動してしまう。そこで、このように画面上の周縁
を構成する底部に基準線を設定することによって、撮像
されている白線の内、車両に最も近い部分と基準線との
なす角度に基づいて横方向位置を検出することができ、
正確に横方向位置を検出することができる。
The above-described reference line L1 may be set at the bottom constituting the periphery on the screen as shown in FIG. By the way, when a rear road curves, for example, a portion of a captured white line that is far from the vehicle fluctuates according to the curve. Thus, by setting the reference line at the bottom constituting the periphery on the screen in this manner, the lateral position is detected based on the angle between the reference line and the portion of the white line being imaged that is closest to the vehicle. Can be
The position in the lateral direction can be accurately detected.

【0062】第3実施例 また、上述した第1及び、第2実施例では、白線12及
び、13の各々と、垂線L又は基準線L1とのなす角度
を検出していたが、例えば、図12に示すように、白線
12と基準線L1とのなす角度θ11のみを検出して、
角度θ11の大きさによって自車両における横方向位置
を検出するようにしてもよい。
Third Embodiment In the first and second embodiments described above, the angle between each of the white lines 12 and 13 and the perpendicular L or the reference line L1 is detected. As shown in FIG. 12, only the angle θ11 between the white line 12 and the reference line L1 is detected,
The lateral position of the host vehicle may be detected based on the magnitude of the angle θ11.

【0063】すなわち、図12の角度θ11は、車両が
車線の中心を走行したときの角度θ11を基準角度θr
efと設定したとき(図12(a))、自車線内におい
て、自車両がカメラ1からみて左寄りに走行していれ
ば、角度差θ11−θref>0となり(図12
(b))、自車線の左側によるほど角度差θ11−θr
efの値は大きくなる。さらに、自車線内において、自
車両がカメラ1からみて右寄りに走行していれば、角度
差θ11−θref<0となり(図12(c))、車線
の右側によればよるほど角度差θ11−θrefの値は
小さくなり、自車両内の横方向位置に応じて変化する。
That is, the angle θ11 in FIG. 12 is obtained by using the angle θ11 when the vehicle travels in the center of the lane as the reference angle θr.
When ef is set (FIG. 12A), if the own vehicle is traveling leftward as viewed from the camera 1 in the own lane, the angle difference θ11−θref> 0 (FIG. 12A).
(B)), the angle difference θ11−θr as the left side of the own lane is shifted
The value of ef increases. Furthermore, if the own vehicle is traveling to the right as viewed from the camera 1 in the own lane, the angle difference θ11−θref <0 (FIG. 12 (c)). The value of θref becomes small and changes according to the lateral position in the own vehicle.

【0064】第3実施例のように、自車両における横方
向位置を検出すれば、白線12及び、13の何れか一方
と基準線L1とのなす角度を求めるだけでよく、白線1
2及び、13の各々と基準線とのなす角度をそれぞれ求
める必要がないため、横方向位置を検出するための処理
を軽減することができる。
As in the third embodiment, if the lateral position of the host vehicle is detected, it is only necessary to find the angle between one of the white lines 12 and 13 and the reference line L1, and the white line 1
Since there is no need to determine the angle between each of the reference lines 2 and 13 and the reference line, the processing for detecting the lateral position can be reduced.

【0065】第4実施例 さらに、上述した第1〜第3実施例はいずれも、白線1
2及び、13と基準線とのなす角度によって、自車両内
における横方向位置を検出していたが、例えば、図13
に示すように、FOEを設定するための白線又は、延長
線を流用して、画面上の周縁を基準線として、該周縁
と、白線12及び、13の延長線との交点位置A、Bに
よって自車両内の横方向位置を検出するようにしてもよ
い。
Fourth Embodiment Further, in each of the first to third embodiments, the white line 1
The lateral position in the own vehicle is detected based on the angle between the reference lines 2 and 13 and the reference line.
As shown in FIG. 7, a white line or an extension line for setting the FOE is used, and the periphery on the screen is used as a reference line, and the intersection points A and B between the periphery and the extension lines of the white lines 12 and 13 are used. The lateral position in the host vehicle may be detected.

【0066】なお、基準線は、画面の周縁以外に設定し
てもよいが、周縁に設定した方が撮像されている白線の
内、車両に最も近い部分と基準線との交点位置に基づい
て横方向位置を検出することができ、正確に横方向位置
を検出することができる。また、両白線12及び、13
と基準線との周縁の交点位置を検出しなくても、何れか
一方白線との交点位置から横方向位置を検出することも
考えられる。
The reference line may be set at a position other than the periphery of the screen. However, the reference line may be set at the periphery based on the position of the intersection between the reference line and the portion closest to the vehicle among the white lines being imaged. The lateral position can be detected, and the lateral position can be accurately detected. In addition, both white lines 12 and 13
It is also conceivable to detect the lateral position from the position of the intersection with either one of the white lines without detecting the position of the intersection of the periphery with the reference line.

【0067】しかしながら、車両は凸凹した道路を走行
などして、上下に振動するときがある。そして、この車
両の上下振動に伴って、画像中のFOEも上下振動し、
図13(a)に示すように周縁と、FOEから発散する
方向にある白線12及び、13との交点位置A、Bもズ
レてしまうため、正確に横方向位置を検出することが難
しい。
However, the vehicle may vibrate up and down while traveling on an uneven road or the like. Then, along with the vertical vibration of the vehicle, the FOE in the image also vertically vibrates,
As shown in FIG. 13A, the intersection points A and B between the peripheral edge and the white lines 12 and 13 in the direction diverging from the FOE are also shifted, so that it is difficult to accurately detect the lateral position.

【0068】ところが、図13(a)に示すように、基
準線と白線とのなす角度は、FOEの上下振動によって
変動することがない。従って、上述した第4実施例よ
り、基準線と白線とのなす角度に基づいて横方向位置を
求める方がより一層正確に横方向位置を求めることがで
きる。
However, as shown in FIG. 13A, the angle between the reference line and the white line does not change due to the vertical vibration of the FOE. Therefore, the lateral position can be determined more accurately by obtaining the lateral position based on the angle between the reference line and the white line than in the fourth embodiment described above.

【0069】[0069]

【発明の効果】以上説明したように、請求項1記載の発
明によれば、オプティカルフローを検出するために白線
検出手段が検出した白線を流用して、位置検出手段が白
線の位置によって自車両内における自車両の横方向の位
置を検出することができ、別途に白線を検出する手段を
必要としないので、コストダウンを図った車両用周辺監
視装置を得ることができる。
As described above, according to the first aspect of the present invention, the white line detected by the white line detecting means is diverted to detect the optical flow, and the position detecting means determines the position of the vehicle based on the position of the white line. It is possible to detect the lateral position of the own vehicle within the vehicle, and does not need a separate means for detecting a white line. Therefore, it is possible to obtain a vehicle periphery monitoring device that reduces costs.

【0070】請求項2記載の発明によれば、車両の上下
振動の影響を受けることなく、横方向位置を検出するこ
とができるので、より一層正確に横方向位置を検出する
ことができる車両用周辺監視装置を得ることができる。
According to the second aspect of the present invention, since the lateral position can be detected without being affected by the vertical vibration of the vehicle, the vehicle position can be more accurately detected. A peripheral monitoring device can be obtained.

【0071】請求項3記載の発明によれば、オプティカ
ルフローを検出するために白線検出手段が検出した白線
を流用して、位置検出手段が白線と基準線との交点位置
によって自車両内における自車両の横方向の位置を検出
することができ、別途に白線を検出する手段を必要とし
ないので、コストダウンを図った車両用周辺監視装置を
得ることができる。
According to the third aspect of the present invention, the white line detected by the white line detecting means is diverted to detect an optical flow, and the position detecting means determines the position of the self-vehicle in the own vehicle based on the intersection between the white line and the reference line. Since the position of the vehicle in the lateral direction can be detected, and a separate means for detecting the white line is not required, it is possible to obtain a vehicle periphery monitoring device with a reduced cost.

【0072】請求項4記載の発明によれば、撮像されて
いる白線の内、車両に最も近い部分と基準線とのなす角
度又は、交点位置に基づいて横方向位置を検出すること
ができるので、より一層正確に横方向位置を検出するこ
とができる車両用周辺監視装置を得ることができる。
According to the fourth aspect of the present invention, the lateral position can be detected based on the angle formed between the reference line and the portion of the white line being imaged that is closest to the vehicle, or the intersection position. Thus, it is possible to obtain a vehicle periphery monitoring device capable of detecting the lateral position more accurately.

【0073】請求項5記載の発明によれば、白線又はそ
の延長線の何れか一方と基準線となす角度又は交点位置
を求めるだけでよく、白線又はその延長線の各々と基準
線とのなす角度又は交点位置をそれぞれ求める必要がな
いので、横方向位置を検出するための処理を軽減するこ
とできる車両用周辺監視装置を得ることができる。
According to the fifth aspect of the present invention, it is only necessary to determine the angle or the position of the intersection between one of the white line and its extended line and the reference line, and to form each of the white line or its extended line with the reference line. Since there is no need to determine the angle or the intersection position, it is possible to obtain a vehicle periphery monitoring device that can reduce the processing for detecting the lateral position.

【0074】請求項6記載の発明によれば、車線逸脱検
出手段が自車線逸脱走行を検出することにより居眠りを
検出し、車両逸脱警報手段により運転者にその旨を知ら
せることができるので、居眠りによる事故を未然に防ぐ
ことができる。さらに、位置検出手段を利用して居眠り
による車線逸脱の検出に用いることができるので、安価
に居眠りによる車線逸脱を検出することができる車両用
周辺監視装置を得ることができる。
According to the sixth aspect of the present invention, the lane departure detecting means detects the drowsiness by detecting the departure from the own lane, and the driver can be informed of the drowsiness by the vehicle departure warning means. Can be prevented beforehand. Furthermore, since the position detecting means can be used to detect a lane departure due to drowsiness, a vehicle periphery monitoring device capable of detecting a lane departure due to drowsiness can be obtained at low cost.

【0075】請求項7記載の発明のよれば、蛇行運転検
出手段が蛇行運転を検出することにより居眠りを検出
し、蛇行運転警報手段により運転者にその旨を知らせる
ことができるので、居眠りによる事故を未然に防ぐこと
ができる。さらに、位置検出手段を利用して居眠りによ
る蛇行運転の検出に用いることができるので、安価に居
眠りによる蛇行運転を検出することができる車両用周辺
監視装置を得ることができる。
According to the seventh aspect of the present invention, the meandering operation detecting means detects the snaking operation to detect the drowsiness, and the meandering operation warning means can notify the driver of the drowsiness. Can be prevented beforehand. Furthermore, since the position detecting means can be used to detect the meandering operation due to dozing, it is possible to obtain a vehicle periphery monitoring device capable of detecting the meandering operation due to dozing at low cost.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明による車両用周辺監視装置の基本構成を
示す図である。
FIG. 1 is a diagram showing a basic configuration of a vehicle periphery monitoring device according to the present invention.

【図2】本発明による車両用周辺監視装置の一実施の形
態を示すブロック図である。
FIG. 2 is a block diagram showing an embodiment of a vehicle periphery monitoring device according to the present invention.

【図3】カメラで撮像された画像を説明する図である。FIG. 3 is a diagram illustrating an image captured by a camera.

【図4】撮像画像の微分処理により生成された微分画像
(エッジ画像)を説明する図である。
FIG. 4 is a diagram illustrating a differentiated image (edge image) generated by a differentiated process of a captured image.

【図5】白線検出するための動作を説明する図である。FIG. 5 is a diagram illustrating an operation for detecting a white line.

【図6】オプティカルフローを検出するための動作を説
明する図である。
FIG. 6 is a diagram illustrating an operation for detecting an optical flow.

【図7】自車線内における自車両の横方向走行位置を検
出するための動作を説明する図である。
FIG. 7 is a diagram illustrating an operation for detecting a lateral traveling position of the own vehicle in the own lane.

【図8】蛇行運転を検出するための動作を説明する図で
ある。
FIG. 8 is a diagram illustrating an operation for detecting a meandering operation.

【図9】図2の車両用周辺監視装置を構成するマイクロ
コンピュータのCPUによる処理手順を示すフローチャ
ートである。
9 is a flowchart showing a processing procedure by a CPU of a microcomputer constituting the vehicle periphery monitoring device of FIG. 2;

【図10】自車線内における自車両の横方向走行位置を
検出するための動作を説明する図である。
FIG. 10 is a diagram illustrating an operation for detecting a lateral traveling position of the own vehicle in the own lane.

【図11】自車線内における自車両の横方向走行位置を
検出するための動作を説明する図である。
FIG. 11 is a diagram illustrating an operation for detecting a lateral traveling position of the own vehicle in the own lane.

【図12】自車線内における自車両の横方向走行位置を
検出するための動作を説明する図である。
FIG. 12 is a diagram illustrating an operation for detecting a lateral traveling position of the own vehicle in the own lane.

【図13】自車線内における自車両の横方向走行位置を
検出するための動作を説明する図である。
FIG. 13 is a diagram illustrating an operation for detecting a lateral traveling position of the own vehicle in the own lane.

【図14】カメラによって得られる画像の変化を説明す
る図である。
FIG. 14 is a diagram illustrating a change in an image obtained by a camera.

【符号の説明】[Explanation of symbols]

1 撮像手段 3a−1 白線検出手段 3a−2 FOE設定手段 3a−3 オプティカルフロー検出手段 3a−4 危険判断手段 3a−5 位置検出手段 3a−6 車線逸脱検出手段 3a−7 蛇行運転検出手段 5−1 車線逸脱警報手段 5−2 蛇行運転警報手段 Reference Signs List 1 imaging means 3a-1 white line detecting means 3a-2 FOE setting means 3a-3 optical flow detecting means 3a-4 danger determining means 3a-5 position detecting means 3a-6 lane departure detecting means 3a-7 meandering operation detecting means 5- 1 Lane departure warning means 5-2 Meandering driving warning means

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 1/00 G08G 1/00 J 7/20 H04N 7/18 J G08G 1/00 G05D 1/02 K H04N 7/18 G06F 15/62 380 // G05D 1/02 15/70 410 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06T 1/00 G08G 1/00 J 7/20 H04N 7/18 J G08G 1/00 G05D 1/02 K H04N 7/18 G06F 15/62 380 // G05D 1/02 15/70 410

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 車両に搭載され、車両の周辺を撮像して
画像を得る撮像手段と、前記撮像手段によって得た画像
を処理し、自車両が走行すべき路面上の自車線の両側に
位置する一対の白線を検出する白線検出手段と、前記白
線検出手段が検出した前記白線をそれぞれ延長した延長
線の交わる点をFOE(無限遠点)として設定するFO
E設定手段と、前記FOE設定手段により設定したFO
Eを利用し、前記撮像手段により所定時間前後して得た
2画像中の同一点の移動量をオプティカルフローとして
検出するオプティカルフロー検出手段と、自車両の周辺
を走行する他車両のオプティカルフローの大きさに基づ
いて自車両に接近する他車両を検出して危険を判断する
危険判断手段とを備えた車両用周辺監視装置において、 前記白線検出手段により検出した前記白線の前記画像中
の位置に基づいて前記自車線内における自車両の横方向
位置を検出する位置検出手段とを備えることを特徴とす
る車両用周辺監視装置。
1. An image pickup device mounted on a vehicle to obtain an image by taking an image of the periphery of the vehicle, and processing an image obtained by the image pickup device to position the vehicle on both sides of a vehicle lane on a road surface on which the vehicle should travel. FO for setting a point at which a white line detecting means for detecting a pair of white lines to intersect with each other and an extension line extending from the white line detected by the white line detecting means as an FOE (infinite point).
E setting means, and FO set by the FOE setting means.
E, an optical flow detecting means for detecting, as an optical flow, a movement amount of the same point in two images obtained before and after a predetermined time by the imaging means, and an optical flow of another vehicle traveling around the own vehicle. And a danger determining means for determining danger by detecting another vehicle approaching the own vehicle based on the size, and a danger determining means for determining the danger, wherein the white line detected by the white line detecting means is located at a position in the image. And a position detecting means for detecting a lateral position of the vehicle in the vehicle lane based on the vehicle lane.
【請求項2】 前記位置検出手段は、前記白線の位置に
応じて変化する前記白線又はその延長線と、前記画像上
に設定した基準線とのなす角度に基づいて前記自車線内
における自車両の横方向位置を検出することを特徴とす
る請求項1記載の車両用周辺監視装置。
2. The vehicle in the vehicle lane based on an angle between the white line or an extension thereof that changes according to the position of the white line and a reference line set on the image. 2. The vehicle periphery monitoring device according to claim 1, wherein a lateral position of the vehicle is detected.
【請求項3】 前記位置検出手段は、前記白線の位置に
応じて変化する前記白線又はその延長線と、前記画像上
に設定した基準線との交点位置に基づき前記自車線内に
おける自車両の横方向位置を検出することを特徴とする
請求項1記載の車両用周辺監視装置。
3. The vehicle according to claim 1, wherein the position detecting unit is configured to determine a position of the vehicle in the vehicle lane based on an intersection of the white line or an extension thereof that changes according to the position of the white line and a reference line set on the image. 2. The vehicle periphery monitoring device according to claim 1, wherein a lateral position is detected.
【請求項4】 前記基準線として、前記画像上の周縁を
使用することを特徴とする請求項2又は3記載の車両用
周辺監視装置。
4. The vehicle periphery monitoring device according to claim 2, wherein a peripheral edge on the image is used as the reference line.
【請求項5】 前記角度又は交点位置は、前記白線又は
その延長線の一方とによるものであることを特徴とする
請求項2〜4何れか記載の車両用周辺監視装置。
5. The vehicle periphery monitoring device according to claim 2, wherein the angle or the position of the intersection is determined by the white line or one of extensions thereof.
【請求項6】 前記位置検出手段が検出した前記自車線
内における自車両の横方向位置に基づいて自車両の自車
線逸脱走行を検出する車線逸脱検出手段と、 前記車両逸脱検出手段が自車両の自車線逸脱走行を検出
したとき、その旨を知らせる警報を発する自車線逸脱警
報手段とを備えることを特徴とする請求項1〜5何れか
記載の車両用周辺監視装置。
6. A lane departure detecting means for detecting a lane departure traveling of the own vehicle based on a lateral position of the own vehicle in the own lane detected by the position detecting means; The vehicle surroundings monitoring device according to any one of claims 1 to 5, further comprising: an own lane departure warning unit that issues an alarm notifying that the vehicle has deviated from its own lane.
【請求項7】 前記位置検出手段が検出した前記自車線
内における自車両の横方向位置の時間による変化に基づ
いて自車両の蛇行運転を検出する蛇行運転検出手段と、 蛇行運転検出手段が自車両の蛇行運転を検出したとき、
その旨を知らせる警報を発する蛇行運転警報手段とを備
えることを特徴とする請求項1〜6何れか記載の車両用
周辺監視装置。
7. A meandering operation detecting means for detecting a meandering operation of the own vehicle based on a time-dependent change in a lateral position of the own vehicle in the own lane detected by the position detecting means; When detecting meandering operation of the vehicle,
The vehicle surroundings monitoring device according to any one of claims 1 to 6, further comprising a meandering operation warning unit that issues a warning notifying the fact.
JP2000008595A 1999-01-18 2000-01-18 Periphery monitoring device for vehicle Pending JP2000276697A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000008595A JP2000276697A (en) 1999-01-18 2000-01-18 Periphery monitoring device for vehicle

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP953799 1999-01-18
JP11-9537 1999-01-18
JP2000008595A JP2000276697A (en) 1999-01-18 2000-01-18 Periphery monitoring device for vehicle

Publications (1)

Publication Number Publication Date
JP2000276697A true JP2000276697A (en) 2000-10-06

Family

ID=26344284

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000008595A Pending JP2000276697A (en) 1999-01-18 2000-01-18 Periphery monitoring device for vehicle

Country Status (1)

Country Link
JP (1) JP2000276697A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006114955A1 (en) * 2005-04-25 2006-11-02 Geo Technical Laboratory Co., Ltd. Imaging position analyzing method
JP2009181420A (en) * 2008-01-31 2009-08-13 Yazaki Corp Peripheral state recording device for vehicle
JP2009199328A (en) * 2008-02-21 2009-09-03 Yazaki Corp Operation recording and evaluating apparatus for vehicle
JP2009251944A (en) * 2008-04-07 2009-10-29 Yazaki Corp Driving support device
JP2011150559A (en) * 2010-01-22 2011-08-04 Victor Co Of Japan Ltd On-vehicle device and method of recording warning output for danger driving
JP2011227551A (en) * 2010-04-15 2011-11-10 Yazaki Corp Meander driving detection device for vehicle
KR101305099B1 (en) * 2011-02-10 2013-09-12 한양대학교 에리카산학협력단 Method of detecting and controlling unsafe zigzag driving of a vehicle
JP2015228132A (en) * 2014-05-30 2015-12-17 株式会社Jvcケンウッド Lane recognition device, lane recognition method, and program
JP2016115156A (en) * 2014-12-15 2016-06-23 三菱自動車工業株式会社 Unmanned carrier
JP2019113903A (en) * 2017-12-21 2019-07-11 スズキ株式会社 Driving support device
CN110001523A (en) * 2017-12-06 2019-07-12 爱信精机株式会社 Periphery monitoring apparatus
JP2020102092A (en) * 2018-12-25 2020-07-02 株式会社ユピテル System, program, and the like
WO2020165934A1 (en) * 2019-02-12 2020-08-20 三菱電機株式会社 Distance measurement device and distance measurement method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05104976A (en) * 1991-10-15 1993-04-27 Toyota Motor Corp Deviation alarming device for vehicle
JPH0750769A (en) * 1993-08-06 1995-02-21 Yazaki Corp Backward side supervising method for vehicle
JPH0981757A (en) * 1995-09-18 1997-03-28 Mitsubishi Electric Corp Vehicle position detecting device
JPH09142209A (en) * 1995-11-17 1997-06-03 Yazaki Corp Monitor device for vehicular peripheral circumference
JPH10208047A (en) * 1997-01-23 1998-08-07 Nissan Motor Co Ltd On-vehicle traveling environment recognizing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05104976A (en) * 1991-10-15 1993-04-27 Toyota Motor Corp Deviation alarming device for vehicle
JPH0750769A (en) * 1993-08-06 1995-02-21 Yazaki Corp Backward side supervising method for vehicle
JPH0981757A (en) * 1995-09-18 1997-03-28 Mitsubishi Electric Corp Vehicle position detecting device
JPH09142209A (en) * 1995-11-17 1997-06-03 Yazaki Corp Monitor device for vehicular peripheral circumference
JPH10208047A (en) * 1997-01-23 1998-08-07 Nissan Motor Co Ltd On-vehicle traveling environment recognizing device

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006114955A1 (en) * 2005-04-25 2006-11-02 Geo Technical Laboratory Co., Ltd. Imaging position analyzing method
US8280105B2 (en) 2005-04-25 2012-10-02 Geo Technical Laboratory Co., Ltd. Imaging position analyzing method
KR101235815B1 (en) 2005-04-25 2013-02-21 가부시키가이샤 지오 기쥬츠켄큐쇼 Imaging position analyzing device, imaging position analyzing method, recording medium, and image data acquiring device
JP5309291B2 (en) * 2005-04-25 2013-10-09 株式会社ジオ技術研究所 Shooting position analysis method
JP2009181420A (en) * 2008-01-31 2009-08-13 Yazaki Corp Peripheral state recording device for vehicle
JP2009199328A (en) * 2008-02-21 2009-09-03 Yazaki Corp Operation recording and evaluating apparatus for vehicle
JP2009251944A (en) * 2008-04-07 2009-10-29 Yazaki Corp Driving support device
JP2011150559A (en) * 2010-01-22 2011-08-04 Victor Co Of Japan Ltd On-vehicle device and method of recording warning output for danger driving
JP2011227551A (en) * 2010-04-15 2011-11-10 Yazaki Corp Meander driving detection device for vehicle
KR101305099B1 (en) * 2011-02-10 2013-09-12 한양대학교 에리카산학협력단 Method of detecting and controlling unsafe zigzag driving of a vehicle
JP2015228132A (en) * 2014-05-30 2015-12-17 株式会社Jvcケンウッド Lane recognition device, lane recognition method, and program
JP2016115156A (en) * 2014-12-15 2016-06-23 三菱自動車工業株式会社 Unmanned carrier
CN110001523A (en) * 2017-12-06 2019-07-12 爱信精机株式会社 Periphery monitoring apparatus
CN110001523B (en) * 2017-12-06 2024-04-12 株式会社爱信 Peripheral monitoring device
JP2019113903A (en) * 2017-12-21 2019-07-11 スズキ株式会社 Driving support device
JP6992487B2 (en) 2017-12-21 2022-01-13 スズキ株式会社 Driving support device
JP2020102092A (en) * 2018-12-25 2020-07-02 株式会社ユピテル System, program, and the like
JP7262098B2 (en) 2018-12-25 2023-04-21 株式会社ユピテル System and program etc.
WO2020165934A1 (en) * 2019-02-12 2020-08-20 三菱電機株式会社 Distance measurement device and distance measurement method
JPWO2020165934A1 (en) * 2019-02-12 2021-05-20 三菱電機株式会社 Distance measuring device and distance measuring method

Similar Documents

Publication Publication Date Title
JP5146243B2 (en) Lane departure control device
TWI468645B (en) Blind spot detection alert system
JP4287532B2 (en) Vehicle rear side monitoring device
JP2003123196A (en) Device and program for monitoring circumference of vehicle
US20200059613A1 (en) Camera Device and Method for Detecting a Surrounding Area of a Driver&#39;s Own Vehicle
WO2012032624A1 (en) Degree-of-danger calculation apparatus
JP5896505B2 (en) Vehicle driving support device
JP3424808B2 (en) Rear side monitoring device for vehicles
JP6919925B2 (en) How to monitor the blind spot of a motorcycle using a smart helmet for motorcycle riders and a blind spot monitoring device using this
JP2010030513A (en) Driving support apparatus for vehicle
JP2001233150A (en) Danger judging device for vehicle and periphery monitoring device for vehicle
JP2008242844A (en) Running support on-vehicle device
JP2000276697A (en) Periphery monitoring device for vehicle
US10750085B2 (en) Camera device for capturing a surrounding area of a driver&#39;s own vehicle and method for providing a driver assistance function
JP4259368B2 (en) Nose view monitor device
JP2006209368A (en) Vehicle drive support device
JP2000172994A (en) Obstacle alarming device for vehicle
JP2002314989A (en) Peripheral monitor for vehicle
JP3405378B2 (en) Vehicle surrounding information display device
JP4755501B2 (en) Lane detection device and lane departure warning device
JP2007030603A (en) Vehicle travel assisting device
CN113602276A (en) Automobile intelligent auxiliary driving method and system based on LiFi signal interaction
CN113173160A (en) Collision avoidance device for vehicle and collision avoidance method for vehicle
JP2000251198A (en) Periphery monitor device for vehicle
JP2009020569A (en) Vehicle traveling support apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090423

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090609