JPS62221800A - Recognition equipment for lane on road - Google Patents

Recognition equipment for lane on road

Info

Publication number
JPS62221800A
JPS62221800A JP61287686A JP28768686A JPS62221800A JP S62221800 A JPS62221800 A JP S62221800A JP 61287686 A JP61287686 A JP 61287686A JP 28768686 A JP28768686 A JP 28768686A JP S62221800 A JPS62221800 A JP S62221800A
Authority
JP
Japan
Prior art keywords
lane
vehicle
image
color
feature extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP61287686A
Other languages
Japanese (ja)
Other versions
JP2560702B2 (en
Inventor
博彦 柳川
赤塚 英彦
山田 元一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
NipponDenso Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NipponDenso Co Ltd filed Critical NipponDenso Co Ltd
Publication of JPS62221800A publication Critical patent/JPS62221800A/en
Application granted granted Critical
Publication of JP2560702B2 publication Critical patent/JP2560702B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 [産業上の利用分野] この発明は、自動車の走行する路面上に描かれた車道外
側線、車道中央線、さらに車道境界線等の車線を認識し
て、これら車道と車両との相対位置関係から運転者に警
告が発せられるようにする路面上の車線認識装置に関す
る。
[Detailed Description of the Invention] [Industrial Application Field] The present invention recognizes the lanes drawn on the road surface on which a car is running, such as the outside road line, the roadway center line, and the roadway boundary line. The present invention relates to a lane recognition device on a road surface that issues a warning to a driver based on the relative positional relationship between the road surface and the vehicle.

[従来の技術] 自動車を運転する際に要求される安全装置としては、居
眠り運転防止装置、後方視認装置等が存在する。また車
両の運転状態を監視して、異常な運転状態となったとき
に運転者に警告を出し、また運転状態を修正させるよう
にする制御が実行されるようにすることも望まれている
。さらに、道路標識等を自動的に認識して、その認識結
果を運転者に報知して、より安全な運転動作が実行され
るようにする監視手段も望まれている。
[Prior Art] Safety devices required when driving a car include a drowsy driving prevention device, a rear visibility device, and the like. It is also desired to monitor the driving condition of a vehicle, issue a warning to the driver when an abnormal driving condition occurs, and execute control to correct the driving condition. Furthermore, there is also a need for a monitoring means that automatically recognizes road signs and the like and notifies the driver of the recognition results so that safer driving operations can be performed.

このような運転状態の監視手段としては、走行する車両
の前方の風景を撮影し、この撮影された画像に基づいて
例えは道路標識等を認識させるようにすることが考えら
れているもので、例えば特開昭59−128693号公
報に示されるような装置が提案されている。この装置に
あっては車線から外れたような状態となったときに警報
を発生するようにになるものであるが、車線にノイズが
存在するような状態では正確に車線の存在を認識させる
ことが困難である。しかも、この装置では白および黒で
表現される濃淡パターンから、車線等を認識させるよう
にしているものであり、このような技術では色彩を伴っ
た標識画像の認識を実行することは困難である。
As a method for monitoring driving conditions, it is considered that the scenery in front of the moving vehicle is photographed, and based on this photographed image, for example, road signs, etc. are recognized. For example, a device as shown in Japanese Unexamined Patent Publication No. 59-128693 has been proposed. This device generates a warning when the vehicle deviates from its lane, but it is difficult to accurately recognize the presence of lanes when there is noise in the lane. is difficult. Moreover, this device recognizes traffic lanes, etc. from a grayscale pattern expressed in white and black, and it is difficult to recognize sign images with colors using this type of technology. .

[発明が解決しようとする問題点コ この発明は上記のような点に鑑みなされたもので、自動
車で道路を走行している場合、この自動車の走行領域が
路面」二で指定されている領域を正確に走行しているか
否かを、路面上に描かれた車線から判断して、その走行
状態を運転者に効果的に知らせることができ、また警告
を発生することができるようにして、より効果的な安全
運転が実行されるようにするものであり、特に描かれた
車線の損傷等が存在するような場合でも正確に車線の存
在が認識できるようにした路面上の車線認識装置を提供
しようとするものである。
[Problems to be Solved by the Invention] This invention was made in view of the above-mentioned points. It is possible to judge whether or not the vehicle is traveling accurately based on the lane drawn on the road surface, to effectively inform the driver of the driving condition, and to issue a warning. The system enables more effective safe driving, and in particular, it is equipped with a lane recognition device on the road surface that can accurately recognize the existence of lanes even when there is damage to the painted lanes. This is what we are trying to provide.

[問題点を解決するための手段] すなわち、この発明に係る路面上の車線認識装置にあっ
ては、例えばカラーテレビジョンカメラのようなカラー
撮像装置によって車両前方の路面を撮影し、その映像信
号に基づきR(赤)、G(緑)、B(青)のような各色
に対応したカラー画像信号を形成し、このカラー画像信
号から車線を表現する色の画像信号を特徴抽出するよう
にしているもので、この特徴抽出された画像信号に基づ
いて車線の存在を判断する。こは場合画像上に車線に損
傷が存在したときには、その損傷部分が補正されるよう
にしている。そして、この車線の画像と車両の位置との
相対関係を判断して表示し、またその他の手段で運転者
に知らせるようにしているものである。
[Means for Solving the Problems] That is, in the road lane recognition device according to the present invention, the road surface in front of the vehicle is photographed by a color imaging device such as a color television camera, and the image signal is recorded. Based on this, color image signals corresponding to each color such as R (red), G (green), and B (blue) are formed, and from this color image signal, the features of the image signal of the color representing the lane are extracted. The presence of a lane is determined based on the image signal from which features are extracted. In this case, if there is damage to the lane on the image, the damaged portion is corrected. Then, the relative relationship between the image of the lane and the position of the vehicle is determined and displayed, and the driver is notified by other means.

[作用] 上記のような車線認識装置にあっては、カラー画像信号
から車線を表現する色彩の画像が抽出されるようになる
。したがって、路面の明るさの状態、また影等の影響を
受けることなく、その色彩の画像が抽出されるものであ
り、この抽出された画像のパターンから車線の存在を認
識することができる。このように特定される画面上で車
線の存在位置が認識されたならば、その画面上での車両
の位置との関係から、この車両の走行位置が明確に判断
できるようになる。そして、車線と車両との相対位置関
係が画像の状態で表示されるようになるものであり、自
身の車両の走行状態が正常であるか否かを運転者自身で
簡単に認識できるようになる。例えば、車両が車線を跨
いで走行しているような異常状態のときは、これを検知
して運転者に警報を発するようになるものである。この
はあい、認識画像にノイズ等が存在したような場合には
、このノイズが除去され画像が修正されるような補正が
されるもので、より確実な車線の認識が可能とされるも
のである。
[Operation] In the lane recognition device as described above, a color image representing a lane is extracted from a color image signal. Therefore, an image of that color is extracted without being affected by the brightness of the road surface, shadows, etc., and the presence of a lane can be recognized from the pattern of this extracted image. Once the position of the lane is recognized on the screen specified in this way, the driving position of the vehicle can be clearly determined from the relationship with the position of the vehicle on the screen. The relative positional relationship between the lane and the vehicle will be displayed in the form of an image, allowing the driver to easily recognize whether the driving condition of his or her vehicle is normal or not. . For example, if the vehicle is in an abnormal state such as straddling lanes, this will be detected and a warning will be issued to the driver. In this case, if there is noise etc. in the recognized image, a correction is made to remove this noise and correct the image, making it possible to recognize lanes more reliably. be.

し発明の実施例] 以下、図面を参照してこの発明の一実施例を説明する。Examples of the invention] Hereinafter, one embodiment of the present invention will be described with reference to the drawings.

第1図はその構成を示しているもので、走行する車両の
前方の路面を撮影するカラーテレビジョンカメラ11を
備える。このテレビジョンカメラ11は、例えば第2図
で示すように自動車12の前面に取゛り付は設定される
もので、この自動車12の前方の路面の特に運転者が運
転中に注意をはらうような、この図で破線で囲まれた範
囲13が効果的に撮影されるようになっている。この図
で、141は例えば黄色の線で表現された反対方向車線
との境界線であり、142および143はその各車線の
範囲を区画する白色の車線である。
FIG. 1 shows its configuration, which includes a color television camera 11 that photographs the road surface in front of a traveling vehicle. For example, as shown in FIG. 2, this television camera 11 is installed on the front of an automobile 12, and is designed to monitor the road surface in front of the automobile 12 so that the driver pays particular attention while driving. Note that in this figure, an area 13 surrounded by a broken line is effectively photographed. In this figure, 141 is a boundary line with the opposite direction lane represented by, for example, a yellow line, and 142 and 143 are white lanes that demarcate the range of each lane.

このようなテレビジョンカメラ11で撮影された映像の
カラービデオ信号は、デコーダ15に供給される。この
デコーダ15では、上記カラービデオ信号からR(赤)
、G(緑)、およびB(青)カラー画像信号を分離して
取り出すもので、このRlG、Bの各カラー画像信号は
画像信号処理部16に供給する。この画像信号処理部1
6では、路面上に描かれた白または黄色の区画線を認識
し、この区画線と車両との相対位置関係を計算する。
A color video signal of an image photographed by such a television camera 11 is supplied to a decoder 15. This decoder 15 converts R (red) from the color video signal.
, G (green), and B (blue) color image signals are separated and extracted, and the RlG and B color image signals are supplied to the image signal processing section 16. This image signal processing section 1
Step 6 recognizes white or yellow marking lines drawn on the road surface and calculates the relative positional relationship between the marking lines and the vehicle.

そして、この信号処理部1Bで信号処理されて得られた
認識結果は、例えばCRT、液晶等の画像表示部I7で
表示し、運転者において容易に認識されるようにしてい
る。
The recognition result obtained by signal processing in the signal processing unit 1B is displayed on an image display unit I7 such as a CRT or liquid crystal display so that the driver can easily recognize the recognition result.

第3図は上記画像信号処理部16の構成を示しているも
ので、デコーダ15で得られたR、GSBのカラー画像
信号は、特徴抽出部161に供給される。
FIG. 3 shows the configuration of the image signal processing section 16. The R and GSB color image signals obtained by the decoder 15 are supplied to a feature extraction section 161.

この特徴抽出部161は、入力画像信号を2値化して認
識する対象、ここでは区画線に対応する情報のみを抽出
する。具体的な抽出手段としては、区画線を形成する白
色と黄色の抽出条件を設定し、画面上の各画素の中で上
記区画線を表現する色の条件式を満足する画素を2値化
情報として抽出し、出力させるようにするものである。
The feature extraction unit 161 binarizes the input image signal and extracts only information corresponding to the object to be recognized, in this case, the partition line. As a specific extraction method, extraction conditions for white and yellow that form the partition line are set, and pixels that satisfy the conditional expression of the color expressing the partition line are converted into binarized information among each pixel on the screen. This is to extract and output as .

ここで、白色の区画線を抽出するための条件式は次のよ
うになる。
Here, the conditional expression for extracting the white partition line is as follows.

IR−Gl<ε/10 IG−Bl<ε/10 IB−R1<ε/10 ε/2<R,G、B・・・・・・・・・(1)ここでR
,G、Bの取り得る範囲の値を0〜εとしているもので
ある。
IR-Gl<ε/10 IG-Bl<ε/10 IB-R1<ε/10 ε/2<R, G, B・・・・・・・・・(1) Here R
, G, and B have a range of values from 0 to ε.

また黄色の区画線を抽出するための条件式は次の通りで
ある。
Further, the conditional expression for extracting the yellow lot line is as follows.

RIB、およびG>B・・・・・・・・・(2)そして
、このような条件式に基づいて特徴抽出された2値の画
像情報は、メモリ162にストアされるようになる。こ
の画像情報のストアは、例えば0.05秒毎に実行され
るようにする。そして、このメモリ102にストアされ
た画像情報に基づいて、認識部163で白あるいは黄色
の区画線の存在を認識し、また計算部164でこの区画
線と車両との相対位置関係を計算するものである。
RIB, and G>B (2) Then, the binary image information whose features are extracted based on such a conditional expression is stored in the memory 162. This image information storage is executed, for example, every 0.05 seconds. Based on the image information stored in the memory 102, a recognition unit 163 recognizes the presence of a white or yellow lane marking, and a calculation unit 164 calculates the relative positional relationship between this lane and the vehicle. It is.

第4図は」1記のように構成される装置の動作の流れを
示しているもので、例えばこの車両のイグニッションス
イッチが投入されると、この処理がスタートされるよう
になっている。
FIG. 4 shows the flow of the operation of the device configured as described in 1. For example, when the ignition switch of this vehicle is turned on, this process is started.

まずステップ101では画面−Lの走査部分の設定や、
上記したような特徴抽出の条件を設定する初期設定が実
行される。次のステップ102では、撮影されたビデオ
信号からR,G、Bの画像データ信号を取り出し、次の
ステップ103でこの画像データ信号を画像信号処理部
16の特徴抽出部に送り、例えば区画線を表現している
白色および黄色の特徴抽出を実行する。この特徴抽出は
、前述したように入力画像を2値化して認識する対象に
関する情報だけを取り出すものであり、この特徴抽出さ
れた画像データはステップ104でメモリ162にスト
アされる。
First, in step 101, settings are made for the scanning part of screen-L,
Initial settings for setting conditions for feature extraction as described above are executed. In the next step 102, R, G, and B image data signals are extracted from the photographed video signal, and in the next step 103, these image data signals are sent to the feature extraction section of the image signal processing section 16, and for example, a partition line is Execute feature extraction of the white and yellow colors being represented. In this feature extraction, as described above, the input image is binarized to extract only information related to the object to be recognized, and the feature-extracted image data is stored in the memory 162 in step 104.

この特徴抽出された画像データのストアは、例えば0,
05秒毎に実行される。そして、このストアされた画像
データは、ステップ105で認識部163に送られるよ
うになるものであり、この認識部163では上記メモリ
162にストアされた画像データが車線を表現するもの
であるか否かを、そのパターンによって判断し、車線の
存在を判断しているものである。
The store of this feature-extracted image data is, for example, 0,
Executes every 0.5 seconds. The stored image data is then sent to the recognition unit 163 in step 105, and the recognition unit 163 determines whether the image data stored in the memory 162 represents a lane. The existence of lanes is determined by determining whether there is a lane or not based on the pattern.

この車線の存在を判断する手段としては種々のものが存
在するものであるが、以下その一例を説明する。第5図
はテレビジョンカメラ11の取り込んだ映像の状態を示
しているもので、これは第2図で示した破線で示す範囲
13に相当する映像であり、例えばカメラ11の位置か
ら数m1具体的にはカメラ11の位置を基準としてその
前方2mから6mの範囲の路面の映像に相当するもので
ある。
There are various means for determining the existence of this lane, one example of which will be explained below. FIG. 5 shows the state of the image captured by the television camera 11. This image corresponds to the range 13 shown by the broken line in FIG. Specifically, it corresponds to an image of the road surface within a range of 2 m to 6 m in front of the camera 11 position.

そして、この第5図で示される映像上に特定した設定範
囲51を設け、この設定範囲51内に特徴抽出された白
または黄色の画素が存在するか否かを判断する。そして
、この設定範囲51内に白または黄色の画素が存在する
と判断された場合には、それがストロークとして」1方
に延びているか否かを調べ、このス]・ローフが画面の
上辺まで延びていることか確認されたならば、この映像
内に区画線(車線)が存在するものと判断する。但し、
このストロークは連続した線分であってもよく、また破
断線であってもよい。
Then, a specified setting range 51 is provided on the image shown in FIG. 5, and it is determined whether or not there is a white or yellow pixel from which features have been extracted within this setting range 51. If it is determined that a white or yellow pixel exists within this setting range 51, it is checked whether or not it extends in one direction as a stroke, and this stroke extends to the top of the screen. If it is confirmed that there are lane markings, it is determined that a marking line (lane) exists in this video. however,
This stroke may be a continuous line segment or a broken line.

このようにして車線の存在が確認されたならば、次のス
テップ107に進む。このステップ107ては、メモリ
162にストアされた画像データを計算部164に送り
、自身の車両と」1記確認された車線との相対位置関係
を計算する。
If the existence of a lane is confirmed in this way, the process proceeds to the next step 107. In this step 107, the image data stored in the memory 162 is sent to the calculation unit 164, and the relative positional relationship between the own vehicle and the confirmed lane is calculated.

具体的には、第5図で示した設定範囲51内におけるス
トロークの位置とストローク全体の傾きから、車両の前
輪と車線との距離を計算する。なわち、画面上の車線の
角度が大きい程、車両がその車線から離れていることが
確認されるものであり、例えば第5図の場合、車線52
と53との角度が等しい状態にあり、且つその傾斜方向
が逆の場合には、車両が上記車線52と53との中央部
に位置して走行していることが判断される。そして、こ
の計算結果はステップ107で表示部17に表示される
ようになるものである。
Specifically, the distance between the front wheels of the vehicle and the lane is calculated from the stroke position within the setting range 51 shown in FIG. 5 and the inclination of the entire stroke. In other words, the larger the angle of the lane on the screen, the farther away the vehicle is from that lane. For example, in the case of FIG.
If the angles of lanes 52 and 53 are equal and the directions of inclination are opposite, it is determined that the vehicle is running in the center of lanes 52 and 53. This calculation result is then displayed on the display unit 17 in step 107.

この場合、その表示部17における表示方法は、例えば
第6図で示されるように中央に車両を示し、この車両と
の相対関係で、例えば発光等の手段で区画線を表示させ
るようにする。また、車両と前輪との距離を数字によっ
て表示するようにしてもよい。
In this case, the display method on the display unit 17 is such that, for example, as shown in FIG. 6, a vehicle is shown in the center, and a marking line is displayed in relation to the vehicle using, for example, means such as light emission. Alternatively, the distance between the vehicle and the front wheels may be displayed numerically.

したがって、運転者は常に車両と車線との相対位置関係
を、容易且つ確実に表示部17で知ることができるもの
であり、車線に沿った走行状態が感覚だけでなく具体性
をもって認知できるようになる。
Therefore, the driver can always easily and reliably know the relative positional relationship between the vehicle and the lane on the display unit 17, and the driving condition along the lane can be recognized not only intuitively but also concretely. Become.

ここで、−1−記のような車線の認識動作を実行するに
際して、例えば車線の汚れさらに消失等による車線認識
上のノイズ対策を考慮すると効果的である。この処理は
例えば第4図に示した処理の流れにおいて特徴抽出のス
テップ103で実行すればよいもので、このステップ1
03を第7図で示すように設定する。
Here, when performing the lane recognition operation as described in -1-, it is effective to take measures against noise in lane recognition due to dirt or disappearance of the lane, for example. This process may be executed, for example, in step 103 of feature extraction in the process flow shown in FIG.
03 as shown in FIG.

すなわち、このステップ103を白および黄色の抽出を
行なう特徴抽出処理のステップ501と、上記特徴抽出
によって認知された車線を構成する画素の8近傍を拡散
処理するステップ502と、さらに8近傍の収縮処理を
行なうステップ503とによって構成する。
That is, this step 103 is a step 501 of feature extraction processing to extract white and yellow, a step 502 of performing a diffusion process on 8 neighborhoods of the pixels constituting the lane recognized by the feature extraction, and a shrinkage process of the 8 neighborhoods. 503.

ここで、上記8近傍の拡散処理および収縮処理について
説明すると、今例えば白あるいは黄色の車線の画像が第
8図の(A)に示すようになっていると仮定する。この
図において実線の四角はそれぞれ実際に車線を表示して
いる画素であり、さらに破線で示した四角は」1記実際
の画素の周囲に存在すると仮定される画素を示している
。そして、8近傍とは1つの画素に対してその周囲に隣
接して存在する8つの画素をいうものであり、したがっ
て8近傍拡散は1つの画素に対してその周囲の8近傍に
領域を広げるようになるもので、」1記(A)図で示し
た画像が、(B)図で示されるように実際の画素の周囲
にさらに1個づつの画素を付加して形成される画像とな
る。また8近傍収縮は8近傍全てに領域が存在する画素
以外は除去するようになるもので、」1記(B)図の画
像は同図−13= の(C)図で示すようになるものである。
Now, to explain the above-mentioned 8-neighborhood diffusion processing and contraction processing, it is assumed that the image of, for example, a white or yellow lane is as shown in FIG. 8(A). In this figure, each solid-lined square is a pixel that actually indicates a lane, and the broken-lined square indicates pixels that are assumed to exist around the actual pixel. The 8-neighborhood refers to the 8 pixels that are adjacent to one pixel, and therefore the 8-neighborhood diffusion spreads the area to the 8 neighbors surrounding one pixel. Therefore, the image shown in Figure 1 (A) becomes an image formed by adding one pixel each around the actual pixel, as shown in Figure (B). In addition, 8-neighborhood shrinkage removes pixels other than pixels that have areas in all 8 neighborhoods, and the image in Figure 1 (B) becomes the one shown in Figure 13 (C) of the same figure. It is.

すなわち、車線の部分的な汚れの種々の大きさに対する
処理を実行するもので、例えば白線の領域が汚れによっ
て減少している場合、あるいは汚れによって部分的に切
れているような状態となると、そのストロークを追跡す
ることが困難となる。
In other words, it performs processing for various sizes of local dirt on the lane. For example, if the area of the white line is reduced due to dirt, or if it is partially cut off due to dirt, It becomes difficult to track strokes.

このような場合に上記のように特徴抽出後において、白
線あるいは黄色線の領域にその修復処理を行なわせ、る
ようにしているものである。
In such a case, after the feature extraction as described above, the area of the white line or yellow line is subjected to repair processing.

このような修復処理を実行した場合でも、車線の汚れが
大きく修復不可能な状態の場合には、ステップ105に
おける車線判定が実行できないもので、車線の存在を認
識することができない。しかし、これは次のタイミング
で画像が取り込まれ、認識処理が実行されるものである
ため、その次に汚れの大きくない部分が取り込まれれば
、その時点で車線有りの判断が行われるようになる。
Even if such a repair process is executed, if the lane is so dirty that it cannot be repaired, the lane determination in step 105 cannot be performed and the existence of a lane cannot be recognized. However, this means that the image is captured at the next timing and the recognition process is executed, so if an area that is not heavily soiled is captured next, it will be determined whether there is a lane at that point. .

また、車線領域が汚れによって拡大しているような状態
となっている場合は、次に説明する車線の存在の判定ス
テップにおいて、その判定条件に影響を与えることがな
く、車線認識上で問題とはならない。
In addition, if the lane area is expanded due to dirt, this will not affect the determination conditions in the lane existence determination step described next, and may cause problems in lane recognition. Must not be.

第9図は第4図で示した処理の流れにおける車線の判定
ステップ105をさらに詳細にして示しているもので、
まずステップ601で設定範囲51内に存在する白また
は黄色の領域を抽出する。そして、この抽出結果に基づ
き第1の判定ステップ602を実行させる。
FIG. 9 shows the lane determination step 105 in the process flow shown in FIG. 4 in more detail.
First, in step 601, a white or yellow area existing within the setting range 51 is extracted. Then, a first determination step 602 is executed based on this extraction result.

この第1の判定ステップ602では、ノイズや汚れによ
って存在する小領域を除くようにしているもので、上記
設定範囲51内に存在する抽出領域の状態を判別するも
のである。
In this first determination step 602, small areas existing due to noise or dirt are removed, and the state of the extraction area existing within the set range 51 is determined.

すなわち、設定範囲51内に存在する領域が車線の一部
であれば、その面積Wは次のような関係を満たしている
That is, if the area existing within the setting range 51 is part of a lane, its area W satisfies the following relationship.

W≧WoxX。W≧WoxX.

但し、Woは車線(区画線)の最小値に相当する画素数 Xoは設定範囲51の縦方向の画素数 上記のような第1の判定ステップ602によって取り出
された領域は、車線以外(例えば進行方向標示、横断歩
道、速度標示等)である可能性もあるため、次の第2の
判定ステップ603で設定範囲51内の領域がストロー
ク(幅か一定の線分)として、画面の」二辺まで延びて
いるか否かを調べる。
However, Wo is the number of pixels corresponding to the minimum value of the lane (marking line). Xo is the number of pixels in the vertical direction of the setting range 51. (direction signs, pedestrian crossings, speed signs, etc.), so in the next second determination step 603, the area within the setting range 51 is treated as a stroke (a line segment of a certain width or a certain width), and the two sides of the screen are Check to see if it has extended.

そして、このストロークが画面の上辺まで延びていると
認識されたならば、これを車線と判定するものである。
If this stroke is recognized as extending to the top of the screen, this is determined to be a lane.

この第2の判定ステップ603でストロークが途中で切
れていると判定された場合は、 a)前方で車線が前車等によって隠れている。
If it is determined in this second determination step 603 that the stroke is broken midway, then: a) the lane ahead is hidden by the vehicle in front, etc.;

b)車線が破線である。b) The lane is a broken line.

C)車線ではない。C) Not a lane.

の3つの可能性が考えられるっしたがって、このような
判定結果が得られた場合にはステップ604で画像の再
取り込みを行ない、その画像の特徴を抽出させるように
する。そして、この抽出された画像に基づいてステップ
605でストローク有無を判断、記憶し、ステップ60
6でこの判断記憶動作の回数を計数判断する。具体的に
はステップ606では回数が50回に達したか否かを判
断しているもので、また50回に達していない場合には
上記ステップ604戻り、この特徴抽出さらにストロー
ク判断の処理を繰返させる。ここで、この繰り返し周期
は、例えば100 +ll5Qc間隔で実行される。
There are three possibilities: Therefore, if such a determination result is obtained, the image is re-captured in step 604, and the features of the image are extracted. Based on this extracted image, the presence or absence of a stroke is determined and stored in step 605, and step 60
In step 6, the number of times of this judgment storage operation is counted and judged. Specifically, in step 606, it is determined whether the number of strokes has reached 50. If the number of strokes has not reached 50, the process returns to step 604 and repeats the process of feature extraction and stroke determination. let Here, this repetition period is performed, for example, at intervals of 100 +ll5Qc.

そして、上記判断記憶動作が50回繰返されたならば次
の第3の判定ステップ607に進む。
When the above judgment storage operation is repeated 50 times, the process proceeds to the next third judgment step 607.

この第3の判定ステップ607では、所定の画面内に白
あるいは黄色の領域が連続的に現れれば、これを実線の
車線と判定し、また間欠的に現れればこれを破線の車線
と判定するものである。
In this third determination step 607, if a white or yellow area appears continuously within a predetermined screen, this is determined to be a solid line lane, and if it appears intermittently, this is determined to be a broken line lane. It is.

これまでの説明では、走行する車両と車線との相対位置
関係を表示するようにしているものであるが、例えば車
両が車線からはみ出して走行しているようなに場合に、
これを運転者に報知するようにすることもできる。
In the explanation so far, the relative positional relationship between the traveling vehicle and the lane is displayed, but if, for example, the vehicle is traveling out of the lane,
It is also possible to notify the driver of this.

第10図はこのような判断および報知動作を実行するた
めの処理の流れを示しているもので、まず前記実施例と
同様にステップ201で特徴抽出の条件設定等の初期設
定を行ない、ステップ202で画像データを入力する。
FIG. 10 shows the flow of processing for executing such judgment and notification operations. First, in step 201, initial settings such as feature extraction conditions are performed, as in the previous embodiment, and in step 202. Enter the image data with .

そして、ステップ203で特徴抽出を行ない、車線の色
に相当する画像データを抽出し、ステップ204で車線
が存在するか否かを判断する。そして、ステップ205
で車両と車線との相対位置関係を計算させるようにする
Then, in step 203, feature extraction is performed to extract image data corresponding to the color of the lane, and in step 204, it is determined whether a lane exists. And step 205
to calculate the relative positional relationship between the vehicle and the lane.

ステップ206では、ステップ205における計算結果
から、車両が車線からはみ出しているか否かを判断する
ものであり、もし車両が車線からはみ出していると判断
された場合には、ステップ207で方向指示器の動作状
態から、この車両が車線変更している状態であるか否か
を判断する。そして、この車線からはみ出している状態
で、もし方向指示器が操作されていないと判断された場
合には、ステップ208に進んで車線からのはみ出しを
運転者に報知する。この報知手段としては、ブザー等の
音響を使用すればよい。
In step 206, it is determined whether the vehicle is out of the lane based on the calculation result in step 205. If it is determined that the vehicle is out of the lane, in step 207 the direction indicator is turned on. Based on the operating state, it is determined whether the vehicle is changing lanes. If it is determined that the turn signal is not operated while the vehicle is running out of the lane, the process proceeds to step 208 and the driver is notified of the vehicle running out of the lane. As this notification means, a sound such as a buzzer may be used.

また、ステップ207で方向指示器の操作状態が確認さ
れたならば、ステップ209に進んでそのはみ出した車
線が黄色であるか否かを判断する。もし黄色の車線であ
る場合には、これは進路変更禁止の表示であるため、ス
テップ210に進んでこの進路変更禁止の状態で進路変
更しようとしていることを、ブザー等によって運転者に
報知させるようにする。また、この報知手段は「はみ出
しています」 「進路変更禁止です」等の合成音声によ
るものであってもよい。
Furthermore, if the operating state of the turn signal is confirmed in step 207, the process proceeds to step 209, where it is determined whether or not the lane that has protruded is yellow. If the lane is yellow, this is a display prohibiting a change of course, so proceed to step 210 and use a buzzer etc. to notify the driver that the driver is about to change direction while the change of direction is prohibited. Make it. Further, this notification means may be a synthetic voice such as "You are running out of the vehicle" or "You are prohibited from changing course."

したがって、このような車線の踏み越し状態を報知でき
るようにしておけば、特に居眠り運転状態の警告等に対
する警報手段としても効果的に使用できるようになる。
Therefore, if it is possible to notify such a lane crossing condition, it can be effectively used as a warning means especially for warning of a drowsy driving condition.

また、進路変更禁止区域における運転上の注意手段とし
ても効果的に使用できる。
It can also be effectively used as a means of caution when driving in areas where course changes are prohibited.

これまでの説明では、テレビジョンカメラによって車両
の前方の風景が明瞭に撮影できるものとして説明してい
るが、例えば夜間の場合にはヘッドライトによって照明
される範囲の映像のみが受像されるようになる。
In the explanation so far, we have explained that the television camera can clearly capture the scenery in front of the vehicle, but for example, at night, only the image illuminated by the headlights is received. Become.

車両に取り付けられているヘッドライトでは、その光の
到達距離が限定されるようになるものであり、例えば第
11図で破線で示す範囲のみかへ−19= ラドライトで照明され、この照明された部分の映像が撮
像されるようになる。したがって、撮像された画面上で
白(黄)線の現れる範囲は、必然的に上記破線内の範囲
に限定されるものであり、夜間における車線認識に際し
ては、これを考慮した処理を実行すると効果的である。
Headlights installed on a vehicle have a limited range of light; for example, the area indicated by the broken line in Figure 11 is illuminated by a rad light. A portion of the image will now be captured. Therefore, the range in which the white (yellow) line appears on the captured screen is necessarily limited to the range within the broken line above, and it is effective to perform processing that takes this into account when lane recognition is performed at night. It is true.

第12図はこのような夜間の場合に認識処理の流れを示
しているもので、まずステップ301でこれまでの実施
例と同様に初期設定し、ステップ302ではヘッドライ
トがオン状態にあるか否かを、ヘッドライトスイッチ等
の状態から判別する。そして、ヘッドライトがオフ状態
であり、夜間走行ではないと判定された場合には、ステ
ップ303で画像の全面追跡処理を実行させる。またス
テップ302でヘッドライトの点灯状態が確認されたな
らば、ステップ304で画面上の追跡範囲を第11図で
破線で囲まれた範囲に限定した画面処理を実行さぜる。
FIG. 12 shows the flow of recognition processing in such a case of nighttime. First, in step 301, initial settings are performed as in the previous embodiments, and in step 302, it is determined whether the headlights are on or not. This can be determined from the condition of the headlight switch, etc. If it is determined that the headlights are off and the vehicle is not driving at night, full image tracking processing is executed in step 303. If the lighting state of the headlights is confirmed in step 302, then in step 304 screen processing is executed to limit the tracking range on the screen to the range surrounded by the broken line in FIG. 11.

そして、ステップ305で上記ステップ303あるいは
ステップ304で追跡処理された画面の画像デ一タを取
り込み、ステップ305でこの画像データから特徴抽出
を行なうものである。そして、以後はこの特徴抽出され
たデータに基づき、これまでの実施例と同様に車線の存
在等の判定処理を実行させるようにする。
Then, in step 305, the image data of the screen that has been tracked in step 303 or step 304 is captured, and in step 305, features are extracted from this image data. Thereafter, based on the extracted feature data, the process for determining the presence of lanes, etc., is executed in the same manner as in the previous embodiments.

さらに道路が急カーブしているような状態となった場合
には、画面上での車線のストロークを追跡し、その曲率
を計算することによって、車両の前方に現れるカーブを
認識させることができる。
Additionally, if the road turns sharply, the system can track the stroke of the lane on the screen and calculate its curvature to recognize the curve that appears in front of the vehicle.

第13図はこのような急カーブが現れた場合の警報手段
を含む車線認識装置の構成を示すもので、第1図で示し
た場合と同様にテレビジョンカメラ11で撮像したビデ
オ信号をデコーダ12に供給し、このデコーダ12から
のRSG、Bの信号を画像信号処理部13に供給して画
像処理を実行させる。
FIG. 13 shows the configuration of a lane recognition device including a warning means when such a sharp curve appears. Similar to the case shown in FIG. 1, a video signal captured by a television camera 11 is sent to a decoder 12 The RSG and B signals from the decoder 12 are supplied to the image signal processing section 13 to execute image processing.

また、走行する車両には速度センサ18、さらに方向指
示器の動作指令を発するウィンカスイッチ19が存在す
るものであり、このセンサ18およびウィンカスイッチ
19からの信号は、上記画像処理部16からの認識結果
と共に、CPU等で構成される計算判断部20に供給す
る。そして、この計算判断部20においては、画面上で
延びる車線のストロークのカーブの曲率(曲線半径)、
カーブまでの距離、さらに車速から判断して、安全走行
上で危険とみなされる場合には表示および報知部21で
それを表示し、またブザー等によって警報が発生される
ようにする。
In addition, a running vehicle has a speed sensor 18 and a blinker switch 19 that issues a direction indicator operation command, and the signals from this sensor 18 and blinker switch 19 are recognized by the image processing section 16. It is supplied together with the result to a calculation/judgment unit 20 comprised of a CPU or the like. The calculation/judgment unit 20 calculates the curvature (curve radius) of the stroke of the lane extending on the screen;
Judging from the distance to the curve and the vehicle speed, if it is deemed dangerous for safe driving, the display and notification section 21 displays it, and a warning is generated by a buzzer or the like.

これまでの実施例の説明では、車両の前方の風景を撮影
するように撮像手段を設定しているものであるが、この
撮像手段を後方に向けて設定し、この後方の風景を撮影
する撮像手段からの映像をこれまでの実施例同様に処理
すれば、例えばバックの運転状態で進入する駐車場の区
画線が効果的に認識できるようになるものであり、駐車
場の制限された範囲の駐車位置を、車体との相関関係で
正確に認識することができる。
In the explanation of the embodiments so far, the imaging means is set to photograph the scenery in front of the vehicle, but the imaging means is set to face rearward and the imaging means is set to photograph the scenery behind the vehicle. If the images from the vehicle are processed in the same manner as in the previous embodiments, it will be possible to effectively recognize, for example, the lane markings of a parking lot that one enters when driving in reverse, and the boundaries of the restricted area of the parking lot can be recognized effectively. The parking position can be accurately recognized based on the correlation with the vehicle body.

[発明の効果コ 以上のようにこの発明に係る車線認識装置によれば、路
面に描かれた車線が確実に認識されるものであり、車両
の走行位置がこの車線との相対関係で、容易且つ確実に
運転者において認知できるように表示することかできる
。したがって、車線に沿った安全運転状態の確認が容易
且つ確実に実行できるものであり、特に車線と車両との
相対位置関係が確実に認識できるものであり、さらに車
線の踏み越し状態を認識し運転者に報知可能とされるも
のであるため、運転者に対する警報手段等として効果的
に使用できるものである。
[Effects of the Invention] As described above, according to the lane recognition device according to the present invention, the lane drawn on the road surface can be reliably recognized, and the driving position of the vehicle can be easily determined in relation to the lane. Moreover, it can be displayed in a way that the driver can reliably recognize it. Therefore, it is possible to easily and reliably confirm the state of safe driving along the lane, and in particular, it is possible to reliably recognize the relative positional relationship between the lane and the vehicle. Since it is possible to notify the driver, it can be effectively used as a warning means for the driver.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明の一実施例に係る車線の認識装置を説
明する構成図、第2図は」1記装置に使用される撮像装
置の設置状態を説明する図、第3図は上記装置を構成す
る画像信号処理部の構成例を示す図、第4図は上記装置
の動作状態を説明するフローチャート、第5図は撮影さ
れた画像の状態を示す図、第6図は表示の状態を説明す
る図、第7図は」1記処理の流れにおける特徴抽出のス
テップをより詳細に説明する図、第8図(A)〜(C)
= 23− はそれぞれ認識される車線の状態、さらに拡散および収
縮処理された状態を説明する図、第9図は同じく車線判
定の処理のより詳細な状態を説明する図、第10図は上
記のような装置によって車線踏み越し状態を警告する処
理の流れを説明するフローチャート、第11図はヘッド
ライトによって照明される画像範囲を説明する図、第1
2図はヘッドライトを使用する夜間における認識処理の
例を説明するフローチャート、第13図は急カーブ状態
を認識させる認識装置の実施例を説明する構成図である
。 11・・・カラーテレビジョンカメラ、12・・・車両
、141.142・・・車線、15・・・デコーダ、1
6・・・画像信号処理部、17・・・表示部、20・・
・計算判断部。 出願人代理人 弁理士 鈴 江 武 彦第4図 第6図 第10図 第11図 ♀
FIG. 1 is a block diagram illustrating a lane recognition device according to an embodiment of the present invention, FIG. 2 is a diagram illustrating the installation state of an imaging device used in the device described in 1., and FIG. FIG. 4 is a flowchart explaining the operating state of the above device, FIG. 5 is a diagram showing the state of a captured image, and FIG. 6 is a diagram showing the display state. Figure 7 is an explanatory diagram, and Figure 8 (A) to (C) is a diagram explaining in more detail the feature extraction steps in the process flow described in 1.
= 23- is a diagram explaining the recognized lane state and the state after diffusion and contraction processing, respectively. FIG. 9 is a diagram also explaining a more detailed state of lane determination processing, and FIG. FIG. 11 is a flowchart illustrating the flow of processing for warning a lane crossing condition using a device such as this; FIG.
FIG. 2 is a flowchart illustrating an example of nighttime recognition processing using headlights, and FIG. 13 is a configuration diagram illustrating an embodiment of a recognition device that recognizes a sharp curve. 11...Color television camera, 12...Vehicle, 141.142...Lane, 15...Decoder, 1
6... Image signal processing unit, 17... Display unit, 20...
・Calculation judgment part. Applicant's representative Patent attorney Takehiko Suzue Figure 4 Figure 6 Figure 10 Figure 11 ♀

Claims (1)

【特許請求の範囲】  走行する車両の前方路面を撮影するカラー撮像装置と
、 この撮像装置で撮影された映像信号から、各色にそれぞ
れ対応するカラー画像信号に変換する手段と、 この手段で得られたカラー画像信号から車線の色彩に対
応したカラー画像信号を抽出する特徴抽出手段と、 この特徴抽出手段によって抽出した特徴画像に基づき、
車線であることを認識すると共に、ノイズを除去し補正
した認識画像を得る認識手段と、この手段で車線である
と認識された特徴画像と車両との相対関係位置を算出す
る手段とを具備し、 上記算出された結果を運転者に知らせるようにしたこと
を特徴とする路面上の車線認識装置。
[Scope of Claims] A color imaging device for photographing a road surface in front of a traveling vehicle, means for converting a video signal photographed by this imaging device into a color image signal corresponding to each color, and a color image signal obtained by this means. a feature extraction means for extracting a color image signal corresponding to the color of the lane from the colored image signal; and a feature extraction means based on the feature image extracted by the feature extraction means.
The vehicle is equipped with a recognition means for recognizing that the vehicle is in a lane and obtaining a corrected recognized image by removing noise, and a means for calculating a relative position between the characteristic image recognized as a lane by this means and the vehicle. , A lane recognition device on a road surface, characterized in that the calculated result is notified to a driver.
JP61287686A 1985-12-11 1986-12-04 Lane recognition device on the road Expired - Lifetime JP2560702B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP27816485 1985-12-11
JP60-278164 1985-12-11

Publications (2)

Publication Number Publication Date
JPS62221800A true JPS62221800A (en) 1987-09-29
JP2560702B2 JP2560702B2 (en) 1996-12-04

Family

ID=17593478

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61287686A Expired - Lifetime JP2560702B2 (en) 1985-12-11 1986-12-04 Lane recognition device on the road

Country Status (1)

Country Link
JP (1) JP2560702B2 (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03137798A (en) * 1989-10-24 1991-06-12 Nissan Motor Co Ltd Feature calculation point setter for road white line
JPH03219398A (en) * 1990-01-25 1991-09-26 Matsushita Electric Ind Co Ltd Traveling direction abnormality warning device for vehicle
JPH07306997A (en) * 1994-05-13 1995-11-21 Mazda Motor Corp Estimating device for traveling course of automobile
JPH11126300A (en) * 1997-10-21 1999-05-11 Mazda Motor Corp Lane deviation warning device for vehicle
US5987174A (en) * 1995-04-26 1999-11-16 Hitachi, Ltd. Image processing apparatus for vehicles
KR100354022B1 (en) * 2000-04-18 2002-09-27 현대자동차주식회사 Method for lane sencing of vehicle
JP2004056785A (en) * 2003-06-16 2004-02-19 Hitachi Ltd On-board image processing apparatus
KR100610846B1 (en) * 1999-12-30 2006-08-09 현대자동차주식회사 Method for discriminating of a traffic lane vedio signal
JP2006209209A (en) * 2005-01-25 2006-08-10 Honda Elesys Co Ltd Lane mark extraction device
JP2006309313A (en) * 2005-04-26 2006-11-09 Fuji Heavy Ind Ltd Road recognition device
WO2007000911A1 (en) * 2005-06-27 2007-01-04 Honda Motor Co., Ltd. Vehicle and lane recognition device
WO2007004439A1 (en) * 2005-07-06 2007-01-11 Honda Motor Co., Ltd. Vehicle and lane mark recognition apparatus
WO2007010750A1 (en) * 2005-07-15 2007-01-25 Honda Motor Co., Ltd. Vehicle, image processing system, image processing method, image processing program, structure system of image processing system
JP2009211715A (en) * 2009-05-29 2009-09-17 Clarion Co Ltd Lane position detecting system
JP2010019628A (en) * 2008-07-09 2010-01-28 Honda Motor Co Ltd Navigation apparatus and vehicle travel safety apparatus
JP2015121954A (en) * 2013-12-24 2015-07-02 株式会社デンソー Luminance value calculation device and traffic lane detection system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59128693A (en) * 1983-01-13 1984-07-24 株式会社デンソー Lane change alarm for vehicle

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59128693A (en) * 1983-01-13 1984-07-24 株式会社デンソー Lane change alarm for vehicle

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03137798A (en) * 1989-10-24 1991-06-12 Nissan Motor Co Ltd Feature calculation point setter for road white line
JPH03219398A (en) * 1990-01-25 1991-09-26 Matsushita Electric Ind Co Ltd Traveling direction abnormality warning device for vehicle
JPH07306997A (en) * 1994-05-13 1995-11-21 Mazda Motor Corp Estimating device for traveling course of automobile
US5987174A (en) * 1995-04-26 1999-11-16 Hitachi, Ltd. Image processing apparatus for vehicles
JPH11126300A (en) * 1997-10-21 1999-05-11 Mazda Motor Corp Lane deviation warning device for vehicle
KR100610846B1 (en) * 1999-12-30 2006-08-09 현대자동차주식회사 Method for discriminating of a traffic lane vedio signal
KR100354022B1 (en) * 2000-04-18 2002-09-27 현대자동차주식회사 Method for lane sencing of vehicle
JP2004056785A (en) * 2003-06-16 2004-02-19 Hitachi Ltd On-board image processing apparatus
JP4526963B2 (en) * 2005-01-25 2010-08-18 株式会社ホンダエレシス Lane mark extraction device
JP2006209209A (en) * 2005-01-25 2006-08-10 Honda Elesys Co Ltd Lane mark extraction device
JP2006309313A (en) * 2005-04-26 2006-11-09 Fuji Heavy Ind Ltd Road recognition device
JP4568637B2 (en) * 2005-04-26 2010-10-27 富士重工業株式会社 Road recognition device
WO2007000911A1 (en) * 2005-06-27 2007-01-04 Honda Motor Co., Ltd. Vehicle and lane recognition device
JP2007004668A (en) * 2005-06-27 2007-01-11 Honda Motor Co Ltd Vehicle and lane recognition device
US8144926B2 (en) 2005-06-27 2012-03-27 Honda Motor Co., Ltd Vehicle and lane recognition device
JP2007018154A (en) * 2005-07-06 2007-01-25 Honda Motor Co Ltd Vehicle and lane mark recognition device
WO2007004439A1 (en) * 2005-07-06 2007-01-11 Honda Motor Co., Ltd. Vehicle and lane mark recognition apparatus
US7965870B2 (en) 2005-07-06 2011-06-21 Honda Motor Co., Ltd. Vehicle and lane mark recognition apparatus
WO2007010750A1 (en) * 2005-07-15 2007-01-25 Honda Motor Co., Ltd. Vehicle, image processing system, image processing method, image processing program, structure system of image processing system
US8170285B2 (en) 2005-07-15 2012-05-01 Honda Motor Co., Ltd. Systems and methods of vehicle image processing
JP2010019628A (en) * 2008-07-09 2010-01-28 Honda Motor Co Ltd Navigation apparatus and vehicle travel safety apparatus
JP2009211715A (en) * 2009-05-29 2009-09-17 Clarion Co Ltd Lane position detecting system
JP2015121954A (en) * 2013-12-24 2015-07-02 株式会社デンソー Luminance value calculation device and traffic lane detection system

Also Published As

Publication number Publication date
JP2560702B2 (en) 1996-12-04

Similar Documents

Publication Publication Date Title
CA2610504C (en) Method and system for presenting video images
JPS62221800A (en) Recognition equipment for lane on road
US9773177B2 (en) Surrounding environment recognition device
US8543254B1 (en) Vehicular imaging system and method for determining roadway width
US9257045B2 (en) Method for detecting a traffic lane by means of a camera
US8054201B2 (en) Surroundings monitoring device for vehicle
JP4557288B2 (en) Image recognition device, image recognition method, position specifying device using the same, vehicle control device, and navigation device
EP2993654A1 (en) Method and system for forward collision warning
JP2008213744A (en) Vehicle periphery monitoring device
JP2005309797A (en) Warning device for pedestrian
JP2002314989A (en) Peripheral monitor for vehicle
JP2009122825A (en) Traveling state determination device
JP2570378B2 (en) Vehicle sign recognition device
JP5355209B2 (en) Navigation device, determination method and determination program for traveling lane of own vehicle
JP2012177997A (en) Headlight flashing content determination device
US11697346B1 (en) Lane position in augmented reality head-up display system
JP4986070B2 (en) Ambient monitoring device for vehicles
KR100355993B1 (en) An apparatus for warning lane deviation and a method for warning the same
JP2007193702A (en) Image processing device and image processing method
JP2011103058A (en) Erroneous recognition prevention device
JP2000011298A (en) Read and side monitoring device for vehicle
KR102448697B1 (en) System for Preventing Accident of Crosswalk by right-turning Vehicle
JP2004252550A (en) Driving support device
JP4791086B2 (en) Collision avoidance system
JP3729005B2 (en) Vehicle rear monitoring device