JP3413745B2 - Road surface monitoring device by image processing - Google Patents

Road surface monitoring device by image processing

Info

Publication number
JP3413745B2
JP3413745B2 JP32915695A JP32915695A JP3413745B2 JP 3413745 B2 JP3413745 B2 JP 3413745B2 JP 32915695 A JP32915695 A JP 32915695A JP 32915695 A JP32915695 A JP 32915695A JP 3413745 B2 JP3413745 B2 JP 3413745B2
Authority
JP
Japan
Prior art keywords
processing
sampling
area
color
extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP32915695A
Other languages
Japanese (ja)
Other versions
JPH09167239A (en
Inventor
和人 中村
和朗 高野
竜彦 門司
塙  和彦
真 塩谷
龍志 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP32915695A priority Critical patent/JP3413745B2/en
Publication of JPH09167239A publication Critical patent/JPH09167239A/en
Application granted granted Critical
Publication of JP3413745B2 publication Critical patent/JP3413745B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、車両に搭載され、
車両の走行路を撮像視野とするテレビジョンカメラによ
り撮像した画像データに基づいて、自車両が走行すべき
車線を認識する装置に関するものである。
TECHNICAL FIELD The present invention is mounted on a vehicle,
Based the travel path of the vehicle to the image data captured by the television camera for the imaging field of view, are those concerning the device for recognizing the lane the vehicle should travel.

【0002】[0002]

【従来の技術】車載カメラ、すなわち、車両に搭載さ
れ、車両の走行路を撮像視野とするテレビジョンカメラ
を用い、これにより撮影された画像データに基づいて走
行車線を認識する従来技術としては、例えば特開昭62
ー221800号公報に開示されたものがある。
2. Description of the Related Art As an on-vehicle camera, that is, a conventional technique for recognizing a traveling lane based on image data captured by a television camera mounted on a vehicle and having a traveling path of the vehicle as an imaging field of view, For example, JP-A-62
There is one disclosed in Japanese Patent No. 221800.

【0003】この従来技術では、例えばカラー撮像装置
によって車両前方を撮影し、その映像信号に基づきカラ
ー画像データを形成し、このカラー画像データから車線
を表現する色の画像データを抽出し、この抽出された画
像データに基づいて車線の存在を判断するようになって
いる。
In this prior art, for example, the front of the vehicle is photographed by a color image pickup device, color image data is formed based on the video signal, image data of a color expressing a lane is extracted from this color image data, and this extraction is performed. The presence of a lane is judged based on the image data thus obtained.

【0004】[0004]

【発明が解決しようとする課題】ところで、車載カメラ
により撮影された画像データは、多くの場合、同一画像
内でも、自車両から近距離の領域と遠距離の領域とで
は、そのデータの状態が大きく異なっている。例えば昼
間の場合では、遠距離の領域は、路面が太陽光を反射
し、近距離の領域に比して白っぽくなっている、すなわ
ち輝度が高くなっていることが多い。また、夜間では、
近距離の領域は、自車両の前照灯で明るくなっているの
に対して、遠距離の領域は、前照灯が届かないために、
暗くなっていることが多い。
By the way, in many cases, the image data taken by the vehicle-mounted camera shows the state of the data even in the same image in the short distance area and the long distance area from the own vehicle. It's very different. For example, in the daytime, in a long distance area, the road surface reflects sunlight and is often whitish, that is, the brightness is higher than in a short distance area. Also, at night,
In the short distance area, the headlight of the vehicle is bright, while in the long distance area, the headlight does not reach,
It is often dark.

【0005】そのため、従来技術のような、画像データ
からある色の画像信号を抽出する方法において、近距離
と遠距離の両方の領域で車線を同時に抽出するために
は、抽出する色の条件を、近距離の領域と遠距離の領域
とでは別々に設定する必要がある。
Therefore, in the method of extracting an image signal of a certain color from the image data as in the prior art, in order to simultaneously extract the lanes in both the short distance and the long distance, the conditions of the color to be extracted are set. , The short-distance area and the long-distance area must be set separately.

【0006】しかしながら、上述した従来技術によれ
ば、車線を抽出するための色の条件は一つしか設定でき
ないため、近距離の領域で車線を抽出できるような色の
条件を設定すると、遠距離の領域で車線を抽出できず、
また、遠距離の領域で車線を抽出できるような色の条件
を設定すると、近距離の領域で車線が抽出できない。言
い替えると、近距離と遠距離の両方の領域で、車線を同
時に正確に抽出することはできないという問題点があ
る。
However, according to the above-mentioned conventional technique, only one color condition for extracting a lane can be set. Therefore, if a color condition for extracting a lane in a short distance region is set, a long distance is set. Lane cannot be extracted in the area
Also, if the color condition is set so that the lane can be extracted in the long distance area, the lane cannot be extracted in the short distance area. In other words, there is a problem that the lane cannot be accurately extracted at the same time in both the short distance and long distance areas.

【0007】そこで、本発明は、上記従来技術の問題点
に鑑み、車載カメラにより撮影された画像情報に基づい
て、自車両の走行レーンに対する車線を認識するにあた
り、近距離の領域と遠距離の領域とで、車線を同時に認
識可能な装置を提供することを目的とする。
In view of the above-mentioned problems of the prior art, the present invention recognizes the lane of the vehicle with respect to the driving lane based on the image information taken by the vehicle-mounted camera. An object of the present invention is to provide a device that can simultaneously recognize a lane in a region.

【0008】[0008]

【課題を解決するための手段】上記目的を達成するため
に、本発明では、撮像装置によって車両前方の路面を撮
影し、その撮影された画像情報の近距離領域から車線を
抽出するための抽出条件と、遠距離領域から車線を抽出
するための抽出条件を設定し、近距離領域と遠距離領域
から、それぞれの抽出色条件を満たす画素を抽出し、こ
の抽出された画素に基づいて車線の認識を行なうように
したものである。
In order to achieve the above object, according to the present invention, a road surface in front of a vehicle is photographed by an image pickup device, and extraction is performed to extract a lane from a short-distance area of the photographed image information. Set the conditions and the extraction conditions for extracting the lane from the long-distance area, extract the pixels that satisfy the extraction color conditions from the short-distance area and the long-distance area, and extract the lane of the lane based on the extracted pixels. It is designed for recognition.

【0009】本発明によれば、近距離の領域と遠距離の
領域について、それぞれ車線を抽出するための条件を独
立に設定しているので、近距離の領域と遠距離の領域と
で車線を同時に認識することが可能となる。
According to the present invention, the conditions for extracting the lanes are set independently for the short-distance region and the long-distance region. Therefore, the lanes are defined for the short-distance region and the long-distance region. It becomes possible to recognize at the same time.

【0010】[0010]

【発明の実施の形態】以下、本発明について、図示の実
施例を用いて説明する。図1は、本発明の一実施例の構
成図で、この実施例は、撮影部1と処理部5、メモリ2
3、表示部14とで構成され、さらに、処理部5は、画
像処理部6と判断部7とを備えている。そして、車両状
態センサ20、車両運動制御装置22、及び警報装置2
1と、判断部7との間で信号が授受されるように構成さ
れている。
BEST MODE FOR CARRYING OUT THE INVENTION The present invention will be described below with reference to the illustrated embodiments. FIG. 1 is a block diagram of an embodiment of the present invention. In this embodiment, a photographing unit 1, a processing unit 5, and a memory 2 are provided.
3, the display unit 14, and the processing unit 5 further includes an image processing unit 6 and a determination unit 7. Then, the vehicle state sensor 20, the vehicle motion control device 22, and the alarm device 2
A signal is transmitted and received between 1 and the determination unit 7.

【0011】次に、この実施例の各構成要素について説
明する。まず、撮影部1について説明する。CCDカメ
ラ2は車両の前方の画像を撮像し、画像情報を得るため
の手段であり、前方の被写体の画像情報を、カラーアナ
ログ信号に変換する機能を有するものである。このた
め、車載時には、例えば車両前部のグリル付近で、汚れ
の少ない箇所、或いは車室内のルームミラーやサンバイ
ザー等の前方視界の広い箇所に設置すれば良い。
Next, each component of this embodiment will be described. First, the photographing unit 1 will be described. The CCD camera 2 is a means for capturing an image in front of the vehicle and obtaining image information, and has a function of converting image information of a subject in front of the vehicle into a color analog signal. For this reason, when mounted on a vehicle, for example, it may be installed near a grill on the front of the vehicle, in a place where there is little dirt, or in a place with a wide front field of view such as a room mirror or a sun visor in the vehicle interior.

【0012】A/D変換器3は、CCDカメラ2から出
力されたアナログ画像信号を、デジタル画像信号に変換
する処理を行う。色差変換回路4は、A/D変換器3か
ら出力されたデジタル信号、すなわち被写体の三原色
(R(赤)、G(緑)、B(青))に相当するデジタル信号を、
次式で定義する輝度信号Yと色差信号R−Y、B−Yに
変換する処理を行う。
The A / D converter 3 performs a process of converting an analog image signal output from the CCD camera 2 into a digital image signal. The color difference conversion circuit 4 uses the digital signal output from the A / D converter 3, that is, the three primary colors of the subject.
Digital signals corresponding to (R (red), G (green), B (blue))
A process of converting the luminance signal Y and the color difference signals RY and BY defined by the following equations is performed.

【0013】 Y = 0.3R + 0.6G + 0.1B R−Y = 0.7R − 0.6G − 0.1B B−Y = -0.3R − 0.6G + 0.9B 上式にて、変換されて求まった輝度信号Y及び色差信号
R−Y、B−Yは、遅延回路16に入力されるととも
に、バッファ25に格納される。
Y = 0.3R + 0.6G + 0.1B R−Y = 0.7R−0.6G−0.1B B−Y = −0.3R−0.6G + 0.9B The luminance signal obtained by conversion by the above equation The Y and the color difference signals RY and BY are input to the delay circuit 16 and stored in the buffer 25.

【0014】次に、処理部5について説明するが、その
動作内容は後に説明するため、ここでは、各構成要素の
機能を概説しておくことにする。図1に示すように、処
理部5は、画像処理部6と判断部7とを備えている。そ
こで、まず、画像処理部6の構成要素について説明す
る。
Next, the processing unit 5 will be described, but since the operation content thereof will be described later, the function of each component will be outlined here. As shown in FIG. 1, the processing unit 5 includes an image processing unit 6 and a determination unit 7. Therefore, first, the components of the image processing unit 6 will be described.

【0015】バッファ25は、色差変換回路4から送ら
れた画像情報を記憶する手段であるが、必ずしも1フレ
ーム分の容量を有している必要はない。例えば、画像処
理の単位が3ライン(走査線3本)であれば、3ライン分
の容量を有するように構成しておけば良い。
The buffer 25 is a means for storing the image information sent from the color difference conversion circuit 4, but does not necessarily have a capacity for one frame. For example, if the unit of image processing is three lines (three scanning lines), it may be configured to have a capacity for three lines.

【0016】近距離領域色サンプリング回路27は、バ
ッファ25から画像情報を受け取って、後述する近距離
領域抽出条件決定部29から指定されたサンプリング位
置の画素から色データ(Y,R−Y,B−Y)をサンプリ
ングし、そのサンプリングされたデータを遠距離領域抽
出条件決定部30及び近距離領域抽出条件決定部29に
転送する回路である。
The short-distance area color sampling circuit 27 receives the image information from the buffer 25, and extracts the color data (Y, RY, B from the pixel at the sampling position designated by the short-distance area extraction condition determining unit 29 described later). -Y) is sampled, and the sampled data is transferred to the long-distance region extraction condition determining unit 30 and the short-distance region extraction condition determining unit 29.

【0017】遠距離領域色サンプリング回路28は、バ
ッファ25から画像情報を受け取って、後述する遠距離
領域抽出条件決定部30から指定されたサンプリング位
置の画素から色データ(Y,R−Y,B−Y)をサンプリ
ングし、そのサンプリングされたデータを近距離領域抽
出条件決定部29及び遠距離領域抽出条件決定部30に
転送する回路である。
The long-distance area color sampling circuit 28 receives the image information from the buffer 25, and extracts the color data (Y, RY, B from the pixel at the sampling position designated by the long-distance area extraction condition determining unit 30 described later). -Y) is sampled and the sampled data is transferred to the short distance area extraction condition determining unit 29 and the long distance area extraction condition determining unit 30.

【0018】遠距離領域抽出条件決定部30は、メモリ
23に予め記憶してある道路色に相当する色データ
(Y,R−Y,B−Y)と遠距離領域色サンプリング回路
28及び近距離領域色サンプリング回路27でサンプリ
ングした色データ(Y,R−Y,B−Y)をもとに、遠距
離領域抽出色条件を決定し、遠距離領域エッジ抽出処理
回路10に転送する処理を行う。
The long-distance area extraction condition determining unit 30 uses color data corresponding to road colors stored in the memory 23 in advance.
(Y, RY, BY) and the color data (Y, RY, BY) sampled by the long-distance area color sampling circuit 28 and the short-distance area color sampling circuit 27. The area extraction color condition is determined, and the processing is transferred to the long-distance area edge extraction processing circuit 10.

【0019】また、この遠距離領域抽出条件決定部30
は、車線認識部12から前の周期の処理で認識された車
線情報を受け取って、後に説明する遠距離領域エッジ抽
出処理を行う領域を決定し、その遠距離領域エッジ抽出
処理領域データを遠距離領域エッジ抽出処理回路10に
転送する処理を行う。
The long-distance area extraction condition determining unit 30
Receives the lane information recognized in the process of the previous cycle from the lane recognizing unit 12, determines an area to be subjected to the long-distance area edge extraction processing described later, and sets the long-distance area edge extraction processing area data to the long-distance area. Processing for transferring to the area edge extraction processing circuit 10 is performed.

【0020】さらに、この遠距離領域抽出条件決定部3
0は、車線認識部12から前の周期の処理で認識された
車線情報を受け取って、色データをサンプリングする遠
距離領域サンプリング画素の位置を決定し、そのサンプ
リング位置データを遠距離領域色サンプリング回路28
に転送する処理を行う。
Further, the long-distance area extraction condition determining unit 3
0 receives the lane information recognized in the process of the previous cycle from the lane recognition unit 12, determines the position of the long-distance area sampling pixel for sampling the color data, and sets the sampling position data to the long-distance area color sampling circuit. 28
Process to transfer to.

【0021】なお、遠距離領域抽出条件である遠距離領
域抽出色条件と遠距離領域サンプリング位置、及び遠距
離領域エッジ抽出処理領域は、予め設定しておいても良
い。
The long-distance area extraction color condition, the long-distance area sampling position, and the long-distance area edge extraction processing area, which are long-distance area extraction conditions, may be set in advance.

【0022】近距離領域抽出条件決定部29は、メモリ
23に予め記憶してある道路色に相当する色データ
(Y,R−Y,B−Y)と、遠距離領域色サンプリング回
路28及び近距離領域色サンプリング回路27でサンプ
リングした色データ(Y,R−Y,B−Y)をもとに、近
距離領域抽出色条件を決定し、近距離領域エッジ抽出処
理回路26に転送する処理を行う。
The short-distance area extraction condition determining unit 29 uses color data corresponding to road colors stored in the memory 23 in advance.
(Y, RY, BY) and the color data (Y, RY, BY) sampled by the long-distance area color sampling circuit 28 and the short-distance area color sampling circuit 27. The distance area extraction color condition is determined and transferred to the short distance area edge extraction processing circuit 26.

【0023】また、この近距離領域抽出条件決定部29
は、車線認識部12から前の周期の処理で認識された車
線情報を受け取って、後に説明する近距離領域エッジ抽
出処理を行う領域を決定し、その近距離領域エッジ抽出
処理領域データを近距離領域エッジ抽出処理回路26に
転送する処理を行う。
Further, this short distance area extraction condition determining unit 29
Receives the lane information recognized in the process of the previous cycle from the lane recognizing unit 12, determines an area to be subjected to the short-distance area edge extraction processing described later, and sets the short-distance area edge extraction processing area data to the short-distance area. Processing for transferring to the area edge extraction processing circuit 26 is performed.

【0024】さらに、この近距離領域抽出条件決定部2
9は、車線認識部12から前の周期の処理で認識された
車線情報を受け取って、色データをサンプリングする近
距離領域サンプリング画素の位置を決定し、そのサンプ
リング位置データを近距離領域色サンプリング回路27
に転送する処理を行う。
Further, the short-distance area extraction condition determining unit 2
9 receives the lane information recognized in the process of the previous cycle from the lane recognition unit 12, determines the position of the short-distance area sampling pixel for sampling the color data, and outputs the sampling position data to the short-distance area color sampling circuit. 27
Process to transfer to.

【0025】なお、近距離領域抽出条件である、近距離
領域抽出色条件、近距離領域サンプリング位置、及び近
距離領域エッジ抽出処理領域は、予め設定しておくよう
にしても良い。
The short-distance area extraction condition, the short-distance area extraction color condition, the short-distance area sampling position, and the short-distance area edge extraction processing area may be set in advance.

【0026】電子ズ−ム回路8は、バッファ25から画
像情報を受け取り、後に説明するズーム条件決定部9に
よって、1水平ライン毎に決定されたズーム条件(ズー
ム中心座標及び拡大率)に従い、画像情報を水平方向に
のみ拡大する処理を(例えば、1水平ライン毎に)行った
後、拡大処理された画像情報を、遠距離領域エッジ抽出
処理回路10に転送する処理を行う。
The electronic zoom circuit 8 receives the image information from the buffer 25, and in accordance with the zoom condition (zoom center coordinates and enlargement ratio) determined for each horizontal line by the zoom condition determining unit 9 which will be described later, the image is displayed. After performing the process of enlarging the information only in the horizontal direction (for example, every one horizontal line), the process of transferring the enlarged image information to the long-distance region edge extraction processing circuit 10 is performed.

【0027】ここで、ズーム中心座標は、画像情報を拡
大する際に、拡大処理を行う基準点の位置を示すパラメ
ータであり、拡大率は、画像情報を拡大する倍率を示す
パラメータである。
Here, the zoom center coordinate is a parameter indicating the position of a reference point for performing the enlargement process when enlarging the image information, and the enlargement ratio is a parameter indicating the magnification for enlarging the image information.

【0028】遠距離領域エッジ抽出処理回路10は、電
子ズーム回路8から転送された、拡大処理された画像情
報の中の、遠距離領域抽出条件決定部30から転送され
た遠距離領域抽出処理領域から、遠距離領域抽出条件決
定部30で決定された遠距離領域抽出色条件に該当する
画素を抽出し、ノイズ等を除去する画像処理を施した
後、1本の水平ライン上で、その抽出画素に対する位置
座標データ(エッジ座標データ)をエッジ座標変換部11
に転送する働きをする。
The long-distance area edge extraction processing circuit 10 includes a long-distance area extraction processing area transferred from the long-distance area extraction condition determining unit 30 in the enlarged image information transferred from the electronic zoom circuit 8. From the pixel, the pixel corresponding to the long-distance area extraction color condition determined by the long-distance area extraction condition determination unit 30 is extracted, image processing for removing noise and the like is performed, and then the extraction is performed on one horizontal line. The position coordinate data (edge coordinate data) for the pixel is converted into edge coordinate conversion unit 11
Works to transfer to.

【0029】近距離領域エッジ抽出処理回路26は、バ
ッファ25から受け取った画像信号の中の、近距離領域
抽出条件決定部29から転送された近距離領域抽出処理
領域から、近距離領域抽出条件決定部29で決定された
近距離領域抽出色条件に該当する画素を抽出し、ノイズ
等を除去する画像処理を施した後、1つの水平ライン上
で、その抽出画素に対する位置座標データ(エッジ座標
データ)を、車線認識部12に転送する。
The short distance area edge extraction processing circuit 26 determines the short distance area extraction condition from the short distance area extraction processing area transferred from the short distance area extraction condition determination unit 29 in the image signal received from the buffer 25. Pixels corresponding to the short-distance region extraction color condition determined by the unit 29 are extracted, image processing is performed to remove noise and the like, and then position coordinate data (edge coordinate data) for the extracted pixels is displayed on one horizontal line. ) Is transferred to the lane recognition unit 12.

【0030】なお、1本の水平ラインを調べていったと
き、抽出色条件を満足しない画素から、抽出色条件を満
足する画素への変化点を想定した場合、該抽出色条件を
満足する画素を立ち上がりエッジ画素と称し、その座標
データは、立ち上がりエッジ画素のエッジ座標データと
いう。同様に1本の水平ラインを調べていったとき、抽
出色条件を満足する画素から、抽出色条件を満足しない
画素への変化点を想定した場合、該抽出色条件を満足す
る画素を立ち下がりエッジと称し、その座標データは、
立ち下がりエッジ画素のエッジ座標データという。ここ
で、エッジ座標データは、座標情報の他に、当該エッジ
座標は、立ち上がりなのか、または、立ち下がりなのか
を示す情報も含んでいるものとする。
When one horizontal line is examined, when a change point from a pixel which does not satisfy the extraction color condition to a pixel which satisfies the extraction color condition is assumed, the pixel which satisfies the extraction color condition is assumed. Is called a rising edge pixel, and its coordinate data is called edge coordinate data of the rising edge pixel. Similarly, when one horizontal line is examined, if a change point from a pixel that satisfies the extraction color condition to a pixel that does not satisfy the extraction color condition is assumed, the pixel that satisfies the extraction color condition falls. It is called an edge, and its coordinate data is
It is called edge coordinate data of the falling edge pixel. Here, it is assumed that the edge coordinate data includes, in addition to the coordinate information, information indicating whether the edge coordinate is a rising edge or a falling edge.

【0031】次に、エッジ座標変換部11は、ズーム条
件決定部9から転送されたズーム中心座標と拡大率に基
づいて、遠距離領域エッジ抽出処理回路10から転送さ
れたエッジ座標データを拡大処理前の座標データに変換
し、車線認識部12に転送する働きをする。なお、これ
らのズーム中心座標や拡大率については、後に、画像ズ
ーム処理のところで詳しく説明する。
Next, the edge coordinate conversion unit 11 enlarges the edge coordinate data transferred from the long-distance region edge extraction processing circuit 10 based on the zoom center coordinates and the enlargement ratio transferred from the zoom condition determination unit 9. It functions to convert it to the previous coordinate data and transfer it to the lane recognition unit 12. The zoom center coordinates and the enlargement ratio will be described in detail later in the image zoom processing.

【0032】次に、車線認識部12は、エッジ座標変換
部11及び近距離領域エッジ抽出処理回路26から転送
されたエッジ座標データをもとに、自車両が走行する走
行レーンに対する左車線と右車線に対するエッジ座標デ
ータを抽出し、抽出したエッジ座標データに基づいて左
右の車線を認識し、車線認識結果を近距離領域抽出条件
決定部29、遠距離領域抽出条件決定部30、ズーム条
件決定部9、危険度判断部13及び置換回路15に転送
する。
Next, the lane recognition unit 12 uses the edge coordinate data transferred from the edge coordinate conversion unit 11 and the short-distance area edge extraction processing circuit 26 to determine the left lane and the right lane for the traveling lane in which the vehicle is traveling. The edge coordinate data for the lane is extracted, the left and right lanes are recognized based on the extracted edge coordinate data, and the lane recognition result is used as the short distance area extraction condition determination unit 29, the long distance area extraction condition determination unit 30, and the zoom condition determination unit. 9, transferred to the risk determination unit 13 and the replacement circuit 15.

【0033】次に、ズーム条件決定部9は、車線認識部
12から、認識された車線情報を受け取って、ズ−ム中
心座標と拡大率を算出し、エッジ座標変換部11、画像
ズ−ム回路8に転送する。なお、ズーム条件である、ズ
ーム中心座標、拡大率を、各水平ライン毎に予め設定し
ておいて、画像拡大処理を行わせるようにしても良い。
Next, the zoom condition determination unit 9 receives the recognized lane information from the lane recognition unit 12, calculates the zoom center coordinates and the enlargement ratio, and the edge coordinate conversion unit 11 and the image zoom. Transfer to circuit 8. The zoom center coordinates and the enlargement ratio, which are the zoom conditions, may be set in advance for each horizontal line, and the image enlargement processing may be performed.

【0034】次に、表示部14の構成について説明す
る。遅延回路16は、処理部5での種々の処理時間に対
応する時間だけ、入力された画像情報を遅延させて出力
する機能を有し、色差変換回路4から出力される信号
と、車線認識部12から出力される処理結果とを、置換
回路15に入力する際に同期合わせを行うための回路で
ある。
Next, the structure of the display unit 14 will be described. The delay circuit 16 has a function of delaying and outputting the input image information by a time corresponding to various processing times in the processing unit 5, and outputs the signal output from the color difference conversion circuit 4 and the lane recognition unit. This is a circuit for synchronizing the processing result output from 12 when inputting it to the replacement circuit 15.

【0035】置換回路15は、遅延回路16で遅延され
た画像に処理部5からの処理結果を重ね合わせる回路で
ある。具体的には、何ら画像処理を行っていない、遅延
回路16から出力された図3(1)に示すような撮影画像
に、図3(2)に示すような車線認識部12で認識された
車線の画像情報を、重ね合わせて図3(3)に示すような
撮影画像上に認識車線を描いた画像情報を得る働きをす
る。
The replacement circuit 15 is a circuit for superimposing the processing result from the processing section 5 on the image delayed by the delay circuit 16. Specifically, the lane recognition unit 12 as shown in FIG. 3 (2) recognizes the captured image as shown in FIG. 3 (1) output from the delay circuit 16 without any image processing. The image information of the lane is superimposed to obtain the image information of the recognized lane drawn on the captured image as shown in FIG. 3 (3).

【0036】また、危険度判断部13が、警報装置21
を駆動する際には、これと同時に、警報情報をモニタ1
8に表示させるためのスーパインポーズ情報を置換回路
15に与えるように構成しておけば良い。この警報情報
がモニタ18に表示された様子を、図3(4)に示す。
In addition, the danger level judgment unit 13 uses the alarm device 21.
At the same time, when driving the
The superimposing information to be displayed on the display 8 may be provided to the replacement circuit 15. A state in which this alarm information is displayed on the monitor 18 is shown in FIG.

【0037】エンコーダ回路17は、置換回路15から
の画像情報をNTSC信号に変換するための回路であ
る。そして、モニタ18は、このNTSC信号を入力
し、これに対する画像情報を表示画面に表示する働きを
する。
The encoder circuit 17 is a circuit for converting the image information from the replacing circuit 15 into an NTSC signal. Then, the monitor 18 receives the NTSC signal and displays image information corresponding to the NTSC signal on the display screen.

【0038】次に判断部7の構成要素について説明す
る。車両状態判断部19は、車両状態センサ20から送
られる信号により、自車両の走行状態を判断し、その判
断結果を危険度判断部13に転送する。ここで、車両状
態センサ20は自車両の運動量、運転者の操作意志等を
検出する手段であり、例えば、自車両の速度を計測する
車速度センサ等や、その他方向指示器、ステア角センサ
等が挙げられる。
Next, the components of the judgment unit 7 will be described. The vehicle state determination unit 19 determines the traveling state of the own vehicle based on the signal sent from the vehicle state sensor 20, and transfers the determination result to the risk degree determination unit 13. Here, the vehicle state sensor 20 is means for detecting the momentum of the own vehicle, the driver's intention to operate, and the like. For example, a vehicle speed sensor for measuring the speed of the own vehicle, other direction indicators, steer angle sensors, etc. Is mentioned.

【0039】危険度判断部13では、認識部12より送
られてきた自車の走行レーンに対する左右車線情報と車
両状態判断部19より送信されたデータで、自車の走行
危険度を認識する。例えば、車速度センサが検出した自
車両の速度が初定値以上で、かつ、前方の画像情報中の
特定位置に前方車等の存在が認識された場合、これを危
険状態と判断し、車両運動制御装置22や警報装置21
を駆動するのである。
The risk determining unit 13 recognizes the traveling risk of the own vehicle based on the left and right lane information for the traveling lane of the own vehicle sent from the recognizing unit 12 and the data transmitted from the vehicle state determining unit 19. For example, when the speed of the host vehicle detected by the vehicle speed sensor is equal to or higher than the initial fixed value and the presence of a forward vehicle or the like is recognized at a specific position in the front image information, this is determined to be a dangerous state, and Motion control device 22 and alarm device 21
Drive.

【0040】車両運動制御装置22は、駆動系、制御
系、操舵系等の制御を行う装置で、具体例としては、自
動ブレーキ等が考えられる。また、警報装置21として
は、運転者の聴覚や視覚に訴えて運転者に注意を喚起す
る手段であれば、どのような手段でも良く、例えば、チ
ャイムの駆動動作やLEDの表示等が考えられる。な
お、この判断部7については、上記の構成に限らず、様
々な態様が考えられる。
The vehicle motion control device 22 is a device for controlling a drive system, a control system, a steering system and the like, and a specific example thereof is an automatic brake or the like. Further, as the alarm device 21, any means may be used as long as it is a means for appealing to the driver by appealing to the driver's hearing or vision, and for example, a driving operation of a chime or an LED display may be considered. . It should be noted that the determination unit 7 is not limited to the above configuration, and various modes are conceivable.

【0041】なお、メモリ23は、上記した処理に使用
される他、ズーム条件決定部9により決定されたズーム
条件を格納し、さらに車線認識部12等が処理を行う際
のワークエリアとしても機能するようになっている。
The memory 23 is used not only for the above-described processing but also for storing the zoom condition determined by the zoom condition determining unit 9 and also as a work area when the lane recognizing unit 12 and the like perform the process. It is supposed to do.

【0042】次に、この実施例の動作について説明す
る。まず、この実施例では、大別して、第一の処理と第
二の処理の2種の処理が別周期で、並列して実行される
ように構成されている。
Next, the operation of this embodiment will be described. First, in this embodiment, roughly, two types of processing, that is, a first processing and a second processing are executed in parallel in different cycles.

【0043】まず第一の処理は、CCDカメラ2で得た
画像情報をA/D変換器3にてアナログ・デジタル変換
し、さらに、色差変換回路4にて輝度、色差信号に変換
し、遅延回路16によって所定時間の遅延を与え、置換
回路15の有する機能によって画像処理した後、画像処
理結果をエンコーダ回路17によってNTSC信号に変
換してモニタ18に処理結果を表示するまでの一連の処
理であり、まず、この第1の処理について、図1と図2
を用いて説明する。
First, in the first process, the image information obtained by the CCD camera 2 is analog-digital converted by the A / D converter 3, and further converted by the color difference conversion circuit 4 into luminance and color difference signals and delayed. The circuit 16 gives a delay of a predetermined time, the image processing is performed by the function of the replacement circuit 15, the image processing result is converted into an NTSC signal by the encoder circuit 17, and the processing result is displayed on the monitor 18. Yes, first, regarding this first processing, FIG. 1 and FIG.
Will be explained.

【0044】まず図2において、装置の電源がオン状態
になると(S2)、初期設定が行われる(S4)。ここで、
初期設定とは、例えば、メモリ23のワークエリア領域
のクリア等の処理が挙げられる。また、このとき、人間
が行う操作としては、撮影部1、表示部14の初期調整
や、後述する第二の処理で用いられるズーム条件やサン
プリング位置や近距離領域エッジ抽出と遠距離領域エッ
ジ抽出を行う処理領域等の初期値を、図示しない入力部
によって設定する操作がある。
First, in FIG. 2, when the power of the apparatus is turned on (S2), initialization is performed (S4). here,
Examples of the initial setting include processing such as clearing the work area area of the memory 23. Further, at this time, as operations performed by a human, initial adjustment of the image capturing unit 1 and the display unit 14, zoom conditions and sampling positions used in a second process described later, short range region edge extraction, and long range region edge extraction are performed. There is an operation of setting an initial value of a processing area or the like for performing the operation using an input unit (not shown).

【0045】次に、CCDカメラ2によって撮影した車
両前方の画像情報信号がアナログRGB信号として出力
する処理(S6)が行なわれ、次いでA/D変換器3によ
りアナログRGB信号をデジタルRGB信号に変換し
(S8)、このデジタルRGB信号を、前述した変換式に
従って色差変換回路4で処理し、輝度(Y)及び色差信号
(R−Y,B−Y)に変換する(S10)。
Next, a process (S6) of outputting the image information signal in front of the vehicle taken by the CCD camera 2 as an analog RGB signal is performed, and then the A / D converter 3 converts the analog RGB signal into a digital RGB signal. Shi
(S8), the digital RGB signal is processed by the color difference conversion circuit 4 according to the conversion formula described above, and the luminance (Y) and the color difference signal are obtained.
Conversion to (RY, BY) (S10).

【0046】次に、遅延回路16は、色差変換回路4か
ら出力された画像信号を入力信号とし、処理部5で必要
とする処理時間だけ入力信号に遅延を与え(S12)、処
理部5で処理された信号との同期合わせを行う。
Next, the delay circuit 16 receives the image signal output from the color difference conversion circuit 4 as an input signal, delays the input signal by the processing time required by the processing section 5 (S12), and the processing section 5 receives it. Synchronize with the processed signal.

【0047】次に、置換回路15は、処理を行っていな
い原画像情報の上に、処理部5での処理結果を重ね合わ
せる処理を行い(S14)、置換回路15の出力信号をエ
ンコーダ回路17によってNTSC信号に変換し(S1
6)、NTSC信号に対応する表示画面をモニタ18に
表示する(S18)。
Next, the replacing circuit 15 performs a process of superimposing the processing result of the processing unit 5 on the unprocessed original image information (S14), and outputs the output signal of the replacing circuit 15 to the encoder circuit 17 Converted to NTSC signal by (S1
6), the display screen corresponding to the NTSC signal is displayed on the monitor 18 (S18).

【0048】その後、次周期における被写体の画像情報
を得るために、ステップ(S6)にブランチする。なお、
以上の処理は、例えば、16.7msのフレームレートを
周期として順次行われる。
Then, in order to obtain image information of the subject in the next cycle, the process branches to step (S6). In addition,
The above processing is sequentially performed with a frame rate of 16.7 ms as a cycle, for example.

【0049】次に、第二の処理について、図2を参照し
て説明する。この第二の処理は、サンプリングする画素
の位置とエッジ抽出処理を行う処理領域を決定し(S1
9)、決定されたサンプリング位置の画素の色データを
サンプリングし(S21)、近距離領域、遠距離領域それ
ぞれの抽出色条件を決定後、色差変換回路4からの輝度
(Y)及び色差信号(R−Y,B−Y)から、前記エッジ画
素を抽出し(S23、S25)、自車両が走行する走行レ
ーンに対する左右車線を認識し(S28)、自車両が危険
状態にあるか否かを判定し(S30)、警報装置21の駆
動(警報)処理(S32)から車両運動制御装置22の駆動
(回避)処理(S34)までの一連の処理からなる。
Next, the second processing will be described with reference to FIG. In this second processing, the positions of the pixels to be sampled and the processing area for the edge extraction processing are determined (S1
9), the color data of the pixel at the determined sampling position is sampled (S21), the extraction color conditions for the short distance area and the long distance area are determined, and then the luminance from the color difference conversion circuit 4 is determined.
(Y) and the color difference signals (RY, BY), the edge pixels are extracted (S23, S25), the left and right lanes of the traveling lane in which the vehicle is traveling are recognized (S28), and the vehicle becomes dangerous. It is determined whether or not the vehicle is in the state (S30), and the driving (alarm) process of the alarm device 21 (S32) to the driving of the vehicle motion control device 22
(Avoidance) process (S34) consists of a series of processes.

【0050】まず、サンプリング位置及びエッジ抽出処
理領域決定処理(S19)のフローを図4に示す。この図
4の処理(S19)では、前の周期で処理して得られた認
識車線の座標データを参照し、近距離領域抽出条件決定
部29により、近距離領域エッジ抽出処理領域設定(S
1902)及び近距離領域サンプリング位置設定(S19
04)の各処理を行ない、遠距離領域抽出条件決定部3
0により、遠距離領域エッジ抽出処理領域設定(S19
06)及び遠近距離領域サンプリング位置設定(S190
8)を行う。
First, the flow of the sampling position and edge extraction processing area determination processing (S19) is shown in FIG. In the processing (S19) of FIG. 4, the coordinate data of the recognized lane obtained by processing in the previous cycle is referred to, and the short-distance area extraction condition determining unit 29 sets the short-distance area edge extraction processing area setting (S19).
1902) and short range area sampling position setting (S19)
04), and the long-distance area extraction condition determining unit 3 is executed.
0 sets the long-distance area edge extraction processing area (S19
06) and the setting of the near and far area sampling position (S190
Perform 8).

【0051】次に、近距離領域抽出条件決定部29によ
る近距離領域エッジ抽出処理領域設定(S1902)処理
と、遠距離領域抽出条件決定部30による遠距離領域エ
ッジ抽出処理領域設定(S1906)の処理について、図
5により説明する。この図5は、前の周期で処理して得
られた車線認識の結果の一例をもとに、エッジ抽出処理
領域を設定した場面を示したものであり、まず、ここ
で、近距離領域エッジ抽出処理領域の左端と右端と下端
位置は固定とし、灰色の実線で図示したように予め設定
しておく。
Next, the short distance area edge extraction processing area setting (S1902) processing by the short distance area extraction condition determining unit 29 and the long distance area edge extraction processing area setting (S1906) by the long distance area extraction condition determining unit 30 are performed. The processing will be described with reference to FIG. FIG. 5 shows a scene in which the edge extraction processing area is set based on an example of the result of the lane recognition obtained by processing in the previous cycle. The left end, the right end, and the lower end position of the extraction processing area are fixed, and are preset as shown by the solid gray line.

【0052】次に、遠距離領域エッジ抽出処理領域の上
端と、近距離領域エッジ抽出処理領域と遠距離領域エッ
ジ抽出処理領域の境界位置は、前の周期で処理して得ら
れた車線認識の結果をもとにして設定するようにする。
Next, the upper end of the long-distance area edge extraction processing area and the boundary position of the short-distance area edge extraction processing area and the long-distance area edge extraction processing area are the lane recognition values obtained by processing in the previous cycle. Set based on the result.

【0053】このときの設定方法は、例えば遠距離領域
エッジ抽出処理領域の上端位置については、認識された
左右車線に挟まれた自車走行レーンの幅が、図示のよう
に、予め設定してある固定値Lwになる位置に設定すれ
ばよく、近距離領域エッジ抽出処理領域と遠距離領域エ
ッジ抽出処理領域の境界位置については、遠距離領域エ
ッジ抽出処理領域の上端位置と近距離領域エッジ抽出処
理領域の下端位置を、図示のように、例えば1対2に分
ける位置に設定すればよい。
In the setting method at this time, for example, at the upper end position of the long-distance area edge extraction processing area, the width of the vehicle traveling lane sandwiched between the recognized left and right lanes is preset as shown in the figure. It may be set to a position having a certain fixed value Lw. Regarding the boundary position between the short-distance area edge extraction processing area and the long-distance area edge extraction processing area, the upper end position of the long-distance area edge extraction processing area and the short-distance area edge extraction The lower end position of the processing area may be set to a position divided into, for example, 1 to 2, as illustrated.

【0054】次に、近距離領域抽出条件決定部29によ
る近距離領域サンプリング位置設定(S1904)処理
と、遠距離領域抽出条件決定部30による遠近距離領域
サンプリング位置設定(S1908)処理について、図6
を用いて説明する。この図6は、図5で説明したように
してエッジ抽出処理領域が設定された画面に対して、サ
ンプリング位置を5個所設定した場合の例で、サンプリ
ング位置の中で、画面下部のサンプリング位置3、4は
固定とし、予め設定しておく。一方、サンプリング位置
0、1、2は、前の周期で処理して得られた車線認識の
結果をもとにして設定するようになっている。
Next, the short-distance region sampling position setting process (S1904) by the short-distance region extraction condition determining unit 29 and the long-distance region sampling position setting (S1908) process by the long-distance region extraction condition determining unit 30 will be described with reference to FIG.
Will be explained. FIG. 6 is an example in which five sampling positions are set for the screen in which the edge extraction processing area is set as described in FIG. 5, and among the sampling positions, the sampling position 3 at the bottom of the screen is set. 4 is fixed and set in advance. On the other hand, the sampling positions 0, 1, and 2 are set based on the result of the lane recognition obtained by processing in the previous cycle.

【0055】そして、これらの位置0、1、2の設定方
法としては、例えばサンプリング画素位置0について
は、図示のように、遠距離領域エッジ抽出処理領域の上
端位置と、近距離領域エッジ抽出処理領域と遠距離領域
エッジ抽出処理領域の境界位置とを1対2に分割する位
置で、かつ、認識された左右車線に挟まれた自車走行レ
ーンの中心となる位置に設定すればよい。また、サンプ
リング位置1、2については、これも図示のように、例
えば近距離領域エッジ抽出処理領域と遠距離領域エッジ
抽出処理領域との境界位置上で、かつ、認識された左右
車線に挟まれた自車走行レーンを3等分する位置に設定
すればよい。
As a method of setting these positions 0, 1 and 2, for example, for the sampling pixel position 0, as shown in the figure, the upper end position of the long distance area edge extraction processing area and the short distance area edge extraction processing are shown. It may be set at a position where the region and the boundary position of the long-distance region edge extraction processing region are divided into 1: 2, and at a position which is the center of the own vehicle traveling lane sandwiched between the recognized left and right lanes. Further, as shown in the figure, the sampling positions 1 and 2 are, for example, on the boundary position between the short distance area edge extraction processing area and the long distance area edge extraction processing area, and sandwiched between the recognized left and right lanes. It is sufficient to set the vehicle traveling lane at a position that divides it into three equal parts.

【0056】次に、色データサンプリング処理(S21)
について説明する。この色データサンプリング処理(S
21)では、撮像画像の全画素の色データが逐次転送さ
れている撮像画像信号から、サンプリング位置及びエッ
ジ抽出処理領域設定処理(S19)で設定された5点のサ
ンプリング位置の画素を選び、その色データ(Y,B−
Y,R−Y)をサンプリングするのであるが、このと
き、サンプリング位置1、2、3、4の画素について
は、近距離領域色サンプリング回路29によりサンプリ
ングし、サンプリング画素位置0の画素については、遠
距離領域色サンプリング回路30によりサンプリングす
る。
Next, color data sampling processing (S21)
Will be described. This color data sampling process (S
In 21), the pixels at the five sampling positions set in the sampling position and edge extraction processing region setting processing (S19) are selected from the captured image signal to which the color data of all the pixels of the captured image are sequentially transferred, and Color data (Y, B-
Y, RY) are sampled. At this time, the pixels at the sampling positions 1, 2, 3, and 4 are sampled by the short-range area color sampling circuit 29, and the pixels at the sampling pixel position 0 are sampled. The long-distance area color sampling circuit 30 performs sampling.

【0057】次に、近距離領域、遠距離領域それぞれの
抽出色条件決定及びエッジ抽出処理(S23、S25)で
は、撮影して得た画像情報からエッジ画素を抽出し、そ
のエッジ座標データを車線認識部12に転送する処理を
行う。図7(1)は撮影した原画像を示し、図7(2)は、そ
の原画像からエッジ画素を抽出した状態を示している。
ここで、近距離領域抽出色条件決定及びエッジ抽出処理
(S23)と遠距離領域抽出色条件決定及びエッジ抽出処
理(S25)について、詳しく説明する。
Next, in the extraction color condition determination and edge extraction processing (S23, S25) for the short-distance area and the long-distance area respectively, edge pixels are extracted from the image information obtained by photographing, and the edge coordinate data is extracted as lane lines. The process of transferring to the recognition unit 12 is performed. FIG. 7 (1) shows a captured original image, and FIG. 7 (2) shows a state in which edge pixels are extracted from the original image.
Here, the short range area extraction color condition determination and edge extraction processing
(S23) and the long-distance area extraction color condition determination and edge extraction processing (S25) will be described in detail.

【0058】まず図8は、近距離領域抽出色条件決定及
びエッジ抽出処理(S23)の処理内容を示したフローチ
ャートである。図8において、近距離領域抽出色条件決
定処理(S2302)では、色データサンプリング処理
(S21)でサンプリングして得られた色データから、近
距離領域抽出条件決定部29が近距離領域抽出色条件を
決定する。なお、この近距離領域抽出色条件決定処理
(S2302)については、後に詳細に説明する。
First, FIG. 8 is a flowchart showing the processing contents of the short-distance area extraction color condition determination and edge extraction processing (S23). In FIG. 8, in the short distance area extraction color condition determination processing (S2302), color data sampling processing is performed.
The short-distance region extraction condition determining unit 29 determines the short-distance region extraction color condition from the color data obtained by sampling in (S21). Note that this short-distance area extraction color condition determination processing
(S2302) will be described in detail later.

【0059】次に、近距離領域エッジ抽出処理(S23
04)では、近距離領域抽出条件決定部29で設定され
た近距離領域エッジ抽出処理領域内に存在するエッジ画
素を、近距離領域エッジ抽出処理回路26が抽出するの
である。
Next, a short-distance area edge extraction process (S23
In 04), the short distance area edge extraction processing circuit 26 extracts the edge pixels existing in the short distance area edge extraction processing area set by the short distance area extraction condition determining unit 29.

【0060】図9は、この近距離領域エッジ抽出処理
(S2304)の処理内容をフローチャートで示したもの
で、ここでまず近距離領域画素判別処理(S23040
2)は、近距離領域抽出条件決定部29で設定された近
距離領域抽出色条件と、近距離領域エッジ抽出処理領域
内の全ての画素の色データとの比較を行い、近距離領域
抽出色条件を満たす画素を抽出する処理で、ここでは、
例えば、図10(0)に示す原画像の近距離領域エッジ抽
出処理領域内の画像信号を、図10(a1)に示すように、
近距離領域抽出色条件を満たす画素と満たさない画素に
二値化処理する。
FIG. 9 shows this short distance area edge extraction processing.
The processing content of (S2304) is shown in a flowchart. Here, first, the short-distance area pixel determination processing (S23040
2) compares the short-distance area extraction color condition set by the short-distance area extraction condition determination unit 29 with the color data of all the pixels in the short-distance area edge extraction processing area to obtain the short-distance area extraction color. This is the process of extracting the pixels that satisfy the conditions.
For example, as shown in FIG. 10 (a1), the image signal in the short distance area edge extraction processing area of the original image shown in FIG.
Binarization processing is performed on pixels that satisfy the short-distance region extraction color condition and pixels that do not.

【0061】次に、近距離領域エッジ点判別処理(S2
30404)はノイズを除去するための処理で、例え
ば、3画素×3画素の空間フィルタリングを用いた平滑
処理を行い、これら9個の画素のうち、半数以上の画素
が抽出色条件を満たす画素の集まりであれば、これら9
個の画素については、抽出色条件を満たしている画素で
あるとする。そして、図10(a1)に示すような二値化さ
れた画像情報をフィルタリング処理した後、エッジ点を
判別する。
Next, the short distance area edge point discrimination processing (S2
30404) is a process for removing noise. For example, a smoothing process using spatial filtering of 3 pixels × 3 pixels is performed. Of these 9 pixels, more than half of the pixels satisfy the extraction color condition. If it ’s a gathering, these 9
It is assumed that the individual pixels are pixels that satisfy the extraction color condition. Then, after filtering the binarized image information as shown in FIG. 10 (a1), the edge point is determined.

【0062】すなわち、この図10(a1)に示す二値化さ
れた画像情報をフィルタリング処理し、その後、1水平
ライン毎に調べていったとき、近距離領域抽出色条件デ
ータを満足しない画素から近距離領域抽出色条件データ
を満足する画素へと変化した場合、該抽出色条件データ
を満足する画素を立ち上がりエッジ画素とし、その座標
データを立ち上がりエッジ画素のエッジ座標データとす
るのである。
That is, when the binarized image information shown in FIG. 10 (a1) is subjected to the filtering process and then examined for each horizontal line, from the pixels which do not satisfy the near-distance area extraction color condition data. When a pixel that satisfies the short-distance region extraction color condition data is changed, a pixel that satisfies the extraction color condition data is set as a rising edge pixel, and its coordinate data is set as edge coordinate data of the rising edge pixel.

【0063】同様に、1水平ライン毎に調べていったと
き、近距離領域抽出色条件データを満足する画素から近
距離領域抽出色条件データを満足しない画素へと変化し
た場合、該抽出色条件データを満足する画素を立ち下が
りエッジ画素とし、その座標データを、立ち下がりエッ
ジ画素のエッジ座標データとする。この様子を、図10
(a2)に示す。
Similarly, when each horizontal line is checked, if the pixel that satisfies the short-distance region extraction color condition data changes from the pixel that does not satisfy the short-distance region extraction color condition data, the extraction color condition A pixel that satisfies the data is defined as a falling edge pixel, and its coordinate data is defined as edge coordinate data of the falling edge pixel. This state is shown in FIG.
It is shown in (a2).

【0064】そして、このようにして、図10(a2)に示
すエッジ座標データが得られたら、それを、図10(1)
に示すように、車線認識部12に転送する。なお、図1
0(a2)は、路面と車線だけからなる画像情報の場合であ
るが、路面上に他の車両等が存在する場合には、車線を
構成しないエッジ画素が抽出されてしまうのは言うまで
もない。
Then, when the edge coordinate data shown in FIG. 10 (a2) is obtained in this manner, the edge coordinate data shown in FIG. 10 (1) is obtained.
As shown in FIG. Note that FIG.
0 (a2) is the case of image information consisting of only the road surface and the lane, but it goes without saying that edge pixels that do not form the lane will be extracted when another vehicle or the like exists on the road surface.

【0065】次に、図11は、遠距離領域抽出色条件決
定及びエッジ抽出処理(S25)の処理内容を示したフロ
ーチャートである。この図11において、まず遠距離領
域抽出色条件決定処理(S2502)では、色データサン
プリング処理(S21)でサンプリングして得られた色デ
ータから、遠距離領域抽出条件決定部30が遠距離領域
抽出色条件を決定する。なお、この遠距離領域抽出色条
件決定処理(S2502)については、後に詳細に説明す
る。
Next, FIG. 11 is a flowchart showing the processing contents of the long-distance area extraction color condition determination and edge extraction processing (S25). In FIG. 11, first, in the long-distance area extraction color condition determination processing (S2502), the long-distance area extraction condition determination unit 30 extracts the long-distance area extraction from the color data obtained by sampling in the color data sampling processing (S21). Determine the color conditions. The long-distance area extraction color condition determination processing (S2502) will be described in detail later.

【0066】次に画像ズーム及び遠距離領域エッジ抽出
処理(S2504)では、遠距離領域抽出条件決定部30
で設定された遠距離領域エッジ抽出処理領域内に存在す
るエッジ画素を、遠距離領域エッジ抽出処理回路10が
抽出する。
Next, in the image zoom and long distance area edge extraction processing (S2504), the long distance area extraction condition determining unit 30
The long-distance area edge extraction processing circuit 10 extracts the edge pixels existing in the long-distance area edge extraction processing area set in step 1.

【0067】図12は、画像ズーム及び遠距離領域エッ
ジ抽出処理(S2504)の処理内容をフローチャートで
示したもので、まず画像ズーム処理(S250402)に
ついては後に詳細に説明するが、遠距離領域抽出条件決
定部30で設定された遠距離領域エッジ抽出処理領域内
の画像情報を、ズーム条件決定部9で設定されたズーム
条件に従って、画像ズーム回路8が水平方向にのみ拡大
処理し、路面や白線等の画像を拡大する処理で、例え
ば、図10(0)に示す原画像の、遠距離領域エッジ抽出
処理領域内の画像信号を、図10(b1)のように、拡大す
る処理を行う。
FIG. 12 is a flowchart showing the processing contents of the image zoom and long distance area edge extraction processing (S2504). First, the image zoom processing (S250402) will be described in detail later. The image zoom circuit 8 enlarges the image information in the long-distance area edge extraction processing area set by the condition determining unit 30 only in the horizontal direction according to the zoom condition set by the zoom condition determining unit 9 to obtain a road surface or a white line. In the process of enlarging the image such as, for example, the process of enlarging the image signal in the long-distance region edge extraction processing region of the original image shown in FIG. 10 (0) is performed as shown in FIG. 10 (b1).

【0068】次に遠距離領域エッジ抽出処理(S250
404)では、遠距離領域抽出条件決定部30で設定し
た遠距離領域エッジ抽出処理領域内に存在するエッジ画
素を、遠距離領域エッジ抽出処理回路10が抽出する。
ここで、図13に、遠距離領域エッジ抽出処理(S25
0404)の処理内容をフローチャートで示す。
Next, a long-distance area edge extraction process (S250
In 404), the long-distance area edge extraction processing circuit 10 extracts edge pixels existing in the long-distance area edge extraction processing area set by the long-distance area extraction condition determining unit 30.
Here, in FIG. 13, a long-distance area edge extraction process (S25
The processing contents of 0404) are shown in a flowchart.

【0069】まず遠距離領域画素判別処理(S2504
0402)は、遠距離領域抽出条件決定部30で設定さ
れた遠距離領域抽出色条件と、拡大処理された画像の遠
距離領域エッジ抽出処理領域内にある全ての画素の色デ
ータとの比較を行い、遠距離領域抽出色条件を満たす画
素を抽出する処理で、例えば、図10(b1)に示す拡大さ
れた画像の遠距離領域エッジ抽出処理領域内にある画像
信号を、図10(b2)に示すように、遠距離領域抽出色条
件を満たす画素と満たさない画素に二値化処理する。
First, the long-distance area pixel discrimination processing (S2504
0402) compares the long-distance area extraction color condition set by the long-distance area extraction condition determination unit 30 with the color data of all pixels in the long-distance area edge extraction processing area of the enlarged image. In the process of extracting the pixels that satisfy the long-distance region extraction color condition, for example, the image signal in the long-distance region edge extraction processing region of the enlarged image shown in FIG. As shown in, the binarization processing is performed on pixels that satisfy the long-distance region extraction color condition and pixels that do not.

【0070】次に遠距離領域エッジ点判別処理(S25
040404)では、ノイズを除去するため、例えば3
画素×3画素の空間フィルタリングを用いた平滑処理を
行い、これら9個の画素のうち、半数以上の画素が抽出
色条件を満たす画素の集まりであれば、これら9個の画
素については、抽出色条件を満たす画素とする。
Next, the long-distance area edge point discrimination processing (S25
040404), in order to remove noise, for example, 3
Smoothing processing using spatial filtering of pixels × 3 pixels is performed, and if more than half of these 9 pixels are a group of pixels that satisfy the extraction color condition, the extraction color is extracted for these 9 pixels. The pixels satisfying the conditions.

【0071】そして、図10(b2)に示すような二値化さ
れた画像情報をフィルタリング処理した後、エッジ点を
判別する。すなわち、図10(b2)の二値化された画像情
報をフィルタリング処理してから1水平ライン毎に調べ
ていったとき、遠距離領域抽出色条件データを満足しな
い画素から、遠距離領域抽出色条件データを満足する画
素へと変化した場合、該抽出色条件データを満足する画
素を、立ち上がりエッジ画素とし、その座標データを、
立ち上がりエッジ画素のエッジ座標データとする。
Then, after filtering the binarized image information as shown in FIG. 10 (b2), the edge point is discriminated. That is, when the binarized image information of FIG. 10 (b2) is filtered and then examined for each horizontal line, from the pixels that do not satisfy the far-distance region extraction color condition data, the long-distance region extraction color When changing to a pixel that satisfies the condition data, a pixel that satisfies the extracted color condition data is set as a rising edge pixel, and its coordinate data is
It is the edge coordinate data of the rising edge pixel.

【0072】同様に、1水平ライン毎に調べていったと
き、遠距離領域抽出色条件データを満足する画素から、
遠距離領域抽出色条件データを満足しない画素へと変化
した場合、該抽出色条件データを満足する画素を、立ち
下がりエッジ画素とし、その座標データを、立ち下がり
エッジ画素のエッジ座標データとする。この様子を、図
10(b3)に示す。
Similarly, when checking for each horizontal line, from the pixel satisfying the long-distance region extraction color condition data,
When a pixel that does not satisfy the long-distance region extraction color condition data is changed, a pixel that satisfies the extraction color condition data is set as a falling edge pixel, and its coordinate data is set as edge coordinate data of the falling edge pixel. This state is shown in FIG. 10 (b3).

【0073】そして、これらエッジ座標データをエッジ
座標変換部11に転送する。なお、図10(b3)に示す例
では、路面と車線からなる画像情報であるが、路面上に
他の車両等が存在する場合には、車線を構成しないエッ
ジ画素が抽出されてしまう。
Then, the edge coordinate data is transferred to the edge coordinate conversion section 11. In the example shown in FIG. 10 (b3), the image information includes the road surface and the lane. However, when another vehicle or the like exists on the road surface, edge pixels that do not form the lane are extracted.

【0074】次に、エッジ座標変換処理(S25040
6)では、ズーム条件決定部9から転送されたズーム中
心座標の拡大率を参照して、エッジ座標データを、図1
0(1)に示すように拡大前の座標データに変換し、車線
認識部12に転送する。ここで、このエッジ座標の変換
方法について、図14を用いて説明する。
Next, an edge coordinate conversion process (S25040
In 6), the edge coordinate data is referred to in FIG. 1 by referring to the enlargement ratio of the zoom center coordinate transferred from the zoom condition determining unit 9.
As indicated by 0 (1), the coordinate data is converted to the unenlarged coordinate data and transferred to the lane recognition unit 12. Here, a method of converting the edge coordinates will be described with reference to FIG.

【0075】図14(a)、(b)は、それぞれ拡大処理前後
の画像情報を示したもので、画面上端からy番目の水平
ラインのズーム中心座標がC、拡大率がRの場合、図1
4(b)のエッジ座標データP’は、次式により拡大前の
エッジ座標データPに変換できる。ここで、Wは、画像
情報を構成する画素の集合の、水平方向の幅である。 P=(P’−W/2)/R+C 次に、車線認識処理(S28)では、転送されたエッジ座
標データから複数の近似直線を求め、図7(3)に示すよ
うに、自車の走行する走行レーンに対する車線を推定す
る。このため、車線認識部12は、エッジ座標変換部1
1及び近距離領域エッジ抽出処理回路26から送られた
エッジ座標データに対して、左車線に対するものと考え
られるエッジ画素と右車線に対するものと考えられるエ
ッジ画素、そして、これら以外のエッジ画素の何れであ
るかの判断を行ない、分別する処理を行う。
FIGS. 14 (a) and 14 (b) respectively show image information before and after the enlargement process. When the zoom center coordinate of the y-th horizontal line from the upper end of the screen is C and the enlargement ratio is R, FIG. 1
The edge coordinate data P ′ of 4 (b) can be converted into the edge coordinate data P before expansion by the following equation. Here, W is the width in the horizontal direction of the set of pixels forming the image information. P = (P'-W / 2) / R + C Next, in the lane recognition process (S28), a plurality of approximate straight lines are obtained from the transferred edge coordinate data, and as shown in FIG. Estimate the lane for the traveling lane. Therefore, the lane recognition unit 12 uses the edge coordinate conversion unit 1
1 and the edge coordinate data sent from the short-distance area edge extraction processing circuit 26, any of the edge pixels considered to be for the left lane, the edge pixels considered for the right lane, and any other edge pixel. It is determined whether or not it is, and the process of classification is performed.

【0076】上記したように、エッジ座標データは、各
エッジ画素の座標情報と、立ち上がり、又は立ち下がり
の情報とで構成されている。路面色を抽出色条件データ
とすると、多くの場合、立ち上がりエッジ画素が左車線
を示し、立ち下がりエッジ画素が右車線を示す。
As described above, the edge coordinate data is composed of the coordinate information of each edge pixel and the rising or falling information. When the road surface color is used as the extraction color condition data, in many cases, the rising edge pixel indicates the left lane and the falling edge pixel indicates the right lane.

【0077】しかしながら、前方車、障害物等が存在す
る場合、車線以外のエッジ画素も、車線のエッジ画素と
して認識してしまう虞れが生じてしまう。そこで、図7
(3)の画面中心線より左側に存在する立ち上がりエッジ
画素を左車線のエッジ画素と、そして右側に存在する立
ち下がりエッジ画素を右車線エッジ画素と仮定し、それ
以外のエッジ画素を、前方車等のエッジ画素として判別
すればよい。
However, when there is a vehicle ahead, an obstacle, etc., edge pixels other than the lane may be recognized as edge pixels of the lane. Therefore, FIG.
It is assumed that the rising edge pixels existing on the left side of the screen center line in (3) are the edge pixels of the left lane, and the falling edge pixels existing on the right side are the right lane edge pixels, and the other edge pixels are the forward lane pixels. It may be determined as an edge pixel such as.

【0078】次に、左、右車線に対するエッジ画素のエ
ッジ座標データをもとに、例えば最小2乗法等によって
近似直線を求め、これを認識車線とする。このとき、
左、右車線に対するエッジ画素以外のエッジ座標データ
は、上記したように、前方車両を示す画素と判断し、そ
のエッジ座標データで、自車両の位置に最も近いもの
を、前方車両の存在位置とする。
Next, based on the edge coordinate data of the edge pixels for the left and right lanes, an approximate straight line is obtained by, for example, the method of least squares, and this is set as the recognition lane. At this time,
As described above, the edge coordinate data other than the edge pixels for the left and right lanes is determined to be a pixel indicating the front vehicle, and the edge coordinate data that is closest to the position of the own vehicle is the presence position of the front vehicle. To do.

【0079】図2戻り、次に危険判定処理(S30)で
は、例えば、車速度センサなどの車両状態センサ20か
らの信号より、自車両の走行状態(車速等)を判断し、そ
の判断結果と、車線によって定められる走行可能な路面
と、前方車両の存在位置の関係から、自車両が危険状態
にあるか否かを推定する。例えば、車速度センサが検出
した自車両の速度が所定値以上で、かつ、前方車両の存
在位置が所定範囲内にあるとき、これを危険状態と判断
するのである。
Returning to FIG. 2, next, in the risk determination processing (S30), the running state (vehicle speed, etc.) of the host vehicle is determined from the signal from the vehicle state sensor 20 such as the vehicle speed sensor, and the determination result is obtained. , It is estimated whether or not the host vehicle is in a dangerous state from the relationship between the travelable road surface defined by the lane and the existing position of the vehicle ahead. For example, when the speed of the host vehicle detected by the vehicle speed sensor is equal to or higher than a predetermined value and the position of the preceding vehicle is within a predetermined range, this is determined to be a dangerous state.

【0080】そして警報処理(S32)では、危険度判断
部13で危険状態と判断した場合、警報装置21を駆動
して、自車の運転者に伝える。また、回避処理(S34)
では、危険度判断部13で危険状態と判断した場合、ブ
レーキ装置ななどの車両運動制御装置22を駆動する。
なお、危険状態の警告に対しても運転者の操作が不十分
であったと判断した場合に、車両運動制御装置22を駆
動するような構成にしても良い。
In the alarm process (S32), when the risk determining unit 13 determines that the state is dangerous, the alarm device 21 is driven to notify the driver of the own vehicle. Also, the avoidance process (S34)
Then, when the risk determination unit 13 determines that the vehicle is in a dangerous state, the vehicle motion control device 22 such as a brake device is driven.
It should be noted that the vehicle motion control device 22 may be driven when it is determined that the driver's operation is insufficient for the warning of the dangerous state.

【0081】従って、これらの一連の処理が繰り返えさ
れることにより、監視装置としての動作が得られること
になり、この結果、この実施例によれば、車両の安全走
行を得ることができることになる。
Therefore, by repeating these series of processes, the operation as the monitoring device can be obtained, and as a result, according to this embodiment, the safe running of the vehicle can be obtained. Become.

【0082】次に、先に簡単に説明した、画像ズーム処
理(S250402)について、詳細に説明する。図15
は、この画像ズーム処理(S250402)の処理内容を
示すフローチャートで、以下、このフローチャートによ
り説明する。
Next, the image zoom processing (S250402), which was briefly described above, will be described in detail. Figure 15
Is a flowchart showing the processing contents of this image zoom processing (S250402), and will be described below with reference to this flowchart.

【0083】まず、ズーム条件決定部9により、遠距離
領域抽出条件決定部30で設定された遠距離領域エッジ
抽出処理領域に対して、前の周期で処理して得られた認
識車線の座標データ等を参照し、各水平ライン毎にズー
ム中心座標及び拡大率を決定する(S2504020
2)。
First, the zoom condition determining unit 9 processes the long-distance region edge extraction processing region set by the long-distance region extracting condition determining unit 30 in the previous cycle to obtain the coordinate data of the recognized lane. Etc., the zoom center coordinates and the enlargement ratio are determined for each horizontal line (S2504020).
2).

【0084】ここで、ズーム中心座標は、画像情報を拡
大する際に、拡大処理を行う基準点の位置を示すパラメ
ータであり、拡大率は、画像情報を拡大する倍率を示す
パラメータである。そして、このズーム中心座標は、例
えば認識された左右車線に挟まれた自車走行レーンの中
心位置とし、拡大率については、拡大後の車線が画面か
らはみ出さない(例えば、画面幅の8割程度になる)よう
に決定すれば良い。
Here, the zoom center coordinate is a parameter indicating the position of a reference point for performing the enlargement process when enlarging the image information, and the enlargement ratio is a parameter indicating the magnification for enlarging the image information. The zoom center coordinate is, for example, the center position of the vehicle driving lane sandwiched between the recognized left and right lanes, and the enlargement lane does not extend beyond the screen (for example, 80% of the screen width). It should be decided).

【0085】このような決定は、ズーム条件決定部9
が、車線認識部12から送られた認識車線の座標データ
等を参照して、認識車線に挟まれた自車走行レーンの中
心位置や走行レーン幅を把握することによって行うので
あるが、ズーム中心座標及び拡大率を順次更新する必要
がない場合には、水平ライン毎に予め定めておき、ズー
ム条件決定部9に格納しておいても良い。
The zoom condition determining unit 9 makes such a determination.
Is performed by referring to the coordinate data of the recognized lane sent from the lane recognition unit 12 and the like to grasp the center position and the traveling lane width of the own driving lane sandwiched between the recognized lanes. When it is not necessary to sequentially update the coordinates and the enlargement ratio, the coordinates and the enlargement ratio may be determined in advance for each horizontal line and stored in the zoom condition determining unit 9.

【0086】次に、実際のシーン(風景画像)を想定して
説明する。図16(a)は、直線路の画像から前の周期で
処理して得られた車線認識結果の一例を示したもので、
画面幅をWとし、画面上端からy番目の水平ラインにお
いて、左車線座標をxl、右車線座標をxrとすると、ズ
ーム中心座標C及び拡大率Rは、次式で表される。 ズーム中心座標:C=(xr+xl)/2 拡大率:R=α×W/(xr−xl) ただし、(xr−xl)/W<α<1 ここで、αは、拡大処理後の車線が画面からはみ出さな
いようにするための係数である。
Next, description will be made assuming an actual scene (landscape image). FIG. 16 (a) shows an example of a lane recognition result obtained by processing the image of a straight road in the previous cycle.
When the screen width is W, the left lane coordinate is xl, and the right lane coordinate is xr on the y-th horizontal line from the upper end of the screen, the zoom center coordinate C and the enlargement ratio R are expressed by the following equations. Zoom center coordinates: C = (xr + xl) / 2 Enlargement ratio: R = α × W / (xr−xl) where (xr−xl) / W <α <1 where α is the lane after the enlargement process. It is a coefficient to prevent the image from protruding from the screen.

【0087】しかして、この係数αが下限値((xr−x
l)/W)より小さい場合には、拡大率Rが1未満にな
り、画像が縮小されることになってしまうため、この場
合は、α=(xr−xl)/W、すなわち拡大率R=1と
する。図16は、α=0.8としたときの、拡大処理さ
れた画像情報の例を示したものである。
Therefore, the coefficient α is lower limit value ((xr-x
If it is smaller than l) / W), the enlargement ratio R becomes less than 1 and the image is reduced. In this case, α = (xr−xl) / W, that is, the enlargement ratio R = 1. FIG. 16 shows an example of the enlarged image information when α = 0.8.

【0088】次に、図17は、曲線路のシーンを想定し
た場合であって、道路が左カーブのため、認識された左
車線が画面内に部分的にしか存在しない場合の、車線認
識結果の一例を示す。この場合、画面上端からy番目の
水平ラインにおいて、左車線座標は画面内には存在せ
ず、右車線座標をxrとすると、ズーム中心座標C及び
拡大率Rは、次式で表される。 ズーム中心座標:C=xr/2 拡大率:R=α×W/xr これは、図16の直線路の場合のズーム座標中心Cと拡
大率Rを求める式において、xl=0とした場合に相当
する。
Next, FIG. 17 shows a lane recognition result when a scene of a curved road is assumed, and the recognized left lane partially exists in the screen because the road is a left curve. An example is shown. In this case, in the y-th horizontal line from the upper end of the screen, the left lane coordinate does not exist in the screen, and the right lane coordinate is xr, the zoom center coordinate C and the enlargement ratio R are expressed by the following equations. Zoom center coordinates: C = xr / 2 Magnification ratio: R = α × W / xr This is because when xl = 0 in the formula for obtaining the zoom coordinate center C and the magnification ratio R in the case of the straight road in FIG. Equivalent to.

【0089】また図18は、同じく曲線路のシーンを想
定した場合であるが、道路が右カーブのため、今度は道
路認識された右車線が、画面内に部分的にしか存在しな
い場合の車線認識結果の一例を示したものである。この
場合には、画面上端からy番目の水平画素ラインにおい
て、左車線座標はxlとなるが、右車線座標は画面内に
存在しないので、ズーム中心座標C及び拡大率Rは、次
式で表される。 ズーム中心座標:C=(W+xl)/2 拡大率:R=α×W/(W−xl) これは、図16の直線路の場合のズーム中心座標Cと拡
大率Rを求める式において、xr=Wとした場合に相当
する。
FIG. 18 also shows the case of a curved road scene. However, since the road is a right curve, the lane in which the right lane recognized this time is only partially present in the screen. It is an example of a recognition result. In this case, in the y-th horizontal pixel line from the top of the screen, the left lane coordinate is xl, but the right lane coordinate does not exist in the screen. Therefore, the zoom center coordinate C and the enlargement ratio R are expressed by the following equations. To be done. Zoom center coordinate: C = (W + xl) / 2 Magnification ratio: R = α × W / (W−xl) This is the formula in which xr is the zoom center coordinate C and the magnification ratio R in the case of the straight road in FIG. This corresponds to the case where = W.

【0090】図1に戻り、画像ズーム回路8は、決定し
たズーム中心座標と拡大率に従って画像を拡大する処理
を行うが、ここで、図19を参照して、1水平ラインに
ついての拡大処理について説明する。図19に示すよう
に、8画素のデータ(1水平ラインは、8画素から構成
されると仮定する)を、矢印で示す位置をズーム中心座
標Cとし、拡大率R=2として2倍に拡大処理する場合
について説明する。
Returning to FIG. 1, the image zoom circuit 8 enlarges the image in accordance with the determined zoom center coordinates and enlargement ratio. Here, referring to FIG. 19, the enlargement process for one horizontal line will be described. explain. As shown in FIG. 19, 8-pixel data (assuming that one horizontal line is composed of 8 pixels) is magnified twice by setting the zoom center coordinate C at the position indicated by the arrow and magnifying rate R = 2. The case of processing will be described.

【0091】まず、拡大すべき画素数を求める。このと
きには、拡大処理後の画素の数も8画素でなければなら
ないので、拡大率が2とすれば、拡大すべき画素の数は
4画素となる。次に、拡大する画素データを選ぶ。ここ
では、ズーム中心座標を中心として4画素を選ぶことに
し、選ばれた画素に対する画像情報の大きさを2倍にし
て1水平ラインを構成する8画素に割り当てるのであ
る。このような処理によって、図19(a)に示す1水平
ラインの画像情報は、図18(b)に示すように拡大処理
される。
First, the number of pixels to be enlarged is calculated. At this time, the number of pixels after the enlargement process must also be eight, so if the enlargement ratio is 2, the number of pixels to be enlarged is four. Next, the pixel data to be enlarged is selected. Here, four pixels are selected with the zoom center coordinate as the center, and the size of the image information with respect to the selected pixels is doubled and assigned to eight pixels forming one horizontal line. By such processing, the image information of one horizontal line shown in FIG. 19A is enlarged as shown in FIG. 18B.

【0092】上述した処理を、遠距離領域抽出条件決定
部30で設定された遠距離領域エッジ抽出処理領域内の
全ての水平ラインに対して行うことで、遠距離領域エッ
ジ抽出処理領域内の画像情報を水平方向に拡大すること
ができることになる。
By performing the above-described processing on all horizontal lines in the long-distance area edge extraction processing area set by the long-distance area extraction condition determining unit 30, the image in the long-distance area edge extraction processing area is obtained. The information can be expanded horizontally.

【0093】次に、この画像の拡大処理によるエッジ抽
出処理について、図20、21を参照して、さらに詳細
に説明する。まず、原画像が図20(a)に示すようにな
っていたとすると、図20(b)は、この図20(a)を画像
拡大処理した図になる。このときの拡大率は、図20
(c)に示すようになっており、従って、その最大値は2
となっていることが判る。なお、この図20(c)は、水
平ライン毎に設定された拡大率の変化の状態を示した図
である。また、図21(A)は、図20(a)におげるA部
(右車線の一部)を拡大して示した図となり、図20(B)
は、この図21(A)を画像拡大処理(拡大率:2倍)した
図となる。
Next, the edge extraction processing by the image enlargement processing will be described in more detail with reference to FIGS. First, assuming that the original image is as shown in FIG. 20 (a), FIG. 20 (b) is a diagram obtained by enlarging the image of FIG. 20 (a). The enlargement ratio at this time is shown in FIG.
As shown in (c), the maximum value is 2
It turns out that It should be noted that FIG. 20 (c) is a diagram showing a state in which the enlargement ratio is set for each horizontal line. Further, FIG. 21 (A) is a portion A in FIG. 20 (a).
It is an enlarged view of (a part of the right lane) and is shown in Fig. 20 (B).
Is a diagram obtained by performing image enlargement processing (enlargement ratio: 2 times) on FIG.

【0094】上述した図13の遠距離領域エッジ点判別
処理(S25040404)から明らかなように、この実
施例では、ノイズ除去のため3画素×3画素の9画素に
よる空間フィルタリングを施している。すなわち、これ
ら9画素のうち、半数以上が抽出色条件を満たせば、こ
の9画素は抽出色条件を満たしているものと判断してい
る。
As is clear from the long-distance area edge point discrimination processing (S25040404) in FIG. 13 described above, in this embodiment, spatial filtering is performed by 9 pixels of 3 pixels × 3 pixels for noise removal. That is, if more than half of these 9 pixels satisfy the extraction color condition, it is determined that these 9 pixels satisfy the extraction color condition.

【0095】そこで、いま、図21(A)、(B)に太線で示
してあるように、3画素×3画素の集合として区切られ
ているものとすると、まず図21(A)の場合には、白線
色を有する3画素×3画素の集合は1個になり、この結
果、エッジ点判別処理では、図21(A')に示すように画
素が構成されているものとみなされてしまう。一方、図
21(B)の場合には、白線色を有する3画素×3画素の
集合は4個となり、この場合は、エッジ点判別処理にお
いて図21(B')に示すように画素が構成されているもの
とみなされる。
Therefore, as shown by the thick lines in FIGS. 21A and 21B, if it is divided into a set of 3 pixels × 3 pixels, first, in the case of FIG. , There is only one set of 3 pixels × 3 pixels having a white line color, and as a result, in the edge point determination processing, it is considered that the pixels are configured as shown in FIG. . On the other hand, in the case of FIG. 21B, the set of 3 pixels × 3 pixels having a white line color is 4, and in this case, the pixels are configured as shown in FIG. 21B ′ in the edge point determination processing. Is considered to have been done.

【0096】これから明らかなように、拡大処理された
画像においては、領域A部(図20参照)における白線の
割合が2/3となって、拡大処理していない場合の1/
3に比して白線の割合が大きくなり、この結果、拡大処
理していない場合には認識できない白線も、拡大処理し
て画像情報に占める白線の割合を大きくすることによ
り、白線の認識を確実に得ることができる。
As is apparent from the above, in the enlarged image, the ratio of the white line in the area A portion (see FIG. 20) becomes 2/3, which is 1/100 of that in the case where the enlargement processing is not performed.
The ratio of the white line becomes larger than that of No. 3, and as a result, the white line that cannot be recognized without the enlargement processing can be surely recognized by increasing the ratio of the white line in the image information by performing the enlargement processing. Can be obtained.

【0097】従って、この実施例によれば、拡大処理が
されることにより、自車両が走行する走行レーンに対す
る車線をより遠方まで確実に認識することができ、さら
に安全な走行が可能になる。
Therefore, according to this embodiment, by performing the enlargement process, the lane with respect to the traveling lane in which the host vehicle travels can be surely recognized to a farther distance, and safer traveling becomes possible.

【0098】次に、本発明の他の実施例について説明す
る。上記の実施例では、画像拡大処理の一例として、拡
大率を各水平ライン毎に計算して求める方法について述
べた。しかしながら、画像拡大処理において、図22に
示すように、拡大処理を施す水平ラインに対して全て同
じ拡大率で拡大しても良い。
Next, another embodiment of the present invention will be described. In the above embodiment, as an example of the image enlargement processing, the method of calculating and obtaining the enlargement ratio for each horizontal line has been described. However, in the image enlargement processing, as shown in FIG. 22, all the horizontal lines to which the enlargement processing is performed may be enlarged at the same enlargement ratio.

【0099】この場合の拡大率としては、例えば遠距離
領域エッジ抽出処理領域下端において計算された拡大率
を用いることができ、従って、この方法によれば、各水
平ライン毎に拡大率を計算する方法に比べ、計算量を大
幅に減らすことができる。
As the enlargement ratio in this case, for example, the enlargement ratio calculated at the lower end of the long-distance region edge extraction processing region can be used. Therefore, according to this method, the enlargement ratio is calculated for each horizontal line. Compared with the method, the amount of calculation can be significantly reduced.

【0100】次に、上記した、本発明における主要な処
理である近距離領域抽出色条件決定処理(S2302)と
<遠距離領域抽出色条件決定処理(S2502)につい
て、さらに詳細に説明する。この近距離領域抽出色条件
決定処理は、図1に示す近距離領域抽出条件決定部29
により実行されるもので、図23のフローチャートに示
すように、近距離領域色差(R−Y,B−Y)条件決定処
理(S230202)と、近距離領域輝度(Y)条件決定処
理(S230204)で構成されている。
Next, the short-distance area extraction color condition determination processing (S2302), which is the main processing in the present invention described above, is executed.
<Long-distance area extraction color condition determination processing (S2502) will be described in more detail. This short-distance area extraction color condition determination processing is performed by the short-distance area extraction condition determination unit 29 shown in FIG.
23. As shown in the flowchart of FIG. 23, the short-distance area color difference (RY, BY) condition determination processing (S230202) and the short-distance area luminance (Y) condition determination processing (S230204). It is composed of.

【0101】まず、近距離領域色差条件決定処理(S2
30202)では、図24に示すサンプリング点3と4
の色差データ(R−Y,B−Y)が、路面色の色差データ
であるか否かの検証を行い、サンプリング点3と4の色
差データが路面色の色差データではない可能性があると
判断した場合は、サンプリング点3と4の色差データを
変更するのである。
First, the near-distance area color difference condition determination processing (S2
30202), sampling points 3 and 4 shown in FIG.
It is verified whether the color difference data (RY, BY) of No. 3 is the road surface color difference data, and that the color difference data at sampling points 3 and 4 may not be the road surface color difference data. If it is determined, the color difference data at the sampling points 3 and 4 are changed.

【0102】このため、例えば、まずサンプリング点3
と4の色差データ(R−Y,B−Y)の差の絶対値を求
め、その絶対値が予め設定した値よりも大きい場合は、
図24に示すように、サンプリング点3と4の位置のど
ちらかに黄色線が存在している等の何らかの理由で、サ
ンプリング点3と4のサンプリング色差データが路面の
色差データを正確に示していない可能性があると判断
し、サンプリング点3と4のサンプリング色差データ
を、前回の周期の処理のサンプリングで得られていたサ
ンプリング点3と4の色差データに変更する。
Therefore, for example, first, sampling point 3
If the absolute value of the difference between the color difference data (RY, BY) of 4 and 4 is obtained and the absolute value is larger than the preset value,
As shown in FIG. 24, the sampling color difference data at the sampling points 3 and 4 accurately indicate the color difference data on the road surface for some reason such as the presence of a yellow line at either of the sampling points 3 and 4. It is determined that there is a possibility that there is no such difference, and the sampling color difference data at the sampling points 3 and 4 is changed to the color difference data at the sampling points 3 and 4 obtained by the sampling in the processing of the previous cycle.

【0103】他方、サンプリング点3と4の色差データ
(R−Y,B−Y)の差の絶対値が予め設定した値よりも
小さい場合は、サンプリング点3と4のサンプリング色
差データが路面の色差データを正確に示しいると判断
し、サンプリング点3と4のサンプリング色差データの
変更は行わない。
On the other hand, color difference data of sampling points 3 and 4
If the absolute value of the difference between (RY, BY) is smaller than a preset value, it is determined that the sampling color difference data of sampling points 3 and 4 accurately represent the color difference data of the road surface, and the sampling point The sampling color difference data of 3 and 4 are not changed.

【0104】次に、サンプリング点3と4の色差データ
に予め設定した補正量を付加し、この値を含むような範
囲を色差条件として設定する。ただし、サンプリング点
3と4の色差データに予め設定した補正量を付加して設
定した範囲が、無彩色の領域を含まない場合には、予め
設定した無彩色の領域を含むように、色差条件を改めて
設定する。
Next, a preset correction amount is added to the color difference data at the sampling points 3 and 4, and a range including this value is set as a color difference condition. However, if the range set by adding a preset correction amount to the color difference data of the sampling points 3 and 4 does not include the achromatic region, the color difference condition is set so as to include the preset achromatic region. Set again.

【0105】ここで、色差条件が無彩色の領域を含むよ
うに設定するのは、以下の理由による。すなわち、一般
的に、路面は、アスファルトやコンクリートにより舗装
されているため、その色は黒或いは灰色になっていて色
彩を持たない。従って、色彩を持たない領域、すなわち
「無彩色」領域を色差条件に含むように設定すれば、仮
に間違った色差データをサンプリングした場合でも、路
面を正確に抽出できるようになる可能性が高くなるから
である。
The color difference condition is set so as to include an achromatic region for the following reason. That is, since the road surface is generally paved with asphalt or concrete, its color is black or gray and has no color. Therefore, if the area with no color, that is, the "achromatic" area is set to be included in the color difference condition, there is a high possibility that the road surface can be accurately extracted even if incorrect color difference data is sampled. Because.

【0106】次に、この色差の設定方法について、例と
して図25(1)を用いて説明する。この図25(1)では、
サンプリング点3のサンプリング色差データSAMP3B-Y
SAMP3R-Yと、サンプリング点4のサンプリング色差デー
タSAMP4B-Y,SAMP4R-Yを、それぞれ黒丸で示してある。
そしてまず、これらのサンプリングデータに予め設定し
た補正量を付加し、ある程度の幅を持たせる。これによ
り、サンプリングデータのばらつきによる影響を減少す
ることができる。
Next, a method for setting the color difference will be described with reference to FIG. 25 (1) as an example. In this FIG. 25 (1),
Sampling color difference data SAMP3 BY of sampling point 3
SAMP3 RY and sampling color difference data SAMP4 BY and SAMP4 RY at the sampling point 4 are indicated by black circles.
Then, first, a preset correction amount is added to these sampling data so as to have a certain width. This can reduce the influence of variations in sampling data.

【0107】ここで、これらサンプリング点3、4に、
それぞれ色差B−Yに対する補正量(α,β)と、色差R
−Yに対する補正量(γ,δ)を付加した範囲は、破線で
示したようになるが、これらは次式で示すような範囲と
なる。 サンプリング点3:SAMP3B-Y−β< SAMP3B-Y< SAMP3B-Y+α SAMP3R-Y−γ< SAMP3R-Y< SAMP3R-Y+δ サンプリング点4:SAMP4B-Y−β< SAMP4B-Y< SAMP4B-Y+α SAMP4R-Y−γ< SAMP4R-Y< SAMP4R-Y+δ ここで、補正量α,β,γ,δは予め設定し、メモリに記
憶しておく。
Here, at these sampling points 3 and 4,
Correction amount (α, β) for color difference BY and color difference R
The range in which the correction amount (γ, δ) is added to −Y is as shown by the broken line, but these are the ranges shown by the following equation. Sampling point 3: SAMP3 BY- β <SAMP3 BY <SAMP3 BY + α SAMP3 RY − γ <SAMP3 RY <SAMP3 RY + δ Sampling point 4: SAMP4 BY − β <SAMP4 BY <SAMP4 BY + α SAMP4 RY − γ <SAMP4 RY <SAMP4 RY + δ Here, the correction amounts α, β, γ, δ are set in advance and stored in the memory.

【0108】そして、この破線で囲んで示した範囲を含
む領域Aを、色差条件として設定する。ただし、この領
域Aが、斜線を付して示すような、予め設定した「無彩
色」領域を含んでいない場合は、この「無彩色」領域を
含むように、太線で示すような領域Bを、色差条件とし
て改めて設定するのである。
Then, the area A including the range surrounded by the broken line is set as the color difference condition. However, if the area A does not include a preset "achromatic color" area as indicated by hatching, the area B indicated by a thick line is included so as to include the "achromatic color" area. The color difference condition is set again.

【0109】次に、近距離領域輝度(Y)条件決定処理
は、サンプリング点1から4までのサンプリング輝度デ
ータの最大値と最小値を求め、これらの値に予め定めた
輝度補正量を付加して輝度条件を設定する処理であり、
この処理について、例として、図25(2)を用いて説明
する。いま、サンプリング点1から4までの輝度データ
が、この図25(2)に示すようになっていたとすると、
このときはサンプリング点1が最大輝度になっているの
で、このサンプリング点1の輝度に予め定めた補正量d
1を付加した値を、輝度条件の上限値として設定する。
Next, in the short-distance area luminance (Y) condition determining process, the maximum value and the minimum value of the sampling luminance data from the sampling points 1 to 4 are obtained, and a predetermined luminance correction amount is added to these values. Is the process of setting the brightness condition by
This process will be described by way of example with reference to FIG. Now, assuming that the luminance data from sampling points 1 to 4 is as shown in FIG. 25 (2),
At this time, since the sampling point 1 has the maximum luminance, the luminance of the sampling point 1 has a predetermined correction amount d.
The value to which 1 is added is set as the upper limit value of the brightness condition.

【0110】一方、最小値はサンプリング点2になって
いるので、このサンプリング点2の輝度データに予め定
めた補正量d2を付加した値を、輝度条件の下限値とし
て設定する。従って、この場合には、輝度条件として設
定した範囲は、図の上側にある両矢印で示した範囲とな
る。
On the other hand, since the minimum value is the sampling point 2, a value obtained by adding a predetermined correction amount d2 to the brightness data at this sampling point 2 is set as the lower limit value of the brightness condition. Therefore, in this case, the range set as the brightness condition is the range indicated by the double arrow on the upper side of the drawing.

【0111】次に、遠距離領域抽出色条件決定処理(S
2502)について説明する。この遠距離領域抽出色条
件決定処理は、遠距離領域抽出条件決定部30によって
実行され、図26のフローチャートに示すように、遠距
離領域色差(R−Y,B−Y)条件決定処理(S2502
02)と、遠距離領域輝度(Y)条件決定処理(S2502
04)とで構成されている。
Next, the long-distance area extraction color condition determination process (S
2502) will be described. This long-distance area extraction color condition determination processing is executed by the long-distance area extraction condition determination unit 30, and as shown in the flowchart of FIG. 26, long-distance area color difference (RY, BY) condition determination processing (S2502).
02) and the long-distance area luminance (Y) condition determination processing (S2502
04) and.

【0112】まず、距離領域色差条件決定処理(S25
0202)では、近距離領域色差条件決定処理(S230
202)で決定された色差条件を、遠距離領域色差条件
として設定する。次に、遠距離領域輝度条件決定処理
(S250204)では、以下の処理を実行する。まず、
5点のサンプリングされた輝度データに対して昼夜判別
処理を行う。この昼夜判定処理は、次のようにして行わ
れる。
First, the distance area color difference condition determination processing (S25
0202), the short-distance area color difference condition determination processing (S230
The color difference condition determined in 202) is set as the long-distance area color difference condition. Next, long-distance area brightness condition determination processing
In (S250204), the following processing is executed. First,
Day and night discrimination processing is performed on the luminance data sampled at five points. This day / night determination process is performed as follows.

【0113】図27に示すように、サンプリングされた
輝度データの同一水平ライン上のデータの平均値を求
め、その平均値を、画面下方から、それぞれM1(サンプ
リング点3と4の平均輝度)、M2(サンプリング点1と
2の平均輝度)とする。
As shown in FIG. 27, the average value of the data of the sampled luminance data on the same horizontal line is obtained, and the average value is calculated from the bottom of the screen by M 1 (average luminance of sampling points 3 and 4). , M 2 (average luminance of sampling points 1 and 2).

【0114】そして、これらの平均値の関係とサンプリ
ング点0の輝度データY0が、次式を満たした場合、夜
であると判定すのである。 夜判定条件式:M1−M22>ε,Y 0<ζ ここで、ε、ζは判定基準値で、予め設定され、メモリ
に記憶されているデータである。
Then, if the relationship between these average values and the luminance data Y 0 at the sampling point 0 satisfy the following expression, it is determined that it is night. Night judgment conditional expression: M 1 −M 2 2> ε, Y 0 <ζ where ε and ζ are determination reference values, which are data set in advance and stored in the memory.

【0115】この結果、夜であると判定された場合は、
夜間輝度条件決定処理を実行し、夜ではないと判定され
た場合は、昼間輝度条件決定処理を実行する。まず夜間
輝度条件決定処理では、近距離領域輝度条件決定処理と
同様に、サンプリング点0から2までのサンプリング輝
度データの最大値と最小値を求め、これらの最大値と最
小値に予め定めた輝度補正量を付加して遠距離領域輝度
条件を設定する。
As a result, when it is determined that it is night,
The nighttime brightness condition determination process is executed, and when it is determined that it is not nighttime, the daytime brightness condition determination process is executed. First, in the nighttime brightness condition determination process, similar to the short-distance region brightness condition determination process, the maximum value and the minimum value of the sampling brightness data from the sampling points 0 to 2 are obtained, and the brightness determined in advance to the maximum value and the minimum value. A correction amount is added to set the long-distance area luminance condition.

【0116】次に昼間輝度条件決定処理は、次のように
して行われる。まず、図27に示すように、昼夜判別処
理で求めサンプリングされた輝度データにおいて、同一
水平ライン上のデータの平均値M1、M2の差DEF
1と、平均値M2とサンプリング点0の輝度データY0
の差DEF2を求める。従って、これらの差DEF1、D
EF2は、次式で表される。 DEF1=M2−M1 DEF2=Y0−M2 そして、求めたDEF1に対して、求めたDEF2の値が
正常な範囲にあるか否かを判定し、正常な範囲外である
と判断した場合は、DEF2の値を変更するのである。
Next, the daytime brightness condition determining process is performed as follows. First, as shown in FIG. 27, in the luminance data obtained by the day / night discrimination processing and sampled, the difference DEF between the average values M 1 and M 2 of the data on the same horizontal line.
The difference DEF 2 between 1 and the average value M 2 and the luminance data Y 0 at the sampling point 0 is obtained. Therefore, these differences DEF 1 , D
EF 2 is represented by the following equation. DEF 1 = M 2 −M 1 DEF 2 = Y 0 −M 2 Then, it is judged whether or not the value of DEF 2 obtained is within the normal range with respect to the obtained DEF 1 , and outside the normal range. If it is determined that there is, the value of DEF 2 is changed.

【0117】この判定は、或る値のDEF1に対して、
DEF2が通常とり得る範囲を、図28のように、予め
設定しておくことで行なう。例えば、この図28におい
て、いまDEF1がD、DEF2がE1のときには、DE
2は正常な範囲内にあると判断する。またDEF1
D、DEF2がE2のときには、DEF2は正常な値より
も大きいので、このときには、DEF2の値をE2’に
変更する。さらにDEF1がD、DEF2がE3のときに
は、DEF2が正常な値よりも小さいため、DEF2
値をE3’に変更するのである。
This judgment is based on a certain value of DEF 1 .
The range normally taken by DEF 2 is set in advance as shown in FIG. For example, in FIG. 28, when DEF 1 is D and DEF 2 is E1, DE
It is determined that F 2 is within the normal range. Further, when DEF 1 is D and DEF 2 is E2, DEF 2 is larger than the normal value. At this time, therefore, the value of DEF 2 is changed to E2 ′. Further, when DEF 1 is D and DEF 2 is E3, DEF2 is smaller than the normal value, so the value of DEF 2 is changed to E3 '.

【0118】次に、こうして求めたDEF2の値を用い
て昼間輝度条件を設定するのであるが、このときの昼間
輝度条件の下限値としては、近距離領域輝度条件決定処
理で求めた近距離領域輝度条件の下限値と同じとする。
一方、昼間輝度条件の上限値は、近距離領域輝度条件決
定処理で求めた、近距離領域輝度条件の上限値に、DE
2を付加して設定するのである。
Next, the daytime brightness condition is set using the value of DEF 2 thus obtained. The lower limit value of the daytime brightness condition at this time is the short range area brightness condition determining process. The same as the lower limit of the area brightness condition.
On the other hand, the upper limit value of the daytime brightness condition is set to the upper limit value of the near field brightness condition obtained by the near field brightness condition determination processing,
It is set by adding F 2 .

【0119】以上、本発明の実施例によれば、近距離領
域と遠距離領域に対して、それぞれ異なる抽出条件を設
定できるため、近距離領域と遠距離領域とで同時に自車
両に対する走行レーンの左右車線を正確に認識すること
ができる。
As described above, according to the embodiment of the present invention, different extraction conditions can be set for the short-distance area and the long-distance area. The left and right lanes can be recognized accurately.

【0120】[0120]

【発明の効果】本発明によれば、撮影装置により撮影さ
れた画像情報に基づいて車線を認識する装置と方法にお
いて、近距離と遠距離のそれぞれの領域について、車線
を抽出するようにしたので、天候や照明条件の変化にも
関わらず、常に確実に車線を検出することができるよう
になり、且つ、近距離の領域と遠距離の領域で、車線を
同時に認識することが可能になるので、この結果、安全
運転の確保に大きく寄与することができる。
According to the present invention, in an apparatus and method for recognizing a lane based on image information taken by an image taking apparatus, the lane is extracted for each of the short distance area and the long distance area. , Lanes can always be detected reliably regardless of changes in weather and lighting conditions, and lanes can be recognized simultaneously in a short-distance area and a long-distance area. As a result, it can greatly contribute to ensuring safe driving.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例のシステム構成を示すブロッ
ク図である。
FIG. 1 is a block diagram showing a system configuration of an embodiment of the present invention.

【図2】本発明の一実施例におけるデータ処理動作の全
体を説明するためのフローチャートである。
FIG. 2 is a flowchart for explaining an overall data processing operation according to an embodiment of the present invention.

【図3】本発明の一実施例における画像表示面の一例を
示す説明図である。
FIG. 3 is an explanatory diagram showing an example of an image display surface according to an embodiment of the present invention.

【図4】本発明の一実施例におけるサンプリング位置及
びエッジ抽出処理領域決定処理を説明するためのフロー
チャートである。
FIG. 4 is a flowchart for explaining a sampling position and edge extraction processing area determination processing according to an embodiment of the present invention.

【図5】本発明の一実施例における遠距離及び近距離領
域エッジ抽出処理用ウィンドウの説明図である。
FIG. 5 is an explanatory diagram of a long distance and short distance area edge extraction processing window according to an embodiment of the present invention.

【図6】本発明の一実施例における遠距離及び近距離領
域でのサンプリング位置を示す説明図である。
FIG. 6 is an explanatory diagram showing sampling positions in a long distance area and a short distance area according to an embodiment of the present invention.

【図7】本発明の一実施例における車線認識処理の説明
図である。
FIG. 7 is an explanatory diagram of lane recognition processing according to an embodiment of the present invention.

【図8】本発明の一実施例における近距離領域抽出色条
件及びエッジ抽出処理を説明するためのフローチャート
である。
FIG. 8 is a flowchart illustrating a short-distance area extraction color condition and edge extraction processing according to an embodiment of the present invention.

【図9】本発明の一実施例における近距離領域エッジ抽
出処理を説明するためのフローチャートである。
FIG. 9 is a flowchart illustrating a short-distance area edge extraction process according to an embodiment of the present invention.

【図10】本発明の一実施例における車線認識処理を示
す説明図である。
FIG. 10 is an explanatory diagram showing lane recognition processing according to an embodiment of the present invention.

【図11】本発明の一実施例における遠距離領域抽出色
条件決定及びエッジ抽出処理を説明するためのフローチ
ャートである。
FIG. 11 is a flow chart for explaining long-distance area extraction color condition determination and edge extraction processing according to an embodiment of the present invention.

【図12】本発明の一実施例における画像ズーム及び遠
距離領域エッジ抽出処理を説明するためのフローチャー
トである。
FIG. 12 is a flowchart for explaining image zoom and long-distance area edge extraction processing according to an embodiment of the present invention.

【図13】本発明の一実施例における遠距離領域エッジ
抽出処理を説明するためのフローチャートである。
FIG. 13 is a flowchart illustrating a long-distance area edge extraction process according to an embodiment of the present invention.

【図14】本発明の一実施例におけるエッジ座標変換処
理の原理を示す説明図である。
FIG. 14 is an explanatory diagram showing the principle of edge coordinate conversion processing according to an embodiment of the present invention.

【図15】本発明の一実施例における画像ズーム処理を
説明するためのフローチャートである。
FIG. 15 is a flowchart illustrating an image zoom process according to an embodiment of the present invention.

【図16】本発明の一実施例における或るシーンでのズ
ーム中心座標を求めるための説明図である。
FIG. 16 is an explanatory diagram for obtaining zoom center coordinates in a scene according to an embodiment of the present invention.

【図17】本発明の一実施例における他のシーンでのズ
ーム中心座標を求めるための説明図である。
FIG. 17 is an explanatory diagram for obtaining zoom center coordinates in another scene according to an embodiment of the present invention.

【図18】本発明の一実施例における更に別のシーンで
のズーム中心座標を求めるための説明図である。
FIG. 18 is an explanatory diagram for obtaining zoom center coordinates in still another scene according to an embodiment of the present invention.

【図19】本発明の一実施例における拡大処理の原理を
示す説明図である。
FIG. 19 is an explanatory diagram showing the principle of enlargement processing according to an embodiment of the present invention.

【図20】本発明の一実施例における拡大処理前後の画
面の説明図である。
FIG. 20 is an explanatory diagram of screens before and after an enlargement process according to an embodiment of the present invention.

【図21】本発明の一実施例におけるエッジ判別処理の
原理を示す説明図である。
FIG. 21 is an explanatory diagram showing the principle of edge determination processing according to an embodiment of the present invention.

【図22】本発明の一実施例における拡大率が不連続変
化する場合の拡大処理前後の画面拡大率を示す説明図で
ある。
FIG. 22 is an explanatory diagram showing screen enlargement ratios before and after enlargement processing when the enlargement ratio changes discontinuously in the embodiment of the present invention.

【図23】本発明の一実施例における近距離領域抽出色
条件決定処理を説明するためのフローチャートである。
FIG. 23 is a flowchart illustrating a short-distance area extraction color condition determination process according to an embodiment of the present invention.

【図24】本発明の一実施例における或るシーンでのサ
ンプリング画面の状態を示す説明図である。
FIG. 24 is an explanatory diagram showing a state of a sampling screen in a certain scene according to an embodiment of the present invention.

【図25】本発明の一実施例における近距離領域抽出色
条件を求める処理の説明図である。
FIG. 25 is an explanatory diagram of a process of obtaining a short-distance area extraction color condition in the embodiment of the present invention.

【図26】本発明の一実施例における遠距離領域抽出色
条件決定処理を説明するためのフローチャートである。
FIG. 26 is a flowchart illustrating a long-distance area extraction color condition determination process according to an embodiment of the present invention.

【図27】本発明の一実施例における遠距離領域抽出色
条件を求める処理の説明図である。
FIG. 27 is an explanatory diagram of a process of obtaining a long-distance area extraction color condition according to the embodiment of the present invention.

【図28】本発明の一実施例に置ける遠距離領域輝度条
件設定可能領域を示す説明図である。
FIG. 28 is an explanatory diagram showing a long-distance area luminance condition settable area according to an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 撮影部 5 処理部 6 画像処理部 7 判断部 10 遠距離領域抽出処理回路 12 車線認識部 14 表示部 26 近距離領域抽出処理回路 29 近距離領域抽出条件決定部 30 遠距離領域抽出条件決定部 1 shooting department 5 processing section 6 Image processing unit 7 Judgment section 10 Long-distance area extraction processing circuit 12 lane recognition 14 Display 26 Short-distance Area Extraction Processing Circuit 29 Short-distance region extraction condition determination unit 30 Long-distance area extraction condition determination unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI G08G 1/16 G08G 1/16 C (72)発明者 門司 竜彦 茨城県ひたちなか市大字高場2520番地 株式会社 日立製作所 自動車機器事業 部内 (72)発明者 塙 和彦 茨城県ひたちなか市大字高場2520番地 株式会社 日立製作所 自動車機器事業 部内 (72)発明者 塩谷 真 神奈川県川崎市麻生区王禅寺1099番地 株式会社 日立製作所 システム開発研 究所内 (72)発明者 西村 龍志 神奈川県横浜市戸塚区吉田町292番地 株式会社 日立製作所 マルチメディア システム開発本部内 (56)参考文献 特開 平5−20593(JP,A) 特開 平7−28975(JP,A) 特開 平2−90381(JP,A) 特開 平6−14230(JP,A) 特開 平2−284268(JP,A) 特開 平6−229760(JP,A) 特開 平7−302346(JP,A) 特開 平2−206883(JP,A) 特開 平6−215290(JP,A) 特開 平3−52081(JP,A) 特開 平7−319541(JP,A) 特開 昭62−221800(JP,A) (58)調査した分野(Int.Cl.7,DB名) G60T 7/00 - 7/60 B60R 21/00 G06T 1/00 G08G 1/00 - 1/16 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI G08G 1/16 G08G 1/16 C (72) Inventor Tatsuhiko Moji 2520 Takaba, Hitachinaka City, Ibaraki Hitachi, Ltd. Automotive Equipment Business Inside (72) Inventor Kazuhiko Hanawa 2520 Takaba, Hitachinaka City, Ibaraki Prefecture Hitachi, Ltd. Automotive Equipment Division (72) Inventor Shin Shioya 1099, Ozenji, Aso-ku, Kawasaki-shi, Kanagawa Hitachi Systems Development Laboratory Co., Ltd. (72) Inventor Ryushi Nishimura, 292 Yoshida-cho, Totsuka-ku, Yokohama-shi, Kanagawa, Hitachi, Ltd., Multimedia System Development Division (56) References JP-A-5-20593 (JP, A) JP-A-7-28975 (JP, A) JP-A 2-90381 (JP, A) JP-A 6-14230 (JP, A) JP 2-284268 (JP, A) JP-A-6-229760 (JP, A) JP-A-7-302346 (JP, A) JP-A-2-206883 (JP, A) JP-A-6-215290 (JP, A) A) JP 3-52081 (JP, A) JP 7-319541 (JP, A) JP 62-221800 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) ) G60T 7/00-7/60 B60R 21/00 G06T 1/00 G08G 1/00-1/16

Claims (7)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 車両の前方もしくは後方を撮影する撮影
手段と、 前記撮影手段によって撮影された画像を、第1の領域
と、この第1の領域より前記車両に対して遠方である第
2の領域とに分割する分割手段と、 前記第1の領域の画像から抽出色条件を満たす画素と該
条件を満たしていない画素に二値化処理し、該二値化処
理した画像を空間フィルタリング処理して車線と路面の
境界を抽出する第1の抽出手段と、 前記第2の領域の画像から抽出色条件を満たす画素と該
条件を満たしていない画素に二値化処理し、該二値化処
理した画像を空間フィルタリング処理して車線と路面の
境界を抽出する第2の抽出手段と、 前記第1の抽出手段の結果と前記第2の抽出手段の結果
に基づき前記車両前方方向もしくは後方方向の車線を認
識する車線認識手段と、 前記撮影手段によって撮影された画像の前記第1の領域
から色データをサンプリングする第1の色サンプリング
手段と、 前記撮影手段によって撮影された画像の前記第2の領域
から色データをサンプリングする第2の色サンプリング
手段と、 前記第1の色サンプリング手段でサンプリングされた色
データと前記第2の色サンプリング手段でサンプリング
された色データに基づき、前記第1の抽出手段において
前記第1の領域の画像を、抽出色条件を満たす画素と該
条件を満たしていない画素に二値化処理する際に使用す
第1の閾値を決定する第1の閾値決定手段と、 前記第1の色サンプリング手段でサンプリングされた色
データと前記第2の色サンプリング手段でサンプリング
された色データに基づき、前記第2の抽出手段において
前記第2の領域の画像を、抽出色条件を満たす画素と該
条件を満たしていない画素に二値化処理する際に使用す
第2の閾値を決定する第2の閾値決定手段と、 を備えたことを特徴とする画像処理による走行路面の監
視装置。
1. A photographing means for photographing the front or rear of a vehicle, a first area for an image photographed by the photographing means, and a second area that is farther from the first area to the vehicle. Dividing means for dividing into a region and a binarization process of pixels from the image of the first region that satisfy extraction color conditions and pixels that do not meet the conditions, and spatially filtering the binarized image Extracting means for extracting the boundary between the lane and the road surface, and binarizing the pixel of the image of the second region that satisfies the extraction color condition and the pixel that does not satisfy the condition, and performing the binarization process. Second extraction means for extracting the boundary between the lane and the road surface by spatially filtering the obtained image, and the vehicle front direction or the rear direction based on the result of the first extraction means and the result of the second extraction means. Lane recognition lane recognition Means, first color sampling means for sampling color data from the first region of the image photographed by the photographing means, and sampling color data from the second region of the image photographed by the photographing means Second color sampling means, the first extracting means based on the color data sampled by the first color sampling means and the color data sampled by the second color sampling means.
The image of the first area is divided into
Used when binarizing pixels that do not meet the conditions
That the first threshold value determining means for determining a first threshold value, based on the first color data sampled by sampled color data and said second color sampling means in the color sampling means, said second In the extraction means
The image of the second area is divided into
Used when binarizing pixels that do not meet the conditions
That the second and the second threshold determination means for determining a threshold value, the monitoring device of the road surface by image processing, characterized in that it comprises a.
【請求項2】 請求項1の発明において、 前記車線認識手段の結果に基づき前記車両の走行状態の
危険を判断する危険判断手段を備えたことを特徴とする
画像処理による走行路面の監視装置。
2. The traveling road surface monitoring device by image processing according to claim 1, further comprising a risk determining unit that determines a risk of a traveling state of the vehicle based on a result of the lane recognizing unit.
【請求項3】 請求項1の発明において、 前の周期で処理して得られた認識車線に基づいて、前記
第1の領域を決定する第1の領域決定手段と、 前の周期で処理して得られた認識車線に基づいて、前記
第2の領域を決定する第2の領域決定手段と、 を備えることを特徴とする画像処理による走行路面の監
視装置。
3. The invention according to claim 1, wherein the first area determination means determines the first area based on the recognized lane obtained by processing in the previous cycle, and the processing is performed in the previous cycle. And a second area determining means for determining the second area based on the recognized lane obtained as described above.
【請求項4】 請求項2の発明において、 前の周期で処理して得られた認識車線に基づいて、前記
第1の領域を決定する第1の領域決定手段と、 前の周期で処理して得られた認識車線に基づいて、前記
第2の領域を決定する第2の領域決定手段と、 を備えたことを特徴とする画像処理による走行路面の監
視装置。
4. The invention according to claim 2, wherein the first area determination means determines the first area based on the recognized lane obtained by processing in the previous cycle, and the processing is performed in the previous cycle. And a second area determining means for determining the second area on the basis of the recognized lane obtained as described above.
【請求項5】 請求項1の発明において、 前の周期で処理して得られた認識車線に基づいて、前記
第1の領域から色データをサンプリングする位置を決定
する第1のサンプリング位置決定手段と、 前の周期で処理して得られた認識車線に基づいて、前記
第2の領域から色データをサンプリングする位置を決定
する第2のサンプリング位置決定手段と、 を備えたことを特徴とする画像処理による走行路面の監
視装置。
5. The first sampling position determining means for determining the position for sampling color data from the first region based on the recognized lane obtained by processing in the previous cycle. And second sampling position determining means for determining a position for sampling color data from the second region based on the recognized lane obtained by processing in the previous cycle. Monitoring device for traveling road surface by image processing.
【請求項6】 請求項2の発明において、 前の周期で処理して得られた認識車線に基づいて、前記
第1の領域から色データをサンプリングする位置を決定
する第1のサンプリング位置決定手段と、 前の周期で処理して得られた認識車線に基づいて、前記
第2の領域から色データをサンプリングする位置を決定
する第2のサンプリング位置決定手段と、 を備えたことを特徴とする画像処理による走行路面の監
視装置。
6. The first sampling position determining means for determining the position for sampling color data from the first region based on the recognized lane obtained by processing in the previous cycle. And second sampling position determining means for determining a position for sampling color data from the second region based on the recognized lane obtained by processing in the previous cycle. Monitoring device for traveling road surface by image processing.
【請求項7】 請求項3の発明において、 前の周期で処理して得られた認識車線に基づいて、前記
第1の領域から色データをサンプリングする位置を決定
する第1のサンプリング位置決定手段と、 前の周期で処理して得られた認識車線に基づいて、前記
第2の領域から色データをサンプリングする位置を決定
する第2のサンプリング位置決定手段と、 を備えことを特徴とする画像処理による走行路面の監
視装置。
7. The first sampling position determining means for determining the position for sampling color data from the first region based on the recognized lane obtained by processing in the previous cycle. If, based on the recognition lane obtained by processing in the previous cycle, characterized by comprising a second sampling position determining means for determining a location for sampling the color data from said second region Monitoring device for traveling road surface by image processing.
JP32915695A 1995-12-18 1995-12-18 Road surface monitoring device by image processing Expired - Fee Related JP3413745B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32915695A JP3413745B2 (en) 1995-12-18 1995-12-18 Road surface monitoring device by image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32915695A JP3413745B2 (en) 1995-12-18 1995-12-18 Road surface monitoring device by image processing

Publications (2)

Publication Number Publication Date
JPH09167239A JPH09167239A (en) 1997-06-24
JP3413745B2 true JP3413745B2 (en) 2003-06-09

Family

ID=18218273

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32915695A Expired - Fee Related JP3413745B2 (en) 1995-12-18 1995-12-18 Road surface monitoring device by image processing

Country Status (1)

Country Link
JP (1) JP3413745B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4327389B2 (en) * 2001-10-17 2009-09-09 株式会社日立製作所 Travel lane recognition device
JP2005284471A (en) * 2004-03-29 2005-10-13 Omron Corp Image processing apparatus and method
JP4687557B2 (en) * 2006-05-11 2011-05-25 富士ゼロックス株式会社 Image collation device and program
JP4697480B2 (en) 2008-01-11 2011-06-08 日本電気株式会社 Lane recognition device, lane recognition method, and lane recognition program
JP5141599B2 (en) * 2009-03-06 2013-02-13 日産自動車株式会社 Lane recognition apparatus and method
JP2014123301A (en) * 2012-12-21 2014-07-03 Toyota Motor Corp White line detection device
KR101787996B1 (en) 2013-04-11 2017-10-19 주식회사 만도 Apparatus of estimating traffic lane in vehicle, control method of thereof
JP6348758B2 (en) 2014-04-15 2018-06-27 本田技研工業株式会社 Image processing device
JP7327911B2 (en) * 2018-07-12 2023-08-16 キヤノン株式会社 Image processing device, image processing method, and program

Also Published As

Publication number Publication date
JPH09167239A (en) 1997-06-24

Similar Documents

Publication Publication Date Title
US7209832B2 (en) Lane recognition image processing apparatus
US8244027B2 (en) Vehicle environment recognition system
CN101088027B (en) Stereo camera for a motor vehicle
WO1996034363A1 (en) Image processor for vehicle
JP3782322B2 (en) In-vehicle image processing camera device
JP5178361B2 (en) Driving assistance device
WO2011030698A1 (en) Device for monitoring surroundings of vehicle
JP5260696B2 (en) Edge point extraction device, lane detection device, and program
JP3413745B2 (en) Road surface monitoring device by image processing
US11068729B2 (en) Apparatus and method for detecting a traffic light phase for a motor vehicle
CN113525234A (en) Auxiliary driving system device
JP2005184395A (en) Method, system and apparatus for image processing, and photographing equipment
JPS62221800A (en) Recognition equipment for lane on road
JP3606223B2 (en) Vehicle side image generation method and vehicle side image generation device
JP3084208B2 (en) Image processing device
JPH1114346A (en) Vehicular obstacle detecting device
KR100355993B1 (en) An apparatus for warning lane deviation and a method for warning the same
JP6867023B2 (en) Video display device for mobiles and its method
JP6701327B2 (en) Glare detection method and device
CN111815556A (en) Vehicle-mounted fisheye camera self-diagnosis method based on texture extraction and wavelet transformation
JPH02190978A (en) Visual sense recognizing device for vehicle
JPH09231379A (en) Device for recognizing traveling lane by picture processing
JP4574157B2 (en) Information display device and information display method
EP3329419A1 (en) Method for capturing an object on a road in the environment of a motor vehicle, camera system and motor vehicle using the same
JPH08297023A (en) Apparatus for monitoring running road face by image processing

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080404

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090404

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090404

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100404

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110404

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120404

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120404

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130404

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140404

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees