JP3341664B2 - Vehicle line detecting device, road line detecting method, and medium recording program - Google Patents

Vehicle line detecting device, road line detecting method, and medium recording program

Info

Publication number
JP3341664B2
JP3341664B2 JP34531997A JP34531997A JP3341664B2 JP 3341664 B2 JP3341664 B2 JP 3341664B2 JP 34531997 A JP34531997 A JP 34531997A JP 34531997 A JP34531997 A JP 34531997A JP 3341664 B2 JP3341664 B2 JP 3341664B2
Authority
JP
Japan
Prior art keywords
image
area
white line
road
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP34531997A
Other languages
Japanese (ja)
Other versions
JPH11175702A (en
Inventor
康治 田口
道昌 井東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP34531997A priority Critical patent/JP3341664B2/en
Publication of JPH11175702A publication Critical patent/JPH11175702A/en
Application granted granted Critical
Publication of JP3341664B2 publication Critical patent/JP3341664B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は車両用ライン検出装
置及び路上ライン検出方法並びにプログラムを記録した
媒体に関し、特に道路画像を処理して画像内のラインを
検出するものに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle line detecting device, a road line detecting method, and a medium on which a program is recorded, and more particularly to a method for processing a road image to detect a line in the image.

【0002】[0002]

【従来の技術】従来より、道路画像を撮影し、得られた
道路画像から画像内のラインを検出することにより車両
の道路(ライン)に対する相対変位を検出する技術が開
発されている。
2. Description of the Related Art Conventionally, there has been developed a technology for detecting a relative displacement of a vehicle with respect to a road (line) by photographing a road image and detecting a line in the image from the obtained road image.

【0003】例えば、特開平7−141592号公報に
は、得られた道路画像とアスファルト面から切り出した
テンプレートとの相関演算を行うことにより路上の白線
を検出する技術が開示されている。
For example, Japanese Patent Application Laid-Open No. 7-141592 discloses a technique for detecting a white line on a road by performing a correlation operation between an obtained road image and a template cut out from an asphalt surface.

【0004】[0004]

【発明が解決しようとする課題】このようなテンプレー
トを用いた演算(テンプレートマッチング法)により、
多くの場合道路上のラインを検出することが可能となる
が、撮影環境、あるいは走行環境によっては道路画像か
らラインを検出することが困難となる場合もある。
According to the operation (template matching method) using such a template,
In many cases, it is possible to detect a line on a road, but it may be difficult to detect a line from a road image depending on a shooting environment or a traveling environment.

【0005】例えば、車両がトンネルに進入する際は、
トンネル内の明るさとトンネル外の明るさが著しく異な
るため、有限のダイナミックレンジを有するカメラ(例
えばCCDカメラ等)では、明瞭な道路画像が得られな
い場合がある。
For example, when a vehicle enters a tunnel,
Since the brightness inside the tunnel is significantly different from the brightness outside the tunnel, a clear road image may not be obtained with a camera having a finite dynamic range (for example, a CCD camera).

【0006】また、道路画像内のライン(例えば白線)
は、常に一定の傾き(例えば45°)を有しているとは
限らず、例えば車線変更時等には画像内におけるライン
の傾きが大きく変化することになり、画像内において一
定の傾きを有すると仮定してテンプレートマッチング法
を用いたのでは、ラインを検出することが困難となる問
題がある。
Also, a line (for example, a white line) in a road image
Does not always have a constant inclination (for example, 45 °). For example, when a lane is changed, the inclination of a line in the image greatly changes, and a constant inclination exists in the image. If the template matching method is used on the assumption, there is a problem that it is difficult to detect a line.

【0007】さらに、雨天により道路上に水たまりが存
在する場合、太陽光等がこの水たまりで鏡面反射して道
路上のラインと同程度の明るさとなる場合もあり、この
ような場合には真のラインと水たまり部分を判別でき
ず、ラインを誤認識する可能性もある。
Further, when there is a puddle on the road due to rainy weather, sunlight or the like may be specularly reflected by the puddle and become as bright as a line on the road. The line and the puddle portion cannot be distinguished, and the line may be erroneously recognized.

【0008】本発明は、上記問題点に鑑みなされたもの
であり、その目的は、種々の撮影環境下あるいは走行環
境下においても、道路上のラインを確実に検出すること
ができる車両用ライン検出装置及び路上ライン検出方法
並びにプログラムを記録した媒体を提供することにあ
る。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and has as its object to provide a vehicle line detection system capable of reliably detecting a line on a road under various photographing environments or running environments. It is an object to provide a device, a road line detection method, and a medium on which a program is recorded.

【0009】[0009]

【課題を解決するための手段】上記目的を達成するため
に、発明は、2次元CCDセンサと、前記2次元CC
Dセンサの第1領域に第1露出量で道路画像を投影する
とともに、前記2次元CCDセンサの第2領域に第2露
出量で前記道路画像を投影する光学系と、前記2次元C
CDセンサの第1領域から出力された第1画像及び前記
2次元CCDセンサの第2領域から出力された第2画像
に基づいて前記道路画像内のラインを検出する検出手段
とを有し、前記第1領域と前記第2領域、及び前記第1
露出量と前記第2露出量は互いに異なり、前記検出手段
は、前記第1画像内及び前記第2画像内の対応する複数
の位置にライン検出用のサーチウィンドウを複数設定す
る設定手段と、互いに対応するサーチウィンドウの中
で、それぞれいずれかのサーチウィンドウ内の処理結果
を選択する選択手段とを有することを特徴とする。
In order to achieve the above object, the present invention provides a two-dimensional CCD sensor and the two-dimensional CCD sensor.
An optical system for projecting a road image with a first exposure amount on a first area of the D sensor and projecting the road image with a second exposure amount on a second area of the two-dimensional CCD sensor;
Detecting means for detecting a line in the road image based on a first image output from a first area of the CD sensor and a second image output from a second area of the two-dimensional CCD sensor; A first region, the second region, and the first region;
Wherein the exposure amount second exposure amount varies from each other, said detecting means
Are the corresponding pluralities in the first image and the second image
Set multiple search windows for line detection at the position
Setting means and the corresponding search windows
And the processing result in any of the search windows
And selecting means for selecting .

【0010】前記設定手段は、前記第1領域の上部と下
部、並びに前記第2領域の前記第1領域に対応する上部
と下部にそれぞれライン検出用の上部サーチウィンドウ
と下部サーチウィンドウを設定し、前記選択手段は、前
記第1領域の上部サーチウィンドウ内の処理結果と第2
領域の上部サーチウィンドウ内の処理結果のいずれかを
選択し、かつ、前記第1領域の下部サーチウィンドウ内
の処理結果と第2領域内の下部サーチウィンドウ内の処
理結果のいずれかを選択することが好適である
The setting means includes an upper part and a lower part of the first area.
Part, and an upper portion of the second region corresponding to the first region
Top and bottom search windows for line detection
And a lower search window, and the selecting means
The processing result in the upper search window of the first area and the second
One of the processing results in the search window at the top of the region
Selected and in the lower search window of the first area
Processing result in the lower search window in the second area
It is preferable to select any of the processing results .

【0011】また、発明は、路上のラインを検出する
方法であって、単一CCDの異なる領域に露出量の異な
る同一道路画像を投影するステップと、前記露出量の異
なる同一道路画像の対応する複数の部位にライン検出用
のサーチウィンドウを複数設定するステップと、互いに
対応するサーチウィンドウの中で、それぞれいずれかの
サーチウィンドウ内の処理結果を選択することでライン
を検出するステップとを有することを特徴とする。
Further, the present invention detects a line on a road.
Different exposure areas on a single CCD.
Projecting the same road image,
For line detection on multiple corresponding parts of the same road image
Setting multiple search windows for
In the corresponding search window,
Select a processing result in the search window to select a line.
And a step of detecting

【0012】また、発明は、路上のラインを検出する
ためのプログラムを記録した媒体であって、該プログラ
ムはコンピュータに対して、単一CCDの異なる領域に
異なる露出量で投影された同一道路画像を入力させ、前
記露出量の異なる同一道路画像の対応する複数の部位に
ライン検出用のサーチウィンドウを複数設定させ、互い
に対応するサーチウィンドウの中で、それぞれいずれか
のサーチウィンドウ内の処理結果を選択することでライ
ンを検出させることを特徴とする。
Further, the present invention detects a line on a road.
Medium for recording a program for
The computer to different areas of a single CCD
Input the same road image projected with different exposure,
For multiple corresponding parts of the same road image with different exposures
Set multiple search windows for line detection, and
In the search window corresponding to
By selecting the processing result in the search window of
Is detected .

【0013】[0013]

【0014】[0014]

【0015】[0015]

【0016】[0016]

【0017】[0017]

【0018】[0018]

【0019】[0019]

【0020】[0020]

【0021】[0021]

【0022】[0022]

【発明の実施の形態】以下、図面に基づき本発明の実施
形態について、ラインとして白線を検出する場合を例に
とり説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described with reference to the drawings, taking a case where a white line is detected as a line as an example.

【0023】<第1実施形態>図1には、本実施形態の
構成ブロック図が示されている。なお、本実施形態は、
例えば車両がトンネルに進入する場合のように、画像内
で明るさの変動が大きく、従って通常のCCDカメラの
ダイナミックレンジでは白線画像を明瞭に撮影すること
ができないような状況下で有効なものである。
<First Embodiment> FIG. 1 is a block diagram showing the configuration of the present embodiment. In this embodiment,
This is effective in situations where the brightness fluctuates greatly in the image, such as when a vehicle enters a tunnel, and therefore the white line image cannot be clearly captured with the normal dynamic range of a CCD camera. is there.

【0024】図において、光学系1は、単一のCCDセ
ンサ24の異なる領域に互いに露出量の異なる同一道路
画像を投影するためのものである。具体的には、光学系
1は、レンズ(L1)10、レンズ(L2)18と、レン
ズ(L2)18の前に配置され、明るさを所定量減じる
減光フィルタ16と、レンズ(L1)10からの光を反
射するミラー(M1)12と、ミラー(M2)14と、減
光フィルタ16と、レンズ(L2)18を通った光を反
射するミラー(M3)20と、ミラー(M4)22を含ん
で構成されており、道路からの光は減光フィルタ16を
有しない光路と減光フィルタ16を有する光路の2つの
光路を通ってCCDセンサ24に入射する。
In the figure, an optical system 1 is for projecting the same road images having different exposure amounts to different regions of a single CCD sensor 24. Specifically, the optical system 1 includes a lens (L 1) 10, a lens (L 2) 18, a neutral density filter 16 that is disposed in front of the lens (L 2) 18 and reduces brightness by a predetermined amount, and a lens (L 1). A mirror (M1) 12, a mirror (M2) 14, a neutral density filter 16, a mirror (M3) 20 for reflecting light passing through a lens (L2) 18, and a mirror (M4) The light from the road is incident on the CCD sensor 24 through two optical paths, an optical path without the neutral density filter 16 and an optical path with the neutral density filter 16.

【0025】CCDセンサ24は、複数のCCD素子を
2次元上に配置して構成される2次元CCDセンサであ
り、光学系1から投影された互いに露出量の異なる2つ
の画像(第1画像及び第2画像と称する)を電気信号に
変換してアンプ26に出力する。
The CCD sensor 24 is a two-dimensional CCD sensor in which a plurality of CCD elements are arranged two-dimensionally, and two images (a first image and a second image) projected from the optical system 1 and having different exposure amounts from each other. (Referred to as a second image) is converted into an electric signal and output to the amplifier 26.

【0026】アンプ26は、CCDセンサ24からの第
1画像信号及び第2画像信号を増幅し、画像処理装置2
8に出力する。
The amplifier 26 amplifies the first image signal and the second image signal from the CCD sensor 24, and
8 is output.

【0027】画像処理装置28は、A/D変換器28
a、フレームメモリ28b及び画像認識処理部28cを
有しており、A/D変換器28aでデジタル信号に変換
された第1画像信号及び第2画像信号はフレームメモリ
28bに格納される。フレームメモリ28bに格納され
た第1画像信号及び第2画像信号は、更に画像認識処理
部28cに供給される。
The image processing device 28 includes an A / D converter 28
a, a frame memory 28b, and an image recognition processing unit 28c. The first image signal and the second image signal converted into digital signals by the A / D converter 28a are stored in the frame memory 28b. The first image signal and the second image signal stored in the frame memory 28b are further supplied to an image recognition processing unit 28c.

【0028】画像認識処理部28cは、具体的にはマイ
クロコンピュータで構成され、第1画像信号及び第2画
像信号を処理して画像内の白線を検出し、検出結果を表
示部30に表示するとともに、車両制御部32に供給す
る。
The image recognition processing unit 28c is specifically constituted by a microcomputer, processes the first image signal and the second image signal, detects a white line in the image, and displays the detection result on the display unit 30. At the same time, the power is supplied to the vehicle control unit 32.

【0029】表示部30は、CRTや液晶等で構成さ
れ、検出した白線を運転者が視認しやすい形態で表示
し、車両制御部32は、検出された白線に基づき車両の
白線に対する横変位を算出し、車両の操舵角等を制御す
る。
The display unit 30 is composed of a CRT, a liquid crystal or the like, and displays the detected white line in a form that is easy for the driver to visually recognize. The vehicle control unit 32 determines the lateral displacement of the vehicle with respect to the white line based on the detected white line. Calculate and control the steering angle and the like of the vehicle.

【0030】なお、露出量を制御するための減光フィル
タ16としては、例えば入射した光を1/103に低減
するフィルタを用いることができ、これによりCCDセ
ンサ24の通常のダイナミックレンジである103を1
6まで拡大することができる。従って、減光フィルタ
16により減光されない(露出量の多い)CCDセンサ
24の領域において、105cd/m2で飽和するように
設定した場合、CCDセンサ24全体の検出レンジとし
ては、10-1〜105cd/m2となる。トンネル内の明
るさは100cd/m2、屋外の日向の明るさは104
d/m2であるので、明瞭な画像を得るのに十分な値と
なる。
As the neutral density filter 16 for controlling the amount of exposure, for example, a filter for reducing the incident light to 1/10 3 can be used, which has a normal dynamic range of the CCD sensor 24. 10 3 to 1
0 6 can be enlarged. Therefore, when the CCD sensor 24 is set to be saturated at 10 5 cd / m 2 in the area of the CCD sensor 24 that is not dimmed by the neutral density filter 16 (having a large amount of exposure), the detection range of the CCD sensor 24 as a whole is 10 a 1 ~10 5 cd / m 2. Brightness 10 0 cd / m 2 in the tunnel, the brightness of outdoor Hinata 10 4 c
Since d / m 2 , the value is sufficient to obtain a clear image.

【0031】図2には、図1の構成によりCCDセンサ
24に投影される露出量の異なる2つの画像、すなわち
第1画像100aと第2画像100bが模式的に示され
ている。第1画像100aは、減光フィルタ16により
減光されない画像であり、露出量の多い画像である。こ
れに対し、第2画像100bは、減光フィルタ16によ
り減光された画像であり、露出量の少ない画像である。
図において、「明」、「暗」は、それぞれ露出量の大小
を示している。
FIG. 2 schematically shows two images having different exposure amounts projected on the CCD sensor 24 according to the configuration of FIG. 1, that is, a first image 100a and a second image 100b. The first image 100a is an image that is not dimmed by the dimming filter 16 and has a large exposure amount. On the other hand, the second image 100b is an image that has been dimmed by the dimming filter 16 and has a small exposure amount.
In the figure, “bright” and “dark” respectively indicate the magnitude of the exposure amount.

【0032】このように、2つの画像100a、100
bは互いに露出量が異なるため、例えば車両が晴天時の
道路を走行している場合、第1画像100aは露出オー
バ気味で飽和状態となる一方、第2画像100bはほぼ
適度の露出量となり、第1画像100aの画像からは白
線を検出することは困難である一方、第2画像100b
からは白線を検出することが容易となる。また、曇天時
やトンネル内等においては、第1画像100aは適正な
露出量となるのに対し、第2画像100bは露出アンダ
気味となり、第1画像100aからは白線を検出するこ
とができるが、第2画像100bからは、白線を検出す
ることが困難となる。
As described above, the two images 100a, 100
Since the exposure amounts b are different from each other, for example, when the vehicle is traveling on a road in fine weather, the first image 100a is slightly overexposed and becomes saturated, while the second image 100b has an approximately moderate exposure amount. While it is difficult to detect a white line from the first image 100a, the second image 100b
Makes it easy to detect a white line. In cloudy weather, in a tunnel, or the like, the first image 100a has an appropriate exposure amount, whereas the second image 100b tends to be underexposure, and a white line can be detected from the first image 100a. It is difficult to detect a white line from the second image 100b.

【0033】また、車両がトンネルに進入する場合を想
定すると、第1画像100a、あるいは第2画像100
bの画像上部領域はトンネル内画像のため画像下部領域
に比べて暗くなる。しかしながら、第1画像100aで
は、減光フィルタ16により減光されていないため、画
像上部のトンネル画像でも、白線を検出するだけの十分
な露出量が確保されている。その一方、第2画像100
bでは、減光フィルタ16により減光されているため、
画像上部のトンネル画像は、露出不足のため白線を検出
することができない。
Assuming that the vehicle enters a tunnel, the first image 100a or the second image 100a
The image upper region b is darker than the image lower region because of the image in the tunnel. However, in the first image 100a, since the light is not dimmed by the dimming filter 16, even in the tunnel image at the top of the image, a sufficient exposure amount for detecting the white line is secured. On the other hand, the second image 100
In b, since the light is dimmed by the dimming filter 16,
In the tunnel image at the top of the image, white lines cannot be detected due to insufficient exposure.

【0034】一方、第1画像100a及び第2画像10
0bの画像下部領域は、トンネル外のため通常の明るさ
であり、従って第1画像100aでは露出オーバ気味と
なるため白線を検出することが困難である一方、第2画
像100bの下部では、減光フィルタ16により減光さ
れているため、適正な露出量となり白線を検出すること
が可能となる。
On the other hand, the first image 100a and the second image 10
The lower area of the image 0b has normal brightness because it is outside the tunnel, and therefore it is difficult to detect a white line in the first image 100a because it tends to be overexposed. Since the light is attenuated by the optical filter 16, the amount of exposure becomes appropriate, and a white line can be detected.

【0035】このように、画像内に明るさの変化が生じ
ている種々の環境下においても、第1画像100aと第
2画像100bを選択的に用いることで、白線を検出す
ることができる。画像認識処理部28cは、以上述べた
原理に基づいて白線を検出する。
As described above, the white line can be detected by selectively using the first image 100a and the second image 100b even in various environments where the brightness changes in the image. The image recognition processing unit 28c detects a white line based on the principle described above.

【0036】図3には、具体的に白線を検出する場合の
処理が模式的に示されている。画像認識処理部28c
は、白線を検出する際に、第1画像100a及び第2画
像100bにそれぞれサーチウィンドウを設定する。こ
のサーチウィンドウは、そのウィンドウ内で予め用意さ
れた白線テンプレートと画像とのマッチングを行うため
のウィンドウであり、テンプレートをサーチウィンドウ
内で順次移動させつつ相関演算を行うものである。
FIG. 3 schematically shows processing for specifically detecting a white line. Image recognition processing unit 28c
Sets a search window in each of the first image 100a and the second image 100b when detecting a white line. The search window is a window for matching a white line template prepared in advance in the window with an image, and performs a correlation operation while sequentially moving the template in the search window.

【0037】図において、第1画像100aにはサーチ
ウィンドウ200a、200b、300a、300bが
設定され、第2画像100bの第1画像100aに対応
する領域にはサーチウィンドウ202a、202b、3
02a、302bがそれぞれ設定される。対応するサー
チウィンドウの組は、それぞれサーチウィンドウ200
aと202a、200bと202b、300aと302
a、300bと302bである。画像認識処理部28c
は、このように第1画像100a及び第2画像100b
に複数のサーチウィンドウを設定して、それぞれのサー
チウィンドウ内でパターンマッチング(相関演算)を行
い、白線を検出する。そして、各サーチウィンドウ内の
検出結果を比較し、対応するサーチウィンドウ内の検出
結果のうち、いずれか一方を選択して検出結果として出
力する。具体的には、パターンマッチング法により、高
精度に白線を検出できた処理結果を選択して出力する。
In the figure, search windows 200a, 200b, 300a, and 300b are set in a first image 100a, and search windows 202a, 202b, and 3b are set in regions of the second image 100b corresponding to the first image 100a.
02a and 302b are set respectively. The corresponding set of search windows is
a and 202a, 200b and 202b, 300a and 302
a, 300b and 302b. Image recognition processing unit 28c
Thus, the first image 100a and the second image 100b
, A plurality of search windows are set, and pattern matching (correlation calculation) is performed in each search window to detect a white line. Then, the detection results in each search window are compared, and one of the detection results in the corresponding search window is selected and output as the detection result. Specifically, a processing result in which a white line can be detected with high accuracy by the pattern matching method is selected and output.

【0038】例えば、車両が上述したようにトンネル内
に進入する場合を想定すると、第1画像100a内のト
ンネル内画像に設定されたサーチウィンドウ200a、
300aでは白線を検出することができる一方、第2画
像100bの対応するサーチウィンドウであるサーチウ
ィンドウ202a、302aでは露出量が不足している
ため白線を検出することができない。従って、画像認識
処理部28cは、サーチウィンドウ200aとサーチウ
ィンドウ202aでの処理結果を比較し、サーチウィン
ドウ200aでの処理結果を採用して白線検出結果を出
力する。同様にして、サーチウィンドウ300aとサー
チウィンドウ302aの処理結果を比較し、サーチウィ
ンドウ300aの処理結果を選択して出力する。
For example, assuming that the vehicle enters the tunnel as described above, the search window 200a set in the tunnel image in the first image 100a,
While the white line can be detected in 300a, the white line cannot be detected in the search windows 202a and 302a that are the corresponding search windows of the second image 100b because the exposure amount is insufficient. Accordingly, the image recognition processing unit 28c compares the processing results in the search window 200a and the search window 202a, and outputs a white line detection result by using the processing result in the search window 200a. Similarly, the processing results of the search window 300a and the search window 302a are compared, and the processing result of the search window 300a is selected and output.

【0039】また、トンネル外領域に位置するサーチウ
ィンドウ200b、300b、202b、302bに関
しては、第1画像100a内のサーチウィンドウ200
b、300bでは露出オーバ気味であるため白線を検出
することが困難である一方、第2画像100b内のサー
チウィンドウ202b、302bでは減光フィルタ16
により減光されているため適正な露出量で白線を検出す
ることができる。従って、画像認識処理部28cは、サ
ーチウィンドウ200bと202bの処理結果を比較し
て、サーチウィンドウ202bからの処理結果を選択し
て出力する。また、サーチウィンドウ300bと302
bを比較し、サーチウィンドウ302bからの処理結果
を選択して出力する。
The search windows 200b, 300b, 202b, and 302b located outside the tunnel are located in the search window 200 in the first image 100a.
b and 300b, it is difficult to detect a white line due to overexposure, while the search window 202b and 302b in the second image 100b have the darkening filter 16b.
Therefore, the white line can be detected with an appropriate exposure amount. Therefore, the image recognition processing unit 28c compares the processing results of the search windows 200b and 202b, and selects and outputs the processing result from the search window 202b. Also, search windows 300b and 302
b, and selects and outputs the processing result from the search window 302b.

【0040】このように、第1画像100a、第2画像
100bのそれぞれに複数のサーチウィンドウを設け、
対応するサーチウィンドウのうちいずれか一方を選択し
て出力することにより、1つの画像内で輝度が急激に変
化する状況下においても白線を確実に検出することがで
きる。
As described above, a plurality of search windows are provided for each of the first image 100a and the second image 100b,
By selecting and outputting one of the corresponding search windows, it is possible to reliably detect a white line even in a situation where the luminance rapidly changes in one image.

【0041】なお、本実施形態では、説明の都合上サー
チウィンドウを1つの画像内で4個設定した場合につい
て示したが、サーチウィンドウの数は任意に設定するこ
とができる。
In this embodiment, the case where four search windows are set in one image is shown for convenience of explanation, but the number of search windows can be set arbitrarily.

【0042】<第2実施形態>図4には、本実施形態の
構成ブロック図が示されている。本実施形態は、画像内
の白線の傾きが期待される値(例えば45°)から逸脱
している場合に特に有効なものである。
<Second Embodiment> FIG. 4 is a block diagram showing the configuration of the second embodiment. This embodiment is particularly effective when the inclination of the white line in the image deviates from an expected value (for example, 45 °).

【0043】CCDセンサ24は、道路画像を撮影する
撮影手段として機能し、得られた道路画像をアンプ26
に出力する。
The CCD sensor 24 functions as photographing means for photographing a road image, and converts the obtained road image into an amplifier 26.
Output to

【0044】アンプ26は、入力した画像信号を増幅
し、画像処理装置28に出力する。画像処理装置28
は、A/D変換器28a、フレームメモリ28b、画像
認識処理部28cを有している。
The amplifier 26 amplifies the input image signal and outputs it to the image processing device 28. Image processing device 28
Has an A / D converter 28a, a frame memory 28b, and an image recognition processing unit 28c.

【0045】A/D変換器28aは、アンプ26から供
給された画像信号をデジタル信号に変換して、フレーム
メモリ28bに格納する。
The A / D converter 28a converts the image signal supplied from the amplifier 26 into a digital signal and stores the digital signal in the frame memory 28b.

【0046】フレームメモリ28bは、格納した画像信
号を適宜画像認識処理部28cに供給する。
The frame memory 28b supplies the stored image signal to the image recognition processing section 28c as appropriate.

【0047】画像認識処理部28cは、マイクロコンピ
ュータで構成され、後述するようにフレームメモリ28
bから読み出した画像信号と予め用意されたテンプレー
トとのマッチング演算を行い、白線を検出して表示部3
0あるいは車両制御部32に出力する。
The image recognition processing section 28c is constituted by a microcomputer and has a frame memory 28 as described later.
b), a matching operation is performed between the image signal read from b and a template prepared in advance, and a white line is detected and the display unit 3
0 or output to the vehicle control unit 32.

【0048】表示部30及び車両制御部32は、上述し
た第1実施形態と同様に、検出した白線を表示するとと
もに、車両の白線に対する相対変位を検出して車両の操
舵角等を制御する。
The display unit 30 and the vehicle control unit 32 display the detected white line, detect the relative displacement of the vehicle with respect to the white line, and control the steering angle and the like of the vehicle, as in the first embodiment.

【0049】図5には、本実施形態におけるテンプレー
トマッチング法の処理が模式的に示されている。CCD
センサ24にて得られた画像内に白線検出用のサーチウ
ィンドウ400を設定する。そして、このサーチウィン
ドウ400内で予め用意したテンプレート500を順次
移動させつつ所定の演算を行う。ここで、所定の演算と
は、テンプレート500が輝度を数値化した輝度テンプ
レートである場合、得られた画像の輝度と輝度テンプレ
ート500との積和演算を意味する。この積和演算は、
画像の輝度パターンと輝度テンプレートの輝度パターン
との相関を示すことになり、積和演算の値、すなわち積
和値が大きいほど、両者の相関が高いことになる。従っ
て、積和演算を行い、その積和値が所定のしきい値より
大きい場合には、その位置に白線が存在することを検出
できる。
FIG. 5 schematically shows the processing of the template matching method in the present embodiment. CCD
A search window 400 for detecting a white line is set in the image obtained by the sensor 24. Then, a predetermined calculation is performed while sequentially moving the template 500 prepared in advance in the search window 400. Here, the predetermined operation means a product-sum operation of the luminance of the obtained image and the luminance template 500 when the template 500 is a luminance template obtained by digitizing the luminance. This product-sum operation is
This indicates the correlation between the luminance pattern of the image and the luminance pattern of the luminance template. The larger the value of the product-sum operation, that is, the larger the product-sum value, the higher the correlation between the two. Therefore, when a product-sum operation is performed and the product-sum value is larger than a predetermined threshold value, it is possible to detect that a white line exists at that position.

【0050】図6には、従来用いられていた輝度テンプ
レート500の一例が示されている。車両の通常走行状
態では、画像内の白線は約45°の角度で出現すること
に鑑み、45°の境界線を境にして上部を輝度値1
(白)とし、下部を輝度値−1(黒)としている。すな
わち、45°の境界を境にして輝度値1の領域500a
と輝度値−1の領域500bの2つの領域から輝度テン
プレート500が構成されている。このような輝度テン
プレート500により、左白線の右側エッジを検出する
ことができる。
FIG. 6 shows an example of a conventionally used luminance template 500. In the normal running state of the vehicle, in consideration of the fact that the white line in the image appears at an angle of about 45 °, the upper part of the upper side of the 45 ° boundary line has a brightness value of 1.
(White), and the lower part is a luminance value -1 (black). That is, the region 500a of the luminance value 1 with the boundary of 45 ° as a boundary
And a region 500b having a luminance value of -1 constitutes a luminance template 500. With such a luminance template 500, the right edge of the left white line can be detected.

【0051】しかしながら、画像内の白線の傾きが45
°から逸脱している場合、図6に示したような従来の輝
度テンプレート500を用いた場合その積和値が小さく
なり、45°付近にコントラストを有する白線以外の物
体が他に存在する場合には、この物体との積和演算値が
白線との積和演算値より結果的に大きくなる場合があ
り、その物体を白線と誤認識してしまうおそれがある。
However, the inclination of the white line in the image is 45
When the angle deviates from °, the sum of products becomes small when the conventional luminance template 500 shown in FIG. 6 is used, and when there is another object other than the white line having a contrast near 45 °. In some cases, the product-sum operation value with this object may be larger than the product-sum operation value with the white line, and the object may be erroneously recognized as a white line.

【0052】そこで、本実施形態においては、このよう
に輝度値1と−1を有する2つの領域500a、500
bからなる輝度テンプレートを用いるのではなく、高輝
度部分の第1の重み付け(図6では白線部分の重み1)
と低輝度部分の第2の重み付け(図6ではアスファルト
部分の重み−1)に比べて十分その絶対値が小さい第3
の重み付けを所定範囲に有する輝度テンプレートを用い
て道路画像とのテンプレートマッチングを行っている。
Therefore, in this embodiment, the two regions 500a, 500a having the luminance values 1 and -1 are
Instead of using the luminance template consisting of b, first weighting of the high luminance part (weight 1 of the white line part in FIG. 6)
And a third weight whose absolute value is sufficiently smaller than the second weighting of the low-luminance portion (weight-1 of the asphalt portion in FIG. 6).
Template matching with a road image is performed using a luminance template having a weighting of a predetermined range.

【0053】図7には、本実施形態における輝度テンプ
レートの一例が示されている。図6の輝度テンプレート
と異なる点は、重み付け1の領域500aと重み付け−
1の領域500bの境界に、重み付け0の領域500c
及び500dを有する点にある。これらの領域500
c、500dは、重み付け1の領域500aと重み付け
−1の領域500bの境界の所定範囲に設けられる。具
体的には、図に示されるように、45°の境界線に対し
所定角度だけ増減させた領域に設定されており、所定角
度としては、例えば角度αを63°とすることができ
る。
FIG. 7 shows an example of a luminance template according to the present embodiment. 6 is different from the luminance template of FIG.
A region 500c with a weight of 0 is placed at the boundary of the region 500b with a 1
And 500d. These areas 500
c and 500d are provided in a predetermined range of the boundary between the area 500a of weight 1 and the area 500b of weight-1. Specifically, as shown in the figure, the angle is set to a region which is increased or decreased by a predetermined angle with respect to the boundary line of 45 °. As the predetermined angle, for example, the angle α can be set to 63 °.

【0054】以下、図6及び図7の輝度テンプレートを
用いた場合の積和演算の相違について説明する。
The difference between the product-sum operations when the luminance templates shown in FIGS. 6 and 7 are used will be described below.

【0055】図8には、CCDセンサ24で得られた道
路画像の一例が模式的に示されている。(A)は傾きが
63°の白線画像であり、(B)は傾き45°の白線以
外の物体画像である。(A)において、白線部分の輝度
は245、アスファルト部分の輝度は10と数値化さ
れ、コントラストが大きいことを示している。また、
(B)では、物体の明るい部分が230、暗い部分が2
5と数値化されており、白線画像に比べてコントラスト
が低くなっている。このような2つの画像が同一道路画
像内に存在する場合、白線を正しく認識するためにはテ
ンプレートマッチングによる積和演算では(A)に示さ
れた積和演算値の方が(B)に示された積和演算値より
も大きくなる必要がある。仮に、(B)に示された画像
の積和演算値の方が(A)に示された白線画像の積和演
算値よりも大きくなる場合、(B)に示された物体像を
白線と誤認識する、あるいは(A)に示された白線像を
非白線と誤認識してしまうことになる。
FIG. 8 schematically shows an example of a road image obtained by the CCD sensor 24. (A) is a white line image with an inclination of 63 °, and (B) is an object image other than a white line with an inclination of 45 °. In (A), the brightness of the white line portion is 245 and the brightness of the asphalt portion is quantified to 10, indicating that the contrast is large. Also,
In (B), the bright part of the object is 230 and the dark part is 2
The numerical value is 5 and the contrast is lower than that of the white line image. When such two images exist in the same road image, in order to correctly recognize the white line, the product-sum operation value shown in FIG. It must be larger than the calculated product-sum operation value. If the product-sum operation value of the image shown in (B) is larger than the product-sum operation value of the white line image shown in (A), the object image shown in (B) is regarded as a white line. The white line image shown in (A) is erroneously recognized as a non-white line.

【0056】いま、図8に示された画像を所定数の領
域、例えば16領域に分割し、全画像の面積を1に規格
化として図6及び図7に示された輝度テンプレートとの
積和演算を行うと以下のようになる。すなわち、(A)
に示された画像と図6に示された従来の輝度テンプレー
トとの積和演算値S1は、
Now, the image shown in FIG. 8 is divided into a predetermined number of areas, for example, 16 areas, and the area of all the images is normalized to 1 and the product sum with the luminance template shown in FIGS. The operation is as follows. That is, (A)
The product-sum operation value S1 of the image shown in FIG. 6 and the conventional luminance template shown in FIG.

【数1】 S1=245×7/16+10×1/16+(−245)× 1/16+(−10)×7/16=88.125 ・・・(1) また、(B)に示された画像と従来の輝度テンプレート
との積和演算値S2は、
S1 = 245 × 7/16 + 10 × 1/16 + (− 245) × 1/16 + (− 10) × 7/16 = 88.125 (1) Further, it is shown in (B). The product-sum operation value S2 of the image and the conventional luminance template is

【数2】 S2=230×8/16+(−25)×8/16=102.5 ・・・(2) となる。従って、S1<S2となるので、図6に示され
た従来の輝度テンプレート500を用いた場合には、
(B)に示された物体画像を白線画像と誤認識してしま
うことになる。
S2 = 230 × 8/16 + (− 25) × 8/16 = 102.5 (2) Therefore, since S1 <S2, when the conventional luminance template 500 shown in FIG. 6 is used,
The object image shown in (B) is erroneously recognized as a white line image.

【0057】一方、(A)に示された画像と図7に示さ
れる本実施形態の輝度テンプレートとの積和演算値S
1’は
On the other hand, the product-sum operation value S of the image shown in FIG. 7A and the luminance template of this embodiment shown in FIG.
1 'is

【数3】 S1’=245×6/16+0×2/16+0×2/16+(−10) ×6/16=88.125 ・・・(3) また、(B)に示された画像と図7に示された本実施形
態の輝度テンプレートとの積和演算値S2’は
S1 ′ = 245 × 6/16 + 0 × 2/16 + 0 × 2/16 + (− 10) × 6/16 = 88.125 (3) Further, the image and figure shown in (B) 7, the product-sum operation value S2 ′ with the luminance template of the present embodiment is

【数4】 S2’=230×6/16+0×2/16+0×2/16+0×2/16+ (−25)×6/16=76.875 ・・・(4) となる。従ってS1’>S2’となるので、本実施形態
の輝度テンプレートを用いた積和演算においては、
(B)に示された物体画像を白線と誤認識することはな
く、(A)に示された傾き63°の白線画像を白線と正
しく認識することができる。これは、45°近傍に重み
付け0の領域を設定することで、45°から白線の傾き
が若干変化してもそれが積和演算に大きな影響を与えな
いようにしたことによるものである。すなわち、重み付
け0の領域は、積和演算にとって不感帯として機能する
ことになる。
S2 ′ = 230 × 6/16 + 0 × 2/16 + 0 × 2/16 + 0 × 2/16 + (− 25) × 6/16 = 76.875 (4) Therefore, since S1 ′> S2 ′, in the product-sum operation using the luminance template of the present embodiment,
The object image shown in (B) is not erroneously recognized as a white line, and the white line image with an inclination of 63 ° shown in (A) can be correctly recognized as a white line. This is because, by setting an area with a weight of 0 near 45 °, even if the inclination of the white line slightly changes from 45 °, it does not significantly affect the product-sum operation. That is, the area with the weight of 0 functions as a dead zone for the product-sum operation.

【0058】なお、上述においては左白線の右エッジを
検出する場合について特に示したが、左白線の左エッ
ジ、あるいは右白線の左エッジあるいは右エッジを検出
する場合にも、同様に第3の重み付けを有する輝度テン
プレートを用いて検出することができる。
Although the case where the right edge of the left white line is detected has been particularly described above, the third case is similarly applied to the case where the left edge of the left white line or the left edge or the right edge of the right white line is detected. It can be detected using a weighted luminance template.

【0059】また、輝度テンプレートを工夫すること
で、左白線あるいは右白線の両エッジを同時に検出する
ことも可能である。図9には、左白線の左右エッジを同
時に検出する場合の輝度テンプレート500の一例が示
されている。白線部分が重み付け1の領域500gで、
アスファルト部分が重み付け−1の領域500eと領域
500iであり、白線部分とアスファルト部分の境界に
重み付け0の領域500fと500hが設けられてい
る。領域500e〜領域500gで左白線の左エッジを
検出し、領域500g〜領域500iで左白線の右エッ
ジを検出する。
By devising a luminance template, both edges of a left white line or a right white line can be detected at the same time. FIG. 9 shows an example of the luminance template 500 when the left and right edges of the left white line are simultaneously detected. The white line is the area 500g with weight 1,
The asphalt portion is a region 500e and a region 500i with a weight of −1, and regions 500f and 500h with a weight of 0 are provided at the boundary between the white line portion and the asphalt portion. The left edge of the left white line is detected in the regions 500e to 500g, and the right edge of the left white line is detected in the regions 500g to 500i.

【0060】このように、重み付け0の領域を白線部分
(高輝度部分)とアスファルト部分(低輝度部分)の境
界に設けることで、多少の白線幅の変動及び傾きの変動
に影響されずに白線の両エッジを検出することが可能と
なる。
As described above, by providing the area of weight 0 at the boundary between the white line portion (high-luminance portion) and the asphalt portion (low-luminance portion), the white line is not affected by the variation of the white line width and the variation of the inclination. Can be detected.

【0061】なお、高輝度部分と低輝度部分の領域に設
定される第3の重み付けの値を複数設定することも可能
である。
It is also possible to set a plurality of third weighting values to be set for the high luminance portion and the low luminance portion.

【0062】図10には、第3の重み付けを複数(図に
おいては4つ)設定する場合の一例が示されている。重
み付け1の領域500aと重み付け−1の500bの他
に、その境界の所定範囲に重み付け0.25の領域50
0j、重み付け−0.75の領域500k、重み付け
0.75の領域500m、重み付け−0.25の領域5
00nが設けられている。
FIG. 10 shows an example in which a plurality of (three in the figure) third weights are set. In addition to the area 500a having a weight of 1 and the area 500b having a weight of -1, an area 50 having a weight of 0.25 is located within a predetermined range of the boundary.
0j, area 500k with a weight of -0.75, area 500m with a weight of 0.75, area 5 with a weight of -0.25
00n is provided.

【0063】このように、第3の重み付けを複数個設定
することで、白線の特定方向の傾きを優先的に検出する
ことができる。図10においては、特に傾きが大きくな
るような白線を優先的に検出できる輝度テンプレートで
あり、具体的な車両の走行状態としては、ある車線から
隣接車線に車線変更する場合の白線を検出するのに好適
である。以下、具体的な積和演算について説明する。
As described above, by setting a plurality of third weights, it is possible to preferentially detect the inclination of the white line in a specific direction. FIG. 10 shows a luminance template that can preferentially detect a white line with a particularly large inclination. As a specific running state of the vehicle, a white line when a lane is changed from a certain lane to an adjacent lane is detected. It is suitable for. Hereinafter, a specific product-sum operation will be described.

【0064】図11には、種々の傾きを有する白線画像
が模式的に示されている。(A)は傾きが63°の場合
の白線画像であり、白線部分の輝度値は245、アスフ
ァルト部分の輝度値は10である。(B)は傾きが27
°の場合の白線画像であり、(C)は傾きが45°の場
合の白線画像である。通常は(C)に示されるように傾
きが45°の白線画像が得られるが、車両が車線変更を
行う場合、その方向の白線は(A)に示されるようにそ
の傾きが大きくなる。一方、反対側の車線は、(B)に
示されるようにその傾きが小さくなる。図10に示され
た輝度テンプレート500の目的は、車線変更を行う側
の白線、すなわち(A)に示された傾きが45°より大
きい白線画像を他の白線画像に比べて優先的に検出する
ことにある。
FIG. 11 schematically shows white line images having various inclinations. (A) is a white line image when the inclination is 63 °, the luminance value of the white line portion is 245, and the luminance value of the asphalt portion is 10. (B) shows a slope of 27.
(C) is a white line image when the inclination is 45 °. Normally, a white line image having an inclination of 45 ° is obtained as shown in (C), but when the vehicle changes lanes, the inclination of the white line in that direction becomes large as shown in (A). On the other hand, the slope of the opposite lane becomes small as shown in FIG. The purpose of the luminance template 500 shown in FIG. 10 is to preferentially detect a white line on the side where the lane change is performed, that is, a white line image with an inclination larger than 45 ° shown in FIG. It is in.

【0065】図11(A)、(B)、(C)それぞれに
対して、図10に示された輝度テンプレートを用いて積
和演算を行うと、以下のようになる。すなわち、(A)
と輝度テンプレート500との積和演算値S3’は、
When the product-sum operation is performed on each of FIGS. 11A, 11B, and 11C using the luminance template shown in FIG. 10, the following results are obtained. That is, (A)
-Sum operation value S3 'of the luminance template 500 and

【数5】 S3’=245×{1×6/16+0.75×1/16+(−0.25)× 1/16}+10×{−1×6/16+(−0.75)×1/16 +0.25×1/16}=95.46875 ・・・(5) また、(B)の画像と輝度テンプレート500との積和
演算値S4’は
S3 ′ = 245 × {1 × 6/16 + 0.75 × 1/16 + (− 0.25) × 1/16} + 10 × Δ−1 × 6/16 + (− 0.75) × 1 / 16 + 0.25 × 1/16} = 95.46875 (5) Further, the product-sum operation value S4 ′ of the image of FIG.

【数6】 S4’=245×{1×6/16+0.25×1/16+(−0.75)× 1/16}+10×{−1×6/16+(−0.25)×1/16 +0.75×1/16}=80.78125 ・・・(6) また、(C)の画像と輝度テンプレート500との積和
演算値S5’は
S4 ′ = 245 × {1 × 6/16 + 0.25 × 1/16 + (− 0.75) × 1/16} + 10 × Δ−1 × 6/16 + (− 0.25) × 1 / 16 + 0.75 × 1/16} = 80.78125 (6) Further, the product-sum operation value S5 ′ of the image of FIG.

【数7】 S5’=245×{1×6/16+0.25×1/16+0.75 ×1/16}+10×{(−1)×6/16+(−0.25) ×1/16+(−0.75)×1/16}=102.8125 ・・・(7) 従って、S3’>S4’となるので、(B)に示された
画像よりも(A)に示された画像の方がより白線として
検出されやすくなる。
S5 ′ = 245 × {1 × 6/16 + 0.25 × 1/16 + 0.75 × 1/16} + 10 × {(− 1) × 6/16 + (− 0.25) × 1/16 + ( −0.75) × 1/16} = 102.8125 (7) Accordingly, S3 ′> S4 ′, so that the image shown in FIG. Is more easily detected as a white line.

【0066】一方、図6に示された従来の輝度テンプレ
ートを用いた場合には、(A)〜(C)に示された画像
との積和演算値S3、S4、S5はそれぞれ以下のよう
になる。
On the other hand, when the conventional luminance template shown in FIG. 6 is used, the product-sum operation values S3, S4, and S5 with the images shown in (A) to (C) are as follows. become.

【0067】[0067]

【数8】 S3=245×1×6/16+10×(−1)×6/16=88.125 ・・・(8)S3 = 245 × 1 × 6/16 + 10 × (−1) × 6/16 = 88.125 (8)

【数9】 S4=245×1×6/16+10×(−1)×6/16=88.125 ・・・(9)S4 = 245 × 1 × 6/16 + 10 × (−1) × 6/16 = 88.125 (9)

【数10】 S5=245×1×6/16+10×(−1)×6/16=88.125 ・・・(10) すなわち、S3、S4、S5はいずれも同一の値とな
り、白線の傾きが45°より大きい(A)に示される画
像を(B)に示される画像よりも優先的に白線として検
出することが不可能であることがわかる。このことか
ら、図10に示される輝度テンプレートの有効性が明ら
かであろう。
S5 = 245 × 1 × 6/16 + 10 × (−1) × 6/16 = 88.125 (10) That is, S3, S4, and S5 all have the same value, and the slope of the white line It can be seen that it is impossible to detect the image shown in (A) larger than 45 ° as a white line with higher priority than the image shown in (B). From this, the effectiveness of the luminance template shown in FIG. 10 will be clear.

【0068】以上、本実施形態について説明したが、本
実施形態における第3の重み付けの値は必ずしも0(図
7の場合)や0.25、−0.75等(図10の場合)
に限定されることなく、第1の重み付けである1及び第
2の重み付けである−1に比べてその絶対値が十分小さ
い値であれば任意の値を用いることが可能である。ま
た、第1の重み付けの値及び第2の重み付けの値も、
1、−1に限定されることなく、任意の値を用いること
が可能である。
Although the present embodiment has been described above, the third weighting value in this embodiment is not necessarily 0 (in the case of FIG. 7), 0.25, -0.75 or the like (in the case of FIG. 10).
However, any value can be used as long as its absolute value is sufficiently small as compared with 1 as the first weight and −1 as the second weight. Also, the value of the first weight and the value of the second weight are
Any value can be used without being limited to 1, -1.

【0069】また、第3の重み付けを有する所定範囲
は、適宜決定することが可能であるが、例えば次のよう
に決定することも可能である。すなわち、画像の横方向
をX、縦方向をY、CCDセンサ24から左白線及び右
白線までの車軸に垂直な方向の距離をそれぞれBLとB
R、CCDセンサ24の路面からの高さをH、CCDセ
ンサ24上の1ピクセルの縦横の大きさをそれぞれpd
vとpdh、車両の白線に対するヨー角をyaw、光軸
の路面に対する角度をthとした場合、画像上の左白線
の傾きPL及び右白線の傾きPRは、
The predetermined range having the third weight can be determined as appropriate, but can be determined as follows, for example. That is, the horizontal direction of the image is X, the vertical direction is Y, and the distance from the CCD sensor 24 to the left white line and the right white line in the direction perpendicular to the axle is BL and B, respectively.
R, the height of the CCD sensor 24 from the road surface is H, and the vertical and horizontal size of one pixel on the CCD sensor 24 is pd.
When v and pdh, the yaw angle of the vehicle with respect to the white line is yaw, and the angle of the optical axis with respect to the road surface is th, the inclination PL of the left white line and the inclination PR of the right white line on the image are:

【数11】 PL=(BL×cos(th)/(−H)+yaw×sin(th))/ pdh×pdv ・・・(11)PL = (BL × cos (th) / (− H) + yaw × sin (th)) / pdh × pdv (11)

【数12】 PR=(BR×cos(th)/(−H)+yaw×sin(th))/ pdh×pdv ・・・(12) となる。ここで、CDDの高さH、1ピクセルの大きさ
pdh、pdvは既知で一定の値であるので、BL、B
R、th、yawを予想範囲内に変化させた場合のP
L、PRの最大値及び最小値から所定範囲の角度αを算
出すればよい。
## EQU12 ## PR = (BR × cos (th) / (− H) + yaw × sin (th)) / pdh × pdv (12) Here, since the height H of the CDD and the sizes pdh and pdv of one pixel are known and constant, BL, B
P when R, th, yaw are changed within the expected range
The angle α in a predetermined range may be calculated from the maximum and minimum values of L and PR.

【0070】<第3実施形態>図12には、本実施形態
の構成ブロック図が示されている。本実施形態は、特に
路面に水たまりが存在して白線以外の高輝度部分が出現
する場合に有効なものである。
<Third Embodiment> FIG. 12 is a block diagram showing the configuration of the third embodiment. This embodiment is particularly effective when a puddle exists on the road surface and a high-luminance portion other than a white line appears.

【0071】本実施形態においては、撮影手段は垂直偏
光用と水平偏光用の2系統を有している。垂直偏光フィ
ルタ34は、入射光のうち垂直偏光成分のみを透過させ
るもので、透過した垂直偏光の光を垂直偏光用CCDセ
ンサ24aに投影する。
In the present embodiment, the photographing means has two systems for vertical polarization and horizontal polarization. The vertical polarization filter 34 transmits only the vertical polarization component of the incident light, and projects the transmitted vertical polarization light onto the vertical polarization CCD sensor 24a.

【0072】水平偏光用フィルタは、入射光のうち、水
平偏光のみを透過する物で、透過した水平偏光の光を水
平偏光用CCDセンサ24bに投影する。
The horizontal polarization filter transmits only the horizontal polarization of the incident light, and projects the transmitted horizontal polarization light onto the horizontal polarization CCD sensor 24b.

【0073】垂直偏光用CCDセンサ24a及び水平偏
光用CCDセンサ24bは、それぞれ入射した光を電気
信号に変換し、同期出力アンプ26a,26bに出力す
る。
The vertical polarization CCD sensor 24a and the horizontal polarization CCD sensor 24b convert the incident light into electric signals and output the electric signals to the synchronous output amplifiers 26a and 26b.

【0074】同期出力アンプ26a,26bは、入力し
た電気信号を増幅し、それぞれ画像処理装置28に出力
する。
The synchronous output amplifiers 26a and 26b amplify the input electric signal and output the amplified electric signal to the image processing device 28, respectively.

【0075】画像処理装置28は、垂直偏光用及び水平
偏光用それぞれのA/D変換器28a,28d、フレー
ムメモリ28b,28e、さらには画像認識処理部28
cを有しており、入力した画像信号をデジタル信号に変
換し、フレームメモリ28b,28eに格納する。
The image processing device 28 includes A / D converters 28a and 28d for vertical polarization and horizontal polarization, frame memories 28b and 28e, and an image recognition processor 28.
c, and converts the input image signal into a digital signal and stores it in the frame memories 28b and 28e.

【0076】画像認識処理部28cは、マイクロコンピ
ュータで構成され、フレームメモリ28b、28eに格
納された画像データを適宜読み出し、後述する水たまり
による鏡面反射成分を除去して水たまり以外の路面によ
る散乱光画像のみを抽出し、この散乱光画像から画像内
の白線を検出する。検出した白線は表示部30に供給す
るとともに、車両制御部32に供給する。表示部30及
び車両制御部32は、上述した第1及び第2実施形態と
同様に、検出した白線をCRTや液晶等に表示し、また
車両の白線に対する相対変位を検出して車両の操舵角等
を制御する。
The image recognition processing section 28c is constituted by a microcomputer, reads out the image data stored in the frame memories 28b and 28e as appropriate, removes a specular reflection component due to a puddle, which will be described later, and scatters a light image on a road surface other than a puddle. Only the white lines in the image are detected from the scattered light image. The detected white line is supplied to the display unit 30 and to the vehicle control unit 32. The display unit 30 and the vehicle control unit 32 display the detected white line on a CRT, a liquid crystal, or the like, and detect the relative displacement of the vehicle with respect to the white line, similarly to the first and second embodiments described above, to detect the steering angle of the vehicle. And so on.

【0077】本実施形態においては、上述した通り、画
像認識処理部28cにおいて入力した画像に含まれる鏡
面反射成分を除去し、散乱光成分のみの画像を得て白線
を検出する点に特徴がある。
As described above, the present embodiment is characterized in that the specular reflection component included in the input image is removed by the image recognition processing unit 28c, and an image including only the scattered light component is obtained to detect a white line. .

【0078】従来より、道路の水たまり等により太陽光
が鏡面反射し、この水たまり部分を道路の白線と誤認識
することを防止すべく、水たまり等による鏡面反射成分
を除去する方法が提案されている。例えば、特開平7−
128059号公報には、鏡面反射の水平偏光成分がブ
リュースター角でほぼ0となることに着目し、水平偏光
画像から白線を検出する技術が示されている。この技術
によれば、ブリュースター角近傍の鏡面反射成分は0と
なるため散乱光成分のみを抽出でき、白線を検出するこ
とが可能となるが、入射角がブリュースター角より大き
い場合(特に車両の前部にカメラを設置して前方画像を
撮影する場合)には、水平偏光成分が0から徐々に増大
するため水平偏光画像にも鏡面反射成分が含まれること
となり、このため散乱光画像である白線のみを検出する
ことが困難となる問題が生ずる。
Conventionally, there has been proposed a method of removing a specular reflection component due to a puddle or the like in order to prevent the sunlight from being specularly reflected due to a puddle on the road or the like and erroneously recognizing the puddle as a white line on the road. . For example, JP-A-7-
128059 discloses a technique for detecting a white line from a horizontally polarized image, paying attention to the fact that the horizontal polarization component of specular reflection becomes substantially zero at Brewster's angle. According to this technique, the specular reflection component in the vicinity of the Brewster angle is 0, so that only the scattered light component can be extracted and a white line can be detected. In the case where a camera is installed in front of the camera and a front image is photographed), the horizontal polarization image gradually increases from 0, so that the horizontal polarization image also includes the specular reflection component. There is a problem that it is difficult to detect only a certain white line.

【0079】そこで、本実施形態においては、このよう
に水平偏光画像のみを用いた場合の問題点を解決すべ
く、垂直偏光成分及び水平偏光成分を巧みに用いて入射
角によらずに鏡面反射成分を除去して白線を確実に検出
するものである。
Therefore, in the present embodiment, in order to solve the problem when only the horizontally polarized image is used, the vertical and horizontal polarized light components are skillfully used to perform specular reflection regardless of the incident angle. The white line is reliably detected by removing the component.

【0080】図13には、鏡面反射の場合(水たまり)
の入射角に対する反射率の関係が示されている。図にお
いて、横軸は入射角(deg)、すなわち反射面の法線
に対する角度であり、縦軸は反射率である。また、曲線
aは垂直偏光成分、曲線bは水平偏光成分、曲線cは垂
直偏光成分と水平偏光成分の混合光の平均(すなわち
(a+b)/2)、曲線dは垂直偏光成分aと水平偏光
成分bの差分(偏光差分)をそれぞれ示している。入射
角がブリュースター角の場合には、図に示すように水平
偏光成分が0となる。一方、入射角がブリュースター角
より大きくなると垂直偏光成分と同様に水平偏光成分も
徐々に増大していく。曲線dで示される偏光差分は、入
射角80°近傍までは徐々に増大し、80°以上となる
と徐々に減少していく特性を示す。
FIG. 13 shows a case of specular reflection (a puddle).
The relationship of the reflectance with respect to the incident angle is shown. In the figure, the horizontal axis is the incident angle (deg), that is, the angle with respect to the normal to the reflecting surface, and the vertical axis is the reflectance. Curve a is the vertical polarization component, curve b is the horizontal polarization component, curve c is the average of the mixed light of the vertical polarization component and the horizontal polarization component (that is, (a + b) / 2), and curve d is the vertical polarization component a and the horizontal polarization component. The difference (polarization difference) of the component b is shown. When the incident angle is the Brewster angle, the horizontal polarization component becomes 0 as shown in the figure. On the other hand, when the incident angle becomes larger than the Brewster angle, the horizontal polarization component gradually increases as does the vertical polarization component. The polarization difference indicated by the curve d shows a characteristic that it gradually increases up to an incident angle near 80 °, and gradually decreases when it exceeds 80 °.

【0081】ここで、散乱光の場合には、垂直偏光成分
と水平偏光成分がほぼ等量含まれているため、垂直偏光
成分と水平偏光成分の差分である偏光差分は入射角によ
らずほぼ0となる。従って、偏光差分値を検出すること
で、入射光が散乱光かあるいは鏡面反射光かを識別する
ことが可能となる。画像認識処理部28cは、以上のよ
うな原理に基づいて鏡面反射光を特定し、道路画像から
鏡面反射成分のみを除去することで水たまりによる擬似
白線像を除去する。
Here, in the case of scattered light, since the vertical polarization component and the horizontal polarization component are contained in substantially equal amounts, the polarization difference which is the difference between the vertical polarization component and the horizontal polarization component is substantially independent of the incident angle. It becomes 0. Therefore, by detecting the polarization difference value, it is possible to identify whether the incident light is scattered light or specular reflected light. The image recognition processing unit 28c specifies the specular reflection light based on the above principle, and removes the pseudo white line image due to the puddle by removing only the specular reflection component from the road image.

【0082】図14には、画像認識処理部28cにおけ
る具体的な演算処理が示されている。まず、画像認識処
理部28cは、垂直偏光画像Aを取得する(S10
1)。次に、水平偏光画像Bを取得し(S102)、両
画像の差分を演算して差分画像D=|A−B|を算出す
る(S103)。この差分画像は、上述したように鏡面
反射成分を反映したものである。
FIG. 14 shows a specific calculation process in the image recognition processing section 28c. First, the image recognition processing unit 28c acquires the vertically polarized image A (S10).
1). Next, a horizontally polarized image B is obtained (S102), and a difference between the two images is calculated to calculate a difference image D = | AB | (S103). This difference image reflects the specular reflection component as described above.

【0083】ただし、例えばこの差分画像を水平偏光画
像Bから差し引くことにより散乱光成分のみを取り出す
場合、水平偏光画像自体にもその入射角に応じた鏡面反
射成分が含まれている(図13参照)。従って、入射角
に応じた補正係数として入射角θにおける偏光差分をそ
の入射角θにおける水平偏光成分反射率で割った値を係
数Iとし、このIを差分Dに乗じることによりその入射
角θにおける鏡面反射成分Eを算出する(S104)。
すなわち、補正係数Iは、偏光成分差分に対する水平偏
光成分の比率であり、ある入射角において偏光差分が存
在する場合、水と空気の境界における反射特性によりD
・Iだけの水平偏光成分が含まれるという事実から導き
出される係数である。例えば、入射角80°の場合、偏
光反射率差分値は0.24、水平偏光成分反射率は0.
22なので、補正係数I=0.24/0.22となる。
ブリュースター角においては水平偏光反射率は0である
ので補正係数は0とする。
However, when only the scattered light component is extracted by subtracting the difference image from the horizontal polarization image B, for example, the horizontal polarization image itself also includes a specular reflection component corresponding to the incident angle (see FIG. 13). ). Therefore, as a correction coefficient corresponding to the incident angle, a value obtained by dividing the polarization difference at the incident angle θ by the horizontal polarization component reflectivity at the incident angle θ is defined as a coefficient I. The specular reflection component E is calculated (S104).
That is, the correction coefficient I is a ratio of the horizontal polarization component to the polarization component difference, and when a polarization difference exists at a certain incident angle, D is calculated by the reflection characteristic at the boundary between water and air.
A coefficient derived from the fact that only I horizontal polarization components are included. For example, when the incident angle is 80 °, the polarization reflectance difference value is 0.24, and the horizontal polarization component reflectance is 0.2.
Since it is 22, the correction coefficient I = 0.24 / 0.22.
Since the horizontal polarization reflectance is 0 at the Brewster angle, the correction coefficient is set to 0.

【0084】以上のようにして、入射角θにおける鏡面
反射成分Eを算出した後、画像認識処理部28cは散乱
光画像Fを水平偏光画像Bと鏡面反射成分Eとの差分か
ら演算する(S105)。そして、散乱光画像Fから画
像内の白線を検出し、表示部30や車両制御部32に出
力する(S106)。
After calculating the specular reflection component E at the incident angle θ as described above, the image recognition processing unit 28c calculates the scattered light image F from the difference between the horizontal polarization image B and the specular reflection component E (S105). ). Then, a white line in the image is detected from the scattered light image F and output to the display unit 30 and the vehicle control unit 32 (S106).

【0085】なお、S106における白線認識は、例え
ば第2実施形態におけるテンプレーマッチング法を用い
ることができ、差分演算等は、具体的には各画像の画素
値を行列の成分とする行列演算で行うことができる。
The white line recognition in S106 can use, for example, the template matching method in the second embodiment. The difference calculation or the like is specifically a matrix calculation using the pixel value of each image as a matrix component. It can be carried out.

【0086】また、S104における補正係数Iは、入
射角の関数として決定されることになるが、画像内の入
射角は、その画像内の位置から算出することができる。
すなわち、入射角が小さいほど画像内の下部に位置し、
入射角が大なるほど画像の上部に位置する。従って、画
像内の縦方向位置に基づき入射角を推定し、その入射角
に基づいて補正係数Iを入射角毎に算出すればよい。具
体的には、CCDカメラ24の車両上における取り付け
位置、角度は既知であるので、路面が車両直下から一定
であると仮定して、画像上の位置から入射角を計算でき
る。すなわち、カメラの路面に対する光軸の角度をa
(下方向が正)、対象とする画素の画像中心から上下方
向(縦方向)の画素数をb(下方向が正)、上下方向の
1画素に対する撮影角度をcとすると、入射角度dはd
=90−(a+bc)となる。
The correction coefficient I in S104 is determined as a function of the incident angle. The incident angle in the image can be calculated from the position in the image.
That is, the smaller the incident angle, the lower the position in the image,
The larger the angle of incidence, the higher the position of the image. Therefore, the incident angle may be estimated based on the vertical position in the image, and the correction coefficient I may be calculated for each incident angle based on the incident angle. Specifically, since the mounting position and angle of the CCD camera 24 on the vehicle are known, the incident angle can be calculated from the position on the image, assuming that the road surface is constant from directly below the vehicle. That is, the angle of the optical axis with respect to the road surface of the camera is a
If the number of pixels in the vertical direction (vertical direction) from the image center of the target pixel is b (downward is positive) and the shooting angle for one pixel in the vertical direction is c, the incident angle d is d
= 90− (a + bc).

【0087】図5〜図19には、以上述べた処理の様子
が模式的に示されている。図15は、垂直偏光フィルタ
及び水平偏光フィルタ36を用いない場合の道路画像で
ある。散乱光成分及び鏡面反射成分が共に含まれてお
り、例えば雨天時等には高輝度部分として白線部分の他
に水たまり部分等が存在し、パターンマッチング法等に
よっては白線のみを検出することが困難である。
FIGS. 5 to 19 schematically show the processing described above. FIG. 15 is a road image when the vertical polarization filter and the horizontal polarization filter 36 are not used. Both the scattered light component and the specular reflection component are included.For example, in rainy weather, there is a puddle portion in addition to the white line portion as a high luminance portion, and it is difficult to detect only the white line by a pattern matching method or the like. It is.

【0088】図16は、水平偏光フィルタ36を透過し
た水平偏光画像Bであり、入射角が大きい画像上部の部
分(距離的に遠い部分)において特に鏡面反射成分が多
く出現する(図13を参照)。ブリュースター角近傍に
おいては鏡面反射成分はほぼ0である。
FIG. 16 is a horizontal polarization image B transmitted through the horizontal polarization filter 36. In the upper part of the image (part farther away) where the incident angle is large, particularly a large amount of specular reflection components appear (see FIG. 13). ). Near the Brewster angle, the specular reflection component is almost zero.

【0089】図17には、垂直偏光フィルタ34を透過
した垂直偏光画像Aが示されており、白線部分を含めほ
ぼ全ての領域が高輝度部分となり、白線部分のみを抽出
することはほとんどできない。鏡面反射成分の垂直偏光
成分は、全ての入射角において有限の値を有しているか
らである。
FIG. 17 shows a vertical polarization image A transmitted through the vertical polarization filter 34. Almost all regions including the white line portion become high luminance portions, and it is almost impossible to extract only the white line portion. This is because the vertical polarization component of the specular reflection component has a finite value at all incident angles.

【0090】図18には、垂直偏光画像Aから水平偏光
画像Bを差し引いた差分画像Dが示されている。散乱光
は水平偏光成分と垂直偏光成分がほぼ等量含まれている
ため散乱光による白線画像部分はほぼ0となり、散乱光
以外の鏡面反射成分が多く出現する。
FIG. 18 shows a difference image D obtained by subtracting the horizontal polarization image B from the vertical polarization image A. Since the scattered light contains substantially equal amounts of the horizontal polarization component and the vertical polarization component, the white line image portion due to the scattered light is almost zero, and many specular reflection components other than the scattered light appear.

【0091】図19には、最終的な結果である水平偏光
画像Bから補正係数Iにより補正した差分画像Dを差し
引いた画像が模式的に示されている。散乱光による白線
画像のみが抽出され、水たまりを含むアスファルト部分
は除去されて鏡面反射成分は含まれない。従って、この
図19に示された画像から容易に白線のみを検出するこ
とができる。
FIG. 19 schematically shows an image obtained by subtracting the difference image D corrected by the correction coefficient I from the horizontal polarization image B which is the final result. Only the white line image due to the scattered light is extracted, the asphalt portion including the puddle is removed, and the specular reflection component is not included. Therefore, only the white line can be easily detected from the image shown in FIG.

【0092】なお、本実施形態においては、水平偏光画
像から差分画像を差し引くことにより散乱光画像を得て
いるが、水平偏光画像の代わりに垂直偏光画像A、ある
いは水平偏光画像と垂直偏光画像の混合画像(水平偏光
画像と垂直偏光画像の平均でも良く、偏光フィルタを透
過しない画像でも良い)と差分画像との差分演算を行う
ことにより散乱光画像を得ることも可能である。この
際、例えば垂直偏光画像を用いた場合には、補正係数I
として入射角θの時の偏光差分をその入射角θにおける
垂直偏光成分反射率で割ればよく、混合画像を用いる場
合も同様である。
In this embodiment, the scattered light image is obtained by subtracting the difference image from the horizontal polarization image. However, instead of the horizontal polarization image, the vertical polarization image A or the horizontal polarization image and the vertical polarization image are obtained. It is also possible to obtain a scattered light image by performing a difference operation between the mixed image (the average of the horizontal polarization image and the vertical polarization image or an image that does not pass through the polarization filter) and the difference image. At this time, for example, when a vertically polarized image is used, the correction coefficient I
The polarization difference at the incident angle θ may be divided by the vertical polarization component reflectance at the incident angle θ, and the same applies when a mixed image is used.

【0093】以上、本発明の実施形態について説明した
が、第1〜第3実施形態における処理は画像処理装置2
8内の画像認識処理部28cに処理プログラムをインス
トールすることにより実行することができる。かかるプ
ログラムは、プログラムを記録した媒体から供給するこ
とができ、媒体としてはCD−ROMやDVD−RO
M、ハードディスクやフロッピーディスク等の磁気ディ
スク、半導体メモリ等任意の媒体を用いることが可能で
ある。
Although the embodiment of the present invention has been described above, the processing in the first to third embodiments is the same as that of the image processing apparatus 2.
8 can be executed by installing a processing program in the image recognition processing unit 28c. Such a program can be supplied from a medium on which the program is recorded, and the medium may be a CD-ROM or DVD-RO
It is possible to use any medium such as M, a magnetic disk such as a hard disk and a floppy disk, and a semiconductor memory.

【0094】[0094]

【発明の効果】以上説明したように、本発明によれば、
走行環境あるいは撮影環境によらず道路上のラインを確
実に検出することができる。
As described above, according to the present invention,
Lines on the road can be reliably detected irrespective of the traveling environment or the photographing environment.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の第1実施形態の構成ブロック図であ
る。
FIG. 1 is a configuration block diagram of a first embodiment of the present invention.

【図2】 同実施形態における第1画像と第2画像の説
明図である。
FIG. 2 is an explanatory diagram of a first image and a second image in the embodiment.

【図3】 同実施形態におけるサーチウィンドウの設定
説明図である。
FIG. 3 is an explanatory diagram of setting a search window in the embodiment.

【図4】 本発明の第2実施形態における構成ブロック
図である。
FIG. 4 is a configuration block diagram according to a second embodiment of the present invention.

【図5】 同実施形態におけるパターンマッチング法の
説明図である。
FIG. 5 is an explanatory diagram of a pattern matching method in the embodiment.

【図6】 従来の輝度テンプレートの説明図である。FIG. 6 is an explanatory diagram of a conventional luminance template.

【図7】 同実施形態における輝度テンプレートの説明
図である。
FIG. 7 is an explanatory diagram of a luminance template in the embodiment.

【図8】 同実施形態における道路画像例を示す説明図
である。
FIG. 8 is an explanatory diagram showing an example of a road image in the embodiment.

【図9】 同実施形態における他の輝度テンプレートの
説明図である。
FIG. 9 is an explanatory diagram of another luminance template in the embodiment.

【図10】 同実施形態における更に他の輝度テンプレ
ートの説明図である。
FIG. 10 is an explanatory diagram of still another luminance template in the embodiment.

【図11】 同実施形態における道路画像の他の例を示
す説明図である。
FIG. 11 is an explanatory diagram showing another example of the road image in the embodiment.

【図12】 本発明の第3実施形態における構成ブロッ
ク図である。
FIG. 12 is a configuration block diagram according to a third embodiment of the present invention.

【図13】 入射角に対する反射率の関係を示すグラフ
図である。
FIG. 13 is a graph showing the relationship between the incident angle and the reflectance.

【図14】 同実施形態における処理フローチャートで
ある。
FIG. 14 is a processing flowchart in the embodiment.

【図15】 同実施形態における偏光フィルタを透過し
ない場合の画像説明図である。
FIG. 15 is an explanatory diagram of an image when the light does not pass through the polarizing filter in the embodiment.

【図16】 水平偏光画像の説明図である。FIG. 16 is an explanatory diagram of a horizontally polarized image.

【図17】 垂直偏光画像の説明図である。FIG. 17 is an explanatory diagram of a vertically polarized image.

【図18】 垂直偏光画像から水平偏光画像を差し引い
た差分画像の説明図である。
FIG. 18 is an explanatory diagram of a difference image obtained by subtracting a horizontal polarization image from a vertical polarization image.

【図19】 水平偏光画像から差分画像を差し引いた画
像の説明図である。
FIG. 19 is an explanatory diagram of an image obtained by subtracting a difference image from a horizontal polarization image.

【符号の説明】[Explanation of symbols]

1 光学系、24 CCDセンサ、26 アンプ、28
画像処理装置、30表示部、32 車両制御部。
1 optical system, 24 CCD sensor, 26 amplifier, 28
Image processing device, 30 display unit, 32 Vehicle control unit.

フロントページの続き (56)参考文献 特開 平7−221924(JP,A) 特開 平6−119040(JP,A) 特開 平6−341821(JP,A) 特開 平3−118612(JP,A) 特開 平8−139989(JP,A) 特開 平9−149314(JP,A) 特開 平8−167023(JP,A) 特開 平7−105486(JP,A) 特開 平7−141592(JP,A) 特開 平5−303625(JP,A) 特開 平7−239996(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 330 G06T 1/00 420 B60R 21/00 624 G06T 7/60 200 Continuation of the front page (56) References JP-A-7-221924 (JP, A) JP-A-6-119040 (JP, A) JP-A-6-341821 (JP, A) JP-A-3-118612 (JP) , A) Japanese Patent Application Laid-Open No. 8-13989 (JP, A) Japanese Patent Application Laid-Open No. 9-149314 (JP, A) Japanese Patent Application Laid-Open No. 8-167623 (JP, A) Japanese Patent Application Laid-Open No. 7-105486 (JP, A) 7-141592 (JP, A) JP-A-5-303625 (JP, A) JP-A-7-239996 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G06T 1/00 330 G06T 1/00 420 B60R 21/00 624 G06T 7/60 200

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 2次元CCDセンサと、 前記2次元CCDセンサの第1領域に第1露出量で道路
画像を投影するとともに、前記2次元CCDセンサの第
2領域に第2露出量で前記道路画像を投影する光学系
と、 前記2次元CCDセンサの第1領域から出力された第1
画像及び前記2次元CCDセンサの第2領域から出力さ
れた第2画像に基づいて前記道路画像内のラインを検出
する検出手段と、 を有し、前記第1領域と前記第2領域、及び前記第1露
出量と前記第2露出量は互いに異なり、 前記検出手段は、 前記第1画像内及び前記第2画像内の対応する複数の位
置にライン検出用のサーチウィンドウを複数設定する設
定手段と、 互いに対応するサーチウィンドウの中で、それぞれいず
れかのサーチウィンドウ内の処理結果を選択する選択手
段と、 を有することを特徴とする車両用ライン検出装置。
1. A two-dimensional CCD sensor, and a road image is projected on a first area of the two-dimensional CCD sensor with a first exposure amount, and the road image is projected on a second area of the two-dimensional CCD sensor with a second exposure amount. An optical system for projecting an image, and a first output from a first area of the two-dimensional CCD sensor.
Detecting means for detecting a line in the road image based on an image and a second image output from a second area of the two-dimensional CCD sensor, wherein the first area, the second area, said second exposure amount and the first exposure amount varies from each other, said detecting means, a corresponding plurality of positions of the first image and the second image
Setting multiple search windows for line detection
In the search window that corresponds to the
A selection method to select the processing result in any of the search windows
A line detection device for a vehicle , comprising: a step ;
【請求項2】 請求項1記載の装置において、前記設定手段は、前記第1領域の上部と下部、並びに前
記第2領域の前記第1領域に対応する上部と下部にそれ
ぞれライン検出用の上部サーチウィンドウと下部サーチ
ウィンドウを設定し、 前記選択手段は、前記第1領域の上部サーチウィンドウ
内の処理結果と第2領域の上部サーチウィンドウ内の処
理結果のいずれかを選択し、かつ、前記第1領域の下部
サーチウィンドウ内の処理結果と第2領域内の下部サー
チウィンドウ内の処理結果のいずれかを選択する ことを
特徴とする車両用ライン検出装置。
2. The apparatus according to claim 1, wherein said setting means includes an upper part and a lower part of said first area and a front part.
The upper and lower portions of the second region corresponding to the first region;
Upper search window and lower search for line detection
Setting a window, wherein the selection means includes an upper search window of the first area.
Processing results in the upper search window of the second area
One of the results, and the lower part of the first area
The processing result in the search window and the lower server in the second area
A line detection device for a vehicle , wherein any one of the processing results in the window is selected .
【請求項3】 路上のラインを検出する方法であって、 単一CCDの異なる領域に露出量の異なる同一道路画像
を投影するステップと、 前記露出量の異なる同一道路画像の対応する複数の部位
にライン検出用のサー チウィンドウを複数設定するステ
ップと互いに対応するサーチウィンドウの中で、それぞれいず
れかのサーチウィンドウ内の処理結果を選択することで
ラインを検出するステップとを有することを特徴とする路上ライン検出方法。
3. A method of detecting the line of the road, the exposure amount of different identical road image in a single CCD different areas
Projecting, and a plurality of corresponding portions of the same road image having different exposure amounts
Stearyl setting multiple service switch window for line detection
And in the search windows that correspond to each other,
By selecting the processing result in one of the search windows
Detecting a line.
【請求項4】 路上のラインを検出するためのプログラ
ムを記録した媒体であって、該プログラムはコンピュー
タに対して、 単一CCDの異なる領域に異なる露出量で投影された同
一道路画像を入力させ、 前記露出量の異なる同一道路画像の対応する複数の部位
にライン検出用のサーチウィンドウを複数設定させ互いに対応するサーチウィンドウの中で、それぞれいず
れかのサーチウィンドウ内の処理結果を選択することで
ラインを検出させる ことを特徴とするプログラムを記録
した媒体。
4. A program for detecting a line on a road.
A medium on which the program is stored.
Projected onto different areas of a single CCD with different exposures.
One road image is input, and a plurality of corresponding portions of the same road image having different exposure amounts
In the search window for line detection is set a plurality in the corresponding search window from each other, Izu respectively
By selecting the processing result in one of the search windows
Record a program characterized by detecting lines
Medium.
JP34531997A 1997-12-15 1997-12-15 Vehicle line detecting device, road line detecting method, and medium recording program Expired - Fee Related JP3341664B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP34531997A JP3341664B2 (en) 1997-12-15 1997-12-15 Vehicle line detecting device, road line detecting method, and medium recording program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34531997A JP3341664B2 (en) 1997-12-15 1997-12-15 Vehicle line detecting device, road line detecting method, and medium recording program

Publications (2)

Publication Number Publication Date
JPH11175702A JPH11175702A (en) 1999-07-02
JP3341664B2 true JP3341664B2 (en) 2002-11-05

Family

ID=18375797

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34531997A Expired - Fee Related JP3341664B2 (en) 1997-12-15 1997-12-15 Vehicle line detecting device, road line detecting method, and medium recording program

Country Status (1)

Country Link
JP (1) JP3341664B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9940529B2 (en) 2014-09-04 2018-04-10 Denso Corporation Parking space recognition apparatus and parking space recognition system

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001282428A (en) * 2000-03-29 2001-10-12 Matsushita Electric Ind Co Ltd Information processor
JP3459981B2 (en) * 2000-07-12 2003-10-27 独立行政法人産業技術総合研究所 Method for separating diffuse and specular reflection components
JP5176289B2 (en) * 2006-06-05 2013-04-03 三菱電機株式会社 Infrared target selection device
TWI306816B (en) 2006-12-13 2009-03-01 Ind Tech Res Inst Lane departure warning method and apparatus of using the same
JP4692496B2 (en) * 2007-02-23 2011-06-01 株式会社デンソー Vehicle display device
JP2008241446A (en) * 2007-03-27 2008-10-09 Clarion Co Ltd Navigator and control method therefor
JP5012704B2 (en) * 2008-07-08 2012-08-29 株式会社デンソー Vehicle shooting system
JP4645714B2 (en) * 2008-09-19 2011-03-09 株式会社デンソー Image processing device
JP5440927B2 (en) * 2009-10-19 2014-03-12 株式会社リコー Distance camera device
JP2011150687A (en) * 2009-12-25 2011-08-04 Ricoh Co Ltd Three-dimensional object identifying apparatus, moving body control apparatus equipped with the same, and information providing apparatus
JP5664152B2 (en) * 2009-12-25 2015-02-04 株式会社リコー Imaging device, in-vehicle imaging system, and object identification device
JP5696927B2 (en) * 2009-12-25 2015-04-08 株式会社リコー Object identification device, and moving body control device and information providing device provided with the same
KR101404924B1 (en) 2009-12-25 2014-06-09 가부시키가이샤 리코 Object identifying apparatus, moving body control apparatus, and information providing apparatus
JP5761601B2 (en) * 2010-07-01 2015-08-12 株式会社リコー Object identification device
EP2439716B1 (en) 2010-09-16 2013-11-13 Ricoh Company, Ltd. Object identification device, moving object controlling apparatus having object identification device and information presenting apparatus having object identification device
JP2012088785A (en) * 2010-10-15 2012-05-10 Toyota Central R&D Labs Inc Object identification device and program
JP2012221103A (en) * 2011-04-06 2012-11-12 Denso Corp Image processing device for vehicle
JP2012230601A (en) * 2011-04-27 2012-11-22 Nippon Yusoki Co Ltd Guide line imaging device for unmanned carrier and unmanned carrier
KR101241225B1 (en) * 2011-06-27 2013-03-13 현대자동차주식회사 Image recognition system and method for car
JP5950196B2 (en) 2011-08-30 2016-07-13 株式会社リコー Imaging apparatus, and image analysis apparatus and moving apparatus using the same
JP5995140B2 (en) 2012-01-19 2016-09-21 株式会社リコー Imaging apparatus, vehicle system including the same, and image processing method
JP5899957B2 (en) * 2012-01-20 2016-04-06 株式会社リコー Image processing system and vehicle equipped with the same
DE102013109005A1 (en) 2013-08-20 2015-02-26 Khs Gmbh Device and method for identifying codes under film
JP6379966B2 (en) * 2013-12-24 2018-08-29 株式会社リコー Image processing apparatus, image processing system, image processing method, image processing program, and moving body control apparatus
JP6485078B2 (en) * 2014-02-18 2019-03-20 パナソニックIpマネジメント株式会社 Image processing method and image processing apparatus
JP6561431B2 (en) * 2014-05-14 2019-08-21 株式会社デンソー Boundary line recognition apparatus and boundary line recognition program
KR101579098B1 (en) * 2014-05-23 2015-12-21 엘지전자 주식회사 Stereo camera, driver assistance apparatus and Vehicle including the same
JP6220327B2 (en) 2014-07-23 2017-10-25 株式会社Soken Traveling lane marking recognition device, traveling lane marking recognition program
JP6389119B2 (en) 2014-12-25 2018-09-12 株式会社デンソー Lane boundary recognition device
JP2022182346A (en) * 2021-05-28 2022-12-08 ソニーセミコンダクタソリューションズ株式会社 Signal processing device, method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9940529B2 (en) 2014-09-04 2018-04-10 Denso Corporation Parking space recognition apparatus and parking space recognition system

Also Published As

Publication number Publication date
JPH11175702A (en) 1999-07-02

Similar Documents

Publication Publication Date Title
JP3341664B2 (en) Vehicle line detecting device, road line detecting method, and medium recording program
CN101674415B (en) Image pickup apparatus
US8934029B2 (en) Apparatus and method for high dynamic range imaging using spatially varying exposures
JP3083918B2 (en) Image processing device
US20050275747A1 (en) Imaging method and system
US7646311B2 (en) Image processing for a traffic control system
KR101204556B1 (en) Method for removing image noise and night-vision system using the same
US7433545B2 (en) Image processing apparatus and image processing method for correcting image data
US7859580B2 (en) Method and apparatus for anisotropic demosaicing of image data
US8520953B2 (en) Apparatus and method for extracting edges of image
US20070024467A1 (en) Roadway type judgment method and apparatus
JP2006157740A (en) Abnormality detecting device of image pickup apparatus
US20070058048A1 (en) Photographing system for a moving apparatus
EP3285475B1 (en) Photographing apparatus and method for controlling photographing apparatus
CN114727024A (en) Automatic exposure parameter adjusting method and device, storage medium and shooting equipment
JP2006308514A (en) Image processing type snow cover sensor on road surface and snow cover detecting method
KR101341243B1 (en) Apparatus and method of restoring image damaged by weather condition
US11544918B2 (en) Vehicle to infrastructure system and method with long wave infrared capability
Yamada et al. A vision sensor having an expanded dynamic range for autonomous vehicles
JP3395289B2 (en) Lane recognition device
JP2004336153A (en) Exposure control method and apparatus for camera type vehicle sensor
JPH0337356B2 (en)
JP4464574B2 (en) Road surface condition determination method and apparatus
JP2004185537A (en) System for detecting moving vehicle
KR102662711B1 (en) Method And Apparatus for Polarized Image Fusion

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070823

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080823

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080823

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090823

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100823

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100823

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110823

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110823

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120823

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130823

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees