JP3084208B2 - Image processing device - Google Patents
Image processing deviceInfo
- Publication number
- JP3084208B2 JP3084208B2 JP07119856A JP11985695A JP3084208B2 JP 3084208 B2 JP3084208 B2 JP 3084208B2 JP 07119856 A JP07119856 A JP 07119856A JP 11985695 A JP11985695 A JP 11985695A JP 3084208 B2 JP3084208 B2 JP 3084208B2
- Authority
- JP
- Japan
- Prior art keywords
- enlargement
- image
- horizontal line
- lane
- image information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 claims description 46
- 230000008569 process Effects 0.000 claims description 37
- 238000000605 extraction Methods 0.000 claims description 21
- 238000006243 chemical reaction Methods 0.000 claims description 18
- 238000010586 diagram Methods 0.000 description 14
- 230000003287 optical effect Effects 0.000 description 9
- 230000000630 rising effect Effects 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 230000008859 change Effects 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 101000860173 Myxococcus xanthus C-factor Proteins 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/403—Edge-driven scaling; Edge-based scaling
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Description
【0001】[0001]
【産業上の利用分野】本発明は、撮像された画像情報を
拡大処理することによって、特定の線画像を正確に認識
する装置に係り、車載カメラにより撮影された画像情報
を拡大処理することによって、自車両の走行レーンに対
する車線を正確に認識する装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a device for accurately recognizing a specific line image by enlarging a captured image information, and by enlarging the image information captured by a vehicle-mounted camera. The present invention relates to a device for accurately recognizing a lane of a running lane of a vehicle.
【0002】[0002]
【従来の技術】車載カメラにより撮影された画像データ
に基づいて、走行車線を認識する装置としては、一般に
は、カメラ1台で前方の状況を撮影する方法がある。し
かし、このような装置では、広い範囲を認識するため
に、広角のレンズを備えた構成にすると、遠方の車線の
認識が困難となり、一方、遠方の車線を認識するため
に、光学系のズーム機構を利用すると、認識可能な視野
が狭くなる、という問題が存在する。2. Description of the Related Art As a device for recognizing a traveling lane based on image data captured by an on-vehicle camera, there is generally a method in which a single camera captures a situation in front. However, in such a device, if a configuration including a wide-angle lens is used in order to recognize a wide range, it is difficult to recognize a distant lane. There is a problem that the recognizable visual field becomes narrow when the mechanism is used.
【0003】これを改良する装置として、例えば特開平
06-229760号公報に開示されたものが挙げられる。As an apparatus for improving this, for example, Japanese Patent Laid-Open
One disclosed in JP-A-06-229760 is exemplified.
【0004】この装置は、低倍率光学系を備える固体撮
像部と、高倍率光学系を備える固体撮像部を有し、低倍
率光学系を備える固体撮像部によって得られる画像デー
タと、高倍率光学系を備える固体撮像部により得られる
画像データとを比較処理するによって、車両前方の比較
的遠方の走行路の形状が曲走路であることや、曲走路へ
移行する状態にあることを認識する装置である。This device has a solid-state imaging section having a low-magnification optical system, a solid-state imaging section having a high-magnification optical system, and image data obtained by the solid-state imaging section having a low-magnification optical system. Apparatus for recognizing that a relatively distant running path ahead of a vehicle is a curved road or that the vehicle is in a state of transition to a curved road by comparing image data obtained by a solid-state imaging unit having a system. It is.
【0005】[0005]
【発明が解決しようとする課題】しかしながら、上述し
たような従来技術によれば、比較的遠方の車線の形状を
認識する際に、高倍率光学系を備えた固体撮像部を設け
た構成としている。このため、低倍率光学系および高倍
率光学系の双方の光学系と、各光学系に対する固体撮像
部が必要となり、装置構成が大きくなり、必ずしも車載
に適した装置であるとはいえず、また、コストの増大
は、免れないという問題点がある。However, according to the prior art as described above, when recognizing the shape of a relatively distant lane, a configuration is provided in which a solid-state imaging unit having a high-magnification optical system is provided. . For this reason, both low-magnification optical system and high-magnification optical system, and a solid-state imaging unit for each optical system are required, the device configuration becomes large, and it cannot be said that the device is necessarily suitable for in-vehicle use. However, there is a problem that an increase in cost is unavoidable.
【0006】また、車載環境を考慮したとき、高温下や
振動振幅の大きな環境下では、極力光学系を少なくし
た、装置構成にすることが切望されていた。In consideration of the on-vehicle environment, there has been a long-awaited demand for an apparatus configuration with as few optical systems as possible under high temperatures or in environments with large vibration amplitudes.
【0007】そこで、本発明は、上記従来装置の問題点
に鑑み、車載カメラにより撮影された画像情報に基づい
て、自車両の走行レーンに対する車線を認識するにあた
り、複数の光学系を備えた構成とならないような装置構
成とし、さらに、広い視野を確保しながら比較的遠方の
走行レーンに対しても、正確に車線を認識可能な装置を
提供することを目的とする。In view of the above-mentioned problems of the conventional apparatus, the present invention has a configuration including a plurality of optical systems for recognizing a lane for a traveling lane of a host vehicle based on image information captured by a vehicle-mounted camera. It is another object of the present invention to provide a device which can recognize a lane accurately even in a relatively distant traveling lane while securing a wide field of view.
【0008】[0008]
【課題を解決するための手段】上記課題を解決するため
に、以下の手段が考えられる。The following means are conceivable in order to solve the above problems.
【0009】すなわち、画像を撮像し、画像情報を得る
ための撮像手段と、撮像した画像情報の大きさを拡大す
る画像拡大処理手段と、拡大した画像情報を水平1ライ
ン毎に走査し、ある特定の色と、それ以外の色との境界
を調べ、その境界となる画素をエッジ画素として抽出
し、抽出したエッジ画素の位置座標を求めるエッジ画素
座標検出手段と、抽出したエッジ画素の位置座標を、拡
大処理前の座標に変換するエッジ画素座標変換手段と、
エッジ画素の変換座標を参照し、エッジ画素を、直線を
構成するように結んで構成される線画像を求める線画像
抽出手段と、各水平ライン毎に定めた、画像情報の拡大
量である拡大率、および、画像情報の拡大処理を行なう
基準位置を示す拡大中心座標を記憶する拡大条件記憶手
段とを備える。That is, an image pickup means for picking up an image and obtaining image information, an image enlargement processing means for enlarging the size of the picked-up image information, and scanning the enlarged image information for each horizontal line. An edge pixel coordinate detecting means for examining a boundary between a specific color and another color, extracting a pixel serving as the boundary as an edge pixel, and calculating a position coordinate of the extracted edge pixel, and a position coordinate of the extracted edge pixel Is converted to coordinates before the enlargement processing, edge pixel coordinate conversion means,
A line image extracting unit that obtains a line image formed by connecting the edge pixels so as to form a straight line by referring to the transformed coordinates of the edge pixels; and an enlargement, which is an enlargement amount of image information, defined for each horizontal line. An enlargement condition storing means for storing an enlargement center coordinate indicating a ratio and a reference position for performing an enlargement process of image information.
【0010】そして、前記画像拡大処理手段は、前記拡
大条件記憶手段の記憶内容を参照し、各水平ライン毎
に、前記拡大中心座標を中心として、前記拡大率で示さ
れる倍率で、画像情報の大きさを拡大していく処理を行
なう装置である。The image enlargement processing means refers to the storage contents of the enlargement condition storage means and, for each horizontal line, uses the enlargement factor as a center and enlarges the image information at a magnification indicated by the enlargement ratio. This is a device that performs processing to increase the size.
【0011】さらに、具体的には、以下に示すような態
様も考えられる。Further, more specifically, the following embodiments can be considered.
【0012】すなわち、車両に搭載され、車両前方の画
像を撮像し、画像情報を得るための撮像手段と、撮像し
た画像情報の大きさを拡大する画像拡大処理手段と、拡
大した画像情報を水平1ライン毎に走査し、ある特定の
色と、それ以外の色との境界を調べ、その境界となる画
素をエッジ画素として抽出し、抽出したエッジ画素の位
置座標を求めるエッジ画素座標検出手段と、抽出したエ
ッジ画素の位置座標を、拡大処理前の座標に変換するエ
ッジ画素座標変換手段と、エッジ画素の変換座標を参照
し、エッジ画素を、直線を構成するように結んで構成さ
れる左右車線を求める車線抽出手段と、各水平ライン毎
に定めた、画像情報の拡大量である拡大率、および、画
像情報の拡大処理を行なう基準位置を示す拡大中心座標
を記憶する拡大条件記憶手段とを備える。That is, an image pickup means mounted on a vehicle for picking up an image in front of the vehicle and obtaining image information, an image enlargement processing means for enlarging the size of the imaged image information, An edge pixel coordinate detecting means for scanning line by line, examining a boundary between a specific color and another color, extracting a pixel serving as the boundary as an edge pixel, and obtaining a position coordinate of the extracted edge pixel; Edge pixel coordinate conversion means for converting the position coordinates of the extracted edge pixels into coordinates before the enlargement processing; and left and right sides formed by connecting the edge pixels so as to form a straight line with reference to the converted coordinates of the edge pixels. A lane extracting means for finding a lane; an enlarging ratio which stores an enlarging rate which is an enlarging amount of image information and an enlarging center coordinate which indicates a reference position at which enlarging processing of image information is defined for each horizontal line And a storage unit.
【0013】そして、前記画像拡大処理手段は、前記拡
大条件記憶手段の記憶内容を参照し、各水平ライン毎
に、前記拡大中心座標を中心として、前記拡大率で示さ
れる倍率で、画像情報の大きさを拡大していく処理を行
なう装置である。The image enlargement processing means refers to the contents stored in the enlargement condition storage means, and for each horizontal line, uses the enlargement ratio as a center and the magnification indicated by the enlargement ratio for each horizontal line. This is a device that performs processing to increase the size.
【0014】なお、前記画像拡大処理手段は、撮影した
画像情報の大きさを、水平方向にのみに拡大する処理を
行なうことを特徴とする装置構成にすることが好まし
い。[0014] It is preferable that the image enlargement processing means performs processing for enlarging the size of photographed image information only in the horizontal direction.
【0015】[0015]
【作用】車両に搭載された撮像手段によって、車両前方
の画像を撮像し、画像情報を得る。According to the present invention, an image in front of the vehicle is captured by the image capturing means mounted on the vehicle to obtain image information.
【0016】拡大条件記憶手段には、各水平ライン毎に
定めた、画像情報の拡大量である拡大率、および、画像
情報の拡大処理を行なう基準位置を示す拡大中心座標が
記憶される。The enlargement condition storage means stores an enlargement ratio, which is an amount of enlargement of image information, and enlargement center coordinates indicating a reference position at which image information enlargement processing is performed, which is defined for each horizontal line.
【0017】そして、画像拡大処理手段によって、撮像
した画像情報の大きさを拡大する。Then, the size of the captured image information is enlarged by the image enlargement processing means.
【0018】具体的には、画像拡大処理手段は、拡大条
件記憶手段の記憶内容を参照し、各水平ライン毎に、前
記拡大中心座標を中心として、前記拡大率で示される倍
率で、画像情報の大きさを拡大していく処理を行なう。
この際、画像拡大処理手段は、撮影した画像情報の大き
さを、水平方向にのみに拡大する処理を行なう。More specifically, the image enlargement processing means refers to the contents stored in the enlargement condition storage means and, for each horizontal line, sets the image information at the magnification indicated by the enlargement ratio, centering on the enlargement center coordinates. Is performed to increase the size of.
At this time, the image enlargement processing means performs a process of enlarging the size of the captured image information only in the horizontal direction.
【0019】さらに、エッジ画素座標検出手段は、拡大
した画像情報を水平1ライン毎に走査し、ある特定の色
と、それ以外の色との境界を調べ、その境界となる画素
をエッジ画素として抽出し、抽出したエッジ画素の位置
座標を求め、また、エッジ画素座標変換手段は、抽出し
たエッジ画素の位置座標を、拡大処理前の座標に変換す
る。Further, the edge pixel coordinate detecting means scans the enlarged image information for each horizontal line, checks a boundary between a specific color and another color, and sets a pixel serving as the boundary as an edge pixel. The position coordinates of the extracted and extracted edge pixels are obtained, and the edge pixel coordinate conversion means converts the position coordinates of the extracted edge pixels into coordinates before the enlargement processing.
【0020】また、車線抽出手段は、エッジ画素の変換
座標を参照し、エッジ画素を、直線を構成するように結
んで構成される左右車線を求める。The lane extracting means refers to the transformed coordinates of the edge pixels, and finds the left and right lanes formed by connecting the edge pixels so as to form a straight line.
【0021】以上のように、本発明では、撮影手段によ
って撮影された画像情報を拡大する(以下、適宜、単
に、「画像ズーム」と称する)ことにより、拡大処理さ
れた画像データに基づいて、走行車線を正確に認識する
ことができる。As described above, according to the present invention, the image information captured by the image capturing means is enlarged (hereinafter, simply referred to as "image zoom" as appropriate), and based on the enlarged image data, The traveling lane can be accurately recognized.
【0022】即ち、画像ズームを採用することにより、
車線の幅を拡大した状態で、路面と車線の境界を示す画
素(エッジ画素)を抽出することができるため、より遠
方の車線を正確に認識することが可能となる。That is, by employing the image zoom,
Since the pixels (edge pixels) indicating the boundary between the road surface and the lane can be extracted while the lane width is enlarged, it is possible to accurately recognize a farther lane.
【0023】[0023]
【実施例】以下、本発明にかかる実施例について、図面
を参照しつつ説明する。Embodiments of the present invention will be described below with reference to the drawings.
【0024】図1に、本発明にかかる実施例である装置
の構成図を示す。FIG. 1 shows a configuration diagram of an apparatus according to an embodiment of the present invention.
【0025】本装置は、撮影部1と処理部5とメモリ2
3と表示部14とを有して構成されて、さらに、処理部
5は、画像処理部6と判断部7とを備えている。そし
て、車両状態センサ20、車両運動制御装置22および
警報装置21と、判断部7との間で信号がやりとりされ
ている。This apparatus comprises a photographing unit 1, a processing unit 5, and a memory 2.
3 and a display unit 14, and the processing unit 5 further includes an image processing unit 6 and a determination unit 7. Signals are exchanged between the vehicle state sensor 20, the vehicle motion control device 22 and the alarm device 21, and the determination unit 7.
【0026】以下、本装置の各構成要素について説明す
る。Hereinafter, each component of the apparatus will be described.
【0027】まず、撮影部1について説明する。First, the photographing section 1 will be described.
【0028】CCDカメラ2は、前方の画像を撮像し、
画像情報を得るための撮像手段であり、前方の被写体の
画像情報を、カラーアナログ信号に変換する機能を有す
る。例えば、車載時には、車両前部のグリル付近で、汚
れの少ない箇所、あるいは、車室内のルームミラーやサ
ンバイザー等の前方視界の広い箇所に設置すれば良い。The CCD camera 2 captures a forward image,
It is an imaging unit for obtaining image information, and has a function of converting image information of a forward subject into a color analog signal. For example, when the vehicle is mounted on a vehicle, it may be installed near a grill near the front of the vehicle, in a location with little dirt, or in a location with a wide front view such as a room mirror or a sun visor in the vehicle interior.
【0029】次に、A/D変換器3は、CCDカメラ2
から出力されたアナログ画像信号を、デジタル信号に変
換する処理を行なう。Next, the A / D converter 3 is a CCD camera 2
Performs a process of converting the analog image signal output from the to the digital signal.
【0030】次に、色差変換回路4は、A/D変換器3
から出力されたデジタル信号、即ち、被写体の三原色
(R(赤)、G(緑)、B(青))に相当するデジタル
信号を、次式で定義する、輝度信号Yと色差信号「R−
Y、B−Y」とに変換する処理を行なう。Next, the color difference conversion circuit 4 includes an A / D converter 3
, The digital signals corresponding to the three primary colors (R (red), G (green), and B (blue)) of the subject are defined by the following equation, and the luminance signal Y and the color difference signal “R−
Y, BY ”.
【0031】Y =0.3R+0.6G+0.1B R−Y=0.7R−0.6G−0.1B B−Y=-0.3R−0.6G+0.9B 上式にて、変換されて求まった輝度信号および色差信号
は、遅延回路16に入力されるとともに、バッファ25
に格納される。Y = 0.3R + 0.6G + 0.1B R−Y = 0.7R−0.6G−0.1B BY−−0.3R−0.6G + 0.9B The luminance signal and the color difference signal obtained by the above conversion. Is input to the delay circuit 16 and the buffer 25
Is stored in
【0032】次に、処理部5について説明するが、その
動作内容は後に説明するため、ここでは、各構成要素の
機能を概説しておくことにする。Next, the processing section 5 will be described. The contents of the operation will be described later, so that the function of each component will be outlined here.
【0033】図1に示すように、処理部5は、画像処理
部6と判断部7とを備えている。As shown in FIG. 1, the processing section 5 includes an image processing section 6 and a judgment section 7.
【0034】まず、画像処理部6の構成要素について説
明する。First, the components of the image processing section 6 will be described.
【0035】バッファ25は、色差変換回路4から送ら
れた画像情報を記憶する手段であるが、必ずしも、1フ
レーム分の容量を有している必要はない。例えば、画像
処理の処理単位が、3ラインであれば、3ライン分の容
量を有するように構成しておけば良い。The buffer 25 is a means for storing the image information sent from the color difference conversion circuit 4, but does not necessarily need to have a capacity for one frame. For example, if the processing unit of the image processing is three lines, it may be configured to have a capacity of three lines.
【0036】画像ズ−ム回路8は、バッファ25から画
像情報を受け取り、後に説明するズーム条件決定部9に
よって、1水平ライン毎に決定されたズーム条件(ズー
ム中心座標及び拡大率)に従って、画像情報を水平方向
にのみ拡大する処理を(例えば、1水平ライン毎に)行
なった後、拡大処理された画像情報を、抽出処理回路1
0に転送する処理を行なう。The image zoom circuit 8 receives the image information from the buffer 25, and according to the zoom condition (zoom center coordinate and enlargement ratio) determined for each horizontal line by the zoom condition determining unit 9 described later. After performing a process of enlarging information only in the horizontal direction (for example, for each horizontal line), the image information subjected to the enlarging process is extracted by the extraction processing circuit 1.
0 is transferred.
【0037】ここで、ズーム中心座標は、画像情報を拡
大する際に、拡大処理を行なう基準点の位置を示すパラ
メータであり、拡大率は、画像情報を拡大する倍率を示
すパラメータである。Here, the zoom center coordinate is a parameter indicating the position of a reference point at which enlargement processing is performed when the image information is enlarged, and the enlargement ratio is a parameter indicating the magnification at which the image information is enlarged.
【0038】抽出処理回路10は、拡大処理された画像
情報の中から、予め定めた抽出色条件データに該当する
画素を抽出し、ノイズ等を除去する画像処理を施した
後、1つの水平ライン上で、その抽出画素に対する位置
座標データ(エッジ座標データ)を、エッジ座標変換部
11に転送する。なお、抽出色条件データとは、特定の
輝度および色差のデータであり、通常、道路色(走行レ
ーン)の輝度および色差のデータを採用して、メモリ2
3に予め格納しておき、抽出処理回路10は、必要時
に、該データを取り出すように構成しておけば良い。The extraction processing circuit 10 extracts a pixel corresponding to predetermined extraction color condition data from the enlarged image information, performs image processing for removing noise and the like, and then performs one horizontal line processing. Above, the position coordinate data (edge coordinate data) for the extracted pixel is transferred to the edge coordinate conversion unit 11. Note that the extracted color condition data is data of specific luminance and color difference, and usually adopts data of luminance and color difference of a road color (running lane) and stores the data in the memory 2.
3 in advance, and the extraction processing circuit 10 may be configured to retrieve the data when necessary.
【0039】なお、1つの水平ラインを調べていったと
き、抽出色条件データを満足しない画素から、抽出色条
件データを満足する画素への変化点を想定した場合、該
抽出色条件データを満足する画素を、立ち上がりエッジ
画素と称し、その座標データは、立ち上がりエッジ画素
の、エッジ座標データという。同様に、1つの水平ライ
ンを調べていったとき、抽出色条件データを満足する画
素から、抽出色条件データを満足しない画素への変化点
を想定した場合、該抽出色条件データを満足する画素
を、立ち下がりエッジ画素と称し、その座標データは、
立ち下がりエッジ画素の、エッジ座標データという。な
お、エッジ座標データは、座標情報の他に、当該エッジ
座標は、立ち上りなのか、または、立ち下がりなのかを
示す情報も含んでいるものとする。When examining one horizontal line, if a change point from a pixel not satisfying the extracted color condition data to a pixel satisfying the extracted color condition data is assumed, the extracted color condition data is not satisfied. Such a pixel is referred to as a rising edge pixel, and its coordinate data is referred to as edge coordinate data of the rising edge pixel. Similarly, when examining one horizontal line, assuming a transition point from a pixel satisfying the extracted color condition data to a pixel not satisfying the extracted color condition data, a pixel satisfying the extracted color condition data is obtained. Is called a falling edge pixel, and its coordinate data is
It is called edge coordinate data of the falling edge pixel. The edge coordinate data includes information indicating whether the edge coordinate is a rising edge or a falling edge, in addition to the coordinate information.
【0040】次に、エッジ座標変換部11は、ズーム条
件決定部9から転送されたズーム中心座標と拡大率に基
づいて、抽出処理回路10から転送されたエッジ座標デ
ータを、拡大処理前の座標データに変換し、車線認識部
12に転送する。なお、ズーム中心座標や拡大率につい
ては、後に、画像ズーム処理のところで詳しく説明す
る。Next, based on the zoom center coordinates and the enlargement ratio transferred from the zoom condition determination unit 9, the edge coordinate conversion unit 11 converts the edge coordinate data transferred from the extraction processing circuit 10 into the coordinates before the enlargement processing. The data is converted into data and transferred to the lane recognition unit 12. Note that the zoom center coordinates and the enlargement ratio will be described later in detail in the image zoom processing.
【0041】次に、車線認識部12は、エッジ座標変換
部11から転送されたエッジ座標データをもとに、自車
両が走行する走行レーンに対する左、右車線に対するエ
ッジ座標データを抽出し、抽出したエッジ座標データに
基づいて、左、右車線を認識し、認識結果を、ズーム条
件決定部9、危険判断部13、および置換回路15に転
送する。Next, based on the edge coordinate data transferred from the edge coordinate conversion unit 11, the lane recognition unit 12 extracts edge coordinate data for the left and right lanes of the traveling lane in which the vehicle travels, and extracts the data. The left and right lanes are recognized based on the edge coordinate data thus obtained, and the recognition result is transferred to the zoom condition determination unit 9, the danger determination unit 13, and the replacement circuit 15.
【0042】次に、ズーム条件決定部9は、車線認識部
12から認識された車線情報を受け取って、ズーム中心
座標と拡大率を算出し、エッジ座標変換部11、画像ズ
−ム回路8に転送する。なお、ズーム条件である、ズ−
ム中心座標、拡大率を、各水平ライン毎に予め設定して
おいて、画像拡大処理を行なわせるようにしても良い。Next, the zoom condition determining unit 9 receives the lane information recognized from the lane recognizing unit 12, calculates the zoom center coordinate and the enlargement ratio, and sends them to the edge coordinate converting unit 11 and the image zoom circuit 8. Forward. The zoom condition, zoom
The system center coordinates and the enlargement ratio may be set in advance for each horizontal line, and the image enlargement processing may be performed.
【0043】次に、表示部14の構成要素について説明
する。Next, the components of the display unit 14 will be described.
【0044】遅延回路16は、処理部5での種々の処理
時間に対応する時間だけ、入力された画像情報を遅延さ
せて出力する機能を有し、色差変換回路4から出力され
る信号と、車線認識部12から出力される処理結果と
を、置換回路15に入力する際に同期合わせを行なうた
めの回路である。The delay circuit 16 has a function of delaying the input image information by a time corresponding to various processing times in the processing section 5 and outputting the delayed image information. This is a circuit for performing synchronization when the processing result output from the lane recognition unit 12 is input to the replacement circuit 15.
【0045】次に、置換回路15は、遅延回路16で遅
延された画像に処理部5からの処理結果を重ね合わせ
る。具体的には、何ら画像処理を行なっていない、遅延
回路16から出力された図15(a)に示すような撮影
画像に、図15(b)に示すような車線認識部12で認
識された車線の画像情報を、重ねあわせて図15(c)
に示すような撮影画像上に認識車線を描いた画像情報を
得る。また、危険判定部13が、警報装置21を駆動す
る際には、これと同時に、警報情報をモニタ18に表示
させるための、スーパインポーズ情報を置換回路15に
与えるように構成しておけば良い。この警報情報がモニ
タ18に表示された様子を、図15(d)に示す。Next, the replacement circuit 15 superimposes the processing result from the processing section 5 on the image delayed by the delay circuit 16. Specifically, a lane recognition unit 12 as shown in FIG. 15B recognizes a captured image as shown in FIG. 15A output from the delay circuit 16 without any image processing. The image information of the lane is superimposed, and FIG.
(1) Image information in which a recognition lane is drawn on a captured image as shown in FIG. In addition, when the danger determination unit 13 drives the alarm device 21, at the same time, superimpose information for displaying the alarm information on the monitor 18 is provided to the replacement circuit 15. good. FIG. 15D shows how the alarm information is displayed on the monitor 18.
【0046】次に、エンコーダ回路17は、置換回路1
5から出力される画像情報を、NTSC信号に変換する
ための回路である。Next, the encoder circuit 17 includes the replacement circuit 1
5 is a circuit for converting the image information output from 5 into an NTSC signal.
【0047】そして、モニタ18は、NTSC信号を入
力し、これに対応する画像情報を表示画面に表示する。The monitor 18 receives the NTSC signal and displays the corresponding image information on the display screen.
【0048】次に、判断部7の構成要素について説明す
る。Next, the components of the judgment section 7 will be described.
【0049】なお、判断部7は、本発明を運転者の注意
喚起装置に応用した一例であり、本判断部自体は、本発
明の主要部をなすものではない。The determining unit 7 is an example in which the present invention is applied to a driver's alert device, and the determining unit itself does not form a main part of the present invention.
【0050】車両状態判断部19は、車両状態センサ2
0から送られる信号により、自車両の走行状態を判断
し、その判断結果を危険判断部13に転送する。The vehicle state judging section 19 includes the vehicle state sensor 2
The traveling state of the own vehicle is determined based on the signal transmitted from 0, and the determination result is transferred to the danger determining unit 13.
【0051】ここで、車両状態センサ8は、自車両の運
動量、運転者の操作意志等を検出する手段であり、例え
ば、自車両の速度を計測する車速度センサ等や、その他
方向指示器、ステア角センサ等が挙げられる。Here, the vehicle state sensor 8 is a means for detecting the amount of exercise of the own vehicle, the intention of the driver to operate, and the like. For example, a vehicle speed sensor for measuring the speed of the own vehicle, other direction indicators, And a steer angle sensor.
【0052】危険判断部13では、車線認識部12より
送られてきた、左右の車線に対するエッジ座標データに
よって、自車の走行レーンを認識し、また、車線認識部
12より送信された、左右の車線以外の物に対するエッ
ジ座標データで、前方車、障害物等の存在を認識し、車
両状態判断部19より送信されたデータで、自車の走行
危険度を認識する。The danger determining unit 13 recognizes the traveling lane of the own vehicle based on the edge coordinate data for the left and right lanes sent from the lane recognizing unit 12. The presence of a preceding vehicle, an obstacle, or the like is recognized based on edge coordinate data for an object other than a lane, and the traveling risk of the own vehicle is recognized based on data transmitted from the vehicle state determination unit 19.
【0053】例えば、車速度センサが検出した、自車両
の速度が所定値以上で、かつ、前方の画像情報中の特定
位置に、前方車等の存在を認識できた場合、これを危険
状態と判断し、車両運動制御装置22や警報装置21を
駆動する。車両運動制御装置22は、駆動系、制動系、
操舵系等の制御を行なう装置である。具体例としては、
自動ブレーキ等が考えられる。For example, if the speed of the own vehicle detected by the vehicle speed sensor is equal to or higher than a predetermined value and the presence of a preceding vehicle or the like can be recognized at a specific position in the image information ahead, this is regarded as a dangerous state. Judgment is made and the vehicle motion control device 22 and the alarm device 21 are driven. The vehicle motion control device 22 includes a driving system, a braking system,
This is a device for controlling a steering system and the like. As a specific example,
Automatic braking is conceivable.
【0054】また、警報装置21としては、運転者の聴
覚や視覚に訴えて、運転者に注意を喚起する手段であれ
ば、どのような手段でも良く、例えば、チャイムの駆動
動作やLEDの表示等が考えられる。The alarm device 21 may be any device that appeals to the driver's hearing or vision and draws attention to the driver, such as a chime driving operation or LED display. And so on.
【0055】以上のような判断部7の構成例について
は、様々な態様が考えられる。Various examples of the configuration example of the determination unit 7 described above are conceivable.
【0056】また、メモリ23は、ズーム条件決定部9
により決定されたズーム条件を格納保持し、さらに、車
線認識部12等が処理を行う際のワークエリアとしても
機能する。The memory 23 stores the zoom condition determining unit 9.
, And also functions as a work area when the lane recognition unit 12 and the like perform processing.
【0057】次に、本発明にかかる装置の動作について
説明する。Next, the operation of the apparatus according to the present invention will be described.
【0058】なお、本装置においては、大別して二つの
処理が別周期で、並列に実行される。In the present apparatus, roughly two processes are executed in parallel at different periods.
【0059】「第1の処理」は、CCDカメラ2で得た
画像情報を、A/D変換器3にてアナログ・デジタル変
換し、さらに、色差変換回路4にて、輝度、色差信号に
変換し、遅延回路16、によって所定時間の遅延を与
え、置換回路15の有する機能によって画像処理した
後、エンコーダ回路17によって画像処理結果をNTS
C信号にして、モニタ18に処理結果を表示する、一連
の処理である。In the "first processing", the image information obtained by the CCD camera 2 is converted from analog to digital by the A / D converter 3, and further converted by the color difference conversion circuit 4 into luminance and color difference signals. Then, after a predetermined time delay is given by the delay circuit 16 and the image processing is performed by the function of the replacement circuit 15, the image processing result is converted into the NTS by the encoder circuit 17.
This is a series of processes for displaying a processing result on the monitor 18 as a C signal.
【0060】まず、この「第1の処理」について、図
1、2を参照して説明する。First, the "first processing" will be described with reference to FIGS.
【0061】本装置を操作することによって、装置電源
がオン状態になると(S2)、初期設定が行われる(S
4)。ここで、初期設定とは、例えば、メモリ23のワ
ークエリア領域のクリア等の処理が挙げられる。また、
人間が行なう操作としては、撮影部1、表示部14の初
期調整や、後述する第二の処理で用いられる抽出色条件
やズーム条件の初期値を、図示しない入力部によって設
定する。When the power of the apparatus is turned on by operating the apparatus (S2), initialization is performed (S2).
4). Here, the initialization includes, for example, processing such as clearing of the work area area of the memory 23. Also,
As an operation performed by a human, initial adjustment of the photographing unit 1 and the display unit 14 and initial values of an extraction color condition and a zoom condition used in a second process described later are set by an input unit (not shown).
【0062】次に、CCDカメラ2によって撮影した、
車両前方の画像情報に対する信号をアナログRGB信号
として出力する(S6)。Next, an image was taken by the CCD camera 2,
A signal corresponding to image information ahead of the vehicle is output as an analog RGB signal (S6).
【0063】次に、A/D変換器3によって、アナログ
RGB信号をデジタルRGB信号に変換し(S8)、さ
らに、色差変換回路が、前述した変換式にしたがって、
デジタルRGB信号を、輝度および色差信号に変換する
(S10)。Next, the analog RGB signal is converted into a digital RGB signal by the A / D converter 3 (S8).
The digital RGB signals are converted into luminance and color difference signals (S10).
【0064】次に、遅延回路16は、色差変換回路4か
ら出力された画像信号を入力信号とし、処理部5で必要
とする処理時間だけ、入力信号に遅延を与え(S1
2)、処理部5で処理された信号との同期を合わせを行
なう。Next, the delay circuit 16 receives the image signal output from the color difference conversion circuit 4 as an input signal, and delays the input signal by a processing time required by the processing section 5 (S1).
2) Synchronization with the signal processed by the processing unit 5 is performed.
【0065】次に、置換回路15は、処理を行っていな
い原画像情報の上に、処理部5での処理結果を重ね合わ
せる処理を行ない(S14)、エンコーダ回路17によ
って、置換回路15の出力信号をNTSC信号に変換し
(S16)、モニタ18に、NTSC信号に対応する表
示画像を表示する(S18)。Next, the replacement circuit 15 performs a process of superimposing the processing result of the processing unit 5 on the original image information that has not been processed (S14). The signal is converted to an NTSC signal (S16), and a display image corresponding to the NTSC signal is displayed on the monitor 18 (S18).
【0066】その後、次周期における被写体の画像情報
を得るために、ステップ(S6)にブランチする。な
お、以上の処理は、フレームレート(例えば、16.7ms)
を周期として順次行われる。Thereafter, the flow branches to step (S6) to obtain image information of the subject in the next cycle. The above processing is performed at the frame rate (for example, 16.7 ms)
Is performed sequentially with the period as a cycle.
【0067】次に、「第2の処理」について説明する 第2の処理は、撮影部1から送られてくる画像情報を、
画像ズーム(画像拡大)処理(S20)により、水平方
向に拡大処理した後、前記エッジ画素を抽出し(S2
2)、自車両が走行する走行レーンに対する車線を認識
し(S28)、自車両が危険状態にあるか否かを判定し
(S36)、警報装置21の駆動(警報)(S38)
や、車両運動制御装置22の駆動(回避)(S40)ま
での、一連の処理である。Next, the “second processing” will be described. In the second processing, the image information sent from the photographing section 1 is
After the image is enlarged in the horizontal direction by the image zoom (image enlargement) process (S20), the edge pixels are extracted (S2).
2) Recognize the lane with respect to the traveling lane in which the host vehicle runs (S28), determine whether the host vehicle is in danger (S36), and drive (warning) alarm device 21 (warning) (S38).
And a series of processing up to driving (avoidance) (S40) of the vehicle motion control device 22.
【0068】こられの各処理について、図1、2、3、
4を参照して説明する。For each of these processes, FIGS.
This will be described with reference to FIG.
【0069】画像ズーム処理(S20)については、後
に詳細に説明するが、画像ズーム回路8が、設定された
ズーム条件に従って、撮影して得た画像情報を、水平方
向にのみ拡大処理し、路面や白線等の画像を拡大する処
理である。例えば、図3(1)に示す原画像を、図3(2)の
ように、拡大する処理を行なう。The image zooming process (S20) will be described in detail later. The image zooming circuit 8 enlarges the image information obtained by shooting only in the horizontal direction according to the set zooming conditions, and performs the process on the road surface. This is a process for enlarging an image such as a white line or a white line. For example, a process of enlarging the original image shown in FIG. 3A is performed as shown in FIG.
【0070】エッジ抽出処理(S22)では、前述した
ように、抽出処理回路10がエッジ画素を抽出する。こ
の様子を、図3(3)に示す。もちろん、エッジ座標デー
タも抽出する。In the edge extraction processing (S22), the extraction processing circuit 10 extracts edge pixels as described above. This situation is shown in FIG. Of course, edge coordinate data is also extracted.
【0071】ここで、図4に、エッジ抽出処理(S2
2)の処理内容をフローチャートで示す。FIG. 4 shows an edge extraction process (S2
The processing content of 2) is shown in a flowchart.
【0072】画素判別処理(S2202)では、設定し
た抽出色条件と、全ての画素の色データとの比較を行
い、抽出色条件を満たす画素を抽出する。In the pixel discrimination process (S2202), the set extraction color condition is compared with the color data of all the pixels, and a pixel satisfying the extraction color condition is extracted.
【0073】そして、エッジ点判別処理(S2204)
では、ノイズを除去するために、例えば「3画素×3画
素」の空間フィルタリングを用いた平滑処理を行い、こ
の9つの画素のうち、半数以上の画素が抽出色条件を満
たす画素の集まりであれば、この9つの画素について
は、抽出色条件を満たす画素とする。Then, edge point discrimination processing (S2204)
Then, in order to remove noise, for example, a smoothing process using spatial filtering of “3 pixels × 3 pixels” is performed, and among the nine pixels, half or more of the pixels are a group of pixels satisfying the extraction color condition. For example, these nine pixels are pixels that satisfy the extraction color condition.
【0074】そして、図3(2)のように拡大処理された
画像情報を、1水平ライン毎に調べていったとき、抽出
色条件データを満足しない画素から、抽出色条件データ
を満足する画素へと変化した場合、該抽出色条件データ
を満足する画素を、立ち上がりエッジ画素とし、その座
標データを、立ち上がりエッジ画素の、エッジ座標デー
タとする。同様に、1つの水平ライン毎に調べていった
とき、抽出色条件データを満足する画素から、抽出色条
件データを満足しない画素へと変化した場合、該抽出色
条件データを満足する画素を、立ち下がりエッジ画素と
し、その座標データを、立ち下がりエッジ画素の、エッ
ジ座標データとする。When the image information subjected to the enlargement processing as shown in FIG. 3 (2) is examined for each horizontal line, the pixels which do not satisfy the extraction color condition data are replaced with the pixels which satisfy the extraction color condition data. When the value changes to, a pixel satisfying the extracted color condition data is set as a rising edge pixel, and its coordinate data is set as edge coordinate data of the rising edge pixel. Similarly, when checking for each horizontal line, if a pixel that satisfies the extracted color condition data changes from a pixel that satisfies the extracted color condition data to a pixel that does not satisfy the extracted color condition data, the pixel that satisfies the extracted color condition data is A falling edge pixel is set, and its coordinate data is set as edge coordinate data of the falling edge pixel.
【0075】そして、エッジ座標データを、エッジ座標
変換部11に転送する。なお、図3に示す例では、路面
と車線からなる画像情報であるが、路面上に他の車両等
が存在する場合には、車線を構成しないエッジ画素が抽
出されてしまう。Then, the edge coordinate data is transferred to the edge coordinate conversion unit 11. In the example shown in FIG. 3, the image information is composed of a road surface and a lane. However, when another vehicle or the like exists on the road surface, an edge pixel that does not form a lane is extracted.
【0076】次に、エッジ座標変換処理(S24)で
は、エッジ座標データを、ズーム条件決定部9から転送
された、ズーム中心座標と拡大率を参照し、図3(4)に
示すように、拡大前の座標データに変換し、車線認識部
12に転送する。Next, in the edge coordinate conversion processing (S24), the edge coordinate data is referred to the zoom center coordinate and the enlargement ratio transferred from the zoom condition determining unit 9 as shown in FIG. The data is converted into the coordinate data before the enlargement and transferred to the lane recognition unit 12.
【0077】なお、図5(a)、(b)には、夫々、拡大処
理前後の画像情報を示す。画面上端からy番目の水平ラ
インのズーム中心座標C、拡大率Rの場合、次式によっ
て、図5(b)のエッジ座標データP'は、拡大前のエ
ッジ座標データPに変換できる。ここで、Wは、画像情
報を構成する画素の集合の、水平方向の幅である。FIGS. 5A and 5B show image information before and after the enlargement process, respectively. In the case of the zoom center coordinate C and the enlargement ratio R of the y-th horizontal line from the upper end of the screen, the edge coordinate data P ′ in FIG. 5B can be converted into the edge coordinate data P before enlargement by the following equation. Here, W is a horizontal width of a set of pixels constituting image information.
【0078】P=(P'-W/2)/R+C 次に、車線認識処理(S28)では、転送されたエッジ
座標データから、複数の近似直線を求め、図3(5)に示
すように、自車の走行する走行レーンに対する車線を推
定する。P = (P'-W / 2) / R + C Next, in the lane recognition processing (S28), a plurality of approximate straight lines are obtained from the transferred edge coordinate data, and shown in FIG. Thus, the lane for the traveling lane in which the own vehicle travels is estimated.
【0079】すなわち、車線認識部12は、以下のよう
な処理を行なう。That is, the lane recognition unit 12 performs the following processing.
【0080】次に、車線認識部12は、エッジ座標変換
部11から送られたエッジ座標データに対して、左車線
に対するものと考えられるエッジ画素、右車線に対する
ものと考えられるエッジ画素、それ以外のエッジ画素で
あるかを判断し、分別する処理を行う。Next, the lane recognizing unit 12 converts the edge coordinate data sent from the edge coordinate converting unit 11 into edge pixels considered to be for the left lane, edge pixels considered to be for the right lane, It is determined whether or not the pixel is an edge pixel, and classification processing is performed.
【0081】この処理では、エッジ座標変換部11から
送られてきたエッジ座標データに基づいて、エッジ画素
の種類を判定する。ここで、エッジ座標データは、各エ
ッジ画素の座標情報と、立ち上がりまたは立ち下がりの
情報で構成されている。一般に、路面色を抽出色条件デ
ータにすると、立ち上がりエッジ画素が左車線を示し、
立ち下がりエッジ画素が右車線を示す。しかしながら、
前方路面領域に、前方車、障害物等が存在する場合、車
線以外のエッジ画素も、車線のエッジ画素として認識し
てしまう。In this process, the type of the edge pixel is determined based on the edge coordinate data sent from the edge coordinate conversion unit 11. Here, the edge coordinate data includes coordinate information of each edge pixel and information of rising or falling. In general, if the road surface color is the extracted color condition data, the rising edge pixel indicates the left lane,
The falling edge pixel indicates the right lane. However,
When a preceding vehicle, an obstacle, or the like exists in the front road surface area, edge pixels other than the lane are also recognized as edge pixels of the lane.
【0082】そこで、図3の画面中心線より左側に存在
する立ち上がりエッジ画素を左車線のエッジ画素、右側
に存在する立ち下がりエッジを右車線エッジ画素と仮定
し、それ以外のエッジ画素を、前方車等のエッジ画素と
して判別すればよい。Therefore, it is assumed that a rising edge pixel existing on the left side of the screen center line in FIG. 3 is an edge pixel on the left lane, and a falling edge existing on the right side is a right lane edge pixel. It may be determined as an edge pixel of a car or the like.
【0083】次に、左、右車線に対するエッジ画素のエ
ッジ座標データをもとに、例えば、最小2乗法等によっ
て、近似直線を求め、これを認識車線とする。なお、
左、右車線に対するエッジ画素以外のエッジ画素のエッ
ジ座標データは、前方車両を示す画素と判断し、そのエ
ッジ座標データで、自車両の位置に最も近いものを、前
方車両の存在位置とする。Next, based on the edge coordinate data of the edge pixels for the left and right lanes, an approximate straight line is obtained by, for example, the least square method or the like, and this is set as a recognized lane. In addition,
The edge coordinate data of the edge pixels other than the edge pixels for the left and right lanes is determined to be a pixel indicating the preceding vehicle, and the edge coordinate data closest to the position of the own vehicle is determined as the existing position of the preceding vehicle.
【0084】次に、危険判定処理(S36)では、車両
状態センサ(例えば、車速度センサ)20からの信号よ
り、自車両の走行状態(車速等)を判断し、その判断結
果と、車線によって定められる走行可能な路面と、前方
車両の存在位置の関係から、自車両が危険状態にあるか
否かを推定する。Next, in the danger determination process (S36), the traveling state (vehicle speed, etc.) of the own vehicle is determined from the signal from the vehicle state sensor (for example, vehicle speed sensor) 20, and the result of the determination and the lane are used. From the relationship between the determined road surface on which the vehicle can run and the location of the preceding vehicle, it is estimated whether or not the own vehicle is in a dangerous state.
【0085】例えば、車速度センサが検出した、自車両
の速度が所定値以上で、かつ、前方車両の存在位置が所
定範囲内であるとき、これを危険状態と判断する。For example, when the speed of the host vehicle detected by the vehicle speed sensor is equal to or higher than a predetermined value and the position of the preceding vehicle is within a predetermined range, this is determined as a dangerous state.
【0086】次に、警報処理(S38)では、危険判断
部13で危険状態と判断した場合、警報装置21を駆動
して、自車の運転者に伝える。Next, in the warning process (S38), when the danger determination unit 13 determines that the vehicle is in a dangerous state, the warning device 21 is driven to notify the driver of the own vehicle.
【0087】次に、回避処理(S40)では、危険判断
部13で危険状態と判断した場合、車両運動制御装置2
2を駆動する。Next, in the avoidance process (S40), when the danger determining unit 13 determines that the vehicle is in a dangerous state, the vehicle motion control device 2
2 is driven.
【0088】なお、危険状態の警告に対しても運転者の
操作が不十分であったと判断した場合に、車両運動制御
装置22を駆動するような構成にしても良い。Incidentally, the vehicle motion control device 22 may be driven when it is determined that the driver's operation has been insufficient even for the danger state warning.
【0089】そして、これらの一連の処理を繰り返すこ
とにより、装置が動作することになる。The apparatus operates by repeating these series of processes.
【0090】次に、本発明における主要な処理である画
像ズーム処理(S20)について、詳細に説明する。Next, the image zoom processing (S20), which is the main processing in the present invention, will be described in detail.
【0091】図6に、画像ズーム処理(S20)の処理
内容を説明するための、フローチャートを示す。FIG. 6 is a flowchart for explaining the processing contents of the image zoom processing (S20).
【0092】まず、前の周期で処理して得られた認識車
線の座標データ等を参照して、ズーム条件決定部9が、
各水平ライン毎に、ズーム中心座標および拡大率を決定
する(S2002)。First, referring to the coordinate data of the recognized lane obtained by processing in the previous cycle, the zoom condition determining unit 9
The zoom center coordinates and the enlargement ratio are determined for each horizontal line (S2002).
【0093】ここで、ズーム中心座標は、画像情報を拡
大する際に、拡大処理を行なう基準点の位置を示すパラ
メータであり、拡大率は、画像情報を拡大する倍率を示
すパラメータである。ズーム中心座標は、例えば、認識
された左右車線に挾まれた自車走行レーンの中心位置と
し、拡大率については、拡大後の車線が画面からはみ出
さない(例えば、画面幅Wの8割程度になる)ように決
定すればよい。このような決定は、ズーム条件決定部9
が、車線認識部12から送られた、車線を構成するエッ
ジ座標データ等を参照して、認識された左右車線に挾ま
れた自車走行レーンの中心位置や走行レーン幅を把握す
ることによって行なう。もちろん、ズーム中心座標およ
び拡大率を、順次更新する必要がない場合には、水平ラ
イン毎に、予め定めておき、ズーム条件決定部9に格納
しておいても良い。Here, the zoom center coordinate is a parameter indicating the position of a reference point at which enlargement processing is performed when the image information is enlarged, and the enlargement ratio is a parameter indicating the magnification at which the image information is enlarged. The zoom center coordinate is, for example, the center position of the own vehicle traveling lane sandwiched between the recognized left and right lanes, and the enlargement ratio is such that the enlarged lane does not protrude from the screen (for example, about 80% of the screen width W). ). Such a determination is made by the zoom condition determining unit 9.
This is performed by referring to the edge coordinate data and the like constituting the lane sent from the lane recognition unit 12 and ascertaining the center position and the width of the traveling lane between the recognized left and right lanes. . Of course, when it is not necessary to sequentially update the zoom center coordinates and the enlargement ratio, they may be determined in advance for each horizontal line and stored in the zoom condition determination unit 9.
【0094】次に、実際のシーンを図示した図面を参照
して説明をする。Next, an actual scene will be described with reference to the drawings.
【0095】図7(a)に、前の周期で処理して得られた
車線認識の結果の一例を示す。画面上端からy番目の水
平ラインにおいて、左車線座標がxl、右車線座標がxr
とした時、ズーム中心座標Cおよび拡大率Rは、次式で
表される。FIG. 7A shows an example of the result of lane recognition obtained by processing in the previous cycle. In the y-th horizontal line from the top edge of the screen, the left lane coordinate is xl and the right lane coordinate is xr
Then, the zoom center coordinates C and the enlargement ratio R are expressed by the following equations.
【0096】ズーム中心座標: C=(xr+xl)/2 拡大率: R=α×W/(xr−xl) ただし、(xr−xl)/W<α<1 ここで、αは、拡大処理後の車線が、画面からはみ出さ
ないようにするための係数である。ただし、αが、下限
値((xr-xl)/W)より小さい場合には、Rが「1」より小
さくなり、画像情報が縮小されることになるため、この
場合には、α=(xr-xl)/W、即ち、拡大率R=1とする。な
お、Wは、以下、画面幅を示す。Zoom center coordinate: C = (xr + xl) / 2 Magnification: R = α × W / (xr−xl) where (xr−xl) / W <α <1, where α is the value after the enlargement process. Is a coefficient for preventing the lane from protruding from the screen. However, if α is smaller than the lower limit ((xr-xl) / W), R becomes smaller than “1” and the image information is reduced, and in this case, α = ( xr-xl) / W, that is, the enlargement ratio R = 1. In the following, W indicates the screen width.
【0097】図7(b)に、α=0.8とした時の、拡大処理
された画像情報の一例を示す。FIG. 7B shows an example of image information subjected to enlargement processing when α = 0.8.
【0098】次に、図8に、曲線路のシーンを想定した
場合であって、認識された左車線が、画面内に部分的に
しか存在しない場合の、車線認識結果の一例を示す。こ
の場合、画面上端からy番目の水平ラインにおいて、左
車線座標が画面内に存在せず、右車線座標をxrとする
と、ズーム中心座標Cおよび拡大率Rは、次式で表され
る。Next, FIG. 8 shows an example of a result of lane recognition when a scene on a curved road is assumed and the recognized left lane is only partially present in the screen. In this case, assuming that the left lane coordinate does not exist in the screen and the right lane coordinate is xr in the y-th horizontal line from the upper end of the screen, the zoom center coordinate C and the enlargement ratio R are expressed by the following equations.
【0099】ズーム中心座標: C=xr/2 拡大率: R=α×W/xr これは、図7に対する、ズーム中心座標C、拡大率Rを
求める式において、xl=0とした場合に、相当する。Zoom center coordinates: C = xr / 2 Magnification ratio: R = α × W / xr This is obtained when xl = 0 in the equation for calculating the zoom center coordinates C and the magnification ratio R with respect to FIG. Equivalent to.
【0100】さらに、図9に、曲線路のシーンを想定し
た場合であって、認識された右車線が、画面内に部分的
にしか存在しない場合の、車線認識結果の一例を示す。
この場合、画面上端からy番目の水平ラインにおいて、
左車線座標をxlとし、右車線座標が画面内に存在しな
いので、ズーム中心座標Cおよび拡大率Rは、次式で表
される。FIG. 9 shows an example of lane recognition results when a scene on a curved road is assumed and the recognized right lane is only partially present in the screen.
In this case, at the y-th horizontal line from the top of the screen,
Since the left lane coordinate is xl and the right lane coordinate does not exist in the screen, the zoom center coordinate C and the enlargement ratio R are expressed by the following equations.
【0101】ズーム中心座標:C=(W+xl)/2 拡大率: R=α×W/(W−xl) これは、図7に対する、ズーム中心座標C、拡大率Rを
求める式において、xr=Wとした場合に、相当する。Zoom center coordinate: C = (W + xl) / 2 Magnification ratio: R = α × W / (W−xl) This is a formula for calculating the zoom center coordinate C and the magnification ratio R with respect to FIG. This is equivalent to W.
【0102】次に、画像ズーム回路8は、決定したズー
ム中心座標と拡大率に従って、画像を拡大する処理を行
なう(S2004)。Next, the image zoom circuit 8 performs a process of enlarging the image according to the determined zoom center coordinates and the enlargement ratio (S2004).
【0103】ここで、図10を参照して、1水平ライン
についての拡大処理について説明する。Here, the enlargement processing for one horizontal line will be described with reference to FIG.
【0104】図10(a)に示すように、8画素のデー
タ(1水平ラインは、8画素から構成されると仮定す
る)を、矢印で示す位置をズーム中心座標として、拡大
率「2倍」で、拡大処理する場合について説明する。As shown in FIG. 10A, the data of 8 pixels (assuming that one horizontal line is composed of 8 pixels) is obtained by using the position indicated by the arrow as the zoom center coordinate and increasing the magnification by “2 × , The case of performing the enlargement process will be described.
【0105】まず、拡大する画素の数を求める。この時
には、拡大処理後の画素の数も8画素でなければならな
いので、拡大率「2倍」を考慮して、拡大する画素の数
は、4画素となる。First, the number of pixels to be enlarged is obtained. At this time, since the number of pixels after the enlargement process must also be eight, the number of pixels to be enlarged is four in consideration of the enlargement ratio “2”.
【0106】次に、拡大する画素データを選ぶ。ズーム
中心座標を中心として、4画素を選ぶことを想定する。
そして、選ばれた画素に対する画像情報の大きさを2倍
にして、1水平ラインを構成する8画素に割り当てる。Next, pixel data to be enlarged is selected. It is assumed that four pixels are selected around the zoom center coordinates.
Then, the size of the image information for the selected pixel is doubled and assigned to eight pixels forming one horizontal line.
【0107】このような処理によって、図10(a)に示
す画像情報は、図10(b)に示すように拡大処理され
る。By such processing, the image information shown in FIG. 10A is enlarged as shown in FIG. 10B.
【0108】上述した処理を、総ての水平ラインに対し
て行うことで、画面情報全体を水平方向に拡大すること
ができることになる。By performing the above-described processing on all the horizontal lines, the entire screen information can be enlarged in the horizontal direction.
【0109】以下、画像の拡大処理による、車線認識の
具体例を、図11、図12を参照して説明する。Hereinafter, a specific example of lane recognition by image enlargement processing will be described with reference to FIGS.
【0110】図12(A)は、図11(a)に示すA部(右
車線の一部)を、詳細に見た様子を示した図である。ま
た、図12(B)は、図12(A)を、画像拡大処理(拡大
率:2倍)した結果を示す図である。上述したように、
エッジ点判別処理(図4:S2204)では、ノイズ除
去のため、「3画素×3画素」の空間フィルタリングを
施している。FIG. 12A shows a detailed view of the part A (part of the right lane) shown in FIG. 11A. FIG. 12B is a diagram showing the result of performing image enlargement processing (enlargement ratio: twice) on FIG. 12A. As mentioned above,
In the edge point discrimination processing (FIG. 4: S2204), spatial filtering of “3 pixels × 3 pixels” is performed to remove noise.
【0111】即ち、この9画素のうち、半数以上が抽出
色条件を満たせば、この9画素は、抽出色条件を満たし
ているものと判断する。なお、図11(c)は、水平ラ
イン毎に設定された、拡大率の変化の状態を示し、具体
的には、第N水平ラインより下方に位置する水平ライン
に対して、連続的に減少するように、拡大率が定められ
ている。That is, if more than half of the nine pixels satisfy the extraction color condition, it is determined that the nine pixels satisfy the extraction color condition. FIG. 11C shows the state of the change of the enlargement ratio set for each horizontal line. Specifically, the horizontal line located below the Nth horizontal line continuously decreases. In order to do so, the magnification is set.
【0112】今、図12(A)(B)が、太線で示すように
「3画素×3画素」のかたまりで区切られているものと
する。図12(A)の場合、白線色を有する「3画素×3
画素」のかたまりは、1つであり、エッジ点判別処理に
おいては、図12(A')に示すように画素が構成されて
いるものとみなされる。一方、図12(B)の場合、白線
色を有する「3画素×3画素」のかたまりは4つとな
り、エッジ点判別処理においては、図12(B')に示す
ように画素が構成されているものとみなされる。Now, it is assumed that FIGS. 12A and 12B are separated by a cluster of “3 pixels × 3 pixels” as shown by a thick line. In the case of FIG. 12A, “3 pixels × 3” having a white line color
The number of “pixels” is one, and in the edge point determination processing, it is considered that pixels are configured as shown in FIG. On the other hand, in the case of FIG. 12B, the number of “3 pixels × 3 pixels” having a white line color is four, and in the edge point discrimination processing, pixels are configured as shown in FIG. 12B ′. Is considered to be
【0113】したがって、拡大処理された画像において
は、領域A(図11参照)における白線の割合が「2/
3」となり、拡大処理していない場合の「1/3」に比
べ、白線の割合が大きくなる。このため、拡大処理して
いない場合には認識できない白線も、拡大処理し、画像
情報に占める白線の割合を大きくすることにより、白線
の認識が可能になる。よって、拡大処理によって、自車
両が走行する走行レーンに対する車線を、より遠方まで
認識することが可能となる。Therefore, in the enlarged image, the ratio of the white line in the area A (see FIG. 11) is "2 /
3 ", and the ratio of the white line is larger than" 1/3 "when the enlargement processing is not performed. For this reason, white lines that cannot be recognized unless the enlargement processing is performed are enlarged and the percentage of the white lines in the image information is increased, whereby the white lines can be recognized. Therefore, by the enlargement process, it is possible to recognize the lane with respect to the traveling lane in which the own vehicle travels to a farther distance.
【0114】以下、画像拡大処理の他の処理方法につい
て列挙する。Hereinafter, other processing methods of the image enlargement processing will be enumerated.
【0115】上述したように、画像拡大処理の一例とし
て、拡大率を各水平ライン毎に計算して求める方法につ
いて述べた。しかしながら、画像拡大処理において、図
13に示すように、拡大率を、ある水平ラインを境にし
て、不連続に変化させることも考えられる。As described above, as an example of the image enlargement processing, the method of calculating and obtaining the enlargement ratio for each horizontal line has been described. However, in the image enlargement processing, as shown in FIG. 13, the enlargement ratio may be changed discontinuously around a certain horizontal line.
【0116】具体的には、図13(c)に示すように、
第M水平ラインより上方に位置する水平ライン(第M水
平ラインを含める)に対して、所定の拡大率を設定して
おき、また、第M水平ラインより下方に位置する水平ラ
インに対しては、前記所定の拡大率とは異なる値の拡大
率(図13の場合、拡大率=1より、拡大処理しないこ
とになる)を設定しておく。なお、このように、拡大率
を不連続にした場合の処理例を、図13(b)に示す。
また、図13(a)に、原画像を示す。More specifically, as shown in FIG.
A predetermined enlargement factor is set for horizontal lines (including the M-th horizontal line) located above the M-th horizontal line, and for a horizontal line located below the M-th horizontal line. An enlargement ratio different from the predetermined enlargement ratio (in the case of FIG. 13, the enlargement ratio = 1, the enlargement processing is not performed) is set. FIG. 13B shows a processing example when the enlargement ratio is discontinuous.
FIG. 13A shows an original image.
【0117】このように、特定の水平ラインより上方に
位置する水平ラインに対しては、ある所定の拡大率で拡
大し、下方に位置する水平ラインには、拡大処理を行わ
ない。なお、特定の水平ラインは、いずれかの拡大率が
設定されるようにしておけば良い。As described above, a horizontal line located above a specific horizontal line is enlarged at a predetermined enlargement ratio, and an enlargement process is not performed on a horizontal line located below. It should be noted that any specific enlargement ratio may be set for a specific horizontal line.
【0118】この方法によれば、各水平ライン毎に拡大
率を計算する方法に比べ、計算量を大幅に減らすことが
可能である。According to this method, the amount of calculation can be greatly reduced as compared with the method of calculating the enlargement ratio for each horizontal line.
【0119】また、拡大率を変化させる水平ライン、そ
の拡大率の設定法には、次のようなものが考えられる。
最も簡単な方法としては、拡大率を変化させる水平ライ
ン、および、その拡大率を予め設定しておき、これを参
照して、画像ズーム回路8が画像拡大処理を行なうこと
が、挙げられる また、拡大率のみ固定とし、拡大率を切り換える水平ラ
インでの車線幅が一定になるように、拡大率を変化させ
る水平ラインを可変にする方法も考えられる。The following is conceivable as a method for setting the horizontal line for changing the enlargement ratio and the enlargement ratio.
As the simplest method, the horizontal line for changing the enlargement ratio and the enlargement ratio are set in advance, and the image zoom circuit 8 performs the image enlargement process with reference to the horizontal line. A method is also conceivable in which only the enlargement ratio is fixed and the horizontal line for which the enlargement ratio is changed is variable so that the lane width on the horizontal line at which the enlargement ratio is switched is constant.
【0120】なお、ズーム中心座標は、図14に示すよ
うに、拡大率を変化させる水平ラインにおける左右車線
に挾まれた自車走行レーンの中心位置を採用すれば良
い。As shown in FIG. 14, the center position of the running lane between the left and right lanes of the horizontal line for changing the magnification may be used as the zoom center coordinate.
【0121】以上述べてきたように、本発明によれば、
画像を拡大する処理によって、簡易な構成で、遠方の車
線の認識を正確に行なうことを可能にする装置を実現で
きる。As described above, according to the present invention,
By the process of enlarging an image, it is possible to realize a device that can accurately recognize a distant lane with a simple configuration.
【0122】[0122]
【発明の効果】以上述べたように、本発明によれば、撮
影装置によって撮影された画像情報を、水平方向に拡大
する処理を行なうことによって、簡易な構成で、広い視
野を確保しながら遠方の走行路に対しても車線を正確に
認識できる装置を実現することが可能となる。As described above, according to the present invention, the image information captured by the image capturing apparatus is expanded in the horizontal direction, thereby achieving a distant view with a simple configuration while securing a wide field of view. It is possible to realize a device capable of accurately recognizing the lane even for the traveling road.
【図1】本発明にかかるシステム構成例を示す構成図で
ある。FIG. 1 is a configuration diagram showing an example of a system configuration according to the present invention.
【図2】全体の処理内容を示すフローチャートである。FIG. 2 is a flowchart showing the entire processing content.
【図3】処理によって生成された画像を示す説明図であ
る。FIG. 3 is an explanatory diagram showing an image generated by the processing.
【図4】エッジ抽出処理を示すフローチャートである。FIG. 4 is a flowchart illustrating an edge extraction process.
【図5】エッジ座標変換処理の原理の説明図である。FIG. 5 is an explanatory diagram of the principle of edge coordinate conversion processing.
【図6】電子ズーム処理の処理内容を示すフローチャー
トである。FIG. 6 is a flowchart illustrating processing contents of an electronic zoom processing.
【図7】あるシーンでの、ズーム中心座標を求めるため
の説明図である。FIG. 7 is an explanatory diagram for obtaining zoom center coordinates in a certain scene.
【図8】あるシーンでの、ズーム中心座標を求めるため
の説明図である。FIG. 8 is an explanatory diagram for obtaining zoom center coordinates in a certain scene.
【図9】あるシーンでの、ズーム中心座標を求めるため
の説明図である。FIG. 9 is an explanatory diagram for obtaining zoom center coordinates in a certain scene.
【図10】拡大処理の原理の説明図である。FIG. 10 is an explanatory diagram of the principle of the enlargement process.
【図11】拡大処理前後の画面、拡大率の説明図であ
る。FIG. 11 is an explanatory diagram of a screen and an enlargement ratio before and after an enlargement process.
【図12】エッジ判別処理の原理の説明図である。FIG. 12 is an explanatory diagram of the principle of edge determination processing.
【図13】拡大率が不連続変化する場合の拡大処理前後
の画面、拡大率の説明図である。FIG. 13 is an explanatory diagram of a screen and an enlargement ratio before and after an enlargement process when the enlargement ratio changes discontinuously.
【図14】拡大率が不連続変化する場合のズーム中心座
標を表す説明図である。FIG. 14 is an explanatory diagram illustrating zoom center coordinates when the enlargement ratio changes discontinuously.
【図15】置換回路による処理結果の説明図ある、FIG. 15 is an explanatory diagram of a processing result by a replacement circuit.
1…撮影部、5…処理部、6…画像処理部、7…判断
部、8…画像ズーム回路、9…ズーム条件決定部、10
…抽出処理回路、11…エッジ座標変換部、12…車線
認識部、14…表示部DESCRIPTION OF SYMBOLS 1 ... Photographing part, 5 ... Processing part, 6 ... Image processing part, 7 ... Judgment part, 8 ... Image zoom circuit, 9 ... Zoom condition determination part, 10
... Extraction processing circuit, 11 ... Edge coordinate conversion unit, 12 ... Lane recognition unit, 14 ... Display unit
───────────────────────────────────────────────────── フロントページの続き (72)発明者 門司 竜彦 茨城県ひたちなか市大字高場2520番地 株式会社日立製作所 自動車機器事業部 内 (72)発明者 音堂 栄良 東京都小平市上水本町五丁目20番1号 株式会社日立製作所 半導体事業部内 (56)参考文献 特開 平3−194670(JP,A) 特開 平6−124340(JP,A) 特開 平6−229760(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 1/00,3/40 G06T 7/00,9/20 G08G 1/16 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Tatsuhiko Moji 2520 Takada, Hitachinaka-shi, Ibaraki Automobile Equipment Division, Hitachi, Ltd. No. 20 No. 1 Semiconductor Division, Hitachi, Ltd. (56) References JP-A-3-194670 (JP, A) JP-A-6-124340 (JP, A) JP-A-6-229760 (JP, A) ( 58) Surveyed field (Int.Cl. 7 , DB name) G06T 1/00, 3/40 G06T 7/00, 9/20 G08G 1/16
Claims (8)
手段と、撮像した画像情報の大きさを拡大する画像拡大
処理手段と、拡大した画像情報を水平1ライン毎に走査
し、ある特定の色と、それ以外の色との境界を調べ、そ
の境界となる画素をエッジ画素として抽出し、抽出した
エッジ画素の位置座標を求めるエッジ画素座標検出手段
と、抽出したエッジ画素の位置座標を、拡大処理前の座
標に変換するエッジ画素座標変換手段と、エッジ画素の
変換座標を参照し、エッジ画素を、直線を構成するよう
に結んで構成される線画像を求める線画像抽出手段と、
各水平ライン毎に定めた、画像情報の拡大量である拡大
率、および、画像情報の拡大処理を行なう基準位置を示
す拡大中心座標を記憶する拡大条件記憶手段とを備え、 前記画像拡大処理手段は、前記拡大条件記憶手段の記憶
内容を参照し、各水平ライン毎に、前記拡大中心座標を
中心として、前記拡大率で示される倍率で、画像情報の
大きさを拡大していく処理を行なうことを特徴とする画
像処理装置。An image pickup means for picking up an image and obtaining image information, an image enlargement processing means for enlarging the size of the picked up image information, and scanning the enlarged image information for each horizontal line. An edge pixel coordinate detecting means for examining a boundary between a specific color and another color, extracting a pixel serving as the boundary as an edge pixel, and calculating a position coordinate of the extracted edge pixel, and a position coordinate of the extracted edge pixel And an edge pixel coordinate conversion means for converting the coordinates to the coordinates before the enlargement processing, and a line image extraction means for obtaining a line image formed by connecting the edge pixels so as to form a straight line with reference to the converted coordinates of the edge pixels. ,
An enlarging condition storing unit that stores an enlarging ratio, which is an amount of enlarging image information, defined for each horizontal line, and an enlarging center coordinate indicating a reference position at which the enlarging process of the image information is performed; Performs a process of enlarging the size of image information at the magnification indicated by the enlargement ratio, centering on the enlargement center coordinates, for each horizontal line, with reference to the storage contents of the enlargement condition storage means. An image processing apparatus characterized by the above-mentioned.
し、画像情報を得るための撮像手段と、撮像した画像情
報の大きさを拡大する画像拡大処理手段と、拡大した画
像情報を水平1ライン毎に走査し、ある特定の色と、そ
れ以外の色との境界を調べ、その境界となる画素をエッ
ジ画素として抽出し、抽出したエッジ画素の位置座標を
求めるエッジ画素座標検出手段と、抽出したエッジ画素
の位置座標を、拡大処理前の座標に変換するエッジ画素
座標変換手段と、エッジ画素の変換座標を参照し、エッ
ジ画素を、直線を構成するように結んで構成される左右
車線を求める車線抽出手段と、各水平ライン毎に定め
た、画像情報の拡大量である拡大率、および、画像情報
の拡大処理を行なう基準位置を示す拡大中心座標を記憶
する拡大条件記憶手段とを備え、 前記画像拡大処理手段は、前記拡大条件記憶手段の記憶
内容を参照し、各水平ライン毎に、前記拡大中心座標を
中心として、前記拡大率で示される倍率で、画像情報の
大きさを拡大していく処理を行なうことを特徴とする画
像処理装置。2. An image pickup device mounted on a vehicle for picking up an image in front of the vehicle and obtaining image information; an image enlargement processing unit for enlarging the size of the image information taken; An edge pixel coordinate detecting means for scanning line by line, examining a boundary between a specific color and another color, extracting a pixel serving as the boundary as an edge pixel, and obtaining a position coordinate of the extracted edge pixel; Edge pixel coordinate conversion means for converting the position coordinates of the extracted edge pixels into coordinates before the enlargement processing; and left and right sides formed by connecting the edge pixels so as to form a straight line with reference to the converted coordinates of the edge pixels. Lane extracting means for finding lanes, and enlarging condition storing means for storing an enlarging rate, which is an amount of expansion of image information, defined for each horizontal line, and expansion center coordinates indicating a reference position at which the image information is to be expanded. The image enlargement processing unit refers to the storage content of the enlargement condition storage unit, and for each horizontal line, the magnification of the image information at a magnification indicated by the enlargement ratio with the enlargement center coordinate as a center. An image processing apparatus characterized by performing a process of enlarging the image.
記画像拡大処理手段は、撮影した画像情報の大きさを、
水平方向にのみに拡大する処理を行なうことを特徴とす
る画像処理装置。3. The image processing apparatus according to claim 1, wherein said image enlargement processing means determines a size of the photographed image information.
An image processing apparatus for performing processing for enlarging only in a horizontal direction.
て、前記拡大条件記憶手段に、拡大率を、各水平ライン
毎に、連続して変化するような値にして予め記憶してお
くことを特徴とする画像処理装置。4. The enlargement condition storage means according to claim 1, wherein the enlargement ratio is previously stored in the enlargement condition storage means as a value which changes continuously for each horizontal line. An image processing apparatus characterized by the above-mentioned.
記車線抽出手段は、前の車線抽出周期で処理して得られ
た抽出車線の座標データに基づいて、各水平ライン毎の
拡大率および拡大中心座標を求め、前記拡大条件記憶手
段に記憶する機能を有することを特徴とする画像処理装
置。5. The method according to claim 2, wherein said lane extracting means includes an enlargement factor for each horizontal line based on coordinate data of the extracted lane obtained by processing in the previous lane extraction cycle. An image processing apparatus having a function of obtaining enlargement center coordinates and storing the coordinates in the enlargement condition storage means.
記車線抽出手段は、予め定められた画面幅を、各水平ラ
インにおける左右車線で挾まれる自車走行レーンの幅で
除した値に基づき、各水平ライン毎の拡大率を求め、前
記拡大条件記憶手段に記憶する機能を有することを特徴
とする画像処理装置。6. The lane extracting means according to claim 2, wherein said lane extracting means divides a predetermined screen width by a value obtained by dividing a width of a vehicle traveling lane sandwiched between left and right lanes in each horizontal line. An image processing apparatus having a function of obtaining an enlargement ratio for each horizontal line based on the enlargement ratio and storing the enlargement ratio in the enlargement condition storage means.
て、前記車線抽出手段は、各水平ラインにおける左右車
線で挾まれる自車走行レーンの中心位置を、各水平ライ
ン毎の拡大中心座標として求め、前記拡大条件記憶手段
に記憶する機能を有することを特徴とする画像処理装
置。7. The lane extracting means according to claim 2, wherein the lane extracting means determines the center position of the own vehicle traveling lane sandwiched between the left and right lanes in each horizontal line by the enlarged center coordinates for each horizontal line. An image processing apparatus characterized by having a function of obtaining the above as a condition and storing it in the enlargement condition storing means.
て、前記拡大条件記憶手段に予め記憶しておく、拡大率
として、ある特定の水平ラインより垂直方向において上
に存在する水平ラインに対する値と、前記ある特定の水
平ラインを含み、該水平ラインより垂直方向において下
に存在する水平ラインに対する値とを、異ならせること
を特徴とする画像処理装置。8. The enlargement ratio according to claim 1, wherein the enlargement ratio is a value for a horizontal line existing vertically above a specific horizontal line. And a value for a horizontal line that includes the specific horizontal line and exists below the horizontal line in the vertical direction.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP07119856A JP3084208B2 (en) | 1995-05-18 | 1995-05-18 | Image processing device |
PCT/JP1996/001133 WO1996034363A1 (en) | 1995-04-26 | 1996-04-25 | Image processor for vehicle |
US08/750,988 US5987174A (en) | 1995-04-26 | 1996-04-25 | Image processing apparatus for vehicles |
DE19680415T DE19680415C2 (en) | 1995-04-26 | 1996-04-25 | Image processing device for vehicles |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP07119856A JP3084208B2 (en) | 1995-05-18 | 1995-05-18 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH08315116A JPH08315116A (en) | 1996-11-29 |
JP3084208B2 true JP3084208B2 (en) | 2000-09-04 |
Family
ID=14771974
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP07119856A Expired - Fee Related JP3084208B2 (en) | 1995-04-26 | 1995-05-18 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3084208B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7538795B2 (en) | 2003-03-25 | 2009-05-26 | Minolta Co., Ltd. | Monitor device for moving body |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6275231B1 (en) * | 1997-08-01 | 2001-08-14 | American Calcar Inc. | Centralized control and management system for automobiles |
JP2002027433A (en) * | 2000-07-06 | 2002-01-25 | Koito Ind Ltd | Image processing circuit, road traffic monitoring image pre-processing circuit and monitoring image processing method |
JP4016735B2 (en) * | 2001-11-30 | 2007-12-05 | 株式会社日立製作所 | Lane mark recognition method |
JP4747670B2 (en) * | 2005-05-20 | 2011-08-17 | 株式会社デンソー | Image processing device |
KR101892267B1 (en) * | 2012-07-26 | 2018-09-28 | 삼성전자주식회사 | Photographing apparatus, method for controlling the same, and computer-readable recoding medium |
US10032249B2 (en) | 2014-09-05 | 2018-07-24 | Sakai Display Products Corporation | Image generating apparatus, image generating method, and computer program |
JP6837931B2 (en) * | 2017-06-26 | 2021-03-03 | アルパイン株式会社 | Display control device, display control method and camera monitoring system |
-
1995
- 1995-05-18 JP JP07119856A patent/JP3084208B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7538795B2 (en) | 2003-03-25 | 2009-05-26 | Minolta Co., Ltd. | Monitor device for moving body |
Also Published As
Publication number | Publication date |
---|---|
JPH08315116A (en) | 1996-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11910123B2 (en) | System for processing image data for display using backward projection | |
EP2739050B1 (en) | Vehicle surroundings monitoring system | |
WO2005125208A1 (en) | Monitor and vehicle periphery monitor | |
EP1895766B1 (en) | Camera with two or more angles of view | |
US8767074B2 (en) | System and method of assisting visibility of driver | |
JP5953824B2 (en) | Vehicle rear view support apparatus and vehicle rear view support method | |
JP5171723B2 (en) | Obstacle detection device and vehicle equipped with the device | |
JP2003259361A (en) | Image processing apparatus for vehicle | |
WO1996034363A1 (en) | Image processor for vehicle | |
EP3203725B1 (en) | Vehicle-mounted image recognition device | |
JP2005184395A (en) | Method, system and apparatus for image processing, and photographing equipment | |
JP2001023091A (en) | Picture display device for vehicle | |
JP4826355B2 (en) | Vehicle surrounding display device | |
JP3084208B2 (en) | Image processing device | |
JP2006254318A (en) | Vehicle-mounted camera, vehicle-mounted monitor and forward road area imaging method | |
JP3413745B2 (en) | Road surface monitoring device by image processing | |
CN111355880B (en) | Semiconductor device, image processing system and method, and computer-readable storage medium | |
JP4519519B2 (en) | Moving object detection device | |
JP5235843B2 (en) | Vehicle periphery monitoring device and vehicle periphery monitoring method | |
JPH09231379A (en) | Device for recognizing traveling lane by picture processing | |
JP5245471B2 (en) | Imaging apparatus, and image processing apparatus and method | |
CN111133439B (en) | Panoramic monitoring system | |
JP2006024120A (en) | Image processing system for vehicles and image processor | |
JP4013856B2 (en) | Rear side warning device | |
JP3965067B2 (en) | Stereo monitoring device and stereo monitoring method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080630 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080630 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090630 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |