JP3436224B2 - Vehicle end detection device - Google Patents

Vehicle end detection device

Info

Publication number
JP3436224B2
JP3436224B2 JP35816499A JP35816499A JP3436224B2 JP 3436224 B2 JP3436224 B2 JP 3436224B2 JP 35816499 A JP35816499 A JP 35816499A JP 35816499 A JP35816499 A JP 35816499A JP 3436224 B2 JP3436224 B2 JP 3436224B2
Authority
JP
Japan
Prior art keywords
image
edge
horizontal
vehicle
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP35816499A
Other languages
Japanese (ja)
Other versions
JP2001175845A (en
Inventor
哲夫 多田羅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP35816499A priority Critical patent/JP3436224B2/en
Publication of JP2001175845A publication Critical patent/JP2001175845A/en
Application granted granted Critical
Publication of JP3436224B2 publication Critical patent/JP3436224B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、交通流計測システ
ムにおいて、車両の幅及び位置等の情報として、画像上
の車両領域の上端又は下端である車両端を検出する車両
端検出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle end detection device for detecting a vehicle end which is an upper end or a lower end of a vehicle region on an image as information such as a width and a position of a vehicle in a traffic flow measuring system.

【0002】[0002]

【従来の技術】近時、著しい発展をしている高度道路交
通システム(Intelligent TransportSystem(IT
S))の分野において、カメラによって撮像して得られ
た映像から、車両の台数又は車速等を計測する交通流計
測システムは重要である。
2. Description of the Related Art Intelligent Transport System (IT
In the field of S)), a traffic flow measurement system that measures the number of vehicles, the vehicle speed, or the like from an image captured by a camera is important.

【0003】車両の台数又は車速等を計測するために車
両の端を検出する装置として、例えば特開平5−282
593号公報には走行中の車両の車頭を検出する車頭検
出装置が開示されている(従来例1)。従来例1に記載
の車頭検出装置は、路上の所定領域を固定カメラで撮影
し、その画像から、輪郭画像を求め、求めた輪郭画像を
水平方向に走査して輪郭画素数を計数して垂直プロファ
イルを求める。その後、この垂直プロファイルに対応す
る画像の撮影時刻から所定時間経過後に、同様に垂直プ
ロファイルを求め、こうして得られた一対の垂直プロフ
ァイルの差分である差分プロファイルから、路上に描か
れた白線等不動の異物の影響を受けることなく、車頭の
位置を求めるものである。
As an apparatus for detecting the end of a vehicle in order to measure the number of vehicles or the speed of the vehicle, for example, Japanese Patent Laid-Open No. 282/1982
Japanese Patent No. 593 discloses a vehicle head detecting device for detecting the head of a running vehicle (prior art example 1). The vehicle head detection device described in the conventional example 1 photographs a predetermined area on the road with a fixed camera, obtains a contour image from the image, scans the obtained contour image in the horizontal direction, counts the number of contour pixels, and vertically. Ask for a profile. Then, after a predetermined time has elapsed from the shooting time of the image corresponding to this vertical profile, the vertical profile is obtained in the same manner, and from the difference profile that is the difference between the pair of vertical profiles thus obtained, the white line drawn on the road is fixed. It seeks the position of the vehicle head without being affected by foreign matter.

【0004】また、特開平7−28975号公報には車
載カメラの映像から、走行道路の前方車両の最下部を求
める道路環境認識装置が開示されている(従来例2)。
従来例2に記載の道路環境認識装置は、入力画像に対し
て、カメラとの相対速度が大きいものを検出されにくく
する平滑化を施し、更に水平エッジを抽出して水平エッ
ジ画像を生成する。
Further, Japanese Unexamined Patent Publication No. 7-28975 discloses a road environment recognition device which obtains the lowermost portion of a vehicle ahead of a traveling road from the image of a vehicle-mounted camera (conventional example 2).
The road environment recognition device according to the second conventional example performs smoothing on an input image to make it difficult to detect an image having a large relative speed with a camera, and further extracts horizontal edges to generate a horizontal edge image.

【0005】次に、生成した水平エッジ画像の最下部か
ら順に、水平ライン上を走査してそのライン上にある水
平エッジ画素を計数していき、予め設定した画素数以上
の水平エッジ画素が含まれるような水平ラインがあれば
そのラインを前方車両の最下部の候補線とする。更に、
検出した候補線から画面上方に所定の高さの走査領域を
設定して、その領域内に含まれる候補線を検出してその
数を計数し、最初に内部の候補線数がしきい値を超えた
走査領域の最下部の候補線を、前方車の最下部とするも
のである。
Next, the generated horizontal edge image is sequentially scanned from the bottom to scan the horizontal line to count the horizontal edge pixels on the line, and the horizontal edge pixels equal to or more than a preset number of pixels are included. If there is such a horizontal line, it will be the candidate line at the bottom of the vehicle ahead. Furthermore,
A scanning area with a predetermined height is set above the screen from the detected candidate lines, the candidate lines included in that area are detected, and the number of them is counted. The candidate line at the bottom of the exceeded scanning area is set as the bottom of the preceding vehicle.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、従来例
1に記載の車頭検出装置では、画面内の最も手前の1台
の車両の車両端しか検出できないため、複数の車両が撮
影されている場合においても1台の車両の車両端しか検
出できないという問題点がある。
However, the vehicle head detecting device described in the conventional example 1 can detect only the vehicle end of the frontmost one vehicle in the screen, and therefore, when a plurality of vehicles are photographed. However, there is a problem that only the vehicle end of one vehicle can be detected.

【0007】また、従来例2に記載の道路環境認識装置
では、カメラに最も近い車両の下端を検出することを目
的としており、複数の車両が存在する場合に個別に車両
の下端を求めることを想定していないため、複数の車両
が撮影されている場合には、従来例1の車頭検出装置と
同様に、1台の車両の車両下端しか検出できないという
問題点がある。
In addition, the road environment recognition device described in the second conventional example aims to detect the lower end of the vehicle closest to the camera, and to individually determine the lower end of the vehicle when there are a plurality of vehicles. Since it is not assumed, when a plurality of vehicles are photographed, there is a problem that only the vehicle lower end of one vehicle can be detected as in the vehicle head detection device of the first conventional example.

【0008】更に、従来例2の装置は、前方車両最下部
の検出に水平エッジのみを使っているため、車両領域内
だけでなく路面上にも水平エッジが多数存在する場合に
は、車両領域と路面領域との判別がつかなくなり、精度
良く車両下端検出ができないという問題点がある。例え
ばトンネル内など、照明が規則的な間隔をおいて設置さ
れていて路面に明るさのむらがあるとき、撮影は路面に
対して斜め方向から行うので、画面上では明るさの縦方
向の変化が強調されて水平エッジが検出されるため、精
度良く車両最下部を検出することは困難である。
Further, since the apparatus of Conventional Example 2 uses only the horizontal edge for detecting the lowermost portion of the front vehicle, when many horizontal edges exist not only in the vehicle area but also on the road surface, the vehicle area There is a problem in that it is not possible to distinguish between the road surface area and the road surface area, and the vehicle lower end cannot be accurately detected. For example, when lighting is installed at regular intervals, such as in a tunnel, and there is uneven brightness on the road surface, shooting is performed obliquely to the road surface, so there is a vertical change in brightness on the screen. Since it is emphasized and the horizontal edge is detected, it is difficult to accurately detect the bottom of the vehicle.

【0009】本発明はかかる問題点に鑑みてなされたも
のであって、カメラによって撮像して得られた映像か
ら、複数の走行車両が存在する場合にも安定に精度良く
車両の上端及び下端が検出できる車両端検出装置を提供
することを目的とする。
The present invention has been made in view of the above problems, and it is possible to stably and accurately determine the upper and lower ends of a vehicle from a video captured by a camera even when there are a plurality of traveling vehicles. An object of the present invention is to provide a vehicle edge detection device that can detect the vehicle edge.

【0010】[0010]

【課題を解決するための手段】本発明に係る車両端検出
装置は、車両画像を入力する画像入力手段と、前記画像
入力手段により入力された前記車両画像から水平方向微
分画像を生成して水平方向輝度変化量を検出する水平方
向微分手段と、前記画像入力手段により入力された前記
車両画像から垂直方向微分画像を生成して垂直方向輝度
変化量を検出する垂直方向微分手段と、前記垂直方向微
分画像から水平エッジを抽出する水平エッジ抽出手段
と、前記水平方向微分画像から前記水平エッジの上部近
接領域におけるエッジ上部投影画像を生成して水平方向
の輝度変化情報を得るエッジ上部画像投影手段と、前記
水平方向微分画像から前記水平エッジの下部近接領域に
おけるエッジ下部投影画像を生成して水平方向の輝度変
化情報を得るエッジ下部画像投影手段と、前記エッジ下
部投影画像と前記エッジ上部投影画像との差分を計算し
て差分画像を生成する画像差分手段と、前記差分画像の
情報に基づいて前記水平エッジが車両上端であるか、車
両下端であるか、又はどちらでもないかを判定する水平
エッジ種類判定手段と、前記水平エッジ種類判定手段に
よって判定された前記車両上端及び前記車両下端を出力
する出力手段と、を有することを特徴とする。
A vehicle end detection apparatus according to the present invention includes an image input means for inputting a vehicle image, and a horizontal differential image generated from the vehicle image input by the image input means. A horizontal direction differentiating means for detecting a direction brightness change amount, a vertical direction differentiating means for detecting a vertical direction brightness change amount by generating a vertical direction differential image from the vehicle image input by the image input means, and the vertical direction Horizontal edge extracting means for extracting a horizontal edge from a differential image; edge upper image projecting means for obtaining a horizontal luminance change information by generating an edge upper projected image in an upper adjacent region of the horizontal edge from the horizontal differential image; An edge for obtaining horizontal luminance change information by generating an edge lower projection image in a lower proximity region of the horizontal edge from the horizontal differential image Partial image projection means, image difference means for calculating the difference between the edge lower projection image and the edge upper projection image to generate a difference image, and the horizontal edge is the vehicle upper end based on the information of the difference image. A horizontal edge type determining means for determining whether the vehicle is at the lower edge or neither, and an output means for outputting the vehicle upper edge and the vehicle lower edge determined by the horizontal edge type determining means. Is characterized by.

【0011】また、前記水平エッジは、前記垂直方向微
分画像の各画素について画素値の絶対値をとり、前記画
素値の絶対値がその垂直方向の他の画素の画素値の絶対
値より大きく、且つ所定のしきい値を超えるか否かによ
り前記画素値が第1の値又は第2の値に設定される二値
の水平エッジ画像とすることができる。
Further, the horizontal edge takes the absolute value of the pixel value for each pixel of the vertical direction differential image, and the absolute value of the pixel value is larger than the absolute values of the pixel values of other pixels in the vertical direction, A binary horizontal edge image in which the pixel value is set to the first value or the second value can be obtained depending on whether the pixel value exceeds a predetermined threshold value.

【0012】更に、前記垂直方向の他の画素は、垂直方
向の上下各2画素であってもよい。
Further, the other pixels in the vertical direction may be two pixels above and below in the vertical direction.

【0013】更にまた、前記エッジ上部投影画像及び前
記エッジ下部投影画像は、夫々前記水平エッジの上部近
接領域及び前記水平エッジの下部近接領域における前記
水平方向微分画像の画素値に重みを掛けて加算すること
により生成することができる。
Further, the edge upper projection image and the edge lower projection image are weighted and added to the pixel values of the horizontal direction differential image in the upper proximity region of the horizontal edge and the lower proximity region of the horizontal edge, respectively. Can be generated by

【0014】また、前記重みは、前記二値の水平エッジ
画像の前記画素値が前記第1の値となる画素と前記水平
方向微分画像の画素との垂直方向の距離をd、所定の距
離をvとすると、d>vのときw(d)=0となる関数
w(d)とすることができる。
Further, the weight is a vertical distance between a pixel whose pixel value of the binary horizontal edge image is the first value and a pixel of the horizontal differential image, and d is a predetermined distance. If v, it can be a function w (d) such that w (d) = 0 when d> v.

【0015】更に、前記水平エッジ種類判定手段は、前
記差分画像の上部の水平方向輝度変化が下部の水平方向
輝度変化より大きい前記水平エッジを車両の下端とし、
前記差分画像の下部の水平方向輝度変化が上部の水平方
向輝度変化より大きい前記水平エッジを車両の上端と判
定することができる。
Further, the horizontal edge type determining means sets the horizontal edge at which the change in horizontal luminance of the upper portion of the difference image is larger than the change in horizontal luminance of the lower portion as the lower edge of the vehicle,
The horizontal edge in which the lower horizontal luminance change of the difference image is larger than the upper horizontal luminance change may be determined as the upper end of the vehicle.

【0016】本発明においては、車両画像において、車
両の上端又は下端の候補となる水平エッジの上下の近接
領域の輝度変化量の情報によって車両の上端及び下端の
検出を行うので、映像内に複数の車両が存在する場合で
も、精度良く車両端の検出を行うことができると共に、
路面領域内には検出されにくい水平方向の輝度変化によ
って車両の上端及び下端の検出を行うので、路面の輝度
のむらのために路面上に水平エッジが検出される場合で
も、車両端と路面上の水平エッジを区別することができ
る。
In the present invention, since the upper and lower ends of the vehicle are detected in the image of the vehicle based on the information of the amount of change in the brightness of the adjacent regions above and below the horizontal edge that is a candidate for the upper or lower end of the vehicle, a plurality of images are included in the image. Even if there is a vehicle, it is possible to accurately detect the vehicle end,
Since the upper and lower ends of the vehicle are detected by horizontal brightness changes that are difficult to detect in the road surface area, even if horizontal edges are detected on the road surface due to uneven brightness on the road surface, the vehicle edge and the road surface can be detected. Horizontal edges can be distinguished.

【0017】[0017]

【発明の実施の形態】以下、本発明の実施例に係る車両
端検出装置について、添付の図面を参照して具体的に説
明する。図1は、本発明の実施例の構成を示すブロック
図である。
BEST MODE FOR CARRYING OUT THE INVENTION A vehicle end detecting device according to an embodiment of the present invention will be specifically described below with reference to the accompanying drawings. FIG. 1 is a block diagram showing the configuration of an embodiment of the present invention.

【0018】図1に示すように、本実施例の車両端検出
装置100は、画像入力手段101から得られた画像デ
ータが、水平方向微分手段103及び垂直方向微分手段
104に入力され、水平方向微分手段103により処理
されたデータと、垂直方向微分手段104で処理され、
更に水平エッジ抽出手段105により処理されたデータ
と共にエッジ上部画像投影手段106及びエッジ下部画
像投影手段107に入力される。そして、エッジ上部画
像投影手段106及びエッジ下部画像投影手段107に
より処理されたデータは、画像差分手段108に入力さ
れ、更に水平エッジ種類判定手段109に入力されて順
次処理された後、出力手段110により出力されること
により、車両を撮影した映像から、車両の上下端を検出
する装置である。データを入力されそれを処理するこれ
らの処理手段は、処理したデータを夫々記憶する記憶手
段を有している。
As shown in FIG. 1, in the vehicle end detection apparatus 100 of this embodiment, the image data obtained from the image input means 101 is input to the horizontal direction differentiating means 103 and the vertical direction differentiating means 104, and the horizontal direction is detected. The data processed by the differentiating means 103 and the vertical direction differentiating means 104,
Further, it is input to the upper edge image projection means 106 and the lower edge image projection means 107 together with the data processed by the horizontal edge extraction means 105. Then, the data processed by the upper edge image projecting means 106 and the lower edge image projecting means 107 are input to the image difference means 108, further input to the horizontal edge type determination means 109 and sequentially processed, and then output means 110. Is a device for detecting the upper and lower ends of a vehicle from a video image of the vehicle by being output by. These processing means for inputting data and processing it have storage means for storing the processed data respectively.

【0019】画像入力手段101は、例えば路側又は路
面上方等に設置されたカメラであり、車両が走行してい
る路面を撮影してその画像を入力する。この画像入力手
段101は、入力画像記憶手段111に接続されてお
り、入力画像記憶手段111が画像入力手段101によ
り入力された車両画像を記憶する。更に、入力画像記憶
手段111は、水平方向微分手段103及び垂直方向微
分手段104に接続され、入力画像記憶手段111が記
憶した車両画像を水平方向微分手段103及び垂直方向
微分手段104に入力する。
The image input means 101 is, for example, a camera installed on the roadside or above the road surface, and photographs the road surface on which the vehicle is traveling and inputs the image. The image input unit 101 is connected to the input image storage unit 111, and the input image storage unit 111 stores the vehicle image input by the image input unit 101. Further, the input image storage means 111 is connected to the horizontal direction differentiating means 103 and the vertical direction differentiating means 104, and inputs the vehicle image stored in the input image storage means 111 to the horizontal direction differentiating means 103 and the vertical differentiating means 104.

【0020】水平方向微分手段103及び垂直方向微分
手段104は、夫々水平方向微分画像記憶手段112及
び垂直方向微分画像手段113に接続されており、水平
方向微分手段103は、入力された車両画像の水平方向
の微分処理行い、これにより得られた水平方向微分画
像を水平方向微分画像記憶手段112に入力する。同様
に、垂直方向微分手段104は、入力された車両画像の
垂直方向の微分処理を行い、これにより得られた垂直方
向微分画像を垂直方向微分画像記憶手段113に入力す
る。
The horizontal direction differentiating means 103 and the vertical direction differentiating means 104 are connected to the horizontal direction differential image storing means 112 and the vertical direction differential image means 113, respectively, and the horizontal differentiating means 103 stores the input vehicle image. Horizontal differential processing is performed, and the horizontal differential image thus obtained is input to the horizontal differential image storage means 112. Similarly, the vertical direction differentiating means 104 performs a vertical direction differentiating process on the input vehicle image, and inputs the vertical direction differential image thus obtained into the vertical direction differential image storing means 113.

【0021】更に、垂直方向微分画像記憶手段113
は、水平エッジ抽出手段105に接続され、水平エッジ
抽出手段105は、水平エッジ画像記憶手段114に接
続されている。そして、垂直方向微分画像記憶手段11
3は、記憶している垂直方向微分画像を水平エッジ抽出
手段105に入力し、水平エッジ抽出手段105は垂直
方向微分画像の各画素の画素値を調べる。そして、画素
値の絶対値が極大であり、且つその画素値が予め定めた
しきい値を超えているか否かにより、画素値が二値の水
平エッジ画像を作成する。例えばしきい値を超えている
場合は画素値1、しきい値以下の場合は画素値0である
ような二値の水平エッジ画像を作成して、この画素値が
二値の水平エッジ画像を水平エッジ画像記憶手段114
に入力する。
Further, the vertical differential image storage means 113
Is connected to the horizontal edge extraction means 105, and the horizontal edge extraction means 105 is connected to the horizontal edge image storage means 114. Then, the vertical differential image storage means 11
3 inputs the stored vertical direction differential image to the horizontal edge extraction means 105, and the horizontal edge extraction means 105 checks the pixel value of each pixel of the vertical direction differential image. Then, a horizontal edge image having a binary pixel value is created depending on whether or not the absolute value of the pixel value is maximum and the pixel value exceeds a predetermined threshold value. For example, a binary horizontal edge image having a pixel value of 1 when the threshold value is exceeded and a pixel value of 0 when the threshold value is less than the threshold value is created, and a horizontal edge image having a binary pixel value is generated. Horizontal edge image storage means 114
To enter.

【0022】水平方向微分画像記憶手段112及び水平
エッジ画像記憶手段114は、共にエッジ上部画像投影
手段106及びエッジ下部画像投影手段107に接続さ
れ、更に、エッジ上部画像投影手段106及びエッジ下
部画像投影手段107は夫々エッジ上部投影画像記憶手
段115及びエッジ下部投影画像記憶手段116に接続
されている。そして、水平方向微分画像記憶手段112
及び水平エッジ画像記憶手段114は、夫々記憶してい
る水平方向微分画像及び水平エッジ画像を、共にエッジ
上部画像投影手段106及びエッジ下部画像投影手段1
07に入力する。
The horizontal differential image storage means 112 and the horizontal edge image storage means 114 are both connected to the upper edge image projection means 106 and the lower edge image projection means 107, and further, the upper edge image projection means 106 and the lower edge image projection means. The means 107 is connected to the upper edge projected image storage means 115 and the lower edge projected image storage means 116, respectively. Then, the horizontal differential image storage means 112
The horizontal edge image storage unit 114 and the horizontal differential image and the horizontal edge image respectively stored therein are both the upper edge image projection unit 106 and the lower edge image projection unit 1.
Enter in 07.

【0023】エッジ上部画像投影手段106は、画素値
が二値の水平エッジ画像のうち画素値が1である画素
(以下、エッジ画素という。)の全てに対して、水平エ
ッジ画素の上方にある水平方向微分画像の画素の画素値
に重みを掛けて加算し、これにより得られたエッジ上部
投影画像をエッジ上部投影画像記憶手段115に入力す
る。
The edge upper image projecting means 106 is above the horizontal edge pixels with respect to all the pixels having a pixel value of 1 in the horizontal edge image having binary pixel values (hereinafter, referred to as edge pixels). The pixel values of the pixels in the horizontal direction differential image are weighted and added, and the edge upper projection image thus obtained is input to the edge upper projection image storage means 115.

【0024】同様に、エッジ下部画像投影手段107
は、二値の水平エッジ画像のうち画素値1である水平エ
ッジ画素の全てに対して、水平エッジ画素の下方にある
水平方向微分画像の画素の画素値に重みを掛けて加算
し、これにより得られたエッジ下部投影画像をエッジ下
部投影画像記憶手段116に入力する。
Similarly, the lower edge image projection means 107.
For all the horizontal edge pixels having a pixel value of 1 in the binary horizontal edge image, the pixel values of the pixels of the horizontal differential image below the horizontal edge pixels are weighted and added, whereby The obtained edge lower projection image is input to the edge lower projection image storage means 116.

【0025】エッジ上部投影画像記憶手段115及びエ
ッジ下部投影画像記憶手段116は、共に画像差分手段
108に接続され、差分画像記憶手段117を介して水
平エッジ種類判定手段109に接続されて、更に水平エ
ッジ種類判定手段109は出力手段110に接続されて
いる。 エッジ上部投影画像記憶手段115及びエッジ
下部投影画像記憶手段116は、夫々記憶しているエッ
ジ上部投影画像及びエッジ下部投影画像を、画像差分手
段108に入力する。画像差分手段108は、エッジ上
部投影画像とエッジ下部投影画像との差分画像を作成
し、差分画像記憶手段117に入力する。そして、差分
画像記憶手段117は記憶している差分画像を水平エッ
ジ種類判定手段109に入力し、水平エッジ種類判定手
段109は、差分画像から車両の上端のエッジ及び下端
のエッジを選別して出力手段110に入力する。そして
出力手段110が抽出された車両の上端及び下端の位置
を出力する。
The upper edge projected image storage means 115 and the lower edge projected image storage means 116 are both connected to the image difference means 108, connected to the horizontal edge type determination means 109 via the difference image storage means 117, and further horizontal. The edge type determination means 109 is connected to the output means 110. The edge upper projection image storage unit 115 and the edge lower projection image storage unit 116 input the stored edge upper projection image and edge lower projection image to the image difference unit 108, respectively. The image difference means 108 creates a difference image between the edge upper projection image and the edge lower projection image, and inputs it to the difference image storage means 117. Then, the difference image storage unit 117 inputs the stored difference image to the horizontal edge type determination unit 109, and the horizontal edge type determination unit 109 selects and outputs the top edge and the bottom edge of the vehicle from the difference image. Input to the means 110. Then, the output means 110 outputs the positions of the upper end and the lower end of the extracted vehicle.

【0026】以下、本実施例の動作について詳しく説明
する。画像入力手段101によって得られ、入力画像記
憶手段111に記憶されている入力画像をI(i,j)
で示す。入力画像の座標系を、画像の左上の点を原点と
し、右方向がx軸の正方向、下方向がy軸の正方向とな
るようにとる。そして、x座標を、y座標をjとした
とき、I(i,j)は、座標(i,j)となる画素の輝
度値を示す。図5は、画像の左上の点を原点とし、右方
向がx軸の正方向、下方向がy軸の正方向となるように
とった座標系の入力画像を示す図である。本実施例にお
いては、図5に示すように、画面1の中央部に一台の車
両2の後部が存在する場合を説明する。車両2は、
a及びナンバープレート2b等を有する。また、車両2
の下方から側方にかけて、車両2は影3を有する。
The operation of this embodiment will be described in detail below. The input image obtained by the image input unit 101 and stored in the input image storage unit 111 is I (i, j).
Indicate. The coordinate system of the input image is set such that the upper left point of the image is the origin and the right direction is the positive direction of the x axis and the downward direction is the positive direction of the y axis. When the x-coordinate is i 1 and the y-coordinate is j, I (i, j) represents the luminance value of the pixel having the coordinate (i, j). FIG. 5 is a diagram showing an input image of a coordinate system in which the upper left point of the image is the origin, the right direction is the positive direction of the x axis, and the downward direction is the positive direction of the y axis. In the present embodiment, as shown in FIG. 5, a case will be described in which the rear portion of one vehicle 2 is present in the central portion of the screen 1. Vehicle 2 has window 2
a and the license plate 2b. Also, the vehicle 2
The vehicle 2 has a shadow 3 from below to the side.

【0027】また、図2(a)は水平方向微分処理のた
めのSobelフィルタ、図2(b)は垂直方向微分処
理のためのSobelフィルタを示す図である。本実施
例においては、微分処理は、水平方向及び垂直方向の輝
度変化量を検出するために、夫々図2(a)及び(b)
に示す3×3画素のSobelフィルタをエッジ検出用
フィルタとして使用する。そして、水平方向微分手段1
03による微分処理は、実際に得られた3×3の平方領
域の各点のデジタル化した入力画像に、図2(a)のS
obelフィルタを画素値に掛け合わせて積算する演算
処理を行う。そして得られた水平方向微分画像をIx
(i,j)とおく。図6は、図5を入力画像としたとき
の水平方向微分画像を示す図である。水平方向微分手段
103により、図2(a)のフィルタを使用して演算処
理することにより、図6に示すように、水平方向微分画
像が得られる。水平方向微分画像は、画面1には、車両
領域以外の領域に水平方向の輝度変化が少なく、画像が
表示されない。なお、微分のためのフィルタは、図2
(a)のような3×3に限らず、異なる大きさのもので
あってもよい。また、Sobelフィルタに限らず、水
平方向の輝度変化を抽出するようなものであればよい。
FIG. 2A is a Sobel filter for horizontal differential processing, and FIG. 2B is a Sobel filter for vertical differential processing. In the present embodiment, the differentiating process detects the amount of change in luminance in the horizontal direction and the amount of change in luminance in the vertical direction.
The Sobel filter of 3 × 3 pixels shown in is used as an edge detection filter. And the horizontal differentiating means 1
The differentiation processing by 03 is performed by adding S of FIG. 2A to the digitized input image of each point of the actually obtained 3 × 3 square area.
An arithmetic process is performed in which the pixel value is multiplied by the pixel filter and integrated. The obtained horizontal differential image is Ix
Let (i, j). FIG. 6 is a diagram showing a horizontal differential image when FIG. 5 is used as an input image. A horizontal differential image is obtained as shown in FIG. 6 by performing arithmetic processing by the horizontal differential means 103 using the filter of FIG. The horizontal differential image has a small horizontal brightness change in the area other than the vehicle area on the screen 1, and the image is not displayed. The filter for differentiation is shown in FIG.
The size is not limited to 3 × 3 as in (a), but may be different sizes. Further, it is not limited to the Sobel filter as long as it can extract a luminance change in the horizontal direction.

【0028】垂直方向微分手段104による微分処理
は、デジタル化した入力画像に、例えば図2(b)のS
obelフィルタを画素値に掛け合わせて積算する演算
処理を行う。得られた垂直方向微分画像をIy(i,
j)とおく。図7は、図5を入力画像としたときの垂直
方向微分画像を示す図である。水平方向微分処理と同様
に、垂直方向微分手段104の微分処理により、図7に
示すように、画面1に垂直方向微分画像が得られる。画
面1には、車両領域及び車両の影の端部において、垂直
方向の輝度変化のために画像が表示されている。なお、
微分のためのフィルタは、水平方向微分の場合と同様
に、図2のような3×3に限らず、異なる大きさのもの
であってもよい。また、Sobelフィルタに限らず、
垂直方向の輝度変化を求めるようなものであればよい。
The differentiating process by the vertical differentiating means 104 is applied to the digitized input image by, for example, S in FIG. 2 (b).
An arithmetic process is performed in which the pixel value is multiplied by the pixel filter and integrated. The obtained vertical differential image is Iy (i,
j). FIG. 7 is a diagram showing a vertical differential image when FIG. 5 is used as an input image. Similar to the horizontal direction differentiating process, the vertical direction differentiating image is obtained on the screen 1 as shown in FIG. 7 by the differentiating process of the vertical direction differentiating means 104. An image is displayed on the screen 1 in the vehicle area and at the end of the shadow of the vehicle due to a change in the luminance in the vertical direction. In addition,
The filter for differentiation is not limited to 3 × 3 as shown in FIG. 2 and may have different sizes, as in the case of horizontal differentiation. Also, not limited to the Sobel filter,
Anything can be used as long as it can obtain the luminance change in the vertical direction.

【0029】以上の水平方向微分手段103及び垂直方
向微分手段104により夫々得られた水平方向微分画像
Ix(i,j)及び垂直方向微分画像Iy(i,j)を
夫々水平方向微分画像記憶手段112及び垂直方向微分
画像記憶手段113に記憶する。
The horizontal differential image Ix (i, j) and the vertical differential image Iy (i, j) obtained by the horizontal differentiating means 103 and the vertical differentiating means 104 are respectively stored in the horizontal differential image storing means. 112 and the vertical differential image storage means 113.

【0030】水平エッジ抽出手段105では、垂直方向
微分画像記憶手段113に記憶されている垂直方向微分
画像Iy(i,j)の各画素の画素値の絶対値をとり、
その絶対値画像の極大の選択を行うことで水平エッジを
抽出する。極大、即ち水平エッジの選択は、例えば、極
大か否かを判定するために選択した画素(以下、注目画
素という。)と、注目画素の垂直方向における上下2画
素ずつ、合計5画素の中で注目画素の画素値の絶対値が
最も大きい値で、且つ予め定めたしきい値を超えている
場合に、その注目画素を極大と判定して選択する。極大
を選択する際、極大を注目画素及びその垂直方向におけ
る上下3画素ずつ、合計7画素から選択する等、選択の
範囲を変えてもよい。そして、極大、即ち水平エッジと
判定された画素は画素値1、それ以外の画素は画素値0
であるような二値画像からなる水平エッジ画像を作成す
る。図8は、図7に示す垂直方向微分画像から水平エッ
ジを抽出して作成した水平エッジ画像を示す図である。
画面1には、水平エッジ抽出手段105の処理により、
垂直方向微分画像よりもその線幅が細くなった画像が表
示される。この水平エッジ画像は、水平エッジ画像記憶
手段114によって記憶される。
The horizontal edge extraction means 105 takes the absolute value of the pixel value of each pixel of the vertical differential image Iy (i, j) stored in the vertical differential image storage means 113,
Horizontal edges are extracted by selecting the maximum of the absolute value image. The maximum, that is, the horizontal edge is selected, for example, from a pixel selected to determine whether it is the maximum (hereinafter referred to as a target pixel) and two pixels above and below the target pixel in the vertical direction, out of a total of 5 pixels. When the absolute value of the pixel value of the pixel of interest is the largest value and exceeds the predetermined threshold value, the pixel of interest is determined as the maximum and selected. When selecting the maximum value, the selection range may be changed such that the maximum value is selected from the target pixel and the upper and lower three pixels in the vertical direction from a total of seven pixels. Pixels having a maximum value, that is, a pixel determined to have a horizontal edge have a pixel value of 1, and other pixels have a pixel value of 0
Create a horizontal edge image consisting of a binary image such as FIG. 8 is a diagram showing a horizontal edge image created by extracting horizontal edges from the vertical differential image shown in FIG. 7.
On the screen 1, by the processing of the horizontal edge extraction means 105,
An image whose line width is narrower than that of the vertically differentiated image is displayed. This horizontal edge image is stored by the horizontal edge image storage means 114.

【0031】エッジ上部画像投影手段106では、水平
エッジ画像の2値の画素値のうち画素値1である各エッ
ジ画素に対して、各水平エッジ画素の近傍の領域であっ
て上方の領域における水平方向微分画像記憶手段112
に記憶されている水平方向微分画像Ix(i,j)の投
影値を求める。具体的には、水平エッジ画像のエッジ画
素と水平方向微分画像Ix(i,j)の画素との垂直方
向の距離dに応じた重みw(d)を、水平方向微分画像
Ix(i,j)の画素値の絶対値に掛けて加算する演算
処理を行う。
In the upper edge image projection means 106, with respect to each edge pixel having a pixel value of 1 out of the binary pixel values of the horizontal edge image, a horizontal region in a region near each horizontal edge pixel and in an upper region is provided. Directional differential image storage means 112
The projection value of the horizontal direction differential image Ix (i, j) stored in is calculated. Specifically, the weight w (d) corresponding to the vertical distance d between the edge pixel of the horizontal edge image and the pixel of the horizontal differential image Ix (i, j) is calculated as the horizontal differential image Ix (i, j). ) The calculation processing of multiplying and adding the absolute value of the pixel value is performed.

【0032】図3及び図4は、横軸に距離d、縦軸に重
みw(d)をとって、重みw(d)を示すグラフ図であ
る。重みw(d)は、例えば図3のグラフに示すよう
に、距離dに反比例するものを使用することができる。
また、重みw(d)は、図4のグラフに示すような関数
形のものでもよい。但し、注目画素から遠く離れた水平
方向微分画像Ix(i,j)の画素値の影響は受けない
ように、重みw(d)は、予め定めた所定距離vに対
し、距離d>vのときw(d)=0となるように決め
る。
3 and 4 are graphs showing the weight w (d) with the distance d on the horizontal axis and the weight w (d) on the vertical axis. As the weight w (d), for example, as shown in the graph of FIG. 3, a weight inversely proportional to the distance d can be used.
Further, the weight w (d) may have a functional form as shown in the graph of FIG. However, the weight w (d) is set such that the distance w> d is greater than the predetermined distance v so that the pixel value of the horizontal differential image Ix (i, j) far away from the pixel of interest is not affected. Then, it is determined that w (d) = 0.

【0033】図9(a)は図6に示す水平方向微分画像
Ix(i,j)と図8に示す水平エッジ画像とを重ねて
示す図、図9(b)は水平方向微分画像Ix(i,j)
と図9(a)の楕円で囲まれている領域Aの水平エッジ
画素とを重ねて示した図、図9(c)及び(d)は夫々
夫々領域Aのエッジ上部投影画像及びエッジ下部投影画
像を示すグラフ図である。
FIG. 9A is a view showing the horizontal differential image Ix (i, j) shown in FIG. 6 and the horizontal edge image shown in FIG. 8 in an overlapping manner, and FIG. 9B is a horizontal differential image Ix (i. i, j)
9A and FIG. 9B are diagrams showing the horizontal edge pixels of the area A surrounded by the ellipse in FIG. 9A in an overlapping manner, and FIGS. 9C and 9D respectively show an edge upper projection image and an edge lower projection image of the area A, respectively. It is a graph which shows an image.

【0034】図9(a)において、画面1の楕円で囲ま
れた車両中央付近の領域Aの水平エッジ画素に対してエ
ッジ上部画像投影手段106により処理を行う場合、領
域Aの水平エッジ画素に対して重みw(d)が0ではな
い値になるのは、図9(b)に示す、車両中央より上部
に存在する矩形で囲まれている領域Bである。このと
き、この矩形の高さは所定距離vである。この矩形領域
Bの水平方向微分画像Ix(i,j)の絶対値に対して
重みw(d)により演算処理を行う。
In FIG. 9A, when the edge upper image projecting means 106 processes the horizontal edge pixels of the area A near the vehicle center surrounded by the ellipse of the screen 1, the horizontal edge pixels of the area A are selected. On the other hand, the weight w (d) becomes a value other than 0 in the region B surrounded by the rectangle existing above the center of the vehicle as shown in FIG. 9B. At this time, the height of this rectangle is a predetermined distance v. A calculation process is performed on the absolute value of the horizontal differential image Ix (i, j) of the rectangular area B using the weight w (d).

【0035】この演算処理は、水平エッジ画素の座標を
(i,j)、エッジ上部投影画像をIaproj(i,j)
とすると、Iaproj(i,j)は下記数式1により得ら
れる。なお、水平エッジ画像で画素値が0である画素で
は、エッジ上部投影画像Iaproj(i,j)は0であ
る。
In this calculation process, the coordinates of the horizontal edge pixel are (i, j) and the edge upper projection image is Iaproj (i, j).
Then, Iaproj (i, j) is obtained by the following formula 1. It should be noted that, in a pixel having a pixel value of 0 in the horizontal edge image, the edge upper projection image Iaproj (i, j) is 0.

【0036】[0036]

【数1】 [Equation 1]

【0037】領域Aの水平エッジ画素に対応する位置に
おいて、数式1で得られるエッジ上部投影画像Iaproj
(i,j)の投影値は、図9(c)に示すように、水平
エッジ画素の上部で輝度変化が大きいほど大きな値とな
る。図9(c)において、縦軸は投影値を、横軸は水平
エッジ上のx方向の位置を示す。
At the position corresponding to the horizontal edge pixel of the area A, the edge upper projection image Iaproj obtained by the equation 1 is obtained.
As shown in FIG. 9C, the projected value of (i, j) becomes larger as the luminance change is larger above the horizontal edge pixel. In FIG. 9C, the vertical axis represents the projection value and the horizontal axis represents the position in the x direction on the horizontal edge.

【0038】エッジ下部画像投影手段107は、エッジ
上部画像投影手段106と同様に、各エッジ画素に対し
て、各エッジ画素の近傍の領域であって下方の領域にお
ける水平方向微分画像Ix(i,j)の投影値を求め
る。領域Aの水平エッジ画素に対応する位置の画素上
に、エッジ下部画像投影手段107で投影される水平方
向微分画像Ix(i,j)の領域、即ち領域Aの各エッ
ジ画素に対して重みw(d)が0ではない値になる領域
は、図9(b)に示す車両中央より下方の矩形領域Cで
ある。また、この矩形の高さは、領域Bと同一の所定距
離vである。
Similar to the upper edge image projecting means 106, the lower edge image projecting means 107, for each edge pixel, is a horizontal differential image Ix (i, i, i, i) in an area near the edge pixel and below the edge pixel. j) Obtain the projection value. A weight w is applied to the area of the horizontal differential image Ix (i, j) projected by the edge lower image projection means 107, that is, to each edge pixel of the area A, on the pixel at the position corresponding to the horizontal edge pixel of the area A. An area where (d) has a value other than 0 is a rectangular area C below the vehicle center shown in FIG. 9B. The height of this rectangle is the same predetermined distance v as the area B.

【0039】ここで、エッジ下部投影画像をIbproj
(i,j)とすると、Ibproj(i,j)は下記数式2
により得られる。
Here, the lower edge projection image is Ibproj
Assuming that (i, j), Ibproj (i, j) is the following Equation 2
Is obtained by

【0040】[0040]

【数2】 [Equation 2]

【0041】なお、数式2の重みw(d)は、エッジ上
部画像投影手段106におけるw(d)と同一の関数を
示す。また、水平エッジ画像で画素値0である画素で
は、Ibproj(i,j)は0である。領域Aの水平エッ
ジ画素に対応する位置において、数式2で得られる下部
投影画像Ibproj(i,j)の投影値は、図9(d)に
示すように、水平エッジ画素の下部で輝度変化が大きい
ほど大きな値となる。図9(d)においても、図9
(c)と同様、縦軸は投影値を、横軸は水平エッジ上の
x方向の位置を示す。
The weight w (d) in the equation 2 shows the same function as w (d) in the edge upper image projection means 106. Further, Ibproj (i, j) is 0 in a pixel having a pixel value of 0 in the horizontal edge image. At the position corresponding to the horizontal edge pixel of the area A, the projection value of the lower projection image Ibproj (i, j) obtained by Equation 2 is as shown in Fig. 9 ( d) . The larger the change in brightness, the larger the value. Also in FIG. 9D, FIG.
Similar to (c), the vertical axis represents the projection value and the horizontal axis represents the position in the x direction on the horizontal edge.

【0042】以下、隣接する水平エッジ画素のグループ
をエッジという。画像上での路面領域の輝度変化は少な
いのに対して、車両領域の輝度変化は大きいため、エッ
ジの上方が路面領域又は影の領域である場合は、上部投
影画像Iaproj(i,j)の投影値は0に近い値をと
る。これに対し、エッジの上方に車両がある場合は、上
部投影画像Iaproj(i,j)の投影値は大きくなる。
同様に、エッジの下方が路面領域又は影の領域である場
合は、下部投影画像Ibproj(i,j)の投影値は0に
近い値をとる。これに対し、エッジの下方に車両がある
場合は、下部投影画像Ibproj(i,j)の投影値は大
きくなる。
Hereinafter, a group of adjacent horizontal edge pixels is referred to as an edge. Since there is little change in the brightness of the road surface area on the image, but there is a large change in the brightness of the vehicle area, if the area above the edge is the road surface area or the shadow area, the upper projection image Iaproj (i, j) The projection value takes a value close to 0. On the other hand, when the vehicle is above the edge, the projection value of the upper projection image Iaproj (i, j) is large.
Similarly, when the lower side of the edge is a road surface area or a shadow area, the projection value of the lower projection image Ibproj (i, j) takes a value close to 0. On the other hand, when there is a vehicle below the edge, the projection value of the lower projection image Ibproj (i, j) is large.

【0043】画像差分手段108は、こうして求まるエ
ッジ上部投影画像からエッジ下部投影画像を差し引いた
差分画像を作成し、差分画像記憶手段117が記憶す
る。画像差分手段108で処理され、差分画像記憶手段
117に記憶される差分画像をIsub(i,j)とする
と、Isub(i,j)は下記数式3により得られる。
The image difference means 108 creates a difference image by subtracting the edge lower projection image from the edge upper projection image thus obtained, and the difference image storage means 117 stores it. Assuming that the difference image processed by the image difference unit 108 and stored in the difference image storage unit 117 is Isub (i, j), Isub (i, j) is obtained by Equation 3 below.

【0044】[0044]

【数3】 [Equation 3]

【0045】図10は、画像差分手段108で作成され
る差分画像を示すグラフ図である。画像差分手段108
における処理で得られた図8に示す各水平エッジ上にお
いて、図9に示すような投影で得られた投影値に対し
て、図10に示すように、水平エッジ上の各画素でエッ
ジ上部投影値からエッジ下部投影値を引く差分が行われ
て差分値が得られる。差分画像記憶手段117には、各
水平エッジに対応する画素の画素値が差分値である差分
画像Isub(i,j)が記憶されている。なお、差分画
像Isub(i,j)が水平エッジに対応しない場合は、
その差分画像Isub(i,j)の画素の画素値は0であ
る。
FIG. 10 is a graph showing the difference image created by the image difference means 108. Image difference means 108
On each horizontal edge shown in FIG. 8 obtained by the processing in FIG. 8, for the projection value obtained by the projection as shown in FIG. 9, as shown in FIG. The difference value is obtained by subtracting the edge lower projection value from the value. The difference image storage means 117 stores a difference image Isub (i, j) in which the pixel value of the pixel corresponding to each horizontal edge is the difference value. If the difference image Isub (i, j) does not correspond to a horizontal edge,
The pixel value of the pixel of the difference image Isub (i, j) is 0.

【0046】図11(a)は車両の入力画像を示す図、
図11(b)乃至(e)は、図5に示す入力画像の複数
の領域の水平エッジに対応する差分値を示すグラフ図で
あって、夫々車両上端部、車両領域内、車両下端部及び
車両側方部における差分値を示す。
FIG. 11A is a diagram showing an input image of the vehicle,
11B to 11E are graphs showing the difference values corresponding to the horizontal edges of the plurality of regions of the input image shown in FIG. 5, which are the vehicle upper end portion, the vehicle region, the vehicle lower end portion, and the vehicle upper end portion, respectively. The difference value in the vehicle side part is shown.

【0047】エッジ上方に車両があり、エッジ下方は路
面(図示せず)である場合、差分値は正の値をとり、こ
のようなエッジは車両下端に相当する。図11(d)に
示すように、車両2の車両下端4に相当するエッジ上の
差分値の値は正の値になる。一方、エッジ下方に車両が
あり、エッジ上方は路面である場合、差分値は負の値を
とり、このようなエッジは車両上端に相当する。図11
(b)に示すように、車両2の車両上端5に相当するエ
ッジ上の差分値の値は負の値となる。
When there is a vehicle above the edge and a road surface (not shown) below the edge, the difference value takes a positive value, and such an edge corresponds to the lower end of the vehicle. As shown in FIG. 11D, the difference value on the edge corresponding to the vehicle lower end 4 of the vehicle 2 is a positive value. On the other hand, when the vehicle is below the edge and the road is above the edge, the difference value takes a negative value, and such an edge corresponds to the upper end of the vehicle. Figure 11
As shown in (b), the value of the difference value on the edge corresponding to the vehicle upper end 5 of the vehicle 2 is a negative value.

【0048】一方、車両領域内部に水平エッジがある場
合は、上方及び下方共に、輝度変化が存在するので、場
所によって値が正及び負の両方の値をとり、エッジ全体
で正又は負になる確率は低く、正の領域と負の領域とが
混在し、正の領域の長さ及び負の領域の長さが短くな
る。図11(c)に示すように、このような車両内部の
水平エッジ上の差分値の値は正の領域と負の領域とが短
い間隔で混在した状態なる。
On the other hand, when there is a horizontal edge inside the vehicle region, there are brightness changes both above and below, so the value takes both positive and negative values depending on the location, and the entire edge becomes positive or negative. The probability is low, the positive region and the negative region are mixed, and the length of the positive region and the length of the negative region become short. As shown in FIG. 11C, the difference value on the horizontal edge inside the vehicle is such that the positive region and the negative region are mixed at a short interval.

【0049】また、上方又は下方が影領域であるため
に、水平エッジが抽出される場合は、影領域又は路面と
なる上方及び下方共に輝度変化が少ない領域であるた
め、水平エッジ上の差分値の値はエッジ全体で0に近い
値になる。従って、図11(e)に示すように、影によ
る水平エッジ上の差分値の値は、エッジ全体で0に近い
値なる。
When the horizontal edge is extracted because the upper or lower part is the shadow area, the difference value on the horizontal edge is small because the brightness change is small in both the upper and lower parts of the shadow area or the road surface. The value of is close to 0 for the entire edge. Therefore, as shown in FIG. 11E, the difference value on the horizontal edge due to the shadow is close to 0 for the entire edge.

【0050】図12は、エッジ上部投影画像とエッジ下
部投影画像とから作成される差分画像を示す図である。
差分値画像は、例えば差分値が正の画素を白、差分値が
負の画素を黒、差分値が0の画素をグレー等として画面
に表示すことができる。その場合は、図12に示すよう
に、画面1に、水平エッジが白領域6又は黒領域7に色
分けされた差分画像が得られる。また、水平エッジ以外
の領域は、グレー領域8となる。図11(b)に示す車
両上端5の水平エッジは黒領域7で示され、図11
(c)に示す車両領域の水平エッジは白領域6と黒領域
7とが混在した領域で示される。また、図11(d)に
示す車両下端4の水平エッジは白領域6で示され、図1
1(e)に示す影による水平エッジは差分値がほぼ0で
あるため、グレー領域8となる。
FIG. 12 is a diagram showing a difference image created from the upper edge projected image and the lower edge projected image.
The difference value image can be displayed on the screen as, for example, a pixel having a positive difference value as white, a pixel having a negative difference value as black, a pixel having a difference value of 0 as gray, and the like. In that case, as shown in FIG. 12, a difference image in which the horizontal edge is color-coded into the white region 6 or the black region 7 is obtained on the screen 1. The area other than the horizontal edge is the gray area 8. The horizontal edge of the vehicle upper end 5 shown in FIG.
The horizontal edge of the vehicle area shown in (c) is shown as an area in which the white area 6 and the black area 7 are mixed. In addition, the horizontal edge of the vehicle lower end 4 shown in FIG.
The horizontal edge due to the shadow shown in 1 (e) has a difference value of almost 0, and thus becomes the gray area 8.

【0051】こうして画像差分手段108で生成された
差分画像は差分画像記憶手段117に記憶され、水平エ
ッジ種類判定手段に入力される。
The difference image thus generated by the image difference means 108 is stored in the difference image storage means 117 and input to the horizontal edge type determination means.

【0052】水平エッジ種類判定手段109では、先
ず、差分画像から、水平エッジ上の差分値が正で、予め
設定されている輝度値のしきい値Ithを超えるエッジ
画素のみを選択して、隣接するエッジ画素のグループで
あるエッジを得る。そして、得られたエッジのうち、エ
ッジの長さが予め設定したしきい値を超えるものだけを
選択し、車両下端候補とする。エッジの長さがしきい値
を超えないものは消去する。エッジの長さは、同じエッ
ジを構成する画素の座標値xの最大値と最小値との差で
定義する。そして、車両の縦横比r=(車両の高さ)/
(車両の幅)を予め設定しておき、各車両下端候補につ
いて、その車両下端候補の車両に対して上側、即ち図5
で定義したy方向の負の方向において、その車両下端候
補の長さ×rの距離の領域内に別の車両下端候補が存在
するか否かを調べる。このとき、車両下端候補の上側
に、別の車両下端候補が存在する場合は、両エッジの長
さを比較し、上側の下端候補の長さが短いときは上側の
下端候補を消去する。上側の下端候補の長さが長いか又
は同程度であるときは、両エッジの差分値の平均を計算
し、(下側のエッジの差分値の平均値)/(上側のエッ
ジの差分値の平均値)が予め設定したしきい値より大き
ければ上側のエッジを消去し、小さければ下側のエッジ
を消去する。そして、残ったエッジを車両の下端として
検出する。車両の上端は、エッジ上の差分値が負であ
り、エッジの長さがしきい値を超えるエッジに対して同
様の処理を行うことで検出する。
In the horizontal edge type determining means 109, first, only the edge pixels having a positive difference value on the horizontal edge and exceeding the preset threshold value Ith of the brightness value are selected from the difference image to be adjacent to each other. An edge that is a group of edge pixels to be obtained is obtained. Then, among the obtained edges, only those whose edge length exceeds a preset threshold value are selected and set as vehicle lower end candidates. If the edge length does not exceed the threshold value, it is erased. The length of the edge is defined by the difference between the maximum value and the minimum value of the coordinate value x of the pixels forming the same edge. Then, the vehicle aspect ratio r = (vehicle height) /
(Vehicle width) is set in advance, and for each vehicle lower end candidate, the upper side of the vehicle of the vehicle lower end candidate, that is, FIG.
It is checked whether or not there is another vehicle lower end candidate within the region of the length xr of the vehicle lower end candidate in the negative direction of the y direction defined in (4). At this time, if another vehicle lower end candidate exists above the vehicle lower end candidate, the lengths of both edges are compared, and if the upper lower end candidate has a shorter length, the upper lower end candidate is deleted. When the lengths of the upper and lower edge candidates are long or similar, the average of the difference values of both edges is calculated, and (the average value of the difference values of the lower edges) / (the difference value of the upper edge is calculated). If the average value) is larger than a preset threshold value, the upper edge is erased, and if it is smaller, the lower edge is erased. Then, the remaining edge is detected as the lower end of the vehicle. The upper end of the vehicle is detected by performing similar processing on an edge whose difference value on the edge is negative and the length of the edge exceeds the threshold value.

【0053】こうして水平エッジ種類判定手段109に
より、車両上端及び車両下端のエッジが検出される。そ
して、水平エッジ種類判定手段109で判定され検出さ
れた車両上端及び車両下端は出力手段110に入力され
る。
In this way, the horizontal edge type determining means 109 detects the edges of the vehicle upper end and the vehicle lower end. Then, the vehicle upper end and the vehicle lower end, which are determined and detected by the horizontal edge type determination means 109, are input to the output means 110.

【0054】出力手段110は、検出された車両端の位
置を出力するもので、例えば、入力画像記憶手段111
に記憶されている入力画像に、検出した車両端を重ねて
モニタ上に表示する。また、コンソールに検出した車両
端の位置を数値で表示するものでもよい。
The output means 110 outputs the detected position of the vehicle end, and is, for example, the input image storage means 111.
The detected vehicle edge is superimposed on the input image stored in, and displayed on the monitor. Alternatively, the position of the vehicle end detected on the console may be displayed numerically.

【0055】本実施例によれば、画像上での路面領域の
輝度変化は少ないのに対して、車両領域の輝度変化は大
きいことを利用するため、エッジの上方が路面領域又は
影の領域である場合は、エッジ上部投影画像Iaproj
(i,j)は0に近い値をとるのに対し、エッジの上方
に車両がある場合はエッジ上部投影画像Iaproj(i,
j)の値は大きくなり、エッジの下方に車両がある場合
はエッジ下部投影画像Ibproj(i,j)の値が大きく
なる。従って、エッジ上部投影画像とエッジ下部投影画
像との差分値から得られる差分画像Isubj(i,j)の
値から車両上端及び下端を検出することができる。即
ち、車両上端であれば、エッジ上部投影画像Iaproj
(i,j)が小さくエッジ下部投影画像Ibproj(i,
j)が大きいため、差分値が負になり、車両下部であれ
ば、エッジ上部投影画像Iaproj(i,j)が大きくエ
ッジ下部投影画像Ibproj(i,j)が小さいため差分
値が正の値となり、差分値が負となるエッジを選択する
ことにより車両上端を検出し、差分値が正となるエッジ
を選択することにより車両下端を検出することができ
る。
According to the present embodiment, since the change in the brightness of the road surface area on the image is small, but the change in the brightness of the vehicle area is large, the upper side of the edge is the road surface area or the shadow area. If there is, the upper edge projection image Iaproj
While (i, j) takes a value close to 0, when there is a vehicle above the edge, the edge upper projection image Iaproj (i, j
The value of j) becomes large, and when the vehicle is below the edge, the value of the edge lower projection image Ibproj (i, j) becomes large. Therefore, the vehicle upper end and lower end can be detected from the value of the difference image Isubj (i, j) obtained from the difference value between the edge upper projection image and the edge lower projection image. That is, if it is the upper end of the vehicle, the upper edge projection image Iaproj
(I, j) is small and the edge bottom projection image Ibproj (i,
j) is large, the difference value is negative, and if the vehicle is a lower part, the edge upper projection image Iaproj (i, j) is large and the edge lower projection image Ibproj (i, j) is small, so the difference value is a positive value. Therefore, the vehicle upper end can be detected by selecting the edge having the negative difference value, and the vehicle lower end can be detected by selecting the edge having the positive difference value.

【0056】[0056]

【発明の効果】以上詳述したように、本発明によれば、
路面には水平方向の輝度変化が少ないのに対し、車両領
域内には水平方向の輝度変化が多く存在することを利用
して、車両の上下端の検出を行う。即ち、車両の上端及
び下端の可能性がある水平エッジの上下のエッジ近傍の
限られた領域内に存在する水平方向輝度変化の量を調
べ、上部に水平方向輝度変化が大きいが下部には少ない
エッジを車両の下端とし、下部に水平方向輝度変化が大
きいが上部には少ないエッジを車両の上端として検出す
る。これにより、車両の上端及び下端から遠い位置にあ
る車両以外の物体による輝度変化の影響を受けず、更に
画像内に複数の車両が存在する場合においても、各車両
の上端及び下端を安定に精度よく求めることができる。
As described in detail above, according to the present invention,
The upper and lower ends of the vehicle are detected by utilizing the fact that there are few horizontal brightness changes on the road surface, but many horizontal brightness changes exist in the vehicle region. That is, the amount of horizontal luminance change existing in a limited area near the upper and lower edges of the horizontal edge which may be the upper and lower edges of the vehicle is examined, and the horizontal luminance change is large in the upper part but small in the lower part. An edge is detected as the lower end of the vehicle, and an edge with a large horizontal brightness change in the lower part but little in the upper part is detected as the upper end of the vehicle. As a result, the accuracy of the upper and lower ends of each vehicle is stable even when there are multiple vehicles in the image, without being affected by changes in brightness caused by objects other than the vehicles located far from the upper and lower ends of the vehicle. You can ask well.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例に係る車両端検出装置の構成を
示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a vehicle end detection device according to an embodiment of the present invention.

【図2】(a)は水平方向微分処理のためのSobel
フィルタ、(b)は垂直方向微分処理のためのSobe
lフィルタを示す図である。
FIG. 2A is a Sobel for horizontal direction differential processing.
Filter, (b) Sobe for vertical differential processing
It is a figure which shows a l filter.

【図3】横軸に距離d、縦軸に重みw(d)をとって、
重みw(d)を示すグラフ図である。
FIG. 3 shows the distance d on the horizontal axis and the weight w (d) on the vertical axis,
It is a graph which shows weight w (d).

【図4】同じく、横軸に距離d、縦軸に重みw(d)を
とって、重みw(d)を示すグラフ図である。
FIG. 4 is a graph diagram showing the weight w (d) with the distance d on the horizontal axis and the weight w (d) on the vertical axis.

【図5】画像の左上の点を原点とし、右方向がx軸の正
方向、下方向がy軸の正方向となるようにとった座標系
の入力画像を示す図である。
FIG. 5 is a diagram showing an input image of a coordinate system in which the upper left point of the image is the origin, the right direction is the positive direction of the x axis, and the downward direction is the positive direction of the y axis.

【図6】入力画像の水平方向微分画像を示す図である。FIG. 6 is a diagram showing a horizontal differential image of an input image.

【図7】入力画像の垂直方向微分画像を示す図である。FIG. 7 is a diagram showing a vertical differential image of an input image.

【図8】垂直方向微分画像から水平エッジを抽出して作
成した水平エッジ画像を示す図である。
FIG. 8 is a diagram showing a horizontal edge image created by extracting horizontal edges from a vertical differential image.

【図9】(a)は水平方向微分画像Ix(i,j)と水
平エッジ画像とを重ねて示した図、(b)は水平方向微
分画像Ix(i,j)と領域Aの水平エッジ画素とを重
ねて示した図、(c)及び(d)は夫々夫々領域Aのエ
ッジ上部投影画像及びエッジ下部投影画像を示すグラフ
図である。
9A is a diagram in which a horizontal differential image Ix (i, j) and a horizontal edge image are overlapped with each other, and FIG. 9B is a horizontal differential image Ix (i, j) and a horizontal edge of an area A. The figure which overlapped with the pixel and (c) and (d) is a graph figure which shows the edge upper projection image and edge lower projection image of the area | region A, respectively.

【図10】画像差分手段で作成される差分画像を示すグ
ラフ図である。
FIG. 10 is a graph showing a difference image created by the image difference means.

【図11】(a)は車両の入力画像を示す図、(b)乃
至(e)は、入力画像の車両領域内の複数の領域の水平
エッジに対応する差分値を示すグラフ図であって、夫々
車両上端部、車両領域内、車両下端部及び車両側方部に
おける差分値を示す。
11A is a diagram showing an input image of a vehicle, and FIGS. 11B to 11E are graphs showing difference values corresponding to horizontal edges of a plurality of regions in the vehicle region of the input image. , The difference values at the vehicle upper end portion, the vehicle region, the vehicle lower end portion, and the vehicle side portion, respectively.

【図12】エッジ上部投影画像とエッジ下部投影画像の
差分画像の画素値を示す図である。
FIG. 12 is a diagram showing pixel values of a difference image between an upper edge projected image and a lower edge projected image.

【符号の説明】[Explanation of symbols]

1;画面 2;車両 3;影 4;車両下端 5;車両上端 6;白領域 7;黒領域 8;グレー領域 101;画像入力手段 103;水平方向微分手段 104;垂直方向微分手段 105;水平エッジ抽出手段 106;エッジ上部画像投影手段 107;エッジ下部画像投影手段 108;画像差分手段 109;水平エッジ種類判定手段 110;出力手段 111;入力画像記憶手段 112;水平方向微分画像記憶手段 113;垂直方向微分画像記憶手段 114;水平エッジ画像記憶手段 115;エッジ上部投影画像記憶手段 116;エッジ下部投影画像記憶手段 117;差分画像記憶手段 1; screen 2; vehicle 3; Shadow 4; Bottom of vehicle 5; Vehicle top 6; white area 7: Black area 8: Gray area 101; Image input means 103; horizontal differentiating means 104: Vertical direction differentiating means 105; Horizontal edge extraction means 106; Edge upper image projection means 107; bottom edge image projection means 108; Image difference means 109: Horizontal edge type determination means 110; Output means 111; Input image storage means 112; Horizontal differential image storage means 113; Vertical direction differential image storage means 114; Horizontal edge image storage means 115; Edge upper projection image storage means 116; Bottom edge projection image storage means 117; Difference image storage means

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平8−43083(JP,A) 特開 平6−331335(JP,A) 特開 平9−198512(JP,A) 特開 平7−182484(JP,A) 特開 平5−282593(JP,A) 特開 平7−28975(JP,A) 特開2001−134772(JP,A) 特開2000−113201(JP,A) 特開2000−136905(JP,A) 特開2000−266539(JP,A) 特開2001−5979(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 330 G08G 1/00 JICSTファイル(JOIS)─────────────────────────────────────────────────── --- Continuation of the front page (56) References JP-A-8-43083 (JP, A) JP-A-6-331335 (JP, A) JP-A-9-198512 (JP, A) JP-A-7- 182484 (JP, A) JP 5-282593 (JP, A) JP 7-28975 (JP, A) JP 2001-134772 (JP, A) JP 2000-113201 (JP, A) JP 2000-136905 (JP, A) JP 2000-266539 (JP, A) JP 2001-5979 (JP, A) (58) Fields investigated (Int.Cl. 7 , DB name) G06T 1/00 330 G08G 1/00 JISST file (JOIS)

Claims (6)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 車両画像を入力する画像入力手段と、前
記画像入力手段により入力された前記車両画像から水平
方向微分画像を生成して水平方向輝度変化量を検出する
水平方向微分手段と、前記画像入力手段により入力され
た前記車両画像から垂直方向微分画像を生成して垂直方
向輝度変化量を検出する垂直方向微分手段と、前記垂直
方向微分画像から水平エッジを抽出する水平エッジ抽出
手段と、前記水平方向微分画像から前記水平エッジの上
部近接領域におけるエッジ上部投影画像を生成して水平
方向の輝度変化情報を得るエッジ上部画像投影手段と、
前記水平方向微分画像から前記水平エッジの下部近接領
域におけるエッジ下部投影画像を生成して水平方向の輝
度変化情報を得るエッジ下部画像投影手段と、前記エッ
ジ下部投影画像と前記エッジ上部投影画像との差分を計
算して差分画像を生成する画像差分手段と、前記差分画
像の情報に基づいて前記水平エッジが車両上端である
か、車両下端であるか、又はどちらでもないかを判定す
る水平エッジ種類判定手段と、前記水平エッジ種類判定
手段によって判定された前記車両上端及び前記車両下端
を出力する出力手段と、を有することを特徴とする車両
端検出装置。
1. An image inputting means for inputting a vehicle image; a horizontal differentiating means for generating a horizontal differential image from the vehicle image input by the image inputting means to detect a horizontal luminance change amount; Vertical differential means for generating a vertical differential image from the vehicle image input by the image input means to detect a vertical luminance change amount; horizontal edge extracting means for extracting a horizontal edge from the vertical differential image; Edge top image projection means for obtaining horizontal luminance change information by generating an edge top projection image in the upper proximity region of the horizontal edge from the horizontal direction differential image,
An edge lower image projecting unit for obtaining horizontal luminance change information by generating an edge lower projected image in a lower proximity region of the horizontal edge from the horizontal direction differential image; and the edge lower projected image and the edge upper projected image. An image difference unit that calculates a difference and generates a difference image, and a horizontal edge type that determines whether the horizontal edge is the vehicle upper end, the vehicle lower end, or neither based on the information of the difference image A vehicle end detection device comprising: a determination unit; and an output unit that outputs the vehicle upper end and the vehicle lower end determined by the horizontal edge type determination unit.
【請求項2】 前記水平エッジは、前記垂直方向微分画
像の各画素について画素値の絶対値をとり、前記画素値
の絶対値がその垂直方向の他の画素の画素値の絶対値よ
り大きく、且つ所定のしきい値を超えるか否かにより前
記画素値が第1の値又は第2の値に設定される二値の水
平エッジ画像であることを特徴とする請求項1に記載の
車両端検出装置。
2. The horizontal edge takes an absolute value of a pixel value for each pixel of the vertical direction differential image, and the absolute value of the pixel value is larger than the absolute values of pixel values of other pixels in the vertical direction, The vehicle end according to claim 1, wherein the pixel value is a binary horizontal edge image in which the pixel value is set to a first value or a second value depending on whether or not a predetermined threshold value is exceeded. Detection device.
【請求項3】 前記垂直方向の他の画素は、垂直方向の
上下各2画素であることを特徴とする請求項2に記載の
車両端検出装置。
3. The vehicle end detection device according to claim 2, wherein the other pixels in the vertical direction are two pixels in the vertical direction and two pixels in the vertical direction.
【請求項4】 前記エッジ上部投影画像及び前記エッジ
下部投影画像は、夫々前記水平エッジの上部近接領域及
び前記水平エッジの下部近接領域における前記水平方向
微分画像の画素値に重みを掛けて加算することにより生
成することを特徴とする請求項1乃至3のいずれか1項
に記載の車両端検出装置。
4. The edge upper projection image and the edge lower projection image are weighted and added to the pixel values of the horizontal differential image in the upper proximity area of the horizontal edge and the lower proximity area of the horizontal edge, respectively. The vehicle end detection device according to claim 1, wherein the vehicle end detection device is generated by the above method.
【請求項5】 前記水平エッジは、前記垂直方向微分画
像の各画素について画素値の絶対値をとり、前記画素値
の絶対値がその垂直方向の他の画素の画素値 の絶対値よ
り大きく、且つ所定のしきい値を超えるか否かにより前
記画素値が第1の値又は第2の値に設定される二値の水
平エッジ画像であり、前記重みは、前記二値の水平エッ
ジ画像の前記画素値が前記第1の値となる画素と前記水
平方向微分画像の画素との垂直方向の距離をd、所定の
距離をvとすると、d>vのときw(d)=0となる関
数w(d)であることを特徴とする請求項に記載の車
両端検出装置。
5. The horizontal edge is the vertical differential image.
For each pixel of the image, take the absolute value of the pixel value
The absolute value of is the absolute value of the pixel value of other pixels in the vertical direction .
Depending on whether or not it exceeds the specified threshold
Binary water whose pixel value is set to the first value or the second value
The weight is a flat edge image, and the weight is a distance in the vertical direction between a pixel in which the pixel value of the binary horizontal edge image is the first value and a pixel in the horizontal direction differential image, and a predetermined distance. Is a function w (d) such that w (d) = 0 when d> v, the vehicle end detection device according to claim 4 .
【請求項6】 前記水平エッジ種類判定手段は、前記差
分画像の上部の水平方向輝度変化が下部の水平方向輝度
変化より大きい前記水平エッジを車両の下端とし、前記
差分画像の下部の水平方向輝度変化が上部の水平方向輝
度変化より大きい前記水平エッジを車両の上端として判
定することを特徴とする請求項1乃至5のいずれか1項
に記載の車両端検出装置。
6. The horizontal edge type determining means sets the horizontal edge of the upper portion of the difference image whose horizontal luminance change is larger than the lower horizontal luminance change as a lower edge of the vehicle, and sets the lower horizontal luminance of the difference image. 6. The vehicle end detection device according to claim 1, wherein the horizontal edge whose change is larger than the change in horizontal luminance of the upper part is determined as the upper end of the vehicle.
JP35816499A 1999-12-16 1999-12-16 Vehicle end detection device Expired - Fee Related JP3436224B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP35816499A JP3436224B2 (en) 1999-12-16 1999-12-16 Vehicle end detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35816499A JP3436224B2 (en) 1999-12-16 1999-12-16 Vehicle end detection device

Publications (2)

Publication Number Publication Date
JP2001175845A JP2001175845A (en) 2001-06-29
JP3436224B2 true JP3436224B2 (en) 2003-08-11

Family

ID=18457881

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35816499A Expired - Fee Related JP3436224B2 (en) 1999-12-16 1999-12-16 Vehicle end detection device

Country Status (1)

Country Link
JP (1) JP3436224B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4361381B2 (en) * 2004-01-26 2009-11-11 三菱電機株式会社 Vehicle detection device
US7231288B2 (en) 2005-03-15 2007-06-12 Visteon Global Technologies, Inc. System to determine distance to a lead vehicle
JP4856656B2 (en) * 2008-01-22 2012-01-18 富士重工業株式会社 Vehicle detection device
JP6028632B2 (en) * 2013-03-15 2016-11-16 オムロン株式会社 Image processing apparatus, image processing method, and image processing program

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05282593A (en) * 1992-04-02 1993-10-29 Sumitomo Electric Ind Ltd Vehicle head detecting device
JP2862199B2 (en) * 1993-05-25 1999-02-24 松下電器産業株式会社 Vehicle recognition device
JP3169483B2 (en) * 1993-06-25 2001-05-28 富士通株式会社 Road environment recognition device
JP3125550B2 (en) * 1993-12-24 2001-01-22 日産自動車株式会社 Vehicle forward recognition device and vehicle travel control device
JP3399104B2 (en) * 1994-07-27 2003-04-21 日産自動車株式会社 Leading vehicle detection device and approach warning device
JPH09198512A (en) * 1996-01-16 1997-07-31 Nissan Motor Co Ltd Vehicle recognition device
JP3072730B2 (en) * 1998-10-09 2000-08-07 日本電気株式会社 Vehicle detection method and device
JP3596314B2 (en) * 1998-11-02 2004-12-02 日産自動車株式会社 Object edge position measuring device and moving object traffic judging device
JP3596339B2 (en) * 1999-03-15 2004-12-02 日産自動車株式会社 Inter-vehicle distance measurement device
JP2001005979A (en) * 1999-06-21 2001-01-12 Toyota Central Res & Dev Lab Inc Identification function learning device and vehicle detecting device
JP2001134772A (en) * 1999-11-04 2001-05-18 Honda Motor Co Ltd Object recognizing device

Also Published As

Publication number Publication date
JP2001175845A (en) 2001-06-29

Similar Documents

Publication Publication Date Title
US6801244B2 (en) Obstacle detection apparatus and method
JP3426060B2 (en) Face image processing device
JP3307335B2 (en) Vehicle region detection device and vehicle region verification method
US6477260B1 (en) Position measuring apparatus using a pair of electronic cameras
US6205242B1 (en) Image monitor apparatus and a method
US7792327B2 (en) Apparatus and method for detecting a road boundary
JP4857839B2 (en) Object detection device
JP2004112144A (en) Front car tracking system and method for tracking front car
JP4872769B2 (en) Road surface discrimination device and road surface discrimination method
JPH11252587A (en) Object tracking device
JP3328711B2 (en) Vehicle height measuring device and vehicle monitoring system using the same
JPH11351862A (en) Foregoing vehicle detecting method and equipment
JP2002228423A (en) Tire detecting method and device
JP3812384B2 (en) Leading vehicle recognition device
JPH1173514A (en) Recognition device for vehicle
JP3099691B2 (en) Object position measurement method on traveling road
JP3807651B2 (en) White line recognition device
JP3436224B2 (en) Vehicle end detection device
JP2798349B2 (en) Vehicle position detection device
US20030076317A1 (en) Apparatus and method for detecting an edge of three-dimensional image data
JP4106163B2 (en) Obstacle detection apparatus and method
JP2883131B2 (en) Driving lane identification method
JP4697761B2 (en) Queue detection method and queue detection apparatus
JPH08161508A (en) Pattern detecting method
JP2001283374A (en) Traffic flow measuring system

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080606

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090606

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100606

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees