JPH10269347A - Method for eliminating shade shadow element on geographic image, geographic image processor and recording medium - Google Patents

Method for eliminating shade shadow element on geographic image, geographic image processor and recording medium

Info

Publication number
JPH10269347A
JPH10269347A JP10008542A JP854298A JPH10269347A JP H10269347 A JPH10269347 A JP H10269347A JP 10008542 A JP10008542 A JP 10008542A JP 854298 A JP854298 A JP 854298A JP H10269347 A JPH10269347 A JP H10269347A
Authority
JP
Japan
Prior art keywords
shadow
geographic
image
geographic image
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10008542A
Other languages
Japanese (ja)
Other versions
JP3380457B2 (en
Inventor
Akifumi Nakai
章文 中井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
N T T DATA TSUSHIN KK
NTT Data Corp
Original Assignee
N T T DATA TSUSHIN KK
NTT Data Communications Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by N T T DATA TSUSHIN KK, NTT Data Communications Systems Corp filed Critical N T T DATA TSUSHIN KK
Priority to JP00854298A priority Critical patent/JP3380457B2/en
Publication of JPH10269347A publication Critical patent/JPH10269347A/en
Application granted granted Critical
Publication of JP3380457B2 publication Critical patent/JP3380457B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/273Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion removing elements interfering with the pattern to be recognised

Abstract

PROBLEM TO BE SOLVED: To provide a geographic image processor which eliminates shadow elements from a geographic image including natural things, buildings, etc., and easily grasps changes among plural geographic images of the same place. SOLUTION: A geographic image processor 1 consists of an image processing part 2 and a shadow elimination processing part 3. The part 3 extracts a photographed date and time information and height information of buildings, etc., of a geographic image which is generated based on satellite image data from the satellite image data, separately calculates a sunshine direction, a sunshine angle and the width and length of a shadow from the extracted photographed data and time information and height information, also calculates an influenced area of a building, etc., about a shadow, specifies a shadow area by subtracting the calculated influenced area from a multiplication value of the width by the length of a shadow and eliminates pixels of the specified shadow area. Also, the part 2 generates differential information among plural geographic images that represent the same place from which shadows are removed and highlights the differential information on a displaying part 6.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、衛星画像データを
用いた画像処理技術に係り、特に、複数世代の衛星画像
データ、つまり同一地点を時期や時間を変えて撮影する
ことにより得られた複数の衛星画像データの各々からそ
れぞれ地理画像を生成するとともに、各地理画像に含ま
れる太陽光による影画像を除去して画像間の差分抽出の
精度を高める手法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing technique using satellite image data, and more particularly, to a plurality of generations of satellite image data, that is, a plurality of satellite image data obtained by photographing the same point at different times and times. The present invention relates to a method of generating a geographic image from each of the satellite image data and removing a shadow image due to sunlight included in each geographic image to improve the accuracy of difference extraction between the images.

【0002】[0002]

【従来の技術】宅地、農地、道路、川等の地理情報や地
表上の建物の配置情報等を表す地図データをデータベー
ス化し、必要な地図データを、適宜表示部上に画像表示
したり、印刷したりして、需用者に提供するサービスシ
ステムが知られている。このようなサービスシステムで
は、航空写真、衛星写真(以下、航空写真等)、あるい
は地表の測量結果データを定期的に取得して地図データ
を生成し、時間の経過に伴って地図データの内容が変化
した場合は、操作者が、該当する地図データをデータベ
ースから検索して修正している。近年は、航空写真等を
コンピュータでパターン認識して個々の地図データの生
成と複数の地図データの内容変化の検知とを自動化し、
データベースのメンテナンス作業の省力化や地図データ
の修正精度の向上を図ることも試みられている。
2. Description of the Related Art Map data representing geographical information such as residential land, farmland, roads, rivers and the like, and arrangement information of buildings on the surface of the ground, is converted into a database, and necessary map data is appropriately displayed on a display unit as an image or printed. For example, a service system for providing a consumer is known. In such a service system, map data is generated by periodically acquiring aerial photographs, satellite photographs (hereinafter, aerial photographs, etc.), or survey result data on the ground surface, and the contents of the map data are changed with time. If it has changed, the operator has searched and corrected the corresponding map data from the database. In recent years, computerized pattern recognition of aerial photographs etc. and automatic generation of individual map data and detection of changes in the contents of multiple map data have been automated,
Attempts have been made to reduce the labor required for database maintenance work and to improve the accuracy of map data correction.

【0003】[0003]

【発明が解決しようとする課題】ところで、航空写真等
をパターン認識して地図データを生成する場合、パター
ン認識の精度や認識処理時間が問題となる。また、航空
写真等に存在する太陽光による影の存在も無視すること
ができない。つまり、例えば高層建造物や高さ差のある
自然物の付近には太陽光による影が撮影されるが、この
影は、撮影日時の気象条件により、同一地点の撮影であ
っても、長さ、大きさ(形状)、方向、濃度が異なって
くる。そのため、複数世代の画像(同一地点を時期、時
間を変えて撮影した複数の画像)間では、全く同一地理
を撮影している場合でも、影によって異なる画像になっ
てしまい、画像間の差分として認識されてしまう問題が
あった。
In the case where map data is generated by performing pattern recognition on aerial photographs and the like, accuracy of pattern recognition and recognition processing time become problems. Further, the existence of shadows due to sunlight existing in aerial photographs and the like cannot be ignored. In other words, for example, a shadow due to sunlight is photographed near a high-rise building or a natural object having a height difference. The size (shape), direction, and density differ. For this reason, between images of a plurality of generations (a plurality of images obtained by shooting the same spot at different times and times), even when shooting the exact same geography, different images are obtained due to shadows. There was a problem of being recognized.

【0004】そこで本発明の課題は、コンピュータによ
り画像処理を行う際に、地理画像に含まれる太陽光によ
る影成分を除去して地図データとしての精度を高めるこ
とができる手法を提供することにある。本発明の他の課
題は、地図データの基礎として利用する地理画像を迅速
に生成するとともに、同一地点についての複数の地理画
像間の変化部分を正確かつ容易に把握することができる
地理画像処理装置、及びこの地理画像処理装置を汎用の
コンピュータ装置上で実現するための記録媒体を提供す
ることにある。
An object of the present invention is to provide a technique capable of removing a shadow component due to sunlight contained in a geographic image and improving the accuracy as map data when performing image processing by a computer. . Another object of the present invention is to provide a geographic image processing apparatus capable of quickly generating a geographic image to be used as a basis for map data and accurately and easily grasping a change portion between a plurality of geographic images at the same point. And a recording medium for realizing the geographic image processing device on a general-purpose computer device.

【0005】[0005]

【課題を解決するための手段】上記課題を解決する本発
明の方法は、衛星画像データに基づいて生成された地理
画像の構成画素を必要に応じて二値化する。そして、こ
の地理画像の撮影日時情報と地理画像に対応する自然物
や建物等の物体の高さ情報を衛星画像データから取得
し、前記物体への太陽光の照射方向、照射角度、当該物
体の存在により発生する影の幅とその長さ、及び、前記
影についての前記物体の影響面積を算出する。その後、
算出した影響面積を前記影の幅とその長さとの乗算値よ
り差し引いて地理画像上の影領域を特定するとともに、
特定した影領域の画素を削除する。また、画素分布の誤
検出を防止するため、衛星画像データに含まれる撮影時
の雲量情報を取得して地理画像の濃度を予測し、予測値
が所定の基準値以下のときは当該画像の濃度を補正す
る。このような処理を、コンピュータ上で実行する。
According to a method of the present invention for solving the above-mentioned problems, constituent pixels of a geographic image generated based on satellite image data are binarized as necessary. Then, shooting date and time information of the geographic image and height information of an object such as a natural object or a building corresponding to the geographic image are acquired from the satellite image data, and the irradiation direction, irradiation angle, and presence of the sunlight on the object are obtained. Then, the width and length of the shadow generated by the above and the influence area of the object on the shadow are calculated. afterwards,
While determining the shadow area on the geographic image by subtracting the calculated influence area from the multiplication value of the width and the length of the shadow,
The pixels in the specified shadow area are deleted. Further, in order to prevent erroneous detection of the pixel distribution, the cloud amount information at the time of photographing included in the satellite image data is obtained and the density of the geographic image is predicted. Is corrected. Such processing is executed on a computer.

【0006】衛星画像データは、図1(a)に示すよう
に複数のピクセル11の位置情報や撮影日時情報、雲量
情報等の撮影時の気象情報が含まれている。また、各ピ
クセル11は、図1(b)に示すように赤成分量11
a、緑成分量11b、青成分量11cのほか、当該ピク
セルにおける物体の高さ情報11n等、撮影地点の地理
に関連する高密度の情報から構成されているので、この
衛星画像データ10を利用することで、従来のように航
空写真の画像処理等を行なう場合に比べて地図データの
作成が容易となる。また、人工衛星では、同一地点を複
数方向のカメラによってステレオ撮影を行っているの
で、各ピクセル11には当該地点の高さ情報が含まれて
いる。従って、これらの地理関連情報をも利用すること
で、撮影地点の地表からの高さ情報、その地点に存する
物体の影の長さ、大きさ(形状)、方向、濃度を算出す
ることができる。本発明の方法は、この点に着目して地
理画像から太陽光による影成分を除去する。
As shown in FIG. 1A, the satellite image data includes weather information at the time of photographing, such as positional information of a plurality of pixels 11, photographing date and time information, and cloud amount information. Each pixel 11 has a red component amount 11 as shown in FIG.
a, green component amount 11b, blue component amount 11c, and high-density information related to the geography of the shooting location, such as object height information 11n at the pixel. By doing so, it becomes easier to create map data than in the case where image processing of an aerial photograph is performed as in the related art. Further, in the artificial satellite, since the same spot is photographed in stereo by a camera in a plurality of directions, each pixel 11 includes height information of the spot. Therefore, the height information from the surface of the shooting point, the length, the size (shape), the direction, and the density of the shadow of the object at the shooting point can be calculated by using the geographic information. . Focusing on this point, the method of the present invention removes the shadow component due to sunlight from the geographic image.

【0007】また、上記他の課題を解決するため、本発
明は、地理画像から太陽光による影成分を除去して同一
地点についての複数の地理画像間の差分の検知精度を高
めた、以下の構成要素から成る地理画像処理装置をも提
供する。 (1)衛星画像データに基づいて生成された地理画像上
の処理対象範囲を特定する手段。 (2)特定された処理対象範囲内の地理画像の撮影日時
情報と当該画像に対応する自然物や建物等の物体の高さ
情報とを前記衛星画像データより抽出し、抽出した撮影
日時情報と高さ情報とから前記物体への太陽光の照射方
向、照射角度、当該物体の存在により発生する影の幅、
及びその影の長さを算出するとともに、前記影について
の前記物体の影響面積を算出し、算出した前記影響面積
を前記影の幅と長さとの乗算値より差し引いて前記地理
画像上の影領域を特定する手段と、特定された影領域の
画素を削除する手段。 (3)撮影時の雲量情報を前記衛星画像データより抽出
して前記地理画像の濃度を予測し、予測値が所定の基準
値以下のときに当該画像の濃度を補正する濃度補正手
段。 (4)前記影領域の画素が除去された同一地点を表す複
数の地理画像間の差分情報を生成し、該差分情報を可視
化する差分情報可視化手段。
Further, in order to solve the above-mentioned other problems, the present invention removes a shadow component due to sunlight from a geographic image to improve the detection accuracy of a difference between a plurality of geographic images at the same point. A geographic image processing device comprising the components is also provided. (1) Means for specifying a processing target range on a geographic image generated based on satellite image data. (2) The shooting date / time information of the geographic image within the specified processing target range and the height information of the object such as a natural object or a building corresponding to the image are extracted from the satellite image data, and the extracted shooting date / time information and height are extracted. From the information and the irradiation direction of sunlight to the object, the irradiation angle, the width of the shadow generated by the presence of the object,
And calculating the length of the shadow, calculating the area of influence of the object on the shadow, subtracting the calculated area of influence from the product of the width and length of the shadow, and calculating the shadow area on the geographic image. And means for deleting pixels in the specified shadow area. (3) Density correction means for extracting cloud amount information at the time of shooting from the satellite image data to predict the density of the geographic image, and correcting the density of the image when the predicted value is equal to or less than a predetermined reference value. (4) Difference information visualization means for generating difference information between a plurality of geographic images representing the same point from which the pixels in the shadow area have been removed, and visualizing the difference information.

【0008】なお、差分情報可視化手段は、前記差分情
報を前記地理画像上で強調表示するように構成されてい
るものである。
The difference information visualizing means is configured to highlight the difference information on the geographic image.

【0009】また、上記他の課題を解決する本発明の記
録媒体は、下記の処理をコンピュータに実行させるため
のプログラムが記録されたコンピュータ読み取り可能な
記録媒体である。 (a)衛星画像データを受領する処理、(b)受領した
前記衛星画像データに基づいて地理画像を生成する処
理、(c)前記衛星画像データに含まれる撮影日時情報
と前記生成された地理画像に対応する自然物や建物等の
物体の高さ情報とを取得して前記物体への太陽光の照射
方向、照射角度、当該物体の存在により発生する影の幅
とその長さ、及び、前記影についての前記物体の影響面
積を算出する処理、(d)算出した前記影響面積を前記
影の幅とその長さとの乗算値より差し引いて前記地理画
像上の影領域を特定する処理、(e)特定した前記影領
域の画素を削除する処理。
A recording medium according to the present invention for solving the above-mentioned other problems is a computer-readable recording medium in which a program for causing a computer to execute the following processing is recorded. (A) a process of receiving satellite image data, (b) a process of generating a geographic image based on the received satellite image data, (c) shooting date and time information included in the satellite image data and the generated geographic image Acquire height information of an object such as a natural object or a building corresponding to the irradiation direction of sunlight to the object, the irradiation angle, the width and length of a shadow generated by the presence of the object, and the shadow (D) subtracting the calculated affected area from the product of the shadow width and its length to identify the shadow area on the geographic image; (e) A process of deleting the specified pixel of the shadow area.

【0010】前記プログラムは、また、前記衛星画像デ
ータに含まれる撮影時の雲量情報を取得して前記地理画
像の濃度を予測し、予測値が所定の基準値以下のときに
当該画像の濃度を補正する処理を前記コンピュータに実
行させるようにしてもよい。
[0010] The program also acquires cloud amount information at the time of photographing included in the satellite image data and predicts the density of the geographic image. When the predicted value is equal to or less than a predetermined reference value, the density of the image is determined. The computer may execute the correction process.

【0011】[0011]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を詳細に説明する。図2は、本発明の地理画像
処理装置の一実施形態を示す構成図である。この地理画
像処理装置1は、例えば汎用のワークステーションやパ
ーソナルコンピュータ等の情報処理装置がコンピュータ
プログラムを読み込み、該コンピュータプログラムを実
行することによりその情報処理装置上に実現される、画
像処理部2、及び影除去処理部3を含んで構成される。
このコンピュータプログラムは、通常は、上記情報処理
装置の内部記憶装置あるいは外部記憶装置に組み込ま
れ、当該情報処理装置と一体になって流通するものであ
るが、情報処理装置と分離可能な本発明の記録媒体、例
えばCD−ROM(コンパクトディスク型ROM)やF
D(フレキシブルディスク)等に格納され、あるいは機
械読み取り可能な通信ネットワーク等によって流通し、
システム構築時に上記情報処理装置にインストールされ
て随時実行に供されるものであってもよい。
Embodiments of the present invention will be described below in detail with reference to the drawings. FIG. 2 is a configuration diagram showing an embodiment of the geographic image processing device of the present invention. The geographic image processing apparatus 1 includes, for example, an image processing unit 2, which is realized on an information processing apparatus such as a general-purpose workstation or a personal computer by reading a computer program and executing the computer program. And a shadow removal processing unit 3.
This computer program is usually incorporated in an internal storage device or an external storage device of the information processing apparatus, and is distributed integrally with the information processing apparatus. Recording media such as a CD-ROM (compact disk ROM) and F
D (flexible disk) or distributed through a machine-readable communication network, etc.
The information processing device may be installed in the information processing apparatus at the time of system construction and may be executed at any time.

【0012】画像処理部2には、ポインティングデバイ
ス及びキーボード等から成るデータ入力装置4と大容量
ハードディスク等から成る記憶装置5とが接続され、ま
た、処理結果等を確認するためのCRT等の表示部6が
接続されている。
The image processing unit 2 is connected with a data input device 4 composed of a pointing device and a keyboard and a storage device 5 composed of a large-capacity hard disk and the like, and also displays a CRT or the like for confirming the processing results and the like. The unit 6 is connected.

【0013】記憶装置5には、上記コンピュータ・プロ
グラムの格納領域のほか、衛星画像データ(生データ)
の格納領域、地理画像データ(地理画像の基となるデー
タ、以下、地理画像という場合は、地理画像データをも
含むものとする。)の格納領域、及びノイズ画素や所要
の画像処理が施されたアプリケーションデータの格納領
域が形成されている。アプリケーションデータは、この
地理画像処理装置1及び他の画像処理システムで利用で
きるように加工されたデータである。
The storage device 5 stores satellite image data (raw data) in addition to the storage area of the computer program.
Storage area, a storage area for geographic image data (data on which a geographic image is based; hereinafter, when a geographic image is referred to, it also includes geographic image data), and an application to which noise pixels and required image processing have been performed A data storage area is formed. The application data is data processed so as to be used in the geographic image processing apparatus 1 and another image processing system.

【0014】画像処理部2は、図3に示すように、デー
タ変換処理部21、データ入出力処理部22、差分解析
処理部23、画像強調処理部24、表示制御部25、及
びこれらの各部を統括的に制御する主制御部26を含ん
で構成される。
As shown in FIG. 3, the image processing unit 2 includes a data conversion processing unit 21, a data input / output processing unit 22, a difference analysis processing unit 23, an image enhancement processing unit 24, a display control unit 25, and each of these units. And a main control unit 26 that controls the entire system.

【0015】データ変換処理部21は、予め記憶装置5
に格納された、あるいは随時取得した衛星画像データ
(生データ)を取り込み、これを地理画像処理装置1で
処理できるデータ形式に変換するとともに、後段処理の
便宜のために二値化して上記地理画像データを生成す
る。生成された地理画像データは、画素(ピクセル)の
集合として表現される。画素は二次元座標でいうx,y
成分の数だけ存在し、二値化された地理画像の場合、閉
領域内では、その縁を含めて、ピクセル値が“1”の画
素、つまり有色画素が連続し、閉領域外ではピクセル値
が“0”の画素(つまり有色画素が存在しない)が連続
する。ここでピクセル値とは、データ変換処理部21が
画素に与える識別子であり、“0”は黒色、“1”は白
色である。二値化すると、画像をこれらのピクセル値の
連結分布で表すことができるので、以後の処理が迅速と
なる。但し、本発明を二値化された画像のみに限定する
趣旨でなく、複数の有色画素のまま用いても本発明を実
現できることは勿論である。
The data conversion processing section 21 has a storage device 5 in advance.
The satellite image data (raw data) stored or acquired at any time is fetched, converted into a data format that can be processed by the geographic image processing apparatus 1, and binarized for convenience of post-processing. Generate data. The generated geographic image data is represented as a set of pixels. Pixels are x, y in two-dimensional coordinates
In the case of a binarized geographic image having the same number of components as the binary image, in the closed area, pixels having a pixel value of “1” including its edge, that is, colored pixels are continuous, and outside the closed area, the pixel value is Are "0" (that is, there is no colored pixel). Here, the pixel value is an identifier given to the pixel by the data conversion processing unit 21, where "0" is black and "1" is white. Binarization allows the image to be represented by a connected distribution of these pixel values, thus speeding up the subsequent processing. However, it is a matter of course that the present invention is not limited to only binarized images, and that the present invention can be realized by using a plurality of colored pixels as they are.

【0016】生成された地理画像データは、記憶装置5
に格納されるとともに影除去処理部3へも送られる。デ
ータ入出力処理部22は、影除去処理部3や記憶装置5
との間の上記衛星画像データ(生データ)や地理画像デ
ータの入出力等を行うものである。
The generated geographic image data is stored in a storage device 5.
And sent to the shadow removal processing unit 3 as well. The data input / output processing unit 22 includes the shadow removal processing unit 3 and the storage device 5.
And input / output of the above-mentioned satellite image data (raw data) and geographic image data.

【0017】差分解析処理部23は、影除去処理部3で
影画像が除去された同一地点に対する複数世代の地理画
像間のピクセル値の分布状態を解析して画像の差分を検
出するものであり、画像強調処理部24は、差分解析処
理部23での解析結果を表示部6のディスプレイに強調
表示するものである。表示制御部25は、そのための制
御を行うものである。強調表示の態様としては、例えば
地理画像上の変化分の色を変えて表示したり、点滅表示
させたりすること等が挙げられる。この強調表示の対象
となるデータは、アプリケーションデータとして記憶装
置5に格納される。なお、アプリケーションデータは、
差分解析処理部23の処理結果データであってもよい。
The difference analysis processing section 23 analyzes the distribution of pixel values among a plurality of generations of geographic images at the same point from which the shadow image has been removed by the shadow removal processing section 3 and detects a difference between the images. The image enhancement processing unit 24 highlights the analysis result of the difference analysis processing unit 23 on the display of the display unit 6. The display control unit 25 performs control for that. Examples of the mode of the highlight display include, for example, changing the color of the change on the geographic image, displaying the change, and blinking the display. The data to be highlighted is stored in the storage device 5 as application data. The application data is
The processing result data of the difference analysis processing unit 23 may be used.

【0018】表示制御部25は、表示部6における上記
強調表示のためのディスプレイ制御のほか、操作者に対
して地理画像上の処理対象範囲の入力を促すためのディ
スプレイ制御等をも行う。
The display control unit 25 performs display control for prompting the operator to input a processing target range on the geographic image, in addition to display control for the above-mentioned highlight display on the display unit 6.

【0019】影除去処理部3は、図4に示すように、画
像範囲特定部31、影領域特定部32、濃度補正部3
3、及び画素削除部34を含んで構成される。
As shown in FIG. 4, the shadow removal processing section 3 includes an image range specifying section 31, a shadow area specifying section 32, and a density correcting section 3.
3 and a pixel deletion unit 34.

【0020】画像範囲特定部31は、例えば表示部6の
ディスプレイに表示されている地理画像から操作者がデ
ータ入力装置(ポインティングデバイス)4で指定し
た、影の除去処理を行うための画像範囲を特定するもの
である。これは、ディスプレイに対応するビットマップ
の座標処理によって実現することができる。なお、この
画像範囲特定部31は、画像処理部2の機能として用意
しておいてもよい。
The image range specifying unit 31 specifies, for example, an image range for performing a shadow removal process specified by the operator using the data input device (pointing device) 4 from the geographic image displayed on the display of the display unit 6. To identify. This can be achieved by a bitmap coordinate process corresponding to the display. The image range specifying unit 31 may be prepared as a function of the image processing unit 2.

【0021】影領域特定部32は、地理画像に含まれる
物体の影領域を特定する。この影領域の特定原理は、次
の通りである。いま、図5に示すように、地表からの高
さh1,h2の二つの建物が地理画像に含まれていたと
する。このとき、撮影日時情報から太陽光の照射方向
(日照方向)がわかり、この日照方向と各建物の高さ情
報とから太陽光の照射角度(日照角度)θ1,θ2がわ
かる。太陽光により各建物の背後に延びる影の長さL
1,L2は、それぞれ、下記式によって算出することが
できる。
The shadow area specifying section 32 specifies a shadow area of an object included in the geographic image. The principle of specifying the shadow area is as follows. Now, as shown in FIG. 5, it is assumed that two buildings at heights h1 and h2 from the ground surface are included in the geographic image. At this time, the irradiation direction of sunlight (sunshine direction) is known from the shooting date and time information, and the irradiation angles of sunlight (sunshine angles) θ1 and θ2 are known from the sunshine direction and the height information of each building. Length L of shadows behind each building due to sunlight
1 and L2 can be respectively calculated by the following equations.

【0022】L1=h1/tanθ1 L2=h2/tanθ2L1 = h1 / tan θ1 L2 = h2 / tan θ2

【0023】また、図6に示すように、日照方向に対す
る鉛直ベクトルへの建物図形の正射影長から影の位置の
その幅を算出することができ、また、建物図形と影の両
端の接点を結ぶベクトルに対する影の方向側の建物図形
の積分値から影についての建物の影響面積を算出するこ
とができる。各建物による影の大きさ(形状)は、下記
式より算出することができる。
Further, as shown in FIG. 6, the width of the shadow position can be calculated from the orthogonal projection length of the building figure to the vertical vector in the sunshine direction, and the contact points at both ends of the building figure and the shadow can be calculated. The influence area of the building on the shadow can be calculated from the integral value of the building figure on the side of the shadow with respect to the connecting vector. The size (shape) of the shadow due to each building can be calculated from the following equation.

【0024】影の大きさ(形状)=影の幅×影の長さ−
建物図形の影響面積
Shadow size (shape) = shadow width × shadow length−
Influence area of building shape

【0025】「影の幅」からは、その影の位置情報も明
らかになるので、上記影の大きさを表す式によって地理
画像上の影領域を特定することができる。
Since the position information of the shadow is also clarified from the "shadow width", the shadow area on the geographic image can be specified by the expression representing the size of the shadow.

【0026】濃度補正部33は、衛星画像データから撮
影時の雲量情報を抽出して画像濃度(コントラスト)を
予測する。撮影時の天候が快晴の場合は雲量が殆どゼロ
値であり、画像濃度の予測値がほぼ最大値となって画像
を構成する画素の特定が十分であるが、雲量が増えるに
つれて画像濃度は低下し、それに伴って予測値が小さく
なる。この予測値が基準値、すなわち画素の検出漏れが
生じ始める値まで小さくなると、影の幅や建物図形の影
響面積の算出の際に誤差が生じやすくなる。そこで、濃
度補正部33は予測値が基準値以下になった場合は、画
像濃度を高めに補正する。補正処理は、例えば公知の画
像フィルタリング処理によって行うことができる。
The density correcting section 33 extracts cloud amount information at the time of photographing from satellite image data and predicts image density (contrast). When the weather at the time of shooting is clear, the cloud amount is almost zero, and the predicted value of the image density is almost the maximum value, and the pixels constituting the image are sufficiently specified, but the image density decreases as the cloud amount increases Accordingly, the predicted value decreases accordingly. If the predicted value is reduced to a reference value, that is, a value at which pixel omission starts to occur, an error is likely to occur when calculating the shadow width and the area affected by the building graphic. Therefore, when the predicted value becomes equal to or smaller than the reference value, the density correction unit 33 corrects the image density to be higher. The correction process can be performed by, for example, a known image filtering process.

【0027】画素削除部34は、影領域特定部32で特
定された影領域の画素を該当領域から削除し、その結果
を画像処理部2に送って表示部6に表示させる。また、
影領域の画素が削除された地理画像を画像処理装置3に
送る。
The pixel deleting section 34 deletes the pixels of the shadow area specified by the shadow area specifying section 32 from the corresponding area, sends the result to the image processing section 2 and causes the display section 6 to display the result. Also,
The geographic image from which the pixels in the shadow area have been deleted is sent to the image processing device 3.

【0028】次に、上記地理画像処理装置1の動作内容
を図7を参照して具体的に説明する。図7は、主とし
て、影除去処理部3における処理手順を示すものであ
る。地理画像処理装置1は、まず、地理画像を表示部6
に表示する(ステップS101)。ポインティングデバ
イス(データ入力装置4)によって、ある画像範囲が指
定されたことを検知すると(ステップS102:Ye
s)、該指定されたデータによって当該地理画像上の処
理対象範囲を特定する(ステップS103)。そして、
衛星画像データから、特定した領域の画像についての地
理関連情報、すなわち上述の撮影日時情報、高さ情報、
撮影時の雲量情報を取得して解読する(ステップS10
4)。また、雲量情報から画像濃度を予測し、予測値が
基準値以下の場合は、画像濃度を高めに補正する(ステ
ップS105:No、ステップS106)。画像濃度が補
正された場合、あるいは予測値が基準値以上であった場
合は、影領域の大きさと位置とを算出する(ステップS
105:Yes、ステップS107)。その後、該当領域
の画素を削除し(ステップS108)、画素削除後の地
理画像を画像処理部2へ出力する(ステップS10
9)。次の処理対象領域がある場合はステップS102
の処理に戻り、同様の処理を実行する(ステップS11
0:No)。処理対象範囲がなくなった場合は、処理を終
える(ステップS110:Yes)。上記一連の処理によ
って影が除去された地理画像は、画像処理部2におい
て、画像間の差分検出の対象とされる。
Next, the operation of the geographic image processing apparatus 1 will be specifically described with reference to FIG. FIG. 7 mainly shows a processing procedure in the shadow removal processing unit 3. The geographic image processing apparatus 1 first displays a geographic image on the display unit 6.
(Step S101). When it is detected that a certain image range is designated by the pointing device (data input device 4) (step S102: Ye)
s), a processing target range on the geographic image is specified by the specified data (step S103). And
From the satellite image data, geographically related information about the image of the specified area, that is, the shooting date and time information, the height information,
Obtain and decode cloud amount information at the time of shooting (step S10)
4). Further, the image density is predicted from the cloud amount information, and if the predicted value is equal to or less than the reference value, the image density is corrected to be higher (step S105: No, step S106). If the image density has been corrected or the predicted value is equal to or greater than the reference value, the size and position of the shadow area are calculated (step S).
105: Yes, step S107). Thereafter, the pixels in the corresponding area are deleted (step S108), and the geographic image after the pixel deletion is output to the image processing unit 2 (step S10).
9). If there is a next processing target area, step S102
And the same processing is executed (step S11).
0: No). If there is no more processing target range, the processing ends (step S110: Yes). The geographic image from which the shadow has been removed by the above-described series of processing is used as a difference detection target between the images in the image processing unit 2.

【0029】[0029]

【発明の効果】以上の説明から明らかなように、本発明
の影成分の除去方法は、衛星画像データに基づいて生成
された地理画像上の影領域を衛星画像データに含まれる
情報を用いて特定し、特定した領域の画素を削除するよ
うにしたので、精度の高い地図データとして利用できる
地理画像を容易かつ迅速に生成することができる効果が
ある。
As is apparent from the above description, the shadow component removing method of the present invention uses the information included in the satellite image data to determine the shadow area on the geographic image generated based on the satellite image data. Since the pixels in the specified area are specified and deleted, there is an effect that a geographic image that can be used as highly accurate map data can be easily and quickly generated.

【0030】また、本発明の地理画像処理装置は、影成
分が除去された地理画像間の差分を検出して強調表示す
るので、地理画像上の変化部分を容易に把握することが
でき、データベースのメンテナンス作業の省力化がより
徹底される効果がある。
Further, the geographic image processing apparatus of the present invention detects and highlights a difference between geographic images from which a shadow component has been removed, so that a changed portion on the geographic image can be easily grasped, and a database can be obtained. This has the effect that labor saving of maintenance work is more thorough.

【図面の簡単な説明】[Brief description of the drawings]

【図1】(a)は衛星画像データの構造例、(b)は衛
星画像データを構成するピクセルの構造例を示す説明
図。
FIG. 1A is an explanatory diagram showing an example of the structure of satellite image data, and FIG. 1B is an explanatory diagram showing an example of the structure of pixels forming the satellite image data.

【図2】本発明の一実施形態に係る地理画像処理装置の
構成図。
FIG. 2 is a configuration diagram of a geographic image processing apparatus according to an embodiment of the present invention.

【図3】本実施形態による画像処理部のブロック構成
図。
FIG. 3 is a block diagram of an image processing unit according to the embodiment.

【図4】本実施形態による影除去処理部のブロック構成
図。
FIG. 4 is a block diagram of a shadow removal processing unit according to the embodiment;

【図5】日照方向、日照角度、及び建物の影の長さとの
関係を示す説明図。
FIG. 5 is an explanatory diagram showing a relationship between a sunshine direction, a sunshine angle, and a length of a shadow of a building.

【図6】処理対象領域内における日照方向、影の方向、
及び影の大きさの関係を示す説明図。
FIG. 6 shows a sunshine direction, a shadow direction, and the like in a processing target area.
FIG. 4 is an explanatory diagram showing the relationship between the size of a shadow and a shadow.

【図7】本実施形態の地理画像処理装置の動作内容、特
に影除去処理部の処理手順を示すフローチャート。
FIG. 7 is a flowchart illustrating the operation of the geographic image processing apparatus according to the embodiment, in particular, the processing procedure of a shadow removal processing unit.

【符号の説明】[Explanation of symbols]

1 地理画像処理装置 2 画像処理部 3 影除去処理部 4 データ入力装置 5 記憶装置 6 表示部 10 衛星画像データ 11 ピクセル 11a〜11n 衛星画像データに含まれる諸情報 21 データ変換処理部 22 データ入出力処理部 23 差分解析処理部 24 画像強調処理部 25 表示制御部 26 主制御部 31 画像範囲特定部 32 影領域特定部 33 濃度補正部 34 画素削除部 Reference Signs List 1 geographic image processing device 2 image processing unit 3 shadow removal processing unit 4 data input device 5 storage device 6 display unit 10 satellite image data 11 pixels 11a to 11n various information included in satellite image data 21 data conversion processing unit 22 data input / output Processing unit 23 Difference analysis processing unit 24 Image enhancement processing unit 25 Display control unit 26 Main control unit 31 Image range specification unit 32 Shadow area specification unit 33 Density correction unit 34 Pixel deletion unit

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 衛星画像データに基づいて生成された地
理画像から太陽光による影の成分を除去する方法であっ
て、前記衛星画像データに含まれる撮影日時情報と前記
地理画像に対応する自然物や建物等の物体の高さ情報と
を取得して前記物体への太陽光の照射方向、照射角度、
当該物体の存在により発生する影の幅とその長さ、及
び、前記影についての前記物体の影響面積を算出し、算
出した影響面積を前記影の幅とその長さとの乗算値より
差し引いて前記地理画像上の影領域を特定するととも
に、特定した影領域の画素を削除する処理を、コンピュ
ータ上で実行することを特徴とする、地理画像上の影成
分の除去方法。
1. A method for removing a shadow component caused by sunlight from a geographic image generated based on satellite image data, comprising: a photographing date and time information included in the satellite image data; a natural object corresponding to the geographic image; Obtain height information of an object such as a building, and irradiate the object with the sunlight in the irradiation direction, irradiation angle,
The width and length of the shadow generated by the presence of the object, and the affected area of the object for the shadow is calculated, and the calculated affected area is subtracted from the multiplication value of the width and the length of the shadow. A method of removing a shadow component on a geographic image, wherein the process of identifying a shadow region on the geographic image and deleting pixels of the identified shadow region is performed on a computer.
【請求項2】 前記コンピュータ上で実行する処理は、
前記衛星画像データに含まれる撮影時の雲量情報を取得
して前記地理画像の濃度を予測し、予測値が所定の基準
値以下のときに当該画像の濃度を補正する処理を含むこ
とを特徴とする請求項1記載の影成分の除去方法。
2. A process executed on the computer,
Acquiring a cloud amount information at the time of shooting included in the satellite image data, predicting the density of the geographic image, and correcting the density of the image when the predicted value is equal to or less than a predetermined reference value. 2. The method for removing shadow components according to claim 1.
【請求項3】 前記地理画像が二値化された画素の集合
から成ることを特徴とする請求項1または2記載の影成
分の除去方法。
3. The shadow component removing method according to claim 1, wherein the geographic image includes a set of binarized pixels.
【請求項4】 衛星画像データに基づいて生成された地
理画像上の処理対象範囲を特定する手段と、 特定された処理対象範囲内の地理画像の撮影日時情報と
当該画像に対応する自然物や建物等の物体の高さ情報と
を前記衛星画像データより抽出し、抽出した撮影日時情
報と高さ情報とから前記物体への太陽光の照射方向、照
射角度、当該物体の存在により発生する影の幅、及びそ
の影の長さを算出するとともに、前記影についての前記
物体の影響面積を算出し、算出した前記影響面積を前記
影の幅と長さとの乗算値より差し引いて前記地理画像上
の影領域を特定する手段と、 特定された影領域の画素を削除する手段と、 を有することを特徴とする地理画像処理装置。
4. A means for specifying a processing target range on a geographic image generated based on satellite image data, shooting date / time information of a geographic image within the specified processing target range, and a natural object or building corresponding to the image The height information of the object such as is extracted from the satellite image data, the direction of irradiation of sunlight to the object from the extracted shooting date and time information and the height information, the irradiation angle, the shadow generated by the presence of the object Calculate the width, and the length of the shadow, calculate the area of influence of the object on the shadow, subtract the calculated area of influence from the multiplied value of the width and length of the shadow on the geographic image. A geographic image processing apparatus comprising: means for specifying a shadow area; and means for deleting a pixel in the specified shadow area.
【請求項5】 撮影時の雲量情報を前記衛星画像データ
より抽出して前記地理画像の濃度を予測し、予測値が所
定の基準値以下のときに当該地理画像の濃度を補正する
濃度補正手段を有することを特徴とする請求項4記載の
地理画像処理装置。
5. Density correction means for extracting cloud amount information at the time of photographing from the satellite image data to predict the density of the geographic image, and correcting the density of the geographic image when the predicted value is equal to or less than a predetermined reference value. The geographic image processing apparatus according to claim 4, comprising:
【請求項6】 前記影領域の画素が除去された同一地点
を表す複数の地理画像間の差分情報を生成し、該差分情
報を可視化する差分情報可視化手段をさらに備えること
を特徴とする請求項4または5記載の地理画像処理装
置。
6. The image processing apparatus according to claim 1, further comprising: difference information visualizing means for generating difference information between a plurality of geographic images representing the same point from which the pixels in the shadow region have been removed, and visualizing the difference information. 6. The geographic image processing device according to 4 or 5.
【請求項7】 前記差分情報可視化手段は、前記差分情
報を前記地理画像上で強調表示するように構成されてい
ることを特徴とする請求項6記載の地理画像処理装置。
7. The geographic image processing apparatus according to claim 6, wherein the difference information visualizing means is configured to highlight the difference information on the geographic image.
【請求項8】 衛星画像データを受領する処理、 受領した前記衛星画像データに基づいて地理画像を生成
する処理、 前記衛星画像データに含まれる撮影日時情報と前記生成
された地理画像に対応する自然物や建物等の物体の高さ
情報とを取得して前記物体への太陽光の照射方向、照射
角度、当該物体の存在により発生する影の幅とその長
さ、及び、前記影についての前記物体の影響面積を算出
する処理、 算出した前記影響面積を前記影の幅とその長さとの乗算
値より差し引いて前記地理画像上の影領域を特定する処
理、 特定した前記影領域の画素を削除する処理を、コンピュ
ータに実行させるためのプログラムが記録されたコンピ
ュータ読み取り可能な記録媒体。
8. A process for receiving satellite image data, a process for generating a geographic image based on the received satellite image data, a photographing date and time information included in the satellite image data, and a natural object corresponding to the generated geographic image. And the height information of the object such as a building and the direction of irradiation of sunlight to the object, the irradiation angle, the width and length of the shadow generated by the presence of the object, and the object with respect to the shadow Calculating the affected area, subtracting the calculated affected area from the multiplied value of the shadow width and its length, and identifying the shadow area on the geographic image, deleting the identified pixel of the shadow area A computer-readable recording medium on which a program for causing a computer to execute a process is recorded.
【請求項9】 前記プログラムは、前記衛星画像データ
に含まれる撮影時の雲量情報を取得して前記地理画像の
濃度を予測し、予測値が所定の基準値以下のときに当該
画像の濃度を補正する処理を前記コンピュータに実行さ
せるものであることを特徴とする請求項8記載の記録媒
体。
9. The program acquires cloud amount information at the time of photographing included in the satellite image data, predicts the density of the geographic image, and determines the density of the image when the predicted value is equal to or less than a predetermined reference value. 9. The recording medium according to claim 8, wherein the computer is configured to execute a correction process.
JP00854298A 1997-01-27 1998-01-20 Method for removing shadow component on geographic image, geographic image processing apparatus, and recording medium Expired - Fee Related JP3380457B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP00854298A JP3380457B2 (en) 1997-01-27 1998-01-20 Method for removing shadow component on geographic image, geographic image processing apparatus, and recording medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP1289597 1997-01-27
JP9-12895 1997-01-27
JP00854298A JP3380457B2 (en) 1997-01-27 1998-01-20 Method for removing shadow component on geographic image, geographic image processing apparatus, and recording medium

Publications (2)

Publication Number Publication Date
JPH10269347A true JPH10269347A (en) 1998-10-09
JP3380457B2 JP3380457B2 (en) 2003-02-24

Family

ID=26343083

Family Applications (1)

Application Number Title Priority Date Filing Date
JP00854298A Expired - Fee Related JP3380457B2 (en) 1997-01-27 1998-01-20 Method for removing shadow component on geographic image, geographic image processing apparatus, and recording medium

Country Status (1)

Country Link
JP (1) JP3380457B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000162326A (en) * 1998-12-01 2000-06-16 Fujitsu Ltd Apparatus and method for evaluating physical amount of image
JP2006252269A (en) * 2005-03-11 2006-09-21 Aisin Seiki Co Ltd Wide area image generator, vehicle periphery monitoring device and wide area image generation method
JP2007129277A (en) * 2005-10-31 2007-05-24 Fujitsu Ltd Image processor
JP2014199640A (en) * 2013-03-29 2014-10-23 ヒョンデ エムエヌソフト インコーポーレイティッドHYUNDAI MNSOFT,Inc. Shadow removal method and device of aerial or satellite photograph
CN106022257A (en) * 2016-05-18 2016-10-12 深圳市神州龙资讯服务有限公司 Building shadow automatic recognition and model covering method
JP2017059993A (en) * 2015-09-16 2017-03-23 三菱電機株式会社 Imaging device and imaging method
KR101870084B1 (en) * 2017-07-10 2018-06-22 극동대학교 산학협력단 Method for Shadow Removal from High Resolution Satellite Imagery using Vertical Borders of Shadow Region
KR20190065809A (en) * 2017-12-04 2019-06-12 한국항공우주연구원 Device and method for calculating sunshine quantity
WO2020070852A1 (en) * 2018-10-04 2020-04-09 日本電気株式会社 Learning device, image processing device, learning method, image processing method, learning program, and image processing program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102557775B1 (en) * 2021-06-02 2023-07-19 이재영 Drone used 3d mapping method

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000162326A (en) * 1998-12-01 2000-06-16 Fujitsu Ltd Apparatus and method for evaluating physical amount of image
JP2006252269A (en) * 2005-03-11 2006-09-21 Aisin Seiki Co Ltd Wide area image generator, vehicle periphery monitoring device and wide area image generation method
JP2007129277A (en) * 2005-10-31 2007-05-24 Fujitsu Ltd Image processor
JP4678649B2 (en) * 2005-10-31 2011-04-27 富士通株式会社 Image processing device
JP2014199640A (en) * 2013-03-29 2014-10-23 ヒョンデ エムエヌソフト インコーポーレイティッドHYUNDAI MNSOFT,Inc. Shadow removal method and device of aerial or satellite photograph
KR101493418B1 (en) * 2013-03-29 2015-02-13 현대엠엔소프트 주식회사 Method for eliminating shadow of aerial photograph and apparatus thereof
JP2017059993A (en) * 2015-09-16 2017-03-23 三菱電機株式会社 Imaging device and imaging method
CN106022257A (en) * 2016-05-18 2016-10-12 深圳市神州龙资讯服务有限公司 Building shadow automatic recognition and model covering method
CN106022257B (en) * 2016-05-18 2023-05-26 神州龙空间技术(深圳)有限公司 Automatic identification and model coverage method for building shadows
KR101870084B1 (en) * 2017-07-10 2018-06-22 극동대학교 산학협력단 Method for Shadow Removal from High Resolution Satellite Imagery using Vertical Borders of Shadow Region
KR20190065809A (en) * 2017-12-04 2019-06-12 한국항공우주연구원 Device and method for calculating sunshine quantity
WO2020070852A1 (en) * 2018-10-04 2020-04-09 日本電気株式会社 Learning device, image processing device, learning method, image processing method, learning program, and image processing program
JPWO2020070852A1 (en) * 2018-10-04 2021-09-02 日本電気株式会社 Learning equipment, image processing equipment, learning methods and learning programs

Also Published As

Publication number Publication date
JP3380457B2 (en) 2003-02-24

Similar Documents

Publication Publication Date Title
US8116530B2 (en) Map change detection device, map change detection method, and program
JP5363752B2 (en) Road marking map generation method
CN105608455B (en) A kind of license plate sloped correcting method and device
KR102607517B1 (en) Generate composite images from 3D point clouds
JP4103898B2 (en) Map information updating method and map updating apparatus
JP2002157576A (en) Device and method for processing stereo image and recording medium for recording stereo image processing program
KR100967838B1 (en) A method and a system for generating 3-dimensional geographical information using aerial lidar information and digital aerial photograph information
US20210209841A1 (en) Apparatus for building map using machine learning and image processing
JP2019207535A (en) Information processing apparatus, information processing method, and program
WO2019032184A1 (en) Annotation generation for an image network
JP3380457B2 (en) Method for removing shadow component on geographic image, geographic image processing apparatus, and recording medium
CN115375868B (en) Map display method, remote sensing map display method, computing device and storage medium
JP3776591B2 (en) Map information updating method and apparatus
CN110852207A (en) Blue roof building extraction method based on object-oriented image classification technology
KR101021013B1 (en) A system for generating 3-dimensional geographical information using intensive filtering an edge of building object and digital elevation value
JP6146731B2 (en) Coordinate correction apparatus, coordinate correction program, and coordinate correction method
JPH05181411A (en) Map information collation and update system
CN114140592A (en) High-precision map generation method, device, equipment, medium and automatic driving vehicle
CN109035365B (en) Mosaic processing method of high-resolution image
JP2008242508A (en) Automatic specific area extraction system, automatic specific area extraction method and program
KR102204041B1 (en) System for correcting the error able to modify boundary line for mapping
Yoo et al. True orthoimage generation by mutual recovery of occlusion areas
WO2023116359A1 (en) Method, apparatus and system for classifying green, blue and gray infrastructures, and medium
KR102025144B1 (en) Device for predicting construction waste using drone, method and recording medium for performing the method
JP4088386B2 (en) How to update map information

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071213

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081213

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081213

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091213

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091213

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101213

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101213

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111213

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111213

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121213

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees