JPH10214328A - Picture information analyzing device and storage medium with picture information analyzing program - Google Patents

Picture information analyzing device and storage medium with picture information analyzing program

Info

Publication number
JPH10214328A
JPH10214328A JP9016181A JP1618197A JPH10214328A JP H10214328 A JPH10214328 A JP H10214328A JP 9016181 A JP9016181 A JP 9016181A JP 1618197 A JP1618197 A JP 1618197A JP H10214328 A JPH10214328 A JP H10214328A
Authority
JP
Japan
Prior art keywords
information
image
shadow
point
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9016181A
Other languages
Japanese (ja)
Other versions
JP3589271B2 (en
Inventor
Takashi Onoyama
隆 小野山
Takuya Maekawa
拓也 前川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Software Engineering Co Ltd
Original Assignee
Hitachi Software Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Software Engineering Co Ltd filed Critical Hitachi Software Engineering Co Ltd
Priority to JP01618197A priority Critical patent/JP3589271B2/en
Publication of JPH10214328A publication Critical patent/JPH10214328A/en
Application granted granted Critical
Publication of JP3589271B2 publication Critical patent/JP3589271B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To precisely extract the difference between the pictures of an aerial photograph and a satellite photograph at the same spot taken at different dates by calculating shadow information of a newly photographed picture from high level information on an old picture and extracting difference information at each point of both of the pictures based on the shadow information. SOLUTION: Among pictures at the same point taken at different date to be the object of difference analysis, a picture of an old photographing date is made an original picture and a picture of a new photographing date is made a new picture. A shadow part extracting part 101 extracts the shadow part of the original picture. Through the use of shadow information extracted from this original picture, a high level information extracting part 106 calculates high level information at each point of the original picture. A shadow information calculating part 108 calculates shadow information generated at the time of taking a new picture from high level information on this original picture. Next, a difference information extracting part 103 extracts difference information at each point of the new picture and the original picture. Then a display control part 105 displays this difference information on a display 112.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像データを解析
して目的に応じた情報を抽出、表示する画像情報解析装
置及び画像情報解析プログラムを有する記憶媒体に関
し、特に、航空写真や衛星写真による画像を解析して利
用する画像情報解析装置及び画像情報解析プログラムを
有する記憶媒体に適用して有効な技術に関するものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image information analyzing apparatus for analyzing image data to extract and display information according to a purpose, and a storage medium having an image information analyzing program. The present invention relates to an image information analysis apparatus that analyzes and uses an image, and a technique effective when applied to a storage medium having an image information analysis program.

【0002】[0002]

【従来の技術】近年、衛星や航空写真の利用が広まって
きており、特に、地図の作成、保守における広大な領域
を効率的に探査するのに利用されている。
2. Description of the Related Art In recent years, the use of satellites and aerial photographs has become widespread, and in particular, they have been used for efficiently exploring vast areas in map creation and maintenance.

【0003】この地図の作成、保守における航空写真や
衛星写真の利用としては、主に、航空写真のステレオ視
による高度情報の取得や写真利用による土地の状況変化
の把握やより広域の植生、土地利用状況の把握などがあ
る。
[0003] The use of aerial photographs and satellite photographs in the creation and maintenance of this map mainly involves acquiring altitude information by stereo vision of aerial photographs, grasping changes in land conditions by using photographs, and expanding vegetation and land in a wider area. There is grasp of the use situation.

【0004】このような技術として、従来では、例え
ば、特開平3−167678号公報(ステレオ画像デー
タから3次元数値データを求める方法)に開示されてい
るように、人工衛星又は航空機等から得られ画像を元に
して三次元数値データを求めるために左右両画像中の対
応点を求める手法がある。この手法では、左右の画像そ
れぞれで特徴点を見つけて自動的に対応付けすることで
高度情報の取得を行っている。なお、この特徴点の中で
自動的に対応付けできなかったものに対しては人手によ
る対話的な対応付けを行っている。
Conventionally, as such a technique, for example, as disclosed in Japanese Patent Laid-Open Publication No. Hei 3-167678 (a method for obtaining three-dimensional numerical data from stereo image data), it is obtained from an artificial satellite or an aircraft. There is a method of obtaining corresponding points in both left and right images to obtain three-dimensional numerical data based on the image. In this method, height information is obtained by finding feature points in each of the left and right images and automatically associating them. It should be noted that for those feature points that could not be automatically associated, interactive association is performed manually.

【0005】また、特開平8−63683号公報には、
テレビカメラからの画像を監視装置に利用するために画
像間の差分を取る装置が開示されている。この装置では
1台のテレビカメラで撮影している画像で監視を行うた
めに単純に時系列の画像間で差分情報を取得するのでは
なく、各画像データを微分画像を作成して微分画像間で
差分処理を行うことで監視対象場所の日照の変化等の影
響の除去を実現している。
Japanese Patent Application Laid-Open No. 8-63683 discloses that
A device that takes a difference between images in order to use an image from a television camera for a monitoring device is disclosed. In this device, since monitoring is performed on an image captured by one television camera, difference information is not simply obtained between time-series images. By performing the difference processing, the effect of the change of the sunshine at the monitoring target place can be removed.

【0006】[0006]

【発明が解決しようとする課題】しかし、特開平8−6
3683号公報や特開平3−167678号公報に開示
されている画像の利用方式では、比較を行う画像はほぼ
同一時刻に撮影されたもの対象としているため、数ヶ月
から数年の期間で撮影された撮影日時が異なる画像を比
較する土地の利用状況の変動の把握にはそのまま適用で
きない。
However, Japanese Patent Laid-Open No. 8-6 / 1996
According to the method of using images disclosed in Japanese Patent No. 3683 and Japanese Patent Application Laid-Open No. 3-167678, the images to be compared are shot at almost the same time, and therefore, are shot in a period of several months to several years. It cannot be applied as it is to grasp the fluctuation of the use situation of land comparing the images with different shooting dates and times.

【0007】これは、雲などの気象条件による画像コン
トラストに差異が発生したり、色温度の差とともに撮影
時の太陽位置の違いによる建物などの陰影に差異が発生
したり、各画像の撮影条件の差異が問題となるからであ
る。この中で画像コントラストや色温度については、各
画像の階調の平均値や分散を調整することで画像間の補
正を実現することができるが、画像中に写り込んでいる
陰影は階調補正だけでは処理することはできない。
[0007] This is because the image contrast differs due to weather conditions such as clouds, the shading of buildings due to the difference in the sun position at the time of photographing with the color temperature difference, and the photographing conditions of each image change. Is a problem. Among these, image contrast and color temperature can be corrected between images by adjusting the average value and variance of the gradation of each image, but the shadows appearing in the image are corrected by gradation correction. It cannot be processed by itself.

【0008】このため、特開平3−167678号公報
の技術を土地利用状況の変化把握に利用する場合には、
自動的に抽出される画像中の特徴箇所が陰影の差異によ
り大きく異なり自動的な対応付けを行うことができな
い。
For this reason, when the technology disclosed in Japanese Patent Application Laid-Open No. Hei 3-167678 is used for grasping changes in land use conditions,
A feature portion in an image to be automatically extracted greatly differs due to a difference in shading, and automatic association cannot be performed.

【0009】また、特開平8−63683号公報の監視
方式では、画像の微分処理を行う時点で、陰影を考慮せ
ずにそのまま土地の利用状況等の把握を行った場合に
は、真の土地や建物の変化よりも単なる陰影の太陽条件
の変化が多く取られ土地状況の変化を見分けることがで
きなくなってしまう。
In the monitoring method disclosed in Japanese Patent Application Laid-Open No. 8-63683, when the land use status and the like are grasped without taking shadow into account at the time of performing image differentiation processing, a true land The change in the sun condition, which is simply a shading, is larger than the change in the building and the change in the building, making it impossible to recognize the change in the land condition.

【0010】このように、従来技術では、撮影時の太陽
位置の違いによる建物などの陰影を考慮しないで画像の
差分を取って状況変化の把握を行うと充分な精度を得ら
れないという問題点があった。
As described above, in the prior art, sufficient accuracy cannot be obtained if differences in images are obtained without taking into account the shadow of a building or the like due to a difference in the sun position at the time of photographing to grasp a change in situation. was there.

【0011】本発明の目的は、異なる日時で撮影された
同一地点の航空写真や衛星写真等の画像の差分抽出を高
精度で行うことが可能な技術を提供することにある。
An object of the present invention is to provide a technique capable of extracting, with high accuracy, differences between images of aerial photographs, satellite photographs, and the like of the same spot taken at different dates and times.

【0012】[0012]

【課題を解決するための手段】本願において開示される
発明のうち、代表的なものの概要を簡単に説明すれば、
下記のとおりである。
SUMMARY OF THE INVENTION Among the inventions disclosed in the present application, the outline of a representative one will be briefly described.
It is as follows.

【0013】異なる日時で撮影された同一地点の航空写
真や衛星写真の画像の差分情報を抽出して解析する画像
情報解析装置において、前記異なる日時で撮影された同
一地点の航空写真や衛星写真の撮影日時の古い画像の陰
影部分を抽出する陰影部分抽出手段と、前記抽出された
陰影情報を用いて古い画像の各ポイント毎の高度情報を
抽出する高度情報抽出手段と、前記抽出された高度情報
から新しく撮影した画像に発生する陰影情報を算出する
陰影情報算手段と、前記算出された陰影情報を基に、前
記両画像の各ポイント毎の差分情報を抽出する差分情報
抽出手段と、前記抽出された差分情報の結果を出力する
抽出結果出力手段とを備える。
An image information analyzing apparatus for extracting and analyzing difference information between images of aerial photographs and satellite photographs of the same spot photographed at different dates and times is provided. A shadow portion extracting means for extracting a shadow portion of an image with an old shooting date and time; an altitude information extracting means for extracting altitude information for each point of an old image using the extracted shading information; and the extracted altitude information Shadow information calculating means for calculating shadow information occurring in a newly photographed image, and difference information extracting means for extracting difference information for each point of the two images based on the calculated shadow information; and Extraction result output means for outputting a result of the obtained difference information.

【0014】[0014]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照して説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0015】図1は、本発明の実施形態にかかる画像情
報解析装置の構成を説明するためのブロック図である。
なお、本実施形態では画像情報解析として、土地の利用
状況などを把握するために異なる日時に撮影された同一
地点の画像の差分解析を取り挙げる。
FIG. 1 is a block diagram for explaining a configuration of an image information analyzing apparatus according to an embodiment of the present invention.
In the present embodiment, as the image information analysis, a difference analysis of images of the same spot photographed at different dates and times is used in order to grasp a land use situation and the like.

【0016】本実施形態の画像情報解析装置は、図1に
示すように、衛星画像や航空写真などの画像情報が格納
されている画像情報記録部100と、その画像情報記録
部100に格納されている複数の画像間での差分解析を
行うために画像の階調の補正を行う画像階調補正部10
2と、画像情報記録部100に記録されている画像情報
の陰影部分を抽出する陰影部分抽出部101と、画像情
報記録部100に記録されている画像情報の高度情報の
抽出を行う高度情報抽出部106と、その高度情報抽出
部106で抽出された各画像の高度情報が記録される高
度情報記録部107と、高度情報記録部107に記録さ
れた画像の各地点の高度情報と解析対象の画像の撮影時
の太陽位置の情報から画像中に発生する陰影情報を算出
して陰影情報記録部109に記録する陰影情報算出部1
08と、画像階調補正部102により階調補正の行われ
た撮影日時の異なる二枚の画像の各画素の差分値の算出
を行い差分情報記録部104に格納する差分情報抽出部
103と、入力装置111からの入力に従い、画像情報
記録部100と差分情報記録部104に格納されている
画像情報を表示装置112に表示する表示制御部105
とからなる。
As shown in FIG. 1, the image information analyzing apparatus according to the present embodiment has an image information recording section 100 storing image information such as a satellite image and an aerial photograph, and the image information recording section 100 stores the image information. Image gradation correction unit 10 that corrects the gradation of an image in order to perform difference analysis between a plurality of images
2, a shadow portion extraction unit 101 for extracting a shadow portion of the image information recorded in the image information recording unit 100, and an altitude information extraction for extracting the altitude information of the image information recorded in the image information recording unit 100 Unit 106, an altitude information recording unit 107 in which altitude information of each image extracted by the altitude information extracting unit 106 is recorded, and altitude information of each point of the image recorded in the altitude information recording unit 107 and an analysis target. A shading information calculating unit 1 that calculates shading information generated in an image from information on a sun position at the time of capturing the image and records the shading information in a shading information recording unit 109.
08, a difference information extraction unit 103 that calculates a difference value of each pixel of two images having different photographing dates and times in which gradation correction has been performed by the image gradation correction unit 102 and stores the difference value in the difference information recording unit 104; A display control unit 105 that displays image information stored in the image information recording unit 100 and the difference information recording unit 104 on the display device 112 in accordance with an input from the input device 111.
Consists of

【0017】次に、上述した画像情報解析装置における
処理について説明する。
Next, the processing in the above-described image information analyzing apparatus will be described.

【0018】図2は、本実施形態の画像情報解析装置の
処理を説明するためのフローチャートである。
FIG. 2 is a flowchart for explaining the processing of the image information analyzing apparatus according to the present embodiment.

【0019】本実施形態の画像情報解析装置は、図2に
示すように、まず、差分解析の対象となる異なる日時に
撮影された同一地点の画像の中で撮影日時の古いものを
原画像、撮影日時の新しい画像を新画像とすると、陰影
部分抽出部101により原画像の陰影部分を抽出する陰
影部分抽出処理(ステップ201)を行い、この原画像
から抽出された陰影情報を利用して高度情報抽出部10
6により原画像の各ポイントの高度情報を算出する高度
情報抽出処理(ステップ202)を行い、この原画像の
高度情報から、陰影情報算出部108により新画像撮影
時に発生する陰影情報を算出する陰影情報算出処理(ス
テップ203)を行い、次に、差分情報抽出部103に
より新画像と原画像の各ポイントの差分情報を抽出する
差分情報抽出処理(ステップ204)を行い、表示制御
部105によりこの差分情報を表示装置112に表示す
る抽出結果表示処理(ステップ205)を行う。
As shown in FIG. 2, the image information analyzing apparatus according to the present embodiment firstly converts an image of the same spot taken at a different date and time, which is to be subjected to difference analysis, with the oldest shooting date and time into an original image, Assuming that a new image at the shooting date and time is a new image, a shadow portion extraction process (step 201) for extracting a shadow portion of the original image is performed by the shadow portion extraction unit 101, and the shadow information extracted from the original image is used to perform the advanced processing. Information extraction unit 10
6, the altitude information extraction processing for calculating the altitude information of each point of the original image is performed (step 202), and from the altitude information of the original image, the shadow information calculating unit 108 calculates the shadow information generated at the time of photographing the new image. An information calculation process (step 203) is performed. Next, a difference information extraction process (step 204) for extracting difference information of each point between the new image and the original image is performed by the difference information extraction unit 103, and the display control unit 105 performs this process. An extraction result display process (step 205) for displaying the difference information on the display device 112 is performed.

【0020】次に、上述した各ステップ201〜205
について図面を用いて詳細に説明する。
Next, steps 201 to 205 described above are performed.
Will be described in detail with reference to the drawings.

【0021】図3は、上述した陰影部分抽出処理(ステ
ップ201)を説明するためのフローチャートである。
FIG. 3 is a flowchart for explaining the above-described shadow part extraction processing (step 201).

【0022】この陰影部分抽出処理(ステップ201)
は、原画像の中の陰影部分の点をユーザが指定すること
で、原画像中の各点が陰影の中の点か、陰影に含まれて
いないかのマーク付けを行う処理である。
This shadow portion extraction processing (step 201)
Is a process in which a user designates a point of a shaded portion in the original image to mark each point in the original image as a point in the shade or not included in the shade.

【0023】図3に示すように、まず、ユーザは陰影点
の基準となる閾値を決定するために陰影点の可能性の高
い原画像上の点を複数個、陰影点として指定し、指定さ
れた点から陰影の抽出を行い(ステップ301)、抽出
された陰影の濃淡度を測定し(ステップ302)、測定
された結果から最も濃淡度が明るい点と、最も暗い点の
範囲を基準の閾値とする(ステップ303)。
As shown in FIG. 3, first, the user designates a plurality of points on the original image having a high possibility of a shadow point as a shadow point in order to determine a threshold value serving as a reference for the shadow point. The shades are extracted from the extracted points (step 301), and the shades of the extracted shades are measured (step 302). From the measured results, the range between the brightest shaded point and the darkest shaded point is set as a reference threshold. (Step 303).

【0024】その後、ユーザは陰影点の入力を行うか否
かを指定し(ステップ304)、陰影点の入力がある場
合には、ユーザはその点を入力装置111を用いて原画
像上の陰影点を一点指定する(ステップ305)。
Thereafter, the user designates whether or not to input a shadow point (step 304). If there is an input of a shadow point, the user uses the input device 111 to input the point using the input device 111. One point is designated (step 305).

【0025】次に、入力された点に隣接する点で、入力
点の画素の値と一定の閾値差に収まる点も陰影点として
マーク付けし、このマーク付けを入力点から始め、次に
その周辺点に順次拡張し、元の入力点から連結で画素の
値が一定の閾値の差に収まる点を全て陰影点としてマー
ク付けする(ステップ306)。
Next, points which are adjacent to the input point and fall within a certain threshold value difference from the pixel value of the input point are also marked as shadow points, and this marking is started from the input point, and then the mark is applied. The points are sequentially expanded to peripheral points, and all points where the pixel value falls within a certain threshold difference by connection from the original input point are marked as shadow points (step 306).

【0026】次に、陰影のマーク付けの状態を表示装置
111上に表示し(ステップ307)、この表示結果に
より、ステップ304に戻り、ユーザは再度、陰影点を
更に入力するか否かを指定する。
Next, the state of the marking of the shadow is displayed on the display device 111 (step 307). Based on the display result, the process returns to step 304, and the user again specifies whether or not to input another shadow point. I do.

【0027】もし、ステップ304でユーザが指定点の
入力を終了した場合は、原画像中に陰影点の設定が多す
ぎた場合の削除処理を行う。つまり、ユーザは入力ミス
(陰影点の削除)の有無を指定し、もし、削除点の入力
が無い場合には処理を終了する(ステップ308)。
If the user has finished inputting the designated point in step 304, a deletion process is performed when there are too many shadow points in the original image. In other words, the user designates the presence or absence of an input error (deletion of a shadow point), and if there is no input of a deletion point, the process ends (step 308).

【0028】ステップ308で入力ミスが指定された場
合には、削除する陰影点の位置を入力装置111により
入力する(ステップ309)。
If an input error is specified in step 308, the position of the shadow point to be deleted is input by the input device 111 (step 309).

【0029】次に、指定された原画像中の一点の周囲の
画素に対してステップ307の陰影部拡張処理で行った
のと同じ処理を行い、指定された非陰影部を拡張する。
つまり、指定された非陰影点に隣接する画素で、画素値
が指定された点の画素値と一定の閾値差に収まる点も非
陰影点としてマーク付けする。このマーク付けを入力点
から始め、次にその隣接画素、更に隣接画素の中で新た
に非陰影点としてマーク付けされた点に対しては更にそ
の隣接画素の画素値が元の指定された画素の画素値と一
定の閾値内に納まるか調べ、閾値内に納まる場合にはそ
の点も更に非陰影点とする。この処理を順次繰り返すこ
とで指定された非陰影点から連結で画素の値の差が一定
範囲内に納まる点を全て非陰影点としてマーク付けする
(ステップ310)。
Next, the same processing as that performed in the shadow part expansion processing in step 307 is performed on the pixels around one point in the specified original image to expand the specified non-shade part.
In other words, pixels that are adjacent to the designated non-shading point and whose pixel value falls within a certain threshold difference from the pixel value of the designated point are also marked as non-shading points. This marking is started from the input point, and then, for the adjacent pixel, and for the point newly marked as a non-shadow point in the adjacent pixel, the pixel value of the adjacent pixel is further changed to the original designated pixel. It is checked whether or not the pixel value falls within a certain threshold value with the pixel value of. If the pixel value falls within the threshold value, that point is further set as a non-shadow point. By repeating this process sequentially, all points where the difference of pixel values within the specified range from the designated non-shadow point are connected are marked as non-shaded points (step 310).

【0030】そして、マーク付け後の状況を表示装置1
12に表示し、ステップ308に戻り陰影点を行うため
再度陰影点除去の有無の入力を行う(ステップ31
1)。
Then, the status after the marking is displayed on the display device 1.
12 and return to step 308 to input again whether or not to remove a shadow point to perform a shadow point (step 31).
1).

【0031】図4は、ステップ311における原画像の
表示例を示した図である。この図4では、マーク付けさ
れた陰影点を斜線部分で示し、非陰影部分はそのまま示
してある。
FIG. 4 is a diagram showing a display example of the original image in step 311. In FIG. 4, the marked shadow points are indicated by hatched portions, and the non-shaded portions are shown as they are.

【0032】図5は、原画像に陰影抽出処理(ステップ
201)でマーク付けされた陰影部分を元に画像中の各
点の高度情報を抽出する高度情報抽出処理(ステップ2
02)を説明するためのフローチャートである。
FIG. 5 shows an altitude information extraction process (step 2) for extracting altitude information of each point in an image based on a shadow portion marked in the original image in the shadow extraction process (step 201).
02) is a flowchart illustrating the process of FIG.

【0033】高度情報抽出処理は、図5に示すように、
まず、変数θ1に画像撮影時の撮影地点での太陽方位角
を設定し(ステップ401)、変数θ2には同じく撮影
時の撮影地点での太陽高度角を設定する(ステップ40
2)。
In the altitude information extraction processing, as shown in FIG.
First, the sun azimuth at the shooting point at the time of image shooting is set as a variable θ1 (step 401), and the sun altitude angle at the shooting point at the time of shooting is set as a variable θ2 (step 40).
2).

【0034】次に、原画像の全画素に対して、陰影部分
から推定される各点の高度情報の設定を行うため、ま
ず、変数Iに1を設定する。(ステップ403)次に、
変数Iの値が原画像の横幅を越えている場合には処理を
終了し(ステップ404)、画像を全て処理していない
場合には、変数Jに1を設定する(ステップ405)。
Next, in order to set the altitude information of each point estimated from the shaded portion for all the pixels of the original image, first, 1 is set to the variable I. (Step 403) Next,
If the value of the variable I exceeds the width of the original image, the process is terminated (step 404). If not all the images have been processed, the variable J is set to 1 (step 405).

【0035】その後、変数Jの値が画像の高さを越えて
いないかチェックし(ステップ406)、変数Jの値が
画像の高さを越えていた場合には、ステップ413に進
んで変数Iに1を加え、再度、変数Jの値を1に戻して
ステップ405の再度処理を行う。
Thereafter, it is checked whether the value of the variable J has exceeded the height of the image (step 406). If the value of the variable J has exceeded the height of the image, the flow advances to step 413 to proceed to step 413. , The value of the variable J is returned to 1, and the process of step 405 is performed again.

【0036】変数Jの値が画像の高さよりも小さけれ
ば、ステップ406の画像中の横位置がI,縦位置がJ
の画像中の画素(今後、点(I,J)と略記する)に対
して以下の処理を行う。
If the value of the variable J is smaller than the height of the image, the horizontal position in the image in step 406 is I and the vertical position is J
The following processing is performed on the pixels (hereinafter, abbreviated as points (I, J)) in the image of FIG.

【0037】まず、点(I,J)がステップ201の陰
影抽出処理でマーク付けを行った陰影点か否かを判定し
(ステップ407)、点(I,J)が陰影部に含まれて
いない場合には、ステップ412の変数Jに1を加えて
次の点の処理に移り、点(I,J)が陰影部に含まれて
いた場合に以下の処理を行う。
First, it is determined whether or not the point (I, J) is a shadow point marked in the shadow extraction processing in step 201 (step 407), and the point (I, J) is included in the shadow portion. If not, 1 is added to the variable J in step 412, and the process proceeds to the next point. If the point (I, J) is included in the shaded portion, the following process is performed.

【0038】まず、例えば、図6に示すように、点
(I,J)から太陽方向(θ1方向)で最初に現れる非
陰影点画素までの画素数を変数L1に格納し(ステップ
408)、点(I,J)から反太陽方向(−θ1方向)
に最初に現れる非陰影点画素までの画素数を変数L2に
格納する(ステップ409)。
First, as shown in FIG. 6, for example, the number of pixels from the point (I, J) to the first non-shadow point pixel in the sun direction (θ1 direction) is stored in a variable L1 (step 408). Point (I, J) to anti-sun direction (-θ1 direction)
Is stored in a variable L2 (step 409).

【0039】その後、変数Hに(L1+L2)・tan
θ2の値を格納し(ステップ411)、この値を陰影か
ら推測した高度情報として利用する(図6の例では、建
物2の高度となる)。
Thereafter, the variable H is set to (L1 + L2) · tan
The value of θ2 is stored (step 411), and this value is used as altitude information estimated from the shadow (in the example of FIG. 6, the altitude of the building 2).

【0040】ここで得た高度情報を、点(I,J)から
太陽方向(θ1方向)に最初に現れる非陰影点から次に
現れる陰影点までの点の高度情報として変数Hの値を設
定する(ステップ411)。
The value of the variable H is set as the height information of the point obtained from the point (I, J) to the point from the first non-shading point to the next shading point in the sun direction (θ1 direction) from the point (I, J). (Step 411).

【0041】次に、変数Jの値に1を加えて、ステップ
406の画素の処理に移る(ステップ412)。
Next, 1 is added to the value of the variable J, and the process proceeds to the pixel processing in step 406 (step 412).

【0042】図7は、陰影情報算出処理(ステップ20
3)を説明するためのフローチャートである。
FIG. 7 shows a shadow information calculation process (step 20).
It is a flowchart for demonstrating 3).

【0043】陰影情報算出処理(ステップ203)は、
先の高度情報抽出処理(ステップ202)により抽出し
た原画像の高度情報と、新画像撮影時の太陽方位及び太
陽高度とを元に陰影の状況を算出する処理であり、図7
に示すように、まず、変数θ1に新画像撮影時の太陽方
位角を設定し(ステップ501)、変数θ2に新画像撮
影時の太陽高度角を設定する(ステップ502)。
The shadow information calculation processing (step 203)
FIG. 7 is a process for calculating the state of shadow based on the altitude information of the original image extracted by the altitude information extraction process (step 202) and the sun azimuth and solar altitude at the time of capturing the new image.
As shown in (1), first, the sun azimuth at the time of photographing a new image is set as a variable θ1 (step 501), and the solar altitude angle at the time of photographing a new image is set as a variable θ2 (step 502).

【0044】次に、画像の全画素に対して、その高度情
報から画像中に発生する陰影を算出するために、まず、
変数Iに値1を設定し(ステップ503)、変数Iの値
が画像の横幅を超えていないかチェックし、変数Iの値
が画像の横幅を超えていた場合には、すべての画素に対
する処理が終わったと見なして処理を終える(ステップ
504)。
Next, in order to calculate the shading occurring in the image from the altitude information for all the pixels of the image, first,
A value 1 is set to the variable I (step 503), and it is checked whether or not the value of the variable I exceeds the width of the image. If the value of the variable I exceeds the width of the image, processing for all pixels is performed. Is completed, and the process is terminated (step 504).

【0045】変数Iの値が画像の横幅を超えていない場
合には、変数Jに値1を設定する(ステップ505)。
If the value of the variable I does not exceed the width of the image, a value 1 is set to the variable J (step 505).

【0046】次に、この変数Jの値が画像の高さよりも
大きければ、縦方向の一列の画素に対する処理が終わっ
たものとしてステップ512に進み、変数Iの値に1を
加えて次の画素列の処理に移る。
Next, if the value of the variable J is larger than the height of the image, it is determined that the processing for one row of pixels in the vertical direction has been completed, and the routine proceeds to step 512, where 1 is added to the value of the variable I and the next pixel is added. Move on to column processing.

【0047】変数Jの値が画像の高さよりも小さい場合
には、画像中の点(I,J)により生じる陰影の算出を
行うために、まず、画像中の点(I,J)の高度情報
が”0”か否かを判定する(ステップ507)。
If the value of the variable J is smaller than the height of the image, the height of the point (I, J) in the image must first be calculated in order to calculate the shadow caused by the point (I, J) in the image. It is determined whether the information is "0" (step 507).

【0048】点(I,J)の高度情報が”0”の場合に
は、その点での陰影は発生しないとして次の画素の処理
に移るためにステップ511に進み、変数Jの値に1を
加え、ステップ506に戻る。
If the altitude information of the point (I, J) is "0", it is determined that no shadow is generated at that point, and the process proceeds to step 511 to proceed to the processing of the next pixel. And returns to step 506.

【0049】点(I,J)の高度情報が”0”でない場
合には、変数Hに点(I,J)の高度情報を設定し(ス
テップ508)、このHの高さにより生じる陰影の長さ
を求めるため、変数LにH・cotθ2の値を設定する
(ステップ509)。
If the altitude information of the point (I, J) is not "0", the altitude information of the point (I, J) is set to a variable H (step 508), and the shadow generated by the height of the H is set. To determine the length, the value of H · cotθ2 is set to the variable L (step 509).

【0050】次に、点(I,J)から太陽と反対方向
(反θ1方向)で距離が変数Lの値よりも小さい画素に
対し、陰影が発生するとして陰影マーク付けを行う(ス
テップ510)。
Next, a shadow mark is applied to a pixel whose distance from the point (I, J) is smaller than the value of the variable L in the direction opposite to the sun (anti-θ1 direction) (step 510). .

【0051】その後、変数Jの値に1を加え(ステップ
511)、ステップ506に戻り、次の画素の処理に移
る。
Thereafter, 1 is added to the value of the variable J (step 511), and the process returns to step 506 to proceed to the processing of the next pixel.

【0052】この陰影情報算出処理(ステップ203)
により、原画像から抽出した高度情報に基づく、新画像
撮影時の陰影の発生状況の予測を算出することができ
る。
This shadow information calculation processing (step 203)
As a result, it is possible to calculate the prediction of the state of occurrence of the shadow at the time of capturing a new image based on the altitude information extracted from the original image.

【0053】図8は、その算出された新画像における陰
影の発生状況の予測を示した図である。図8に示す建物
1、2、3の陰影が発生位置が図4に示したものと違っ
ていることがわかる。
FIG. 8 is a diagram showing the prediction of the state of occurrence of shadows in the calculated new image. It can be seen that the positions where the shadings of buildings 1, 2, and 3 shown in FIG. 8 occur are different from those shown in FIG.

【0054】図9は、差分情報抽出処理(ステップ20
4)の処理を説明するためのフローチャートである。
FIG. 9 shows a difference information extraction process (step 20).
It is a flowchart for demonstrating the process of 4).

【0055】差分情報抽出処理(ステップ204)は、
上述した図8の陰影の発生状況を用いて原画像と新画像
の差分情報の算出を行い、原画像と新画像の対応画素の
画素値の差の絶対値を求め、陰影部分の差分抽出を抑止
する処理であり、図9に示すように、まず、差分情報を
記録する差分情報記録部104の画像の各画素に対応す
る差分情報記録エリアの値を全て0クリアし(ステップ
601)、変数Iの値に1を設定する(ステップ60
2)。
The difference information extraction process (step 204)
The difference information between the original image and the new image is calculated by using the above-described shading occurrence state shown in FIG. 8, the absolute value of the difference between the pixel values of the corresponding pixels of the original image and the new image is calculated, and the difference extraction of the shadow portion is performed. As shown in FIG. 9, first, all values of the difference information recording area corresponding to each pixel of the image of the difference information recording unit 104 for recording the difference information are cleared to 0 (step 601), and the variable The value of I is set to 1 (step 60)
2).

【0056】そして、変数Iの値が画像の横幅よりも大
きければ処理を終える(ステップ603)。
If the value of the variable I is larger than the horizontal width of the image, the process ends (step 603).

【0057】変数Iの値が画像の横幅よりも小さい場合
には、変数Iの値で指定される画像の列に対して処理を
行うために変数Jに値1を設定する(ステップ60
4)。
If the value of the variable I is smaller than the horizontal width of the image, the value 1 is set to the variable J in order to perform processing on the image column specified by the value of the variable I (step 60).
4).

【0058】変数Jの値と画像の高さを比較し、変数J
の値が大きければ、その列に対する処理は終わったもの
として、ステップ609に進み、変数Iの値に1を加え
次の列の処理に移り、変数Jの値が小さければ、次の処
理を行う(ステップ605)。
The value of the variable J is compared with the height of the image, and the
If the value of the variable J is large, it is determined that the processing for that column has been completed, and the process proceeds to step 609, where 1 is added to the value of the variable I, and the process proceeds to the next column. If the value of the variable J is small, the next process is performed. (Step 605).

【0059】点(I,J)が先のステップ201の陰影
抽出処理でマーク付けされた陰影部分か原画像上で抽出
された陰影部のどちらかに含まれている場合には、原画
像もしくは新画像の点(I,J)の画素が陰影部分であ
るために差分抽出は行わずにステップ608に進み、次
の画素の処理に移る(ステップ606)。具体的には、
図4と図8に示した陰影部分に対しては差分を取る処理
を行わないことになる。
If the point (I, J) is included in either the shaded part marked in the shade extraction processing in step 201 or the shaded part extracted on the original image, Since the pixel at the point (I, J) in the new image is a shadow portion, the process proceeds to step 608 without performing difference extraction, and proceeds to the process for the next pixel (step 606). In particular,
The processing for obtaining the difference is not performed for the shaded portions shown in FIGS.

【0060】点(I,J)が陰影部分に含まれていない
場合には、原画像と新画像の点(I,J)の画素の値の
差の絶対値を差分情報記録部104に記録する(ステッ
プ607)。具体的には、図4にはなかった図8に示す
建物4に対してのみ差分情報が記録されることになる。
When the point (I, J) is not included in the shaded portion, the absolute value of the difference between the pixel values of the point (I, J) in the original image and the new image is recorded in the difference information recording unit 104. (Step 607). Specifically, the difference information is recorded only for the building 4 shown in FIG. 8, which is not shown in FIG.

【0061】次に、変数Jの値に1を加えて、ステップ
605に戻り、次の画素の処理に移る(ステップ60
8)。
Next, 1 is added to the value of the variable J, and the flow returns to step 605 to proceed to the processing of the next pixel (step 60).
8).

【0062】図10は、抽出結果表示処理(ステップ2
05)を説明するためのフローチャートである。
FIG. 10 shows an extraction result display process (step 2).
05) is a flowchart for explaining the present invention.

【0063】抽出結果表示処理(ステップ205)は、
差分情報記録部104に記録された差分情報を表示装置
112に表示する処理であり、図10に示すように、ま
ず、利用者は差分情報の表示パラメータをコマンドとし
て入力装置111により入力する(ステップ701)。
このパラメータの一例としては、一定画素数以下の差分
領域の無視を行う閾値や差分情報記録部104に記録さ
れている各ポイントの画素の濃度の差分の絶対値が一定
の閾値以下の場合に表示しないなどの機能を有する。
The extraction result display processing (step 205)
This is a process of displaying the difference information recorded in the difference information recording unit 104 on the display device 112. As shown in FIG. 10, first, the user inputs the display parameter of the difference information as a command from the input device 111 (step 701).
Examples of this parameter include a threshold value for ignoring a difference area of a certain number of pixels or less, and a display when the absolute value of the density difference of the pixel at each point recorded in the difference information recording unit 104 is less than a certain threshold value. It has functions such as no.

【0064】このコマンド入力で処理の終了が指定され
ている場合には処理を終える(ステップ702)。
If the end of the process is designated by this command input, the process is terminated (step 702).

【0065】処理の終了でない場合には、入力されたコ
マンドに対応する画像処理を差分画像に対して施す(ス
テップ703)。
If the processing is not completed, image processing corresponding to the input command is performed on the difference image (step 703).

【0066】そして、その結果を表示装置112に表示
し、その画像の表示後、ステップ701に進み、再度ユ
ーザに各種表示パラメータの修正を行うコマンド入力を
求め処理を繰り返す(ステップ704)。
Then, the result is displayed on the display device 112, and after displaying the image, the process proceeds to step 701, where the user is again requested to input a command for correcting various display parameters, and the process is repeated (step 704).

【0067】したがって、説明してきたように、原画像
の陰影部分を抽出し、この原画像から抽出された陰影情
報を利用して原画像の各ポイントの高度情報を抽出し、
この原画像の高度情報から新画像撮影時に発生する陰影
情報を算出し、新画像と原画像の各ポイントの差分情報
を抽出して表示することにより、新画像及び原画像の陰
影部分は差分の対象とはならないため、陰影部分が差分
として抽出されることを防止でき、差分情報の抽出を高
精度に行うことができる。
Therefore, as described above, the shadow portion of the original image is extracted, and the altitude information of each point of the original image is extracted by using the shadow information extracted from the original image.
Shading information generated at the time of photographing a new image is calculated from the altitude information of the original image, and the difference information between each point of the new image and the original image is extracted and displayed. Since it is not a target, it is possible to prevent a shadow portion from being extracted as a difference, and to extract difference information with high accuracy.

【0068】このため、異なる日時に撮影した航空写真
や衛星写真などの画像を比較して道路、建物など土地の
利用形態や建物、道路の状況の時間的変化を把握するに
当たり、陰影の影響による誤った変化の抽出を防止する
ことが可能になる。
For this reason, when comparing images such as aerial photographs and satellite photographs taken at different dates and times to understand the temporal changes in the form of use of land, such as roads and buildings, and changes in the state of buildings and roads, the influence of shadows is important. It becomes possible to prevent extraction of an erroneous change.

【0069】このように、本発明の画像情報解析装置で
は、航空写真や衛星写真などの画像を比較して差分を取
るに当たり、本実施形態で取り挙げた陰影のように、撮
影日時の違い等の撮影条件の差異によって生じた差分対
象とならないものを取り除くことにより、差分情報の抽
出を高精度に行うことができ、時間的変化の把握を高精
度で行うことができる。
As described above, in the image information analysis apparatus of the present invention, when comparing images such as aerial photographs and satellite photographs and taking a difference between them, as in the shadows described in the present embodiment, differences in photographing date and time and the like are obtained. By removing those which do not become differences due to the difference in the imaging conditions, the difference information can be extracted with high accuracy, and the temporal change can be grasped with high accuracy.

【0070】また、本実施形態の画像情報解析装置を構
成する各部100〜109は、コンピュータで実行可能
なプログラムで実現される場合もあり、そのときのプロ
グラムは、フロッピーディスク、CD・ROM、マスク
ROM等の記憶媒体で一般ユーザに提供される。この場
合、さらに、これら処理の他にGUIプログラム等の他
のプログラムと組み合わせてユーザに提供することもあ
る。
Each of the units 100 to 109 constituting the image information analyzing apparatus of this embodiment may be realized by a program executable by a computer, and the program at that time may be a floppy disk, a CD / ROM, a mask, or the like. It is provided to general users on a storage medium such as a ROM. In this case, in addition to these processes, the program may be provided to the user in combination with another program such as a GUI program.

【0071】さらに、上述した記憶媒体で提供する代替
手段として、インタネット等のネットワークを通じて有
償で提供することもある。
Further, as an alternative means provided by the above-mentioned storage medium, it may be provided through a network such as the Internet for a fee.

【0072】以上、本発明者によってなされた発明を、
前記実施形態に基づき具体的に説明したが、本発明は、
前記実施形態に限定されるものではなく、その要旨を逸
脱しない範囲において種々変更可能であることは勿論で
ある。
As described above, the invention made by the present inventor
Although specifically described based on the embodiment, the present invention
It is needless to say that the present invention is not limited to the above-described embodiment, but can be variously modified without departing from the scope of the invention.

【0073】[0073]

【発明の効果】本願において開示される発明のうち代表
的なものによって得られる効果を簡単に説明すれば、下
記のとおりである。
The effects obtained by the representative ones of the inventions disclosed in the present application will be briefly described as follows.

【0074】異なる日時で撮影された同一地点の航空写
真や衛星写真等の画像の差分抽出を高精度で行うことが
可能となる。
It is possible to extract differences between images such as aerial photographs and satellite photographs of the same spot taken at different dates and times with high accuracy.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施形態にかかる画像情報解析装置の
構成を説明するためのブロック図である。
FIG. 1 is a block diagram illustrating a configuration of an image information analysis device according to an embodiment of the present invention.

【図2】画像情報解析装置の処理を説明するためのフロ
ーチャートである。
FIG. 2 is a flowchart for explaining processing of the image information analysis device.

【図3】陰影部分抽出処理(ステップ201)を説明す
るためのフローチャートである。
FIG. 3 is a flowchart illustrating a shadow part extraction process (step 201).

【図4】ステップ308における原画像の表示例を示し
た図である。
FIG. 4 is a diagram showing a display example of an original image in step 308.

【図5】高度情報抽出処理(ステップ202)を説明す
るためのフローチャートである。
FIG. 5 is a flowchart illustrating an altitude information extraction process (step 202).

【図6】陰影から高度情報を推測するステップを説明す
るための図である。
FIG. 6 is a diagram for explaining a step of estimating altitude information from a shadow.

【図7】陰影情報算出処理(ステップ203)を説明す
るためのフローチャートである。
FIG. 7 is a flowchart for explaining shadow information calculation processing (step 203).

【図8】算出された新画像における陰影の発生状況の予
測を示した図である。
FIG. 8 is a diagram illustrating prediction of a state of occurrence of a shadow in a calculated new image.

【図9】差分情報抽出処理(ステップ204)の処理を
説明するためのフローチャートである。
FIG. 9 is a flowchart illustrating a difference information extraction process (step 204).

【図10】抽出結果表示処理(ステップ205)を説明
するためのフローチャートである。
FIG. 10 is a flowchart illustrating an extraction result display process (step 205).

【符号の説明】[Explanation of symbols]

100…画像情報記録部、101…画像階調補正部、1
02…陰影部分抽出部、103…差分情報抽出部、10
4…差分情報記録部、105…表示制御部、106…高
度情報抽出部、107…高度情報記録部、108…陰影
情報算出部、109…陰影情報記録部、111…入力装
置、112…表示装置。
100: image information recording unit, 101: image gradation correction unit, 1
02: shadow part extraction unit, 103: difference information extraction unit, 10
4 ... Difference information recording unit, 105 ... Display control unit, 106 ... Altitude information extraction unit, 107 ... Altitude information recording unit, 108 ... Shadow information calculation unit, 109 ... Shadow information recording unit, 111 ... Input device, 112 ... Display device .

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 異なる日時で撮影された同一地点の航空
写真や衛星写真の画像の差分情報を抽出して解析する画
像情報解析装置において、 前記異なる日時で撮影された同一地点の航空写真や衛星
写真の撮影日時の古い画像の陰影部分を抽出する陰影部
分抽出手段と、 前記陰影部分抽出手段により抽出された陰影情報を用い
て古い画像の各ポイント毎の高度情報を抽出する高度情
報抽出手段と、 前記高度情報抽出手段により抽出された高度情報から新
しく撮影した画像に発生する陰影情報を算出する陰影情
報算手段と、 前記陰影情報算出手段によって算出された陰影情報を基
に、前記両画像の各ポイント毎の差分情報を抽出する差
分情報抽出手段と、 前記差分情報抽出手段により抽出された差分情報の結果
を出力する抽出結果出力手段とを備えたことを特徴とす
る画像情報解析装置。
1. An image information analyzing apparatus for extracting and analyzing difference information of aerial photographs and satellite images of the same spot taken at different dates and times, wherein the aerial photographs and satellites of the same spot taken at different dates and times are provided. Shadow portion extraction means for extracting a shadow portion of an image with an old photographing date and time; and altitude information extraction means for extracting altitude information for each point of the old image using the shadow information extracted by the shadow portion extraction means. A shading information calculating means for calculating shading information occurring in a newly shot image from the altitude information extracted by the altitude information extracting means; and a shading information calculated by the shading information calculating means, based on the shading information calculated by the shading information calculating means. A difference information extracting unit that extracts difference information for each point; and an extraction result output unit that outputs a result of the difference information extracted by the difference information extracting unit. Image information analyzing apparatus characterized by a.
【請求項2】 異なる日時で撮影された同一地点の航空
写真や衛星写真の画像の差分情報を抽出して解析する画
像情報解析プログラムを有する記憶媒体において、 前記画像情報解析プログラムは、前記異なる日時で撮影
された同一地点の航空写真や衛星写真の撮影日時の古い
画像の陰影部分を抽出するステップと、 前記抽出された陰影情報を用いて古い画像の各ポイント
毎の高度情報を抽出するステップと、 前記抽出された高度情報から新しく撮影した画像に発生
する陰影情報を算出するステップと、 前記算出された陰影情報を基に、前記両画像の各ポイン
ト毎の差分情報を抽出するステップと、 前記抽出された差分情報の結果を出力するステップとを
備えたことを特徴とする画像情報解析プログラムを有す
る記憶媒体。
2. A storage medium having an image information analysis program for extracting and analyzing difference information of an aerial photograph or a satellite photograph image of the same spot photographed at different dates and times, wherein the image information analysis program comprises: Extracting a shaded portion of an old image of an aerial photograph or a satellite photograph at the same date and time taken at the same point, and extracting altitude information for each point of the old image using the extracted shaded information. Calculating shadow information occurring in a newly captured image from the extracted altitude information; extracting difference information for each point of the two images based on the calculated shadow information; Outputting a result of the extracted difference information.
JP01618197A 1997-01-30 1997-01-30 Image information analysis apparatus and image information analysis method Expired - Fee Related JP3589271B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP01618197A JP3589271B2 (en) 1997-01-30 1997-01-30 Image information analysis apparatus and image information analysis method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP01618197A JP3589271B2 (en) 1997-01-30 1997-01-30 Image information analysis apparatus and image information analysis method

Publications (2)

Publication Number Publication Date
JPH10214328A true JPH10214328A (en) 1998-08-11
JP3589271B2 JP3589271B2 (en) 2004-11-17

Family

ID=11909355

Family Applications (1)

Application Number Title Priority Date Filing Date
JP01618197A Expired - Fee Related JP3589271B2 (en) 1997-01-30 1997-01-30 Image information analysis apparatus and image information analysis method

Country Status (1)

Country Link
JP (1) JP3589271B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11144042A (en) * 1997-11-12 1999-05-28 Naoki Harigai Method for finding new flaw of rental car and flaw finding device for implementing same method
JP2007305107A (en) * 2006-04-10 2007-11-22 Fujifilm Corp Report generation support apparatus, report generation support method, and program therefor
JP2009177336A (en) * 2008-01-22 2009-08-06 Tokyo Univ Of Science Program, method and apparatus for generating moving image for supporting to determine change between images
JP2011150733A (en) * 2004-08-04 2011-08-04 Intergraph Software Technologies Co Method for preparing composite image with nonhomogeneous resolution
JP2016149006A (en) * 2015-02-12 2016-08-18 アジア航測株式会社 Change detection system using aerial mobile acquisition information, change detection method using aerial mobile acquisition information, and program of the same
CN109741381A (en) * 2019-01-23 2019-05-10 张过 Spaceborne push-broom type optical sensor high frequency error removing method based on parallel observation
JP2020095707A (en) * 2018-12-11 2020-06-18 キヤノン株式会社 Alignment-free video change detection using deep blind image region prediction

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11144042A (en) * 1997-11-12 1999-05-28 Naoki Harigai Method for finding new flaw of rental car and flaw finding device for implementing same method
JP2011150733A (en) * 2004-08-04 2011-08-04 Intergraph Software Technologies Co Method for preparing composite image with nonhomogeneous resolution
JP2007305107A (en) * 2006-04-10 2007-11-22 Fujifilm Corp Report generation support apparatus, report generation support method, and program therefor
JP2009177336A (en) * 2008-01-22 2009-08-06 Tokyo Univ Of Science Program, method and apparatus for generating moving image for supporting to determine change between images
JP2016149006A (en) * 2015-02-12 2016-08-18 アジア航測株式会社 Change detection system using aerial mobile acquisition information, change detection method using aerial mobile acquisition information, and program of the same
JP2020095707A (en) * 2018-12-11 2020-06-18 キヤノン株式会社 Alignment-free video change detection using deep blind image region prediction
CN109741381A (en) * 2019-01-23 2019-05-10 张过 Spaceborne push-broom type optical sensor high frequency error removing method based on parallel observation
CN109741381B (en) * 2019-01-23 2020-07-03 张过 Satellite-borne push-broom optical sensor high-frequency error elimination method based on parallel observation

Also Published As

Publication number Publication date
JP3589271B2 (en) 2004-11-17

Similar Documents

Publication Publication Date Title
US8050457B2 (en) Method, device and program for cutting out moving image
CN115439424B (en) Intelligent detection method for aerial video images of unmanned aerial vehicle
JP2856229B2 (en) Image clipping point detection method
CN109308688B (en) Visible light and near-infrared band thick cloud and shadow removing method
CA2658239A1 (en) Geospatial modeling system providing geospatial model data target point filtering based upon radial line segments and related methods
CN105701770B (en) A kind of human face super-resolution processing method and system based on context linear model
JP7092615B2 (en) Shadow detector, shadow detection method, shadow detection program, learning device, learning method, and learning program
CN113160053A (en) Pose information-based underwater video image restoration and splicing method
CN111683221B (en) Real-time video monitoring method and system for natural resources embedded with vector red line data
US9426514B1 (en) Graphic reference matrix for virtual insertions
JP4131930B2 (en) Map update program and map update device
JP3589271B2 (en) Image information analysis apparatus and image information analysis method
CN105701515A (en) Face super-resolution processing method and system based on double-layer manifold constraint
CN115240089A (en) Vehicle detection method of aerial remote sensing image
CN110866945A (en) Method for generating three-dimensional tree by automatic identification of oblique photography model
CN113362221A (en) Face recognition system and face recognition method for entrance guard
CN114973028B (en) Aerial video image real-time change detection method and system
JP4030318B2 (en) Map data update device and map data update method
CN111145220A (en) Tunnel target track tracking method based on visual information
CN116758447A (en) Digital twinning-based substation equipment fault analysis system
JP4178533B2 (en) Tree crown extraction system
CN112598777B (en) Haze fusion method based on dark channel prior
KR102204040B1 (en) Image processing system for unifying collecting images by altitude
WO2020238116A1 (en) Product positioning method
JP3576759B2 (en) Image processing device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040423

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040810

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100827

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130827

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees