JP2000076423A - Image analyzer - Google Patents

Image analyzer

Info

Publication number
JP2000076423A
JP2000076423A JP10246811A JP24681198A JP2000076423A JP 2000076423 A JP2000076423 A JP 2000076423A JP 10246811 A JP10246811 A JP 10246811A JP 24681198 A JP24681198 A JP 24681198A JP 2000076423 A JP2000076423 A JP 2000076423A
Authority
JP
Japan
Prior art keywords
image
images
rotation angle
image information
variable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10246811A
Other languages
Japanese (ja)
Inventor
Takashi Onoyama
隆 小野山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Software Engineering Co Ltd
Original Assignee
Hitachi Software Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Software Engineering Co Ltd filed Critical Hitachi Software Engineering Co Ltd
Priority to JP10246811A priority Critical patent/JP2000076423A/en
Publication of JP2000076423A publication Critical patent/JP2000076423A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To make fast graspable the change with time of an object by comparing the images photographed on different dates with each other to automatically grasp the change with time. SOLUTION: An image information recording part 101 stores the image information on the satellite images, aerial photographs, etc., and a rotation correction part 102 corrects the angles of rotation of plural images stored in the part 101 to perform the differential analyses among these images. A parallel movement correction part 103 moves the images corrected at the part 102 in parallel to each other to correct the positions of these images on a two- dimentional plate. A differential image extraction part 104 extracts the differences among the images which undergone the position matching by the rotations and movements of them and rocords these images at a differential image recording part 105. A display control part 106 shows one or both of image information which are stored in both parts 101 and 105 on a display device 108 based on the input received from an input device 107. As a result, the change with time of an object can be fast grasped from among a large number of images.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、衛星画像や航空写
真などの画像情報から、目的とする建物や土地、道路等
の時間的変化を解析する画像解析装置に関するものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image analyzing apparatus for analyzing a temporal change of a target building, land, road or the like from image information such as a satellite image and an aerial photograph.

【0002】[0002]

【従来の技術】近年、衛星や航空写真の利用が広まって
きている。地図の作成、保守においても広大な領域を効
率的に探査するために衛星写真や航空写真の利用が広く
行われている。航空写真や衛星写真の利用は、航空写真
のステレオ視による高さ情報の取得や写真利用による土
地の状況変化の把握に利用されている。また、より広域
の植生、土地利用状況の把握などに利用されている。
2. Description of the Related Art In recent years, the use of satellite and aerial photography has become widespread. In the creation and maintenance of maps, satellite and aerial photographs are widely used in order to efficiently explore vast areas. The use of aerial photographs and satellite photographs is used to acquire height information by stereo vision of aerial photographs and to grasp changes in land conditions by using photographs. It is also used for monitoring vegetation and land use over a wider area.

【0003】このような技術として特開平3−1676
78号公報に開示された「ステレオ画像データから3次
元数値データを求める方法」では、人工衛星又は航空機
等から得られ画像を元にして三次元数値データ(高さの
情報)を求めるために左右両画像中の対応点を求める手
法が提案されている。この技法では左右の画像それぞれ
で特徴点を見つけて自動的に対応付けすることで高さ情
報の取得を行っている。この特徴点の中で自動的に対応
付けできなかったものに対しては人手による対話的な対
応付けを行っている。
As such a technique, Japanese Patent Laid-Open Publication No.
In the "method of obtaining three-dimensional numerical data from stereo image data" disclosed in Japanese Patent Publication No. 78-78, a method for obtaining three-dimensional numerical data (height information) based on an image obtained from an artificial satellite or an aircraft is used. Techniques for finding corresponding points in both images have been proposed. In this technique, height information is obtained by finding feature points in left and right images and automatically associating them. For those feature points that cannot be automatically associated, interactive association is performed manually.

【0004】また、特開平8−63683号公報に開示
された技術では、テレビカメラからの画像を監視装置に
利用するために画像間の差分を取る装置が提案されてい
る。この装置では1台のテレビカメラで撮影している画
像で監視を行うために単純に時系列の画像間で差分情報
を取得するのではなく、各画像データを微分画像を作成
して微分画像間で差分処理を行うことで監視対象場所の
日照の変化等の影響を除去を実現している。
Further, in the technique disclosed in Japanese Patent Application Laid-Open No. 8-63683, a device for taking a difference between images in order to use an image from a television camera for a monitoring device has been proposed. In this device, since monitoring is performed on an image captured by one television camera, difference information is not simply obtained between time-series images. By performing the differential processing, the effect of the change of the sunshine at the monitoring target place is removed.

【0005】[0005]

【発明が解決しようとする課題】航空写真や衛星写真の
利用分野として土地の利用状況や街区の状況変化を把握
する用途が考えられる。航空写真や衛星写真を利用する
ことで地上での土地利用状況の把握を行うのに比較して
広域を効率よく監視することができる。しかし、特開平
8−63683号公報や特開平3−167678号公報
で提案されている画像の利用方法では、比較を行う画像
はほぼ同一時刻に撮影されたものである。
As an application field of the aerial photograph and the satellite photograph, there is a conceivable use for grasping a land use situation and a change of a block situation. By using aerial photographs and satellite photographs, it is possible to monitor a wide area more efficiently as compared to grasping the land use situation on the ground. However, in the method of using images proposed in JP-A-8-63683 and JP-A-3-167678, images to be compared are shot at almost the same time.

【0006】これに対して、土地の利用状況の変動や建
物の建て変わりを把握するために比較する画像は数ヶ月
から数年の期間で撮影された画像である。このように撮
影日時が異なっている画像を比較する場合には、各画像
の撮影条件の差異が問題となる。
On the other hand, the images to be compared in order to grasp the change in the use status of the land and the rebuilding of the building are images taken in a period of several months to several years. When comparing images having different shooting dates and times as described above, a difference in the shooting conditions of each image poses a problem.

【0007】この撮影条件の差異の中には、例えば航空
写真を撮影した飛行機のわずかな飛行経路の差異や、衛
星画像を撮影した衛星のわずかな姿勢の差異などがあ
る。このような撮影条件の違いにより、同一地域を撮影
した画像でも完全に重なることはない。2つの画像が僅
かにずれていると、殆ど全ての点で大きな濃度差が生じ
てしまい2枚の画像を重ねて各画素ごとの濃度の差分を
取り出しても有意な情報を得ることができない。
[0007] The differences in the photographing conditions include, for example, a slight difference in the flight path of an airplane taking an aerial photograph, and a slight difference in attitude of a satellite taking a satellite image. Due to such a difference in photographing conditions, even images photographed in the same area do not completely overlap. If the two images are slightly displaced, a large density difference occurs at almost all points, and significant information cannot be obtained even if the two images are overlapped and the density difference for each pixel is extracted.

【0008】このような画像間のずれの補正には、地上
をいくつかの矩形領域に分割し、その矩形単位でアフィ
ン変換を行うことで水平方向のずれ及び回転による影響
を除去することが出来る。しかし、通常、アフィン変換
を用いる場合には、重ね合わせを行う画像間で対応の取
れる地点を3点指定する必要がある。この3点の指定は
人手で行う必要があるため、大量の処理には適していな
い。
[0008] To correct such a shift between images, the ground is divided into several rectangular areas, and the affine transformation is performed in units of the rectangular area, whereby the effects of horizontal shift and rotation can be removed. . However, usually, when affine transformation is used, it is necessary to designate three points where correspondence can be obtained between images to be superimposed. Since these three points need to be manually specified, they are not suitable for mass processing.

【0009】本発明は、このような問題を解決するもの
であり、画像の重ね合わせを自動化し、大量の画像から
対象物の時間的変化を高速に把握することができる画像
解析装置を提供することを目的とするものである。
The present invention solves such a problem, and provides an image analysis apparatus that can automatically superimpose images and can quickly grasp a temporal change of an object from a large number of images. The purpose is to do so.

【0010】[0010]

【課題を解決するための手段】本発明は、上記の課題を
解決するために、前記異なる時刻に撮影した複数の画像
情報のそれぞれを微分処理して輪郭線を抽出し、輪郭線
画像を生成する輪郭線抽出処理手段と、生成された複数
の輪郭線画像をそれぞれ2次元フーリエ変換してフーリ
エ変換画像を生成する周波数変換処理手段と、生成され
た複数のフーリエ変換画像の各画素値の差分の総計が最
小となる回転角度を求める回転角算出手段と、算出され
た回転角度だけ1つの元画像を2次元平面上で回転さ
せ、その縦横方向の各画素値の差分の総計が最小となる
平行移動量を求める移動量算出手段と、前記異なる時刻
に撮影した複数の画像情報の1つを前記回転角算出手段
で算出した回転角だけ2次元平面上で回転させ、かつ前
記移動量算出手段で算出した平行移動量だけ移動させて
複数の画像情報を2次元平面上での位置合わせを行った
状態とし、この位置合わせ常態で複数の画像情報の各画
素の差分を求めて差分画像を生成する差分画像生成処理
手段と、生成された差分画像を可視画像として出力する
画像出力手段とを備えることを特徴とする。
According to the present invention, in order to solve the above-mentioned problems, a contour line is extracted by differentiating each of a plurality of pieces of image information photographed at different times to generate a contour line image. Contour extraction processing means, frequency conversion processing means for two-dimensionally Fourier transforming the plurality of generated contour images to generate a Fourier transformed image, and a difference between respective pixel values of the generated plurality of Fourier transformed images. Rotation angle calculating means for obtaining a rotation angle that minimizes the sum of the above, and one original image is rotated on the two-dimensional plane by the calculated rotation angle, and the sum of the differences between the pixel values in the vertical and horizontal directions is minimized. Moving amount calculating means for obtaining a parallel moving amount, one of a plurality of pieces of image information photographed at different times is rotated on a two-dimensional plane by a rotation angle calculated by the rotation angle calculating means, and the moving amount calculating means so The plurality of pieces of image information are moved on the two-dimensional plane by moving by the given parallel movement amount, and a difference image is generated by calculating a difference between each pixel of the plurality of pieces of image information in a normal state of the positioning. It is characterized by comprising a difference image generation processing means, and an image output means for outputting the generated difference image as a visible image.

【0011】[0011]

【発明の実施の形態】以下、本発明の一実施形態につい
て図面を参照して説明する。図1は、本発明の一実施形
態を示すシステム構成図であり、画像情報記録部10
1、回転補正部102、平行移動補正部103、差分画
像抽出部104、差分画像記録部105、表示制御装置
106、入力装置107、表示装置108とを備えてい
る。
DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a system configuration diagram showing an embodiment of the present invention.
1, a rotation correction unit 102, a parallel movement correction unit 103, a difference image extraction unit 104, a difference image recording unit 105, a display control device 106, an input device 107, and a display device 108.

【0012】画像情報記録部101には、衛星画像や航
空写真などの画像情報が格納されている。回転補正部1
02は画像情報記録部101に格納されている複数の画
像間での差分解析を行うために画像の回転角の補正処理
を行う。平行移動補正部103は回転補正部102で補
正した複数の画像を平行移動して2次元平面上での位置
の補正を行う。差分画像抽出部104は回転及び平行移
動による位置合わせ後の画像間の差分抽出を行い、差分
画像記録部205に記録する。表示制御部106は入力
装置107からの入力に従い、画像情報記録部101と
差分情報記録部105に格納されている画像情報のいず
れか一方または両方を表示装置108に表示する。
The image information recording section 101 stores image information such as satellite images and aerial photographs. Rotation correction unit 1
Numeral 02 performs a correction process of the rotation angle of the image in order to perform a difference analysis between a plurality of images stored in the image information recording unit 101. The parallel movement correction unit 103 performs parallel movement on the plurality of images corrected by the rotation correction unit 102 to correct the position on a two-dimensional plane. The difference image extracting unit 104 extracts a difference between the images after the alignment by rotation and translation, and records the difference in the difference image recording unit 205. The display control unit 106 displays one or both of the image information stored in the image information recording unit 101 and the difference information recording unit 105 on the display device 108 according to the input from the input device 107.

【0013】まず、本発明における2つの画像の回転ず
れおよび縦横方向の位置ずれを補正する原理について、
図2を参照して説明する。図2(a),(b)それぞれ
同一地点を撮影した航空写真画像である。(c)と
(d)はそれぞれ(a)と(b)の画像の―部を拡大し
て模式的に示した図である。(c),(d)の矩形はそ
れぞれ(a),(b)の画像に現れる建物を表してい
る。この例では(a),(b)の画像は同一地点を上空
から撮影したものであるが、撮影時の方向が異なるた
め、2つの画像をそのまま重ねて差分を抽出することは
できない。
First, the principle of correcting the rotational displacement and the displacement in the vertical and horizontal directions of two images according to the present invention will be described.
This will be described with reference to FIG. FIGS. 2A and 2B are aerial photograph images of the same spot. (C) and (d) are the figure which expanded and showed the-part of the image of (a) and (b), respectively. The rectangles in (c) and (d) represent buildings that appear in the images in (a) and (b), respectively. In this example, the images (a) and (b) are obtained by photographing the same point from the sky. However, since the directions at the time of photographing are different, it is not possible to extract the difference by superimposing the two images as they are.

【0014】本発明は、例えば人工的な建物の変化の抽
出を目的としている。建物や道路などの人工物は、山林
や原野に比べると幾何学的な規則性が含まれている。本
発明では、この規則性に着目し、図2(c)と(d)に
模式的に示した画像を微分処理して輪郭線を抽出し、同
図(e)と(f)に模式的に示すような輪郭線画像を生
成する。
An object of the present invention is to extract changes in an artificial building, for example. Artifacts such as buildings and roads have more geometric regularities than forests and wilderness. Focusing on this regularity, the present invention differentiates the images schematically shown in FIGS. 2 (c) and 2 (d) to extract the contour lines, and shows the images schematically in FIGS. 2 (e) and 2 (f). Is generated.

【0015】次に、(e)と(f)の輪郭線画像に含ま
れている建物等の対象物は道路などに沿って規則的に並
んでいることが多い。この特徴を抽出するために、
(e)と(f)の画像に2次元フーリェ変換処理を施
す。図2(g)と(h)は同図(e)と(f)の画像に
2次元フーリェ変換を行い、各画素点のデータの絶対値
をプロットしたフーリエ変換画像である。道路や家枠な
どの直線が元画像の中に平行もしくは直行して現れてい
るものが多いため、(g)と(h)のフーリエ変換画像
でも90度傾いた方向に濃い成分が現れている。そこ
で、この(g)と(h)の画像を最も良く対応づけられ
る回転角度を求める。具体的には、(g)と(h)のフ
ーリエ変換画像の各画素値の差分の総計が最小となる回
転角度を求める。そして、その角度で画像(b)に回転
補正を行い、(a)と(b)の画像の回転方向の対応付
け(位置合わせ)を可能にする。この後、算出された回
転角度だけ1つの元画像を2次元平面上で回転させ、そ
の縦横方向の各画素値の差分の総計が最小となる平行移
動量を求める。
Next, the objects such as buildings included in the contour images (e) and (f) are often arranged regularly along roads and the like. To extract this feature,
The two-dimensional Fourier transform processing is performed on the images of (e) and (f). FIGS. 2G and 2H are Fourier transform images obtained by performing a two-dimensional Fourier transform on the images of FIGS. 2E and 2F and plotting the absolute values of the data at each pixel point. Since many straight lines such as roads and house frames appear parallel or perpendicular to the original image, dark components appear in the direction inclined by 90 degrees in the Fourier transform images (g) and (h). . Therefore, a rotation angle that best associates the images of (g) and (h) is obtained. Specifically, the rotation angle at which the sum of the differences between the pixel values of the Fourier transform images (g) and (h) is minimized is determined. Then, rotation correction is performed on the image (b) at that angle, so that the rotation directions of the images (a) and (b) can be associated (aligned). Thereafter, one original image is rotated on the two-dimensional plane by the calculated rotation angle, and a translation amount that minimizes the sum of the differences between the pixel values in the vertical and horizontal directions is obtained.

【0016】そして、算出された平行移動量だけ画像
(b)を平行移動し、(a)と(b)の画像の縦横方向
の対応付け(位置合わせ)を可能にする。なお、平行移
動量は、回転角度を求めた直後に算出するようにしても
よく、回転角度と平行移動量の両方が求まった段階で
(b)の画像を回転し、さらに平行移動させるようにし
てもよい。
Then, the image (b) is translated in parallel by the calculated amount of translation so that the images (a) and (b) can be associated (positioned) in the vertical and horizontal directions. Note that the translation amount may be calculated immediately after the rotation angle is obtained. When both the rotation angle and the translation amount are obtained, the image in (b) is rotated and further translated. You may.

【0017】図3は、2つの画像の差分情報を表示する
までの概略処理フロー図である。本実施形態の画像解析
装置では、画像情報記録部101に格納された2つの画
像に対して、まず回転角補正処理により、画像間の回転
によるずれの補正を行う(ステップ301)。次に、平
行移動補正処理により水平、垂直方向の画像間のずれを
補正する(ステップ302)。水平、垂直方向とは、図
2の図面上における横方向および縦方向に相当する。こ
れらの補正処理の後に、差分情報抽出処理を行い、2つ
の画像(図2の(a),(b)の画像)のそれぞれ対応
する画素同士の差分を求めて差分画像を生成し、差分画
像記録部105に格納する(ステップ303)。この差
分画像を抽出結果表示処理により表示装置108に可視
画像として表示する(ステップ304)。
FIG. 3 is a schematic processing flowchart up to displaying difference information between two images. In the image analysis apparatus according to the present embodiment, first of all, the two images stored in the image information recording unit 101 are corrected by a rotation angle correction process to correct a shift due to rotation between the images (step 301). Next, the displacement between the images in the horizontal and vertical directions is corrected by the parallel movement correction processing (step 302). The horizontal and vertical directions correspond to the horizontal and vertical directions in the drawing of FIG. After these correction processes, a difference information extraction process is performed, and a difference image is generated by calculating a difference between corresponding pixels of the two images (the images of (a) and (b) of FIG. 2). It is stored in the recording unit 105 (step 303). This difference image is displayed as a visible image on the display device 108 by the extraction result display processing (step 304).

【0018】図4は、図3の処理フローに示した回転角
補正処理(ステップ201)の詳細を示すフロー図であ
る。回転角補正処理では、まずサンプルエリア抽出処理
において、差分抽出を行う2つの画像から例えば「64
×64」画素のエリアを一定個数取り出す(ステップ4
01)。次に、画像エッジ抽出処理においてサンプルエ
リア抽出処理(ステップ401)で取り出した画像に対
してエッジ抽出(輪郭線抽出)を行い、輪郭線画像を生
成する(ステップ402)。次に、輪郭線画像に2次元
フーリエ変換処理(周波数変換処理)を施し、周波数成
分の取得を行う(ステップ403)。次に、周波数変換
処理後のフーリエ変換画像を微少角度回転して、2つの
画像の差分が最小になる角度を見つけることで、2つの
画像の回転角度の検出を行う回転角推定処理を行う(ス
テップ404)。この処理で得られた回転角度で元画像
の一方(図2の(b)の画像)を回転させることで回転
角度の補正を行う。
FIG. 4 is a flowchart showing details of the rotation angle correction processing (step 201) shown in the processing flow of FIG. In the rotation angle correction process, first, in the sample area extraction process, for example, “64
A certain number of areas of "* 64" pixels are taken out (step 4).
01). Next, in the image edge extraction processing, edge extraction (contour extraction) is performed on the image extracted in the sample area extraction processing (step 401) to generate a contour image (step 402). Next, a two-dimensional Fourier transform process (frequency transform process) is performed on the contour image to acquire a frequency component (step 403). Next, a rotation angle estimating process for detecting the rotation angle of the two images by performing a small angle rotation of the Fourier transformed image after the frequency conversion process to find an angle at which the difference between the two images is minimized ( Step 404). The rotation angle is corrected by rotating one of the original images (the image in FIG. 2B) at the rotation angle obtained by this processing.

【0019】図5は、図4の処理フローの中のサンプル
エリア抽出処理(ステップ401)の詳細を表すフロー
図である。まず、元画像(図2の(a)または(b)の
画像)の(X,Y)座標に対応する画素の濃度値は配列
A1[X,Y]、A2[X,Y]に格納されているとす
る。また、抽出したI番目のサンプルエリアの画像の
(X,Y)座標の画素の濃度値は配列B1[I,X,
Y],B2[I,X,Y]に格納されるものとする。ま
ず、変数Iに1を代入する(ステップ501)。次に、
変数Iの値が抽出するサンプルエリア数Nを超えていな
いか判定する(ステップ502)。もし、変数IがNよ
りも大きければ処理を終了する。
FIG. 5 is a flowchart showing details of the sample area extracting process (step 401) in the process flow of FIG. First, the density values of the pixels corresponding to the (X, Y) coordinates of the original image (the image of (a) or (b) in FIG. 2) are stored in arrays A1 [X, Y] and A2 [X, Y]. Suppose The density value of the pixel at the (X, Y) coordinate of the extracted image of the I-th sample area is represented by an array B1 [I, X,
Y], B2 [I, X, Y]. First, 1 is substituted for a variable I (step 501). next,
It is determined whether the value of the variable I does not exceed the number N of sample areas to be extracted (step 502). If the variable I is larger than N, the process ends.

【0020】変数IがN以下の場合には、変数Xに0か
ら「画像の横画素数−64」の範囲の整数の乱数を発生
させ代入する(ステップ503)。また、変数Yに0か
ら「画像の縦画素数−64」の範囲の整数の乱数を発生
させ代入する(ステップ504)。
If the variable I is equal to or smaller than N, an integer random number in the range of 0 to "the number of horizontal pixels of the image-64" is generated and assigned to the variable X (step 503). Further, an integer random number ranging from 0 to “the number of vertical pixels of the image−64” is generated and assigned to the variable Y (step 504).

【0021】次に、変数Jに1を代入する(ステップ5
05)。次に、変数Jの値が「64」以下か判定する
(ステップ506)。もし、「64」以下の場合には変
数Kに「1」を代入する(ステップ507)。次に、変
数Kが「64」以下か判定する(ステップ508)。変
数Kの値が「64」以下の場合には、2つの画像の(X
+J,Y+K)画素の値を配列B1[I,J,K]及び
B2[I,J,K]に格納する(ステップ509,51
0)。次に、変数Kの値に「1」を加える(ステップ5
11)。この後、再度ステップ508に戻り、Kの値の
判定を行う。この判定でKが「64」を超えていた場合
には、変数Jの値に「1」を加える(ステップ51
2)。そして、ステップ506に戻ってJが「64」を
超えていないか判定する。もし、「64」を超えていた
場合には変数Iの値に「1」を加え(ステップ51
3)、さらにステップ502に戻ってIの値がNを超え
ていないか判定する。
Next, 1 is substituted for the variable J (step 5).
05). Next, it is determined whether the value of the variable J is “64” or less (step 506). If it is less than "64", "1" is substituted for the variable K (step 507). Next, it is determined whether the variable K is “64” or less (step 508). When the value of the variable K is equal to or less than “64”, (X
(+ J, Y + K) pixel values are stored in arrays B1 [I, J, K] and B2 [I, J, K] (steps 509, 51).
0). Next, "1" is added to the value of the variable K (step 5).
11). Thereafter, the process returns to step 508 again to determine the value of K. If K exceeds “64” in this determination, “1” is added to the value of the variable J (step 51).
2). Then, the process returns to step 506 to determine whether J exceeds “64”. If it exceeds "64", "1" is added to the value of the variable I (step 51).
3) Returning to step 502, it is determined whether the value of I exceeds N.

【0022】図6は、図4の画像エッジ抽出処理(ステ
ップ402)の詳細を表すフロー図である。まず、変数
Iに「1」を代入する(ステップ601)。もし、変数
Iの値がサンプルエリア数Nを超えていれば、処理を終
える(ステップ602)。超えていない場合には、変数
Xに「1」を代入する(ステップ603)。次に、変数
Xの値が「64」を超えていないか判定する(ステップ
604)。超えている場合には、変数Iの値に「1」を
加え(ステップ611)、さらにステップ602に戻っ
てIの値がNを超えていないか判定する。超えていない
場合には変数Yに「1」を代入する(ステップ60
5)。次に、変数Yの値が「64」を超えていないか判
定する(ステップ606)。超えている場合には、変数
Xの値に「1」を加え(ステップ610)、さらにステ
ップ604に戻ってXの値が「64」を超えていないか
判定する。
FIG. 6 is a flowchart showing details of the image edge extraction processing (step 402) of FIG. First, "1" is substituted for the variable I (step 601). If the value of the variable I exceeds the number N of the sample areas, the process ends (step 602). If not, "1" is substituted for the variable X (step 603). Next, it is determined whether the value of the variable X has exceeded “64” (step 604). If so, "1" is added to the value of the variable I (step 611), and the process returns to step 602 to determine whether the value of I exceeds N. If not exceeded, "1" is substituted for the variable Y (step 60).
5). Next, it is determined whether or not the value of the variable Y exceeds “64” (step 606). If so, "1" is added to the value of the variable X (step 610), and the process returns to step 604 to determine whether the value of X exceeds "64".

【0023】変数Yの値が「64」を超えていない場合
は、一方の画像の(X,Y)画素を中心とする左右上下
の画素(X−1,Y)、(X+1,Y)、(X,Y+
1)、(X,Y−1)の濃度値の差の4倍(=4*)の
値を配列C1[I.X,Y]に格納する(ステップ60
7)。同様に、他方の画像の(X,Y)画素を中心とす
る左右上下の画素(X−1,Y)、(X+1,Y)、
(X,Y+1)、(X,Y−1)の濃度値の差の4倍
(=4*)の値を配列C1[I,X,Y]に格納する
(ステップ608)。そして、変数Yに「1」を加え
(ステップ609)、さらにステップ606に戻ってY
の値が「64」を超えていないか判定する。これによっ
て、2つの画像の輪郭線画像が生成される。
If the value of the variable Y does not exceed "64", the left and right and upper and lower pixels (X-1, Y), (X + 1, Y), centered on the (X, Y) pixel of one image, (X, Y +
1), a value four times (= 4 *) the difference between the density values of (X, Y-1) is assigned to the array C1 [I. X, Y] (step 60).
7). Similarly, left and right and upper and lower pixels (X-1, Y), (X + 1, Y) centered on the (X, Y) pixel of the other image,
A value four times (= 4 *) the difference between the density values of (X, Y + 1) and (X, Y-1) is stored in the array C1 [I, X, Y] (step 608). Then, "1" is added to the variable Y (step 609), and the process returns to step 606 to return to Y
It is determined whether or not the value of “?” Does not exceed “64”. Thus, a contour image of the two images is generated.

【0024】図7は、図4の回転角推定処理(ステップ
404)の詳細を示すフロー図である。図6で示した画
像エッジ抽出処理により、2つの画像から抽出した複数
のサンプルエリアの輪郭線画像は配列C1[I,X,
Y]およびC2[I,X,Y]に格納される。この2つ
の画像は図4の2次元フーリエ変換処理により、そのパ
ワースペクトルが配列P1[I,X,Y]及びP2
[I,X,Y]格納される。
FIG. 7 is a flowchart showing details of the rotation angle estimation processing (step 404) of FIG. By the image edge extraction processing shown in FIG. 6, the contour images of a plurality of sample areas extracted from the two images are arranged in an array C1 [I, X,
Y] and C2 [I, X, Y]. These two images are subjected to two-dimensional Fourier transform processing in FIG. 4 so that their power spectra are arranged in arrays P1 [I, X, Y] and P2.
[I, X, Y] is stored.

【0025】回転角推定処理は、各サンプルエリアに対
して、最適な回転角度を算出し、その平均値を画像全体
の回転角度とする。この処理を図7および図8のフロー
図を参照して説明する。まず、変数Iに「1」を代入す
る(ステップ701)。次に、変数Iがサンプルエリア
数Nを超えていないか判定する(ステップ702)。変
数IがNを超えていれば、変数Sの値をNで割り、平均
の回転角を決定して処理を終える(図8のステップ72
1)。しかし、変数IがN以下の場合にはまず、変数S
[I]に比較する2つのサンプルエリアの画像の総差分
値を代入する。変数L[I]には「−10」を代入する
(ステップ703)。
In the rotation angle estimation processing, an optimum rotation angle is calculated for each sample area, and the average value is used as the rotation angle of the entire image. This processing will be described with reference to the flowcharts of FIGS. First, "1" is substituted for the variable I (step 701). Next, it is determined whether or not the variable I exceeds the number N of sample areas (step 702). If the variable I exceeds N, the value of the variable S is divided by N, the average rotation angle is determined, and the process is terminated (step 72 in FIG. 8).
1). However, when the variable I is N or less, first, the variable S
The total difference value of the images of the two sample areas to be compared is substituted into [I]. "-10" is substituted for the variable L [I] (step 703).

【0026】次に、変数J「−9」を代入する(ステッ
プ704)。次に、この変数Jが「10」未満か判定す
る(ステップ705)。変数Jが「10」未満の湯合に
は、P[I,X,Y]に格納されている画像を微小角θ
のJ倍回転した画像をQ1[X,Y]に格納する(ステ
ップ706)。次に、回転した画像Q1[X,Y]と回
転していない画像P[I,X,Y]の各画素ごとの差分
の合計を以下の手順で変数Dに算出する。
Next, the variable J "-9" is substituted (step 704). Next, it is determined whether this variable J is less than “10” (step 705). When the variable J is less than “10”, the image stored in P [I, X, Y] is converted to the minute angle θ.
Is stored in Q1 [X, Y] (step 706). Next, the sum of the differences for each pixel between the rotated image Q1 [X, Y] and the non-rotated image P [I, X, Y] is calculated as a variable D in the following procedure.

【0027】まず、変数Dに値「0」を代入する(ステ
ップ707)。次に、変数Xに「1」を代入する(ステ
ップ708)。この変数Xが「64」を超えていないか
判定する(ステップ709)。変数Xが「64」以下の
場合には、変数Yに「1」を代入する(ステップ71
0)。次に、この変数Yが「64」を超えていないか判
定する(ステップ711)。「64」を超えていない場
合には、(X−32)∧2+(Y−32)∧2が32∧
2を超えていないか判定する(ステップ712)。な
お、「∧2」は「2乗」のことである。もし、超えてい
ない場合には、変数DにQl[X,Y]とP2[I,
X,Y]の差分の絶対値を加える(ステップ713)。
First, a value "0" is substituted for a variable D (step 707). Next, "1" is substituted for the variable X (step 708). It is determined whether this variable X does not exceed “64” (step 709). If the variable X is equal to or less than "64", "1" is substituted for the variable Y (step 71).
0). Next, it is determined whether or not this variable Y exceeds “64” (step 711). If it does not exceed “64”, (X−32) {2+ (Y−32)} 2 is 32}
It is determined whether the number does not exceed 2 (step 712). “$ 2” means “square”. If not, the variables D are Ql [X, Y] and P2 [I,
[X, Y] is added (step 713).

【0028】次に、変数Yに「1」を加え(ステップ7
14)、再度ステップ711で値の判定を行う。この判
定でYが「64」を超えていれば、変数Xの値に「1」
を加え(ステップ714)、再度ステップ709でXの
値を判定する。この判定でXの値が「64」を超えてい
れば、J*θ(=θのJ倍)回転した場合の総差分値が
今までに算出した中で最小か否かを判定する。このため
に、変数DがS[I]以下か判定する(ステップ71
6)。Dが小さい場合には変数S[I]にDの値を代入
し、変数L[I]にはJの値を代入する(ステップ71
7)。
Next, "1" is added to the variable Y (step 7).
14) The value is determined again in step 711. If Y exceeds “64” in this determination, the value of the variable X is “1”.
Is added (step 714), and the value of X is determined again in step 709. If the value of X exceeds “64” in this determination, it is determined whether or not the total difference value when rotating by J * θ (= J times θ) is the smallest among the calculated values so far. Therefore, it is determined whether the variable D is equal to or less than S [I] (step 71).
6). If D is small, the value of D is substituted for the variable S [I], and the value of J is substituted for the variable L [I] (step 71).
7).

【0029】次に、さらにθ回転した画像に対して同じ
処理を行うために、変数Jの値に「1」を加え(ステッ
プ718)、再度ステップ705で変数Jの値の判定を
行う。変数Jの値が「10」以上の場合には、I番目の
画像の回転角度を変数Sに加え(ステップ719)、次
に変数Iに「1」を加え(ステップ720)、再度ステ
ップ702で変数Iの値を判定する変数Iの値がサンプ
ルエリア数を超えていた場合には、変数Sの値をサンプ
ルエリア数Nで割り、画像全体の回転角度を求め(ステ
ップ721)、処理を終える。
Next, in order to perform the same processing on the image further rotated by θ, “1” is added to the value of the variable J (step 718), and the value of the variable J is determined again in step 705. If the value of the variable J is “10” or more, the rotation angle of the I-th image is added to the variable S (step 719), and then “1” is added to the variable I (step 720). If the value of the variable I exceeds the number of sample areas, the value of the variable S is divided by the number N of sample areas to determine the rotation angle of the entire image (step 721), and the process ends. .

【0030】このように本実施形態においては、異なる
時刻に撮影した複数の画像情報のそれぞれを微分処理
(エッジ処理)して輪郭線を抽出し、輪郭線画像を生成
した後、その生成された複数の輪郭線画像をそれぞれ2
次元フーリエ変換してフーリエ変換画像を生成し、さら
に生成された複数のフーリエ変換画像の各画素値の差分
の総計が最小となる回転角度を求め、算出された回転角
度だけ1つの元画像を2次元平面上で回転させ、その縦
横方向(水平、垂直方向)の各画素値の差分の総計が最
小となる平行移動量を求め、異なる時刻に撮影した複数
の画像情報の1つを回転角算出処理で算出した回転角だ
け2次元平面上で回転させ、かつ移動量算出処理で算出
した平行移動量だけ移動させて複数の画像情報を2次元
平面上での位置合わせを行った状態とし、この位置合わ
せ常態で複数の画像情報の各画素の差分を求めて差分画
像を生成し、その生成された差分画像を可視画像として
表示装置あるいはプリンタなどに出力するようにしたた
め、従来人手で行っていた画像の重ね合わせを自動化す
ることができ、大量の画像から対象物の時間的変化を高
速に把握することが可能になる。
As described above, in the present embodiment, a plurality of pieces of image information photographed at different times are differentiated (edge-processed) to extract a contour, and a contour image is generated. Each of multiple contour images
A four-dimensional Fourier transform is performed to generate a Fourier-transformed image. Further, a rotation angle at which the sum of the differences between the pixel values of the plurality of generated Fourier-transformed images is minimized is determined. Is rotated on a two-dimensional plane, the amount of translation that minimizes the sum of the differences between the pixel values in the vertical and horizontal directions (horizontal and vertical directions) is obtained, and one of a plurality of pieces of image information captured at different times is calculated. The image information is rotated on the two-dimensional plane by the rotation angle calculated in the processing, and is moved by the parallel movement amount calculated in the movement amount calculation processing, so that a plurality of pieces of image information are aligned on the two-dimensional plane. Conventionally, a difference image is generated by calculating a difference between each pixel of a plurality of pieces of image information, and the generated difference image is output as a visible image to a display device or a printer. The superposition of which was the image can be automated, the temporal change of the object it is possible to grasp at high speed from a large number of images.

【0031】従って、異なる時刻に撮影した衛星画像や
航空写真等の画像から、撮影されている対象物(道路や
建物、土地、森林、河川など)の時間的変化を高速に把
握する上で極めて有効なものとなる。
Therefore, it is extremely important to quickly grasp the temporal change of the photographed object (road, building, land, forest, river, etc.) from images such as satellite images and aerial photographs taken at different times. It will be effective.

【0032】なお、本発明は、衛星画像や航空写真に限
定されるものではなく、例えば、大規模駐車場の地上監
視点に設置したカメラにより駐車場の使用状況を上空か
ら適宜の時間間隔で撮影し、その撮影画像によって駐車
場の使用状況等の時間的変化を把握する場合にも適用す
ることができる。
The present invention is not limited to a satellite image or an aerial photograph. For example, a camera installed at a ground monitoring point of a large-scale parking lot can use the parking lot from the sky at appropriate time intervals. The present invention can also be applied to a case where a photograph is taken and a temporal change such as a use state of a parking lot is grasped from the photographed image.

【0033】[0033]

【発明の効果】以上説明したように、本発明によれば、
異なる日時に撮影した航空写真や衛星写真などの画像を
比較して道路、建物など土地の利用形態や建物、道路の
状況の時間的変化を把握するに当たり、従来人手で行っ
ていた画像の重ね合わせを自動化することができ、撮影
位置のずれによる誤った差分の抽出を防止し、大量の画
像から対象物の時間的変化を高速に把握することが可能
になる。従って、異なる時刻に撮影した衛星画像や航空
写真等の画像から、撮影されている対象物(道路や建
物、土地、森林、河川、湖沼など)の時間的変化を高速
に把握する上で極めて有効なものとなる。
As described above, according to the present invention,
Compare images such as aerial photos and satellite photos taken at different dates and times to understand the temporal use of land, such as roads and buildings, and changes in building and road conditions over time. Can be automated, erroneous difference extraction due to a shift in the photographing position can be prevented, and the temporal change of the object can be quickly grasped from a large number of images. Therefore, it is extremely effective in quickly grasping temporal changes of objects (roads, buildings, land, forests, rivers, lakes, etc.) taken from images such as satellite images and aerial photographs taken at different times. It becomes something.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施形態を示すブロック構成図であ
る。
FIG. 1 is a block diagram showing an embodiment of the present invention.

【図2】本発明の画像解析処理過程での画像の変化を示
す写真図を含む説明図である。
FIG. 2 is an explanatory view including a photograph showing a change of an image in an image analysis process of the present invention.

【図3】本発明の画像解析処理の概略を示すフロー図で
ある。
FIG. 3 is a flowchart showing an outline of an image analysis process of the present invention.

【図4】図3のフロー図中の回転角補正処理の詳細フロ
ー図である。
FIG. 4 is a detailed flowchart of a rotation angle correction process in the flowchart of FIG. 3;

【図5】図4のフロー図中のサンプルエリア抽出処理の
詳細を表すフロー図である。
FIG. 5 is a flowchart showing details of a sample area extraction process in the flowchart of FIG. 4;

【図6】図4のフロー図中のエッジ抽出処理の詳細を表
すフロー図である。
FIG. 6 is a flowchart showing details of edge extraction processing in the flowchart of FIG. 4;

【図7】図4のフロー図中の回転角補正処理の詳細を表
すフロー図である。
FIG. 7 is a flowchart showing details of a rotation angle correction process in the flowchart of FIG. 4;

【図8】図7の続きを示すフロー図である。FIG. 8 is a flowchart showing a continuation of FIG. 7;

【符合の説明】[Description of sign]

101…画像情報記録部、102…回転補正部、103
…平行移動補正部、104…差分画像抽出部、105…
差分画像記録部、106…表示制御装置、107…入力
装置、108…表示装置。
101: Image information recording unit, 102: Rotation correction unit, 103
... a parallel movement correction unit, 104 ... a difference image extraction unit, 105 ...
Difference image recording unit, 106: display control device, 107: input device, 108: display device.

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 AA14 CA08 CA12 CA16 CB08 CB12 CB16 CC03 CE03 DA07 DB02 DB09 DC16 DC32 5L096 AA06 BA18 DA01 FA06 FA23 GA08 GA24 HA01 JA11  ────────────────────────────────────────────────── ─── Continued on the front page F term (reference) 5B057 AA14 CA08 CA12 CA16 CB08 CB12 CB16 CC03 CE03 DA07 DB02 DB09 DC16 DC32 5L096 AA06 BA18 DA01 FA06 FA23 GA08 GA24 HA01 JA11

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 目標とする対象物が含まれる範囲を異な
る時刻に上空から撮影した複数の画像情報を用いて、そ
の複数の画像中に撮影されている対象物の時間的変化を
解析する画像解析装置であって、 前記異なる時刻に撮影した複数の画像情報のそれぞれを
微分処理して輪郭線を抽出し、輪郭線画像を生成する輪
郭線抽出処理手段と、 生成された複数の輪郭線画像をそれぞれ2次元フーリエ
変換してフーリエ変換画像を生成する周波数変換処理手
段と、 生成された複数のフーリエ変換画像の各画素値の差分の
総計が最小となる回転角度を求める回転角算出手段と、 算出された回転角度だけ1つの元画像を2次元平面上で
回転させ、その縦横方向の各画素値の差分の総計が最小
となる平行移動量を求める移動量算出手段と、 前記異なる時刻に撮影した複数の画像情報の1つを前記
回転角算出手段で算出した回転角だけ2次元平面上で回
転させ、かつ前記移動量算出手段で算出した平行移動量
だけ移動させて複数の画像情報を2次元平面上での位置
合わせを行った状態とし、この位置合わせ常態で複数の
画像情報の各画素の差分を求めて差分画像を生成する差
分画像生成処理手段と、 生成された差分画像を可視画像として出力する画像出力
手段と、を備えることを特徴とする画像解析装置。
An image for analyzing a temporal change of an object photographed in a plurality of images using a plurality of pieces of image information of a range including a target object photographed from above at different times. An analysis apparatus, wherein a plurality of pieces of image information photographed at different times are subjected to differential processing to extract a contour line, and a contour line extraction processing means for generating a contour image, and the generated plurality of contour line images are provided. Frequency conversion processing means for performing a two-dimensional Fourier transform to generate a Fourier transform image, respectively; rotation angle calculating means for determining a rotation angle that minimizes the sum of the differences between the pixel values of the plurality of generated Fourier transform images; Moving amount calculating means for rotating one original image on the two-dimensional plane by the calculated rotation angle and obtaining a parallel moving amount that minimizes the sum of the differences between the pixel values in the vertical and horizontal directions; One of the plurality of shaded image information is rotated on the two-dimensional plane by the rotation angle calculated by the rotation angle calculation means, and is moved by the parallel movement amount calculated by the movement amount calculation means to convert the plurality of image information. A difference image generation processing means for obtaining a difference between each pixel of a plurality of pieces of image information and generating a difference image in a state where the registration is performed on a two-dimensional plane, and the generated difference image is visible An image analysis device comprising: an image output unit that outputs an image.
JP10246811A 1998-09-01 1998-09-01 Image analyzer Pending JP2000076423A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10246811A JP2000076423A (en) 1998-09-01 1998-09-01 Image analyzer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10246811A JP2000076423A (en) 1998-09-01 1998-09-01 Image analyzer

Publications (1)

Publication Number Publication Date
JP2000076423A true JP2000076423A (en) 2000-03-14

Family

ID=17154047

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10246811A Pending JP2000076423A (en) 1998-09-01 1998-09-01 Image analyzer

Country Status (1)

Country Link
JP (1) JP2000076423A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7428345B2 (en) 2000-05-11 2008-09-23 Yeda Research & Development Co. Ltd. Apparatus and method for spatio-temporal alignment of image sequences
US7596281B2 (en) 2000-12-05 2009-09-29 Yeda Research And Development Co. Ltd. Apparatus and method for alignment of spatial or temporal non-overlapping images sequences
KR20140089220A (en) * 2013-01-04 2014-07-14 삼성테크윈 주식회사 Apparatus and method for control military strategy
JP7466165B1 (en) 2023-10-20 2024-04-12 株式会社Ridge-i Information processing device, information processing method, and information processing program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7428345B2 (en) 2000-05-11 2008-09-23 Yeda Research & Development Co. Ltd. Apparatus and method for spatio-temporal alignment of image sequences
US7596281B2 (en) 2000-12-05 2009-09-29 Yeda Research And Development Co. Ltd. Apparatus and method for alignment of spatial or temporal non-overlapping images sequences
KR20140089220A (en) * 2013-01-04 2014-07-14 삼성테크윈 주식회사 Apparatus and method for control military strategy
KR101964227B1 (en) * 2013-01-04 2019-04-01 한화테크윈 주식회사 Apparatus and method for control military strategy
JP7466165B1 (en) 2023-10-20 2024-04-12 株式会社Ridge-i Information processing device, information processing method, and information processing program

Similar Documents

Publication Publication Date Title
US20200226413A1 (en) Fast and robust multimodal remote sensing images matching method and system
CN115439424B (en) Intelligent detection method for aerial video images of unmanned aerial vehicle
CN109598794B (en) Construction method of three-dimensional GIS dynamic model
Teller et al. Calibrated, registered images of an extended urban area
US8228378B2 (en) Real-time composite image comparator
EP2791868B1 (en) System and method for processing multi-camera array images
CN111862126A (en) Non-cooperative target relative pose estimation method combining deep learning and geometric algorithm
JPH11252440A (en) Method and device for ranging image and fixing camera to target point
CN111723801B (en) Method and system for detecting and correcting target in fisheye camera picture
CN110717936B (en) Image stitching method based on camera attitude estimation
CN114973028B (en) Aerial video image real-time change detection method and system
Zhu et al. Monocular 3D vehicle detection using uncalibrated traffic cameras through homography
CN111783675A (en) Intelligent city video self-adaptive HDR control method based on vehicle semantic perception
CN113744315A (en) Semi-direct vision odometer based on binocular vision
CN112862683A (en) Adjacent image splicing method based on elastic registration and grid optimization
Wan et al. Drone image stitching using local mesh-based bundle adjustment and shape-preserving transform
CN116468609A (en) Super-glue-based two-stage zoom camera multi-image stitching method and system
Jacobs et al. Cloud motion as a calibration cue
CN112884795A (en) Power transmission line inspection foreground and background segmentation method based on multi-feature significance fusion
Subramanyam Automatic image mosaic system using steerable Harris corner detector
JP2000076423A (en) Image analyzer
CN116152068A (en) Splicing method for solar panel images
CN115456870A (en) Multi-image splicing method based on external parameter estimation
CN114120236A (en) Method for identifying and positioning low-altitude target
CN113763484A (en) Ship target positioning and speed estimation method based on video image analysis technology