KR100870894B1 - Method of automatic geometric correction for linear pushbroom image - Google Patents

Method of automatic geometric correction for linear pushbroom image Download PDF

Info

Publication number
KR100870894B1
KR100870894B1 KR1020070054328A KR20070054328A KR100870894B1 KR 100870894 B1 KR100870894 B1 KR 100870894B1 KR 1020070054328 A KR1020070054328 A KR 1020070054328A KR 20070054328 A KR20070054328 A KR 20070054328A KR 100870894 B1 KR100870894 B1 KR 100870894B1
Authority
KR
South Korea
Prior art keywords
error
image
ground
coordinate
correlation coefficient
Prior art date
Application number
KR1020070054328A
Other languages
Korean (ko)
Inventor
정형섭
원중선
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020070054328A priority Critical patent/KR100870894B1/en
Application granted granted Critical
Publication of KR100870894B1 publication Critical patent/KR100870894B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Abstract

An automatic geometric correction method of a linear scanning image is provided to extract a ground reference point automatically from a digital elevation model, thereby assigning an accurate ground coordinate to each image coordinate. A first ground coordinate(P1x,P1y,P1z) is extracted from the corresponding point and auxiliary data(30). A second ground coordinate(P2x,P2y,P2z) is extracted by using a correlation coefficient of the first ground coordinate and a digital elevation model(40). A photographing position(Sx,Sy,Sz) and posture are improved among the auxiliary data by using the second ground coordinate(60). An outer orientation corrects distortion of an image by assigning the ground coordinate to each image coordinate of an image by using the second ground coordinate(70).

Description

선형 스캐닝 영상의 자동 영상기하 보정 방법{METHOD OF AUTOMATIC GEOMETRIC CORRECTION FOR LINEAR PUSHBROOM IMAGE}Automatic Image Geometry Correction for Linear Scanning Image {METHOD OF AUTOMATIC GEOMETRIC CORRECTION FOR LINEAR PUSHBROOM IMAGE}

도 1 은 본 발명에 따른 자동기하보정 방법의 절차 흐름도.1 is a process flow diagram of an automatic geometric correction method according to the present invention.

도 2 는 35개의 대응점에 대한 선형 스캐닝 위성영상인 SPOT 위성을 이용하여 계산한 제 1 지상좌표의 오차를 나타낸 도면.FIG. 2 is a diagram illustrating an error of first ground coordinates calculated using a SPOT satellite, which is a linear scanning satellite image for 35 corresponding points. FIG.

도 3 은 본 발명에 따른 제 2 지상좌표 추출 방법의 절차 흐름도.3 is a flow chart of a second method of extracting the ground coordinates according to the present invention.

도 4 는 선형 스캐닝 영상인 SPOT 3 영상으로부터 계산한 상관계수맵의 일례를 나타낸 도면,4 is a diagram illustrating an example of a correlation coefficient map calculated from a SPOT 3 image, which is a linear scanning image;

도 5 는 선형 스캐닝 영상인 SPOT 3 영상으로부터 상관계수 맵의 최대값을 지닌 위치를 내삽한 일례를 나타낸 도면.5 shows an example of interpolating a position having a maximum value of a correlation coefficient map from a SPOT 3 image, which is a linear scanning image.

도 6 은 선형 스캐닝 위성영상인 SPOT 3 위성에 대하여 X와 Y 방향에 대한 오차량 분포의 일례를 나타낸 그래프.FIG. 6 is a graph showing an example of an error amount distribution in the X and Y directions for a SPOT 3 satellite that is a linear scanning satellite image; FIG.

도 7 은 X와 Y방향의 오차량 보정을 위하여 결정한 구획의 일실시예를 나타낸 도면.7 is a diagram illustrating an embodiment of a partition determined for correction of an error amount in the X and Y directions.

도 8 은 35개 대응점에 대한 선형 스캐닝 위성영상인 SPOT 3위성을 이용하여 결정한 제 2 지상 지상좌표와의 차이를 나타낸 도면,FIG. 8 is a view showing a difference from second terrestrial ground coordinates determined by using the SPOT 3 satellite, which is a linear scanning satellite image for 35 corresponding points; FIG.

도 9는 위치오차관측각(

Figure 112007040636268-pat00005
)과 자세오차관측각(
Figure 112007040636268-pat00006
)의 기하를 나타낸 도면,9 is a position error observation angle (
Figure 112007040636268-pat00005
) And posture error
Figure 112007040636268-pat00006
Drawing showing the geometry of

도 10은 촬영위치오차

Figure 112007040636268-pat00007
의 기하를 나타낸 도면,10 is a shooting position error
Figure 112007040636268-pat00007
Drawing showing the geometry of

도 11 은 요각오차(

Figure 112007040636268-pat00008
)의 기하를 나타낸 도면이다.11 is a yaw error (
Figure 112007040636268-pat00008
Is a diagram showing the geometry of.

본 발명은 지표면의 특성을 탐사하기 위하여 선형 스캐닝 영상에 대한 기하 왜곡을 자동적으로 보정하는 방법에 관한 것으로, 더욱 상세하게는 동일 지역을 다른 관측각으로 촬영한 두 개 이상의 선형 스캐닝 영상의 관측 위치와 속도, 관측각 등을 이용하여 수치표고모델(DEM)로부터 지상기준점을 자동적으로 추출하여 영상의 각 영상좌표에 정확한 지상좌표를 부여하는 방법에 관한 것이다.The present invention relates to a method of automatically correcting the geometric distortion of a linear scanning image in order to explore the characteristics of the surface, and more particularly, to the observation position of two or more linear scanning images of the same area photographed at different viewing angles. The present invention relates to a method of automatically extracting a ground reference point from a digital elevation model (DEM) using a speed, an observation angle, and the like to give an accurate ground coordinate to each image coordinate of an image.

선형 스캐닝 영상의 경우, 일반적으로 보조자료에 주어진 관측 위치와 속도, 관측자세 및 관측각 등이 정확하지 않기 때문에 이를 이용하여 선형 스캐닝 영상의 기하를 복원하는 경우 기하적 왜곡을 지니며, 영상으로부터 정확한 위치를 결정할 수 없게 된다. 특히 위성의 경우에는 더욱 그러하다. 선형스캐닝 영상의 기하 왜곡을 보정하기 위하여 영상점

Figure 112007040636268-pat00009
에 대응하는 지상점
Figure 112007040636268-pat00010
을 부여한 지 상기준점(GCP)를 이용한다. 수 개 이상의 지상기준점을 이용하여 기하를 복원하고, 상기 복원한 기하로부터 영상에 지상좌표를 부여하여 영상에 정확한 지상위치를 부여하게 된다. In the case of linear scanning images, the observation position and velocity, observation posture, and angle of view given in the supplementary data are generally not accurate. The location can't be determined. This is especially true for satellites. Image Points to Correct Geometric Distortion of Linear Scanned Images
Figure 112007040636268-pat00009
Ground point corresponding to
Figure 112007040636268-pat00010
Use the GCP to give a value. Geometry is restored using several or more ground reference points, and the ground coordinates are given to the image from the restored geometry to give an accurate ground position to the image.

지상기준점을 사용하기 위해서는 정확한 지상점을 알아야 하고, 지상점에 대응하는 영상점을 관측해야 한다. 이는 많은 시간과 비용을 요구한다. 따라서 지상기준점의 수를 줄이기 위한 많은 방법이 제안되어왔다. In order to use the ground control point, it is necessary to know the exact ground point and observe the image point corresponding to the ground point. This requires a lot of time and money. Therefore, many methods have been proposed to reduce the number of ground control points.

그중 한 방법은 촬영기구 센서의 촬영각(LOS벡터)만을 조정하여 지상기준점의 수를 줄이는 방법이었다. 그러나 적은 양의 지상기준점의 이용은 영상에서의 영상점 선택의 오차, 지상점이 지닌 위치오차 등에 의해서 왜곡될 수 있고, 더욱이 지상기준점을 얻을 수 없는 지역에서는 상기의 방법을 사용하는 것은 불가능하다는 문제점이 있었다.One method was to reduce the number of ground control points by adjusting only the shooting angle (LOS vector) of the sensor. However, the use of a small amount of ground control points may be distorted due to an error in the selection of image points in the image, a positional error with the ground points, and furthermore, it is impossible to use the above method in an area where ground control points cannot be obtained. there was.

한편, 미국에서는 현재 SRTM(Shuttle Radar Topography Mission) DEM(Digital Elevation Model)을 제공하고 있다. 상기 SRTM DEM은 미국지역에 공간해상도가 1초(약30m)인 수치표고자료를 제공하고 있으며, 미국을 제외한 전세계(위도 N60도∼S56도)에 공간해상도가 3초(약 90m)인 수치표고자료를 제공하고 있다. 상기 수치표고 자료를 이용하여 선형 스캐닝 영상이 지닌 기하 왜곡을 보정할 수 있다면, 전세계 지역에서 지상기준점을 추출하기 위해 드는 시간과 비용을 획기적으로 줄일 수 있을 것이다.Meanwhile, the United States currently provides Shuttle Radar Topography Mission (SRTM) Digital Elevation Model (DEM). The SRTM DEM provides numerical elevation data with a spatial resolution of 1 second (approximately 30 m) in the United States, and a numerical elevation with a spatial resolution of 3 seconds (approximately 90 m) in the world except the United States (latitude N60 degrees to S56 degrees). Provides data. If the digital elevation data can be used to correct the geometric distortion of the linear scanning image, the time and cost of extracting the ground reference point in the world will be significantly reduced.

본 발명은 상기와 같은 점을 감안하여 안출된 것으로서, 수치표고모델(DEM)로부터 제공되는 수치표고자료를 이용, 지상기준점을 자동으로 추출하여 영상의 각 영상좌표에 정확한 지상좌표를 부여하고, 기하 보정을 위한 시간 및 비용을 절약하며 지상좌표의 정확성을 향상시킬수 있는 선형 스캐닝 영상의 자동 영상기하 보정 방법을 제공하는데 그 목적이 있다. The present invention has been made in view of the above, by using the digital elevation data provided from the digital elevation model (DEM) to automatically extract the ground reference point to give the correct ground coordinates to each image coordinate of the image, The purpose of the present invention is to provide an automatic image geometry correction method for linearly scanned images, which saves time and costs for correction and improves the accuracy of terrestrial coordinates.

상기와 같은 목적을 달성하기 위한 본 발명의 선형스캐닝 영상의 자동 영상기하 보정 방법은,Automatic image geometry correction method of the linear scanning image of the present invention for achieving the above object,

(a) 같은 지표면을 촬영한 서로 다른 둘 이상의 영상과 상기 영상에 대한 보조자료를 추출하는 단계;(a) extracting two or more different images of the same ground surface and auxiliary data for the images;

(b) 상기 서로 다른 둘 이상의 영상으로부터 영상 매칭을 통해 대응점을 추출하는 단계; (b) extracting corresponding points through image matching from two or more different images;

(c) 상기 대응점과 상기 보조자료로부터 제 1 지상좌표

Figure 112007040636268-pat00011
를 추출하는 단계; (c) a first ground coordinate from the correspondence point and the ancillary data;
Figure 112007040636268-pat00011
Extracting;

(d) 상기 제 1 지상좌표와 수치표고자료의 상관계수를 이용하여 제 2 지상좌표

Figure 112007040636268-pat00012
를 추출하는 단계; (d) the second ground coordinate using the correlation coefficient between the first ground coordinate and the numerical elevation data;
Figure 112007040636268-pat00012
Extracting;

(e) 상기 제 2 지상좌표를 이용하여 상기 보조자료 중 촬영위치

Figure 112007040636268-pat00013
및 자세
Figure 112007040636268-pat00014
를 개선하는 단계; (e) a photographing position of the auxiliary data using the second ground coordinates;
Figure 112007040636268-pat00013
And posture
Figure 112007040636268-pat00014
Improving the;

(f) 상기 제 2 지상좌표를 이용하여 영상의 각 영상좌표에 지상좌표를 부여함으로서 영상의 왜곡을 보정하는 외부표정을 수행하는 단계를 포함하여 이루어지는 것을 특징으로 한다.and (f) performing external coordinates to correct distortion of the image by assigning the ground coordinates to each image coordinate of the image using the second ground coordinates.

특히, 상기 (d) 단계는, In particular, step (d),

상기 제 1 지상좌표를 상기 수치표고자료가 지니는 좌표계로 변환하는 제 1 좌표변환 단계;A first coordinate conversion step of converting the first ground coordinates into a coordinate system having the numerical elevation data;

상기 변환된 제1 지상좌표와 상기 수치표고자료의 고도값을 이용하여 상관계수맵을 제작하는 단계;Producing a correlation coefficient map using the converted first ground coordinates and an elevation value of the numerical elevation data;

상기 제작된 상관계수맵에서 최대상관계수 위치를 결정하는 단계;Determining a maximum correlation coefficient position in the produced correlation coefficient map;

상기 최대상관계수 위치를 결정하는 단계에서 추출한 오차량을 보정하는 단계;Correcting the error amount extracted in the determining of the maximum correlation coefficient position;

상기 오차량이 보정된 좌표를 변환 이전의 좌표계로 역변환하는 제2 좌표변환 하는 단계를 포함하여 구성되는 것을 특징으로 한다.And a second coordinate transformation for inversely transforming the coordinate where the error amount is corrected into a coordinate system before transformation.

또한, 상기 (a) 단계의 보조자료는, 촬영기구의 위치, 속도정보, 촬영기구의 자세정보, 영상의 중심라인 촬영시간, 영상의 라인당 촬영시간, 촬영각 등에 대한 정보 등을 포함하는 것을 특징으로 한다.In addition, the auxiliary data of step (a) may include information about the position of the photographing apparatus, the speed information, the attitude information of the photographing apparatus, the photographing time of the center line of the image, the photographing time per line of the image, the photographing angle, and the like. It features.

또한, 상기 (b) 단계는, 서로 다른 영상에 대하여 상관계수를 계산하여 상관계수가 가장 높은 곳을 찾는 과정을 포함하는 것을 특징으로 한다.In addition, the step (b) is characterized by including the process of finding the highest correlation coefficient by calculating the correlation coefficient for different images.

상기 (e) 단계는,In step (e),

Figure 112007040636268-pat00015
Figure 112007040636268-pat00015
and

Figure 112007040636268-pat00016
를 이용하여 오차관측각
Figure 112007040636268-pat00017
,
Figure 112007040636268-pat00018
을 계산하는 단계;
Figure 112007040636268-pat00016
Error observation angle using
Figure 112007040636268-pat00017
,
Figure 112007040636268-pat00018
Calculating;

상기 오차관측각을The error observation angle

Figure 112007040636268-pat00019
Figure 112007040636268-pat00019
and

Figure 112007040636268-pat00020
에 대입하여 촬영위치오차
Figure 112007040636268-pat00021
와 자세오차
Figure 112007040636268-pat00022
를 계산하며, 상기
Figure 112007040636268-pat00023
Figure 112007040636268-pat00024
는 요각 오차
Figure 112007040636268-pat00025
의 X와 Y성분,
Figure 112007040636268-pat00026
는 촬영위치와 지상위치의 수직성분으로부터의 각도 (
Figure 112007040636268-pat00027
), Rx, Ry는 R은 촬영위치와 지상위치 사이의 거리의 X, Y 성분인 것을 특징으로 한다.
Figure 112007040636268-pat00020
Position error
Figure 112007040636268-pat00021
And posture error
Figure 112007040636268-pat00022
Calculate the above
Figure 112007040636268-pat00023
Wow
Figure 112007040636268-pat00024
Is the yaw error
Figure 112007040636268-pat00025
X and Y components of,
Figure 112007040636268-pat00026
Is the angle from the vertical component of the shooting position and the ground position (
Figure 112007040636268-pat00027
), Rx, Ry, R is characterized in that the X, Y components of the distance between the shooting position and the ground position.

또한, 상기 변환된 제1 지상좌표와 상기 수치표고자료의 고도값을 이용하여 상관계수맵을 제작하는 단계는,In addition, the step of producing a correlation coefficient map using the converted first ground coordinates and the altitude value of the numerical elevation data,

단계 (a)에서 추출된 보조자료의 정확도에 따라 오차의 최소값과 최대값을 설정하고, 오차의 간격을 설정한 후 상기 오차의 최소값부터 오차의 최대값까지 상기 오차의 간격으로 상관계수맵을 제작하는 것을 특징으로 한다.According to the accuracy of the auxiliary data extracted in step (a), the minimum and maximum values of the error are set, and the interval of the error is set, and then the correlation coefficient map is produced from the error interval from the minimum value of the error to the maximum value of the error. Characterized in that.

또한, SPOT 3 위성을 사용할 경우 최소 오차값은 -1500m로, 최대 오차값은 1500m로, 오차의 간격은 10m로 결정하는 것을 특징으로 한다.In addition, when the SPOT 3 satellite is used, the minimum error value is -1500m, the maximum error value is 1500m, and the error interval is determined as 10m.

또한, 상기 제작된 상관계수맵에서 최대상관계수 위치를 결정하는 단계는,In addition, determining the maximum correlation coefficient position in the produced correlation coefficient map,

상기 제작된 상관계수맵에서 최대값을 결정하는 단계;Determining a maximum value in the produced correlation coefficient map;

상기 상관계수가 최대인 위치로부터 X와 Y방향으로 픽셀이하(sub-pixel) 단위로 내삽을 수행하는 단계;Performing interpolation in sub-pixel units in the X and Y directions from a position where the correlation coefficient is maximum;

상기 내삽 수행을 통해 상관계수가 최대인 위치를 결정하는 단계;Determining a position where a correlation coefficient is maximum by performing the interpolation;

상기 결정을 이용하여 X방향의 오차(

Figure 112007040636268-pat00028
)와 Y방향의 오차(
Figure 112007040636268-pat00029
)를 결정하는 단계;Using this crystal, the error in the X direction (
Figure 112007040636268-pat00028
) And the error in the Y direction (
Figure 112007040636268-pat00029
Determining;

상기 오차를 이용하여 수치표고자료에서 추출한 고도와 제 1 지상좌표의 고도를 이용하여 고도오차를 결정하는 단계를 포함하여 구성되는 것을 특징으로 한다.And determining an altitude error using the altitude extracted from the digital elevation data and the altitude of the first ground coordinate using the error.

또한, 상기 최대상관계수 위치를 결정하는 단계에서 추출한 오차량을 보정하는 단계는,In addition, the step of correcting the error amount extracted in the step of determining the maximum correlation coefficient position,

X방향의 오차, Y방향의 오차, 고도오차를 X와 Y방향에 따라 오차량을 다르게 보정하는 것을 특징으로 한다.The error amount in the X direction, the error in the Y direction, and the altitude error are differently corrected according to the X and Y directions.

또한, 상기 수치표고자료는 SRTM(Shuttle Radar Topography Mission) DEM(Digital Elevation Model)에서 제공되는 것을 특징으로 한다. In addition, the numerical elevation data is characterized in that provided in the Shuttle Radar Topography Mission (SRTM) Digital Elevation Model (DEM).

또한, 상기 제 1 지상좌표를 상기 수치표고자료가 지니는 좌표계로 변환하는 제 1 좌표변환 단계는,In addition, the first coordinate transformation step of converting the first ground coordinates into a coordinate system of the numerical elevation data,

STRM DEM에서 제공되는 수치표고자료를 사용할 경우 주어진 좌표를 경위도 좌표로 변환하는 것을 특징으로 한다.When using the numerical elevation data provided by STRM DEM, it is characterized by converting given coordinates to longitude coordinates.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들의 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. A singular expression includes a plural expression unless the context clearly indicates otherwise. In this application, the terms "comprise" or "having" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other It is to be understood that the present invention does not exclude the possibility of the presence or the addition of features, numbers, steps, operations, components, parts, or a combination thereof.

이하 첨부된 도면을 참고하여 본 발명을 보다 상세하게 설명한다.Hereinafter, the present invention will be described in more detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 선형스캐닝 영상의 자동 기하 보정을 수행하는 과정을 나타내는 순서도이다. 1 is a flowchart illustrating a process of performing automatic geometric correction of a linear scanning image according to the present invention.

지표면을 촬영한 둘 이상의 영상과 상기 영상에 대한 보조자료를 추출한 다음(10), 이러한 영상으로부터 영상 매칭을 통해 대응점을 추출하고(20), 상기 대응점과 상기 보조자료로부터 제 1 지상좌표

Figure 112007040636268-pat00030
를 추출하며(30), 상기 제 1 지상좌표와 수치표고자료의 상관계수(50)를 이용하여 제 2 지상좌표
Figure 112007040636268-pat00031
를 추출(40)한다. 이후 상기 제 2 지상좌표를 이용하여 상기 보조자료 중 촬영위치
Figure 112007040636268-pat00032
및 자세
Figure 112007040636268-pat00033
를 개선(60)하고, 상기 제 2 지상좌표를 이용하여 영상의 각 영상좌표에 지상좌표를 부여함으로서 영상의 왜곡을 보정하는 외부표정 을 수행(70)한다.After extracting two or more images of the ground surface and auxiliary data for the images (10), and extracting the corresponding points through image matching from these images (20), the first ground coordinates from the corresponding points and the auxiliary data
Figure 112007040636268-pat00030
(30), the second ground coordinates using the correlation coefficient (50) of the first ground coordinates and the numerical elevation data
Figure 112007040636268-pat00031
Extract
40. Then, the photographing position of the auxiliary data using the second ground coordinates
Figure 112007040636268-pat00032
And posture
Figure 112007040636268-pat00033
Improve (60) and external coordinates to correct distortion of the image by assigning the ground coordinates to each image coordinate of the image using the second ground coordinates (70).

이하, 첨부도면을 참조하여 각 단계에 대하여 보다 상세하게 설명한다.Hereinafter, each step will be described in more detail with reference to the accompanying drawings.

상기 영상 및 보조자료 추출 단계(10)는, 동일지역을 촬영한 입체영상(stereo image)을 추출하고, 각 영상에 대한 보조자료를 추출한다. The image and auxiliary data extraction step 10 extracts a stereo image of the same region and extracts auxiliary data for each image.

여기서 입체영상이란 초입체시 효과를 이용하여 동일지역을 입체로 볼 수 있도록 하는 영상쌍이며, 보조자료는 촬영기구의 위치와 속도정보, 촬영기구의 자세정보, 영상의 중심라인 촬영시간, 영상의 라인당 촬영시간, 촬영각 등에 대한 정보이다. 본 발명에 따른 자동 기하 보정을 수행하기 위해서는 동일 지역을 촬영한 두 개 이상의 영상 및 이에 대한 보조자료를 추출해야 한다.Here, the stereoscopic image is a pair of images that allows to see the same area in three dimensions by using the super-stereoscopic effect, and the auxiliary data includes the position and speed information of the shooting device, the attitude information of the shooting device, the recording time of the center line of the image, Information on shooting time, shooting angle, etc. per line. In order to perform the automatic geometric correction according to the present invention, it is necessary to extract two or more images photographing the same region and auxiliary data thereof.

상기 대응점 추출 단계(20)는 상기 입력된 영상에서 서로 대응하는 동일점을 찾는 단계이다. 여기서 대응점이란 서로 다른 영상에서 동일한 위치를 나타내는 점이다. 대응점의 추출은 서로 다른 영상에 대하여 상관계수를 계산하여 상관계수가 가장 높은 곳을 찾는 과정을 요구한다. 한 영상을 기준영상으로 선택하고, 상기 선택한 영상에서 밝기값의 변화가 상대적으로 큰 점을 선택한다. 상기 선택된 점으로부터

Figure 112007040636268-pat00034
의 윈도우 크기가 되도록 영상패치를 제작한 후, 다른 영상의
Figure 112007040636268-pat00035
의 영역에서 영상패치와의 상관계수를 계산한다. 상기에 계산된 상관계수 중 이 값이 가장 높은값을 지니는 위치를 대응점으로 선택한다. 이러한 과정은 수치사진측량 분야에서 일반적으로 사용되는 당업자에게 널리 알려진 과정이다.The corresponding point extracting step 20 is a step of finding identical points corresponding to each other in the input image. The correspondence point is a point representing the same position in different images. Extraction of the corresponding point requires a process of finding the highest correlation coefficient by calculating correlation coefficients for different images. One image is selected as the reference image, and a point where the change in brightness value is relatively large is selected in the selected image. From the selected point
Figure 112007040636268-pat00034
After creating the image patch to be the window size of the
Figure 112007040636268-pat00035
Calculate the correlation coefficient with the image patch in the region of. The position having the highest value among the correlation coefficients calculated above is selected as the corresponding point. This process is well known to those of ordinary skill in the art commonly used in the field of digital photogrammetry.

상기 제 1지상좌표 추출 단계(30)는 상기에서 추출한 보조자료와 상기 대 응점 추출 단계(20)에서 추출한 대응점으로부터 제 1지상좌표

Figure 112007040636268-pat00036
를 추출하는 단계이다. 제 1지상좌표의 추출은 한국특허 출원번호 제10-2006-26655호 "LOS벡터 조정 모델을 이용한 영상의 기하보정 방법 및 그 장치"의 LOS 벡터 조정 모델을 통하여 이루어진다. The first ground coordinate extraction step 30 is a first ground coordinate from the auxiliary data extracted in the above and the corresponding point extracted in the corresponding point extraction step 20
Figure 112007040636268-pat00036
Extracting step. Extraction of the first ground coordinates is performed through the LOS vector adjustment model of Korean Patent Application No. 10-2006-26655, "Geometry of Image Correction Method and Apparatus Using the LOS Vector Adjustment Model".

상기 LOS 벡터 조정 모델은 하기의 수학식 1과 2와 같이 표현된다.The LOS vector adjustment model is represented by Equations 1 and 2 below.

Figure 112007040636268-pat00037
Figure 112007040636268-pat00037

Figure 112007040636268-pat00038
Figure 112007040636268-pat00038

여기서,

Figure 112007040636268-pat00039
Figure 112007040636268-pat00040
Figure 112007040636268-pat00041
의 단위를 지상에서의 거리로 환산하기 위하여 사용한 변수이고, 영상점
Figure 112007040636268-pat00042
는 영상좌표로 정의되며, 이 영상점에 대한 지상점
Figure 112007040636268-pat00043
은 지심좌표계(Earth-Centered Earth-Fixed Coordinate System; ECEF)로 정의된다.
Figure 112007040636268-pat00044
Figure 112007040636268-pat00045
는 지상점
Figure 112007040636268-pat00046
과 촬영위치
Figure 112007040636268-pat00047
사이의 벡터에 의해서 정의되는 제 1 관측각이며, 이 각은 영상의 라인
Figure 112007040636268-pat00048
방향에 대하여 정의된다. 또한,
Figure 112007040636268-pat00049
Figure 112007040636268-pat00050
는 보조자료에서 제공하는 제 2 관측각으로, 선형 스캐닝 영상의 경우 영상의 픽셀
Figure 112007040636268-pat00051
방향으로 정의되고,
Figure 112007040636268-pat00052
Figure 112007040636268-pat00053
는 상기 제1 관측각과 제 2 관측각이 다르기 때문에 발생하는 오차 관측각으로 영상의 라인과 픽셀에 대한 함수로 정의된다. here,
Figure 112007040636268-pat00039
Is
Figure 112007040636268-pat00040
and
Figure 112007040636268-pat00041
It is a variable used to convert the unit of to distance from the ground, and the image point
Figure 112007040636268-pat00042
Is defined as the image coordinate, and the ground point for this image point.
Figure 112007040636268-pat00043
Is defined as the Earth-Centered Earth-Fixed Coordinate System (ECEF).
Figure 112007040636268-pat00044
Wow
Figure 112007040636268-pat00045
Ground point
Figure 112007040636268-pat00046
And location
Figure 112007040636268-pat00047
The first observation angle, defined by the vector in between, which is the line of the image
Figure 112007040636268-pat00048
It is defined with respect to the direction. Also,
Figure 112007040636268-pat00049
Wow
Figure 112007040636268-pat00050
Is the second observation angle provided by the supplementary data, and in the case of a linear scanning image, the pixel of the image.
Figure 112007040636268-pat00051
Direction,
Figure 112007040636268-pat00052
Wow
Figure 112007040636268-pat00053
Is an error observation angle generated because the first observation angle and the second observation angle are different, and are defined as a function of lines and pixels of the image.

Figure 112007040636268-pat00054
Figure 112007040636268-pat00055
는 지상점, 촬영위치 및 촬영자세에 의하여 하기와 같이 정의된다.
Figure 112007040636268-pat00054
Wow
Figure 112007040636268-pat00055
Is defined as follows by the ground point, the photographing position and the photographing posture.

Figure 112007040636268-pat00056
Figure 112007040636268-pat00056

Figure 112007040636268-pat00057
Figure 112007040636268-pat00057

여기서,

Figure 112007040636268-pat00058
는 지구중심에서 촬영위치까지의 거리를 나타내며,
Figure 112007040636268-pat00059
,
Figure 112007040636268-pat00060
,
Figure 112007040636268-pat00061
는 회전행렬
Figure 112007040636268-pat00062
의 요소이고,
Figure 112007040636268-pat00063
,
Figure 112007040636268-pat00064
Figure 112007040636268-pat00065
는 회전행렬
Figure 112007040636268-pat00066
의 요소이다. here,
Figure 112007040636268-pat00058
Indicates the distance from the center of the earth to the shooting location,
Figure 112007040636268-pat00059
,
Figure 112007040636268-pat00060
,
Figure 112007040636268-pat00061
Rotation matrix
Figure 112007040636268-pat00062
Is an element of
Figure 112007040636268-pat00063
,
Figure 112007040636268-pat00064
Wow
Figure 112007040636268-pat00065
Rotation matrix
Figure 112007040636268-pat00066
It is an element of.

상기 두 회전행렬은 하기 수학식 5와 6에 의해서 정의된다.The two rotation matrices are defined by Equations 5 and 6 below.

Figure 112007040636268-pat00067
Figure 112007040636268-pat00067

Figure 112007040636268-pat00068
Figure 112007040636268-pat00068

여기서,

Figure 112007040636268-pat00069
는 행렬
Figure 112007040636268-pat00070
의 전치행렬이고,
Figure 112007040636268-pat00071
는 국지궤도 표계(Local Orbital Coordinate System)를 자세좌표계(Attitude Coordinate System)로 변환하는 회전행렬이며,
Figure 112007040636268-pat00072
는 국지궤도 좌표계를 지심좌표계로 변환하는 회전행렬이다. 보다 자세한 사항은 출원번호 제10-2006-26655호 "LOS벡터 조정 모델을 이용한 영상의 기하보정 방법 및 그 장치"를 참조한다.here,
Figure 112007040636268-pat00069
Is a matrix
Figure 112007040636268-pat00070
Transpose of,
Figure 112007040636268-pat00071
Is a rotation matrix that converts the Local Orbital Coordinate System into an Attitude Coordinate System,
Figure 112007040636268-pat00072
Is a rotation matrix that transforms a local orbit coordinate system into a center coordinate system. For more details, refer to Patent Application No. 10-2006-26655, "Geometric Correction Method and Apparatus for Image Using LOS Vector Adjustment Model".

수학식 1과 수학식 2에서 오차관측각

Figure 112007040636268-pat00073
Figure 112007040636268-pat00074
를 0으로 가정하고, 대응점에 대하여 입체영상으로부터 제 1지상좌표
Figure 112007040636268-pat00075
를 추출한다.Error Observation Angle in Equations 1 and 2
Figure 112007040636268-pat00073
Wow
Figure 112007040636268-pat00074
Is assumed to be 0, and the first ground coordinate from the stereoscopic image for the corresponding point.
Figure 112007040636268-pat00075
Extract

Figure 112007040636268-pat00076
개 이상의 영상에서 지상점의 결정은 지상점의 초기치 (
Figure 112007040636268-pat00077
,
Figure 112007040636268-pat00078
,
Figure 112007040636268-pat00079
)로부터 하기의 수학식에 의하여 계산할 수 있다. 상기 지상점의 초기치는 보조자료로부터 추출할 수 있다. 이러한 과정은 수치사진측량분야에서 일반적으로 사용되고 있는 방법이다.
Figure 112007040636268-pat00076
In more than one image, the ground point is determined by the initial value of ground point (
Figure 112007040636268-pat00077
,
Figure 112007040636268-pat00078
,
Figure 112007040636268-pat00079
Can be calculated by the following equation. The initial value of the ground point may be extracted from auxiliary data. This process is a commonly used method in the field of digital photogrammetry.

Figure 112007040636268-pat00080
Figure 112007040636268-pat00080

여기서

Figure 112007040636268-pat00081
는 잔차벡터이고,
Figure 112007040636268-pat00082
Figure 112007040636268-pat00083
크기의
Figure 112007040636268-pat00084
,
Figure 112007040636268-pat00085
Figure 112007040636268-pat00086
에 대한 편미분 계수 행렬로 다음과 같이 정의한다.here
Figure 112007040636268-pat00081
Is the residual vector,
Figure 112007040636268-pat00082
Is
Figure 112007040636268-pat00083
Size
Figure 112007040636268-pat00084
,
Figure 112007040636268-pat00085
Wow
Figure 112007040636268-pat00086
The partial derivative coefficient matrix for is defined as

Figure 112007040636268-pat00087
Figure 112007040636268-pat00087

벡터

Figure 112007040636268-pat00088
Figure 112007040636268-pat00089
크기를 지니는
Figure 112007040636268-pat00090
,
Figure 112007040636268-pat00091
Figure 112007040636268-pat00092
의 근사값에 대한 보정량 벡터로 하기 수학식 9에 의해서 정의된다.vector
Figure 112007040636268-pat00088
silver
Figure 112007040636268-pat00089
Sized
Figure 112007040636268-pat00090
,
Figure 112007040636268-pat00091
Wow
Figure 112007040636268-pat00092
A correction amount vector for an approximation of is defined by the following equation (9).

Figure 112007040636268-pat00093
Figure 112007040636268-pat00093

벡터

Figure 112007040636268-pat00094
는 관측치과 계산치간의 차이량 벡터로 하기 수학식 10과 같다.vector
Figure 112007040636268-pat00094
Is the difference vector between the observed value and the calculated value.

Figure 112007040636268-pat00095
Figure 112007040636268-pat00095

상기와 같이 구성된 행렬로부터

Figure 112007040636268-pat00096
,
Figure 112007040636268-pat00097
Figure 112007040636268-pat00098
의 근사치에 대한 보정량은 하기의 행렬식으로 구한다.From the matrix constructed as above
Figure 112007040636268-pat00096
,
Figure 112007040636268-pat00097
Wow
Figure 112007040636268-pat00098
The correction amount for the approximation of is obtained by the following determinant.

Figure 112007040636268-pat00099
Figure 112007040636268-pat00099

구해진 보정량은 초기치에 합산한 후, 합산한 값을 이용하여 다시 수학식 7에 대입하여 보정량을 구한다. 이러한 과정은 하기 수학식 12와 같이 될 때까지 계속한다. The obtained correction amount is added to the initial value, and then substituted into Equation 7 using the summed value to obtain the correction amount. This process continues until the following equation (12) is obtained.

Figure 112007040636268-pat00100
Figure 112007040636268-pat00100

실험에 의하면 이러한 과정은 대개 4회이하의 반복을 요구하며,

Figure 112007040636268-pat00101
은 일반적으로
Figure 112007040636268-pat00102
정도를 이용한다.Experiments have shown that this process usually requires fewer than four repetitions,
Figure 112007040636268-pat00101
Is generally
Figure 112007040636268-pat00102
Use degree.

상기 과정을 통하여 결정된 제 1 지상좌표

Figure 112007040636268-pat00103
는 불완전한 보조정보에 의하여 오차를 지니게 된다. 비록 제 1 지상좌표
Figure 112007040636268-pat00104
와 원 지상좌표
Figure 112007040636268-pat00105
의 차이가 크더라도 이 오차는 대응점에서 일정한 차이를 보인다. First ground coordinate determined through the above process
Figure 112007040636268-pat00103
Has an error due to incomplete auxiliary information. 1st ground coordinate
Figure 112007040636268-pat00104
And circle ground coordinates
Figure 112007040636268-pat00105
Although the difference is large, this error shows a constant difference at the corresponding point.

도면 2는 35개의 대응점에 대하여 선형 스캐닝 영상인 SPOT 3 영상으로부터 계산한 제 1지상좌표의 오차의 일실시예를 나타내는 그래프이다. 결과는 제 1 지상좌표가 X, Y와 Z 방향에 대하여 각각-532m, -473m 및 -153m로 매우 큰 오차를 지니지만, 분산은 각각 4.41m, 7.14m 및 8.99m로 거의 일정한 차이를 보였다. 이를 통해 제 1 지상좌표가 원지상좌표와 일정한 차이를 보이는 것을 알 수 있다.FIG. 2 is a graph illustrating an embodiment of an error of first ground coordinates calculated from a SPOT 3 image, which is a linear scanning image, for 35 corresponding points. The results showed that the first ground coordinates had very large errors of -532m, -473m, and -153m in the X, Y, and Z directions, respectively, but the variance was almost constant at 4.41m, 7.14m, and 8.99m, respectively. Through this, it can be seen that the first ground coordinates have a certain difference from the original coordinates.

상기 제 2 지상좌표 추출 단계(40)는 상기에서 결정된 제 1지상좌표와 기 제작된 수치표고자료간의 상관계수맵을 구하여 제 2 지상좌표

Figure 112007040636268-pat00106
를 추출하는 단계이다. 본 단계는 제 1 지상좌표가 원 지상좌표와 차이가 크더라도 그 차이는 일정하다는 것에 근거하여 진행된다.The second ground coordinate extraction step 40 is to obtain a correlation coefficient map between the first ground coordinates determined above and the previously produced numerical elevation data to obtain a second ground coordinate.
Figure 112007040636268-pat00106
Extracting step. This step is carried out on the basis that the difference is constant even if the first ground coordinate differs from the original ground coordinate.

이하 첨부한 도면을 참조하여 제 2 지상좌표 추출방법에 대하여 설명한다.Hereinafter, a method of extracting a second ground coordinate will be described with reference to the accompanying drawings.

도 3은 본 발명에 따른 제 2 지상좌표 추출 방법의 절차 흐름을 나타내는 도면이다. 3 is a flowchart illustrating a procedure flow of a method of extracting a second terrestrial coordinate according to the present invention.

상기 제 1 좌표변환(41)은 상기에서 추출된 제 1 지상좌표를 수치표고자 료(50)가 지니는 좌표계로 변환하는 단계이다. 일 실시예로서, 전세계에 걸쳐 제공되고 있는 수치표고자료인 SRTM DEM의 경우, 경위도좌표계(geodetic coordinate system)로 제공되고 있다. 상기 SRTM DEM을 이용하는 경우, 지심좌표계로 주어진 제 1 지상좌표를 경위도 좌표로 변환한다.The first coordinate transformation 41 is a step of converting the extracted first ground coordinates into a coordinate system possessed by the numerical elevation material 50. In one embodiment, SRTM DEM, a numerical elevation data provided worldwide, is provided in a geodetic coordinate system. When using the SRTM DEM, the first ground coordinates given in the center coordinate system are converted into longitude and latitude coordinates.

상기 상관계수맵 제작(42)은 상기 수치표고자료의 좌표계로 변환된 제 1 지상좌표의 고도값과 수치표고자료의 고도값으로부터 상관계수를 계산하여 상관계수맵을 제작하는 단계이다. The correlation coefficient map preparation 42 is a step of preparing a correlation coefficient map by calculating a correlation coefficient from an altitude value of the first ground coordinate converted into a coordinate system of the numerical elevation data and an elevation value of the numerical elevation data.

상기 제 1 좌표변환(41)에 의하여 변환된 제 1 지상좌표를

Figure 112007040636268-pat00107
라 한다. 상술한 바와 같이 제 1 지상좌표는 원 지상좌표와 일정한 차이를 지니고 있다. 그러므로 변환된 제 1 지상좌표는 수치표고자료와
Figure 112007040636268-pat00108
(경도)방향,
Figure 112007040636268-pat00109
(위도)방향 및
Figure 112007040636268-pat00110
(고도)방향으로 일정한 오차
Figure 112007040636268-pat00111
를 지닌다. 변환된 제 1 지상좌표의 수평좌표
Figure 112007040636268-pat00112
에 해당하는 고도를 수치표고자료로부터 추출한다. 만약 제 1 지상좌표의 수평좌표가 원 지상좌표의 수평좌표와 다르다면 각 대응점에서 상기 수치표고자료로부터 추출된 고도와 변환된 제 1 지상좌표의 고도(
Figure 112007040636268-pat00113
)의 차이는 일정하지 못하게 된다. 이는 원 지상좌표의 수평좌표가 아닌 곳에서 고도를 추출하였기 때문에 변환된 제 1 지상좌표의 고도(
Figure 112007040636268-pat00114
)와는 다른 값을 지니게 되고, 각 대응점에 대해서 일정한 오차를 지니지 못하기 때문이다. 그러나 변환된 제 1 지상좌표의 수평좌표
Figure 112007040636268-pat00115
에 일정한 오차가 더해진 좌표
Figure 112007040636268-pat00116
가 원 지상좌표와 동일하다면 이때에 수치표고자료에서 고도를 추출하였다면, 이 고도는 분명 변환된 제 1 지상좌표의 고도(
Figure 112007040636268-pat00117
)와 일정한 오차를 지닐 것이다. 여기서, 일정한 오차를 지닌다는 것은 변환된 제 1 지상좌표의 고도(
Figure 112007040636268-pat00118
)와 수치표고자료에서 추출된 고도가 모든 대응점에 대해 서로 동일한 차이를 보인다는 것이고, 이는 바로 상관계수가 높다는 것을 의미한다. The first ground coordinate converted by the first coordinate transformation 41 is
Figure 112007040636268-pat00107
It is called. As described above, the first ground coordinates have a certain difference from the original ground coordinates. Therefore, the converted first ground coordinates
Figure 112007040636268-pat00108
(Hardness) direction,
Figure 112007040636268-pat00109
(Latitude) direction and
Figure 112007040636268-pat00110
Constant error in the (altitude) direction
Figure 112007040636268-pat00111
Has Horizontal coordinate of converted first ground coordinate
Figure 112007040636268-pat00112
The altitude corresponding to is extracted from the numerical elevation data. If the horizontal coordinate of the first ground coordinate is different from the horizontal coordinate of the original ground coordinate, the altitude extracted from the numerical elevation data at each corresponding point and the altitude of the converted first ground coordinate (
Figure 112007040636268-pat00113
) Is not constant. Since the altitude is extracted from the non-horizontal coordinate of the original terrestrial coordinate,
Figure 112007040636268-pat00114
This is different from), and it does not have a constant error for each corresponding point. However, the horizontal coordinate of the converted first ground coordinate
Figure 112007040636268-pat00115
Coordinates with constant error
Figure 112007040636268-pat00116
If the altitude is the same as the original ground coordinate, then if the altitude is extracted from the numerical elevation data, then this altitude is clearly the altitude of the transformed first ground coordinate (
Figure 112007040636268-pat00117
) And will have a certain error. Here, having a constant error means that the altitude of the transformed first ground coordinate (
Figure 112007040636268-pat00118
) And the altitude extracted from the numerical elevation data show the same difference for all the corresponding points, which means that the correlation coefficient is high.

먼저, 상기에서 추출된 보조자료의 정확도에 따라 오차의 최소값과 최대값을 설정하고, 오차의 간격을 설정한다. 본 발명의 일 실시예로서 SPOT 3 위성을 사용할 경우 일반적으로 500m에서 1000m의 오차를 지니므로 최악의 경우를 고려하여 X방향의 최소오차(

Figure 112007040636268-pat00119
)와 Y방향의 최소오차(
Figure 112007040636268-pat00120
)를 -1500m로, 그리고 X방향의 최대오차(
Figure 112007040636268-pat00121
)와 Y방향의 최대오차(
Figure 112007040636268-pat00122
)를 1500m로 결정한다. 또한 SPOT 3 위성의 공간해상도는 10m이므로 오차의 간격은 10m로 결정한다.First, the minimum and maximum values of the error are set according to the accuracy of the extracted auxiliary data, and the error interval is set. As an embodiment of the present invention, since the SPOT 3 satellite generally has an error of 500 m to 1000 m, the minimum error in the X direction in consideration of the worst case (
Figure 112007040636268-pat00119
) And the minimum error in the Y direction (
Figure 112007040636268-pat00120
) To -1500m and the maximum error in the X direction (
Figure 112007040636268-pat00121
) And the maximum error in the Y direction (
Figure 112007040636268-pat00122
) Is 1500m. In addition, the spatial resolution of the SPOT 3 satellite is 10m, so the error interval is determined to be 10m.

상기 결정된 최소오차에서부터 최대오차까지 오차간격으로 상관계수맵을 제작한다. 상기 대응점 추출 단계(20)에서 추출한 모든 대응점에 대하여 변환된 제 1지상좌표의 수평좌표에 오차를 더한 수평좌표

Figure 112007040636268-pat00123
를 계산한 후, 상기 수평좌표에 해당하는 고도를 수치표고자료에서 추출하고, 상기 수치표고자료에서 추출된 고도와 제 1 지상좌표의 고도(
Figure 112007040636268-pat00124
)의 상관계수를 형성한다. 이 상관계수는 X와 Y방향으로의 최소오차에서 최대오차까지 오차간격으로 계산되어 2차원의 상관계수맵을 계산한다. A correlation coefficient map is produced at an error interval from the determined minimum error to the maximum error. Horizontal coordinates obtained by adding an error to the horizontal coordinates of the first ground coordinates converted for all the corresponding points extracted in the corresponding point extracting step 20.
Figure 112007040636268-pat00123
After calculating the, the altitude corresponding to the horizontal coordinates is extracted from the numerical elevation data, the altitude and the altitude of the first ground coordinates extracted from the numerical elevation data (
Figure 112007040636268-pat00124
Form a correlation coefficient of The correlation coefficient is calculated as the error interval from the minimum error to the maximum error in the X and Y directions to calculate a two-dimensional correlation coefficient map.

도면 4는 선형 스캐닝 위성영상인 SPOT 3 위성을 이용하여 계산한 상관계수맵의 일실시예이다. 도면에서 보는 바와 같이 상관계수 맵은 원 지상좌표에 가까울수록 높은 상관계수를 지녔고, 최대 상관계수는 0.991이었다.4 is an embodiment of a correlation coefficient map calculated using a SPOT 3 satellite, which is a linear scanning satellite image. As shown in the figure, the correlation coefficient map had a higher correlation coefficient closer to the original ground coordinate, and the maximum correlation coefficient was 0.991.

상기 최대상관계수 위치결정(43)은 상기 제작된 상관계수맵에서 최대값을 결정하고, 상기 상관계수가 최대인 위치로부터 X와 Y방향으로 픽셀이하(sub-pixel) 단위로 내삽을 수행하여 더욱 정확하게 상관계수가 최대인 위치를 결정하고, X방향의 오차(

Figure 112007040636268-pat00125
)와 Y방향의 오차(
Figure 112007040636268-pat00126
)를 결정한다. 상기와 같이 결정된 수평좌표
Figure 112007040636268-pat00127
로부터 수치표고자료에서 추출한 고도와 제 1 지상좌표의 고도(
Figure 112007040636268-pat00128
)를 이용하여 고도오차(
Figure 112007040636268-pat00129
)를 결정한다.The maximum correlation coefficient positioning 43 determines a maximum value in the produced correlation coefficient map, and further interpolates in sub-pixel units in the X and Y directions from the position where the correlation coefficient is maximum. Accurately determine the position where the correlation coefficient is maximum, and determine the error in the X direction (
Figure 112007040636268-pat00125
) And the error in the Y direction (
Figure 112007040636268-pat00126
Is determined. Horizontal coordinates determined as above
Figure 112007040636268-pat00127
Altitude extracted from digital elevation data and altitude of first ground coordinate (
Figure 112007040636268-pat00128
) Using the altitude error (
Figure 112007040636268-pat00129
Is determined.

도면 5는 선형 스캐닝 위성영상인 SPOT 3위성을 이용하여 상관계수 맵의 최대값을 지닌 위치를 내삽한 일 실시예이다. 이때 스플라인(spline)보간법을 사용하여 0.05 픽셀로 내삽하였다. FIG. 5 is an embodiment in which a position having a maximum value of a correlation coefficient map is interpolated by using a SPOT triad that is a linear scanning satellite image. The interpolation was performed at 0.05 pixels using spline interpolation.

이로부터 결정된 X방향의 오차(

Figure 112007040636268-pat00130
)는 -847.5m이었으며, Y방향의 오차(
Figure 112007040636268-pat00131
)는 92.5m이었고, 고도오차(
Figure 112007040636268-pat00132
)는 163.62m이었다.The error in the X direction determined from this (
Figure 112007040636268-pat00130
) Was -847.5 m, and the error in the Y direction (
Figure 112007040636268-pat00131
) Was 92.5m and the altitude error (
Figure 112007040636268-pat00132
) Was 163.62 m.

상기 오차량 보정(44)은 상기 최대상관계수 위치 결정 단계(43)에서 추출한 X방향의 오차(

Figure 112007040636268-pat00133
), Y방향의 오차(
Figure 112007040636268-pat00134
) 및 고도오차(
Figure 112007040636268-pat00135
)를 X와 Y방향에 따라 오차량을 다르게 보정하는 것이다. 상기 최대상관계수 위치 결정 단계(43)에서 추출한 오차는 X와 Y 방향으로의 평균오차이다. 하지만, 이들 오차는 수평방향(X, Y)에 대해 그 오차량이 다르다. The error amount correction 44 is an error in the X direction extracted in the maximum correlation coefficient positioning step 43
Figure 112007040636268-pat00133
), The error in the Y direction (
Figure 112007040636268-pat00134
) And altitude error (
Figure 112007040636268-pat00135
) Is to compensate the error amount differently according to X and Y direction. The error extracted in the maximum correlation coefficient positioning step 43 is an average error in the X and Y directions. However, these errors have different amounts of errors with respect to the horizontal directions (X, Y).

도면 6은 선형 스캐닝 위성영상인 SPOT 3 위성에 대하여 X와 Y에 대한 Y방향 오차(

Figure 112007040636268-pat00136
) 분포의 일례를 보인다. 상기 도면에서 볼 수 있듯이 Y방향으로의 오차(
Figure 112007040636268-pat00137
)는 X와 Y에 대하여 오차량이 변한다는 것을 알 수 있다. 상기와 같은 이유는 영상에서 각 픽셀들이 다른 관측각을 지니기 때문에 발생하는 것으로 이를 보정하지 않으면, 절대적인 오차는 크지 않을지 모르나, X와 Y 방향을 따라 오차가 전파되는 양상을 지니게 된다. 6 shows the Y-direction error of X and Y for the SPOT 3 satellite, which is a linear scanning satellite image.
Figure 112007040636268-pat00136
) Shows an example of distribution. As can be seen in the drawing, the error in the Y direction (
Figure 112007040636268-pat00137
It can be seen that the error amount changes for X and Y. The reason for this is that each pixel in the image has a different viewing angle. If not corrected, the absolute error may not be large, but the error propagates along the X and Y directions.

이를 보정하기 위하여 상기 상관계수맵 제작 단계(42)에서 모든 대응점을 이용하여 상관계수맵을 제작한 것과 달리 대응점을 도면 7과 같이 X와 Y방향에 대하여 여러 개의 구획으로 나누어 각각에 대한

Figure 112007040636268-pat00138
,
Figure 112007040636268-pat00139
Figure 112007040636268-pat00140
를 계산한다. 각 구획별로 결정된 오차량을 통하여 X와 Y방향에 따라 다른 오차량을 적용한다. 이 과정은 상기 상관계수맵 제작 단계(42)와 최대상관계수 위치결정 단계(43)에서 추출한 오차의 정확도에 따라 오차의 최소값과 최대값을 설정하고, 오차의 간격을 설정한다. In order to correct this, unlike the correlation coefficient map using all the corresponding points in the correlation coefficient map production step 42, the corresponding points are divided into several sections for the X and Y directions as shown in FIG.
Figure 112007040636268-pat00138
,
Figure 112007040636268-pat00139
And
Figure 112007040636268-pat00140
Calculate Different error amounts are applied in the X and Y directions through the error amounts determined for each section. In this process, the minimum and maximum values of the error are set according to the accuracy of the error extracted in the correlation coefficient map preparation step 42 and the maximum correlation coefficient positioning step 43, and the error interval is set.

일 실시예로 SPOT 3 위성에 대하여 상관계수맵 제작 단계(42)와 최대상관계수 위치결정 단계(43)에서 추출한 오차의 정확도는 30m 이내였기 때문에 X방향의 최소오차(

Figure 112007040636268-pat00141
)와 Y방향의 최소오차(
Figure 112007040636268-pat00142
)를 -20m로, 그리고 X방향의 최대오차(
Figure 112007040636268-pat00143
)와 Y방향의 최대오차(
Figure 112007040636268-pat00144
)를 20m로 결정할 수 있고, 원하는 정확도에 따라 오차의 간격을 결정할 수 있다. 본 실시예 에서는 2m로 결정하였다.As an example, the accuracy of the error extracted in the correlation coefficient map production step 42 and the maximum correlation coefficient positioning step 43 for the SPOT 3 satellite is within 30 m.
Figure 112007040636268-pat00141
) And the minimum error in the Y direction (
Figure 112007040636268-pat00142
) To -20m and the maximum error in the X direction (
Figure 112007040636268-pat00143
) And the maximum error in the Y direction (
Figure 112007040636268-pat00144
) Can be determined as 20m, and the interval of error can be determined according to the desired accuracy. In this example, it was determined to be 2m.

상기 제 2 좌표변환(45)은 상기 오차량 보정 단계(44)에서 X와 Y방향으로 의 오차가 보정된 X방향의 오차(

Figure 112007040636268-pat00145
), Y방향의 오차(
Figure 112007040636268-pat00146
) 및 고도오차(
Figure 112007040636268-pat00147
)를 변환된 제 1 지상좌표
Figure 112007040636268-pat00148
에 추가하여 오차를 보정한 지상좌표
Figure 112007040636268-pat00149
를 지심좌표계로 변환하는 단계이다. 지심좌표로 변환된 좌표는 제 2 지상좌표
Figure 112007040636268-pat00150
가 된다. 선형 스캐닝 위성영상인 SPOT 3위성을 이용한 실시예에서 제 2 지상좌표는 제 1지상좌표와 X, Y와 Z 방향에 대하여 각각 평균 -527m, -470m 및 -159m의 오차가 보정되었다. 이는 제 1지상좌표와 원 지상좌표의 평균오차와 거의 동일한 값이다. The second coordinate transformation 45 is an error in the X direction in which the error in the X and Y directions is corrected in the error amount correcting step 44.
Figure 112007040636268-pat00145
), The error in the Y direction (
Figure 112007040636268-pat00146
) And altitude error (
Figure 112007040636268-pat00147
Transformed first ground coordinate
Figure 112007040636268-pat00148
Ground coordinates corrected for errors in addition to
Figure 112007040636268-pat00149
This step converts the centroid coordinate system to. Coordinates converted to geocentric coordinates are second ground coordinates.
Figure 112007040636268-pat00150
Becomes In the embodiment using the SPOT terrestrial satellite, which is a linear scanning satellite image, the second ground coordinates have an error of -527m, -470m, and -159m on the first ground coordinate and the X, Y, and Z directions, respectively. This is almost equal to the mean error of the first ground coordinate and the original ground coordinate.

도면 8은 선형 스캐닝 위성영상인 SPOT 3위성을 이용하여 결정한 제 2 지상좌표와 원 지상좌표와의 차이를 나타낸 도면으로 제 2 지상좌표가 20m이내의 오차를 지니는 것을 알 수 있다. 특히 제 2 지상좌표의 오차(RMSE)는 모든 방향에서 8m이하로 나타났다. 이는 사용한 영상의 공간해상도가 10m이고, 사용한 수치표고자료의 공간해상도가 90m임을 감안할 때 매우 정확한 결과이다. 제 2 지상좌표의 정밀도는 사용되는 수치표고자료의 공간해상도와 정확도에 따라 그리고 사용한 영상의 공간해상도에 따라 달라진다.FIG. 8 is a diagram illustrating the difference between the second ground coordinate and the original ground coordinate determined using the SPOT 3 satellite, which is a linear scanning satellite image, and it can be seen that the second ground coordinate has an error within 20 m. In particular, the second ground coordinate error (RMSE) was less than 8m in all directions. This is a very accurate result considering that the spatial resolution of the used image is 10m and the spatial resolution of the used digital elevation data is 90m. The precision of the second ground coordinates depends on the spatial resolution and accuracy of the numerical elevation data used and on the spatial resolution of the image used.

이하, 촬영 위치 및 자세를 보정하는 방법에 대하여 첨부도면을 참조하여 설명한다.Hereinafter, a method of correcting a photographing position and posture will be described with reference to the accompanying drawings.

상기 촬영위치 및 자세 개선 단계(60)는 상기 제2 지상좌표 추출(40) 단계에서 계산된 제 2 지상좌표를 이용하여 상기 영상 및 보조자료 추출 단계(10)의 보조자료 중 촬영위치

Figure 112007040636268-pat00151
및 자세
Figure 112007040636268-pat00152
를 개선하는 단계이다. The photographing position and posture improvement step 60 is a photographing position of the auxiliary data of the image and ancillary data extraction step 10 using the second ground coordinates calculated in the second ground coordinate extraction step 40.
Figure 112007040636268-pat00151
And posture
Figure 112007040636268-pat00152
Step to improve it.

본 발명에서는 오차 관측각을 보정하기 전에 촬영위치 및 자세를 우선적으로 보정하여 촬영위치의 정밀도와 관계없이 적용할 수 있는 방법을 제시한다.The present invention proposes a method which can be applied regardless of the accuracy of the photographing position by first correcting the photographing position and posture before correcting the error observation angle.

도면 9로부터 수학식 1과 2에 정의된 오차관측각(

Figure 112007040636268-pat00153
)은 촬영위치오차에 의한 위치오차관측각(
Figure 112007040636268-pat00154
)와 자세각의 오차에 의한 자세오차관측각(
Figure 112007040636268-pat00155
)에 의해서 하기의 수학식 13과 14와 같이 표현할 수 있다.Error observation angles defined in Equations 1 and 2 from FIG.
Figure 112007040636268-pat00153
) Indicates the position error observation angle due to the shooting position error (
Figure 112007040636268-pat00154
) And posture error observation angle due to error of posture (
Figure 112007040636268-pat00155
) Can be expressed as in Equations 13 and 14 below.

Figure 112007040636268-pat00156
Figure 112007040636268-pat00156

Figure 112007040636268-pat00157
Figure 112007040636268-pat00157

여기서

Figure 112007040636268-pat00158
Figure 112007040636268-pat00159
는 각각
Figure 112007040636268-pat00160
의 X와 Y방향성분이고,
Figure 112007040636268-pat00161
Figure 112007040636268-pat00162
는 각각
Figure 112007040636268-pat00163
의 X와 Y방향성분이다. here
Figure 112007040636268-pat00158
Wow
Figure 112007040636268-pat00159
Are each
Figure 112007040636268-pat00160
In the X and Y directions,
Figure 112007040636268-pat00161
Wow
Figure 112007040636268-pat00162
Are each
Figure 112007040636268-pat00163
Are the X and Y direction components.

도면 9로부터 위치오차관측각(

Figure 112007040636268-pat00164
)은 사인의 법칙에 따라 하기의 수학식 15로 표현할 수 있다.Position error observation angle (
Figure 112007040636268-pat00164
) Can be expressed by Equation 15 below according to the law of sine.

Figure 112007040636268-pat00165
Figure 112007040636268-pat00165

여기서,

Figure 112007040636268-pat00166
는 원래의 촬영위치와 보조자료에 제공된 촬영위치사이의 거리이며,
Figure 112007040636268-pat00167
Figure 112007040636268-pat00168
Figure 112007040636268-pat00169
의 수평성분사이의 각이고,
Figure 112007040636268-pat00170
은 보조자료에 제공된 촬영위치와 지상위치사이의 거리이다.here,
Figure 112007040636268-pat00166
Is the distance between the original shooting position and the shooting position provided in the auxiliary material,
Figure 112007040636268-pat00167
Is
Figure 112007040636268-pat00168
Wow
Figure 112007040636268-pat00169
Is the angle between the horizontal components of
Figure 112007040636268-pat00170
Is the distance between the shooting position and the ground position provided in the ancillary data.

Figure 112007040636268-pat00171
는 0에 가깝기 때문에 수학식 15는 하기 수학식 16과 같이 근사화 될 수 있다.
Figure 112007040636268-pat00171
Since E is close to 0, Equation 15 may be approximated as Equation 16 below.

Figure 112007040636268-pat00172
Figure 112007040636268-pat00172

그러므로

Figure 112007040636268-pat00173
의 X와 Y 성분(
Figure 112007040636268-pat00174
,
Figure 112007040636268-pat00175
)은 하기의 수학식 17과 수학식 18과 같이 정의된다.therefore
Figure 112007040636268-pat00173
X and Y components of
Figure 112007040636268-pat00174
,
Figure 112007040636268-pat00175
) Is defined as in Equations 17 and 18 below.

Figure 112007040636268-pat00176
Figure 112007040636268-pat00176

Figure 112007040636268-pat00177
Figure 112007040636268-pat00177

여기서,

Figure 112007040636268-pat00178
Figure 112007040636268-pat00179
Figure 112007040636268-pat00180
의 X와 Y성분이고,
Figure 112007040636268-pat00181
Figure 112007040636268-pat00182
Figure 112007040636268-pat00183
의 X와 Y성분이며,
Figure 112007040636268-pat00184
Figure 112007040636268-pat00185
Figure 112007040636268-pat00186
의 X와 Y성분이다. here,
Figure 112007040636268-pat00178
Wow
Figure 112007040636268-pat00179
Is
Figure 112007040636268-pat00180
Are the X and Y components of
Figure 112007040636268-pat00181
Wow
Figure 112007040636268-pat00182
Is
Figure 112007040636268-pat00183
Are the X and Y components of
Figure 112007040636268-pat00184
Wow
Figure 112007040636268-pat00185
Is
Figure 112007040636268-pat00186
X and Y components of.

도면 10으로부터 촬영위치오차

Figure 112007040636268-pat00187
를 이용하면, 하기의 수학식 19와 수학식 20과 같이 정의된다.Location Error from Drawing 10
Figure 112007040636268-pat00187
By using Equation 19, Equation 19 and Equation 20 are defined.

Figure 112007040636268-pat00188
Figure 112007040636268-pat00188

Figure 112007040636268-pat00189
Figure 112007040636268-pat00189

또한, 자세오차관측각(

Figure 112007040636268-pat00190
)의 X와 Y 성분(
Figure 112007040636268-pat00191
,
Figure 112007040636268-pat00192
)은 자세오차
Figure 112007040636268-pat00193
를 이용하여 하기 수학식 21과 수학식 22와 같이 정의된다.Also, posture error measurement angle (
Figure 112007040636268-pat00190
X and Y components of)
Figure 112007040636268-pat00191
,
Figure 112007040636268-pat00192
) Is a posture error
Figure 112007040636268-pat00193
By using Equation 21 and Equation 22 are defined.

Figure 112007040636268-pat00194
Figure 112007040636268-pat00194

Figure 112007040636268-pat00195
Figure 112007040636268-pat00195

여기서

Figure 112007040636268-pat00196
Figure 112007040636268-pat00197
는 피치각 오차와 롤각 오차이고,
Figure 112007040636268-pat00198
Figure 112007040636268-pat00199
는 요각 오차
Figure 112007040636268-pat00200
의 X와 Y성분이다.
Figure 112007040636268-pat00201
Figure 112007040636268-pat00202
는 도면 11(ㄷ)으로부터 사인의 법칙을 이용하여 정의할 수 있다.
Figure 112007040636268-pat00203
를 정의하기 위하여 사인의 법칙을 적용하면 하기의 수학식 23과 같이 정의된다.here
Figure 112007040636268-pat00196
Wow
Figure 112007040636268-pat00197
Is the pitch angle error and roll angle error,
Figure 112007040636268-pat00198
Wow
Figure 112007040636268-pat00199
Is the yaw error
Figure 112007040636268-pat00200
X and Y components of.
Figure 112007040636268-pat00201
Wow
Figure 112007040636268-pat00202
Can be defined using the law of sine from FIG.
Figure 112007040636268-pat00203
Applying the law of sine to define the equation is defined as in Equation 23 below.

Figure 112007040636268-pat00204
Figure 112007040636268-pat00204

여기서

Figure 112007040636268-pat00205
이고,
Figure 112007040636268-pat00206
는 위성의 고도이며,
Figure 112007040636268-pat00207
는 지표면의 고도이다.here
Figure 112007040636268-pat00205
ego,
Figure 112007040636268-pat00206
Is the altitude of the satellite,
Figure 112007040636268-pat00207
Is the elevation of the earth's surface.

Figure 112007040636268-pat00208
는 0에 가깝고,
Figure 112007040636268-pat00209
Figure 112007040636268-pat00210
Figure 112007040636268-pat00211
와 근사적으로 같다. 그러므로 수학식 23은 하기 수학식 24와 같이 근사화될 수 있다.
Figure 112007040636268-pat00208
Is close to 0,
Figure 112007040636268-pat00209
Wow
Figure 112007040636268-pat00210
Is
Figure 112007040636268-pat00211
Is approximately equal to Therefore, Equation 23 may be approximated as Equation 24 below.

Figure 112007040636268-pat00212
Figure 112007040636268-pat00212

여기서

Figure 112007040636268-pat00213
Figure 112007040636268-pat00214
은 도면 11(ㄴ)으로부터 하기와 같이 정의된다.here
Figure 112007040636268-pat00213
Wow
Figure 112007040636268-pat00214
Is defined as follows from Fig. 11 (b).

Figure 112007040636268-pat00215
Figure 112007040636268-pat00215

Figure 112007040636268-pat00216
Figure 112007040636268-pat00216

결국

Figure 112007040636268-pat00217
는 하기 수학식 27과 같이 근사화된다.finally
Figure 112007040636268-pat00217
Is approximated as in Equation 27 below.

Figure 112007040636268-pat00218
Figure 112007040636268-pat00218

또한

Figure 112007040636268-pat00220
와 동일한 절차를 거쳐 하기 수학식 28과 같이 정의된다. Also
Figure 112007040636268-pat00220
It is defined as in Equation 28 through the same procedure as

Figure 112007040636268-pat00221
Figure 112007040636268-pat00221

결국 자세오차관측각(

Figure 112007040636268-pat00222
)의 X와 Y 성분(
Figure 112007040636268-pat00223
,
Figure 112007040636268-pat00224
)은 자세오차
Figure 112007040636268-pat00225
를 이용하여 하기 수학식 29와 수학식 30과 같이 정의된다.Finally, posture error observation angle (
Figure 112007040636268-pat00222
X and Y components of)
Figure 112007040636268-pat00223
,
Figure 112007040636268-pat00224
) Is a posture error
Figure 112007040636268-pat00225
By using the equations (29) and (30) are defined as follows.

Figure 112007040636268-pat00226
Figure 112007040636268-pat00226

Figure 112007040636268-pat00227
Figure 112007040636268-pat00227

결국 촬영위치오차

Figure 112007040636268-pat00228
와 자세오차
Figure 112007040636268-pat00229
부터 결 정되는 오차관측각(
Figure 112007040636268-pat00230
)은 하기 수학식 31과 수학식 32로 정의된다.Finally, shooting position error
Figure 112007040636268-pat00228
And posture error
Figure 112007040636268-pat00229
Error observation angle determined from
Figure 112007040636268-pat00230
) Is defined by the following equation (31) and (32).

Figure 112007040636268-pat00231
Figure 112007040636268-pat00231

Figure 112007040636268-pat00232
Figure 112007040636268-pat00232

상기 제 2 지상좌표 추출 단계(40)에서 추출된 제 2 지상좌표

Figure 112007040636268-pat00233
를 상기 수학식 1과 수학식 2에 대입하여 각 제 2 지상좌표에 대한 X와 Y방향의 오차관측각
Figure 112007040636268-pat00234
Figure 112007040636268-pat00235
를 계산한다. 상기 계산된 오차관측각을 수학식 31과 수학식 32에 대입하여 촬영위치오차
Figure 112007040636268-pat00236
와 자세오차
Figure 112007040636268-pat00237
를 계산한다. 여기서 주의해야 할 점은 일반적으로 선형스캐닝 영상에서
Figure 112007040636268-pat00238
Figure 112007040636268-pat00239
를 구분할 수 없고,
Figure 112007040636268-pat00240
Figure 112007040636268-pat00241
를 구분할 수 없다는 것이다. 이와 같은 이유는 선형스캐닝 영상이 주로 비행방향의 수직으로 CCD를 배열하기 때문에 발생한다. 즉, 수학식 31과 수학식 32에서
Figure 112007040636268-pat00242
값의 변화가 매우 작아 상수로 인식할 수 있기 때문이다. 그러나 일반적인 선형스캐닝 영상에서
Figure 112007040636268-pat00243
Figure 112007040636268-pat00244
에 비해
Figure 112007040636268-pat00245
Figure 112007040636268-pat00246
의 차이는 미미하기 때문에
Figure 112007040636268-pat00247
Figure 112007040636268-pat00248
으로 가정할 수 있 다. 결국 수학식 31와 수학식 32를 이용하여
Figure 112007040636268-pat00249
로 가정하고, 촬영위치오차
Figure 112007040636268-pat00250
와 자세오차 중
Figure 112007040636268-pat00251
를 개선한다. 만약, 선형스캐닝영상에서
Figure 112007040636268-pat00252
Figure 112007040636268-pat00253
의 변화가 상수로 인식할 수 없을 만큼 크다면, 모든 자세오차를 개선할 수 있다. Second ground coordinates extracted in the second ground coordinates extraction step 40
Figure 112007040636268-pat00233
Is substituted into Equation 1 and Equation 2, and error observation angles in the X and Y directions with respect to the second ground coordinates, respectively.
Figure 112007040636268-pat00234
Wow
Figure 112007040636268-pat00235
Calculate Imaging position error by substituting the calculated error observation angle into Equation 31 and Equation 32
Figure 112007040636268-pat00236
And posture error
Figure 112007040636268-pat00237
Calculate One thing to note here is that for linear scanning images
Figure 112007040636268-pat00238
Wow
Figure 112007040636268-pat00239
Cannot be distinguished,
Figure 112007040636268-pat00240
Wow
Figure 112007040636268-pat00241
Is indistinguishable. The reason for this is that the linear scanning image mainly arranges the CCD in the vertical direction of the flight direction. That is, in Equation 31 and Equation 32
Figure 112007040636268-pat00242
This is because the change in value is so small that it can be recognized as a constant. But in a typical linear scanning image
Figure 112007040636268-pat00243
Wow
Figure 112007040636268-pat00244
Compared to
Figure 112007040636268-pat00245
Wow
Figure 112007040636268-pat00246
Because the difference is small
Figure 112007040636268-pat00247
Wow
Figure 112007040636268-pat00248
Can be assumed. Finally, using Equation 31 and Equation 32
Figure 112007040636268-pat00249
Assume that the shooting position error
Figure 112007040636268-pat00250
And posture error
Figure 112007040636268-pat00251
To improve. If, in the linear scanning image
Figure 112007040636268-pat00252
Wow
Figure 112007040636268-pat00253
If the change in is large enough to be unrecognizable as a constant, all posture errors can be improved.

상기의 과정에 의해 보조자료의 촬영위치오차와 자세오차가 개선되면, 원 촬영위치와 촬영자세에 가까워지게 되고, 종래 기술에 의할 경우 발생하는 보조자료의 촬영위치 정밀도가 매우 낮은 경우에 기하보정의 정밀도가 매우 낮아지는 단점을 극복하게 된다.If the shooting position error and posture error of the auxiliary material is improved by the above process, the original shooting position and the shooting posture are closer to each other, and the geometric correction is performed when the accuracy of the shooting position of the auxiliary material generated by the prior art is very low. Overcomes the disadvantage of very low precision.

상기 외부표정수행 단계(70)는 상기 제2 지상좌표 추출 단계(40)의 제 2 지상좌표와 상기 촬영위치 및 자세 개선 단계(60)의 개선된 촬영위치와 촬영자세를 이용하여 오차관측각을 보정함으로서 영상의 각 영상좌표에 지상좌표를 부여하는 외부표정을 수행한다. The external index performing step 70 uses the second ground coordinates of the second ground coordinate extraction step 40 and the improved shooting position and posture of the shooting position and posture improvement step 60 to calculate the error observation angle. By calibrating, external coordinates are given to assign the ground coordinates to each image coordinate of the image.

상기 수학식 1과 수학식 2의 오차 관측각(

Figure 112007040636268-pat00254
)은 한국특허 출원번호 제10-2006-26655호 "LOS벡터 조정 모델을 이용한 영상의 기하보정 방법 및 그 장치"의 LOS 벡터 조정 모델에서 제안한 방법과 같이 하기의 수학식 33과 34에 의해서 계산할 수 있다.Error observation angles of Equations 1 and 2
Figure 112007040636268-pat00254
) Can be calculated by the following equations 33 and 34, as proposed in the LOS vector adjustment model of Korean Patent Application No. 10-2006-26655 "Method of Correcting Image Using LOS Vector Adjustment Model and Its Apparatus". have.

Figure 112007040636268-pat00255
Figure 112007040636268-pat00255

Figure 112007040636268-pat00256
Figure 112007040636268-pat00256

여기서

Figure 112007040636268-pat00257
,
Figure 112007040636268-pat00258
,
Figure 112007040636268-pat00259
,
Figure 112007040636268-pat00260
,
Figure 112007040636268-pat00261
Figure 112007040636268-pat00262
은 지상기준점에 의해 보정되는 외부표정모델 계수이다. 일반적으로
Figure 112007040636268-pat00263
Figure 112007040636268-pat00264
을 사용하는 것이 바람직하다. 즉, 선형스캐닝 영상의 라인방향(
Figure 112007040636268-pat00265
)으로는 1차방정식을 픽셀방향(
Figure 112007040636268-pat00266
)으로는 2차방정식을 사용하는 것이 바람직하다. 픽셀방향(
Figure 112007040636268-pat00267
)에 2차방정식을 사용하는 것이 바람직한 이유는 영상의 픽셀방향에 따라 변하는 관측각
Figure 112007040636268-pat00268
Figure 112007040636268-pat00269
의 변화가 2차 방정식에 근사하기 때문이다. here
Figure 112007040636268-pat00257
,
Figure 112007040636268-pat00258
,
Figure 112007040636268-pat00259
,
Figure 112007040636268-pat00260
,
Figure 112007040636268-pat00261
And
Figure 112007040636268-pat00262
Is the external expression model coefficient corrected by the ground reference point. Generally
Figure 112007040636268-pat00263
and
Figure 112007040636268-pat00264
Preference is given to using. That is, the line direction of the linear scanning image (
Figure 112007040636268-pat00265
) Gives the first equation in the pixel direction (
Figure 112007040636268-pat00266
It is preferable to use a quadratic equation as). Pixel direction (
Figure 112007040636268-pat00267
It is preferable to use quadratic equations for the observation angle which varies with the pixel direction of the image.
Figure 112007040636268-pat00268
Wow
Figure 112007040636268-pat00269
This is because the change in is close to the quadratic equation.

이 단계를 거치면, 영상은 지상좌표에 대한 정보를 갖게 된다. 그리하여 이를 기초로 3차원 영상의 제작이 가능하고, 픽셀의 위치를 재구성하여 정사영상의 제작이 가능하고, 수치지형도, 수치표고자료 등의 제작이 가능하게 된다. After this step, the image has information about ground coordinates. Thus, it is possible to produce a 3D image based on this, to produce an orthoimage by reconstructing pixel positions, and to produce a digital topographical map, digital elevation data, and the like.

이상에서 본 발명을 설명함에 있어 첨부된 도면을 참조하여 특정 단계와 구성요소를 갖는 LOS벡터 조정을 통한 영상의 기하보정 방법 및 그 장치에 대해 설명하였으나 본 발명은 당업자에 의하여 다양한 변형 및 변경이 가능하고, 이러한 변 형 및 변경은 본 발명의 보호범위에 속하는 것으로 해석되어야 한다.In the above description of the present invention with reference to the accompanying drawings has been described a geometric correction method of the image by adjusting the LOS vector having a specific step and components and the device, but the present invention can be variously modified and changed by those skilled in the art And, such variations and modifications should be construed as falling within the protection scope of the present invention.

상기와 같은 본 발명 선형 스캐닝 영상의 자동 영상기하 보정 방법에 의하면, According to the automatic image geometry correction method of the linear scanning image of the present invention as described above,

첫째, 수치표고모델(DEM)로부터 지상기준점을 자동으로 추출하여 영상의 각 영상좌표에 정확한 지상좌표를 부여할 수 있고,First, the ground reference point can be automatically extracted from the digital elevation model (DEM) to assign accurate ground coordinates to each image coordinate of the image.

둘째, 영상기하보정에 소요되는 비용 및 시간을 획기적으로 감축할 수 있으며,Second, the cost and time required for image geometry correction can be significantly reduced.

셋째, 추출된 지상좌표의 정확도의 향상이 가능하고,Third, it is possible to improve the accuracy of the extracted ground coordinates,

넷째, 정사영상, 영상지도, 수치지형도 및 수치표고자료 제작의 작업공정 등이 단순화와 작업시간의 단축이 가능하다.Fourth, the orthogonal image, image map, digital topographic map, and work process of digital elevation data can be simplified and shorten working time.

Claims (13)

(a) 같은 지표면을 촬영한 서로 다른 둘 이상의 영상과 상기 영상에 대한 보조자료를 추출하는 단계;(a) extracting two or more different images of the same ground surface and auxiliary data for the images; (b) 상기 서로 다른 둘 이상의 영상으로부터 영상 매칭을 통해 대응점을 추출하는 단계; (b) extracting corresponding points through image matching from two or more different images; (c) 상기 대응점과 상기 보조자료로부터 제 1 지상좌표
Figure 112007040636268-pat00270
를 추출하는 단계;
(c) a first ground coordinate from the correspondence point and the ancillary data;
Figure 112007040636268-pat00270
Extracting;
(d) 상기 제 1 지상좌표와 수치표고자료의 상관계수를 이용하여 제 2 지상좌표
Figure 112007040636268-pat00271
를 추출하는 단계;
(d) the second ground coordinate using the correlation coefficient between the first ground coordinate and the numerical elevation data;
Figure 112007040636268-pat00271
Extracting;
(e) 상기 제 2 지상좌표를 이용하여 영상의 각 영상좌표에 지상좌표를 부여함으로서 영상의 왜곡을 보정하는 외부표정을 수행하는 단계를 포함하여 이루어지는 것을 특징으로 하는 선형 스캐닝 영상의 자동 영상기하 보정 방법.(e) performing an external calibration to correct distortion of the image by assigning the ground coordinates to each image coordinate of the image by using the second ground coordinates. Way.
청구항 1에 있어서,The method according to claim 1, 상기 (d) 단계 후 (e) 단계 전에 있어서,After step (d) and before step (e), 상기 제 2 지상좌표를 이용하여 상기 보조자료 중 촬영위치
Figure 112007040636268-pat00272
및 자세
Figure 112007040636268-pat00273
를 개선하는 단계를 더 포함하여 구성되는 것을 특징으로 하는 선형 스캐닝 영상의 자동 영상기하 보정 방법.
Shooting position of the auxiliary data using the second ground coordinate
Figure 112007040636268-pat00272
And posture
Figure 112007040636268-pat00273
Automatic image geometry correction method of the linear scanning image, characterized in that it further comprises the step of improving.
청구항 1 에 있어서, The method according to claim 1, 상기 (d) 단계는,In step (d), 상기 제 1 지상좌표를 상기 수치표고자료가 지니는 좌표계로 변환하는 제 1 좌표변환 단계;A first coordinate conversion step of converting the first ground coordinates into a coordinate system having the numerical elevation data; 상기 변환된 제1 지상좌표와 상기 수치표고자료의 고도값을 이용하여 상관계수맵을 제작하는 단계;Producing a correlation coefficient map using the converted first ground coordinates and an elevation value of the numerical elevation data; 상기 제작된 상관계수맵에서 최대상관계수 위치를 결정하는 단계;Determining a maximum correlation coefficient position in the produced correlation coefficient map; 상기 최대상관계수 위치를 결정하는 단계에서 추출한 오차량을 보정하는 단계;Correcting the error amount extracted in the determining of the maximum correlation coefficient position; 상기 오차량이 보정된 좌표를 변환 이전의 좌표계로 역변환하는 제2 좌표변환 단계를 포함하여 구성되는 것을 특징으로 하는 선형 스캐닝 영상의 자동 영상기하 보정 방법.And a second coordinate conversion step of inversely converting the coordinates of which the error amount is corrected into a coordinate system before conversion. 청구항 1 또는 청구항 2 에 있어서,The method according to claim 1 or 2, 상기 (a) 단계의 보조자료는, 촬영기구의 위치, 속도정보, 촬영기구의 자세정보, 영상의 중심라인 촬영시간, 영상의 라인당 촬영시간, 촬영각 등에 대한 정보등을 포함하는 것을 특징으로 하는 선형 스캐닝 영상의 자동 영상기하 보정 방법.The auxiliary data of step (a) may include information about the position of the photographing apparatus, the speed information, the attitude information of the photographing apparatus, the photographing time of the center line of the image, the photographing time per line of the image, the photographing angle, etc. Automatic image geometry correction method of linear scanning image. 청구항 1 또는 청구항 3에 있어서,The method according to claim 1 or 3, 상기 (b) 단계는, 서로 다른 영상에 대하여 상관계수를 계산하여 상관계수가 가장 높은 곳을 찾는 단계를 포함하는 것을 특징으로 하는 선형 스캐닝 영상의 자동 영상기하 보정 방법.The step (b) includes calculating a correlation coefficient with respect to different images to find a place where the correlation coefficient is the highest. 청구항 2에 있어서,The method according to claim 2, 상기 제 2 지상좌표를 이용하여 상기 보조자료 중 촬영위치
Figure 112007040636268-pat00274
및 자세
Figure 112007040636268-pat00275
를 개선하는 단계는,
Shooting position of the auxiliary data using the second ground coordinate
Figure 112007040636268-pat00274
And posture
Figure 112007040636268-pat00275
Steps to improve it,
Figure 112007040636268-pat00276
Figure 112007040636268-pat00276
and
Figure 112007040636268-pat00277
를 이용하여 오차관측각
Figure 112007040636268-pat00278
,
Figure 112007040636268-pat00279
을 계산하며, 상기
Figure 112007040636268-pat00280
Figure 112007040636268-pat00281
Figure 112007040636268-pat00282
의 단위를 지상에서의 거리로 환산 하기 위하여 사용한 변수이고, 영상점
Figure 112007040636268-pat00283
는 영상좌표로 정의되며, 이 영상점에 대한 지상점
Figure 112007040636268-pat00284
은 지심좌표계(Earth-Centered Earth-Fixed Coordinate System; ECEF)로 정의되고,
Figure 112007040636268-pat00285
Figure 112007040636268-pat00286
는 지상점
Figure 112007040636268-pat00287
과 촬영위치
Figure 112007040636268-pat00288
사이의 벡터에 의해서 정의되는 제 1 관측각이며, 이 각은 영상의 라인
Figure 112007040636268-pat00289
방향에 대하여 정의되고,
Figure 112007040636268-pat00290
Figure 112007040636268-pat00291
는 보조자료에서 제공하는 제 2 관측각이고, 선형 스캐닝 영상의 경우 영상의 픽셀
Figure 112007040636268-pat00292
방향으로 정의되며,
Figure 112007040636268-pat00293
Figure 112007040636268-pat00294
는 상기 제1 관측각과 제 2 관측각이 다르기 때문에 발생하는 오차 관측각으로 영상의 라인과 픽셀에 대한 함수로 정의되는 단계;
Figure 112007040636268-pat00277
Error observation angle using
Figure 112007040636268-pat00278
,
Figure 112007040636268-pat00279
Calculate the above
Figure 112007040636268-pat00280
Is
Figure 112007040636268-pat00281
and
Figure 112007040636268-pat00282
It is a variable used to convert unit of to distance from the ground, and the image point
Figure 112007040636268-pat00283
Is defined as the image coordinate, and the ground point for this image point.
Figure 112007040636268-pat00284
Is defined as the Earth-Centered Earth-Fixed Coordinate System (ECEF),
Figure 112007040636268-pat00285
Wow
Figure 112007040636268-pat00286
Ground point
Figure 112007040636268-pat00287
And location
Figure 112007040636268-pat00288
The first observation angle, defined by the vector in between, which is the line of the image
Figure 112007040636268-pat00289
Defined with respect to the direction,
Figure 112007040636268-pat00290
Wow
Figure 112007040636268-pat00291
Is the second observation angle provided by the supplementary data, and in the case of linear scanning images, the pixel of the image.
Figure 112007040636268-pat00292
Is defined as a direction,
Figure 112007040636268-pat00293
Wow
Figure 112007040636268-pat00294
Is an error observation angle generated because the first observation angle and the second observation angle are different, and are defined as a function of lines and pixels of the image;
상기 오차관측각을The error observation angle
Figure 112007040636268-pat00295
Figure 112007040636268-pat00295
and
Figure 112007040636268-pat00296
에 대입하여 촬영위치오차
Figure 112007040636268-pat00297
와 자세오차
Figure 112007040636268-pat00298
를 계산하며, 상기
Figure 112007040636268-pat00299
Figure 112007040636268-pat00300
는 요각 오차
Figure 112007040636268-pat00301
의 X와 Y성분,
Figure 112007040636268-pat00302
는 촬영위치와 지상위치의 수직성분으로부터의 각도 (
Figure 112007040636268-pat00303
), Rx, Ry는 R은 촬영위치와 지상위치 사이의 거리의 X, Y 성분인 것을 특징으로 하는 선형 스캐닝 영상의 자동 영상기하 보정 방법.
Figure 112007040636268-pat00296
Position error
Figure 112007040636268-pat00297
And posture error
Figure 112007040636268-pat00298
Calculate the above
Figure 112007040636268-pat00299
Wow
Figure 112007040636268-pat00300
Is the yaw error
Figure 112007040636268-pat00301
X and Y components of,
Figure 112007040636268-pat00302
Is the angle from the vertical component of the shooting position and the ground position (
Figure 112007040636268-pat00303
), Rx and Ry are automatic image geometry correction methods for a linear scanning image, wherein R is the X and Y components of the distance between the photographing position and the ground position.
청구항 2 또는 청구항 3에 있어서,The method according to claim 2 or 3, 상기 (e) 단계는, In step (e), 상기 제 2 지상좌표와 상기 개선된 촬영위치와 촬영자세를 이용하여 오차관측각을 보정함으로써 영상의 각 영상좌표에 지상좌표를 부여하는 것을 특징으로 하는 선형 스캐닝 영상의 자동 영상기하 보정 방법.And correcting the error observation angle by using the second ground coordinates, the improved shooting position, and the shooting position, thereby assigning the ground coordinates to each image coordinate of the image. 청구항 3에 있어서,The method according to claim 3, 상기 변환된 제1 지상좌표와 상기 수치표고자료의 고도값을 이용하여 상관계수맵을 제작하는 단계는,Producing a correlation coefficient map using the converted first ground coordinates and the altitude value of the numerical elevation data, 단계 (a)에서 추출된 보조자료의 정확도에 따라 오차의 최소값과 최대값을 설정하고, 오차의 간격을 설정한 후 상기 오차의 최소값부터 오차의 최대값까지 상기 오차의 간격으로 상관계수맵을 제작하는 것을 특징으로 하는 선형 스캐닝 영상의 자동 영상기하 보정 방법.According to the accuracy of the auxiliary data extracted in step (a), the minimum and maximum values of the error are set, and the interval of the error is set, and then the correlation coefficient map is produced from the error interval from the minimum value of the error to the maximum value of the error. Automatic image geometry correction method for a linear scanning image, characterized in that. 청구항 3에 있어서,The method according to claim 3, 상기 제작된 상관계수맵에서 최대상관계수 위치를 결정하는 단계는,The determining of the maximum correlation coefficient position in the produced correlation coefficient map, 상기 제작된 상관계수맵에서 최대값을 결정하는 단계;Determining a maximum value in the produced correlation coefficient map; 상기 상관계수가 최대인 위치로부터 X와 Y방향으로 픽셀이하(sub-pixel) 단위로 내삽을 수행하는 단계;Performing interpolation in sub-pixel units in the X and Y directions from a position where the correlation coefficient is maximum; 상기 내삽 수행을 통해 상관계수가 최대인 위치를 결정하는 단계;Determining a position where a correlation coefficient is maximum by performing the interpolation; 상기 결정을 이용하여 X방향의 오차(
Figure 112007040636268-pat00304
)와 Y방향의 오차(
Figure 112007040636268-pat00305
)를 결정하는 단계;
Using this crystal, the error in the X direction (
Figure 112007040636268-pat00304
) And the error in the Y direction (
Figure 112007040636268-pat00305
Determining;
상기 오차를 이용하여 수치표고자료에서 추출한 고도와 제 1 지상좌표의 고도를 이용하여 고도오차를 결정하는 단계를 포함하여 구성되는 것을 특징으로 하는 선형 스캐닝 영상의 자동 영상기하 보정 방법.And determining the altitude error using the altitude extracted from the digital elevation data and the altitude of the first ground coordinate using the error.
청구항 3에 있어서,The method according to claim 3, 상기 최대상관계수 위치를 결정하는 단계에서 추출한 오차량을 보정하는 단계는,Correcting the amount of error extracted in the step of determining the maximum correlation coefficient position, X방향의 오차, Y방향의 오차, 고도오차를 X와 Y방향에 따라 오차량을 다르게 보정하는 것을 특징으로 하는 선형 스캐닝 영상의 자동 영상기하 보정 방법.An automatic image geometry correction method of a linear scanning image, characterized in that the error amount in the X direction, the error in the Y direction, and the altitude error are differently corrected according to the X and Y directions. 청구항 1 또는 청구항 3에 있어서,The method according to claim 1 or 3, 상기 수치표고자료는 SRTM(Shuttle Radar Topography Mission) DEM(Digital Elevation Model), GTOPO-30, 또는 TIN 격자와 라이다 자료를 이용하여 추출한 고도 자료 중 어느 하나에서 제공되는 것을 특징으로 하는 선형 스캐닝 영상의 자동 영상기하 보정 방법.The numerical elevation data may be provided by any one of the elevation data extracted using a shuttle radar topography mission (SRTM) digital elevation model (DEM), a GTOPO-30, or a TIN grid and a lidar data. Automatic geometric correction method. 청구항 3에 있어서,The method according to claim 3, 상기 제 1 지상좌표를 상기 수치표고자료가 지니는 좌표계로 변환하는 제 1 좌표변환 단계는,The first coordinate transformation step of converting the first ground coordinates into a coordinate system having the numerical elevation data, STRM DEM에서 제공되는 수치표고자료를 상기 수치표고자료로서 사용할 경우 주어진 좌표를 경위도 좌표로 변환하는 것을 특징으로 하는 선형 스캐닝 영상의 자동 영상기하 보정 방법.When the digital elevation data provided by STRM DEM is used as the digital elevation data, the automatic image geometry correction method of the linear scanning image, characterized in that the given coordinates are converted into longitude coordinates. 삭제delete
KR1020070054328A 2007-06-04 2007-06-04 Method of automatic geometric correction for linear pushbroom image KR100870894B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070054328A KR100870894B1 (en) 2007-06-04 2007-06-04 Method of automatic geometric correction for linear pushbroom image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070054328A KR100870894B1 (en) 2007-06-04 2007-06-04 Method of automatic geometric correction for linear pushbroom image

Publications (1)

Publication Number Publication Date
KR100870894B1 true KR100870894B1 (en) 2008-11-28

Family

ID=40284855

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070054328A KR100870894B1 (en) 2007-06-04 2007-06-04 Method of automatic geometric correction for linear pushbroom image

Country Status (1)

Country Link
KR (1) KR100870894B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100912936B1 (en) 2008-11-27 2009-08-20 삼아항업(주) Modification system for digital elevation model producing image map and method therefor
KR101258560B1 (en) 2010-11-19 2013-04-26 새한항업(주) Setting method of Ground Control Point by Aerial Triangulation
KR101295747B1 (en) * 2012-04-25 2013-08-20 서울시립대학교 산학협력단 System of automatic geometric correction using rational polynomial cofficient and method thereof
KR101469080B1 (en) * 2014-07-25 2014-12-05 동아항업주식회사 Producing apparatus of numerical map checking error
KR101578825B1 (en) * 2015-08-31 2015-12-21 (주)동광지엔티 3d-aerial photographing image collection system able to adjusting a photographing direction of a camera by a point ofphotographing time
CN116091546A (en) * 2023-01-12 2023-05-09 北京航天飞行控制中心 Observation construction method under push-broom mode of optical camera
CN116091546B (en) * 2023-01-12 2024-04-19 北京航天飞行控制中心 Observation construction method under push-broom mode of optical camera

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000058437A (en) * 2000-05-23 2000-10-05 박용선 Method of Manufacturing Map Using Satellite Image Data
KR20010025089A (en) * 1999-03-24 2001-03-26 가토 신이치 Method and device for making map using photograph image and method for correcting distortion of photograph image
KR20030036988A (en) * 2001-11-01 2003-05-12 한국전자통신연구원 Iterative Parameter Transform for Enhancing Matching Accuracy of Images
KR20070037956A (en) * 2005-10-04 2007-04-09 현대자동차주식회사 Map updating method for navigation using image data of artificial satellite

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010025089A (en) * 1999-03-24 2001-03-26 가토 신이치 Method and device for making map using photograph image and method for correcting distortion of photograph image
KR20000058437A (en) * 2000-05-23 2000-10-05 박용선 Method of Manufacturing Map Using Satellite Image Data
KR20030036988A (en) * 2001-11-01 2003-05-12 한국전자통신연구원 Iterative Parameter Transform for Enhancing Matching Accuracy of Images
KR20070037956A (en) * 2005-10-04 2007-04-09 현대자동차주식회사 Map updating method for navigation using image data of artificial satellite

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100912936B1 (en) 2008-11-27 2009-08-20 삼아항업(주) Modification system for digital elevation model producing image map and method therefor
KR101258560B1 (en) 2010-11-19 2013-04-26 새한항업(주) Setting method of Ground Control Point by Aerial Triangulation
KR101295747B1 (en) * 2012-04-25 2013-08-20 서울시립대학교 산학협력단 System of automatic geometric correction using rational polynomial cofficient and method thereof
WO2013162207A1 (en) * 2012-04-25 2013-10-31 서울시립대학교 산학협력단 System and method for automatic geometric correction using rpc
US9378585B2 (en) 2012-04-25 2016-06-28 University Of Seoul Industry Cooperation Foundation System and method for automatic geometric correction using RPC
KR101469080B1 (en) * 2014-07-25 2014-12-05 동아항업주식회사 Producing apparatus of numerical map checking error
KR101578825B1 (en) * 2015-08-31 2015-12-21 (주)동광지엔티 3d-aerial photographing image collection system able to adjusting a photographing direction of a camera by a point ofphotographing time
CN116091546A (en) * 2023-01-12 2023-05-09 北京航天飞行控制中心 Observation construction method under push-broom mode of optical camera
CN116091546B (en) * 2023-01-12 2024-04-19 北京航天飞行控制中心 Observation construction method under push-broom mode of optical camera

Similar Documents

Publication Publication Date Title
CN109903352B (en) Method for making large-area seamless orthoimage of satellite remote sensing image
De Franchis et al. An automatic and modular stereo pipeline for pushbroom images
JP4448187B2 (en) Image geometric correction method and apparatus
US9378585B2 (en) System and method for automatic geometric correction using RPC
KR101965965B1 (en) A method of automatic geometric correction of digital elevation model made from satellite images and provided rpc
Xiong et al. A generic method for RPC refinement using ground control information
CN111612693B (en) Method for correcting rotary large-width optical satellite sensor
KR100870894B1 (en) Method of automatic geometric correction for linear pushbroom image
KR100520275B1 (en) Method for correcting geometry of pushbroom image using solidbody rotation model
KR100671504B1 (en) Method for correcting of aerial photograph image using multi photograph image
KR100373615B1 (en) Method and device for making map using photograph image and method for correcting distortion of photograph image
CN110986888A (en) Aerial photography integrated method
JP6345339B2 (en) Image correction apparatus and image correction method
CN111508028A (en) Autonomous in-orbit geometric calibration method and system for optical stereo mapping satellite camera
Jacobsen Orientation of high resolution optical space images
CN111156969A (en) Wide remote sensing image stereo mapping method and system
KR100671497B1 (en) Method for correcting photograph image using distortion correction and distortion compensation
Goncalves et al. Accuracy analysis of DEMs derived from ASTER imagery
CN116385554A (en) Coastal sea area water depth mapping method based on double unmanned aerial vehicle video stitching
Jacobsen Calibration of optical satellite sensors
KR101663642B1 (en) Method and Apparatus for constructing Whiskbroom Sensor Model Using Direct Georeferencing and Adjustable Parameter
Cao et al. Nonlinear Systematic Distortions Compensation in Satellite Images Based on an Equivalent Geometric Sensor Model Recovered From RPCs
CHENG et al. Range-coplanarity equation for radar geometric imaging
Reinartz et al. Accuracy analysis for DEM and orthoimages derived from SPOT HRS stereo data without using GCP
KR100473958B1 (en) Method for Updating Rational Polynomial Coefficient Data of High Accurate Using GPS Single Control Point

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121108

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20131016

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20150421

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20160105

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20161116

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee