KR100870894B1 - Method of automatic geometric correction for linear pushbroom image - Google Patents
Method of automatic geometric correction for linear pushbroom image Download PDFInfo
- Publication number
- KR100870894B1 KR100870894B1 KR1020070054328A KR20070054328A KR100870894B1 KR 100870894 B1 KR100870894 B1 KR 100870894B1 KR 1020070054328 A KR1020070054328 A KR 1020070054328A KR 20070054328 A KR20070054328 A KR 20070054328A KR 100870894 B1 KR100870894 B1 KR 100870894B1
- Authority
- KR
- South Korea
- Prior art keywords
- error
- image
- ground
- coordinate
- correlation coefficient
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
Abstract
Description
도 1 은 본 발명에 따른 자동기하보정 방법의 절차 흐름도.1 is a process flow diagram of an automatic geometric correction method according to the present invention.
도 2 는 35개의 대응점에 대한 선형 스캐닝 위성영상인 SPOT 위성을 이용하여 계산한 제 1 지상좌표의 오차를 나타낸 도면.FIG. 2 is a diagram illustrating an error of first ground coordinates calculated using a SPOT satellite, which is a linear scanning satellite image for 35 corresponding points. FIG.
도 3 은 본 발명에 따른 제 2 지상좌표 추출 방법의 절차 흐름도.3 is a flow chart of a second method of extracting the ground coordinates according to the present invention.
도 4 는 선형 스캐닝 영상인 SPOT 3 영상으로부터 계산한 상관계수맵의 일례를 나타낸 도면,4 is a diagram illustrating an example of a correlation coefficient map calculated from a SPOT 3 image, which is a linear scanning image;
도 5 는 선형 스캐닝 영상인 SPOT 3 영상으로부터 상관계수 맵의 최대값을 지닌 위치를 내삽한 일례를 나타낸 도면.5 shows an example of interpolating a position having a maximum value of a correlation coefficient map from a SPOT 3 image, which is a linear scanning image.
도 6 은 선형 스캐닝 위성영상인 SPOT 3 위성에 대하여 X와 Y 방향에 대한 오차량 분포의 일례를 나타낸 그래프.FIG. 6 is a graph showing an example of an error amount distribution in the X and Y directions for a SPOT 3 satellite that is a linear scanning satellite image; FIG.
도 7 은 X와 Y방향의 오차량 보정을 위하여 결정한 구획의 일실시예를 나타낸 도면.7 is a diagram illustrating an embodiment of a partition determined for correction of an error amount in the X and Y directions.
도 8 은 35개 대응점에 대한 선형 스캐닝 위성영상인 SPOT 3위성을 이용하여 결정한 제 2 지상 지상좌표와의 차이를 나타낸 도면,FIG. 8 is a view showing a difference from second terrestrial ground coordinates determined by using the SPOT 3 satellite, which is a linear scanning satellite image for 35 corresponding points; FIG.
도 9는 위치오차관측각()과 자세오차관측각()의 기하를 나타낸 도면,9 is a position error observation angle ( ) And posture error Drawing showing the geometry of
도 10은 촬영위치오차의 기하를 나타낸 도면,10 is a shooting position error Drawing showing the geometry of
도 11 은 요각오차()의 기하를 나타낸 도면이다.11 is a yaw error ( Is a diagram showing the geometry of.
본 발명은 지표면의 특성을 탐사하기 위하여 선형 스캐닝 영상에 대한 기하 왜곡을 자동적으로 보정하는 방법에 관한 것으로, 더욱 상세하게는 동일 지역을 다른 관측각으로 촬영한 두 개 이상의 선형 스캐닝 영상의 관측 위치와 속도, 관측각 등을 이용하여 수치표고모델(DEM)로부터 지상기준점을 자동적으로 추출하여 영상의 각 영상좌표에 정확한 지상좌표를 부여하는 방법에 관한 것이다.The present invention relates to a method of automatically correcting the geometric distortion of a linear scanning image in order to explore the characteristics of the surface, and more particularly, to the observation position of two or more linear scanning images of the same area photographed at different viewing angles. The present invention relates to a method of automatically extracting a ground reference point from a digital elevation model (DEM) using a speed, an observation angle, and the like to give an accurate ground coordinate to each image coordinate of an image.
선형 스캐닝 영상의 경우, 일반적으로 보조자료에 주어진 관측 위치와 속도, 관측자세 및 관측각 등이 정확하지 않기 때문에 이를 이용하여 선형 스캐닝 영상의 기하를 복원하는 경우 기하적 왜곡을 지니며, 영상으로부터 정확한 위치를 결정할 수 없게 된다. 특히 위성의 경우에는 더욱 그러하다. 선형스캐닝 영상의 기하 왜곡을 보정하기 위하여 영상점에 대응하는 지상점을 부여한 지 상기준점(GCP)를 이용한다. 수 개 이상의 지상기준점을 이용하여 기하를 복원하고, 상기 복원한 기하로부터 영상에 지상좌표를 부여하여 영상에 정확한 지상위치를 부여하게 된다. In the case of linear scanning images, the observation position and velocity, observation posture, and angle of view given in the supplementary data are generally not accurate. The location can't be determined. This is especially true for satellites. Image Points to Correct Geometric Distortion of Linear Scanned Images Ground point corresponding to Use the GCP to give a value. Geometry is restored using several or more ground reference points, and the ground coordinates are given to the image from the restored geometry to give an accurate ground position to the image.
지상기준점을 사용하기 위해서는 정확한 지상점을 알아야 하고, 지상점에 대응하는 영상점을 관측해야 한다. 이는 많은 시간과 비용을 요구한다. 따라서 지상기준점의 수를 줄이기 위한 많은 방법이 제안되어왔다. In order to use the ground control point, it is necessary to know the exact ground point and observe the image point corresponding to the ground point. This requires a lot of time and money. Therefore, many methods have been proposed to reduce the number of ground control points.
그중 한 방법은 촬영기구 센서의 촬영각(LOS벡터)만을 조정하여 지상기준점의 수를 줄이는 방법이었다. 그러나 적은 양의 지상기준점의 이용은 영상에서의 영상점 선택의 오차, 지상점이 지닌 위치오차 등에 의해서 왜곡될 수 있고, 더욱이 지상기준점을 얻을 수 없는 지역에서는 상기의 방법을 사용하는 것은 불가능하다는 문제점이 있었다.One method was to reduce the number of ground control points by adjusting only the shooting angle (LOS vector) of the sensor. However, the use of a small amount of ground control points may be distorted due to an error in the selection of image points in the image, a positional error with the ground points, and furthermore, it is impossible to use the above method in an area where ground control points cannot be obtained. there was.
한편, 미국에서는 현재 SRTM(Shuttle Radar Topography Mission) DEM(Digital Elevation Model)을 제공하고 있다. 상기 SRTM DEM은 미국지역에 공간해상도가 1초(약30m)인 수치표고자료를 제공하고 있으며, 미국을 제외한 전세계(위도 N60도∼S56도)에 공간해상도가 3초(약 90m)인 수치표고자료를 제공하고 있다. 상기 수치표고 자료를 이용하여 선형 스캐닝 영상이 지닌 기하 왜곡을 보정할 수 있다면, 전세계 지역에서 지상기준점을 추출하기 위해 드는 시간과 비용을 획기적으로 줄일 수 있을 것이다.Meanwhile, the United States currently provides Shuttle Radar Topography Mission (SRTM) Digital Elevation Model (DEM). The SRTM DEM provides numerical elevation data with a spatial resolution of 1 second (approximately 30 m) in the United States, and a numerical elevation with a spatial resolution of 3 seconds (approximately 90 m) in the world except the United States (latitude N60 degrees to S56 degrees). Provides data. If the digital elevation data can be used to correct the geometric distortion of the linear scanning image, the time and cost of extracting the ground reference point in the world will be significantly reduced.
본 발명은 상기와 같은 점을 감안하여 안출된 것으로서, 수치표고모델(DEM)로부터 제공되는 수치표고자료를 이용, 지상기준점을 자동으로 추출하여 영상의 각 영상좌표에 정확한 지상좌표를 부여하고, 기하 보정을 위한 시간 및 비용을 절약하며 지상좌표의 정확성을 향상시킬수 있는 선형 스캐닝 영상의 자동 영상기하 보정 방법을 제공하는데 그 목적이 있다. The present invention has been made in view of the above, by using the digital elevation data provided from the digital elevation model (DEM) to automatically extract the ground reference point to give the correct ground coordinates to each image coordinate of the image, The purpose of the present invention is to provide an automatic image geometry correction method for linearly scanned images, which saves time and costs for correction and improves the accuracy of terrestrial coordinates.
상기와 같은 목적을 달성하기 위한 본 발명의 선형스캐닝 영상의 자동 영상기하 보정 방법은,Automatic image geometry correction method of the linear scanning image of the present invention for achieving the above object,
(a) 같은 지표면을 촬영한 서로 다른 둘 이상의 영상과 상기 영상에 대한 보조자료를 추출하는 단계;(a) extracting two or more different images of the same ground surface and auxiliary data for the images;
(b) 상기 서로 다른 둘 이상의 영상으로부터 영상 매칭을 통해 대응점을 추출하는 단계; (b) extracting corresponding points through image matching from two or more different images;
(c) 상기 대응점과 상기 보조자료로부터 제 1 지상좌표 를 추출하는 단계; (c) a first ground coordinate from the correspondence point and the ancillary data; Extracting;
(d) 상기 제 1 지상좌표와 수치표고자료의 상관계수를 이용하여 제 2 지상좌표 를 추출하는 단계; (d) the second ground coordinate using the correlation coefficient between the first ground coordinate and the numerical elevation data; Extracting;
(e) 상기 제 2 지상좌표를 이용하여 상기 보조자료 중 촬영위치 및 자세를 개선하는 단계; (e) a photographing position of the auxiliary data using the second ground coordinates; And posture Improving the;
(f) 상기 제 2 지상좌표를 이용하여 영상의 각 영상좌표에 지상좌표를 부여함으로서 영상의 왜곡을 보정하는 외부표정을 수행하는 단계를 포함하여 이루어지는 것을 특징으로 한다.and (f) performing external coordinates to correct distortion of the image by assigning the ground coordinates to each image coordinate of the image using the second ground coordinates.
특히, 상기 (d) 단계는, In particular, step (d),
상기 제 1 지상좌표를 상기 수치표고자료가 지니는 좌표계로 변환하는 제 1 좌표변환 단계;A first coordinate conversion step of converting the first ground coordinates into a coordinate system having the numerical elevation data;
상기 변환된 제1 지상좌표와 상기 수치표고자료의 고도값을 이용하여 상관계수맵을 제작하는 단계;Producing a correlation coefficient map using the converted first ground coordinates and an elevation value of the numerical elevation data;
상기 제작된 상관계수맵에서 최대상관계수 위치를 결정하는 단계;Determining a maximum correlation coefficient position in the produced correlation coefficient map;
상기 최대상관계수 위치를 결정하는 단계에서 추출한 오차량을 보정하는 단계;Correcting the error amount extracted in the determining of the maximum correlation coefficient position;
상기 오차량이 보정된 좌표를 변환 이전의 좌표계로 역변환하는 제2 좌표변환 하는 단계를 포함하여 구성되는 것을 특징으로 한다.And a second coordinate transformation for inversely transforming the coordinate where the error amount is corrected into a coordinate system before transformation.
또한, 상기 (a) 단계의 보조자료는, 촬영기구의 위치, 속도정보, 촬영기구의 자세정보, 영상의 중심라인 촬영시간, 영상의 라인당 촬영시간, 촬영각 등에 대한 정보 등을 포함하는 것을 특징으로 한다.In addition, the auxiliary data of step (a) may include information about the position of the photographing apparatus, the speed information, the attitude information of the photographing apparatus, the photographing time of the center line of the image, the photographing time per line of the image, the photographing angle, and the like. It features.
또한, 상기 (b) 단계는, 서로 다른 영상에 대하여 상관계수를 계산하여 상관계수가 가장 높은 곳을 찾는 과정을 포함하는 것을 특징으로 한다.In addition, the step (b) is characterized by including the process of finding the highest correlation coefficient by calculating the correlation coefficient for different images.
상기 (e) 단계는,In step (e),
과 and
를 이용하여 오차관측각 ,을 계산하는 단계; Error observation angle using , Calculating;
상기 오차관측각을The error observation angle
과 and
에 대입하여 촬영위치오차와 자세오차를 계산하며, 상기 와 는 요각 오차 의 X와 Y성분, 는 촬영위치와 지상위치의 수직성분으로부터의 각도 (), Rx, Ry는 R은 촬영위치와 지상위치 사이의 거리의 X, Y 성분인 것을 특징으로 한다. Position error And posture error Calculate the above Wow Is the yaw error X and Y components of, Is the angle from the vertical component of the shooting position and the ground position ( ), Rx, Ry, R is characterized in that the X, Y components of the distance between the shooting position and the ground position.
또한, 상기 변환된 제1 지상좌표와 상기 수치표고자료의 고도값을 이용하여 상관계수맵을 제작하는 단계는,In addition, the step of producing a correlation coefficient map using the converted first ground coordinates and the altitude value of the numerical elevation data,
단계 (a)에서 추출된 보조자료의 정확도에 따라 오차의 최소값과 최대값을 설정하고, 오차의 간격을 설정한 후 상기 오차의 최소값부터 오차의 최대값까지 상기 오차의 간격으로 상관계수맵을 제작하는 것을 특징으로 한다.According to the accuracy of the auxiliary data extracted in step (a), the minimum and maximum values of the error are set, and the interval of the error is set, and then the correlation coefficient map is produced from the error interval from the minimum value of the error to the maximum value of the error. Characterized in that.
또한, SPOT 3 위성을 사용할 경우 최소 오차값은 -1500m로, 최대 오차값은 1500m로, 오차의 간격은 10m로 결정하는 것을 특징으로 한다.In addition, when the SPOT 3 satellite is used, the minimum error value is -1500m, the maximum error value is 1500m, and the error interval is determined as 10m.
또한, 상기 제작된 상관계수맵에서 최대상관계수 위치를 결정하는 단계는,In addition, determining the maximum correlation coefficient position in the produced correlation coefficient map,
상기 제작된 상관계수맵에서 최대값을 결정하는 단계;Determining a maximum value in the produced correlation coefficient map;
상기 상관계수가 최대인 위치로부터 X와 Y방향으로 픽셀이하(sub-pixel) 단위로 내삽을 수행하는 단계;Performing interpolation in sub-pixel units in the X and Y directions from a position where the correlation coefficient is maximum;
상기 내삽 수행을 통해 상관계수가 최대인 위치를 결정하는 단계;Determining a position where a correlation coefficient is maximum by performing the interpolation;
상기 결정을 이용하여 X방향의 오차()와 Y방향의 오차()를 결정하는 단계;Using this crystal, the error in the X direction ( ) And the error in the Y direction ( Determining;
상기 오차를 이용하여 수치표고자료에서 추출한 고도와 제 1 지상좌표의 고도를 이용하여 고도오차를 결정하는 단계를 포함하여 구성되는 것을 특징으로 한다.And determining an altitude error using the altitude extracted from the digital elevation data and the altitude of the first ground coordinate using the error.
또한, 상기 최대상관계수 위치를 결정하는 단계에서 추출한 오차량을 보정하는 단계는,In addition, the step of correcting the error amount extracted in the step of determining the maximum correlation coefficient position,
X방향의 오차, Y방향의 오차, 고도오차를 X와 Y방향에 따라 오차량을 다르게 보정하는 것을 특징으로 한다.The error amount in the X direction, the error in the Y direction, and the altitude error are differently corrected according to the X and Y directions.
또한, 상기 수치표고자료는 SRTM(Shuttle Radar Topography Mission) DEM(Digital Elevation Model)에서 제공되는 것을 특징으로 한다. In addition, the numerical elevation data is characterized in that provided in the Shuttle Radar Topography Mission (SRTM) Digital Elevation Model (DEM).
또한, 상기 제 1 지상좌표를 상기 수치표고자료가 지니는 좌표계로 변환하는 제 1 좌표변환 단계는,In addition, the first coordinate transformation step of converting the first ground coordinates into a coordinate system of the numerical elevation data,
STRM DEM에서 제공되는 수치표고자료를 사용할 경우 주어진 좌표를 경위도 좌표로 변환하는 것을 특징으로 한다.When using the numerical elevation data provided by STRM DEM, it is characterized by converting given coordinates to longitude coordinates.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들의 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. A singular expression includes a plural expression unless the context clearly indicates otherwise. In this application, the terms "comprise" or "having" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other It is to be understood that the present invention does not exclude the possibility of the presence or the addition of features, numbers, steps, operations, components, parts, or a combination thereof.
이하 첨부된 도면을 참고하여 본 발명을 보다 상세하게 설명한다.Hereinafter, the present invention will be described in more detail with reference to the accompanying drawings.
도 1은 본 발명에 따른 선형스캐닝 영상의 자동 기하 보정을 수행하는 과정을 나타내는 순서도이다. 1 is a flowchart illustrating a process of performing automatic geometric correction of a linear scanning image according to the present invention.
지표면을 촬영한 둘 이상의 영상과 상기 영상에 대한 보조자료를 추출한 다음(10), 이러한 영상으로부터 영상 매칭을 통해 대응점을 추출하고(20), 상기 대응점과 상기 보조자료로부터 제 1 지상좌표 를 추출하며(30), 상기 제 1 지상좌표와 수치표고자료의 상관계수(50)를 이용하여 제 2 지상좌표 를 추출(40)한다. 이후 상기 제 2 지상좌표를 이용하여 상기 보조자료 중 촬영위치 및 자세를 개선(60)하고, 상기 제 2 지상좌표를 이용하여 영상의 각 영상좌표에 지상좌표를 부여함으로서 영상의 왜곡을 보정하는 외부표정 을 수행(70)한다.After extracting two or more images of the ground surface and auxiliary data for the images (10), and extracting the corresponding points through image matching from these images (20), the first ground coordinates from the corresponding points and the auxiliary data (30), the second ground coordinates using the correlation coefficient (50) of the first ground coordinates and the numerical
이하, 첨부도면을 참조하여 각 단계에 대하여 보다 상세하게 설명한다.Hereinafter, each step will be described in more detail with reference to the accompanying drawings.
상기 영상 및 보조자료 추출 단계(10)는, 동일지역을 촬영한 입체영상(stereo image)을 추출하고, 각 영상에 대한 보조자료를 추출한다. The image and auxiliary
여기서 입체영상이란 초입체시 효과를 이용하여 동일지역을 입체로 볼 수 있도록 하는 영상쌍이며, 보조자료는 촬영기구의 위치와 속도정보, 촬영기구의 자세정보, 영상의 중심라인 촬영시간, 영상의 라인당 촬영시간, 촬영각 등에 대한 정보이다. 본 발명에 따른 자동 기하 보정을 수행하기 위해서는 동일 지역을 촬영한 두 개 이상의 영상 및 이에 대한 보조자료를 추출해야 한다.Here, the stereoscopic image is a pair of images that allows to see the same area in three dimensions by using the super-stereoscopic effect, and the auxiliary data includes the position and speed information of the shooting device, the attitude information of the shooting device, the recording time of the center line of the image, Information on shooting time, shooting angle, etc. per line. In order to perform the automatic geometric correction according to the present invention, it is necessary to extract two or more images photographing the same region and auxiliary data thereof.
상기 대응점 추출 단계(20)는 상기 입력된 영상에서 서로 대응하는 동일점을 찾는 단계이다. 여기서 대응점이란 서로 다른 영상에서 동일한 위치를 나타내는 점이다. 대응점의 추출은 서로 다른 영상에 대하여 상관계수를 계산하여 상관계수가 가장 높은 곳을 찾는 과정을 요구한다. 한 영상을 기준영상으로 선택하고, 상기 선택한 영상에서 밝기값의 변화가 상대적으로 큰 점을 선택한다. 상기 선택된 점으로부터 의 윈도우 크기가 되도록 영상패치를 제작한 후, 다른 영상의 의 영역에서 영상패치와의 상관계수를 계산한다. 상기에 계산된 상관계수 중 이 값이 가장 높은값을 지니는 위치를 대응점으로 선택한다. 이러한 과정은 수치사진측량 분야에서 일반적으로 사용되는 당업자에게 널리 알려진 과정이다.The corresponding
상기 제 1지상좌표 추출 단계(30)는 상기에서 추출한 보조자료와 상기 대 응점 추출 단계(20)에서 추출한 대응점으로부터 제 1지상좌표를 추출하는 단계이다. 제 1지상좌표의 추출은 한국특허 출원번호 제10-2006-26655호 "LOS벡터 조정 모델을 이용한 영상의 기하보정 방법 및 그 장치"의 LOS 벡터 조정 모델을 통하여 이루어진다. The first ground coordinate
상기 LOS 벡터 조정 모델은 하기의 수학식 1과 2와 같이 표현된다.The LOS vector adjustment model is represented by
여기서, 는 과 의 단위를 지상에서의 거리로 환산하기 위하여 사용한 변수이고, 영상점는 영상좌표로 정의되며, 이 영상점에 대한 지상점은 지심좌표계(Earth-Centered Earth-Fixed Coordinate System; ECEF)로 정의된다. 와 는 지상점과 촬영위치 사이의 벡터에 의해서 정의되는 제 1 관측각이며, 이 각은 영상의 라인 방향에 대하여 정의된다. 또한, 와 는 보조자료에서 제공하는 제 2 관측각으로, 선형 스캐닝 영상의 경우 영상의 픽셀 방향으로 정의되고, 와 는 상기 제1 관측각과 제 2 관측각이 다르기 때문에 발생하는 오차 관측각으로 영상의 라인과 픽셀에 대한 함수로 정의된다. here, Is and It is a variable used to convert the unit of to distance from the ground, and the image point Is defined as the image coordinate, and the ground point for this image point. Is defined as the Earth-Centered Earth-Fixed Coordinate System (ECEF). Wow Ground point And location The first observation angle, defined by the vector in between, which is the line of the image It is defined with respect to the direction. Also, Wow Is the second observation angle provided by the supplementary data, and in the case of a linear scanning image, the pixel of the image. Direction, Wow Is an error observation angle generated because the first observation angle and the second observation angle are different, and are defined as a function of lines and pixels of the image.
와 는 지상점, 촬영위치 및 촬영자세에 의하여 하기와 같이 정의된다. Wow Is defined as follows by the ground point, the photographing position and the photographing posture.
여기서, 는 지구중심에서 촬영위치까지의 거리를 나타내며, , , 는 회전행렬 의 요소이고, , 와 는 회전행렬 의 요소이다. here, Indicates the distance from the center of the earth to the shooting location, , , Rotation matrix Is an element of , Wow Rotation matrix It is an element of.
상기 두 회전행렬은 하기 수학식 5와 6에 의해서 정의된다.The two rotation matrices are defined by
여기서, 는 행렬 의 전치행렬이고, 는 국지궤도 표계(Local Orbital Coordinate System)를 자세좌표계(Attitude Coordinate System)로 변환하는 회전행렬이며, 는 국지궤도 좌표계를 지심좌표계로 변환하는 회전행렬이다. 보다 자세한 사항은 출원번호 제10-2006-26655호 "LOS벡터 조정 모델을 이용한 영상의 기하보정 방법 및 그 장치"를 참조한다.here, Is a matrix Transpose of, Is a rotation matrix that converts the Local Orbital Coordinate System into an Attitude Coordinate System, Is a rotation matrix that transforms a local orbit coordinate system into a center coordinate system. For more details, refer to Patent Application No. 10-2006-26655, "Geometric Correction Method and Apparatus for Image Using LOS Vector Adjustment Model".
수학식 1과 수학식 2에서 오차관측각 와 를 0으로 가정하고, 대응점에 대하여 입체영상으로부터 제 1지상좌표를 추출한다.Error Observation Angle in
개 이상의 영상에서 지상점의 결정은 지상점의 초기치 (,,)로부터 하기의 수학식에 의하여 계산할 수 있다. 상기 지상점의 초기치는 보조자료로부터 추출할 수 있다. 이러한 과정은 수치사진측량분야에서 일반적으로 사용되고 있는 방법이다. In more than one image, the ground point is determined by the initial value of ground point ( , , Can be calculated by the following equation. The initial value of the ground point may be extracted from auxiliary data. This process is a commonly used method in the field of digital photogrammetry.
여기서 는 잔차벡터이고, 는 크기의 , 와 에 대한 편미분 계수 행렬로 다음과 같이 정의한다.here Is the residual vector, Is Size , Wow The partial derivative coefficient matrix for is defined as
벡터 은 크기를 지니는 , 와 의 근사값에 대한 보정량 벡터로 하기 수학식 9에 의해서 정의된다.vector silver Sized , Wow A correction amount vector for an approximation of is defined by the following equation (9).
벡터 는 관측치과 계산치간의 차이량 벡터로 하기 수학식 10과 같다.vector Is the difference vector between the observed value and the calculated value.
상기와 같이 구성된 행렬로부터 , 와 의 근사치에 대한 보정량은 하기의 행렬식으로 구한다.From the matrix constructed as above , Wow The correction amount for the approximation of is obtained by the following determinant.
구해진 보정량은 초기치에 합산한 후, 합산한 값을 이용하여 다시 수학식 7에 대입하여 보정량을 구한다. 이러한 과정은 하기 수학식 12와 같이 될 때까지 계속한다. The obtained correction amount is added to the initial value, and then substituted into
실험에 의하면 이러한 과정은 대개 4회이하의 반복을 요구하며, 은 일반적으로 정도를 이용한다.Experiments have shown that this process usually requires fewer than four repetitions, Is generally Use degree.
상기 과정을 통하여 결정된 제 1 지상좌표는 불완전한 보조정보에 의하여 오차를 지니게 된다. 비록 제 1 지상좌표와 원 지상좌표의 차이가 크더라도 이 오차는 대응점에서 일정한 차이를 보인다. First ground coordinate determined through the above process Has an error due to incomplete auxiliary information. 1st ground coordinate And circle ground coordinates Although the difference is large, this error shows a constant difference at the corresponding point.
도면 2는 35개의 대응점에 대하여 선형 스캐닝 영상인 SPOT 3 영상으로부터 계산한 제 1지상좌표의 오차의 일실시예를 나타내는 그래프이다. 결과는 제 1 지상좌표가 X, Y와 Z 방향에 대하여 각각-532m, -473m 및 -153m로 매우 큰 오차를 지니지만, 분산은 각각 4.41m, 7.14m 및 8.99m로 거의 일정한 차이를 보였다. 이를 통해 제 1 지상좌표가 원지상좌표와 일정한 차이를 보이는 것을 알 수 있다.FIG. 2 is a graph illustrating an embodiment of an error of first ground coordinates calculated from a SPOT 3 image, which is a linear scanning image, for 35 corresponding points. The results showed that the first ground coordinates had very large errors of -532m, -473m, and -153m in the X, Y, and Z directions, respectively, but the variance was almost constant at 4.41m, 7.14m, and 8.99m, respectively. Through this, it can be seen that the first ground coordinates have a certain difference from the original coordinates.
상기 제 2 지상좌표 추출 단계(40)는 상기에서 결정된 제 1지상좌표와 기 제작된 수치표고자료간의 상관계수맵을 구하여 제 2 지상좌표 를 추출하는 단계이다. 본 단계는 제 1 지상좌표가 원 지상좌표와 차이가 크더라도 그 차이는 일정하다는 것에 근거하여 진행된다.The second ground coordinate
이하 첨부한 도면을 참조하여 제 2 지상좌표 추출방법에 대하여 설명한다.Hereinafter, a method of extracting a second ground coordinate will be described with reference to the accompanying drawings.
도 3은 본 발명에 따른 제 2 지상좌표 추출 방법의 절차 흐름을 나타내는 도면이다. 3 is a flowchart illustrating a procedure flow of a method of extracting a second terrestrial coordinate according to the present invention.
상기 제 1 좌표변환(41)은 상기에서 추출된 제 1 지상좌표를 수치표고자 료(50)가 지니는 좌표계로 변환하는 단계이다. 일 실시예로서, 전세계에 걸쳐 제공되고 있는 수치표고자료인 SRTM DEM의 경우, 경위도좌표계(geodetic coordinate system)로 제공되고 있다. 상기 SRTM DEM을 이용하는 경우, 지심좌표계로 주어진 제 1 지상좌표를 경위도 좌표로 변환한다.The first coordinate
상기 상관계수맵 제작(42)은 상기 수치표고자료의 좌표계로 변환된 제 1 지상좌표의 고도값과 수치표고자료의 고도값으로부터 상관계수를 계산하여 상관계수맵을 제작하는 단계이다. The correlation
상기 제 1 좌표변환(41)에 의하여 변환된 제 1 지상좌표를 라 한다. 상술한 바와 같이 제 1 지상좌표는 원 지상좌표와 일정한 차이를 지니고 있다. 그러므로 변환된 제 1 지상좌표는 수치표고자료와 (경도)방향, (위도)방향 및 (고도)방향으로 일정한 오차를 지닌다. 변환된 제 1 지상좌표의 수평좌표에 해당하는 고도를 수치표고자료로부터 추출한다. 만약 제 1 지상좌표의 수평좌표가 원 지상좌표의 수평좌표와 다르다면 각 대응점에서 상기 수치표고자료로부터 추출된 고도와 변환된 제 1 지상좌표의 고도()의 차이는 일정하지 못하게 된다. 이는 원 지상좌표의 수평좌표가 아닌 곳에서 고도를 추출하였기 때문에 변환된 제 1 지상좌표의 고도()와는 다른 값을 지니게 되고, 각 대응점에 대해서 일정한 오차를 지니지 못하기 때문이다. 그러나 변환된 제 1 지상좌표의 수평좌표에 일정한 오차가 더해진 좌표 가 원 지상좌표와 동일하다면 이때에 수치표고자료에서 고도를 추출하였다면, 이 고도는 분명 변환된 제 1 지상좌표의 고도()와 일정한 오차를 지닐 것이다. 여기서, 일정한 오차를 지닌다는 것은 변환된 제 1 지상좌표의 고도()와 수치표고자료에서 추출된 고도가 모든 대응점에 대해 서로 동일한 차이를 보인다는 것이고, 이는 바로 상관계수가 높다는 것을 의미한다. The first ground coordinate converted by the first coordinate
먼저, 상기에서 추출된 보조자료의 정확도에 따라 오차의 최소값과 최대값을 설정하고, 오차의 간격을 설정한다. 본 발명의 일 실시예로서 SPOT 3 위성을 사용할 경우 일반적으로 500m에서 1000m의 오차를 지니므로 최악의 경우를 고려하여 X방향의 최소오차()와 Y방향의 최소오차()를 -1500m로, 그리고 X방향의 최대오차()와 Y방향의 최대오차()를 1500m로 결정한다. 또한 SPOT 3 위성의 공간해상도는 10m이므로 오차의 간격은 10m로 결정한다.First, the minimum and maximum values of the error are set according to the accuracy of the extracted auxiliary data, and the error interval is set. As an embodiment of the present invention, since the SPOT 3 satellite generally has an error of 500 m to 1000 m, the minimum error in the X direction in consideration of the worst case ( ) And the minimum error in the Y direction ( ) To -1500m and the maximum error in the X direction ( ) And the maximum error in the Y direction ( ) Is 1500m. In addition, the spatial resolution of the SPOT 3 satellite is 10m, so the error interval is determined to be 10m.
상기 결정된 최소오차에서부터 최대오차까지 오차간격으로 상관계수맵을 제작한다. 상기 대응점 추출 단계(20)에서 추출한 모든 대응점에 대하여 변환된 제 1지상좌표의 수평좌표에 오차를 더한 수평좌표를 계산한 후, 상기 수평좌표에 해당하는 고도를 수치표고자료에서 추출하고, 상기 수치표고자료에서 추출된 고도와 제 1 지상좌표의 고도()의 상관계수를 형성한다. 이 상관계수는 X와 Y방향으로의 최소오차에서 최대오차까지 오차간격으로 계산되어 2차원의 상관계수맵을 계산한다. A correlation coefficient map is produced at an error interval from the determined minimum error to the maximum error. Horizontal coordinates obtained by adding an error to the horizontal coordinates of the first ground coordinates converted for all the corresponding points extracted in the corresponding
도면 4는 선형 스캐닝 위성영상인 SPOT 3 위성을 이용하여 계산한 상관계수맵의 일실시예이다. 도면에서 보는 바와 같이 상관계수 맵은 원 지상좌표에 가까울수록 높은 상관계수를 지녔고, 최대 상관계수는 0.991이었다.4 is an embodiment of a correlation coefficient map calculated using a SPOT 3 satellite, which is a linear scanning satellite image. As shown in the figure, the correlation coefficient map had a higher correlation coefficient closer to the original ground coordinate, and the maximum correlation coefficient was 0.991.
상기 최대상관계수 위치결정(43)은 상기 제작된 상관계수맵에서 최대값을 결정하고, 상기 상관계수가 최대인 위치로부터 X와 Y방향으로 픽셀이하(sub-pixel) 단위로 내삽을 수행하여 더욱 정확하게 상관계수가 최대인 위치를 결정하고, X방향의 오차()와 Y방향의 오차()를 결정한다. 상기와 같이 결정된 수평좌표 로부터 수치표고자료에서 추출한 고도와 제 1 지상좌표의 고도()를 이용하여 고도오차()를 결정한다.The maximum correlation coefficient positioning 43 determines a maximum value in the produced correlation coefficient map, and further interpolates in sub-pixel units in the X and Y directions from the position where the correlation coefficient is maximum. Accurately determine the position where the correlation coefficient is maximum, and determine the error in the X direction ( ) And the error in the Y direction ( Is determined. Horizontal coordinates determined as above Altitude extracted from digital elevation data and altitude of first ground coordinate ( ) Using the altitude error ( Is determined.
도면 5는 선형 스캐닝 위성영상인 SPOT 3위성을 이용하여 상관계수 맵의 최대값을 지닌 위치를 내삽한 일 실시예이다. 이때 스플라인(spline)보간법을 사용하여 0.05 픽셀로 내삽하였다. FIG. 5 is an embodiment in which a position having a maximum value of a correlation coefficient map is interpolated by using a SPOT triad that is a linear scanning satellite image. The interpolation was performed at 0.05 pixels using spline interpolation.
이로부터 결정된 X방향의 오차()는 -847.5m이었으며, Y방향의 오차()는 92.5m이었고, 고도오차()는 163.62m이었다.The error in the X direction determined from this ( ) Was -847.5 m, and the error in the Y direction ( ) Was 92.5m and the altitude error ( ) Was 163.62 m.
상기 오차량 보정(44)은 상기 최대상관계수 위치 결정 단계(43)에서 추출한 X방향의 오차(), Y방향의 오차() 및 고도오차()를 X와 Y방향에 따라 오차량을 다르게 보정하는 것이다. 상기 최대상관계수 위치 결정 단계(43)에서 추출한 오차는 X와 Y 방향으로의 평균오차이다. 하지만, 이들 오차는 수평방향(X, Y)에 대해 그 오차량이 다르다. The
도면 6은 선형 스캐닝 위성영상인 SPOT 3 위성에 대하여 X와 Y에 대한 Y방향 오차() 분포의 일례를 보인다. 상기 도면에서 볼 수 있듯이 Y방향으로의 오차()는 X와 Y에 대하여 오차량이 변한다는 것을 알 수 있다. 상기와 같은 이유는 영상에서 각 픽셀들이 다른 관측각을 지니기 때문에 발생하는 것으로 이를 보정하지 않으면, 절대적인 오차는 크지 않을지 모르나, X와 Y 방향을 따라 오차가 전파되는 양상을 지니게 된다. 6 shows the Y-direction error of X and Y for the SPOT 3 satellite, which is a linear scanning satellite image. ) Shows an example of distribution. As can be seen in the drawing, the error in the Y direction ( It can be seen that the error amount changes for X and Y. The reason for this is that each pixel in the image has a different viewing angle. If not corrected, the absolute error may not be large, but the error propagates along the X and Y directions.
이를 보정하기 위하여 상기 상관계수맵 제작 단계(42)에서 모든 대응점을 이용하여 상관계수맵을 제작한 것과 달리 대응점을 도면 7과 같이 X와 Y방향에 대하여 여러 개의 구획으로 나누어 각각에 대한 , 및 를 계산한다. 각 구획별로 결정된 오차량을 통하여 X와 Y방향에 따라 다른 오차량을 적용한다. 이 과정은 상기 상관계수맵 제작 단계(42)와 최대상관계수 위치결정 단계(43)에서 추출한 오차의 정확도에 따라 오차의 최소값과 최대값을 설정하고, 오차의 간격을 설정한다. In order to correct this, unlike the correlation coefficient map using all the corresponding points in the correlation coefficient
일 실시예로 SPOT 3 위성에 대하여 상관계수맵 제작 단계(42)와 최대상관계수 위치결정 단계(43)에서 추출한 오차의 정확도는 30m 이내였기 때문에 X방향의 최소오차()와 Y방향의 최소오차()를 -20m로, 그리고 X방향의 최대오차()와 Y방향의 최대오차()를 20m로 결정할 수 있고, 원하는 정확도에 따라 오차의 간격을 결정할 수 있다. 본 실시예 에서는 2m로 결정하였다.As an example, the accuracy of the error extracted in the correlation coefficient
상기 제 2 좌표변환(45)은 상기 오차량 보정 단계(44)에서 X와 Y방향으로 의 오차가 보정된 X방향의 오차(), Y방향의 오차() 및 고도오차()를 변환된 제 1 지상좌표에 추가하여 오차를 보정한 지상좌표 를 지심좌표계로 변환하는 단계이다. 지심좌표로 변환된 좌표는 제 2 지상좌표가 된다. 선형 스캐닝 위성영상인 SPOT 3위성을 이용한 실시예에서 제 2 지상좌표는 제 1지상좌표와 X, Y와 Z 방향에 대하여 각각 평균 -527m, -470m 및 -159m의 오차가 보정되었다. 이는 제 1지상좌표와 원 지상좌표의 평균오차와 거의 동일한 값이다. The second coordinate
도면 8은 선형 스캐닝 위성영상인 SPOT 3위성을 이용하여 결정한 제 2 지상좌표와 원 지상좌표와의 차이를 나타낸 도면으로 제 2 지상좌표가 20m이내의 오차를 지니는 것을 알 수 있다. 특히 제 2 지상좌표의 오차(RMSE)는 모든 방향에서 8m이하로 나타났다. 이는 사용한 영상의 공간해상도가 10m이고, 사용한 수치표고자료의 공간해상도가 90m임을 감안할 때 매우 정확한 결과이다. 제 2 지상좌표의 정밀도는 사용되는 수치표고자료의 공간해상도와 정확도에 따라 그리고 사용한 영상의 공간해상도에 따라 달라진다.FIG. 8 is a diagram illustrating the difference between the second ground coordinate and the original ground coordinate determined using the SPOT 3 satellite, which is a linear scanning satellite image, and it can be seen that the second ground coordinate has an error within 20 m. In particular, the second ground coordinate error (RMSE) was less than 8m in all directions. This is a very accurate result considering that the spatial resolution of the used image is 10m and the spatial resolution of the used digital elevation data is 90m. The precision of the second ground coordinates depends on the spatial resolution and accuracy of the numerical elevation data used and on the spatial resolution of the image used.
이하, 촬영 위치 및 자세를 보정하는 방법에 대하여 첨부도면을 참조하여 설명한다.Hereinafter, a method of correcting a photographing position and posture will be described with reference to the accompanying drawings.
상기 촬영위치 및 자세 개선 단계(60)는 상기 제2 지상좌표 추출(40) 단계에서 계산된 제 2 지상좌표를 이용하여 상기 영상 및 보조자료 추출 단계(10)의 보조자료 중 촬영위치 및 자세를 개선하는 단계이다. The photographing position and
본 발명에서는 오차 관측각을 보정하기 전에 촬영위치 및 자세를 우선적으로 보정하여 촬영위치의 정밀도와 관계없이 적용할 수 있는 방법을 제시한다.The present invention proposes a method which can be applied regardless of the accuracy of the photographing position by first correcting the photographing position and posture before correcting the error observation angle.
도면 9로부터 수학식 1과 2에 정의된 오차관측각()은 촬영위치오차에 의한 위치오차관측각()와 자세각의 오차에 의한 자세오차관측각()에 의해서 하기의 수학식 13과 14와 같이 표현할 수 있다.Error observation angles defined in
여기서 와 는 각각 의 X와 Y방향성분이고, 와 는 각각 의 X와 Y방향성분이다. here Wow Are each In the X and Y directions, Wow Are each Are the X and Y direction components.
도면 9로부터 위치오차관측각()은 사인의 법칙에 따라 하기의 수학식 15로 표현할 수 있다.Position error observation angle ( ) Can be expressed by
여기서, 는 원래의 촬영위치와 보조자료에 제공된 촬영위치사이의 거리이며, 는 와 의 수평성분사이의 각이고, 은 보조자료에 제공된 촬영위치와 지상위치사이의 거리이다.here, Is the distance between the original shooting position and the shooting position provided in the auxiliary material, Is Wow Is the angle between the horizontal components of Is the distance between the shooting position and the ground position provided in the ancillary data.
는 0에 가깝기 때문에 수학식 15는 하기 수학식 16과 같이 근사화 될 수 있다. Since E is close to 0,
그러므로 의 X와 Y 성분(,)은 하기의 수학식 17과 수학식 18과 같이 정의된다.therefore X and Y components of , ) Is defined as in Equations 17 and 18 below.
여기서, 와 는 의 X와 Y성분이고, 와 는 의 X와 Y성분이며, 와 는 의 X와 Y성분이다. here, Wow Is Are the X and Y components of Wow Is Are the X and Y components of Wow Is X and Y components of.
도면 10으로부터 촬영위치오차를 이용하면, 하기의 수학식 19와 수학식 20과 같이 정의된다.Location Error from Drawing 10 By using Equation 19, Equation 19 and
또한, 자세오차관측각()의 X와 Y 성분(,)은 자세오차를 이용하여 하기 수학식 21과 수학식 22와 같이 정의된다.Also, posture error measurement angle ( X and Y components of) , ) Is a posture error By using Equation 21 and Equation 22 are defined.
여기서 와 는 피치각 오차와 롤각 오차이고, 와 는 요각 오차 의 X와 Y성분이다. 와 는 도면 11(ㄷ)으로부터 사인의 법칙을 이용하여 정의할 수 있다. 를 정의하기 위하여 사인의 법칙을 적용하면 하기의 수학식 23과 같이 정의된다.here Wow Is the pitch angle error and roll angle error, Wow Is the yaw error X and Y components of. Wow Can be defined using the law of sine from FIG. Applying the law of sine to define the equation is defined as in Equation 23 below.
여기서 이고, 는 위성의 고도이며, 는 지표면의 고도이다.here ego, Is the altitude of the satellite, Is the elevation of the earth's surface.
는 0에 가깝고, 와 는 와 근사적으로 같다. 그러므로 수학식 23은 하기 수학식 24와 같이 근사화될 수 있다. Is close to 0, Wow Is Is approximately equal to Therefore, Equation 23 may be approximated as Equation 24 below.
여기서 와 은 도면 11(ㄴ)으로부터 하기와 같이 정의된다.here Wow Is defined as follows from Fig. 11 (b).
결국 는 하기 수학식 27과 같이 근사화된다.finally Is approximated as in Equation 27 below.
또한 와 동일한 절차를 거쳐 하기 수학식 28과 같이 정의된다. Also It is defined as in Equation 28 through the same procedure as
결국 자세오차관측각()의 X와 Y 성분(,)은 자세오차를 이용하여 하기 수학식 29와 수학식 30과 같이 정의된다.Finally, posture error observation angle ( X and Y components of) , ) Is a posture error By using the equations (29) and (30) are defined as follows.
결국 촬영위치오차와 자세오차부터 결 정되는 오차관측각()은 하기 수학식 31과 수학식 32로 정의된다.Finally, shooting position error And posture error Error observation angle determined from ) Is defined by the following equation (31) and (32).
상기 제 2 지상좌표 추출 단계(40)에서 추출된 제 2 지상좌표를 상기 수학식 1과 수학식 2에 대입하여 각 제 2 지상좌표에 대한 X와 Y방향의 오차관측각 와 를 계산한다. 상기 계산된 오차관측각을 수학식 31과 수학식 32에 대입하여 촬영위치오차와 자세오차를 계산한다. 여기서 주의해야 할 점은 일반적으로 선형스캐닝 영상에서 와 를 구분할 수 없고, 와 를 구분할 수 없다는 것이다. 이와 같은 이유는 선형스캐닝 영상이 주로 비행방향의 수직으로 CCD를 배열하기 때문에 발생한다. 즉, 수학식 31과 수학식 32에서 값의 변화가 매우 작아 상수로 인식할 수 있기 때문이다. 그러나 일반적인 선형스캐닝 영상에서 와 에 비해 와 의 차이는 미미하기 때문에 와 으로 가정할 수 있 다. 결국 수학식 31와 수학식 32를 이용하여 로 가정하고, 촬영위치오차와 자세오차 중 를 개선한다. 만약, 선형스캐닝영상에서 와 의 변화가 상수로 인식할 수 없을 만큼 크다면, 모든 자세오차를 개선할 수 있다. Second ground coordinates extracted in the second ground coordinates
상기의 과정에 의해 보조자료의 촬영위치오차와 자세오차가 개선되면, 원 촬영위치와 촬영자세에 가까워지게 되고, 종래 기술에 의할 경우 발생하는 보조자료의 촬영위치 정밀도가 매우 낮은 경우에 기하보정의 정밀도가 매우 낮아지는 단점을 극복하게 된다.If the shooting position error and posture error of the auxiliary material is improved by the above process, the original shooting position and the shooting posture are closer to each other, and the geometric correction is performed when the accuracy of the shooting position of the auxiliary material generated by the prior art is very low. Overcomes the disadvantage of very low precision.
상기 외부표정수행 단계(70)는 상기 제2 지상좌표 추출 단계(40)의 제 2 지상좌표와 상기 촬영위치 및 자세 개선 단계(60)의 개선된 촬영위치와 촬영자세를 이용하여 오차관측각을 보정함으로서 영상의 각 영상좌표에 지상좌표를 부여하는 외부표정을 수행한다. The external
상기 수학식 1과 수학식 2의 오차 관측각()은 한국특허 출원번호 제10-2006-26655호 "LOS벡터 조정 모델을 이용한 영상의 기하보정 방법 및 그 장치"의 LOS 벡터 조정 모델에서 제안한 방법과 같이 하기의 수학식 33과 34에 의해서 계산할 수 있다.Error observation angles of
여기서 , , , , 및 은 지상기준점에 의해 보정되는 외부표정모델 계수이다. 일반적으로 과 을 사용하는 것이 바람직하다. 즉, 선형스캐닝 영상의 라인방향()으로는 1차방정식을 픽셀방향()으로는 2차방정식을 사용하는 것이 바람직하다. 픽셀방향()에 2차방정식을 사용하는 것이 바람직한 이유는 영상의 픽셀방향에 따라 변하는 관측각 와 의 변화가 2차 방정식에 근사하기 때문이다. here , , , , And Is the external expression model coefficient corrected by the ground reference point. Generally and Preference is given to using. That is, the line direction of the linear scanning image ( ) Gives the first equation in the pixel direction ( It is preferable to use a quadratic equation as). Pixel direction ( It is preferable to use quadratic equations for the observation angle which varies with the pixel direction of the image. Wow This is because the change in is close to the quadratic equation.
이 단계를 거치면, 영상은 지상좌표에 대한 정보를 갖게 된다. 그리하여 이를 기초로 3차원 영상의 제작이 가능하고, 픽셀의 위치를 재구성하여 정사영상의 제작이 가능하고, 수치지형도, 수치표고자료 등의 제작이 가능하게 된다. After this step, the image has information about ground coordinates. Thus, it is possible to produce a 3D image based on this, to produce an orthoimage by reconstructing pixel positions, and to produce a digital topographical map, digital elevation data, and the like.
이상에서 본 발명을 설명함에 있어 첨부된 도면을 참조하여 특정 단계와 구성요소를 갖는 LOS벡터 조정을 통한 영상의 기하보정 방법 및 그 장치에 대해 설명하였으나 본 발명은 당업자에 의하여 다양한 변형 및 변경이 가능하고, 이러한 변 형 및 변경은 본 발명의 보호범위에 속하는 것으로 해석되어야 한다.In the above description of the present invention with reference to the accompanying drawings has been described a geometric correction method of the image by adjusting the LOS vector having a specific step and components and the device, but the present invention can be variously modified and changed by those skilled in the art And, such variations and modifications should be construed as falling within the protection scope of the present invention.
상기와 같은 본 발명 선형 스캐닝 영상의 자동 영상기하 보정 방법에 의하면, According to the automatic image geometry correction method of the linear scanning image of the present invention as described above,
첫째, 수치표고모델(DEM)로부터 지상기준점을 자동으로 추출하여 영상의 각 영상좌표에 정확한 지상좌표를 부여할 수 있고,First, the ground reference point can be automatically extracted from the digital elevation model (DEM) to assign accurate ground coordinates to each image coordinate of the image.
둘째, 영상기하보정에 소요되는 비용 및 시간을 획기적으로 감축할 수 있으며,Second, the cost and time required for image geometry correction can be significantly reduced.
셋째, 추출된 지상좌표의 정확도의 향상이 가능하고,Third, it is possible to improve the accuracy of the extracted ground coordinates,
넷째, 정사영상, 영상지도, 수치지형도 및 수치표고자료 제작의 작업공정 등이 단순화와 작업시간의 단축이 가능하다.Fourth, the orthogonal image, image map, digital topographic map, and work process of digital elevation data can be simplified and shorten working time.
Claims (13)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070054328A KR100870894B1 (en) | 2007-06-04 | 2007-06-04 | Method of automatic geometric correction for linear pushbroom image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070054328A KR100870894B1 (en) | 2007-06-04 | 2007-06-04 | Method of automatic geometric correction for linear pushbroom image |
Publications (1)
Publication Number | Publication Date |
---|---|
KR100870894B1 true KR100870894B1 (en) | 2008-11-28 |
Family
ID=40284855
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070054328A KR100870894B1 (en) | 2007-06-04 | 2007-06-04 | Method of automatic geometric correction for linear pushbroom image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100870894B1 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100912936B1 (en) | 2008-11-27 | 2009-08-20 | 삼아항업(주) | Modification system for digital elevation model producing image map and method therefor |
KR101258560B1 (en) | 2010-11-19 | 2013-04-26 | 새한항업(주) | Setting method of Ground Control Point by Aerial Triangulation |
KR101295747B1 (en) * | 2012-04-25 | 2013-08-20 | 서울시립대학교 산학협력단 | System of automatic geometric correction using rational polynomial cofficient and method thereof |
KR101469080B1 (en) * | 2014-07-25 | 2014-12-05 | 동아항업주식회사 | Producing apparatus of numerical map checking error |
KR101578825B1 (en) * | 2015-08-31 | 2015-12-21 | (주)동광지엔티 | 3d-aerial photographing image collection system able to adjusting a photographing direction of a camera by a point ofphotographing time |
CN116091546A (en) * | 2023-01-12 | 2023-05-09 | 北京航天飞行控制中心 | Observation construction method under push-broom mode of optical camera |
CN116091546B (en) * | 2023-01-12 | 2024-04-19 | 北京航天飞行控制中心 | Observation construction method under push-broom mode of optical camera |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20000058437A (en) * | 2000-05-23 | 2000-10-05 | 박용선 | Method of Manufacturing Map Using Satellite Image Data |
KR20010025089A (en) * | 1999-03-24 | 2001-03-26 | 가토 신이치 | Method and device for making map using photograph image and method for correcting distortion of photograph image |
KR20030036988A (en) * | 2001-11-01 | 2003-05-12 | 한국전자통신연구원 | Iterative Parameter Transform for Enhancing Matching Accuracy of Images |
KR20070037956A (en) * | 2005-10-04 | 2007-04-09 | 현대자동차주식회사 | Map updating method for navigation using image data of artificial satellite |
-
2007
- 2007-06-04 KR KR1020070054328A patent/KR100870894B1/en not_active IP Right Cessation
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20010025089A (en) * | 1999-03-24 | 2001-03-26 | 가토 신이치 | Method and device for making map using photograph image and method for correcting distortion of photograph image |
KR20000058437A (en) * | 2000-05-23 | 2000-10-05 | 박용선 | Method of Manufacturing Map Using Satellite Image Data |
KR20030036988A (en) * | 2001-11-01 | 2003-05-12 | 한국전자통신연구원 | Iterative Parameter Transform for Enhancing Matching Accuracy of Images |
KR20070037956A (en) * | 2005-10-04 | 2007-04-09 | 현대자동차주식회사 | Map updating method for navigation using image data of artificial satellite |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100912936B1 (en) | 2008-11-27 | 2009-08-20 | 삼아항업(주) | Modification system for digital elevation model producing image map and method therefor |
KR101258560B1 (en) | 2010-11-19 | 2013-04-26 | 새한항업(주) | Setting method of Ground Control Point by Aerial Triangulation |
KR101295747B1 (en) * | 2012-04-25 | 2013-08-20 | 서울시립대학교 산학협력단 | System of automatic geometric correction using rational polynomial cofficient and method thereof |
WO2013162207A1 (en) * | 2012-04-25 | 2013-10-31 | 서울시립대학교 산학협력단 | System and method for automatic geometric correction using rpc |
US9378585B2 (en) | 2012-04-25 | 2016-06-28 | University Of Seoul Industry Cooperation Foundation | System and method for automatic geometric correction using RPC |
KR101469080B1 (en) * | 2014-07-25 | 2014-12-05 | 동아항업주식회사 | Producing apparatus of numerical map checking error |
KR101578825B1 (en) * | 2015-08-31 | 2015-12-21 | (주)동광지엔티 | 3d-aerial photographing image collection system able to adjusting a photographing direction of a camera by a point ofphotographing time |
CN116091546A (en) * | 2023-01-12 | 2023-05-09 | 北京航天飞行控制中心 | Observation construction method under push-broom mode of optical camera |
CN116091546B (en) * | 2023-01-12 | 2024-04-19 | 北京航天飞行控制中心 | Observation construction method under push-broom mode of optical camera |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109903352B (en) | Method for making large-area seamless orthoimage of satellite remote sensing image | |
De Franchis et al. | An automatic and modular stereo pipeline for pushbroom images | |
JP4448187B2 (en) | Image geometric correction method and apparatus | |
US9378585B2 (en) | System and method for automatic geometric correction using RPC | |
KR101965965B1 (en) | A method of automatic geometric correction of digital elevation model made from satellite images and provided rpc | |
Xiong et al. | A generic method for RPC refinement using ground control information | |
CN111612693B (en) | Method for correcting rotary large-width optical satellite sensor | |
KR100870894B1 (en) | Method of automatic geometric correction for linear pushbroom image | |
KR100520275B1 (en) | Method for correcting geometry of pushbroom image using solidbody rotation model | |
KR100671504B1 (en) | Method for correcting of aerial photograph image using multi photograph image | |
KR100373615B1 (en) | Method and device for making map using photograph image and method for correcting distortion of photograph image | |
CN110986888A (en) | Aerial photography integrated method | |
JP6345339B2 (en) | Image correction apparatus and image correction method | |
CN111508028A (en) | Autonomous in-orbit geometric calibration method and system for optical stereo mapping satellite camera | |
Jacobsen | Orientation of high resolution optical space images | |
CN111156969A (en) | Wide remote sensing image stereo mapping method and system | |
KR100671497B1 (en) | Method for correcting photograph image using distortion correction and distortion compensation | |
Goncalves et al. | Accuracy analysis of DEMs derived from ASTER imagery | |
CN116385554A (en) | Coastal sea area water depth mapping method based on double unmanned aerial vehicle video stitching | |
Jacobsen | Calibration of optical satellite sensors | |
KR101663642B1 (en) | Method and Apparatus for constructing Whiskbroom Sensor Model Using Direct Georeferencing and Adjustable Parameter | |
Cao et al. | Nonlinear Systematic Distortions Compensation in Satellite Images Based on an Equivalent Geometric Sensor Model Recovered From RPCs | |
CHENG et al. | Range-coplanarity equation for radar geometric imaging | |
Reinartz et al. | Accuracy analysis for DEM and orthoimages derived from SPOT HRS stereo data without using GCP | |
KR100473958B1 (en) | Method for Updating Rational Polynomial Coefficient Data of High Accurate Using GPS Single Control Point |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20121108 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20131016 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20150421 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20160105 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20161116 Year of fee payment: 9 |
|
LAPS | Lapse due to unpaid annual fee |