KR20180024809A - Image geometric correction methods and apparatus for the same - Google Patents

Image geometric correction methods and apparatus for the same Download PDF

Info

Publication number
KR20180024809A
KR20180024809A KR1020160111695A KR20160111695A KR20180024809A KR 20180024809 A KR20180024809 A KR 20180024809A KR 1020160111695 A KR1020160111695 A KR 1020160111695A KR 20160111695 A KR20160111695 A KR 20160111695A KR 20180024809 A KR20180024809 A KR 20180024809A
Authority
KR
South Korea
Prior art keywords
image
pixel
map coordinate
satellite
coordinate system
Prior art date
Application number
KR1020160111695A
Other languages
Korean (ko)
Other versions
KR101850819B1 (en
Inventor
허성식
용기력
최재동
이상률
Original Assignee
한국항공우주연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국항공우주연구원 filed Critical 한국항공우주연구원
Priority to KR1020160111695A priority Critical patent/KR101850819B1/en
Publication of KR20180024809A publication Critical patent/KR20180024809A/en
Application granted granted Critical
Publication of KR101850819B1 publication Critical patent/KR101850819B1/en

Links

Images

Classifications

    • G06T5/80
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/0012Context preserving transformation, e.g. by using an importance map
    • G06T3/04
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)

Abstract

According to a variety of embodiments of the present invention, an image geometric correction method is disclosed. According to the present invention, the method comprises the following steps of: receiving posture information of a satellite and a first image from the satellite; generating grids at a predetermined interval in the first image and extracting a first pixel which is a pixel of the first image located at grid points on the grids; detecting a common feature point between the first image and a second image; generating reference coordinates of a map coordinate system based on the posture information and the feature point; and estimating a map coordinate point, which is a coordinate point of the map coordinate system corresponding to the first pixel, based on the reference coordinates and performing geometric correction on the first image based on the estimated map coordinate point. Therefore, the method can perform accurate image geometric correction.

Description

영상 기하 보정 방법 및 이를 위한 장치{Image geometric correction methods and apparatus for the same}[0001] Image geometry correction methods and apparatus for the same [0002]

본 발명의 실시예들은 인공 위성의 영상 기하 보정 방법 및 이를 위한 장치에 관한 것이다.Embodiments of the present invention relate to a method and apparatus for image geometry correction of a satellite.

인공 위성은 발사체에 탑재되어 지구에서 발사되며, 발사체와 분리된 후 목표궤도에 진입할 때까지 위성 자체의 추진시스템을 작동시키고, 목표궤도에 진입한 후에는 추진시스템의 작동 없이도 관성으로만 지구 둘레를 계속해서 비행할 수 있다. 인공 위성은 적도 궤도 위성(이하, 정지 궤도 위성), 극궤도 위성, 경사궤도 위성 등이 있으며, 공전하는 궤도에 따라 인공 위성의 목적이 달라진다. 인공 위성은 통신, 지구 관측, 기상, 항행 및 측위, 우주과학 연구 등과 같은 임무에 따라 지구 상의 원하는 지표면을 촬영할 수 있고, 촬영된 영상은 지구의 지상국에 전송할 수 있다.The satellite is mounted on the launch vehicle and is launched from the earth. After separating from the launch vehicle, the propulsion system of the satellite itself is operated until it enters the target track, and after entering the target track, Can continue to fly. The satellites include equatorial orbiting satellites, polar orbiting satellites, and tilted orbit satellites, and the purpose of the satellites varies depending on the orbit. A satellite can take a desired surface on the earth according to its mission such as communication, earth observation, weather, navigation and positioning, space science research, etc., and the shot image can be transmitted to earth's ground station.

인공위성에서 수집하여 지상국에 전송된 영상데이터들은 위성의 위치와 자세의 변화, 위성의 속도 변화, 주사범위와 주사경의 회전속도 변화, 지구자전, 지도투영법 등의 원인으로 인하여 기하학적으로 왜곡되어 있다. 즉, 지상국에 전송된 영상은 영상의 절대위치에 차이를 나타내는 기하학적 휘어짐이 있으며, 이러한 기하학적 휘어짐은 영상 내 각 점의 위치 변동을 의미하며, 이렇게 휘어진 영상을 평면 위에 존재하는 기존의 지형도와 중첩시키기 위해서는 인공위성 영상에 나타나는 각 점의 위치를 지형도와 같은 크기와 투영값을 갖도록 변환해 주는 과정이 반드시 필요하다. 이와 같은 변환 과정을 기하 보정(Geometric Correction)이라고 하며, 이러한 과정을 거쳐야만 우리가 지도를 통해 흔히 보는 형태의 안정된 영상을 얻어낼 수 있게 된다.Image data collected from satellites and transmitted to ground stations are geometrically distorted due to changes in position and attitude of the satellite, velocity change of the satellite, rotation speed change of the scan range and scan line, earth rotation, map projection, In other words, the image transmitted to the ground station has a geometric warp, which indicates the difference in the absolute position of the image. This geometric warp means the position variation of each point in the image, and superimposes the warped image with the existing topographic map existing on the plane It is necessary to transform the position of each point appearing in the satellite image to have the same size and projection value as the topographic map. Such a transformation process is called geometric correction, and it is only through this process that we can obtain a stable image of the type commonly seen through the map.

영상 자료를 기상, 해양 등의 다른 위성 자료와 대응시키는 경우, 데이터 베이스를 구축하는 경우, 영상 분류 후 면적 등의 계량적 통계량을 산출하는 경우, 인접한 영상과 모자이킹하는 경우, 지도 제작 등의 작업을 수행하는 경우에 이러한 기하학적 왜곡의 보정작업이 필수적이다. 영상에서 이러한 왜곡을 제거하는 작업을 기하 보정이라 한다. 저궤도 위성의 경우는 영상의 주요 촬영 목적이 특정 지역에 대한 정밀한 영상 제공이기 때문에 영상의 가공 및 제공 시간이 엄격한 실시간일 필요가 없으므로 사용자가 위성의 궤도, 자세정보, 지표면의 GCP(Ground Control Point) 및 랜드마크(landmark)를 이용해 영상을 회전시키거나 스케일을 조정하는 등의 기하 보정을 할 수 있다.In the case of building a database, mapping metrics such as the area after image classification, calculating adjacent images, mosaic mapping, mapping, etc. It is necessary to correct this geometric distortion. The work of removing this distortion from the image is called geometric correction. In the case of low-earth orbit satellite, because the main purpose of the image is to provide precise image for a specific region, it is not necessary for the processing and providing time of the image to be strict real time. Therefore, the user can use the satellite's orbit, attitude information, And a landmark, it is possible to perform geometric correction such as rotating an image or adjusting a scale.

그러나, 정지궤도 위성의 영상은 기상 영상 촬영 목적일 경우에 365일 24시간 지구를 촬영하며 구름의 유무에 관계없이 위치결정 및 리샘플링을 수행하여 영상을 실시간으로 처리하고 짧은 시간 내에 제공해야 한다. 이 경우, 사용자가 직접 표면의 GCP(Ground Control Point) 및 랜드마크(landmark)를 이용해 영상의 위치를 결정하기 어렵고, 자동으로 영상의 위치를 결정해야 한다. 이를 위해, 지상국의 기하보정시스템에서는 간접적으로 위성의 상태 벡터를 이용하여 영상의 위치 결정 및 리샘플링을 수행한다. 이 경우, 리샘플링(image resampling) 이후의 영상 간 정합 결과가 정밀하지 못하여 영상과 영상이 겹치는 부분에서의 경계가 도드라져 보이는 현상이 발생하는 문제가 있다.However, geostationary satellite images should be photographed 24 hours a day, 365 days a year, and must be processed in real time and processed within a short time by positioning and resampling regardless of clouds. In this case, it is difficult for the user to directly determine the position of the image using the ground control point (GCP) and the landmark of the surface, and the position of the image must be determined automatically. To do this, the geo-correction system of the ground station indirectly performs the positioning and resampling of the image using the state vector of the satellite. In this case, there is a problem in that the result of the image matching after the image resampling is not precise so that the boundary appears at the overlapping portion between the image and the image.

본 발명이 해결하고자 하는 과제는 인공 위성이 촬영한 영상들 간에 중복된 부분에서 검출된 특징점을 이용하여 인공 위성의 영상을 기하 보정하는 방법 및 장치를 제공한다.SUMMARY OF THE INVENTION The present invention provides a method and apparatus for geometric correction of an image of a satellite using feature points detected in overlapping portions between images taken by the satellite.

본 발명의 일 측면에 따른 영상 기하 보정 방법에 있어서, 인공 위성으로부터 인공 위성의 자세 정보 및 제1 영상을 수신 받는 단계, 상기 제1 영상에서 일정 간격의 격자를 생성하고, 상기 격자 상의 격자점에 위치하는 상기 제1 영상의 픽셀인 제1 픽셀을 추출하는 단계, 상기 제1 영상 및 제2 영상 간에 공통된 특징점을 검출하는 단계, 상기 자세 정보 및 상기 특징점에 기초하여 지도 좌표계의 기준 좌표를 생성하는 단계, 상기 기준 좌표에 기초하여 상기 제1 픽셀에 대응하는 상기 지도 좌표계의 좌표점인 지도 좌표점을 추정하고, 상기 추정된 지도 좌표점에 기초하여 상기 제1 영상을 기하 보정하는 기하 보정 단계를 포함한다.In accordance with an aspect of the present invention, there is provided a method of correcting an image geometry comprising: receiving satellite orientation information and a first image from a satellite; generating a grid at a predetermined interval in the first image; Extracting a first pixel that is a pixel of the first image located in the first image, detecting common feature points between the first image and the second image, generating reference coordinates of the map coordinate system based on the attitude information and the feature points Estimating a map coordinate point, which is a coordinate point of the map coordinate system corresponding to the first pixel, based on the reference coordinates, and geometrically correcting the first image based on the estimated map coordinate point .

영상 기하 보정 방법의 일 예에 따르면, 상기 제2 영상은 상기 제1 영상이 촬영한 지표면과 인접하는 지표면을 촬영한 영상인 것을 특징으로 한다.According to an example of the image geometry correction method, the second image is an image of a ground surface adjacent to the ground surface taken by the first image.

영상 기하 보정 방법의 다른 예에 따르면, 상기 자세 정보에 기초하여 상기 제1 영상의 상태 벡터를 추정하는 단계를 더 포함한다.According to another example of the image geometry correction method, the method further includes estimating a state vector of the first image based on the attitude information.

영상 기하 보정 방법의 다른 예에 따르면, 상기 기준 좌표를 생성하는 단계는, 상기 제1 픽셀 중 적어도 하나의 기준 픽셀을 선택하는 단계 및 상기 제1 영상의 상태 벡터를 기초하여 상기 적어도 하나의 기준 픽셀에 대응하는 상기 지도 좌표계의 좌표점을 검출하고, 상기 검출된 지도 좌표계의 좌표점을 포함하는 제1 기준 좌표를 생성하는 단계를 더 포함한다.According to another example of the image geometry correction method, the step of generating the reference coordinates includes selecting at least one reference pixel of the first pixels and selecting the at least one reference pixel based on the state vector of the first image, Detecting a coordinate point of the map coordinate system corresponding to the detected map coordinate system, and generating a first reference coordinate including the coordinate point of the detected map coordinate system.

영상 기하 보정 방법의 다른 예에 따르면, 상기 특징점을 추출하는 단계는, 상기 제1 영상에서 제2 영상과 중복된 영상 부분인 중복 영상을 검출하는 단계, 상기 중복된 영상에서 제2 영상과 공통되는 미리 설정된 객체를 추출하는 단계를 더 포함한다.According to another example of the image geometry correction method, the step of extracting the feature points may include a step of detecting a redundant image which is an image part overlapping with the second image in the first image, And extracting a preset object.

영상 기하 보정 방법의 다른 예에 따르면, 상기 미리 설정된 객체는 지표면의 지형, 해안선 및 구조물 중 적어도 하나인 제1 표지를 포함한다.According to another example of the image geometry correction method, the preset object includes a first marker, which is at least one of a terrain surface, a shoreline, and a structure.

영상 기하 보정 방법의 다른 예에 따르면, 상기 미리 설정된 객체는 지표면 상의 구름인 제2 표지를 더 포함한다.According to another example of the image geometry correction method, the preset object further includes a second marker that is a cloud on the ground surface.

영상 기하 보정 방법의 다른 예에 따르면, 상기 기준 좌표를 생성하는 단계는, 상기 제1 표지 및 상기 제2 표지에 대응하는 상기 지도 좌표계의 좌표점을 상기 제2 영상으로부터 획득하고, 상기 획득한 지도 좌표계의 좌표점을 포함하는 제2 기준 좌표를 생성하는 단계를 더 포함하고, 상기 기준 좌표는 상기 제1 기준 좌표 및 상기 제2 기준 좌표를 포함한다.According to another example of the image geometry correction method, the step of generating the reference coordinates may include obtaining coordinate points of the map coordinate system corresponding to the first mark and the second mark from the second image, And generating a second reference coordinate including a coordinate point of the coordinate system, wherein the reference coordinate includes the first reference coordinate and the second reference coordinate.

영상 기하 보정 방법의 다른 예에 따르면, 상기 기하 보정 단계는, 상기 기준 좌표와 이에 대응하는 픽셀의 영상상 위치의 관계식을 추정하는 단계 및 상기 추정된 관계식을 이용하여 상기 선택된 제1 픽셀의 지도 좌표점을 추정하는 단계를 더 포함한다.According to another example of the image geometry correction method, the geometric correction step may include estimating a relational expression of the reference coordinates and a position of the corresponding pixel on the image, and calculating a map coordinate of the selected first pixel And estimating a point.

영상 기하 보정 방법의 다른 예에 따르면, 상기 제2 영상은 상기 지도 좌표계로 좌표 변환이 완료된 영상인 것을 특징으로 한다.According to another example of the image geometry correction method, the second image is a coordinate-converted image of the map coordinate system.

본 발명의 일 측면에 따른 영상 기하 보정 장치는, 인공 위성으로부터 제1 영상 및 자세 정보를 수신 받는 수신부, 상기 제1 영상에서 일정 간격의 격자를 생성하고, 상기 격자 상의 격자점에 위치하는 상기 제1 영상의 픽셀인 제1 픽셀을 선택하는 추정대상 선택부, 상기 제1 영상 및 제2 영상 간에 공통된 특징점을 검출하는 특징점 검출부, 상기 자세 정보 및 상기 특징점에 기초하여 지도 좌표계의 기준 좌표를 생성하는 기준 좌표 생성부, 상기 기준 좌표에 기초하여 상기 제1 픽셀에 대응하는 상기 지도 좌표계의 좌표점인 지도 좌표점을 추정하여 상기 제1 영상을 기하 보정하는 기하 보정부를 포함한다. According to an aspect of the present invention, there is provided an image geometry correcting apparatus comprising: a receiving unit that receives a first image and attitude information from a satellite; a generating unit that generates a grid at a predetermined interval in the first image, A feature point detecting unit for detecting a feature point common to the first and second images, a reference coordinate generating unit for generating reference coordinates of the map coordinate system based on the attitude information and the feature points And a geometric correction unit for geometrically correcting the first image by estimating a map coordinate point, which is a coordinate point of the map coordinate system corresponding to the first pixel, based on the reference coordinates.

영상 기하 보정 장치의 일 예에 따르면, 상기 제2 영상은 상기 제1 영상이 촬영한 지표면과 인접하는 지표면을 촬영한 영상인 것을 특징으로 한다.According to an embodiment of the image geometry correcting apparatus, the second image is an image of a surface of the ground adjacent to the ground surface taken by the first image.

영상 기하 보정 장치의 다른 예에 따르면, 상기 자세 정보에 기초하여 상기 제1 영상의 상태 벡터를 추정하는 상태 벡터 추정부를 더 포함한다.According to another example of the image geometry correcting apparatus, the image geometry correcting apparatus further includes a state vector estimating unit that estimates a state vector of the first image based on the attitude information.

영상 기하 보정 장치의 다른 예에 따르면, 상기 기준 좌표 생성부는 상기 제1 픽셀 중 적어도 하나의 기준 픽셀을 선택하고, 상기 제1 영상의 상태 벡터에 기초하여 상기 적어도 하나의 기준 픽셀에 대응하는 상기 지도 좌표계의 좌표점을 검출하고, 상기 검출된 좌표점을 제1 기준 좌표로 설정한다.According to another example of the image geometry correction apparatus, the reference coordinate generator selects at least one reference pixel among the first pixels, and based on the state vector of the first image, Detects a coordinate point of the coordinate system, and sets the detected coordinate point as a first reference coordinate point.

영상 기하 보정 장치의 다른 예에 따르면, 상기 특징점 검출부는 상기 제1 영상에서 상기 제2 영상과 중복된 영상 부분인 중복 영상을 검출하고, 상기 중복된 영상에서 제2 영상과 공통되는 미리 설정된 객체를 추출한다.According to another example of the image geometry correcting apparatus, the feature point detecting unit detects a redundant image which is an image portion overlapping the second image in the first image, and detects a redundant image common to the second image in the redundant image .

영상 기하 보정 장치의 다른 예에 따르면, 상기 미리 설정된 객체는 지표면의 지형, 해안선 및 구조물 중 적어도 하나인 제1 표지를 포함한다.According to another example of the image geometry correction device, the preset object includes a first marker, which is at least one of a terrain surface, a shoreline, and a structure.

영상 기하 보정 장치의 다른 예에 따르면, 상기 미리 설정된 객체는 지표면 상에 구름인 제2 표지를 더 포함한다.According to another example of the image geometry correcting device, the preset object further comprises a second mark that is a cloud on the surface of the earth.

영상 기하 보정 장치의 다른 예에 따르면, 상기 기준 좌표 생성부는 상기 제1 표지 및 상기 제2 표지에 대응하는 상기 지도 좌표계의 좌표점에 대한 정보를 상기 제2 영상으로부터 획득하고, 상기 획득한 지도 좌표계의 좌표점을 제2 기준 좌표로 설정하며, 상기 기준 좌표는 상기 제1 기준 좌표 및 상기 제2 기준 좌표를 포함한다.According to another example of the image geometry correcting apparatus, the reference coordinate generating unit obtains information on coordinate points of the map coordinate system corresponding to the first mark and the second mark from the second image, And the reference coordinates include the first reference coordinates and the second reference coordinates.

영상 기하 보정 장치의 다른 예에 따르면, 상기 기준 좌표와 이에 대응하는 픽셀의 영상상 위치의 관계식을 추정하는 관계식 추정부를 더 포함한다.According to another example of the image geometry correcting apparatus, the image geometry correcting apparatus further includes a relational expression estimating unit for estimating a relational expression of the reference coordinates and the image position of the corresponding pixel.

영상 기하 보정 장치의 다른 예에 따르면, 상기 기하 보정부는 상기 추정된 관계식을 이용하여 상기 선택된 제1 픽셀의 지도 좌표점을 추정한다.According to another example of the image geometry correction apparatus, the geometric correction unit estimates the map coordinate point of the selected first pixel using the estimated relational expression.

영상 기하 보정 장치의 다른 예에 따르면, 상기 인공 위성은 정지 궤도 위성인 것을 특징으로 한다.According to another example of the image geometry correction device, the artificial satellite is a geostationary satellite.

영상 기하 보정 장치의 다른 예에 따르면, 상기 제2 영상은 상기 지도 좌표계로 좌표 변환이 완료된 영상인 것을 특징으로 한다.According to another example of the image geometry correction apparatus, the second image is a coordinate-converted image of the map coordinate system.

본 발명의 다양한 실시예에 따르면, 인공 위성이 촬영한 영상에서 다른 영상과 중복된 부분에서 기하 보정의 기준이 되는 특징점을 추가적으로 추출하여 영상 간에 정합함으로써 지표면이 구름에 가려지는 등 지표면에서 랜드마크를 발견할 수 없을 때에도 상기 특징점을 이용하여 추정된 인공 위성의 상태 벡터를 보정하여 좀 더 정확한 영상의 기하 보정을 수행할 수 있다.According to various embodiments of the present invention, feature points, which are reference points of geometric correction, are additionally extracted from images captured by satellites and overlapped with other images, and the images are matched with each other so that the land surface is covered with clouds, It is possible to perform more accurate image geometry correction by correcting the state vector of the satellite estimated using the feature points.

도 1은 일 실시예에 따른 지구를 중심으로 공전하는 정지궤도 위성을 개략적으로 도시한 도면이다.
도 2는 기하 보정된 인공 위성이 촬영한 영상을 개략적으로 도시한 도면이다.
도 3은 일 실시예에 따른 영상 기하 보정 장치의 내부 구성을 간략하게 도시한 블록도이다.
도 4는 일 실시예에 따른 영상 기하 보정 방법을 간략하게 나타내는 흐름도이다.
도 5는 일 실시예에 따른 제1 기준 좌표를 생성하는 방법을 간략하게 나타내는 흐름도이다.
도 6는 일 실시예에 따른 제2 기준 좌표를 생성하는 방법을 간략하게 나타내는 흐름도이다.
도 7은 일 실시예에 따른 기준 좌표에 기초하여 제1 영상을 기하 보정하는 방법을 개략적으로 나타내는 흐름도이다.
1 is a schematic view of a geostationary orbiting satellite revolving around the earth according to one embodiment.
2 is a view schematically showing an image taken by a geometrically corrected artificial satellite.
3 is a block diagram briefly showing an internal configuration of an image geometry correcting apparatus according to an embodiment.
4 is a flowchart briefly illustrating an image geometry correction method according to an exemplary embodiment.
5 is a flowchart briefly illustrating a method of generating a first reference coordinate according to an embodiment.
6 is a flowchart briefly illustrating a method of generating second reference coordinates according to an embodiment.
7 is a flowchart schematically showing a method of geometric correction of a first image based on reference coordinates according to an embodiment.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. 또한, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다.The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated and described in the drawings. The effects and features of the present invention and methods of achieving them will be apparent with reference to the embodiments described in detail below with reference to the drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Also, the singular expressions include plural expressions unless the context clearly dictates otherwise. Also, the terms include, including, etc. mean that there is a feature, or element, recited in the specification and does not preclude the possibility that one or more other features or components may be added.

이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals refer to like or corresponding components throughout the drawings, and a duplicate description thereof will be omitted .

도 1은 일 실시예에 따른 지구를 중심으로 공전하는 정지궤도 위성을 개략적으로 도시한 도면이다.1 is a schematic view of a geostationary orbiting satellite revolving around the earth according to one embodiment.

도 1을 참조하면, 인공 위성(10)은 지구(200)의 적도면과 평행한 궤도면을 따라 공전하고 있다Referring to FIG. 1, the satellite 10 revolves along an orbital plane parallel to the equatorial plane of the earth 200

인공 위성(10)의 궤도면은 인공 위성(10)이 움직이는 일정한 경로로 위성 궤도는 원형 궤도와 타원형 궤도가 있다. 궤도가 크면 클수록 위성이 궤도를 한 바퀴 도는데 걸리는 시간인 궤도 주기가 길어진다. 인공 위성(10)의 비행 궤도면이 적도와 만드는 궤도각에 따라 적도 궤도, 경사궤도, 극궤도로 나뉜다. 적도 궤도는 적도와 궤도면이 만드는 각도가 0도인 경우이며, 각도 90도인 경우를 극궤도라고 한다. 그리고 적도궤도와 극궤도 사이의 궤도를 경사 궤도라고 한다. 특히, 적도 궤도면을 따라 공전하는 인공 위성(10)을 정지 궤도 위성(10)이라 한다.The orbital plane of the artificial satellite 10 is a constant path in which the artificial satellite 10 moves, and the satellite orbit has a circular orbit and an elliptical orbit. The larger the orbit, the longer it takes for the satellite to spin its orbit. The orbital plane of the satellite 10 is divided into an equatorial orbit, an oblique orbit, and a polar orbit, depending on the equator and the orbital angle to be made. The equatorial orbit is the case where the equator and the raceway are made at 0 degree angle, and the angle 90 degrees is called the pole orbit. And the orbit between the equatorial orbital and the polar orbital is called the oblique orbit. In particular, the satellite 10 that revolves along the equatorial plane is called a geostationary satellite 10.

지상의 영상을 촬영하는 인공 위성(10)은 정지 궤도 위성일 수 있다. 정지 궤도 위성의 공전 속도는 지구의 자전 속도와 상응한 속도를 갖는다. 정지 궤도 위성은 지구상의 특정 지표면 상공에 지속하여 위치하며, 상기 특정 지표면에 대한 영상을 촬영한다. 즉, 정지 궤도 위성의 공전 주기와 지구의 자전 주기가 같아 지표면에서 보면 상공의 한 지점에 정지해 있는 것처럼 보인다. 구체적으로, 적도 상공(지구의 위도 0˚) 3만 5786km(정지궤도)에 인공위성이 위치한다. 이때 위성은 지구상의 궤도를 따라 지구와 같은 속도로 24시간 비행하므로, 적도 상공 높은 상공의 한 지점에서 지구의 넓은 영역을 살필 수 있다. 하지만 항상 적도 상공에 머물러 있으므로 고위도로 갈수록 이미지가 왜곡되고 극지방을 관찰하기는 어렵다. 정지 궤도 위성은 통신, 방송, 기상 관찰을 위해 이용된다. 설명의 편의를 위해 이하에서는 기상 관찰의 목적을 갖는 정지 궤도 위성으로 한정하여 설명한다.The satellite 10 for photographing the ground image may be a geosynchronous orbit satellite. The orbiting speed of geostationary satellites has a speed corresponding to the Earth's rotating speed. The geostationary satellite is located continuously over a specific surface of the earth, and captures an image of the specific surface. In other words, it appears that the geostationary orbits of the geostationary satellites are at the same altitude as the earth's rotation cycle, so they are stationary at a point above the earth's surface. Specifically, the satellite is located at 35,786 km (geostationary orbit) above the equator (0 ° at the Earth's latitude). At this time, the satellite can fly along the earth's orbit 24 hours at the same speed as the earth, so you can look at a large area of the earth at a point above the equator. However, since it is always in the sky above the equator, it is difficult to observe the polar regions and observe the images as they go to higher latitudes. Geostationary satellites are used for communication, broadcasting, and weather observation. For convenience of explanation, the following description is limited to geostationary-satellite satellites for the purpose of observing the weather.

정지 궤도 위성은 지구의 기상 현상에 영향을 미치는 구름의 생성과 소멸, 시간에 따른 구름의 이동, 구름의 종류 등을 관찰할 수 있다. 정지 궤도 위성은 주기적으로 지표면을 촬영하며, 촬영된 영상을 지구의 지상국에 전송한다. 정지 궤도 위성은 촬영한 곳의 좌표 정보를 알 수 있도록 정지 궤도 위성의 자세 정보도 함께 제공할 수 있다.Geostationary satellites can observe the generation and disappearance of clouds affecting the meteorological phenomena of the earth, the movement of clouds over time, and the types of clouds. Geostationary orbiting satellites periodically photograph the surface of the earth and transmit the photographed image to earth's earth station. The geosynchronous orbiting satellite can also provide the attitude information of the geosynchronous orbit satellite so that the coordinate information of the photographed location can be known.

정지 궤도 위성은 순차적으로 촬영 장치의 각도를 변경하여 소정의 지표면의 모습을 촬영한다. 즉, 정지 궤도 위성은 상기 소정의 지표면의 영상을 복수의 영상으로 분할하여 촬영을 한다. 지상국은 상기 정지 궤도 위성이 순차적으로 촬영한 영상들을 결합시켜 모자이크 처리된 소정의 지표면에 대한 영상을 제작할 수 있다.The geosynchronous orbit satellites sequentially capture the image of a predetermined ground surface by changing the angle of the photographing apparatus. That is, the geostationary satellite divides the image of the predetermined ground surface into a plurality of images and shoots them. The ground station may combine images sequentially captured by the geostationary orbit satellite to produce a mosaic-processed image of a predetermined surface.

정지 궤도 위성은 인접한 영상과 소정의 부분이 오버랩 되도록 영상을 촬영한다. 즉, 인공 위성(10)의 촬영 장치의 각도 및 인공 위성(10)의 자세에 대한 오차에 따른 영상과 영상 간에 공백을 효율적으로 제거하기 위해, 인공 위성(10)은 인접한 영상과 소정의 부분이 겹치도록 상기 촬영 장치의 각도를 조정하여 영상을 촬영한다.The geosynchronous satellite captures an image so that an adjacent image overlaps with a predetermined portion. That is, in order to efficiently remove the space between the image and the image according to the angle of the photographing apparatus of the artificial satellite 10 and the error of the posture of the artificial satellite 10, And the angle of the photographing apparatus is adjusted so as to overlap with each other.

도 2는 기하 보정된 인공 위성이 촬영한 영상을 개략적으로 도시한 도면이다.2 is a view schematically showing an image taken by a geometrically corrected artificial satellite.

도 2를 참조하면, 인공 위성(10)의 촬영 영상을 수신 받은 지상국이 기하 보정 및 리샘플링한 영상이다.Referring to FIG. 2, the ground station receiving the photographed image of the satellite 10 geometrically corrects and resamples the image.

기하 보정은 위성의 자세, 지구의 곡률, 위성의 진행 방향, 좌표투영법의 차이, 관측기기 오차, 지구 자전의 영향 등에 따라 발생하는 기하학적 왜곡을 제거하는 보정을 말한다.Geometric correction is a correction that removes geometric distortion caused by satellites' attitude, curvature of the earth, direction of the satellite, difference of coordinate projection method, error of observation instrument, effect of earth rotation.

저궤도 위성 영상은 위성의 궤도, 자세정보와 지표면의 GCP(Ground Control Point) 또는 랜드마크(landmark)를 이용해 영상의 지도 좌표계 상 좌표점 결정 및 리샘플링(resampling)을 수행하기 때문에 영상의 위치 정확도가 높다. 이 때, GCP는 구름에 가려지지 않은 지점을 운용자가 선택하며, 영상의 가공 및 제공시간도 실시간일 필요가 없으므로 운용자에 의한 충분한 후처리 과정을 거칠 수 있다.The low orbital satellite image is highly accurate because it performs coordinate determination and resampling on the map coordinate system of the image using the orbit and attitude information of the satellite and the ground control point (GCP) or landmark of the ground surface . At this time, the operator selects the point where the GCP is not covered by the cloud, and since the processing and the providing time of the image do not need to be real time, the operator can have a sufficient post-processing process.

이에 비해, 정지궤도 위성의 영상은 365일 24시간 지구를 촬영하며 구름의 유무에 관계없이 영상의 픽셀들의 지도 좌표계 상 좌표점 결정 및 리샘플링을 수행하여 영상을 실시간으로 처리하고 짧은 시간 내에 제공해야 한다. 이 경우, 영상 전체의 랜드마크를 검출하여 검출된 랜드마크를 기준점으로 기하 보정하는 것은 운용자가 직접 수행하기에는 많은 시간이 소요되기 때문에, 정지 궤도 위성으로부터 수신 받은 영상은 추정된 상태벡터(state vector)를 기반으로 컴퓨터에 의해 자동으로 영상 위치결정 및 리샘플링이 수행된다. 즉, 랜드마크(landmark)를 직접적으로 위치결정 및 리샘플링에 적용되지 않으며, 랜드마크 매칭에 의한 잔차(residual)로 상태벡터를 먼저 추정하고, 이 추정한 상태벡터만을 사용하여 영상의 지도 상 좌표 결정 및 리샘플링을 수행하는 것이다. 이러한 간접적(indirect)인 방법은 24시간 촬영한 영상을 위치결정 및 리샘플링하기 적합하긴 하나, 영상 자체의 랜드마크 정보를 영상의 픽셀의 좌표점 결정 및 리샘플링에 직접적(direct)으로 적용하지 못하기 때문에 영상의 리샘플링 이후의 정합 결과가 정밀하지 못하다.On the other hand, the image of geosynchronous orbit satellite is taken 36 hours a day and 36 hours a day, and the coordinate of the coordinates of the pixels of the image is determined and resampled regardless of the cloud, . In this case, since it takes a lot of time for the operator to directly perform the geomorphometric correction of the detected landmark by detecting the landmark of the entire image, the image received from the geosynchronous satellite is estimated as an estimated state vector, Image positioning and resampling are automatically performed by the computer based on the image data. That is, a state vector is firstly estimated as a residual by landmark matching, which is not directly applied to the positioning and resampling of the landmark, and the coordinates of the image on the map are determined using only the estimated state vector And resampling. This indirect method is suitable for positioning and resampling images taken for 24 hours, but does not directly apply the landmark information of the image itself to the coordinate point determination and resampling of pixels of the image Matching results after resampling of the image are not precise.

또한, 인공 위성(10)의 상태 벡터를 결정하기 위해, 지상국은 인공 위성(10)이 촬영한 지표면의 랜드마크를 검출할 필요가 있으나, 구름에 의해 상기 촬영된 지표면이 가려지는 경우나 해양지역만 찍힌 영상의 경우, 지상국은 랜드마크 매칭에 의한 잔차로 상태벡터를 추정하기 어렵다. 이 경우, 구름으로 가려진 지표면 또는 해양에 대한 영상을 기하 보정하여도 실제 지도 상 좌표와의 오차율이 높아 진다. 이 경우, 인공 위성(10)의 기하 보정 오차율이 높아 지면, 도 2에 도시된 바와 같이 영상과 영상이 만나는 부분에서의 경계가 눈에 띄게 도드라져 보이는 현상 등이 발생할 수 있다.In order to determine the state vector of the satellite 10, the ground station needs to detect the landmark of the ground surface photographed by the satellite 10, but when the photographed ground surface is covered by the cloud, It is difficult to estimate the state vector by the residual due to the landmark matching. In this case, the error rate with the coordinates of the actual map becomes higher even if the image is corrected for the ground surface covered by the cloud or the ocean. In this case, when the geometric correction error rate of the satellite 10 is increased, a phenomenon in which the boundary at the portion where the image meets the image may be conspicuous as shown in FIG. 2 may occur.

나아가, 이러한 영상을 수신 받은 기상청은 기상을 예측하는데 오차가 증가한다. 기상청이 기상을 예측하는데 있어서, 수신 받은 영상의 각각의 픽셀에 대한 정보를 분석한다. 기상청은 상기 도드라져 보이는 경계 부분에 대한 정확한 정보를 획득할 수 없어 부정확한 기상 정보를 예측할 수 있다.Furthermore, the Meteorological Agency receiving such an image increases the error in predicting the weather. In forecasting the weather, the Meteorological Agency analyzes information on each pixel of the received image. The Meteorological Administration can not obtain the accurate information on the boundary portion which can be seen and can predict the inaccurate weather information.

따라서, 영상에 랜드마크가 없어 상태 벡터의 정확도가 많이 떨어지는 경우, 영상 기하 보정 장치(100)는 상태 벡터를 비교적 정확히 추정한 영상으로부터 좌표 정보를 제공받아 상기 정확도가 떨어지는 상태 벡터에 따른 기하 보정을 보완할 수 있다. 이에 대해서 이하에서 도 3 내지 7을 참조하여 후술한다.Accordingly, when there is no landmark in the image and the accuracy of the state vector greatly decreases, the image geometry correcting apparatus 100 receives the coordinate information from the image obtained by relatively accurately estimating the state vector, Can be supplemented. This will be described below with reference to Figs. 3 to 7.

도 3은 일 실시예에 따른 영상 기하 보정 장치의 내부 구성을 간략하게 도시한 블록도이다.3 is a block diagram briefly showing an internal configuration of an image geometry correcting apparatus according to an embodiment.

도 3을 참조하면, 영상 기하 보정 장치(100)는 수신부(110), 상태 벡터 추정부(120), 픽셀 선택부(130), 특징점 검출부(140), 기준 좌표 생성부(150), 관계식 추정부(160), 기하 보정부(170) 및 리샘플링부(180)를 포함한다.3, the image geometry correcting apparatus 100 includes a receiving unit 110, a state vector estimating unit 120, a pixel selecting unit 130, a feature point detecting unit 140, a reference coordinate generating unit 150, A geometry corrector 170, and a resampler 180. The resampler 180 may be implemented by a computer.

수신부(110)는 인공 위성(10)으로부터 인공 위성(10)이 촬영한 영상 및 촬영 당시의 인공 위성(10)의 자세 정보를 수신 받는다. 수신부(110)는 연속된 복수의 영상을 수신 받을 수 있다. 수신부(110)는 상기 복수의 영상에 대응하는 촬영 당시의 인공 위성(10)의 자세 정보도 함께 수신 받는다. 상기 인공 위성(10)의 자세 정보는 인공 위성(10) 내에 포함된 태양 센서, 지자기 센서, 별 센서나 관성 센서인 자이로 센서 등을 통해 측정한 인공 위성(10)의 자세, 인공 위성(10)의 공전 속도, 영상을 촬영하는 촬영 장치의 촬영 각도 등에 대한 정보를 포함한다.The receiving unit 110 receives the image taken by the satellite 10 from the satellite 10 and the attitude information of the satellite 10 at the time of shooting. The receiving unit 110 may receive a plurality of consecutive images. The receiving unit 110 also receives attitude information of the satellite 10 at the time of shooting corresponding to the plurality of images. The posture information of the artificial satellite 10 may be obtained from the attitude of the artificial satellite 10 measured through a sun sensor, a geomagnetism sensor, a star sensor or a gyro sensor, which is an inertial sensor included in the artificial satellite 10, And a photographing angle of the photographing apparatus for photographing the image.

상태 벡터 추정부(120)는 상기 수신된 인공 위성(10)의 자세 정보를 통해 인공 위성(10)의 상태 벡터를 추정한다. 상태 벡터 추정부(120)는 상기 수신된 영상의 랜드마크와 미리 저장된 랜드마크를 매칭시켜, 상기 매칭에 따른 잔차(residual)로 인공 위성(10)의 상태 벡터를 추정할 수 있다. 상태 벡터 추정부(120)는 수신되는 영상마다 상태 벡터를 추정한다. 한편, 상기 인공 위성(10)의 자세 정보는 영상 촬영을 시작한 초기에 정확도가 높은 자세 정보를 제공할 수 있으나, 영상의 촬영이 진행되는 동안 미리 저장된 랜드마크와 매칭이 지속적으로 불가능한 경우 자세 정보의 정확도는 떨어진다.The state vector estimator 120 estimates the state vector of the satellite 10 through the attitude information of the received satellite 10. The state vector estimating unit 120 may estimate a state vector of the satellite 10 by matching the landmark of the received image with a previously stored landmark and using the residual as a result of the matching. The state vector estimating unit 120 estimates a state vector for each received image. On the other hand, the attitude information of the satellite 10 can provide attitude information with high accuracy at the beginning of the image photographing. However, if the matching with the previously stored landmark is impossible continuously during the photographing of the image, Accuracy is low.

픽셀 선택부(130)는 영상을 이루는 여러 픽셀 중 지도 좌표계 상 좌표로 변환할 대상을 선택할 수 있다. 픽셀 선택부(130)는 상기 수신된 영상에 일정 간격의 격자를 생성하고, 상기 격자를 이루는 격자 선들 중 두 선이 만나는 점인 격자점에 위치한 픽셀을 선택한다. 예를 들면, 500 by 500 픽셀을 갖는 영상인 경우, 픽셀 선택부(130)는 100 픽셀 마다 직교하는 격자선들을 생성한다. 이 경우, 픽셀 선택부(130)는 (100,100), (100, 200), (100, 300), (100, 400), (200,100), (200, 200), (200, 300), (200, 400), (300,100), (300, 200), (300, 300), (300, 400), (400,100), (400, 200), (400, 300), (400, 400)인 격자 점에 위치하는 픽셀들을 선택할 수 있다.The pixel selection unit 130 can select an object to be converted into a map coordinate system coordinate among pixels constituting an image. The pixel selection unit 130 generates a grid at a predetermined interval in the received image and selects a pixel located at a lattice point where two lines of the grid lines meet. For example, in the case of an image having 500 by 500 pixels, the pixel selection unit 130 generates grid lines orthogonal to every 100 pixels. In this case, the pixel selection unit 130 may include (100, 100), 100, 200, 100, 300, 100, 400, 200, 100, 200, 200, 200, 300, 400, 400, 300, 100, 300, 200, 300, 300, 300, 400, 400, 100, 400, 200, Lt; / RTI > can be selected.

특징점 검출부(140)는 정지 궤도 위성이 적어도 두 개의 영상에서 서로 오버랩 된 부분에 대해 특징점을 검출할 수 있다. 인공 위성(10)은 소정의 범위의 지표면에 대해 순차적으로 복수의 영상으로 촬영하고자 할 때에, 인접한 지표면을 촬영하는 영상들간에 서로 소정의 부분이 오버랩 되도록 촬영한다. 이는, 영상과 영상을 연결하는 모자이크 처리로 상기 소정의 지표면 전체를 촬영한 영상으로 제작할 때, 영상과 영상간에 공백이 없도록 하기 위해서이다.  The minutiae point detecting unit 140 can detect minutiae points of the overlapped portions of at least two images of the geo-stationary satellite. The satellite 10 photographs a plurality of images sequentially on a predetermined range of the ground surface so that predetermined portions overlap each other between images of adjacent ground surfaces. This is to ensure that there is no space between the image and the image when the entire surface of the predetermined surface is photographed by mosaic processing connecting the image and the image.

한편, 인공 위성(10)이 현재 촬영하고자 하는 지표면을 제1 지표면이라 하고, 상기 제1 지표면에 인접한 지표면을 제2 지표면으로 정의하면, 상기 제2 지표면의 촬영 영상을 제2 영상으로 가정할 수 있다. 상기 제2 영상은 인공 위성(10)이 순차적으로 영상을 촬영할 때에 상기 제1 영상의 촬영 전에 촬영된 영상이다. 상기 제2 영상은 제1 영상의 기하 보정 전에 기하 보정이 완료된 상태로, 영상 기하 보정 장치(100)가 상기 제2 영상에 대한 지도 좌표점의 정보를 이미 추정하였다고 가정하여 이하 설명한다.On the other hand, if the ground surface to be photographed by the satellite 10 is referred to as a first ground surface and the ground surface adjacent to the first ground surface is defined as a second ground surface, the photographed image of the second ground surface can be assumed as a second image have. The second image is an image captured before the first image is captured when the satellite 10 sequentially captures the image. The second image will be described below assuming that the geometric correction device 100 has already estimated the information of the map coordinate point for the second image in a state where the geometric correction is completed before the geometric correction of the first image.

특징점 검출부 (140)는 상기 오버랩 되는 부분(이하, 중복 영상 부분)에서 정확한 지도 상 좌표를 알려 줄 수 있는 미리 설정된 객체를 검출할 수 있다. 예를 들면, 상기 미리 설정된 객체는 지표면 상에 지형, 해안선, 구조물(이하, 제1 표지) 등 상기 지도 좌표계의 특정 지역의 좌표점을 정확히 알려줄 수 있는 랜드마크다. 구체적으로, 특징점 검출부(140)는 상기 제1 영상의 중복 영상 부분에서 상기 제2 영상과 공통된 객체가 검출되었는지 판단하며, 상기 검출된 공통된 객체를 특징점으로 설정할 수 있다. 상기 제1 표지에 대한 상기 지도 좌표계의 지도 좌표점(이하, 지도 좌표점)은 미리 저장해 둔 데이터 베이스를 통해 획득하거나, 제2 영상에서 추정된 지도 좌표로부터 획득할 수 있다. 한편, 상기 지도 좌표계는 GEOS 좌표계일 수 있으나, 지구의 해양, 기상 및 지형 등을 표현할 때 사용할 수 있는 좌표계이면 될 뿐, 본 발명이 이에 한정되지 않는다.The minutia detection unit 140 may detect a predetermined object capable of indicating an accurate map coordinate in the overlapped portion (hereinafter referred to as a redundant image portion). For example, the predetermined object is a landmark capable of accurately indicating a coordinate point of a specific area of the map coordinate system such as a terrain, a coastline, a structure (hereinafter referred to as a first cover) on the ground surface. Specifically, the feature point detection unit 140 may determine whether an object common to the second image is detected in the overlapping image portion of the first image, and may set the detected common object as the feature point. A map coordinate point (hereinafter referred to as a map coordinate point) of the map coordinate system with respect to the first mark may be acquired through a previously stored database or may be acquired from map coordinates estimated from the second image. On the other hand, the map coordinate system may be a GEOS coordinate system, but it may be a coordinate system that can be used to express the ocean, weather, and topography of the earth, but the present invention is not limited thereto.

또한, 상기 미리 설정된 객체는 구름을 포함할 수 있다. 특징점 검출부(140)는 제1 영상의 중복 영상 부분과 제2 영상에서 공통된 적어도 하나의 구름 형상에 대응한 객체를 추출할 수 있다. 특징점 검출부(140)는 상기 추출된 구름 형상(제2 표지)을 제2 표지로 설정할 수 있다. 상기 제2 표지의 지도 좌표점은 상기 제2 영상에서 추정된 상기 지도 좌표계의 좌표점으로부터 획득할 수 있다.In addition, the predetermined object may include a cloud. The minutiae point detecting unit 140 may extract an object corresponding to at least one cloud shape common to the redundant image portion of the first image and the second image. The minutiae point detection unit 140 may set the extracted cloud shape (second marker) as the second marker. The map coordinate point of the second marker can be obtained from the coordinate point of the map coordinate system estimated in the second image.

기준 좌표 생성부 (150)는 소정의 객체에 표현하는 픽셀에 대응하는 지도 좌표점인 기준 좌표를 생성할 수 있다. 기준 좌표는 영상의 픽셀의 영상 상 좌표 및 이에 대응하는 지도 좌표점과의 관계식을 산출하는데 이용된다. 기준 좌표 생성부(150)는 상기 기준이 되는 픽셀인 기준 픽셀을 선택하고, 상기 추정된 상태 벡터를 이용하여 기준 픽셀에 대응하는 지도 좌표점인 제1 기준 좌표를 산출한다. 또한, 기준 좌표 생성부(150)는 상기 제1 표지 및 상기 제2 표지에 대응하는 지도 좌표점인 제2 기준 좌표를 산출한다. 한편, 기준 좌표 생성부(150)는 상기 제1 표지 및 상기 제2 표지에 대응하는 지도 좌표점을 제2 영상에서 미리 추정한 지도 좌표 정보를 통해 획득할 수 있다.The reference coordinate generating unit 150 can generate reference coordinates that are map coordinate points corresponding to pixels to be displayed on a predetermined object. The reference coordinates are used to calculate a relational expression between the image coordinates of the pixels of the image and the corresponding map coordinate points. The reference coordinate generator 150 selects a reference pixel, which is a reference pixel, and calculates a first reference coordinate, which is a map coordinate point corresponding to the reference pixel, using the estimated state vector. Also, the reference coordinate generator 150 calculates a second reference coordinate which is a map coordinate point corresponding to the first mark and the second mark. On the other hand, the reference coordinate generator 150 may acquire the map coordinate points corresponding to the first mark and the second mark through map coordinate information previously estimated in the second image.

관계식 추정부(160)는 상기 제1 기준 좌표 및 상기 제2 기준 좌표의 픽셀의 영상 상 위치(이하, 영상 좌표)와 이에 대응하는 지도 좌표점들 간의 관계식을 추정한다. 상기 관계식은 RPC(Rational Polynomial Coefficients) 또는 유리 함수모델(RFM: Rational Function Model)에 대한 관계식이다. 영상 기하 보정 장치(100)는 상기 관계식을 이용하여 기준 좌표에 위치하는 픽셀을 제외한 나머지 제1 픽셀들의 지도 좌표점을 산출할 수 있다.The relational expression estimating unit 160 estimates a relational expression between an image position (hereinafter referred to as an image coordinate) of a pixel of the first reference coordinates and the second reference coordinates and corresponding map coordinate points. The relational expression is a relational expression for Rational Polynomial Coefficients (RPC) or Rational Function Model (RFM). The image geometry correcting apparatus 100 may calculate the map coordinate points of the first pixels excluding the pixels located in the reference coordinates using the relational expression.

예를 들면, 관계식 추정부(160)는 상기 제1 기준 좌표 및 제2 기준 좌표의 지도 상 좌표를 (x,y), 영상 좌표를 (u,v)이라고 했을 때, 두 좌표를 연결하여 그들 사이의 관계식을 구할 수 있다. 이들 좌표 사이의 변환식은 x=au+bv+c, y=du+ev+f와 같은 형태로 표시된다. 이 경우, 위의 변환식에 계수들의 값들을 결정하기 위해 모두 6개의 미지수를 구해 픽셀의 영상 좌표와 이에 대응하는 지도 좌표점들과의 관계식을 산출 할 수 있다. For example, when the coordinates of the first reference coordinates and the coordinates of the second reference coordinates are (x, y) and the image coordinates are (u, v), the relational expression estimator 160 concatenates the two coordinates Can be obtained. The transformation between these coordinates is expressed in the form of x = au + bv + c, y = du + ev + f. In this case, all six unknowns are determined to determine the values of the coefficients in the above conversion equation, and a relational expression between the image coordinates of the pixel and the corresponding map coordinate points can be calculated.

기하 보정부(170)는 상기 관계식 추정부(160)가 추정한 관계식을 상기 영상의 픽셀들의 영상 좌표와 상기 지도 좌표계간을 연결할 수 있는 기하 보정식으로 활용한다. 기하 보정부(170)는 상기 관계식을 적용하여 나머지 제1 픽셀(상기 제1 기준 좌표 및 상기 제2 기준 좌표를 갖는 픽셀 들을 제외한 제1 픽셀)들의 영상 좌표에 대응하는 지도 좌표점들을 획득할 수 있다. 기하 보정부(170)는 상기 획득한 지도 좌표점들에 기초하여 제1 영상을 상기 지도 좌표계에 매칭되도록 변환시킨다. 이 경우, 기하 보정부(170)는 상기 제1 영상의 정북 방향 등을 찾아 상기 지도 좌표계와 매칭되도록 상기 제1 영상의 제1 픽셀들을 2차원 변환(2D Transformation)을 한다. 예를 들면, 기하 보정부(170)는 상기 영상의 정북 방향에 맞춰 영상의 이동(Translation), 영상의 회전(Rotation), 영상의 스케일링(Scaling) 등을 수행하여 상기 제1 영상을 지도 좌표계에 매칭시킬 수 있다.The geometric corrector 170 utilizes the relational expression estimated by the relational expression estimator 160 as a geometric correction formula that can connect the image coordinates of the pixels of the image with the map coordinate system. The geometric corrector 170 can obtain the map coordinate points corresponding to the image coordinates of the remaining first pixels (the first pixels excluding the pixels having the first reference coordinates and the second reference coordinates) have. The geometry correcting unit 170 converts the first image to match the map coordinate system based on the obtained map coordinate points. In this case, the geometric corrector 170 finds a north-to-north direction of the first image and performs 2D transformation on the first pixels of the first image so as to match the map coordinate system. For example, the geometric corrector 170 performs a translation of an image, a rotation of an image, and a scaling of an image in accordance with the north-to-north direction of the image, and outputs the first image to a map coordinate system Can be matched.

리샘플링부(180)는 상기 기하 보정된 영상을 재배열(resampling)할 수 있다. 리샘플링부(180)는 보정 후 영상의 크기(보정 전 영상의 네 개의 모서리 점의 변환후의 위치)를 계산한 후, 보정 영상과 보정 전 영상과의 관계식인 역변환식을 다시 구할 수 있다. 리샘플링부(180)는 구하여진 역변환식을 이용하여 기하 보정한 영상의 제1 픽셀의 각각의 픽셀이 기하 보정 전 영상의 어디에 위치하는지를 찾아 상기 제1 픽셀을 제외한 나머지 픽셀들을 재배열하여 새로운 영상을 얻는 리샘플링(Resampling)을 수행할 수 있다.The resampling unit 180 may resamplify the geometrically corrected image. The resampling unit 180 may calculate the size of the post-correction image (position after conversion of the four corner points of the pre-correction image), and then obtain an inverse conversion formula that is a relational expression of the corrected image and the pre-correction image. The resampling unit 180 finds each pixel of the first pixel of the image subjected to the geometric correction using the obtained inverse transformation formula to find the position of the pre-geometry-corrected image, rearranges the remaining pixels except for the first pixel, And resampling can be performed.

도 4은 일 실시예에 따른 영상 기하 보정 방법을 간략하게 나타내는 흐름도이다.4 is a flowchart briefly illustrating an image geometry correction method according to an exemplary embodiment.

도 4에 도시된 흐름도는, 도 3에 도시된 영상 기하 보정 장치(100)에서 시계열적으로 처리되는 단계들로 구성된다. 따라서, 이하에서 생략된 내용이라 하더라도, 도 3에서 도시된 구성들에 관하여 이상에서 기술된 내용은 도 4에 도시된 흐름도에도 적용됨을 알 수 있다.The flowchart shown in FIG. 4 is composed of the steps that are processed in a time-series manner in the image geometry correcting apparatus 100 shown in FIG. Therefore, even if omitted from the following description, it can be understood that the description described above with respect to the configurations shown in FIG. 3 also applies to the flow chart shown in FIG.

도 4를 참조하면, 영상 기하 보정 장치(100)는 위성으로부터 영상 및 상기 영상을 획득할 당시에 인공 위성(10)의 자세 정보를 수신 받을 수 있다. 영상 기하 보정 장치(100)는 인공 위성(10)이 순차적으로 촬영한 영상을 순차적으로 수신 받을 수 있으며, 상기 순차적으로 영상을 수신 받을 때 각 영상에 대응하는 인공 위성(10)의 자세 정보도 함께 수신 받을 수 있다. 한편, 상기 인공 위성(10)의 자세 정보는 인공 위성(10) 내에 포함된 태양 센서, 지자기 센서, 별 센서나 관성 센서인 자이로 센서 등을 통해 측정된 인공 위성(10)의 자세, 인공 위성(10)의 공전 속도, 영상을 촬영하는 영상 장치의 촬영 각도 등에 대한 정보를 포함한다(S101).Referring to FIG. 4, the image correcting apparatus 100 may receive posture information of the satellite 10 at the time of acquiring the image and the image from the satellite. The image geometry correction apparatus 100 may sequentially receive the images sequentially captured by the artificial satellite 10. When the images are received sequentially, the posture information of the artificial satellite 10 corresponding to each image is also included Can be received. On the other hand, the attitude information of the artificial satellite 10 can be obtained by measuring the attitude of the artificial satellite 10 measured through a sun sensor, a geomagnetic sensor, a star sensor included in the artificial satellite 10, a gyro sensor serving as an inertial sensor, 10), a shooting angle of a video apparatus for shooting an image, and the like (S101).

영상 기하 보정 장치(100)는 상기 인공 위성(10)의 자세 정보를 기초하여 인공 위성(10)의 상태 벡터를 추정한다. 영상 기하 보정 장치(100)는 상기 추정된 인공 위성(10)의 상태 벡터에 기초하여 미리 선택된 기준 픽셀들에 대응하는 지도 좌표점을 산출하여 제1 기준 좌표로 생성할 수 있다. 또한, 영상 기하 보정 장치(100)는 도 3을 참조하여 설명한 제1 영상과 제2 영상 간 서로 중복된 부분의 영상에서 미리 설정된 객체인 특징점을 검출하고 상기 특징점에 대응하는 지도 좌표점을 산출하여 제2 기준 좌표로 생성할 수 있다(S103).The image geometry correcting apparatus 100 estimates the state vector of the artificial satellite 10 based on the attitude information of the artificial satellite 10. The image geometry correcting apparatus 100 may calculate a map coordinate point corresponding to previously selected reference pixels based on the state vector of the estimated satellite 10 and generate the first reference coordinate. Also, the image geometry correcting apparatus 100 detects a feature point, which is a predetermined object, in an image of a portion overlapping between the first image and the second image described with reference to FIG. 3, and calculates a map coordinate point corresponding to the feature point Can be generated as second reference coordinates (S103).

영상 기하 보정 장치(100)는 제1 영상의 영상 좌표와 지도 좌표계 간의 상호 관계식을 산출하여 제1 영상의 위치를 결정할 수 있다. 구체적으로, 영상 기하 보정 장치(100)는 상기 제1 기준 좌표 및 상기 제2 기준 좌표를 이용하여 영상 상 픽셀의 영상 좌표와 지도 좌표의 관계식을 유도할 수 있다(S105). The image geometry correcting apparatus 100 can determine the position of the first image by calculating the correlation between the image coordinates of the first image and the map coordinate system. Specifically, the image geometry correcting apparatus 100 may derive a relational expression between the image coordinates of the image pixel and the map coordinates using the first reference coordinates and the second reference coordinates (S105).

영상 기하 보정 장치(100)는 상기 유도된 관계식을 이용하여 영상에 포함된 상기 제1 픽셀들을 도 3에서 설명한 지도 좌표계로 변환하는 영상의 기하 보정을 할 수 있다(S107).The image geometry correcting apparatus 100 may perform geometric correction of the image that converts the first pixels included in the image into the map coordinate system described in FIG. 3 using the derived relation (S107).

영상 기하 보정 장치(100)는 상기 기하 보정이 완료되면, 상기 기하 보정된 영상을 재배열(resampling)할 수 있다. 영상 기하 보정 장치(100)는 상기 제1 영상에 포함된 픽셀들의 재배열을 위해 보정 후 영상의 크기를 계산한 후, 보정영상과 보정전 영상과의 관계식인 역변환식을 다시 구할 수 있다. 영상 기하 보정 장치(100)는 구하여진 역변환식을 이용하여 기하 보정한 영상의 각 픽셀이 기하 보정 전 영상의 어디에 위치하는지를 찾아 제1 픽셀을 제외한 나머지 픽셀들을 재배열하여 새로운 영상를 얻는 리샘플링(Resampling)을 수행할 수 있다(S109).When the geometric correction is completed, the image correction device 100 may resamplify the geometrically corrected image. The image geometry correcting apparatus 100 may calculate the size of the post-correction image for rearrangement of the pixels included in the first image, and then obtain an inverse conversion formula that is a relational expression of the corrected image and the pre-correction image. The image geometry correcting apparatus 100 performs resampling to obtain a new image by rearranging the remaining pixels except for the first pixel to find where each pixel of the geometrically corrected image is located in the pre-geometrically corrected image, (S109).

한편, 보정전 영상의 주변 픽셀값을 이용하여 재배열하는 재배열 방법에는 nearest neighbor, bilinear interpolation, cubic convolution 등이 있다.On the other hand, rearrangement methods using rearranged pixel values of pre-correction images include nearest neighbor, bilinear interpolation, and cubic convolution.

도 5는 일 실시예에 따른 제1 기준 좌표를 생성하는 방법을 간략하게 나타내는 흐름도이다.5 is a flowchart briefly illustrating a method of generating a first reference coordinate according to an embodiment.

도 5에 도시된 흐름도는, 도 3에 도시된 영상 기하 보정 장치(100)에서 시계열적으로 처리되는 단계들로 구성된다. 따라서, 이하에서 생략된 내용이라 하더라도, 도 3에서 도시된 구성들에 관하여 이상에서 기술된 내용은 도 5에 도시된 흐름도에도 적용됨을 알 수 있다.The flowchart shown in FIG. 5 consists of the steps that are processed in a time-series manner in the image geometry correcting apparatus 100 shown in FIG. Therefore, it is understood that the contents described above with respect to the configurations shown in FIG. 3 apply to the flowchart shown in FIG. 5, even if omitted from the following description.

도 5를 참조하면, 영상 기하 보정 장치(100)는 제1 기준 좌표를 생성하는데 이용되는 상태 벡터를 추정한다. 영상 기하 보정 장치(100)는 인공 위성(10)의 자세 정보에 기초하여 위성의 상태 벡터를 추정할 수 있다. 영상 기하 보정 장치(100)는 상기 상태 벡터가 도 3을 참조하여 설명한 지도 좌표계에 어느 좌표점을 향하는지 추정할 수 있으며, 이를 포인팅 모델(Pointing model)이라 한다(S111).Referring to FIG. 5, the image geometry correcting apparatus 100 estimates a state vector used to generate the first reference coordinates. The image geometry correcting apparatus 100 can estimate the state vector of the satellite based on the attitude information of the satellite 10. [ The image geometry correcting apparatus 100 can estimate which coordinate point the state vector is directed to in the map coordinate system described with reference to FIG. 3, and this is called a pointing model (S111).

영상 기하 보정 장치(100)는 상기 제1 영상에 일정 간격의 격자(grid)를 생성하고, 상기 격자를 이루는 선들 중 두 선이 만나는 점인 격자점에 위치한 픽셀인 제1 픽셀을 선택한다. 예를 들면, 500 by 500 픽셀을 갖는 영상인 경우, 픽셀 선택부(130)는 100 픽셀 마다 직교하는 격자(grid) 선들을 생성한다. 이 경우, 영상 기하 보정 장치(100)는 영상 좌표에서 (100,100), (100, 200), (100, 300), (100, 400), (200,100), (200, 200), (200, 300), (200, 400), (300,100), (300, 200), (300, 300), (300, 400), (400,100), (400, 200), (400, 300), (400, 400)에 위치하는 픽셀들을 상기 제1 픽셀로 선택할 수 있다(S113).The image geometry correcting apparatus 100 generates a grid at a predetermined interval in the first image and selects a first pixel which is a pixel located at a lattice point at which two lines of the grid are intersected. For example, in the case of an image having 500 by 500 pixels, the pixel selection unit 130 generates grid lines orthogonal to each 100 pixels. In this case, the image geometry correcting apparatus 100 may calculate the image coordinates (100, 100, 200, 100, 300, 100, 400, 200, 100, 200, 200, 400, 300, 100, 300, 200, 300, 300, 400, 400, 100, 400, 200, 400, 300, May be selected as the first pixel (S113).

영상 기하 보정 장치(100)는 상기 추정된 상태 벡터를 이용하여 대응하는 지도 좌표점을 추정하기 위한 적어도 하나의 기준 픽셀을 상기 제1 픽셀 중에서 선택할 수 있다. 예를 들면, 영상 기하 보정 장치(100)는 상기 제1 픽셀들 중 일정 간격으로 떨어진 4개의 기준 픽셀을 선택할 수 있다. 영상 기하 보정 장치(100)는 상기 상태 벡터를 이용하여 적어도 하나의 기준 픽셀에 대응하는 지도 좌표점에 대한 정보를 획득할 수 있다. 이 경우, 영상 기하 보정 장치(100)는 상기 적어도 하나의 기준 픽셀의 영상 상의 좌표 및 이에 대응하는 지도 좌표점들에 대한 정보를 포함하는 제1 기준 좌표를 생성할 수 있다(S115).The image geometry correcting apparatus 100 may select at least one reference pixel from among the first pixels for estimating a corresponding map coordinate point using the estimated state vector. For example, the image geometry correcting apparatus 100 may select four reference pixels spaced apart at regular intervals among the first pixels. The image geometry correcting apparatus 100 may acquire information on a map coordinate point corresponding to at least one reference pixel using the state vector. In this case, the image geometry correcting apparatus 100 may generate a first reference coordinate including coordinates on the image of the at least one reference pixel and corresponding map coordinate points (S115).

한편, 영상 기하 보정 장치(100)는 상기 제1 픽셀의 영상 좌표와 상기 지도 좌표점들의 관계식에 포함되는 미지수의 수를 고려하여 상기 기준 픽셀의 개수를 결정할 수 있다. 예컨대, 상기 관계식을 구하는데 있어서 6개의 미지수를 구해야 하는 경우, 영상 기하 보정 장치(100)는 최소한 3개 이상의 정확한 상기 지도 좌표점들이 필요하므로, 상기 기준 픽셀의 개수는 최소 3개 이상이 선택될 수 있다.Meanwhile, the image geometry correcting apparatus 100 may determine the number of reference pixels in consideration of the number of unknowns included in the relational expression of the image coordinates of the first pixel and the map coordinate points. For example, when six unknowns are to be found in obtaining the relational expression, at least three correct map coordinate points are required for the image correcting apparatus 100, so that at least three reference pixels are selected .

도 6는 일 실시예에 따른 제2 기준 좌표를 생성하는 방법을 간략하게 나타내는 흐름도이다.6 is a flowchart briefly illustrating a method of generating second reference coordinates according to an embodiment.

도 6에 도시된 흐름도는, 도 3에 도시된 영상 기하 보정 장치(100)에서 시계열적으로 처리되는 단계들로 구성된다. 따라서, 이하에서 생략된 내용이라 하더라도, 도 3에서 도시된 구성들에 관하여 이상에서 기술된 내용은 도 6에 도시된 흐름도에도 적용됨을 알 수 있다.The flowchart shown in FIG. 6 is composed of the steps that are processed in a time-series manner in the image geometry correcting apparatus 100 shown in FIG. Therefore, it is understood that the contents described above with respect to the configurations shown in FIG. 3 apply to the flow chart shown in FIG. 6 even if omitted from the following description.

도 6를 참조하면, 영상 기하 보정 장치(100)는 도 3을 참조하여 설명한 중복 영상 부분을 검출할 수 있다. 상술한 바와 같이, 영상 기하 보정 장치(100)는 영상 전체가 아닌 상기 중복 영상 부분에 대해서만 랜드마크 및 구름 등 특징점을 검출하므로, 빠른 시간 내에 기하 보정을 위한 랜드마크 등 영상 상의 특징점을 검출할 수 있다. 따라서, 영상 기하 보정 장치(100)는 촬영한 영상인 제1 영상과 이전에 인접한 지표면을 촬영한 적어도 하나의 제2 영상을 상호 비교하여 상기 중복 영상 부분을 검출할 수 있다(S121).Referring to FIG. 6, the image geometry correcting apparatus 100 may detect the overlapped image portion described with reference to FIG. As described above, the image correcting apparatus 100 detects feature points such as landmarks and clouds only for the redundant image portion, not the entire image, so that the feature points on the image, such as landmarks for geometric correction, have. Accordingly, the image geometry correcting apparatus 100 may compare the first image, which is a photographed image, with at least one second image that previously captured the ground surface, to detect the overlapped image portion (S121).

한편, 제1 영상에서 상기 중복 영상 부분을 제1 영상 부분이라 정의하고, 제2 영상에서 상기 중복 영상 부분을 제2 영상 부분으로 정의하여 이하 설명한다.In the meantime, the redundant image portion is defined as a first image portion in the first image, and the redundant image portion is defined as a second image portion in the second image.

영상 기하 보정 장치(100)는 상기 제1 영상 부분과 상기 제2 영상 부분을 상호 비교하여 공통된 미리 설정된 객체인 특징점을 추출할 수 있다. 상기 특징점인 표지는 지표면 상에 지형, 해안선, 구조물 등 특정 지역의 지도 상 좌표를 정확히 알려줄 수 있는 랜드마크인 제1 표지와 상기 중복 영상 부분에서 공통된 구름의 형상인 제2 표지를 포함한다(S123).The image geometry correcting apparatus 100 may compare the first image portion and the second image portion to extract a common feature point, which is a predetermined object. The feature mark includes a first mark, which is a landmark that can accurately tell the map coordinates of a specific area such as a terrain, a coastline, and a structure, on the ground surface, and a second mark that is a shape of a cloud common to the overlapping image portion (S 123) .

예를 들면, 영상 기하 보정 장치(100)는 상기 제1 영상 부분과 상기 제2 영상 부분의 엣지를 추출하고, 상기 제1 영상 부분에서 추출된 엣지와 상기 제2 영상 부분에서 추출된 엣지를 매칭시켜 매칭되는 엣지를 검출할 수 있다. 영상 기하 보정 장치(100)는 검출된 상기 엣지의 형상 등을 파악하여 이에 대응하는 제1 표지와 제2 표지를 찾을 수 있다. 예컨대, 영상 기하 보정 장치(100)는 영상에서 색상 등이 불연속적으로 변하는 객체들의 경계나 가장 자리인 엣지를 영상들로부터 검출할 수 있다. 영상 기하 보정 장치(100)는 상기 영상들의 엣지를 검출하여 복수의 객체를 추출할 수 있다. 구체적으로, 영상 내에서 특정 픽셀의 값 및 주변 픽셀의 값이 기준 값 이상 차이 나는 경우, 영상 기하 보정 장치(100)는 해당 픽셀들을 그룹핑하고, 기준 픽셀 수 이상이 되는 그룹들을 엣지로서 검출할 수 있다. 한편, 영상 기하 보정 장치(100)는 복수의 객체에 대응하는 엣지들을 검출할 수 있고, 상기 엣지들에 대응되는 복수의 객체 중 관심을 갖는 객체만 선별할 수도 있다.For example, the image geometry correcting apparatus 100 extracts edges of the first image portion and the second image portion, and matches an edge extracted from the first image portion and an edge extracted from the second image portion So that the matching edge can be detected. The image geometry correcting apparatus 100 can detect the shape and the like of the detected edge and find the first marker and the second marker corresponding thereto. For example, the image geometry correcting apparatus 100 can detect, from images, boundaries or edge edges of objects whose colors or the like discontinuously change in the image. The image geometry correcting apparatus 100 may detect edges of the images to extract a plurality of objects. Specifically, when the values of a specific pixel and neighboring pixels differ from each other in the image by more than a reference value, the image correcting apparatus 100 groups the corresponding pixels and detects groups that are equal to or greater than the reference number of pixels as an edge have. On the other hand, the image geometry correcting apparatus 100 may detect edges corresponding to a plurality of objects, and may select only objects of interest among a plurality of objects corresponding to the edges.

영상 기하 보정 장치(100)는 상기 제1 표지와 제2 표지에 기초하여 이에 각각 대응하는 좌표점인 지도 좌표점을 포함하는 제2 기준 좌표를 생성할 수 있다. 구체적으로, 영상 기하 보정 장치(100)는 상기 제1 표지에 대응하는 지도 좌표점을 미리 저장해 두고 있거나, 상기 제2 영상에서 산출된 지도 좌표점을 통해 획득할 수 있다. 또한, 영상 기하 보정 장치(100)는 상기 제2 표지에 대응하는 지도 좌표점을 상기 제2 영상에서 산출된 지도 좌표점을 통해 획득할 수 있다. 영상 기하 보정 장치(100)는 상기 제1 표지와 제2 표지에 해당하는 픽셀들의 영상 좌표 정보 및 상기 제1 표지와 제2 표지에 대응하는 지도 좌표점들을 상술한 방법으로 획득하여 상기 제1 표지 및 제2 표지의 영상 좌표 정보 및 지도 좌표점들의 정보를 포함하는 제2 기준 좌표를 생성할 수 있다(S125).The image geometry correcting apparatus 100 may generate a second reference coordinate including a map coordinate point corresponding to each of the first marker and the second marker based on the first marker and the second marker. Specifically, the image geometry correcting apparatus 100 may store map coordinate points corresponding to the first mark in advance, or may acquire map coordinate points calculated from the second image. In addition, the image geometry correcting apparatus 100 may acquire a map coordinate point corresponding to the second mark through a map coordinate point calculated in the second image. The image geometry correcting apparatus 100 obtains image coordinate information of the pixels corresponding to the first and second covers and map coordinate points corresponding to the first and second covers by the method described above, And the second reference coordinates including the image coordinates information of the second cover and the information of the map coordinate points (S125).

한편, 영상 기하 보정 장치(100)가 제1 영상을 촬영 한 시점과 제2 영상을 촬영한 시점 사이에 구름의 위치가 변한다. 따라서, 제2 영상에서 구름이 위치하는 픽셀에서의 지도 좌표점과 제1 영상에서 상응하는 구름이 위치하는 픽셀에서의 지도 좌표점이 상이할 수 있다. 다만, 인공 위성(10)은 제2 영상을 촬영한 후 1분 이내에 제1 영상을 촬영하고, 상기 1분 동안에 구름의 속도가 15m/s인 경우, 구름의 이동 거리는 대략 1km 정도 밖에 되지 않는다. 따라서, 촬영 장치의 해상도에 비추어 1분 동안 상기 구름의 위치가 거의 변하지 않으므로, 영상 기하 보정 장치(100)는 상기 공통된 구름 형상의 지도 좌표점을 상기 제2 영상에서 추정된 지도 좌표점과 상응한 값으로 설정하여도 정확도 높은 기하 보정을 수행할 수 있다.On the other hand, the position of the cloud changes between the time when the image geometry correcting apparatus 100 picks up the first image and when the second image is taken. Therefore, the map coordinate point in the pixel where the cloud is located in the second image and the coordinate point in the pixel where the corresponding cloud is located in the first image may be different. However, the satellite 10 photographs the first image within one minute after capturing the second image, and when the cloud speed is 15 m / s during the one minute, the cloud travel distance is only about 1 km. Therefore, since the position of the cloud is hardly changed for one minute in view of the resolution of the photographing apparatus, the image geometry correcting apparatus 100 calculates the map coordinate point of the common cloud shape from the map coordinates corresponding to the map coordinate point estimated from the second image Value, it is possible to perform highly accurate geometric correction.

나아가, 도 2를 참조하여 상술한 바와 같이, 인공 위성(10)이 촬영하려는 지표면이 구름으로 가려지는 경우, 상기 구름을 특징점으로 잡아 대응하는 특징점을 갖는 상기 제2 영상에서의 지도 좌표점을 이용하여 인공 위성(10)의 상태 벡터를 오차를 보정할 수 있다. 예컨대, 인공 위성(10)이 촬영하려는 지표면이 구름으로 가려져 적당한 랜드마크를 찾을 수 없는 경우, 지상국은 랜드마크 매칭에 의한 잔차로 상태벡터를 추정하기 어렵고, 이 경우, 추정된 상태 벡터에 기초하여 생성된 제1 기준 좌표는 실제 지도 좌표점과의 오차율이 높아진다.2, when the surface to be photographed by the satellite 10 is covered with a cloud, the cloud is taken as a feature point, and the map coordinate point in the second image having the corresponding feature point is used So that the error of the state vector of the satellite 10 can be corrected. For example, when the ground surface to be photographed by the satellite 10 is covered with a cloud and can not find a suitable landmark, it is difficult for the ground station to estimate the state vector by residual due to landmark matching. In this case, The generated first reference coordinates have a high error rate with respect to the actual map coordinate point.

이 경우에 일 실시예에 따른 영상 기하 보정 장치(100)는, 지표면 상의 특정 구름을 특징점으로 검출할 수 있다. 영상 기하 보정 장치(100)는 상기 지표면과 인접한 곳을 촬영한 제2 영상으로부터 상기 특징점에 대한 지도 좌표점을 획득할 수 있다. 즉, 영상 기하 보정 장치(100)는, 구름에 의해 지표면이 가려지지 않았던 종전 영상인 제2 영상으로부터, 제1 영상에서 공통된 구름에 대한 비교적 정확한 지도 상 좌표 정보를 획득할 수 있다. 즉, 영상 기하 보정 장치(100)는 상기 제2 영상에서 획득한 비교적 정확한 좌표 정보를 통해 상기 구름으로 가려져 오차율이 높아진 상태 벡터의 오차를 직접 보정할 수 있다.In this case, the image geometry correcting apparatus 100 according to the embodiment can detect a specific cloud on the surface of the earth as a feature point. The image geometry correcting apparatus 100 may obtain a map coordinate point for the minutiae from a second image of a portion adjacent to the ground surface. That is, the image geometry correcting apparatus 100 can acquire relatively accurate map coordinate information for a common cloud in the first image from the second image, which is a previous image that was not covered with the clouds by the clouds. That is, the image geometry correcting apparatus 100 can directly correct the error of the state vector in which the error rate is increased, by obscuring the cloud through the relatively accurate coordinate information obtained from the second image.

도 7은 일 실시예에 따른 기준 좌표에 기초하여 제1 영상을 기하 보정하는 방법을 개략적으로 나타내는 흐름도이다.7 is a flowchart schematically showing a method of geometric correction of a first image based on reference coordinates according to an embodiment.

도 7에 도시된 흐름도는, 도 3에 도시된 영상 기하 보정 장치(100)에서 시계열적으로 처리되는 단계들로 구성된다. 따라서, 이하에서 생략된 내용이라 하더라도, 도 3에서 도시된 구성들에 관하여 이상에서 기술된 내용은 도 8에 도시된 흐름도에도 적용됨을 알 수 있다.The flowchart shown in FIG. 7 is composed of the steps that are processed in a time-series manner in the image geometry correcting apparatus 100 shown in FIG. Therefore, even though omitted from the following description, it can be seen that the above description regarding the configurations shown in FIG. 3 also applies to the flow chart shown in FIG.

도 7을 참조하면, 영상 기하 보정 장치(100)는 도 6을 참조하여 설명한 상기 제1 기준 좌표 및 제2 기준 좌표를 이용하여 픽셀의 영상 좌표와 도 3을 참조하여 설명한 지도 좌표계의 지도 좌표점 간에 관계식을 추정한다. 상기 관계식은 RPC(Rational Polynomial Coefficients) 또는 유리함수모델(RFM : Rational Function Model)에 대한 관계식이다(S131).Referring to FIG. 7, the image geometry correcting apparatus 100 uses the first reference coordinates and the second reference coordinates described with reference to FIG. 6 to calculate the image coordinate of the pixel and the map coordinate point of the map coordinate system described with reference to FIG. Estimate the relationship between the two. The relational expression is a relational expression for Rational Polynomial Coefficients (RPC) or Rational Function Model (RFM) (S131).

영상 기하 보정 장치(100)는 상기 관계식을 이용하여 도 5를 참조하여 설명한 격자점에 위치한 제1 픽셀들 각각에 대응하는 지도 좌표점들을 산출할 수 있다. 즉, 영상 기하 보정 장치(100)는 상기 관계식에 따라 제1 픽셀의 영상 좌표의 입력하여 기하 보정에 따른 대응하는 지도 좌표점의 출력을 산출할 수 있다(S133).The image geometry correcting apparatus 100 may calculate map coordinate points corresponding to the first pixels located at the lattice points described with reference to FIG. 5 using the relational expression. That is, the image geometry correcting apparatus 100 can calculate the output of the corresponding map coordinate point according to the geometrical correction by inputting the image coordinates of the first pixel according to the relational expression (S133).

영상 기하 보정 장치(100)는 상기 제1 픽셀들을 상기 산출된 지도 좌표점에 대응하도록 좌표 변환하는 기하 보정을 수행할 수 있다. 구체적으로, 영상 기하 보정 장치(100)는 상기 제1 영상의 제1 픽셀을 2차원 변환(이동, 회전, 스케일링 등) 방법으로 움직여 상기 지도 좌표계로 변환할 수 있다(S135). The image geometry correcting apparatus 100 may perform geometric correction to coordinate transform the first pixels to correspond to the calculated map coordinate point. Specifically, the image geometry correcting apparatus 100 may convert the first pixel of the first image into a map coordinate system by moving it by a two-dimensional transformation (movement, rotation, scaling, etc.) (S135).

영상 기하 보정 장치(100)는 보정영상과 보정 전 영상과의 관계식인 역변환식을 다시 구할 수 있다. 영상 기하 보정 장치(100)는 구하여진 역변환식을 이용하여 기하 보정한 영상의 각 픽셀이 기하 보정 전 영상의 어디에 위치하는지를 찾아 제1 픽셀을 제외한 나머지 픽셀들을 재배열하여 새로운 영상를 얻는 리샘플링(Resampling)을 수행할 수 있다(S137). The image geometry correcting apparatus 100 can again obtain an inverse transformation formula which is a relational expression of the corrected image and the pre-corrected image. The image geometry correcting apparatus 100 performs resampling to obtain a new image by rearranging the remaining pixels except for the first pixel to find where each pixel of the geometrically corrected image is located in the pre-geometrically corrected image, (S137).

이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.The embodiments of the present invention described above can be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program commands, data files, data structures, and the like, alone or in combination. The program instructions recorded on the computer-readable recording medium may be those specifically designed and configured for the present invention or may be those known and used by those skilled in the computer software arts. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROM and DVD, magneto-optical media such as floptical disks, medium, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code, such as those generated by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be modified into one or more software modules for performing the processing according to the present invention, and vice versa.

본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.The specific acts described in the present invention are, by way of example, not intended to limit the scope of the invention in any way. For brevity of description, descriptions of conventional electronic configurations, control systems, software, and other functional aspects of such systems may be omitted. Also, the connections or connecting members of the lines between the components shown in the figures are illustrative of functional connections and / or physical or circuit connections, which may be replaced or additionally provided by a variety of functional connections, physical Connection, or circuit connections. Also, unless explicitly mentioned, such as " essential ", " importantly ", etc., it may not be a necessary component for application of the present invention.

따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.Accordingly, the spirit of the present invention should not be construed as being limited to the above-described embodiments, and all ranges that are equivalent to or equivalent to the claims of the present invention as well as the claims .

10: 인공 위성
100: 영상 기하 보정 장치
110: 수신부
120: 상태 벡터 추정부
130: 픽셀 선택부
140: 특징점 검출부
150: 기준 좌표 생성부
160: 관계식 추정부
170: 기하 보정부
180: 리샘플링부
200: 지구
210: 적도
10: Satellite
100: image geometry correction device
110:
120: state vector estimator
130:
140:
150: reference coordinate generating unit
160: Relational expression estimating unit
170: Geometrical Correction
180: resampling unit
200: Earth
210: Equator

Claims (22)

인공 위성이 촬영한 영상을 지구의 지표면에 대한 지도 좌표계로 기하 보정하는 영상 기하 보정 방법에 있어서,
인공 위성으로부터 인공 위성의 자세 정보 및 제1 영상을 수신 받는 단계;
상기 제1 영상에서 일정 간격의 격자를 생성하고, 상기 격자 상의 격자점에 위치하는 상기 제1 영상의 픽셀인 제1 픽셀을 추출하는 단계;
상기 제1 영상 및 제2 영상 간에 공통된 특징점을 검출하는 단계;
상기 자세 정보 및 상기 특징점에 기초하여 지도 좌표계의 기준 좌표를 생성하는 단계; 및
상기 기준 좌표에 기초하여 상기 제1 픽셀에 대응하는 상기 지도 좌표계의 좌표점인 지도 좌표점을 추정하고, 상기 추정된 지도 좌표점에 기초하여 상기 제1 영상을 기하 보정하는 기하 보정 단계;를 포함하는 영상 기하 보정 방법.
An image geometry correction method for geometrically correcting an image photographed by a satellite with a map coordinate system for an earth surface of the earth,
Receiving attitude information and a first image of a satellite from a satellite;
Generating a grid at regular intervals in the first image and extracting a first pixel that is a pixel of the first image located at a lattice point on the grid;
Detecting common feature points between the first image and the second image;
Generating reference coordinates of a map coordinate system based on the attitude information and the minutiae; And
And a geometric correction step of estimating a map coordinate point, which is a coordinate point of the map coordinate system corresponding to the first pixel, based on the reference coordinates, and geometrically correcting the first image based on the estimated map coordinate point Image Geometric Correction Method.
제1항에 있어서,
상기 제2 영상은 상기 제1 영상이 촬영한 지표면과 인접하는 지표면을 촬영한 영상인 것을 특징으로 하는 영상 기하 보정 방법.
The method according to claim 1,
Wherein the second image is an image of a surface of the ground adjacent to the ground surface on which the first image is captured.
제1항에 있어서,
상기 자세 정보에 기초하여 상기 제1 영상의 상태 벡터를 추정하는 단계;를 더 포함하는 영상 기하 보정 방법.
The method according to claim 1,
And estimating a state vector of the first image based on the attitude information.
제3항에 있어서,
상기 기준 좌표를 생성하는 단계는,
상기 제1 픽셀 중 적어도 하나의 기준 픽셀을 선택하는 단계; 및
상기 제1 영상의 상태 벡터를 기초하여 상기 적어도 하나의 기준 픽셀에 대응하는 상기 지도 좌표계의 좌표점을 검출하고, 상기 검출된 지도 좌표계의 좌표점을 포함하는 제1 기준 좌표를 생성하는 단계;를 더 포함하는 영상 기하 보정 방법.
The method of claim 3,
Wherein the step of generating the reference coordinates comprises:
Selecting at least one reference pixel among the first pixels; And
Detecting a coordinate point of the map coordinate system corresponding to the at least one reference pixel based on the state vector of the first image and generating a first reference coordinate including the coordinate point of the detected map coordinate system; Further comprising an image geometry correction method.
제4항에 있어서,
상기 특징점을 추출하는 단계는,
상기 제1 영상에서 제2 영상과 중복된 영상 부분인 중복 영상을 검출하는 단계;
상기 중복된 영상에서 제2 영상과 공통되는 미리 설정된 객체를 추출하는 단계;를 더 포함하는 영상 기하 보정 방법.
5. The method of claim 4,
Wherein the extracting of the feature points comprises:
Detecting a redundant image that is an image portion overlapping the second image in the first image;
And extracting a preset object common to the second image from the overlapped image.
제5항에 있어서,
상기 미리 설정된 객체는 지표면의 지형, 해안선 및 구조물 중 적어도 하나인 제1 표지를 포함하는 영상 기하 보정 방법.
6. The method of claim 5,
Wherein the predetermined object includes a first marker that is at least one of a terrain surface, a shoreline, and a structure.
제6항에 있어서,
상기 미리 설정된 객체는 지표면 상의 구름인 제2 표지를 더 포함하는 영상 기하 보정 방법.
The method according to claim 6,
Wherein the preset object further comprises a second marker that is a cloud on the surface of the earth.
제7항에 있어서,
상기 기준 좌표를 생성하는 단계는,
상기 제1 표지 및 상기 제2 표지에 대응하는 상기 지도 좌표계의 좌표점을 상기 제2 영상으로부터 획득하고, 상기 획득한 지도 좌표계의 좌표점을 포함하는 제2 기준 좌표를 생성하는 단계;를 더 포함하고,
상기 기준 좌표는 상기 제1 기준 좌표 및 상기 제2 기준 좌표를 포함하는 영상 기하 보정 방법.
8. The method of claim 7,
Wherein the step of generating the reference coordinates comprises:
Acquiring a coordinate point of the map coordinate system corresponding to the first mark and the second mark from the second image and generating a second reference coordinate including the coordinate point of the acquired map coordinate system and,
Wherein the reference coordinates include the first reference coordinates and the second reference coordinates.
제8항에 있어서,
상기 기하 보정 단계는,
상기 기준 좌표와 이에 대응하는 픽셀의 영상상 위치의 관계식을 추정하는 단계 추정하는 단계; 및
상기 추정된 관계식을 이용하여 상기 선택된 제1 픽셀의 지도 좌표점을 추정하는 단계;를 더 포함하는 영상 기하 보정 방법.
9. The method of claim 8,
Wherein the geometry correction step comprises:
Estimating a relational expression of the reference coordinates and an image position on the corresponding pixel; And
And estimating a map coordinate point of the selected first pixel using the estimated relational expression.
제1항에 있어서,
상기 제2 영상은 상기 지도 좌표계로 좌표 변환이 완료된 영상인 것을 특징으로 하는 영상 기하 보정 방법.
The method according to claim 1,
Wherein the second image is a coordinate-converted image of the map coordinate system.
인공 위성이 촬영한 영상을 지구의 지표면에 대한 지도 좌표계로 기하 보정하는 영상 기하 보정 장치에 있어서,
인공 위성으로부터 제1 영상 및 자세 정보를 수신 받는 수신부;
상기 제1 영상에서 일정 간격의 격자를 생성하고, 상기 격자 상의 격자점에 위치하는 상기 제1 영상의 픽셀인 제1 픽셀을 선택하는 추정대상 선택부;
상기 제1 영상 및 제2 영상 간에 공통된 특징점을 검출하는 특징점 검출부;
상기 자세 정보 및 상기 특징점에 기초하여 지도 좌표계의 기준 좌표를 생성하는 기준 좌표 생성부; 및
상기 기준 좌표에 기초하여 상기 제1 픽셀에 대응하는 상기 지도 좌표계의 좌표점인 지도 좌표점을 추정하여 상기 제1 영상을 기하 보정하는 기하 보정부;를 포함하는 영상 기하 보정 장치.
1. An image geometry correction apparatus for geometrically correcting an image photographed by a satellite with a map coordinate system for an earth surface of the earth,
A receiving unit receiving first image and attitude information from a satellite;
An estimation object selection unit which generates a grid at a predetermined interval in the first image and selects a first pixel which is a pixel of the first image located at a lattice point on the grid;
A feature point detector for detecting common feature points between the first image and the second image;
A reference coordinate generator for generating reference coordinates of a map coordinate system based on the attitude information and the minutiae points; And
And a geometric correcting unit for geometrically correcting the first image by estimating a map coordinate point, which is a coordinate point of the map coordinate system corresponding to the first pixel, based on the reference coordinates.
제11항에 있어서,
상기 제2 영상은 상기 제1 영상이 촬영한 지표면과 인접하는 지표면을 촬영한 영상인 것을 특징으로 하는 영상 기하 보정 장치.
12. The method of claim 11,
Wherein the second image is an image of a surface of the ground adjacent to the ground surface on which the first image is captured.
제12항에 있어서,
상기 자세 정보에 기초하여 상기 제1 영상의 상태 벡터를 추정하는 상태 벡터 추정부;를 더 포함하는 영상 기하 보정 장치.
13. The method of claim 12,
And a state vector estimating unit estimating a state vector of the first image based on the attitude information.
제13항에 있어서,
상기 기준 좌표 생성부는 상기 제1 픽셀 중 적어도 하나의 기준 픽셀을 선택하고,
상기 제1 영상의 상태 벡터에 기초하여 상기 적어도 하나의 기준 픽셀에 대응하는 상기 지도 좌표계의 좌표점을 검출하고, 상기 검출된 좌표점을 포함하는 제1 기준 좌표를 생성하는 영상 기하 보정 장치.
14. The method of claim 13,
Wherein the reference coordinate generator selects at least one reference pixel among the first pixels,
And detects a coordinate point of the map coordinate system corresponding to the at least one reference pixel based on the state vector of the first image and generates a first reference coordinate including the detected coordinate point.
제14항에 있어서,
상기 특징점 검출부는 상기 제1 영상에서 상기 제2 영상과 중복된 영상 부분인 중복 영상을 검출하고, 상기 중복된 영상에서 제2 영상과 공통되는 미리 설정된 객체를 추출하는 영상의 기하 보정장치.
15. The method of claim 14,
Wherein the feature point detection unit detects a redundant image that is an image portion overlapping the second image in the first image and extracts a predetermined object common to the second image in the redundant image.
제15항에 있어서,
상기 미리 설정된 객체는 지표면의 지형, 해안선 및 구조물 중 적어도 하나인 제1 표지를 포함하는 영상 기하 보정 장치.
16. The method of claim 15,
Wherein the predetermined object includes a first marker that is at least one of a terrain surface, a shoreline, and a structure.
제16항에 있어서,
상기 미리 설정된 객체는 지표면 상에 구름인 제2 표지를 더 포함하는 영상 기하 보정 장치.
17. The method of claim 16,
Wherein the predetermined object further comprises a second marker that is a cloud on an earth surface.
제17항에 있어서,
상기 기준 좌표 생성부는 상기 제1 표지 및 상기 제2 표지에 대응하는 상기 지도 좌표계의 좌표점에 대한 정보를 상기 제2 영상으로부터 획득하고, 상기 획득한 지도 좌표계의 좌표점을 포함하는 제2 기준 좌표를 생성하며,
상기 기준 좌표는 상기 제1 기준 좌표 및 상기 제2 기준 좌표를 포함하는 영상 기하 보정 장치.
18. The method of claim 17,
Wherein the reference coordinates generator obtains information on coordinate points of the map coordinate system corresponding to the first mark and the second mark from the second image and generates second reference coordinates including coordinate points of the obtained map coordinate system / RTI >
Wherein the reference coordinates include the first reference coordinates and the second reference coordinates.
제18항에 있어서,
상기 기준 좌표와 이에 대응하는 픽셀의 영상 상 위치의 관계식을 추정하는 관계식 추정부;를 더 포함하는 영상 기하 보정 장치.
19. The method of claim 18,
And a relational expression estimating unit that estimates a relational expression between the reference coordinates and a position of an image on the corresponding pixel.
제19항에 있어서,
상기 기하 보정부는 상기 추정된 관계식을 이용하여 상기 선택된 제1 픽셀의 지도 좌표점을 추정하는 영상 기하 보정 장치.
20. The method of claim 19,
And the geometric correction unit estimates a map coordinate point of the selected first pixel using the estimated relational expression.
제11항에 있어서,
상기 제2 영상은 상기 지도 좌표계로 좌표 변환이 완료된 영상인 것을 특징으로 하는 영상 기하 보정 장치.
12. The method of claim 11,
Wherein the second image is a coordinate-converted image of the map coordinate system.
제1항 내지 제10항 중 어느 한 항에 따른 방법을 실행하기 위한 프로그램이 기록되어 있는 컴퓨터 판독 가능한 기록 매체.A computer-readable recording medium on which a program for executing the method according to any one of claims 1 to 10 is recorded.
KR1020160111695A 2016-08-31 2016-08-31 Image geometric correction methods and apparatus for the same KR101850819B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160111695A KR101850819B1 (en) 2016-08-31 2016-08-31 Image geometric correction methods and apparatus for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160111695A KR101850819B1 (en) 2016-08-31 2016-08-31 Image geometric correction methods and apparatus for the same

Publications (2)

Publication Number Publication Date
KR20180024809A true KR20180024809A (en) 2018-03-08
KR101850819B1 KR101850819B1 (en) 2018-04-20

Family

ID=61726044

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160111695A KR101850819B1 (en) 2016-08-31 2016-08-31 Image geometric correction methods and apparatus for the same

Country Status (1)

Country Link
KR (1) KR101850819B1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109636757A (en) * 2018-12-17 2019-04-16 哈尔滨工业大学 Remotely sensing image geometric correction method based on satellite motion physical characteristic Orbit extrapolation
KR20190053404A (en) * 2017-11-10 2019-05-20 한국항공우주연구원 Method and apparatus for constructing high precision 3D GIS data using lattice type GCPs
KR20200106680A (en) * 2019-03-05 2020-09-15 경북대학교 산학협력단 Orthophoto building methods using aerial photographs
KR20200122967A (en) * 2019-04-19 2020-10-28 주식회사 스트리스 System and method for building road space information through linkage between image information and position information acquired from a plurality of image sensors
KR102249381B1 (en) * 2019-11-25 2021-05-07 주식회사 스트리스 System for generating spatial information of mobile device using 3D image information and method therefor
KR102267766B1 (en) * 2020-06-19 2021-06-23 한국항공우주연구원 System and method for image navigation and registration of satellites
CN113160070A (en) * 2021-03-02 2021-07-23 中国人民解放军空军航空大学 Aviation three-step area array image geometric correction method
KR20210108590A (en) * 2020-02-26 2021-09-03 경희대학교 산학협력단 Apparatus and method for acquiring information regarding the sun

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102426785B1 (en) * 2020-12-10 2022-07-28 인하대학교 산학협력단 Method and apparatus for Geometric Correction of Satellite Image Strips

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BRPI0508226A (en) * 2004-02-27 2007-07-17 Intergraph Software Tech Co forming a single image from overlay images
JP2005292882A (en) * 2004-03-31 2005-10-20 Remoto Sensing Technology Center Of Japan Image correction processing system
KR100671497B1 (en) * 2006-05-08 2007-01-19 (주)대한지적기술단 Method for correcting photograph image using distortion correction and distortion compensation
JP5349273B2 (en) * 2009-12-16 2013-11-20 三菱電機株式会社 RPC calculator

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190053404A (en) * 2017-11-10 2019-05-20 한국항공우주연구원 Method and apparatus for constructing high precision 3D GIS data using lattice type GCPs
CN109636757A (en) * 2018-12-17 2019-04-16 哈尔滨工业大学 Remotely sensing image geometric correction method based on satellite motion physical characteristic Orbit extrapolation
KR20200106680A (en) * 2019-03-05 2020-09-15 경북대학교 산학협력단 Orthophoto building methods using aerial photographs
KR20200122967A (en) * 2019-04-19 2020-10-28 주식회사 스트리스 System and method for building road space information through linkage between image information and position information acquired from a plurality of image sensors
KR102249381B1 (en) * 2019-11-25 2021-05-07 주식회사 스트리스 System for generating spatial information of mobile device using 3D image information and method therefor
KR20210108590A (en) * 2020-02-26 2021-09-03 경희대학교 산학협력단 Apparatus and method for acquiring information regarding the sun
KR102267766B1 (en) * 2020-06-19 2021-06-23 한국항공우주연구원 System and method for image navigation and registration of satellites
CN113160070A (en) * 2021-03-02 2021-07-23 中国人民解放军空军航空大学 Aviation three-step area array image geometric correction method
CN113160070B (en) * 2021-03-02 2022-07-26 中国人民解放军空军航空大学 Aviation three-step area array image geometric correction method

Also Published As

Publication number Publication date
KR101850819B1 (en) 2018-04-20

Similar Documents

Publication Publication Date Title
KR101850819B1 (en) Image geometric correction methods and apparatus for the same
Teshima et al. Correction of attitude fluctuation of Terra spacecraft using ASTER/SWIR imagery with parallax observation
KR101668006B1 (en) Satellite Based Method and System for Constructing 3D GIS Data
CN108917753B (en) Aircraft position determination method based on motion recovery structure
Chiodini et al. Mars rovers localization by matching local horizon to surface digital elevation models
CN111398980B (en) Method and device for processing airborne LiDAR data
US9383210B2 (en) Image navigation and registration (INR) transfer from exquisite systems to hosted space payloads
Liu et al. Attitude jitter detection based on remotely sensed images and dense ground controls: A case study for Chinese ZY-3 satellite
Ye et al. Improved geometric modeling of 1960s KH-5 ARGON satellite images for regional Antarctica applications
EP3901577B1 (en) Adaptive gaussian derivative sigma systems and methods
JP3874363B1 (en) Position rating device, position rating method, and position rating program
Mostafa et al. Optical flow based approach for vision aided inertial navigation using regression trees
JP2016223934A (en) Position correction system, position correcting method, and position correction program
Rau et al. Development of a large-format uas imaging system with the construction of a one sensor geometry from a multicamera array
JP2009509125A (en) Method and apparatus for determining a position associated with an image
Kikuya et al. Attitude determination algorithm using Earth sensor images and image recognition
Kirk et al. Near-complete 1-m topographic models of the MSL candidate landing sites: Site safety and quality evaluation
Mirisola et al. Trajectory recovery and 3d mapping from rotation-compensated imagery for an airship
CN109341685B (en) Fixed wing aircraft vision auxiliary landing navigation method based on homography transformation
Nisihama et al. MODIS geolocation algorithm and error analysis tools
Son et al. Comparison of Geometric Correction Schemes for Geostationary Ocean Color Imager Slots Without Gcps
Toth et al. Recovery of sensor platform trajectory from LiDAR data using reference surfaces
Kim et al. A Polynomial-based Ortho-rectification for SAR Imagery
EP3901578B1 (en) Edge detection via window grid normalization
CN113902626B (en) Orthorectification method for extra constraint condition of ultra-wide linear array image

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant