KR101345554B1 - Method of resampling high resolution digital multi band imagery from line senser into frame type imagery to construct gis(uis), digital map and 3d spatial information using ground control point and gps/ins data - Google Patents
Method of resampling high resolution digital multi band imagery from line senser into frame type imagery to construct gis(uis), digital map and 3d spatial information using ground control point and gps/ins data Download PDFInfo
- Publication number
- KR101345554B1 KR101345554B1 KR1020130124498A KR20130124498A KR101345554B1 KR 101345554 B1 KR101345554 B1 KR 101345554B1 KR 1020130124498 A KR1020130124498 A KR 1020130124498A KR 20130124498 A KR20130124498 A KR 20130124498A KR 101345554 B1 KR101345554 B1 KR 101345554B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- unit
- ground
- signal
- line
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C15/00—Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
- G01C21/32—Structuring or formatting of map data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0968—Systems involving transmission of navigation instructions to the vehicle
- G08G1/0969—Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B29/00—Maps; Plans; Charts; Diagrams, e.g. route diagram
Abstract
Description
본 발명은 지상기준점측량과 GPS/INS가 연계된 고해상 선형방식 디지털 다중 밴드 영상을 GIS와 수치지도와 3차원국토공간정보로 구축하기위해 면형방식영상으로 재배열하는 방법에 관한 것으로 더욱 상세하게는 라인(Line) 센서 항공디지털카메라가 지상 40 Km 범위를 일정한 폭의 1개 스트립(Strip)으로 촬영한 약 20 GB 정도 용량의 영상 이미지 데이터에 GPS 지상기준점 측량(지적, 측지) 성과와 GPS/INS가 연계된 항공삼각측량 방식의 절대좌표를 부여하고, 근적외선 밴드가 포함된 고해상 Line 방식 디지털 다중 밴드의 영상으로부터 분리된 단위영상을 생성하며 메타데이터가 포함된 속성DB를 자동으로 생성하여 수치지도와 3차원 국토공간정보를 구축하는 지상기준점측량과 GPS/INS가 연계된 고해상 선형방식 디지털 다중 밴드 영상을 GIS와 수치지도와 3차원국토공간정보로 구축하기위해 면형방식영상으로 재배열하는 방법에 관한 것이다.
The present invention relates to a method of rearranging a high resolution linear digital multiband image in which a ground control point survey and a GPS / INS are linked to a planar image to construct a GPS, a digital map, and three-dimensional land-spatial information. Line sensor aerial digital camera captures GPS ground-based point survey (intellectual and geodetic) performance and GPS / INS on video image data of approximately 20 GB capacity, taken from a single strip with a constant width of 40 km above ground. Gives absolute coordinates of the associated air triangulation method, generates unit images separated from high-resolution line-type digital multi-band images including near infrared bands, and automatically generates attribute DBs containing metadata for digital maps. We are planning to provide a high resolution linear digital multi-band image linking ground control point surveying and GPS / INS to construct 3D national spatial information. S and the method of rearranging by planar image for constructing digital map and 3D national spatial information.
국토지리정보원에서 항공촬영된 사진의 영상 이미지로 데이터베이스(DB)를 구축(즉, 영상을 취득(생성)하여 속성DB를 구축)하여 국토공간영상정보로 활용하는 종래의 방법은 크게 아날로그방식 항공카메라로 촬영 후 항공사진 자동독취, 속성DB 구축, 표준압축 포맷(NIX)변환, DB로딩의 단계로 구성되는데, 각 단계의 공정이 수동으로 작성되어 시간과 인력이 많이 소요된다. 뿐만 아니라 아날로그항공카메라로 촬영한 영상은 근래에 도입된 라인센서 항공디지털카메라로 촬영한 영상에 비해 품질이 떨어진다. The conventional method of constructing a database (DB) with video images of aerial photographs taken by the National Geographic Information Institute (that is, acquiring (generating) images and constructing an attribute DB) and using them as national spatial spatial image information is largely analog type aerial camera. After the shooting, it consists of automatic reading of aerial photographs, construction of attribute DB, conversion of standard compression format (NIX), and loading of DB. In addition, images taken with analog aviation cameras are of lower quality than those taken with line sensor aviation digital cameras.
고품질의 라인세서 항공디지털카메라로 촬영한 영상과 그 촬영정보를 이용하여 국토공간영상정보로 활용하기 위한 항공사진 영상의 DB를 구축을 하고, 상기의 영상DB 구축단계를 자동화할 필요가 있다. It is necessary to build a database of aerial photographs for use as national spatial image information by using images taken with high-quality line digital aerial cameras and photographing information, and to automate the image DB construction step.
그러나 라인센서 항공디지털카메라로 촬영한 디지털 영상(이미지)은 1개의 스트립으로 이루어지고 일정한 폭으로 촬영하며 최대 40km 내외의 길이를 촬영하고 영상의 데이터 용량이 20GB 정도가 된다. 여기서 촬영되는 영상이 1개의 스트립으로 이루어지는 것을 선형방식 촬영이라고 한다. 그러므로 영상 전체를 하나의 데이터로 하여 DB를 구축할 수는 없고 영상을 일정 규격 단위로 절취하며 절취된 각각의 단위영상에 대한 속성DB를 구축하여야 한다. However, digital images (images) taken by line sensor aviation digital cameras consist of one strip, shoot with a constant width, shoot up to 40km in length, and have a data capacity of about 20GB. In this case, the filmed image is composed of one strip and is called linear type photographing. Therefore, it is not possible to construct a DB with the whole image as one data, but to cut the image in certain standard units and to build the attribute DB for each cut-out unit image.
또한, 라인센서 항공디지털카메라로 촬영한 영상은 라인별로 촬영정보를 각각 갖지 못하고, 일정 간격 마다 지정된 특정 라인에서 촬영정보를 갖고 있다. 그러므로 지정된 특정 라인의 촬영정보를 적극 활용하여 인접한 각 라인별의 촬영정보를 근사적으로 획득하고 단위영상을 각각 생성하여 속성DB를 구축하여야 한다.
In addition, the image photographed by the line sensor aerial digital camera does not have the photographing information for each line, but has the photographing information in a specific line designated at regular intervals. Therefore, by taking advantage of the photographing information of the specified specific line, it is necessary to obtain the photographing information of each adjacent line approximately, and to generate the unit image to construct the attribute DB.
상기와 같은 종래 기술의 문제점과 필요성을 해소하기 위하여 안출한 본 발명은 라인센서 항공디지털카메라 장비로부터 촬영된 영상(이미지)과 촬영정보를 획득하고 이를 국토지리원의 국토공간영상정보로 활용할 수 있도록 면형방식영상으로 분할하고 각 면형방식영상에 대한 각각의 속성DB를 연산하여 항공영상 데이터베이스를 구축하는 지상기준점측량과 GPS/INS가 연계된 고해상 선형방식 디지털 다중 밴드 영상을 GIS와 수치지도와 3차원국토공간정보로 구축하기위해 면형방식영상으로 재배열하는 방법을 제공하는 것이 그 목적이다. In order to solve the problems and necessity of the prior art as described above, the present invention obtains the image (image) and shooting information taken from the line sensor aviation digital camera equipment and the surface type so that it can be used as the national geospatial image information of the National Geographic Institute The high resolution linear digital multi-band image linking the ground control point survey and GPS / INS to construct the aerial image database by dividing the method image and calculating the respective property DB for each planar type image. The purpose is to provide a method of rearranging the planar image to construct the spatial information.
또한, 본 발명은 비행기에 설치된 라인센서 항공 디지털 카메라 장비에서 촬영한 원시영상 정보와 해당되는 촬영정보의 신호를 실시간으로 전송하고 다수 경로를 구비하여 일부의 장애가 발생하는 경우에도 오류없이 신호를 전송할 수 있는 지상기준점측량과 GPS/INS가 연계된 고해상 선형방식 디지털 다중 밴드 영상을 GIS와 수치지도와 3차원국토공간정보로 구축하기위해 면형방식영상으로 재배열하는 방법을 제공하는 것이 그 목적이다.
In addition, the present invention transmits the signals of the raw image information and the corresponding photographing information taken by the line sensor aviation digital camera equipment installed on the plane in real time and can transmit a signal without errors even if some failure occurs by having a plurality of paths. The purpose of the present invention is to provide a method of rearranging high resolution linear digital multiband images linked with ground control point surveying and GPS / INS to planar images for constructing GPS, digital maps, and 3D national spatial information.
상기와 같은 목적을 달성하기 위하여 안출한 본 발명의 지상기준점측량과 GPS/INS가 연계된 고해상 선형방식 디지털 다중 밴드 영상을 GIS와 수치지도와 3차원국토공간정보로 구축하기위해 면형방식영상으로 재배열하는 방법은 (S10) 라인센서 항공디지털 카메라 장비로부터 원시 영상과, 원시 영상의 촬영 정보(메타데이터 및 위치데이터를 포함)를 획득하는 단계; (S20) 후처리 DGPS 원리에 따라 지상기준점 데이터와 상기 촬영 정보를 이용하여 좌표계변환 및 시간동기화 작업을 통해 상기 (S10)단계에서 획득되지 않는 상기 원시 영상의 각 라인별 외부표정요소를 획득하는 단계; (S30) 상기 S20단계에서 획득한 각 라인별 외부표정요소와 상기 S10단계에서 획득한 촬영 정보의 내부표정요소를 이용하여 공선조건식을 통해 상기 원시 영상의 기하 왜곡을 보정한 기하보정 영상을 획득하는 단계; (S40) 상기 원시 영상 및 기하보정 영상의 영상좌표 각각을 지상좌표로 변환하고, 상기 기하보정 영상의 각 픽셀에 대해 변환된 지상좌표와 근접한 지상좌표를 갖는 상기 원시 영상의 픽셀을 추출하고, 추출된 원시 영상의 픽셀이 갖는 외부표정요소를 기하보정 영상의 해당 픽셀의 외부표정요소로 간주하는 방식으로, 기하보정 영상 중심의 주점좌표에 외부표정요소를 부여하여 기하보정 영상의 각 라인별 외부표정요소를 획득하는 단계; (S50) 각 라인별 외부표정요소가 획득된 상기 기하보정 스트립(Strip) 영상을 일정 크기의 영상으로 생성하고, 각 생성된 영상(즉, 면형방식영상)의 속성DB를 구축하는 단계;를 포함하여 이루어지되, 상기 S40단계에서 상기 기하보정 영상의 각 픽셀에 대해 변환된 지상좌표와 근접한 지상좌표를 갖는 원시 영상의 픽셀 추출은 Affine 변환을 이용하고, 상기 S50단계는 기하보정 스트립 영상을 절취한 후에 기하보정으로 굴곡이 발생된 각 절취 영상의 상하단을 일정부분 절취하여 절취 영상을 직사각형화 하는 단계를 포함하는 지상기준점측량과 GPS/INS가 연계된 고해상 선형방식 디지털 다중 밴드 영상을 GIS와 수치지도와 3차원국토공간정보로 구축하기위해 면형방식영상으로 재배열하는 방법에 있어서, 상기 S10단계는 상기 라인센서 항공디지털 카메라 장비로부터 지상 처리 시스템이 상기 원시 영상과 상기 촬영 정보를 이동통신 방식과 레이저 광통신 방식과 에프엠 무선통신 방식으로 각각 실시간 획득하고 상기 획득된 신호의 데이터를 산술평균 연산 처리하여 무선전송오차 제거하고, 상기 라인센서 항공디지털 카메라 장비는 비행기의 하부 일측에 설치되고 가시광선과 근거리적외선으로 각각 촬영된 원시 영상의 신호와 상기 원시 영상에 대한 촬영정보 신호를 디지털 신호로 각각 출력하는 카메라부; 상기 카메라부에 접속하고 출력되는 신호를 지정된 영역에 저장하는 엠엠에스부; 상기 카메라부와 엠엠에스부에 접속하고 상기 라인센서 항공디지털 카메라 장비의 각 기능부를 운용하며 감시하는 제어신호를 각각 출력하는 항공제어부; 및 상기 항공제어부와 엠엠에스부에 접속하고 상기 제어신호에 의하여 이동통신 방식과 레이저 광신호를 이용한 광통신 방식과 에프엠 방식 신호를 이용한 에프엠통신 방식으로 양방향 통신하는 항공통신부; 를 포함하고, 상기 항공통신부는 상기 지상 처리 시스템과 이동통신 방식으로 무선접속하고 상기 항공제어부의 제어신호에 의하여 상기 엠엠에스부에 저장된 신호를 송신하며 상기 지상 처리 시스템이 송신하는 제어명령과 운용 데이터 신호를 수신하는 제 1 항공무선부; 상기 지상 처리 시스템과 광통신 방식으로 무선접속하고 상기 항공제어부의 제어신호에 의하여 상기 엠엠에스부에 저장된 신호를 송신하는 제 2 항공무선부; 상기 지상 처리 시스템과 에프엠 통신 방식으로 무선접속하고 상기 항공제어부의 제어신호에 의하여 상기 엠엠에스부에 저장된 신호를 송신하는 제 3 항공무선부; 및 상기 지상 처리 시스템과 유선접속하고 상기 항공제어부의 제어신호에 의하여 상기 엠엠에스부에 저장된 신호를 송신하며 상기 지상 처리 시스템이 송신하는 제어명령과 운용 데이터 신호를 수신하는 항공유선통신부; 를 포함하여 이루어지고, 상기 지상 처리 시스템은 상기 라인센서 항공 디지털 카메라 장비에 접속하고 이동통신 방식과 레이저 광신호를 이용한 광통신 방식과 에프엠 신호를 이용한 에프엠 통신 방식으로 양방향 통신하는 지상통신부; 상기 지상통신부와 접속하고 상기 이동통신 방식과 광통신 방식과 에프엠 통신 방식으로 각각 송수신되는 신호의 전송오류를 패리티 체크 비트 방식으로 각각 검출 수정하고 수정된 각 방식의 신호를 산술평균 방식으로 연산하여 출력하는 평균연산부; 상기 평균연산부와 지상통신부에 접속하고 상기 지상처리 시스템의 각 기능부를 운용하며 감시하는 제어신호를 각각 출력하는 지상제어부; 및 상기 평균연산부에 접속하고 상기 지상제어부의 제어신호에 의하여 상기 원시 영상 신호와 촬영 정보를 입력하여 할당된 영역에 저장하는 지상처리 서버; 를 포함할 수 있다.
In order to achieve the above object, a high-resolution linear digital multiband image, which is connected with ground control point surveying and GPS / INS of the present invention, is cultivated as a planar type image to construct a GPS, a digital map, and 3D national spatial information. The method may include (S10) obtaining a raw image and photographing information (including metadata and position data) of the raw image from the line sensor aerial digital camera equipment; (S20) acquiring an external expression element for each line of the raw image not obtained in the step S10 through coordinate system transformation and time synchronization using the ground reference point data and the photographing information according to the post-processing DGPS principle ; (S30) Acquiring a geometrically corrected image correcting the geometric distortion of the raw image through a collinear condition equation by using the external expression element for each line obtained in the step S20 and the internal expression element of the photographing information obtained in the step S10. step; (S40) convert each of the image coordinates of the raw image and the geometrically corrected image to ground coordinates, extract pixels of the raw image having ground coordinates close to the converted ground coordinates for each pixel of the geometrically corrected image, and extract The external expression for each line of the geometrically corrected image is assigned by assigning the external expression element to the main coordinates of the center of the geometrically corrected image. Obtaining an element; (S50) generating the geometrically corrected strip image obtained by obtaining the external expression elements for each line as an image of a predetermined size, and constructing an attribute DB of each generated image (ie, planar image); In the step S40, the pixel extraction of the raw image having the ground coordinates close to the ground coordinates converted for each pixel of the geometrically corrected image is performed using an Affine transform, and the step S50 is obtained by cutting the geometrically corrected strip image. The high resolution linear digital multiband image, which is connected to ground control point surveying and GPS / INS, includes a step of cutting the upper and lower ends of each of the cut images generated by the geometric correction to form a rectangular cut image. In the method of rearranging the planar image to build a three-dimensional land and spatial information, the step S10 is the line sensor aviation digital The terrestrial processing system acquires the raw image and the photographing information from the Mera equipment in real time by mobile communication method, laser optical communication method and FM wireless communication method, and removes radio transmission error by performing arithmetic average operation on the data of the obtained signal. The line sensor aviation digital camera equipment includes a camera unit installed at a lower side of the plane and outputting a signal of a raw image photographed by visible light and near infrared rays, respectively, and a photographing information signal of the raw image as digital signals; An MS unit which accesses the camera unit and stores an output signal in a designated area; An air control unit connected to the camera unit and an MS unit and outputting control signals for operating and monitoring each function unit of the line sensor aviation digital camera equipment; And an aviation communication unit connected to the aviation control unit and the MMS unit and bidirectionally communicating by the control signal in an optical communication method using a mobile communication method and a laser light signal and an FM communication method using an FM signal. The air communication unit wirelessly connects to the ground processing system in a mobile communication manner, and transmits a signal stored in the MS unit by a control signal of the air control unit, and a control command and operational data transmitted by the ground processing system. A first air radio unit for receiving a signal; A second air radio unit wirelessly connecting the terrestrial processing system in an optical communication manner and transmitting a signal stored in the MMS unit by a control signal of the air control unit; A third aviation radio unit wirelessly connecting the terrestrial processing system through an FM communication scheme and transmitting a signal stored in the MS unit by a control signal of the air controller; And a wired communication unit for wired connection with the ground processing system, transmitting a signal stored in the MS unit according to a control signal of the air control unit, and receiving a control command and an operation data signal transmitted by the ground processing system. The ground processing system includes a terrestrial communication unit connected to the line sensor aviation digital camera device and bidirectionally communicating with an optical communication method using a mobile communication method and a laser light signal and an FM communication method using an FM signal; Connecting to the terrestrial communication unit, detecting and correcting transmission errors of signals transmitted and received in the mobile communication method, the optical communication method, and the FM communication method, respectively, by using a parity check bit method, and calculating and outputting the modified signals in an arithmetic average method. Average calculation unit; A ground control unit connected to the average computing unit and the ground communication unit and outputting control signals for operating and monitoring each function unit of the ground processing system; And a terrestrial processing server connected to the average computing unit and inputting the raw image signal and the photographing information according to a control signal of the ground control unit and storing the raw image signal in the allocated area. . ≪ / RTI >
상기와 같은 구성의 본 발명은 라인센서 항공디지털카메라로 촬영한 영상과 영상 촬영정보를 가지고 면형방식의 단위영상과 각 단위영상에 대한 속성DB를 구하여 고품질의 항공영상 DB를 구축 제공하므로 국토공간영상정보에 유용하게 활용하고 항공영상 DB의 구축이 신속하며 편리하게 진행되는 장점이 있다. According to the present invention having the above-described configuration, it is possible to obtain a high quality aerial image DB by providing a plane type unit image and a property DB for each unit image using the image captured by the line sensor aerial digital camera and image photographing information. It is useful for information and construction of aerial image DB is quick and convenient.
그리고 상기와 같은 구성의 본 발명은 비행기에 설치된 라인센서 항공 디지털 카메라 장비에서 촬영한 원시영상 정보와 해당되는 촬영정보의 신호 등을 지상 처리 시스템에 실시간 전송하는 장점이 있다. In addition, the present invention having the above configuration has the advantage of real-time transmission of the raw image information and the signal of the corresponding shooting information taken by the line sensor aerial digital camera equipment installed in the plane.
또한, 상기와 같은 구성의 본 발명은 다수의 통신경로를 구비하여 일부의 통신경로에 장애가 발생하는 경우에도 신호를 양방향으로 전송할 수 있는 장점이 있다. In addition, the present invention having the configuration as described above has the advantage that the signal can be transmitted in both directions even when a failure occurs in some communication paths having a plurality of communication paths.
한편, 상기와 같은 구성의 본 발명은 다수의 통신경로로 동일한 데이터 신호를 송신하고 수신측에서 평균처리하므로 데이터의 전송오류를 제거하는 장점이 있다.
On the other hand, the present invention of the above configuration has the advantage of eliminating the transmission error of data because the same data signal is transmitted over a plurality of communication paths and averaged at the receiving side.
도 1 은 본 발명에 따른 라인센서 항공디지털카메라 영상을 국토공간영상정보에 활용하기 위한 단위영상 생성 방법의 절차 흐름도,
도 2 는 원시 영상의 각 라인별 외부표정요소를 획득하는 방법의 개요도,
도 3a,b 는 원시 영상을 기하보정 영상으로 변환한 일례도,
도 4a 내지 4d 는 기하보정 영상의 각 라인별 외부표정요소를 획득하는 방법을 설명하기 위한 도면,
도 5 는 본 발명의 일 실시 예에 의한 라인센서 항공 디지털 카메라 장비의 기능 구성도,
그리고
도 6 은 본 발명의 일 실시 예에 의한 지상 처리 시스템의 기능 구성도 이다. 1 is a flow chart of a method for generating a unit image for utilizing a line sensor aerial digital camera image in the national spatial spatial image information according to the present invention;
2 is a schematic diagram of a method for acquiring an external expression element for each line of a raw image;
3A and 3B illustrate an example of converting a raw image into a geometrically corrected image.
4A to 4D are diagrams for explaining a method of acquiring an external expression element for each line of a geometrically corrected image;
5 is a functional configuration diagram of a line sensor aviation digital camera equipment according to an embodiment of the present invention,
And
6 is a functional configuration diagram of a ground treatment system according to an embodiment of the present invention.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에서 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경물, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. As the inventive concept allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all transformations, equivalents, and substitutes included in the spirit and scope of the present invention. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. In addition, it is to be understood that all modifications, equivalents, and substitutes included in the spirit and scope of the present invention are included.
본 발명은 선 등록특허 제10-0930643호를 그대로 이용한다. 때문에, 이하 설명되는 장치와 방법 구성상 특징들은 모두 선 등록특허 제10-0930643호에 기재된 사항들이다. The present invention uses the prior patent No. 10-0930643 as it is. Therefore, the features of the apparatus and method configuration described below are all those described in the prior patent No. 10-0930643.
다만, 본 발명은 상기 선 등록특허 제10-0930643호에 개시된 구성들 중 원시영상 신호와 해당 촬영정보 신호를 실시간으로 송신하며, 예비 통신 경로를 구성하여 일부 기능부에 장애가 발생하는 경우에도 정상적인 통신이 진행되고, 다수의 통신경로를 구비하여 동일한 데이터 신호를 동시에 전송하며 수신측에서 평균처리하여 전송오류를 제거하도록 구성한 부분이 가장 핵심적인 구성상 특징을 이룬다. However, the present invention transmits the raw image signal and the corresponding photographing information signal in real time among the components disclosed in the above-mentioned Patent Registration No. 10-0930643, and configures a preliminary communication path, even in the case of failure of some functional units. In this process, a plurality of communication paths transmit the same data signal at the same time, and the part configured to remove transmission errors by averaging at the receiving end forms the most essential structural feature.
따라서 이하 설명되는 구성의 특징은 상기 등록특허 제10-0930643호의 내용을 그대로 인용하기로 하며, 후단부에서 본 발명의 주된 특징과 관련된 구성에 대하여 구체적으로 설명하기로 한다. Therefore, the features of the configuration described below will be referred to the contents of the Patent No. 10-0930643 as it is, and will be described in detail with respect to the configuration associated with the main features of the present invention at the rear end.
도 1 은 본 발명에 따른 라인센서 항공디지털카메라 영상을 국토공간영상정보에 활용하기 위한 단위영상 생성 방법의 절차 흐름도로서, 도면에서 보는 바와 같이 원시 영상과 촬영정보를 획득하는 단계(S10)와, 원시영상의 각 라인별 외부표정요소를 획득하는 단계(S20)와, 기하보정 영상을 획득하는 단계(S30)와, 기하보정된 영상의 각 라인별 외부표정요소를 획득하는 단계(S40)와, 기하보정된 스트립 영상을 규격단위로 절취하여 면형방식영상(즉, 단위영상)을 생성하고, 각 면형방식영상에 대한 속성DB를 구축하는 단계(S50)를 포함하여 이루어진다. 1 is a flowchart illustrating a method for generating a unit image for utilizing a line sensor aerial digital camera image according to the present invention in the national spatial spatial image information, as shown in the drawing, acquiring a raw image and photographing information (S10); Acquiring an external expression element for each line of the original image (S20), acquiring a geometric correction image (S30), acquiring an external expression element for each line of the geometrically corrected image (S40), A geometrically corrected strip image is cut out in standard units to generate a planar image (that is, a unit image), and a property DB for each planar image is constructed (S50).
원시 영상과 촬영정보의 획득(S10)은 비행기에 탑재된 대용량 메모리 시스템(MMS)으로부터 지상 처리 시스템이 다운로드 받아 획득한다. Acquisition of the raw image and the photographing information (S10) is obtained by downloading the ground processing system from the mass memory system (MMS) mounted on the plane.
상기 MMS는 항공기에 탑재된 라인센서 항공디지털 카메라 장비가 촬영하는 영상과, 촬영한 영상에 대한 촬영정보가 저장된다. 참고로, 라인센서 항공디지털 카메라 장비로서 디지털 센서의 대표적인 것이 모델명 ADS40의 장치이다. The MMS stores an image photographed by a line sensor aviation digital camera device mounted on an aircraft, and photographing information about the photographed image. For reference, a representative of the digital sensor as a line sensor aviation digital camera equipment is a device of model name ADS40.
상기 지상 처리 시스템이 MMS로부터 데이터를 다운로드 받게 되면 상기 ADS40 이 촬영한 원시 영상과, 원시 영상에 대한 촬영정보로서 메타데이터와 위치데이터를 얻게 된다. When the terrestrial processing system downloads data from the MMS, the ADS40 obtains the raw image photographed by the ADS40 and metadata and position data as photographing information about the raw image.
메타데이터는 촬영 프로젝트 정보(예; 촬영고도, 좌표계, 촬영계획노선도), 촬영 스트립 정보(예; 촬영된 스트립영상의 밴드별 촬영각, 촬영시간(Start, End), 용량), 촬영 영상 정보(예; Tiff영상, GPS/IMU 데이터)를 포함하고 있다. Metadata includes photographing project information (e.g. photographing altitude, coordinate system, photographing plan map), photographing strip information (e.g. photographing angle by band of photographed strip image, photographing time (Start, End), capacity), photographing image information ( Eg Tiff image, GPS / IMU data).
위치 데이터는 비행기에 탑재된 POS시스템(상기 라인센서 항공디지털 케메라 장비의 하나)에서 처리된 GPS/INS 데이터들이다. The position data is GPS / INS data processed in a POS system mounted on an airplane (one of the line sensor aviation digital camera equipment).
이때, 원시 영상에 대한 촬영 정보는 각 라인의 외부표정요소가 모두 들어있는 것이 아니라 일정한 간격으로 지정된 특정 라인의 자세와 위치 정보만 포함(기록)되어 있다. At this time, the photographing information of the raw image does not contain all of the external expression elements of each line, but includes only the posture and position information of a specific line designated at a predetermined interval (recorded).
따라서 S20단계에서 지상처리 과정을 통해 원시 영상의 각 라인별 외부표정요소를 구한 후, S30단계에서 기하보정 영상을 생성한다. Therefore, after obtaining the external expression elements for each line of the raw image through the ground processing in step S20, and generates a geometric correction image in step S30.
원시 영상의 각 라인별 외부표정요소 획득(S20)은 S10단계에서 획득한 원시영상과, 촬영 정보, 그리고 지상기준점 데이터를 이용하여 좌표계변환과 시간 동기화 작업을 통해 이루어진다. Acquiring an external expression element for each line of the raw image (S20) is performed through coordinate system transformation and time synchronization using the raw image obtained in step S10, photographing information, and ground reference point data.
한편, 외부표정요소는 영상 촬영 카메라의 위치 데이터와 촬영 시 회전 데이터로 구성된다. On the other hand, the external expression element is composed of the position data of the video camera and the rotation data when shooting.
이를 간단히 설명하면, 후처리 DGPS의 개념으로 지상기준점에 기준수신기(지상의 GPS)를 설치하고 미지점(항공기)에 원격수신기(항공기의 GPS)를 설치한 다음 기준수신기와 원격수신기는 각각 동시에 최소 4개 이상 GPS 인공위성의 GPS 신호를 수신하므로 관측한다. 상기의 관측에 의해 얻어진 관측자료 또는 좌표정보 또는 위치정보를 이용하여 기지점으로부터 미지점에 대한 벡터변위를 계산하므로 모든 미지점의 좌표를 기지점에 기준하여 계산할 수 있으며 이러한 방식을 상대측위법이라고 한다. To explain this briefly, with the concept of post-processing DGPS, a reference receiver (ground GPS) is installed at the ground reference point, a remote receiver (aircraft GPS) is installed at an unknown point (aircraft), and then the reference receiver and the remote receiver are simultaneously minimized. Observe the GPS signals of four or more GPS satellites. Since the vector displacement of the unknown point is calculated from the known point using the observation data obtained by the above observation or the coordinate information or the position information, the coordinates of all the unknown points can be calculated based on the known point, and this method is called relative positioning method.
도2는 원시영상의 각 라인별 외부표정요소(위치데이터; GPS/촬영 시 회전 데이터; IMU or INS)를 구하는 방법을 개략적으로 도시한 도면이다. FIG. 2 is a diagram schematically illustrating a method of obtaining an external expression element (position data; GPS / photography rotation data; IMU or INS) for each line of a raw image.
상기 ADS40에서는 각각의 라인별로 촬영지점의 위치와 자세정보 모두가 GPS와 IMU에 의해 획득되어지지 않는다. In the ADS40, neither the position of the photographing point nor the posture information of each line is acquired by the GPS and the IMU.
첨부된 도 2 에서 확인되는 바와 같이 GPS/IMU에서는 일정 간격 단위로 위치정보와 자세(촬영시 회전) 정보를 획득하게 되며, 이러한 정보를 표정요소라고 할 수 있다. As shown in FIG. 2, the GPS / IMU acquires location information and posture (rotation when photographing) at predetermined intervals, and this information may be referred to as an expression element.
즉, 이와 같이 획득된 정보를 표정요소의 위치 결정값(Orientation fixes)이라고 하는데 일정 단위 간격의 라인에서만 외부표정요소를 얻을 수 있게 된다. That is, the information thus obtained is called an orientation fix of the facial expression element, and the external expression element can be obtained only in a line having a predetermined unit interval.
이것은 실제 비행기가 날아가면서 촬영하는 각 라인별 스트립 영상(이미지)의 실제 외부표정요소와는 상당히 많은 차이를 갖고 있게 된다. This is quite different from the actual external expression of the strip image (image) of each line taken by the plane.
따라서 일정간격 마다 획득된 외부표정요소를 이용하여 각 라인별 외부표정요소를 구하게 된다. Therefore, the external expression elements for each line are obtained by using the external expression elements obtained at predetermined intervals.
첨부된 도 2 에서 보는 바와 같이 붉은색라인(가는 실선)은 원시 영상이 갖는 촬영정보로서 일정 간격의 라인에 대한 외부표정요소(위치 결정값(Orientation fixes))를 연결한 선이고, 녹색라인(점선)은 지상기준점 데이터와 항공기에 탑재된 GPS/IMU의 데이터를 이용하여 후처리 DGPS의 개념을 통해 계산된 외부표정요소를 나타낸 것이다. 그리고 후처리 DGPS의 개념을 통해 획득한 외부표정요소를 이용하여 원시 영상의 외부표정요소를 라인별로 보정(보간)한 것이 도2의 아래 도면이다. As shown in FIG. 2, a red line (thin solid line) is photographing information of a raw image, which is a line connecting an external expression element (orientation fixes) to a line of a predetermined interval, and a green line ( The dashed line) shows the external expression factor calculated using the concept of post-processing DGPS using the ground control point data and the GPS / IMU data on the aircraft. 2 is a diagram illustrating correction (interpolation) of the external expression elements of the raw image by line using the external expression elements acquired through the concept of post-processing DGPS.
상기 S30단계에서는 S20단계에서 획득한 각 라인별 외부표정요소와, S10단계에서 획득한 촬영정보 중 내부표정요소(카메라 초점거리, CCD의 X, Y방향 보정값)와 메타데이터를 일반적으로 알 수 있는 공선조건식에 대입하여 원시 영상의 기하왜곡을 보정하여 기하보정 영상을 생성한다. In the step S30, the external expression elements for each line acquired in the step S20, the internal expression elements (camera focal length, the CCD's X and Y direction correction values) and the metadata among the photographing information acquired in the step S10 are generally known. The geometric distortion of the raw image is corrected by substituting the collinear condition equation.
여기서, 공선조건식은 영상의 픽셀과 실제 지상좌표와의 관계를 나타내는 수식으로 영상분야에서는 일반적이고 널리 알려져 있는 수식이므로 이에 대한 더 이상의 설명은 생략한다. Here, the collinearity conditional expression is a mathematical expression representing the relationship between the pixel of the image and the actual ground coordinates, and thus, further description thereof will be omitted.
첨부된 도 3a 는 원시 영상(Level 0)과 기하학적 왜곡을 제거하는 보정으로 변환된 기하보정 영상(Level 1)의 일례를 도시한 것이다. 두 영상 사이에 있는 그래프는 각 라인에 대한 회전요소를 보여주는 그래프이다. The attached FIG. 3A shows an example of a geometric image (Level 1) converted to a raw image (Level 0) and a correction to remove geometric distortion. The graph between the two images shows the rotation factor for each line.
Roll 방향은 X 축을 기준으로 회전, Pitch 방향은 Y 축을 기준으로 회전, Yaw 방향은 Z 축을 기준으로 회전한 정도를 나타낸다. The roll direction shows the rotation about the X axis, the pitch direction the rotation about the Y axis, and the Yaw direction shows the rotation about the Z axis.
Level 1 영상(기하보정영상)은 이러한 회전요소와 자세요소를 모두 고려하여 원시영상에서 기하학적 왜곡을 모두 제거해 준 영상이다. The
따라서 Level 1 영상은 라인별 영상이 촬영된 상태대로 일정하게 배열되어 있는 것이 아니라 실제 비행기가 움직이는 형태를 분석하고, 분석된 움직임에 의한 라인별 영상의 왜곡을 보상하여 재배열하고 있다. Therefore, the
첨부된 도 3b 는 원시영상(Level 0 영상)과 기하보정영상(Level 1영상)의 특정 부분을 각각 확대한 영상이다. 3B is an enlarged image of a specific portion of a raw image (
상기 S40 단계에서는 원시 영상이 기하보정 영상으로 변환됨에 따라 영상의 촬영정보(특히, 외부표정요소, 메타데이터)를 보정하는 것이다. In the step S40, as the raw image is converted into the geometrically corrected image, the photographing information (especially, external expression elements and metadata) of the image is corrected.
상기 S20 단계를 거처 원시 영상의 각 라인별 외부표정요소를 획득하였지만, 기하왜곡 보정을 통해 획득한 기하보정 영상은 원시 영상의 픽셀(Pixel)들을 재배열하여 기하변위로 보간이 이루어진 영상이기 때문에 각 라인별 외부표정요소를 직접 획득할 수 없다. The external expression elements for each line of the raw image were obtained through the step S20, but the geometrically corrected image obtained through the geometric distortion correction is an image that is interpolated by geometric displacement by rearranging pixels of the raw image. External expression elements per line cannot be obtained directly.
따라서 기하 보정된 영상을 절취할 경우, 영상의 중심에 대한 정보(주점 좌표정보)를 획득하여 해당 orientation 정보(외부표정요소)를 근사적으로 연산하여 획득하여야 한다. Therefore, when the geometrically corrected image is cut out, information about the center of the image (periodic coordinate information) is obtained and the corresponding orientation information (external expression element) is approximately calculated.
ADS40 영상의 중심에 대한 좌표는 앵커(Anchor) 포인트 대한 상대 좌표값으로 제공되며, ADS40 영상은 원시 영상과 기하보정 영상의 주점좌표와 기하보정 영상의 기하보정시에 사용된 매개변수는 기본 제공되고 있다. The coordinates of the center of the ADS40 image are provided as the relative coordinate values for the anchor point.The ADS40 image is basically provided with the parameters used for the geometric coordinates of the principal and geometrically corrected images. have.
원시 영상을 기하보정 영상으로 변환함에 따른 촬영정보 보정(S40)을 위해, 우선 원시 영상과 기하보정영상의 좌표 즉, 지상좌표를 계산(영상을 구성하는 각 픽셀의 실제 지상좌표를 계산)하고, 아래에서 상세히 다시 설명하는 Affine 변환을 통해 기하보정영상의 각 픽셀에 대한 지상좌표와 가장 근접한 지상좌표를 갖는 원시 영상의 픽셀을 찾아 기하보정 영상의 각 라인별 외부표정요소를 획득한다.
In order to correct shooting information by converting the raw image into the geometrically corrected image (S40), first, the coordinates of the raw image and the geometrically corrected image, that is, the ground coordinates are calculated (the actual ground coordinates of each pixel constituting the image), Through the Affine transformation, which will be described in detail below, pixels of the raw image having the ground coordinates closest to the ground coordinates of each pixel of the geometrically corrected image are searched to obtain external coordinate elements of each line of the geometrically corrected image.
(1) 원시 영상(Level0) 좌표로부터 지상(Ground Space) 좌표 계산. (1) Calculation of Ground Space coordinates from the raw image (Level0) coordinates.
Ground Space 는 지구의 한 표면을 중심으로 하는 좌표계다. 보통 Topocentric 좌표계(VUW) 또는 North, East, Up(Down) 의 약자인 NEU(NED) 좌표계라고 부르기도 한다. Ground Space is a coordinate system centered on one surface of the earth. It is also commonly referred to as Topocentric Coordinate System (VUW) or NEU (NED) Coordinate System, which stands for North, East, Up (Down).
도4a는 Ground Space좌표와 Geocentric 좌표의 관계를 도시한 것이고, 이들의 변환 공식은 다음과 같다.4A shows the relationship between the Ground Space coordinates and the Geocentric coordinates, and their conversion formulas are as follows.
ADS40 시스템의 원시 영상(Level0)과 기하보정 영상(Level1)은 영상 파일과 함께 보조 파일(Support File)이 함께 제공되는데 이 파일에는 Ground Space에서 사용하는 지구의 표면 중심 좌표를 나타내는 두 개의 값이 포함되어 있다. The raw image (Level0) and geometrically corrected image (Level1) of the ADS40 system are provided with a support file along with the image file. This file contains two values representing the coordinates of the earth's surface center used in Ground Space. have.
Geocentric 좌표값(지구 중심 좌표, XYZ)을 나타내는 LOCAL_ORIGN 값과 측지좌표인 위도와 경도를 나타내는 ANCHOR_ LATITUDE 와 ANCHOR_LONGITUDE 값(도4a에서 f 와 )이다. Ground Space 좌표는 이 값을 이용하여 Geocentric 좌표로 상호 변환할 수 있다. LOCAL_ORIGN values representing geocentric coordinates (earth center coordinates, XYZ) and ANCHOR_ LATITUDE and ANCHOR_LONGITUDE values (f and in FIG. 4A) representing latitude and longitude, which are geodetic coordinates. Ground space coordinates can be converted to geocentric coordinates using this value.
원시 영상의 좌표에 대한 보정값들은 X, Y 축에 대해 카메라 Calibration 파일(내부표정요소를 포함)과 촬영 당시의 카메라 위치 및 각도와 시간을 갖고 있는 외부표정파일(외부표정요소를 포함)를 이용하여 구할 수 있다. 영상의 X 값을 카메라 Calibration 파일의 배열 인덱스로, 영상의 Y 값을 외부표정파일의 배열 인덱스로 직접 사용할 수 있다. 원시 영상의 좌표를 Ground Space 좌표로 변환하기 위해서는 아래의 과정을 통해 변환한다. The correction values for the coordinates of the raw image are taken from the camera calibration file (including the internal expression element) for the X and Y axes, and the external expression file (including the external expression element) with the camera position, angle and time at the time of shooting. Can be obtained by The X value of an image can be used as an array index of a camera calibration file and the Y value of an image can be directly used as an array index of an external expression file. To convert the coordinates of the raw image into the Ground Space coordinates, perform the following process.
카메라 Calibration 파일은 카메라의 라인 센서의 값에 대한 물리적인 오차(Bias)에 대한 정보를 갖고있다. 값을 계산하기 위해서는 이 물리적인 오차값을 보정해줘야 한다. The camera calibration file contains information about the physical bias of the camera's line sensor values. In order to calculate the value, this physical error must be corrected.
먼저, 카메라 센서의 초점면의 좌표로 영상좌표값을 변환한다.First, the image coordinate value is converted to the coordinate of the focal plane of the camera sensor.
Fx : 카메라 센서의 초점면상의 X 좌표 Fx: X coordinate on the focal plane of the camera sensor
Fy : 카메라 센서의 초점면상의 Y 좌표Fy: Y coordinate on the focal plane of the camera sensor
xcal[] : 원영상의 카메라 Calibration 파일의 배열중 X 값xcal []: X value of array of camera calibration file of original image
ycal[] : 원영상의 카메라 Calibration 파일의 배열중 Y 값ycal []: Y value of array of camera calibration file of original image
pos : 영상 좌표의 X 값 (카메라 Calibration의 인덱스 번호와 일치함), 12000개의 센서 픽셀을 갖고 있으므로, 이 값은 0 ~ 11999 값을 가진다. pos: The X value of the image coordinates (corresponds to the index number of the camera calibration), and has 12000 sensor pixels, so it has a value between 0 and 11999.
d : 실제 위치와 픽셀 위치의 거리를 나타낸다. 이 값은 좌표계산시 발생하는 부동소수(float 또는 double)값에 대한 보간(Interpolation)을 위해 사용한다. (즉, 픽셀 값이 1.5인 경우, 0.5 값을 1 과 2 배열 값 사이에서 선형보간으로 계산한다.) d: represents the distance between the actual position and the pixel position. This value is used to interpolate the floating point (float or double) values that occur during coordinate calculation. (I.e. if the pixel value is 1.5, the 0.5 value is calculated by linear interpolation between the 1 and 2 array values.)
두 번째로, 계산된 초점면상의 좌표와 Orientation Data(외부표정파일)를 이용하여, Ground Space좌표를 다음과 같이 계산할 수 있다. Second, using the coordinates on the focal plane and the Orientation Data (external expression file), the Ground Space coordinates can be calculated as follows.
R은 영상을 취득할 당시의 카메라 자세 정보인 R()R(f)R()로 생성된 회전 행렬을 나타내며, 이 값은 원시 영상의 Y값(Scan Line)을 이용하여 Orientation Data 파일로부터 가져올 수 있고, C는 ADS40 카메라의 초점 길이(상수)값 이다. R represents the rotation matrix created by R () R (f) R (), which is the camera pose information at the time of image acquisition, and the value is obtained from the Orientation Data file using the Y value (Scan Line) of the raw image. Where C is the focal length (constant) value of the ADS40 camera.
회전 행렬의 모습은 다음과 같다.The rotation matrix looks like this:
(2) 기하보정 영상(Level1) 좌표로부터 Ground Space좌표 계산.(2) Calculation of Ground Space coordinates from geometrically corrected image (Level1) coordinates.
m=기하보정시 사용한 Scale값 xoffset=기하보정시 사용한 x 의 옵셋값m = Scale value used for geometry correction xoffset = Offset value of x used for geometry correction
yoffset=기하보정시 사용한 y의 옵셋값 a=기하보정시 사용한 Rotation값yoffset = Offset value of y used for geometry correction a = Rotation value used for geometry correction
Height=기하보정시 사용한 높이 LS=기하보정된 영상의 전체 Line값
Height = Height used for geometric correction LS = Total line value of geometrically corrected image
위의 식을 이용하여 기하보정 영상의 좌표를 Ground Space상의 좌표로 계산할 수 있다. 그러나 기하보정된 영상의 픽셀에 해당하는 외부 표정요소(촬영당시의 카메라 자세정보 및 시간 등의 기타정보)를 알 수 없다. 이 값을 취득하기 위해서는 원시영상(원영상)(Level0)의 Orientation데이터에 접근해야 한다. 여기서는 원영상(원시영상)과 기하보정된 영상의 공통 요소인 Ground Space 좌표를 매개로 하여 외부 표정요소에 접근하는 방법을 사용한다. Using the above equation, the coordinates of the geometrically corrected image can be calculated as the coordinates on the ground space. However, it is not possible to know the external facial expression elements (other information such as camera posture information and time at the time of shooting) corresponding to the pixels of the geometrically corrected image. To obtain this value, the Orientation data of the raw image (original image) (Level0) must be accessed. In this case, a method of approaching an external facial expression element is performed through the Ground Space coordinates, which are common elements between the original image and the geometrically corrected image.
즉, 기하보정된 영상의 임의의 픽셀 위치에 해당하는 외부표정요소는 기하보정 영상의 Ground Space를 계산 한 후, 원시 영상의 픽셀중 기하보정 영상의 Ground Space 값과 가장 가까운(근접한) 값이 가리키는 외부표정 요소로 간주할 수 있다. That is, after calculating the ground space of the geometrically corrected image, the outer expression element corresponding to the arbitrary pixel position of the geometrically corrected image is pointed to by the value closest to the ground space value of the geometrically corrected image among the pixels of the raw image. Can be considered as an external expression element.
원시 영상(Level0)의 Y값(Line)은 사진(영상)을 취득할 때 카메라 Scan Line의 수와 정확하게 일치하며, 기하보정 영상(Level1)의 이미지좌표를 Ground Space 좌표로 변환 후, 원시 영상(Level0)의 Ground Space 좌표에 근접한 영상좌표를 얻을 수 있다면, 외부 표정(Orientation)정보를 획득할 수 있다. The Y value (Line) of the raw image (Level0) is exactly the same as the number of camera scan lines when acquiring a photo (image) .After converting the image coordinate of the geometrically corrected image (Level1) to Ground Space coordinates, the raw image ( If the image coordinate close to the Ground Space coordinate of Level 0) can be obtained, external orientation information can be obtained.
여기에서는 원시 영상(Level0)과 기하보정된 영상(Level1)이 Affine변환된 영상과 유사한 속성을 갖는 점을 이용하여 계산한다.
In this case, the raw image Level0 and the geometrically corrected image Level1 are calculated using points having similar properties to those of the Affine transformed image.
(3) Affine 변환 (3) Affine conversion
Affine 변환은 X, Y 축에 대해 확대 및 축소후 좌표가 이동된 영상 변환을 말하며, 도4b에 이에 대한 일례를 도시하였다. The Affine transformation refers to an image transformation in which coordinates are moved after being enlarged and reduced about the X and Y axes, and an example thereof is illustrated in FIG. 4B.
Affine 변환의 이러한 속성은 아래와 같은 선형 방정식으로 표현할 수 있다.This property of the Affine transform can be expressed by the linear equation
A,B 및 D,E 는 X, Y 에 대한 확대비에 대한 속성을 갖는상수이고, C 와 F 는 이동에 대한 속성을 갖는 상수이다.A, B, and D, E are constants having properties for magnification ratios for X and Y, and C and F are constants having properties for movement.
X' = AX + BY + CX '= AX + BY + C
Y' = DX + EY + FY '= DX + EY + F
즉, Affine변환의 계수(Coefficient) A,B,C,D,E,F 를 찾을 수 있다면, 임의점 X, Y (여기서는 이 점을 Ground 공간에서의 주점 좌표로 봄)에 대해 영상 좌표 X', Y' 의 근사값을 구할 수 있다. 6개의 미지의 값을 찾기 위해 3개의 Ground Space 좌표를 사용하면, 원영상(Level0)에서의 Affine Parameters를 구할 수 있다.That is, if the coefficients A, B, C, D, E, and F of the Affine transform can be found, then the image coordinates X 'with respect to arbitrary points X, Y (here, these points are regarded as the coordinates of the principal point in Ground space). , Y 'can be approximated. Using three Ground Space coordinates to find six unknown values, we can find the Affine Parameters in the original image (Level0).
다음과 같이 행렬 연산을 사용하면 쉽게 얻을 수 있다.You can easily get it by using matrix operations like this:
P는 원시 영상(Level0)의 영상 좌표값을 나타내며, G는 원영상의 Ground 좌표값을 나타낸다. P represents the image coordinate value of the raw image (Level0), G represents the ground coordinate value of the original image.
원시영상(원영상)의 Ground좌표값에 대한 근사값 계산은 아래와 같은 순서로 진행한다.The approximate calculation of the ground coordinates of the raw image is performed in the following order.
먼저 얻고자 하는 기하보정 영상(Level1)의 좌표로부터 Ground Space 좌표를 계산한다. First, the ground space coordinates are calculated from the coordinates of the geometrical correction image Level1 to be obtained.
계산된 Ground Space 좌표를 이용하여, 원시 영상(Level0)에서 검색할 Window를 계산한다. 여기서, 윈도우(Window)는 검색 대상의 범위를 뜻한다. Using the calculated Ground Space coordinates, calculate the Window to search in the raw image (Level0). Here, Window means a range of a search target.
우선, 원시 영상(Level0)에서 Ground Space 좌표를 알 수 없으므로 먼저, 전체 이미지의 범위에서 도4c와 같은 세 꼭지점의 영상 좌표를 선택 한다. 6개의 Affine Parameter 값을 계산하기 위해 세 개의 선형방정식이 필요하기 때문에 세 개의 점을 선택한다. First, since the Ground Space coordinates are not known in the raw image (Level0), first, image coordinates of three vertices as shown in FIG. 4C are selected from the entire image range. Since three linear equations are needed to calculate the six Affine parameter values, three points are selected.
세 개의 점을 삼각형으로 하는 윈도우에 대하여, 세 꼭지점의 영상 좌표에 해당하는 Ground Space 좌표를 계산한다. (예, 원영상의 크기가 12,000 x 5000 인 경우, Z1 = Z2 = Z3 이다.)For the triangular window, calculate the Ground Space coordinates corresponding to the image coordinates of the three vertices. (E.g. when the original image is 12,000 x 5000, Z1 = Z2 = Z3)
L0_1(0, 0) -> G0_1(X1, Y1, Z1)L0_1 (0, 0)-> G0_1 (X1, Y1, Z1)
L0_2(12,000, 0) -> G0_2(X2, Y2, Z2)L0_2 (12,000, 0)-> G0_2 (X2, Y2, Z2)
L0_3(6,000, 5,000) -> G0_3(X3, Y3, Z3)L0_3 (6,000, 5,000)-> G0_3 (X3, Y3, Z3)
다음으로 원시 영상(Level0)에서 계산된 값을 사용하여 Affine계수를 구한다. Next, the Affine coefficient is obtained using the values calculated in the raw image (Level0).
다음으로 Affine계수를 이용하여 얻고자 하는 기하보정된 영상(Level1)의 픽셀 좌표의 Ground Space값으로 원시영상(Level0)의 픽셀 좌표를 계산한다.Next, the pixel coordinate of the raw image (Level0) is calculated using the ground space value of the pixel coordinate of the geometrically corrected image (Level1) to be obtained using the Affine coefficient.
(원시영상의 Ground Space 좌표가 -100, 50, 20 이라고 하면,)(If the Ground Space coordinate of the raw image is -100, 50, 20,)
X' = A * (-100) + B * 50 + CX '= A * (-100) + B * 50 + C
Y' = D * (-100) + E * 50 + F
Y '= D * (-100) + E * 50 + F
위에서 계산된 원영상의 좌표가 X' = 100, Y' = 200 이라 하고, 검색 최소 윈도우의 크기를 250 x 500 으로 한다. 이 값은 Search 검색 속도에 따라 좀 더 큰 값이나 작은 값으로 설정할 수 있다. Y 값이 긴 영상이므로, 위와 같이 직사각형의 크기로 설정한다. The coordinates of the original image calculated above are X '= 100, Y' = 200, and the size of the search minimum window is 250 x 500. This value can be set to a larger or smaller value depending on the speed of the Search search. Since the Y value is long, set the size of the rectangle as above.
그리고 아래 과정을 반복하여 최소 윈도우 영역이 될 때까지 찾는다. Then repeat the process below to find the minimum window area.
새로운 L0_1 의 X 좌표 = X'(100) - 250 / 4 X coordinate of new L0_1 = X '(100)-250/4
새로운 L0_1 의 Y 좌표 = Y'(200) - 250 / 4 Y coordinate of new L0_1 = Y '(200)-250/4
새로운 L0_2 의 X 좌표 = X'(100) - 250 / 4 X coordinate of new L0_2 = X '(100)-250/4
새로운 L0_2 의 Y 좌표 = Y'(200) + 250 / 4 Y coordinate of new L0_2 = Y '(200) + 250/4
새로운 L0_3 의 X 좌표 = X'(100) + 250 / 4 X coordinate of new L0_3 = X '(100) + 250/4
새로운 L0_3 의 Y 좌표 = Y'(200) Y coordinate of new L0_3 = Y '(200)
여기서, 범위를 1/4씩 감소 및 증가하는 이유는 상세 검색 범위를 그 2배로 설정하기 위해서이다. Here, the reason for decreasing and increasing the range by 1/4 is to set the detailed search range to twice that.
새로운 검색 윈도우는 계산된 좌표값을 중심으로 하는 삼각형 모양을 한다. 이 점들에 대하여 다시 Ground Space 좌표를 계산하여, 위 과정을 L0_1 과 L0_2 점의 폭의 간격이 검색 윈도우의 폭 250 보다 작거나, L0_1 과 L0_3 점간의 높이의 간격이 검색 윈도우의 높이 500 보다 작을 때까지 반복 한다. The new search window has a triangular shape around the calculated coordinates. Calculate the Ground Space coordinates again for these points, and repeat the above procedure when the spacing between the points L0_1 and L0_2 is less than 250 in the search window, or the spacing between the points L0_1 and L0_3 is less than 500 in the search window. Repeat until.
가장 근접한 영상좌표를 계산한다.(빨간색, 도4d에서의 원형표시,이 구하고자 하는 좌표라고 할 때,) 도4d를 참조하여 설명한다. The closest image coordinates are calculated (red, circular display in FIG. 4D, where the coordinates to be obtained are described).
위와 같이 검색 윈도우(도면에서 파란색 영역)를 찾으면, 상세 검색 범위를 그 2배 값으로 설정한다.(도면에서 녹색 범위) If you find the search window (blue area in the drawing) as above, set the detail search range to that value (green range in the drawing).
원영상의 상세비교 시작점 (Ps(x0,y0))부터 Y 값을 1 씩 증가하면서 Ground Space 좌표를 계산한다. The Ground Space coordinates are calculated by increasing the Y value by 1 from the starting point of the detailed comparison (Ps (x0, y0)) of the original image.
계산된 Ground Space 와 구하고자 하는 기하보정된 영상의 Ground Space 좌표간의 거리를 최소제곱법으로 계산한다. The distance between the calculated Ground Space and the Ground Space coordinates of the geometrically corrected image to be calculated is calculated by the least square method.
이렇게 상세 비교 종료점까지 계산하여 가장 가까운 근사점을 찾는다. The detailed comparison end point is then calculated to find the nearest approximation point.
계산된 원시 영상의 좌표로부터 외부표정 요소(Orientation)정보를 획득하여 기하보정 영상의 해당 픽셀에 부여한다. Orientation information is obtained from the calculated coordinates of the raw image and given to the corresponding pixel of the geometrically corrected image.
이상의 과정을 통해 원시 영상을 기하보정 영상으로 변환하고, 기하보정에 따라 촬영정보를 보정한 후에는 기하보정된 스트립 영상을 일정 크기의 영상으로 절취하여 단위영상을 생성하고, 각 단위영상에 대한 속성DB를 구축한다.(S50) Through the above process, the raw image is converted into the geometrically corrected image, and after correcting the photographing information according to the geometrical correction, the geometrically corrected strip image is cut into a certain sized image to generate the unit image, and the property of each unit image Build a DB (S50)
기하보정된 영상을 절취하고자 할 때, 촬영된 여러 밴드에 대해서 동일한 위치를 절취해야하며 카메라 센서의 각도와 위치에 따른 특성으로 인해 위치 차가 발생하게 된다. 즉, 여러 밴드의 영상을 획득하기 위해 CCD센서들의 위치와 관측각을 달리하여 동시에 획득된 영상간에도 위치의 오차가 발생한다. When you want to cut the geometrically corrected image, you need to cut the same position for the various bands taken, and the position difference occurs due to the characteristics of the angle and position of the camera sensor. That is, in order to acquire images of several bands, the position error occurs between images acquired simultaneously by changing the positions and observation angles of the CCD sensors.
이러한 경우, 카메라 CCD센서의 위치와 각에 대해 알려진 값을 사용하여 서로 다른 센서로 촬영한 영상에 대하여도 동일 또는 근접하는 위치를 찾아낸다. In this case, the position and angle of the camera CCD sensor are used to find the same or close position with respect to the image photographed by the different sensors.
영상을 절취하는 방법은 하나의 Strip 영상에 대해 동일한 이미지의 개수, 동일한 이미지 길이, 정해진 파일의 크기에 따라 절취하는 방법 등이 있다. 필요한 용도에 맞도록 영상을 절취하는 방법을 선택하면 된다. The method of cutting out an image includes a method of cutting according to the same number of images, the same image length, and a predetermined file size for one strip image. You can choose the way to cut the image to suit your needs.
스트립 영상을 동일한 단위 길이(폭) 또는 파일의 크기로 절취하는 경우, 한 Strip 영상의 마지막 부분은 동일한 단위 길이를 갖지 못하는 경우가 발생하는데, 이를 해결하기 위한 방법으로 잔여 영역을 빈 영상으로 제작하거나, 잔여영역에 대해서 맨 끝에서부터 동일한 단위 길이의 크기를 갖도록 하여, 영상이 동일한 단위 길이(폭) 또는 파일의 크기를 유지할 수 있도록 한다. When the strip image is cut to the same unit length (width) or the file size, the last part of a strip image may not have the same unit length. In this case, the size of the same unit length from the end of the remaining area is provided so that the image can maintain the same unit length (width) or the size of the file.
정해진 파일의 크기에 따라 절취할 경우, 기준이 되는 영상에서 영역 범위를 해석하여 동일한 영역에 대해 서로 다른 센서 이미지 또는 다른 밴드로 촬영된 영상을 절취할 수 있어야 한다. When cutting according to the size of a predetermined file, it is necessary to analyze a range of regions in a reference image to cut out images captured by different sensor images or different bands for the same region.
다른 센서이미지의 영상 데이터와 동일한 위치 또는 영역을 절취하기 위해서는 각 이미지의 시작위치를 가지고 기준영상을 정한 다음 각 CCD센서 이미지의 기준영상과의 오프셋을 계산하여 오프셋을 건너뛴 위치부터 절취한다. 오프셋을 계산할 때에는 기준 이미지좌표의 한 점을 로컬좌표로 변환하고 해당 좌표의 다른 이미지 상의 이미지좌표를 계산하여 x좌표의 거리를 구한다. y좌표의 차이가 조금씩 있으나 절취방향(x축 방향)의 오프셋을 계산하므로 무시한다. In order to cut out the same position or area as the image data of other sensor images, the reference image is defined with the starting position of each image, and then the offset from the reference image of each CCD sensor image is calculated and the starting point is skipped. When calculating the offset, convert a point of the reference image coordinate to a local coordinate and calculate the distance of the x coordinate by calculating the image coordinate on the other image of the coordinate. Although there is a slight difference in y coordinate, it is ignored because it calculates the offset in the cutting direction (x-axis direction).
원시 영상은 동일한 폭을 갖는 영상(즉, 직사각형 형태의 영상)이지만, 기하적으로 왜곡되어 있다. 이 원시 영상의 기하왜곡을 보정한 기하보정 영상은 직사각형 형태의 영상이 아니라, 영상의 양 끝단(상하단 또는 좌우단)에서 굴곡이 발생한 영상이 된다. The raw image is an image having the same width (that is, a rectangular image) but is geometrically distorted. The geometrically corrected image correcting the geometric distortion of the raw image is not a rectangular image, but an image in which bending occurs at both ends (upper, lower, left and right) of the image.
이러한 영상은 사진측량에서 사용하는데 문제가 없으나, 전체 영상의 형태를 파악하는데 불편함이 발생 할 수 있다. 이러한 문제를 해결하기 위해 영상의 굴곡이 발생하는 양 끝단에 대해서 5~10%의 여분을 제거하여 영상의 전체 형태를 파악하는데 어려움이 없도록 직사각형 형태의 영상을 생성한다. This image is not a problem to use in the photogrammetry, but may cause inconvenience in grasping the shape of the entire image. In order to solve this problem, a rectangular image is generated so that there is no difficulty in grasping the overall shape of the image by removing 5 to 10% of the excess at both ends where the image is bent.
이와 같이 기하보정 스트립 영상을 절취하여 단위영상(즉, 면형방식영상)을 생성한 후에는, 각 단위영상에 대한 속성DB를 자동 구축한다. 속성DB에는 단위영상에 대한 촬영정보 이외에, 영상의 방위, 사업연도, 촬영지역 이름, GSD, 촬영일자, 코스사진번호, 사진번호, 자료구축기관, 책임부서, 카메라 장비의 특성, 필름의 종류 등을 포함하고, 사업연도와 촬영지역 이름은 절취설정 시 입력했던 사업지구코드와 촬영지역에서, GSD와 촬영일자는 원본 SUP파일에서 코스사진번호와 사진번호는 절취 시 생성된 절취정보에서 취득한다. After generating the unit image (ie, planar image) by cutting the geometric correction strip image, the attribute DB for each unit image is automatically constructed. In addition to the photographing information for the unit image, the attribute DB includes the image orientation, business year, region name, GSD, photographing date, course photo number, photograph number, data organization, responsible department, characteristics of camera equipment, film type, etc. The business year and shooting area name are taken from the business district code and the shooting area entered at the time of cut-off, and the GSD and shooting date are taken from the cut-out information generated at the time of cutting in the original SUP file.
이러한 과정을 거친 후에는 속성DB 정보를 XML 파일로 변환하고, 다시 표준압축포맷(NIX)으로 변환한 후에 별도의 DB에 로딩하여 작업을 완료한다. 이에 대한 구체적인 설명은 생략한다. After this process, the property DB information is converted into an XML file, converted into standard compression format (NIX), and loaded into a separate DB to complete the work. A detailed description thereof will be omitted.
본 발명의 지상기준점측량과 GPS/INS가 연계된 고해상 선형방식 디지털 다중 밴드 영상을 GIS와 수치지도와 3차원국토공간정보로 구축하기위해 면형방식영상으로 재배열하는 방법은 지상 처리 시스템(200)에 의하여 이루어지고, 지상 처리 시스템(200)은 비행기에 설치되는 라인센서 항공 디지털 카메라 장비(1000)와 유선 또는 무선으로 접속하여 상기 원시 영상과 상기 촬영 정보를 각각 제공받는다. The method for rearranging a high resolution linear digital multi-band image in which a ground control point survey and a GPS / INS is linked to a planar image to construct a GPS, a digital map, and three-dimensional land-spatial information is a ground processing system (200). The ground processing system 200 is connected to the line sensor aviation
상기 라인센서 항공 디지털 카메라 장비(1000)는 카메라부(1100), 엠엠에스부(1200), 항공제어부(1300), 항공통신부(1400)를 포함하여 구성된다. The line sensor aviation
카메라부(1100)는 가시광선으로 촬영하는 카메라 센서와 근거리적외선으로 촬영하는 카메라 센서를 각각 구비하고 비행기의 하부 일측에 설치된다. The
다른 일 실시 예로, 카메라부(1100)는 자외선 또는 레이저 또는 특정된 단색파장으로 촬영하는 해당 센서 또는 촬영 기능을 더 구비할 수 있고, 또 다른 일 실시 예로 가시광선, 근거리적외선, 자외선, 레이저, 특정된 단색 파장으로 촬영하는 장치가 각각으로 구분될 수 있으며 이러한 경우 각각의 카메라 장치는 해당되는 촬영 정보를 각각 출력할 수도 있다. In another embodiment, the
카메라부(1100)는 가시광선과 근거리적외선으로 각각 촬영된 원시 영상의 신호와 원시 영상 신호에 대한 촬영정보 신호를 생성하여 상호 연계된 상태의 디지털 신호로 각각 출력한다. 카메라부(1100)는 모델명 ADS40 와 동일 또는 유사한 기능의 장치가 사용될 수 있다. The
엠엠에스(MMS)부(1200)는 카메라부(1100)에 접속하고 출력되는 신호를 지정된 영역에 저장한다. 카메라부(1100)가 엠엠에스부(1200)에 출력하는 신호에는 가시광선으로 촬영한 원시영상 신호와 근거리적외선으로 촬영한 원시영상 신호와 각각의 촬영정보 신호가 포함되고 또한, 자외선, 레이저, 특정된 단색 파장 등으로 촬영한 원시영상 신호 및 해당 촬영정보 신호가 포함될 수 있다. The
항공제어부(1300)는 카메라부(1100)와 엠엠에스부(1200)에 접속하는 동시에 라인센서 항공디지털 카메라 장비(1000)의 각 기능부에 접속하고, 접속된 각 기능부를 운용하며 감시하는 제어신호를 각각 출력한다. The
항공제어부(1300)는 도면에 도시되지 않은 입력부를 통하여 입력된 명령 또는 저장된 프로그램에 의하여 운용되며 카메라부(1100)에 접속하여 원시영상 신호를 촬영하도록 제어하고 또한, 촬영하면서 해당 촬영정보 신호를 측정 또는 검출하여 원시영상 신호에 연계된 상태로 출력되도록 제어 감시한다. The
항공제어부(1300)는 엠엠에스부(1200)를 제어하여 카메라부(1100)가 출력하는 원시영상 신호와 해당 촬영정보 신호를 각각 할당 또는 지정된 영역에 저장되도록 제어하고 또한, 엠엠에스부(1200)에 저장된 모든 신호를 항공통신부(1400)에 출력하도록 제어하며 감시한다. The
한편, 항공제어부(1300)는 항공통신부(1400)를 제어하여 지상처리 시스템(2000)과 접속하고 원시영상 신호와 해당 촬영정보 신호를 송신하거나 또는 제어명령, 각종 운용 데이터 신호, 프로그램, 갱신된 정보 등을 송수신하도록 제어하고 감시할 수 있다. Meanwhile, the
항공통신부(1400)는 항공제어부(1300)와 엠엠에스부(1200)에 접속하고, 항공제어부(1300)로부터 인가되는 해당 제어신호에 의하여 이동통신 방식과 레이저 광신호를 이용한 광통신 방식과 에프엠(FM) 변조방식 신호를 이용한 에프엠통신 방식으로 양방향 통신한다. The
즉, 항공통신부(1400)는 항공제어부(1300)의 제어와 감시에 의하여 엠엠에스부(1200)에 저장된 원시영상 신호와 해당 촬영정보 신호를 무선 또는 유선으로 출력하는 동시에 무선 또는 유선으로 입력되는 명령신호, 각종 운용 데이터, 프로그램 등을 수신하여 항공제어부(1300)에 전달한다. That is, the
항공통신부(1400)는 제 1 항공무선부(1410), 제 2 항공무선부(1420), 제 3 항공무선부(1430), 항공유선통신부(1440)를 포함하는 구성이다. The
제 1 항공무선부(1410)는 이동통신 방식으로 지상 처리 시스템(2000)과 무선접속하고 항공제어부(1300)의 제어신호에 의하여 엠엠에스부(1200)에 저장된 각종 신호를 이동통신 방식으로 무선송신한다. The first
제 1 항공무선부(1410)는 지상 처리 시스템(2000)이 이동통신 방식으로 무선송신하는 제어명령과 운용 데이터과 각종 프로그램, 갱신용 데이터 등의 신호를 이동통신 방식으로 무선수신하는 양방향 통신장치 이다. 이동통신 방식은 알려져 있으며, CDMA, W-CDMA, TDMA 등의 디지털 변조방식, 아날로그 변조방식 등이 포함되며 미래에 이동통신용으로 개발될 변조방식도 포함되는 것으로 설명한다. The first
제 2 항공무선부(1420)는 지상 처리 시스템(2000)과 광통신 방식으로 무선접속하고 항공제어부(1300)의 해당 제어신호에 의하여 엠엠에스부(1200)에 저장된 신호를 광통신 방식으로 무선송신하는 동시에 지상 처리 시스템(2000)이 동일한 광통신 방식으로 무선송신하는 신호를 수신하는 구성이다. The second
제 2 항공무선부(1420)는 제 1 항공무선부(1410)와 동일하게 양방향 통신 기능을 구비하고 동일한 내용의 신호를 송신과 수신할 수 있으나 항공제어부(1300)는 1 차적으로 제 1 항공무선부(1410)의 양방향 통신 기능을 활성화 상태로 제어하고 제 2 항공무선부(1420)는 송신에 의한 단방향 통신만 가능하도록 설정하며 제 1 항공무선부(1410)의 양방향 통신 기능에 장애가 발생하는 경우를 대비하도록 설정하고 제어하여 운용한다. The second
제 2 항공무선부(1420)에서 광통신 방식으로 사용되는 광신호는 레이저 광 신호를 사용하되 적외선, 자외선, 특정된 단색파장의 광신호 중에서 선택된 어느 하나 또는, 어느 하나 이상을 사용할 수 있으며 광신호의 변조와 복조 방식의 기술은 잘 알려져 있으므로 구체적인 설명을 생략하기로 한다. The optical signal used in the optical communication method in the second
제 3 항공무선부(1430)는 지상 처리 시스템과 에프엠 통신 방식으로 무선접속하고 항공제어부(1300)의 해당 제어신호에 의하여 엠엠에스부(1200)에 저장된 신호를 에프엠 변조 방식으로 무선송신한다. The third
제 3 항공무선부(1430)의 경우에도 제 1 항공무선부(1410), 제 2 항공무선부(1420)와 동일하게 양방향 통신 기능을 구비하고 동일한 내용의 신호를 송신과 수신할 수 있으나 항공제어부(1300)는 1 차적으로 제 1 항공무선부(1410), 2 차적으로 제 2 항공무선부(1420)의 양방향 통신 기능을 활성화 상태로 제어하고 제 3 항공무선부(1430)는 제 1 항공무선부(1410)와 제 2 항공무선부(1420)의 양방향 통신 기능에 모두 장애가 발생된 경우를 대비하도록 설정하고 제어하여 양방향 통신 상태로 운용한다. In the case of the third
즉, 항공통신부(1400)의 무선통신 기능은 3 단계로 안전하게 양방향 무선통신할 수 있도록 제어되고 감시되며 운용된다. That is, the radio communication function of the
이때, 항공통신부(1400)를 구성하는 제 1 항공무선부(1410), 제 2 항공무선부(1420), 제 3 항공무선부(1430)는 송신하는 기능을 항상 활성화 상태로 운용하여 원시영상 신호와 해당 촬영정보 신호를 포함하는 각종 데이터 신호를 3개의 경로를 통하여 항상 동시에 동일하게 송신한다. In this case, the first
여기서 무선통신 기능의 장애는 장애물에 의하여 정상적인 통신이 이루어지지 않거나 송수신되는 신호에 신호대 잡음비가 불량하여 정상적인 통신이 이루어질 수 없는 경우가 포함된다. In this case, the failure of the wireless communication function includes a case in which normal communication cannot be performed due to an obstacle or a signal to noise ratio is poor in a signal transmitted and received, thereby preventing normal communication.
항공유선통신부(1440)는 지상 처리 시스템(2000)과 유선접속하고 항공제어부(1300)의 해당 제어신호에 의하여 엠엠에스부(1200)에 저장된 신호를 유선송신하며 지상 처리 시스템(2000)이 송신 또는 전송하는 제어명령과 운용 데이터 신호를 유선수신하는 양방향 통신 장치이다. The aviation
항공유선통신부(1440)는 제 1 항공무선부, 제 2 항공무선부, 제 3 항공무선부가 정상적으로 동작하지 않거나 심각한 장애를 발생한 경우에 대비하여 유선접속하고 엠엠에스부(1200)에 저장된 각종 신호를 다운로드 방식으로 출력하거나 외부로부터 각종 제어명령, 운용 데이터, 프로그램 등을 다운로드 방식으로 입력하여 항공제어부에 전달할 수 있다. The aviation
즉, 라인센서 항공 디지털 카메라 장비(1000)는 저장된 원시영상 신호와 해당 촬영정보 신호 및 각종 데이터 신호를 제 1 내지 제 3 항공무선부(1410, 1420, 1430)에 의한 3 개의 통신경로를 통하여 실시간 출력하여 단방향으로 실시간 무선송신하고 또한, 항공유선통신부(1440)를 구성하여 1 개의 유선통신 경로를 더 구비한다. That is, the line sensor aviation
또한, 라인센서 항공 디지털 카메라 장비(1000)는 양방향 통신에서 무선의 3 단계 경로와 유선의 1 단계 경로를 구비하므로 총 4 단계에 의한 양방향 통신경로를 구성하여 실시간으로 전달되는 신호전달 경로의 안정성이 매우 높은 장점이 있다. In addition, since the line sensor aviation
지상 처리 시스템(2000)은 라인센서 항공 디지털 카메라 장비(1000)와 무선 또는 유선으로 접속하여 원시영상 신호와 해당 촬영정보 신호를 수신하고 할당된 영역에 저장하는 동시에 각종 명령신호, 운용 파라미터, 운용 데이터 신호, 프로그램, 갱신 정보 등등을 출력하여 송신한다. The
지상 처리 시스템(2000)은 지상통신부(2100), 평균연산부(2200), 지상제어부(2300), 지상처리 서버(2400)를 포함하는 구성이다. The
지상통신부(2100)는 지상제어부의 제어와 감시에 의하여 라인센서 항공 디지털 카메라 장비(1000)에 접속하고 이동통신 방식과 레이저 광신호를 이용한 광통신 방식과 에프엠 신호를 이용한 에프엠 통신 방식으로 양방향 통신하며, 제 1 지상무선부(2110), 제 2 지상무선부(2120), 제 3 지상무선부(2130), 지상유선통신부(2140)를 포함하는 구성이다. The ground communication unit 2100 is connected to the line sensor aviation
제 1 지상무선부(2110)는 라인센서 항공 디지털 카메라 장비(1000)와 이동통신 방식으로 무선접속하고 원시영상 신호와 해당 촬영정보 신호를 수신하는 동시에 각종 명령신호, 운용 파라미터, 운용 데이터 신호, 프로그램, 갱신 정보 등의 신호를 활성화된 제 1 항공무선부(1410)에 이동통신 방식으로 무선 송신한다. The first
제 2 지상무선부(2120)는 라인센서 항공 디지털 카메라 장비(1000)와 레이저 광신호를 이용하는 광통신 방식으로 무선접속하고 원시영상 신호와 해당 촬영정보 신호를 수신하는 동시에 각종 명령신호, 운용 파라미터, 운용 데이터 신호, 프로그램, 갱신 정보 등의 신호를 활성화된 제 2 항공무선부(1420)에 광통신 방식으로 무선 송신한다. The second
제 3 지상무선부(2130)는 라인센서 항공 디지털 카메라 장비(1000)와 에프엠(FM) 변조(modulation) 신호를 이용하는 에프엠통신 방식으로 무선접속하고 원시영상 신호와 해당 촬영정보 신호를 수신하는 동시에 각종 명령신호, 운용 파라미터, 운용 데이터 신호, 프로그램, 갱신 정보 등의 신호를 활성화된 제 3 항공무선부(1430)에 에프엠통신 방식으로 무선 송신한다. The third
제 1 지상무선부(2110)와 제 2 지상무선부(2120)와 제 3 지상무선부(2130)는 신호를 수신하는 수신 상태를 항상 설정하여 유지하고, 신호를 송신하는 송신상태는 실시 예에 의하여 선택적으로 활성화되어 운용된다. The first
일 실시 예로, 제 1 지상무선부(2110)와 제 2 지상무선부(2120)와 제 3 지상무선부(2130)는 항상 양방향 통신 상태로 활성화 상태로 운용할 수 있다. In one embodiment, the first
한편, 다른 일 실시 예로, 제 1 지상무선부(2110)와 제 2 지상무선부(2120)와 제 3 지상무선부(2130)는 제 1 항공무선부(1410), 제 2 항공무선부(1420), 제 3 항공무선부(1430)의 양방향 통신 활성화 상태에 대응하여 선택적으로 양방향 통신 상태로 활성화되어 운용될 수 있다. Meanwhile, in another embodiment, the first
상기의 다른 일 실시 예로 운용되는 경우, 라인센서 항공 디지털 카메라 장비(1000)는 제 1 항공무선부(1410), 제 2 항공무선부(1420), 제 3 항공무선부(1430) 중에서 어느 기능부가 활성화 상태로 운용되는지를 지상 처리 시스템(2000)에 통보하는 기능을 구비하고, 지상 처리 시스템(2000)은 해당 신호를 인식할 수 있도록 구성된다. When operated in another embodiment of the above, the line sensor aviation
지상유선통신부(2140)는 유선에 의하여 항공유선통신부(1440)와 접속하고 원시영상 신호와 해당 촬영정보 그리고 각종 명령신호, 운용 파라미터, 운용 데이터 신호, 프로그램, 갱신 정보 등의 신호를 송수신한다. The ground
지상유선통신부(2140)와 항공유선통신부(1440)가 유선으로 접속하는 경우는 라인센서 항공 디지털 카메라 장비(1000)를 설치한 비행기가 지상에 착륙한 상태를 유지하여야 함은 매우 당연하며, 유에스비(USB), 이동용 하드디스크, 광디스크 등과 같은 별도의 이동메모리 장치를 이용할 수도 있다. When the ground
평균연산부(2200)는 지상제어부의 제어와 감시에 의하여 지상통신부(2100)와 접속하고 이동통신 방식과 광통신 방식과 에프엠 통신 방식으로 각각 송신되거나 수신되는 신호의 전송오류를 패리티 체크 비트 방식으로 각각 검출하고 오류가 검출되는 경우에 해당 오류를 수정한다. The
한편, 평균연산부(2200)는 이동통신 방식과 광통신 방식과 에프엠 통신 방식으로 각각 동시 수신된 신호를 인가받고 수신된 데이터 신호를 산술평균 방식으로 연산하므로 각각의 통신경로에서 발생되는 전송오류를 제거한다. 다수의 경로로 각각 수신된 디지털 신호의 산술평균 방식은 이미 잘 알려져 있고 쉽게 확인할 수 있으므로 구체적인 설명을 하지 않기로 한다. On the other hand, the
지상제어부(2300)는 평균연산부(2200)와 지상통신부(2100)에 접속하고 지상처리 시스템(2000)를 구성하는 각 기능부를 운용하며 감시하는 제어신호를 각각 출력한다. 또한, 지상제어부(2300)는 본 발명에 의한 방법을 운용하도록 각 기능부를 제어하고 감시한다. The
지상제어부(2300)는 도면에 도시되지 않은 입력장치를 통하여 각종 명령신호, 운용 파라미터, 운용 데이터 신호, 프로그램, 갱신 정보 등의 신호를 입력하여 운용되거나 사전에 저장된 특정 프로그램에 의하여 운용될 수 있다. The
지상처리 서버(2400)는 평균연산부(2200)에 접속하고 지상제어부(2300)의 해당 제어신호에 의하여 원시영상 신호와 촬영정보 신호를 입력하여 할당된 영역에 저장하는 동시에 각종 명령신호, 운용 파라미터, 운용 데이터 신호, 프로그램, 갱신 정보 등의 신호를 할당된 영역에 각각 저장한다.
The
이상에서 본 발명은 기재된 구체 예에 대해서 상세히 설명하였지만 본 발명의 기술사상 범위 내에서 다양한 변형 및 수정이 가능함은 당업자에게 있어서 명백한 것이며, 이러한 변형 및 수정이 첨부된 특허청구범위에 속함은 당연한 것이다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is evident that many alternatives, modifications and variations will be apparent to those skilled in the art.
1000 : 라인센서 항공 디지털 카메라 장비
1100 : 카메라부 1200 : 엠엠에스부
1300 : 항공제어부 1400 : 항공통신부
1410 : 제 1 항공무선부 1420 : 제 2 항공무선부
1430 : 제 3 항공무선부 1440 : 항공유선통신부
2000 : 지상 처리 시스템 2100 : 지상통신부
2110 : 제 1 지상무선부 2120 : 제 2 지상무선부
2130 : 제 3 지상무선부 2140 : 지상유선통신부
2200 : 평균연산부 2300 : 지상제어부
2400 : 지상처리서버 1000: Line Sensor Aviation Digital Camera Equipment
1100: camera unit 1200: MMS unit
1300: aviation control unit 1400: aviation communication unit
1410: first radio part 1420: second radio part
1430: third aeronautical wireless unit 1440: aeronautical wired and communication department
2000: Ground treatment system 2100: Ground communication department
2110: first ground radio part 2120: second ground radio part
2130: third terrestrial wireless unit 2140: terrestrial wired communication unit
2200: average computing unit 2300: ground control unit
2400: ground treatment server
Claims (1)
(S20) 후처리 DGPS 원리에 따라 지상기준점 데이터와 상기 촬영 정보를 이용하여 좌표계변환 및 시간동기화 작업을 통해 상기 (S10)단계에서 획득되지 않는 상기 원시 영상의 각 라인별 외부표정요소를 획득하는 단계;
(S30) 상기 S20단계에서 획득한 각 라인별 외부표정요소와 상기 S10단계에서 획득한 촬영 정보의 내부표정요소를 이용하여 공선조건식을 통해 상기 원시 영상의 기하 왜곡을 보정한 기하보정 영상을 획득하는 단계;
(S40) 상기 원시 영상 및 기하보정 영상의 영상좌표 각각을 지상좌표로 변환하고, 상기 기하보정 영상의 각 픽셀에 대해 변환된 지상좌표와 근접한 지상좌표를 갖는 상기 원시 영상의 픽셀을 추출하고, 추출된 원시 영상의 픽셀이 갖는 외부표정요소를 기하보정 영상의 해당 픽셀의 외부표정요소로 간주하는 방식으로, 기하보정 영상 중심의 주점좌표에 외부표정요소를 부여하여 기하보정 영상의 각 라인별 외부표정요소를 획득하는 단계;
(S50) 각 라인별 외부표정요소가 획득된 상기 기하보정 스트립(Strip) 영상을 일정 크기의 영상으로 생성하고, 각 생성된 영상(즉, 면형방식영상)의 속성DB를 구축하는 단계;를 포함하여 이루어지되,
상기 S40단계에서 상기 기하보정 영상의 각 픽셀에 대해 변환된 지상좌표와 근접한 지상좌표를 갖는 원시 영상의 픽셀 추출은 Affine 변환을 이용하고,
상기 S50단계는 기하보정 스트립 영상을 절취한 후에 기하보정으로 굴곡이 발생된 각 절취 영상의 상하단을 일정부분 절취하여 절취 영상을 직사각형화 하는 단계를 포함하는 지상기준점측량과 GPS/INS가 연계된 고해상 선형방식 디지털 다중 밴드 영상을 GIS와 수치지도와 3차원국토공간정보로 구축하기위해 면형방식영상으로 재배열하는 방법에 있어서,
상기 S10단계는 상기 라인센서 항공디지털 카메라 장비로부터 지상 처리 시스템이 상기 원시 영상과 상기 촬영 정보를 이동통신 방식과 레이저 광통신 방식과 에프엠 무선통신 방식으로 각각 실시간 획득하고 상기 획득된 신호의 데이터를 산술평균 연산 처리하여 무선전송오차 제거하고,
상기 라인센서 항공디지털 카메라 장비는
비행기의 하부 일측에 설치되고 가시광선과 근거리적외선으로 각각 촬영된 원시 영상의 신호와 상기 원시 영상에 대한 촬영정보 신호를 디지털 신호로 각각 출력하는 카메라부;
상기 카메라부에 접속하고 출력되는 신호를 지정된 영역에 저장하는 엠엠에스부;
상기 카메라부와 엠엠에스부에 접속하고 상기 라인센서 항공디지털 카메라 장비의 각 기능부를 운용하며 감시하는 제어신호를 각각 출력하는 항공제어부; 및
상기 항공제어부와 엠엠에스부에 접속하고 상기 제어신호에 의하여 이동통신 방식과 레이저 광신호를 이용한 광통신 방식과 에프엠 방식 신호를 이용한 에프엠통신 방식으로 양방향 통신하는 항공통신부; 를 포함하고,
상기 항공통신부는
상기 지상 처리 시스템과 이동통신 방식으로 무선접속하고 상기 항공제어부의 제어신호에 의하여 상기 엠엠에스부에 저장된 신호를 송신하며 상기 지상 처리 시스템이 송신하는 제어명령과 운용 데이터 신호를 수신하는 제 1 항공무선부;
상기 지상 처리 시스템과 광통신 방식으로 무선접속하고 상기 항공제어부의 제어신호에 의하여 상기 엠엠에스부에 저장된 신호를 송신하는 제 2 항공무선부;
상기 지상 처리 시스템과 에프엠 통신 방식으로 무선접속하고 상기 항공제어부의 제어신호에 의하여 상기 엠엠에스부에 저장된 신호를 송신하는 제 3 항공무선부; 및
상기 지상 처리 시스템과 유선접속하고 상기 항공제어부의 제어신호에 의하여 상기 엠엠에스부에 저장된 신호를 송신하며 상기 지상 처리 시스템이 송신하는 제어명령과 운용 데이터 신호를 수신하는 항공유선통신부; 를 포함하여 이루어지고,
상기 지상 처리 시스템은
상기 라인센서 항공 디지털 카메라 장비에 접속하고 이동통신 방식과 레이저 광신호를 이용한 광통신 방식과 에프엠 신호를 이용한 에프엠 통신 방식으로 양방향 통신하는 지상통신부;
상기 지상통신부와 접속하고 상기 이동통신 방식과 광통신 방식과 에프엠 통신 방식으로 각각 송수신되는 신호의 전송오류를 패리티 체크 비트 방식으로 각각 검출 수정하고 수정된 각 방식의 신호를 산술평균 방식으로 연산하여 출력하는 평균연산부;
상기 평균연산부와 지상통신부에 접속하고 상기 지상처리 시스템의 각 기능부를 운용하며 감시하는 제어신호를 각각 출력하는 지상제어부; 및
상기 평균연산부에 접속하고 상기 지상제어부의 제어신호에 의하여 상기 원시 영상 신호와 촬영 정보를 입력하여 할당된 영역에 저장하는 지상처리 서버; 를 포함하여 이루어지는 것을 특징으로 하는 지상기준점측량과 GPS/INS가 연계된 고해상 선형방식 디지털 다중 밴드 영상을 GIS와 수치지도와 3차원국토공간정보로 구축하기위해 면형방식영상으로 재배열하는 방법.
(S10) obtaining a raw image and photographing information (including metadata and position data) of the raw image from the line sensor aerial digital camera equipment;
(S20) acquiring an external expression element for each line of the raw image not obtained in the step S10 through coordinate system transformation and time synchronization using the ground reference point data and the photographing information according to the post-processing DGPS principle ;
(S30) Acquiring a geometrically corrected image correcting the geometric distortion of the raw image through a collinear condition equation by using the external expression element for each line obtained in the step S20 and the internal expression element of the photographing information obtained in the step S10. step;
(S40) convert each of the image coordinates of the raw image and the geometrically corrected image to ground coordinates, extract pixels of the raw image having ground coordinates close to the converted ground coordinates for each pixel of the geometrically corrected image, and extract The external expression for each line of the geometrically corrected image is assigned by assigning the external expression element to the main coordinates of the center of the geometrically corrected image. Obtaining an element;
(S50) generating the geometrically corrected strip image obtained by obtaining the external expression elements for each line as an image of a predetermined size, and constructing an attribute DB of each generated image (ie, planar image); By the way,
The pixel extraction of the raw image having the ground coordinates close to the ground coordinates converted for each pixel of the geometrically corrected image in step S40 uses an Affine transform,
The step S50 is to cut the geometric correction strip image, and then cut the upper and lower ends of each cut image in which the bending is generated by geometric correction to form a rectangular cut image. In a method of rearranging linear digital multi-band images into planar images to construct a GPS, digital maps and 3D national spatial information,
In step S10, the terrestrial processing system acquires the raw image and the photographing information from the line sensor aviation digital camera device in real time using a mobile communication method, a laser optical communication method, and an FM wireless communication method, respectively, and performs an arithmetic mean of the obtained data. Operation to remove the wireless transmission error,
The line sensor aviation digital camera equipment
A camera unit installed at a lower side of the plane and outputting a signal of a raw image photographed by visible light and near-infrared light and a photographing information signal of the raw image as digital signals, respectively;
An MS unit which accesses the camera unit and stores an output signal in a designated area;
An air control unit connected to the camera unit and an MS unit and outputting control signals for operating and monitoring each function unit of the line sensor aviation digital camera equipment; And
An air communication unit connected to the air control unit and the MS unit and performing bidirectional communication using an optical communication method using a mobile communication method and a laser light signal and an FM communication method using an FM signal according to the control signal; Lt; / RTI >
The aviation communication unit
A first air radio wirelessly connected to the ground processing system in a mobile communication manner, transmitting a signal stored in the MS unit by a control signal of the air control unit, and receiving a control command and an operation data signal transmitted by the ground processing system. part;
A second air radio unit wirelessly connecting the terrestrial processing system in an optical communication manner and transmitting a signal stored in the MMS unit by a control signal of the air control unit;
A third aviation radio unit wirelessly connecting the terrestrial processing system through an FM communication scheme and transmitting a signal stored in the MS unit by a control signal of the air controller; And
An airline communication unit for wired connection with the ground processing system, transmitting a signal stored in the MS unit according to a control signal of the air traffic controller, and receiving a control command and an operation data signal transmitted by the ground processing system; , ≪ / RTI >
The above ground treatment system
A ground communication unit connected to the line sensor aviation digital camera device and bidirectionally communicating with an optical communication method using a mobile communication method and a laser optical signal and an FM communication method using an FM signal;
Connecting to the terrestrial communication unit, detecting and correcting transmission errors of signals transmitted and received in the mobile communication method, the optical communication method, and the FM communication method, respectively, by using a parity check bit method, and calculating and outputting the modified signals in an arithmetic average method. Average calculation unit;
A ground control unit connected to the average computing unit and the ground communication unit and outputting control signals for operating and monitoring each function unit of the ground processing system; And
A ground processing server connected to the average computing unit and inputting the raw image signal and the photographing information according to a control signal of the ground control unit and storing the raw image signal in the allocated area; A method of rearranging a high-resolution linear digital multi-band image in which a ground control point survey and a GPS / INS connected to a planar image to construct a GPS, a digital map, and three-dimensional land-spatial information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130124498A KR101345554B1 (en) | 2013-10-18 | 2013-10-18 | Method of resampling high resolution digital multi band imagery from line senser into frame type imagery to construct gis(uis), digital map and 3d spatial information using ground control point and gps/ins data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130124498A KR101345554B1 (en) | 2013-10-18 | 2013-10-18 | Method of resampling high resolution digital multi band imagery from line senser into frame type imagery to construct gis(uis), digital map and 3d spatial information using ground control point and gps/ins data |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101345554B1 true KR101345554B1 (en) | 2014-01-02 |
Family
ID=50144160
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130124498A KR101345554B1 (en) | 2013-10-18 | 2013-10-18 | Method of resampling high resolution digital multi band imagery from line senser into frame type imagery to construct gis(uis), digital map and 3d spatial information using ground control point and gps/ins data |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101345554B1 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106595656A (en) * | 2016-12-29 | 2017-04-26 | 辽宁工程技术大学 | Vehicle-mounted POS-based highway alignment feature recognition and parameter calculation method |
KR101784315B1 (en) * | 2016-06-10 | 2017-10-12 | 한국과학기술원 | Devices for correcting perspective distortion and method of correcting perspective distortion |
CN107886531A (en) * | 2017-12-15 | 2018-04-06 | 武汉智能鸟无人机有限公司 | A kind of virtual controlling point acquisition methods matched based on laser ranging and object space |
KR101846227B1 (en) * | 2016-11-04 | 2018-04-06 | 국방과학연구소 | Antenna tracking method between pilotless aircraft in realy link of datalink for video information using datalink for operation control |
CN108007395A (en) * | 2017-10-17 | 2018-05-08 | 天津飞眼无人机科技有限公司 | A kind of Land area measure system based on unmanned plane |
KR101895951B1 (en) * | 2018-03-02 | 2018-09-06 | 중앙항업(주) | The image processing system incorporating the image information of the real-time data change management |
KR102121974B1 (en) * | 2019-12-05 | 2020-06-12 | 대한민국 | Disaster damage investigation·analysis system using drone and disaster damage investigation·analysis method |
CN111415295A (en) * | 2020-03-17 | 2020-07-14 | 东南数字经济发展研究院 | Shooting resolution orthographic image generation method of oblique photography three-dimensional model |
CN113793270A (en) * | 2021-08-05 | 2021-12-14 | 杭州电子科技大学 | Aerial image geometric correction method based on unmanned aerial vehicle attitude information |
CN116630204A (en) * | 2023-07-19 | 2023-08-22 | 南京佳格耕耘科技有限公司 | Remote sensing image online analysis processing system |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100930643B1 (en) | 2009-06-29 | 2009-12-09 | 중앙항업(주) | Method of resampling high resolution digital multi band imagery from line sensor into frame type imagery to construct gis(uis), digital map and 3d spatial information using gournd control point and gps/ins data |
KR100952136B1 (en) | 2009-09-11 | 2010-04-09 | 중앙항업(주) | Method for correcting position and dircction elements of camera, and method for 3d-structure measurement using single oblique photograph |
-
2013
- 2013-10-18 KR KR1020130124498A patent/KR101345554B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100930643B1 (en) | 2009-06-29 | 2009-12-09 | 중앙항업(주) | Method of resampling high resolution digital multi band imagery from line sensor into frame type imagery to construct gis(uis), digital map and 3d spatial information using gournd control point and gps/ins data |
KR100952136B1 (en) | 2009-09-11 | 2010-04-09 | 중앙항업(주) | Method for correcting position and dircction elements of camera, and method for 3d-structure measurement using single oblique photograph |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101784315B1 (en) * | 2016-06-10 | 2017-10-12 | 한국과학기술원 | Devices for correcting perspective distortion and method of correcting perspective distortion |
KR101846227B1 (en) * | 2016-11-04 | 2018-04-06 | 국방과학연구소 | Antenna tracking method between pilotless aircraft in realy link of datalink for video information using datalink for operation control |
CN106595656B (en) * | 2016-12-29 | 2019-09-10 | 辽宁工程技术大学 | A kind of identification of highway alignment feature and calculation method of parameters based on vehicle-mounted POS |
CN106595656A (en) * | 2016-12-29 | 2017-04-26 | 辽宁工程技术大学 | Vehicle-mounted POS-based highway alignment feature recognition and parameter calculation method |
CN108007395A (en) * | 2017-10-17 | 2018-05-08 | 天津飞眼无人机科技有限公司 | A kind of Land area measure system based on unmanned plane |
CN107886531A (en) * | 2017-12-15 | 2018-04-06 | 武汉智能鸟无人机有限公司 | A kind of virtual controlling point acquisition methods matched based on laser ranging and object space |
CN107886531B (en) * | 2017-12-15 | 2024-04-16 | 武汉智能鸟无人机有限公司 | Virtual control point acquisition method based on laser ranging and object space matching |
KR101895951B1 (en) * | 2018-03-02 | 2018-09-06 | 중앙항업(주) | The image processing system incorporating the image information of the real-time data change management |
KR102121974B1 (en) * | 2019-12-05 | 2020-06-12 | 대한민국 | Disaster damage investigation·analysis system using drone and disaster damage investigation·analysis method |
CN111415295A (en) * | 2020-03-17 | 2020-07-14 | 东南数字经济发展研究院 | Shooting resolution orthographic image generation method of oblique photography three-dimensional model |
CN111415295B (en) * | 2020-03-17 | 2024-01-12 | 东南数字经济发展研究院 | Shooting resolution orthogram generation method of oblique shooting three-dimensional model |
CN113793270A (en) * | 2021-08-05 | 2021-12-14 | 杭州电子科技大学 | Aerial image geometric correction method based on unmanned aerial vehicle attitude information |
CN116630204A (en) * | 2023-07-19 | 2023-08-22 | 南京佳格耕耘科技有限公司 | Remote sensing image online analysis processing system |
CN116630204B (en) * | 2023-07-19 | 2023-09-26 | 南京佳格耕耘科技有限公司 | Remote sensing image online analysis processing system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101345554B1 (en) | Method of resampling high resolution digital multi band imagery from line senser into frame type imagery to construct gis(uis), digital map and 3d spatial information using ground control point and gps/ins data | |
KR100930643B1 (en) | Method of resampling high resolution digital multi band imagery from line sensor into frame type imagery to construct gis(uis), digital map and 3d spatial information using gournd control point and gps/ins data | |
Pérez et al. | Low cost surveying using an unmanned aerial vehicle | |
US10013785B2 (en) | Methods and systems for object based geometric fitting | |
Javadnejad et al. | A photogrammetric approach to fusing natural colour and thermal infrared UAS imagery in 3D point cloud generation | |
US20180218534A1 (en) | Drawing creation apparatus and drawing creation method | |
US20220198606A1 (en) | Multiple georeferenced aerial image crop analysis and synthesis | |
US20120114229A1 (en) | Orthorectification and mosaic of video flow | |
JP7251474B2 (en) | Information processing device, information processing method, information processing program, image processing device, and image processing system | |
CN110209847B (en) | Method and device for processing aviation remote sensing data machine in quasi-real time and storage medium | |
JP2008186145A (en) | Aerial image processing apparatus and aerial image processing method | |
Jacobsen | Characteristics of very high resolution optical satellites for topographic mapping | |
KR102075028B1 (en) | Unmanned High-speed Flying Precision Position Image Acquisition Device and Accurate Position Acquisition Method Using the same | |
Lee | Assessing the positioning accuracy of high density point clouds produced from rotary wing quadrocopter unmanned aerial system based imagery | |
JP5304465B2 (en) | Mosaic image generation method, apparatus and program | |
JP2017201261A (en) | Shape information generating system | |
Liu et al. | A new approach to fast mosaic UAV images | |
KR101224830B1 (en) | Portable Multi-Sensor System for Acquiring Georeferenced Images and Method thereof | |
Nasrullah | Systematic analysis of unmanned aerial vehicle (UAV) derived product quality | |
JP2019046149A (en) | Crop cultivation support apparatus | |
KR20130100851A (en) | Method for processing satellite image and system for processing the same | |
Schwind et al. | Processors for ALOS optical data: Deconvolution, DEM generation, orthorectification, and atmospheric correction | |
JP6448427B2 (en) | Facility name superimposing device | |
CN110940318A (en) | Aerial remote sensing real-time imaging method, electronic equipment and storage medium | |
Deltsidis et al. | Orthorectification of World View 2 stereo pair using a new rigorous orientation model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
A302 | Request for accelerated examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20161129 Year of fee payment: 4 |