KR101345554B1 - Method of resampling high resolution digital multi band imagery from line senser into frame type imagery to construct gis(uis), digital map and 3d spatial information using ground control point and gps/ins data - Google Patents

Method of resampling high resolution digital multi band imagery from line senser into frame type imagery to construct gis(uis), digital map and 3d spatial information using ground control point and gps/ins data Download PDF

Info

Publication number
KR101345554B1
KR101345554B1 KR1020130124498A KR20130124498A KR101345554B1 KR 101345554 B1 KR101345554 B1 KR 101345554B1 KR 1020130124498 A KR1020130124498 A KR 1020130124498A KR 20130124498 A KR20130124498 A KR 20130124498A KR 101345554 B1 KR101345554 B1 KR 101345554B1
Authority
KR
South Korea
Prior art keywords
image
unit
ground
signal
line
Prior art date
Application number
KR1020130124498A
Other languages
Korean (ko)
Inventor
김상성
고종식
Original Assignee
중앙항업(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙항업(주) filed Critical 중앙항업(주)
Priority to KR1020130124498A priority Critical patent/KR101345554B1/en
Application granted granted Critical
Publication of KR101345554B1 publication Critical patent/KR101345554B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram

Abstract

The present invention relates to a method for constructing spatial image information by creating a unit image separated from image data which is photographed by an aerial digital camera having a line sensor, which constitutes one strip, and of which the capacity is about 20 GB. The method comprising: acquiring an original image and imaging information from aerial digital camera equipment having a line sensor (S10); performing coordinate system conversion and time synchronization using ground control point data and the imaging information according to a post-processing DGPS principle to obtain external orientation parameters for each line of the original image not acquired in step S10 (S20); acquiring a geometric correction image in which the geometric distortion of the original image is corrected by a collinearity equation using the external orientation parameters for each line acquired in step S20 and internal orientation parameters of the imaging information acquired in step S10 (S30); giving the external orientation parameters to principal point coordinates of the center of the geometric correction image to acquire external orientation parameters for each line of the geometric correction image in a manner of converting each of the image coordinates of the original image and the geometric correction image into ground coordinates, extracting the pixels of the original image having ground coordinates adjacent to the ground coordinates converted for each pixel of the geometric correction image, and regarding the external orientation parameters which the extracted pixels of the original image have as the external orientation parameters which the corresponding pixels of the geometric correction image have (S40); and generating a geometric correction strip image of which the external orientation parameters for each line are acquired into an image of a predetermined size and constructing a property DB of each generated image (S50). [Reference numerals] (AA) Line sensor aerial digital camera equipment MMS; (BB) Acquire an original image; (CC) Acquire imaging information; (DD) Create a unit image; (EE) Construct a property DB; (FF) Generate an XML file; (GG) Standard compression format(NIX) conversion; (HH) DB loading; (S20) Acquire external orientation parameters for each line of the original image; (S30) Acquire a geometric correction image; (S40) Correct imaging information of the geometric correction image(External orientation parameters for each line)

Description

지상기준점측량과 GPS/INS가 연계된 고해상 선형방식 디지털 다중 밴드 영상을 GIS와 수치지도와 3차원국토공간정보로 구축하기위해 면형방식영상으로 재배열하는 방법{Method of resampling high resolution digital multi band imagery from line senser into frame type imagery to construct GIS(UIS), digital map and 3D spatial information using ground control point and GPS/INS data}Method of resampling high resolution digital multi band imagery in which high resolution linear digital multiband image linking ground control point and GPS / INS is constructed as planar image for constructing GPS, digital map and 3D national spatial information from line senser into frame type imagery to construct GIS (UIS), digital map and 3D spatial information using ground control point and GPS / INS data}

본 발명은 지상기준점측량과 GPS/INS가 연계된 고해상 선형방식 디지털 다중 밴드 영상을 GIS와 수치지도와 3차원국토공간정보로 구축하기위해 면형방식영상으로 재배열하는 방법에 관한 것으로 더욱 상세하게는 라인(Line) 센서 항공디지털카메라가 지상 40 Km 범위를 일정한 폭의 1개 스트립(Strip)으로 촬영한 약 20 GB 정도 용량의 영상 이미지 데이터에 GPS 지상기준점 측량(지적, 측지) 성과와 GPS/INS가 연계된 항공삼각측량 방식의 절대좌표를 부여하고, 근적외선 밴드가 포함된 고해상 Line 방식 디지털 다중 밴드의 영상으로부터 분리된 단위영상을 생성하며 메타데이터가 포함된 속성DB를 자동으로 생성하여 수치지도와 3차원 국토공간정보를 구축하는 지상기준점측량과 GPS/INS가 연계된 고해상 선형방식 디지털 다중 밴드 영상을 GIS와 수치지도와 3차원국토공간정보로 구축하기위해 면형방식영상으로 재배열하는 방법에 관한 것이다.
The present invention relates to a method of rearranging a high resolution linear digital multiband image in which a ground control point survey and a GPS / INS are linked to a planar image to construct a GPS, a digital map, and three-dimensional land-spatial information. Line sensor aerial digital camera captures GPS ground-based point survey (intellectual and geodetic) performance and GPS / INS on video image data of approximately 20 GB capacity, taken from a single strip with a constant width of 40 km above ground. Gives absolute coordinates of the associated air triangulation method, generates unit images separated from high-resolution line-type digital multi-band images including near infrared bands, and automatically generates attribute DBs containing metadata for digital maps. We are planning to provide a high resolution linear digital multi-band image linking ground control point surveying and GPS / INS to construct 3D national spatial information. S and the method of rearranging by planar image for constructing digital map and 3D national spatial information.

국토지리정보원에서 항공촬영된 사진의 영상 이미지로 데이터베이스(DB)를 구축(즉, 영상을 취득(생성)하여 속성DB를 구축)하여 국토공간영상정보로 활용하는 종래의 방법은 크게 아날로그방식 항공카메라로 촬영 후 항공사진 자동독취, 속성DB 구축, 표준압축 포맷(NIX)변환, DB로딩의 단계로 구성되는데, 각 단계의 공정이 수동으로 작성되어 시간과 인력이 많이 소요된다. 뿐만 아니라 아날로그항공카메라로 촬영한 영상은 근래에 도입된 라인센서 항공디지털카메라로 촬영한 영상에 비해 품질이 떨어진다. The conventional method of constructing a database (DB) with video images of aerial photographs taken by the National Geographic Information Institute (that is, acquiring (generating) images and constructing an attribute DB) and using them as national spatial spatial image information is largely analog type aerial camera. After the shooting, it consists of automatic reading of aerial photographs, construction of attribute DB, conversion of standard compression format (NIX), and loading of DB. In addition, images taken with analog aviation cameras are of lower quality than those taken with line sensor aviation digital cameras.

고품질의 라인세서 항공디지털카메라로 촬영한 영상과 그 촬영정보를 이용하여 국토공간영상정보로 활용하기 위한 항공사진 영상의 DB를 구축을 하고, 상기의 영상DB 구축단계를 자동화할 필요가 있다. It is necessary to build a database of aerial photographs for use as national spatial image information by using images taken with high-quality line digital aerial cameras and photographing information, and to automate the image DB construction step.

그러나 라인센서 항공디지털카메라로 촬영한 디지털 영상(이미지)은 1개의 스트립으로 이루어지고 일정한 폭으로 촬영하며 최대 40km 내외의 길이를 촬영하고 영상의 데이터 용량이 20GB 정도가 된다. 여기서 촬영되는 영상이 1개의 스트립으로 이루어지는 것을 선형방식 촬영이라고 한다. 그러므로 영상 전체를 하나의 데이터로 하여 DB를 구축할 수는 없고 영상을 일정 규격 단위로 절취하며 절취된 각각의 단위영상에 대한 속성DB를 구축하여야 한다. However, digital images (images) taken by line sensor aviation digital cameras consist of one strip, shoot with a constant width, shoot up to 40km in length, and have a data capacity of about 20GB. In this case, the filmed image is composed of one strip and is called linear type photographing. Therefore, it is not possible to construct a DB with the whole image as one data, but to cut the image in certain standard units and to build the attribute DB for each cut-out unit image.

또한, 라인센서 항공디지털카메라로 촬영한 영상은 라인별로 촬영정보를 각각 갖지 못하고, 일정 간격 마다 지정된 특정 라인에서 촬영정보를 갖고 있다. 그러므로 지정된 특정 라인의 촬영정보를 적극 활용하여 인접한 각 라인별의 촬영정보를 근사적으로 획득하고 단위영상을 각각 생성하여 속성DB를 구축하여야 한다.
In addition, the image photographed by the line sensor aerial digital camera does not have the photographing information for each line, but has the photographing information in a specific line designated at regular intervals. Therefore, by taking advantage of the photographing information of the specified specific line, it is necessary to obtain the photographing information of each adjacent line approximately, and to generate the unit image to construct the attribute DB.

대한민국 특허 등록 제10-0930643호(2009년 12월 01일) “지상기준점측량과 GPS/INS를 연계한 고해상 선형방식 디지털 다중 밴드(근적외선밴드 포함)영상을 GIS(UIS)와 수치지도, 3차원국토공간정보로 구축하기위한 면형방식영상으로 재배열하는 기법”Republic of Korea Patent Registration No. 10-0930643 (December 01, 2009) “High resolution linear digital multi-band (including near infrared band) image linking ground control point and GPS / INS, GPS, digital map, 3D Rearrangement of Planar Image to Construct Spatial Information ”

상기와 같은 종래 기술의 문제점과 필요성을 해소하기 위하여 안출한 본 발명은 라인센서 항공디지털카메라 장비로부터 촬영된 영상(이미지)과 촬영정보를 획득하고 이를 국토지리원의 국토공간영상정보로 활용할 수 있도록 면형방식영상으로 분할하고 각 면형방식영상에 대한 각각의 속성DB를 연산하여 항공영상 데이터베이스를 구축하는 지상기준점측량과 GPS/INS가 연계된 고해상 선형방식 디지털 다중 밴드 영상을 GIS와 수치지도와 3차원국토공간정보로 구축하기위해 면형방식영상으로 재배열하는 방법을 제공하는 것이 그 목적이다. In order to solve the problems and necessity of the prior art as described above, the present invention obtains the image (image) and shooting information taken from the line sensor aviation digital camera equipment and the surface type so that it can be used as the national geospatial image information of the National Geographic Institute The high resolution linear digital multi-band image linking the ground control point survey and GPS / INS to construct the aerial image database by dividing the method image and calculating the respective property DB for each planar type image. The purpose is to provide a method of rearranging the planar image to construct the spatial information.

또한, 본 발명은 비행기에 설치된 라인센서 항공 디지털 카메라 장비에서 촬영한 원시영상 정보와 해당되는 촬영정보의 신호를 실시간으로 전송하고 다수 경로를 구비하여 일부의 장애가 발생하는 경우에도 오류없이 신호를 전송할 수 있는 지상기준점측량과 GPS/INS가 연계된 고해상 선형방식 디지털 다중 밴드 영상을 GIS와 수치지도와 3차원국토공간정보로 구축하기위해 면형방식영상으로 재배열하는 방법을 제공하는 것이 그 목적이다.
In addition, the present invention transmits the signals of the raw image information and the corresponding photographing information taken by the line sensor aviation digital camera equipment installed on the plane in real time and can transmit a signal without errors even if some failure occurs by having a plurality of paths. The purpose of the present invention is to provide a method of rearranging high resolution linear digital multiband images linked with ground control point surveying and GPS / INS to planar images for constructing GPS, digital maps, and 3D national spatial information.

상기와 같은 목적을 달성하기 위하여 안출한 본 발명의 지상기준점측량과 GPS/INS가 연계된 고해상 선형방식 디지털 다중 밴드 영상을 GIS와 수치지도와 3차원국토공간정보로 구축하기위해 면형방식영상으로 재배열하는 방법은 (S10) 라인센서 항공디지털 카메라 장비로부터 원시 영상과, 원시 영상의 촬영 정보(메타데이터 및 위치데이터를 포함)를 획득하는 단계; (S20) 후처리 DGPS 원리에 따라 지상기준점 데이터와 상기 촬영 정보를 이용하여 좌표계변환 및 시간동기화 작업을 통해 상기 (S10)단계에서 획득되지 않는 상기 원시 영상의 각 라인별 외부표정요소를 획득하는 단계; (S30) 상기 S20단계에서 획득한 각 라인별 외부표정요소와 상기 S10단계에서 획득한 촬영 정보의 내부표정요소를 이용하여 공선조건식을 통해 상기 원시 영상의 기하 왜곡을 보정한 기하보정 영상을 획득하는 단계; (S40) 상기 원시 영상 및 기하보정 영상의 영상좌표 각각을 지상좌표로 변환하고, 상기 기하보정 영상의 각 픽셀에 대해 변환된 지상좌표와 근접한 지상좌표를 갖는 상기 원시 영상의 픽셀을 추출하고, 추출된 원시 영상의 픽셀이 갖는 외부표정요소를 기하보정 영상의 해당 픽셀의 외부표정요소로 간주하는 방식으로, 기하보정 영상 중심의 주점좌표에 외부표정요소를 부여하여 기하보정 영상의 각 라인별 외부표정요소를 획득하는 단계; (S50) 각 라인별 외부표정요소가 획득된 상기 기하보정 스트립(Strip) 영상을 일정 크기의 영상으로 생성하고, 각 생성된 영상(즉, 면형방식영상)의 속성DB를 구축하는 단계;를 포함하여 이루어지되, 상기 S40단계에서 상기 기하보정 영상의 각 픽셀에 대해 변환된 지상좌표와 근접한 지상좌표를 갖는 원시 영상의 픽셀 추출은 Affine 변환을 이용하고, 상기 S50단계는 기하보정 스트립 영상을 절취한 후에 기하보정으로 굴곡이 발생된 각 절취 영상의 상하단을 일정부분 절취하여 절취 영상을 직사각형화 하는 단계를 포함하는 지상기준점측량과 GPS/INS가 연계된 고해상 선형방식 디지털 다중 밴드 영상을 GIS와 수치지도와 3차원국토공간정보로 구축하기위해 면형방식영상으로 재배열하는 방법에 있어서, 상기 S10단계는 상기 라인센서 항공디지털 카메라 장비로부터 지상 처리 시스템이 상기 원시 영상과 상기 촬영 정보를 이동통신 방식과 레이저 광통신 방식과 에프엠 무선통신 방식으로 각각 실시간 획득하고 상기 획득된 신호의 데이터를 산술평균 연산 처리하여 무선전송오차 제거하고, 상기 라인센서 항공디지털 카메라 장비는 비행기의 하부 일측에 설치되고 가시광선과 근거리적외선으로 각각 촬영된 원시 영상의 신호와 상기 원시 영상에 대한 촬영정보 신호를 디지털 신호로 각각 출력하는 카메라부; 상기 카메라부에 접속하고 출력되는 신호를 지정된 영역에 저장하는 엠엠에스부; 상기 카메라부와 엠엠에스부에 접속하고 상기 라인센서 항공디지털 카메라 장비의 각 기능부를 운용하며 감시하는 제어신호를 각각 출력하는 항공제어부; 및 상기 항공제어부와 엠엠에스부에 접속하고 상기 제어신호에 의하여 이동통신 방식과 레이저 광신호를 이용한 광통신 방식과 에프엠 방식 신호를 이용한 에프엠통신 방식으로 양방향 통신하는 항공통신부; 를 포함하고, 상기 항공통신부는 상기 지상 처리 시스템과 이동통신 방식으로 무선접속하고 상기 항공제어부의 제어신호에 의하여 상기 엠엠에스부에 저장된 신호를 송신하며 상기 지상 처리 시스템이 송신하는 제어명령과 운용 데이터 신호를 수신하는 제 1 항공무선부; 상기 지상 처리 시스템과 광통신 방식으로 무선접속하고 상기 항공제어부의 제어신호에 의하여 상기 엠엠에스부에 저장된 신호를 송신하는 제 2 항공무선부; 상기 지상 처리 시스템과 에프엠 통신 방식으로 무선접속하고 상기 항공제어부의 제어신호에 의하여 상기 엠엠에스부에 저장된 신호를 송신하는 제 3 항공무선부; 및 상기 지상 처리 시스템과 유선접속하고 상기 항공제어부의 제어신호에 의하여 상기 엠엠에스부에 저장된 신호를 송신하며 상기 지상 처리 시스템이 송신하는 제어명령과 운용 데이터 신호를 수신하는 항공유선통신부; 를 포함하여 이루어지고, 상기 지상 처리 시스템은 상기 라인센서 항공 디지털 카메라 장비에 접속하고 이동통신 방식과 레이저 광신호를 이용한 광통신 방식과 에프엠 신호를 이용한 에프엠 통신 방식으로 양방향 통신하는 지상통신부; 상기 지상통신부와 접속하고 상기 이동통신 방식과 광통신 방식과 에프엠 통신 방식으로 각각 송수신되는 신호의 전송오류를 패리티 체크 비트 방식으로 각각 검출 수정하고 수정된 각 방식의 신호를 산술평균 방식으로 연산하여 출력하는 평균연산부; 상기 평균연산부와 지상통신부에 접속하고 상기 지상처리 시스템의 각 기능부를 운용하며 감시하는 제어신호를 각각 출력하는 지상제어부; 및 상기 평균연산부에 접속하고 상기 지상제어부의 제어신호에 의하여 상기 원시 영상 신호와 촬영 정보를 입력하여 할당된 영역에 저장하는 지상처리 서버; 를 포함할 수 있다.
In order to achieve the above object, a high-resolution linear digital multiband image, which is connected with ground control point surveying and GPS / INS of the present invention, is cultivated as a planar type image to construct a GPS, a digital map, and 3D national spatial information. The method may include (S10) obtaining a raw image and photographing information (including metadata and position data) of the raw image from the line sensor aerial digital camera equipment; (S20) acquiring an external expression element for each line of the raw image not obtained in the step S10 through coordinate system transformation and time synchronization using the ground reference point data and the photographing information according to the post-processing DGPS principle ; (S30) Acquiring a geometrically corrected image correcting the geometric distortion of the raw image through a collinear condition equation by using the external expression element for each line obtained in the step S20 and the internal expression element of the photographing information obtained in the step S10. step; (S40) convert each of the image coordinates of the raw image and the geometrically corrected image to ground coordinates, extract pixels of the raw image having ground coordinates close to the converted ground coordinates for each pixel of the geometrically corrected image, and extract The external expression for each line of the geometrically corrected image is assigned by assigning the external expression element to the main coordinates of the center of the geometrically corrected image. Obtaining an element; (S50) generating the geometrically corrected strip image obtained by obtaining the external expression elements for each line as an image of a predetermined size, and constructing an attribute DB of each generated image (ie, planar image); In the step S40, the pixel extraction of the raw image having the ground coordinates close to the ground coordinates converted for each pixel of the geometrically corrected image is performed using an Affine transform, and the step S50 is obtained by cutting the geometrically corrected strip image. The high resolution linear digital multiband image, which is connected to ground control point surveying and GPS / INS, includes a step of cutting the upper and lower ends of each of the cut images generated by the geometric correction to form a rectangular cut image. In the method of rearranging the planar image to build a three-dimensional land and spatial information, the step S10 is the line sensor aviation digital The terrestrial processing system acquires the raw image and the photographing information from the Mera equipment in real time by mobile communication method, laser optical communication method and FM wireless communication method, and removes radio transmission error by performing arithmetic average operation on the data of the obtained signal. The line sensor aviation digital camera equipment includes a camera unit installed at a lower side of the plane and outputting a signal of a raw image photographed by visible light and near infrared rays, respectively, and a photographing information signal of the raw image as digital signals; An MS unit which accesses the camera unit and stores an output signal in a designated area; An air control unit connected to the camera unit and an MS unit and outputting control signals for operating and monitoring each function unit of the line sensor aviation digital camera equipment; And an aviation communication unit connected to the aviation control unit and the MMS unit and bidirectionally communicating by the control signal in an optical communication method using a mobile communication method and a laser light signal and an FM communication method using an FM signal. The air communication unit wirelessly connects to the ground processing system in a mobile communication manner, and transmits a signal stored in the MS unit by a control signal of the air control unit, and a control command and operational data transmitted by the ground processing system. A first air radio unit for receiving a signal; A second air radio unit wirelessly connecting the terrestrial processing system in an optical communication manner and transmitting a signal stored in the MMS unit by a control signal of the air control unit; A third aviation radio unit wirelessly connecting the terrestrial processing system through an FM communication scheme and transmitting a signal stored in the MS unit by a control signal of the air controller; And a wired communication unit for wired connection with the ground processing system, transmitting a signal stored in the MS unit according to a control signal of the air control unit, and receiving a control command and an operation data signal transmitted by the ground processing system. The ground processing system includes a terrestrial communication unit connected to the line sensor aviation digital camera device and bidirectionally communicating with an optical communication method using a mobile communication method and a laser light signal and an FM communication method using an FM signal; Connecting to the terrestrial communication unit, detecting and correcting transmission errors of signals transmitted and received in the mobile communication method, the optical communication method, and the FM communication method, respectively, by using a parity check bit method, and calculating and outputting the modified signals in an arithmetic average method. Average calculation unit; A ground control unit connected to the average computing unit and the ground communication unit and outputting control signals for operating and monitoring each function unit of the ground processing system; And a terrestrial processing server connected to the average computing unit and inputting the raw image signal and the photographing information according to a control signal of the ground control unit and storing the raw image signal in the allocated area. . ≪ / RTI >

상기와 같은 구성의 본 발명은 라인센서 항공디지털카메라로 촬영한 영상과 영상 촬영정보를 가지고 면형방식의 단위영상과 각 단위영상에 대한 속성DB를 구하여 고품질의 항공영상 DB를 구축 제공하므로 국토공간영상정보에 유용하게 활용하고 항공영상 DB의 구축이 신속하며 편리하게 진행되는 장점이 있다. According to the present invention having the above-described configuration, it is possible to obtain a high quality aerial image DB by providing a plane type unit image and a property DB for each unit image using the image captured by the line sensor aerial digital camera and image photographing information. It is useful for information and construction of aerial image DB is quick and convenient.

그리고 상기와 같은 구성의 본 발명은 비행기에 설치된 라인센서 항공 디지털 카메라 장비에서 촬영한 원시영상 정보와 해당되는 촬영정보의 신호 등을 지상 처리 시스템에 실시간 전송하는 장점이 있다. In addition, the present invention having the above configuration has the advantage of real-time transmission of the raw image information and the signal of the corresponding shooting information taken by the line sensor aerial digital camera equipment installed in the plane.

또한, 상기와 같은 구성의 본 발명은 다수의 통신경로를 구비하여 일부의 통신경로에 장애가 발생하는 경우에도 신호를 양방향으로 전송할 수 있는 장점이 있다. In addition, the present invention having the configuration as described above has the advantage that the signal can be transmitted in both directions even when a failure occurs in some communication paths having a plurality of communication paths.

한편, 상기와 같은 구성의 본 발명은 다수의 통신경로로 동일한 데이터 신호를 송신하고 수신측에서 평균처리하므로 데이터의 전송오류를 제거하는 장점이 있다.
On the other hand, the present invention of the above configuration has the advantage of eliminating the transmission error of data because the same data signal is transmitted over a plurality of communication paths and averaged at the receiving side.

도 1 은 본 발명에 따른 라인센서 항공디지털카메라 영상을 국토공간영상정보에 활용하기 위한 단위영상 생성 방법의 절차 흐름도,
도 2 는 원시 영상의 각 라인별 외부표정요소를 획득하는 방법의 개요도,
도 3a,b 는 원시 영상을 기하보정 영상으로 변환한 일례도,
도 4a 내지 4d 는 기하보정 영상의 각 라인별 외부표정요소를 획득하는 방법을 설명하기 위한 도면,
도 5 는 본 발명의 일 실시 예에 의한 라인센서 항공 디지털 카메라 장비의 기능 구성도,
그리고
도 6 은 본 발명의 일 실시 예에 의한 지상 처리 시스템의 기능 구성도 이다.
1 is a flow chart of a method for generating a unit image for utilizing a line sensor aerial digital camera image in the national spatial spatial image information according to the present invention;
2 is a schematic diagram of a method for acquiring an external expression element for each line of a raw image;
3A and 3B illustrate an example of converting a raw image into a geometrically corrected image.
4A to 4D are diagrams for explaining a method of acquiring an external expression element for each line of a geometrically corrected image;
5 is a functional configuration diagram of a line sensor aviation digital camera equipment according to an embodiment of the present invention,
And
6 is a functional configuration diagram of a ground treatment system according to an embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에서 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경물, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. As the inventive concept allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all transformations, equivalents, and substitutes included in the spirit and scope of the present invention. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. In addition, it is to be understood that all modifications, equivalents, and substitutes included in the spirit and scope of the present invention are included.

본 발명은 선 등록특허 제10-0930643호를 그대로 이용한다. 때문에, 이하 설명되는 장치와 방법 구성상 특징들은 모두 선 등록특허 제10-0930643호에 기재된 사항들이다. The present invention uses the prior patent No. 10-0930643 as it is. Therefore, the features of the apparatus and method configuration described below are all those described in the prior patent No. 10-0930643.

다만, 본 발명은 상기 선 등록특허 제10-0930643호에 개시된 구성들 중 원시영상 신호와 해당 촬영정보 신호를 실시간으로 송신하며, 예비 통신 경로를 구성하여 일부 기능부에 장애가 발생하는 경우에도 정상적인 통신이 진행되고, 다수의 통신경로를 구비하여 동일한 데이터 신호를 동시에 전송하며 수신측에서 평균처리하여 전송오류를 제거하도록 구성한 부분이 가장 핵심적인 구성상 특징을 이룬다. However, the present invention transmits the raw image signal and the corresponding photographing information signal in real time among the components disclosed in the above-mentioned Patent Registration No. 10-0930643, and configures a preliminary communication path, even in the case of failure of some functional units. In this process, a plurality of communication paths transmit the same data signal at the same time, and the part configured to remove transmission errors by averaging at the receiving end forms the most essential structural feature.

따라서 이하 설명되는 구성의 특징은 상기 등록특허 제10-0930643호의 내용을 그대로 인용하기로 하며, 후단부에서 본 발명의 주된 특징과 관련된 구성에 대하여 구체적으로 설명하기로 한다. Therefore, the features of the configuration described below will be referred to the contents of the Patent No. 10-0930643 as it is, and will be described in detail with respect to the configuration associated with the main features of the present invention at the rear end.

도 1 은 본 발명에 따른 라인센서 항공디지털카메라 영상을 국토공간영상정보에 활용하기 위한 단위영상 생성 방법의 절차 흐름도로서, 도면에서 보는 바와 같이 원시 영상과 촬영정보를 획득하는 단계(S10)와, 원시영상의 각 라인별 외부표정요소를 획득하는 단계(S20)와, 기하보정 영상을 획득하는 단계(S30)와, 기하보정된 영상의 각 라인별 외부표정요소를 획득하는 단계(S40)와, 기하보정된 스트립 영상을 규격단위로 절취하여 면형방식영상(즉, 단위영상)을 생성하고, 각 면형방식영상에 대한 속성DB를 구축하는 단계(S50)를 포함하여 이루어진다. 1 is a flowchart illustrating a method for generating a unit image for utilizing a line sensor aerial digital camera image according to the present invention in the national spatial spatial image information, as shown in the drawing, acquiring a raw image and photographing information (S10); Acquiring an external expression element for each line of the original image (S20), acquiring a geometric correction image (S30), acquiring an external expression element for each line of the geometrically corrected image (S40), A geometrically corrected strip image is cut out in standard units to generate a planar image (that is, a unit image), and a property DB for each planar image is constructed (S50).

원시 영상과 촬영정보의 획득(S10)은 비행기에 탑재된 대용량 메모리 시스템(MMS)으로부터 지상 처리 시스템이 다운로드 받아 획득한다. Acquisition of the raw image and the photographing information (S10) is obtained by downloading the ground processing system from the mass memory system (MMS) mounted on the plane.

상기 MMS는 항공기에 탑재된 라인센서 항공디지털 카메라 장비가 촬영하는 영상과, 촬영한 영상에 대한 촬영정보가 저장된다. 참고로, 라인센서 항공디지털 카메라 장비로서 디지털 센서의 대표적인 것이 모델명 ADS40의 장치이다. The MMS stores an image photographed by a line sensor aviation digital camera device mounted on an aircraft, and photographing information about the photographed image. For reference, a representative of the digital sensor as a line sensor aviation digital camera equipment is a device of model name ADS40.

상기 지상 처리 시스템이 MMS로부터 데이터를 다운로드 받게 되면 상기 ADS40 이 촬영한 원시 영상과, 원시 영상에 대한 촬영정보로서 메타데이터와 위치데이터를 얻게 된다. When the terrestrial processing system downloads data from the MMS, the ADS40 obtains the raw image photographed by the ADS40 and metadata and position data as photographing information about the raw image.

메타데이터는 촬영 프로젝트 정보(예; 촬영고도, 좌표계, 촬영계획노선도), 촬영 스트립 정보(예; 촬영된 스트립영상의 밴드별 촬영각, 촬영시간(Start, End), 용량), 촬영 영상 정보(예; Tiff영상, GPS/IMU 데이터)를 포함하고 있다. Metadata includes photographing project information (e.g. photographing altitude, coordinate system, photographing plan map), photographing strip information (e.g. photographing angle by band of photographed strip image, photographing time (Start, End), capacity), photographing image information ( Eg Tiff image, GPS / IMU data).

위치 데이터는 비행기에 탑재된 POS시스템(상기 라인센서 항공디지털 케메라 장비의 하나)에서 처리된 GPS/INS 데이터들이다. The position data is GPS / INS data processed in a POS system mounted on an airplane (one of the line sensor aviation digital camera equipment).

이때, 원시 영상에 대한 촬영 정보는 각 라인의 외부표정요소가 모두 들어있는 것이 아니라 일정한 간격으로 지정된 특정 라인의 자세와 위치 정보만 포함(기록)되어 있다. At this time, the photographing information of the raw image does not contain all of the external expression elements of each line, but includes only the posture and position information of a specific line designated at a predetermined interval (recorded).

따라서 S20단계에서 지상처리 과정을 통해 원시 영상의 각 라인별 외부표정요소를 구한 후, S30단계에서 기하보정 영상을 생성한다. Therefore, after obtaining the external expression elements for each line of the raw image through the ground processing in step S20, and generates a geometric correction image in step S30.

원시 영상의 각 라인별 외부표정요소 획득(S20)은 S10단계에서 획득한 원시영상과, 촬영 정보, 그리고 지상기준점 데이터를 이용하여 좌표계변환과 시간 동기화 작업을 통해 이루어진다. Acquiring an external expression element for each line of the raw image (S20) is performed through coordinate system transformation and time synchronization using the raw image obtained in step S10, photographing information, and ground reference point data.

한편, 외부표정요소는 영상 촬영 카메라의 위치 데이터와 촬영 시 회전 데이터로 구성된다. On the other hand, the external expression element is composed of the position data of the video camera and the rotation data when shooting.

이를 간단히 설명하면, 후처리 DGPS의 개념으로 지상기준점에 기준수신기(지상의 GPS)를 설치하고 미지점(항공기)에 원격수신기(항공기의 GPS)를 설치한 다음 기준수신기와 원격수신기는 각각 동시에 최소 4개 이상 GPS 인공위성의 GPS 신호를 수신하므로 관측한다. 상기의 관측에 의해 얻어진 관측자료 또는 좌표정보 또는 위치정보를 이용하여 기지점으로부터 미지점에 대한 벡터변위를 계산하므로 모든 미지점의 좌표를 기지점에 기준하여 계산할 수 있으며 이러한 방식을 상대측위법이라고 한다. To explain this briefly, with the concept of post-processing DGPS, a reference receiver (ground GPS) is installed at the ground reference point, a remote receiver (aircraft GPS) is installed at an unknown point (aircraft), and then the reference receiver and the remote receiver are simultaneously minimized. Observe the GPS signals of four or more GPS satellites. Since the vector displacement of the unknown point is calculated from the known point using the observation data obtained by the above observation or the coordinate information or the position information, the coordinates of all the unknown points can be calculated based on the known point, and this method is called relative positioning method.

도2는 원시영상의 각 라인별 외부표정요소(위치데이터; GPS/촬영 시 회전 데이터; IMU or INS)를 구하는 방법을 개략적으로 도시한 도면이다. FIG. 2 is a diagram schematically illustrating a method of obtaining an external expression element (position data; GPS / photography rotation data; IMU or INS) for each line of a raw image.

상기 ADS40에서는 각각의 라인별로 촬영지점의 위치와 자세정보 모두가 GPS와 IMU에 의해 획득되어지지 않는다. In the ADS40, neither the position of the photographing point nor the posture information of each line is acquired by the GPS and the IMU.

첨부된 도 2 에서 확인되는 바와 같이 GPS/IMU에서는 일정 간격 단위로 위치정보와 자세(촬영시 회전) 정보를 획득하게 되며, 이러한 정보를 표정요소라고 할 수 있다. As shown in FIG. 2, the GPS / IMU acquires location information and posture (rotation when photographing) at predetermined intervals, and this information may be referred to as an expression element.

즉, 이와 같이 획득된 정보를 표정요소의 위치 결정값(Orientation fixes)이라고 하는데 일정 단위 간격의 라인에서만 외부표정요소를 얻을 수 있게 된다. That is, the information thus obtained is called an orientation fix of the facial expression element, and the external expression element can be obtained only in a line having a predetermined unit interval.

이것은 실제 비행기가 날아가면서 촬영하는 각 라인별 스트립 영상(이미지)의 실제 외부표정요소와는 상당히 많은 차이를 갖고 있게 된다. This is quite different from the actual external expression of the strip image (image) of each line taken by the plane.

따라서 일정간격 마다 획득된 외부표정요소를 이용하여 각 라인별 외부표정요소를 구하게 된다. Therefore, the external expression elements for each line are obtained by using the external expression elements obtained at predetermined intervals.

첨부된 도 2 에서 보는 바와 같이 붉은색라인(가는 실선)은 원시 영상이 갖는 촬영정보로서 일정 간격의 라인에 대한 외부표정요소(위치 결정값(Orientation fixes))를 연결한 선이고, 녹색라인(점선)은 지상기준점 데이터와 항공기에 탑재된 GPS/IMU의 데이터를 이용하여 후처리 DGPS의 개념을 통해 계산된 외부표정요소를 나타낸 것이다. 그리고 후처리 DGPS의 개념을 통해 획득한 외부표정요소를 이용하여 원시 영상의 외부표정요소를 라인별로 보정(보간)한 것이 도2의 아래 도면이다. As shown in FIG. 2, a red line (thin solid line) is photographing information of a raw image, which is a line connecting an external expression element (orientation fixes) to a line of a predetermined interval, and a green line ( The dashed line) shows the external expression factor calculated using the concept of post-processing DGPS using the ground control point data and the GPS / IMU data on the aircraft. 2 is a diagram illustrating correction (interpolation) of the external expression elements of the raw image by line using the external expression elements acquired through the concept of post-processing DGPS.

상기 S30단계에서는 S20단계에서 획득한 각 라인별 외부표정요소와, S10단계에서 획득한 촬영정보 중 내부표정요소(카메라 초점거리, CCD의 X, Y방향 보정값)와 메타데이터를 일반적으로 알 수 있는 공선조건식에 대입하여 원시 영상의 기하왜곡을 보정하여 기하보정 영상을 생성한다. In the step S30, the external expression elements for each line acquired in the step S20, the internal expression elements (camera focal length, the CCD's X and Y direction correction values) and the metadata among the photographing information acquired in the step S10 are generally known. The geometric distortion of the raw image is corrected by substituting the collinear condition equation.

여기서, 공선조건식은 영상의 픽셀과 실제 지상좌표와의 관계를 나타내는 수식으로 영상분야에서는 일반적이고 널리 알려져 있는 수식이므로 이에 대한 더 이상의 설명은 생략한다. Here, the collinearity conditional expression is a mathematical expression representing the relationship between the pixel of the image and the actual ground coordinates, and thus, further description thereof will be omitted.

첨부된 도 3a 는 원시 영상(Level 0)과 기하학적 왜곡을 제거하는 보정으로 변환된 기하보정 영상(Level 1)의 일례를 도시한 것이다. 두 영상 사이에 있는 그래프는 각 라인에 대한 회전요소를 보여주는 그래프이다. The attached FIG. 3A shows an example of a geometric image (Level 1) converted to a raw image (Level 0) and a correction to remove geometric distortion. The graph between the two images shows the rotation factor for each line.

Roll 방향은 X 축을 기준으로 회전, Pitch 방향은 Y 축을 기준으로 회전, Yaw 방향은 Z 축을 기준으로 회전한 정도를 나타낸다. The roll direction shows the rotation about the X axis, the pitch direction the rotation about the Y axis, and the Yaw direction shows the rotation about the Z axis.

Level 1 영상(기하보정영상)은 이러한 회전요소와 자세요소를 모두 고려하여 원시영상에서 기하학적 왜곡을 모두 제거해 준 영상이다. The Level 1 image (geometrically corrected image) is an image that removes all geometric distortions from the original image by considering both the rotational and posture elements.

따라서 Level 1 영상은 라인별 영상이 촬영된 상태대로 일정하게 배열되어 있는 것이 아니라 실제 비행기가 움직이는 형태를 분석하고, 분석된 움직임에 의한 라인별 영상의 왜곡을 보상하여 재배열하고 있다. Therefore, the level 1 image is not arranged in a line-by-line image as it is captured, but is analyzed and rearranged by compensating the distortion of the line-by-line image due to the analyzed movement.

첨부된 도 3b 는 원시영상(Level 0 영상)과 기하보정영상(Level 1영상)의 특정 부분을 각각 확대한 영상이다. 3B is an enlarged image of a specific portion of a raw image (Level 0 image) and a geometric correction image (Level 1 image), respectively.

상기 S40 단계에서는 원시 영상이 기하보정 영상으로 변환됨에 따라 영상의 촬영정보(특히, 외부표정요소, 메타데이터)를 보정하는 것이다. In the step S40, as the raw image is converted into the geometrically corrected image, the photographing information (especially, external expression elements and metadata) of the image is corrected.

상기 S20 단계를 거처 원시 영상의 각 라인별 외부표정요소를 획득하였지만, 기하왜곡 보정을 통해 획득한 기하보정 영상은 원시 영상의 픽셀(Pixel)들을 재배열하여 기하변위로 보간이 이루어진 영상이기 때문에 각 라인별 외부표정요소를 직접 획득할 수 없다. The external expression elements for each line of the raw image were obtained through the step S20, but the geometrically corrected image obtained through the geometric distortion correction is an image that is interpolated by geometric displacement by rearranging pixels of the raw image. External expression elements per line cannot be obtained directly.

따라서 기하 보정된 영상을 절취할 경우, 영상의 중심에 대한 정보(주점 좌표정보)를 획득하여 해당 orientation 정보(외부표정요소)를 근사적으로 연산하여 획득하여야 한다. Therefore, when the geometrically corrected image is cut out, information about the center of the image (periodic coordinate information) is obtained and the corresponding orientation information (external expression element) is approximately calculated.

ADS40 영상의 중심에 대한 좌표는 앵커(Anchor) 포인트 대한 상대 좌표값으로 제공되며, ADS40 영상은 원시 영상과 기하보정 영상의 주점좌표와 기하보정 영상의 기하보정시에 사용된 매개변수는 기본 제공되고 있다. The coordinates of the center of the ADS40 image are provided as the relative coordinate values for the anchor point.The ADS40 image is basically provided with the parameters used for the geometric coordinates of the principal and geometrically corrected images. have.

원시 영상을 기하보정 영상으로 변환함에 따른 촬영정보 보정(S40)을 위해, 우선 원시 영상과 기하보정영상의 좌표 즉, 지상좌표를 계산(영상을 구성하는 각 픽셀의 실제 지상좌표를 계산)하고, 아래에서 상세히 다시 설명하는 Affine 변환을 통해 기하보정영상의 각 픽셀에 대한 지상좌표와 가장 근접한 지상좌표를 갖는 원시 영상의 픽셀을 찾아 기하보정 영상의 각 라인별 외부표정요소를 획득한다.
In order to correct shooting information by converting the raw image into the geometrically corrected image (S40), first, the coordinates of the raw image and the geometrically corrected image, that is, the ground coordinates are calculated (the actual ground coordinates of each pixel constituting the image), Through the Affine transformation, which will be described in detail below, pixels of the raw image having the ground coordinates closest to the ground coordinates of each pixel of the geometrically corrected image are searched to obtain external coordinate elements of each line of the geometrically corrected image.

(1) 원시 영상(Level0) 좌표로부터 지상(Ground Space) 좌표 계산. (1) Calculation of Ground Space coordinates from the raw image (Level0) coordinates.

Ground Space 는 지구의 한 표면을 중심으로 하는 좌표계다. 보통 Topocentric 좌표계(VUW) 또는 North, East, Up(Down) 의 약자인 NEU(NED) 좌표계라고 부르기도 한다. Ground Space is a coordinate system centered on one surface of the earth. It is also commonly referred to as Topocentric Coordinate System (VUW) or NEU (NED) Coordinate System, which stands for North, East, Up (Down).

도4a는 Ground Space좌표와 Geocentric 좌표의 관계를 도시한 것이고, 이들의 변환 공식은 다음과 같다.4A shows the relationship between the Ground Space coordinates and the Geocentric coordinates, and their conversion formulas are as follows.

Figure 112013094159691-pat00001
Figure 112013094159691-pat00001

Figure 112013094159691-pat00002
Figure 112013094159691-pat00002

ADS40 시스템의 원시 영상(Level0)과 기하보정 영상(Level1)은 영상 파일과 함께 보조 파일(Support File)이 함께 제공되는데 이 파일에는 Ground Space에서 사용하는 지구의 표면 중심 좌표를 나타내는 두 개의 값이 포함되어 있다. The raw image (Level0) and geometrically corrected image (Level1) of the ADS40 system are provided with a support file along with the image file. This file contains two values representing the coordinates of the earth's surface center used in Ground Space. have.

Geocentric 좌표값(지구 중심 좌표, XYZ)을 나타내는 LOCAL_ORIGN 값과 측지좌표인 위도와 경도를 나타내는 ANCHOR_ LATITUDE 와 ANCHOR_LONGITUDE 값(도4a에서 f 와 )이다. Ground Space 좌표는 이 값을 이용하여 Geocentric 좌표로 상호 변환할 수 있다. LOCAL_ORIGN values representing geocentric coordinates (earth center coordinates, XYZ) and ANCHOR_ LATITUDE and ANCHOR_LONGITUDE values (f and in FIG. 4A) representing latitude and longitude, which are geodetic coordinates. Ground space coordinates can be converted to geocentric coordinates using this value.

원시 영상의 좌표에 대한 보정값들은 X, Y 축에 대해 카메라 Calibration 파일(내부표정요소를 포함)과 촬영 당시의 카메라 위치 및 각도와 시간을 갖고 있는 외부표정파일(외부표정요소를 포함)를 이용하여 구할 수 있다. 영상의 X 값을 카메라 Calibration 파일의 배열 인덱스로, 영상의 Y 값을 외부표정파일의 배열 인덱스로 직접 사용할 수 있다. 원시 영상의 좌표를 Ground Space 좌표로 변환하기 위해서는 아래의 과정을 통해 변환한다. The correction values for the coordinates of the raw image are taken from the camera calibration file (including the internal expression element) for the X and Y axes, and the external expression file (including the external expression element) with the camera position, angle and time at the time of shooting. Can be obtained by The X value of an image can be used as an array index of a camera calibration file and the Y value of an image can be directly used as an array index of an external expression file. To convert the coordinates of the raw image into the Ground Space coordinates, perform the following process.

카메라 Calibration 파일은 카메라의 라인 센서의 값에 대한 물리적인 오차(Bias)에 대한 정보를 갖고있다. 값을 계산하기 위해서는 이 물리적인 오차값을 보정해줘야 한다. The camera calibration file contains information about the physical bias of the camera's line sensor values. In order to calculate the value, this physical error must be corrected.

먼저, 카메라 센서의 초점면의 좌표로 영상좌표값을 변환한다.First, the image coordinate value is converted to the coordinate of the focal plane of the camera sensor.

Figure 112013094159691-pat00003
Figure 112013094159691-pat00003

Fx : 카메라 센서의 초점면상의 X 좌표 Fx: X coordinate on the focal plane of the camera sensor

Fy : 카메라 센서의 초점면상의 Y 좌표Fy: Y coordinate on the focal plane of the camera sensor

xcal[] : 원영상의 카메라 Calibration 파일의 배열중 X 값xcal []: X value of array of camera calibration file of original image

ycal[] : 원영상의 카메라 Calibration 파일의 배열중 Y 값ycal []: Y value of array of camera calibration file of original image

pos : 영상 좌표의 X 값 (카메라 Calibration의 인덱스 번호와 일치함), 12000개의 센서 픽셀을 갖고 있으므로, 이 값은 0 ~ 11999 값을 가진다. pos: The X value of the image coordinates (corresponds to the index number of the camera calibration), and has 12000 sensor pixels, so it has a value between 0 and 11999.

d : 실제 위치와 픽셀 위치의 거리를 나타낸다. 이 값은 좌표계산시 발생하는 부동소수(float 또는 double)값에 대한 보간(Interpolation)을 위해 사용한다. (즉, 픽셀 값이 1.5인 경우, 0.5 값을 1 과 2 배열 값 사이에서 선형보간으로 계산한다.) d: represents the distance between the actual position and the pixel position. This value is used to interpolate the floating point (float or double) values that occur during coordinate calculation. (I.e. if the pixel value is 1.5, the 0.5 value is calculated by linear interpolation between the 1 and 2 array values.)

두 번째로, 계산된 초점면상의 좌표와 Orientation Data(외부표정파일)를 이용하여, Ground Space좌표를 다음과 같이 계산할 수 있다. Second, using the coordinates on the focal plane and the Orientation Data (external expression file), the Ground Space coordinates can be calculated as follows.

Figure 112013094159691-pat00004
Figure 112013094159691-pat00004

R은 영상을 취득할 당시의 카메라 자세 정보인 R()R(f)R()로 생성된 회전 행렬을 나타내며, 이 값은 원시 영상의 Y값(Scan Line)을 이용하여 Orientation Data 파일로부터 가져올 수 있고, C는 ADS40 카메라의 초점 길이(상수)값 이다. R represents the rotation matrix created by R () R (f) R (), which is the camera pose information at the time of image acquisition, and the value is obtained from the Orientation Data file using the Y value (Scan Line) of the raw image. Where C is the focal length (constant) value of the ADS40 camera.

회전 행렬의 모습은 다음과 같다.The rotation matrix looks like this:

Figure 112013094159691-pat00005

Figure 112013094159691-pat00005

(2) 기하보정 영상(Level1) 좌표로부터 Ground Space좌표 계산.(2) Calculation of Ground Space coordinates from geometrically corrected image (Level1) coordinates.

Figure 112013094159691-pat00006
Figure 112013094159691-pat00006

Figure 112013094159691-pat00007
Figure 112013094159691-pat00007

m=기하보정시 사용한 Scale값 xoffset=기하보정시 사용한 x 의 옵셋값m = Scale value used for geometry correction xoffset = Offset value of x used for geometry correction

yoffset=기하보정시 사용한 y의 옵셋값 a=기하보정시 사용한 Rotation값yoffset = Offset value of y used for geometry correction a = Rotation value used for geometry correction

Height=기하보정시 사용한 높이 LS=기하보정된 영상의 전체 Line값
Height = Height used for geometric correction LS = Total line value of geometrically corrected image

위의 식을 이용하여 기하보정 영상의 좌표를 Ground Space상의 좌표로 계산할 수 있다. 그러나 기하보정된 영상의 픽셀에 해당하는 외부 표정요소(촬영당시의 카메라 자세정보 및 시간 등의 기타정보)를 알 수 없다. 이 값을 취득하기 위해서는 원시영상(원영상)(Level0)의 Orientation데이터에 접근해야 한다. 여기서는 원영상(원시영상)과 기하보정된 영상의 공통 요소인 Ground Space 좌표를 매개로 하여 외부 표정요소에 접근하는 방법을 사용한다. Using the above equation, the coordinates of the geometrically corrected image can be calculated as the coordinates on the ground space. However, it is not possible to know the external facial expression elements (other information such as camera posture information and time at the time of shooting) corresponding to the pixels of the geometrically corrected image. To obtain this value, the Orientation data of the raw image (original image) (Level0) must be accessed. In this case, a method of approaching an external facial expression element is performed through the Ground Space coordinates, which are common elements between the original image and the geometrically corrected image.

즉, 기하보정된 영상의 임의의 픽셀 위치에 해당하는 외부표정요소는 기하보정 영상의 Ground Space를 계산 한 후, 원시 영상의 픽셀중 기하보정 영상의 Ground Space 값과 가장 가까운(근접한) 값이 가리키는 외부표정 요소로 간주할 수 있다. That is, after calculating the ground space of the geometrically corrected image, the outer expression element corresponding to the arbitrary pixel position of the geometrically corrected image is pointed to by the value closest to the ground space value of the geometrically corrected image among the pixels of the raw image. Can be considered as an external expression element.

원시 영상(Level0)의 Y값(Line)은 사진(영상)을 취득할 때 카메라 Scan Line의 수와 정확하게 일치하며, 기하보정 영상(Level1)의 이미지좌표를 Ground Space 좌표로 변환 후, 원시 영상(Level0)의 Ground Space 좌표에 근접한 영상좌표를 얻을 수 있다면, 외부 표정(Orientation)정보를 획득할 수 있다. The Y value (Line) of the raw image (Level0) is exactly the same as the number of camera scan lines when acquiring a photo (image) .After converting the image coordinate of the geometrically corrected image (Level1) to Ground Space coordinates, the raw image ( If the image coordinate close to the Ground Space coordinate of Level 0) can be obtained, external orientation information can be obtained.

여기에서는 원시 영상(Level0)과 기하보정된 영상(Level1)이 Affine변환된 영상과 유사한 속성을 갖는 점을 이용하여 계산한다.
In this case, the raw image Level0 and the geometrically corrected image Level1 are calculated using points having similar properties to those of the Affine transformed image.

(3) Affine 변환 (3) Affine conversion

Affine 변환은 X, Y 축에 대해 확대 및 축소후 좌표가 이동된 영상 변환을 말하며, 도4b에 이에 대한 일례를 도시하였다. The Affine transformation refers to an image transformation in which coordinates are moved after being enlarged and reduced about the X and Y axes, and an example thereof is illustrated in FIG. 4B.

Affine 변환의 이러한 속성은 아래와 같은 선형 방정식으로 표현할 수 있다.This property of the Affine transform can be expressed by the linear equation

A,B 및 D,E 는 X, Y 에 대한 확대비에 대한 속성을 갖는상수이고, C 와 F 는 이동에 대한 속성을 갖는 상수이다.A, B, and D, E are constants having properties for magnification ratios for X and Y, and C and F are constants having properties for movement.

X' = AX + BY + CX '= AX + BY + C

Y' = DX + EY + FY '= DX + EY + F

즉, Affine변환의 계수(Coefficient) A,B,C,D,E,F 를 찾을 수 있다면, 임의점 X, Y (여기서는 이 점을 Ground 공간에서의 주점 좌표로 봄)에 대해 영상 좌표 X', Y' 의 근사값을 구할 수 있다. 6개의 미지의 값을 찾기 위해 3개의 Ground Space 좌표를 사용하면, 원영상(Level0)에서의 Affine Parameters를 구할 수 있다.That is, if the coefficients A, B, C, D, E, and F of the Affine transform can be found, then the image coordinates X 'with respect to arbitrary points X, Y (here, these points are regarded as the coordinates of the principal point in Ground space). , Y 'can be approximated. Using three Ground Space coordinates to find six unknown values, we can find the Affine Parameters in the original image (Level0).

다음과 같이 행렬 연산을 사용하면 쉽게 얻을 수 있다.You can easily get it by using matrix operations like this:

Figure 112013094159691-pat00008
Figure 112013094159691-pat00008

P는 원시 영상(Level0)의 영상 좌표값을 나타내며, G는 원영상의 Ground 좌표값을 나타낸다. P represents the image coordinate value of the raw image (Level0), G represents the ground coordinate value of the original image.

원시영상(원영상)의 Ground좌표값에 대한 근사값 계산은 아래와 같은 순서로 진행한다.The approximate calculation of the ground coordinates of the raw image is performed in the following order.

먼저 얻고자 하는 기하보정 영상(Level1)의 좌표로부터 Ground Space 좌표를 계산한다. First, the ground space coordinates are calculated from the coordinates of the geometrical correction image Level1 to be obtained.

계산된 Ground Space 좌표를 이용하여, 원시 영상(Level0)에서 검색할 Window를 계산한다. 여기서, 윈도우(Window)는 검색 대상의 범위를 뜻한다. Using the calculated Ground Space coordinates, calculate the Window to search in the raw image (Level0). Here, Window means a range of a search target.

우선, 원시 영상(Level0)에서 Ground Space 좌표를 알 수 없으므로 먼저, 전체 이미지의 범위에서 도4c와 같은 세 꼭지점의 영상 좌표를 선택 한다. 6개의 Affine Parameter 값을 계산하기 위해 세 개의 선형방정식이 필요하기 때문에 세 개의 점을 선택한다. First, since the Ground Space coordinates are not known in the raw image (Level0), first, image coordinates of three vertices as shown in FIG. 4C are selected from the entire image range. Since three linear equations are needed to calculate the six Affine parameter values, three points are selected.

세 개의 점을 삼각형으로 하는 윈도우에 대하여, 세 꼭지점의 영상 좌표에 해당하는 Ground Space 좌표를 계산한다. (예, 원영상의 크기가 12,000 x 5000 인 경우, Z1 = Z2 = Z3 이다.)For the triangular window, calculate the Ground Space coordinates corresponding to the image coordinates of the three vertices. (E.g. when the original image is 12,000 x 5000, Z1 = Z2 = Z3)

L0_1(0, 0) -> G0_1(X1, Y1, Z1)L0_1 (0, 0)-> G0_1 (X1, Y1, Z1)

L0_2(12,000, 0) -> G0_2(X2, Y2, Z2)L0_2 (12,000, 0)-> G0_2 (X2, Y2, Z2)

L0_3(6,000, 5,000) -> G0_3(X3, Y3, Z3)L0_3 (6,000, 5,000)-> G0_3 (X3, Y3, Z3)

다음으로 원시 영상(Level0)에서 계산된 값을 사용하여 Affine계수를 구한다. Next, the Affine coefficient is obtained using the values calculated in the raw image (Level0).

Figure 112013094159691-pat00009
Figure 112013094159691-pat00009

다음으로 Affine계수를 이용하여 얻고자 하는 기하보정된 영상(Level1)의 픽셀 좌표의 Ground Space값으로 원시영상(Level0)의 픽셀 좌표를 계산한다.Next, the pixel coordinate of the raw image (Level0) is calculated using the ground space value of the pixel coordinate of the geometrically corrected image (Level1) to be obtained using the Affine coefficient.

(원시영상의 Ground Space 좌표가 -100, 50, 20 이라고 하면,)(If the Ground Space coordinate of the raw image is -100, 50, 20,)

X' = A * (-100) + B * 50 + CX '= A * (-100) + B * 50 + C

Y' = D * (-100) + E * 50 + F
Y '= D * (-100) + E * 50 + F

위에서 계산된 원영상의 좌표가 X' = 100, Y' = 200 이라 하고, 검색 최소 윈도우의 크기를 250 x 500 으로 한다. 이 값은 Search 검색 속도에 따라 좀 더 큰 값이나 작은 값으로 설정할 수 있다. Y 값이 긴 영상이므로, 위와 같이 직사각형의 크기로 설정한다. The coordinates of the original image calculated above are X '= 100, Y' = 200, and the size of the search minimum window is 250 x 500. This value can be set to a larger or smaller value depending on the speed of the Search search. Since the Y value is long, set the size of the rectangle as above.

그리고 아래 과정을 반복하여 최소 윈도우 영역이 될 때까지 찾는다. Then repeat the process below to find the minimum window area.

새로운 L0_1 의 X 좌표 = X'(100) - 250 / 4 X coordinate of new L0_1 = X '(100)-250/4

새로운 L0_1 의 Y 좌표 = Y'(200) - 250 / 4 Y coordinate of new L0_1 = Y '(200)-250/4

새로운 L0_2 의 X 좌표 = X'(100) - 250 / 4 X coordinate of new L0_2 = X '(100)-250/4

새로운 L0_2 의 Y 좌표 = Y'(200) + 250 / 4 Y coordinate of new L0_2 = Y '(200) + 250/4

새로운 L0_3 의 X 좌표 = X'(100) + 250 / 4 X coordinate of new L0_3 = X '(100) + 250/4

새로운 L0_3 의 Y 좌표 = Y'(200) Y coordinate of new L0_3 = Y '(200)

여기서, 범위를 1/4씩 감소 및 증가하는 이유는 상세 검색 범위를 그 2배로 설정하기 위해서이다. Here, the reason for decreasing and increasing the range by 1/4 is to set the detailed search range to twice that.

새로운 검색 윈도우는 계산된 좌표값을 중심으로 하는 삼각형 모양을 한다. 이 점들에 대하여 다시 Ground Space 좌표를 계산하여, 위 과정을 L0_1 과 L0_2 점의 폭의 간격이 검색 윈도우의 폭 250 보다 작거나, L0_1 과 L0_3 점간의 높이의 간격이 검색 윈도우의 높이 500 보다 작을 때까지 반복 한다. The new search window has a triangular shape around the calculated coordinates. Calculate the Ground Space coordinates again for these points, and repeat the above procedure when the spacing between the points L0_1 and L0_2 is less than 250 in the search window, or the spacing between the points L0_1 and L0_3 is less than 500 in the search window. Repeat until.

가장 근접한 영상좌표를 계산한다.(빨간색, 도4d에서의 원형표시,이 구하고자 하는 좌표라고 할 때,) 도4d를 참조하여 설명한다. The closest image coordinates are calculated (red, circular display in FIG. 4D, where the coordinates to be obtained are described).

위와 같이 검색 윈도우(도면에서 파란색 영역)를 찾으면, 상세 검색 범위를 그 2배 값으로 설정한다.(도면에서 녹색 범위) If you find the search window (blue area in the drawing) as above, set the detail search range to that value (green range in the drawing).

원영상의 상세비교 시작점 (Ps(x0,y0))부터 Y 값을 1 씩 증가하면서 Ground Space 좌표를 계산한다. The Ground Space coordinates are calculated by increasing the Y value by 1 from the starting point of the detailed comparison (Ps (x0, y0)) of the original image.

계산된 Ground Space 와 구하고자 하는 기하보정된 영상의 Ground Space 좌표간의 거리를 최소제곱법으로 계산한다. The distance between the calculated Ground Space and the Ground Space coordinates of the geometrically corrected image to be calculated is calculated by the least square method.

이렇게 상세 비교 종료점까지 계산하여 가장 가까운 근사점을 찾는다. The detailed comparison end point is then calculated to find the nearest approximation point.

계산된 원시 영상의 좌표로부터 외부표정 요소(Orientation)정보를 획득하여 기하보정 영상의 해당 픽셀에 부여한다. Orientation information is obtained from the calculated coordinates of the raw image and given to the corresponding pixel of the geometrically corrected image.

이상의 과정을 통해 원시 영상을 기하보정 영상으로 변환하고, 기하보정에 따라 촬영정보를 보정한 후에는 기하보정된 스트립 영상을 일정 크기의 영상으로 절취하여 단위영상을 생성하고, 각 단위영상에 대한 속성DB를 구축한다.(S50) Through the above process, the raw image is converted into the geometrically corrected image, and after correcting the photographing information according to the geometrical correction, the geometrically corrected strip image is cut into a certain sized image to generate the unit image, and the property of each unit image Build a DB (S50)

기하보정된 영상을 절취하고자 할 때, 촬영된 여러 밴드에 대해서 동일한 위치를 절취해야하며 카메라 센서의 각도와 위치에 따른 특성으로 인해 위치 차가 발생하게 된다. 즉, 여러 밴드의 영상을 획득하기 위해 CCD센서들의 위치와 관측각을 달리하여 동시에 획득된 영상간에도 위치의 오차가 발생한다. When you want to cut the geometrically corrected image, you need to cut the same position for the various bands taken, and the position difference occurs due to the characteristics of the angle and position of the camera sensor. That is, in order to acquire images of several bands, the position error occurs between images acquired simultaneously by changing the positions and observation angles of the CCD sensors.

이러한 경우, 카메라 CCD센서의 위치와 각에 대해 알려진 값을 사용하여 서로 다른 센서로 촬영한 영상에 대하여도 동일 또는 근접하는 위치를 찾아낸다. In this case, the position and angle of the camera CCD sensor are used to find the same or close position with respect to the image photographed by the different sensors.

영상을 절취하는 방법은 하나의 Strip 영상에 대해 동일한 이미지의 개수, 동일한 이미지 길이, 정해진 파일의 크기에 따라 절취하는 방법 등이 있다. 필요한 용도에 맞도록 영상을 절취하는 방법을 선택하면 된다. The method of cutting out an image includes a method of cutting according to the same number of images, the same image length, and a predetermined file size for one strip image. You can choose the way to cut the image to suit your needs.

스트립 영상을 동일한 단위 길이(폭) 또는 파일의 크기로 절취하는 경우, 한 Strip 영상의 마지막 부분은 동일한 단위 길이를 갖지 못하는 경우가 발생하는데, 이를 해결하기 위한 방법으로 잔여 영역을 빈 영상으로 제작하거나, 잔여영역에 대해서 맨 끝에서부터 동일한 단위 길이의 크기를 갖도록 하여, 영상이 동일한 단위 길이(폭) 또는 파일의 크기를 유지할 수 있도록 한다. When the strip image is cut to the same unit length (width) or the file size, the last part of a strip image may not have the same unit length. In this case, the size of the same unit length from the end of the remaining area is provided so that the image can maintain the same unit length (width) or the size of the file.

정해진 파일의 크기에 따라 절취할 경우, 기준이 되는 영상에서 영역 범위를 해석하여 동일한 영역에 대해 서로 다른 센서 이미지 또는 다른 밴드로 촬영된 영상을 절취할 수 있어야 한다. When cutting according to the size of a predetermined file, it is necessary to analyze a range of regions in a reference image to cut out images captured by different sensor images or different bands for the same region.

다른 센서이미지의 영상 데이터와 동일한 위치 또는 영역을 절취하기 위해서는 각 이미지의 시작위치를 가지고 기준영상을 정한 다음 각 CCD센서 이미지의 기준영상과의 오프셋을 계산하여 오프셋을 건너뛴 위치부터 절취한다. 오프셋을 계산할 때에는 기준 이미지좌표의 한 점을 로컬좌표로 변환하고 해당 좌표의 다른 이미지 상의 이미지좌표를 계산하여 x좌표의 거리를 구한다. y좌표의 차이가 조금씩 있으나 절취방향(x축 방향)의 오프셋을 계산하므로 무시한다. In order to cut out the same position or area as the image data of other sensor images, the reference image is defined with the starting position of each image, and then the offset from the reference image of each CCD sensor image is calculated and the starting point is skipped. When calculating the offset, convert a point of the reference image coordinate to a local coordinate and calculate the distance of the x coordinate by calculating the image coordinate on the other image of the coordinate. Although there is a slight difference in y coordinate, it is ignored because it calculates the offset in the cutting direction (x-axis direction).

원시 영상은 동일한 폭을 갖는 영상(즉, 직사각형 형태의 영상)이지만, 기하적으로 왜곡되어 있다. 이 원시 영상의 기하왜곡을 보정한 기하보정 영상은 직사각형 형태의 영상이 아니라, 영상의 양 끝단(상하단 또는 좌우단)에서 굴곡이 발생한 영상이 된다. The raw image is an image having the same width (that is, a rectangular image) but is geometrically distorted. The geometrically corrected image correcting the geometric distortion of the raw image is not a rectangular image, but an image in which bending occurs at both ends (upper, lower, left and right) of the image.

이러한 영상은 사진측량에서 사용하는데 문제가 없으나, 전체 영상의 형태를 파악하는데 불편함이 발생 할 수 있다. 이러한 문제를 해결하기 위해 영상의 굴곡이 발생하는 양 끝단에 대해서 5~10%의 여분을 제거하여 영상의 전체 형태를 파악하는데 어려움이 없도록 직사각형 형태의 영상을 생성한다. This image is not a problem to use in the photogrammetry, but may cause inconvenience in grasping the shape of the entire image. In order to solve this problem, a rectangular image is generated so that there is no difficulty in grasping the overall shape of the image by removing 5 to 10% of the excess at both ends where the image is bent.

이와 같이 기하보정 스트립 영상을 절취하여 단위영상(즉, 면형방식영상)을 생성한 후에는, 각 단위영상에 대한 속성DB를 자동 구축한다. 속성DB에는 단위영상에 대한 촬영정보 이외에, 영상의 방위, 사업연도, 촬영지역 이름, GSD, 촬영일자, 코스사진번호, 사진번호, 자료구축기관, 책임부서, 카메라 장비의 특성, 필름의 종류 등을 포함하고, 사업연도와 촬영지역 이름은 절취설정 시 입력했던 사업지구코드와 촬영지역에서, GSD와 촬영일자는 원본 SUP파일에서 코스사진번호와 사진번호는 절취 시 생성된 절취정보에서 취득한다. After generating the unit image (ie, planar image) by cutting the geometric correction strip image, the attribute DB for each unit image is automatically constructed. In addition to the photographing information for the unit image, the attribute DB includes the image orientation, business year, region name, GSD, photographing date, course photo number, photograph number, data organization, responsible department, characteristics of camera equipment, film type, etc. The business year and shooting area name are taken from the business district code and the shooting area entered at the time of cut-off, and the GSD and shooting date are taken from the cut-out information generated at the time of cutting in the original SUP file.

이러한 과정을 거친 후에는 속성DB 정보를 XML 파일로 변환하고, 다시 표준압축포맷(NIX)으로 변환한 후에 별도의 DB에 로딩하여 작업을 완료한다. 이에 대한 구체적인 설명은 생략한다. After this process, the property DB information is converted into an XML file, converted into standard compression format (NIX), and loaded into a separate DB to complete the work. A detailed description thereof will be omitted.

본 발명의 지상기준점측량과 GPS/INS가 연계된 고해상 선형방식 디지털 다중 밴드 영상을 GIS와 수치지도와 3차원국토공간정보로 구축하기위해 면형방식영상으로 재배열하는 방법은 지상 처리 시스템(200)에 의하여 이루어지고, 지상 처리 시스템(200)은 비행기에 설치되는 라인센서 항공 디지털 카메라 장비(1000)와 유선 또는 무선으로 접속하여 상기 원시 영상과 상기 촬영 정보를 각각 제공받는다. The method for rearranging a high resolution linear digital multi-band image in which a ground control point survey and a GPS / INS is linked to a planar image to construct a GPS, a digital map, and three-dimensional land-spatial information is a ground processing system (200). The ground processing system 200 is connected to the line sensor aviation digital camera equipment 1000 installed in an airplane by wire or wirelessly to receive the raw image and the shooting information, respectively.

상기 라인센서 항공 디지털 카메라 장비(1000)는 카메라부(1100), 엠엠에스부(1200), 항공제어부(1300), 항공통신부(1400)를 포함하여 구성된다. The line sensor aviation digital camera equipment 1000 includes a camera unit 1100, an MS unit 1200, an aviation control unit 1300, and an aviation communication unit 1400.

카메라부(1100)는 가시광선으로 촬영하는 카메라 센서와 근거리적외선으로 촬영하는 카메라 센서를 각각 구비하고 비행기의 하부 일측에 설치된다. The camera unit 1100 includes a camera sensor photographed with visible light and a camera sensor photographed with near-infrared light, respectively, and is installed on one side of the lower part of the plane.

다른 일 실시 예로, 카메라부(1100)는 자외선 또는 레이저 또는 특정된 단색파장으로 촬영하는 해당 센서 또는 촬영 기능을 더 구비할 수 있고, 또 다른 일 실시 예로 가시광선, 근거리적외선, 자외선, 레이저, 특정된 단색 파장으로 촬영하는 장치가 각각으로 구분될 수 있으며 이러한 경우 각각의 카메라 장치는 해당되는 촬영 정보를 각각 출력할 수도 있다. In another embodiment, the camera unit 1100 may further include a corresponding sensor or a photographing function for photographing with ultraviolet light or laser or a specific monochromatic wavelength, and in another embodiment, visible light, near-infrared light, ultraviolet light, laser, The apparatus for photographing with the monochromatic wavelength may be classified into each, and in this case, each camera apparatus may output corresponding photographing information.

카메라부(1100)는 가시광선과 근거리적외선으로 각각 촬영된 원시 영상의 신호와 원시 영상 신호에 대한 촬영정보 신호를 생성하여 상호 연계된 상태의 디지털 신호로 각각 출력한다. 카메라부(1100)는 모델명 ADS40 와 동일 또는 유사한 기능의 장치가 사용될 수 있다. The camera unit 1100 generates a signal of the raw image photographed with visible light and near-infrared light and a photographing information signal for the raw image signal, respectively, and outputs the digital signal in the interconnected state. The camera unit 1100 may be a device having the same or similar function as the model name ADS40.

엠엠에스(MMS)부(1200)는 카메라부(1100)에 접속하고 출력되는 신호를 지정된 영역에 저장한다. 카메라부(1100)가 엠엠에스부(1200)에 출력하는 신호에는 가시광선으로 촬영한 원시영상 신호와 근거리적외선으로 촬영한 원시영상 신호와 각각의 촬영정보 신호가 포함되고 또한, 자외선, 레이저, 특정된 단색 파장 등으로 촬영한 원시영상 신호 및 해당 촬영정보 신호가 포함될 수 있다. The MMS unit 1200 connects to the camera unit 1100 and stores the output signal in a designated area. The signal output from the camera unit 1100 to the MS unit 1200 includes a raw video signal photographed with visible light, a raw video signal photographed with near-infrared light, and respective photographing information signals. And a raw image signal photographed at a monochromatic wavelength and the corresponding photographing information signal.

항공제어부(1300)는 카메라부(1100)와 엠엠에스부(1200)에 접속하는 동시에 라인센서 항공디지털 카메라 장비(1000)의 각 기능부에 접속하고, 접속된 각 기능부를 운용하며 감시하는 제어신호를 각각 출력한다. The air control unit 1300 is connected to the camera unit 1100 and the MS unit 1200, and at the same time connected to each functional unit of the line sensor aerial digital camera equipment 1000, the control signal for operating and monitoring each connected functional unit Output each of them.

항공제어부(1300)는 도면에 도시되지 않은 입력부를 통하여 입력된 명령 또는 저장된 프로그램에 의하여 운용되며 카메라부(1100)에 접속하여 원시영상 신호를 촬영하도록 제어하고 또한, 촬영하면서 해당 촬영정보 신호를 측정 또는 검출하여 원시영상 신호에 연계된 상태로 출력되도록 제어 감시한다. The aviation control unit 1300 is operated by a command or a stored program input through an input unit not shown in the drawing, and controls to capture a raw image signal by connecting to the camera unit 1100 and measures the corresponding shooting information signal while shooting. Alternatively, the control is monitored to output a state linked to the raw video signal.

항공제어부(1300)는 엠엠에스부(1200)를 제어하여 카메라부(1100)가 출력하는 원시영상 신호와 해당 촬영정보 신호를 각각 할당 또는 지정된 영역에 저장되도록 제어하고 또한, 엠엠에스부(1200)에 저장된 모든 신호를 항공통신부(1400)에 출력하도록 제어하며 감시한다. The air controller 1300 controls the MMS unit 1200 to control the raw image signal output from the camera unit 1100 and the corresponding photographing information signal to be stored in the assigned or designated area, respectively, and the MMS unit 1200. Control and monitor all signals stored in the aviation communication unit 1400 to be output.

한편, 항공제어부(1300)는 항공통신부(1400)를 제어하여 지상처리 시스템(2000)과 접속하고 원시영상 신호와 해당 촬영정보 신호를 송신하거나 또는 제어명령, 각종 운용 데이터 신호, 프로그램, 갱신된 정보 등을 송수신하도록 제어하고 감시할 수 있다. Meanwhile, the aviation control unit 1300 controls the aviation communication unit 1400 to connect with the ground processing system 2000 and transmit raw image signals and corresponding photographing information signals, or control commands, various operational data signals, programs, and updated information. Control and monitor to send and receive.

항공통신부(1400)는 항공제어부(1300)와 엠엠에스부(1200)에 접속하고, 항공제어부(1300)로부터 인가되는 해당 제어신호에 의하여 이동통신 방식과 레이저 광신호를 이용한 광통신 방식과 에프엠(FM) 변조방식 신호를 이용한 에프엠통신 방식으로 양방향 통신한다. The aviation communication unit 1400 is connected to the aviation control unit 1300 and the MMS unit 1200, and the optical communication method and the FM using the mobile communication method and the laser light signal by the control signal applied from the aviation control unit 1300 ) It performs bidirectional communication by FM communication method using modulation method signal.

즉, 항공통신부(1400)는 항공제어부(1300)의 제어와 감시에 의하여 엠엠에스부(1200)에 저장된 원시영상 신호와 해당 촬영정보 신호를 무선 또는 유선으로 출력하는 동시에 무선 또는 유선으로 입력되는 명령신호, 각종 운용 데이터, 프로그램 등을 수신하여 항공제어부(1300)에 전달한다. That is, the aviation communication unit 1400 outputs the raw image signal and the corresponding photographing information signal stored in the MS unit 1200 by wireless or wired, under the control and monitoring of the aviation control unit 1300, and is inputted wirelessly or wired. Receives signals, various operational data, programs, and the like, and transmits them to the aviation controller 1300.

항공통신부(1400)는 제 1 항공무선부(1410), 제 2 항공무선부(1420), 제 3 항공무선부(1430), 항공유선통신부(1440)를 포함하는 구성이다. The aviation communication unit 1400 includes a first air radio unit 1410, a second air radio unit 1420, a third air radio unit 1430, and an air wire communication unit 1440.

제 1 항공무선부(1410)는 이동통신 방식으로 지상 처리 시스템(2000)과 무선접속하고 항공제어부(1300)의 제어신호에 의하여 엠엠에스부(1200)에 저장된 각종 신호를 이동통신 방식으로 무선송신한다. The first air radio unit 1410 wirelessly connects to the ground processing system 2000 through a mobile communication method, and wirelessly transmits various signals stored in the MS unit 1200 according to a control signal of the air control unit 1300. do.

제 1 항공무선부(1410)는 지상 처리 시스템(2000)이 이동통신 방식으로 무선송신하는 제어명령과 운용 데이터과 각종 프로그램, 갱신용 데이터 등의 신호를 이동통신 방식으로 무선수신하는 양방향 통신장치 이다. 이동통신 방식은 알려져 있으며, CDMA, W-CDMA, TDMA 등의 디지털 변조방식, 아날로그 변조방식 등이 포함되며 미래에 이동통신용으로 개발될 변조방식도 포함되는 것으로 설명한다. The first aviation radio unit 1410 is a bidirectional communication device that wirelessly receives a control command and operation data and various programs, data for update, and the like, which are wirelessly transmitted by the ground processing system 2000 in a mobile communication method. Mobile communication methods are known, and include digital modulation methods such as CDMA, W-CDMA, TDMA, analog modulation methods, and the like, and modulation methods to be developed for mobile communication in the future.

제 2 항공무선부(1420)는 지상 처리 시스템(2000)과 광통신 방식으로 무선접속하고 항공제어부(1300)의 해당 제어신호에 의하여 엠엠에스부(1200)에 저장된 신호를 광통신 방식으로 무선송신하는 동시에 지상 처리 시스템(2000)이 동일한 광통신 방식으로 무선송신하는 신호를 수신하는 구성이다. The second aeronautical radio unit 1420 wirelessly connects the ground processing system 2000 in an optical communication manner, and wirelessly transmits a signal stored in the MMS unit 1200 in an optical communication manner by a corresponding control signal of the aeronautical control unit 1300. The terrestrial processing system 2000 is configured to receive a signal for wireless transmission in the same optical communication method.

제 2 항공무선부(1420)는 제 1 항공무선부(1410)와 동일하게 양방향 통신 기능을 구비하고 동일한 내용의 신호를 송신과 수신할 수 있으나 항공제어부(1300)는 1 차적으로 제 1 항공무선부(1410)의 양방향 통신 기능을 활성화 상태로 제어하고 제 2 항공무선부(1420)는 송신에 의한 단방향 통신만 가능하도록 설정하며 제 1 항공무선부(1410)의 양방향 통신 기능에 장애가 발생하는 경우를 대비하도록 설정하고 제어하여 운용한다. The second aviation radio unit 1420 has the same bidirectional communication function as the first aviation radio unit 1410 and may transmit and receive the same signal, but the aviation control unit 1300 primarily operates the first aviation radio. When the bidirectional communication function of the unit 1410 is controlled to be in an active state, and the second aviation radio unit 1420 is set to allow only one-way communication by transmission, and a failure occurs in the bidirectional communication function of the first aviation radio unit 1410. Set up and control to operate.

제 2 항공무선부(1420)에서 광통신 방식으로 사용되는 광신호는 레이저 광 신호를 사용하되 적외선, 자외선, 특정된 단색파장의 광신호 중에서 선택된 어느 하나 또는, 어느 하나 이상을 사용할 수 있으며 광신호의 변조와 복조 방식의 기술은 잘 알려져 있으므로 구체적인 설명을 생략하기로 한다. The optical signal used in the optical communication method in the second aeronautical radio unit 1420 may use a laser optical signal, but may use any one or more selected from among infrared, ultraviolet, and optical signals having a specific monochromatic wavelength. Modulation and demodulation techniques are well known and will not be described in detail.

제 3 항공무선부(1430)는 지상 처리 시스템과 에프엠 통신 방식으로 무선접속하고 항공제어부(1300)의 해당 제어신호에 의하여 엠엠에스부(1200)에 저장된 신호를 에프엠 변조 방식으로 무선송신한다. The third aviation radio part 1430 wirelessly connects to the terrestrial processing system through the FM communication method and wirelessly transmits the signal stored in the MMS part 1200 by the corresponding control signal of the aviation controller 1300 through the FM modulation method.

제 3 항공무선부(1430)의 경우에도 제 1 항공무선부(1410), 제 2 항공무선부(1420)와 동일하게 양방향 통신 기능을 구비하고 동일한 내용의 신호를 송신과 수신할 수 있으나 항공제어부(1300)는 1 차적으로 제 1 항공무선부(1410), 2 차적으로 제 2 항공무선부(1420)의 양방향 통신 기능을 활성화 상태로 제어하고 제 3 항공무선부(1430)는 제 1 항공무선부(1410)와 제 2 항공무선부(1420)의 양방향 통신 기능에 모두 장애가 발생된 경우를 대비하도록 설정하고 제어하여 양방향 통신 상태로 운용한다. In the case of the third aeronautical radio unit 1430, the two aeronautical radio units 1420 and the second aeronautical radio unit 1420 have the same bidirectional communication functions and transmit and receive signals having the same contents. 1300 primarily controls the bidirectional communication function of the first air radio unit 1410 and second air radio unit 1420 in an activated state, and the third air radio unit 1430 is the first air radio. The bidirectional communication function of the unit 1410 and the second aviation radio unit 1420 is set and controlled to prepare for a case where a failure occurs, and operates in a bidirectional communication state.

즉, 항공통신부(1400)의 무선통신 기능은 3 단계로 안전하게 양방향 무선통신할 수 있도록 제어되고 감시되며 운용된다. That is, the radio communication function of the aviation communication unit 1400 is controlled, monitored and operated to safely communicate in two steps.

이때, 항공통신부(1400)를 구성하는 제 1 항공무선부(1410), 제 2 항공무선부(1420), 제 3 항공무선부(1430)는 송신하는 기능을 항상 활성화 상태로 운용하여 원시영상 신호와 해당 촬영정보 신호를 포함하는 각종 데이터 신호를 3개의 경로를 통하여 항상 동시에 동일하게 송신한다. In this case, the first aviation radio unit 1410, the second aviation radio unit 1420, and the third aviation radio unit 1430 constituting the aviation communication unit 1400 always operate the transmitting function in an activated state and thus provide a raw image signal. And various data signals including the photographing information signal are always simultaneously and identically transmitted through three paths.

여기서 무선통신 기능의 장애는 장애물에 의하여 정상적인 통신이 이루어지지 않거나 송수신되는 신호에 신호대 잡음비가 불량하여 정상적인 통신이 이루어질 수 없는 경우가 포함된다. In this case, the failure of the wireless communication function includes a case in which normal communication cannot be performed due to an obstacle or a signal to noise ratio is poor in a signal transmitted and received, thereby preventing normal communication.

항공유선통신부(1440)는 지상 처리 시스템(2000)과 유선접속하고 항공제어부(1300)의 해당 제어신호에 의하여 엠엠에스부(1200)에 저장된 신호를 유선송신하며 지상 처리 시스템(2000)이 송신 또는 전송하는 제어명령과 운용 데이터 신호를 유선수신하는 양방향 통신 장치이다. The aviation wire communication unit 1440 makes a wired connection with the ground processing system 2000 and wires a signal stored in the MS unit 1200 according to a control signal of the aviation control unit 1300, and the ground processing system 2000 transmits or transmits the signal. It is a bi-directional communication device that receives wired control commands and operational data signals.

항공유선통신부(1440)는 제 1 항공무선부, 제 2 항공무선부, 제 3 항공무선부가 정상적으로 동작하지 않거나 심각한 장애를 발생한 경우에 대비하여 유선접속하고 엠엠에스부(1200)에 저장된 각종 신호를 다운로드 방식으로 출력하거나 외부로부터 각종 제어명령, 운용 데이터, 프로그램 등을 다운로드 방식으로 입력하여 항공제어부에 전달할 수 있다. The aviation wire communication unit 1440 connects various signals stored in the MS unit 1200 in a wired connection in case the first aviation unit, the second aviation unit, or the third aviation unit does not operate normally or a serious failure occurs. Output by download or input various control commands, operating data, programs, etc. from the outside can be transmitted to the aviation control unit.

즉, 라인센서 항공 디지털 카메라 장비(1000)는 저장된 원시영상 신호와 해당 촬영정보 신호 및 각종 데이터 신호를 제 1 내지 제 3 항공무선부(1410, 1420, 1430)에 의한 3 개의 통신경로를 통하여 실시간 출력하여 단방향으로 실시간 무선송신하고 또한, 항공유선통신부(1440)를 구성하여 1 개의 유선통신 경로를 더 구비한다. That is, the line sensor aviation digital camera device 1000 may store the raw image signal, corresponding photographing information signal, and various data signals in real time through three communication paths by the first to third air radio units 1410, 1420, and 1430. Output and real-time wireless transmission in one direction, and further comprises a wired communication path by configuring the aviation wire communication unit 1440.

또한, 라인센서 항공 디지털 카메라 장비(1000)는 양방향 통신에서 무선의 3 단계 경로와 유선의 1 단계 경로를 구비하므로 총 4 단계에 의한 양방향 통신경로를 구성하여 실시간으로 전달되는 신호전달 경로의 안정성이 매우 높은 장점이 있다. In addition, since the line sensor aviation digital camera equipment 1000 includes a wireless three-step path and a wired one-step path in two-way communication, the stability of the signal transmission path delivered in real time by configuring a two-way communication path by a total of four steps is achieved. There is a very high advantage.

지상 처리 시스템(2000)은 라인센서 항공 디지털 카메라 장비(1000)와 무선 또는 유선으로 접속하여 원시영상 신호와 해당 촬영정보 신호를 수신하고 할당된 영역에 저장하는 동시에 각종 명령신호, 운용 파라미터, 운용 데이터 신호, 프로그램, 갱신 정보 등등을 출력하여 송신한다. The terrestrial processing system 2000 is connected to the line sensor aviation digital camera equipment 1000 by wireless or wired to receive the raw image signal and the corresponding shooting information signal and store them in the allocated area, and at the same time, various command signals, operation parameters, operation data. Output and send signals, programs, update information, and so on.

지상 처리 시스템(2000)은 지상통신부(2100), 평균연산부(2200), 지상제어부(2300), 지상처리 서버(2400)를 포함하는 구성이다. The ground treatment system 2000 includes a ground communication unit 2100, an average computing unit 2200, a ground control unit 2300, and a ground treatment server 2400.

지상통신부(2100)는 지상제어부의 제어와 감시에 의하여 라인센서 항공 디지털 카메라 장비(1000)에 접속하고 이동통신 방식과 레이저 광신호를 이용한 광통신 방식과 에프엠 신호를 이용한 에프엠 통신 방식으로 양방향 통신하며, 제 1 지상무선부(2110), 제 2 지상무선부(2120), 제 3 지상무선부(2130), 지상유선통신부(2140)를 포함하는 구성이다. The ground communication unit 2100 is connected to the line sensor aviation digital camera equipment 1000 under the control and monitoring of the ground control unit, and performs bidirectional communication using an optical communication method using a mobile communication method and a laser light signal and an FM communication method using an FM signal. The first ground radio part 2110, the second ground radio part 2120, the third ground radio part 2130, and the ground wired communication part 2140 are included.

제 1 지상무선부(2110)는 라인센서 항공 디지털 카메라 장비(1000)와 이동통신 방식으로 무선접속하고 원시영상 신호와 해당 촬영정보 신호를 수신하는 동시에 각종 명령신호, 운용 파라미터, 운용 데이터 신호, 프로그램, 갱신 정보 등의 신호를 활성화된 제 1 항공무선부(1410)에 이동통신 방식으로 무선 송신한다. The first terrestrial wireless unit 2110 wirelessly connects the line sensor aerial digital camera equipment 1000 in a mobile communication manner, receives a raw image signal and a corresponding photographing information signal, and simultaneously receives various command signals, operation parameters, operation data signals, and programs. And wirelessly transmit a signal such as update information to the activated first air radio unit 1410 in a mobile communication method.

제 2 지상무선부(2120)는 라인센서 항공 디지털 카메라 장비(1000)와 레이저 광신호를 이용하는 광통신 방식으로 무선접속하고 원시영상 신호와 해당 촬영정보 신호를 수신하는 동시에 각종 명령신호, 운용 파라미터, 운용 데이터 신호, 프로그램, 갱신 정보 등의 신호를 활성화된 제 2 항공무선부(1420)에 광통신 방식으로 무선 송신한다. The second terrestrial wireless unit 2120 wirelessly connects the line sensor aviation digital camera equipment 1000 with a laser optical signal, receives a raw image signal and a corresponding photographing information signal, and simultaneously receives various command signals, operation parameters, and operations. Signals such as data signals, programs, and update information are wirelessly transmitted to the activated second air radio unit 1420 in an optical communication manner.

제 3 지상무선부(2130)는 라인센서 항공 디지털 카메라 장비(1000)와 에프엠(FM) 변조(modulation) 신호를 이용하는 에프엠통신 방식으로 무선접속하고 원시영상 신호와 해당 촬영정보 신호를 수신하는 동시에 각종 명령신호, 운용 파라미터, 운용 데이터 신호, 프로그램, 갱신 정보 등의 신호를 활성화된 제 3 항공무선부(1430)에 에프엠통신 방식으로 무선 송신한다. The third terrestrial wireless unit 2130 wirelessly connects with the line sensor aviation digital camera equipment 1000 by using an FM modulation signal and receives raw image signals and corresponding photographing information signals. Signals such as command signals, operational parameters, operational data signals, programs, and update information are wirelessly transmitted to the activated third aviation radio unit 1430 in an FM communication scheme.

제 1 지상무선부(2110)와 제 2 지상무선부(2120)와 제 3 지상무선부(2130)는 신호를 수신하는 수신 상태를 항상 설정하여 유지하고, 신호를 송신하는 송신상태는 실시 예에 의하여 선택적으로 활성화되어 운용된다. The first terrestrial wireless unit 2110, the second terrestrial wireless unit 2120, and the third terrestrial wireless unit 2130 always set and maintain a reception state for receiving a signal, and a transmission state for transmitting a signal is shown in the embodiment. Is selectively activated and operated.

일 실시 예로, 제 1 지상무선부(2110)와 제 2 지상무선부(2120)와 제 3 지상무선부(2130)는 항상 양방향 통신 상태로 활성화 상태로 운용할 수 있다. In one embodiment, the first terrestrial wireless unit 2110, the second terrestrial wireless unit 2120, and the third terrestrial wireless unit 2130 may always operate in an active state in a bidirectional communication state.

한편, 다른 일 실시 예로, 제 1 지상무선부(2110)와 제 2 지상무선부(2120)와 제 3 지상무선부(2130)는 제 1 항공무선부(1410), 제 2 항공무선부(1420), 제 3 항공무선부(1430)의 양방향 통신 활성화 상태에 대응하여 선택적으로 양방향 통신 상태로 활성화되어 운용될 수 있다. Meanwhile, in another embodiment, the first ground radio part 2110, the second ground radio part 2120, and the third ground radio part 2130 may include a first air radio part 1410 and a second air radio part 1420. In response to the two-way communication activation state of the third aviation radio unit 1430, it may be selectively activated and operated in a two-way communication state.

상기의 다른 일 실시 예로 운용되는 경우, 라인센서 항공 디지털 카메라 장비(1000)는 제 1 항공무선부(1410), 제 2 항공무선부(1420), 제 3 항공무선부(1430) 중에서 어느 기능부가 활성화 상태로 운용되는지를 지상 처리 시스템(2000)에 통보하는 기능을 구비하고, 지상 처리 시스템(2000)은 해당 신호를 인식할 수 있도록 구성된다. When operated in another embodiment of the above, the line sensor aviation digital camera equipment 1000 may include any one of the first aviation radio unit 1410, the second aviation radio unit 1420, and the third aviation radio unit 1430. It has a function of notifying the ground treatment system 2000 whether it is operating in an activated state, and the ground treatment system 2000 is configured to recognize the signal.

지상유선통신부(2140)는 유선에 의하여 항공유선통신부(1440)와 접속하고 원시영상 신호와 해당 촬영정보 그리고 각종 명령신호, 운용 파라미터, 운용 데이터 신호, 프로그램, 갱신 정보 등의 신호를 송수신한다. The ground wire communication unit 2140 is connected to the aviation wire communication unit 1440 by wire and transmits and receives a raw image signal, corresponding photographing information, and various command signals, operation parameters, operation data signals, programs, and update information.

지상유선통신부(2140)와 항공유선통신부(1440)가 유선으로 접속하는 경우는 라인센서 항공 디지털 카메라 장비(1000)를 설치한 비행기가 지상에 착륙한 상태를 유지하여야 함은 매우 당연하며, 유에스비(USB), 이동용 하드디스크, 광디스크 등과 같은 별도의 이동메모리 장치를 이용할 수도 있다. When the ground wire communication unit 2140 and the aviation wire communication unit 1440 are connected by wire, it is very natural that the plane on which the line sensor aviation digital camera equipment 1000 is installed should remain in the ground. It is also possible to use a separate mobile memory device such as a USB), a mobile hard disk, an optical disk, or the like.

평균연산부(2200)는 지상제어부의 제어와 감시에 의하여 지상통신부(2100)와 접속하고 이동통신 방식과 광통신 방식과 에프엠 통신 방식으로 각각 송신되거나 수신되는 신호의 전송오류를 패리티 체크 비트 방식으로 각각 검출하고 오류가 검출되는 경우에 해당 오류를 수정한다. The average operation unit 2200 is connected to the terrestrial communication unit 2100 under the control and monitoring of the ground control unit, and detects transmission errors of signals transmitted or received in the mobile communication method, the optical communication method, and the FM communication method, respectively, using a parity check bit method. If an error is detected, correct the error.

한편, 평균연산부(2200)는 이동통신 방식과 광통신 방식과 에프엠 통신 방식으로 각각 동시 수신된 신호를 인가받고 수신된 데이터 신호를 산술평균 방식으로 연산하므로 각각의 통신경로에서 발생되는 전송오류를 제거한다. 다수의 경로로 각각 수신된 디지털 신호의 산술평균 방식은 이미 잘 알려져 있고 쉽게 확인할 수 있으므로 구체적인 설명을 하지 않기로 한다. On the other hand, the average calculating unit 2200 is applied to the mobile communication method, the optical communication method and the FM communication method, respectively, and received the received signal simultaneously in the arithmetic average method to eliminate the transmission error generated in each communication path . Since the arithmetic mean method of the digital signal received in each of the plurality of paths is well known and can be easily confirmed, the detailed description will not be given.

지상제어부(2300)는 평균연산부(2200)와 지상통신부(2100)에 접속하고 지상처리 시스템(2000)를 구성하는 각 기능부를 운용하며 감시하는 제어신호를 각각 출력한다. 또한, 지상제어부(2300)는 본 발명에 의한 방법을 운용하도록 각 기능부를 제어하고 감시한다. The ground control unit 2300 is connected to the average computing unit 2200 and the ground communication unit 2100 and outputs control signals for operating and monitoring each function unit constituting the ground treatment system 2000. In addition, the ground control unit 2300 controls and monitors each functional unit to operate the method according to the present invention.

지상제어부(2300)는 도면에 도시되지 않은 입력장치를 통하여 각종 명령신호, 운용 파라미터, 운용 데이터 신호, 프로그램, 갱신 정보 등의 신호를 입력하여 운용되거나 사전에 저장된 특정 프로그램에 의하여 운용될 수 있다. The ground control unit 2300 may be operated by inputting various command signals, operation parameters, operation data signals, programs, update information, and the like through an input device not shown in the drawing, or may be operated by a specific program stored in advance.

지상처리 서버(2400)는 평균연산부(2200)에 접속하고 지상제어부(2300)의 해당 제어신호에 의하여 원시영상 신호와 촬영정보 신호를 입력하여 할당된 영역에 저장하는 동시에 각종 명령신호, 운용 파라미터, 운용 데이터 신호, 프로그램, 갱신 정보 등의 신호를 할당된 영역에 각각 저장한다.
The ground processing server 2400 is connected to the average computing unit 2200, and inputs the raw image signal and the shooting information signal by the corresponding control signal of the ground control unit 2300 and stores them in the allocated area, and at the same time various command signals, operating parameters, Signals such as operational data signals, programs and update information are stored in the allocated areas, respectively.

이상에서 본 발명은 기재된 구체 예에 대해서 상세히 설명하였지만 본 발명의 기술사상 범위 내에서 다양한 변형 및 수정이 가능함은 당업자에게 있어서 명백한 것이며, 이러한 변형 및 수정이 첨부된 특허청구범위에 속함은 당연한 것이다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is evident that many alternatives, modifications and variations will be apparent to those skilled in the art.

1000 : 라인센서 항공 디지털 카메라 장비
1100 : 카메라부 1200 : 엠엠에스부
1300 : 항공제어부 1400 : 항공통신부
1410 : 제 1 항공무선부 1420 : 제 2 항공무선부
1430 : 제 3 항공무선부 1440 : 항공유선통신부
2000 : 지상 처리 시스템 2100 : 지상통신부
2110 : 제 1 지상무선부 2120 : 제 2 지상무선부
2130 : 제 3 지상무선부 2140 : 지상유선통신부
2200 : 평균연산부 2300 : 지상제어부
2400 : 지상처리서버
1000: Line Sensor Aviation Digital Camera Equipment
1100: camera unit 1200: MMS unit
1300: aviation control unit 1400: aviation communication unit
1410: first radio part 1420: second radio part
1430: third aeronautical wireless unit 1440: aeronautical wired and communication department
2000: Ground treatment system 2100: Ground communication department
2110: first ground radio part 2120: second ground radio part
2130: third terrestrial wireless unit 2140: terrestrial wired communication unit
2200: average computing unit 2300: ground control unit
2400: ground treatment server

Claims (1)

(S10) 라인센서 항공디지털 카메라 장비로부터 원시 영상과, 원시 영상의 촬영 정보(메타데이터 및 위치데이터를 포함)를 획득하는 단계;
(S20) 후처리 DGPS 원리에 따라 지상기준점 데이터와 상기 촬영 정보를 이용하여 좌표계변환 및 시간동기화 작업을 통해 상기 (S10)단계에서 획득되지 않는 상기 원시 영상의 각 라인별 외부표정요소를 획득하는 단계;
(S30) 상기 S20단계에서 획득한 각 라인별 외부표정요소와 상기 S10단계에서 획득한 촬영 정보의 내부표정요소를 이용하여 공선조건식을 통해 상기 원시 영상의 기하 왜곡을 보정한 기하보정 영상을 획득하는 단계;
(S40) 상기 원시 영상 및 기하보정 영상의 영상좌표 각각을 지상좌표로 변환하고, 상기 기하보정 영상의 각 픽셀에 대해 변환된 지상좌표와 근접한 지상좌표를 갖는 상기 원시 영상의 픽셀을 추출하고, 추출된 원시 영상의 픽셀이 갖는 외부표정요소를 기하보정 영상의 해당 픽셀의 외부표정요소로 간주하는 방식으로, 기하보정 영상 중심의 주점좌표에 외부표정요소를 부여하여 기하보정 영상의 각 라인별 외부표정요소를 획득하는 단계;
(S50) 각 라인별 외부표정요소가 획득된 상기 기하보정 스트립(Strip) 영상을 일정 크기의 영상으로 생성하고, 각 생성된 영상(즉, 면형방식영상)의 속성DB를 구축하는 단계;를 포함하여 이루어지되,
상기 S40단계에서 상기 기하보정 영상의 각 픽셀에 대해 변환된 지상좌표와 근접한 지상좌표를 갖는 원시 영상의 픽셀 추출은 Affine 변환을 이용하고,
상기 S50단계는 기하보정 스트립 영상을 절취한 후에 기하보정으로 굴곡이 발생된 각 절취 영상의 상하단을 일정부분 절취하여 절취 영상을 직사각형화 하는 단계를 포함하는 지상기준점측량과 GPS/INS가 연계된 고해상 선형방식 디지털 다중 밴드 영상을 GIS와 수치지도와 3차원국토공간정보로 구축하기위해 면형방식영상으로 재배열하는 방법에 있어서,
상기 S10단계는 상기 라인센서 항공디지털 카메라 장비로부터 지상 처리 시스템이 상기 원시 영상과 상기 촬영 정보를 이동통신 방식과 레이저 광통신 방식과 에프엠 무선통신 방식으로 각각 실시간 획득하고 상기 획득된 신호의 데이터를 산술평균 연산 처리하여 무선전송오차 제거하고,
상기 라인센서 항공디지털 카메라 장비는
비행기의 하부 일측에 설치되고 가시광선과 근거리적외선으로 각각 촬영된 원시 영상의 신호와 상기 원시 영상에 대한 촬영정보 신호를 디지털 신호로 각각 출력하는 카메라부;
상기 카메라부에 접속하고 출력되는 신호를 지정된 영역에 저장하는 엠엠에스부;
상기 카메라부와 엠엠에스부에 접속하고 상기 라인센서 항공디지털 카메라 장비의 각 기능부를 운용하며 감시하는 제어신호를 각각 출력하는 항공제어부; 및
상기 항공제어부와 엠엠에스부에 접속하고 상기 제어신호에 의하여 이동통신 방식과 레이저 광신호를 이용한 광통신 방식과 에프엠 방식 신호를 이용한 에프엠통신 방식으로 양방향 통신하는 항공통신부; 를 포함하고,
상기 항공통신부는
상기 지상 처리 시스템과 이동통신 방식으로 무선접속하고 상기 항공제어부의 제어신호에 의하여 상기 엠엠에스부에 저장된 신호를 송신하며 상기 지상 처리 시스템이 송신하는 제어명령과 운용 데이터 신호를 수신하는 제 1 항공무선부;
상기 지상 처리 시스템과 광통신 방식으로 무선접속하고 상기 항공제어부의 제어신호에 의하여 상기 엠엠에스부에 저장된 신호를 송신하는 제 2 항공무선부;
상기 지상 처리 시스템과 에프엠 통신 방식으로 무선접속하고 상기 항공제어부의 제어신호에 의하여 상기 엠엠에스부에 저장된 신호를 송신하는 제 3 항공무선부; 및
상기 지상 처리 시스템과 유선접속하고 상기 항공제어부의 제어신호에 의하여 상기 엠엠에스부에 저장된 신호를 송신하며 상기 지상 처리 시스템이 송신하는 제어명령과 운용 데이터 신호를 수신하는 항공유선통신부; 를 포함하여 이루어지고,
상기 지상 처리 시스템은
상기 라인센서 항공 디지털 카메라 장비에 접속하고 이동통신 방식과 레이저 광신호를 이용한 광통신 방식과 에프엠 신호를 이용한 에프엠 통신 방식으로 양방향 통신하는 지상통신부;
상기 지상통신부와 접속하고 상기 이동통신 방식과 광통신 방식과 에프엠 통신 방식으로 각각 송수신되는 신호의 전송오류를 패리티 체크 비트 방식으로 각각 검출 수정하고 수정된 각 방식의 신호를 산술평균 방식으로 연산하여 출력하는 평균연산부;
상기 평균연산부와 지상통신부에 접속하고 상기 지상처리 시스템의 각 기능부를 운용하며 감시하는 제어신호를 각각 출력하는 지상제어부; 및
상기 평균연산부에 접속하고 상기 지상제어부의 제어신호에 의하여 상기 원시 영상 신호와 촬영 정보를 입력하여 할당된 영역에 저장하는 지상처리 서버; 를 포함하여 이루어지는 것을 특징으로 하는 지상기준점측량과 GPS/INS가 연계된 고해상 선형방식 디지털 다중 밴드 영상을 GIS와 수치지도와 3차원국토공간정보로 구축하기위해 면형방식영상으로 재배열하는 방법.


(S10) obtaining a raw image and photographing information (including metadata and position data) of the raw image from the line sensor aerial digital camera equipment;
(S20) acquiring an external expression element for each line of the raw image not obtained in the step S10 through coordinate system transformation and time synchronization using the ground reference point data and the photographing information according to the post-processing DGPS principle ;
(S30) Acquiring a geometrically corrected image correcting the geometric distortion of the raw image through a collinear condition equation by using the external expression element for each line obtained in the step S20 and the internal expression element of the photographing information obtained in the step S10. step;
(S40) convert each of the image coordinates of the raw image and the geometrically corrected image to ground coordinates, extract pixels of the raw image having ground coordinates close to the converted ground coordinates for each pixel of the geometrically corrected image, and extract The external expression for each line of the geometrically corrected image is assigned by assigning the external expression element to the main coordinates of the center of the geometrically corrected image. Obtaining an element;
(S50) generating the geometrically corrected strip image obtained by obtaining the external expression elements for each line as an image of a predetermined size, and constructing an attribute DB of each generated image (ie, planar image); By the way,
The pixel extraction of the raw image having the ground coordinates close to the ground coordinates converted for each pixel of the geometrically corrected image in step S40 uses an Affine transform,
The step S50 is to cut the geometric correction strip image, and then cut the upper and lower ends of each cut image in which the bending is generated by geometric correction to form a rectangular cut image. In a method of rearranging linear digital multi-band images into planar images to construct a GPS, digital maps and 3D national spatial information,
In step S10, the terrestrial processing system acquires the raw image and the photographing information from the line sensor aviation digital camera device in real time using a mobile communication method, a laser optical communication method, and an FM wireless communication method, respectively, and performs an arithmetic mean of the obtained data. Operation to remove the wireless transmission error,
The line sensor aviation digital camera equipment
A camera unit installed at a lower side of the plane and outputting a signal of a raw image photographed by visible light and near-infrared light and a photographing information signal of the raw image as digital signals, respectively;
An MS unit which accesses the camera unit and stores an output signal in a designated area;
An air control unit connected to the camera unit and an MS unit and outputting control signals for operating and monitoring each function unit of the line sensor aviation digital camera equipment; And
An air communication unit connected to the air control unit and the MS unit and performing bidirectional communication using an optical communication method using a mobile communication method and a laser light signal and an FM communication method using an FM signal according to the control signal; Lt; / RTI >
The aviation communication unit
A first air radio wirelessly connected to the ground processing system in a mobile communication manner, transmitting a signal stored in the MS unit by a control signal of the air control unit, and receiving a control command and an operation data signal transmitted by the ground processing system. part;
A second air radio unit wirelessly connecting the terrestrial processing system in an optical communication manner and transmitting a signal stored in the MMS unit by a control signal of the air control unit;
A third aviation radio unit wirelessly connecting the terrestrial processing system through an FM communication scheme and transmitting a signal stored in the MS unit by a control signal of the air controller; And
An airline communication unit for wired connection with the ground processing system, transmitting a signal stored in the MS unit according to a control signal of the air traffic controller, and receiving a control command and an operation data signal transmitted by the ground processing system; , ≪ / RTI >
The above ground treatment system
A ground communication unit connected to the line sensor aviation digital camera device and bidirectionally communicating with an optical communication method using a mobile communication method and a laser optical signal and an FM communication method using an FM signal;
Connecting to the terrestrial communication unit, detecting and correcting transmission errors of signals transmitted and received in the mobile communication method, the optical communication method, and the FM communication method, respectively, by using a parity check bit method, and calculating and outputting the modified signals in an arithmetic average method. Average calculation unit;
A ground control unit connected to the average computing unit and the ground communication unit and outputting control signals for operating and monitoring each function unit of the ground processing system; And
A ground processing server connected to the average computing unit and inputting the raw image signal and the photographing information according to a control signal of the ground control unit and storing the raw image signal in the allocated area; A method of rearranging a high-resolution linear digital multi-band image in which a ground control point survey and a GPS / INS connected to a planar image to construct a GPS, a digital map, and three-dimensional land-spatial information.


KR1020130124498A 2013-10-18 2013-10-18 Method of resampling high resolution digital multi band imagery from line senser into frame type imagery to construct gis(uis), digital map and 3d spatial information using ground control point and gps/ins data KR101345554B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130124498A KR101345554B1 (en) 2013-10-18 2013-10-18 Method of resampling high resolution digital multi band imagery from line senser into frame type imagery to construct gis(uis), digital map and 3d spatial information using ground control point and gps/ins data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130124498A KR101345554B1 (en) 2013-10-18 2013-10-18 Method of resampling high resolution digital multi band imagery from line senser into frame type imagery to construct gis(uis), digital map and 3d spatial information using ground control point and gps/ins data

Publications (1)

Publication Number Publication Date
KR101345554B1 true KR101345554B1 (en) 2014-01-02

Family

ID=50144160

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130124498A KR101345554B1 (en) 2013-10-18 2013-10-18 Method of resampling high resolution digital multi band imagery from line senser into frame type imagery to construct gis(uis), digital map and 3d spatial information using ground control point and gps/ins data

Country Status (1)

Country Link
KR (1) KR101345554B1 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106595656A (en) * 2016-12-29 2017-04-26 辽宁工程技术大学 Vehicle-mounted POS-based highway alignment feature recognition and parameter calculation method
KR101784315B1 (en) * 2016-06-10 2017-10-12 한국과학기술원 Devices for correcting perspective distortion and method of correcting perspective distortion
CN107886531A (en) * 2017-12-15 2018-04-06 武汉智能鸟无人机有限公司 A kind of virtual controlling point acquisition methods matched based on laser ranging and object space
KR101846227B1 (en) * 2016-11-04 2018-04-06 국방과학연구소 Antenna tracking method between pilotless aircraft in realy link of datalink for video information using datalink for operation control
CN108007395A (en) * 2017-10-17 2018-05-08 天津飞眼无人机科技有限公司 A kind of Land area measure system based on unmanned plane
KR101895951B1 (en) * 2018-03-02 2018-09-06 중앙항업(주) The image processing system incorporating the image information of the real-time data change management
KR102121974B1 (en) * 2019-12-05 2020-06-12 대한민국 Disaster damage investigation·analysis system using drone and disaster damage investigation·analysis method
CN111415295A (en) * 2020-03-17 2020-07-14 东南数字经济发展研究院 Shooting resolution orthographic image generation method of oblique photography three-dimensional model
CN113793270A (en) * 2021-08-05 2021-12-14 杭州电子科技大学 Aerial image geometric correction method based on unmanned aerial vehicle attitude information
CN116630204A (en) * 2023-07-19 2023-08-22 南京佳格耕耘科技有限公司 Remote sensing image online analysis processing system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100930643B1 (en) 2009-06-29 2009-12-09 중앙항업(주) Method of resampling high resolution digital multi band imagery from line sensor into frame type imagery to construct gis(uis), digital map and 3d spatial information using gournd control point and gps/ins data
KR100952136B1 (en) 2009-09-11 2010-04-09 중앙항업(주) Method for correcting position and dircction elements of camera, and method for 3d-structure measurement using single oblique photograph

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100930643B1 (en) 2009-06-29 2009-12-09 중앙항업(주) Method of resampling high resolution digital multi band imagery from line sensor into frame type imagery to construct gis(uis), digital map and 3d spatial information using gournd control point and gps/ins data
KR100952136B1 (en) 2009-09-11 2010-04-09 중앙항업(주) Method for correcting position and dircction elements of camera, and method for 3d-structure measurement using single oblique photograph

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101784315B1 (en) * 2016-06-10 2017-10-12 한국과학기술원 Devices for correcting perspective distortion and method of correcting perspective distortion
KR101846227B1 (en) * 2016-11-04 2018-04-06 국방과학연구소 Antenna tracking method between pilotless aircraft in realy link of datalink for video information using datalink for operation control
CN106595656B (en) * 2016-12-29 2019-09-10 辽宁工程技术大学 A kind of identification of highway alignment feature and calculation method of parameters based on vehicle-mounted POS
CN106595656A (en) * 2016-12-29 2017-04-26 辽宁工程技术大学 Vehicle-mounted POS-based highway alignment feature recognition and parameter calculation method
CN108007395A (en) * 2017-10-17 2018-05-08 天津飞眼无人机科技有限公司 A kind of Land area measure system based on unmanned plane
CN107886531A (en) * 2017-12-15 2018-04-06 武汉智能鸟无人机有限公司 A kind of virtual controlling point acquisition methods matched based on laser ranging and object space
CN107886531B (en) * 2017-12-15 2024-04-16 武汉智能鸟无人机有限公司 Virtual control point acquisition method based on laser ranging and object space matching
KR101895951B1 (en) * 2018-03-02 2018-09-06 중앙항업(주) The image processing system incorporating the image information of the real-time data change management
KR102121974B1 (en) * 2019-12-05 2020-06-12 대한민국 Disaster damage investigation·analysis system using drone and disaster damage investigation·analysis method
CN111415295A (en) * 2020-03-17 2020-07-14 东南数字经济发展研究院 Shooting resolution orthographic image generation method of oblique photography three-dimensional model
CN111415295B (en) * 2020-03-17 2024-01-12 东南数字经济发展研究院 Shooting resolution orthogram generation method of oblique shooting three-dimensional model
CN113793270A (en) * 2021-08-05 2021-12-14 杭州电子科技大学 Aerial image geometric correction method based on unmanned aerial vehicle attitude information
CN116630204A (en) * 2023-07-19 2023-08-22 南京佳格耕耘科技有限公司 Remote sensing image online analysis processing system
CN116630204B (en) * 2023-07-19 2023-09-26 南京佳格耕耘科技有限公司 Remote sensing image online analysis processing system

Similar Documents

Publication Publication Date Title
KR101345554B1 (en) Method of resampling high resolution digital multi band imagery from line senser into frame type imagery to construct gis(uis), digital map and 3d spatial information using ground control point and gps/ins data
KR100930643B1 (en) Method of resampling high resolution digital multi band imagery from line sensor into frame type imagery to construct gis(uis), digital map and 3d spatial information using gournd control point and gps/ins data
Pérez et al. Low cost surveying using an unmanned aerial vehicle
US10013785B2 (en) Methods and systems for object based geometric fitting
Javadnejad et al. A photogrammetric approach to fusing natural colour and thermal infrared UAS imagery in 3D point cloud generation
US20180218534A1 (en) Drawing creation apparatus and drawing creation method
US20220198606A1 (en) Multiple georeferenced aerial image crop analysis and synthesis
US20120114229A1 (en) Orthorectification and mosaic of video flow
JP7251474B2 (en) Information processing device, information processing method, information processing program, image processing device, and image processing system
CN110209847B (en) Method and device for processing aviation remote sensing data machine in quasi-real time and storage medium
JP2008186145A (en) Aerial image processing apparatus and aerial image processing method
Jacobsen Characteristics of very high resolution optical satellites for topographic mapping
KR102075028B1 (en) Unmanned High-speed Flying Precision Position Image Acquisition Device and Accurate Position Acquisition Method Using the same
Lee Assessing the positioning accuracy of high density point clouds produced from rotary wing quadrocopter unmanned aerial system based imagery
JP5304465B2 (en) Mosaic image generation method, apparatus and program
JP2017201261A (en) Shape information generating system
Liu et al. A new approach to fast mosaic UAV images
KR101224830B1 (en) Portable Multi-Sensor System for Acquiring Georeferenced Images and Method thereof
Nasrullah Systematic analysis of unmanned aerial vehicle (UAV) derived product quality
JP2019046149A (en) Crop cultivation support apparatus
KR20130100851A (en) Method for processing satellite image and system for processing the same
Schwind et al. Processors for ALOS optical data: Deconvolution, DEM generation, orthorectification, and atmospheric correction
JP6448427B2 (en) Facility name superimposing device
CN110940318A (en) Aerial remote sensing real-time imaging method, electronic equipment and storage medium
Deltsidis et al. Orthorectification of World View 2 stereo pair using a new rigorous orientation model

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161129

Year of fee payment: 4