KR101767648B1 - Aviation Survey data processing software system - Google Patents

Aviation Survey data processing software system Download PDF

Info

Publication number
KR101767648B1
KR101767648B1 KR1020160129954A KR20160129954A KR101767648B1 KR 101767648 B1 KR101767648 B1 KR 101767648B1 KR 1020160129954 A KR1020160129954 A KR 1020160129954A KR 20160129954 A KR20160129954 A KR 20160129954A KR 101767648 B1 KR101767648 B1 KR 101767648B1
Authority
KR
South Korea
Prior art keywords
data
landing
file
drones
camera
Prior art date
Application number
KR1020160129954A
Other languages
Korean (ko)
Inventor
위광재
김동욱
고아라
김은영
Original Assignee
주식회사 지오스토리
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 지오스토리 filed Critical 주식회사 지오스토리
Priority to KR1020160129954A priority Critical patent/KR101767648B1/en
Application granted granted Critical
Publication of KR101767648B1 publication Critical patent/KR101767648B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C13/00Surveying specially adapted to open water, e.g. sea, lake, river or canal
    • G01C13/008Surveying specially adapted to open water, e.g. sea, lake, river or canal measuring depth of open water
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/006Apparatus mounted on flying objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • H04N13/02
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • H04N5/351
    • B64C2201/127
    • B64C2201/141
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Hydrology & Water Resources (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Navigation (AREA)

Abstract

The present invention relates to a drone device including data processing software for preprocessing data of Korean sounding equipment. More specifically, a user visually checks a target area, photographed by aerial survey equipment, in one screen, but a parameter for processing data of the target area is efficiently managed so that the user can easily process the data without confusion about a data processing procedure. According to the present invention, the drone device including data processing software includes: a main interface receiving and synchronizing a raw data file and an SBET file required for processing the data of the photographed target area; a globe viewer displaying a vector file and an image of the target area by being interconnected based on an air position indicator (AIP) and the data processed by the main interface; a layer viewer displaying a layer structure of the raw data file and the SBET file, inputted through the main interface, so that the structure is checked; and a status viewer outputting information about the raw data file, inputted through the main interface, to a screen. The SBET file contains information about the position, speed, and posture (angle) of a drone during a photographing period by using GPS and INS data when the photography of the target area is completed.

Description

한국형 수심측량장비의 데이터 전처리를 위한 데이터 처리 소프트웨어가 탑재된 드론 비행 장치{Aviation Survey data processing software system} [0001] The present invention relates to a drones flight data processing software for data preprocessing of a Korean type water depth measurement apparatus,

본 발명은 항공측량장치를 통한 데이터를 처리하기 위한 소프트웨어의 구조에 관한 것으로, 더욱 상세하게는 사용자가 한 화면 내에서 항공측량장비를 통해 촬영한 대상지역을 육안으로 확인하되 촬영한 대상지역의 데이터 처리에 필요한 파라미터를 효율적으로 관리하여 사용자가 데이터 처리에 필요한 공정의 혼란이 없이 용이하게 처리할 수 있는 한국형 수심측량장비의 데이터 전처리를 위한 데이터 처리 소프트웨어가 탑재된 드론 비행 장치에 관한 것이다.
More particularly, the present invention relates to a structure of software for processing data through an aviation surveying apparatus, and more particularly, to a structure of software for processing data through an aviation surveying apparatus, The present invention relates to a drone flight device equipped with a data processing software for data preprocessing of a Korean type water depth measurement equipment capable of efficiently managing the parameters necessary for processing and easily processing without any confusion of the process necessary for data processing.

일반적으로 항공기나 드론 등의 비행수단을 이용한 측량은 공중에서 사진촬영이나 전자장치를 사용하여 자료를 취득하여 수심이나 지형지물에 관한 측량방법의 하나로 사용되며, 이와 같은 비행수단을 통해 획득한 데이터는 데이터처리 소프트웨어를 이용하여 작업자에 의한 후처리 과정을 통해 다양한 분야에서 사용할 수 있도록 화면상에 출력될 수 있도록 그래픽으로 표현된다.In general, surveying using flight means such as aircraft or drone is used as a method of surveying water depths and features by taking photographs from the air or using electronic devices to collect data. It is graphically displayed so that it can be output on the screen for use in various fields through a post-processing process by an operator using data processing software.

그 예로, 도 1에 도시한 바와 같이, 종래의 데이터처리 소프트웨어는 다이얼로그 형태로 폴더 레이어뷰어, 처리될 파일 리스트, 처리된 결과 파일 리스트, 데이터 입력 및 데이터 처리부를 포함하는 구성으로 이루어져 사용자는 입력되는 데이터의 유형에 따라 라디오 버튼을 선택하고, 최종적으로 출력하는 파일의 경로를 확인한 뒤, 수심데이터처리를 수행하는 버튼을 클릭하여 작업을 수행하도록 하였다.For example, as shown in FIG. 1, conventional data processing software includes a folder layer viewer, a file list to be processed, a list of processed result files, a data input and a data processing unit in a dialog form, After selecting the radio button according to the type of data and finally confirming the path of the file to be output, the button for performing the water depth data processing was clicked to perform the operation.

그러나, 이와 같은 종래기술은 항공촬영장치로 촬영한 실제 대상지역을 확인할 수 있는 뷰어를 포함하고 있지 않아 항공기의 촬영경로 및 결과를 구체적으로 확인할 수 없는 문제점이 있다.However, such a conventional technique does not include a viewer for confirming an actual target area photographed by the aviation photographing apparatus, and thus there is a problem that the photographing path and result of the aviation can not be specifically confirmed.

또한 데이터 처리에 필요한 파라미터(사용자가 조작할 수 있는 조작요소)를 관리하는 인터페이스가 존재하지 않아 사용자는 해당 데이터처리 소프트웨어가 최종적으로 제공하는 출력결과에 만족하여야 하는 신뢰성의 문제가 발생한다.In addition, since there is no interface for managing parameters (operation elements that can be manipulated by the user) required for data processing, the user has a reliability problem that must be satisfied with the output result finally provided by the data processing software.

또한 도시한 바와 같이, 그래픽으로 표시된 뷰어의 구성이 명확하게 구분되어 있지 않아 조작의 불편함이 초래하는 문제점이 발생하게 된다.Also, as shown in the drawing, the configuration of the viewer displayed in a graphic is not clearly divided, which causes inconvenience in operation.

아울러 비행수단을 통한 측량의 경우, 항공기나 위성을 이용한 측량은 고가에 해당하여 근래에는 드론을 사용하는데 이 드론을 이용한 측량은 작업자가 측정하고자 하는 측량대상지역의 근거리까지 이동하여 육안으로 드론의 이/착륙하고자 하는 장소를 물색하고, 비행중인 드론 근방에 장애물을 피하여 조정해야 하는 번거로움이 따르는 문제점이 있었다.In the case of surveying through flight means, the measurement using aircraft or satellite is expensive, and recently, the drone is used, and the measurement using the drone is moved to the near area of the survey target area to be measured by the operator, There is a problem that it is troublesome to search for a place to land / land and to adjust by avoiding an obstacle near the drones in flight.

본 발명은 상술한 문제점들을 해결하기 위해 제안된 것으로, 항공촬영장치로 촬영한 실제 대상지역을 확인할 수 있는 뷰어를 포함하여 항공기의 촬영경로 및 결과를 구체적으로 확인할 수 있게 하는 것을 목적으로 한다.SUMMARY OF THE INVENTION The present invention has been proposed in order to solve the above-mentioned problems, and it is an object of the present invention to be able to specifically confirm a photographing route and a result of an aircraft including a viewer capable of confirming an actual object region photographed by the photographing apparatus.

또한 데이터 처리에 필요한 파라미터를 관리하는 인터페이스 생성하여 사용자의 선택에 따라 신뢰성이 높은 출력결과를 얻고자 하는데 또 다른 목적이 있다.Another object of the present invention is to provide an interface for managing parameters necessary for data processing and to obtain highly reliable output results according to the user's selection.

또한 그래픽으로 표시된 뷰어의 구성을 명확하게 하여 조작의 용이함을 얻고자 하는데 또 다른 목적이 있다.Another purpose of the present invention is to clarify the configuration of a graphically displayed viewer to thereby facilitate the operation.

또한 저공비행이 가능한 드론을 이용하여 측량시에 작업자가 측량대상지역과 근거리에서 육안으로 식별하지 않고도 장애물을 회피하거나 이/착륙하고자 하는 지형을 파악할 수 있는 드론을 제공하고자 하는데 또 다른 목적이 있다.Another object of the present invention is to provide a drone capable of avoiding an obstacle or recognizing a landing area to be landed or landed by a drone capable of low -

상술한 기술적 과제를 해결하기 위해 안출한 본 발명에 의한 것으로 한국형 수심측량장비의 데이터 전처리를 위한 데이터 처리 소프트웨어가 탑재된 드론 비행 장치는 비행수단에 장착된 항공측정장비로 대상지역을 촬영한 데이터의 처리에 필요한 SBET 파일과 원시데이터파일을 입력받아 동기화시키는 메인인터페이스(100); 상기 메인인터페이스(100)에서 처리된 자료와 공중위치지시기(AIP)를 기반으로 연동하여 해당 대상지역의 영상과 벡터 파일을 표시하는 글로브뷰어(200); 상기 메인인터페이스(100)를 통해 입력되는 상기 SBET 파일과 상기 원시데이터파일의 레이어 계층 구조를 확인할 수 있도록 표시하는 레이어뷰어(300); 및 상기 메인인터페이스(100)에 입력되는 상기 원시데이터파일에 관한 정보를 화면상에 출력하는 스테이터스뷰어(400);를 포함하고 한국형 수심측량장비의 데이터 전처리를 위한 데이터 처리 소프트웨어가 탑재된 드론 비행 장치에 있어서, 상기 SBET 파일은 상기 대상지역의 촬영을 완료한 시점에서 촬영 당시, GPS 및 INS 데이터를 이용하여 촬영시간 동안 상기 비행수단의 위치, 속도 및 자세(자세각)에 관한 정보가 저장된 파일이며, 상기 비행수단은 드론(D)을 사용하되 주간에 착륙 대기중인 상기 드론의 직하부에 존재하는 착륙 지점을 촬영하는 제1 메인 카메라(11-1)와, 상기 제1 메인 카메라(11-1)로부터 설정된 베이스 라인(L)만큼 이격 설치되며, 상기 드론의 직하부에 존재하는 착륙 지점을 촬영하는 제2 메인 카메라(11-2)와, 야간에 착륙 대기중인 상기 드론의 직하부에 존재하는 착륙 지점을 촬영하는 제1 적외선 카메라(12-1)와, 상기 제1 적외선 카메라(120-1)로부터 설정된 베이스 라인(L)만큼 이격 설치되며, 상기 드론의 직하부에 존재하는 착륙 지점을 촬영하는 제2 적외선 카메라(12-2)와, 상기 드론이 비행 중인 현재의 시점이 주간 또는 야간인지를 판별하는 모드 판단부(13)와, 주간에는 상기 제1 메인 카메라(11-1)에서 촬영한 좌측 영상 및 상기 제2 메인 카메라(11-2)에서 촬영한 우측 영상을 스테레오 정합시켜 상기 착륙 지점의 3차원 영상을 제공하고, 야간에는 상기 제1 적외선 카메라(12-1)에서 촬영한 좌측 영상 및 상기 제2 적외선 카메라(12-2)에서 촬영한 우측 영상을 스테레오 정합시켜 상기 착륙 지점의 3차원 영상을 제공하는 스테레오 비젼 처리부(14)와, 상기 스테레오 비젼 처리부(14)에서 제공된 3차원 영상에 따라 카메라의 초점 및 상기 베이스 라인(L)의 간격 중 적어도 어느 하나 이상을 자동으로 조절함으로써 상기 스테레오 비젼 처리부(14)에서 보정된 3차원 영상을 제공할 수 있게 하는 카메라 구동부(15)와, 상기 보정된 3차원 영상을 분석하여 상기 착륙 지점에 설정된 각도 이상의 경사지형이 있는지 또는 장해물이 있는지를 분석하여 착륙 가능한 지형인지 결정하는 착륙 지형 판독부(16) 및 상기 착륙 지형 판독부(16)에 의해 착륙 가능한 지형인 것으로 판단된 경우, 상기 보정된 3차원 영상을 통해 분석된 착륙 지점의 지형 특성에 따라 다수개의 드론 날개(20)를 각각 제어하여 상기 드론의 자세를 조절하고, 상기 드론 날개(20)의 회전 속도를 제어하여 상기 드론의 착륙 속도를 제어하는 착륙 자세 제어부(17)를 포함하며, 상기 드론은 내부에 구비된 GPS 수신기와 상기 스테이터스 뷰어(400)를 통해 비행설계된 플라이트라인의 좌표값을 확인하여 상기 드론이 플라이트라인을 따라 이동하여 수심을 측정할 수 있도록 하는 것을 특징으로 한다.
According to the present invention, which is devised to solve the above-described technical problems, a drone flight device equipped with data processing software for data preprocessing of a Korean type water depth measuring instrument is an airborne measurement device mounted on a flight means, A main interface 100 for receiving and synchronizing SBET files and raw data files required for processing; A globe viewer (200) for displaying an image and a vector file of a corresponding target area in cooperation with data processed by the main interface (100) and an air position indicator (AIP); A layer viewer 300 for displaying the layer hierarchy of the SBET file and the raw data file input through the main interface 100 so as to be able to check the layer hierarchy; And a status viewer (400) for outputting information on the original data file input to the main interface (100) on a screen, wherein the drone flight device (400) includes data processing software for data preprocessing The SBET file is a file that stores information on the position, speed, and posture (attitude angle) of the flying means during photographing time using GPS and INS data at the time of photographing at the time of photographing of the target area , The flying means includes a first main camera (11-1) for photographing a landing spot directly under the dron using the drones (D) and waiting for landing in the daytime, a second main camera A second main camera 11-2 which is spaced apart from the baseline L by a predetermined distance L and photographs a landing spot directly below the drones, A first infrared camera 12-1 for photographing a landing spot directly beneath the drones and a base line L set from the first infrared camera 120-1, A second infrared camera 12-2 for photographing a landing point present in the first main camera 12-2, a mode determiner 13 for determining whether the present time of the drones is in a day or night, A left image photographed by the first infrared camera 11-1 and a right image photographed by the second main camera 11-2 are stereo matched to provide a three dimensional image of the landing spot, -1) and stereo images of the right image photographed by the second infrared camera 12-2 to provide a three-dimensional image of the landing point, and a stereoscopic vision processor 14, (14) provided in the third A camera driver 15 for automatically adjusting at least one of a focal point of the camera and an interval of the baseline L according to an image so as to provide a three-dimensional image corrected by the stereo vision processor 14, A landing terrain reading unit 16 for analyzing the corrected three-dimensional image and analyzing whether there is an inclined terrain or an obstacle more than an angle set at the landing point and determining whether the terrain is landingable, And controls the plurality of drones 20 according to the topographic characteristics of the landing point analyzed through the corrected three-dimensional image to adjust the posture of the drones, And a landing position control unit (17) for controlling a rotating speed of the drones (20) to control the landing speed of the drones, wherein the drones Determine the coordinates of the flight line designed flying through the GPS receiver and the status viewer (400) and is characterized in that so that the drones can measure the depth of the water to move along the flight line.

본 발명에 따르면, 종래와는 차별적으로 사용자가 한 화면 내에서 항공측량장비를 통해 촬영한 대상지역을 육안으로 확인하되 촬영한 대상지역의 데이터 처리에 필요한 파라미터를 효율적으로 관리하여 사용자가 데이터 처리에 필요한 공정의 혼란이 없이 용이하게 처리할 수 있는 효과를 갖는다.According to the present invention, it is possible to visually confirm a target area photographed by a user through an airborne surveying equipment in a screen different from a conventional one, and efficiently manage parameters necessary for data processing of a photographed area, It has an effect that it can be easily processed without confusion of a necessary process.

또한 주간 및 야간에 드론 착륙 지점의 3차원 지형을 스테레오 비젼으로 분석하고, 분석된 3차원 지형에 따라 착륙 지점 및 착륙 자세를 자동으로 설정하여 드론을 조정하는 작업자가 원거리에서도 조정할 수 있는 효과를 갖는다.In addition, the 3D terrain of the drone landing point is analyzed by stereo vision at daytime and nighttime, and the operator who adjusts the drone by automatically setting the landing point and the landing posture according to the analyzed 3D terrain has the effect of being able to adjust the distance from the distance .

도 1은 종래의 항공측량장치를 이용한 데이터처리 소프트웨어의 출력화면을 나타낸 도면.
도 2는 본 발명에 따른 한국형 수심측량장비의 데이터 전처리를 위한 데이터 처리 소프트웨어 구조의 출력화면을 나타낸 도면.
도 3은 본 발명에 따른 한국형 수심측량장비의 데이터 전처리를 위한 데이터 처리 소프트웨어 구조의 파일입력 탭과 포인트 생성 탭을 나타낸 도면.
도 4는 본 발명에 따른 한국형 수심측량장비의 데이터 전처리를 위한 데이터 처리 소프트웨어 구조의 캘리브레이션 다이얼로그를 나타낸 도면.
도 5는 본 발명에 따른 한국형 수심측량장비의 데이터 전처리를 위한 데이터 처리 소프트웨어 구조의 글로벌뷰어와 레이어뷰어를 나타낸 도면.
도 6은 본 발명에 따른 한국형 수심측량장비의 데이터 전처리를 위한 데이터 처리 소프트웨어 구조의 스테이터스뷰어를 나타낸 도면.
도 7은 본 발명에 따른 한국형 수심측량장비의 데이터 전처리를 위한 데이터 처리 소프트웨어 구조의 구조설계를 나타낸 흐름도.
도 8은 본 발명에 따른 한국형 수심측량장비의 데이터 전처리를 위한 데이터 처리 소프트웨어 구조의 실행개념을 나타낸 흐름도.
도 9는 본 발명에 따른 한국형 수심측량장비의 데이터 전처리를 위한 데이터 처리 소프트웨어 구조의 비행수단인 드론을 나타낸 도면.
도 10은 도 9에 대한 드론의 스테레오 카메라부를 나타내 부분도이다.
도 11은 도 9에 대한 드론의 높이별 착륙 상태도이다.
도 12는 도 9에 대한 드론의 제1 지형 착륙 상태도이다.
도 13은 도 9에 대한 드론의 제2 지형 착륙 상태도이다.
1 is a view showing an output screen of data processing software using a conventional airborne surveying apparatus.
2 is a view showing an output screen of a data processing software structure for data preprocessing of a Korean type water depth surveying instrument according to the present invention.
3 is a diagram illustrating a file input tab and a point creation tab of a data processing software structure for data preprocessing of a Korean type water depth surveying instrument according to the present invention.
4 is a diagram showing a calibration dialog of a data processing software structure for data preprocessing of a Korean type water depth surveying instrument according to the present invention.
5 is a view of a global viewer and a layer viewer of a data processing software structure for data preprocessing of a Korean type water depth measurement equipment according to the present invention.
6 shows a status viewer of a data processing software structure for data preprocessing of a Korean type water depth surveying instrument according to the present invention.
FIG. 7 is a flow chart illustrating a structure design of a data processing software structure for data preprocessing in a Korean type water depth surveying instrument according to the present invention.
FIG. 8 is a flowchart showing an execution concept of a data processing software structure for data preprocessing of a Korean type water depth surveying instrument according to the present invention.
9 shows a drone as a means of flight of a data processing software structure for data preprocessing of a Korean type water depth surveying instrument according to the present invention.
Fig. 10 is a partial view showing the stereo camera unit of the drone shown in Fig. 9. Fig.
FIG. 11 is a state diagram showing the landing state of the dron according to FIG. 9; FIG.
Figure 12 is a first terrain landing state diagram of the drones of Figure 9;
Figure 13 is a second terrain landing state diagram of the drones of Figure 9;

이하, 첨부된 도면을 참조하여 본 발명에 따른 한국형 수심측량장비의 데이터 전처리를 위한 데이터 처리 소프트웨어 구조(이하, 간략하게 '데이터 처리 소프트웨어 시스템'이라 한다)에 대하여 설명한다. 설명에 앞서, 본 발명에서 의미하는 사용자는 비행수단을 이용한 수심측량의 전체 공지를 숙지하고 있는 작업자로 정의한다.Hereinafter, a data processing software structure (hereinafter briefly referred to as a 'data processing software system') for data preprocessing of a Korean type water depth surveying instrument according to the present invention will be described with reference to the accompanying drawings. Prior to the description, the user defined in the present invention is defined as an operator who knows the entire notice of the depth measurement using the flight means.

본 발명에 따른 데이터 처리 소프트웨어 시스템은 도 2에 도시한 바와 같이, 메인인터페이스(100), 글로브뷰어(200), 레이어뷰어(300) 및 스테이터스뷰어(400)를 포함하는 구성설계로 이루어진다.(표 1 참조)The data processing software system according to the present invention includes a main interface 100, a globe viewer 200, a layer viewer 300, and a status viewer 400 as shown in FIG. 1)

Figure 112016097398546-pat00001
Figure 112016097398546-pat00001

여기서, 메인인터페이스(100)는 데이터 처리에 필요한 다양한 형식의 파일들이 입력받아 동기화하기 위한 것으로 파일입력탭(110), 포인트생성탭(120) 및 캘리브레이션 다이얼로그(130)를 포함하는 구성으로 이루어져 화면상에 사용자가 선택적으로 각각 입력할 수 있도록 표시된다.(표 2 참조) The main interface 100 includes a file input tab 110, a point creation tab 120 and a calibration dialog 130 for inputting and receiving various types of files required for data processing. (See Table 2). ≪ tb > < TABLE > Id = Table 2 Columns =

Figure 112016097398546-pat00002
Figure 112016097398546-pat00002

파일입력탭(110)은 항공수심측정장치를 통해 항공촬영된 촬영정보파일, SBET(Smoothed Best Estimate of Trajectory)파일 및 원시 데이터파일 등이 입력되어 사용자로 하여금 동기화를 실시할 수 있도록 한다. 이때, 파일입력탭(110)과 후술하는 포인트생성탭(120)은 메인인터페이스(100)의 한 화면에 분리구성되어 사용자의 클릭에 따라 화면상에 출력되도록 하는 것이 바람직하다.(도 3의 (a)참조)The file input tab 110 allows the user to perform synchronization by inputting an aerial photographed information file, a Smoothed Best Estimate of Trajectory (SBET) file, and a raw data file, etc., through an airborne depth measuring device. In this case, it is preferable that the file input tab 110 and the point creation tab 120, which will be described later, are separately configured on one screen of the main interface 100 and are output on the screen according to a click of the user. a)

아울러 SBET 파일은 대상지역의 촬영을 완료한 시점에서 촬영 단시, GPS 및 INS 데이터를 이용하여 촬영시간 동안 비행체의 위치, 속도 및 자세(자세각도) 등에 관한 정보를 후처리 과정을 통해 저장한 파일을 의미하며, 파일입력탭에서는 상술한 SBET 파일과 함께 다른 동기화를 이룰 수 있는 파일이 입력되어 항공기에 관한 각 촬영위치 및 자세각에 맞는 포인트 데이터를 획득할 수 있게 된다.In addition, the SBET file stores information about the position, speed, and posture (posture angle) of the air vehicle during post-processing time using the GPS, INS data, In the file input tab, a file capable of achieving different synchronization with the above-described SBET file is input, so that point data corresponding to each photographing position and attitude angle with respect to the aircraft can be acquired.

포인트생성탭(110)은 LAS 포멧의 포인트 클라우드 파일을 생성하기 위한 파라미터를 입력받는다. 이때, 포인트생성탭(110)에서는 사용자가 레이저, 스캐너, IMU 와 관련된 시스템 파라미터와 대기, 해양환경 등의 소프트웨어 파라미터를 구분하여 입력할 수 있도록 하여 사용자가 최종적으로 사용할 수 있는 포인트 데이터 즉, LAS 포멧을 생성하도록 하는 것이 바람직하다.(도 3의 (b)참조)The point creation tab 110 receives a parameter for generating a point cloud file in the LAS format. In this case, the point creation tab 110 allows the user to separately input the system parameters related to the laser, the scanner, and the IMU, and the software parameters such as the atmospheric environment and the marine environment, so that the user can finally use the point data, (See Fig. 3 (b)).

아울러 포인트생성탭에서 의미하는 LAS 포멧은 측량분야에서는 대표적으로 사용하는 상용포멧으로 본 발명의 요지를 흐리지 않도록 상세한 설명은 생략한다.In addition, the LAS format in the point creation tab is a commercial format that is typically used in the field of surveying, and a detailed description thereof will be omitted so as not to obscure the gist of the present invention.

캘리브레이션 다이얼로그(130)는 캘리브레이션의 기준이 되는 파일을 입력한 뒤 실제 취득한 데이터와 비교함으로써, 비행수단의 자세(자세각)와 관련한 파라미터 보정 수치를 결정하도록 한다.(도 4 참조)The calibration dialog 130 is used to determine a parameter correction value related to the attitude (attitude angle) of the flying means by comparing the actually acquired data after inputting the file as a reference of the calibration (see FIG. 4)

글로브뷰어(200)는 도 5에 도시한 바와 같이, 파일입력탭(110)의 후처리 과정으로 출력되되 웹 기반 지도 AIP(공중위치지시기:air-position indicator)와 연동되며, 동일 인터페이스에 영상 및 벡터 파일을 화면상에 표시한다.As shown in FIG. 5, the globe viewer 200 is output as a post-process of the file input tab 110, and is linked with a web-based map AIP (air-position indicator) The vector file is displayed on the screen.

아울러 글로브뷰어(200)를 호출 시 입력된 파일정보의 위치정보를 바탕으로 대상지역에서의 데이터 취득 현황 및 비행 정보를 확인할 수 있도록 한다.In addition, the data acquisition status and the flight information in the target area can be confirmed based on the position information of the file information inputted when the globe viewer 200 is called.

레이어뷰어(300)는 데이터 처리와 관련하여 사용자가 파일입력탭(110)에서 입력한 파일들의 레이어 계층 구조를 확인할 수 있도록 표시한다.The layer viewer 300 displays the layer hierarchy of the files input by the user in the file input tab 110 in relation to data processing.

아울러 사용자는 파일을 선택시에 레이어뷰어(300) 인터페이스 하단에서 해당 파일의 메타데이타를 확인할 수 있도록 한다.In addition, when the user selects a file, the user can check the metadata of the file at the bottom of the layer viewer 300 interface.

스테이터스뷰어(400)는 도 6에 도시한 바와 같이, 파일입력탭(110)을 통해 입력된 원시데이터 즉, 항공수심측량장비를 통해 취득한 데이터에 관한 정보를 출력한다.As shown in FIG. 6, the status viewer 400 outputs the raw data input through the file input tab 110, that is, information about data acquired through the airborne depth measuring equipment.

아울러 스테이터스뷰어(400)는 사용자가 상기 스테이터스뷰어 목록에서 원하는 경로의 원시데이터를 선택시에 정확한 위치와 데이터 취득 현황 등을 글로브뷰어에서 확인할 수 있도록 하며, 글로브뷰어를 통해 미리 측량대상지역을 비행하는 비행수단의 이동경로인 플라이트라인을 설정하여 모의비행할 수 있도록 한다.In addition, the status viewer 400 enables the user to check the accurate position and data acquisition status in the globe viewer when the user selects raw data of a desired path in the list of status viewers, A flight line, which is a movement path of the flight means, is set so that the flight can be simulated.

한편, 상술한 본 발명에 따른 데이터 처리 소프트웨어의 구조설계는 도 7에 도시한 바와 같이, 작업제어, 데이터제공 및 포인트 데이터 생성을 포함하는 핵심패키지(500) 및 맵컨트롤, 공간정보포멧관리, 촬영정보편집, 포인트 생성 파라미터 관리 및 데이터보정을 포함하는 공통패키지(600)를 포함하는 구조로 설계된다.(표 3 참조) As shown in FIG. 7, the structure design of the data processing software according to the present invention includes a core package 500 including job control, data provision and point data generation, map control, spatial information format management, A common package 600 including information editing, point creation parameter management, and data correction (see Table 3).

Figure 112016097398546-pat00003
Figure 112016097398546-pat00003

아울러 핵심패키지(500)는 본 발명인 소프트웨어의 전체적인 인터페이스, 컨트롤 및 기능을 수행하며, 공통패키지(600)는 핵심패키지(500)의 보조(서브)시스템의 개념으로 본 발명인 데이터 처리 소프트웨어 시스템의 전체 기능을 모듈화한 것이다.In addition, the core package 500 performs overall interface, control, and functions of the software of the present invention. The common package 600 is a concept of an auxiliary (sub) system of the core package 500, .

작업제어(510)는 본 발명인 데이터 처리 소프트웨어 시스템의 인터페이스 및 전체흐름과 관련된 일련의 기능을 제공하는 모듈이다.Job control 510 is a module that provides a set of functions related to the interface and overall flow of the data processing software system of the present invention.

데이터제공(520)은 영상데이터, 벡터데이터 및 소프트웨어에 입/출력되는 공간정보를 관리할 수 있는 일련의 기능들을 제공한다.The data provision 520 provides a series of functions for managing image data, vector data, and spatial information input / output to / from software.

포인트 데이터 생성(530)은 포인트 데이터 생성을 위한 변수입력 및 알고리즘 적용 등의 기능을 제공한다.Point data generation 530 provides functions such as variable input and algorithm application for generating point data.

맵컨트롤(610)은 API 연동을 위한 각종 기능을 관리하는 모듈을 의미한다.The map control 610 is a module for managing various functions for API interworking.

공간정보포멧관리(620)는 본 발명인 소프트웨어에 입/출력되는 각종 공간정보 포멧을 관리하는 모듈이다.The spatial information format management module 620 is a module for managing various spatial information formats input to / output from the software of the present invention.

촬영정보편집(630)은 항공기의 비행궤도 및 포인트 생성 영역을 편집할 때 필요한 변수와 기능들을 제공하는 모듈이다.The shooting information editing 630 is a module for providing variables and functions necessary for editing the flight trajectory and the point creating area of the aircraft.

포인트 생성 파라미터 관리(640)는 촬영을 통해 입력되는 웨이브폼을 포인트 데이터로 변환하기 위한 변수 및 기능들을 관리한다.The point generation parameter management 640 manages variables and functions for converting a waveform input through shooting into point data.

데이터보정(650)은 임시로 생성된 포인트 데이터들의 캘리브레이션을 위한 변수 및 기능들을 관리하는 것을 의미한다.Data correction 650 refers to managing variables and functions for calibration of temporarily generated point data.

또한 구조설계 중 외부 엔진 및 라이브러리와 연결되는 컴포넌트는 맵컨트롤(610), 공간정보포맷관리(620), 촬영정보편집(630) 및 데이터보정(650)으로 OpenGL엔진을 포함한 다양한 공간정보 편집 라이브러리 등과 연동되어 사용자에게 촬영설계를 위한 각종 추가기능을 서비스할 수 있도록 설계된다.In addition, the components connected to the external engine and the library during the structural design include a map control 610, a spatial information format management 620, a shooting information editing 630, and a data correction 650, and various spatial information editing libraries including an OpenGL engine It is designed to be able to serve various additional functions for the photographing design to the user.

이하, 상술한 구성설계, 구조설계 및 첨부된 도면을 참조하여 본 발명의 바람직한 데이터 처리 소프트웨어 시스템의 실행개념에 관하여 설명한다.Hereinafter, the execution concept of the preferred data processing software system of the present invention will be described with reference to the above-described configuration design, structural design, and attached drawings.

먼저, 도 8에 도시한 바와 같이, 사용자가 소프트웨어를 실행하면 작업제어인 메인뷰어가 출력되며, 그 작업제어를 통해 SBET 데이터를 입력하여 포인트 데이터를 생성한다.. 이때, 필요에 따라 사용자는 영상데이터 및 벡터데이터를 입력하여 포인터 데이터 생성에 필요한 추가정보를 제공하도록 하는 것이 바람직하다.First, as shown in FIG. 8, when the user executes software, the main viewer, which is the job control, is outputted, and SBET data is inputted through the job control to generate point data. At this time, It is desirable to input data and vector data to provide additional information necessary for generating pointer data.

그 다음, 맵컨트롤을 통해 메인뷰어가 출력됨과 동시에 구글에서 제공하는 지도가 화면상에 출력되며, 데이터제공을 통해 사용자가 선택한 공간정보가 화면상에 같이 출력된다.Then, the main viewer is outputted through the map control, and at the same time, a map provided by Google is displayed on the screen, and the spatial information selected by the user is output on the screen through data provision.

그 다음, 포인트파라미터 관리를 통해 사용자는 시스템변수 파라미터, 환경 변수 파라미터 및 수계 변수 파라미터 등을 입력한다.Then, through the point parameter management, the user inputs system parameter parameters, environmental parameter parameters, and water parameter parameters.

그 다음, 사용자가 참조 포인트 데이터를 입력한다. 이때, 필요에 따라 사용자의 선택에 의해 생성된 포인트 데이터의 위치 및 자세각을 이동하여 데이터 보정 파라미터를 저장한다.The user then enters the reference point data. At this time, the position and attitude angle of the point data generated by the user's selection is moved as necessary to store the data correction parameter.

다음으로 본 발명에 따른 데이터 처리 소프트웨어 시스템의 활용을 위해 직접적으로 수심을 측정하는 비행수단인 드론(D)에 대하여 상세히 설명한다.Next, the drone (D), which is a flight means for directly measuring the water depth, will be described in detail in order to utilize the data processing software system according to the present invention.

도 9를 참조하면 드론(D)은 드론 몸체(10) 및 드론 날개(20)로 이루어진 드론(drone)은 사용자에 의해 원격으로 조종되고, GPS 수신기와, 거리센서(112)와, 제1알람신호 생성기(116)와, 카메라(114)를 탑재하고 있다.Referring to FIG. 9, the drone D includes a drone, which is composed of a drone body 10 and a drone blade 20, is remotely controlled by a user and includes a GPS receiver, a distance sensor 112, A signal generator 116, and a camera 114 are mounted.

아울러 드론(110)는 도 10에 도시한 바와 같이, 그외의 필수 구성으로 배터리, 원격 송수신부(R), 비행 조종부(C) 및 수심측정기 등을 더 포함한다.10, the drone 110 further includes a battery, a remote transmission / reception unit R, a flight control unit C, a water depth meter, and the like as other essential components.

이들 중 배터리, 원격 송수신부(R), 비행 조종부(C) 및 수심측정기는 드론(D) 내부에 설치된다. 드론 날개(20)는 드론 몸체(10)의 상측 둘레를 따라 일정 간격으로 배치되며 각각 전기 모터의 회전축에 연결된다.Among them, the battery, the remote transmission / reception unit R, the flight control unit C, and the water depth meter are installed inside the drone D. The drone wings 20 are arranged at regular intervals along the upper circumference of the drone body 10 and are respectively connected to the rotary shaft of the electric motor.

이때 배터리는 충전 가능한 2차 전지가 사용되며, 배터리의 전원은 레귤레이터, 전원 변환부 및 속도 제어부 등의 전기 회로를 통해 드론 날개(20)가 연결된 전기 모터에 전원을 공급하고, 수심측정기는 통상의 직진성을 갖는 레이저 등을 해수면 상부에서 조사하여 측량대상지역의 수심을 측정하는 통상의 수심측정기를 사용한다.In this case, a rechargeable secondary battery is used, and the power source of the battery supplies electric power to the electric motor to which the drone blade 20 is connected through an electric circuit such as a regulator, a power conversion unit and a speed control unit, A normal depth meter for measuring the depth of the survey target area by irradiating a laser beam having a straightness from above the sea surface is used.

상기 거리센서(S)는 지면 상의 물체와 드론 간 거리를 측정하여 출력한다. The distance sensor S measures and outputs the distance between the object on the ground and the drones.

상기 제1알림신호 생성기(811)는 거리센서(S)의 출력값과 미리 설정된 기준값을 비교한 후, 상기 출력값이 기준값 이하일 때 제1알람신호를 생성한다.The first notification signal generator 811 compares an output value of the distance sensor S with a predetermined reference value and generates a first alarm signal when the output value is less than a reference value.

제1알람신호가 생성되었다는 것은 드론이 지면 상의 물체에 근접하여 충돌할 위험이 발생하였음을 의미한다.The generation of the first alarm signal means that there is a risk that the drones will collide close to the object on the ground.

제1알람신호 생성기(811)에 의해 생성된 제1알람신호는 드론의 통신장치에 의해 단말기(120) 즉, 본 발명에 따른 비행설계 소프트웨어를 관리하는 사용자 단말기로 전송된다. The first alarm signal generated by the first alarm signal generator 811 is transmitted by the communication device of the drones to the terminal 120, i.e., the user terminal managing the flight design software according to the present invention.

상기 카메라(812)는 드론 전방의 영상을 획득하고, 획득된 영상은 상기 통신장치에 의해 관리자가 육안으로 식별할 수 있도록 사용자 단말기로 전송되어 측량대상지역에서 먼 거리에 있어도 사용자(작업자)는 원격으로 드론을 조종할 수 있도록 한다.The camera 812 acquires an image in front of the drones, and the acquired image is transmitted to the user terminal by the communication device so that the administrator can visually identify the captured image, and the user (operator) To control the drones.

상기 원격 송수신부(R)는 먼 거리에서 관리자가 드론을 원격으로 조종하여 측량대상지역까지 도달할 수 있도록 무선 조종기와 할당된 대역(2.4GHz, 4GHz 등)의 무선 주파수 통신을 하며, 비행 조종부(C)는 수신된 조종신호에 따라 전기 모터의 구동 및 회전 속도를 각각 독립 제어한다.The remote transceiver R performs radio frequency communication with the radio controller in the allocated band (2.4 GHz, 4 GHz, etc.) so that the manager can control the dron remotely from a distance and reach the survey target area, (C) independently controls driving and rotating speeds of the electric motor in accordance with the received control signal.

이때, 사용자는 드론에 구비된 GPS 수신기와 상술한 스테이터스 뷰어(400)를 통해 비행설계된 플라이트라인의 좌표값을 확인하여 상기 드론이 플라이트라인을 따라 이동하여 수심을 측정할 수 있도록 하는 것이 바람직하다.At this time, it is preferable that the user confirms coordinate values of the flight line designed for flight through the GPS receiver provided in the drones and the status viewer 400 described above, and the dron can move along the flight line to measure the depth of water.

따라서 다수의 전기 모터를 제어하여 각각의 드론 날개(20)를 원격으로 조정함으로써 이륙 및 비행을 가능하게 하며 이점은 일반적인 드론와 같다. 그러나 본 발명이 적용된 드론은 착륙 지점의 지형에 따라 자동으로 착륙을 가능하게 한다.Thus, by controlling a number of electric motors and remotely adjusting each of the drones 20, it is possible to take off and fly, the advantage being the same as a general drones. However, the dron to which the present invention is applied enables landing automatically according to the terrain of the landing point.

이를 위해, 도 9 및 도 10과 같이 드론은 제1 메인 카메라(11-1), 제2 메인 카메라(11-2), 제1 적외선 카메라(12-1), 제2 적외선 카메라(12-2)를 더 포함하며, 드론 몸체(10) 내부에는 드론의 착륙지점을 판독하는 착륙제어부인 모드 판단부(13), 스테레오 비젼 처리부(14), 카메라 구동부(15), 착륙 지형 판독부(16), 착륙 자세 제어부(17) 및 메인 컨트롤러(18)를 포함한다.For this purpose, as shown in Figs. 9 and 10, the dron is divided into a first main camera 11-1, a second main camera 11-2, a first infrared camera 12-1, a second infrared camera 12-2 A stereo determination unit 14, a camera driving unit 15, a landing terrain reading unit 16, and a landing position reading unit 16, which are landing control units for reading landing points of the drones, A landing attitude control unit 17, and a main controller 18. [

이때, 제1 메인 카메라(11-1)는 착륙 대기중인 드론의 직하부에 존재하는 착륙 지점을 촬영하고, 제2 메인 카메라(11-2)는 제1 메인 카메라(11-1)로부터 설정된 베이스 라인(L)만큼 이격 설치되며, 드론의 직하부에 존재하는 착륙 지점을 촬영한다.At this time, the first main camera 11-1 shoots a landing spot directly underneath the drones waiting for landing, and the second main camera 11-2 shoots a landing spot existing under the drones waiting for landing, A line (L) is set apart and a landing spot directly below the dron is photographed.

제1 적외선 카메라(12-1)는 착륙 대기중인 드론의 직하부에 존재하는 착륙 지점을 촬영하고, 제2 적외선 카메라(12-2)는 제1 적외선 카메라(12-1)로부터 설정된 베이스 라인(L)만큼 이격 설치되며, 드론의 직하부에 존재하는 착륙 지점을 촬영한다.The first infrared camera 12-1 photographs a landing spot directly underneath the drones waiting for landing, and the second infrared camera 12-2 photographs a landing spot located below the drones waiting for landing, L), and photographs the landing spot directly beneath the drones.

제1 메인 카메라(11-1) 및 제2 메인 카메라(11-2)는 주간(day time)에 사용되는 스테레오 카메라에 해당하는 것으로, 제1 메인 카메라(11-1)는 좌안 영상에 해당하는 영상을 촬영하고, 제2 메인 카메라(11-2)는 우안 영상에 해당하는 영상을 촬영한다.The first main camera 11-1 and the second main camera 11-2 correspond to a stereo camera used for day time, and the first main camera 11-1 corresponds to a left camera And the second main camera 11-2 captures an image corresponding to the right-eye image.

제1 적외선 카메라(12-1) 및 제2 적외선 카메라(12-2)는 야간(night time)에 사용되는 스테레오 카메라에 해당하는 것으로, 제1 적외선 카메라(12-1)는 좌안 영상에 해당하는 영상을 촬영하고, 제2 적외선 카메라(12-2)는 우안 영상에 해당하는 영상을 촬영한다.The first infrared camera 12-1 and the second infrared camera 12-2 correspond to a stereo camera used at night time, and the first infrared camera 12-1 corresponds to the left eye image And the second infrared camera 12-2 captures an image corresponding to the right-eye image.

해당 주간에 사용되는 제1 메인 카메라(11-1) 및 제2 메인 카메라(11-2)와 야간에 사용하는 제1 적외선 카메라(12-1) 및 제2 적외선 카메라(12-2)는 모드판단부(13)를 통해 사용자의 선택에 따라 지정되어 사용할 수 있으며, 경우에 따라서는 드론(110) 내부에 탑재된 타이머(미도시)를 통해 상기 드론이 자동으로 판단하여 작동할 수 있도록 한다.The first main camera 11-1 and the second main camera 11-2 and the first infrared camera 12-1 and the second infrared camera 12-2 which are used at night are used in the mode And may be designated and used according to the user's selection through the determination unit 13. In some cases, the drones may automatically determine and operate the drones through a timer (not shown) mounted in the drones 110. [

바람직한 실시예로써 도시한 바와 같이 제1 메인 카메라(11-1) 및 제1 적외선 카메라(12-1)는 좌측(도면 기준)의 제1 모듈부(30-1)에 함께 설치된다. 제2 메인 카메라(11-2) 및 제2 적외선 카메라(12-2)는 반대측의 제2 모듈부(30-2)에 함께 설치된다.As shown in the preferred embodiment, the first main camera 11-1 and the first infrared camera 12-1 are installed together in the first module unit 30-1 on the left side (drawing reference). The second main camera 11-2 and the second infrared camera 12-2 are installed together in the second module unit 30-2 on the opposite side.

따라서 제1 모듈부(30-1) 및 제2 모듈부(30-2)에 설치된 제1 메인 카메라(11-1) 및 제2 메인 카메라(11-2)는 서로 이격되며, 이를 '베이스 라인(L)'이라 한다. 마찬가지로 제1 적외선 카메라(12-1) 및 제2 적외선 카메라(12-2) 역시 베이스 라인(L) 만큼 이격된다.Accordingly, the first main camera 11-1 and the second main camera 11-2 provided on the first module unit 30-1 and the second module unit 30-2 are spaced from each other, (L) '. Likewise, the first infrared camera 12-1 and the second infrared camera 12-2 are also spaced apart from each other by the baseline L.

또한 제1 모듈부(30-1)와 제2 모듈부(30-2)는 구동기(40)의 양측에 각각 연결된 좌우 지지암(50-1, 50-2)에 설치되며, 구동기(40)는 지지암(50-1, 50-2)을 회전시키도록 모터 및 기어를 구비한다. The first module unit 30-1 and the second module unit 30-2 are installed on the left and right support arms 50-1 and 50-2 respectively connected to both sides of the actuator 40, A motor and gears for rotating the support arms 50-1 and 50-2.

따라서 제1 모듈부(30-1) 및 제2 모듈부(30-2)를 일정 범위(예: 360°)내에서 회전시킴으로써 착륙시는 지면을 바라본 상태로 촬영을 하고 보고 비행 중에는 전방을 바라보도록 회전한다.Therefore, when the first module unit 30-1 and the second module unit 30-2 are rotated within a certain range (e.g., 360 degrees), the photographing is performed while looking at the ground during landing, .

또한 구동기(40)는 지지암(50-1, 50-2)을 설정된 범위에서 외측으로 인출하거나 내측으로 인입시킨다. 구동기(40)에 의해 지지암(50-1, 50-2)이 수평 왕복운동을 하면 제1 모듈부(30-1) 및 제2 모듈부(30-2)간의 거리가 조절됨으로써 상술한 '베이스 라인(L)'이 조정된다. Further, the driver 40 draws the support arms 50-1 and 50-2 outward or inward in a set range. The distance between the first module unit 30-1 and the second module unit 30-2 is adjusted when the support arms 50-1 and 50-2 are horizontally reciprocated by the actuator 40, The baseline L 'is adjusted.

아래에서 다시 설명하는 바와 같이 베이스 라인(L)의 조정으로 공중에서 착륙 대기 중인 드론(110)에서 그 직하부의 착륙 지점에 대한 지면 형상을 3차원으로 정밀하게 촬영할 수 있게 된다.As will be described below, the adjustment of the base line L enables the drone 110, which is waiting in the air for landing, to accurately photograph the ground surface shape in the three-dimensional manner with respect to the landing spot directly underneath.

한편, 모드 판단부(13)는 드론이 비행 중인 현재의 시점이 주간인지 또는 야간인지를 판별한다. 주간 또는 야간의 구분은 촬영 중인 카메라(114)에 수광되는 광량으로 판단되며 가시광선이 풍부한 주간과 그렇지 못한 야간으로 구분된다.On the other hand, the mode determination unit 13 determines whether the present time of the drones in flight is the daytime or the nighttime. The daytime or nighttime distinction is distinguished by the amount of light received by the camera 114 being photographed, and is divided into a daytime in which the visible light is abundant and a nighttime in which it is not.

따라서 제1 메인 카메라(11-1) 및 제2 메인 카메라(11-2)에서 촬영한 영상으로 스테레오 비젼 기법을 적용할지 혹은 제1 적외선 카메라(12-1) 및 제2 적외선 카메라(12-2)에서 촬영한 영상으로 스테레오 비젼 기법을 적용할지 결정된다.Therefore, the stereoscopic vision technique is applied to the images photographed by the first main camera 11-1 and the second main camera 11-2, or the first infrared camera 12-1 and the second infrared camera 12-2 ), The stereovision technique is applied.

이러한 모드 판단부(13)는 통상의 광량 센서가 사용될 수 있다. 또한 별도의 센서를 사용하지 않고도 제1 메인 카메라(11-1) 및 제2 메인 카메라(11-2)에서 실시간 촬영한 영상의 R/G/B 픽셀이나 휘도를 분석하여 판단할 수도 있다.The mode determination unit 13 may be a conventional light amount sensor. Also, the first main camera 11-1 and the second main camera 11-2 may analyze the R / G / B pixels and the brightness of the image captured in real time without using a separate sensor.

스테레오 비젼 처리부(14)는 잘 알려진 바와 같이 카메라의 초점거리, 카메라의 촬영자세 및 베이스 라인(L) 간격 등과 함께 좌안 영상과 우안 영상을 스테레오 정합시킴으로써 착륙 지점의 3차원 영상을 획득한다.The stereo vision processor 14 acquires a three-dimensional image of the landing spot by stereo-matching the left eye image and the right eye image together with the focal length of the camera, the photographing posture of the camera, and the spacing of the baseline (L).

이러한 스테레오 비젼 처리부(14)의 판단에 따라 주간에는 제1 메인 카메라(11-1) 및 제2 메인 카메라(11-2)에서 촬영한 좌측 영상(즉, 좌안 영상) 및 우측 영상(즉, 우안 영상)을 스테레오 정합시켜 착륙 지점의 3차원 영상을 제공한다.In accordance with the determination of the stereovision processing unit 14, the left image (i.e., the left eye image) and the right image (i.e., right eye image) captured by the first main camera 11-1 and the second main camera 11-2 Image) to provide a three-dimensional image of the landing point.

반면 모드 판단부(13)의 판단 결과 야간인 경우에는 제1 적외선 카메라(12-1)에서 촬영한 좌측 영상 및 제2 적외선 카메라(12-2)에서 촬영한 우측 영상을 스테레오 정합시켜 착륙 지점의 3차원 영상을 제공한다.On the other hand, if it is nighttime as a result of the determination by the mode determination unit 13, the left image photographed by the first infrared camera 12-1 and the right image photographed by the second infrared camera 12-2 are stereo- And provides a three-dimensional image.

상기 적외선 카메라를 이용하는 경우 그 프로세스에서 좀더 복잡한 점이 있을 뿐 좌우 적외선 카메라 영상으로부터 각각 추출된 영역을 중심으로 스테레오 정합을 수행하여 시차 정보를 추정하고, 카메라 파라미터와 시차 정보를 이용하여 실시간으로 착륙지점의 3차원 지형을 제공할 수 있다.In the case of using the infrared camera, the stereo information is estimated by performing stereo matching on the extracted regions from the left and right infrared camera images, which is more complicated in the process, and by using the camera parameters and time difference information, Three-dimensional topography can be provided.

카메라 구동부(15)는 스테레오 비젼 처리부(14)에서 제공된 3차원 영상에 따라 카메라의 초점 및 베이스 라인(L)의 간격 중 적어도 어느 하나 이상을 조절한다. 따라서 스테레오 비젼 처리부(14)에서 최적의 영상 품질을 갖는 '보정된 3차원 영상'을 제공할 수 있게 한다.The camera driver 15 adjusts at least one of the focus of the camera and the interval of the baseline L according to the three-dimensional image provided by the stereovision processor 14. Accordingly, the stereo vision processor 14 can provide a 'corrected three-dimensional image' having an optimal image quality.

이는 오토 포커스(auto-focus) 기능과 유사한 것으로 드론의 착륙 대기 높이에 따라 결정된다. 또한 착륙 지점에 존재하는 장애물이나 지형의 크기 및 형상 따라 자동으로 조절되는 기능이다.This is similar to the auto-focus function and is determined by the height of the drones' landing clearance. It is also a function that is automatically controlled according to the size and shape of obstacles or terrain at the landing point.

도 12의 (a) 및 (b)와 같이 드론(110)의 비행을 마치고 착륙 대기 위치에 도달한 경우 비행 중이던 고도에 따라 드론의 정지 높이(H1,H2)도 서로 다르기 때문에 착륙 지점까지의 높이가 달라진다. 그러므로 정밀한 영상 획득을 위해 카메라 구동부(15)가 보정 작업을 수행한다.12 (a) and 12 (b), when the drones 110 have arrived at the landing standby position, the stop heights H1 and H2 of the drones are also different from each other according to the altitude . Therefore, the camera driving unit 15 performs the correction operation for accurate image acquisition.

카메라 초점은 제1 메인 카메라(11-1), 제2 메인 카메라(11-2), 제1 적외선 카메라(12-1) 및 제2 적외선 카메라(12-2)의 초점 거리를 각각 조절하여 이루어지고, 베이스 라인(L)의 간격은 상술한 바와 같이 제1 모듈부(30-1) 및 제2 모듈부(30-2) 사이의 간격을 조절한다.The camera focus is adjusted by adjusting the focal lengths of the first main camera 11-1, the second main camera 11-2, the first infrared camera 12-1, and the second infrared camera 12-2 And the interval of the baseline L adjusts the interval between the first module unit 30-1 and the second module unit 30-2 as described above.

카메라 구동부(15)에서 구동기(40)로 명령을 전달하면, 구동기(40)는 지지암(50-1, 50-2)을 인입 또는 인출시킴으로써 제1 모듈부(30-1) 및 제2 모듈부(30-2) 사이의 간격(즉, 베이스 라인)이 조절된다.When the camera driver 15 transmits a command to the actuator 40, the actuator 40 moves the support arms 50-1 and 50-2 to the first module unit 30-1 and the second module 30-1, (I.e., the baseline) between the portions 30-2 is adjusted.

바람직하게는 각각의 카메라에 대한 카메라 초점 거리를 먼저 조절한 후 설정된 품질의 영상을 획득하지 못하는 경우 베이스 라인(L)의 간격을 조절하여 '보정된 3차원 영상'을 제공한다.Preferably, if the camera focal length for each camera is adjusted first and the image of the set quality is not obtained, the interval of the baseline L is adjusted to provide a 'corrected three-dimensional image'.

착륙 지형 판독부(16)는 이상과 같이 '보정된 3차원 영상'을 분석하여 착륙 지점에 설정된 각도보다 큰 경사지형이 있는지 또는 장해물이 있는지 등을 분석하여 착륙 가능한 지형인지 결정한다.The landing terrain reading unit 16 analyzes the 'corrected three-dimensional image' as described above to determine whether there is an inclined terrain larger than the angle set at the landing point or whether there is an obstacle, and determines whether the terrain is landing possible.

예컨대, 착륙 지점에 바위나 나무가 있음에도 착륙을 하면 드론의 유실 및 파손이 발생하고, 경사가 급한 지형에 착륙하면 드론dl 넘어지면서 회전중인 날개가 지면과 충돌하고 과부화로 인해 화재가 발생하기도 한다. 따라서, 착륙 지형 판독부(16)에서 보정된 3차원 영상을 통해 착륙지점을 확인한다.For example, if there is a rock or a tree at the landing point, landing will cause the loss and damage of the drone. When landing on the sloping terrain, the drone dl falls and the rotating wing collides with the ground and a fire occurs due to overloading. Therefore, the landing terrain reading unit 16 confirms the landing point through the corrected three-dimensional image.

착륙 지형 판독부(16)에서 판단 결과 착륙이 불가능한 지형으로 판단되면 전/후/좌/우 각 방향으로 이동해 가면서 착륙 가능한 지점을 재검색하고, 필요시는 단계별로 이동 거리를 늘려 재검색을 한다.If the landing terrain reading unit 16 determines that the landing is impossible, it is possible to re-search the landing points while moving in the forward / backward / left / right directions and re-search if necessary.

예컨대, 도 13과 같이 현재 착륙 대기중인 지점에 장해물이 있고, 장해물의 상단부로 드론이 안착하지 못할 정도의 폭이나 첨두부가 있는 경우에는 3차원 영상으로 이를 분석하여 옆으로 이동 후 정상적인 착륙을 하게 한다.For example, as shown in FIG. 13, when there is an obstacle at the current landing waiting position and there is a width or peak portion that the dron can not seat at the upper end of the obstacle, it is analyzed with a three-dimensional image to move to the side and make a normal landing .

아울러 본 발명에서의 드론은 상기 드론이 착륙 지형 판독부(16)를 통해 자동으로 착륙지점의 장애물 등을 확인하는 것으로 기재되어 있으나, 이는 하나의 실시예이며 필요에 따라서는 사용자 단말기로 전송되는 착륙지점의 보정된 영상을 통해 사용자가 직접 조정하여 드론을 착륙시킬 수 있음은 자명하다.In addition, although the dron according to the present invention is described in which the dron automatically checks an obstacle or the like at a landing point through the landing / landing reading unit 16, this is an embodiment, It is obvious that the user can directly adjust the drones through the corrected image of the point.

착륙 자세 제어부(17)는 착륙 지형 판독부(16)에 의해 착륙 가능한 지형인 것으로 판단된 경우, 착륙 지점의 지형 특성에 따라 다수개의 드론 날개(20)를 각각 제어하여 드론의 자세를 조절하고, 드론 날개(20)의 회전 속도를 제어하여 드론의 착륙 속도를 제어한다.The landing position control unit 17 controls the plurality of the drones 20 according to the topographic characteristics of the landing point to adjust the dron's position when the landing terrain reading unit 16 determines that the landing terrain is landingable, And controls the rotation speed of the drone blade 20 to control the speed of the drone.

따라서 드론이 사용자 단말기로부터 멀리 떨어져 있기 때문에 시야에서 벗어난 경우에도 그 드론의 스테레오 카메라로 착륙 지점의 지형을 판독하고 자동으로 안전한 장소를 선택하여 착륙할 수 있게 한다.Therefore, even when the drones are far away from the user's terminal, it is possible to read the terrain of the landing point with the stereo camera of the drone and automatically select a safe place to land.

예컨대, 도 13과 같이 연속된 경사 지형 중 A1 지점은 착륙이 불가하고 A2 및 A3 지점은 착륙이 가능한 경우, 착륙 가능한 지점 중 A2 지점은 드론이 수평하게 착륙할 수 있다. For example, as shown in FIG. 13, when the landing is not possible at the point A1 and the landing is possible at the point A2 and A3, the point A2 of the landing point can land the drones horizontally.

그러나 약간의 경사가 있는 A3 지점의 경우에는 자세를 보정하는 것이 바람직하다. 약간의 경사에도 드론이 아무런 자세 변경 없이 착륙하면 지면과의 충돌로 옆으로 기울 수 있으므로 드론 날개(20)를 조절하여 경사면에 수평하게 자세를 조절한다.However, in the case of the A3 point with slight inclination, it is desirable to correct the posture. Even if the drones land on a slight slope without any change of posture, the slope can be inclined sideways due to collision with the ground. Therefore, the drones 20 are adjusted to adjust the posture horizontally on the slope.

한편, 위에서 설명을 생략한 메인 컨트롤러(18)는 드론의 전반적인 제어를 위한 것으로, 위와 같은 모드 판단부(13), 스테레오 비젼 처리부(14), 카메라 구동부(15), 착륙 지형 판독부(16), 착륙 자세 제어부(17) 등의 전반적인 프로세스를 처리한다.The main controller 18 is provided for the overall control of the drone and includes the mode determination unit 13, the stereo vision processing unit 14, the camera driving unit 15, the landing terrain reading unit 16, The landing posture control unit 17, and the like.

이와 같은 구성으로 이루어진 본 발명에 따른 데이터 처리 소프트웨어 시스템은 종래와는 차별적으로 사용자가 한 화면 내에서 항공측량장비를 통해 촬영한 대상지역을 육안으로 확인하되 촬영한 대상지역의 데이터 처리에 필요한 파라미터를 효율적으로 관리하여 사용자가 데이터 처리에 필요한 공정의 혼란이 없이 용이하게 처리할 수 있는 효과를 갖는다.The data processing software system according to the present invention having the above-described structure identifies the target area photographed by the user through the aviation surveying equipment in a screen different from the conventional one, and determines parameters necessary for data processing of the photographed area So that the user can easily process the data without disruption of the process necessary for data processing.

또한 수심을 측정하기 위한 비행수단인 드론을 사용자가 먼 거리에서도 플라이트라인에 의거한 조정이 가능함과 동시에 비행 중이거나 또는 착륙지점의 장애물들을 판독할 수 있어 경제적인 수심측정이 가능한 효과를 갖게 된다.In addition, the drone, a flying means for measuring water depth, can be adjusted based on a flight line even at a long distance, and it is possible to read the obstacles in flight or at landing points, thereby achieving economical depth measurement.

이상, 본 발명의 특정 실시예에 대하여 상술하였다. 그러나, 본 발명의 사상 및 범위는 이러한 특정 실시예에 한정되는 것이 아니라, 본 발명의 요지를 변경하지 않는 범위 내에서 다양하게 수정 및 변형 가능하다는 것을 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 이해할 것이다. The specific embodiments of the present invention have been described above. It is to be understood, however, that the spirit and scope of the invention are not limited to these specific embodiments, but that various changes and modifications may be made without departing from the spirit of the invention, If you are a person, you will understand.

따라서, 이상에서 기술한 실시예들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이므로, 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 하며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Therefore, it should be understood that the above-described embodiments are provided so that those skilled in the art can fully understand the scope of the present invention. Therefore, it should be understood that the embodiments are to be considered in all respects as illustrative and not restrictive, The invention is only defined by the scope of the claims.

100: 메인인터페이스 110: 파일입력탭
120: 포인트생성탭 130: 캘리브레이션 다이얼로그
200: 글로벌뷰어 300: 레이어뷰어
400: 스테이터스뷰어 500: 핵심패키지
510: 작업제어 520: 데이터제공
530: 포인트 데이터생성 600: 공통패키지
610: 맵컨트롤 620: 공간정보포맷관리
630: 촬영정보편집 640: 포인터생성 파라미터
650: 데이터보정 10: 드론 몸체
20: 드론 날개 30-1, 30-2: 모듈부
40: 구동기 50-1, 50-2: 지지암
11-1: 제1 메인 카메라 11-2: 제2 메인 카메라
12-1: 제1 적외선 카메라 12-2: 제2 적외선 카메라
13: 모드 판단부 14: 스테레오 비젼 처리부
15: 카메라 구동부 16: 착륙 지형 판독부
17: 착륙 자세 제어부 18: 메인 컨트롤러
C: 비행 조종부 D: 드론
100: main interface 110: file input tab
120: Point creation tab 130: Calibration dialog
200: Global Viewer 300: Layer Viewer
400: Status Viewer 500: Core Package
510: job control 520: data provision
530: Generation of point data 600: Common package
610: Map Control 620: Manage Spatial Information Format
630: Editing shooting information 640: Pointer generation parameter
650: Data correction 10: Drone body
20: drone blade 30-1, 30-2:
40: actuators 50-1, 50-2: support arms
11-1: First main camera 11-2: Second main camera
12-1: first infrared camera 12-2: second infrared camera
13: Mode determination unit 14: Stereo vision processor
15: camera driving unit 16: landing terrain reading unit
17: landing attitude control unit 18: main controller
C: Flight Control Department D: Drones

Claims (1)

비행수단에 장착된 항공측정장비로 대상지역을 촬영한 데이터의 처리에 필요한 SBET 파일과 원시데이터파일을 입력받아 동기화시키는 메인인터페이스(100); 상기 메인인터페이스(100)에서 처리된 자료와 공중위치지시기(AIP)를 기반으로 연동하여 해당 대상지역의 영상과 벡터 파일을 표시하는 글로브뷰어(200); 상기 메인인터페이스(100)를 통해 입력되는 상기 SBET 파일과 상기 원시데이터파일의 레이어 계층 구조를 확인할 수 있도록 표시하는 레이어뷰어(300); 및 상기 메인인터페이스(100)에 입력되는 상기 원시데이터파일에 관한 정보를 화면상에 출력하는 스테이터스뷰어(400);를 포함하고 한국형 수심측량장비의 데이터 전처리를 위한 데이터 처리 소프트웨어가 탑재된 드론 비행 장치에 있어서,
상기 SBET 파일은 상기 대상지역의 촬영을 완료한 시점에서 촬영 당시, GPS 및 INS 데이터를 이용하여 촬영시간 동안 상기 비행수단의 위치, 속도 및 자세(자세각)에 관한 정보가 저장된 파일이며,
상기 비행수단은 드론(D)을 사용하되 주간에 착륙 대기중인 상기 드론의 직하부에 존재하는 착륙 지점을 촬영하는 제1 메인 카메라(11-1)와, 상기 제1 메인 카메라(11-1)로부터 설정된 베이스 라인(L)만큼 이격 설치되며, 상기 드론의 직하부에 존재하는 착륙 지점을 촬영하는 제2 메인 카메라(11-2)와, 야간에 착륙 대기중인 상기 드론의 직하부에 존재하는 착륙 지점을 촬영하는 제1 적외선 카메라(12-1)와, 상기 제1 적외선 카메라(120-1)로부터 설정된 베이스 라인(L)만큼 이격 설치되며, 상기 드론의 직하부에 존재하는 착륙 지점을 촬영하는 제2 적외선 카메라(12-2)와, 상기 드론이 비행 중인 현재의 시점이 주간 또는 야간인지를 판별하는 모드 판단부(13)와, 주간에는 상기 제1 메인 카메라(11-1)에서 촬영한 좌측 영상 및 상기 제2 메인 카메라(11-2)에서 촬영한 우측 영상을 스테레오 정합시켜 상기 착륙 지점의 3차원 영상을 제공하고, 야간에는 상기 제1 적외선 카메라(12-1)에서 촬영한 좌측 영상 및 상기 제2 적외선 카메라(12-2)에서 촬영한 우측 영상을 스테레오 정합시켜 상기 착륙 지점의 3차원 영상을 제공하는 스테레오 비젼 처리부(14)와, 상기 스테레오 비젼 처리부(14)에서 제공된 3차원 영상에 따라 카메라의 초점 및 상기 베이스 라인(L)의 간격 중 적어도 어느 하나 이상을 자동으로 조절함으로써 상기 스테레오 비젼 처리부(14)에서 보정된 3차원 영상을 제공할 수 있게 하는 카메라 구동부(15)와, 상기 보정된 3차원 영상을 분석하여 상기 착륙 지점에 설정된 각도 이상의 경사지형이 있는지 또는 장해물이 있는지를 분석하여 착륙 가능한 지형인지 결정하는 착륙 지형 판독부(16) 및 상기 착륙 지형 판독부(16)에 의해 착륙 가능한 지형인 것으로 판단된 경우, 상기 보정된 3차원 영상을 통해 분석된 착륙 지점의 지형 특성에 따라 다수개의 드론 날개(20)를 각각 제어하여 상기 드론의 자세를 조절하고, 상기 드론 날개(20)의 회전 속도를 제어하여 상기 드론의 착륙 속도를 제어하는 착륙 자세 제어부(17)를 포함하며,
상기 드론은 내부에 구비된 GPS 수신기와 상기 스테이터스 뷰어(400)를 통해 비행설계된 플라이트라인의 좌표값을 확인하여 상기 드론이 플라이트라인을 따라 이동하여 수심을 측정할 수 있도록 하는 것을 특징으로 하는 한국형 수심측량장비의 데이터 전처리를 위한 데이터 처리 소프트웨어가 탑재된 드론 비행 장치.
A main interface 100 for receiving and synchronizing SBET files and raw data files necessary for processing data photographed by the aerial measurement equipment mounted on the flight means; A globe viewer (200) for displaying an image and a vector file of a corresponding target area in cooperation with data processed by the main interface (100) and an air position indicator (AIP); A layer viewer 300 for displaying the layer hierarchy of the SBET file and the raw data file input through the main interface 100 so as to be able to check the layer hierarchy; And a status viewer (400) for outputting information on the original data file input to the main interface (100) on a screen, wherein the drone flight device (400) includes data processing software for data preprocessing In this case,
The SBET file is a file that stores information on the position, speed, and attitude (attitude angle) of the flying means during shooting time using GPS and INS data at the time of shooting at the time of shooting of the target area,
The flying means includes a first main camera 11-1 for photographing a landing spot directly underneath the dron using the drones D and waiting for landing in the daytime, A second main camera 11-2 which is spaced apart from the baseline L by a predetermined distance L and photographs a landing spot immediately below the drones, A first infrared camera 12-1 for photographing a point located at a lower portion of the drones and a base line L set from the first infrared camera 120-1, A second infrared camera 12-2, a mode determination unit 13 for determining whether the present time of the drones is in flight during the day or night, Left side image and the right side image taken by the second main camera 11-2 A left image photographed by the first infrared camera 12-1 and a right image photographed by the second infrared camera 12-2 are provided at a time of night, A stereoscopic vision processor 14 for stereoscopically matching the landing spot to provide a three-dimensional image of the landing spot, and at least one of a focal point of the camera and an interval of the baseline L according to the three- A camera driver (15) for providing a three-dimensional image corrected by the stereovision processor (14) by automatically adjusting one or more images; a camera driver (15) for analyzing the corrected three- A landing terrain reading unit 16 for analyzing whether there is a terrain or an obstacle and determining whether the terrain is a landing terrain, The control unit controls the plurality of drones 20 according to the topographic characteristics of the landing point analyzed through the corrected three-dimensional image to adjust the posture of the drones 20, And a landing position control unit (17) for controlling a rotating speed of the drones to control a landing speed of the drones,
Wherein the drone ascertains coordinate values of a flight line designed to fly through the GPS receiver provided in the interior and the status viewer 400 so that the drone moves along the flight line to measure the depth of the water, Drone flight device with data processing software for data preprocessing of surveying equipment.
KR1020160129954A 2016-10-07 2016-10-07 Aviation Survey data processing software system KR101767648B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160129954A KR101767648B1 (en) 2016-10-07 2016-10-07 Aviation Survey data processing software system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160129954A KR101767648B1 (en) 2016-10-07 2016-10-07 Aviation Survey data processing software system

Publications (1)

Publication Number Publication Date
KR101767648B1 true KR101767648B1 (en) 2017-08-14

Family

ID=60142225

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160129954A KR101767648B1 (en) 2016-10-07 2016-10-07 Aviation Survey data processing software system

Country Status (1)

Country Link
KR (1) KR101767648B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190051704A (en) * 2017-11-07 2019-05-15 공간정보기술 주식회사 Method and system for acquiring three dimentional position coordinates in non-control points using stereo camera drone
KR20190051703A (en) * 2017-11-07 2019-05-15 공간정보기술 주식회사 Stereo drone and method and system for calculating earth volume in non-control points using the same
CN113371185A (en) * 2021-07-19 2021-09-10 江苏中天吉奥信息技术股份有限公司 Terrain aerial photography surveying method and aerial photography aircraft
KR102371766B1 (en) 2021-09-29 2022-03-07 (주)네온테크 Data processing device for unmanned aerial vehicle for flight mission big data analysis and AI processing and data processing method for flight mission using the same
CN115454646A (en) * 2022-09-29 2022-12-09 电子科技大学 Multi-agent reinforcement learning acceleration method for clustered unmanned aerial vehicle decision making

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101116831B1 (en) * 2009-08-27 2012-03-05 (주)아모스텍 Intelligent Unmaned and Small-Sized Flying Body Robot Steering System
KR101236195B1 (en) * 2012-07-24 2013-02-26 대한민국 Uav training simulator and the real-time simulation method and system for interworking
WO2016130994A1 (en) * 2015-02-13 2016-08-18 Unmanned Innovation, Inc. Unmanned aerial vehicle remote flight planning system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101116831B1 (en) * 2009-08-27 2012-03-05 (주)아모스텍 Intelligent Unmaned and Small-Sized Flying Body Robot Steering System
KR101236195B1 (en) * 2012-07-24 2013-02-26 대한민국 Uav training simulator and the real-time simulation method and system for interworking
WO2016130994A1 (en) * 2015-02-13 2016-08-18 Unmanned Innovation, Inc. Unmanned aerial vehicle remote flight planning system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190051704A (en) * 2017-11-07 2019-05-15 공간정보기술 주식회사 Method and system for acquiring three dimentional position coordinates in non-control points using stereo camera drone
KR20190051703A (en) * 2017-11-07 2019-05-15 공간정보기술 주식회사 Stereo drone and method and system for calculating earth volume in non-control points using the same
KR102001728B1 (en) 2017-11-07 2019-07-18 공간정보기술 주식회사 Method and system for acquiring three dimentional position coordinates in non-control points using stereo camera drone
KR102007567B1 (en) * 2017-11-07 2019-10-21 공간정보기술 주식회사 Stereo drone and method and system for calculating earth volume in non-control points using the same
CN113371185A (en) * 2021-07-19 2021-09-10 江苏中天吉奥信息技术股份有限公司 Terrain aerial photography surveying method and aerial photography aircraft
CN113371185B (en) * 2021-07-19 2023-08-08 江苏中天吉奥信息技术股份有限公司 Terrain aerial investigation method and aerial aircraft
KR102371766B1 (en) 2021-09-29 2022-03-07 (주)네온테크 Data processing device for unmanned aerial vehicle for flight mission big data analysis and AI processing and data processing method for flight mission using the same
CN115454646A (en) * 2022-09-29 2022-12-09 电子科技大学 Multi-agent reinforcement learning acceleration method for clustered unmanned aerial vehicle decision making
CN115454646B (en) * 2022-09-29 2023-08-25 电子科技大学 Multi-agent reinforcement learning acceleration method for clustered unmanned plane decision

Similar Documents

Publication Publication Date Title
KR101767648B1 (en) Aviation Survey data processing software system
KR102001728B1 (en) Method and system for acquiring three dimentional position coordinates in non-control points using stereo camera drone
US11032527B2 (en) Unmanned aerial vehicle surface projection
KR101692709B1 (en) Digital Mapping imaging system using drones
US11644839B2 (en) Systems and methods for generating a real-time map using a movable object
JP7263630B2 (en) Performing 3D reconstruction with unmanned aerial vehicles
Neitzel et al. Mobile 3D mapping with a low-cost UAV system
US10852723B2 (en) Unmanned aerial vehicle swarm photography
WO2017045251A1 (en) Systems and methods for uav interactive instructions and control
JP6765512B2 (en) Flight path generation method, information processing device, flight path generation system, program and recording medium
Themistocleous et al. More than a flight: the extensive contributions of UAV flights to archaeological research–the case study of curium site in Cyprus
EP3740785B1 (en) Automatic camera driven aircraft control for radar activation
Ahmad et al. Digital aerial imagery of unmanned aerial vehicle for various applications
US11082639B2 (en) Image display method, image display system, flying object, program, and recording medium
US20230032219A1 (en) Display control method, display control apparatus, program, and recording medium
KR101767645B1 (en) Flight Processing System Design Software
JP2019039892A (en) Optical information processor, method for processing optical information, and program for processing optical information
US20210264666A1 (en) Method for obtaining photogrammetric data using a layered approach
CN118103669A (en) Automated aerial data capture for 3D modeling of unknown objects in an unknown environment
US20210229810A1 (en) Information processing device, flight control method, and flight control system
KR102372446B1 (en) Method for water level measurement and obtaining 3D water surface spatial information using unmanned aerial vehicle and virtual water control points
US20220390940A1 (en) Interfaces And Control Of Aerial Vehicle For Automated Multidimensional Volume Scanning
KR20210037998A (en) Method of providing drone route
KR102181809B1 (en) Apparatus and method for checking facility
US20230142394A1 (en) Contour scanning with an unmanned aerial vehicle

Legal Events

Date Code Title Description
GRNT Written decision to grant