KR101767648B1 - Aviation Survey data processing software system - Google Patents
Aviation Survey data processing software system Download PDFInfo
- Publication number
- KR101767648B1 KR101767648B1 KR1020160129954A KR20160129954A KR101767648B1 KR 101767648 B1 KR101767648 B1 KR 101767648B1 KR 1020160129954 A KR1020160129954 A KR 1020160129954A KR 20160129954 A KR20160129954 A KR 20160129954A KR 101767648 B1 KR101767648 B1 KR 101767648B1
- Authority
- KR
- South Korea
- Prior art keywords
- data
- landing
- file
- drones
- camera
- Prior art date
Links
- 238000012545 processing Methods 0.000 claims abstract description 21
- 238000007781 pre-processing Methods 0.000 claims abstract description 15
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 21
- 238000005259 measurement Methods 0.000 claims description 8
- 238000000034 method Methods 0.000 abstract description 12
- 230000008569 process Effects 0.000 abstract description 7
- 238000012937 correction Methods 0.000 description 7
- 238000013461 design Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical group C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
- B64D47/08—Arrangements of cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C13/00—Surveying specially adapted to open water, e.g. sea, lake, river or canal
- G01C13/008—Surveying specially adapted to open water, e.g. sea, lake, river or canal measuring depth of open water
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/01—Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/13—Receivers
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
- G03B15/006—Apparatus mounted on flying objects
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- H04N13/02—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/50—Control of the SSIS exposure
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
- H04N5/33—Transforming infrared radiation
-
- H04N5/351—
-
- B64C2201/127—
-
- B64C2201/141—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/30—Assessment of water resources
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Hydrology & Water Resources (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Navigation (AREA)
Abstract
Description
본 발명은 항공측량장치를 통한 데이터를 처리하기 위한 소프트웨어의 구조에 관한 것으로, 더욱 상세하게는 사용자가 한 화면 내에서 항공측량장비를 통해 촬영한 대상지역을 육안으로 확인하되 촬영한 대상지역의 데이터 처리에 필요한 파라미터를 효율적으로 관리하여 사용자가 데이터 처리에 필요한 공정의 혼란이 없이 용이하게 처리할 수 있는 한국형 수심측량장비의 데이터 전처리를 위한 데이터 처리 소프트웨어가 탑재된 드론 비행 장치에 관한 것이다.
More particularly, the present invention relates to a structure of software for processing data through an aviation surveying apparatus, and more particularly, to a structure of software for processing data through an aviation surveying apparatus, The present invention relates to a drone flight device equipped with a data processing software for data preprocessing of a Korean type water depth measurement equipment capable of efficiently managing the parameters necessary for processing and easily processing without any confusion of the process necessary for data processing.
일반적으로 항공기나 드론 등의 비행수단을 이용한 측량은 공중에서 사진촬영이나 전자장치를 사용하여 자료를 취득하여 수심이나 지형지물에 관한 측량방법의 하나로 사용되며, 이와 같은 비행수단을 통해 획득한 데이터는 데이터처리 소프트웨어를 이용하여 작업자에 의한 후처리 과정을 통해 다양한 분야에서 사용할 수 있도록 화면상에 출력될 수 있도록 그래픽으로 표현된다.In general, surveying using flight means such as aircraft or drone is used as a method of surveying water depths and features by taking photographs from the air or using electronic devices to collect data. It is graphically displayed so that it can be output on the screen for use in various fields through a post-processing process by an operator using data processing software.
그 예로, 도 1에 도시한 바와 같이, 종래의 데이터처리 소프트웨어는 다이얼로그 형태로 폴더 레이어뷰어, 처리될 파일 리스트, 처리된 결과 파일 리스트, 데이터 입력 및 데이터 처리부를 포함하는 구성으로 이루어져 사용자는 입력되는 데이터의 유형에 따라 라디오 버튼을 선택하고, 최종적으로 출력하는 파일의 경로를 확인한 뒤, 수심데이터처리를 수행하는 버튼을 클릭하여 작업을 수행하도록 하였다.For example, as shown in FIG. 1, conventional data processing software includes a folder layer viewer, a file list to be processed, a list of processed result files, a data input and a data processing unit in a dialog form, After selecting the radio button according to the type of data and finally confirming the path of the file to be output, the button for performing the water depth data processing was clicked to perform the operation.
그러나, 이와 같은 종래기술은 항공촬영장치로 촬영한 실제 대상지역을 확인할 수 있는 뷰어를 포함하고 있지 않아 항공기의 촬영경로 및 결과를 구체적으로 확인할 수 없는 문제점이 있다.However, such a conventional technique does not include a viewer for confirming an actual target area photographed by the aviation photographing apparatus, and thus there is a problem that the photographing path and result of the aviation can not be specifically confirmed.
또한 데이터 처리에 필요한 파라미터(사용자가 조작할 수 있는 조작요소)를 관리하는 인터페이스가 존재하지 않아 사용자는 해당 데이터처리 소프트웨어가 최종적으로 제공하는 출력결과에 만족하여야 하는 신뢰성의 문제가 발생한다.In addition, since there is no interface for managing parameters (operation elements that can be manipulated by the user) required for data processing, the user has a reliability problem that must be satisfied with the output result finally provided by the data processing software.
또한 도시한 바와 같이, 그래픽으로 표시된 뷰어의 구성이 명확하게 구분되어 있지 않아 조작의 불편함이 초래하는 문제점이 발생하게 된다.Also, as shown in the drawing, the configuration of the viewer displayed in a graphic is not clearly divided, which causes inconvenience in operation.
아울러 비행수단을 통한 측량의 경우, 항공기나 위성을 이용한 측량은 고가에 해당하여 근래에는 드론을 사용하는데 이 드론을 이용한 측량은 작업자가 측정하고자 하는 측량대상지역의 근거리까지 이동하여 육안으로 드론의 이/착륙하고자 하는 장소를 물색하고, 비행중인 드론 근방에 장애물을 피하여 조정해야 하는 번거로움이 따르는 문제점이 있었다.In the case of surveying through flight means, the measurement using aircraft or satellite is expensive, and recently, the drone is used, and the measurement using the drone is moved to the near area of the survey target area to be measured by the operator, There is a problem that it is troublesome to search for a place to land / land and to adjust by avoiding an obstacle near the drones in flight.
본 발명은 상술한 문제점들을 해결하기 위해 제안된 것으로, 항공촬영장치로 촬영한 실제 대상지역을 확인할 수 있는 뷰어를 포함하여 항공기의 촬영경로 및 결과를 구체적으로 확인할 수 있게 하는 것을 목적으로 한다.SUMMARY OF THE INVENTION The present invention has been proposed in order to solve the above-mentioned problems, and it is an object of the present invention to be able to specifically confirm a photographing route and a result of an aircraft including a viewer capable of confirming an actual object region photographed by the photographing apparatus.
또한 데이터 처리에 필요한 파라미터를 관리하는 인터페이스 생성하여 사용자의 선택에 따라 신뢰성이 높은 출력결과를 얻고자 하는데 또 다른 목적이 있다.Another object of the present invention is to provide an interface for managing parameters necessary for data processing and to obtain highly reliable output results according to the user's selection.
또한 그래픽으로 표시된 뷰어의 구성을 명확하게 하여 조작의 용이함을 얻고자 하는데 또 다른 목적이 있다.Another purpose of the present invention is to clarify the configuration of a graphically displayed viewer to thereby facilitate the operation.
또한 저공비행이 가능한 드론을 이용하여 측량시에 작업자가 측량대상지역과 근거리에서 육안으로 식별하지 않고도 장애물을 회피하거나 이/착륙하고자 하는 지형을 파악할 수 있는 드론을 제공하고자 하는데 또 다른 목적이 있다.Another object of the present invention is to provide a drone capable of avoiding an obstacle or recognizing a landing area to be landed or landed by a drone capable of low -
상술한 기술적 과제를 해결하기 위해 안출한 본 발명에 의한 것으로 한국형 수심측량장비의 데이터 전처리를 위한 데이터 처리 소프트웨어가 탑재된 드론 비행 장치는 비행수단에 장착된 항공측정장비로 대상지역을 촬영한 데이터의 처리에 필요한 SBET 파일과 원시데이터파일을 입력받아 동기화시키는 메인인터페이스(100); 상기 메인인터페이스(100)에서 처리된 자료와 공중위치지시기(AIP)를 기반으로 연동하여 해당 대상지역의 영상과 벡터 파일을 표시하는 글로브뷰어(200); 상기 메인인터페이스(100)를 통해 입력되는 상기 SBET 파일과 상기 원시데이터파일의 레이어 계층 구조를 확인할 수 있도록 표시하는 레이어뷰어(300); 및 상기 메인인터페이스(100)에 입력되는 상기 원시데이터파일에 관한 정보를 화면상에 출력하는 스테이터스뷰어(400);를 포함하고 한국형 수심측량장비의 데이터 전처리를 위한 데이터 처리 소프트웨어가 탑재된 드론 비행 장치에 있어서, 상기 SBET 파일은 상기 대상지역의 촬영을 완료한 시점에서 촬영 당시, GPS 및 INS 데이터를 이용하여 촬영시간 동안 상기 비행수단의 위치, 속도 및 자세(자세각)에 관한 정보가 저장된 파일이며, 상기 비행수단은 드론(D)을 사용하되 주간에 착륙 대기중인 상기 드론의 직하부에 존재하는 착륙 지점을 촬영하는 제1 메인 카메라(11-1)와, 상기 제1 메인 카메라(11-1)로부터 설정된 베이스 라인(L)만큼 이격 설치되며, 상기 드론의 직하부에 존재하는 착륙 지점을 촬영하는 제2 메인 카메라(11-2)와, 야간에 착륙 대기중인 상기 드론의 직하부에 존재하는 착륙 지점을 촬영하는 제1 적외선 카메라(12-1)와, 상기 제1 적외선 카메라(120-1)로부터 설정된 베이스 라인(L)만큼 이격 설치되며, 상기 드론의 직하부에 존재하는 착륙 지점을 촬영하는 제2 적외선 카메라(12-2)와, 상기 드론이 비행 중인 현재의 시점이 주간 또는 야간인지를 판별하는 모드 판단부(13)와, 주간에는 상기 제1 메인 카메라(11-1)에서 촬영한 좌측 영상 및 상기 제2 메인 카메라(11-2)에서 촬영한 우측 영상을 스테레오 정합시켜 상기 착륙 지점의 3차원 영상을 제공하고, 야간에는 상기 제1 적외선 카메라(12-1)에서 촬영한 좌측 영상 및 상기 제2 적외선 카메라(12-2)에서 촬영한 우측 영상을 스테레오 정합시켜 상기 착륙 지점의 3차원 영상을 제공하는 스테레오 비젼 처리부(14)와, 상기 스테레오 비젼 처리부(14)에서 제공된 3차원 영상에 따라 카메라의 초점 및 상기 베이스 라인(L)의 간격 중 적어도 어느 하나 이상을 자동으로 조절함으로써 상기 스테레오 비젼 처리부(14)에서 보정된 3차원 영상을 제공할 수 있게 하는 카메라 구동부(15)와, 상기 보정된 3차원 영상을 분석하여 상기 착륙 지점에 설정된 각도 이상의 경사지형이 있는지 또는 장해물이 있는지를 분석하여 착륙 가능한 지형인지 결정하는 착륙 지형 판독부(16) 및 상기 착륙 지형 판독부(16)에 의해 착륙 가능한 지형인 것으로 판단된 경우, 상기 보정된 3차원 영상을 통해 분석된 착륙 지점의 지형 특성에 따라 다수개의 드론 날개(20)를 각각 제어하여 상기 드론의 자세를 조절하고, 상기 드론 날개(20)의 회전 속도를 제어하여 상기 드론의 착륙 속도를 제어하는 착륙 자세 제어부(17)를 포함하며, 상기 드론은 내부에 구비된 GPS 수신기와 상기 스테이터스 뷰어(400)를 통해 비행설계된 플라이트라인의 좌표값을 확인하여 상기 드론이 플라이트라인을 따라 이동하여 수심을 측정할 수 있도록 하는 것을 특징으로 한다.
According to the present invention, which is devised to solve the above-described technical problems, a drone flight device equipped with data processing software for data preprocessing of a Korean type water depth measuring instrument is an airborne measurement device mounted on a flight means, A
본 발명에 따르면, 종래와는 차별적으로 사용자가 한 화면 내에서 항공측량장비를 통해 촬영한 대상지역을 육안으로 확인하되 촬영한 대상지역의 데이터 처리에 필요한 파라미터를 효율적으로 관리하여 사용자가 데이터 처리에 필요한 공정의 혼란이 없이 용이하게 처리할 수 있는 효과를 갖는다.According to the present invention, it is possible to visually confirm a target area photographed by a user through an airborne surveying equipment in a screen different from a conventional one, and efficiently manage parameters necessary for data processing of a photographed area, It has an effect that it can be easily processed without confusion of a necessary process.
또한 주간 및 야간에 드론 착륙 지점의 3차원 지형을 스테레오 비젼으로 분석하고, 분석된 3차원 지형에 따라 착륙 지점 및 착륙 자세를 자동으로 설정하여 드론을 조정하는 작업자가 원거리에서도 조정할 수 있는 효과를 갖는다.In addition, the 3D terrain of the drone landing point is analyzed by stereo vision at daytime and nighttime, and the operator who adjusts the drone by automatically setting the landing point and the landing posture according to the analyzed 3D terrain has the effect of being able to adjust the distance from the distance .
도 1은 종래의 항공측량장치를 이용한 데이터처리 소프트웨어의 출력화면을 나타낸 도면.
도 2는 본 발명에 따른 한국형 수심측량장비의 데이터 전처리를 위한 데이터 처리 소프트웨어 구조의 출력화면을 나타낸 도면.
도 3은 본 발명에 따른 한국형 수심측량장비의 데이터 전처리를 위한 데이터 처리 소프트웨어 구조의 파일입력 탭과 포인트 생성 탭을 나타낸 도면.
도 4는 본 발명에 따른 한국형 수심측량장비의 데이터 전처리를 위한 데이터 처리 소프트웨어 구조의 캘리브레이션 다이얼로그를 나타낸 도면.
도 5는 본 발명에 따른 한국형 수심측량장비의 데이터 전처리를 위한 데이터 처리 소프트웨어 구조의 글로벌뷰어와 레이어뷰어를 나타낸 도면.
도 6은 본 발명에 따른 한국형 수심측량장비의 데이터 전처리를 위한 데이터 처리 소프트웨어 구조의 스테이터스뷰어를 나타낸 도면.
도 7은 본 발명에 따른 한국형 수심측량장비의 데이터 전처리를 위한 데이터 처리 소프트웨어 구조의 구조설계를 나타낸 흐름도.
도 8은 본 발명에 따른 한국형 수심측량장비의 데이터 전처리를 위한 데이터 처리 소프트웨어 구조의 실행개념을 나타낸 흐름도.
도 9는 본 발명에 따른 한국형 수심측량장비의 데이터 전처리를 위한 데이터 처리 소프트웨어 구조의 비행수단인 드론을 나타낸 도면.
도 10은 도 9에 대한 드론의 스테레오 카메라부를 나타내 부분도이다.
도 11은 도 9에 대한 드론의 높이별 착륙 상태도이다.
도 12는 도 9에 대한 드론의 제1 지형 착륙 상태도이다.
도 13은 도 9에 대한 드론의 제2 지형 착륙 상태도이다.1 is a view showing an output screen of data processing software using a conventional airborne surveying apparatus.
2 is a view showing an output screen of a data processing software structure for data preprocessing of a Korean type water depth surveying instrument according to the present invention.
3 is a diagram illustrating a file input tab and a point creation tab of a data processing software structure for data preprocessing of a Korean type water depth surveying instrument according to the present invention.
4 is a diagram showing a calibration dialog of a data processing software structure for data preprocessing of a Korean type water depth surveying instrument according to the present invention.
5 is a view of a global viewer and a layer viewer of a data processing software structure for data preprocessing of a Korean type water depth measurement equipment according to the present invention.
6 shows a status viewer of a data processing software structure for data preprocessing of a Korean type water depth surveying instrument according to the present invention.
FIG. 7 is a flow chart illustrating a structure design of a data processing software structure for data preprocessing in a Korean type water depth surveying instrument according to the present invention.
FIG. 8 is a flowchart showing an execution concept of a data processing software structure for data preprocessing of a Korean type water depth surveying instrument according to the present invention.
9 shows a drone as a means of flight of a data processing software structure for data preprocessing of a Korean type water depth surveying instrument according to the present invention.
Fig. 10 is a partial view showing the stereo camera unit of the drone shown in Fig. 9. Fig.
FIG. 11 is a state diagram showing the landing state of the dron according to FIG. 9; FIG.
Figure 12 is a first terrain landing state diagram of the drones of Figure 9;
Figure 13 is a second terrain landing state diagram of the drones of Figure 9;
이하, 첨부된 도면을 참조하여 본 발명에 따른 한국형 수심측량장비의 데이터 전처리를 위한 데이터 처리 소프트웨어 구조(이하, 간략하게 '데이터 처리 소프트웨어 시스템'이라 한다)에 대하여 설명한다. 설명에 앞서, 본 발명에서 의미하는 사용자는 비행수단을 이용한 수심측량의 전체 공지를 숙지하고 있는 작업자로 정의한다.Hereinafter, a data processing software structure (hereinafter briefly referred to as a 'data processing software system') for data preprocessing of a Korean type water depth surveying instrument according to the present invention will be described with reference to the accompanying drawings. Prior to the description, the user defined in the present invention is defined as an operator who knows the entire notice of the depth measurement using the flight means.
본 발명에 따른 데이터 처리 소프트웨어 시스템은 도 2에 도시한 바와 같이, 메인인터페이스(100), 글로브뷰어(200), 레이어뷰어(300) 및 스테이터스뷰어(400)를 포함하는 구성설계로 이루어진다.(표 1 참조)The data processing software system according to the present invention includes a
여기서, 메인인터페이스(100)는 데이터 처리에 필요한 다양한 형식의 파일들이 입력받아 동기화하기 위한 것으로 파일입력탭(110), 포인트생성탭(120) 및 캘리브레이션 다이얼로그(130)를 포함하는 구성으로 이루어져 화면상에 사용자가 선택적으로 각각 입력할 수 있도록 표시된다.(표 2 참조) The
파일입력탭(110)은 항공수심측정장치를 통해 항공촬영된 촬영정보파일, SBET(Smoothed Best Estimate of Trajectory)파일 및 원시 데이터파일 등이 입력되어 사용자로 하여금 동기화를 실시할 수 있도록 한다. 이때, 파일입력탭(110)과 후술하는 포인트생성탭(120)은 메인인터페이스(100)의 한 화면에 분리구성되어 사용자의 클릭에 따라 화면상에 출력되도록 하는 것이 바람직하다.(도 3의 (a)참조)The
아울러 SBET 파일은 대상지역의 촬영을 완료한 시점에서 촬영 단시, GPS 및 INS 데이터를 이용하여 촬영시간 동안 비행체의 위치, 속도 및 자세(자세각도) 등에 관한 정보를 후처리 과정을 통해 저장한 파일을 의미하며, 파일입력탭에서는 상술한 SBET 파일과 함께 다른 동기화를 이룰 수 있는 파일이 입력되어 항공기에 관한 각 촬영위치 및 자세각에 맞는 포인트 데이터를 획득할 수 있게 된다.In addition, the SBET file stores information about the position, speed, and posture (posture angle) of the air vehicle during post-processing time using the GPS, INS data, In the file input tab, a file capable of achieving different synchronization with the above-described SBET file is input, so that point data corresponding to each photographing position and attitude angle with respect to the aircraft can be acquired.
포인트생성탭(110)은 LAS 포멧의 포인트 클라우드 파일을 생성하기 위한 파라미터를 입력받는다. 이때, 포인트생성탭(110)에서는 사용자가 레이저, 스캐너, IMU 와 관련된 시스템 파라미터와 대기, 해양환경 등의 소프트웨어 파라미터를 구분하여 입력할 수 있도록 하여 사용자가 최종적으로 사용할 수 있는 포인트 데이터 즉, LAS 포멧을 생성하도록 하는 것이 바람직하다.(도 3의 (b)참조)The
아울러 포인트생성탭에서 의미하는 LAS 포멧은 측량분야에서는 대표적으로 사용하는 상용포멧으로 본 발명의 요지를 흐리지 않도록 상세한 설명은 생략한다.In addition, the LAS format in the point creation tab is a commercial format that is typically used in the field of surveying, and a detailed description thereof will be omitted so as not to obscure the gist of the present invention.
캘리브레이션 다이얼로그(130)는 캘리브레이션의 기준이 되는 파일을 입력한 뒤 실제 취득한 데이터와 비교함으로써, 비행수단의 자세(자세각)와 관련한 파라미터 보정 수치를 결정하도록 한다.(도 4 참조)The
글로브뷰어(200)는 도 5에 도시한 바와 같이, 파일입력탭(110)의 후처리 과정으로 출력되되 웹 기반 지도 AIP(공중위치지시기:air-position indicator)와 연동되며, 동일 인터페이스에 영상 및 벡터 파일을 화면상에 표시한다.As shown in FIG. 5, the
아울러 글로브뷰어(200)를 호출 시 입력된 파일정보의 위치정보를 바탕으로 대상지역에서의 데이터 취득 현황 및 비행 정보를 확인할 수 있도록 한다.In addition, the data acquisition status and the flight information in the target area can be confirmed based on the position information of the file information inputted when the
레이어뷰어(300)는 데이터 처리와 관련하여 사용자가 파일입력탭(110)에서 입력한 파일들의 레이어 계층 구조를 확인할 수 있도록 표시한다.The
아울러 사용자는 파일을 선택시에 레이어뷰어(300) 인터페이스 하단에서 해당 파일의 메타데이타를 확인할 수 있도록 한다.In addition, when the user selects a file, the user can check the metadata of the file at the bottom of the
스테이터스뷰어(400)는 도 6에 도시한 바와 같이, 파일입력탭(110)을 통해 입력된 원시데이터 즉, 항공수심측량장비를 통해 취득한 데이터에 관한 정보를 출력한다.As shown in FIG. 6, the
아울러 스테이터스뷰어(400)는 사용자가 상기 스테이터스뷰어 목록에서 원하는 경로의 원시데이터를 선택시에 정확한 위치와 데이터 취득 현황 등을 글로브뷰어에서 확인할 수 있도록 하며, 글로브뷰어를 통해 미리 측량대상지역을 비행하는 비행수단의 이동경로인 플라이트라인을 설정하여 모의비행할 수 있도록 한다.In addition, the
한편, 상술한 본 발명에 따른 데이터 처리 소프트웨어의 구조설계는 도 7에 도시한 바와 같이, 작업제어, 데이터제공 및 포인트 데이터 생성을 포함하는 핵심패키지(500) 및 맵컨트롤, 공간정보포멧관리, 촬영정보편집, 포인트 생성 파라미터 관리 및 데이터보정을 포함하는 공통패키지(600)를 포함하는 구조로 설계된다.(표 3 참조) As shown in FIG. 7, the structure design of the data processing software according to the present invention includes a
아울러 핵심패키지(500)는 본 발명인 소프트웨어의 전체적인 인터페이스, 컨트롤 및 기능을 수행하며, 공통패키지(600)는 핵심패키지(500)의 보조(서브)시스템의 개념으로 본 발명인 데이터 처리 소프트웨어 시스템의 전체 기능을 모듈화한 것이다.In addition, the
작업제어(510)는 본 발명인 데이터 처리 소프트웨어 시스템의 인터페이스 및 전체흐름과 관련된 일련의 기능을 제공하는 모듈이다.
데이터제공(520)은 영상데이터, 벡터데이터 및 소프트웨어에 입/출력되는 공간정보를 관리할 수 있는 일련의 기능들을 제공한다.The
포인트 데이터 생성(530)은 포인트 데이터 생성을 위한 변수입력 및 알고리즘 적용 등의 기능을 제공한다.
맵컨트롤(610)은 API 연동을 위한 각종 기능을 관리하는 모듈을 의미한다.The
공간정보포멧관리(620)는 본 발명인 소프트웨어에 입/출력되는 각종 공간정보 포멧을 관리하는 모듈이다.The spatial information
촬영정보편집(630)은 항공기의 비행궤도 및 포인트 생성 영역을 편집할 때 필요한 변수와 기능들을 제공하는 모듈이다.The
포인트 생성 파라미터 관리(640)는 촬영을 통해 입력되는 웨이브폼을 포인트 데이터로 변환하기 위한 변수 및 기능들을 관리한다.The point
데이터보정(650)은 임시로 생성된 포인트 데이터들의 캘리브레이션을 위한 변수 및 기능들을 관리하는 것을 의미한다.
또한 구조설계 중 외부 엔진 및 라이브러리와 연결되는 컴포넌트는 맵컨트롤(610), 공간정보포맷관리(620), 촬영정보편집(630) 및 데이터보정(650)으로 OpenGL엔진을 포함한 다양한 공간정보 편집 라이브러리 등과 연동되어 사용자에게 촬영설계를 위한 각종 추가기능을 서비스할 수 있도록 설계된다.In addition, the components connected to the external engine and the library during the structural design include a
이하, 상술한 구성설계, 구조설계 및 첨부된 도면을 참조하여 본 발명의 바람직한 데이터 처리 소프트웨어 시스템의 실행개념에 관하여 설명한다.Hereinafter, the execution concept of the preferred data processing software system of the present invention will be described with reference to the above-described configuration design, structural design, and attached drawings.
먼저, 도 8에 도시한 바와 같이, 사용자가 소프트웨어를 실행하면 작업제어인 메인뷰어가 출력되며, 그 작업제어를 통해 SBET 데이터를 입력하여 포인트 데이터를 생성한다.. 이때, 필요에 따라 사용자는 영상데이터 및 벡터데이터를 입력하여 포인터 데이터 생성에 필요한 추가정보를 제공하도록 하는 것이 바람직하다.First, as shown in FIG. 8, when the user executes software, the main viewer, which is the job control, is outputted, and SBET data is inputted through the job control to generate point data. At this time, It is desirable to input data and vector data to provide additional information necessary for generating pointer data.
그 다음, 맵컨트롤을 통해 메인뷰어가 출력됨과 동시에 구글에서 제공하는 지도가 화면상에 출력되며, 데이터제공을 통해 사용자가 선택한 공간정보가 화면상에 같이 출력된다.Then, the main viewer is outputted through the map control, and at the same time, a map provided by Google is displayed on the screen, and the spatial information selected by the user is output on the screen through data provision.
그 다음, 포인트파라미터 관리를 통해 사용자는 시스템변수 파라미터, 환경 변수 파라미터 및 수계 변수 파라미터 등을 입력한다.Then, through the point parameter management, the user inputs system parameter parameters, environmental parameter parameters, and water parameter parameters.
그 다음, 사용자가 참조 포인트 데이터를 입력한다. 이때, 필요에 따라 사용자의 선택에 의해 생성된 포인트 데이터의 위치 및 자세각을 이동하여 데이터 보정 파라미터를 저장한다.The user then enters the reference point data. At this time, the position and attitude angle of the point data generated by the user's selection is moved as necessary to store the data correction parameter.
다음으로 본 발명에 따른 데이터 처리 소프트웨어 시스템의 활용을 위해 직접적으로 수심을 측정하는 비행수단인 드론(D)에 대하여 상세히 설명한다.Next, the drone (D), which is a flight means for directly measuring the water depth, will be described in detail in order to utilize the data processing software system according to the present invention.
도 9를 참조하면 드론(D)은 드론 몸체(10) 및 드론 날개(20)로 이루어진 드론(drone)은 사용자에 의해 원격으로 조종되고, GPS 수신기와, 거리센서(112)와, 제1알람신호 생성기(116)와, 카메라(114)를 탑재하고 있다.Referring to FIG. 9, the drone D includes a drone, which is composed of a
아울러 드론(110)는 도 10에 도시한 바와 같이, 그외의 필수 구성으로 배터리, 원격 송수신부(R), 비행 조종부(C) 및 수심측정기 등을 더 포함한다.10, the
이들 중 배터리, 원격 송수신부(R), 비행 조종부(C) 및 수심측정기는 드론(D) 내부에 설치된다. 드론 날개(20)는 드론 몸체(10)의 상측 둘레를 따라 일정 간격으로 배치되며 각각 전기 모터의 회전축에 연결된다.Among them, the battery, the remote transmission / reception unit R, the flight control unit C, and the water depth meter are installed inside the drone D. The
이때 배터리는 충전 가능한 2차 전지가 사용되며, 배터리의 전원은 레귤레이터, 전원 변환부 및 속도 제어부 등의 전기 회로를 통해 드론 날개(20)가 연결된 전기 모터에 전원을 공급하고, 수심측정기는 통상의 직진성을 갖는 레이저 등을 해수면 상부에서 조사하여 측량대상지역의 수심을 측정하는 통상의 수심측정기를 사용한다.In this case, a rechargeable secondary battery is used, and the power source of the battery supplies electric power to the electric motor to which the
상기 거리센서(S)는 지면 상의 물체와 드론 간 거리를 측정하여 출력한다. The distance sensor S measures and outputs the distance between the object on the ground and the drones.
상기 제1알림신호 생성기(811)는 거리센서(S)의 출력값과 미리 설정된 기준값을 비교한 후, 상기 출력값이 기준값 이하일 때 제1알람신호를 생성한다.The first
제1알람신호가 생성되었다는 것은 드론이 지면 상의 물체에 근접하여 충돌할 위험이 발생하였음을 의미한다.The generation of the first alarm signal means that there is a risk that the drones will collide close to the object on the ground.
제1알람신호 생성기(811)에 의해 생성된 제1알람신호는 드론의 통신장치에 의해 단말기(120) 즉, 본 발명에 따른 비행설계 소프트웨어를 관리하는 사용자 단말기로 전송된다. The first alarm signal generated by the first
상기 카메라(812)는 드론 전방의 영상을 획득하고, 획득된 영상은 상기 통신장치에 의해 관리자가 육안으로 식별할 수 있도록 사용자 단말기로 전송되어 측량대상지역에서 먼 거리에 있어도 사용자(작업자)는 원격으로 드론을 조종할 수 있도록 한다.The
상기 원격 송수신부(R)는 먼 거리에서 관리자가 드론을 원격으로 조종하여 측량대상지역까지 도달할 수 있도록 무선 조종기와 할당된 대역(2.4GHz, 4GHz 등)의 무선 주파수 통신을 하며, 비행 조종부(C)는 수신된 조종신호에 따라 전기 모터의 구동 및 회전 속도를 각각 독립 제어한다.The remote transceiver R performs radio frequency communication with the radio controller in the allocated band (2.4 GHz, 4 GHz, etc.) so that the manager can control the dron remotely from a distance and reach the survey target area, (C) independently controls driving and rotating speeds of the electric motor in accordance with the received control signal.
이때, 사용자는 드론에 구비된 GPS 수신기와 상술한 스테이터스 뷰어(400)를 통해 비행설계된 플라이트라인의 좌표값을 확인하여 상기 드론이 플라이트라인을 따라 이동하여 수심을 측정할 수 있도록 하는 것이 바람직하다.At this time, it is preferable that the user confirms coordinate values of the flight line designed for flight through the GPS receiver provided in the drones and the
따라서 다수의 전기 모터를 제어하여 각각의 드론 날개(20)를 원격으로 조정함으로써 이륙 및 비행을 가능하게 하며 이점은 일반적인 드론와 같다. 그러나 본 발명이 적용된 드론은 착륙 지점의 지형에 따라 자동으로 착륙을 가능하게 한다.Thus, by controlling a number of electric motors and remotely adjusting each of the
이를 위해, 도 9 및 도 10과 같이 드론은 제1 메인 카메라(11-1), 제2 메인 카메라(11-2), 제1 적외선 카메라(12-1), 제2 적외선 카메라(12-2)를 더 포함하며, 드론 몸체(10) 내부에는 드론의 착륙지점을 판독하는 착륙제어부인 모드 판단부(13), 스테레오 비젼 처리부(14), 카메라 구동부(15), 착륙 지형 판독부(16), 착륙 자세 제어부(17) 및 메인 컨트롤러(18)를 포함한다.For this purpose, as shown in Figs. 9 and 10, the dron is divided into a first main camera 11-1, a second main camera 11-2, a first infrared camera 12-1, a second infrared camera 12-2 A
이때, 제1 메인 카메라(11-1)는 착륙 대기중인 드론의 직하부에 존재하는 착륙 지점을 촬영하고, 제2 메인 카메라(11-2)는 제1 메인 카메라(11-1)로부터 설정된 베이스 라인(L)만큼 이격 설치되며, 드론의 직하부에 존재하는 착륙 지점을 촬영한다.At this time, the first main camera 11-1 shoots a landing spot directly underneath the drones waiting for landing, and the second main camera 11-2 shoots a landing spot existing under the drones waiting for landing, A line (L) is set apart and a landing spot directly below the dron is photographed.
제1 적외선 카메라(12-1)는 착륙 대기중인 드론의 직하부에 존재하는 착륙 지점을 촬영하고, 제2 적외선 카메라(12-2)는 제1 적외선 카메라(12-1)로부터 설정된 베이스 라인(L)만큼 이격 설치되며, 드론의 직하부에 존재하는 착륙 지점을 촬영한다.The first infrared camera 12-1 photographs a landing spot directly underneath the drones waiting for landing, and the second infrared camera 12-2 photographs a landing spot located below the drones waiting for landing, L), and photographs the landing spot directly beneath the drones.
제1 메인 카메라(11-1) 및 제2 메인 카메라(11-2)는 주간(day time)에 사용되는 스테레오 카메라에 해당하는 것으로, 제1 메인 카메라(11-1)는 좌안 영상에 해당하는 영상을 촬영하고, 제2 메인 카메라(11-2)는 우안 영상에 해당하는 영상을 촬영한다.The first main camera 11-1 and the second main camera 11-2 correspond to a stereo camera used for day time, and the first main camera 11-1 corresponds to a left camera And the second main camera 11-2 captures an image corresponding to the right-eye image.
제1 적외선 카메라(12-1) 및 제2 적외선 카메라(12-2)는 야간(night time)에 사용되는 스테레오 카메라에 해당하는 것으로, 제1 적외선 카메라(12-1)는 좌안 영상에 해당하는 영상을 촬영하고, 제2 적외선 카메라(12-2)는 우안 영상에 해당하는 영상을 촬영한다.The first infrared camera 12-1 and the second infrared camera 12-2 correspond to a stereo camera used at night time, and the first infrared camera 12-1 corresponds to the left eye image And the second infrared camera 12-2 captures an image corresponding to the right-eye image.
해당 주간에 사용되는 제1 메인 카메라(11-1) 및 제2 메인 카메라(11-2)와 야간에 사용하는 제1 적외선 카메라(12-1) 및 제2 적외선 카메라(12-2)는 모드판단부(13)를 통해 사용자의 선택에 따라 지정되어 사용할 수 있으며, 경우에 따라서는 드론(110) 내부에 탑재된 타이머(미도시)를 통해 상기 드론이 자동으로 판단하여 작동할 수 있도록 한다.The first main camera 11-1 and the second main camera 11-2 and the first infrared camera 12-1 and the second infrared camera 12-2 which are used at night are used in the mode And may be designated and used according to the user's selection through the
바람직한 실시예로써 도시한 바와 같이 제1 메인 카메라(11-1) 및 제1 적외선 카메라(12-1)는 좌측(도면 기준)의 제1 모듈부(30-1)에 함께 설치된다. 제2 메인 카메라(11-2) 및 제2 적외선 카메라(12-2)는 반대측의 제2 모듈부(30-2)에 함께 설치된다.As shown in the preferred embodiment, the first main camera 11-1 and the first infrared camera 12-1 are installed together in the first module unit 30-1 on the left side (drawing reference). The second main camera 11-2 and the second infrared camera 12-2 are installed together in the second module unit 30-2 on the opposite side.
따라서 제1 모듈부(30-1) 및 제2 모듈부(30-2)에 설치된 제1 메인 카메라(11-1) 및 제2 메인 카메라(11-2)는 서로 이격되며, 이를 '베이스 라인(L)'이라 한다. 마찬가지로 제1 적외선 카메라(12-1) 및 제2 적외선 카메라(12-2) 역시 베이스 라인(L) 만큼 이격된다.Accordingly, the first main camera 11-1 and the second main camera 11-2 provided on the first module unit 30-1 and the second module unit 30-2 are spaced from each other, (L) '. Likewise, the first infrared camera 12-1 and the second infrared camera 12-2 are also spaced apart from each other by the baseline L.
또한 제1 모듈부(30-1)와 제2 모듈부(30-2)는 구동기(40)의 양측에 각각 연결된 좌우 지지암(50-1, 50-2)에 설치되며, 구동기(40)는 지지암(50-1, 50-2)을 회전시키도록 모터 및 기어를 구비한다. The first module unit 30-1 and the second module unit 30-2 are installed on the left and right support arms 50-1 and 50-2 respectively connected to both sides of the
따라서 제1 모듈부(30-1) 및 제2 모듈부(30-2)를 일정 범위(예: 360°)내에서 회전시킴으로써 착륙시는 지면을 바라본 상태로 촬영을 하고 보고 비행 중에는 전방을 바라보도록 회전한다.Therefore, when the first module unit 30-1 and the second module unit 30-2 are rotated within a certain range (e.g., 360 degrees), the photographing is performed while looking at the ground during landing, .
또한 구동기(40)는 지지암(50-1, 50-2)을 설정된 범위에서 외측으로 인출하거나 내측으로 인입시킨다. 구동기(40)에 의해 지지암(50-1, 50-2)이 수평 왕복운동을 하면 제1 모듈부(30-1) 및 제2 모듈부(30-2)간의 거리가 조절됨으로써 상술한 '베이스 라인(L)'이 조정된다. Further, the
아래에서 다시 설명하는 바와 같이 베이스 라인(L)의 조정으로 공중에서 착륙 대기 중인 드론(110)에서 그 직하부의 착륙 지점에 대한 지면 형상을 3차원으로 정밀하게 촬영할 수 있게 된다.As will be described below, the adjustment of the base line L enables the
한편, 모드 판단부(13)는 드론이 비행 중인 현재의 시점이 주간인지 또는 야간인지를 판별한다. 주간 또는 야간의 구분은 촬영 중인 카메라(114)에 수광되는 광량으로 판단되며 가시광선이 풍부한 주간과 그렇지 못한 야간으로 구분된다.On the other hand, the
따라서 제1 메인 카메라(11-1) 및 제2 메인 카메라(11-2)에서 촬영한 영상으로 스테레오 비젼 기법을 적용할지 혹은 제1 적외선 카메라(12-1) 및 제2 적외선 카메라(12-2)에서 촬영한 영상으로 스테레오 비젼 기법을 적용할지 결정된다.Therefore, the stereoscopic vision technique is applied to the images photographed by the first main camera 11-1 and the second main camera 11-2, or the first infrared camera 12-1 and the second infrared camera 12-2 ), The stereovision technique is applied.
이러한 모드 판단부(13)는 통상의 광량 센서가 사용될 수 있다. 또한 별도의 센서를 사용하지 않고도 제1 메인 카메라(11-1) 및 제2 메인 카메라(11-2)에서 실시간 촬영한 영상의 R/G/B 픽셀이나 휘도를 분석하여 판단할 수도 있다.The
스테레오 비젼 처리부(14)는 잘 알려진 바와 같이 카메라의 초점거리, 카메라의 촬영자세 및 베이스 라인(L) 간격 등과 함께 좌안 영상과 우안 영상을 스테레오 정합시킴으로써 착륙 지점의 3차원 영상을 획득한다.The
이러한 스테레오 비젼 처리부(14)의 판단에 따라 주간에는 제1 메인 카메라(11-1) 및 제2 메인 카메라(11-2)에서 촬영한 좌측 영상(즉, 좌안 영상) 및 우측 영상(즉, 우안 영상)을 스테레오 정합시켜 착륙 지점의 3차원 영상을 제공한다.In accordance with the determination of the
반면 모드 판단부(13)의 판단 결과 야간인 경우에는 제1 적외선 카메라(12-1)에서 촬영한 좌측 영상 및 제2 적외선 카메라(12-2)에서 촬영한 우측 영상을 스테레오 정합시켜 착륙 지점의 3차원 영상을 제공한다.On the other hand, if it is nighttime as a result of the determination by the
상기 적외선 카메라를 이용하는 경우 그 프로세스에서 좀더 복잡한 점이 있을 뿐 좌우 적외선 카메라 영상으로부터 각각 추출된 영역을 중심으로 스테레오 정합을 수행하여 시차 정보를 추정하고, 카메라 파라미터와 시차 정보를 이용하여 실시간으로 착륙지점의 3차원 지형을 제공할 수 있다.In the case of using the infrared camera, the stereo information is estimated by performing stereo matching on the extracted regions from the left and right infrared camera images, which is more complicated in the process, and by using the camera parameters and time difference information, Three-dimensional topography can be provided.
카메라 구동부(15)는 스테레오 비젼 처리부(14)에서 제공된 3차원 영상에 따라 카메라의 초점 및 베이스 라인(L)의 간격 중 적어도 어느 하나 이상을 조절한다. 따라서 스테레오 비젼 처리부(14)에서 최적의 영상 품질을 갖는 '보정된 3차원 영상'을 제공할 수 있게 한다.The
이는 오토 포커스(auto-focus) 기능과 유사한 것으로 드론의 착륙 대기 높이에 따라 결정된다. 또한 착륙 지점에 존재하는 장애물이나 지형의 크기 및 형상 따라 자동으로 조절되는 기능이다.This is similar to the auto-focus function and is determined by the height of the drones' landing clearance. It is also a function that is automatically controlled according to the size and shape of obstacles or terrain at the landing point.
도 12의 (a) 및 (b)와 같이 드론(110)의 비행을 마치고 착륙 대기 위치에 도달한 경우 비행 중이던 고도에 따라 드론의 정지 높이(H1,H2)도 서로 다르기 때문에 착륙 지점까지의 높이가 달라진다. 그러므로 정밀한 영상 획득을 위해 카메라 구동부(15)가 보정 작업을 수행한다.12 (a) and 12 (b), when the
카메라 초점은 제1 메인 카메라(11-1), 제2 메인 카메라(11-2), 제1 적외선 카메라(12-1) 및 제2 적외선 카메라(12-2)의 초점 거리를 각각 조절하여 이루어지고, 베이스 라인(L)의 간격은 상술한 바와 같이 제1 모듈부(30-1) 및 제2 모듈부(30-2) 사이의 간격을 조절한다.The camera focus is adjusted by adjusting the focal lengths of the first main camera 11-1, the second main camera 11-2, the first infrared camera 12-1, and the second infrared camera 12-2 And the interval of the baseline L adjusts the interval between the first module unit 30-1 and the second module unit 30-2 as described above.
카메라 구동부(15)에서 구동기(40)로 명령을 전달하면, 구동기(40)는 지지암(50-1, 50-2)을 인입 또는 인출시킴으로써 제1 모듈부(30-1) 및 제2 모듈부(30-2) 사이의 간격(즉, 베이스 라인)이 조절된다.When the
바람직하게는 각각의 카메라에 대한 카메라 초점 거리를 먼저 조절한 후 설정된 품질의 영상을 획득하지 못하는 경우 베이스 라인(L)의 간격을 조절하여 '보정된 3차원 영상'을 제공한다.Preferably, if the camera focal length for each camera is adjusted first and the image of the set quality is not obtained, the interval of the baseline L is adjusted to provide a 'corrected three-dimensional image'.
착륙 지형 판독부(16)는 이상과 같이 '보정된 3차원 영상'을 분석하여 착륙 지점에 설정된 각도보다 큰 경사지형이 있는지 또는 장해물이 있는지 등을 분석하여 착륙 가능한 지형인지 결정한다.The landing
예컨대, 착륙 지점에 바위나 나무가 있음에도 착륙을 하면 드론의 유실 및 파손이 발생하고, 경사가 급한 지형에 착륙하면 드론dl 넘어지면서 회전중인 날개가 지면과 충돌하고 과부화로 인해 화재가 발생하기도 한다. 따라서, 착륙 지형 판독부(16)에서 보정된 3차원 영상을 통해 착륙지점을 확인한다.For example, if there is a rock or a tree at the landing point, landing will cause the loss and damage of the drone. When landing on the sloping terrain, the drone dl falls and the rotating wing collides with the ground and a fire occurs due to overloading. Therefore, the landing
착륙 지형 판독부(16)에서 판단 결과 착륙이 불가능한 지형으로 판단되면 전/후/좌/우 각 방향으로 이동해 가면서 착륙 가능한 지점을 재검색하고, 필요시는 단계별로 이동 거리를 늘려 재검색을 한다.If the landing
예컨대, 도 13과 같이 현재 착륙 대기중인 지점에 장해물이 있고, 장해물의 상단부로 드론이 안착하지 못할 정도의 폭이나 첨두부가 있는 경우에는 3차원 영상으로 이를 분석하여 옆으로 이동 후 정상적인 착륙을 하게 한다.For example, as shown in FIG. 13, when there is an obstacle at the current landing waiting position and there is a width or peak portion that the dron can not seat at the upper end of the obstacle, it is analyzed with a three-dimensional image to move to the side and make a normal landing .
아울러 본 발명에서의 드론은 상기 드론이 착륙 지형 판독부(16)를 통해 자동으로 착륙지점의 장애물 등을 확인하는 것으로 기재되어 있으나, 이는 하나의 실시예이며 필요에 따라서는 사용자 단말기로 전송되는 착륙지점의 보정된 영상을 통해 사용자가 직접 조정하여 드론을 착륙시킬 수 있음은 자명하다.In addition, although the dron according to the present invention is described in which the dron automatically checks an obstacle or the like at a landing point through the landing /
착륙 자세 제어부(17)는 착륙 지형 판독부(16)에 의해 착륙 가능한 지형인 것으로 판단된 경우, 착륙 지점의 지형 특성에 따라 다수개의 드론 날개(20)를 각각 제어하여 드론의 자세를 조절하고, 드론 날개(20)의 회전 속도를 제어하여 드론의 착륙 속도를 제어한다.The landing
따라서 드론이 사용자 단말기로부터 멀리 떨어져 있기 때문에 시야에서 벗어난 경우에도 그 드론의 스테레오 카메라로 착륙 지점의 지형을 판독하고 자동으로 안전한 장소를 선택하여 착륙할 수 있게 한다.Therefore, even when the drones are far away from the user's terminal, it is possible to read the terrain of the landing point with the stereo camera of the drone and automatically select a safe place to land.
예컨대, 도 13과 같이 연속된 경사 지형 중 A1 지점은 착륙이 불가하고 A2 및 A3 지점은 착륙이 가능한 경우, 착륙 가능한 지점 중 A2 지점은 드론이 수평하게 착륙할 수 있다. For example, as shown in FIG. 13, when the landing is not possible at the point A1 and the landing is possible at the point A2 and A3, the point A2 of the landing point can land the drones horizontally.
그러나 약간의 경사가 있는 A3 지점의 경우에는 자세를 보정하는 것이 바람직하다. 약간의 경사에도 드론이 아무런 자세 변경 없이 착륙하면 지면과의 충돌로 옆으로 기울 수 있으므로 드론 날개(20)를 조절하여 경사면에 수평하게 자세를 조절한다.However, in the case of the A3 point with slight inclination, it is desirable to correct the posture. Even if the drones land on a slight slope without any change of posture, the slope can be inclined sideways due to collision with the ground. Therefore, the
한편, 위에서 설명을 생략한 메인 컨트롤러(18)는 드론의 전반적인 제어를 위한 것으로, 위와 같은 모드 판단부(13), 스테레오 비젼 처리부(14), 카메라 구동부(15), 착륙 지형 판독부(16), 착륙 자세 제어부(17) 등의 전반적인 프로세스를 처리한다.The
이와 같은 구성으로 이루어진 본 발명에 따른 데이터 처리 소프트웨어 시스템은 종래와는 차별적으로 사용자가 한 화면 내에서 항공측량장비를 통해 촬영한 대상지역을 육안으로 확인하되 촬영한 대상지역의 데이터 처리에 필요한 파라미터를 효율적으로 관리하여 사용자가 데이터 처리에 필요한 공정의 혼란이 없이 용이하게 처리할 수 있는 효과를 갖는다.The data processing software system according to the present invention having the above-described structure identifies the target area photographed by the user through the aviation surveying equipment in a screen different from the conventional one, and determines parameters necessary for data processing of the photographed area So that the user can easily process the data without disruption of the process necessary for data processing.
또한 수심을 측정하기 위한 비행수단인 드론을 사용자가 먼 거리에서도 플라이트라인에 의거한 조정이 가능함과 동시에 비행 중이거나 또는 착륙지점의 장애물들을 판독할 수 있어 경제적인 수심측정이 가능한 효과를 갖게 된다.In addition, the drone, a flying means for measuring water depth, can be adjusted based on a flight line even at a long distance, and it is possible to read the obstacles in flight or at landing points, thereby achieving economical depth measurement.
이상, 본 발명의 특정 실시예에 대하여 상술하였다. 그러나, 본 발명의 사상 및 범위는 이러한 특정 실시예에 한정되는 것이 아니라, 본 발명의 요지를 변경하지 않는 범위 내에서 다양하게 수정 및 변형 가능하다는 것을 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 이해할 것이다. The specific embodiments of the present invention have been described above. It is to be understood, however, that the spirit and scope of the invention are not limited to these specific embodiments, but that various changes and modifications may be made without departing from the spirit of the invention, If you are a person, you will understand.
따라서, 이상에서 기술한 실시예들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이므로, 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 하며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Therefore, it should be understood that the above-described embodiments are provided so that those skilled in the art can fully understand the scope of the present invention. Therefore, it should be understood that the embodiments are to be considered in all respects as illustrative and not restrictive, The invention is only defined by the scope of the claims.
100: 메인인터페이스 110: 파일입력탭
120: 포인트생성탭 130: 캘리브레이션 다이얼로그
200: 글로벌뷰어 300: 레이어뷰어
400: 스테이터스뷰어 500: 핵심패키지
510: 작업제어 520: 데이터제공
530: 포인트 데이터생성 600: 공통패키지
610: 맵컨트롤 620: 공간정보포맷관리
630: 촬영정보편집 640: 포인터생성 파라미터
650: 데이터보정 10: 드론 몸체
20: 드론 날개 30-1, 30-2: 모듈부
40: 구동기 50-1, 50-2: 지지암
11-1: 제1 메인 카메라 11-2: 제2 메인 카메라
12-1: 제1 적외선 카메라 12-2: 제2 적외선 카메라
13: 모드 판단부 14: 스테레오 비젼 처리부
15: 카메라 구동부 16: 착륙 지형 판독부
17: 착륙 자세 제어부 18: 메인 컨트롤러
C: 비행 조종부 D: 드론100: main interface 110: file input tab
120: Point creation tab 130: Calibration dialog
200: Global Viewer 300: Layer Viewer
400: Status Viewer 500: Core Package
510: job control 520: data provision
530: Generation of point data 600: Common package
610: Map Control 620: Manage Spatial Information Format
630: Editing shooting information 640: Pointer generation parameter
650: Data correction 10: Drone body
20: drone blade 30-1, 30-2:
40: actuators 50-1, 50-2: support arms
11-1: First main camera 11-2: Second main camera
12-1: first infrared camera 12-2: second infrared camera
13: Mode determination unit 14: Stereo vision processor
15: camera driving unit 16: landing terrain reading unit
17: landing attitude control unit 18: main controller
C: Flight Control Department D: Drones
Claims (1)
상기 SBET 파일은 상기 대상지역의 촬영을 완료한 시점에서 촬영 당시, GPS 및 INS 데이터를 이용하여 촬영시간 동안 상기 비행수단의 위치, 속도 및 자세(자세각)에 관한 정보가 저장된 파일이며,
상기 비행수단은 드론(D)을 사용하되 주간에 착륙 대기중인 상기 드론의 직하부에 존재하는 착륙 지점을 촬영하는 제1 메인 카메라(11-1)와, 상기 제1 메인 카메라(11-1)로부터 설정된 베이스 라인(L)만큼 이격 설치되며, 상기 드론의 직하부에 존재하는 착륙 지점을 촬영하는 제2 메인 카메라(11-2)와, 야간에 착륙 대기중인 상기 드론의 직하부에 존재하는 착륙 지점을 촬영하는 제1 적외선 카메라(12-1)와, 상기 제1 적외선 카메라(120-1)로부터 설정된 베이스 라인(L)만큼 이격 설치되며, 상기 드론의 직하부에 존재하는 착륙 지점을 촬영하는 제2 적외선 카메라(12-2)와, 상기 드론이 비행 중인 현재의 시점이 주간 또는 야간인지를 판별하는 모드 판단부(13)와, 주간에는 상기 제1 메인 카메라(11-1)에서 촬영한 좌측 영상 및 상기 제2 메인 카메라(11-2)에서 촬영한 우측 영상을 스테레오 정합시켜 상기 착륙 지점의 3차원 영상을 제공하고, 야간에는 상기 제1 적외선 카메라(12-1)에서 촬영한 좌측 영상 및 상기 제2 적외선 카메라(12-2)에서 촬영한 우측 영상을 스테레오 정합시켜 상기 착륙 지점의 3차원 영상을 제공하는 스테레오 비젼 처리부(14)와, 상기 스테레오 비젼 처리부(14)에서 제공된 3차원 영상에 따라 카메라의 초점 및 상기 베이스 라인(L)의 간격 중 적어도 어느 하나 이상을 자동으로 조절함으로써 상기 스테레오 비젼 처리부(14)에서 보정된 3차원 영상을 제공할 수 있게 하는 카메라 구동부(15)와, 상기 보정된 3차원 영상을 분석하여 상기 착륙 지점에 설정된 각도 이상의 경사지형이 있는지 또는 장해물이 있는지를 분석하여 착륙 가능한 지형인지 결정하는 착륙 지형 판독부(16) 및 상기 착륙 지형 판독부(16)에 의해 착륙 가능한 지형인 것으로 판단된 경우, 상기 보정된 3차원 영상을 통해 분석된 착륙 지점의 지형 특성에 따라 다수개의 드론 날개(20)를 각각 제어하여 상기 드론의 자세를 조절하고, 상기 드론 날개(20)의 회전 속도를 제어하여 상기 드론의 착륙 속도를 제어하는 착륙 자세 제어부(17)를 포함하며,
상기 드론은 내부에 구비된 GPS 수신기와 상기 스테이터스 뷰어(400)를 통해 비행설계된 플라이트라인의 좌표값을 확인하여 상기 드론이 플라이트라인을 따라 이동하여 수심을 측정할 수 있도록 하는 것을 특징으로 하는 한국형 수심측량장비의 데이터 전처리를 위한 데이터 처리 소프트웨어가 탑재된 드론 비행 장치.
A main interface 100 for receiving and synchronizing SBET files and raw data files necessary for processing data photographed by the aerial measurement equipment mounted on the flight means; A globe viewer (200) for displaying an image and a vector file of a corresponding target area in cooperation with data processed by the main interface (100) and an air position indicator (AIP); A layer viewer 300 for displaying the layer hierarchy of the SBET file and the raw data file input through the main interface 100 so as to be able to check the layer hierarchy; And a status viewer (400) for outputting information on the original data file input to the main interface (100) on a screen, wherein the drone flight device (400) includes data processing software for data preprocessing In this case,
The SBET file is a file that stores information on the position, speed, and attitude (attitude angle) of the flying means during shooting time using GPS and INS data at the time of shooting at the time of shooting of the target area,
The flying means includes a first main camera 11-1 for photographing a landing spot directly underneath the dron using the drones D and waiting for landing in the daytime, A second main camera 11-2 which is spaced apart from the baseline L by a predetermined distance L and photographs a landing spot immediately below the drones, A first infrared camera 12-1 for photographing a point located at a lower portion of the drones and a base line L set from the first infrared camera 120-1, A second infrared camera 12-2, a mode determination unit 13 for determining whether the present time of the drones is in flight during the day or night, Left side image and the right side image taken by the second main camera 11-2 A left image photographed by the first infrared camera 12-1 and a right image photographed by the second infrared camera 12-2 are provided at a time of night, A stereoscopic vision processor 14 for stereoscopically matching the landing spot to provide a three-dimensional image of the landing spot, and at least one of a focal point of the camera and an interval of the baseline L according to the three- A camera driver (15) for providing a three-dimensional image corrected by the stereovision processor (14) by automatically adjusting one or more images; a camera driver (15) for analyzing the corrected three- A landing terrain reading unit 16 for analyzing whether there is a terrain or an obstacle and determining whether the terrain is a landing terrain, The control unit controls the plurality of drones 20 according to the topographic characteristics of the landing point analyzed through the corrected three-dimensional image to adjust the posture of the drones 20, And a landing position control unit (17) for controlling a rotating speed of the drones to control a landing speed of the drones,
Wherein the drone ascertains coordinate values of a flight line designed to fly through the GPS receiver provided in the interior and the status viewer 400 so that the drone moves along the flight line to measure the depth of the water, Drone flight device with data processing software for data preprocessing of surveying equipment.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160129954A KR101767648B1 (en) | 2016-10-07 | 2016-10-07 | Aviation Survey data processing software system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160129954A KR101767648B1 (en) | 2016-10-07 | 2016-10-07 | Aviation Survey data processing software system |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101767648B1 true KR101767648B1 (en) | 2017-08-14 |
Family
ID=60142225
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160129954A KR101767648B1 (en) | 2016-10-07 | 2016-10-07 | Aviation Survey data processing software system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101767648B1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190051704A (en) * | 2017-11-07 | 2019-05-15 | 공간정보기술 주식회사 | Method and system for acquiring three dimentional position coordinates in non-control points using stereo camera drone |
KR20190051703A (en) * | 2017-11-07 | 2019-05-15 | 공간정보기술 주식회사 | Stereo drone and method and system for calculating earth volume in non-control points using the same |
CN113371185A (en) * | 2021-07-19 | 2021-09-10 | 江苏中天吉奥信息技术股份有限公司 | Terrain aerial photography surveying method and aerial photography aircraft |
KR102371766B1 (en) | 2021-09-29 | 2022-03-07 | (주)네온테크 | Data processing device for unmanned aerial vehicle for flight mission big data analysis and AI processing and data processing method for flight mission using the same |
CN115454646A (en) * | 2022-09-29 | 2022-12-09 | 电子科技大学 | Multi-agent reinforcement learning acceleration method for clustered unmanned aerial vehicle decision making |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101116831B1 (en) * | 2009-08-27 | 2012-03-05 | (주)아모스텍 | Intelligent Unmaned and Small-Sized Flying Body Robot Steering System |
KR101236195B1 (en) * | 2012-07-24 | 2013-02-26 | 대한민국 | Uav training simulator and the real-time simulation method and system for interworking |
WO2016130994A1 (en) * | 2015-02-13 | 2016-08-18 | Unmanned Innovation, Inc. | Unmanned aerial vehicle remote flight planning system |
-
2016
- 2016-10-07 KR KR1020160129954A patent/KR101767648B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101116831B1 (en) * | 2009-08-27 | 2012-03-05 | (주)아모스텍 | Intelligent Unmaned and Small-Sized Flying Body Robot Steering System |
KR101236195B1 (en) * | 2012-07-24 | 2013-02-26 | 대한민국 | Uav training simulator and the real-time simulation method and system for interworking |
WO2016130994A1 (en) * | 2015-02-13 | 2016-08-18 | Unmanned Innovation, Inc. | Unmanned aerial vehicle remote flight planning system |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190051704A (en) * | 2017-11-07 | 2019-05-15 | 공간정보기술 주식회사 | Method and system for acquiring three dimentional position coordinates in non-control points using stereo camera drone |
KR20190051703A (en) * | 2017-11-07 | 2019-05-15 | 공간정보기술 주식회사 | Stereo drone and method and system for calculating earth volume in non-control points using the same |
KR102001728B1 (en) | 2017-11-07 | 2019-07-18 | 공간정보기술 주식회사 | Method and system for acquiring three dimentional position coordinates in non-control points using stereo camera drone |
KR102007567B1 (en) * | 2017-11-07 | 2019-10-21 | 공간정보기술 주식회사 | Stereo drone and method and system for calculating earth volume in non-control points using the same |
CN113371185A (en) * | 2021-07-19 | 2021-09-10 | 江苏中天吉奥信息技术股份有限公司 | Terrain aerial photography surveying method and aerial photography aircraft |
CN113371185B (en) * | 2021-07-19 | 2023-08-08 | 江苏中天吉奥信息技术股份有限公司 | Terrain aerial investigation method and aerial aircraft |
KR102371766B1 (en) | 2021-09-29 | 2022-03-07 | (주)네온테크 | Data processing device for unmanned aerial vehicle for flight mission big data analysis and AI processing and data processing method for flight mission using the same |
CN115454646A (en) * | 2022-09-29 | 2022-12-09 | 电子科技大学 | Multi-agent reinforcement learning acceleration method for clustered unmanned aerial vehicle decision making |
CN115454646B (en) * | 2022-09-29 | 2023-08-25 | 电子科技大学 | Multi-agent reinforcement learning acceleration method for clustered unmanned plane decision |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101767648B1 (en) | Aviation Survey data processing software system | |
KR102001728B1 (en) | Method and system for acquiring three dimentional position coordinates in non-control points using stereo camera drone | |
US11032527B2 (en) | Unmanned aerial vehicle surface projection | |
KR101692709B1 (en) | Digital Mapping imaging system using drones | |
US11644839B2 (en) | Systems and methods for generating a real-time map using a movable object | |
JP7263630B2 (en) | Performing 3D reconstruction with unmanned aerial vehicles | |
Neitzel et al. | Mobile 3D mapping with a low-cost UAV system | |
US10852723B2 (en) | Unmanned aerial vehicle swarm photography | |
WO2017045251A1 (en) | Systems and methods for uav interactive instructions and control | |
JP6765512B2 (en) | Flight path generation method, information processing device, flight path generation system, program and recording medium | |
Themistocleous et al. | More than a flight: the extensive contributions of UAV flights to archaeological research–the case study of curium site in Cyprus | |
EP3740785B1 (en) | Automatic camera driven aircraft control for radar activation | |
Ahmad et al. | Digital aerial imagery of unmanned aerial vehicle for various applications | |
US11082639B2 (en) | Image display method, image display system, flying object, program, and recording medium | |
US20230032219A1 (en) | Display control method, display control apparatus, program, and recording medium | |
KR101767645B1 (en) | Flight Processing System Design Software | |
JP2019039892A (en) | Optical information processor, method for processing optical information, and program for processing optical information | |
US20210264666A1 (en) | Method for obtaining photogrammetric data using a layered approach | |
CN118103669A (en) | Automated aerial data capture for 3D modeling of unknown objects in an unknown environment | |
US20210229810A1 (en) | Information processing device, flight control method, and flight control system | |
KR102372446B1 (en) | Method for water level measurement and obtaining 3D water surface spatial information using unmanned aerial vehicle and virtual water control points | |
US20220390940A1 (en) | Interfaces And Control Of Aerial Vehicle For Automated Multidimensional Volume Scanning | |
KR20210037998A (en) | Method of providing drone route | |
KR102181809B1 (en) | Apparatus and method for checking facility | |
US20230142394A1 (en) | Contour scanning with an unmanned aerial vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GRNT | Written decision to grant |