KR102262382B1 - large area space information system for image acquistion base Unmanned Aerial Vehicle - Google Patents
large area space information system for image acquistion base Unmanned Aerial Vehicle Download PDFInfo
- Publication number
- KR102262382B1 KR102262382B1 KR1020190158716A KR20190158716A KR102262382B1 KR 102262382 B1 KR102262382 B1 KR 102262382B1 KR 1020190158716 A KR1020190158716 A KR 1020190158716A KR 20190158716 A KR20190158716 A KR 20190158716A KR 102262382 B1 KR102262382 B1 KR 102262382B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- unmanned aerial
- aerial vehicle
- drone
- flight
- Prior art date
Links
- 238000012545 processing Methods 0.000 claims abstract description 50
- 230000008859 change Effects 0.000 claims description 35
- 230000004044 response Effects 0.000 claims description 22
- 238000001514 detection method Methods 0.000 claims description 19
- 238000010276 construction Methods 0.000 claims description 12
- 238000007781 pre-processing Methods 0.000 claims description 10
- 238000013507 mapping Methods 0.000 claims description 8
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 claims description 3
- 238000000034 method Methods 0.000 abstract description 38
- 230000008569 process Effects 0.000 abstract description 28
- 230000006870 function Effects 0.000 description 32
- 238000007726 management method Methods 0.000 description 17
- 238000013528 artificial neural network Methods 0.000 description 10
- 230000003628 erosive effect Effects 0.000 description 9
- 230000010339 dilation Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 241000220259 Raphanus Species 0.000 description 6
- 235000006140 Raphanus sativus var sativus Nutrition 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 239000011800 void material Substances 0.000 description 5
- 241000234282 Allium Species 0.000 description 4
- 235000002732 Allium cepa var. cepa Nutrition 0.000 description 4
- 241000208340 Araliaceae Species 0.000 description 4
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 4
- 235000003140 Panax quinquefolius Nutrition 0.000 description 4
- 235000008434 ginseng Nutrition 0.000 description 4
- 238000011835 investigation Methods 0.000 description 4
- 230000010485 coping Effects 0.000 description 3
- 238000003306 harvesting Methods 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 240000002234 Allium sativum Species 0.000 description 2
- 240000004160 Capsicum annuum Species 0.000 description 2
- 235000008534 Capsicum annuum var annuum Nutrition 0.000 description 2
- 235000007862 Capsicum baccatum Nutrition 0.000 description 2
- 244000241235 Citrullus lanatus Species 0.000 description 2
- 235000012828 Citrullus lanatus var citroides Nutrition 0.000 description 2
- 241001061260 Emmelichthys struhsakeri Species 0.000 description 2
- 240000007594 Oryza sativa Species 0.000 description 2
- 235000007164 Oryza sativa Nutrition 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 239000001728 capsicum frutescens Substances 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 235000004611 garlic Nutrition 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 235000009566 rice Nutrition 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 240000007124 Brassica oleracea Species 0.000 description 1
- 235000003899 Brassica oleracea var acephala Nutrition 0.000 description 1
- 235000011299 Brassica oleracea var botrytis Nutrition 0.000 description 1
- 235000011301 Brassica oleracea var capitata Nutrition 0.000 description 1
- 235000017647 Brassica oleracea var italica Nutrition 0.000 description 1
- 235000001169 Brassica oleracea var oleracea Nutrition 0.000 description 1
- 240000003259 Brassica oleracea var. botrytis Species 0.000 description 1
- 235000010149 Brassica rapa subsp chinensis Nutrition 0.000 description 1
- 235000000536 Brassica rapa subsp pekinensis Nutrition 0.000 description 1
- 241000499436 Brassica rapa subsp. pekinensis Species 0.000 description 1
- 206010060800 Hot flush Diseases 0.000 description 1
- 244000000231 Sesamum indicum Species 0.000 description 1
- 235000003434 Sesamum indicum Nutrition 0.000 description 1
- 241000607479 Yersinia pestis Species 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000001364 causal effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000010419 fine particle Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 208000015181 infectious disease Diseases 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007659 motor function Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 210000000225 synapse Anatomy 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/02—Agriculture; Fishing; Forestry; Mining
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
- B64D47/08—Arrangements of cameras
-
- G06K9/36—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30188—Vegetation; Agriculture
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Aviation & Aerospace Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mining & Mineral Resources (AREA)
- Economics (AREA)
- Animal Husbandry (AREA)
- Marine Sciences & Fisheries (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Agronomy & Crop Science (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명은 무인기 기반 영상 취득의 광지역 공간정보 구축시스템에 관한 것으로, 보다 상세하게는 대규모의 작물 재배 대상지에 대한 항공 영상 데이터를 가공 처리하여 통합 운용 관리하고 데이터의 유용성과 범용성을 향상시킬 수 있는 무인기 기반 영상 취득의 광지역 공간정보 구축시스템에 대한 것이다.The present invention relates to a system for constructing wide-area spatial information for image acquisition based on an unmanned aerial vehicle, and more particularly, it is possible to process and process aerial image data for a large-scale crop cultivation target area for integrated operation management and to improve the usefulness and versatility of data It is about a wide area spatial information construction system of UAV-based image acquisition.
일반적으로 광활한 대규모 지역에서 작물을 재배하게 되는데, 이러한 작물의 재배 대상지는 그 면적이 워낙 넓고 방대한 관계로, 재배 대상지에서 재배되는 작물의 종류, 생육 발달 상태, 및 병해충 감염 정도 등 작물 재배와 관련된 제반 데이터를 조사자들이 일일히 현장 재배 대상지를 방문하여 조사하는 방식의 전수 조사의 방식으로 수행하여 왔다.In general, crops are grown in a vast, large-scale area, and since the area for cultivation of these crops is so wide and vast, all aspects related to crop cultivation, such as the type of crop grown in the cultivation target, growth development status, and degree of disease and pest infection The data has been conducted as a full-scale survey in which investigators visit and investigate the field cultivation sites on a daily basis.
하지만, 이러한 전수 조사 방식은 작물 재배 대상지의 면적이 넓으면 넓을수록 그 조사 시기를 완료하는데에 상당한 시간과 노력이 들게 되고, 이로 인한 인건비 상승과 함께 작물 재배 대상지가 용도 변경되거나 다른 작물로 대체할 경우 다시 전수 조사를 해야 하는 불편함이 항시 지적되어 왔다.However, this total survey method takes considerable time and effort to complete the survey period as the area of the target area for crop cultivation is wider, and as a result, labor costs increase, and the crop cultivation target area may be changed or replaced with other crops. The inconvenience of having to conduct a full investigation again has always been pointed out.
이러한 문제를 해소하기 위한 방안으로 드론을 이용한 작물 대상의 항공 촬영 영상을 기반으로 작물 재배와 관련된 제반 데이터를 수집 확보하기 시작하였는데, 단순히 드론을 이용한 작물 재배와 관련된 제반 데이터의 수집은 데이터의 통합 운용 관리에 한계가 있고, 무엇보다 제반 데이터의 관리 운용에 요구되는 공간구축에 필요한 시스템이 마련되지 않아, 주묵구구식으로 관리 운용되는 문제가 있다.As a way to solve this problem, we started to collect and secure various data related to crop cultivation based on aerial images of crops using drones. There is a limit to management, and above all, there is a problem in that the system necessary for the establishment of the space required for the management and operation of all data is not prepared, so there is a problem of being managed and operated in a constant fashion.
더욱이, 드론으로부터 수거 확보된 작물 재배 관련된 제반 데이터는 실제의 현장 작물 재배 대상지로부터 조사된 전수조사의 제반 데이터와 큰 차이를 보이고 있기 때문에, 이러한 드론으로부터 수집된 제반 데이터는 유용한 자료로 활용될 수 없다.Moreover, since the data collected and secured from drones related to crop cultivation show a big difference from the data of the total survey surveyed from the actual field crop cultivation site, the overall data collected from these drones cannot be used as useful data. .
전술된 문제점들을 해소하기 위한 본 발명은, 대규모의 작물 재배 대상지로부터 수집될 수 있는 데이터를 효과적으로 통합 운용하고, 데이터의 활용성을 향상시키며, 무인기로부터 수집되어 처리 가공된 데이터가 실제의 현장 작물 재배 대상지로부터 조사된 전수조사의 데이터와 일치할 수 있게 한 무인기 기반 영상 취득의 광지역 공간정보 구축시스템을 제공하고자 함에 그 목적을 두고 있다.The present invention for solving the above-mentioned problems effectively integrates and operates data that can be collected from large-scale crop cultivation sites, improves the usability of data, and enables the processing and processing of data collected from unmanned aerial vehicles to be used for actual field crop cultivation. The purpose of this study is to provide a wide area spatial information construction system for image acquisition based on an unmanned aerial vehicle that can be matched with the data of the total survey surveyed from the target site.
전술된 목적들을 달성하기 위한 본 발명은, 상공을 비행하며 작물의 재배 대상지에 대한 영상을 촬영하는 무인기, 상기 무인기로부터 촬영된 영상의 처리를 통해 영상을 가공하는 영상처리컴퓨터, 및 상기 영상처리컴퓨터로부터 처리된 영상에 관한 제반 데이터를 통합 관리하는 관리서버를 포함하는 무인기 기반 영상 취득의 광지역 공간정보 구축시스템에 일 특징이 있다.The present invention for achieving the above objects is an unmanned aerial vehicle that shoots an image of a crop cultivation target while flying in the sky, an image processing computer that processes the image through processing of the image photographed from the unmanned aerial vehicle, and the image processing computer There is one feature in a wide area spatial information construction system for image acquisition based on an unmanned aerial vehicle including a management server that integrates and manages all data related to images processed from .
상기 무인기의 무선 비행 조종을 위한 조종제어기, 상기 무인기가 비행하는 지면 경사지와 평행한 비행을 이룰 수 있게 상기 무인기로부터 전송되는 감지신호를 전송받는 휴대단말기를 더 포함하는 무인기 기반 영상 취득의 광지역 공간정보 구축시스템에 일 특징이 있다.UAV-based image acquisition wide area space further comprising a control controller for wireless flight control of the unmanned aerial vehicle, and a portable terminal that receives a sensing signal transmitted from the unmanned aerial vehicle to achieve a flight parallel to the ground slope on which the unmanned aerial vehicle flies An information building system has one characteristic.
상기 관리서버에는 무인기의 비행 계획에 필요한 설정 정보를 운용하기 위한 드론운용소프트웨어가 설치되고, 상기 영상처리컴퓨터에는 작물의 현장 재배 대상지와 비교할 수 있는 작물의 제반 판독 결과물을 산출하여 생성할 수 있는 인공지능탑재 프로그램이 설치되어 있는 무인기 기반 영상 취득의 광지역 공간정보 구축시스템에 일 특징이 있다.Drone operation software for operating the setting information necessary for the flight plan of the unmanned aerial vehicle is installed in the management server, and the image processing computer calculates and generates general reading results of crops that can be compared with the field cultivation target of crops. There is one feature in the wide area spatial information construction system for image acquisition based on an unmanned aerial vehicle in which an intelligence-equipped program is installed.
상기 영상처리컴퓨터는 영상 전처리를 위해 cvtColor() 함수, threshold() 함수, morphologyEx() 함수, GaussianBlur() 함수의 조합을 통하여 작물의 촬영 재배 대상지에 대한 영상 전처리가 이루어지는 무인기 기반 영상 취득의 광지역 공간정보 구축시스템에 일 특징이 있다.The image processing computer uses a combination of cvtColor() function, threshold() function, morphologyEx() function, and GaussianBlur() function for image preprocessing. The spatial information construction system has one characteristic.
상기 무인기에 탑재된 촬영카메라 또는 3D 스캐너에는 센터미터 정확도의 PPK 매핑에 필요한 위치 지정을 위해 리치(reach)가 더 연결되어 있는 무인기 기반 영상 취득의 광지역 공간정보 구축시스템에 일 특징이 있다.The imaging camera or 3D scanner mounted on the UAV has a feature in the UAV-based image acquisition wide area spatial information construction system in which a reach is further connected for positioning necessary for center meter-accurate PPK mapping.
상기 무인기에는 지면의 경사지와 평행한 고도차를 유지하며 비행할 수 있게 하는 고도변화대응장치, 상공의 기상을 관측하여 예측할 수 있게 하는 기상관측장치를 더 포함하는 무인기 기반 영상 취득의 광지역 공간정보 구축시스템에 일 특징이 있다.The drone further includes an altitude change response device that allows it to fly while maintaining an altitude difference parallel to the slope of the ground, and a weather observation device that can observe and predict the weather in the sky. The system has one feature.
상기 고도변화대응장치의 수광부에서 반사되어 회귀되는 레이저의 회귀 시간차 정보를 감지하는 감지센서의 감지신호가 상기 휴대단말기로 전송되어 지면의 경사지와 평행하는 무인기의 비행을 이루게 하는 무인기 기반 영상 취득의 광지역 공간정보 구축시스템에 일 특징이 있다.The detection signal of the detection sensor that detects the return time difference information of the laser reflected and returned from the light receiving unit of the altitude change response device is transmitted to the portable terminal to achieve the flight of the unmanned aerial vehicle parallel to the slope of the ground. Light of image acquisition based on an unmanned aerial vehicle There is one feature in the local geospatial information construction system.
상기 기상관측장치는 초고주파송신기, 초고주파수신기, 고체여진기의 조합으로 구성된 상공기상레이더인 무인기 기반 영상 취득의 광지역 공간정보 구축시스템에 일 특징이 있다.The meteorological observation device is characterized in a wide area spatial information construction system of image acquisition based on an unmanned aerial vehicle, which is an aerial weather radar composed of a combination of an ultra-high frequency transmitter, an ultra-high frequency transmitter, and a solid-state exciter.
상기 고도변화대응장치의 동작을 위해 상기 무인기의 하단과 상기 고도변화대응장치 사이로 디지털 방식의 서보모터가 더 설치되어 있는 무인기 기반 영상 취득의 광지역 공간정보 구축시스템에 일 특징이 있다.There is a feature in the wide area spatial information construction system for image acquisition based on an unmanned aerial vehicle in which a digital servo motor is further installed between the lower end of the drone and the altitude change response device for the operation of the altitude change response device.
이상에서 살펴본 바와 같이, 본 발명에 의하면, 대규모 지역에 대한 작물의 재배 농경지에 대한 공간정보 구축이 가능하며, 구축된 데이터 자료는 하나의 관리서버 시스템에서 통합되어 관리될 수 있음에 따라, 전국의 작물 재배 면적에 대한 정보의 파악이 용이하고, 이로 인한 작물의 가격 파동도 막을 수 있고, 산업, 산림, 도시 계획 등 다양한 분양에서 유용성 있는 데이터 자료로도 공유 및 활용 가능하다.As described above, according to the present invention, it is possible to construct spatial information about crop cultivation farmland for a large area, and the constructed data data can be integrated and managed in one management server system, so that It is easy to grasp information on crop cultivation area, and it can prevent fluctuations in the price of crops, and it can be shared and used as useful data in various sales fields such as industry, forestry, and urban planning.
또한, 대규모 지역에 대한 효율적인 현장 드론의 운용으로 농업경영체의 등록 여부를 전산화 및 도시화할 수 있음에 따라, 공간정보 구축 데이터 자료를 기반으로 재배면적의 측정, 불법 가건물의 확인 등에 대한 업무 처리의 효율성과 정확성을 높일 수 있다.In addition, as it is possible to computerize and urbanize the registration of agricultural businesses through the efficient operation of on-site drones in large areas, the efficiency of business processing for measurement of cultivated area and identification of illegal temporary buildings based on spatial information construction data and increase accuracy.
더욱이, 하나의 관리서버 시스템에서 통합 관리되면서 전국의 작물 재배 면적에 관한 제반 정보의 용이한 파악에 따라 불법 등록 농가의 색출도 쉬워질 수 있으며, 직불금 지급 대상에 대한 정확한 판단과 예산 집행에 대한 투명성도 확보할 수 있다.Moreover, as it is managed integratedly in one management server system, it can be easy to find out illegally registered farmhouses according to the easy grasp of all information on the crop cultivation area nationwide, and it is possible to make an accurate judgment on the target of direct payment and transparency in budget execution. can also be obtained.
도 1은 본 발명에서의 관리서버에 탑재된 드론운용소프트웨어를 통한 비행 계획 수립에 필요한 설정의 처리 과정을 일례로 도시한 도면,
도 2는 본 발명에서의 드론 촬영을 위한 과정을 일례로 도시한 도면,
도 3은 본 발명에서의 영상처리컴퓨터를 통한 영상 처리과정을 일례로 도시한 도면,
도 4는 본 발명에서의 영상처리컴퓨터를 통한 영상 처리과정을 다른 일례로 도시한 도면,
도 5는 본 발명에서의 드론으로부터 촬영된 샘플 영상 결과를 일례로 보이기 위한 도면,
도 6은 본 발명에서의 드론으로부터 촬영된 대상지의 1차와 2차의 정사영상을 일례로 보이기 위한 도면,
도 7은 본 발명에서의 드론으로부터 촬영된 대상지의 인접경로간 중복사진을 비교하기 일례로 위한 도면,
도 8은 본 발명에서의 드론으로부터 촬영된 대상지의 1차와 2차의 촬영 주제도 중첩을 일례로 나타내기 위한 도면,
도 9는 본 발명에서의 인공지능탑재 프로그램을 통한 작물판독 및 면적게산 자동화 처리 과정을 일례로 나타내기 위한 도면,
도 10은 본 발명에서의 인공지능탑재 프로그램을 통한 작물판독 결과의 일례로서 작물번호, 구역번호, 경계선 등을 출력하여 예시한 도면,
도 11은 본 발명에서의 인공지능탑재 프로그램을 통한 작물판독 결과의 다른 일례로서 작물 대상지의 특정 구역에 대한 작물의 종류에 따른 넘버링, 작물명, 면적 등의 정보들을 출력하여 예시한 도면,
도 12는 본 발명에서의 인공지능탑재 프로그램을 통한 작물판독 결과의 또 다른 일례로서 정사영상, 작물판독, 전수조사 결과의 중첩 정보들을 출력하여 예시한 도면,
도 13은 본 발명에서의 인공지능탑재 프로그램을 통한 작물판독 결과와 전수조사결과를 기준으로 작물판독 결과를 비교한 표를 일례로 도시한 도면,
도 14는 본 발명에서의 무인기로부터 촬영된 작물 대상지의 영상에 관한 공간해상도에 따른 고도 및 확대영상을 일례로 도시한 도면,
도 15는 본 발명에서의 무인기가 지면 경사지와의 고도와 평행하지 않는 비행 즉, 직선비행의 문제를 개념적으로 나타내기 위한 도면,
도 16은 본 발명에서의 무인기가 지상과 상공의 비행 과정에서 발생될 수 있는 기상 현상을 개념적으로 도시한 도면,
도 17은 본 발명에서의 관리서버에 탑재된 드론운용소프트웨어의 구성을 모니터 화면에 일례로 도시한 도면,
도 18은 본 발명에서의 관리서버에 탑재된 드론운용소프트웨어의 영상 처리 과정을 일례로 도시한 도면이다.1 is a view showing, as an example, the processing process of settings necessary for flight plan establishment through the drone operation software mounted on the management server in the present invention;
2 is a view showing an example of a process for shooting a drone in the present invention;
3 is a view showing an image processing process through an image processing computer in the present invention as an example;
4 is a view showing an image processing process through an image processing computer in the present invention as another example;
5 is a view for showing the sample image results taken from the drone in the present invention as an example;
Figure 6 is a view for showing as an example the primary and secondary orthographic images of the target site taken from the drone in the present invention,
7 is a diagram for an example of comparing overlapping photos between adjacent paths of a target site taken from a drone in the present invention;
8 is a view for showing the overlap of the primary and secondary shooting subject diagrams of the target site photographed from the drone in the present invention as an example;
9 is a view for showing an example of an automated processing process for crop reading and area calculation through an AI-equipped program in the present invention;
10 is a diagram illustrating an example of a crop reading result through an AI-equipped program in the present invention by outputting a crop number, a zone number, a boundary line, and the like;
11 is another example of a crop reading result through an AI-equipped program in the present invention, which is a diagram illustrating outputting information such as numbering, crop name, area, etc. according to the type of crop for a specific area of the crop target area;
12 is another example of the results of crop reading through the artificial intelligence-equipped program in the present invention, and is a diagram illustrating the output of overlapping information of orthographic images, crop reading, and total survey results;
13 is a view showing, as an example, a table comparing the results of crop reading based on the results of the crop reading through the artificial intelligence-equipped program in the present invention and the results of the total investigation;
14 is a view showing an elevation and enlarged image according to spatial resolution of an image of a crop target taken from an unmanned aerial vehicle in the present invention as an example;
15 is a view for conceptually illustrating the problem of the flight that is not parallel to the altitude of the unmanned aerial vehicle with the ground slope in the present invention, that is, a straight flight;
16 is a view conceptually illustrating a meteorological phenomenon that may occur in the process of flying the UAV in the present invention on the ground and in the sky;
17 is a view showing the configuration of the drone operation software mounted on the management server in the present invention as an example on the monitor screen;
18 is a diagram illustrating an image processing process of the drone operating software mounted on the management server in the present invention as an example.
본 발명은 다양한 변형 실시 예들을 통한 기술적 사상에 이르는 권리 범위까지 포함하는 방식으로 해석되어야 할 것이며, 단지 본 실시예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.The present invention should be interpreted in a way that includes the scope of rights that reach the technical idea through various modified embodiments, only these embodiments make the publication of the present invention complete, and common knowledge in the technical field to which the present invention belongs It is provided to fully inform the possessor of the scope of the invention, and the present invention is only defined by the scope of the claims.
더욱이, 본 발명에 유첨된 도면들은 어디까지나 본 발명에 대한 설명의 이해를 돕기 위한 방안으로 첨부된 관계로, 본 발명의 기술적 사상이 유첨된 도면들에 의해 한정되어 해석되지 말아야 할 것이다.Moreover, the drawings attached to the present invention are attached as a way to help the understanding of the description of the present invention to the last, and the technical spirit of the present invention should not be interpreted as being limited by the attached drawings.
본 발명에 따른 무인기 기반 영상 취득의 광지역 공간정보 구축시스템은, 무인기, 영상처리컴퓨터 및 관리서버로 구성되는 시스템으로 제공될 수 있으며, 무인기의 무선 비행 조종을 위한 조종제어기와 휴대단말기도 더 구비될 수 있으며, 무인기에서 전송되는 작물 재배 대상지의 촬영 영상 데이터 및 무인기의 조종 제어에 필요한 신호 데이터는 GPS를 통하여 각각 영상처리컴퓨터와 휴대단말기에 전송될 수 있다. 특히, 상기 영상처리컴퓨터는 무인기로부터 촬영된 작물 재배 대상지의 방대한 영상 데이터를 효율적으로 가공 처리할 수 있는 워크스테이션급 이상의 고급사양의 컴퓨터를 이용할 수 있다.The system for constructing wide area spatial information for image acquisition based on an unmanned aerial vehicle according to the present invention may be provided as a system consisting of an unmanned aerial vehicle, an image processing computer, and a management server, and further equipped with a control controller and a portable terminal for wireless flight control of the unmanned aerial vehicle The image data of the crop cultivation site transmitted from the unmanned aerial vehicle and the signal data necessary for the operation and control of the unmanned aerial vehicle may be transmitted to the image processing computer and the portable terminal, respectively, through the GPS. In particular, the image processing computer can use a workstation-class or higher-level computer capable of efficiently processing vast image data of crop cultivation sites photographed from an unmanned aerial vehicle.
또한, 상기 영상처리컴퓨터에는 영상 데이터의 가공 처리를 스마트하게 처리할 수 있는 인공지능탑재 프로그램이 설치되어 운용될 수 있으며, 무인기로부터 촬영된 현장 작물 재배 대상지의 촬영사진들과 영상처리 및 검증에 대한 결과물로서 정사영상, 공간정보 구축 및 주제도 중첩에 관한 결과물을 데이터 베이스화하여 관리서버에서 통합된 형식으로 관리될 수 있다. 이러한 인공지능탑재 프로그램은 후술 과정에서 더욱 상세히 설명될 것이다.In addition, the image processing computer can be installed and operated with an artificial intelligence-equipped program that can smartly process image data processing, and images taken from the unmanned aerial vehicle and image processing and verification of the field crop cultivation site. As a result, it can be managed in an integrated format in the management server by making a database of the results related to orthographic images, spatial information construction, and thematic map overlapping. Such an AI-equipped program will be described in more detail in a later process.
상기 무인기는 예컨대 드론을 활용할 수 있되, 작물 재배 대상지 그러니까 작물의 촬영 대상지 항공을 비행하며 대상지를 촬영하기 위한 비행 계획에 근거하여 비행할 수 있으며, 비행 계획에 대한 구체적인 절차의 경우 도 1과 같이 관리서버의 모니터를 통한 촬영 지역 설정 -> 일정한 면적 기준을 정한 격자망 구성(예컨대 1회 비행가능 시간 기준) -> 구글어스 또는 네이버 지도와 다음 지도 등 위성사진, 항공사진을 통한 현장상황 및 이착륙지 확인(오픈지도를 통해 이착륙지 살펴보기) -> 각 오픈지도별 공간해상도와 업데이트 주기가 상이하므로 가장 활용도가 뛰어난 영상을 활용해 촬영계획 수립 -> 촬영대상지 경계와 격자망을 kml 형식으로 저장 -> 드론운용소프트웨어(예컨대 eMotion3)에서 kml 형식 파일 등을 불러와 비행 시뮬레이션을 실시하여 미션으로 저장 -> 현장에서 미션을 불러와 즉시 비행 실시의 과정들을 통하여 이루어질 수 있다. The unmanned aerial vehicle may use, for example, a drone, and may fly based on a flight plan to shoot the target while flying the crop cultivation target, that is, the crop shooting target, and in the case of a specific procedure for the flight plan, it is managed as shown in FIG. 1 Setting the shooting area through the server monitor -> Configuring a grid with a certain area standard (for example, based on the time available for one flight) -> Satellite photos such as Google Earth or Naver maps and Daum maps, field conditions and take-off and landing locations through aerial photos Confirmation (Examine the take-off and landing sites through the open map) -> Since the spatial resolution and update cycle of each open map are different, use the most useful video to establish a shooting plan -> Save the boundary and grid of the shooting site in kml format - > Load kml format file from drone operation software (eg eMotion3), execute flight simulation, and save as mission -> It can be done through the process of immediately executing flight by calling mission from the field.
이러한 상기 드론에는 작물의 촬영 대상지에 대한 영상 정보 획득을 위한 촬영카메라가 탑재될 수 있으며, 경우에 따라 3D 스캐너가 탑재되어 활용될 수도 있으며, 상기 드론의 지면 경사지와의 평행 유지 비행을 위한 고도변화대응장치 및 상공의 기상을 관측하기 위한 기상관측장치가 더 설치될 수 있으며, 상기 관리서버에는 드론운용소프트웨어가 설치될 수 있다.Such a drone may be equipped with a photographing camera for obtaining image information on the target area of crops, and in some cases, a 3D scanner may be mounted and utilized, and the altitude change for maintaining parallel flight with the ground slope of the drone A corresponding device and a weather observation device for observing the weather in the sky may be further installed, and drone operation software may be installed in the management server.
작물의 재배 대상지에 대한 무인기로서 드론 촬영의 경우 예컨대 도 2과 같이 촬영 및 비행허가 신청 -> 드론 촬영 -> 영상 전처리 -> 영상처리를 거치는 과정으로 이루어질 수 있으며, 비행계획 수립과 현장답사는 촬영 및 비행허가 신청과 드론 촬영 사이에서 수행될 수 있음은 물론이다.In the case of drone photography as an unmanned aerial vehicle for crop cultivation sites, for example, as shown in Fig. 2, it can be done through the process of filming and application for flight permission -> drone photography -> image pre-processing -> image processing. And, of course, it can be performed between the application for a flight permit and drone photography.
상기 영상 전처리 및 영상처리는 영상처리컴퓨터에 탑재된 인공지능탑재 프로그램을 통하여 가공 처리되어 활용에 유용한 데이터 형식으로 저장될 수 있으며, 이때, 인공지능탑재 프로그램은 상기 관리서버에 설치된 드론운용소프트웨어와 연동될 수 있다. 촬영 및 비행허가 신청은 영상처리컴퓨터에 저장된 양식을 통해 비행허가기관에서 운용되는 홈페이지 서버에 제출될 수 있다.The image pre-processing and image processing may be processed through an artificial intelligence-equipped program mounted on an image processing computer and stored in a useful data format, at this time, the artificial intelligence-equipped program interlocks with the drone operation software installed in the management server. can be Filming and flight permit applications can be submitted to the website server operated by the flight permitting agency through the form stored in the image processing computer.
영상 처리에 있어서, 영상처리컴퓨터에 탑재된 인공지능탑재 프로그램에서 제공되는 예컨대 도 3 내지 도 4와 같은 Initial Processing -> point cloud and mesh -> DSM, Orthomosaic 단계의 순서로 영상 처리가 진행될 수 있다.In the image processing, the image processing may be performed in the order of Initial Processing -> point cloud and mesh -> DSM, Orthomosaic steps, for example, as shown in FIGS. 3 to 4, provided by the artificial intelligence-equipped program mounted on the image processing computer.
작물의 촬영 대상지에 대한 영상 샘플의 촬영 및 결과는 해상도가 좋을수록 고도는 낮아지고, 인접 비행경로와 가까워지며, 비행시간은 길어질 수 있고, 해상도가 낮을수록 고도는 높아지고, 인접 비행경로와 멀어지며, 비행시간은 짧아질 수 있다. 고도가 상승할수록 바람의 세기가 강하고, 상승 및 하강 시간이 과다히소요되며, 극심한 배터리 소모가 발생될 수 있다. 이에 대해서는 도면 5를 참고할 수 있다.The higher the resolution, the lower the altitude, closer to the adjacent flight path, the longer the flight time can be, and the lower the resolution, the higher the altitude, and the farther away from the adjacent flight path, the higher the resolution is. , the flight time may be shortened. As the altitude increases, the wind strength becomes stronger, the ascent and descent time is excessive, and extreme battery consumption can occur. For this, reference may be made to FIG. 5 .
작물의 촬영 대상지에 대한 드론 촬영 결과로서 예컨대 도 6에서와 같이 1차 촬영 정사영상 및 DSM 영상, 2차 촬영 정사영상 및 DSM 영상의 결과물로 나올 수 있고, 더욱이 작물의 촬영 대상지에 대한 드론 촬영 결과 분석으로서 도 7과 같이 1차 촬영 중복(과다)과 2차 촬영 중복(적정)을 서로 비교하는 인접 경로간 중복사진 비교를 통하여 분석될 수 있다.As a result of drone shooting for a target area of crops, for example, as shown in FIG. 6 , it may be obtained as a result of a first orthographic image and a DSM image, and a secondary shot orthographic image and a DSM image, and furthermore, a drone shooting result for the target area of a crop As an analysis, as shown in FIG. 7 , it can be analyzed through the comparison of overlapping photos between adjacent paths comparing the overlap of the primary photographing (excessive) and the second photographing (appropriate) with each other.
즉, 1차 촬영시 중복도 과다설정으로 인해 촬영시간 증가와 방대한 사진매수, 2차 촬영시 촬영결과물에 지장이 없는 한도 내 중복도 조정 가능하며, 1차 촬영 사진 6,138매, 2차 촬영 사진 3,766매, 약 2,400매 차이, 드론의 촬영 경험 축적에 따른 효율적인 촬영이 가능하다.In other words, due to excessive redundancy setting during the 1st shooting, the shooting time increases and the number of photos is large. During the 2nd shooting, the overlap can be adjusted within the limit that does not interfere with the shooting result. 6,138 pictures taken 1st shot, 3,766 pictures taken 2nd shot Efficient shooting is possible according to the difference of about 2,400 shots per shot, and the accumulation of drone shooting experience.
한편, 현장점검 및 현황파악을 위해 주제도에 영상을 중첩하는 방식으로서 예컨대 도 8과 같이 1차 촬영 주제도 중첩 및 2차 촬영 주제도 중첩을 참고할 수 있으며, 전수조사 방법에 있어서, 전수조사 구역분할 -> 현장 전수조사 -> 조사지역 방식일 수 있고, 전주소자 구역분할에 있어서, 대축척 위성지도 인쇄, 육안으로 확인 가능하며 1일 동안 조사기능 지역으로 분할, 도엽번호가 입력된 위치태그가 부착될 수 있다. On the other hand, as a method of superimposing an image on the subject map for on-site inspection and understanding of the current situation, for example, as shown in FIG. 8, the overlapping of the primary shooting subject and the overlapping of the secondary shooting subject may be referred to. It can be divided -> full on-site survey -> survey area method, and in division of the entire addressee area, large-scale satellite map printing can be checked with the naked eye, divided into survey function areas for 1 day, location tag with map number is attached can be
작물의 재배 대상지에 대한 작물 전수조사에 있어서, 1차(하계) 전수조사 결과 도식화에 따른 전수조사 결과로서 예컨대 작물 21종이 조사될 수 있고, 총 품목필지는 1,090 필지이며, 필지 수가 가장 많고 넓은 필지는 논이고, 필지수는 56.6%, 면적비율은 50.8%이고, 필지 수가 두번째로 많은 곳은 고추(8.2%), 면적이 두번째로 넓은 곳은 무우(10.7%)일 수 있다.In the total crop survey on the target area of crops, for example, 21 crops can be investigated as the result of the total survey according to the first (summer) survey result schematically, and the total number of parcels is 1,090 parcels, and the lot with the largest number of parcels is the largest. is a rice field, the number of lots is 56.6%, the area ratio is 50.8%, and the place with the second largest number of lots may be red pepper (8.2%), and the place with the second largest area may be radish (10.7%).
2차(동계) 전수조사 결과 도식화에 따른 전수조사 결과로서 예컨대 작물 10종이 조사될 수 있고, 계절상 수확을 끝낸 미경작지가 다수이며, 미경작지의 필지 비율이 76%, 필지 수가 두 번째로 많은 곳은 무(8.9%), 조사당시 양파와 마늘은 초기 생육 시기, 전수조사 당시 배추와 무는 수확을 한 곳이 많았다.As a result of the second (winter) full-scale survey, for example, 10 crops can be surveyed as a result of a full-scale survey according to the schematic, and there are many uncultivated land that has finished harvesting in season, with 76% of uncultivated land, and the second largest number of plots. Radishes (8.9%) were found in many places, while onions and garlic were in the early growth stage at the time of the survey, and cabbage and radishes were harvested in many places at the time of the total survey.
즉, 1차(하계)전수조사 결과 논 필지가 절반, 경작지 필지수의 탑 5는 논, 고추, 깨, 인삼, 수박 순서일 수 있고, 경작지 면적 비율의 탑 5는 논, 무, 수박, 인삼, 양파 순서일 수 있다. 그리고, 2차(동계)전수조사 결과 논 필지의 수확으로 미 경작지가 다수이고, 경작지 필지수의 탑 5는 미경작지, 무, 인삼, 복분자, 양파 순서이며, 경작지 면적 비율의 탑 5는 미경작지,무, 인삼, 양파, 배추일 수 있다.In other words, as a result of the first (summer) census, half of the paddy land area, the
한편, 영상처리컴퓨터에 탑재된 인공지능탑재 프로그램은 인공신경망, 딥러닝, 기계학습의 과정을 수행할 수 있되, 인공신경망(neural network)의 경우 인간의 두뇌를 구성하는 뉴런과 시냅스의 정보전달 및 처리과정을 모델링하고, 학습기능을 부여하여 문제해결 능력을 갖도록 한 수학적 기법이며, 딥러닝(deep learning)의 경우 심층 인공신경망에 방대한 데이터를 입력하여 특징을 스스로 찾도록 가중치를 갱신하는 과정이며, 기계학습(machine learning)의 경우 인공신경망에 방대한 데이터를 입력하여 목적(이미지 분류 등)에 적합하게 가중치를 갱신하는 과정이다.On the other hand, the artificial intelligence-equipped program mounted on the image processing computer can perform the processes of artificial neural networks, deep learning, and machine learning, but in the case of an artificial neural network, information transfer of neurons and synapses constituting the human brain and It is a mathematical technique that models the processing process and gives it a learning function to have problem-solving ability. In the case of deep learning, it is a process of updating weights to find features by inputting vast amounts of data into a deep artificial neural network. In the case of machine learning, it is a process of inputting a large amount of data into an artificial neural network and updating the weights suitable for the purpose (image classification, etc.).
특히, 인공신경망의 기법은 특정한 분야에 사용할 수 있도록한 구성으로서 인공신경망의 선택에 따라 결과가 달라질 수 있는 관계로, 본 발명에서는 인공신경망이 최적의 작물판독기법에 적합한 신경망으로 구성될 수 있다.In particular, the artificial neural network technique is a configuration that can be used in a specific field, and the results may vary depending on the selection of the artificial neural network. In the present invention, the artificial neural network can be configured as a neural network suitable for the optimal crop reading technique.
이처럼, 최적의 작물판독기법에 적합한 인공신경망에 대한 일례로서 Feed Forward Neural Network(FFNN), Convolutional Neural Network(CNN), Convolutional Neural Network_2(CNN2), Auto Encoder, Boltzmann Machine & Others, Boltzmann Machine & Others_2 등이 있다.As an example of an artificial neural network suitable for the optimal crop reading technique, Feed Forward Neural Network (FFNN), Convolutional Neural Network (CNN), Convolutional Neural Network_2 (CNN2), Auto Encoder, Boltzmann Machine & Others, Boltzmann Machine & Others_2, etc. There is this.
상기 인공지능탑재 프로그램은 알고리즘을 활용하여 사전에 입력된 영상 패턴을 인지하고 새로운 이미지의 작물 및 경계를 산출할 수 있으며, 프로그램의 주요 기능으로서 경계선 검출, 농작물 종류 인식, 작물별 경작면적 산출의 기능을 처리할 수 있다. 경계선 검출의 경우 도로, 농로, 이종 작물 간의 경계선을 자동 검출할 수 있고, 농작물 종류 인식의 경우 브로콜리, 오렌지, 마늘 등 수집종의 농작물을 자동으로 인식할 수 있으며, 작물 별 경작면적 산출의 경우 각 작물 별 경작면적을 자동으로 산출하여 면적 집계표를 작성할 수 있다.The AI-equipped program can recognize the image pattern input in advance and calculate the crop and boundary of a new image by using an algorithm, and the main functions of the program include boundary detection, recognition of crop types, and calculation of cultivated area for each crop. can be processed In case of boundary line detection, it is possible to automatically detect the boundary line between roads, farm roads, and different crops, and in case of crop type recognition, crops of collected species such as broccoli, orange, and garlic can be automatically recognized. By automatically calculating the cultivated area for each crop, it is possible to create an area aggregate table.
이러한 상기 인공지능탑재 프로그램은 작물판독 및 면적계산을 자동화하기 위한 작동 처리 과정으로서 예컨대 도 9와 같이 항공촬영 이미지에 대한 경계선을 검출한 다음, 농작물 라벨링의 데이터베이스 구축에 이어, 농작물 패턴의 학습후, 국부 영역 농작물의 인식, 경계선 내부 농작물 판별, 농작물 면적 산출 및 집계를 수행할 수 있는 것이다.This AI-equipped program is an operational process for automating crop reading and area calculation, for example, after detecting a boundary line for an aerial photographed image as shown in FIG. 9, and then constructing a database of crop labeling, after learning the crop pattern, It is possible to recognize local crops, identify crops within the boundary line, and calculate and aggregate crop areas.
이러한 상기 인공지능탑재 프로그램은 1차 알고리즘의 최적화와 기계학습이 진행중일 수 있고, 전수조사가 이루어진 촬영지역의 10제곱키로미터를 대상으로 작물 판독이 가능하며, 1차와 2차 촬영 결과 모두를 판독 실시할 수 있고, 예컨대 도 10과 같이 입력한 구역별로 처리 결과가 나오며, 이미지와 재배면적 리스트를 생성할 수 있고, 판독 구역의 번호는 'Cont' 로 작물번호는 'Label' 로 설정할 수 있다.In this AI-equipped program, the optimization of the first algorithm and machine learning may be in progress, and it is possible to read crops for 10 square kilometers of the shooting area where the full investigation has been made, and both the first and second shooting results are available. Reading can be performed, for example, processing results are displayed for each input zone as shown in FIG. 10, an image and a list of cultivated areas can be created, and the number of the reading zone can be set to 'Cont' and the crop number to 'Label'. .
상기 프로그램으로부터 판독된 작물판독의 결과는 예컨대 도면 11과 같이 고청 구역1의 영역1과 영역2로 나올 수 있으며, Label 번호에 따라 해당되는 작물의 종류 및 면적들이 산출되는 방식으로 출력될 수 있다.The result of crop reading read from the program may be output as, for example,
또한, 작물판독의 결과는 예컨대 도면 12와 같이 정사영상을 통한 작물판독, 전수조사 결과를 파악할 수 있는데, 전수조사와 현황도는 파란선으로 도화될 수 있고, 작물 판독은 초록선으로 도화될 수 있으며, 작물 판독이 실시된 지역만 선택하여 비교될 수도 있다. 이처럼, 작물판독과 전수조사는 서로 비교되면서 작물판독 결과의 정확도도 함께 파악될 수 있다.In addition, the result of crop reading can be grasped as the result of crop reading and total survey through orthographic images, for example, as shown in FIG. 12. The total survey and the current status diagram can be drawn with a blue line, and the crop reading can be drawn with a green line. It can also be compared by selecting only the regions where crop readings have been taken. In this way, the accuracy of the crop reading result can be grasped as well as the crop reading and the total survey are compared.
하지만, 기존의 작물판독에 대한 결과는 전수조사와 비교시 정확도에 큰 차이를 나타내고 있는데, 특히 작물 면적의 측정 결과가 전수조사의 결과와 큰 차이를 보인다. 이러한 차이는 영상 이미지의 품질, 입력 데이터의 부족, 인공지능 기계학습 시간의 불충분, 영상 오류 등에서 기인할 수 있다. 이러한 기존의 작물판독에 대한 결과는 전수조사와 비교시 예컨대 도 13과 같이 각 항목에서 상당한 차이를 보이고 있다.However, the results of the existing crop reading show a large difference in accuracy compared to the census survey. In particular, the measurement results of crop area show a big difference from the results of the census survey. This difference may be due to the quality of the video image, the lack of input data, the insufficient time for artificial intelligence machine learning, and the video error. The results of this conventional crop reading show a significant difference in each item, for example, as shown in FIG. 13 when compared with the census survey.
즉, 작물의 면적 측정 결과가 전수조사의 결과와 큰 차이를 보이는 가장 주된 이유는 영상 이미지의 품질 및 오류에 기인하게 되는데, 이는 기존 드론의 항공 촬영 과정에서 드론의 수평과 기울임 비행의 감지 파악이 전무한 관계로, 드론의 기울임 비행에서 촬영된 영상에서 이미지의 품질 및 오류가 발생되는 것이다.In other words, the main reason that the results of crop area measurement differ from the results of the full investigation is due to the quality and error of the video image. This is because the detection and identification of the horizontal and tilted flight of the drone in the aerial photography process of the existing drone is difficult. Since there is no relationship, the image quality and errors occur in the images captured in the tilted flight of the drone.
드론의 수평 비행 시점에 영상의 촬영이 매우 중요한데, 만일, 드론이 수평 비행하지 않고 기울어진 상태로 비행하는 과정에서 촬영된 영상은 작물의 면적을 판독하는 과정에서 실제 현장 작물 대상지의 면적과 큰 차이를 보인다. 즉, 작물 대상지의 촬영 영상이 수평한 상태에서 촬영된 것이 아닌 기울어진 채로 촬영된 것인 관계로, 실제 현장 작물 대상지와의 면적과 큰 차이를 나타내는 것이다.It is very important to take an image at the time of horizontal flight of the drone. If the image taken while the drone is flying in an inclined state rather than flying horizontally is significantly different from the area of the actual field crop site in the process of reading the area of the crop. looks like That is, since the photographed image of the crop site is not photographed in a horizontal state, but is photographed at an angle, it represents a large difference from the area of the actual field crop site.
이뿐만 아니라, 프로그램은 분류 작물의 다양한 모양을 기계학습하는 이미지 세트의 증가가 요구되고, 기존의 현황선 또는 지적도를 기준으로 경계선 변경 부분에 대한 입력의 처리가 요구되며, 촬영이미지의 공간해상도 향상을 위한 촬영카메라 장비의 영상 사양도 향상될 수 필요가 있으며, 작물의 생육 초기부터 수확 시기까지 작물의 다양한 생육 시기에 대한 데이터 베이스를 계절별로 구축할 필요가 있을 것이다.In addition to this, the program requires an increase in image sets for machine learning of various shapes of classified crops, processing of input for boundary line changes based on existing current status lines or cadastral maps, and improvement of spatial resolution of photographed images It is also necessary to improve the image specifications of the imaging camera equipment for this purpose, and it will be necessary to establish a database for the various growing seasons of crops by season, from the initial period of crop growth to the time of harvest.
산간지역의 안전한 드론 운용 방안을 위해서는 2D영상의 경우 지형의 고도차이를 인지하기 어렵지만 예컨대 eBee Plus의 드론 운용 소프트웨어를 통하여 3D 영상의 고도차를 고려한 비행 계획 수립이 가능할 것이고, 드론 운용 소프트웨어를 통한 경로 수정도 가능할 것이다.For safe drone operation in mountainous areas, it is difficult to recognize the difference in altitude in the case of 2D images, but for example, through the drone operation software of eBee Plus, it will be possible to establish a flight plan considering the altitude difference in the 3D image, and correct the route through the drone operation software. will also be possible
또한, 후술될 고도변화대응장치에서 반사되어 회귀되는 레이저를 수광하는 수광부에 감지센서가 더 구성되어 있는 관계로, 레이저의 회귀 시간에 따른 시간차 정보를 감지하는 방식으로 지면 경사지와 평행하게 드론이 비행될 수 있다.In addition, since the detection sensor is further configured in the light receiving unit that receives the laser reflected and returned from the altitude change response device, which will be described later, the drone flies parallel to the ground slope in a way that detects time difference information according to the return time of the laser. can be
만일, 지면 경사지와 무관한 즉 드론이 지면 경사지와 평행하게 비행되지 않고 직선경로로만 비행될 경우, 지면과의 고도 차이로 인하여 영상의 정합 과정에 오류가 발생될 수 있고, 이는 결국 작물의 제반 판독 데이터가 실제 현장의 지면 고도 정보와 일치하지 않는다. 즉, 감지센서는 레이저의 회귀 시간차에 따라 드론이 지면의 경사지와 평행하게 비행할 수 있도록 감지신호를 위성으로 관리자의 단말기에 전송함에 따라 사용자는 휴대단말기를 통해 드론의 평행 비행을 위한 조종을 수행할 수 있는 것이다.If the drone is not flying parallel to the ground slope, that is, the drone is flying only on a straight path, regardless of the ground slope, an error may occur in the image registration process due to the difference in altitude from the ground, which in turn results in the overall reading of crops. The data does not match the ground elevation information of the actual site. That is, the detection sensor transmits the detection signal to the manager's terminal via satellite so that the drone can fly parallel to the slope of the ground according to the laser's return time difference. it can be done
즉, 지면의 경사지와 드론의 경로가 평행하도록 비행되어야 할 것이며, 이는 곧 공간해상도의 변화와 직결된다. 공간해상도의 변화는 도 14를 참고할 수 있다.In other words, it should be flown so that the slope of the ground and the path of the drone are parallel, which is directly related to the change in spatial resolution. The change of spatial resolution may refer to FIG. 14 .
따라서, 고도변화대응장치에 구성된 수광부와 연결된 감지센서는 이러한 드론의 비행 경로를 지면의 경사지와 평행할 수 있게 능동적인 대처를 수행할 수 있는 것이다. 또한, 산을 넘는 경로 설정시 이착륙지에서 미션지역까지 직선거리로 산을 넘어갈 경우 이동 중에 산에 부딪칠 수 있는 사고도 방지할 수 있다. 만일, 드론이 지면 경사지와 평행한 비행을 하지 않고 직선 비행을 고집할 경우 도 15와 같이 종국에는 추돌되는 사고가 발생될 수 있는 것이다. 이처럼, 고도변화대응장치에 구성된 수광부와 연결되는 감지센서는 드론의 비행 경로를 지면의 경사지와 평행하게 하는 기능을 수행하는 것이다.Therefore, the detection sensor connected to the light receiving unit configured in the altitude change response device can actively take countermeasures so that the flight path of the drone is parallel to the slope of the ground. In addition, when setting a route over a mountain, it is possible to prevent an accident that may hit a mountain while moving when crossing the mountain in a straight line from the landing site to the mission area. If the drone insists on flying in a straight line instead of flying parallel to the slope of the ground, a collision accident may occur in the end as shown in FIG. 15 . As such, the detection sensor connected to the light receiving unit configured in the altitude change response device performs a function of making the flight path of the drone parallel to the slope of the ground.
무인기로서 드론에 설치되는 고도변화대응장치 및 기상관측장치의 설치 구조에 대한 도면은 미도시되어 있으나 후술의 설명으로 충분한 이해가 되는 관계로 미도시로 인한 기재 불비의 사유에 해당될 수 없을 것이다.Although the drawings for the installation structure of the altitude change response device and the weather observation device installed on the drone as an unmanned aerial vehicle are not shown, it will not be applicable to the reason for the lack of description due to the lack of illustration because it is fully understood as described below.
산간지역의 안전한 드론 운용 방안을 위해서는 2D영상의 경우 지형의 고도차이를 인지하기 어렵지만, 상기 드론에 설치된 MCU에는 예컨대 eBee Plus의 드론운용소프트웨어를 통하여 3D 영상의 고도차를 고려한 비행 계획 수립이 가능할 것이고, 드론운용소프트웨어를 통한 경로 수정도 가능할 것이다. 물론, 관리서버에 설치된 드론운용소프트웨어는 상기 MCU에서도 호환될 수 있다.For safe drone operation in mountainous areas, it is difficult to recognize the difference in terrain in the case of 2D images, but it will be possible to establish a flight plan considering the altitude difference in 3D images through the drone operation software of eBee Plus, for example, in the MCU installed in the drone. It will also be possible to modify the route through drone operation software. Of course, the drone operation software installed in the management server may be compatible with the MCU.
또한, 드론에는 고도변화대응장치뿐만 아니라 기상관측장치가 더 탑재될 수 있으며, 상기 고도변화대응장치는 반사되어 회귀되는 레이저를 수광하기 위한 수광부 및 감지센서로 구성될 수 있다. 따라서, 상기 감지센서는 반사되는 레이저를 수광하는 수광부의 레이저 회귀 시간에 따른 시간차 정보를 감지하는 방식으로 지면 경사지와 평행하게 드론이 비행할 수 있도록 감지신호를 휴대단말기로 전송할 수 있고, 조종사 즉 사용자는 이를 참고로 드론을 지면의 경사지와 평행하는 고도를 유지하며 드론 비행을 조종할 수 있다.In addition, the drone may be equipped with not only an altitude change response device but also a weather observation device, and the altitude change response device may include a light receiving unit and a detection sensor for receiving a reflected and returned laser. Therefore, the detection sensor can transmit a detection signal to the portable terminal so that the drone can fly parallel to the ground slope in a way that detects time difference information according to the laser return time of the light receiving unit that receives the reflected laser, and the pilot, that is, the user With reference to this, it is possible to control the drone flight while maintaining the altitude parallel to the slope of the ground.
만일, 지면 경사지와 무관한 즉 드론이 지면 경사지와 평행하게 비행되지 않고 직선경로로만 비행될 경우, 지면과의 고도 차이로 인하여 영상의 정합 과정에 오류가 발생될 수 있고, 이는 결국 작물의 제반 판독 데이터가 실제 현장의 지면 고도 정보와 일치하지 않는다. 즉, 감지센서는 레이저의 회귀 시간차에 따라 드론이 지면의 경사지와 평행하게 비행할 수 있도록 감지신호를 위성으로 사용자의 단말기에 전송함에 따라 사용자는 휴대단말기를 통해 드론의 평행 비행을 위한 조종을 수행할 수 있는 것이다.If the drone is not flying parallel to the ground slope, that is, the drone is flying only on a straight path, regardless of the ground slope, an error may occur in the image registration process due to the difference in altitude from the ground, which in turn results in the overall reading of crops. The data does not match the ground elevation information of the actual site. That is, the detection sensor transmits a detection signal to the user's terminal through a satellite so that the drone can fly parallel to the slope of the ground according to the laser's return time difference. it can be done
즉, 지면의 경사지와 드론의 경로가 평행하도록 비행되어야 할 것이며, 이는 곧 공간해상도의 변화와 직결된다. 따라서, 고도변화대응장치에 구성된 수광부와 연결된 감지센서는 이러한 드론의 비행 경로를 지면의 경사지와 평행할 수 있게 능동적인 대처를 수행할 수 있는 것이다. 또한, 산을 넘는 경로 설정시 이착륙지에서 미션지역까지 직선거리로 산을 넘어갈 경우 이동 중에 산에 부딪칠 수 있는 사고도 방지할 수 있다. 이처럼, 고도변화대응장치에 구성된 수광부와 연결되는 감지센서는 드론의 비행 경로를 지면의 경사지와 평행하게 하는 기능을 수행하는 것이다.In other words, it should be flown so that the slope of the ground and the path of the drone are parallel, which is directly related to the change in spatial resolution. Therefore, the detection sensor connected to the light receiving unit configured in the altitude change response device can actively take countermeasures so that the flight path of the drone is parallel to the slope of the ground. In addition, when setting a route over a mountain, it is possible to prevent an accident that may hit a mountain while moving when crossing the mountain in a straight line from the landing site to the mission area. As such, the detection sensor connected to the light receiving unit configured in the altitude change response device performs a function of making the flight path of the drone parallel to the slope of the ground.
특히, 상기 고도변화대응장치는 상기 드론의 하단에 설치되는 방식으로서 상기 고도변화대응장치의 동작을 위해 상기 드론의 하단과 상기 고도변화대응장치의 사이로 미세조정모터가 더 설치되는 구조이다. 이러한 미세조정모터의 설치 구조에 대해서는 충분한 설명으로 이해될 수 있는 미도시된다. In particular, the altitude change coping device is installed at the bottom of the drone, and a fine adjustment motor is further installed between the lower end of the drone and the altitude change coping device for the operation of the altitude change coping device. The installation structure of such a fine adjustment motor is not shown, which can be understood as a sufficient description.
미세조정모터는 드론의 하단과 고도변화대응장치의 상단 사이에 설치되어 드론이 기울어진 비행에서도 고도변화대응장치를 수평 상태로 동작시킬 수 있는 것이다.The fine adjustment motor is installed between the bottom of the drone and the top of the altitude change response device, so that the altitude change response device can be operated in a horizontal state even when the drone is in an inclined flight.
이러한 미세조정모터는 디지털 방식의 서보모터를 이용함에 바람직하고, 모터 내부에 마이크로 프로세서가 내장되어 수광부의 레이저 수광 여부를 판단하여 수광부가 레이저를 수광하지 못할 때 고도변화대응장치를 수평 상태로 동작시킬 수 있도록 미세조정모터의 작동을 지시하게 된다.Such a fine adjustment motor is preferable to use a digital servomotor, and a microprocessor is built in the motor to determine whether the light receiving unit receives the laser, and when the light receiving unit does not receive the laser, the altitude change response device is operated in a horizontal state. It instructs the operation of the fine-tuning motor.
이러한 미세조정모터는 마이크로 프로세서에 모터의 성능이 최대가 되도록 프로그래밍되어 있으며, 세팅값의 조절과 높은 주파수를 사용하여 위치를 더 빨리 읽어들일 수 있기 때문에 고도변화대응장치에 대한 위치제어가 신속 정확한 관계로, 아날로그 방식의 서보모터로 구현하기 불가한 미세조정을 구현할 수 있는 것이다.These fine-tuning motors are programmed in the microprocessor to maximize the motor's performance, and because the position can be read faster by adjusting the setting value and using a high frequency, the position control for the altitude change response device is fast and accurate. Therefore, it is possible to implement fine adjustments that cannot be implemented with analog servo motors.
이처럼, 상기 미세조정모터는 본 발명에서 고도변화대응장치의 신속 정확한 위치제어를 위해 필수 적용될 수 있는 미세조정 구현을 위한 특징의 동력수단이다. 이러한 상기 미세조정모터는 디지털 방식의 서보모터이면서 귀환 회로가 추가된 관계로, 정확한 위치 제어가 가능하고, 이러한 귀환 회로 추가 적용에 따라 스테핑 모터에 비해 더욱 정밀 제어가 가능하고 오동작을 수정할 수 있으며 속도면에서 스테핑 모터에 비해 훨신 빠르다.In this way, the fine adjustment motor is a power means for implementing fine adjustment that can be essential for quick and accurate position control of the altitude change response device in the present invention. This fine-tuning motor is a digital servo motor and has a feedback circuit added, so accurate position control is possible. By applying this feedback circuit, more precise control is possible compared to a stepping motor, and malfunctions can be corrected and the speed It is much faster than a stepper motor.
일반 DC 모터는 단순히 전기를 인가하여 동작하는 모터로서 이러한 모터는 전기를 차단할 경우 축 회전이 정지될 수 있지만 관성에 의해 정확한 정지 위치에 지정되는게 어렵고, 스테핑 모터의 경우 일정한 각도에 맞춰 회전되고 멈추는 모터인 관계로 상기 DC 모터의 단점을 해소할 수 있을지 모르나 고유의 분할 각도가 있고 이러한 분할 각도에 따라 움직이며 작동하는 단점이 있다. 즉, 만일 분할 각도가 1도라면 10도를 회전시키기 위해 10번의 명령이 내려져야 하는 문제가 있고, 이미 정해져 있는 각도로 인하여 예컨대 7.3도와 같은 정밀한 동작은 불가하며, 아날로그 방식의 서보모터는 위치 제어 전류가 블록 단위로 전달되는 까닭에 미세한 조정에서는 작동되지 않는 현상이 발생되는 단점이 있다. A general DC motor is a motor that operates simply by applying electricity. In such a motor, the shaft rotation can be stopped when electricity is cut off, but it is difficult to specify an exact stop position due to inertia. In the case of a stepping motor, the motor rotates and stops at a certain angle. Although it may be possible to solve the disadvantages of the DC motor due to the causal relationship, there is a disadvantage in that it has its own split angle and operates by moving according to the split angle. That is, if the division angle is 1 degree, there is a problem that 10 commands have to be given to rotate 10 degrees, and precise operation such as 7.3 degrees for example is impossible due to the predetermined angle, and the analog servomotor uses the position control current Since is transmitted in block units, there is a disadvantage that it does not work in fine adjustments.
이러한 상기의 이유들로 인하여 상기 미세조정모터는 정밀한 동작 및 신속 정확한 동작이 가능하여, 고도변화대응장치의 위치 제어에 필수한 동력수단으로 이용될 수 있는 것이다.For these reasons, the fine adjustment motor can be used as a power means necessary for position control of the altitude change response device because it is possible to operate precisely and quickly and accurately.
이러한 상기 미세조정모터는 예컨대 아두이노에 기본적인 서모모터에 대한 라이브러리가 포함될 수 있는데, 이러한 라이브러리 상에 적용되는 함수들의 경우 예컨대 attach, write, read, attached, detach 등의 함수들이 사용될 수 있으며, 설계 코드의 적용에 따라 디지털 방식의 서보모터는 아두이노에 연결되어 작동될 수 있다. 물론, 설계코드에 있어서, 예컨대 코드1은 모터를 움직여 설정 각도들에서 위치되게 하는 코드일 수 있고, 예컨대 코드2는 서모모터의 회전 속도 과정에서 회전을 마칠 중간 중간에 delay를 넣어 회전을 마칠 시간을 제공해줄 수 있는 코드일 수 있다.The fine tuning motor may include, for example, a library for a basic thermomotor in Arduino. In the case of functions applied to the library, for example, functions such as attach, write, read, attached, detach, etc. may be used, and the design code Depending on the application of the digital servomotor can be connected to Arduino and operated. Of course, in the design code, for example,
예컨대 코드 1은 서보 모터의 각도를 움직이는 코드로 서보 모터를 움직여 0도, 90도 및 180도 위치하게 하는 코드로서, 그 일례를 들면 하기와 같다.For example,
코드 1
#include<Servo.h>#include<Servo.h>
// 서보 모터 이름 짓기(인스턴스 변수 설정)// Naming the servo motor (setting instance variables)
Servo myServo;Servo myServo;
int servoPin = 9;int servoPin = 9;
void setup() {void setup() {
// 서보 모터 설정(연결) // Servo motor setup (connection)
myServo.attach(servoPin); myServo.attach(servoPin);
}}
void loop() {void loop() {
// 0도로 움직이기 // move 0 degrees
myServo.write(0); myServo.write(0);
delay(5000); delay(5000);
//90도로 움직이기 // move 90 degrees
myServo.write(90); myServo.write(90);
delay(5000); delay(5000);
//180도로 움직이기 // move 180 degrees
myServo.write(180); myServo.write(180);
delay(5000); delay(5000);
}}
코드 1을 동작시키면 서보모터가 처음에 0도 위치하고 다음은 90도, 180도 순으로 위치하다가 다시 0도로 돌아가는 것을 볼 수 있다.If you operate
만일 0도나 180도 부근에서 서보모터의 움직임에 소리가 난다면 void setup의 'myServo.attach(servoPin)'을 설정해줄 수 있다.If there is a sound when the servo motor moves around 0 degrees or 180 degrees, you can set 'myServo.attach(servoPin)' in the void setup.
'attach'함수는 원래 뒤쪽으로 'attach(pin, min_value, max_value)'로 두 개의 값이 더 있다. 이러한 두 개의 값이 기본적으로 544, 2400으로 되어 있는데 서보모터의 움직임에 소리가 날 경우 이 두 값을 조정해줄 수 있다.The 'attach' function has two more values as 'attach(pin, min_value, max_value)' behind the original. These two values are set to 544 and 2400 by default, but these two values can be adjusted if the servo motor makes a sound.
코드 2
#include<Servo.h>#include<Servo.h>
Servo myServo;Servo myServo;
int servoPin = 9;int servoPin = 9;
void setup() {void setup() {
myServo.attach(servoPin); myServo.attach(servoPin);
}}
void loop() {void loop() {
int angle; int angle;
for(angle = 0; angle < 180; angle++){ for(angle = 0; angle < 180; angle++){
myServo.write(angle); myServo.write(angle);
delay(20); delay(20);
} }
for(angle = 180; angle > 0; angle--){ for(angle = 180; angle > 0; angle--){
myServo.write(angle); myServo.write(angle);
delay(20); delay(20);
} }
}}
코드 2를 업로드 하면 서보모터가 천천히 180도까지 회전했다가 다시 0도로 회전하다. 이 코드 2에서는 'delay' 가 특징이다. 즉, 서보모터는 일반적으로 움직이는 속도가 있는데, 만일 사용한 SG90의 경우 0.12초에 60도를 회전하는 것으로 나타나지만, 중간중간에 delay를 넣어 모터의 회전을 끝내기 위한 마칠 시간을 주어야 하는 것이다.When I upload
더욱이, 드론에는 도 16과 같이 지상이 아닌 상공에서 예기치 않게 돌발적으로 불 수 있는 돌풍의 발생도 예측해야 하는 관계로, 이를 위해 드론에는 기상관측장치로서 예컨대 상공기상레이더가 더 설치될 수 있으며, 이러한 상공기상레이더는 도플러 효과에 의한 구름의 위치와 세기, 구름의 이동방향과 속도, 구름 내부의 미세입자들에 대한 운동 특성을 평가할 수 있을 뿐만 아니라 예컨대 용권(용오름)을 비롯한 특수기상현상에 대한 관측도 예측할 수 있는 것이다.Moreover, as the drone has to predict the occurrence of a gust that can unexpectedly and unexpectedly blow in the sky rather than the ground as shown in FIG. 16, for this purpose, the drone may be further equipped with, for example, an airborne weather radar as a weather observation device, such as The aerial weather radar can evaluate the position and strength of clouds, the movement direction and speed of clouds, and the motion characteristics of fine particles inside clouds due to the Doppler effect, as well as observation of special meteorological phenomena including, for example, the dragon's sphere. is also predictable.
이러한 상공기상레이더는 초고주파송신기, 초고주파수신기, 고체여진기의 조합으로 구성된 것이며, 송신체계가 고체출력소자에 의한 증폭체계로 이용되는 기존의 기상레이더에 비해 측정정확도가 높고 소비전력이 매우 낮아 고압전원단을 이용할 필요가 없고 제작비용도 낮다. This air-to-air radar is composed of a combination of an ultra-high frequency transmitter, an ultra-high-frequency transmitter, and a solid-state exciter. Compared to the existing weather radar whose transmission system is used as an amplification system by a solid-state output device, the measurement accuracy is high and the power consumption is very low, so the high voltage There is no need to use a stage and the manufacturing cost is low.
이러한 상공기상레이더가 드론에 탑재되어 있는 관계로, 상공에서 예기치 않는 돌풍도 미리 예측 가능하여 돌풍에 의한 드론의 추돌 사고도 방지할 수 있는 것이다.Since such an aerial weather radar is mounted on the drone, it is possible to predict unexpected gusts in the sky in advance, and it is possible to prevent collision accidents of drones caused by gusts.
한편, 영상 전처리에 있어서, 영상처리컴퓨터는 영상이미지를 보고 사람처럼 바로 인식하지 못하는 관계로, 사용자에게 받은 이미지가 빛에 반사되거나 너무 어두우면 이미지를 처리하는 속도를 급격히 떨어지게 한다. 그러므로 양상이미지를 사용자의 목적에 맞게 적절히 수정하여 활용하곤 하는데, 이때 사용자의 목적에 맞게 수정하는 과정을 영상 전처리라 할 수 있다.On the other hand, in the image pre-processing, the image processing computer does not immediately recognize the image image like a human being, so if the image received by the user is reflected in light or is too dark, the speed of processing the image rapidly decreases. Therefore, it is often used by appropriately modifying the aspect image to suit the user's purpose.
영상 전처리에 필요한 주요함수에 있어서는 예컨대, cvtColor() 함수, threshold() 함수, morphologyEx() 함수, GaussianBlur() 함수가 조합될 수 있고, 이러한 조합 함수들을 통하여 영상 전처리가 처리될 수 있는 것이다.In the main functions required for image preprocessing, for example, cvtColor() function, threshold() function, morphologyEx() function, and GaussianBlur() function may be combined, and image preprocessing may be processed through these combination functions.
cvtColor() 함수는 드론에 탑재된 촬영카메라로 영상을 찍어 영상처리컴퓨터에 전송하게 되면, 영상처리컴퓨터에서는 영상이미지를 RGB(Red, Green, Blue) 값으로 바꾸어 인식하게 되는데, 이러한 3 가지의 색으로는 이미지를 활용하기 어려우므로 촬영카메라의 영상을 다른 색으로 변경해줄 수 있다. 예컨대, 가령 컬러이미지를 흑백이미지로 바꿀 수 있는 것이다.When the cvtColor() function takes an image with the camera mounted on the drone and transmits it to the image processing computer, the image processing computer converts the image image into RGB (Red, Green, Blue) values and recognizes it. Since it is difficult to use the image with a , it is possible to change the image of the camera to a different color. For example, a color image can be converted into a black-and-white image.
threshold() 함수는 세그멘테이션이란 이미지를 분할하여 원하는 부분 혹은 물체를 검출하는데 많이 사용되는 기법으로서 이진화(threshold)는 가장 간단한 세그멘테이션(segmentation) 방법이다. 이진화는 흑백 영상을 이용하는데, 앞서 cvtColor() 함수로 원본 영상을 흑백 영상으로 변환한 후, threshold값을 이용하여 배경과 물체를 분리해낼 수 있다. threshold 값은 특정한 값으로 사용자가 임의로 정할 수 있다. 사진은 흑백영상에서 threshold 값을 80으로 지정한 후 출력한 이미지이다.The threshold() function is a technique frequently used to detect a desired part or object by segmenting an image called segmentation. Threshold is the simplest segmentation method. The binarization uses a black-and-white image. After converting the original image into a black-and-white image with the cvtColor() function, the background and the object can be separated using a threshold value. The threshold value is a specific value and can be arbitrarily set by the user. The picture is an image output after setting the threshold to 80 in a black and white image.
흑백이미지의 픽셀값들을 0 ~ 255 의 값들을 가지고 있다.(0에 가까울수록 흑백에 가깝고, 255에 가까울수록 백색에 가깝다.) 여기서 threshold 값을 80으로 지정했다는 것은 각각의 픽셀값이 80보다 작으면 0으로 바꾸고(흑백으로 바꾸고) 크거나 같으면 255로 바꾸는(백색으로 바꾸는) 전처리를 하겠다는 의미이다. 이러한 전처리 작업을 통하여 피아노의 흰색건반만을 세그멘테이션(segmentation) 할 예정이다.Pixel values of black and white images have values between 0 and 255. (The closer to 0, the closer to black and white, and the closer to 255, the closer to white.) Here, specifying the threshold as 80 means that each pixel value is less than 80. It means that preprocessing will be performed to change it to 0 (change it to black and white) and change it to 255 (change it to white) if it is greater than or equal to Through this pre-processing, only the white keys of the piano will be segmented.
morphologyEX() 함수는 Erosion과 Dilation을 같이 적용하는 함수로서, 위 사진의 흰색건반의 왼쪽 부분을 자세히 보면 이진화(threshold) 후 원치 않는 희색 부분이 남아 있게 되는데, 이처럼 원치 않는 이미지 영상 정보의 노이즈 제거를 위해 morphologyEX() 함수를 사용한다. The morphologyEX() function is a function that applies Erosion and Dilation together. If you look closely at the left part of the white key in the picture above, the unwanted white part remains after the threshold is converted. To do this, the morphologyEX() function is used.
Erosion 은 침식 연산이라고도 하는데 이미지의 경계부분을 배경이미지로 전환시킨다. 즉, 사진에 적용시킬 경우 예컨대 희색 부분이 전체적으로 줄어들고 검은색 부분이 넓어지는 결과로 나올 수 있다.Erosion, also called erosion operation, converts the boundary part of the image into a background image. That is, when applied to a photograph, for example, the white portion may be reduced as a whole and the black portion may be enlarged.
Dilation 은 팽창 연산이라고도 하는데 이미지의 경계부분을 확장시키는 것으로서 상기 Erosion 연산의 반대에 해당되는 연산이다.Dilation, also called dilation operation, expands the boundary portion of the image, and is an operation corresponding to the opposite of the erosion operation.
Erosion 혹은 Dilation 연산을 사진에 각각 적용해보면, 좌측의 원본과 다른 이미지로 변화되기 십상이기 때문에, Erosion 혹은 Dilation으로 노이즈만 제거한 후, 다시 Dilation 또는 Erosion을 적용하는 방식으로 처리할 수 있다. 즉, Opening(Erosion 적용 -> Dilation 적용) 및 Closing(Dilation 적용 -> Erosion 적용) 연산이라고 한다. 이처럼, morphologyEX() 함수는 Opening 및 Closing 연산을 적용하는 함수인 것이다.When Erosion or Dilation operation is applied to a photo, it is likely to change to a different image from the original image on the left, so it can be processed by removing only noise with Erosion or Dilation and then applying Dilation or Erosion again. That is, they are called Opening (Erosion application -> Dilation application) and Closing (Dilation application -> Erosion application) operations. As such, the morphologyEX() function is a function that applies the Opening and Closing operations.
GaussianBlur() 함수는 이미지에 대한 Blur를 처리하는 함수로서 노이즈를 사라지게 하는 함수이다. 예컨대 좌측 이미지에서 흰색 경계부분이 연속적으로 그려져 있는 것처럼 보이지만 실제 픽셀값들은 흰색부분에 검은색 부분이 살짝 침범한상태일 수 있다. 즉, 육안으로 쉽게 인식하지 못하지만 컴퓨터는 픽셀값들을 숫자로 받기 때문에 사진에서와 같은 검은색 부분(노이즈)을 인식할 수 있다.The GaussianBlur() function is a function that processes the Blur of the image and makes the noise disappear. For example, in the left image, it seems that the white border part is continuously drawn, but the actual pixel values may be in a state where the black part slightly invades the white part. In other words, although it is not easily recognized by the human eye, the computer can recognize the black part (noise) as in the picture because it receives the pixel values as numbers.
이러한 노이즈의 제거에 GaussianBlur() 함수가 이용될 수 있는데, 이러한 GaussianBlur() 함수는 이미지의 각 픽셀마다 주변의 픽셀과 비교하여 일련의 계산 과정을 거쳐 픽셀값을 비슷한 값으로 바꿀 수 있다. 그 결과 이미지의 픽셀값들은 주변으 픽셀값들과 비슷한 연속적인 값들을 가지게 된다. 즉, 노이즈가 사라지는 것이다. 사진을 자세히 보면, 우측의 이미지는 흰색 경계 부분에 blur 처리가 된 것을 확인할 수 있다.GaussianBlur() function can be used to remove such noise. This GaussianBlur() function compares each pixel of the image with surrounding pixels and changes the pixel value to a similar value through a series of calculations. As a result, the pixel values of the image have continuous values similar to the surrounding pixel values. That is, the noise disappears. If you look closely at the photo, you can see that the image on the right has blur processing on the white border.
Gaussian Blur() 함수가 이용될 수 있는데, 이러한 GaussianBlur() 함수는 이미지의 각 픽셀마다 주변의 픽셀과 비교하여 일련의 계산 과정을 거쳐 픽셀값을 비슷한 값으로 바꿀 수 있다. 그 결과 이미지의 픽셀값들은 주변의 픽셀값들과 비슷한 연속적인 값들을 거치게 된다. A Gaussian Blur() function can be used. This GaussianBlur() function compares each pixel of the image with neighboring pixels and changes the pixel value to a similar value through a series of calculations. As a result, the pixel values of the image pass through successive values similar to the surrounding pixel values.
PPK(Post Processed Kinematics)는 RTK(Real-Time Kinematic)의 대안 기술로서, PPK 워크 플로를 사용하면 정확한 위치 지정이 실시간으로 발생하지 않을 수 다. 지상 및 로버(보통 UAV 기반) 모두 원시 GNSS 로그를 기록한 다음 정확한 위치 추적 트랙을 수신하도록 처리될 수 있다.PPK (Post Processed Kinematics) is an alternative to RTK (Real-Time Kinematic). Using PPK workflows, precise positioning may not occur in real time. Both ground and rover (usually UAV-based) can be processed to record raw GNSS logs and then receive accurate positioning tracks.
PPK(Post Processed Kinematics)는 주로 UAV 매핑에 사용되지만 모든 측량 작업에 대한 RTK의 백업으로 사용될 수도 있으며, PPK는 보다 유연한 워크 플로를 제공하여 다른 설정을 사용 처리하는 과정에서 여러 번 실행할 수 있다. 또한, 베이스와 로버 사이에 수정 링크가 필요하지 않으므로 장비 설정이 더 간단하다.Post Processed Kinematics (PPK) is primarily used for UAV mapping, but can also be used as a backup for the RTK for any survey task, PPK provides a more flexible workflow that can be run multiple times in the process of using and processing different settings. In addition, equipment setup is simpler as no crystal link is required between the base and the rover.
드론으로 매핑하기 위해 PPK를 사용하면 여러 장점들이 있는데, PPK는 더 넓은 영역을 검사할 수 있는 지상 제어점(GCP)을 배치할 필요가 없다. 지형이 어려운 넓은 영토나 장소를 매핑해야할 때 특히 유용하다.There are several advantages to using PPK for mapping with drones: PPK eliminates the need to deploy ground control points (GCPs) that can inspect larger areas. This is especially useful when you need to map large territories or places with difficult terrain.
PPK 매핑의 경우 데이터 검사(검사 점)을 위해 사이트에 GCP가 거의 없는 것이 좋다. UAV 매핑을 위한 PPK의 가장 중요한 부분은 다음과 같은 이유로 드론에 탑재된 촬영카메라와 Reach M+ 의 동기화인 것이다.For PPK mapping, it is recommended that the site has few GCPs for data inspection (checkpointing). The most important part of PPK for UAV mapping is the synchronization between the drone's mounted camera and Reach M+ for the following reasons.
촬영카메라 트리거와 실제 사진 촬영 시간 사이에는 항상 지연이 있고, 드론이 고속으로 비행할 때 자동 조종 장치는 몇 미터마다 위치 측정 값을 받으며, 예컨대 2 미터의 정확도는 측량에 충분하지 않다.There is always a delay between the camera trigger and the actual picture taking time, and when the drone is flying at high speed, the autopilot receives a position measurement every few meters, for example, an accuracy of 2 meters is not enough for a survey.
리치(reach, M+)는 핫슈를 통해 카메라 셔터에 연결하여 문제를 해결하는데, 각 사진의 시간은 마이크로 초 미만의 해상도로 기록되며, PPK 중에는 촬영한 각 사진의 정확한 순간의 좌표를 받는다. Reach (M+) solves the problem by connecting it to the camera shutter via a hot shoe, where each photo is timed with sub-microsecond resolution, and during PPK you receive the exact coordinates of the moment in each photo taken.
센터미터 정확도의 PPK 매핑(적은 GCP 사용)에 있어서 촬영카메라 동기화가 중요한 이유로서 자동 조종 장치는 촬영카메라를 트리거하고 현재 가지고 있는 좌표를 기록한다. 드론이 예컨대 20m/s로 비행하고 GPS가 5Hz에서 작동하는 경우, 자동 조종 장치는 4m 마다 위치 판독값을 가지므로 정확한 지리 참조에서는 적합하지 않다. 또한, 트리거와 사진이 촬영되는 실제 시간 사이에는 항상 지연이 있다.The autopilot triggers the camera and records the coordinates it currently has, as camera synchronization is important for centermeter-accurate PPK mapping (using less GCP). If the drone is flying at for example 20 m/s and the GPS is operating at 5 Hz, the autopilot will have a position reading every 4 m, which is not suitable for accurate georeferencing. Also, there is always a delay between the trigger and the actual time the picture is taken.
따라서, 리치(reach, M+)는 셔터와 동기화된 카메라 핫슈 포트에 직접 연결하여 위치 지정 문제를 해결하게 되는데, 각 사진의 시간과 좌표는 마이크로 초 미만의 해상도로 기록된다. 이 방식을 사용하면 GCP를 사용하여 정확도를 확인할 수 있다.Thus, reach (M+) solves the positioning problem by connecting directly to the camera hot shoe port synchronized with the shutter, where the time and coordinates of each picture are recorded with sub-microsecond resolution. This way you can use Google Cloud to check the accuracy.
리치(reach) 부분을 촬영카메라의 핫슈포트에 연결할 수 있는데, 이때 사진을 촬영할 때마다 플래시 핫슈 커넥터에서 펄스가 발생하여 셔터 개구부와 동기화될 수 있다.The reach can be connected to the hot shoe port of the capture camera, where a pulse is generated from the flash hot shoe connector every time a picture is taken so that it can be synchronized with the shutter opening.
드론 비행, 도달 이벤트 사진을 기록하는데, 리치(reach)는 마이크로 초 미만의 해상도로 플래시 동기화 펄스를 캡처하여 내부 메모리의 원시 데이터 Rinex 로그에 저장할 수 있다.It records pictures of drone flight and arrival events, where reach can capture flash sync pulses with sub-microsecond resolution and store them in the raw data Rinex log in internal memory.
한편, 상기 드론운용소프트웨어에 대한 인터페이스는 예컨대 도 17과 같이 앱 영역과 사이드바로 구성되며, 앱 영역에 상태 패널이 표시되고, 사이드바의 상단에 비행 파라미터 탭, 카메라 탭, 미션 웨이 포인트 탭, 미션 계획 수립 탭, 설정 단계 탭, 및 비행 관찰 탭 등의 요소 항목들이 구성되며, 앱 영역의 상단에 툴바와 같은 제어바로 구성될 수 있다.On the other hand, the interface for the drone operation software is, for example, composed of an app area and a sidebar as shown in FIG. 17, a status panel is displayed in the app area, and a flight parameter tab, a camera tab, a mission waypoint tab, and a mission at the top of the sidebar. Element items such as a planning tab, a setting step tab, and a flight observation tab are configured, and may be configured as a control bar such as a toolbar at the top of the app area.
드론에 탑재된 UAV, 실시간 센서(위치+영상) 장착에 따른 실시간 위치와 영상이 관리서버가 운용되는 통합상황실에로 전송될 수 있고, 이에 따라 통합상황실에서는 UAV Mapping Solution(Live Drone Map)을 이용하여 실시간으로 지도를 생성하여 다른 지역의 통합상황실로 전송함에 따라, 영상의 공유 및 활용이 용이해질 수 있는 것이다. 관리서버에 탑재된 드론운용프로그램에서의 영상 처리 과정은 도 18을 참고할 수 있다.The real-time location and image according to the UAV mounted on the drone and the real-time sensor (location + image) installation can be transmitted to the integrated control room where the management server is operated, and accordingly, the UAV Mapping Solution (Live Drone Map) is used in the integrated control room. As a result, a map is created in real time and transmitted to the integrated control room in other regions, making it easier to share and utilize images. An image processing process in the drone operating program mounted on the management server may refer to FIG. 18 .
Claims (9)
상기 무인기의 무선 비행 조종을 위한 조종제어기; 상기 무인기가 비행하는 지면 경사지와 평행한 비행을 이룰 수 있게 상기 무인기로부터 전송되는 감지신호를 전송받는 휴대단말기; 를 더 포함하며,
상기 무인기에는 지면의 경사지와 평행한 고도차를 유지하며 비행할 수 있게 하는 고도변화대응장치; 상공의 기상을 관측하여 예측할 수 있게 하는 기상관측장치; 를 더 포함하고,
상기 관리서버에는 무인기의 비행 계획에 필요한 설정 정보를 운용하기 위한 드론운용소프트웨어가 설치되고; 상기 영상처리컴퓨터에는 작물의 현장 재배 대상지와 비교할 수 있는 작물의 제반 판독 결과물을 산출하여 생성할 수 있는 인공지능탑재 프로그램이 설치되며;
상기 영상처리컴퓨터는 영상 전처리를 위해 cvtColor() 함수, threshold() 함수, morphologyEx() 함수, GaussianBlur() 함수의 조합을 통하여 작물의 촬영 재배 대상지에 대한 영상 전처리가 이루어고;
상기 무인기에 탑재된 촬영카메라 또는 3D 스캐너에는 센터미터 정확도의 PPK 매핑에 필요한 위치 지정을 위해 리치(reach)가 더 연결되어 있으며;
상기 고도변화대응장치의 수광부에서 반사되어 회귀되는 레이저의 회귀 시간차 정보를 감지하는 감지센서의 감지신호가 상기 휴대단말기로 전송되어 지면의 경사지와 평행하는 무인기의 비행을 이루게 하고;
상기 고도변화대응장치의 동작을 위해 상기 무인기의 하단과 상기 고도변화대응장치 사이로 디지털 방식의 서보모터가 더 설치되되, 상기 서보모터에는 귀환 회로가 적용되어 있는 것을 특징으로 하는 무인기 기반 영상 취득의 광지역 공간정보 구축시스템.
an unmanned aerial vehicle that flies in the sky and shoots images of crops; an image processing computer for processing an image through processing of the image taken from the unmanned aerial vehicle; and a management server for integrated management of all data related to the image processed by the image processing computer. including,
a control controller for wireless flight control of the unmanned aerial vehicle; a mobile terminal receiving a sensing signal transmitted from the unmanned aerial vehicle to achieve a flight parallel to the ground slope on which the unmanned aerial vehicle is flying; further comprising,
The unmanned aerial vehicle includes an altitude change response device that maintains an altitude difference parallel to the slope of the ground and enables flight; a weather observation device for predicting by observing the weather in the sky; further comprising,
Drone operation software for operating the setting information necessary for the flight plan of the unmanned aerial vehicle is installed in the management server; The image processing computer is installed with an artificial intelligence-equipped program capable of calculating and generating general reading results of crops that can be compared with the field cultivation target of crops;
The image processing computer performs image pre-processing of the crops to be photographed and grown through a combination of cvtColor() function, threshold() function, morphologyEx() function, and GaussianBlur() function for image pre-processing;
A reach is further connected to the imaging camera or 3D scanner mounted on the unmanned aerial vehicle for positioning necessary for center-meter-accurate PPK mapping;
The detection signal of the detection sensor for detecting the return time difference information of the laser reflected and returned from the light receiving unit of the altitude change response device is transmitted to the portable terminal to achieve the flight of the unmanned aerial vehicle parallel to the slope of the ground;
A digital servo motor is further installed between the lower end of the drone and the altitude change response device for the operation of the altitude change response device, and a feedback circuit is applied to the servomotor. Local geospatial information construction system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190158716A KR102262382B1 (en) | 2019-12-03 | 2019-12-03 | large area space information system for image acquistion base Unmanned Aerial Vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190158716A KR102262382B1 (en) | 2019-12-03 | 2019-12-03 | large area space information system for image acquistion base Unmanned Aerial Vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102262382B1 true KR102262382B1 (en) | 2021-06-08 |
Family
ID=76399030
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190158716A KR102262382B1 (en) | 2019-12-03 | 2019-12-03 | large area space information system for image acquistion base Unmanned Aerial Vehicle |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102262382B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114324193A (en) * | 2022-01-10 | 2022-04-12 | 浙江大学华南工业技术研究院 | Crop nutrient in-situ monitoring system and method based on UAV-PPK technology |
KR20230013387A (en) | 2021-07-19 | 2023-01-26 | 주식회사 선도소프트 | The farmland attribute change prediction model formation apparatus using the big data base Artificial Intelligence and farmland attribute change predicting apparatus |
KR20230085615A (en) | 2021-12-07 | 2023-06-14 | 대한민국(농촌진흥청장) | System and Method for Providing Crop Information using Drone Image |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170100775A (en) * | 2016-02-26 | 2017-09-05 | 송기준 | Virtual reality shooting camera gimbal with drones |
KR101793509B1 (en) * | 2016-08-02 | 2017-11-06 | (주)노루기반시스템즈 | Remote observation method and system by calculating automatic route of unmanned aerial vehicle for monitoring crops |
KR20170138225A (en) * | 2016-06-07 | 2017-12-15 | 조건희 | The real time national imagery intelligence system or method based on the drone which hovering or surveillance flight around the drone docking station |
KR20180037532A (en) * | 2016-10-04 | 2018-04-12 | 계명대학교 산학협력단 | Sinkhole detection system and method using a drone-based thermal camera and image processing |
KR20180119729A (en) * | 2017-04-25 | 2018-11-05 | 주식회사 쓰리에스솔루션 | System for meteorological obervation using uav and method of the same |
-
2019
- 2019-12-03 KR KR1020190158716A patent/KR102262382B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170100775A (en) * | 2016-02-26 | 2017-09-05 | 송기준 | Virtual reality shooting camera gimbal with drones |
KR20170138225A (en) * | 2016-06-07 | 2017-12-15 | 조건희 | The real time national imagery intelligence system or method based on the drone which hovering or surveillance flight around the drone docking station |
KR101793509B1 (en) * | 2016-08-02 | 2017-11-06 | (주)노루기반시스템즈 | Remote observation method and system by calculating automatic route of unmanned aerial vehicle for monitoring crops |
KR20180037532A (en) * | 2016-10-04 | 2018-04-12 | 계명대학교 산학협력단 | Sinkhole detection system and method using a drone-based thermal camera and image processing |
KR20180119729A (en) * | 2017-04-25 | 2018-11-05 | 주식회사 쓰리에스솔루션 | System for meteorological obervation using uav and method of the same |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230013387A (en) | 2021-07-19 | 2023-01-26 | 주식회사 선도소프트 | The farmland attribute change prediction model formation apparatus using the big data base Artificial Intelligence and farmland attribute change predicting apparatus |
KR20230085615A (en) | 2021-12-07 | 2023-06-14 | 대한민국(농촌진흥청장) | System and Method for Providing Crop Information using Drone Image |
CN114324193A (en) * | 2022-01-10 | 2022-04-12 | 浙江大学华南工业技术研究院 | Crop nutrient in-situ monitoring system and method based on UAV-PPK technology |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hodgson et al. | Drones count wildlife more accurately and precisely than humans | |
US11378718B2 (en) | Unmanned aerial vehicle system and methods | |
US10713777B2 (en) | Organism growth prediction system using drone-captured images | |
KR102300799B1 (en) | Crop state judgment apparatus and crop cultivation information service platform including the same | |
KR102262382B1 (en) | large area space information system for image acquistion base Unmanned Aerial Vehicle | |
Ballesteros et al. | Applications of georeferenced high-resolution images obtained with unmanned aerial vehicles. Part I: Description of image acquisition and processing | |
Laliberte et al. | Acquisition, orthorectification, and object-based classification of unmanned aerial vehicle (UAV) imagery for rangeland monitoring | |
KR102317408B1 (en) | method for extracting corp cultivation area | |
US20210221506A1 (en) | Unmanned aerial vehicle system and methods | |
Vanegas et al. | Multi and hyperspectral UAV remote sensing: Grapevine phylloxera detection in vineyards | |
Pothuganti et al. | A review on geo mapping with unmanned aerial vehicles | |
Comert et al. | Rapid mapping of forested landslide from ultra-high resolution unmanned aerial vehicle data | |
CN117173631A (en) | Method and system for monitoring biodiversity | |
RU2716477C1 (en) | System for monitoring forest use and forest pathological changes | |
Domozi et al. | Surveying private pools in suburban areas with neural network based on drone photos | |
Wijesingha | Geometric quality assessment of multi-rotor unmanned aerial vehicle borne remote sensing products for precision agriculture | |
Mtui | Tropical rainforest above ground biomass and carbon stock estimation for upper and lower canopies using terrestrial laser scanner and canopy height model from unmanned aerial vehicle (UAV) imagery in Ayer-Hitam, Malaysia | |
Yajima et al. | Ai-driven 3d point cloud-based highway infrastructure monitoring system using UAV | |
Ronchetti | Uav Surveys For Crop Monitoring And Management In Precision Agriculture | |
Maguire | Using Unmanned Aerial Vehicles and" Structure from Motion" Software to Monitor Coastal Erosion in Southeast Florida | |
Renardi et al. | Using Multi-Quadrotor System for Effective Road Mapping | |
Nazmi et al. | Monitoring The IIUM River Using Unmanned Aerial Vehicle And Image Classification | |
Esser et al. | Field Robot for High-throughput and High-resolution 3D Plant Phenotyping | |
CN117739925B (en) | Intelligent image analysis method for unmanned aerial vehicle | |
Hassan et al. | Generation of Digital Surface Model (DSM) USING UAV/QUADCOPTER |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |