KR102121974B1 - Disaster damage investigation·analysis system using drone and disaster damage investigation·analysis method - Google Patents

Disaster damage investigation·analysis system using drone and disaster damage investigation·analysis method Download PDF

Info

Publication number
KR102121974B1
KR102121974B1 KR1020190160746A KR20190160746A KR102121974B1 KR 102121974 B1 KR102121974 B1 KR 102121974B1 KR 1020190160746 A KR1020190160746 A KR 1020190160746A KR 20190160746 A KR20190160746 A KR 20190160746A KR 102121974 B1 KR102121974 B1 KR 102121974B1
Authority
KR
South Korea
Prior art keywords
information
image information
disaster
drone
image
Prior art date
Application number
KR1020190160746A
Other languages
Korean (ko)
Inventor
김성삼
박제성
신동윤
Original Assignee
대한민국
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대한민국 filed Critical 대한민국
Priority to KR1020190160746A priority Critical patent/KR102121974B1/en
Application granted granted Critical
Publication of KR102121974B1 publication Critical patent/KR102121974B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/006Apparatus mounted on flying objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • B64C2201/127
    • B64C2201/141
    • B64C2201/146
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Economics (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Educational Administration (AREA)
  • Development Economics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

The present invention relates to a disaster damage investigation and analysis system using drones and a disaster damage investigation and analysis method using the same. According to an embodiment of the present invention, the disaster damage investigation and analysis system using drones comprises: a drone device photographing a disaster-damaged region from above through a mounted camera module to obtain image information of the disaster-damaged region; and a controller device receiving the image information of the disaster-damaged region from the drone device through wireless communication with the drone device, and processing the transmitted image information through a preset automatic calibration algorithm to obtain 3D modeling information. The automatic calibration algorithm applies preset ground reference point information and interior orientation parameters (IOPs) information of the camera module mounted on the drone device to the image information obtained through the drone device to set up an initial camera model so as to calibrate the image information, and then automatically optimizes the initial camera model while repeatedly adjusting external orientation parameters (EOPs) information of the camera module through bundle adjustment to increase the accuracy of the image information.

Description

드론을 이용한 재난피해 조사·분석시스템 및 이를 이용한 재난피해 조사·분석방법{DISASTER DAMAGE INVESTIGATION·ANALYSIS SYSTEM USING DRONE AND DISASTER DAMAGE INVESTIGATION·ANALYSIS METHOD}DISASTER DAMAGE INVESTIGATION, ANALYSIS SYSTEM USING DRONE AND DISASTER DAMAGE INVESTIGATION, ANALYSIS METHOD}

본 발명은 드론을 이용한 재난피해 조사·분석시스템 및 이를 이용한 재난피해 조사·분석방법에 관한 것으로 보다 상세하게는 재난조사 특수차량과 무선연결된 드론을 이용하여 넓은 범위의 재난 피해 지역을 더욱 정확하고 신속하게 조사 분석할 수 있는 드론을 이용한 재난피해 조사·분석시스템 및 이를 이용한 재난피해 조사·분석방법에 관한 것이다.The present invention relates to a disaster damage investigation/analysis system using a drone and a disaster damage investigation/analysis method using the drone. More specifically, a disaster detection special vehicle and a drone wirelessly connected to a wide range of disaster damage areas are more accurately and quickly. It relates to a disaster damage investigation and analysis system using a drone capable of research and analysis, and a disaster damage investigation and analysis method using the same.

일반적으로 홍수 등의 자연재해가 발생하는 경우 해당 피해 지역의 지자체나 중앙 기관에서 사유시설 및 공공시설에 대한 피해조사를 실시하고 있다. In general, in the event of a natural disaster such as a flood, local governments or central agencies in the affected area conduct damage investigations on private and public facilities.

그러나 실질적으로 피해조사를 위해 투입되는 조사 인력이 부족한 실정이며, 피해 현장에 투입되는 담당 현장 관리자는 목측 등으로 재난 현장의 소하천 주변 도로, 하천 하안, 제내외지 시설물 등을 전수 조사하여 피해규모를 조사 및 산정하고 있는 등 전반적인 조사 실태가 미흡한 실정이다.However, there is a shortage of investigators who are actually invested in the damage investigation, and the on-site manager who is in charge of the damage site conducts a total investigation of roads around the small rivers, rivers, rivers, and off-site facilities at the disaster site, such as by observation. The overall survey is insufficient, such as surveys and calculations.

삭제delete

삭제delete

이와 같이 재난 지역의 피해 규모를 정확하게 조사 및 산정함에 있어서, 조사 인력 및 조사 시간이 부족하고 조사 도구 역시 부실함에 따라, 피해 지역 조사에 따른 결과 정보의 정확도가 현저히 떨어지는 문제점이 발생하고 있다. As described above, in accurately surveying and calculating the damage amount in the disaster area, there is a problem in that the accuracy of the result information according to the survey of the damaged area is remarkably reduced, as the investigation manpower and the investigation time are insufficient and the survey tools are also insufficient.

한편, 최근 광범위한 공간정보를 신속하고 편리하게 취득함으로써 조사 플랫폼으로 각광받고 있는 소형 드론을 이용하여, 재난 피해 상황을 파악할 수 있는 드론 기반의 재난 시스템 기술들이 개발되고 있다.Meanwhile, drone-based disaster system technologies are being developed that can grasp the disaster damage situation by using a small drone, which has been spotlighted as an investigation platform by quickly and conveniently acquiring a wide range of spatial information.

그 일 예로 한국공개특허 제2019-0037212호의 드론을 이용한 재난 현장 탐사 시스템 기술을 들 수 있으며, 상기 드론을 이용한 재난 현장 탐사 시스템은 화재 등의 재난 현장을 탐사하기 위해 가스 센서 등을 탑재한 탐사장치(드론)로부터 수집된 재난 현장에 대한 상황정보(온도, 유해 가스, 사람의 움직임 및 LiDAR 측정 결과 등)를 실시간으로 사용자에게 제공하고 있다.An example of this is the technology of a disaster site exploration system using a drone of Korean Patent Publication No. 2019-0037212, and the disaster site exploration system using the drone is an exploration device equipped with a gas sensor, etc. to explore a disaster site such as a fire. It provides real-time situation information (temperature, harmful gas, human movement, and LiDAR measurement results) collected from (drone) to users in real time.

다만, 상술한 바와 같은 재난 현장의 실시간 정보를 제공하는 것 이외에도, 재난 발생 이후의 피해 지역의 복구를 위해 피해 규모를 정확히 조사 및 산정하는 기술도 요구되고 있는 있다.However, in addition to providing real-time information of the disaster site as described above, there is also a demand for a technique for accurately surveying and calculating the scale of the damage to recover the damaged area after the disaster.

특히, 홍수 등의 재난의 경우, 피해 범위가 상대적으로 넓기 때문에 소형 드론과 현장에서 신속한 이동이 가능한 조사차량을 활용하여 조사 거리가 긴 하천이나 도로의 피해조사를 단기간내에 효율적으로 수행할 수 있는 기술이 요구되며, 더욱이, 드론을 활용한 피해지역의 영상정보의 정확도를 개선하여 자연재해 피해조사를 보다 정확하고 신속하게 수행할 수 있는 기술이 요구되고 있다. In particular, in the case of disasters such as floods, the technology that can efficiently conduct damage investigations of rivers or roads with long irradiation distances in a short period of time by using a small drone and an investigation vehicle that can be quickly moved in the field because the damage range is relatively wide. This is required, and furthermore, there is a need for a technique capable of more accurately and promptly conducting natural disaster damage investigation by improving the accuracy of image information of a damaged area using a drone.

한국공개특허공보 제10-2019-0037212호Korean Patent Publication No. 10-2019-0037212

본 발명은 상술한 문제점을 해결하기 위하여 안출된 것으로 재난 피해 지역에 드론을 띄워 드론에 탑재된 카메라 장치를 통해 재난 피해 지역을 경사촬영 및 수직촬영하여 해당 피해 지역의 영상정보를 획득한 후, 획득한 영상정보를 이용하여 기설정된 자동 보정 알고리즘을 통해 3차원 지형 모델을 구축 및 제공함으로써, 넓은 범위의 재난 피해 지역을 정확하고 신속하게 조사 분석할 수 있는 드론을 이용한 재난피해 조사·분석시스템 및 이를 이용한 재난피해 조사·분석방법을 제공하는 것을 목적으로 한다.The present invention was devised to solve the above-described problem, and after acquiring the image information of the affected area by tilting and vertically shooting the disaster-affected area through a camera device mounted on the drone by floating the drone in the disaster-affected area A disaster damage investigation and analysis system using drones that can accurately and quickly investigate and analyze a wide range of disaster-affected areas by constructing and providing a 3D terrain model through a preset automatic correction algorithm using one image information. The aim is to provide a method of investigating and analyzing disasters used.

특히, 사전 카메라 검정을 통한 내부표정요소의 결정과 광속조정법(bundle adjustment)을 통해 외부표정요소를 반복 조정하여 영상 정보를 처리하기 위한 카메라 모델을 최적화함으로써 드론 맵핑의 위치결정 정확도를 향상시켜 더욱 정확한 재난 피해 정보를 조사·분석할 수 있는 기술을 제공하기 위한 것이다. In particular, it is possible to improve the positioning accuracy of drone mapping by optimizing the camera model for processing image information by repeatedly adjusting the external expression element through the determination of the internal expression element through the pre-camera test and the bundle adjustment method. It is to provide technology to investigate and analyze disaster damage information.

본 발명의 다른 목적들은 이하에 서술되는 바람직한 실시예들을 통하여 보다 명확해 질 것이다.Other objects of the present invention will be more apparent through the preferred embodiments described below.

본 발명의 일측면에 따르면, 탑재된 카메라 모듈을 통해 상공에서 재난 피해 지역을 촬영하여 상기 재난 피해 지역의 영상 정보를 획득하기 위한 드론 장치; 및 상기 드론 장치와 무선통신하여 상기 드론 장치로부터 재난 피해 지역의 영상 정보를 전송받고, 전송된 영상 정보를 기설정된 자동 보정 알고리즘을 통해 프로세싱하여 3차원 모델링 정보를 획득하기 위한 컨트롤러 장치;를 포함하며, 상기 자동 보정 알고리즘은, 상기 드론 장치를 통해 획득한 영상 정보에, 사전에 미리 설정된 지상기준점 정보 및 상기 드론 장치에 탑재된 카메라 모듈의 내부표정요소(interior orientation parameters(IOPs)) 정보를 적용하여 상기 영상 정보를 보정하기 위한 초기 카메라 모델을 수립하고, 이후, 상기 카메라 모듈의 외부표정요소(exterior orientation parameters(EOPs)) 정보를 광속조정법(bundle adjustment)을 통해 반복 조정하면서 상기 초기 카메라 모델을 자동 최적화하여 상기 영상 정보의 정확도를 높일 수 있다.According to an aspect of the present invention, a drone device for acquiring image information of a disaster-affected area by photographing a disaster-affected area from above through a mounted camera module; And a controller device for wirelessly communicating with the drone device to receive image information of a disaster-affected area from the drone device, and processing the transmitted image information through a preset automatic correction algorithm to obtain 3D modeling information. , The automatic correction algorithm applies preset ground reference point information and interior orientation parameters (IOPs) information of the camera module mounted on the drone device to the image information acquired through the drone device. Establishing an initial camera model for correcting the image information, and then automatically adjusting the initial camera model while repeatedly adjusting the external orientation parameters (EOPs) information of the camera module through a bundle adjustment method. Optimization can improve the accuracy of the video information.

본 발명의 다른 측면에 따르면, 조사차량에 구비된 컨트롤러 장치와 무선통신하는 드론 장치를 이용한 재난 피해 분석 시스템을 이용한 재난 피해 분석 방법에 있어서, 상기 드론 장치에 탑재된 카메라 모듈을 통해 재난 피해 지역을 경사 촬영하는 단계; 경사 촬영을 통해 획득한 영상 정보를 상기 컨트롤러 장치로 전송하여 영상 정보를 기초로 맵핑 지역 정보를 선정하는 단계; 선정된 맵핑 지역 정보를 상기 드론 장치로 전송하며, 드론 장치의 카메라 모듈을 통해 맵핑 지역을 수직 촬영하는 단계; 수직 촬영을 통해 획득한 영상 정보를 상기 컨트롤러 장치로 전송하며, 전송된 영상 정보에 기설정된 지상기준점 정보를 입력하여 초기 카메라 모델을 수립하는 단계; 상기 초기 카메라 모델을 통해 획득한 영상 정보에, 상기 카메라 모듈의 내부표정요소 정보 및 외부표정요소 정보를 적용하여 상기 영상 정보를 자동 보정함으로써 카메라 모델을 보정하는 단계; 보정된 카메라 모델이 미리 설정된 최적화 조건에 포함되는지를 판단하는 단계; 상기 보정된 카메라 모델이 최적화로 판단되면, 3차원 모델링을 수행하여 3차원 영상 정보를 생성하는 단계; 생성된 3차원 영상 정보를 디스플레이 장치를 통해 사용자에게 제공하는 단계;를 통해 재난 피해 지역의 피해 규모를 더욱 정확하고 신속하게 조사분석할 수 있다.According to another aspect of the present invention, in the disaster damage analysis method using a disaster damage analysis system using a drone device in wireless communication with the controller device provided in the investigation vehicle, the disaster damage area through the camera module mounted on the drone device Oblique shooting; Selecting the mapping area information based on the image information by transmitting the image information obtained through oblique shooting to the controller device; Transmitting selected mapping area information to the drone device and vertically photographing the mapping area through a camera module of the drone device; Establishing an initial camera model by transmitting image information obtained through vertical imaging to the controller device and inputting predetermined ground reference point information to the transmitted image information; Correcting the camera model by automatically correcting the image information by applying internal expression element information and external expression element information of the camera module to image information acquired through the initial camera model; Determining whether the corrected camera model is included in a preset optimization condition; If it is determined that the corrected camera model is optimized, generating 3D image information by performing 3D modeling; Providing the generated three-dimensional image information to the user through the display device; through the disaster damage area can be more accurately and quickly investigated and analyzed.

본 발명에 따른 드론을 이용한 재난피해 조사분석시스템 및 이를 이용한 재난피해 조사분석방법은 재난조사 특수차량에 탑재된 컨트롤러 장치와 무선연결된 드론을 이용하여 재난 지역의 영상 정보를 획득함으로써, 넓은 범위의 피해 지역 또는 조사자가 접근하기 어렵거나 불가능한 지역에 대한 피해 정보를 안전하고 신속하게 확인 및 분석할 수 있는 장점이 있다.The disaster damage investigation and analysis system using a drone according to the present invention and a disaster damage investigation analysis method using the same are obtained by acquiring image information of a disaster area by using a drone connected to a controller device mounted in a disaster investigation special vehicle and a wide range of damage It has the advantage of being able to safely and quickly check and analyze damage information on areas that are difficult or impossible to access by an area or an investigator.

또한, 드론의 카메라 위치나 자세 정보 등의 외부표정요소들을 반복 조정하는 과정을 통해 카메라 모델을 최적화하여 영상 정보를 프로세싱함으로써 영상 정보의 정확도를 더욱 개선할 수 있는 효과가 있다.In addition, it is possible to further improve the accuracy of image information by processing the image information by optimizing the camera model through the process of repeatedly adjusting external facial elements such as the camera position or posture information of the drone.

또한, 드론에 구비된 Global Navigation Satellite System(GNSS)/Inertial Navigation System(INS), 자이로센서, 가속계, 기압계 등 다양한 센서들과 재난조사 특수차량에 탑재되는 LiDAR 스캐너와 GNSS/INS 센서들의 각 센싱 정보들을 융합하여 재난사고 조사현장의 3차원 공간 지형 정보를 보다 정밀하게 수집, 구축할 수 있는 효과가 있다.In addition, various sensors such as the Global Navigation Satellite System (GNSS)/Inertial Navigation System (INS), gyro sensor, accelerometer, and barometer provided in the drone and each sensing information of the LiDAR scanner and GNSS/INS sensors installed in the special vehicle for disaster investigation By combining them, it is possible to more accurately collect and construct 3D spatial topographic information of the disaster accident investigation site.

도 1은 본 발명의 일 실시예에 따른 드론을 이용한 재난피해 조사분석시스템의 기본적인 조사 체계를 설명하기 위한 도면.
도 2는 본 발명의 일 실시예에 따른 드론을 이용한 재난피해 조사분석시스템의 구체적인 구성을 보여주는 시스템도.
도 3은 본 발명의 일 실시예에 따른 재난피해 조사분석시스템을 이용한 재난 피해 조사분석방법의 순서도.
도 4는 본 발명의 일실시예에 따른 드론 장치의 경사 촬영 방법을 설명하기 위한 도면.
도 5는 본 발명의 일실시예에 따른 드론 장치의 수직 촬영 방법을 설명하기 위한 도면.
1 is a view for explaining a basic investigation system of a disaster damage investigation and analysis system using a drone according to an embodiment of the present invention.
2 is a system diagram showing a specific configuration of a disaster damage investigation and analysis system using a drone according to an embodiment of the present invention.
Figure 3 is a flow diagram of a disaster damage investigation analysis method using a disaster damage investigation and analysis system according to an embodiment of the present invention.
4 is a view for explaining a method of oblique photography of a drone device according to an embodiment of the present invention.
5 is a view for explaining a vertical imaging method of a drone device according to an embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.The present invention can be applied to a variety of transformations and may have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all conversions, equivalents, and substitutes included in the spirit and scope of the present invention. In the description of the present invention, when it is determined that detailed descriptions of related known technologies may obscure the subject matter of the present invention, detailed descriptions thereof will be omitted.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from other components.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 이하, 본 발명의 실시예를 첨부한 도면들을 참조하여 상세히 설명하기로 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, terms such as “include” or “have” are intended to indicate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, one or more other features. It should be understood that the existence or addition possibilities of fields or numbers, steps, operations, components, parts or combinations thereof are not excluded in advance. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 드론을 이용한 재난피해 조사분석시스템(10)의 기본적인 조사 체계를 설명하기 위한 도면이다.1 is a view for explaining a basic investigation system of a disaster damage investigation and analysis system 10 using a drone according to an embodiment of the present invention.

먼저, 도 1을 참조하면, 본 발명의 일 실시예에 따른 드론을 이용한 재난피해 조사분석시스템(10)은 컨트롤러 장치(200)가 탑재된 조사 차량(20)과 상기 컨트롤러 장치(200)에 무선 통신 연결되는 드론 장치(100)를 통해 재난 피해 지역의 피해 규모를 조사 분석할 수 있다.First, referring to FIG. 1, a disaster damage investigation and analysis system 10 using a drone according to an embodiment of the present invention is wirelessly connected to the investigation vehicle 20 and the controller device 200 equipped with the controller device 200 Through the drone device 100 connected to the communication it is possible to investigate and analyze the damage scale of the disaster-affected area.

즉, 홍수 등의 재난이 발생한 재난 피해 지역의 상공에 드론 장치(100)를 띄워 재난 피해 지역의 영상 정보를 획득하고, 획득한 영상 정보를 무선통신을 통해 조사차량(20)에 탑재된 컨트롤러 장치(100)로 전송하며, 이후, 컨트롤러 장치(100)를 통해 재난피해지역의 영상 정보를 기설정된 자동 보정 알고리즘을 이용하여 드론 맵핑 프로세싱 및 3차원 영상 정보를 획득함으로써 재난 지역의 피해규모를 분석할 수 있게 된다.That is, the controller device mounted on the survey vehicle 20 through wireless communication to obtain the video information of the disaster-affected area by floating the drone device 100 over the disaster-affected area where a disaster such as a flood occurred. It transmits to (100), and then, through the controller device 100, analyzes the damage scale of the disaster area by acquiring drone mapping processing and 3D image information using a preset automatic correction algorithm for the image information of the disaster-affected area. It becomes possible.

도 2는 본 발명의 일 실시예에 따른 드론을 이용한 재난피해 조사분석시스템(10)의 구체적인 구성을 보여주는 시스템도이다.2 is a system diagram showing a specific configuration of a disaster damage investigation and analysis system 10 using a drone according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 드론을 이용한 재난피해 조사분석시스템(10)은 드론 장치(100)와 조사차량에 탑재되는 컨트롤러 장치(200)로 구성될 수 있다.Referring to Figure 2, the disaster damage investigation and analysis system 10 using a drone according to an embodiment of the present invention may be composed of a drone device 100 and a controller device 200 mounted on an investigation vehicle.

드론 장치(100)는 본체(미도시), 카메라 모듈(110), 센서 모듈(120), 비행 운전 모듈(130), 통신 모듈(140 및 제어 모듈(150)을 포함하여 구성될 수 있다.The drone device 100 may include a main body (not shown), a camera module 110, a sensor module 120, a flight driving module 130, a communication module 140 and a control module 150.

카메라 모듈(110)은 장치의 본체에 구비되며, 광학 카메라로 이루어져 상기 재난 피해 지역을 촬영하여 재난 피해 지역의 영상 정보를 생성한다.The camera module 110 is provided on the main body of the device, and is composed of an optical camera to photograph the disaster-affected area to generate image information of the disaster-affected area.

센서 모듈(120)은 본체에 구비되며, Global Navigation Satellite System(GNSS)/Inertial Navigation System(INS), 자이로센서, 가속계 및 기압계 등의 각종 센서들로 이루어질 수 있다.The sensor module 120 is provided in the main body, and may be made of various sensors such as Global Navigation Satellite System (GNSS)/Inertial Navigation System (INS), gyro sensor, accelerometer and barometer.

비행 운전 모듈(130)은 본체에 구비되며, 상기 본체를 상공에 띄워 운행시킬 수 있다. 여기서, 비행 운전 모듈(130)은 현재 나와있는 다양한 드론용 비행 장치로 적용될 수 있으며, 비행 운전 설정에 따라 다양하게 변경 가능함은 물론이다. The flight driving module 130 is provided on the main body and can be operated by floating the main body in the air. Here, the flight driving module 130 may be applied to a variety of drone flight devices that are currently available, and of course can be variously changed according to the flight driving setting.

통신 모듈(140)은 본체에 구비되며, 주파수 통신 및 LTE 기반의 이동통신 등의 통신장비로 이루어져 상기 컨트롤러 장치(200)와 실시간 무선통신한다.The communication module 140 is provided in the main body, and consists of communication equipment such as frequency communication and LTE-based mobile communication to perform real-time wireless communication with the controller device 200.

제어 모듈(150)은 본체 내부에 구비되며, 카메라 모듈(110)에서 생성된 영상 정보를 상기 통신 모듈(140)을 통해 상기 컨트롤러 장치(200)로 전송시키고, 상기 컨트롤러 장치(200)로부터 전송되는 제어 신호에 따라 상기 카메라 모듈(110), 센서 모듈(120) 및 비행 운전 모듈(130)을 제어한다.The control module 150 is provided inside the main body, and transmits image information generated by the camera module 110 to the controller device 200 through the communication module 140, and is transmitted from the controller device 200. The camera module 110, the sensor module 120, and the flight driving module 130 are controlled according to a control signal.

컨트롤러 장치(200)는 통신부(210), 센서부(220), 영상 보정부(230), 영상 처리부(240), 피해정보 분석부(250), 정보 입력부(260) 및 정보 표시부(270)를 포함하여 구성된다.The controller device 200 includes a communication unit 210, a sensor unit 220, an image correction unit 230, an image processing unit 240, a damage information analysis unit 250, an information input unit 260, and an information display unit 270. It includes.

통신부(210)는 주파수 통신 및 LTE 기반의 이동통신 등의 통신장비로 이루어져 상기 드론 장치(100)와 실시간 무선통신한다.The communication unit 210 consists of communication equipment such as frequency communication and LTE-based mobile communication, and performs real-time wireless communication with the drone device 100.

센서부(220)는 LiDAR 스캐너 및 GNSS/INS 센서 등으로 이루어져, 조사 차량이 위치한 지상에서의 LiDAR 점군 자료 등의 각종 센싱 정보를 획득한다.The sensor unit 220 includes a LiDAR scanner and a GNSS/INS sensor, and acquires various sensing information such as LiDAR point cloud data on the ground where the survey vehicle is located.

영상 보정부(230)는 상기 드론 장치(100)로부터 전송된 영상 정보를 기설정된 자동 보정 알고리즘을 통해 보정 처리한다.The image correcting unit 230 corrects the image information transmitted from the drone device 100 through a preset automatic correction algorithm.

이때, 영상 보정부(230)는 사전 정보 설정부(231), 카메라 모델 수립부(232) 및 카메라 모델 보정부(233)를 포함하여 구성될 수 있다.In this case, the image correction unit 230 may include a dictionary information setting unit 231, a camera model establishment unit 232, and a camera model correction unit 233.

사전 정보 설정부(231)는 영상 정보의 절대 좌표 취득을 위해 사전에 자연 지형물 및 대공 표지를 이용하여 미리 산출된 지상기준점 정보와, 드론 장치(100)에 탑재된 카메라 모듈(110)의 사전 검정(camera calibration)을 통해 산출된 내부표정요소(interior orientation parameters(IOPs)) 정보를 사전에 설정한다. 여기서, 내부표정요소(interior orientation parameters(IOPs)) 정보는 사진 좌표계 상의 주점의 위치 정보, 카메라 초점거리 정보 및 카메라 렌즈의 왜곡량 정보를 포함한다.The dictionary information setting unit 231 pre-calculates ground reference point information previously calculated using natural terrain objects and anti-aircraft signs to acquire absolute coordinates of image information, and a dictionary of the camera module 110 mounted in the drone device 100. Information on interior orientation parameters (IOPs) calculated through camera calibration is set in advance. Here, the interior orientation parameters (IOPs) information include location information of a main point on a photo coordinate system, camera focal length information, and distortion amount information of a camera lens.

이때, 지상기준점 정보와 내부표정요소 정보는 상기 정보 입력부(260)를 통해 사용자로부터 입력되어 설정될 수 있다.At this time, the ground reference point information and the internal expression element information may be input and set from the user through the information input unit 260.

카메라 모델 수립부(232)는 영상 정보에, 상기 사전 정보 설정부(231)에서 설정된 지상기준점 정보 및 내부표정요소 정보를 적용하여 초기 카메라 모델을 수립한다.The camera model establishing unit 232 establishes an initial camera model by applying ground reference point information and internal expression element information set by the prior information setting unit 231 to image information.

카메라 모델 보정부(233)는 상기 초기 카메라 모델 및/또는 추후 재보정이 요구되는 카메라 모델의 영상 정보에 외부표정요소(exterior orientation parameters(EOPs)) 정보를 광속조정법(bundle adjustment)을 통해 반복 조정하여 상기 카메라 모델을 보정하여 최적화한다. 여기서, 외부표정요소(exterior orientation parameters(EOPs)) 정보는 GPS 위치 정보 및 짐벌 방향 정보를 포함한다.The camera model correction unit 233 repeatedly adjusts the external orientation parameters (EOPs) information on the image information of the initial camera model and/or the camera model that needs to be recalibrated later through a bundle adjustment. To optimize the camera model. Here, exterior orientation parameters (EOPs) information include GPS location information and gimbal orientation information.

한편, 상기 내부표정요소(IOPs) 정보 및 외부표정요소(EOPs) 정보는 영상 정보의 메타데이터(EXchangeable Image File, EXIF)를 이용하여 취득할 수 있다. 즉, 메타데이터(EXIF)에는 사진 파일의 크기, 촬영 일시, 조리개, ISO, 카메라 모델명 등 기본 정보와 촬영 당시의 초점 거리(focal length), 드론에 탑재된 GNSS의 위·경도 좌표, 비행고도, 자세각(roll, pitch, yaw) 정보 등이 기록된다.Meanwhile, the information on the internal expression elements (IOPs) and the information on the external expression elements (EOPs) may be obtained using metadata of image information (EXchangeable Image File, EXIF). In other words, the metadata (EXIF) includes basic information such as the size of the photo file, the date and time of shooting, aperture, ISO, and the model name of the camera, the focal length at the time of shooting, the latitude and longitude coordinates of the GNSS mounted on the drone, and the flight altitude. Posture angle (roll, pitch, yaw) information, etc. are recorded.

따라서, 내부표정요소(IOPs) 정보는 카메라 모듈의 사전 영상 정보를 통해 획득할 수 있으며, 외부표정요소(EOPs)는 드론 장치의 비행운전을 통한 카메라 모듈의 촬영 영상 정보를 통해 획득할 수 있다. Therefore, the internal expression elements (IOPs) information may be obtained through the pre-image information of the camera module, and the external expression elements (EOPs) may be acquired through the photographed image information of the camera module through the flight operation of the drone device.

영상 처리부(240)는 상기 영상 보정부(230)를 통해 보정된 영상 정보를 기초로, 3차원 모델링을 수행하여 3차원 점군 자료, 3차원 지형 정보 및 정사영상지도 정보 등의 3차원 영상 정보를 획득한다.The image processing unit 240 performs 3D modeling based on the image information corrected by the image correction unit 230 to obtain 3D image information such as 3D point cloud data, 3D terrain information, and orthoimage map information. To acquire.

이때, 영상 처리부(240)는 상기 센서부(220)를 통해 획득되는 센싱 정보와, 상기 영상 보정부(230)를 통해 보정된 영상 정보를 융합하여, 상기 3차원 모델링을 수행함으로써 고정밀 3차원 영상 정보를 획득할 수 있다.At this time, the image processing unit 240 fuses the sensing information obtained through the sensor unit 220 and the image information corrected through the image correction unit 230, and performs the 3D modeling to perform a high-precision 3D image. Information can be obtained.

피해정보 분석부(250)는 상기 영상 처리부(240)를 통해 획득한 상기 3차원 점군 자료, 3차원 지형 정보 및 정사영상지도 정보를 기초로, 기설정된 분석 프로그램을 통해 선형 지형지물의 파손 면적을 분석하여 피해규모 정보를 제공한다.The damage information analysis unit 250 analyzes the damage area of the linear terrain feature through a predetermined analysis program based on the 3D point cloud data, 3D terrain information, and orthogonal image map information obtained through the image processing unit 240. To provide damage scale information.

정보 입력부(260)는 사용자의 각종 입력 정보를 입력받고, 정보 표시부(270)는 사용자에게 각종 입/출력 정보 및 영상 정보를 디스플레이하여 제공한다.The information input unit 260 receives various input information of the user, and the information display unit 270 displays and provides various input/output information and image information to the user.

상술한 바와 같이, 본 발명에 따른 드론을 이용한 재난피해 조사분석시스템(10)은 드론 장치(100)를 통해 재난 피해 지역의 영상 정보를 획득하여, 컨트롤러 장치(200)를 통해 획득한 영상 정보를 기설정된 자동 보정 알고리즘을 통해 프로세싱함으로써 3차원 모델링 정보를 획득하고, 이를 이용하여 재난 지역의 피해규모 정보를 분석할 수 있게 된다.As described above, the disaster damage investigation and analysis system 10 using the drone according to the present invention acquires the image information of the disaster-affected area through the drone device 100, and receives the image information obtained through the controller device 200. By processing through a preset automatic correction algorithm, it is possible to obtain 3D modeling information, and use this to analyze damage scale information in a disaster area.

이때, 본 발명에 따른 자동 보정 알고리즘은 드론 장치를 통해 획득한 영상 정보에, 사전에 미리 설정된 지상기준점 정보 및 상기 드론 장치에 탑재된 카메라 모듈의 내부표정요소(interior orientation parameters(IOPs)) 정보를 적용하여 상기 영상 정보를 보정하기 위한 초기 카메라 모델을 수립하고, 이후, 상기 카메라 모듈의 외부표정요소(exterior orientation parameters(EOPs)) 정보를 광속조정법(bundle adjustment)을 통해 반복 조정하면서 상기 초기 카메라 모델을 자동 최적화하여 상기 영상 정보의 정확도를 높이는 것을 그 특징으로 할 수 있다.At this time, the automatic correction algorithm according to the present invention, the image information obtained through the drone device, preset ground reference point information and the internal orientation of the camera module mounted on the drone device (interior orientation parameters (IOPs)) information Applying to establish the initial camera model for correcting the image information, and then, while repeatedly adjusting the external orientation elements (exterior orientation parameters (EOPs)) information of the camera module through the bundle adjustment method (bundle adjustment) the initial camera model It may be characterized by automatically optimizing to increase the accuracy of the image information.

이하에서는 상술한 바와 같은 재난피해 분석시스템을 이용하여 재난피해를 분석하는 방법에 대하여 도 3 내지 도 5를 통해 상세하게 설명하기로 한다.Hereinafter, a method of analyzing disaster damage using the disaster damage analysis system as described above will be described in detail with reference to FIGS. 3 to 5.

도 3은 본 발명의 일 실시예에 따른 재난피해 조사분석시스템을 이용한 재난 피해 조사분석방법의 순서도이며, 도 4는 본 발명의 일실시예에 따른 드론 장치의 경사 촬영 방법을 설명하기 위한 도면이며, 도 5는 본 발명의 일실시예에 따른 드론 장치의 수직 촬영 방법을 설명하기 위한 도면이다. Figure 3 is a flow chart of a disaster damage investigation analysis method using a disaster damage investigation and analysis system according to an embodiment of the present invention, Figure 4 is a view for explaining the tilting method of the drone device according to an embodiment of the present invention , FIG. 5 is a view for explaining a vertical imaging method of a drone device according to an embodiment of the present invention.

도 3에 도시된 바와 같이, 본 발명의 일 실시예에 따른 재난피해 조사분석시스템을 이용한 재난피해 조사분석방법은 드론 장치에 탑재된 카메라 모듈을 통해 재난 피해 지역을 촬영하기 이전에, 사전 정보 설정(S100) 단계가 수행된다.As shown in Figure 3, the disaster damage investigation analysis method using a disaster damage analysis system according to an embodiment of the present invention, prior to shooting the disaster damage area through the camera module mounted on the drone device, prior information setting Step (S100) is performed.

사전 정보 설정 단계는 선형 지형지물 및 대공표지를 이용하여 측정한 절대 좌표 정보를 이용하여 상기 지상기준점을 기설정하고, 상기 드론 장치의 카메라 모듈 검정(camera calibration)을 통해 상기 내부표정요소 정보를 기설정할 수 있다.In the pre-information setting step, the ground reference point is preset using absolute coordinate information measured using a linear terrain feature and an anti-aircraft cover, and the internal expression element information is recorded through camera calibration of the drone device. Can be set.

즉, 본 실시예에서는 항공 촬영전 드론 장치에 탑재된 비측량용 카메라 모듈의 검정을 통해 카메라 내부표정요소(Interior Orientation parameters, IOPs)를 산출하였다. 이후, 대상 지내 자연 지형지물과 대공표지를 이용한 16개 기준점과 11개 검사점(check points,CPs)에 대해 VirtualReference Station(VRS) GNSS 측량으로 절대 좌표를 취득하였다.That is, in this embodiment, the interior orientation elements (IOPs) of the camera were calculated through the test of the non-surveying camera module mounted on the drone device before aerial photography. Subsequently, absolute coordinates were obtained by Virtual Reference Station (VRS) GNSS survey of 16 reference points and 11 check points (CPs) using natural topographic features and anti-aircraft landmarks in the target area.

이러한 사전 정보 설정이 완료되면, 드론 장치에 탑재된 카메라 모듈을 통해 재난 피해 지역을 경사 촬영(S110)한다.When the pre-information setting is completed, the disaster-damaged area is tilted through the camera module mounted on the drone device (S110).

경사 촬영은 도 4(a) 및 도 4(b)에 도시된 바와 같이, 드론 장치를 제1 고도(P1)에서 운행하면서, 미리 설정된 범위(예를 들어, 반경 2m ~ 4m)로 하천, 도로 등의 선형 지형지물의 중심선을 따라 경사 촬영을 수행하여 1차 영상 정보를 획득할 수 있다. 4(a) and 4(b), the drone device is operated at a first altitude P1, and rivers and roads are set in a predetermined range (for example, a radius of 2 m to 4 m). Primary image information may be obtained by performing oblique imaging along the centerline of a linear feature such as.

이때, 제1 고도(P1)는 30m ~ 50m이며, 상기 1차 영상 정보는 후술할 수직 촬영 범위보다 넓은 범위의 전경 영상 정보를 포함한다.In this case, the first altitude P1 is 30 m to 50 m, and the primary image information includes foreground image information in a wider range than the vertical shooting range, which will be described later.

경사 촬영을 수행하는 이유는 드론 장치를 낮은 고도, 즉 제1 고도(P1)로 운행하면서 비교적 넓은 범위의 전경 영상을 빠르게 확보하여 구체적인 맵핑 지역, 즉, 집중적 분석 대상지역을 찾기 위함이다.The reason for performing the oblique shooting is to find a specific mapping area, that is, a target area for intensive analysis by quickly securing a relatively wide range of foreground images while operating the drone device at a low altitude, that is, the first altitude P1.

한편, 경사 촬영을 통해 획득한 영상 정보는 드론 장치의 통신모듈을 통해 상기 컨트롤러 장치로 전송되며, 컨트롤러 장치는 전송된 영상 정보를 기초로 맵핑 지역 정보를 선정(S120)하게 된다.Meanwhile, the image information obtained through oblique shooting is transmitted to the controller device through the communication module of the drone device, and the controller device selects mapping region information based on the transmitted image information (S120).

이후, 컨트롤러 장치는 선정된 맵핑 지역 정보를 통신부를 통해 무선통신하여 드론 장치로 전송한다.Thereafter, the controller device wirelessly communicates the selected mapping area information through the communication unit and transmits it to the drone device.

드론 장치는 전송된 맵핑 지역을 대상으로 카메라 모듈을 통해 수직 촬영을 수행(S130)한다.The drone device performs vertical shooting through the camera module on the transmitted mapping area (S130).

수직 촬영은 도 5(a) 및 도 5(b)에 도시된 바와 같이, 드론 장치를 제2 고도(P2)에서 운행하면서 400m ~ 600m 간격의 일정 단위로 촬영을 수행하여 2차 영상 정보를 획득한다.As shown in FIGS. 5(a) and 5(b), vertical imaging is performed while the drone device is operated at a second altitude (P2) at 400 m to 600 m intervals, thereby obtaining secondary image information. do.

이때, 제2 고도(P2)는 90m ~ 110m이며, 상기 제2차 영상 정보는 단위 세션별 영상정보를 포함한다.At this time, the second altitude P2 is 90 m to 110 m, and the second image information includes image information for each session.

즉, 수직 촬영은 상기 경사 촬영을 통해 확보한 맵핑 지역을 일정 간격, 즉, 바람직하게는 500m 간격으로 단위 세션별로 수직방향 촬영함으로써 집중 분석 대상인 맵핑 지역에 대한 구체적인 영상 정보를 획득할 수 있게 된다. That is, by vertically photographing the mapping area secured through the oblique shooting at regular intervals, that is, preferably at 500 m intervals, it is possible to acquire detailed image information on the mapping area that is the target of intensive analysis.

이러한 수직 촬영을 통해 획득한 영상 정보는 상기 컨트롤러 장치로 전송되며, 컨트롤러 장치는 전송된 영상 정보에 기설정된 지상기준점 정보(좌표 정보)를 적용(S140)하여 초기 카메라 모델을 수립(S150)한다.The image information acquired through the vertical shooting is transmitted to the controller device, and the controller device establishes an initial camera model by applying preset ground reference point information (coordinate information) to the transmitted image information (S140).

이후, 컨트롤러 장치는 수립된 초기 카메라 모델이 미리 설정된 최적화 조건에 포함되는지를 판단(S160)하며, 상기 초기 카메라 모델이 최적화되지 않은 것으로 판단되면, 초기 카메라 모델의 영상 정보에, 상기 카메라 모듈의 내부표정요소 정보 및 외부표정요소 정보를 적용하여 상기 영상 정보를 자동 보정함으로써 카메라 모델을 보정(S170)한다.Thereafter, the controller device determines whether the established initial camera model is included in a preset optimization condition (S160), and when it is determined that the initial camera model is not optimized, in the video information of the initial camera model, the inside of the camera module The camera model is corrected by automatically correcting the image information by applying facial expression element information and external expression element information (S170).

이때, 내부표정요소(interior orientation parameters(IOPs)) 정보는 사전의 카메라 모듈 검정을 통해 미리 설정된 고정값을 사용하고, 상기 외부표정요소(exterior orientation parameters(EOPs)) 정보는 광속조정법을 통해 조정되는 보정값을 사용하여 카메라 모델을 자동 보정할 수 있다.At this time, the internal orientation elements (interior orientation parameters (IOPs)) information uses a preset fixed value through a prior camera module test, and the external orientation elements (exterior orientation parameters (EOPs)) information is adjusted through the light beam adjustment method The camera model can be automatically calibrated using the calibration values.

여기서, 내부표정요소(interior orientation parameters(IOPs)) 정보는 사진 좌표계 상의 주점의 위치 정보, 카메라 초점거리 정보 및 카메라 렌즈의 왜곡량 정보를 포함하며, 외부표정요소(exterior orientation parameters(EOPs)) 정보는 GPS 위치 정보 및 짐벌 방향 정보를 포함한다. Here, the interior orientation parameters (IOPs) information includes location information of a pub on a photo coordinate system, camera focal length information, and distortion amount information of a camera lens, and exterior orientation parameters (EOPs) information Includes GPS location information and gimbal direction information.

이후, 컨트롤러 장치는 보정된 카메라 모델이 미리 설정된 최적화 조건에 포함되는지를 다시 판단(S160)하며, 상기 보정된 카메라 모델이 최적화로 판단되면, 3차원 지형 모델링(S180)을 수행하여 3차원 공간 영상 정보를 생성한다. Thereafter, the controller device again determines whether the corrected camera model is included in a preset optimization condition (S160), and when the corrected camera model is determined to be optimized, performs 3D terrain modeling (S180) to perform a 3D spatial image. Generate information.

이때, 컨트롤러 장치는 3차원 모델링을 수행하는 과정에서 컨트롤러 장치에 구비되는 LiDAR 스캐너 및 GNSS/INS 센서로부터 획득되는 센싱 정보를 상기 영상 정보와 융합하여, 3차원 지형 모델링을 수행할 수 있으며, 이를 통해 고정밀 3차원 공간 영상 정보를 획득할 수 있다. At this time, the controller device may perform 3D terrain modeling by fusing sensing information obtained from the LiDAR scanner and GNSS/INS sensor provided in the controller device with the image information in the process of performing 3D modeling, through which High-precision 3D spatial image information can be obtained.

즉, 드론 항공촬영 방식은 주로 수직방향에서 노출된 건물 지붕면을 중심으로 점군 자료가 생성되기 때문에 건물과 같은 대상체의 측면 정보는 대부분 누락되는 경우가 흔히 발생한다.That is, in the drone aerial photographing method, since point cloud data is generated mainly on the roof surface of the building exposed in the vertical direction, it is common that the side information of the object such as a building is mostly omitted.

이에, 본 실시예에서는 재난사고 현장에서 지상LiDAR 자료와 드론 센싱 자료의 통합을 위하여 대상지내 자연 지형지물 정합점을 선정하고, 좌표 변환 모델식을 적용하여 드론 점군 자료의 좌표계를 기준으로 지상 LiDAR 자료를 등록하여 이종 점군 자료를 통합하였다.Accordingly, in this embodiment, in order to integrate the ground LiDAR data and the drone sensing data at the site of the disaster accident, the natural terrain feature matching point in the target area is selected, and the coordinate transformation model formula is applied to the ground LiDAR data based on the coordinate system of the drone point group data. And registered heterogeneous point cloud data.

이 과정에서 본래 좌표계의 형태를 보전하면서 변환이 가능한 7-parameter similarity transformation 좌표 변환 모델식을 적용하였다.In this process, a 7-parameter similarity transformation coordinate transformation model formula that can be transformed while preserving the shape of the original coordinate system was applied.

이때, 좌표 변환 모델식은 하기의 [수학식 1]과 같다.At this time, the coordinate transformation model equation is as shown in [Equation 1] below.

[수학식 1][Equation 1]

Figure 112019125915894-pat00001
Figure 112019125915894-pat00001

여기서, t는 평행 이동량, s는 축척, R는 회전행렬이며, 7개 변환 계수는 하기의 [수학식 2]를 통해 구할 수 있다Here, t is the amount of translation, s is the scale, R is the rotation matrix, and the seven transform coefficients can be obtained through Equation 2 below.

[수학식 2][Equation 2]

Figure 112019125915894-pat00002
Figure 112019125915894-pat00002

여기서, A와 B는 각각 매칭점 좌표이며, 변환계수 t, s, R는 하기의 [수학식 3]을 통해 계산할 수 있다.Here, A and B are coordinates of the matching points, respectively, and the transformation coefficients t, s, and R can be calculated through Equation 3 below.

[수학식 3][Equation 3]

Figure 112019125915894-pat00003
Figure 112019125915894-pat00003

한편, 상기 7-parameter similarity transformation에 의한 좌표계 변환 과정에서 발생할 수 있는 위치오차를 해소하기 위해, 두 좌표계간 축적이 동일하고, 수직 성분은 회전이 없다는 조건을 좌표 변환 모델식에 반영하여 두 자료 간 발생 오차를 최소화하였다. On the other hand, in order to solve the position error that may occur in the process of transforming the coordinate system by the 7-parameter similarity transformation, the condition between the two coordinate systems is the same and the vertical component is not rotated is reflected in the coordinate transformation model formula. The occurrence error was minimized.

이 때, 수직 방향에서의 이동량(ΔZ)은 평균 고도값으로 부여하였으며, 이하의 [수학식 4]에서와 같이 평균 고도값 조정을 통한 변환 모델식을 적용하였다.At this time, the amount of movement in the vertical direction (ΔZ) was given as an average altitude value, and a transformation model equation through adjustment of the average altitude value was applied as in [Equation 4] below.

[수학식 4][Equation 4]

Figure 112019125915894-pat00004
Figure 112019125915894-pat00004

상술한 바와 같은 과정을 통해 획득한 3차원 영상 정보는 3차원 점군 자료, 3차원 지형 정보 및 정사영상지도 정보 등이 포함될 수 있으며, 이러한 3차원 영상 정보는 컨트롤러 장치에 구비된 디스플레이 등의 표시장치를 통해 사용자에게 제공된다.The 3D image information obtained through the above-described process may include 3D point cloud data, 3D terrain information, and orthogonal image map information, and the 3D image information is a display device such as a display provided in the controller device. Is provided to the user through.

한편, 상기 보정된 카메라 모델이 여전히 미리 설정된 최적화 조건에 포함되지 않는 것으로 판단되는 경우, 상기 카메라 모델을 보정(S160) 단계로 다시 복귀하여, 해당 카메라 모델의 영상 정보에 외부표정요소 정보를 반복 보정하여 카메라 모델을 최적화할 수 있다.On the other hand, if it is determined that the corrected camera model is still not included in the preset optimization condition, the camera model is returned to the correcting step (S160), and the external expression element information is repeatedly corrected in the image information of the camera model. To optimize the camera model.

다시 말해서, 초기 카메라 모델을 수립한 이후, 사전 카메라 검정을 통한 내부표정요소의 결정과 광속조정법(bundle adjustment)을 통해 외부표정요소를 반복 조정하여 영상 정보를 처리하기 위한 카메라 모델을 최적화함으로써 드론 맵핑의 위치결정 정확도를 향상시킬 수 있게 된다.In other words, after establishing the initial camera model, drone mapping by optimizing the camera model for processing image information by repeatedly adjusting the external expression element through bundle adjustment and determination of the internal expression element through pre-camera verification. It is possible to improve the positioning accuracy of.

이러한 카메라 모델의 반복 조정 과정을 거쳐 보정된 카메라 모델이 최적화로 판단되면, 3차원 모델링(S180)을 통해 3차원 영상 정보를 생성한다.If the camera model corrected through the iterative adjustment process of the camera model is determined to be optimal, 3D image information is generated through 3D modeling (S180).

이후, 상기 3차원 영상 정보를 기초로, 기설정된 분석 프로그램을 통해 도로 및 하천 등의 선형 지형지물의 파손 면적 등 피해분석 정보를 분석(S190)하여 분석 결과 정보를 사용자에게 제공(S200)할 수 있다.Thereafter, based on the 3D image information, damage analysis information such as a damaged area of a linear terrain such as a road or a river may be analyzed through a predetermined analysis program (S190), and analysis result information may be provided to a user (S200). .

이와 같이, 본 발명에 따른 드론을 이용한 재난피해 분석시스템 및 이를 이용한 재난피해 분석방법은 카메라 검정과 광속조정법으로 카메라 모델을 최적화한 드론 맵핑 기법을 통해 재난 피해 지역의 영상 정보 정확도를 높일 수 있는 장점이 있다. As described above, the disaster damage analysis system using the drone and the disaster damage analysis method using the same according to the present invention have the advantage of improving the accuracy of image information in a disaster-affected area through a drone mapping technique that optimizes the camera model using camera verification and luminous flux adjustment. There is this.

또한, 특수차량의 지상 LiDAR 자료와 드론 장치의 센싱 자료간의 융합을 통해 향후 재난사고 조사현장의 고정밀 3차원 공간정보를 신속하게 수집·구축함으로써 국가 재난안전 관리 현업에 일조할 수 있는 효과도 있다.In addition, there is an effect that it can contribute to the national disaster safety management work by quickly collecting and building high-precision 3D spatial information of the future disaster accident site through the fusion between the ground LiDAR data of a special vehicle and the sensing data of a drone device.

상기한 본 발명의 바람직한 실시예는 예시의 목적을 위해 개시된 것이고, 본 발명에 대해 통상의 지식을 가진 당업자라면 본 발명의 사상과 범위 안에서 다양한 수정, 변경, 부가가 가능할 것이며, 이러한 수정, 변경 및 부가는 하기의 특허청구범위에 속하는 것으로 보아야 할 것이다.The above-described preferred embodiments of the present invention are disclosed for the purpose of illustration, and those skilled in the art will appreciate various modifications, changes, and additions within the spirit and scope of the present invention. It should be considered that the addition is within the scope of the following claims.

10 : 드론을 이용한 재난피해 분석시스템
20 : 조사차량
100 : 드론 장치
110 : 카메라 모듈
120 : 센서 모듈
130 : 비행 운전 모듈
140 : 통신 모듈
150 : 제어 모듈
200 : 컨트롤러 장치
210 : 통신부
220 : 센서부
230 : 영상 보정부
231 : 사전 정보 설정부
232 : 카메라 모듈 수립부
233 : 카메라 모듈 보정부
240 : 영상 처리부
250 : 피해정보 분석부
260 : 정보 입력부
270 : 정보 표시부
10: Disaster damage analysis system using drone
20: irradiated vehicle
100: drone device
110: camera module
120: sensor module
130: flight driving module
140: communication module
150: control module
200: controller device
210: communication unit
220: sensor unit
230: image correction unit
231: dictionary information setting unit
232: camera module establishment unit
233: camera module correction unit
240: image processing unit
250: damage information analysis unit
260: information input unit
270: information display

Claims (26)

탑재된 카메라 모듈을 통해 상공에서 재난 피해 지역을 촬영하여 상기 재난 피해 지역의 영상 정보를 획득하기 위한 드론 장치; 및
상기 드론 장치와 무선통신하여 상기 드론 장치로부터 재난 피해 지역의 영상 정보를 전송받고, 전송된 영상 정보를 기설정된 자동 보정 알고리즘을 통해 프로세싱하여 3차원 모델링 정보를 획득하기 위한 컨트롤러 장치;를 포함하며,
상기 자동 보정 알고리즘은,
상기 드론 장치를 통해 획득한 영상 정보에, 사전에 미리 설정된 지상기준점 정보 및 상기 드론 장치에 탑재된 카메라 모듈의 내부표정요소(interior orientation parameters(IOPs)) 정보를 적용하여 상기 영상 정보를 보정하기 위한 초기 카메라 모델을 수립하고, 이후, 상기 카메라 모듈의 외부표정요소(exterior orientation parameters(EOPs)) 정보를 광속조정법(bundle adjustment)을 통해 반복 조정하면서 상기 초기 카메라 모델을 자동 최적화하여 상기 영상 정보의 정확도를 높이는 것을 특징으로 하며,
상기 드론 장치는,
상기 재난 피해 지역을 30m ~ 50m의 제1 고도에서 경사 촬영하여 1차 영상 정보를 획득하고, 90m ~ 110m의 제2 고도에서 수직 촬영하여 2차 영상 정보를 획득하되,
상기 경사 촬영을 통해 미리 설정된 범위로 선형 지형지물의 중심선을 따라 촬영을 수행하여, 상기 수직촬영 범위보다 넓은 범위의 전경 영상정보를 획득하며,
상기 수직 촬영을 통해 400m ~ 600m 간격의 일정 단위로 촬영을 수행하여, 단위 세션별 영상정보를 획득함으로써, 재난피해 지역의 집중적 분석 대상지역을 신속하게 찾아 조사할 수 있는 것을 특징으로 하는 드론을 이용한 재난피해 조사분석시스템.
A drone device for acquiring image information of the disaster-affected area by photographing a disaster-affected area from above through a mounted camera module; And
Includes a controller device for wirelessly communicating with the drone device to receive image information of a disaster-affected area from the drone device, and processing the transmitted image information through a preset automatic correction algorithm to obtain 3D modeling information.
The automatic correction algorithm,
For correcting the image information by applying preset ground reference point information and interior orientation parameters (IOPs) of the camera module mounted in the drone device to the image information obtained through the drone device Establishing an initial camera model, and then automatically adjusting the initial camera model while repeatedly adjusting the external orientation parameters (EOPs) information of the camera module through a bundle adjustment, to thereby accurately optimize the image information. Characterized by raising,
The drone device,
Obtain primary image information by obliquely shooting the disaster-affected area at a first altitude of 30m to 50m, and vertical image at a second altitude of 90m to 110m to obtain secondary image information.
Acquiring foreground image information in a wider range than the vertical shooting range by performing shooting along the centerline of a linear terrain feature in a preset range through the oblique shooting,
Using the drone, it is possible to quickly find and investigate a target area for intensive analysis of a disaster-affected area by acquiring video information for each session by performing shooting in a certain unit at intervals of 400m to 600m through the vertical shooting. Disaster damage investigation and analysis system.
제 1항에 있어서,
상기 내부표정요소(interior orientation parameters(IOPs)) 정보는 사진 좌표계 상의 주점의 위치 정보, 카메라 초점거리 정보 및 카메라 렌즈의 왜곡량 정보를 포함하는 것을 특징으로 하는 드론을 이용한 재난피해 조사분석시스템.
According to claim 1,
The interior orientation parameters (IOPs) information is a disaster damage investigation and analysis system using a drone, characterized in that it includes the location information of the pub on the photo coordinate system, the camera focal length information and the amount of distortion of the camera lens.
제 1항에 있어서,
상기 외부표정요소(exterior orientation parameters(EOPs)) 정보는 GPS 위치 정보 및 짐벌 방향 정보를 포함하는 것을 특징으로 하는 드론을 이용한 재난피해 조사분석시스템.
According to claim 1,
Disaster damage investigation and analysis system using a drone, characterized in that the external orientation elements (exterior orientation parameters (EOPs)) information includes GPS location information and gimbal orientation information.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 제 1항에 있어서,
상기 드론 장치는,
장치의 본체에 구비되며, 광학 카메라로 이루어져 상기 재난 피해 지역을 촬영하여 재난 피해 지역의 영상 정보를 생성하는 카메라 모듈;
상기 본체에 구비되며, 각종 센서로 이루어지는 센서 모듈;
상기 본체에 구비되며, 상기 본체를 상공에 띄워 운행시키기 위한 비행 운전 모듈;
상기 본체에 구비되며, 상기 컨트롤러 장치와 실시간 무선통신하기 위한 통신모듈; 및
상기 본체 내부에 구비되며, 카메라 모듈에서 생성된 영상 정보를 상기 통신 모듈을 통해 상기 컨트롤러 장치로 전송시키고, 상기 컨트롤러 장치로부터 전송되는 제어 신호에 따라 상기 카메라 모듈, 센서 모듈 및 비행 운전 모듈을 제어하는 제어 모듈;
을 포함하여 구성되는 것을 특징으로 하는 드론을 이용한 재난피해 조사분석시스템.
According to claim 1,
The drone device,
A camera module provided on the main body of the device, and configured with an optical camera to photograph the disaster-affected area and generate image information of the disaster-affected area;
A sensor module provided on the main body and composed of various sensors;
It is provided on the main body, the flight driving module for operating the body floating above;
A communication module provided in the main body, for real-time wireless communication with the controller device; And
It is provided inside the main body, and transmits the image information generated by the camera module to the controller device through the communication module, and controls the camera module, sensor module, and flight driving module according to a control signal transmitted from the controller device. Control module;
Disaster damage investigation and analysis system using a drone, characterized in that comprises a.
제 9항에 있어서,
상기 센서 모듈은 Global Navigation Satellite System(GNSS)/Inertial Navigation System(INS), 자이로센서, 가속계 및 기압계를 포함하여 구성되는 것을 특징으로 하는 드론을 이용한 재난피해 조사분석시스템.
The method of claim 9,
The sensor module includes a Global Navigation Satellite System (GNSS)/Inertial Navigation System (INS), a gyro sensor, an accelerometer and a barometer, a disaster damage investigation and analysis system using a drone.
제 1항에 있어서,
상기 컨트롤러 장치는,
상기 드론 장치와 무선통신하기 위한 통신부;
상기 드론 장치로부터 전송된 영상 정보를 기설정된 자동 보정 알고리즘을 통해 보정 처리하기 위한 영상 보정부;
상기 영상 보정부를 통해 보정된 영상 정보를 기초로, 3차원 모델링을 수행하여 3차원 점군 자료, 3차원 지형 정보 및 정사영상지도 정보를 획득하기 위한 영상 처리부;
상기 영상 처리부를 통해 획득한 상기 3차원 점군 자료, 3차원 지형 정보 및 정사영상지도 정보를 기초로, 기설정된 분석 프로그램을 통해 선형 지형지물의 파손 면적을 분석하여 피해규모 정보를 제공하는 피해정보 분석부;
사용자의 각종 입력 정보를 입력받기 위한 정보 입력부; 및
사용자에게 각종 입/출력 정보 및 영상 정보를 디스플레이하기 위한 정보 표시부;
를 포함하여 구성되는 것을 특징으로 하는 드론을 이용한 재난피해 조사분석시스템.
According to claim 1,
The controller device,
A communication unit for wireless communication with the drone device;
An image correction unit for correcting image information transmitted from the drone device through a preset automatic correction algorithm;
An image processing unit for acquiring 3D point cloud data, 3D terrain information and orthoimage map information by performing 3D modeling based on the image information corrected by the image correction unit;
Based on the 3D point cloud data, 3D topographic information and orthoimage map information obtained through the image processing unit, a damage information analysis unit that analyzes a damaged area of a linear topography through a predetermined analysis program and provides damage scale information ;
An information input unit for receiving various input information of a user; And
An information display unit for displaying various input/output information and image information to a user;
Disaster damage investigation and analysis system using a drone, characterized in that comprises a.
제 11항에 있어서,
상기 영상 보정부는,
영상 정보의 절대 좌표 취득을 위해 사전에 자연 지형물 및 대공 표지를 이용하여 미리 산출된 지상기준점 정보와, 드론 장치에 탑재된 카메라 모듈의 사전 검정을 통해 산출된 내부표정요소(interior orientation parameters(IOPs)) 정보가 사전 설정되는 사전 정보 설정부;
상기 영상 정보에, 상기 사전 정보 설정부에서 설정된 지상기준점 정보 및 내부표정요소 정보를 입력하여 초기 카메라 모델을 수립하는 카메라 모델 수립부; 및
상기 영상 정보에 외부표정요소(exterior orientation parameters(EOPs)) 정보를 광속조정법(bundle adjustment)을 통해 반복 조정하여 상기 초기 카메라 모델을 최적화 보정하는 카메라 모델 보정부;
를 포함하여 구성되는 것을 특징으로 하는 드론을 이용한 재난피해 조사분석시스템.
The method of claim 11,
The image correction unit,
In order to acquire the absolute coordinates of the image information, ground reference point information calculated in advance using natural terrain and anti-aircraft signs and interior orientation parameters (IOPs) calculated through pre-testing of the camera module mounted on the drone device )) a preset information setting unit in which information is preset;
A camera model establishing unit for establishing an initial camera model by inputting ground reference point information and internal expression element information set in the prior information setting unit into the image information; And
A camera model correction unit that optimizes and corrects the initial camera model by repeatedly adjusting exterior orientation parameters (EOPs) information in the image information through a bundle adjustment method;
Disaster damage investigation and analysis system using a drone, characterized in that comprises a.
제 11항에 있어서,
컨트롤러 장치는,
LiDAR 스캐너 및 GNSS/INS 센서로 이루어지는 센서부를 더 포함하며,
상기 영상 처리부는 상기 센서부를 통해 획득되는 센싱 정보와, 상기 영상 보정부를 통해 보정된 영상 정보를 융합하여, 상기 3차원 모델링을 수행함으로써 고정밀 3차원 영상 정보를 획득하는 것을 특징으로 하는 드론을 이용한 재난피해 조사분석시스템.
The method of claim 11,
The controller device,
Further comprising a sensor unit consisting of a LiDAR scanner and GNSS/INS sensor,
The image processing unit fuses sensing information obtained through the sensor unit and image information corrected through the image correction unit, and performs high-precision three-dimensional image information by performing the three-dimensional modeling. Damage investigation analysis system.
조사차량에 구비된 컨트롤러 장치와 무선통신하는 드론 장치를 이용한 재난피해 조사분석시스템을 이용한 재난피해 조사분석방법에 있어서,
상기 드론 장치에 탑재된 카메라 모듈을 통해 재난 피해 지역을 경사 촬영하는 단계;
경사 촬영을 통해 획득한 영상 정보를 상기 컨트롤러 장치로 전송하여 영상 정보를 기초로 맵핑 지역 정보를 선정하는 단계;
선정된 맵핑 지역 정보를 상기 드론 장치로 전송하며, 드론 장치의 카메라 모듈을 통해 맵핑 지역을 수직 촬영하는 단계;
수직 촬영을 통해 획득한 영상 정보를 상기 컨트롤러 장치로 전송하며, 전송된 영상 정보에 기설정된 지상기준점 정보를 입력하여 초기 카메라 모델을 수립하는 단계;
상기 카메라 모델이 미리 설정된 최적화 조건에 포함되는지를 판단하는 단계;
상기 카메라 모델이 최적화로 판단되면, 3차원 모델링을 수행하여 3차원 영상 정보를 생성하는 단계;
생성된 3차원 영상 정보를 디스플레이 장치를 통해 사용자에게 제공하는 단계;
를 포함하되,
상기 경사 촬영은 상기 드론 장치를 30m ~ 50m의 제1 고도에서 운행하면서 미리 설정된 범위로 선형 지형지물의 중심선을 따라 촬영을 수행하며, 상기 수직촬영 범위보다 넓은 범위의 전경 영상정보를 획득하며,
상기 수직 촬영은 상기 드론 장치를 90m ~ 110m의 제2 고도에서 운행하면서 400m ~ 600m 간격의 일정 단위로 촬영을 수행하여, 단위 세션별 영상정보를 획득함으로써, 재난피해 지역의 집중적 분석 대상지역을 신속하게 찾아 조사할 수 있는 것을 특징으로 하는 재난피해 조사분석시스템을 이용한 재난피해 조사분석방법.
In the disaster damage investigation analysis method using a disaster damage investigation and analysis system using a drone device in wireless communication with the controller device provided in the investigation vehicle,
Obliquely photographing a disaster-affected area through a camera module mounted on the drone device;
Selecting the mapping area information based on the image information by transmitting the image information obtained through oblique shooting to the controller device;
Transmitting selected mapping area information to the drone device, and vertically photographing the mapping area through a camera module of the drone device;
Establishing an initial camera model by transmitting image information acquired through vertical shooting to the controller device and inputting predetermined ground reference point information to the transmitted image information;
Determining whether the camera model is included in a preset optimization condition;
If it is determined that the camera model is optimized, generating 3D image information by performing 3D modeling;
Providing the generated 3D image information to a user through a display device;
Including,
The inclined photographing is performed while driving the drone device at a first altitude of 30 m to 50 m along a center line of a linear terrain feature in a preset range, obtaining foreground image information in a wider range than the vertical photographing range,
The vertical shooting is performed at a second altitude of 90 m to 110 m while the drone device is photographed in a certain unit at intervals of 400 m to 600 m to obtain image information for each session, thereby quickly exploring the target area for intensive analysis of the disaster-affected area. Disaster damage investigation analysis method using a disaster damage investigation analysis system, characterized in that it can be found and investigated.
제 14항에 있어서,
상기 카메라 모델이 미리 설정된 최적화 조건에 포함되지 않는 경우, 상기 초기 카메라 모델을 통해 획득한 영상 정보에, 상기 카메라 모듈의 내부표정요소 정보 및 외부표정요소 정보를 적용하여, 상기 영상 정보를 자동 보정함으로써 카메라 모델을 보정하며, 보정된 카메라 모델을 상기 미리 설정된 최적화 조건에 포함되는지를 판단하는 단계로 복귀하는 것을 특징으로 하는 재난피해 조사분석시스템을 이용한 재난피해 조사분석방법.
The method of claim 14,
When the camera model is not included in a preset optimization condition, by applying the internal expression element information and the external expression element information of the camera module to the image information obtained through the initial camera model, the image information is automatically corrected by A method of calibrating a camera model, and returning to the step of determining whether the calibrated camera model is included in the preset optimization condition.
제 15항에 있어서,
상기 카메라 모델을 보정하는 단계에서는,
상기 내부표정요소(interior orientation parameters(IOPs)) 정보는 사전의 카메라 모듈 검정을 통해 미리 설정된 고정값을 사용하고, 상기 외부표정요소(exterior orientation parameters(EOPs)) 정보는 광속조정법을 통해 조정되는 보정값을 사용하는 것을 특징으로 하는 재난피해 조사분석시스템을 이용한 재난피해 조사분석방법.
The method of claim 15,
In the step of calibrating the camera model,
The interior orientation parameters (IOPs) information uses a preset fixed value through a pre-camera module test, and the exterior orientation parameters (EOPs) information is adjusted by adjusting the speed of light. Disaster damage investigation analysis method using a disaster damage investigation analysis system, characterized in that using the value.
제 14항에 있어서,
상기 경사 촬영 단계 이전에,
선형 지형지물 및 대공표지를 이용하여 측정한 절대 좌표 정보를 이용하여 상기 지상기준점을 기설정하고, 상기 드론 장치의 카메라 모듈 검정을 통해 내부표정요소 정보를 기설정하는 사전 정보 설정 단계;가 포함되는 것을 특징으로 하는 재난피해 조사분석시스템을 이용한 재난피해 조사분석방법.
The method of claim 14,
Before the oblique imaging step,
Preset information setting step of presetting the ground reference point using absolute coordinate information measured by using a linear terrain feature and an anti-aircraft cover, and presetting internal expression element information through the camera module test of the drone device; includes Disaster damage survey analysis method using a disaster damage analysis system, characterized in that.
삭제delete 삭제delete 삭제delete 삭제delete 제 16항에 있어서,
상기 내부표정요소(interior orientation parameters(IOPs)) 정보는 사진 좌표계 상의 주점의 위치 정보, 카메라 초점거리 정보 및 카메라 렌즈의 왜곡량 정보를 포함하는 것을 특징으로 하는 재난피해 조사분석시스템을 이용한 재난피해 조사분석방법.
The method of claim 16,
The interior orientation parameters (IOPs) information includes the location information of the tavern on the photo coordinate system, the camera focal length information, and the amount of distortion of the camera lens. Method of analysis.
제 16항에 있어서,
상기 외부표정요소(exterior orientation parameters(EOPs)) 정보는 GPS 위치 정보 및 짐벌 방향 정보를 포함하는 것을 특징으로 하는 재난피해 조사분석시스템을 이용한 재난피해 조사분석방법.
The method of claim 16,
The external orientation elements (exterior orientation parameters (EOPs)) information is a disaster damage investigation analysis method using a disaster damage investigation analysis system, characterized in that it comprises a GPS location information and gimbal direction information.
제 14항에 있어서,
상기 3차원 영상 정보는 3차원 점군 자료, 3차원 지형 정보 및 정사영상지도 정보를 포함하는 것을 특징으로 하는 재난피해 조사분석시스템을 이용한 재난피해 조사분석방법.
The method of claim 14,
The three-dimensional image information is a disaster damage survey analysis method using a disaster damage survey analysis system, characterized in that it comprises three-dimensional point cloud data, three-dimensional terrain information and orthogonal image map information.
제 14항에 있어서,
상기 3차원 모델링을 수행하는 단계에서는,
상기 컨트롤러 장치에 구비되는 LiDAR 스캐너 및 GNSS/INS 센서로부터 획득되는 센싱 정보와, 상기 영상 정보를 융합하여 3차원 모델링을 수행함으로써 고정밀 3차원 영상 정보를 생성하는 것을 특징으로 하는 재난피해 조사분석시스템을 이용한 재난피해 조사분석방법.
The method of claim 14,
In the step of performing the three-dimensional modeling,
A disaster damage investigation and analysis system comprising generating sensing information obtained from a LiDAR scanner and a GNSS/INS sensor provided in the controller device and 3D modeling by combining the image information to generate high-precision 3D image information. Disaster damage analysis method used.
제 14항에 있어서,
3차원 모델링을 수행하여 3차원 영상 정보를 생성한 후, 생성된 3차원 영상 정보를 기초로, 기설정된 분석 프로그램을 통해 선형 지형지물의 파손 면적을 분석하여 사용자에게 재난피해 분석정보를 제공하는 단계가 더 포함되는 것을 특징으로 하는 재난피해 조사분석시스템을 이용한 재난피해 조사분석방법.
The method of claim 14,
After performing 3D modeling to generate 3D image information, a step of providing a disaster damage analysis information to a user by analyzing a damaged area of a linear terrain feature through a predetermined analysis program based on the generated 3D image information Disaster damage investigation analysis method using a disaster damage investigation analysis system, characterized in that further included.
KR1020190160746A 2019-12-05 2019-12-05 Disaster damage investigation·analysis system using drone and disaster damage investigation·analysis method KR102121974B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190160746A KR102121974B1 (en) 2019-12-05 2019-12-05 Disaster damage investigation·analysis system using drone and disaster damage investigation·analysis method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190160746A KR102121974B1 (en) 2019-12-05 2019-12-05 Disaster damage investigation·analysis system using drone and disaster damage investigation·analysis method

Publications (1)

Publication Number Publication Date
KR102121974B1 true KR102121974B1 (en) 2020-06-12

Family

ID=71088511

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190160746A KR102121974B1 (en) 2019-12-05 2019-12-05 Disaster damage investigation·analysis system using drone and disaster damage investigation·analysis method

Country Status (1)

Country Link
KR (1) KR102121974B1 (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112033378A (en) * 2020-09-04 2020-12-04 中国农业大学 Method for surveying number of zokors in meadow grassland based on unmanned aerial vehicle aerial photography
KR102203135B1 (en) * 2020-06-24 2021-01-14 대한민국 Method and system for detecting disaster damage information based on artificial intelligence using drone
KR102303783B1 (en) * 2021-01-26 2021-09-23 대한민국 Disaster accident site information acquisition and analysis method and system including slope collapse using drones
KR102315972B1 (en) * 2021-01-26 2021-10-22 대한민국 Disaster site reconstruction and cause analysis method and system using drones
KR102320264B1 (en) * 2021-05-04 2021-11-02 대한민국 Method and apparatus for identifying disaster affected areas using disaster pront areas features
KR102320262B1 (en) * 2021-05-04 2021-11-02 대한민국 Method and apparatus for estimating size of damage in the disaster affected areas
KR102322231B1 (en) * 2020-12-10 2021-11-08 대한민국 System and method for providing a disaster information using drone and mobile device
KR102331410B1 (en) * 2021-03-22 2021-12-03 대한민국 Disaster and accident site response drone standard operating method and system thereof
KR102345880B1 (en) * 2021-09-28 2022-01-03 주식회사 파나시아 Image processing system that processes real-time images taken
KR102347356B1 (en) * 2021-09-28 2022-01-05 주식회사 파나시아 Image processing system of video image to which reference point data is applied
KR102347330B1 (en) * 2020-10-05 2022-01-07 윤원섭 Safety management monitoring system using thermal imaging camera
CN113932776A (en) * 2021-10-23 2022-01-14 昆山市城乡房产测量有限公司 Real scene modeling unmanned aerial vehicle system
KR102362553B1 (en) * 2021-09-28 2022-02-15 주식회사 파나시아 Image processing system that updates image data in real time
KR102379303B1 (en) * 2021-09-03 2022-03-30 대한민국 A method and system for on-site investigation of a disaster cause using a special vehicle equipped with an unmanned aerial vehicle
CN114500591A (en) * 2021-12-23 2022-05-13 国家石油天然气管网集团有限公司华南分公司 Pipeline disaster identification method based on unmanned aerial vehicle image data
KR20220094242A (en) 2020-12-28 2022-07-06 (주)프로맥스 Disaster monitoring system of steep slope land by using DRON and operating method thereof
KR102470201B1 (en) * 2021-12-14 2022-11-25 한국건설기술연구원 system and method for providing risk of building wind
KR20220158570A (en) * 2021-05-24 2022-12-01 이재영 Drone used 3d mapping method
KR20220166689A (en) * 2021-06-10 2022-12-19 이재영 Drone used 3d mapping method
KR20230079925A (en) 2021-11-29 2023-06-07 (주)에어포인트 The IoT System Used Gateway Having Convenient Mobility
KR102629213B1 (en) 2023-04-18 2024-01-24 국방과학연구소 Method and Apparatus for Detecting Moving Objects in Perspective Motion Imagery

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040110440A (en) * 2003-06-19 2004-12-31 주식회사 한국지오매틱스 A manufacturing process yardage book
KR101124438B1 (en) * 2011-12-26 2012-03-21 중앙항업(주) System providing digital map data, ortho image and aerial oblique image of fire area using smart-phone equipped with aerial image and gps-module and communication-module
KR101345554B1 (en) * 2013-10-18 2014-01-02 중앙항업(주) Method of resampling high resolution digital multi band imagery from line senser into frame type imagery to construct gis(uis), digital map and 3d spatial information using ground control point and gps/ins data
KR20180070070A (en) * 2016-12-16 2018-06-26 강원대학교산학협력단 System and method for making inundation trace map using unmanned aerial vehicle
KR20190037212A (en) 2019-03-27 2019-04-05 군산대학교산학협력단 System for exploring disaster site usinig drone

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040110440A (en) * 2003-06-19 2004-12-31 주식회사 한국지오매틱스 A manufacturing process yardage book
KR101124438B1 (en) * 2011-12-26 2012-03-21 중앙항업(주) System providing digital map data, ortho image and aerial oblique image of fire area using smart-phone equipped with aerial image and gps-module and communication-module
KR101345554B1 (en) * 2013-10-18 2014-01-02 중앙항업(주) Method of resampling high resolution digital multi band imagery from line senser into frame type imagery to construct gis(uis), digital map and 3d spatial information using ground control point and gps/ins data
KR20180070070A (en) * 2016-12-16 2018-06-26 강원대학교산학협력단 System and method for making inundation trace map using unmanned aerial vehicle
KR20190037212A (en) 2019-03-27 2019-04-05 군산대학교산학협력단 System for exploring disaster site usinig drone

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102203135B1 (en) * 2020-06-24 2021-01-14 대한민국 Method and system for detecting disaster damage information based on artificial intelligence using drone
CN112033378A (en) * 2020-09-04 2020-12-04 中国农业大学 Method for surveying number of zokors in meadow grassland based on unmanned aerial vehicle aerial photography
KR102347330B1 (en) * 2020-10-05 2022-01-07 윤원섭 Safety management monitoring system using thermal imaging camera
KR102322231B1 (en) * 2020-12-10 2021-11-08 대한민국 System and method for providing a disaster information using drone and mobile device
KR20220094242A (en) 2020-12-28 2022-07-06 (주)프로맥스 Disaster monitoring system of steep slope land by using DRON and operating method thereof
KR102303783B1 (en) * 2021-01-26 2021-09-23 대한민국 Disaster accident site information acquisition and analysis method and system including slope collapse using drones
KR102315972B1 (en) * 2021-01-26 2021-10-22 대한민국 Disaster site reconstruction and cause analysis method and system using drones
KR102331410B1 (en) * 2021-03-22 2021-12-03 대한민국 Disaster and accident site response drone standard operating method and system thereof
KR102320264B1 (en) * 2021-05-04 2021-11-02 대한민국 Method and apparatus for identifying disaster affected areas using disaster pront areas features
KR102320262B1 (en) * 2021-05-04 2021-11-02 대한민국 Method and apparatus for estimating size of damage in the disaster affected areas
KR102525519B1 (en) 2021-05-24 2023-04-24 이재영 Drone used 3d mapping method
KR20220158570A (en) * 2021-05-24 2022-12-01 이재영 Drone used 3d mapping method
KR20220166689A (en) * 2021-06-10 2022-12-19 이재영 Drone used 3d mapping method
KR102567800B1 (en) 2021-06-10 2023-08-16 이재영 Drone used 3d mapping method
KR102379303B1 (en) * 2021-09-03 2022-03-30 대한민국 A method and system for on-site investigation of a disaster cause using a special vehicle equipped with an unmanned aerial vehicle
KR102362553B1 (en) * 2021-09-28 2022-02-15 주식회사 파나시아 Image processing system that updates image data in real time
KR102347356B1 (en) * 2021-09-28 2022-01-05 주식회사 파나시아 Image processing system of video image to which reference point data is applied
KR102345880B1 (en) * 2021-09-28 2022-01-03 주식회사 파나시아 Image processing system that processes real-time images taken
CN113932776A (en) * 2021-10-23 2022-01-14 昆山市城乡房产测量有限公司 Real scene modeling unmanned aerial vehicle system
CN113932776B (en) * 2021-10-23 2024-02-13 昆山市城乡房产测量有限公司 Live-action modeling unmanned aerial vehicle system
KR20230079925A (en) 2021-11-29 2023-06-07 (주)에어포인트 The IoT System Used Gateway Having Convenient Mobility
KR102470201B1 (en) * 2021-12-14 2022-11-25 한국건설기술연구원 system and method for providing risk of building wind
CN114500591A (en) * 2021-12-23 2022-05-13 国家石油天然气管网集团有限公司华南分公司 Pipeline disaster identification method based on unmanned aerial vehicle image data
KR102629213B1 (en) 2023-04-18 2024-01-24 국방과학연구소 Method and Apparatus for Detecting Moving Objects in Perspective Motion Imagery

Similar Documents

Publication Publication Date Title
KR102121974B1 (en) Disaster damage investigation·analysis system using drone and disaster damage investigation·analysis method
KR102067136B1 (en) Construction work management system using mapping-drone
US7187401B2 (en) System and a method of three-dimensional modeling and restitution of an object
KR100473331B1 (en) Mobile Mapping System and treating method thereof
KR101346323B1 (en) Method for self-calibration of non-metric digital camera using ground control point and additional parameter
CN105424006A (en) Unmanned aerial vehicle hovering precision measurement method based on binocular vision
KR20090064679A (en) Method and apparatus of digital photogrammetry by integrated modeling for different types of sensors
CN105783875A (en) Aerial photogrammetric system integrated with non-scanning laser radar and aerial photogrammetric method
CN106408601A (en) GPS-based binocular fusion positioning method and device
CN107917699B (en) Method for improving aerial three quality of mountain landform oblique photogrammetry
CN102692213B (en) Traffic accident field surveying instrument based on active omnidirectional visual sensor
JP2009501996A (en) Image geometric correction method and apparatus
JP2013171455A (en) Map information generating device
CN105953777B (en) A kind of large scale based on depth map tilts image plotting method
CN105466400B (en) One kind utilizes RPC detection multi-source satellite image corresponding image points imaging intersection angle methods
KR20170094030A (en) System and Method for providing mapping of indoor navigation and panorama pictures
KR101771492B1 (en) Method and system for mapping using UAV and multi-sensor
CN110986888A (en) Aerial photography integrated method
JP2017201261A (en) Shape information generating system
RU2584368C1 (en) Method of determining control values of parameters of spatial-angular orientation of aircraft on routes and pre-aerodrome zones in flight tests of pilot-navigation equipment and system therefor
JP3808833B2 (en) Aerial photogrammetry
CN115950435A (en) Real-time positioning method for unmanned aerial vehicle inspection image
CN114140397A (en) Method and system for correcting gravity near-zone terrain by full-digital ground imaging method
Lonneville et al. Accurate and cost-efficient 3D modelling using motorized hexacopter, helium balloons and photo modelling: A case study
JP2001133256A (en) Method of calculating position and attitude of aerial photograph

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant