KR20180070070A - System and method for making inundation trace map using unmanned aerial vehicle - Google Patents
System and method for making inundation trace map using unmanned aerial vehicle Download PDFInfo
- Publication number
- KR20180070070A KR20180070070A KR1020160172312A KR20160172312A KR20180070070A KR 20180070070 A KR20180070070 A KR 20180070070A KR 1020160172312 A KR1020160172312 A KR 1020160172312A KR 20160172312 A KR20160172312 A KR 20160172312A KR 20180070070 A KR20180070070 A KR 20180070070A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- flood
- area
- map
- flooded
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 22
- 238000007654 immersion Methods 0.000 claims abstract description 25
- 238000005259 measurement Methods 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 4
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 7
- 238000004519 manufacturing process Methods 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012876 topography Methods 0.000 description 3
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000006424 Flood reaction Methods 0.000 description 1
- 108050005433 Glutaredoxin-2 Proteins 0.000 description 1
- 102100039332 Glutaredoxin-2, mitochondrial Human genes 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013049 sediment Substances 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B29/00—Maps; Plans; Charts; Diagrams, e.g. route diagram
- G09B29/003—Maps
- G09B29/006—Representation of non-cartographic information on maps, e.g. population distribution, wind direction, radiation levels, air and sea routes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/02—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/01—Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B29/00—Maps; Plans; Charts; Diagrams, e.g. route diagram
- G09B29/003—Maps
- G09B29/004—Map manufacture or repair; Tear or ink or water resistant maps; Long-life maps
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B29/00—Maps; Plans; Charts; Diagrams, e.g. route diagram
- G09B29/12—Relief maps
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A10/00—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
- Y02A10/40—Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Educational Administration (AREA)
- Remote Sensing (AREA)
- Mathematical Physics (AREA)
- Educational Technology (AREA)
- Radar, Positioning & Navigation (AREA)
- Tourism & Hospitality (AREA)
- Computer Networks & Wireless Communication (AREA)
- Human Resources & Organizations (AREA)
- Development Economics (AREA)
- Ecology (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Multimedia (AREA)
- Instructional Devices (AREA)
- Navigation (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명은 침수 피해가 발생한 지역에 대한 침수 흔적을 표시한 침수흔적도에 관한 것으로서, 더욱 상세하게는 무인항공기를 이용한 침수흔적도 작성 기술에 관한 것이다. More particularly, the present invention relates to a flood traceability technique using an unmanned aerial vehicle.
최근 이상기후변화에 따른 국지성 집중호우 등 홍수피해로 인한 자연재해 피해가 빈번하게 발생하고 있다. 자연재해 피해로 인한 인명피해나 재산피해가 증가하고 있는 추세이며 도시개발로 인한 불투수율 증가로 침수피해 빈도가 증가하고, 침수지역의 확대로 인한 재산피해가 발생하고 있다. Recently, natural disasters such as flood damage such as localized heavy rain due to unusual climate change are occurring frequently. The damage caused by natural disasters and the property damage are increasing. The increase of impervious rate due to urban development increases frequency of flooding damage, and property damage is caused by expansion of flooded area.
우리나라의 재해지도는 자연재해대책법 제21조, 동법 시행령 제18조 및 제19조와 '재해지도 작성 기준 등에 관한 지침(National Emergency Management Agency(NEMA), 2013)' 등에 규정되어있다. 이 중 침수흔적도는 침수피해 발생시 마다 신속하게 침수흔적을 조사하여 침수흔적이 누적 관리될 수 있도록 개정하여 보완하고 있다. The disaster guidance of Korea is stipulated in Article 21 of the Natural Disaster Countermeasures Act, Article 18 and 19 of the Enforcement Decree of the same Act, and "National Emergency Management Agency (NEMA), 2013". Among these, the immersion trail is revised and revised so that the immersion trail can be accumulated and managed quickly by investigating the immersion trail whenever a flood damage occurs.
침수흔적도는 태풍, 호우, 해일 등 풍수해로 인한 침수피해가 발생한 지역에 대하여 침수흔적 조사 및 측량을 실시하고 침수구역에 대한 침수위, 침수심, 침수시간 등을 조사하여 연속지적도 및 수치지형도 등에 표시한 지도를 말하며, 지방자치단체별로 제작 및 보존하고 있다. Inundation traces were surveyed and surveyed for flood damage in areas affected by flood damage such as typhoons, heavy rain, and tsunami, and floods, sediment depth, It refers to the map displayed, and is produced and preserved by local governments.
현재의 침수흔적도 작성은 침수피해 발생 후 즉시 침수 피해지역을 현지 방문하여 침수내용을 조사하며, 신속한 조사가 어려운 경우에는 침수흔적 조사를 실시하여 작성하고 있다. 그러나 침수흔적도의 작성은 침수피해의 특성상 침수지속시간이 짧아 초동조사에 어려움을 겪고 있으며, 예산 등 행정적인 절차로 인하여 신속히 진행이 어려워 침수흔적도의 침수심과 침수범위에 대한 정확한 정보를 습득하기 어려워 신뢰도 있는 침수흔적도의 작성에 장애요인이 되고 있다.The current flood trail map is visited immediately after the flood damage occurred, and the flooded contents are surveyed. If it is difficult to investigate quickly, the flood trail survey is carried out. However, due to the nature of the flooding damage, it is difficult to conduct the initial survey due to the short duration of immersion, and it is difficult to proceed quickly due to administrative procedures such as budget. It is difficult to construct reliable traces of immersion.
이처럼 침수흔적도는 국가 방재에 대한 기초적인 자료임에도 불구하고, 예산 부족 및 침수흔적 작성 관리가 미흡하여 침수흔적도 제작이 지연되는 문제가 발생하고 있다. 그러므로 침수흔적도 작성시 제작시간의 단축 및 예산 절감을 위한 연구가 필요한 실정이다.Despite the fact that the flood trail is the basic data for national disaster prevention, there is a problem that the production of the flood trail is delayed due to insufficient budget and management of flood trail management. Therefore, it is necessary to study to reduce the production time and the budget when creating flood trace.
한편, 무인항공기(Unmanned Aerial Vehicle, UAV)는 사람이 탑승하지 않는 항공기를 의미하는 것으로서, 우리나라의 항공법 상에서는 “사람이 탑승하지 않는 것으로 무인동력비행장치의 경우 연료의 중량을 제외한 자체중량이 150킬로그램 이하인 무인항공기 또는 무인회전익비행장치, 무인비행선의 경우 연료의 중량을 제외한 자체 중량이 180킬로그램 이하이고, 길이가 20미터 이하인 무인비행선”으로 규정되어 있다. Unmanned Aerial Vehicle (UAV) means an aircraft that does not carry a person on board. In the aviation law of Korea, the term "unmanned aerial vehicle" Of unmanned aerial vehicles or unmanned aerial vehicles, or unmanned aerial crafts of less than 180 kilograms and not exceeding 20 meters in length, excluding the weight of fuel.
무인항공기는 비교적 가격이 저렴하고, 운용이 용이하기 때문에 과거에는 주로 정찰, 표적을 위한 군사용으로 많이 사용되어 왔으나, 최근에는 농업분야, 어업분야, 기상관측분야, 통신분야, 엔터테인먼트 분야 등에서 광범위하게 사용되고 있다. 이러한 광범위한 활용에도 불구하고 측량분야에서는 지형의 변화를 탐지하거나 현황파악용 등 그 활용이 비교적 제한적이었다. 그러나, 최근에는 디지털 카메라의 성능 향상과 GPS(Global Positioning System)/IMU(Inertial Measurement Unit) 등의 항법장치의 경량화 및 정밀도 향상 등으로 인해 무인항공기를 이용한 지도 제작 및 국토모니터링 등에 활용하고자 하는 시도가 증가하고 있다. 이러한 무인항공기를 이용한 지형 모니터링은 비교적 운용 비용이 저렴하고, 데이터를 신속하고 정확하게 얻을 수 있다는 장점이 있다.Unmanned aerial vehicles are relatively inexpensive and easy to operate, so they have been widely used for military purposes mainly for reconnaissance and targeting in the past. Recently, they have been used extensively in fields of agriculture, fishery, meteorological observation, have. In spite of this widespread use, in the field of surveying, it was relatively limited to detect change of the topography or to grasp the status. In recent years, however, attempts have been made to improve the performance of digital cameras and utilize navigation devices such as GPS (Global Positioning System) / IMU (Inertial Measurement Unit) . Terrain monitoring using such unmanned aerial vehicles is relatively inexpensive to operate and has the advantage that data can be obtained quickly and accurately.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 보다 신속하고 정확하게 침수흔적도를 작성할 수 있도록, 무인항공기를 이용한 침수흔적도 작성 방법 및 시스템을 제공하는데 그 목적이 있다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a method and system for generating a flood trace using an unmanned airplane in order to more quickly and accurately create a flood trace.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned can be clearly understood by those skilled in the art from the following description.
이와 같은 목적을 달성하기 위한 본 발명의 무인항공기(Unmanned Aerial Vehicle, UAV)를 이용한 침수흔적도 작성 시스템에서의 침수흔적도 작성 방법에서, 태풍, 호우, 해일을 포함하는 자연 재해로 인한 침수피해가 발생한 지역 중에서, 선정된 지역을 대상으로 상기 무인항공기에서 촬영된 영상을 취득하는 단계, 취득된 영상을 접합하는 단계, 접합된 영상으로부터 정사영상 및 DSM(Digital Surface Model)을 생성하는 단계, 상기 정사영상과 상기 DSM을 결합하여 3D 지형도를 생성하는 단계 및 상기 3D 지형도에서 해당 지역의 침수 피해 범위를 산정하여 표시하는 단계를 포함한다.In order to achieve the above object, in the method of creating a flood trace in the flood trace system using the unmanned aerial vehicle (UAV) of the present invention, the flood damage caused by a natural disaster including typhoon, heavy rain, Acquiring images photographed on the unmanned airplane from among the generated regions, joining the acquired images, generating ortho images and DSM (Digital Surface Model) from the joined images, Generating a 3D topographic map by combining the image and the DSM, and calculating and displaying the flood damage range of the area in the 3D topographic map.
상기 영상을 접합하는 단계에서, 영상 접합에 따른 영상 왜곡 오차를 줄이기 위하여, GPS(Global Positioning System)를 이용하여 측량한 지상 기준점(Ground Control Point, GCP)을 삽입하는 과정을 포함할 수 있다. And inserting a ground control point (GCP) measured using a GPS (Global Positioning System) in order to reduce an image distortion error due to the image joining in the step of joining the images.
상기 지상 기준점에서의 측량값과 상기 정사영상을 이용하여 지도의 정확도를 평가하는 단계를 더 포함할 수 있다. And a step of evaluating the accuracy of the map using the orthometric image and the measurement value at the ground reference point.
상기 침수 피해 범위를 산정하여 표시하는 단계에서, 해당 지역의 침수위, 침수심, 침수 시간을 포함하는 침수 피해 범위를 산정하여 표시할 수 있다. In the step of estimating and displaying the flood damage extent, the flood damage range including the flooded area, the flooded depth, and the flooded time of the area can be calculated and displayed.
본 발명의 태풍, 호우, 해일을 포함하는 자연 재해로 인한 침수피해가 발생한 지역에 대한 침수 피해를 표시한 지도인 침수흔적도를 작성하기 위한 침수흔적도 작성 시스템에서, 선정된 지역의 상공을 비행하며 해당 지역을 촬영하기 위한 무인항공기(Unmanned Aerial Vehicle, UAV) 및 상기 무인항공기와 통신하며, 상기 무인항공기에서 촬영된 영상을 취득하고, 취득된 영상을 접합하고, 접합된 영상으로부터 정사영상 및 DSM(Digital Surface Model)을 생성하고, 상기 정사영상과 상기 DSM을 결합하여 3D 지형도를 생성하고, 상기 3D 지형도에서 해당 지역의 침수 피해 범위를 산정하여 표시하는 컴퓨터를 포함한다. In the immersion trail mapping system for creating the flooding trace map indicating the flooding damage caused by the natural disaster including the typhoon, heavy rain, and tsunami of the present invention, (UAV) for photographing the area, and the unmanned airplane, acquiring an image taken by the unmanned airplane, joining the acquired images, and extracting ortho-image and DSM (Digital Surface Model), combining the orthoimage and the DSM to generate a 3D topographic map, and calculating and displaying the flood damage range of the corresponding area in the 3D topographical map.
상기 컴퓨터는 상기 영상 접합 시에, 영상 접합에 따른 영상 왜곡 오차를 줄이기 위하여, GPS(Global Positioning System)를 이용하여 측량한 지상 기준점(Ground Control Point, GCP)을 삽입하는 과정을 포함할 수 있다. The computer may include a step of inserting a ground control point (GCP), which is measured using a GPS (Global Positioning System), in order to reduce an image distortion error due to image fusion at the time of the image joining.
상기 컴퓨터는 상기 지상 기준점에서의 측량값과 상기 정사영상을 이용하여 지도의 정확도를 평가할 수 있다. The computer can evaluate the accuracy of the map by using the orthometric image and the measurement value at the ground reference point.
상기 컴퓨터는 해당 지역의 침수위, 침수심, 침수 시간을 포함하는 침수 피해 범위를 산정하여 표시할 수 있다. The computer can calculate the flood damage range including the flooded area, the flooded water depth, and the flooded time in the area.
본 발명에 의하면, 무인항공기를 이용하여 침수흔적도를 작성함으로써, 보다 빠르고 정확하게 침수 피해 지역에 대한 침수흔적도를 작성할 수 있는 효과가 있다. According to the present invention, by creating a flood trace using an unmanned airplane, it is possible to quickly and accurately create a flood trace for the flooded area.
도 1은 본 발명의 일 실시예에 따른 무인항공기를 이용한 침수흔적도 작성 시스템의 구성을 보여주는 블록도이다.
도 2는 본 발명의 일 실시예에 따른 무인항공기를 이용한 침수흔적도 작성 방법을 보여주는 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 실제 무인항공기를 보여주는 도면이다.
도 4는 침수심의 범위에 따른 색상을 나타낸 도표이다.
도 5는 본 발명의 일 실시예에 다른 침수흔적도를 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 무인항공기의 비행 제어 화면예이다.
도 7은 본 발명의 일 실시예에 따른 지상 기준점 현황을 예시한 화면예이다.
도 8은 본 발명의 일 실시예에 따른 지상 기준점 측량 결과를 예시한 도표이다.
도 9는 본 발명의 일 실시예에 따른 무인항공기의 이륙 시를 보여주는 도면이다.
도 10은 본 발명의 일 실시예에 따른 정사영상을 도시한 도면이다.
도 11은 본 발명의 일 실시예에 따른 검사점 좌표 취득을 나타낸 도면이다.
도 12는 본 발명의 일 실시예에 따른 지상 기준점을 측량하는 모습을 보여주는 도면이다.
도 13은 본 발명의 일 실시예에 따른 정확도 평가 결과를 나타낸 도표이다.
도 14는 기 작성된 침수흔적도와 본 발명의 무인항공기를 이용한 침수흔적도를 비교한 도면이다. FIG. 1 is a block diagram illustrating a configuration of a flood trace information generating system using an unmanned aerial vehicle according to an embodiment of the present invention. Referring to FIG.
FIG. 2 is a flowchart illustrating a method of generating a flood trace using an unmanned aerial vehicle according to an embodiment of the present invention.
3 is a view showing an actual unmanned aerial vehicle according to an embodiment of the present invention.
Fig. 4 is a diagram showing the color according to the range of immersion seam. Fig.
FIG. 5 is a view showing flooding traces according to an embodiment of the present invention.
6 is an example of a flight control screen of an unmanned aerial vehicle according to an embodiment of the present invention.
7 is a view illustrating an example of a ground reference point according to an exemplary embodiment of the present invention.
8 is a chart illustrating a ground reference point survey result according to an embodiment of the present invention.
FIG. 9 is a view showing take-off time of an unmanned aerial vehicle according to an embodiment of the present invention.
10 is a diagram illustrating an orthoimage image according to an embodiment of the present invention.
11 is a diagram showing checkpoint coordinate acquisition according to an embodiment of the present invention.
12 is a view showing a state in which a ground reference point is measured according to an embodiment of the present invention.
13 is a chart showing the accuracy evaluation result according to an embodiment of the present invention.
FIG. 14 is a view comparing immersion traces prepared in the past with immersion traces obtained using the unmanned airplane of the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 갖는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted in an ideal or overly formal sense unless expressly defined in the present application Do not.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In the following description of the present invention with reference to the accompanying drawings, the same components are denoted by the same reference numerals regardless of the reference numerals, and redundant explanations thereof will be omitted. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.
본 발명은 태풍, 호우, 해일을 포함하는 자연 재해로 인한 침수피해가 발생한 지역에 대한 침수 피해를 표시한 지도인 침수흔적도를 작성하기 위한 침수흔적도 작성 시스템 및 방법에 대한 것이다. The present invention relates to a system and a method for generating a flood trace, which is a map showing a flood damage to a flood damage area caused by a natural disaster including a typhoon, a heavy rain, and a tsunami.
도 1은 본 발명의 일 실시예에 따른 무인항공기를 이용한 침수흔적도 작성 시스템의 구성을 보여주는 블록도이다. FIG. 1 is a block diagram illustrating a configuration of a flood trace information generating system using an unmanned aerial vehicle according to an embodiment of the present invention. Referring to FIG.
도 1을 참조하면, 본 발명의 일 실시예에 따른 무인항공기를 이용한 침수흔적도 작성 시스템은 무인항공기(Unmanned Aerial Vehicle, UAV)(10) 및 컴퓨터(100)를 포함한다. Referring to FIG. 1, an immersion trail mapping system using an unmanned aerial vehicle according to an embodiment of the present invention includes an unmanned aerial vehicle (UAV) 10 and a
무인항공기(10)는 선정된 지역의 상공을 비행하며 해당 지역을 촬영하는 역할을 한다. 무인항공기(10)의 종류로는 고정익 무인항공기와, 회전익 무인항공기가 있으며, 본 발명에서는 실시예에 따라 고정익 무인항공기 또는 회전익 무인항공기를 이용하여 선정된 지역을 촬영할 수 있다. The unmanned airplane (10) is flying over the selected area and photographing the area. The types of the
컴퓨터(100)는 무인항공기(10)와 통신하며, 무인항공기(10)에서 촬영된 영상을 취득하고, 취득된 영상을 접합하고, 접합된 영상으로부터 정사영상 및 DSM(Digital Surface Model)을 생성하고, 정사영상과 DSM을 결합하여 3D 지형도를 생성하고, 3D 지형도에서 해당 지역의 침수 피해 범위를 산정하여 표시하는 방식으로 침수흔적도를 작성한다. 본 발명에서 컴퓨터(100)는 데스크탑 컴퓨터, 랩탑 컴퓨터, 태블릿 PC 등을 포함할 수 있다. The
본 발명의 일 실시예에서 컴퓨터(100)는 영상 접합 시에, 영상 접합에 따른 영상 왜곡 오차를 줄이기 위하여, GPS(Global Positioning System)를 이용하여 측량한 지상 기준점(Ground Control Point, GCP)을 삽입하는 과정을 포함할 수 있다. In an embodiment of the present invention, the
그리고, 컴퓨터(100)는 지상 기준점에서의 측량값과 정사영상을 이용하여 침수흔적도의 정확도를 평가할 수 있다. Then, the
또한, 컴퓨터(100)는 해당 지역의 침수위, 침수심, 침수 시간을 포함하는 침수 피해 범위를 산정하여 표시할 수 있다. In addition, the
도 2는 본 발명의 일 실시예에 따른 무인항공기를 이용한 침수흔적도 작성 방법을 보여주는 흐름도이다. FIG. 2 is a flowchart illustrating a method of generating a flood trace using an unmanned aerial vehicle according to an embodiment of the present invention.
도 6을 참조하면, 선정된 지역에 대한 지상 기준점(GCP) 측량을 실시한다(S201). 본 발명에서 지역 선정 시에, 침수흔적도 비교를 위한 기 작성된 침수흔적도를 보유하면, 무인항공기 촬영이 용이한 지역을 선정하는 것이 바람직하다. Referring to FIG. 6, a ground reference point (GCP) survey is performed for the selected area (S201). In the present invention, it is desirable to select an area where the unmanned aerial photographing is easy if the flood trace is prepared for comparing the immersion traces.
그리고, 선정된 지역을 대상으로 무인항공기(10)에서 촬영된 영상을 취득한다(S203). Then, an image photographed by the
그리고, 취득된 영상을 접합한다(S205). Then, the acquired images are jointed (S205).
그리고, 영상 접합에 따른 영상 왜곡 오차를 줄이기 위하여, GPS(Global Positioning System)를 이용하여 측량한 지상 기준점(GCP)을 삽입한다(S207). In order to reduce the image distortion due to the image joining, a ground reference point (GCP) measured using a GPS (Global Positioning System) is inserted (S207).
그리고, 접합된 영상으로부터 정사영상 및 DSM(Digital Surface Model)을 생성한다(S209). Then, a regular image and a DSM (Digital Surface Model) are generated from the combined image (S209).
그리고, 지상 기준점에서의 측량값과 정사영상을 이용하여 지도의 정확도를 평가한다(S211). Then, the accuracy of the map is evaluated using the measurement value at the ground reference point and the orthoimage (S211).
그리고, 정사영상과 DSM을 결합하여 3D 지형도를 생성한다(S213). Then, the 3D topographic map is generated by combining the orthoimage and the DSM (S213).
그리고, 3D 지형도에서 해당 지역의 침수 피해 범위를 산정하여 표시하는 방식으로 침수흔적도를 작성한다(S215). Then, in the 3D topographical map, flood traceability is created by calculating and displaying flood damage range of the area (S215).
본 발명에서 침수 피해 범위를 산정하여 표시하는 단계(S215)에서, 해당 지역의 침수위, 침수심, 침수 시간을 포함하는 침수 피해 범위를 산정하여 표시할 수 있다. In the present invention, the flood damage range including the flooded area, the flooded water depth, and the flooded time in the area can be calculated and displayed in the step S215 of estimating and displaying flood damage range.
이제 본 발명의 일 실시예에 따른 무인항공기를 이용한 침수흔적도 작성 과정에 대하여, 실제 침수 피해 지역에서 침수흔적도를 작성한 실행 과정에 대해 설명하기로 한다. Hereinafter, an execution process of creating a flood trace in an actual flood damage area will be described with respect to a flood trace using the unmanned aerial vehicle according to an embodiment of the present invention.
본 발명의 일 실시예에서는 무인항공기를 이용하여 3차원 고해상도 정사영상의 활용방안으로 가상측량 프로그램(VST)를 활용하여 2006년 7월 25일 집중호우 및 제3호 태풍 '에위니아'의 영향으로 경기도 안성시 가현동 일원에 대한 침수범위를 분석하고, 2008년 7월 23일~26일까지의 집중호우에 따른 경기도 안성시 공도읍 용두리 일원에 대한 침수범위를 분석하여, 기 작성된 침수흔적도와 비교, 분석한 예시이다. In an embodiment of the present invention, a virtual survey program (VST) was utilized as a utilization method of three-dimensional high-resolution orthoimage using an unmanned airplane, and on July 25, 2006, An analysis of the flooding range for members of Gyeonghyeon-dong, Anseong-si and an analysis of the flooding range for the Yongduri members of Gongdue-ri, Anseong-si, Gyeonggi-do with the heavy rain from July 23 to 26, 2008, .
도 3은 본 발명의 일 실시예에 따른 실제 무인항공기를 보여주는 도면이다. 3 is a view showing an actual unmanned aerial vehicle according to an embodiment of the present invention.
도 3에서 보는 바와 같이, 본 실시예에서는 고정익 무인항공기가 사용되었으며, 무인항공기에 부착된 촬영 광학 센서는 1200만 화소이고, 좌표 취득을 위한 GPS 측량기기는 Sokkia사의 GRX2를 사용하였고, 기상기준점의 현장측량을 실시하였다.As shown in FIG. 3, a fixed-wing unmanned airplane was used in this embodiment. The photographing optical sensor attached to the unmanned airplane was 12 million pixels. The GPS measurement device for obtaining coordinates was GRX2 of Sokkia Co., Field survey.
무인항공기는 자동 항로 설정 소프트웨어인 eMotion2를 이용하여 촬영경로를 설정하게 되며, 설정된 비행경로를 따라 대상지역의 촬영을 하게 된다. 촬영 진행시 무인항공기와 작업자는 USB 지상 모뎀을 통해 노트북 화면으로 실시간 비행 현황을 파악하며, 현장 기상상태에 따라 촬영 중첩도를 설정하게 된다. 이때, 촬영 중첩도는 기상상태에 따라 60~75%로 설정을 권장하고 있다. 취득영상의 왜곡 방지는 지상기준점 조사를 실시하여 기준점의 좌표를 GPS 측량을 통하여 획득하고, 취득한 각점의 좌표를 기준으로 촬영 사진 접합시 임의의 점들의 좌표를 생성하게 되어 3D모델의 좌표를 보정하게 된다. GPS측량성과는 후처리방법을 통하여 3D모델의 오차범위를 줄이는 데에 사용된다. 영상해석을 위하여 Postflight Terra 3D와 Virtual Surveyor을 통해 2D 평면도 및 3D 지형도를 작성하였다.The unmanned airplane uses eMotion2, an automatic route setting software, to set the shooting route and shoot the target area along the set flight path. During the shooting, the unmanned aircraft and the operator will be able to recognize the real-time flight status on the notebook screen through the USB ground modem and set the shooting overlap according to the weather conditions. At this time, it is recommended to set the shooting overlap to 60 ~ 75% depending on the weather conditions. In order to prevent distortion of the acquired image, the ground reference point survey is performed to acquire the coordinates of the reference point through the GPS measurement, and coordinates of arbitrary points are generated based on the coordinates of the acquired points, thereby correcting the coordinates of the 3D model do. GPS measurement results are used to reduce the error range of 3D models through post-processing methods. For the image analysis, 2D and 3D topographies were created through
Postflight Terra 3D는 사진측량 소프트웨어로서 간단한 설정을 통해 LOG 데이터(비행모션데이터)를 입힌 사진들을 접합하여 cm급의 정사영상과 DSM(Digital Surface Model) 제작이 가능하며, 이후 Virtual Surveyor를 통해서 정사영상과 DSM을 결합하여 3D 지형도를 생성한다. GEOID사의 Virtual Surveyor는 가상측량 프로그램으로 여러 레이어들을 겹쳐서 볼 수 있으며, 정사영상의 TIF 이미지와 DEM 수치표고데이터를 결합한 상태에서 3차원적 모델링 작업이 가능하다.
도 4는 침수심의 범위에 따른 색상을 나타낸 도표이고, 도 5는 본 발명의 일 실시예에 다른 침수흔적도를 도시한 도면이다. 도 5에서 (a)는 가현동 지역의 침수흔적도고, (b)는 용두리 지역의 침수흔적도다. FIG. 4 is a chart showing hues according to the range of the immersion seam, and FIG. 5 is a diagram showing immersion traces according to an embodiment of the present invention. In Fig. 5 (a), the flooded traces of the Gyeongdong area and (b) the flooded traces of the Yongduri area.
도 6은 본 발명의 일 실시예에 따른 무인항공기의 비행 제어 화면예이다. 6 is an example of a flight control screen of an unmanned aerial vehicle according to an embodiment of the present invention.
도 6에서 (a)는 가현동 지역이고, (b)는 용두리 지역이다. In FIG. 6, (a) is the Hyun-dong area and (b) is the Ping-dong area.
도 6에서 무인항공기의 촬영시간은 기상현황, 중첩도 비율 및 배터리 상태에 따라 최대 45분 이내로 설정이 필요하기 때문에, 가현동의 경우 중첩도 설정에 따라 총 3회로 나누어 촬영을 하였다. 그리고, 무인항공기의 영상 촬영면적은 가현동 일원이 약 3.25㎢, 용두리 일원이 약 2.17㎢이며, 공간해상도는 4cm/pixel로 초고해상도 영상이다.In FIG. 6, the shooting time of the UAV is required to be set within 45 minutes maximum depending on the weather condition, the overlap ratio and the battery condition. Thus, in the case of Hyun-Dong, The aerial photographing area of the unmanned aerial vehicle is 3.25km2 in Gahyeon-dong, 2.17km2 in Yongduri, and the spatial resolution is 4cm / pixel.
도 7은 본 발명의 일 실시예에 따른 지상 기준점 현황을 예시한 화면예이고, 도 8은 본 발명의 일 실시예에 따른 지상 기준점 측량 결과를 예시한 도표이다. FIG. 7 is a view illustrating an example of a ground reference point according to an exemplary embodiment of the present invention, and FIG. 8 is a diagram illustrating a ground reference point survey result according to an exemplary embodiment of the present invention.
도 7 및 도 8에서 보는 바와 같이, 무인항공기를 이용한 침수흔적도 시스템의 정확도 분석을 위하여, 대상지역 내에 수직 및 수평방향으로 약 400m 간격으로 설정하여 가현동 일원은 26개, 용두리 일원은 11개의 지상 기준점을 선정하고, GPS측량을 실시하여 영상접합(모자이크)에 따른 영상왜곡 오차를 최소화한다. As shown in FIGS. 7 and 8, in order to analyze the accuracy of the immersion trail system using an unmanned airplane, the distance was set at about 400 m in the vertical and horizontal directions within the target area, We select the reference points and perform GPS surveying to minimize the image distortion error due to the video mosaic.
도 9는 본 발명의 일 실시예에 따른 무인항공기의 이륙 시를 보여주는 도면이고, 도 10은 본 발명의 일 실시예에 따른 정사영상을 도시한 도면이고, 도 11은 본 발명의 일 실시예에 따른 검사점 좌표 취득을 나타낸 도면이다. FIG. 9 is a view showing take-off of an unmanned aerial vehicle according to an embodiment of the present invention, FIG. 10 is a view showing an orthoimage image according to an embodiment of the present invention, FIG. Fig.
도 12는 본 발명의 일 실시예에 따른 지상 기준점을 측량하는 모습을 보여주는 도면이다. 도 12에서 (a)는 가현동 지역이고, (b)는 용두리 지역이다. 12 is a view showing a state in which a ground reference point is measured according to an embodiment of the present invention. 12, (a) is the Hyun-dong area, and (b) is the Ping-dong area.
본 발명에서 사용한 무인항공기는 사진촬영 후 지상기준점을 사용하지 않고 3D 모델의 생성이 가능하다. 하지만 이런 경우 각 점의 좌표오차가 수십cm 혹은 수m의 오차를 보이게 되어, 가상측량 프로그램을 이용하여 현황측량이나 침수범위를 나타내는데 신뢰성이 떨어지게 된다. 따라서 본 발명에서는 정사영상 생성을 위해 각각 26점(가현동 일원), 11점(용두리 일원)의 지상기준점 측량을 실시하였고, 도 12에서 보는 바와 같이, 항공촬영 사진에서 육안으로 식별 가능한 1.5m×1.5m 크기의 대공표지판과 도로표식을 사용하여 좌표점을 획득하였다. 이후 일련의 과정을 거쳐 최종적으로 획득된 3D 모델과 지상기준점 측량으로 얻은 각 점의 좌표를 도 13과 같이 비교하여 획득한 자료의 신뢰성을 확보하였다. The 3D model can be generated without using the ground reference point after photographing the unmanned aerial vehicle used in the present invention. However, in this case, the coordinate error of each point shows error of several tens cm or several meters, and it becomes unreliable to use the virtual surveying program to show the current survey or immersion range. Therefore, in the present invention, ground reference point measurement was performed for each of 26 points (Kwon Hyun-dong) and 11 points (Yong-ri Lee) in order to generate an orthophoto image. As shown in Fig. 12, m-sized airplane signs and road markings were used to obtain coordinate points. The reliability of the data obtained by comparing the coordinates of each point obtained from the 3D model obtained through the series of processes and the ground reference point survey as shown in FIG. 13 is secured.
도 13은 본 발명의 일 실시예에 따른 정확도 평가 결과를 나타낸 도표이다. 13 is a chart showing the accuracy evaluation result according to an embodiment of the present invention.
도 13에서 보는 바와 같이, 가현동 일대의 촬영영상 정확도 평가 결과 X, Y, Z 각 성분별 편차는 평균 0.08m, 0.07m, 0.04m로 나타났다. 수평 방향 오차는 평균 7.5cm이내의 값을 나타내었으며, 수직방향의 경우 평균 4cm 정도의 편차를 보였다. 용두리 일원의 경우 X, Y, Z 각 성분별 편차는 0.07m, 0.02m, 0.02m로 나타났다. 수평방향 오차는 평균 4.5cm이하의 값을 나타내었으며, 수직방향의 경우 2cm정도의 편차를 나타내었다. 생성된 두 정사영상 모두 약 4.0cm급 영상으로 도로 및 시설물의 판독이 가능하기 때문에 정사영상을 활용한 현황측량 도면 제작에 활용할 수 있다. 이와 같은 결과는 무인항공기를 이용한 현황측량이 가능한 것으로 판단된다.As shown in FIG. 13, the deviations of X, Y, and Z components were 0.08 m, 0.07 m, and 0.04 m on the average of the images obtained at Gyeonghyeon-dong. Horizontal errors showed an average value of less than 7.5cm, and vertical direction showed an average deviation of about 4cm. In case of Yongduri, the deviations of X, Y and Z components were 0.07m, 0.02m and 0.02m, respectively. Horizontal errors showed a mean value of less than 4.5cm, and vertical direction showed a deviation of about 2cm. Since both of the generated ortho images can be read on roads and facilities with an image of about 4.0cm class, it can be used for the production of current survey drawings using ortho images. These results suggest that it is possible to conduct survey using UAV.
도 14는 기 작성된 침수흔적도와 본 발명의 무인항공기를 이용한 침수흔적도를 비교한 도면이다. FIG. 14 is a view comparing immersion traces prepared in the past with immersion traces obtained using the unmanned airplane of the present invention.
도 14를 참조하면, 2006년 가현동 일원에 대한 침수피해 면적은 617,294㎡, 2008년 용두리 일원은 약 80,433㎡이다. 그리고, 본 발명에서 무인항공기를 활용한 침수피해 면적은 각각 590,982㎡, 88,409㎡로 약 4.27%, 9.91% 차이가 나는 것으로 나타났다. 이는 침수피해 당시의 지형과 침수피해 이후 건설공사로 인한 현재의 지형 차이로 인한 것으로 판단된다.Referring to FIG. 14, the flooded damage area for Gyeonghyun member in 2006 was 617,294 ㎡, and in 2008, about 80,433 ㎡ for Yonghui member. In the present invention, the flooded damage areas using the UAV are 590,982㎡ and 88,409㎡, respectively, which is about 4.27% and 9.91%, respectively. This is probably due to the terrain at the time of the flood damage and the current terrain difference due to the construction after the flooding damage.
이상에서 살펴본 바와 같이, 본 발명은 최근 활용도가 높은 무인항공기의 항공 촬영 기술을 이용하여 국내의 침수흔적도에 대한 효율적인 제작에 대한 것이며, 신속한 데이터 취득 및 운용비용 저렴 등 장점이 있는 무인 비행 시스템을 이용한 3차원 고해상도 정사영상을 취득하고, 가상측량 프로그램(VST)을 이용하여 2006년과 2008년에 발생한 경기도 안성시의 침수흔적도와 비교하였고, 다음과 같은 결과를 얻었다.As described above, the present invention relates to an efficient production of immersion traces in Korea using an aviation technique of a recently-used unmanned aerial vehicle, and an unmanned aerial vehicle system having advantages such as quick data acquisition and low operation cost (VST) were compared with the flooding traces of Anseong city in Gyeonggi province in 2006 and 2008, and the following results were obtained.
첫째, 무인항공기를 통해 생성된 성과의 정확도 평가 결과, 수평 방향 오차는 가현동 및 용두리 일원 각각 평균 7.5㎝, 4.5㎝이고, 수직방향의 경우 각각 4㎝, 2㎝ 정도의 편차를 나타냄으로써, 생성된 두 정사영상 모두 약 4.0cm급 영상으로 도로 및 시설물의 판독이 가능하기 때문에, 정사영상을 활용한 현황측량 도면 제작에 활용할 수 있으며, 기존의 침수흔적도 작성에 필요한 축척에 상관없이 사용자가 자유롭게 확대, 축소가 가능하다. 이러한 결과는 무인항공기를 이용한 현황측량의 가능성을 제시할 수 있다.First, as a result of evaluation of the accuracy of the results produced by the unmanned aerial vehicle, the horizontal directional errors showed an average deviation of 7.5 ㎝ and 4.5 ㎝ for each of Gyehyeon-dong and Yongduri, and 4 ㎝ and 2 ㎝ for vertical direction, Since both orthoimages can read the roads and facilities with about 4.0cm class image, it can be used for the production of the current survey drawings using the orthoimage, and the user can freely zoom in , Can be reduced. These results suggest the possibility of surveying using UAV.
둘째, 2006년 경기도 안성시 가현동 일원에 대한 제방붕괴에 따른 침수범위는 약 4.27%, 2008년 경기도 안성시 공도읍 용두리 일원의 내수침수에 대한 침수범위는 약 9.91%의 오차로 상당히 정확한 침수범위를 도출한다. 그러므로 무인항공기를 이용하면, 기초조사, 현장조사, 현장촬영 및 후처리 결과까지 걸리는 시간을 획기적으로 단축할 수 있다. 따라서 재난, 재해에 대한 신속한 자료의 획득 및 피해상황을 파악하는 용도로 활용이 가능할 것으로 판단된다.Second, the flooding range due to the collapse of the embankment in Gyeonggi - do, Gyeonggi - do, Gyeonggi - do, Anhyeon - dong, Gyeonggi - do, is about 4.27%. Therefore, when using an unmanned aerial vehicle, it is possible to drastically shorten the time required for the basic investigation, the field survey, the field shooting and the post-processing result. Therefore, it can be used for the purpose of acquiring rapid data on disasters and disasters, and to grasp the damage situation.
셋째, 본 발명의 무인항공기 활용은 기존 조사방식에 비해 정밀하고 신속 정확하다는 우수성을 가지고 있어, 수리수문학적 위험지역에 대한 비구조적 대책 수립에 기여할 수 있을 것으로 판단되며, 기존의 건물이나 지형지물을 포함한 침수흔적을 사용자가 알기 쉽게 시각적으로 표현할 수 있다. 이는 침수피해 당시의 지형과 현재의 지형 차이로 인한 것으로, 향후 침수가 예상되는 지역에 대한 3차원 고해상도 정사영상을 취득하여, 자연재난 발생 시 침수범위에 대한 예측을 할 수 있을 것으로 판단된다. Third, the utilization of the UAV of the present invention is superior to that of the conventional surveying method in that it is precise and accurate, and thus it can contribute to the establishment of unstructured measures against hydrological hazardous areas. The flood trace can be visually expressed by the user. This is due to the difference between the topography and the current terrain at the time of flood damage, and it is considered that the flood range can be predicted in case of natural disaster by acquiring 3 - D high resolution orthoimage in the area where flooding is expected in the future.
넷째, 본 발명의 무인항공기를 활용하여 3D 침수흔적도를 생성한다면 웹에서의 통합관리가 가능하며, 이와 함께 사용자가 원하는 내용을 보다 쉽고 빠르게 수집 가능하여, 다양한 방재사업에 기초자료로 활용 가능할 것으로 기대된다.Fourth, if the 3D inundation trace is generated by utilizing the unmanned airplane of the present invention, integrated management on the web can be performed. In addition, the user can collect desired contents more easily and quickly and can be utilized as basic data for various disaster prevention projects It is expected.
이상 본 발명을 몇 가지 바람직한 실시예를 사용하여 설명하였으나, 이들 실시예는 예시적인 것이며 한정적인 것이 아니다. 본 발명이 속하는 기술분야에서 통상의 지식을 지닌 자라면 본 발명의 사상과 첨부된 특허청구범위에 제시된 권리범위에서 벗어나지 않으면서 다양한 변화와 수정을 가할 수 있음을 이해할 것이다.While the present invention has been described with reference to several preferred embodiments, these embodiments are illustrative and not restrictive. It will be understood by those skilled in the art that various changes and modifications may be made therein without departing from the spirit of the invention and the scope of the appended claims.
10 무인항공기
100 컴퓨터10
Claims (8)
태풍, 호우, 해일을 포함하는 자연 재해로 인한 침수피해가 발생한 지역 중에서, 선정된 지역을 대상으로 상기 무인항공기에서 촬영된 영상을 취득하는 단계;
취득된 영상을 접합하는 단계;
접합된 영상으로부터 정사영상 및 DSM(Digital Surface Model)을 생성하는 단계;
상기 정사영상과 상기 DSM을 결합하여 3D 지형도를 생성하는 단계; 및
상기 3D 지형도에서 해당 지역의 침수 피해 범위를 산정하여 표시하는 단계를 포함하는 침수흔적도 작성 방법.
In the submerged trail mapping method in an immersion trail mapping system using an unmanned aerial vehicle (UAV)
Acquiring an image photographed by the unmanned airplane in a selected area among flood damage caused by a natural disaster including typhoon, heavy rain, and tsunami;
Joining the acquired images;
Generating a regular image and a digital surface model (DSM) from the combined image;
Combining the orthoimage and the DSM to generate a 3D topographic map; And
And calculating and displaying the flood damage range of the area in the 3D topographic map.
상기 영상을 접합하는 단계에서,
영상 접합에 따른 영상 왜곡 오차를 줄이기 위하여, GPS(Global Positioning System)를 이용하여 측량한 지상 기준점(Ground Control Point, GCP)을 삽입하는 과정을 포함하는 것을 특징으로 하는 침수흔적도 작성 방법.
The method according to claim 1,
In the step of joining the images,
And inserting a ground control point (GCP), which is measured using a GPS (Global Positioning System), in order to reduce an image distortion error caused by the image joining.
상기 지상 기준점에서의 측량값과 상기 정사영상을 이용하여 지도의 정확도를 평가하는 단계를 더 포함하는 것을 특징으로 하는 침수흔적도 작성 방법.
The method of claim 2,
Further comprising the step of evaluating the accuracy of the map using a measurement value at the ground reference point and the orthoimage.
상기 침수 피해 범위를 산정하여 표시하는 단계에서,
해당 지역의 침수위, 침수심, 침수 시간을 포함하는 침수 피해 범위를 산정하여 표시하는 것을 특징으로 하는 침수흔적도 작성 방법.
The method according to claim 1,
In the step of estimating and displaying the flood damage range,
Wherein the flood damage range including the flooded ground, the flooded water depth, and the flooded time is calculated and displayed.
선정된 지역의 상공을 비행하며 해당 지역을 촬영하기 위한 무인항공기(Unmanned Aerial Vehicle, UAV); 및
상기 무인항공기와 통신하며, 상기 무인항공기에서 촬영된 영상을 취득하고, 취득된 영상을 접합하고, 접합된 영상으로부터 정사영상 및 DSM(Digital Surface Model)을 생성하고, 상기 정사영상과 상기 DSM을 결합하여 3D 지형도를 생성하고, 상기 3D 지형도에서 해당 지역의 침수 피해 범위를 산정하여 표시하는 컴퓨터를 포함하는 침수흔적도 작성 시스템.
In a flood traceability system for creating a flood trace, which is a map showing the flooding damage for flood damage caused by natural disasters including typhoon, heavy rain, and tsunami,
Unmanned Aerial Vehicle (UAV) to shoot the area over the selected area; And
Acquiring an image taken by the unmanned airplane, joining the acquired images, generating an orthoimage image and a DSM (Digital Surface Model) from the jointed image, combining the orthoimage and the DSM To generate a 3D topographic map, and calculating and displaying the flood damage range of the area in the 3D topographic map.
상기 컴퓨터는 상기 영상 접합 시에, 영상 접합에 따른 영상 왜곡 오차를 줄이기 위하여, GPS(Global Positioning System)를 이용하여 측량한 지상 기준점(Ground Control Point, GCP)을 삽입하는 과정을 포함하는 것을 특징으로 하는 침수흔적도 작성 시스템.
The method of claim 5,
The computer may further include a step of inserting a ground control point (GCP), which is measured using a GPS (Global Positioning System), in order to reduce an image distortion error caused by the image joining at the time of the image joining A flood traceability system.
상기 컴퓨터는 상기 지상 기준점에서의 측량값과 상기 정사영상을 이용하여 지도의 정확도를 평가하는 것을 특징으로 하는 침수흔적도 작성 시스템.
The method of claim 6,
Wherein the computer evaluates the accuracy of the map using the measurement value at the ground reference point and the orthoimage.
상기 컴퓨터는 해당 지역의 침수위, 침수심, 침수 시간을 포함하는 침수 피해 범위를 산정하여 표시하는 것을 특징으로 하는 침수흔적도 작성 시스템.The method of claim 5,
Wherein the computer calculates and displays the flood damage range including the flooded ground, the flooded water depth, and the flooded time of the corresponding area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160172312A KR20180070070A (en) | 2016-12-16 | 2016-12-16 | System and method for making inundation trace map using unmanned aerial vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160172312A KR20180070070A (en) | 2016-12-16 | 2016-12-16 | System and method for making inundation trace map using unmanned aerial vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20180070070A true KR20180070070A (en) | 2018-06-26 |
Family
ID=62788445
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160172312A KR20180070070A (en) | 2016-12-16 | 2016-12-16 | System and method for making inundation trace map using unmanned aerial vehicle |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20180070070A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020103021A1 (en) * | 2018-11-21 | 2020-05-28 | 广州极飞科技有限公司 | Planning method and apparatus for surveying and mapping sampling points, control terminal and storage medium |
KR102121974B1 (en) * | 2019-12-05 | 2020-06-12 | 대한민국 | Disaster damage investigation·analysis system using drone and disaster damage investigation·analysis method |
CN111639625A (en) * | 2020-06-11 | 2020-09-08 | 中国人民解放军32023部队 | Automatic extraction method for unmanned aerial vehicle ortho-image road |
KR20210030846A (en) * | 2019-09-10 | 2021-03-18 | 주식회사 엠디헬스케어 | Method for diagnosing colorectal cancer based on metagenome and metabolome of extracellular vesicles |
WO2022145549A1 (en) * | 2020-12-31 | 2022-07-07 | 주식회사 드론오렌지 | Bidirectional augmented reality platform using drone space information |
WO2022220334A1 (en) * | 2021-04-13 | 2022-10-20 | 주식회사 드론오렌지 | Augmented reality occlusion generation system using positioning space data obtained using drone |
WO2022220333A1 (en) * | 2021-04-13 | 2022-10-20 | 주식회사 드론오렌지 | System for creating virtual object using positioning space information data by using drone |
US11519743B2 (en) | 2020-09-17 | 2022-12-06 | International Business Machines Corporation | Stalled self-driving vehicle rescue system |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101394861B1 (en) | 2012-12-26 | 2014-05-13 | 부경대학교 산학협력단 | System detection of flooding risk roads in real time using the weather center information and offering its service based on the web. |
-
2016
- 2016-12-16 KR KR1020160172312A patent/KR20180070070A/en not_active Application Discontinuation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101394861B1 (en) | 2012-12-26 | 2014-05-13 | 부경대학교 산학협력단 | System detection of flooding risk roads in real time using the weather center information and offering its service based on the web. |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020103021A1 (en) * | 2018-11-21 | 2020-05-28 | 广州极飞科技有限公司 | Planning method and apparatus for surveying and mapping sampling points, control terminal and storage medium |
KR20210030846A (en) * | 2019-09-10 | 2021-03-18 | 주식회사 엠디헬스케어 | Method for diagnosing colorectal cancer based on metagenome and metabolome of extracellular vesicles |
KR102121974B1 (en) * | 2019-12-05 | 2020-06-12 | 대한민국 | Disaster damage investigation·analysis system using drone and disaster damage investigation·analysis method |
CN111639625A (en) * | 2020-06-11 | 2020-09-08 | 中国人民解放军32023部队 | Automatic extraction method for unmanned aerial vehicle ortho-image road |
CN111639625B (en) * | 2020-06-11 | 2022-09-27 | 中国人民解放军32023部队 | Automatic extraction method for unmanned aerial vehicle ortho-image road |
US11519743B2 (en) | 2020-09-17 | 2022-12-06 | International Business Machines Corporation | Stalled self-driving vehicle rescue system |
WO2022145549A1 (en) * | 2020-12-31 | 2022-07-07 | 주식회사 드론오렌지 | Bidirectional augmented reality platform using drone space information |
WO2022220334A1 (en) * | 2021-04-13 | 2022-10-20 | 주식회사 드론오렌지 | Augmented reality occlusion generation system using positioning space data obtained using drone |
KR20220141641A (en) * | 2021-04-13 | 2022-10-20 | 주식회사 덱시브 | Augmented reality occlusion producing system using the data of the positioning space information aquired by drone |
WO2022220333A1 (en) * | 2021-04-13 | 2022-10-20 | 주식회사 드론오렌지 | System for creating virtual object using positioning space information data by using drone |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Giordan et al. | The use of unmanned aerial vehicles (UAVs) for engineering geology applications | |
KR20180070070A (en) | System and method for making inundation trace map using unmanned aerial vehicle | |
JP6997750B2 (en) | Systems and methods for generating improved environment displays for mobiles | |
Goncalves et al. | UAV photogrammetry for topographic monitoring of coastal areas | |
Tannant | Review of photogrammetry-based techniques for characterization and hazard assessment of rock faces | |
Piras et al. | Detailed geological mapping in mountain areas using an unmanned aerial vehicle: application to the Rodoretto Valley, NW Italian Alps | |
KR20190051703A (en) | Stereo drone and method and system for calculating earth volume in non-control points using the same | |
EP3851793B1 (en) | Creating a ground control point file using an existing landmark shown in images | |
Yeh et al. | Modeling slope topography using unmanned aerial vehicle image technique | |
Mirko et al. | Assessing the Impact of the Number of GCPS on the Accuracy of Photogrammetric Mapping from UAV Imagery | |
Kim et al. | Applicability assessment of UAV mapping for disaster damage investigation in Korea | |
KR102478816B1 (en) | Stability evaluation and management method for a slope using unmanned aerial vehicle | |
Thuse et al. | Accuracy assessment of vertical and horizontal coordinates derived from Unmanned Aerial Vehicles over District Six in Cape Town | |
Hashim et al. | Integration of low altitude aerial & terrestrial photogrammetry data in 3D heritage building modeling | |
Kim et al. | Data management framework of drone-based 3D model reconstruction of disaster site | |
Yusoff et al. | Comprehensive analysis of flying altitude for high resolution slope mapping using UAV technology | |
Garcia et al. | The Influence of Ground Control Points Configuration and Camera Calibration for Dtm and Orthomosaic Generation Using Imagery Obtained from a Low-Cost Uav | |
Li et al. | Evaluating the potentiality of using control-free images from a mini Unmanned Aerial Vehicle (UAV) and Structure-from-Motion (SfM) photogrammetry to measure paleoseismic offsets | |
Lin et al. | Micro-UAV based remote sensing method for monitoring landslides in Three Gorges Reservoir, China | |
Yamamoto et al. | Data collection system for a rapid recovery work: using digital photogrammetry and a small unmanned aerial vehicle (UAV) | |
Yalcin | Generation of high-resolution digital surface models for urban flood modelling using UAV imagery | |
Harrap et al. | An overview of LIDAR: collection to application | |
Casierra et al. | Methodology for Infrastructure Site Monitoring using Unmanned Aerial Vehicles (UAVs) | |
Woo et al. | Evaluating ortho-photo production potentials based on UAV real-time geo-referencing points | |
Stylianidis et al. | A digital close-range photogrammetric technique for monitoring slope displacements |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E601 | Decision to refuse application |