KR102289550B1 - Augmented reality information providing method and system using image deep learning for matching aerial image data and Geographic Information System data - Google Patents

Augmented reality information providing method and system using image deep learning for matching aerial image data and Geographic Information System data Download PDF

Info

Publication number
KR102289550B1
KR102289550B1 KR1020200008291A KR20200008291A KR102289550B1 KR 102289550 B1 KR102289550 B1 KR 102289550B1 KR 1020200008291 A KR1020200008291 A KR 1020200008291A KR 20200008291 A KR20200008291 A KR 20200008291A KR 102289550 B1 KR102289550 B1 KR 102289550B1
Authority
KR
South Korea
Prior art keywords
information
heavy equipment
image data
aerial image
data
Prior art date
Application number
KR1020200008291A
Other languages
Korean (ko)
Other versions
KR20210094730A (en
Inventor
김종성
안은빈
이지애
이광오
Original Assignee
에스케이 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이 주식회사 filed Critical 에스케이 주식회사
Priority to KR1020200008291A priority Critical patent/KR102289550B1/en
Publication of KR20210094730A publication Critical patent/KR20210094730A/en
Application granted granted Critical
Publication of KR102289550B1 publication Critical patent/KR102289550B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/587Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Architecture (AREA)
  • Business, Economics & Management (AREA)
  • Computing Systems (AREA)
  • Library & Information Science (AREA)
  • Databases & Information Systems (AREA)
  • Emergency Management (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

항공 영상 데이터와 GIS 데이터의 매칭을 위한 이미지 학습을 이용하여, 실시간 항공 영상 데이터와 매칭되는 GIS 데이터를 AR 방식으로 제공하는 AR 정보 제공 방법 및 시스템이 제공된다. 본 발명의 실시예에 따른 AR 정보 제공 방법은, AR 정보 제공 시스템이, 항공 영상 데이터를 이용하여, 딥러닝 기반의 이미지 학습 모델을 학습시키는 단계; AR 정보 제공 시스템이, 학습된 이미지 학습 모델을 기반으로 입력되는 실시간 항공 영상 데이터와 기저장된 GIS 데이터를 매칭시키는 매칭 단계; 및 AR 정보 제공 시스템이, 매칭된 GIS 데이터가 AR 방식으로 화면에 출력되도록 하는 단계;를 포함한다. 이에 의해, 카메라를 이용하여 수집된 영상에 매칭되는 GIS 데이터 및 중장비로 인식되는 객체의 위치정보를 정확하게 산출하여, AR 방식으로 제공함으로써, 안전 및 보안 관련 산업에 효율적인 관리가 가능한 서비스를 제공할 수 있다. An AR information providing method and system for providing GIS data matched with real-time aerial image data in an AR method using image learning for matching aerial image data and GIS data are provided. AR information providing method according to an embodiment of the present invention, the AR information providing system, using the aerial image data, learning a deep learning-based image learning model; a matching step of matching, by the AR information providing system, real-time aerial image data input based on the learned image learning model with pre-stored GIS data; and allowing the AR information providing system to output the matched GIS data to the screen in an AR method. Thereby, by accurately calculating the GIS data matching the image collected using the camera and the location information of the object recognized as heavy equipment, and providing it in an AR method, it is possible to provide a service that enables efficient management to safety and security related industries. there is.

Description

항공 영상 데이터와 GIS 데이터의 매칭을 위한 이미지 학습을 이용한 AR 정보 제공 방법 및 시스템{Augmented reality information providing method and system using image deep learning for matching aerial image data and Geographic Information System data}AR information providing method and system using image learning for matching aerial image data and GIS data TECHNICAL FIELD Augmented reality information providing method and system using image deep learning for matching aerial image data and Geographic Information System data

본 발명은 AR 정보 제공 방법 및 시스템에 관한 것으로, 더욱 상세하게는 항공 영상 데이터와 GIS 데이터의 매칭을 위한 이미지 학습을 이용하여, 실시간 항공 영상 데이터와 매칭되는 GIS 데이터를 AR 방식으로 제공하는 AR 정보 제공 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for providing AR information, and more particularly, AR information that provides GIS data matched with real-time aerial image data in an AR method using image learning for matching aerial image data and GIS data It relates to a method and system for providing.

최근에는 드론을 이용하여 수집되는 영상에 AR(augmented reality) 정보를 제공하는 기술이 등장하였으나, 드론을 이용하여 수집되는 영상의 경우에, 드론의 구조적인 문제로 인하여, 드론의 좌표값(위치정보)과 영상의 타겟 간의 위치가 일치하지 않아, 드론의 위치정보를 기반으로 제공되는 AR 정보들은, 실제 데이터와의 오차가 크다는 문제점이 존재한다. Recently, a technology for providing AR (augmented reality) information to images collected using a drone has appeared. However, in the case of an image collected using a drone, due to a structural problem of the drone, the coordinates ) and the target of the image do not match, so there is a problem that the AR information provided based on the location information of the drone has a large error with the actual data.

또한, 드론을 이용하여 수집된 영상 내에 굴삭기와 같은 중장비를 객체로 인식하는 경우에도, 중장비로 인식된 객체의 위치정보를 정확하게 산출하기 위해, 별도로 중장비 내에 위치정보를 제공하는 수단이 마련되어야 한다는 점에서 추가 비용이 발생하는 불편함이 존재한다.In addition, even when heavy equipment such as an excavator is recognized as an object in an image collected using a drone, in order to accurately calculate the location information of the object recognized as heavy equipment, a means for separately providing location information within the heavy equipment should be provided. Inconvenience exists in that an additional cost occurs.

따라서, 수집된 영상에 매칭되는 GIS 데이터 및 중장비로 인식되는 객체의 위치정보를 정확하게 산출하여, AR 방식으로 제공할 수 있는 방안의 모색이 요구된다. Therefore, it is required to find a way to accurately calculate GIS data matching the collected images and location information of objects recognized as heavy equipment and provide them in an AR method.

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 카메라를 이용하여 수집된 영상에 매칭되는 GIS 데이터 및 중장비로 인식되는 객체의 위치정보를 정확하게 산출하여, AR 방식으로 제공할 수 있는 항공 영상 데이터와 GIS 데이터의 매칭을 위한 이미지 학습을 이용한 AR 정보 제공 방법 및 시스템을 제공함에 있다.The present invention has been devised to solve the above problems, and an object of the present invention is to accurately calculate GIS data matching an image collected using a camera and location information of an object recognized as heavy equipment in an AR method. An object of the present invention is to provide a method and system for providing AR information using image learning for matching between provided aerial image data and GIS data.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, AR 정보 제공 방법은, AR 정보 제공 시스템이, 항공 영상 데이터를 이용하여, 딥러닝 기반의 이미지 학습 모델을 학습시키는 단계; AR 정보 제공 시스템이, 학습된 이미지 학습 모델을 기반으로 입력되는 실시간 항공 영상 데이터와 기저장된 GIS 데이터를 매칭시키는 매칭 단계; 및 AR 정보 제공 시스템이, 매칭된 GIS 데이터가 AR 방식으로 화면에 출력되도록 하는 단계;를 포함한다.According to an embodiment of the present invention for achieving the above object, a method for providing AR information includes, by an AR information providing system, learning a deep learning-based image learning model using aerial image data; a matching step of matching, by the AR information providing system, real-time aerial image data input based on the learned image learning model with pre-stored GIS data; and allowing the AR information providing system to output the matched GIS data to the screen in an AR method.

그리고 항공 영상 데이터는, 항공 영상 데이터의 촬영 위치 정보, 촬영 고도 정보 및 촬영 각도 정보가 포함된 촬영 정보를 포함할 수 있다.In addition, the aerial image data may include photographing information including photographing position information, photographing altitude information, and photographing angle information of the aerial image data.

또한, 매칭 단계는, 항공 영상 데이터에 대한 실제 촬영 영역을 계산하고, 계산된 실제 촬영 영역에 대응되는 GIS 데이터를 항공 영상 데이터와 매칭시킬 수 있다.Also, in the matching step, an actual photographing area for the aerial image data may be calculated, and GIS data corresponding to the calculated actual photographing area may be matched with the aerial image data.

그리고 매칭 단계는, 좌표계의 단위를 변환하고, 사용할 스케일의 중복 보간점을 제거하거나 연결되는 지점을 병합함으로써, GIS 데이터를 가공하고, 가공된 GIS 데이터를 항공 영상 데이터와 매칭시킬 수 있다. In the matching step, the GIS data may be processed, and the processed GIS data may be matched with the aerial image data by converting the units of the coordinate system, removing the overlapping interpolation points of the scale to be used, or merging the connected points.

또한, 매칭 단계는, 실시간 항공 영상 데이터 내의 시설물 중 R-Tree 알고리즘을 통해 검색되는 주요 시설물 정보를 GIS 데이터에 매칭시킬 수 있다.In addition, in the matching step, among the facilities in the real-time aerial image data, the main facility information retrieved through the R-Tree algorithm may be matched with the GIS data.

그리고 출력 단계는, 촬영 정보 및 실시간 항공 영상 데이터 내 주요 시설물 정보를 이용하여, 실제 촬영 영역의 위도 및 경도가 계산되면, 계산 결과에 매칭되는 GIS 데이터가 AR 방식으로 출력될 수 있다.In the output step, when the latitude and longitude of the actual photographing area are calculated using the photographing information and the main facility information in the real-time aerial image data, GIS data matching the calculation result may be output in an AR method.

또한, 본 발명의 일 실시예에 따른, AR 정보 제공 방법은, 실시간 항공 영상 데이터가 입력되면, AR 정보 제공 시스템이, 학습된 이미지 학습 모델을 기반으로 실시간 항공 영상 데이터 내 중장비를 인식하는 단계;를 더 포함하고, 출력 단계는, 중장비가 인식되면, 중장비의 인식 결과를 GIS 데이터와 함께 AR 방식으로 출력할 수 있다. In addition, according to an embodiment of the present invention, a method for providing AR information includes, when real-time aerial image data is input, the AR information providing system recognizing heavy equipment in real-time aerial image data based on the learned image learning model; Further comprising, in the output step, when the heavy equipment is recognized, the recognition result of the heavy equipment may be output together with the GIS data in an AR method.

그리고 본 발명의 일 실시예에 따른, AR 정보 제공 방법은, 중장비가 인식되면, AR 정보 제공 시스템이, 실제 촬영 영역의 위도 및 경도 계산 결과에 매칭되는 GIS 데이터를 이용하여, 중장비의 위치정보를 추론하는 단계;를 더 포함할 수 있다.And, in the AR information providing method according to an embodiment of the present invention, when heavy equipment is recognized, the AR information providing system uses GIS data matching the latitude and longitude calculation results of the actual shooting area to provide location information of the heavy equipment. Inferring; may further include.

또한, GIS 데이터에는, 실제 촬영 영역 내에 매립된 가스관의 위치정보 및 깊이정보가 포함되며, AR 정보 제공 방법은, AR 정보 제공 시스템이, 중장비의 위치정보와 실제 촬영 영역 내에 가스관의 정보들을 이용하여, 실제 촬영 영역 내 매립된 가스관과 중장비의 충돌 위험 상황을 탐지하는 단계;를 더 포함할 수 있다. In addition, the GIS data includes location information and depth information of a gas pipe buried in the actual shooting area. In the AR information providing method, the AR information providing system uses the location information of heavy equipment and the information of the gas pipe in the actual shooting area. , detecting a collision risk situation between a gas pipe buried in an actual photographing area and heavy equipment; may further include.

그리고 출력 단계는, 실제 촬영 영역 내 매립된 가스관과 중장비의 위치가 기설정된 범위 이내로 인접하면, 충돌 위험 상황을 알리는 경고 알람이 출력되도록 하고, 충돌 위험 상황 시, 출력되는 경고 알람은, 매립된 가스관의 깊이에 따라 출력 방식 또는 출력 표시가 다르게 설정될 수 있다. In the output step, when the locations of the buried gas pipe and heavy equipment in the actual shooting area are adjacent to each other within a preset range, a warning alarm indicating a collision risk situation is output, and in a collision risk situation, the warning alarm outputted is the buried gas pipe The output method or output display may be set differently according to the depth of the .

그리고 인식 단계는, 중장비가 인식되는 경우, 학습된 이미지 학습 모델을 이용하여, 중장비가 작업 상태인지 또는 비작업 상태인지 판단하고, 탐지 단계는, 중장비가 작업 상태로 판단되는 경우에만, 실제 촬영 영역 내 매립된 가스관과 중장비의 충돌 위험 상황을 탐지할 수 있다. And in the recognition step, when the heavy equipment is recognized, it is determined whether the heavy equipment is in a working state or a non-working state using the learned image learning model, and the detection step is, only when the heavy equipment is determined to be in a working state, the actual shooting area It is possible to detect a collision risk situation between a buried gas pipe and heavy equipment.

한편, 본 발명의 다른 실시예에 따른, AR 정보 제공 시스템은, 딥러닝 기반의 이미지 학습 모델을 저장하는 저장부; 및 항공 영상 데이터를 이용하여, 딥러닝 기반의 이미지 학습 모델을 학습시키고, 학습된 이미지 학습 모델을 기반으로 입력되는 실시간 항공 영상 데이터와 매칭되는 GIS 데이터가 화면 내 AR 방식으로 출력되도록 하는 프로세서;를 포함한다.On the other hand, according to another embodiment of the present invention, AR information providing system, a storage unit for storing a deep learning-based image learning model; and a processor that trains a deep learning-based image learning model using aerial image data, and outputs GIS data matching real-time aerial image data input based on the learned image learning model in an AR method within the screen; include

이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, 카메라를 이용하여 수집된 영상에 매칭되는 GIS 데이터 및 중장비로 인식되는 객체의 위치정보를 정확하게 산출하여, AR 방식으로 제공함으로써, 안전 및 보안 관련 산업에 효율적인 관리가 가능한 서비스를 제공할 수 있다. As described above, according to embodiments of the present invention, by accurately calculating GIS data matching an image collected using a camera and location information of an object recognized as heavy equipment, and providing it in an AR method, safety and security related It is possible to provide a service that enables efficient management to the industry.

도 1은 본 발명의 일 실시예에 따른 항공 영상 데이터와 GIS 데이터의 매칭을 위한 이미지 학습을 이용한 AR 정보 제공 시스템의 설명에 제공된 도면,
도 2는 본 발명의 일 실시예에 따른 항공 영상 데이터와 GIS 데이터의 매칭을 위한 이미지 학습을 이용한 AR 정보 제공 방법의 설명에 제공된 흐름도,
도 3 내지 도 5는 드론의 촬영 영역의 계산하는 과정의 설명에 제공된 도면, 그리고
도 6 내지 도 7은 GIS 데이터가 매칭된 항공 영상 데이터가 예시된 도면이다.
1 is a view provided for explaining an AR information providing system using image learning for matching aerial image data and GIS data according to an embodiment of the present invention;
2 is a flowchart provided for explaining a method for providing AR information using image learning for matching aerial image data and GIS data according to an embodiment of the present invention;
3 to 5 are views provided for explaining a process of calculating a photographing area of a drone, and
6 to 7 are diagrams illustrating aerial image data matched with GIS data.

이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.Hereinafter, the present invention will be described in more detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 항공 영상 데이터와 GIS 데이터의 매칭을 위한 이미지 학습을 이용한 AR 정보 제공 시스템(이하에서는 'AR 정보 제공 시스템'으로 총칭하기로 함)의 설명에 제공된 도면이다. 1 is a diagram provided for explanation of an AR information providing system (hereinafter, collectively referred to as 'AR information providing system') using image learning for matching aerial image data and GIS data according to an embodiment of the present invention. .

본 실시예에 따른 AR 정보 제공 시스템은, 카메라를 이용하여 수집된 영상에 매칭되는 GIS 데이터 및 중장비로 인식되는 객체의 위치정보를 정확하게 산출하여, AR 방식으로 제공하기 위해 마련된다. The AR information providing system according to the present embodiment is provided to accurately calculate GIS data matching an image collected using a camera and location information of an object recognized as heavy equipment, and provide it in an AR method.

이를 위해, 본 AR 정보 제공 시스템은, 통신부(110), 저장부(120) 및 프로세서(130)를 포함할 수 있다. To this end, the present AR information providing system may include a communication unit 110 , a storage unit 120 , and a processor 130 .

통신부(110)는, 카메라를 통해 수집되는 항공 영상 데이터를 수신할 수 있는 통신 모듈이다. The communication unit 110 is a communication module capable of receiving aerial image data collected through a camera.

여기서, 카메라는 드론과 같은 무인 비행체에 장착된 카메라 또는 CCTV(Closed Circuit Television)와 같은 감시용 카메라일 수 있다.Here, the camera may be a camera mounted on an unmanned aerial vehicle such as a drone or a surveillance camera such as a Closed Circuit Television (CCTV).

저장부(120)는, 프로세서(130)가 동작함에 있어 필요한 프로그램 및 데이터를 저장할 수 있다. The storage unit 120 may store programs and data necessary for the processor 130 to operate.

구체적으로, 저장부(120)는, GIS 데이터, 딥러닝 기반의 이미지 학습 모델 및 이미지 학습 모델을 학습시키기 위한 학습 데이터들을 저장할 수 있다. Specifically, the storage unit 120 may store GIS data, a deep learning-based image learning model, and training data for learning the image learning model.

프로세서(130)는, 항공 영상 데이터를 이용하여, 딥러닝 기반의 이미지 학습 모델을 학습시킨다.The processor 130 trains an image learning model based on deep learning by using the aerial image data.

구체적으로, 프로세서(130)는, 중장비가 포함되어 있는 복수의 항공 영상 데이터들을 학습용 데이터로 입력받아 딥러닝을 이용하여 이미지 학습 모델을 학습시키게 된다. 이를 통해, 이미지 학습 모델은 입력 영상에 중장비가 포함된 경우 그 중장비를 인식 및 추출할 수 있다. Specifically, the processor 130 receives a plurality of aerial image data including heavy equipment as learning data and trains the image learning model using deep learning. Through this, the image learning model can recognize and extract heavy equipment when the input image includes heavy equipment.

또한, 프로세서(130)는, 실시간 항공 영상 데이터가 입력되면, 학습된 이미지 학습 모델을 이용하여, 실시간 항공 영상 데이터에서 중장비가 포함되었는지 여부 및 중장비가 포함된 경우 해당 항공 영상 데이터에서 중장비가 포함된 위치를 추출할 수 있다.In addition, when real-time aerial image data is input, the processor 130 determines whether or not heavy equipment is included in the real-time aerial image data and whether heavy equipment is included in the aerial image data using the learned image learning model. location can be extracted.

그리고 프로세서(130)는, 입력된 실시간 항공 영상 데이터를 기저장된 GIS 데이터를 매칭시킬 수 있다. 즉, 프로세서(130)는 입력된 실시간 항공 영상 데이터의 촬영된 실제 위치에 해당되는 실제 촬영 영역의 좌표를 계산하고, 계산된 좌표 정보에 대응되는 위치의 GIS 데이터를 추출하여 매칭함으로써, 항공 영상 데이터에 GIS 데이터를 매칭시킬 수 있다. In addition, the processor 130 may match the input real-time aerial image data with pre-stored GIS data. That is, the processor 130 calculates the coordinates of the actual photographing area corresponding to the photographed actual position of the input real-time aerial image data, extracts and matches the GIS data of the position corresponding to the calculated coordinate information, thereby providing aerial image data GIS data can be matched to

여기에서, 실제 촬영 영역은 해당 항공 영상 데이터에 포함된 영역의 실제 지리적 영역을 나타내며, 항공 영상은 공중에서 촬영되므로 도 3에 도시된 바와 같이 일반적으로 사각형 형태의 영역이 촬영되게 된다. Here, the actual photographing area indicates an actual geographic area of the area included in the corresponding aerial image data, and since the aerial image is photographed in the air, a generally rectangular area is photographed as shown in FIG. 3 .

따라서, 실제 촬영 영역 정보는 실제 촬영 영역에 해당되는 사각형의 4개의 꼭지점의 실제 좌표 정보(위도 및 경도 정보)를 포함한다. Accordingly, the actual photographing area information includes actual coordinate information (latitude and longitude information) of four vertices of a rectangle corresponding to the actual photographing area.

구체적으로, 프로세서(130)는, 항공 영상 데이터의 촬영 위치 정보, 촬영 고도 정보 및 촬영 각도 정보 등이 포함된 촬영 정보를 이용하여 항공 영상 데이터에 대한 실제 촬영 영역을 계산할 수 있게 된다. Specifically, the processor 130 may calculate an actual photographing area for the aerial image data using photographing information including photographing location information, photographing altitude information, and photographing angle information of the aerial image data.

여기에서, 촬영 정보는 항공 영상 데이터가 촬영되면서 영상 데이터와 함께 기록될 수 있으며, 촬영 위치 정보와 촬영 고도 정보와 촬영 각도 정보가 포함된다. Here, the photographing information may be recorded together with the image data while the aerial image data is photographed, and includes photographing location information, photographing altitude information, and photographing angle information.

예를 들어, 항공 영상 데이터가 드론에 의해 촬영될 경우, 프로세서(130)는 드론의 GPS 정보를 이용하여 촬영 위치 정보를 확인하고, 드론의 고도 정보를 이용하여 촬영 고도 정보를 확인하며, 드론의 기수 방향 및 카메라 앵글을 이용하여 촬영 각도 정보를 확인할 수 있게 된다. For example, when aerial image data is photographed by a drone, the processor 130 checks the photographing location information using the GPS information of the drone, checks the photographing altitude information using the altitude information of the drone, and You can check the shooting angle information using the nose direction and camera angle.

그리고, 프로세서(130)는 계산된 실제 촬영 영역에 대응되는 GIS 데이터를 추출하여 항공 영상 데이터와 매칭시킬 수 있다. 즉, 프로세서(130)는 GIS 데이터 중 실제 촬영 영역에 포함되는 GIS 데이터(특히, 가스관 관련 데이터 및 주요 시설물 데이터)를 추출하여 항공 영상 데이터와 매칭시킬 수 있게 된다. 이 때, GIS 데이터는 항공 영상 데이터 또는 실제 촬영 영역과 포맷이나 양식이 다를 수 있으며, 이 경우, 프로세서(130)는 GIS 데이터를 가공하여 항공 영상 데이터 또는 실제 촬영 영역과 포맷이나 양식을 일치시킬 수도 있다. In addition, the processor 130 may extract GIS data corresponding to the calculated actual photographing area and match it with the aerial image data. That is, the processor 130 extracts GIS data (especially, gas pipe-related data and major facility data) included in the actual photographing area from among the GIS data to be matched with the aerial image data. At this time, the GIS data may have a different format or form from the aerial image data or the actual photographing area. In this case, the processor 130 may process the GIS data to match the format or form with the aerial image data or the actual photographing area. there is.

또한, 프로세서(130)는, 실시간 항공 영상 데이터 내 주요 시설물 정보를 이용하여, 실제 촬영 영역의 계산 결과를 검증하거나 보정할 수 있다. In addition, the processor 130 may verify or correct the calculation result of the actual photographing area by using the main facility information in the real-time aerial image data.

구체적으로, 프로세서(130)는 이미지 학습 모델을 주요 시설물이 포함된 항공 영상 데이터를 입력하여 학습시킴으로써, 항공 영상 데이터 내에 포함된 주요 시설물을 인식할 수도 있다. Specifically, the processor 130 may recognize the main facilities included in the aerial image data by inputting and learning the image learning model aerial image data including the main facilities.

그리고, 프로세서(130)는 실시간 항공 영상 데이터 내에 이미지 학습 모델에 의해 인식된 주요 시설물이 있는 경우, 계산된 실제 촬영 영역을 이용하여 인식된 주요 시설물의 위치를 산출할 수 있게 된다. In addition, when there is a major facility recognized by the image learning model in the real-time aerial image data, the processor 130 may calculate the location of the recognized major facility using the calculated actual photographing area.

그러면, 프로세서(130)는 산출된 주요 시설물의 위치와 GIS 데이터에 포함된 해당 주요 시설물의 위치를 비교함으로써, 실제 촬영 영역의 계산 결과를 검증하거나 보정할 수 있게 된다. Then, the processor 130 may verify or correct the calculation result of the actual photographing area by comparing the calculated location of the major facility with the location of the corresponding major facility included in the GIS data.

이때, 주요 시설물은, 소방서, 경찰서, 시청 등의 관공서, 학교 및 대형 쇼핑몰, 백화점, 초대형 빌딩 등의 랜드마크에 해당하는 건축물과 같이 이미지에서 인식이 용이하고, 주소의 변경 빈도가 적은 시설물을 의미한다.At this time, the main facility means a facility that is easy to recognize in an image and has a small change in address, such as a building corresponding to a landmark such as a fire station, a police station, a city hall, a school, a large shopping mall, a department store, a mega building, etc. do.

여기에서, GIS 데이터는 지리정보시스템(GIS: Geographic Information System) 데이터를 나타낸다. 지리정보시스템은 과거 인쇄물 형태로 이용하던 지도 및 지리정보를 컴퓨터를 이용해 작성, 관리하고 여기서 얻은 지리정보를 기초로 데이터를 수집, 분석, 가공하여 지형과 관련되는 모든 분야에 적용하기 위해 설계된 종합정보시스템으로서, 지리정보시스템은 토지, 자원, 환경, 시설물 등 국토 공간에 관한 제반 정보를 디지털화하여 공유 및 활용할 수 있도록 하는 국가 차원의 지리정보체계가 구축된 시스템이다.Here, the GIS data represents Geographic Information System (GIS) data. The geographic information system is comprehensive information designed to create and manage maps and geographic information, which were used in printed form in the past, using a computer, and to collect, analyze, and process data based on the geographic information obtained from it and apply it to all fields related to topography. As a system, the geographic information system is a system in which a national geographic information system is established that digitizes, shares and utilizes all information on land, resources, environment, and facilities.

또한, 프로세서(130)는, 실시간 항공 영상 데이터가 입력되면, 학습된 이미지 학습 모델을 기반으로 실시간 항공 영상 데이터 내 중장비를 인식할 수 있다.In addition, when real-time aerial image data is input, the processor 130 may recognize heavy equipment in the real-time aerial image data based on the learned image learning model.

그리고 프로세서(130)는, 중장비가 인식되면, 실제 촬영 영역 정보를 이용하여, 중장비의 위치정보를 산출할 수 있다. And, when the heavy equipment is recognized, the processor 130 may calculate location information of the heavy equipment by using the actual photographing area information.

이때, 프로세서(130)는 중장비의 위치정보와 실제 촬영 영역 내에 가스관의 정보들을 이용하여, 실제 촬영 영역 내 매립된 가스관과 중장비의 충돌 위험 상황을 탐지하고, 도 6에 도시된 바와 같이 실시간 항공 영상 데이터 및 그에 매칭되는 GIS 데이터(특히, 가스관 관련 데이터 및 주요 시설물 데이터)가 AR 방식으로 디스플레이 장치의 화면에 출력되도록 할 수 있다. At this time, the processor 130 uses the location information of the heavy equipment and the information of the gas pipe in the actual photographing area to detect a collision risk situation between the buried gas pipe and the heavy equipment in the actual photographing area, and a real-time aerial image as shown in FIG. 6 . Data and GIS data matching the data (particularly, gas pipe-related data and major facility data) may be output on the screen of the display device in an AR method.

여기서, 디스플레이 장치는 AR 정보 제공 시스템에 포함된 디스플레이 장치가 될 수도 있고, 또는 AR 정보 제공 시스템과 통신 가능하도록 연결된 별도의 디스플레이 장치가 될 수도 있다. Here, the display device may be a display device included in the AR information providing system, or a separate display device connected to communicate with the AR information providing system.

도 2는 본 발명의 일 실시예에 따른 항공 영상 데이터와 GIS 데이터의 매칭을 위한 이미지 학습을 이용한 AR 정보 제공 방법(이하에서는 'AR 정보 제공 방법'으로 총칭하기로 함)의 설명에 제공된 흐름도이고, 도 3 내지 도 5는 드론의 촬영 영역의 계산하는 과정의 설명에 제공된 도면이며, 도 6 내지 도 7은 GIS 데이터가 매칭된 항공 영상 데이터가 예시된 도면이다.2 is a flowchart provided to explain a method for providing AR information using image learning for matching aerial image data and GIS data (hereinafter, collectively referred to as 'AR information providing method') according to an embodiment of the present invention. , FIGS. 3 to 5 are views provided to explain a process of calculating a photographing area of a drone, and FIGS. 6 to 7 are diagrams illustrating aerial image data matched with GIS data.

본 실시예에 따른 AR 정보 제공 시스템에 의해 수행되는 AR 정보 제공 방법은, 프로세서(130)가, 항공 영상 데이터를 이용하여, 딥러닝 기반의 이미지 학습 모델을 학습시키는 학습 단계(S210), 실시간 항공 영상 데이터가 입력되면, 프로세서(130)가, 이미지 학습 모델을 이용하여, 입력된 실시간 항공 영상 데이터와 기저장된 GIS 데이터를 매칭시키는 매칭 단계(S220), 실시간 항공 영상 데이터가 입력되면, 프로세서(130)가, 학습된 이미지 학습 모델을 기반으로 실시간 항공 영상 데이터 내 중장비의 인식 여부를 판별하는 인식 단계(S230), 중장비가 인식되면(S230-Y), 프로세서(130)가, 실제 촬영 영역의 위도 및 경도 계산 결과인 실제 촬영 영역 정보에 매칭되는 GIS 데이터를 이용하여, 중장비의 위치정보를 추론하는 추론 단계(S240), 프로세서(130)가, 중장비의 위치정보와 실제 촬영 영역 내에 가스관의 정보들을 이용하여, 실제 촬영 영역 내 매립된 가스관과 중장비의 충돌 위험 상황을 탐지하는 탐지 단계(S250) 및 프로세서(130)에 의해, 학습된 이미지 학습 모델을 기반으로 입력되는 실시간 항공 영상 데이터와 매칭되는 GIS 데이터가 화면에 AR 방식으로 출력되도록 하는 출력 단계(S260)로 구성될 수 있다. The AR information providing method performed by the AR information providing system according to this embodiment is a learning step (S210) in which the processor 130 learns a deep learning-based image learning model using aerial image data, real-time aviation When the image data is input, the processor 130 uses the image learning model to match the input real-time aerial image data with the pre-stored GIS data ( S220 ). When the real-time aerial image data is input, the processor 130 ), a recognition step of determining whether heavy equipment is recognized in real-time aerial image data based on the learned image learning model (S230), when the heavy equipment is recognized (S230-Y), the processor 130, the latitude of the actual shooting area and an inference step (S240) of inferring the location information of the heavy equipment by using the GIS data matching the actual photographing area information, which is the result of the hardness calculation, the processor 130, the location information of the heavy equipment and the information of the gas pipe in the actual photographing area GIS matched with real-time aerial image data input based on the image learning model learned by the detection step ( S250 ) and the processor 130 to detect a collision risk situation between a gas pipe buried in an actual shooting area and heavy equipment using It may be composed of an output step (S260) of outputting data to the screen in an AR method.

매칭 단계(S220)에서는, 프로세서(130)가, 실시간 항공 영상 데이터를 이용하여, 항공 영상 데이터에 대한 실제 촬영 영역을 계산하고, 계산된 실제 촬영 영역에 대응되는 GIS 데이터를 가공하여, 항공 영상 데이터와 매칭시킬 수 있다. In the matching step ( S220 ), the processor 130 calculates an actual photographing area for the aerial image data by using the real-time aerial image data, and processes the GIS data corresponding to the calculated actual photographing area to obtain the aerial image data can be matched with

여기서, 항공 영상 데이터는, 촬영 위치 정보와 촬영 고도 정보와 촬영 각도 정보가 포함된 촬영 정보가 부가될 수 있으며, GIS 데이터에는, 실제 촬영 영역 내에 매립된 가스관의 위치정보 및 깊이정보가 포함될 수 있다. Here, the aerial image data may include photographing information including photographing location information, photographing altitude information, and photographing angle information, and the GIS data may include location information and depth information of a gas pipe embedded in an actual photographing area. .

그리고 매칭 단계(S220)에서는, 프로세서(130)가, GIS 데이터 가공 시, GIS 데이터의 geometry 구조 정보를 제거하고, 좌표계의 단위를 변환하고, 도 3 내지 도 4에 예시된 바와 같이, 사용할 스케일의 중복 보간점을 제거하거나 연결되는 지점을 병합할 수 있다. And in the matching step (S220), the processor 130, when processing the GIS data, removes the geometry structure information of the GIS data, converts the unit of the coordinate system, and as illustrated in FIGS. 3 to 4, the scale to be used Duplicate interpolation points can be removed or connected points can be merged.

또한, 매칭 단계(S220)에서는, 프로세서(130)가, 실시간 항공 영상 데이터 내의 시설물 중 R-Tree 알고리즘을 통해 검색되는 주요 시설물 정보를 GIS 데이터와 매칭시킬 수 있다. In addition, in the matching step ( S220 ), the processor 130 may match the main facility information retrieved through the R-Tree algorithm among the facilities in the real-time aerial image data with the GIS data.

즉, 매칭 단계(S220)에서는, 프로세서(130)가, 촬영 정보와 실시간 항공 영상 데이터 내 주요 시설물 정보를 이용하여, 실제 촬영 영역의 위도 및 경도를 계산하고, 계산 결과에 매칭되도록 할 수 있다. That is, in the matching step ( S220 ), the processor 130 may calculate the latitude and longitude of the actual photographing area by using the photographing information and the main facility information in the real-time aerial image data, and match the calculated result.

여기서, R-Tree 알고리즘은, 특정 지역을 둘러싸는 최소범위사각형의 특성을 이용하여 데이터를 조직화하는 공간 데이터 구조를 생성하는 알고리즘이다. Here, the R-Tree algorithm is an algorithm that generates a spatial data structure that organizes data using the characteristics of a minimum range rectangle surrounding a specific area.

인식 단계(S230)에서는, 프로세서(130)가, 학습된 이미지 학습 모델을 기반으로 실시간 항공 영상 데이터 내 중장비를 인식할 수 있으며, 나아가, 중장비가 인식되는 경우, 학습된 이미지 학습 모델을 이용하여, 중장비가 작업 상태인지 또는 비작업 상태인지 판단할 수 있다. In the recognition step (S230), the processor 130 may recognize heavy equipment in real-time aerial image data based on the learned image learning model, and further, when the heavy equipment is recognized, using the learned image learning model, It can be determined whether the heavy equipment is in a working state or in a non-working state.

이 경우, 탐지 단계(S250)에서, 프로세서(130)가, 중장비가 작업 상태로 판단되는 경우에서만, 실제 촬영 영역 내 매립된 가스관과 중장비의 충돌 위험 상황을 탐지함으로써, 중장비의 이동과 같은 비작업 상태에서 매립된 가스관과 중장비가 충돌하는 것으로 판단하는 오류 발생을 방지할 수 있다.In this case, in the detection step ( S250 ), the processor 130 detects a collision risk situation between the gas pipe and the heavy equipment buried in the actual photographing area only when the heavy equipment is determined to be in a working state, so that non-work such as movement of heavy equipment It is possible to prevent the occurrence of an error in determining that the buried gas pipe and heavy equipment collide with each other.

추론 단계(S240)에서는, 프로세서(130)가, 실시간 항공 영상 데이터와 매칭되는 GIS 데이터에 포함된 화면 내 주요 시설물들의 위치정보를 이용하여, 중장비의 위치정보를 추론할 수 있다. In the inference step ( S240 ), the processor 130 may infer the location information of the heavy equipment by using the location information of major facilities in the screen included in the GIS data matched with the real-time aerial image data.

예를 들면, 프로세서(130)는, 실시간 항공 영상 데이터와 매칭되는 GIS 데이터를 이용하여, 화면 내 주요 시설물들의 위치정보를 획득하고, 획득된 주요 시설물들로부터 중장비의 거리 등을 고려하여, 별도의 위치정보 측정을 위한 센서 없이, 중장비의 위치정보를 추론할 수 있다. For example, the processor 130 obtains location information of major facilities on the screen using GIS data matched with real-time aerial image data, and considers the distance of heavy equipment from the obtained major facilities, and separates Without a sensor for measuring location information, location information of heavy equipment can be inferred.

이때, 중장비의 위치정보의 추론 결과의 정확도를 위하여, 적어도 셋 이상의 주요 시설물들의 위치정보들을 이용하여, 각각의 주요 시설물들과 중장비 간의 거리를 산출하고, 거리 산출 결과를 이용하여 중장비의 위치정보를 추론하는 것이 바람직하다. At this time, for the accuracy of the inference result of the location information of the heavy equipment, the distance between each major facility and the heavy equipment is calculated using the location information of at least three or more main facilities, and the location information of the heavy equipment is calculated using the distance calculation result. It is preferable to infer.

구체적으로 예를 들면, 프로세서(130)는, 화면 내 주요 시설물들의 셋 이상인 경우, 중장비와의 상대 거리가 다른 주요 시설물보다 가까운 주요 시설물을 우선적으로 선정하는 방식으로 3개 선정하고, 선정된 3개의 주요 시설물들과 중장비 간의 거리를 산출할 수 있다.Specifically, for example, when there are three or more of the main facilities in the screen, the processor 130 selects three major facilities having a relative distance to heavy equipment closer than other major facilities in a way that preferentially selects three, The distance between major facilities and heavy equipment can be calculated.

탐지 단계(S250)에서는, 프로세서(130)가, 중장비의 위치정보와 실제 촬영 영역 내에 가스관의 정보들을 이용하여, 실제 촬영 영역 내 매립된 가스관과 중장비의 충돌 위험 상황을 탐지할 수 있으며, 추가적으로 프로세서(130)가, 통신부(110)를 통해, 중장비를 이용한 작업을 수행하고자 하는 지역의 위치정보가 포함된 작업 계획 정보가 획득되면, 추론 단계를 통해, 추론된 위치정보 또는 통신부(110)를 통해 획득된 중장비의 위치정보를 기반으로 중장비가 작업 계획 정보에 적합한 지역에서 작업을 수행하는지 여부를 검증할 수 있다.In the detection step (S250), the processor 130 may detect a collision risk situation between the buried gas pipe and the heavy equipment in the actual photographing area by using the location information of the heavy equipment and the information of the gas pipe in the actual photographing area, and additionally the processor (130), through the communication unit 110, when the work plan information including the location information of the area to perform the work using the heavy equipment is obtained, through the reasoning step, through the inferred location information or the communication unit 110 Based on the acquired location information of the heavy equipment, it is possible to verify whether the heavy equipment performs work in an area suitable for the work plan information.

한편, 출력 단계(S260)에서는, 중장비가 인식되면, 프로세서(130)에 의해, 중장비의 인식 결과가 GIS 데이터와 함께 AR 방식으로 디스플레이 장치의 화면에 출력되도록 할 수 있다.On the other hand, in the output step (S260), when the heavy equipment is recognized, the processor 130 may output the recognition result of the heavy equipment together with the GIS data on the screen of the display device in an AR method.

또한, 프로세서(130)는, 가스관과 중장비 간의 거리의 산출 결과가 중장비의 인식 결과 및 GIS 데이터와 함께, 함께 AR 방식으로 디스플레이 장치의 화면에 출력되도록 할 수 있다.Also, the processor 130 may output the calculation result of the distance between the gas pipe and the heavy equipment together with the recognition result of the heavy equipment and the GIS data on the screen of the display device in an AR method.

그리고, 프로세서(130)는 중장비의 위치정보를 AR 방식으로 화면에 표시할 수도 있다. 이 때, 프로세서(130)는 중장비의 위치정보를 주변의 주요 시설물과의 거리를 표시하는 방식으로 표시할 수도 있다. 예를 들어, 프로세서(130)는 중장비와 가까운 주요시설물이 분당 경찰서인 경우, 중장비의 위치정보를 “분당 경찰서로부터 반경 50미터 이내 위치”와 같이 표시할 수도 있다.In addition, the processor 130 may display the location information of the heavy equipment on the screen in an AR method. In this case, the processor 130 may display the location information of the heavy equipment in a manner that displays the distance from the surrounding major facilities. For example, when the major facility close to the heavy equipment is the Bundang Police Station, the processor 130 may display location information of the heavy equipment such as “a location within a radius of 50 meters from the Bundang Police Station”.

구체적으로, 프로세서(130)는, 실제 촬영 영역 내 매립된 가스관과 중장비의 위치가 기설정된 범위 이내로 인접하면, 출력 단계(S260)에서, 충돌 위험 상황을 알리는 경고 알람을 제공하며, 충돌 위험 상황 시, 제공되는 경고 알람은, 매립된 가스관의 깊이에 따라 문자, 색상, 형상 등의 표시가 다르게 설정되어, 관리자가 가스관의 깊이에 따라 중장비와 가스관의 거리 또는 충돌 위험 상황의 정도(degree)를 빠르게 인지하도록 할 수 있다. Specifically, when the location of the buried gas pipe and the heavy equipment in the actual shooting area is adjacent to within a preset range, in the output step S260 , the processor 130 provides a warning alarm informing of a collision risk situation, and in a collision risk situation , the provided warning alarm is set to display text, color, shape, etc. differently depending on the depth of the buried gas pipe. can make you aware

이때, 가스관과 중장비 간의 거리는, 가스관이 매립된 지점과 중장비가 위치하는 지점 간의 수평적 거리를 의미하며, 가스관이 매립된 지점의 GPS 좌표와 중장비가 위치하는 지점의 GPS 좌표를 기반으로 거리를 산출하는 것과 같은 결과가 도출될 수 있다.At this time, the distance between the gas pipe and the heavy equipment means the horizontal distance between the point where the gas pipe is buried and the point where the heavy equipment is located, and the distance is calculated based on the GPS coordinates of the point where the gas pipe is buried and the GPS coordinates of the point where the heavy equipment is located similar results can be obtained.

다만, 프로세서(130)는, 탐지 단계(S250)에서, 가스관과 중장비 간의 거리 산출 시, 가스관이 매립된 지점과 중장비가 위치하는 지점 간의 거리가 기설정된 범위 이내로 인접한 것으로 판단되면, 출력 단계(S260)에서, 경고 알람이 출력되도록 하는 동시에, 가스관이 매립된 깊이정보를 이용하여, 매립된 가스관과 중장비의 거리를 산출하고, 거리 산출 결과를 화면에 표시하거나 또는 거리 산출 결과에 따라 서로 다른 경고 알람이 출력되도록 할 수 있다. However, the processor 130, in the detection step (S250), when calculating the distance between the gas pipe and the heavy equipment, if it is determined that the distance between the point where the gas pipe is buried and the point where the heavy equipment is located is adjacent within a preset range, the output step (S260) ), a warning alarm is output, and the distance between the buried gas pipe and heavy equipment is calculated using the depth information in which the gas pipe is buried, and the distance calculation result is displayed on the screen or different warning alarms according to the distance calculation result. You can have this output.

예를 들면, 프로세서(130)는, 매립된 가스관과 중장비의 거리에 따라 충돌 위험의 경계 수준이 최저 등급부터 순차적으로 경계 수준이 높아지는 복수의 등급을 설정하고, 각각의 등급에 해당하는 거리 산출 결과가 산출되면, 등급에 따른 경고 알람을 출력함으로써, 관리자가 거리 산출 결과에 따라 가스관과 중장비의 거리 또는 충돌 위험 상황의 정도(degree)를 빠르게 인지하도록 할 수 있다.For example, the processor 130 sets a plurality of grades in which the boundary level of the collision risk is sequentially increased from the lowest grade according to the distance between the buried gas pipe and the heavy equipment, and the distance calculation result corresponding to each grade When is calculated, by outputting a warning alarm according to the grade, the administrator can quickly recognize the distance between the gas pipe and heavy equipment or the degree of a collision risk situation according to the distance calculation result.

이를 통해, 실시간 항공 영상 데이터가 입력된 이후, 각각의 작업에 대한 리소스 관리를 원활하게 할 수 있으며, 실시간 항공 영상 데이터에 대하여 즉각적이고, 효과적으로 AR 정보들을 제공할 수 있다. Through this, after the real-time aerial image data is input, it is possible to smoothly manage resources for each task, and it is possible to provide AR information immediately and effectively for the real-time aerial image data.

첨언하면, 본 실시예에서는 매칭 단계(S220)와, 인식 단계(S230), 추론 단계(S240) 및 탐지 단계(S250)가 순차적으로 수행되는 것으로 설명하고 있지만, 매칭 단계(S220)를 수행하는 이미지 학습 모델과 인식 단계(S230), 추론 단계(S240) 및 탐지 단계(S250)를 수행하는 이미지 학습 모델이 개별적으로 마련되어, 각각의 작업이 병렬적으로 수행되도록 구현할 수 있다.Incidentally, in this embodiment, although the matching step (S220), the recognition step (S230), the inference step (S240), and the detection step (S250) are described as being sequentially performed, the image performing the matching step (S220) The learning model and the image learning model for performing the recognition step S230, the inference step S240, and the detection step S250 are separately provided, so that each task can be implemented in parallel.

더불어, 본 실시예에 따른 장치와 방법의 기능을 수행하게 하는 컴퓨터 프로그램을 수록한 컴퓨터로 읽을 수 있는 기록매체에도 본 발명의 기술적 사상이 적용될 수 있음은 물론이다. 또한, 본 발명의 다양한 실시예에 따른 기술적 사상은 컴퓨터로 읽을 수 있는 기록매체에 기록된 컴퓨터로 읽을 수 있는 코드 형태로 구현될 수도 있다. 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터에 의해 읽을 수 있고 데이터를 저장할 수 있는 어떤 데이터 저장 장치이더라도 가능하다. 예를 들어, 컴퓨터로 읽을 수 있는 기록매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광디스크, 하드 디스크 드라이브, 등이 될 수 있음은 물론이다. 또한, 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터로 읽을 수 있는 코드 또는 프로그램은 컴퓨터간에 연결된 네트워크를 통해 전송될 수도 있다.In addition, it goes without saying that the technical idea of the present invention can also be applied to a computer-readable recording medium containing a computer program for performing the functions of the apparatus and method according to the present embodiment. In addition, the technical ideas according to various embodiments of the present invention may be implemented in the form of computer-readable codes recorded on a computer-readable recording medium. The computer-readable recording medium may be any data storage device readable by the computer and capable of storing data. For example, the computer-readable recording medium may be a ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical disk, hard disk drive, or the like. In addition, the computer-readable code or program stored in the computer-readable recording medium may be transmitted through a network connected between computers.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention belongs without departing from the gist of the present invention as claimed in the claims Various modifications are possible by those of ordinary skill in the art, and these modifications should not be individually understood from the technical spirit or prospect of the present invention.

110 : 통신부
120 : 저장부
130 : 프로세서
110: communication department
120: storage
130: processor

Claims (12)

AR 정보 제공 시스템이, 항공 영상 데이터를 이용하여, 딥러닝 기반의 이미지 학습 모델을 학습시키는 단계;
AR 정보 제공 시스템이, 학습된 이미지 학습 모델을 기반으로 입력되는 실시간 항공 영상 데이터와 기저장된 GIS 데이터를 매칭시키는 매칭 단계; 및
AR 정보 제공 시스템이, 매칭된 GIS 데이터가 AR 방식으로 화면에 출력되도록 하는 단계;를 포함하고,
실시간 항공 영상 데이터가 입력되면, AR 정보 제공 시스템이, 학습된 이미지 학습 모델을 기반으로 실시간 항공 영상 데이터 내 중장비를 인식하는 단계;를 더 포함하고,
출력 단계는,
중장비가 인식되면, 중장비의 인식 결과를 GIS 데이터와 함께 AR 방식으로 출력하며,
AR 정보 제공 방법은,
중장비가 인식되면, AR 정보 제공 시스템이, 실제 촬영 영역의 위도 및 경도 계산 결과에 매칭되는 GIS 데이터를 이용하여, 중장비의 위치정보를 추론하는 단계;를 더 포함하며,
GIS 데이터에는,
실제 촬영 영역 내에 매립된 가스관의 위치정보 및 깊이정보가 포함되며,
AR 정보 제공 방법은,
AR 정보 제공 시스템이, 중장비의 위치정보와 실제 촬영 영역 내에 가스관의 정보들을 이용하여, 실제 촬영 영역 내 매립된 가스관과 중장비의 충돌 위험 상황을 탐지하는 단계;를 더 포함하는 것을 특징으로 하는 AR 정보 제공 방법.
The AR information providing system, using the aerial image data, training a deep learning-based image learning model;
a matching step of matching, by the AR information providing system, real-time aerial image data input based on the learned image learning model with pre-stored GIS data; and
Including, by the AR information providing system, to output the matched GIS data to the screen in an AR method;
When real-time aerial image data is input, the AR information providing system recognizing heavy equipment in real-time aerial image data based on the learned image learning model; further comprising,
The output stage is
When heavy equipment is recognized, the recognition result of the heavy equipment is output in AR method along with GIS data.
How to provide AR information,
When the heavy equipment is recognized, the AR information providing system infers the location information of the heavy equipment by using the GIS data matching the latitude and longitude calculation results of the actual shooting area;
For GIS data,
The location information and depth information of the gas pipe buried in the actual shooting area are included.
How to provide AR information,
Detecting, by the AR information providing system, a collision risk situation between a gas pipe buried in the actual imaging area and the heavy equipment by using the location information of the heavy equipment and the information of the gas pipe in the actual photographing area; AR information characterized by further comprising: How to provide.
청구항 1에 있어서,
항공 영상 데이터는,
항공 영상 데이터의 촬영 위치 정보, 촬영 고도 정보 및 촬영 각도 정보가 포함된 촬영 정보를 포함하는 것을 특징으로 하는 AR 정보 제공 방법.
The method according to claim 1,
aerial image data,
AR information providing method, characterized in that it includes photographing information including photographing location information, photographing altitude information, and photographing angle information of aerial image data.
청구항 1에 있어서,
매칭 단계는,
항공 영상 데이터에 대한 실제 촬영 영역을 계산하고, 계산된 실제 촬영 영역에 대응되는 GIS 데이터를 항공 영상 데이터와 매칭시키는 것을 특징으로 하는 AR 정보 제공 방법.
The method according to claim 1,
The matching step is
A method for providing AR information, comprising calculating an actual photographing area for the aerial image data, and matching GIS data corresponding to the calculated actual photographing area with the aerial image data.
삭제delete 청구항 3에 있어서,
매칭 단계는,
실시간 항공 영상 데이터 내의 시설물 중 R-Tree 알고리즘을 통해 검색되는 주요 시설물 정보를 GIS 데이터에 매칭시키는 것을 특징으로 하는 AR 정보 제공 방법.
4. The method according to claim 3,
The matching step is
AR information providing method, characterized in that the main facility information retrieved through R-Tree algorithm among facilities in real-time aerial image data is matched with GIS data.
청구항 5에 있어서,
출력 단계는,
촬영 정보 및 실시간 항공 영상 데이터 내 주요 시설물 정보를 이용하여, 실제 촬영 영역의 위도 및 경도가 계산되면, 계산 결과에 매칭되는 GIS 데이터가 AR 방식으로 출력되는 것을 특징으로 하는 AR 정보 제공 방법.
6. The method of claim 5,
The output stage is
AR information providing method, characterized in that when the latitude and longitude of the actual shooting area are calculated using the shooting information and main facility information in the real-time aerial image data, GIS data matching the calculation result is output in an AR method.
삭제delete 삭제delete 삭제delete 청구항 1에 있어서,
출력 단계는,
실제 촬영 영역 내 매립된 가스관과 중장비의 위치가 기설정된 범위 이내로 인접하면, 충돌 위험 상황을 알리는 경고 알람이 출력되도록 하고,
충돌 위험 상황 시, 출력되는 경고 알람은,
매립된 가스관의 깊이에 따라 출력 방식 또는 출력 표시가 다르게 설정되는 것을 특징으로 하는 AR 정보 제공 방법.
The method according to claim 1,
The output stage is
When the location of the buried gas pipe and heavy equipment within the actual shooting area is adjacent to within a preset range, a warning alarm indicating a collision risk situation is output;
In the event of a risk of collision, the warning alarm that is output is,
AR information providing method, characterized in that the output method or output display is set differently according to the depth of the buried gas pipe.
AR 정보 제공 시스템이, 항공 영상 데이터를 이용하여, 딥러닝 기반의 이미지 학습 모델을 학습시키는 단계;
AR 정보 제공 시스템이, 학습된 이미지 학습 모델을 기반으로 입력되는 실시간 항공 영상 데이터와 기저장된 GIS 데이터를 매칭시키는 매칭 단계; 및
AR 정보 제공 시스템이, 매칭된 GIS 데이터가 AR 방식으로 화면에 출력되도록 하는 단계;를 포함하며,
실시간 항공 영상 데이터가 입력되면, AR 정보 제공 시스템이, 학습된 이미지 학습 모델을 기반으로 실시간 항공 영상 데이터 내 중장비를 인식하는 단계;를 더 포함하고,
출력 단계는,
중장비가 인식되면, 중장비의 인식 결과를 GIS 데이터와 함께 AR 방식으로 출력하고,
인식 단계는,
중장비가 인식되는 경우, 학습된 이미지 학습 모델을 이용하여, 중장비가 작업 상태인지 또는 비작업 상태인지 판단하고,
탐지 단계는,
중장비가 작업 상태로 판단되는 경우에만, 실제 촬영 영역 내 매립된 가스관과 중장비의 충돌 위험 상황을 탐지하는 것을 특징으로 하는 AR 정보 제공 방법.
The AR information providing system, using the aerial image data, training a deep learning-based image learning model;
a matching step of matching, by the AR information providing system, real-time aerial image data input based on the learned image learning model with pre-stored GIS data; and
Including, by the AR information providing system, to output the matched GIS data to the screen in an AR method;
When real-time aerial image data is input, the AR information providing system recognizing heavy equipment in real-time aerial image data based on the learned image learning model; further comprising,
The output stage is
When heavy equipment is recognized, the recognition result of the heavy equipment is output in AR method along with GIS data,
The recognition stage is
When heavy equipment is recognized, it is determined whether the heavy equipment is in a working state or a non-working state using the learned image learning model,
The detection step is
AR information providing method, characterized in that only when it is determined that the heavy equipment is in a working state, a collision risk situation between the gas pipe buried in the actual shooting area and the heavy equipment is detected.
딥러닝 기반의 이미지 학습 모델을 저장하는 저장부; 및
항공 영상 데이터를 이용하여, 딥러닝 기반의 이미지 학습 모델을 학습시키고, 학습된 이미지 학습 모델을 기반으로 입력되는 실시간 항공 영상 데이터와 매칭되는 GIS 데이터가 화면 내 AR 방식으로 출력되도록 하는 프로세서;를 포함하고,
프로세서는,
중장비가 인식되면, 중장비의 인식 결과가 GIS 데이터와 함께 AR 방식으로 출력되도록 하며,
프로세서는,
중장비가 인식되면, 실제 촬영 영역의 위도 및 경도 계산 결과에 매칭되는 GIS 데이터를 이용하여, 중장비의 위치정보를 추론하고,
GIS 데이터에는,
실제 촬영 영역 내에 매립된 가스관의 위치정보 및 깊이정보가 포함되며,
프로세서는,
중장비의 위치정보와 실제 촬영 영역 내에 가스관의 정보들을 이용하여, 실제 촬영 영역 내 매립된 가스관과 중장비의 충돌 위험 상황을 탐지하는 것을 특징으로 하는 AR 정보 제공 시스템.
a storage unit for storing an image learning model based on deep learning; and
A processor that trains a deep learning-based image learning model using aerial image data, and outputs GIS data matching real-time aerial image data input based on the learned image learning model in an AR method within the screen; includes; do,
The processor is
When heavy equipment is recognized, the recognition result of heavy equipment is output in AR method along with GIS data.
The processor is
When heavy equipment is recognized, the location information of the heavy equipment is inferred using GIS data that matches the latitude and longitude calculation results of the actual shooting area,
For GIS data,
The location information and depth information of the gas pipe buried in the actual shooting area are included.
The processor is
AR information providing system, characterized in that by using the location information of the heavy equipment and the information of the gas pipe in the actual photographing area, a collision risk situation between the buried gas pipe and the heavy equipment in the actual photographing area is detected.
KR1020200008291A 2020-01-22 2020-01-22 Augmented reality information providing method and system using image deep learning for matching aerial image data and Geographic Information System data KR102289550B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200008291A KR102289550B1 (en) 2020-01-22 2020-01-22 Augmented reality information providing method and system using image deep learning for matching aerial image data and Geographic Information System data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200008291A KR102289550B1 (en) 2020-01-22 2020-01-22 Augmented reality information providing method and system using image deep learning for matching aerial image data and Geographic Information System data

Publications (2)

Publication Number Publication Date
KR20210094730A KR20210094730A (en) 2021-07-30
KR102289550B1 true KR102289550B1 (en) 2021-08-12

Family

ID=77148420

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200008291A KR102289550B1 (en) 2020-01-22 2020-01-22 Augmented reality information providing method and system using image deep learning for matching aerial image data and Geographic Information System data

Country Status (1)

Country Link
KR (1) KR102289550B1 (en)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100885246B1 (en) 2008-02-13 2009-02-25 (주) 지오씨엔아이 Forest arrangement method to use database establish method and this for forest arrangement that use gis
JP2010241412A (en) 2009-03-31 2010-10-28 Honeywell Internatl Inc System and method for assessing weather in proximity to airborne aircraft
KR100992619B1 (en) 2010-06-21 2010-11-05 (주)안세기술 System and method for providing underground facility information using augmented reality of mobile terminal in cloud-computing environment
KR101213132B1 (en) * 2011-12-28 2012-12-18 주식회사 선도소프트 Geometry object data code pattern, code pattern generator, geographical information display system using the code pattern and method therefore
KR101793509B1 (en) * 2016-08-02 2017-11-06 (주)노루기반시스템즈 Remote observation method and system by calculating automatic route of unmanned aerial vehicle for monitoring crops
KR101809656B1 (en) 2016-10-06 2017-12-18 (주)지오씨엔아이 System and method for detecting aquaculture farm facility based satellite image
KR101840820B1 (en) 2016-09-28 2018-03-22 주식회사 빅스 Method for generating 3-dementional augmented reality flight video
KR101876499B1 (en) 2017-02-03 2018-08-02 주식회사 올포랜드 Method for displaying building spatial infomration using augmented reality
KR101948792B1 (en) 2018-05-14 2019-02-15 (주)제타럭스시스템 Method and apparatus for employing unmanned aerial vehicle based on augmented reality
KR102053582B1 (en) 2019-05-28 2019-12-06 (주) 지오아이티 Method of ground coverage classification by using image pattern learning based on deep learning
JP2019537770A (en) * 2016-09-23 2019-12-26 エーオン・ベンフィールド・インコーポレイテッドAon Benfield Inc. Platform, system, and method for classifying asset characteristics and asset feature maintenance with aerial image analysis

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990084348A (en) * 1998-05-04 1999-12-06 정선종 Helicopter Navigation System Using Augmented Reality and Its Method
KR100625217B1 (en) * 2004-07-23 2006-09-20 권용진 System for searching and inquiring geographic information based on mobile
KR20090102311A (en) * 2008-03-26 2009-09-30 (주)성경기술공사 System for predictiong landslide area using digital map
KR20140046358A (en) * 2012-10-10 2014-04-18 이명진 Landslide hazard analysis system considering climate change and method thereof
KR101588232B1 (en) * 2014-05-16 2016-01-25 한국지질자원연구원 Landslide Prediction System using Geographic Information System and NeuroFuzzy techniques and Landslide Prediction Method using Thereof
KR101992662B1 (en) * 2017-11-23 2019-06-25 (주) 피플소프트 Gis 3 cctv 3 cctv

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100885246B1 (en) 2008-02-13 2009-02-25 (주) 지오씨엔아이 Forest arrangement method to use database establish method and this for forest arrangement that use gis
JP2010241412A (en) 2009-03-31 2010-10-28 Honeywell Internatl Inc System and method for assessing weather in proximity to airborne aircraft
KR100992619B1 (en) 2010-06-21 2010-11-05 (주)안세기술 System and method for providing underground facility information using augmented reality of mobile terminal in cloud-computing environment
KR101213132B1 (en) * 2011-12-28 2012-12-18 주식회사 선도소프트 Geometry object data code pattern, code pattern generator, geographical information display system using the code pattern and method therefore
KR101793509B1 (en) * 2016-08-02 2017-11-06 (주)노루기반시스템즈 Remote observation method and system by calculating automatic route of unmanned aerial vehicle for monitoring crops
JP2019537770A (en) * 2016-09-23 2019-12-26 エーオン・ベンフィールド・インコーポレイテッドAon Benfield Inc. Platform, system, and method for classifying asset characteristics and asset feature maintenance with aerial image analysis
KR101840820B1 (en) 2016-09-28 2018-03-22 주식회사 빅스 Method for generating 3-dementional augmented reality flight video
KR101809656B1 (en) 2016-10-06 2017-12-18 (주)지오씨엔아이 System and method for detecting aquaculture farm facility based satellite image
KR101876499B1 (en) 2017-02-03 2018-08-02 주식회사 올포랜드 Method for displaying building spatial infomration using augmented reality
KR101948792B1 (en) 2018-05-14 2019-02-15 (주)제타럭스시스템 Method and apparatus for employing unmanned aerial vehicle based on augmented reality
KR102053582B1 (en) 2019-05-28 2019-12-06 (주) 지오아이티 Method of ground coverage classification by using image pattern learning based on deep learning

Also Published As

Publication number Publication date
KR20210094730A (en) 2021-07-30

Similar Documents

Publication Publication Date Title
JP6976641B2 (en) Object change detection system for updating high-precision road maps and its control method
JP6826421B2 (en) Equipment patrol system and equipment patrol method
CN104978390A (en) Context-aware object detection in aerial photographs/videos using travel path metadata
US11551411B2 (en) Data processor, data processing method, and data processing program for determining correspondence relationships between laser scanning point clouds
CN116152863B (en) Personnel information identification method and device, electronic equipment and storage medium
KR102053906B1 (en) Methods and system for real-time supervised learning using geo-spatial information
KR20210090574A (en) Device and method for monitoring ship and port
WO2014067684A1 (en) Method to enhance underwater localization
CN115723919A (en) Auxiliary navigation method and device for ship yaw
CN106960027B (en) The UAV Video big data multidate association analysis method of spatial information auxiliary
CN113505704B (en) Personnel safety detection method, system, equipment and storage medium for image recognition
US9372081B2 (en) Method and system for geo-referencing at least one sensor image
CN113012215A (en) Method, system and equipment for space positioning
KR102289550B1 (en) Augmented reality information providing method and system using image deep learning for matching aerial image data and Geographic Information System data
CN112800918A (en) Identity recognition method and device for illegal moving target
KR102377393B1 (en) Image analysis method and system for recognition of Heavy Equipment and Gas Pipe
US20210134034A1 (en) Region clipping method and recording medium storing region clipping program
Novais et al. Community based repository for georeferenced traffic signs
CN117897737A (en) Unmanned aerial vehicle monitoring method and device, unmanned aerial vehicle and monitoring equipment
CN113570622A (en) Obstacle determination method and device, electronic equipment and storage medium
KR102049433B1 (en) A method of displaying the position of a foreign object in the runway with GPS coordinates in an airport grid map
Ghosh et al. On localizing a camera from a single image
CN112669266B (en) Ultrahigh detection method, ultrahigh detection device, electronic equipment and storage medium
Tonosaki et al. Indoor Localization by Map Matchin Using One Image of Information Board
KR20180000205A (en) Apparatus and method for intelligently analyzing video

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant