KR102361776B1 - 드론공간정보를 활용한 양방향 증강현실 플랫폼 - Google Patents

드론공간정보를 활용한 양방향 증강현실 플랫폼 Download PDF

Info

Publication number
KR102361776B1
KR102361776B1 KR1020200188800A KR20200188800A KR102361776B1 KR 102361776 B1 KR102361776 B1 KR 102361776B1 KR 1020200188800 A KR1020200188800 A KR 1020200188800A KR 20200188800 A KR20200188800 A KR 20200188800A KR 102361776 B1 KR102361776 B1 KR 102361776B1
Authority
KR
South Korea
Prior art keywords
data
platform
spatial information
drone
augmented reality
Prior art date
Application number
KR1020200188800A
Other languages
English (en)
Inventor
정념
기영우
Original Assignee
주식회사 드론오렌지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 드론오렌지 filed Critical 주식회사 드론오렌지
Priority to KR1020200188800A priority Critical patent/KR102361776B1/ko
Priority to PCT/KR2020/019497 priority patent/WO2022145549A1/ko
Application granted granted Critical
Publication of KR102361776B1 publication Critical patent/KR102361776B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/14Receivers specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/24Acquisition or tracking or demodulation of signals transmitted by the system
    • G01S19/25Acquisition or tracking or demodulation of signals transmitted by the system involving aiding data received from a cooperating element, e.g. assisted GPS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Architecture (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명에 의하면, GPS 데이터와 항공 영상의 이미지에 관한 데이터를 출력하기 위한 항공 영상입력부(100); 공간정보에 관한 플랫폼 데이터(D_fl)를 구성하기 위한 데이터 베이스부(200); 데이터 베이스부(200)의 메모리(280)에 저장된 플랫폼 데이터(D_fl)에 기반하여 공간에 관한 공간정보의 데이터를 생성하여 입력하기 위한 작업자 단말기(300), 및 관리자가 원하는 특정 지역의 특정 위치의 데이터를 입력하기 위한 관리자 단말기(500)를 포함하는 드론공간정보를 활용한 양방향 증강현실 플랫폼이 제공된다.

Description

드론공간정보를 활용한 양방향 증강현실 플랫폼{Two-way augmented reality platform using drone space information drone}
본 발명은 드론공간정보를 활용한 양방향 증강현실 플랫폼에 관한 것으로서, 보다 상세하게는 드론공간정보를 활용하여 취득된 공간정보를 실제공간 좌표정보와의 정합을 통한 증강현실(AR) 플랫폼 시스템이며, 다수의 사용자가 디바이스를 활용하여 현실세계의 실제 공간상에 정확한 좌표위에 구현된 데이터를 증강현실(AR)로 체험 할 수 있을 뿐만 아니라, 사용자와 시스템 간 데이터를 입력 및 전달하는 기술에 관한 것이다.
현대 사회가 복잡화, 고도화됨에 따라 다양한 지식 정보들 중 지형 공간 정보는 국토 공간의 효율적인 활용 및 관리를 위하여 그 중요성이 날로 증대되고 있다.
공간 정보를 이용하는 분야는 전 세계적인 관심 산업으로써 인터넷 기반의 지도서비스 및 3차원 지리정보 서비스 등 널리 활용 되고 있으며 특히 더 정확한 글로벌 좌표의 위치를 활용하기 위하여 공간지리정보 데이터의 취득 및 활용측면으로 증대 및 확대되어 가고 있다.
1990년대 초반부터 선진 도시들은 공간지리정보 데이터 취득 및 구축을 통한 도시 계획 환경의 변화에 대비하여 꾸준히 공간지리정보 데이터를 축적하면서 DB를 구축해 왔다.
국내도 국가적 차원의 지리 정보 시스템 사업과 각 도시의 도시 계획 정보 시스템 구축 등 무인항공기를 활용한 공간지리 정보 데이터 취득 및 데이터 구축을 통한 대한민국 국토의 디지털 트윈화 자료 구축 및 DB화가 진행되고 있다.
그러나 무인항공기를 통하여 취득된 공간지리 정보 데이터는 정밀 포인트클라우드 데이터로 축적 되며 이는 공간의 정확한 글로벌 좌표 X, Y, Z 데이터가 생성되어지나, 이를 활용하기 위해서는 고사양의 PC 및 서버 등이 필수적으로 필요하기 때문에 구축되어진 공간의 디지털화 된 좌표와 정합되는 실제 공간에서 사용자가 걸어 다니며 간편하게 활용하기에는 어려움이 있었다.
따라서 취득되어진 공간지리정보 데이터의 좌표와 실제 공간상의 좌표가 일치하게 정합시키는 기술과 디바이스를 통하여 증강현실(AR)로 이를 확인 하고 데이터를 입력 시킬 수 있는 기술 개발이 요구되고 있다.
따라서 이러한 문제점을 해결할 수 있는 기술의 개발이 요구되고 있다.
따라서 본 발명의 목적은 사용자가 디바이스를 통하여 현실세계를 바라보았을 때 증강현실(AR) 기술을 통하여 눈으로 보고 있는 실제 위치와 함께 좌표가 정확히 정합된 가공된 데이터 정보가 동시에 제공되도록 하는 드론공간정보를 활용한 양방향 증강현실 플랫폼을 제공하는 것이다.
또한, 본 발명의 다른 목적은 사용자는 제공된 정보를 확인함과 동시에 사용자의 인터페이스를 통하여 새로운 데이터를 실시간으로 생성하여 정확한 좌표위에 기입할 수 있도록 하여 사용자와 시스템 간 양방향 데이터 입력 및 수신이 가능하도록 할 수 있는 드론공간정보를 활용한 양방향 증강현실 플랫폼을 제공하는 것이다.
본 발명에 의하면, GPS 데이터와 항공 영상의 이미지에 관한 데이터를 출력하기 위한 항공 영상입력부(100); 공간정보에 관한 플랫폼 데이터(D_fl)를 구성하기 위한 데이터 베이스부(200); 데이터 베이스부(200)의 메모리(280)에 저장된 플랫폼 데이터(D_fl)에 기반하여 공간에 관한 공간정보의 데이터를 생성하여 입력하기 위한 작업자 단말기(300), 및 관리자가 원하는 특정 지역의 특정 위치의 데이터를 입력하기 위한 관리자 단말기(500)를 포함하는 드론공간정보를 활용한 양방향 증강현실 플랫폼이 제공된다.
여기서, 작업자 단말기(300)와 중앙 처리부(400) 사이에는 쌍방향 통신이 가능하도록 하기 위한 중앙 처리부(400)를 더 포함하는 것이 바람직하다.
또한, 데이터 베이스부(200)는 항공 영상입력부(100)에 의하여 얻어진 데이터에 대하여 신속한 데이터 송수신이 가능하도록 하기 위하여 DSM 데이터(D_sm)를 레이어(Layer)별로 구성하도록 마이닝을 거쳐 메모리(280)에 저장하는 것이 바람직하다.
또한, 항공 영상입력부(100)는 비행모듈(120), GPS 수신모듈(140), 비행을 통하여 획득되는 영상데이터를 제공하기 위한 영상데이터모듈(160), 및 GPS 수신모듈(140)과 영상데이터모듈(160)에 의하여 얻어진 데이터를 출력하기 위한 데이터 출력모듈(180)을 포함하는 것이 바람직하다.
또한, 데이터 베이스부(200)에 의하여 데이터 베이스화되는 과정은, 증강현실(AR)로 활용 하고자 하는 특정 실제 공간에 관한 정보의 데이터가 비행모듈, GPS 수신모듈 및 영상데이터모듈에 의하여 입력된후, GPS의 값과 고도값이 포함될 수 있는 기준점으로 좌표계와 지도 좌표계 사이의 좌표변환 식을 구하기 위해 사용되는 기준과 관련된 GCP(Ground Control Point)의 데이터(D_gc)가 생성되는 단계(S1 단계); 상기 데이터(D_gc)를 가공하여 기준데이터(포인트클라우드 데이터; D_pc)를 추출하는 단계(S2 단계); 추출된 기준데이터(D_pc)를 통하여 좌표정보 데이터(D_co)와 고해상도 정사의 이미지 데이터(D_im)를 추출하는 단계(S3 단계); 및 추출된 좌표정보 데이터(D_co)와 이미지 데이터(D_im)를 재가공하여 대용량의 고해상도 이미지인 TIFF 파일을 복수개의 영역별로 분리하여 저용량의 타일맵 소스화시키며, 그와 동시에 수치 표면화 데이터인 DSM 데이터(D_sm)를 추출하는 단계(S4 단계)를 포함하는 것이 바람직하다.
또한, 작업자 단말기(300), 관리자 단말기(500) 및 중앙처리 시스템(200)들 사이에 빠른 데이터 송수신이 가능하도록 하기 위하여 DSM 데이터(D_sm)를 레이어(Layer)별로 구성하도록 마이닝을 거쳐 메모리(280)에 저장하는 단계(S5 단계)를 더 포함하는 것이 바람직하다.
또한, 플랫폼 활용을 위한 공간정보에 관한 플랫폼 데이터(D_fl)의 구성을 완료하는 단계(S6 단계)를 더 포함하는 것이 바람직하다.
따라서 본 발명에 의하면 사용자가 디바이스를 통하여 현실세계를 바라보았을 때 증강현실(AR) 기술을 통하여 눈으로 보고 있는 실제 위치와 함께 좌표가 정확히 정합된 가공된 데이터 정보가 동시에 제공될 수 있으며, 사용자는 제공된 정보를 확인함과 동시에 사용자의 인터페이스를 통하여 새로운 데이터를 실시간으로 생성하여 정확한 좌표위에 기입할 수 있도록 하여 사용자와 시스템 간 양방향 데이터 입력 및 수신이 가능하도록 할 수 있다.
도 1은 본 발명의 바람직한 실시예에 따른 드론공간정보를 활용한 양방향 증강현실 플랫폼의 개략적인 블록도이다.
도 2는 본 발명의 바람직한 실시예에 따른 드론공간정보를 활용한 양방향 증강현실 플랫폼에 있어서 데이터베이스화의 상세 플로우 차트이다.
도 3은 본 발명의 바람직한 실시예에 따른 드론공간정보를 활용한 양방향 증강현실 플랫폼에 있어서 서비스화의 상세 플로우 차트이다.
도 4는 본 발명의 바람직한 실시예에 따른 드론공간정보를 활용한 양방향 증강현실 플랫폼의 사용 적용 예시를 나타낸 도면이다.
이하, 첨부된 도면을 참조하면서 본 발명의 바람직한 실시예에 따른 드론공간정보를 활용한 양방향 증강현실 플랫폼에 대하여 상세히 설명하기로 한다.
도 1은 본 발명의 바람직한 실시예에 따른 드론공간정보를 활용한 양방향 증강현실 플랫폼의 개략적인 블록도이며, 도 2은 본 발명의 바람직한 실시예에 따른 드론공간정보를 활용한 양방향 증강현실 플랫폼에 있어서 데이터베이스화의 상세 플로우 차트이며, 도 3은 본 발명의 바람직한 실시예에 따른 드론공간정보를 활용한 양방향 증강현실 플랫폼에 있어서 서비스화의 상세 플로우 차트이며, 도 4는 본 발명의 바람직한 실시예에 따른 드론공간정보를 활용한 양방향 증강현실 플랫폼의 사용 적용 예시를 나타낸 도면이다.
도 1 내지 도 3에 도시된 바와 같이, 본 발명의 바람직한 실시예에 따른 드론공간정보를 활용한 양방향 증강현실 플랫폼에 의하면, GPS 데이터와 항공 영상의 이미지에 관한 데이터를 출력하기 위한 항공 영상입력부(100), 항공 영상입력부(100)에 의하여 얻어진 데이터에 대하여 신속한 데이터 송수신이 가능하도록 하기 위하여 DSM 데이터(D_sm)를 레이어(Layer)별로 구성하도록 마이닝을 거쳐 메모리(280)에 저장하며 플랫폼 활용을 위한 공간정보에 관한 플랫폼 데이터(D_fl)를 구성하기 위한 데이터 베이스부(200), 데이터 베이스부(200)의 메모리(280)에 저장된 플랫폼 데이터(D_fl)에 기반하여 공간에 관한 공간정보의 데이터를 생성하여 입력하기 위한 작업자 단말기(300), 및 관리자가 원하는 특정 지역의 특정 위치의 데이터를 입력하기 위한 관리자 단말기(500)를 포함한다. 이 때, 작업자 단말기(300)와 중앙 처리부(400) 사이에는 쌍방향 통신이 가능하도록 하기 위한 중앙 처리부(400)를 더 포함하는 것이 바람직하다.
항공 영상입력부(100)는 비행모듈(120), GPS 수신모듈(140), 비행을 통하여 획득되는 영상데이터를 제공하기 위한 영상데이터모듈(160), 및 GPS 수신모듈(140)과 영상데이터모듈(160)에 의하여 얻어진 데이터를 출력하기 위한 데이터 출력모듈(180)을 포함한다. 비행모듈(120)은 드론으로 이루어지는 것이 바람직하다.
데이터 베이스부(200)는 항공 영상입력부(100)에 의하여 얻어진 대용량의 고해상도 이미지인 TIFF 파일을 복수개의 영역별로 분리하여 저용량의 타일맵 소스화시키며, 그와 동시에 수치 표면화 데이터인 DSM 데이터(D_sm)를 추출한 후 증강현실 디바이스(100)와 중앙처리 시스템(200) 사이에 빠른 데이터 송수신이 가능하도록 하기 위하여 DSM 데이터(D_sm)를 레이어(Layer)별로 구성하도록 마이닝을 거쳐 메모리(280)에 저장하며, 플랫폼 활용을 위한 공간정보에 관한 플랫폼 데이터(D_fl)을 구성한다.
드론공간정보를 활용한 양방향 증강현실 플랫폼에 있어서, 공간정보를 데이터 베이스화하는 과정은 다음과 같다.
먼저, 도 2에 도시된 바와 같이, 먼저, 증강현실(AR)로 활용 하고자 하는 특정 실제 공간에 관한 정보, 예를 들면 특정 공간의 시각적 정보와 공간적 정보에 관한 데이터를 무인항공기의 비행을 통하여 입력받는다. 이 때, GPS 수신을 통하여 무인항공기의 지상 기준점의 데이터를 동시에 생성하여 GPS 정보, 예를 들면 2D 좌표와 고도에 관한 정보의 데이터(D_st)를 출력한다(S1 단계). 이러한 과정을 거쳐 데이터 취득시 GPS의 값과 고도값이 포함될 수 있는 기준점으로 좌표계와 지도 좌표계 사이의 좌표변환 식을 구하기 위해 사용되는 기준과 관련된 GCP(Ground Control Point)의 데이터(D_gc)를 생성한다.
이후, 상기 단계를 통해 생성된 데이터(D_gc)를 가공하여 기준데이터(포인트클라우드 데이터; D_pc)를 추출한다(S2 단계).
이후, 추출된 기준데이터(D_pc)를 통하여 좌표정보 데이터(D_co)와 고해상도 정사의 이미지 데이터(D_im)를 추출한다(S3 단계).
이후, 추출된 좌표정보 데이터(D_co)와 이미지 데이터(D_im)를 재가공하여 대용량의 고해상도 이미지인 TIFF 파일을 복수개의 영역별로 분리하여 저용량의 타일맵 소스화시키며, 그와 동시에 수치 표면화 데이터인 DSM 데이터(D_sm)를 추출한다(S4 단계).
이후, 작업자 단말기(300), 관리자 단말기(500) 및 중앙처리 시스템(200)들 사이에 빠른 데이터 송수신이 가능하도록 하기 위하여 DSM 데이터(D_sm)를 레이어(Layer)별로 구성하도록 마이닝을 거쳐 메모리(280)에 저장한다(S5 단계).
이후, 플랫폼 활용을 위한 공간정보에 관한 플랫폼 데이터(D_fl)의 구성을 완료한다(S6 단계). 여기서, 플랫폼 데이터(D_fl)는 위도와 경도 값을 갖는 2D 지도 데이터와 해발고도 기준의 높이 값의 데이터를 포함한다.
작업자 단말기(300)는 데이터 베이스부(200)의 메모리(280)에 저장된 플랫폼 데이터(D_fl)에 기반하여 공간에 관한 공간정보의 데이터를 생성한다. 공간정보의 데이터는 증강현실(AR)을 통해 확인 할 수 있는 2D 오브젝트, 텍스트 및 3D오브젝트로 이루어진다. 한편, 사용자는 가상증강된 현실을 체험하기 위한 디바이스로 이루어진 작업자 단말기(300)는 카메라를 통해 바라보는 실세계와 데이터 베이스부(200)의 메모리(280)에 저장된 실세계의 공간정보를 기준으로 정합된 공간에 관한 정보를 제공한다. 이 때, 정합되는 데이터는 증강현실(AR)을 통해 확인 할 수 있는 2D 오브젝트, 텍스트 및 3D오브젝트 등이 포함될 수 있으며, 상기 데이터를 실제 위치와 정합하여 노출할 수 있도록 하기 위하여 항공 영상입력부(100)의 데이터 출력모듈(180)로부터 출력된 위치 기준값의 데이터를 포함할 수 있다.
관리자 단말기(500)는 관리자가 원하는 특정 지역의 특정 위치의 데이터를 입력할 수 있으며, 그에 따라 위도, 경도 및 고도를 기준으로 실세계의 정확한 위치와 일치시킬 수 있으며, 특정 작업자의 대상 처리 데이터 입력하여 정확한 위치를 지정하게 할 수 있다. 이와 같이 정확한 위치 지정의 입력에 의하여 작업자 단말기(300)의 작업자(사용자)는 관리자 단말기(500)에 의하여 입력된 데이터를 증강현실(AR)을 통하여 확인하게 될 수 있다.
한편, 작업자는 관리자 단말기(500)로부터 입력된 데이터가 작업 또는 처리하여야 할 정보일 경우 작업자 단말기(300)를 통하여 중앙 처리부(400)를 매개하여 수신완료 피드백을 줄 수 있도록 하며, 추가 데이터 기입이 필요한 경우 중앙 처리부(400)를 통해 정보를 입력한다.
이러한 과정을 거처 관리자는 관리자 단말기(500)를 통하여 작업자(사용자)의 진행 상황을 파악할 수 있다.
도 4에 있어서 E-1은 지상 위경도 값 기준 데이터 입력시 노출 데이터의 정합이 부정확하게 이루어지는 것을 나타내는 것으로서 예를 들어 건물의 10층 동쪽 4번째 창문에 균열이 발생 한 경우 관리자 또는 현장의 사용자 모두 건물의 동쪽 창문의 위치는 파악 할 수 있으나 10층의 높이 정보를 정확하게 입력 할 수 없다는 경우를 나타내며, E-2는 E-1의 정확한 정보 접합의 어려움을 해결 할 수 있는 고도 데이터의 활용의 예로서, 실제 지상 위경도 및 고도값 기준 데이터 입력시 노출 데이터는 정확하게 일치하여 접합이 가능한 경우를 나타낸다.
100: 항공 영상입력부
120: 비행 모듈
140: GPS 수신모듈
160: 영상데이터모듈
180; 데이터 출력모듈
200: 데이터 베이스부
220: 기준데이터 추출모듈
240: 이미지데이터 추출모듈
260: DSM데이터 추출모듈
280: 메모리
300: 작업자 단말기
400: 중앙 처리부
500: 관리자 단말기

Claims (6)

  1. 삭제
  2. 삭제
  3. 삭제
  4. GPS 데이터와 항공 영상의 이미지에 관한 데이터를 출력하기 위한 항공 영상입력부(100);
    공간정보에 관한 플랫폼 데이터(D_fl)를 구성하기 위한 데이터 베이스부(200);
    데이터 베이스부(200)의 메모리(280)에 저장된 플랫폼 데이터(D_fl)에 기반하여 공간에 관한 공간정보의 데이터를 생성하여 입력하기 위한 작업자 단말기(300), 및 관리자가 원하는 특정 지역의 특정 위치의 데이터를 입력하기 위한 관리자 단말기(500)를 포함하며,
    데이터 베이스부(200)에 의하여 데이터 베이스화되는 과정은;
    증강현실(AR)로 활용 하고자 하는 특정 실제 공간에 관한 정보의 데이터가 비행모듈, GPS 수신모듈 및 영상데이터모듈에 의하여 입력된후, GPS의 값과 고도값이 포함될 수 있는 기준점으로 좌표계와 지도 좌표계 사이의 좌표변환 식을 구하기 위해 사용되는 기준과 관련된 GCP(Ground Control Point)의 데이터(D_gc)가 생성되는 단계(S1 단계);
    상기 데이터(D_gc)를 가공하여 기준데이터(포인트클라우드 데이터; D_pc)를 추출하는 단계(S2 단계);
    추출된 기준데이터(D_pc)를 통하여 좌표정보 데이터(D_co)와 고해상도 정사의 이미지 데이터(D_im)를 추출하는 단계(S3 단계); 및
    추출된 좌표정보 데이터(D_co)와 이미지 데이터(D_im)를 재가공하여 대용량의 고해상도 이미지인 TIFF 파일을 복수개의 영역별로 분리하여 저용량의 타일맵 소스화시키며, 그와 동시에 수치 표면화 데이터인 DSM 데이터(D_sm)를 추출하는 단계(S4 단계)를 포함하는 것을 특징으로 하는 드론공간정보를 활용한 양방향 증강현실 플랫폼.
  5. 제4항에 있어서, 작업자 단말기(300), 관리자 단말기(500) 및 중앙처리 시스템(200)들 사이에 빠른 데이터 송수신이 가능하도록 하기 위하여 DSM 데이터(D_sm)를 레이어(Layer)별로 구성하도록 마이닝을 거쳐 메모리(280)에 저장하는 단계(S5 단계)를 더 포함하는 것을 특징으로 하는 드론공간정보를 활용한 양방향 증강현실 플랫폼.
  6. 제5항에 있어서, 플랫폼 활용을 위한 공간정보에 관한 플랫폼 데이터(D_fl)의 구성을 완료하는 단계(S6 단계)를 더 포함하는 것을 특징으로 하는 드론공간정보를 활용한 양방향 증강현실 플랫폼.
KR1020200188800A 2020-12-31 2020-12-31 드론공간정보를 활용한 양방향 증강현실 플랫폼 KR102361776B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200188800A KR102361776B1 (ko) 2020-12-31 2020-12-31 드론공간정보를 활용한 양방향 증강현실 플랫폼
PCT/KR2020/019497 WO2022145549A1 (ko) 2020-12-31 2020-12-31 드론공간정보를 활용한 양방향 증강현실 플랫폼

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200188800A KR102361776B1 (ko) 2020-12-31 2020-12-31 드론공간정보를 활용한 양방향 증강현실 플랫폼

Publications (1)

Publication Number Publication Date
KR102361776B1 true KR102361776B1 (ko) 2022-02-14

Family

ID=80253936

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200188800A KR102361776B1 (ko) 2020-12-31 2020-12-31 드론공간정보를 활용한 양방향 증강현실 플랫폼

Country Status (2)

Country Link
KR (1) KR102361776B1 (ko)
WO (1) WO2022145549A1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190048565A (ko) * 2017-10-31 2019-05-09 용비에이티(주) 드론을 제어하는 방법 및 이를 위한 증강현실 관광 시스템
KR20200076255A (ko) * 2018-12-19 2020-06-29 고등기술연구원연구조합 비행체를 이용한 플랜트 ar 능동제어 시스템

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101606516B1 (ko) * 2015-03-31 2016-03-28 국민대학교산학협력단 무인항공영상을 이용한 수목생장조사 시스템 및 그 방법
KR20180070070A (ko) * 2016-12-16 2018-06-26 강원대학교산학협력단 무인항공기를 이용한 침수흔적도 작성 시스템 및 방법
KR101933216B1 (ko) * 2017-06-01 2018-12-27 충남대학교산학협력단 드론과 공간정보를 이용한 하천지형정보 생성 방법
KR102118802B1 (ko) * 2018-10-29 2020-06-26 건국대학교 산학협력단 무인 항공기를 이용한 하천 건천화 모니터링 방법 및 시스템
KR102154950B1 (ko) * 2020-01-30 2020-09-10 주식회사 디지털커브 무인 비행체에 의해 촬영된 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법 및 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190048565A (ko) * 2017-10-31 2019-05-09 용비에이티(주) 드론을 제어하는 방법 및 이를 위한 증강현실 관광 시스템
KR20200076255A (ko) * 2018-12-19 2020-06-29 고등기술연구원연구조합 비행체를 이용한 플랜트 ar 능동제어 시스템

Also Published As

Publication number Publication date
WO2022145549A1 (ko) 2022-07-07

Similar Documents

Publication Publication Date Title
Verykokou et al. UAV-based 3D modelling of disaster scenes for Urban Search and Rescue
US20150243073A1 (en) Systems and Methods for Refining an Aerial Image
Erenoglu et al. Accuracy assessment of low cost UAV based city modelling for urban planning
Sánchez Archaeological LiDAR in Italy: Enhancing research with publicly accessible data
Kim et al. Data management framework of drone-based 3D model reconstruction of disaster site
KR102361776B1 (ko) 드론공간정보를 활용한 양방향 증강현실 플랫폼
Tse et al. 3D city modelling from LIDAR data
Chudý et al. The application of civic technologies in a field survey of landslides
Gbopa et al. Unmanned Aerial Vehicles for Three‑dimensional Mapping and Change Detection Analysis
Erenoglu Uav for 3d morphological mapping applications: A case study of koru mining site, Canakkale, NW Turkey
Mokhtar et al. Assessing UAV landslide mapping using unmanned aerial vehicle (UAV) for landslide mapping activity
Scianna et al. Main features of a 3D GIS for a monumental complex with an historical-cultural relevance
Capolupo et al. Integration of terrestrial laser scanning and UAV-SFM technique to generate a detailed 3D textured model of a heritage building
Thuy et al. Cloud-based 3d data processing and modeling for uav application in disaster response and construction fields
Chen et al. Generate 3D triangular meshes from spliced point clouds with cloudcompare
Magtalas et al. Georeferencing UAS derivatives through point cloud registration with archived lidar datasets
Holden et al. Laser scanning for the documentation and management of heritage sites within the Emirate of Fujairah, United Arab Emirates
Rădulescu et al. Synthetic analysis of geoinformatics technologies for preservation of cultural heritage, methodological approach
Bonali et al. Selfie Drones for 3D Modelling, Geological Mapping and Data Collection: Key Examples from Santorini Volcanic Complex, Greece.
KR100782152B1 (ko) 3차원 수치지도를 제작하기 위하여 항공사진 db로부터건물의 3차원 데이터를 획득하는 방법
Allobunga et al. The mined volume calculation in the traditional mining area by using the Unmanned Aerial Vehicle (UAV) approach in the observation area of CV. Sinergi Karya Solutif, Patikraja district, Banyumas regency, East Java province, Indonesia
WO2015170328A1 (en) System and method for automatically generating cad field sketches and automatic validation thereof
Cristea et al. Applications of terrestrial laser scanning and GIS in forest inventory
Charalampopoulou et al. 3D city model using LiDAR and digital color imagery in Kalochori region
Juhász et al. Automatic selection of potential WWII bombed areas by using spatial data

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant