KR102144268B1 - 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알(VR, Virtual Reality)용 쓰리디 맵 제작 장치 및 방법 - Google Patents

무인 관측 수단에 의해 촬영된 영상을 이용한 브이알(VR, Virtual Reality)용 쓰리디 맵 제작 장치 및 방법 Download PDF

Info

Publication number
KR102144268B1
KR102144268B1 KR1020180076547A KR20180076547A KR102144268B1 KR 102144268 B1 KR102144268 B1 KR 102144268B1 KR 1020180076547 A KR1020180076547 A KR 1020180076547A KR 20180076547 A KR20180076547 A KR 20180076547A KR 102144268 B1 KR102144268 B1 KR 102144268B1
Authority
KR
South Korea
Prior art keywords
image
module
mapping data
temporary
regular
Prior art date
Application number
KR1020180076547A
Other languages
English (en)
Other versions
KR20200003588A (ko
Inventor
임미정
Original Assignee
주식회사 유니디자인경영연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 유니디자인경영연구소 filed Critical 주식회사 유니디자인경영연구소
Priority to KR1020180076547A priority Critical patent/KR102144268B1/ko
Publication of KR20200003588A publication Critical patent/KR20200003588A/ko
Application granted granted Critical
Publication of KR102144268B1 publication Critical patent/KR102144268B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 외부에서 획득한 쓰리디(3D, 3 dimension) 매핑(mapping) 데이터(data)를 바탕으로 브이알(VR, Virtual Reality)용 쓰리디 맵을 제작하는 방법 및 장치에 관한 발명으로, 더욱 상세하게는 외부로부터 쓰리디 매핑 데이터를 수신한 이후에, 브이알 환경에 적합한 데이터의 구현을 위해 다면체의 간략화 작업 및 정규 객체의 폴리곤 수를 제어하는 일련의 과정을 자동화하여 브이알 용 쓰리디 맵 구현 작업의 효율성을 향상시킨 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알 용 쓰리디 맵 제작 장치 및 방법에 관한 것이다.

Description

무인 관측 수단에 의해 촬영된 영상을 이용한 브이알(VR, Virtual Reality)용 쓰리디 맵 제작 장치 및 방법 {A device for producing a 3D map for virtual reality using an image photographed by an unattended observation means and the method thereof}
본 발명은 외부에서 획득한 쓰리디(3D, 3 dimension) 매핑(mapping) 데이터(data)를 바탕으로 브이알(VR, Virtual Reality)용 쓰리디 맵을 제작하는 방법 및 장치에 관한 발명으로, 더욱 상세하게는 외부로부터 쓰리디 매핑 데이터를 수신한 이후에, 브이알 환경에 적합한 데이터의 구현을 위해 다면체의 간략화 작업 및 정규 객체의 폴리곤 수를 제어하는 일련의 과정을 자동화하여 브이알용 쓰리디 맵 구현 작업의 효율성을 향상시킨 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치 및 방법에 관한 것이다.
유인 항공기나 지상 레이저(razer) 스캐닝(scanning)을 이용한 쓰리디 맵핑 시스템(system)의 활용은 최근 많은 산업에 적용되고 있다. 이와 관련하여 드론(무인항공기)이 상용화됨에 따라 기존의 국내 항공사진측량 및 항공사진영상 업체나 국가 기관에서 드론(무인항공기)을 이용한 쓰리디 맵핑 시스템을 활용하는 사례가 점차적으로 늘어나고 있다 .
드론(무인항공기)을 이용한 쓰리디 맵핑 영상 취득 기술의 경우 사람이 물리적으로 접근하기 어려운 장소에 대한 정보를 손쉽게 취득할 수 있다는 장점이 있으며, 이를 바탕으로 재난, 도시재생사업 등 다양한 분야에 활용되고 있다.
그러나, 드론(무인항공기)을 이용한 쓰리디 맵핑 영상 취득 기술은 드론(무인항공기)에서 촬영되는 영상이 다수의 폴리건들로 이루어진 하나의 객체로 인식되고 있다. 폴리곤이란 쓰리디 컴퓨터 그래픽에서 면(점, 선, 면 할때의 그 면)의 조합으로 물체를 표현할 때의 각 요소를 말한다. 폴리곤의 수는 컴퓨터 그래픽이 정교하게 표현되는 정도에 비례한다. 즉 폴리곤의 수가 많을 수록 더욱 정교한 그래픽이 구현되며, 폴리곤의 수가 낮아질 수록 정교한 정도가 낮아진다. 또한, 폴리곤 수는 데이터 용량에 비례한다. 따라서, 폴리곤 수가 많을 수록 더욱 많은 데이터의 처리 속도가 요구된다. 현재 드론(무인항공기)를 이용한 쓰리디 맵핑 영상 취득 기술은 다수의 폴리곤들로 이루어진 하나의 객체로 인식되기 때문에 폴리곤의 편집 작업에 있어서 어려움이 있었다.
또한, 드론(무인항공기)을 이용하여 취득한 쓰리디 맵핑 데이터를 브이알(VR, Virtual Reality)용으로 구현하는 과정은 객체를 표현하는 폴리곤(polygon)수가 더욱 많이 요구되기 때문에 쓰리디 맵핑 데이터의 렌더링(rendering) 기술에 있어서 효율적인 데이터 관리 및 즉각적인 네트워크 전송 어려움이 있었다.
이에 더하여, 드론(무인항공기)를 이용하여 쓰리디 맵핑 영상의 취득시 쓰리디 맵핑 데이터는 상부에서 촬영되기 때문에 드론(무인항공기)은 건축물들의 측면 영상을 정확하게 수집하지 못하는 문제가 있다. 따라서, 정확한 브이알용 쓰리디 맵핑 데이터 구현 작업에 어려움이 있었다. 이와 같은 문제점들을 보완하기 위해 드론(무인항공기)을 이용하여 쓰리디 맵핑 영상을 취득한 이후에 브이알용 쓰리디 맵핑 데이터 처리에 있어서 효율적인 방안을 연구해야 할 필요가 있었다.
본 발명은 상기와 같은 문제점을 해결하기 위해 안출 된 것으로, 쓰리디 맵핑 영상을 취득한 이후에 브이알 제작 환경에 적합한 쓰리디 맵핑 데이터 관리를 위한 경량화 처리 내지 정규 객체 추출과정까지 일련의 과정을 자동화하여 브이알용 쓰리디 맵핑 과정의 효율성을 향상시킨 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치 및 방법을 제공하고자 한다.
또한, 상기 쓰리디 맵핑 데이터를 취득하는 과정에 있어서, 효율적인 데이터 수정 및 관리가 용이한 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치 및 방법을 제공하고자 한다
또한, 쓰리디 맵핑 데이터의 취득 과정에 있어서 쓰리디 맵핑 데이터의 왜곡 현상을 보정하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치 및 방법을 제공하고자 한다.
또한, 쓰리디 맵핑 데이터 정규 객체에 상응하는 위치 정보와 거리 영상 정보를 제공하여 후처리 작업시 작업자의 편의성을 제공하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치 및 방법을 제공하고자 한다.
상기한 목적을 달성하기 위해, 본 발명에서는 쓰리디(3D, 3 dimension) 맵핑(mapping) 데이터(data)가 수신되는 단계; 상기 쓰리디 맵핑 데이터로부터 임시 객체가 추출되는 단계;
상기 임시 객체가 정규 객체로 변환되는 단계; 상기 정규 객체가 상기 쓰리디 매핑 데이터와 대응되는 맵(map) 상에 배치되는 단계; 가 포함되는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알(VR, Virtual Reality)용 쓰리디 맵 제작 방법을 제공하고자 한다.
또한, 상기 쓰리디 맵핑 데이터로부터 임시 객체가 추출되는 단계는 상기 쓰리디 맵핑 데이터로부터 정사 영상 이미지가 생성되는 단계; 상기 정사 영상 이미지로부터 외곽선이 추출되는 단계; 상기 외곽선이 벡터(vector) 처리되어 임시 영역이 형성되는 단계; 상기 임시 영역을 상기 쓰리디 맵핑 데이터의 높이 정보를 기반으로 연장하여 임시 객체를 생성하는 단계;를 더 포함하여 이루어지는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법을 제공하고자 한다.
또한, 상기 쓰리디 맵핑 데이터로부터 정사 영상 이미지가 생성되는 단계 이후에, 상기 수직 방향 이미지가 블러(blur) 처리되는 단계;가 더 포함되는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법을 제공하고자 한다.
또한, 상기 수직 방향 이미지가 블러 처리되는 단계는 소벨(soble) 필터(filter)를 이용하여 이루어지는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법을 제공하고자 한다.
또한, 쓰리디 매핑 데이터가 수신되는 단계 이후에, 상기 쓰리디 맵핑 데이터의 다면체가 간략화 처리되는 단계;가 더 포함되는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법을 제공하고자 한다.
또한, 상기 쓰리디 맵핑 데이터의 다면체가 간략화 처리되는 과정이 진행되는 단계는, 정점 제거 방법, 메쉬(mesh) 축약 방법, 메쉬 최적화 방법, 군집화 방법, 리 타일링(re-tiling) 방법, 삼각 축약 방법, 엣지(edge) 코스트(cost) 함수 방법 중 어느 하나 이상을 이용하는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법을 제공하고자 한다.
또한, 상기 쓰리디 맵핑 데이터로부터 임시 객체가 추출되는 단계는 상기 쓰리디 맵핑 데이터에서 지평선 섹터(sector)가 인식되는 단계; 상기 지평선 섹터를 기준으로 기설정된 높이 이상 돌출된 영역을 구비한 섹터가 상기 임시 객체로 인식되어 추출되는 단계;로 이루어지는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법을 제공하고자 한다.
또한, 상기 쓰리디 맵핑 데이터에서 지평선 섹터가 인식되는 단계는 상기 쓰리디 맵핑 데이터에서 기설정된 면적 넓이 당 폴리곤(polygon) 및/또는 버텍스 수가 기설정된 수 이하인 영역이 지평면 섹터로 인식됨으로써 이루어디는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법을 제공하고자 한다.
또한, 상기 임시 객체가 정규 객체로 변환되는 단계는 보유 객체 풀(pull) 중 상기 임시 객체와 매칭되는 매칭 객체가 있는지 여부가 검색되는 단계; 상기 매칭 객체가 검색되는 경우, 상기 매칭 객체가 상기 정규 객체로 선택되는 단계; 상기 매칭 객체가 검색되지 않는 경우, 상기 임시 객체가 상기 정규 객체로 선택되고 보유 객체 풀에 저장되는 단계;로 구성되는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법을 제공하고자 한다.
또한, 보유 객체 풀 중 상기 임시 객체와 매칭되는 매칭 객체가 있는지 여부가 검색되는 단계는 보유 객체 풀에서 상기 임시 객체와 유사도가 기설정된 수치 이상인 객체들 중 가장 높은 수치를 가지는 객체가 매칭 객체로 검색됨으로써 이루어지는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법을 제공하고자 한다.
또한, 상기 유사도는 상기 임시 객체와 상기 보유 객체 풀에 저장된 객체 사이의 폴리곤 및/또는 버텍스(vertex) 정보를 대조하여 판단되는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법을 제공하고자 한다.
또한, 상기 임시 객체가 정규 객체로 변환되는 단계는 교사 학습 알고리즘(algorithm), 비교사 학습 알고리즘, 강화 학습 알고리즘, 신경망 알고리즘, 유전자 알고리즘, 의사 결정 트리 알고리즘 중 어느 하나의 방법을 사용하여 상기 임시 객체가 상기 정규 객체로 변환되는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법을 제공하고자 한다.
또한, 상기 정규 객체가 상기 쓰리디 맵핑 데이터와 대응되는 맵 상에 배치되는 단계 이후에, 텍스처링(texturing) 데이터가 상기 정규 객체의 외면에 제공되는 단계;가 더 포함되는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법을 제공하고자 한다.
또한, 상기 텍스처링 데이터가 상기 정규 객체의 외면에 제공되는 단계는 상기 정규 객체에 대응되는 실사 이미지가 수신되는 단계; 상기 실사 이미지로부터 상기 텍스처링 데이터가 추출되는 단계; 상기 텍스처링 데이터가 상기 정규 객체의 외면의 크기에 맞도록 조절되어 부착되는 단계;로 구성되어 이루어지는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법을 제공하고자 한다.
또한, 상기 정규 객체가 상기 쓰리디 매핑 데이터와 대응되는 맵 상에 배치되는 단계 이후에, 상기 정규 객체의 위치 정보를 이용하여 텍스처링 참조 정보가 제공되는 단계;가 더 포함되는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법을 제공하고자 한다.
또한, 상기 정규 객체의 위치 정보를 이용하여 텍스처링 참조 정보가 제공되는 단계는 상기 정규 객체의 위치 정보가 거리 영상 제공 서버(server)로 전송되는 단계; 상기 거리 영상 제공 서버로부터 상기 정규 객체의 위치 정보에 대응되는 거리 영상이 수신되는 단계; 상기 거리 영상이 상기 텍스처링 참조 정보로 제공되는 단계;로 구성되는 것을 특징으로 하는 무인 관측 수단에 의하여 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법을 제공하고자 한다.
또한, 매핑 데이터 획득 모듈이 쓰리디 맵핑 데이터를 수신하는 단계; 상기 객체화 처리 모듈이 쓰리디 맵핑 데이터로부터 임시 객체를 추출하는 단계; 상기 정규 객체 변환 모듈이 상기 임시 객체를 정규 객체로 변환하는 단계; 브이알 맵 생성 모듈이 쓰리디 맵핑 데이터에 대응되는 맵 상에 상기 정규 객체를 배치하는 단계; 를 포함하는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법을 제공하고자 한다.
또한, 상기 객체화 처리 모듈이 상기 쓰리디 맵핑 데이터로부터 임시 객체를 추출하는 단계는
상기 정사 영상 생성 모듈이 상기 쓰리디 맵핑 데이터로부터 정사 영상 이미지를 생성하는 단계; 외곽선 추출 모듈이 상기 정사 영상 이미지로부터 외곽선을 추출하는 단계; 임시 영역 형성 모듈이 상기 외곽선을 벡터 처리하여 임시 영역을 형성하는 단계; 임시 객체 생성 모듈 상기 임시 영역을 상기 쓰리디 맵핑 데이터의 높이 정보를 기반으로 연장하여 임시 객체를 생성하는 단계;를 더 포함하여 이루어지는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법을 제공하고자 한다.
또한, 상기 정사 영상 생성모듈이 상기 쓰리디 맵핑 데이터로부터 정사 영상 이미지를 생성하는 단계 이후에, 전처리 모듈이 상기 정사 영상 이미지를 블러 처리하는 단계;가 더 포함하는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법을 제공하고자 한다.
또한, 전처리 모듈이 상기 정사 영상 이미지를 블러 처리하는 단계는 소벨(sobel) 필터(filter)를 이용하여 이루어지는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법을 제공하고자 한다.
또한, 맵핑 데이터 획득 모듈이 쓰리디 매핑 데이터를 수신하는 단계 이후에, 간략화 처리 모듈이 기설정된 방법에 의해 쓰리디 맵핑 데이터의 다면체를 다면체 간략화 처리하는 단계;
를 더 포함하는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법을 제공하고자 한다.
또한, 간략화 처리 모듈이 기설정된 방법에 의해 쓰리디 맵핑 데이터의 다면체를 다면체 간략화 처리하는 단계는, 정점 제거 방법, 메쉬 축약 방법, 메쉬 최적화 방법, 군집화 방법, 리 타일링 방법, 삼각 축약 방법, 엣지 코스트 함수 방법 중 어느 하나 이상을 이용하는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법을 제공하고자 한다.
또한, 상기 객체화 처리 모듈이 쓰리디 맵핑 데이터로부터 임시 객체를 추출하는 단계는 지평선 정보 인식 모듈이 쓰리디 맵핑 데이터상의 지평선 정보를 인식하는 단계; 임시 객체 섹터 추출 모듈이 상기 지평선 섹터를 기준으로 기설정된 높이 이상 돌출된 영역에 포함되는 섹터를 상기 임시 객체로 인식하여 추출하는 단계; 로 이루어지는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법을 제공하고자 한다.
또한, 상기 객체화 처리 모듈이 쓰리디 맵핑 데이터상의 지평선 정보를 인식하는 단계는, 상기 쓰리디 맵핑 데이터에서 기설정된 면적 넓이 당 폴리곤 및/또는 버텍스 수가 기설정된 수 이하인 영역을 지평면 섹터로 인식함으로써 이루어지는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법을 제공하고자 한다.
또한, 상기 정규 객체 변환 모듈 이 상기 임시 객체를 정규 객체로 변환하는 단계는 상기 객체 데이터 베이스 모듈에 저장된 보유 객체 풀 중 상기 임시 객체와 매칭되는 매칭 객체가 있는지 여부를 검색하는 단계; 상기 매칭 객체가 검색되는 경우, 상기 정규 객체 변환 모듈이 상기 매칭 객체를 상기 정규 객체로 선택하는 단계; 상기 매칭 객체가 검색되지 않는 경우, 상기 정규 객체 변환 모듈이 상기 임시 객체를 상기 정규 객체로 선택하고 보유 객체 풀에 저장하는 단계;로 구성되는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법을 제공하고자 한다.
또한, 상기 객체 데이터 베이스 모듈에 저장된 보유 객체 풀 중 상기 임시 객체와 매칭되는 매칭 객체가 있는지 여부를 검색하는 단계는 보유 객체 풀에서 상기 임시 객체와 유사도가 기설정된 수치 이상인 객체들 중 가장 높은 수치를 가지는 객체가 매칭 객체를 검색함으로써 이루어지는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법을 제공하고자 한다.
또한, 상기 유사도는 상기 임시 객체와 상기 보유 객체 풀에 저장된 객체 사이의 폴리곤및/또는 버텍스 정보를 대조하여 판단하는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법을 제공하고자 한다.
또한, 상기 정규 객체 변환 모듈 이 상기 임시 객체를 정규 객체로 변환하는 단계는 교사 학습 알고리즘, 비교사 학습 알고리즘, 강화 학습 알고리즘, 신경망 알고리즘, 유전자 알고리즘, 의사 결정 트리 알고리즘 중 어느 하나의 방법을 사용하여 상기 임시 객체가 상기 정규 객체로 변환하는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법을 제공하고자 한다.
또한, 브이알 맵 생성 모듈이 쓰리디 맵핑 데이터에 대응되는 맵 상에 상기 정규 객체를 배치하는 단계 이후에, 텍스처링 데이터 모듈이 텍스처링 데이터를 상기 정규 객체의 외면에 제공하는 단계;를 더 포함하는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법을 제공하고자 한다.
또한, 상기 텍스처링 데이터 모듈이 텍스처링 데이터를 상기 정규 객체의 외면에 제공하는 단계는 상기 텍스처링 데이터 모듈이 상기 정규 객체에 대응되는 실사 이미지가 수신되는 단계; 상기 텍스처링 데이터 모듈이 상기 실사 이미지로부터 상기 텍스처링 데이터를 추출하는 단계; 상기 텍스처링 데이터 모듈이 상기 텍스처링 데이터를 상기 정규 객체의 외면의 크기에 맞도록 조절되어 삽입하는 단계;를 구성하는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법을 제공하고자 한다.
또한, 브이알 맵 생성 모듈이 쓰리디 맵핑 데이터에 대응되는 맵 상에 상기 정규 객체를 배치하는 단계 이후에, 참조 자료 제공 모듈이 상기 정규 객체의 위치 정보를 이용하여 텍스처링 참조 정보를 제공하는 단계;를 더 포함하는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법을 제공하고자 한다.
또한, 참조 자료 제공 모듈이 상기 정규 객체의 위치 정보를 이용하여 텍스처링 참조 정보를 제공하는 단계는 거리 영상 제공 서버가 상기 정규 객체의 위치 정보를 수신하는 단계; 상기 거리 영상 제공 서버가 상기 정규 객체의 위치 정보에 대응되는 거리 영상을 전송하는 단계; 상기 참조 자료 제공 모듈이 상기 거리 영상을 상기 텍스처링 참조 정보로 제공하는 단계; 를 더 구성하는 것을 특징으로 하는 무인 관측 수단에 의하여 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법을 제공하고자 한다.
또한, 쓰리디 맵핑 데이터를 수신하는 매핑 데이터 획득 모듈; 상기 쓰리디 맵핑 데이터의 노이즈(noise)를 줄이는 간략화 처리 모듈; 상기 쓰리디 맵핑 데이터로부터 임시 객체를 추출하는 객체화 처리 모듈; 상기 쓰리디 맵핑 데이터에 대응되는 맵 상에 상기 정규 객체를 배치하는 상기 임시 객체를 정규 객체로 변환하는 정규 객체 변환 모듈 ; 상기 임시 객체와 매칭되는 매칭 객체 폴을 보유하는 객체 데이터 베이스 모듈; 상기 쓰리디 맵핑 데이터에 대응되는 맵 상에 정규 객체를 배치하는 브이알 맵 생성 모듈; 을 포함하는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치를 제공하고자 한다.
또한, 상기 쓰리디 맵핑 데이터로부터 정사 영상 이미지를 생성하는 정사 영상 생성 모듈; 상기 정사 영상 이미지로부터 외곽선을 추출하는 외곽선 추출 모듈; 상기 외곽선을 벡터 처리하여 임시 영역을 형성하는 임시 영역 형성 모듈; 상기 임시 영역을 쓰리디 매핑 데이터의 높이 정보를 기반으로 연장하여 임시 객체를 생성하는 임시 객체 생성 모듈; 상기 정사 영상 모듈에서 생성된 상기 정사 영상 이미지를 블러 처리하는 전처리 모듈; 을 더 포함하는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치를 제공하고자 한다.
또한, 기 설정된 방법에 의해 상기 쓰리디 맵핑 데이터의 다면체를 간략화 하는 간략화 처리 모듈; 을 더 포함하는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치를 제공하고자 한다.
또한, 쓰리디 맵핑 데이터상의 지평선 정보를 인식하는 지평선 정보 인식 모듈; 지평선 섹터를 기준으로 기설정된 높이 이상 돌출된 영역을 구비한 섹터를 상기 임시 객체로 인식하여 추출하는 임시 객체 섹터 추출 모듈; 을 더 포함하는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치를 제공하고자 한다.
또한, 상기 정규 객체 변환 모듈은 상기 객체 데이터 베이스 모듈에 저장된 보유 객체 풀중 상기 임시 객체와 매칭되는 매칭 객체를 검색하여 상기 매칭 객체가 검색되는 경우, 상기 정규 객체 변환 모듈이 상기 매칭 객체를 상기 정규 객체로 선택하며 상기 매칭 객체가 검색되지 않는 경우, 상기 정규 객체 변환 모듈이 상기 임시 객체를 상기 정규 객체로 선택하고 보유 객체 풀에 저장하는 구성으로 이루어진 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법을 제공하고자 한다.
또한, 상기 정규 객체의 외면에 텍스처링 데이터를 제공하는 텍스처링 데이터 모듈; 이 더 포함되는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치를 제공하고자 한다.
또한, 상기 텍스처링 데이터 모듈의 텍스처링 데이터는 정규 객체에 대응되는 실사 이미지를 수신한 이후에, 상기 실사 이미지로부터 상기 텍스처링 데이터를 수신하며, 상기 정규 객체의 외면의 크기에 맞도록 조절되어 부착되는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치를 제공하고자 한다.
또한, 상기 정규 객체의 위치 정보를 이용하여 텍스처링 참조 정보를 제공하는 참조 자료 제공 모듈; 을 더 포함하는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치를 제공하고자 한다.
또한, 상기 참고 자료 제공 모듈은 상기 정규 객체에 상응하는 위치 정보를 제공하는 위치 정보 전송 모듈; 상기 정규 객체에 상응하는 거리 영상 정보를 제공하는 거리 영상 수신 모듈; 상기 위치 정규 객체에 상응하는 위치 정보와 거리 영상 정보를 병합하는 참조 영상 병합 모듈; 을 더 포함하는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치를 제공하고자 한다.
본 발명인 무인 관측 수단을 이용한 3D 맵 제작 장치 및 방법에 따르면 다음과 같은 효과가 있다.
첫째, 본 발명에서는 쓰리디 매핑 데이터를 얻는 과정부터 브이알용 쓰리디 맵핑 데이터로 최적화 되는 과정까지 일련의 자동화 과정으로 이루어져 있어 브이알용 쓰리디 맵 제작의 효율성을 향상시키는 효과가 있다.
둘째, 본 발명에서는 지평선 정보 및 높이 정보를 활용하여 임시 객체를 구분할 수 있으며, 나누어 쓰리디 맵핑 데이터의 편집 및 수정을 용이하게 할 수 있는 효과가 있다.
셋째, 본 발명에서는 외부로부터 획득한 쓰리디 매핑 데이터를 브이알 제작환경에 적합하도록 경량화 함으로써 데이터의 저장 공간 절약 및 즉각적인 렌더링(rendering) 작업이 가능한 브이알 영상을 구현할 수 있는 효과가 있다.
넷째, 본 발명에서는 정규 객체에 상응하는 위치 정보와 거리 영상 정보를 수반하는 참고자료 제공 모듈을 사용자에게 제공함으로써 쓰리디 맵핑 데이터의 원활한 편집 및 관리를 용이하게 하는 효과가 있다.
도면 1도는 드론을 이용하여 촬영한 쓰리디 맵핑 영상을 보여주는 도면이다.
도면 2도는 드론을 이용한 쓰리디 맵핑 영상을 확대한 모습을 보여주는 도면이다.
도면 3도는 폴리곤의 수에 따른 그래픽 모델의 모습을 보여주는 도면이다.
도면 4도는 본 가상현실 및 증강현실 구현에 사용되는 장비 중 하나인 에이치엠디(HMD)의 모습을 보여주는 도면이다.
도면 5도는 본 발명에 제1 실시 예에 따른 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치의 모습을 보여주는 도면이다. .
도면 6도는 본 발명의 제1 실시 예에 따른 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치가 구동되는 모습을 보여주는 도면이다.
도면 7도는 본 발명의 제1 실시 예에 따른 쓰리디 맵핑 데이터의 간략화 처리 방법을 나열한 모습을 보여주는 도면이다.
도면 8도는 본 발명의 구성요소인 객체화 처리 모듈의 구성요소를 보여주는 도면이다.
도면 9도는 본 발명의 제1 예에 따라 외곽선 정보가 추출되는 과정부터 임시 객체가 추출되는 과정을 보여주는 도면이다.
도면 10도는 본 발명인 객체화 처리 모듈의 또 다른 구성요소를 보여주는 도면이다.
도면 11도는 본 발명인 객체화 처리 모듈이 또 다른 구성요소를 구비하였을 경우 임시 객체가 추출되는 과정을 보여주는 도면이다.
도면 12도는 본 발명의 제1 실시 예에 따른 정규 객체 변환 과정을 보여주는 도면이다.
도면 13도는 임시 객체가 정규 객체로 변환된 이후에 맵핑 데이터에 대응되는 맵 상에 정규 객체가 배치된 모습을 보여주는 도면이다.
도면 14도는 본 발명의 제1 실시 예에 따른 정규 객체에 매핑 데이터가 제공되는 모습을 보여주는 도면이다.
도면 15도는 본 발명의 제1 실시 예에 따른 정규 텍스처링 데이터가 삽입되는 과정을 보여주는 도면이다.
도면 16도는 본 발명의 제2 실시 예에 따른 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치의 모습을 보여주는 도면이다.
도면 17도는 본 발명의 제2 실시 예에 따른 참고 자료 제공 모듈의 모습을 보여주는 도면이다.
도면 18도는 본 발명의 제2 실시 예에 따른 참조 자료 제공 모듈의 자료 제공 과정을 보여주는 도면이다.
도면 19도는 본 발명의 제3 실시 예에 따른 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치의 모습을 보여주는 도면이다.
이하, 첨부한 도면을 참조하여 본 발명의 실시예들에 대해 상세히 설명한다. 본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시 예들은 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
쓰리디 맵핑 시스템의 활용은 최근 많은 산업에 적용됨에 따라 그 중요성이 커지고 있다. 특히 드론(무인항공기)이 상용화됨에 따라 작업의 효율적인 측면이나 비용적인 측면에서 드론(무인항공기)을 이용한 쓰리디 맵핑 시스템을 활용하는 사례가 점차적으로 늘어나고 있다.
도면 1도는 드론을 이용하여 촬영한 쓰리디 맵핑 영상을 보여주는 도면이다.
드론(무인항공기)를 활용한 쓰리디 맵핑 영상은 촬영되는 맵를 기준으로 높은 고도에서 이미지를 중복 촬영하는 것이 일반적이다. 높은 고도에서 이미지가 촬영될 경우 건축물들의 측면 영상을 정확하게 수집하지 못해 촬영된 영상의 왜곡 현상이 존재할 수 있다. 따라서 촬영된 이미지의 본 모습을 확인할 수 없는 문제가 있었다. 또한, 일반적인 드론(무인항공기)를 활용한 쓰리디 맵핑 영상의 경우 드론(무인항공기)으로 촬영된 전체의 맵을 다수의 폴리곤들로 이루어진 하나의 객체로 인식한다. 드론(무인항공기)로 촬영된 영상을 하나의 객체로 인식할 경우 촬영된 영상의 일부분이 뭉게지는 현상이 두드러지게 나타날 수 있으며, 쓰리디 맵핑 데이터의 후처리 작업시 편집 및 수정이 어렵다는 문제점이 있었다.
도면 2도는 드론을 이용한 쓰리디 맵핑 영상을 확대한 모습을 보여주는 도면이다.
드론(무인항공기)를 활용한 쓰리디 맵핑 영상은 사람이 물리적으로 접근하기 힘든 영상을 취득할 수 있다는 점에서 장점이 있으나 도면 2도에서 보는 바와 같이 촬영된 맵 영상을 확대하였을 왜곡현상이 두드러지게 나타난다는 것을 알 수 있다. 이는 드론(무인항공기) 촬영시 촬영되는 건축물들의 측면을 제대로 촬영하지 못해 촬영되는 물체가 왜곡되어 보이는 현상에 의한 것이다. 통상적으로 드론(무인항공기)를 이용한 쓰리디 맵핑 데이터는 촬영되는 지역의 상부에서 쓰리디 맵핑 데이터를 획득하는 것이 일반적이다. 상부에서 쓰리디 맵핑 데이터를 획득할 경우, 촬영되는 부분의 측면에 해당되는 외면은 충분한 영상을 확보할 수 없다. 따라서, 쓰리디 맵핑 데이터의 후처리 작업시 왜곡된 측면을 보완해 줄 수 있는 후처리 작업이 요구된다.
도면 3도는 폴리곤의 수에 따른 그래픽 모델의 모습을 보여주는 도면이다.
도면 3도에 따른 본 발명의 바람직한 설명을 위해 폴리곤의 수에 따른 모델의 변화를 (A), (B), (C)로 나누어 설명하고자 한다. 도면 3도의 (A)는 폴리곤이 가장 적게 포함된 모델이며, 도면 3도의 (C)는 폴리곤이 가장 많이 포함된 모델이다. 폴리곤이란 쓰리디 컴퓨터 그래픽에서 면(점, 선, 면 할때의 그 면)의 조합으로 물체를 표현할 때의 각 요소를 지칭하는 용어이다. 컴퓨터 그래픽의 정밀도는 폴리곤의 갯수 및 구성에 차이에 따라 쓰리디 그래픽의 품질의 차이가 확연히 달라진다. 예를 들어, 폴리곤의 수가 늘어나면 세밀한 표현이 가능하고, 실시간으로 표현계산을 행하는 컴퓨터의 요구 능력이 높아진다. 그러나, 폴리곤 수가 높아질 수록 데이터의 용량이 증가하며, 컴퓨터에서 처리해야 하는 폴리곤 수가 많아지므로 과부하가 발생할 수 있다. 이에 따라, 도면 (A)의 경우는 도면 (B)와 (C)에 비해 인체가 세밀하게 표현되지는 못한만큼 데이터 요구량이 적게 들 수 있다. 반면, 도면 (C)의 경우 (B)와 (A)에 비해 세밀한 인체의 표현이 가능하지만 세밀하게 표현된 만큼 데이터의 용량을 크게 차지할 수 있다.
이는 도면 (C)에서와 같이 많은 수의 객체를 표현해야 하는 쓰리디 맵핑 데이터 작업에 있어서 원활한 렌더링 작업이 이루어 지지 않게 되므로 쓰리디 맵핑 영상을 이용한 브이알(VR, Virtual Reality)맵을 구현하기 힘들다는 문제점이 있었다. 특히 도시 구현 사업과 같이 많은 수의 객체를 인식해야 하는 작업의 경우 효율적인 쓰리디 맵핑 작업에 한계가 있을 수 있다. 또한, 실시간으로 렌더링되어 실제 그래픽을 체험하는 것 같은 느낌을 주기에는 데이터 처리과정에 있어서 어려움이 있을 수 있다.
도면 4도는 본 가상현실 및 증강현실 구현에 사용되는 장비 중 하나인 에이치엠디의 모습을 보여주는 도면이다.
흔히 가상현실 및 증강현실 구현을 위한 디스플레이(display) 장치로 에이치엠디(HMD, Head Mounted Display)(50)라고 하는 장치가 사용된다. 에이치엠디(50)는 머리에 장착하거나 안경처럼 착용하여 사용하는 모니터의 한 종류이며, 보다 효과적인 가상현실의 구현을 위해 에이치엠디(50)내부에는 가속도 측정기와 중력 감지 장치 등 센서를 이용해 사람의 움직임에 맞춰 화면이 바뀌는 기술을 포함하고 있다. 따라서, 에이치엠디(50)의 사용자는 움직임에 따라 눈앞에 제시되는 영상이 실시간으로 렌더링(rendering)되어 실제로 가상의 맵 혹은 그래픽(graphic)을 체험하는 것 같은 기분을 제공 할 수 있다.
가상현실은 기본적으로 사용자와의 상호작용을 기본 요소로 하며, 카메라 등을 이용한 비 렌더링 영상기술이나 오랜 연산시간을 필요로 하는 기술은 고려할 수 없다. 따라서, 가상현실의 쓰리디 공간 구현은 전적으로 리얼(real) 타임(time) 렌더링 기술에 의존한다. 따라서, 렌더링 과정의 연산시간을 최소화 하기 위해 데이터의 처리 용량 및 전송시간을 줄이는 기술이 요구된다. 따라서, 본 발명은 에이치엠디(50)로 전송되는 데이터 및 렌더링 시간을 단축이 가능하다. 따라서, 보다 현실적인 가상현실이 가능해지는 효과가 있다.
도면 5도는 본 발명의 제1 실시 예에 따른 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치의 모습을 보여주는 도면이다.
도면 5도에 따른 본 발명에 제1 실시 예에 따른 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치(100)는 쓰리디 매핑 데이터를 수신하는 매핑 데이터 획득 모듈(200), 상기 쓰리디 매핑 데이터에 포함된 객체의 다면체를 간략화 하는 다면체 간략화 모듈(300), 상기 쓰리디 매핑 데이터로부터 임시 객체를 추출하는 객체화 처리 모듈(500), 상기 임시 객체를 정규 객체로 변환 시키는 정규 객체 변환 모듈(600), 상기 임시 객체와 대응되는 객체 정보를 포함하고 있는 객체 데이터 베이스 모듈(650), 상기 정규 객체를 상기 쓰리디 매핑 데이터에 대응되는 맵 상에 배치하는 브이알 맵 생성 모듈(700), 상기 정규 객체의 외면에 텍스처링 데이터를 제공하는 텍스처링 데이터 모듈(800)로 이루어 질 수 있다.
도면 5도에 따른 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치(100)는 매핑 데이터 획득 모듈(200)이 쓰리디 맵핑 데이터를 수신하는 과정에서 텍스처링 데이터 모듈(800)에서 쓰리디 맵핑 데이터의 용량을 감소시키기 위해 텍스처링 데이터를 제공하는 과정까지 자동화로 이루어져 사용자에게 편의성을 제공할 수 있다. 또한, 본 발명의 제1 실시 예에 따른 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치(100)는 효율적인 쓰리디 맵핑 데이터의 관리 및 쓰리디 맵핑 데이터의 저장 공간을 절약할 수 있도록 고안되었다.
본 발명의 제1 실시 예에 따른 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치(100)의 구성은 특정한 형태 및 장치로 한정하지 않을 수 있다.
도면 6도는 본 발명의 제1 실시 예에 따른 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치의 구동 순서를 보여주는 도면이다.
도면 6도에 따라 본 발명의 제1 실시 예는 외부로부터 쓰리디 맵핑 데이터가 수신되는 단계(S06-1), 맵핑 데이터 획득 모듈(200)로부터 수신한 쓰리디 맵핑 데이터가 간략화 처리 되는 단계(S06-2), 쓰리디 맵핑 데이터내에서 임시 객체가 추출되는 단계(S06-3), 임시 객체가 객체 데이터 베이스 모듈의 보유 객체 풀(pull)에 저장된 객체 중 하나의 객체와 비교하여 정규 객체로 변환되는 단계(S06-4), 외부로부터 획득한 쓰리디 맵핑 데이터에 대응되는 브이알 맵을 생성하는 단계(S06-5), 브이알 맵상에 텍스처링 데이터를 정규 객체의 외면에 제공하는 단계(S06-6)로 이루어 질 수 있다. 이후에, 텍스처링 데이터가 제공된 브이알용 쓰리디 맵핑 데이터가 렌더링 되는 단계, 렌더링 된 브이알용 쓰리디 맵핑 데이터가 기 설정된 모니터상에 제시되는 단계가 추가될 수 있다.
외부로부터 쓰리디 맵핑 데이터가 수신되는 단계(S06-1)는 무인 관측 수단(110)에 의해 획득한 쓰리디 맵핑 데이터 일 수 있다. 또한, 상기 임시 객체가 객체 데이터 베이스 모듈의 보유 객체 풀(pull)에 저장된 객체 중 하나의 객체와 비교하여 정규 객체로 변환되는 단계(S06-4)는 객체 데이터 베이스 모듈의 보유 객체 풀이 임시 객체의 정보를 수신하여 최신화 되는 단계가 포함되어 있을 수 있다. 이후에 최신화된 보유 객체 풀은 다음 임시 객체와 비교되는 단계에서 최신화된 보규 객체 정보와 지정된 임시 객체를 대조하는 데이터 정보로 사용 될 수 있다.
본 발명인 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치(100)는 쓰리디 맵핑 영상 제작시 객체의 왜곡 현상 및 과도한 폴리곤 수로 인한 데이터의 과부하를 방지할 수 있는 효과가 있다. 도면 6도에 따른 본 발명의 구동 순서는 특정한 순서로 한정한 것은 아니며, 도면에 표현된 각각의 단계가 동시에 일어나는 구성으로 이루어 질 수 있다.
도면 7도는 본 발명의 제1 실시 예에 따른 쓰리디 맵핑 데이터의 간략화 처리 방법을 나열한 모습을 보여주는 도면이다.
쓰리디 맵핑 과정에서 다면체 객체 모델들의 데이터는 그 양이 방대하여 현재의 고성능 그래픽 하드웨어를 이용하더라도 컴퓨터 화면상에서 엄청난 과부하를 주게 된다. 따라서, 그래픽 하드웨어의 부담을 줄이기 위해선 간략화 작업이 필수로 요구된다. 다면체 모델의 간략화란 쓰리디 맵핑 데이터로부터 획득한 다각형 객체 모델의 폴리곤을 제거하여 근사치를 가지는 모델로 객체 모델을 간단하게 변형시키는 행위이다. 따라서, 맵핑 데이터 처리과정시 버퍼링 현상을 방지할 수 있는 장점이 있다.
도면 7도에서는 본 발명의 바람직한 설명을 위해 다면체의 간략화 방법의 예들을 정점 제거 방법(A), 메쉬 축약 방법(B), 메쉬 최적화 방법(C), 군집화 방법(D), 리 타일링 방법(E), 삼각 축약법(F), 엣지 코스트 방법(G)으로 나누어 설명하고자 한다.
정점 제거 방법(A)은 임의로 선택한 한개의 점을 이용하여 간략화 시키는 방법이다. 이 방법은 한 개의 점을 이웃한 다른 점들 중 한 점으로 이동시켜 기하학적 정보를 제거함으로써, 모델을 재구성하는 방법이다.
메쉬 축약 방법(B)은 제거해야 할 임의의 점을 선택하여 그 점에 이웃한 점들의 영역을 중심으로 그 내부에 있는 선택되어진 점과 연결된 선들을 모두 없앤 뒤 재 삼각화를 수행하여 메쉬의 수를 줄이는 방법이다.
또한, 메쉬 최적화(C) 방법이란, 선 축약(edge collapse)을 기반으로 간략화 하는 방법이다. 이에 더하여, 군집화 방법(D)이란, 3차원 모델을 2차원 평면상에 투영시켜서 특정 지역을 그룹화 시킨 이후에 선 축약 기법으로 간략화를 수행하는 방법이다. 이외에, 리-타일링 방법(E)을 통하여, 삼각 메쉬에서 새로운 점들을 생성한 이후에 간략화 하는 방법, 삼각 축약법(F)을 통하여, 세점을 하나의 점으로 축약하는 방법, 엣지 코스트 방법(G)을 통하여 일정한 식에 대입하는 방법으로 다면체인 맵핑 데이터의 간략화를 수행 할 수 있다.
본 발명에서는 상기 나열한 다면체 간략화 방법을 통하여 브이알용 쓰리디 맵핑 데이터로 렌더링 될 시 데이터의 과부하를 방지하며 데이터의 전송 시간을 단축 시킬 수 있다.
도면 8도는 본 발명의 구성요소인 객체화 처리 모듈의 구성요소를 보여주는 도면이다.
도면 8도에 따라 본 발명의 객체화 처리 모듈(500)은 쓰리디 맵핑 데이터로부터 정사 영상을 생성하는 정사 영상 생성 모듈(510), 정사 영상으로부터 객체의 명확한 엣지(edge) 부분을 제외한 노이즈(noise)를 제거하는 전처리 모듈(520), 객체의 명확한 엣지(edge)부분을 추출하는 외곽선 추출 모듈(530), 상기 추출된 외곽선을 벡터(vector)처리하여 임시 영역을 형성하는 임시 영역 생성 모듈(540), 상기 임시 영역을 쓰리디 매핑 데이터의 높이 정보를 활용하여 기설정된 높이까지 확장한 이후에 임시 객체를 생성하는 임시 객체 생성 모듈(550)을 포함하고 있을 수 있다.
도면 8도에 따른 정사 영상 생성 모듈(510)은 쓰리디 맵핑 데이터의 외곽선 정보를 명확하게 추출하기 위해 촬영될 객체의 상면에서 추출된 쓰리디 맵핑 데이터의 정사 영상을 생성할 수 있다. 전처리 모듈(520)은 쓰리디 맵핑 데이터에 표현된 건물 이외에 수풀, 도로, 식생지형을 노이즈(noise)로 인식하여 쓰리디 맵핑 데이터상에서 제거하는 기능을 수행하는 모듈이다. 따라서, 외곽선 추출 모듈(530)의 외곽선 추출 과정 작업이 원활하게 이루어 지도록 할 수 있다. 또한, 임시 영역 생성 모듈(540)은 추출된 외곽선을 벡터라이징(vectorizing) 처리화 한 이후에 임시 영역을 생성할 수 있다. 벡터라이징이란 쓰리디 맵핑 데이터로부터 획득한 외곽선을 편집 및 확장이 가능한 형태로 변환시켜 후처리 작업을 용이하게 하는 효과가 있다. 따라서 쓰리디 맵핑 데이터의 높이 정보를 활용하여 기설정된 높이까지 확장하는 단계를 원활하게 처리 할 수 있다. 도면 8도에 따른 객체화 처리 모듈(500)의 구성요소에 따라 임시 객체의 추출 과정 에서 객체와 비객체의 경계를 명확히 구분함으로써 보다 정확한 객체의 표현 및 수정을 가능하게 하는 효과가 있다.
도면 9도는 본 발명의 제1 예에 따라 외곽선 정보가 추출되는 과정부터 임시 객체가 추출되는 과정을 보여주는 도면이다.
본 발명의 바람직한 설명을 위해 도면 9를 (A), (B), (C), (D)로 나누어 설명하고자 한다. 도면 (A)는 무인 관측 수단(110)을 이용하여 쓰리디 맵핑 데이터의 정사영상 및 외곽선을 추출하는 과정을 보여주는 도면이다. 도면 (B)는 기 설정된 측정 범위에 따른 객체(O)의 외곽선 부분을 추출한 모습을 보여주는 도면이다. 또한, 도면 (C)는 임시 영역이 생성되는 모습, 도면 (D)는 쓰리디 매핑 데이터의 높이 정보를 기반으로 기 설정된 높이까지 객체를 연장하는 모습을 보여주는 도면이다. 도면 9의 (A)에 따라 정사영상이 추출되는 단계는 쓰리디 맵핑 데이터가 촬영되는 지점에서 각도차이에 따라 외곽선의 정보가 왜곡될 가능성을 고려하여 촬영 될 수 있다. 따라서 편위수정 혹은 수치미분편위수정 과정을 거쳐 촬영당시 생기는 피사체의 변위나 왜곡을 제거하는 과정이 추가로 이루어 질 수 있다. 또한, 정사 영상이 추출되는 단계 이후에, 전처리 모듈(520)에 의해 쓰리디 맵핑 데이터에 표현된 건물 이외에 수풀, 도로, 식생지형, 자동차, 가로등 등을 노이즈(noise)로 인식하여 쓰리디 맵핑 데이터상에서 제거할 수 있다. 이를 블러(blur)처리라 한다. 노이즈를 제거하는 블러 처리는 소벨(sobel) 필터(filter)를 사용하여 노이즈를 제거할 수 있다. 따라서, 도면 (B)에서와 같이 노이즈가 제거된 건물의 외곽선 정보만을 제시된 도면을 추출할 수 있다.
건물의 외곽선 정보가 인식된 이후에 외곽선 정보가 인식된 부분은 별도로 벡터 처리되는 단계로 이루어 질 수 있다. 벡터 처리된 외곽선 부분은 외곽선의 편집 및 확장이 가능한 외곽선의 형태로 변환되어 임시 객체 데이터 생성 작업시 편집 및 확장이 가능한 형태로 변경될 수 있다. 이후에 도면 (D)에서와 같이 측정된 높이 정보를 바탕으로 하나의 임시 객체를 생성할 수 있다.
도면 9도에 따른 외곽선 추출 과정 및 임시 객체 추출 과정에 따르면 맵 전체를 하나의 객체로 인식하여 쓰리디 맵핑 데이터 상에 나타내는 방법과 비교하여 편집 및 보정시 작업의 편의성을 제공할 수 있는 효과가 있다.
도면 10도는 본 발명인 객체화 처리 모듈의 또 다른 구성요소를 보여주는 도면이다.
도면 10도는 도면 8도에 따른 객체화 처리 모듈(500)과 또 다른 구성으로 임시 객체를 추출 할 수 있다. 도면 10도에 따른 임시 객체 추출은 쓰리디 맵핑 데이터 상에 표현된 객체를 기 설정된 높이에 따라 임시 객체를 분류하는 방식으로 이루어 질 수 있다. 또한, 객체화 처리 모듈(500)은 쓰리디 맵핑 데이터로부터 지평선 정보를 인식하는 지평선 정보 인식 모듈(560)과 지평선 섹터를 기준으로 기설정된 높이 이상의 돌출된 영역에 포함되는 섹터를 인식하는 임시 객체 섹터 추출 모듈(570)로 구성되어 있을 수 있다. 도면 10도에 따른 객체화 처리 모듈(500)의 임시 객체 추출 방법은 기설정된 높이 이상의 섹터를 기준으로 임시 객체를 추출하므로 복잡한 연산과정을 거치지 않을 수 있어 보다 빠른 시간안에 연산과정이 이루어 질 수 있다.
도면 11도는 본 발명인 객체화 처리 모듈이 또 다른 구성요소를 구비하였을 경우 임시 객체가 추출되는 과정을 보여주는 도면이다.
도면 11도에 따른 본 발명의 바람직한 설명을 위해 도면 (A)와 도면 (B)로 나누어 설명하고자 한다. 도면 (A)는 쓰리디 맵핑 데이터 상에서 폴리곤수 및/또는 버텍스의 수에 따라 영역을 나누는 모습을 보여주는 도면이다. 도면 (A)에서 S1과 S2는 기설정된 수 이상의 폴리곤수 및/또는 버텍스의 수가 관측된 영역이며, G는 기 설정된 폴리곤수 및/또는 버텍스의 수 이하의 수가 관측된 영역이며 지평면 섹터(sector)로 인식 될 수 있다.
도면 (B)는 기설정된 높이 이상의 돌출된 영역을 구비한 섹터가 임시 객체로 인식되는 모습을 보여주는 도면이다. 도면 (B)의 O1과 O2는 도면 (A)에서 기설정된 폴리곤수 이상의 수가 관측된 S1, S2와 대응되며, 쓰리디 맵핑 데이터 정보에 따라 기설정된 높이 이상의 높이가 관측된 영역이다. 도면 (B)의 O1과 O2는 임시 객체로 인식되는 과정으로 이루어 질 수 있다. 또한, 도면(B)에 표현된 N은 기설정된 높이 이하의 자동차, 나무, 가로등 등으로 이루어져 있어 임시 객체로 추출되지 않을 수 있다.
도면 12도는 본 발명의 제1 실시 예에 따른 정규 객체 변환 과정을 보여주는 도면이다.
도면 12도에 따라 임시 객체에서 정규 객체가 변환되는 단계는 객체 데이터 모듈(500)이 임시 데이터를 추출하는 단계(S12-1), 이후에 객체 데이터 베이스 모듈(650)에서 임시 객체와 대응되는 보유 객체를 검색하는 단계(S12-2), 임시 객체와 객체 데이터 베이스 모듈(650)에서 검색된 보유 객체를 대조하는 단계(S12-3), 임시 객체와 보유 객체가 일치되지 않을 시 임시 객체의 정보를 객체 데이터 베이스 모듈에 갱신하는 단계(S12-4), 임시 객체와 보유 객체가 일치될시 보유 객체가 정규 객체로 변환되는 단계(S12-5)로 구성되어 있을 수 있다. 도면 12도의 임시 객체와 보유 객체가 일치되지 않을 시 임시 객체의 정보를 객체 데이터 베이스 모듈에 갱신하는 단계(S12-4) 이후에 임시 객체는 정규 객체로 변환되는 과정으로 이루어 질 수 있다. 이후에, 정규 객체는 쓰리디 맵핑 데이터에 대응되는 맵상의 기설정된 섹터에 배치되는 단계(S12-6)으로 이루어 질 수 있다.
또한, 정규 객체로 변환되는 과정에 있어서 도면 12도에 따른 설명 이외에 교사 학습 알고리즘, 비교사 학습 알고리즘, 강화 학습 알고리즘, 신경망 알고리즘, 유전자 알고리즘, 의사 결정 트리 알고리즘 중 어느 하나 이상의 방법을 사용하여 임시 객체를 정규 객체로 변환 시킬 수 있다.
도면 13도는 임시 객체가 정규 객체로 변환된 이후에 맵핑 데이터에 대응되는 맵 상에 정규 객체가 배치된 모습을 보여주는 도면이다.
본 발명의 바람직한 설명을 위해 정규 객체가 맵핑 데이터에 대응되는 맵 상에 배치되는 단계를 (A),(B),(C),(D),(E)로 나누어 설명하고자 한다. 임시를 추출한 단계 이후에(A)는 객체 데이터 베이스 모듈(650)에 저장되어 있던 보유 객체 풀(pull)중 임시 객체와 매칭되는 매칭 객체 데이터를 검색할 수 있다(A’). 이후에, 임시 객체와 매칭 객체 데이터를 대조하는 단계(B)가 이루어 질 수 있으며, 임시 객체가 보유 객체와 대응되지 않을 시 객체 데이터 베이스 모듈(650)은 임시 객체 정보를 수집하여 최신화 되는 과정(C)이 이루어 질 수 있다. 임시 객체와 보유 객체를 대조하는 단계 이후에는 정규 객체로 변화되는 과정(D)이 이루어 질 수 있으며, 정규 객체로 변환된 이후에는 브이알 맵 생성모듈(700)에 의해 쓰리디 맵핑 데이터에 대응되는 맵 상에 정규 객체가 배치될 수 있다.
도면 14도는 본 발명의 제1 실시 예에 따른 정규 객체에 텍스처링 데이터가 제공되는 모습을 보여주는 도면이다.
도면 14도의 (A)는 텍스처링 데이터를 제공하기 위해 실사 이미지가 수신된 모습을 보여주는 도면이며, 도면 14도의 (B)는 텍스처링 데이터 모듈(800)에 의해 실사 이미지로부터 텍스처링 데이터가 추출되는 모습, 도면 14도의 (C)는 텍스처링 데이터 모듈(800)에 텍스처링 데이터가 저장되는 모습, 도면 14도의 (D)는 텍스처링 데이터가 정규 객체에 삽입되는 모습, 도면 14도의 (E)는 텍스처링 데이터의 삽입 과정이 완료된 모습을 보여주는 도면이다. 도면 14도에 따라 실사 이미지로부터 2D 형태의 텍스철이 데이터를 추출한 이후에 폴리곤수가 많은 정규 객체의 외면에 삽입됨으로써 정규 객체의 폴리곤 수를 축소 시킬 수 있는 효과가 있다. 따라서, 그래픽 하드웨어의 과부하 현상을 방지할 수 있으며, 3D맵핑 데이터의 가상 영상을 구현하는데 있어서 버퍼링 현상을 감소시킬 수 있는 효과가 있다. 또한, 쓰리디 맵핑 데이터를 얻는 과정에서 각도차에 따라 왜곡된 객체의 외면에 텍스처링 데이터를 삽입함으로써 보다 자연스러운 브이알용 쓰리디 맵핑 데이터를 구현 할 수 있다.
도면 15도는 본 발명의 제1 실시 예에 따른 정규 텍스처링 데이터가 삽입되는 과정을 보여주는 도면이다.
도면 15도에 따라 텍스처링 데이터가 삽입되는 단계는 실사 이미지가 수신되는 단계(S15-1) 이후에, 텍스처링 데이터가 추출되는 단계(S15-2), 이후에 텍스처링 데이터로 대체될 정규 객체 외면의 크기를 계산하는 단계(S15-3)로 이루어 질 수 있다. 이후에, 정규 객체의 외면에 텍스처링 데이터를 삽입하는 단계(S15-4)로 이루어 질 수 있다.
이미지가 수신되는 단계(S15-1)에서 정규 객체에 해당하는 실제 건물의 이미지가 텍스처링 데이터에 사용되는 이미지로 수신될 수 있다. 실사 건물의 이미지는 2D의 형태로 이루어 질 수 있으며, 2D의 이미지를 정규 객체에 삽입함으로써 정규 객체에 포함된 폴리곤의 수를 줄일 수 있다. 또한, 텍스처링 데이터가 추출되는 단계(S15-2)에서는 엘오디(LOD, level of detail)단계가 포함된 과정으로 이루어 질 수 있다, 엘오디 단계는 상기 텍스처링 데이터의 폴리곤 수를 조정하여 렌더링 과정의 부담을 최소화 하기 위한 사전 작업으로써, 브이알용 쓰리디 맵핑 데이터의 정밀도를 조정할 수 있다. 텍스처링 데이터가 추출되는 단계(S15-2)이후에 텍스처링 데이터 모듈(800)은 정규 객체에 외면에 삽입될 텍스처링 데이터의 모양을 판단하여 삽입하는 단계가 더 포함될 수 있으며, 텍스처링 데이터가 삽입됨으로써, 기존의 정규 객체의 외면, 즉, 다량의 폴리곤수를 포함하고 있었던 정규 객체가 텍스처링 데이터로 대체될 수 있다.
따라서, 본 발명인 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치(100)는 브이알용 쓰리디 맵핑 데이터의 전송 및 렌더링 과정에서 소요되는 시간을 단축 시키는 효과가 있어 보다 사실적인 가상현실 및 증강현실을 체험할 수 있는 효과가 있다.
도면 16도는 본 발명의 제2 실시 예에 따른 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치의 모습을 보여주는 도면이다.
본 발명에 제2 실시 예에 따른 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치(100)는 텍스처링 데이터 모듈(800) 대신에 참조 자료 제공 모듈(900)을 구성요소로 구비하고 있다는 점에서 본 발명의 제1 실시 예에 따른 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치(100)와 차이가 있을 수 있다.
따라서, 본 발명의 제1 실시 예에 따른 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치(100)는 맵핑 데이터 모듈을 획득하는 과정부터 텍스처링 데이터를 삽입하는 과정에 이르기 까지 자동화 되어 브이알용 쓰리디 맵핑 데이터 제작에 있어서 신속성을 제공할 수 있으며, 본 발명의 제2 실시 예에 따른 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치(100)는 정규 객체가 추출되어 브이알 맵 생성 모듈에 삽입된 이후에 사용자에 의해 별도의 후처리 작업을 거칠 수 있다는 점에서 사용자의 편의성을 제공할 수 있다.
도면 17도는 본 발명의 제2 실시 예에 따른 참조 자료 제공 모듈의 모습을 보여주는 도면이다.
도면 17도에 따른 참조 자료 제공 모듈(900)은 상기 정규 객체에 대응되는 위치 정보를 외부 서버(950)로 송신하는 위치 정보 전송 모듈(910), 상기 위치 정보 전송 모듈에 대응되는 거리 영상 정보를 수신하는 거리 영상 수신 모듈(920)로 이루어 질 수 있다. 또한 거리 영상 수신 모듈은 참조 영상 병합 모듈(930)로 정보를 전달할 수 있으며 참조 영상 병합 모듈(930)은 참조 자료 제공 모듈(900)로부터 정규 객체 및 쓰리디 브이알 맵 정보를 수신 할 수 있도록 구성되어 있다. 따라서 본 발명의 사용자는 후처리 작업시 외부 서버(950)로부터 위치정보 및 거리영상 정보를 손쉽게 수신할 수 있으며, 그에 따른 작업 속도의 향상도 기대할 수 있다.
도면 18도는 본 발명의 제2 실시 예에 따른 참조 자료 제공 모듈의 자료 제공 과정을 보여주는 도면이다.
참조 자료 제공 모듈(900)에서 참조 자료가 제공되는 단계는 정규 객체의 위치 정보 및 텍스처링 참조 정보가 제공되는 단계(S18-1), 쓰리디 맵핑 데이터에 상응하는 위치 정보가 제공되는 단계(S18-2), 위치 정보에 대응하는 거리 영상 정보가 제공되는 단계(S18-3), 텍스처링 참조 정보 및 거리 영상 정보를 병합하여 사용자에게 제시하는 단계(S18-4)로 이루어 질 수 있다.
상기 텍스처링 참조 정보는 정규 객체가 브이알 맵 생성모듈에 의해 쓰리디 맵핑 데이터에 대응되는 맵 상에 배치된 맵의 정보가 포함된 정보를 가리킨다. 따라서 상기 정규 객체의 위치 정보 및 텍스처링 참조 정보가 제공되는 단계(S18-1)는 정규 객체 삽입 과정이 완료된 쓰리디 맵핑 데이터와 정규 객체에 대응되는 위치 정보를 제공받는 과정으로 이루어 질 수 있다. 또한 위치 정보는 본 발명에 사용자가 수신하는 동시에 거리 영상 수신 정보를 제공하는 외부 서버(950)에 송신될 수 있다. 위치 정보를 수신한 상기 외부 서버(950)는 네이버, 다음, 구글과 같이 위치 정보에 대응되는 거리 영상 정보를 제공하는 서버일 수 있다. 앞서 기술한 외부 서버(950)는 위치 정보 전송 모듈(910)로부터 정규 객체의 위치정보를 수신한 이후에 본 발명의 구성요소인 거리 영상 수신 모듈(920)에 정규 객체의 위치 정보가 포함된 거리 영상 정보를 송신할 수 있다. 또한, 거리 영상 수신 모듈(920)이 거리 영상 정보를 제공받은 이후에 참조 영상 병합 모듈(930)에 거리 영상 정보를 송신할 수 있다. 참조 영상 병합 모듈(930)은 거리 영상 수신 모듈(920)로부터 거리 영상 정보를 수신하는 동시에 텍스처링 참조 정보 제공 모듈(900)로부터 텍스처링 참조 정보를 수신할 수 있다. 참조 영상 병합 모듈(930)은 거리 영상 수신 모듈과 텍스처링 참조 정보 제공 모듈(900)로부터 수신한 정보를 병합하여 사용자에게 제시 할 수 있다. 따라서 사용자는 정규 객체에 대한 거리 영상 정보와 쓰리디 맵핑 데이터의 정보를 하나의 소프르웨어 및 장치로부터 수신 받을 수 있어 원활한 후처리 작업을 가능하게 하는 효과가 있다.
도면 19도는 본 발명의 제3 실시 예에 따른 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치의 모습을 보여주는 도면이다.
본 발명의 제3 실시 예에 따른 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치(100)는 텍스처링 데이터 모듈(800)과 참조 자료 제공 모듈(900)을 동시에 구비한 구성으로 이루어 질 수 있다. 따라서, 본 발명의 제3 실시 예에 따른 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치(100)는 쓰리디 맵핑 데이터가 사용자에 의해 직접 편집 및 수정 될 수 있으며, 일련의 과정이 자동화 되어 편의성을 제공할 수 있다.
상술한 바와 같이, 본 발명의 제1 실시예 및 제2 실시예를 참조하여 설명하였지만 해당 기술 분야의 숙련된 당업자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양 하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
50: 에이치엠디
100: 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치
110: 무인 관측 수단
200: 맵핑 데이터 획득 모듈
300: 간략화 처리 모듈
500: 객체화 처리 모듈
510: 정사 영상 추출 모듈
520: 전처리 모듈
530: 외곽선 추출 모듈
540: 임시 영역 형성 모듈
550: 임시 객체 생성 모듈
560: 지평선 정보 인식 모듈
570: 임시 객체 섹터 추출 모듈
600: 정규 객체 변환 모듈
650: 객체 데이터 베이스 모듈
700: 브이알 맵 생성모듈
800: 텍스처링 데이터 모듈
900: 참조 자료 제공 모듈
910: 위치 정보 전송 모듈
920: 거리 영상 정보 수신 모듈
930: 참조 영상 병합 모듈
950: 외부 서버

Claims (39)

  1. 쓰리디(3D, 3 dimension) 맵핑(mapping) 데이터(data)가 수신되는 단계;
    상기 쓰리디 맵핑 데이터로부터 임시 객체가 추출되는 단계;
    상기 임시 객체가 정규 객체로 변환되는 단계;
    상기 정규 객체가 상기 쓰리디 매핑 데이터와 대응되는 맵(map) 상에 배치되는 단계;가 포함되고,
    상기 임시 객체가 상기 정규 객체로 변환되는 단계는
    보유 객체 풀(pull) 중 상기 임시 객체와 매칭되는 매칭 객체가 있는지 여부가 검색되는 단계;
    상기 매칭 객체가 검색되는 경우, 상기 매칭 객체가 상기 정규 객체로 선택되는 단계;
    상기 매칭 객체가 검색되지 않는 경우, 상기 임시 객체가 상기 정규 객체로 선택되고 보유 객체 풀에 저장되는 단계;로 구성되는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알(VR, Virtual Reality)용 쓰리디 맵 제작 방법.
  2. 제1항에 있어서,
    상기 쓰리디 맵핑 데이터로부터 임시 객체가 추출되는 단계는
    상기 쓰리디 맵핑 데이터로부터 정사 영상 이미지가 생성되는 단계;
    상기 정사 영상 이미지로부터 외곽선이 추출되는 단계;
    상기 외곽선이 벡터(vector) 처리되어 임시 영역이 형성되는 단계;
    상기 임시 영역을 상기 쓰리디 맵핑 데이터의 높이 정보를 기반으로 연장하여 임시 객체를 생성하는 단계;를 더 포함하여 이루어지는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법.
  3. 제2항에 있어서,
    상기 쓰리디 맵핑 데이터로부터 정사 영상 이미지가 생성되는 단계 이후에,
    상기 정사 영상 이미지가 블러(blur) 처리되는 단계;가 더 포함되는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법.
  4. 제3항에 있어서,
    상기 정사 영상 이미지가 블러 처리되는 단계는
    소벨(soble) 필터(filter)를 이용하여 이루어지는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법.
  5. 제1항에 있어서,
    쓰리디 매핑 데이터가 수신되는 단계 이후에,
    상기 쓰리디 맵핑 데이터의 다면체가 간략화 처리되는 단계;가 더 포함되는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법.
  6. 제5항에 있어서,
    상기 쓰리디 맵핑 데이터의 다면체가 간략화 처리되는 과정이 진행되는 단계는, 정점 제거 방법, 메쉬(mesh) 축약 방법, 메쉬 최적화 방법, 군집화 방법, 리 타일링(re-tiling) 방법, 삼각 축약 방법, 엣지(edge) 코스트(cost) 함수 방법 중 어느 하나 이상을 이용하는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법.
  7. 제1항에 있어서,
    상기 쓰리디 맵핑 데이터로부터 임시 객체가 추출되는 단계는
    상기 쓰리디 맵핑 데이터에서 지평선 섹터(sector)가 인식되는 단계;
    상기 지평선 섹터를 기준으로 기설정된 높이 이상 돌출된 영역을 구비한 섹터가 상기 임시 객체로 인식되어 추출되는 단계;로 이루어지는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법.
  8. 제7항에 있어서,
    상기 쓰리디 맵핑 데이터에서 지평선 섹터가 인식되는 단계는
    상기 쓰리디 맵핑 데이터에서 기설정된 면적 넓이 당 폴리곤(polygon) 또는 버텍스 수가 기설정된 수 이하인 영역이 지평면 섹터로 인식됨으로써 이루어지는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법.
  9. 제1항에 있어서,
    보유 객체 풀 중 상기 임시 객체와 매칭되는 매칭 객체가 있는지 여부가 검색되는 단계는 보유 객체 풀에서 상기 임시 객체와 유사도가 기설정된 수치 이상인 객체들 중 가장 높은 수치를 가지는 객체가 매칭 객체로 검색됨으로써 이루어지는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법.
  10. 제9항에 있어서,
    상기 유사도는
    상기 임시 객체와 상기 보유 객체 풀에 저장된 객체 사이의 폴리곤 또는 버텍스(vertex) 정보를 대조하여 판단되는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법.
  11. 제1항에 있어서,
    상기 정규 객체가 상기 쓰리디 맵핑 데이터와 대응되는 맵 상에 배치되는 단계 이후에,
    텍스처링(texturing) 데이터가 상기 정규 객체의 외면에 제공되는 단계;가 더 포함되는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법.
  12. 제11항에 있어서,
    상기 텍스처링 데이터가 상기 정규 객체의 외면에 제공되는 단계는
    상기 정규 객체에 대응되는 실사 이미지가 수신되는 단계;
    상기 실사 이미지로부터 상기 텍스처링 데이터가 추출되는 단계;
    상기 텍스처링 데이터가 상기 정규 객체의 외면의 크기에 맞도록 조절되어 부착되는 단계;로 구성되어 이루어지는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법.
  13. 제1항에 있어서,
    상기 정규 객체가 상기 쓰리디 맵핑 데이터와 대응되는 맵 상에 배치되는 단계 이후에,
    상기 정규 객체의 위치 정보를 이용하여 텍스처링 참조 정보가 제공되는 단계;가 더 포함되는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법.
  14. 제13항에 있어서,
    상기 정규 객체의 위치 정보를 이용하여 텍스처링 참조 정보가 제공되는 단계는 상기 정규 객체의 위치 정보가 거리 영상 제공 서버(server)로 전송되는 단계;
    상기 거리 영상 제공 서버로부터 상기 정규 객체의 위치 정보에 대응되는 거리 영상이 수신되는 단계;
    상기 거리 영상이 상기 텍스처링 참조 정보로 제공되는 단계;로 구성되는 것을 특징으로 하는 무인 관측 수단에 의하여 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법.
  15. 매핑 데이터 획득 모듈이 쓰리디 맵핑 데이터를 수신하는 단계;
    객체화 처리 모듈이 상기 쓰리디 맵핑 데이터로부터 임시 객체를 추출하는 단계;
    정규 객체 변환 모듈이 상기 임시 객체를 정규 객체로 변환하는 단계;
    브이알 맵 생성 모듈이 상기 쓰리디 맵핑 데이터에 대응되는 맵 상에 상기 정규 객체를 배치하는 단계;를 포함하고,
    상기 정규 객체 변환 모듈이 상기 임시 객체를 상기 정규 객체로 변환하는 단계는
    객체 데이터 베이스 모듈에 저장된 보유 객체 풀 중 상기 임시 객체와 매칭되는 매칭 객체가 있는지 여부를 검색하는 단계;
    상기 매칭 객체가 검색되는 경우, 상기 정규 객체 변환 모듈이 상기 매칭 객체를 상기 정규 객체로 선택하는 단계;
    상기 매칭 객체가 검색되지 않는 경우, 상기 정규 객체 변환 모듈이 상기 임시 객체를 상기 정규 객체로 선택하고 보유 객체 풀에 저장하는 단계;로 구성되는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법.
  16. 제15항에 있어서,
    객체화 처리 모듈이 상기 쓰리디 맵핑 데이터로부터 임시 객체를 추출하는 단계는
    정사 영상 생성 모듈이 상기 쓰리디 맵핑 데이터로부터 정사 영상 이미지를 생성하는 단계;
    외곽선 추출 모듈이 상기 정사 영상 이미지로부터 외곽선을 추출하는 단계;
    임시 영역 형성 모듈이 상기 외곽선을 벡터 처리하여 임시 영역을 형성하는 단계;
    임시 객체 생성 모듈 상기 임시 영역을 상기 쓰리디 맵핑 데이터의 높이 정보를 기반으로 연장하여 임시 객체를 생성하는 단계;를 더 포함하여 이루어지는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법.
  17. 제16항에 있어서,
    상기 정사 영상 생성모듈이 상기 쓰리디 맵핑 데이터로부터 정사 영상 이미지를 생성하는 단계 이후에,
    전처리 모듈이 상기 정사 영상 이미지를 블러 처리하는 단계;가 더 포함하는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법.
  18. 제17항에 있어서,
    전처리 모듈이 상기 정사 영상 이미지를 블러 처리하는 단계는 소벨 필터를 이용하여 이루어지는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법.
  19. 제15항에 있어서,
    맵핑 데이터 획득 모듈이 쓰리디 매핑 데이터를 수신하는 단계 이후에,
    간략화 처리 모듈이 기설정된 방법에 의해 쓰리디 맵핑 데이터의 다면체를 다면체 간략화 처리하는 단계;를 더 포함하는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법.
  20. 제19항에 있어서,
    간략화 처리 모듈이 기설정된 방법에 의해 쓰리디 맵핑 데이터의 다면체를 다면체 간략화 처리하는 단계는, 정점 제거 방법, 메쉬 축약 방법, 메쉬 최적화 방법, 군집화 방법, 리 타일링 방법, 삼각 축약 방법, 엣지 코스트 함수 방법 중 어느 하나 이상을 이용하는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법.
  21. 제15항에 있어서,
    객체화 처리 모듈이 상기 쓰리디 맵핑 데이터로부터 임시 객체를 추출하는 단계는
    지평선 정보 인식 모듈이 상기 쓰리디 맵핑 데이터상의 지평선 정보를 인식하는 단계;
    임시 객체 섹터 추출 모듈이 지평선 섹터를 기준으로 기설정된 높이 이상 돌출된 영역에 포함되는 섹터를 상기 임시 객체로 인식하여 추출하는 단계;로 이루어지는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법.
  22. 제21항에 있어서,
    상기 객체화 처리 모듈이 쓰리디 맵핑 데이터상의 지평선 정보를 인식하는 단계는
    상기 쓰리디 맵핑 데이터에서 기설정된 면적 넓이 당 폴리곤 또는 버텍스 수가 기설정된 수 이하인 영역을 지평면 섹터로 인식함으로써 이루어지는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법.
  23. 제15항에 있어서,
    상기 객체 데이터 베이스 모듈에 저장된 보유 객체 풀 중 상기 임시 객체와 매칭되는 매칭 객체가 있는지 여부를 검색하는 단계는
    보유 객체 풀에서 상기 임시 객체와 유사도가 기설정된 수치 이상인 객체들 중 가장 높은 수치를 가지는 객체가 매칭 객체를 검색함으로써 이루어지는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법.
  24. 제23항에 있어서,
    상기 유사도는
    상기 임시 객체와 상기 보유 객체 풀에 저장된 객체 사이의 폴리곤 또는 버텍스 정보를 대조하여 판단하는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법.
  25. 제15항에 있어서,
    브이알 맵 생성 모듈이 쓰리디 맵핑 데이터에 대응되는 맵 상에 상기 정규 객체를 배치하는 단계 이후에,
    텍스처링 데이터 모듈이 텍스처링 데이터를 상기 정규 객체의 외면에 제공하는 단계;를 더 포함하는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법.
  26. 제25항에 있어서,
    상기 텍스처링 데이터 모듈이 텍스처링 데이터를 상기 정규 객체의 외면에 제공하는 단계는
    상기 텍스처링 데이터 모듈이 상기 정규 객체에 대응되는 실사 이미지가 수신되는 단계;
    상기 텍스처링 데이터 모듈이 상기 실사 이미지로부터 상기 텍스처링 데이터를 추출하는 단계;
    상기 텍스처링 데이터 모듈이 상기 텍스처링 데이터를 상기 정규 객체의 외면의 크기에 맞도록 조절되어 삽입하는 단계;를 구성하는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법.
  27. 제15항에 있어서,
    브이알 맵 생성 모듈이 쓰리디 맵핑 데이터에 대응되는 맵 상에 상기 정규 객체를 배치하는 단계 이후에,
    참조 자료 제공 모듈이 상기 정규 객체의 위치 정보를 이용하여 텍스처링 참조 정보를 제공하는 단계;를 더 포함하는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법.
  28. 제27항에 있어서,
    참조 자료 제공 모듈이 상기 정규 객체의 위치 정보를 이용하여 텍스처링 참조 정보를 제공하는 단계는
    거리 영상 제공 서버가 상기 정규 객체의 위치 정보를 수신하는 단계;
    상기 거리 영상 제공 서버가 상기 정규 객체의 위치 정보에 대응되는 거리 영상을 전송하는 단계;
    상기 참조 자료 제공 모듈이 상기 거리 영상을 상기 텍스처링 참조 정보로 제공하는 단계;
    를 더 구성하는 것을 특징으로 하는 무인 관측 수단에 의하여 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 방법.
  29. 쓰리디 맵핑 데이터를 수신하는 매핑 데이터 획득 모듈;
    상기 쓰리디 맵핑 데이터의 노이즈(noise)를 줄이는 간략화 처리 모듈;
    상기 쓰리디 맵핑 데이터로부터 임시 객체를 추출하는 객체화 처리 모듈;
    상기 쓰리디 맵핑 데이터에 대응되는 상기 임시 객체를 정규 객체로 변환하여 상기 맵 상에 배치하는 정규 객체 변환 모듈;
    상기 임시 객체와 매칭되는 매칭 객체 풀을 보유하는 객체 데이터 베이스 모듈;
    상기 쓰리디 맵핑 데이터에 대응되는 맵 상에 상기 정규 객체를 배치하는 브이알 맵 생성 모듈;을 포함하고,
    상기 정규 객체 변환 모듈은
    상기 객체 데이터 베이스 모듈에 저장된 보유 객체 풀 중 상기 임시 객체와 매칭되는 매칭 객체를 검색하여,
    상기 매칭 객체가 검색되는 경우 상기 매칭 객체를 상기 정규 객체로 선택하며,
    상기 매칭 객체가 검색되지 않는 경우 상기 임시 객체를 상기 정규 객체로 선택하고 보유 객체 풀에 저장하는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치.
  30. 제29항에 있어서,
    상기 쓰리디 맵핑 데이터로부터 정사 영상 이미지를 생성하는 정사 영상 생성 모듈;
    상기 정사 영상 이미지로부터 외곽선을 추출하는 외곽선 추출 모듈;
    상기 외곽선을 벡터 처리하여 임시 영역을 형성하는 임시 영역 형성 모듈;
    상기 임시 영역을 상기 쓰리디 맵핑 데이터의 높이 정보를 기반으로 연장하여 상기 임시 객체를 생성하는 임시 객체 생성 모듈;
    상기 정사 영상 생성 모듈에서 생성된 상기 정사 영상 이미지를 블러 처리하는 전처리 모듈;을 더 포함하는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치.
  31. 제29항에 있어서,
    기 설정된 방법에 의해 상기 쓰리디 맵핑 데이터의 다면체를 간략화 하는 간략화 처리 모듈;을 더 포함하는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치.
  32. 제29항에 있어서,
    쓰리디 맵핑 데이터상의 지평선 정보를 인식하는 지평선 정보 인식 모듈;
    지평선 섹터를 기준으로 기설정된 높이 이상 돌출된 영역을 구비한 섹터를 상기 임시 객체로 인식하여 추출하는 임시 객체 섹터 추출 모듈;을 더 포함하는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치.
  33. 제29항에 있어서,
    상기 정규 객체의 외면에 텍스처링 데이터를 제공하는 텍스처링 데이터 모듈;이 더 포함되는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치.
  34. 제33항에 있어서,
    상기 텍스처링 데이터 모듈의 상기 텍스처링 데이터는
    상기 정규 객체에 대응되는 실사 이미지를 수신한 이후에, 상기 실사 이미지로부터 상기 텍스처링 데이터를 수신하며, 상기 정규 객체의 외면의 크기에 맞도록 조절되어 부착되는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치.
  35. 제29항에 있어서,
    상기 정규 객체의 위치 정보를 이용하여 텍스처링 참조 정보를 제공하는 참조 자료 제공 모듈;을 더 포함하는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치.
  36. 제35항에 있어서,
    상기 참조 자료 제공 모듈은
    상기 정규 객체에 상응하는 위치 정보를 제공하는 위치 정보 전송 모듈;
    상기 정규 객체에 상응하는 거리 영상 정보를 제공하는 거리 영상 수신 모듈;
    상기 정규 객체에 상응하는 위치 정보와 거리 영상 정보를 병합하는 참조 영상 병합 모듈;을 더 포함하는 것을 특징으로 하는 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알용 쓰리디 맵 제작 장치.

  37. 삭제
  38. 삭제
  39. 삭제
KR1020180076547A 2018-07-02 2018-07-02 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알(VR, Virtual Reality)용 쓰리디 맵 제작 장치 및 방법 KR102144268B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180076547A KR102144268B1 (ko) 2018-07-02 2018-07-02 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알(VR, Virtual Reality)용 쓰리디 맵 제작 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180076547A KR102144268B1 (ko) 2018-07-02 2018-07-02 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알(VR, Virtual Reality)용 쓰리디 맵 제작 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20200003588A KR20200003588A (ko) 2020-01-10
KR102144268B1 true KR102144268B1 (ko) 2020-08-28

Family

ID=69158369

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180076547A KR102144268B1 (ko) 2018-07-02 2018-07-02 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알(VR, Virtual Reality)용 쓰리디 맵 제작 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102144268B1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011095858A (ja) * 2009-10-27 2011-05-12 Panasonic Electric Works Co Ltd 3次元デジタイザ
KR101157581B1 (ko) 2003-08-01 2012-06-19 소니 가부시키가이샤 지도표시 시스템, 지도데이터 가공장치, 지도표시 장치 및 지도표시 방법
JP2014513792A (ja) 2011-04-14 2014-06-05 ヘキサゴン テクノロジー センター ゲゼルシャフト ミット ベシュレンクテル ハフツング 対象物表面の3d座標を決定するための測定システム
JP2017015598A (ja) * 2015-07-02 2017-01-19 株式会社トプコン 測量データ処理装置、測量データ処理方法および測量データ処理用プログラム
KR101831890B1 (ko) 2017-09-25 2018-02-26 공간정보기술 주식회사 스테레오 카메라를 사용해서 3차원 위치 기반 객체 식별 알고리즘을 응용한 유사도 측정 알고리즘의 정확도 향상 시스템

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5432895A (en) * 1992-10-01 1995-07-11 University Corporation For Atmospheric Research Virtual reality imaging system
CA2705809C (en) * 2007-11-14 2014-05-06 Intergraph Software Technologies Company Method and apparatus of taking aerial surveys
KR101405891B1 (ko) * 2012-10-11 2014-06-17 (주)아이비리더스 항공정보 현시 시스템 및 그 방법
US20150178930A1 (en) * 2013-12-20 2015-06-25 Qualcomm Incorporated Systems, methods, and apparatus for generating metadata relating to spatial regions of non-uniform size
KR20180067908A (ko) * 2016-12-13 2018-06-21 한국전자통신연구원 3차원 모델 복원 장치 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101157581B1 (ko) 2003-08-01 2012-06-19 소니 가부시키가이샤 지도표시 시스템, 지도데이터 가공장치, 지도표시 장치 및 지도표시 방법
JP2011095858A (ja) * 2009-10-27 2011-05-12 Panasonic Electric Works Co Ltd 3次元デジタイザ
JP2014513792A (ja) 2011-04-14 2014-06-05 ヘキサゴン テクノロジー センター ゲゼルシャフト ミット ベシュレンクテル ハフツング 対象物表面の3d座標を決定するための測定システム
JP2017015598A (ja) * 2015-07-02 2017-01-19 株式会社トプコン 測量データ処理装置、測量データ処理方法および測量データ処理用プログラム
KR101831890B1 (ko) 2017-09-25 2018-02-26 공간정보기술 주식회사 스테레오 카메라를 사용해서 3차원 위치 기반 객체 식별 알고리즘을 응용한 유사도 측정 알고리즘의 정확도 향상 시스템

Also Published As

Publication number Publication date
KR20200003588A (ko) 2020-01-10

Similar Documents

Publication Publication Date Title
US10643106B2 (en) System and method for procedurally synthesizing datasets of objects of interest for training machine-learning models
CN112288875B (zh) 一种面向无人机矿山巡检场景的快速三维重建方法
CN104484668B (zh) 一种无人机多重叠遥感影像的建筑物轮廓线提取方法
CN110163064B (zh) 一种道路标志物的识别方法、装置及存储介质
EP3002552B1 (en) A method and a system for building a three-dimensional model from satellite images
EP2923333B1 (de) Verfahren zum automatischen erstellen von zwei- oder dreidimensionalen gebäudemodellen
CN101320473A (zh) 自由多视角、实时的三维重建系统和方法
CN107369204B (zh) 一种从单幅照片恢复出场景基本三维结构的方法
US20080133195A1 (en) Geospatial Modeling System Providing Simulated Tree Trunks for Groups of Tree Crown Vegitation Points and Related Methods
Küng et al. Simplified building models extraction from ultra-light UAV imagery
CN113192179A (zh) 一种基于双目立体视觉的三维重建方法
CN113160062A (zh) 一种红外图像目标检测方法、装置、设备及存储介质
KR101549155B1 (ko) 라이다 자료를 활용한 구조물의 직선경계 추출방법
CN114972646B (zh) 一种实景三维模型独立地物的提取与修饰方法及系统
CN108734773A (zh) 一种用于混合图片的三维重建方法及系统
CN112651881A (zh) 图像合成方法、装置、设备、存储介质以及程序产品
KR102144268B1 (ko) 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알(VR, Virtual Reality)용 쓰리디 맵 제작 장치 및 방법
CN110866945A (zh) 一种倾斜摄影模型自动识别生成三维树的方法
KR20200003618A (ko) 무인 관측 수단에 의해 촬영된 영상을 이용한 브이알(VR, Virtual Reality)용 쓰리디 맵 제작 장치 및 방법
CN113487741B (zh) 稠密三维地图更新方法及装置
CN115063562A (zh) 一种基于多视图三维重建的虚实融合增强现实呈现方法
CN116051980A (zh) 基于倾斜摄影的建筑识别方法、系统、电子设备及介质
CN113284249B (zh) 一种基于图神经网络的多视角三维人体重建方法及系统
CN114387532A (zh) 边界的识别方法及其装置、终端、电子设备和无人设备
CN115729250A (zh) 一种无人机的飞行控制方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right