KR102648882B1 - 3차원 지도에 대한 모델링 데이터의 경량화 방법 - Google Patents

3차원 지도에 대한 모델링 데이터의 경량화 방법 Download PDF

Info

Publication number
KR102648882B1
KR102648882B1 KR1020210158634A KR20210158634A KR102648882B1 KR 102648882 B1 KR102648882 B1 KR 102648882B1 KR 1020210158634 A KR1020210158634 A KR 1020210158634A KR 20210158634 A KR20210158634 A KR 20210158634A KR 102648882 B1 KR102648882 B1 KR 102648882B1
Authority
KR
South Korea
Prior art keywords
face
face group
slope
faces
group
Prior art date
Application number
KR1020210158634A
Other languages
English (en)
Other versions
KR20230072170A (ko
Inventor
김명환
황민
이후경
강필도
김상환
박성혁
Original Assignee
(주)심스리얼리티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)심스리얼리티 filed Critical (주)심스리얼리티
Priority to KR1020210158634A priority Critical patent/KR102648882B1/ko
Publication of KR20230072170A publication Critical patent/KR20230072170A/ko
Application granted granted Critical
Publication of KR102648882B1 publication Critical patent/KR102648882B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 3차원 지도에 대한 모델링 데이터의 경량화 방법에 관한 것으로, 보다 구체적으로 3차원 지도의 모델링 데이터에서 페이스의 기울기에 기초하여 기울기 차이가 임계 기울기 이내인 페이스를 동일 그룹으로 묶으며 동일 그룹에 존재하는 페이스의 특징점을 서로 병합하여 경량화함으로써 3차원 지도에 대한 모델링 데이터를 적은 연산량으로 효율적으로 경량화할 수 있으며, 동일 페이스 그룹에 존재하는 페이스의 기울기를 평탄화시 인접 페이스 그룹의 기울기를 고려함으로써 3차원 지도에 대한 모델링 데이터를 경량화함에도 불구하고 3차원 공간을 자연스럽게 구현할 수 있는 3차원 지도에 대한 모델링 데이터의 경량화 방법에 관한 것이다.

Description

3차원 지도에 대한 모델링 데이터의 경량화 방법{Method for lighting 3D map medeling data}
본 발명은 3차원 지도에 대한 모델링 데이터의 경량화 방법에 관한 것으로, 보다 구체적으로 3차원 지도의 모델링 데이터에서 페이스의 기울기에 기초하여 기울기 차이가 임계 기울기 이내인 페이스를 동일 그룹으로 묶으며 동일 그룹에 존재하는 페이스의 특징점을 서로 병합함으로써 3차원 지도에 대한 모델링 데이터를 적은 연산량으로 효율적으로 경량화할 수 있으며, 동일 페이스 그룹에 존재하는 페이스의 기울기를 평탄화시 인접 페이스 그룹의 기울기를 고려함으로써 3차원 지도에 대한 모델링 데이터를 경량화함에도 불구하고 3차원 공간을 자연스럽게 구현할 수 있는 3차원 지도에 대한 모델링 데이터의 경량화 방법에 관한 것이다.
비전기술을 이용하여 실시간으로 객체를 검출하고 인식하는 일은 어려운 일임에도 불구하고 영상처리 기법의 발전과 더불어 컴퓨터, 카메라 등의 하드웨어의 성능 향상으로 인하여 이에 대한 연구가 활발히 진행되고 있다.
공간에서 효과적으로 위치를 판단하며 이동하기 위해서 이동하고 있는 공간에 대한 지도를 생성하고 공간상의 자신의 위치를 인식하는 것이 요구된다. 주변 공간에 대하여 위치를 인식하고 지도를 형성하는 것을 동시 위치인식 및 지도형성(SLAM : Simultaneous Localization And Mapping)이라고 한다.
슬램(SLAM, Simultaneous Localization And Mapping)은 1986년 랜들C. 스미스와 피터 치즈맨의 로봇공학 논문에 처음 등장한 개념으로 정보가 주어지지 않는 임의의 3차원 공간을 이동하며 3차원 공간을 카메라로 촬영하고 촬영한 영상으로부터 지도를 작성하고 현재 위치를 추정할 수 있는 기술을 의미한다.
SLAM은 공간에 위치하는 객체의 특징 데이터에 기반하여 지도를 생성하는데, 지도 생성에 사용되는 센서 유형에 따라 SLAM 알고리즘에 활용되는 특징 데이터도 다르다. 예컨대, 초음파(Sonar), 레이저와 같은 거리 센서를 통해 얻어진 거리 정보, GPS 기기를 통해 직접 얻어지는 좌표 정보, IMU장비를 통해 얻어지는 가속도 정보, 카메라의 영상 정보 등이 특징 데이터로 사용될 수 있다.
카메라의 영상 정보를 이용한 SLAM 기법을 비주얼(Visual) SLAM이라고 하는데, 비주얼 SLAM은 영상에서 추출한 시각 특징점을 이용하여 주변 환경에 대한 지도를 생성하고, 생성한 지도에 기반하여 현재 위치를 추정한다.
도 1은 종래 비주얼 SLAM 기법으로 3차원 지도를 생성하는 방법의 일 예를 도시하고 있다.
도 1을 참고로 보다 구체적으로 살펴보면, 지도를 생성하고자 하는 3차원 공간의 영상을 촬영하고 촬영한 영상에서 특징점을 추출한다(S10). 특징점을 추출하기 위하여 사람이 직접 웨어러블 영상 장비를 착용 후 3차원 공간을 돌아다니며 영상을 촬영하고 촬영한 영상에서 특징점을 추출할 수 있거나, 이동 로봇에 영상 촬영 장비를 설치하여 이동 로봇을 3차원 공간으로 이동시키며 영상을 촬영하고 촬영한 영상에서 특징점을 추출할 수 있다.
여기서 영상 장비는 모노 카메라, 스테레오 카메라, 깊이 카메라 또는 이들의 조합이 사용될 수 있다. 한편 카메라는 CCD(charge coupled device) 또는 CMOS(complementary metal oxide semiconductor) 이미지 센서와, 이미지 센서의 출력을 수신하여 2D 이미지를 생성하는 영상처리모듈 등을 구비하고 있다.
특징점은 객체의 형상을 대표하는 요소로서 객체를 묘사하고 모델링할 수 있는 중요한 점이며, 명확하게 식별이 가능한 특이점(interest point)으로서 모서리(corner), 정점(apex) 및 꼭지점(vertex)이 특징점에 해당된다. 영상에서 특징점을 추출하는 방법은 CSS(Curvature Scale Space), FAST-ER(FAST-Enhanced Repeatability)등의 알고리즘을 사용하거나, Harris corner detection 기법을 사용하여 특정한 "점"을 추출하거나, Canny edgy detection 기법을 사용하여 특정한 "선"을 추출하는 것이 가능하다. 다양한 방식으로 특징점을 추출할 수 있으며 이에 대한 상세한 설명은 생략한다.
추출한 특징점은 2차원 상의 좌표로 표시되는데, 특징점의 깊이 정보를 구비하는 3차원 좌표로 변환하여 포인트 클라우드를 생성한다(S30). 촬영한 영상에서 깊이 정보를 획득하기 위하여 모노 카메라를 통해 촬영한 현재 영상 프레임을 기준으로 전/후 영상 프레임을 이용하여 깊이 정보를 획득하거나, 스테레오 카메라를 통해 촬영한 영상 프레임의 시차를 이용하여 깊이 정보를 획득하거나, 깊이 카메라를 이용하여 깊이 정보를 획득할 수 있다.
추출한 특징점은 3차원 공간에서 촬영한 영상에서 계속해서 추척되며, 3차원 공간 전체에 대한 포인트 클라우드를 조합하여(S50), 3차원 공간의 3차원 지도를 생성한다(S70).
생성한 3차원 지도에서 특징점들은 3차원 좌표로 매핑되어 저장되는데, 차후 사용자가 현재 위치에서 촬영한 영상에서 추출되는 특징점들과 생성한 3차원 지도에 일치하는 특징점을 비교하여 3차원 지도에서 현재 위치를 추정할 수 있다.
이와 같이 작성한 3차원 지도에 대한 모델링 데이터는 특징점(vertices), 특징점을 서로 연결한 에지(edge) 그리고 특징점으로 연결된 3각형의 페이스(face) 등으로 구성되는데, 도 2는 3차원 지도에 대한 모델링 데이터이 일 예를 도시하고 있다.
3차원 지도에 대한 모델링 데이터에서 페이스가 많을수록 3차원 공간을 부드럽게 표현할 수 있으나, 이에 상응하여 3차원 지도에 대한 모델링 데이터의 크기가 증가하여 데이터를 관리하기 곤란하다는 문제점을 가진다.
따라서 3차원 지도에 대한 모델링 데이터를 줄이면서 동시에 3차원 공간을 사용자가 자연스럽게 인식할 수 있는 3차원 지도에 대한 모델링 데이터의 경량화 기술이 요구된다.
본 발명은 위에서 언급한 종래 3차원 지도에 대한 모델링 데이터가 가지는 문제점을 해결하기 위한 것으로, 본 발명이 이루고자 하는 목적은 페이스의 기울기에 기초하여 기울기 차이가 임계 기울기 이내인 페이스를 동일 그룹으로 묶으며 동일 그룹에 존재하는 페이스의 특징점을 서로 병합하여 3차원 지도에 대한 모델링 데이터를 경량화할 수 있는 방법을 제공하는 것이다.
본 발명이 이루고자 하는 다른 목적은 동일 그룹에 존재하는 페이스의 기울기를 평탄화시 인접 그룹의 기울기를 고려하여 3차원 지도에 대한 모델링 데이터를 경량화함에도 불구하고 3차원 공간을 자연스럽게 구현할 수 있는 3차원 지도에 대한 모델링 데이터를 경량화할 수 있는 방법을 제공하는 것이다.
본 발명의 목적을 달성하기 위하여 본 발명에 따른, 3차원 공간에 대한 모델링 데이터의 경량화 방법은 3차원 공간에 존재하는 객체의 특징점으로 이루어진 3차원 공간에 대한 모델링 데이터에서 특징점들로부터 만들어지는 페이스(face)의 기울기에 기초하여 인접한 페이스를 서로 연결한 페이스 그룹을 생성하는 단계와, 페이스 그룹에 존재하는 페이스를 서로 동일한 기울기로 변경하여 페이스 그룹을 평탄화하는 단계와, 평탄화된 페이스 그룹에서 특징점을 병합하여 병합 페이스 그룹을 생성하는 단계를 포함하는 것을 특징으로 한다.
본 발명에서 페이스 그룹을 생성하는 단계는 인접한 페이스 사이의 기울기가 임계 기울기 이내인 경우 인접한 페이스들을 서로 연결하여 페이스 그룹을 생성하는 것을 특징으로 한다.
본 발명의 일 실시예에서 페이스 그룹을 생성하는 단계는 에지(edge)를 공유하는 인접한 페이스 사이의 기울기가 임계 기울기 이내인 경우 인접한 페이스들을 서로 연결하여 페이스 그룹을 생성하는 것을 특징으로 한다.
본 발명의 다른 실시예에서 페이스 그룹을 생성하는 단계는 기준 페이스와 인접 페이스 사이의 기울기가 임계 기울기 이내인 경우 기준 페이스와 인접 페이스를 서로 연결하여 페이스 그룹을 생성하는 것을 특징으로 한다.
바람직하게, 본 발명의 일 실시예에서 페이스 그룹을 평탄화하는 단계는 제1 페이스 그룹을 구성하는 페이스 중 제1 페이스 그룹에 인접한 인접 페이스 그룹과 에지를 공유하는 공유 페이스를 판단하는 단계와, 공유 페이스의 기울기를 계산하고 공유 페이스의 기울기 평균값을 계산하는 단계와, 계산한 기울기 평균값으로 제1 페이스 그룹을 구성하는 페이스의 기울기를 동일하게 변경하여 제1 페이스 그룹을 평탄화하는 단계를 포함하는 것을 특징으로 한다.
본 발명에서 병합 페이스 그룹을 생성하는 단계는 페이스 그룹의 외곽 둘레에 존재하는 특징점에 연결된 페이스를 제외하고 가장 작은 수의 페이스를 가지도록 병합 페이스 그룹을 생성하는 것을 특징으로 한다.
바람직하게 본 발명의 일 실시예에서 병합 페이스 그룹을 생성하는 단계는 페이스 그룹의 페이스 중 페이스 그룹의 외곽 둘레에 존재하는 특징점에 연결된 페이스를 제외하고 가장 넓은 면적을 가지는 최대 면적 페이스를 검색하는 단계(a 단계), 최대 면적 페이스의 에지 중 가장 긴 최대 에지를 판단하는 단계(b 단계), 최대 에지의 중간지점을 계산하여 중간지점에 가상 특징점을 생성하는 단계(c 단계), 최대 에지를 구성하는 특징점들을 가상 특징점으로 병합하는 단계(d 단계)를 포함하는 것을 특징으로 한다.
본 발명에서 병합 페이스 그룹을 생성하는 단계는 페이스 그룹의 외곽 둘레에 존재하는 특징점에 연결된 페이스만 남을 때까지 (a) 단계 내지 (d) 단계를 반복하는 것을 특징으로 한다.
본 발명에 따른 3차원 지도에 대한 모델링 데이터의 경량화 방법은 페이스의 기울기에 기초하여 기울기 차이가 임계 기울기 이내인 페이스를 동일 그룹으로 묶으며 동일 그룹에 존재하는 페이스의 특징점을 서로 병합함으로써, 3차원 지도에 대한 모델링 데이터를 적은 연산량으로 효율적으로 경량화할 수 있다.
한편 본 발명에 따른 3차원 지도에 대한 모델링 데이터의 경량화 방법은 동일 그룹에 존재하는 페이스의 기울기를 평탄화시 인접 그룹의 기울기를 고려함으로써, 3차원 지도에 대한 모델링 데이터를 경량화함에도 불구하고 3차원 공간을 자연스럽게 구현할 수 있다.
도 1은 종래 비주얼 SLAM 기법으로 3차원 지도를 생성하는 방법의 일 예를 도시하고 있다.
도 2는 3차원 지도에 대한 모델링 데이터이 일 예를 도시하고 있다.
도 3은 본 발명에 따른 3차원 지도에 대한 모델링 데이터의 경량화 장치를 설명하기 위한 기능 블록도이다.
도 4는 본 발명에 따른 3차원 지도에 대한 모델링 데이터의 경량화 방법을 설명하기 위한 흐름도이다.
도 5는 3차원 지도에 대한 모델링 데이터의 일 예를 도시하고 있다.
도 6은 페이스 사이의 기울기를 계산하는 일 예를 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따라 동일 페이스 그룹을 평탄화하는 방법을 설명하기 위한 흐름도이다.
도 8은 본 발명에서 동일 페이스 그룹을 평탄화하는 일 예를 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에서 병합 페이스 그룹을 생성하는 방법을 설명하기 위한 흐름도이다.
도 10은 본 발명에서 병합 페이스 그룹을 생성하는 일 예를 설명하기 위한 도면이다.
본 발명에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다.
또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서, "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들, 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.
또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.
본 발명은(연구관리전문기관) 대전정보문화산업진흥원, (연구사업명) 2021년 대전 XR융합콘텐츠 고도화 지원사업,(연구과제명) 3D 가상현실기반 정비학습 시뮬레이션 고도화, (과제수행기관명) ㈜심스리얼리티,(연구기간)2021.08.11 ~ 2021.12.10의 과제 성과로 출원되는 발명이다.
이하 첨부한 도면을 참고로 본 발명에 따른 3차원 지도에 대한 모델링 데이터의 경량화 방법에 대해 보다 구체적으로 살펴본다.
도 3은 본 발명에 따른 3차원 지도에 대한 모델링 데이터의 경량화 장치를 설명하기 위한 기능 블록도이다.
도 3을 참고로 보다 구체적으로 살펴보면, 데이터베이스부(120)에는 3차원 공간을 스캔하여 생성한 3차원 지도에 대한 모델링 데이터가 저장되어 있다. 그룹 생성부(110)는 데이터베이스부(120)에 저장되어 있는 모델링 데이터를 추출하고 추출한 모델링 데이터에서 객체의 특징점들로부터 만들어지는 페이스의 기울기를 계산하며 페이스의 기울기가 임계 기울기 이내인 페이스를 서로 연결하여 페이스 그룹으로 생성한다.
평탄화부(130)는 페이스 그룹에 포함되어 있는 페이스들에 대한 평탕화 기울기를 계산하고, 계산한 평탄화 기울기로 페이스 그룹에 존재하는 모든 페이스들의 기울기를 동일하게 변경하여 페이스 그룹을 평탄화한다.
병합부(150)는 평탄화된 페이스 그룹에 존재하는 페이스의 특징점을 서로 병합한다.
평탄화부(130)와 병합부(150)는 그룹 생성부(110)에서 생성된 모든 페이스 그룹에 대해 앞서 설명한 평탄화 동작과 병합 동작을 반복하여 데이터베이스부(120)에 저장된 3차원 지도에 대한 모델링 데이터를 경량화하며, 경량화된 3차원 지도에 대한 모델링 데이터는 데이터베이스부(120)에 저장된다. 여기서 경량화된 3차원 지도에 대한 모델링 데이터는 경량화되지 않은 3차원 지도에 대한 모델링 데이터와 함께 데이터베이스부(120)에 저장되거나, 경량화되지 않은 3차원 지도에 대한 모델링 데이터를 갱신하여 경량화된 3차원 지도에 대한 모델링 데이터만이 저장될 수 있다.
응용부(170)는 데이터베이스부(120)에 저장된 경량화된 3차원 지도에 대한 모델링 데이터를 이용하여 3차원 공간을 구현하는데, 응용부(170)는 경량화된 3차원 지도에 대한 모델링 데이터를 이용하여 3차원 공간의 디스플레이, 3차원 공간의 이동 등을 구현함으로써 적은 연산량으로 구현 속도를 향상시킬 수 있다.
도 4는 본 발명에 따른 3차원 지도에 대한 모델링 데이터의 경량화 방법을 설명하기 위한 흐름도이다.
도 4를 참고로 보다 구체적으로 살펴보면, 3차원 공간에 존재하는 객체의 특징점으로 이루어진 3차원 공간에 대한 모델링 데이터에서 특징점들로부터 만들어지는 페이스의 기울기를 계산하고, 계산한 페이스의 기울기에 기초하여 인접 페이스를 서로 연결하여 페이스 그룹을 생성한다(S110).
본 발명에서 인접 페이스 사이의 기울기가 임계 기울기 이내인 경우 인접 페이스들을 서로 연결하여 페이스 그룹을 생성하는데, 본 발명의 일 실시예에서 에지(edge)를 공유하는 인접 페이스 사이의 기울기가 임계 기울기 이내인 경우 인접한 페이스들을 서로 연결하여 페이스 그룹을 생성한다.
본 발명의 다른 실시예에서 기준 페이스와 주변 인접 페이스 사이의 기울기가 임계 기울기 이내인 경우 기준 페이스와 주변 인접 페이스를 서로 연결하여 페이스 그룹을 생성할 수 있다.
즉, 페이스 그룹을 생성하는 일 실시예에서 서로 에지를 공유하는 인접한 페이스의 기울기가 임계 기울기 이내인 경우 동일한 페이스 그룹으로 연결하며, 페이스 그룹을 생성하는 다른 실시예에서 기준 페이스를 기준으로 서로 에지를 공유하거나 공유하지 않는 주변 인접 페이스 사이의 기울기가 임계 기울기 이내인 경우 동일한 페이스 그룹으로 연결할 수 있다.
본 발명이 적용되는 분야에 따라 다양한 방식으로 페이스 그룹을 생성할 수 있으며 이는 본 발명의 범위에 속한다.
페이스 그룹을 생성한 경우, 페이스 그룹에 존재하는 페이스에 대한 평탄화 기울기를 계산하고 계산한 평탄화 기울기로 페이스 그룹에 존재하는 모든 페이스들의 기울기를 동일하게 변경하여 페이스 그룹을 평탄화한다(S130).
평탄화된 페이스 그룹에서 특징점을 병합하여 병합 페이스 그룹을 생성한다(S150). 평탄화된 페이스 그룹 단위로 각 페이스 그룹의 외곽 둘레에 존재하는 특징점에 연결된 외부 페이스로 이루어진, 가장 작은 수의 페이스를 가지도록 병합 페이스 그룹을 생성한다.
도 5는 3차원 지도에 대한 모델링 데이터의 일 예를 도시하고 있는데, 도 5(a)에 도시되어 있는 바와 같이 임의로 선택된 제1 페이스(F1)부터 시작하여 서로 인접한 페이스의 기울기가 임계 기울기 이내인 페이스를 동일한 페이스 그룹으로 생성한다.
일 실시예에서 제1 페이스(F1)와 에지를 공유하는 제2 페이스(F2) 사이의 기울기가 임계 기울기 이내인 경우 제1 페이스(F1)와 제 2페이스(F2)를 서로 연결하여 동일 페이스 그룹으로 생성하며, 다시 제2 페이스(F2)와 에지를 공유하는 제3 페이스(F3) 사이의 기울기가 임계 기울기 이내인 경우 제1 페이스(F1), 제2 페이스(F2), 제3 페이스(F3)를 서로 연결하여 동일 페이스 그룹으로 생성한다. 이와 같이 서로 인접한 페이스의 기울기가 임계 기울기 이내인 모든 인접 페이스로부터 동일 페이스 그룹을 생성한다.
다만 인접 페이스와 적어도 2개 이상의 에지를 공유하는 경우 에지를 공유하는 모든 인접 페이스 사이의 기울기가 임계 기울기 이내인 경우 동일 페이스 그룹으로 생성하며, 에지를 공유하는 인접 페이스 중 1개의 인접 페이스라도 기울기가 임계 기울기를 초과하는 경우 동일 페이스 그룹에서 제외된다.
다른 실시예에서 임의로 선택된 제1 페이스(F1)를 기준 페이스로 선택하고 기준 페이스(F1)와 기준 페이스(F1)의 주변에 위치하는 주변 인접 페이스의 기울기를 계산하여 임계 기울기 이내인 주변 인접 페이스(F2, F3, F3, F4, F5, F6)를 동일 페이스 그룹으로 생성한다.
3차원 지도에 대한 모델링 데이터에 존재하는 모든 페이스에 대해 페이스 그룹을 생성하는 과정을 진행하는데, 도 5(b)는 인접 페이스 사이의 기울기에 기초하여 생성되는 페이스 그룹(G1, G2, G3)의 일 예를 도시하고 있다.
여기서 페이스 사이의 기울기는 페이스의 중심선에 대한 벡터를 이용하여 중심선 사이의 내적 각도를 이용하여 계산될 수 있다. 즉 도 6(a)에 도시되어 있는 바와 같이 제1 페이스(F1)와 제2 페이스(F2)가 서로 경사져 있는 경우, 서로 공유하는 에지를 기준으로 제1 페이스(F1)의 중심선(a)와 제2 페이스(F2)의 중심선(b)이 존재한다.
도 6(b)에 도시되어 있는 바와 같이, 제1 페이스(F1)의 중심선(a)와 제2 페이스(F2)의 중심선(b) 사이의 내적 각도(x)를 계산하여 제1 페이스(F1)와 제2 페이스(F2) 사이의 기울기를 계산할 수 있다.
본 발명이 적용되는 분야에 따라 공지된 다양한 방식으로 3차원 공간에서 서로 인접한 페이스 사이의 기울기를 계산할 수 있으며 이는 본 발명의 범위에 속한다.
도 7은 본 발명의 일 실시예에 따라 동일 페이스 그룹을 평탄화하는 방법을 설명하기 위한 흐름도이다.
도 7을 참고로 보다 구체적으로 살펴보면, 제1 페이스 그룹을 구성하는 페이스 중 제1 페이스 그룹에 인접한 인접 페이스 그룹과 에지를 공유하는 공유 페이스를 판단한다(S131). 공유 페이스와 에지를 공유하는 인접 페이스 그룹의 인접 페이스 사이의 기울기를 계산하고 공유 페이스의 기울기 평균값을 계산한다(S133).
계산한 기울기 평균값을 제1 페이스 그룹의 평탄화 기울기로 설정하고, 제1 페이스 그룹을 구성하는 페이스의 기울기를 설정한 평탄화 기울기로 동일하게 변경하여 제1 페이스 그룹을 평탄화한다(S135).
도 8은 본 발명에서 동일 페이스 그룹을 평탄화하는 일 예를 설명하기 위한 도면이다.
도 8(a)에 도시되어 있는 바와 같이, 제1 페이스 그룹(G1)부터 시작하여 순차적으로 다른 페이스 그룹을 평탄화하는데, 먼저 제1 페이스 그룹에 존재하는 페이스 중 제1 페이스 그룹에 인접한 인접 페이스 그룹과 에지를 공유하는 공유 페이스(F3, F4, F5, F6)를 판단하고, 공유 페이스와 에지를 공유하는 인접 페이스 그룹의 인접 페이스 사이의 기울기를 계산하고 공유 페이스의 기울기 평균값을 계산한다. 계산한 기울기 평균값을 제1 페이스 그룹의 평탄화 기울기로 설정하여 제1 페이스 그룹의 페이스들을 평탄화한다.
도 8(b)에 도시되어 있는 바와 같이, 제2 페이스 그룹(G2)에 존재하는 페이스 중 제2 페이스 그룹에 인접한 인접 페이스 그룹과 에지를 공유하는 공유 페이스(F7, F8, F9, F10)를 판단하고, 공유 페이스와 에지를 공유하는 인접 페이스 그룹의 인접 페이스 사이의 기울기를 계산하고, 공유 페이스의 기울기 평균값을 계산한다. 기울기 평균값을 제2 페이스 그룹의 평탄화 기울기로 설정하여 제2 페이스 그룹의 페이스들을 평탄화한다.
도 8(c)에 도시되어 있는 바와 같이, 제3 페이스 그룹(G3)에 존재하는 페이스 중 제3 페이스 그룹에 인접한 인접 페이스 그룹과 에지를 공유하는 공유 페이스(F11, F12, F13)를 판단하고, 공유 페이스와 에지를 공유하는 인접 페이스 그룹의 인접 페이스 사이의 기울기를 계산하고, 공유 페이스의 기울기 평균값을 계산한다. 기울기 평균값을 제3 페이스 그룹의 평탄화 기울기로 설정하여 제2 페이스 그룹의 페이스들을 평탄화한다.
도 8(d)에 도시되어 있는 바와 같이, 모든 페이스 그룹을 각 페이스 그룹에 대한 평탄화 기울기로 평탄화한다.
도 9는 본 발명의 일 실시예에서 병합 페이스 그룹을 생성하는 방법을 설명하기 위한 흐름도이다.
도 9를 참고로 보다 구체적으로 살펴보면, 페이스 그룹의 페이스 중 페이스 그룹의 외곽 둘레에 존재하는 특징점에 연결된 외부 페이스와 외곽 둘레에 존재하는 특징점에 연결되지 않은 내부 페이스를 판단한다(S151).
외부 페이스를 제외하고 내부 페이스 중 가장 넓은 면적을 가지는 최대 면적 페이스를 검색하고(S153), 최대 면적 페이스를 구성하는 에지 중 가장 긴 최대 에지를 판단한다(S155).
판단한 최대 에지의 중간지점을 계산하여 중간지점에 대한 가상 특징점을 생성하고(S156), 최대 에지를 구성하는 특징점들을 가상 특징점으로 병합한다(S157).
페이스 그룹에 내부 페이스가 존재하는지 판단하여(S159), 내부 페이스가 존재하는 경우 앞서 설명한 S153, S155, S156단계를 반복하여 계속해서 생성되는 가상 특징점으로 특징점들을 병합하여 3차원 공간에 대한 모델링 데이터를 경량화한다.
그러나 페이스 그룹에 내부 페이스가 더 이상 존재하지 않는 경우, 해당 페이스 그룹에 대한 모델링 데이터의 경량화가 종료된 것으로 판단한다. 모든 페이스 그룹에 대해 모델링 데이터의 경량화를 진행하며, 경량화된 3차원 공간에 대한 모델링 데이터를 데이터베이스부에 저장한다.
도 10은 본 발명에서 병합 페이스 그룹을 생성하는 일 예를 설명하기 위한 도면이다.
도 10(a)에 도시되어 있는 바와 같이, 페이스 그룹의 페이스 중 페이스 그룹의 외곽 둘레에 존재하는 특징점에 연결된 외부 페이스와 외곽 둘레에 존재하는 특징점에 연결되지 않는 내부 페이스를 판단한다.
도 10(b)에 도시되어 있는 바와 같이, 내부 페이스 중 가장 면적이 넓은 최대 면적 페이스(F1)을 검색하고, 도 10(c)에 도시되어 있는 바와 같이 최대 면적 페이스(F1)를 구성하는 에지(L1, L2, L3) 중 가장 긴 최대 에지(L3)를 판단한다.
도 10(d)에 도시되어 있는 바와 같이, 최대 에지(L3)의 중간 지점을 계산하여 중간 지점을 가상 특징점(V')로 생성하고, 가상 특징점(v')으로 최대 에지(L3)을 구성하는 특징점(V1, V2)를 가상 특징점(V')로 병합한다. 도 10(e)는 최대 에지(L3)을 구성하는 특징점(V1, V2)를 가상 특징점(V')으로 병합한 상태를 도시하고 있다.
페이스 그룹에 내부 페이스가 존재하는지 판단하여, 내부 페이스가 존재하는 경우 계속해서 생성되는 가상 특징점으로 특징점들을 병합하여 3차원 공간에 대한 모델링 데이터를 경량화한다. 페이스 그룹에 내부 페이스가 존재하지 않은 경우 페이스 그룹에 대한 경량화가 종료하는데, 도 10(f)는 경량화가 종료된 페이스 그룹을 도시하고 있다.
한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록 매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.
상기 컴퓨터로 읽을 수 있는 기록 매체는 마그네틱 저장 매체(예를 들어, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)와 같은 저장 매체를 포함한다.
110: 그룹 생성부 120: 데이터베이스부
130: 평탄화부 150: 병합부
170: 응용부

Claims (8)

  1. 3차원 공간에 대한 모델링 데이터의 경량화 방법에 있어서,
    3차원 공간에 존재하는 객체의 특징점으로 이루어진 3차원 공간에 대한 모델링 데이터에서 특징점들로부터 만들어지는 페이스(face)의 기울기에 기초하여 인접한 페이스를 서로 연결한 페이스 그룹을 생성하는 단계;
    페이스 그룹에 존재하는 페이스를 서로 동일한 기울기로 변경하여 상기 페이스 그룹을 평탄화하는 단계;
    평탄화된 페이스 그룹에서 특징점을 병합하여 병합 페이스 그룹을 생성하는 단계를 포함하고,
    상기 병합 페이스 그룹을 생성하는 단계는
    (a) 상기 페이스 그룹의 페이스 중 상기 페이스 그룹의 외곽 둘레에 존재하는 특징점에 연결된 페이스를 제외하고 가장 넓은 면적을 가지는 최대 면적 페이스를 검색하는 단계;
    (b) 상기 최대 면적 페이스의 에지 중 가장 긴 최대 에지를 판단하는 단계;
    (c) 최대 에지의 중간지점을 계산하여 중간지점에 가상 특징점을 생성하는 단계; 및
    (d) 상기 최대 에지를 구성하는 특징점들을 상기 가상 특징점으로 병합하는 단계를 포함하는 것을 특징으로 하는 데이터 경량화 방법.
  2. 제 1 항에 있어서, 상기 페이스 그룹을 생성하는 단계에서
    인접한 페이스 사이의 기울기가 임계 기울기 이내인 경우 인접한 페이스들을 서로 연결하여 페이스 그룹을 생성하는 것을 특징으로 하는 데이터 경량화 방법.
  3. 제 2 항에 있어서, 상기 페이스 그룹을 생성하는 단계에서
    에지(edge)를 공유하는 인접한 페이스 사이의 기울기가 임계 기울기 이내인 경우 인접한 페이스들을 서로 연결하여 페이스 그룹을 생성하는 것을 특징으로 하는 데이터 경량화 방법.
  4. 제 2 항에 있어서, 상기 페이스 그룹을 생성하는 단계는
    기준 페이스와 인접 페이스 사이의 기울기가 임계 기울기 이내인 경우 기준 페이스와 인접 페이스를 서로 연결하여 페이스 그룹을 생성하는 것을 특징으로 하는 데이터 경량화 방법.
  5. 제 2 항에 있어서, 상기 페이스 그룹을 평탄화하는 단계는
    제1 페이스 그룹을 구성하는 페이스 중 상기 제1 페이스 그룹에 인접한 인접 페이스 그룹과 에지를 공유하는 공유 페이스를 판단하는 단계;
    상기 공유 페이스의 기울기를 계산하고 상기 공유 페이스의 기울기 평균값을 계산하는 단계; 및
    계산한 상기 기울기 평균값으로 상기 제1 페이스 그룹을 구성하는 페이스의 기울기를 동일하게 변경하여 상기 제1 페이스 그룹을 평탄화하는 단계를 포함하는 것을 특징으로 하는 데이터 경량화 방법.
  6. 제 2 항에 있어서, 상기 병합 페이스 그룹을 생성하는 단계는
    페이스 그룹의 외곽 둘레에 존재하는 특징점에 연결된 페이스를 제외하고 가장 작은 수의 페이스를 가지도록 병합 페이스 그룹을 생성하는 것을 특징으로 하는 데이터 경량화 방법.
  7. 삭제
  8. 제 6 항에서 있어서, 상기 병합 페이스 그룹을 생성하는 단계는
    상기 페이스 그룹의 외곽 둘레에 존재하는 특징점에 연결된 페이스만 남을 때까지 상기 (a) 단계 내지 (d) 단계를 반복하는 것을 특징으로 하는 데이터 경량화 방법.
KR1020210158634A 2021-11-17 2021-11-17 3차원 지도에 대한 모델링 데이터의 경량화 방법 KR102648882B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210158634A KR102648882B1 (ko) 2021-11-17 2021-11-17 3차원 지도에 대한 모델링 데이터의 경량화 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210158634A KR102648882B1 (ko) 2021-11-17 2021-11-17 3차원 지도에 대한 모델링 데이터의 경량화 방법

Publications (2)

Publication Number Publication Date
KR20230072170A KR20230072170A (ko) 2023-05-24
KR102648882B1 true KR102648882B1 (ko) 2024-03-19

Family

ID=86540688

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210158634A KR102648882B1 (ko) 2021-11-17 2021-11-17 3차원 지도에 대한 모델링 데이터의 경량화 방법

Country Status (1)

Country Link
KR (1) KR102648882B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101507776B1 (ko) * 2014-06-18 2015-04-07 (주)이지스 3차원 지도의 외곽선 표현 방법

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3973273B2 (ja) * 1997-09-22 2007-09-12 三洋電機株式会社 画像生成装置および画像生成方法
KR20070035800A (ko) * 2005-09-28 2007-04-02 엘지전자 주식회사 인접 화소의 기울기를 이용한 영상 잡음 제거 장치 및 방법
KR100909024B1 (ko) * 2007-10-09 2009-07-22 한양대학교 산학협력단 정밀한 기울기 특성을 고려한 저복잡도 영상 보간 장치 및방법
KR101497503B1 (ko) * 2008-09-25 2015-03-04 삼성전자주식회사 2차원 영상의 3차원 영상 변환을 위한 깊이 맵 생성 방법 및 장치
KR101753101B1 (ko) * 2015-11-28 2017-07-03 계명대학교 산학협력단 컬러영상에서 Mean-Shift 군집화와 단계별 병합 방법을 이용한 자동 원료 선별 방법 및 장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101507776B1 (ko) * 2014-06-18 2015-04-07 (주)이지스 3차원 지도의 외곽선 표현 방법

Also Published As

Publication number Publication date
KR20230072170A (ko) 2023-05-24

Similar Documents

Publication Publication Date Title
US11475626B2 (en) Damage detection from multi-view visual data
US10977818B2 (en) Machine learning based model localization system
US11721067B2 (en) System and method for virtual modeling of indoor scenes from imagery
US10540576B1 (en) Panoramic camera systems
CN109660783B (zh) 虚拟现实视差校正
US10477178B2 (en) High-speed and tunable scene reconstruction systems and methods using stereo imagery
CN110799991A (zh) 用于使用卷积图像变换执行同时定位和映射的方法和系统
JP2021535466A (ja) シーンの色及び深度の情報を再構成するための方法及びシステム
IL284840B (en) Damage detection using visual data from multiple viewing angles
KR101869605B1 (ko) 평면정보를 이용한 3차원 공간 모델링 및 데이터 경량화 방법
Saxena et al. 3-d reconstruction from sparse views using monocular vision
US20210224973A1 (en) Mobile multi-camera multi-view capture
KR102648882B1 (ko) 3차원 지도에 대한 모델링 데이터의 경량화 방법
Haji-Esmaeili et al. Large-scale Monocular Depth Estimation in the Wild
JP7495546B2 (ja) 畳み込み画像変換を使用して同時位置特定およびマッピングを実施する方法およびシステム
Cahier et al. Time-of-flight camera based probabilistic polygonal mesh mapping
KR20240043315A (ko) 직육면체를 검출하여 증강현실 게임 공간을 구성하는 장치 및 방법
Akuha Solomon Aondoakaa Depth Estimation from a Single Holoscopic 3D Image and Image Up-sampling with Deep-learning
KR20220065301A (ko) 3차원 모델의 텍스처를 생성하기 위한 방법 및 장치

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant