KR20200042790A - 3d 모델링 장치 및 방법 - Google Patents

3d 모델링 장치 및 방법 Download PDF

Info

Publication number
KR20200042790A
KR20200042790A KR1020180123392A KR20180123392A KR20200042790A KR 20200042790 A KR20200042790 A KR 20200042790A KR 1020180123392 A KR1020180123392 A KR 1020180123392A KR 20180123392 A KR20180123392 A KR 20180123392A KR 20200042790 A KR20200042790 A KR 20200042790A
Authority
KR
South Korea
Prior art keywords
feature point
indoor
region
modeling
point cloud
Prior art date
Application number
KR1020180123392A
Other languages
English (en)
Other versions
KR102160196B1 (ko
Inventor
유연걸
신승호
임국찬
전진수
조익환
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020180123392A priority Critical patent/KR102160196B1/ko
Publication of KR20200042790A publication Critical patent/KR20200042790A/ko
Application granted granted Critical
Publication of KR102160196B1 publication Critical patent/KR102160196B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)

Abstract

일 실시예에 따른 3D 모델링 방법은, 라이다에 의해 실내 공간에 대한 포인트 클라우드(Point cloud)를 획득하는 단계; 카메라에 의해 상기 실내 공간에 대한 복수의 실내 영상을 획득하는 단계; 상기 복수의 실내 영상으로부터 특징점 결핍 영역을 결정하는 단계; 상기 특징점 결핍 영역에 대응되는 포인트 클라우드 및 상기 복수의 실내 영상을 기초로 상기 실내 공간을 3D 모델링하는 단계를 포함한다.

Description

3D 모델링 장치 및 방법{APPARATUS AND METHOD FOR 3D MODELING}
본 발명은 실내 공간을 3D 모델링 하는 3D 모델링 장치 및 방법에 관한 것이다.
근래에 들어, 가상 현실 혹은 증강 현실과 같이 가상의 정보를 이용하여 구현된 다양한 컨텐츠가 제안되고 있다. 가상 현실(Virtual Reality, VR)은 컴퓨터 등을 사용하여 인공적인 기술로 만들어 낸 가상 공간으로서, 실제와 유사하지만 실제가 아닌 특징이 있다. 증강 현실(Augmented Reality, AR)은 가상 현실의 한 분야로서, 사용자가 보는 현실의 객체에 가상의 정보를 합성하여, 가상의 정보를 현실의 일부로서 인식하도록 할 수 있는 기법을 가리킨다.
이와 같은 가상 현실 혹은 증강 현실이 적용된 가상 공간(Virtual Space)을 구현하기 위해서는 컴퓨터 그래픽스 분야의 3D 모델링(3D Modeling)이 이용될 수 있다. 3D 모델링은 가상의 3차원 공간 속에 재현될 수 있는 수학적 모델을 만드는 과정을 의미한다.
만약, 실제 존재하는 실내 공간을 가상 공간으로 재현하고자 하는 경우, 3D 모델링 시 실제 공간에 대한 정보를 이용할 수 있다. 예를 들어, 실제 공간에 대한 영상을 이용하여 3D 모델링을 수행하면, 실제 공간과 유사한 가상의 3차원 공간을 생성할 수 있다.
한국공개특허공보, 제 10-2015-0129260호 (2011.12.14. 공개)
본 발명이 해결하고자 하는 과제는, 특징점 결핍 영역에 대응되는 포인트 클라우드를 기초로 실내 공간을 3D 모델링하는 3D 모델링 장치 및 방법을 제공하는 것이다.
다만, 본 발명이 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
일 실시예에 따른 3D 모델링 방법은, 라이다에 의해 실내 공간에 대한 포인트 클라우드(Point cloud)를 획득하는 단계; 카메라에 의해 상기 실내 공간에 대한 복수의 실내 영상을 획득하는 단계; 상기 복수의 실내 영상으로부터 특징점 결핍 영역을 결정하는 단계; 및 상기 특징점 결핍 영역에 대응되는 포인트 클라우드 및 상기 복수의 실내 영상을 기초로 상기 실내 공간을 3D 모델링하는 단계를 포함한다.
다른 실시예에 따른 3D 모델링 방법은, 3D 스캐너에 의해 실내 공간에 대한 스캔 영상을 획득하는 단계; 상기 획득된 스캔 영상으로부터 특징점 결핍 영역을 결정하는 단계; 상기 3D 스캐너에 의해 상기 특징점 결핍 영역에 대응되는 포인트 클라우드(Point Cloud)를 획득하는 단계; 카메라에 의해 상기 실내 공간에 대한 복수의 실내 영상을 획득하는 단계; 및 상기 획득된 포인트 클라우드 및 상기 복수의 실내 영상을 기초로 상기 실내 공간을 3D 모델링하는 단계를 포함한다.
일 실시예에 따른 3D 모델링 장치는, 실내 공간에 대한 포인트 클라우드(Point cloud)를 획득하는 라이다; 실내 공간에 대한 복수의 실내 영상을 획득하는 카메라; 상기 복수의 실내 영상으로부터 특징점 결핍 영역을 결정하고, 상기 특징점 결핍 영역에 대응되는 포인트 클라우드 및 상기 복수의 실내 영상을 기초로 상기 실내 공간을 3D 모델링하는 영상 처리부를 포함한다.
일 실시예에 따른 3D 모델링 장치 및 방법은, 카메라에 의해 획득된 실내 영상과 라이다에 의해 획득된 포인트 클라우드를 함께 이용하므로, 고품질의 3D 모델을 획득할 수 있다.
또한, 실내 공간에 대한 영상 중 특징점 결핍 영역에 대해서만 라이다에 의해 획득된 포인트 클라우드를 이용하므로, 실내 공간 전 영역에 대한 포인트 클라우드를 이용하는 경우에 비해 3D 모델링의 연산량이 감소할 수 있다.
도 1 은 본 발명의 일 실시예에 따른 3D 모델링 장치의 기능 블록도이다.
도 2는 본 발명의 일 실시예에 따른 3D 모델링 방법의 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 실내 영상을 예시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 특징점 추출 영상을 예시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 3D 메쉬를 예시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 제 1 중간 3D 모델을 예시한 도면이다.
도 7은 도 6의 제 1 중간 3D 모델 상에 특징점 결핍 영역을 예시한 도면이다.
도 8은 본 발명의 일 실시예에 따른 특징점 결핍 영역에 대한 포인트 클라우드를 예시한 도면이다.
도 9는 도 8의 특징점 결핍 영역에 대한 3D 메쉬를 예시한 도면이다.
도 10은 도 8의 특징점 결핍 영역에 대한 제 2 중간 3D 모델을 예시한 도면이다.
도 11은 도 6의 제 1 중간 3D 모델에서 특징점 결핍 영역을 도 10의 제 2 중간 3D 모델로 대체한 3D 모델을 예시한 도면이다.
도 12는 본 발명의 다른 실시예에 따른 3D 모델링 방법의 흐름도이다.
도 13은 도 1의 실시예에 따른 3D 스캐너를 예시한 도면이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1 은 본 발명의 일 실시예에 따른 3D 모델링 장치의 기능 블록도이다.
본 발명의 일 실시예에 따른 3D 모델링 장치(100)는 실내 공간을 가상의 3차원 공간으로 재현하기 위해 3D 모델링을 수행함으로써, 실내 공간에 대한 3D 모델을 획득할 수 있다. 이렇게 획득된 3D 모델은 가상 현실(Virtual Reality) 또는 증강 현실(Augmented Reality, AR) 컨텐츠 제공 시 이용될 수 있다.
이 때, 실제 실내 공간과 3D 모델 간의 유사도가 높을수록 사용자의 몰입도가 높아질 수 있다. 따라서, 3D 모델링 시에는 실제 실내 공간에 대한 정확한 정보를 이용할 필요가 있다.
실내 공간의 3D 모델링 방법으로서 카메라(120)에 의해 획득된 영상을 이용하는 방법이 있다. 구체적으로, 카메라(120)에 의해 실내 공간에 대한 복수의 영상을 획득하고, 획득된 복수의 영상의 특징점을 추출하여 3D 모델링을 수행할 수 있다. 카메라(120)에 의해 획득된 영상을 이용하는 방법은 실내 공간의 재질과 색감을 상세히 재현해 낼 수 있다. 반면, 카메라(120)에 의해 획득된 영상은 특징점을 기반으로 3D 모델링을 수행하는 바, 단일 색상 영역에 대한 모델링 시 성능이 저하될 수 있다.
실내 공간의 3D 모델링을 위한 다른 방법 중 하나는 라이다(112)(LiDAR)에 의해 획득된 포인트 클라우드를 이용하는 것이다. 구체적으로, 라이다(112)에 의해 실내 공간에 대한 포인트 클라우드를 획득하고, 이에 기초하여 3D 모델링을 수행할 수 있다. 이 경우, 실내 공간의 전체적인 형태를 구현하는데 우수한 성능을 나타낼 수 있다. 그러나, 깊이 정보에 기초한 포인트 클라우드의 특성 상, 실내 공간의 재질이나 색감을 재현하는데 부적합할 수 있다. 또한, 실내 공간을 3D 모델링 할 때에는 동적 물체를 제거할 필요가 있으나, 라이다(112)에 의한 포인트 클라우드는 동적 물체에 대한 정보를 포함하여 문제될 수 있다.
카메라(120) 및 라이다(112) 각각이 가진 문제점을 해결하기 위해, 카메라(120)에 의해 획득된 영상과 라이다(112)에 의해 획득된 포인트 클라우드를 함께 이용하여 실내 공간을 3D 모델링 할 수도 있다. 이 방법은 재질뿐만 아니라 형태를 구현할 때에도 우수한 성능을 보일 수 있다. 그럼에도 불구하고, 영상과 포인트 클라우드를 동시에 이용하는 경우에는 연산량이 급증하여, 실내 공간을 3D 모델링하는데 적용하기 어려울 수 있다.
이를 해결하기 위해, 본 발명의 일 실시예에 따른 3D 모델링 장치(100)는 특징점 결핍 영역에 대해서는 포인트 클라우드를 이용하고, 나머지 영역에서는 카메라(120)에 의해 획득된 영상을 이용하여 3D 모델링 할 수 있다.
구체적으로, 도 1을 참조하면, 본 발명의 일 실시예에 따른 3D 모델링 장치(100)는 포인트 클라우드를 획득하는 3D 스캐너(110); 영상을 획득하는 카메라(120); 3D 모델링을 수행하는 영상 처리부(130); 및 3D 모델링 장치(100)의 각 구성을 제어하는 제어부(140)를 포함할 수 있다.
3D 스캐너(110)는 3D 모델을 획득하고자 하는 실내 공간에 대한 포인트 클라우드를 획득할 수 있다. 이를 위해, 3D 스캐너(110)는 실내 공간에 레이저를 조사하고, 반사되는 레이저를 수신함으로써 포인트 클라우드를 획득할 수 있다.
이를 위해, 3D 스캐너(110)는 펄스 레이저를 조사하고, 반사되는 레이저를 수신하는 라이다(112)를 포함할 수 있다. 구체적으로, 라이다(112)는 실내 공간에 펄스 레이저를 조사하고, 조사된 펄스 레이저가 반사되어 돌아오기까지 소요되는 시간 및 강도를 측정할 수 있다. 이렇게 측정된 결과에는 실내 공간에 대한 거리, 방향, 속도, 온도, 물질 분포, 농도 특성 등의 정보가 포함될 수 있다. 라이다(112)는 최종적으로 측정 결과를 포인트 클라우드에 저장할 수 있다. 여기서, 포인트 클라우드란 좌표계 상에서의 데이터의 집합을 의미하므로, 라이다(112)가 획득하는 포인트 클라우드는 3차원 좌표계에 대한 실내 공간의 정보를 포함할 수 있다.
라이다(112)는 실내 공간의 전 영역에 대한 포인트 클라우드를 획득하기 위해, 실내 공간 전 영역에 대하여 레이저를 조사하도록 마련될 수 있다. 레이저는 직진성을 가지므로, 일 실시예에 따른 라이다(112)는 전 방향으로 레이저 조사가 가능하도록 패닝(Panning) 및/또는 틸팅(Tilting) 가능하게 마련될 수 있다.
또한, 포인트 클라우드에 색채 정보를 부가하기 위해, 3D 스캐너(110)는 스캔 카메라(111)를 더 포함할 수 있다. 스캔 카메라(111)는 스캔 영상을 획득하여 라이다(112)에 제공할 수 있고, 라이다(112)는 획득된 포인트 클라우드 상에 제공받은 스캔 영상을 매칭함으로써 포인트 클라우드에 색체 정보를 부가할 수 있다.
카메라(120)는 실내 공간에 대한 복수의 실내 영상을 획득할 수 있다. 카메라(120)는 화각에 따른 제약이 존재하므로, 하나의 실내 영상은 실내 공간 전체의 정보를 포함하기 어려울 수 있다. 따라서, 하나의 단일 카메라(120)는 위치를 달리하여 실내 공간을 복수 회 촬영함으로써 복수의 실내 영상을 획득할 수 있다. 이와는 달리, 서로 다른 방향을 향하는 복수의 카메라(120) 각각은 실내 공간의 서로 다른 위치를 촬영함으로써 복수의 실내 영상을 획득할 수 있다.
영상 처리부(130)는 포인트 클라우드 및 실내 영상을 이용하여 실내 공간에 대한 3D 모델링을 수행할 수 있다. 특히, 일 실시예에 따른 영상 처리부(130)는 특징점 결핍 영역을 결정하고, 결정된 특징점 결핍 영역에 대응되는 포인트 클라우드와 실내 영상을 이용하여 3D 모델링을 수행할 수 있다. 이에 대해서는 후술한다.
제어부(140)는 3D 모델링 장치(100)의 각 구성을 제어할 수 있다. 예를 들어, 제어부(140)는 3D 모델링 장치(100)의 각 구성에 전원을 공급하거나 차단할 수 있고, 각 구성 간 통신을 제어할 수도 있다. 뿐만 아니라, 제어부(140)는 3D 모델링 장치(100)의 각 구성의 동작을 개시하거나 중단시킬 수도 있다.
특히, 제어부(140)는 3D 스캐너(110) 중 라이다(112)의 레이저 조사 방향을 제어할 수 있다. 상술한 바와 같이 라이다(112)가 패닝 및/또는 틸팅 가능하도록 마련된 경우, 제어부(140)는 원하는 방향으로 레이저를 조사하도록 라이다(112)의 패닝 각 및/또는 틸팅 각을 결정할 수 있다. 예를 들어, 제어부(140)는 실내 공간 중 특징점 결핍 영역에 레이저를 조사하도록 라이다(112)의 패닝 각 및/또는 틸팅 각을 결정할 수 있다. 이에 대해서는 후술한다.
상술한 영상 처리부(130) 및 제어부(140)는 마이크로프로세서(Microprocessor)를 포함하는 연산 장치로 구현될 수 있고, 예를 들어 중앙 처리 장치(Central Processing Unit, CPU) 및 그래픽 처리 장치(Graphic Processing Unit, GPU) 중 적어도 하나로 구현될 수 있다. 이와는 달리, 영상 처리부(130) 및 제어부(140)가 하나의 SOC(System On Chip)으로 구현되는 것도 가능할 수 있다.
지금까지는 3D 모델링 장치(100)의 각 구성에 대하여 설명하였다. 이하에서는 3D 모델링 장치(100)에 의해 수행되는 여러 가지 실시예에 따른 3D 모델링 방법을 설명한다.
도 2는 본 발명의 일 실시예에 따른 3D 모델링 방법의 흐름도이다.
3D 모델링 장치(100)는 먼저 카메라(120)에 의해 실내 공간에 대한 복수의 실내 영상을 획득할 수 있다(S100). 도 3을 통해 카메라(120)에 의해 획득되는 실내 영상을 설명한다.
도 3은 본 발명의 일 실시예에 따른 실내 영상을 예시한 도면이다.
상술한 바와 같이, 3D 모델링 장치(100)는 하나의 단일 카메라(120)를 이용하여 서로 다른 위치에 대한 복수의 실내 영상을 획득할 수 있고, 이와는 달리 서로 다른 방향을 향하는 복수의 카메라(120) 각각을 이용하여 서로 다른 위치에 대한 복수의 실내 영상을 획득할 수 있다.
이렇게 획득된 복수의 실내 영상 각각은 적어도 하나의 다른 실내 영상과 적어도 일부가 중첩될 수 있다. 도 3에서는 실내 공간의 동일한 영역을 포함하는 서로 다른 복수의 실내 영상이 예시된다.
이를 기초로 복수의 실내 영상을 상호 매칭하면, 실내 공간 전체에 대한 이미지 정보를 획득할 수 있다. 아울러, 동일 영역에 대하여 서로 다른 방향으로 촬영한 각각의 실내 영상은 실내 공간에 대한 깊이 정보를 포함하므로, 3D 모델링 장치(100)는 추후 이를 이용하여 3D 모델링을 수행할 수 있다.
다시 도 2를 참조하면, 3D 모델링 장치(100)는 획득된 복수의 실내 영상으로부터 특징점 결핍 영역을 결정할 수 있다(S110). 이하에서는 도 4 내지 7을 참조하여 특징점 결핍 영역을 결정하는 방법을 설명한다.
도 4는 본 발명의 일 실시예에 따른 특징점 추출 영상을 예시한 도면이고, 도 5는 본 발명의 일 실시예에 따른 3D 메쉬를 예시한 도면이고, 도 6은 본 발명의 일 실시예에 따른 제 1 중간 3D 모델을 예시한 도면이고, 도 7은 도 6의 제 1 중간 3D 모델 상에 특징점 결핍 영역을 예시한 도면이다.
특징점 결핍 영역을 결정하기 위해, 먼저 3D 모델링 장치(100)의 영상 처리부(130)는 카메라(120)에 의해 획득된 복수의 실내 영상으로부터 특징점을 추출할 수 있다. 구체적으로, 영상 처리부(130)는 복수의 실내 영상 각각에서 코너(Corner), 엣지(Edge), 경사(Gradient) 등을 기초로 특징점을 추출할 수 있다.
또한, 영상 처리부(130)는 각각의 실내 영상으로부터 추출된 특징점에 깊이 정보를 부가할 수 있다. 상술한 바와 같이, 각각의 실내 영상은 서로 다른 방향에서 동일한 영역에 대하여 촬영되었으므로, 영상 처리부(130)는 각각의 실내 영상 간 차이에 기초하여 특징점에 깊이 정보를 부가할 수 있다. 이를 위해, 일 실시예에 따른 영상 처리부(130)는 삼각 측량법(Triangulation)을 적용할 수 있다.
영상 처리부(130)는 특징점에 깊이 정보를 부가함으로써, 특징점의 3차원 공간 상에서의 좌표를 획득할 수 있다. 이를 통해, 영상 처리부(130)는 실내 영상으로부터 추출한 특징점을 3차원 공간 상에 배치할 수 있다. 도 4를 참조하면, 3차원 공간 상에 배치된 특징점들은 실내 공간에 대한 형상, 재질, 및/또는 색감 정보를 포함할 수 있다.
이 때, 영상 처리부(130)는 단위 영역 내 추출된 특징점의 개수를 확인할 수 있다. 확인된 개수가 미리 정해진 기준 개수 이하인 영역이 존재하는 경우, 영상 처리부(130)는 해당 영역을 특징점 결핍 영역으로 결정할 수 있다. 여기서, 기준 개수는 3D 모델링을 하기에 부족한 특징점의 최대 개수를 의미할 수 있다.
또한, 특징점을 추출한 후, 영상 처리부(130)는 특징점을 기초로 3D 메쉬(3D Mesh)를 생성할 수 있다. 구체적으로, 영상 처리부(130)는 추출된 특징점을 본(Bone)과 정점(Vertex)로 하여, 복수의 정점이 본에 의해 리깅되는 3D 메쉬를 생성할 수 있다.
이렇게 생성되는 3D 메쉬는 적어도 세 개의 정점이 이루는 복수의 폴리곤(Polygon)으로 구성될 수 있다. 도 5를 참조하면, 3D 메쉬는 무수히 많은 정점과 이들이 이루는 폴리곤을 포함함을 확인할 수 있다.
이 때, 영상 처리부(130)는 3D 메쉬를 구성하는 복수의 폴리곤 중 넓이를 확인할 수 있다. 만약, 확인된 넓이가 기준 넓이 이상인 폴리곤이 존재하는 경우, 영상 처리부(130)는 해당 폴리곤이 형성하는 영역을 특징점 결핍 영역으로 결정할 수 있다. 여기서, 기준 넓이는 3D 모델링을 하기에 부적합한 폴리곤의 최소 넓이를 의미할 수 있다.
나아가, 3D 메쉬를 생성한 후, 영상 처리부(130)는 3D 메쉬에 텍스쳐링(Texturing)을 수행하여 제 1 중간 3D 모델을 생성할 수 있다. 구체적으로, 영상 처리부(130)는 3D 메쉬에 대하여 각각의 폴리곤을 형성하는 각각의 정점의 색채 정보를 기초로 해당 폴리곤에 색을 적용함으로써 텍스쳐링을 수행할 수 있다. 도 6을 참조하면, 3D 메쉬를 텍스쳐링 하여 얻어진 제 1 중간 3D 모델은 실제 실내 공간과 유사한 형태의 가상 공간을 형성함을 확인할 수 있다.
그러나, 도 6의 상부와 같이 텍스쳐링 되지 않은 영역이 존재할 수 있다. 이와 같은 영역은 실제 실내 공간과는 상이하게 구성되어 사용자의 실감을 낮출 수 있다. 따라서, 영상 처리부(130)는 제 1 중간 3D 모델 중 텍스쳐링 되지 않은 영역을 특징점 결핍 영역으로 결정할 수 있다. 도 7에서는 도 6의 제 1 중간 3D 모델에 대하여 특징점 결핍 영역 S가 결정된 경우가 예시된다.
또한, 영상 처리부(130)는 제 1 중간 3D 모델 중 사용자의 입력에 의해 선택된 영역을 특징점 결핍 영역으로 결정할 수 있다. 이 경우, 사용자가 직접 특징점 결핍 영역을 결정하거나, 영상 처리부(130)가 사용자의 입력을 기초로 특징점 결핍 영역을 결정할 수 있다.
이처럼, 영상 처리부(130)는 실내 영상에서 특징점의 개수가 지나치게 적은 제 1 조건, 3D 메쉬 중 폴리곤의 넓이가 지나치게 큰 제 2 조건, 제 1 3D 모델에서 텍스쳐링 되지 않은 제 3 조건, 및 제 1 3D 모델에서 사용자의 입력에 의해 선택되는 제 4 조건 중 적어도 하나를 만족하는 영역을 특징점 결핍 영역으로 결정할 수 있다. 이렇게 결정된 영역은 실내 영상만을 이용하여 3D 모델링 할 수 없으므로, 3D 모델링 장치(100)는 특징점 결핍 영역의 3D 모델링을 위해 라이다(112)에 의해 획득된 포인트 클라우드를 이용할 수 있다.
다시 도 2를 참조하면, 3D 모델링 장치(100)는 실내 영상을 획득함과 동시에, 라이다(112)에 의해 실내 공간에 대한 포인트 클라우드를 획득할 수 있다(S120). 이를 위해, 3D 모델링 장치(100)의 제어부(140)는 실내 공간의 전 영역에 레이저를 조사할 수 있도록 라이다(112)를 패닝 및/또는 틸팅할 수 있다.
라이다(112)는 조사된 레이저가 실내 공간으로부터 반사된 결과를 수신하고, 이를 3차원 공간 상에 배치함으로써 포인트 클라우드를 획득할 수 있다. 또한, 라이다(112)는 3D 스캐너(110)의 스캔 카메라(111)로부터 스캔 영상을 제공받아, 포인트 클라우드에 색체 정보를 부가할 수 있다. 이렇게 획득된 포인트 클라우드는 실내 공간에 대한 형상, 재질 및/또는 색감 정보를 포함할 수 있다.
마지막으로, 3D 모델링 장치(100)는 특징점 결핍 영역에 대응되는 포인트 클라우드 및 복수의 실내 영상을 기초로 실내 공간을 3D 모델링 할 수 있다(S130). 이하에서는 도 8 내지 11을 참조하여 포인트 클라우드 및 실내 영상을 기초로 3D 모델링 하는 방법을 설명한다.
도 8은 본 발명의 일 실시예에 따른 특징점 결핍 영역에 대한 포인트 클라우드를 예시한 도면이고, 도 9는 도 8의 특징점 결핍 영역에 대한 3D 메쉬를 예시한 도면이고, 도 10은 도 8의 특징점 결핍 영역에 대한 제 2 중간 3D 모델을 예시한 도면이고, 도 11은 도 6의 제 1 중간 3D 모델에서 특징점 결핍 영역을 도 10의 제 2 중간 3D 모델로 대체한 3D 모델을 예시한 도면이다.
3D 모델링을 수행하기 위해, 먼저 3D 모델링 장치(100)는 앞서 결정된 특징점 결핍 영역에 대응되는 포인트 클라우드를 확인할 수 있다. 구체적으로, 3D 모델링 장치(100)의 영상 처리부(130)는 라이다(112)에 의해 획득된 포인트 클라우드를 복수의 실내 영상을 기초로 생성된 제 1 중간 3D 모델과 매칭할 수 있다. 포인트 클라우드의 각각의 점 데이터는 3차원 좌표를 가지므로, 영상 처리부(130)는 제 1 중간 3D 모델 상에 포인트 클라우드의 각각의 점 데이터를 3차원 좌표에 따라 매칭할 수 있다.
그 다음, 영상 처리부(130)는 매칭된 복수의 실내 영상의 특징점 결핍 영역 내 포인트 클라우드를 확인할 수 있다. 도 8을 참조하면, 영상 처리부(130)는 도 7의 특징점 결핍 영역 S 내에 존재하는 포인트 클라우드를 확인할 수 있다.
특징점 결핍 영역 내 포인트 클라우드가 확인되면, 영상 처리부(130)는 확인된 포인트 클라우드를 이용하여 제 2 중간 3D 모델을 생성할 수 있다. 이를 위해, 영상 처리부(130)는 우선 특징점 결핍 영역 S 내의 포인트 클라우드의 각각의 점 데이터를 본과 정점로 하여, 복수의 정점이 본에 의해 리깅되는 3D 메쉬를 생성할 수 있다. 도 9를 참조하면, 영상 처리부(130)는 도 8의 특징점 결핍 영역 S 내에 존재하는 포인트 클라우드를 기초로 3D 메쉬를 생성할 수 있다. 그 다음, 영상 처리부(130)는 특징점 결핍 영역에 대한 3D 메쉬에 텍스쳐링을 수행하여 제 2 중간 3D 모델을 생성할 수 있다. 도 10을 참조하면, 영상 처리부(130)는 도 9의 특징점 결핍 영역 S 내에 존재하는 3D 메쉬에 텍스쳐링을 수행하여 제 2 중간 3D 모델을 생성할 수 있다.
마지막으로, 영상 처리부(130)는 제 1 중간 3D 모델 중 특징점 결핍 영역을 제 2 중간 3D 모델로 대체할 수 있다. 그 결과, 영상 처리부(130)는 도 11과 같은 실내 영상에 대한 3D 모델을 획득할 수 있다.
도 6과 비교할 때, 도11의 3D 모델은 상부 영역이 실제 실내 공간과 유사하게 구현됨을 확인할 수 있다. 그 결과, 사용자는 도 11의 3D 모델에 대한 실감이 높아질 수 있다. 아울러, 실내 공간 전 영역에 대하여 획득한 포인트 클라우드를 모두 이용하여 3D 모델링하지 않기 때문에, 3D 모델링에 대한 연산량이 감소할 수 있다.
지금까지는 실내 공간 전 영역에 대한 포인트 클라우드를 획득한 후, 이 중 특징점 결핍 영역 내 포인트 클라우드를 선택적으로 이용하는 실시예를 설명하였다. 이와는 달리 실내 공간 중 특징점 결핍 영역에 대하여 선택적으로 포인트 클라우드를 획득한 후, 이를 기초로 3D 모델링을 수행할 수도 있다. 이하에서는 도 12 내지 13을 참조하여, 포인트 클라우드를 선택적으로 획득하여 3D 모델링 하는 방법을 설명한다.
도 12는 본 발명의 다른 실시예에 따른 3D 모델링 방법의 흐름도이고, 도 13은 도 1의 실시예에 따른 3D 스캐너를 예시한 도면이다.
먼저, 3D 모델링 장치(100)는 3D 스캐너(110)에 의해 실내 공간에 대한 스캔 영상을 획득할 수 있다(S200). 여기서, 스캔 영상은 3D 스캐너(110)의 스캔 카메라(111)에 의해 획득되는 영상으로서, 3D 모델링 장치(100)의 카메라(120)에 의해 획득되는 영상에 비해 해상도가 낮을 수 있다.
그 다음, 3D 모델링 장치(100)는 획득된 스캔 영상으로부터 특징점 결핍 영역을 결정할 수 있다(S210). 이를 위해, 3D 모델링 장치(100)의 영상 처리부(130)는 획득된 스캔 영상으로부터 특징점을 추출하고, 추출된 특징점에 삼각 측량법 등을 적용하여 깊이 정보를 부가한 후, 깊이 정보가 부가된 특징점을 3차원 공간 상에 배치할 수 있다. 영상 처리부(130)는 3차원 공간 상에 배치된 특징점에 대하여 단위 영역 내 개수를 확인할 수 있다. 확인된 개수가 미리 정해진 기준 개수 이하인 영역이 존재하는 경우, 영상 처리부(130)는 해당 영역을 특징점 결핍 영역으로 결정할 수 있다. 여기서, 기준 개수는 3D 모델링을 하기에 부족한 특징점의 최대 개수를 의미할 수 있다.
특징점 결핍 영역이 결정되면, 3D 모델링 장치(100)는 특징점 결핍 영역에 대응되는 3D 스캐너(110)의 레이저 조사 각도를 결정할 수 있다(S220). 구체적으로, 3D 모델링 장치(100)의 제어부(140)는 3D 스캐너(110)의 라이다(112)가 특징점 결핍 영역으로 레이저를 조사할 수 있는 패닝 각 및/또는 틸팅 각을 결정할 수 있다.
도 13을 참조하면, 라이다(112)는 직진하는 레이저 L을 조사할 수 있다. 따라서, 제어부(140)는 레이저 L이 특징점 결핍 영역에 도달할 수 있도록, 라이다(112)의 패닝 각 및/또는 틸팅 각을 변화시킬 수 있다.
레이저 조사 각도가 결정되면, 3D 모델링 장치(100)는 결정된 조사 각도로 레이저를 조사하여 특징점 결핍 영역에 대응되는 포인트 클라우드를 획득할 수 있다(S230). 이 때, 획득되는 포인트 클라우드는 실내 공간 중 특징점 결핍 영역에 대한 정보만을 포함할 수 있다.
3D 스캐너(110)에 의해 스캔 영상을 획득함과 동시에, 3D 모델링 장치(100)는 카메라(120)에 의해 실내 공간에 대한 복수의 실내 영상을 획득할 수 있다(S240). 이렇게 획득되는 복수의 실내 영상 각각은 적어도 하나의 다른 실내 영상과 적어도 일부가 중첩될 수 있다.
마지막으로, 3D 모델링 장치(100)는 획득된 포인트 클라우드 및 복수의 실내 영상을 기초로 실내 공간을 3D 모델링 할 수 있다(S250). 이를 위해, 먼저 3D 모델링 장치(100)의 영상 처리부(130)는 획득된 실내 영상으로부터 특징점을 추출하고, 추출된 특징점에 삼각 측량법 등을 적용하여 깊이 정보를 부가한 후, 깊이 정보가 부가된 특징점을 3차원 공간 상에 배치할 수 있다. 그 다음, 영상 처리부(130)는 특징점과 포인트 클라우드를 매칭한 후, 매칭 결과를 이용하여 3D 모델링을 수행할 수 있다.
도 12의 방법에 따라 획득된 3D 모델을 획득할 경우, 포인트 클라우드 획득의 부하가 저감될 수 있다. 특히, 실내 공간의 전 영역에 대한 레이저 조사 없이, 포인트 클라우드의 획득이 필요한 영역에 대하여만 레이저 조사가 이루어질 수 있으므로, 포인트 클라우드 획득에 소요되는 시간이 단축될 수 있다.
상술한 여러 가지 실시예에 따른 3D 모델링 장치 및 방법은, 카메라에 의해 획득된 실내 영상과 라이다에 의해 획득된 포인트 클라우드를 함께 이용하므로, 고품질의 3D 모델을 획득할 수 있다. 또한, 실내 공간에 대한 영상 중 특징점 결핍 영역에 대해서만 라이다에 의해 획득된 포인트 클라우드를 이용하므로, 실내 공간 전 영역에 대한 포인트 클라우드를 이용하는 경우에 비해 3D 모델링의 연산량이 감소할 수 있다.
한편, 상술한 실시예에 따른 3D 모델링 방법에 포함된 각각의 단계는, 이러한 단계를 수행하도록 프로그램된 컴퓨터 프로그램 또는 컴퓨터 프로그램을 기록하는 컴퓨터 판독가능한 기록매체에서 구현될 수 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
일 실시예에 따르면, 상술한 3D 모델링 장치 및 방법은 댁내 또는 산업 현장 등 다양한 분야에서 이용될 수 있으므로 산업상 이용 가능성이 있다.
100: 3D 모델링 장치
110: 3D 스캐너
111: 스캔 카메라
112: 라이다
120: 카메라
130: 영상 처리부
140: 제어부

Claims (12)

  1. 라이다에 의해 실내 공간에 대한 포인트 클라우드(Point cloud)를 획득하는 단계;
    카메라에 의해 상기 실내 공간에 대한 복수의 실내 영상을 획득하는 단계;
    상기 복수의 실내 영상으로부터 특징점 결핍 영역을 결정하는 단계; 및
    상기 특징점 결핍 영역에 대응되는 포인트 클라우드 및 상기 복수의 실내 영상을 기초로 상기 실내 공간을 3D 모델링하는 단계를 포함하는
    3D 모델링 방법.
  2. 제 1 항에 있어서,
    상기 특징점 결핍 영역을 결정하는 단계는,
    상기 복수의 실내 영상 각각으로부터 특징점을 추출하는 단계; 및
    단위 영역 내 상기 추출된 특징점 개수가 기준 개수 이하인 영역을 상기 특징점 결핍 영역으로 결정하는 단계를 포함하는
    3D 모델링 방법.
  3. 제 1 항에 있어서,
    상기 특징점 결핍 영역을 결정하는 단계는,
    상기 복수의 실내 영상 각각으로부터 특징점을 추출하는 단계;
    상기 추출된 특징점을 기초로 3D 메쉬(Mesh)를 생성하는 단계; 및
    상기 3D 메쉬를 구성하는 복수의 폴리곤(Polygon) 중 넓이가 기준 넓이 이상인 폴리곤이 형성하는 영역을 상기 특징점 결핍 영역으로 결정하는 단계를 포함하는
    3D 모델링 방법.
  4. 제 1 항에 있어서,
    상기 특징점 결핍 영역을 결정하는 단계는,
    상기 복수의 실내 영상 각각으로부터 특징점을 추출하는 단계;
    상기 추출된 특징점을 기초로 3D 메쉬를 생성하는 단계;
    상기 생성된 3D 메쉬에 텍스쳐링(Texturing)을 수행하여 제 1 중간 3D 모델을 생성하는 단계
    3D 모델링 방법.
  5. 제 4 항에 있어서,
    상기 특징점 결핍 영역을 결정하는 단계는,
    상기 제 1 중간 3D 모델 중 상기 텍스쳐링 되지 않은 영역을 상기 특징점 결핍 영역으로 결정하거나, 사용자의 입력에 의해 선택된 영역을 상기 특징점 결핍 영역으로 결정하는 단계를 포함하는
    3D 모델링 방법.
  6. 제 4 항에 있어서,
    상기 실내 공간을 3D 모델링하는 단계는,
    상기 특징점 결핍 영역에 대응되는 포인트 클라우드를 기초로 제 2 중간 3D 모델을 생성하는 단계; 및
    상기 제 1 중간 3D 모델 중 상기 특징점 결핍 영역을 상기 제 2 중간 3D 모델로 대체하는 단계를 포함하는
    3D 모델링 방법.
  7. 제 6 항에 있어서,
    상기 제 2 중간 3D 모델을 생성하는 단계는,
    상기 라이다에 의해 획득된 포인트 클라우드와 상기 복수의 실내 영상을 기초로 생성된 상기 제 1 중간 3D 모델을 매칭하는 단계;
    상기 매칭된 제 1 중간 3D 모델의 상기 특징점 결핍 영역 내 포인트 클라우드를 확인하는 단계; 및
    상기 확인된 포인트 클라우드를 이용하여 상기 제 2 중간 3D 모델을 생성하는 단계를 포함하는
    3D 모델링 방법.
  8. 3D 스캐너에 의해 실내 공간에 대한 스캔 영상을 획득하는 단계;
    상기 획득된 스캔 영상으로부터 특징점 결핍 영역을 결정하는 단계;
    상기 3D 스캐너에 의해 상기 특징점 결핍 영역에 대응되는 포인트 클라우드(Point Cloud)를 획득하는 단계;
    카메라에 의해 상기 실내 공간에 대한 복수의 실내 영상을 획득하는 단계; 및
    상기 획득된 포인트 클라우드 및 상기 복수의 실내 영상을 기초로 상기 실내 공간을 3D 모델링하는 단계를 포함하는
    3D 모델링 방법.
  9. 제 8 항에 있어서,
    상기 특징점 결핍 영역에 대응되는 포인트 클라우드를 획득하는 단계는,
    상기 특징점 결핍 영역에 대응되는 상기 3D 스캐너의 레이저 조사 각도를 결정하는 단계; 및
    상기 결정된 조사 각도로 상기 레이저를 조사하여 상기 특징점 결핍 영역에 대응되는 포인트 클라우드를 획득하는 단계를 포함하는
    3D 모델링 방법.
  10. 실내 공간에 대한 포인트 클라우드(Point cloud)를 획득하는 라이다;
    실내 공간에 대한 복수의 실내 영상을 획득하는 카메라;
    상기 복수의 실내 영상으로부터 특징점 결핍 영역을 결정하고, 상기 특징점 결핍 영역에 대응되는 포인트 클라우드 및 상기 복수의 실내 영상을 기초로 상기 실내 공간을 3D 모델링하는 영상 처리부를 포함하는
    3D 모델링 장치.
  11. 제 1 항 내지 제 9 항 중 어느 한 항에 기재된 방법에 따른 각각의 단계를 수행하는, 컴퓨터 판독 가능 기록매체에 저장된 프로그램.
  12. 제 1 항 내지 제 9 항 중 어느 한 항에 기재된 방법에 따른 각각의 단계를 수행하는 명령어를 포함하는 프로그램이 기록된 컴퓨터 판독 가능 기록매체.
KR1020180123392A 2018-10-16 2018-10-16 3d 모델링 장치 및 방법 KR102160196B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180123392A KR102160196B1 (ko) 2018-10-16 2018-10-16 3d 모델링 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180123392A KR102160196B1 (ko) 2018-10-16 2018-10-16 3d 모델링 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20200042790A true KR20200042790A (ko) 2020-04-24
KR102160196B1 KR102160196B1 (ko) 2020-09-25

Family

ID=70465984

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180123392A KR102160196B1 (ko) 2018-10-16 2018-10-16 3d 모델링 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102160196B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220111074A (ko) * 2021-02-01 2022-08-09 한국로봇융합연구원 적재된 객체 인식 장치 및 객체 인식 방법
KR102475520B1 (ko) * 2021-10-07 2022-12-08 주식회사 벤타브이알 실사 기반의 메타버스 구현을 위한 3d 모델링 변환 방법 및 시스템
WO2023128289A1 (ko) * 2021-12-31 2023-07-06 주식회사 쓰리아이 3차원 가상모델 생성을 위한 텍스처링 방법 및 그를 위한 컴퓨팅 장치
KR102559717B1 (ko) * 2023-01-04 2023-07-26 주식회사 크리토 3d 인간 모델 생성 장치 및 방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102351002B1 (ko) * 2021-04-08 2022-01-14 주식회사 평행공간 3d 모델링을 이용한 실내 일조량 정보 제공 장치 및 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002032743A (ja) * 2000-07-13 2002-01-31 Sony Corp 3次元画像生成システムおよび3次元画像生成方法、並びにプログラム提供媒体
JP2004348575A (ja) * 2003-05-23 2004-12-09 Foundation For The Promotion Of Industrial Science 3次元モデル構築システム及び3次元モデル構築プログラム
KR20120067888A (ko) * 2010-12-16 2012-06-26 한국전자통신연구원 스테레오 영상 처리 장치 및 그 방법
KR20150129260A (ko) 2014-05-09 2015-11-19 주식회사 아이너지 오브젝트 가상현실 콘텐츠 서비스 시스템 및 방법
KR20160027735A (ko) * 2014-09-02 2016-03-10 네이버비즈니스플랫폼 주식회사 클라우드 포인트를 이용한 실내 지도 구축 장치 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002032743A (ja) * 2000-07-13 2002-01-31 Sony Corp 3次元画像生成システムおよび3次元画像生成方法、並びにプログラム提供媒体
JP2004348575A (ja) * 2003-05-23 2004-12-09 Foundation For The Promotion Of Industrial Science 3次元モデル構築システム及び3次元モデル構築プログラム
KR20120067888A (ko) * 2010-12-16 2012-06-26 한국전자통신연구원 스테레오 영상 처리 장치 및 그 방법
KR20150129260A (ko) 2014-05-09 2015-11-19 주식회사 아이너지 오브젝트 가상현실 콘텐츠 서비스 시스템 및 방법
KR20160027735A (ko) * 2014-09-02 2016-03-10 네이버비즈니스플랫폼 주식회사 클라우드 포인트를 이용한 실내 지도 구축 장치 및 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220111074A (ko) * 2021-02-01 2022-08-09 한국로봇융합연구원 적재된 객체 인식 장치 및 객체 인식 방법
KR102475520B1 (ko) * 2021-10-07 2022-12-08 주식회사 벤타브이알 실사 기반의 메타버스 구현을 위한 3d 모델링 변환 방법 및 시스템
WO2023128289A1 (ko) * 2021-12-31 2023-07-06 주식회사 쓰리아이 3차원 가상모델 생성을 위한 텍스처링 방법 및 그를 위한 컴퓨팅 장치
KR102559717B1 (ko) * 2023-01-04 2023-07-26 주식회사 크리토 3d 인간 모델 생성 장치 및 방법

Also Published As

Publication number Publication date
KR102160196B1 (ko) 2020-09-25

Similar Documents

Publication Publication Date Title
KR102160196B1 (ko) 3d 모델링 장치 및 방법
US11551418B2 (en) Image rendering of laser scan data
EP3139589B1 (en) Image processing apparatus and image processing method
JP6260924B2 (ja) レーザスキャンデータの画像レンダリング
KR102109814B1 (ko) 영상 정합 장치 및 방법
US7576737B2 (en) Image processing device and program
CN107610225B (zh) 一种倾斜摄影实景三维模型单体化方法
De Paolis et al. Photogrammetric 3D reconstruction of small objects for a real-time fruition
CN113870430A (zh) 一种工件数据处理方法和装置
CN113945167B (zh) 一种工件数据获取方法和装置
JP2004280776A (ja) 画像内のオブジェクトの形状を決定する方法
KR101817756B1 (ko) 인터랙티브한 시점 제어가 가능한 3차원 모델 기반의 ptm 생성 시스템 및 이를 이용한 ptm 생성 방법
EP2826243B1 (en) Method and system for identifying depth data associated with an object
KR20210050365A (ko) 영상 정합 장치 및 방법
US11622810B2 (en) View angle-independent visual representation of a cut procedure
JP6761292B2 (ja) 3次元cadデータの作成システムおよび作成方法
KR20210050366A (ko) 촬영 위치 결정 장치 및 방법
CN116704102A (zh) 一种基于点云场景自动布光的方法及电子设备
US10176628B2 (en) Method for creating a 3D representation and corresponding image recording apparatus
Hwang et al. A study on optimized mapping environment for real-time spatial mapping of HoloLens
Barbosa et al. Imaging techniques to simplify the ptm generation of a bas-relief
García Fernandez et al. An approach to 3D digital modeling of surfaces with poor texture by range imaging techniques.‘Shape from stereo’vs.‘shape from silhouette’in digitizing Jorge Oteiza’s sculptures
JP2005092549A (ja) 三次元画像処理方法および装置
Sitnik et al. From reality to virtual reality: 3D object imaging techniques and algorithms
CN118154790A (zh) 一种几何视觉三维模型纹理化方法及系统

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant