KR101779532B1 - 2차원 이미지를 3차원 이미지로 복원하는 방법 및 시스템 - Google Patents

2차원 이미지를 3차원 이미지로 복원하는 방법 및 시스템 Download PDF

Info

Publication number
KR101779532B1
KR101779532B1 KR1020160010193A KR20160010193A KR101779532B1 KR 101779532 B1 KR101779532 B1 KR 101779532B1 KR 1020160010193 A KR1020160010193 A KR 1020160010193A KR 20160010193 A KR20160010193 A KR 20160010193A KR 101779532 B1 KR101779532 B1 KR 101779532B1
Authority
KR
South Korea
Prior art keywords
dimensional image
dimensional
contour
value
depth value
Prior art date
Application number
KR1020160010193A
Other languages
English (en)
Other versions
KR20170090016A (ko
Inventor
권혁홍
이수현
Original Assignee
대진대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대진대학교 산학협력단 filed Critical 대진대학교 산학협력단
Priority to KR1020160010193A priority Critical patent/KR101779532B1/ko
Publication of KR20170090016A publication Critical patent/KR20170090016A/ko
Application granted granted Critical
Publication of KR101779532B1 publication Critical patent/KR101779532B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes

Abstract

본 발명은 사용자의 모습을 찍은 사진에 근거해 입체적인 형상을 제작하기 위해 사용자의 2차원 이미지를 3차원 이미지로 복원할 수 있도록 하는, 2차원 이미지를 3차원 이미지로 복원하는 방법 및 시스템이 개시된다.
개시된 2차원 이미지를 3차원 이미지로 복원하는 방법은, (a) 이미지 로딩부가 2차원 이미지를 불러와 일정 픽셀 단위로 구분하는 단계; (b) 특징 검출부가 상기 2차원 이미지에서 일정 개수 이상의 윤곽 포인트를 검출하는 단계; (c) 제어부가 상기 2차원 이미지에 대해 상기 검출된 일정 개수 이상의 윤곽 포인트를 중심으로 모든 픽셀마다 3차원 변환을 위한 깊이값을 설정하는 단계; (d) 제어부가 상기 일정 개수 이상의 윤곽 포인트가 포함된 선직면(S)을 선정하고, 선정된 각 선직면에 대해 상단 커브 및 하단 커브로 구분하여, 상단 및 하단 커브를 이루는 선직면의 픽셀들에 대한 깊이값에 근거해 3차원 가공경로 좌표를 산출하는 단계; 및 (e) 렌더링부가 상기 산출된 3차원 가공경로 좌표에 따라 상기 2차원 이미지를 3차원 이미지로 렌더링하는 단계를 포함한다.
본 발명에 의하면, 사용자의 사진에 근거해 3차원 형상을 복원할 수 있다.

Description

2차원 이미지를 3차원 이미지로 복원하는 방법 및 시스템{System and method for converting 2-dimensional image to 3-dimensional image}
본 발명은 2차원 이미지를 3차원 이미지로 복원하는 방법 및 시스템에 관한 것으로서, 더욱 자세하게는 사용자의 모습을 찍은 사진에 근거해 입체적인 형상을 제작하기 위해 사용자의 2차원 이미지를 3차원 이미지로 복원할 수 있도록 하는, 2차원 이미지를 3차원 이미지로 복원하는 방법 및 시스템에 관한 것이다.
최근에, 3차원 입체 영상에 대한 관심이 증가하면서 3차원 입체 영상을 생성하는 방법에 대한 연구가 활발하게 진행되고 있다. 3차원(3-Dimensional : 3D) 그래픽에 관한 연구의 초기부터 연구자들의 궁극적인 목표는 실제 이미지와 같은 현실적인 그래픽 화면을 생성하는 것이다.
따라서, 전통적인 모델링 기술분야에서 다각형 모델(Polygonal model)을 이용하는 연구들이 수행되어 왔고 그 결과로서 매우 현실적인 3차원 환경을 제공하기에 충분할 정도로 모델링과 렌더링 기술이 개발되어 왔다.
그러나, 복잡한 모델을 생성하기 위한 과정은 전문가의 많은 노력과 시간을 필요로 한다. 또한, 현실적이고 복잡한 환경은 막대한 양의 정보를 필요로 하며, 저장 및 전송에 있어서 저효율을 초래한다.
한국 공개특허공보 제2014-0002151호(공개일 : 2014년01월08일)
전술한 문제점을 해결하기 위한 본 발명의 목적은, 사용자의 모습을 찍은 사진에 근거해 입체적인 형상을 제작하기 위해 사용자의 2차원 이미지를 3차원 이미지로 복원할 수 있도록 하는, 2차원 이미지를 3차원 이미지로 복원하는 방법 및 시스템을 제공함에 있다.
전술한 목적을 달성하기 위한 본 발명에 따른 2차원 이미지를 3차원 이미지로 복원하는 시스템은, 2차원 이미지를 불러와 일정 픽셀 단위로 구분하는 이미지 로딩부; 상기 2차원 이미지에서 일정 개수 이상의 윤곽 포인트를 검출하는 특징 검출부; 상기 2차원 이미지에 대해 상기 검출된 일정 개수 이상의 윤곽 포인트를 중심으로 모든 픽셀마다 3차원 변환을 위한 깊이값을 설정하고, 상기 일정 개수 이상의 윤곽 포인트가 포함된 선직면(S)을 선정하며, 선정된 각 선직면에 대해 상단 커브 및 하단 커브로 구분하여, 상단 및 하단 커브를 이루는 선직면의 픽셀들에 대한 깊이값에 근거해 3차원 가공경로 좌표를 산출하는 제어부; 및 상기 산출된 3차원 가공경로 좌표에 따라 상기 2차원 이미지를 3차원 이미지로 렌더링하는 렌더링부를 포함한다.
또한, 상기 특징 검출부는, 상기 2차원 이미지에서 다수의 픽셀 가운데 명암차가 일정 기준 이상 차이가 나는 하나 이상 픽셀들의 영역을 윤곽 포인트로 지정하고, 상기 윤곽 포인트를 상기 2차원 이미지의 전 영역에 대해 일정 개수 이상으로 검출할 수 있다.
또한, 상기 특징 검출부는, 상기 검출된 윤곽 포인트들 사이에 특정 개수의 세부적인 윤곽 포인트를 추가하여 일정 개수 이상의 윤곽 포인트를 결정할 수 있다.
또한, 상기 제어부는, 상기 검출된 일정 개수 이상의 윤곽 포인트의 픽셀들에 대해, 각각의 명암값을 서로 비교하여 명암값의 크기에 따라 깊이값을 각각 설정하고, 상기 일정 개수 이상의 윤곽 포인트의 픽셀에 대한 명암값을 기준으로 그 주변에 있는 픽셀들의 명암값을 비교하여, 상기 윤곽 포인트의 픽셀에 대한 명암값 보다 더 높은 경우에 상기 윤곽 포인트의 픽셀에 대한 깊이값보다 더 큰 깊이값으로 설정하고, 상기 윤곽 포인트의 픽셀에 대한 명암값 보다 더 낮은 경우에 상기 윤곽 포인트의 픽셀에 대한 깊이값보다 더 낮은 깊이값으로 설정할 수 있다.
그리고, 상기 제어부는, 상기 상단 및 하단 커브를 이루는 선직면의 픽셀들에 대한 깊이값에 근거해, 상기 일정 개수 이상의 윤곽 포인트들 사이에 경사면이 존재하는 경우에, 경사면을 이루는 직선들의 기울기에 대해, 각 윤곽 포인트의 픽셀들에 대한 명암값들을 비교하여 그 명암값이 더 큰 윤곽 포인트 측의 픽셀에 대한 깊이값과, 그 명암값이 더 큰 윤곽 포인트 측의 경사면을 이루는 직선들의 기울기가, 비교 대상 윤곽 포인트측 보다 더 큰 값을 갖도록 3차원 가공경로 좌표를 산출할 수 있다.
한편, 전술한 목적을 달성하기 위한 본 발명에 따른 2차원 이미지를 3차원 이미지로 복원하는 방법은, (a) 이미지 로딩부가 2차원 이미지를 불러와 일정 픽셀 단위로 구분하는 단계; (b) 특징 검출부가 상기 2차원 이미지에서 일정 개수 이상의 윤곽 포인트를 검출하는 단계; (c) 제어부가 상기 2차원 이미지에 대해 상기 검출된 일정 개수 이상의 윤곽 포인트를 중심으로 모든 픽셀마다 3차원 변환을 위한 깊이값을 설정하는 단계; (d) 제어부가 상기 일정 개수 이상의 윤곽 포인트가 포함된 선직면(S)을 선정하고, 선정된 각 선직면에 대해 상단 커브 및 하단 커브로 구분하여, 상단 및 하단 커브를 이루는 선직면의 픽셀들에 대한 깊이값에 근거해 3차원 가공경로 좌표를 산출하는 단계; 및 (e) 렌더링부가 상기 산출된 3차원 가공경로 좌표에 따라 상기 2차원 이미지를 3차원 이미지로 렌더링하는 단계를 포함한다.
또한, 상기 (b) 단계는, 상기 특징 검출부가 상기 2차원 이미지에서 다수의 픽셀 가운데 명암차가 일정 기준 이상 차이가 나는 하나 이상 픽셀들의 영역을 윤곽 포인트로 지정하고, 상기 윤곽 포인트를 상기 2차원 이미지의 전 영역에 대해 일정 개수 이상으로 검출할 수 있다.
또한, 상기 (b) 단계는, 상기 특징 검출부가 상기 검출된 윤곽 포인트들 사이에 특정 개수의 세부적인 윤곽 포인트를 추가하여 일정 개수 이상의 윤곽 포인트를 결정할 수 있다.
또한, 상기 (c) 단계는, 상기 제어부가 상기 검출된 일정 개수 이상의 윤곽 포인트의 픽셀들에 대해, 각각의 명암값을 서로 비교하여 명암값의 크기에 따라 깊이값을 각각 설정하고, 상기 일정 개수 이상의 윤곽 포인트의 픽셀에 대한 명암값을 기준으로 그 주변에 있는 픽셀들의 명암값을 비교하여, 상기 윤곽 포인트의 픽셀에 대한 명암값 보다 더 높은 경우에 상기 윤곽 포인트의 픽셀에 대한 깊이값보다 더 큰 깊이값으로 설정하고, 상기 윤곽 포인트의 픽셀에 대한 명암값 보다 더 낮은 경우에 상기 윤곽 포인트의 픽셀에 대한 깊이값보다 더 낮은 깊이값으로 설정할 수 있다.
그리고, 상기 (d) 단계에서 상기 제어부는, 상기 상단 및 하단 커브를 이루는 선직면의 픽셀들에 대한 깊이값에 근거해, 상기 일정 개수 이상의 윤곽 포인트들 사이에 경사면이 존재하는 경우에, 경사면을 이루는 직선들의 기울기에 대해, 각 윤곽 포인트의 픽셀들에 대한 명암값들을 비교하여 그 명암값이 더 큰 윤곽 포인트 측의 픽셀에 대한 깊이값과, 그 명암값이 더 큰 윤곽 포인트 측의 경사면을 이루는 직선들의 기울기가, 비교 대상 윤곽 포인트측 보다 더 큰 값을 갖도록 3차원 가공경로 좌표를 산출할 수 있다.
본 발명에 의하면, 사용자의 모습을 찍은 사진에 근거해 3차원 형상을 제작하기 위한 3차원 이미지로 복원할 수 있다.
도 1은 본 발명의 실시예에 따른 2차원 이미지를 3차원 이미지로 복원하는 시스템의 기능 블록을 개략적으로 나타낸 도면이다.
도 2는 본 발명의 실시예에 따른 2차원 이미지를 3차원 이미지로 복원하는 방법을 설명하기 위한 동작 흐름도를 나타낸 도면이다.
도 3은 본 발명의 실시예에 따라 3차원 가공경로 좌표를 생성하는 과정 예를 나타낸 도면이다.
도 4는 본 발명의 실시예에 따라 설정된 윤곽 포인트들의 픽셀에 대한 명암값들을 비교하는 예를 나타낸 도면이다.
도 5는 본 발명의 실시예에 따른 윤곽 포인트들의 깊이값을 그 명암값의 크기에 따라 각각 설정하는 예를 나타낸 도면이다.
이하, 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.
본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조 부호를 붙이도록 한다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우 뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
어느 부분이 다른 부분의 "위에" 있다고 언급하는 경우, 이는 바로 다른 부분의 위에 있을 수 있거나 그 사이에 다른 부분이 수반될 수 있다. 대조적으로 어느 부분이 다른 부분의 "바로 위에" 있다고 언급하는 경우, 그 사이에 다른 부분이 수반되지 않는다.
제1, 제2 및 제3 등의 용어들은 다양한 부분, 성분, 영역, 층 및/또는 섹션들을 설명하기 위해 사용되나 이들에 한정되지 않는다. 이들 용어들은 어느 부분, 성분, 영역, 층 또는 섹션을 다른 부분, 성분, 영역, 층 또는 섹션과 구별하기 위해서만 사용된다. 따라서, 이하에서 서술하는 제1 부분, 성분, 영역, 층 또는 섹션은 본 발명의 범위를 벗어나지 않는 범위 내에서 제2 부분, 성분, 영역, 층 또는 섹션으로 언급될 수 있다.
여기서 사용되는 전문 용어는 단지 특정 실시예를 언급하기 위한 것이며, 본 발명을 한정하는 것을 의도하지 않는다. 여기서 사용되는 단수 형태들은 문구들이 이와 명백히 반대의 의미를 나타내지 않는 한 복수 형태들도 포함한다. 명세서에서 사용되는 "포함하는"의 의미는 특정 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분을 구체화하며, 다른 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분의 존재나 부가를 제외시키는 것은 아니다.
"아래", "위" 등의 상대적인 공간을 나타내는 용어는 도면에서 도시된 한 부분의 다른 부분에 대한 관계를 보다 쉽게 설명하기 위해 사용될 수 있다. 이러한 용어들은 도면에서 의도한 의미와 함께 사용 중인 장치의 다른 의미나 동작을 포함하도록 의도된다. 예를 들면, 도면 중의 장치를 뒤집으면, 다른 부분들의 "아래"에 있는 것으로 설명된 어느 부분들은 다른 부분들의 "위"에 있는 것으로 설명된다. 따라서 "아래"라는 예시적인 용어는 위와 아래 방향을 전부 포함한다. 장치는 90˚ 회전 또는 다른 각도로 회전할 수 있고, 상대적인 공간을 나타내는 용어도 이에 따라서 해석된다.
다르게 정의하지는 않았지만, 여기에 사용되는 기술용어 및 과학용어를 포함하는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 일반적으로 이해하는 의미와 동일한 의미를 가진다. 보통 사용되는 사전에 정의된 용어들은 관련 기술문헌과 현재 개시된 내용에 부합하는 의미를 가지는 것으로 추가 해석되고, 정의되지 않는 한 이상적이거나 매우 공식적인 의미로 해석되지 않는다.
이하, 첨부한 도면을 참조하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.
도 1은 본 발명의 실시예에 따른 2차원 이미지를 3차원 이미지로 복원하는 시스템의 기능 블록을 개략적으로 나타낸 도면이다.
도 1을 참조하면, 본 발명에 따른 2차원 이미지를 3차원 이미지로 복원하는 시스템(100)은, 이미지 로딩부(Image Loading Unit)(110), 특징 검출부(120), 제어부(130), 렌더링부(Rendering Unit)(140), 저장부(150) 및 표시부(160)를 포함한다.
이미지 로딩부(110)는 2차원 이미지를 불러와 일정 픽셀 단위로 구분한다.
특징 검출부(120)는 2차원 이미지에서 일정 개수 이상의 윤곽 포인트를 검출한다.
즉, 특징 검출부(120)는, 2차원 이미지에서 다수의 픽셀 가운데 명암차가 일정 기준 이상 차이가 나는 하나 이상 픽셀들의 영역을 윤곽 포인트로 지정하고, 이러한 윤곽 포인트를 2차원 이미지의 전 영역에 대해 일정 개수 이상으로 검출한다.
또한, 특징 검출부(120)는, 검출된 윤곽 포인트들 사이에 특정 개수의 세부적인 윤곽 포인트를 추가하여 일정 개수 이상의 윤곽 포인트를 결정할 수 있다.
제어부(130)는 2차원 이미지에 대해 상기 검출된 일정 개수 이상의 윤곽 포인트를 중심으로 모든 픽셀마다 3차원 변환을 위한 깊이값을 설정하고, 일정 개수 이상의 윤곽 포인트가 포함된 선직면(S)을 선정하며, 선정된 각 선직면에 대해 상단 커브 및 하단 커브로 구분하여, 상단 및 하단 커브를 이루는 선직면의 픽셀들에 대한 깊이값에 근거해 3차원 가공경로 좌표를 산출하고, 렌더링부(140)를 통해 3차원 이미지로 렌더링되도록 제어한다.
즉, 제어부(130)는, 검출된 일정 개수 이상의 윤곽 포인트의 픽셀들에 대해, 각각의 명암값을 서로 비교하여 명암값의 크기에 따라 깊이값을 각각 설정하고, 일정 개수 이상의 윤곽 포인트의 픽셀에 대한 명암값을 기준으로 그 주변에 있는 픽셀들의 명암값을 비교하여, 윤곽 포인트의 픽셀에 대한 명암값 보다 더 높은 경우에 윤곽 포인트의 픽셀에 대한 깊이값보다 더 큰 깊이값으로 설정하고, 윤곽 포인트의 픽셀에 대한 명암값 보다 더 낮은 경우에 윤곽 포인트의 픽셀에 대한 깊이값보다 더 낮은 깊이값으로 설정한다.
그리고, 제어부(130)는, 상단 및 하단 커브를 이루는 선직면의 픽셀들에 대한 깊이값에 근거해, 일정 개수 이상의 윤곽 포인트들 사이에 경사면이 존재하는 경우에, 경사면을 이루는 직선들의 기울기에 대해 각 윤곽 포인트의 픽셀들에 대한 명암값들을 비교하여 그 명암값이 더 큰 윤곽 포인트의 픽셀에 대한 깊이값과 해당 기울기가 더 큰 값을 갖도록 3차원 가공경로 좌표를 산출한다.
렌더링부(140)는 산출된 3차원 가공경로 좌표에 따라 2차원 이미지를 3차원 이미지로 렌더링한다.
저장부(150)는 소스 이미지(Source Image)로서의 2차원 이미지를 하나 이상 저장하고, 렌더링부(140)에 의해 렌더링 된 3차원 이미지들을 저장한다.
표시부(160)는 이미지 로딩부(110)에 의해 로딩 된 2차원 이미지를 화면 상에 디스플레이하거나, 렌더링부(140)에 의해 렌더링 된 3차원 이미지를 화면 상에 디스플레이한다.
도 2는 본 발명의 실시예에 따른 2차원 이미지를 3차원 이미지로 복원하는 방법을 설명하기 위한 동작 흐름도를 나타낸 도면이다.
도 2를 참조하면, 본 발명의 실시예에 따른 2차원 이미지를 3차원 이미지로 복원하는 시스템(100)은, 이미지 로딩부(110)가 2차원 이미지를 불러와 일정 픽셀 단위로 구분한다(S210).
이어, 특징 검출부(120)가 2차원 이미지에서 일정 개수 이상의 윤곽 포인트를 검출한다(S220).
즉, 특징 검출부(120)는 2차원 이미지에서 다수의 픽셀 가운데 명암차가 일정 기준 이상 차이가 나는 하나 이상 픽셀들의 영역을 도 3에 도시된 바와 같이 윤곽 포인트(mi-2, mi-1, mi, mi+1, mi+2)로 지정하고, 이러한 윤곽 포인트를 2차원 이미지의 전 영역에 대해 일정 개수 이상( mi-2, mi-1, mi, mi+1, mi+2 )으로 검출한다.
또한, 특징 검출부(120)는 검출된 윤곽 포인트들 사이에 특정 개수의 세부적인 윤곽 포인트를 추가하여 일정 개수 이상의 윤곽 포인트를 결정할 수 있다.
이어, 제어부(130)는 2차원 이미지에 대해 상기 검출된 일정 개수 이상의 윤곽 포인트를 중심으로 모든 픽셀마다 3차원 변환을 위한 깊이값을 설정한다(S230).
즉, 제어부(130)는 검출된 일정 개수 이상의 윤곽 포인트( mi-2, mi-1, mi, mi+1, mi+2 )의 픽셀들에 대해, 도 4에 도시된 바와 같이 각각의 명암값을 서로 비교하여 명암값의 크기에 따라 도 5에 도시된 바와 같이 각각의 깊이값을 설정(.., di-1, di, di+1, ..)한다. 도 4는 본 발명의 실시예에 따라 설정된 윤곽 포인트들의 픽셀에 대한 명암값들을 비교하는 예를 나타낸 도면이고, 도 5는 본 발명의 실시예에 따른 윤곽 포인트들의 깊이값을 그 명암값의 크기에 따라 각각 설정하는 예를 나타낸 도면이다. 이어, 제어부(130)는 동일한 방법으로 일정 개수 이상의 윤곽 포인트의 픽셀에 대한 명암값을 기준으로 그 주변에 있는 픽셀들의 명암값을 비교하여, 윤곽 포인트의 픽셀에 대한 명암값 보다 더 높은 경우에 윤곽 포인트의 픽셀에 대한 깊이값보다 더 큰 깊이값으로 설정하고, 윤곽 포인트의 픽셀에 대한 명암값 보다 더 낮은 경우에 윤곽 포인트의 픽셀에 대한 깊이값보다 더 낮은 깊이값으로 설정하는 것이다. 즉, 제어부(130)가 도 5에 도시된 바와 같이 각 픽셀의 명암값이 높을수록 그 깊이값도 크게 설정하게 됨에 따라 mi-1 윤곽 포인트의 깊이값이 제일 크고, 이어 mi 윤곽 포인트의 깊이값이 크며, 다음으로 mi+1 윤곽 포인트의 깊이값이 큰 순으로( di-1 > di > di+1) 깊이값을 설정하는 것이다.
이어, 제어부(130)는 일정 개수 이상의 윤곽 포인트( mi-2, mi-1, mi, mi+1, mi+2 )가 포함된 선직면(S)을 선정하고, 선정된 각 선직면에 대해 상단 커브 및 하단 커브로 구분하여, 상단 및 하단 커브를 이루는 선직면의 픽셀들에 대한 깊이값에 근거해 3차원 가공경로 좌표를 산출한다(S240).
여기서, 3차원 가공경로 좌표를 산출하는 것은 사용자의 2차원 이미지를 입체적인 3차원 이미지로 생성하고, 청동이나 철 등의 재질에 적용하여 사용자의 3차원 입체 형상을 절삭하거나 주물 제작하기 위함이다.
3차원 가공경로 좌표가 산출되면, 이에 근거해 3D 프린터로 철이나 청동 등의 재질을 녹여서 점 단위로 3차원 가공경로 좌표를 따라 적층하여 제작하거나, 육면체 형태의 철이나 청동 등의 재질을 3차원 가공경로 좌표를 따라 깍아서 제작할 수 있다.
3D 프린터를 이용해 3차원 가공경로 좌표를 따라 적층하여 제작하는 것은 일반적이므로, 본 발명의 실시예에서는 육면체 재질에 대해 3차원 가공경로 좌표를 따라 공구를 이용해 절삭하여 사용자의 입체 형상을 제작하기 위한 3차원 가공경로 좌표를 산출하는 것을 예로 하여 설명한다.
먼저, 제어부(130)는 선직면(S)을 선정하고, 선정된 각 선직면 상의 상단 커브 및 하단 커브를 이용하여 가공 경로를 공구축 좌표[T(i)=(p(i), a(i))]의 집합으로 정의한다.
제어부(130)는 상단 커브 및 하단 커브에 대해 도 3에 도시된 바와 같이 내분하여 생성한 내분 커브의 i번째 구간과 공구 간의 오차(eki) 및 전체 내분 커브(mi)에 대한 공구의 오차(ek)를 산출하게 된다. 도 3은 본 발명의 실시예에 따라 3차원 가공경로 좌표를 생성하는 과정 예를 나타낸 도면이다. 도 3에서, 선직면(S)(ruled surface)의 상단 커브 [Ui]i=1...N와 하단 커브 [Vi]i=1...N가 주어졌다고 가정하면, 이 상/하단 커브는 각각 N개의 점들로 이루어진 polyline으로 근사할 수 있으며, 상/하단 커브의 i번째 점끼리 이은 선은 항상 S의 위에 있다.(
Figure 112016009139384-pat00001
)
따라서 아래 수학식1에 의해 생성되는 임의의 내분 커브 ([mi(λ)]i=1...N)의 각 점들은 항상 S의 위에 있다.
Figure 112016009139384-pat00002
전술한 바와 같이, 가공 경로를 공구축 좌표 T(k)=(p(k),a(k))의 집합으로 정의한다. p(k)는 k 시점에서 공구 끝점의 좌표, a(k)는 공구축의 방향이므로 공구축은 직선 p(k)+ha(k) 상에 위치한다. 그리고 공구의 테이퍼 각도가 φ인 경우, h0 위치에서의 공구 반경이 r0라면, h 위치에서의 공구 반경(r(h))은 다음 수학식2와 같이 나타낼 수 있다.
Figure 112016009139384-pat00003
도 3에서, 공구축과 내분 커브의 i번째 구간
Figure 112016009139384-pat00004
사이의 최단 거리는
Figure 112016009139384-pat00005
이다. 또한
Figure 112016009139384-pat00006
이므로 해당 위치에서의 공구 반지름은
Figure 112016009139384-pat00007
이다. 이때
Figure 112016009139384-pat00008
Figure 112016009139384-pat00009
는 두 직선의 최단 거리를 계산하는 방법으로 손쉽게 구할 수 있다. 그리하여 다음 수학식3에 따라
Figure 112016009139384-pat00010
구간과 공구와의 오차를
Figure 112016009139384-pat00011
로, 전체 내분 커브 [mi(λ)]에 대한 공구의 오차는
Figure 112016009139384-pat00012
로 정의한다.
Figure 112016009139384-pat00013
이때 ek 가 0 보다 크면 미삭, 0보다 작으면 과삭을 의미한다.
정리하면 필요한 정확도에 따라 상/하단 커브를 polyline으로 근사하고, 적당한 λ로 내분 커브들을 생성하여, 가공 경로의 공구 위치마다 내분 커브와의 오차를 구하여 가공 경로의 오차를 추정한다. 일반적으로 λ={0, 0.5, 1}, 즉 주어진 상/하단 커브와 중간 커브를 사용하는 것이 적당하다.
제어부(130)는 가공경로 좌표의 생성을 위해 경사 하강(Gradient descent : 이하 GD) 기법을 사용한다. GD 기법은 가장 일반적인 비선형 최적화 기법 중에 하나로, 주어진 목적 함수(Target function)의 가파른 방향으로 학습 변수(Learning parameter)들을 조금씩 변화시켜 목표 함수의 최대 또는 최소값을 출력하는 학습 변수 값을 찾아간다. GD 기법의 적용방법은 1) 목표 함수 E(θ)를 정의한다. 여기서 θ는 학습 변수들을 뜻한다. 2)
Figure 112016009139384-pat00014
를 유도한다. 3) 현재 학습 변수 값
Figure 112016009139384-pat00015
에 대한
Figure 112016009139384-pat00016
값을 계산한다. 4) 다음 수학식4에 따라 학습 변수를 수정한다.
Figure 112016009139384-pat00017
여기서,
Figure 112016009139384-pat00018
는 학습계수(Learning rate)를 나타내고, 학습 속도와 정밀도를 조절한다.
정지 조건을 만족할 때까지 3)과 4)를 반복한다. 정지 조건은 보통 최대 반복 횟수나 오차가 목표 값에 도달했는지 여부로 결정한다.
이와 같은 GD 기법은 목표 함수가 1차 미분만 가능하다면 적용할 수 있으므로 활용 폭이 넓고, 구현하기 용이하며, 다양한 제약 조건들을 목표함수에 포함시켜 학습의 방향을 조정하는 것도 가능하다.
그러나, 학습 속도가 느리므로, 적절한 학습 계수 값을 설정해 주어야 한다. 만약 학습 계수가 너무 작으면 학습 시간이 불필요하게 길어지고, 너무 크면 최적값에 수렴하지 않고 발산하는 현상이 발생한다. 이런 점 때문에 1차 미분 정보만을 사용하는 GD 기법보다 2차 미분 정보까지 활용하는 Newton 기법, 그리고 2차 미분이 어려운 경우 이를 근사하는 quasi-Newton 계열의 기법들이 적용되고 있다.
하지만 이런 단점에도 불구하고 많은 분야와 기법들에서 GD가 적용되고 있는데, 그 중에서 대표적인 것이 최근 가장 주목 받는 기계학습 기법 중 하나인 Deep Belief Networks(DBN)이다. 신경망(Neural Networks) 모델의 일종인 DBN은 강력한 성능과 확장성으로 인해 각광받고 있다. DBN의 경우 내부적인 무작위성 때문에 GD 계열의 최적화 기법을 주로 사용한다.
3차원 가공경로 좌표를 따라 사용자의 3차원 형상을 가공하기 위해 임의의 시점 k에서 공구의 옆면이 선직면에 최대한 밀착되어 오차를 최소화하고, 공구가 후진하는 일 없이 가능한 일정한 속도로 진행하여 표면조도를 향상시켜야 한다. 이 조건을 만족하기 위해 아래와 같이 최적화 문제를 단순화한다.
즉, 제어부(130)는 선직면(ruled surface)의 상단 커브 [Ui]i= 1...N와 하단 커브 [Vi]i= 1...N로부터 중단 커브 [mi(λ=0.5)=(ui+vi)/2]i = 1...N를 계산할 수 있다. 선직면에 공구를 밀착시키는 대신, 이 상/중/하단 polyline 커브와의 오차를 최소화한다.
Polyline 커브 [mi]과 공구축 T(k)의 오차를 최소화하는 간단한 방법은 우선 [mi]을 대신하는 특징점 ck를 구하고 공구축과 특징점 사이의 오차를 줄이는 과정을 반복하는 것이다. 이 경우 특징점은 공구축과 커브의 오차 ek가 최소가 되는 점으로 정한다.
제어부(130)는 공구축과 전체 내분 커브에 대한 공구의 오차(ek)가 최소가 되는 특징점(ck)을 산출한다.(
Figure 112016009139384-pat00019
)
일정 속도로 공구가 전진하는 가공 경로를 구하기 위해, 가공 경로를 N 개의 공구축 좌표 Ti=(pi,ai)의 집합으로 정의하고, i 번째 공구축 좌표 Ti 는 커브의 i 번째 점 mi 와의 오차를 최소화하도록 한다. 이를 위해 상/중/하단 커브 중에서 하나를 정해서 특징점을 ck=mi로 한다.
제어부(130)는 공구축 좌표의 인자(pi,ai)를 학습변수(θ=(pi,ai))로 하는 목적함수(Ei(θ=(pi,ai)))를 설정하여 편미분하고, 정지조건을 만족할 때까지 학습변수를 갱신하여 가공경로를 생성하게 된다.
또한, 제어부(130)는, 상단 및 하단 커브를 이루는 선직면의 픽셀들에 대한 깊이값에 근거해, 일정 개수 이상의 윤곽 포인트들 사이에 경사면이 존재하는 경우에, 경사면을 이루는 직선들의 기울기에 대해, 각 윤곽 포인트의 픽셀들에 대한 명암값들을 비교하여 그 명암값이 더 큰 윤곽 포인트 측의 픽셀에 대한 깊이값과, 그 명암값이 더 큰 윤곽 포인트 측의 경사면을 이루는 직선들의 기울기가, 비교 대상 윤곽 포인트측 보다 더 큰 값을 갖도록 3차원 가공경로 좌표를 산출한다.
그리고, 제어부(130)는 선직면(S)의 경사면을 이루는 직선들의 기울기에 대해, 각 윤곽 포인트의 픽셀들에 대한 명암값들을 비교하여 그 명암값이 더 작은 윤곽 포인트 측의 픽셀에 대한 깊이값과, 그 명암값이 더 작은 윤곽 포인트 측의 경사면을 이루는 직선들의 기울기가, 비교 대상 윤곽 포인트측 보다 더 작은 값을 갖도록 3차원 가공경로 좌표를 산출한다.
이에, 제어부(130)는 3차원 가공경로 좌표가 산출되면, 산출된 3차원 가공경로 좌표를 렌더링부(140)에 전달하여 3차원 이미지로 렌더링하도록 제어한다.
이어, 렌더링부(140)는 산출된 3차원 가공경로 좌표에 따라 2차원 이미지를 3차원 이미지로 렌더링한다(S250).
따라서, 사용자는 자신의 사진(2차원 이미지)에 대해 3차원 입체 영상으로 전환되어 디스플레이 된 3차원 이미지를 확인할 수 있다.
전술한 바와 같이 본 발명에 의하면, 사용자의 모습을 찍은 사진에 근거해 입체적인 형상을 제작하기 위해 사용자의 2차원 이미지를 3차원 이미지로 복원할 수 있도록 하는, 2차원 이미지를 3차원 이미지로 복원하는 방법 및 시스템을 실현할 수 있다.
본 발명이 속하는 기술 분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있으므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
100 : 2차원 이미지를 3차원 이미지로 복원하는 시스템
110 : 이미지 로딩부
120 : 특징 검출부
130 : 제어부
140 : 렌더링부
150 : 저장부
150 : 표시부

Claims (10)

  1. 2차원 이미지를 불러와 일정 픽셀 단위로 구분하는 이미지 로딩부;
    상기 2차원 이미지에서 일정 개수 이상의 윤곽 포인트를 검출하는 특징 검출부;
    상기 2차원 이미지에 대해 상기 검출된 일정 개수 이상의 윤곽 포인트를 중심으로 모든 픽셀마다 3차원 변환을 위한 깊이값을 설정하고, 상기 일정 개수 이상의 윤곽 포인트가 포함된 선직면(S)을 선정하며, 선정된 각 선직면에 대해 상단 커브 및 하단 커브로 구분하여, 상단 및 하단 커브를 이루는 선직면의 픽셀들에 대한 깊이값에 근거해 3차원 가공경로 좌표를 산출하는 제어부; 및
    상기 산출된 3차원 가공경로 좌표에 따라 상기 2차원 이미지를 3차원 이미지로 렌더링하는 렌더링부;
    를 포함하고,
    상기 제어부는, 상기 검출된 일정 개수 이상의 윤곽 포인트의 픽셀들에 대해, 각각의 명암값을 서로 비교하여 명암값의 크기에 따라 깊이값을 각각 설정하고, 상기 일정 개수 이상의 윤곽 포인트의 픽셀에 대한 명암값을 기준으로 그 주변에 있는 픽셀들의 명암값을 비교하여, 상기 윤곽 포인트의 픽셀에 대한 명암값 보다 더 높은 경우에 상기 윤곽 포인트의 픽셀에 대한 깊이값보다 더 큰 깊이값으로 설정하고, 상기 윤곽 포인트의 픽셀에 대한 명암값 보다 더 낮은 경우에 상기 윤곽 포인트의 픽셀에 대한 깊이값보다 더 낮은 깊이값으로 설정하며,
    상기 제어부는 상기 상단 커브 및 상기 하단 커브에 대해 내분하여 생성한 내분 커브의 i번째 구간과 공구 간의 오차(eki) 및 전체 내분 커브(mi)에 대한 공구의 오차(ek)를 산출하고, 다음 수학식에 따라
    Figure 112017036518869-pat00025
    구간과 공구와의 오차를
    Figure 112017036518869-pat00026
    로, 전체 내분 커브 [mi(λ)]에 대한 공구의 오차는
    Figure 112017036518869-pat00027
    로 정의하며,
    Figure 112017036518869-pat00028

    상기 상단 및 상기 하단 커브를 각각 N개의 점들로 이루어진 폴리라인(polyline)으로 근사하고, λ로 내분 커브들을 생성하여, 가공 경로의 공구 위치마다 내분 커브와의 오차를 구하여 가공 경로의 오차를 추정하는,
    2차원 이미지를 3차원 이미지로 복원하는 시스템.
  2. 제 1 항에 있어서,
    상기 특징 검출부는, 상기 2차원 이미지에서 다수의 픽셀 가운데 명암차가 일정 기준 이상 차이가 나는 하나 이상 픽셀들의 영역을 윤곽 포인트로 지정하고, 상기 윤곽 포인트를 상기 2차원 이미지의 전 영역에 대해 일정 개수 이상으로 검출하는, 2차원 이미지를 3차원 이미지로 복원하는 시스템.
  3. 제 2 항에 있어서,
    상기 특징 검출부는, 상기 검출된 윤곽 포인트들 사이에 특정 개수의 세부적인 윤곽 포인트를 추가하여 일정 개수 이상의 윤곽 포인트를 결정하는, 2차원 이미지를 3차원 이미지로 복원하는 시스템.
  4. 삭제
  5. 제 1 항에 있어서,
    상기 제어부는, 상기 상단 및 하단 커브를 이루는 선직면의 픽셀들에 대한 깊이값에 근거해, 상기 일정 개수 이상의 윤곽 포인트들 사이에 경사면이 존재하는 경우에, 경사면을 이루는 직선들의 기울기에 대해, 각 윤곽 포인트의 픽셀들에 대한 명암값들을 비교하여 그 명암값이 더 큰 윤곽 포인트 측의 픽셀에 대한 깊이값과, 그 명암값이 더 큰 윤곽 포인트 측의 경사면을 이루는 직선들의 기울기가, 비교 대상 윤곽 포인트측 보다 더 큰 값을 갖도록 3차원 가공경로 좌표를 산출하는, 2차원 이미지를 3차원 이미지로 복원하는 시스템.
  6. (a) 이미지 로딩부가 2차원 이미지를 불러와 일정 픽셀 단위로 구분하는 단계;
    (b) 특징 검출부가 상기 2차원 이미지에서 일정 개수 이상의 윤곽 포인트를 검출하는 단계;
    (c) 제어부가 상기 2차원 이미지에 대해 상기 검출된 일정 개수 이상의 윤곽 포인트를 중심으로 모든 픽셀마다 3차원 변환을 위한 깊이값을 설정하는 단계;
    (d) 제어부가 상기 일정 개수 이상의 윤곽 포인트가 포함된 선직면(S)을 선정하고, 선정된 각 선직면에 대해 상단 커브 및 하단 커브로 구분하여, 상단 및 하단 커브를 이루는 선직면의 픽셀들에 대한 깊이값에 근거해 3차원 가공경로 좌표를 산출하는 단계; 및
    (e) 렌더링부가 상기 산출된 3차원 가공경로 좌표에 따라 상기 2차원 이미지를 3차원 이미지로 렌더링하는 단계;
    를 포함하고,
    상기 (c) 단계에서 상기 제어부는, 상기 검출된 일정 개수 이상의 윤곽 포인트의 픽셀들에 대해, 각각의 명암값을 서로 비교하여 명암값의 크기에 따라 깊이값을 각각 설정하고, 상기 일정 개수 이상의 윤곽 포인트의 픽셀에 대한 명암값을 기준으로 그 주변에 있는 픽셀들의 명암값을 비교하여, 상기 윤곽 포인트의 픽셀에 대한 명암값 보다 더 높은 경우에 상기 윤곽 포인트의 픽셀에 대한 깊이값보다 더 큰 깊이값으로 설정하고, 상기 윤곽 포인트의 픽셀에 대한 명암값 보다 더 낮은 경우에 상기 윤곽 포인트의 픽셀에 대한 깊이값보다 더 낮은 깊이값으로 설정하며,
    상기 (d) 단계에서 상기 제어부는, 상기 상단 커브 및 상기 하단 커브에 대해 내분하여 생성한 내분 커브의 i번째 구간과 공구 간의 오차(eki) 및 전체 내분 커브(mi)에 대한 공구의 오차(ek)를 산출하고, 다음 수학식에 따라
    Figure 112017036518869-pat00029
    구간과 공구와의 오차를
    Figure 112017036518869-pat00030
    로, 전체 내분 커브 [mi(λ)]에 대한 공구의 오차는
    Figure 112017036518869-pat00031
    로 정의하며,
    Figure 112017036518869-pat00032

    상기 상단 및 상기 하단 커브를 각각 N개의 점들로 이루어진 폴리라인(polyline)으로 근사하고, λ로 내분 커브들을 생성하여, 가공 경로의 공구 위치마다 내분 커브와의 오차를 구하여 가공 경로의 오차를 추정하는,
    2차원 이미지를 3차원 이미지로 복원하는 방법.
  7. 제 6 항에 있어서,
    상기 (b) 단계는, 상기 특징 검출부가 상기 2차원 이미지에서 다수의 픽셀 가운데 명암차가 일정 기준 이상 차이가 나는 하나 이상 픽셀들의 영역을 윤곽 포인트로 지정하고, 상기 윤곽 포인트를 상기 2차원 이미지의 전 영역에 대해 일정 개수 이상으로 검출하는, 2차원 이미지를 3차원 이미지로 복원하는 방법.
  8. 제 7 항에 있어서,
    상기 (b) 단계는, 상기 특징 검출부가 상기 검출된 윤곽 포인트들 사이에 특정 개수의 세부적인 윤곽 포인트를 추가하여 일정 개수 이상의 윤곽 포인트를 결정하는, 2차원 이미지를 3차원 이미지로 복원하는 방법.
  9. 삭제
  10. 제 6 항에 있어서,
    상기 (d) 단계에서 상기 제어부는, 상기 상단 및 하단 커브를 이루는 선직면의 픽셀들에 대한 깊이값에 근거해, 상기 일정 개수 이상의 윤곽 포인트들 사이에 경사면이 존재하는 경우에, 경사면을 이루는 직선들의 기울기에 대해, 각 윤곽 포인트의 픽셀들에 대한 명암값들을 비교하여 그 명암값이 더 큰 윤곽 포인트 측의 픽셀에 대한 깊이값과, 그 명암값이 더 큰 윤곽 포인트 측의 경사면을 이루는 직선들의 기울기가, 비교 대상 윤곽 포인트측 보다 더 큰 값을 갖도록 3차원 가공경로 좌표를 산출하는, 2차원 이미지를 3차원 이미지로 복원하는 방법.
KR1020160010193A 2016-01-27 2016-01-27 2차원 이미지를 3차원 이미지로 복원하는 방법 및 시스템 KR101779532B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160010193A KR101779532B1 (ko) 2016-01-27 2016-01-27 2차원 이미지를 3차원 이미지로 복원하는 방법 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160010193A KR101779532B1 (ko) 2016-01-27 2016-01-27 2차원 이미지를 3차원 이미지로 복원하는 방법 및 시스템

Publications (2)

Publication Number Publication Date
KR20170090016A KR20170090016A (ko) 2017-08-07
KR101779532B1 true KR101779532B1 (ko) 2017-09-19

Family

ID=59653662

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160010193A KR101779532B1 (ko) 2016-01-27 2016-01-27 2차원 이미지를 3차원 이미지로 복원하는 방법 및 시스템

Country Status (1)

Country Link
KR (1) KR101779532B1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102025815B1 (ko) * 2017-12-13 2019-11-26 중앙대학교 산학협력단 저부조 모델링 장치 및 방법
KR20200048237A (ko) 2018-10-29 2020-05-08 방성환 3차원 영상생성서버 및 입체영상생성방법
CN109785427A (zh) * 2018-12-26 2019-05-21 长江勘测规划设计研究有限责任公司 利用二维图快速进行三维建模的方法
CN116756836B (zh) * 2023-08-16 2023-11-14 中南大学 一种隧道超欠挖体积计算方法、电子设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100414629B1 (ko) 1995-03-29 2004-05-03 산요덴키가부시키가이샤 3차원표시화상생성방법,깊이정보를이용한화상처리방법,깊이정보생성방법
KR101570359B1 (ko) * 2014-11-28 2015-11-19 한국델켐 (주) 플랭크 정삭 가공경로 생성 방법 및 시스템

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100414629B1 (ko) 1995-03-29 2004-05-03 산요덴키가부시키가이샤 3차원표시화상생성방법,깊이정보를이용한화상처리방법,깊이정보생성방법
KR101570359B1 (ko) * 2014-11-28 2015-11-19 한국델켐 (주) 플랭크 정삭 가공경로 생성 방법 및 시스템

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
심현보, ‘목표윤곽선이 3차원 곡선인 형상의 최적블랭크 설계를 위한 형상오차 측정법’, 한국소성가공학회지, 제24권 제1호, 2015., pp28-36

Also Published As

Publication number Publication date
KR20170090016A (ko) 2017-08-07

Similar Documents

Publication Publication Date Title
US10510180B2 (en) Learning to reconstruct 3D shapes by rendering many 3D views
US9978177B2 (en) Reconstructing a 3D modeled object
CN110288695B (zh) 基于深度学习的单帧图像三维模型表面重建方法
JP5778237B2 (ja) ポイントクラウド内の埋め戻しポイント
KR101779532B1 (ko) 2차원 이미지를 3차원 이미지로 복원하는 방법 및 시스템
KR20160070712A (ko) 3d 모델링된 객체 텍스처링
KR100634537B1 (ko) 3차원 영상의 삼각 분할 장치 및 방법과 그 장치를제어하는 컴퓨터 프로그램을 저장하는 컴퓨터로 읽을 수있는 기록 매체
US10467791B2 (en) Motion edit method and apparatus for articulated object
Leeper et al. Point clouds can be represented as implicit surfaces for constraint-based haptic rendering
CN104715504A (zh) 一种鲁棒的大场景稠密三维重建方法
CN113192200B (zh) 一种基于空三并行计算算法的城市实景三维模型的构建方法
Natali et al. Rapid visualization of geological concepts
Huber et al. Fusion of LIDAR data and aerial imagery for automatic reconstruction of building surfaces
EP2372652A1 (en) Method for estimating a plane in a range image and range image camera
Sreeni et al. Haptic rendering of dense 3D point cloud data
Shivakumar et al. Real time dense depth estimation by fusing stereo with sparse depth measurements
CN104796624A (zh) 一种光场编辑传播方法
CN112950786A (zh) 一种基于神经网络的车辆三维重建方法
US8837815B2 (en) Method of filtering a disparity mesh obtained from pixel images
JP7256005B2 (ja) 実オブジェクトのスキンを表すファセットの集合の決定
KR101507992B1 (ko) 시차맵 생성 방법 및 장치
JP6958993B2 (ja) 土木工事の出来形評価システム、出来形評価方法、及びプログラム
Leeper et al. Constraint based 3-dof haptic rendering of arbitrary point cloud data
Aydar et al. A low-cost laser scanning system design
Hu et al. On-line reconstruction based predictive display in unknown environment

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant