KR102200866B1 - 2차원 이미지를 이용한 3차원 모델링 방법 - Google Patents

2차원 이미지를 이용한 3차원 모델링 방법 Download PDF

Info

Publication number
KR102200866B1
KR102200866B1 KR1020190021751A KR20190021751A KR102200866B1 KR 102200866 B1 KR102200866 B1 KR 102200866B1 KR 1020190021751 A KR1020190021751 A KR 1020190021751A KR 20190021751 A KR20190021751 A KR 20190021751A KR 102200866 B1 KR102200866 B1 KR 102200866B1
Authority
KR
South Korea
Prior art keywords
subject
dimensional
image
photographing
modeling
Prior art date
Application number
KR1020190021751A
Other languages
English (en)
Other versions
KR20200103374A (ko
Inventor
김명민
주원섭
Original Assignee
주식회사 레이젠
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 레이젠 filed Critical 주식회사 레이젠
Priority to KR1020190021751A priority Critical patent/KR102200866B1/ko
Publication of KR20200103374A publication Critical patent/KR20200103374A/ko
Application granted granted Critical
Publication of KR102200866B1 publication Critical patent/KR102200866B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • G06T5/002Denoising; Smoothing
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Abstract

본 발명은 2차원 이미지를 이용한 3차원 모델링 방법에 관한 것으로, 상기 3차원 모델링 방법은 사진 촬영 장치에 의해 피사체로부터 이격되는 거리 정보 및 피사체를 중심으로 일정 방향을 따르는 수평 각도 정보를 포함하는 피사체에 대한 다수의 2차원 원본 이미지를 획득하는 단계; 상기 다수의 2차원 원본 이미지에 대하여 서로 수직인 3개의 축상에서 기설정된 각도만큼 기울어진 상태에서 촬영한 것으로 상기 2차원 이미지를 보정하여 보정된 2차원 이미지를 얻는 단계; 상기 보정된 2차원 이미지를 이용하여 상기 피사체 표면에 대응되는 다수의 포인트가 3차원 공간에 표현된 3차원 포인트 클라우드(point cloud)를 생성하고, 상기 3차원 포인트 클라우드에서 노이즈를 제거하는 단계; 및 상기 노이즈가 제거된 3차원 포인트 클라우드를 이용하여 3차원 모델링을 생성하는 단계를 포함하는 것을 특징으로 한다.

Description

2차원 이미지를 이용한 3차원 모델링 방법{3-DIMENSIONAL MODELING METHOD USING 2-DIMENSIONAL IMAGE}
본 발명은 3차원 모델링 방법에 관한 것으로, 2차원 이미지를 이용하여 3차원의 객체를 얻기 위한 모델링 방법에 관한 것이다.
일반적으로 3차원 모델링(3D modeling)이란 컴퓨터 그래픽스의 분야에서 가상의 3차원 공간속에 재현될 수 있는 수학적 모델을 만들어 가는 과정을 말한다. 이러한 모델링은 컴퓨터가 이해할 수 있는 형태의 데이터로 저장된다.
보통 3차원적인 물체는 3차원의 선으로 표현되며 렌더링 과정을 통해 실제 물체와 비슷한 양감, 질감을 가질 수 있다. 일반적으로 2차원 상의 작도를 통해 공간에 선을 그리고 그려진 선을 이어 붙이고 공간에 배치하고 이 선들을 다각형의 면으로 설정하는 방법으로 3차원 모델이 만들어진다. 혹은 3차원 상에 수학적으로 표현되는 기하학 도형으로 표현되거나 도형들을 연산하여 만들어질 수도 있다.
특히 이러한 3차원 모델을 효율적으로 표현하기 위해 가상공간의 3차원 모델을 통해 실세계의 물체를 묘사하거나 혹은 물리적 환경을 모델링하여 가상환경 속에서 물체의 모습을 만들어낼 수도 있다.
최근 3차원 모델링은 영화, 애니메이션, 광고 등의 엔터테인먼트 분야와 물리적 실험 시뮬레이션, 건축, 디자인 등의 설계 및 예술의 표현 수단으로 각광 받고 있으며, 3D 프린터 분야에서도 활용도가 높아지고 있다.
3차원 모델링을 위해서는 다수의 이미지가 필요하며, 이를 이용하여 소프트웨어에 의해 3차원 모델링을 하게 된다. 오브젝트의 모든 방향에서의 정보를 입수하기 위해 여러 방향에서의 스캔 작업이 필요하며, 이러한 작업은 상당한 비용과 작업시간을 필요로 하는 문제가 있었다.
본 발명은 전술한 문제 및 다른 문제를 해결하는 것을 목적으로 한다. 또 다른 목적은 2차원 이미지를 이용하여 3차원 모델링하는 방법을 제공하는 것이다.
상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따르면, 사진 촬영 장치에 의해 피사체로부터 이격되는 거리 정보 및 피사체를 중심으로 일정 방향을 따르는 수평 각도 정보를 포함하는 피사체에 대한 다수의 2차원 원본 이미지를 획득하는 단계; 상기 다수의 2차원 원본 이미지에 대하여 서로 수직인 3개의 축상에서 기설정된 각도만큼 기울어진 상태에서 촬영한 것으로 상기 2차원 이미지를 보정하여 보정된 2차원 이미지를 얻는 단계; 상기 보정된 2차원 이미지를 이용하여 상기 피사체 표면에 대응되는 다수의 포인트가 3차원 공간에 표현된 3차원 포인트 클라우드(point cloud)를 생성하고, 상기 3차원 포인트 클라우드에서 노이즈를 제거하는 단계; 및 상기 노이즈가 제거된 3차원 포인트 클라우드를 이용하여 3차원 모델링을 생성하는 단계를 포함하는 것을 특징으로 하는 2차원 이미지를 이용한 3차원 모델링 방법이 제공될 수 있다.
본 발명의 일 측면에 따르면, 상기 2차원 원본 이미지는 피사체를 중심으로 이동하는 사진 촬영 장치에 의해 기설정된 수평 각도마다 자동으로 촬영하여 얻어질 수 있다.
본 발명의 일 측면에 따르면, 상기 2차원 원본 이미지는 상기 사진 촬영 장치 내에 구비되는 자이로 센서(gyro sensor)에 의해 피사체를 향한 수평 각도 정보 및 상기 3개의 축상에서 기울어진 각도 정보를 제공할 수 있다.
본 발명의 일 측면에 따르면, 상기 2차원 원본 이미지는 상기 사진 촬영 장치 내에 구비되는 거리센서에 의해 2차원 이미지 내의 피사체까지의 거리 정보를 제공할 수 있다.
본 발명의 일 측면에 따르면, 상기 3차원 모델링을 생성하는 단계 이후에, 상기 피사체와 사진 촬영 장치까지의 거리 정보를 입력받아 상기 3차원 모델링에서의 크기를 상기 수평 각도와 맵핑(mapping)시킴으로써 상기 피사체의 실제 사이즈를 산출하고 이를 상기 3차원 모델링에 반영하는 단계를 더 포함할 수 있다.
본 발명의 일 측면에 따르면, 상기 2차원 원본 이미지를 획득하는 단계는, 상기 피사체를 중심으로 가상의 폐곡선을 따라 상기 사진 촬영 장치를 이동시키면서 촬영함으로써 얻어지고, 상기 가상의 폐곡선은 상기 피사체의 높이 또는 형상에 따라 2개 이상일 수 있다.
본 발명의 일 측면에 따르면, 상기 2차원 원본 이미지는 피사체를 중심으로 가상의 폐곡선을 따라 이동하는 사진 촬영 장치에 의해 촬영된 동영상 이미지 중 기설정된 수평 각도에서 촬영된 이미지를 선택하여 얻어질 수 있다.
본 발명에 따른 방법의 효과에 대해 설명하면 다음과 같다.
본 발명의 실시예들 중 적어도 하나에 의하면, 스캐너(scanner)가 없이도 2차원 이미지만으로 3차원 모델링을 할 수 있는 장점이 있다.
본 발명의 실시예들 중 적어도 하나에 의하면, 피사체(오브제트)의 주위를 따라 촬영하여 2차원 이미지를 생성하기만 하면 이를 3차원 모델링 프로그램에 의해 쉽게 3차원으로 모델링할 수 있다.
본 발명의 실시예들 중 적어도 하나에 의하면, 피사체의 실제 크기와 동일한 크기를 갖도록 3차원 모델링을 할 수 있다는 장점이 있다.
본 발명의 실시예들 중 적어도 하나에 의하면, 자이로 센서(gyro sensor)를 구비하는 사진 촬영 장치에 의해 촬영함으로써 촬영시의 사진 촬영 장치의 높이, 수평 각도 및 수직 각도에 대한 정보를 제공함으로써 2차원 이미지를 보다 정확하게 보정할 수 있는 장점이 있다.
본 발명의 적용 가능성의 추가적인 범위는 이하의 상세한 설명으로부터 명백해질 것이다. 그러나 본 발명의 사상 및 범위 내에서 다수의 변경 및 수정은 당업자에게 명확하게 이해될 수 있으므로, 상세한 설명 및 본 발명의 바람직한 실시예와 같은 특정 실시예는 단지 예시로 주어진 것으로 이해되어야 한다.
도 1은 본 발명의 일 실시예에 따른 3차원 모델링 방법에 관한 플로차트이다.
도 2는 본 발명의 일 실시예와 관련된 2차원 원본 이미지를 얻기 위해 촬영하는 것을 도시한 것이다.
도 3 및 도 4는 본 발명의 일 실시예와 관련된 피사체를 촬영하는 구도를 도시한 것이다.
도 5는 본 발명의 일 실시예에 따른 사진 촬영 장치로 촬영시의 측면 모습을 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 2차원 원본 이미지를 얻는 과정을 설명하기 위한 도면이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소에는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다수의 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 발명의 일 실시예는 2차원의 이미지로부터 3차원으로 모델링하는 방법에 관한 것으로, 특히 2차원 원본 이미지를 얻는 과정에 특징이 있다.
도 1은 본 발명의 일 실시예에 따른 3차원 모델링 방법에 관한 플로차트인데, 이하에서는 도 1을 참조하여 설명하기로 한다.
먼저, 3차원 모델링하기 위하여 사진 촬영 장치(100)에 의해 피사체(10)에 대한 다수의 2차원 원본 이미지를 획득한다. 상기 사진 촬영 장치(100)는 휴대단말기, 디지털카메라, 기타 사진을 촬영할 수 있는 전자기기를 의미한다.
도 2는 본 발명의 일 실시예와 관련된 2차원 원본 이미지를 얻기 위해 촬영하는 것을 도시한 것인데, 도 2를 참조하여 설명하기로 한다. 상기 2차원 원본 이미지를 얻기 위하여 상기 사진 촬영 장치(100)를 피사체(10)를 중심으로 이동시키면서 촬영을 하는데, 보다 구체적으로 상기 2차원 원본 이미지는 피사체(10)를 중심으로 이동하는 사진 촬영 장치(100)에 의해 기설정된 수평 각도마다 자동으로 촬영하여 얻어지게 된다.(S110) 본 발명의 일 실시예에서 수평 각도라 함은 사진 촬영 장치(100)가 가상의 동일 평면에 형성된 폐곡선(C)을 따라 이동한다고 가정할 때 피사체(10)를 중심으로 형성되는 방위각(azimuth)을 의미한다. 이때, 상기 사진 촬영 장치(100)는 반드시 피사체(10)로부터 일정한 거리가 이격될 필요는 없으며, 상기 사진 촬영 장치(100)는 타원을 포함하는 폐곡선을 따라 이동하면 충분하다. 일예로, 상기 피사체(10)가 사람인 경우 상기 사진 촬영 장치(100)를 이용하여 피사체 스스로를 촬영하는 경우도 포함된다. 또한, 피사체(10) 전체를 촬영하는 경우 외에도 피사체(10)의 일부를 촬영하는 경우도 포함한다.
또한, 상기 사진 촬영 장치(100)를 작동시킨 채로 피사체(10)의 주위를 360°이동하면서 2차원 원본 이미지를 얻는다. 이때, 상기 사진 촬영 장치(100)에는 자이로 센서(gyro sensor)와 같은 방향 및 각도를 인식하는 센서가 구비되어 있어 상기 사진 촬영 장치(100)가 피사체(10)를 중심으로 기설정된 각도만큼 이동하게 되면 자동으로 피사체(10)가 촬영되도록 한다. 예를 들면, 상기 사진 촬영 장치(100)를 피사체(10)를 중심으로 30°이동시마다 자동으로 피사체(10)를 촬영하게 하고 이를 사진 촬영 장치(100)에 저장하도록 한다. 이를 위하여 상기 사진 촬영 장치(100)에는 카메라 애플리케이션(application)이 탑재되어 사진 촬영 장치(100)가 피사체(10)를 중심으로 상기 폐곡선(C)을 따라 기설정된 각도만큼 이동시마다 자동으로 사진이 촬영되도록 한다. 이때, 사진 촬영 장치(100)의 수평 각도는 피사체(10)를 최초로 촬영한 지점(P1)을 기준으로 판단하는데, 보다 구체적으로는 최초 촬영시 상기 사진 촬영 장치(100)가 상기 가상의 폐곡선(C)에 접하는 상태임을 가정하고, 최초 촬영 이후 상기 가상의 폐곡선(C)을 따라 이동하면서 폐곡선(C)에 접함과 동시에 최초 촬영시의 사진 촬영 장치(100)의 상태로부터 기설정된 수평 각도만큼 이동된 지점(P2)에 위치할 때 자동으로 피사체(10)를 촬영하게 된다.
앞선 실시예는 사진 촬영 장치(100)가 상기 사진 촬영 장치(100)와 피사체(10)까지의 거리(이하 '피사체 거리'라 한다.)가 일정한 경우를 예시한 것으로 본 발명의 실시예가 이에 한정되는 것이 아니고, 본 발명의 일 실시예는 상기 피사체 거리가 일정하지 않은 경우도 포함하기 때문에 상기 사진 촬영 장치(100)가 상기 폐곡선(C)에 항상 접하는 것은 아니다.
수동으로 상기 사진 촬영 장치(100)를 이동시키는 경우에는 항상 피사체 거리가 일정한 상태에서 상기 가상의 폐곡선(C)을 따라서 이동하지는 못하므로 보다 정확한 촬영을 위하여 피사체(10)와 사진 촬영 장치(100) 사이의 거리는 최초로 사진을 촬영하는 지점(P1)에서의 피사체(10)와 사진 촬영 장치(100)의 거리(r)를 기준으로 판단할 수 있다. 즉, 피사체(10)의 중심으로부터 10cm 이격된 위치에서 사진 촬영 장치(100)로 최초로 촬영을 한 경우, 사진 촬영 장치(100)의 수평 각도는 반지름(r)이 10cm 인 폐곡선 상에서의 방위각을 의미하게 되고, 최초 촬영 지점(P1)을 기준으로 기설정된 각도만큼 이동한 지점(P2)에서 사진을 자동으로 촬영하게 된다.
한편, 앞선 실시예에서는 사진 촬영 장치(100)를 이동시키면서 사진 촬영 장치(100)가 기설정된 수평 각도에 위치할 때 자동으로 사진을 촬영하는 것에 대해 설명하였는데, 반드시 이에 한정되는 것은 아니다.
예를 들어 다른 실시예로, 사진 촬영 장치(100)로 피사체(10)를 중심으로 가상의 폐곡선(C)을 따라 이동하면서 피사체(10)에 대해 동영상을 촬영한 다음, 기설정된 수평 각도만큼 이동한 지점(P1,P2)에서 촬영된 2차원의 정지된 이미지를 선택하여 얻을 수 있다. 이때, 최초 촬영 지점(P1)에서 피사체(10)를 바라보는 가상의 선과 기설정된 수평 각도만큼 이동한 지점(P2)에서 피사체(10)를 바라보는 가상의 선을 연결하게 되면 피사체(10)의 중심(O)을 찾을 수 있게 되고, 피사체 중심(O)을 기준으로 반지름이 r인 가상의 폐곡선(C)을 찾게 된다. 사진 촬영 장치(100)를 가상의 폐곡선(C)을 따라 이동하면서 계속적으로 피사체(10)를 촬영하고, 기설정된 수평 각도의 위치에서 촬영된 2차원 이미지를 선택하여 저장하면 도 2에 도시된 바와 같이, 기설정된 위치(P1,P2)에서 피사체(10)를 촬영한 2차원 원본 이미지를 얻을 수 있게 된다.
이와 같이, 동영상에 포함되는 다수의 2차원 이미지 중 원하는 이미지를 선택할 수 있으며, 나아가 사진 촬영 장치(100)가 최초 촬영 지점(P1)에서의 거리(r)와 다른 거리(r')에서 촬영을 하더라도 그 지점에서의 2차원 이미지를 선택하고, 이후에 피사체 거리에 따른 보정을 하게 되면 가상의 폐곡선(C)에서 촬영한 것과 같은 이미지를 얻게 된다. 본 발명의 일 실시예에서 기설정된 수평 각도에서 촬영된 이미지에 대한 기술에 적용되는 내용은 특별히 저촉되지 않는 이상 동영상으로 촬영된 이미지를 선택하는 것에 대한 기술에도 동일하게 적용될 수 있다. 즉, 후술하는 내용은 기설정된 수평 각도에서 촬영된 이미지에 대한 것을 중심으로 설명하나, 동영상으로 촬영된 이미지를 활용하는 기술에도 동일하게 적용될 수 있다.
이와 같이, 상기 2차원 원본 이미지는 피사체(10)로부터 이격되는 거리 정보 즉, 피사체 거리 정보 및 피사체(10)를 중심으로 일정 방향을 따르는 수평 각도 정보를 갖게 된다. 즉, 상기 2차원 원본 이미지는 피사체(10)와의 거리가 얼마인지와 피사체(10)의 정면으로부터 어느 정도의 수평 각도에서 촬영한 것인지에 대한 정보가 2차원 원본 이미지와 함께 저장된다. 이에 의해 피사체(10)의 실제 크기에 대한 데이터가 산출된다. 즉, 2 이상의 서로 다른 각도에서 동일한 피사체(10)를 촬영함으로써 피사체(10)의 실제 크기를 산출하게 되며 이에 대해서는 후술하기로 한다. 이때, 상기 2차원 원본 이미지는 상기 사진 촬영 장치(100) 내에 구비되는 거리센서에 의해 2차원 이미지 내의 피사체(10)로부터의 거리 정보를 제공하게 된다. 본 발명의 일 실시예에서의 거리센서는 초음파, 레이저 등을 이용한 것일 수 있으며 특별히 제한되지 않는다.
상술한 바와 같이, 상기 2차원 원본 이미지는 동일 평면 상에서 피사체(10)를 중심으로 가상의 폐곡선을 따라 일정 각도만큼 이동시키면서 촬영하여 얻어지는데, 실제로 피사체(10)를 촬영하는 경우에는 사진 촬영 장치(100)의 높이가 일정하지 않을 뿐만 아니라 피사체(10)를 향하는 각도가 일정하지 않을 수 있다. 이를 보정하기 위하여 본 발명의 일 실시예에서는 상기 다수의 2차원 원본 이미지에 대하여 서로 수직인 3개의 축상에서 기설정된 각도만큼 기울어진 상태에서 촬영한 것으로 상기 2차원 이미지를 보정하여 보정된 2차원 이미지를 얻게 된다.(S120)
보다 구체적으로, 3차원 공간 상에서 피사체(10)를 촬영시 상기 폐곡선(C)에 접하는 축을 제1축, 상기 제1축과 수직이면서 3차원 공간 상에서 상하로 형성되는 축을 제2축(또는 수직축), 상기 제1축 및 제2축과 수직인 축을 제3축이라 할 때, 상기 제1축 내지 제3축 상에서 상기 사진 촬영 장치(100) 즉, 상기 2차원 원본 이미지가 기울어진 각도 크기는 다수의 2차원 원본 이미지에 대하여 동일하게 적용한다. 예를 들면, 제1 지점(P1)에서 피사체(10)를 촬영시에 제2축을 따라 (+)방향으로 10°만큼 기울어진 상태에서 촬영한 것을 기준으로 한다면, 제2지점(P2)에서 피사체(10)를 촬영한 2차원 원본 이미지에 대해서도 제2축을 따라 (+)방향으로 10°만큼 기울어진 상태에서 촬영한 것으로 보정함으로써 보정된 2차원 이미지를 얻는다. 이는 제1축 및 제3축에 대해서도 마찬가지일 수 있다. 이때, 상기 제2축을 따라 상기 사진 촬영 장치(100)가 기울어지는 각도를 수직 각도라 칭하기로 하고, 제2축을 따라 (+)방향으로 기울어지는 경우는 상기 피사체(10)를 향하여 앞으로 기울어지는 것을 의미하고, (-)방향으로 기울어지는 경우를 상기 피사체(10)로부터 뒤로 기울어지는 것을 의미한다.
또한, 상기 제1축을 따르는 (+), (-)방향은 각각 상기 사진 촬영 장치(100)가 좌측 및 우측으로 기울어지는 경우를 의미하고, 상기 제3축을 따르는 (+), (-)방향은 상기 피사체(10)를 향한 상태에서 상기 사진 촬영 장치(100)를 각각 좌측 또는 우측을 향하여 비트는 경우를 의미한다.
다만, 상기 3개의 축을 따라 기울어진 정도에 대한 보정은 반드시 모든 촬영 지점에서 동일할 필요는 없으며, 폐곡선의 형상 등에 따라서 상기 제1축, 제2축 및 제3축 상에서 기울어진 각도가 상이할 수 있다.
나아가, 동일 거리 및 동일 높이에 대해 보정할 수도 있는데, 상기 동일 거리에 대한 보정은 상기 거리센서에 의해 측정된 피사체 거리가 동일하도록 하는 보정을 의미하고, 동일 높이에 대한 보정은 상기 제2축에 수직인 평면에 형성되는 가상의 폐곡선 상에서 촬영한 것으로 보정하는 것을 의미한다. 또한, 동일 수직 각도에 대한 보정은 상기 제2축에 수직인 평면에 형성되는 가상의 폐곡선(C) 상에서 피사체(10)를 향하여 기울어지는 정도를 동일한 크기로 보정하는 것을 의미한다.
본 발명의 일 실시예에서는 상기 2차원 이미지를 인접한 지점에서 촬영된 2차원 원본 이미지간의 양안 시차에 의해 보정을 할 수 있다. 즉, 실제로 촬영된 2차원 원본 이미지를 동일 평면에 형성되는 가상의 폐곡선(C)을 따라 이동하면서 촬영된 것으로 보정하게 된다. 보다 구체적으로, 임의의 위치에서 촬영된 2차원 원본 이미지간의 양안 시차를 컴퓨터를 이용하여 계산한다. 2차원 이미지에 기반한 3차원 모델링에서는 사람의 두 눈과 같이 고정되어 있는 위치가 아니라, 임의의 위치에서 촬영한 이미지에 대해 양안 시차를 계산하여야 하기 때문에 2차원 원본 이미지로부터 이를 찍은 사진 촬영 장치(100)의 위치를 정확히 알아야 하는데, 본 발명의 일 실시예에서 사진 촬영 장치(100)의 정확한 위치 정보는 자이로 센서에 의해 제공된다. 이와 같은 이미지간 양안시차를 구하는 기술을 영상정합이라고 한다.
또한, 도 6은 본 발명의 일 실시예에 따른 2차원 원본 이미지를 얻는 과정을 설명하기 위한 도면인데, 본 발명의 일 실시예에서는 상기 피사체(10)를 중심으로 가상의 폐곡선을 따라 상기 사진 촬영 장치를 이동시키면서 촬영함으로써 얻어지며, 이때 상기 가상의 폐곡선은 상기 피사체의 높이 또는 형상에 따라 2개 이상으로 할 수 있다. 즉, 도 6에 도시된 바와 같이, 피사체(10)를 중심으로 높이를 달리하는 3개의 가상의 폐곡선(C1,C2,C3)을 따라 사진 촬영 장치(100)를 이동시키면서 촬영함으로써 2차원 원본 이미지를 다수 확보할 수 있다. 이와 같이, 2차원 원본 이미지를 많이 확보할수록 보다 정확한 3차원 모델링이 가능하다.
예를 들면, 인체의 두상을 3차원 모델링하는 경우에는 얼굴 윗부분을 따르는 가상의 폐곡선(C1)과 얼굴 중심을 따르는 가상의 폐곡선(C2)과 얼굴 아래 부분을 따르는 가상의 폐곡선(C3)을 따라 사진 촬영 장치(100)를 이동시켜가면서 2차원 원본 이미지를 획득함으로써 보다 정밀하게 3차원 모델링할 수 있다.
반드시 이에 한정되는 것은 아니고, 얼굴 중심을 따르는 가상의 폐곡선(C2)을 따라서 사진 촬영 장치(100)를 이동시켜가면서 2차원 원본 이미지를 얻고, 머리 윗부분에서 1회의 촬영만으로 얻어지는 2차원 원본 이미지의 조합에 의해서도 3차원 모델링은 가능하다.
도 5는 본 발명의 일 실시예에 대한 사진 촬영 장치(100)로 촬영시의 측면 모습을 도시한 것인데, 도 5를 참조하면 실제 2차원 원본 이미지를 촬영시에 상기 가상의 폐곡선을 따라 이동하면서 피사체(10)를 정면으로 바라보는 상태에서 촬영하는 경우가 있고, 상기 가상의 피사체보다 다소 높은 위치에서 피사체(10)를 향하여 다소 기울어진 상태에서 촬영하는 경우가 있을 수 있다. 이때, 상기 가상의 폐곡선상의 피사체(10) 정면에서 촬영하는 경우를 정위치에서의 촬영이라 하고, 이를 벗어난 경우의 촬영을 비정상 위치에서의 촬영이라 칭하기로 한다.
도 5에 도시된 바와 같이, 비정상 위치에서의 촬영 이미지와 정위치에서의 촬영 이미지 사이에는 렌즈와 피사체(10)까지의 거리(D1,D2)가 다르고, 렌즈의 높이 또한 h만큼 차이가 있으며, 수직 각도는 θ만큼 차이가 있다. 이러한 데이터를 이용하여 양안 시차를 이용한 보정에 의해 비정상 위치에서 촬영된 2차원 원본 이미지를 정위치에서 촬영한 것과 같은 2차원 이미지로 보정하게 되는 것이다.
이는 피사체(10)를 중심에 두고 항상 일정한 높이 및 일정한 수직 각도로 촬영된 것과 같이 하는 과정이다. 이를 위해 본 발명의 일 실시예에 따른 사진 촬영 장치(100)에는 자이로센서(gyro sensor)가 구비되어 있다. 일반적으로, 자이로센서(gyro sensor)는 회전하는 물체의 역학운동을 이용한 개념으로 위치 측정과 방향 설정 등에 활용되는 기술이다. 스마트폰, 리모컨, 비행기나 위성의 자세제어 장치 등에 광범위하게 사용된다.
상기 자이로 센서에 의하면 얻어진 2차원 원본 이미지의 촬영 당시의 사진 촬영 장치(100)가 피사체(10)를 향하여 어느 정도 기울어져 있었는지에 대한 정보를 얻을 수 있다. 이와 같이 피사체(10)를 촬영하기 위하여 사진 촬영 장치(100)가 피사체(10)를 향하여 어느 정도 기울어졌는지에 대한 정보는 수직 각도(vertical angle)에 의해 정의될 수 있다. 상기 수평(horizontal angle) 각도가 방위각(azimuth)과 대응되는 개념이라면, 상기 수직 각도는 고도(altitude)에 대응되는 개념이라 할 수 있다.
보다 구체적으로, 상기 자이로 센서에 의하면 상기 사진 촬영 장치(100)가 피사체(10)를 향하여 상기 제1축, 제2축 및 제3축 상에서 어느 정도 기울어졌는지를 알 수 있다.
이와 같은 과정에 의해 가상의 폐곡선(C)을 기준으로 피사체(10)와의 이격 거리, 가상의 폐곡선(C)으로부터 이격된 높이, 수직 각도를 보정하게 된다.
이후, 상기 보정된 2차원 이미지를 이용하여 상기 피사체 표면에 대응되는 다수의 포인트가 3차원 공간에 표현된 3차원 포인트 클라우드(point cloud)를 생성하고, 상기 3차원 포인트 클라우드에서 노이즈를 제거(S130)하는 단계를 거쳐 불필요한 배경 등을 삭제하게 된다. 즉, 실제 촬영된 2차원 원본 이미지에는 촬영시의 배경, 날씨, 조명 및 먼지 등에 의한 환경적 요소 및 사진 촬영 장치(100) 자체의 특성에 따른 장치적 요소 등에 의한 왜곡이 존재할 수 있으며, 이러한 왜곡들을 제거하게 된다.
그리고, 상기 노이즈가 제거된 3차원 포인트 클라우드를 이용하여 3차원 모델링을 생성하고 이를 상기 3차원 모델링에 반영(S140)하게 된다. 이때의 3차원 모델링은 3차원 변환 소프트웨어가 탑재된 2차원 이미지를 3차원으로 변환시키는 변환 서버에 의해 이루어진다. 상기 3차원 변환 소프트웨어의 종류는 특별히 제한되지 않으며, 상기 변환 서버는 일예로 상기 소프트웨어가 탑재되어 3차원 모델링이 가능한 컴퓨터, 휴대 단말기 또는 서버일 수 있으나 특별히 제한되지 않는다. 3차원 변환 소프트웨어는 프로그래밍 언어로 작성되고, 이를 실행할 수 있는 프로세서 및 메모리를 탑재한 컴퓨팅 장치에 의해 읽고 쓰기가 가능한 기록매체에 기록된 프로그램 형태로 구현되어 컴퓨팅 장치에 탑재될 수 있다.
마지막으로, 상기 3차원 모델링을 생성한 이후에, 상기 피사체와 사진 촬영 장치까지의 거리 정보를 입력받아 상기 3차원 모델링에서의 크기를 상기 수평 각도와 맵핑(mapping)시키게 된다. 이는 상기 2차원 원본 이미지와 3차원 모델링된 이미지의 크기가 서로 동일하게 하는 것을 의미한다. 이와 같이, 피사체(10)의 실제 크기와 동일한 데이터를 갖도록 3차원 모델링을 함으로써 3D 프린터와 같은 분야에서 유용하게 활용될 수 있다.
보다 구체적으로, 촬영된 2차원 원본 이미지들을 이용하여 촬영 지점들간의 상대 위치와 회전각(사잇각)을 이용하여 촬영 지점들간의 기하학적인 관계를 계산하는 영상교정(calibration), 에피폴라 기하(epipolar geometry)를 이용하여 모든 에피폴라 선을 영상에 수평하게 맞춰주어 정합점을 찾는 영상정렬(rectification), 3차원 상의 특정한 점을 카메라의 영상에서 해당되는 점들과 매칭시키는 영상대응(correspondence) 등의 과정을 거쳐 정확한 3차원 위치정보를 계산하여 입체영상을 획득한다.
즉, 촬영 지점들에서 획득된 피사체 거리 정보를 이용하여 입체영상(3차원 모델링)에서의 상대거리 정보를 수평 각도와 맵핑(mapping)시켜 입체영상의 절대 크기 정보를 산출하고 이를 3차원 모델링에 반영한다.
한편, 도 3 및 도 4는 본 발명의 일 실시예와 관련된 피사체(10)(Object)를 촬영하는 구도를 도시한 것인데, 도 3은 화각이 작은 경우에 대한 것이고, 도 4는 화각이 큰 경우에 대한 것이다. 도 3 및 도 4를 참조하면 사진 촬영 장치(100)로부터 측정된 화각(Angle of View)과 피사체(10)까지의 거리에 의해 피사체(10)의 크기를 산출할 수 있다. 화각(Angle of View)은 사진 촬영 장치(100)가 잡아낸 영상의 범위를 각도로 나타낸 것이다. 이것은 일반 광학카메라에서는 필름의 크기와 초점거리(F)에 의해 결정되고, 디지털카메라에서는 필름 대신에 CCD(Charge Coupled Detector)를 사용한다.
보다 구체적으로, 도 3에서 화각이 작은 경우 화각을 α, 렌즈로부터 피사체(10)까지의 거리를 L1, 피사체(10)의 크기를 d라 할 때, tan(α)=d/L1의 관계식이 성립한다. 상기 관계식으로부터 화각과 피사체(10)까지의 거리 데이터가 있는 경우 피사체(10)의 실제 크기를 알 수 있게 된다. 한편, 화각이 큰 경우에는 도 4에서 화각을 β, 렌즈로부터 피사체(10) 중심까지의 거리를 L2, 피사체(10)의 크기를 d라 할 때, tan(β/2)=2d/L2의 관계식이 성립하고, 이로부터 화각이 비교적 큰 경우에도 피사체(10) 중심까지의 거리와 화각에 대한 데이터가 있는 경우 피사체(10)의 실제 크기를 알 수 있게 된다. F는 렌즈의 초점거리이다.
이와 같은 과정에 의해 피사체(10)의 실제 크기를 간접적으로 알 수도 있다.
상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
10: 피사체, 100: 사진 촬영 장치

Claims (7)

  1. 사진 촬영 장치에 의해 피사체로부터 이격되는 거리 정보 및 피사체를 중심으로 일정 방향을 따르는 수평 각도 정보를 포함하는 피사체에 대한 다수의 2차원 원본 이미지를 획득하는 단계;
    상기 다수의 2차원 원본 이미지에 대하여 서로 수직인 3개의 축상에서 기설정된 각도만큼 기울어진 상태에서 촬영한 것으로 상기 2차원 원본 이미지를 보정하여 보정된 2차원 이미지를 얻는 단계;
    상기 보정된 2차원 이미지를 이용하여 상기 피사체의 표면에 대응되는 다수의 포인트가 3차원 공간에 표현된 3차원 포인트 클라우드(point cloud)를 생성하고, 상기 3차원 포인트 클라우드에서 노이즈를 제거하는 단계;
    상기 노이즈가 제거된 3차원 포인트 클라우드를 이용하여 3차원 모델링을 생성하는 단계; 및
    상기 피사체와 사진 촬영 장치까지의 거리 정보를 입력받아 상기 3차원 모델링에서의 크기를 상기 수평 각도와 맵핑(mapping)시킴으로써 상기 피사체의 실제 사이즈를 산출하고 이를 상기 3차원 모델링에 반영하는 단계를 포함하고,
    상기 보정된 2차원 이미지를 얻는 단계는,
    상기 사진 촬영 장치가 상기 피사체를 중심으로 이동하면서 촬영하는 지점들로 이루어지는 가상의 폐곡선 중 동일 높이에 형성된 폐곡선에서 촬영된 것으로 보정하는 동일 높이에 대한 보정 및 상기 동일 높이에 형성된 가상의 폐곡선 상에서 피사체를 향하여 기울어지는 정도를 동일한 크기로 보정하는 동일 수직 각도에 대한 보정을 더 포함하는 것을 특징으로 하는 2차원 이미지를 이용한 3차원 모델링 방법.
  2. 제1항에 있어서,
    상기 2차원 원본 이미지는 피사체를 중심으로 이동하는 사진 촬영 장치에 의해 기설정된 수평 각도마다 자동으로 촬영하여 얻어지는 것을 특징으로 하는 2차원 이미지를 이용한 3차원 모델링 방법.
  3. 제2항에 있어서,
    상기 2차원 원본 이미지는 상기 사진 촬영 장치 내에 구비되는 자이로 센서(gyro sensor)에 의해 피사체를 향한 수평 각도 정보 및 상기 3개의 축상에서 기울어진 각도 정보를 제공하는 것을 특징으로 하는 2차원 이미지를 이용한 3차원 모델링 방법.
  4. 제1항에 있어서,
    상기 2차원 원본 이미지는 상기 사진 촬영 장치 내에 구비되는 거리센서에 의해 2차원 이미지 내의 피사체까지의 거리 정보를 제공하는 것을 특징으로 하는 2차원 이미지를 이용한 3차원 모델링 방법.
  5. 삭제
  6. 제1항에 있어서,
    상기 2차원 원본 이미지를 획득하는 단계에서 상기 가상의 폐곡선은 상기 피사체의 높이 또는 형상에 따라 2개 이상인 것을 특징으로 하는 2차원 이미지를 이용한 3차원 모델링 방법.
  7. 제1항에 있어서,
    상기 2차원 원본 이미지는 피사체를 중심으로 가상의 폐곡선을 따라 이동하는 사진 촬영 장치에 의해 촬영된 동영상 이미지 중 기설정된 수평 각도에서 촬영된 이미지를 선택하여 얻어지는 것을 특징으로 하는 2차원 이미지를 이용한 3차원 모델링 방법.
KR1020190021751A 2019-02-25 2019-02-25 2차원 이미지를 이용한 3차원 모델링 방법 KR102200866B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190021751A KR102200866B1 (ko) 2019-02-25 2019-02-25 2차원 이미지를 이용한 3차원 모델링 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190021751A KR102200866B1 (ko) 2019-02-25 2019-02-25 2차원 이미지를 이용한 3차원 모델링 방법

Publications (2)

Publication Number Publication Date
KR20200103374A KR20200103374A (ko) 2020-09-02
KR102200866B1 true KR102200866B1 (ko) 2021-01-11

Family

ID=72469420

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190021751A KR102200866B1 (ko) 2019-02-25 2019-02-25 2차원 이미지를 이용한 3차원 모델링 방법

Country Status (1)

Country Link
KR (1) KR102200866B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230021904A (ko) 2021-08-06 2023-02-14 주식회사 케이티 2차원 영상을 이용하여 3차원 모델을 생성하는 3차원 모델 생성 장치, 방법 및 컴퓨터 프로그램

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102398580B1 (ko) * 2021-06-21 2022-05-17 주식회사 호인스컴퍼니 휴대 단말을 이용한 실감 오브젝트 생성 시스템
CN116468872A (zh) * 2023-03-16 2023-07-21 辽宁省地质勘查院有限责任公司 一种基于倾斜摄影的古生物化石三维建模方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100452839B1 (ko) * 2003-10-07 2004-10-15 (주)오픈브이알 3차원 이미지 생성 장치 및 방법
KR101756650B1 (ko) * 2015-10-27 2017-07-26 광주과학기술원 물품의 설치공간 탐색방법 및 이를 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록매체

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101703013B1 (ko) * 2015-04-22 2017-02-06 (주) 리얼밸류 3차원 스캐너 및 스캐닝 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100452839B1 (ko) * 2003-10-07 2004-10-15 (주)오픈브이알 3차원 이미지 생성 장치 및 방법
KR101756650B1 (ko) * 2015-10-27 2017-07-26 광주과학기술원 물품의 설치공간 탐색방법 및 이를 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록매체

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230021904A (ko) 2021-08-06 2023-02-14 주식회사 케이티 2차원 영상을 이용하여 3차원 모델을 생성하는 3차원 모델 생성 장치, 방법 및 컴퓨터 프로그램

Also Published As

Publication number Publication date
KR20200103374A (ko) 2020-09-02

Similar Documents

Publication Publication Date Title
US11830163B2 (en) Method and system for image generation
US9729787B2 (en) Camera calibration and automatic adjustment of images
US10368047B2 (en) Six-degree of freedom video playback of a single monoscopic 360-degree video
CN106331527B (zh) 一种图像拼接方法及装置
KR101754599B1 (ko) 드론 촬영 이미지를 기반으로 3d 오브젝트를 자동으로 추출하는 시스템 및 방법
KR101666959B1 (ko) 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치 및 그 방법
EP2328125B1 (en) Image splicing method and device
CN111857329B (zh) 注视点计算方法、装置及设备
US8977075B2 (en) Method for determining the relative position of a first and a second imaging device and devices therefore
CN107155341B (zh) 三维扫描系统和框架
KR102200866B1 (ko) 2차원 이미지를 이용한 3차원 모델링 방법
JP6090786B2 (ja) 背景差分抽出装置及び背景差分抽出方法
JPWO2018235163A1 (ja) キャリブレーション装置、キャリブレーション用チャート、チャートパターン生成装置、およびキャリブレーション方法
WO2018112788A1 (zh) 图像处理方法及设备
TW201118791A (en) System and method for obtaining camera parameters from a plurality of images, and computer program products thereof
CN102436639A (zh) 一种去除图像模糊的图像采集方法和图像采集系统
KR101745493B1 (ko) 깊이 지도 생성 장치 및 방법
GB2567245A (en) Methods and apparatuses for depth rectification processing
DK3189493T3 (en) PERSPECTIVE CORRECTION OF DIGITAL PHOTOS USING DEPTH MAP
CN111213364A (zh) 拍摄设备的控制方法、拍摄设备的控制装置及拍摄设备
WO2021185036A1 (zh) 点云数据的生成及实时显示方法、装置、设备及介质
JP2019029721A (ja) 画像処理装置、画像処理方法およびプログラム
KR102538685B1 (ko) 다시점 정보를 이용하여 3d 정보를 복원하는 방법 및 이를 위한 장치
KR102031485B1 (ko) 360도 카메라와 평면 거울을 이용한 다시점 영상 획득 장치 및 방법
KR102019879B1 (ko) 가상 카메라를 이용한 게임 내 360 vr 영상 획득 장치 및 방법

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant