KR20080076610A - 2차원 실사 영상으로부터 3차원 모델을 생성하는 방법 및장치 - Google Patents

2차원 실사 영상으로부터 3차원 모델을 생성하는 방법 및장치 Download PDF

Info

Publication number
KR20080076610A
KR20080076610A KR1020070016781A KR20070016781A KR20080076610A KR 20080076610 A KR20080076610 A KR 20080076610A KR 1020070016781 A KR1020070016781 A KR 1020070016781A KR 20070016781 A KR20070016781 A KR 20070016781A KR 20080076610 A KR20080076610 A KR 20080076610A
Authority
KR
South Korea
Prior art keywords
plane
dimensional
information
image
model
Prior art date
Application number
KR1020070016781A
Other languages
English (en)
Other versions
KR101388133B1 (ko
Inventor
김근호
휘 장
김도균
정석윤
안톤 코노신
블라디미르 베즈네베츠
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020070016781A priority Critical patent/KR101388133B1/ko
Priority to US12/068,123 priority patent/US8254667B2/en
Priority to EP08151361A priority patent/EP1959392B1/en
Priority to JP2008034898A priority patent/JP4964801B2/ja
Priority to CN2008100055437A priority patent/CN101246603B/zh
Publication of KR20080076610A publication Critical patent/KR20080076610A/ko
Application granted granted Critical
Publication of KR101388133B1 publication Critical patent/KR101388133B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/536Depth or shape recovery from perspective effects, e.g. by using vanishing points

Abstract

본 발명은 2차원 실사 영상으로부터 3차원 모델을 생성하는 방법 및 장치에 관한 것으로, 2차원 실사 영상의 어느 하나의 객체 내의 적어도 하나 이상의 소실점에 수렴하는 에지 연장선의 직선 방정식을 이용하여 이 소실점에 대응하는 면의 평면 방정식을 산출하고, 이것을 이용하여 객체에 대한 3차원 모델을 생성함으로써 3차원 모델 생성 과정에서의 3차원 기하 정보 산출을 위한 계산이 간단하고, 정확하게 3차원 모델을 생성할 수 있다.

Description

2차원 실사 영상으로부터 3차원 모델을 생성하는 방법 및 장치{Method and apparatus for creating a 3D model from 2D photograph image}
도 1은 본 발명의 바람직한 일 실시예에 따른 3차원 모델 생성 장치의 구성도이다.
도 2는 도 1에 도시된 객체 특정부(11)가 자동으로 객체를 특정하는 경우를 도시한 도면이다.
도 3은 도 1에 도시된 객체 특정부(11)가 반자동으로 객체를 특정하는 경우를 도시한 도면이다.
도 4a-c는 도 1에 도시된 객체 분류부(14)에서의 객체 분류 과정을 도시한 도면이다.
도 5는 3차원 공간에서의 정육면체에 대한 2 점 투시도이다.
도 6-7은 도 1에 도시된 면 정보 산출부(15)에서의 면 기하 정보 산출 방식을 설명하기 위한 건물을 도시한 도면이다.
도 8-9는 도 1에 도시된 면 정보 산출부(15)에서의 어느 한 면의 평면 방정식을 산출하는 방식을 도시한 도면이다.
도 10은 도 1에 도시된 제 1 3차원 모델 생성부(16)에서의 텍스쳐 맵핑 방식을 도시한 도면이다.
도 11은 본 발명의 바람직한 일 실시예에 따른 3차원 모델 생성 방법의 흐름도이다.
도 12는 도 1에 도시된 3차원 모델 생성 장치를 사용한 네비게이션 시스템의 구성도이다.
도 13은 본 발명의 바람직한 일 실시예에 따른 네비게이션 방법의 흐름도이다.
본 발명은 컴퓨터 비전(computer vision) 분야에서의 영상 처리에 관한 것으로, 특히 2차원 실사 영상으로부터 3차원 모델을 생성하는 방법 및 장치에 관한 것이다.
3차원 모델링(3D modelling) 기술은 컴퓨터 그래픽스(computer graphics) 분야나 컴퓨터 비전 분야에서 많은 연구가 진행되어 있다. 컴퓨터 그래픽스 분야는 3차원 공간에서의 객체의 기하(geometric) 정보 및 질감(material) 정보를 모델링하는 정교한 CAD(Computer Aided Design) 시스템을 개발하는 방향으로 진행되어 왔다. 그런데, 이러한 방식들은 실제 세계(real world)에서의 객체의 기하 정보가 매우 복잡하고, 조명 효과를 정확하게 모델링하기 어렵기 때문에 사실적인 영상을 생성하기가 매우 어렵다는 문제점이 있었다.
컴퓨터 비전 분야는 2차원 영상으로부터 3차원의 기하 정보를 산출하고, 실 제 영상을 이용하여 실제 세계의 조명 조건 하에서 객체의 질감 정보를 산출하는 방향으로 진행되어 왔다. 이와 같은 2차원 영상으로부터 3차원의 기하 정보를 산출하는 종래의 방식들로는 "Single view metrology"(Criminisi, 1999), "Image-based modeling and photo editing"(Byong Mok Oh, 2001), "Using Geometric Constraints Through Parallelepipeds for Calibration and 3D Modelling"(Wilczkowiak, 2005) 등이 있다. 그런데, 이러한 방식들은 3차원 기하 정보 산출을 위한 계산이 매우 복잡하다는 문제점이 있었다.
2002년에 "Derek Hoeim"에 의해 발표된 "Automatic Photo Pop-up" 방식은 상기된 방식들보다 그 계산이 매우 간단한 것으로서 책을 펼치면 그림이 튀어나오는 아이들의 팝업 북(pop-up book)에 착안한 것이다. 즉, 이 방식은 2차원 실사 영상을 지면(ground), 수직(vertical), 및 하늘(sky) 영역으로 구분하고, 영상 내의 지면과 수직의 경계들을 추정한다. 이어서, 이 방식은 이와 같이 추정된 경계들을 기준으로 2차원 실사 영상을 구성하는 객체들을 잘라서(cut) 접음(fold)으로서 3차원 모델을 생성한다. 그러나, 이 방식도 지면과 수직의 경계가 올바르게 설정되지 않으면 정확한 3차원 모델을 얻을 수 없다는 문제점이 있었다. 예를 들어, 객체가 건물(building)이라면, 건물과 지면 사이에 자동차 등이 위치할 수 있으며, 이로 인하여 지면과 수직의 경계가 올바르게 설정되지 않을 수 있다.
본 발명이 이루고자 하는 기술적 과제는 3차원 모델 생성 과정에서의 3차원 기하 정보 산출을 위한 계산이 간단하면서도 건물과 지면 사이에 자동차 등이 위치 하는 경우에도 정확하게 3차원 모델을 생성할 수 있도록 하는 장치 및 방법을 제공하는데 있다. 또한, 상기된 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공하는데 있다.
본 발명이 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다. 이것은 본 발명이 속하는 기술 분야에서 통상을 지식을 가진 자들이라면 아래의 기재로부터 명확하게 이해될 수 있다.
상기 기술적 과제를 해결하기 위한 본 발명에 따른 3차원 모델 생성 방법은 2차원 영상의 어느 하나의 객체 내에서 영상 정보의 변화가 임계값 이상인 지점들에 해당하는 에지들을 검출하는 단계; 상기 검출된 에지들의 연장선들이 교차하는 지점인 적어도 하나 이상의 소실점에 수렴하는 에지 연장선의 기하 정보를 이용하여 상기 소실점에 대응하는 상기 객체의 면의 기하 정보를 산출하는 단계; 및 상기 2차원 영상의 데이터 및 상기 산출된 면 기하 정보를 이용하여 상기 객체에 대한 3차원 모델을 생성하는 단계를 포함한다.
상기 다른 기술적 과제를 해결하기 위하여, 본 발명은 상기된 3차원 모델 생성 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공한다.
상기 또 다른 기술적 과제를 해결하기 위한 본 발명에 따른 3차원 모델 생성 장치는 2차원 영상의 어느 하나의 객체 내에서 영상 정보의 변화가 임계값 이상인 지점들에 해당하는 에지들을 검출하는 에지 검출부; 상기 검출된 에지들의 연장선들이 교차하는 지점인 적어도 하나 이상의 소실점에 수렴하는 에지 연장선의 기하 정보를 이용하여 상기 소실점에 대응하는 상기 객체의 면의 기하 정보를 산출하는 면 정보 산출부; 및 상기 2차원 영상의 데이터 및 상기 산출된 면 기하 정보를 이용하여 상기 객체에 대한 3차원 모델을 생성하는 3차원 모델 생성부를 포함한다.
상기 또 다른 기술적 과제를 해결하기 위한 본 발명에 따른 네비게이션 시스템에서의 네비게이션 방법은 2차원 영상의 어느 하나의 객체 내에서 영상 정보의 변화가 임계값 이상인 지점들에 해당하는 에지들의 연장선들이 교차하는 지점에 기초하여 상기 객체의 면의 기하 정보를 산출함으로써 상기 객체에 대한 3차원 모델을 생성하는 단계; 및 상기 생성된 3차원 모델을 포함하는 3차원 모델들 중 상기 네비게이션 시스템의 현재 위치 정보에 해당하는 3차원 모델을 추출하고, 상기 추출된 3차원 모델을 상기 네비게이션 시스템이 장착된 이동체의 진행 방향에 해당하는 2차원 평면상에 렌더링하는 단계를 포함한다.
상기 또 다른 기술적 과제를 해결하기 위한 본 발명에 따른 네비게이션 시스템은 2차원 영상의 어느 하나의 객체 내에서 영상 정보의 변화가 임계값 이상인 지점들에 해당하는 에지들의 연장선들이 교차하는 지점에 기초하여 상기 객체의 면의 기하 정보를 산출함으로써 상기 객체에 대한 3차원 모델을 생성하는 3차원 모델 생성 장치; 상기 생성된 3차원 모델을 저장하는 메모리; 및 상기 메모리에 저장된 3차원 모델들 중 상기 네비게이션 시스템의 현재 위치 정보에 해당하는 3차원 모델을 추출하고, 상기 추출된 3차원 모델을 상기 네비게이션 시스템이 장착된 이동체 의 진행 방향에 해당하는 2차원 평면상에 렌더링하는 렌더링 장치를 포함한다.
이하에서는 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다.
도 1은 본 발명의 바람직한 일 실시예에 따른 3차원 모델 생성 장치의 구성도이다.
도 1을 참조하면, 본 실시예에 따른 3차원 모델 생성 장치는 객체 특정부(11), 사용자 인터페이스(12), 에지(edge) 검출부(13), 객체 분류부(14), 면 정보 산출부(15), 제 1 3차원 모델 생성부(16), 및 제 2 3차원 모델 생성부(17)로 구성된다.
객체 특정부(11)는 2차원 실사 영상 내의 영상 특성의 변화 및 사용자 인터페이스(12)에 입력된 사용자 입력 정보 중 적어도 하나 이상에 기초하여 2차원 실사 영상을 구성하는 적어도 하나 이상의 객체를 특정한다(identify). 즉, 객체 특정부(11)는 2차원 실사 영상 내의 영상 특성의 변화에 기초하여 자동으로 객체를 특정할 수도 있고, 사용자 인터페이스(12)에 입력된 사용자 입력 정보에 기초하여 수동으로 객체를 특정할 수도 있고, 이 두 가지 모두에 기초하여 반자동으로 객체를 특정할 수도 있다.
특히, 본 실시예에서는 객체를 특정하기 위하여 여러 가지 2차원 실사 영상 특성들 중 텍스쳐(texture)를 사용한다. 본 실시예에서의 텍스쳐는 3차원 모델을 표현하기 위한 정보 중 기하 정보를 제외한 모든 정보를 의미한다. 이하에서도 마찬가지이다. 즉, 객체 특정부(11)는 2차원 실사 영상을 구성하는 화소들간의 텍스 쳐가 서로 다른 영역들의 경계(boundary)에 해당하는 객체의 경계를 검출하고, 그 검출 결과에 기초하여 객체를 특정한다.
도 2는 도 1에 도시된 객체 특정부(11)가 자동으로 객체를 특정하는 경우를 도시한 도면이다.
도 2의 (a)는 디지털 카메라를 사용하여 촬영된 도심의 2차원 실사 영상이다. 이 2차원 실사 영상은 지면(ground), 건물(building), 및 하늘(sky)로 구성된다. 도 2의 (a)를 참조하면, 지면, 건물, 및 하늘의 텍스쳐는 서로 매우 다름을 알 수 있다. 따라서, 객체 특정부(11)는 2차원 실사 영상의 화소들간의 텍스쳐가 서로 다른 영역들의 경계에 해당하는 지면의 경계, 건물의 경계, 하늘의 경계를 검출한다. 도 2의 (b)는 객체 특정부(11)에 의해 검출된 지면의 경계(21), 건물의 경계(22), 하늘의 경계(23)를 도시한 것이다. 또한, 객체 특정부(11)는 이와 같이 검출된 건물의 경계를 지면 방향으로 연장함으로써 건물의 경계(24)를 특정할 수 있다.
또한, 객체 특정부(11)는 사용자 인터페이스(12)에 입력된 사용자 입력 정보에 기초하여 수동으로 객체를 특정할 수 있는데, 이 경우에는 사용자가 사용자 인터페이스(12), 예를 들면 터치 스크린 입력 장치 등을 이용하여 객체의 경계 모두를 그리는 경우이다. 또한, 객체 특정부(11)는 2차원 실사 영상 내의 영상 특성의 변화 및 사용자 인터페이스(12)에 입력된 사용자 입력 정보 둘 다에 기초하여 2차원 실사 영상을 구성하는 적어도 하나 이상의 객체를 특정할 수 있다. 자동으로 객체를 특정하는 방식은 사용자 입장에서는 편리하지만 속도가 느리거나 오류가 발생 할 수 있으며, 수동으로 객체를 경계를 특정하는 방식은 사용자에게 많은 부담을 준다.
도 3은 도 1에 도시된 객체 특정부(11)가 반자동으로 객체를 특정하는 경우를 도시한 도면이다.
도 3의 (a)에 도시된 도면을 참조하면, 사용자가 사용자 인터페이스(12)를 이용하여 2차원 실사 영상 중 객체를 특정하기 위한 검색 영역(31)을 지정한다. 이에 따라, 객체 특정부(11)는 사용자 인터페이스(12)에 입력된 사용자 입력 정보가 지정하는 검색 영역만에 대해서 객체를 특정함으로써 완전 자동 방식보다 보다 신속하게 객체를 특정할 수 있다. 도 3의 (b)에는 사용자에 의해 지정된 검색 영역에 기초하여 특정된 객체의 좌우 경계(32)가 도시되어 있다.
도 3에 (c)에 도시된 도면을 참조하면, 사용자가 사용자 인터페이스(12)를 이용하여 2차원 실사 영상 중 객체의 윗선(top line)(33)을 그린다. 이에 따라, 객체 특정부(11)는 사용자 인터페이스(12)에 입력된 사용자 입력 정보가 나타내는 객체의 윗선과 2차원 실사 영상 내의 텍스쳐의 변화에 기초하여 객체를 특정함으로써 완전 자동 방식보다 보다 정확하게 객체를 특정할 수 있다. 도 3의 (d)에는 사용자에 의해 그려진 객체의 위선에 기초하여 특정된 객체의 경계(34)가 도시되어 있다. 한편, 도 3의 (e)에는 사용자에 의해 그려진 객체의 대략적인 경계(35)가 도시되어 있다. 이와 같이, 사용자와의 상호 작용(user interaction)을 통해 객체의 경계를 반자동으로 찾아낼 수 있다.
에지 검출부(13)는 객체 특정부(11)에 의해 특정된 적어도 하나 이상의 객체 중 현재 3차원 모델링하고자 하는 객체(이하 "현재 객체"라고 함) 내에서 영상 정보의 변화가 임계값 이상인 지점들을 나타내는 에지들을 검출한다. 여기에서, 임계값은 본 실시예를 수 회 실행하고, 그 결과에 기초하여 본 실시예의 사용자 또는 설계자 등에 의해 적절하게 특정될 수 있다. 특히, 본 실시예에서는 현재 객체 내에서 에지들을 검출하기 위하여 여러 가지 영상 정보들 중 광도 세기(luminous intensity)를 사용한다. 즉, 에지 검출부(13)는 현재 객체 내에서 광도의 변화가 임계값 이상인 지점들을 나타내는 에지들을 검출한다. 건물을 예로 들면, 건물은 여러 개의 창문들을 포함한다. 따라서, 에지 검출부(13)는 건물 내에서 광도 변화가 임계값 이상인 지점들에 해당하는 건물의 콘크리트 표면과 창문들의 경계들을 에지들로서 검출하게 될 것이다.
객체 분류부(14)는 에지 검출부(13)에 의해 검출된 에지들의 연장선들의 형태에 기초하여 현재 객체의 복잡도를 결정하고, 이와 같이 결정된 현재 객체의 복잡도에 따라 현재 객체를 간단한 객체 및 복잡한 객체 중 어느 하나로 분류한다. 일반적으로, 3차원 공간에서 어느 하나의 면은 그 면에 존재하는 세 개의 지점들로 정의될 수 있다. 두 개의 지점들은 하나의 직선에 대응하기 때문에, 3차원 공간에서 어느 하나의 면은 그 면에 존재하는 하나의 지점과 하나의 직선으로 정의된다고 할 수 있다. 따라서, 에지 검출부(13)에 의해 검출된 에지들의 연장선들의 형태가 직선이고, 이 직선을 포함하는 면에 존재하는 하나의 지점이 결정될 수 있다면, 이 에지 연장선에 대응하는 건물의 면이 정의될 수 있다. 즉, 객체 분류부(14)는 에지 검출부(13)에 의해 검출된 에지들의 연장선들의 형태가 직선이고, 이와 같은 직선 형태의 에지들의 연장선들을 포함하는 면이 2차원의 실사 영상의 지면에 수직인 경우에 현재 객체를 간단한 객체로 분류하고, 그 외의 경우에 복잡한 객체로 분류한다.
도 4a-c는 도 1에 도시된 객체 분류부(14)에서의 객체 분류 과정을 도시한 도면이다.
도 4a를 참조하면, 도 4a의 (a)에 도시된 현재 객체는 2차원 실사 영상의 지면에 대해 수직한 하나의 면으로 구성되어 있다. 또한, 도 4a의 (b)에 도시된 현재 객체는 2차원 실사 영상의 지면에 대해 수직한 두 개의 면들로 구성되어 있다. 또한, 도 4a의 (c)에 도시된 현재 객체는 2차원 실사 영상의 지면에 대해 수직한 세 개의 면들로 구성되어 있다. 도 4a에 도시된 객체들은 에지 검출부(13)에 의해 검출된 에지들의 연장선들의 형태가 직선이고, 이와 같은 직선 형태의 에지들의 연장선들을 포함하는 면이 2차원의 실사 영상의 지면에 수직인 경우이기 때문에 객체 분류부(14)에 의해 간단한 객체로 분류될 것이다.
도 4b를 참조하면, 도 4b의 (a)에 도시된 현재 객체는 2차원 실사 영상의 지면에 대해 수직한 하나의 면과 수직하지 않은 다른 하나의 면으로 구성되어 있다. 도 4b의 (b)에 도시된 현재 객체는 2차원 실사 영상의 지면에 대해 수직인 면들로 구성되어 있으나, 에지 검출부(13)에 의해 검출된 에지들의 연장선들의 형태가 직선이 아니다. 도 4c를 참조하면, 도 4c에 도시된 현재 객체의 면들 중 어떤 것들은 2차원 실사 영상의 지면에 대해 수직이고, 다른 것들은 수직이 아니다. 또한, 도 4c에 도시된 현재 객체에 대해 에지 검출부(13)에 의해 검출된 에지들의 연장선들 중 일부는 그 형태가 직선이고, 다른 일부는 직선이 아니다.
도 4b-c에 도시된 객체들은 에지 검출부(13)에 의해 검출된 에지들의 연장선들의 형태가 직선이고, 이와 같은 직선 형태의 에지들의 연장선들을 포함하는 면이 2차원의 실사 영상의 지면에 수직인 경우가 아니기 때문에 객체 분류부(14)에 의해 복잡한 객체로 분류될 것이다. 다만, 상기된 바와 같은 객체 분류 기준은 하기될 본 실시예에 따라 건물의 면 방정식 산출이 가능한지 여부를 고려한 것이다. 따라서, 상기될 본 실시예가 아닌 다른 방식에 따라 건물의 면 방정식 산출되는 경우에는 상기된 객체 분류 기준은 달라질 수 있음을 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
면 정보 산출부(15)는 객체 분류부(14)에 의해 현재 객체가 간단한 객체로 분류된 경우, 에지 검출부(13)에 의해 검출된 에지들의 연장선들이 교차하는 지점인 적어도 하나 이상의 소실점(vanishing point)을 검출한다.
도 5는 3차원 공간에서의 정육면체에 대한 2 점 투시도이다.
도 5를 참조하면, 3차원 공간에서의 정육면체가 2차원 공간의 두 개의 소실점들을 기준으로 하는 투시도법을 사용하여 도시되어 있다. 투시도는 인간의 눈에 의해 객체가 보이는 원리가 적용된 방식으로 객체의 입체감이 표현될 수 있다. 특히, 3차원 공간에서의 정육면체가 2차원 평면상에 투영(projection)되면, 정육면체의 각 면의 경계들 중 서로 평행한 경계들은 어느 하나의 공통점에서 교차하는 선들로 투영됨을 알 수 있다. 이 공통점을 소실점이라고 한다. 소실점은 2차원 공간에서 유한 점일 수도 있고, 무한 점일 수도 있다. 도 5에 도시된 바와 같이, 정육 면체의 각 면의 경계들 중 서로 평행한 수평 경계들은 유한 소실점을 갖는다. 반면, 정육면체의 각 면의 경계들 중 서로 평행한 수직 경계들은 무한 소실점을 갖는다. 본 실시예에서의 소실점이란 유한 소실점을 의미한다.
도 5로부터 하나의 소실점은 객체의 하나의 면에 대응된다는 것을 알 수 있다. 즉, 면 정보 산출부(15)는 이와 같이 검출된 소실점에 수렴하는 에지 연장선의 기하 정보를 이용하여 이 소실점에 대응하는 객체의 면의 기하 정보를 산출한다. 본 실시예에서, 에지 연장선의 기하 정보는 에지 연장선의 직선 방정식을 의미하고, 객체의 면의 기하 정보를 객체의 면의 평면 방정식을 의미한다. 다만, 본 실시예가 속하는 기술 분야에서 통상의 가진 자라면, 에지 연장선의 기하 정보 또는 객체의 면의 기하 정보는 상기된 방정식들이 아닌 다른 종류의 기하 정보가 될 수 있음을 이해할 수 있다.
보다 상세하게 설명하면, 면 정보 산출부(15)는 이와 같이 검출된 소실점에 수렴하는 에지 연장선들 중 현재 객체 경계 내에서 가장 중간에 위치한 에지 연장선(이하 "중간선(middle line)"이라 함)의 직선 방정식과 현재 객체와 지면의 경계(이하 "현재 객체의 밑선(bottom line)"이라 함) 상의 임의의 한 지점의 좌표값을 이용하여 이 소실점에 대응하는 객체의 면의 평면 방정식을 산출한다. 특히, 소실점의 개수가 복수 개인 경우, 면 정보 산출부(15)는 복수 개의 소실점들 중 제 1 소실점에 수렴하는 에지 연장선들 중 중간선의 직선 방정식과 제 1 소실점에 대응하는 제 1 면의 밑선 상의 임의의 한 지점의 좌표값을 이용하여 제 1 소실점에 대응하는 제 1 면의 평면 방정식을 산출하고, 복수 개의 소실점들 중 제 2 소실점에 수렴하는 에지 연장선들 중 중간선의 직선 방정식과 제 2 소실점에 대응하는 제 2 면의 밑선 상의 임의의 한 지점의 좌표값을 이용하여 제 2 소실점에 대응하는 제 2 면의 평면 방정식을 산출한다. 복수 개의 소실점들 중 나머지에 대해서도 마찬가지이다.
도 6-7은 도 1에 도시된 면 정보 산출부(15)에서의 면 기하 정보 산출 방식을 설명하기 위한 건물을 도시한 도면이다.
도 6의 (a)에는 객체 특정부(11)에 의해 검출된 현재 객체(61)의 경계가 도시되어 있다. 상기된 바와 같이, 3차원 공간에서 어느 하나의 면은 그 면에 존재하는 하나의 지점과 하나의 직선으로 정의되기 때문에 현재 객체의 밑선 상의 어느 한 점이 결정되어야 한다. 이에 따라, 면 정보 산출부(15)는 도 6의 (a)의 도시된 현재 객체의 밑선 상의 한 점(62)을 결정한다. 특히, 현재 객체와 지면의 경계 상에 자동차 등과 같은 장애물들이 존재하여 올바른 현재 객체의 밑선의 검출이 용이하지 않은 경우에는 사용자가 이 점을 지정할 수도 있다. 이 경우, 면 정보 산출부(15)는 사용자 인터페이스(12)로 입력된 사용자 입력 정보에 기초하여 도 6의 (a)에 도시된 현재 객체의 밑선 상의 한 점(62)을 결정한다. 또한, 도 4의 (b)에는 에지 검출부(13)에 의해 검출된 에지들의 연장선들이 도시되어 있다. 이 에지 연장선들 중 우측 소실점(미 도시)에 수렴하는 에지 연장선들(63)은 위에서 결정된 한 점(62)을 포함하는 현재 객체(61)의 면에 존재한다.
도 7의 (a)에는 에지 검출부(13)에 의해 검출된 에지들의 연장선들이 도시되어 있다. 이 에지 연장선들 중 좌측 소실점(71)에 수렴하는 에지 연장선들(72)은 현재 객체의 좌측면에 대응하고, 우측 소실점(미 도시)에 수렴하는 에지 연장선들(63)은 현재 객체의 우측면에 대응한다. 도 7의 (b)에는 우측 소실점에 대응하는 현재 객체의 우측면의 평면 방정식이 산출되는 과정이 도시되어 있다. 즉, 면 정보 산출부(15)는 우측 소실점에 수렴하는 에지 연장선들 중 현재 객체 경계 내에서 중간에 위치한 중간선을 결정하고, 이 중간선의 직선 방정식과 현재 객체의 우측면의 밑선 중 임의의 한 지점을 결정하고, 이와 같이 결정된 중간선의 직선 방정식과 밑선의 3차원 좌표값을 이용하여 객체의 우측면의 평면 방정식을 산출한다.
도 8-9는 도 1에 도시된 면 정보 산출부(15)에서의 어느 한 면의 평면 방정식을 산출하는 방식을 도시한 도면이다.
도 8을 참조하면, 도 8에 도시된 건물은 세 개의 면들로 구성되어 있다. 이 세 개의 면들의 경계와 이 세 개의 면들 각각의 중간선이 교차하는 지점들이 A, B, C, 및 D로 표시되어 있다. 이 세 개의 면들 중 좌측면을 예로 들면, 이 좌측면은 선분 AB와 이 좌측면의 밑선 중 어느 한 점 G로 결정될 수 있다. 이하에서는 면 정보 산출부(15)가 선분 AB의 직선 방정식과 점 G의 3차원 좌표값을 이용하여 좌측면의 평면 방정식을 산출하는 방식을 설명하기로 한다.
도 9를 참조하면, 3차원 공간에서의 카메라의 위치는 O이다. 여기에서, 3차원 공간이란 2차원 실사 영상이 촬영된 실제 공간을 의미하고, 카메라의 위치는 2차원 실사 영상을 촬영한 카메라의 위치를 의미하고, 2차원 실사 영상의 정 중앙점이 된다. 특히, 카메라는 바늘 구멍(pin-hole) 카메라로서 완벽한 투영이 가능한 것으로 가정한다. 실제 카메라는 이와 같은 바늘 구멍 카메라가 아니기 때문에 아 주 약간의 오차가 있을 수 있다. 선분 A'B'를 포함하는 건물의 면은 3차원 공간에서의 실제 건물의 면인데, 이것은 카메라의 초점 거리 위치에 선분 AB를 포함하는 건물의 면, 즉 2차원 실사 영상의 건물의 면으로 투영된다.
선분 OA와 선분 OB의 연장선은 3차원 공간의 건물의 면의 A'와 B'를 통과한다. 선분 CA'와 선분 DB'은 지면에 대한 높이가 동일하기 때문에 DB':OO' = CA':OO' 및 OB': OB" = OA' : OA"가 성립한다. 이것으로부터 선분 A'B'와 선분 A"B"는 서로 평행함을 알 수 있다. 건물의 면 C'A'B'D'는 지면에 수직이기 때문에 건물의 면의 법선은 지면에 평행하다. 따라서, 선분 A"B"에 수직인 벡터가 건물의 면에 수직인 벡터가 됨을 알 수 있다.
면 정보 산출부(15)는 카메라의 위치 O의 3차원 좌표값과 건물의 경계와 중간선의 교차점 A의 3차원 좌표값으로부터 직선 OA의 방정식을 산출한다. 또한, 면 정보 산출부(15)는 카메라의 위치 O의 3차원 좌표값과 건물의 경계와 중간선의 교차점 B의 3차원 좌표값으로부터 직선 OB의 방정식을 산출한다. 여기에서, 카메라의 위치 O, 교차점 A 및 B의 3차원 좌표값은 이 지점들에 대한 2차원 실사 영상에서의 2차원 좌표값과 카메라의 초점 거리로부터 추정될 수 있다.
또한, 면 정보 산출부(15)는 이와 같이 산출된 직선 OA의 방정식을 이용하여 직선 OA와 지면의 교차점 A"의 3차원 좌표값 및 직선 OB와 지면의 교차점 B"의 3차원 좌표값을 산출하고, 이와 같이 산출된 교차점 A" 및 B"의 3차원 좌표값들로부터 직선 A"B"의 방정식을 산출한다. 또한, 면 정보 산출부(15)는 이와 같이 산출된 직선 A"B"의 방정식을 이용하여 지면에 존재하는 직선 A"B"에 수직인 벡터 N을 산출 한다.
또한, 면 정보 산출부(15)는 카메라의 위치 O의 3차원 좌표값과 건물의 밑선 중 임의의 한 점 G의 3차원 좌표값으로부터 직선 OG의 방정식을 산출한다. 또한, 면 정보 산출부(15)는 이와 같이 산출된 직선 OG의 방정식을 이용하여 직선 OG와 3차원 공간 지면의 교차점 G의 3차원 좌표값을 산출한다. 어느 하나의 면의 방정식은 그 면에 존재하는 어느 한 점의 3차원 좌표값과 그 면에 수직인 어느 하나의 벡터의 값을 알면 산출될 수 있다. 즉, 어떤 면에 존재하는 한 점이 (x0, y0, z0)이고, 이 면에 수직인 벡터 n = ai + bi + ck 라면, 이 면의 방정식은 다음의 수학식과 같다.
[수학식]
a(x-x0) + b(y-y0) + c(z-z0) = 0
따라서, 면 정보 산출부(15)는 이와 같이 산출된 벡터 N과 교차점 G의 3차원 좌표값을 이용하여 중앙선 AB를 포함하는 건물의 좌측면의 평면 방정식을 산출할 수 있다.
제 1 3차원 모델 생성부(16)는 2차원 실사 영상의 데이터 및 면 정보 산출부(15)에 의해 산출된 면 기하 정보를 이용하여 현재 객체에 대한 3차원 모델을 생성한다. 여기에서, 2차원 실사 영상의 데이터는 2차원 실사 영상을 구성하는 화소들의 2차원 좌표값 및 텍스쳐를 의미하고, 면 정보 산출부(15)에 의해 산출된 면 기하 정보는 그 면의 평면 방정식을 의미한다. 보다 상세하게 설명하면, 제 1 3차원 모델 생성부(16)는 면 정보 산출부(15)에 의해 산출된 각 면의 평면 방정식에 2 차원 실사 영상의 현재 객체를 구성하는 화소들의 2 차원 좌표값, 즉 x 좌표값, y 좌표값을 대입함으로서 현재 객체의 각 면을 구성하는 화소들의 3 차원 좌표값, 즉 x 좌표값, y 좌표값, z 좌표값을 산출한다. 또한, 제 1 3차원 모델 생성부(16)는 이와 같이 산출된 현재 객체의 각 면을 구성하는 화소들의 3 차원 좌표값마다 이 화소들 각각에 대응하는 2차원 실사 영상의 텍스쳐를 매핑(mapping)함으로서 3 차원 객체에 대한 3차원 모델을 생성한다.
도 10은 도 1에 도시된 제 1 3차원 모델 생성부(16)에서의 텍스쳐 맵핑 방식을 도시한 도면이다.
도 10을 참조하면, 제 1 3차원 모델 생성부(16)는 현재 객체의 각 면을 구성하는 화소들의 3 차원 좌표값마다 현재 객체의 각 면을 바라보는 카메라에 의해 촬영된 텍스쳐를 매핑한다. 보다 상세하게 설명하면, 제 1 3차원 모델 생성부(16)는 카메라가 현재 객체(101)의 좌측면(102)에 대해서는 좌측면(102)을 바라보도록 카메라의 위치를 설정하고, 이와 같이 설정된 위치의 카메라에 의해 촬영된 2차원 실사 영상의 텍스쳐를 좌측면(102)에 매핑하고, 카메라가 현재 객체(101)의 우측면(103)에 대해서는 우측면(103)을 바라보도록 카메라의 위치를 설정하고, 이와 같이 설정된 위치의 카메라에 의해 촬영된 2차원 실사 영상의 텍스쳐를 우측면(103)에 매핑한다.
제 2 3차원 모델 생성부(17)는 객체 분류부(14)에 의해 현재 객체가 복잡한 객체로 분류된 경우, 이상에서 설명된 본 실시예에 따른 3차원 모델링 방식이 아닌 종래의 3차원 모델링 방식을 이용하여 현재 객체에 대한 3차원 모델을 생성한다. 예를 들면, 제 2 3차원 모델 생성부(17)는 객체 분류부(14)에 의해 복잡한 객체로 분류된 객체들에 대해서는 본 명세서의 종래 기술 부분에서 설명된 오토 팝-업 알고리즘을 이용하여 이 객체들에 대한 3차원 모델을 생성할 수 있다.
도 11은 본 발명의 바람직한 일 실시예에 따른 3차원 모델 생성 방법의 흐름도이다.
도 11을 참조하면, 본 실시예에 따른 3차원 모델 생성 방법은 도 1에 도시된 3차원 모델 생성 장치에서 시계열적으로 처리되는 단계들로 구성된다. 따라서, 이하 생략된 내용이라 하더라도 도 1에 도시된 3차원 모델 생성 장치에 관하여 이상에서 기술된 내용은 본 실시예에 따른 3차원 모델 생성 방법에도 적용된다.
111 단계에서 3차원 모델 생성 장치는 2차원 실사 영상 내의 텍스쳐의 변화 및 사용자 인터페이스(12)에 입력된 사용자 입력 정보 중 적어도 하나 이상에 기초하여 2차원 실사 영상을 구성하는 적어도 하나 이상의 객체를 특정한다.
112 단계에서 3차원 모델 생성 장치는 111 단계에서 특정된 적어도 하나 이상의 객체 중 현재 객체 내에서 광도 세기의 변화가 임계값 이상인 지점들을 나타내는 에지들을 검출한다.
113 단계에서 3차원 모델 생성 장치는 112 단계에서 검출된 에지들의 연장선들의 형태에 기초하여 현재 객체의 복잡도를 결정하고, 이와 같이 결정된 현재 객체의 복잡도에 따라 현재 객체를 간단한 객체 및 복잡한 객체 중 어느 하나로 분류한다.
114 단계에서 3차원 모델 생성 장치는 113 단계에서 현재 객체가 간단한 객 체로 분류된 경우에는 115 단계로 진행하고, 113 단계에서 현재 객체가 복잡한 객체로 분류된 경우에는 118 단계로 진행한다.
115 단계에서 3차원 모델 생성 장치는 112 단계에서 검출된 에지들의 연장선들이 교차하는 지점인 적어도 하나 이상의 소실점을 검출하고, 이와 같이 검출된 소실점에 수렴하는 에지 연장선들 중 중간선의 직선 방정식과 이 소실점에 대응하는 면의 밑선 상의 임의의 한 지점의 좌표값을 이용하여 이 소실점에 대응하는 객체의 면의 평면 방정식을 산출한다.
116 단계에서 3차원 모델 생성 장치는 115 단계에서 산출된 각 면의 평면 방정식에 2차원 실사 영상의 현재 객체를 구성하는 화소들의 2차원 좌표값, 즉 x 좌표값, y 좌표값을 대입함으로서 현재 객체의 각 면을 구성하는 화소들의 3차원 좌표값, 즉 x 좌표값, y 좌표값, z 좌표값을 산출한다.
117 단계에서 3차원 모델 생성 장치는 116 단계에서 산출된 현재 객체의 각 면을 구성하는 화소들의 3차원 좌표값마다 이 화소들 각각에 대응하는 2차원 실사 영상의 텍스쳐를 매핑함으로서 3차원 객체에 대한 3차원 모델을 생성한다.
118 단계에서 3차원 모델 생성 장치는 이상에서 설명된 본 실시예에 따른 3차원 모델링 방식이 아닌 종래의 3차원 모델링 방식을 이용하여 현재 객체에 대한 3차원 모델을 생성한다.
도 12는 도 1에 도시된 3차원 모델 생성 장치를 사용한 네비게이션 시스템의 구성도이다.
도 12를 참조하면, 도 1에 도시된 3차원 모델 생성 장치를 사용한 네비게이 션 시스템은 카메라(121), 3차원 모델 생성 장치(122), 메모리(123), GPS(Global Positioning System)(124) , 렌더링 장치(125), 및 디스플레이 장치(126)로 구성된다. 3차원 모델 생성 장치(122)는 도 1에 도시된 3차원 모델 생성 장치와 동일한 것이며, 이것에 관한 자세한 설명은 이상에서 기술되어 있으므로 생략하기로 한다.
카메라(121)는 실제 세계의 어느 하나의 장면을 촬영함으로써 2차원 실사 영상을 생성한다. 카메라(121)는 이동체(예를 들면, 자동차)의 진행 방향에 해당하는 장면들이 촬영될 수 있도록 이동체의 앞 부분에 설치되어야 한다.
3차원 모델 생성 장치(122)는 카메라(121)에 의해 생성된 2차원 실사 영상을 구성하는 객체들 중 어느 하나의 객체 내에서 영상 정보의 변화가 임계값 이상인 지점들에 해당하는 에지들의 연장선들이 교차하는 지점에 기초하여 상기 객체의 면의 기하 정보를 산출함으로써 상기 객체에 대한 3차원 모델을 생성한다.
메모리(123)는 3차원 모델 생성 장치(122)에 의해 생성된 3차원 모델을 저장한다. 따라서, 메모리(123)에는 카메라(122)에 의해 촬영된 2차원 실사 영상들 각각에 대한 3차원 모델이 저장되어 있게 된다.
다만, 본 실시예에 따른 네비게이션 시스템은 카메라(121), 3차원 모델 생성 장치(122)를 구비하지 않고, 본 실시예에 따른 네비게이션 시스템이 아닌 다른 장치에서 미리 생성된 3차원 모델이 저장된 메모리(123)만을 구비할 수도 있음을 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다. 그러나, 본 실시예에 따른 3차원 모델 생성 장치(122)는 3차원 기하 정보 산출을 위한 계산이 간단하기 때문에 이동체가 이동 가능한 모든 지역의 3차원 모델이 저장된 대용량의 메모리를 구비하지 않고, 이동체가 현재 위치한 장면의 2차원 실사 영상을 바로 바로 3차원 모델링하고, 메모리(123)에 저장된 3차원 모델들 중 이동체로부터 멀어진 지역의 3차원 모델을 삭제함으로써 소용량의 메모리만으로도 충분할 수 있다.
GPS(124)는 적어도 하나 이상의 GPS 위성으로부터 이동체에 장착된 네비게이션 시스템의 현재 위치 정보를 수신한다.
렌더링 장치(125)는 메모리(123)에 저장된 3차원 모델들 중 GPS(124)에 의해 수신된 네비게이션 시스템의 현재 위치 정보에 해당하는 3차원 모델을 추출하고, 이와 같이 추출된 3차원 모델을 네비게이션 시스템이 장착된 이동체의 진행 방향에 해당하는 2차원 평면상에 렌더링한다.
디스플레이 장치(125)는 렌더링 장치(125)에 의해 렌더링된 결과를 디스플레이한다.
도 13은 본 발명의 바람직한 일 실시예에 따른 네비게이션 방법의 흐름도이다.
도 13을 참조하면, 본 실시예에 따른 네비게이션 방법은 도 12에 도시된 네비게이션 시스템에서 시계열적으로 처리되는 단계들로 구성된다. 따라서, 이하 생략된 내용이라 하더라도 도 12에 도시된 네비게이션 시스템에 관하여 이상에서 기술된 내용은 본 실시예에 따른 네비게이션 방법에도 적용된다.
131 단계에서 네비게이션 시스템은 실제 세계의 어느 하나의 장면을 촬영함으로써 2차원 실사 영상을 생성한다.
132 단계에서 네비게이션 시스템은 131 단계에서 생성된 2차원 실사 영상을 구성하는 객체들 중 어느 하나의 객체 내에서 영상 정보의 변화가 임계값 이상인 지점들에 해당하는 에지들의 연장선들이 교차하는 지점에 기초하여 상기 객체의 면의 기하 정보를 산출함으로써 상기 객체에 대한 3차원 모델을 생성한다.
133 단계에서 네비게이션 시스템은 132 단계에서 생성된 3차원 모델을 저장한다.
134 단계에서 네비게이션 시스템은 적어도 하나 이상의 GPS 위성으로부터 이동체에 장착된 네비게이션 시스템의 현재 위치 정보를 수신한다.
135 단계에서 네비게이션 시스템은 133 단계에서 저장된 3차원 모델을 포함하는 3차원 모델들 중 134 단계에서 수신된 네비게이션 시스템의 현재 위치 정보에 해당하는 3차원 모델을 추출하고, 이와 같이 추출된 3차원 모델을 네비게이션 시스템이 장착된 이동체의 진행 방향에 해당하는 2차원 평면상에 렌더링한다.
136 단계에서 네비게이션 시스템은 135 단계에서 렌더링된 결과를 디스플레이한다.
한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 본 발명의 실시예에서 사용된 데이터의 구조는 컴퓨터로 읽을 수 있는 기록매체에 여러 수단을 통하여 기록될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디 롬, 디브이디 등)와 같은 저장매체를 포함한다.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
본 발명에 따르면, 2차원 실사 영상의 어느 하나의 객체 내의 적어도 하나 이상의 소실점에 수렴하는 에지 연장선의 직선 방정식을 이용하여 이 소실점에 대응하는 면의 평면 방정식을 산출하고, 이것을 이용하여 객체에 대한 3차원 모델을 생성함으로써 3차원 모델 생성 과정에서의 3차원 기하 정보 산출을 위한 계산이 간단하다는 효과가 있다. 특히, 본 발명에 따르면, 소실점에 수렴하는 에지 연장선들 중 객체 내에서 가장 중간에 위치한 에지 연장선의 직선 방정식을 이용하여 상기 객체의 면의 평면 방정식을 산출함으로써 건물과 지면 사이에 자동차 등이 위치하는 경우에도 정확하게 3차원 모델을 생성할 수 있다는 효과가 있다.
또한, 본 발명에 따르면, 객체 내의 에지들의 형태에 기초하여 객체의 복잡도를 결정하고, 이것에 따라 본 발명에 따른 면의 기하 정보 산출 방식, 종래의 3차원 모델링 방식, 또는 앞으로 개발될 3차원 모델링 방식을 선택적으로 적용할 수 있도록 함으로써 최적의 3차원 모델링 과정이 이루어 지도록 하였다. 또한, 상기된 바와 같이 본 발명에 따른 3차원 모델링 방식은 그 계산이 간단하고, 정확하기 때문에 네비게이션 시스템 내부에 직접 적용될 경우에 3차원 모델들을 저장하는 메모리의 용량을 줄일 수 있고, 사용자에게 보다 정확한 네비게이션 화면을 제공할 수 있다는 효과가 있다.

Claims (15)

  1. (a) 2차원 영상의 어느 하나의 객체 내에서 영상 정보의 변화가 임계값 이상인 지점들에 해당하는 에지들을 검출하는 단계;
    (b) 상기 검출된 에지들의 연장선들이 교차하는 지점인 적어도 하나 이상의 소실점에 수렴하는 에지 연장선의 기하 정보를 이용하여 상기 소실점에 대응하는 상기 객체의 면의 기하 정보를 산출하는 단계; 및
    (c) 상기 2차원 영상의 데이터 및 상기 산출된 면 기하 정보를 이용하여 상기 객체에 대한 3차원 모델을 생성하는 단계를 포함하는 것을 특징으로 하는 3차원 모델 생성 방법.
  2. 제 1 항에 있어서,
    상기 에지 연장선의 기하 정보는 상기 에지 연장선의 직선 방정식이고, 상기 면의 기하 정보는 상기 면의 평면 방정식인 것을 특징으로 하는 3차원 모델 생성 방법.
  3. 제 2 항에 있어서,
    상기 (b) 단계는 상기 에지 연장선의 직선 방정식 및 상기 면의 어느 한 지점의 좌표값을 이용하여 상기 면의 평면 방정식을 산출하는 것을 특징으로 하는 3차원 모델 생성 방법.
  4. 제 1 항에 있어서,
    상기 (b) 단계는 상기 소실점에 수렴하는 에지 연장선들 중 상기 객체 내에서 가장 중간에 위치한 에지 연장선의 기하 정보를 이용하여 상기 객체의 면의 기하 정보를 산출하는 것을 특징으로 하는 3차원 모델 생성 방법.
  5. 제 1 항에 있어서,
    상기 소실점이 복수 개인 경우,
    상기 (b) 단계는 상기 복수 개의 소실점들 중 제 1 소실점에 수렴하는 에지 연장성의 기하 정보를 이용하여 상기 제 1 소실점에 대응하는 상기 객체의 제 1 면의 기하 정보를 산출하고, 상기 복수 개의 소실점들 중 제 2 소실점에 수렴하는 에지 연장선의 기하 정보를 이용하여 상기 제 2 소실점에 대응하는 상기 객체의 제 2 면의 기하 정보를 산출하는 것을 특징으로 하는 3차원 모델 생성 방법.
  6. 제 1 항에 있어서,
    상기 검출된 에지들의 형태에 기초하여 상기 객체의 복잡도를 결정하는 단계를 더 포함하고,
    상기 결정된 객체의 복잡도에 따라 선택적으로 상기 면의 기하 정보를 산출하는 것을 특징으로 하는 3차원 모델 생성 방법.
  7. 제 1 항에 있어서,
    상기 2차원 영상 내의 영상 특성의 변화 및 사용자 입력 정보 중 적어도 하나 이상에 기초하여 상기 2차원 영상을 구성하는 적어도 하나 이상의 객체를 특정하는 단계를 더 포함하고,
    상기 (a) 단계는 상기 특정된 객체 중 어느 하나의 객체 내에서 상기 영상 정보의 변화가 임계값 이상인 지점들에 해당하는 에지들을 검출하는 것을 특징으로 하는 3차원 모델 생성 방법.
  8. 제 1 항에 있어서,
    상기 2차원 영상의 데이터는 상기 2차원 영상을 구성하는 화소들의 2차원 좌표값 및 텍스쳐이고, 상기 면의 기하 정보는 상기 면의 평면 방정식이고,
    상기 (c) 단계는 상기 면의 평면 방정식에 상기 2차원 좌표값을 대입함으로써 상기 면을 구성하는 화소들의 3차원 좌표값을 산출하고, 상기 산출된 화소들의 3차원 좌표값마다 상기 화소들 각각에 대응하는 텍스쳐를 매핑하는 것을 특징으로 3차원 모델 생성 방법.
  9. 제 8 항에 있어서,
    상기 (c) 단계는 상기 객체의 각 면을 구성하는 화소들의 3차원 좌표값마다 상기 현재 객체의 각 면을 바라보는 카메라에 의해 촬영된 텍스쳐를 맵핑하는 것을 특징으로 하는 3차원 모델 생성 방법.
  10. 제 1 항 내지 제 9 항 중에 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  11. 2차원 영상의 어느 하나의 객체 내에서 영상 정보의 변화가 임계값 이상인 지점들에 해당하는 에지들을 검출하는 에지 검출부;
    상기 검출된 에지들의 연장선들이 교차하는 지점인 적어도 하나 이상의 소실점에 수렴하는 에지 연장선의 기하 정보를 이용하여 상기 소실점에 대응하는 상기 객체의 면의 기하 정보를 산출하는 면 정보 산출부; 및
    상기 2차원 영상의 데이터 및 상기 산출된 면 기하 정보를 이용하여 상기 객체에 대한 3차원 모델을 생성하는 3차원 모델 생성부를 포함하는 것을 특징으로 하는 3차원 모델 생성 장치.
  12. 제 11 항에 있어서,
    상기 에지 연장선의 기하 정보는 상기 에지 연장선의 직선 방정식이고, 상기 면의 기하 정보는 상기 면의 평면 방정식인 것을 특징으로 하는 3차원 모델 생성 장치.
  13. 제 12 항에 있어서,
    상기 면 정보 산출부는 상기 에지 연장선의 직선 방정식 및 상기 면의 어느 한 지점의 좌표값을 이용하여 상기 면의 평면 방정식을 산출하는 것을 특징으로 하는 3차원 모델 생성 장치.
  14. 네비게이션 시스템에서의 네비게이션 방법에 있어서,
    2차원 영상의 어느 하나의 객체 내에서 영상 정보의 변화가 임계값 이상인 지점들에 해당하는 에지들의 연장선들이 교차하는 지점에 기초하여 상기 객체의 면의 기하 정보를 산출함으로써 상기 객체에 대한 3차원 모델을 생성하는 단계; 및
    상기 생성된 3차원 모델을 포함하는 3차원 모델들 중 상기 네비게이션 시스템의 현재 위치 정보에 해당하는 3차원 모델을 추출하고, 상기 추출된 3차원 모델을 상기 네비게이션 시스템이 장착된 이동체의 진행 방향에 해당하는 2차원 평면상에 렌더링하는 단계를 포함하는 것을 특징으로 하는 네비게이션 방법.
  15. 네비게이션 시스템에 있어서,
    2차원 영상의 어느 하나의 객체 내에서 영상 정보의 변화가 임계값 이상인 지점들에 해당하는 에지들의 연장선들이 교차하는 지점에 기초하여 상기 객체의 면의 기하 정보를 산출함으로써 상기 객체에 대한 3차원 모델을 생성하는 3차원 모델 생성 장치;
    상기 생성된 3차원 모델을 저장하는 메모리; 및
    상기 메모리에 저장된 3차원 모델들 중 상기 네비게이션 시스템의 현재 위치 정보에 해당하는 3차원 모델을 추출하고, 상기 추출된 3차원 모델을 상기 네비게이 션 시스템이 장착된 이동체의 진행 방향에 해당하는 2차원 평면상에 렌더링하는 렌더링 장치를 포함하는 것을 특징으로 하는 네비게이션 시스템.
KR1020070016781A 2007-02-16 2007-02-16 2차원 실사 영상으로부터 3차원 모델을 생성하는 방법 및장치 KR101388133B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020070016781A KR101388133B1 (ko) 2007-02-16 2007-02-16 2차원 실사 영상으로부터 3차원 모델을 생성하는 방법 및장치
US12/068,123 US8254667B2 (en) 2007-02-16 2008-02-01 Method, medium, and system implementing 3D model generation based on 2D photographic images
EP08151361A EP1959392B1 (en) 2007-02-16 2008-02-13 Method, medium, and system implementing 3D model generation based on 2D photographic images
JP2008034898A JP4964801B2 (ja) 2007-02-16 2008-02-15 2次元実写映像から3次元モデルを生成する方法及び装置
CN2008100055437A CN101246603B (zh) 2007-02-16 2008-02-15 基于2d拍摄图像实现3d模型生成的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070016781A KR101388133B1 (ko) 2007-02-16 2007-02-16 2차원 실사 영상으로부터 3차원 모델을 생성하는 방법 및장치

Publications (2)

Publication Number Publication Date
KR20080076610A true KR20080076610A (ko) 2008-08-20
KR101388133B1 KR101388133B1 (ko) 2014-04-23

Family

ID=39315568

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070016781A KR101388133B1 (ko) 2007-02-16 2007-02-16 2차원 실사 영상으로부터 3차원 모델을 생성하는 방법 및장치

Country Status (5)

Country Link
US (1) US8254667B2 (ko)
EP (1) EP1959392B1 (ko)
JP (1) JP4964801B2 (ko)
KR (1) KR101388133B1 (ko)
CN (1) CN101246603B (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210023663A (ko) * 2019-08-23 2021-03-04 주식회사 예간아이티 2d 이미지를 활용하여 3d 컨텐츠를 생성하는 영상 처리 방법 및 영상 처리 장치
KR20210067995A (ko) * 2019-07-17 2021-06-08 에스케이브로드밴드주식회사 조명제어장치 및 조명제어장치의 동작 방법
WO2021040342A3 (ko) * 2019-08-23 2021-07-01 주식회사 예간아이티 2d 이미지를 활용하여 3d 컨텐츠를 생성하는 영상 처리 방법 및 영상 처리 장치
KR102311200B1 (ko) * 2020-11-27 2021-10-13 한국건설기술연구원 Bim 데이터를 기반으로 건설장비 라이브러리를 구축하기 위한 장치 및 그 방법
KR102561301B1 (ko) * 2023-01-31 2023-07-28 주식회사 씨스텍 2d 이미지 주석 3d 모델 자동 전송 시스템
US11880990B2 (en) 2020-09-21 2024-01-23 Samsung Electronics Co., Ltd. Method and apparatus with feature embedding

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201005673A (en) * 2008-07-18 2010-02-01 Ind Tech Res Inst Example-based two-dimensional to three-dimensional image conversion method, computer readable medium therefor, and system
JP5413081B2 (ja) * 2009-02-18 2014-02-12 セイコーエプソン株式会社 画像表示方法および画像表示装置
JP4866951B2 (ja) 2009-09-16 2012-02-01 株式会社日立製作所 測位組み合わせ決定システム
US8611694B2 (en) 2009-12-16 2013-12-17 Hewlett-Packard Development Company, L.P. Estimating 3D structure from a 2D image
CA2787004C (en) * 2010-01-26 2019-01-15 Saab Ab An automated three dimensional mapping method
KR20120017649A (ko) * 2010-08-19 2012-02-29 삼성전자주식회사 디스플레이장치 및 그 제어방법
US20140043329A1 (en) * 2011-03-21 2014-02-13 Peng Wang Method of augmented makeover with 3d face modeling and landmark alignment
JP2012215852A (ja) * 2011-03-25 2012-11-08 Semiconductor Energy Lab Co Ltd 画像処理方法、表示装置
TWI486052B (zh) 2011-07-05 2015-05-21 Realtek Semiconductor Corp 立體影像處理裝置以及立體影像處理方法
CN105651201B (zh) * 2011-09-26 2018-08-31 联想(北京)有限公司 三维扫描装置和三维扫描方法
CN103017676B (zh) * 2011-09-26 2016-03-02 联想(北京)有限公司 三维扫描装置和三维扫描方法
AU2012345876B2 (en) * 2011-11-29 2018-06-07 Pictometry International Corp. System for automatic structure footprint detection from oblique imagery
TW201342303A (zh) * 2012-04-13 2013-10-16 Hon Hai Prec Ind Co Ltd 三維空間圖像的獲取系統及方法
KR101673453B1 (ko) * 2012-04-24 2016-11-22 아마데우스 에스.에이.에스. 대화형 배치도를 생성하는 방법 및 시스템
US9786097B2 (en) 2012-06-22 2017-10-10 Matterport, Inc. Multi-modal method for interacting with 3D models
US10163261B2 (en) * 2014-03-19 2018-12-25 Matterport, Inc. Selecting two-dimensional imagery data for display within a three-dimensional model
GB2546019B (en) * 2012-11-02 2017-08-30 Imagination Tech Ltd Geometry processing method for 3-D rendering
KR101370785B1 (ko) 2012-11-06 2014-03-06 한국과학기술원 입체 영상의 깊이 맵 생성 방법 및 장치
ITVI20120303A1 (it) * 2012-11-09 2014-05-10 St Microelectronics Srl Metodo per rilevare una linea retta in un'immagine digitale
AU2013222016A1 (en) * 2013-08-30 2015-03-19 Canon Kabushiki Kaisha Method, system and apparatus for determining a property of an image
EP3042358A2 (en) 2013-09-03 2016-07-13 3ditize SL Generating a 3d interactive immersive experience from a 2d static image
KR101655204B1 (ko) * 2014-06-20 2016-09-22 주식회사 세인전장 3차원 그래픽 모델을 이용한 영상처리 장치 및 그 방법
US9852351B2 (en) 2014-12-16 2017-12-26 3Ditize Sl 3D rotational presentation generated from 2D static images
KR101631474B1 (ko) * 2015-01-13 2016-06-17 동국대학교 산학협력단 디지털 제조를 위한 3차원 모델 생성 방법
KR101652485B1 (ko) * 2015-02-27 2016-08-31 삼성중공업(주) 3차원 소나 영상 생성 장치 및 방법
CN104680532B (zh) * 2015-03-02 2017-12-08 北京格灵深瞳信息技术有限公司 一种对象标注方法及装置
CN104778755B (zh) * 2015-03-27 2017-08-25 浙江理工大学 一种基于区域划分的纹理图像三维重构方法
CN104809940B (zh) * 2015-05-14 2018-01-26 广东小天才科技有限公司 几何立体图形投影装置及投影方法
US20170091993A1 (en) * 2015-09-25 2017-03-30 Microsoft Technology Licensing, Llc 3D Model Generation From Map Data and User Interface
US10032034B2 (en) 2015-10-06 2018-07-24 Microsoft Technology Licensing, Llc MPEG transport frame synchronization
US10210668B2 (en) 2015-11-06 2019-02-19 Microsoft Technology Licensing, Llc Technique for extruding a 3D object into a plane
US10122996B2 (en) * 2016-03-09 2018-11-06 Sony Corporation Method for 3D multiview reconstruction by feature tracking and model registration
CN105894575B (zh) * 2016-03-31 2019-05-21 百度在线网络技术(北京)有限公司 道路的三维建模方法和装置
CN106023061A (zh) * 2016-05-18 2016-10-12 深圳市神州龙资讯服务有限公司 一种航拍建筑模型多终端并行计算生成方法
CN106097243A (zh) * 2016-05-31 2016-11-09 上海美迪索科电子科技有限公司 一种利用摄像头拍摄的3d地图快速成型方法
KR20180025135A (ko) * 2016-08-30 2018-03-08 숭실대학교산학협력단 단일 이미지를 사용한 내벽 구조 검출 장치 및 방법
CN107330978B (zh) * 2017-06-26 2020-05-22 山东大学 基于位置映射的增强现实建模体验系统及方法
WO2019032736A1 (en) 2017-08-08 2019-02-14 Smart Picture Technologies, Inc. METHOD OF MEASURING AND MODELING SPACES USING AUGMENTED REALITY WITHOUT MARKER
US10762359B2 (en) * 2017-08-31 2020-09-01 Nec Corporation Computer aided traffic enforcement using dense correspondence estimation with multi-level metric learning and hierarchical matching
US10636137B1 (en) * 2017-10-23 2020-04-28 Amazon Technologies, Inc. System for determining object orientations in an image
EP3627452A1 (en) * 2018-09-21 2020-03-25 Siemens Ltd. China Method, apparatus, computer-readable storage media and a computer program for 3d reconstruction
JP2020165729A (ja) * 2019-03-28 2020-10-08 東北電力株式会社 距離測定装置、距離測定方法及び距離測定プログラム
EP3966789A4 (en) * 2019-05-10 2022-06-29 Smart Picture Technologies, Inc. Methods and systems for measuring and modeling spaces using markerless photo-based augmented reality process
GB2586060B (en) * 2019-08-01 2022-09-21 Sony Interactive Entertainment Inc Surface characterisation apparatus and system
WO2021058191A1 (en) 2019-09-25 2021-04-01 Osram Gmbh Methods of illuminating an artwork
FR3112412B1 (fr) * 2020-07-09 2023-11-10 Safran Electrical & Power Procédé de génération d’une maquette numérique

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0596518A3 (en) * 1992-11-06 1994-11-17 Nippon Steel Corp Method and device for determining data representing a three-dimensional object from a perspective view.
JPH07234949A (ja) 1994-02-23 1995-09-05 Hitachi Ltd 透視図作成支援方法および透視図作成支援システム
JP3162664B2 (ja) * 1997-10-09 2001-05-08 株式会社シーエスケイ 3次元都市景観情報の作成方法および装置
JP3015353B2 (ja) * 1997-12-05 2000-03-06 株式会社ウォール 3次元都市地図データベース生成装置及びそのためのプログラムを記録した記録媒体
US5990900A (en) * 1997-12-24 1999-11-23 Be There Now, Inc. Two-dimensional to three-dimensional image converting system
JP2000057378A (ja) * 1998-06-02 2000-02-25 Sony Corp 画像処理装置および画像処理方法、媒体、並びに輪郭抽出装置および輪郭抽出方法
US6822658B1 (en) * 1999-10-25 2004-11-23 Intel Corporation Rendering a silhouette edge
JP2003006680A (ja) * 2001-06-20 2003-01-10 Zenrin Co Ltd 3次元電子地図データの生成方法
JP4152698B2 (ja) * 2002-09-06 2008-09-17 三菱電機株式会社 3次元建物モデルデータ生成装置
KR100571814B1 (ko) 2002-09-30 2006-04-17 삼성전자주식회사 색상의 공간 예측 부호화를 이용한 영상 부호화 및 복호화방법 및 장치
JP4299010B2 (ja) 2003-01-17 2009-07-22 株式会社パスコ 3次元地理形状モデルのテクスチャ画像取得方法
KR100533328B1 (ko) * 2003-06-27 2005-12-05 한국과학기술연구원 2차원 이미지로부터 3차원 이미지를 생성하는 방법
ITRM20030345A1 (it) * 2003-07-15 2005-01-16 St Microelectronics Srl Metodo per ricavare una mappa di profondita'
KR100718122B1 (ko) 2003-07-16 2007-05-15 삼성전자주식회사 컬러 평면 간 예측을 이용한 무손실 영상 부호화/복호화방법 및 장치
CN1578477B (zh) 2003-07-16 2011-05-04 三星电子株式会社 用于色彩图像的视频编码/解码装置和方法
JP2006268550A (ja) * 2005-03-24 2006-10-05 Xanavi Informatics Corp ナビゲーション装置
KR101138393B1 (ko) 2005-07-15 2012-04-26 삼성전자주식회사 부호화 모드에 따른 컬러 성분간 예측을 이용한 컬러 영상및 비디오 부호화/복호화 방법 및 장치
JP4640011B2 (ja) * 2005-07-19 2011-03-02 株式会社セガ 画像処理装置、遠景画像表示方法および遠景画像表示プログラム
JP2007026201A (ja) * 2005-07-19 2007-02-01 Sega Corp 画像処理装置、道路画像描画方法および道路画像描画プログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210067995A (ko) * 2019-07-17 2021-06-08 에스케이브로드밴드주식회사 조명제어장치 및 조명제어장치의 동작 방법
KR20210023663A (ko) * 2019-08-23 2021-03-04 주식회사 예간아이티 2d 이미지를 활용하여 3d 컨텐츠를 생성하는 영상 처리 방법 및 영상 처리 장치
WO2021040342A3 (ko) * 2019-08-23 2021-07-01 주식회사 예간아이티 2d 이미지를 활용하여 3d 컨텐츠를 생성하는 영상 처리 방법 및 영상 처리 장치
US11880990B2 (en) 2020-09-21 2024-01-23 Samsung Electronics Co., Ltd. Method and apparatus with feature embedding
KR102311200B1 (ko) * 2020-11-27 2021-10-13 한국건설기술연구원 Bim 데이터를 기반으로 건설장비 라이브러리를 구축하기 위한 장치 및 그 방법
KR102561301B1 (ko) * 2023-01-31 2023-07-28 주식회사 씨스텍 2d 이미지 주석 3d 모델 자동 전송 시스템

Also Published As

Publication number Publication date
CN101246603B (zh) 2012-11-07
US8254667B2 (en) 2012-08-28
EP1959392A1 (en) 2008-08-20
EP1959392B1 (en) 2012-10-17
JP4964801B2 (ja) 2012-07-04
KR101388133B1 (ko) 2014-04-23
JP2008204458A (ja) 2008-09-04
CN101246603A (zh) 2008-08-20
US20080208547A1 (en) 2008-08-28

Similar Documents

Publication Publication Date Title
KR101388133B1 (ko) 2차원 실사 영상으로부터 3차원 모델을 생성하는 방법 및장치
KR101396346B1 (ko) 다수의 2차원 실사 영상들을 이용하여 3차원 영상을생성하는 방법 및 장치
JP6321106B2 (ja) 現実環境内にバーチャルオブジェクトを描写する方法および装置
EP2272050B1 (en) Using photo collections for three dimensional modeling
KR102653808B1 (ko) 3d 재구성에서 구조 특징들을 검출하고 결합하기 위한 방법들 및 시스템들
JP5133418B2 (ja) 現実環境内にバーチャルオブジェクトを描写する方法および装置
US11783443B2 (en) Extraction of standardized images from a single view or multi-view capture
CN109035330A (zh) 箱体拟合方法、设备和计算机可读存储介质
KR20190117354A (ko) 실내공간의 3차원 지도 생성 방법 및 장치
CN113706713A (zh) 一种实景三维模型裁剪方法、装置及计算机设备
CN111141264A (zh) 一种基于无人机的城市三维测绘方法和系统
KR101875047B1 (ko) 사진측량을 이용한 3d 모델링 시스템 및 방법
US10008025B2 (en) Rendering system and rendering method thereof
Wiemann et al. Automatic Map Creation For Environment Modelling In Robotic Simulators.
JP3950376B2 (ja) 3次元点群からの形状モデル生成方法と装置、並びに、3次元点群からの形状モデル生成プログラムと該プログラムを記録した記録媒体
Habib et al. Integration of lidar and airborne imagery for realistic visualization of 3d urban environments
JP2000057376A (ja) 新視点画像生成方法
KR101673442B1 (ko) 비주얼 헐 근사화에 대해 dbss로 재메쉬화하는 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
J201 Request for trial against refusal decision
E902 Notification of reason for refusal
B701 Decision to grant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180321

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190319

Year of fee payment: 6