KR20060129371A - 깊이 맵의 생성 - Google Patents

깊이 맵의 생성 Download PDF

Info

Publication number
KR20060129371A
KR20060129371A KR1020067015722A KR20067015722A KR20060129371A KR 20060129371 A KR20060129371 A KR 20060129371A KR 1020067015722 A KR1020067015722 A KR 1020067015722A KR 20067015722 A KR20067015722 A KR 20067015722A KR 20060129371 A KR20060129371 A KR 20060129371A
Authority
KR
South Korea
Prior art keywords
segment
depth
size
pixels
values
Prior art date
Application number
KR1020067015722A
Other languages
English (en)
Inventor
피터-안드레 레더트
Original Assignee
코닌클리케 필립스 일렉트로닉스 엔.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 코닌클리케 필립스 일렉트로닉스 엔.브이. filed Critical 코닌클리케 필립스 일렉트로닉스 엔.브이.
Publication of KR20060129371A publication Critical patent/KR20060129371A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

이미지(100)의 각 픽셀들에 대하여, 뷰어에 대한 거리들을 나타내는 깊이 값들을 포함하는 깊이 맵(106)을 발생시키는 방법이 개시되어 있다. 상기 방법은 상기 이미지(100)를 제1 세그먼트(110) 및 제2 세그먼트(108)로 분할하는 단계, 및 상기 제1 세그먼트(110)의 제1 크기에 기초하여 상기 제1 세그먼트(110)의 픽셀들 중 제1 픽셀에 대응하는 상기 깊이 값들 중 제1 깊이 값을 할당하고, 상기 제2 세그먼트(108)의 제2 크기에 기초하여 상기 제2 세그먼트(108)의 픽셀들 중 제2 픽셀에 대응하는 상기 깊이 값들 중 제2 깊이 값을 할당하는 단계를 포함하며, 상기 제1 크기가 상기 제2 크기보다 작으면, 상기 깊이 값들 중 상기 제1 깊이 값은 상기 깊이 값들 중 상기 제2 깊이 값보다 작다.
깊이 맵, 세그먼트, 깊이 값, 이미지, 픽셀

Description

깊이 맵의 생성{Creating a depth map}
본 발명은 이미지의 각 픽셀들에 대하여, 뷰어에 대한 거리들을 나타내는 깊이 값들을 포함하는 깊이 맵을 발생시키는 방법에 관한 것이다.
본 발명은 또한 이미지의 각 픽셀들에 대하여, 뷰어에 대한 거리들을 나타내는 깊이 값들을 포함하는 깊이 맵을 발생시키기 위한 깊이 맵 발생 유닛에 관한 것이다.
본 발명은 또한 이미지에 대응한 신호를 수신하기 위한 수신 수단, 및 깊이 맵을 발생시키기 위한 깊이 맵 발생 유닛을 포함하는 이미지 처리 장치에 관한 것이다.
본 발명은 또한 이미지의 각 픽셀들에 대하여, 뷰어에 대한 거리들을 나타내는 깊이 값들을 포함하는 깊이 맵을 발생시키는 명령들을 포함한, 처리 수단과 메모리를 포함한 컴퓨터 장치에 의해 로드될 컴퓨터 프로그램 제품에 관한 것이다.
다중-장면 표시 장치상에서 3D 감상을 발생시키기 위해, 다른 버츄얼 시각 지점들로부터의 이미지들은 렌더링되어야 한다. 이는 다수의 입력 뷰들 또는 일부 3D 또는 제공될 깊이 정보를 필요로 한다. 이 깊이 정보는 기록되거나, 다중뷰 카메라 시스템들로부터 발생되거나, 종래의 2D 비디오 장치로부터 발생될 수 있다. 2D 비디오로부터 깊이 정보를 발생시키기 위해, 깊이 큐들의 몇몇 형태들은 모션으로부터의 구조, 초점 정보, 지리적 형세들 및 동적 발생과 같이 적용될 수 있다. 그 목적은 조밀한 깊이 맵, 즉, 픽셀 당 깊이 값을 발생시키는 것이다. 다음에, 이 깊이 맵은 뷰어에게 깊이 감상을 제공하기 위해 다중-장면 이미지를 렌더링하는데 사용된다. 1997년, 피이.에이.레더트(Redert), 이.에이,헨드릭크(Hendriks), 및 제이.비몬드(Biemond)에 의해 캘리포니아, 로스 알라미토스의 IEEE Computer Society에서, ProceedingS of International Conference on Acoustics, Speech, and Signal Processing, ISBN 0-8186-7919-0, Vol. IV, 페이지 2749-2752에 기재된 논문 "중간이 아닌 위치들에서 다중 지점 이미지들의 합성(Synthesis of multi viewpoint images at non-intermediate positions)"에서, 깊이 정보를 추출하고 입력 이미지와 깊이 맵에 기초하여 다중-장면 이미지를 렌더링하는 방법이 개시되어 있다.
본 발명의 목적은 새로운 깊이 큐에 기초한, 서두에서 기재된 종류의 방법을 제공하는 것이다.
본 발명의 목적은, 상기 방법이,
상기 이미지(100)를 제1 세그먼트(110) 및 제2 세그먼트(108)로 분할하는 단계, 및
상기 제1 세그먼트(110)의 제1 크기에 기초하여 상기 제1 세그먼트(110)의 픽셀들 중 제1 픽셀에 대응하는 상기 깊이 값들 중 제1 깊이 값을 할당하고, 상기 제2 세그먼트(108)의 제2 크기에 기초하여 상기 제2 세그먼트(108)의 픽셀들 중 제2 픽셀에 대응하는 상기 깊이 값들 중 제2 깊이 값을 할당하는 단계를 포함하며, 상기 제1 크기가 상기 제2 크기보다 작으면, 상기 깊이 값들 중 상기 제1 깊이 값은 상기 깊이 값들 중 상기 제2 깊이 값보다 작다는 점에서 달성된다.
본 발명은 다음의 관점에 기초한다. 목적들은 이미지 내에 일부 2차원 크기를 가지며, 즉, 화면에서 각각의 물체들에 대응하는 이미지 세그먼트들은 임의의 크기를 갖는다. 2차원에서 더 큰 물체가 2차원에서 더 작은 다른 물체를 차단하는 확률은 반대보다 높다. 따라서, 더 작은 물체가 큰 물체의 배경에 있다면, 이는 보이지 않을 것이다. 그러나, 전경에 있다면, 이는 보일 것이다. 그러므로, 작은 물체들은 전경 물체들일 경향이 더욱 있다. 즉, 제1 물체에 대응하는 제1 세그먼트의 제1 크기가 제2 물체에 대응하는 제2 세그먼트의 제2 크기보다 작으면 상기 제1 세그먼트의 깊이 값들은 상기 제2 세그먼트의 깊이 값들보다 낮다. 또한, 배경은 하나 이상의 물체들, 예를 들면, 하늘 또는 정글 또는 습지를 형성한다는 것을 알아야 한다.
다른 크기 관련된 깊이 큐가 알려져 있다는 것을 알아야 한다. 그 알려진 깊이 큐는 "상대적 크기 큐(relative size cue)" 또는 "원근 큐(perspective cue)"라 한다. 그러나, 그 알려진 깊이 큐는 다른 가정에 기초하고 반대의 깊이 값들을 초래한다. 상기 "상대적 크기 큐(relative size cue)"는 더 멀어지는 물체들이 더 작다는 사실에 기초하는 한편, 본 발명에 따른 깊이 큐에서, 더 작은 물체들은 뷰어에게 더욱 근접하는 것으로 가정한다. 상기 "상대적 크기 큐(relative size cue)"는 유사한 형태의 물체들, 예를 들면, 2명의 사람들 또는 2개의 자동차들을 비교하고 이들에 대한 깊이 값들을 할당하는데만 적용가능하다. 상기 "상대적 크기 큐(relative size cue)"의 사용은 소정의 형태들의 물체들로 상기 이미지 세그먼트들을 분류하기 위해 더 높은 인식 과정을 요구한다. 본 발명에 따른 깊이 큐를 사용하는 장점은, 이 복잡한 형태의 분류가 요구되지 않는다는 것이다.
본 발명에 따른 방법에서의 단계는 분할이다. 분할은 픽셀 값들과 상기 픽셀들의 좌표값에 기초하여 픽셀들을 분류하는 과정이다. 상기 픽셀 값들은 컬러 및/또는 휘도를 나타낼 것이다. 분할은, 값들이 픽셀들 간의 연결성에 관한, 즉 연결되거나 연결되지 않는 2개의 픽셀들인 이미지의 픽셀들에 할당된다는 것을 의미한다. 예를 들면, 에지 검출 또는 동종 계산에 기초하여 분할을 위한 몇몇 알고리즘들이 있다.
1차원 또는 2차원 기하학적 양, 예를 들면, 길이, 높이, 폭, 면적, 주변, 익스트림 반경, 즉, 세그먼트의 윤곽선 내부에 적합하거나 상기 세그먼트를 에워싸는 원의 가장 작거나 가장 큰 직경이 크기로 의미된다. 대안적으로, 상기 크기는 이들 양들 중 2개의 조합에 기초한다.
상기 계산된 크기에 기초한 깊이 값은, 예를 들면, 인용된 논문에 기재된 바와 같이 다중-장면 이미지를 렌더링하기 위한 깊이 값으로서 직접 사용될 수 있다. 바람직하게, 본 발명에 따른 깊이 값은 상술된 대안의 깊이 큐들에 기초한 다른 깊이 값들과 조합된다.
본 발명에 따른 방법의 실시예에서, 상기 제1 크기는 상기 제1 세그먼트의 제1 측으로부터 상기 제1 세그먼트의 제2 측으로 연장한 라인 상에 배치된 제1 다수의 인접한 픽셀들을 결정함으로써 계산된다. 상기 제2 크기는 유사한 방식으로, 즉, 1차원에서 픽셀들의 개수를 카운트함으로써 계산된다. 이 계산의 장점은 비교적 구현하기 쉽다는 것이다.
본 발명에 따른 방법의 다른 실시예에서, 상기 제1 크기는 상기 제1 세그먼트의 에지 상에 위치한 윤곽선 내부에 배치된 제2 다수의 픽셀들을 카운트함으로써 계산된다. 즉, 상기 제1 세그먼트의 영역이 결정된다. 그들이 상기 제1 세그먼트에 속한다고 가정한 모든 픽셀들은 누적된다. 이 계산은, 분할이 에지 검출에 기초하는 경우 및 상기 제1 및 제2 세그먼트 간의 명확한 에지가 발견되는 경우에서 유리하다.
불행히도, 일부 이미지들인 경우에는, 절대 확실성으로 모든 픽셀들을 분류할 수 없으며, 즉, 특정 픽셀이 상기 제1 세그먼트에 속할 뿐만 아니라, 상기 특정 픽셀이 상기 제2 세그먼트에 속하는 확률이 있다. 상기 제1 세그먼트의 크기를 결정하기 위해, 이 특정 픽셀은 고려될 수 있을 뿐만 아니라, 상기 제2 세그먼트의 크기를 결정하기 위해, 이 특정 픽셀은 고려될 수 있다. 그러므로, 본 발명에 따른 다른 실시예에서, 상기 제1 크기는 확률 값들의 세트를 누적함으로써 계산된다. 상기 확률 값들은 각각의 픽셀들이 상기 제1 세그먼트에 속하는 확률들을 나타낸다. 대안적으로, 상기 확률 값들은 2개의 픽셀들이 동일한 세그먼트에 속하는 확률들을 나타낸다. 다른 대안에서, 상기 확률 값들 중 제1 확률 값은 상기 제1 세그먼트의 픽셀들 중 제1 픽셀과 상기 제1 세그먼트의 에지 상에 위치한 윤곽선 간의 추가 거리에 기초한다.
상기 확률 값들을 고려함으로써, 상기 제1 세그먼트의 크기의 계산은 1차원 또는 2차원 그룹의 픽셀들에 기초한다. 예를 들면, 확률 값들의 세트는 상기 제1 세그먼트의 제1 측으로부터 상기 제1 세그먼트의 제2 측으로 연장한 라인 상에 배치된 픽셀들에 대응한다.
본 발명의 다른 목적은 새로운 깊이 큐에 기초한, 서두에서 기재된 종류의 깊이 맵 발생 유닛을 제공하는 것이다.
본 발명의 이 목적은, 상기 발생 유닛이,
상기 이미지(100)를 제1 세그먼트(110) 및 제2 세그먼트(108)로 분할하기 위한 분할 수단(502), 및
상기 제1 세그먼트(110)의 제1 크기에 기초하여 상기 제1 세그먼트(110)의 픽셀들 중 제1 픽셀에 대응하는 상기 깊이 값들 중 제1 깊이 값을 할당하고, 상기 제2 세그먼트(108)의 제2 크기에 기초하여 상기 제2 세그먼트(108)의 픽셀들 중 제2 픽셀에 대응하는 상기 깊이 값들 중 제2 깊이 값을 할당하기 위한 할당 수단(504)을 포함하며,
상기 제1 크기가 상기 제2 크기보다 작으면, 상기 깊이 값들 중 상기 제1 깊이 값은 상기 깊이 값들 중 상기 제2 깊이 값보다 작다는 점에서 실현된다.
본 발명의 다른 목적은 새로운 깊이 큐에 기초하여 깊이 맵을 발생시키도록 구성된 서두에서 기재된 종류의 깊이 맵 발생 유닛을 포함하는 이미지 처리 장치를 제공하는 것이다.
본 발명의 이 목적은, 상기 발생 유닛이,
상기 이미지(100)를 제1 세그먼트(110) 및 제2 세그먼트(108)로 분할하기 위한 분할 수단(502), 및
상기 제1 세그먼트(110)의 제1 크기에 기초하여 상기 제1 세그먼트(110)의 픽셀들 중 제1 픽셀에 대응하는 상기 깊이 값들 중 제1 깊이 값을 할당하고, 상기 제2 세그먼트(108)의 제2 크기에 기초하여 상기 제2 세그먼트(108)의 픽셀들 중 제2 픽셀에 대응하는 상기 깊이 값들 중 제2 깊이 값을 할당하기 위한 할당 수단(504)을 포함하며,
상기 제1 크기가 상기 제2 크기보다 작으면, 상기 깊이 값들 중 상기 제1 깊이 값은 상기 깊이 값들 중 상기 제2 깊이 값보다 작다는 점에서 실현된다.
본 발명의 다른 목적은 새로운 깊이 큐에 기초한, 서두에서 기재된 종류의 컴퓨터 프로그램 제품을 제공하는 것이다.
본 발명의 이 목적은, 상기 컴퓨터 프로그램 제품이 로드된 후에 상기 처리 수단에 실행할 능력을 제공하며,
상기 이미지(100)를 제1 세그먼트(110) 및 제2 세그먼트(108)로 분할하고,
상기 제1 세그먼트(110)의 제1 크기에 기초하여 상기 제1 세그먼트(110)의 픽셀들 중 제1 픽셀에 대응하는 상기 깊이 값들 중 제1 깊이 값을 할당하고, 상기 제2 세그먼트(108)의 제2 크기에 기초하여 상기 제2 세그먼트(108)의 픽셀들 중 제2 픽셀에 대응하는 상기 깊이 값들 중 제2 깊이 값을 할당하며,
상기 제1 크기가 상기 제2 크기보다 작으면, 상기 깊이 값들 중 상기 제1 깊이 값은 상기 깊이 값들 중 상기 제2 깊이 값보다 작다는 점에서 실현된다.
상기 깊이 맵 발생 유닛의 수정들과 그 변경들은 기재된 상기 이미지 처리 장치, 상기 방법 및 상기 컴퓨터 프로그램 제품의 수정들과 그 변경들에 대응할 수 있다.
이들 및 본 발명에 따른 상기 깊이 맵 발생 유닛, 상기 이미지 처리 장치, 상기 방법 및 상기 컴퓨터 프로그램 제품의 다른 특징들은 이하 기재되는 구현들과 실시예들로부터 명확해지고 이들에 대해 그리고 첨부한 도면들을 참조하여 분명해질 것이다.
도 1은 본 발명에 따른 방법을 개략적으로 도시하는 도면.
도 2는 특정 세그먼트에 속하는 다수의 픽셀들을 개략적으로 도시하는 도면.
도 3은 특정 세그먼트에 속하는 확률을 나타내는, 다수의 픽셀들의 확률 값들을 개략적으로 도시하는 도면.
도 4A 및 도 4B는 이미지들과 상기 이미지들에서 에지 검출에 기초하여 발견된 윤곽선을 개략적으로 도시하는 도면.
도 5는 본 발명에 따른 깊이 맵 발생 유닛을 포함하는 다중-장면 이미지 발생 유닛을 개략적으로 도시하는 도면.
도 6은 본 발명에 따른 이미지 처리 장치의 실시예를 개략적으로 도시하는 도면.
동일한 참조번호들은 도면들을 통해 유사한 소자들을 지칭하는데 사용된다.
도 1은 본 발명에 따른 방법을 개략적으로 도시한다. 도 1은 제1 물체(110) 및 상기 제1 물체(110) 뒤에 위치한 제2 물체(108)를 나타내는 이미지(100)를 도시한다. 본 발명에 따른 방법의 제1 단계 A는 분할이다. 상기 분할 결과(102)는 제1 세그먼트(114), 즉, 제1 그룹의 연결된 픽셀들을 포함하고 제2 세그먼트(112), 즉, 제2 그룹의 연결된 픽셀들을 포함한다. 상기 제1 세그먼트(114)는 상기 제1 물체(110)에 대응하고 상기 제2 세그먼트(112)는 상기 제2 물체(108)에 대응한다는 것을 알아야 한다. 본 발명에 따른 방법의 제2 단계 B는 상기 제1 세그먼트(114) 및 상기 제2 세그먼트(112)의 크기들을 수립한다. 도 1은 상기 세그먼트들(114 및 112)에 대해 계산된, 본 발명에 따른 방법의 중간 결과(104), 즉, 크기를 나타내는 값들의 2차원 매트릭스(104)를 도시한다. 상기 2차원 매트릭스(104)의 제1 세트의 소자들(118)은 크기 값 3으로 할당되었다. 이 제1 세트의 소자들(118)은 상기 제1 물체(110)에 대응한다. 상기 2차원 매트릭스(104)의 제2 세트의 소자들(116)은 크기 값 10으로 할당되었다. 이 제2 세트의 소자들(116)은 상기 제2 물체(108)에 대응한다. 본 발명에 따른 방법의 제3 단계 C는 깊이 값들을 결정한다. 도 1은 깊이 맵(106)을 도시한다. 상기 깊이 맵(106)은 상기 제1 물체(110)에 대응하는 제1 그룹의 깊이 값들(122)을 포함하고 상기 제2 물체(108)에 대응하는 제2 그룹의 깊이 값들(120)을 포함한다. 상기 제1 그룹의 깊이 값들의 깊이 값들은 상기 제2 그룹의 깊이 값들(120)의 깊이 값들보다 낮으며, 상기 제1 물체(110)가 상기 제2 물체(108) 보다 상기 이미지(110)의 뷰어에 또는 상기 이미지(110)에 기초한 다중-장 면 이미지에 더 근접한다는 것을 의미한다.
도 2는 특정 세그먼트에 속하는, 이미지의 다수의 픽셀들(200-218)을 개략적으로 도시한다. 상기 특정 세그먼트의 크기를 결정하기 위한 몇몇 방식들이 있다. 제1 방식은 최소 길이를 갖는 수평 라인 상의 픽셀들의 개수 카운트에 기초한다. 이 경우에, 이는, 예를 들면, 참조번호들(200 및 202 또는 216 및 218)로 표기된 2개의 픽셀들을 카운트함으로써 2와 동일한 크기 값을 초래한다. 제2 방식은 최대 길이를 갖는 수평 라인 상의 픽셀들의 개수 카운트에 기초한다. 이 경우에, 이는, 예를 들면, 참조번호들(204-208 또는 210-214)로 표기된 3개의 픽셀들을 카운트함으로써 3과 동일한 크기 값을 초래한다. 제3 방식은 최소 길이를 갖는 수직 라인 상의 픽셀들의 개수 카운트에 기초한다. 이 경우에, 이는, 예를 들면, 참조번호들(204 및 210)로 표기된 2개의 픽셀들을 카운트함으로써 2와 동일한 크기 값을 초래한다. 제4 방식은 최대 길이를 갖는 수직 라인 상의 픽셀들의 개수 카운트에 기초한다. 이 경우에, 이는, 예를 들면, 참조번호들(200, 206, 212, 및 216)로 표기된 4개의 픽셀들을 카운트함으로써 4와 동일한 크기 값을 초래한다. 대안적으로, 상기 특정 세그먼트(114)의 크기는 폭과 높이의 곱, 예를 들면, 3*4=12 또는 2*4=8에 기초한다. 다른 대안은 참조번호들(200-218)로 표기된 총 픽셀 개수의 카운트에 기초하며, 10과 동일한 크기 값을 초래한다.
도 3은 상기 특정 세그먼트에 속하는 확률을 나타내는, 다수의 픽셀들의 확률 값들을 개략적으로 도시한다. 바람직하게, 확률 값들은 상기 특정 세그먼트의 크기를 결정하기 위해 고려된다. 상기 특정 세그먼트의 크기를 결정하기 위한 제1 방식은 확률 값들을 고려하여, 예를 들면, 참조번호들(204, 206, 및 208)로 표기된 픽셀들에 각각 대응하는 값들 0.5, 0.9 및 0.7을 누적함으로써 제1 수평 라인 상의 픽셀들에 대응하는 확률 값들의 적분 또는 누적에 기초한다. 도 2와 관련하여 기재된 것과 유사하게 상기 특정 세그먼트의 크기를 결정하기 위한 몇몇 방식들이 있다는 것을 알아야 한다. 이는, 다른 픽셀들에 대응하는 확률 값들의 다른 조합들이 사용될 것이라는 것을 의미한다.
도 4A 및 도 4B는 이미지들과 상기 이미지들에서 에지 검출의 기초하여 발견된 윤곽선들을 개략적으로 도시한다. 에지들의 검출은 각각의 이미지들의 공간 고역 통과 필터에 기초할 것이다. 그러나, 상기 에지들은 바람직하게 다수의 이미지들을 상호 비교하는 것, 특히, 비디오 이미지들의 시퀀스의 다음의 이미지들의 픽셀 값 차이들을 계산하는 것에 기초하여 검출된다. 픽셀 값 차이들의 계산 E(x,y,n)의 제1 예제가 식 1에 제공된다:
E(x,y,n)=|I(x,y,n)-I(x,y,n-1)| (1)
여기서, I(x,y,n)은 시간 n에서 이미지의 좌표 x 및 y를 갖는 픽셀의 휘도 값이다. 대안적으로, 상기 픽셀 값 차이 E(x,y,n)는 컬러 값들에 기초하여 계산된다:
E(x,y,n)=|C(x,y,n)-C(x,y,n-1)| (2)
여기서, C(x,y,n)은 시간 n에서 이미지의 좌표 x 및 y를 갖는 픽셀의 컬러 값이다. 식 3에서, 다른 대안이 3개의 다른 컬러 성분들 R(적색), G(녹색), 및 B(청색)에 기초한 픽셀 값 차이들의 계산 E(x,y,n)을 위해 제공된다.
E(x,y,n)=max(|R(x,y,n)-R(x,y,n-1)|,|G(x,y,n)-G(x,y,n-1)|,|B(x,y,n)-B(x,y,n-1)|) (3)
선택적으로, 상기 픽셀 값 차이 신호
Figure 112006055827524-PCT00001
는 소정의 임계치 이하인 모든 픽셀 값 차이들을 일정값, 예를 들면, 0으로 잘라 여과된다. 선택적으로, 모퍼로직(morphologic) 필터 동작은 모든 공간적으로 작은 에지들을 제거하도록 적용된다. 모퍼로직 필터들은 공통 비선형 이미지 처리 유닛들이다. 예를 들면, 1988년, 피이.더블유.버빅(Verbeek), 에이치.에이.브루맨(Vrooman) 및 엘.제이.블리엣(Vliet)에 의한 "Signal Processing" Vol. 15, no.3의 페이지 249-258에 기재된 논문 "최대-최소 필터들에 의한 저-레벨 이미지 처리(Low-level image processing by max-min filters)"를 참조한다.
에지 검출은 또한 모션 벡터 필드들에 기초할 것이다. 이는, 비교적 큰 모션 벡터 콘트라스트를 갖는 모션 벡터 필드들에서의 영역들이 검출된다는 것을 의미한다. 이들 영역들은 대응하는 이미지에서의 에지들과 대응한다. 선택적으로, 상기 에지 검출 유닛에는 또한 픽셀 값들, 즉, 비디오 이미지들의 컬러 및/또는 휘도 값들이 제공된다. 모션 벡터 필드들은, 예를 들면, 1993년10월, 지이.드 한(de Haan) 등에 의해 IEEE Transactions on circuits and systems for video technology, vol. 3, no. 5에 기재된 논문 "3D 반복 검색 블록 매칭을 갖는 진실-모션 추정(True-Motion Estimation with 3-D Recursive Search Block Matching)"에 규정된 모션 추정 유닛에 의해 제공된다.
도 4A는, 폐쇄된 윤곽선(402)이 도시되어 있는 이미지(400)를 도시한다. 이 윤곽선은 제1 세그먼트의 에지 상에, 즉, 상기 제1 세그먼트 및 제2 세그먼트 간의 경계상에 위치한다. 폐쇄된 윤곽선인 경우, 어떤 픽셀들이 상기 제1 세그먼트에 속하고 어떤 픽셀들은 상기 제1 세그먼트에 속하지 않는지를 결정하기 비교적 쉽다. 상기 윤곽선(402) 내부에 있는 그룹의 픽셀들은 상기 제1 세그먼트에 속한다. 상기 윤곽선(402) 외부에 있는 다른 그룹의 픽셀들(404)은 상기 제1 세그먼트에 속하지 않는다. 폐쇄된 윤곽선인 경우, 도 2와 관련하여 기재된 크기 계산의 방식들은 간단하게 적용될 수 있다.
도 4B는 개방 윤곽선(408)이 도시되어 있는 이미지(406)를 도시한다. 이 윤곽선은 상기 제1 세그먼트의 에지 상에, 즉, 상기 제1 세그먼트와 제2 세그먼트 간의 경계상에 위치한다. 불행히도, 상기 제1 세그먼트에 속하도록 가정된 픽셀들의 그룹과 상기 제1 세그먼트에 속하지 않는 것으로 가정된 픽셀들의 그룹 간의 뚜렷한 에지는 없다. 그러므로, 개방 윤곽선인 경우, 어떤 픽셀들이 상기 제1 세그먼트에 속하고 어떤 픽셀들이 상기 제1 세그먼트에 속하지 않는지를 결정하기 수월하지 않다. 이 쟁점을 다루는 옵션은 상기 개방 윤곽선의 종점들에 연결함으로써 에지 검출에 기초하여 발견된 윤곽선을 폐쇄한다. 도 4에서, 이는 참조번호(410)를 갖는 라인-세그먼트로 표기된다. 대안적으로, 상기 픽셀 값들의 각각에 대해, 특정 세그먼트, 예를 들면, 제1 세그먼트에 속하는 확률을 나타내는 확률 값이 할당된다. 이들 확률 값들에 기초하여, 도 3과 관련하여 설명된 바와 같이 세그먼트들의 크기를 결정할 수 있다.
도 5는 본 발명에 따른 깊이 맵 발생 유닛(501)을 포함하는 다중-장면 이미지 발생 유닛(500)을 개략적으로 도시한다. 상기 다중-장면 이미지 발생 유닛(500)은 비디오 이미지들의 시퀀스에 기초하여 다중-장면 이미지들의 시퀀스를 발생시키도록 구성된다. 상기 다중-장면 이미지 발생 유닛(500)에는 입력 커넥터(508)에서 비디오 이미지들의 스트림이 제공되고 출력 커넥터들(510 및 512)에서 비디오 이미지들의 2개의 상관된 스트림들을 제공한다. 비디오 이미지들의 이들 2개의 상관된 스트림들은 비디오 이미지들의 상관된 스트림들 중 제1 스트림에 기초하여 제1 일련의 장면들을 가시화하고 비디오 이미지들의 상관된 스트림들 중 제2 스트림에 기초하여 제2 일련의 장면들을 가시화하도록 구성된다. 사용자, 즉, 뷰어가 그의 좌측 눈에 의해 상기 제1 일련의 장면들 및 그의 우측 눈에 의해 상기 제2 일련의 장면들을 관찰하면, 그는 3D 감상을 인지한다. 비디오 이미지들의 상기 상관된 스트림들 중 상기 제1 스트림은 수신된 비디오 이미지들의 시퀀스에 대응하고 비디오 이미지들의 상기 상관된 스트림들 중 상기 제2 스트림은 수신된 비디오 이미지들의 시퀀스에 기초하여 렌더링된다는 것이다. 바람직하게, 비디오 이미지들의 스트림들 모두는 수신된 비디오 이미지들의 시퀀스에 기초하여 렌더링된다. 상기 렌더링은, 예를 들면, 1997년, 피이.에이.레더트(Redert), 이.에이.헨드릭크(Hendricks) 및 제이.비몬드(Biemond)에 의해 캘리포니아, 로스 알라미토스, IEEE Computer Society, Proceedings of International Conference on Acoustics, Speech, and Signal Processing, Vol. IV, ISBN 0-8186-7919-0, 페이지 2749-2752에 기재된 논문 "중간이 아닌 위치들에서 다중 지점 이미지들의 합성(Synthesis of multi viewpoint images at non-intermediate positions)"에 기재된 바와 같다. 대안적으로, 상기 렌더링은 2003년, 알.피이.베러티(Berretty) 및 에프.이.언스트(Ernst)에 의해 Proceedings Eurographics, Granada, Short Note 124에 기재된 "2.5D 비디오로부터의 고품질 이미지들(High-quality images from 2.5D video)"에 기재된 바와 같다.
상기 다중-장면 이미지 발생 유닛(500)은,
검출된 에지들에 기초하여 각각의 입력 이미지들에 대한 깊이 맵들을 발생시키기 위한 깊이 맵 발생 유닛(501), 및
상기 깊이 맵 발생 유닛(501)에 의해 제공되는, 상기 입력 이미지들과 상기 각각의 깊이 맵들에 기초하여 상기 다중-장면 이미지들을 렌더링하기 위한 렌더링 유닛(506)을 포함한다.
상기 이미지들의 각 픽셀들에 대하여, 뷰어에 대한 거리들을 나타내는 깊이 값들을 포함하는 깊이 맵들을 발생시키기 위한 상기 깊이 맵 발생 유닛(501)은,
입력 이미지들에서의 에지들을 검출하기 위한 에지 검출 유닛(502) -상기 에지 검출 유닛(502)은 도 4A와 관련하여 기재된 알고리즘들 중 하나에 기초하여 에지들을 검출하도록 구성됨-,
상기 검출된 에지들에 기초하여 발견된 다양한 세그먼트들의 크기를 계산하기 위한 세그먼트 크기 계산 유닛(503) -상기 세그먼트 크기 계산 유닛(503)은 도 2 또는 도 3과 관련하여 기재된 알고리즘들 중 하나에 기초하여 세그먼트 크기들을 계산하도록 구성됨-, 및
상기 검출된 세그먼크 크기들에 기초하여 픽셀들에 대응하는 깊이 값들을 할당하기 위한 깊이 값 할당 유닛(504)을 포함한다.
상기 깊이 값들의 할당은, 비교적 작은 세그먼트에 속하는 픽셀들이 비교적 낮은 깊이 값들로 할당될 것이다. 비교적 낮은 깊이 값은, 상기 대응한 픽셀이 상기 다중-장면 이미지 발생 유닛(500)에 의해 발생된 다중 장면 이미지의 뷰어에 비교적 근접한다는 것을 의미한다.
특정 세그먼트의 픽셀들은 상호 동일한 크기 값들로 할당될 수 있으며, 각각은 상기 계산된 세그먼트 크기를 나타낸다. 대안적으로, 특정 세그먼트의 픽셀들은 다른 크기 값들을 갖는다. 특정 픽셀에 대한 상기 할당된 크기 값을 제어하는 매개변수는, 상기 특정 픽셀이 상기 세그먼트에 속하는 확률에 관련된다. 예를 들면, 상기 특정 픽셀이 비교적 작은 세그먼트에 속하는 확률이 비교적 높다면, 상기 크기 값은 비교적 낮다. 특정 픽셀에 대한 상기 할당된 크기 값을 제어하기 위한 대안의 매개변수는 상기 특정 픽셀과 상기 윤곽선 간의 거리에 관련된다. 예를 들면, 상기 특정 픽셀과 상기 윤곽선에 위치한 픽셀들 간의 평균 거리가 비교적 높다면, 상기 특정 픽셀이 상기 세그먼트에 속하는 확률은 또한 비교적 높다. 상기 분할 크기 계산 유닛(503)은 시간 n에서 이미지의 좌표 x 및 y에 따른 크기 신호 SF=S(x,y,n)를 제공하도록 구성되며, 픽셀 당 속하는 세그먼트의 크기를 나타낸다.
상기 크기 신호 SF의 계산 이후에, 상기 깊이 맵이 결정된다. 이는 식 4에 규정되어 있다:
D(x,y,n) = F(SF(x,y,n)) (4)
여기서, D(x,y,n)는 시간 n에서 이미지의 좌표 x 및 y를 갖는 픽셀의 깊이 값이고 함수 F(j)는 깊이 값 D(x,y,n)으로의 크기 값 SF(x,y,n)의 선형 또는 비선형 변형이다. 상기 함수 F(j)는 소정의 상수를 갖는 상기 크기 값 SF(x,y,n)의 간단한 곱셈일 것이다:
D(x,y,n) = αSF(x,y,n) (5)
대안적으로, 상기 함수 F(j)는 가중 인자 W(i)를 갖는 상기 크기 값 SF(x,y,n)의 곱셈에 대응한다. 이 가중 인자 W(i)는 바람직하게 국부적 최대값을 갖는, 고려 중인 픽셀과 고려 중인 상기 픽셀의 공간 이웃에서의 제2 픽셀 간의 공간 거리 i에 관련된다. 상기 제2 픽셀은 상기 세그먼트의 중심에 위치하는 것으로 가정한다.
D(x',y',n) = W(x,y,x',y')*SF(x,y,n) (6)
상기 에지 검출 유닛(502), 상기 분할 크기 계산 유닛(503), 상기 깊이 값 할당 유닛(504) 및 상기 렌더링 유닛(506)은 하나의 프로세서를 사용하여 구현될 수 있다. 일반적으로, 이들 기능들은 소프트웨어 프로그램 제품의 제어 하에서 수행된다. 실행하는 동안에, 일반적으로, 상기 소프트웨어 프로그램 제품은 RAM과 같이 메모리에 로딩되고, 그로부터 실행된다. 상기 프로그램은 ROM, 하드디스크, 또는 자기적으로 및/또는 광학 스토리지와 같이 백그라운드 메모리로부터 로드될 수 있거나, 인터넷과 같은 네트워크를 거쳐 로드될 수 있다. 선택적으로, 주문형 집적 회로는 상기 개시된 기능성을 제공한다.
도 5와 관련하여 기재된 상기 다중-장면 발생 유닛(500)이 비디오 이미지들을 처리하도록 설계되더라도 본 발명에 따른 상기 깊이 맵 발생 유닛의 대안적인 실시예들이 각각의 이미지들, 즉, 정지화면들에 기초하여 깊이 맵들을 발생시키도록 구성된다는 것을 알아야 한다.
도 6은 본 발명에 따른 이미지 처리 장치(600)의 실시예를 개략적으로 도시한다. 상기 이미지 처리 장치는,
입력 이미지들을 나타내는 비디오 신호를 수신하기 위한 수신 수단(602),
도 5와 관련하여 기재된 바와 같이, 상기 수신된 입력 이미지들에 기초하여 다중-장면 이미지들을 발생시키기 위한 다중-장면 이미지 발생 유닛(501), 및
상기 다중-장면 이미지 발생 유닛(501)에 의해 제공된 상기 다중-장면 이미지들을 표시하기 위한 다중-장면 표시 장치(606)를 포함한다.
상기 비디오 신호는 안테나 또는 케이블을 거쳐 수신되는 방송 신호일 수 있지만, 또한 VCR(비디오 카셋트 레코더) 또는 디지털 비디오 디스크(DVD)와 같은 저장 장치로부터의 신호일 수 있다. 상기 신호는 상기 입력 커넥터(610)에서 제공된다. 상기 이미지 처리 장치(600)는, 예를 들면, TV일 것이다. 대안적으로, 상기 이미지 처리 장치(600)는 선택적인 표시 장치를 포함하는 것이 아니라, 출력 이미지들을 표시 장치(606)를 포함하는 장치에 제공한다. 그 다음에, 상기 이미지 처리 장치(600)는, 예를 들면, 셋톱 박스, 위성-튜너, VCR 재생기, DVD 재생기 또는 레코더일 것이다. 선택적으로, 상기 이미지 처리 장치(600)는 하드-디스크와 같은 저장 수단 또는 제거가능한 매체 상의 저장용 수단, 예를 들면, 광 디스크들을 포함한다. 상기 이미지 처리 장치(600)는 또한 필름-스튜디오 또는 방송사에 의해 적용되는 시스템일 것이다.
상술된 실시예들은 본 발명을 한정하기 보다는 설명한 것이고 기술분야의 당업자는 첨부된 청구항들의 범위를 벗어나지 않고 대안의 실시예들을 설계할 수 있을 것이라는 것을 알아야 한다. 단어 "포함하는(comprising)"은 청구항에 나열되지 않은 소자들 또는 단계들의 존재를 배제하지 않는다. 소자 앞에 있는 단어 "하나(a 또는 an)"는 복수의 이러한 소자들의 존재를 배제하지 않는다. 본 발명은 몇몇 독특한 소자들을 포함하는 하드웨어에 의해 그리고 적당히 프로그램된 컴퓨터에 의해 구현될 수 있다. 몇몇 수단을 열거한 장치 청구항들에서, 이들 수단들 중 몇몇은 하나 그리고 동일한 항목의 하드웨어에 의해 실시될 수 있다. 단어들, 제1, 제2, 및 제3 등의 사용은 임의의 순서를 가리키지 않는다. 이들 단어들은 이름들로서 해석되어야 한다.

Claims (11)

  1. 이미지(100)의 각각의 픽셀들에 대하여, 뷰어(viewer)에 대한 거리들을 나타내는 깊이 값들(depth values)을 포함하는 깊이 맵(depth map;106)을 발생시키는 방법에 있어서,
    상기 이미지(100)를 제1 세그먼트(110) 및 제2 세그먼트(108)로 분할하는 단계; 및
    상기 제1 세그먼트(110)의 제1 크기에 기초하여 상기 제1 세그먼트(110)의 상기 픽셀들 중 제1 픽셀에 대응하는 상기 깊이 값들 중 제1 깊이 값을 할당하고, 상기 제2 세그먼트(108)의 제2 크기에 기초하여 상기 제2 세그먼트(108)의 상기 픽셀들 중 제2 픽셀에 대응하는 상기 깊이 값들 중 제2 깊이 값을 할당하는 단계를 포함하며,
    상기 제1 크기가 상기 제2 크기보다 작으면, 상기 깊이 값들 중 상기 제1 깊이 값은 상기 깊이 값들 중 상기 제2 깊이 값보다 작은, 깊이 맵(106)을 발생시키는 방법.
  2. 제1항에 있어서,
    상기 제1 크기는 상기 제1 세그먼트(110)의 제1 측으로부터 상기 제1 세그먼트(110)의 제2 측으로 연장하는 라인 상에 배치된 제1 다수의 이웃하는 픽셀들(204-208)을 결정함으로써 계산되는, 깊이 맵(106)을 발생시키는 방법.
  3. 제1항에 있어서,
    상기 제1 크기는 상기 제1 세그먼트(110)의 에지 상에 위치한 윤곽선 내부에 배치된 제2 다수의 픽셀들(200-218)을 카운트함으로써 계산되는, 깊이 맵(106)을 발생시키는 방법.
  4. 제1항에 있어서,
    상기 제1 크기는 확률 값들의 세트를 누적함으로써 계산되는, 깊이 맵(106)을 발생시키는 방법.
  5. 제4항에 있어서,
    상기 확률 값들은, 각각의 픽셀들이 상기 제1 세그먼트(110)에 속하는 확률들을 나타내는, 깊이 맵(106)을 발생시키는 방법.
  6. 제5항에 있어서,
    상기 세트는 상기 제1 세그먼트(110)의 제1 측으로부터 상기 제1 세그먼트(110)의 제2 측으로 연장하는 라인 상에 배치된 픽셀들에 대응하는, 깊이 맵(106)을 발생시키는 방법.
  7. 제4항에 있어서,
    상기 확률 값들은, 픽셀들 중 상기 제1 픽셀과 상기 픽셀들 중 제3 픽셀이 상기 제1 세그먼트(110)에 속하는 확률들을 나타내는, 깊이 맵(106)을 발생시키는 방법.
  8. 제4항에 있어서,
    상기 확률 값들 중 제1 확률값은 상기 제1 세그먼트(110)의 픽셀들 중 상기 제1 픽셀과 상기 제1 세그먼트(110)의 에지 상에 위치한 윤곽선 간의 추가 거리에 기초하는, 깊이 맵(106)을 발생시키는 방법.
  9. 이미지(100)의 각 픽셀들에 대하여, 뷰어에 대한 거리들을 나타내는 깊이 값들을 포함하는 깊이 맵(106)을 발생시키기 위한 깊이 맵 발생 유닛(501)에 있어서,
    상기 이미지(100)를 제1 세그먼트(110) 및 제2 세그먼트(108)로 분할하기 위한 분할 수단(502); 및
    상기 제1 세그먼트(110)의 제1 크기에 기초하여 상기 제1 세그먼트(110)의 픽셀들 중 제1 픽셀에 대응하는 상기 깊이 값들 중 제1 깊이 값을 할당하고, 상기 제2 세그먼트(108)의 제2 크기에 기초하여 상기 제2 세그먼트(108)의 픽셀들 중 제2 픽셀에 대응하는 상기 깊이 값들 중 제2 깊이 값을 할당하기 위한 할당 수단(504)을 포함하며,
    상기 제1 크기가 상기 제2 크기보다 작으면, 상기 깊이 값들 중 상기 제1 깊이 값은 상기 깊이 값들 중 상기 제2 깊이 값보다 작은, 깊이 맵 발생 유닛(501).
  10. 이미지 처리 장치(600)에 있어서,
    이미지(100)에 대응하는 신호를 수신하기 위한 수신 수단(602); 및
    청구항 1에 청구된 바와 같은, 깊이 맵(106)을 발생시키기 위한 깊이 맵 발생 유닛(501)을 포함하는, 이미지 처리 장치(600).
  11. 이미지(100)의 각각의 픽셀들에 대하여, 뷰어에 대한 거리들을 나타내는 깊이 값들을 포함하는 깊이 맵(106)을 발생시키는 명령들을 포함하는, 컴퓨터 장치에 의해 로딩될 컴퓨터 프로그램 제품에 있어서,
    상기 컴퓨터 장치는 처리 수단과 메모리를 포함하며, 상기 컴퓨터 프로그램 제품은 로딩된 후에 상기 처리 수단에,
    상기 이미지(100)를 제1 세그먼트(110) 및 제2 세그먼트(108)로 분할하고,
    상기 제1 세그먼트(110)의 제1 크기에 기초하여 상기 제1 세그먼트(110)의 픽셀들 중 제1 픽셀에 대응하는 상기 깊이 값들 중 제1 깊이 값을 할당하고, 상기 제2 세그먼트(108)의 제2 크기에 기초하여 상기 제2 세그먼트(108)의 픽셀들 중 제2 픽셀에 대응하는 상기 깊이 값들 중 제2 깊이 값을 할당하는 능력을 제공하며,
    상기 제1 크기가 상기 제2 크기보다 작으면, 상기 깊이 값들 중 상기 제1 깊이 값은 상기 깊이 값들 중 상기 제2 깊이 값보다 작은, 컴퓨터 프로그램 제품.
KR1020067015722A 2004-02-03 2005-01-24 깊이 맵의 생성 KR20060129371A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP04100384 2004-02-03
EP04100384.9 2004-02-03

Publications (1)

Publication Number Publication Date
KR20060129371A true KR20060129371A (ko) 2006-12-15

Family

ID=34833719

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020067015722A KR20060129371A (ko) 2004-02-03 2005-01-24 깊이 맵의 생성

Country Status (6)

Country Link
US (1) US20080260288A1 (ko)
EP (1) EP1714251A1 (ko)
JP (1) JP2007520822A (ko)
KR (1) KR20060129371A (ko)
CN (1) CN1914643A (ko)
WO (1) WO2005076215A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101482578B1 (ko) * 2010-09-27 2015-01-14 인텔 코오퍼레이션 에지 검출 및 셰이더 재사용을 이용한 멀티­뷰 광선 추적
KR101497503B1 (ko) * 2008-09-25 2015-03-04 삼성전자주식회사 2차원 영상의 3차원 영상 변환을 위한 깊이 맵 생성 방법 및 장치

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8213711B2 (en) * 2007-04-03 2012-07-03 Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Industry, Through The Communications Research Centre Canada Method and graphical user interface for modifying depth maps
JP2009110137A (ja) * 2007-10-29 2009-05-21 Ricoh Co Ltd 画像処理装置、画像処理方法及び画像処理プログラム
EP2184713A1 (en) 2008-11-04 2010-05-12 Koninklijke Philips Electronics N.V. Method and device for generating a depth map
WO2010052741A1 (en) * 2008-11-07 2010-05-14 Telecom Italia S.P.A. Method and system for producing multi-view 3d visual contents
EP2275990B1 (de) * 2009-07-06 2012-09-26 Sick Ag 3D-Sensor
US9030469B2 (en) 2009-11-18 2015-05-12 Industrial Technology Research Institute Method for generating depth maps from monocular images and systems using the same
JP5355616B2 (ja) * 2011-04-21 2013-11-27 株式会社エム・ソフト 立体視画像生成方法および立体視画像生成システム
WO2012144162A1 (ja) * 2011-04-22 2012-10-26 パナソニック株式会社 3次元撮像装置、光透過部、画像処理装置、およびプログラム
CN102271268B (zh) * 2011-08-09 2013-04-10 清华大学 多视点立体视频的深度序列生成方法和装置
CN103493093B (zh) 2011-11-17 2017-07-18 松下知识产权经营株式会社 图像处理装置、摄像装置及图像处理方法
WO2017014691A1 (en) * 2015-07-17 2017-01-26 Heptagon Micro Optics Pte. Ltd. Generating a distance map based on captured images of a scene
US10699476B2 (en) 2015-08-06 2020-06-30 Ams Sensors Singapore Pte. Ltd. Generating a merged, fused three-dimensional point cloud based on captured images of a scene
TWI744245B (zh) 2015-08-19 2021-11-01 新加坡商海特根微光學公司 產生具有減少過度平滑之視差圖
CN106981079A (zh) * 2016-10-26 2017-07-25 李应樵 一种基于权重自适应立体深度调整的方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101497503B1 (ko) * 2008-09-25 2015-03-04 삼성전자주식회사 2차원 영상의 3차원 영상 변환을 위한 깊이 맵 생성 방법 및 장치
KR101482578B1 (ko) * 2010-09-27 2015-01-14 인텔 코오퍼레이션 에지 검출 및 셰이더 재사용을 이용한 멀티­뷰 광선 추적

Also Published As

Publication number Publication date
WO2005076215A1 (en) 2005-08-18
JP2007520822A (ja) 2007-07-26
CN1914643A (zh) 2007-02-14
EP1714251A1 (en) 2006-10-25
US20080260288A1 (en) 2008-10-23

Similar Documents

Publication Publication Date Title
KR20060129371A (ko) 깊이 맵의 생성
US7764827B2 (en) Multi-view image generation
US8036451B2 (en) Creating a depth map
JP4664432B2 (ja) ショットサイズ識別装置及び方法、電子機器、並びにコンピュータプログラム
EP1958149B1 (en) Stereoscopic image display method and apparatus, method for generating 3d image data from a 2d image data input and an apparatus for generating 3d image data from a 2d image data input
KR101168384B1 (ko) 깊이 맵을 생성하는 방법, 깊이 맵 생성 유닛, 이미지 처리 장치, 및 컴퓨터 프로그램 제품
KR101249236B1 (ko) 깊이 인식
EP1807806A1 (en) Disparity map
WO2006003577A1 (en) Creating a depth map
KR20050085355A (ko) 분할된 이미지로부터 폴스 엣지들을 제거하는 방법 및 장치
CN111161299A (zh) 影像分割方法、计算机程序、存储介质及电子装置
CN112991419B (zh) 视差数据生成方法、装置、计算机设备及存储介质
Wang et al. Robust view synthesis in wide-baseline complex geometric environments

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid