KR20090080556A - 복잡성-적응형 2차원-대-3차원 비디오 시퀀스 변환 - Google Patents

복잡성-적응형 2차원-대-3차원 비디오 시퀀스 변환 Download PDF

Info

Publication number
KR20090080556A
KR20090080556A KR1020097012261A KR20097012261A KR20090080556A KR 20090080556 A KR20090080556 A KR 20090080556A KR 1020097012261 A KR1020097012261 A KR 1020097012261A KR 20097012261 A KR20097012261 A KR 20097012261A KR 20090080556 A KR20090080556 A KR 20090080556A
Authority
KR
South Korea
Prior art keywords
image
frame
depth
image class
classified
Prior art date
Application number
KR1020097012261A
Other languages
English (en)
Other versions
KR101096468B1 (ko
Inventor
하오홍 왕
시앙-춘 리
사라스 만주나스
Original Assignee
퀄컴 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퀄컴 인코포레이티드 filed Critical 퀄컴 인코포레이티드
Publication of KR20090080556A publication Critical patent/KR20090080556A/ko
Application granted granted Critical
Publication of KR101096468B1 publication Critical patent/KR101096468B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects

Abstract

2-차원 (2D) 입력의 프레임을 평면 이미지 클래스 및 비-평면 이미지 클래스중의 하나로 분류하는 복잡성-적응형 및 자동 2D 대 3-차원 (3D) 이미지 및 비디오 변환이 설명된다. 평면 이미지 클래스 프레임은 디스플레이를 위해 바로 3D 입체 로 변환된다. 비-평면 이미지로 분류되는 프레임은 깊이 맵 추정을 형성하기 위해 복잡성에 기초하여 자동적 및 적응적으로 더 프로세싱된다. 그 후에, 비-평면 이미지 클래스 프레임은 깊이 맵 추정 또는 조정된 깊이 맵을 사용하여 3D 입체 이미지로 변환된다. 조정된 깊이 맵은 복잡성에 기초하여 프로세싱된다
3차원 비디오 변환, 복잡성 적응, 깊이 맵, 평면 이미지

Description

복잡성-적응형 2차원-대-3차원 비디오 시퀀스 변환{COMPLEXITY-ADAPTIVE 2D-TO-3D VIDEO SEQUENCE CONVERSION}
Ⅰ.분야
본 개시는 일반적으로 입체 영상 비디오 기술에 관한 것이며, 더 상세하게는 복잡성-적응형 2차원-대-3차원 이미지 및 비디오 변환에 관한 것이다.
Ⅱ.배경기술
입체 영상 비디오 기술의 발달은 좌측 뷰 (view) 및 우측 뷰 사이의 양안 시차 (binocular disparity) 를 통해 실제 씬 (scene) 의 3-차원 인식을 가능하게 한다. 이것은 우리의 좌측 및 우측 눈을 통해 보이는 두 개의 분리된 뷰를 획득할 수 있는 인간 시각 시스템을 흉내낸다. 입체 영상 비디오 기술은 인간 뇌의 많은 부분이 오로지 양안 정보의 프로세싱에 헌신한다는 가정에 기초한다. 다시 말하면, 이 입체 영상 시스템은 뷰의 시차를 측정하고 관찰자로부터 씬 내의 객체의 상대적 거리를 잴 수 있는 우리 뇌의 능력을 이용한다.
현재, 입체 비디오의 캡쳐, 프로세싱, 압축, 전송 및 디스플레이를 위한 접근법 개발에 굉장한 노력이 이뤄졌다. 어떤 다른 노력은 이 기술을 표준화하는데 행해졌다. 그러나, 현재 배치된 멀티미디어 디바이스의 대부분은 모노스코픽 (monoscopic) 기반내에서 구현되며, 시장에서 생성 및 판매되는 비디오의 대부분은 2-차원 (2D) 영화이다. 따라서, 2D-대-3D 비디오변환 기술이 3D 매체 소 비자 마켓을 확장시키도록 기대된다.
최근에, 2D 이미지를 3D 이미지로 변환키려는 몇몇 시도가 있었다. 한 가지 접근에서, 실시간 방법은 다수의 2D 이미지의 분리된 영역의 깊이를 그들의 콘트라스트, 선명도 및 크로미넌스 (chrominance) 로부터 및 모션 정보로부터 계산한다. 그 후에, 변환은 획득한 깊이 정보에 기초하여 수행될 수 있다. 또 다른 접근에서, 얼굴 특징 기반 파라메트릭 깊이 맵 생성 방식은 2D 머리-및-어깨 이미지를 3D로 변환한다. 더 나아가 유사한 방식으로, 운동학 및 3D 휴먼 워킹 모션 모델 (human walking motion model) 은 단안 이미지 시퀀스의 3D 보조를 추정하기 위한 선행 지식의 소스로 사용된다.
이미지를 2D 에서 3D로 변환하기 위한 또 다른 시도에서, 깊이 맵은 자동 데이터 상관 해석이 실패하는 경우 수동 프로세싱이 호출되는, 자동 및 수동 기술의 혼합된 세트에 기초하여 추출된다. 또 다른 시도에서, 깊이 맵을 생성하는 감독되지 않은 방법이 제안되었으나, 이 접근의 일부 단계, 예를 들어 프리프로세싱에서의 이미지 분류는 사소하지 않고 구현하기에 매우 복잡할 수 있다. 따라서, 구현은 실용적이지 않을 수 있다. 또 다른 시도에서, 실시간 2D-대-3D 이미지 변환 알고리즘은 모션 검출 및 영역 세그멘테이션 (segmentation) 을 사용할 수 있으나, 객체 세그멘테이션 및 객체 깊이 추정의 부정확성으로 인해 아티팩트 (artifact) 는 피할 수 없다. 세그멘팅된 객체는 객체 세그멘테이션 아티팩트를 피하기 위해 사용된다.
나아가 이미지를 2D 에서 3D로 변환하기 위한 또 다른 시도에서, 카메라 모 션 분석은 비디오 객체 평면 (VOP : Video Object Plane) 의 모션 벡터 데이터상에 수행되고, 객체는 카메라 모션 유형에 따라 수평으로 상이하게 이동된다. 또 다른 접근에서, 통상의 SfM (Structure from Motion) 방법, 예를 들어, 확장된 Kalman 필터는 객체-레벨 프로세싱으로 확장된다. 더 나아가 시도에서, 새로운 온-라인 ICA 혼합 모델은 이미지 세그멘테이션에 사용되고, 그 후 시스템은 3D-효과 이미지를 생성하기 위해 깊이 추정 및 픽셀 쉬프팅 알고리즘을 통과한다.
쉽게 알 수 있듯이, 2D 에서 3D 로의 이미지 및/또는 비디오 변환을 위한 현존하는 접근법은 복잡성-적응형이 아니다. 또한, 2D 대 3D 이미지 및/또는 비디오 변환을 위한 주지의 접근법은 실시간 및 오프라인 2D 대 3D 비디오 변환 모두에 대해 일반적이지 않거나 일부 이전의 레코딩된 2D 영화의 3D 효과를 강화하기 위해 사용된다.
따라서, 복잡성-적응형 2D-대-3D 이미지 및 비디오 변환기술이 당업계에서 요구된다.
개요
복잡성-적응형 2D-대-3D 이미지 및 비디오 변환기술이 여기에 기재된다. 일 실시형태에서, 장치는 2-차원 (2D) 입력의 프레임을 제 1 이미지 클래스 또는 제 2 이미지 클래스로 분류하도록 동작하는 이미지 분류 모듈을 포함한다. 이 장치는 또한 깊이 맵 추정을 생성하기 위해, 복잡성에 기초하여 제 2 이미지 클래스로 분류된 프레임들을 자동적으로 및 적응적으로 프로세싱하도록 동작하는 이미지 깊이-맵 추정 모듈을 포함한다. 제 1 이미지 클래스로 분류된 프레임을 바 로, 제 2 이미지 클래스로 분류된 프레임을 깊이 맵 추정을 사용하여 3D 입체 이미지로 변환하도록 동작하는 3D 이미지 쌍 생성모듈이 제공된다.
또 다른 양태에서, 방법은 2D 입력을 분석하는 단계, 2D 입력의 프레임을 평면 이미지 클래스 및 비-평면 이미지 클래스로부터 선택된 클래스로 분류하는 단계를 포함한다. 비-평면 이미지로 분류된 프레임은 깊이 맵 추정을 생성하기 위해 복잡성에 기초하여 자동적 및 적응적으로 프로세싱된다. 평면 이미지 클래스로 분류된 프레임은 3D 입체 이미지로 바로 변환된다. 프로세싱 단계 이후, 비-평면 이미지 클래스로 분류된 프레임은 3D 입체 이미지로 변환된다.
본 개시의 다양한 양태 및 실시형태는 이하에서 더 자세히 설명된다.
도면의 간단한 설명
본 개시의 양태 및 실시형태가 동일한 참조 문자는 처음부터 끝까지 동일하다고 간주하는 도면과 함께 고려되는 경우 이하에서 기술되는 상세한 설명으로부터 더 명백해질것이다.
도 1 은 3D 입체 영상 이미징 장치의 블록도를 도시한다.
도 2 는 이미지 깊이 추정 모듈의 블록도를 도시한다.
도 3 은 입체 이미지 쌍 생성 모듈의 블록도를 도시한다.
도 4 는 복잡성-적응형 및 자동 2D-대-3D 이미지 및 비디오 변환 방법의 흐름도를 도시한다.
도 5 는 프레임을 분류 (주밍된 이미지를 결정) 하는 방법의 흐름도를 도시한다.
도 6 은 평가 하에서 평가 중의 선택된 세그멘테이션 영역을 도시한다.
도 7 은 객체 세그멘테이션에 대한 복잡성 적응형 프로세스의 흐름도를 도시한다.
도 8 은 복잡성 적응형 세그멘테이션 및 이미지 깊이-맵 조정 프로세스의 블록도를 도시한다.
도 9 는 입체 이미지 쌍 생성 프로세스의 흐름도를 도시한다.
도 10a 는 양안 시각의 좌측 및 우측 뷰를 도시한다.
도 10b 는 시차 맵을 계산하기 위한 파라미터를 구비한 양안 시각의 지오메트리 모델을 도시한다.
도 11a 내지 도 11b 는 Z-버퍼 기반 3D 보간 프로세스의 흐름도이다.
발명의 상세한 설명
3D 입체 이미징 장치의 실시형태가 비디오 시퀀스의 2-차원 (2D) 이미지의 3D 입체영상 비디오 시퀀스로의 변환에 대한 특정 어플리케이션과 함께 이하에서 기술된다. 그러나, 본 발명은 3D 로의 변환을 요구하는 실 시간 및 오프라인 모두에서의 다른 유형의 2D 이미지를 위해 적응된다는 것이 당업자에게 인식될 것이다. 실시형태는 YUV 또는 적색, 녹색, 청색 (RGB) 포맷에서 프로세싱된 이미지를 위할 뿐만 아니라 일부 이전에 레코딩된 2D 영화의 3D 효과를 향상시키기 위해 적응된다. 2D 이미지는 싱글-센서 카메라 센서에 의해 캡쳐된 모노스코픽 이미지를 포함할 수 있다.
도 1 을 참조하여, 일반적으로 10 으로 지정된, 3D 입체영상 이미징 장치가 도시된다. 일반적으로, 3D 입체영상 이미징 장치 (10) 는 여기 기재된 장치 (10) 의 동작을 제어하는 프로세서 (24), 렌즈 (12), 2 차원 (2D) 이미지 캡쳐 유닛 (14) 및 2D-대-3D 비디오 시퀀스 변환기 (30) 를 포함한다. 프로세서 (24) 는 여기 기재된 동작을 수행하기 위해 메모리 (26) 에 저장된 프로그램 명령 및 프로그래밍 코드를 실행한다. 2D 이미지 캡쳐 유닛 (14) 은 카메라 센서 모듈 (16), 줌 모듈 (18) 및 자동 초점 모듈 (20) 을 포함한다. 카메라, 캠코더 및 다른 비디오 이미징 디바이스 (예를 들어, 비디오 능력을 구비한 모바일 폰) 의 줌 기능 및 자동 초점 기능은 잘 확립되었으며 더 이상의 설명을 요하지 않는다. 장치 (10) 는 유선 또는 무선 통신 네트워크 또는 디바이스와 통신하는 통신 유닛 (25) 을 더 포함한다. 따라서, 장치 (10) 는 모바일, 셀룰러, 위성, 무선 통신 디바이스 또는 비디오 능력을 구비한 다른 전화기에 적합하다. 장치 (10) 는 비디오 능력을 구비한 랩탑, 태블릿 PC, 노트 북 등과 같은 다른 휴대용 또는 포터블 디바이스 (portable device) 를 포함할 수 있다.
카메라 센서 모듈 (16) 은 줌 모듈 (18) 및/또는 자동 초점 모듈 (20) 을 사용하여 모노스코픽 이미지 또는 비디오 시퀀스를 캡쳐 하는 싱글-센서 카메라 센서 모듈이다. 설명을 위해, 오직 한 개의 이미지만 캡쳐되기 때문에 그러한 이미지는 입체 이미징 및 디스플레이 (22) 상의 디스플레이를 하기 위해 좌측 (L) 뷰를 표현하기 위해 사용된다. 입체 이미지 쌍 생성 모듈 (50) 이 좌측 뷰 (원래의 캡쳐된 이미지) 및 이미지 깊이 맵으로부터 그 입체 이미지 쌍 생성 모듈 (50) 에서 제 2 또는 미싱한 (missing) 우측 (R) 뷰를 생성하기 위해 2D-대-3D 비디오 시 퀀스 변환기 (30) 에 포함된다. 도 3 에서 가장 잘 도시되어 있듯이, 일반적으로 입체 이미지 쌍 생성 모듈 (50) 은 시차 맵 서브-모듈 (52), Z-버퍼 3D 표면 복원 서브-모듈 (52) 및 입체 뷰 생성 서브-모듈 (56) 을 포함한다.
2D-대-3D 비디오 시퀀스 변환기 (30) 는 이미지 깊이 추정 모듈 (40) 및 3D 효과 생성 모듈 (60) 을 더 포함한다. 입체 이미지 쌍 생성 모듈 (50) 의 출력은 3D 효과 생성 모듈 (60) 에 의해 더 프로세싱되는 좌측 및 우측 뷰를 출력한다. 예시적인 실시형태에서, 3D 효과 생성 모듈 (60) 은 결과로서 생기는 3D 효과를 표시하는 비싸지 않은 적색-청색 입체 사진 (anaglyph) 이다. 생성된 입체 뷰는 홀로그래픽 (holographic) 및 입체영상 디바이스와 같은 다른 메커니즘에 의해 적합하게 디스플레이된다.
도 2 를 참조하면, 이미지 깊이 추정 모듈 (40) 의 블록도가 도시된다. 이미지 깊이 추정 모듈 (40) 은 이미지 분류 서브-모듈 (42) 및 이미지 깊이-맵 추정 서브-모듈 (46) 을 포함한다. 이미지 분류 서브-모듈 (42) 은 평면 이미지를 프로세싱하는 계산 복잡성을 감소시키고 이미지 깊이-맵 추정 서브-모듈 (46) 에 의해 수행되는 이미지 깊이-맵 생성에서의 가능한 아웃라이어 (outlier) 를 감소시키기 위해 이미지를 평면 또는 비-평면 유형으로 분류하는 평면 이미지 검출기 (44A) 를 가진다. 이미지 분류 서브-모듈 (42) 은 적합한 경우 추정 정확도를 적응적으로 조정하는 복잡성 평가장치 (44B) 를 더 포함한다. 복잡성은 변환 프로세스가 추정 정확성을 프로세싱 스피드와 트레이드하기 위해 간략화될 수 있는 의미에서 적응적이된다.
이미지 깊이-맵 추정 서브-모듈 (46) 은 동일한 객체에 속하는 픽셀의 깊이를 조정하는데 도움되는 객체 세그멘테이션에 대한 규칙-기반 접근법을 사용하는 객체 세그멘터 (object segmenter) (48A) 를 포함한다. 이미지 깊이-맵 추정 서브-모듈 (46) 은 또한 깊이-맵 조정장치 (48B) 에 의한 세그멘테에션 에러에 의해 야기된 시각적인 불편함을 피하기 위해 시간 깊이 평활화 (depth smoothing) 를 사용한다.
도 4 를 참조하여, 2D-대-3D 비디오 시퀀스 변환기 (30) 의 동작이 기술된다. 이 동작은 복잡성-적응형 및 자동 2D-대-3D 이미지 및 비디오 변환 방법으로 지칭되며, 일반적으로 100 으로 지정된다. 설명을 위해, 프로세싱을 위한 이미지는 YUV 또는 RGB 형식을 가지며 출력은 좌측 및 우측 뷰라고 가정된다.
복잡성-적응형 및 자동 2D-대-3D 이미지 및 비디오 변환 방법 (100) 은 단계 S102 에서 입력 이미지를 분석하며, 입력 이미지는 2D 이미지 캡쳐 유닛 (14) 에 의해 캡쳐된다. 다른 방법으로, 입력 이미지는 오래되거나 이전에 레코딩된 2D 영화로부터 온 것일 수 있다. 단계 S102 이후에, 발견적 로직 (heuristic logic) 의 세트로 입력 이미지를 평면 또는 비-평면 프레임 (씬) 으로 분류하도록이미지 분석이 일어나는 단계 S104 이 이어진다. 방법 (100) 에서, 비-평면 프레임 (씬) 만이 그들의 복잡성에 기초하여 더욱 세그멘팅되고 프로세싱된다. 따라서, 단계 104 이후에 입력 이미지가 평면 씬인지 여부의 결정이 평면 이미지 검출기 (44A) 에 의해 이루어지는 단계 S108이 이어진다. 평면 이미지 검출기 (44A) 의 동작이 도 5 와 관련하여 상세히 기술된다. 단계 S108 에서 결정이 " 예" 인 경우 (씬이 평면 씬임을 의미), 단계 S108 이후에 단계 S118 이 이어진다. 평면 이미지의 경우, 결과로서 생기는 좌측 및 우측 뷰는 원래의 이미지와 동일하다. 따라서, 깊이 추정/세그멘테이션과 같은 계속되는 프로세싱이 필요하지 않다. 디폴트 (default) 에 의해, 입체 이미지 쌍 생성 단계 S118 은 좌측 및 우측 뷰에 대해 단계 S108로부터 원래의 이미지를 사용한다.
그러나, 단계 S108 에서의 결정이 "아니오" 인 경우 (씬이 비-평면 씬임을 의미), 단계 S108 이후에 추가 세그멘테이션 및 프로세싱이 뒤이어 일어날 수 있도록 단계 S110 이 이어진다. 일반적으로, 프레임의 깊이 정보는 객체 세그멘테에션에 의해 추정되며 깊이는 관찰에 의해 추출된 다수의 사전-정의된 규칙에 의해 조정된다. 복잡성 적응을 향상시키기 위해, 관련된 깊이 맵을 생성하는 프로세스는 낮은-복잡성 어플리케이션에 대한 세그멘테이션 동작을 제거함으로써 간소화될 수 있다. 따라서, 단계 S110 에서 픽셀 깊이 추정이 일어난다. 단계 S110 이후에 방법 (100) 및 장치 (10) 가 적절한 복잡성 솔루션 (예를 들어, 낮은 복잡성 솔루션, 중간의 복잡성 솔루션 및 높은 복잡성 솔루션) 을 현명하게 선택할 수 있도록 계산 자원 유용성 및 계산 복잡성 요건이 결정되거나 평가되는 단계 S112 가 이어진다. 따라서, 그 평가에 기초하여 프로세싱이 실시간으로 진행되는 경우 낮은 복잡성 솔루션이 요구되는지 여부가 결정된다. 단계 S112 에서 결정이 "아니오" 인 경우, 세그멘테이션 동작 (도 8) 을 갖는 복잡성 적응이 단계 S114 에서 일어난다. 그렇지 않고, 단계 S112에서 결정이 "예" 인 경우, 객체 세그멘터 (48A) 에 의한 객체 세그멘테이션이 생략되고 단계 S112 이후에 단계 S118 이 이어진다. 단계 S118 에서 입체 이미지 쌍 생성이 입체 이미지 쌍 생성 모듈 (50) 에 의해 일어난다.
단계 S114로 돌아와서, 단계 S104에서 이미지 분석 중 통계 데이터는 단계 S106에 의해 생성된다. 그러한 통계 데이터는 단계 S114 의 객체 세그멘테이션을 수행하는 객체 세그멘터 (48A) 에 의해 사용된다. 단계 S114 이후에, 도 8 과 관련하여 더 상세하게 기술되듯이, 픽셀 깊이 조정이 일어나는 단계 S116 이 이어진다. 또한 단계 S116 이후에는, 도 9 와 관련하여 더 상세하게 기술되듯이 입체 이미지 쌍 생성이 발생하는 S118 이 이어진다. 단계 S118 이후에, 프레임이 더 있는지 여부의 결정이 이루어지는 단계 S120이 이어진다. 프레임이 마지막 프레임이 아닌 경우, 단계 S120 은 단계 S102 로 돌아간다. 그렇지 않으면, 방법 (100) 은 마지막 프레임이 도달되는 경우 종료한다.
이미지가 단계 S102 에서 입력되고 단계 S104 에서 분석되는 경우, 컬러-기반 이미지 분석이 입력 이미지가 평면 이미지를 나타내는지 검출하는 평면 이미지 검출 장치 (44A) 에 의해 사용된다. 입력 이미지가 평면 씬인 경우, 양쪽 (좌측 및 우측) 뷰 모두 동일하며 따라서 단계 S118 에서 원래의 이미지가 (우측) 뷰에 대해 사용될 수 있다.
이미지가 비-평면 씬인 경우, 단계 S110 에서 규칙-기반 이미지 픽셀 깊이 추정 프로세스가 입력 이미지의 각 픽셀에 대한 근사화된 깊이를 할당하는데 사용된다. 단계 S112 에서 결정된 낮은-복잡성 제약이 없거나 어플리케이션이 실시간으로 행해지는 경우, 깊이는 동일한 객체를 나타내는 픽셀이 유사한 깊이 값을 갖 도록 단계 S114 에서의 객체 세그멘테이션 및 단계 S116 에서의 픽셀 깊이 조정을 사용하여 조정된다. 복잡성 평가장치 (44B) 에 의해 결정되는 바와 같이 낮은-복잡성 제약이 존재하는 경우, 정확성을 스피드와 트레이드하기 위해서 단계 S114 (객체 세그멘테이션) 및 단계 S116 (픽셀 깊이 조정) 이 스킵되거나 부분적으로 스킵된다. 부분적으로 스킵된다는 용어는 객체 세그멘테이션 중 일부 단계 (예를 들어 모션 추정) 가 낮은/중간의 복잡성 요건을 만족하기 위해 스킵될 수 있다는 의미이다. 이미지 깊이-맵 추정 서브-모듈 (46) 로부터 생성된 깊이 맵은 입체 이미지 쌍 생성 모듈 (50) 에 의해 좌측 및 우측 뷰를 나타내는 입체 이미지 쌍을 자동적으로 생성하도록 프로세싱된다.
이미지 깊이 추정
이미지 깊이 추정 모듈 (40) 은 단계 S110 에서 이미지 내의 각 픽셀에 대한 깊이를 추정한다. 입체 뷰는 모노스코픽 이미지 및 이와 연관된 깊이 맵으로부터 생성된다. 일반적으로, 이미지 깊이 추정 프로세스는 관찰로부터 얻은 규칙의 세트에 기초한다. 예를 들어, 야외 이미지 (outdoor image) 의 경우, 상부는 하늘을 표현하는 경우가 많고 땅은 통상 이미지의 하부에 위치한다. 이것은 이미지의 중앙 및 하부가 일반적인 이미지의 상부보다 더 가까운 경향이 있다는 관찰과 일치한다. 가장 중요한 부분은 객체의 정확한 깊이를 획득하는 대신 객체 사이의 상대적인 위치를 찾는 것이다. 상술한 바와 같은 규칙은 객체 사이의 상대적인 위치를 검출하는 기본 가이드라인 (예를 들어, 상부는 중앙 및 하부보다 멀다는) 을 제공한다. 객체 사이의 관계가 추정되면 (예를 들어, 어떤 것이 어 떤 것보다 멀다), 객체의 깊이는 깊이의 선형 또는 비-선형 보간을 사용하여 추정될 수 있다.
이미지 분류
이미지 분류 서브-모듈 (42) 은 처음에 이미지를 "평면 이미지" 와 "비-평면이미지 " 클래스로 분류한다 (단계 S108). 평면 이미지 클래스는 깊이 정보를 거의 담고 있지 않으며, 따라서 깊이 추정이 요구되지 않는다. 일반적으로, 잠재적인 평면 이미지인 두 종류의 이미지가 존재한다. 평면 씬 이미지의 제 1 유형은 주밍된 이미지 (zoomed image) 이다. 주밍된 이미지에서 이미지 내의 픽셀 깊이 차이는 줌 모듈 (18) 에 의한 주밍 효과로 인해 시각적으로 무시할 수 있다. 평면 씬 이미지의 제 2 유형은 90도의 카메라 앙각을 갖는 위에서 본 풍경 (또는 아래에서 본 풍경) 에 대응하는 이미지를 포함한다. 위에서 본 풍경 (view-from-above) 이미지는 사용자가 평면에 서 있거나 소정의 다른 위치에서 대지, 땅 등을 아래로 내려다보면서 있는 동안 캡쳐된 이미지이다. 아래에서 본 풍경 이미지는 사용자가 서있거나 소정의 다른 위치에서 이미지를 캡쳐하기 위해 올려다보면서 캡쳐된 이미지이다.
90 도보다 작은 앙각을 갖는 뷰는 충분한 깊이 정보를 담고 있다. 또한, 뷰 각도가 깊이 인식력을 증가시키기 때문에, 이들 뷰로부터의 깊이 정보는 0 도 (0°) 의 앙각을 갖는 뷰로부터보다 추출하기 쉽다.
설명을 위해, 프로세싱을 위한 비디오가 사용자에 의해 조심스럽게 생산되고 따라서 시각적 불편은 낮은 확률로 제한되었다고 가정된다. 따라서, 비디오 내 의 뒤집힌 이미지의 발생 및 90 도의 카메라 앙각을 가지는 위에서 본 풍경 (또는 아래에서 본 풍경) 을 무시할 수 있다고 결론짓는 (가정하는) 것이 유효하다. 따라서, 렌즈 (12) 의 배향은 통상의 인식으로써 통상적으로 정렬된다 (수평 면을 따라 정렬된다) 고 가정된다.
줌 모듈 (18) 에 의한 줌-인 및 줌-아웃 동작은 2D 이미지 캡쳐 유닛 (14) 에 의해 비디오 또는 이미지를 캡쳐하는 경우 통상적으로 카메라 동작에서 사용된다. 따라서, 평면 이미지를 검출하기 위해서, 2D-대-3D 비디오 시퀀스 변환기 (30) 가 자동적으로 주밍된 프레임을 검출할 수 있는 것이 요구된다. 이상적으로 줌-인 프레임의 경우, "블로우 아웃 (blow out)" 모션 패턴이 모션 추정에서 발생한다. 바꾸어 말하면, 매크로블록의 모션 벡터는 줌 동작의 중심으로부터 외부로 향할 것이며, 벡터 길이는 줌 동작의 중심으로부터의 거리에 비례한다. 그러나, 프레임 내의 노이즈가 부정확한 모션 추정 및 나아가 잘못된 검출을 야기할 수 있다. 또한, 모션 추정은 낮은-복잡성 어플리케이션의 경우 꽤 계산 집약적이다.
프레임의 분류를 위해 주밍된 프레임을 자동적으로 검출하기 위해, 컬러-기반의 주밍된 이미지 검출 알고리즘이 사용된다. 대부분의 비디오 시퀀스에서, 주밍된 캡쳐 이미지가 컬러-히스토그램 변화에 의해 검출될 수 있도록 카메라 줌 동작이 줌-인-> 중지->줌-아웃 또는 줌-인->중지->씬 변경의 시퀀스를 따른다.
도 5 는 프레임을 분류 (주밍된 이미지를 결정) 하는 단계 S108 에 대한 방법의 흐름도이다. 도 5 의 로직에 대응하는 의사-코드 (pseudo-code) 가 설명 된다:
If Tn -1 = 1 then // 주밍된 이미지
If S(fn -1,fn) = 1 // 씬 변경
then Tn = 0;
Else // 줌 아웃 여부 확인
If (Vn > Vn -k> Vn -2k & Hn(Cn -2k,0)<Hn -k(Cn -2k,0)< Hn -2k(Cn -2k,0)
then Tn = 0;
else Tn = 1
else// 통상 이미지, 제 1 주밍된 이미지 발견 시도
If (Vn < Vn -k <Vn -2k & Hn(Cn ,0)>Hn -k(Cn ,0)> Hn -2k(Cn ,0)
then Tn = 1;
else Tn = 0
우선, n 은 현재 프레임 fn 의 인덱스를 나타내며, Tn은 현재 이미지의 주밍 유형을 나타내며 (Tn=1 은 주밍된 이미지를 나타내고, 그렇지 않은 경우에 Tn=0), Vn 은 현재 이미지의 변동 (variance) 을 나타내며, Hn(Cn ,m) 은 32-빈 컬러 히스토그램을 나타내며, Cn ,m 은 정렬된 히스토그램 (즉, Cn ,0 은 가장 높은 히스토그램을 가지는 컬 러) 을 가지는 컬러를 나타내며, S(fn -1,fn) 은 두 프레임 fn -1 및 fn 사이의 씬 유사성을 나타낸다 (S(fn -1,fn)=1은 씬 변경이 있음을 의미). S(fn -1,fn) 은 하기의 식 (1) 및 식 (2) 로써 정의된다.
Figure 112009035682221-PCT00001
여기서,
Figure 112009035682221-PCT00002
Th 는 이미지 유사성을 검출하기 위한 임계치이다.
단계 S108 에 대한 방법은 Tn -1=1 인지 (이전의 프레임 (n-1) 이 주밍된 프레임이었음을 의미) 여부의 결정이 행해지는 단계 S152 로 시작된다. 단계 S152 에서의 결정이 "예" 인 경우 단계 S152 에 후속하여 상기의 식 1 및 식 2 에 기초하여 S(fn -1,fn)=1 (씬 변경을 의미) 인지 여부의 또 다른 결정이 이루어지는 단계 S154 가 이어진다. 단계 S154 에서 결정이 "예" 인 경우 (씬 변경을 의미), 단계 S154 에 후속하여 Tn 이 0 으로 셋팅 (현재 프레임이 주밍된 이미지가 아님을 의미) 되는 단계 S162 가 이어진다. 따라서, 현재 프레임은 비-평면 이미지이다.
단계 S152 에서 이전의 프레임이 주밍된 이미지이며 (Tn -1=1), 단계 S154 에 서 현재 프레임이 씬 변경이 아닌 경우 (S(fn -1,fn)≠1 임을 의미), 단계 S108 의 방법은 2D 이미지 캡쳐 유닛 (14) 의 줌 모듈 (18) 이 단계 S158 에서 줌 아웃하고 있는지 여부를 결정한다. 한 예로, 줌 아웃 상태는 최근 프레임 내의 Vn 으로 나타내어진 이미지 변동의 점진적인 증가 및 소정 컬러 (이전의 프레임의 원색 성분) 의 비율의 점진적인 감소에 의해 결정될 수 있다. 유사하게, 이전의 프레임 fn -1 이 주밍된 이미지가 아닌 경우 (Tn -1=0 임을 의미), 단계 S108 의 방법은 또한 단계 S156 에서 카메라가 줌인 하고 있는지 검출하는 것이 요구된다. 따라서, 단계 S152 이후에 단계 S156 이 온다.
값 k 는 프레임-레이트 및 통상의 주밍 스피드에 의해 결정되는 상수이다. 비디오 클립 당 30 프레임 초의 경우, k=10 은 합리적인 셋팅이 될 수 있다.
단계 S154 로 돌아와서, 결정이 "아니오" 인 경우 (현재 프레임이 씬 변경이 아님을 의미), 단계 S154 에 후속하여 식 3 이 만족되는지 여부의 결정이 이루어지는 단계 S158 이 이어진다.
Figure 112009035682221-PCT00003
단계 S158 에서의 결정이 "아니오" 인 경우, 단계 S158 에 후속하여 Tn 이 1 로 셋팅 (현재 프레임이 주밍된 이미지임을 의미) 되는 단계 S160 이 이어진다. 그러나, 단계 S158에서 결정이 "예" 인 경우, 단계 S158 이후에 Tn 이 0 으로 셋팅 (현재 프레임이 주밍된 이미지가 아님을 의미) 되는 단계 S162 가 이어진다. 따라서, 현재 프레임은 비-평면 이미지이다.
단계 S152 에서의 결정이 "아니오" 인 경우 (이전의 프레임 fn -1 이 주밍된 이미지가 아님을 의미), 단계 S152 이후에 단계 S156 이 이어진다. 단계 S156 에서, 식 4 를 만족시키는지 여부가 결정된다.
Figure 112009035682221-PCT00004
단계 S156 에서의 결정이 "예" 인 경우, 단계 S156 이후에 Tn 이 1로 셋팅 (현재 프레임이 주밍된 이미지임을 의미) 되는 단계 S160 이 이어진다. 그러나, 단계 S156에서의 결정이 "아니오" 인 경우, 단계 S156 이후에 Tn 이 0으로 셋팅 (현재 프레임이 주밍된 이미지가 아님을 의미) 되는 단계 S162 가 이어진다. 따라서, 현재 프레임은 비-평면 이미지이다.
이미지 깊이-맵 추정
평면 이미지는 깊이 정보를 거의 포함하지 않기 때문에 (단계 S108 에서) 평면 이미지로 결정된 이미지는 깊이 추정을 요하지 않는다. 따라서, 이하의 기술은 단계 S110 에서 수행되는 비-평면 이미지에 대한 이미지 깊이-맵 추정에 관련된다. 예시적인 실시형태는 이미지 픽셀의 실제 깊이를 복원하지 않는다. 대신에, 원래의 이미지의 3D 효과를 향상시키기 위해 예시적인 실시형태는 이미지 깊이 맵을 생성하거나 추정한다. 단계 S110 의 이미지 깊이-맵 추정 프로세스는 두 개의 기본적인 가정에 기초한다. 제 1 가정은 씬이 다수의 객체로 구성되고, 동일한 객체에 대응하는 픽셀은 더 가까운 깊이 값을 가지고 그 차이는 무시 할 수 있다는 것이다. 제 2 가정은 대부분의 비-평면 이미지의 경우, 객체의 깊이가 상부에서 하부로 감소된다는 것이다. 가정에 대한 소정의 반증 예들, 예를 들어 어클루션 (occlusion) 이 일어나는 경우 및 실내 씬들이 있다. 그러나, 그러한 씬의 검출은 매우 어렵고 시간-낭비적이며, 낮은 복잡성이 이용가능하지 않다. 일반적으로, 상술된 두 가정들은 대부분의 비디오 클립에 대해 유효하며, 반증예들은 생성된 3D 이미지의 시각효과에 큰 영향을 주지 않는다.
도 4 를 참조하면, 단계 S110 의 이미지 깊이-맵 추정 프로세스는 초기에 각각에 픽셀에 그의 수직 좌표 값에 비례하는 깊이 값을 할당한다. 그 후에, 깊이 맵은 도 7 에 도시된 단계 S114에서의 객체 세그멘테이션의 결과에 기초하여 조정된다. 도 6 및 도 7 에 대하여, 계산적 복잡성을 감소시키기 위해 필요한 경우 이미지의 일부만이 세그멘테이션을 위해 선택된다. 그러나, 단계 S112 에서 낮은 복잡성이 요구되는 경우, 객체 세그멘테이션 단계 S114 및 픽셀 깊이 조정 단계 S116 은 스킵될 수 있다.
중앙 및 하부 영역은 통상 시각적으로 더 민감한 더 가까운 객체에 대응하기 때문에, 이 영역은 도 6 에서 가장 잘 도시된 바와 같이, 세그멘테이션을 위한 영역으로 선택된다. 세그멘테이션 영역은 원래의 이미지의 하부 중앙 부분으로 선택된다. 예시적인 실시형태에서, 하부 중앙 부분의 상부 경계는 원래의 이미지의 상부 경계의 아래에서 1/3 또는 원래의 이미지의 수직 높이 (y) 의 2/3 이다. 세그멘테이션 영역의 하부 경계는 원래의 이미지의 하부 경계와 정렬된다. 그러나, 세그멘테이션 영역의 좌측 및 우측 경계는 좌측 경계로부터 수평 길이 (x) 의 1/10 및 우측 경계로부터 수평 길이 (x) 의 1/10 인 거리에서 시작한다. 세그멘테이션 영역에서, 객체 세그멘테이션이 수행되어, 영역을 다수의 서브-영역 (또는 객체) 로 분리한다. 그러나, 수직 높이 (y) 의 1/3 및 수평 길이 (x) 의 1/10 이외의 다른 비율이 세그멘테이션 영역을 위해 대체될 수 있다.
도 7 을 다시 참조하면, 복잡성-적응형 특징은 또한 객체 세그멘터 (48A) 에 의해 요구되는 경우 더 높은 복잡성 솔루션을 사용한다. 따라서, 단계 S114는 계산적 자원과 계산적 복잡성 요건에 기초하여 높은 복잡성 솔루션이 요구되는지 여부의 결정이 이루어지는 단계 S163으로 시작한다. 단계 S163 에서의 결정이 "예" 인 경우, 단계 S163 에 후속하여, 예를 들어 높은 복잡성 솔루션이 사용되는 경우 컬러 정보뿐만 아니라 모션 추정으로부터의 모션 정보가 획득되는 단계 S164가 이어진다. 단계 S164 이후에 객체가 예를 들어 컬러 및 모션 정보를 이용하여 세그멘팅되는 단계 S165가 이어진다.
그러나, 단계 S163 에서의 결정이 "아니오" 인 경우, 단계 S163 이후에 중간의 복잡성 솔루션이 요구되는지의 결정이 이루어지는 단계 S166 이 이어진다. 단계 S166 에서의 결정이 "예" 인 경우 (객체 세그멘테이션에 대한 중간의 복잡성이 사용되는 것을 의미), 단계 S166 이후에 단계 S167 이 이어진다. 단계 S167 에서 중간의 복잡성 절차는 오직 컬러 정보만을 사용한다. 그러나 다른 복잡성 절차가 대체될 수 있다. 단계 S167 이후에 중간의 복잡성 절차를 사용하여 객체가 컬러 정보로 세그멘팅되는 단계 S168 이 이어진다. 단계 S165 및 단계 S168 은 단계 S114 에 대한 프로세스를 종료시킨다. 또한 단계 S166 에서의 결정이 "아니오" 인 경우, 단계 S114 의 프로세스가 또한 종료된다.
인식할 수 있듯이, 결정 단계 S163 및 단계 S166 의 배열은 중간의 복잡성 솔루션이 더 높은 우선순위를 갖는지 여부에 따라 쉬프팅될 수 있다. 일반적으로, 높은 복잡성 솔루션이 더 정확하다. 모션 추정 및 컬러 정보가 객체 세그멘테이션 단계 S114 의 일부가 될 수 있거나 이미지 분석 단계 S104 에 의해 제공되는 단계 S106 에서의 통계 데이터의 일부가 될 수 있다. 일반적으로 모션 추정 프로세스는 상당히 시간-낭비적이다. 따라서, 모션 추정 프로세스는 단계 S104 에서 수행이 불필요할 수 있으며 복잡성 요건에 따라 단계 S114 에서 수행될 수 있다. 그러나, 소정의 어플리케이션에 대해 사용가능한 경우, 객체 세그멘테이션 (단계 S114) 은 노력을 절약할 수 있다.
중간의 복잡성 솔루션이 요구되는 경우, 컬러 정보는 오직 세그멘테이션을 위해 사용될 수 있다. 실시간 어플리케이션 또는 낮은 복잡성 솔루션이 요구되는 경우, 세그멘테이션 동작은 번거로운 계산을 피하기 위해 스킵될 수 있다. 3D 입체영상 이미징 장치 (10) 에 현재 상태 (예를 들어, 자원 할당 및 CPU 사용) 의 프로그램 코드를 알리기 위한 프로세서 (24) 로 부터의 피드백 채널이 존재하는 것이 또한 가정된다. 복잡성 요건은 예를 들어 모바일 폰 내의 어플리케이션-레벨 소프트웨어에 의해 기본적으로 조정된다. 전력 소비를 제어하는 소프트웨어는 컴퓨팅 전력을 각각의 실행중인 태스크에 동적으로 할당하며, 이는 계산 복잡성 요건에 직접적으로 영향을 미친다.
도 8 에서, 객체 세그멘테이션 및 깊이-맵 (픽셀 깊이) 조정 양자의 복잡성- 적응형 프로세스가 도시된다. 프로세스는 일반적으로 단계 S114 및 단계 S116 에 대한 것이며 세그멘테이션 영역 (도 6) 이 페칭된 이미지 (fetched image) 에서 선택되는 단계 S172 로 시작한다. 단계 S172 이후에 연결된 컴포넌트 레이블링 (labeling) 접근법이 이미지를 동일한 영역 내의 픽셀이 유사한 컬러 강도를 가지는 다수의 작은 연결된 영역으로 분할하는데 사용되는 단계 S174가 이어진다. 단계 S174 이후에 컬러-기반 영역 머징 (merging) 알고리즘이 임의의 인접 서브-영역이 비슷한 평균 컬러 강도를 가지는 경우 작은 영역을 큰 영역으로 융합하는데 사용되는 단계 S176이 이어진다. 단계 S176 이후에 모션 정보 (사용가능한 경우) 가 모션-기반 영역 머징 알고리즘을 통해 유사한 방향으로 이동하는 영역을 더 큰 객체로 더욱 융합하는데 사용되는 단계 S178 이 이어진다.
단계 S172, S174, S176 및 S178 은 세그멘테이션 단계이다. 단계 S176 및 S178 은 선택적으로 사용될 수 있으며, 높은-복잡성 솔루션인 경우 단계 S178만이 사용된다. 세그멘테이션 단계이 완성된 이후, 단계 S178 이후에 픽셀 깊이가 각각의 객체에 대해 조정되며 객체 내의 각 픽셀의 깊이가 객체 내의 픽셀의 최소 깊이로 할당되는 단계 S180 이 이어진다. 최종적으로, 단계 S180 이후에 인접한 프레임간의 일시적인 급한 변화를 피하기 위해 깊이 평활화 프로세스가 사용되는 단계 S182가 이어진다. 일반적으로, 시간 깊이 평활화 프로세스에 대한 동기부여는 일부 어클루션 경우를 제외하고 씬 내의 객체가 깊이에 있어서 매우 빠르게 움직이지 않도록 비디오 클립의 프레임 레이트가 충분히 높은 것이다. (n-1) 번째 및 n 번째 프레임 내의 픽셀 (i,j) 의 깊이를 dn -1(i,j) 및 dn(i,j) 으로 표시하면, dn(i,j) 가 하기의 식 (5) 에 따라 조정된다.
Figure 112009035682221-PCT00005
원래의 이미지에 대응하는 추정된 깊이 맵은 멀리 있는 객체에 대응하는 더 밝은 영역을 가지며, 가까운 객체에 대응하는 더 어두운 영역을 가진다. 예시적인 실시형태에서, 더 나은 세그멘테이션을 위한 의미 정보 (semantic information) 의 부족으로 인해 약간의 잘못 분류된 객체가 존재하지만, 도 8 에 도시된 조정을 갖는 이미지 깊이-맵 추정 프로세스는 가까운 객체들로부터 멀리 있는 객체들을 분류할 수 있다.
도 1, 도 3 및 도 9 를 참조하여, 장치 (10) 는 이제까지 이미지 또는 좌측 뷰를 캡쳐하고 이미지 깊이-맵 추정 서브-모듈 (46) 의 출력에서 대응하는 이미지 깊이 맵을 획득했다. 입체 영상 이미지 쌍 생성 모듈 (50) 은 지금 기술될 단계 S118 에서의 이미지 쌍 생성 프로세스를 사용한다. 단계 S206 에서 좌측 뷰가 획득되고, 단계 S204 에서 좌측 뷰의 대응하는 이미지 깊이 맵이 획득된다.
단계 S118 의 이미지 쌍 생성 프로세스가 처음에 획득 또는 캡쳐된 이미지가 3D 입체 영상 이미징 장치 (10) 의 단계 S206 에서의 좌측 뷰라고 가정한 반면, 다 른 방법으로, 획득 또는 캡쳐된 이미지가 우측 뷰라고 가정될 수 있다. 따라서, 단계 S204에서 획득된 이미지 깊이 맵 (이미지 깊이 추정 모듈 (40) 의 출력) 에 기초하여, 이미지에 대한 시차 맵 (양 뷰의 이미지 포인트 사이의 픽셀의 거리) 이 시차 맵 서브-모듈 (52) 의 단계 S202 에서 계산된다. 시차 맵 서브-모듈 (52) 에 의한 시차 맵 계산은 도 11a 및 도 11b 를 참조하여 이하 상술될 것이다. 좌측 뷰와 깊이 맵 모두는 또한 시차맵을 계산하기 위한 입력이지만, 3D 뷰 생성의 경우, 단계 S206 의 좌측 뷰 및 단계 S204의 깊이 맵은 Z-버퍼 기반 표면 복원 프로세스에 직접 기여한다. 단계 S202 이후에, Z-버퍼 3D 표면 복원 서브-모듈 (54) 에 의한 Z-버퍼 기반 3D 보간 프로세스가 우측 눈으로 부터의 씬에 대한 3D 가시성 표면을 구성하기 위해 호출되는 단계 S208 이 이어진다. 단계 S208 이후에 도 10b 에 잘 도시되어 있듯이, 3D 표면을 투영면에 투영함으로써 우측 뷰가 획득되는 단계 S210이 이어진다.
도 10a 에서, 양안 시각의 지오메트리 모델은 멀리 있는 객체에 대한 투영면 상에 좌측 (L) 및 우측(R) 뷰를 이용하여 도시된다. 도 10b 에서, F 는 초점 길이, L(xL,yL,0) 은 좌측 눈, R(xR,yR,0) 은 우측 눈, T(xT,yT,z) 는 씬 내의 3D 포인트이며, P(xP,yP,F) 및 Q(xQ,yQ,F) 는 좌측 및 우측 투영 면에 대한 T 의 투영 포인트이다. 명백하게, 투영 면상의 P 및 Q 의 수평 위치는 (xP-xL) 및 (xQ-xR) 이며, 따라서 시차는 d=[(xQ-xR)-(xP-xL)] 이다.
도 10b 에 도시된 바와 같이, F 및 z 의 비율은 식 (6) 에서 정의되며
Figure 112009035682221-PCT00006
z 는 깊이이며 따라서 식 (7) 및 식 (8) 은 다음과 같으며,
Figure 112009035682221-PCT00007
Figure 112009035682221-PCT00008
따라서 시차 d 는 식 (9) 에 의해 획득될 수 있다.
Figure 112009035682221-PCT00009
따라서, 좌측 뷰의 모든 픽셀에 대해, 우측 뷰의 대응물은 식 (9) 에 획득된 시차 값의 거리만큼 좌측 또는 우측으로 쉬프팅된다. 그러나, 좌측-뷰로부터 우측-뷰로의 매핑 (mapping) 은 가능한 어클루션으로 인해 1-대-1 매핑이 아니며, 따라서 우측-뷰 이미지를 획득하기 위한 프로세스싱이 더 요구된다.
따라서, 우측-뷰 생성을 위해 단계 S210의 Z-버퍼 기반 3D 보간 프로세스가 Z-버퍼 3D 표면 복원 서브-모듈 (54) 에 의해 수행된다. 눈으로부터 객체까지의 거리에 비해서 두 눈간의 거리 (도 10a 에 도시된 바와 같이) 는 매우 작다. 따라서, 객체로부터 좌측 눈까지의 거리가 객체로부터 우측까지의 거리와 근사적으로 같다고 가정되며, 이는 계산을 단순화한다. 따라서, 깊이 맵 Z(x,y) (Z(x,y) 는 실제로 이미지 깊이 맵이지만 검출될 알려지지 않은 맵임) 은 우측 (R) 뷰에 대해 유지되며 x,y 는 뷰내의 픽셀 위치이다.
도 11a 및 도 11b 를 참조하여 우측-뷰에 대해 3D 가시성 표면을 재구성하는 단계 S210 의 프로세스가 설명된다. 처음에 (단계 S222), 깊이 맵은 무한대로 초기화된다. 단계 S222 이후에 좌측 뷰 내의 픽셀 (x0,y0) 이 획득되는 단계 S224 가 이어진다. 그 후, 깊이 z0 및 시차 값 d0 을 가지는 좌측 뷰 내의 모든 픽셀 (x0,y0) 에 대해, 깊이 맵은 다음과 같이 정의되는 식 (10) 에 의해 단계 S226 에서 우측 뷰의 대응하는 픽셀에 대해 업데이트 된다.
Figure 112009035682221-PCT00010
단계 S226 이후에 픽셀이 더 있는지 결정하는 결정 단계인 단계 S228 이 이어진다. 결정이 "예" 인 경우, 다음 픽셀을 얻기 위해 단계 S228 에서 단계 S224로 돌아온다. 그러나, 좌측-뷰의 모든 픽셀이 프로세싱된 이후 (따라서, 단계 S228에서의 결정이 "아니오" 임) 에, 단계 S228 이후에 재구성된 깊이 맵이 무한대과 같은 값을 가지는 픽셀 (좌측-뷰 상의 유효한 맵이 없는 픽셀) 을 위해 확인되거나 검색되는 단계 S230 이 이어진다. 단계 S230 이후에 픽셀 값 (PV) 이 무한대와 같은지 여부의 결정이 이루어지는 단계 S232 가 이어진다. 단계 S232 에서의 결정이 "아니오" 인 경우, 픽셀 값 (PV) 은 유효하며 도 11b 의 단계 S244 에서 강도 값으로 바로 사용될 수 있다.
그러한 픽셀에 대해 단계 S232 에서의 결정이 "예" 인 경우, 이용가능한 깊 이 값을 가지는 인접 픽셀에 기초하여 2D 보간에 의해 대응하는 픽셀에 대한 깊이를 처음으로 계산하는 단계 S234 가 이어진다. 단계 S234 이후에 상기의 식 (9) 를 이용하여 시차 값이 계산되는 단계 S236이 이어진다. 단계 S236 이후에 프로세스가 좌측 뷰 내의 대응하는 픽셀을 역으로 찾아내는 단계 S238 이 이어진다. 단계 S238 이후에 픽셀이 발견되는지 여부를 결정하는 단계 S240이 이어진다. 대응하는 픽셀이 이용가능한 경우, 단계 S240 이후에 대응하는 강도 값이 우측-뷰 픽셀 상에 이용될 수 있는 단계 S244 가 이어진다. 그렇지 않고, 단계 S240 에서의 결정이 "아니오" 인 경우, 단계 S240 이후에, 이용가능한 강도 값을 가지는 우측-뷰 내의 인접 픽셀에 기초하여 강도 값을 계산하기 위해 보간을 사용하는 단계 S242 가 이어진다.
직접 강도 보간 방법에 비해 제안된 알고리즘을 사용하는 이점은 입체 효과에 대한 더 나은 사실성을 발생시키는 객체 형상의 3D 연속성을 고려하는 점이다. 좌측 뷰의 비가시성 영역을 복원하는 문제점은 정립되지 않은 문제 (ill-posed problwm) 이다. 하나의 알려진 솔루션에서, 다른 가시성 뒷 표면이 씬 내에 있지 않다는 가정하에, 또 다른 표면에 대응하는 수평 방향에서의 인접 픽셀을 이용하여 미싱 픽셀의 깊이가 복원된다. 몇몇의 경우에, 그 가정은 유효하지 않을 수 있다. 더 가능한 경우들을 고려하기 위해, 제안된 솔루션에서, 표면 복구는 모든 방향의 모든 인접 픽셀의 깊이를 고려하며, 이는 유효하지 않은 가정의 확률을 감소시키며 복구된 표면의 더 양호한 3D 연속성을 발생시킨다.
실험적 결과
방법 (100) 은 다수의 비디오 클립에 대해 테스팅되었다. 비록 생성된 입체 뷰가 홀로그래픽 또는 입체영상 디바이스와 같은 메커니즘에 의해 디스플레이 가능하여도, 저렴한 적색-청색 입체사진이 결과로서 생기는 3D 효과를 설명하기 위해 사용되었다. 일반적으로 입체 사진 결과는 원래의 이미지의 객체에 바로 인접한 원래 이미지의 객체의 반투명의 섀도우 또는 고스트 (ghost) 를 도시한다. 적색-청색 입체 사진은 반투명의 섀도우 또는 고스트를 청색 및/또는 적색으로 채색한다. 적색-청색 3D 안경을 사용하여, 상당히 개선된 3D 효과가 관찰될 수 있다. 실험적 결과는 변환된 비디오의 3D 효과가 상당히 분명하다는 것을 나타낸다.
알 수 있는 바와 같이, 장치 (10) 및 방법 (100) 은 복잡성-적응형이며 자동인 2D-대-3D 이미지 및/또는 비디오 변환을 제공한다. 또한, 장치 (10) 및 방법 (100) 은 실시간 및 오프라인 2D-대-3D 비디오 변환에 대해 일반적이며 이전에 레코딩된 2D 영화의 3D 효과를 개선하는데 사용되는 2D-대-3D 이미지 및/또는 비디오 변환을 제공한다.
입력 이미지 (압축된 또는 원래의 데이터) 의 비트스트림 (bitstream) 형식 및 출력 비디오를 위한 디스플레이 방법과 같은 다른 이슈는 여기 기재된 범위 내에 있지않다는 것이 인식되어야 한다.
개시된 실시형태의 이전의 설명은 당업자가 본 발명을 제조 또는 사용가능하기 위해 제공된다. 본 개시에 대한 다양한 수정은 당업자에게는 쉽게 명백할 것이며, 여기에 정의된 일반적인 원리는 본 개시의 사상 또는 범위를 벗어남이 없이 다른 실시형태들에 적용가능할 것이다. 따라서, 본 개시는 여기 기재된 예로 한정되는 것이 아니라 여기에 기재된 원리 및 개선된 특징에 일치하는 가장 넓은 범위에 적용된다.

Claims (30)

  1. 2D 입력을 분석하는 단계;
    상기 2D 입력의 프레임을 평면 이미지 클래스 (flat image class) 및 비-평면 이미지 클래스에서 선택된 클래스로 분류하는 단계;
    깊이 맵 추정을 생성하기 위해 상기 비-평면 이미지 클래스로 분류된 프레임들을 복잡성에 기초하여 자동적 및 적응적으로 프로세싱하는 단계; 및
    상기 평면 이미지 클래스로 분류된 프레임들을 바로, 상기 비-평면 이미지 클래스로 분류된 프레임들을 상기 프로세싱 단계 이후에 3D 입체 이미지 (stereo image) 로 변환하는 단계를 포함하는, 방법.
  2. 제 1 항에 있어서,
    상기 프로세싱하는 단계는 상기 깊이 맵 추정을 추정하는 단계, 현재 어플리케이션이 상기 비-평면 이미지 클래스로 분류된 프레임에 대해 낮은 복잡성 솔루션을 요구하는지 여부를 결정하는 단계 및 상기 낮은 복잡성 솔루션이 요구되는 경우 상기 깊이 맵 추정을 사용하여 상기 비-평면 이미지 클래스로 분류된 프레임들을 바로 변환하는 단계를 포함하는, 방법.
  3. 제 2 항에 있어서,
    상기 프로세싱하는 단계는 상기 비-평면 이미지 클래스로 분류된 상기 프레 임을 다수의 세그멘팅된 영역으로 객체 세그멘팅하는 단계 및 상기 세그멘팅된 영역들의 픽셀 깊이를 조정하는 단계를 더 포함하는, 방법.
  4. 제 3 항에 있어서,
    상기 프로세싱하는 단계는 이용가능한 계산 자원 및 계산 복잡성 요건을 결정하는 단계 및 상기 계산 복잡성 요건을 만족하기 위해 상기 낮은 복잡성 솔루션, 중간의 복잡성 솔루션 또는 높은 복잡성 솔루션을 선택하는 단계를 더 포함하고;
    상기 높은 복잡성 솔루션 또는 상기 중간의 복잡성 솔루션이 요구되는 경우, 상기 객체 세그멘팅하는 단계는 컬러 정보를 사용하고, 상기 높은 복잡성 솔루션이 요구되는 경우, 컬러 정보 및 모션 추정 정보가 상기 세그멘팅하는 단계를 위해 사용되는, 방법.
  5. 제 3 항에 있어서,
    상기 프로세싱하는 단계는 제 1 출력을 형성하기 위해 연결된 컴포넌트 레이블링 (labeling) 프로세스로 세그멘테이션 영역을 프로세싱하는 단계, 제 2 출력을 형성하기 위해 컬러-기반 영역 머징 (merging) 프로세스로 상기 제 1 출력을 프로세싱하는 단계, 제 3 출력을 형성하기 위해 모션-기반 영역 머징 프로세스로 상기 제 2 출력을 프로세싱하는 단계, 제 4 출력을 형성하기 위해 상기 제 3 출력의 픽셀 깊이를 조정하는 단계 및 상기 제 4 출력을 시간 깊이 평활화 (smoothing) 하는 단계를 더 포함하는, 방법.
  6. 제 1 항에 있어서,
    상기 분류하는 단계는 상기 프레임이 주밍된 (zoomed) 씬에 대한 것인지 여부를 결정하는 단계를 포함하며; 상기 프레임이 주밍된 씬에 대한 것인 경우, 상기 프레임이 상기 평면 이미지 클래스로 분류되며, 상기 프레임이 주밍된 씬에 대한 것이 아닌 경우 상기 프레임은 상기 비-평면 이미지 클래스로 분류되는, 방법.
  7. 제 1 항에 있어서,
    상기 2D 입력은 오프라인 2D 이미지, 모노스코픽 이미지 (monoscopic image) 및 이전에 레코딩된 2D 영화 중 하나를 포함하는, 방법.
  8. 제 1 항에 있어서,
    상기 변환하는 단계는 상기 평면 이미지 클래스로 분류된 상기 프레임을 좌측 뷰 및 우측 뷰 모두로서 할당하는 단계를 포함하는, 방법.
  9. 제 1 항에 있어서,
    상기 변환하는 단계는 상기 비-평면 이미지 클래스로 분류된 상기 프레임을 좌측 뷰로 사용하는 단계, 상기 비-평면 이미지 클래스로 분류된 상기 프레임의 상기 좌측 뷰에 대한 양안 시각 지오메트리의 좌측 및 우측 뷰 내의 이미지 포인트들사이의 픽셀들에서의 거리에 기초하여 시차 맵을 계산하는 단계, 구성된 3D 표면을 형성하기 위해 미싱한 우측 뷰포인트로부터 3D 가시성 표면을 구성하는 단계 및 상기 구성된 3D 표면을 투영 면에 투영함으로써 입체 뷰를 생성하는 단계를 포함하는, 방법.
  10. 2-차원 (2D) 입력을 해석하는 해석 수단;
    상기 2D 입력의 프레임을 평면 이미지 클래스 및 비-평면 이미지 클래스에서 선택된 클래스로 분류하는 분류 수단;
    깊이 맵 추정을 생성하기 위해 상기 비-평면 이미지 클래스로 분류된 프레임들을 복잡성에 기초하여 자동적 및 적응적으로 프로세싱하는 프로세싱 수단; 및
    상기 평면 이미지 클래스로 분류된 프레임들을 바로, 상기 비-평면 이미지 클래스로 분류된 프레임들을 상기 깊이 맵 추정을 사용하여 3D 입체 이미지로 변환하는 변환 수단을 포함하는, 장치.
  11. 제 10 항에 있어서,
    상기 프로세싱 수단은 상기 깊이 맵 추정을 추정하는 추정 수단 및 현재 어플리케이션이 상기 비-평면 이미지 클래스로 분류된 상기 프레임에 대해 낮은 복잡성 솔루션을 요구하는지 여부를 결정하는 결정 수단을 포함하고, 상기 낮은 복잡성 솔루션이 요구되는 경우 상기 변환 수단은 상기 깊이 맵 추정을 이용하여 상기 비-평면 이미지 클래스로 분류된 프레임들을 바로 변환하는, 장치.
  12. 제 11 항에 있어서,
    상기 프로세싱 수단은 상기 낮은 복잡성 솔루션이 요구되지 않는 경우 상기 비-평면 이미지 클래스로 분류된 상기 프레임을 다수의 세그멘팅된 영역으로 객체 세그멘팅하는 세그멘팅 수단 및 상기 세그멘팅된 영역들의 픽셀 깊이를 조정하는 조정 수단을 더 포함하는, 장치.
  13. 제 12 항에 있어서,
    상기 프로세싱 수단은 상기 비-평면 이미지 클래스로 분류된 상기 프레임을 프로세싱하기 위해 상기 현재 어플리케이션에 의해 높은 복잡성 솔루션 또는 중간의 복잡성 솔루션이 요구되는지를 결정하는 결정 수단을 더 포함하고, 상기 세그멘팅 수단은 상기 중간의 복잡성 솔루션이 요구되는 경우 오직 컬러 정보만을 사용하며, 상기 세그멘팅 수단은 상기 높은 복잡성 솔루션이 요구되는 경우 모션 추정 정보 및 컬러 정보를 사용하는, 장치.
  14. 제 13 항에 있어서,
    상기 프로세싱 수단은 제 1 출력을 형성하기 위해 상기 세그멘테이션 영역을 레이블링하는 연결된 컴포넌트 레이블링 수단; 제 2 출력을 형성하기 위해 상기 제 1 출력을 머징하는 컬러-기반 영역 머징 수단; 제 3 출력을 형성하기 위해 제 2 출력을 머징하는 모션-기반 영역 머징 수단; 제 4 출력을 형성하기 위해 상기 제 3 출력의 픽셀 깊이를 조정하는 픽셀 깊이 조정 수단 및 상기 제 4 출력을 시간 깊이 평활화하는 시간 깊이 평활화 수단을 더 포함하는, 장치.
  15. 제 10 항에 있어서,
    상기 분류 수단은 상기 프레임이 주밍된 씬에 대한 것인지 여부를 결정하는 결정 수단, 상기 프레임이 주밍된 씬에 대한 경우 상기 프레임을 상기 평면 이미지 클래스로 분류하는 수단 및 상기 프레임이 주밍된 씬에 대한 것이 아닌 경우 상기 프레임을 상기 비-평면 이미지 클래스로 분류하는 수단을 포함하는, 장치.
  16. 제 10 항에 있어서,
    상기 2D 입력은 오프라인 2D 이미지, 모노스코픽 이미지 및 이전에 레코딩된 2D 영화 중 하나를 포함하는 실 시간 2D 이미지인, 장치
  17. 제 10 항에 있어서,
    상기 변환 수단은 상기 평면 이미지 클래스로 분류된 상기 프레임을 좌측 뷰 및 우측 뷰 모두로서 할당하는 할당 수단을 포함하는, 장치.
  18. 제 10 항에 있어서,
    상기 변환 수단은 상기 비-평면 이미지 클래스로 분류된 상기 프레임을 좌측 뷰로 사용하는 수단, 상기 프레임의 상기 좌측 뷰에 대한 양안 시각 지오메트리의 좌측 및 우측 뷰 내의 이미지 포인트들 사이의 픽셀들에서의 거리에 기초하여 시차 맵을 계산하는 계산 수단, 구성된 3D 표면을 형성하기 위해 미싱한 우측 뷰 포인트로부터 3D 가시성 표면을 구성하는 구성 수단 및 상기 구성된 3D 표면을 투영 면에 투영함으로써 입체 뷰를 생성하는 생성 수단을 포함하는, 장치.
  19. 명령들을 구비한 컴퓨터 판독 가능 매체를 포함하는 컴퓨터 프로그램 제품으로서,
    상기 명령들은 컴퓨터로 하여금,
    2-차원 (2D) 입력을 해석하고,
    상기 2D 입력의 프레임을 평면 이미지 클래스 및 비-평면 이미지 클래스에서 선택된 클래스로 분류하고,
    깊이 맵 추정을 생성하기 위해 상기 비-평면 이미지 클래스로 분류된 프레임을 복잡성에 기초하여 자동적 및 적응적으로 프로세싱하고,
    상기 평면 이미지 클래스로 분류된 프레임들을 바로, 상기 비-평면 이미지 클래스로 분류된 프레임들을 상기 프로세싱 단계 이후에, 3D 입체 이미지로 변환하게 하는, 컴퓨터 판독 가능 매체를 포함하는 컴퓨터 프로그램 제품.
  20. 2-차원 (2D) 입력의 프레임을 제 1 이미지 클래스 또는 제 2 이미지 클래스로 분류하도록 동작가능한 이미지 분류 모듈;
    깊이 맵 추정을 생성하기 위해 상기 제 2 이미지 클래스로 분류된 프레임을 복잡성에 기초하여 자동적 및 적응적으로 프로세싱하도록 동작가능한 이미지 깊이- 맵 추정 모듈; 및
    상기 제 1 이미지 클래스로 분류된 프레임들을 바로, 상기 제 2 이미지 클래스로 분류된 프레임들을 상기 깊이 맵 추정을 사용하여 3D 입체 이미지로 변환하도록 동작가능한 3D 이미지 쌍 생성 모듈을 포함하는, 장치.
  21. 제 20 항에 있어서,
    상기 제 1 이미지 클래스는 평면 이미지를 포함하며 상기 제 2 이미지 클래스는 비-평면 이미지 클래스를 포함하는, 장치.
  22. 제 21 항에 있어서,
    상기 이미지 깊이-맵 추정 모듈은 상기 깊이 맵 추정을 추정하고, 현재 어플리케이션에 대해 낮은 복잡성 솔루션이 요구되는지 여부를 결정하고, 상기 낮은 복잡성 솔루션이 요구되는 경우 상기 깊이 맵 추정을 사용하여 상기 제 2 이미지 클래스로 분류된 프레임들을 바로 변환하도록 더 동작가능한, 장치.
  23. 제 22 항에 있어서,
    상기 이미지 깊이-맵 추정 모듈은 상기 낮은 복잡성 솔루션이 요구되지 않는 경우, 상기 제 2 이미지 클래스로 분류된 상기 프레임을 다수의 세그멘팅된 영역으로 객체 세그멘팅하고, 상기 세그멘팅된 영역의 픽셀 깊이를 조정하도록 더 동작가능한, 장치.
  24. 제 23 항에 있어서,
    상기 이미지 깊이-맵 추정 모듈은 상기 제 2 이미지 클래스로 분류된 상기 프레임을 프로세싱하기 위해 현재 어플리케이션에 의해 높은 복잡성 솔루션이 요구되는지 또는 중간의 복잡성 솔루션이 요구되는지를 결정하도록 동작가능하며, 상기 중간의 복잡성 솔루션이 요구되는 경우 상기 제 2 이미지 클래스가 오직 컬러 정보만을 사용하여 세그멘팅되며, 상기 높은 복잡성 솔루션이 요구되는 경우 모션 추정 정보 및 컬러 정보가 사용되는, 장치.
  25. 제 23 항에 있어서,
    상기 이미지 깊이-맵 추정 모듈은 제 1 출력을 형성하기 위해 세그멘테이션 영역을 연결된 컴포넌트 레이블링 (labeling) 하고, 제 2 출력을 형성하기 위해 상기 제 1 출력을 컬러-기반 영역 머징하고, 제 3 출력을 형성하기 위해 상기 제 2 출력을 모션-기반 영역 머징하고, 제 4 출력을 형성하기 위해 상기 제 3 출력의 픽셀 깊이를 조정하고, 상기 제 4 출력을 시간 깊이 평활화하도록 더 동작가능한, 장치.
  26. 제 21 항에 있어서,
    상기 이미지 분류 모듈은 상기 프레임이 주밍된 씬에 대한 것인지 여부를 결정하고, 상기 프레임이 주밍된 씬에 대한 경우 상기 프레임을 상기 평면 이미지로 분류하고, 상기 프레임이 주밍된 씬에 대한 것이 아닌 경우 상기 프레임을 상기 비-평면 이미지로 분류하도록 더 동작가능한, 장치.
  27. 제 20 항에 있어서,
    상기 2D 입력은 오프라인 2D 이미지, 모노스코픽 이미지 및 이전에 레코딩된 2D 영화 중 하나를 포함하는 실 시간 2D 이미지인, 장치.
  28. 제 20 항에 있어서,
    상기 3D 이미지 쌍 생성 모듈은 상기 제 1 이미지 클래스로 분류된 상기 프레임을 좌측 뷰 및 우측 뷰 모두로서 할당하도록 더 동작가능한, 장치.
  29. 제 20 항에 있어서,
    상기 3D 이미지 쌍 생성 모듈은 상기 제 2 이미지 클래스로 분류된 상기 프레임을 좌측 뷰로 사용하고, 상기 프레임의 상기 좌측 뷰에 대한 양안 시각 지오메트리의 좌측 및 우측 뷰 내의 이미지 포인트 사이의 픽셀에서의 거리에 기초하여 시차 맵을 계산하고, 구성된 3D 표면을 형성하기 위해 미싱한 우측 뷰포인트로부터 3D 가시성 표면을 구성하고, 상기 구성된 3D 표면을 투영 면에 투영함으로써 입체 뷰를 생성하도록 더 동작가능한, 장치.
  30. 제 20 항에 있어서,
    상기 장치는 비디오 기능을 구비한 모바일, 셀룰러 또는 위성 전화기, 모노스코픽 카메라, 비디오 디바이스, 랩탑, 태블릿 PC 또는 비디오 기능을 갖춘 다른 컴퓨팅 디바이스 중 하나를 포함하는, 장치.
KR1020097012261A 2006-12-22 2007-12-22 복잡성-적응형 2차원-대-3차원 비디오 시퀀스 변환 KR101096468B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/615,393 2006-12-22
US11/615,393 US8330801B2 (en) 2006-12-22 2006-12-22 Complexity-adaptive 2D-to-3D video sequence conversion
PCT/US2007/088758 WO2008080156A1 (en) 2006-12-22 2007-12-22 Complexity-adaptive 2d-to-3d video sequence conversion

Publications (2)

Publication Number Publication Date
KR20090080556A true KR20090080556A (ko) 2009-07-24
KR101096468B1 KR101096468B1 (ko) 2011-12-20

Family

ID=39326023

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020097012261A KR101096468B1 (ko) 2006-12-22 2007-12-22 복잡성-적응형 2차원-대-3차원 비디오 시퀀스 변환

Country Status (7)

Country Link
US (1) US8330801B2 (ko)
EP (1) EP2119247A1 (ko)
JP (1) JP4938861B2 (ko)
KR (1) KR101096468B1 (ko)
CN (1) CN101563933B (ko)
TW (1) TW200843479A (ko)
WO (1) WO2008080156A1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101157049B1 (ko) * 2010-03-29 2012-06-21 (주)루쏘코리아 3차원영상 제작시스템
US8749548B2 (en) 2011-09-01 2014-06-10 Samsung Electronics Co., Ltd. Display system with image conversion mechanism and method of operation thereof
KR20160054157A (ko) * 2014-11-05 2016-05-16 전자부품연구원 뎁스맵 등심선 생성 방법 및 시스템
KR101853269B1 (ko) * 2017-04-12 2018-06-14 주식회사 씨오티커넥티드 스테레오 이미지들에 관한 깊이 맵 스티칭 장치

Families Citing this family (132)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4618166B2 (ja) * 2006-03-07 2011-01-26 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
EP2130178A1 (en) * 2007-03-23 2009-12-09 Thomson Licensing System and method for region classification of 2d images for 2d-to-3d conversion
EP2201784B1 (en) * 2007-10-11 2012-12-12 Koninklijke Philips Electronics N.V. Method and device for processing a depth-map
JP5083052B2 (ja) * 2008-06-06 2012-11-28 ソニー株式会社 立体視画像生成装置、立体視画像生成方法およびプログラム
US8665258B2 (en) * 2008-09-16 2014-03-04 Adobe Systems Incorporated Generating a depth map based on a single image
US8345956B2 (en) * 2008-11-03 2013-01-01 Microsoft Corporation Converting 2D video into stereo video
KR20110097879A (ko) * 2008-11-24 2011-08-31 코닌클리케 필립스 일렉트로닉스 엔.브이. 3d 비디오와 보조 데이터의 조합
KR101491556B1 (ko) * 2008-12-02 2015-02-09 삼성전자주식회사 깊이 추정 장치 및 방법
KR101506926B1 (ko) * 2008-12-04 2015-03-30 삼성전자주식회사 깊이 추정 장치 및 방법, 및 3d 영상 변환 장치 및 방법
KR101547151B1 (ko) * 2008-12-26 2015-08-25 삼성전자주식회사 영상 처리 방법 및 장치
US8405742B2 (en) * 2008-12-30 2013-03-26 Massachusetts Institute Of Technology Processing images having different focus
CN101521829B (zh) * 2009-01-23 2014-01-08 浙江大学 一种深度图像序列处理的方法及装置
US8774512B2 (en) * 2009-02-11 2014-07-08 Thomson Licensing Filling holes in depth maps
GB2467932A (en) * 2009-02-19 2010-08-25 Sony Corp Image processing device and method
CN101815225B (zh) * 2009-02-25 2014-07-30 三星电子株式会社 生成深度图的方法及其设备
US9124874B2 (en) * 2009-06-05 2015-09-01 Qualcomm Incorporated Encoding of three-dimensional conversion information with two-dimensional video sequence
KR101719980B1 (ko) * 2010-06-22 2017-03-27 엘지전자 주식회사 3차원 컨텐츠를 출력하는 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 디스플레이 기기
CN101945295B (zh) * 2009-07-06 2014-12-24 三星电子株式会社 生成深度图的方法和设备
WO2011014419A1 (en) * 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for creating three-dimensional (3d) images of a scene
US9380292B2 (en) 2009-07-31 2016-06-28 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene
US20110025830A1 (en) * 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation
EP2293586A1 (en) * 2009-08-04 2011-03-09 Samsung Electronics Co., Ltd. Method and system to transform stereo content
EP2462539A4 (en) * 2009-08-04 2014-10-22 Shenzhen Tcl New Technology SYSTEMS AND METHOD FOR GENERATING THREE-DIMENSIONAL VIDEOS
JP2011060216A (ja) * 2009-09-14 2011-03-24 Fujifilm Corp 画像処理装置および画像処理方法
US8659592B2 (en) * 2009-09-24 2014-02-25 Shenzhen Tcl New Technology Ltd 2D to 3D video conversion
JP2011081453A (ja) 2009-10-02 2011-04-21 Toshiba Corp 映像再生装置及び映像再生方法
US9699434B2 (en) * 2009-10-07 2017-07-04 Samsung Electronics Co., Ltd. Apparatus and method for adjusting depth
KR101699920B1 (ko) * 2009-10-07 2017-01-25 삼성전자주식회사 깊이 조절 방법 및 장치
US8537200B2 (en) * 2009-10-23 2013-09-17 Qualcomm Incorporated Depth map generation techniques for conversion of 2D video data to 3D video data
WO2011060579A1 (en) * 2009-11-18 2011-05-26 Industrial Technology Research Institute Method for generating depth maps from monocular images and systems using the same
CN102474632A (zh) * 2009-12-08 2012-05-23 美国博通公司 处理多个3-d视频格式的方法和系统
US20120249751A1 (en) * 2009-12-14 2012-10-04 Thomson Licensing Image pair processing
US9491432B2 (en) 2010-01-27 2016-11-08 Mediatek Inc. Video processing apparatus for generating video output satisfying display capability of display device according to video input and related method thereof
KR101082545B1 (ko) * 2010-01-28 2011-11-10 주식회사 팬택 영상 변환 기능을 구비한 이동통신 단말기
US8520935B2 (en) * 2010-02-04 2013-08-27 Sony Corporation 2D to 3D image conversion based on image content
US9398289B2 (en) * 2010-02-09 2016-07-19 Samsung Electronics Co., Ltd. Method and apparatus for converting an overlay area into a 3D image
US20110199469A1 (en) * 2010-02-15 2011-08-18 Gallagher Andrew C Detection and display of stereo images
US20110222757A1 (en) 2010-03-10 2011-09-15 Gbo 3D Technology Pte. Ltd. Systems and methods for 2D image and spatial data capture for 3D stereo imaging
US8896668B2 (en) 2010-04-05 2014-11-25 Qualcomm Incorporated Combining data from multiple image sensors
US20110242355A1 (en) 2010-04-05 2011-10-06 Qualcomm Incorporated Combining data from multiple image sensors
CN101917636B (zh) * 2010-04-13 2012-02-22 上海易维视科技有限公司 复杂场景的二维视频转换为三维视频的方法及系统
US8421847B2 (en) * 2010-05-21 2013-04-16 Mediatek Inc. Apparatus and method for converting two-dimensional video frames to stereoscopic video frames
US8970672B2 (en) 2010-05-28 2015-03-03 Qualcomm Incorporated Three-dimensional image processing
US20110304706A1 (en) * 2010-06-09 2011-12-15 Border John N Video camera providing videos with perceived depth
US9053562B1 (en) 2010-06-24 2015-06-09 Gregory S. Rabin Two dimensional to three dimensional moving image converter
US8488870B2 (en) * 2010-06-25 2013-07-16 Qualcomm Incorporated Multi-resolution, multi-window disparity estimation in 3D video processing
TWI470994B (zh) * 2010-07-06 2015-01-21 Himax Media Solutions Inc 視訊顯示調整方法及視訊顯示調整裝置
US9344701B2 (en) 2010-07-23 2016-05-17 3Dmedia Corporation Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3D) content creation
US20120019616A1 (en) * 2010-07-26 2012-01-26 Chen wei hong 3D image capturing and playing device
US20120019528A1 (en) * 2010-07-26 2012-01-26 Olympus Imaging Corp. Display apparatus, display method, and computer-readable recording medium
US8654144B2 (en) * 2010-08-06 2014-02-18 Vp Assets Limited (British Virgin Islands) 3D/2D multiprimary color image device and method for controlling the same
US9013552B2 (en) * 2010-08-27 2015-04-21 Broadcom Corporation Method and system for utilizing image sensor pipeline (ISP) for scaling 3D images based on Z-depth information
US8655093B2 (en) * 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
KR20120023431A (ko) * 2010-09-03 2012-03-13 삼성전자주식회사 깊이 조정이 가능한 2차원/3차원 영상 변환 방법 및 그 장치
WO2012035783A1 (ja) * 2010-09-17 2012-03-22 パナソニック株式会社 立体映像作成装置および立体映像作成方法
EP2434764A1 (en) * 2010-09-23 2012-03-28 Thomson Licensing Adaptation of 3D video content
EP2437220A1 (en) * 2010-09-29 2012-04-04 Alcatel Lucent Method and arrangement for censoring content in three-dimensional images
US20120256906A1 (en) * 2010-09-30 2012-10-11 Trident Microsystems (Far East) Ltd. System and method to render 3d images from a 2d source
US20120105581A1 (en) * 2010-10-29 2012-05-03 Sony Corporation 2d to 3d image and video conversion using gps and dsm
US9185388B2 (en) 2010-11-03 2015-11-10 3Dmedia Corporation Methods, systems, and computer program products for creating three-dimensional video sequences
US20120120190A1 (en) * 2010-11-16 2012-05-17 Hung-Chia Lee Display device for use in a frame sequential 3d display system and related 3d display system
US20120120191A1 (en) * 2010-11-17 2012-05-17 Hung-Chia Lee Image processor for use in a frame sequential 3d display system and related 3d display system
KR20120059367A (ko) * 2010-11-30 2012-06-08 삼성전자주식회사 에너지값을 이용한 이미지 처리 장치와 그 이미지 처리 방법 및 디스플레이 방법
AU2011348121B2 (en) * 2010-12-22 2016-08-18 Legend 3D, Inc. System and method for minimal iteration workflow for image sequence depth enhancement
JP2012138787A (ja) * 2010-12-27 2012-07-19 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
US10200671B2 (en) 2010-12-27 2019-02-05 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
US8274552B2 (en) 2010-12-27 2012-09-25 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
JP2012141240A (ja) * 2011-01-05 2012-07-26 Ricoh Co Ltd 測距装置、測距方法および撮像装置、撮像方法
TWI493960B (zh) * 2011-01-07 2015-07-21 Himax Media Solutions Inc 用於場序式三維顯示系統之影像處理器及相關三維顯示系統
US8861836B2 (en) * 2011-01-14 2014-10-14 Sony Corporation Methods and systems for 2D to 3D conversion from a portrait image
CA2806520C (en) * 2011-01-23 2016-02-16 Extreme Reality Ltd. Methods, systems, devices and associated processing logic for generating stereoscopic images and video
TWI463434B (zh) * 2011-01-28 2014-12-01 Chunghwa Picture Tubes Ltd 將2d影像形成3d影像之影像處理方法
US9338424B2 (en) 2011-02-23 2016-05-10 Koninklijlke Philips N.V. Processing depth data of a three-dimensional scene
US9020241B2 (en) * 2011-03-03 2015-04-28 Panasonic Intellectual Property Management Co., Ltd. Image providing device, image providing method, and image providing program for providing past-experience images
CN102685517B (zh) * 2011-03-09 2015-01-28 联想(北京)有限公司 一种实现2d图像转3d图像的装置、方法和系统
TWI419078B (zh) * 2011-03-25 2013-12-11 Univ Chung Hua 即時立體影像產生裝置與方法
CN102111637A (zh) * 2011-03-29 2011-06-29 清华大学 生成立体视频深度图的方法及装置
US9470778B2 (en) * 2011-03-29 2016-10-18 Microsoft Technology Licensing, Llc Learning from high quality depth measurements
US8655055B2 (en) * 2011-05-04 2014-02-18 Texas Instruments Incorporated Method, system and computer program product for converting a 2D image into a 3D image
EP2525581A3 (en) * 2011-05-17 2013-10-23 Samsung Electronics Co., Ltd. Apparatus and Method for Converting 2D Content into 3D Content, and Computer-Readable Storage Medium Thereof
US20120293489A1 (en) * 2011-05-20 2012-11-22 Himax Technologies Limited Nonlinear depth remapping system and method thereof
TWI481262B (zh) 2011-07-28 2015-04-11 Ind Tech Res Inst 影像編碼系統及影像編碼方法
US20130070049A1 (en) * 2011-09-15 2013-03-21 Broadcom Corporation System and method for converting two dimensional to three dimensional video
TWI450576B (zh) * 2011-10-05 2014-08-21 Himax Media Solutions Inc 影像處理裝置與影像處理方法
AU2012318854B2 (en) 2011-10-05 2016-01-28 Bitanimate, Inc. Resolution enhanced 3D video rendering systems and methods
US9471988B2 (en) 2011-11-02 2016-10-18 Google Inc. Depth-map generation for an input image using an example approximate depth-map associated with an example similar image
US9672609B1 (en) * 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
US9661307B1 (en) 2011-11-15 2017-05-23 Google Inc. Depth map generation using motion cues for conversion of monoscopic visual content to stereoscopic 3D
CN103152586B (zh) * 2011-12-06 2016-01-13 北京大学深圳研究生院 一种基于深度模板的2d视频转3d视频传输及重建方法
US9236024B2 (en) 2011-12-06 2016-01-12 Glasses.Com Inc. Systems and methods for obtaining a pupillary distance measurement using a mobile computing device
US9414048B2 (en) 2011-12-09 2016-08-09 Microsoft Technology Licensing, Llc Automatic 2D-to-stereoscopic video conversion
US8897542B2 (en) * 2011-12-15 2014-11-25 Sony Corporation Depth map generation based on soft classification
TWI483612B (zh) * 2011-12-22 2015-05-01 Nat Univ Chung Cheng Converting the video plane is a perspective view of the video system
US9137519B1 (en) * 2012-01-04 2015-09-15 Google Inc. Generation of a stereo video from a mono video
EP2801198B1 (en) * 2012-01-04 2023-10-11 InterDigital Madison Patent Holdings, SAS Processing 3d image sequences
KR20130084341A (ko) * 2012-01-17 2013-07-25 삼성전자주식회사 이미지 변환 메커니즘을 갖는 디스플레이 시스템 및 그 운용 방법
US9111350B1 (en) 2012-02-10 2015-08-18 Google Inc. Conversion of monoscopic visual content to stereoscopic 3D
JP5923595B2 (ja) 2012-03-28 2016-05-24 富士フイルム株式会社 画像処理装置及び方法並びに撮像装置
CN102630029A (zh) * 2012-03-31 2012-08-08 彩虹集团公司 一种基于对比度统计实现2d 转3d 的方法
US9031316B2 (en) * 2012-04-05 2015-05-12 Mediatek Singapore Pte. Ltd. Method for identifying view order of image frames of stereo image pair according to image characteristics and related machine readable medium thereof
US9384581B2 (en) * 2012-04-20 2016-07-05 Affirmation, Llc Systems and methods for real-time conversion of video into three-dimensions
EP2658265B1 (en) * 2012-04-24 2014-08-20 Vestel Elektronik Sanayi ve Ticaret A.S. Adaptive depth offset calculation for an image
US9286715B2 (en) 2012-05-23 2016-03-15 Glasses.Com Inc. Systems and methods for adjusting a virtual try-on
US9483853B2 (en) 2012-05-23 2016-11-01 Glasses.Com Inc. Systems and methods to display rendered images
US9235929B2 (en) 2012-05-23 2016-01-12 Glasses.Com Inc. Systems and methods for efficiently processing virtual 3-D data
US8644596B1 (en) * 2012-06-19 2014-02-04 Google Inc. Conversion of monoscopic visual content using image-depth database
JP5962393B2 (ja) * 2012-09-28 2016-08-03 株式会社Jvcケンウッド 画像処理装置、画像処理方法及び画像処理プログラム
NL2009616C2 (en) * 2012-10-11 2014-04-14 Ultra D Co Peratief U A Adjusting depth in a three-dimensional image signal.
US9460119B2 (en) * 2012-10-25 2016-10-04 Nec Corporation Information processing device, information processing method, and recording medium
US9098911B2 (en) 2012-11-01 2015-08-04 Google Inc. Depth map generation from a monoscopic image based on combined depth cues
EP2959684A4 (en) * 2013-02-20 2016-11-09 Intel Corp REAL-TIME AUTOMATIC CONVERSION OF IMAGES OR TWO-DIMENSIONAL VIDEO TO OBTAIN STEREO IMAGES OR VIDEO IN THREE DIMENSIONS
US9992021B1 (en) 2013-03-14 2018-06-05 GoTenna, Inc. System and method for private and point-to-point communication between computing devices
US9674498B1 (en) 2013-03-15 2017-06-06 Google Inc. Detecting suitability for converting monoscopic visual content to stereoscopic 3D
US9967549B2 (en) * 2013-03-20 2018-05-08 Mediatek Inc. 3D image capture method with 3D preview of preview images generated by monocular camera and related electronic device thereof
EP3058724A2 (en) * 2013-10-14 2016-08-24 Koninklijke Philips N.V. Remapping a depth map for 3d viewing
US20150103146A1 (en) * 2013-10-16 2015-04-16 Qualcomm Incorporated Conversion of at least one non-stereo camera into a stereo camera
KR101694522B1 (ko) * 2014-02-11 2017-01-10 한국전자통신연구원 2차원 동영상을 3차원 동영상으로 변환하는 방법 및 장치
WO2015191768A1 (en) * 2014-06-10 2015-12-17 Bitanimate, Inc Stereoscopic video zooming and foreground and background detection in a video
EP3213504B1 (en) 2014-10-28 2022-04-13 Hewlett-Packard Development Company, L.P. Image data segmentation
CN104616341A (zh) * 2015-02-06 2015-05-13 浪潮集团有限公司 一种图像处理方法
KR102286572B1 (ko) * 2015-03-04 2021-08-06 한국전자통신연구원 2d 동영상으로부터 새로운 3d 입체 동영상 제작을 위한 장치 및 방법
US10019657B2 (en) * 2015-05-28 2018-07-10 Adobe Systems Incorporated Joint depth estimation and semantic segmentation from a single image
US10346996B2 (en) 2015-08-21 2019-07-09 Adobe Inc. Image depth inference from semantic labels
CN105631868A (zh) * 2015-12-25 2016-06-01 清华大学深圳研究生院 一种基于图像分类的深度信息提取方法
TWI550556B (zh) * 2015-12-28 2016-09-21 A Method of Establishing Stereo Image Model by Kalman Filtering
US10560683B2 (en) 2016-04-08 2020-02-11 Maxx Media Group, LLC System, method and software for producing three-dimensional images that appear to project forward of or vertically above a display medium using a virtual 3D model made from the simultaneous localization and depth-mapping of the physical features of real objects
CN107465939B (zh) * 2016-06-03 2019-12-06 杭州海康机器人技术有限公司 视频图像数据流的处理方法及装置
US10735707B2 (en) * 2017-08-15 2020-08-04 International Business Machines Corporation Generating three-dimensional imagery
KR102468897B1 (ko) 2017-10-16 2022-11-21 삼성전자주식회사 깊이 값을 추정하는 방법 및 장치
DE102018221625A1 (de) 2018-12-13 2020-06-18 Robert Bosch Gmbh Transfer von Zusatzinformation zwischen Kamerasystemen
CN110290374A (zh) * 2019-06-28 2019-09-27 宝琳创展国际文化科技发展(北京)有限公司 一种裸眼3d的实现方法
US11503266B2 (en) * 2020-03-06 2022-11-15 Samsung Electronics Co., Ltd. Super-resolution depth map generation for multi-camera or other environments

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6590573B1 (en) * 1983-05-09 2003-07-08 David Michael Geshwind Interactive computer system for creating three-dimensional image information and for converting two-dimensional image information for three-dimensional display systems
US6553184B1 (en) * 1994-03-14 2003-04-22 Sanyo Electric Co., Ltd. Method of converting two dimensional images into three-dimensional images
US5790086A (en) * 1995-01-04 1998-08-04 Visualabs Inc. 3-D imaging system
AUPO894497A0 (en) 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
US20050146521A1 (en) * 1998-05-27 2005-07-07 Kaye Michael C. Method for creating and presenting an accurate reproduction of three-dimensional images converted from two-dimensional images
US7116324B2 (en) * 1998-05-27 2006-10-03 In-Three, Inc. Method for minimizing visual artifacts converting two-dimensional motion pictures into three-dimensional motion pictures
KR100334722B1 (ko) * 1999-06-05 2002-05-04 강호석 Mpeg 데이터를 이용한 입체영상생성방법 및 그 장치
US7161614B1 (en) * 1999-11-26 2007-01-09 Sanyo Electric Co., Ltd. Device and method for converting two-dimensional video to three-dimensional video
JP2001320731A (ja) 1999-11-26 2001-11-16 Sanyo Electric Co Ltd 2次元映像を3次元映像に変換する装置及びその方法
US7489812B2 (en) 2002-06-07 2009-02-10 Dynamic Digital Depth Research Pty Ltd. Conversion and encoding techniques
WO2004077349A2 (en) * 2003-02-27 2004-09-10 Arizona Board Of Regents, A Body Corporate Of The State Of Arizona, Acting For And On Behal Of Arizona State University Comparative and analytic apparatus and method for converting two-dimensional bit map data into three-dimensional data
JP2004280388A (ja) 2003-03-14 2004-10-07 Sharp Corp 擬似3d画像作製装置及びプロジェクタ装置
US20040212612A1 (en) 2003-04-28 2004-10-28 Michael Epstein Method and apparatus for converting two-dimensional images into three-dimensional images
ITMI20031449A1 (it) * 2003-07-15 2005-01-16 St Microelectronics Srl Metodo per classificare una immagine digitale
JP4214976B2 (ja) 2003-09-24 2009-01-28 日本ビクター株式会社 擬似立体画像作成装置及び擬似立体画像作成方法並びに擬似立体画像表示システム
CA2553473A1 (en) * 2005-07-26 2007-01-26 Wa James Tam Generating a depth map from a tw0-dimensional source image for stereoscopic and multiview imaging
US7292195B2 (en) * 2005-07-26 2007-11-06 Motorola, Inc. Energy diversity antenna and system
RU2411690C2 (ru) * 2005-12-02 2011-02-10 Конинклейке Филипс Электроникс Н.В. Способ и устройство отображения стереоскопического изображения, способ для создания данных 3d изображения из входных данных 2d изображения и устройство для создания данных 3d изображения из входных данных 2d изображения
US7573475B2 (en) * 2006-06-01 2009-08-11 Industrial Light & Magic 2D to 3D image conversion
TWI314832B (en) * 2006-10-03 2009-09-11 Univ Nat Taiwan Single lens auto focus system for stereo image generation and method thereof
US8610758B2 (en) * 2009-12-15 2013-12-17 Himax Technologies Limited Depth map generation for a video conversion system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101157049B1 (ko) * 2010-03-29 2012-06-21 (주)루쏘코리아 3차원영상 제작시스템
US8749548B2 (en) 2011-09-01 2014-06-10 Samsung Electronics Co., Ltd. Display system with image conversion mechanism and method of operation thereof
KR20160054157A (ko) * 2014-11-05 2016-05-16 전자부품연구원 뎁스맵 등심선 생성 방법 및 시스템
KR101853269B1 (ko) * 2017-04-12 2018-06-14 주식회사 씨오티커넥티드 스테레오 이미지들에 관한 깊이 맵 스티칭 장치

Also Published As

Publication number Publication date
WO2008080156A1 (en) 2008-07-03
EP2119247A1 (en) 2009-11-18
JP2010515303A (ja) 2010-05-06
TW200843479A (en) 2008-11-01
KR101096468B1 (ko) 2011-12-20
CN101563933A (zh) 2009-10-21
CN101563933B (zh) 2012-02-08
US8330801B2 (en) 2012-12-11
JP4938861B2 (ja) 2012-05-23
US20080150945A1 (en) 2008-06-26

Similar Documents

Publication Publication Date Title
KR101096468B1 (ko) 복잡성-적응형 2차원-대-3차원 비디오 시퀀스 변환
US20210314547A1 (en) Methods, systems, and computer-readable storage media for generating three-dimensional (3d) images of a scene
KR101452172B1 (ko) 깊이―관련 정보를 처리하기 위한 방법, 장치 및 시스템
US8508580B2 (en) Methods, systems, and computer-readable storage media for creating three-dimensional (3D) images of a scene
CA2704479C (en) System and method for depth map extraction using region-based filtering
KR101038402B1 (ko) 모노스코픽 저전력 이동 디바이스에 의한 스테레오 이미지 및 비디오의 실-시간 포착 및 생성
RU2587425C2 (ru) Способ получения карты глубины изображения повышенного качества
CN106981078B (zh) 视线校正方法、装置、智能会议终端及存储介质
JP2015188234A (ja) グローバル動きに基づく深度の推定
KR100953076B1 (ko) 객체 또는 배경 분리를 이용한 다시점 정합 방법 및 장치
US20150379720A1 (en) Methods for converting two-dimensional images into three-dimensional images
WO2008156450A1 (en) System and method for stereo matching of images
EP2608554B1 (en) Method and apparatus of determining perspective model for depth map generation by utilizing region-based analysis and/or temporal smoothing
Zhang et al. Interactive stereoscopic video conversion
JP5210416B2 (ja) 立体画像生成装置、立体画像生成方法、プログラム、および記録媒体
Shih et al. A depth refinement algorithm for multi-view video synthesis
KR101626679B1 (ko) 2d 영상으로부터 입체 영상을 생성하는 방법 및 이를 기록한 기록 매체
Priya et al. 3d Image Generation from Single 2d Image using Monocular Depth Cues
Xu et al. Comprehensive depth estimation algorithm for efficient stereoscopic content creation in three-dimensional video systems
JP3992607B2 (ja) 距離画像生成装置および方法並びにそのためのプログラムおよび記録媒体
Riyazudeen et al. Comparative Study on 2D to 3D Medical Image Conversion Techniques
KR101578030B1 (ko) 이벤트 발생 장치 및 방법
Disilva et al. Reliable Stereo Matching with Depth Measurement in Videos

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee