KR102111181B1 - 어레이 카메라를 사용하여 포착된 영상에서의 시차 검출 및 보정을 위한 시스템 및 방법 - Google Patents

어레이 카메라를 사용하여 포착된 영상에서의 시차 검출 및 보정을 위한 시스템 및 방법 Download PDF

Info

Publication number
KR102111181B1
KR102111181B1 KR1020157006433A KR20157006433A KR102111181B1 KR 102111181 B1 KR102111181 B1 KR 102111181B1 KR 1020157006433 A KR1020157006433 A KR 1020157006433A KR 20157006433 A KR20157006433 A KR 20157006433A KR 102111181 B1 KR102111181 B1 KR 102111181B1
Authority
KR
South Korea
Prior art keywords
images
image
series
pixels
depth
Prior art date
Application number
KR1020157006433A
Other languages
English (en)
Other versions
KR20150046113A (ko
Inventor
카르틱 벤카타라만
가브리엘 모리나
댄 레레스쿠
플로리안 시우레아
Original Assignee
포토내이션 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 포토내이션 리미티드 filed Critical 포토내이션 리미티드
Publication of KR20150046113A publication Critical patent/KR20150046113A/ko
Application granted granted Critical
Publication of KR102111181B1 publication Critical patent/KR102111181B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0075Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/232Image signal generators using stereoscopic image cameras using a single 2D image sensor using fly-eye lenses, e.g. arrangements of circular lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
    • H04N23/16Optical arrangements associated therewith, e.g. for beam-splitting or for colour correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/21Indexing scheme for image data processing or generation, in general involving computational photography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0088Synthesising a monoscopic image signal from stereoscopic images, e.g. synthesising a panoramic or high resolution monoscopic image

Abstract

본 발명의 실시예들에 따른 시스템은 어레이 카메라들을 사용하여 포착된 영상들에서 시차 검출 및 보정을 수행할 수 있다. 카메라들의 상이한 시점들로 인해, 시차는 장면의 포착된 영상들 내의 객체들의 위치의 변동을 초래한다. 본 발명의 실시예들에 따른 방법들은 어레이에서의 상이한 카메라들 사이의 시차로 인한 픽셀 불일치의 정확한 설명을 제공하고, 따라서 초해상도 처리(super-resolution processing)를 수행할 때 적절한 장면 의존적인 기하학적 시프트들이 포착된 영상들의 픽셀들에 적용될 수 있다. 몇몇 실시예들에서, 시차를 검출하는 것은 기준 시점으로부터의 영상에서의 픽셀 위치의 깊이를 추정하기 위해 영상들의 경쟁하는 서브셋들을 사용하는 것을 포함한다. 다수의 실시예들에서, 깊이 추정치들을 발생시키는 것은 다수의 스펙트럼 채널들에서의 픽셀들의 유사도를 고려한다. 특정의 실시예들에서, 깊이 추정치들을 발생시키는 것은 깊이 추정치들의 신뢰성을 나타내는 신뢰도 맵을 발생시키는 것을 포함한다.

Description

어레이 카메라를 사용하여 포착된 영상에서의 시차 검출 및 보정을 위한 시스템 및 방법{SYSTEMS AND METHODS FOR PARALLAX DETECTION AND CORRECTION IN IMAGES CAPTURED USING ARRAY CAMERAS}
본 발명은 일반적으로 디지털 카메라에 관한 것이며, 보다 구체적으로는 어레이 카메라(array camera)들을 사용하여 포착된 영상에서의 시차(parallax)의 검출 및 보정에 관한 것이다.
장면의 양안 관찰(binocular viewing)은 각각의 눈의 상이한 시야들로 인해 장면의 2개의 약간 상이한 영상들을 생성한다. 양안 불일치(binocular disparity)(또는 시차(parallax))라고 하는 이 차이들은 깊이 지각(depth perception)의 주된 수단을 제공하는, 시각적 장면(visual scene)에서의 깊이를 계산하는 데 사용될 수 있는 정보를 제공한다. 입체 깊이 지각(stereoscopic depth perception)과 연관된 깊이의 느낌(impression)도 관측자가 움직이는 동안 하나의 눈으로만 장면을 볼 때와 같은 다른 조건들 하에서 획득될 수 있다. 장면 내의 객체들에 대한 깊이 정보를 획득하기 위해 관측된 시차가 이용될 수 있다. 기계 시각(machine vision)에서의 유사한 원리들이 깊이 정보를 수집하기 위해 사용될 수 있다.
일정 거리만큼 떨어져 있는 2개 이상의 카메라들이 동일한 장면의 사진들을 찍을 수 있고, 포착된 영상들은 일치하는 영상들의 부분들을 찾기 위해 2개 이상의 영상들의 픽셀들을 시프트(shift)시키는 것에 의해 비교될 수 있다. 객체가 상이한 카메라 뷰들 사이에서 시프트하는 양은 객체까지의 거리에 역비례하는 불일치(disparity)라고 불리운다. 다수의 영상들에서의 객체의 시프트를 검출하는 불일치 탐색은 카메라들 사이의 기준선 거리(baseline distance) 및 연관된 카메라들의 초점 거리(focal length)에 기초하여 객체까지의 거리를 계산하는 데 사용될 수 있다. 입체 3차원 영상들을 발생시키기 위해 2개 이상의 카메라들을 사용하는 접근 방법은 흔히 다시점 스테레오(multi-view stereo)라고 한다.
다시점 스테레오는 일반적으로 다음과 같은 구성요소들의 면에서 기술될 수 있다: 정합 기준(matching criterion), 집계 방법(aggregation method), 및 승자 선택(winner selection). 정합 기준은 상이한 영상들에 걸쳐 픽셀들 또는 영역들의 유사도(similarity)를 측정하는 수단으로서 사용된다. 전형적인 오차 척도(error measure)는 영상들 간의 RGB 또는 명도(intensity) 차이이다(이 차이들이 제곱될 수 있거나, 강건한 척도들이 사용될 수 있다). 일부 방법들은 국소 오차 표면(local error surface)의 해석적 최소(analytic minimum)를 계산하는 것에 의해 서브픽셀 불일치(subpixel disparity)를 계산하거나 경사 기반(gradient-based) 기법들을 사용한다. 하나의 방법은 하나의 영상에서의 픽셀과 다른 영상에서의 보간된 명도 함수(intensity function) 간의 최소 차이를 구하는 것을 포함한다. 집계 방법은 탐색 공간(search space)에 걸친 오차 함수(error function)가 계산되거나 누적되는 방식을 말한다. 가장 직접적인 방식은 다수의 카메라들에 대해 소정의 불일치 공간(disparity space)에 걸쳐 고정된 크기의 탐색 창(search window)들을 적용하는 것이다. 다른 방식들은 적응 창(adaptive window), 이동 창(shiftable window), 또는 다중 마스크(multiple mask)를 사용한다. 다른 일련의 방법들은 3D 공간에서의 투표(vote)들을 누적한다(예컨대, 공간 스위프(space sweep) 접근 방법 및 복셀 컬러링(voxel coloring) 및 그 변형들). 초기의 또는 집계된 정합 비용(matching cost)들이 계산되면, 각각의 픽셀에 대한 올바른 불일치 할당(disparity assignment)에 관한 결정이 행해진다. 국소 방법들은, 전형적으로 최소의 집계된 값을 갖는 불일치를 선택하는 것에 의해, 각각의 픽셀에서 독립적으로 이것을 행한다. 최상의 할당들에 대해 반복하여 결정하기 위해 협력/경쟁 알고리즘들이 사용될 수 있다. 일반 명도 유사도 정합(general intensity similarity match)들 또는 에지 특징(edge feature)들과 연관된 깊이들을 계산하기 위해 동적 프로그래밍이 사용될 수 있다. 이 접근 방법들은 깊이 불연속 및 부정합 영역들을 처리하기 위해 에피폴라 라인(epipolar line)을 따라 1차원 순서 제약사항(ordering constraint)들을 이용할 수 있다. 또 다른 부류의 방법들은 스테레오 정합(stereo matching)을, 시뮬레이티드 어닐링(simulated annealing) 및 그래프 컷(graph cut)과 같은 전역적 방법들에 의해 해결될 수 있는 전역 최적화 문제(global optimization problem)로서 정형화한다.
보다 최근에, 연구자들은 명시야 영상(light field image)들을 포착하기 위해 보다 넓은 합성 개구(synthetic aperture)에 걸쳐 있는 다수의 카메라들(예컨대, 스탠포드 다중 카메라 어레이(Stanford Multi-Camera Array))을 사용하였다. 장면 내의 모든 지점들에서의 모든 방향으로부터의 광을 특징지우는 4D 함수로서 종종 정의되는 명시야는 장면의 2차원(2D) 영상들의 2D 컬렉션(2D collection)으로서 해석될 수 있다. 실제의 제약사항들로 인해, 명시야를 형성하는 장면의 2D 영상들의 컬렉션을 동시에 포착하는 일은 통상적으로 어렵다. 그렇지만, 영상 데이터가 카메라들 각각에 의해 포착되는 시간이 가까울수록, 광 세기(예컨대, 형광등의 다른 방식으로는 지각가능하지 않은 플리커(flicker)) 또는 객체 움직임의 그 변동이 포착된 영상들 간의 시간 의존적 변동을 초래할 가능성이 적다. 큰 개구를 갖는 카메라들을 시뮬레이트하기 위해 명시야를 포착 및 재샘플링하는 것을 포함하는 프로세스들이 이용될 수 있다. 예를 들어, 장면 쪽으로 향해 있는 M x N 카메라들의 어레이는 그 어레이만큼 큰 렌즈의 집속 효과(focusing effect)들을 시뮬레이트할 수 있다. 카메라 어레이들을 이와 같이 사용하는 것은 합성 개구 사진 기법(synthetic aperture photography)이라고 할 수 있다.
스테레오 정합이 원래 한 쌍의 영상들로부터 3D 형상을 복구하는 것으로서 정형화되었지만, 카메라 어레이를 사용하여 포착된 명시야는 또한 스테레오 정합에서 사용된 것들과 유사한 알고리즘들을 사용하여 3D 형상을 재구성하는 데 사용될 수 있다. 보다 많은 영상들이 부가될 때, 문제는 부분적으로 폐색된 영역(partially occluded region)들(전부가 아닌 일부 영상들에서 보이는 픽셀들)의 존재가 또한 증가한다는 것이다.
본 발명의 실시예들에 따른 시스템 및 방법은 어레이 카메라들을 사용하여 포착된 영상들에서 시차 검출 및 보정을 수행할 수 있다. 영상 처리 애플리케이션에 의해 구성된 프로세서를 사용하여 상이한 시점(viewpoint)들로부터 포착된 일련의 영상들을 포함하는 명시야로부터의 장면 내의 객체들까지의 거리를 추정하는 본 발명의 방법의 일 실시예는 상이한 시점들로부터 포착된 일련의 영상들의 시점들에 대한 기준 시점(reference viewpoint)을 선택하는 단계; 일련의 영상들 내의 대응하는 픽셀들의 유사도를 증가시키기 위해 일련의 영상들을 정규화하는 단계; 및 일련의 영상들의 적어도 하나의 서브셋을 사용하여 기준 시점으로부터의 영상에서의 픽셀 위치들에 대한 초기 깊이 추정치들을 결정하는 단계를 포함하고, 여기서 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 초기 깊이 추정치는 복수의 깊이들에서의 예상된 불일치에 기초하여 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대응하는 일련의 영상들의 적어도 하나의 서브셋에서의 픽셀들을 식별하는 것; 복수의 깊이들 각각에서 식별된 대응하는 픽셀들의 유사도를 비교하는 것; 및 식별된 대응하는 픽셀들이 가장 높은 정도의 유사도를 가지는 복수의 깊이들 중의 깊이를 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 초기 깊이 추정치로서 선택하는 것에 의해 결정된다. 그에 부가하여, 본 방법은 초기 깊이 추정치들을 사용하여 일련의 영상들에서의 대응하는 픽셀들을 식별하는 단계; 및 부정합 픽셀들을 검출하기 위해 일련의 영상들에서의 대응하는 픽셀들의 유사도를 비교하는 단계를 포함한다. 초기 깊이 추정치로부터, 일련의 영상들에서의 대응하는 픽셀들 간의 부정합이 검출되지 않을 때, 초기 깊이 추정치를 기준 시점으로부터의 영상에서의 픽셀 위치에 대한 현재의 깊이 추정치로서 선택한다. 초기 깊이 추정치로부터, 일련의 영상들에서의 대응하는 픽셀들 간의 부정합이 검출될 때, 일련의 영상들의 복수의 상이한 서브셋들을 사용하여 일련의 후보 깊이 추정치들을 결정하는 것; 후보 깊이 추정치들에 기초하여 일련의 영상들의 복수의 서브셋들 각각에서의 대응하는 픽셀들을 식별하는 것; 및 가장 유사한 대응하는 픽셀들을 가지는 서브셋의 후보 깊이를 기준 시점으로부터의 영상에서의 픽셀 위치에 대한 현재의 깊이 추정치로서 선택하는 것에 의해 기준 시점으로부터의 영상에서의 픽셀 위치에 대한 현재의 깊이 추정치를 선택한다.
추가의 실시예에서, 상이한 시점들로부터 포착된 일련의 영상들의 시점들에 대한 기준 시점을 선택하는 단계는, 영상들 중 하나의 영상의 시점; 및 가상 시점(virtual viewpoint)으로 이루어진 세트로부터 시점을 선택하는 단계를 포함한다.
다른 실시예에서, 기준 시점으로부터의 영상에서의 픽셀 위치에 대응하는 일련의 영상들 중의 주어진 영상에서의 픽셀은, 기준 시점으로부터의 영상에서의 픽셀 위치의 깊이 추정치; 및 주어진 영상의 시점과 기준 시점 간의 기준선(baseline)에 기초하여 결정되는 장면 의존적인 시프트(scene dependent shift)를 기준 시점으로부터의 영상에서의 픽셀 위치에 적용하는 것에 의해 결정된다.
다른 추가의 실시예에서, 기준 시점으로부터의 영상에서의 주어진 픽셀 위치가 서브셋 내의 각각의 영상에서 보이는 적어도 하나의 서브셋을 초래할 가능성이 있는 자연 장면들의 가시성 특성(visibility characteristic)의 패턴들을 이용하기 위해, 일련의 후보 깊이 추정치들을 결정하는 데 사용되는 일련의 영상들의 서브셋들이 일련의 영상들에서의 영상들의 시점들에 기초하여 선택된다.
또 다른 실시예에서, 일련의 영상들이 다수의 색상 채널(color channel)들 내에서 포착되고; 상이한 시점들로부터 포착된 일련의 영상들의 시점들에 대한 기준 시점을 선택하는 단계는, 영상들 중 하나를 기준 영상으로서 선택하고 기준 영상의 시점을 기준 시점으로서 선택하는 단계를 포함하고; 일련의 후보 깊이 추정치들을 결정하는 데 사용되는 일련의 영상들의 서브셋들은 기준 영상을 포함하는 색상 채널에서의 동일한 수의 영상들이 각각의 서브셋에 나타나도록 선택된다.
다른 추가의 실시예에서, 일련의 후보 깊이 추정치들을 결정하는 데 사용되는 일련의 영상들의 서브셋들은 또한 각각의 서브셋에 기준 영상을 포함하지 않는 색상 채널들에 적어도 2개의 영상들이 있도록 선택된다.
또 다른 실시예는 또한 현재의 깊이 추정치들을 사용하여 일련의 영상들에서의 대응하는 픽셀들을 식별하는 것; 및 주어진 영상에서의 픽셀이 대응하는 픽셀들의 비교에 기초하여 결정된 측광 유사도 기준(photometric similarity criterion)을 충족시키지 못할 때, 픽셀이 기준 시점으로부터의 영상에서 보이지 않는 것으로 결정하는 것에 의해 기준 시점으로부터의 일련의 영상들에서의 픽셀들의 가시성(visibility)을 결정하는 단계를 포함한다.
추가의 실시예에서도, 상이한 시점들로부터 포착된 일련의 영상들의 시점들에 대한 기준 시점을 선택하는 단계는, 일련의 영상들에서의 영상들 중 하나를 기준 영상으로서 선택하고 기준 영상의 시점을 기준 시점으로서 선택하는 단계를 포함하고; 주어진 영상에서의 픽셀이 대응하는 픽셀들의 비교에 기초하여 결정된 측광 유사도 기준을 충족시키지 못할 때, 픽셀이 기준 시점으로부터의 영상에서 보이지 않는 것으로 결정하는 단계는, 주어진 영상에서의 픽셀을 기준 영상에서의 대응하는 픽셀과 비교하는 단계를 더 포함한다.
다른 실시예에서도, 측광 유사도 기준은 적어도, 주어진 영상에서의 픽셀 및 기준 영상에서의 픽셀 중 적어도 하나의 픽셀의 명도에 기초하여 적응하는 유사도 임계치(similarity threshold)를 포함한다.
추가의 부가적인 실시예에서, 측광 유사도 기준은 기준 영상으로부터의 대응하는 픽셀과 기준 영상으로부터의 픽셀과 가장 유사한 대응하는 픽셀 사이의 측광 거리(photometric distance)의 함수로서 적응하는 유사도 임계치를 포함한다.
다른 부가의 실시예에서, 측광 유사도 기준은 기준 영상에서의 픽셀의 신호대 잡음비(signal to noise ratio)에 기초하여 적응하는 유사도 임계치를 포함한다.
또 다른 추가의 실시예에서, 신호대 잡음비에 기초하여 유사도 임계치를 적응시키는 것은, 기준 영상으로부터의 대응하는 픽셀과 기준 영상으로부터의 픽셀에 가장 유사한 대응하는 픽셀의 측광 거리를 스케일링하고 오프셋을 적용하여 적절한 임계치를 획득하는 것에 의해 근사화된다.
또 다른 실시예에서, 일련의 영상들은 복수의 색상 채널들에서 포착된 영상들을 포함하고, 기준 영상은 제1 색상 채널에서 포착된 영상이며, 주어진 영상은 제2 색상 채널에서 포착된 영상이고; 주어진 영상에서의 픽셀이 대응하는 픽셀들의 비교에 기초하여 결정된 측광 유사도 기준을 충족시키지 못할 때, 픽셀이 기준 시점에 보이지 않는 것으로 결정하는 단계는, 기준 시점으로부터의 영상에서의 대응하는 픽셀이 보이는 제2 색상 채널에서의 영상을 제2 색상 채널에 대한 기준 영상으로서 선택하는 단계; 및 주어진 영상에서의 픽셀을 제2 색상 채널에 대한 기준 영상에서의 대응하는 픽셀과 비교하는 단계를 더 포함한다.
다른 추가의 실시예에서도, 상이한 시점들로부터 포착된 일련의 영상들의 시점들에 대한 기준 시점을 선택하는 단계는, 가상 시점을 기준 시점으로서 선택하는 단계를 포함하고; 주어진 영상에서의 픽셀이 대응하는 픽셀들의 비교에 기초하여 결정된 측광 유사도 기준을 충족시키지 못할 때, 픽셀이 기준 시점으로부터의 영상에서 보이지 않는 것으로 결정하는 단계는, 가상 시점에 인접한 영상을 기준 영상으로서 선택하는 단계; 및 주어진 영상에서의 픽셀을 기준 영상에서의 대응하는 픽셀과 비교하는 단계를 더 포함한다.
또 다른 실시예에서도, 가상 시점에 인접한 영상은, 주어진 영상으로부터의 픽셀에 대한 선택된 영상에서의 대응하는 픽셀이 기준 시점으로부터의 영상에서 보이는 것에 기초하여 선택된다.
다른 추가의 실시예도 또한 주어진 픽셀에 대한 현재의 깊이 추정치에 기초하여 기준 시점으로부터의 영상에서의 주어진 픽셀 위치가 보이는 것으로 결정되는 영상들을 사용하여 일련의 영상들의 업데이트된 서브셋을 발생시키는 것; 복수의 깊이들에서의 예상된 불일치에 기초하여 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대응하는 일련의 영상들의 업데이트된 서브셋에서의 픽셀들을 식별하는 것; 복수의 깊이들 각각에서 식별된 영상들의 업데이트된 서브셋에서의 대응하는 픽셀들의 유사도를 비교하는 것; 및 일련의 영상들의 업데이트된 서브셋에서의 식별된 대응하는 픽셀들이 가장 높은 정도의 유사도를 가지는 복수의 깊이들 중의 깊이를 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 업데이트된 깊이 추정치로서 선택하는 것에 의해 기준 시점으로부터의 일련의 영상들에서의 픽셀들의 가시성에 기초하여 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 깊이 추정치를 업데이트하는 단계를 포함한다.
또 다른 실시예에서도, 일련의 영상들의 서브셋들은 영상들의 쌍들이고; 일련의 영상들의 업데이트된 서브셋은 적어도 3개의 영상들을 포함한다.
다른 추가의 부가 실시예에서, 일련의 영상들 내의 대응하는 픽셀들의 유사도를 증가시키기 위해 일련의 영상들을 정규화하는 단계는, 일련의 영상들 중의 영상들에서의 측광 변동(photometric variation)들 및 장면 독립적인 기하학적 왜곡(scene-independent geometric distortion)들을 보정하기 위해 교정 정보(calibration information)를 이용하는 단계, 및 일련의 영상들 중의 영상들을 정렬(rectification)하는 단계를 더 포함한다.
또 다른 부가의 실시예에서, 일련의 영상들 내의 대응하는 픽셀들의 유사도를 증가시키기 위해 일련의 영상들을 정규화하는 단계는, 일련의 영상들에서의 대응하는 픽셀들의 유사도를 증가시키기 위해 영상들을 재샘플링하는 단계를 더 포함하고; 영상들에 적용되는 장면 독립적인 기하학적 보정(scene-independent geometric correction)들은 서브픽셀 해상도로 결정된다.
다른 추가의 부가 실시예에서, 측광 변동을 보정하기 위해 교정 정보를 이용하는 단계는, 블랙 레벨(Black Level) 계산 및 조정; 비네팅 보정(vignetting correction); 횡색 보정(lateral color correction); 및 온도 정규화(temperature normalization)로 이루어진 그룹으로부터 선택된 정규화 프로세스들 중 임의의 것을 수행하는 단계를 더 포함한다.
또 다른 부가의 실시예에서, 장면 독립적인 기하학적 보정은 또한 일련의 영상들을 포착한 카메라들의 어레이에서의 렌즈들의 왜곡 및 회전을 참작하기 위한 정렬을 포함한다.
추가적인 부가의 실시예에서도, 대응하는 픽셀들의 유사도를 결정하기 위해 비용 함수(cost function)가 이용된다.
다른 부가의 실시예에서도, 대응하는 픽셀들의 유사도를 결정하는 단계는, 계산된 비용들을 공간적으로 필터링하는 단계를 더 포함한다.
다른 추가의 실시예에서, 식별된 대응하는 픽셀들이 가장 높은 정도의 유사도를 가지는 복수의 깊이들 중의 깊이를 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 초기 깊이 추정치로서 선택하는 단계는, 식별된 대응하는 픽셀들에 대한 필터링된 비용 함수가 가장 높은 레벨의 유사도를 나타내는 복수의 깊이들 중의 깊이를 선택하는 단계를 더 포함한다.
또 다른 추가의 실시예에서, 비용 함수는 한 쌍의 대응하는 픽셀들의 L1 노름(norm); 한 쌍의 대응하는 픽셀들의 L2 노름; 및 일련의 대응하는 픽셀들의 분산(variance)으로 이루어진 그룹으로부터 선택된 적어도 하나의 유사도 척도를 이용한다.
또 다른 추가의 실시예에서, 일련의 영상들이 다수의 색상 채널들 내에서 포착되고, 비용 함수는 다수의 색상 채널들 각각에서의 픽셀들의 유사도를 결정한다.
다른 추가의 실시예도 또한 기준 시점으로부터의 영상에서의 픽셀 위치들에 대한 현재의 깊이 추정치들에 대한 신뢰도 메트릭(confidence metric)들을 발생시키는 단계를 포함한다.
다른 추가적인 부가의 실시예에서, 신뢰도 메트릭은 복수의 신뢰도 인자(confidence factor)들을 인코딩한다.
또 다른 추가의 실시예는 또한 신뢰도 맵(confidence map)에 기초하여 깊이 맵(depth map)을 필터링하는 단계를 포함한다.
또 다른 추가의 실시예도 또한 폐색 픽셀(occluding pixel)들을 찾아내기 위해 기준 시점과 일련의 영상들에서의 영상들의 시점들 사이의 기준선들에 평행인 라인들을 따라 탐색하는 것에 의해 초기 깊이 추정치들에 기초하여 기준 시점으로부터의 영상에서의 특정 픽셀 위치들에 대응하는 일련의 영상들 내의 영상들에서의 픽셀들의 폐색(occlusion)을 검출하는 단계; 및 초기 깊이 추정치로부터, 적어도 하나의 영상에서의 대응하는 픽셀이 폐색되는 것이 검출될 때, 주어진 픽셀이 폐색되는 적어도 하나의 영상을 배제하는 일련의 영상들의 복수의 상이한 서브셋들을 사용하여 일련의 후보 깊이 추정치들을 결정하는 것; 후보 깊이 추정치들에 기초하여 일련의 영상들의 복수의 서브셋들 각각에서의 대응하는 픽셀들을 식별하는 것; 및 가장 유사한 대응하는 픽셀들을 가지는 서브셋의 후보 깊이를 기준 시점으로부터의 영상에서의 픽셀 위치에 대한 현재의 깊이 추정치로서 선택하는 것에 의해 기준 시점으로부터의 영상에서의 픽셀 위치에 대한 현재의 깊이 추정치를 선택하는 단계를 포함한다.
또 다른 추가적인 부가의 실시예에서, 폐색 픽셀들을 찾아내기 위해 기준 시점과 일련의 영상들에서의 영상들의 시점들 사이의 기준선들에 평행인 라인들을 따라 탐색하는 단계는,
Figure 112015024340812-pct00001
일 때 기준 시점으로부터의 영상에서의 픽셀 위치 (x1, y1)에 대응하는 픽셀이 대안 시점 영상(alternate view image)에서 기준 시점으로부터의 영상에서의 픽셀 위치 (x2, y2)에 의해 폐색되는 것으로 결정하는 단계를 포함하며,
여기서 s1 및 s2는 기준 시점과 대안 시점 영상의 시점 사이의 기준선에 평행인 라인을 따라 픽셀들을 시프트시켜 각각의 픽셀에 대한 초기 깊이 추정치들에 기초하여 대안 시점 영상의 시점 내로 픽셀들을 시프트시키기 위해 픽셀 위치들 (x1, y1) 및 (x2, y2)에 적용되는 장면 의존적인 기하학적 시프트(scene dependent geometric shift)들이다.
또 다른 추가의 실시예에서도, 픽셀을 폐색되어 있는 것으로 지정하는 결정은 픽셀들의 유사도 및 픽셀들 (x1, y1) 및 (x2, y2)의 추정된 깊이들의 신뢰도(confidence) 중 적어도 하나를 고려한다.
특정의 실시예에서, 대응하는 픽셀들의 유사도를 결정하기 위해 비용 함수가 이용된다.
다른 특정의 실시예에서, 대응하는 픽셀들의 유사도를 결정하는 단계는 계산된 비용들을 공간적으로 필터링하는 단계를 더 포함한다.
추가적인 특정의 실시예에서, 계산된 비용들의 공간적 필터링은 고정 계수 필터(fixed-coefficient filter); 및 에지 보존 필터(edge-preserving filter)로 이루어진 그룹으로부터 선택된 필터를 이용한다.
다른 추가적인 특정의 실시예에서, 식별된 대응하는 픽셀들이 가장 높은 정도의 유사도를 가지는 복수의 깊이들 중의 깊이를 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 초기 깊이 추정치로서 선택하는 단계는, 식별된 대응하는 픽셀들에 대한 필터링된 비용 함수가 가장 높은 레벨의 유사도를 나타내는 복수의 깊이들 중의 깊이를 선택하는 단계를 더 포함한다.
또 다른 특정의 실시예에서, 일련의 영상들이 단일의 색상 채널 내에서 포착되고, 비용 함수는 대응하는 픽셀의 분산의 함수이다.
다른 추가적인 특정의 실시예에서, 비용 함수는 이하의 항,
Figure 112015024340812-pct00002
을 포함하는 각각의 영상 i에 걸쳐 일련의 영상들에서 집계된 비용 함수 CV(x, y, d)이고,
여기서 Costi,Ref(x, y, d)는 유사도 척도(similarity measure)(즉, 비용 함수)이고, d는 픽셀 (x, y)의 깊이이며, Vi,Ref(x, y)는 픽셀 (x, y)의 가시성(visibility)이고, 처음에 모든 카메라들에 대해 Vi,Ref(x, y) = 1이다.
추가적인 특정의 실시예에서도, 개개의 비용들 Costi,Ref(x, y, d)는 다음과 같이 카메라들 i,Ref에 대한 각각의 픽셀 (x, y)에 대한 각각의 불일치 가정(disparity hypothesis) d에 기초하여 계산되고:
Figure 112015024340812-pct00003
여기서 S는 (예를 들어) 유사도 척도이고,
Figure 112015024340812-pct00004
는 기하학적 교정(geometric calibration) 후의 교정된 영상 i이다.
또 다른 특정의 실시예에서, 집계된 비용은 다음과 같이 후보 깊이에서의 시프트된 영상들의 유사도를 고려하고:
Figure 112015024340812-pct00005
여기서 K는 기준 카메라(reference camera)와 동일한 스펙트럼 채널에서의 카메라들의 세트이고,
L은 카메라들의 쌍들의 세트이고, 각각의 쌍에서의 양쪽 카메라들은 (명시야가 다수의 스펙트럼 채널들에서의 영상 데이터를 포함하는 경우 기준 카메라에 대해 상이한 스펙트럼 채널일 수 있는) 동일한 스펙트럼 채널에 있고,
Figure 112015024340812-pct00006
이며,
Figure 112015024340812-pct00007
이다.
추가적인 특정의 실시예에서도, 가중된 집계된 비용 함수(weighted aggregated cost function)가 다음과 같도록 집계된 비용 함수(aggregated cost function)가 필터를 사용하여 공간적으로 필터링되고:
Figure 112015024340812-pct00008
여기서 N(x, y)는 특정의 응용의 요구사항들에 적절한 정사각형, 원형, 직사각형, 또는 임의의 다른 형상일 수 있는 픽셀 (x, y)의 바로 이웃(immediate neighborhood)이고,
Norm은 정규화 항이며,
IRef(x, y)는 기준 카메라로부터의 영상 데이터이고,
wd는 픽셀 거리에 기초한 가중 함수이며,
wr은 명도 차이(intensity difference)에 기초한 가중 함수이다.
추가의 실시예에서, 필터는 박스 필터(box filter)이고, wd 및 wr은 상수 계수들이다.
다른 실시예에서, 필터는 양방향 필터(bilateral filter)이고, wd 및 wr은 둘 다 가우시안 가중 함수(Gaussian weighting function)이다.
다른 추가의 실시예에서, 기준 시점으로부터의 영상에서의 픽셀 위치 (x, y)에 대한 깊이 추정치는 다음과 같이 깊이 맵에서 각각의 픽셀 위치에서의 필터링된 비용을 최소화하는 깊이를 선택하는 것에 의해 결정된다.
D(x, y) = argmin{FilteredCV(x, y, d)}
또 다른 실시예에서, 일련의 영상들이 다수의 색상 채널들 내에서 포착되고, 비용 함수는 다수의 색상 채널들로부터의 영상 데이터의 L1 노름을 포함한다.
다른 추가의 실시예에서, 일련의 영상들이 다수의 색상 채널들 내에서 포착되고, 비용 함수는 다수의 색상 채널들로부터의 영상 데이터의 L2 노름을 포함한다.
또 다른 실시예에서, 일련의 영상들이 적어도 적색, 녹색 및 청색 색상 채널들을 포함하는 다수의 색상 채널들 내에서 포착되고; 상이한 시점들로부터 포착된 일련의 영상들의 시점들에 대한 기준 시점을 선택하는 단계는, 녹색 색상 채널에서의 영상들 중 하나를 녹색 기준 영상으로서 선택하고 녹색 기준 영상의 시점을 기준 시점으로서 선택하는 단계를 포함하며; 깊이 d에서 기준 시점으로부터의 영상에서의 픽셀 위치 (x, y)에 대한 비용 함수 Cost(x, y, d)는,
Figure 112015024340812-pct00009
이고,
여기서 CostG(x, y, d)는 깊이 d에 기초한 일련의 녹색 영상들 내의 위치들에서의 대응하는 픽셀들에 대한 기준 시점으로부터의 영상에서의 픽셀 위치 (x, y)의 유사도의 척도이고,
CostR(x, y, d)는 깊이 d에 기초하여 결정된 일련의 적색 영상들 내의 위치들에서의 대응하는 픽셀들과 기준 시점으로부터의 영상에서의 픽셀 위치 (x, y)의 유사도의 척도이며,
CostB(x, y, d)는 깊이 d에 기초하여 결정된 일련의 청색 영상들 내의 위치들에서의 대응하는 픽셀들과 기준 시점으로부터의 영상에서의 픽셀 위치 (x, y)의 유사도의 척도이고,
Figure 112015024340812-pct00010
Figure 112015024340812-pct00011
는, 각각, 녹색, 적색 및 청색 비용 함수들에 대한 가중 인자들이다.
추가의 실시예에서도, CostG(x, y, d)는 L1 노름, L2 노름, 및 녹색 색상 채널 내에 있는 일련의 영상들 중의 영상들에서의 픽셀들에 걸친 분산으로 이루어진 그룹으로부터 선택된 유사도 척도를 사용한다.
다른 실시예에서도, 적색 색상 채널에 대한 비용 척도(cost measure)(CostR(x, y, d)) 및 청색 색상 채널에 대한 비용 척도(CostB(x, y, d))는 색상 채널 내의 영상들에서의 대응하는 픽셀들의 독자적인 쌍들 사이의 집계된 차이를 계산하는 것에 의해 결정된다.
추가의 부가적인 실시예에서, 색상 채널 내의 영상들에서의 각각의 독자적인 쌍의 대응하는 픽셀들 사이의 집계된 차이를 계산하는 단계는, 색상 채널 내의 영상들에서의 대응하는 픽셀들의 독자적인 쌍들에 대한 조합 비용 메트릭(combination cost metric)을 결정하는 단계를 포함한다.
다른 부가의 실시예에서, 4개의 영상들(CA, CB, CC, 및 CD)을 포함하는 적색 색상 채널에 대한 조합 비용 메트릭(CostC(x, y, d))은 다음과 같이 결정될 수 있고:
Figure 112015024340812-pct00012
여기서 (xA, yA), (xB, yB), (xC, yC), 및 (xD, yD)는, 각각, 깊이 d에서의 영상들 CA, CB, CC, 및 CD 각각에서의 불일치에 기초하여 결정된 대응하는 픽셀 위치들이다.
또 다른 추가의 실시예에서, 조합 비용 메트릭은 픽셀 밝기 값들의 L1 노름; 픽셀 밝기 값들의 L2 노름; 및 픽셀 밝기 값들의 분산으로 이루어진 그룹으로부터 선택된 적어도 하나를 이용하여 결정된다.
또 다른 실시예에서, 가중 인자들
Figure 112015024340812-pct00013
Figure 112015024340812-pct00014
는 고정되어 있다.
다른 추가의 실시예에서도, 가중 인자들
Figure 112015024340812-pct00015
Figure 112015024340812-pct00016
는 기준 시점으로부터의 영상에서의 픽셀 위치 (x, y)에 따라 공간적으로 변한다.
또 다른 실시예에서도, 가중 인자들
Figure 112015024340812-pct00017
Figure 112015024340812-pct00018
는 기준 시점으로부터의 영상에서의 픽셀 위치 (x, y)에서의 추정된 SNR에 기초하여 변하고; 기준 시점으로부터의 영상에서 픽셀 위치 (x, y)에서의 강한 SNR은 적색 및 청색 색상 채널들에 적용된 가중치(weighting)를 감소시키는 데 사용된다.
추가의 실시예에서, 신뢰도 메트릭은 복수의 신뢰도 인자들을 인코딩한다.
다른 실시예에서, 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 깊이 추정치에 대한 신뢰도 메트릭은, 주어진 픽셀이 영상 내의 텍스처리스 영역(textureless region) 내에 있다는 표시; 주어진 픽셀을 둘러싸고 있는 영역에서의 신호대 잡음비(SNR)의 척도; 깊이 추정치를 발생시키는 데 사용되는 대응하는 픽셀들의 수; 깊이 추정치를 발생시키기 위해 탐색되는 깊이들의 수의 표시; 주어진 픽셀이 고 콘트라스트 에지(high contrast edge)에 인접해 있다는 표시; 및 주어진 픽셀이 고 콘트라스트 경계(high contrast boundary)에 인접해 있다는 표시로 이루어진 그룹으로부터 선택된 적어도 하나의 신뢰도 인자를 포함한다.
다른 추가의 실시예에서, 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 깊이 추정치에 대한 신뢰도 메트릭은, 주어진 픽셀이 경사 에지(gradient edge) 상에 있다는 표시; 주어진 픽셀에 대응하는 픽셀들이 부정합된다는 표시; 주어진 픽셀에 대응하는 픽셀들이 폐색된다는 표시; 상이한 기준 카메라들을 사용하여 발생된 깊이 추정치들이 주어진 픽셀에 대한 임계치를 초과한다는 표시; 카메라들의 상이한 서브셋들을 사용하여 발생된 깊이 추정치들이 주어진 픽셀에 대한 임계치를 초과한다는 표시; 주어진 임계치의 깊이가 임계치를 초과하는지에 관한 표시; 주어진 픽셀이 결함이 있다는 표시; 및 주어진 픽셀에 대응하는 픽셀들이 결함이 있다는 표시로 이루어진 그룹으로부터 선택된 적어도 하나의 신뢰도 인자를 포함한다.
또 다른 실시예에서, 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 깊이 추정치에 대한 신뢰도 메트릭은 적어도, 주어진 픽셀을 둘러싸고 있는 영역에서의 SNR의 척도; 및 깊이 추정치를 발생시키는 데 사용되는 대응하는 픽셀들의 수를 포함한다.
다른 추가의 실시예에서, 신뢰도 메트릭은 적어도 하나의 이진 신뢰도 인자(binary confidence factor)를 인코딩한다.
또 다른 실시예에서, 신뢰도 메트릭은 신뢰도의 정도들의 범위로서 표현된 적어도 하나의 신뢰도 인자를 인코딩한다.
추가의 실시예에서도, 신뢰도 메트릭은 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 마무리된 깊이 추정치를 발생시키기 위해 사용된 일련의 영상들에서의 픽셀들의 유사도를 비교하는 것에 의해 결정된 적어도 하나의 신뢰도 인자를 인코딩한다.
다른 실시예에서도, 대응하는 픽셀들의 유사도를 나타내는 비용 메트릭(cost metric)을 발생시키기 위해 비용 함수가 이용되고; 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 깊이 추정치를 발생시키기 위해 사용된 일련의 영상들에서의 픽셀들의 유사도를 비교하는 단계는, 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 마무리된 깊이 추정치를 발생시키기 위해 사용된 일련의 영상들에서의 픽셀들의 비용 메트릭에 임계치를 적용하는 단계; 및 비용 메트릭이 임계치를 초과할 때, 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 마무리된 깊이 추정치가 문제 픽셀인 일련의 영상들에서의 적어도 하나의 픽셀을 사용하여 발생되었다는 것을 나타내는 신뢰도 메트릭을 할당하는 단계를 더 포함한다.
추가의 부가적인 실시예에서, 임계치는 기준 시점으로부터의 영상에서의 주어진 픽셀 위치를 둘러싸고 있는 영역의 평균 명도(mean intensity); 및 일련의 영상들을 포착하는 데 사용된 적어도 하나의 센서에 대한 잡음 통계(noise statistics) 중 적어도 하나에 기초하여 수정된다.
또 다른 추가의 실시예에서, 기준 시점으로부터의 영상에서의 주어진 픽셀 위치를 둘러싸고 있는 영역의 평균 명도는, 주어진 픽셀을 중심으로 한 공간 박스 N x N 평균 필터(spatial box N x N averaging filter)를 사용하여 계산된다.
또 다른 실시예에서, 일련의 영상들이 적어도 적색, 녹색 및 청색 색상 채널들을 포함하는 다수의 색상 채널들 내에서 포착되고; 상이한 시점들로부터 포착된 일련의 영상들의 시점들에 대한 기준 시점을 선택하는 단계는, 녹색 색상 채널에서의 영상들 중 하나를 녹색 기준 영상으로서 선택하고 녹색 기준 영상의 시점을 기준 시점으로서 선택하는 단계를 포함하며; 평균 명도는 특정의 노출 및 이득에서의 특정의 평균을 원하는 임계치에 관계시키는 테이블을 사용하여 녹색 채널에 대한 잡음 통계를 결정하는 데 사용된다.
다른 추가의 실시예에서도, 상이한 시점들로부터 포착된 일련의 영상들의 시점들에 대한 기준 시점을 선택하는 단계는, 영상들 중 하나를 기준 영상으로서 선택하고 기준 영상의 시점을 기준 시점으로서 선택하는 단계를 포함하고; 대응하는 픽셀들의 유사도를 나타내는 비용 메트릭을 발생시키기 위해 비용 함수가 이용되고; 일반 부정합(general mismatch)에 기초한 신뢰도 메트릭이 이하의 식을 사용하여 획득되고:
Figure 112015024340812-pct00019
여기서 Costmin(x, y)는 원하는 깊이 범위에 걸친 불일치 탐색의 최소 비용이고,
Costd(x, y)는 (최소 깊이 이외의) 임의의 깊이 또는 깊이들로부터의 비용 데이터를 나타내며,
임의의 카메라에 의해 포착된 I(x, y)cam 영상 데이터가 신뢰도를 보강하는 데 이용될 수 있으며;
Sensor는 잡음 통계 또는 특성화, 결함있는 픽셀들, (이득 또는 노출과 같은) 임의의 포착된 영상들에 영향을 미치는 센서의 특성들(이들로 제한되지 않음)과 같은 센서의 기지의 특성들을 포함할 수 있는 센서 사전 정보(sensor prior)이다.
Camera intrinsics은 (깊이 측정의 정밀도에 영향을 미치는) 어레이에서의 카메라들 간의 기준선 간격(baseline separation), 및 (특정의 시나리오들에서 폐색 구역들에서의 성능에 영향을 미치는) 색상 필터들의 배열(이들로 제한되지 않음)을 비롯한 신뢰도에 영향을 미칠 수 있는 카메라 및 카메라 어레이에 내재된 요소들을 명시하는 카메라 고유 특성(camera intrinsic)이다.
또 다른 실시예에서도, 상이한 시점들로부터 포착된 일련의 영상들의 시점들에 대한 기준 시점을 선택하는 단계는, 영상들 중 하나를 기준 영상으로서 선택하고 기준 영상의 시점을 기준 시점으로서 선택하는 단계를 포함하고; 대응하는 픽셀들의 유사도를 나타내는 비용 메트릭을 발생시키기 위해 비용 함수가 이용되고; 일반 부정합에 기초한 신뢰도 메트릭이 이하의 식을 사용하여 획득되고:
Figure 112015024340812-pct00020
여기서 Avg(x,y)는 (x, y)의 영역에서의 기준 영상의 명도에 기초하여 신뢰도를 조정하기 위해 사용되는, (x, y)를 둘러싸고 있는 공간적 이웃에 있는 기준 영상의 평균 명도, 또는 이웃에서의 평균 명도의 추정치이고,
a 및 offset은 센서의 이득 및 잡음 통계에 관한 사전 정보로 신뢰도를 조정하기 위해 사용되는 경험적으로 선택된 스케일 및 오프셋 인자들이다.
a 및 offset은 일련의 영상들 중의 영상들을 포착하기 위해 사용된 적어도 하나의 센서의 이득 및 잡음 통계에 관한 사전 정보로 신뢰도를 조정하기 위해 사용되는 경험적으로 선택된 스케일 및 오프셋 인자들이다.
다른 추가의 실시예에서도, 기준 시점으로부터의 영상에서의 픽셀 위치들에 대한 깊이 추정치들에 대한 신뢰도 메트릭들을 발생시키는 단계는, 일련의 영상들 중 적어도 하나의 영상을 포착하는 데 사용된 적어도 하나의 센서 이득을 결정하고 센서 이득에 기초하여 신뢰도 메트릭들을 조정하는 단계를 포함한다.
또 다른 실시예에서도, 기준 시점으로부터의 영상에서의 픽셀 위치들에 대한 깊이 추정치들에 대한 신뢰도 메트릭들을 발생시키는 단계는, 일련의 영상들 중 적어도 하나의 영상을 포착하는 데 사용된 적어도 하나의 노출 시간을 결정하고 센서 이득에 기초하여 신뢰도 메트릭들을 조정하는 단계를 포함한다.
다른 추가적인 부가의 실시예는 또한 기준 시점으로부터의 영상에서의 픽셀 위치들에 대한 마무리된 깊이 추정치들을 포함하는 깊이 맵을 출력하는 단계, 및 깊이 맵 내에 포함된 마무리된 깊이 추정치들에 대한 신뢰도 메트릭들을 포함하는 신뢰도 맵을 출력하는 단계를 포함한다.
또 다른 부가의 실시예는 또한 신뢰도 맵에 기초하여 깊이 맵을 필터링하는 단계를 포함한다.
또 다른 추가적인 부가의 실시예는 상이한 시점들로부터 포착된 일련의 영상들의 시점들에 대한 기준 시점을 선택하는 것; 일련의 영상들 내의 대응하는 픽셀들의 유사도를 증가시키기 위해 일련의 영상들을 정규화하는 것; 일련의 영상들의 적어도 하나의 서브셋을 사용하여 기준 시점으로부터의 영상에서의 픽셀 위치들에 대한 초기 깊이 추정치들을 결정하는 것에 의해 영상 처리 애플리케이션에 의해 구성된 프로세서를 사용하여 상이한 시점들로부터 포착된 일련의 영상들을 포함하는 명시야로부터의 장면 내의 객체들까지의 거리를 추정하는 단계를 포함하고, 여기서 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 초기 깊이 추정치는, 복수의 깊이들에서의 예상된 불일치에 기초하여 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대응하는 일련의 영상들의 적어도 하나의 서브셋에서의 픽셀들을 식별하는 것; 복수의 깊이들 각각에서 식별된 대응하는 픽셀들의 유사도를 비교하는 것; 및 식별된 대응하는 픽셀들이 가장 높은 정도의 유사도를 가지는 복수의 깊이들 중의 깊이를 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 초기 깊이 추정치로서 선택하는 것에 의해 결정된다. 그에 부가하여, 거리를 추정하는 프로세스는 초기 깊이 추정치들을 사용하여 일련의 영상들에서의 대응하는 픽셀들을 식별하는 단계; 부정합 픽셀들을 검출하기 위해 일련의 영상들에서의 대응하는 픽셀들의 유사도를 비교하는 단계; 초기 깊이 추정치로부터, 일련의 영상들에서의 대응하는 픽셀들 간의 부정합이 검출되지 않을 때, 초기 깊이 추정치를 기준 시점으로부터의 영상에서의 픽셀 위치에 대한 현재의 깊이 추정치로서 선택하는 단계; 및 초기 깊이 추정치로부터, 일련의 영상들에서의 대응하는 픽셀들 간의 부정합이 검출될 때, 일련의 영상들의 복수의 상이한 서브셋들을 사용하여 일련의 후보 깊이 추정치들을 결정하는 것; 후보 깊이 추정치들에 기초하여 일련의 영상들의 복수의 서브셋들 각각에서의 대응하는 픽셀들을 식별하는 것; 및 가장 유사한 대응하는 픽셀들을 가지는 서브셋의 후보 깊이를 기준 시점으로부터의 영상에서의 픽셀 위치에 대한 현재의 깊이 추정치로서 선택하는 것에 의해 기준 시점으로부터의 영상에서의 픽셀 위치에 대한 현재의 깊이 추정치를 선택하는 단계를 더 포함한다. 본 프로세스는 현재의 깊이 추정치들을 사용하여 일련의 영상들에서의 대응하는 픽셀들을 식별하는 것; 및 주어진 영상에서의 픽셀이 대응하는 픽셀들의 비교에 기초하여 결정된 측광 유사도 기준을 충족시키지 못할 때, 픽셀이 기준 시점에 보이지 않는 것으로 결정하는 것에 의해 기준 시점으로부터의 일련의 영상들에서의 픽셀들의 가시성을 결정하는 단계; 및 가시성 정보를 사용하여 기준 시점으로부터의 영상에서 보이는 일련의 영상들로부터의 픽셀들을 식별하는 것; 및 픽셀들을 기준 시점 내로 시프트시키기 위해 기준 시점으로부터의 영상에서 보이는 일련의 영상들로부터의 픽셀들에 장면 의존적인 기하학적 시프트들― 장면 의존적인 기하학적 시프트는 현재의 깊이 추정치들을 사용하여 결정됨 ―을 적용하는 것; 및 일련의 영상들 중의 영상들의 해상도들보다 더 큰 해상도를 가지는 기준 시점으로부터의 융합된 영상을 생성하기 위해 일련의 영상들로부터의 시프트된 픽셀들을 융합시키는 것에 의해 일련의 영상들 중의 영상들의 해상도들보다 더 큰 해상도를 가지는 융합된 영상(fused image)을 생성하기 위해 깊이 추정치들에 기초하여 영상 처리 애플리케이션에 의해 구성된 프로세서를 사용하여 일련의 영상들로부터의 픽셀들을 융합시키는 단계를 더 포함한다.
다른 추가의 실시예는 또한 기준 시점으로부터의 융합된 영상, 상이한 시점들로부터 포착된 일련의 영상들, 현재의 깊이 추정치들, 및 가시성 정보에 기초하여 초해상도 프로세스(super resolution process)를 수행하도록 영상 처리 애플리케이션에 의해 구성된 프로세서를 사용하여 기준 시점으로부터의 영상을 합성하는 단계를 포함한다.
본 발명의 추가의 실시예는 프로세서, 및 상이한 시점들로부터 포착된 일련의 영상들 및 영상 처리 애플리케이션을 포함하는 메모리를 포함한다. 그에 부가하여, 영상 처리 애플리케이션은 상이한 시점들로부터 포착된 일련의 영상들의 시점들에 대한 기준 시점을 선택하고; 일련의 영상들 내의 대응하는 픽셀들의 유사도를 증가시키기 위해 일련의 영상들을 정규화하며; 일련의 영상들의 적어도 하나의 서브셋을 사용하여 기준 시점으로부터의 영상에서의 픽셀 위치들에 대한 초기 깊이 추정치들을 결정하도록 프로세서를 구성하고, 여기서 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 초기 깊이 추정치는 복수의 깊이들에서의 예상된 불일치에 기초하여 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대응하는 일련의 영상들의 적어도 하나의 서브셋에서의 픽셀들을 식별하는 것; 복수의 깊이들 각각에서 식별된 대응하는 픽셀들의 유사도를 비교하는 것; 및 식별된 대응하는 픽셀들이 가장 높은 정도의 유사도를 가지는 복수의 깊이들 중의 깊이를 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 초기 깊이 추정치로서 선택하는 것에 의해 결정된다. 애플리케이션은 또한, 초기 깊이 추정치들을 사용하여 일련의 영상들에서의 대응하는 픽셀들을 식별하고; 부정합 픽셀들을 검출하기 위해 일련의 영상들에서의 대응하는 픽셀들의 유사도를 비교하도록 프로세서를 구성한다. 초기 깊이 추정치로부터, 일련의 영상들에서의 대응하는 픽셀들 간의 부정합이 검출되지 않을 때, 애플리케이션은 초기 깊이 추정치를 기준 시점으로부터의 영상에서의 픽셀 위치에 대한 현재의 깊이 추정치로서 선택하도록 프로세서를 구성한다. 초기 깊이 추정치로부터, 일련의 영상들에서의 대응하는 픽셀들 간의 부정합이 검출될 때, 애플리케이션은 일련의 영상들의 복수의 상이한 서브셋들을 사용하여 일련의 후보 깊이 추정치들을 결정하는 것; 후보 깊이 추정치들에 기초하여 일련의 영상들의 복수의 서브셋들 각각에서의 대응하는 픽셀들을 식별하는 것; 및 가장 유사한 대응하는 픽셀들을 가지는 서브셋의 후보 깊이를 기준 시점으로부터의 영상에서의 픽셀 위치에 대한 현재의 깊이 추정치로서 선택하는 것에 의해 기준 시점으로부터의 영상에서의 픽셀 위치에 대한 현재의 깊이 추정치를 선택하도록 프로세서를 구성한다.
다른 실시예에서, 영상 처리 애플리케이션은 또한, 현재의 깊이 추정치들을 사용하여 일련의 영상들에서의 대응하는 픽셀들을 식별하는 것; 및 주어진 영상에서의 픽셀이 대응하는 픽셀들의 비교에 기초하여 결정된 측광 유사도 기준을 충족시키지 못할 때, 픽셀이 기준 시점에 보이지 않는 것으로 결정하는 것에 의해 기준 시점으로부터의 일련의 영상들에서의 픽셀들의 가시성을 결정하고; 가시성 정보를 사용하여 기준 시점으로부터의 영상에서 보이는 일련의 영상들로부터의 픽셀들을 식별하는 것; 및 픽셀들을 기준 시점 내로 시프트시키기 위해 기준 시점으로부터의 영상에서 보이는 일련의 영상들로부터의 픽셀들에 장면 의존적인 기하학적 시프트들― 장면 의존적인 기하학적 시프트는 현재의 깊이 추정치들을 사용하여 결정됨 ―을 적용하는 것; 및 일련의 영상들 중의 영상들의 해상도들보다 더 큰 해상도를 가지는 기준 시점으로부터의 융합된 영상을 생성하기 위해 일련의 영상들로부터의 시프트된 픽셀들을 융합시키는 것에 의해 일련의 영상들 중의 영상들의 해상도들보다 더 큰 해상도를 가지는 융합된 영상을 생성하기 위해 깊이 추정치들을 사용하여 일련의 영상들로부터의 픽셀들을 융합시키도록 프로세서를 구성한다.
도 1은 본 발명의 일 실시예에 따른, 어레이 카메라(array camera)를 개념적으로 나타낸 도면.
도 1a는 본 발명의 일 실시예에 따른, 어레이 카메라 모듈을 개념적으로 나타낸 도면.
도 1c는 본 발명의 실시예에 따른, 4 x 4 어레이 카메라 모듈에 대한 컬러 필터 패턴을 개념적으로 나타낸 도면.
도 2는 기준 카메라 및 대안 시점 카메라(alternate view camera)를 사용하여 영상 데이터를 포착하는 것을 개념적으로 나타낸 도면.
도 3a 및 도 3b는 기준 카메라 및 대안 시점 카메라에 의해 포착된 장면의 영상들에서 시차의 효과를 개념적으로 나타낸 도면.
도 4는 본 발명의 실시예에 따른, 상이한 시점들로부터 포착된 복수의 영상들을 포함하는 포착된 명시야로부터의 깊이 맵을 발생시키는 프로세스를 예시한 플로우차트.
도 5는 본 발명의 일 실시예에 따른, 포착된 영상 데이터를 정규화하는 프로세스의 플로우차트.
도 6은 본 발명의 실시예들에 따른, 가시성 정보에 기초하여 깊이 맵을 반복적으로 세밀화(refine)시키는 프로세스의 플로우차트.
도 7은 본 발명의 일 실시예에 따른, 장면 내의 객체들까지의 거리들의 추정치들을 발생시키기 위해 이용될 수 있는 어레이 카메라 내의 카메라들의 서브셋을 개념적으로 나타낸 도면.
도 8은 본 발명의 일 실시예에 따른, 가시성 정보를 사용하여 불일치 탐색을 수행하는 프로세스를 나타낸 플로우차트.
도 8a는 본 발명의 일 실시예에 따른, 카메라 어레이에서의 카메라들의 서브셋들에 의해 포착되는 영상들을 사용하여 깊이를 추정하는 프로세스를 나타낸 플로우차트.
도 8b 내지 도 8i는 본 발명의 실시예들에 따른, 깊이 추정치들을 획득하기 위해 이용될 수 있는 5 x 5 어레이 카메라에서의 카메라들의 서브셋들을 개념적으로 나타낸 도면.
도 8j 내지 도 8m은 본 발명의 실시예들에 따른, 깊이 추정치들을 획득하기 위해 이용될 수 있는 4 x 4 어레이 카메라에서의 카메라들의 서브셋들을 개념적으로 나타낸 도면.
도 9는 본 발명의 일 실시예에 따른, 주어진 픽셀을 폐색 픽셀들에 대한 에피폴라 라인(epipolar line)을 탐색하는 프로세스를 개념적으로 나타낸 도면.
도 10은 본 발명의 일 실시예에 따른, 깊이 맵을 구성하기 위해 이용될 수 있는 5 x 5 어레이 카메라를 개념적으로 나타낸 도면.
도 11은 본 발명의 일 실시예에 따른, 대응하는 픽셀들의 측광 유사도(photometric similarity)에 기초하여 가시성을 결정하는 프로세스를 나타낸 플로우차트.
도 12는 본 발명의 일 실시예에 따른, 4 x 4 어레이 카메라와 관련하여 정의될 수 있는 많은 가상 시점들 중 하나를 개념적으로 나타낸 도면.
도 13은 본 발명의 일 실시예에 따른, 희소 깊이 맵(sparse depth map)을 발생시키는 프로세스를 나타낸 플로우차트.
도 14는 본 발명의 일 실시예에 따른, 희소 깊이 맵을 발생시킬 때 지시자 픽셀(indicator pixel)들로서 이용될 수 있는 일련의 픽셀들을 개념적으로 나타낸 도면.
도 15는 본 발명의 일 실시예에 따른, 픽셀을 둘러싸고 있는 텍스처리스 영역(textureless region)들을 SNR을 사용하여 검출하는 프로세스를 나타낸 플로우차트.
도 16은 본 발명의 일 실시예에 따른, 깊이 맵 및 가시성 정보를 발생시키는 시스템을 나타낸 도면.
도 17은 본 발명의 실시예들에 따른, 초해상도 처리(super-resolution processing)를 사용하여 상이한 시점들로부터 포착된 복수의 저 해상도 영상들로부터 고 해상도 영상을 합성하는 프로세스를 나타낸 플로우차트.
도 18a 및 도 18b는 깊이 추정치들에서의 잡음의 요인들을 개념적으로 나타낸 도면.
도 18c 내지 도 18h는 본 발명의 일 실시예에 따른, 포착된 영상 데이터로부터 깊이 맵 및 신뢰도 맵을 생성하는 것 그리고 깊이 맵을 필터링하기 위해 신뢰도 맵을 사용하는 것을 개념적으로 나타낸 도면.
도 18i 내지 도 18n은 이와 유사하게 본 발명의 일 실시예에 따른, 포착된 영상 데이터로부터 깊이 맵 및 신뢰도 맵을 생성하는 것 그리고 클로즈업 영상들을 사용하여 깊이 맵을 필터링하기 위해 신뢰도 맵을 사용하는 것을 개념적으로 나타낸 도면.
이제 도면들을 참조하면, 어레이 카메라들을 사용하여 포착된 영상들에서의 시차 검출 및 보정을 위한 시스템 및 방법이 예시되어 있다. 발명의 명칭이 "이질적 촬상 소자들을 갖는 모놀리딕 카메라 어레이를 사용한 영상의 포착 및 처리(Capturing and Processing of Images using Monolithic Camera Array with Heterogeneous Imagers)"인 Venkataraman 등의 미국 특허 출원 제12/935,504호에 기술된 것들과 같은 어레이 카메라들이 명시야 영상들을 포착하기 위해 이용될 수 있다. 다수의 실시예들에서, 발명의 명칭이 "초해상도 프로세스를 사용하여 고 해상도 영상을 합성하는 시스템 및 방법(Systems and Methods for Synthesizing High Resolution Images Using Super-Resolution Processes)"인 Lelescu 등의 미국 특허 출원 제12/967,807호에 기술된 것들과 같은 초해상도 프로세스들이 어레이 카메라에 의해 포착된 명시야에서의 저 해상도 영상들로부터 고 해상도 2D 영상 또는 고 해상도 2D 영상들의 스테레오 쌍(stereo pair)을 합성하는 데 이용된다. 고 해상도 및 저 해상도라는 용어는 본 명세서에서 어레이 카메라에 의해 포착된 영상들의 특정의 해상도를 나타내기 위해서가 아니라 상대적인 의미로 사용된다. 미국 특허 출원 제12/935,504호 및 미국 특허 출원 제12/967,807호의 개시 내용은 그 전체가 참조 문헌으로서 본 명세서에 포함된다.
포착된 명시야에서의 각각의 2차원(2D) 영상은 어레이 카메라에서의 카메라들 중 하나의 카메라의 시점으로부터의 영상이다. 카메라들 각각의 상이한 시점으로 인해, 시차는 장면의 상이한 영상들 내의 객체들의 위치의 변동을 초래한다. 본 발명의 실시예들에 따른 시스템 및 방법은 어레이에서의 상이한 카메라들 사이의 시차의 결과로서의 픽셀 불일치의 정확한 설명을 제공하고, 따라서 초해상도 처리를 수행할 때 적절한 장면 의존적인 기하학적 시프트들이, 포착된 영상들의 픽셀들에 적용될 수 있다.
기준 시점이라고 할 수 있는 특정의 시점으로부터, 초해상도 처리를 사용하여 합성된 고 해상도 영상이 합성된다. 기준 시점은 카메라 어레이에서의 카메라들 중 하나의 카메라의 시점일 수 있다. 다른 대안으로서, 기준 시점은 물리 카메라(physical camera)가 없는 임의의 가상 시점일 수 있다. (가상 시점과 달리) 카메라들 중 하나의 카메라의 시점으로부터 고 해상도 영상을 합성하는 것의 이점은 명시야에서의 픽셀들의 불일치가 기준 시점으로부터 포착된 명시야에서의 영상와 관련하여 결정될 수 있다는 것이다. 가상 시점이 이용될 때, 포착된 영상 데이터 중 어느 것도 기준 시점으로부터의 것이 아니며, 따라서 프로세스는 최상의 일치를 결정하기 위해 그 대신에 기준 위치부터 멀리 있는 카메라들에만 의존한다.
본 발명의 많은 실시예들에 따른 어레이 카메라들은 기준 시점으로부터의 깊이 맵을 발생시키기 위해 명시야 내의 영상들에서의 픽셀들 간의 불일치를 사용한다. 깊이 맵은 기준 시점으로부터의 장면 개체들의 거리를 나타내고, 초해상도 처리를 수행할 때 불일치를 보정하기 위해 포착된 명시야 내의 영상들 각각으로부터의 픽셀들에 적용할 장면 의존적인 기하학적 보정을 결정하는 데 이용될 수 있다. 몇몇 실시예들에서, 기준 시점의 초기 깊이 맵이 발생되고, 그 프로세스의 일부로서 또는 후속 프로세스로서, 폐색된 픽셀들 및/또는 다른 유형의 부정합 픽셀들이 검출된다. 폐색되는 픽셀들을 검출하는 프로세스는 또한 기준 시점으로부터 포착된 영상에서의 픽셀이 비기준 시점으로부터의 영상에서 보이는지를 결정하는 것으로 생각될 수 있다. 기준 시점으로부터 포착된 영상에서의 픽셀이 제2 영상에서 보이지 않을 때, 기준 영상에서의 픽셀의 깊이를 결정할 때 제2 영상으로부터의 영상 데이터를 이용하는 것은 깊이 결정에 오류를 유입시킨다. 따라서, 명시야에서의 하나 이상의 영상들에서 폐색되는 기준 영상에서의 픽셀들을 검출하는 것에 의해, 깊이 맵의 정확도가 향상될 수 있다. 몇몇 실시예들에서, 폐색된 픽셀들의 깊이들을 픽셀들이 보이는(즉, 폐색되지 않은) 카메라들로부터 포착된 영상 데이터를 사용하여 결정하는 것에 의해 초기 깊이 맵이 업데이트된다. 다수의 실시예들에서, 있을 수 있는 폐색 및/또는 부정합 픽셀들의 다른 요인들의 존재가 초기 깊이 추정치를 발생시키는 프로세스 동안 검출될 수 있고, 장면 내의 상이한 가시성 패턴들에 대응하는 일련의 영상들의 서브셋들이 일련의 후보 깊이 추정치들을 결정하는 데 사용될 수 있다. 가장 유사한 대응하는 픽셀들을 가지는 영상들의 서브셋의 후보 깊이가 새로운 깊이 추정치로서 사용될 수 있고, 새로운 깊이 추정치는 나머지 일련의 영상들의 일부 또는 전부에서의 대응하는 픽셀들의 가시성을 결정하는 데 사용될 수 있다.
기준 시점으로부터의 깊이 맵은 다른 시점들로부터 포착된 영상들에서 일어났을 가능성이 있는 장면 의존적인 기하학적 시프트들을 결정하는 데 이용될 수 있다. 이 장면 의존적인 기하학적 시프트들은 초해상도 처리에서 이용될 수 있다. 그에 부가하여, 장면 의존적인 기하학적 시프트들은 기준 시점으로부터의 명시야 내의 픽셀들의 가시성의 결정들을 세밀화하기 위해 이용될 수 있다. 다수의 실시예들에서, 장면 의존적인 기하학적 시프트들은 픽셀들의 유사도를 비교하는 데 이용된다. 기준 시점으로부터의 픽셀의 깊이가 올바르게 결정되는 것으로 가정하면, 픽셀들의 유사도는 픽셀이 보이는지를 나타낸다. 유사한 픽셀은 불일치로 인해 시프트된, 기준 시점으로부터 관측된 픽셀일 가능성이 있다. 픽셀들이 유사하지 않은 경우, 기준 시점으로부터 관측된 픽셀은 제2 영상에서 폐색될 가능성이 있다. 많은 실시예들에서, 가시성 정보는 깊이 맵들을 추가로 업데이트하는 데 이용된다. 몇몇 실시예들에서, 가시성 정보가 발생되고 초해상도 처리에서 사용하기 위해 깊이 맵과 함께 제공된다.
다수의 실시예들에서, 깊이 천이(depth transition)들을 수반하는 영역들 및/또는 명시야 내의 하나 이상의 영상들에서 폐색되는 픽셀들을 포함하는 영역들(이들로 제한되지 않음)과 같은 부가의 깊이 정보가 바람직한 영역들에서의 부가의 깊이 추정치들을 포함하는 희소 깊이 맵을 발생시키는 것에 의해 깊이 맵들을 발생시키는 계산 복잡도가 감소된다.
많은 어레이 카메라들은 상이한 카메라들(예를 들어, 미국 특허 출원 제12/935,504호에 개시된 어레이 카메라들을 참조)을 사용하여 색상 정보를 포착한다. 많은 실시예들에서, 녹색 카메라의 시점이 기준 시점으로서 이용된다. 어레이 카메라 내의 다른 녹색 카메라들에 의해 포착된 영상들을 사용하여 초기 깊이 맵이 발생될 수 있고, 명시야 내의 적색, 녹색, 및 청색 픽셀들의 가시성을 결정하기 위해 깊이 맵이 사용될 수 있다. 다른 실시예들에서, 다수의 색상 채널들에서의 영상 데이터가 깊이 추정을 수행하는 데 이용될 수 있다. 몇몇 실시예들에서, 깊이를 추정할 때 각각의 색상 채널에서의 대응하는 픽셀들의 유사도가 고려된다. 다수의 실시예들에서, 깊이를 추정할 때 상이한 색상 채널들에서의 대응하는 픽셀들의 세트들의 유사도가 고려된다. 본 발명의 실시예들에 따른, 단일의 스펙트럼 채널에서, 다수의 스펙트럼 채널들에서, 및/또는 스펙트럼 채널들에 걸쳐 대응하는 픽셀들의 유사도를 고려하는 다양한 비용 함수들을 사용하는 깊이 추정이 이하에서 추가로 논의된다.
몇몇 실시예들에서, 어레이 카메라는 다수의 색상 채널들에서의 영상 데이터를 포착하는 하나 이상의 카메라들을 포함할 수 있다. 예를 들어, 어레이 카메라는, 흑백 카메라(monochrome camera)들에 부가하여 또는 그에 대한 대안으로서, 베이어 컬러 필터 패턴(Bayer color filter pattern)을 가지는 하나 이상의 카메라들을 포함할 수 있다. 다수의 색상 채널들을 포착하는 카메라의 시점이 깊이 맵을 발생시키기 위한 기준 시점으로서 사용될 때, 기준 시점으로부터 포착된 각각의 색상 채널에 대해 깊이 맵 및 가시성 정보가 결정될 수 있다. 기준 영상이 다수의 색상 채널들에 관한 정보를 포함할 때, 깊이 및 가시성 정보가, 다른 색상 채널에서의 픽셀들의 깊이 및 가시성과 관련하여 하나의 채널에서의 픽셀들을 위치 맞춤(registering)하는 것보다, 기준 영상과 관련한 명시야에서의 픽셀들의 불일치에 기초하여 더 신뢰성있게 생성될 수 있다. 다수의 색상 채널들에서 영상 데이터를 포착하는 카메라의 시점을 기준 시점으로서 이용하는 것의 단점은 포착된 색상 채널들에서의 깊이 정보의 분해능이 단일의 채널에서 동일한 수의 픽셀들을 사용하여 영상 데이터를 포착하는 카메라에 비해 감소된다는 것이다. 그에 따라, 어레이 카메라의 구성 및 기준 시점으로서 이용할 시점의 선택은 전형적으로 특정의 응용의 요구사항들에 의존한다.
명시야에서의 픽셀들에 대해 깊이 맵 및 가시성 정보가 발생되면, 장면의 고 해상도 2D 영상을 합성하기 위해 본 발명의 실시예들에 따라 깊이 맵 및 가시성 정보가 초해상도 처리 파이프라인에 제공될 수 있다. 상이한 저 해상도 영상들 간의 시차를 보정하기 위해 깊이 맵이 이용될 수 있고, 폐색된 픽셀들(즉, 기준 시점으로부터 보이지 않는 대안 시점 영상에서의 픽셀들)의 융합(fusion)을 방지하기 위해 융합 동안 가시성 정보가 이용될 수 있다. 몇몇 실시예들에서, 깊이 맵을 발생시키는 프로세스는 또한 깊이 맵에서의 깊이 추정치들에 대한 신뢰도 메트릭들을 포함하는 신뢰도 맵을 발생시키는 것을 포함한다. 몇몇 실시예들에서, 깊이 메트릭들은 대응하는 깊이 추정치의 신뢰성을 나타내는 적어도 하나의 신뢰도 인자를 인코딩한다. 다수의 실시예들에서, 신뢰도 메트릭은 적어도 깊이 추정치와 연관되어 있는 픽셀 위치의 영역에서의 신호대 잡음비(SNR)에 기초한 신뢰도 인자, 및 깊이 추정치를 발생시키는 데 이용되었고 그리고/또는 폐색되어 있는, 깊이 맵과 연관되어 있는 픽셀 위치에 대응하는 일련의 영상들에서의 픽셀들의 수에 기초한 신뢰도 인자를 포함한다. 본 발명의 실시예들에 따른, 어레이 카메라들에 의해 포착된 영상들에서의 불일치를 검출하고 보정하는 시스템 및 방법이 이하에 기술되어 있다. 그렇지만, 시차의 검출 및 보정을 논의하기 전에, 본 발명의 실시예들에 따른 다양한 어레이 카메라들에 대해 논의한다.
어레이 카메라 아키텍처
본 발명의 실시예들에 따른 어레이 카메라들은 카메라들의 어레이를 포함하는 카메라 모듈, 및 영상들을 합성하기 위해 카메라 모듈로부터 영상 데이터를 판독하여 처리하도록 구성된 프로세서를 포함할 수 있다. 본 발명의 일 실시예에 따른 어레이 카메라가 도 1에 예시되어 있다. 어레이 카메라(100)는 개개의 카메라(104)의 어레이를 갖는 카메라 모듈(102)을 포함하고, 여기서 개개의 카메라들의 어레이는 예시된 실시예에서 이용되는 정사각형 배열(이들로 제한되지 않음)과 같은 특정의 배열로 되어 있는 복수의 카메라들을 말한다. 카메라 모듈(102)은 프로세서(108)에 연결되어 있다. 프로세서는 또한 영상 데이터를 저장하기 위해 그리고/또는 이하에서 기술되는 다양한 프로세스들(이들로 제한되지 않음)을 비롯한 프로세스들을 수행하도록 프로세서를 구성하는 데 이용되는 기계 판독가능 명령어들을 저장하기 위해 이용될 수 있는 하나 이상의 상이한 유형의 메모리(110)와 통신하도록 구성되어 있다. 많은 실시예들에서, 메모리는 이하에서 상세히 설명하는 프로세스들 중 임의의 것을 사용하여 깊이 맵(들), 가시성 맵(들), 신뢰도 맵(들), 및/또는 고 해상도 영상(들)을 발생시키기 위해 복수의 영상들을 포함하는 명시야를 처리하도록 구성되어 있는 영상 처리 애플리케이션을 포함한다. 이하에서 추가로 논의되는 바와 같이, 깊이 맵은 전형적으로 기준 시점으로부터의 영상(예컨대, 기준 시점으로부터 합성된 고 해상도 영상)에서의 픽셀들에 대한 깊이 추정치들을 제공한다. 기준 영상에서의 픽셀 위치들이 명시야 내의 특정의 영상들에서 보이는지를 나타내는 가시성 맵들, 명시야 내의 영상에서의 특정 픽셀들이 기준 시점으로부터 보이는지를 나타내는 가시성 맵들, 및 하나의 대안 시점 영상에서 보이는 픽셀이 다른 대안 시점 영상에서 보이는지를 나타내는 가시성 맵들(이들로 제한되지 않음)을 비롯하여, 특정의 응용들의 요구사항에 따라 적절히 각종의 가시성 맵들이 발생될 수 있다. 다른 실시예들에서, 각종의 애플리케이션들 중 임의의 것이 메모리에 저장되고 본 명세서에 기술된 프로세스들을 사용하여 영상 데이터를 처리하는 데 이용될 수 있다. 몇몇 실시예들에서, 본 발명의 실시예들에 따른 프로세스들은 ASIC(application specific integration circuit), 및/또는 FPGA(field programmable gate array)를 사용하여 하드웨어로 구현되거나, 일부가 하드웨어 및 소프트웨어로 구현될 수 있다.
본 발명의 많은 실시예들에 따른 프로세서들(108)은 명시야 내의 영상 데이터를 취하여 하나 이상의 고 해상도 영상들을 합성하도록 적절한 소프트웨어를 사용하여 구성된다. 몇몇 실시예들에서, 기준 시점, 전형적으로 센서(102) 내의 기준 초점면(reference focal plane)(104)의 기준 시점으로부터 고 해상도 영상이 합성된다. 많은 실시예들에서, 프로세서는 센서(102)에서의 초점면들(104) 중 임의의 것의 시점들에 대응하지 않는 가상 시점으로부터 영상을 합성할 수 있다. 명시야에서의 영상들은 영상들을 포착하는 데 사용되는 초점면들의 상이한 시야들로 인해 장면 의존적인 불일치(scene-dependent disparity)를 포함할 것이다. 불일치를 검출하고 보정하는 프로세스들은 이하에서 더 논의된다. 특정의 어레이 카메라 아키텍처가 도 1에 예시되어 있지만, 대안의 아키텍처들이 또한 본 발명의 실시예들에 따라 이용될 수 있다.
어레이 카메라 모듈
본 발명의 실시예들에 따른 어레이 카메라 모듈들은 초점면들의 어레이를 포함하는 촬상기 어레이(imager array) 또는 센서 및 촬상기 어레이에서의 각각의 초점면에 대한 렌즈 스택(lens stack)을 포함하는 광학 어레이(optic array)로 구성될 수 있다. 다수의 초점면들을 포함하는 센서들은 발명의 명칭이 "시스템 온 칩 어레이 카메라의 아키텍처(Architectures for System on Chip Array Cameras)"인 Pain 등의 미국 특허 출원 제13/106,797호(그 개시 내용 전체가 참조 문헌으로서 본 명세서에 포함됨)에 논의되어 있다. 어레이 카메라 모듈 내의 상이한 카메라들이 전자기 스펙트럼의 상이한 부분들에 대한(즉, 상이한 스펙트럼 채널들 내의) 영상 데이터를 포착할 수 있게 하기 위해 광학 어레이(optic array)에서의 렌즈 스택들에 의해 형성된 각각의 광 채널(optical channel) 내에 광 필터(light filter)들이 사용될 수 있다.
본 발명의 일 실시예에 따른 어레이 카메라 모듈이 도 1a에 예시되어 있다. 어레이 카메라 모듈(150)은 초점면들(154)의 어레이를 포함하는 촬상기 어레이(152)를, 렌즈 스택들(158)의 어레이를 포함하는 대응하는 광학 어레이(156)와 함께 포함한다. 렌즈 스택들의 어레이 내에서, 각각의 렌즈 스택(158)은 대응하는 초점면(154) 내의 감광 픽셀(light sensitive pixel)들의 어레이 상에 장면의 영상을 형성하는 광 채널을 생성한다. 렌즈 스택(158)과 초점면(154)의 각각의 쌍(pairing)은 카메라 모듈 내의 단일의 카메라(104)를 형성한다. 카메라(104)의 초점면(154) 내의 각각의 픽셀은 카메라(104)로부터 프로세서(108)로 송신될 수 있는 영상 데이터를 발생시킨다. 많은 실시예들에서, 각각의 광 채널 내의 렌즈 스택은 각각의 초점면(158)의 픽셀들이 장면 내의 동일한 객체 공간 또는 영역을 샘플링하도록 구성되어 있다. 몇몇 실시예들에서, 렌즈 스택들은 초해상도 프로세스의 사용을 통해 증가된 해상도를 복원하는 데 이용될 수 있는 샘플링 다이버시티(sampling diversity)를 제공하기 위해 동일한 객체 공간을 샘플링하는 픽셀들이 서브픽셀 오프셋들로 그렇게 하도록 구성되어 있다. 샘플링 다이버시티라는 용어는 상이한 시점들로부터의 영상들이 장면에서의 동일한 객체를 약간의 서브픽셀 오프셋들로만 샘플링한다는 사실을 말한다. 서브픽셀 정밀도로 영상들을 처리하는 것에 의해, 단일의 영상을 갖는 객체 공간을 단순히 샘플링하는 것과 비교할 때 서브픽셀 오프셋들로 인해 인코딩된 부가 정보가 복원될 수 있다.
예시된 실시예에서, 초점면들이 5 x 5 어레이로 구성되어 있다. 센서 상의 각각의 초점면(154)은 장면의 영상을 포착할 수 있다. 전형적으로, 각각의 초점면은 복수의 열의 픽셀들을 역시 형성하는 복수의 행의 픽셀들을 포함하고, 각각의 초점면은 다른 초점면으로부터의 픽셀들을 포함하지 않는 촬상기의 영역 내에 포함되어 있다. 많은 실시예들에서, 각각의 초점면의 영상 데이터 포착 및 판독이 독립적으로 제어될 수 있다. 이러한 방식으로, 장면 동적 범위(scene dynamic range)의 특정의 부분 및/또는 특정의 색상 채널(이들로 제한되지 않음)을 비롯한 인자들에 기초하여 영상 포착 설정치(image capture setting)들이 조정될 수 있게 하기 위해 초점면 내의 픽셀들의 노출 시간 및 아날로그 이득(analog gain)(이들로 제한되지 않음)을 비롯한 영상 포착 설정치들이 독립적으로 결정될 수 있다. 초점면들에서 이용되는 센서 요소들은 종래의 CIS(CMOS Image Sensor) 픽셀들, CCD(charge-coupled device) 픽셀들, 고 동적 범위 센서 요소들, 다중 스펙트럼 센서 요소들, 및/또는 구조물에 입사하는 광을 나타내는 전기 신호를 발생시키도록 구성된 임의의 다른 구조물(이들로 제한되지 않음)과 같은 개별적인 광 감지 요소들일 수 있다. 많은 실시예들에서, 각각의 초점면의 센서 요소들은 유사한 물리적 특성들을 가지며 동일한 광 채널 및 컬러 필터(존재하는 경우)를 통해 광을 수광한다. 다른 실시예들에서, 센서 요소들은 상이한 특성들을 가지며, 많은 경우들에서, 센서 요소들의 특성들은 각각의 센서 요소에 적용되는 컬러 필터에 관련되어 있다.
몇몇 실시예들에서, 개개의 카메라들 내의 컬러 필터들은 2012년 5월 1일자로 출원된, 발명의 명칭이 "파이 필터 그룹들로 패턴화된 카메라 모듈(Camera Modules Patterned with pi Filter Groups)"인 미국 가특허 출원 제61/641,165호(그 개시 내용 전체가 참조 문헌으로서 본 명세서에 포함됨)에 추가로 논의되는 바와 같이 카메라 모듈을 π 필터 그룹들로 패턴화하는 데 사용될 수 있다. 이 카메라들은 상이한 색상들 또는 스펙트럼의 특정의 부분에 대한 데이터를 포착하는 데 사용될 수 있다. 컬러 필터들을 카메라의 픽셀들에 적용하는 것과 달리, 본 발명의 많은 실시예들에서의 컬러 필터들이 렌즈 스택에 포함되어 있다. 8개의 녹색 카메라들, 4개의 청색 카메라들, 및 4개의 적색 카메라들을 포함하는 도 1c의 구성을 비롯한 각종의 컬러 필터 구성들 중 임의의 것이 이용될 수 있고, 여기서 카메라들은 카메라의 중심 주위에 보다 균등하게 분포되어 있다. 예를 들어, 녹색 카메라는 녹색 광이 광 채널을 통과할 수 있게 하는 녹색 광 필터를 갖는 렌즈 스택을 포함할 수 있다. 많은 실시예들에서, 각각의 초점면에서의 픽셀들은 동일하고 픽셀들에 의해 포착된 광 정보가 각각의 필터면(filter plane)에 대한 대응하는 렌즈 스택에서의 컬러 필터들에 의해 구별(differentiate)된다. 렌즈 스택들에 컬러 필터들을 포함하는 광학 어레이를 갖는 카메라 모듈의 특정의 구조가 앞서 기술되어 있지만, π 필터 그룹들을 포함하는 카메라 모듈들은 컬러 필터들이 종래의 컬러 카메라의 픽셀들에 적용되는 방식과 유사하게 카메라 모듈의 초점면들의 픽셀들에 컬러 필터들을 적용하는 것(이들로 제한되지 않음)을 비롯한 각종의 방식들로 구현될 수 있다. 몇몇 실시예들에서, 카메라 모듈 내의 카메라들 중 적어도 하나는 그의 초점면에서의 픽셀들에 적용되는 균일한 컬러 필터들을 포함할 수 있다. 많은 실시예들에서, 베이어 필터 패턴(Bayer filter pattern)이 카메라 모듈 내의 카메라들 중 하나의 카메라의 픽셀들에 적용된다. 다수의 실시예들에서, 렌즈 스택들에서 뿐만 아니라 촬상기 어레이의 픽셀들에서도 컬러 필터들이 이용되는 카메라 모듈들이 구성된다.
특정의 어레이 카메라들 및 촬상기 어레이들이 앞서 논의되었지만, 본 발명의 실시예들에 따라 영상 데이터를 포착하고 영상들을 합성하기 위해 많은 상이한 어레이 카메라들이 이용될 수 있다. 본 발명의 실시예들에 따른, 어레이 카메라에 의해 포착된 영상 데이터에서의 시차를 검출하고 보정하는 시스템 및 방법이 이하에서 논의된다.
시차/불일치의 결정
다수의 실시예들에서, 명시야를 포착하는 데 사용되는 어레이 카메라 내의 개별적인 카메라들은 유사한 시야들, 고정된 조리개들, 및 초점 거리들을 가진다. 그 결과로서, 카메라들은 아주 유사한 피사계 심도(depth of field)를 가지는 경향이 있다. 2 카메라 시스템(two camera system)에서의 시차가 도 2에 예시되어 있다. 2개의 카메라들(200, 202)은 렌즈 스택(204) 및 초점면(206)을 포함한다. 각각의 카메라는 후방 초점 거리(back focal length) f를 가지며, 2개의 카메라들은 2h의 기준선 거리만큼 분리되어 있다. 양 카메라들의 시야는 전경 객체(208) 및 배경 객체(210)를 포함하는 장면을 내포한다. 제1 카메라(200)의 시점으로부터의 장면이 도 3a에 예시되어 있다. 제1 카메라에 의해 포착된 영상(300)에서, 전경 객체(208)는 배경 객체(210)의 약간 우측에 위치해 있는 것처럼 보인다. 제2 카메라(202)의 시점으로부터의 장면이 도 3b에 예시되어 있다. 제2 카메라에 의해 포착된 영상(302)에서, 전경 객체(208)는 배경 객체(210)의 좌측으로 시프트된 것처럼 보인다. 2개의 카메라들(200, 202)의 상이한 시야에 의해 야기된 불일치는 제1 카메라에 의해 포착된 영상에서의 전경 객체(208)의 위치(제2 카메라에 의해 포착된 영상에서 가상선(ghost line)(304)으로 나타내어져 있음)와 제2 카메라에 의해 포착된 영상에서의 그것의 위치 간의 차이와 같다. 이하에서 추가로 논의되는 바와 같이, 2개의 카메라들로부터 전경 객체까지의 거리는 2개의 포착된 영상들에서의 전경 객체의 불일치를 결정하는 것에 의해 획득될 수 있다.
다시 도 2를 참조하면, 전경 객체 상의 지점 (xo, yo, zo)는 각각의 카메라의 초점면 상에서 카메라의 광학축으로부터 오프셋되어 나타날 것이다. 제1 카메라(200)의 초점면 상의 지점의 제1 카메라의 광학축(212)에 대한 오프셋은 -uL로서 도시되어 있다. 제2 카메라(202)의 초점면 상의 지점의 제2 카메라의 광학축(214)에 대한 오프셋은 uR로서 도시되어 있다. 닮은 삼각형들을 사용하여, 2개의 카메라들에 의해 포착된 영상들 사이의 오프셋은 다음과 같이 관측될 수 있다:
Figure 112015024340812-pct00021
2개의 식들을 결합하면 하기 식과 같이 2개의 카메라들 사이의 불일치(또는 시차)가 얻어진다.
Figure 112015024340812-pct00022
상기 식으로부터, 카메라들에 의해 포착된 영상들 간의 불일치가 2개의 카메라들의 기준선(2개의 카메라들 사이의 에피폴라 라인이라고 할 수 있음)의 방향에 있는 벡터를 따라 있다는 것을 알 수 있다. 게다가, 불일치의 크기는 2개의 카메라들의 기준선 간격 및 카메라들의 후방 초점 거리에 정비례하고, 카메라로부터 장면에 나오는 객체까지의 거리에 반비례한다.
어레이 카메라에서의 폐색
장면의 다수의 영상들이 상이한 시점(perspective)들로부터 포착되고 장면이 전경 객체들을 포함할 때, 영상들 각각에서의 전경 객체의 위치의 불일치로 인해, 영상들 전부가 아닌 일부에서 전경 객체 후방에 있는 장면의 부분들이 보이게 된다. 다른 시점들로부터의 장면의 포착된 영상들에서 보이지 않는 장면의 한 부분에 관한 영상 데이터를 포착하는 픽셀은 폐색된 픽셀(occluded pixel)이라고 할 수 있다. 도 3a 및 도 3b를 다시 참조하면, 제2 카메라의 시점이 기준 시점으로서 선택될 때, 영상(302)에서 가상선(304) 내에 포함된 픽셀들은 폐색된 픽셀들(즉, 픽셀들이 제2 카메라(202)에 의해 포착된 영상(302)에서는 보이지만 제1 카메라(200)에 의해 포착된 영상(300)에서는 보이지 않는 장면의 한 부분으로부터의 영상 데이터를 포착함)인 것으로 간주될 수 있다. 제1 영상에서 가상선(306) 내에 포함된 픽셀들은 드러난 픽셀(revealed pixel)들(즉, 기준 시점에서는 보이지 않지만 대안 시점으로 시프트하는 것에 의해 드러나는 픽셀들)인 것으로 간주될 수 있다. 제2 영상에서, 전경 객체(208)의 픽셀들은, 영상(302)에서 가상선(304) 내에 포함된 픽셀들을 폐색하는 장면의 부분들을 포착하기 때문에, 폐색 픽셀(occluding pixel)들이라고 할 수 있다. 제2 영상(302)에서 가상선(304) 내에 포함된 픽셀들의 폐색으로 인해, 카메라로부터 가상선(304) 내에 보이는 장면의 부분들까지의 거리가 2개의 영상들로부터 결정될 수 없는데, 그 이유는 도 3a에 도시된 영상(300)에 대응하는 픽셀들이 없기 때문이다.
이하에서 추가로 논의되는 바와 같이, 기준 시점 주위의 상보적 폐색 구역(complementary occlusion zone)들에 있는 상이한 시점들로부터 장면의 영상들을 포착하는 카메라들의 수를 증가시키는 것은 기준 시점으로부터 보이는 장면의 모든 부분이 또한 다른 카메라들 중 적어도 하나의 카메라의 시점으로부터 보일 가능성을 증가시킨다. 어레이 카메라가 광의 상이한 파장들(예컨대, RGB)을 포착하기 위해 상이한 카메라들을 사용할 때, 기준 시점을 둘러싸고 있는 4분면들에 광의 각각의 파장을 포착하는 적어도 하나의 카메라를 분포시키는 것은 기준 시점으로부터 보이는 장면의 한 부분이 특정의 색상 채널 내에서 포착되는 모든 다른 영상에서 폐색될 가능성을 상당히 감소시킬 수 있다. 본 발명의 실시예들에 따른 폐색의 가능성을 감소시키도록 어레이 카메라들에서의 컬러 필터들을 분포시키는 것은 2012년 5월 1일자로 출원된, 발명의 명칭이 "π 필터 그룹들로 패턴화된 카메라 모듈(Camera Modules Patterned with π Filter Groups)"인 Nisenzon 등의 미국 가특허 출원 제61/641,164호(그 개시 내용이 참조 문헌으로서 그 전체가 본 명세서에 포함됨)에 추가로 논의되어 있다.
어레이 카메라에서의 깊이 맵을 발생시키기 위해 불일치를 사용함
본 발명의 많은 실시예들에 따른 어레이 카메라들은 깊이 맵을 발생시키기 위해 어레이 카메라들에 의해 포착되는 영상들에서 관측되는 불일치를 사용한다. 깊이 맵은 전형적으로 (원래의 입력 영상들의 해상도에 대한 깊이 맵의 분해능에 따라) 카메라로부터 영상 내의 특정 픽셀들 또는 픽셀들의 그룹들까지의 거리를 기술하는 영상에 관한 메타데이터의 계층인 것으로 간주된다. 본 발명의 다수의 실시예들에 따른 어레이 카메라들은 고 해상도 영상의 합성 동안 장면 의존적인 기하학적 시프트들을 발생시키는 것 및/또는 합성된 영상의 동적 리포커싱(dynamic refocusing)을 수행하는 것(이들로 제한되지 않음)을 비롯한 각종의 목적들을 위해 깊이 맵들을 사용한다.
이상에서의 불일치의 논의에 기초하여, 픽셀 불일치에 기초한 장면의 한 부분의 깊이를 결정하는 프로세스가 이론적으로는 간단하다. 어레이 카메라에서의 특정의 카메라의 시점이 기준 시점으로서 선택될 때, 기준 시점으로부터 보이는 장면의 한 부분까지의 거리가, 카메라 어레이에 의해 포착된 영상들 중 일부 또는 전부에서의 대응하는 픽셀들 사이의 불일치를 사용하여 결정될 수 있다. 폐색이 없을 때, 기준 시점으로부터 포착된 영상에서의 픽셀에 대응하는 픽셀이 에피폴라 라인(즉, 2개의 카메라들 사이의 기준선 벡터에 평행인 라인)을 따라 있는 각각의 비기준 또는 대안 시점 영상에 배치될 수 있다. 불일치의 에피폴라 라인을 따른 거리는 카메라와 픽셀들에 의해 포착된 장면의 부분 사이의 거리에 대응한다. 따라서, 특정의 깊이에서 대응할 것으로 예상되는 포착된 영상들에서의 픽셀들을 비교하는 것에 의해, 가장 높은 정도의 유사도를 가지는 픽셀들을 산출하는 깊이에 대해 탐색이 수행될 수 있다. 포착된 영상들에서의 대응하는 픽셀들이 가장 높은 정도의 유사도를 가지는 깊이가 카메라와 픽셀에 의해 포착된 장면의 부분 사이의 가장 유망한 거리로서 선택될 수 있다. 이하에서 논의되는 바와 같이, 본 발명의 실시예들에 따라 특정의 응용들의 요구사항들에 적절하게 단일의 스펙트럼 채널 내에서, 다수의 스펙트럼 채널들 내에서, 및/또는 스펙트럼 채널들에 걸쳐 대응하는 픽셀들에 대해 유사도가 결정될 수 있다.
그렇지만, 앞서 기술된 방법을 사용하여 정확한 깊이 맵을 결정하는 데 많은 과제들이 존재한다. 몇몇 실시예들에서, 어레이 카메라 내의 카메라들이 유사하지만 동일하지는 않다. 따라서, 광학 특성(이들로 제한되지 않음)을 비롯한 영상 특성들, 상이한 센서 특성들(오프셋으로 인한 센서 응답에서의 변동, 상이한 전송 또는 이득 응답, 픽셀 응답의 비선형 특성 등), 포착된 영상들에서의 잡음, 및/또는 조립 공정에 관계된 제조 허용 오차들에 관련된 워핑(warp) 또는 왜곡이 영상들 간에 달라질 수 있고, 이는 상이한 영상들에서의 대응하는 픽셀들의 유사도를 감소시킨다. 그에 부가하여, 초해상도 프로세스들은 고 해상도 영상들을 합성하기 위해 촬상기 어레이에 의해 포착되는 영상들에서의 샘플링 다이버시티에 의존한다. 그렇지만, 샘플링 다이버시티를 증가시키는 것은 또한 명시야에서의 포착된 영상들 내의 대응하는 픽셀들 간의 유사도를 감소시키는 것을 수반할 수 있다. 앞서 기술한 깊이를 결정하는 프로세스가 픽셀들의 유사도에 의존한다는 것을 고려하면, 포착된 영상들 사이의 측광 차이 및 샘플링 다이버시티의 존재는 깊이 맵이 결정될 수 있는 정확도를 감소시킬 수 있다.
깊이 맵을 발생시키는 일은 폐색에 의해 더욱 복잡하게 된다. 앞서 논의한 바와 같이, 기준 시점으로부터 보이는 픽셀이 포착된 영상들 중 하나 이상에서 보이지 않을 때 폐색이 일어난다. 폐색의 효과는, 올바른 깊이에서, 그렇지 않았으면 대응하는 픽셀에 의해 점유될 픽셀 위치가 장면의 다른 부분(전형적으로 카메라에 더 가까운 객체)을 샘플링하는 픽셀에 의해 점유되는 것이다. 폐색 픽셀은 종종 폐색된 픽셀과 아주 상이하다. 따라서, 올바른 깊이에서 픽셀들의 유사도의 비교는 다른 깊이들에서보다 상당히 더 높은 정도의 유사도를 가져올 가능성이 더 적다. 사실상, 폐색 픽셀은 실제로 올바른 깊이에서 대응하는 그 픽셀들의 유사도를 마스킹하는 큰 이상치(strong outlier)로서 역할한다. 그에 따라, 폐색의 존재는 깊이 맵에 강력한 오류 요인을 유입시킬 수 있다.
본 발명의 많은 실시예들에 따른 깊이 맵을 발생시키는 프로세스들은 앞서 기술한 것들(이들로 제한되지 않음)을 비롯한 깊이 맵에 유입될 수 있는 오류 요인들을 최소화시키려고 시도한다. 본 발명의 일 실시예에 따른 깊이 맵을 발생시키는 일반적인 프로세스가 도 4에 예시되어 있다. 프로세스(400)는 어레이 카메라를 사용하여 명시야를 포착하는 단계(402)를 포함한다. 다수의 실시예들에서, 기준 시점이 선택된다(404). 많은 실시예들에서, 기준 시점이 사전 결정된다. 몇몇 실시예들에서, 기준 시점이, 포착된 명시야 또는 어레이 카메라의 사용자에 의해 요청된 특정의 동작(예컨대, 입체 3D 영상 쌍의 발생)에 기초하여 결정될 수 있다. 깊이 맵을 결정하기 전에, 포착된 영상들에서의 대응하는 픽셀들의 유사도를 증가시키기 위해 원시 영상 데이터(raw image data)가 정규화된다(406). 많은 실시예들에서, 정규화는 각각의 카메라의 렌즈 스택에 의해 유입되는 측광 변동 및 장면 독립적인 기하학적 왜곡(이들로 제한되지 않음)을 비롯한 카메라들에 의해 포착된 영상들에서의 변동을 보정하기 위해 교정 정보를 이용하는 것을 포함한다. 몇몇 실시예들에서, 원시 영상 데이터의 정규화는 또한 영상들에서의 대응하는 픽셀들의 유사도에 대한 앨리어싱(aliasing) 및 잡음의 효과를 감소시키기 위한 사전 필터링, 및/또는 시차 탐색(parallax search)의 기하학적 형태를 간소화하기 위한 영상 데이터의 정렬(rectification)을 포함한다. 필터는 가우시안 필터 또는 에지 보존 필터, 고정 계수 필터(박스) 및/또는 임의의 다른 적절한 필터일 수 있다. 다수의 실시예들에서, 정규화는 또한, 예를 들어, 기하학적 렌즈 왜곡을 보정함으로써 포착된 영상들에서의 대응하는 픽셀들의 유사도를 증가시키기 위해 포착된 영상들을 재샘플링하는 것을 포함한다. 본 발명의 실시예들에 따른 원시 영상 데이터의 정규화 동안 수행되는 프로세스들이 이하에서 더 논의된다.
기준 시점으로부터 포착된 영상의 픽셀들에 대해 초기 깊이 맵이 결정된다(408). 초기 깊이 맵은 유망한 폐색 구역들을 결정(410)하는 데 사용되고, 대응하는 픽셀이 보이는 영상들을 사용하여 폐색 구역들에서의 픽셀들의 깊이들을 결정함으로써 폐색 구역들에서의 픽셀들의 깊이들이 업데이트된다(412). 이하에서 추가로 논의되는 바와 같이, 깊이 추정치들이 실세계 장면들에서 만나게 되는 상이한 가시성 패턴들에 대응하는 영상들의 경쟁하는 서브셋들을 사용하여 업데이트될 수 있다. 특정의 시퀀스가 도 4에 도시되어 있지만, 많은 실시예들에서, 초기 깊이 맵이 발생되는 것과 동시에 폐색 구역들이 검출된다.
장면 독립적인 기하학적 차이들을 감소시키기 위해 원시 영상 데이터를 재샘플링하는 것을 포함하는 정규화 프로세스는 그렇지 않았으면 포착된 영상들 각각에서의 대응하는 픽셀들을 정합시키는 능력을 떨어뜨릴 수 있는 선형 및/또는 비선형 렌즈 왜곡을 보정함으로써 오류들을 감소시킬 수 있다. 그에 부가하여, 폐색된 픽셀들을 배제하는 깊이 측정으로 폐색 구역들에서의 깊이 맵을 업데이트하는 것은 얻어진 깊이 맵에서의 오류의 요인들을 추가로 감소시킨다. 깊이 맵을 발생시키는 일반적인 프로세스가 도 4에 예시되어 있지만, 깊이 맵들을 발생시키는 예시된 프로세스들에 대한 변동 및 대안들이 본 발명의 실시예들에 따라 이용될 수 있다. 본 발명의 실시예들에 따른, 원시 영상 데이터를 교정하는 프로세스, 초기 깊이 맵들을 결정하는 프로세스, 및 폐색을 참작하기 위해 깊이 맵들을 업데이트하는 프로세스가 이하에서 더 논의된다.
포착된 영상 데이터에서의 대응하는 픽셀들의 유사도를 증가시킴
어레이 카메라 내의 카메라들 각각에 의해 포착된 영상들 간의 유사도가 클수록, 상이한 가정된 깊이들에서 영상들에서의 대응하는 픽셀들의 측정으로부터, 올바른 깊이에서 가장 높은 유사도가 검출될 가능성이 높다. 미국 특허 출원 제12/935,504호(앞서 참조 문헌으로서 포함됨)에 개시된 바와 같이, 어레이 카메라 내의 카메라들에 의해 포착된 영상들은 전형적으로, 카메라마다의 광학계의 변동이 측광 차이들, 앨리어싱, 잡음, 및 장면 독립적인 기하학적 왜곡들을 유입시킬 수 있다는 것(이들로 제한되지 않음)을 비롯하여, 다수의 방식들로 상이하다. 측광 차이 및 장면 독립적인 기하학적 왜곡은 필터링 및 교정을 통해 보정될 수 있다. 장면 독립적인 기하학적 왜곡을 보상하는 장면 독립적인 기하학적 보정 및 측광 정규화를 수행하는 데 사용되는 측광 교정 데이터는 오프라인 교정 프로세스 및/또는 후속하는 재교정 프로세스를 사용하여 발생될 수 있다. 측광 교정 데이터는 앨리어싱 및 잡음의 효과를 감소시키기 위한 사전 필터링, 블랙 레벨 계산 및 조절, 비네팅 보정, 및 횡색 보정(이들로 제한되지 않음)을 비롯하여 어레이 카메라에 의해 포착된 영상들에 대한 각종의 측광 조절들 중 임의의 것을 수행할 수 있는 측광 정규화 모듈 또는 프로세스에 제공될 수 있다. 몇몇 실시예들에서, 측광 정규화 모듈은 또한 온도 정규화를 수행한다. 교정 프로세스를 사용하여 결정되는 장면 독립적인 기하학적 보정이 또한 영상들 사이의 대응 관계를 증가시키기 위해 포착된 영상들에 적용될 수 있다. 포착된 영상들이 초해상도 처리를 사용하여 고 해상도 영상을 합성하는 데 사용될 때, 영상들에 적용되는 장면 독립적인 기하학적 보정은 전형적으로 서브픽셀 해상도로 결정된다. 그에 따라, 장면 독립적인 기하학적 보정은 전형적으로 종래의 입체 3D 영상에서의 위치 맞춤(registration) 동안 이용되는 보정보다 더 높은 정밀도로 결정된다. 많은 실시예들에서, 장면 독립적인 기하학적 보정은 또한 비기준 영상들의 에피폴라 라인들이 기준 시점으로부터 포착된 영상의 에피폴라 라인들과 쉽게 일렬로 정렬(align)되도록 초점면들에 대한 어레이 카메라의 렌즈들의 왜곡 및 회전을 참작하기 위한 정렬(rectification)을 포함한다. 이러한 방식으로 기하학적으로 정규화하는 것에 의해, 대응하는 픽셀들의 깊이들을 결정하기 위해 수행되는 탐색이 다양한 카메라들에서 직선들을 따른 탐색이 되도록 간단화될 수 있고, 깊이 측정의 정밀도가 향상될 수 있다.
본 발명의 실시예들에 따른, 어레이 카메라에 의해 포착된 영상들에 적용될 수 있는 일련의 장면 독립적인 기하학적 보정 및 측광 보정을 발생시키기 위해 어레이 카메라들을 교정하는 시스템 및 방법이 2013년 3월 13일자로 출원된 발명의 명칭이 "어레이 카메라의 교정 시스템 및 방법(Systems and Methods for Calibration of an Array Camera)"인 Mullis, Jr.의 미국 특허 출원 제61/780,748호(그 개시 내용이 참조 문헌으로서 그 전체 내용이 포함됨)에 기술되어 있다.
다수의 실시예들에서, 어레이 카메라 내의 카메라들의 시야들에서 서브픽셀 정밀도의 시프트들까지 객체들을 검출하기 위해 영상들을 재샘플링하는 것에 의해 포착된 영상들에서의 픽셀들의 대응 관계가 증가된다.
본 발명의 실시예들에 따른, 포착된 영상들 간의 대응 관계를 증가시키기 위해 어레이 카메라에 의해 포착된 영상들에 보정을 적용하는 프로세스가 도 5에 예시되어 있다. 프로세스(500)는 포착된 영상들을 측광적으로 정규화하는 단계(502), 장면 독립적인 기하학적 보정을 정규화된 영상들에 적용하는 단계(504)를 포함한다. 어떤 실시예들에서, 모든 카메라들이 동일 평면에 있고 시차 탐색이 에피폴라 라인들로만 감소될 수 있도록 부가의 정렬 프로세스(505)가 필요하다. 도 5에 도시된 프로세스들은 얻어진 영상들 사이의 대응 관계를 증가시킨다. 따라서, 영상들 사이의 픽셀 대응 관계에 대한 탐색으로부터 정확한 깊이 측정이 얻어질 가능성이 더 많다.
본 발명의 실시예들에 따른 어레이 카메라(들)에 의해 포착된 영상들 사이의 대응 관계를 증가시키는 특정의 프로세스들이 도 5와 관련하여 앞서 논의되었지만, 본 발명의 실시예들에 따른 깊이 맵을 발생시키기 전에, 포착된 영상들 사이의 대응 관계를 증가시키는 각종의 프로세스들 중 임의의 것이 이용될 수 있다. 본 발명의 실시예들에 따른 깊이 맵들을 발생시키는 프로세스들이 이하에서 더 논의된다.
깊이 맵을 발생
깊이 맵을 발생시키는 프로세스는 장면 내의 객체들의 깊이를 추정하기 위해 영상들 사이의 불일치를 이용하는 단계를 포함한다. 앞서 살펴본 바와 같이, 폐색은 앞서 기술된 방식으로 비용 함수들을 사용하여 획득된 깊이 측정의 신뢰성에 영향을 미칠 수 있다. 전형적으로, 이러한 폐색은 대응하는 픽셀들을 비교하는 데 사용되는 유사도 메트릭에 따라 상당한 부정합으로서 나타날 것이다(아마도 보이는 픽셀들의 유사도를 마스킹함). 그렇지만, 본 발명의 많은 실시예들은 초기 깊이 맵을 발생시키고 이어서 폐색에 의한 초기 깊이 맵의 생성에 유입될 수 있는 임의의 오류들을 해결한다. 몇몇 실시예들에서, 다른 시점들로부터 어레이 카메라에 의해 포착되는 영상들에서 폐색될 수 있는 기준 시점으로부터 포착된 영상에서의 픽셀들을 식별하기 위해 초기 깊이 맵이 이용된다. 폐색이 검출될 때, 기준 시점으로부터 포착된 영상에서의 픽셀에 대한 깊이 정보는 픽셀이 폐색되는 영상으로부터의 픽셀들을 유사도 비교로부터 배제시키는 것에 의해 업데이트될 수 있다. 몇몇 실시예들에서, 폐색에 의해 영향을 받는 깊이 추정치들이 실세계 장면들에서 만나게 되는 상이한 가시성 패턴들에 대응하는 영상들의 경쟁하는 서브셋들을 사용하여 업데이트될 수 있다. 특정의 실시예들에서, 업데이트된 깊이 추정치들은 폐색되는 대응하는 픽셀들을 식별하는 데 이용될 수 있고, 깊이 맵의 정밀도에 대한 폐색의 영향이 감소될 수 있도록 가시성 정보를 사용하여 깊이 추정 프로세스가 반복될 수 있다. 몇몇 실시예들에서, 영상들의 서브셋들을 사용하여 업데이트된 깊이 추정치들을 발생시키는 프로세스는 깊이 맵 및 가시성 추정치들을 반복하여 세밀화할 필요성이 감소되거나 제거될 수 있을 정도로 충분히 강건하다.
본 발명의 일 실시예에 따른, 기준 시점으로부터 포착된 영상에서의 픽셀들의 깊이를 결정하는 프로세스가 도 6에 예시되어 있다. 프로세스(600)는 어레이 카메라에 의해 포착된 영상들의 일부 또는 전부를 사용하여 초기 깊이 맵을 결정하는 단계(602)를 포함한다. 포착된 영상들 각각에서 기준 시점으로부터 포착된 영상에서의 각각의 픽셀의 가시성이 이어서 결정된다(604). 대응하는 픽셀 위치가 폐색되는 경우, 기준 시점으로부터 포착된 영상에서의 픽셀의 깊이는 대응하는 픽셀 위치가 폐색되는 영상을 비용 함수로부터 배제시켜 재계산될 수 있다(606). 계속하여 반복할지에 관한 결정(608)이 행해진다. 폐색 구역들에서의 깊이 측정이 세밀화됨에 따라, 포착된 영상들 각각에서의 폐색 구역들 내의 픽셀들의 가시성에 관한 부가 정보가 획득된다. 따라서, 가시성 정보가 세밀화됨에 따라 폐색 구역들에서의 픽셀들의 깊이의 재계산을 반복하는 것은 깊이 맵의 정밀도를 반복하여 향상시킬 수 있다. 사전 결정된 수의 반복들의 완료 및/또는 반복 루프를 통해 특정의 패스에서 업데이트된 깊이 정보가 결정되는 픽셀들의 수가 사전 결정된 수 미만으로 떨어지는 것(이들로 제한되지 않음)을 비롯한 특정의 응용에 적절한 각종의 종료 조건들 중 임의의 것이 반복 루프를 언제 종료시킬지를 결정하는 데 이용될 수 있다. 몇몇 실시예들에서, 부정합 픽셀들을 사용하여 발생된 깊이 추정치들을 업데이트하기 위해 실세계 가시성 패턴들에 대응하는 일련의 영상들의 서브셋들을 이용하는 것으로 인해 단일의 반복만이 수행된다.
마무리된 깊이 맵이 획득되면, 포착된 영상들에서의 픽셀들 각각의 가시성이 결정되고(610), 초해상도 처리를 사용하여 고 해상도 영상을 합성하는 것(이들로 제한되지 않음)을 비롯한 각종의 목적들을 위해 깊이 맵 및/또는 가시성 정보가 이용될 수 있다.
도 7에 예시된 프로세스와 유사한 프로세스의 계산 복잡도가 깊이 결정들을 수행할 때 비교되는 영상들의 수에 의존한다. 카메라가 기준 시점으로부터 멀수록, 관측될 불일치가 크다. 그에 부가하여, 어레이에서의 가장 멀리 있는 카메라들은 그의 엔벨로프 내의 다른 카메라들 전부를 포함한다. 전형적으로, 보다 큰 크기 시프트들은 깊이가 더 높은 정밀도로 결정될 수 있게 한다. 따라서, 깊이 정보를 결정하기 위해 기준 시점으로부터 영상을 포착하는 카메라 및 그 카메라로부터 가장 멀리 있는 카메라들을 사용하는 것은 검출된 깊이의 정밀도를 향상시킬 수 있다. 그에 부가하여, 다양한 기준선들 및 방향들을 갖는 카메라들로부터 나오는 집계된 비용을 사용하는 것은 정합들에서의 주기성을 감소시킬 가능성의 증가로 인해 깊이 추정치들의 신뢰성을 상당히 향상시킬 수 있다. 5 x 5 어레이(도 7을 참조)의 경우에, 중앙의 녹색 카메라(700)는 기준 시점으로부터 영상을 포착하는 데 이용될 수 있고, 중앙의 카메라에 의해 포착된 영상 데이터는 깊이를 결정하기 위해 어레이의 4개의 코너들에 위치해 있는 녹색 카메라들(702)에 의해 포착된 영상 데이터와 비교될 수 있다. 다른 어레이들에서, 카메라들의 각종의 조합들 중 임의의 것에 의해 포착되는 영상들이 본 발명의 실시예들에 따라 깊이를 결정하는 데 이용될 수 있다. 이하에서 추가로 논의되는 바와 같이, 카메라들의 특정의 서브셋들의 선택은 기준 영상에서의 픽셀이 서브셋에서의 다른 카메라들에 의해 포착된 영상 데이터에서 폐색될 가능성을 감소시킬 수 있다.
본 발명의 일 실시예에 따른 깊이 맵 및/또는 가시성 정보를 발생시키는 특정의 프로세스가 도 6에 예시되어 있지만, 초기 깊이 맵을 결정하는 단계 및 이어서 폐색된 픽셀들을 검출하고 폐색된 픽셀들을 배제시키기 위해 깊이 측정을 업데이트하는 것에 의해 깊이 맵을 세밀화하는 단계를 포함하는 각종의 프로세스들 중 임의의 것이 이용될 수 있다. 본 발명의 실시예들에 따른 픽셀들의 깊이 및 가시성을 결정하는 특정의 프로세스들이 이하에서 더 논의된다.
초기 깊이 맵의 결정
어레이 카메라로부터 장면 내의 객체까지의 거리를 결정하는 프로세스들은 어레이 카메라에 의해 포착된 영상들에서의 대응하는 픽셀들이 가장 높은 정도의 유사도를 가지는 깊이를 찾아내는 단계를 포함한다. 앞서 논의한 바와 같이, 특정의 깊이에서, 기준 시점으로부터 포착된 영상에서의 픽셀이 기준 시점과 카메라 어레이 내의 카메라들 각각 사이의 에피폴라 라인을 따라 기지의 거리만큼 시프트할 것이다. 기준 시점으로부터 포착된 영상에서의 픽셀과 다른 영상들에서의 "시프트된" 픽셀들(즉, 특정의 거리에 대한 예상된 시프트에 기초하여 결정되는 위치들에 위치해 있는 영상들에서의 픽셀들)이 대응하는 픽셀들이다. 가정된 깊이가 올바르지 않을 때, 대응하는 픽셀들은 아주 작은 유사도를 나타낼 수 있다(그렇지만, 어떤 장면들에서, 올바르지 않은 깊이들은 주기적 텍스처와 같은 특징들로 인해 높은 정도의 유사도를 가짐). 가정된 깊이가 올바를 때, 대응하는 픽셀들은 이상적으로는 가정된 깊이들 중 임의의 깊이의 가장 높은 정도의 유사도를 나타낼 것이다. 깊이 맵이 포착된 명시야의 초해상도 처리에서 사용될 때, 깊이 맵은 서브픽셀 시프트들의 검출을 가능하게 하기에 충분한 정밀도로 결정될 수 있다. 초해상도 처리에서, 깊이가 직접 이용되지 않고 장면 의존적인 시프트들이 이용된다. 따라서, 서브픽셀 시프트 정밀도에 대응하는 깊이를 검출할 수 있는 것은 초해상도 처리의 성능을 상당히 향상시킬 수 있다. 포착된 영상들의 픽셀들을 재샘플링하는 것이 서브픽셀 시프트 정밀도로 깊이를 결정하는 데 이용될 수 있는 방식이 이하에서 더 논의된다.
많은 실시예들에서, 깊이 추정을 수행할 때 탐색된 불일치를 알려주기 위해 물리적 거리의 범위(예컨대, 20 cm 내지 무한대) 내의 다수의 깊이들의 시차 탐색이 이용된다. 특정의 영상에 대한 픽셀들에서 연속적인 깊이 인덱스들 간의 시차 시프트(parallax shift)들이 일정하고 기준 시점에 대한 가장 큰 기준선에 대응하는 어레이 내의 카메라들에 의해 포착된 영상들에 대해 측정되는 최소 서브픽셀 정밀도에 기초하여 설정되도록 탐색 범위가 다수의 깊이 인덱스들로 분할될 수 있다(예를 들어, 도 7을 참조). 이것은 초해상도 처리에의 입력들로서 사용하기 위한 깊이 추정치에서의 충분한 정확도의 가능성을 증가시킨다. 다른 실시예들에서, 연속적인 깊이 인덱스들이 일정한 픽셀 시프트들에 대응할 필요가 없고, 깊이 탐색이 장면의 특성들에 기초하여 적응될 수 있다.
몇몇 실시예들에서, 대응하는 픽셀들의 유사도를 결정하기 위해 비용 함수가 이용된다. 사용되는 특정의 비용 함수는 전형적으로 어레이 카메라의 구성, 어레이 카메라에 의해 포착된 영상들의 수, 및 어레이 카메라에 의해 이용되는 색상 채널들의 수에 의존한다. 다수의 실시예들에서, 어레이 카메라는 단일의 색상 채널을 포함하고 그리고/또는 깊이 맵이 단일의 색상 채널 내의 카메라들을 사용하여 발생된다. 단일의 색상 채널 내로부터의 영상 데이터가 깊이 맵을 발생시키는 데 이용될 때, 대응하는 픽셀들의 분산을 측정하는 비용 함수가 이용될 수 있다. 몇몇 실시예들에서, L1 노름, L2 노름, 또는 어떤 다른 메트릭들의 합산이 사용될 수 있다. 예를 들어, 대상물(target)에 대한 유사도 메트릭들의 집계(전형적으로, 비기준이 아닌 기준이 또한 사용될 수 있다). 분산이 작을수록, 픽셀들 사이의 유사도가 크다.
다수의 스펙트럼 채널들로부터의 영상 데이터가 또한 깊이 맵을 발생시키는 데 이용될 수 있다. 몇몇 실시예들에서, 스펙트럼 채널들 각각 내의 영상들로부터의 대응하는 픽셀들의 유사도를 살펴보는 것에 의해 주어진 픽셀 위치에서의 깊이가 추정된다. 다수의 실시예들에서, 주어진 픽셀 위치에서의 깊이를 결정하는 프로세스는 또한 상이한 스펙트럼 채널들에 걸쳐 영상들로부터의 대응하는 픽셀들의 유사도에 관한 정보를 사용하는 단계를 포함한다. 다수의 색상 채널들을 사용하여 포착된 영상 데이터를 사용하여 깊이 맵을 발생시킬 때 이용될 수 있는 비용 함수들은 상이한 색상 채널들로부터의 영상 데이터의 조합들의 L1 노름, L2 노름, 또는 L1 노름과 L2 노름의 조합 및/또는 다수의 개별적인 색상 채널들 내의 대응하는 픽셀들의 분산/표준 편차(이들로 제한되지 않음)를 포함한다. 다른 실시예들에서, L1 및 L2 노름의 절단된 버전 및/또는 랭크(rank), 센서스(census), 상관 관계, 및/또는 다시점 스테레오 불일치 검출 기법들에서 실시되는 것들과 같은 임의의 다른 적절한 메트릭에 기초한 임의의 블록 기반 유사도 척도가 이용될 수 있다.
이하에서 추가로 논의되는 바와 같이, 본 발명의 많은 실시예들은, 주어진 픽셀 위치가 카메라들의 서브셋 내의 다른 카메라들에 의해 포착된 대안 시점 영상들에서 폐색될 가능성을 감소시키기 위해, 기준 시점으로부터의 영상에서의 픽셀 위치의 깊이를 결정할 때 자연 장면들의 특성들에 기초하여 그룹화된 다수의 색상 채널들로부터의 카메라들을 비롯한 카메라들의 서브셋들을 이용한다. 어레이 카메라가 기준 시점으로부터의 영상을 포착하는 카메라에서 베이어 필터를 이용하는 경우에, 적색 분산, 녹색 분산, 및 청색 분산의 조합을 측정하는 비용 함수들(이들로 제한되지 않음)을 비롯한 각종의 비용 함수들이 픽셀 유사도를 결정하는 데 이용될 수 있다. 그에 부가하여, 영상의 상이한 영역들에서의 픽셀들에 상이한 비용 함수들이 적용될 수 있다. 몇몇 실시예들에서, 이 기법을 사용하여 중앙의 녹색 카메라 그리고 카메라 어레이의 4개의 코너들 각각에 있는 적색, 청색 및 녹색 카메라들의 클러스터에 의해 포착된 영상 데이터로부터 깊이 맵이 발생된다(예를 들어, 도 7을 참조).
본 발명의 일 실시예에 따른, 어레이 카메라에 의해 포착된 영상들을 사용하여 픽셀의 깊이를 결정하는 프로세스가 도 8에 예시되어 있다. 프로세스(800)는 기준 시점으로부터 포착된 영상으로부터 선택된 픽셀에 대한 초기의 가정된 깊이 또는 거리 d를 선택하는 단계(802)를 포함한다. 깊이 측정을 수행하기 위해 사용되는 기준 영상 내의 픽셀의 위치 및 기준 시점과 다른 카메라들의 시점들 사이의 기준선에 관한 정보에 기초하여, 가정된 깊이 d에서 포착된 영상들 각각에서의 대응하는 픽셀 위치들이 결정된다(804). 많은 실시예들에서, 시차 검출 프로세스에의 입력 영상들이 기하학적으로 보정되지 않고, 주어진 깊이 d에서 대응하는 픽셀들을 식별하기 위해 탐색 동안 시차 시프트에 벡터 오프셋(vector offset)을 가산하는 것에 의해 기하학적 보정이 동작 중에 적용된다. 다른 실시예들에서, 정규화 프로세스 동안 탐색이 시작되기 전에 영상들에 기하학적 보정이 적용되고, 픽셀 대응 관계들을 계산할 때 탐색 동안 기하학적 보정 벡터가 부가되어서는 안된다(즉, 기하학적 보정이 사전 계산된다). 후자의 경우에, 기하학적 왜곡의 사전 보정은 알고리즘을 SIMD 및 GPU와 같은 병렬 프로세서 상에서 상당히 더 효율적이게 할 수 있다.
앞서 살펴본 바와 같이, 폐색은 깊이 추정치들에 오류를 유입시킬 수 있다. 폐색/가시성 정보가 이용가능할 때, 폐색된 픽셀들이 깊이 측정의 일부로서 무시될 수 있다(806). 픽셀들의 가시성에 관한 정보가 (예컨대, 초기 깊이 맵의 발생 동안 및/또는 영상들의 서브셋을 사용한 깊이 추정치의 발생 동안) 이용가능하지 않을 때, 대응하는 픽셀 위치들에서의 픽셀들 전부의 유사도가 깊이를 결정하는 데 사용된다. 도 8a 내지 도 8i를 참조하여 이하에서 논의되는 바와 같이, 기준 영상에서의 주어진 픽셀이 보이는 카메라들의 특정의 서브셋을 식별하기 위해 어레이 카메라에 의해 포착된 영상들의 서브셋들로부터 포착된 영상 데이터에 대해 초기 깊이 탐색이 수행될 수 있다.
대응하는 픽셀들이 식별될 때, 대응하는 픽셀들의 유사도가 측정될 수 있다(808). 많은 실시예들에서, 픽셀들의 유사도가 비용 함수를 사용하여 결정된다. 이용되는 특정의 비용 함수는 비교되는 픽셀 정보에 의존한다. 앞서 살펴본 바와 같이, 하나의 실시예에서, 단일의 색상 채널로부터의 픽셀들이 비교될 때, 비용 함수는 대응하는 픽셀들의 L1 노름, L2 노름, 및/또는 분산을 고려할 수 있다. 다수의 색상 채널들로부터의 픽셀들이 비교될 때, 다수의 색상 채널들로부터의 영상 데이터의 L1 및/또는 L2 노름 그리고/또는 다수의 개별적인 색상 채널들 내의 대응하는 픽셀들의 분산/표준 편차를 포함하는 비용 함수들(이들로 제한되지 않음)을 비롯한 보다 복잡한 비용 함수들이 이용될 수 있다. 다른 실시예들에서, L1 및 L2 노름의 절단된 버전 및/또는 랭크, 센서스, 상관 관계, 및/또는 다시점 스테레오 불일치 검출 기법들에서 실시되는 것들과 같은 임의의 다른 적절한 메트릭에 기초한 임의의 블록 기반 유사도 척도가 이용될 수 있다. 몇몇 실시예들에서, 비용 함수를 이용하여 유사도를 결정하는 프로세스는 고정 계수 필터(가우시안 필터 등), 또는 대안의 실시예에서, 에지 보존 필터(이들로 제한되지 않음)와 같은 필터를 사용하여 계산된 비용들을 공간적으로 필터링하는 단계를 포함한다. 후자의 실시예에서, 이러한 방식으로 에지 보존 필터로 필터링하는 것은 깊이 추정치들을 향상시키기 위해 측광적으로 유사한 이웃 픽셀들로부터의 정보를 이용하는 적응적 지원의 한 형태이다. 필터링이 없는 경우, 깊이 측정은 픽셀 단위(pixel-wise)이고, 필터링되는 경우보다 잡음이 더 많다. 적응적 지원을 사용하여 비용 함수를 평활화(smooth)하는 것은 올바르지 않은 깊이들의 발생을 방지할 수 있다. 다수의 실시예들에서, 계산된 비용들이 양방향 필터를 사용하여 공간적으로 필터링되고, 여기서 양방향 필터 가중치들은 기준 영상으로부터 결정되지만, 보통의 양방향 필터와 달리, 얻어진 필터 가중치들이 기준 영상이 아니라 계산된 비용들에 적용된다. 이러한 방식으로, 기준 영상 데이터가 비용 추정치들의 잡음 제거(denoising)를 향상시키는 가이드로서 사용될 수 있다. 다수의 실시예들에서, 특정의 응용의 요구사항들에 적절한 박스 필터 및/또는 임의의 다른 필터가 이용될 수 있다.
상이한 깊이들에서의 대응하는 픽셀들에 대한 비용 함수의 계산이 깊이 탐색이 완료(810)될 때까지 가정된 깊이들의 범위에 걸쳐 스위프(sweep)하면서 반복된다(812). 가장 유망한 깊이가 이어서 (필터링된) 비용 함수가 대응하는 픽셀들이 가장 높은 레벨의 유사도를 가진다는 것을 나타내는 가정된 깊이로서 결정될 수 있다(814). 몇몇 실시예들에서, 주어진 깊이 계산에 대해, 단일의 카메라가 아주 높은 부정합을 나타내는 경우 조기 종료가 일어날 수 있다. 이 조건에서, 프로세스는, 현재의 깊이에서의 정합이 타당하지 않을 것이기 때문에, 그 다음의 가정된 깊이로 건너뛸 수 있다. 많은 실시예들에서, 깊이 샘플링을 수행하는(즉, 특정의 깊이에서의 불일치에 기초하여 대안 시점 영상들에서의 픽셀들을 비교하는) 프로세스는 불일치 공간에서 균일하게 깊이를 샘플링하는 단계를 포함한다. 달리 말하면, 에피폴라 라인을 따라 균일한 픽셀 시프트들에서 깊이 샘플들이 취해질 수 있다. 다수의 실시예들에서, 탐색은 불일치 공간에서의 균일한 샘플링을 포함하지 않는다. 몇몇 실시예들에서, 탐색은 탐색의 효율성을 증가시키기 위해 영상 특성들을 이용한다. 몇몇 실시예들에서, 탐색은 고 분해능 깊이 맵을 형성하려고 시도함에 있어서 어느 깊이들이 샘플링되는지를 결정하거나 제한하기 위해, 보다 거친 또는 보다 낮은 공간 분해능 깊이 맵 또는 불일치에서의 감소된 탐색 분해능으로부터(예컨대, 영상 미리보기(image preview)로부터)와 같이, 객체들이 장면에서 어디에 있는지에 관한 사전 정보를 사용한다. 예를 들어, 특정의 거리를 넘어 어떤 객체들도 없다는 것을 결정하기 위해 미리보기 깊이 맵(preview depth map)이 사용될 수 있고, 이 경우에, 깊이 탐색을 위해, 그 거리를 넘어 어떤 깊이 샘플들도 할당되지 않을 것이다.
많은 영상들이 유사한 색상의 영역들을 나타내고, 따라서 가장 유망한 가정된 깊이에 대한 탐색이 가능한 가정된 깊이들의 범위에 걸쳐 보다 거칠게 분포되어 있는 제1 세트의 가정된 깊이들을 선택하고 가장 높은 정도의 유사도를 나타내는 이들 중의 깊이를 찾아냄으로써 지능적으로 수행될 수 있다. 제1 세트의 깊이들에서 가장 높은 정도의 유사도를 나타낸 깊이 주위의 보다 세분된 범위 내에서 세밀화하기 위해 제2 탐색이 이어서 수행될 수 있다. 보다 세분된 탐색이 실패하고 발견된 최상의 픽셀이 유사한 색상을 나타내는 영역으로부터 것이 아닌 경우, 원래의 제1 거친 탐색에서보다 더 정밀한 간격으로 전 범위의 깊이들에 걸쳐 전체 탐색(full search)이 수행될 수 있다. 그렇지만, 제2 탐색에서 만족스러운 정합이 발견되는 경우, 제2 탐색 내에서 가장 높은 레벨의 유사도를 나타내는 깊이가 가장 유망한 가정된 깊이로서 사용될 수 있다.
많은 실시예들에서, 인접한 픽셀들에 대해 결정된 깊이 정보를 이용하여 픽셀의 가장 유망한 깊이에 대한 탐색이 수행된다. 몇몇 실시예들에서, 탐색은 하나 이상의 인접한 픽셀들의 깊이 주위를 탐색하는 것에 의해, 인접한 픽셀들의 깊이들에 기초하여(예컨대, 인접한 픽셀들의 평균 깊이에 기초하여 또는 인접한 픽셀들의 쌍들의 선형 보간들에 기초하여) 결정된 깊이 주위를 탐색하는 것에 의해, 및/또는 이전에 식별된 깊이(예컨대, 미리보기 영상 및/또는 비디오 시퀀스에서의 이전 프레임에 대해 결정된 깊이) 주위를 탐색하는 것에 의해 수행된다. 이러한 방식으로 탐색하는 것은 또한 깊이를 결정할 때 공간 필터들의 적용을 간단화시킬 수 있다(이하에서의 논의를 참조). 다른 실시예들에서, 영상에서의 픽셀들의 가장 유망한 깊이를 찾아내는 것의 계산 복잡도를 감소시키기 위해 각종의 기법들 중 임의의 것이 이용될 수 있다.
기준 시점으로부터 포착된 영상에서의 픽셀의 깊이를 결정하는 특정의 프로세스들이 도 8과 관련하여 앞서 논의되어 있지만, 어레이 카메라에 의해 포착된 복수의 영상들에 기초하여 가상 시점으로부터 픽셀의 깊이를 결정하는 프로세스를 비롯한 각종의 프로세스들 중 임의의 것이 픽셀의 깊이를 결정하는 데 이용될 수 있다. 초기 깊이 맵을 발생시키고 이어서 기준 시점으로부터의 영상에서의 픽셀 위치에 대응하는 픽셀이 폐색되는 영상들을 무시함으로써 깊이 맵을 세밀화하기 위해 도 8에 예시된 프로세스와 유사한 프로세스들이 이용될 수 있다. 본 발명의 실시예들에 따른 적응적 지원을 사용하여 픽셀 대응 관계를 결정하는 프로세스들이 이하에서 더 논의된다.
폐색의 존재 시에 픽셀 대응 관계를 결정
기준 시점에 깊이 천이 또는 불연속이 있는 경우, 어레이 카메라에 의해 포착된 영상들 중 적어도 하나에서 깊이 천이에 인접한 픽셀들이 폐색될 가능성이 있다. 구체적으로는, 카메라로부터 더 먼 거리에 있는 천이에 인접한 픽셀들이 카메라에 더 가까운 카메라에 인접한 픽셀들에 의해 폐색될 가능성이 있다. 이상적으로는, 다음과 같이 폐색된 픽셀들을 배제하는 깊이 맵이 어레이 내의 각각의 보이는 카메라 i에 대한 집계된 비용 함수 CV(x, y, d)를 사용하여 결정된다:
Figure 112015024340812-pct00023
여기서 Costi,Ref(x, y, d)는 유사도 척도(즉, 비용 함수)이고,
d는 픽셀 (x, y)의 깊이이며,
Vi,Ref(x, y)는 픽셀 (x, y)의 가시성이고 처음에 모든 카메라들에 대해 Vi,Ref(x, y) = 1이다.
다수의 실시예들에서, 개개의 비용들 Costi,Ref(x, y, d)는 다음과 같이 카메라들 i,Ref에 대한 각각의 픽셀 (x, y)에 대한 각각의 불일치 가정 d에 기초하여 계산되고:
Figure 112015024340812-pct00024
여기서 S는 (예를 들어) 유사도 척도이고,
Figure 112015024340812-pct00025
는 기하학적 교정 후의 교정된 영상 i이다.
몇몇 실시예들에서, 집계된 비용을 발생시키는 프로세스는 특정의 가정된 또는 후보 깊이에 대응하는 장면 의존적인 기하학적 시프트들이 영상에서의 모든 픽셀들에 적용되는 영상들을 사용하는 단계를 포함할 수 있다. 이러한 방식으로, 탐색된 각각의 후보 깊이에 대해 시프트된 영상이 발생될 수 있다. 시프트된 영상들을 사용하여, 기준 시점으로부터의 영상에서의 특정 픽셀 위치 (x, y)에 대한 각각의 깊이에서의 집계된 비용이 시프트된 영상들과 기준 영상 사이의 유사도를 이용하여 앞서 기술된 방식으로 발생될 수 있다. 그에 부가하여, 집계된 비용은 다음과 같이 후보 깊이에서의 시프트된 영상들의 유사도를 고려할 수 있고:
Figure 112015024340812-pct00026
여기서 K는 기준 카메라와 동일한 스펙트럼 채널에서의 카메라들의 세트이고,
L은 카메라들의 쌍들의 세트이고, 각각의 쌍에서의 양쪽 카메라들은 (명시야가 다수의 스펙트럼 채널들에서의 영상 데이터를 포함하는 경우 기준 카메라에 대해 상이한 스펙트럼 채널일 수 있는) 동일한 스펙트럼 채널에 있고,
Figure 112015024340812-pct00027
이며,
Figure 112015024340812-pct00028
이다.
다수의 실시예들에서, 세트들 K 및 L은 K 및 L에서의 요구사항들을 충족시키는 카메라들 또는 카메라들의 쌍들 전부를 꼭 포함하지는 않는다. 게다가, 누적 비용 함수(cumulative cost function)는 또한 L의 세트가 대응하는 픽셀들의 비용이 결정되는 임의적으로 큰 카메라 그룹들을 포함하는 비용 항(cost term)을 사용하여 구성될 수 있다. 많은 실시예들에서, 유사도 메트릭 S는 L1 노름이다. 몇몇 실시예들에서, 유사도 메트릭은 L2 노름, 대응하는 픽셀들의 분산 또는 표준 편차(특히 L이 보다 큰 카메라 그룹들을 포함하는 경우), 상관 관계, 랭크, 센서스 및/또는 특정의 응용의 요구사항들에 적절한 임의의 다른 척도를 포함하는 창 기반(window-based) 유사도 메트릭들(이들로 제한되지 않음)을 비롯한 다수의 공지된 유사도 메트릭들 중 임의의 것일 수 있다. 비교들이 시프트된 영상들과 관련하여 앞서 논의되어 있지만, 잘 알 수 있는 바와 같이, 비교들은 (영상에서의 모든 픽셀들에 시프트들을 적용하는 것 및 이어서 시프트된 영상들을 비교하는 것과 달리) 개별적인 픽셀 위치들에 시프트들을 적용하는 것 및 가정된 깊이에서 대응하는 픽셀들을 비교하는 것에 의해 수행될 수 있다.
다수의 실시예들에서, 비용 함수는 또한 상이한 스펙트럼 채널들에 걸쳐 대응하는 픽셀들 간의 유사도를 고려할 수 있다. 몇몇 실시예들에서, 이웃들에 있는 픽셀들의 상호 상관(cross-correlation), 이웃들에 있는 픽셀들 간의 정규화된 상호 상관 및/또는 상호 정보(mutual information)를 측정하는 것을 비롯하여 엔트로피 척도(entropy measure)들(이들로 제한되지 않음)과 같은 2 세트의 픽셀들의 상대값(relative value)들의 유사도를 측정하는 임의의 다른 메트릭(이들로 제한되지 않음)을 비롯한 각종의 메트릭들 중 임의의 것을 사용하여 상이한 스펙트럼 채널들로부터의 픽셀들에서의 픽셀들의 이웃들의 유사도가 평가될 수 있다.
몇몇 실시예들에서, 기준 영상을 포함하는 스펙트럼 채널 내의 대응하는 픽셀들과 기준 영상의 유사도, 동일한 스펙트럼 채널에서의 대안 시점 영상들 내의 대응하는 픽셀들의 유사도, 및/또는 상이한 스펙트럼 채널들에서의 영상들 내의 대응하는 픽셀들의 유사도에 상이한 가중치들이 적용될 수 있다.
앞서 논의한 바와 같이, 집계된 비용 함수는 다음과 같이 공간적으로 필터링될 수 있고:
Figure 112015024340812-pct00029
여기서 Filter는 픽셀 위치 (x, y)를 둘러싸고 있는 이웃 N(x, y)에서 적용된다.
필터는 간단한 3 x 3 또는 N x N 박스 필터 또는 기준 영상을 안내로서 사용하는 결합 양방향 필터(joint bilateral filter), 고정 계수 필터(가우시안 필터 또는 박스 필터 등), 또는 임의의 적절한 에지 보존 필터(이들로 제한되지 않음)를 비롯한 어떤 다른 필터일 수 있다. 몇몇 실시예들에서, 가중된 집계된 비용 함수는 다음과 같고:
Figure 112015024340812-pct00030
여기서 N(x, y)는 특정의 응용의 요구사항들에 적절한 정사각형, 원형, 직사각형, 또는 임의의 다른 형상일 수 있는 픽셀 (x, y)의 바로 이웃이고,
Norm은 정규화 항이며,
IRef(x, y)는 기준 카메라로부터의 영상 데이터이고,
wd는 픽셀 거리에 기초한 가중 함수이며,
wr은 명도 차이에 기초한 가중 함수이다.
많은 실시예들에서, 필터는 양방향 필터이고, wd 및 wr은 둘 다 가우시안 가중 함수이다.
필터링된 집계된 비용 함수에 기초하여, 다음과 같이 깊이 맵에서의 각각의 픽셀 위치에서 필터링된 비용을 최소화하는 깊이를 선택하는 것에 의해 깊이 맵이 계산될 수 있다:
D(x, y) = argmind{FilteredCV(x, y, d)}
집계된 비용 함수가 앞서 기술한 방식으로 에지 보존 필터를 사용하여 필터링될 때, 잡음이 폐색된 픽셀들의 잘못된 검출을 가져올 가능성이 감소된다. 개개의 픽셀들에 대한 깊이들을 계산하는 대신에, 깊이 천이를 보존하는 방식으로 잡음을 필터링하기 위해 각각의 픽셀 주위에서 적응적 지원 창(adaptive support window)이 사용된다. 양방향 필터(이들로 제한되지 않음)와 같은 필터를 이용하는 것은 내용(content)에 기초하여 적응하는 적응적 지원 창을 제공한다. 많은 실시예들에서, 양방향 필터에 대한 공간 및 범위 지원(즉, 특정 픽셀에 대한 집계된 비용 함수에 기여하는 픽셀들의 창의 크기를 정의하는 파라미터들)을 정의하기 위해 기준 영상이 사용되는 양방향 필터가 사용된다. 그 결과로서, 픽셀의 비용 함수의 평활화는 동일한 표면의 일부인 픽셀들의 계산된 비용 함수를 사용하여 달성될 수 있다. 다른 실시예들에서, 박스 필터(이들로 제한되지 않음)와 같은 필터들은 계산이 덜 복잡하고 특정의 응용들의 요구사항들에 충분한 필터링을 제공한다.
다수의 스펙트럼 채널들에서의 픽셀들에 대한 픽셀 대응 관계를 결정
본 발명의 많은 실시예들에 따른 어레이 카메라들은 적색, 녹색 및 청색 카메라들(이들로 제한되지 않음)과 같은 다수의 스펙트럼 채널들에서의 카메라들을 포함한다. 비용 메트릭 CV(x, y, d)는 단일의 스펙트럼 채널 및 다수의 스펙트럼 채널들과 관련하여 앞서 기술되어 있다. 적색, 녹색, 및 청색 카메라들을 포함하는 어레이 카메라의 경우에, 비용 함수는 특정의 깊이에서 녹색 카메라들에서의 픽셀들의 유사도, 적색 카메라들에서의 픽셀들의 유사도, 및 청색 카메라들에서의 픽셀들의 유사도를 고려할 수 있다. 특정의 색상 채널에서의 카메라(예컨대, 녹색 카메라)가 기준 카메라로서 선택되는 경우, 다른 채널들(예컨대, 적색 및 청색 카메라들)에서의 픽셀들은 기준 영상에서의 픽셀들과 직접 비교하기가 어렵다. 그렇지만, 특정의 깊이에서의 불일치가 결정될 수 있고, 다른 색상 채널들에서의 대응하는 픽셀들의 명도 값들이 비교될 수 있다. 이 부가의 비교들을 깊이 추정치에 포함시키는 것은 모든 색상 채널들에 걸친 정보를 이용함으로써 깊이 추정치들을 향상시킬 수 있다. 적색, 녹색, 및 청색 카메라들을 포함하는 어레이 카메라들에서 깊이 추정을 수행하는 데 이용될 수 있는 다양한 비용 함수들이 이하에서 더 논의된다. 그렇지만, 잘 알 수 있는 바와 같이, 본 발명의 실시예들에 따라 임의의 세트의 스펙트럼 채널들에 대해 동일한 비용 함수들이 이용될 수 있다.
몇몇 실시예들에서, 영상 데이터가 적색, 녹색, 및 청색 카메라들을 포함하는 어레이 카메라를 사용하여 포착되고, 녹색 카메라가 기준 카메라로서 선택된다. 깊이 추정치들을 결정할 때 한 세트의 녹색 카메라들에서의 픽셀들 사이의, 한 세트의 적색 카메라들에서의 픽셀들 사이의, 그리고 한 세트의 청색 카메라들에서의 픽셀들 사이의 픽셀 대응 관계를 고려하는 비용 함수가 이용될 수 있다. 몇몇 실시예들에서, 하기의 비용 함수가 이용될 수 있고:
Figure 112015024340812-pct00031
여기서 CostG(x, y, d)는 깊이 d에 기초하여 결정된 한 세트의 녹색 카메라들 내의 위치들에서의 픽셀들과 기준 녹색 카메라에서의 픽셀 (x, y)의 위치의 유사도의 척도이고,
CostR(x, y, d)는 깊이 d에 기초하여 결정된 한 세트의 적색 카메라들 내의 위치들에서의 대응하는 픽셀들과 기준 녹색 카메라에서의 픽셀 (x, y)의 위치의 유사도의 척도이며,
CostB(x, y, d)는 깊이 d에 기초하여 결정된 한 세트의 청색 카메라들 내의 위치들에서의 대응하는 픽셀들과 기준 녹색 카메라에서의 픽셀 (x, y)의 위치의 유사도의 척도이고,
Figure 112015024340812-pct00032
Figure 112015024340812-pct00033
는, 각각, 기준 시점 전체에 대해 상수들일 수 있거나 공간적으로 변할 수 있는 녹색, 적색 및 청색 비용 함수들에 대한 가중 인자들이다.
공간 가중치는 포착된 영상 데이터에 의존할 수 있고(예를 들어, 에지 경사(edge gradient)들을 사용함), 센서의 기지의 특성들(예를 들어, SNR을 계산하기 위해 주어진 센서에 대한 잡음 모델 사전 정보(noise model prior)를 사용함)은 물론, 비용 함수의 특성들(공간 가중치가 영상 데이터에 의존하는 다른 경우임)을 보정하거나 사용할 수 있다. 그에 부가하여, 영상이 포착되는 이득 또는 검출된 광 레벨(이들로 제한되지 않음)과 같은 영상 데이터의 포착 동안 이용되는 영상 파라미터(imaging parameter)들이 또한 가중치들을 결정할 시에 고려될 수 있고, 가중 인자들을 변조하는 데 사용될 수 있다.
비용 함수 CostG(x, y, d)는 앞서 기술한 메트릭들 중 하나일 수 있다. 많은 실시예들에서, CostG(x, y, d)는 대안 시점 영상에서의 픽셀과 기준 영상에서의 픽셀을 비교하는 L1 노름, 대안 시점 영상에서의 픽셀과 기준 영상에서의 픽셀을 비교하는 L2 노름, 및/또는 녹색 카메라들에 의해 포착된 일련의 영상들에서의 픽셀들에 걸친 분산에 기초하여 유사도 척도를 사용한다. 다른 실시예들에서, L1 및 L2 노름의 절단된 버전 및/또는 랭크, 센서스, 상관 관계, 및/또는 다시점 스테레오 불일치 검출 기법들에서 실시되는 것들과 같은 임의의 다른 적절한 메트릭에 기초한 임의의 블록 기반 유사도 척도가 이용될 수 있다.
다수의 실시예들에서, 다른 색상 채널들에 대한 비용 함수들(즉, CostR(x, y, d) 및 CostB(x, y, d))은 픽셀 대응 관계를 결정하는 기초로서 기준 영상으로부터의 픽셀을 포함하는 비교를 이용하지 않는다. 몇몇 실시예들에서, 대응하는 픽셀들의 유사도는 색상 채널 내의 한 세트의 카메라들에서의 대응하는 픽셀들의 각각의 독자적인 쌍 사이의 집계된 차이를 계산하는 것에 의해 수행된다. 깊이가 4개의 적색 카메라들 RA, RB, RC, 및 RD를 사용하여 결정되는 어레이 카메라의 예에서, 비용은 다음과 같이 결정될 수 있고:
Figure 112015024340812-pct00034
여기서 (xA, yA), (xB, yB), (xC, yC), 및 (xD, yD)는, 각각, 깊이 d에서의 카메라들 RA, RB, RC, 및 RD 각각에서의 불일치에 기초하여 결정된 픽셀 위치들이다.
상기 메트릭은 조합 비용 메트릭이라고 할 수 있고, 기준 카메라를 포함하지 않는 임의의 색상 채널 내에서 적용될 수 있다. 몇몇 실시예들에서, 색상 채널 내의 한 세트의 카메라들에서의 대응하는 픽셀들의 독자적인 쌍들의 모든 조합을 포함하지는 않는 조합 메트릭이 이용될 수 있다. 몇몇 실시예들에서, 어레이 카메라에 의해 포착된 영상들의 서브셋으로부터의 대응하는 픽셀들의 독자적인 쌍들이 이용될 수 있다. 가상 시점에 대해 깊이들이 결정될 때, 스펙트럼 채널들 중 어느 것도 "기준 카메라"를 포함하지 않고, 스펙트럼 채널들 각각에서 조합 비용 메트릭이 적용될 수 있다. 조합 비용 메트릭이 픽셀 명도 값들 사이의 유사도를 결정하기 위해 L1 노름을 이용하는 것으로 앞서 나타내었지만, 다른 실시예들에서, L2 노름, 픽셀 분산, L1 및 L2 노름의 절단된 버전 및/또는 랭크, 센서스, 상관 관계, 및/또는 다시점 스테레오 불일치 검출 기법들에서 실시되는 것들과 같은 임의의 다른 적절한 메트릭에 기초한 임의의 블록 기반 유사도 척도가 이용될 수 있다.
가중 인자들(예컨대,
Figure 112015024340812-pct00035
Figure 112015024340812-pct00036
)은 스펙트럼 채널들 각각의 깊이 추정치에의 기여도를 결정하는 데 사용될 수 있다. 가중치들이 고정되어 있거나 기준 영상에서 픽셀마다 변할 수 있다(즉, 공간적으로 변함). 많은 실시예들에서, SNR(signal-to-noise ratio) 추정기를 사용하여 기준 영상에 대해 SNR의 맵이 발생될 수 있다. 몇몇 실시예들에서, SNR 추정기는 신호 잡음의 사전 특성 평가(prior characterization)에 기초하여 SNR을 결정할 수 있다. SNR 응답이 높은 영역들은 텍스처(texture) 또는 고 신호(high signal)의 존재를 나타낼 수 있다. SNR 추정치가 낮은 영역들은 거의 전적으로 잡음으로 이루어진 텍스처리스 영역(textureless region)을 나타낼 수 있다. 특정의 상황에서, 영상들로부터의 데이터가 특정의 스펙트럼 채널들에서는 잡음이 많을 수 있지만 다른 스펙트럼 채널들에서는 그렇지 않을 수 있다. 예를 들어, 한 영역이 녹색 영상들에서는 텍스처리스인 것처럼 보일 수 있지만, 적색 카메라들에 의해 포착된 영상들에서는 신호 내용(signal content)을 가질 수 있다. 따라서, 녹색 카메라들은 비용 함수에 유용한 정보를 거의 제공하지 않을 것이고, 실제로는 깊이 추정 프로세스에 잡음을 유입시킬 수 있으며, 그 결과 적색 또는 청색 카메라들만이 비용 함수에 포함되어 있는 경우보다 덜 신뢰성있는 깊이 추정치가 얻어진다. 따라서, 색상 채널들 각각에 적용할 가중치들을 결정하기 위해 SNR 맵이 이용될 수 있다. 몇몇 실시예들에서, 픽셀 (x, y)에 대한 기준 영상에서의 SNR 추정치가 낮은 경우― 이는 픽셀 (x, y) 바로 주위의 영역이 텍스처리스일 가능성이 있고 그다지 신호를 포함하지 않는다는 것을 의미함 ―, 기준 영상을 포함하는 색상 채널에 대한 가중치가 픽셀 (x, y)에서 감소되어야만 한다.
많은 실시예들에서, 보다 엄격한 조건이 또한 사용될 수 있고 그리고/또는 기준 영상을 포함하는 스펙트럼 채널에 대한 가중치가 픽셀 (x, y)에서 감소되어야만 하는 대안으로서 사용될 수 있고, 픽셀 (x, y)에서 그리고 모든 카메라들에 대한 기준 영상에서의 (에피폴라 라인들을 따른) 최대 시차의 반경에 대해 기준 영상에서의 SNR 추정치가 낮은 SNR을 나타낼 때, 기준 영상을 포함하는 스펙트럼 채널에 대한 가중치가 픽셀 (x, y)에서 감소되어야만 한다. 스펙트럼 채널 내의 카메라 어레이에서의 다른 카메라들에 대해 결정된 에피폴라 라인들을 따라 위치해 있는 픽셀들에 대해서만 최대 시차의 반경이 결정될 수 있다. 보다 엄격한 기준은, SNR이 기준 영상에서의 픽셀 위치 (x, y)에서 낮을 수 있지만, 기준 카메라를 포함하는 색상 채널 내의 다른 카메라에서의 픽셀 (x, y)로부터 얼마간(최대 시차 시프트 미만) 떨어져 내용이 있을 수 있다는 것― 이는 후보 깊이를 유망한 정합이 되지 못하게 실격시킬 수 있음 ―이다. 따라서, 픽셀 위치 (x, y)가 낮은 SNR을 가질 수 있지만, 근방의 내용은 여전히 가능한 것으로서의 특정의 깊이들을 실격시키는 데 유용한 정보를 제공할 수 있다.
다수의 실시예들에서, 기준 영상에서의 강한 SNR은 계산을 절감하기 위해 다른 색상 채널들에 적용되는 가중치를 감소시키는 데 사용될 수 있다(즉, 보다 적은 수의 카메라들이 탐색되어야만 함). 그에 부가하여, 비용 함수에서 색상 채널에 적용되어야만 하는 가중치를 결정하기 위해 다른 색상 채널들 중 하나에서의 카메라에 대해 SNR이 추정될 수 있다. 많은 실시예들에서, SNR을 결정하는 프로세스는 대안 시점 카메라에서의 픽셀 위치 (x, y)를 기준 카메라에 연결시키는 에피폴라 라인을 따라 SNR을 추정하는 단계를 포함한다. 이어서, 높은 SNR의 영역들이 있는지 에피폴라 라인 또는 라인(들)이 탐색될 수 있다. 대안 시점 카메라에서 에피폴라 라인을 따라 높은 SNR 기여분들이 발견되는 경우, 대안 시점 카메라가 속하는 색상 채널의 가중치는 색상 채널이 기준 영상에서의 픽셀 위치 (x, y)에 대한 비용 메트릭에 기여하도록 설정될 수 있다. 그 대신에, 픽셀 위치 (x, y)에서 시작하는 에피폴라 라인을 따라, 대안 시점 영상이 낮은 SNR만을 나타내는 경우, 대안 시점 영상을 포함하는 색상 채널의 기여분이 그에 대응하여 감소될 수 있다. 많은 실시예들에서, 깊이 추정치들을 결정할 때 색상 채널에 적용할 가중치를 결정할 때 각각의 색상 채널에서의 다수의 카메라들이 고려된다. 기준 카메라를 포함하지 않는 색상 채널들 내에 포함된 정보를 사용하여 깊이를 추정하는 특정의 프로세스들이 앞서 기술되어 있지만, 각종의 프로세스들 중 임의의 것이 본 발명의 실시예들에 따라 특정의 응용들의 요구사항들에 따라 적절히 다수의 색상 채널들에 포함된 정보에 기초하여 깊이 추정치들을 결정하는 데 이용될 수 있다.
초기 깊이 맵에 기초하여, 가시성 Vi,Ref(x, y)가 계산된 깊이 맵 D(x, y)에 기초하여 또는 고정 계수 필터(가우시안 또는 박스 필터 등), 또는 기준 영상을 안내로서 사용하는 결합 양방향 필터(이들로 제한되지 않음)와 같은 적응적 또는 에지 보존 필터를 사용하여 필터링되는 필터링된 깊이 맵 F(D(x, y))에 기초하여 업데이트될 수 있다. 기준 시점으로부터 포착된 영상에서의 픽셀이 다른 영상에서 폐색되는지를 결정하기 위해 각종의 기법들이 이용될 수 있다. 다수의 실시예들에서, 폐색될 수 있는 픽셀들을 식별하기 위해 초기 깊이 맵이 이용된다. 폐색이 일어날 가능성이 있는 구역들을 식별하기 위해 전경 객체들에 관한 정보가 이용될 수 있다. 그에 부가하여, 깊이 맵 내에서의 특이한 깊이 천이 및/또는 국소 픽셀 깊이 값들과 부합하지 않는 픽셀 깊이 값들(이들로 제한되지 않음)을 비롯한 폐색을 검출하기 위해 초기 깊이 맵의 각종의 부가의 특성들 중 임의의 것이 이용될 수 있다.
도 8과 관련한 이상의 논의의 많은 부분이 단일의 스펙트럼 채널에서의 또는 적색, 녹색, 및 청색 색상 채널들에서의 영상 데이터를 사용하여 깊이 추정치들을 발생하는 것에 관련되어 있지만, 앞서 기술한 기법들이 각종의 스펙트럼 채널들 중 임의의 것에 대해 똑같이 적절하다(색상 채널 및 스펙트럼 채널이라는 용어들은 본 명세서에서 서로 바꾸어 사용될 수 있음). 앞서 기술한 기법들 중 임의의 것을 사용하여 각각의 스펙트럼 채널에 대해 결정된 비용 항을 비롯한 앞서 기술한 것들과 유사한 집계된 비용 함수들이 이용될 수 있다. 그에 부가하여, 비용 함수는 앞서 기술한 것들과 유사한 기법들을 사용하여 스펙트럼 채널들에 걸쳐 픽셀들의 유사도를 가중하는 비용 항들을 포함할 수 있다. 얻어진 깊이 추정치들을 정확도는 깊이 추정치가 기준 영상에서의 픽셀 위치 (x, y)가 폐색되는 영상으로부터의 픽셀들을 이용하는 정도에 의존할 수 있다. 기준 시점으로부터의 영상에서의 픽셀 위치 (x, y)가 일련의 영상들에서의 하나 이상의 영상들 내에서 폐색될 때 깊이 추정치들의 정확도를 향상시키는 기법들이 이하에서 더 논의된다.
폐색을 참작하여 영상들의 서브셋들을 사용해 깊이 맵을 발생
가시성의 패턴들이 자연 장면들에 나타난다. 따라서, 패턴 Vi,Ref(x, y)가 전형적으로 임의적이지 않다. 기준 영상에서의 픽셀이 보이는 카메라들에 관한 강한 사전 정보(strong prior)가 존재한다. 많은 실시예들에서, 깊이 맵이 픽셀 (x, y)가 폐색되는 카메라들이 잘못 식별될 가능성이 낮은 Vi,Ref(x, y)에 대한 추정치를 역시 제공하는 방식으로 결정될 수 있다. Vi,Ref(x, y)에 대한 추정치에 기초하여, Vi,Ref(x, y)의 가시성을 세밀화하기 위해 반복할 필요 없이 깊이 추정치가 결정될 수 있다. 다른 대안으로서, 신뢰성있는 깊이 추정치를 사용하여 획득된 가시성 정보에 기초하여 부가의 카메라들을 포함시키는 것에 의해 깊이 맵을 세밀화하기 위해 부가의 반복들이 수행될 수 있다. 그렇지만, 보다 나은 초기 깊이 맵을 획득함으로써, 반복 프로세스가 보다 빠르게 수렴할 가능성이 있다.
많은 실시예들에서, 깊이 맵을 발생시키는 프로세스는 각각이 장면 내에서 상이한 가시성 패턴에 대응하는 카메라들의 다수의 클러스터들 또는 서브셋들을 사용하여 깊이를 결정하는 단계 및 깊이 추정치를, 대응하는 픽셀들이 가장 높은 유사도를 가지는 카메라들의 클러스터에 의해 포착된 영상들의 서브셋을 사용하여 결정된 깊이로서, 선택하는 단계를 포함한다. 본 발명의 일 실시예에 따른, 카메라 어레이의 서브셋들을 나타내는 카메라들의 그룹들에 의해 포착된 영상들을 사용하여 픽셀 (x, y)에 대한 깊이를 결정하는 프로세스가 도 8a에 예시되어 있다. 프로세스(850)는 장면 내에서의 특정의 가시성 패턴에 대응하는 카메라들의 초기 그룹을 선택하는 단계(852) 및 카메라들의 그룹에 의해 포착된 영상 데이터의 서브셋을 사용하는 후보 깊이 추정치가, 카메라들의 그룹 내의 대응하는 픽셀들이 가장 높은 유사도를 가지는 깊이에 기초하여, 발생되는 것으로 결정하는 단계(854)를 포함한다. 몇몇 실시예들에서, 프로세스는 영상들의 각각의 서브셋에 대해 비용들이 결정되고, 서브셋들을 사용하여 발생된 최저 비용의 깊이 추정치가 관련 픽셀 위치에 대한 후보 깊이 추정치로서 선택된다는 것을 제외하고는 도 8과 관련하여 앞서 기술한 것과 유사하다. 이하에서 추가로 논의되는 바와 같이, 주어진 응용의 상황 내에서 가장 신뢰성있는 후보 깊이 추정치를 결정하기 위해, 후보 깊이 추정치에서 영상들의 서브셋 내의 대응하는 픽셀들의 유사도가 이어서 다른 후보 깊이 추정치들에서 영상들의 다른 서브셋들 내의 대응하는 픽셀들의 유사도와 비교된다. 많은 실시예들에서, 픽셀 위치에 대한 깊이 추정치로서 선택되는 후보 깊이 추정치는 후보 깊이 추정치에서 가장 유사한 대응하는 픽셀들을 가지는 영상들의 서브셋에 기초하여 결정된다.
많은 실시예들에서, 카메라들의 그룹은 다수의 색상 채널들로부터의 카메라들을 포함할 수 있고, 카메라들의 그룹을 사용하여 기준 영상에서의 픽셀 (x, y)의 깊이를 추정하기 위해 각각의 색상 채널에서의 비용 메트릭 가중 유사도(cost metric weighting similarity)가 이용된다. 프로세스는 이어서, 카메라들의 그룹들 각각에 대해 깊이 추정치가 결정될 때까지, 각각이 장면 내에서의 상이한 가시성 패턴들에 대응하는 복수의 상이한 카메라 그룹들을 통해 반복한다(856, 858, 854). 기준 시점으로부터의 영상에서의 픽셀 위치 (x, y)에 대한 깊이 추정치는 추정된 깊이에서의 대응하는 픽셀들이 가장 높은 유사도를 가지는 카메라들의 그룹으로부터 깊이 추정치를 선택하는 것에 의해 획득될 수 있다. 앞서 살펴본 바와 같이, 다수의 스펙트럼 채널들에서 및/또는 스펙트럼 채널들에 걸쳐 픽셀들의 유사도를 가중하는 비용 함수를 사용하여 픽셀들의 유사도가 결정될 수 있다. 추정된 깊이에서의 대응하는 픽셀들이 가장 높은 유사도를 가지는 영상들의 서브셋은 특정의 가시성 패턴에 대응하고 기준 시점으로부터의 영상에서의 픽셀 위치 (x, y)가 그가 폐색되는 카메라에서 보이는 것으로 잘못 식별할 가능성이 낮은 Vi,Ref(x, y)의 초기 추정치를 제공한다.
앞서 제공된 논의가 기준 영상에서의 픽셀 위치들 (x, y)과 관련한 카메라들의 각각의 그룹에 대해 탐색을 수행하는 것과 관련하여 제시되어 있지만, 특정의 가시성 패턴에 대응하는 카메라들의 각각의 그룹을 사용하여 기준 영상에서의 픽셀들에 대해 깊이 맵들은 개별적으로 추정될 수 있다. 이러한 방식으로, 비용 함수에서의 잡음을 평활화하기 위해, 카메라들의 특정의 그룹을 사용하여 픽셀 위치 (x, y)에 대해 결정된 비용 메트릭들이 필터링될 수 있다. 따라서, 픽셀 위치 (x, y)에 대한 깊이 추정치는 가장 작은 필터링된 비용 메트릭을 가지는 카메라들의 그룹에 대한 깊이 추정치를 사용하여 선택될 수 있다. 카메라들의 특정의 그룹을 사용하여 결정된 비용 메트릭들에 적용되는 필터들은 고정될 수 있거나, 공간 적응적(spatially adaptive)일 수 있다. 이용되는 특정의 필터들은 본 발명의 실시예들에 따라 특정의 응용들의 요구사항들에 기초하여 결정될 수 있다. 기준 영상에서의 픽셀들에 대한 깊이 추정치들의 선택 후에, 초기 깊이 맵에서의 잡음을 추가로 평활화하기 위해 부가의 필터링이 수행될 수 있다.
장면 내에서의 특정의 가시성 패턴들을 검출하기 위해 이용되는 카메라들의 클러스터들 또는 그룹들은 어레이 카메라 내의 카메라들의 수, 기준 카메라로서 선택되는 카메라, 및/또는 어레이 내의 상이한 색상 채널들로부터의 카메라들의 분포에 의존할 수 있다. 어레이의 중앙에 위치해 있는 기준 카메라에서의 픽셀들에 대한 장면 내에 존재할 가능성이 있는 상이한 가시성 패턴들에 대응하는 5 x 5 어레이에서의 카메라들의 8개의 그룹들이 도 8b 내지 도 8i에 도시되어 있다. 12개의 카메라들을 포함하는 동일한 그룹 템플릿을 회전 및 플립(flip)시키는 것에 의해 8개의 그룹들이 발생된다. 그룹 템플릿의 배향에 따라, 이것은 7개의 녹색 카메라들, 그리고 3개의 적색 카메라들 및 2개의 청색 카메라들, 또는 3개의 청색 카메라들 및 2개의 적색 카메라들을 포함한다. 앞서 살펴본 바와 같이, 5 x 5 어레이의 중앙에 위치해 있는 기준 녹색 카메라에서의 픽셀 (x, y)에 대한 깊이를 추정할 때 카메라들의 그룹들을 선택하기 위해 그룹 템플릿이 이용될 수 있다. 추정된 깊이에서의 3개의 색상 채널들에서의 대응하는 픽셀들이 가장 높은 유사도를 가지는 카메라들의 그룹으로부터 깊이 추정치를 선택하는 것에 의해 픽셀 위치 (x, y)의 깊이가 추정될 수 있다.
카메라들의 그룹들을 선택하기 위한 특정의 그룹들이 도 8b 내지 도 8i에 도시되어 있지만, 장면 내의 공통의 가시성 패턴들에 대응하는 각종의 템플릿들 중 임의의 것이 이용될 수 있다. 예를 들어, 단일의 에피폴라 라인을 따라 있는 카메라들의 그룹들은 도 10을 참조하여 이하에서 기술되는 바와 같이 선택될 수 있다. 많은 실시예들에서, 기준 카메라를 포함하는 색상 채널에서의 동일한 수의 카메라들이 카메라들의 각각의 그룹에 나타나도록 그룹들이 선택된다. 그에 부가하여, 카메라들의 각각의 그룹에 다른 색상 채널들에서의 적어도 2개의 카메라들이 있도록 그룹들이 결정될 수 있다. 그룹들이 불균일한 수의 카메라들을 포함하는 경우, 상이한 크기의 그룹들에 대한 비용 메트릭이 편향(bias)될 수 있고, 이 편향은 정규화를 통해 설명될 수 있다. 많은 실시예들에서, (공통의 기준선을 공유하는 것에 기초하여 선택되는 도 10에 예시된 그룹들과 달리) 카메라들의 그룹들이 기준선 다이버시티를 제공하도록 선택된다. 깊이 탐색이 수행되는 상이한 방사상 에피폴라 라인들의 수가 많을수록, 카메라들의 그룹에 의해 포착된 영상들 중 하나가 잘못된 깊이들을 식별하는 데 도움을 줄 수 있는 정보를 포함할 가능성이 많다. 몇몇 실시예들에서, 각각의 그룹의 에피폴라 라인들에 의해 정의되는 섹터의 중심각(central angle)이 동일하도록 카메라들의 그룹이 선택된다.
4 x 4 어레이 카메라들(이들로 제한되지 않음)과 같은 보다 작은 어레이 카메라들에서, 그리고 어레이 내에서 이용되는 컬러 필터들의 패턴에 따라, 각각의 색상 채널에 동일한 수의 카메라들을 포함하는 카메라들의 그룹들을 선택하는 것이 가능하지 않을 수 있다. 몇몇 실시예들에서, 공통의 가시성 패턴들에 대응하는 카메라들의 그룹들이 단일의 색상 채널에서 동일한 수의 카메라들을 포함하도록 컬러 필터 패턴이 이용된다. 이러한 방식으로, 색상 채널 내에서 포착된 영상 데이터는, 상이한 서브그룹들을 사용하여 획득된 깊이 추정치들의 필터링된 비용들을 비교함으로써, 폐색된 또는 다른 방식으로 부정합된 픽셀들에 대한 깊이들을 추정하는 데 이용될 수 있다. 어레이의 중앙에 위치해 있는 기준 카메라에서의 픽셀들에 대한 장면 내에 존재할 가능성이 있는 상이한 가시성 패턴들에 대응하는 4 x 4 어레이에서의 카메라들의 4개의 그룹들이 도 8j 내지 도 8m에 도시되어 있다. 4개의 카메라들을 포함하는 동일한 그룹 템플릿을 회전 및 플립시키는 것에 의해 4개의 그룹들이 발생된다. 예시된 실시예에서, 다음과 같은 3개의 색상 채널들이 있다: 적색, 녹색, 및 청색. 카메라들의 각각의 그룹은 3개의 녹색 카메라들 및 하나의 청색 또는 적색 카메라를 포함한다. 단일의 적색 또는 청색 카메라의 존재로 인해, 몇몇 실시예들에서, 녹색 색상 채널에서 포착된 영상 데이터를 사용하여 깊이 추정치들이 결정된다. 주어진 픽셀 위치 (x, y)에서, 가장 신뢰성있는 깊이 추정치(즉, 가장 낮은 비용)를 산출한 그룹의 적색 또는 청색 카메라에서의 영상 데이터는 기준 시점으로부터의 영상에서 보이는 것으로 가정된다. 그에 따라, 기준 시점으로부터의 영상에서 픽셀 위치 (x, y)에 대응하는 적색 또는 청색 영상 내의 픽셀 위치에서의 픽셀 값이 적색 또는 청색 색상 채널들 내의 다른 영상들에서의 대응하는 픽셀들의 가시성을 계산하기 위한 기준 픽셀로서 이용될 수 있다. 도 8j 내지 도 8m에 도시된 그룹들 각각에 대해, 스펙트럼 채널들 중 하나가 그룹으로부터 배제되어 있다. 그렇지만, π 필터 그룹의 사용은 배제된 색상 채널에서의 영상들 중 어느 것이 배제된 색상 채널에서의 픽셀들의 가시성을 결정하기 위한 기준 영상으로서 사용되어야만 하는지를 식별하기 위해 이용될 수 있다. π 카메라 그룹의 중앙 카메라의 시점이 기준 시점으로서 이용될 때, 배제된 색상 채널에서의 2개의 영상들이 기준 시점의 반대쪽에 있는 시점들로부터 포착될 것이다. 전형적인 자연 장면들에서, 기준 시점으로부터의 영상 내의 픽셀 위치가 배제된 색상 채널에서의 인접한 카메라들에 의해 포착된 영상들 중 적어도 하나에서 보일 가능성이 있다. 영상들 중 어느 것(있는 경우)이 보이는 기준 시점으로부터의 영상에서의 픽셀 위치에 대응하는 픽셀을 포함할 가능성이 가장 많은지를 결정하기 위해, 2개의 영상들을 포함하는 2개의 서브그룹들 내의 대응하는 픽셀들의 유사도. 서브그룹들 중 적어도 하나에서의 대응하는 픽셀들이 임계치 레벨의 유사도를 달성하는 것으로 가정하면, 대응하는 픽셀들이 가장 높은 레벨의 유사도를 가지는 서브그룹에서의 영상이 배제된 색상 채널에 대한 기준 영상으로서 선택될 수 있다. 이러한 방식으로, 배제된 색상 채널 내의 임의의 영상에서의 대응하는 픽셀들의 가시성이 배제된 색상 채널에 대한 기준 영상으로부터의 대응하는 픽셀과의 그의 유사도에 기초하여 결정될 수 있다. 기준 시점에 인접한 시점들로부터의 포착된 어느 영상도 기준 시점으로부터의 영상 내의 픽셀 위치에 대응하는 보이는 픽셀을 확실히 포함하지 않는 경우, 보이는 대응하는 픽셀을 포함하는 배제된 색상 채널 내의 영상을 식별하기 위해 그리고/또는 배제된 색상 채널로부터의 개개의 영상들 내의 픽셀들의 가시성을 결정하기 위해 대안의 기법들이 이용될 수 있다. 몇몇 실시예들에서, 본 명세서에 기술된 방식으로 에피폴라 라인 탐색을 수행함으로써 가시성이 결정될 수 있다. 다수의 실시예들에서, 기준 픽셀로서 이용될 수 있는 배제된 색상 채널에서의 영상들 내의 대응하는 픽셀을 결정하기 위해 교차 채널 유사도 척도(cross-channel similarity measure)들이 사용될 수 있다. 몇몇 실시예들에서, 대응하는 픽셀을 둘러싸고 있는 이웃이 기준 영상과의 가장 높은 상호 상관(또는 임의의 다른 적절한 교차 채널 유사도 척도)을 나타내는 영상이 배제된 색상 채널에서의 영상들 내의 다른 대응하는 픽셀들의 가시성을 결정하기 위한 기준 픽셀로서 이용될 수 있다. 상이한 크기의 카메라 어레이들을 포함하는 어레이 카메라들로 유사한 접근 방법이 취해질 수 있다.
많은 실시예들에서, 기준 카메라에서의 픽셀에 대한 깊이를 추정하는 데 사용되는 카메라들의 그룹들은 어레이 내의 카메라들의 쌍들에 대응한다. 임계치들의 사용을 통해, 픽셀 (x, y)가 보일 가능성이 있는 카메라들이 식별될 수 있고 초기 가시성 맵 Vi,Ref(x, y)가 구성될 수 있다. 임계치가 하드 임계치(hard threshold), 및/또는 기준 영상에서의 SNR에 기초한 임계치일 수 있다. 도 8b 내지 도 8i에 예시된 것들과 같은 카메라들의 보다 큰 그룹들에 대해서도 마찬가지이다. 대응하는 픽셀들의 세트 내에서의 하나 이상의 이상치 픽셀(outlier pixel)들의 존재를 검출하기 위해 임계치들이 사용될 수 있다. 이상치들을 포함하지 않는 것으로 밝혀진 카메라들의 그룹들이 이어서 결합될 수 있고, 깊이 추정치들의 정밀도를 향상시키기 위해 깊이가 이 새로운 결합된 세트로 재계산된다. 유사한 방식으로, 모든 카메라들이 가시성 맵 Vi,Ref(x, y)에서 보이는 것으로 처음에 가정함으로써 초기 깊이 맵이 구성될 수 있다. 앞서 기술된 방식으로 임계치들을 사용하는 것, 및/또는 에피폴라 라인들을 따라 폐색 탐색을 수행하는 것(이들로 제한되지 않음)을 비롯한 각종의 기법들 중 임의의 것이 카메라 어레이 내의 카메라들 중 적어도 하나에서 픽셀 (x, y)가 폐색되는지를 결정하는 데 이용될 수 있다. 어레이 내의 카메라들 중 적어도 하나에서 폐색될 가능성이 있는 픽셀들의 깊이가 이어서 도 8a와 관련하여 앞서 기술한 프로세스와 유사한 프로세스를 사용하여 또다시 추정될 수 있다. 이러한 방식으로, 픽셀이 폐색되는 카메라들이 신속하게 식별될 수 있다.
기준 영상 내의 픽셀들에 대한 깊이를 추정할 때 깊이 맵들 및 가시성 맵들을 결정하는 각종의 프로세스들이 도 8a 내지 도 8i를 참조하여 앞서 기술되어 있지만, 각종의 프로세스들 중 임의의 것이 본 발명의 실시예들에 따라 특정의 응용들의 요구사항들에 따른 초기 깊이 맵 및/또는 가시성 맵을 결정하는 데 이용될 수 있다. 본 발명의 실시예들에 따른 에피폴라 라인들을 따라 폐색된 픽셀들이 있는지 탐색을 수행하는 단계를 포함하는 프로세스들을 포함하는 폐색된 픽셀들을 식별하는 프로세스들이 이하에서 더 논의된다.
폐색된 픽셀들을 식별
초기 깊이 맵으로부터 폐색된 픽셀들을 식별하는 것과 연관된 과제는 폐색된 픽셀들을 사용하여 결정되는 깊이 맵 내의 깊이들이 잘못된 것일 수 있다는 것이다. 가장 신뢰성있는 깊이 추정치들은 카메라에 가장 가까운 장면 내의 객체들의 깊이 추정치들이다. 이들은 가장 큰 불일치를 야기하기도 하는 객체들이고, (장면 내에서의 객체들의 분포에 따라) 어쩌면 가장 많은 수의 픽셀 폐색을 초래할 수 있다. 따라서, 기준선 벡터를 따라 기준 영상에 폐색 픽셀이 있는지 탐색하는 것에 의해 기준 영상에서 보이는 픽셀이 제2 영상에서 폐색되는지에 관한 결정이 행해질 수 있다. 폐색 픽셀은 제2 영상의 시점으로부터 관측된 불일치가 기준 영상에서 보이는 픽셀을 폐색하기에 충분히 클 정도로 카메라에 충분히 가까운 픽셀이다. 폐색 픽셀에 대한 탐색이 도 9를 참조하면 이해될 수 있다. 기준 시점(900)으로부터 포착된 영상이 도 9에 도시되어 있다. 어레이 카메라에 의해 포착된 제2 영상에서 깊이 d1을 갖는 픽셀 (x1, y1)의 가시성을 결정하기 위해, 기준 영상을 포착한 카메라와 제2 영상을 포착한 카메라 사이의 기준선에 평행인 라인(902)을 따라 탐색이 수행된다. 픽셀 (x2, y2)가 카메라에 더 가까울 때(즉, 깊이 d2 < d1에 위치해 있을 때), 픽셀 (x1, y1)은 폐색될 것이다. 따라서, d2 ≥ d1인 모든 픽셀들 (x2, y2)가 무시될 수 있다. 각각의 픽셀의 장면 의존적인 기하학적 시프트들(각각, s2 및 s1)은 기준선 벡터에 평행인 라인(902)을 따라 있는 2개의 픽셀들 간의 거리보다 더 큰 경우, 픽셀 (x2, y2)는 또한 픽셀 (x1, y1)을 폐색시킬 것이다. 달리 말하면,
Figure 112015024340812-pct00037
일 때 픽셀 (x2, y2)는 픽셀 (x1, y1)을 폐색시킨다.
몇몇 실시예들에서, 상기 식에서의 임계치는 후속의 초해상도 처리 동안 사용된 초해상도 인자(super-resolution factor)의 역수로서 결정될 수 있다(예컨대, 초해상도 프로세스가 3배의 해상도의 증가를 달성하려고 시도할 때, 픽셀의 1/3의 임계치가 적절하다). 상기 식을 충족시키는 픽셀이 발견될 수 없을 때, 픽셀 (x1, y1)이 제2 영상에서 보이는 것으로 결론내려질 수 있다. 어떤 픽셀 (x2, y2)에 대해 상기 식이 충족되는 경우, 픽셀 (x1, y1)이 폐색되는 것으로 간주될 수 있다. 따라서, 제2 영상(및 픽셀이 폐색되는 임의의 다른 영상들)을 무시하여 픽셀 (x, y)에 대한 업데이트된 깊이 추정치를 생성하기 위해 도 8에 예시된 프로세스가 반복될 수 있다. 잘 알 수 있는 바와 같이, 초기 깊이 추정치에서의 잘못된 깊이들로 인해, 보이는 픽셀들이 깊이 맵을 결정하는 프로세스의 장래의 반복들에서 무시될 수 있다. 측광적으로 일관성있는 깊이들을 제공하기 위해 적응적 지원을 사용하는 것은 잡음이 잘못된 픽셀 폐색의 검출을 가져올 가능성을 감소시키고, 이는 후속 프로세스 반복으로부터 유용한 정보를 제거한다. 많은 실시예들에서, 픽셀을 폐색되어 있는 것으로 지정하는 결정은 픽셀들의 유사도 및 픽셀들 (x1, y1) 및 (x2, y2)의 추정된 깊이들의 신뢰도를 고려한다. 이하에서 추가로 논의되는 바와 같이, 신뢰도 맵이 기준 영상의 깊이 맵과 관련하여 발생될 수 있고, 신뢰도 맵은 특정의 깊이 맵의 신뢰성을 나타낸다. 따라서, 각각의 픽셀의 장면 의존적인 기하학적 시프트들(각각, s2 및 s1)이 신뢰할 수 없는 깊이 추정치들에 기초하는 앞서 제공된 식을 사용하여 식별된 가능한 폐색이 무시될 수 있다. 이와 유사하게, 픽셀들의 명도들의 차이가 사전 결정된 임계치 미만인 픽셀들을 포함하는 가능한 폐색이 무시될 수 있다. 픽셀 값들이 충분히 유사한 경우, 픽셀에 의거하여 발생된 깊이 추정치는 픽셀이 폐색되더라도 대체로 영향을 받지 않을 것이다. 다른 실시예들에서, 특정의 응용들의 요구사항들에 따라 적절히 픽셀을 가시성 맵에서 폐색된 것으로 나타낼지를 결정할 때 각종의 다른 고려사항들이 고려될 수 있다.
도 9와 관련하여 앞서 논의된 탐색이 깊이 추정을 수행하는 데 이용되는 모든 카메라에 대응하는 에피폴라 라인을 따라 행해질 수 있다. 포착된 영상들이 올바르게 정렬될 때, 카메라들의 기준선들을 기준 시점으로부터 포착된 픽셀들의 행들 및 열들에 대해 일렬로 정렬시키는 것에 의해 탐색이 간단화될 수 있다(이상에서의 정렬의 논의를 참조). 폐색 픽셀들에 대한 탐색이 기준 영상에서의 모든 픽셀에 대해 수행될 필요가 없다. 그 대신에, 깊이 천이에 근접한 픽셀들(이들로 제한되지 않음)을 비롯한 어레이 카메라에 의해 포착된 하나 이상의 영상들에서의 폐색될 가능성이 있는 픽셀들에 대해 초기 탐색이 수행될 수 있다. 폐색될 가능성이 있는 것으로 간주되는 픽셀들에 대한 폐색 픽셀들에 대한 탐색이 이어서 수행될 수 있다. 그에 부가하여, 폐색 픽셀들에 대한 탐색은 사전에 거리에 기초하여 픽셀들의 투영들을 계산하는 것에 의해 보다 효율적으로 수행될 수 있다(투영들은 기준선을 따라 있는 인접한 픽셀들이 폐색될 깊이를 나타냄). 그에 부가하여, 픽셀이 폐색될 것으로 결정되면, 인접한 픽셀들의 폐색을 검출하는 프로세스가 폐색 픽셀의 투영을 이용하는 것에 의해 간단화될 수 있다. 다른 실시예들에서, 본 발명의 실시예들에 따라 깊이에 기초하여 영상을 렌더링하는 것(이들로 제한되지 않음)을 비롯한 각종의 기법들 중 임의의 것이 폐색 픽셀 및 폐색된 픽셀을 보다 효율적으로 찾아내는 데 이용될 수 있다.
앞서 살펴본 바와 같이, 초기 깊이 맵의 결정에서 폐색된 픽셀들을 포함시키는 것은 얻어진 픽셀 깊이들에 오류들을 유입시킬 수 있다. 앞서 기술한 프로세스들 중 임의의 것과 유사한 프로세스를 사용하여 폐색이 검출되고 깊이 맵이 업데이트될 때, 깊이 맵에서의 오류들이 제거된다. 깊이 맵에서의 오류들이 제거되기 때문에, 폐색되는 픽셀들에 관해 보다 정확한 예측들이 행해질 수 있다. 그에 따라, 폐색을 검출하는 프로세스가 정지 기준(stopping criterion)에 도달될 때까지 반복하여 수행될 수 있다. 다수의 실시예들에서, 정지 기준은 (이전에 검출되지 않았던) 특정의 반복에서 검출된 폐색된 픽셀들의 수가 사전 결정된 수 미만으로 되는 것 및/또는 사전 결정된 수의 반복들의 완료(이들로 제한되지 않음)일 수 있다.
다시 도 6을 참조하면, 본 발명의 일 실시예에 따라 깊이 맵을 발생시키고 세밀화하는 프로세스가 예시되어 있다. 많은 경우들에서, 초기 깊이 맵을 결정(602)하는 프로세스들은 폐색된 픽셀들의 불일치를 과대평가하는 경향을 가질 것이다. 이것은 폐색된 픽셀들을 전경으로 밀어내는 효과가 있다. 따라서, 다수의 실시예들에서, 깊이 맵을 업데이트(606)하는 목적을 위해, 다른 픽셀을 폐색시키는 픽셀이 또한 폐색된 픽셀로서 취급될 수 있다. 이러한 방식으로, 잘못된 초기 깊이 측정을 가지는 배경 픽셀들의 깊이가 검출되고 업데이트될 수 있다. 이하에서 추가로 논의되는 바와 같이, 깊이 맵이 마무리되면, 무시되는 픽셀들의 가시성이 개별적으로 결정될 수 있다(610). 다수의 실시예들에서, 도 6에 예시된 프로세스(600)와 같은 프로세스들은 또한 프로세스가 반복할 때 깊이 맵을 안정화시키는 데 도움을 주기 위해 깊이 맵에 양방향 필터를 적용하는 단계를 포함한다.
깊이 추정치의 정확도는 전형적으로 깊이 추정치를 발생시키는 데 이용되는 어레이 카메라에 의해 포착된 명시야에서의 영상들의 수에 따라 증가한다. 그렇지만, 보다 적은 수의 영상들을 고려하는 것은 깊이 추정치를 획득하는 것의 계산 복잡도를 감소시킬 수 있다. 깊이 천이가 일어날 때, 폐색은 전형적으로 기준 시점의 한쪽 면에서 포착된 영상들에서 일어날 것이다. 따라서, 기준 카메라의 한쪽 면에 포착된 영상들의 그룹에서 픽셀이 폐색되는지를 결정하기 위해, 앞서 기술한 탐색과 유사한 폐색 픽셀들에 대한 탐색이 이용될 수 있다. 탐색이 폐색이 일어나지 않았음을 나타내는 경우, 영상들의 그 그룹을 사용하여 픽셀의 깊이가 결정될 수 있고 깊이 맵이 업데이트될 수 있다.
어레이 내의 녹색 카메라들을 사용하여 깊이 맵을 구성하기 위해 이용될 수 있는 5 x 5 어레이 카메라가 도 10에 예시되어 있다. 어레이 카메라(1010)는 중앙의 기준 녹색 카메라(1012)를 포함한다. 어레이에서의 나머지 녹색 카메라들은, 녹색 카메라들에 의해 포착된 영상들 중 적어도 하나에서 폐색되는 픽셀들의 깊이를 결정하기 위해, 3개의 녹색 카메라들로 된 8개의 방사상 그룹들을 형성하는 데 이용될 수 있다. 방사상 그룹들이 도 10에 예시되어 있지만, 기준 시점을 둘러싸고 있는 4개의 사분면들 각각에 있는 카메라들의 그룹들이 또한 이용될 수 있다. 그룹은 한 쌍의 카메라들과 같이 작을 수 있고, 그 카메라들 중 하나는 기준 시점으로부터 영상을 포착하는 카메라이다. 많은 실시예들에서, 도 8a 내지 도 8i를 참조하여 앞서 논의된 것들과 같은 그룹들이 또한 이용될 수 있다.
픽셀 폐색을 검출하는 특정의 프로세스들이 도 6, 도 8a 내지 도 8i, 도 9, 및 도 10과 관련하여 앞서 논의되어 있지만, 본 발명의 실시예들에 따라 폐색을 검출하는 것의 계산 복잡도를 감소시키는 프로세스들(이들로 제한되지 않음)을 비롯한 각종의 프로세스들 중 임의의 것이 깊이 맵을 발생시키는 데 이용될 수 있다. 몇몇 실시예들에서, 각각의 픽셀의 깊이를 결정하는 프로세스는 가정된 깊이들 및 가정된 가시성 둘 다 그리고 가장 유망한 깊이 및 폐색의 세트로서 선택된 가장 높은 픽셀 대응 관계를 산출하는 깊이 및 가시성의 조합에 기초하여 탐색하는 단계를 포함할 수 있다. 이러한 방식으로 결정된 가시성이 폐색 픽셀들을 검출하는 전술한 접근 방법을 사용하여 확인될 수 있다.
많은 실시예들에서, 기준 시점으로부터 포착된 영상들에서의 픽셀들의 가시성에 관한 정보가 초해상도 처리(이들로 제한되지 않음)를 비롯한 프로세스들에서 이용된다. 본 발명의 실시예들에 따라 깊이 맵을 사용하여 기준 시점으로부터 어레이 카메라에 의해 포착된 영상들에서의 픽셀들의 가시성을 결정하는 프로세스들이 이하에서 더 논의된다.
픽셀들의 가시성을 결정
깊이 맵을 결정할 시에 그리고 초해상도 처리(이들로 제한되지 않음)를 비롯한 각종의 다른 응용들에서 픽셀 가시성이 이용될 수 있다. 몇몇 실시예들에서, 앞서 기술한 프로세스들과 유사한 프로세스를 사용하여 발생된 기준 시점으로부터 포착된 영상에 대한 깊이 맵이 어레이 카메라에 의해 포착된 다른 영상들(즉, 대안 시점들로부터 포착된 영상들)에 대한 가시성 맵을 발생시키는 데 이용된다. 몇몇 실시예들에서, 대안 시점 영상들에서의 픽셀들이 기준 시점으로부터 보이는지 및 제1 대안 시점 영상에서의 픽셀이 다른 대안 시점 영상들 중 임의의 것에서 보이는지와 관련하여 가시성 맵들이 결정될 수 있다. 다수의 실시예들에서, 단일의 색상 채널 내에서 포착된 영상들에 대한 가시성 맵들을 결정하는 프로세스는 기준 시점으로부터 포착된 영상에서의 픽셀에 대응하는 픽셀들의 측광 유사도를 비교하는 단계를 포함한다. 사전 결정된 레벨의 유사도를 가지는 것으로 간주되는 픽셀들이 보이는 것으로 간주될 수 있고, 임계치 레벨의 유사도 미만인 픽셀들은 폐색된 것으로 간주될 수 있다. 대응하는 픽셀들의 측광 유사도를 결정하는 데 이용되는 임계치가 대응하는 픽셀들의 유사도에 기초하여 적응될 수 있다. 몇몇 실시예들에서, 임계치는 기준 영상으로부터의 픽셀과 기준 영상으로부터의 픽셀과 가장 유사한 대응하는 픽셀 사이의 측광 거리의 함수로서 결정된다. 어레이가 다수의 색상 채널들에서 영상 데이터를 포착할 때, 단일의 색상 채널에서의 픽셀들의 가시성이 다른 채널들에서의 픽셀들의 가시성을 결정하는 데 이용될 수 있다.
본 발명의 일 실시예에 따른, 기준 시점 내의 픽셀에 대응하는 픽셀들의 가시성을 결정하는 프로세스가 도 11에 예시되어 있다. 프로세스(1100)는 기준 시점으로부터 포착된 영상으로부터 픽셀을 선택하는 단계(1102)를 포함한다. 앞서 기술한 프로세스들과 유사한 프로세스를 사용하여 발생된 깊이 맵이 선택된 픽셀의 깊이를 결정하는 데 이용될 수 있다. 선택된 픽셀의 깊이에 기초하여, 어레이 카메라에 의해 포착된 각각의 영상에서의 대응하는 픽셀들의 위치들이 결정될 수 있다(1104). 기준 영상으로부터의 선택된 픽셀에 대응하는 픽셀들의 유사도가 대응하는 픽셀들의 가시성을 결정하는 데 이용될 수 있다. 다수의 실시예들에서, 픽셀들의 측광 거리가 유사도의 척도 및 보일 가능성이 있는 픽셀들 및 폐색될 가능성이 있는 픽셀들을 결정하는 데 사용되는 임계치로서 이용된다. 많은 실시예들에서, 임계치가 비교되는 픽셀들의 특성들에 따라 변한다. 특정의 실시예들에서, 대응하는 픽셀들의 유사도를 결정하는 데 사용되는 임계치 값이, 주어진 색상 채널에서 보이는 것으로 밝혀진 대응하는 픽셀들에 대한 픽셀 명도 값들의 서브셋의 평균으로서, 기준 픽셀의 명도를 사용하여 결정된다. 몇몇 실시예들에서, 평균되는 특정의 대응하는 픽셀 명도들은 픽셀들(이용가능한 경우)에 대한 대응하는 카메라 기준선 및 신뢰도 값들 그리고 픽셀들에 대한 연관된 정합 비용들에 의존할 수 있다. 몇몇 실시예들에서, 임계치는 기준 영상으로부터의 선택된 픽셀과 선택된 픽셀에 측광적으로 가장 가까운 대응하는 픽셀 사이의 측광 거리의 함수로서 결정된다(1106). 다수의 실시예들에서, 임계치는 기준 영상에서의 대응하는 픽셀의 픽셀 명도 및/또는 대안 시점 영상에서의 픽셀의 명도에 기초한다. 특정의 실시예들에서, 임계치는 포착된 영상에 대한 SNR 모델을 사용하여 결정된다. 다수의 실시예들에서, 적절한 임계치를 획득하기 위해, 선택된 픽셀 및 가장 가까운 대응하는 픽셀의 측광 거리가 스케일링되고 그리고/또는 오프셋이 부가된다. 다른 실시예들에서, 고정된 임계치를 사용하는 것(이들로 제한되지 않음)을 비롯한 각종의 기법들 중 임의의 것이 대응하는 픽셀의 가시성을 결정하기 위한 임계치를 결정하는 데 이용될 수 있다.
기준 영상으로부터의 선택된 픽셀들 및 대응하는 픽셀들이 비교되고(1108), 임계치가 픽셀들의 유사도를 결정(1110)하는 데 사용된다. 기준 영상으로부터의 선택된 픽셀과 대응하는 픽셀들 중 하나의 픽셀의 측광 거리가 임계치 미만일 때, 대응하는 픽셀이 보이는 것으로 결정된다(1112). 기준 영상으로부터의 선택된 픽셀과 대응하는 픽셀들 중 하나의 픽셀의 측광 거리가 임계치를 초과할 때, 대응하는 픽셀이 폐색된 것으로 결정된다(1114).
어레이 카메라에 의해 포착된 다른 영상들에서의 대응하는 픽셀들에 대한 가시성 맵들을 발생시키기 위해 기준 영상에서의 픽셀들의 서브셋 또는 전부에 대해 도 11에 예시된 프로세스(1100)가 반복될 수 있다. 기준 시점으로부터의 영상을 포착하는 카메라에서의 픽셀들 모두가 단일의 색상 채널에 있는 실시예들에서, 도 11에 예시된 프로세스와 유사한 프로세스들은 단일의 색상 채널 내에서 포착된 영상들에 대한 가시성을 효과적으로 발생시킨다. 어레이 카메라가 또한 다른 색상 채널들에서 포착된 영상들을 포함할 때, 기준 영상과 동일한 색상 채널에 있지 않은 영상들에서의 픽셀들의 가시성은 기준 시점에서 보일 가능성이 있는 또는 알려진 스펙트럼 채널 내의 영상들로부터의 대응하는 픽셀들과 관련하여 앞서 기술한 것들과 유사한 비교들을 수행하는 것에 의해 결정될 수 있다. 다른 실시예들에서, 기준 영상을 포착하는 카메라는 기준 시점으로부터 다수의 색상 채널들에서의 영상 데이터의 포착을 가능하게 하는 베이어 필터(또는 다른 적절한 필터 패턴)를 이용한다. 이 경우에, 다수의 색상 채널들에서의 영상들에 대한 가시성 정보를 발생시키기 위해 도 11에 예시된 것들과 유사한 프로세스들이 이용될 수 있고, 이 경우, 프로세스는 기준 시점에서의 각각의 위치에서 적색 및 청색 픽셀 값을 획득하기 위해 베이어 필터 패턴을 디모자이킹(demosaicing)하는 단계를 포함한다.
특정의 프로세스들이 도 11과 관련하여 앞서 논의되어 있지만, 깊이 맵을 발생시키는 프로세스의 일부로서 가시성 정보를 반복하여 세밀화하는 프로세스들(이들로 제한되지 않음)을 비롯한 각종의 프로세스들 중 임의의 것이 본 발명의 실시예들에 따라 어레이 카메라에 의해 포착된 영상들에서의 픽셀들의 가시성을 결정하는 데 이용될 수 있다. 많은 실시예들에서, 깊이 맵 및 가시성 맵을 발생시키는 프로세스는 또한 신뢰도 맵 내의 추정된 깊이들의 신뢰성에 관한 정보를 제공할 수 있는 신뢰도 맵을 발생시키는 단계를 포함할 수 있다. 본 발명의 실시예들에 따른 신뢰도 맵들을 결정하는 프로세스들이 이하에서 더 논의된다.
신뢰도 맵
앞서 기술한 것들을 비롯한 깊이 맵들을 발생시키는 프로세스들의 결과, 깊이 추정치들을 신뢰할 수 없는 깊이 맵 내에서의 영역들이 얻어질 수 있다. 어레이 카메라에 의해 포착된 영상 데이터를 사용하여 합성된 영상의 텍스처리스 영역이 도 18a에 예시되어 있고, 본 발명의 실시예들에 따라 앞서 기술한 것들과 유사한 프로세스들을 사용하여 발생된 영상에 대한 깊이 맵이 도 18b에 예시되어 있다. 텍스처리스 영역(1800)에서, 앞서 기술한 방식으로 깊이를 결정하기 위해 사용되는 비용 메트릭은 잡음이 많고, 비록 (즉, 카메라들이 최대 대응 관계를 나타내는 깊이에서의) 최소 비용이 발견될 수 있지만, 결과는 임의의 상당한 기본 신호가 아니라 센서 및 광자 잡음에 대체로 의존한다. 이러한 영역들에서의 픽셀 대응 관계(비용 메트릭에 의해 측정됨)는 실제로 도시된 깊이에서 가장 크지만, 도시되어 있는 얻어진 깊이는 객체의 올바른 깊이가 아니다. 이와 달리, 에지 영역(1802)에서, 비용 함수는 비용이 아주 확실히 최소화되는 깊이를 나타낸다. 그곳에서, 에지 신호는 잡음보다 훨씬 더 크고, 따라서 객체의 실제 깊이에 대응하는 불일치가 더 높은 신뢰도로 검출될 수 있다.
그렇지만, 깊이 오류들이 텍스처리스 영역들로 제한되지 않는다. 다른 부류의 깊이 오류들이 폐색 구역들에서 일어나고, 여기서 특정의 배경 영역들이 어떤 카메라들에서는 보이지만, 다른 카메라들에서는 그렇지 않다. 이러한 종류의 오류가 타이어의 림(rim)을 따라 보일 수 있고, 여기서 전경 영역이 배경 영역과 교차한다. 깊이 맵에서, 전경과 배경 사이의 경계면에서 잘못된 깊이 추정치들을 포함하는 영역들(1804)이 있는 것처럼 보인다.
깊이 맵을 발생시킬 때, 어떤 척도를 통해 깊이 맵 내에서의 상이한 깊이 추정치들의 신뢰성을 수치적으로 나타내는 신뢰도 맵이 발생될 수 있다. 깊이 맵의 어느 영역들이 추가의 처리를 위해 가장 의존될 수 있는지를 결정하기 위해, 신뢰도 맵이 나중의 처리 스테이지들에 의해 또는 제3자 애플리케이션들에 의해 사용될 수 있다. 예를 들어, 깊이 측정 유틸리티는 사용자가 특정 픽셀의 깊이를 획득하기 위해 초해상도 프로세스를 사용하여 합성된 영상의 영역들을 클릭할 수 있게 할 수 있다. 사용자가 영상의 픽셀을 클릭할 때, 결과를 반환하기 전에 신뢰도 맵이 검사될 수 있다. 요청된 위치에서의 깊이의 신뢰도가 낮은 경우, 사용자 인터페이스는 그 위치에서의 깊이를 보고하는 것을 회피할 수 있다. 신뢰도 맵이 높은 경우, 사용자 인터페이스는 선택된 위치에서의 깊이를 안전하게 보고할 수 있다. 즉, 깊이 맵이 오류들을 포함하는 것으로 알려진 경우 부정확한 값을 반환하지 않고 특정의 응용들에 대한 결과들에 자격을 부여하기 위해 신뢰도 맵이 사용될 수 있다.
신뢰도 맵은 각종의 방식들로 인코딩될 수 있고, 단일의 신뢰도 맵 내에 다수의 부류 또는 축의 신뢰도가 인코딩될 수 있다. 본 발명의 실시예들에 따라 신뢰도 맵에 신뢰도 메트릭을 인코딩하기 위해 이용될 수 있는 각종의 신뢰도 척도들이 이하에서 논의된다.
몇몇 실시예들에서, 신뢰도 맵은 픽셀의 깊이 추정치가 영상 내의 텍스처리스 영역 내에 있는지에 기초하여 신뢰도 척도로 인코딩된다. 앞서 살펴본 바와 같이, 주어진 픽셀을 둘러싸고 있는 영역에서의 SNR에 기초하여 텍스처리스 영역들이 검출될 수 있다. SNR이 기지의 조정가능 임계치를 초과한 경우, 그 영역은 이진 방식으로 텍스처리스로 표시될 수 있다. 다른 대안으로서, SNR 자체가 (이진화(threshold)되지 않고) 선형적으로 또는 비선형적으로 재매핑될 수 있고, 연속적인 신뢰도 지시자로서 역할하도록 사용될 수 있다.
많은 실시예들에서, 경사 에지 맵(예컨대, Prewitt 또는 Canny)이 계산되고 신뢰도 맵 내에서의 신뢰도 메트릭으로서 사용될 수 있다. 에지들 및 텍스처가 전형적으로 높은 신뢰도를 가지기 때문에, 경사 맵들 및 SNR 맵들은 종종 깊이 맵에 대한 양호한 거친 신뢰도 척도를 제공한다.
다수의 실시예들에서, 특정의 영역이 폐색 및/또는 부정합 그리고 카메라들 사이의 충돌하는 측정으로 인해 낮은 신뢰도인지에 기초하여 신뢰도 맵이 인코딩될 수 있다(즉, SNR 맵에 의해 검출되는 영역에 텍스처가 있을 수 있지만, 그 영역에서 시차 검출 프로세스가 폐색을 검출하고 그리고/또는 그를 해결할 수 없거나 그렇지 않고 임의의 다른 이유로 깊이를 확실히 추정할 수 없기 때문에 여전히 깊이 오류가 일어날 수도 있다).
다수의 실시예들에서, 신뢰도 메트릭이 깊이 추정 프로세스 동안 달성된 "최상의 비용" 또는 이 양의 선형, 비선형 또는 양자화된 재매핑으로서 결정된다. 깊이 추정 동안 달성된 최소 비용이 선택된 임계치를 초과한 경우, 추정된 깊이에서 다수의 시점들 간에 대응 관계가 없는 것에 기초하여 영역이 낮은 신뢰도인 것으로 표시될 수 있다.
다수의 실시예들에서, 카메라들의 상이한 그룹들 사이에 발생된 상이한 서브그룹들 또는 깊이 맵들 사이의 최상의 비용들을 비교하고, 최상의 비용들 사이의 차이가 임계치보다 더 큰 경우, 영상들의 서브셋들에서 발견된 비용들이 상이한 픽셀 위치들에 대해 낮은 신뢰도인 것으로 표시하는 것에 의해 폐색이 검출될 수 있다.
다수의 실시예들에서, 특정의 영역이 깊이 추정 프로세스 자체에서의 적응적 처리 단계들로 인해 낮은 신뢰도인지에 기초하여 신뢰도 맵이 인코딩될 수 있다. 예를 들어, 특정의 영역에서 보다 적은 수의 깊이들이 탐색되는 경우, 이 정보는 깊이가 신뢰성이 떨어진다는 것을 강조하기 위해 신뢰도 맵에 수치적으로 인코딩될 수 있다. 많은 실시예들에서, 깊이 맵의 특정의 영역들이 실제로는 대응 관계 탐색을 통해 탐색되고, 깊이 맵의 다른 영역들에서, 깊이들은 보다 희박한 점들의 세트에 대한 깊이 탐색으로부터의 결과들에 기초하여 보간된다. 이러한 경우에, 보간된 깊이들을 갖는 픽셀들은 대응 관계들이 실제로 탐색된 픽셀들보다 더 낮은 신뢰도 값들을 부여받는다.
몇몇 실시예들에서, 깊이 측정의 예상된 정밀도가 또한 신뢰도 맵에 수치적 양으로서 코딩될 수 있다. 많은 경우들에서, 카메라로부터 더 멀리 떨어진 깊이들은 더 많은 오류로 측정되고 따라서 덜 신뢰될 것이다. 이러한 경우들에서, 신뢰도 맵은 이러한 영역들을 보다 낮은 신뢰도의 깊이 추정치들을 포함하는 것으로 표시할 수 있다. 신뢰도는 그 깊이에서의 인접한 탐색 위치들 사이의 예상된 깊이 오차에 비례할 수 있다. 특정의 실시예들에서, 시차 탐색에 의해 지원되는 최소 거리에 대응하는 불일치(즉, 이것은 모든 지원되는 깊이들에 대한 임의의 2개의 카메라들 사이에서 관측된 최대 불일치일 것임)가 결정될 수 있다. 최대 불일치가 발견되면, 탐색은 최대 불일치까지 다수의 불일치를 탐색할 것이다. 많은 실시예들에서, 최대 불일치는 D개의 저 해상도 픽셀들이고, 탐색된 깊이들의 수는 N이다. 에피폴라 라인을 따라 인접한 탐색 위치들 사이의 불일치의 픽셀들의 수는 D/(N-1)이다. (n < N에 의해 인덱싱되는) 탐색되는 N개의 불일치 중 임의의 것에 대한 깊이(단위: 미터)는 dn = C/(n *D/(N-1))이고, 여기서 C는 최대 기준선들을 가지는 개개의 저 해상도 카메라들의 기준선들 및 초점 거리들에 관한 정보를 상수이다. 깊이 맵에서의 특정의 점에서, 깊이가 dn인 경우, dn에서의 예상된 측정 오차는 en = 1/2 * max(|dn - dn+1|, |dn - dn-1|)이다. 기본적으로, 예상된 측정 오차는 에피폴라 라인을 따라 고정된 이산 수의 점들을 탐색하는 것으로 인한 오차이다. 깊이 맵 내의 특정 픽셀 위치에서의 깊이 추정치와 관련한 신뢰도 값을 제공하기 위해 오차 값 자체가 선형적으로 또는 비선형적으로 매핑될 수 있다. 오차가 높을수록, 깊이 추정치의 신뢰도가 떨어진다. 몇몇 실시예들에서, 탐색된 불일치가 똑같은 간격으로 있지 않고, 어떤 영역들에서 다른 영역들보다 더 거칠 수 있다. 그에 따라, 신뢰도 맵이 깊이에서의 계산된 오차를 반영하도록 (에피폴라 라인을 따라 탐색 위치들의 분포가 어떻든간에) 인접한 인덱스들 사이에서 이와 유사하게 오차가 계산될 수 있다. 다수의 실시예들에서, 신뢰도 맵은 (깊이가 아니라) 추정된 불일치에서의 최대 오차(그 양의 역수가 이상에 열거되어 있음)를 반영한다. 이것은 영상 융합과 같은 응용들에 대해 보다 유용할 수 있는 반면, 깊이 오차는 (3D 모델링(이들로 제한되지 않음)과 같은) 실세계 좌표로 행해지는 측정 응용들에 대해 보다 유용할 것이다.
다수의 실시예들에서, 신뢰도 맵은 깊이 맵을 신뢰할 수 없는 것으로 만드는 알려진 또는 검출된 렌즈 또는 센서 결함들로 인해 영역들을 낮은 신뢰도인 것으로 표시할 수 있다. 결함 픽셀들(센서 상의 결함 픽셀들은 물론 렌즈 결함들에 의해 영향을 받는 픽셀들 둘 다를 포함하는 용어)이 영상 처리 동안 또는 전처리 교정 단계에서 오프라인으로 검출될 수 있다. 하나의 실시예에서, 임의의 기준 카메라에서 특정 픽셀 (x, y)로부터 어떤 반경 내의 픽셀 결함들의 총수가 사전 설정된 임계치를 초과하는 경우, 픽셀 (x, y)는 픽셀 결함들로 인해 깊이 맵에서 낮은 신뢰도인 것으로 표시된다. 다른 실시예에서, 신뢰도가 임의의 카메라에서 기준 픽셀 (x, y)를 둘러싸고 있는 어떤 반경 및/또는 영역 내에서 픽셀 결함들(또는 렌즈 결함들에 의해 영향을 받는 것으로 알려진 픽셀들)의 수의 함수로서 (하드 임계치로서가 아니라) 비례적으로 증가하는 경우 유사한 신뢰도 값이 정의될 수 있다. 다른 실시예에서, 신뢰도가 다양한 심각도의 오류들을 야기하는 것으로 알려져 있는 결함 픽셀들의 특정의 구성들에 대한 사전 계산된 값일 수 있다. 몇몇 실시예들에서, 결함에 대한 신뢰도 값은 신뢰도 값을 계산할 시에 국소 영상 내용을 고려한다.
몇몇 실시예들에서, 신뢰도 맵은, 기준 영상이 텍스처리스인 것으로 보이지만 다른 색상 채널들에서 텍스처드 내용(textured content)이 있는 경우, 저 신뢰도 영역들로 표시할 수 있다. 하나의 실시예에서, 기준 카메라에서의 픽셀 (x, y)가 국소 반경 및/또는 영역 내에서 탐색된다. 이 국소 반경 및/또는 영역 내에서 내용이 녹색에서 텍스처리스인 것으로 간주되는 경우, 그렇지만 적색 및/또는 청색 카메라들에 대한 다른 (어쩌면 더 큰) 국소 반경/영역 내에서의 동일한 탐색이 적색 및/또는 청색 색상 채널들 내의 영상들에서 충분한 텍스처를 찾아내는 경우, 영역은 녹색 색상 채널이 이 검출 시나리오에서 덜 유용하고 깊이 결과들이 (비록 종종 올바르지만) 신뢰성이 떨어질 것이라는 사실로 인해 보다 낮은 신뢰도인 것으로 표시될 수 있다.
다수의 실시예들에서, 신뢰도 맵은 렌즈 플레어(lens flare) 또는 장면에서의 특징들로 인해 측광 부정합이 있는 시나리오들에서 저 신뢰도인 것으로 수치적으로 인코딩한다. 많은 실시예들에서, 픽셀 위치 (x, y) 주위의 관심 영역의 국소 통계(평균 및 분산)가 계산되고 다른 카메라에서의 유사한 영역의 국소 통계와 비교될 수 있다. 이러한 방식으로, 있을 수 있는 렌즈 플레어(그의 존재는 신뢰도를 감소시킴)를 검출하기 위해 다수의 영상들의 동일한 일반 영역에서의 2개의 이웃들 사이의 국소 영상 통계들이 비교될 수 있다. 다른 실시예들에서, 렌즈 플레어를 검출하기 위해 다수의 영상들에서의 이웃들을 비교하는 데 각종의 기법들 중 임의의 것이 이용될 수 있다. 얻어진 신뢰도 척도는 다수의 카메라들에 의해 포착된 영상들에 걸쳐 영역들의 평균과 분산 간의 차이의 스케일링된 또는 비선형적으로 매핑된 함수일 수 있다. 카메라들에 의해 포착된 영상들 간의 평균 및 분산 차이들이 클수록, 깊이가 신뢰성이 있을 가능성이 낮고 신뢰도가 낮을 것이다.
다수의 실시예들에서, 영상이 아주 어둡고 영상에 잡음이 많을 때 신뢰도를 감소시키기 위해 신뢰도 맵이 조명 조건들에 따라 적응된다. 특정의 실시예들에서, 영상이 촬영된 때의 센서 이득은 모든 깊이들에 대한 신뢰도의 절대적 감소를 가져올 것이다. 다른 실시예에서, 상이한 잡음 레벨들에서 에지 경사들에 대한 임계치들 또는 SNR 비를 계산할 때, 센서의 아날로그 이득 및 노출 시간이 고려된다. 많은 실시예들에서, 일련의 영상들을 포착하는 데 사용되는 카메라 어레이 내의 상이한 카메라들에 대해, 상이한 초점면들에 대한 아날로그 이득들 및 노출 시간들이 이용될 수 있다.
폐색으로 인해 낮은 신뢰도를 가지는 영역들을 검출하기 위해, 최상의 달성된 비용 메트릭이 시차 탐색 동안 저장될 수 있다. 상당한 폐색을 나타내는 영역들에 대해, 최상의 달성된 비용 메트릭은 폐색이 없고 모든 카메라들이 동일한 내용을 본 경우에 나타나게 될 최소 값을 보통 크게 초과한다. 그에 따라, 최상의 달성된 비용들에 임계치가 적용될 수 있다. 최상의 달성된 비용이 임계치를 초과하는 경우, 영역이 폐색될 가능성이 있는 것으로 또는 어떤 다른 문제점(측광 불균일 등)을 가질 가능성이 있는 것으로 표시된다.
특정의 유사도 메트릭들에 대해, 폐색에 대한 저 신뢰도 임계치가 영역의 평균 명도는 물론 센서의 잡음 통계에 대해 보정될 수 있다. 많은 실시예들에서, 기준 영상에서의 영역의 평균이 관심 픽셀을 중심으로 한 공간 박스 N x N 평균 필터를 사용하여 계산된다. 다른 실시예들에서, 평균을 알게 되는 경우, 기준 카메라를 포함하는 색상 채널에 대한 잡음 통계가 특정의 노출 및 이득에서의 특정의 평균을 원하는 임계치에 관련시키는 테이블 검색(table lookup)에 의해 계산될 수 있다. 최상의 정합하는 값이 예상된 잡음을 크게 초과하는 경우, 픽셀은 있을 수 있는 폐색으로 인해 신뢰할 수 없는 것으로 표시될 수 있다.
일반 부정합으로 인해 신뢰도의 비이진 척도(non-binary measure)가 이하의 수식을 사용하여 획득될 수 있고:
Figure 112015024340812-pct00038
여기서 Costmin(x, y)는 원하는 깊이 범위에 걸친 불일치 탐색의 최소 비용이고,
Costd(x, y)는 (최소 깊이 이외의) 임의의 깊이 또는 깊이들로부터의 비용 데이터를 나타내며,
임의의 카메라에 의해 포착된 I(x, y)cam 영상 데이터가 신뢰도를 보강하는 데 이용될 수 있으며;
Sensor는 잡음 통계 또는 특성화, 결함있는 픽셀들, (이득 또는 노출과 같은) 임의의 포착된 영상들에 영향을 미치는 센서의 특성들(이들로 제한되지 않음)과 같은 센서의 기지의 특성들을 포함할 수 있는 센서 사전 정보이다.
Camera intrinsics은 (깊이 측정의 정밀도에 영향을 미치는) 어레이에서의 카메라들 간의 기준선 간격, 및 (특정의 시나리오들에서 폐색 구역들에서의 성능에 영향을 미치는) 색상 필터들의 배열(이들로 제한되지 않음)을 비롯한 신뢰도에 영향을 미칠 수 있는 카메라 및 카메라 어레이에 내재된 요소들을 명시하는 카메라 고유 특성이다.
몇몇 실시예들에서, Confidence(x, y)는 모든 인수(argument)들에 대해 픽셀 위치 (x, y)에 이웃하는 값들(즉, 공간적 이웃들)을 사용할 수 있다.
많은 실시예들에서, 신뢰도 맵이 이상의 인자들 중 하나 이상(이들로 제한되지 않음)을 비롯한 인자들에 기초하여 인코딩될 수 있다. 각각의 인자는 이진 방식으로 인코딩될 수 있거나, 신뢰도의 (양자화된) 정도들의 범위로서 표현될 수 있거나, 비양자화된 범위들 또는 그의 파생물들일 수 있다. 예를 들어, 특정의 축을 따른 신뢰도가 단일의 비트가 아니라 영역이 텍스처리스일 신뢰도의 레벨을 나타내는 다수의 비트들로서 표현될 수 있다. 특정의 실시예들에서, 특정의 축을 따른 신뢰도가 연속적인 또는 대략 연속적인(즉, 부동 소수점) 양으로서 표현될 수 있다. 신뢰도를 결정할 때 고려되는 다른 인자들은 본 발명의 실시예들에 따라 특정의 응용들의 요구사항들에 따라 적절히 신뢰도의 정도들의 각종의 범위들 중 임의의 것을 사용하여 결정될 수 있다. 몇몇 실시예들에서, 이 조건들 중 일부 또는 전부를 명시할 수 있는 경우 임의의 수의 신뢰도 코드들 또는 값들이 특정 픽셀에 대한 신뢰도 맵에 포함된다. 특정의 신뢰도 메트릭들이 이하에서 더 논의된다.
최소 비용만이 고려되고 센서의 잡음 통계가 선형 모델을 따르는 특정의 실시예에서, 간단화된 형태가 사용될 수 있고:
Figure 112015024340812-pct00039
여기서 Avg(x,y)는 (x, y)의 영역에서의 기준 영상의 명도에 기초하여 신뢰도를 조정하기 위해 사용되는, (x, y)를 둘러싸고 있는 공간적 이웃에 있는 기준 영상의 평균 명도, 또는 이웃에서의 평균 명도의 추정치이고,
a 및 offset은 센서의 이득 및 잡음 통계에 관한 사전 정보로 신뢰도를 조정하기 위해 사용되는 경험적으로 선택된 스케일 및 오프셋 인자들이다.
이 경우에, 보다 높은 값들은 보다 낮은 신뢰도를 나타낼 것이고, 결과들을 어떻게 이진화할지를 결정하는 것은 영상 처리 파이프라인에 달려 있을 것이다.
일반적으로, 신뢰도 맵은 영상에서의 검출된 깊이들의 정확도를 수치적으로 정량화하는 깊이 맵 내에 포함된 깊이 추정치들을 기술하는 메타데이터를 제공한다. 많은 실시예들에서, 기계 시각, 제스처 인식, 포착후 영상 재포커싱(post capture image refocusing), 실시간 응용들, 영상 특수 효과들, 초해상도, 또는 다른 응용들(이들로 제한되지 않음)을 비롯한 응용들에서 깊이 맵과 함께 사용하기 위해, 신뢰도 맵이 깊이 맵과 함께 외부 전달 포맷으로 제공될 수 있다. 본 발명의 일 실시예에 따라 깊이 맵을 필터링하기 위해 깊이 추정 프로세스에서 신뢰도 맵이 이용될 수 있는 방식의 한 예가 도 18c 내지 도 18h에 예시되어 있다. 먼저 도 18c를 참조하면, 상이한 색상 채널들(구체적으로는, 적색, 녹색 및 청색 색상 채널들)에서 포착된 다수의 영상들로부터 초해상도 프로세스를 사용하여 합성된 상이한 깊이들에서의 객체들을 포함하는 장면의 영상이 있다. 앞서 기술한 것들과 유사한 프로세스들을 사용하여 기준 시점으로부터 발생된 깊이 맵이 도 18d에 예시되어 있다. 잘 알 수 있는 바와 같이, 깊이 맵은 잡음이 많다. 앞서 기술한 각종의 메트릭들 중 임의의 것을 사용하여 발생된 신뢰도 맵이 깊이 맵을 발생시키는 프로세스의 일부로서 발생될 수 있다. 본 발명의 일 실시예에 따라 SNR을 이진화함으로써 발생되는 이진 신뢰도 맵이 도 18e에 예시되어 있다. 본 발명의 일 실시예에 따라 SNR에 기초하여 발생된 8-비트 신뢰도 맵이 도 18f에 예시되어 있다. 본 발명의 일 실시예에 따라 SNR을 이진화하는 것에 의해 발생되는 신뢰도 인자와 폐색되는 대응하는 픽셀들의 수를 이진화하는 것에 의해 발생되는 신뢰도 인자를 결합함으로써 발생된 이진 신뢰도 맵이 도 18g에 예시되어 있다. 몇몇 실시예들에서, 깊이 맵을 필터링하기 위해 신뢰도 맵이 이용될 수 있다. 본 발명의 일 실시예에 따라 SNR을 이진화함으로써 발생되는 이진 신뢰도 맵에 기초하여 필터링되는 깊이 맵이 도 18h에 예시되어 있다. 도 18d와 도 18e에 도시된 깊이 맵들을 비교하는 것은 임의의 깊이 추정 프로세스를 사용하여 발생되는 깊이 정보를 해석할 시에 신뢰도 맵의 사용의 값을 노출시킨다. 특정의 신뢰도 메트릭 및 필터링 프로세스가 도 18c 내지 도 18h를 참조하여 앞서 기술되어 있지만, 본 발명의 실시예들에 따라 깊이 추정치들 및/또는 깊이 맵들의 필터링 및/또는 부가의 처리에서 각종의 신뢰도 메트릭들 중 임의의 것이 이용될 수 있다. 본 발명의 실시예들에 따라 신뢰도 맵들을 발생시키고 깊이 맵들을 필터링하기 위해 신뢰도 맵들을 사용하는 것이 도 18i 내지 도 18l에 도시된 클로즈업 영상들에 추가로 예시되어 있다. 구체적으로는 도 18i와 관련하여, 초해상도 처리를 사용하여 적색, 녹색, 및 청색 색상 채널들에서 포착된 영상들(각각의 영상은 단일의 색상 채널에서의 영상 데이터를 포함함)의 명시야로부터 합성된 객체의 클로즈업 영상이 도시되어 있다. 앞서 기술한 기법들을 사용하여 발생된 깊이 맵이 도 18j에 예시되어 있다. 본 발명의 일 실시예에 따라 발생된 SNR을 이진화함으로써 발생되는 이진 신뢰도 맵이 도 18k에 예시되어 있다. SNR을 사용하여 본 발명의 일 실시예에 따라 발생된 다중 비트 분해능 신뢰도 맵이 도 18l에 예시되어 있다. 본 발명의 일 실시예에 따라 각각의 픽셀을 둘러싸고 있는 영역의 SNR을 이진화하는 것에 의해 그리고 폐색되는 기준 시점으로부터의 영상에서의 픽셀 위치에 대응하는 명시야 내의 영상들에서의 픽셀들의 수를 이진화하는 것에 의해 발생된 이진 신뢰도 맵이 도 18m에 예시되어 도 18m에 도시된 이진 신뢰도 맵을 사용하여 필터링된 깊이 맵이 도 18n에 예시되어 있다.
몇몇 실시예들에서, 앞서 기술한 메트릭들 중 하나 이상을 사용하여 발생된 신뢰도 맵이 부가의 정보 채널로서 JPEG-DZ 파일 포맷 또는 다른 파일 포맷들 내에 삽입될 수 있다. 몇몇 실시예들에서, 2012년 9월 28일자로 출원된, 발명의 명칭이 "명시야 영상 파일을 인코딩하는 시스템 및 방법(Systems and Methods for Encoding Light Field Image Files)"인 Venkataraman 등의 미국 특허 출원 제13/631,731호에 기술된 것들과 유사한 프로세스들을 사용하여 신뢰도 맵이 인코딩 및 디코딩된다. 미국 특허 출원 제13/631,731호의 개시 내용은 참조 문헌으로서 그 전체가 본 명세서에 포함된다. 신뢰도를 결정하기 위한 특정의 메트릭들이 앞서 기술되어 있지만, 특정의 응용의 요구사항들에 따라 적절히 신뢰도를 결정하기 위한 각종의 메트릭들 중 임의의 것이 본 발명의 실시예들에 따라 이용될 수 있다.
계산 복잡도를 감소시킴
깊이 맵들을 결정하기 위해 그리고 카메라 어레이에 의해 포착된 영상들의 가시성을 결정하기 위해 앞서 기술한 프로세스들의 계산 복잡도를 감소시키는 데 각종의 전략들이 이용될 수 있다. 몇몇 실시예들에서, 픽셀 위치들의 감소된(즉, 희박한) 서브셋에서 깊이만을 탐색하는 것에 의해 깊이 맵이 구성된다. 보다 적은 수의 점들(즉, 영상에서의 보다 희박한 점들의 세트)에서 깊이 탐색이 행해지고, 깊이가 계산되지 않은 점들에 대해, 다른 수단을 통해 깊이가 할당된다. 끝 무렵에, 이 희박한 깊이 탐색은 기준 영상에서의 모든 픽셀 위치에 대한 깊이를 제공하고, 이 경우 어떤 픽셀들은 탐색되고 다른 픽셀들은 보간을 통해 채워진다. 앞서 언급한 바와 같이, 최종적인 깊이 맵에서의 모든 픽셀들이 포착된 영상들에서의 대응하는 픽셀들에 대한 픽셀의 유사도를 비교하는 것에 의해 획득된 깊이를 갖는 것은 아니다. 그 대신에, 대응 관계 탐색이 행해지지 않은 영역들에서, 주변의 픽셀들의 깊이들의 평균을 구하는 것(대응 관계 탐색이 실행된 경우) 또는 계산된 인접 픽셀들의 깊이들을 보간하는 것(이들로 제한되지 않음)을 비롯한 프로세스들을 사용하여 픽셀들 중 다수의 픽셀의 깊이들이 결정된다. 깊이 측정이 수행되는 픽셀들의 수를 감소시키는 것에 의해, 깊이 맵을 발생시키기 위해 사용되는 계산의 양이 감소될 수 있다. 몇몇 실시예들에서, 영상의 텍스처리스 영역들을 검출하는 것 및 깊이가 계산된 가장 가까운 지시자 픽셀로부터의 단일의 깊이 값을 할당하는 것, 주변의 픽셀들의 깊이들의 평균을 구하는 것, 또는 영상의 텍스처리스 영역들에서의 픽셀들의 깊이를 결정하기 위해 인접한 픽셀들의 깊이들을 보간하는 것(이들로 제한되지 않음)을 비롯한 프로세스들을 사용하는 것에 의해 깊이 맵을 검출할 때 사용되는 계산의 양이 또한 감소될 수 있다. 다른 실시예들에서, 에지들을 포함하는 영역들(이들로 제한되지 않음)을 비롯한 장면의 특성들에 기초하여 및/또는 객체 거리에 기초하여 깊이 맵 내에서의 깊이 추정치들의 정밀도를 변화시키는 것을 비롯하여 깊이 맵을 발생시키는 것의 계산 복잡도를 감소시키는 각종의 프로세스들 중 임의의 것이 본 발명의 실시예들에 따라 특정의 응용들의 요구사항들에 따라 적절히 이용될 수 있다. 본 발명의 실시예들에 따라 희소 깊이 탐색으로부터 깊이 맵들을 발생시키고 영상들에서의 텍스처리스 영역들을 검출하는 프로세스들이 이하에서 더 논의된다.
희소 깊이 탐색으로부터 깊이 맵들을 발생
본 발명의 실시예들에 따라 희소 탐색을 통해 깊이 맵들을 발생시키는 프로세스들은 전형적으로 기준 영상 전체에 걸쳐 일정 간격으로 있거나 분포되어 있는 픽셀들의 희박한 세트의 깊이를 결정하는 것을 포함한다. 희박한 점들로 이루어져 있는 이 초기 깊이 맵에 기초하여, 깊이 천이가 검출될 수 있고, 깊이 천이를 둘러싸고 있는 픽셀들의 깊이들이 앞서 기술한 프로세스들을 사용하여 직접 측정될 수 있다. 나머지 픽셀들의 깊이들이 깊이 맵에서의 희박한 픽셀들의 깊이들에 기초하여 결정될 수 있다. 많은 실시예들에서, 기준 영상이 포착된 해상도에서 기준 영상에서의 픽셀들의 서브셋을 사용하여 깊이 측정이 수행된다.
본 발명의 일 실시예에 따라 희소 탐색을 통해 깊이 맵을 결정하는 프로세스가 도 13에 예시되어 있다. 프로세스(1300)는 기준 영상을 공간 블록들(또는 연관된 픽셀들의 그룹들)로 분할하는 단계(1302) 및 공간 블록들 내의 지시자 픽셀들의 보다 희박한 세트에 대한 깊이 측정을 발생시키는 단계(1304)를 포함한다. 여기서, 공간 블록은 픽셀들의 직사각형 블록, 또는 임의의 특정의 형상에 부합할 필요가 없는 연관된 픽셀들의 서브셋을 서로 바꾸어 말하기 위해 사용될 수 있다.
지시자 픽셀들은 공간 블록(또는 연관된 픽셀들의 그룹) 내의 픽셀들의 서브셋이고, 전형적으로 공간 블록에 걸쳐 깊이의 변동에 관한 정보를 제공하기 위해 선택된다. 본 발명의 일 실시예에 따라 복수의 지시자 픽셀들(1402)을 포함하는 공간 블록(1400)이 도 14에 예시되어 있다. 공간 블록의 중앙에서 그리고 에지들에서 지시자 픽셀들(1402)이 선택된다. 특정의 지시자 픽셀들이 도 14에 예시되어 있지만, 공간 블록 또는 연관된 픽셀들의 그룹 내의 지시자들의 배열이 변환될 수 있고 그리고/또는 공간 블록 내의 각종의 픽셀들 중 임의의 것이 특정의 응용의 요구사항들에 따라 적절히 지시자 픽셀들로서 선택될 수 있다. 다수의 실시예들에서, 상이한 형상의 공간 블록들이 이용되고, 공간 블록의 형상이 변화될 수 있다. 몇몇 실시예들에서, 공간 블록들 내의 지시자 픽셀들의 배열이 변화될 수 있다. 많은 실시예들에서, 지시자 픽셀들이 장면 내용에 기초하여 선택된다. 특정의 실시예들에서, 확실한 깊이 결과들을 제공할 가능성이 가장 많은 점들이 사용될 가능성을 증가시키기 위해 공간 블록 내의 어느 점들이 기준 영상에서 가장 높은 SNR을 갖는지에 기초하여 지시자 픽셀들이 선택된다. 다른 실시예에서, 모든 블록들에 대한 어떤 지시자 픽셀들(도 14에 나타내어져 있음)에 대해 고정된 공간 위치들이 선택되고, 지시자 픽셀들의 어떤 서브셋이 공간 블록에서 가장 높은 SNR을 갖는 점들에 할당된다(즉, 혼합 구성). 다른 실시예에서, 장면 내용에 기초하여 관련 공간 영역들을 생성하기 위해 세그먼트화 프로세스가 사용될 수 있다. 직사각형 공간 블록이 도시되어 있지만, 영상을 앞서 기술한 바와 같이 어떤 지시자 픽셀들을 포함하는 공간 클러스터들로 분할하기 위해 다른 기법들이 사용될 수 있을 것이다. 게다가, 영상의 특정의 부분들에서 공간 블록들이 다른 부분들에서보다 더 클 수 있다.
다시 도 13을 참조하면, 지시자 픽셀들의 깊이들에 기초하여 각각의 블록에서의 픽셀들에 깊이가 할당될 수 있다(1306). 몇몇 실시예들에서, 할당되는 깊이는 이웃하는 지시자 픽셀들의 보간을 통해 획득된다. 몇몇 실시예들에서, 비지시자 픽셀의 깊이가 고정된 이웃 내의 가장 가까운 지시자 픽셀들까지의 거리들의 정규화된 가중 평균으로서 계산될 수 있다. 다른 대안으로서, 지시자 픽셀들의 깊이 측정에 기초하여 공간 블록에서의 픽셀들에 깊이들을 할당하기 위해 최근접 이웃 보간(nearest neighbor interpolation)(1308)이 이용될 수 있다. 다른 실시예에서, 보간을 위한 가중치들은 명도 유사도는 물론 가장 가까운 지시자 픽셀들까지의 공간적 거리를 포함할 수 있다. 다른 실시예에서, 지시자 픽셀 위치들에서 샘플링된 깊이들 사이의 누락된 위치들을 채우기 위해 커널 회귀(Kernel Regression)(이들로 제한되지 않음)와 같은 비선형 회귀가 사용될 수 있다. 다른 실시예에서, 블록 내의 지시자 픽셀들의 합산된 비용들을 최소화함으로써 전체 블록에 대한 단일의 깊이가 할당된다. 다른 실시예들에서, 공간 블록 내의 픽셀들에 대한 깊이 정보를 발생시키기 위해 각종의 기법들 중 임의의 것이 이용될 수 있다.
많은 실시예들에서, 깊이 맵에서의 공간 블록들 각각의 신뢰성이 결정된다(1310). 공간 블록 내에서, 지시자 픽셀들(탐색이 행해진 경우) 및 비지시자 픽셀들(지시자 픽셀 결과들에 기초하여 깊이들이 보간된 경우) 둘 다에 대해 깊이들이 추정될 것이다. 지시자 픽셀들 및 비지시자 픽셀들에 대해, 블록 내에서의 추정된 깊이들의 비용들이 결정된다. 신뢰성 지시자(reliability indicator)를 생성하기 위해 블록 내의 각각의 픽셀의 비용들이 합산된다. 블록 내의 모든 픽셀들의 총 비용이 임계치보다 큰 경우, 공간 블록은 어떤 픽셀들에 대한 추정된 깊이들이 좋지 않은 대응 관계를 갖는 것처럼 보인다는 사실로 인해 신뢰할 수 없는 것으로 표시된다. 공간 블록이 좋지 않은 공간적 대응 관계의 낮은 신뢰성을 가지는 것으로 결정되는 경우, 블록은 깊이 천이 또는 폐색을 포함할 가능성이 있다. 그러한 경우에, 전체적인 대응 관계 탐색 및 폐색 처리가 공간 블록 내에서 실행될 수 있다.
공간 블록이 상기 기준들에 따라 깊이 천이를 가지는 것으로 결정되는 경우, 공간 블록은 '분할'될 수 있고, 새로운 지시자 픽셀들의 세트들이 2개의 자식 공간 블록들 각각에서 선택되고 프로세스가 반복될 수 있다. 하나의 실시예에서, 블록이 절반으로 분할될 수 있다. 다른 실시예에서, 공간 블록 내의 지시자 픽셀들에 의해 구해진 깊이들에 따라 블록이 똑같지 않은 영역들로 분할될 수 있다.
공간 블록들 내에서 그리고/또는 그들 사이에서 깊이 천이가 검출되는 경우, 깊이 천이를 포함하는 공간 블록 내에서 부가의 깊이 측정을 수행함으로써 깊이 맵이 세밀화될 수 있다(1312). 이러한 방식으로, 정확한 깊이 맵을 발생시키는 데 있어서 수행되는 깊이 측정의 수를 감소시키는 것에 의해 깊이 맵을 발생시키는 것의 계산 복잡도가 감소된다.
본 발명의 실시예들에 따른 희소 탐색으로부터 깊이 맵을 발생시키는 특정의 프로세스가 도 13에 예시되어 있지만, 유사한 또는 느리게 천이하는 깊이의 영역들에서 보다 적은 수의 깊이 측정을 수행하는 것에 의해 깊이 맵을 발생시키는 각종의 프로세스들 각각이 본 발명의 실시예들에 따라 이용될 수 있다.
영상들의 텍스처리스 영역들에서의 계산을 감소시킴
많은 실시예들에서, 깊이 맵을 발생시키는 프로세스는 영상의 텍스처리스 영역들에 대해 필요한 계산의 양을 감소시키는 단계를 포함한다. 많은 가정된 깊이들에서의 대응하는 픽셀들이 유사할 수 있기 때문에, 텍스처리스 영역들이 시차로 인해 모호할 수 있다. 따라서, 텍스처리스 영역 내에서의 깊이 측정이 신뢰할 수 없고 잡음이 많은 결과들을 발생시킬 수 있다. 많은 실시예들에서, 픽셀이 텍스처리스 영역에 있는지를 식별하기 위해 픽셀의 깊이를 결정할 때 픽셀을 둘러싸고 있는 영역에서의 SNR이 사용된다. 주어진 픽셀에 대한 초기 깊이 추정치 또는 초기 깊이 추정치들의 세트가, 깊이가 이전에 결정되었던 적어도 하나의 인접한 픽셀의 깊이에 기초하여, 결정될 수 있다. 주어진 픽셀에 대한 대응하는 픽셀들의 분산(또는 임의의 다른 유사도 척도)이 픽셀을 둘러싸고 있는 영역에서의 SNR 임계치 미만일 때, 픽셀이 텍스처리스 영역의 일부인 것으로 가정될 수 있고, 이하에서 기술되는 접근 방법들(그 중 하나)이 픽셀의 깊이를 선택하는 데 사용될 수 있다. 그렇지 않은 경우, 앞서 기술한 프로세스들과 유사한 프로세스를 사용하여 깊이 측정이 수행될 수 있다.
많은 실시예들에서, SNR에 대한 고정된 임계치를 사용하여 텍스처리스 영역들이 검출될 수 있다. 이러한 영역들에서의 탐색을 위한 계산이 탐색된 깊이들의 수를 감소시키는 것에 의해 감소될 수 있다. 많은 실시예들에서, 센서의 잡음 특성들을 고려하는 잡음 의존적인 임계치 미만인 최소 비용 깊이가 식별될 때까지 깊이들의 전체 세트가 탐색될 것이다. 최소 비용이 임계치 미만인 것으로 밝혀질 때 깊이가 텍스처리스 영역의 깊이로서 채택되고, 깊이들이 더 이상 탐색되지 않는다(즉, "충분히 가까운" 대응 관계를 갖는 깊이가 발견되자마자 탐색이 종료된다). 많은 실시예들에서, 텍스처리스 영역들에서의 탐색은 텍스처를 갖는 영역에 대한 정상적인 탐색에서 행해지는 것보다 불일치의 전 범위를 보다 큰 증분으로 탐색하는 것에 의해 계산을 절감할 수 있다(즉, 탐색되는 깊이들의 수를 감소시킴)―최상의 비용이 텍스처리스 영역에서의 픽셀의 깊이로서 선택될 것이다.
본 발명의 일 실시예에 따라 픽셀을 둘러싸고 있는 텍스처리스 영역들을 SNR을 사용하여 검출하는 프로세스가 도 15에 예시되어 있다. 프로세스(1500)는 기준 영상으로부터 픽셀을 선택하는 단계(1502) 및 선택된 픽셀 주위의 영역에서 SNR을 검출하는 단계(1504)를 포함한다. 픽셀에 대해 초기의 가정된 깊이 d가 결정될 수 있다(1506). 많은 실시예들에서, 초기의 가정된 깊이 d는 선택된 픽셀을 둘러싸고 있는 영역에서의 하나 이상의 픽셀들의 깊이에 기초하여 결정된다. 이어서, 가정된 깊이에서의 대응하는 픽셀들의 분산 또는 비용이 사전 결정되거나 선택된 픽셀을 둘러싸고 있는 영역에서의 SNR의 함수(이들로 제한되지 않음)일 수 있는 임계치 미만인지에 관한 결정(1508)이 행해진다. 다른 실시예들에서, 픽셀을 둘러싸고 있는 영역이 텍스처리스인지를 결정하기 위해 각종의 유사도 척도들 중 임의의 것이 이용될 수 있다. 대응하는 픽셀들의 분산 또는 비용이 잡음 또는 사전 결정된 임계치 미만인 경우에, 가정된 깊이는, 픽셀이 텍스처리스 영역 내에 위치하는 것으로 가정할 때, 가장 유망한 깊이로서 선택된다. 대응하는 픽셀들의 분산 또는 비용이 잡음 또는 사전 결정된 임계치를 초과할 때, 앞서 기술한 프로세스들과 유사한 프로세스에 따라 픽셀의 깊이가 결정된다.
기준 영상 내의 텍스처리스 영역들을 검출하는 특정의 프로세스가 도 15와 관련하여 앞서 기술되어 있지만, 영상에서의 텍스처리스 영역들을 검출하는 각종의 프로세스들 중 임의의 것이 실시예들에 따라 이용될 수 있다. 게다가, 본 발명의 실시예들에 따라 신뢰성있는 깊이 맵을 발생시키는 데 있어서 행해지는 깊이 측정의 수를 감소시키기 위해 의존될 수 있는 영상의 다른 특성들을 검출하기 위해 각종의 프로세스들 중 임의의 것이 이용될 수 있다.
가상 시점들로부터 깊이 맵들을 발생
앞서 제공된 논의의 많은 부분이 기준 카메라에 의해 포착된 영상들에 대한 깊이 맵들을 발생시키는 것을 기술하고 있지만, 본 발명의 실시예들에 따른 시스템 및 방법은 가상 시점들로부터의 영상을 합성할 수 있다. 가상 시점은 카메라 어레이 내의 임의의 카메라들의 시점에 대응하지 않는 기준 시점이다. 그에 따라, 카메라 어레이 내의 색상 채널들의 수에 관계없이, 색상 채널들 중 어느 것도 영상 데이터가 기준 시점으로부터 포착되는 카메라를 포함하지 않는다. 본 발명의 일 실시예에 따라 정의될 수 있는 가상 시점의 한 예가 도 12에 예시되어 있다. 어레이 카메라 모듈(1200)은 8개의 녹색 카메라들, 4개의 적색 카메라들, 및 4개의 청색 카메라들을 포함하는 카메라들의 4 x 4 어레이를 포함한다. 어레이 카메라 모듈의 중앙에 있는 가상 시점을 갖는 가상 카메라(1202)가 정의된다. 특정의 가상 시점이 도 12에 예시되어 있지만, 임의의 가상 시점이 카메라 어레이 내의 카메라들에 대해 임의적으로 정의될 수 있다.
가상 시점 깊이 맵을 결정할 때, 비용 메트릭 비교들을 위해 탐색되고 사용될 수 있는 명시적인 기준 카메라가 없다. 많은 실시예들에서, 가상 시점으로부터 합성된 영상에서의 주어진 픽셀 (x, y)의 깊이는 어레이 내의 모든 다른 카메라들에 대한 가상 촬상기(virtual imager)로부터 유효 기준선(effective baseline)을 계산하는 것에 의해 결정된다. 가상 시점에 대한 위치 (i, j)에 있는 카메라에 대한 기준선은 (i, j) - (iv, jv)일 것이고, 여기서 (iv, jv)는 가상 시점(1202)의 위치이다. 가상 시점과 관련하여 개별적인 카메라들 사이의 기준선들이 결정되면, 깊이를 추정하는 프로세스는 대응하는 픽셀들이 가장 높은 유사도를 가지는 깊이들을 탐색하는 것으로 시작한다. 가상 기준 카메라에서의 각각의 픽셀 (x, y)(즉, 가상 시점으로부터의 영상)에 대해, 탐색은 전형적인 시차 시나리오에서와 같이 진행될 수 있고, 여기서 각각의 깊이 d에 대해, 대안 시점 카메라들 각각에 대한 불일치가 그 깊이에서 결정되고, 색상 채널들 중 하나 이상에서 대응하는 픽셀들의 유사도가 적절한 비용 메트릭을 사용하여 결정된다. 많은 실시예들에서, 기준 카메라를 포함하지 않는 색상 채널들에서의 픽셀들의 유사도를 결정하는 앞서 기술한 조합 비용 메트릭이 이용될 수 있다. 많은 실시예들에서, 특정의 색상 채널에서의 가상 시점에 인접한 카메라는 선택된 기준 카메라에서의 픽셀과 색상 채널에서의 다른 카메라들에 의해 포착된 영상 데이터에서의 대응하는 픽셀들 간의 유사도를 결정하기 위한 기준 카메라로서 사용될 수 있다. 많은 실시예들에서, 녹색 카메라가 대응하는 녹색 픽셀들의 유사도를 결정하기 위한 기준 카메라로서 선택되고, 다른 색상 채널들에서의 대응하는 픽셀들에 대해 조합 비용 메트릭이 사용된다. 많은 실시예들에서, 가상 시점에 대한 초기 깊이 맵을 결정하는 프로세스는 도 8a 내지 도 8i와 관련하여 앞서 기술된 것과 유사한 방식으로 장면 내의 가시성의 패턴들에 대응하는 카메라들의 그룹들을 형성하는 단계를 포함할 수 있다.
가상 시점에 대해 발생된 깊이 맵은 본 발명의 실시예들에 따라 초해상도 프로세스를 사용하여 가상 시점으로부터의 고 해상도 영상을 합성하는 데 이용될 수 있다. 가상 시점으로부터 고 해상도 영상을 합성하는 것에서의 주된 차이점은 고 분해능 격자(high resolution grid)가 가상 시점으로부터 온 것이고 픽셀들이 물리 기준 카메라가 아닌 가상 시점 위치에 대한 것인 기준선들로 계산된 대응 관계들을 사용하여 고 분해능 격자로 융합된다는 것이다. 이 경우에, 고 분해능 격자 상에 규칙적으로 매핑되는 픽셀들을 가지는 물리 기준 카메라가 없다. 잘 알 수 있는 바와 같이, 가상 시점들과 관련한 깊이 맵들에 대한 신뢰도 맵들을 결정하는 프로세스들이 합성된 기준 영상을 분석하는 것 또는 가상 시점에 가까운 영상을 SNR 및/또는 다른 관련 측정을 수행하는 대용물로서 선택하는 것에 관련된 유사한 설비들을 사용하여 결정될 수 있다. 가상 시점들과 관련하여 깊이 맵들을 발생시키는 특정의 프로세스들이 이상에 기술되어 있지만, 본 발명의 실시예들에 따라 가상 시점들에 대한 깊이 추정치들을 발생시키기 위해 앞서 기술한 비용 메트릭들 및 기법들을 포함하는 각종의 프로세스들 중 임의의 것이 이용될 수 있다. 본 발명의 실시예들에 따라 시차 검출 및 보정을 수행하고 깊이 맵들을 발생시키는 시스템이 이하에서 더 논의된다.
시차 검출을 수행하는 시스템
앞서 기술한 것들과 유사한 프로세스들을 사용하여 깊이 맵 및 가시성 정보를 발생시키는 시스템이 도 16에 예시되어 있다. 본 시스템은 명시야를 형성하는 포착된 영상들 및 어레이 카메라에 대한 교정 정보를 입력으로서 받고 깊이 맵, 및 포착된 영상들의 픽셀들의 추정된 가시성을 출력하는 시차 검출 모듈(1600)을 포함한다. 많은 실시예들에서, 시차 검출 모듈(1600)은 또한 기준 영상 내의 특정 픽셀들에 대한 깊이 측정의 신뢰성을 나타내는 신뢰도 맵을 출력한다. 이하에서 추가로 논의되는 바와 같이, 깊이 맵, 추정된 가시성 정보, 및/또는 신뢰도 맵이 포착된 영상들로부터 고 해상도 영상을 발생시키기 위해 어레이 카메라 내의 초해상도 처리 모듈에 그리고 깊이, 신뢰도 및/또는 가시성 정보를 이용할 수 있는 각종의 응용들 중 임의의 것에 제공될 수 있다. 많은 실시예들에서, 시차 검출 모듈 및 초해상도 모듈은 어레이 카메라 내의 마이크로프로세서 상에 소프트웨어 및/또는 펌웨어로 구현된다. 몇몇 실시예들에서, 시차 검출 모듈 및 초해상도 모듈과 연관된 소프트웨어는 어레이 카메라 내의 메모리 내에 저장된다. 다른 실시예들에서, 시차 검출 모듈 및/또는 초해상도 모듈은 임의의 적절히 구성된 하드웨어 및/또는 소프트웨어를 사용하여 구현될 수 있다. 본 발명의 실시예들에 따라 발생된 깊이 맵을 사용하여 어레이 카메라에 의해 포착된 명시야로부터 고 해상도 영상들을 발생시키는 것이 이하에서 더 논의된다.
깊이 맵을 사용한 초해상도 처리
미국 특허 출원 제12/967,807호(앞서 참조 문헌으로서 포함됨)에서 살펴본 바와 같이, 영상들 사이의 불일치는 초해상도 처리를 수행할 때 상당한 아티팩트(artifact)들을 유입시킬 수 있다. 따라서, 미국 특허 출원 제12/967,807호에 개시된 초해상도 프로세스들은 고 해상도 영상을 합성하기 위해 영상들을 사용하기 전에 어레이 카메라에 의해 포착된 영상들에서의 픽셀들 각각의 위치에 장면 의존적인 기하학적 보정을 적용하는 단계를 포함할 수 있다. 어레이 카메라 내의 카메라들의 기준선 및 후방 초점 거리는 용이하게 결정될 수 있고, 따라서 포착된 영상들에서 관측된 장면 의존적인 기하학적 시프트들을 추정함에 있어서의 미지의 양은 어레이 카메라와 장면의 상이한 부분들 사이의 거리이다. 깊이 맵 및 가시성 정보가 앞서 기술한 프로세스들에 따라 발생될 때, 픽셀들 각각의 깊이들로부터 얻어지는 장면 의존적인 기하학적 시프트들이 결정되고, 초해상도 처리를 수행할 때 폐색된 픽셀들이 무시될 수 있다. 많은 실시예들에서, 신뢰도 맵은 깊이 맵을 발생시키는 프로세스의 일부로서 발생되고, 입력 영상들로부터의 픽셀들의 융합을 수행할 때 깊이 맵 내에 포함된 깊이 추정치들의 신뢰성을 평가할 시에 초해상도 프로세스를 돕기 위해 신뢰도 맵이 초해상도 프로세스에의 입력으로서 제공된다.
본 발명의 일 실시예에 따라 깊이 맵을 발생시키는 단계를 포함하는 어레이 카메라에 의해 포착된 명시야를 사용하여 고 해상도 영상을 발생시키는 프로세스가 도 17에 예시되어 있다. 프로세스(1700)는 어레이 카메라를 사용하여 명시야를 포착하는 단계(1702) 및 고 해상도 영상을 합성하기 위해 이용될 수 있는 기준 시점을 선택하는 단계(1704)를 포함한다. 많은 실시예들에서, 기준 시점은 어레이 카메라의 구성에 기초하여 사전 결정된다. 다수의 실시예들에서, 포착된 영상들 사이의 대응 관계를 증가(1706)시키기 위해 교정 정보가 이용된다. 많은 실시예들에서, 포착된 영상들 사이의 대응 관계는 영상들을 재샘플링하는 것을 포함한다. 초기 깊이 맵이 결정되고(1708), 깊이 맵을 업데이트하기 위해 폐색이 결정되고 사용된다(1710). 몇몇 실시예들에서, 폐색을 검출하고 깊이 맵을 업데이트하는 프로세스는 반복적이다.
다수의 실시예들에서, 기준 시점으로부터 포착된 명시야 내에서의 픽셀들의 가시성에 관한 정보를 발생(1712)시키기 위해 깊이 맵이 이용된다. 몇몇 실시예들에서, 깊이 맵 내에 포함된 깊이 추정치들과 관련하여 신뢰도 맵이 (선택적으로) 발생되고(1713), 깊이 맵, 가시성 정보, 및/또는 신뢰도 맵이 초해상도(SR) 처리 파이프라인에 제공된다(1714). 몇몇 실시예들에서, 초해상도 처리 파이프라인은 미국 특허 출원 제12/967,807호에 개시된 초해상도 처리 파이프라인들 중 임의의 것과 유사하다. 초해상도 처리 파이프라인은 어레이 카메라에 의해 출력(1718)되는 기준 시점으로부터의 고 해상도 영상을 합성(1718)하기 위해 명시야, 깊이 맵, 가시성 정보, 및 신뢰도 맵을 비롯한 정보를 이용한다. 몇몇 실시예들에서, 고 해상도 영상을 합성하는 프로세스는 명시야로부터의 영상 데이터의 고해상도 격자 상으로의 파일럿 융합(pilot fusion)을 포함한다. 파일럿 융합의 결과는 이어서 초해상도 프로세스를 사용하여 고 해상도 영상을 합성하는 시작점으로서 이용될 수 있다.
미국 특허 출원 제12/967,807호에 기술된 바와 같이, 포착된 명시야로부터 입체 3D 영상 쌍을 합성하기 위해 도 17에 예시된 프로세스가 수행될 수 있다. 포착된 명시야로부터 고 해상도 영상을 합성하는 특정의 프로세스가 도 17에 예시되어 있지만, 명시야 내의 픽셀들의 깊이의 측정을 포함하는 포착된 명시야들로부터 고 해상도 영상들을 합성하는 각종의 프로세스들 중 임의의 것이 본 발명의 실시예들에 따라 이용될 수 있다.
이상의 설명이 본 발명의 많은 특정의 실시예들을 포함하지만, 이들이 본 발명의 범주에 대한 제한이 아니라 오히려 그의 하나의 실시예의 한 예로서 해석되어서는 안된다. 그에 따라, 본 발명의 범주는 예시된 실시예들에 의해서가 아니라 첨부된 청구항들 및 그의 등가물들에 의해 결정되어야만 한다.

Claims (28)

  1. 영상 처리 애플리케이션에 의해 구성된 프로세서를 사용하여 상이한 시점(viewpoint)들로부터 포착된 일련의 영상들을 포함하는 명시야(light field)로부터의 장면 내의 객체들까지의 거리를 추정하는 방법에 있어서,
    상이한 시점들로부터 포착된 상기 일련의 영상들의 시점들에 대한 기준 시점(reference viewpoint)을 선택하는 단계;
    상기 일련의 영상들 내의 대응하는 픽셀들의 유사도를 증가시키기 위해 상기 일련의 영상들을 정규화하는 단계;
    상기 일련의 영상들의 적어도 하나의 서브셋을 사용하여 상기 기준 시점으로부터의 영상에서의 픽셀 위치들에 대한 초기 깊이 추정치(initial depth estimate)들을 결정하는 단계로서, 상기 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 초기 깊이 추정치는,
    복수의 깊이들에서의 예상된 불일치(disparity)에 기초하여 상기 기준 시점으로부터의 영상에서의 상기 주어진 픽셀 위치에 대응하는 상기 일련의 영상들의 상기 적어도 하나의 서브셋에서의 픽셀들을 식별하는 것;
    상기 복수의 깊이들 각각에서 식별된 상기 대응하는 픽셀들의 유사도를 비교하는 것; 및
    상기 식별된 대응하는 픽셀들이 가장 높은 정도의 유사도를 가지는 상기 복수의 깊이들 중의 깊이를 상기 기준 시점으로부터의 영상에서의 상기 주어진 픽셀 위치에 대한 초기 깊이 추정치로서 선택하는 것에 의해 결정되는 것인 상기 초기 깊이 추정치들을 결정하는 단계;
    상기 초기 깊이 추정치들을 사용하여 상기 일련의 영상들에서의 대응하는 픽셀들을 식별하는 단계;
    부정합 픽셀(mismatched pixel)들을 검출하기 위해 상기 일련의 영상들에서의 상기 대응하는 픽셀들의 유사도를 비교하는 단계;
    초기 깊이 추정치로부터, 상기 일련의 영상들에서의 대응하는 픽셀들 간의 부정합이 검출되지 않을 때, 상기 초기 깊이 추정치를 상기 기준 시점으로부터의 영상에서의 상기 픽셀 위치에 대한 현재의 깊이 추정치로서 선택하는 단계;
    초기 깊이 추정치로부터, 상기 일련의 영상들에서의 대응하는 픽셀들 간의 부정합이 검출될 때,
    상기 일련의 영상들의 복수의 상이한 서브셋들을 사용하여 일련의 후보 깊이 추정치들을 결정하는 것;
    상기 후보 깊이 추정치들에 기초하여 상기 일련의 영상들의 상기 복수의 서브셋들 각각에서의 대응하는 픽셀들을 식별하는 것; 및
    가장 유사한 대응하는 픽셀들을 가지는 서브셋의 후보 깊이를 상기 기준 시점으로부터의 영상에서의 상기 픽셀 위치에 대한 상기 현재의 깊이 추정치로서 선택하는 것에 의해 상기 기준 시점으로부터의 영상에서의 상기 픽셀 위치에 대한 상기 현재의 깊이 추정치를 선택하는 단계를 포함하는, 거리 추정 방법.
  2. 제1항에 있어서, 상기 상이한 시점들로부터 포착된 상기 일련의 영상들의 시점들에 대한 기준 시점을 선택하는 단계는,
    상기 영상들 중 하나의 영상의 시점; 및
    가상 시점(virtual viewpoint)
    으로 이루어진 세트로부터 시점을 선택하는 단계를 포함하는 것인, 거리 추정 방법.
  3. 제1항에 있어서, 상기 기준 시점으로부터의 영상에서의 픽셀 위치에 대응하는 상기 일련의 영상들 중의 주어진 영상에서의 픽셀은,
    상기 기준 시점으로부터의 영상에서의 상기 픽셀 위치의 깊이 추정치; 및
    상기 주어진 영상의 시점과 상기 기준 시점 간의 기준선(baseline)
    에 기초하여 결정되는 장면 의존적인 시프트(scene dependent shift)를 상기 기준 시점으로부터의 영상에서의 상기 픽셀 위치에 적용하는 것에 의해 결정되는 것인, 거리 추정 방법.
  4. 제1항에 있어서, 상기 기준 시점으로부터의 영상에서의 주어진 픽셀 위치가 서브셋 내의 각각의 영상에서 보이는 적어도 하나의 서브셋을 초래할 가능성이 있는 자연 장면들의 가시성 특성(visibility characteristic)의 패턴들을 이용하기 위해, 상기 일련의 후보 깊이 추정치들을 결정하는 데 사용되는 상기 일련의 영상들의 서브셋들이 상기 일련의 영상들에서의 영상들의 시점들에 기초하여 선택되는 것인, 거리 추정 방법.
  5. 제4항에 있어서, 상기 일련의 영상들은 다수의 색상 채널(color channel)들 내에서 포착되고;
    상기 상이한 시점들로부터 포착된 상기 일련의 영상들의 시점들에 대한 기준 시점을 선택하는 단계는, 상기 영상들 중 하나를 기준 영상(reference image)으로서 선택하고 상기 기준 영상의 시점을 상기 기준 시점으로서 선택하는 단계를 포함하고;
    상기 일련의 후보 깊이 추정치들을 결정하는 데 사용되는 상기 일련의 영상들의 서브셋들은, 상기 기준 영상을 포함하는 상기 색상 채널에서의 동일한 수의 영상들이 각각의 서브셋에 나타나도록 선택되는 것인, 거리 추정 방법.
  6. 제5항에 있어서, 상기 일련의 후보 깊이 추정치들을 결정하는 데 사용되는 상기 일련의 영상들의 서브셋들은 또한, 각각의 서브셋에 상기 기준 영상을 포함하지 않는 상기 색상 채널들에 적어도 2개의 영상들이 있도록 선택되는 것인, 거리 추정 방법.
  7. 제1항에 있어서,
    상기 현재의 깊이 추정치들을 사용하여 상기 일련의 영상들에서의 대응하는 픽셀들을 식별하는 것; 및
    주어진 영상에서의 픽셀이 대응하는 픽셀들의 비교에 기초하여 결정된 측광 유사도 기준(photometric similarity criterion)을 충족시키지 못할 때, 상기 픽셀이 상기 기준 시점으로부터의 영상에서 보이지 않는 것으로 결정하는 것에 의해
    상기 기준 시점으로부터의 상기 일련의 영상들에서의 픽셀들의 가시성(visibility)을 결정하는 단계를 더 포함하는, 거리 추정 방법.
  8. 제7항에 있어서, 상기 상이한 시점들로부터 포착된 상기 일련의 영상들의 시점들에 대한 기준 시점을 선택하는 단계는, 상기 일련의 영상들에서의 영상들 중 하나를 기준 영상으로서 선택하고 상기 기준 영상의 시점을 상기 기준 시점으로서 선택하는 단계를 포함하고;
    주어진 영상에서의 픽셀이 대응하는 픽셀들의 비교에 기초하여 결정된 측광 유사도 기준을 충족시키지 못할 때, 상기 픽셀이 상기 기준 시점으로부터의 영상에서 보이지 않는 것으로 결정하는 것은, 상기 주어진 영상에서의 상기 픽셀을 상기 기준 영상에서의 상기 대응하는 픽셀과 비교하는 것을 더 포함하는 것인, 거리 추정 방법.
  9. 제8항에 있어서, 상기 측광 유사도 기준은 적어도 상기 주어진 영상에서의 픽셀 및 상기 기준 영상에서의 픽셀 중 적어도 하나의 픽셀의 명도(intensity)에 기초하여 적응하는 유사도 임계치(similarity threshold)를 포함하는 것인, 거리 추정 방법.
  10. 제8항에 있어서, 상기 측광 유사도 기준은 상기 기준 영상으로부터의 대응하는 픽셀과 상기 기준 영상으로부터의 픽셀과 가장 유사한 대응하는 픽셀 사이의 측광 거리(photometric distance)의 함수로서 적응하는 유사도 임계치를 포함하는 것인, 거리 추정 방법.
  11. 제7항에 있어서, 상기 상이한 시점들로부터 포착된 상기 일련의 영상들의 시점들에 대한 기준 시점을 선택하는 단계는, 가상 시점을 상기 기준 시점으로서 선택하는 단계를 포함하고;
    주어진 영상에서의 픽셀이 대응하는 픽셀들의 비교에 기초하여 결정된 측광 유사도 기준을 충족시키지 못할 때, 상기 픽셀이 상기 기준 시점으로부터의 영상에서 보이지 않는 것으로 결정하는 것은,
    상기 가상 시점에 인접한 영상을 기준 영상으로서 선택하는 것; 및
    상기 주어진 영상에서의 상기 픽셀을 상기 기준 영상에서의 상기 대응하는 픽셀과 비교하는 것을 더 포함하는 것인, 거리 추정 방법.
  12. 제7항에 있어서,
    주어진 픽셀에 대한 현재의 깊이 추정치에 기초하여 상기 기준 시점으로부터의 영상에서의 상기 주어진 픽셀 위치가 보이는 것으로 결정되는 영상들을 사용하여 상기 일련의 영상들의 업데이트된 서브셋을 발생시키는 것;
    복수의 깊이들에서의 예상된 불일치에 기초하여 상기 기준 시점으로부터의 영상에서의 상기 주어진 픽셀 위치에 대응하는 상기 일련의 영상들의 상기 업데이트된 서브셋에서의 픽셀들을 식별하는 것;
    상기 복수의 깊이들 각각에서 식별된 영상들의 상기 업데이트된 서브셋에서의 대응하는 픽셀들의 유사도를 비교하는 것; 및
    상기 일련의 영상들의 상기 업데이트된 서브셋에서의 상기 식별된 대응하는 픽셀들이 가장 높은 정도의 유사도를 가지는 상기 복수의 깊이들 중의 깊이를 상기 기준 시점으로부터의 영상에서의 상기 주어진 픽셀 위치에 대한 업데이트된 깊이 추정치로서 선택하는 것에 의해
    상기 기준 시점으로부터의 상기 일련의 영상들에서의 픽셀들의 가시성에 기초하여 상기 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 상기 깊이 추정치를 업데이트하는 단계를 더 포함하는, 거리 추정 방법.
  13. 제1항에 있어서, 상기 일련의 영상들 내의 대응하는 픽셀들의 유사도를 증가시키기 위해 상기 일련의 영상들을 정규화하는 단계는,
    상기 일련의 영상들 중의 영상들에서의 측광 변동(photometric variation) 및 장면 독립적인 기하학적 왜곡(scene-independent geometric distortion)을 보정하기 위해 교정 정보(calibration information)를 이용하는 단계; 및
    상기 일련의 영상들 중의 영상들을 정렬(rectification)하는 단계를 더 포함하는 것인, 거리 추정 방법.
  14. 제13항에 있어서, 상기 일련의 영상들 내의 대응하는 픽셀들의 유사도를 증가시키기 위해 상기 일련의 영상들을 정규화하는 단계는, 상기 일련의 영상들에서의 대응하는 픽셀들의 유사도를 증가시키기 위해 상기 영상들을 재샘플링하는 단계를 더 포함하고;
    상기 영상들에 적용되는 장면 독립적인 기하학적 보정(scene-independent geometric correction)은 서브픽셀 해상도로 결정되는 것인, 거리 추정 방법.
  15. 제1항에 있어서, 대응하는 픽셀들의 유사도를 결정하기 위해 비용 함수(cost function)가 이용되는 것인, 거리 추정 방법.
  16. 제15항에 있어서, 대응하는 픽셀들의 유사도를 결정하는 것은, 계산된 비용들을 공간적으로 필터링하는 것을 더 포함하는 것인, 거리 추정 방법.
  17. 제15항에 있어서, 상기 식별된 대응하는 픽셀들이 가장 높은 정도의 유사도를 가지는 상기 복수의 깊이들 중의 깊이를 상기 기준 시점으로부터의 영상에서의 상기 주어진 픽셀 위치에 대한 초기 깊이 추정치로서 선택하는 것은, 상기 식별된 대응하는 픽셀들에 대한 필터링된 비용 함수가 가장 높은 레벨의 유사도를 나타내는 상기 복수의 깊이들 중의 깊이를 선택하는 것을 더 포함하는 것인, 거리 추정 방법.
  18. 제15항에 있어서, 상기 비용 함수는,
    한 쌍의 대응하는 픽셀들의 L1 노름(norm);
    한 쌍의 대응하는 픽셀들의 L2 노름; 및
    일련의 대응하는 픽셀들의 분산(variance)
    으로 이루어진 그룹으로부터 선택된 적어도 하나의 유사도 척도(similarity measure)를 이용하는 것인, 거리 추정 방법.
  19. 제15항에 있어서, 상기 일련의 영상들은 다수의 색상 채널들 내에서 포착되고, 상기 비용 함수는 상기 다수의 색상 채널들 각각에서의 픽셀들의 유사도를 결정하는 것인, 거리 추정 방법.
  20. 제1항에 있어서, 상기 기준 시점으로부터의 영상에서의 픽셀 위치들에 대한 상기 현재의 깊이 추정치들에 대한 신뢰도 메트릭(confidence metric)들을 발생시키는 단계를 더 포함하는, 거리 추정 방법.
  21. 제20항에 있어서, 상기 신뢰도 메트릭은 복수의 신뢰도 인자(confidence factor)들을 인코딩하는 것인, 거리 추정 방법.
  22. 제1항에 있어서,
    폐색 픽셀(occluding pixel)들을 찾아내기 위해 상기 기준 시점과 상기 일련의 영상들에서의 영상들의 시점들 사이의 기준선들에 평행인 라인들을 따라 탐색하는 것에 의해 상기 초기 깊이 추정치들에 기초하여 상기 기준 시점으로부터의 영상에서의 특정 픽셀 위치들에 대응하는 상기 일련의 영상들 내의 영상들에서의 픽셀들의 폐색(occlusion)을 검출하는 단계; 및
    초기 깊이 추정치로부터, 적어도 하나의 영상에서의 대응하는 픽셀이 폐색되는 것이 검출될 때,
    주어진 픽셀이 폐색되는 상기 적어도 하나의 영상을 배제하는 상기 일련의 영상들의 복수의 상이한 서브셋들을 사용하여 일련의 후보 깊이 추정치들을 결정하는 것;
    상기 후보 깊이 추정치들에 기초하여 상기 일련의 영상들의 상기 복수의 서브셋들 각각에서의 대응하는 픽셀들을 식별하는 것; 및
    가장 유사한 대응하는 픽셀들을 가지는 서브셋의 후보 깊이를 상기 기준 시점으로부터의 영상에서의 픽셀 위치에 대한 상기 현재의 깊이 추정치로서 선택하는 것에 의해
    상기 기준 시점으로부터의 영상에서의 상기 픽셀 위치에 대한 상기 현재의 깊이 추정치를 선택하는 단계를 더 포함하는, 거리 추정 방법.
  23. 제22항에 있어서, 상기 폐색 픽셀들을 찾아내기 위해 상기 기준 시점과 상기 일련의 영상들에서의 영상들의 시점들 사이의 기준선들에 평행인 라인들을 따라 탐색하는 것은,
    Figure 112018072380429-pct00040

    일 때 상기 기준 시점으로부터의 영상에서의 픽셀 위치 (x1, y1)에 대응하는 픽셀이 대안 시점 영상(alternate view image)에서 상기 기준 시점으로부터의 영상에서의 픽셀 위치 (x2, y2)에 의해 폐색되는 것으로 결정하는 것을 포함하며,
    여기서 s1 및 s2는, 상기 기준 시점과 상기 대안 시점 영상의 시점 사이의 기준선에 평행인 라인을 따라 상기 픽셀들을 시프트시켜 각각의 픽셀에 대한 상기 초기 깊이 추정치들에 기초하여 상기 대안 시점 영상의 시점 내로 상기 픽셀들을 시프트시키기 위해 픽셀 위치들 (x1, y1) 및 (x2, y2)에 적용되는 장면 의존적인 기하학적 시프트(scene dependent geometric shift)들인 것인, 거리 추정 방법.
  24. 제22항에 있어서, 픽셀을 폐색되어 있는 것으로 지정하는 결정은 상기 픽셀들의 유사도 및 상기 픽셀들 (x1, y1) 및 (x2, y2)의 추정된 깊이들의 신뢰도(confidence) 중 적어도 하나를 고려하는 것인, 거리 추정 방법.
  25. 상이한 시점들로부터 포착되는 일련의 저 해상도 영상들을 포함하는 명시야로부터 고 해상도 영상을 합성하는 방법에 있어서,
    영상 처리 애플리케이션에 의해 구성된 프로세서를 사용하여 상이한 시점들로부터 포착된 일련의 영상들을 포함하는 명시야로부터의 장면 내의 객체들까지의 거리를 추정하는 단계;
    상이한 시점들로부터 포착된 상기 일련의 영상들의 시점들에 대한 기준 시점을 선택하는 단계;
    상기 일련의 영상들 내의 대응하는 픽셀들의 유사도를 증가시키기 위해 상기 일련의 영상들을 정규화하는 단계;
    상기 일련의 영상들의 적어도 하나의 서브셋을 사용하여 상기 기준 시점으로부터의 영상에서의 픽셀 위치들에 대한 초기 깊이 추정치들을 결정하는 단계로서, 상기 기준 시점으로부터의 영상 내의 주어진 픽셀 위치에 대한 초기 깊이 추정치는,
    복수의 깊이들에서의 예상된 불일치에 기초하여 상기 기준 시점으로부터의 영상에서의 상기 주어진 픽셀 위치에 대응하는 상기 일련의 영상들의 상기 적어도 하나의 서브셋에서의 픽셀들을 식별하는 것;
    상기 복수의 깊이들 각각에서 식별된 상기 대응하는 픽셀들의 유사도를 비교하는 것; 및
    상기 식별된 대응하는 픽셀들이 가장 높은 정도의 유사도를 가지는 상기 복수의 깊이들 중의 깊이를 상기 기준 시점으로부터의 영상에서의 상기 주어진 픽셀 위치에 대한 초기 깊이 추정치로서 선택하는 것에 의해 결정되는 것인, 상기 초기 깊이 추정치들을 결정하는 단계;
    상기 초기 깊이 추정치들을 사용하여 상기 일련의 영상들에서의 대응하는 픽셀들을 식별하는 단계;
    부정합 픽셀들을 검출하기 위해 상기 일련의 영상들에서의 상기 대응하는 픽셀들의 유사도를 비교하는 단계;
    초기 깊이 추정치로부터, 상기 일련의 영상들에서의 대응하는 픽셀들 간의 부정합이 검출되지 않을 때, 상기 초기 깊이 추정치를 상기 기준 시점으로부터의 영상에서의 상기 픽셀 위치에 대한 현재의 깊이 추정치로서 선택하는 단계;
    초기 깊이 추정치로부터, 상기 일련의 영상들에서의 대응하는 픽셀들 간의 부정합이 검출될 때,
    상기 일련의 영상들의 복수의 상이한 서브셋들을 사용하여 일련의 후보 깊이 추정치들을 결정하는 것;
    상기 후보 깊이 추정치들에 기초하여 상기 일련의 영상들의 상기 복수의 서브셋들 각각에서의 대응하는 픽셀들을 식별하는 것; 및
    가장 유사한 대응하는 픽셀들을 가지는 서브셋의 후보 깊이를 상기 기준 시점으로부터의 영상에서의 상기 픽셀 위치에 대한 상기 현재의 깊이 추정치로서 선택하는 것에 의해 상기 기준 시점으로부터의 영상에서의 상기 픽셀 위치에 대한 상기 현재의 깊이 추정치를 선택하는 단계;
    상기 현재의 깊이 추정치들을 사용하여 상기 일련의 영상들에서의 대응하는 픽셀들을 식별하는 것; 및
    주어진 영상에서의 픽셀이 대응하는 픽셀들의 비교에 기초하여 결정된 측광 유사도 기준을 충족시키지 못할 때, 상기 픽셀이 상기 기준 시점에 보이지 않는 것으로 결정하는 것에 의해,
    상기 기준 시점으로부터의 상기 일련의 영상들에서의 픽셀들의 가시성을 결정하는 단계; 및
    상기 가시성 정보를 사용하여 상기 기준 시점으로부터의 영상에서 보이는 상기 일련의 영상들로부터의 픽셀들을 식별하는 것; 및
    상기 픽셀들을 상기 기준 시점 내로 시프트시키기 위해 상기 기준 시점으로부터의 영상에서 보이는 상기 일련의 영상들로부터의 픽셀들에 장면 의존적인 기하학적 시프트들― 상기 장면 의존적인 기하학적 시프트는 상기 현재의 깊이 추정치들을 사용하여 결정됨 ―을 적용하는 것; 및
    상기 일련의 영상들 중의 영상들의 해상도들보다 더 큰 해상도를 가지는 상기 기준 시점으로부터의 융합된 영상을 생성하기 위해 상기 일련의 영상들로부터의 상기 시프트된 픽셀들을 융합시키는 것에 의해
    상기 일련의 영상들 중의 영상들의 해상도들보다 더 큰 해상도를 가지는 융합된 영상(fused image)을 생성하기 위해 상기 깊이 추정치들에 기초하여 상기 영상 처리 애플리케이션에 의해 구성된 프로세서를 사용하여 상기 일련의 영상들로부터의 픽셀들을 융합시키는 단계를 포함하는, 고 해상도 영상 합성 방법.
  26. 제25항에 있어서, 상기 기준 시점으로부터의 상기 융합된 영상, 상이한 시점들로부터 포착된 상기 일련의 영상들, 상기 현재의 깊이 추정치들, 및 상기 가시성 정보에 기초하여 초해상도 프로세스(super resolution process)를 수행하도록 상기 영상 처리 애플리케이션에 의해 구성된 프로세서를 사용하여 상기 기준 시점으로부터의 영상을 합성하는 단계를 더 포함하는, 고 해상도 영상 합성 방법.
  27. 영상 처리 시스템에 있어서,
    프로세서; 및
    상이한 시점들로부터 포착된 일련의 영상들 및 영상 처리 애플리케이션을 포함하는 메모리를 포함하고;
    상기 영상 처리 애플리케이션은,
    상이한 시점들로부터 포착된 상기 일련의 영상들의 시점들에 대한 기준 시점을 선택하고;
    상기 일련의 영상들 내의 대응하는 픽셀들의 유사도를 증가시키기 위해 상기 일련의 영상들을 정규화하며;
    상기 일련의 영상들의 적어도 하나의 서브셋을 사용하여 상기 기준 시점으로부터의 영상에서의 픽셀 위치들에 대한 초기 깊이 추정치들을 결정하며― 상기 기준 시점으로부터의 영상 내의 주어진 픽셀 위치에 대한 초기 깊이 추정치는,
    복수의 깊이들에서의 예상된 불일치에 기초하여 상기 기준 시점으로부터의 영상에서의 상기 주어진 픽셀 위치에 대응하는 상기 일련의 영상들의 상기 적어도 하나의 서브셋에서의 픽셀들을 식별하는 것;
    상기 복수의 깊이들 각각에서 식별된 상기 대응하는 픽셀들의 유사도를 비교하는 것; 및
    상기 식별된 대응하는 픽셀들이 가장 높은 정도의 유사도를 가지는 상기 복수의 깊이들 중의 깊이를 상기 기준 시점으로부터의 영상에서의 상기 주어진 픽셀 위치에 대한 초기 깊이 추정치로서 선택하는 것에 의해 결정됨 ―;
    상기 초기 깊이 추정치들을 사용하여 상기 일련의 영상들에서의 대응하는 픽셀들을 식별하고;
    부정합 픽셀들을 검출하기 위해 상기 일련의 영상들에서의 상기 대응하는 픽셀들의 유사도를 비교하며;
    초기 깊이 추정치로부터, 상기 일련의 영상들에서의 대응하는 픽셀들 간의 부정합이 검출되지 않을 때, 상기 초기 깊이 추정치를 상기 기준 시점으로부터의 영상에서의 상기 픽셀 위치에 대한 현재의 깊이 추정치로서 선택하고;
    초기 깊이 추정치로부터, 상기 일련의 영상들에서의 대응하는 픽셀들 간의 부정합이 검출될 때,
    상기 일련의 영상들의 복수의 상이한 서브셋들을 사용하여 일련의 후보 깊이 추정치들을 결정하는 것;
    상기 후보 깊이 추정치들에 기초하여 상기 일련의 영상들의 상기 복수의 서브셋들 각각에서의 대응하는 픽셀들을 식별하는 것; 및
    가장 유사한 대응하는 픽셀들을 가지는 서브셋의 후보 깊이를 상기 기준 시점으로부터의 영상에서의 상기 픽셀 위치에 대한 상기 현재의 깊이 추정치로서 선택하는 것에 의해
    상기 기준 시점으로부터의 영상에서의 상기 픽셀 위치에 대한 상기 현재의 깊이 추정치를 선택하도록 상기 프로세서를 구성하는 것인, 영상 처리 시스템.
  28. 제27항에 있어서, 상기 영상 처리 애플리케이션은 또한,
    상기 현재의 깊이 추정치들을 사용하여 상기 일련의 영상들에서의 대응하는 픽셀들을 식별하는 것; 및
    주어진 영상에서의 픽셀이 대응하는 픽셀들의 비교에 기초하여 결정된 측광 유사도 기준을 충족시키지 못할 때, 상기 픽셀이 상기 기준 시점에 보이지 않는 것으로 결정하는 것에 의해
    상기 기준 시점으로부터의 상기 일련의 영상들에서의 픽셀들의 가시성을 결정하고;
    상기 가시성 정보를 사용하여 상기 기준 시점으로부터의 영상에서 보이는 상기 일련의 영상들로부터의 픽셀들을 식별하는 것; 및
    상기 픽셀들을 상기 기준 시점 내로 시프트시키기 위해 상기 기준 시점으로부터의 영상에서 보이는 상기 일련의 영상들로부터의 픽셀들에 장면 의존적인 기하학적 시프트들― 상기 장면 의존적인 기하학적 시프트들은 상기 현재의 깊이 추정치들을 사용하여 결정됨 ―을 적용하는 것; 및
    상기 일련의 영상들 중의 영상들의 해상도들보다 더 큰 해상도를 가지는 상기 기준 시점으로부터의 융합된 영상을 생성하기 위해 상기 일련의 영상들로부터의 상기 시프트된 픽셀들을 융합시키는 것에 의해,
    상기 일련의 영상들 중의 영상들의 해상도들보다 더 큰 해상도를 가지는 융합된 영상을 생성하기 위해 상기 깊이 추정치들을 사용하여 상기 일련의 영상들로부터의 픽셀들을 융합시키도록 상기 프로세서를 구성하는 것인, 영상 처리 시스템.
KR1020157006433A 2012-08-21 2013-08-21 어레이 카메라를 사용하여 포착된 영상에서의 시차 검출 및 보정을 위한 시스템 및 방법 KR102111181B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201261691666P 2012-08-21 2012-08-21
US61/691,666 2012-08-21
US201361780906P 2013-03-13 2013-03-13
US61/780,906 2013-03-13
PCT/US2013/056065 WO2014031795A1 (en) 2012-08-21 2013-08-21 Systems and methods for parallax detection and correction in images captured using array cameras

Publications (2)

Publication Number Publication Date
KR20150046113A KR20150046113A (ko) 2015-04-29
KR102111181B1 true KR102111181B1 (ko) 2020-05-15

Family

ID=49776057

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157006433A KR102111181B1 (ko) 2012-08-21 2013-08-21 어레이 카메라를 사용하여 포착된 영상에서의 시차 검출 및 보정을 위한 시스템 및 방법

Country Status (8)

Country Link
US (12) US8619082B1 (ko)
EP (3) EP2888720B1 (ko)
KR (1) KR102111181B1 (ko)
CN (2) CN107346061B (ko)
AU (1) AU2013305770A1 (ko)
CA (1) CA2881131A1 (ko)
SG (1) SG11201500910RA (ko)
WO (1) WO2014031795A1 (ko)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11272161B2 (en) 2013-03-10 2022-03-08 Fotonation Limited System and methods for calibration of an array camera
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11302012B2 (en) 2019-11-30 2022-04-12 Boston Polarimetrics, Inc. Systems and methods for transparent object segmentation using polarization cues
US11412158B2 (en) 2008-05-20 2022-08-09 Fotonation Limited Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US11423513B2 (en) 2010-12-14 2022-08-23 Fotonation Limited Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers
US11525906B2 (en) 2019-10-07 2022-12-13 Intrinsic Innovation Llc Systems and methods for augmentation of sensor systems and imaging systems with polarization
US11580667B2 (en) 2020-01-29 2023-02-14 Intrinsic Innovation Llc Systems and methods for characterizing object pose detection and measurement systems
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
US11699273B2 (en) 2019-09-17 2023-07-11 Intrinsic Innovation Llc Systems and methods for surface modeling using polarization cues
US11729365B2 (en) 2011-09-28 2023-08-15 Adela Imaging LLC Systems and methods for encoding image files containing depth maps stored as metadata
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US11797863B2 (en) 2020-01-30 2023-10-24 Intrinsic Innovation Llc Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters

Families Citing this family (401)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10298834B2 (en) 2006-12-01 2019-05-21 Google Llc Video refocusing
EP3328048B1 (en) 2008-05-20 2021-04-21 FotoNation Limited Capturing and processing of images using monolithic camera array with heterogeneous imagers
EP2502115A4 (en) 2009-11-20 2013-11-06 Pelican Imaging Corp RECORDING AND PROCESSING IMAGES THROUGH A MONOLITHIC CAMERA ARRAY WITH HETEROGENIC IMAGE CONVERTER
SG10201503516VA (en) 2010-05-12 2015-06-29 Pelican Imaging Corp Architectures for imager arrays and array cameras
JP5627498B2 (ja) * 2010-07-08 2014-11-19 株式会社東芝 立体画像生成装置及び方法
US8428342B2 (en) * 2010-08-12 2013-04-23 At&T Intellectual Property I, L.P. Apparatus and method for providing three dimensional media content
JP5682291B2 (ja) * 2010-12-20 2015-03-11 ソニー株式会社 補正値演算装置、複眼撮像装置、および、補正値演算装置の制御方法
JP2012221103A (ja) * 2011-04-06 2012-11-12 Denso Corp 車両用画像処理装置
EP2509324A1 (en) * 2011-04-08 2012-10-10 Thomson Licensing Method and apparatus for analyzing stereoscopic or multi-view images
KR101973822B1 (ko) 2011-05-11 2019-04-29 포토네이션 케이맨 리미티드 어레이 카메라 이미지 데이터를 송신 및 수신하기 위한 시스템들 및 방법들
EP2530642A1 (en) * 2011-05-31 2012-12-05 Thomson Licensing Method of cropping a 3D content
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
JP2014521117A (ja) 2011-06-28 2014-08-25 ペリカン イメージング コーポレイション アレイカメラで使用するための光学配列
US9418438B2 (en) * 2011-09-12 2016-08-16 Intel Corporation Networked capture and 3D display of localized, segmented images
WO2013043751A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super resolution processing using pixel apertures
US9113043B1 (en) * 2011-10-24 2015-08-18 Disney Enterprises, Inc. Multi-perspective stereoscopy from light fields
US9762881B2 (en) * 2011-11-03 2017-09-12 Texas Instruments Incorporated Reducing disparity and depth ambiguity in three-dimensional (3D) images
US8879731B2 (en) 2011-12-02 2014-11-04 Adobe Systems Incorporated Binding of protected video content to video player with block cipher hash
US8903088B2 (en) 2011-12-02 2014-12-02 Adobe Systems Incorporated Binding of protected video content to video player with encryption key
CN103988227B (zh) * 2011-12-16 2017-08-04 诺基亚技术有限公司 用于图像捕获目标锁定的方法和装置
WO2013126578A1 (en) 2012-02-21 2013-08-29 Pelican Imaging Corporation Systems and methods for the manipulation of captured light field image data
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
WO2013190814A1 (ja) * 2012-06-22 2013-12-27 株式会社ニコン 画像処理装置、撮像装置および画像処理プログラム
US9858649B2 (en) 2015-09-30 2018-01-02 Lytro, Inc. Depth-based image blurring
WO2014005123A1 (en) 2012-06-28 2014-01-03 Pelican Imaging Corporation Systems and methods for detecting defective camera arrays, optic arrays, and sensors
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
US10109063B2 (en) * 2012-07-04 2018-10-23 Apple Inc. Image processing in a multi-channel camera
JP5970609B2 (ja) * 2012-07-05 2016-08-17 聯發科技股▲ふん▼有限公司Mediatek Inc. 3dビデオ符号化における統一された視差ベクトル導出の方法と装置
US9661296B2 (en) * 2012-07-12 2017-05-23 Samsung Electronics Co., Ltd. Image processing apparatus and method
US9654759B2 (en) * 2012-07-20 2017-05-16 Koninklijke Philips N.V. Metadata for depth filtering
WO2014031795A1 (en) 2012-08-21 2014-02-27 Pelican Imaging Corporation Systems and methods for parallax detection and correction in images captured using array cameras
US20140055632A1 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
US9214013B2 (en) 2012-09-14 2015-12-15 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
EP2901671A4 (en) 2012-09-28 2016-08-24 Pelican Imaging Corp CREATING IMAGES FROM LIGHT FIELDS USING VIRTUAL POINTS OF VIEW
WO2014049667A1 (ja) * 2012-09-28 2014-04-03 株式会社島津製作所 デジタル画像処理方法および撮影装置
US9064318B2 (en) 2012-10-25 2015-06-23 Adobe Systems Incorporated Image matting and alpha value techniques
JP2014096062A (ja) * 2012-11-09 2014-05-22 Yamaguchi Univ 画像処理方法及び画像処理装置
US9355649B2 (en) 2012-11-13 2016-05-31 Adobe Systems Incorporated Sound alignment using timing information
WO2014078443A1 (en) 2012-11-13 2014-05-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
US10638221B2 (en) 2012-11-13 2020-04-28 Adobe Inc. Time interval sound alignment
US9201580B2 (en) 2012-11-13 2015-12-01 Adobe Systems Incorporated Sound alignment user interface
US9076205B2 (en) 2012-11-19 2015-07-07 Adobe Systems Incorporated Edge direction and curve based image de-blurring
US10249321B2 (en) 2012-11-20 2019-04-02 Adobe Inc. Sound rate modification
EP2736011B1 (en) * 2012-11-26 2019-04-24 Nokia Technologies Oy Method, apparatus and computer program product for generating super-resolved images
US9451304B2 (en) 2012-11-29 2016-09-20 Adobe Systems Incorporated Sound feature priority alignment
US10455219B2 (en) 2012-11-30 2019-10-22 Adobe Inc. Stereo correspondence and depth sensors
US9135710B2 (en) * 2012-11-30 2015-09-15 Adobe Systems Incorporated Depth map stereo correspondence techniques
US9208547B2 (en) 2012-12-19 2015-12-08 Adobe Systems Incorporated Stereo correspondence smoothness tool
US10249052B2 (en) 2012-12-19 2019-04-02 Adobe Systems Incorporated Stereo correspondence model fitting
US9214026B2 (en) 2012-12-20 2015-12-15 Adobe Systems Incorporated Belief propagation and affinity measures
US9568713B2 (en) 2013-01-05 2017-02-14 Light Labs Inc. Methods and apparatus for using multiple optical chains in parallel to support separate color-capture
US9462164B2 (en) 2013-02-21 2016-10-04 Pelican Imaging Corporation Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information
US9374512B2 (en) 2013-02-24 2016-06-21 Pelican Imaging Corporation Thin form factor computational array cameras and modular array cameras
WO2014138697A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for high dynamic range imaging using array cameras
US9521416B1 (en) 2013-03-11 2016-12-13 Kip Peli P1 Lp Systems and methods for image data compression
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
WO2014164550A2 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation System and methods for calibration of an array camera
US9519972B2 (en) 2013-03-13 2016-12-13 Kip Peli P1 Lp Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
US9100586B2 (en) 2013-03-14 2015-08-04 Pelican Imaging Corporation Systems and methods for photometric normalization in array cameras
WO2014159779A1 (en) 2013-03-14 2014-10-02 Pelican Imaging Corporation Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9497370B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Array camera architecture implementing quantum dot color filters
EP2973476A4 (en) 2013-03-15 2017-01-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US9633442B2 (en) 2013-03-15 2017-04-25 Fotonation Cayman Limited Array cameras including an array camera module augmented with a separate camera
US10334151B2 (en) 2013-04-22 2019-06-25 Google Llc Phase detection autofocus using subaperture images
US9412172B2 (en) * 2013-05-06 2016-08-09 Disney Enterprises, Inc. Sparse light field representation
US9762875B2 (en) * 2013-06-14 2017-09-12 Sony Corporation Methods and devices for parallax elimination
KR102103984B1 (ko) * 2013-07-15 2020-04-23 삼성전자주식회사 깊이 영상 처리 방법 및 장치
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
US9374514B2 (en) 2013-10-18 2016-06-21 The Lightco Inc. Methods and apparatus relating to a camera including multiple optical chains
US9325906B2 (en) 2013-10-18 2016-04-26 The Lightco Inc. Methods and apparatus relating to a thin camera device
US9551854B2 (en) 2013-10-18 2017-01-24 Light Labs Inc. Methods and apparatus for controlling sensors to capture images in a synchronized manner
US9467627B2 (en) * 2013-10-26 2016-10-11 The Lightco Inc. Methods and apparatus for use with multiple optical chains
US9736365B2 (en) 2013-10-26 2017-08-15 Light Labs Inc. Zoom related methods and apparatus
CN104567758B (zh) * 2013-10-29 2017-11-17 同方威视技术股份有限公司 立体成像系统及其方法
US9686471B2 (en) 2013-11-01 2017-06-20 Light Labs Inc. Methods and apparatus relating to image stabilization
US9185276B2 (en) 2013-11-07 2015-11-10 Pelican Imaging Corporation Methods of manufacturing array camera modules incorporating independently aligned lens stacks
KR102172954B1 (ko) * 2013-11-08 2020-11-02 삼성전자주식회사 보행 보조 로봇 및 보행 보조 로봇의 제어 방법
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
WO2015081279A1 (en) 2013-11-26 2015-06-04 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
US9390505B2 (en) * 2013-12-12 2016-07-12 Qualcomm Incorporated Method and apparatus for generating plenoptic depth maps
EP2887312A1 (en) * 2013-12-18 2015-06-24 Nokia Corporation Method, apparatus and computer program product for depth estimation of stereo images
CN104735360B (zh) * 2013-12-18 2017-12-22 华为技术有限公司 光场图像处理方法和装置
US9554031B2 (en) 2013-12-31 2017-01-24 Light Labs Inc. Camera focusing related methods and apparatus
US10931866B2 (en) 2014-01-05 2021-02-23 Light Labs Inc. Methods and apparatus for receiving and storing in a camera a user controllable setting that is used to control composite image generation performed after image capture
US10311633B2 (en) * 2014-01-17 2019-06-04 Nokia Technologies Oy Method and apparatus for visualization of geo-located media contents in 3D rendering applications
JP6313063B2 (ja) * 2014-02-17 2018-04-18 日立オートモティブシステムズ株式会社 車載用認識装置
WO2015127206A1 (en) * 2014-02-20 2015-08-27 Konica Minolta Laboratory U.S.A. Inc. Image processing to retain small color/gray differences
US9462170B2 (en) 2014-02-21 2016-10-04 The Lightco Inc. Lighting methods and apparatus
US9979878B2 (en) 2014-02-21 2018-05-22 Light Labs Inc. Intuitive camera user interface methods and apparatus
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
JP5999127B2 (ja) * 2014-03-12 2016-09-28 トヨタ自動車株式会社 画像処理装置
US9247117B2 (en) 2014-04-07 2016-01-26 Pelican Imaging Corporation Systems and methods for correcting for warpage of a sensor array in an array camera module by introducing warpage into a focal plane of a lens stack array
US9729857B2 (en) * 2014-04-08 2017-08-08 Semyon Nisenzon High resolution depth map computation using multiresolution camera clusters for 3D image generation
US9712820B2 (en) * 2014-04-24 2017-07-18 Lytro, Inc. Predictive light field compression
US20150309663A1 (en) * 2014-04-28 2015-10-29 Qualcomm Incorporated Flexible air and surface multi-touch detection in mobile platform
AT515520B1 (de) * 2014-05-08 2015-10-15 Ait Austrian Inst Technology Verfahren zur Bestimmung des Abstands eines abgebildeten Gegenstands
WO2015183824A1 (en) * 2014-05-26 2015-12-03 Pelican Imaging Corporation Autofocus system for a conventional camera that uses depth information from an array camera
US9785828B2 (en) * 2014-06-06 2017-10-10 Honda Motor Co., Ltd. System and method for partially occluded object detection
US8988317B1 (en) * 2014-06-12 2015-03-24 Lytro, Inc. Depth determination for light field images
US20150363916A1 (en) * 2014-06-12 2015-12-17 Samsung Electronics Co., Ltd. Low power demosaic with intergrated chromatic aliasing repair
US9521319B2 (en) 2014-06-18 2016-12-13 Pelican Imaging Corporation Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor
US9888229B2 (en) 2014-06-23 2018-02-06 Ricoh Company, Ltd. Disparity estimation for multiview imaging systems
EP3164831A4 (en) 2014-07-04 2018-02-14 Light Labs Inc. Methods and apparatus relating to detection and/or indicating a dirty lens condition
US9872012B2 (en) * 2014-07-04 2018-01-16 Samsung Electronics Co., Ltd. Method and apparatus for image capturing and simultaneous depth extraction
WO2016007799A1 (en) 2014-07-09 2016-01-14 The Lightco Inc. Camera device including multiple optical chains and related methods
US9225889B1 (en) 2014-08-18 2015-12-29 Entropix, Inc. Photographic image acquisition device and method
US20160073094A1 (en) * 2014-09-05 2016-03-10 Microsoft Corporation Depth map enhancement
JP2017531976A (ja) 2014-09-29 2017-10-26 フォトネイション ケイマン リミテッド アレイカメラを動的に較正するためのシステム及び方法
WO2016061565A1 (en) 2014-10-17 2016-04-21 The Lightco Inc. Methods and apparatus for using a camera device to support multiple modes of operation
DE102014115292A1 (de) * 2014-10-21 2016-04-21 Connaught Electronics Ltd. Verfahren zum Bereitstellen von Bilddateien von einem Kamerasystem, Kamerasystem und Kraftfahrzeug
US10929812B2 (en) * 2014-11-26 2021-02-23 Adobe Inc. Content creation, deployment collaboration, and subsequent marketing activities
EP3235243A4 (en) 2014-12-17 2018-06-20 Light Labs Inc. Methods and apparatus for implementing and using camera devices
US9544503B2 (en) * 2014-12-30 2017-01-10 Light Labs Inc. Exposure control methods and apparatus
WO2016106694A1 (en) * 2014-12-31 2016-07-07 SZ DJI Technology Co., Ltd. System and method for adjusting a baseline of an imaging system with microlens array
US20180007345A1 (en) * 2015-01-16 2018-01-04 Imra Europe S.A.S. Self-rectification of stereo camera
US9412034B1 (en) * 2015-01-29 2016-08-09 Qualcomm Incorporated Occlusion handling for computer vision
US10511787B2 (en) * 2015-02-12 2019-12-17 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Light-field camera
EP3257242A4 (en) * 2015-02-12 2018-09-26 NEXTVR Inc. Methods and apparatus for making environmental measurements and/or using such measurements
US9978135B2 (en) * 2015-02-27 2018-05-22 Cognex Corporation Detecting object presence on a target surface
JP6494328B2 (ja) 2015-03-02 2019-04-03 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP6516510B2 (ja) * 2015-03-02 2019-05-22 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP6275174B2 (ja) * 2015-03-10 2018-02-07 キヤノン株式会社 画像処理方法、画像処理装置、および、撮像装置
US10412373B2 (en) * 2015-04-15 2019-09-10 Google Llc Image capture for virtual reality displays
US10440407B2 (en) 2017-05-09 2019-10-08 Google Llc Adaptive control for immersive experience delivery
US10540818B2 (en) 2015-04-15 2020-01-21 Google Llc Stereo image generation and interactive playback
US9824427B2 (en) 2015-04-15 2017-11-21 Light Labs Inc. Methods and apparatus for generating a sharp image
US10341632B2 (en) 2015-04-15 2019-07-02 Google Llc. Spatial random access enabled video system with a three-dimensional viewing volume
US10275898B1 (en) 2015-04-15 2019-04-30 Google Llc Wedge-based light-field video capture
US10419737B2 (en) 2015-04-15 2019-09-17 Google Llc Data structures and delivery methods for expediting virtual reality playback
US10565734B2 (en) 2015-04-15 2020-02-18 Google Llc Video capture, processing, calibration, computational fiber artifact removal, and light-field pipeline
US10444931B2 (en) 2017-05-09 2019-10-15 Google Llc Vantage generation and interactive playback
US10469873B2 (en) 2015-04-15 2019-11-05 Google Llc Encoding and decoding virtual reality video
US10567464B2 (en) 2015-04-15 2020-02-18 Google Llc Video compression with adaptive view-dependent lighting removal
US11328446B2 (en) 2015-04-15 2022-05-10 Google Llc Combining light-field data with active depth data for depth map generation
US10546424B2 (en) 2015-04-15 2020-01-28 Google Llc Layered content delivery for virtual and augmented reality experiences
US9857584B2 (en) 2015-04-17 2018-01-02 Light Labs Inc. Camera device methods, apparatus and components
US9942474B2 (en) * 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
US10091447B2 (en) 2015-04-17 2018-10-02 Light Labs Inc. Methods and apparatus for synchronizing readout of multiple image sensors
US10075651B2 (en) 2015-04-17 2018-09-11 Light Labs Inc. Methods and apparatus for capturing images using multiple camera modules in an efficient manner
US9967535B2 (en) 2015-04-17 2018-05-08 Light Labs Inc. Methods and apparatus for reducing noise in images
US10805589B2 (en) 2015-04-19 2020-10-13 Fotonation Limited Multi-baseline camera array system architectures for depth augmentation in VR/AR applications
US9930233B2 (en) 2015-04-22 2018-03-27 Light Labs Inc. Filter mounting methods and apparatus and related camera apparatus
EP3216006B1 (en) * 2015-04-28 2020-06-10 Huawei Technologies Co., Ltd. An image processing apparatus and method
EP3094076A1 (en) 2015-05-13 2016-11-16 Thomson Licensing Method for obtaining a refocused image from a 4D raw light field data using a shift correction parameter
CN104935909B (zh) * 2015-05-14 2017-02-22 清华大学深圳研究生院 一种基于深度信息的多幅图超分辨方法
US10326981B2 (en) * 2015-05-15 2019-06-18 Semyon Nisenzon Generating 3D images using multi-resolution camera set
CN104851100B (zh) * 2015-05-22 2018-01-16 清华大学深圳研究生院 可变光源下的双目视图立体匹配方法
WO2016189764A1 (ja) * 2015-05-26 2016-12-01 三菱電機株式会社 検出装置および検出方法
JP6582557B2 (ja) * 2015-05-28 2019-10-02 株式会社ソシオネクスト 描画装置、描画方法および描画プログラム
EP3104595A1 (en) * 2015-06-08 2016-12-14 Thomson Licensing Light field imaging device
EP3107007B1 (en) * 2015-06-17 2020-05-20 InterDigital CE Patent Holdings Method and apparatus for data retrieval in a lightfield database
US10129483B2 (en) 2015-06-23 2018-11-13 Light Labs Inc. Methods and apparatus for implementing zoom using one or more moveable camera modules
US9609242B2 (en) * 2015-06-25 2017-03-28 Intel Corporation Auto-correction of depth-sensing camera data for planar target surfaces
TW201702937A (zh) * 2015-07-02 2017-01-16 Alibaba Group Services Ltd 圖像預處理方法及裝置
EP3304488B1 (en) * 2015-07-03 2019-05-01 Huawei Technologies Co., Ltd. An image processing apparatus and method
US20180213201A1 (en) * 2015-07-21 2018-07-26 Heptagon Micro Optics Pte. Ltd. Generating a disparity map based on stereo images of a scene
US9979909B2 (en) 2015-07-24 2018-05-22 Lytro, Inc. Automatic lens flare detection and correction for light-field images
US10491806B2 (en) 2015-08-03 2019-11-26 Light Labs Inc. Camera device control related methods and apparatus
US10699476B2 (en) * 2015-08-06 2020-06-30 Ams Sensors Singapore Pte. Ltd. Generating a merged, fused three-dimensional point cloud based on captured images of a scene
WO2017035498A1 (en) * 2015-08-26 2017-03-02 Olympus Corporation System and method for depth estimation using multiple illumination sources
CN105184780B (zh) * 2015-08-26 2018-06-05 京东方科技集团股份有限公司 一种立体视觉深度的预测方法和系统
US10365480B2 (en) 2015-08-27 2019-07-30 Light Labs Inc. Methods and apparatus for implementing and/or using camera devices with one or more light redirection devices
EP3136291A1 (de) * 2015-08-31 2017-03-01 Continental Automotive GmbH Verfahren und vorrichtung zur erkennung von objekten bei dunkelheit mittels einer fahrzeugkamera und einer fahrzeugbeleuchtung
CN110598685B (zh) * 2015-09-14 2023-06-30 原相科技股份有限公司 分辨前景的成像装置
US11024047B2 (en) * 2015-09-18 2021-06-01 The Regents Of The University Of California Cameras and depth estimation of images acquired in a distorting medium
US9928605B2 (en) * 2015-09-25 2018-03-27 Intel Corporation Real-time cascaded object recognition
US9940701B2 (en) * 2015-09-25 2018-04-10 Intel Corporation Device and method for depth image dequantization
US20170096144A1 (en) 2015-10-05 2017-04-06 Ford Global Technologies, Llc System and Method for Inspecting Road Surfaces
US10051182B2 (en) 2015-10-05 2018-08-14 Light Labs Inc. Methods and apparatus for compensating for motion and/or changing light conditions during image capture
US10176554B2 (en) * 2015-10-05 2019-01-08 Google Llc Camera calibration using synthetic images
US9749549B2 (en) 2015-10-06 2017-08-29 Light Labs Inc. Methods and apparatus for facilitating selective blurring of one or more image portions
US10521886B2 (en) * 2015-10-14 2019-12-31 Shanghai United Imaging Healthcare Co., Ltd. System and method for image correction
TWI579776B (zh) * 2015-10-27 2017-04-21 財團法人國家實驗研究院 利用影像擷取裝置給定一全域場景影像之方法
US10554956B2 (en) 2015-10-29 2020-02-04 Dell Products, Lp Depth masks for image segmentation for depth-based computational photography
US10659766B2 (en) * 2015-10-30 2020-05-19 Canon Kabushiki Kaisha Confidence generation apparatus, confidence generation method, and imaging apparatus
US9699380B2 (en) * 2015-11-03 2017-07-04 Intel Corporation Fusion of panoramic background images using color and depth data
FR3043234B1 (fr) * 2015-11-03 2017-11-03 B<>Com Procede de suivi d'une cible clinique dans des images medicales
KR102446442B1 (ko) * 2015-11-24 2022-09-23 삼성전자주식회사 디지털 촬영 장치 및 그 동작 방법
US10021371B2 (en) 2015-11-24 2018-07-10 Dell Products, Lp Method and apparatus for gross-level user and input detection using similar or dissimilar camera pair
US10445890B2 (en) * 2015-11-30 2019-10-15 Huawei Technologies Co., Ltd. Dual camera system and image processing method for eliminating an alignment vector of an occlusion area in an image alignment vector field
JP2017099616A (ja) * 2015-12-01 2017-06-08 ソニー株式会社 手術用制御装置、手術用制御方法、およびプログラム、並びに手術システム
US9762893B2 (en) * 2015-12-07 2017-09-12 Google Inc. Systems and methods for multiscopic noise reduction and high-dynamic range
US10477181B2 (en) 2015-12-16 2019-11-12 Intel Corporation Multiview video stabilization
JP6611588B2 (ja) * 2015-12-17 2019-11-27 キヤノン株式会社 データ記録装置、撮像装置、データ記録方法およびプログラム
US10225445B2 (en) 2015-12-18 2019-03-05 Light Labs Inc. Methods and apparatus for providing a camera lens or viewing point indicator
US10003738B2 (en) 2015-12-18 2018-06-19 Light Labs Inc. Methods and apparatus for detecting and/or indicating a blocked sensor or camera module
US20170180652A1 (en) * 2015-12-21 2017-06-22 Jim S. Baca Enhanced imaging
US10462446B2 (en) * 2015-12-21 2019-10-29 Koninklijke Philips N.V. Processing a depth map for an image
KR102466996B1 (ko) 2016-01-06 2022-11-14 삼성전자주식회사 눈 위치 예측 방법 및 장치
KR101721632B1 (ko) * 2016-01-21 2017-03-30 인천대학교 산학협력단 변형된 커널 회귀 방법을 이용한 영상 보간 장치, 방법 및 그 방법이 기록된 컴퓨터로 읽을 수 있는 기록 매체
CN105627926B (zh) * 2016-01-22 2017-02-08 尹兴 四像机组平面阵列特征点三维测量系统及测量方法
EP3200151A1 (en) * 2016-01-29 2017-08-02 Thomson Licensing Method and device for obtaining a depth map
US10175867B2 (en) * 2016-02-03 2019-01-08 Adobe Inc. User input-based object selection using multiple visual cues
JP6643122B2 (ja) * 2016-02-03 2020-02-12 キヤノン株式会社 距離画像装置、撮像装置、および距離画像補正方法
EP3206164B1 (en) 2016-02-12 2022-05-25 Cognex Corporation System and method for efficiently scoring probes in an image with a vision system
US10194139B2 (en) * 2016-02-22 2019-01-29 Ricoh Company, Ltd. Disparity-to-depth calibration for plenoptic imaging systems
US10003783B2 (en) * 2016-02-26 2018-06-19 Infineon Technologies Ag Apparatus for generating a three-dimensional color image and a method for producing a three-dimensional color image
CA3014766A1 (en) 2016-03-01 2017-09-08 Magic Leap, Inc. Depth sensing systems and methods
US10136116B2 (en) * 2016-03-07 2018-11-20 Ricoh Company, Ltd. Object segmentation from light field data
US10694081B2 (en) 2016-03-10 2020-06-23 Sony Corporation Information processing apparatus and information processing method
CN105791803B (zh) * 2016-03-16 2018-05-18 深圳创维-Rgb电子有限公司 一种将二维图像转化为多视点图像的显示方法及系统
WO2017162596A1 (en) * 2016-03-21 2017-09-28 Thomson Licensing Method for correcting aberration affecting light-field data
US10306218B2 (en) 2016-03-22 2019-05-28 Light Labs Inc. Camera calibration apparatus and methods
US9934557B2 (en) * 2016-03-22 2018-04-03 Samsung Electronics Co., Ltd Method and apparatus of image representation and processing for dynamic vision sensor
US10764561B1 (en) 2016-04-04 2020-09-01 Compound Eye Inc Passive stereo depth sensing
CA3214444A1 (en) 2016-04-12 2017-10-19 Quidient, Llc Quotidian scene reconstruction engine
US10362205B2 (en) * 2016-04-28 2019-07-23 Qualcomm Incorporated Performing intensity equalization with respect to mono and color images
US20170332000A1 (en) * 2016-05-10 2017-11-16 Lytro, Inc. High dynamic range light-field imaging
DE102016208210A1 (de) 2016-05-12 2017-11-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. 3d-multiaperturabbildungsvorrichtungen, multiaperturabbildungsvorrichtung, verfahren zum bereitstellen eines ausgangssignals einer 3d-multiaperturabbildungsvorrichtung und verfahren zum erfassen eines gesamtgesichtsfeldes
JP6525921B2 (ja) * 2016-05-13 2019-06-05 キヤノン株式会社 画像処理装置、画像処理方法、検索装置
US10325370B1 (en) * 2016-05-31 2019-06-18 University Of New Brunswick Method and system of coregistration of remote sensing images
US10097777B2 (en) 2016-06-03 2018-10-09 Recognition Robotics, Inc. Depth map from multi-focal plane images
CN110168606B (zh) * 2016-06-08 2023-09-26 谷歌有限责任公司 生成实体物品的合成图像的方法和系统
US10275892B2 (en) 2016-06-09 2019-04-30 Google Llc Multi-view scene segmentation and propagation
US10298864B2 (en) * 2016-06-10 2019-05-21 Apple Inc. Mismatched foreign light detection and mitigation in the image fusion of a two-camera system
US10469821B2 (en) * 2016-06-17 2019-11-05 Altek Semiconductor Corp. Stereo image generating method and electronic apparatus utilizing the method
US9948832B2 (en) 2016-06-22 2018-04-17 Light Labs Inc. Methods and apparatus for synchronized image capture in a device including optical chains with different orientations
KR101915843B1 (ko) * 2016-06-29 2018-11-08 한국과학기술원 복굴절 매질을 이용한 영상 깊이 추정 방법 및 장치
US10127812B2 (en) 2016-08-29 2018-11-13 Allstate Insurance Company Electrical data processing system for monitoring or affecting movement of a vehicle using a traffic device
US10538326B1 (en) * 2016-08-31 2020-01-21 Amazon Technologies, Inc. Flare detection and avoidance in stereo vision systems
GB2553782B (en) * 2016-09-12 2021-10-20 Niantic Inc Predicting depth from image data using a statistical model
US10074160B2 (en) * 2016-09-30 2018-09-11 Disney Enterprises, Inc. Point cloud noise and outlier removal for image-based 3D reconstruction
JP6855587B2 (ja) * 2016-10-18 2021-04-07 フォトニック センサーズ アンド アルゴリズムス,エセ.エレ. 視点から距離情報を取得するための装置及び方法
US10026014B2 (en) * 2016-10-26 2018-07-17 Nxp Usa, Inc. Method and apparatus for data set classification based on generator features
AU2016427777B2 (en) * 2016-10-31 2022-12-15 Victoria Link Limited A rendering process and system
US10271033B2 (en) * 2016-10-31 2019-04-23 Verizon Patent And Licensing Inc. Methods and systems for generating depth data by converging independently-captured depth maps
CN106504292B (zh) * 2016-11-03 2019-02-05 浙江大学 基于成像本质属性的立体颜色校正方法
CN109923854B (zh) * 2016-11-08 2022-01-04 索尼公司 图像处理装置、图像处理方法以及记录介质
CN108076338B (zh) * 2016-11-14 2022-04-08 北京三星通信技术研究有限公司 图像视觉处理方法、装置及设备
US10679361B2 (en) 2016-12-05 2020-06-09 Google Llc Multi-view rotoscope contour propagation
JP6651679B2 (ja) 2016-12-06 2020-02-19 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 光強度画像を生成するための装置及び方法
US10451714B2 (en) 2016-12-06 2019-10-22 Sony Corporation Optical micromesh for computerized devices
US10536684B2 (en) * 2016-12-07 2020-01-14 Sony Corporation Color noise reduction in 3D depth map
KR102534875B1 (ko) 2016-12-08 2023-05-22 한국전자통신연구원 카메라 어레이와 다중 초점 영상을 이용하여 임의 시점의 영상을 생성하는 방법 및 장치
US10275855B2 (en) 2017-01-11 2019-04-30 Microsoft Technology Licensing, Llc Image demosaicing for hybrid optical sensor arrays
US10339631B2 (en) 2017-01-11 2019-07-02 Microsoft Technology Licensing, Llc Image demosaicing for hybrid optical sensor arrays
EP3358844A1 (en) * 2017-02-07 2018-08-08 Koninklijke Philips N.V. Method and apparatus for processing an image property map
US10495735B2 (en) 2017-02-14 2019-12-03 Sony Corporation Using micro mirrors to improve the field of view of a 3D depth map
US10795022B2 (en) 2017-03-02 2020-10-06 Sony Corporation 3D depth map
US20180260929A1 (en) * 2017-03-08 2018-09-13 Intel Corporation Digital camera methods and devices optimized for computer vision applications
JP6929094B2 (ja) * 2017-03-27 2021-09-01 キヤノン株式会社 電子機器、撮像装置、及び制御方法、並びにプログラム
US10593718B2 (en) * 2017-03-28 2020-03-17 Mitutoyo Corporation Surface profiling and imaging system including optical channels providing distance-dependent image offsets
TWI641264B (zh) * 2017-03-30 2018-11-11 晶睿通訊股份有限公司 影像處理系統及鏡頭狀態判斷方法
JP6800797B2 (ja) * 2017-03-31 2020-12-16 キヤノン株式会社 撮像装置、画像処理装置、撮像装置の制御方法およびプログラム
TWI672938B (zh) * 2017-03-31 2019-09-21 鈺立微電子股份有限公司 可校正遮蔽區的深度圖產生裝置
US10979687B2 (en) 2017-04-03 2021-04-13 Sony Corporation Using super imposition to render a 3D depth map
US10594945B2 (en) 2017-04-03 2020-03-17 Google Llc Generating dolly zoom effect using light field image data
US10474227B2 (en) 2017-05-09 2019-11-12 Google Llc Generation of virtual reality with 6 degrees of freedom from limited viewer data
US10142543B1 (en) * 2017-05-12 2018-11-27 Mediatek Inc. Power reduction in a multi-sensor camera device by on-demand sensors activation
US10354399B2 (en) 2017-05-25 2019-07-16 Google Llc Multi-view back-projection to a light-field
US11227405B2 (en) 2017-06-21 2022-01-18 Apera Ai Inc. Determining positions and orientations of objects
WO2019022728A1 (en) * 2017-07-26 2019-01-31 Hewlett-Packard Development Company, L.P. EVALUATION OF DYNAMIC BEACHES OF IMAGING DEVICES
CN107545586B (zh) * 2017-08-04 2020-02-28 中国科学院自动化研究所 基于光场极线平面图像局部的深度获取方法及系统
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
US10477064B2 (en) * 2017-08-21 2019-11-12 Gopro, Inc. Image stitching with electronic rolling shutter correction
RU2659745C1 (ru) * 2017-08-28 2018-07-03 Общество с ограниченной ответственностью "Аби Продакшн" Реконструкция документа из серии изображений документа
CN111052633B (zh) 2017-09-11 2023-06-06 昕诺飞控股有限公司 利用滚动快门照相机来检测编码光
US10545215B2 (en) * 2017-09-13 2020-01-28 Google Llc 4D camera tracking and optical stabilization
US10776995B2 (en) * 2017-10-17 2020-09-15 Nvidia Corporation Light fields as better backgrounds in rendering
US10484667B2 (en) 2017-10-31 2019-11-19 Sony Corporation Generating 3D depth map using parallax
WO2019089049A1 (en) 2017-11-06 2019-05-09 Google Llc Systems and methods for improved feature extraction using polarization information
KR102459853B1 (ko) 2017-11-23 2022-10-27 삼성전자주식회사 디스패리티 추정 장치 및 방법
US10643383B2 (en) 2017-11-27 2020-05-05 Fotonation Limited Systems and methods for 3D facial modeling
CN108053368B (zh) * 2017-12-18 2020-11-03 清华大学 跨尺度分辨率的光场图像超分辨率及深度估计方法及装置
CN108090872B (zh) * 2017-12-18 2021-07-16 武汉大学 基于梯度提取的单帧多光谱影像超分辨率重建方法及系统
US10965862B2 (en) 2018-01-18 2021-03-30 Google Llc Multi-camera navigation interface
CN109840922B (zh) * 2018-01-31 2021-03-02 中国科学院计算技术研究所 基于双目光场相机的深度获取方法和系统
EP3522106A1 (en) * 2018-01-31 2019-08-07 InterDigital CE Patent Holdings A filter array enabling easy demosaicing
CN108459417B (zh) * 2018-02-05 2020-06-26 华侨大学 一种单目窄带多光谱立体视觉系统及其使用方法
US11024046B2 (en) 2018-02-07 2021-06-01 Fotonation Limited Systems and methods for depth estimation using generative models
CN108364309B (zh) * 2018-02-09 2020-09-01 清华大学深圳研究生院 一种基于手持式光场相机的空间光场恢复方法
WO2019153327A1 (zh) * 2018-02-12 2019-08-15 深圳市汇顶科技股份有限公司 图像获取方法和装置
US10306152B1 (en) * 2018-02-14 2019-05-28 Himax Technologies Limited Auto-exposure controller, auto-exposure control method and system based on structured light
JP2019149621A (ja) * 2018-02-26 2019-09-05 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US10510178B2 (en) * 2018-02-27 2019-12-17 Verizon Patent And Licensing Inc. Methods and systems for volumetric reconstruction based on a confidence field
JP2019149767A (ja) * 2018-02-28 2019-09-05 パナソニック液晶ディスプレイ株式会社 表示装置用校正システム、表示装置、撮影装置、サーバ装置、及び、表示装置の校正方法
US10839541B2 (en) * 2018-03-14 2020-11-17 Google Llc Hierarchical disparity hypothesis generation with slanted support windows
CN108520495B (zh) * 2018-03-15 2021-09-07 西北工业大学 基于聚类流形先验的高光谱图像超分辨重建方法
US10972643B2 (en) 2018-03-29 2021-04-06 Microsoft Technology Licensing, Llc Camera comprising an infrared illuminator and a liquid crystal optical filter switchable between a reflection state and a transmission state for infrared imaging and spectral imaging, and method thereof
WO2019193696A1 (ja) * 2018-04-04 2019-10-10 株式会社ソニー・インタラクティブエンタテインメント 基準画像生成装置、表示画像生成装置、基準画像生成方法、および表示画像生成方法
JP7233150B2 (ja) * 2018-04-04 2023-03-06 日本放送協会 奥行推定装置およびそのプログラム
WO2019201355A1 (en) * 2018-04-17 2019-10-24 Shanghaitech University Light field system occlusion removal
US11089265B2 (en) 2018-04-17 2021-08-10 Microsoft Technology Licensing, Llc Telepresence devices operation methods
US10477220B1 (en) 2018-04-20 2019-11-12 Sony Corporation Object segmentation in a sequence of color image frames based on adaptive foreground mask upsampling
SE542050C2 (en) 2018-04-24 2020-02-18 Superannotate Ai Inc Method for merging superpixels
US11875476B2 (en) 2018-05-02 2024-01-16 Quidient, Llc Codec for processing scenes of almost unlimited detail
US10902664B2 (en) 2018-05-04 2021-01-26 Raytheon Technologies Corporation System and method for detecting damage using two-dimensional imagery and three-dimensional model
US10685433B2 (en) 2018-05-04 2020-06-16 Raytheon Technologies Corporation Nondestructive coating imperfection detection system and method therefor
US10958843B2 (en) 2018-05-04 2021-03-23 Raytheon Technologies Corporation Multi-camera system for simultaneous registration and zoomed imagery
US10943320B2 (en) 2018-05-04 2021-03-09 Raytheon Technologies Corporation System and method for robotic inspection
US10914191B2 (en) 2018-05-04 2021-02-09 Raytheon Technologies Corporation System and method for in situ airfoil inspection
US11268881B2 (en) * 2018-05-04 2022-03-08 Raytheon Technologies Corporation System and method for fan blade rotor disk and gear inspection
US11079285B2 (en) 2018-05-04 2021-08-03 Raytheon Technologies Corporation Automated analysis of thermally-sensitive coating and method therefor
US10928362B2 (en) 2018-05-04 2021-02-23 Raytheon Technologies Corporation Nondestructive inspection using dual pulse-echo ultrasonics and method therefor
US10832427B1 (en) * 2018-05-07 2020-11-10 Apple Inc. Scene camera retargeting
US10924692B2 (en) 2018-05-08 2021-02-16 Microsoft Technology Licensing, Llc Depth and multi-spectral camera
US10996335B2 (en) 2018-05-09 2021-05-04 Microsoft Technology Licensing, Llc Phase wrapping determination for time-of-flight camera
US10607352B2 (en) 2018-05-17 2020-03-31 Microsoft Technology Licensing, Llc Reduced power operation of time-of-flight camera
US10783656B2 (en) * 2018-05-18 2020-09-22 Zebra Technologies Corporation System and method of determining a location for placement of a package
US10477173B1 (en) 2018-05-23 2019-11-12 Microsoft Technology Licensing, Llc Camera with tunable filter and active illumination
WO2019232806A1 (zh) * 2018-06-08 2019-12-12 珊口(深圳)智能科技有限公司 导航方法、导航系统、移动控制系统及移动机器人
US10549186B2 (en) 2018-06-26 2020-02-04 Sony Interactive Entertainment Inc. Multipoint SLAM capture
US10650573B2 (en) 2018-06-29 2020-05-12 Proprio, Inc. Synthesizing an image from a virtual perspective using pixels from a physical imager array weighted based on depth error sensitivity
CN108924434B (zh) * 2018-06-29 2020-08-18 宁波大学 一种基于曝光变换的立体高动态范围图像合成方法
CN110660088B (zh) * 2018-06-30 2023-08-22 华为技术有限公司 一种图像处理的方法和设备
US10692184B2 (en) * 2018-07-05 2020-06-23 SVXR, Inc. Super-resolution X-ray imaging method and apparatus
JP7179515B2 (ja) * 2018-07-13 2022-11-29 キヤノン株式会社 装置、制御方法、及びプログラム
EP3598389A1 (en) * 2018-07-19 2020-01-22 Thomson Licensing Method for detecting occlusions in an image, corresponding device and computer program product
EP3598390A1 (en) * 2018-07-19 2020-01-22 Thomson Licensing Method for estimating a depth for pixels, corresponding device and computer program product
US11145046B2 (en) * 2018-07-24 2021-10-12 The Regents Of The University Of Michigan Detection of near-field occlusions in images
CN110853073A (zh) * 2018-07-25 2020-02-28 北京三星通信技术研究有限公司 确定关注点的方法、装置、设备、系统及信息处理方法
CN109191512B (zh) 2018-07-27 2020-10-30 深圳市商汤科技有限公司 双目图像的深度估计方法及装置、设备、程序及介质
US10893299B2 (en) 2018-07-31 2021-01-12 Intel Corporation Surface normal vector processing mechanism
US10762394B2 (en) 2018-07-31 2020-09-01 Intel Corporation System and method for 3D blob classification and transmission
US10887574B2 (en) 2018-07-31 2021-01-05 Intel Corporation Selective packing of patches for immersive video
US11178373B2 (en) 2018-07-31 2021-11-16 Intel Corporation Adaptive resolution of point cloud and viewpoint prediction for video streaming in computing environments
US11212506B2 (en) 2018-07-31 2021-12-28 Intel Corporation Reduced rendering of six-degree of freedom video
US10922832B2 (en) * 2018-07-31 2021-02-16 Intel Corporation Removal of projection noise and point-based rendering
CN110798674B (zh) * 2018-08-01 2022-04-08 中兴通讯股份有限公司 图像深度值获取方法、装置、设备、编解码器及存储介质
CN110798677B (zh) * 2018-08-01 2021-08-31 Oppo广东移动通信有限公司 三维场景建模方法及装置、电子装置、可读存储介质及计算机设备
US20210304359A1 (en) * 2018-08-09 2021-09-30 Google Llc Super-Resolution Using Natural Handheld-Motion Applied to a User Device
US10554914B1 (en) * 2018-08-10 2020-02-04 Apple Inc. Adjusting confidence values for correcting pixel defects
JP7005458B2 (ja) * 2018-09-12 2022-01-21 株式会社東芝 画像処理装置、及び、画像処理プログラム、並びに、運転支援システム
US11689707B2 (en) * 2018-09-20 2023-06-27 Shoppertrak Rct Llc Techniques for calibrating a stereoscopic camera in a device
CN109151334B (zh) * 2018-09-21 2020-12-22 中国计量大学 一种无人车相机系统
US11367305B2 (en) * 2018-09-28 2022-06-21 Apple Inc. Obstruction detection during facial recognition processes
US10896516B1 (en) * 2018-10-02 2021-01-19 Facebook Technologies, Llc Low-power depth sensing using dynamic illumination
US10901092B1 (en) * 2018-10-02 2021-01-26 Facebook Technologies, Llc Depth sensing using dynamic illumination with range extension
US11057631B2 (en) 2018-10-10 2021-07-06 Intel Corporation Point cloud coding standard conformance definition in computing environments
CN109543544B (zh) * 2018-10-25 2021-04-09 北京市商汤科技开发有限公司 跨光谱图像匹配方法及装置、电子设备和存储介质
US11055866B2 (en) * 2018-10-29 2021-07-06 Samsung Electronics Co., Ltd System and method for disparity estimation using cameras with different fields of view
US10931894B2 (en) 2018-10-31 2021-02-23 Microsoft Technology Licensing, Llc Tunable spectral illuminator for camera
US10979648B2 (en) * 2018-11-07 2021-04-13 Inuitive Ltd. Stereoscopic apparatus and a method for determining exposure time
FR3088510A1 (fr) * 2018-11-09 2020-05-15 Orange Synthese de vues
CN111193918B (zh) * 2018-11-14 2021-12-28 宏达国际电子股份有限公司 影像处理系统及影像处理方法
WO2020105092A1 (ja) * 2018-11-19 2020-05-28 日本電気株式会社 画像処理方法および画像処理装置
CN109685748B (zh) * 2018-12-07 2021-03-30 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备、计算机可读存储介质
US10708557B1 (en) * 2018-12-14 2020-07-07 Lyft Inc. Multispectrum, multi-polarization (MSMP) filtering for improved perception of difficult to perceive colors
CN109521434B (zh) * 2018-12-27 2020-09-08 合肥泰禾光电科技股份有限公司 一种激光测量方法及控制处理器
US11357593B2 (en) 2019-01-10 2022-06-14 Covidien Lp Endoscopic imaging with augmented parallax
US11245875B2 (en) 2019-01-15 2022-02-08 Microsoft Technology Licensing, Llc Monitoring activity with depth and multi-spectral camera
CN109648210B (zh) * 2019-02-14 2024-03-15 北京志恒达科技有限公司 激光灼刻装置及系统
EP3706070A1 (en) * 2019-03-05 2020-09-09 Koninklijke Philips N.V. Processing of depth maps for images
US11403776B2 (en) 2019-03-21 2022-08-02 Five AI Limited Depth extraction
CN111815696B (zh) * 2019-04-11 2023-08-22 曜科智能科技(上海)有限公司 基于语义实例分割的深度图优化方法、装置、设备和介质
JP7007324B2 (ja) * 2019-04-25 2022-01-24 ファナック株式会社 画像処理装置、画像処理方法、及びロボットシステム
WO2020221840A1 (en) * 2019-04-30 2020-11-05 Signify Holding B.V. Camera-based lighting control
CN110210541B (zh) * 2019-05-23 2021-09-03 浙江大华技术股份有限公司 图像融合方法及设备、存储装置
CN110211115B (zh) * 2019-06-03 2023-04-07 大连理工大学 一种基于深度引导元胞自动机的光场显著性检测实现方法
US10937232B2 (en) * 2019-06-26 2021-03-02 Honeywell International Inc. Dense mapping using range sensor multi-scanning and multi-view geometry from successive image frames
US11494953B2 (en) * 2019-07-01 2022-11-08 Microsoft Technology Licensing, Llc Adaptive user interface palette for augmented reality
US11270464B2 (en) 2019-07-18 2022-03-08 Microsoft Technology Licensing, Llc Dynamic detection and correction of light field camera array miscalibration
US11064154B2 (en) 2019-07-18 2021-07-13 Microsoft Technology Licensing, Llc Device pose detection and pose-related image capture and processing for light field based telepresence communications
DE102019210580A1 (de) * 2019-07-18 2021-01-21 Robert Bosch Gmbh Verfahren zum Ermitteln einer Position eines ersten Bildbereichs in einem Korrespondenz-Bild, SoC und Steuervorrichtung und System zur Durchführung des Verfahrens, sowie Computerprogramm
US11082659B2 (en) 2019-07-18 2021-08-03 Microsoft Technology Licensing, Llc Light field camera modules and light field camera module arrays
US11553123B2 (en) * 2019-07-18 2023-01-10 Microsoft Technology Licensing, Llc Dynamic detection and correction of light field camera array miscalibration
JP7431527B2 (ja) * 2019-08-07 2024-02-15 キヤノン株式会社 深度情報生成装置、撮像装置、深度情報生成方法、画像処理装置、画像処理方法、及びプログラム
US11303877B2 (en) 2019-08-13 2022-04-12 Avigilon Corporation Method and system for enhancing use of two-dimensional video analytics by using depth data
US10861422B1 (en) * 2019-08-16 2020-12-08 Facebook Technologies, Inc. Display rendering
CN110533731B (zh) * 2019-08-30 2023-01-17 无锡先导智能装备股份有限公司 相机解析度的标定方法及相机解析度的标定装置
US11729364B2 (en) 2019-09-18 2023-08-15 Gopro, Inc. Circular stitching of images
CN111028281B (zh) * 2019-10-22 2022-10-18 清华大学 基于光场双目系统的深度信息计算方法及装置
WO2021081603A1 (en) * 2019-11-01 2021-05-06 Visionary Machines Pty Ltd Systems and methods for generating and/or using 3-dimensional information with camera arrays
US11030478B1 (en) 2019-11-27 2021-06-08 Compound Eye, Inc. System and method for correspondence map determination
DE102019133515B3 (de) * 2019-12-09 2021-04-01 Cubert GmbH Verfahren und Vorrichtung zur Parallaxenbestimmung von Aufnahmen eines Multilinsen-Kamerasystems
US11315266B2 (en) * 2019-12-16 2022-04-26 Robert Bosch Gmbh Self-supervised depth estimation method and system
US11663728B2 (en) * 2020-01-16 2023-05-30 Samsung Electronics Co., Ltd. Depth estimation method and apparatus
WO2021150784A1 (en) * 2020-01-21 2021-07-29 Compound Eye Inc. System and method for camera calibration
WO2021150779A1 (en) 2020-01-21 2021-07-29 Compound Eye Inc. System and method for egomotion estimation
US11957974B2 (en) 2020-02-10 2024-04-16 Intel Corporation System architecture for cloud gaming
US11816855B2 (en) * 2020-02-11 2023-11-14 Samsung Electronics Co., Ltd. Array-based depth estimation
CN111582196B (zh) * 2020-02-13 2021-05-04 牧今科技 用于确定相机视场内的遮挡的方法和系统
US11006039B1 (en) 2020-02-13 2021-05-11 Mujin, Inc. Method and system for determining occlusion within a camera field of view
AT523556A1 (de) 2020-02-26 2021-09-15 Vexcel Imaging Gmbh Verfahren zur Bildkorrektur
CN113542721B (zh) * 2020-04-20 2023-04-25 阿里巴巴集团控股有限公司 深度图处理方法、视频重建方法及相关装置
EP4128746A1 (en) 2020-04-22 2023-02-08 Huawei Technologies Co., Ltd. Device and method for depth estimation using color images
US11520052B2 (en) * 2020-06-26 2022-12-06 Microsoft Technology Licensing, Llc Adaptive processing in time of flight imaging
US11212503B1 (en) * 2020-07-14 2021-12-28 Microsoft Technology Licensing, Llc Dual camera HMD with remote camera alignment
US20230308779A1 (en) * 2020-07-20 2023-09-28 Sony Group Corporation Information processing device, information processing system, information processing method, and information processing program
WO2022025741A1 (en) * 2020-07-27 2022-02-03 Samsung Electronics Co., Ltd. Array-based depth estimation
CN112053425B (zh) * 2020-09-29 2022-05-10 广州极飞科技股份有限公司 多光谱图像处理方法、装置及电子设备
KR102317182B1 (ko) * 2020-11-25 2021-10-27 주식회사 리얼이매진 3차원 객체와 2차원 배경을 이용한 합성 이미지 생성 장치
CN112614161A (zh) * 2020-12-28 2021-04-06 之江实验室 一种基于边缘置信度的三维物体跟踪方法
WO2022162616A1 (en) * 2021-01-28 2022-08-04 Visionary Machines Pty Ltd Systems and methods for combining multiple depth maps
US11657523B2 (en) * 2021-03-17 2023-05-23 The Trustees Of Princeton University Microlens amplitude masks for flying pixel removal in time-of-flight imaging
US20220319026A1 (en) * 2021-03-31 2022-10-06 Ernst Leitz Labs LLC Imaging system and method
US11893668B2 (en) 2021-03-31 2024-02-06 Leica Camera Ag Imaging system and method for generating a final digital image via applying a profile to image information
CN114759991B (zh) * 2022-03-28 2023-09-22 扬州大学 一种基于可见性图的循环平稳信号检测及调制识别方法
US11889033B2 (en) * 2022-05-11 2024-01-30 Samsung Electronics Co., Ltd. Flare mitigation via deconvolution using high dynamic range imaging
CN114897951B (zh) * 2022-05-30 2023-02-28 中国测绘科学研究院 聚合多视角深度信息的单张光场影像深度估计方法及系统
JP2024014138A (ja) * 2022-07-21 2024-02-01 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US11704864B1 (en) * 2022-07-28 2023-07-18 Katmai Tech Inc. Static rendering for a combination of background and foreground objects
CN115171030B (zh) * 2022-09-09 2023-01-31 山东省凯麟环保设备股份有限公司 基于多级特征融合的多模态图像分割方法、系统及器件
US20240129604A1 (en) * 2022-10-14 2024-04-18 Motional Ad Llc Plenoptic sensor devices, systems, and methods
KR102635346B1 (ko) * 2022-11-04 2024-02-08 주식회사 브이알크루 가상 객체의 폐색을 구현하기 위한 방법
CN115439720B (zh) * 2022-11-08 2023-01-24 成都数联云算科技有限公司 Cam图像的重构方法、训练方法、装置、设备及介质
CN116188558B (zh) * 2023-04-27 2023-07-11 华北理工大学 基于双目视觉的立体摄影测量方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060054782A1 (en) 2004-08-25 2006-03-16 Olsen Richard I Apparatus for multiple camera devices and method of operating same
US20110080487A1 (en) 2008-05-20 2011-04-07 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US20110122308A1 (en) 2009-11-20 2011-05-26 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US20120012748A1 (en) 2010-05-12 2012-01-19 Pelican Imaging Corporation Architectures for imager arrays and array cameras

Family Cites Families (935)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4124798A (en) 1965-12-09 1978-11-07 Thompson Kenneth B Optical viewing apparatus
JPS5925483B2 (ja) 1977-12-09 1984-06-18 パイオニア株式会社 プツシユプル増幅回路
US4198646A (en) 1978-10-13 1980-04-15 Hughes Aircraft Company Monolithic imager for near-IR
US4323925A (en) 1980-07-07 1982-04-06 Avco Everett Research Laboratory, Inc. Method and apparatus for arraying image sensor modules
JPS5769476A (en) 1980-10-16 1982-04-28 Fuji Xerox Co Ltd Reader control system
JPS5925483A (ja) 1982-08-04 1984-02-09 Hitachi Denshi Ltd 固体撮像装置
US4652909A (en) 1982-09-14 1987-03-24 New York Institute Of Technology Television camera and recording system for high definition television having imagers of different frame rate
US4460449A (en) 1983-01-03 1984-07-17 Amerace Corporation Apparatus for making a tool
EP0289885A1 (de) 1987-05-08 1988-11-09 Siemens Aktiengesellschaft Blendensystem zur Erzeugung mehrerer Teilchensonden mit veränderbarem Querschnitt
JPS6437177A (en) 1987-08-03 1989-02-07 Canon Kk Image pickup device
JPS6437177U (ko) 1987-08-31 1989-03-06
DE58902538D1 (de) 1988-05-19 1992-12-03 Siemens Ag Verfahren zur beobachtung einer szene und einrichtung zur durchfuehrung des verfahrens.
JPH02285772A (ja) 1989-04-26 1990-11-26 Toshiba Corp 画像読取装置
US5070414A (en) 1988-09-20 1991-12-03 Kabushiki Kaisha Toshiba Method and apparatus for reading image information formed on material
US4962425A (en) 1988-10-27 1990-10-09 National Research Council Of Canada/Conseil National Deresherches Canada Photometric device
US5157499A (en) 1990-06-29 1992-10-20 Kabushiki Kaisha N A C High-speed video camera using solid-state image sensor
US5144448A (en) 1990-07-31 1992-09-01 Vidar Systems Corporation Scanning apparatus using multiple CCD arrays and related method
US5463464A (en) 1991-10-04 1995-10-31 Kms Fusion, Inc. Electro-optical system for gauging surface profile deviations using infrared radiation
US5325449A (en) 1992-05-15 1994-06-28 David Sarnoff Research Center, Inc. Method for fusing images and apparatus therefor
JP3032382B2 (ja) 1992-07-13 2000-04-17 シャープ株式会社 デジタル信号のサンプリング周波数変換装置
JPH06129851A (ja) 1992-10-13 1994-05-13 Sumitomo Electric Ind Ltd ステレオカメラの校正方法
US5712732A (en) * 1993-03-03 1998-01-27 Street; Graham Stewart Brandon Autostereoscopic image display adjustable for observer location and distance
US5659424A (en) 1993-05-25 1997-08-19 Hitachi, Ltd. Projecting lens and image display device
JPH0715457A (ja) 1993-06-18 1995-01-17 Hitachi Ltd ディジタル通信切替方式
US6419638B1 (en) 1993-07-20 2002-07-16 Sam H. Hay Optical recognition methods for locating eyes
US6095989A (en) 1993-07-20 2000-08-01 Hay; Sam H. Optical recognition methods for locating eyes
JP2761837B2 (ja) * 1993-08-19 1998-06-04 株式会社日鉄エレックス 立体像表示装置
EP0677821A3 (en) 1994-04-14 1996-03-06 Hewlett Packard Co Enlargement of a digital image by slaving.
WO1995034044A1 (en) 1994-06-09 1995-12-14 Kollmorgen Instrument Corporation Stereoscopic electro-optical system for automated inspection and/or alignment of imaging devices on a production assembly line
US20020195548A1 (en) 2001-06-06 2002-12-26 Dowski Edward Raymond Wavefront coding interference contrast imaging systems
US5629524A (en) 1995-02-21 1997-05-13 Advanced Scientific Concepts, Inc. High speed crystallography detector
EP0739039A3 (en) 1995-04-18 1998-03-04 Interuniversitair Micro-Elektronica Centrum Vzw Pixel structure, image sensor using such pixel, structure and corresponding peripheric circuitry
US5963664A (en) 1995-06-22 1999-10-05 Sarnoff Corporation Method and system for image combination using a parallax-based technique
US6005607A (en) 1995-06-29 1999-12-21 Matsushita Electric Industrial Co., Ltd. Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus
GB2302978A (en) 1995-07-04 1997-02-05 Sharp Kk LIquid crystal device
WO1997018633A1 (en) 1995-11-07 1997-05-22 California Institute Of Technology Capacitively coupled successive approximation ultra low power analog-to-digital converter
US5757425A (en) 1995-12-19 1998-05-26 Eastman Kodak Company Method and apparatus for independently calibrating light source and photosensor arrays
JP3502713B2 (ja) 1995-12-21 2004-03-02 本田技研工業株式会社 車両用距離測定装置
JPH09181913A (ja) 1995-12-26 1997-07-11 Olympus Optical Co Ltd カメラシステム
US5793900A (en) 1995-12-29 1998-08-11 Stanford University Generating categorical depth maps using passive defocus sensing
US5973844A (en) 1996-01-26 1999-10-26 Proxemics Lenslet array systems and methods
US6124974A (en) 1996-01-26 2000-09-26 Proxemics Lenslet array systems and methods
US6493465B2 (en) 1996-02-21 2002-12-10 Canon Kabushiki Kaisha Matching point extracting method and apparatus therefor
US5832312A (en) * 1996-02-22 1998-11-03 Eastman Kodak Company Watertight body for accommodating a photographic camera
MY118360A (en) 1996-04-30 2004-10-30 Nippon Telegraph & Telephone Scheme for detecting shot boundaries in compressed video data using inter-frame/inter field prediction coding and intra-frame/intra-field coding
US6002743A (en) 1996-07-17 1999-12-14 Telymonde; Timothy D. Method and apparatus for image acquisition from a plurality of cameras
GB9616262D0 (en) * 1996-08-02 1996-09-11 Philips Electronics Nv Post-processing generation of focus/defocus effects for computer graphics images
US6141048A (en) 1996-08-19 2000-10-31 Eastman Kodak Company Compact image capture device
US6137535A (en) 1996-11-04 2000-10-24 Eastman Kodak Company Compact digital camera with segmented fields of view
US5808350A (en) 1997-01-03 1998-09-15 Raytheon Company Integrated IR, visible and NIR sensor and methods of fabricating same
JPH10232626A (ja) 1997-02-20 1998-09-02 Canon Inc 立体画像表示装置
JPH10253351A (ja) 1997-03-14 1998-09-25 Kyocera Corp 測距装置
US5801919A (en) 1997-04-04 1998-09-01 Gateway 2000, Inc. Adjustably mounted camera assembly for portable computers
US6097394A (en) 1997-04-28 2000-08-01 Board Of Trustees, Leland Stanford, Jr. University Method and system for light field rendering
US6515701B2 (en) 1997-07-24 2003-02-04 Polaroid Corporation Focal plane exposure control system for CMOS area image sensors
US6563537B1 (en) 1997-07-31 2003-05-13 Fuji Photo Film Co., Ltd. Image signal interpolation
JP3430935B2 (ja) 1997-10-20 2003-07-28 富士ゼロックス株式会社 画像読取装置及びレンズ
NO305728B1 (no) 1997-11-14 1999-07-12 Reidar E Tangen Optoelektronisk kamera og fremgangsmÕte ved bildeformatering i samme
JP4243779B2 (ja) 1997-11-14 2009-03-25 株式会社ニコン 拡散板の製造方法および拡散板、並びにマイクロレンズアレイの製造方法およびマイクロレンズアレイ
US6069365A (en) 1997-11-25 2000-05-30 Alan Y. Chow Optical processor based imaging system
JPH11242189A (ja) 1997-12-25 1999-09-07 Olympus Optical Co Ltd 像形成法、像形成装置
US6721008B2 (en) 1998-01-22 2004-04-13 Eastman Kodak Company Integrated CMOS active pixel digital camera
US6833863B1 (en) 1998-02-06 2004-12-21 Intel Corporation Method and apparatus for still image capture during video streaming operations of a tethered digital camera
JPH11223708A (ja) 1998-02-09 1999-08-17 Nikon Corp 圧子およびマイクロ光学素子アレイの製造方法
US6054703A (en) 1998-03-20 2000-04-25 Syscan, Inc. Sensing module for accelerating signal readout from image sensors
US6160909A (en) 1998-04-01 2000-12-12 Canon Kabushiki Kaisha Depth control for stereoscopic images
KR100307883B1 (ko) 1998-04-13 2001-10-19 박호군 정합화소수를이용한유사도측정방법및이를구현하기위한장치
JP3745117B2 (ja) 1998-05-08 2006-02-15 キヤノン株式会社 画像処理装置及び画像処理方法
JP3931936B2 (ja) 1998-05-11 2007-06-20 セイコーエプソン株式会社 マイクロレンズアレイ基板及びその製造方法並びに表示装置
JP3284190B2 (ja) 1998-05-14 2002-05-20 富士重工業株式会社 ステレオカメラの画像補正装置
US6205241B1 (en) 1998-06-01 2001-03-20 Canon Kabushiki Kaisha Compression of stereoscopic images
US6137100A (en) 1998-06-08 2000-10-24 Photobit Corporation CMOS image sensor with different pixel sizes for different colors
US6069351A (en) 1998-07-16 2000-05-30 Intel Corporation Focal plane processor for scaling information from image sensors
US6903770B1 (en) 1998-07-27 2005-06-07 Sanyo Electric Co., Ltd. Digital camera which produces a single image based on two exposures
JP2000055658A (ja) * 1998-08-06 2000-02-25 Sony Corp 画像処理装置および方法、並びに提供媒体
US6340994B1 (en) 1998-08-12 2002-01-22 Pixonics, Llc System and method for using temporal gamma and reverse super-resolution to process images for use in digital display systems
US6269175B1 (en) 1998-08-28 2001-07-31 Sarnoff Corporation Method and apparatus for enhancing regions of aligned images using flow estimation
EP1418766A3 (en) * 1998-08-28 2010-03-24 Imax Corporation Method and apparatus for processing images
US6879735B1 (en) 1998-09-14 2005-04-12 University Of Utah Reasearch Foundation Method of digital image enhancement and sharpening
US6310650B1 (en) 1998-09-23 2001-10-30 Honeywell International Inc. Method and apparatus for calibrating a tiled display
GB2343320B (en) 1998-10-31 2003-03-26 Ibm Camera system for three dimentional images and video
JP3596314B2 (ja) 1998-11-02 2004-12-02 日産自動車株式会社 物体端の位置計測装置および移動体の通行判断装置
US6611289B1 (en) 1999-01-15 2003-08-26 Yanbin Yu Digital cameras using multiple sensors with multiple lenses
JP3875423B2 (ja) 1999-01-19 2007-01-31 日本放送協会 固体撮像素子およびそれ用の映像信号出力装置
US6603513B1 (en) * 1999-02-16 2003-08-05 Micron Technology, Inc. Using a single control line to provide select and reset signals to image sensors in two rows of a digital imaging device
JP3634677B2 (ja) 1999-02-19 2005-03-30 キヤノン株式会社 画像の補間方法、画像処理方法、画像表示方法、画像処理装置、画像表示装置、及びコンピュータプログラム記憶媒体
US6563540B2 (en) 1999-02-26 2003-05-13 Intel Corporation Light sensor with increased dynamic range
US20020063807A1 (en) 1999-04-19 2002-05-30 Neal Margulis Method for Performing Image Transforms in a Digital Display System
US6819358B1 (en) 1999-04-26 2004-11-16 Microsoft Corporation Error calibration for digital image sensors and apparatus using the same
US6292713B1 (en) 1999-05-20 2001-09-18 Compaq Computer Corporation Robotic telepresence system
US6864916B1 (en) 1999-06-04 2005-03-08 The Trustees Of Columbia University In The City Of New York Apparatus and method for high dynamic range imaging using spatially varying exposures
JP2001008235A (ja) 1999-06-25 2001-01-12 Minolta Co Ltd 3次元データの再構成のための画像入力方法及び多眼式データ入力装置
JP2001042042A (ja) 1999-07-27 2001-02-16 Canon Inc 撮像装置
US6801653B1 (en) 1999-08-05 2004-10-05 Sony Corporation Information processing apparatus and method as well as medium
US7015954B1 (en) 1999-08-09 2006-03-21 Fuji Xerox Co., Ltd. Automatic video system using multiple cameras
US6647142B1 (en) 1999-08-19 2003-11-11 Mitsubishi Electric Research Laboratories, Inc. Badge identification system
US6771833B1 (en) 1999-08-20 2004-08-03 Eastman Kodak Company Method and system for enhancing digital images
US6628330B1 (en) 1999-09-01 2003-09-30 Neomagic Corp. Color interpolator and horizontal/vertical edge enhancer using two line buffer and alternating even/odd filters for digital camera
US6358862B1 (en) 1999-09-02 2002-03-19 Micron Technology, Inc Passivation integrity improvements
JP3280001B2 (ja) 1999-09-16 2002-04-30 富士重工業株式会社 ステレオ画像の位置ずれ調整装置
US6639596B1 (en) 1999-09-20 2003-10-28 Microsoft Corporation Stereo reconstruction from multiperspective panoramas
US6628845B1 (en) 1999-10-20 2003-09-30 Nec Laboratories America, Inc. Method for subpixel registration of images
US6774941B1 (en) 1999-10-26 2004-08-10 National Semiconductor Corporation CCD output processing stage that amplifies signals from colored pixels based on the conversion efficiency of the colored pixels
US6671399B1 (en) 1999-10-27 2003-12-30 Canon Kabushiki Kaisha Fast epipolar line adjustment of stereo pairs
US6674892B1 (en) 1999-11-01 2004-01-06 Canon Kabushiki Kaisha Correcting an epipolar axis for skew and offset
JP2001195050A (ja) 1999-11-05 2001-07-19 Mitsubishi Electric Corp グラフィックアクセラレータ
WO2001039512A1 (en) 1999-11-26 2001-05-31 Sanyo Electric Co., Ltd. Device and method for converting two-dimensional video to three-dimensional video
JP3950926B2 (ja) 1999-11-30 2007-08-01 エーユー オプトロニクス コーポレイション 画像表示方法、ホスト装置、画像表示装置、およびディスプレイ用インターフェイス
JP3728160B2 (ja) * 1999-12-06 2005-12-21 キヤノン株式会社 奥行き画像計測装置及び方法、並びに複合現実感提示システム
US7068851B1 (en) 1999-12-10 2006-06-27 Ricoh Co., Ltd. Multiscale sharpening and smoothing with wavelets
FI107680B (fi) 1999-12-22 2001-09-14 Nokia Oyj Menetelmä videokuvien lähettämiseksi, tiedonsiirtojärjestelmä, lähettävä videopäätelaite ja vastaanottava videopäätelaite
US6476805B1 (en) 1999-12-23 2002-11-05 Microsoft Corporation Techniques for spatial displacement estimation and multi-resolution operations on light fields
US6502097B1 (en) 1999-12-23 2002-12-31 Microsoft Corporation Data structure for efficient access to variable-size data objects
JP2001194114A (ja) 2000-01-14 2001-07-19 Sony Corp 画像処理装置および画像処理方法、並びにプログラム提供媒体
JP2003522576A (ja) 2000-02-18 2003-07-29 ウィリアム・ボーモント・ホスピタル 平坦なパネル画像装置を有するコーンビームコンピュータ断層撮像装置
US6523046B2 (en) 2000-02-25 2003-02-18 Microsoft Corporation Infrastructure and method for supporting generic multimedia metadata
JP2001264033A (ja) 2000-03-17 2001-09-26 Sony Corp 三次元形状計測装置とその方法、三次元モデリング装置とその方法、およびプログラム提供媒体
US6571466B1 (en) 2000-03-27 2003-06-03 Amkor Technology, Inc. Flip chip image sensor package fabrication method
JP2001277260A (ja) 2000-03-30 2001-10-09 Seiko Epson Corp マイクロレンズアレイ、その製造方法及びその製造用原盤並びに表示装置
WO2001075949A1 (fr) 2000-04-04 2001-10-11 Advantest Corporation Appareil d'exposition multifaisceau comprenant une lentille electronique multiaxe, et procede de fabrication d'un dispositif a semi-conducteur
WO2001082593A1 (en) 2000-04-24 2001-11-01 The Government Of The United States Of America, As Represented By The Secretary Of The Navy Apparatus and method for color image fusion
JP2001337263A (ja) 2000-05-25 2001-12-07 Olympus Optical Co Ltd 測距装置
JP4501239B2 (ja) 2000-07-13 2010-07-14 ソニー株式会社 カメラ・キャリブレーション装置及び方法、並びに、記憶媒体
CN1451230A (zh) 2000-07-21 2003-10-22 纽约市哥伦比亚大学托管会 图象拼合方法与设备
US7245761B2 (en) 2000-07-21 2007-07-17 Rahul Swaminathan Method and apparatus for reducing distortion in images
US7154546B1 (en) 2000-08-07 2006-12-26 Micron Technology, Inc. Pixel optimization for color
EP1185112B1 (en) 2000-08-25 2005-12-14 Fuji Photo Film Co., Ltd. Apparatus for parallax image capturing and parallax image processing
US7085409B2 (en) 2000-10-18 2006-08-01 Sarnoff Corporation Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery
US6734905B2 (en) 2000-10-20 2004-05-11 Micron Technology, Inc. Dynamic range extension for CMOS image sensors
US6774889B1 (en) 2000-10-24 2004-08-10 Microsoft Corporation System and method for transforming an ordinary computer monitor screen into a touch screen
US7262799B2 (en) 2000-10-25 2007-08-28 Canon Kabushiki Kaisha Image sensing apparatus and its control method, control program, and storage medium
US6476971B1 (en) 2000-10-31 2002-11-05 Eastman Kodak Company Method of manufacturing a microlens array mold and a microlens array
JP3918499B2 (ja) 2000-11-01 2007-05-23 セイコーエプソン株式会社 間隙測定方法、間隙測定装置、形状測定方法、形状測定装置並びに液晶装置の製造方法
US6573912B1 (en) 2000-11-07 2003-06-03 Zaxel Systems, Inc. Internet system for virtual telepresence
US6788338B1 (en) 2000-11-20 2004-09-07 Petko Dimitrov Dinev High resolution video camera apparatus having two image sensors and signal processing
US7490774B2 (en) 2003-11-13 2009-02-17 Metrologic Instruments, Inc. Hand-supportable imaging based bar code symbol reader employing automatic light exposure measurement and illumination control subsystem integrated therein
JP2002171537A (ja) 2000-11-30 2002-06-14 Canon Inc 複眼撮像系、撮像装置および電子機器
ATE552572T1 (de) 2000-12-01 2012-04-15 Imax Corp Verfahren und vorrichtung zum erzeugen hochauflösender bilder
CA2436607A1 (en) 2000-12-05 2002-06-13 Yeda Research And Development Co. Ltd. Apparatus and method for alignment of spatial or temporal non-overlapping image sequences
JP2002252338A (ja) 2000-12-18 2002-09-06 Canon Inc 撮像装置及び撮像システム
JP2002195910A (ja) 2000-12-26 2002-07-10 Omron Corp 光学部品の検査装置
JP2002209226A (ja) 2000-12-28 2002-07-26 Canon Inc 撮像装置
US7805680B2 (en) 2001-01-03 2010-09-28 Nokia Corporation Statistical metering and filtering of content via pixel-based metadata
JP3957460B2 (ja) 2001-01-15 2007-08-15 沖電気工業株式会社 伝送ヘッダ圧縮装置、動画像符号化装置及び動画像伝送システム
JP2002250607A (ja) 2001-02-27 2002-09-06 Optex Co Ltd 物体検知センサ
US6635941B2 (en) 2001-03-21 2003-10-21 Canon Kabushiki Kaisha Structure of semiconductor device with improved reliability
JP2002324743A (ja) 2001-04-24 2002-11-08 Canon Inc 露光方法及び装置
US6443579B1 (en) 2001-05-02 2002-09-03 Kenneth Myers Field-of-view controlling arrangements
US20020167537A1 (en) 2001-05-11 2002-11-14 Miroslav Trajkovic Motion-based tracking with pan-tilt-zoom camera
US7235785B2 (en) 2001-05-11 2007-06-26 Irvine Sensors Corp. Imaging device with multiple fields of view incorporating memory-based temperature compensation of an uncooled focal plane array
US20020190991A1 (en) 2001-05-16 2002-12-19 Daniel Efran 3-D instant replay system and method
US7738013B2 (en) 2001-05-29 2010-06-15 Samsung Electronics Co., Ltd. Systems and methods for power conservation in a CMOS imager
US7420602B2 (en) 2001-05-29 2008-09-02 Samsung Semiconductor Israel R&D Center (Sirc) Cmos imager for cellular applications and methods of using such
US6482669B1 (en) 2001-05-30 2002-11-19 Taiwan Semiconductor Manufacturing Company Colors only process to reduce package yield loss
US6525302B2 (en) 2001-06-06 2003-02-25 The Regents Of The University Of Colorado Wavefront coding phase contrast imaging systems
DE10137570A1 (de) * 2001-07-30 2003-02-27 Infineon Technologies Ag Verfahren und Vorrichtung zur Herstellung mindestens einer Vertiefung in einem Halbleitermaterial
US7113634B2 (en) 2001-07-31 2006-09-26 Canon Kabushiki Kaisha Stereoscopic image forming apparatus, stereoscopic image forming method, stereoscopic image forming system and stereoscopic image forming program
US20030025227A1 (en) 2001-08-02 2003-02-06 Zograph, Llc Reproduction of relief patterns
US8675119B2 (en) 2001-08-09 2014-03-18 Trustees Of Columbia University In The City Of New York Adaptive imaging using digital light processing
DE60141901D1 (de) 2001-08-31 2010-06-02 St Microelectronics Srl Störschutzfilter für Bayermusterbilddaten
JP3978706B2 (ja) 2001-09-20 2007-09-19 セイコーエプソン株式会社 微細構造体の製造方法
JP2003139910A (ja) 2001-10-30 2003-05-14 Sony Corp 光学素子、その製造方法およびその製造装置、並びにそれを用いた液晶表示装置および画像投影型表示装置
DE10153237A1 (de) 2001-10-31 2003-05-15 Lfk Gmbh Verfahren und Vorrichtung zur automatisierten Bestimmung der Modulations-Transfer-Funktion (MTF) von Focal-Plane-Array (FPA)- Kameras
JP3705766B2 (ja) 2001-11-28 2005-10-12 独立行政法人科学技術振興機構 画像入力装置
WO2003052465A2 (en) 2001-12-18 2003-06-26 University Of Rochester Multifocal aspheric lens obtaining extended field depth
US7212228B2 (en) 2002-01-16 2007-05-01 Advanced Telecommunications Research Institute International Automatic camera calibration method
US7302118B2 (en) 2002-02-07 2007-11-27 Microsoft Corporation Transformation of images
US20030179418A1 (en) 2002-03-19 2003-09-25 Eastman Kodak Company Producing a defective pixel map from defective cluster pixels in an area array image sensor
US8369607B2 (en) 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
JP2003298920A (ja) 2002-03-29 2003-10-17 Fuji Photo Film Co Ltd デジタルカメラ
US20030188659A1 (en) 2002-04-05 2003-10-09 Canadian Bank Note Company Limited Method and apparatus for reproducing a color image based on monochrome images derived therefrom
AU2003226047A1 (en) 2002-04-10 2003-10-27 Pan-X Imaging, Inc. A digital imaging system
US6856314B2 (en) 2002-04-18 2005-02-15 Stmicroelectronics, Inc. Method and system for 3D reconstruction of multiple views with altering search path and occlusion modeling
US6917702B2 (en) 2002-04-24 2005-07-12 Mitsubishi Electric Research Labs, Inc. Calibration of multiple cameras for a turntable-based 3D scanner
JP3567327B2 (ja) 2002-05-08 2004-09-22 富士写真光機株式会社 撮像レンズ
US6783900B2 (en) 2002-05-13 2004-08-31 Micron Technology, Inc. Color filter imaging array and method of formation
JP2004048644A (ja) 2002-05-21 2004-02-12 Sony Corp 情報処理装置、情報処理システム、及び対話者表示方法
JP2003347192A (ja) 2002-05-24 2003-12-05 Toshiba Corp エネルギービーム露光方法および露光装置
US7129981B2 (en) 2002-06-27 2006-10-31 International Business Machines Corporation Rendering system and method for images having differing foveal area and peripheral view area resolutions
JP2004088713A (ja) 2002-06-27 2004-03-18 Olympus Corp 撮像レンズユニットおよび撮像装置
JP4147059B2 (ja) 2002-07-03 2008-09-10 株式会社トプコン キャリブレーション用データ測定装置、測定方法及び測定プログラム、並びにコンピュータ読取可能な記録媒体、画像データ処理装置
JP2004037924A (ja) 2002-07-04 2004-02-05 Minolta Co Ltd 撮像装置
AU2003242974A1 (en) 2002-07-15 2004-02-02 Magna B.S.P. Ltd. Method and apparatus for implementing multipurpose monitoring system
US20040012689A1 (en) 2002-07-16 2004-01-22 Fairchild Imaging Charge coupled devices in tiled arrays
JP2004078296A (ja) 2002-08-09 2004-03-11 Victor Co Of Japan Ltd 画像生成装置
US20070166447A1 (en) 2002-08-27 2007-07-19 Select Milk Producers, Inc. Dairy compositions and method of making
US7639838B2 (en) 2002-08-30 2009-12-29 Jerry C Nims Multi-dimensional images system for digital image input and output
US7447380B2 (en) 2002-09-12 2008-11-04 Inoe Technologies, Llc Efficient method for creating a viewpoint from plurality of images
US20040050104A1 (en) 2002-09-18 2004-03-18 Eastman Kodak Company Forming information transfer lens array
US20040207836A1 (en) 2002-09-27 2004-10-21 Rajeshwar Chhibber High dynamic range optical inspection system and method
US7084904B2 (en) 2002-09-30 2006-08-01 Microsoft Corporation Foveated wide-angle imaging system and method for capturing and viewing wide-angle images in real time
US7477781B1 (en) 2002-10-10 2009-01-13 Dalsa Corporation Method and apparatus for adaptive pixel correction of multi-color matrix
US20040075654A1 (en) 2002-10-16 2004-04-22 Silicon Integrated Systems Corp. 3-D digital image processor and method for visibility processing for use in the same
JP4171786B2 (ja) 2002-10-25 2008-10-29 コニカミノルタホールディングス株式会社 画像入力装置
US7742088B2 (en) 2002-11-19 2010-06-22 Fujifilm Corporation Image sensor and digital camera
CA2506608C (en) 2002-11-21 2013-01-22 Vision Iii Imaging, Inc. Critical alignment of parallax images for autostereoscopic display
US20040105021A1 (en) 2002-12-02 2004-06-03 Bolymedia Holdings Co., Ltd. Color filter patterns for image sensors
US20040114807A1 (en) 2002-12-13 2004-06-17 Dan Lelescu Statistical representation and coding of light field data
US6878918B2 (en) 2003-01-09 2005-04-12 Dialdg Semiconductor Gmbh APS pixel with reset noise suppression and programmable binning capability
US7340099B2 (en) 2003-01-17 2008-03-04 University Of New Brunswick System and method for image fusion
DE10301941B4 (de) 2003-01-20 2005-11-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Kamera und Verfahren zur optischen Aufnahme eines Schirms
US7379592B2 (en) 2003-01-21 2008-05-27 United States Of America As Represented By The Secretary Of The Navy System and method for significant dust detection and enhancement of dust images over land and ocean
AU2003272936A1 (en) 2003-01-31 2004-08-23 The Circle For The Promotion Of Science And Engineering Method for creating high resolution color image, system for creating high resolution color image and program for creating high resolution color image
US7005637B2 (en) 2003-01-31 2006-02-28 Intevac, Inc. Backside thinning of image array devices
US7308157B2 (en) 2003-02-03 2007-12-11 Photon Dynamics, Inc. Method and apparatus for optical inspection of a display
US7595817B1 (en) 2003-02-12 2009-09-29 The Research Foundation Of State University Of New York Linear system based, qualitative independent motion detection from compressed MPEG surveillance video
US20040165090A1 (en) 2003-02-13 2004-08-26 Alex Ning Auto-focus (AF) lens and process
JP2004266369A (ja) 2003-02-21 2004-09-24 Sony Corp 固体撮像装置およびその駆動方法
US7106914B2 (en) 2003-02-27 2006-09-12 Microsoft Corporation Bayesian image super resolution
US7148861B2 (en) 2003-03-01 2006-12-12 The Boeing Company Systems and methods for providing enhanced vision imaging with decreased latency
US8218052B2 (en) 2003-03-07 2012-07-10 Iconix Video, Inc. High frame rate high definition imaging system and method
US7218320B2 (en) 2003-03-13 2007-05-15 Sony Corporation System and method for capturing facial and body motion
US6801719B1 (en) 2003-03-14 2004-10-05 Eastman Kodak Company Camera using beam splitter with micro-lens image amplification
US7206449B2 (en) 2003-03-19 2007-04-17 Mitsubishi Electric Research Laboratories, Inc. Detecting silhouette edges in images
US7425984B2 (en) 2003-04-04 2008-09-16 Stmicroelectronics, Inc. Compound camera and methods for implementing auto-focus, depth-of-field and high-resolution functions
US7373005B2 (en) 2003-04-10 2008-05-13 Micron Technology, Inc. Compression system for integrated sensor devices
US7097311B2 (en) 2003-04-19 2006-08-29 University Of Kentucky Research Foundation Super-resolution overlay in multi-projector displays
US6958862B1 (en) 2003-04-21 2005-10-25 Foveon, Inc. Use of a lenslet array with a vertically stacked pixel array
US7428330B2 (en) 2003-05-02 2008-09-23 Microsoft Corporation Cyclopean virtual imaging via generalized probabilistic smoothing
SE525665C2 (sv) 2003-05-08 2005-03-29 Forskarpatent I Syd Ab Matris av pixlar samt elektronisk bildanordning innefattande nämnda matris av pixlar
WO2004102958A1 (en) 2003-05-13 2004-11-25 Xceed Imaging Ltd. Optical method and system for enhancing image resolution
JP2004348674A (ja) 2003-05-26 2004-12-09 Noritsu Koki Co Ltd 領域検出方法及びその装置
US20040239782A1 (en) 2003-05-30 2004-12-02 William Equitz System and method for efficient improvement of image quality in cameras
CN1574894A (zh) 2003-06-02 2005-02-02 宾得株式会社 多焦距成像装置和具有该多焦距成像装置的移动装置
JP2004363478A (ja) 2003-06-06 2004-12-24 Sanyo Electric Co Ltd 半導体装置の製造方法
KR100539234B1 (ko) 2003-06-11 2005-12-27 삼성전자주식회사 투명 고분자 소재를 적용한 씨모스형 이미지 센서 모듈 및그 제조방법
US7362918B2 (en) 2003-06-24 2008-04-22 Microsoft Corporation System and method for de-noising multiple copies of a signal
US6818934B1 (en) 2003-06-24 2004-11-16 Omnivision International Holding Ltd Image sensor having micro-lens array separated with trench structures and method of making
US7388609B2 (en) 2003-07-07 2008-06-17 Zoran Corporation Dynamic identification and correction of defective pixels
US7090135B2 (en) 2003-07-07 2006-08-15 Symbol Technologies, Inc. Imaging arrangement and barcode imager for imaging an optical code or target at a plurality of focal planes
US20050007461A1 (en) 2003-07-11 2005-01-13 Novatek Microelectronic Co. Correction system and method of analog front end
JP3731589B2 (ja) 2003-07-18 2006-01-05 ソニー株式会社 撮像装置と同期信号発生装置
US7233737B2 (en) 2003-08-12 2007-06-19 Micron Technology, Inc. Fixed-focus camera module and associated method of assembly
US7643703B2 (en) 2003-09-03 2010-01-05 Battelle Energy Alliance, Llc Image change detection systems, methods, and articles of manufacture
US20050084179A1 (en) 2003-09-04 2005-04-21 Keith Hanna Method and apparatus for performing iris recognition from an image
US7161606B2 (en) 2003-09-08 2007-01-09 Honda Motor Co., Ltd. Systems and methods for directly generating a view using a layered approach
JP4015090B2 (ja) * 2003-09-08 2007-11-28 株式会社東芝 立体表示装置および画像表示方法
JP4020850B2 (ja) 2003-10-06 2007-12-12 株式会社東芝 磁気記録媒体の製造方法、製造装置、インプリントスタンパ及びその製造方法
US7079251B2 (en) 2003-10-16 2006-07-18 4D Technology Corporation Calibration and error correction in multi-channel imaging
WO2005041562A1 (ja) 2003-10-22 2005-05-06 Matsushita Electric Industrial Co., Ltd. 撮像装置とその製造方法、携帯機器、及び撮像素子とその製造方法
US7840067B2 (en) 2003-10-24 2010-11-23 Arcsoft, Inc. Color matching and color correction for images forming a panoramic image
CN1875638A (zh) 2003-11-11 2006-12-06 奥林巴斯株式会社 多谱图像捕捉装置
JP4235539B2 (ja) 2003-12-01 2009-03-11 独立行政法人科学技術振興機構 画像構成装置及び画像構成方法
US7453510B2 (en) 2003-12-11 2008-11-18 Nokia Corporation Imaging device
US7328288B2 (en) 2003-12-11 2008-02-05 Canon Kabushiki Kaisha Relay apparatus for relaying communication from CPU to peripheral device
US20050128509A1 (en) 2003-12-11 2005-06-16 Timo Tokkonen Image creating method and imaging device
JP3859158B2 (ja) 2003-12-16 2006-12-20 セイコーエプソン株式会社 マイクロレンズ用凹部付き基板、マイクロレンズ基板、透過型スクリーン、およびリア型プロジェクタ
US7511749B2 (en) 2003-12-18 2009-03-31 Aptina Imaging Corporation Color image sensor having imaging element array forming images on respective regions of sensor elements
US7123298B2 (en) 2003-12-18 2006-10-17 Avago Technologies Sensor Ip Pte. Ltd. Color image sensor with imaging elements imaging on respective regions of sensor elements
WO2005065085A2 (en) * 2003-12-21 2005-07-21 Kremen Stanley H System and apparatus for recording, transmitting, and projecting digital three-dimensional images
US7376250B2 (en) 2004-01-05 2008-05-20 Honda Motor Co., Ltd. Apparatus, method and program for moving object detection
US7496293B2 (en) 2004-01-14 2009-02-24 Elbit Systems Ltd. Versatile camera for various visibility conditions
US7773143B2 (en) 2004-04-08 2010-08-10 Tessera North America, Inc. Thin color camera having sub-pixel resolution
US8134637B2 (en) 2004-01-28 2012-03-13 Microsoft Corporation Method and system to increase X-Y resolution in a depth (Z) camera using red, blue, green (RGB) sensing
US7453688B2 (en) 2004-01-29 2008-11-18 Inventec Corporation Multimedia device for portable computers
US20050185711A1 (en) 2004-02-20 2005-08-25 Hanspeter Pfister 3D television system and method
SE527889C2 (sv) 2004-03-17 2006-07-04 Thomas Jeff Adamo Apparat för avbildning av ett objekt
JP2006047944A (ja) 2004-03-24 2006-02-16 Fuji Photo Film Co Ltd 撮影レンズ
JP4468442B2 (ja) 2004-03-31 2010-05-26 キヤノン株式会社 イメージングシステム性能測定
US7633511B2 (en) 2004-04-01 2009-12-15 Microsoft Corporation Pop-up light field
JP4665422B2 (ja) 2004-04-02 2011-04-06 ソニー株式会社 撮像装置
US8634014B2 (en) 2004-04-05 2014-01-21 Hewlett-Packard Development Company, L.P. Imaging device analysis systems and imaging device analysis methods
US7091531B2 (en) 2004-04-07 2006-08-15 Micron Technology, Inc. High dynamic range pixel amplifier
US8049806B2 (en) 2004-09-27 2011-11-01 Digitaloptics Corporation East Thin camera and associated methods
US7620265B1 (en) 2004-04-12 2009-11-17 Equinox Corporation Color invariant image fusion of visible and thermal infrared video
JP2005303694A (ja) 2004-04-13 2005-10-27 Konica Minolta Holdings Inc 複眼撮像装置
US7292735B2 (en) 2004-04-16 2007-11-06 Microsoft Corporation Virtual image artifact detection
US7773404B2 (en) 2005-01-07 2010-08-10 Invisage Technologies, Inc. Quantum dot optical devices with enhanced gain and sensitivity and methods of making same
US8218625B2 (en) 2004-04-23 2012-07-10 Dolby Laboratories Licensing Corporation Encoding, decoding and representing high dynamic range images
US20060034531A1 (en) 2004-05-10 2006-02-16 Seiko Epson Corporation Block noise level evaluation method for compressed images and control method of imaging device utilizing the evaluation method
EP1750584B1 (en) 2004-05-14 2020-10-14 Philips Intellectual Property & Standards GmbH System and method for diagnosing breast cancer
JP4610411B2 (ja) 2004-05-17 2011-01-12 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 物体を含むシーンの様式化された画像を生成する方法
US7355793B2 (en) 2004-05-19 2008-04-08 The Regents Of The University Of California Optical system applicable to improving the dynamic range of Shack-Hartmann sensors
WO2006083277A2 (en) 2004-05-25 2006-08-10 Sarnoff Corporation Low latency pyramid processor for image processing systems
JP2005354124A (ja) 2004-06-08 2005-12-22 Seiko Epson Corp 複数の低画素密度画像からの高画素密度画像の生成
US20060013318A1 (en) 2004-06-22 2006-01-19 Jennifer Webb Video error detection, recovery, and concealment
US7330593B2 (en) 2004-06-25 2008-02-12 Stmicroelectronics, Inc. Segment based image matching method and system
JP4408755B2 (ja) 2004-06-28 2010-02-03 Necエレクトロニクス株式会社 デインタリーブ装置、移動通信端末及びデインタリーブ方法
JP4479373B2 (ja) 2004-06-28 2010-06-09 ソニー株式会社 イメージセンサ
US7447382B2 (en) 2004-06-30 2008-11-04 Intel Corporation Computing a higher resolution image from multiple lower resolution images using model-based, robust Bayesian estimation
JP2006033228A (ja) 2004-07-14 2006-02-02 Victor Co Of Japan Ltd 画像撮像装置
JP2006033493A (ja) 2004-07-16 2006-02-02 Matsushita Electric Ind Co Ltd 撮像装置
US7189954B2 (en) 2004-07-19 2007-03-13 Micron Technology, Inc. Microelectronic imagers with optical devices and methods of manufacturing such microelectronic imagers
JP2006033570A (ja) 2004-07-20 2006-02-02 Olympus Corp 画像生成装置
US8027531B2 (en) 2004-07-21 2011-09-27 The Board Of Trustees Of The Leland Stanford Junior University Apparatus and method for capturing a scene using staggered triggering of dense camera arrays
GB0416496D0 (en) 2004-07-23 2004-08-25 Council Of The Central Lab Of Imaging device
US20060023197A1 (en) 2004-07-27 2006-02-02 Joel Andrew H Method and system for automated production of autostereoscopic and animated prints and transparencies from digital and non-digital media
US7068432B2 (en) 2004-07-27 2006-06-27 Micron Technology, Inc. Controlling lens shape in a microlens array
DE102004036469A1 (de) 2004-07-28 2006-02-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Kameramodul, hierauf basierendes Array und Verfahren zu dessen Herstellung
US7333652B2 (en) 2004-08-03 2008-02-19 Sony Corporation System and method for efficiently performing a depth map recovery procedure
US20060028476A1 (en) 2004-08-03 2006-02-09 Irwin Sobel Method and system for providing extensive coverage of an object using virtual cameras
JP2006050263A (ja) 2004-08-04 2006-02-16 Olympus Corp 画像生成方法および装置
US8248458B2 (en) 2004-08-06 2012-08-21 University Of Washington Through Its Center For Commercialization Variable fixation viewing distance scanned light displays
US7430339B2 (en) 2004-08-09 2008-09-30 Microsoft Corporation Border matting by dynamic programming
US7609302B2 (en) 2004-08-11 2009-10-27 Micron Technology, Inc. Correction of non-uniform sensitivity in an image array
US7645635B2 (en) 2004-08-16 2010-01-12 Micron Technology, Inc. Frame structure and semiconductor attach process for use therewith for fabrication of image sensor packages and the like, and resulting packages
US7061693B2 (en) 2004-08-16 2006-06-13 Xceed Imaging Ltd. Optical method and system for extended depth of focus
JP2008511080A (ja) 2004-08-23 2008-04-10 サーノフ コーポレーション 融合画像を形成するための方法および装置
US7564019B2 (en) 2005-08-25 2009-07-21 Richard Ian Olsen Large dynamic range cameras
US7916180B2 (en) 2004-08-25 2011-03-29 Protarius Filo Ag, L.L.C. Simultaneous multiple field of view digital cameras
US8124929B2 (en) 2004-08-25 2012-02-28 Protarius Filo Ag, L.L.C. Imager module optical focus and assembly method
US7795577B2 (en) 2004-08-25 2010-09-14 Richard Ian Olsen Lens frame and optical focus assembly for imager module
JP4057597B2 (ja) 2004-08-26 2008-03-05 独立行政法人科学技術振興機構 光学素子
CN100489599C (zh) 2004-08-26 2009-05-20 财团法人秋田企业活性化中心 液晶透镜
US20060046204A1 (en) 2004-08-31 2006-03-02 Sharp Laboratories Of America, Inc. Directly patternable microlens
JP2006080852A (ja) 2004-09-09 2006-03-23 Olympus Corp 画像処理装置、電子カメラ、スキャナ、画像処理方法、および画像処理プログラム
US20060055811A1 (en) 2004-09-14 2006-03-16 Frtiz Bernard S Imaging system having modules with adaptive optical elements
US7145124B2 (en) 2004-09-15 2006-12-05 Raytheon Company Multispectral imaging chip using photonic crystals
JP4202991B2 (ja) * 2004-09-29 2008-12-24 株式会社東芝 立体画像用データの記録方法及び表示再生方法
JP3977368B2 (ja) 2004-09-30 2007-09-19 クラリオン株式会社 駐車支援システム
DE102004049676A1 (de) 2004-10-12 2006-04-20 Infineon Technologies Ag Verfahren zur rechnergestützten Bewegungsschätzung in einer Vielzahl von zeitlich aufeinander folgenden digitalen Bildern, Anordnung zur rechnergestützten Bewegungsschätzung, Computerprogramm-Element und computerlesbares Speichermedium
JP2006119368A (ja) 2004-10-21 2006-05-11 Konica Minolta Opto Inc 広角光学系、撮像レンズ装置、モニタカメラ及びデジタル機器
JP4534715B2 (ja) 2004-10-22 2010-09-01 株式会社ニコン 撮像装置および画像処理プログラム
DE102004052994C5 (de) 2004-11-03 2010-08-26 Vistec Electron Beam Gmbh Multistrahlmodulator für einen Partikelstrahl und Verwendung des Multistrahlmodulators zur maskenlosen Substratsstrukturierung
KR100603601B1 (ko) 2004-11-08 2006-07-24 한국전자통신연구원 다시점 콘텐츠 생성 장치 및 그 방법
US7598996B2 (en) 2004-11-16 2009-10-06 Aptina Imaging Corporation System and method for focusing a digital camera
JP2006165795A (ja) 2004-12-03 2006-06-22 Canon Inc 画像形成装置およびその方法
WO2006060746A2 (en) 2004-12-03 2006-06-08 Infrared Solutions, Inc. Visible light and ir combined image camera with a laser pointer
US7483065B2 (en) 2004-12-15 2009-01-27 Aptina Imaging Corporation Multi-lens imaging systems and methods using optical filters having mosaic patterns
US8854486B2 (en) 2004-12-17 2014-10-07 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using skip and direct modes
US7728878B2 (en) 2004-12-17 2010-06-01 Mitsubishi Electric Research Labortories, Inc. Method and system for processing multiview videos for view synthesis using side information
US20060139475A1 (en) 2004-12-23 2006-06-29 Esch John W Multiple field of view camera arrays
WO2006074310A2 (en) 2005-01-07 2006-07-13 Gesturetek, Inc. Creating 3d images of objects by illuminating with infrared patterns
US7073908B1 (en) 2005-01-11 2006-07-11 Anthony Italo Provitola Enhancement of depth perception
US7767949B2 (en) 2005-01-18 2010-08-03 Rearden, Llc Apparatus and method for capturing still images and video using coded aperture techniques
US7671321B2 (en) 2005-01-18 2010-03-02 Rearden, Llc Apparatus and method for capturing still images and video using coded lens imaging techniques
US7602997B2 (en) 2005-01-19 2009-10-13 The United States Of America As Represented By The Secretary Of The Army Method of super-resolving images
US7408627B2 (en) 2005-02-08 2008-08-05 Canesta, Inc. Methods and system to quantify depth data accuracy in three-dimensional sensors using single frame capture
US7965314B1 (en) 2005-02-09 2011-06-21 Flir Systems, Inc. Foveal camera systems and methods
US7561191B2 (en) 2005-02-18 2009-07-14 Eastman Kodak Company Camera phone using multiple lenses and image sensors to provide an extended zoom range
US20060187322A1 (en) 2005-02-18 2006-08-24 Janson Wilbert F Jr Digital camera using multiple fixed focal length lenses and multiple image sensors to provide an extended zoom range
EP2230482B1 (en) 2005-03-11 2013-10-30 Creaform Inc. Auto-referenced system and apparatus for three-dimensional scanning
JP2006258930A (ja) 2005-03-15 2006-09-28 Nikon Corp マイクロレンズの製造方法、及びマイクロレンズ用の型の製造方法
WO2006102181A1 (en) 2005-03-21 2006-09-28 Massachusetts Institute Of Technology (Mit) Real-time, continuous-wave terahertz imaging using a microbolometer focal-plane array
US7560684B2 (en) 2005-03-23 2009-07-14 Panasonic Corporation On-vehicle imaging device
JP4545190B2 (ja) 2005-03-24 2010-09-15 パナソニック株式会社 撮像装置
US7297917B2 (en) 2005-03-24 2007-11-20 Micron Technology, Inc. Readout technique for increasing or maintaining dynamic range in image sensors
US7683950B2 (en) 2005-04-26 2010-03-23 Eastman Kodak Company Method and apparatus for correcting a channel dependent color aberration in a digital image
US7956871B2 (en) 2005-04-28 2011-06-07 Samsung Electronics Co., Ltd. Color disparity correction in image sensors methods and circuits
US7656428B2 (en) 2005-05-05 2010-02-02 Avago Technologies General Ip (Singapore) Pte. Ltd. Imaging device employing optical motion sensor as gyroscope
EP1882449A4 (en) 2005-05-18 2010-05-05 Hitachi Medical Corp RADIOGRAPHY DEVICE AND IMAGE PROCESSING PROGRAM
US8411182B2 (en) 2005-06-02 2013-04-02 Xerox Corporation System for controlling integration times of photosensors in an imaging device
US7968888B2 (en) 2005-06-08 2011-06-28 Panasonic Corporation Solid-state image sensor and manufacturing method thereof
JP2006345233A (ja) 2005-06-09 2006-12-21 Fujifilm Holdings Corp 撮像装置及びデジタルカメラ
KR100813961B1 (ko) 2005-06-14 2008-03-14 삼성전자주식회사 영상 수신장치
US7364306B2 (en) 2005-06-20 2008-04-29 Digital Display Innovations, Llc Field sequential light source modulation for a digital display system
JP4826152B2 (ja) 2005-06-23 2011-11-30 株式会社ニコン 画像合成方法及び撮像装置
US20070102622A1 (en) 2005-07-01 2007-05-10 Olsen Richard I Apparatus for multiple camera devices and method of operating same
JP4577126B2 (ja) 2005-07-08 2010-11-10 オムロン株式会社 ステレオ対応づけのための投光パターンの生成装置及び生成方法
WO2007014293A1 (en) 2005-07-25 2007-02-01 The Regents Of The University Of California Digital imaging system and method to produce mosaic images
US7718940B2 (en) 2005-07-26 2010-05-18 Panasonic Corporation Compound-eye imaging apparatus
CA2553473A1 (en) 2005-07-26 2007-01-26 Wa James Tam Generating a depth map from a tw0-dimensional source image for stereoscopic and multiview imaging
US7969488B2 (en) 2005-08-03 2011-06-28 Micron Technologies, Inc. Correction of cluster defects in imagers
US7929801B2 (en) 2005-08-15 2011-04-19 Sony Corporation Depth information for auto focus using two pictures and two-dimensional Gaussian scale space theory
US20070041391A1 (en) 2005-08-18 2007-02-22 Micron Technology, Inc. Method and apparatus for controlling imager output data rate
US20070040922A1 (en) 2005-08-22 2007-02-22 Micron Technology, Inc. HDR/AB on multi-way shared pixels
US20070258006A1 (en) 2005-08-25 2007-11-08 Olsen Richard I Solid state camera optics frame and assembly
US7964835B2 (en) 2005-08-25 2011-06-21 Protarius Filo Ag, L.L.C. Digital cameras with direct luminance and chrominance detection
US20070083114A1 (en) 2005-08-26 2007-04-12 The University Of Connecticut Systems and methods for image resolution enhancement
JP4804856B2 (ja) 2005-09-29 2011-11-02 富士フイルム株式会社 単焦点レンズ
US8009209B2 (en) 2005-09-30 2011-08-30 Simon Fraser University Methods and apparatus for detecting defects in imaging arrays by image analysis
EP1941314A4 (en) 2005-10-07 2010-04-14 Univ Leland Stanford Junior ARRANGEMENTS AND APPROACHES FOR MICROSCOPY
US8300085B2 (en) 2005-10-14 2012-10-30 Microsoft Corporation Occlusion handling in stereo imaging
JP4773179B2 (ja) 2005-10-14 2011-09-14 富士フイルム株式会社 撮像装置
US7806604B2 (en) 2005-10-20 2010-10-05 Honeywell International Inc. Face detection and tracking in a wide field of view
WO2007052191A2 (en) * 2005-11-02 2007-05-10 Koninklijke Philips Electronics N.V. Filling in depth results
KR100730406B1 (ko) 2005-11-16 2007-06-19 광운대학교 산학협력단 중간 요소 영상을 이용한 입체 영상 표시 장치
JP4389865B2 (ja) 2005-11-17 2009-12-24 ソニー株式会社 固体撮像素子の信号処理装置および信号処理方法並びに撮像装置
JP4943695B2 (ja) 2005-11-21 2012-05-30 富士フイルム株式会社 多焦点カメラの撮影光学系
EP1958458B1 (en) 2005-11-30 2016-08-17 Telecom Italia S.p.A. Method for determining scattered disparity fields in stereo vision
US7599547B2 (en) 2005-11-30 2009-10-06 Microsoft Corporation Symmetric stereo model for handling occlusion
JP4516516B2 (ja) 2005-12-07 2010-08-04 本田技研工業株式会社 人物検出装置、人物検出方法及び人物検出プログラム
TWI296480B (en) 2005-12-19 2008-05-01 Quanta Comp Inc Image camera of an electronic device
JP4501855B2 (ja) 2005-12-22 2010-07-14 ソニー株式会社 画像信号処理装置、撮像装置、および画像信号処理方法、並びにコンピュータ・プログラム
JP2007180730A (ja) 2005-12-27 2007-07-12 Eastman Kodak Co デジタルカメラおよびデータ管理方法
US8089515B2 (en) 2005-12-30 2012-01-03 Nokia Corporation Method and device for controlling auto focusing of a video camera by tracking a region-of-interest
US7855786B2 (en) 2006-01-09 2010-12-21 Bae Systems Spectral Solutions Llc Single camera multi-spectral imager
US7675080B2 (en) 2006-01-10 2010-03-09 Aptina Imaging Corp. Uniform color filter arrays in a moat
JP4147273B2 (ja) 2006-01-20 2008-09-10 松下電器産業株式会社 複眼方式のカメラモジュール及びその製造方法
DE102006004802B4 (de) 2006-01-23 2008-09-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Bilderfassungssystem und Verfahren zur Herstellung mindestens eines Bilderfassungssystems
JP4834412B2 (ja) 2006-02-03 2011-12-14 富士フイルム株式会社 固体撮像装置およびこれを用いた電子内視鏡
US20070201859A1 (en) 2006-02-24 2007-08-30 Logitech Europe S.A. Method and system for use of 3D sensors in an image capture device
US7391572B2 (en) 2006-03-01 2008-06-24 International Business Machines Corporation Hybrid optical/electronic structures fabricated by a common molding process
US7924483B2 (en) 2006-03-06 2011-04-12 Smith Scott T Fused multi-array color image sensor
DE102006011707B4 (de) 2006-03-14 2010-11-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zum Erzeugen einer strukturfreien fiberskopischen Aufnahme
US7616254B2 (en) 2006-03-16 2009-11-10 Sony Corporation Simple method for calculating camera defocus from an image scene
US8360574B2 (en) 2006-03-20 2013-01-29 High Performance Optics, Inc. High performance selective light wavelength filtering providing improved contrast sensitivity
US7606484B1 (en) 2006-03-23 2009-10-20 Flir Systems, Inc. Infrared and near-infrared camera hyperframing
JP4615468B2 (ja) 2006-03-23 2011-01-19 富士フイルム株式会社 撮影装置
CN101046882A (zh) 2006-03-27 2007-10-03 谷京陆 可直接输出的混合分辨率图像制作技术
US7342212B2 (en) 2006-03-31 2008-03-11 Micron Technology, Inc. Analog vertical sub-sampling in an active pixel sensor (APS) image sensor
US8044994B2 (en) 2006-04-04 2011-10-25 Mitsubishi Electric Research Laboratories, Inc. Method and system for decoding and displaying 3D light fields
US7916934B2 (en) 2006-04-04 2011-03-29 Mitsubishi Electric Research Laboratories, Inc. Method and system for acquiring, encoding, decoding and displaying 3D light fields
TW200740212A (en) 2006-04-10 2007-10-16 Sony Taiwan Ltd A stitching accuracy improvement method with lens distortion correction
US20070242141A1 (en) 2006-04-14 2007-10-18 Sony Corporation And Sony Electronics Inc. Adjustable neutral density filter system for dynamic range compression from scene to imaging sensor
CN101064780B (zh) 2006-04-30 2012-07-04 台湾新力国际股份有限公司 利用透镜失真校正的影像接合准确度改善方法及装置
US20070263114A1 (en) 2006-05-01 2007-11-15 Microalign Technologies, Inc. Ultra-thin digital imaging device of high resolution for mobile electronic devices and method of imaging
US7580620B2 (en) 2006-05-08 2009-08-25 Mitsubishi Electric Research Laboratories, Inc. Method for deblurring images using optimized temporal coding patterns
US9736346B2 (en) 2006-05-09 2017-08-15 Stereo Display, Inc Imaging system improving image resolution of the system with low resolution image sensor
US7889264B2 (en) 2006-05-12 2011-02-15 Ricoh Co., Ltd. End-to-end design of superresolution electro-optic imaging systems
US7916362B2 (en) 2006-05-22 2011-03-29 Eastman Kodak Company Image sensor with improved light sensitivity
US8139142B2 (en) 2006-06-01 2012-03-20 Microsoft Corporation Video manipulation of red, green, blue, distance (RGB-Z) data including segmentation, up-sampling, and background substitution techniques
IES20070229A2 (en) 2006-06-05 2007-10-03 Fotonation Vision Ltd Image acquisition method and apparatus
US20070177004A1 (en) 2006-06-08 2007-08-02 Timo Kolehmainen Image creating method and imaging device
JP4631811B2 (ja) 2006-06-12 2011-02-16 株式会社日立製作所 撮像装置
JP5106870B2 (ja) 2006-06-14 2012-12-26 株式会社東芝 固体撮像素子
FR2902530A1 (fr) 2006-06-19 2007-12-21 St Microelectronics Rousset Procede de fabrication de lentilles, notamment pour imageur comprenant un diaphragme
TWI362550B (en) 2007-06-21 2012-04-21 Ether Precision Inc The method for manufacturing the image captures unit
US7925117B2 (en) 2006-06-27 2011-04-12 Honeywell International Inc. Fusion of sensor data and synthetic data to form an integrated image
KR100793369B1 (ko) 2006-07-06 2008-01-11 삼성전자주식회사 분해능이 향상되는 이미지 센서 및 이를 이용한 이미지감지 방법
US20080024683A1 (en) 2006-07-31 2008-01-31 Niranjan Damera-Venkata Overlapped multi-projector system with dithering
US20080030592A1 (en) 2006-08-01 2008-02-07 Eastman Kodak Company Producing digital image with different resolution portions
JP2008039852A (ja) 2006-08-01 2008-02-21 Agc Techno Glass Co Ltd ガラス光学素子及びその製造方法
US8406562B2 (en) 2006-08-11 2013-03-26 Geo Semiconductor Inc. System and method for automated calibration and correction of display geometry and color
DE602007008798D1 (de) 2006-08-24 2010-10-14 Valeo Vision Verfahren zur Bestimmung der Durchfahrt eines Fahrzeugs durch eine engen Durchlass
US8687087B2 (en) 2006-08-29 2014-04-01 Csr Technology Inc. Digital camera with selectively increased dynamic range by control of parameters during image acquisition
US8306063B2 (en) 2006-08-29 2012-11-06 EXFO Services Assurance, Inc. Real-time transport protocol stream detection system and method
KR100746360B1 (ko) 2006-08-31 2007-08-06 삼성전기주식회사 스템퍼 제조방법
NO326372B1 (no) 2006-09-21 2008-11-17 Polight As Polymerlinse
WO2008039802A2 (en) 2006-09-25 2008-04-03 Ophthonix, Incorporated Method for correction of chromatic aberration and achromatic lens
JP4403162B2 (ja) 2006-09-29 2010-01-20 株式会社東芝 立体画像表示装置および立体画像の作製方法
US20080080028A1 (en) 2006-10-02 2008-04-03 Micron Technology, Inc. Imaging method, apparatus and system having extended depth of field
US8031258B2 (en) 2006-10-04 2011-10-04 Omnivision Technologies, Inc. Providing multiple video signals from single sensor
WO2008044938A1 (en) 2006-10-11 2008-04-17 Ignis Display As Method for manufacturing adjustable lens
CN101600976B (zh) 2006-10-11 2011-11-09 珀莱特公司 紧凑型可调节透镜的设计
US8073196B2 (en) 2006-10-16 2011-12-06 University Of Southern California Detection and tracking of moving objects from a moving platform in presence of strong parallax
US7702229B2 (en) 2006-10-18 2010-04-20 Eastman Kodak Company Lens array assisted focus detection
JP4349456B2 (ja) 2006-10-23 2009-10-21 ソニー株式会社 固体撮像素子
US20100103175A1 (en) 2006-10-25 2010-04-29 Tokyo Institute Of Technology Method for generating a high-resolution virtual-focal-plane image
US7888159B2 (en) 2006-10-26 2011-02-15 Omnivision Technologies, Inc. Image sensor having curved micro-mirrors over the sensing photodiode and method for fabricating
JP4452951B2 (ja) 2006-11-02 2010-04-21 富士フイルム株式会社 距離画像生成方法及びその装置
KR20080043106A (ko) 2006-11-13 2008-05-16 삼성전자주식회사 광학렌즈 및 그 제조방법
US8059162B2 (en) 2006-11-15 2011-11-15 Sony Corporation Imaging apparatus and method, and method for designing imaging apparatus
US20080118241A1 (en) 2006-11-16 2008-05-22 Tekolste Robert Control of stray light in camera systems employing an optics stack and associated methods
CN201043890Y (zh) * 2006-11-17 2008-04-02 中国科学院上海光学精密机械研究所 单孔径多重成像的光学成像测距装置
CA2670214A1 (en) 2006-11-21 2008-05-29 Mantisvision Ltd. 3d geometric modeling and 3d video content creation
KR20080047002A (ko) 2006-11-24 2008-05-28 엘지이노텍 주식회사 카메라모듈의 렌즈 어셈블리 및 그 제작 방법
JP4406937B2 (ja) 2006-12-01 2010-02-03 富士フイルム株式会社 撮影装置
US20100265385A1 (en) 2009-04-18 2010-10-21 Knight Timothy J Light Field Camera Image, File and Configuration Data, and Methods of Using, Storing and Communicating Same
US8559705B2 (en) 2006-12-01 2013-10-15 Lytro, Inc. Interactive refocusing of electronic images
JP5040493B2 (ja) 2006-12-04 2012-10-03 ソニー株式会社 撮像装置及び撮像方法
US8242426B2 (en) 2006-12-12 2012-08-14 Dolby Laboratories Licensing Corporation Electronic camera having multiple sensors for capturing high dynamic range images and related methods
US8262900B2 (en) * 2006-12-14 2012-09-11 Life Technologies Corporation Methods and apparatus for measuring analytes using large scale FET arrays
US7646549B2 (en) 2006-12-18 2010-01-12 Xceed Imaging Ltd Imaging system and method for providing extended depth of focus, range extraction and super resolved imaging
US8213500B2 (en) 2006-12-21 2012-07-03 Sharp Laboratories Of America, Inc. Methods and systems for processing film grain noise
TWI324015B (en) 2006-12-22 2010-04-21 Ind Tech Res Inst Autofocus searching method
US8103111B2 (en) 2006-12-26 2012-01-24 Olympus Imaging Corp. Coding method, electronic camera, recording medium storing coded program, and decoding method
US20080158259A1 (en) 2006-12-28 2008-07-03 Texas Instruments Incorporated Image warping and lateral color correction
US7973823B2 (en) 2006-12-29 2011-07-05 Nokia Corporation Method and system for image pre-processing
US20080158698A1 (en) 2006-12-29 2008-07-03 Chao-Chi Chang Lens barrel array and lens array and the method of making the same
US20080165257A1 (en) 2007-01-05 2008-07-10 Micron Technology, Inc. Configurable pixel array system and method
JP4993578B2 (ja) 2007-01-15 2012-08-08 オリンパスイメージング株式会社 画像ファイル再生装置,画像ファイル加工編集装置
US8655052B2 (en) 2007-01-26 2014-02-18 Intellectual Discovery Co., Ltd. Methodology for 3D scene reconstruction from 2D image sequences
JP5024992B2 (ja) 2007-02-02 2012-09-12 株式会社ジャパンディスプレイセントラル 表示装置
US7792423B2 (en) 2007-02-06 2010-09-07 Mitsubishi Electric Research Laboratories, Inc. 4D light field cameras
US7667824B1 (en) 2007-02-06 2010-02-23 Alpha Technology, LLC Range gated shearography systems and related methods
CN100585453C (zh) 2007-02-09 2010-01-27 奥林巴斯映像株式会社 解码方法及解码装置
JP4386083B2 (ja) 2007-02-27 2009-12-16 トヨタ自動車株式会社 駐車支援装置
JP4153013B1 (ja) 2007-03-06 2008-09-17 シャープ株式会社 撮像レンズ、撮像ユニットおよびそれを備えた携帯型情報端末
US7755679B2 (en) 2007-03-07 2010-07-13 Altasens, Inc. Apparatus and method for reducing edge effect in an image sensor
US7729602B2 (en) 2007-03-09 2010-06-01 Eastman Kodak Company Camera using multiple lenses and image sensors operable in a default imaging mode
US7859588B2 (en) 2007-03-09 2010-12-28 Eastman Kodak Company Method and apparatus for operating a dual lens camera to augment an image
US7676146B2 (en) 2007-03-09 2010-03-09 Eastman Kodak Company Camera using multiple lenses and image sensors to provide improved focusing capability
US7683962B2 (en) 2007-03-09 2010-03-23 Eastman Kodak Company Camera using multiple lenses and image sensors in a rangefinder configuration to provide a range map
US8593506B2 (en) 2007-03-15 2013-11-26 Yissum Research Development Company Of The Hebrew University Of Jerusalem Method and system for forming a panoramic image of a scene having minimal aspect distortion
JP2008242658A (ja) 2007-03-26 2008-10-09 Funai Electric Co Ltd 立体物体の撮像装置
JP4915859B2 (ja) 2007-03-26 2012-04-11 船井電機株式会社 物体の距離導出装置
US7738017B2 (en) 2007-03-27 2010-06-15 Aptina Imaging Corporation Method and apparatus for automatic linear shift parallax correction for multi-array image systems
US8165418B2 (en) 2007-03-30 2012-04-24 Brother Kogyo Kabushiki Kaisha Image processor
US8055466B2 (en) 2007-03-30 2011-11-08 Mitutoyo Corporation Global calibration for stereo vision probe
US8493496B2 (en) 2007-04-02 2013-07-23 Primesense Ltd. Depth mapping using projected patterns
US8213711B2 (en) 2007-04-03 2012-07-03 Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Industry, Through The Communications Research Centre Canada Method and graphical user interface for modifying depth maps
US8098941B2 (en) 2007-04-03 2012-01-17 Aptina Imaging Corporation Method and apparatus for parallelization of image compression encoders
CN101281282A (zh) 2007-04-04 2008-10-08 鸿富锦精密工业(深圳)有限公司 镜头模组
JP2008258885A (ja) 2007-04-04 2008-10-23 Texas Instr Japan Ltd 撮像装置および撮像装置の駆動方法
EP2432015A1 (en) 2007-04-18 2012-03-21 Invisage Technologies, Inc. Materials, systems and methods for optoelectronic devices
WO2009023044A2 (en) 2007-04-24 2009-02-19 21 Ct, Inc. Method and system for fast dense stereoscopic ranging
KR100869219B1 (ko) 2007-05-03 2008-11-18 동부일렉트로닉스 주식회사 이미지 센서 및 그 제조방법
US8462220B2 (en) 2007-05-09 2013-06-11 Aptina Imaging Corporation Method and apparatus for improving low-light performance for small pixel image sensors
US7812869B2 (en) 2007-05-11 2010-10-12 Aptina Imaging Corporation Configurable pixel array system and method
JP4341695B2 (ja) 2007-05-17 2009-10-07 ソニー株式会社 画像入力処理装置、撮像信号処理回路、および、撮像信号のノイズ低減方法
JP4337911B2 (ja) 2007-05-24 2009-09-30 ソニー株式会社 撮像装置、撮像回路、および撮像方法
US20080298674A1 (en) 2007-05-29 2008-12-04 Image Masters Inc. Stereoscopic Panoramic imaging system
EP2206013A4 (en) 2007-05-31 2011-07-20 Artificial Muscle Inc OPTICAL SYSTEMS EMPLOYING COMPATIBLE ELECTROLYTE MATERIALS
US8290358B1 (en) 2007-06-25 2012-10-16 Adobe Systems Incorporated Methods and apparatus for light-field imaging
RU2487488C2 (ru) 2007-06-26 2013-07-10 Конинклейке Филипс Электроникс Н.В. Способ и система для кодирования сигнала трехмерного видео, инкапсулированный сигнал трехмерного видео, способ и система для декодера сигнала трехмерного видео
CA2693666A1 (en) 2007-07-12 2009-01-15 Izzat H. Izzat System and method for three-dimensional object reconstruction from two-dimensional images
US8125619B2 (en) 2007-07-25 2012-02-28 Eminent Electronic Technology Corp. Integrated ambient light sensor and distance sensor
JP5006727B2 (ja) 2007-07-26 2012-08-22 株式会社リコー 画像処理装置およびデジタルカメラ
US8559756B2 (en) 2007-08-06 2013-10-15 Adobe Systems Incorporated Radiance processing by demultiplexing in the frequency domain
EP2034338A1 (en) 2007-08-11 2009-03-11 ETH Zurich Liquid Lens System
EP2026563A1 (en) 2007-08-14 2009-02-18 Deutsche Thomson OHG System and method for detecting defective pixels
US7782364B2 (en) 2007-08-21 2010-08-24 Aptina Imaging Corporation Multi-array sensor with integrated sub-array for parallax detection and photometer functionality
US20090066693A1 (en) 2007-09-06 2009-03-12 Roc Carson Encoding A Depth Map Into An Image Using Analysis Of Two Consecutive Captured Frames
US7973834B2 (en) 2007-09-24 2011-07-05 Jianwen Yang Electro-optical foveated imaging and tracking system
US20090079862A1 (en) 2007-09-25 2009-03-26 Micron Technology, Inc. Method and apparatus providing imaging auto-focus utilizing absolute blur value
US20090086074A1 (en) 2007-09-27 2009-04-02 Omnivision Technologies, Inc. Dual mode camera solution apparatus, system, and method
US7940311B2 (en) 2007-10-03 2011-05-10 Nokia Corporation Multi-exposure pattern for enhancing dynamic range of images
JP5172267B2 (ja) 2007-10-09 2013-03-27 富士フイルム株式会社 撮像装置
US8049289B2 (en) 2007-10-11 2011-11-01 Dongbu Hitek Co., Ltd. Image sensor and method for manufacturing the same
US8938009B2 (en) 2007-10-12 2015-01-20 Qualcomm Incorporated Layered encoded bitstream structure
US7956924B2 (en) 2007-10-18 2011-06-07 Adobe Systems Incorporated Fast computational camera based on two arrays of lenses
US7787112B2 (en) 2007-10-22 2010-08-31 Visiongate, Inc. Depth of field extension for optical tomography
US7920193B2 (en) 2007-10-23 2011-04-05 Aptina Imaging Corporation Methods, systems and apparatuses using barrier self-calibration for high dynamic range imagers
US7777804B2 (en) 2007-10-26 2010-08-17 Omnivision Technologies, Inc. High dynamic range sensor with reduced line memory for color interpolation
WO2009061814A2 (en) 2007-11-05 2009-05-14 University Of Florida Research Foundation, Inc. Lossless data compression and real-time decompression
US20090128644A1 (en) 2007-11-15 2009-05-21 Camp Jr William O System and method for generating a photograph
US7852461B2 (en) 2007-11-15 2010-12-14 Microsoft International Holdings B.V. Dual mode depth imaging
US8351685B2 (en) 2007-11-16 2013-01-08 Gwangju Institute Of Science And Technology Device and method for estimating depth map, and method for generating intermediate image and method for encoding multi-view video using the same
US8126279B2 (en) 2007-11-19 2012-02-28 The University Of Arizona Lifting-based view compensated compression and remote visualization of volume rendered images
JP5010445B2 (ja) 2007-11-29 2012-08-29 パナソニック株式会社 マイクロレンズアレイ用金型の製造方法
KR20090055803A (ko) 2007-11-29 2009-06-03 광주과학기술원 다시점 깊이맵 생성 방법 및 장치, 다시점 영상에서의변이값 생성 방법
GB2455316B (en) 2007-12-04 2012-08-15 Sony Corp Image processing apparatus and method
US8384803B2 (en) 2007-12-13 2013-02-26 Keigo Iizuka Camera system and method for amalgamating images to create an omni-focused image
TWI353778B (en) 2007-12-21 2011-12-01 Ind Tech Res Inst Moving object detection apparatus and method
US7880807B2 (en) 2007-12-26 2011-02-01 Sony Ericsson Mobile Communications Ab Camera system with mirror arrangement for generating self-portrait panoramic pictures
US8233077B2 (en) 2007-12-27 2012-07-31 Qualcomm Incorporated Method and apparatus with depth map generation
TWI362628B (en) * 2007-12-28 2012-04-21 Ind Tech Res Inst Methof for producing an image with depth by using 2d image
US20110031381A1 (en) 2007-12-28 2011-02-10 Hiok-Nam Tay Light guide array for an image sensor
DE112009000099T5 (de) 2008-01-04 2010-11-11 3M Innovative Properties Co., St. Paul Bildsignaturen zur Verwendung in einer bewegungsbasierten dreidimensionalen Rekonstruktion
JP4413261B2 (ja) 2008-01-10 2010-02-10 シャープ株式会社 撮像装置及び光軸制御方法
JP5198295B2 (ja) 2008-01-15 2013-05-15 富士フイルム株式会社 撮像素子の位置調整方法、カメラモジュール製造方法及び装置、カメラモジュール
US7962033B2 (en) 2008-01-23 2011-06-14 Adobe Systems Incorporated Methods and apparatus for full-resolution light-field capture and rendering
US8189065B2 (en) 2008-01-23 2012-05-29 Adobe Systems Incorporated Methods and apparatus for full-resolution light-field capture and rendering
JP4956452B2 (ja) 2008-01-25 2012-06-20 富士重工業株式会社 車両用環境認識装置
US8824833B2 (en) 2008-02-01 2014-09-02 Omnivision Technologies, Inc. Image data fusion systems and methods
GB0802290D0 (en) 2008-02-08 2008-03-12 Univ Kent Canterbury Camera adapter based optical imaging apparatus
US8319301B2 (en) 2008-02-11 2012-11-27 Omnivision Technologies, Inc. Self-aligned filter for an image sensor
JP2009206922A (ja) 2008-02-28 2009-09-10 Funai Electric Co Ltd 複眼撮像装置
US9094675B2 (en) 2008-02-29 2015-07-28 Disney Enterprises Inc. Processing image data from multiple cameras for motion pictures
CN101520532A (zh) 2008-02-29 2009-09-02 鸿富锦精密工业(深圳)有限公司 复合镜片
GB2492246B (en) 2008-03-03 2013-04-10 Videoiq Inc Dynamic object classification
WO2009119229A1 (ja) 2008-03-26 2009-10-01 コニカミノルタホールディングス株式会社 3次元撮像装置及び3次元撮像装置の校正方法
US8497905B2 (en) 2008-04-11 2013-07-30 nearmap australia pty ltd. Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
US8259208B2 (en) 2008-04-15 2012-09-04 Sony Corporation Method and apparatus for performing touch-based adjustments within imaging devices
US7843554B2 (en) 2008-04-25 2010-11-30 Rockwell Collins, Inc. High dynamic range sensor system and method
US8155456B2 (en) 2008-04-29 2012-04-10 Adobe Systems Incorporated Method and apparatus for block-based compression of light-field images
US8280194B2 (en) 2008-04-29 2012-10-02 Sony Corporation Reduced hardware implementation for a two-picture depth map algorithm
US8724921B2 (en) 2008-05-05 2014-05-13 Aptina Imaging Corporation Method of capturing high dynamic range images with objects in the scene
JP2009273035A (ja) 2008-05-09 2009-11-19 Toshiba Corp 画像圧縮装置、画像伸張装置及び画像処理装置
EP2283644A4 (en) 2008-05-09 2011-10-26 Ecole Polytech PICTURE SENSOR WITH NONLINEAR REACTION
US8208543B2 (en) 2008-05-19 2012-06-26 Microsoft Corporation Quantization and differential coding of alpha image data
WO2009141998A1 (ja) 2008-05-19 2009-11-26 パナソニック株式会社 キャリブレーション方法、キャリブレーション装置及びその装置を備えるキャリブレーションシステム
EP3328048B1 (en) 2008-05-20 2021-04-21 FotoNation Limited Capturing and processing of images using monolithic camera array with heterogeneous imagers
CN102007041B (zh) * 2008-05-21 2012-12-12 花王株式会社 袋式容器
US8442355B2 (en) 2008-05-23 2013-05-14 Samsung Electronics Co., Ltd. System and method for generating a multi-dimensional image
US8125559B2 (en) 2008-05-25 2012-02-28 Avistar Communications Corporation Image formation for large photosensor array surfaces
US8131097B2 (en) 2008-05-28 2012-03-06 Aptina Imaging Corporation Method and apparatus for extended depth-of-field image restoration
US8244058B1 (en) 2008-05-30 2012-08-14 Adobe Systems Incorporated Method and apparatus for managing artifacts in frequency domain processing of light-field images
JP2009300268A (ja) 2008-06-13 2009-12-24 Nippon Hoso Kyokai <Nhk> 3次元情報検出装置
KR20100002032A (ko) 2008-06-24 2010-01-06 삼성전자주식회사 영상 생성 방법, 영상 처리 방법, 및 그 장치
US7710667B2 (en) 2008-06-25 2010-05-04 Aptina Imaging Corp. Imaging module with symmetrical lens system and method of manufacture
CN102016654A (zh) 2008-06-25 2011-04-13 柯尼卡美能达精密光学株式会社 成像光学系统及成像用透镜的制造方法
KR101000531B1 (ko) 2008-06-26 2010-12-14 에스디씨마이크로 주식회사 데이터 전송 범위가 증대되는 무선랜을 이용한 씨씨티브이관리시스템
US7916396B2 (en) 2008-06-27 2011-03-29 Micron Technology, Inc. Lens master devices, lens structures, imaging devices, and methods and apparatuses of making the same
US8326069B2 (en) 2008-06-30 2012-12-04 Intel Corporation Computing higher resolution images from multiple lower resolution images
US7773317B2 (en) 2008-07-01 2010-08-10 Aptina Imaging Corp. Lens system with symmetrical optics
US7920339B2 (en) 2008-07-02 2011-04-05 Aptina Imaging Corporation Method and apparatus providing singlet wafer lens system with field flattener
CN100576934C (zh) 2008-07-03 2009-12-30 浙江大学 基于深度和遮挡信息的虚拟视点合成方法
US8456517B2 (en) 2008-07-09 2013-06-04 Primesense Ltd. Integrated processor for 3D mapping
KR101445185B1 (ko) 2008-07-10 2014-09-30 삼성전자주식회사 복수 개의 영상촬영유닛을 구비한 플렉시블 영상촬영장치및 그 제조방법
CA2731680C (en) 2008-08-06 2016-12-13 Creaform Inc. System for adaptive three-dimensional scanning of surface characteristics
BRPI0916963A2 (pt) 2008-08-20 2015-11-24 Thomson Licensing mapa de profundidade refinado
CN101656259A (zh) 2008-08-20 2010-02-24 鸿富锦精密工业(深圳)有限公司 影像感测器封装结构、封装方法及相机模组
US7924312B2 (en) 2008-08-22 2011-04-12 Fluke Corporation Infrared and visible-light image registration
US8736751B2 (en) 2008-08-26 2014-05-27 Empire Technology Development Llc Digital presenter for displaying image captured by camera with illumination system
US8102428B2 (en) 2008-08-28 2012-01-24 Adobe Systems Incorporated Content-aware video stabilization
WO2010022503A1 (en) 2008-09-01 2010-03-04 Lensvector Inc. Wafer-level fabrication of liquid crystal optoelectronic devices
JP5105482B2 (ja) 2008-09-01 2012-12-26 船井電機株式会社 光学的条件設計方法及び複眼撮像装置
US8098297B2 (en) 2008-09-03 2012-01-17 Sony Corporation Pre- and post-shutter signal image capture and sort for digital camera
KR20100028344A (ko) 2008-09-04 2010-03-12 삼성전자주식회사 휴대단말의 영상 편집 방법 및 장치
JP5238429B2 (ja) 2008-09-25 2013-07-17 株式会社東芝 立体映像撮影装置および立体映像撮影システム
US8553093B2 (en) 2008-09-30 2013-10-08 Sony Corporation Method and apparatus for super-resolution imaging using digital imaging devices
JP5243612B2 (ja) 2008-10-02 2013-07-24 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 中間画像合成およびマルチビューデータ信号抽出
US9619917B2 (en) 2008-10-03 2017-04-11 Apple Inc. Depth of field for a camera in a media-editing application
US9064476B2 (en) 2008-10-04 2015-06-23 Microsoft Technology Licensing, Llc Image super-resolution using gradient profile prior
US8310525B2 (en) 2008-10-07 2012-11-13 Seiko Epson Corporation One-touch projector alignment for 3D stereo display
KR101498532B1 (ko) 2008-10-15 2015-03-04 스피넬라 아이피 홀딩스, 인코포레이티드 광학 흐름의 결정을 위한 디지털 처리 방법 및 시스템
US8416282B2 (en) 2008-10-16 2013-04-09 Spatial Cam Llc Camera for creating a panoramic image
JP2010096723A (ja) 2008-10-20 2010-04-30 Funai Electric Co Ltd 物体の距離導出装置
US8436909B2 (en) 2008-10-21 2013-05-07 Stmicroelectronics S.R.L. Compound camera sensor and related method of processing digital images
KR101697598B1 (ko) 2008-10-27 2017-02-01 엘지전자 주식회사 가상 뷰 이미지 합성 방법 및 장치
US8063975B2 (en) 2008-10-29 2011-11-22 Jabil Circuit, Inc. Positioning wafer lenses on electronic imagers
KR101502597B1 (ko) 2008-11-13 2015-03-13 삼성전자주식회사 고심도 입체 영상 표시가 가능한 디스플레이 장치 및 방법
US8644547B2 (en) 2008-11-14 2014-02-04 The Scripps Research Institute Image analysis platform for identifying artifacts in samples and laboratory consumables
AU2008246243B2 (en) 2008-11-19 2011-12-22 Canon Kabushiki Kaisha DVC as generic file format for plenoptic camera
US8279325B2 (en) 2008-11-25 2012-10-02 Lytro, Inc. System and method for acquiring, editing, generating and outputting video data
JP4852591B2 (ja) 2008-11-27 2012-01-11 富士フイルム株式会社 立体画像処理装置、方法及び記録媒体並びに立体撮像装置
US8289440B2 (en) 2008-12-08 2012-10-16 Lytro, Inc. Light field data acquisition devices, and methods of using and manufacturing same
US8013904B2 (en) 2008-12-09 2011-09-06 Seiko Epson Corporation View projection matrix based high performance low latency display pipeline
JP5311016B2 (ja) 2008-12-10 2013-10-09 コニカミノルタ株式会社 ステレオカメラユニット及びステレオマッチング方法
KR101200490B1 (ko) 2008-12-10 2012-11-12 한국전자통신연구원 영상 정합 장치 및 방법
US8149323B2 (en) 2008-12-18 2012-04-03 Qualcomm Incorporated System and method to autofocus assisted by autoexposure control
JP4631966B2 (ja) 2008-12-22 2011-02-16 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
CN101770060B (zh) 2008-12-27 2014-03-26 鸿富锦精密工业(深圳)有限公司 相机模组及其组装方法
US8405742B2 (en) 2008-12-30 2013-03-26 Massachusetts Institute Of Technology Processing images having different focus
US8259212B2 (en) 2009-01-05 2012-09-04 Applied Quantum Technologies, Inc. Multiscale optical system
WO2010081010A2 (en) 2009-01-09 2010-07-15 New York University Methods, computer-accessible medium and systems for facilitating dark flash photography
JP4883223B2 (ja) 2009-01-09 2012-02-22 コニカミノルタホールディングス株式会社 動きベクトル生成装置および動きベクトル生成方法
US20100177411A1 (en) 2009-01-09 2010-07-15 Shashikant Hegde Wafer level lens replication on micro-electrical-mechanical systems
US8315476B1 (en) 2009-01-20 2012-11-20 Adobe Systems Incorporated Super-resolution with the focused plenoptic camera
US8189089B1 (en) 2009-01-20 2012-05-29 Adobe Systems Incorporated Methods and apparatus for reducing plenoptic camera artifacts
US8300108B2 (en) 2009-02-02 2012-10-30 L-3 Communications Cincinnati Electronics Corporation Multi-channel imaging devices comprising unit cells
US20100194860A1 (en) 2009-02-03 2010-08-05 Bit Cauldron Corporation Method of stereoscopic 3d image capture using a mobile device, cradle or dongle
US8761491B2 (en) 2009-02-06 2014-06-24 Himax Technologies Limited Stereo-matching processor using belief propagation
US8290301B2 (en) 2009-02-06 2012-10-16 Raytheon Company Optimized imaging system for collection of high resolution imagery
KR101776955B1 (ko) 2009-02-10 2017-09-08 소니 주식회사 고체 촬상 장치와 그 제조 방법, 및 전자 기기
JP4915423B2 (ja) 2009-02-19 2012-04-11 ソニー株式会社 画像処理装置、フォーカルプレーン歪み成分算出方法、画像処理プログラム及び記録媒体
WO2010095440A1 (ja) 2009-02-20 2010-08-26 パナソニック株式会社 記録媒体、再生装置、及び集積回路
US8520970B2 (en) 2010-04-23 2013-08-27 Flir Systems Ab Infrared resolution and contrast enhancement with fusion
KR20100099896A (ko) 2009-03-04 2010-09-15 삼성전자주식회사 메타데이터 생성 방법 및 장치, 그 메타데이터를 이용하여 영상을 처리하는 방법 및 장치
US8207759B2 (en) 2009-03-12 2012-06-26 Fairchild Semiconductor Corporation MIPI analog switch for automatic selection of multiple inputs based on clock voltages
US8542287B2 (en) 2009-03-19 2013-09-24 Digitaloptics Corporation Dual sensor camera
US8106949B2 (en) 2009-03-26 2012-01-31 Seiko Epson Corporation Small memory footprint light transport matrix capture
US8450821B2 (en) 2009-03-26 2013-05-28 Micron Technology, Inc. Method and apparatus providing combined spacer and optical lens element
US7901095B2 (en) 2009-03-27 2011-03-08 Seiko Epson Corporation Resolution scalable view projection
JP4529010B1 (ja) 2009-03-30 2010-08-25 シャープ株式会社 撮像装置
JP5222205B2 (ja) 2009-04-03 2013-06-26 Kddi株式会社 画像処理装置、方法及びプログラム
WO2010116368A1 (en) 2009-04-07 2010-10-14 Nextvision Stabilized Systems Ltd Methods for compensating for light distortions related noise in a camera system having multiple image sensors
US20100259610A1 (en) 2009-04-08 2010-10-14 Celsia, Llc Two-Dimensional Display Synced with Real World Object Movement
US8294099B2 (en) 2009-04-10 2012-10-23 Bae Systems Information And Electronic Systems Integration Inc. On-wafer butted microbolometer imaging array
US8717417B2 (en) 2009-04-16 2014-05-06 Primesense Ltd. Three-dimensional mapping and imaging
JP5463718B2 (ja) 2009-04-16 2014-04-09 ソニー株式会社 撮像装置
US8908058B2 (en) 2009-04-18 2014-12-09 Lytro, Inc. Storage and transmission of pictures including multiple frames
US20120249550A1 (en) 2009-04-18 2012-10-04 Lytro, Inc. Selective Transmission of Image Data Based on Device Attributes
EP2244484B1 (en) 2009-04-22 2012-03-28 Raytrix GmbH Digital imaging method for synthesizing an image using data recorded with a plenoptic camera
CN101527046B (zh) 2009-04-28 2012-09-05 青岛海信数字多媒体技术国家重点实验室有限公司 一种运动检测方法、装置和系统
KR101671021B1 (ko) 2009-04-30 2016-11-10 삼성전자주식회사 스테레오스코픽 영상 데이터 전송 장치 및 방법
US8271544B2 (en) 2009-05-01 2012-09-18 Creative Technology Ltd Data file having more than one mode of operation
US8358365B2 (en) 2009-05-01 2013-01-22 Samsung Electronics Co., Ltd. Photo detecting device and image pickup device and method thereon
DE102009003110A1 (de) 2009-05-14 2010-11-18 Robert Bosch Gmbh Bildverarbeitungsverfahren zur Bestimmung von Tiefeninformation aus wenigstens zwei mittels eines Stereokamerasystems aufgenommenen Eingangsbildern
US8203633B2 (en) 2009-05-27 2012-06-19 Omnivision Technologies, Inc. Four-channel color filter array pattern
US10091439B2 (en) 2009-06-03 2018-10-02 Flir Systems, Inc. Imager with array of multiple infrared imaging modules
KR20100130423A (ko) 2009-06-03 2010-12-13 삼성전자주식회사 웨이퍼-레벨 렌즈 모듈 및 이를 구비하는 촬상 모듈
US8766808B2 (en) 2010-03-09 2014-07-01 Flir Systems, Inc. Imager with multiple sensor arrays
US8745677B2 (en) 2009-06-12 2014-06-03 Cygnus Broadband, Inc. Systems and methods for prioritization of data for intelligent discard in a communication network
CN101931742B (zh) 2009-06-18 2013-04-24 鸿富锦精密工业(深圳)有限公司 影像感测模组及取像模组
US20100321640A1 (en) 2009-06-22 2010-12-23 Industrial Technology Research Institute Projection display chip
JP5254893B2 (ja) 2009-06-26 2013-08-07 キヤノン株式会社 画像変換方法及び装置並びにパターン識別方法及び装置
WO2011008443A2 (en) 2009-06-29 2011-01-20 Lensvector Inc. Wafer level camera module with active optical element
US8208746B2 (en) 2009-06-29 2012-06-26 DigitalOptics Corporation Europe Limited Adaptive PSF estimation technique using a sharp preview and a blurred image
US20100328456A1 (en) * 2009-06-30 2010-12-30 Nokia Corporation Lenslet camera parallax correction using distance information
JP2011030184A (ja) 2009-07-01 2011-02-10 Sony Corp 画像処理装置、及び、画像処理方法
US8212197B2 (en) 2009-07-02 2012-07-03 Xerox Corporation Image sensor with integration time compensation
JP2011017764A (ja) 2009-07-07 2011-01-27 Konica Minolta Opto Inc 撮像レンズ,撮像装置及び携帯端末
US8203465B2 (en) * 2009-07-13 2012-06-19 The Boeing Company Filtering aircraft traffic for display to a pilot
US8345144B1 (en) 2009-07-15 2013-01-01 Adobe Systems Incorporated Methods and apparatus for rich image capture with focused plenoptic cameras
US20110019243A1 (en) 2009-07-21 2011-01-27 Constant Jr Henry J Stereoscopic form reader
CN101964866B (zh) 2009-07-24 2013-03-20 鸿富锦精密工业(深圳)有限公司 计算摄像型数码相机
GB0912970D0 (en) 2009-07-27 2009-09-02 St Microelectronics Res & Dev Improvements in or relating to a sensor and sensor system for a camera
US20110025830A1 (en) 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation
US20110032341A1 (en) 2009-08-04 2011-02-10 Ignatov Artem Konstantinovich Method and system to transform stereo content
US8577183B2 (en) 2009-08-05 2013-11-05 Raytheon Company Resolution on demand
CN102483511B (zh) 2009-08-11 2014-11-12 乙太精密有限公司 用于将透镜与光学系统对准的方法和设备
CA2771018C (en) 2009-08-14 2017-06-13 Genesis Group Inc. Real-time image and video matting
JP2011044801A (ja) 2009-08-19 2011-03-03 Toshiba Corp 画像処理装置
US8154632B2 (en) 2009-08-24 2012-04-10 Lifesize Communications, Inc. Detection of defective pixels in an image sensor
KR101680300B1 (ko) 2009-08-31 2016-11-28 삼성전자주식회사 액체 렌즈 및 그 제조방법
US9274699B2 (en) 2009-09-03 2016-03-01 Obscura Digital User interface for a large scale multi-user, multi-touch system
US8411146B2 (en) 2009-09-04 2013-04-02 Lockheed Martin Corporation Single camera color and infrared polarimetric imaging
EP2476248A1 (en) 2009-09-07 2012-07-18 Nokia Corp. An apparatus
FR2950153B1 (fr) 2009-09-15 2011-12-23 Commissariat Energie Atomique Dispositif optique a membrane deformable a actionnement piezoelectrique
US20140076336A1 (en) 2009-09-17 2014-03-20 Ascentia Health, Inc. Ear insert for relief of tmj discomfort and headaches
US9497386B1 (en) 2009-09-22 2016-11-15 Altia Systems Inc. Multi-imager video camera with automatic exposure control
KR101727094B1 (ko) 2009-10-02 2017-04-17 코닌클리케 필립스 엔.브이. 3d 비디오에서 추가 뷰들을 생성하기 위한 뷰포인트들을 선택하는 방법
DE102009049387B4 (de) 2009-10-14 2016-05-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Bildverarbeitungsvorrichtung und Verfahren zur optischen Abbildung
EP2499829B1 (en) 2009-10-14 2019-04-17 Dolby International AB Methods and devices for depth map processing
US8199165B2 (en) 2009-10-14 2012-06-12 Hewlett-Packard Development Company, L.P. Methods and systems for object segmentation in digital images
US8502909B2 (en) 2009-10-19 2013-08-06 Pixar Super light-field lens
US20110207074A1 (en) 2009-10-26 2011-08-25 Olaf Andrew Hall-Holt Dental imaging system and method
US9122066B2 (en) 2009-10-30 2015-09-01 Hewlett-Packard Development Company, L.P. Stereo display systems
WO2011053711A1 (en) 2009-10-30 2011-05-05 Invisage Technologies, Inc. Systems and methods for color binning
WO2011055655A1 (ja) 2009-11-05 2011-05-12 コニカミノルタオプト株式会社 撮像装置、光学ユニット、ウエハレンズ積層体及びウエハレンズ積層体の製造方法
WO2011058876A1 (ja) 2009-11-13 2011-05-19 富士フイルム株式会社 測距装置、測距方法、測距プログラムおよび測距システムならびに撮像装置
TR200908688A2 (tr) * 2009-11-17 2011-06-21 Vestel Elektron�K San. Ve T�C. A.�. Çoklu görüntülü videoda derinlik dengelemeli gürültü azaltımı.
JP5399215B2 (ja) 2009-11-18 2014-01-29 シャープ株式会社 多眼カメラ装置および電子情報機器
US8643701B2 (en) 2009-11-18 2014-02-04 University Of Illinois At Urbana-Champaign System for executing 3D propagation for depth image-based rendering
WO2011066275A2 (en) 2009-11-25 2011-06-03 Massachusetts Institute Of Technology Actively addressable aperture light field camera
KR101608970B1 (ko) 2009-11-27 2016-04-05 삼성전자주식회사 광 필드 데이터를 이용한 영상 처리 장치 및 방법
US8730338B2 (en) 2009-12-01 2014-05-20 Nokia Corporation Set of camera modules hinged on a body and functionally connected to a single actuator
US8400555B1 (en) 2009-12-01 2013-03-19 Adobe Systems Incorporated Focused plenoptic camera employing microlenses with different focal lengths
JP5446797B2 (ja) 2009-12-04 2014-03-19 株式会社リコー 撮像装置
US8446492B2 (en) 2009-12-10 2013-05-21 Honda Motor Co., Ltd. Image capturing device, method of searching for occlusion region, and program
JP5387377B2 (ja) 2009-12-14 2014-01-15 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
WO2011081646A1 (en) 2009-12-15 2011-07-07 Thomson Licensing Stereo-image quality and disparity/depth indications
KR101281961B1 (ko) 2009-12-21 2013-07-03 한국전자통신연구원 깊이 영상 편집 방법 및 장치
US20110153248A1 (en) 2009-12-23 2011-06-23 Yeming Gu Ophthalmic quality metric system
WO2011078244A1 (ja) 2009-12-24 2011-06-30 シャープ株式会社 多眼撮像装置および多眼撮像方法
JP4983905B2 (ja) 2009-12-25 2012-07-25 カシオ計算機株式会社 撮像装置、3dモデリングデータ生成方法、および、プログラム
KR101643607B1 (ko) 2009-12-30 2016-08-10 삼성전자주식회사 영상 데이터 생성 방법 및 장치
CN102117576A (zh) 2009-12-31 2011-07-06 鸿富锦精密工业(深圳)有限公司 电子相框
CN102118551A (zh) 2009-12-31 2011-07-06 鸿富锦精密工业(深圳)有限公司 成像装置
KR101214536B1 (ko) * 2010-01-12 2013-01-10 삼성전자주식회사 뎁스 정보를 이용한 아웃 포커스 수행 방법 및 이를 적용한 카메라
CN102131044B (zh) 2010-01-20 2014-03-26 鸿富锦精密工业(深圳)有限公司 相机模组
WO2011097508A2 (en) 2010-02-04 2011-08-11 University Of Southern California Combined spectral and polarimetry imaging and diagnostics
US8593512B2 (en) 2010-02-05 2013-11-26 Creative Technology Ltd Device and method for scanning an object on a working surface
US8326142B2 (en) 2010-02-12 2012-12-04 Sri International Optical image systems
JP5387856B2 (ja) 2010-02-16 2014-01-15 ソニー株式会社 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置
US8648918B2 (en) 2010-02-18 2014-02-11 Sony Corporation Method and system for obtaining a point spread function using motion information
EP2537332A1 (en) 2010-02-19 2012-12-26 Dual Aperture, Inc. Processing multi-aperture image data
KR101802238B1 (ko) 2010-02-23 2017-11-29 삼성전자주식회사 휴대용 단말기에서 입체 영상 데이터를 생성하기 위한 장치 및 방법
WO2011105814A2 (ko) 2010-02-23 2011-09-01 삼성전자 주식회사 다시점 정지 영상 서비스 제공 방법 및 그 장치, 다시점 정지 영상 서비스 수신 방법 및 그 장치
WO2011106797A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Projection triggering through an external marker in an augmented reality eyepiece
JP5776173B2 (ja) 2010-03-01 2015-09-09 株式会社リコー 撮像装置及び距離測定装置
US8860833B2 (en) 2010-03-03 2014-10-14 Adobe Systems Incorporated Blended rendering of focused plenoptic camera data
US20110222757A1 (en) 2010-03-10 2011-09-15 Gbo 3D Technology Pte. Ltd. Systems and methods for 2D image and spatial data capture for 3D stereo imaging
US20110221950A1 (en) 2010-03-12 2011-09-15 Doeke Jolt Oostra Camera device, wafer scale package
JP2013522681A (ja) 2010-03-17 2013-06-13 ペリカン イメージング コーポレーション 結像レンズアレイのマスタを作製する方法
US8736733B2 (en) 2010-03-19 2014-05-27 Invisage Technologies, Inc. Dark current reduction in image sensors via dynamic electrical biasing
CN102428707B (zh) 2010-03-19 2015-03-11 松下电器产业株式会社 立体视用图像对位装置和立体视用图像对位方法
US8310538B2 (en) 2010-03-19 2012-11-13 Fujifilm Corporation Imaging apparatus, method, program, and recording medium used in the program
US8558903B2 (en) 2010-03-25 2013-10-15 Apple Inc. Accelerometer / gyro-facilitated video stabilization
US8285033B2 (en) 2010-04-01 2012-10-09 Seiko Epson Corporation Bi-affinity filter: a bilateral type filter for color images
US8896668B2 (en) 2010-04-05 2014-11-25 Qualcomm Incorporated Combining data from multiple image sensors
US20110242342A1 (en) 2010-04-05 2011-10-06 Qualcomm Incorporated Combining data from multiple image sensors
US8600186B2 (en) 2010-04-26 2013-12-03 City University Of Hong Kong Well focused catadioptric image acquisition
US9053573B2 (en) 2010-04-29 2015-06-09 Personify, Inc. Systems and methods for generating a virtual camera viewpoint for an image
US20110267264A1 (en) 2010-04-29 2011-11-03 Mccarthy John Display system with multiple optical sensors
US20130250150A1 (en) 2010-05-03 2013-09-26 Michael R. Malone Devices and methods for high-resolution image and video capture
US9256974B1 (en) 2010-05-04 2016-02-09 Stephen P Hines 3-D motion-parallax portable display software application
US8885890B2 (en) 2010-05-07 2014-11-11 Microsoft Corporation Depth map confidence filtering
KR101756910B1 (ko) 2010-05-11 2017-07-26 삼성전자주식회사 감쇠 패턴을 포함하는 마스크를 이용한 광 필드 영상 처리 장치 및 방법
KR20110124473A (ko) 2010-05-11 2011-11-17 삼성전자주식회사 다중시점 영상을 위한 3차원 영상 생성 장치 및 방법
JP5545016B2 (ja) 2010-05-12 2014-07-09 ソニー株式会社 撮像装置
US20130147979A1 (en) 2010-05-12 2013-06-13 Pelican Imaging Corporation Systems and methods for extending dynamic range of imager arrays by controlling pixel analog gain
WO2011142774A1 (en) 2010-05-14 2011-11-17 Omnivision Technologies, Inc. Alternative color image array and associated methods
US8576293B2 (en) 2010-05-18 2013-11-05 Aptina Imaging Corporation Multi-channel imager
SG176327A1 (en) 2010-05-20 2011-12-29 Sony Corp A system and method of image processing
US8602887B2 (en) 2010-06-03 2013-12-10 Microsoft Corporation Synthesis of information from multiple audiovisual sources
US20120062697A1 (en) 2010-06-09 2012-03-15 Chemimage Corporation Hyperspectral imaging sensor for tracking moving targets
DE102010024666A1 (de) 2010-06-18 2011-12-22 Hella Kgaa Hueck & Co. Verfahren zur optischen Selbstdiagnose eines Kamerasystems und Vorrichtung zur Durchführung eines solchen Verfahrens
US20110310980A1 (en) 2010-06-22 2011-12-22 Qualcomm Mems Technologies, Inc. Apparatus and methods for processing frames of video data across a display interface using a block-based encoding scheme and a tag id
CN102184720A (zh) 2010-06-22 2011-09-14 上海盈方微电子有限公司 一种支持多层多格式输入的图像合成显示的方法及装置
KR20120000485A (ko) 2010-06-25 2012-01-02 삼성전자주식회사 예측 모드를 이용한 깊이 영상 부호화 장치 및 방법
CN101883291B (zh) 2010-06-29 2012-12-19 上海大学 感兴趣区域增强的视点绘制方法
EP2403234A1 (en) 2010-06-29 2012-01-04 Koninklijke Philips Electronics N.V. Method and system for constructing a compound image from data obtained by an array of image capturing devices
US8493432B2 (en) 2010-06-29 2013-07-23 Mitsubishi Electric Research Laboratories, Inc. Digital refocusing for wide-angle images using axial-cone cameras
JP5492300B2 (ja) 2010-06-30 2014-05-14 富士フイルム株式会社 立体視表示用撮像の際の撮像領域内の障害物を判定する装置、方法およびプログラム
JP5392199B2 (ja) 2010-07-09 2014-01-22 ソニー株式会社 画像処理装置および方法
US9406132B2 (en) 2010-07-16 2016-08-02 Qualcomm Incorporated Vision-based quality metric for three dimensional video
GB2482022A (en) 2010-07-16 2012-01-18 St Microelectronics Res & Dev Method for measuring resolution and aberration of lens and sensor
US8386964B2 (en) 2010-07-21 2013-02-26 Microsoft Corporation Interactive image matting
US20120019700A1 (en) 2010-07-26 2012-01-26 American Technologies Network Corporation Optical system with automatic mixing of daylight and thermal vision digital video signals
US20120026342A1 (en) 2010-07-27 2012-02-02 Xiaoguang Yu Electronic system communicating with image sensor
US20120026451A1 (en) 2010-07-29 2012-02-02 Lensvector Inc. Tunable liquid crystal lens with single sided contacts
US8605136B2 (en) 2010-08-10 2013-12-10 Sony Corporation 2D to 3D user interface content data conversion
CN102375199B (zh) 2010-08-11 2015-06-03 鸿富锦精密工业(深圳)有限公司 相机模组
US8428342B2 (en) 2010-08-12 2013-04-23 At&T Intellectual Property I, L.P. Apparatus and method for providing three dimensional media content
US8836793B1 (en) 2010-08-13 2014-09-16 Opto-Knowledge Systems, Inc. True color night vision (TCNV) fusion
US8493482B2 (en) 2010-08-18 2013-07-23 Apple Inc. Dual image sensor image processing system and method
US8665341B2 (en) 2010-08-27 2014-03-04 Adobe Systems Incorporated Methods and apparatus for rendering output images with simulated artistic effects from focused plenoptic camera data
US8724000B2 (en) 2010-08-27 2014-05-13 Adobe Systems Incorporated Methods and apparatus for super-resolution in integral photography
US8749694B2 (en) 2010-08-27 2014-06-10 Adobe Systems Incorporated Methods and apparatus for rendering focused plenoptic camera data using super-resolved demosaicing
GB2483434A (en) 2010-08-31 2012-03-14 Sony Corp Detecting stereoscopic disparity by comparison with subset of pixel change points
JP5140210B2 (ja) 2010-08-31 2013-02-06 パナソニック株式会社 撮影装置および画像処理方法
US20120056982A1 (en) 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision
US9013550B2 (en) 2010-09-09 2015-04-21 Qualcomm Incorporated Online reference generation and tracking for multi-user augmented reality
WO2012036902A1 (en) 2010-09-14 2012-03-22 Thomson Licensing Compression methods and apparatus for occlusion data
US9013634B2 (en) 2010-09-14 2015-04-21 Adobe Systems Incorporated Methods and apparatus for video completion
US9565415B2 (en) * 2010-09-14 2017-02-07 Thomson Licensing Method of presenting three-dimensional content with disparity adjustments
US8780251B2 (en) 2010-09-20 2014-07-15 Canon Kabushiki Kaisha Image capture with focus adjustment
JP5392415B2 (ja) 2010-09-22 2014-01-22 富士通株式会社 ステレオ画像生成装置、ステレオ画像生成方法及びステレオ画像生成用コンピュータプログラム
US20120086803A1 (en) 2010-10-11 2012-04-12 Malzbender Thomas G Method and system for distance estimation using projected symbol sequences
US20140192238A1 (en) 2010-10-24 2014-07-10 Linx Computational Imaging Ltd. System and Method for Imaging and Image Processing
US8531535B2 (en) 2010-10-28 2013-09-10 Google Inc. Methods and systems for processing a video for stabilization and retargeting
JP5657343B2 (ja) 2010-10-28 2015-01-21 株式会社ザクティ 電子機器
US9876953B2 (en) 2010-10-29 2018-01-23 Ecole Polytechnique Federale De Lausanne (Epfl) Omnidirectional sensor array system
US9137503B2 (en) 2010-11-03 2015-09-15 Sony Corporation Lens and color filter arrangement, super-resolution camera system and method
US9065991B2 (en) 2010-11-04 2015-06-23 Lensvector Inc. Methods of adjustment free manufacture of focus free camera modules
US20120113232A1 (en) 2010-11-10 2012-05-10 Sony Pictures Technologies Inc. Multiple camera system and method for selectable interaxial separation
WO2012064106A2 (en) 2010-11-12 2012-05-18 Samsung Electronics Co., Ltd. Method and apparatus for video stabilization by compensating for view direction of camera
MY150361A (en) 2010-12-03 2013-12-31 Mimos Berhad Method of image segmentation using intensity and depth information
US20130258067A1 (en) 2010-12-08 2013-10-03 Thomson Licensing System and method for trinocular depth acquisition with triangular sensor
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
JP5963422B2 (ja) 2010-12-17 2016-08-03 キヤノン株式会社 撮像装置、表示装置、コンピュータプログラムおよび立体像表示システム
US9177381B2 (en) * 2010-12-22 2015-11-03 Nani Holdings IP, LLC Depth estimate determination, systems and methods
US8682107B2 (en) 2010-12-22 2014-03-25 Electronics And Telecommunications Research Institute Apparatus and method for creating 3D content for oriental painting
US8565709B2 (en) 2010-12-30 2013-10-22 Apple Inc. Digital signal filter
TWI535292B (zh) 2010-12-31 2016-05-21 派力肯影像公司 使用具有異質的成像器的整體式相機陣列的影像捕捉和處理
JP5699609B2 (ja) 2011-01-06 2015-04-15 ソニー株式会社 画像処理装置および画像処理方法
EP2666048A4 (en) 2011-01-20 2014-06-04 Fivefocal Llc PASSIV ATHERMALIZED INFRARED IMAGING SYSTEM AND MANUFACTURING METHOD THEREFOR
US8717467B2 (en) 2011-01-25 2014-05-06 Aptina Imaging Corporation Imaging systems with array cameras for depth sensing
US8581995B2 (en) 2011-01-25 2013-11-12 Aptina Imaging Corporation Method and apparatus for parallax correction in fused array imaging systems
JP5594477B2 (ja) * 2011-01-26 2014-09-24 Nltテクノロジー株式会社 画像表示装置、画像表示方法、及びプログラム
EP2668617A1 (en) 2011-01-27 2013-12-04 Metaio GmbH Method for determining correspondences between a first and a second image, and method for determining the pose of a camera
US20120200726A1 (en) 2011-02-09 2012-08-09 Research In Motion Limited Method of Controlling the Depth of Field for a Small Sensor Camera Using an Extension for EDOF
CA2767023C (en) 2011-02-09 2014-09-09 Research In Motion Limited Increased low light sensitivity for image sensors by combining quantum dot sensitivity to visible and infrared light
US8698885B2 (en) 2011-02-14 2014-04-15 Intuitive Surgical Operations, Inc. Methods and apparatus for demosaicing images with highly correlated color channels
US20140176592A1 (en) 2011-02-15 2014-06-26 Lytro, Inc. Configuring two-dimensional image processing based on light-field parameters
US8406548B2 (en) 2011-02-28 2013-03-26 Sony Corporation Method and apparatus for performing a blur rendering process on an image
EP2683166B1 (en) 2011-02-28 2017-12-13 Fujifilm Corporation Color imaging device
US8537245B2 (en) 2011-03-04 2013-09-17 Hand Held Products, Inc. Imaging and decoding device with quantum dot imager
CA2769358C (en) 2011-03-08 2016-06-07 Research In Motion Limited Quantum dot image sensor with dummy pixels used for intensity calculations
US9565449B2 (en) 2011-03-10 2017-02-07 Qualcomm Incorporated Coding multiview video plus depth content
KR101792501B1 (ko) 2011-03-16 2017-11-21 한국전자통신연구원 특징기반의 스테레오 매칭 방법 및 장치
US8824821B2 (en) 2011-03-28 2014-09-02 Sony Corporation Method and apparatus for performing user inspired visual effects rendering on an image
US20120249853A1 (en) 2011-03-28 2012-10-04 Marc Krolczyk Digital camera for reviewing related images
US8422770B2 (en) 2011-03-30 2013-04-16 Mckesson Financial Holdings Method, apparatus and computer program product for displaying normalized medical images
US9030528B2 (en) 2011-04-04 2015-05-12 Apple Inc. Multi-zone imaging sensor and lens array
FR2974449A1 (fr) 2011-04-22 2012-10-26 Commissariat Energie Atomique Circuit integre imageur et dispositif de capture d'images stereoscopiques
US20120274626A1 (en) 2011-04-29 2012-11-01 Himax Media Solutions, Inc. Stereoscopic Image Generating Apparatus and Method
EP2705495B1 (en) 2011-05-04 2015-07-08 Sony Ericsson Mobile Communications AB Method, graphical user interface, and computer program product for processing of a light field image
KR101973822B1 (ko) 2011-05-11 2019-04-29 포토네이션 케이맨 리미티드 어레이 카메라 이미지 데이터를 송신 및 수신하기 위한 시스템들 및 방법들
US8843346B2 (en) 2011-05-13 2014-09-23 Amazon Technologies, Inc. Using spatial information with device interaction
US8629901B2 (en) 2011-05-19 2014-01-14 National Taiwan University System and method of revising depth of a 3D image pair
US20120293489A1 (en) 2011-05-20 2012-11-22 Himax Technologies Limited Nonlinear depth remapping system and method thereof
JP5797016B2 (ja) 2011-05-30 2015-10-21 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP5762142B2 (ja) 2011-05-31 2015-08-12 キヤノン株式会社 撮像装置、画像処理装置およびその方法
US8648919B2 (en) 2011-06-06 2014-02-11 Apple Inc. Methods and systems for image stabilization
US8823813B2 (en) 2011-06-06 2014-09-02 Apple Inc. Correcting rolling shutter using image stabilization
CN103609102B (zh) 2011-06-15 2016-09-28 微软技术许可有限责任公司 高分辨率多光谱图像捕捉
JP2013005259A (ja) 2011-06-17 2013-01-07 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP2014521117A (ja) 2011-06-28 2014-08-25 ペリカン イメージング コーポレイション アレイカメラで使用するための光学配列
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
US8773513B2 (en) 2011-07-01 2014-07-08 Seiko Epson Corporation Context and epsilon stereo constrained correspondence matching
US9300946B2 (en) 2011-07-08 2016-03-29 Personify, Inc. System and method for generating a depth map and fusing images from a camera array
JP5854673B2 (ja) * 2011-07-12 2016-02-09 キヤノン株式会社 固体撮像装置
JP5780865B2 (ja) 2011-07-14 2015-09-16 キヤノン株式会社 画像処理装置、撮像システム、画像処理システム
JP2013024886A (ja) 2011-07-14 2013-02-04 Sanyo Electric Co Ltd 撮像装置
WO2013012335A1 (en) * 2011-07-21 2013-01-24 Ziv Attar Imaging device for motion detection of objects in a scene, and method for motion detection of objects in a scene
US9363535B2 (en) 2011-07-22 2016-06-07 Qualcomm Incorporated Coding motion depth maps with depth range variation
US9264689B2 (en) 2011-08-04 2016-02-16 Semiconductor Components Industries, Llc Systems and methods for color compensation in multi-view video
JP2014529214A (ja) 2011-08-09 2014-10-30 サムスン エレクトロニクス カンパニー リミテッド 多視点ビデオデータの深度マップ符号化方法及びその装置、復号化方法及びその装置
US8432435B2 (en) 2011-08-10 2013-04-30 Seiko Epson Corporation Ray image modeling for fast catadioptric light field rendering
US8866951B2 (en) 2011-08-24 2014-10-21 Aptina Imaging Corporation Super-resolution imaging systems
US9009952B2 (en) 2011-08-29 2015-04-21 Asm Technology Singapore Pte. Ltd. Apparatus for assembling a lens module and an image sensor to form a camera module, and a method of assembling the same
US8704895B2 (en) 2011-08-29 2014-04-22 Qualcomm Incorporated Fast calibration of displays using spectral-based colorimetrically calibrated multicolor camera
WO2013043751A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super resolution processing using pixel apertures
US9100639B2 (en) 2011-09-20 2015-08-04 Panasonic Intellectual Property Management Co., Ltd. Light field imaging device and image processing device
CN103828361B (zh) 2011-09-21 2015-04-29 富士胶片株式会社 图像处理装置、方法,立体图像获取装置,便携式电子设备,打印机和立体图像播放器装置
US8724893B2 (en) 2011-09-27 2014-05-13 Thomson Licensing Method and system for color look up table generation
US8908083B2 (en) 2011-09-28 2014-12-09 Apple Inc. Dynamic autofocus operations
IN2014CN02708A (ko) 2011-09-28 2015-08-07 Pelican Imaging Corp
JP5831105B2 (ja) 2011-09-30 2015-12-09 ソニー株式会社 撮像装置及び撮像方法
SG11201401363UA (en) 2011-10-11 2014-05-29 Pelican Imaging Corp Lens stack arrays including adaptive optical elements
EP2582128A3 (en) 2011-10-12 2013-06-19 Canon Kabushiki Kaisha Image-capturing device
US20130107061A1 (en) 2011-10-31 2013-05-02 Ankit Kumar Multi-resolution ip camera
JP5149435B1 (ja) 2011-11-04 2013-02-20 株式会社東芝 映像処理装置および映像処理方法
US9692991B2 (en) 2011-11-04 2017-06-27 Qualcomm Incorporated Multispectral imaging system
EP2590138B1 (en) 2011-11-07 2019-09-11 Flir Systems AB Gas visualization arrangements, devices, and methods
WO2013072875A2 (en) 2011-11-15 2013-05-23 Technion Research & Development Foundation Ltd. Method and system for transmitting light
US20130121559A1 (en) 2011-11-16 2013-05-16 Sharp Laboratories Of America, Inc. Mobile device with three dimensional augmented reality
US20130127988A1 (en) 2011-11-17 2013-05-23 Sen Wang Modifying the viewpoint of a digital image
US9661310B2 (en) 2011-11-28 2017-05-23 ArcSoft Hanzhou Co., Ltd. Image depth recovering method and stereo image fetching device thereof
JP6019568B2 (ja) 2011-11-28 2016-11-02 ソニー株式会社 画像処理装置および方法、記録媒体、並びに、プログラム
EP2600316A1 (en) 2011-11-29 2013-06-05 Inria Institut National de Recherche en Informatique et en Automatique Method, system and software program for shooting and editing a film comprising at least one image of a 3D computer-generated animation
KR101862404B1 (ko) 2011-12-09 2018-05-29 엘지이노텍 주식회사 스테레오 영상의 노이즈 제거장치 및 방법
US9117295B2 (en) * 2011-12-20 2015-08-25 Adobe Systems Incorporated Refinement of depth maps by fusion of multiple estimates
WO2013099169A1 (ja) 2011-12-27 2013-07-04 パナソニック株式会社 ステレオ撮影装置
US8941722B2 (en) 2012-01-03 2015-01-27 Sony Corporation Automatic intelligent focus control of video
WO2013119706A1 (en) 2012-02-06 2013-08-15 Pelican Imaging Corporation Systems and methods for extending dynamic range of imager arrays by controlling pixel analog gain
US9172889B2 (en) 2012-02-09 2015-10-27 Semiconductor Components Industries, Llc Imaging systems and methods for generating auto-exposed high-dynamic-range images
WO2013126578A1 (en) 2012-02-21 2013-08-29 Pelican Imaging Corporation Systems and methods for the manipulation of captured light field image data
JP5860304B2 (ja) 2012-02-23 2016-02-16 キヤノン株式会社 撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP5924978B2 (ja) 2012-02-28 2016-05-25 キヤノン株式会社 画像処理装置および画像処理方法
JP6112824B2 (ja) 2012-02-28 2017-04-12 キヤノン株式会社 画像処理方法および装置、プログラム。
US8831377B2 (en) 2012-02-28 2014-09-09 Lytro, Inc. Compensating for variation in microlens position during light-field image processing
EP2637139A1 (en) 2012-03-05 2013-09-11 Thomson Licensing Method and apparatus for bi-layer segmentation
CN104169965B (zh) 2012-04-02 2018-07-03 英特尔公司 用于多拍摄装置系统中图像变形参数的运行时调整的系统、方法和计算机程序产品
CN104350408B (zh) 2012-04-13 2018-04-06 自动化工程机械公司 使用连续运动扫描和时间插值的主动对准
WO2013158636A1 (en) 2012-04-16 2013-10-24 Azizian Mahdi Dual-mode stereo imaging system for tracking and control in surgical and interventional procedures
US8994845B2 (en) 2012-04-27 2015-03-31 Blackberry Limited System and method of adjusting a camera based on image data
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
CN104335246B (zh) 2012-05-01 2018-09-04 Fotonation开曼有限公司 用pi滤光器群组来形成图案的相机模块
US20150085073A1 (en) 2012-05-02 2015-03-26 Koninklijke Philips N.V. Quality metric for processing 3d video
WO2013169671A1 (en) 2012-05-09 2013-11-14 Lytro, Inc. Optimization of optical systems for improved light field capture and manipulation
US9846960B2 (en) 2012-05-31 2017-12-19 Microsoft Technology Licensing, Llc Automated camera array calibration
US9179126B2 (en) 2012-06-01 2015-11-03 Ostendo Technologies, Inc. Spatio-temporal light field cameras
EP2859528A4 (en) 2012-06-08 2016-02-10 Nokia Technologies Oy MULTI-IMAGE IMAGE CALIBRATION DEVICE
EP2677734A3 (en) 2012-06-18 2016-01-13 Sony Mobile Communications AB Array camera imaging system and method
JP5929553B2 (ja) 2012-06-28 2016-06-08 ソニー株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
WO2014005123A1 (en) 2012-06-28 2014-01-03 Pelican Imaging Corporation Systems and methods for detecting defective camera arrays, optic arrays, and sensors
US8896594B2 (en) 2012-06-30 2014-11-25 Microsoft Corporation Depth sensing with depth-adaptive illumination
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
US9147251B2 (en) 2012-08-03 2015-09-29 Flyby Media, Inc. Systems and methods for efficient 3D tracking of weakly textured planar surfaces for augmented reality applications
US8988566B2 (en) 2012-08-09 2015-03-24 Omnivision Technologies, Inc. Lens array for partitioned image sensor having color filters
WO2014031795A1 (en) 2012-08-21 2014-02-27 Pelican Imaging Corporation Systems and methods for parallax detection and correction in images captured using array cameras
US20140055632A1 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
CN104584545B (zh) 2012-08-31 2017-05-31 索尼公司 图像处理装置、图像处理方法、以及信息处理装置
US9214013B2 (en) 2012-09-14 2015-12-15 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
US9373088B2 (en) 2012-09-17 2016-06-21 The Board Of Trustees Of The Leland Stanford Junior University Brain machine interface utilizing a discrete action state decoder in parallel with a continuous decoder for a neural prosthetic device
US9143673B2 (en) 2012-09-19 2015-09-22 Google Inc. Imaging device with a plurality of pixel arrays
EP2901671A4 (en) 2012-09-28 2016-08-24 Pelican Imaging Corp CREATING IMAGES FROM LIGHT FIELDS USING VIRTUAL POINTS OF VIEW
TW201415879A (zh) 2012-10-12 2014-04-16 Wintek Corp 影像擷取裝置
WO2014070927A2 (en) 2012-10-31 2014-05-08 Invisage Technologies, Inc. Expanded-field-of-view image and video capture
WO2014078443A1 (en) 2012-11-13 2014-05-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
KR101954192B1 (ko) 2012-11-15 2019-03-05 엘지전자 주식회사 어레이 카메라, 휴대 단말기 및 그 동작 방법
US9076205B2 (en) 2012-11-19 2015-07-07 Adobe Systems Incorporated Edge direction and curve based image de-blurring
US9924142B2 (en) 2012-11-21 2018-03-20 Omnivision Technologies, Inc. Camera array systems including at least one bayer type camera and associated methods
CN105556944B (zh) 2012-11-28 2019-03-08 核心光电有限公司 多孔径成像系统和方法
US9001226B1 (en) 2012-12-04 2015-04-07 Lytro, Inc. Capturing and relighting images using multiple devices
US9088369B2 (en) 2012-12-28 2015-07-21 Synergy Microwave Corporation Self injection locked phase locked looped optoelectronic oscillator
US20140183334A1 (en) 2013-01-03 2014-07-03 Visera Technologies Company Limited Image sensor for light field device and manufacturing method thereof
US9568713B2 (en) 2013-01-05 2017-02-14 Light Labs Inc. Methods and apparatus for using multiple optical chains in parallel to support separate color-capture
KR20140094395A (ko) 2013-01-22 2014-07-30 삼성전자주식회사 복수 개의 마이크로렌즈를 사용하여 촬영하는 촬영 장치 및 그 촬영 방법
US9769365B1 (en) 2013-02-15 2017-09-19 Red.Com, Inc. Dense field imaging
US9462164B2 (en) 2013-02-21 2016-10-04 Pelican Imaging Corporation Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information
US9374512B2 (en) 2013-02-24 2016-06-21 Pelican Imaging Corporation Thin form factor computational array cameras and modular array cameras
US20150002734A1 (en) 2013-07-01 2015-01-01 Motorola Mobility Llc Electronic Device with Modulated Light Flash Operation for Rolling Shutter Image Sensor
US9638883B1 (en) 2013-03-04 2017-05-02 Fotonation Cayman Limited Passive alignment of array camera modules constructed from lens stack arrays and sensors based upon alignment information obtained during manufacture of array camera modules using an active alignment process
WO2014138697A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for high dynamic range imaging using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9521416B1 (en) 2013-03-11 2016-12-13 Kip Peli P1 Lp Systems and methods for image data compression
WO2014160142A1 (en) 2013-03-13 2014-10-02 Pelican Imaging Corporation Systems and methods for using alignment to increase sampling diversity of cameras in an array camera module
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
US9519972B2 (en) 2013-03-13 2016-12-13 Kip Peli P1 Lp Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
WO2014164550A2 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation System and methods for calibration of an array camera
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
WO2014159779A1 (en) 2013-03-14 2014-10-02 Pelican Imaging Corporation Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US9100586B2 (en) 2013-03-14 2015-08-04 Pelican Imaging Corporation Systems and methods for photometric normalization in array cameras
US20140267286A1 (en) 2013-03-15 2014-09-18 Pelican Imaging Corporation Systems and Methods for Providing an Array Projector
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US9497370B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Array camera architecture implementing quantum dot color filters
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US9633442B2 (en) 2013-03-15 2017-04-25 Fotonation Cayman Limited Array cameras including an array camera module augmented with a separate camera
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
EP2973476A4 (en) 2013-03-15 2017-01-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
WO2014144157A1 (en) 2013-03-15 2014-09-18 Pelican Imaging Corporation Optical arrangements for use with an array camera
WO2014181220A1 (en) 2013-05-10 2014-11-13 Koninklijke Philips N.V. Method of encoding a video data signal for use with a multi-view rendering device
KR102103983B1 (ko) 2013-07-31 2020-04-23 삼성전자주식회사 시프트된 마이크로 렌즈 어레이를 구비하는 라이트 필드 영상 획득 장치
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
US20150098079A1 (en) 2013-10-09 2015-04-09 Hilti Aktiengesellschaft System and method for camera based position and orientation measurement
US20150104101A1 (en) 2013-10-14 2015-04-16 Apple Inc. Method and ui for z depth image segmentation
US9185276B2 (en) 2013-11-07 2015-11-10 Pelican Imaging Corporation Methods of manufacturing array camera modules incorporating independently aligned lens stacks
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
WO2015081279A1 (en) 2013-11-26 2015-06-04 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
US9979878B2 (en) 2014-02-21 2018-05-22 Light Labs Inc. Intuitive camera user interface methods and apparatus
JP6211435B2 (ja) 2014-02-26 2017-10-11 株式会社アドバンテスト 半導体装置の製造方法
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
WO2015149040A1 (en) 2014-03-28 2015-10-01 Dorin Panescu Quantitative three-dimensional imaging of surgical scenes
WO2015183824A1 (en) 2014-05-26 2015-12-03 Pelican Imaging Corporation Autofocus system for a conventional camera that uses depth information from an array camera
US9521319B2 (en) 2014-06-18 2016-12-13 Pelican Imaging Corporation Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor
US9992483B2 (en) 2014-09-03 2018-06-05 Intel Corporation Imaging architecture for depth camera mode with mode switching
JP2017531976A (ja) 2014-09-29 2017-10-26 フォトネイション ケイマン リミテッド アレイカメラを動的に較正するためのシステム及び方法
US11315321B2 (en) 2018-09-07 2022-04-26 Intel Corporation View dependent 3D reconstruction mechanism

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060054782A1 (en) 2004-08-25 2006-03-16 Olsen Richard I Apparatus for multiple camera devices and method of operating same
US20110080487A1 (en) 2008-05-20 2011-04-07 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US20110122308A1 (en) 2009-11-20 2011-05-26 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US20120012748A1 (en) 2010-05-12 2012-01-19 Pelican Imaging Corporation Architectures for imager arrays and array cameras

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11412158B2 (en) 2008-05-20 2022-08-09 Fotonation Limited Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US11423513B2 (en) 2010-12-14 2022-08-23 Fotonation Limited Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers
US11875475B2 (en) 2010-12-14 2024-01-16 Adeia Imaging Llc Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers
US11729365B2 (en) 2011-09-28 2023-08-15 Adela Imaging LLC Systems and methods for encoding image files containing depth maps stored as metadata
US11272161B2 (en) 2013-03-10 2022-03-08 Fotonation Limited System and methods for calibration of an array camera
US11570423B2 (en) 2013-03-10 2023-01-31 Adeia Imaging Llc System and methods for calibration of an array camera
US11699273B2 (en) 2019-09-17 2023-07-11 Intrinsic Innovation Llc Systems and methods for surface modeling using polarization cues
US11525906B2 (en) 2019-10-07 2022-12-13 Intrinsic Innovation Llc Systems and methods for augmentation of sensor systems and imaging systems with polarization
US11842495B2 (en) 2019-11-30 2023-12-12 Intrinsic Innovation Llc Systems and methods for transparent object segmentation using polarization cues
US11302012B2 (en) 2019-11-30 2022-04-12 Boston Polarimetrics, Inc. Systems and methods for transparent object segmentation using polarization cues
US11580667B2 (en) 2020-01-29 2023-02-14 Intrinsic Innovation Llc Systems and methods for characterizing object pose detection and measurement systems
US11797863B2 (en) 2020-01-30 2023-10-24 Intrinsic Innovation Llc Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11683594B2 (en) 2021-04-15 2023-06-20 Intrinsic Innovation Llc Systems and methods for camera exposure control
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Also Published As

Publication number Publication date
EP4296963A3 (en) 2024-03-27
CN107346061B (zh) 2020-04-24
CN107346061A (zh) 2017-11-14
US20140321712A1 (en) 2014-10-30
EP4296963A2 (en) 2023-12-27
US10380752B2 (en) 2019-08-13
US9147254B2 (en) 2015-09-29
US8780113B1 (en) 2014-07-15
US9129377B2 (en) 2015-09-08
EP2888720A4 (en) 2016-08-10
US9235900B2 (en) 2016-01-12
US20160267672A1 (en) 2016-09-15
EP2888720B1 (en) 2021-03-17
US20150049916A1 (en) 2015-02-19
US9123117B2 (en) 2015-09-01
US20150049915A1 (en) 2015-02-19
EP3869797B1 (en) 2023-07-19
AU2013305770A1 (en) 2015-02-26
WO2014031795A1 (en) 2014-02-27
US20150042766A1 (en) 2015-02-12
US9123118B2 (en) 2015-09-01
CN104662589A (zh) 2015-05-27
US20150042767A1 (en) 2015-02-12
SG11201500910RA (en) 2015-03-30
US20190362515A1 (en) 2019-11-28
US10909707B2 (en) 2021-02-02
EP3869797A1 (en) 2021-08-25
US9240049B2 (en) 2016-01-19
US8619082B1 (en) 2013-12-31
KR20150046113A (ko) 2015-04-29
CN104662589B (zh) 2017-08-04
EP2888720A1 (en) 2015-07-01
US20210150748A1 (en) 2021-05-20
US20150049917A1 (en) 2015-02-19
US9858673B2 (en) 2018-01-02
US20180211402A1 (en) 2018-07-26
CA2881131A1 (en) 2014-02-27

Similar Documents

Publication Publication Date Title
US10909707B2 (en) System and methods for measuring depth using an array of independently controllable cameras
US9800856B2 (en) Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9214013B2 (en) Systems and methods for correcting user identified artifacts in light field images
CN107077743B (zh) 用于阵列相机的动态校准的系统和方法
US9462164B2 (en) Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information
CN103069250B (zh) 三维测量设备、三维测量方法
CN110827338B (zh) 一种分区域自适应匹配的光场数据深度重建方法
Mustaniemi et al. Parallax correction via disparity estimation in a multi-aperture camera
Lu et al. Interpolation error as a quality metric for stereo: Robust, or not?

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right