KR102111181B1 - 어레이 카메라를 사용하여 포착된 영상에서의 시차 검출 및 보정을 위한 시스템 및 방법 - Google Patents
어레이 카메라를 사용하여 포착된 영상에서의 시차 검출 및 보정을 위한 시스템 및 방법 Download PDFInfo
- Publication number
- KR102111181B1 KR102111181B1 KR1020157006433A KR20157006433A KR102111181B1 KR 102111181 B1 KR102111181 B1 KR 102111181B1 KR 1020157006433 A KR1020157006433 A KR 1020157006433A KR 20157006433 A KR20157006433 A KR 20157006433A KR 102111181 B1 KR102111181 B1 KR 102111181B1
- Authority
- KR
- South Korea
- Prior art keywords
- images
- image
- series
- pixels
- depth
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0075—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/557—Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/232—Image signal generators using stereoscopic image cameras using a single 2D image sensor using fly-eye lenses, e.g. arrangements of circular lenses
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/13—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
- H04N23/16—Optical arrangements associated therewith, e.g. for beam-splitting or for colour correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/21—Indexing scheme for image data processing or generation, in general involving computational photography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10052—Images from lightfield camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0088—Synthesising a monoscopic image signal from stereoscopic images, e.g. synthesising a panoramic or high resolution monoscopic image
Abstract
본 발명의 실시예들에 따른 시스템은 어레이 카메라들을 사용하여 포착된 영상들에서 시차 검출 및 보정을 수행할 수 있다. 카메라들의 상이한 시점들로 인해, 시차는 장면의 포착된 영상들 내의 객체들의 위치의 변동을 초래한다. 본 발명의 실시예들에 따른 방법들은 어레이에서의 상이한 카메라들 사이의 시차로 인한 픽셀 불일치의 정확한 설명을 제공하고, 따라서 초해상도 처리(super-resolution processing)를 수행할 때 적절한 장면 의존적인 기하학적 시프트들이 포착된 영상들의 픽셀들에 적용될 수 있다. 몇몇 실시예들에서, 시차를 검출하는 것은 기준 시점으로부터의 영상에서의 픽셀 위치의 깊이를 추정하기 위해 영상들의 경쟁하는 서브셋들을 사용하는 것을 포함한다. 다수의 실시예들에서, 깊이 추정치들을 발생시키는 것은 다수의 스펙트럼 채널들에서의 픽셀들의 유사도를 고려한다. 특정의 실시예들에서, 깊이 추정치들을 발생시키는 것은 깊이 추정치들의 신뢰성을 나타내는 신뢰도 맵을 발생시키는 것을 포함한다.
Description
본 발명은 일반적으로 디지털 카메라에 관한 것이며, 보다 구체적으로는 어레이 카메라(array camera)들을 사용하여 포착된 영상에서의 시차(parallax)의 검출 및 보정에 관한 것이다.
장면의 양안 관찰(binocular viewing)은 각각의 눈의 상이한 시야들로 인해 장면의 2개의 약간 상이한 영상들을 생성한다. 양안 불일치(binocular disparity)(또는 시차(parallax))라고 하는 이 차이들은 깊이 지각(depth perception)의 주된 수단을 제공하는, 시각적 장면(visual scene)에서의 깊이를 계산하는 데 사용될 수 있는 정보를 제공한다. 입체 깊이 지각(stereoscopic depth perception)과 연관된 깊이의 느낌(impression)도 관측자가 움직이는 동안 하나의 눈으로만 장면을 볼 때와 같은 다른 조건들 하에서 획득될 수 있다. 장면 내의 객체들에 대한 깊이 정보를 획득하기 위해 관측된 시차가 이용될 수 있다. 기계 시각(machine vision)에서의 유사한 원리들이 깊이 정보를 수집하기 위해 사용될 수 있다.
일정 거리만큼 떨어져 있는 2개 이상의 카메라들이 동일한 장면의 사진들을 찍을 수 있고, 포착된 영상들은 일치하는 영상들의 부분들을 찾기 위해 2개 이상의 영상들의 픽셀들을 시프트(shift)시키는 것에 의해 비교될 수 있다. 객체가 상이한 카메라 뷰들 사이에서 시프트하는 양은 객체까지의 거리에 역비례하는 불일치(disparity)라고 불리운다. 다수의 영상들에서의 객체의 시프트를 검출하는 불일치 탐색은 카메라들 사이의 기준선 거리(baseline distance) 및 연관된 카메라들의 초점 거리(focal length)에 기초하여 객체까지의 거리를 계산하는 데 사용될 수 있다. 입체 3차원 영상들을 발생시키기 위해 2개 이상의 카메라들을 사용하는 접근 방법은 흔히 다시점 스테레오(multi-view stereo)라고 한다.
다시점 스테레오는 일반적으로 다음과 같은 구성요소들의 면에서 기술될 수 있다: 정합 기준(matching criterion), 집계 방법(aggregation method), 및 승자 선택(winner selection). 정합 기준은 상이한 영상들에 걸쳐 픽셀들 또는 영역들의 유사도(similarity)를 측정하는 수단으로서 사용된다. 전형적인 오차 척도(error measure)는 영상들 간의 RGB 또는 명도(intensity) 차이이다(이 차이들이 제곱될 수 있거나, 강건한 척도들이 사용될 수 있다). 일부 방법들은 국소 오차 표면(local error surface)의 해석적 최소(analytic minimum)를 계산하는 것에 의해 서브픽셀 불일치(subpixel disparity)를 계산하거나 경사 기반(gradient-based) 기법들을 사용한다. 하나의 방법은 하나의 영상에서의 픽셀과 다른 영상에서의 보간된 명도 함수(intensity function) 간의 최소 차이를 구하는 것을 포함한다. 집계 방법은 탐색 공간(search space)에 걸친 오차 함수(error function)가 계산되거나 누적되는 방식을 말한다. 가장 직접적인 방식은 다수의 카메라들에 대해 소정의 불일치 공간(disparity space)에 걸쳐 고정된 크기의 탐색 창(search window)들을 적용하는 것이다. 다른 방식들은 적응 창(adaptive window), 이동 창(shiftable window), 또는 다중 마스크(multiple mask)를 사용한다. 다른 일련의 방법들은 3D 공간에서의 투표(vote)들을 누적한다(예컨대, 공간 스위프(space sweep) 접근 방법 및 복셀 컬러링(voxel coloring) 및 그 변형들). 초기의 또는 집계된 정합 비용(matching cost)들이 계산되면, 각각의 픽셀에 대한 올바른 불일치 할당(disparity assignment)에 관한 결정이 행해진다. 국소 방법들은, 전형적으로 최소의 집계된 값을 갖는 불일치를 선택하는 것에 의해, 각각의 픽셀에서 독립적으로 이것을 행한다. 최상의 할당들에 대해 반복하여 결정하기 위해 협력/경쟁 알고리즘들이 사용될 수 있다. 일반 명도 유사도 정합(general intensity similarity match)들 또는 에지 특징(edge feature)들과 연관된 깊이들을 계산하기 위해 동적 프로그래밍이 사용될 수 있다. 이 접근 방법들은 깊이 불연속 및 부정합 영역들을 처리하기 위해 에피폴라 라인(epipolar line)을 따라 1차원 순서 제약사항(ordering constraint)들을 이용할 수 있다. 또 다른 부류의 방법들은 스테레오 정합(stereo matching)을, 시뮬레이티드 어닐링(simulated annealing) 및 그래프 컷(graph cut)과 같은 전역적 방법들에 의해 해결될 수 있는 전역 최적화 문제(global optimization problem)로서 정형화한다.
보다 최근에, 연구자들은 명시야 영상(light field image)들을 포착하기 위해 보다 넓은 합성 개구(synthetic aperture)에 걸쳐 있는 다수의 카메라들(예컨대, 스탠포드 다중 카메라 어레이(Stanford Multi-Camera Array))을 사용하였다. 장면 내의 모든 지점들에서의 모든 방향으로부터의 광을 특징지우는 4D 함수로서 종종 정의되는 명시야는 장면의 2차원(2D) 영상들의 2D 컬렉션(2D collection)으로서 해석될 수 있다. 실제의 제약사항들로 인해, 명시야를 형성하는 장면의 2D 영상들의 컬렉션을 동시에 포착하는 일은 통상적으로 어렵다. 그렇지만, 영상 데이터가 카메라들 각각에 의해 포착되는 시간이 가까울수록, 광 세기(예컨대, 형광등의 다른 방식으로는 지각가능하지 않은 플리커(flicker)) 또는 객체 움직임의 그 변동이 포착된 영상들 간의 시간 의존적 변동을 초래할 가능성이 적다. 큰 개구를 갖는 카메라들을 시뮬레이트하기 위해 명시야를 포착 및 재샘플링하는 것을 포함하는 프로세스들이 이용될 수 있다. 예를 들어, 장면 쪽으로 향해 있는 M x N 카메라들의 어레이는 그 어레이만큼 큰 렌즈의 집속 효과(focusing effect)들을 시뮬레이트할 수 있다. 카메라 어레이들을 이와 같이 사용하는 것은 합성 개구 사진 기법(synthetic aperture photography)이라고 할 수 있다.
스테레오 정합이 원래 한 쌍의 영상들로부터 3D 형상을 복구하는 것으로서 정형화되었지만, 카메라 어레이를 사용하여 포착된 명시야는 또한 스테레오 정합에서 사용된 것들과 유사한 알고리즘들을 사용하여 3D 형상을 재구성하는 데 사용될 수 있다. 보다 많은 영상들이 부가될 때, 문제는 부분적으로 폐색된 영역(partially occluded region)들(전부가 아닌 일부 영상들에서 보이는 픽셀들)의 존재가 또한 증가한다는 것이다.
본 발명의 실시예들에 따른 시스템 및 방법은 어레이 카메라들을 사용하여 포착된 영상들에서 시차 검출 및 보정을 수행할 수 있다. 영상 처리 애플리케이션에 의해 구성된 프로세서를 사용하여 상이한 시점(viewpoint)들로부터 포착된 일련의 영상들을 포함하는 명시야로부터의 장면 내의 객체들까지의 거리를 추정하는 본 발명의 방법의 일 실시예는 상이한 시점들로부터 포착된 일련의 영상들의 시점들에 대한 기준 시점(reference viewpoint)을 선택하는 단계; 일련의 영상들 내의 대응하는 픽셀들의 유사도를 증가시키기 위해 일련의 영상들을 정규화하는 단계; 및 일련의 영상들의 적어도 하나의 서브셋을 사용하여 기준 시점으로부터의 영상에서의 픽셀 위치들에 대한 초기 깊이 추정치들을 결정하는 단계를 포함하고, 여기서 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 초기 깊이 추정치는 복수의 깊이들에서의 예상된 불일치에 기초하여 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대응하는 일련의 영상들의 적어도 하나의 서브셋에서의 픽셀들을 식별하는 것; 복수의 깊이들 각각에서 식별된 대응하는 픽셀들의 유사도를 비교하는 것; 및 식별된 대응하는 픽셀들이 가장 높은 정도의 유사도를 가지는 복수의 깊이들 중의 깊이를 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 초기 깊이 추정치로서 선택하는 것에 의해 결정된다. 그에 부가하여, 본 방법은 초기 깊이 추정치들을 사용하여 일련의 영상들에서의 대응하는 픽셀들을 식별하는 단계; 및 부정합 픽셀들을 검출하기 위해 일련의 영상들에서의 대응하는 픽셀들의 유사도를 비교하는 단계를 포함한다. 초기 깊이 추정치로부터, 일련의 영상들에서의 대응하는 픽셀들 간의 부정합이 검출되지 않을 때, 초기 깊이 추정치를 기준 시점으로부터의 영상에서의 픽셀 위치에 대한 현재의 깊이 추정치로서 선택한다. 초기 깊이 추정치로부터, 일련의 영상들에서의 대응하는 픽셀들 간의 부정합이 검출될 때, 일련의 영상들의 복수의 상이한 서브셋들을 사용하여 일련의 후보 깊이 추정치들을 결정하는 것; 후보 깊이 추정치들에 기초하여 일련의 영상들의 복수의 서브셋들 각각에서의 대응하는 픽셀들을 식별하는 것; 및 가장 유사한 대응하는 픽셀들을 가지는 서브셋의 후보 깊이를 기준 시점으로부터의 영상에서의 픽셀 위치에 대한 현재의 깊이 추정치로서 선택하는 것에 의해 기준 시점으로부터의 영상에서의 픽셀 위치에 대한 현재의 깊이 추정치를 선택한다.
추가의 실시예에서, 상이한 시점들로부터 포착된 일련의 영상들의 시점들에 대한 기준 시점을 선택하는 단계는, 영상들 중 하나의 영상의 시점; 및 가상 시점(virtual viewpoint)으로 이루어진 세트로부터 시점을 선택하는 단계를 포함한다.
다른 실시예에서, 기준 시점으로부터의 영상에서의 픽셀 위치에 대응하는 일련의 영상들 중의 주어진 영상에서의 픽셀은, 기준 시점으로부터의 영상에서의 픽셀 위치의 깊이 추정치; 및 주어진 영상의 시점과 기준 시점 간의 기준선(baseline)에 기초하여 결정되는 장면 의존적인 시프트(scene dependent shift)를 기준 시점으로부터의 영상에서의 픽셀 위치에 적용하는 것에 의해 결정된다.
다른 추가의 실시예에서, 기준 시점으로부터의 영상에서의 주어진 픽셀 위치가 서브셋 내의 각각의 영상에서 보이는 적어도 하나의 서브셋을 초래할 가능성이 있는 자연 장면들의 가시성 특성(visibility characteristic)의 패턴들을 이용하기 위해, 일련의 후보 깊이 추정치들을 결정하는 데 사용되는 일련의 영상들의 서브셋들이 일련의 영상들에서의 영상들의 시점들에 기초하여 선택된다.
또 다른 실시예에서, 일련의 영상들이 다수의 색상 채널(color channel)들 내에서 포착되고; 상이한 시점들로부터 포착된 일련의 영상들의 시점들에 대한 기준 시점을 선택하는 단계는, 영상들 중 하나를 기준 영상으로서 선택하고 기준 영상의 시점을 기준 시점으로서 선택하는 단계를 포함하고; 일련의 후보 깊이 추정치들을 결정하는 데 사용되는 일련의 영상들의 서브셋들은 기준 영상을 포함하는 색상 채널에서의 동일한 수의 영상들이 각각의 서브셋에 나타나도록 선택된다.
다른 추가의 실시예에서, 일련의 후보 깊이 추정치들을 결정하는 데 사용되는 일련의 영상들의 서브셋들은 또한 각각의 서브셋에 기준 영상을 포함하지 않는 색상 채널들에 적어도 2개의 영상들이 있도록 선택된다.
또 다른 실시예는 또한 현재의 깊이 추정치들을 사용하여 일련의 영상들에서의 대응하는 픽셀들을 식별하는 것; 및 주어진 영상에서의 픽셀이 대응하는 픽셀들의 비교에 기초하여 결정된 측광 유사도 기준(photometric similarity criterion)을 충족시키지 못할 때, 픽셀이 기준 시점으로부터의 영상에서 보이지 않는 것으로 결정하는 것에 의해 기준 시점으로부터의 일련의 영상들에서의 픽셀들의 가시성(visibility)을 결정하는 단계를 포함한다.
추가의 실시예에서도, 상이한 시점들로부터 포착된 일련의 영상들의 시점들에 대한 기준 시점을 선택하는 단계는, 일련의 영상들에서의 영상들 중 하나를 기준 영상으로서 선택하고 기준 영상의 시점을 기준 시점으로서 선택하는 단계를 포함하고; 주어진 영상에서의 픽셀이 대응하는 픽셀들의 비교에 기초하여 결정된 측광 유사도 기준을 충족시키지 못할 때, 픽셀이 기준 시점으로부터의 영상에서 보이지 않는 것으로 결정하는 단계는, 주어진 영상에서의 픽셀을 기준 영상에서의 대응하는 픽셀과 비교하는 단계를 더 포함한다.
다른 실시예에서도, 측광 유사도 기준은 적어도, 주어진 영상에서의 픽셀 및 기준 영상에서의 픽셀 중 적어도 하나의 픽셀의 명도에 기초하여 적응하는 유사도 임계치(similarity threshold)를 포함한다.
추가의 부가적인 실시예에서, 측광 유사도 기준은 기준 영상으로부터의 대응하는 픽셀과 기준 영상으로부터의 픽셀과 가장 유사한 대응하는 픽셀 사이의 측광 거리(photometric distance)의 함수로서 적응하는 유사도 임계치를 포함한다.
다른 부가의 실시예에서, 측광 유사도 기준은 기준 영상에서의 픽셀의 신호대 잡음비(signal to noise ratio)에 기초하여 적응하는 유사도 임계치를 포함한다.
또 다른 추가의 실시예에서, 신호대 잡음비에 기초하여 유사도 임계치를 적응시키는 것은, 기준 영상으로부터의 대응하는 픽셀과 기준 영상으로부터의 픽셀에 가장 유사한 대응하는 픽셀의 측광 거리를 스케일링하고 오프셋을 적용하여 적절한 임계치를 획득하는 것에 의해 근사화된다.
또 다른 실시예에서, 일련의 영상들은 복수의 색상 채널들에서 포착된 영상들을 포함하고, 기준 영상은 제1 색상 채널에서 포착된 영상이며, 주어진 영상은 제2 색상 채널에서 포착된 영상이고; 주어진 영상에서의 픽셀이 대응하는 픽셀들의 비교에 기초하여 결정된 측광 유사도 기준을 충족시키지 못할 때, 픽셀이 기준 시점에 보이지 않는 것으로 결정하는 단계는, 기준 시점으로부터의 영상에서의 대응하는 픽셀이 보이는 제2 색상 채널에서의 영상을 제2 색상 채널에 대한 기준 영상으로서 선택하는 단계; 및 주어진 영상에서의 픽셀을 제2 색상 채널에 대한 기준 영상에서의 대응하는 픽셀과 비교하는 단계를 더 포함한다.
다른 추가의 실시예에서도, 상이한 시점들로부터 포착된 일련의 영상들의 시점들에 대한 기준 시점을 선택하는 단계는, 가상 시점을 기준 시점으로서 선택하는 단계를 포함하고; 주어진 영상에서의 픽셀이 대응하는 픽셀들의 비교에 기초하여 결정된 측광 유사도 기준을 충족시키지 못할 때, 픽셀이 기준 시점으로부터의 영상에서 보이지 않는 것으로 결정하는 단계는, 가상 시점에 인접한 영상을 기준 영상으로서 선택하는 단계; 및 주어진 영상에서의 픽셀을 기준 영상에서의 대응하는 픽셀과 비교하는 단계를 더 포함한다.
또 다른 실시예에서도, 가상 시점에 인접한 영상은, 주어진 영상으로부터의 픽셀에 대한 선택된 영상에서의 대응하는 픽셀이 기준 시점으로부터의 영상에서 보이는 것에 기초하여 선택된다.
다른 추가의 실시예도 또한 주어진 픽셀에 대한 현재의 깊이 추정치에 기초하여 기준 시점으로부터의 영상에서의 주어진 픽셀 위치가 보이는 것으로 결정되는 영상들을 사용하여 일련의 영상들의 업데이트된 서브셋을 발생시키는 것; 복수의 깊이들에서의 예상된 불일치에 기초하여 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대응하는 일련의 영상들의 업데이트된 서브셋에서의 픽셀들을 식별하는 것; 복수의 깊이들 각각에서 식별된 영상들의 업데이트된 서브셋에서의 대응하는 픽셀들의 유사도를 비교하는 것; 및 일련의 영상들의 업데이트된 서브셋에서의 식별된 대응하는 픽셀들이 가장 높은 정도의 유사도를 가지는 복수의 깊이들 중의 깊이를 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 업데이트된 깊이 추정치로서 선택하는 것에 의해 기준 시점으로부터의 일련의 영상들에서의 픽셀들의 가시성에 기초하여 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 깊이 추정치를 업데이트하는 단계를 포함한다.
또 다른 실시예에서도, 일련의 영상들의 서브셋들은 영상들의 쌍들이고; 일련의 영상들의 업데이트된 서브셋은 적어도 3개의 영상들을 포함한다.
다른 추가의 부가 실시예에서, 일련의 영상들 내의 대응하는 픽셀들의 유사도를 증가시키기 위해 일련의 영상들을 정규화하는 단계는, 일련의 영상들 중의 영상들에서의 측광 변동(photometric variation)들 및 장면 독립적인 기하학적 왜곡(scene-independent geometric distortion)들을 보정하기 위해 교정 정보(calibration information)를 이용하는 단계, 및 일련의 영상들 중의 영상들을 정렬(rectification)하는 단계를 더 포함한다.
또 다른 부가의 실시예에서, 일련의 영상들 내의 대응하는 픽셀들의 유사도를 증가시키기 위해 일련의 영상들을 정규화하는 단계는, 일련의 영상들에서의 대응하는 픽셀들의 유사도를 증가시키기 위해 영상들을 재샘플링하는 단계를 더 포함하고; 영상들에 적용되는 장면 독립적인 기하학적 보정(scene-independent geometric correction)들은 서브픽셀 해상도로 결정된다.
다른 추가의 부가 실시예에서, 측광 변동을 보정하기 위해 교정 정보를 이용하는 단계는, 블랙 레벨(Black Level) 계산 및 조정; 비네팅 보정(vignetting correction); 횡색 보정(lateral color correction); 및 온도 정규화(temperature normalization)로 이루어진 그룹으로부터 선택된 정규화 프로세스들 중 임의의 것을 수행하는 단계를 더 포함한다.
또 다른 부가의 실시예에서, 장면 독립적인 기하학적 보정은 또한 일련의 영상들을 포착한 카메라들의 어레이에서의 렌즈들의 왜곡 및 회전을 참작하기 위한 정렬을 포함한다.
추가적인 부가의 실시예에서도, 대응하는 픽셀들의 유사도를 결정하기 위해 비용 함수(cost function)가 이용된다.
다른 부가의 실시예에서도, 대응하는 픽셀들의 유사도를 결정하는 단계는, 계산된 비용들을 공간적으로 필터링하는 단계를 더 포함한다.
다른 추가의 실시예에서, 식별된 대응하는 픽셀들이 가장 높은 정도의 유사도를 가지는 복수의 깊이들 중의 깊이를 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 초기 깊이 추정치로서 선택하는 단계는, 식별된 대응하는 픽셀들에 대한 필터링된 비용 함수가 가장 높은 레벨의 유사도를 나타내는 복수의 깊이들 중의 깊이를 선택하는 단계를 더 포함한다.
또 다른 추가의 실시예에서, 비용 함수는 한 쌍의 대응하는 픽셀들의 L1 노름(norm); 한 쌍의 대응하는 픽셀들의 L2 노름; 및 일련의 대응하는 픽셀들의 분산(variance)으로 이루어진 그룹으로부터 선택된 적어도 하나의 유사도 척도를 이용한다.
또 다른 추가의 실시예에서, 일련의 영상들이 다수의 색상 채널들 내에서 포착되고, 비용 함수는 다수의 색상 채널들 각각에서의 픽셀들의 유사도를 결정한다.
다른 추가의 실시예도 또한 기준 시점으로부터의 영상에서의 픽셀 위치들에 대한 현재의 깊이 추정치들에 대한 신뢰도 메트릭(confidence metric)들을 발생시키는 단계를 포함한다.
다른 추가적인 부가의 실시예에서, 신뢰도 메트릭은 복수의 신뢰도 인자(confidence factor)들을 인코딩한다.
또 다른 추가의 실시예는 또한 신뢰도 맵(confidence map)에 기초하여 깊이 맵(depth map)을 필터링하는 단계를 포함한다.
또 다른 추가의 실시예도 또한 폐색 픽셀(occluding pixel)들을 찾아내기 위해 기준 시점과 일련의 영상들에서의 영상들의 시점들 사이의 기준선들에 평행인 라인들을 따라 탐색하는 것에 의해 초기 깊이 추정치들에 기초하여 기준 시점으로부터의 영상에서의 특정 픽셀 위치들에 대응하는 일련의 영상들 내의 영상들에서의 픽셀들의 폐색(occlusion)을 검출하는 단계; 및 초기 깊이 추정치로부터, 적어도 하나의 영상에서의 대응하는 픽셀이 폐색되는 것이 검출될 때, 주어진 픽셀이 폐색되는 적어도 하나의 영상을 배제하는 일련의 영상들의 복수의 상이한 서브셋들을 사용하여 일련의 후보 깊이 추정치들을 결정하는 것; 후보 깊이 추정치들에 기초하여 일련의 영상들의 복수의 서브셋들 각각에서의 대응하는 픽셀들을 식별하는 것; 및 가장 유사한 대응하는 픽셀들을 가지는 서브셋의 후보 깊이를 기준 시점으로부터의 영상에서의 픽셀 위치에 대한 현재의 깊이 추정치로서 선택하는 것에 의해 기준 시점으로부터의 영상에서의 픽셀 위치에 대한 현재의 깊이 추정치를 선택하는 단계를 포함한다.
또 다른 추가적인 부가의 실시예에서, 폐색 픽셀들을 찾아내기 위해 기준 시점과 일련의 영상들에서의 영상들의 시점들 사이의 기준선들에 평행인 라인들을 따라 탐색하는 단계는,
일 때 기준 시점으로부터의 영상에서의 픽셀 위치 (x1, y1)에 대응하는 픽셀이 대안 시점 영상(alternate view image)에서 기준 시점으로부터의 영상에서의 픽셀 위치 (x2, y2)에 의해 폐색되는 것으로 결정하는 단계를 포함하며,
여기서 s1 및 s2는 기준 시점과 대안 시점 영상의 시점 사이의 기준선에 평행인 라인을 따라 픽셀들을 시프트시켜 각각의 픽셀에 대한 초기 깊이 추정치들에 기초하여 대안 시점 영상의 시점 내로 픽셀들을 시프트시키기 위해 픽셀 위치들 (x1, y1) 및 (x2, y2)에 적용되는 장면 의존적인 기하학적 시프트(scene dependent geometric shift)들이다.
또 다른 추가의 실시예에서도, 픽셀을 폐색되어 있는 것으로 지정하는 결정은 픽셀들의 유사도 및 픽셀들 (x1, y1) 및 (x2, y2)의 추정된 깊이들의 신뢰도(confidence) 중 적어도 하나를 고려한다.
특정의 실시예에서, 대응하는 픽셀들의 유사도를 결정하기 위해 비용 함수가 이용된다.
다른 특정의 실시예에서, 대응하는 픽셀들의 유사도를 결정하는 단계는 계산된 비용들을 공간적으로 필터링하는 단계를 더 포함한다.
추가적인 특정의 실시예에서, 계산된 비용들의 공간적 필터링은 고정 계수 필터(fixed-coefficient filter); 및 에지 보존 필터(edge-preserving filter)로 이루어진 그룹으로부터 선택된 필터를 이용한다.
다른 추가적인 특정의 실시예에서, 식별된 대응하는 픽셀들이 가장 높은 정도의 유사도를 가지는 복수의 깊이들 중의 깊이를 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 초기 깊이 추정치로서 선택하는 단계는, 식별된 대응하는 픽셀들에 대한 필터링된 비용 함수가 가장 높은 레벨의 유사도를 나타내는 복수의 깊이들 중의 깊이를 선택하는 단계를 더 포함한다.
또 다른 특정의 실시예에서, 일련의 영상들이 단일의 색상 채널 내에서 포착되고, 비용 함수는 대응하는 픽셀의 분산의 함수이다.
다른 추가적인 특정의 실시예에서, 비용 함수는 이하의 항,
을 포함하는 각각의 영상 i에 걸쳐 일련의 영상들에서 집계된 비용 함수 CV(x, y, d)이고,
여기서 Costi,Ref(x, y, d)는 유사도 척도(similarity measure)(즉, 비용 함수)이고, d는 픽셀 (x, y)의 깊이이며, Vi,Ref(x, y)는 픽셀 (x, y)의 가시성(visibility)이고, 처음에 모든 카메라들에 대해 Vi,Ref(x, y) = 1이다.
추가적인 특정의 실시예에서도, 개개의 비용들 Costi,Ref(x, y, d)는 다음과 같이 카메라들 i,Ref에 대한 각각의 픽셀 (x, y)에 대한 각각의 불일치 가정(disparity hypothesis) d에 기초하여 계산되고:
여기서 S는 (예를 들어) 유사도 척도이고,
또 다른 특정의 실시예에서, 집계된 비용은 다음과 같이 후보 깊이에서의 시프트된 영상들의 유사도를 고려하고:
여기서 K는 기준 카메라(reference camera)와 동일한 스펙트럼 채널에서의 카메라들의 세트이고,
L은 카메라들의 쌍들의 세트이고, 각각의 쌍에서의 양쪽 카메라들은 (명시야가 다수의 스펙트럼 채널들에서의 영상 데이터를 포함하는 경우 기준 카메라에 대해 상이한 스펙트럼 채널일 수 있는) 동일한 스펙트럼 채널에 있고,
추가적인 특정의 실시예에서도, 가중된 집계된 비용 함수(weighted aggregated cost function)가 다음과 같도록 집계된 비용 함수(aggregated cost function)가 필터를 사용하여 공간적으로 필터링되고:
여기서 N(x, y)는 특정의 응용의 요구사항들에 적절한 정사각형, 원형, 직사각형, 또는 임의의 다른 형상일 수 있는 픽셀 (x, y)의 바로 이웃(immediate neighborhood)이고,
Norm은 정규화 항이며,
IRef(x, y)는 기준 카메라로부터의 영상 데이터이고,
wd는 픽셀 거리에 기초한 가중 함수이며,
wr은 명도 차이(intensity difference)에 기초한 가중 함수이다.
추가의 실시예에서, 필터는 박스 필터(box filter)이고, wd 및 wr은 상수 계수들이다.
다른 실시예에서, 필터는 양방향 필터(bilateral filter)이고, wd 및 wr은 둘 다 가우시안 가중 함수(Gaussian weighting function)이다.
다른 추가의 실시예에서, 기준 시점으로부터의 영상에서의 픽셀 위치 (x, y)에 대한 깊이 추정치는 다음과 같이 깊이 맵에서 각각의 픽셀 위치에서의 필터링된 비용을 최소화하는 깊이를 선택하는 것에 의해 결정된다.
D(x, y) = argmin{FilteredCV(x, y, d)}
또 다른 실시예에서, 일련의 영상들이 다수의 색상 채널들 내에서 포착되고, 비용 함수는 다수의 색상 채널들로부터의 영상 데이터의 L1 노름을 포함한다.
다른 추가의 실시예에서, 일련의 영상들이 다수의 색상 채널들 내에서 포착되고, 비용 함수는 다수의 색상 채널들로부터의 영상 데이터의 L2 노름을 포함한다.
또 다른 실시예에서, 일련의 영상들이 적어도 적색, 녹색 및 청색 색상 채널들을 포함하는 다수의 색상 채널들 내에서 포착되고; 상이한 시점들로부터 포착된 일련의 영상들의 시점들에 대한 기준 시점을 선택하는 단계는, 녹색 색상 채널에서의 영상들 중 하나를 녹색 기준 영상으로서 선택하고 녹색 기준 영상의 시점을 기준 시점으로서 선택하는 단계를 포함하며; 깊이 d에서 기준 시점으로부터의 영상에서의 픽셀 위치 (x, y)에 대한 비용 함수 Cost(x, y, d)는,
여기서 CostG(x, y, d)는 깊이 d에 기초한 일련의 녹색 영상들 내의 위치들에서의 대응하는 픽셀들에 대한 기준 시점으로부터의 영상에서의 픽셀 위치 (x, y)의 유사도의 척도이고,
CostR(x, y, d)는 깊이 d에 기초하여 결정된 일련의 적색 영상들 내의 위치들에서의 대응하는 픽셀들과 기준 시점으로부터의 영상에서의 픽셀 위치 (x, y)의 유사도의 척도이며,
CostB(x, y, d)는 깊이 d에 기초하여 결정된 일련의 청색 영상들 내의 위치들에서의 대응하는 픽셀들과 기준 시점으로부터의 영상에서의 픽셀 위치 (x, y)의 유사도의 척도이고,
추가의 실시예에서도, CostG(x, y, d)는 L1 노름, L2 노름, 및 녹색 색상 채널 내에 있는 일련의 영상들 중의 영상들에서의 픽셀들에 걸친 분산으로 이루어진 그룹으로부터 선택된 유사도 척도를 사용한다.
다른 실시예에서도, 적색 색상 채널에 대한 비용 척도(cost measure)(CostR(x, y, d)) 및 청색 색상 채널에 대한 비용 척도(CostB(x, y, d))는 색상 채널 내의 영상들에서의 대응하는 픽셀들의 독자적인 쌍들 사이의 집계된 차이를 계산하는 것에 의해 결정된다.
추가의 부가적인 실시예에서, 색상 채널 내의 영상들에서의 각각의 독자적인 쌍의 대응하는 픽셀들 사이의 집계된 차이를 계산하는 단계는, 색상 채널 내의 영상들에서의 대응하는 픽셀들의 독자적인 쌍들에 대한 조합 비용 메트릭(combination cost metric)을 결정하는 단계를 포함한다.
다른 부가의 실시예에서, 4개의 영상들(CA, CB, CC, 및 CD)을 포함하는 적색 색상 채널에 대한 조합 비용 메트릭(CostC(x, y, d))은 다음과 같이 결정될 수 있고:
여기서 (xA, yA), (xB, yB), (xC, yC), 및 (xD, yD)는, 각각, 깊이 d에서의 영상들 CA, CB, CC, 및 CD 각각에서의 불일치에 기초하여 결정된 대응하는 픽셀 위치들이다.
또 다른 추가의 실시예에서, 조합 비용 메트릭은 픽셀 밝기 값들의 L1 노름; 픽셀 밝기 값들의 L2 노름; 및 픽셀 밝기 값들의 분산으로 이루어진 그룹으로부터 선택된 적어도 하나를 이용하여 결정된다.
또 다른 실시예에서도, 가중 인자들 및 는 기준 시점으로부터의 영상에서의 픽셀 위치 (x, y)에서의 추정된 SNR에 기초하여 변하고; 기준 시점으로부터의 영상에서 픽셀 위치 (x, y)에서의 강한 SNR은 적색 및 청색 색상 채널들에 적용된 가중치(weighting)를 감소시키는 데 사용된다.
추가의 실시예에서, 신뢰도 메트릭은 복수의 신뢰도 인자들을 인코딩한다.
다른 실시예에서, 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 깊이 추정치에 대한 신뢰도 메트릭은, 주어진 픽셀이 영상 내의 텍스처리스 영역(textureless region) 내에 있다는 표시; 주어진 픽셀을 둘러싸고 있는 영역에서의 신호대 잡음비(SNR)의 척도; 깊이 추정치를 발생시키는 데 사용되는 대응하는 픽셀들의 수; 깊이 추정치를 발생시키기 위해 탐색되는 깊이들의 수의 표시; 주어진 픽셀이 고 콘트라스트 에지(high contrast edge)에 인접해 있다는 표시; 및 주어진 픽셀이 고 콘트라스트 경계(high contrast boundary)에 인접해 있다는 표시로 이루어진 그룹으로부터 선택된 적어도 하나의 신뢰도 인자를 포함한다.
다른 추가의 실시예에서, 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 깊이 추정치에 대한 신뢰도 메트릭은, 주어진 픽셀이 경사 에지(gradient edge) 상에 있다는 표시; 주어진 픽셀에 대응하는 픽셀들이 부정합된다는 표시; 주어진 픽셀에 대응하는 픽셀들이 폐색된다는 표시; 상이한 기준 카메라들을 사용하여 발생된 깊이 추정치들이 주어진 픽셀에 대한 임계치를 초과한다는 표시; 카메라들의 상이한 서브셋들을 사용하여 발생된 깊이 추정치들이 주어진 픽셀에 대한 임계치를 초과한다는 표시; 주어진 임계치의 깊이가 임계치를 초과하는지에 관한 표시; 주어진 픽셀이 결함이 있다는 표시; 및 주어진 픽셀에 대응하는 픽셀들이 결함이 있다는 표시로 이루어진 그룹으로부터 선택된 적어도 하나의 신뢰도 인자를 포함한다.
또 다른 실시예에서, 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 깊이 추정치에 대한 신뢰도 메트릭은 적어도, 주어진 픽셀을 둘러싸고 있는 영역에서의 SNR의 척도; 및 깊이 추정치를 발생시키는 데 사용되는 대응하는 픽셀들의 수를 포함한다.
다른 추가의 실시예에서, 신뢰도 메트릭은 적어도 하나의 이진 신뢰도 인자(binary confidence factor)를 인코딩한다.
또 다른 실시예에서, 신뢰도 메트릭은 신뢰도의 정도들의 범위로서 표현된 적어도 하나의 신뢰도 인자를 인코딩한다.
추가의 실시예에서도, 신뢰도 메트릭은 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 마무리된 깊이 추정치를 발생시키기 위해 사용된 일련의 영상들에서의 픽셀들의 유사도를 비교하는 것에 의해 결정된 적어도 하나의 신뢰도 인자를 인코딩한다.
다른 실시예에서도, 대응하는 픽셀들의 유사도를 나타내는 비용 메트릭(cost metric)을 발생시키기 위해 비용 함수가 이용되고; 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 깊이 추정치를 발생시키기 위해 사용된 일련의 영상들에서의 픽셀들의 유사도를 비교하는 단계는, 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 마무리된 깊이 추정치를 발생시키기 위해 사용된 일련의 영상들에서의 픽셀들의 비용 메트릭에 임계치를 적용하는 단계; 및 비용 메트릭이 임계치를 초과할 때, 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 마무리된 깊이 추정치가 문제 픽셀인 일련의 영상들에서의 적어도 하나의 픽셀을 사용하여 발생되었다는 것을 나타내는 신뢰도 메트릭을 할당하는 단계를 더 포함한다.
추가의 부가적인 실시예에서, 임계치는 기준 시점으로부터의 영상에서의 주어진 픽셀 위치를 둘러싸고 있는 영역의 평균 명도(mean intensity); 및 일련의 영상들을 포착하는 데 사용된 적어도 하나의 센서에 대한 잡음 통계(noise statistics) 중 적어도 하나에 기초하여 수정된다.
또 다른 추가의 실시예에서, 기준 시점으로부터의 영상에서의 주어진 픽셀 위치를 둘러싸고 있는 영역의 평균 명도는, 주어진 픽셀을 중심으로 한 공간 박스 N x N 평균 필터(spatial box N x N averaging filter)를 사용하여 계산된다.
또 다른 실시예에서, 일련의 영상들이 적어도 적색, 녹색 및 청색 색상 채널들을 포함하는 다수의 색상 채널들 내에서 포착되고; 상이한 시점들로부터 포착된 일련의 영상들의 시점들에 대한 기준 시점을 선택하는 단계는, 녹색 색상 채널에서의 영상들 중 하나를 녹색 기준 영상으로서 선택하고 녹색 기준 영상의 시점을 기준 시점으로서 선택하는 단계를 포함하며; 평균 명도는 특정의 노출 및 이득에서의 특정의 평균을 원하는 임계치에 관계시키는 테이블을 사용하여 녹색 채널에 대한 잡음 통계를 결정하는 데 사용된다.
다른 추가의 실시예에서도, 상이한 시점들로부터 포착된 일련의 영상들의 시점들에 대한 기준 시점을 선택하는 단계는, 영상들 중 하나를 기준 영상으로서 선택하고 기준 영상의 시점을 기준 시점으로서 선택하는 단계를 포함하고; 대응하는 픽셀들의 유사도를 나타내는 비용 메트릭을 발생시키기 위해 비용 함수가 이용되고; 일반 부정합(general mismatch)에 기초한 신뢰도 메트릭이 이하의 식을 사용하여 획득되고:
여기서 Costmin(x, y)는 원하는 깊이 범위에 걸친 불일치 탐색의 최소 비용이고,
Costd(x, y)는 (최소 깊이 이외의) 임의의 깊이 또는 깊이들로부터의 비용 데이터를 나타내며,
임의의 카메라에 의해 포착된 I(x, y)cam 영상 데이터가 신뢰도를 보강하는 데 이용될 수 있으며;
Sensor는 잡음 통계 또는 특성화, 결함있는 픽셀들, (이득 또는 노출과 같은) 임의의 포착된 영상들에 영향을 미치는 센서의 특성들(이들로 제한되지 않음)과 같은 센서의 기지의 특성들을 포함할 수 있는 센서 사전 정보(sensor prior)이다.
Camera intrinsics은 (깊이 측정의 정밀도에 영향을 미치는) 어레이에서의 카메라들 간의 기준선 간격(baseline separation), 및 (특정의 시나리오들에서 폐색 구역들에서의 성능에 영향을 미치는) 색상 필터들의 배열(이들로 제한되지 않음)을 비롯한 신뢰도에 영향을 미칠 수 있는 카메라 및 카메라 어레이에 내재된 요소들을 명시하는 카메라 고유 특성(camera intrinsic)이다.
또 다른 실시예에서도, 상이한 시점들로부터 포착된 일련의 영상들의 시점들에 대한 기준 시점을 선택하는 단계는, 영상들 중 하나를 기준 영상으로서 선택하고 기준 영상의 시점을 기준 시점으로서 선택하는 단계를 포함하고; 대응하는 픽셀들의 유사도를 나타내는 비용 메트릭을 발생시키기 위해 비용 함수가 이용되고; 일반 부정합에 기초한 신뢰도 메트릭이 이하의 식을 사용하여 획득되고:
여기서 Avg(x,y)는 (x, y)의 영역에서의 기준 영상의 명도에 기초하여 신뢰도를 조정하기 위해 사용되는, (x, y)를 둘러싸고 있는 공간적 이웃에 있는 기준 영상의 평균 명도, 또는 이웃에서의 평균 명도의 추정치이고,
a 및 offset은 센서의 이득 및 잡음 통계에 관한 사전 정보로 신뢰도를 조정하기 위해 사용되는 경험적으로 선택된 스케일 및 오프셋 인자들이다.
a 및 offset은 일련의 영상들 중의 영상들을 포착하기 위해 사용된 적어도 하나의 센서의 이득 및 잡음 통계에 관한 사전 정보로 신뢰도를 조정하기 위해 사용되는 경험적으로 선택된 스케일 및 오프셋 인자들이다.
다른 추가의 실시예에서도, 기준 시점으로부터의 영상에서의 픽셀 위치들에 대한 깊이 추정치들에 대한 신뢰도 메트릭들을 발생시키는 단계는, 일련의 영상들 중 적어도 하나의 영상을 포착하는 데 사용된 적어도 하나의 센서 이득을 결정하고 센서 이득에 기초하여 신뢰도 메트릭들을 조정하는 단계를 포함한다.
또 다른 실시예에서도, 기준 시점으로부터의 영상에서의 픽셀 위치들에 대한 깊이 추정치들에 대한 신뢰도 메트릭들을 발생시키는 단계는, 일련의 영상들 중 적어도 하나의 영상을 포착하는 데 사용된 적어도 하나의 노출 시간을 결정하고 센서 이득에 기초하여 신뢰도 메트릭들을 조정하는 단계를 포함한다.
다른 추가적인 부가의 실시예는 또한 기준 시점으로부터의 영상에서의 픽셀 위치들에 대한 마무리된 깊이 추정치들을 포함하는 깊이 맵을 출력하는 단계, 및 깊이 맵 내에 포함된 마무리된 깊이 추정치들에 대한 신뢰도 메트릭들을 포함하는 신뢰도 맵을 출력하는 단계를 포함한다.
또 다른 부가의 실시예는 또한 신뢰도 맵에 기초하여 깊이 맵을 필터링하는 단계를 포함한다.
또 다른 추가적인 부가의 실시예는 상이한 시점들로부터 포착된 일련의 영상들의 시점들에 대한 기준 시점을 선택하는 것; 일련의 영상들 내의 대응하는 픽셀들의 유사도를 증가시키기 위해 일련의 영상들을 정규화하는 것; 일련의 영상들의 적어도 하나의 서브셋을 사용하여 기준 시점으로부터의 영상에서의 픽셀 위치들에 대한 초기 깊이 추정치들을 결정하는 것에 의해 영상 처리 애플리케이션에 의해 구성된 프로세서를 사용하여 상이한 시점들로부터 포착된 일련의 영상들을 포함하는 명시야로부터의 장면 내의 객체들까지의 거리를 추정하는 단계를 포함하고, 여기서 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 초기 깊이 추정치는, 복수의 깊이들에서의 예상된 불일치에 기초하여 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대응하는 일련의 영상들의 적어도 하나의 서브셋에서의 픽셀들을 식별하는 것; 복수의 깊이들 각각에서 식별된 대응하는 픽셀들의 유사도를 비교하는 것; 및 식별된 대응하는 픽셀들이 가장 높은 정도의 유사도를 가지는 복수의 깊이들 중의 깊이를 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 초기 깊이 추정치로서 선택하는 것에 의해 결정된다. 그에 부가하여, 거리를 추정하는 프로세스는 초기 깊이 추정치들을 사용하여 일련의 영상들에서의 대응하는 픽셀들을 식별하는 단계; 부정합 픽셀들을 검출하기 위해 일련의 영상들에서의 대응하는 픽셀들의 유사도를 비교하는 단계; 초기 깊이 추정치로부터, 일련의 영상들에서의 대응하는 픽셀들 간의 부정합이 검출되지 않을 때, 초기 깊이 추정치를 기준 시점으로부터의 영상에서의 픽셀 위치에 대한 현재의 깊이 추정치로서 선택하는 단계; 및 초기 깊이 추정치로부터, 일련의 영상들에서의 대응하는 픽셀들 간의 부정합이 검출될 때, 일련의 영상들의 복수의 상이한 서브셋들을 사용하여 일련의 후보 깊이 추정치들을 결정하는 것; 후보 깊이 추정치들에 기초하여 일련의 영상들의 복수의 서브셋들 각각에서의 대응하는 픽셀들을 식별하는 것; 및 가장 유사한 대응하는 픽셀들을 가지는 서브셋의 후보 깊이를 기준 시점으로부터의 영상에서의 픽셀 위치에 대한 현재의 깊이 추정치로서 선택하는 것에 의해 기준 시점으로부터의 영상에서의 픽셀 위치에 대한 현재의 깊이 추정치를 선택하는 단계를 더 포함한다. 본 프로세스는 현재의 깊이 추정치들을 사용하여 일련의 영상들에서의 대응하는 픽셀들을 식별하는 것; 및 주어진 영상에서의 픽셀이 대응하는 픽셀들의 비교에 기초하여 결정된 측광 유사도 기준을 충족시키지 못할 때, 픽셀이 기준 시점에 보이지 않는 것으로 결정하는 것에 의해 기준 시점으로부터의 일련의 영상들에서의 픽셀들의 가시성을 결정하는 단계; 및 가시성 정보를 사용하여 기준 시점으로부터의 영상에서 보이는 일련의 영상들로부터의 픽셀들을 식별하는 것; 및 픽셀들을 기준 시점 내로 시프트시키기 위해 기준 시점으로부터의 영상에서 보이는 일련의 영상들로부터의 픽셀들에 장면 의존적인 기하학적 시프트들― 장면 의존적인 기하학적 시프트는 현재의 깊이 추정치들을 사용하여 결정됨 ―을 적용하는 것; 및 일련의 영상들 중의 영상들의 해상도들보다 더 큰 해상도를 가지는 기준 시점으로부터의 융합된 영상을 생성하기 위해 일련의 영상들로부터의 시프트된 픽셀들을 융합시키는 것에 의해 일련의 영상들 중의 영상들의 해상도들보다 더 큰 해상도를 가지는 융합된 영상(fused image)을 생성하기 위해 깊이 추정치들에 기초하여 영상 처리 애플리케이션에 의해 구성된 프로세서를 사용하여 일련의 영상들로부터의 픽셀들을 융합시키는 단계를 더 포함한다.
다른 추가의 실시예는 또한 기준 시점으로부터의 융합된 영상, 상이한 시점들로부터 포착된 일련의 영상들, 현재의 깊이 추정치들, 및 가시성 정보에 기초하여 초해상도 프로세스(super resolution process)를 수행하도록 영상 처리 애플리케이션에 의해 구성된 프로세서를 사용하여 기준 시점으로부터의 영상을 합성하는 단계를 포함한다.
본 발명의 추가의 실시예는 프로세서, 및 상이한 시점들로부터 포착된 일련의 영상들 및 영상 처리 애플리케이션을 포함하는 메모리를 포함한다. 그에 부가하여, 영상 처리 애플리케이션은 상이한 시점들로부터 포착된 일련의 영상들의 시점들에 대한 기준 시점을 선택하고; 일련의 영상들 내의 대응하는 픽셀들의 유사도를 증가시키기 위해 일련의 영상들을 정규화하며; 일련의 영상들의 적어도 하나의 서브셋을 사용하여 기준 시점으로부터의 영상에서의 픽셀 위치들에 대한 초기 깊이 추정치들을 결정하도록 프로세서를 구성하고, 여기서 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 초기 깊이 추정치는 복수의 깊이들에서의 예상된 불일치에 기초하여 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대응하는 일련의 영상들의 적어도 하나의 서브셋에서의 픽셀들을 식별하는 것; 복수의 깊이들 각각에서 식별된 대응하는 픽셀들의 유사도를 비교하는 것; 및 식별된 대응하는 픽셀들이 가장 높은 정도의 유사도를 가지는 복수의 깊이들 중의 깊이를 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 초기 깊이 추정치로서 선택하는 것에 의해 결정된다. 애플리케이션은 또한, 초기 깊이 추정치들을 사용하여 일련의 영상들에서의 대응하는 픽셀들을 식별하고; 부정합 픽셀들을 검출하기 위해 일련의 영상들에서의 대응하는 픽셀들의 유사도를 비교하도록 프로세서를 구성한다. 초기 깊이 추정치로부터, 일련의 영상들에서의 대응하는 픽셀들 간의 부정합이 검출되지 않을 때, 애플리케이션은 초기 깊이 추정치를 기준 시점으로부터의 영상에서의 픽셀 위치에 대한 현재의 깊이 추정치로서 선택하도록 프로세서를 구성한다. 초기 깊이 추정치로부터, 일련의 영상들에서의 대응하는 픽셀들 간의 부정합이 검출될 때, 애플리케이션은 일련의 영상들의 복수의 상이한 서브셋들을 사용하여 일련의 후보 깊이 추정치들을 결정하는 것; 후보 깊이 추정치들에 기초하여 일련의 영상들의 복수의 서브셋들 각각에서의 대응하는 픽셀들을 식별하는 것; 및 가장 유사한 대응하는 픽셀들을 가지는 서브셋의 후보 깊이를 기준 시점으로부터의 영상에서의 픽셀 위치에 대한 현재의 깊이 추정치로서 선택하는 것에 의해 기준 시점으로부터의 영상에서의 픽셀 위치에 대한 현재의 깊이 추정치를 선택하도록 프로세서를 구성한다.
다른 실시예에서, 영상 처리 애플리케이션은 또한, 현재의 깊이 추정치들을 사용하여 일련의 영상들에서의 대응하는 픽셀들을 식별하는 것; 및 주어진 영상에서의 픽셀이 대응하는 픽셀들의 비교에 기초하여 결정된 측광 유사도 기준을 충족시키지 못할 때, 픽셀이 기준 시점에 보이지 않는 것으로 결정하는 것에 의해 기준 시점으로부터의 일련의 영상들에서의 픽셀들의 가시성을 결정하고; 가시성 정보를 사용하여 기준 시점으로부터의 영상에서 보이는 일련의 영상들로부터의 픽셀들을 식별하는 것; 및 픽셀들을 기준 시점 내로 시프트시키기 위해 기준 시점으로부터의 영상에서 보이는 일련의 영상들로부터의 픽셀들에 장면 의존적인 기하학적 시프트들― 장면 의존적인 기하학적 시프트는 현재의 깊이 추정치들을 사용하여 결정됨 ―을 적용하는 것; 및 일련의 영상들 중의 영상들의 해상도들보다 더 큰 해상도를 가지는 기준 시점으로부터의 융합된 영상을 생성하기 위해 일련의 영상들로부터의 시프트된 픽셀들을 융합시키는 것에 의해 일련의 영상들 중의 영상들의 해상도들보다 더 큰 해상도를 가지는 융합된 영상을 생성하기 위해 깊이 추정치들을 사용하여 일련의 영상들로부터의 픽셀들을 융합시키도록 프로세서를 구성한다.
도 1은 본 발명의 일 실시예에 따른, 어레이 카메라(array camera)를 개념적으로 나타낸 도면.
도 1a는 본 발명의 일 실시예에 따른, 어레이 카메라 모듈을 개념적으로 나타낸 도면.
도 1c는 본 발명의 실시예에 따른, 4 x 4 어레이 카메라 모듈에 대한 컬러 필터 패턴을 개념적으로 나타낸 도면.
도 2는 기준 카메라 및 대안 시점 카메라(alternate view camera)를 사용하여 영상 데이터를 포착하는 것을 개념적으로 나타낸 도면.
도 3a 및 도 3b는 기준 카메라 및 대안 시점 카메라에 의해 포착된 장면의 영상들에서 시차의 효과를 개념적으로 나타낸 도면.
도 4는 본 발명의 실시예에 따른, 상이한 시점들로부터 포착된 복수의 영상들을 포함하는 포착된 명시야로부터의 깊이 맵을 발생시키는 프로세스를 예시한 플로우차트.
도 5는 본 발명의 일 실시예에 따른, 포착된 영상 데이터를 정규화하는 프로세스의 플로우차트.
도 6은 본 발명의 실시예들에 따른, 가시성 정보에 기초하여 깊이 맵을 반복적으로 세밀화(refine)시키는 프로세스의 플로우차트.
도 7은 본 발명의 일 실시예에 따른, 장면 내의 객체들까지의 거리들의 추정치들을 발생시키기 위해 이용될 수 있는 어레이 카메라 내의 카메라들의 서브셋을 개념적으로 나타낸 도면.
도 8은 본 발명의 일 실시예에 따른, 가시성 정보를 사용하여 불일치 탐색을 수행하는 프로세스를 나타낸 플로우차트.
도 8a는 본 발명의 일 실시예에 따른, 카메라 어레이에서의 카메라들의 서브셋들에 의해 포착되는 영상들을 사용하여 깊이를 추정하는 프로세스를 나타낸 플로우차트.
도 8b 내지 도 8i는 본 발명의 실시예들에 따른, 깊이 추정치들을 획득하기 위해 이용될 수 있는 5 x 5 어레이 카메라에서의 카메라들의 서브셋들을 개념적으로 나타낸 도면.
도 8j 내지 도 8m은 본 발명의 실시예들에 따른, 깊이 추정치들을 획득하기 위해 이용될 수 있는 4 x 4 어레이 카메라에서의 카메라들의 서브셋들을 개념적으로 나타낸 도면.
도 9는 본 발명의 일 실시예에 따른, 주어진 픽셀을 폐색 픽셀들에 대한 에피폴라 라인(epipolar line)을 탐색하는 프로세스를 개념적으로 나타낸 도면.
도 10은 본 발명의 일 실시예에 따른, 깊이 맵을 구성하기 위해 이용될 수 있는 5 x 5 어레이 카메라를 개념적으로 나타낸 도면.
도 11은 본 발명의 일 실시예에 따른, 대응하는 픽셀들의 측광 유사도(photometric similarity)에 기초하여 가시성을 결정하는 프로세스를 나타낸 플로우차트.
도 12는 본 발명의 일 실시예에 따른, 4 x 4 어레이 카메라와 관련하여 정의될 수 있는 많은 가상 시점들 중 하나를 개념적으로 나타낸 도면.
도 13은 본 발명의 일 실시예에 따른, 희소 깊이 맵(sparse depth map)을 발생시키는 프로세스를 나타낸 플로우차트.
도 14는 본 발명의 일 실시예에 따른, 희소 깊이 맵을 발생시킬 때 지시자 픽셀(indicator pixel)들로서 이용될 수 있는 일련의 픽셀들을 개념적으로 나타낸 도면.
도 15는 본 발명의 일 실시예에 따른, 픽셀을 둘러싸고 있는 텍스처리스 영역(textureless region)들을 SNR을 사용하여 검출하는 프로세스를 나타낸 플로우차트.
도 16은 본 발명의 일 실시예에 따른, 깊이 맵 및 가시성 정보를 발생시키는 시스템을 나타낸 도면.
도 17은 본 발명의 실시예들에 따른, 초해상도 처리(super-resolution processing)를 사용하여 상이한 시점들로부터 포착된 복수의 저 해상도 영상들로부터 고 해상도 영상을 합성하는 프로세스를 나타낸 플로우차트.
도 18a 및 도 18b는 깊이 추정치들에서의 잡음의 요인들을 개념적으로 나타낸 도면.
도 18c 내지 도 18h는 본 발명의 일 실시예에 따른, 포착된 영상 데이터로부터 깊이 맵 및 신뢰도 맵을 생성하는 것 그리고 깊이 맵을 필터링하기 위해 신뢰도 맵을 사용하는 것을 개념적으로 나타낸 도면.
도 18i 내지 도 18n은 이와 유사하게 본 발명의 일 실시예에 따른, 포착된 영상 데이터로부터 깊이 맵 및 신뢰도 맵을 생성하는 것 그리고 클로즈업 영상들을 사용하여 깊이 맵을 필터링하기 위해 신뢰도 맵을 사용하는 것을 개념적으로 나타낸 도면.
도 1a는 본 발명의 일 실시예에 따른, 어레이 카메라 모듈을 개념적으로 나타낸 도면.
도 1c는 본 발명의 실시예에 따른, 4 x 4 어레이 카메라 모듈에 대한 컬러 필터 패턴을 개념적으로 나타낸 도면.
도 2는 기준 카메라 및 대안 시점 카메라(alternate view camera)를 사용하여 영상 데이터를 포착하는 것을 개념적으로 나타낸 도면.
도 3a 및 도 3b는 기준 카메라 및 대안 시점 카메라에 의해 포착된 장면의 영상들에서 시차의 효과를 개념적으로 나타낸 도면.
도 4는 본 발명의 실시예에 따른, 상이한 시점들로부터 포착된 복수의 영상들을 포함하는 포착된 명시야로부터의 깊이 맵을 발생시키는 프로세스를 예시한 플로우차트.
도 5는 본 발명의 일 실시예에 따른, 포착된 영상 데이터를 정규화하는 프로세스의 플로우차트.
도 6은 본 발명의 실시예들에 따른, 가시성 정보에 기초하여 깊이 맵을 반복적으로 세밀화(refine)시키는 프로세스의 플로우차트.
도 7은 본 발명의 일 실시예에 따른, 장면 내의 객체들까지의 거리들의 추정치들을 발생시키기 위해 이용될 수 있는 어레이 카메라 내의 카메라들의 서브셋을 개념적으로 나타낸 도면.
도 8은 본 발명의 일 실시예에 따른, 가시성 정보를 사용하여 불일치 탐색을 수행하는 프로세스를 나타낸 플로우차트.
도 8a는 본 발명의 일 실시예에 따른, 카메라 어레이에서의 카메라들의 서브셋들에 의해 포착되는 영상들을 사용하여 깊이를 추정하는 프로세스를 나타낸 플로우차트.
도 8b 내지 도 8i는 본 발명의 실시예들에 따른, 깊이 추정치들을 획득하기 위해 이용될 수 있는 5 x 5 어레이 카메라에서의 카메라들의 서브셋들을 개념적으로 나타낸 도면.
도 8j 내지 도 8m은 본 발명의 실시예들에 따른, 깊이 추정치들을 획득하기 위해 이용될 수 있는 4 x 4 어레이 카메라에서의 카메라들의 서브셋들을 개념적으로 나타낸 도면.
도 9는 본 발명의 일 실시예에 따른, 주어진 픽셀을 폐색 픽셀들에 대한 에피폴라 라인(epipolar line)을 탐색하는 프로세스를 개념적으로 나타낸 도면.
도 10은 본 발명의 일 실시예에 따른, 깊이 맵을 구성하기 위해 이용될 수 있는 5 x 5 어레이 카메라를 개념적으로 나타낸 도면.
도 11은 본 발명의 일 실시예에 따른, 대응하는 픽셀들의 측광 유사도(photometric similarity)에 기초하여 가시성을 결정하는 프로세스를 나타낸 플로우차트.
도 12는 본 발명의 일 실시예에 따른, 4 x 4 어레이 카메라와 관련하여 정의될 수 있는 많은 가상 시점들 중 하나를 개념적으로 나타낸 도면.
도 13은 본 발명의 일 실시예에 따른, 희소 깊이 맵(sparse depth map)을 발생시키는 프로세스를 나타낸 플로우차트.
도 14는 본 발명의 일 실시예에 따른, 희소 깊이 맵을 발생시킬 때 지시자 픽셀(indicator pixel)들로서 이용될 수 있는 일련의 픽셀들을 개념적으로 나타낸 도면.
도 15는 본 발명의 일 실시예에 따른, 픽셀을 둘러싸고 있는 텍스처리스 영역(textureless region)들을 SNR을 사용하여 검출하는 프로세스를 나타낸 플로우차트.
도 16은 본 발명의 일 실시예에 따른, 깊이 맵 및 가시성 정보를 발생시키는 시스템을 나타낸 도면.
도 17은 본 발명의 실시예들에 따른, 초해상도 처리(super-resolution processing)를 사용하여 상이한 시점들로부터 포착된 복수의 저 해상도 영상들로부터 고 해상도 영상을 합성하는 프로세스를 나타낸 플로우차트.
도 18a 및 도 18b는 깊이 추정치들에서의 잡음의 요인들을 개념적으로 나타낸 도면.
도 18c 내지 도 18h는 본 발명의 일 실시예에 따른, 포착된 영상 데이터로부터 깊이 맵 및 신뢰도 맵을 생성하는 것 그리고 깊이 맵을 필터링하기 위해 신뢰도 맵을 사용하는 것을 개념적으로 나타낸 도면.
도 18i 내지 도 18n은 이와 유사하게 본 발명의 일 실시예에 따른, 포착된 영상 데이터로부터 깊이 맵 및 신뢰도 맵을 생성하는 것 그리고 클로즈업 영상들을 사용하여 깊이 맵을 필터링하기 위해 신뢰도 맵을 사용하는 것을 개념적으로 나타낸 도면.
이제 도면들을 참조하면, 어레이 카메라들을 사용하여 포착된 영상들에서의 시차 검출 및 보정을 위한 시스템 및 방법이 예시되어 있다. 발명의 명칭이 "이질적 촬상 소자들을 갖는 모놀리딕 카메라 어레이를 사용한 영상의 포착 및 처리(Capturing and Processing of Images using Monolithic Camera Array with Heterogeneous Imagers)"인 Venkataraman 등의 미국 특허 출원 제12/935,504호에 기술된 것들과 같은 어레이 카메라들이 명시야 영상들을 포착하기 위해 이용될 수 있다. 다수의 실시예들에서, 발명의 명칭이 "초해상도 프로세스를 사용하여 고 해상도 영상을 합성하는 시스템 및 방법(Systems and Methods for Synthesizing High Resolution Images Using Super-Resolution Processes)"인 Lelescu 등의 미국 특허 출원 제12/967,807호에 기술된 것들과 같은 초해상도 프로세스들이 어레이 카메라에 의해 포착된 명시야에서의 저 해상도 영상들로부터 고 해상도 2D 영상 또는 고 해상도 2D 영상들의 스테레오 쌍(stereo pair)을 합성하는 데 이용된다. 고 해상도 및 저 해상도라는 용어는 본 명세서에서 어레이 카메라에 의해 포착된 영상들의 특정의 해상도를 나타내기 위해서가 아니라 상대적인 의미로 사용된다. 미국 특허 출원 제12/935,504호 및 미국 특허 출원 제12/967,807호의 개시 내용은 그 전체가 참조 문헌으로서 본 명세서에 포함된다.
포착된 명시야에서의 각각의 2차원(2D) 영상은 어레이 카메라에서의 카메라들 중 하나의 카메라의 시점으로부터의 영상이다. 카메라들 각각의 상이한 시점으로 인해, 시차는 장면의 상이한 영상들 내의 객체들의 위치의 변동을 초래한다. 본 발명의 실시예들에 따른 시스템 및 방법은 어레이에서의 상이한 카메라들 사이의 시차의 결과로서의 픽셀 불일치의 정확한 설명을 제공하고, 따라서 초해상도 처리를 수행할 때 적절한 장면 의존적인 기하학적 시프트들이, 포착된 영상들의 픽셀들에 적용될 수 있다.
기준 시점이라고 할 수 있는 특정의 시점으로부터, 초해상도 처리를 사용하여 합성된 고 해상도 영상이 합성된다. 기준 시점은 카메라 어레이에서의 카메라들 중 하나의 카메라의 시점일 수 있다. 다른 대안으로서, 기준 시점은 물리 카메라(physical camera)가 없는 임의의 가상 시점일 수 있다. (가상 시점과 달리) 카메라들 중 하나의 카메라의 시점으로부터 고 해상도 영상을 합성하는 것의 이점은 명시야에서의 픽셀들의 불일치가 기준 시점으로부터 포착된 명시야에서의 영상와 관련하여 결정될 수 있다는 것이다. 가상 시점이 이용될 때, 포착된 영상 데이터 중 어느 것도 기준 시점으로부터의 것이 아니며, 따라서 프로세스는 최상의 일치를 결정하기 위해 그 대신에 기준 위치부터 멀리 있는 카메라들에만 의존한다.
본 발명의 많은 실시예들에 따른 어레이 카메라들은 기준 시점으로부터의 깊이 맵을 발생시키기 위해 명시야 내의 영상들에서의 픽셀들 간의 불일치를 사용한다. 깊이 맵은 기준 시점으로부터의 장면 개체들의 거리를 나타내고, 초해상도 처리를 수행할 때 불일치를 보정하기 위해 포착된 명시야 내의 영상들 각각으로부터의 픽셀들에 적용할 장면 의존적인 기하학적 보정을 결정하는 데 이용될 수 있다. 몇몇 실시예들에서, 기준 시점의 초기 깊이 맵이 발생되고, 그 프로세스의 일부로서 또는 후속 프로세스로서, 폐색된 픽셀들 및/또는 다른 유형의 부정합 픽셀들이 검출된다. 폐색되는 픽셀들을 검출하는 프로세스는 또한 기준 시점으로부터 포착된 영상에서의 픽셀이 비기준 시점으로부터의 영상에서 보이는지를 결정하는 것으로 생각될 수 있다. 기준 시점으로부터 포착된 영상에서의 픽셀이 제2 영상에서 보이지 않을 때, 기준 영상에서의 픽셀의 깊이를 결정할 때 제2 영상으로부터의 영상 데이터를 이용하는 것은 깊이 결정에 오류를 유입시킨다. 따라서, 명시야에서의 하나 이상의 영상들에서 폐색되는 기준 영상에서의 픽셀들을 검출하는 것에 의해, 깊이 맵의 정확도가 향상될 수 있다. 몇몇 실시예들에서, 폐색된 픽셀들의 깊이들을 픽셀들이 보이는(즉, 폐색되지 않은) 카메라들로부터 포착된 영상 데이터를 사용하여 결정하는 것에 의해 초기 깊이 맵이 업데이트된다. 다수의 실시예들에서, 있을 수 있는 폐색 및/또는 부정합 픽셀들의 다른 요인들의 존재가 초기 깊이 추정치를 발생시키는 프로세스 동안 검출될 수 있고, 장면 내의 상이한 가시성 패턴들에 대응하는 일련의 영상들의 서브셋들이 일련의 후보 깊이 추정치들을 결정하는 데 사용될 수 있다. 가장 유사한 대응하는 픽셀들을 가지는 영상들의 서브셋의 후보 깊이가 새로운 깊이 추정치로서 사용될 수 있고, 새로운 깊이 추정치는 나머지 일련의 영상들의 일부 또는 전부에서의 대응하는 픽셀들의 가시성을 결정하는 데 사용될 수 있다.
기준 시점으로부터의 깊이 맵은 다른 시점들로부터 포착된 영상들에서 일어났을 가능성이 있는 장면 의존적인 기하학적 시프트들을 결정하는 데 이용될 수 있다. 이 장면 의존적인 기하학적 시프트들은 초해상도 처리에서 이용될 수 있다. 그에 부가하여, 장면 의존적인 기하학적 시프트들은 기준 시점으로부터의 명시야 내의 픽셀들의 가시성의 결정들을 세밀화하기 위해 이용될 수 있다. 다수의 실시예들에서, 장면 의존적인 기하학적 시프트들은 픽셀들의 유사도를 비교하는 데 이용된다. 기준 시점으로부터의 픽셀의 깊이가 올바르게 결정되는 것으로 가정하면, 픽셀들의 유사도는 픽셀이 보이는지를 나타낸다. 유사한 픽셀은 불일치로 인해 시프트된, 기준 시점으로부터 관측된 픽셀일 가능성이 있다. 픽셀들이 유사하지 않은 경우, 기준 시점으로부터 관측된 픽셀은 제2 영상에서 폐색될 가능성이 있다. 많은 실시예들에서, 가시성 정보는 깊이 맵들을 추가로 업데이트하는 데 이용된다. 몇몇 실시예들에서, 가시성 정보가 발생되고 초해상도 처리에서 사용하기 위해 깊이 맵과 함께 제공된다.
다수의 실시예들에서, 깊이 천이(depth transition)들을 수반하는 영역들 및/또는 명시야 내의 하나 이상의 영상들에서 폐색되는 픽셀들을 포함하는 영역들(이들로 제한되지 않음)과 같은 부가의 깊이 정보가 바람직한 영역들에서의 부가의 깊이 추정치들을 포함하는 희소 깊이 맵을 발생시키는 것에 의해 깊이 맵들을 발생시키는 계산 복잡도가 감소된다.
많은 어레이 카메라들은 상이한 카메라들(예를 들어, 미국 특허 출원 제12/935,504호에 개시된 어레이 카메라들을 참조)을 사용하여 색상 정보를 포착한다. 많은 실시예들에서, 녹색 카메라의 시점이 기준 시점으로서 이용된다. 어레이 카메라 내의 다른 녹색 카메라들에 의해 포착된 영상들을 사용하여 초기 깊이 맵이 발생될 수 있고, 명시야 내의 적색, 녹색, 및 청색 픽셀들의 가시성을 결정하기 위해 깊이 맵이 사용될 수 있다. 다른 실시예들에서, 다수의 색상 채널들에서의 영상 데이터가 깊이 추정을 수행하는 데 이용될 수 있다. 몇몇 실시예들에서, 깊이를 추정할 때 각각의 색상 채널에서의 대응하는 픽셀들의 유사도가 고려된다. 다수의 실시예들에서, 깊이를 추정할 때 상이한 색상 채널들에서의 대응하는 픽셀들의 세트들의 유사도가 고려된다. 본 발명의 실시예들에 따른, 단일의 스펙트럼 채널에서, 다수의 스펙트럼 채널들에서, 및/또는 스펙트럼 채널들에 걸쳐 대응하는 픽셀들의 유사도를 고려하는 다양한 비용 함수들을 사용하는 깊이 추정이 이하에서 추가로 논의된다.
몇몇 실시예들에서, 어레이 카메라는 다수의 색상 채널들에서의 영상 데이터를 포착하는 하나 이상의 카메라들을 포함할 수 있다. 예를 들어, 어레이 카메라는, 흑백 카메라(monochrome camera)들에 부가하여 또는 그에 대한 대안으로서, 베이어 컬러 필터 패턴(Bayer color filter pattern)을 가지는 하나 이상의 카메라들을 포함할 수 있다. 다수의 색상 채널들을 포착하는 카메라의 시점이 깊이 맵을 발생시키기 위한 기준 시점으로서 사용될 때, 기준 시점으로부터 포착된 각각의 색상 채널에 대해 깊이 맵 및 가시성 정보가 결정될 수 있다. 기준 영상이 다수의 색상 채널들에 관한 정보를 포함할 때, 깊이 및 가시성 정보가, 다른 색상 채널에서의 픽셀들의 깊이 및 가시성과 관련하여 하나의 채널에서의 픽셀들을 위치 맞춤(registering)하는 것보다, 기준 영상과 관련한 명시야에서의 픽셀들의 불일치에 기초하여 더 신뢰성있게 생성될 수 있다. 다수의 색상 채널들에서 영상 데이터를 포착하는 카메라의 시점을 기준 시점으로서 이용하는 것의 단점은 포착된 색상 채널들에서의 깊이 정보의 분해능이 단일의 채널에서 동일한 수의 픽셀들을 사용하여 영상 데이터를 포착하는 카메라에 비해 감소된다는 것이다. 그에 따라, 어레이 카메라의 구성 및 기준 시점으로서 이용할 시점의 선택은 전형적으로 특정의 응용의 요구사항들에 의존한다.
명시야에서의 픽셀들에 대해 깊이 맵 및 가시성 정보가 발생되면, 장면의 고 해상도 2D 영상을 합성하기 위해 본 발명의 실시예들에 따라 깊이 맵 및 가시성 정보가 초해상도 처리 파이프라인에 제공될 수 있다. 상이한 저 해상도 영상들 간의 시차를 보정하기 위해 깊이 맵이 이용될 수 있고, 폐색된 픽셀들(즉, 기준 시점으로부터 보이지 않는 대안 시점 영상에서의 픽셀들)의 융합(fusion)을 방지하기 위해 융합 동안 가시성 정보가 이용될 수 있다. 몇몇 실시예들에서, 깊이 맵을 발생시키는 프로세스는 또한 깊이 맵에서의 깊이 추정치들에 대한 신뢰도 메트릭들을 포함하는 신뢰도 맵을 발생시키는 것을 포함한다. 몇몇 실시예들에서, 깊이 메트릭들은 대응하는 깊이 추정치의 신뢰성을 나타내는 적어도 하나의 신뢰도 인자를 인코딩한다. 다수의 실시예들에서, 신뢰도 메트릭은 적어도 깊이 추정치와 연관되어 있는 픽셀 위치의 영역에서의 신호대 잡음비(SNR)에 기초한 신뢰도 인자, 및 깊이 추정치를 발생시키는 데 이용되었고 그리고/또는 폐색되어 있는, 깊이 맵과 연관되어 있는 픽셀 위치에 대응하는 일련의 영상들에서의 픽셀들의 수에 기초한 신뢰도 인자를 포함한다. 본 발명의 실시예들에 따른, 어레이 카메라들에 의해 포착된 영상들에서의 불일치를 검출하고 보정하는 시스템 및 방법이 이하에 기술되어 있다. 그렇지만, 시차의 검출 및 보정을 논의하기 전에, 본 발명의 실시예들에 따른 다양한 어레이 카메라들에 대해 논의한다.
어레이 카메라 아키텍처
본 발명의 실시예들에 따른 어레이 카메라들은 카메라들의 어레이를 포함하는 카메라 모듈, 및 영상들을 합성하기 위해 카메라 모듈로부터 영상 데이터를 판독하여 처리하도록 구성된 프로세서를 포함할 수 있다. 본 발명의 일 실시예에 따른 어레이 카메라가 도 1에 예시되어 있다. 어레이 카메라(100)는 개개의 카메라(104)의 어레이를 갖는 카메라 모듈(102)을 포함하고, 여기서 개개의 카메라들의 어레이는 예시된 실시예에서 이용되는 정사각형 배열(이들로 제한되지 않음)과 같은 특정의 배열로 되어 있는 복수의 카메라들을 말한다. 카메라 모듈(102)은 프로세서(108)에 연결되어 있다. 프로세서는 또한 영상 데이터를 저장하기 위해 그리고/또는 이하에서 기술되는 다양한 프로세스들(이들로 제한되지 않음)을 비롯한 프로세스들을 수행하도록 프로세서를 구성하는 데 이용되는 기계 판독가능 명령어들을 저장하기 위해 이용될 수 있는 하나 이상의 상이한 유형의 메모리(110)와 통신하도록 구성되어 있다. 많은 실시예들에서, 메모리는 이하에서 상세히 설명하는 프로세스들 중 임의의 것을 사용하여 깊이 맵(들), 가시성 맵(들), 신뢰도 맵(들), 및/또는 고 해상도 영상(들)을 발생시키기 위해 복수의 영상들을 포함하는 명시야를 처리하도록 구성되어 있는 영상 처리 애플리케이션을 포함한다. 이하에서 추가로 논의되는 바와 같이, 깊이 맵은 전형적으로 기준 시점으로부터의 영상(예컨대, 기준 시점으로부터 합성된 고 해상도 영상)에서의 픽셀들에 대한 깊이 추정치들을 제공한다. 기준 영상에서의 픽셀 위치들이 명시야 내의 특정의 영상들에서 보이는지를 나타내는 가시성 맵들, 명시야 내의 영상에서의 특정 픽셀들이 기준 시점으로부터 보이는지를 나타내는 가시성 맵들, 및 하나의 대안 시점 영상에서 보이는 픽셀이 다른 대안 시점 영상에서 보이는지를 나타내는 가시성 맵들(이들로 제한되지 않음)을 비롯하여, 특정의 응용들의 요구사항에 따라 적절히 각종의 가시성 맵들이 발생될 수 있다. 다른 실시예들에서, 각종의 애플리케이션들 중 임의의 것이 메모리에 저장되고 본 명세서에 기술된 프로세스들을 사용하여 영상 데이터를 처리하는 데 이용될 수 있다. 몇몇 실시예들에서, 본 발명의 실시예들에 따른 프로세스들은 ASIC(application specific integration circuit), 및/또는 FPGA(field programmable gate array)를 사용하여 하드웨어로 구현되거나, 일부가 하드웨어 및 소프트웨어로 구현될 수 있다.
본 발명의 많은 실시예들에 따른 프로세서들(108)은 명시야 내의 영상 데이터를 취하여 하나 이상의 고 해상도 영상들을 합성하도록 적절한 소프트웨어를 사용하여 구성된다. 몇몇 실시예들에서, 기준 시점, 전형적으로 센서(102) 내의 기준 초점면(reference focal plane)(104)의 기준 시점으로부터 고 해상도 영상이 합성된다. 많은 실시예들에서, 프로세서는 센서(102)에서의 초점면들(104) 중 임의의 것의 시점들에 대응하지 않는 가상 시점으로부터 영상을 합성할 수 있다. 명시야에서의 영상들은 영상들을 포착하는 데 사용되는 초점면들의 상이한 시야들로 인해 장면 의존적인 불일치(scene-dependent disparity)를 포함할 것이다. 불일치를 검출하고 보정하는 프로세스들은 이하에서 더 논의된다. 특정의 어레이 카메라 아키텍처가 도 1에 예시되어 있지만, 대안의 아키텍처들이 또한 본 발명의 실시예들에 따라 이용될 수 있다.
어레이 카메라 모듈
본 발명의 실시예들에 따른 어레이 카메라 모듈들은 초점면들의 어레이를 포함하는 촬상기 어레이(imager array) 또는 센서 및 촬상기 어레이에서의 각각의 초점면에 대한 렌즈 스택(lens stack)을 포함하는 광학 어레이(optic array)로 구성될 수 있다. 다수의 초점면들을 포함하는 센서들은 발명의 명칭이 "시스템 온 칩 어레이 카메라의 아키텍처(Architectures for System on Chip Array Cameras)"인 Pain 등의 미국 특허 출원 제13/106,797호(그 개시 내용 전체가 참조 문헌으로서 본 명세서에 포함됨)에 논의되어 있다. 어레이 카메라 모듈 내의 상이한 카메라들이 전자기 스펙트럼의 상이한 부분들에 대한(즉, 상이한 스펙트럼 채널들 내의) 영상 데이터를 포착할 수 있게 하기 위해 광학 어레이(optic array)에서의 렌즈 스택들에 의해 형성된 각각의 광 채널(optical channel) 내에 광 필터(light filter)들이 사용될 수 있다.
본 발명의 일 실시예에 따른 어레이 카메라 모듈이 도 1a에 예시되어 있다. 어레이 카메라 모듈(150)은 초점면들(154)의 어레이를 포함하는 촬상기 어레이(152)를, 렌즈 스택들(158)의 어레이를 포함하는 대응하는 광학 어레이(156)와 함께 포함한다. 렌즈 스택들의 어레이 내에서, 각각의 렌즈 스택(158)은 대응하는 초점면(154) 내의 감광 픽셀(light sensitive pixel)들의 어레이 상에 장면의 영상을 형성하는 광 채널을 생성한다. 렌즈 스택(158)과 초점면(154)의 각각의 쌍(pairing)은 카메라 모듈 내의 단일의 카메라(104)를 형성한다. 카메라(104)의 초점면(154) 내의 각각의 픽셀은 카메라(104)로부터 프로세서(108)로 송신될 수 있는 영상 데이터를 발생시킨다. 많은 실시예들에서, 각각의 광 채널 내의 렌즈 스택은 각각의 초점면(158)의 픽셀들이 장면 내의 동일한 객체 공간 또는 영역을 샘플링하도록 구성되어 있다. 몇몇 실시예들에서, 렌즈 스택들은 초해상도 프로세스의 사용을 통해 증가된 해상도를 복원하는 데 이용될 수 있는 샘플링 다이버시티(sampling diversity)를 제공하기 위해 동일한 객체 공간을 샘플링하는 픽셀들이 서브픽셀 오프셋들로 그렇게 하도록 구성되어 있다. 샘플링 다이버시티라는 용어는 상이한 시점들로부터의 영상들이 장면에서의 동일한 객체를 약간의 서브픽셀 오프셋들로만 샘플링한다는 사실을 말한다. 서브픽셀 정밀도로 영상들을 처리하는 것에 의해, 단일의 영상을 갖는 객체 공간을 단순히 샘플링하는 것과 비교할 때 서브픽셀 오프셋들로 인해 인코딩된 부가 정보가 복원될 수 있다.
예시된 실시예에서, 초점면들이 5 x 5 어레이로 구성되어 있다. 센서 상의 각각의 초점면(154)은 장면의 영상을 포착할 수 있다. 전형적으로, 각각의 초점면은 복수의 열의 픽셀들을 역시 형성하는 복수의 행의 픽셀들을 포함하고, 각각의 초점면은 다른 초점면으로부터의 픽셀들을 포함하지 않는 촬상기의 영역 내에 포함되어 있다. 많은 실시예들에서, 각각의 초점면의 영상 데이터 포착 및 판독이 독립적으로 제어될 수 있다. 이러한 방식으로, 장면 동적 범위(scene dynamic range)의 특정의 부분 및/또는 특정의 색상 채널(이들로 제한되지 않음)을 비롯한 인자들에 기초하여 영상 포착 설정치(image capture setting)들이 조정될 수 있게 하기 위해 초점면 내의 픽셀들의 노출 시간 및 아날로그 이득(analog gain)(이들로 제한되지 않음)을 비롯한 영상 포착 설정치들이 독립적으로 결정될 수 있다. 초점면들에서 이용되는 센서 요소들은 종래의 CIS(CMOS Image Sensor) 픽셀들, CCD(charge-coupled device) 픽셀들, 고 동적 범위 센서 요소들, 다중 스펙트럼 센서 요소들, 및/또는 구조물에 입사하는 광을 나타내는 전기 신호를 발생시키도록 구성된 임의의 다른 구조물(이들로 제한되지 않음)과 같은 개별적인 광 감지 요소들일 수 있다. 많은 실시예들에서, 각각의 초점면의 센서 요소들은 유사한 물리적 특성들을 가지며 동일한 광 채널 및 컬러 필터(존재하는 경우)를 통해 광을 수광한다. 다른 실시예들에서, 센서 요소들은 상이한 특성들을 가지며, 많은 경우들에서, 센서 요소들의 특성들은 각각의 센서 요소에 적용되는 컬러 필터에 관련되어 있다.
몇몇 실시예들에서, 개개의 카메라들 내의 컬러 필터들은 2012년 5월 1일자로 출원된, 발명의 명칭이 "파이 필터 그룹들로 패턴화된 카메라 모듈(Camera Modules Patterned with pi Filter Groups)"인 미국 가특허 출원 제61/641,165호(그 개시 내용 전체가 참조 문헌으로서 본 명세서에 포함됨)에 추가로 논의되는 바와 같이 카메라 모듈을 π 필터 그룹들로 패턴화하는 데 사용될 수 있다. 이 카메라들은 상이한 색상들 또는 스펙트럼의 특정의 부분에 대한 데이터를 포착하는 데 사용될 수 있다. 컬러 필터들을 카메라의 픽셀들에 적용하는 것과 달리, 본 발명의 많은 실시예들에서의 컬러 필터들이 렌즈 스택에 포함되어 있다. 8개의 녹색 카메라들, 4개의 청색 카메라들, 및 4개의 적색 카메라들을 포함하는 도 1c의 구성을 비롯한 각종의 컬러 필터 구성들 중 임의의 것이 이용될 수 있고, 여기서 카메라들은 카메라의 중심 주위에 보다 균등하게 분포되어 있다. 예를 들어, 녹색 카메라는 녹색 광이 광 채널을 통과할 수 있게 하는 녹색 광 필터를 갖는 렌즈 스택을 포함할 수 있다. 많은 실시예들에서, 각각의 초점면에서의 픽셀들은 동일하고 픽셀들에 의해 포착된 광 정보가 각각의 필터면(filter plane)에 대한 대응하는 렌즈 스택에서의 컬러 필터들에 의해 구별(differentiate)된다. 렌즈 스택들에 컬러 필터들을 포함하는 광학 어레이를 갖는 카메라 모듈의 특정의 구조가 앞서 기술되어 있지만, π 필터 그룹들을 포함하는 카메라 모듈들은 컬러 필터들이 종래의 컬러 카메라의 픽셀들에 적용되는 방식과 유사하게 카메라 모듈의 초점면들의 픽셀들에 컬러 필터들을 적용하는 것(이들로 제한되지 않음)을 비롯한 각종의 방식들로 구현될 수 있다. 몇몇 실시예들에서, 카메라 모듈 내의 카메라들 중 적어도 하나는 그의 초점면에서의 픽셀들에 적용되는 균일한 컬러 필터들을 포함할 수 있다. 많은 실시예들에서, 베이어 필터 패턴(Bayer filter pattern)이 카메라 모듈 내의 카메라들 중 하나의 카메라의 픽셀들에 적용된다. 다수의 실시예들에서, 렌즈 스택들에서 뿐만 아니라 촬상기 어레이의 픽셀들에서도 컬러 필터들이 이용되는 카메라 모듈들이 구성된다.
특정의 어레이 카메라들 및 촬상기 어레이들이 앞서 논의되었지만, 본 발명의 실시예들에 따라 영상 데이터를 포착하고 영상들을 합성하기 위해 많은 상이한 어레이 카메라들이 이용될 수 있다. 본 발명의 실시예들에 따른, 어레이 카메라에 의해 포착된 영상 데이터에서의 시차를 검출하고 보정하는 시스템 및 방법이 이하에서 논의된다.
시차/불일치의 결정
다수의 실시예들에서, 명시야를 포착하는 데 사용되는 어레이 카메라 내의 개별적인 카메라들은 유사한 시야들, 고정된 조리개들, 및 초점 거리들을 가진다. 그 결과로서, 카메라들은 아주 유사한 피사계 심도(depth of field)를 가지는 경향이 있다. 2 카메라 시스템(two camera system)에서의 시차가 도 2에 예시되어 있다. 2개의 카메라들(200, 202)은 렌즈 스택(204) 및 초점면(206)을 포함한다. 각각의 카메라는 후방 초점 거리(back focal length) f를 가지며, 2개의 카메라들은 2h의 기준선 거리만큼 분리되어 있다. 양 카메라들의 시야는 전경 객체(208) 및 배경 객체(210)를 포함하는 장면을 내포한다. 제1 카메라(200)의 시점으로부터의 장면이 도 3a에 예시되어 있다. 제1 카메라에 의해 포착된 영상(300)에서, 전경 객체(208)는 배경 객체(210)의 약간 우측에 위치해 있는 것처럼 보인다. 제2 카메라(202)의 시점으로부터의 장면이 도 3b에 예시되어 있다. 제2 카메라에 의해 포착된 영상(302)에서, 전경 객체(208)는 배경 객체(210)의 좌측으로 시프트된 것처럼 보인다. 2개의 카메라들(200, 202)의 상이한 시야에 의해 야기된 불일치는 제1 카메라에 의해 포착된 영상에서의 전경 객체(208)의 위치(제2 카메라에 의해 포착된 영상에서 가상선(ghost line)(304)으로 나타내어져 있음)와 제2 카메라에 의해 포착된 영상에서의 그것의 위치 간의 차이와 같다. 이하에서 추가로 논의되는 바와 같이, 2개의 카메라들로부터 전경 객체까지의 거리는 2개의 포착된 영상들에서의 전경 객체의 불일치를 결정하는 것에 의해 획득될 수 있다.
다시 도 2를 참조하면, 전경 객체 상의 지점 (xo, yo, zo)는 각각의 카메라의 초점면 상에서 카메라의 광학축으로부터 오프셋되어 나타날 것이다. 제1 카메라(200)의 초점면 상의 지점의 제1 카메라의 광학축(212)에 대한 오프셋은 -uL로서 도시되어 있다. 제2 카메라(202)의 초점면 상의 지점의 제2 카메라의 광학축(214)에 대한 오프셋은 uR로서 도시되어 있다. 닮은 삼각형들을 사용하여, 2개의 카메라들에 의해 포착된 영상들 사이의 오프셋은 다음과 같이 관측될 수 있다:
2개의 식들을 결합하면 하기 식과 같이 2개의 카메라들 사이의 불일치(또는 시차)가 얻어진다.
상기 식으로부터, 카메라들에 의해 포착된 영상들 간의 불일치가 2개의 카메라들의 기준선(2개의 카메라들 사이의 에피폴라 라인이라고 할 수 있음)의 방향에 있는 벡터를 따라 있다는 것을 알 수 있다. 게다가, 불일치의 크기는 2개의 카메라들의 기준선 간격 및 카메라들의 후방 초점 거리에 정비례하고, 카메라로부터 장면에 나오는 객체까지의 거리에 반비례한다.
어레이 카메라에서의 폐색
장면의 다수의 영상들이 상이한 시점(perspective)들로부터 포착되고 장면이 전경 객체들을 포함할 때, 영상들 각각에서의 전경 객체의 위치의 불일치로 인해, 영상들 전부가 아닌 일부에서 전경 객체 후방에 있는 장면의 부분들이 보이게 된다. 다른 시점들로부터의 장면의 포착된 영상들에서 보이지 않는 장면의 한 부분에 관한 영상 데이터를 포착하는 픽셀은 폐색된 픽셀(occluded pixel)이라고 할 수 있다. 도 3a 및 도 3b를 다시 참조하면, 제2 카메라의 시점이 기준 시점으로서 선택될 때, 영상(302)에서 가상선(304) 내에 포함된 픽셀들은 폐색된 픽셀들(즉, 픽셀들이 제2 카메라(202)에 의해 포착된 영상(302)에서는 보이지만 제1 카메라(200)에 의해 포착된 영상(300)에서는 보이지 않는 장면의 한 부분으로부터의 영상 데이터를 포착함)인 것으로 간주될 수 있다. 제1 영상에서 가상선(306) 내에 포함된 픽셀들은 드러난 픽셀(revealed pixel)들(즉, 기준 시점에서는 보이지 않지만 대안 시점으로 시프트하는 것에 의해 드러나는 픽셀들)인 것으로 간주될 수 있다. 제2 영상에서, 전경 객체(208)의 픽셀들은, 영상(302)에서 가상선(304) 내에 포함된 픽셀들을 폐색하는 장면의 부분들을 포착하기 때문에, 폐색 픽셀(occluding pixel)들이라고 할 수 있다. 제2 영상(302)에서 가상선(304) 내에 포함된 픽셀들의 폐색으로 인해, 카메라로부터 가상선(304) 내에 보이는 장면의 부분들까지의 거리가 2개의 영상들로부터 결정될 수 없는데, 그 이유는 도 3a에 도시된 영상(300)에 대응하는 픽셀들이 없기 때문이다.
이하에서 추가로 논의되는 바와 같이, 기준 시점 주위의 상보적 폐색 구역(complementary occlusion zone)들에 있는 상이한 시점들로부터 장면의 영상들을 포착하는 카메라들의 수를 증가시키는 것은 기준 시점으로부터 보이는 장면의 모든 부분이 또한 다른 카메라들 중 적어도 하나의 카메라의 시점으로부터 보일 가능성을 증가시킨다. 어레이 카메라가 광의 상이한 파장들(예컨대, RGB)을 포착하기 위해 상이한 카메라들을 사용할 때, 기준 시점을 둘러싸고 있는 4분면들에 광의 각각의 파장을 포착하는 적어도 하나의 카메라를 분포시키는 것은 기준 시점으로부터 보이는 장면의 한 부분이 특정의 색상 채널 내에서 포착되는 모든 다른 영상에서 폐색될 가능성을 상당히 감소시킬 수 있다. 본 발명의 실시예들에 따른 폐색의 가능성을 감소시키도록 어레이 카메라들에서의 컬러 필터들을 분포시키는 것은 2012년 5월 1일자로 출원된, 발명의 명칭이 "π 필터 그룹들로 패턴화된 카메라 모듈(Camera Modules Patterned with π Filter Groups)"인 Nisenzon 등의 미국 가특허 출원 제61/641,164호(그 개시 내용이 참조 문헌으로서 그 전체가 본 명세서에 포함됨)에 추가로 논의되어 있다.
어레이 카메라에서의 깊이 맵을 발생시키기 위해 불일치를 사용함
본 발명의 많은 실시예들에 따른 어레이 카메라들은 깊이 맵을 발생시키기 위해 어레이 카메라들에 의해 포착되는 영상들에서 관측되는 불일치를 사용한다. 깊이 맵은 전형적으로 (원래의 입력 영상들의 해상도에 대한 깊이 맵의 분해능에 따라) 카메라로부터 영상 내의 특정 픽셀들 또는 픽셀들의 그룹들까지의 거리를 기술하는 영상에 관한 메타데이터의 계층인 것으로 간주된다. 본 발명의 다수의 실시예들에 따른 어레이 카메라들은 고 해상도 영상의 합성 동안 장면 의존적인 기하학적 시프트들을 발생시키는 것 및/또는 합성된 영상의 동적 리포커싱(dynamic refocusing)을 수행하는 것(이들로 제한되지 않음)을 비롯한 각종의 목적들을 위해 깊이 맵들을 사용한다.
이상에서의 불일치의 논의에 기초하여, 픽셀 불일치에 기초한 장면의 한 부분의 깊이를 결정하는 프로세스가 이론적으로는 간단하다. 어레이 카메라에서의 특정의 카메라의 시점이 기준 시점으로서 선택될 때, 기준 시점으로부터 보이는 장면의 한 부분까지의 거리가, 카메라 어레이에 의해 포착된 영상들 중 일부 또는 전부에서의 대응하는 픽셀들 사이의 불일치를 사용하여 결정될 수 있다. 폐색이 없을 때, 기준 시점으로부터 포착된 영상에서의 픽셀에 대응하는 픽셀이 에피폴라 라인(즉, 2개의 카메라들 사이의 기준선 벡터에 평행인 라인)을 따라 있는 각각의 비기준 또는 대안 시점 영상에 배치될 수 있다. 불일치의 에피폴라 라인을 따른 거리는 카메라와 픽셀들에 의해 포착된 장면의 부분 사이의 거리에 대응한다. 따라서, 특정의 깊이에서 대응할 것으로 예상되는 포착된 영상들에서의 픽셀들을 비교하는 것에 의해, 가장 높은 정도의 유사도를 가지는 픽셀들을 산출하는 깊이에 대해 탐색이 수행될 수 있다. 포착된 영상들에서의 대응하는 픽셀들이 가장 높은 정도의 유사도를 가지는 깊이가 카메라와 픽셀에 의해 포착된 장면의 부분 사이의 가장 유망한 거리로서 선택될 수 있다. 이하에서 논의되는 바와 같이, 본 발명의 실시예들에 따라 특정의 응용들의 요구사항들에 적절하게 단일의 스펙트럼 채널 내에서, 다수의 스펙트럼 채널들 내에서, 및/또는 스펙트럼 채널들에 걸쳐 대응하는 픽셀들에 대해 유사도가 결정될 수 있다.
그렇지만, 앞서 기술된 방법을 사용하여 정확한 깊이 맵을 결정하는 데 많은 과제들이 존재한다. 몇몇 실시예들에서, 어레이 카메라 내의 카메라들이 유사하지만 동일하지는 않다. 따라서, 광학 특성(이들로 제한되지 않음)을 비롯한 영상 특성들, 상이한 센서 특성들(오프셋으로 인한 센서 응답에서의 변동, 상이한 전송 또는 이득 응답, 픽셀 응답의 비선형 특성 등), 포착된 영상들에서의 잡음, 및/또는 조립 공정에 관계된 제조 허용 오차들에 관련된 워핑(warp) 또는 왜곡이 영상들 간에 달라질 수 있고, 이는 상이한 영상들에서의 대응하는 픽셀들의 유사도를 감소시킨다. 그에 부가하여, 초해상도 프로세스들은 고 해상도 영상들을 합성하기 위해 촬상기 어레이에 의해 포착되는 영상들에서의 샘플링 다이버시티에 의존한다. 그렇지만, 샘플링 다이버시티를 증가시키는 것은 또한 명시야에서의 포착된 영상들 내의 대응하는 픽셀들 간의 유사도를 감소시키는 것을 수반할 수 있다. 앞서 기술한 깊이를 결정하는 프로세스가 픽셀들의 유사도에 의존한다는 것을 고려하면, 포착된 영상들 사이의 측광 차이 및 샘플링 다이버시티의 존재는 깊이 맵이 결정될 수 있는 정확도를 감소시킬 수 있다.
깊이 맵을 발생시키는 일은 폐색에 의해 더욱 복잡하게 된다. 앞서 논의한 바와 같이, 기준 시점으로부터 보이는 픽셀이 포착된 영상들 중 하나 이상에서 보이지 않을 때 폐색이 일어난다. 폐색의 효과는, 올바른 깊이에서, 그렇지 않았으면 대응하는 픽셀에 의해 점유될 픽셀 위치가 장면의 다른 부분(전형적으로 카메라에 더 가까운 객체)을 샘플링하는 픽셀에 의해 점유되는 것이다. 폐색 픽셀은 종종 폐색된 픽셀과 아주 상이하다. 따라서, 올바른 깊이에서 픽셀들의 유사도의 비교는 다른 깊이들에서보다 상당히 더 높은 정도의 유사도를 가져올 가능성이 더 적다. 사실상, 폐색 픽셀은 실제로 올바른 깊이에서 대응하는 그 픽셀들의 유사도를 마스킹하는 큰 이상치(strong outlier)로서 역할한다. 그에 따라, 폐색의 존재는 깊이 맵에 강력한 오류 요인을 유입시킬 수 있다.
본 발명의 많은 실시예들에 따른 깊이 맵을 발생시키는 프로세스들은 앞서 기술한 것들(이들로 제한되지 않음)을 비롯한 깊이 맵에 유입될 수 있는 오류 요인들을 최소화시키려고 시도한다. 본 발명의 일 실시예에 따른 깊이 맵을 발생시키는 일반적인 프로세스가 도 4에 예시되어 있다. 프로세스(400)는 어레이 카메라를 사용하여 명시야를 포착하는 단계(402)를 포함한다. 다수의 실시예들에서, 기준 시점이 선택된다(404). 많은 실시예들에서, 기준 시점이 사전 결정된다. 몇몇 실시예들에서, 기준 시점이, 포착된 명시야 또는 어레이 카메라의 사용자에 의해 요청된 특정의 동작(예컨대, 입체 3D 영상 쌍의 발생)에 기초하여 결정될 수 있다. 깊이 맵을 결정하기 전에, 포착된 영상들에서의 대응하는 픽셀들의 유사도를 증가시키기 위해 원시 영상 데이터(raw image data)가 정규화된다(406). 많은 실시예들에서, 정규화는 각각의 카메라의 렌즈 스택에 의해 유입되는 측광 변동 및 장면 독립적인 기하학적 왜곡(이들로 제한되지 않음)을 비롯한 카메라들에 의해 포착된 영상들에서의 변동을 보정하기 위해 교정 정보를 이용하는 것을 포함한다. 몇몇 실시예들에서, 원시 영상 데이터의 정규화는 또한 영상들에서의 대응하는 픽셀들의 유사도에 대한 앨리어싱(aliasing) 및 잡음의 효과를 감소시키기 위한 사전 필터링, 및/또는 시차 탐색(parallax search)의 기하학적 형태를 간소화하기 위한 영상 데이터의 정렬(rectification)을 포함한다. 필터는 가우시안 필터 또는 에지 보존 필터, 고정 계수 필터(박스) 및/또는 임의의 다른 적절한 필터일 수 있다. 다수의 실시예들에서, 정규화는 또한, 예를 들어, 기하학적 렌즈 왜곡을 보정함으로써 포착된 영상들에서의 대응하는 픽셀들의 유사도를 증가시키기 위해 포착된 영상들을 재샘플링하는 것을 포함한다. 본 발명의 실시예들에 따른 원시 영상 데이터의 정규화 동안 수행되는 프로세스들이 이하에서 더 논의된다.
기준 시점으로부터 포착된 영상의 픽셀들에 대해 초기 깊이 맵이 결정된다(408). 초기 깊이 맵은 유망한 폐색 구역들을 결정(410)하는 데 사용되고, 대응하는 픽셀이 보이는 영상들을 사용하여 폐색 구역들에서의 픽셀들의 깊이들을 결정함으로써 폐색 구역들에서의 픽셀들의 깊이들이 업데이트된다(412). 이하에서 추가로 논의되는 바와 같이, 깊이 추정치들이 실세계 장면들에서 만나게 되는 상이한 가시성 패턴들에 대응하는 영상들의 경쟁하는 서브셋들을 사용하여 업데이트될 수 있다. 특정의 시퀀스가 도 4에 도시되어 있지만, 많은 실시예들에서, 초기 깊이 맵이 발생되는 것과 동시에 폐색 구역들이 검출된다.
장면 독립적인 기하학적 차이들을 감소시키기 위해 원시 영상 데이터를 재샘플링하는 것을 포함하는 정규화 프로세스는 그렇지 않았으면 포착된 영상들 각각에서의 대응하는 픽셀들을 정합시키는 능력을 떨어뜨릴 수 있는 선형 및/또는 비선형 렌즈 왜곡을 보정함으로써 오류들을 감소시킬 수 있다. 그에 부가하여, 폐색된 픽셀들을 배제하는 깊이 측정으로 폐색 구역들에서의 깊이 맵을 업데이트하는 것은 얻어진 깊이 맵에서의 오류의 요인들을 추가로 감소시킨다. 깊이 맵을 발생시키는 일반적인 프로세스가 도 4에 예시되어 있지만, 깊이 맵들을 발생시키는 예시된 프로세스들에 대한 변동 및 대안들이 본 발명의 실시예들에 따라 이용될 수 있다. 본 발명의 실시예들에 따른, 원시 영상 데이터를 교정하는 프로세스, 초기 깊이 맵들을 결정하는 프로세스, 및 폐색을 참작하기 위해 깊이 맵들을 업데이트하는 프로세스가 이하에서 더 논의된다.
포착된 영상 데이터에서의 대응하는 픽셀들의 유사도를 증가시킴
어레이 카메라 내의 카메라들 각각에 의해 포착된 영상들 간의 유사도가 클수록, 상이한 가정된 깊이들에서 영상들에서의 대응하는 픽셀들의 측정으로부터, 올바른 깊이에서 가장 높은 유사도가 검출될 가능성이 높다. 미국 특허 출원 제12/935,504호(앞서 참조 문헌으로서 포함됨)에 개시된 바와 같이, 어레이 카메라 내의 카메라들에 의해 포착된 영상들은 전형적으로, 카메라마다의 광학계의 변동이 측광 차이들, 앨리어싱, 잡음, 및 장면 독립적인 기하학적 왜곡들을 유입시킬 수 있다는 것(이들로 제한되지 않음)을 비롯하여, 다수의 방식들로 상이하다. 측광 차이 및 장면 독립적인 기하학적 왜곡은 필터링 및 교정을 통해 보정될 수 있다. 장면 독립적인 기하학적 왜곡을 보상하는 장면 독립적인 기하학적 보정 및 측광 정규화를 수행하는 데 사용되는 측광 교정 데이터는 오프라인 교정 프로세스 및/또는 후속하는 재교정 프로세스를 사용하여 발생될 수 있다. 측광 교정 데이터는 앨리어싱 및 잡음의 효과를 감소시키기 위한 사전 필터링, 블랙 레벨 계산 및 조절, 비네팅 보정, 및 횡색 보정(이들로 제한되지 않음)을 비롯하여 어레이 카메라에 의해 포착된 영상들에 대한 각종의 측광 조절들 중 임의의 것을 수행할 수 있는 측광 정규화 모듈 또는 프로세스에 제공될 수 있다. 몇몇 실시예들에서, 측광 정규화 모듈은 또한 온도 정규화를 수행한다. 교정 프로세스를 사용하여 결정되는 장면 독립적인 기하학적 보정이 또한 영상들 사이의 대응 관계를 증가시키기 위해 포착된 영상들에 적용될 수 있다. 포착된 영상들이 초해상도 처리를 사용하여 고 해상도 영상을 합성하는 데 사용될 때, 영상들에 적용되는 장면 독립적인 기하학적 보정은 전형적으로 서브픽셀 해상도로 결정된다. 그에 따라, 장면 독립적인 기하학적 보정은 전형적으로 종래의 입체 3D 영상에서의 위치 맞춤(registration) 동안 이용되는 보정보다 더 높은 정밀도로 결정된다. 많은 실시예들에서, 장면 독립적인 기하학적 보정은 또한 비기준 영상들의 에피폴라 라인들이 기준 시점으로부터 포착된 영상의 에피폴라 라인들과 쉽게 일렬로 정렬(align)되도록 초점면들에 대한 어레이 카메라의 렌즈들의 왜곡 및 회전을 참작하기 위한 정렬(rectification)을 포함한다. 이러한 방식으로 기하학적으로 정규화하는 것에 의해, 대응하는 픽셀들의 깊이들을 결정하기 위해 수행되는 탐색이 다양한 카메라들에서 직선들을 따른 탐색이 되도록 간단화될 수 있고, 깊이 측정의 정밀도가 향상될 수 있다.
본 발명의 실시예들에 따른, 어레이 카메라에 의해 포착된 영상들에 적용될 수 있는 일련의 장면 독립적인 기하학적 보정 및 측광 보정을 발생시키기 위해 어레이 카메라들을 교정하는 시스템 및 방법이 2013년 3월 13일자로 출원된 발명의 명칭이 "어레이 카메라의 교정 시스템 및 방법(Systems and Methods for Calibration of an Array Camera)"인 Mullis, Jr.의 미국 특허 출원 제61/780,748호(그 개시 내용이 참조 문헌으로서 그 전체 내용이 포함됨)에 기술되어 있다.
다수의 실시예들에서, 어레이 카메라 내의 카메라들의 시야들에서 서브픽셀 정밀도의 시프트들까지 객체들을 검출하기 위해 영상들을 재샘플링하는 것에 의해 포착된 영상들에서의 픽셀들의 대응 관계가 증가된다.
본 발명의 실시예들에 따른, 포착된 영상들 간의 대응 관계를 증가시키기 위해 어레이 카메라에 의해 포착된 영상들에 보정을 적용하는 프로세스가 도 5에 예시되어 있다. 프로세스(500)는 포착된 영상들을 측광적으로 정규화하는 단계(502), 장면 독립적인 기하학적 보정을 정규화된 영상들에 적용하는 단계(504)를 포함한다. 어떤 실시예들에서, 모든 카메라들이 동일 평면에 있고 시차 탐색이 에피폴라 라인들로만 감소될 수 있도록 부가의 정렬 프로세스(505)가 필요하다. 도 5에 도시된 프로세스들은 얻어진 영상들 사이의 대응 관계를 증가시킨다. 따라서, 영상들 사이의 픽셀 대응 관계에 대한 탐색으로부터 정확한 깊이 측정이 얻어질 가능성이 더 많다.
본 발명의 실시예들에 따른 어레이 카메라(들)에 의해 포착된 영상들 사이의 대응 관계를 증가시키는 특정의 프로세스들이 도 5와 관련하여 앞서 논의되었지만, 본 발명의 실시예들에 따른 깊이 맵을 발생시키기 전에, 포착된 영상들 사이의 대응 관계를 증가시키는 각종의 프로세스들 중 임의의 것이 이용될 수 있다. 본 발명의 실시예들에 따른 깊이 맵들을 발생시키는 프로세스들이 이하에서 더 논의된다.
깊이 맵을 발생
깊이 맵을 발생시키는 프로세스는 장면 내의 객체들의 깊이를 추정하기 위해 영상들 사이의 불일치를 이용하는 단계를 포함한다. 앞서 살펴본 바와 같이, 폐색은 앞서 기술된 방식으로 비용 함수들을 사용하여 획득된 깊이 측정의 신뢰성에 영향을 미칠 수 있다. 전형적으로, 이러한 폐색은 대응하는 픽셀들을 비교하는 데 사용되는 유사도 메트릭에 따라 상당한 부정합으로서 나타날 것이다(아마도 보이는 픽셀들의 유사도를 마스킹함). 그렇지만, 본 발명의 많은 실시예들은 초기 깊이 맵을 발생시키고 이어서 폐색에 의한 초기 깊이 맵의 생성에 유입될 수 있는 임의의 오류들을 해결한다. 몇몇 실시예들에서, 다른 시점들로부터 어레이 카메라에 의해 포착되는 영상들에서 폐색될 수 있는 기준 시점으로부터 포착된 영상에서의 픽셀들을 식별하기 위해 초기 깊이 맵이 이용된다. 폐색이 검출될 때, 기준 시점으로부터 포착된 영상에서의 픽셀에 대한 깊이 정보는 픽셀이 폐색되는 영상으로부터의 픽셀들을 유사도 비교로부터 배제시키는 것에 의해 업데이트될 수 있다. 몇몇 실시예들에서, 폐색에 의해 영향을 받는 깊이 추정치들이 실세계 장면들에서 만나게 되는 상이한 가시성 패턴들에 대응하는 영상들의 경쟁하는 서브셋들을 사용하여 업데이트될 수 있다. 특정의 실시예들에서, 업데이트된 깊이 추정치들은 폐색되는 대응하는 픽셀들을 식별하는 데 이용될 수 있고, 깊이 맵의 정밀도에 대한 폐색의 영향이 감소될 수 있도록 가시성 정보를 사용하여 깊이 추정 프로세스가 반복될 수 있다. 몇몇 실시예들에서, 영상들의 서브셋들을 사용하여 업데이트된 깊이 추정치들을 발생시키는 프로세스는 깊이 맵 및 가시성 추정치들을 반복하여 세밀화할 필요성이 감소되거나 제거될 수 있을 정도로 충분히 강건하다.
본 발명의 일 실시예에 따른, 기준 시점으로부터 포착된 영상에서의 픽셀들의 깊이를 결정하는 프로세스가 도 6에 예시되어 있다. 프로세스(600)는 어레이 카메라에 의해 포착된 영상들의 일부 또는 전부를 사용하여 초기 깊이 맵을 결정하는 단계(602)를 포함한다. 포착된 영상들 각각에서 기준 시점으로부터 포착된 영상에서의 각각의 픽셀의 가시성이 이어서 결정된다(604). 대응하는 픽셀 위치가 폐색되는 경우, 기준 시점으로부터 포착된 영상에서의 픽셀의 깊이는 대응하는 픽셀 위치가 폐색되는 영상을 비용 함수로부터 배제시켜 재계산될 수 있다(606). 계속하여 반복할지에 관한 결정(608)이 행해진다. 폐색 구역들에서의 깊이 측정이 세밀화됨에 따라, 포착된 영상들 각각에서의 폐색 구역들 내의 픽셀들의 가시성에 관한 부가 정보가 획득된다. 따라서, 가시성 정보가 세밀화됨에 따라 폐색 구역들에서의 픽셀들의 깊이의 재계산을 반복하는 것은 깊이 맵의 정밀도를 반복하여 향상시킬 수 있다. 사전 결정된 수의 반복들의 완료 및/또는 반복 루프를 통해 특정의 패스에서 업데이트된 깊이 정보가 결정되는 픽셀들의 수가 사전 결정된 수 미만으로 떨어지는 것(이들로 제한되지 않음)을 비롯한 특정의 응용에 적절한 각종의 종료 조건들 중 임의의 것이 반복 루프를 언제 종료시킬지를 결정하는 데 이용될 수 있다. 몇몇 실시예들에서, 부정합 픽셀들을 사용하여 발생된 깊이 추정치들을 업데이트하기 위해 실세계 가시성 패턴들에 대응하는 일련의 영상들의 서브셋들을 이용하는 것으로 인해 단일의 반복만이 수행된다.
마무리된 깊이 맵이 획득되면, 포착된 영상들에서의 픽셀들 각각의 가시성이 결정되고(610), 초해상도 처리를 사용하여 고 해상도 영상을 합성하는 것(이들로 제한되지 않음)을 비롯한 각종의 목적들을 위해 깊이 맵 및/또는 가시성 정보가 이용될 수 있다.
도 7에 예시된 프로세스와 유사한 프로세스의 계산 복잡도가 깊이 결정들을 수행할 때 비교되는 영상들의 수에 의존한다. 카메라가 기준 시점으로부터 멀수록, 관측될 불일치가 크다. 그에 부가하여, 어레이에서의 가장 멀리 있는 카메라들은 그의 엔벨로프 내의 다른 카메라들 전부를 포함한다. 전형적으로, 보다 큰 크기 시프트들은 깊이가 더 높은 정밀도로 결정될 수 있게 한다. 따라서, 깊이 정보를 결정하기 위해 기준 시점으로부터 영상을 포착하는 카메라 및 그 카메라로부터 가장 멀리 있는 카메라들을 사용하는 것은 검출된 깊이의 정밀도를 향상시킬 수 있다. 그에 부가하여, 다양한 기준선들 및 방향들을 갖는 카메라들로부터 나오는 집계된 비용을 사용하는 것은 정합들에서의 주기성을 감소시킬 가능성의 증가로 인해 깊이 추정치들의 신뢰성을 상당히 향상시킬 수 있다. 5 x 5 어레이(도 7을 참조)의 경우에, 중앙의 녹색 카메라(700)는 기준 시점으로부터 영상을 포착하는 데 이용될 수 있고, 중앙의 카메라에 의해 포착된 영상 데이터는 깊이를 결정하기 위해 어레이의 4개의 코너들에 위치해 있는 녹색 카메라들(702)에 의해 포착된 영상 데이터와 비교될 수 있다. 다른 어레이들에서, 카메라들의 각종의 조합들 중 임의의 것에 의해 포착되는 영상들이 본 발명의 실시예들에 따라 깊이를 결정하는 데 이용될 수 있다. 이하에서 추가로 논의되는 바와 같이, 카메라들의 특정의 서브셋들의 선택은 기준 영상에서의 픽셀이 서브셋에서의 다른 카메라들에 의해 포착된 영상 데이터에서 폐색될 가능성을 감소시킬 수 있다.
본 발명의 일 실시예에 따른 깊이 맵 및/또는 가시성 정보를 발생시키는 특정의 프로세스가 도 6에 예시되어 있지만, 초기 깊이 맵을 결정하는 단계 및 이어서 폐색된 픽셀들을 검출하고 폐색된 픽셀들을 배제시키기 위해 깊이 측정을 업데이트하는 것에 의해 깊이 맵을 세밀화하는 단계를 포함하는 각종의 프로세스들 중 임의의 것이 이용될 수 있다. 본 발명의 실시예들에 따른 픽셀들의 깊이 및 가시성을 결정하는 특정의 프로세스들이 이하에서 더 논의된다.
초기 깊이 맵의 결정
어레이 카메라로부터 장면 내의 객체까지의 거리를 결정하는 프로세스들은 어레이 카메라에 의해 포착된 영상들에서의 대응하는 픽셀들이 가장 높은 정도의 유사도를 가지는 깊이를 찾아내는 단계를 포함한다. 앞서 논의한 바와 같이, 특정의 깊이에서, 기준 시점으로부터 포착된 영상에서의 픽셀이 기준 시점과 카메라 어레이 내의 카메라들 각각 사이의 에피폴라 라인을 따라 기지의 거리만큼 시프트할 것이다. 기준 시점으로부터 포착된 영상에서의 픽셀과 다른 영상들에서의 "시프트된" 픽셀들(즉, 특정의 거리에 대한 예상된 시프트에 기초하여 결정되는 위치들에 위치해 있는 영상들에서의 픽셀들)이 대응하는 픽셀들이다. 가정된 깊이가 올바르지 않을 때, 대응하는 픽셀들은 아주 작은 유사도를 나타낼 수 있다(그렇지만, 어떤 장면들에서, 올바르지 않은 깊이들은 주기적 텍스처와 같은 특징들로 인해 높은 정도의 유사도를 가짐). 가정된 깊이가 올바를 때, 대응하는 픽셀들은 이상적으로는 가정된 깊이들 중 임의의 깊이의 가장 높은 정도의 유사도를 나타낼 것이다. 깊이 맵이 포착된 명시야의 초해상도 처리에서 사용될 때, 깊이 맵은 서브픽셀 시프트들의 검출을 가능하게 하기에 충분한 정밀도로 결정될 수 있다. 초해상도 처리에서, 깊이가 직접 이용되지 않고 장면 의존적인 시프트들이 이용된다. 따라서, 서브픽셀 시프트 정밀도에 대응하는 깊이를 검출할 수 있는 것은 초해상도 처리의 성능을 상당히 향상시킬 수 있다. 포착된 영상들의 픽셀들을 재샘플링하는 것이 서브픽셀 시프트 정밀도로 깊이를 결정하는 데 이용될 수 있는 방식이 이하에서 더 논의된다.
많은 실시예들에서, 깊이 추정을 수행할 때 탐색된 불일치를 알려주기 위해 물리적 거리의 범위(예컨대, 20 cm 내지 무한대) 내의 다수의 깊이들의 시차 탐색이 이용된다. 특정의 영상에 대한 픽셀들에서 연속적인 깊이 인덱스들 간의 시차 시프트(parallax shift)들이 일정하고 기준 시점에 대한 가장 큰 기준선에 대응하는 어레이 내의 카메라들에 의해 포착된 영상들에 대해 측정되는 최소 서브픽셀 정밀도에 기초하여 설정되도록 탐색 범위가 다수의 깊이 인덱스들로 분할될 수 있다(예를 들어, 도 7을 참조). 이것은 초해상도 처리에의 입력들로서 사용하기 위한 깊이 추정치에서의 충분한 정확도의 가능성을 증가시킨다. 다른 실시예들에서, 연속적인 깊이 인덱스들이 일정한 픽셀 시프트들에 대응할 필요가 없고, 깊이 탐색이 장면의 특성들에 기초하여 적응될 수 있다.
몇몇 실시예들에서, 대응하는 픽셀들의 유사도를 결정하기 위해 비용 함수가 이용된다. 사용되는 특정의 비용 함수는 전형적으로 어레이 카메라의 구성, 어레이 카메라에 의해 포착된 영상들의 수, 및 어레이 카메라에 의해 이용되는 색상 채널들의 수에 의존한다. 다수의 실시예들에서, 어레이 카메라는 단일의 색상 채널을 포함하고 그리고/또는 깊이 맵이 단일의 색상 채널 내의 카메라들을 사용하여 발생된다. 단일의 색상 채널 내로부터의 영상 데이터가 깊이 맵을 발생시키는 데 이용될 때, 대응하는 픽셀들의 분산을 측정하는 비용 함수가 이용될 수 있다. 몇몇 실시예들에서, L1 노름, L2 노름, 또는 어떤 다른 메트릭들의 합산이 사용될 수 있다. 예를 들어, 대상물(target)에 대한 유사도 메트릭들의 집계(전형적으로, 비기준이 아닌 기준이 또한 사용될 수 있다). 분산이 작을수록, 픽셀들 사이의 유사도가 크다.
다수의 스펙트럼 채널들로부터의 영상 데이터가 또한 깊이 맵을 발생시키는 데 이용될 수 있다. 몇몇 실시예들에서, 스펙트럼 채널들 각각 내의 영상들로부터의 대응하는 픽셀들의 유사도를 살펴보는 것에 의해 주어진 픽셀 위치에서의 깊이가 추정된다. 다수의 실시예들에서, 주어진 픽셀 위치에서의 깊이를 결정하는 프로세스는 또한 상이한 스펙트럼 채널들에 걸쳐 영상들로부터의 대응하는 픽셀들의 유사도에 관한 정보를 사용하는 단계를 포함한다. 다수의 색상 채널들을 사용하여 포착된 영상 데이터를 사용하여 깊이 맵을 발생시킬 때 이용될 수 있는 비용 함수들은 상이한 색상 채널들로부터의 영상 데이터의 조합들의 L1 노름, L2 노름, 또는 L1 노름과 L2 노름의 조합 및/또는 다수의 개별적인 색상 채널들 내의 대응하는 픽셀들의 분산/표준 편차(이들로 제한되지 않음)를 포함한다. 다른 실시예들에서, L1 및 L2 노름의 절단된 버전 및/또는 랭크(rank), 센서스(census), 상관 관계, 및/또는 다시점 스테레오 불일치 검출 기법들에서 실시되는 것들과 같은 임의의 다른 적절한 메트릭에 기초한 임의의 블록 기반 유사도 척도가 이용될 수 있다.
이하에서 추가로 논의되는 바와 같이, 본 발명의 많은 실시예들은, 주어진 픽셀 위치가 카메라들의 서브셋 내의 다른 카메라들에 의해 포착된 대안 시점 영상들에서 폐색될 가능성을 감소시키기 위해, 기준 시점으로부터의 영상에서의 픽셀 위치의 깊이를 결정할 때 자연 장면들의 특성들에 기초하여 그룹화된 다수의 색상 채널들로부터의 카메라들을 비롯한 카메라들의 서브셋들을 이용한다. 어레이 카메라가 기준 시점으로부터의 영상을 포착하는 카메라에서 베이어 필터를 이용하는 경우에, 적색 분산, 녹색 분산, 및 청색 분산의 조합을 측정하는 비용 함수들(이들로 제한되지 않음)을 비롯한 각종의 비용 함수들이 픽셀 유사도를 결정하는 데 이용될 수 있다. 그에 부가하여, 영상의 상이한 영역들에서의 픽셀들에 상이한 비용 함수들이 적용될 수 있다. 몇몇 실시예들에서, 이 기법을 사용하여 중앙의 녹색 카메라 그리고 카메라 어레이의 4개의 코너들 각각에 있는 적색, 청색 및 녹색 카메라들의 클러스터에 의해 포착된 영상 데이터로부터 깊이 맵이 발생된다(예를 들어, 도 7을 참조).
본 발명의 일 실시예에 따른, 어레이 카메라에 의해 포착된 영상들을 사용하여 픽셀의 깊이를 결정하는 프로세스가 도 8에 예시되어 있다. 프로세스(800)는 기준 시점으로부터 포착된 영상으로부터 선택된 픽셀에 대한 초기의 가정된 깊이 또는 거리 d를 선택하는 단계(802)를 포함한다. 깊이 측정을 수행하기 위해 사용되는 기준 영상 내의 픽셀의 위치 및 기준 시점과 다른 카메라들의 시점들 사이의 기준선에 관한 정보에 기초하여, 가정된 깊이 d에서 포착된 영상들 각각에서의 대응하는 픽셀 위치들이 결정된다(804). 많은 실시예들에서, 시차 검출 프로세스에의 입력 영상들이 기하학적으로 보정되지 않고, 주어진 깊이 d에서 대응하는 픽셀들을 식별하기 위해 탐색 동안 시차 시프트에 벡터 오프셋(vector offset)을 가산하는 것에 의해 기하학적 보정이 동작 중에 적용된다. 다른 실시예들에서, 정규화 프로세스 동안 탐색이 시작되기 전에 영상들에 기하학적 보정이 적용되고, 픽셀 대응 관계들을 계산할 때 탐색 동안 기하학적 보정 벡터가 부가되어서는 안된다(즉, 기하학적 보정이 사전 계산된다). 후자의 경우에, 기하학적 왜곡의 사전 보정은 알고리즘을 SIMD 및 GPU와 같은 병렬 프로세서 상에서 상당히 더 효율적이게 할 수 있다.
앞서 살펴본 바와 같이, 폐색은 깊이 추정치들에 오류를 유입시킬 수 있다. 폐색/가시성 정보가 이용가능할 때, 폐색된 픽셀들이 깊이 측정의 일부로서 무시될 수 있다(806). 픽셀들의 가시성에 관한 정보가 (예컨대, 초기 깊이 맵의 발생 동안 및/또는 영상들의 서브셋을 사용한 깊이 추정치의 발생 동안) 이용가능하지 않을 때, 대응하는 픽셀 위치들에서의 픽셀들 전부의 유사도가 깊이를 결정하는 데 사용된다. 도 8a 내지 도 8i를 참조하여 이하에서 논의되는 바와 같이, 기준 영상에서의 주어진 픽셀이 보이는 카메라들의 특정의 서브셋을 식별하기 위해 어레이 카메라에 의해 포착된 영상들의 서브셋들로부터 포착된 영상 데이터에 대해 초기 깊이 탐색이 수행될 수 있다.
대응하는 픽셀들이 식별될 때, 대응하는 픽셀들의 유사도가 측정될 수 있다(808). 많은 실시예들에서, 픽셀들의 유사도가 비용 함수를 사용하여 결정된다. 이용되는 특정의 비용 함수는 비교되는 픽셀 정보에 의존한다. 앞서 살펴본 바와 같이, 하나의 실시예에서, 단일의 색상 채널로부터의 픽셀들이 비교될 때, 비용 함수는 대응하는 픽셀들의 L1 노름, L2 노름, 및/또는 분산을 고려할 수 있다. 다수의 색상 채널들로부터의 픽셀들이 비교될 때, 다수의 색상 채널들로부터의 영상 데이터의 L1 및/또는 L2 노름 그리고/또는 다수의 개별적인 색상 채널들 내의 대응하는 픽셀들의 분산/표준 편차를 포함하는 비용 함수들(이들로 제한되지 않음)을 비롯한 보다 복잡한 비용 함수들이 이용될 수 있다. 다른 실시예들에서, L1 및 L2 노름의 절단된 버전 및/또는 랭크, 센서스, 상관 관계, 및/또는 다시점 스테레오 불일치 검출 기법들에서 실시되는 것들과 같은 임의의 다른 적절한 메트릭에 기초한 임의의 블록 기반 유사도 척도가 이용될 수 있다. 몇몇 실시예들에서, 비용 함수를 이용하여 유사도를 결정하는 프로세스는 고정 계수 필터(가우시안 필터 등), 또는 대안의 실시예에서, 에지 보존 필터(이들로 제한되지 않음)와 같은 필터를 사용하여 계산된 비용들을 공간적으로 필터링하는 단계를 포함한다. 후자의 실시예에서, 이러한 방식으로 에지 보존 필터로 필터링하는 것은 깊이 추정치들을 향상시키기 위해 측광적으로 유사한 이웃 픽셀들로부터의 정보를 이용하는 적응적 지원의 한 형태이다. 필터링이 없는 경우, 깊이 측정은 픽셀 단위(pixel-wise)이고, 필터링되는 경우보다 잡음이 더 많다. 적응적 지원을 사용하여 비용 함수를 평활화(smooth)하는 것은 올바르지 않은 깊이들의 발생을 방지할 수 있다. 다수의 실시예들에서, 계산된 비용들이 양방향 필터를 사용하여 공간적으로 필터링되고, 여기서 양방향 필터 가중치들은 기준 영상으로부터 결정되지만, 보통의 양방향 필터와 달리, 얻어진 필터 가중치들이 기준 영상이 아니라 계산된 비용들에 적용된다. 이러한 방식으로, 기준 영상 데이터가 비용 추정치들의 잡음 제거(denoising)를 향상시키는 가이드로서 사용될 수 있다. 다수의 실시예들에서, 특정의 응용의 요구사항들에 적절한 박스 필터 및/또는 임의의 다른 필터가 이용될 수 있다.
상이한 깊이들에서의 대응하는 픽셀들에 대한 비용 함수의 계산이 깊이 탐색이 완료(810)될 때까지 가정된 깊이들의 범위에 걸쳐 스위프(sweep)하면서 반복된다(812). 가장 유망한 깊이가 이어서 (필터링된) 비용 함수가 대응하는 픽셀들이 가장 높은 레벨의 유사도를 가진다는 것을 나타내는 가정된 깊이로서 결정될 수 있다(814). 몇몇 실시예들에서, 주어진 깊이 계산에 대해, 단일의 카메라가 아주 높은 부정합을 나타내는 경우 조기 종료가 일어날 수 있다. 이 조건에서, 프로세스는, 현재의 깊이에서의 정합이 타당하지 않을 것이기 때문에, 그 다음의 가정된 깊이로 건너뛸 수 있다. 많은 실시예들에서, 깊이 샘플링을 수행하는(즉, 특정의 깊이에서의 불일치에 기초하여 대안 시점 영상들에서의 픽셀들을 비교하는) 프로세스는 불일치 공간에서 균일하게 깊이를 샘플링하는 단계를 포함한다. 달리 말하면, 에피폴라 라인을 따라 균일한 픽셀 시프트들에서 깊이 샘플들이 취해질 수 있다. 다수의 실시예들에서, 탐색은 불일치 공간에서의 균일한 샘플링을 포함하지 않는다. 몇몇 실시예들에서, 탐색은 탐색의 효율성을 증가시키기 위해 영상 특성들을 이용한다. 몇몇 실시예들에서, 탐색은 고 분해능 깊이 맵을 형성하려고 시도함에 있어서 어느 깊이들이 샘플링되는지를 결정하거나 제한하기 위해, 보다 거친 또는 보다 낮은 공간 분해능 깊이 맵 또는 불일치에서의 감소된 탐색 분해능으로부터(예컨대, 영상 미리보기(image preview)로부터)와 같이, 객체들이 장면에서 어디에 있는지에 관한 사전 정보를 사용한다. 예를 들어, 특정의 거리를 넘어 어떤 객체들도 없다는 것을 결정하기 위해 미리보기 깊이 맵(preview depth map)이 사용될 수 있고, 이 경우에, 깊이 탐색을 위해, 그 거리를 넘어 어떤 깊이 샘플들도 할당되지 않을 것이다.
많은 영상들이 유사한 색상의 영역들을 나타내고, 따라서 가장 유망한 가정된 깊이에 대한 탐색이 가능한 가정된 깊이들의 범위에 걸쳐 보다 거칠게 분포되어 있는 제1 세트의 가정된 깊이들을 선택하고 가장 높은 정도의 유사도를 나타내는 이들 중의 깊이를 찾아냄으로써 지능적으로 수행될 수 있다. 제1 세트의 깊이들에서 가장 높은 정도의 유사도를 나타낸 깊이 주위의 보다 세분된 범위 내에서 세밀화하기 위해 제2 탐색이 이어서 수행될 수 있다. 보다 세분된 탐색이 실패하고 발견된 최상의 픽셀이 유사한 색상을 나타내는 영역으로부터 것이 아닌 경우, 원래의 제1 거친 탐색에서보다 더 정밀한 간격으로 전 범위의 깊이들에 걸쳐 전체 탐색(full search)이 수행될 수 있다. 그렇지만, 제2 탐색에서 만족스러운 정합이 발견되는 경우, 제2 탐색 내에서 가장 높은 레벨의 유사도를 나타내는 깊이가 가장 유망한 가정된 깊이로서 사용될 수 있다.
많은 실시예들에서, 인접한 픽셀들에 대해 결정된 깊이 정보를 이용하여 픽셀의 가장 유망한 깊이에 대한 탐색이 수행된다. 몇몇 실시예들에서, 탐색은 하나 이상의 인접한 픽셀들의 깊이 주위를 탐색하는 것에 의해, 인접한 픽셀들의 깊이들에 기초하여(예컨대, 인접한 픽셀들의 평균 깊이에 기초하여 또는 인접한 픽셀들의 쌍들의 선형 보간들에 기초하여) 결정된 깊이 주위를 탐색하는 것에 의해, 및/또는 이전에 식별된 깊이(예컨대, 미리보기 영상 및/또는 비디오 시퀀스에서의 이전 프레임에 대해 결정된 깊이) 주위를 탐색하는 것에 의해 수행된다. 이러한 방식으로 탐색하는 것은 또한 깊이를 결정할 때 공간 필터들의 적용을 간단화시킬 수 있다(이하에서의 논의를 참조). 다른 실시예들에서, 영상에서의 픽셀들의 가장 유망한 깊이를 찾아내는 것의 계산 복잡도를 감소시키기 위해 각종의 기법들 중 임의의 것이 이용될 수 있다.
기준 시점으로부터 포착된 영상에서의 픽셀의 깊이를 결정하는 특정의 프로세스들이 도 8과 관련하여 앞서 논의되어 있지만, 어레이 카메라에 의해 포착된 복수의 영상들에 기초하여 가상 시점으로부터 픽셀의 깊이를 결정하는 프로세스를 비롯한 각종의 프로세스들 중 임의의 것이 픽셀의 깊이를 결정하는 데 이용될 수 있다. 초기 깊이 맵을 발생시키고 이어서 기준 시점으로부터의 영상에서의 픽셀 위치에 대응하는 픽셀이 폐색되는 영상들을 무시함으로써 깊이 맵을 세밀화하기 위해 도 8에 예시된 프로세스와 유사한 프로세스들이 이용될 수 있다. 본 발명의 실시예들에 따른 적응적 지원을 사용하여 픽셀 대응 관계를 결정하는 프로세스들이 이하에서 더 논의된다.
폐색의 존재 시에 픽셀 대응 관계를 결정
기준 시점에 깊이 천이 또는 불연속이 있는 경우, 어레이 카메라에 의해 포착된 영상들 중 적어도 하나에서 깊이 천이에 인접한 픽셀들이 폐색될 가능성이 있다. 구체적으로는, 카메라로부터 더 먼 거리에 있는 천이에 인접한 픽셀들이 카메라에 더 가까운 카메라에 인접한 픽셀들에 의해 폐색될 가능성이 있다. 이상적으로는, 다음과 같이 폐색된 픽셀들을 배제하는 깊이 맵이 어레이 내의 각각의 보이는 카메라 i에 대한 집계된 비용 함수 CV(x, y, d)를 사용하여 결정된다:
여기서 Costi,Ref(x, y, d)는 유사도 척도(즉, 비용 함수)이고,
d는 픽셀 (x, y)의 깊이이며,
Vi,Ref(x, y)는 픽셀 (x, y)의 가시성이고 처음에 모든 카메라들에 대해 Vi,Ref(x, y) = 1이다.
다수의 실시예들에서, 개개의 비용들 Costi,Ref(x, y, d)는 다음과 같이 카메라들 i,Ref에 대한 각각의 픽셀 (x, y)에 대한 각각의 불일치 가정 d에 기초하여 계산되고:
여기서 S는 (예를 들어) 유사도 척도이고,
몇몇 실시예들에서, 집계된 비용을 발생시키는 프로세스는 특정의 가정된 또는 후보 깊이에 대응하는 장면 의존적인 기하학적 시프트들이 영상에서의 모든 픽셀들에 적용되는 영상들을 사용하는 단계를 포함할 수 있다. 이러한 방식으로, 탐색된 각각의 후보 깊이에 대해 시프트된 영상이 발생될 수 있다. 시프트된 영상들을 사용하여, 기준 시점으로부터의 영상에서의 특정 픽셀 위치 (x, y)에 대한 각각의 깊이에서의 집계된 비용이 시프트된 영상들과 기준 영상 사이의 유사도를 이용하여 앞서 기술된 방식으로 발생될 수 있다. 그에 부가하여, 집계된 비용은 다음과 같이 후보 깊이에서의 시프트된 영상들의 유사도를 고려할 수 있고:
여기서 K는 기준 카메라와 동일한 스펙트럼 채널에서의 카메라들의 세트이고,
L은 카메라들의 쌍들의 세트이고, 각각의 쌍에서의 양쪽 카메라들은 (명시야가 다수의 스펙트럼 채널들에서의 영상 데이터를 포함하는 경우 기준 카메라에 대해 상이한 스펙트럼 채널일 수 있는) 동일한 스펙트럼 채널에 있고,
다수의 실시예들에서, 세트들 K 및 L은 K 및 L에서의 요구사항들을 충족시키는 카메라들 또는 카메라들의 쌍들 전부를 꼭 포함하지는 않는다. 게다가, 누적 비용 함수(cumulative cost function)는 또한 L의 세트가 대응하는 픽셀들의 비용이 결정되는 임의적으로 큰 카메라 그룹들을 포함하는 비용 항(cost term)을 사용하여 구성될 수 있다. 많은 실시예들에서, 유사도 메트릭 S는 L1 노름이다. 몇몇 실시예들에서, 유사도 메트릭은 L2 노름, 대응하는 픽셀들의 분산 또는 표준 편차(특히 L이 보다 큰 카메라 그룹들을 포함하는 경우), 상관 관계, 랭크, 센서스 및/또는 특정의 응용의 요구사항들에 적절한 임의의 다른 척도를 포함하는 창 기반(window-based) 유사도 메트릭들(이들로 제한되지 않음)을 비롯한 다수의 공지된 유사도 메트릭들 중 임의의 것일 수 있다. 비교들이 시프트된 영상들과 관련하여 앞서 논의되어 있지만, 잘 알 수 있는 바와 같이, 비교들은 (영상에서의 모든 픽셀들에 시프트들을 적용하는 것 및 이어서 시프트된 영상들을 비교하는 것과 달리) 개별적인 픽셀 위치들에 시프트들을 적용하는 것 및 가정된 깊이에서 대응하는 픽셀들을 비교하는 것에 의해 수행될 수 있다.
다수의 실시예들에서, 비용 함수는 또한 상이한 스펙트럼 채널들에 걸쳐 대응하는 픽셀들 간의 유사도를 고려할 수 있다. 몇몇 실시예들에서, 이웃들에 있는 픽셀들의 상호 상관(cross-correlation), 이웃들에 있는 픽셀들 간의 정규화된 상호 상관 및/또는 상호 정보(mutual information)를 측정하는 것을 비롯하여 엔트로피 척도(entropy measure)들(이들로 제한되지 않음)과 같은 2 세트의 픽셀들의 상대값(relative value)들의 유사도를 측정하는 임의의 다른 메트릭(이들로 제한되지 않음)을 비롯한 각종의 메트릭들 중 임의의 것을 사용하여 상이한 스펙트럼 채널들로부터의 픽셀들에서의 픽셀들의 이웃들의 유사도가 평가될 수 있다.
몇몇 실시예들에서, 기준 영상을 포함하는 스펙트럼 채널 내의 대응하는 픽셀들과 기준 영상의 유사도, 동일한 스펙트럼 채널에서의 대안 시점 영상들 내의 대응하는 픽셀들의 유사도, 및/또는 상이한 스펙트럼 채널들에서의 영상들 내의 대응하는 픽셀들의 유사도에 상이한 가중치들이 적용될 수 있다.
앞서 논의한 바와 같이, 집계된 비용 함수는 다음과 같이 공간적으로 필터링될 수 있고:
여기서 Filter는 픽셀 위치 (x, y)를 둘러싸고 있는 이웃 N(x, y)에서 적용된다.
필터는 간단한 3 x 3 또는 N x N 박스 필터 또는 기준 영상을 안내로서 사용하는 결합 양방향 필터(joint bilateral filter), 고정 계수 필터(가우시안 필터 또는 박스 필터 등), 또는 임의의 적절한 에지 보존 필터(이들로 제한되지 않음)를 비롯한 어떤 다른 필터일 수 있다. 몇몇 실시예들에서, 가중된 집계된 비용 함수는 다음과 같고:
여기서 N(x, y)는 특정의 응용의 요구사항들에 적절한 정사각형, 원형, 직사각형, 또는 임의의 다른 형상일 수 있는 픽셀 (x, y)의 바로 이웃이고,
Norm은 정규화 항이며,
IRef(x, y)는 기준 카메라로부터의 영상 데이터이고,
wd는 픽셀 거리에 기초한 가중 함수이며,
wr은 명도 차이에 기초한 가중 함수이다.
많은 실시예들에서, 필터는 양방향 필터이고, wd 및 wr은 둘 다 가우시안 가중 함수이다.
필터링된 집계된 비용 함수에 기초하여, 다음과 같이 깊이 맵에서의 각각의 픽셀 위치에서 필터링된 비용을 최소화하는 깊이를 선택하는 것에 의해 깊이 맵이 계산될 수 있다:
D(x, y) = argmind{FilteredCV(x, y, d)}
집계된 비용 함수가 앞서 기술한 방식으로 에지 보존 필터를 사용하여 필터링될 때, 잡음이 폐색된 픽셀들의 잘못된 검출을 가져올 가능성이 감소된다. 개개의 픽셀들에 대한 깊이들을 계산하는 대신에, 깊이 천이를 보존하는 방식으로 잡음을 필터링하기 위해 각각의 픽셀 주위에서 적응적 지원 창(adaptive support window)이 사용된다. 양방향 필터(이들로 제한되지 않음)와 같은 필터를 이용하는 것은 내용(content)에 기초하여 적응하는 적응적 지원 창을 제공한다. 많은 실시예들에서, 양방향 필터에 대한 공간 및 범위 지원(즉, 특정 픽셀에 대한 집계된 비용 함수에 기여하는 픽셀들의 창의 크기를 정의하는 파라미터들)을 정의하기 위해 기준 영상이 사용되는 양방향 필터가 사용된다. 그 결과로서, 픽셀의 비용 함수의 평활화는 동일한 표면의 일부인 픽셀들의 계산된 비용 함수를 사용하여 달성될 수 있다. 다른 실시예들에서, 박스 필터(이들로 제한되지 않음)와 같은 필터들은 계산이 덜 복잡하고 특정의 응용들의 요구사항들에 충분한 필터링을 제공한다.
다수의 스펙트럼 채널들에서의 픽셀들에 대한 픽셀 대응 관계를 결정
본 발명의 많은 실시예들에 따른 어레이 카메라들은 적색, 녹색 및 청색 카메라들(이들로 제한되지 않음)과 같은 다수의 스펙트럼 채널들에서의 카메라들을 포함한다. 비용 메트릭 CV(x, y, d)는 단일의 스펙트럼 채널 및 다수의 스펙트럼 채널들과 관련하여 앞서 기술되어 있다. 적색, 녹색, 및 청색 카메라들을 포함하는 어레이 카메라의 경우에, 비용 함수는 특정의 깊이에서 녹색 카메라들에서의 픽셀들의 유사도, 적색 카메라들에서의 픽셀들의 유사도, 및 청색 카메라들에서의 픽셀들의 유사도를 고려할 수 있다. 특정의 색상 채널에서의 카메라(예컨대, 녹색 카메라)가 기준 카메라로서 선택되는 경우, 다른 채널들(예컨대, 적색 및 청색 카메라들)에서의 픽셀들은 기준 영상에서의 픽셀들과 직접 비교하기가 어렵다. 그렇지만, 특정의 깊이에서의 불일치가 결정될 수 있고, 다른 색상 채널들에서의 대응하는 픽셀들의 명도 값들이 비교될 수 있다. 이 부가의 비교들을 깊이 추정치에 포함시키는 것은 모든 색상 채널들에 걸친 정보를 이용함으로써 깊이 추정치들을 향상시킬 수 있다. 적색, 녹색, 및 청색 카메라들을 포함하는 어레이 카메라들에서 깊이 추정을 수행하는 데 이용될 수 있는 다양한 비용 함수들이 이하에서 더 논의된다. 그렇지만, 잘 알 수 있는 바와 같이, 본 발명의 실시예들에 따라 임의의 세트의 스펙트럼 채널들에 대해 동일한 비용 함수들이 이용될 수 있다.
몇몇 실시예들에서, 영상 데이터가 적색, 녹색, 및 청색 카메라들을 포함하는 어레이 카메라를 사용하여 포착되고, 녹색 카메라가 기준 카메라로서 선택된다. 깊이 추정치들을 결정할 때 한 세트의 녹색 카메라들에서의 픽셀들 사이의, 한 세트의 적색 카메라들에서의 픽셀들 사이의, 그리고 한 세트의 청색 카메라들에서의 픽셀들 사이의 픽셀 대응 관계를 고려하는 비용 함수가 이용될 수 있다. 몇몇 실시예들에서, 하기의 비용 함수가 이용될 수 있고:
여기서 CostG(x, y, d)는 깊이 d에 기초하여 결정된 한 세트의 녹색 카메라들 내의 위치들에서의 픽셀들과 기준 녹색 카메라에서의 픽셀 (x, y)의 위치의 유사도의 척도이고,
CostR(x, y, d)는 깊이 d에 기초하여 결정된 한 세트의 적색 카메라들 내의 위치들에서의 대응하는 픽셀들과 기준 녹색 카메라에서의 픽셀 (x, y)의 위치의 유사도의 척도이며,
CostB(x, y, d)는 깊이 d에 기초하여 결정된 한 세트의 청색 카메라들 내의 위치들에서의 대응하는 픽셀들과 기준 녹색 카메라에서의 픽셀 (x, y)의 위치의 유사도의 척도이고,
공간 가중치는 포착된 영상 데이터에 의존할 수 있고(예를 들어, 에지 경사(edge gradient)들을 사용함), 센서의 기지의 특성들(예를 들어, SNR을 계산하기 위해 주어진 센서에 대한 잡음 모델 사전 정보(noise model prior)를 사용함)은 물론, 비용 함수의 특성들(공간 가중치가 영상 데이터에 의존하는 다른 경우임)을 보정하거나 사용할 수 있다. 그에 부가하여, 영상이 포착되는 이득 또는 검출된 광 레벨(이들로 제한되지 않음)과 같은 영상 데이터의 포착 동안 이용되는 영상 파라미터(imaging parameter)들이 또한 가중치들을 결정할 시에 고려될 수 있고, 가중 인자들을 변조하는 데 사용될 수 있다.
비용 함수 CostG(x, y, d)는 앞서 기술한 메트릭들 중 하나일 수 있다. 많은 실시예들에서, CostG(x, y, d)는 대안 시점 영상에서의 픽셀과 기준 영상에서의 픽셀을 비교하는 L1 노름, 대안 시점 영상에서의 픽셀과 기준 영상에서의 픽셀을 비교하는 L2 노름, 및/또는 녹색 카메라들에 의해 포착된 일련의 영상들에서의 픽셀들에 걸친 분산에 기초하여 유사도 척도를 사용한다. 다른 실시예들에서, L1 및 L2 노름의 절단된 버전 및/또는 랭크, 센서스, 상관 관계, 및/또는 다시점 스테레오 불일치 검출 기법들에서 실시되는 것들과 같은 임의의 다른 적절한 메트릭에 기초한 임의의 블록 기반 유사도 척도가 이용될 수 있다.
다수의 실시예들에서, 다른 색상 채널들에 대한 비용 함수들(즉, CostR(x, y, d) 및 CostB(x, y, d))은 픽셀 대응 관계를 결정하는 기초로서 기준 영상으로부터의 픽셀을 포함하는 비교를 이용하지 않는다. 몇몇 실시예들에서, 대응하는 픽셀들의 유사도는 색상 채널 내의 한 세트의 카메라들에서의 대응하는 픽셀들의 각각의 독자적인 쌍 사이의 집계된 차이를 계산하는 것에 의해 수행된다. 깊이가 4개의 적색 카메라들 RA, RB, RC, 및 RD를 사용하여 결정되는 어레이 카메라의 예에서, 비용은 다음과 같이 결정될 수 있고:
여기서 (xA, yA), (xB, yB), (xC, yC), 및 (xD, yD)는, 각각, 깊이 d에서의 카메라들 RA, RB, RC, 및 RD 각각에서의 불일치에 기초하여 결정된 픽셀 위치들이다.
상기 메트릭은 조합 비용 메트릭이라고 할 수 있고, 기준 카메라를 포함하지 않는 임의의 색상 채널 내에서 적용될 수 있다. 몇몇 실시예들에서, 색상 채널 내의 한 세트의 카메라들에서의 대응하는 픽셀들의 독자적인 쌍들의 모든 조합을 포함하지는 않는 조합 메트릭이 이용될 수 있다. 몇몇 실시예들에서, 어레이 카메라에 의해 포착된 영상들의 서브셋으로부터의 대응하는 픽셀들의 독자적인 쌍들이 이용될 수 있다. 가상 시점에 대해 깊이들이 결정될 때, 스펙트럼 채널들 중 어느 것도 "기준 카메라"를 포함하지 않고, 스펙트럼 채널들 각각에서 조합 비용 메트릭이 적용될 수 있다. 조합 비용 메트릭이 픽셀 명도 값들 사이의 유사도를 결정하기 위해 L1 노름을 이용하는 것으로 앞서 나타내었지만, 다른 실시예들에서, L2 노름, 픽셀 분산, L1 및 L2 노름의 절단된 버전 및/또는 랭크, 센서스, 상관 관계, 및/또는 다시점 스테레오 불일치 검출 기법들에서 실시되는 것들과 같은 임의의 다른 적절한 메트릭에 기초한 임의의 블록 기반 유사도 척도가 이용될 수 있다.
가중 인자들(예컨대, 및 )은 스펙트럼 채널들 각각의 깊이 추정치에의 기여도를 결정하는 데 사용될 수 있다. 가중치들이 고정되어 있거나 기준 영상에서 픽셀마다 변할 수 있다(즉, 공간적으로 변함). 많은 실시예들에서, SNR(signal-to-noise ratio) 추정기를 사용하여 기준 영상에 대해 SNR의 맵이 발생될 수 있다. 몇몇 실시예들에서, SNR 추정기는 신호 잡음의 사전 특성 평가(prior characterization)에 기초하여 SNR을 결정할 수 있다. SNR 응답이 높은 영역들은 텍스처(texture) 또는 고 신호(high signal)의 존재를 나타낼 수 있다. SNR 추정치가 낮은 영역들은 거의 전적으로 잡음으로 이루어진 텍스처리스 영역(textureless region)을 나타낼 수 있다. 특정의 상황에서, 영상들로부터의 데이터가 특정의 스펙트럼 채널들에서는 잡음이 많을 수 있지만 다른 스펙트럼 채널들에서는 그렇지 않을 수 있다. 예를 들어, 한 영역이 녹색 영상들에서는 텍스처리스인 것처럼 보일 수 있지만, 적색 카메라들에 의해 포착된 영상들에서는 신호 내용(signal content)을 가질 수 있다. 따라서, 녹색 카메라들은 비용 함수에 유용한 정보를 거의 제공하지 않을 것이고, 실제로는 깊이 추정 프로세스에 잡음을 유입시킬 수 있으며, 그 결과 적색 또는 청색 카메라들만이 비용 함수에 포함되어 있는 경우보다 덜 신뢰성있는 깊이 추정치가 얻어진다. 따라서, 색상 채널들 각각에 적용할 가중치들을 결정하기 위해 SNR 맵이 이용될 수 있다. 몇몇 실시예들에서, 픽셀 (x, y)에 대한 기준 영상에서의 SNR 추정치가 낮은 경우― 이는 픽셀 (x, y) 바로 주위의 영역이 텍스처리스일 가능성이 있고 그다지 신호를 포함하지 않는다는 것을 의미함 ―, 기준 영상을 포함하는 색상 채널에 대한 가중치가 픽셀 (x, y)에서 감소되어야만 한다.
많은 실시예들에서, 보다 엄격한 조건이 또한 사용될 수 있고 그리고/또는 기준 영상을 포함하는 스펙트럼 채널에 대한 가중치가 픽셀 (x, y)에서 감소되어야만 하는 대안으로서 사용될 수 있고, 픽셀 (x, y)에서 그리고 모든 카메라들에 대한 기준 영상에서의 (에피폴라 라인들을 따른) 최대 시차의 반경에 대해 기준 영상에서의 SNR 추정치가 낮은 SNR을 나타낼 때, 기준 영상을 포함하는 스펙트럼 채널에 대한 가중치가 픽셀 (x, y)에서 감소되어야만 한다. 스펙트럼 채널 내의 카메라 어레이에서의 다른 카메라들에 대해 결정된 에피폴라 라인들을 따라 위치해 있는 픽셀들에 대해서만 최대 시차의 반경이 결정될 수 있다. 보다 엄격한 기준은, SNR이 기준 영상에서의 픽셀 위치 (x, y)에서 낮을 수 있지만, 기준 카메라를 포함하는 색상 채널 내의 다른 카메라에서의 픽셀 (x, y)로부터 얼마간(최대 시차 시프트 미만) 떨어져 내용이 있을 수 있다는 것― 이는 후보 깊이를 유망한 정합이 되지 못하게 실격시킬 수 있음 ―이다. 따라서, 픽셀 위치 (x, y)가 낮은 SNR을 가질 수 있지만, 근방의 내용은 여전히 가능한 것으로서의 특정의 깊이들을 실격시키는 데 유용한 정보를 제공할 수 있다.
다수의 실시예들에서, 기준 영상에서의 강한 SNR은 계산을 절감하기 위해 다른 색상 채널들에 적용되는 가중치를 감소시키는 데 사용될 수 있다(즉, 보다 적은 수의 카메라들이 탐색되어야만 함). 그에 부가하여, 비용 함수에서 색상 채널에 적용되어야만 하는 가중치를 결정하기 위해 다른 색상 채널들 중 하나에서의 카메라에 대해 SNR이 추정될 수 있다. 많은 실시예들에서, SNR을 결정하는 프로세스는 대안 시점 카메라에서의 픽셀 위치 (x, y)를 기준 카메라에 연결시키는 에피폴라 라인을 따라 SNR을 추정하는 단계를 포함한다. 이어서, 높은 SNR의 영역들이 있는지 에피폴라 라인 또는 라인(들)이 탐색될 수 있다. 대안 시점 카메라에서 에피폴라 라인을 따라 높은 SNR 기여분들이 발견되는 경우, 대안 시점 카메라가 속하는 색상 채널의 가중치는 색상 채널이 기준 영상에서의 픽셀 위치 (x, y)에 대한 비용 메트릭에 기여하도록 설정될 수 있다. 그 대신에, 픽셀 위치 (x, y)에서 시작하는 에피폴라 라인을 따라, 대안 시점 영상이 낮은 SNR만을 나타내는 경우, 대안 시점 영상을 포함하는 색상 채널의 기여분이 그에 대응하여 감소될 수 있다. 많은 실시예들에서, 깊이 추정치들을 결정할 때 색상 채널에 적용할 가중치를 결정할 때 각각의 색상 채널에서의 다수의 카메라들이 고려된다. 기준 카메라를 포함하지 않는 색상 채널들 내에 포함된 정보를 사용하여 깊이를 추정하는 특정의 프로세스들이 앞서 기술되어 있지만, 각종의 프로세스들 중 임의의 것이 본 발명의 실시예들에 따라 특정의 응용들의 요구사항들에 따라 적절히 다수의 색상 채널들에 포함된 정보에 기초하여 깊이 추정치들을 결정하는 데 이용될 수 있다.
초기 깊이 맵에 기초하여, 가시성 Vi,Ref(x, y)가 계산된 깊이 맵 D(x, y)에 기초하여 또는 고정 계수 필터(가우시안 또는 박스 필터 등), 또는 기준 영상을 안내로서 사용하는 결합 양방향 필터(이들로 제한되지 않음)와 같은 적응적 또는 에지 보존 필터를 사용하여 필터링되는 필터링된 깊이 맵 F(D(x, y))에 기초하여 업데이트될 수 있다. 기준 시점으로부터 포착된 영상에서의 픽셀이 다른 영상에서 폐색되는지를 결정하기 위해 각종의 기법들이 이용될 수 있다. 다수의 실시예들에서, 폐색될 수 있는 픽셀들을 식별하기 위해 초기 깊이 맵이 이용된다. 폐색이 일어날 가능성이 있는 구역들을 식별하기 위해 전경 객체들에 관한 정보가 이용될 수 있다. 그에 부가하여, 깊이 맵 내에서의 특이한 깊이 천이 및/또는 국소 픽셀 깊이 값들과 부합하지 않는 픽셀 깊이 값들(이들로 제한되지 않음)을 비롯한 폐색을 검출하기 위해 초기 깊이 맵의 각종의 부가의 특성들 중 임의의 것이 이용될 수 있다.
도 8과 관련한 이상의 논의의 많은 부분이 단일의 스펙트럼 채널에서의 또는 적색, 녹색, 및 청색 색상 채널들에서의 영상 데이터를 사용하여 깊이 추정치들을 발생하는 것에 관련되어 있지만, 앞서 기술한 기법들이 각종의 스펙트럼 채널들 중 임의의 것에 대해 똑같이 적절하다(색상 채널 및 스펙트럼 채널이라는 용어들은 본 명세서에서 서로 바꾸어 사용될 수 있음). 앞서 기술한 기법들 중 임의의 것을 사용하여 각각의 스펙트럼 채널에 대해 결정된 비용 항을 비롯한 앞서 기술한 것들과 유사한 집계된 비용 함수들이 이용될 수 있다. 그에 부가하여, 비용 함수는 앞서 기술한 것들과 유사한 기법들을 사용하여 스펙트럼 채널들에 걸쳐 픽셀들의 유사도를 가중하는 비용 항들을 포함할 수 있다. 얻어진 깊이 추정치들을 정확도는 깊이 추정치가 기준 영상에서의 픽셀 위치 (x, y)가 폐색되는 영상으로부터의 픽셀들을 이용하는 정도에 의존할 수 있다. 기준 시점으로부터의 영상에서의 픽셀 위치 (x, y)가 일련의 영상들에서의 하나 이상의 영상들 내에서 폐색될 때 깊이 추정치들의 정확도를 향상시키는 기법들이 이하에서 더 논의된다.
폐색을 참작하여 영상들의 서브셋들을 사용해 깊이 맵을 발생
가시성의 패턴들이 자연 장면들에 나타난다. 따라서, 패턴 Vi,Ref(x, y)가 전형적으로 임의적이지 않다. 기준 영상에서의 픽셀이 보이는 카메라들에 관한 강한 사전 정보(strong prior)가 존재한다. 많은 실시예들에서, 깊이 맵이 픽셀 (x, y)가 폐색되는 카메라들이 잘못 식별될 가능성이 낮은 Vi,Ref(x, y)에 대한 추정치를 역시 제공하는 방식으로 결정될 수 있다. Vi,Ref(x, y)에 대한 추정치에 기초하여, Vi,Ref(x, y)의 가시성을 세밀화하기 위해 반복할 필요 없이 깊이 추정치가 결정될 수 있다. 다른 대안으로서, 신뢰성있는 깊이 추정치를 사용하여 획득된 가시성 정보에 기초하여 부가의 카메라들을 포함시키는 것에 의해 깊이 맵을 세밀화하기 위해 부가의 반복들이 수행될 수 있다. 그렇지만, 보다 나은 초기 깊이 맵을 획득함으로써, 반복 프로세스가 보다 빠르게 수렴할 가능성이 있다.
많은 실시예들에서, 깊이 맵을 발생시키는 프로세스는 각각이 장면 내에서 상이한 가시성 패턴에 대응하는 카메라들의 다수의 클러스터들 또는 서브셋들을 사용하여 깊이를 결정하는 단계 및 깊이 추정치를, 대응하는 픽셀들이 가장 높은 유사도를 가지는 카메라들의 클러스터에 의해 포착된 영상들의 서브셋을 사용하여 결정된 깊이로서, 선택하는 단계를 포함한다. 본 발명의 일 실시예에 따른, 카메라 어레이의 서브셋들을 나타내는 카메라들의 그룹들에 의해 포착된 영상들을 사용하여 픽셀 (x, y)에 대한 깊이를 결정하는 프로세스가 도 8a에 예시되어 있다. 프로세스(850)는 장면 내에서의 특정의 가시성 패턴에 대응하는 카메라들의 초기 그룹을 선택하는 단계(852) 및 카메라들의 그룹에 의해 포착된 영상 데이터의 서브셋을 사용하는 후보 깊이 추정치가, 카메라들의 그룹 내의 대응하는 픽셀들이 가장 높은 유사도를 가지는 깊이에 기초하여, 발생되는 것으로 결정하는 단계(854)를 포함한다. 몇몇 실시예들에서, 프로세스는 영상들의 각각의 서브셋에 대해 비용들이 결정되고, 서브셋들을 사용하여 발생된 최저 비용의 깊이 추정치가 관련 픽셀 위치에 대한 후보 깊이 추정치로서 선택된다는 것을 제외하고는 도 8과 관련하여 앞서 기술한 것과 유사하다. 이하에서 추가로 논의되는 바와 같이, 주어진 응용의 상황 내에서 가장 신뢰성있는 후보 깊이 추정치를 결정하기 위해, 후보 깊이 추정치에서 영상들의 서브셋 내의 대응하는 픽셀들의 유사도가 이어서 다른 후보 깊이 추정치들에서 영상들의 다른 서브셋들 내의 대응하는 픽셀들의 유사도와 비교된다. 많은 실시예들에서, 픽셀 위치에 대한 깊이 추정치로서 선택되는 후보 깊이 추정치는 후보 깊이 추정치에서 가장 유사한 대응하는 픽셀들을 가지는 영상들의 서브셋에 기초하여 결정된다.
많은 실시예들에서, 카메라들의 그룹은 다수의 색상 채널들로부터의 카메라들을 포함할 수 있고, 카메라들의 그룹을 사용하여 기준 영상에서의 픽셀 (x, y)의 깊이를 추정하기 위해 각각의 색상 채널에서의 비용 메트릭 가중 유사도(cost metric weighting similarity)가 이용된다. 프로세스는 이어서, 카메라들의 그룹들 각각에 대해 깊이 추정치가 결정될 때까지, 각각이 장면 내에서의 상이한 가시성 패턴들에 대응하는 복수의 상이한 카메라 그룹들을 통해 반복한다(856, 858, 854). 기준 시점으로부터의 영상에서의 픽셀 위치 (x, y)에 대한 깊이 추정치는 추정된 깊이에서의 대응하는 픽셀들이 가장 높은 유사도를 가지는 카메라들의 그룹으로부터 깊이 추정치를 선택하는 것에 의해 획득될 수 있다. 앞서 살펴본 바와 같이, 다수의 스펙트럼 채널들에서 및/또는 스펙트럼 채널들에 걸쳐 픽셀들의 유사도를 가중하는 비용 함수를 사용하여 픽셀들의 유사도가 결정될 수 있다. 추정된 깊이에서의 대응하는 픽셀들이 가장 높은 유사도를 가지는 영상들의 서브셋은 특정의 가시성 패턴에 대응하고 기준 시점으로부터의 영상에서의 픽셀 위치 (x, y)가 그가 폐색되는 카메라에서 보이는 것으로 잘못 식별할 가능성이 낮은 Vi,Ref(x, y)의 초기 추정치를 제공한다.
앞서 제공된 논의가 기준 영상에서의 픽셀 위치들 (x, y)과 관련한 카메라들의 각각의 그룹에 대해 탐색을 수행하는 것과 관련하여 제시되어 있지만, 특정의 가시성 패턴에 대응하는 카메라들의 각각의 그룹을 사용하여 기준 영상에서의 픽셀들에 대해 깊이 맵들은 개별적으로 추정될 수 있다. 이러한 방식으로, 비용 함수에서의 잡음을 평활화하기 위해, 카메라들의 특정의 그룹을 사용하여 픽셀 위치 (x, y)에 대해 결정된 비용 메트릭들이 필터링될 수 있다. 따라서, 픽셀 위치 (x, y)에 대한 깊이 추정치는 가장 작은 필터링된 비용 메트릭을 가지는 카메라들의 그룹에 대한 깊이 추정치를 사용하여 선택될 수 있다. 카메라들의 특정의 그룹을 사용하여 결정된 비용 메트릭들에 적용되는 필터들은 고정될 수 있거나, 공간 적응적(spatially adaptive)일 수 있다. 이용되는 특정의 필터들은 본 발명의 실시예들에 따라 특정의 응용들의 요구사항들에 기초하여 결정될 수 있다. 기준 영상에서의 픽셀들에 대한 깊이 추정치들의 선택 후에, 초기 깊이 맵에서의 잡음을 추가로 평활화하기 위해 부가의 필터링이 수행될 수 있다.
장면 내에서의 특정의 가시성 패턴들을 검출하기 위해 이용되는 카메라들의 클러스터들 또는 그룹들은 어레이 카메라 내의 카메라들의 수, 기준 카메라로서 선택되는 카메라, 및/또는 어레이 내의 상이한 색상 채널들로부터의 카메라들의 분포에 의존할 수 있다. 어레이의 중앙에 위치해 있는 기준 카메라에서의 픽셀들에 대한 장면 내에 존재할 가능성이 있는 상이한 가시성 패턴들에 대응하는 5 x 5 어레이에서의 카메라들의 8개의 그룹들이 도 8b 내지 도 8i에 도시되어 있다. 12개의 카메라들을 포함하는 동일한 그룹 템플릿을 회전 및 플립(flip)시키는 것에 의해 8개의 그룹들이 발생된다. 그룹 템플릿의 배향에 따라, 이것은 7개의 녹색 카메라들, 그리고 3개의 적색 카메라들 및 2개의 청색 카메라들, 또는 3개의 청색 카메라들 및 2개의 적색 카메라들을 포함한다. 앞서 살펴본 바와 같이, 5 x 5 어레이의 중앙에 위치해 있는 기준 녹색 카메라에서의 픽셀 (x, y)에 대한 깊이를 추정할 때 카메라들의 그룹들을 선택하기 위해 그룹 템플릿이 이용될 수 있다. 추정된 깊이에서의 3개의 색상 채널들에서의 대응하는 픽셀들이 가장 높은 유사도를 가지는 카메라들의 그룹으로부터 깊이 추정치를 선택하는 것에 의해 픽셀 위치 (x, y)의 깊이가 추정될 수 있다.
카메라들의 그룹들을 선택하기 위한 특정의 그룹들이 도 8b 내지 도 8i에 도시되어 있지만, 장면 내의 공통의 가시성 패턴들에 대응하는 각종의 템플릿들 중 임의의 것이 이용될 수 있다. 예를 들어, 단일의 에피폴라 라인을 따라 있는 카메라들의 그룹들은 도 10을 참조하여 이하에서 기술되는 바와 같이 선택될 수 있다. 많은 실시예들에서, 기준 카메라를 포함하는 색상 채널에서의 동일한 수의 카메라들이 카메라들의 각각의 그룹에 나타나도록 그룹들이 선택된다. 그에 부가하여, 카메라들의 각각의 그룹에 다른 색상 채널들에서의 적어도 2개의 카메라들이 있도록 그룹들이 결정될 수 있다. 그룹들이 불균일한 수의 카메라들을 포함하는 경우, 상이한 크기의 그룹들에 대한 비용 메트릭이 편향(bias)될 수 있고, 이 편향은 정규화를 통해 설명될 수 있다. 많은 실시예들에서, (공통의 기준선을 공유하는 것에 기초하여 선택되는 도 10에 예시된 그룹들과 달리) 카메라들의 그룹들이 기준선 다이버시티를 제공하도록 선택된다. 깊이 탐색이 수행되는 상이한 방사상 에피폴라 라인들의 수가 많을수록, 카메라들의 그룹에 의해 포착된 영상들 중 하나가 잘못된 깊이들을 식별하는 데 도움을 줄 수 있는 정보를 포함할 가능성이 많다. 몇몇 실시예들에서, 각각의 그룹의 에피폴라 라인들에 의해 정의되는 섹터의 중심각(central angle)이 동일하도록 카메라들의 그룹이 선택된다.
4 x 4 어레이 카메라들(이들로 제한되지 않음)과 같은 보다 작은 어레이 카메라들에서, 그리고 어레이 내에서 이용되는 컬러 필터들의 패턴에 따라, 각각의 색상 채널에 동일한 수의 카메라들을 포함하는 카메라들의 그룹들을 선택하는 것이 가능하지 않을 수 있다. 몇몇 실시예들에서, 공통의 가시성 패턴들에 대응하는 카메라들의 그룹들이 단일의 색상 채널에서 동일한 수의 카메라들을 포함하도록 컬러 필터 패턴이 이용된다. 이러한 방식으로, 색상 채널 내에서 포착된 영상 데이터는, 상이한 서브그룹들을 사용하여 획득된 깊이 추정치들의 필터링된 비용들을 비교함으로써, 폐색된 또는 다른 방식으로 부정합된 픽셀들에 대한 깊이들을 추정하는 데 이용될 수 있다. 어레이의 중앙에 위치해 있는 기준 카메라에서의 픽셀들에 대한 장면 내에 존재할 가능성이 있는 상이한 가시성 패턴들에 대응하는 4 x 4 어레이에서의 카메라들의 4개의 그룹들이 도 8j 내지 도 8m에 도시되어 있다. 4개의 카메라들을 포함하는 동일한 그룹 템플릿을 회전 및 플립시키는 것에 의해 4개의 그룹들이 발생된다. 예시된 실시예에서, 다음과 같은 3개의 색상 채널들이 있다: 적색, 녹색, 및 청색. 카메라들의 각각의 그룹은 3개의 녹색 카메라들 및 하나의 청색 또는 적색 카메라를 포함한다. 단일의 적색 또는 청색 카메라의 존재로 인해, 몇몇 실시예들에서, 녹색 색상 채널에서 포착된 영상 데이터를 사용하여 깊이 추정치들이 결정된다. 주어진 픽셀 위치 (x, y)에서, 가장 신뢰성있는 깊이 추정치(즉, 가장 낮은 비용)를 산출한 그룹의 적색 또는 청색 카메라에서의 영상 데이터는 기준 시점으로부터의 영상에서 보이는 것으로 가정된다. 그에 따라, 기준 시점으로부터의 영상에서 픽셀 위치 (x, y)에 대응하는 적색 또는 청색 영상 내의 픽셀 위치에서의 픽셀 값이 적색 또는 청색 색상 채널들 내의 다른 영상들에서의 대응하는 픽셀들의 가시성을 계산하기 위한 기준 픽셀로서 이용될 수 있다. 도 8j 내지 도 8m에 도시된 그룹들 각각에 대해, 스펙트럼 채널들 중 하나가 그룹으로부터 배제되어 있다. 그렇지만, π 필터 그룹의 사용은 배제된 색상 채널에서의 영상들 중 어느 것이 배제된 색상 채널에서의 픽셀들의 가시성을 결정하기 위한 기준 영상으로서 사용되어야만 하는지를 식별하기 위해 이용될 수 있다. π 카메라 그룹의 중앙 카메라의 시점이 기준 시점으로서 이용될 때, 배제된 색상 채널에서의 2개의 영상들이 기준 시점의 반대쪽에 있는 시점들로부터 포착될 것이다. 전형적인 자연 장면들에서, 기준 시점으로부터의 영상 내의 픽셀 위치가 배제된 색상 채널에서의 인접한 카메라들에 의해 포착된 영상들 중 적어도 하나에서 보일 가능성이 있다. 영상들 중 어느 것(있는 경우)이 보이는 기준 시점으로부터의 영상에서의 픽셀 위치에 대응하는 픽셀을 포함할 가능성이 가장 많은지를 결정하기 위해, 2개의 영상들을 포함하는 2개의 서브그룹들 내의 대응하는 픽셀들의 유사도. 서브그룹들 중 적어도 하나에서의 대응하는 픽셀들이 임계치 레벨의 유사도를 달성하는 것으로 가정하면, 대응하는 픽셀들이 가장 높은 레벨의 유사도를 가지는 서브그룹에서의 영상이 배제된 색상 채널에 대한 기준 영상으로서 선택될 수 있다. 이러한 방식으로, 배제된 색상 채널 내의 임의의 영상에서의 대응하는 픽셀들의 가시성이 배제된 색상 채널에 대한 기준 영상으로부터의 대응하는 픽셀과의 그의 유사도에 기초하여 결정될 수 있다. 기준 시점에 인접한 시점들로부터의 포착된 어느 영상도 기준 시점으로부터의 영상 내의 픽셀 위치에 대응하는 보이는 픽셀을 확실히 포함하지 않는 경우, 보이는 대응하는 픽셀을 포함하는 배제된 색상 채널 내의 영상을 식별하기 위해 그리고/또는 배제된 색상 채널로부터의 개개의 영상들 내의 픽셀들의 가시성을 결정하기 위해 대안의 기법들이 이용될 수 있다. 몇몇 실시예들에서, 본 명세서에 기술된 방식으로 에피폴라 라인 탐색을 수행함으로써 가시성이 결정될 수 있다. 다수의 실시예들에서, 기준 픽셀로서 이용될 수 있는 배제된 색상 채널에서의 영상들 내의 대응하는 픽셀을 결정하기 위해 교차 채널 유사도 척도(cross-channel similarity measure)들이 사용될 수 있다. 몇몇 실시예들에서, 대응하는 픽셀을 둘러싸고 있는 이웃이 기준 영상과의 가장 높은 상호 상관(또는 임의의 다른 적절한 교차 채널 유사도 척도)을 나타내는 영상이 배제된 색상 채널에서의 영상들 내의 다른 대응하는 픽셀들의 가시성을 결정하기 위한 기준 픽셀로서 이용될 수 있다. 상이한 크기의 카메라 어레이들을 포함하는 어레이 카메라들로 유사한 접근 방법이 취해질 수 있다.
많은 실시예들에서, 기준 카메라에서의 픽셀에 대한 깊이를 추정하는 데 사용되는 카메라들의 그룹들은 어레이 내의 카메라들의 쌍들에 대응한다. 임계치들의 사용을 통해, 픽셀 (x, y)가 보일 가능성이 있는 카메라들이 식별될 수 있고 초기 가시성 맵 Vi,Ref(x, y)가 구성될 수 있다. 임계치가 하드 임계치(hard threshold), 및/또는 기준 영상에서의 SNR에 기초한 임계치일 수 있다. 도 8b 내지 도 8i에 예시된 것들과 같은 카메라들의 보다 큰 그룹들에 대해서도 마찬가지이다. 대응하는 픽셀들의 세트 내에서의 하나 이상의 이상치 픽셀(outlier pixel)들의 존재를 검출하기 위해 임계치들이 사용될 수 있다. 이상치들을 포함하지 않는 것으로 밝혀진 카메라들의 그룹들이 이어서 결합될 수 있고, 깊이 추정치들의 정밀도를 향상시키기 위해 깊이가 이 새로운 결합된 세트로 재계산된다. 유사한 방식으로, 모든 카메라들이 가시성 맵 Vi,Ref(x, y)에서 보이는 것으로 처음에 가정함으로써 초기 깊이 맵이 구성될 수 있다. 앞서 기술된 방식으로 임계치들을 사용하는 것, 및/또는 에피폴라 라인들을 따라 폐색 탐색을 수행하는 것(이들로 제한되지 않음)을 비롯한 각종의 기법들 중 임의의 것이 카메라 어레이 내의 카메라들 중 적어도 하나에서 픽셀 (x, y)가 폐색되는지를 결정하는 데 이용될 수 있다. 어레이 내의 카메라들 중 적어도 하나에서 폐색될 가능성이 있는 픽셀들의 깊이가 이어서 도 8a와 관련하여 앞서 기술한 프로세스와 유사한 프로세스를 사용하여 또다시 추정될 수 있다. 이러한 방식으로, 픽셀이 폐색되는 카메라들이 신속하게 식별될 수 있다.
기준 영상 내의 픽셀들에 대한 깊이를 추정할 때 깊이 맵들 및 가시성 맵들을 결정하는 각종의 프로세스들이 도 8a 내지 도 8i를 참조하여 앞서 기술되어 있지만, 각종의 프로세스들 중 임의의 것이 본 발명의 실시예들에 따라 특정의 응용들의 요구사항들에 따른 초기 깊이 맵 및/또는 가시성 맵을 결정하는 데 이용될 수 있다. 본 발명의 실시예들에 따른 에피폴라 라인들을 따라 폐색된 픽셀들이 있는지 탐색을 수행하는 단계를 포함하는 프로세스들을 포함하는 폐색된 픽셀들을 식별하는 프로세스들이 이하에서 더 논의된다.
폐색된 픽셀들을 식별
초기 깊이 맵으로부터 폐색된 픽셀들을 식별하는 것과 연관된 과제는 폐색된 픽셀들을 사용하여 결정되는 깊이 맵 내의 깊이들이 잘못된 것일 수 있다는 것이다. 가장 신뢰성있는 깊이 추정치들은 카메라에 가장 가까운 장면 내의 객체들의 깊이 추정치들이다. 이들은 가장 큰 불일치를 야기하기도 하는 객체들이고, (장면 내에서의 객체들의 분포에 따라) 어쩌면 가장 많은 수의 픽셀 폐색을 초래할 수 있다. 따라서, 기준선 벡터를 따라 기준 영상에 폐색 픽셀이 있는지 탐색하는 것에 의해 기준 영상에서 보이는 픽셀이 제2 영상에서 폐색되는지에 관한 결정이 행해질 수 있다. 폐색 픽셀은 제2 영상의 시점으로부터 관측된 불일치가 기준 영상에서 보이는 픽셀을 폐색하기에 충분히 클 정도로 카메라에 충분히 가까운 픽셀이다. 폐색 픽셀에 대한 탐색이 도 9를 참조하면 이해될 수 있다. 기준 시점(900)으로부터 포착된 영상이 도 9에 도시되어 있다. 어레이 카메라에 의해 포착된 제2 영상에서 깊이 d1을 갖는 픽셀 (x1, y1)의 가시성을 결정하기 위해, 기준 영상을 포착한 카메라와 제2 영상을 포착한 카메라 사이의 기준선에 평행인 라인(902)을 따라 탐색이 수행된다. 픽셀 (x2, y2)가 카메라에 더 가까울 때(즉, 깊이 d2 < d1에 위치해 있을 때), 픽셀 (x1, y1)은 폐색될 것이다. 따라서, d2 ≥ d1인 모든 픽셀들 (x2, y2)가 무시될 수 있다. 각각의 픽셀의 장면 의존적인 기하학적 시프트들(각각, s2 및 s1)은 기준선 벡터에 평행인 라인(902)을 따라 있는 2개의 픽셀들 간의 거리보다 더 큰 경우, 픽셀 (x2, y2)는 또한 픽셀 (x1, y1)을 폐색시킬 것이다. 달리 말하면,
일 때 픽셀 (x2, y2)는 픽셀 (x1, y1)을 폐색시킨다.
몇몇 실시예들에서, 상기 식에서의 임계치는 후속의 초해상도 처리 동안 사용된 초해상도 인자(super-resolution factor)의 역수로서 결정될 수 있다(예컨대, 초해상도 프로세스가 3배의 해상도의 증가를 달성하려고 시도할 때, 픽셀의 1/3의 임계치가 적절하다). 상기 식을 충족시키는 픽셀이 발견될 수 없을 때, 픽셀 (x1, y1)이 제2 영상에서 보이는 것으로 결론내려질 수 있다. 어떤 픽셀 (x2, y2)에 대해 상기 식이 충족되는 경우, 픽셀 (x1, y1)이 폐색되는 것으로 간주될 수 있다. 따라서, 제2 영상(및 픽셀이 폐색되는 임의의 다른 영상들)을 무시하여 픽셀 (x, y)에 대한 업데이트된 깊이 추정치를 생성하기 위해 도 8에 예시된 프로세스가 반복될 수 있다. 잘 알 수 있는 바와 같이, 초기 깊이 추정치에서의 잘못된 깊이들로 인해, 보이는 픽셀들이 깊이 맵을 결정하는 프로세스의 장래의 반복들에서 무시될 수 있다. 측광적으로 일관성있는 깊이들을 제공하기 위해 적응적 지원을 사용하는 것은 잡음이 잘못된 픽셀 폐색의 검출을 가져올 가능성을 감소시키고, 이는 후속 프로세스 반복으로부터 유용한 정보를 제거한다. 많은 실시예들에서, 픽셀을 폐색되어 있는 것으로 지정하는 결정은 픽셀들의 유사도 및 픽셀들 (x1, y1) 및 (x2, y2)의 추정된 깊이들의 신뢰도를 고려한다. 이하에서 추가로 논의되는 바와 같이, 신뢰도 맵이 기준 영상의 깊이 맵과 관련하여 발생될 수 있고, 신뢰도 맵은 특정의 깊이 맵의 신뢰성을 나타낸다. 따라서, 각각의 픽셀의 장면 의존적인 기하학적 시프트들(각각, s2 및 s1)이 신뢰할 수 없는 깊이 추정치들에 기초하는 앞서 제공된 식을 사용하여 식별된 가능한 폐색이 무시될 수 있다. 이와 유사하게, 픽셀들의 명도들의 차이가 사전 결정된 임계치 미만인 픽셀들을 포함하는 가능한 폐색이 무시될 수 있다. 픽셀 값들이 충분히 유사한 경우, 픽셀에 의거하여 발생된 깊이 추정치는 픽셀이 폐색되더라도 대체로 영향을 받지 않을 것이다. 다른 실시예들에서, 특정의 응용들의 요구사항들에 따라 적절히 픽셀을 가시성 맵에서 폐색된 것으로 나타낼지를 결정할 때 각종의 다른 고려사항들이 고려될 수 있다.
도 9와 관련하여 앞서 논의된 탐색이 깊이 추정을 수행하는 데 이용되는 모든 카메라에 대응하는 에피폴라 라인을 따라 행해질 수 있다. 포착된 영상들이 올바르게 정렬될 때, 카메라들의 기준선들을 기준 시점으로부터 포착된 픽셀들의 행들 및 열들에 대해 일렬로 정렬시키는 것에 의해 탐색이 간단화될 수 있다(이상에서의 정렬의 논의를 참조). 폐색 픽셀들에 대한 탐색이 기준 영상에서의 모든 픽셀에 대해 수행될 필요가 없다. 그 대신에, 깊이 천이에 근접한 픽셀들(이들로 제한되지 않음)을 비롯한 어레이 카메라에 의해 포착된 하나 이상의 영상들에서의 폐색될 가능성이 있는 픽셀들에 대해 초기 탐색이 수행될 수 있다. 폐색될 가능성이 있는 것으로 간주되는 픽셀들에 대한 폐색 픽셀들에 대한 탐색이 이어서 수행될 수 있다. 그에 부가하여, 폐색 픽셀들에 대한 탐색은 사전에 거리에 기초하여 픽셀들의 투영들을 계산하는 것에 의해 보다 효율적으로 수행될 수 있다(투영들은 기준선을 따라 있는 인접한 픽셀들이 폐색될 깊이를 나타냄). 그에 부가하여, 픽셀이 폐색될 것으로 결정되면, 인접한 픽셀들의 폐색을 검출하는 프로세스가 폐색 픽셀의 투영을 이용하는 것에 의해 간단화될 수 있다. 다른 실시예들에서, 본 발명의 실시예들에 따라 깊이에 기초하여 영상을 렌더링하는 것(이들로 제한되지 않음)을 비롯한 각종의 기법들 중 임의의 것이 폐색 픽셀 및 폐색된 픽셀을 보다 효율적으로 찾아내는 데 이용될 수 있다.
앞서 살펴본 바와 같이, 초기 깊이 맵의 결정에서 폐색된 픽셀들을 포함시키는 것은 얻어진 픽셀 깊이들에 오류들을 유입시킬 수 있다. 앞서 기술한 프로세스들 중 임의의 것과 유사한 프로세스를 사용하여 폐색이 검출되고 깊이 맵이 업데이트될 때, 깊이 맵에서의 오류들이 제거된다. 깊이 맵에서의 오류들이 제거되기 때문에, 폐색되는 픽셀들에 관해 보다 정확한 예측들이 행해질 수 있다. 그에 따라, 폐색을 검출하는 프로세스가 정지 기준(stopping criterion)에 도달될 때까지 반복하여 수행될 수 있다. 다수의 실시예들에서, 정지 기준은 (이전에 검출되지 않았던) 특정의 반복에서 검출된 폐색된 픽셀들의 수가 사전 결정된 수 미만으로 되는 것 및/또는 사전 결정된 수의 반복들의 완료(이들로 제한되지 않음)일 수 있다.
다시 도 6을 참조하면, 본 발명의 일 실시예에 따라 깊이 맵을 발생시키고 세밀화하는 프로세스가 예시되어 있다. 많은 경우들에서, 초기 깊이 맵을 결정(602)하는 프로세스들은 폐색된 픽셀들의 불일치를 과대평가하는 경향을 가질 것이다. 이것은 폐색된 픽셀들을 전경으로 밀어내는 효과가 있다. 따라서, 다수의 실시예들에서, 깊이 맵을 업데이트(606)하는 목적을 위해, 다른 픽셀을 폐색시키는 픽셀이 또한 폐색된 픽셀로서 취급될 수 있다. 이러한 방식으로, 잘못된 초기 깊이 측정을 가지는 배경 픽셀들의 깊이가 검출되고 업데이트될 수 있다. 이하에서 추가로 논의되는 바와 같이, 깊이 맵이 마무리되면, 무시되는 픽셀들의 가시성이 개별적으로 결정될 수 있다(610). 다수의 실시예들에서, 도 6에 예시된 프로세스(600)와 같은 프로세스들은 또한 프로세스가 반복할 때 깊이 맵을 안정화시키는 데 도움을 주기 위해 깊이 맵에 양방향 필터를 적용하는 단계를 포함한다.
깊이 추정치의 정확도는 전형적으로 깊이 추정치를 발생시키는 데 이용되는 어레이 카메라에 의해 포착된 명시야에서의 영상들의 수에 따라 증가한다. 그렇지만, 보다 적은 수의 영상들을 고려하는 것은 깊이 추정치를 획득하는 것의 계산 복잡도를 감소시킬 수 있다. 깊이 천이가 일어날 때, 폐색은 전형적으로 기준 시점의 한쪽 면에서 포착된 영상들에서 일어날 것이다. 따라서, 기준 카메라의 한쪽 면에 포착된 영상들의 그룹에서 픽셀이 폐색되는지를 결정하기 위해, 앞서 기술한 탐색과 유사한 폐색 픽셀들에 대한 탐색이 이용될 수 있다. 탐색이 폐색이 일어나지 않았음을 나타내는 경우, 영상들의 그 그룹을 사용하여 픽셀의 깊이가 결정될 수 있고 깊이 맵이 업데이트될 수 있다.
어레이 내의 녹색 카메라들을 사용하여 깊이 맵을 구성하기 위해 이용될 수 있는 5 x 5 어레이 카메라가 도 10에 예시되어 있다. 어레이 카메라(1010)는 중앙의 기준 녹색 카메라(1012)를 포함한다. 어레이에서의 나머지 녹색 카메라들은, 녹색 카메라들에 의해 포착된 영상들 중 적어도 하나에서 폐색되는 픽셀들의 깊이를 결정하기 위해, 3개의 녹색 카메라들로 된 8개의 방사상 그룹들을 형성하는 데 이용될 수 있다. 방사상 그룹들이 도 10에 예시되어 있지만, 기준 시점을 둘러싸고 있는 4개의 사분면들 각각에 있는 카메라들의 그룹들이 또한 이용될 수 있다. 그룹은 한 쌍의 카메라들과 같이 작을 수 있고, 그 카메라들 중 하나는 기준 시점으로부터 영상을 포착하는 카메라이다. 많은 실시예들에서, 도 8a 내지 도 8i를 참조하여 앞서 논의된 것들과 같은 그룹들이 또한 이용될 수 있다.
픽셀 폐색을 검출하는 특정의 프로세스들이 도 6, 도 8a 내지 도 8i, 도 9, 및 도 10과 관련하여 앞서 논의되어 있지만, 본 발명의 실시예들에 따라 폐색을 검출하는 것의 계산 복잡도를 감소시키는 프로세스들(이들로 제한되지 않음)을 비롯한 각종의 프로세스들 중 임의의 것이 깊이 맵을 발생시키는 데 이용될 수 있다. 몇몇 실시예들에서, 각각의 픽셀의 깊이를 결정하는 프로세스는 가정된 깊이들 및 가정된 가시성 둘 다 그리고 가장 유망한 깊이 및 폐색의 세트로서 선택된 가장 높은 픽셀 대응 관계를 산출하는 깊이 및 가시성의 조합에 기초하여 탐색하는 단계를 포함할 수 있다. 이러한 방식으로 결정된 가시성이 폐색 픽셀들을 검출하는 전술한 접근 방법을 사용하여 확인될 수 있다.
많은 실시예들에서, 기준 시점으로부터 포착된 영상들에서의 픽셀들의 가시성에 관한 정보가 초해상도 처리(이들로 제한되지 않음)를 비롯한 프로세스들에서 이용된다. 본 발명의 실시예들에 따라 깊이 맵을 사용하여 기준 시점으로부터 어레이 카메라에 의해 포착된 영상들에서의 픽셀들의 가시성을 결정하는 프로세스들이 이하에서 더 논의된다.
픽셀들의 가시성을 결정
깊이 맵을 결정할 시에 그리고 초해상도 처리(이들로 제한되지 않음)를 비롯한 각종의 다른 응용들에서 픽셀 가시성이 이용될 수 있다. 몇몇 실시예들에서, 앞서 기술한 프로세스들과 유사한 프로세스를 사용하여 발생된 기준 시점으로부터 포착된 영상에 대한 깊이 맵이 어레이 카메라에 의해 포착된 다른 영상들(즉, 대안 시점들로부터 포착된 영상들)에 대한 가시성 맵을 발생시키는 데 이용된다. 몇몇 실시예들에서, 대안 시점 영상들에서의 픽셀들이 기준 시점으로부터 보이는지 및 제1 대안 시점 영상에서의 픽셀이 다른 대안 시점 영상들 중 임의의 것에서 보이는지와 관련하여 가시성 맵들이 결정될 수 있다. 다수의 실시예들에서, 단일의 색상 채널 내에서 포착된 영상들에 대한 가시성 맵들을 결정하는 프로세스는 기준 시점으로부터 포착된 영상에서의 픽셀에 대응하는 픽셀들의 측광 유사도를 비교하는 단계를 포함한다. 사전 결정된 레벨의 유사도를 가지는 것으로 간주되는 픽셀들이 보이는 것으로 간주될 수 있고, 임계치 레벨의 유사도 미만인 픽셀들은 폐색된 것으로 간주될 수 있다. 대응하는 픽셀들의 측광 유사도를 결정하는 데 이용되는 임계치가 대응하는 픽셀들의 유사도에 기초하여 적응될 수 있다. 몇몇 실시예들에서, 임계치는 기준 영상으로부터의 픽셀과 기준 영상으로부터의 픽셀과 가장 유사한 대응하는 픽셀 사이의 측광 거리의 함수로서 결정된다. 어레이가 다수의 색상 채널들에서 영상 데이터를 포착할 때, 단일의 색상 채널에서의 픽셀들의 가시성이 다른 채널들에서의 픽셀들의 가시성을 결정하는 데 이용될 수 있다.
본 발명의 일 실시예에 따른, 기준 시점 내의 픽셀에 대응하는 픽셀들의 가시성을 결정하는 프로세스가 도 11에 예시되어 있다. 프로세스(1100)는 기준 시점으로부터 포착된 영상으로부터 픽셀을 선택하는 단계(1102)를 포함한다. 앞서 기술한 프로세스들과 유사한 프로세스를 사용하여 발생된 깊이 맵이 선택된 픽셀의 깊이를 결정하는 데 이용될 수 있다. 선택된 픽셀의 깊이에 기초하여, 어레이 카메라에 의해 포착된 각각의 영상에서의 대응하는 픽셀들의 위치들이 결정될 수 있다(1104). 기준 영상으로부터의 선택된 픽셀에 대응하는 픽셀들의 유사도가 대응하는 픽셀들의 가시성을 결정하는 데 이용될 수 있다. 다수의 실시예들에서, 픽셀들의 측광 거리가 유사도의 척도 및 보일 가능성이 있는 픽셀들 및 폐색될 가능성이 있는 픽셀들을 결정하는 데 사용되는 임계치로서 이용된다. 많은 실시예들에서, 임계치가 비교되는 픽셀들의 특성들에 따라 변한다. 특정의 실시예들에서, 대응하는 픽셀들의 유사도를 결정하는 데 사용되는 임계치 값이, 주어진 색상 채널에서 보이는 것으로 밝혀진 대응하는 픽셀들에 대한 픽셀 명도 값들의 서브셋의 평균으로서, 기준 픽셀의 명도를 사용하여 결정된다. 몇몇 실시예들에서, 평균되는 특정의 대응하는 픽셀 명도들은 픽셀들(이용가능한 경우)에 대한 대응하는 카메라 기준선 및 신뢰도 값들 그리고 픽셀들에 대한 연관된 정합 비용들에 의존할 수 있다. 몇몇 실시예들에서, 임계치는 기준 영상으로부터의 선택된 픽셀과 선택된 픽셀에 측광적으로 가장 가까운 대응하는 픽셀 사이의 측광 거리의 함수로서 결정된다(1106). 다수의 실시예들에서, 임계치는 기준 영상에서의 대응하는 픽셀의 픽셀 명도 및/또는 대안 시점 영상에서의 픽셀의 명도에 기초한다. 특정의 실시예들에서, 임계치는 포착된 영상에 대한 SNR 모델을 사용하여 결정된다. 다수의 실시예들에서, 적절한 임계치를 획득하기 위해, 선택된 픽셀 및 가장 가까운 대응하는 픽셀의 측광 거리가 스케일링되고 그리고/또는 오프셋이 부가된다. 다른 실시예들에서, 고정된 임계치를 사용하는 것(이들로 제한되지 않음)을 비롯한 각종의 기법들 중 임의의 것이 대응하는 픽셀의 가시성을 결정하기 위한 임계치를 결정하는 데 이용될 수 있다.
기준 영상으로부터의 선택된 픽셀들 및 대응하는 픽셀들이 비교되고(1108), 임계치가 픽셀들의 유사도를 결정(1110)하는 데 사용된다. 기준 영상으로부터의 선택된 픽셀과 대응하는 픽셀들 중 하나의 픽셀의 측광 거리가 임계치 미만일 때, 대응하는 픽셀이 보이는 것으로 결정된다(1112). 기준 영상으로부터의 선택된 픽셀과 대응하는 픽셀들 중 하나의 픽셀의 측광 거리가 임계치를 초과할 때, 대응하는 픽셀이 폐색된 것으로 결정된다(1114).
어레이 카메라에 의해 포착된 다른 영상들에서의 대응하는 픽셀들에 대한 가시성 맵들을 발생시키기 위해 기준 영상에서의 픽셀들의 서브셋 또는 전부에 대해 도 11에 예시된 프로세스(1100)가 반복될 수 있다. 기준 시점으로부터의 영상을 포착하는 카메라에서의 픽셀들 모두가 단일의 색상 채널에 있는 실시예들에서, 도 11에 예시된 프로세스와 유사한 프로세스들은 단일의 색상 채널 내에서 포착된 영상들에 대한 가시성을 효과적으로 발생시킨다. 어레이 카메라가 또한 다른 색상 채널들에서 포착된 영상들을 포함할 때, 기준 영상과 동일한 색상 채널에 있지 않은 영상들에서의 픽셀들의 가시성은 기준 시점에서 보일 가능성이 있는 또는 알려진 스펙트럼 채널 내의 영상들로부터의 대응하는 픽셀들과 관련하여 앞서 기술한 것들과 유사한 비교들을 수행하는 것에 의해 결정될 수 있다. 다른 실시예들에서, 기준 영상을 포착하는 카메라는 기준 시점으로부터 다수의 색상 채널들에서의 영상 데이터의 포착을 가능하게 하는 베이어 필터(또는 다른 적절한 필터 패턴)를 이용한다. 이 경우에, 다수의 색상 채널들에서의 영상들에 대한 가시성 정보를 발생시키기 위해 도 11에 예시된 것들과 유사한 프로세스들이 이용될 수 있고, 이 경우, 프로세스는 기준 시점에서의 각각의 위치에서 적색 및 청색 픽셀 값을 획득하기 위해 베이어 필터 패턴을 디모자이킹(demosaicing)하는 단계를 포함한다.
특정의 프로세스들이 도 11과 관련하여 앞서 논의되어 있지만, 깊이 맵을 발생시키는 프로세스의 일부로서 가시성 정보를 반복하여 세밀화하는 프로세스들(이들로 제한되지 않음)을 비롯한 각종의 프로세스들 중 임의의 것이 본 발명의 실시예들에 따라 어레이 카메라에 의해 포착된 영상들에서의 픽셀들의 가시성을 결정하는 데 이용될 수 있다. 많은 실시예들에서, 깊이 맵 및 가시성 맵을 발생시키는 프로세스는 또한 신뢰도 맵 내의 추정된 깊이들의 신뢰성에 관한 정보를 제공할 수 있는 신뢰도 맵을 발생시키는 단계를 포함할 수 있다. 본 발명의 실시예들에 따른 신뢰도 맵들을 결정하는 프로세스들이 이하에서 더 논의된다.
신뢰도 맵
앞서 기술한 것들을 비롯한 깊이 맵들을 발생시키는 프로세스들의 결과, 깊이 추정치들을 신뢰할 수 없는 깊이 맵 내에서의 영역들이 얻어질 수 있다. 어레이 카메라에 의해 포착된 영상 데이터를 사용하여 합성된 영상의 텍스처리스 영역이 도 18a에 예시되어 있고, 본 발명의 실시예들에 따라 앞서 기술한 것들과 유사한 프로세스들을 사용하여 발생된 영상에 대한 깊이 맵이 도 18b에 예시되어 있다. 텍스처리스 영역(1800)에서, 앞서 기술한 방식으로 깊이를 결정하기 위해 사용되는 비용 메트릭은 잡음이 많고, 비록 (즉, 카메라들이 최대 대응 관계를 나타내는 깊이에서의) 최소 비용이 발견될 수 있지만, 결과는 임의의 상당한 기본 신호가 아니라 센서 및 광자 잡음에 대체로 의존한다. 이러한 영역들에서의 픽셀 대응 관계(비용 메트릭에 의해 측정됨)는 실제로 도시된 깊이에서 가장 크지만, 도시되어 있는 얻어진 깊이는 객체의 올바른 깊이가 아니다. 이와 달리, 에지 영역(1802)에서, 비용 함수는 비용이 아주 확실히 최소화되는 깊이를 나타낸다. 그곳에서, 에지 신호는 잡음보다 훨씬 더 크고, 따라서 객체의 실제 깊이에 대응하는 불일치가 더 높은 신뢰도로 검출될 수 있다.
그렇지만, 깊이 오류들이 텍스처리스 영역들로 제한되지 않는다. 다른 부류의 깊이 오류들이 폐색 구역들에서 일어나고, 여기서 특정의 배경 영역들이 어떤 카메라들에서는 보이지만, 다른 카메라들에서는 그렇지 않다. 이러한 종류의 오류가 타이어의 림(rim)을 따라 보일 수 있고, 여기서 전경 영역이 배경 영역과 교차한다. 깊이 맵에서, 전경과 배경 사이의 경계면에서 잘못된 깊이 추정치들을 포함하는 영역들(1804)이 있는 것처럼 보인다.
깊이 맵을 발생시킬 때, 어떤 척도를 통해 깊이 맵 내에서의 상이한 깊이 추정치들의 신뢰성을 수치적으로 나타내는 신뢰도 맵이 발생될 수 있다. 깊이 맵의 어느 영역들이 추가의 처리를 위해 가장 의존될 수 있는지를 결정하기 위해, 신뢰도 맵이 나중의 처리 스테이지들에 의해 또는 제3자 애플리케이션들에 의해 사용될 수 있다. 예를 들어, 깊이 측정 유틸리티는 사용자가 특정 픽셀의 깊이를 획득하기 위해 초해상도 프로세스를 사용하여 합성된 영상의 영역들을 클릭할 수 있게 할 수 있다. 사용자가 영상의 픽셀을 클릭할 때, 결과를 반환하기 전에 신뢰도 맵이 검사될 수 있다. 요청된 위치에서의 깊이의 신뢰도가 낮은 경우, 사용자 인터페이스는 그 위치에서의 깊이를 보고하는 것을 회피할 수 있다. 신뢰도 맵이 높은 경우, 사용자 인터페이스는 선택된 위치에서의 깊이를 안전하게 보고할 수 있다. 즉, 깊이 맵이 오류들을 포함하는 것으로 알려진 경우 부정확한 값을 반환하지 않고 특정의 응용들에 대한 결과들에 자격을 부여하기 위해 신뢰도 맵이 사용될 수 있다.
신뢰도 맵은 각종의 방식들로 인코딩될 수 있고, 단일의 신뢰도 맵 내에 다수의 부류 또는 축의 신뢰도가 인코딩될 수 있다. 본 발명의 실시예들에 따라 신뢰도 맵에 신뢰도 메트릭을 인코딩하기 위해 이용될 수 있는 각종의 신뢰도 척도들이 이하에서 논의된다.
몇몇 실시예들에서, 신뢰도 맵은 픽셀의 깊이 추정치가 영상 내의 텍스처리스 영역 내에 있는지에 기초하여 신뢰도 척도로 인코딩된다. 앞서 살펴본 바와 같이, 주어진 픽셀을 둘러싸고 있는 영역에서의 SNR에 기초하여 텍스처리스 영역들이 검출될 수 있다. SNR이 기지의 조정가능 임계치를 초과한 경우, 그 영역은 이진 방식으로 텍스처리스로 표시될 수 있다. 다른 대안으로서, SNR 자체가 (이진화(threshold)되지 않고) 선형적으로 또는 비선형적으로 재매핑될 수 있고, 연속적인 신뢰도 지시자로서 역할하도록 사용될 수 있다.
많은 실시예들에서, 경사 에지 맵(예컨대, Prewitt 또는 Canny)이 계산되고 신뢰도 맵 내에서의 신뢰도 메트릭으로서 사용될 수 있다. 에지들 및 텍스처가 전형적으로 높은 신뢰도를 가지기 때문에, 경사 맵들 및 SNR 맵들은 종종 깊이 맵에 대한 양호한 거친 신뢰도 척도를 제공한다.
다수의 실시예들에서, 특정의 영역이 폐색 및/또는 부정합 그리고 카메라들 사이의 충돌하는 측정으로 인해 낮은 신뢰도인지에 기초하여 신뢰도 맵이 인코딩될 수 있다(즉, SNR 맵에 의해 검출되는 영역에 텍스처가 있을 수 있지만, 그 영역에서 시차 검출 프로세스가 폐색을 검출하고 그리고/또는 그를 해결할 수 없거나 그렇지 않고 임의의 다른 이유로 깊이를 확실히 추정할 수 없기 때문에 여전히 깊이 오류가 일어날 수도 있다).
다수의 실시예들에서, 신뢰도 메트릭이 깊이 추정 프로세스 동안 달성된 "최상의 비용" 또는 이 양의 선형, 비선형 또는 양자화된 재매핑으로서 결정된다. 깊이 추정 동안 달성된 최소 비용이 선택된 임계치를 초과한 경우, 추정된 깊이에서 다수의 시점들 간에 대응 관계가 없는 것에 기초하여 영역이 낮은 신뢰도인 것으로 표시될 수 있다.
다수의 실시예들에서, 카메라들의 상이한 그룹들 사이에 발생된 상이한 서브그룹들 또는 깊이 맵들 사이의 최상의 비용들을 비교하고, 최상의 비용들 사이의 차이가 임계치보다 더 큰 경우, 영상들의 서브셋들에서 발견된 비용들이 상이한 픽셀 위치들에 대해 낮은 신뢰도인 것으로 표시하는 것에 의해 폐색이 검출될 수 있다.
다수의 실시예들에서, 특정의 영역이 깊이 추정 프로세스 자체에서의 적응적 처리 단계들로 인해 낮은 신뢰도인지에 기초하여 신뢰도 맵이 인코딩될 수 있다. 예를 들어, 특정의 영역에서 보다 적은 수의 깊이들이 탐색되는 경우, 이 정보는 깊이가 신뢰성이 떨어진다는 것을 강조하기 위해 신뢰도 맵에 수치적으로 인코딩될 수 있다. 많은 실시예들에서, 깊이 맵의 특정의 영역들이 실제로는 대응 관계 탐색을 통해 탐색되고, 깊이 맵의 다른 영역들에서, 깊이들은 보다 희박한 점들의 세트에 대한 깊이 탐색으로부터의 결과들에 기초하여 보간된다. 이러한 경우에, 보간된 깊이들을 갖는 픽셀들은 대응 관계들이 실제로 탐색된 픽셀들보다 더 낮은 신뢰도 값들을 부여받는다.
몇몇 실시예들에서, 깊이 측정의 예상된 정밀도가 또한 신뢰도 맵에 수치적 양으로서 코딩될 수 있다. 많은 경우들에서, 카메라로부터 더 멀리 떨어진 깊이들은 더 많은 오류로 측정되고 따라서 덜 신뢰될 것이다. 이러한 경우들에서, 신뢰도 맵은 이러한 영역들을 보다 낮은 신뢰도의 깊이 추정치들을 포함하는 것으로 표시할 수 있다. 신뢰도는 그 깊이에서의 인접한 탐색 위치들 사이의 예상된 깊이 오차에 비례할 수 있다. 특정의 실시예들에서, 시차 탐색에 의해 지원되는 최소 거리에 대응하는 불일치(즉, 이것은 모든 지원되는 깊이들에 대한 임의의 2개의 카메라들 사이에서 관측된 최대 불일치일 것임)가 결정될 수 있다. 최대 불일치가 발견되면, 탐색은 최대 불일치까지 다수의 불일치를 탐색할 것이다. 많은 실시예들에서, 최대 불일치는 D개의 저 해상도 픽셀들이고, 탐색된 깊이들의 수는 N이다. 에피폴라 라인을 따라 인접한 탐색 위치들 사이의 불일치의 픽셀들의 수는 D/(N-1)이다. (n < N에 의해 인덱싱되는) 탐색되는 N개의 불일치 중 임의의 것에 대한 깊이(단위: 미터)는 dn = C/(n *D/(N-1))이고, 여기서 C는 최대 기준선들을 가지는 개개의 저 해상도 카메라들의 기준선들 및 초점 거리들에 관한 정보를 상수이다. 깊이 맵에서의 특정의 점에서, 깊이가 dn인 경우, dn에서의 예상된 측정 오차는 en = 1/2 * max(|dn - dn+1|, |dn - dn-1|)이다. 기본적으로, 예상된 측정 오차는 에피폴라 라인을 따라 고정된 이산 수의 점들을 탐색하는 것으로 인한 오차이다. 깊이 맵 내의 특정 픽셀 위치에서의 깊이 추정치와 관련한 신뢰도 값을 제공하기 위해 오차 값 자체가 선형적으로 또는 비선형적으로 매핑될 수 있다. 오차가 높을수록, 깊이 추정치의 신뢰도가 떨어진다. 몇몇 실시예들에서, 탐색된 불일치가 똑같은 간격으로 있지 않고, 어떤 영역들에서 다른 영역들보다 더 거칠 수 있다. 그에 따라, 신뢰도 맵이 깊이에서의 계산된 오차를 반영하도록 (에피폴라 라인을 따라 탐색 위치들의 분포가 어떻든간에) 인접한 인덱스들 사이에서 이와 유사하게 오차가 계산될 수 있다. 다수의 실시예들에서, 신뢰도 맵은 (깊이가 아니라) 추정된 불일치에서의 최대 오차(그 양의 역수가 이상에 열거되어 있음)를 반영한다. 이것은 영상 융합과 같은 응용들에 대해 보다 유용할 수 있는 반면, 깊이 오차는 (3D 모델링(이들로 제한되지 않음)과 같은) 실세계 좌표로 행해지는 측정 응용들에 대해 보다 유용할 것이다.
다수의 실시예들에서, 신뢰도 맵은 깊이 맵을 신뢰할 수 없는 것으로 만드는 알려진 또는 검출된 렌즈 또는 센서 결함들로 인해 영역들을 낮은 신뢰도인 것으로 표시할 수 있다. 결함 픽셀들(센서 상의 결함 픽셀들은 물론 렌즈 결함들에 의해 영향을 받는 픽셀들 둘 다를 포함하는 용어)이 영상 처리 동안 또는 전처리 교정 단계에서 오프라인으로 검출될 수 있다. 하나의 실시예에서, 임의의 기준 카메라에서 특정 픽셀 (x, y)로부터 어떤 반경 내의 픽셀 결함들의 총수가 사전 설정된 임계치를 초과하는 경우, 픽셀 (x, y)는 픽셀 결함들로 인해 깊이 맵에서 낮은 신뢰도인 것으로 표시된다. 다른 실시예에서, 신뢰도가 임의의 카메라에서 기준 픽셀 (x, y)를 둘러싸고 있는 어떤 반경 및/또는 영역 내에서 픽셀 결함들(또는 렌즈 결함들에 의해 영향을 받는 것으로 알려진 픽셀들)의 수의 함수로서 (하드 임계치로서가 아니라) 비례적으로 증가하는 경우 유사한 신뢰도 값이 정의될 수 있다. 다른 실시예에서, 신뢰도가 다양한 심각도의 오류들을 야기하는 것으로 알려져 있는 결함 픽셀들의 특정의 구성들에 대한 사전 계산된 값일 수 있다. 몇몇 실시예들에서, 결함에 대한 신뢰도 값은 신뢰도 값을 계산할 시에 국소 영상 내용을 고려한다.
몇몇 실시예들에서, 신뢰도 맵은, 기준 영상이 텍스처리스인 것으로 보이지만 다른 색상 채널들에서 텍스처드 내용(textured content)이 있는 경우, 저 신뢰도 영역들로 표시할 수 있다. 하나의 실시예에서, 기준 카메라에서의 픽셀 (x, y)가 국소 반경 및/또는 영역 내에서 탐색된다. 이 국소 반경 및/또는 영역 내에서 내용이 녹색에서 텍스처리스인 것으로 간주되는 경우, 그렇지만 적색 및/또는 청색 카메라들에 대한 다른 (어쩌면 더 큰) 국소 반경/영역 내에서의 동일한 탐색이 적색 및/또는 청색 색상 채널들 내의 영상들에서 충분한 텍스처를 찾아내는 경우, 영역은 녹색 색상 채널이 이 검출 시나리오에서 덜 유용하고 깊이 결과들이 (비록 종종 올바르지만) 신뢰성이 떨어질 것이라는 사실로 인해 보다 낮은 신뢰도인 것으로 표시될 수 있다.
다수의 실시예들에서, 신뢰도 맵은 렌즈 플레어(lens flare) 또는 장면에서의 특징들로 인해 측광 부정합이 있는 시나리오들에서 저 신뢰도인 것으로 수치적으로 인코딩한다. 많은 실시예들에서, 픽셀 위치 (x, y) 주위의 관심 영역의 국소 통계(평균 및 분산)가 계산되고 다른 카메라에서의 유사한 영역의 국소 통계와 비교될 수 있다. 이러한 방식으로, 있을 수 있는 렌즈 플레어(그의 존재는 신뢰도를 감소시킴)를 검출하기 위해 다수의 영상들의 동일한 일반 영역에서의 2개의 이웃들 사이의 국소 영상 통계들이 비교될 수 있다. 다른 실시예들에서, 렌즈 플레어를 검출하기 위해 다수의 영상들에서의 이웃들을 비교하는 데 각종의 기법들 중 임의의 것이 이용될 수 있다. 얻어진 신뢰도 척도는 다수의 카메라들에 의해 포착된 영상들에 걸쳐 영역들의 평균과 분산 간의 차이의 스케일링된 또는 비선형적으로 매핑된 함수일 수 있다. 카메라들에 의해 포착된 영상들 간의 평균 및 분산 차이들이 클수록, 깊이가 신뢰성이 있을 가능성이 낮고 신뢰도가 낮을 것이다.
다수의 실시예들에서, 영상이 아주 어둡고 영상에 잡음이 많을 때 신뢰도를 감소시키기 위해 신뢰도 맵이 조명 조건들에 따라 적응된다. 특정의 실시예들에서, 영상이 촬영된 때의 센서 이득은 모든 깊이들에 대한 신뢰도의 절대적 감소를 가져올 것이다. 다른 실시예에서, 상이한 잡음 레벨들에서 에지 경사들에 대한 임계치들 또는 SNR 비를 계산할 때, 센서의 아날로그 이득 및 노출 시간이 고려된다. 많은 실시예들에서, 일련의 영상들을 포착하는 데 사용되는 카메라 어레이 내의 상이한 카메라들에 대해, 상이한 초점면들에 대한 아날로그 이득들 및 노출 시간들이 이용될 수 있다.
폐색으로 인해 낮은 신뢰도를 가지는 영역들을 검출하기 위해, 최상의 달성된 비용 메트릭이 시차 탐색 동안 저장될 수 있다. 상당한 폐색을 나타내는 영역들에 대해, 최상의 달성된 비용 메트릭은 폐색이 없고 모든 카메라들이 동일한 내용을 본 경우에 나타나게 될 최소 값을 보통 크게 초과한다. 그에 따라, 최상의 달성된 비용들에 임계치가 적용될 수 있다. 최상의 달성된 비용이 임계치를 초과하는 경우, 영역이 폐색될 가능성이 있는 것으로 또는 어떤 다른 문제점(측광 불균일 등)을 가질 가능성이 있는 것으로 표시된다.
특정의 유사도 메트릭들에 대해, 폐색에 대한 저 신뢰도 임계치가 영역의 평균 명도는 물론 센서의 잡음 통계에 대해 보정될 수 있다. 많은 실시예들에서, 기준 영상에서의 영역의 평균이 관심 픽셀을 중심으로 한 공간 박스 N x N 평균 필터를 사용하여 계산된다. 다른 실시예들에서, 평균을 알게 되는 경우, 기준 카메라를 포함하는 색상 채널에 대한 잡음 통계가 특정의 노출 및 이득에서의 특정의 평균을 원하는 임계치에 관련시키는 테이블 검색(table lookup)에 의해 계산될 수 있다. 최상의 정합하는 값이 예상된 잡음을 크게 초과하는 경우, 픽셀은 있을 수 있는 폐색으로 인해 신뢰할 수 없는 것으로 표시될 수 있다.
일반 부정합으로 인해 신뢰도의 비이진 척도(non-binary measure)가 이하의 수식을 사용하여 획득될 수 있고:
여기서 Costmin(x, y)는 원하는 깊이 범위에 걸친 불일치 탐색의 최소 비용이고,
Costd(x, y)는 (최소 깊이 이외의) 임의의 깊이 또는 깊이들로부터의 비용 데이터를 나타내며,
임의의 카메라에 의해 포착된 I(x, y)cam 영상 데이터가 신뢰도를 보강하는 데 이용될 수 있으며;
Sensor는 잡음 통계 또는 특성화, 결함있는 픽셀들, (이득 또는 노출과 같은) 임의의 포착된 영상들에 영향을 미치는 센서의 특성들(이들로 제한되지 않음)과 같은 센서의 기지의 특성들을 포함할 수 있는 센서 사전 정보이다.
Camera intrinsics은 (깊이 측정의 정밀도에 영향을 미치는) 어레이에서의 카메라들 간의 기준선 간격, 및 (특정의 시나리오들에서 폐색 구역들에서의 성능에 영향을 미치는) 색상 필터들의 배열(이들로 제한되지 않음)을 비롯한 신뢰도에 영향을 미칠 수 있는 카메라 및 카메라 어레이에 내재된 요소들을 명시하는 카메라 고유 특성이다.
몇몇 실시예들에서, Confidence(x, y)는 모든 인수(argument)들에 대해 픽셀 위치 (x, y)에 이웃하는 값들(즉, 공간적 이웃들)을 사용할 수 있다.
많은 실시예들에서, 신뢰도 맵이 이상의 인자들 중 하나 이상(이들로 제한되지 않음)을 비롯한 인자들에 기초하여 인코딩될 수 있다. 각각의 인자는 이진 방식으로 인코딩될 수 있거나, 신뢰도의 (양자화된) 정도들의 범위로서 표현될 수 있거나, 비양자화된 범위들 또는 그의 파생물들일 수 있다. 예를 들어, 특정의 축을 따른 신뢰도가 단일의 비트가 아니라 영역이 텍스처리스일 신뢰도의 레벨을 나타내는 다수의 비트들로서 표현될 수 있다. 특정의 실시예들에서, 특정의 축을 따른 신뢰도가 연속적인 또는 대략 연속적인(즉, 부동 소수점) 양으로서 표현될 수 있다. 신뢰도를 결정할 때 고려되는 다른 인자들은 본 발명의 실시예들에 따라 특정의 응용들의 요구사항들에 따라 적절히 신뢰도의 정도들의 각종의 범위들 중 임의의 것을 사용하여 결정될 수 있다. 몇몇 실시예들에서, 이 조건들 중 일부 또는 전부를 명시할 수 있는 경우 임의의 수의 신뢰도 코드들 또는 값들이 특정 픽셀에 대한 신뢰도 맵에 포함된다. 특정의 신뢰도 메트릭들이 이하에서 더 논의된다.
최소 비용만이 고려되고 센서의 잡음 통계가 선형 모델을 따르는 특정의 실시예에서, 간단화된 형태가 사용될 수 있고:
여기서 Avg(x,y)는 (x, y)의 영역에서의 기준 영상의 명도에 기초하여 신뢰도를 조정하기 위해 사용되는, (x, y)를 둘러싸고 있는 공간적 이웃에 있는 기준 영상의 평균 명도, 또는 이웃에서의 평균 명도의 추정치이고,
a 및 offset은 센서의 이득 및 잡음 통계에 관한 사전 정보로 신뢰도를 조정하기 위해 사용되는 경험적으로 선택된 스케일 및 오프셋 인자들이다.
이 경우에, 보다 높은 값들은 보다 낮은 신뢰도를 나타낼 것이고, 결과들을 어떻게 이진화할지를 결정하는 것은 영상 처리 파이프라인에 달려 있을 것이다.
일반적으로, 신뢰도 맵은 영상에서의 검출된 깊이들의 정확도를 수치적으로 정량화하는 깊이 맵 내에 포함된 깊이 추정치들을 기술하는 메타데이터를 제공한다. 많은 실시예들에서, 기계 시각, 제스처 인식, 포착후 영상 재포커싱(post capture image refocusing), 실시간 응용들, 영상 특수 효과들, 초해상도, 또는 다른 응용들(이들로 제한되지 않음)을 비롯한 응용들에서 깊이 맵과 함께 사용하기 위해, 신뢰도 맵이 깊이 맵과 함께 외부 전달 포맷으로 제공될 수 있다. 본 발명의 일 실시예에 따라 깊이 맵을 필터링하기 위해 깊이 추정 프로세스에서 신뢰도 맵이 이용될 수 있는 방식의 한 예가 도 18c 내지 도 18h에 예시되어 있다. 먼저 도 18c를 참조하면, 상이한 색상 채널들(구체적으로는, 적색, 녹색 및 청색 색상 채널들)에서 포착된 다수의 영상들로부터 초해상도 프로세스를 사용하여 합성된 상이한 깊이들에서의 객체들을 포함하는 장면의 영상이 있다. 앞서 기술한 것들과 유사한 프로세스들을 사용하여 기준 시점으로부터 발생된 깊이 맵이 도 18d에 예시되어 있다. 잘 알 수 있는 바와 같이, 깊이 맵은 잡음이 많다. 앞서 기술한 각종의 메트릭들 중 임의의 것을 사용하여 발생된 신뢰도 맵이 깊이 맵을 발생시키는 프로세스의 일부로서 발생될 수 있다. 본 발명의 일 실시예에 따라 SNR을 이진화함으로써 발생되는 이진 신뢰도 맵이 도 18e에 예시되어 있다. 본 발명의 일 실시예에 따라 SNR에 기초하여 발생된 8-비트 신뢰도 맵이 도 18f에 예시되어 있다. 본 발명의 일 실시예에 따라 SNR을 이진화하는 것에 의해 발생되는 신뢰도 인자와 폐색되는 대응하는 픽셀들의 수를 이진화하는 것에 의해 발생되는 신뢰도 인자를 결합함으로써 발생된 이진 신뢰도 맵이 도 18g에 예시되어 있다. 몇몇 실시예들에서, 깊이 맵을 필터링하기 위해 신뢰도 맵이 이용될 수 있다. 본 발명의 일 실시예에 따라 SNR을 이진화함으로써 발생되는 이진 신뢰도 맵에 기초하여 필터링되는 깊이 맵이 도 18h에 예시되어 있다. 도 18d와 도 18e에 도시된 깊이 맵들을 비교하는 것은 임의의 깊이 추정 프로세스를 사용하여 발생되는 깊이 정보를 해석할 시에 신뢰도 맵의 사용의 값을 노출시킨다. 특정의 신뢰도 메트릭 및 필터링 프로세스가 도 18c 내지 도 18h를 참조하여 앞서 기술되어 있지만, 본 발명의 실시예들에 따라 깊이 추정치들 및/또는 깊이 맵들의 필터링 및/또는 부가의 처리에서 각종의 신뢰도 메트릭들 중 임의의 것이 이용될 수 있다. 본 발명의 실시예들에 따라 신뢰도 맵들을 발생시키고 깊이 맵들을 필터링하기 위해 신뢰도 맵들을 사용하는 것이 도 18i 내지 도 18l에 도시된 클로즈업 영상들에 추가로 예시되어 있다. 구체적으로는 도 18i와 관련하여, 초해상도 처리를 사용하여 적색, 녹색, 및 청색 색상 채널들에서 포착된 영상들(각각의 영상은 단일의 색상 채널에서의 영상 데이터를 포함함)의 명시야로부터 합성된 객체의 클로즈업 영상이 도시되어 있다. 앞서 기술한 기법들을 사용하여 발생된 깊이 맵이 도 18j에 예시되어 있다. 본 발명의 일 실시예에 따라 발생된 SNR을 이진화함으로써 발생되는 이진 신뢰도 맵이 도 18k에 예시되어 있다. SNR을 사용하여 본 발명의 일 실시예에 따라 발생된 다중 비트 분해능 신뢰도 맵이 도 18l에 예시되어 있다. 본 발명의 일 실시예에 따라 각각의 픽셀을 둘러싸고 있는 영역의 SNR을 이진화하는 것에 의해 그리고 폐색되는 기준 시점으로부터의 영상에서의 픽셀 위치에 대응하는 명시야 내의 영상들에서의 픽셀들의 수를 이진화하는 것에 의해 발생된 이진 신뢰도 맵이 도 18m에 예시되어 도 18m에 도시된 이진 신뢰도 맵을 사용하여 필터링된 깊이 맵이 도 18n에 예시되어 있다.
몇몇 실시예들에서, 앞서 기술한 메트릭들 중 하나 이상을 사용하여 발생된 신뢰도 맵이 부가의 정보 채널로서 JPEG-DZ 파일 포맷 또는 다른 파일 포맷들 내에 삽입될 수 있다. 몇몇 실시예들에서, 2012년 9월 28일자로 출원된, 발명의 명칭이 "명시야 영상 파일을 인코딩하는 시스템 및 방법(Systems and Methods for Encoding Light Field Image Files)"인 Venkataraman 등의 미국 특허 출원 제13/631,731호에 기술된 것들과 유사한 프로세스들을 사용하여 신뢰도 맵이 인코딩 및 디코딩된다. 미국 특허 출원 제13/631,731호의 개시 내용은 참조 문헌으로서 그 전체가 본 명세서에 포함된다. 신뢰도를 결정하기 위한 특정의 메트릭들이 앞서 기술되어 있지만, 특정의 응용의 요구사항들에 따라 적절히 신뢰도를 결정하기 위한 각종의 메트릭들 중 임의의 것이 본 발명의 실시예들에 따라 이용될 수 있다.
계산 복잡도를 감소시킴
깊이 맵들을 결정하기 위해 그리고 카메라 어레이에 의해 포착된 영상들의 가시성을 결정하기 위해 앞서 기술한 프로세스들의 계산 복잡도를 감소시키는 데 각종의 전략들이 이용될 수 있다. 몇몇 실시예들에서, 픽셀 위치들의 감소된(즉, 희박한) 서브셋에서 깊이만을 탐색하는 것에 의해 깊이 맵이 구성된다. 보다 적은 수의 점들(즉, 영상에서의 보다 희박한 점들의 세트)에서 깊이 탐색이 행해지고, 깊이가 계산되지 않은 점들에 대해, 다른 수단을 통해 깊이가 할당된다. 끝 무렵에, 이 희박한 깊이 탐색은 기준 영상에서의 모든 픽셀 위치에 대한 깊이를 제공하고, 이 경우 어떤 픽셀들은 탐색되고 다른 픽셀들은 보간을 통해 채워진다. 앞서 언급한 바와 같이, 최종적인 깊이 맵에서의 모든 픽셀들이 포착된 영상들에서의 대응하는 픽셀들에 대한 픽셀의 유사도를 비교하는 것에 의해 획득된 깊이를 갖는 것은 아니다. 그 대신에, 대응 관계 탐색이 행해지지 않은 영역들에서, 주변의 픽셀들의 깊이들의 평균을 구하는 것(대응 관계 탐색이 실행된 경우) 또는 계산된 인접 픽셀들의 깊이들을 보간하는 것(이들로 제한되지 않음)을 비롯한 프로세스들을 사용하여 픽셀들 중 다수의 픽셀의 깊이들이 결정된다. 깊이 측정이 수행되는 픽셀들의 수를 감소시키는 것에 의해, 깊이 맵을 발생시키기 위해 사용되는 계산의 양이 감소될 수 있다. 몇몇 실시예들에서, 영상의 텍스처리스 영역들을 검출하는 것 및 깊이가 계산된 가장 가까운 지시자 픽셀로부터의 단일의 깊이 값을 할당하는 것, 주변의 픽셀들의 깊이들의 평균을 구하는 것, 또는 영상의 텍스처리스 영역들에서의 픽셀들의 깊이를 결정하기 위해 인접한 픽셀들의 깊이들을 보간하는 것(이들로 제한되지 않음)을 비롯한 프로세스들을 사용하는 것에 의해 깊이 맵을 검출할 때 사용되는 계산의 양이 또한 감소될 수 있다. 다른 실시예들에서, 에지들을 포함하는 영역들(이들로 제한되지 않음)을 비롯한 장면의 특성들에 기초하여 및/또는 객체 거리에 기초하여 깊이 맵 내에서의 깊이 추정치들의 정밀도를 변화시키는 것을 비롯하여 깊이 맵을 발생시키는 것의 계산 복잡도를 감소시키는 각종의 프로세스들 중 임의의 것이 본 발명의 실시예들에 따라 특정의 응용들의 요구사항들에 따라 적절히 이용될 수 있다. 본 발명의 실시예들에 따라 희소 깊이 탐색으로부터 깊이 맵들을 발생시키고 영상들에서의 텍스처리스 영역들을 검출하는 프로세스들이 이하에서 더 논의된다.
희소 깊이 탐색으로부터 깊이 맵들을 발생
본 발명의 실시예들에 따라 희소 탐색을 통해 깊이 맵들을 발생시키는 프로세스들은 전형적으로 기준 영상 전체에 걸쳐 일정 간격으로 있거나 분포되어 있는 픽셀들의 희박한 세트의 깊이를 결정하는 것을 포함한다. 희박한 점들로 이루어져 있는 이 초기 깊이 맵에 기초하여, 깊이 천이가 검출될 수 있고, 깊이 천이를 둘러싸고 있는 픽셀들의 깊이들이 앞서 기술한 프로세스들을 사용하여 직접 측정될 수 있다. 나머지 픽셀들의 깊이들이 깊이 맵에서의 희박한 픽셀들의 깊이들에 기초하여 결정될 수 있다. 많은 실시예들에서, 기준 영상이 포착된 해상도에서 기준 영상에서의 픽셀들의 서브셋을 사용하여 깊이 측정이 수행된다.
본 발명의 일 실시예에 따라 희소 탐색을 통해 깊이 맵을 결정하는 프로세스가 도 13에 예시되어 있다. 프로세스(1300)는 기준 영상을 공간 블록들(또는 연관된 픽셀들의 그룹들)로 분할하는 단계(1302) 및 공간 블록들 내의 지시자 픽셀들의 보다 희박한 세트에 대한 깊이 측정을 발생시키는 단계(1304)를 포함한다. 여기서, 공간 블록은 픽셀들의 직사각형 블록, 또는 임의의 특정의 형상에 부합할 필요가 없는 연관된 픽셀들의 서브셋을 서로 바꾸어 말하기 위해 사용될 수 있다.
지시자 픽셀들은 공간 블록(또는 연관된 픽셀들의 그룹) 내의 픽셀들의 서브셋이고, 전형적으로 공간 블록에 걸쳐 깊이의 변동에 관한 정보를 제공하기 위해 선택된다. 본 발명의 일 실시예에 따라 복수의 지시자 픽셀들(1402)을 포함하는 공간 블록(1400)이 도 14에 예시되어 있다. 공간 블록의 중앙에서 그리고 에지들에서 지시자 픽셀들(1402)이 선택된다. 특정의 지시자 픽셀들이 도 14에 예시되어 있지만, 공간 블록 또는 연관된 픽셀들의 그룹 내의 지시자들의 배열이 변환될 수 있고 그리고/또는 공간 블록 내의 각종의 픽셀들 중 임의의 것이 특정의 응용의 요구사항들에 따라 적절히 지시자 픽셀들로서 선택될 수 있다. 다수의 실시예들에서, 상이한 형상의 공간 블록들이 이용되고, 공간 블록의 형상이 변화될 수 있다. 몇몇 실시예들에서, 공간 블록들 내의 지시자 픽셀들의 배열이 변화될 수 있다. 많은 실시예들에서, 지시자 픽셀들이 장면 내용에 기초하여 선택된다. 특정의 실시예들에서, 확실한 깊이 결과들을 제공할 가능성이 가장 많은 점들이 사용될 가능성을 증가시키기 위해 공간 블록 내의 어느 점들이 기준 영상에서 가장 높은 SNR을 갖는지에 기초하여 지시자 픽셀들이 선택된다. 다른 실시예에서, 모든 블록들에 대한 어떤 지시자 픽셀들(도 14에 나타내어져 있음)에 대해 고정된 공간 위치들이 선택되고, 지시자 픽셀들의 어떤 서브셋이 공간 블록에서 가장 높은 SNR을 갖는 점들에 할당된다(즉, 혼합 구성). 다른 실시예에서, 장면 내용에 기초하여 관련 공간 영역들을 생성하기 위해 세그먼트화 프로세스가 사용될 수 있다. 직사각형 공간 블록이 도시되어 있지만, 영상을 앞서 기술한 바와 같이 어떤 지시자 픽셀들을 포함하는 공간 클러스터들로 분할하기 위해 다른 기법들이 사용될 수 있을 것이다. 게다가, 영상의 특정의 부분들에서 공간 블록들이 다른 부분들에서보다 더 클 수 있다.
다시 도 13을 참조하면, 지시자 픽셀들의 깊이들에 기초하여 각각의 블록에서의 픽셀들에 깊이가 할당될 수 있다(1306). 몇몇 실시예들에서, 할당되는 깊이는 이웃하는 지시자 픽셀들의 보간을 통해 획득된다. 몇몇 실시예들에서, 비지시자 픽셀의 깊이가 고정된 이웃 내의 가장 가까운 지시자 픽셀들까지의 거리들의 정규화된 가중 평균으로서 계산될 수 있다. 다른 대안으로서, 지시자 픽셀들의 깊이 측정에 기초하여 공간 블록에서의 픽셀들에 깊이들을 할당하기 위해 최근접 이웃 보간(nearest neighbor interpolation)(1308)이 이용될 수 있다. 다른 실시예에서, 보간을 위한 가중치들은 명도 유사도는 물론 가장 가까운 지시자 픽셀들까지의 공간적 거리를 포함할 수 있다. 다른 실시예에서, 지시자 픽셀 위치들에서 샘플링된 깊이들 사이의 누락된 위치들을 채우기 위해 커널 회귀(Kernel Regression)(이들로 제한되지 않음)와 같은 비선형 회귀가 사용될 수 있다. 다른 실시예에서, 블록 내의 지시자 픽셀들의 합산된 비용들을 최소화함으로써 전체 블록에 대한 단일의 깊이가 할당된다. 다른 실시예들에서, 공간 블록 내의 픽셀들에 대한 깊이 정보를 발생시키기 위해 각종의 기법들 중 임의의 것이 이용될 수 있다.
많은 실시예들에서, 깊이 맵에서의 공간 블록들 각각의 신뢰성이 결정된다(1310). 공간 블록 내에서, 지시자 픽셀들(탐색이 행해진 경우) 및 비지시자 픽셀들(지시자 픽셀 결과들에 기초하여 깊이들이 보간된 경우) 둘 다에 대해 깊이들이 추정될 것이다. 지시자 픽셀들 및 비지시자 픽셀들에 대해, 블록 내에서의 추정된 깊이들의 비용들이 결정된다. 신뢰성 지시자(reliability indicator)를 생성하기 위해 블록 내의 각각의 픽셀의 비용들이 합산된다. 블록 내의 모든 픽셀들의 총 비용이 임계치보다 큰 경우, 공간 블록은 어떤 픽셀들에 대한 추정된 깊이들이 좋지 않은 대응 관계를 갖는 것처럼 보인다는 사실로 인해 신뢰할 수 없는 것으로 표시된다. 공간 블록이 좋지 않은 공간적 대응 관계의 낮은 신뢰성을 가지는 것으로 결정되는 경우, 블록은 깊이 천이 또는 폐색을 포함할 가능성이 있다. 그러한 경우에, 전체적인 대응 관계 탐색 및 폐색 처리가 공간 블록 내에서 실행될 수 있다.
공간 블록이 상기 기준들에 따라 깊이 천이를 가지는 것으로 결정되는 경우, 공간 블록은 '분할'될 수 있고, 새로운 지시자 픽셀들의 세트들이 2개의 자식 공간 블록들 각각에서 선택되고 프로세스가 반복될 수 있다. 하나의 실시예에서, 블록이 절반으로 분할될 수 있다. 다른 실시예에서, 공간 블록 내의 지시자 픽셀들에 의해 구해진 깊이들에 따라 블록이 똑같지 않은 영역들로 분할될 수 있다.
공간 블록들 내에서 그리고/또는 그들 사이에서 깊이 천이가 검출되는 경우, 깊이 천이를 포함하는 공간 블록 내에서 부가의 깊이 측정을 수행함으로써 깊이 맵이 세밀화될 수 있다(1312). 이러한 방식으로, 정확한 깊이 맵을 발생시키는 데 있어서 수행되는 깊이 측정의 수를 감소시키는 것에 의해 깊이 맵을 발생시키는 것의 계산 복잡도가 감소된다.
본 발명의 실시예들에 따른 희소 탐색으로부터 깊이 맵을 발생시키는 특정의 프로세스가 도 13에 예시되어 있지만, 유사한 또는 느리게 천이하는 깊이의 영역들에서 보다 적은 수의 깊이 측정을 수행하는 것에 의해 깊이 맵을 발생시키는 각종의 프로세스들 각각이 본 발명의 실시예들에 따라 이용될 수 있다.
영상들의 텍스처리스 영역들에서의 계산을 감소시킴
많은 실시예들에서, 깊이 맵을 발생시키는 프로세스는 영상의 텍스처리스 영역들에 대해 필요한 계산의 양을 감소시키는 단계를 포함한다. 많은 가정된 깊이들에서의 대응하는 픽셀들이 유사할 수 있기 때문에, 텍스처리스 영역들이 시차로 인해 모호할 수 있다. 따라서, 텍스처리스 영역 내에서의 깊이 측정이 신뢰할 수 없고 잡음이 많은 결과들을 발생시킬 수 있다. 많은 실시예들에서, 픽셀이 텍스처리스 영역에 있는지를 식별하기 위해 픽셀의 깊이를 결정할 때 픽셀을 둘러싸고 있는 영역에서의 SNR이 사용된다. 주어진 픽셀에 대한 초기 깊이 추정치 또는 초기 깊이 추정치들의 세트가, 깊이가 이전에 결정되었던 적어도 하나의 인접한 픽셀의 깊이에 기초하여, 결정될 수 있다. 주어진 픽셀에 대한 대응하는 픽셀들의 분산(또는 임의의 다른 유사도 척도)이 픽셀을 둘러싸고 있는 영역에서의 SNR 임계치 미만일 때, 픽셀이 텍스처리스 영역의 일부인 것으로 가정될 수 있고, 이하에서 기술되는 접근 방법들(그 중 하나)이 픽셀의 깊이를 선택하는 데 사용될 수 있다. 그렇지 않은 경우, 앞서 기술한 프로세스들과 유사한 프로세스를 사용하여 깊이 측정이 수행될 수 있다.
많은 실시예들에서, SNR에 대한 고정된 임계치를 사용하여 텍스처리스 영역들이 검출될 수 있다. 이러한 영역들에서의 탐색을 위한 계산이 탐색된 깊이들의 수를 감소시키는 것에 의해 감소될 수 있다. 많은 실시예들에서, 센서의 잡음 특성들을 고려하는 잡음 의존적인 임계치 미만인 최소 비용 깊이가 식별될 때까지 깊이들의 전체 세트가 탐색될 것이다. 최소 비용이 임계치 미만인 것으로 밝혀질 때 깊이가 텍스처리스 영역의 깊이로서 채택되고, 깊이들이 더 이상 탐색되지 않는다(즉, "충분히 가까운" 대응 관계를 갖는 깊이가 발견되자마자 탐색이 종료된다). 많은 실시예들에서, 텍스처리스 영역들에서의 탐색은 텍스처를 갖는 영역에 대한 정상적인 탐색에서 행해지는 것보다 불일치의 전 범위를 보다 큰 증분으로 탐색하는 것에 의해 계산을 절감할 수 있다(즉, 탐색되는 깊이들의 수를 감소시킴)―최상의 비용이 텍스처리스 영역에서의 픽셀의 깊이로서 선택될 것이다.
본 발명의 일 실시예에 따라 픽셀을 둘러싸고 있는 텍스처리스 영역들을 SNR을 사용하여 검출하는 프로세스가 도 15에 예시되어 있다. 프로세스(1500)는 기준 영상으로부터 픽셀을 선택하는 단계(1502) 및 선택된 픽셀 주위의 영역에서 SNR을 검출하는 단계(1504)를 포함한다. 픽셀에 대해 초기의 가정된 깊이 d가 결정될 수 있다(1506). 많은 실시예들에서, 초기의 가정된 깊이 d는 선택된 픽셀을 둘러싸고 있는 영역에서의 하나 이상의 픽셀들의 깊이에 기초하여 결정된다. 이어서, 가정된 깊이에서의 대응하는 픽셀들의 분산 또는 비용이 사전 결정되거나 선택된 픽셀을 둘러싸고 있는 영역에서의 SNR의 함수(이들로 제한되지 않음)일 수 있는 임계치 미만인지에 관한 결정(1508)이 행해진다. 다른 실시예들에서, 픽셀을 둘러싸고 있는 영역이 텍스처리스인지를 결정하기 위해 각종의 유사도 척도들 중 임의의 것이 이용될 수 있다. 대응하는 픽셀들의 분산 또는 비용이 잡음 또는 사전 결정된 임계치 미만인 경우에, 가정된 깊이는, 픽셀이 텍스처리스 영역 내에 위치하는 것으로 가정할 때, 가장 유망한 깊이로서 선택된다. 대응하는 픽셀들의 분산 또는 비용이 잡음 또는 사전 결정된 임계치를 초과할 때, 앞서 기술한 프로세스들과 유사한 프로세스에 따라 픽셀의 깊이가 결정된다.
기준 영상 내의 텍스처리스 영역들을 검출하는 특정의 프로세스가 도 15와 관련하여 앞서 기술되어 있지만, 영상에서의 텍스처리스 영역들을 검출하는 각종의 프로세스들 중 임의의 것이 실시예들에 따라 이용될 수 있다. 게다가, 본 발명의 실시예들에 따라 신뢰성있는 깊이 맵을 발생시키는 데 있어서 행해지는 깊이 측정의 수를 감소시키기 위해 의존될 수 있는 영상의 다른 특성들을 검출하기 위해 각종의 프로세스들 중 임의의 것이 이용될 수 있다.
가상 시점들로부터 깊이 맵들을 발생
앞서 제공된 논의의 많은 부분이 기준 카메라에 의해 포착된 영상들에 대한 깊이 맵들을 발생시키는 것을 기술하고 있지만, 본 발명의 실시예들에 따른 시스템 및 방법은 가상 시점들로부터의 영상을 합성할 수 있다. 가상 시점은 카메라 어레이 내의 임의의 카메라들의 시점에 대응하지 않는 기준 시점이다. 그에 따라, 카메라 어레이 내의 색상 채널들의 수에 관계없이, 색상 채널들 중 어느 것도 영상 데이터가 기준 시점으로부터 포착되는 카메라를 포함하지 않는다. 본 발명의 일 실시예에 따라 정의될 수 있는 가상 시점의 한 예가 도 12에 예시되어 있다. 어레이 카메라 모듈(1200)은 8개의 녹색 카메라들, 4개의 적색 카메라들, 및 4개의 청색 카메라들을 포함하는 카메라들의 4 x 4 어레이를 포함한다. 어레이 카메라 모듈의 중앙에 있는 가상 시점을 갖는 가상 카메라(1202)가 정의된다. 특정의 가상 시점이 도 12에 예시되어 있지만, 임의의 가상 시점이 카메라 어레이 내의 카메라들에 대해 임의적으로 정의될 수 있다.
가상 시점 깊이 맵을 결정할 때, 비용 메트릭 비교들을 위해 탐색되고 사용될 수 있는 명시적인 기준 카메라가 없다. 많은 실시예들에서, 가상 시점으로부터 합성된 영상에서의 주어진 픽셀 (x, y)의 깊이는 어레이 내의 모든 다른 카메라들에 대한 가상 촬상기(virtual imager)로부터 유효 기준선(effective baseline)을 계산하는 것에 의해 결정된다. 가상 시점에 대한 위치 (i, j)에 있는 카메라에 대한 기준선은 (i, j) - (iv, jv)일 것이고, 여기서 (iv, jv)는 가상 시점(1202)의 위치이다. 가상 시점과 관련하여 개별적인 카메라들 사이의 기준선들이 결정되면, 깊이를 추정하는 프로세스는 대응하는 픽셀들이 가장 높은 유사도를 가지는 깊이들을 탐색하는 것으로 시작한다. 가상 기준 카메라에서의 각각의 픽셀 (x, y)(즉, 가상 시점으로부터의 영상)에 대해, 탐색은 전형적인 시차 시나리오에서와 같이 진행될 수 있고, 여기서 각각의 깊이 d에 대해, 대안 시점 카메라들 각각에 대한 불일치가 그 깊이에서 결정되고, 색상 채널들 중 하나 이상에서 대응하는 픽셀들의 유사도가 적절한 비용 메트릭을 사용하여 결정된다. 많은 실시예들에서, 기준 카메라를 포함하지 않는 색상 채널들에서의 픽셀들의 유사도를 결정하는 앞서 기술한 조합 비용 메트릭이 이용될 수 있다. 많은 실시예들에서, 특정의 색상 채널에서의 가상 시점에 인접한 카메라는 선택된 기준 카메라에서의 픽셀과 색상 채널에서의 다른 카메라들에 의해 포착된 영상 데이터에서의 대응하는 픽셀들 간의 유사도를 결정하기 위한 기준 카메라로서 사용될 수 있다. 많은 실시예들에서, 녹색 카메라가 대응하는 녹색 픽셀들의 유사도를 결정하기 위한 기준 카메라로서 선택되고, 다른 색상 채널들에서의 대응하는 픽셀들에 대해 조합 비용 메트릭이 사용된다. 많은 실시예들에서, 가상 시점에 대한 초기 깊이 맵을 결정하는 프로세스는 도 8a 내지 도 8i와 관련하여 앞서 기술된 것과 유사한 방식으로 장면 내의 가시성의 패턴들에 대응하는 카메라들의 그룹들을 형성하는 단계를 포함할 수 있다.
가상 시점에 대해 발생된 깊이 맵은 본 발명의 실시예들에 따라 초해상도 프로세스를 사용하여 가상 시점으로부터의 고 해상도 영상을 합성하는 데 이용될 수 있다. 가상 시점으로부터 고 해상도 영상을 합성하는 것에서의 주된 차이점은 고 분해능 격자(high resolution grid)가 가상 시점으로부터 온 것이고 픽셀들이 물리 기준 카메라가 아닌 가상 시점 위치에 대한 것인 기준선들로 계산된 대응 관계들을 사용하여 고 분해능 격자로 융합된다는 것이다. 이 경우에, 고 분해능 격자 상에 규칙적으로 매핑되는 픽셀들을 가지는 물리 기준 카메라가 없다. 잘 알 수 있는 바와 같이, 가상 시점들과 관련한 깊이 맵들에 대한 신뢰도 맵들을 결정하는 프로세스들이 합성된 기준 영상을 분석하는 것 또는 가상 시점에 가까운 영상을 SNR 및/또는 다른 관련 측정을 수행하는 대용물로서 선택하는 것에 관련된 유사한 설비들을 사용하여 결정될 수 있다. 가상 시점들과 관련하여 깊이 맵들을 발생시키는 특정의 프로세스들이 이상에 기술되어 있지만, 본 발명의 실시예들에 따라 가상 시점들에 대한 깊이 추정치들을 발생시키기 위해 앞서 기술한 비용 메트릭들 및 기법들을 포함하는 각종의 프로세스들 중 임의의 것이 이용될 수 있다. 본 발명의 실시예들에 따라 시차 검출 및 보정을 수행하고 깊이 맵들을 발생시키는 시스템이 이하에서 더 논의된다.
시차 검출을 수행하는 시스템
앞서 기술한 것들과 유사한 프로세스들을 사용하여 깊이 맵 및 가시성 정보를 발생시키는 시스템이 도 16에 예시되어 있다. 본 시스템은 명시야를 형성하는 포착된 영상들 및 어레이 카메라에 대한 교정 정보를 입력으로서 받고 깊이 맵, 및 포착된 영상들의 픽셀들의 추정된 가시성을 출력하는 시차 검출 모듈(1600)을 포함한다. 많은 실시예들에서, 시차 검출 모듈(1600)은 또한 기준 영상 내의 특정 픽셀들에 대한 깊이 측정의 신뢰성을 나타내는 신뢰도 맵을 출력한다. 이하에서 추가로 논의되는 바와 같이, 깊이 맵, 추정된 가시성 정보, 및/또는 신뢰도 맵이 포착된 영상들로부터 고 해상도 영상을 발생시키기 위해 어레이 카메라 내의 초해상도 처리 모듈에 그리고 깊이, 신뢰도 및/또는 가시성 정보를 이용할 수 있는 각종의 응용들 중 임의의 것에 제공될 수 있다. 많은 실시예들에서, 시차 검출 모듈 및 초해상도 모듈은 어레이 카메라 내의 마이크로프로세서 상에 소프트웨어 및/또는 펌웨어로 구현된다. 몇몇 실시예들에서, 시차 검출 모듈 및 초해상도 모듈과 연관된 소프트웨어는 어레이 카메라 내의 메모리 내에 저장된다. 다른 실시예들에서, 시차 검출 모듈 및/또는 초해상도 모듈은 임의의 적절히 구성된 하드웨어 및/또는 소프트웨어를 사용하여 구현될 수 있다. 본 발명의 실시예들에 따라 발생된 깊이 맵을 사용하여 어레이 카메라에 의해 포착된 명시야로부터 고 해상도 영상들을 발생시키는 것이 이하에서 더 논의된다.
깊이 맵을 사용한 초해상도 처리
미국 특허 출원 제12/967,807호(앞서 참조 문헌으로서 포함됨)에서 살펴본 바와 같이, 영상들 사이의 불일치는 초해상도 처리를 수행할 때 상당한 아티팩트(artifact)들을 유입시킬 수 있다. 따라서, 미국 특허 출원 제12/967,807호에 개시된 초해상도 프로세스들은 고 해상도 영상을 합성하기 위해 영상들을 사용하기 전에 어레이 카메라에 의해 포착된 영상들에서의 픽셀들 각각의 위치에 장면 의존적인 기하학적 보정을 적용하는 단계를 포함할 수 있다. 어레이 카메라 내의 카메라들의 기준선 및 후방 초점 거리는 용이하게 결정될 수 있고, 따라서 포착된 영상들에서 관측된 장면 의존적인 기하학적 시프트들을 추정함에 있어서의 미지의 양은 어레이 카메라와 장면의 상이한 부분들 사이의 거리이다. 깊이 맵 및 가시성 정보가 앞서 기술한 프로세스들에 따라 발생될 때, 픽셀들 각각의 깊이들로부터 얻어지는 장면 의존적인 기하학적 시프트들이 결정되고, 초해상도 처리를 수행할 때 폐색된 픽셀들이 무시될 수 있다. 많은 실시예들에서, 신뢰도 맵은 깊이 맵을 발생시키는 프로세스의 일부로서 발생되고, 입력 영상들로부터의 픽셀들의 융합을 수행할 때 깊이 맵 내에 포함된 깊이 추정치들의 신뢰성을 평가할 시에 초해상도 프로세스를 돕기 위해 신뢰도 맵이 초해상도 프로세스에의 입력으로서 제공된다.
본 발명의 일 실시예에 따라 깊이 맵을 발생시키는 단계를 포함하는 어레이 카메라에 의해 포착된 명시야를 사용하여 고 해상도 영상을 발생시키는 프로세스가 도 17에 예시되어 있다. 프로세스(1700)는 어레이 카메라를 사용하여 명시야를 포착하는 단계(1702) 및 고 해상도 영상을 합성하기 위해 이용될 수 있는 기준 시점을 선택하는 단계(1704)를 포함한다. 많은 실시예들에서, 기준 시점은 어레이 카메라의 구성에 기초하여 사전 결정된다. 다수의 실시예들에서, 포착된 영상들 사이의 대응 관계를 증가(1706)시키기 위해 교정 정보가 이용된다. 많은 실시예들에서, 포착된 영상들 사이의 대응 관계는 영상들을 재샘플링하는 것을 포함한다. 초기 깊이 맵이 결정되고(1708), 깊이 맵을 업데이트하기 위해 폐색이 결정되고 사용된다(1710). 몇몇 실시예들에서, 폐색을 검출하고 깊이 맵을 업데이트하는 프로세스는 반복적이다.
다수의 실시예들에서, 기준 시점으로부터 포착된 명시야 내에서의 픽셀들의 가시성에 관한 정보를 발생(1712)시키기 위해 깊이 맵이 이용된다. 몇몇 실시예들에서, 깊이 맵 내에 포함된 깊이 추정치들과 관련하여 신뢰도 맵이 (선택적으로) 발생되고(1713), 깊이 맵, 가시성 정보, 및/또는 신뢰도 맵이 초해상도(SR) 처리 파이프라인에 제공된다(1714). 몇몇 실시예들에서, 초해상도 처리 파이프라인은 미국 특허 출원 제12/967,807호에 개시된 초해상도 처리 파이프라인들 중 임의의 것과 유사하다. 초해상도 처리 파이프라인은 어레이 카메라에 의해 출력(1718)되는 기준 시점으로부터의 고 해상도 영상을 합성(1718)하기 위해 명시야, 깊이 맵, 가시성 정보, 및 신뢰도 맵을 비롯한 정보를 이용한다. 몇몇 실시예들에서, 고 해상도 영상을 합성하는 프로세스는 명시야로부터의 영상 데이터의 고해상도 격자 상으로의 파일럿 융합(pilot fusion)을 포함한다. 파일럿 융합의 결과는 이어서 초해상도 프로세스를 사용하여 고 해상도 영상을 합성하는 시작점으로서 이용될 수 있다.
미국 특허 출원 제12/967,807호에 기술된 바와 같이, 포착된 명시야로부터 입체 3D 영상 쌍을 합성하기 위해 도 17에 예시된 프로세스가 수행될 수 있다. 포착된 명시야로부터 고 해상도 영상을 합성하는 특정의 프로세스가 도 17에 예시되어 있지만, 명시야 내의 픽셀들의 깊이의 측정을 포함하는 포착된 명시야들로부터 고 해상도 영상들을 합성하는 각종의 프로세스들 중 임의의 것이 본 발명의 실시예들에 따라 이용될 수 있다.
이상의 설명이 본 발명의 많은 특정의 실시예들을 포함하지만, 이들이 본 발명의 범주에 대한 제한이 아니라 오히려 그의 하나의 실시예의 한 예로서 해석되어서는 안된다. 그에 따라, 본 발명의 범주는 예시된 실시예들에 의해서가 아니라 첨부된 청구항들 및 그의 등가물들에 의해 결정되어야만 한다.
Claims (28)
- 영상 처리 애플리케이션에 의해 구성된 프로세서를 사용하여 상이한 시점(viewpoint)들로부터 포착된 일련의 영상들을 포함하는 명시야(light field)로부터의 장면 내의 객체들까지의 거리를 추정하는 방법에 있어서,
상이한 시점들로부터 포착된 상기 일련의 영상들의 시점들에 대한 기준 시점(reference viewpoint)을 선택하는 단계;
상기 일련의 영상들 내의 대응하는 픽셀들의 유사도를 증가시키기 위해 상기 일련의 영상들을 정규화하는 단계;
상기 일련의 영상들의 적어도 하나의 서브셋을 사용하여 상기 기준 시점으로부터의 영상에서의 픽셀 위치들에 대한 초기 깊이 추정치(initial depth estimate)들을 결정하는 단계로서, 상기 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 초기 깊이 추정치는,
복수의 깊이들에서의 예상된 불일치(disparity)에 기초하여 상기 기준 시점으로부터의 영상에서의 상기 주어진 픽셀 위치에 대응하는 상기 일련의 영상들의 상기 적어도 하나의 서브셋에서의 픽셀들을 식별하는 것;
상기 복수의 깊이들 각각에서 식별된 상기 대응하는 픽셀들의 유사도를 비교하는 것; 및
상기 식별된 대응하는 픽셀들이 가장 높은 정도의 유사도를 가지는 상기 복수의 깊이들 중의 깊이를 상기 기준 시점으로부터의 영상에서의 상기 주어진 픽셀 위치에 대한 초기 깊이 추정치로서 선택하는 것에 의해 결정되는 것인 상기 초기 깊이 추정치들을 결정하는 단계;
상기 초기 깊이 추정치들을 사용하여 상기 일련의 영상들에서의 대응하는 픽셀들을 식별하는 단계;
부정합 픽셀(mismatched pixel)들을 검출하기 위해 상기 일련의 영상들에서의 상기 대응하는 픽셀들의 유사도를 비교하는 단계;
초기 깊이 추정치로부터, 상기 일련의 영상들에서의 대응하는 픽셀들 간의 부정합이 검출되지 않을 때, 상기 초기 깊이 추정치를 상기 기준 시점으로부터의 영상에서의 상기 픽셀 위치에 대한 현재의 깊이 추정치로서 선택하는 단계;
초기 깊이 추정치로부터, 상기 일련의 영상들에서의 대응하는 픽셀들 간의 부정합이 검출될 때,
상기 일련의 영상들의 복수의 상이한 서브셋들을 사용하여 일련의 후보 깊이 추정치들을 결정하는 것;
상기 후보 깊이 추정치들에 기초하여 상기 일련의 영상들의 상기 복수의 서브셋들 각각에서의 대응하는 픽셀들을 식별하는 것; 및
가장 유사한 대응하는 픽셀들을 가지는 서브셋의 후보 깊이를 상기 기준 시점으로부터의 영상에서의 상기 픽셀 위치에 대한 상기 현재의 깊이 추정치로서 선택하는 것에 의해 상기 기준 시점으로부터의 영상에서의 상기 픽셀 위치에 대한 상기 현재의 깊이 추정치를 선택하는 단계를 포함하는, 거리 추정 방법. - 제1항에 있어서, 상기 상이한 시점들로부터 포착된 상기 일련의 영상들의 시점들에 대한 기준 시점을 선택하는 단계는,
상기 영상들 중 하나의 영상의 시점; 및
가상 시점(virtual viewpoint)
으로 이루어진 세트로부터 시점을 선택하는 단계를 포함하는 것인, 거리 추정 방법. - 제1항에 있어서, 상기 기준 시점으로부터의 영상에서의 픽셀 위치에 대응하는 상기 일련의 영상들 중의 주어진 영상에서의 픽셀은,
상기 기준 시점으로부터의 영상에서의 상기 픽셀 위치의 깊이 추정치; 및
상기 주어진 영상의 시점과 상기 기준 시점 간의 기준선(baseline)
에 기초하여 결정되는 장면 의존적인 시프트(scene dependent shift)를 상기 기준 시점으로부터의 영상에서의 상기 픽셀 위치에 적용하는 것에 의해 결정되는 것인, 거리 추정 방법. - 제1항에 있어서, 상기 기준 시점으로부터의 영상에서의 주어진 픽셀 위치가 서브셋 내의 각각의 영상에서 보이는 적어도 하나의 서브셋을 초래할 가능성이 있는 자연 장면들의 가시성 특성(visibility characteristic)의 패턴들을 이용하기 위해, 상기 일련의 후보 깊이 추정치들을 결정하는 데 사용되는 상기 일련의 영상들의 서브셋들이 상기 일련의 영상들에서의 영상들의 시점들에 기초하여 선택되는 것인, 거리 추정 방법.
- 제4항에 있어서, 상기 일련의 영상들은 다수의 색상 채널(color channel)들 내에서 포착되고;
상기 상이한 시점들로부터 포착된 상기 일련의 영상들의 시점들에 대한 기준 시점을 선택하는 단계는, 상기 영상들 중 하나를 기준 영상(reference image)으로서 선택하고 상기 기준 영상의 시점을 상기 기준 시점으로서 선택하는 단계를 포함하고;
상기 일련의 후보 깊이 추정치들을 결정하는 데 사용되는 상기 일련의 영상들의 서브셋들은, 상기 기준 영상을 포함하는 상기 색상 채널에서의 동일한 수의 영상들이 각각의 서브셋에 나타나도록 선택되는 것인, 거리 추정 방법. - 제5항에 있어서, 상기 일련의 후보 깊이 추정치들을 결정하는 데 사용되는 상기 일련의 영상들의 서브셋들은 또한, 각각의 서브셋에 상기 기준 영상을 포함하지 않는 상기 색상 채널들에 적어도 2개의 영상들이 있도록 선택되는 것인, 거리 추정 방법.
- 제1항에 있어서,
상기 현재의 깊이 추정치들을 사용하여 상기 일련의 영상들에서의 대응하는 픽셀들을 식별하는 것; 및
주어진 영상에서의 픽셀이 대응하는 픽셀들의 비교에 기초하여 결정된 측광 유사도 기준(photometric similarity criterion)을 충족시키지 못할 때, 상기 픽셀이 상기 기준 시점으로부터의 영상에서 보이지 않는 것으로 결정하는 것에 의해
상기 기준 시점으로부터의 상기 일련의 영상들에서의 픽셀들의 가시성(visibility)을 결정하는 단계를 더 포함하는, 거리 추정 방법. - 제7항에 있어서, 상기 상이한 시점들로부터 포착된 상기 일련의 영상들의 시점들에 대한 기준 시점을 선택하는 단계는, 상기 일련의 영상들에서의 영상들 중 하나를 기준 영상으로서 선택하고 상기 기준 영상의 시점을 상기 기준 시점으로서 선택하는 단계를 포함하고;
주어진 영상에서의 픽셀이 대응하는 픽셀들의 비교에 기초하여 결정된 측광 유사도 기준을 충족시키지 못할 때, 상기 픽셀이 상기 기준 시점으로부터의 영상에서 보이지 않는 것으로 결정하는 것은, 상기 주어진 영상에서의 상기 픽셀을 상기 기준 영상에서의 상기 대응하는 픽셀과 비교하는 것을 더 포함하는 것인, 거리 추정 방법. - 제8항에 있어서, 상기 측광 유사도 기준은 적어도 상기 주어진 영상에서의 픽셀 및 상기 기준 영상에서의 픽셀 중 적어도 하나의 픽셀의 명도(intensity)에 기초하여 적응하는 유사도 임계치(similarity threshold)를 포함하는 것인, 거리 추정 방법.
- 제8항에 있어서, 상기 측광 유사도 기준은 상기 기준 영상으로부터의 대응하는 픽셀과 상기 기준 영상으로부터의 픽셀과 가장 유사한 대응하는 픽셀 사이의 측광 거리(photometric distance)의 함수로서 적응하는 유사도 임계치를 포함하는 것인, 거리 추정 방법.
- 제7항에 있어서, 상기 상이한 시점들로부터 포착된 상기 일련의 영상들의 시점들에 대한 기준 시점을 선택하는 단계는, 가상 시점을 상기 기준 시점으로서 선택하는 단계를 포함하고;
주어진 영상에서의 픽셀이 대응하는 픽셀들의 비교에 기초하여 결정된 측광 유사도 기준을 충족시키지 못할 때, 상기 픽셀이 상기 기준 시점으로부터의 영상에서 보이지 않는 것으로 결정하는 것은,
상기 가상 시점에 인접한 영상을 기준 영상으로서 선택하는 것; 및
상기 주어진 영상에서의 상기 픽셀을 상기 기준 영상에서의 상기 대응하는 픽셀과 비교하는 것을 더 포함하는 것인, 거리 추정 방법. - 제7항에 있어서,
주어진 픽셀에 대한 현재의 깊이 추정치에 기초하여 상기 기준 시점으로부터의 영상에서의 상기 주어진 픽셀 위치가 보이는 것으로 결정되는 영상들을 사용하여 상기 일련의 영상들의 업데이트된 서브셋을 발생시키는 것;
복수의 깊이들에서의 예상된 불일치에 기초하여 상기 기준 시점으로부터의 영상에서의 상기 주어진 픽셀 위치에 대응하는 상기 일련의 영상들의 상기 업데이트된 서브셋에서의 픽셀들을 식별하는 것;
상기 복수의 깊이들 각각에서 식별된 영상들의 상기 업데이트된 서브셋에서의 대응하는 픽셀들의 유사도를 비교하는 것; 및
상기 일련의 영상들의 상기 업데이트된 서브셋에서의 상기 식별된 대응하는 픽셀들이 가장 높은 정도의 유사도를 가지는 상기 복수의 깊이들 중의 깊이를 상기 기준 시점으로부터의 영상에서의 상기 주어진 픽셀 위치에 대한 업데이트된 깊이 추정치로서 선택하는 것에 의해
상기 기준 시점으로부터의 상기 일련의 영상들에서의 픽셀들의 가시성에 기초하여 상기 기준 시점으로부터의 영상에서의 주어진 픽셀 위치에 대한 상기 깊이 추정치를 업데이트하는 단계를 더 포함하는, 거리 추정 방법. - 제1항에 있어서, 상기 일련의 영상들 내의 대응하는 픽셀들의 유사도를 증가시키기 위해 상기 일련의 영상들을 정규화하는 단계는,
상기 일련의 영상들 중의 영상들에서의 측광 변동(photometric variation) 및 장면 독립적인 기하학적 왜곡(scene-independent geometric distortion)을 보정하기 위해 교정 정보(calibration information)를 이용하는 단계; 및
상기 일련의 영상들 중의 영상들을 정렬(rectification)하는 단계를 더 포함하는 것인, 거리 추정 방법. - 제13항에 있어서, 상기 일련의 영상들 내의 대응하는 픽셀들의 유사도를 증가시키기 위해 상기 일련의 영상들을 정규화하는 단계는, 상기 일련의 영상들에서의 대응하는 픽셀들의 유사도를 증가시키기 위해 상기 영상들을 재샘플링하는 단계를 더 포함하고;
상기 영상들에 적용되는 장면 독립적인 기하학적 보정(scene-independent geometric correction)은 서브픽셀 해상도로 결정되는 것인, 거리 추정 방법. - 제1항에 있어서, 대응하는 픽셀들의 유사도를 결정하기 위해 비용 함수(cost function)가 이용되는 것인, 거리 추정 방법.
- 제15항에 있어서, 대응하는 픽셀들의 유사도를 결정하는 것은, 계산된 비용들을 공간적으로 필터링하는 것을 더 포함하는 것인, 거리 추정 방법.
- 제15항에 있어서, 상기 식별된 대응하는 픽셀들이 가장 높은 정도의 유사도를 가지는 상기 복수의 깊이들 중의 깊이를 상기 기준 시점으로부터의 영상에서의 상기 주어진 픽셀 위치에 대한 초기 깊이 추정치로서 선택하는 것은, 상기 식별된 대응하는 픽셀들에 대한 필터링된 비용 함수가 가장 높은 레벨의 유사도를 나타내는 상기 복수의 깊이들 중의 깊이를 선택하는 것을 더 포함하는 것인, 거리 추정 방법.
- 제15항에 있어서, 상기 비용 함수는,
한 쌍의 대응하는 픽셀들의 L1 노름(norm);
한 쌍의 대응하는 픽셀들의 L2 노름; 및
일련의 대응하는 픽셀들의 분산(variance)
으로 이루어진 그룹으로부터 선택된 적어도 하나의 유사도 척도(similarity measure)를 이용하는 것인, 거리 추정 방법. - 제15항에 있어서, 상기 일련의 영상들은 다수의 색상 채널들 내에서 포착되고, 상기 비용 함수는 상기 다수의 색상 채널들 각각에서의 픽셀들의 유사도를 결정하는 것인, 거리 추정 방법.
- 제1항에 있어서, 상기 기준 시점으로부터의 영상에서의 픽셀 위치들에 대한 상기 현재의 깊이 추정치들에 대한 신뢰도 메트릭(confidence metric)들을 발생시키는 단계를 더 포함하는, 거리 추정 방법.
- 제20항에 있어서, 상기 신뢰도 메트릭은 복수의 신뢰도 인자(confidence factor)들을 인코딩하는 것인, 거리 추정 방법.
- 제1항에 있어서,
폐색 픽셀(occluding pixel)들을 찾아내기 위해 상기 기준 시점과 상기 일련의 영상들에서의 영상들의 시점들 사이의 기준선들에 평행인 라인들을 따라 탐색하는 것에 의해 상기 초기 깊이 추정치들에 기초하여 상기 기준 시점으로부터의 영상에서의 특정 픽셀 위치들에 대응하는 상기 일련의 영상들 내의 영상들에서의 픽셀들의 폐색(occlusion)을 검출하는 단계; 및
초기 깊이 추정치로부터, 적어도 하나의 영상에서의 대응하는 픽셀이 폐색되는 것이 검출될 때,
주어진 픽셀이 폐색되는 상기 적어도 하나의 영상을 배제하는 상기 일련의 영상들의 복수의 상이한 서브셋들을 사용하여 일련의 후보 깊이 추정치들을 결정하는 것;
상기 후보 깊이 추정치들에 기초하여 상기 일련의 영상들의 상기 복수의 서브셋들 각각에서의 대응하는 픽셀들을 식별하는 것; 및
가장 유사한 대응하는 픽셀들을 가지는 서브셋의 후보 깊이를 상기 기준 시점으로부터의 영상에서의 픽셀 위치에 대한 상기 현재의 깊이 추정치로서 선택하는 것에 의해
상기 기준 시점으로부터의 영상에서의 상기 픽셀 위치에 대한 상기 현재의 깊이 추정치를 선택하는 단계를 더 포함하는, 거리 추정 방법. - 제22항에 있어서, 상기 폐색 픽셀들을 찾아내기 위해 상기 기준 시점과 상기 일련의 영상들에서의 영상들의 시점들 사이의 기준선들에 평행인 라인들을 따라 탐색하는 것은,
일 때 상기 기준 시점으로부터의 영상에서의 픽셀 위치 (x1, y1)에 대응하는 픽셀이 대안 시점 영상(alternate view image)에서 상기 기준 시점으로부터의 영상에서의 픽셀 위치 (x2, y2)에 의해 폐색되는 것으로 결정하는 것을 포함하며,
여기서 s1 및 s2는, 상기 기준 시점과 상기 대안 시점 영상의 시점 사이의 기준선에 평행인 라인을 따라 상기 픽셀들을 시프트시켜 각각의 픽셀에 대한 상기 초기 깊이 추정치들에 기초하여 상기 대안 시점 영상의 시점 내로 상기 픽셀들을 시프트시키기 위해 픽셀 위치들 (x1, y1) 및 (x2, y2)에 적용되는 장면 의존적인 기하학적 시프트(scene dependent geometric shift)들인 것인, 거리 추정 방법. - 제22항에 있어서, 픽셀을 폐색되어 있는 것으로 지정하는 결정은 상기 픽셀들의 유사도 및 상기 픽셀들 (x1, y1) 및 (x2, y2)의 추정된 깊이들의 신뢰도(confidence) 중 적어도 하나를 고려하는 것인, 거리 추정 방법.
- 상이한 시점들로부터 포착되는 일련의 저 해상도 영상들을 포함하는 명시야로부터 고 해상도 영상을 합성하는 방법에 있어서,
영상 처리 애플리케이션에 의해 구성된 프로세서를 사용하여 상이한 시점들로부터 포착된 일련의 영상들을 포함하는 명시야로부터의 장면 내의 객체들까지의 거리를 추정하는 단계;
상이한 시점들로부터 포착된 상기 일련의 영상들의 시점들에 대한 기준 시점을 선택하는 단계;
상기 일련의 영상들 내의 대응하는 픽셀들의 유사도를 증가시키기 위해 상기 일련의 영상들을 정규화하는 단계;
상기 일련의 영상들의 적어도 하나의 서브셋을 사용하여 상기 기준 시점으로부터의 영상에서의 픽셀 위치들에 대한 초기 깊이 추정치들을 결정하는 단계로서, 상기 기준 시점으로부터의 영상 내의 주어진 픽셀 위치에 대한 초기 깊이 추정치는,
복수의 깊이들에서의 예상된 불일치에 기초하여 상기 기준 시점으로부터의 영상에서의 상기 주어진 픽셀 위치에 대응하는 상기 일련의 영상들의 상기 적어도 하나의 서브셋에서의 픽셀들을 식별하는 것;
상기 복수의 깊이들 각각에서 식별된 상기 대응하는 픽셀들의 유사도를 비교하는 것; 및
상기 식별된 대응하는 픽셀들이 가장 높은 정도의 유사도를 가지는 상기 복수의 깊이들 중의 깊이를 상기 기준 시점으로부터의 영상에서의 상기 주어진 픽셀 위치에 대한 초기 깊이 추정치로서 선택하는 것에 의해 결정되는 것인, 상기 초기 깊이 추정치들을 결정하는 단계;
상기 초기 깊이 추정치들을 사용하여 상기 일련의 영상들에서의 대응하는 픽셀들을 식별하는 단계;
부정합 픽셀들을 검출하기 위해 상기 일련의 영상들에서의 상기 대응하는 픽셀들의 유사도를 비교하는 단계;
초기 깊이 추정치로부터, 상기 일련의 영상들에서의 대응하는 픽셀들 간의 부정합이 검출되지 않을 때, 상기 초기 깊이 추정치를 상기 기준 시점으로부터의 영상에서의 상기 픽셀 위치에 대한 현재의 깊이 추정치로서 선택하는 단계;
초기 깊이 추정치로부터, 상기 일련의 영상들에서의 대응하는 픽셀들 간의 부정합이 검출될 때,
상기 일련의 영상들의 복수의 상이한 서브셋들을 사용하여 일련의 후보 깊이 추정치들을 결정하는 것;
상기 후보 깊이 추정치들에 기초하여 상기 일련의 영상들의 상기 복수의 서브셋들 각각에서의 대응하는 픽셀들을 식별하는 것; 및
가장 유사한 대응하는 픽셀들을 가지는 서브셋의 후보 깊이를 상기 기준 시점으로부터의 영상에서의 상기 픽셀 위치에 대한 상기 현재의 깊이 추정치로서 선택하는 것에 의해 상기 기준 시점으로부터의 영상에서의 상기 픽셀 위치에 대한 상기 현재의 깊이 추정치를 선택하는 단계;
상기 현재의 깊이 추정치들을 사용하여 상기 일련의 영상들에서의 대응하는 픽셀들을 식별하는 것; 및
주어진 영상에서의 픽셀이 대응하는 픽셀들의 비교에 기초하여 결정된 측광 유사도 기준을 충족시키지 못할 때, 상기 픽셀이 상기 기준 시점에 보이지 않는 것으로 결정하는 것에 의해,
상기 기준 시점으로부터의 상기 일련의 영상들에서의 픽셀들의 가시성을 결정하는 단계; 및
상기 가시성 정보를 사용하여 상기 기준 시점으로부터의 영상에서 보이는 상기 일련의 영상들로부터의 픽셀들을 식별하는 것; 및
상기 픽셀들을 상기 기준 시점 내로 시프트시키기 위해 상기 기준 시점으로부터의 영상에서 보이는 상기 일련의 영상들로부터의 픽셀들에 장면 의존적인 기하학적 시프트들― 상기 장면 의존적인 기하학적 시프트는 상기 현재의 깊이 추정치들을 사용하여 결정됨 ―을 적용하는 것; 및
상기 일련의 영상들 중의 영상들의 해상도들보다 더 큰 해상도를 가지는 상기 기준 시점으로부터의 융합된 영상을 생성하기 위해 상기 일련의 영상들로부터의 상기 시프트된 픽셀들을 융합시키는 것에 의해
상기 일련의 영상들 중의 영상들의 해상도들보다 더 큰 해상도를 가지는 융합된 영상(fused image)을 생성하기 위해 상기 깊이 추정치들에 기초하여 상기 영상 처리 애플리케이션에 의해 구성된 프로세서를 사용하여 상기 일련의 영상들로부터의 픽셀들을 융합시키는 단계를 포함하는, 고 해상도 영상 합성 방법. - 제25항에 있어서, 상기 기준 시점으로부터의 상기 융합된 영상, 상이한 시점들로부터 포착된 상기 일련의 영상들, 상기 현재의 깊이 추정치들, 및 상기 가시성 정보에 기초하여 초해상도 프로세스(super resolution process)를 수행하도록 상기 영상 처리 애플리케이션에 의해 구성된 프로세서를 사용하여 상기 기준 시점으로부터의 영상을 합성하는 단계를 더 포함하는, 고 해상도 영상 합성 방법.
- 영상 처리 시스템에 있어서,
프로세서; 및
상이한 시점들로부터 포착된 일련의 영상들 및 영상 처리 애플리케이션을 포함하는 메모리를 포함하고;
상기 영상 처리 애플리케이션은,
상이한 시점들로부터 포착된 상기 일련의 영상들의 시점들에 대한 기준 시점을 선택하고;
상기 일련의 영상들 내의 대응하는 픽셀들의 유사도를 증가시키기 위해 상기 일련의 영상들을 정규화하며;
상기 일련의 영상들의 적어도 하나의 서브셋을 사용하여 상기 기준 시점으로부터의 영상에서의 픽셀 위치들에 대한 초기 깊이 추정치들을 결정하며― 상기 기준 시점으로부터의 영상 내의 주어진 픽셀 위치에 대한 초기 깊이 추정치는,
복수의 깊이들에서의 예상된 불일치에 기초하여 상기 기준 시점으로부터의 영상에서의 상기 주어진 픽셀 위치에 대응하는 상기 일련의 영상들의 상기 적어도 하나의 서브셋에서의 픽셀들을 식별하는 것;
상기 복수의 깊이들 각각에서 식별된 상기 대응하는 픽셀들의 유사도를 비교하는 것; 및
상기 식별된 대응하는 픽셀들이 가장 높은 정도의 유사도를 가지는 상기 복수의 깊이들 중의 깊이를 상기 기준 시점으로부터의 영상에서의 상기 주어진 픽셀 위치에 대한 초기 깊이 추정치로서 선택하는 것에 의해 결정됨 ―;
상기 초기 깊이 추정치들을 사용하여 상기 일련의 영상들에서의 대응하는 픽셀들을 식별하고;
부정합 픽셀들을 검출하기 위해 상기 일련의 영상들에서의 상기 대응하는 픽셀들의 유사도를 비교하며;
초기 깊이 추정치로부터, 상기 일련의 영상들에서의 대응하는 픽셀들 간의 부정합이 검출되지 않을 때, 상기 초기 깊이 추정치를 상기 기준 시점으로부터의 영상에서의 상기 픽셀 위치에 대한 현재의 깊이 추정치로서 선택하고;
초기 깊이 추정치로부터, 상기 일련의 영상들에서의 대응하는 픽셀들 간의 부정합이 검출될 때,
상기 일련의 영상들의 복수의 상이한 서브셋들을 사용하여 일련의 후보 깊이 추정치들을 결정하는 것;
상기 후보 깊이 추정치들에 기초하여 상기 일련의 영상들의 상기 복수의 서브셋들 각각에서의 대응하는 픽셀들을 식별하는 것; 및
가장 유사한 대응하는 픽셀들을 가지는 서브셋의 후보 깊이를 상기 기준 시점으로부터의 영상에서의 상기 픽셀 위치에 대한 상기 현재의 깊이 추정치로서 선택하는 것에 의해
상기 기준 시점으로부터의 영상에서의 상기 픽셀 위치에 대한 상기 현재의 깊이 추정치를 선택하도록 상기 프로세서를 구성하는 것인, 영상 처리 시스템. - 제27항에 있어서, 상기 영상 처리 애플리케이션은 또한,
상기 현재의 깊이 추정치들을 사용하여 상기 일련의 영상들에서의 대응하는 픽셀들을 식별하는 것; 및
주어진 영상에서의 픽셀이 대응하는 픽셀들의 비교에 기초하여 결정된 측광 유사도 기준을 충족시키지 못할 때, 상기 픽셀이 상기 기준 시점에 보이지 않는 것으로 결정하는 것에 의해
상기 기준 시점으로부터의 상기 일련의 영상들에서의 픽셀들의 가시성을 결정하고;
상기 가시성 정보를 사용하여 상기 기준 시점으로부터의 영상에서 보이는 상기 일련의 영상들로부터의 픽셀들을 식별하는 것; 및
상기 픽셀들을 상기 기준 시점 내로 시프트시키기 위해 상기 기준 시점으로부터의 영상에서 보이는 상기 일련의 영상들로부터의 픽셀들에 장면 의존적인 기하학적 시프트들― 상기 장면 의존적인 기하학적 시프트들은 상기 현재의 깊이 추정치들을 사용하여 결정됨 ―을 적용하는 것; 및
상기 일련의 영상들 중의 영상들의 해상도들보다 더 큰 해상도를 가지는 상기 기준 시점으로부터의 융합된 영상을 생성하기 위해 상기 일련의 영상들로부터의 상기 시프트된 픽셀들을 융합시키는 것에 의해,
상기 일련의 영상들 중의 영상들의 해상도들보다 더 큰 해상도를 가지는 융합된 영상을 생성하기 위해 상기 깊이 추정치들을 사용하여 상기 일련의 영상들로부터의 픽셀들을 융합시키도록 상기 프로세서를 구성하는 것인, 영상 처리 시스템.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261691666P | 2012-08-21 | 2012-08-21 | |
US61/691,666 | 2012-08-21 | ||
US201361780906P | 2013-03-13 | 2013-03-13 | |
US61/780,906 | 2013-03-13 | ||
PCT/US2013/056065 WO2014031795A1 (en) | 2012-08-21 | 2013-08-21 | Systems and methods for parallax detection and correction in images captured using array cameras |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150046113A KR20150046113A (ko) | 2015-04-29 |
KR102111181B1 true KR102111181B1 (ko) | 2020-05-15 |
Family
ID=49776057
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020157006433A KR102111181B1 (ko) | 2012-08-21 | 2013-08-21 | 어레이 카메라를 사용하여 포착된 영상에서의 시차 검출 및 보정을 위한 시스템 및 방법 |
Country Status (8)
Country | Link |
---|---|
US (12) | US8619082B1 (ko) |
EP (3) | EP2888720B1 (ko) |
KR (1) | KR102111181B1 (ko) |
CN (2) | CN107346061B (ko) |
AU (1) | AU2013305770A1 (ko) |
CA (1) | CA2881131A1 (ko) |
SG (1) | SG11201500910RA (ko) |
WO (1) | WO2014031795A1 (ko) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11272161B2 (en) | 2013-03-10 | 2022-03-08 | Fotonation Limited | System and methods for calibration of an array camera |
US11290658B1 (en) | 2021-04-15 | 2022-03-29 | Boston Polarimetrics, Inc. | Systems and methods for camera exposure control |
US11302012B2 (en) | 2019-11-30 | 2022-04-12 | Boston Polarimetrics, Inc. | Systems and methods for transparent object segmentation using polarization cues |
US11412158B2 (en) | 2008-05-20 | 2022-08-09 | Fotonation Limited | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
US11423513B2 (en) | 2010-12-14 | 2022-08-23 | Fotonation Limited | Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers |
US11525906B2 (en) | 2019-10-07 | 2022-12-13 | Intrinsic Innovation Llc | Systems and methods for augmentation of sensor systems and imaging systems with polarization |
US11580667B2 (en) | 2020-01-29 | 2023-02-14 | Intrinsic Innovation Llc | Systems and methods for characterizing object pose detection and measurement systems |
US11689813B2 (en) | 2021-07-01 | 2023-06-27 | Intrinsic Innovation Llc | Systems and methods for high dynamic range imaging using crossed polarizers |
US11699273B2 (en) | 2019-09-17 | 2023-07-11 | Intrinsic Innovation Llc | Systems and methods for surface modeling using polarization cues |
US11729365B2 (en) | 2011-09-28 | 2023-08-15 | Adela Imaging LLC | Systems and methods for encoding image files containing depth maps stored as metadata |
US11792538B2 (en) | 2008-05-20 | 2023-10-17 | Adeia Imaging Llc | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
US11797863B2 (en) | 2020-01-30 | 2023-10-24 | Intrinsic Innovation Llc | Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images |
US11954886B2 (en) | 2021-04-15 | 2024-04-09 | Intrinsic Innovation Llc | Systems and methods for six-degree of freedom pose estimation of deformable objects |
US11953700B2 (en) | 2020-05-27 | 2024-04-09 | Intrinsic Innovation Llc | Multi-aperture polarization optical systems using beam splitters |
Families Citing this family (401)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10298834B2 (en) | 2006-12-01 | 2019-05-21 | Google Llc | Video refocusing |
EP3328048B1 (en) | 2008-05-20 | 2021-04-21 | FotoNation Limited | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
EP2502115A4 (en) | 2009-11-20 | 2013-11-06 | Pelican Imaging Corp | RECORDING AND PROCESSING IMAGES THROUGH A MONOLITHIC CAMERA ARRAY WITH HETEROGENIC IMAGE CONVERTER |
SG10201503516VA (en) | 2010-05-12 | 2015-06-29 | Pelican Imaging Corp | Architectures for imager arrays and array cameras |
JP5627498B2 (ja) * | 2010-07-08 | 2014-11-19 | 株式会社東芝 | 立体画像生成装置及び方法 |
US8428342B2 (en) * | 2010-08-12 | 2013-04-23 | At&T Intellectual Property I, L.P. | Apparatus and method for providing three dimensional media content |
JP5682291B2 (ja) * | 2010-12-20 | 2015-03-11 | ソニー株式会社 | 補正値演算装置、複眼撮像装置、および、補正値演算装置の制御方法 |
JP2012221103A (ja) * | 2011-04-06 | 2012-11-12 | Denso Corp | 車両用画像処理装置 |
EP2509324A1 (en) * | 2011-04-08 | 2012-10-10 | Thomson Licensing | Method and apparatus for analyzing stereoscopic or multi-view images |
KR101973822B1 (ko) | 2011-05-11 | 2019-04-29 | 포토네이션 케이맨 리미티드 | 어레이 카메라 이미지 데이터를 송신 및 수신하기 위한 시스템들 및 방법들 |
EP2530642A1 (en) * | 2011-05-31 | 2012-12-05 | Thomson Licensing | Method of cropping a 3D content |
US20130265459A1 (en) | 2011-06-28 | 2013-10-10 | Pelican Imaging Corporation | Optical arrangements for use with an array camera |
JP2014521117A (ja) | 2011-06-28 | 2014-08-25 | ペリカン イメージング コーポレイション | アレイカメラで使用するための光学配列 |
US9418438B2 (en) * | 2011-09-12 | 2016-08-16 | Intel Corporation | Networked capture and 3D display of localized, segmented images |
WO2013043751A1 (en) | 2011-09-19 | 2013-03-28 | Pelican Imaging Corporation | Systems and methods for controlling aliasing in images captured by an array camera for use in super resolution processing using pixel apertures |
US9113043B1 (en) * | 2011-10-24 | 2015-08-18 | Disney Enterprises, Inc. | Multi-perspective stereoscopy from light fields |
US9762881B2 (en) * | 2011-11-03 | 2017-09-12 | Texas Instruments Incorporated | Reducing disparity and depth ambiguity in three-dimensional (3D) images |
US8879731B2 (en) | 2011-12-02 | 2014-11-04 | Adobe Systems Incorporated | Binding of protected video content to video player with block cipher hash |
US8903088B2 (en) | 2011-12-02 | 2014-12-02 | Adobe Systems Incorporated | Binding of protected video content to video player with encryption key |
CN103988227B (zh) * | 2011-12-16 | 2017-08-04 | 诺基亚技术有限公司 | 用于图像捕获目标锁定的方法和装置 |
WO2013126578A1 (en) | 2012-02-21 | 2013-08-29 | Pelican Imaging Corporation | Systems and methods for the manipulation of captured light field image data |
US9210392B2 (en) | 2012-05-01 | 2015-12-08 | Pelican Imaging Coporation | Camera modules patterned with pi filter groups |
WO2013190814A1 (ja) * | 2012-06-22 | 2013-12-27 | 株式会社ニコン | 画像処理装置、撮像装置および画像処理プログラム |
US9858649B2 (en) | 2015-09-30 | 2018-01-02 | Lytro, Inc. | Depth-based image blurring |
WO2014005123A1 (en) | 2012-06-28 | 2014-01-03 | Pelican Imaging Corporation | Systems and methods for detecting defective camera arrays, optic arrays, and sensors |
US20140002674A1 (en) | 2012-06-30 | 2014-01-02 | Pelican Imaging Corporation | Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors |
US10109063B2 (en) * | 2012-07-04 | 2018-10-23 | Apple Inc. | Image processing in a multi-channel camera |
JP5970609B2 (ja) * | 2012-07-05 | 2016-08-17 | 聯發科技股▲ふん▼有限公司Mediatek Inc. | 3dビデオ符号化における統一された視差ベクトル導出の方法と装置 |
US9661296B2 (en) * | 2012-07-12 | 2017-05-23 | Samsung Electronics Co., Ltd. | Image processing apparatus and method |
US9654759B2 (en) * | 2012-07-20 | 2017-05-16 | Koninklijke Philips N.V. | Metadata for depth filtering |
WO2014031795A1 (en) | 2012-08-21 | 2014-02-27 | Pelican Imaging Corporation | Systems and methods for parallax detection and correction in images captured using array cameras |
US20140055632A1 (en) | 2012-08-23 | 2014-02-27 | Pelican Imaging Corporation | Feature based high resolution motion estimation from low resolution images captured using an array source |
US9214013B2 (en) | 2012-09-14 | 2015-12-15 | Pelican Imaging Corporation | Systems and methods for correcting user identified artifacts in light field images |
EP2901671A4 (en) | 2012-09-28 | 2016-08-24 | Pelican Imaging Corp | CREATING IMAGES FROM LIGHT FIELDS USING VIRTUAL POINTS OF VIEW |
WO2014049667A1 (ja) * | 2012-09-28 | 2014-04-03 | 株式会社島津製作所 | デジタル画像処理方法および撮影装置 |
US9064318B2 (en) | 2012-10-25 | 2015-06-23 | Adobe Systems Incorporated | Image matting and alpha value techniques |
JP2014096062A (ja) * | 2012-11-09 | 2014-05-22 | Yamaguchi Univ | 画像処理方法及び画像処理装置 |
US9355649B2 (en) | 2012-11-13 | 2016-05-31 | Adobe Systems Incorporated | Sound alignment using timing information |
WO2014078443A1 (en) | 2012-11-13 | 2014-05-22 | Pelican Imaging Corporation | Systems and methods for array camera focal plane control |
US10638221B2 (en) | 2012-11-13 | 2020-04-28 | Adobe Inc. | Time interval sound alignment |
US9201580B2 (en) | 2012-11-13 | 2015-12-01 | Adobe Systems Incorporated | Sound alignment user interface |
US9076205B2 (en) | 2012-11-19 | 2015-07-07 | Adobe Systems Incorporated | Edge direction and curve based image de-blurring |
US10249321B2 (en) | 2012-11-20 | 2019-04-02 | Adobe Inc. | Sound rate modification |
EP2736011B1 (en) * | 2012-11-26 | 2019-04-24 | Nokia Technologies Oy | Method, apparatus and computer program product for generating super-resolved images |
US9451304B2 (en) | 2012-11-29 | 2016-09-20 | Adobe Systems Incorporated | Sound feature priority alignment |
US10455219B2 (en) | 2012-11-30 | 2019-10-22 | Adobe Inc. | Stereo correspondence and depth sensors |
US9135710B2 (en) * | 2012-11-30 | 2015-09-15 | Adobe Systems Incorporated | Depth map stereo correspondence techniques |
US9208547B2 (en) | 2012-12-19 | 2015-12-08 | Adobe Systems Incorporated | Stereo correspondence smoothness tool |
US10249052B2 (en) | 2012-12-19 | 2019-04-02 | Adobe Systems Incorporated | Stereo correspondence model fitting |
US9214026B2 (en) | 2012-12-20 | 2015-12-15 | Adobe Systems Incorporated | Belief propagation and affinity measures |
US9568713B2 (en) | 2013-01-05 | 2017-02-14 | Light Labs Inc. | Methods and apparatus for using multiple optical chains in parallel to support separate color-capture |
US9462164B2 (en) | 2013-02-21 | 2016-10-04 | Pelican Imaging Corporation | Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information |
US9374512B2 (en) | 2013-02-24 | 2016-06-21 | Pelican Imaging Corporation | Thin form factor computational array cameras and modular array cameras |
WO2014138697A1 (en) | 2013-03-08 | 2014-09-12 | Pelican Imaging Corporation | Systems and methods for high dynamic range imaging using array cameras |
US9521416B1 (en) | 2013-03-11 | 2016-12-13 | Kip Peli P1 Lp | Systems and methods for image data compression |
US9888194B2 (en) | 2013-03-13 | 2018-02-06 | Fotonation Cayman Limited | Array camera architecture implementing quantum film image sensors |
WO2014164550A2 (en) | 2013-03-13 | 2014-10-09 | Pelican Imaging Corporation | System and methods for calibration of an array camera |
US9519972B2 (en) | 2013-03-13 | 2016-12-13 | Kip Peli P1 Lp | Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies |
US9106784B2 (en) | 2013-03-13 | 2015-08-11 | Pelican Imaging Corporation | Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing |
US9100586B2 (en) | 2013-03-14 | 2015-08-04 | Pelican Imaging Corporation | Systems and methods for photometric normalization in array cameras |
WO2014159779A1 (en) | 2013-03-14 | 2014-10-02 | Pelican Imaging Corporation | Systems and methods for reducing motion blur in images or video in ultra low light with array cameras |
US10122993B2 (en) | 2013-03-15 | 2018-11-06 | Fotonation Limited | Autofocus system for a conventional camera that uses depth information from an array camera |
US9497370B2 (en) | 2013-03-15 | 2016-11-15 | Pelican Imaging Corporation | Array camera architecture implementing quantum dot color filters |
EP2973476A4 (en) | 2013-03-15 | 2017-01-18 | Pelican Imaging Corporation | Systems and methods for stereo imaging with camera arrays |
US9497429B2 (en) | 2013-03-15 | 2016-11-15 | Pelican Imaging Corporation | Extended color processing on pelican array cameras |
US9445003B1 (en) | 2013-03-15 | 2016-09-13 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information |
US9633442B2 (en) | 2013-03-15 | 2017-04-25 | Fotonation Cayman Limited | Array cameras including an array camera module augmented with a separate camera |
US10334151B2 (en) | 2013-04-22 | 2019-06-25 | Google Llc | Phase detection autofocus using subaperture images |
US9412172B2 (en) * | 2013-05-06 | 2016-08-09 | Disney Enterprises, Inc. | Sparse light field representation |
US9762875B2 (en) * | 2013-06-14 | 2017-09-12 | Sony Corporation | Methods and devices for parallax elimination |
KR102103984B1 (ko) * | 2013-07-15 | 2020-04-23 | 삼성전자주식회사 | 깊이 영상 처리 방법 및 장치 |
US9898856B2 (en) | 2013-09-27 | 2018-02-20 | Fotonation Cayman Limited | Systems and methods for depth-assisted perspective distortion correction |
US9374514B2 (en) | 2013-10-18 | 2016-06-21 | The Lightco Inc. | Methods and apparatus relating to a camera including multiple optical chains |
US9325906B2 (en) | 2013-10-18 | 2016-04-26 | The Lightco Inc. | Methods and apparatus relating to a thin camera device |
US9551854B2 (en) | 2013-10-18 | 2017-01-24 | Light Labs Inc. | Methods and apparatus for controlling sensors to capture images in a synchronized manner |
US9467627B2 (en) * | 2013-10-26 | 2016-10-11 | The Lightco Inc. | Methods and apparatus for use with multiple optical chains |
US9736365B2 (en) | 2013-10-26 | 2017-08-15 | Light Labs Inc. | Zoom related methods and apparatus |
CN104567758B (zh) * | 2013-10-29 | 2017-11-17 | 同方威视技术股份有限公司 | 立体成像系统及其方法 |
US9686471B2 (en) | 2013-11-01 | 2017-06-20 | Light Labs Inc. | Methods and apparatus relating to image stabilization |
US9185276B2 (en) | 2013-11-07 | 2015-11-10 | Pelican Imaging Corporation | Methods of manufacturing array camera modules incorporating independently aligned lens stacks |
KR102172954B1 (ko) * | 2013-11-08 | 2020-11-02 | 삼성전자주식회사 | 보행 보조 로봇 및 보행 보조 로봇의 제어 방법 |
US10119808B2 (en) | 2013-11-18 | 2018-11-06 | Fotonation Limited | Systems and methods for estimating depth from projected texture using camera arrays |
WO2015081279A1 (en) | 2013-11-26 | 2015-06-04 | Pelican Imaging Corporation | Array camera configurations incorporating multiple constituent array cameras |
US9390505B2 (en) * | 2013-12-12 | 2016-07-12 | Qualcomm Incorporated | Method and apparatus for generating plenoptic depth maps |
EP2887312A1 (en) * | 2013-12-18 | 2015-06-24 | Nokia Corporation | Method, apparatus and computer program product for depth estimation of stereo images |
CN104735360B (zh) * | 2013-12-18 | 2017-12-22 | 华为技术有限公司 | 光场图像处理方法和装置 |
US9554031B2 (en) | 2013-12-31 | 2017-01-24 | Light Labs Inc. | Camera focusing related methods and apparatus |
US10931866B2 (en) | 2014-01-05 | 2021-02-23 | Light Labs Inc. | Methods and apparatus for receiving and storing in a camera a user controllable setting that is used to control composite image generation performed after image capture |
US10311633B2 (en) * | 2014-01-17 | 2019-06-04 | Nokia Technologies Oy | Method and apparatus for visualization of geo-located media contents in 3D rendering applications |
JP6313063B2 (ja) * | 2014-02-17 | 2018-04-18 | 日立オートモティブシステムズ株式会社 | 車載用認識装置 |
WO2015127206A1 (en) * | 2014-02-20 | 2015-08-27 | Konica Minolta Laboratory U.S.A. Inc. | Image processing to retain small color/gray differences |
US9462170B2 (en) | 2014-02-21 | 2016-10-04 | The Lightco Inc. | Lighting methods and apparatus |
US9979878B2 (en) | 2014-02-21 | 2018-05-22 | Light Labs Inc. | Intuitive camera user interface methods and apparatus |
US10089740B2 (en) | 2014-03-07 | 2018-10-02 | Fotonation Limited | System and methods for depth regularization and semiautomatic interactive matting using RGB-D images |
JP5999127B2 (ja) * | 2014-03-12 | 2016-09-28 | トヨタ自動車株式会社 | 画像処理装置 |
US9247117B2 (en) | 2014-04-07 | 2016-01-26 | Pelican Imaging Corporation | Systems and methods for correcting for warpage of a sensor array in an array camera module by introducing warpage into a focal plane of a lens stack array |
US9729857B2 (en) * | 2014-04-08 | 2017-08-08 | Semyon Nisenzon | High resolution depth map computation using multiresolution camera clusters for 3D image generation |
US9712820B2 (en) * | 2014-04-24 | 2017-07-18 | Lytro, Inc. | Predictive light field compression |
US20150309663A1 (en) * | 2014-04-28 | 2015-10-29 | Qualcomm Incorporated | Flexible air and surface multi-touch detection in mobile platform |
AT515520B1 (de) * | 2014-05-08 | 2015-10-15 | Ait Austrian Inst Technology | Verfahren zur Bestimmung des Abstands eines abgebildeten Gegenstands |
WO2015183824A1 (en) * | 2014-05-26 | 2015-12-03 | Pelican Imaging Corporation | Autofocus system for a conventional camera that uses depth information from an array camera |
US9785828B2 (en) * | 2014-06-06 | 2017-10-10 | Honda Motor Co., Ltd. | System and method for partially occluded object detection |
US8988317B1 (en) * | 2014-06-12 | 2015-03-24 | Lytro, Inc. | Depth determination for light field images |
US20150363916A1 (en) * | 2014-06-12 | 2015-12-17 | Samsung Electronics Co., Ltd. | Low power demosaic with intergrated chromatic aliasing repair |
US9521319B2 (en) | 2014-06-18 | 2016-12-13 | Pelican Imaging Corporation | Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor |
US9888229B2 (en) | 2014-06-23 | 2018-02-06 | Ricoh Company, Ltd. | Disparity estimation for multiview imaging systems |
EP3164831A4 (en) | 2014-07-04 | 2018-02-14 | Light Labs Inc. | Methods and apparatus relating to detection and/or indicating a dirty lens condition |
US9872012B2 (en) * | 2014-07-04 | 2018-01-16 | Samsung Electronics Co., Ltd. | Method and apparatus for image capturing and simultaneous depth extraction |
WO2016007799A1 (en) | 2014-07-09 | 2016-01-14 | The Lightco Inc. | Camera device including multiple optical chains and related methods |
US9225889B1 (en) | 2014-08-18 | 2015-12-29 | Entropix, Inc. | Photographic image acquisition device and method |
US20160073094A1 (en) * | 2014-09-05 | 2016-03-10 | Microsoft Corporation | Depth map enhancement |
JP2017531976A (ja) | 2014-09-29 | 2017-10-26 | フォトネイション ケイマン リミテッド | アレイカメラを動的に較正するためのシステム及び方法 |
WO2016061565A1 (en) | 2014-10-17 | 2016-04-21 | The Lightco Inc. | Methods and apparatus for using a camera device to support multiple modes of operation |
DE102014115292A1 (de) * | 2014-10-21 | 2016-04-21 | Connaught Electronics Ltd. | Verfahren zum Bereitstellen von Bilddateien von einem Kamerasystem, Kamerasystem und Kraftfahrzeug |
US10929812B2 (en) * | 2014-11-26 | 2021-02-23 | Adobe Inc. | Content creation, deployment collaboration, and subsequent marketing activities |
EP3235243A4 (en) | 2014-12-17 | 2018-06-20 | Light Labs Inc. | Methods and apparatus for implementing and using camera devices |
US9544503B2 (en) * | 2014-12-30 | 2017-01-10 | Light Labs Inc. | Exposure control methods and apparatus |
WO2016106694A1 (en) * | 2014-12-31 | 2016-07-07 | SZ DJI Technology Co., Ltd. | System and method for adjusting a baseline of an imaging system with microlens array |
US20180007345A1 (en) * | 2015-01-16 | 2018-01-04 | Imra Europe S.A.S. | Self-rectification of stereo camera |
US9412034B1 (en) * | 2015-01-29 | 2016-08-09 | Qualcomm Incorporated | Occlusion handling for computer vision |
US10511787B2 (en) * | 2015-02-12 | 2019-12-17 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Light-field camera |
EP3257242A4 (en) * | 2015-02-12 | 2018-09-26 | NEXTVR Inc. | Methods and apparatus for making environmental measurements and/or using such measurements |
US9978135B2 (en) * | 2015-02-27 | 2018-05-22 | Cognex Corporation | Detecting object presence on a target surface |
JP6494328B2 (ja) | 2015-03-02 | 2019-04-03 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体 |
JP6516510B2 (ja) * | 2015-03-02 | 2019-05-22 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体 |
JP6275174B2 (ja) * | 2015-03-10 | 2018-02-07 | キヤノン株式会社 | 画像処理方法、画像処理装置、および、撮像装置 |
US10412373B2 (en) * | 2015-04-15 | 2019-09-10 | Google Llc | Image capture for virtual reality displays |
US10440407B2 (en) | 2017-05-09 | 2019-10-08 | Google Llc | Adaptive control for immersive experience delivery |
US10540818B2 (en) | 2015-04-15 | 2020-01-21 | Google Llc | Stereo image generation and interactive playback |
US9824427B2 (en) | 2015-04-15 | 2017-11-21 | Light Labs Inc. | Methods and apparatus for generating a sharp image |
US10341632B2 (en) | 2015-04-15 | 2019-07-02 | Google Llc. | Spatial random access enabled video system with a three-dimensional viewing volume |
US10275898B1 (en) | 2015-04-15 | 2019-04-30 | Google Llc | Wedge-based light-field video capture |
US10419737B2 (en) | 2015-04-15 | 2019-09-17 | Google Llc | Data structures and delivery methods for expediting virtual reality playback |
US10565734B2 (en) | 2015-04-15 | 2020-02-18 | Google Llc | Video capture, processing, calibration, computational fiber artifact removal, and light-field pipeline |
US10444931B2 (en) | 2017-05-09 | 2019-10-15 | Google Llc | Vantage generation and interactive playback |
US10469873B2 (en) | 2015-04-15 | 2019-11-05 | Google Llc | Encoding and decoding virtual reality video |
US10567464B2 (en) | 2015-04-15 | 2020-02-18 | Google Llc | Video compression with adaptive view-dependent lighting removal |
US11328446B2 (en) | 2015-04-15 | 2022-05-10 | Google Llc | Combining light-field data with active depth data for depth map generation |
US10546424B2 (en) | 2015-04-15 | 2020-01-28 | Google Llc | Layered content delivery for virtual and augmented reality experiences |
US9857584B2 (en) | 2015-04-17 | 2018-01-02 | Light Labs Inc. | Camera device methods, apparatus and components |
US9942474B2 (en) * | 2015-04-17 | 2018-04-10 | Fotonation Cayman Limited | Systems and methods for performing high speed video capture and depth estimation using array cameras |
US10091447B2 (en) | 2015-04-17 | 2018-10-02 | Light Labs Inc. | Methods and apparatus for synchronizing readout of multiple image sensors |
US10075651B2 (en) | 2015-04-17 | 2018-09-11 | Light Labs Inc. | Methods and apparatus for capturing images using multiple camera modules in an efficient manner |
US9967535B2 (en) | 2015-04-17 | 2018-05-08 | Light Labs Inc. | Methods and apparatus for reducing noise in images |
US10805589B2 (en) | 2015-04-19 | 2020-10-13 | Fotonation Limited | Multi-baseline camera array system architectures for depth augmentation in VR/AR applications |
US9930233B2 (en) | 2015-04-22 | 2018-03-27 | Light Labs Inc. | Filter mounting methods and apparatus and related camera apparatus |
EP3216006B1 (en) * | 2015-04-28 | 2020-06-10 | Huawei Technologies Co., Ltd. | An image processing apparatus and method |
EP3094076A1 (en) | 2015-05-13 | 2016-11-16 | Thomson Licensing | Method for obtaining a refocused image from a 4D raw light field data using a shift correction parameter |
CN104935909B (zh) * | 2015-05-14 | 2017-02-22 | 清华大学深圳研究生院 | 一种基于深度信息的多幅图超分辨方法 |
US10326981B2 (en) * | 2015-05-15 | 2019-06-18 | Semyon Nisenzon | Generating 3D images using multi-resolution camera set |
CN104851100B (zh) * | 2015-05-22 | 2018-01-16 | 清华大学深圳研究生院 | 可变光源下的双目视图立体匹配方法 |
WO2016189764A1 (ja) * | 2015-05-26 | 2016-12-01 | 三菱電機株式会社 | 検出装置および検出方法 |
JP6582557B2 (ja) * | 2015-05-28 | 2019-10-02 | 株式会社ソシオネクスト | 描画装置、描画方法および描画プログラム |
EP3104595A1 (en) * | 2015-06-08 | 2016-12-14 | Thomson Licensing | Light field imaging device |
EP3107007B1 (en) * | 2015-06-17 | 2020-05-20 | InterDigital CE Patent Holdings | Method and apparatus for data retrieval in a lightfield database |
US10129483B2 (en) | 2015-06-23 | 2018-11-13 | Light Labs Inc. | Methods and apparatus for implementing zoom using one or more moveable camera modules |
US9609242B2 (en) * | 2015-06-25 | 2017-03-28 | Intel Corporation | Auto-correction of depth-sensing camera data for planar target surfaces |
TW201702937A (zh) * | 2015-07-02 | 2017-01-16 | Alibaba Group Services Ltd | 圖像預處理方法及裝置 |
EP3304488B1 (en) * | 2015-07-03 | 2019-05-01 | Huawei Technologies Co., Ltd. | An image processing apparatus and method |
US20180213201A1 (en) * | 2015-07-21 | 2018-07-26 | Heptagon Micro Optics Pte. Ltd. | Generating a disparity map based on stereo images of a scene |
US9979909B2 (en) | 2015-07-24 | 2018-05-22 | Lytro, Inc. | Automatic lens flare detection and correction for light-field images |
US10491806B2 (en) | 2015-08-03 | 2019-11-26 | Light Labs Inc. | Camera device control related methods and apparatus |
US10699476B2 (en) * | 2015-08-06 | 2020-06-30 | Ams Sensors Singapore Pte. Ltd. | Generating a merged, fused three-dimensional point cloud based on captured images of a scene |
WO2017035498A1 (en) * | 2015-08-26 | 2017-03-02 | Olympus Corporation | System and method for depth estimation using multiple illumination sources |
CN105184780B (zh) * | 2015-08-26 | 2018-06-05 | 京东方科技集团股份有限公司 | 一种立体视觉深度的预测方法和系统 |
US10365480B2 (en) | 2015-08-27 | 2019-07-30 | Light Labs Inc. | Methods and apparatus for implementing and/or using camera devices with one or more light redirection devices |
EP3136291A1 (de) * | 2015-08-31 | 2017-03-01 | Continental Automotive GmbH | Verfahren und vorrichtung zur erkennung von objekten bei dunkelheit mittels einer fahrzeugkamera und einer fahrzeugbeleuchtung |
CN110598685B (zh) * | 2015-09-14 | 2023-06-30 | 原相科技股份有限公司 | 分辨前景的成像装置 |
US11024047B2 (en) * | 2015-09-18 | 2021-06-01 | The Regents Of The University Of California | Cameras and depth estimation of images acquired in a distorting medium |
US9928605B2 (en) * | 2015-09-25 | 2018-03-27 | Intel Corporation | Real-time cascaded object recognition |
US9940701B2 (en) * | 2015-09-25 | 2018-04-10 | Intel Corporation | Device and method for depth image dequantization |
US20170096144A1 (en) | 2015-10-05 | 2017-04-06 | Ford Global Technologies, Llc | System and Method for Inspecting Road Surfaces |
US10051182B2 (en) | 2015-10-05 | 2018-08-14 | Light Labs Inc. | Methods and apparatus for compensating for motion and/or changing light conditions during image capture |
US10176554B2 (en) * | 2015-10-05 | 2019-01-08 | Google Llc | Camera calibration using synthetic images |
US9749549B2 (en) | 2015-10-06 | 2017-08-29 | Light Labs Inc. | Methods and apparatus for facilitating selective blurring of one or more image portions |
US10521886B2 (en) * | 2015-10-14 | 2019-12-31 | Shanghai United Imaging Healthcare Co., Ltd. | System and method for image correction |
TWI579776B (zh) * | 2015-10-27 | 2017-04-21 | 財團法人國家實驗研究院 | 利用影像擷取裝置給定一全域場景影像之方法 |
US10554956B2 (en) | 2015-10-29 | 2020-02-04 | Dell Products, Lp | Depth masks for image segmentation for depth-based computational photography |
US10659766B2 (en) * | 2015-10-30 | 2020-05-19 | Canon Kabushiki Kaisha | Confidence generation apparatus, confidence generation method, and imaging apparatus |
US9699380B2 (en) * | 2015-11-03 | 2017-07-04 | Intel Corporation | Fusion of panoramic background images using color and depth data |
FR3043234B1 (fr) * | 2015-11-03 | 2017-11-03 | B<>Com | Procede de suivi d'une cible clinique dans des images medicales |
KR102446442B1 (ko) * | 2015-11-24 | 2022-09-23 | 삼성전자주식회사 | 디지털 촬영 장치 및 그 동작 방법 |
US10021371B2 (en) | 2015-11-24 | 2018-07-10 | Dell Products, Lp | Method and apparatus for gross-level user and input detection using similar or dissimilar camera pair |
US10445890B2 (en) * | 2015-11-30 | 2019-10-15 | Huawei Technologies Co., Ltd. | Dual camera system and image processing method for eliminating an alignment vector of an occlusion area in an image alignment vector field |
JP2017099616A (ja) * | 2015-12-01 | 2017-06-08 | ソニー株式会社 | 手術用制御装置、手術用制御方法、およびプログラム、並びに手術システム |
US9762893B2 (en) * | 2015-12-07 | 2017-09-12 | Google Inc. | Systems and methods for multiscopic noise reduction and high-dynamic range |
US10477181B2 (en) | 2015-12-16 | 2019-11-12 | Intel Corporation | Multiview video stabilization |
JP6611588B2 (ja) * | 2015-12-17 | 2019-11-27 | キヤノン株式会社 | データ記録装置、撮像装置、データ記録方法およびプログラム |
US10225445B2 (en) | 2015-12-18 | 2019-03-05 | Light Labs Inc. | Methods and apparatus for providing a camera lens or viewing point indicator |
US10003738B2 (en) | 2015-12-18 | 2018-06-19 | Light Labs Inc. | Methods and apparatus for detecting and/or indicating a blocked sensor or camera module |
US20170180652A1 (en) * | 2015-12-21 | 2017-06-22 | Jim S. Baca | Enhanced imaging |
US10462446B2 (en) * | 2015-12-21 | 2019-10-29 | Koninklijke Philips N.V. | Processing a depth map for an image |
KR102466996B1 (ko) | 2016-01-06 | 2022-11-14 | 삼성전자주식회사 | 눈 위치 예측 방법 및 장치 |
KR101721632B1 (ko) * | 2016-01-21 | 2017-03-30 | 인천대학교 산학협력단 | 변형된 커널 회귀 방법을 이용한 영상 보간 장치, 방법 및 그 방법이 기록된 컴퓨터로 읽을 수 있는 기록 매체 |
CN105627926B (zh) * | 2016-01-22 | 2017-02-08 | 尹兴 | 四像机组平面阵列特征点三维测量系统及测量方法 |
EP3200151A1 (en) * | 2016-01-29 | 2017-08-02 | Thomson Licensing | Method and device for obtaining a depth map |
US10175867B2 (en) * | 2016-02-03 | 2019-01-08 | Adobe Inc. | User input-based object selection using multiple visual cues |
JP6643122B2 (ja) * | 2016-02-03 | 2020-02-12 | キヤノン株式会社 | 距離画像装置、撮像装置、および距離画像補正方法 |
EP3206164B1 (en) | 2016-02-12 | 2022-05-25 | Cognex Corporation | System and method for efficiently scoring probes in an image with a vision system |
US10194139B2 (en) * | 2016-02-22 | 2019-01-29 | Ricoh Company, Ltd. | Disparity-to-depth calibration for plenoptic imaging systems |
US10003783B2 (en) * | 2016-02-26 | 2018-06-19 | Infineon Technologies Ag | Apparatus for generating a three-dimensional color image and a method for producing a three-dimensional color image |
CA3014766A1 (en) | 2016-03-01 | 2017-09-08 | Magic Leap, Inc. | Depth sensing systems and methods |
US10136116B2 (en) * | 2016-03-07 | 2018-11-20 | Ricoh Company, Ltd. | Object segmentation from light field data |
US10694081B2 (en) | 2016-03-10 | 2020-06-23 | Sony Corporation | Information processing apparatus and information processing method |
CN105791803B (zh) * | 2016-03-16 | 2018-05-18 | 深圳创维-Rgb电子有限公司 | 一种将二维图像转化为多视点图像的显示方法及系统 |
WO2017162596A1 (en) * | 2016-03-21 | 2017-09-28 | Thomson Licensing | Method for correcting aberration affecting light-field data |
US10306218B2 (en) | 2016-03-22 | 2019-05-28 | Light Labs Inc. | Camera calibration apparatus and methods |
US9934557B2 (en) * | 2016-03-22 | 2018-04-03 | Samsung Electronics Co., Ltd | Method and apparatus of image representation and processing for dynamic vision sensor |
US10764561B1 (en) | 2016-04-04 | 2020-09-01 | Compound Eye Inc | Passive stereo depth sensing |
CA3214444A1 (en) | 2016-04-12 | 2017-10-19 | Quidient, Llc | Quotidian scene reconstruction engine |
US10362205B2 (en) * | 2016-04-28 | 2019-07-23 | Qualcomm Incorporated | Performing intensity equalization with respect to mono and color images |
US20170332000A1 (en) * | 2016-05-10 | 2017-11-16 | Lytro, Inc. | High dynamic range light-field imaging |
DE102016208210A1 (de) | 2016-05-12 | 2017-11-16 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | 3d-multiaperturabbildungsvorrichtungen, multiaperturabbildungsvorrichtung, verfahren zum bereitstellen eines ausgangssignals einer 3d-multiaperturabbildungsvorrichtung und verfahren zum erfassen eines gesamtgesichtsfeldes |
JP6525921B2 (ja) * | 2016-05-13 | 2019-06-05 | キヤノン株式会社 | 画像処理装置、画像処理方法、検索装置 |
US10325370B1 (en) * | 2016-05-31 | 2019-06-18 | University Of New Brunswick | Method and system of coregistration of remote sensing images |
US10097777B2 (en) | 2016-06-03 | 2018-10-09 | Recognition Robotics, Inc. | Depth map from multi-focal plane images |
CN110168606B (zh) * | 2016-06-08 | 2023-09-26 | 谷歌有限责任公司 | 生成实体物品的合成图像的方法和系统 |
US10275892B2 (en) | 2016-06-09 | 2019-04-30 | Google Llc | Multi-view scene segmentation and propagation |
US10298864B2 (en) * | 2016-06-10 | 2019-05-21 | Apple Inc. | Mismatched foreign light detection and mitigation in the image fusion of a two-camera system |
US10469821B2 (en) * | 2016-06-17 | 2019-11-05 | Altek Semiconductor Corp. | Stereo image generating method and electronic apparatus utilizing the method |
US9948832B2 (en) | 2016-06-22 | 2018-04-17 | Light Labs Inc. | Methods and apparatus for synchronized image capture in a device including optical chains with different orientations |
KR101915843B1 (ko) * | 2016-06-29 | 2018-11-08 | 한국과학기술원 | 복굴절 매질을 이용한 영상 깊이 추정 방법 및 장치 |
US10127812B2 (en) | 2016-08-29 | 2018-11-13 | Allstate Insurance Company | Electrical data processing system for monitoring or affecting movement of a vehicle using a traffic device |
US10538326B1 (en) * | 2016-08-31 | 2020-01-21 | Amazon Technologies, Inc. | Flare detection and avoidance in stereo vision systems |
GB2553782B (en) * | 2016-09-12 | 2021-10-20 | Niantic Inc | Predicting depth from image data using a statistical model |
US10074160B2 (en) * | 2016-09-30 | 2018-09-11 | Disney Enterprises, Inc. | Point cloud noise and outlier removal for image-based 3D reconstruction |
JP6855587B2 (ja) * | 2016-10-18 | 2021-04-07 | フォトニック センサーズ アンド アルゴリズムス,エセ.エレ. | 視点から距離情報を取得するための装置及び方法 |
US10026014B2 (en) * | 2016-10-26 | 2018-07-17 | Nxp Usa, Inc. | Method and apparatus for data set classification based on generator features |
AU2016427777B2 (en) * | 2016-10-31 | 2022-12-15 | Victoria Link Limited | A rendering process and system |
US10271033B2 (en) * | 2016-10-31 | 2019-04-23 | Verizon Patent And Licensing Inc. | Methods and systems for generating depth data by converging independently-captured depth maps |
CN106504292B (zh) * | 2016-11-03 | 2019-02-05 | 浙江大学 | 基于成像本质属性的立体颜色校正方法 |
CN109923854B (zh) * | 2016-11-08 | 2022-01-04 | 索尼公司 | 图像处理装置、图像处理方法以及记录介质 |
CN108076338B (zh) * | 2016-11-14 | 2022-04-08 | 北京三星通信技术研究有限公司 | 图像视觉处理方法、装置及设备 |
US10679361B2 (en) | 2016-12-05 | 2020-06-09 | Google Llc | Multi-view rotoscope contour propagation |
JP6651679B2 (ja) | 2016-12-06 | 2020-02-19 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 光強度画像を生成するための装置及び方法 |
US10451714B2 (en) | 2016-12-06 | 2019-10-22 | Sony Corporation | Optical micromesh for computerized devices |
US10536684B2 (en) * | 2016-12-07 | 2020-01-14 | Sony Corporation | Color noise reduction in 3D depth map |
KR102534875B1 (ko) | 2016-12-08 | 2023-05-22 | 한국전자통신연구원 | 카메라 어레이와 다중 초점 영상을 이용하여 임의 시점의 영상을 생성하는 방법 및 장치 |
US10275855B2 (en) | 2017-01-11 | 2019-04-30 | Microsoft Technology Licensing, Llc | Image demosaicing for hybrid optical sensor arrays |
US10339631B2 (en) | 2017-01-11 | 2019-07-02 | Microsoft Technology Licensing, Llc | Image demosaicing for hybrid optical sensor arrays |
EP3358844A1 (en) * | 2017-02-07 | 2018-08-08 | Koninklijke Philips N.V. | Method and apparatus for processing an image property map |
US10495735B2 (en) | 2017-02-14 | 2019-12-03 | Sony Corporation | Using micro mirrors to improve the field of view of a 3D depth map |
US10795022B2 (en) | 2017-03-02 | 2020-10-06 | Sony Corporation | 3D depth map |
US20180260929A1 (en) * | 2017-03-08 | 2018-09-13 | Intel Corporation | Digital camera methods and devices optimized for computer vision applications |
JP6929094B2 (ja) * | 2017-03-27 | 2021-09-01 | キヤノン株式会社 | 電子機器、撮像装置、及び制御方法、並びにプログラム |
US10593718B2 (en) * | 2017-03-28 | 2020-03-17 | Mitutoyo Corporation | Surface profiling and imaging system including optical channels providing distance-dependent image offsets |
TWI641264B (zh) * | 2017-03-30 | 2018-11-11 | 晶睿通訊股份有限公司 | 影像處理系統及鏡頭狀態判斷方法 |
JP6800797B2 (ja) * | 2017-03-31 | 2020-12-16 | キヤノン株式会社 | 撮像装置、画像処理装置、撮像装置の制御方法およびプログラム |
TWI672938B (zh) * | 2017-03-31 | 2019-09-21 | 鈺立微電子股份有限公司 | 可校正遮蔽區的深度圖產生裝置 |
US10979687B2 (en) | 2017-04-03 | 2021-04-13 | Sony Corporation | Using super imposition to render a 3D depth map |
US10594945B2 (en) | 2017-04-03 | 2020-03-17 | Google Llc | Generating dolly zoom effect using light field image data |
US10474227B2 (en) | 2017-05-09 | 2019-11-12 | Google Llc | Generation of virtual reality with 6 degrees of freedom from limited viewer data |
US10142543B1 (en) * | 2017-05-12 | 2018-11-27 | Mediatek Inc. | Power reduction in a multi-sensor camera device by on-demand sensors activation |
US10354399B2 (en) | 2017-05-25 | 2019-07-16 | Google Llc | Multi-view back-projection to a light-field |
US11227405B2 (en) | 2017-06-21 | 2022-01-18 | Apera Ai Inc. | Determining positions and orientations of objects |
WO2019022728A1 (en) * | 2017-07-26 | 2019-01-31 | Hewlett-Packard Development Company, L.P. | EVALUATION OF DYNAMIC BEACHES OF IMAGING DEVICES |
CN107545586B (zh) * | 2017-08-04 | 2020-02-28 | 中国科学院自动化研究所 | 基于光场极线平面图像局部的深度获取方法及系统 |
US10482618B2 (en) | 2017-08-21 | 2019-11-19 | Fotonation Limited | Systems and methods for hybrid depth regularization |
US10477064B2 (en) * | 2017-08-21 | 2019-11-12 | Gopro, Inc. | Image stitching with electronic rolling shutter correction |
RU2659745C1 (ru) * | 2017-08-28 | 2018-07-03 | Общество с ограниченной ответственностью "Аби Продакшн" | Реконструкция документа из серии изображений документа |
CN111052633B (zh) | 2017-09-11 | 2023-06-06 | 昕诺飞控股有限公司 | 利用滚动快门照相机来检测编码光 |
US10545215B2 (en) * | 2017-09-13 | 2020-01-28 | Google Llc | 4D camera tracking and optical stabilization |
US10776995B2 (en) * | 2017-10-17 | 2020-09-15 | Nvidia Corporation | Light fields as better backgrounds in rendering |
US10484667B2 (en) | 2017-10-31 | 2019-11-19 | Sony Corporation | Generating 3D depth map using parallax |
WO2019089049A1 (en) | 2017-11-06 | 2019-05-09 | Google Llc | Systems and methods for improved feature extraction using polarization information |
KR102459853B1 (ko) | 2017-11-23 | 2022-10-27 | 삼성전자주식회사 | 디스패리티 추정 장치 및 방법 |
US10643383B2 (en) | 2017-11-27 | 2020-05-05 | Fotonation Limited | Systems and methods for 3D facial modeling |
CN108053368B (zh) * | 2017-12-18 | 2020-11-03 | 清华大学 | 跨尺度分辨率的光场图像超分辨率及深度估计方法及装置 |
CN108090872B (zh) * | 2017-12-18 | 2021-07-16 | 武汉大学 | 基于梯度提取的单帧多光谱影像超分辨率重建方法及系统 |
US10965862B2 (en) | 2018-01-18 | 2021-03-30 | Google Llc | Multi-camera navigation interface |
CN109840922B (zh) * | 2018-01-31 | 2021-03-02 | 中国科学院计算技术研究所 | 基于双目光场相机的深度获取方法和系统 |
EP3522106A1 (en) * | 2018-01-31 | 2019-08-07 | InterDigital CE Patent Holdings | A filter array enabling easy demosaicing |
CN108459417B (zh) * | 2018-02-05 | 2020-06-26 | 华侨大学 | 一种单目窄带多光谱立体视觉系统及其使用方法 |
US11024046B2 (en) | 2018-02-07 | 2021-06-01 | Fotonation Limited | Systems and methods for depth estimation using generative models |
CN108364309B (zh) * | 2018-02-09 | 2020-09-01 | 清华大学深圳研究生院 | 一种基于手持式光场相机的空间光场恢复方法 |
WO2019153327A1 (zh) * | 2018-02-12 | 2019-08-15 | 深圳市汇顶科技股份有限公司 | 图像获取方法和装置 |
US10306152B1 (en) * | 2018-02-14 | 2019-05-28 | Himax Technologies Limited | Auto-exposure controller, auto-exposure control method and system based on structured light |
JP2019149621A (ja) * | 2018-02-26 | 2019-09-05 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US10510178B2 (en) * | 2018-02-27 | 2019-12-17 | Verizon Patent And Licensing Inc. | Methods and systems for volumetric reconstruction based on a confidence field |
JP2019149767A (ja) * | 2018-02-28 | 2019-09-05 | パナソニック液晶ディスプレイ株式会社 | 表示装置用校正システム、表示装置、撮影装置、サーバ装置、及び、表示装置の校正方法 |
US10839541B2 (en) * | 2018-03-14 | 2020-11-17 | Google Llc | Hierarchical disparity hypothesis generation with slanted support windows |
CN108520495B (zh) * | 2018-03-15 | 2021-09-07 | 西北工业大学 | 基于聚类流形先验的高光谱图像超分辨重建方法 |
US10972643B2 (en) | 2018-03-29 | 2021-04-06 | Microsoft Technology Licensing, Llc | Camera comprising an infrared illuminator and a liquid crystal optical filter switchable between a reflection state and a transmission state for infrared imaging and spectral imaging, and method thereof |
WO2019193696A1 (ja) * | 2018-04-04 | 2019-10-10 | 株式会社ソニー・インタラクティブエンタテインメント | 基準画像生成装置、表示画像生成装置、基準画像生成方法、および表示画像生成方法 |
JP7233150B2 (ja) * | 2018-04-04 | 2023-03-06 | 日本放送協会 | 奥行推定装置およびそのプログラム |
WO2019201355A1 (en) * | 2018-04-17 | 2019-10-24 | Shanghaitech University | Light field system occlusion removal |
US11089265B2 (en) | 2018-04-17 | 2021-08-10 | Microsoft Technology Licensing, Llc | Telepresence devices operation methods |
US10477220B1 (en) | 2018-04-20 | 2019-11-12 | Sony Corporation | Object segmentation in a sequence of color image frames based on adaptive foreground mask upsampling |
SE542050C2 (en) | 2018-04-24 | 2020-02-18 | Superannotate Ai Inc | Method for merging superpixels |
US11875476B2 (en) | 2018-05-02 | 2024-01-16 | Quidient, Llc | Codec for processing scenes of almost unlimited detail |
US10902664B2 (en) | 2018-05-04 | 2021-01-26 | Raytheon Technologies Corporation | System and method for detecting damage using two-dimensional imagery and three-dimensional model |
US10685433B2 (en) | 2018-05-04 | 2020-06-16 | Raytheon Technologies Corporation | Nondestructive coating imperfection detection system and method therefor |
US10958843B2 (en) | 2018-05-04 | 2021-03-23 | Raytheon Technologies Corporation | Multi-camera system for simultaneous registration and zoomed imagery |
US10943320B2 (en) | 2018-05-04 | 2021-03-09 | Raytheon Technologies Corporation | System and method for robotic inspection |
US10914191B2 (en) | 2018-05-04 | 2021-02-09 | Raytheon Technologies Corporation | System and method for in situ airfoil inspection |
US11268881B2 (en) * | 2018-05-04 | 2022-03-08 | Raytheon Technologies Corporation | System and method for fan blade rotor disk and gear inspection |
US11079285B2 (en) | 2018-05-04 | 2021-08-03 | Raytheon Technologies Corporation | Automated analysis of thermally-sensitive coating and method therefor |
US10928362B2 (en) | 2018-05-04 | 2021-02-23 | Raytheon Technologies Corporation | Nondestructive inspection using dual pulse-echo ultrasonics and method therefor |
US10832427B1 (en) * | 2018-05-07 | 2020-11-10 | Apple Inc. | Scene camera retargeting |
US10924692B2 (en) | 2018-05-08 | 2021-02-16 | Microsoft Technology Licensing, Llc | Depth and multi-spectral camera |
US10996335B2 (en) | 2018-05-09 | 2021-05-04 | Microsoft Technology Licensing, Llc | Phase wrapping determination for time-of-flight camera |
US10607352B2 (en) | 2018-05-17 | 2020-03-31 | Microsoft Technology Licensing, Llc | Reduced power operation of time-of-flight camera |
US10783656B2 (en) * | 2018-05-18 | 2020-09-22 | Zebra Technologies Corporation | System and method of determining a location for placement of a package |
US10477173B1 (en) | 2018-05-23 | 2019-11-12 | Microsoft Technology Licensing, Llc | Camera with tunable filter and active illumination |
WO2019232806A1 (zh) * | 2018-06-08 | 2019-12-12 | 珊口(深圳)智能科技有限公司 | 导航方法、导航系统、移动控制系统及移动机器人 |
US10549186B2 (en) | 2018-06-26 | 2020-02-04 | Sony Interactive Entertainment Inc. | Multipoint SLAM capture |
US10650573B2 (en) | 2018-06-29 | 2020-05-12 | Proprio, Inc. | Synthesizing an image from a virtual perspective using pixels from a physical imager array weighted based on depth error sensitivity |
CN108924434B (zh) * | 2018-06-29 | 2020-08-18 | 宁波大学 | 一种基于曝光变换的立体高动态范围图像合成方法 |
CN110660088B (zh) * | 2018-06-30 | 2023-08-22 | 华为技术有限公司 | 一种图像处理的方法和设备 |
US10692184B2 (en) * | 2018-07-05 | 2020-06-23 | SVXR, Inc. | Super-resolution X-ray imaging method and apparatus |
JP7179515B2 (ja) * | 2018-07-13 | 2022-11-29 | キヤノン株式会社 | 装置、制御方法、及びプログラム |
EP3598389A1 (en) * | 2018-07-19 | 2020-01-22 | Thomson Licensing | Method for detecting occlusions in an image, corresponding device and computer program product |
EP3598390A1 (en) * | 2018-07-19 | 2020-01-22 | Thomson Licensing | Method for estimating a depth for pixels, corresponding device and computer program product |
US11145046B2 (en) * | 2018-07-24 | 2021-10-12 | The Regents Of The University Of Michigan | Detection of near-field occlusions in images |
CN110853073A (zh) * | 2018-07-25 | 2020-02-28 | 北京三星通信技术研究有限公司 | 确定关注点的方法、装置、设备、系统及信息处理方法 |
CN109191512B (zh) | 2018-07-27 | 2020-10-30 | 深圳市商汤科技有限公司 | 双目图像的深度估计方法及装置、设备、程序及介质 |
US10893299B2 (en) | 2018-07-31 | 2021-01-12 | Intel Corporation | Surface normal vector processing mechanism |
US10762394B2 (en) | 2018-07-31 | 2020-09-01 | Intel Corporation | System and method for 3D blob classification and transmission |
US10887574B2 (en) | 2018-07-31 | 2021-01-05 | Intel Corporation | Selective packing of patches for immersive video |
US11178373B2 (en) | 2018-07-31 | 2021-11-16 | Intel Corporation | Adaptive resolution of point cloud and viewpoint prediction for video streaming in computing environments |
US11212506B2 (en) | 2018-07-31 | 2021-12-28 | Intel Corporation | Reduced rendering of six-degree of freedom video |
US10922832B2 (en) * | 2018-07-31 | 2021-02-16 | Intel Corporation | Removal of projection noise and point-based rendering |
CN110798674B (zh) * | 2018-08-01 | 2022-04-08 | 中兴通讯股份有限公司 | 图像深度值获取方法、装置、设备、编解码器及存储介质 |
CN110798677B (zh) * | 2018-08-01 | 2021-08-31 | Oppo广东移动通信有限公司 | 三维场景建模方法及装置、电子装置、可读存储介质及计算机设备 |
US20210304359A1 (en) * | 2018-08-09 | 2021-09-30 | Google Llc | Super-Resolution Using Natural Handheld-Motion Applied to a User Device |
US10554914B1 (en) * | 2018-08-10 | 2020-02-04 | Apple Inc. | Adjusting confidence values for correcting pixel defects |
JP7005458B2 (ja) * | 2018-09-12 | 2022-01-21 | 株式会社東芝 | 画像処理装置、及び、画像処理プログラム、並びに、運転支援システム |
US11689707B2 (en) * | 2018-09-20 | 2023-06-27 | Shoppertrak Rct Llc | Techniques for calibrating a stereoscopic camera in a device |
CN109151334B (zh) * | 2018-09-21 | 2020-12-22 | 中国计量大学 | 一种无人车相机系统 |
US11367305B2 (en) * | 2018-09-28 | 2022-06-21 | Apple Inc. | Obstruction detection during facial recognition processes |
US10896516B1 (en) * | 2018-10-02 | 2021-01-19 | Facebook Technologies, Llc | Low-power depth sensing using dynamic illumination |
US10901092B1 (en) * | 2018-10-02 | 2021-01-26 | Facebook Technologies, Llc | Depth sensing using dynamic illumination with range extension |
US11057631B2 (en) | 2018-10-10 | 2021-07-06 | Intel Corporation | Point cloud coding standard conformance definition in computing environments |
CN109543544B (zh) * | 2018-10-25 | 2021-04-09 | 北京市商汤科技开发有限公司 | 跨光谱图像匹配方法及装置、电子设备和存储介质 |
US11055866B2 (en) * | 2018-10-29 | 2021-07-06 | Samsung Electronics Co., Ltd | System and method for disparity estimation using cameras with different fields of view |
US10931894B2 (en) | 2018-10-31 | 2021-02-23 | Microsoft Technology Licensing, Llc | Tunable spectral illuminator for camera |
US10979648B2 (en) * | 2018-11-07 | 2021-04-13 | Inuitive Ltd. | Stereoscopic apparatus and a method for determining exposure time |
FR3088510A1 (fr) * | 2018-11-09 | 2020-05-15 | Orange | Synthese de vues |
CN111193918B (zh) * | 2018-11-14 | 2021-12-28 | 宏达国际电子股份有限公司 | 影像处理系统及影像处理方法 |
WO2020105092A1 (ja) * | 2018-11-19 | 2020-05-28 | 日本電気株式会社 | 画像処理方法および画像処理装置 |
CN109685748B (zh) * | 2018-12-07 | 2021-03-30 | Oppo广东移动通信有限公司 | 图像处理方法、装置、电子设备、计算机可读存储介质 |
US10708557B1 (en) * | 2018-12-14 | 2020-07-07 | Lyft Inc. | Multispectrum, multi-polarization (MSMP) filtering for improved perception of difficult to perceive colors |
CN109521434B (zh) * | 2018-12-27 | 2020-09-08 | 合肥泰禾光电科技股份有限公司 | 一种激光测量方法及控制处理器 |
US11357593B2 (en) | 2019-01-10 | 2022-06-14 | Covidien Lp | Endoscopic imaging with augmented parallax |
US11245875B2 (en) | 2019-01-15 | 2022-02-08 | Microsoft Technology Licensing, Llc | Monitoring activity with depth and multi-spectral camera |
CN109648210B (zh) * | 2019-02-14 | 2024-03-15 | 北京志恒达科技有限公司 | 激光灼刻装置及系统 |
EP3706070A1 (en) * | 2019-03-05 | 2020-09-09 | Koninklijke Philips N.V. | Processing of depth maps for images |
US11403776B2 (en) | 2019-03-21 | 2022-08-02 | Five AI Limited | Depth extraction |
CN111815696B (zh) * | 2019-04-11 | 2023-08-22 | 曜科智能科技(上海)有限公司 | 基于语义实例分割的深度图优化方法、装置、设备和介质 |
JP7007324B2 (ja) * | 2019-04-25 | 2022-01-24 | ファナック株式会社 | 画像処理装置、画像処理方法、及びロボットシステム |
WO2020221840A1 (en) * | 2019-04-30 | 2020-11-05 | Signify Holding B.V. | Camera-based lighting control |
CN110210541B (zh) * | 2019-05-23 | 2021-09-03 | 浙江大华技术股份有限公司 | 图像融合方法及设备、存储装置 |
CN110211115B (zh) * | 2019-06-03 | 2023-04-07 | 大连理工大学 | 一种基于深度引导元胞自动机的光场显著性检测实现方法 |
US10937232B2 (en) * | 2019-06-26 | 2021-03-02 | Honeywell International Inc. | Dense mapping using range sensor multi-scanning and multi-view geometry from successive image frames |
US11494953B2 (en) * | 2019-07-01 | 2022-11-08 | Microsoft Technology Licensing, Llc | Adaptive user interface palette for augmented reality |
US11270464B2 (en) | 2019-07-18 | 2022-03-08 | Microsoft Technology Licensing, Llc | Dynamic detection and correction of light field camera array miscalibration |
US11064154B2 (en) | 2019-07-18 | 2021-07-13 | Microsoft Technology Licensing, Llc | Device pose detection and pose-related image capture and processing for light field based telepresence communications |
DE102019210580A1 (de) * | 2019-07-18 | 2021-01-21 | Robert Bosch Gmbh | Verfahren zum Ermitteln einer Position eines ersten Bildbereichs in einem Korrespondenz-Bild, SoC und Steuervorrichtung und System zur Durchführung des Verfahrens, sowie Computerprogramm |
US11082659B2 (en) | 2019-07-18 | 2021-08-03 | Microsoft Technology Licensing, Llc | Light field camera modules and light field camera module arrays |
US11553123B2 (en) * | 2019-07-18 | 2023-01-10 | Microsoft Technology Licensing, Llc | Dynamic detection and correction of light field camera array miscalibration |
JP7431527B2 (ja) * | 2019-08-07 | 2024-02-15 | キヤノン株式会社 | 深度情報生成装置、撮像装置、深度情報生成方法、画像処理装置、画像処理方法、及びプログラム |
US11303877B2 (en) | 2019-08-13 | 2022-04-12 | Avigilon Corporation | Method and system for enhancing use of two-dimensional video analytics by using depth data |
US10861422B1 (en) * | 2019-08-16 | 2020-12-08 | Facebook Technologies, Inc. | Display rendering |
CN110533731B (zh) * | 2019-08-30 | 2023-01-17 | 无锡先导智能装备股份有限公司 | 相机解析度的标定方法及相机解析度的标定装置 |
US11729364B2 (en) | 2019-09-18 | 2023-08-15 | Gopro, Inc. | Circular stitching of images |
CN111028281B (zh) * | 2019-10-22 | 2022-10-18 | 清华大学 | 基于光场双目系统的深度信息计算方法及装置 |
WO2021081603A1 (en) * | 2019-11-01 | 2021-05-06 | Visionary Machines Pty Ltd | Systems and methods for generating and/or using 3-dimensional information with camera arrays |
US11030478B1 (en) | 2019-11-27 | 2021-06-08 | Compound Eye, Inc. | System and method for correspondence map determination |
DE102019133515B3 (de) * | 2019-12-09 | 2021-04-01 | Cubert GmbH | Verfahren und Vorrichtung zur Parallaxenbestimmung von Aufnahmen eines Multilinsen-Kamerasystems |
US11315266B2 (en) * | 2019-12-16 | 2022-04-26 | Robert Bosch Gmbh | Self-supervised depth estimation method and system |
US11663728B2 (en) * | 2020-01-16 | 2023-05-30 | Samsung Electronics Co., Ltd. | Depth estimation method and apparatus |
WO2021150784A1 (en) * | 2020-01-21 | 2021-07-29 | Compound Eye Inc. | System and method for camera calibration |
WO2021150779A1 (en) | 2020-01-21 | 2021-07-29 | Compound Eye Inc. | System and method for egomotion estimation |
US11957974B2 (en) | 2020-02-10 | 2024-04-16 | Intel Corporation | System architecture for cloud gaming |
US11816855B2 (en) * | 2020-02-11 | 2023-11-14 | Samsung Electronics Co., Ltd. | Array-based depth estimation |
CN111582196B (zh) * | 2020-02-13 | 2021-05-04 | 牧今科技 | 用于确定相机视场内的遮挡的方法和系统 |
US11006039B1 (en) | 2020-02-13 | 2021-05-11 | Mujin, Inc. | Method and system for determining occlusion within a camera field of view |
AT523556A1 (de) | 2020-02-26 | 2021-09-15 | Vexcel Imaging Gmbh | Verfahren zur Bildkorrektur |
CN113542721B (zh) * | 2020-04-20 | 2023-04-25 | 阿里巴巴集团控股有限公司 | 深度图处理方法、视频重建方法及相关装置 |
EP4128746A1 (en) | 2020-04-22 | 2023-02-08 | Huawei Technologies Co., Ltd. | Device and method for depth estimation using color images |
US11520052B2 (en) * | 2020-06-26 | 2022-12-06 | Microsoft Technology Licensing, Llc | Adaptive processing in time of flight imaging |
US11212503B1 (en) * | 2020-07-14 | 2021-12-28 | Microsoft Technology Licensing, Llc | Dual camera HMD with remote camera alignment |
US20230308779A1 (en) * | 2020-07-20 | 2023-09-28 | Sony Group Corporation | Information processing device, information processing system, information processing method, and information processing program |
WO2022025741A1 (en) * | 2020-07-27 | 2022-02-03 | Samsung Electronics Co., Ltd. | Array-based depth estimation |
CN112053425B (zh) * | 2020-09-29 | 2022-05-10 | 广州极飞科技股份有限公司 | 多光谱图像处理方法、装置及电子设备 |
KR102317182B1 (ko) * | 2020-11-25 | 2021-10-27 | 주식회사 리얼이매진 | 3차원 객체와 2차원 배경을 이용한 합성 이미지 생성 장치 |
CN112614161A (zh) * | 2020-12-28 | 2021-04-06 | 之江实验室 | 一种基于边缘置信度的三维物体跟踪方法 |
WO2022162616A1 (en) * | 2021-01-28 | 2022-08-04 | Visionary Machines Pty Ltd | Systems and methods for combining multiple depth maps |
US11657523B2 (en) * | 2021-03-17 | 2023-05-23 | The Trustees Of Princeton University | Microlens amplitude masks for flying pixel removal in time-of-flight imaging |
US20220319026A1 (en) * | 2021-03-31 | 2022-10-06 | Ernst Leitz Labs LLC | Imaging system and method |
US11893668B2 (en) | 2021-03-31 | 2024-02-06 | Leica Camera Ag | Imaging system and method for generating a final digital image via applying a profile to image information |
CN114759991B (zh) * | 2022-03-28 | 2023-09-22 | 扬州大学 | 一种基于可见性图的循环平稳信号检测及调制识别方法 |
US11889033B2 (en) * | 2022-05-11 | 2024-01-30 | Samsung Electronics Co., Ltd. | Flare mitigation via deconvolution using high dynamic range imaging |
CN114897951B (zh) * | 2022-05-30 | 2023-02-28 | 中国测绘科学研究院 | 聚合多视角深度信息的单张光场影像深度估计方法及系统 |
JP2024014138A (ja) * | 2022-07-21 | 2024-02-01 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
US11704864B1 (en) * | 2022-07-28 | 2023-07-18 | Katmai Tech Inc. | Static rendering for a combination of background and foreground objects |
CN115171030B (zh) * | 2022-09-09 | 2023-01-31 | 山东省凯麟环保设备股份有限公司 | 基于多级特征融合的多模态图像分割方法、系统及器件 |
US20240129604A1 (en) * | 2022-10-14 | 2024-04-18 | Motional Ad Llc | Plenoptic sensor devices, systems, and methods |
KR102635346B1 (ko) * | 2022-11-04 | 2024-02-08 | 주식회사 브이알크루 | 가상 객체의 폐색을 구현하기 위한 방법 |
CN115439720B (zh) * | 2022-11-08 | 2023-01-24 | 成都数联云算科技有限公司 | Cam图像的重构方法、训练方法、装置、设备及介质 |
CN116188558B (zh) * | 2023-04-27 | 2023-07-11 | 华北理工大学 | 基于双目视觉的立体摄影测量方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060054782A1 (en) | 2004-08-25 | 2006-03-16 | Olsen Richard I | Apparatus for multiple camera devices and method of operating same |
US20110080487A1 (en) | 2008-05-20 | 2011-04-07 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
US20110122308A1 (en) | 2009-11-20 | 2011-05-26 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
US20120012748A1 (en) | 2010-05-12 | 2012-01-19 | Pelican Imaging Corporation | Architectures for imager arrays and array cameras |
Family Cites Families (935)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4124798A (en) | 1965-12-09 | 1978-11-07 | Thompson Kenneth B | Optical viewing apparatus |
JPS5925483B2 (ja) | 1977-12-09 | 1984-06-18 | パイオニア株式会社 | プツシユプル増幅回路 |
US4198646A (en) | 1978-10-13 | 1980-04-15 | Hughes Aircraft Company | Monolithic imager for near-IR |
US4323925A (en) | 1980-07-07 | 1982-04-06 | Avco Everett Research Laboratory, Inc. | Method and apparatus for arraying image sensor modules |
JPS5769476A (en) | 1980-10-16 | 1982-04-28 | Fuji Xerox Co Ltd | Reader control system |
JPS5925483A (ja) | 1982-08-04 | 1984-02-09 | Hitachi Denshi Ltd | 固体撮像装置 |
US4652909A (en) | 1982-09-14 | 1987-03-24 | New York Institute Of Technology | Television camera and recording system for high definition television having imagers of different frame rate |
US4460449A (en) | 1983-01-03 | 1984-07-17 | Amerace Corporation | Apparatus for making a tool |
EP0289885A1 (de) | 1987-05-08 | 1988-11-09 | Siemens Aktiengesellschaft | Blendensystem zur Erzeugung mehrerer Teilchensonden mit veränderbarem Querschnitt |
JPS6437177A (en) | 1987-08-03 | 1989-02-07 | Canon Kk | Image pickup device |
JPS6437177U (ko) | 1987-08-31 | 1989-03-06 | ||
DE58902538D1 (de) | 1988-05-19 | 1992-12-03 | Siemens Ag | Verfahren zur beobachtung einer szene und einrichtung zur durchfuehrung des verfahrens. |
JPH02285772A (ja) | 1989-04-26 | 1990-11-26 | Toshiba Corp | 画像読取装置 |
US5070414A (en) | 1988-09-20 | 1991-12-03 | Kabushiki Kaisha Toshiba | Method and apparatus for reading image information formed on material |
US4962425A (en) | 1988-10-27 | 1990-10-09 | National Research Council Of Canada/Conseil National Deresherches Canada | Photometric device |
US5157499A (en) | 1990-06-29 | 1992-10-20 | Kabushiki Kaisha N A C | High-speed video camera using solid-state image sensor |
US5144448A (en) | 1990-07-31 | 1992-09-01 | Vidar Systems Corporation | Scanning apparatus using multiple CCD arrays and related method |
US5463464A (en) | 1991-10-04 | 1995-10-31 | Kms Fusion, Inc. | Electro-optical system for gauging surface profile deviations using infrared radiation |
US5325449A (en) | 1992-05-15 | 1994-06-28 | David Sarnoff Research Center, Inc. | Method for fusing images and apparatus therefor |
JP3032382B2 (ja) | 1992-07-13 | 2000-04-17 | シャープ株式会社 | デジタル信号のサンプリング周波数変換装置 |
JPH06129851A (ja) | 1992-10-13 | 1994-05-13 | Sumitomo Electric Ind Ltd | ステレオカメラの校正方法 |
US5712732A (en) * | 1993-03-03 | 1998-01-27 | Street; Graham Stewart Brandon | Autostereoscopic image display adjustable for observer location and distance |
US5659424A (en) | 1993-05-25 | 1997-08-19 | Hitachi, Ltd. | Projecting lens and image display device |
JPH0715457A (ja) | 1993-06-18 | 1995-01-17 | Hitachi Ltd | ディジタル通信切替方式 |
US6419638B1 (en) | 1993-07-20 | 2002-07-16 | Sam H. Hay | Optical recognition methods for locating eyes |
US6095989A (en) | 1993-07-20 | 2000-08-01 | Hay; Sam H. | Optical recognition methods for locating eyes |
JP2761837B2 (ja) * | 1993-08-19 | 1998-06-04 | 株式会社日鉄エレックス | 立体像表示装置 |
EP0677821A3 (en) | 1994-04-14 | 1996-03-06 | Hewlett Packard Co | Enlargement of a digital image by slaving. |
WO1995034044A1 (en) | 1994-06-09 | 1995-12-14 | Kollmorgen Instrument Corporation | Stereoscopic electro-optical system for automated inspection and/or alignment of imaging devices on a production assembly line |
US20020195548A1 (en) | 2001-06-06 | 2002-12-26 | Dowski Edward Raymond | Wavefront coding interference contrast imaging systems |
US5629524A (en) | 1995-02-21 | 1997-05-13 | Advanced Scientific Concepts, Inc. | High speed crystallography detector |
EP0739039A3 (en) | 1995-04-18 | 1998-03-04 | Interuniversitair Micro-Elektronica Centrum Vzw | Pixel structure, image sensor using such pixel, structure and corresponding peripheric circuitry |
US5963664A (en) | 1995-06-22 | 1999-10-05 | Sarnoff Corporation | Method and system for image combination using a parallax-based technique |
US6005607A (en) | 1995-06-29 | 1999-12-21 | Matsushita Electric Industrial Co., Ltd. | Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus |
GB2302978A (en) | 1995-07-04 | 1997-02-05 | Sharp Kk | LIquid crystal device |
WO1997018633A1 (en) | 1995-11-07 | 1997-05-22 | California Institute Of Technology | Capacitively coupled successive approximation ultra low power analog-to-digital converter |
US5757425A (en) | 1995-12-19 | 1998-05-26 | Eastman Kodak Company | Method and apparatus for independently calibrating light source and photosensor arrays |
JP3502713B2 (ja) | 1995-12-21 | 2004-03-02 | 本田技研工業株式会社 | 車両用距離測定装置 |
JPH09181913A (ja) | 1995-12-26 | 1997-07-11 | Olympus Optical Co Ltd | カメラシステム |
US5793900A (en) | 1995-12-29 | 1998-08-11 | Stanford University | Generating categorical depth maps using passive defocus sensing |
US5973844A (en) | 1996-01-26 | 1999-10-26 | Proxemics | Lenslet array systems and methods |
US6124974A (en) | 1996-01-26 | 2000-09-26 | Proxemics | Lenslet array systems and methods |
US6493465B2 (en) | 1996-02-21 | 2002-12-10 | Canon Kabushiki Kaisha | Matching point extracting method and apparatus therefor |
US5832312A (en) * | 1996-02-22 | 1998-11-03 | Eastman Kodak Company | Watertight body for accommodating a photographic camera |
MY118360A (en) | 1996-04-30 | 2004-10-30 | Nippon Telegraph & Telephone | Scheme for detecting shot boundaries in compressed video data using inter-frame/inter field prediction coding and intra-frame/intra-field coding |
US6002743A (en) | 1996-07-17 | 1999-12-14 | Telymonde; Timothy D. | Method and apparatus for image acquisition from a plurality of cameras |
GB9616262D0 (en) * | 1996-08-02 | 1996-09-11 | Philips Electronics Nv | Post-processing generation of focus/defocus effects for computer graphics images |
US6141048A (en) | 1996-08-19 | 2000-10-31 | Eastman Kodak Company | Compact image capture device |
US6137535A (en) | 1996-11-04 | 2000-10-24 | Eastman Kodak Company | Compact digital camera with segmented fields of view |
US5808350A (en) | 1997-01-03 | 1998-09-15 | Raytheon Company | Integrated IR, visible and NIR sensor and methods of fabricating same |
JPH10232626A (ja) | 1997-02-20 | 1998-09-02 | Canon Inc | 立体画像表示装置 |
JPH10253351A (ja) | 1997-03-14 | 1998-09-25 | Kyocera Corp | 測距装置 |
US5801919A (en) | 1997-04-04 | 1998-09-01 | Gateway 2000, Inc. | Adjustably mounted camera assembly for portable computers |
US6097394A (en) | 1997-04-28 | 2000-08-01 | Board Of Trustees, Leland Stanford, Jr. University | Method and system for light field rendering |
US6515701B2 (en) | 1997-07-24 | 2003-02-04 | Polaroid Corporation | Focal plane exposure control system for CMOS area image sensors |
US6563537B1 (en) | 1997-07-31 | 2003-05-13 | Fuji Photo Film Co., Ltd. | Image signal interpolation |
JP3430935B2 (ja) | 1997-10-20 | 2003-07-28 | 富士ゼロックス株式会社 | 画像読取装置及びレンズ |
NO305728B1 (no) | 1997-11-14 | 1999-07-12 | Reidar E Tangen | Optoelektronisk kamera og fremgangsmÕte ved bildeformatering i samme |
JP4243779B2 (ja) | 1997-11-14 | 2009-03-25 | 株式会社ニコン | 拡散板の製造方法および拡散板、並びにマイクロレンズアレイの製造方法およびマイクロレンズアレイ |
US6069365A (en) | 1997-11-25 | 2000-05-30 | Alan Y. Chow | Optical processor based imaging system |
JPH11242189A (ja) | 1997-12-25 | 1999-09-07 | Olympus Optical Co Ltd | 像形成法、像形成装置 |
US6721008B2 (en) | 1998-01-22 | 2004-04-13 | Eastman Kodak Company | Integrated CMOS active pixel digital camera |
US6833863B1 (en) | 1998-02-06 | 2004-12-21 | Intel Corporation | Method and apparatus for still image capture during video streaming operations of a tethered digital camera |
JPH11223708A (ja) | 1998-02-09 | 1999-08-17 | Nikon Corp | 圧子およびマイクロ光学素子アレイの製造方法 |
US6054703A (en) | 1998-03-20 | 2000-04-25 | Syscan, Inc. | Sensing module for accelerating signal readout from image sensors |
US6160909A (en) | 1998-04-01 | 2000-12-12 | Canon Kabushiki Kaisha | Depth control for stereoscopic images |
KR100307883B1 (ko) | 1998-04-13 | 2001-10-19 | 박호군 | 정합화소수를이용한유사도측정방법및이를구현하기위한장치 |
JP3745117B2 (ja) | 1998-05-08 | 2006-02-15 | キヤノン株式会社 | 画像処理装置及び画像処理方法 |
JP3931936B2 (ja) | 1998-05-11 | 2007-06-20 | セイコーエプソン株式会社 | マイクロレンズアレイ基板及びその製造方法並びに表示装置 |
JP3284190B2 (ja) | 1998-05-14 | 2002-05-20 | 富士重工業株式会社 | ステレオカメラの画像補正装置 |
US6205241B1 (en) | 1998-06-01 | 2001-03-20 | Canon Kabushiki Kaisha | Compression of stereoscopic images |
US6137100A (en) | 1998-06-08 | 2000-10-24 | Photobit Corporation | CMOS image sensor with different pixel sizes for different colors |
US6069351A (en) | 1998-07-16 | 2000-05-30 | Intel Corporation | Focal plane processor for scaling information from image sensors |
US6903770B1 (en) | 1998-07-27 | 2005-06-07 | Sanyo Electric Co., Ltd. | Digital camera which produces a single image based on two exposures |
JP2000055658A (ja) * | 1998-08-06 | 2000-02-25 | Sony Corp | 画像処理装置および方法、並びに提供媒体 |
US6340994B1 (en) | 1998-08-12 | 2002-01-22 | Pixonics, Llc | System and method for using temporal gamma and reverse super-resolution to process images for use in digital display systems |
US6269175B1 (en) | 1998-08-28 | 2001-07-31 | Sarnoff Corporation | Method and apparatus for enhancing regions of aligned images using flow estimation |
EP1418766A3 (en) * | 1998-08-28 | 2010-03-24 | Imax Corporation | Method and apparatus for processing images |
US6879735B1 (en) | 1998-09-14 | 2005-04-12 | University Of Utah Reasearch Foundation | Method of digital image enhancement and sharpening |
US6310650B1 (en) | 1998-09-23 | 2001-10-30 | Honeywell International Inc. | Method and apparatus for calibrating a tiled display |
GB2343320B (en) | 1998-10-31 | 2003-03-26 | Ibm | Camera system for three dimentional images and video |
JP3596314B2 (ja) | 1998-11-02 | 2004-12-02 | 日産自動車株式会社 | 物体端の位置計測装置および移動体の通行判断装置 |
US6611289B1 (en) | 1999-01-15 | 2003-08-26 | Yanbin Yu | Digital cameras using multiple sensors with multiple lenses |
JP3875423B2 (ja) | 1999-01-19 | 2007-01-31 | 日本放送協会 | 固体撮像素子およびそれ用の映像信号出力装置 |
US6603513B1 (en) * | 1999-02-16 | 2003-08-05 | Micron Technology, Inc. | Using a single control line to provide select and reset signals to image sensors in two rows of a digital imaging device |
JP3634677B2 (ja) | 1999-02-19 | 2005-03-30 | キヤノン株式会社 | 画像の補間方法、画像処理方法、画像表示方法、画像処理装置、画像表示装置、及びコンピュータプログラム記憶媒体 |
US6563540B2 (en) | 1999-02-26 | 2003-05-13 | Intel Corporation | Light sensor with increased dynamic range |
US20020063807A1 (en) | 1999-04-19 | 2002-05-30 | Neal Margulis | Method for Performing Image Transforms in a Digital Display System |
US6819358B1 (en) | 1999-04-26 | 2004-11-16 | Microsoft Corporation | Error calibration for digital image sensors and apparatus using the same |
US6292713B1 (en) | 1999-05-20 | 2001-09-18 | Compaq Computer Corporation | Robotic telepresence system |
US6864916B1 (en) | 1999-06-04 | 2005-03-08 | The Trustees Of Columbia University In The City Of New York | Apparatus and method for high dynamic range imaging using spatially varying exposures |
JP2001008235A (ja) | 1999-06-25 | 2001-01-12 | Minolta Co Ltd | 3次元データの再構成のための画像入力方法及び多眼式データ入力装置 |
JP2001042042A (ja) | 1999-07-27 | 2001-02-16 | Canon Inc | 撮像装置 |
US6801653B1 (en) | 1999-08-05 | 2004-10-05 | Sony Corporation | Information processing apparatus and method as well as medium |
US7015954B1 (en) | 1999-08-09 | 2006-03-21 | Fuji Xerox Co., Ltd. | Automatic video system using multiple cameras |
US6647142B1 (en) | 1999-08-19 | 2003-11-11 | Mitsubishi Electric Research Laboratories, Inc. | Badge identification system |
US6771833B1 (en) | 1999-08-20 | 2004-08-03 | Eastman Kodak Company | Method and system for enhancing digital images |
US6628330B1 (en) | 1999-09-01 | 2003-09-30 | Neomagic Corp. | Color interpolator and horizontal/vertical edge enhancer using two line buffer and alternating even/odd filters for digital camera |
US6358862B1 (en) | 1999-09-02 | 2002-03-19 | Micron Technology, Inc | Passivation integrity improvements |
JP3280001B2 (ja) | 1999-09-16 | 2002-04-30 | 富士重工業株式会社 | ステレオ画像の位置ずれ調整装置 |
US6639596B1 (en) | 1999-09-20 | 2003-10-28 | Microsoft Corporation | Stereo reconstruction from multiperspective panoramas |
US6628845B1 (en) | 1999-10-20 | 2003-09-30 | Nec Laboratories America, Inc. | Method for subpixel registration of images |
US6774941B1 (en) | 1999-10-26 | 2004-08-10 | National Semiconductor Corporation | CCD output processing stage that amplifies signals from colored pixels based on the conversion efficiency of the colored pixels |
US6671399B1 (en) | 1999-10-27 | 2003-12-30 | Canon Kabushiki Kaisha | Fast epipolar line adjustment of stereo pairs |
US6674892B1 (en) | 1999-11-01 | 2004-01-06 | Canon Kabushiki Kaisha | Correcting an epipolar axis for skew and offset |
JP2001195050A (ja) | 1999-11-05 | 2001-07-19 | Mitsubishi Electric Corp | グラフィックアクセラレータ |
WO2001039512A1 (en) | 1999-11-26 | 2001-05-31 | Sanyo Electric Co., Ltd. | Device and method for converting two-dimensional video to three-dimensional video |
JP3950926B2 (ja) | 1999-11-30 | 2007-08-01 | エーユー オプトロニクス コーポレイション | 画像表示方法、ホスト装置、画像表示装置、およびディスプレイ用インターフェイス |
JP3728160B2 (ja) * | 1999-12-06 | 2005-12-21 | キヤノン株式会社 | 奥行き画像計測装置及び方法、並びに複合現実感提示システム |
US7068851B1 (en) | 1999-12-10 | 2006-06-27 | Ricoh Co., Ltd. | Multiscale sharpening and smoothing with wavelets |
FI107680B (fi) | 1999-12-22 | 2001-09-14 | Nokia Oyj | Menetelmä videokuvien lähettämiseksi, tiedonsiirtojärjestelmä, lähettävä videopäätelaite ja vastaanottava videopäätelaite |
US6476805B1 (en) | 1999-12-23 | 2002-11-05 | Microsoft Corporation | Techniques for spatial displacement estimation and multi-resolution operations on light fields |
US6502097B1 (en) | 1999-12-23 | 2002-12-31 | Microsoft Corporation | Data structure for efficient access to variable-size data objects |
JP2001194114A (ja) | 2000-01-14 | 2001-07-19 | Sony Corp | 画像処理装置および画像処理方法、並びにプログラム提供媒体 |
JP2003522576A (ja) | 2000-02-18 | 2003-07-29 | ウィリアム・ボーモント・ホスピタル | 平坦なパネル画像装置を有するコーンビームコンピュータ断層撮像装置 |
US6523046B2 (en) | 2000-02-25 | 2003-02-18 | Microsoft Corporation | Infrastructure and method for supporting generic multimedia metadata |
JP2001264033A (ja) | 2000-03-17 | 2001-09-26 | Sony Corp | 三次元形状計測装置とその方法、三次元モデリング装置とその方法、およびプログラム提供媒体 |
US6571466B1 (en) | 2000-03-27 | 2003-06-03 | Amkor Technology, Inc. | Flip chip image sensor package fabrication method |
JP2001277260A (ja) | 2000-03-30 | 2001-10-09 | Seiko Epson Corp | マイクロレンズアレイ、その製造方法及びその製造用原盤並びに表示装置 |
WO2001075949A1 (fr) | 2000-04-04 | 2001-10-11 | Advantest Corporation | Appareil d'exposition multifaisceau comprenant une lentille electronique multiaxe, et procede de fabrication d'un dispositif a semi-conducteur |
WO2001082593A1 (en) | 2000-04-24 | 2001-11-01 | The Government Of The United States Of America, As Represented By The Secretary Of The Navy | Apparatus and method for color image fusion |
JP2001337263A (ja) | 2000-05-25 | 2001-12-07 | Olympus Optical Co Ltd | 測距装置 |
JP4501239B2 (ja) | 2000-07-13 | 2010-07-14 | ソニー株式会社 | カメラ・キャリブレーション装置及び方法、並びに、記憶媒体 |
CN1451230A (zh) | 2000-07-21 | 2003-10-22 | 纽约市哥伦比亚大学托管会 | 图象拼合方法与设备 |
US7245761B2 (en) | 2000-07-21 | 2007-07-17 | Rahul Swaminathan | Method and apparatus for reducing distortion in images |
US7154546B1 (en) | 2000-08-07 | 2006-12-26 | Micron Technology, Inc. | Pixel optimization for color |
EP1185112B1 (en) | 2000-08-25 | 2005-12-14 | Fuji Photo Film Co., Ltd. | Apparatus for parallax image capturing and parallax image processing |
US7085409B2 (en) | 2000-10-18 | 2006-08-01 | Sarnoff Corporation | Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery |
US6734905B2 (en) | 2000-10-20 | 2004-05-11 | Micron Technology, Inc. | Dynamic range extension for CMOS image sensors |
US6774889B1 (en) | 2000-10-24 | 2004-08-10 | Microsoft Corporation | System and method for transforming an ordinary computer monitor screen into a touch screen |
US7262799B2 (en) | 2000-10-25 | 2007-08-28 | Canon Kabushiki Kaisha | Image sensing apparatus and its control method, control program, and storage medium |
US6476971B1 (en) | 2000-10-31 | 2002-11-05 | Eastman Kodak Company | Method of manufacturing a microlens array mold and a microlens array |
JP3918499B2 (ja) | 2000-11-01 | 2007-05-23 | セイコーエプソン株式会社 | 間隙測定方法、間隙測定装置、形状測定方法、形状測定装置並びに液晶装置の製造方法 |
US6573912B1 (en) | 2000-11-07 | 2003-06-03 | Zaxel Systems, Inc. | Internet system for virtual telepresence |
US6788338B1 (en) | 2000-11-20 | 2004-09-07 | Petko Dimitrov Dinev | High resolution video camera apparatus having two image sensors and signal processing |
US7490774B2 (en) | 2003-11-13 | 2009-02-17 | Metrologic Instruments, Inc. | Hand-supportable imaging based bar code symbol reader employing automatic light exposure measurement and illumination control subsystem integrated therein |
JP2002171537A (ja) | 2000-11-30 | 2002-06-14 | Canon Inc | 複眼撮像系、撮像装置および電子機器 |
ATE552572T1 (de) | 2000-12-01 | 2012-04-15 | Imax Corp | Verfahren und vorrichtung zum erzeugen hochauflösender bilder |
CA2436607A1 (en) | 2000-12-05 | 2002-06-13 | Yeda Research And Development Co. Ltd. | Apparatus and method for alignment of spatial or temporal non-overlapping image sequences |
JP2002252338A (ja) | 2000-12-18 | 2002-09-06 | Canon Inc | 撮像装置及び撮像システム |
JP2002195910A (ja) | 2000-12-26 | 2002-07-10 | Omron Corp | 光学部品の検査装置 |
JP2002209226A (ja) | 2000-12-28 | 2002-07-26 | Canon Inc | 撮像装置 |
US7805680B2 (en) | 2001-01-03 | 2010-09-28 | Nokia Corporation | Statistical metering and filtering of content via pixel-based metadata |
JP3957460B2 (ja) | 2001-01-15 | 2007-08-15 | 沖電気工業株式会社 | 伝送ヘッダ圧縮装置、動画像符号化装置及び動画像伝送システム |
JP2002250607A (ja) | 2001-02-27 | 2002-09-06 | Optex Co Ltd | 物体検知センサ |
US6635941B2 (en) | 2001-03-21 | 2003-10-21 | Canon Kabushiki Kaisha | Structure of semiconductor device with improved reliability |
JP2002324743A (ja) | 2001-04-24 | 2002-11-08 | Canon Inc | 露光方法及び装置 |
US6443579B1 (en) | 2001-05-02 | 2002-09-03 | Kenneth Myers | Field-of-view controlling arrangements |
US20020167537A1 (en) | 2001-05-11 | 2002-11-14 | Miroslav Trajkovic | Motion-based tracking with pan-tilt-zoom camera |
US7235785B2 (en) | 2001-05-11 | 2007-06-26 | Irvine Sensors Corp. | Imaging device with multiple fields of view incorporating memory-based temperature compensation of an uncooled focal plane array |
US20020190991A1 (en) | 2001-05-16 | 2002-12-19 | Daniel Efran | 3-D instant replay system and method |
US7738013B2 (en) | 2001-05-29 | 2010-06-15 | Samsung Electronics Co., Ltd. | Systems and methods for power conservation in a CMOS imager |
US7420602B2 (en) | 2001-05-29 | 2008-09-02 | Samsung Semiconductor Israel R&D Center (Sirc) | Cmos imager for cellular applications and methods of using such |
US6482669B1 (en) | 2001-05-30 | 2002-11-19 | Taiwan Semiconductor Manufacturing Company | Colors only process to reduce package yield loss |
US6525302B2 (en) | 2001-06-06 | 2003-02-25 | The Regents Of The University Of Colorado | Wavefront coding phase contrast imaging systems |
DE10137570A1 (de) * | 2001-07-30 | 2003-02-27 | Infineon Technologies Ag | Verfahren und Vorrichtung zur Herstellung mindestens einer Vertiefung in einem Halbleitermaterial |
US7113634B2 (en) | 2001-07-31 | 2006-09-26 | Canon Kabushiki Kaisha | Stereoscopic image forming apparatus, stereoscopic image forming method, stereoscopic image forming system and stereoscopic image forming program |
US20030025227A1 (en) | 2001-08-02 | 2003-02-06 | Zograph, Llc | Reproduction of relief patterns |
US8675119B2 (en) | 2001-08-09 | 2014-03-18 | Trustees Of Columbia University In The City Of New York | Adaptive imaging using digital light processing |
DE60141901D1 (de) | 2001-08-31 | 2010-06-02 | St Microelectronics Srl | Störschutzfilter für Bayermusterbilddaten |
JP3978706B2 (ja) | 2001-09-20 | 2007-09-19 | セイコーエプソン株式会社 | 微細構造体の製造方法 |
JP2003139910A (ja) | 2001-10-30 | 2003-05-14 | Sony Corp | 光学素子、その製造方法およびその製造装置、並びにそれを用いた液晶表示装置および画像投影型表示装置 |
DE10153237A1 (de) | 2001-10-31 | 2003-05-15 | Lfk Gmbh | Verfahren und Vorrichtung zur automatisierten Bestimmung der Modulations-Transfer-Funktion (MTF) von Focal-Plane-Array (FPA)- Kameras |
JP3705766B2 (ja) | 2001-11-28 | 2005-10-12 | 独立行政法人科学技術振興機構 | 画像入力装置 |
WO2003052465A2 (en) | 2001-12-18 | 2003-06-26 | University Of Rochester | Multifocal aspheric lens obtaining extended field depth |
US7212228B2 (en) | 2002-01-16 | 2007-05-01 | Advanced Telecommunications Research Institute International | Automatic camera calibration method |
US7302118B2 (en) | 2002-02-07 | 2007-11-27 | Microsoft Corporation | Transformation of images |
US20030179418A1 (en) | 2002-03-19 | 2003-09-25 | Eastman Kodak Company | Producing a defective pixel map from defective cluster pixels in an area array image sensor |
US8369607B2 (en) | 2002-03-27 | 2013-02-05 | Sanyo Electric Co., Ltd. | Method and apparatus for processing three-dimensional images |
JP2003298920A (ja) | 2002-03-29 | 2003-10-17 | Fuji Photo Film Co Ltd | デジタルカメラ |
US20030188659A1 (en) | 2002-04-05 | 2003-10-09 | Canadian Bank Note Company Limited | Method and apparatus for reproducing a color image based on monochrome images derived therefrom |
AU2003226047A1 (en) | 2002-04-10 | 2003-10-27 | Pan-X Imaging, Inc. | A digital imaging system |
US6856314B2 (en) | 2002-04-18 | 2005-02-15 | Stmicroelectronics, Inc. | Method and system for 3D reconstruction of multiple views with altering search path and occlusion modeling |
US6917702B2 (en) | 2002-04-24 | 2005-07-12 | Mitsubishi Electric Research Labs, Inc. | Calibration of multiple cameras for a turntable-based 3D scanner |
JP3567327B2 (ja) | 2002-05-08 | 2004-09-22 | 富士写真光機株式会社 | 撮像レンズ |
US6783900B2 (en) | 2002-05-13 | 2004-08-31 | Micron Technology, Inc. | Color filter imaging array and method of formation |
JP2004048644A (ja) | 2002-05-21 | 2004-02-12 | Sony Corp | 情報処理装置、情報処理システム、及び対話者表示方法 |
JP2003347192A (ja) | 2002-05-24 | 2003-12-05 | Toshiba Corp | エネルギービーム露光方法および露光装置 |
US7129981B2 (en) | 2002-06-27 | 2006-10-31 | International Business Machines Corporation | Rendering system and method for images having differing foveal area and peripheral view area resolutions |
JP2004088713A (ja) | 2002-06-27 | 2004-03-18 | Olympus Corp | 撮像レンズユニットおよび撮像装置 |
JP4147059B2 (ja) | 2002-07-03 | 2008-09-10 | 株式会社トプコン | キャリブレーション用データ測定装置、測定方法及び測定プログラム、並びにコンピュータ読取可能な記録媒体、画像データ処理装置 |
JP2004037924A (ja) | 2002-07-04 | 2004-02-05 | Minolta Co Ltd | 撮像装置 |
AU2003242974A1 (en) | 2002-07-15 | 2004-02-02 | Magna B.S.P. Ltd. | Method and apparatus for implementing multipurpose monitoring system |
US20040012689A1 (en) | 2002-07-16 | 2004-01-22 | Fairchild Imaging | Charge coupled devices in tiled arrays |
JP2004078296A (ja) | 2002-08-09 | 2004-03-11 | Victor Co Of Japan Ltd | 画像生成装置 |
US20070166447A1 (en) | 2002-08-27 | 2007-07-19 | Select Milk Producers, Inc. | Dairy compositions and method of making |
US7639838B2 (en) | 2002-08-30 | 2009-12-29 | Jerry C Nims | Multi-dimensional images system for digital image input and output |
US7447380B2 (en) | 2002-09-12 | 2008-11-04 | Inoe Technologies, Llc | Efficient method for creating a viewpoint from plurality of images |
US20040050104A1 (en) | 2002-09-18 | 2004-03-18 | Eastman Kodak Company | Forming information transfer lens array |
US20040207836A1 (en) | 2002-09-27 | 2004-10-21 | Rajeshwar Chhibber | High dynamic range optical inspection system and method |
US7084904B2 (en) | 2002-09-30 | 2006-08-01 | Microsoft Corporation | Foveated wide-angle imaging system and method for capturing and viewing wide-angle images in real time |
US7477781B1 (en) | 2002-10-10 | 2009-01-13 | Dalsa Corporation | Method and apparatus for adaptive pixel correction of multi-color matrix |
US20040075654A1 (en) | 2002-10-16 | 2004-04-22 | Silicon Integrated Systems Corp. | 3-D digital image processor and method for visibility processing for use in the same |
JP4171786B2 (ja) | 2002-10-25 | 2008-10-29 | コニカミノルタホールディングス株式会社 | 画像入力装置 |
US7742088B2 (en) | 2002-11-19 | 2010-06-22 | Fujifilm Corporation | Image sensor and digital camera |
CA2506608C (en) | 2002-11-21 | 2013-01-22 | Vision Iii Imaging, Inc. | Critical alignment of parallax images for autostereoscopic display |
US20040105021A1 (en) | 2002-12-02 | 2004-06-03 | Bolymedia Holdings Co., Ltd. | Color filter patterns for image sensors |
US20040114807A1 (en) | 2002-12-13 | 2004-06-17 | Dan Lelescu | Statistical representation and coding of light field data |
US6878918B2 (en) | 2003-01-09 | 2005-04-12 | Dialdg Semiconductor Gmbh | APS pixel with reset noise suppression and programmable binning capability |
US7340099B2 (en) | 2003-01-17 | 2008-03-04 | University Of New Brunswick | System and method for image fusion |
DE10301941B4 (de) | 2003-01-20 | 2005-11-17 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Kamera und Verfahren zur optischen Aufnahme eines Schirms |
US7379592B2 (en) | 2003-01-21 | 2008-05-27 | United States Of America As Represented By The Secretary Of The Navy | System and method for significant dust detection and enhancement of dust images over land and ocean |
AU2003272936A1 (en) | 2003-01-31 | 2004-08-23 | The Circle For The Promotion Of Science And Engineering | Method for creating high resolution color image, system for creating high resolution color image and program for creating high resolution color image |
US7005637B2 (en) | 2003-01-31 | 2006-02-28 | Intevac, Inc. | Backside thinning of image array devices |
US7308157B2 (en) | 2003-02-03 | 2007-12-11 | Photon Dynamics, Inc. | Method and apparatus for optical inspection of a display |
US7595817B1 (en) | 2003-02-12 | 2009-09-29 | The Research Foundation Of State University Of New York | Linear system based, qualitative independent motion detection from compressed MPEG surveillance video |
US20040165090A1 (en) | 2003-02-13 | 2004-08-26 | Alex Ning | Auto-focus (AF) lens and process |
JP2004266369A (ja) | 2003-02-21 | 2004-09-24 | Sony Corp | 固体撮像装置およびその駆動方法 |
US7106914B2 (en) | 2003-02-27 | 2006-09-12 | Microsoft Corporation | Bayesian image super resolution |
US7148861B2 (en) | 2003-03-01 | 2006-12-12 | The Boeing Company | Systems and methods for providing enhanced vision imaging with decreased latency |
US8218052B2 (en) | 2003-03-07 | 2012-07-10 | Iconix Video, Inc. | High frame rate high definition imaging system and method |
US7218320B2 (en) | 2003-03-13 | 2007-05-15 | Sony Corporation | System and method for capturing facial and body motion |
US6801719B1 (en) | 2003-03-14 | 2004-10-05 | Eastman Kodak Company | Camera using beam splitter with micro-lens image amplification |
US7206449B2 (en) | 2003-03-19 | 2007-04-17 | Mitsubishi Electric Research Laboratories, Inc. | Detecting silhouette edges in images |
US7425984B2 (en) | 2003-04-04 | 2008-09-16 | Stmicroelectronics, Inc. | Compound camera and methods for implementing auto-focus, depth-of-field and high-resolution functions |
US7373005B2 (en) | 2003-04-10 | 2008-05-13 | Micron Technology, Inc. | Compression system for integrated sensor devices |
US7097311B2 (en) | 2003-04-19 | 2006-08-29 | University Of Kentucky Research Foundation | Super-resolution overlay in multi-projector displays |
US6958862B1 (en) | 2003-04-21 | 2005-10-25 | Foveon, Inc. | Use of a lenslet array with a vertically stacked pixel array |
US7428330B2 (en) | 2003-05-02 | 2008-09-23 | Microsoft Corporation | Cyclopean virtual imaging via generalized probabilistic smoothing |
SE525665C2 (sv) | 2003-05-08 | 2005-03-29 | Forskarpatent I Syd Ab | Matris av pixlar samt elektronisk bildanordning innefattande nämnda matris av pixlar |
WO2004102958A1 (en) | 2003-05-13 | 2004-11-25 | Xceed Imaging Ltd. | Optical method and system for enhancing image resolution |
JP2004348674A (ja) | 2003-05-26 | 2004-12-09 | Noritsu Koki Co Ltd | 領域検出方法及びその装置 |
US20040239782A1 (en) | 2003-05-30 | 2004-12-02 | William Equitz | System and method for efficient improvement of image quality in cameras |
CN1574894A (zh) | 2003-06-02 | 2005-02-02 | 宾得株式会社 | 多焦距成像装置和具有该多焦距成像装置的移动装置 |
JP2004363478A (ja) | 2003-06-06 | 2004-12-24 | Sanyo Electric Co Ltd | 半導体装置の製造方法 |
KR100539234B1 (ko) | 2003-06-11 | 2005-12-27 | 삼성전자주식회사 | 투명 고분자 소재를 적용한 씨모스형 이미지 센서 모듈 및그 제조방법 |
US7362918B2 (en) | 2003-06-24 | 2008-04-22 | Microsoft Corporation | System and method for de-noising multiple copies of a signal |
US6818934B1 (en) | 2003-06-24 | 2004-11-16 | Omnivision International Holding Ltd | Image sensor having micro-lens array separated with trench structures and method of making |
US7388609B2 (en) | 2003-07-07 | 2008-06-17 | Zoran Corporation | Dynamic identification and correction of defective pixels |
US7090135B2 (en) | 2003-07-07 | 2006-08-15 | Symbol Technologies, Inc. | Imaging arrangement and barcode imager for imaging an optical code or target at a plurality of focal planes |
US20050007461A1 (en) | 2003-07-11 | 2005-01-13 | Novatek Microelectronic Co. | Correction system and method of analog front end |
JP3731589B2 (ja) | 2003-07-18 | 2006-01-05 | ソニー株式会社 | 撮像装置と同期信号発生装置 |
US7233737B2 (en) | 2003-08-12 | 2007-06-19 | Micron Technology, Inc. | Fixed-focus camera module and associated method of assembly |
US7643703B2 (en) | 2003-09-03 | 2010-01-05 | Battelle Energy Alliance, Llc | Image change detection systems, methods, and articles of manufacture |
US20050084179A1 (en) | 2003-09-04 | 2005-04-21 | Keith Hanna | Method and apparatus for performing iris recognition from an image |
US7161606B2 (en) | 2003-09-08 | 2007-01-09 | Honda Motor Co., Ltd. | Systems and methods for directly generating a view using a layered approach |
JP4015090B2 (ja) * | 2003-09-08 | 2007-11-28 | 株式会社東芝 | 立体表示装置および画像表示方法 |
JP4020850B2 (ja) | 2003-10-06 | 2007-12-12 | 株式会社東芝 | 磁気記録媒体の製造方法、製造装置、インプリントスタンパ及びその製造方法 |
US7079251B2 (en) | 2003-10-16 | 2006-07-18 | 4D Technology Corporation | Calibration and error correction in multi-channel imaging |
WO2005041562A1 (ja) | 2003-10-22 | 2005-05-06 | Matsushita Electric Industrial Co., Ltd. | 撮像装置とその製造方法、携帯機器、及び撮像素子とその製造方法 |
US7840067B2 (en) | 2003-10-24 | 2010-11-23 | Arcsoft, Inc. | Color matching and color correction for images forming a panoramic image |
CN1875638A (zh) | 2003-11-11 | 2006-12-06 | 奥林巴斯株式会社 | 多谱图像捕捉装置 |
JP4235539B2 (ja) | 2003-12-01 | 2009-03-11 | 独立行政法人科学技術振興機構 | 画像構成装置及び画像構成方法 |
US7453510B2 (en) | 2003-12-11 | 2008-11-18 | Nokia Corporation | Imaging device |
US7328288B2 (en) | 2003-12-11 | 2008-02-05 | Canon Kabushiki Kaisha | Relay apparatus for relaying communication from CPU to peripheral device |
US20050128509A1 (en) | 2003-12-11 | 2005-06-16 | Timo Tokkonen | Image creating method and imaging device |
JP3859158B2 (ja) | 2003-12-16 | 2006-12-20 | セイコーエプソン株式会社 | マイクロレンズ用凹部付き基板、マイクロレンズ基板、透過型スクリーン、およびリア型プロジェクタ |
US7511749B2 (en) | 2003-12-18 | 2009-03-31 | Aptina Imaging Corporation | Color image sensor having imaging element array forming images on respective regions of sensor elements |
US7123298B2 (en) | 2003-12-18 | 2006-10-17 | Avago Technologies Sensor Ip Pte. Ltd. | Color image sensor with imaging elements imaging on respective regions of sensor elements |
WO2005065085A2 (en) * | 2003-12-21 | 2005-07-21 | Kremen Stanley H | System and apparatus for recording, transmitting, and projecting digital three-dimensional images |
US7376250B2 (en) | 2004-01-05 | 2008-05-20 | Honda Motor Co., Ltd. | Apparatus, method and program for moving object detection |
US7496293B2 (en) | 2004-01-14 | 2009-02-24 | Elbit Systems Ltd. | Versatile camera for various visibility conditions |
US7773143B2 (en) | 2004-04-08 | 2010-08-10 | Tessera North America, Inc. | Thin color camera having sub-pixel resolution |
US8134637B2 (en) | 2004-01-28 | 2012-03-13 | Microsoft Corporation | Method and system to increase X-Y resolution in a depth (Z) camera using red, blue, green (RGB) sensing |
US7453688B2 (en) | 2004-01-29 | 2008-11-18 | Inventec Corporation | Multimedia device for portable computers |
US20050185711A1 (en) | 2004-02-20 | 2005-08-25 | Hanspeter Pfister | 3D television system and method |
SE527889C2 (sv) | 2004-03-17 | 2006-07-04 | Thomas Jeff Adamo | Apparat för avbildning av ett objekt |
JP2006047944A (ja) | 2004-03-24 | 2006-02-16 | Fuji Photo Film Co Ltd | 撮影レンズ |
JP4468442B2 (ja) | 2004-03-31 | 2010-05-26 | キヤノン株式会社 | イメージングシステム性能測定 |
US7633511B2 (en) | 2004-04-01 | 2009-12-15 | Microsoft Corporation | Pop-up light field |
JP4665422B2 (ja) | 2004-04-02 | 2011-04-06 | ソニー株式会社 | 撮像装置 |
US8634014B2 (en) | 2004-04-05 | 2014-01-21 | Hewlett-Packard Development Company, L.P. | Imaging device analysis systems and imaging device analysis methods |
US7091531B2 (en) | 2004-04-07 | 2006-08-15 | Micron Technology, Inc. | High dynamic range pixel amplifier |
US8049806B2 (en) | 2004-09-27 | 2011-11-01 | Digitaloptics Corporation East | Thin camera and associated methods |
US7620265B1 (en) | 2004-04-12 | 2009-11-17 | Equinox Corporation | Color invariant image fusion of visible and thermal infrared video |
JP2005303694A (ja) | 2004-04-13 | 2005-10-27 | Konica Minolta Holdings Inc | 複眼撮像装置 |
US7292735B2 (en) | 2004-04-16 | 2007-11-06 | Microsoft Corporation | Virtual image artifact detection |
US7773404B2 (en) | 2005-01-07 | 2010-08-10 | Invisage Technologies, Inc. | Quantum dot optical devices with enhanced gain and sensitivity and methods of making same |
US8218625B2 (en) | 2004-04-23 | 2012-07-10 | Dolby Laboratories Licensing Corporation | Encoding, decoding and representing high dynamic range images |
US20060034531A1 (en) | 2004-05-10 | 2006-02-16 | Seiko Epson Corporation | Block noise level evaluation method for compressed images and control method of imaging device utilizing the evaluation method |
EP1750584B1 (en) | 2004-05-14 | 2020-10-14 | Philips Intellectual Property & Standards GmbH | System and method for diagnosing breast cancer |
JP4610411B2 (ja) | 2004-05-17 | 2011-01-12 | ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド | 物体を含むシーンの様式化された画像を生成する方法 |
US7355793B2 (en) | 2004-05-19 | 2008-04-08 | The Regents Of The University Of California | Optical system applicable to improving the dynamic range of Shack-Hartmann sensors |
WO2006083277A2 (en) | 2004-05-25 | 2006-08-10 | Sarnoff Corporation | Low latency pyramid processor for image processing systems |
JP2005354124A (ja) | 2004-06-08 | 2005-12-22 | Seiko Epson Corp | 複数の低画素密度画像からの高画素密度画像の生成 |
US20060013318A1 (en) | 2004-06-22 | 2006-01-19 | Jennifer Webb | Video error detection, recovery, and concealment |
US7330593B2 (en) | 2004-06-25 | 2008-02-12 | Stmicroelectronics, Inc. | Segment based image matching method and system |
JP4408755B2 (ja) | 2004-06-28 | 2010-02-03 | Necエレクトロニクス株式会社 | デインタリーブ装置、移動通信端末及びデインタリーブ方法 |
JP4479373B2 (ja) | 2004-06-28 | 2010-06-09 | ソニー株式会社 | イメージセンサ |
US7447382B2 (en) | 2004-06-30 | 2008-11-04 | Intel Corporation | Computing a higher resolution image from multiple lower resolution images using model-based, robust Bayesian estimation |
JP2006033228A (ja) | 2004-07-14 | 2006-02-02 | Victor Co Of Japan Ltd | 画像撮像装置 |
JP2006033493A (ja) | 2004-07-16 | 2006-02-02 | Matsushita Electric Ind Co Ltd | 撮像装置 |
US7189954B2 (en) | 2004-07-19 | 2007-03-13 | Micron Technology, Inc. | Microelectronic imagers with optical devices and methods of manufacturing such microelectronic imagers |
JP2006033570A (ja) | 2004-07-20 | 2006-02-02 | Olympus Corp | 画像生成装置 |
US8027531B2 (en) | 2004-07-21 | 2011-09-27 | The Board Of Trustees Of The Leland Stanford Junior University | Apparatus and method for capturing a scene using staggered triggering of dense camera arrays |
GB0416496D0 (en) | 2004-07-23 | 2004-08-25 | Council Of The Central Lab Of | Imaging device |
US20060023197A1 (en) | 2004-07-27 | 2006-02-02 | Joel Andrew H | Method and system for automated production of autostereoscopic and animated prints and transparencies from digital and non-digital media |
US7068432B2 (en) | 2004-07-27 | 2006-06-27 | Micron Technology, Inc. | Controlling lens shape in a microlens array |
DE102004036469A1 (de) | 2004-07-28 | 2006-02-16 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Kameramodul, hierauf basierendes Array und Verfahren zu dessen Herstellung |
US7333652B2 (en) | 2004-08-03 | 2008-02-19 | Sony Corporation | System and method for efficiently performing a depth map recovery procedure |
US20060028476A1 (en) | 2004-08-03 | 2006-02-09 | Irwin Sobel | Method and system for providing extensive coverage of an object using virtual cameras |
JP2006050263A (ja) | 2004-08-04 | 2006-02-16 | Olympus Corp | 画像生成方法および装置 |
US8248458B2 (en) | 2004-08-06 | 2012-08-21 | University Of Washington Through Its Center For Commercialization | Variable fixation viewing distance scanned light displays |
US7430339B2 (en) | 2004-08-09 | 2008-09-30 | Microsoft Corporation | Border matting by dynamic programming |
US7609302B2 (en) | 2004-08-11 | 2009-10-27 | Micron Technology, Inc. | Correction of non-uniform sensitivity in an image array |
US7645635B2 (en) | 2004-08-16 | 2010-01-12 | Micron Technology, Inc. | Frame structure and semiconductor attach process for use therewith for fabrication of image sensor packages and the like, and resulting packages |
US7061693B2 (en) | 2004-08-16 | 2006-06-13 | Xceed Imaging Ltd. | Optical method and system for extended depth of focus |
JP2008511080A (ja) | 2004-08-23 | 2008-04-10 | サーノフ コーポレーション | 融合画像を形成するための方法および装置 |
US7564019B2 (en) | 2005-08-25 | 2009-07-21 | Richard Ian Olsen | Large dynamic range cameras |
US7916180B2 (en) | 2004-08-25 | 2011-03-29 | Protarius Filo Ag, L.L.C. | Simultaneous multiple field of view digital cameras |
US8124929B2 (en) | 2004-08-25 | 2012-02-28 | Protarius Filo Ag, L.L.C. | Imager module optical focus and assembly method |
US7795577B2 (en) | 2004-08-25 | 2010-09-14 | Richard Ian Olsen | Lens frame and optical focus assembly for imager module |
JP4057597B2 (ja) | 2004-08-26 | 2008-03-05 | 独立行政法人科学技術振興機構 | 光学素子 |
CN100489599C (zh) | 2004-08-26 | 2009-05-20 | 财团法人秋田企业活性化中心 | 液晶透镜 |
US20060046204A1 (en) | 2004-08-31 | 2006-03-02 | Sharp Laboratories Of America, Inc. | Directly patternable microlens |
JP2006080852A (ja) | 2004-09-09 | 2006-03-23 | Olympus Corp | 画像処理装置、電子カメラ、スキャナ、画像処理方法、および画像処理プログラム |
US20060055811A1 (en) | 2004-09-14 | 2006-03-16 | Frtiz Bernard S | Imaging system having modules with adaptive optical elements |
US7145124B2 (en) | 2004-09-15 | 2006-12-05 | Raytheon Company | Multispectral imaging chip using photonic crystals |
JP4202991B2 (ja) * | 2004-09-29 | 2008-12-24 | 株式会社東芝 | 立体画像用データの記録方法及び表示再生方法 |
JP3977368B2 (ja) | 2004-09-30 | 2007-09-19 | クラリオン株式会社 | 駐車支援システム |
DE102004049676A1 (de) | 2004-10-12 | 2006-04-20 | Infineon Technologies Ag | Verfahren zur rechnergestützten Bewegungsschätzung in einer Vielzahl von zeitlich aufeinander folgenden digitalen Bildern, Anordnung zur rechnergestützten Bewegungsschätzung, Computerprogramm-Element und computerlesbares Speichermedium |
JP2006119368A (ja) | 2004-10-21 | 2006-05-11 | Konica Minolta Opto Inc | 広角光学系、撮像レンズ装置、モニタカメラ及びデジタル機器 |
JP4534715B2 (ja) | 2004-10-22 | 2010-09-01 | 株式会社ニコン | 撮像装置および画像処理プログラム |
DE102004052994C5 (de) | 2004-11-03 | 2010-08-26 | Vistec Electron Beam Gmbh | Multistrahlmodulator für einen Partikelstrahl und Verwendung des Multistrahlmodulators zur maskenlosen Substratsstrukturierung |
KR100603601B1 (ko) | 2004-11-08 | 2006-07-24 | 한국전자통신연구원 | 다시점 콘텐츠 생성 장치 및 그 방법 |
US7598996B2 (en) | 2004-11-16 | 2009-10-06 | Aptina Imaging Corporation | System and method for focusing a digital camera |
JP2006165795A (ja) | 2004-12-03 | 2006-06-22 | Canon Inc | 画像形成装置およびその方法 |
WO2006060746A2 (en) | 2004-12-03 | 2006-06-08 | Infrared Solutions, Inc. | Visible light and ir combined image camera with a laser pointer |
US7483065B2 (en) | 2004-12-15 | 2009-01-27 | Aptina Imaging Corporation | Multi-lens imaging systems and methods using optical filters having mosaic patterns |
US8854486B2 (en) | 2004-12-17 | 2014-10-07 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for processing multiview videos for view synthesis using skip and direct modes |
US7728878B2 (en) | 2004-12-17 | 2010-06-01 | Mitsubishi Electric Research Labortories, Inc. | Method and system for processing multiview videos for view synthesis using side information |
US20060139475A1 (en) | 2004-12-23 | 2006-06-29 | Esch John W | Multiple field of view camera arrays |
WO2006074310A2 (en) | 2005-01-07 | 2006-07-13 | Gesturetek, Inc. | Creating 3d images of objects by illuminating with infrared patterns |
US7073908B1 (en) | 2005-01-11 | 2006-07-11 | Anthony Italo Provitola | Enhancement of depth perception |
US7767949B2 (en) | 2005-01-18 | 2010-08-03 | Rearden, Llc | Apparatus and method for capturing still images and video using coded aperture techniques |
US7671321B2 (en) | 2005-01-18 | 2010-03-02 | Rearden, Llc | Apparatus and method for capturing still images and video using coded lens imaging techniques |
US7602997B2 (en) | 2005-01-19 | 2009-10-13 | The United States Of America As Represented By The Secretary Of The Army | Method of super-resolving images |
US7408627B2 (en) | 2005-02-08 | 2008-08-05 | Canesta, Inc. | Methods and system to quantify depth data accuracy in three-dimensional sensors using single frame capture |
US7965314B1 (en) | 2005-02-09 | 2011-06-21 | Flir Systems, Inc. | Foveal camera systems and methods |
US7561191B2 (en) | 2005-02-18 | 2009-07-14 | Eastman Kodak Company | Camera phone using multiple lenses and image sensors to provide an extended zoom range |
US20060187322A1 (en) | 2005-02-18 | 2006-08-24 | Janson Wilbert F Jr | Digital camera using multiple fixed focal length lenses and multiple image sensors to provide an extended zoom range |
EP2230482B1 (en) | 2005-03-11 | 2013-10-30 | Creaform Inc. | Auto-referenced system and apparatus for three-dimensional scanning |
JP2006258930A (ja) | 2005-03-15 | 2006-09-28 | Nikon Corp | マイクロレンズの製造方法、及びマイクロレンズ用の型の製造方法 |
WO2006102181A1 (en) | 2005-03-21 | 2006-09-28 | Massachusetts Institute Of Technology (Mit) | Real-time, continuous-wave terahertz imaging using a microbolometer focal-plane array |
US7560684B2 (en) | 2005-03-23 | 2009-07-14 | Panasonic Corporation | On-vehicle imaging device |
JP4545190B2 (ja) | 2005-03-24 | 2010-09-15 | パナソニック株式会社 | 撮像装置 |
US7297917B2 (en) | 2005-03-24 | 2007-11-20 | Micron Technology, Inc. | Readout technique for increasing or maintaining dynamic range in image sensors |
US7683950B2 (en) | 2005-04-26 | 2010-03-23 | Eastman Kodak Company | Method and apparatus for correcting a channel dependent color aberration in a digital image |
US7956871B2 (en) | 2005-04-28 | 2011-06-07 | Samsung Electronics Co., Ltd. | Color disparity correction in image sensors methods and circuits |
US7656428B2 (en) | 2005-05-05 | 2010-02-02 | Avago Technologies General Ip (Singapore) Pte. Ltd. | Imaging device employing optical motion sensor as gyroscope |
EP1882449A4 (en) | 2005-05-18 | 2010-05-05 | Hitachi Medical Corp | RADIOGRAPHY DEVICE AND IMAGE PROCESSING PROGRAM |
US8411182B2 (en) | 2005-06-02 | 2013-04-02 | Xerox Corporation | System for controlling integration times of photosensors in an imaging device |
US7968888B2 (en) | 2005-06-08 | 2011-06-28 | Panasonic Corporation | Solid-state image sensor and manufacturing method thereof |
JP2006345233A (ja) | 2005-06-09 | 2006-12-21 | Fujifilm Holdings Corp | 撮像装置及びデジタルカメラ |
KR100813961B1 (ko) | 2005-06-14 | 2008-03-14 | 삼성전자주식회사 | 영상 수신장치 |
US7364306B2 (en) | 2005-06-20 | 2008-04-29 | Digital Display Innovations, Llc | Field sequential light source modulation for a digital display system |
JP4826152B2 (ja) | 2005-06-23 | 2011-11-30 | 株式会社ニコン | 画像合成方法及び撮像装置 |
US20070102622A1 (en) | 2005-07-01 | 2007-05-10 | Olsen Richard I | Apparatus for multiple camera devices and method of operating same |
JP4577126B2 (ja) | 2005-07-08 | 2010-11-10 | オムロン株式会社 | ステレオ対応づけのための投光パターンの生成装置及び生成方法 |
WO2007014293A1 (en) | 2005-07-25 | 2007-02-01 | The Regents Of The University Of California | Digital imaging system and method to produce mosaic images |
US7718940B2 (en) | 2005-07-26 | 2010-05-18 | Panasonic Corporation | Compound-eye imaging apparatus |
CA2553473A1 (en) | 2005-07-26 | 2007-01-26 | Wa James Tam | Generating a depth map from a tw0-dimensional source image for stereoscopic and multiview imaging |
US7969488B2 (en) | 2005-08-03 | 2011-06-28 | Micron Technologies, Inc. | Correction of cluster defects in imagers |
US7929801B2 (en) | 2005-08-15 | 2011-04-19 | Sony Corporation | Depth information for auto focus using two pictures and two-dimensional Gaussian scale space theory |
US20070041391A1 (en) | 2005-08-18 | 2007-02-22 | Micron Technology, Inc. | Method and apparatus for controlling imager output data rate |
US20070040922A1 (en) | 2005-08-22 | 2007-02-22 | Micron Technology, Inc. | HDR/AB on multi-way shared pixels |
US20070258006A1 (en) | 2005-08-25 | 2007-11-08 | Olsen Richard I | Solid state camera optics frame and assembly |
US7964835B2 (en) | 2005-08-25 | 2011-06-21 | Protarius Filo Ag, L.L.C. | Digital cameras with direct luminance and chrominance detection |
US20070083114A1 (en) | 2005-08-26 | 2007-04-12 | The University Of Connecticut | Systems and methods for image resolution enhancement |
JP4804856B2 (ja) | 2005-09-29 | 2011-11-02 | 富士フイルム株式会社 | 単焦点レンズ |
US8009209B2 (en) | 2005-09-30 | 2011-08-30 | Simon Fraser University | Methods and apparatus for detecting defects in imaging arrays by image analysis |
EP1941314A4 (en) | 2005-10-07 | 2010-04-14 | Univ Leland Stanford Junior | ARRANGEMENTS AND APPROACHES FOR MICROSCOPY |
US8300085B2 (en) | 2005-10-14 | 2012-10-30 | Microsoft Corporation | Occlusion handling in stereo imaging |
JP4773179B2 (ja) | 2005-10-14 | 2011-09-14 | 富士フイルム株式会社 | 撮像装置 |
US7806604B2 (en) | 2005-10-20 | 2010-10-05 | Honeywell International Inc. | Face detection and tracking in a wide field of view |
WO2007052191A2 (en) * | 2005-11-02 | 2007-05-10 | Koninklijke Philips Electronics N.V. | Filling in depth results |
KR100730406B1 (ko) | 2005-11-16 | 2007-06-19 | 광운대학교 산학협력단 | 중간 요소 영상을 이용한 입체 영상 표시 장치 |
JP4389865B2 (ja) | 2005-11-17 | 2009-12-24 | ソニー株式会社 | 固体撮像素子の信号処理装置および信号処理方法並びに撮像装置 |
JP4943695B2 (ja) | 2005-11-21 | 2012-05-30 | 富士フイルム株式会社 | 多焦点カメラの撮影光学系 |
EP1958458B1 (en) | 2005-11-30 | 2016-08-17 | Telecom Italia S.p.A. | Method for determining scattered disparity fields in stereo vision |
US7599547B2 (en) | 2005-11-30 | 2009-10-06 | Microsoft Corporation | Symmetric stereo model for handling occlusion |
JP4516516B2 (ja) | 2005-12-07 | 2010-08-04 | 本田技研工業株式会社 | 人物検出装置、人物検出方法及び人物検出プログラム |
TWI296480B (en) | 2005-12-19 | 2008-05-01 | Quanta Comp Inc | Image camera of an electronic device |
JP4501855B2 (ja) | 2005-12-22 | 2010-07-14 | ソニー株式会社 | 画像信号処理装置、撮像装置、および画像信号処理方法、並びにコンピュータ・プログラム |
JP2007180730A (ja) | 2005-12-27 | 2007-07-12 | Eastman Kodak Co | デジタルカメラおよびデータ管理方法 |
US8089515B2 (en) | 2005-12-30 | 2012-01-03 | Nokia Corporation | Method and device for controlling auto focusing of a video camera by tracking a region-of-interest |
US7855786B2 (en) | 2006-01-09 | 2010-12-21 | Bae Systems Spectral Solutions Llc | Single camera multi-spectral imager |
US7675080B2 (en) | 2006-01-10 | 2010-03-09 | Aptina Imaging Corp. | Uniform color filter arrays in a moat |
JP4147273B2 (ja) | 2006-01-20 | 2008-09-10 | 松下電器産業株式会社 | 複眼方式のカメラモジュール及びその製造方法 |
DE102006004802B4 (de) | 2006-01-23 | 2008-09-25 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Bilderfassungssystem und Verfahren zur Herstellung mindestens eines Bilderfassungssystems |
JP4834412B2 (ja) | 2006-02-03 | 2011-12-14 | 富士フイルム株式会社 | 固体撮像装置およびこれを用いた電子内視鏡 |
US20070201859A1 (en) | 2006-02-24 | 2007-08-30 | Logitech Europe S.A. | Method and system for use of 3D sensors in an image capture device |
US7391572B2 (en) | 2006-03-01 | 2008-06-24 | International Business Machines Corporation | Hybrid optical/electronic structures fabricated by a common molding process |
US7924483B2 (en) | 2006-03-06 | 2011-04-12 | Smith Scott T | Fused multi-array color image sensor |
DE102006011707B4 (de) | 2006-03-14 | 2010-11-18 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren und Vorrichtung zum Erzeugen einer strukturfreien fiberskopischen Aufnahme |
US7616254B2 (en) | 2006-03-16 | 2009-11-10 | Sony Corporation | Simple method for calculating camera defocus from an image scene |
US8360574B2 (en) | 2006-03-20 | 2013-01-29 | High Performance Optics, Inc. | High performance selective light wavelength filtering providing improved contrast sensitivity |
US7606484B1 (en) | 2006-03-23 | 2009-10-20 | Flir Systems, Inc. | Infrared and near-infrared camera hyperframing |
JP4615468B2 (ja) | 2006-03-23 | 2011-01-19 | 富士フイルム株式会社 | 撮影装置 |
CN101046882A (zh) | 2006-03-27 | 2007-10-03 | 谷京陆 | 可直接输出的混合分辨率图像制作技术 |
US7342212B2 (en) | 2006-03-31 | 2008-03-11 | Micron Technology, Inc. | Analog vertical sub-sampling in an active pixel sensor (APS) image sensor |
US8044994B2 (en) | 2006-04-04 | 2011-10-25 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for decoding and displaying 3D light fields |
US7916934B2 (en) | 2006-04-04 | 2011-03-29 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for acquiring, encoding, decoding and displaying 3D light fields |
TW200740212A (en) | 2006-04-10 | 2007-10-16 | Sony Taiwan Ltd | A stitching accuracy improvement method with lens distortion correction |
US20070242141A1 (en) | 2006-04-14 | 2007-10-18 | Sony Corporation And Sony Electronics Inc. | Adjustable neutral density filter system for dynamic range compression from scene to imaging sensor |
CN101064780B (zh) | 2006-04-30 | 2012-07-04 | 台湾新力国际股份有限公司 | 利用透镜失真校正的影像接合准确度改善方法及装置 |
US20070263114A1 (en) | 2006-05-01 | 2007-11-15 | Microalign Technologies, Inc. | Ultra-thin digital imaging device of high resolution for mobile electronic devices and method of imaging |
US7580620B2 (en) | 2006-05-08 | 2009-08-25 | Mitsubishi Electric Research Laboratories, Inc. | Method for deblurring images using optimized temporal coding patterns |
US9736346B2 (en) | 2006-05-09 | 2017-08-15 | Stereo Display, Inc | Imaging system improving image resolution of the system with low resolution image sensor |
US7889264B2 (en) | 2006-05-12 | 2011-02-15 | Ricoh Co., Ltd. | End-to-end design of superresolution electro-optic imaging systems |
US7916362B2 (en) | 2006-05-22 | 2011-03-29 | Eastman Kodak Company | Image sensor with improved light sensitivity |
US8139142B2 (en) | 2006-06-01 | 2012-03-20 | Microsoft Corporation | Video manipulation of red, green, blue, distance (RGB-Z) data including segmentation, up-sampling, and background substitution techniques |
IES20070229A2 (en) | 2006-06-05 | 2007-10-03 | Fotonation Vision Ltd | Image acquisition method and apparatus |
US20070177004A1 (en) | 2006-06-08 | 2007-08-02 | Timo Kolehmainen | Image creating method and imaging device |
JP4631811B2 (ja) | 2006-06-12 | 2011-02-16 | 株式会社日立製作所 | 撮像装置 |
JP5106870B2 (ja) | 2006-06-14 | 2012-12-26 | 株式会社東芝 | 固体撮像素子 |
FR2902530A1 (fr) | 2006-06-19 | 2007-12-21 | St Microelectronics Rousset | Procede de fabrication de lentilles, notamment pour imageur comprenant un diaphragme |
TWI362550B (en) | 2007-06-21 | 2012-04-21 | Ether Precision Inc | The method for manufacturing the image captures unit |
US7925117B2 (en) | 2006-06-27 | 2011-04-12 | Honeywell International Inc. | Fusion of sensor data and synthetic data to form an integrated image |
KR100793369B1 (ko) | 2006-07-06 | 2008-01-11 | 삼성전자주식회사 | 분해능이 향상되는 이미지 센서 및 이를 이용한 이미지감지 방법 |
US20080024683A1 (en) | 2006-07-31 | 2008-01-31 | Niranjan Damera-Venkata | Overlapped multi-projector system with dithering |
US20080030592A1 (en) | 2006-08-01 | 2008-02-07 | Eastman Kodak Company | Producing digital image with different resolution portions |
JP2008039852A (ja) | 2006-08-01 | 2008-02-21 | Agc Techno Glass Co Ltd | ガラス光学素子及びその製造方法 |
US8406562B2 (en) | 2006-08-11 | 2013-03-26 | Geo Semiconductor Inc. | System and method for automated calibration and correction of display geometry and color |
DE602007008798D1 (de) | 2006-08-24 | 2010-10-14 | Valeo Vision | Verfahren zur Bestimmung der Durchfahrt eines Fahrzeugs durch eine engen Durchlass |
US8687087B2 (en) | 2006-08-29 | 2014-04-01 | Csr Technology Inc. | Digital camera with selectively increased dynamic range by control of parameters during image acquisition |
US8306063B2 (en) | 2006-08-29 | 2012-11-06 | EXFO Services Assurance, Inc. | Real-time transport protocol stream detection system and method |
KR100746360B1 (ko) | 2006-08-31 | 2007-08-06 | 삼성전기주식회사 | 스템퍼 제조방법 |
NO326372B1 (no) | 2006-09-21 | 2008-11-17 | Polight As | Polymerlinse |
WO2008039802A2 (en) | 2006-09-25 | 2008-04-03 | Ophthonix, Incorporated | Method for correction of chromatic aberration and achromatic lens |
JP4403162B2 (ja) | 2006-09-29 | 2010-01-20 | 株式会社東芝 | 立体画像表示装置および立体画像の作製方法 |
US20080080028A1 (en) | 2006-10-02 | 2008-04-03 | Micron Technology, Inc. | Imaging method, apparatus and system having extended depth of field |
US8031258B2 (en) | 2006-10-04 | 2011-10-04 | Omnivision Technologies, Inc. | Providing multiple video signals from single sensor |
WO2008044938A1 (en) | 2006-10-11 | 2008-04-17 | Ignis Display As | Method for manufacturing adjustable lens |
CN101600976B (zh) | 2006-10-11 | 2011-11-09 | 珀莱特公司 | 紧凑型可调节透镜的设计 |
US8073196B2 (en) | 2006-10-16 | 2011-12-06 | University Of Southern California | Detection and tracking of moving objects from a moving platform in presence of strong parallax |
US7702229B2 (en) | 2006-10-18 | 2010-04-20 | Eastman Kodak Company | Lens array assisted focus detection |
JP4349456B2 (ja) | 2006-10-23 | 2009-10-21 | ソニー株式会社 | 固体撮像素子 |
US20100103175A1 (en) | 2006-10-25 | 2010-04-29 | Tokyo Institute Of Technology | Method for generating a high-resolution virtual-focal-plane image |
US7888159B2 (en) | 2006-10-26 | 2011-02-15 | Omnivision Technologies, Inc. | Image sensor having curved micro-mirrors over the sensing photodiode and method for fabricating |
JP4452951B2 (ja) | 2006-11-02 | 2010-04-21 | 富士フイルム株式会社 | 距離画像生成方法及びその装置 |
KR20080043106A (ko) | 2006-11-13 | 2008-05-16 | 삼성전자주식회사 | 광학렌즈 및 그 제조방법 |
US8059162B2 (en) | 2006-11-15 | 2011-11-15 | Sony Corporation | Imaging apparatus and method, and method for designing imaging apparatus |
US20080118241A1 (en) | 2006-11-16 | 2008-05-22 | Tekolste Robert | Control of stray light in camera systems employing an optics stack and associated methods |
CN201043890Y (zh) * | 2006-11-17 | 2008-04-02 | 中国科学院上海光学精密机械研究所 | 单孔径多重成像的光学成像测距装置 |
CA2670214A1 (en) | 2006-11-21 | 2008-05-29 | Mantisvision Ltd. | 3d geometric modeling and 3d video content creation |
KR20080047002A (ko) | 2006-11-24 | 2008-05-28 | 엘지이노텍 주식회사 | 카메라모듈의 렌즈 어셈블리 및 그 제작 방법 |
JP4406937B2 (ja) | 2006-12-01 | 2010-02-03 | 富士フイルム株式会社 | 撮影装置 |
US20100265385A1 (en) | 2009-04-18 | 2010-10-21 | Knight Timothy J | Light Field Camera Image, File and Configuration Data, and Methods of Using, Storing and Communicating Same |
US8559705B2 (en) | 2006-12-01 | 2013-10-15 | Lytro, Inc. | Interactive refocusing of electronic images |
JP5040493B2 (ja) | 2006-12-04 | 2012-10-03 | ソニー株式会社 | 撮像装置及び撮像方法 |
US8242426B2 (en) | 2006-12-12 | 2012-08-14 | Dolby Laboratories Licensing Corporation | Electronic camera having multiple sensors for capturing high dynamic range images and related methods |
US8262900B2 (en) * | 2006-12-14 | 2012-09-11 | Life Technologies Corporation | Methods and apparatus for measuring analytes using large scale FET arrays |
US7646549B2 (en) | 2006-12-18 | 2010-01-12 | Xceed Imaging Ltd | Imaging system and method for providing extended depth of focus, range extraction and super resolved imaging |
US8213500B2 (en) | 2006-12-21 | 2012-07-03 | Sharp Laboratories Of America, Inc. | Methods and systems for processing film grain noise |
TWI324015B (en) | 2006-12-22 | 2010-04-21 | Ind Tech Res Inst | Autofocus searching method |
US8103111B2 (en) | 2006-12-26 | 2012-01-24 | Olympus Imaging Corp. | Coding method, electronic camera, recording medium storing coded program, and decoding method |
US20080158259A1 (en) | 2006-12-28 | 2008-07-03 | Texas Instruments Incorporated | Image warping and lateral color correction |
US7973823B2 (en) | 2006-12-29 | 2011-07-05 | Nokia Corporation | Method and system for image pre-processing |
US20080158698A1 (en) | 2006-12-29 | 2008-07-03 | Chao-Chi Chang | Lens barrel array and lens array and the method of making the same |
US20080165257A1 (en) | 2007-01-05 | 2008-07-10 | Micron Technology, Inc. | Configurable pixel array system and method |
JP4993578B2 (ja) | 2007-01-15 | 2012-08-08 | オリンパスイメージング株式会社 | 画像ファイル再生装置,画像ファイル加工編集装置 |
US8655052B2 (en) | 2007-01-26 | 2014-02-18 | Intellectual Discovery Co., Ltd. | Methodology for 3D scene reconstruction from 2D image sequences |
JP5024992B2 (ja) | 2007-02-02 | 2012-09-12 | 株式会社ジャパンディスプレイセントラル | 表示装置 |
US7792423B2 (en) | 2007-02-06 | 2010-09-07 | Mitsubishi Electric Research Laboratories, Inc. | 4D light field cameras |
US7667824B1 (en) | 2007-02-06 | 2010-02-23 | Alpha Technology, LLC | Range gated shearography systems and related methods |
CN100585453C (zh) | 2007-02-09 | 2010-01-27 | 奥林巴斯映像株式会社 | 解码方法及解码装置 |
JP4386083B2 (ja) | 2007-02-27 | 2009-12-16 | トヨタ自動車株式会社 | 駐車支援装置 |
JP4153013B1 (ja) | 2007-03-06 | 2008-09-17 | シャープ株式会社 | 撮像レンズ、撮像ユニットおよびそれを備えた携帯型情報端末 |
US7755679B2 (en) | 2007-03-07 | 2010-07-13 | Altasens, Inc. | Apparatus and method for reducing edge effect in an image sensor |
US7729602B2 (en) | 2007-03-09 | 2010-06-01 | Eastman Kodak Company | Camera using multiple lenses and image sensors operable in a default imaging mode |
US7859588B2 (en) | 2007-03-09 | 2010-12-28 | Eastman Kodak Company | Method and apparatus for operating a dual lens camera to augment an image |
US7676146B2 (en) | 2007-03-09 | 2010-03-09 | Eastman Kodak Company | Camera using multiple lenses and image sensors to provide improved focusing capability |
US7683962B2 (en) | 2007-03-09 | 2010-03-23 | Eastman Kodak Company | Camera using multiple lenses and image sensors in a rangefinder configuration to provide a range map |
US8593506B2 (en) | 2007-03-15 | 2013-11-26 | Yissum Research Development Company Of The Hebrew University Of Jerusalem | Method and system for forming a panoramic image of a scene having minimal aspect distortion |
JP2008242658A (ja) | 2007-03-26 | 2008-10-09 | Funai Electric Co Ltd | 立体物体の撮像装置 |
JP4915859B2 (ja) | 2007-03-26 | 2012-04-11 | 船井電機株式会社 | 物体の距離導出装置 |
US7738017B2 (en) | 2007-03-27 | 2010-06-15 | Aptina Imaging Corporation | Method and apparatus for automatic linear shift parallax correction for multi-array image systems |
US8165418B2 (en) | 2007-03-30 | 2012-04-24 | Brother Kogyo Kabushiki Kaisha | Image processor |
US8055466B2 (en) | 2007-03-30 | 2011-11-08 | Mitutoyo Corporation | Global calibration for stereo vision probe |
US8493496B2 (en) | 2007-04-02 | 2013-07-23 | Primesense Ltd. | Depth mapping using projected patterns |
US8213711B2 (en) | 2007-04-03 | 2012-07-03 | Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Industry, Through The Communications Research Centre Canada | Method and graphical user interface for modifying depth maps |
US8098941B2 (en) | 2007-04-03 | 2012-01-17 | Aptina Imaging Corporation | Method and apparatus for parallelization of image compression encoders |
CN101281282A (zh) | 2007-04-04 | 2008-10-08 | 鸿富锦精密工业(深圳)有限公司 | 镜头模组 |
JP2008258885A (ja) | 2007-04-04 | 2008-10-23 | Texas Instr Japan Ltd | 撮像装置および撮像装置の駆動方法 |
EP2432015A1 (en) | 2007-04-18 | 2012-03-21 | Invisage Technologies, Inc. | Materials, systems and methods for optoelectronic devices |
WO2009023044A2 (en) | 2007-04-24 | 2009-02-19 | 21 Ct, Inc. | Method and system for fast dense stereoscopic ranging |
KR100869219B1 (ko) | 2007-05-03 | 2008-11-18 | 동부일렉트로닉스 주식회사 | 이미지 센서 및 그 제조방법 |
US8462220B2 (en) | 2007-05-09 | 2013-06-11 | Aptina Imaging Corporation | Method and apparatus for improving low-light performance for small pixel image sensors |
US7812869B2 (en) | 2007-05-11 | 2010-10-12 | Aptina Imaging Corporation | Configurable pixel array system and method |
JP4341695B2 (ja) | 2007-05-17 | 2009-10-07 | ソニー株式会社 | 画像入力処理装置、撮像信号処理回路、および、撮像信号のノイズ低減方法 |
JP4337911B2 (ja) | 2007-05-24 | 2009-09-30 | ソニー株式会社 | 撮像装置、撮像回路、および撮像方法 |
US20080298674A1 (en) | 2007-05-29 | 2008-12-04 | Image Masters Inc. | Stereoscopic Panoramic imaging system |
EP2206013A4 (en) | 2007-05-31 | 2011-07-20 | Artificial Muscle Inc | OPTICAL SYSTEMS EMPLOYING COMPATIBLE ELECTROLYTE MATERIALS |
US8290358B1 (en) | 2007-06-25 | 2012-10-16 | Adobe Systems Incorporated | Methods and apparatus for light-field imaging |
RU2487488C2 (ru) | 2007-06-26 | 2013-07-10 | Конинклейке Филипс Электроникс Н.В. | Способ и система для кодирования сигнала трехмерного видео, инкапсулированный сигнал трехмерного видео, способ и система для декодера сигнала трехмерного видео |
CA2693666A1 (en) | 2007-07-12 | 2009-01-15 | Izzat H. Izzat | System and method for three-dimensional object reconstruction from two-dimensional images |
US8125619B2 (en) | 2007-07-25 | 2012-02-28 | Eminent Electronic Technology Corp. | Integrated ambient light sensor and distance sensor |
JP5006727B2 (ja) | 2007-07-26 | 2012-08-22 | 株式会社リコー | 画像処理装置およびデジタルカメラ |
US8559756B2 (en) | 2007-08-06 | 2013-10-15 | Adobe Systems Incorporated | Radiance processing by demultiplexing in the frequency domain |
EP2034338A1 (en) | 2007-08-11 | 2009-03-11 | ETH Zurich | Liquid Lens System |
EP2026563A1 (en) | 2007-08-14 | 2009-02-18 | Deutsche Thomson OHG | System and method for detecting defective pixels |
US7782364B2 (en) | 2007-08-21 | 2010-08-24 | Aptina Imaging Corporation | Multi-array sensor with integrated sub-array for parallax detection and photometer functionality |
US20090066693A1 (en) | 2007-09-06 | 2009-03-12 | Roc Carson | Encoding A Depth Map Into An Image Using Analysis Of Two Consecutive Captured Frames |
US7973834B2 (en) | 2007-09-24 | 2011-07-05 | Jianwen Yang | Electro-optical foveated imaging and tracking system |
US20090079862A1 (en) | 2007-09-25 | 2009-03-26 | Micron Technology, Inc. | Method and apparatus providing imaging auto-focus utilizing absolute blur value |
US20090086074A1 (en) | 2007-09-27 | 2009-04-02 | Omnivision Technologies, Inc. | Dual mode camera solution apparatus, system, and method |
US7940311B2 (en) | 2007-10-03 | 2011-05-10 | Nokia Corporation | Multi-exposure pattern for enhancing dynamic range of images |
JP5172267B2 (ja) | 2007-10-09 | 2013-03-27 | 富士フイルム株式会社 | 撮像装置 |
US8049289B2 (en) | 2007-10-11 | 2011-11-01 | Dongbu Hitek Co., Ltd. | Image sensor and method for manufacturing the same |
US8938009B2 (en) | 2007-10-12 | 2015-01-20 | Qualcomm Incorporated | Layered encoded bitstream structure |
US7956924B2 (en) | 2007-10-18 | 2011-06-07 | Adobe Systems Incorporated | Fast computational camera based on two arrays of lenses |
US7787112B2 (en) | 2007-10-22 | 2010-08-31 | Visiongate, Inc. | Depth of field extension for optical tomography |
US7920193B2 (en) | 2007-10-23 | 2011-04-05 | Aptina Imaging Corporation | Methods, systems and apparatuses using barrier self-calibration for high dynamic range imagers |
US7777804B2 (en) | 2007-10-26 | 2010-08-17 | Omnivision Technologies, Inc. | High dynamic range sensor with reduced line memory for color interpolation |
WO2009061814A2 (en) | 2007-11-05 | 2009-05-14 | University Of Florida Research Foundation, Inc. | Lossless data compression and real-time decompression |
US20090128644A1 (en) | 2007-11-15 | 2009-05-21 | Camp Jr William O | System and method for generating a photograph |
US7852461B2 (en) | 2007-11-15 | 2010-12-14 | Microsoft International Holdings B.V. | Dual mode depth imaging |
US8351685B2 (en) | 2007-11-16 | 2013-01-08 | Gwangju Institute Of Science And Technology | Device and method for estimating depth map, and method for generating intermediate image and method for encoding multi-view video using the same |
US8126279B2 (en) | 2007-11-19 | 2012-02-28 | The University Of Arizona | Lifting-based view compensated compression and remote visualization of volume rendered images |
JP5010445B2 (ja) | 2007-11-29 | 2012-08-29 | パナソニック株式会社 | マイクロレンズアレイ用金型の製造方法 |
KR20090055803A (ko) | 2007-11-29 | 2009-06-03 | 광주과학기술원 | 다시점 깊이맵 생성 방법 및 장치, 다시점 영상에서의변이값 생성 방법 |
GB2455316B (en) | 2007-12-04 | 2012-08-15 | Sony Corp | Image processing apparatus and method |
US8384803B2 (en) | 2007-12-13 | 2013-02-26 | Keigo Iizuka | Camera system and method for amalgamating images to create an omni-focused image |
TWI353778B (en) | 2007-12-21 | 2011-12-01 | Ind Tech Res Inst | Moving object detection apparatus and method |
US7880807B2 (en) | 2007-12-26 | 2011-02-01 | Sony Ericsson Mobile Communications Ab | Camera system with mirror arrangement for generating self-portrait panoramic pictures |
US8233077B2 (en) | 2007-12-27 | 2012-07-31 | Qualcomm Incorporated | Method and apparatus with depth map generation |
TWI362628B (en) * | 2007-12-28 | 2012-04-21 | Ind Tech Res Inst | Methof for producing an image with depth by using 2d image |
US20110031381A1 (en) | 2007-12-28 | 2011-02-10 | Hiok-Nam Tay | Light guide array for an image sensor |
DE112009000099T5 (de) | 2008-01-04 | 2010-11-11 | 3M Innovative Properties Co., St. Paul | Bildsignaturen zur Verwendung in einer bewegungsbasierten dreidimensionalen Rekonstruktion |
JP4413261B2 (ja) | 2008-01-10 | 2010-02-10 | シャープ株式会社 | 撮像装置及び光軸制御方法 |
JP5198295B2 (ja) | 2008-01-15 | 2013-05-15 | 富士フイルム株式会社 | 撮像素子の位置調整方法、カメラモジュール製造方法及び装置、カメラモジュール |
US7962033B2 (en) | 2008-01-23 | 2011-06-14 | Adobe Systems Incorporated | Methods and apparatus for full-resolution light-field capture and rendering |
US8189065B2 (en) | 2008-01-23 | 2012-05-29 | Adobe Systems Incorporated | Methods and apparatus for full-resolution light-field capture and rendering |
JP4956452B2 (ja) | 2008-01-25 | 2012-06-20 | 富士重工業株式会社 | 車両用環境認識装置 |
US8824833B2 (en) | 2008-02-01 | 2014-09-02 | Omnivision Technologies, Inc. | Image data fusion systems and methods |
GB0802290D0 (en) | 2008-02-08 | 2008-03-12 | Univ Kent Canterbury | Camera adapter based optical imaging apparatus |
US8319301B2 (en) | 2008-02-11 | 2012-11-27 | Omnivision Technologies, Inc. | Self-aligned filter for an image sensor |
JP2009206922A (ja) | 2008-02-28 | 2009-09-10 | Funai Electric Co Ltd | 複眼撮像装置 |
US9094675B2 (en) | 2008-02-29 | 2015-07-28 | Disney Enterprises Inc. | Processing image data from multiple cameras for motion pictures |
CN101520532A (zh) | 2008-02-29 | 2009-09-02 | 鸿富锦精密工业(深圳)有限公司 | 复合镜片 |
GB2492246B (en) | 2008-03-03 | 2013-04-10 | Videoiq Inc | Dynamic object classification |
WO2009119229A1 (ja) | 2008-03-26 | 2009-10-01 | コニカミノルタホールディングス株式会社 | 3次元撮像装置及び3次元撮像装置の校正方法 |
US8497905B2 (en) | 2008-04-11 | 2013-07-30 | nearmap australia pty ltd. | Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features |
US8259208B2 (en) | 2008-04-15 | 2012-09-04 | Sony Corporation | Method and apparatus for performing touch-based adjustments within imaging devices |
US7843554B2 (en) | 2008-04-25 | 2010-11-30 | Rockwell Collins, Inc. | High dynamic range sensor system and method |
US8155456B2 (en) | 2008-04-29 | 2012-04-10 | Adobe Systems Incorporated | Method and apparatus for block-based compression of light-field images |
US8280194B2 (en) | 2008-04-29 | 2012-10-02 | Sony Corporation | Reduced hardware implementation for a two-picture depth map algorithm |
US8724921B2 (en) | 2008-05-05 | 2014-05-13 | Aptina Imaging Corporation | Method of capturing high dynamic range images with objects in the scene |
JP2009273035A (ja) | 2008-05-09 | 2009-11-19 | Toshiba Corp | 画像圧縮装置、画像伸張装置及び画像処理装置 |
EP2283644A4 (en) | 2008-05-09 | 2011-10-26 | Ecole Polytech | PICTURE SENSOR WITH NONLINEAR REACTION |
US8208543B2 (en) | 2008-05-19 | 2012-06-26 | Microsoft Corporation | Quantization and differential coding of alpha image data |
WO2009141998A1 (ja) | 2008-05-19 | 2009-11-26 | パナソニック株式会社 | キャリブレーション方法、キャリブレーション装置及びその装置を備えるキャリブレーションシステム |
EP3328048B1 (en) | 2008-05-20 | 2021-04-21 | FotoNation Limited | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
CN102007041B (zh) * | 2008-05-21 | 2012-12-12 | 花王株式会社 | 袋式容器 |
US8442355B2 (en) | 2008-05-23 | 2013-05-14 | Samsung Electronics Co., Ltd. | System and method for generating a multi-dimensional image |
US8125559B2 (en) | 2008-05-25 | 2012-02-28 | Avistar Communications Corporation | Image formation for large photosensor array surfaces |
US8131097B2 (en) | 2008-05-28 | 2012-03-06 | Aptina Imaging Corporation | Method and apparatus for extended depth-of-field image restoration |
US8244058B1 (en) | 2008-05-30 | 2012-08-14 | Adobe Systems Incorporated | Method and apparatus for managing artifacts in frequency domain processing of light-field images |
JP2009300268A (ja) | 2008-06-13 | 2009-12-24 | Nippon Hoso Kyokai <Nhk> | 3次元情報検出装置 |
KR20100002032A (ko) | 2008-06-24 | 2010-01-06 | 삼성전자주식회사 | 영상 생성 방법, 영상 처리 방법, 및 그 장치 |
US7710667B2 (en) | 2008-06-25 | 2010-05-04 | Aptina Imaging Corp. | Imaging module with symmetrical lens system and method of manufacture |
CN102016654A (zh) | 2008-06-25 | 2011-04-13 | 柯尼卡美能达精密光学株式会社 | 成像光学系统及成像用透镜的制造方法 |
KR101000531B1 (ko) | 2008-06-26 | 2010-12-14 | 에스디씨마이크로 주식회사 | 데이터 전송 범위가 증대되는 무선랜을 이용한 씨씨티브이관리시스템 |
US7916396B2 (en) | 2008-06-27 | 2011-03-29 | Micron Technology, Inc. | Lens master devices, lens structures, imaging devices, and methods and apparatuses of making the same |
US8326069B2 (en) | 2008-06-30 | 2012-12-04 | Intel Corporation | Computing higher resolution images from multiple lower resolution images |
US7773317B2 (en) | 2008-07-01 | 2010-08-10 | Aptina Imaging Corp. | Lens system with symmetrical optics |
US7920339B2 (en) | 2008-07-02 | 2011-04-05 | Aptina Imaging Corporation | Method and apparatus providing singlet wafer lens system with field flattener |
CN100576934C (zh) | 2008-07-03 | 2009-12-30 | 浙江大学 | 基于深度和遮挡信息的虚拟视点合成方法 |
US8456517B2 (en) | 2008-07-09 | 2013-06-04 | Primesense Ltd. | Integrated processor for 3D mapping |
KR101445185B1 (ko) | 2008-07-10 | 2014-09-30 | 삼성전자주식회사 | 복수 개의 영상촬영유닛을 구비한 플렉시블 영상촬영장치및 그 제조방법 |
CA2731680C (en) | 2008-08-06 | 2016-12-13 | Creaform Inc. | System for adaptive three-dimensional scanning of surface characteristics |
BRPI0916963A2 (pt) | 2008-08-20 | 2015-11-24 | Thomson Licensing | mapa de profundidade refinado |
CN101656259A (zh) | 2008-08-20 | 2010-02-24 | 鸿富锦精密工业(深圳)有限公司 | 影像感测器封装结构、封装方法及相机模组 |
US7924312B2 (en) | 2008-08-22 | 2011-04-12 | Fluke Corporation | Infrared and visible-light image registration |
US8736751B2 (en) | 2008-08-26 | 2014-05-27 | Empire Technology Development Llc | Digital presenter for displaying image captured by camera with illumination system |
US8102428B2 (en) | 2008-08-28 | 2012-01-24 | Adobe Systems Incorporated | Content-aware video stabilization |
WO2010022503A1 (en) | 2008-09-01 | 2010-03-04 | Lensvector Inc. | Wafer-level fabrication of liquid crystal optoelectronic devices |
JP5105482B2 (ja) | 2008-09-01 | 2012-12-26 | 船井電機株式会社 | 光学的条件設計方法及び複眼撮像装置 |
US8098297B2 (en) | 2008-09-03 | 2012-01-17 | Sony Corporation | Pre- and post-shutter signal image capture and sort for digital camera |
KR20100028344A (ko) | 2008-09-04 | 2010-03-12 | 삼성전자주식회사 | 휴대단말의 영상 편집 방법 및 장치 |
JP5238429B2 (ja) | 2008-09-25 | 2013-07-17 | 株式会社東芝 | 立体映像撮影装置および立体映像撮影システム |
US8553093B2 (en) | 2008-09-30 | 2013-10-08 | Sony Corporation | Method and apparatus for super-resolution imaging using digital imaging devices |
JP5243612B2 (ja) | 2008-10-02 | 2013-07-24 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | 中間画像合成およびマルチビューデータ信号抽出 |
US9619917B2 (en) | 2008-10-03 | 2017-04-11 | Apple Inc. | Depth of field for a camera in a media-editing application |
US9064476B2 (en) | 2008-10-04 | 2015-06-23 | Microsoft Technology Licensing, Llc | Image super-resolution using gradient profile prior |
US8310525B2 (en) | 2008-10-07 | 2012-11-13 | Seiko Epson Corporation | One-touch projector alignment for 3D stereo display |
KR101498532B1 (ko) | 2008-10-15 | 2015-03-04 | 스피넬라 아이피 홀딩스, 인코포레이티드 | 광학 흐름의 결정을 위한 디지털 처리 방법 및 시스템 |
US8416282B2 (en) | 2008-10-16 | 2013-04-09 | Spatial Cam Llc | Camera for creating a panoramic image |
JP2010096723A (ja) | 2008-10-20 | 2010-04-30 | Funai Electric Co Ltd | 物体の距離導出装置 |
US8436909B2 (en) | 2008-10-21 | 2013-05-07 | Stmicroelectronics S.R.L. | Compound camera sensor and related method of processing digital images |
KR101697598B1 (ko) | 2008-10-27 | 2017-02-01 | 엘지전자 주식회사 | 가상 뷰 이미지 합성 방법 및 장치 |
US8063975B2 (en) | 2008-10-29 | 2011-11-22 | Jabil Circuit, Inc. | Positioning wafer lenses on electronic imagers |
KR101502597B1 (ko) | 2008-11-13 | 2015-03-13 | 삼성전자주식회사 | 고심도 입체 영상 표시가 가능한 디스플레이 장치 및 방법 |
US8644547B2 (en) | 2008-11-14 | 2014-02-04 | The Scripps Research Institute | Image analysis platform for identifying artifacts in samples and laboratory consumables |
AU2008246243B2 (en) | 2008-11-19 | 2011-12-22 | Canon Kabushiki Kaisha | DVC as generic file format for plenoptic camera |
US8279325B2 (en) | 2008-11-25 | 2012-10-02 | Lytro, Inc. | System and method for acquiring, editing, generating and outputting video data |
JP4852591B2 (ja) | 2008-11-27 | 2012-01-11 | 富士フイルム株式会社 | 立体画像処理装置、方法及び記録媒体並びに立体撮像装置 |
US8289440B2 (en) | 2008-12-08 | 2012-10-16 | Lytro, Inc. | Light field data acquisition devices, and methods of using and manufacturing same |
US8013904B2 (en) | 2008-12-09 | 2011-09-06 | Seiko Epson Corporation | View projection matrix based high performance low latency display pipeline |
JP5311016B2 (ja) | 2008-12-10 | 2013-10-09 | コニカミノルタ株式会社 | ステレオカメラユニット及びステレオマッチング方法 |
KR101200490B1 (ko) | 2008-12-10 | 2012-11-12 | 한국전자통신연구원 | 영상 정합 장치 및 방법 |
US8149323B2 (en) | 2008-12-18 | 2012-04-03 | Qualcomm Incorporated | System and method to autofocus assisted by autoexposure control |
JP4631966B2 (ja) | 2008-12-22 | 2011-02-16 | ソニー株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
CN101770060B (zh) | 2008-12-27 | 2014-03-26 | 鸿富锦精密工业(深圳)有限公司 | 相机模组及其组装方法 |
US8405742B2 (en) | 2008-12-30 | 2013-03-26 | Massachusetts Institute Of Technology | Processing images having different focus |
US8259212B2 (en) | 2009-01-05 | 2012-09-04 | Applied Quantum Technologies, Inc. | Multiscale optical system |
WO2010081010A2 (en) | 2009-01-09 | 2010-07-15 | New York University | Methods, computer-accessible medium and systems for facilitating dark flash photography |
JP4883223B2 (ja) | 2009-01-09 | 2012-02-22 | コニカミノルタホールディングス株式会社 | 動きベクトル生成装置および動きベクトル生成方法 |
US20100177411A1 (en) | 2009-01-09 | 2010-07-15 | Shashikant Hegde | Wafer level lens replication on micro-electrical-mechanical systems |
US8315476B1 (en) | 2009-01-20 | 2012-11-20 | Adobe Systems Incorporated | Super-resolution with the focused plenoptic camera |
US8189089B1 (en) | 2009-01-20 | 2012-05-29 | Adobe Systems Incorporated | Methods and apparatus for reducing plenoptic camera artifacts |
US8300108B2 (en) | 2009-02-02 | 2012-10-30 | L-3 Communications Cincinnati Electronics Corporation | Multi-channel imaging devices comprising unit cells |
US20100194860A1 (en) | 2009-02-03 | 2010-08-05 | Bit Cauldron Corporation | Method of stereoscopic 3d image capture using a mobile device, cradle or dongle |
US8761491B2 (en) | 2009-02-06 | 2014-06-24 | Himax Technologies Limited | Stereo-matching processor using belief propagation |
US8290301B2 (en) | 2009-02-06 | 2012-10-16 | Raytheon Company | Optimized imaging system for collection of high resolution imagery |
KR101776955B1 (ko) | 2009-02-10 | 2017-09-08 | 소니 주식회사 | 고체 촬상 장치와 그 제조 방법, 및 전자 기기 |
JP4915423B2 (ja) | 2009-02-19 | 2012-04-11 | ソニー株式会社 | 画像処理装置、フォーカルプレーン歪み成分算出方法、画像処理プログラム及び記録媒体 |
WO2010095440A1 (ja) | 2009-02-20 | 2010-08-26 | パナソニック株式会社 | 記録媒体、再生装置、及び集積回路 |
US8520970B2 (en) | 2010-04-23 | 2013-08-27 | Flir Systems Ab | Infrared resolution and contrast enhancement with fusion |
KR20100099896A (ko) | 2009-03-04 | 2010-09-15 | 삼성전자주식회사 | 메타데이터 생성 방법 및 장치, 그 메타데이터를 이용하여 영상을 처리하는 방법 및 장치 |
US8207759B2 (en) | 2009-03-12 | 2012-06-26 | Fairchild Semiconductor Corporation | MIPI analog switch for automatic selection of multiple inputs based on clock voltages |
US8542287B2 (en) | 2009-03-19 | 2013-09-24 | Digitaloptics Corporation | Dual sensor camera |
US8106949B2 (en) | 2009-03-26 | 2012-01-31 | Seiko Epson Corporation | Small memory footprint light transport matrix capture |
US8450821B2 (en) | 2009-03-26 | 2013-05-28 | Micron Technology, Inc. | Method and apparatus providing combined spacer and optical lens element |
US7901095B2 (en) | 2009-03-27 | 2011-03-08 | Seiko Epson Corporation | Resolution scalable view projection |
JP4529010B1 (ja) | 2009-03-30 | 2010-08-25 | シャープ株式会社 | 撮像装置 |
JP5222205B2 (ja) | 2009-04-03 | 2013-06-26 | Kddi株式会社 | 画像処理装置、方法及びプログラム |
WO2010116368A1 (en) | 2009-04-07 | 2010-10-14 | Nextvision Stabilized Systems Ltd | Methods for compensating for light distortions related noise in a camera system having multiple image sensors |
US20100259610A1 (en) | 2009-04-08 | 2010-10-14 | Celsia, Llc | Two-Dimensional Display Synced with Real World Object Movement |
US8294099B2 (en) | 2009-04-10 | 2012-10-23 | Bae Systems Information And Electronic Systems Integration Inc. | On-wafer butted microbolometer imaging array |
US8717417B2 (en) | 2009-04-16 | 2014-05-06 | Primesense Ltd. | Three-dimensional mapping and imaging |
JP5463718B2 (ja) | 2009-04-16 | 2014-04-09 | ソニー株式会社 | 撮像装置 |
US8908058B2 (en) | 2009-04-18 | 2014-12-09 | Lytro, Inc. | Storage and transmission of pictures including multiple frames |
US20120249550A1 (en) | 2009-04-18 | 2012-10-04 | Lytro, Inc. | Selective Transmission of Image Data Based on Device Attributes |
EP2244484B1 (en) | 2009-04-22 | 2012-03-28 | Raytrix GmbH | Digital imaging method for synthesizing an image using data recorded with a plenoptic camera |
CN101527046B (zh) | 2009-04-28 | 2012-09-05 | 青岛海信数字多媒体技术国家重点实验室有限公司 | 一种运动检测方法、装置和系统 |
KR101671021B1 (ko) | 2009-04-30 | 2016-11-10 | 삼성전자주식회사 | 스테레오스코픽 영상 데이터 전송 장치 및 방법 |
US8271544B2 (en) | 2009-05-01 | 2012-09-18 | Creative Technology Ltd | Data file having more than one mode of operation |
US8358365B2 (en) | 2009-05-01 | 2013-01-22 | Samsung Electronics Co., Ltd. | Photo detecting device and image pickup device and method thereon |
DE102009003110A1 (de) | 2009-05-14 | 2010-11-18 | Robert Bosch Gmbh | Bildverarbeitungsverfahren zur Bestimmung von Tiefeninformation aus wenigstens zwei mittels eines Stereokamerasystems aufgenommenen Eingangsbildern |
US8203633B2 (en) | 2009-05-27 | 2012-06-19 | Omnivision Technologies, Inc. | Four-channel color filter array pattern |
US10091439B2 (en) | 2009-06-03 | 2018-10-02 | Flir Systems, Inc. | Imager with array of multiple infrared imaging modules |
KR20100130423A (ko) | 2009-06-03 | 2010-12-13 | 삼성전자주식회사 | 웨이퍼-레벨 렌즈 모듈 및 이를 구비하는 촬상 모듈 |
US8766808B2 (en) | 2010-03-09 | 2014-07-01 | Flir Systems, Inc. | Imager with multiple sensor arrays |
US8745677B2 (en) | 2009-06-12 | 2014-06-03 | Cygnus Broadband, Inc. | Systems and methods for prioritization of data for intelligent discard in a communication network |
CN101931742B (zh) | 2009-06-18 | 2013-04-24 | 鸿富锦精密工业(深圳)有限公司 | 影像感测模组及取像模组 |
US20100321640A1 (en) | 2009-06-22 | 2010-12-23 | Industrial Technology Research Institute | Projection display chip |
JP5254893B2 (ja) | 2009-06-26 | 2013-08-07 | キヤノン株式会社 | 画像変換方法及び装置並びにパターン識別方法及び装置 |
WO2011008443A2 (en) | 2009-06-29 | 2011-01-20 | Lensvector Inc. | Wafer level camera module with active optical element |
US8208746B2 (en) | 2009-06-29 | 2012-06-26 | DigitalOptics Corporation Europe Limited | Adaptive PSF estimation technique using a sharp preview and a blurred image |
US20100328456A1 (en) * | 2009-06-30 | 2010-12-30 | Nokia Corporation | Lenslet camera parallax correction using distance information |
JP2011030184A (ja) | 2009-07-01 | 2011-02-10 | Sony Corp | 画像処理装置、及び、画像処理方法 |
US8212197B2 (en) | 2009-07-02 | 2012-07-03 | Xerox Corporation | Image sensor with integration time compensation |
JP2011017764A (ja) | 2009-07-07 | 2011-01-27 | Konica Minolta Opto Inc | 撮像レンズ,撮像装置及び携帯端末 |
US8203465B2 (en) * | 2009-07-13 | 2012-06-19 | The Boeing Company | Filtering aircraft traffic for display to a pilot |
US8345144B1 (en) | 2009-07-15 | 2013-01-01 | Adobe Systems Incorporated | Methods and apparatus for rich image capture with focused plenoptic cameras |
US20110019243A1 (en) | 2009-07-21 | 2011-01-27 | Constant Jr Henry J | Stereoscopic form reader |
CN101964866B (zh) | 2009-07-24 | 2013-03-20 | 鸿富锦精密工业(深圳)有限公司 | 计算摄像型数码相机 |
GB0912970D0 (en) | 2009-07-27 | 2009-09-02 | St Microelectronics Res & Dev | Improvements in or relating to a sensor and sensor system for a camera |
US20110025830A1 (en) | 2009-07-31 | 2011-02-03 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation |
US20110032341A1 (en) | 2009-08-04 | 2011-02-10 | Ignatov Artem Konstantinovich | Method and system to transform stereo content |
US8577183B2 (en) | 2009-08-05 | 2013-11-05 | Raytheon Company | Resolution on demand |
CN102483511B (zh) | 2009-08-11 | 2014-11-12 | 乙太精密有限公司 | 用于将透镜与光学系统对准的方法和设备 |
CA2771018C (en) | 2009-08-14 | 2017-06-13 | Genesis Group Inc. | Real-time image and video matting |
JP2011044801A (ja) | 2009-08-19 | 2011-03-03 | Toshiba Corp | 画像処理装置 |
US8154632B2 (en) | 2009-08-24 | 2012-04-10 | Lifesize Communications, Inc. | Detection of defective pixels in an image sensor |
KR101680300B1 (ko) | 2009-08-31 | 2016-11-28 | 삼성전자주식회사 | 액체 렌즈 및 그 제조방법 |
US9274699B2 (en) | 2009-09-03 | 2016-03-01 | Obscura Digital | User interface for a large scale multi-user, multi-touch system |
US8411146B2 (en) | 2009-09-04 | 2013-04-02 | Lockheed Martin Corporation | Single camera color and infrared polarimetric imaging |
EP2476248A1 (en) | 2009-09-07 | 2012-07-18 | Nokia Corp. | An apparatus |
FR2950153B1 (fr) | 2009-09-15 | 2011-12-23 | Commissariat Energie Atomique | Dispositif optique a membrane deformable a actionnement piezoelectrique |
US20140076336A1 (en) | 2009-09-17 | 2014-03-20 | Ascentia Health, Inc. | Ear insert for relief of tmj discomfort and headaches |
US9497386B1 (en) | 2009-09-22 | 2016-11-15 | Altia Systems Inc. | Multi-imager video camera with automatic exposure control |
KR101727094B1 (ko) | 2009-10-02 | 2017-04-17 | 코닌클리케 필립스 엔.브이. | 3d 비디오에서 추가 뷰들을 생성하기 위한 뷰포인트들을 선택하는 방법 |
DE102009049387B4 (de) | 2009-10-14 | 2016-05-25 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung, Bildverarbeitungsvorrichtung und Verfahren zur optischen Abbildung |
EP2499829B1 (en) | 2009-10-14 | 2019-04-17 | Dolby International AB | Methods and devices for depth map processing |
US8199165B2 (en) | 2009-10-14 | 2012-06-12 | Hewlett-Packard Development Company, L.P. | Methods and systems for object segmentation in digital images |
US8502909B2 (en) | 2009-10-19 | 2013-08-06 | Pixar | Super light-field lens |
US20110207074A1 (en) | 2009-10-26 | 2011-08-25 | Olaf Andrew Hall-Holt | Dental imaging system and method |
US9122066B2 (en) | 2009-10-30 | 2015-09-01 | Hewlett-Packard Development Company, L.P. | Stereo display systems |
WO2011053711A1 (en) | 2009-10-30 | 2011-05-05 | Invisage Technologies, Inc. | Systems and methods for color binning |
WO2011055655A1 (ja) | 2009-11-05 | 2011-05-12 | コニカミノルタオプト株式会社 | 撮像装置、光学ユニット、ウエハレンズ積層体及びウエハレンズ積層体の製造方法 |
WO2011058876A1 (ja) | 2009-11-13 | 2011-05-19 | 富士フイルム株式会社 | 測距装置、測距方法、測距プログラムおよび測距システムならびに撮像装置 |
TR200908688A2 (tr) * | 2009-11-17 | 2011-06-21 | Vestel Elektron�K San. Ve T�C. A.�. | Çoklu görüntülü videoda derinlik dengelemeli gürültü azaltımı. |
JP5399215B2 (ja) | 2009-11-18 | 2014-01-29 | シャープ株式会社 | 多眼カメラ装置および電子情報機器 |
US8643701B2 (en) | 2009-11-18 | 2014-02-04 | University Of Illinois At Urbana-Champaign | System for executing 3D propagation for depth image-based rendering |
WO2011066275A2 (en) | 2009-11-25 | 2011-06-03 | Massachusetts Institute Of Technology | Actively addressable aperture light field camera |
KR101608970B1 (ko) | 2009-11-27 | 2016-04-05 | 삼성전자주식회사 | 광 필드 데이터를 이용한 영상 처리 장치 및 방법 |
US8730338B2 (en) | 2009-12-01 | 2014-05-20 | Nokia Corporation | Set of camera modules hinged on a body and functionally connected to a single actuator |
US8400555B1 (en) | 2009-12-01 | 2013-03-19 | Adobe Systems Incorporated | Focused plenoptic camera employing microlenses with different focal lengths |
JP5446797B2 (ja) | 2009-12-04 | 2014-03-19 | 株式会社リコー | 撮像装置 |
US8446492B2 (en) | 2009-12-10 | 2013-05-21 | Honda Motor Co., Ltd. | Image capturing device, method of searching for occlusion region, and program |
JP5387377B2 (ja) | 2009-12-14 | 2014-01-15 | ソニー株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
WO2011081646A1 (en) | 2009-12-15 | 2011-07-07 | Thomson Licensing | Stereo-image quality and disparity/depth indications |
KR101281961B1 (ko) | 2009-12-21 | 2013-07-03 | 한국전자통신연구원 | 깊이 영상 편집 방법 및 장치 |
US20110153248A1 (en) | 2009-12-23 | 2011-06-23 | Yeming Gu | Ophthalmic quality metric system |
WO2011078244A1 (ja) | 2009-12-24 | 2011-06-30 | シャープ株式会社 | 多眼撮像装置および多眼撮像方法 |
JP4983905B2 (ja) | 2009-12-25 | 2012-07-25 | カシオ計算機株式会社 | 撮像装置、3dモデリングデータ生成方法、および、プログラム |
KR101643607B1 (ko) | 2009-12-30 | 2016-08-10 | 삼성전자주식회사 | 영상 데이터 생성 방법 및 장치 |
CN102117576A (zh) | 2009-12-31 | 2011-07-06 | 鸿富锦精密工业(深圳)有限公司 | 电子相框 |
CN102118551A (zh) | 2009-12-31 | 2011-07-06 | 鸿富锦精密工业(深圳)有限公司 | 成像装置 |
KR101214536B1 (ko) * | 2010-01-12 | 2013-01-10 | 삼성전자주식회사 | 뎁스 정보를 이용한 아웃 포커스 수행 방법 및 이를 적용한 카메라 |
CN102131044B (zh) | 2010-01-20 | 2014-03-26 | 鸿富锦精密工业(深圳)有限公司 | 相机模组 |
WO2011097508A2 (en) | 2010-02-04 | 2011-08-11 | University Of Southern California | Combined spectral and polarimetry imaging and diagnostics |
US8593512B2 (en) | 2010-02-05 | 2013-11-26 | Creative Technology Ltd | Device and method for scanning an object on a working surface |
US8326142B2 (en) | 2010-02-12 | 2012-12-04 | Sri International | Optical image systems |
JP5387856B2 (ja) | 2010-02-16 | 2014-01-15 | ソニー株式会社 | 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置 |
US8648918B2 (en) | 2010-02-18 | 2014-02-11 | Sony Corporation | Method and system for obtaining a point spread function using motion information |
EP2537332A1 (en) | 2010-02-19 | 2012-12-26 | Dual Aperture, Inc. | Processing multi-aperture image data |
KR101802238B1 (ko) | 2010-02-23 | 2017-11-29 | 삼성전자주식회사 | 휴대용 단말기에서 입체 영상 데이터를 생성하기 위한 장치 및 방법 |
WO2011105814A2 (ko) | 2010-02-23 | 2011-09-01 | 삼성전자 주식회사 | 다시점 정지 영상 서비스 제공 방법 및 그 장치, 다시점 정지 영상 서비스 수신 방법 및 그 장치 |
WO2011106797A1 (en) | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Projection triggering through an external marker in an augmented reality eyepiece |
JP5776173B2 (ja) | 2010-03-01 | 2015-09-09 | 株式会社リコー | 撮像装置及び距離測定装置 |
US8860833B2 (en) | 2010-03-03 | 2014-10-14 | Adobe Systems Incorporated | Blended rendering of focused plenoptic camera data |
US20110222757A1 (en) | 2010-03-10 | 2011-09-15 | Gbo 3D Technology Pte. Ltd. | Systems and methods for 2D image and spatial data capture for 3D stereo imaging |
US20110221950A1 (en) | 2010-03-12 | 2011-09-15 | Doeke Jolt Oostra | Camera device, wafer scale package |
JP2013522681A (ja) | 2010-03-17 | 2013-06-13 | ペリカン イメージング コーポレーション | 結像レンズアレイのマスタを作製する方法 |
US8736733B2 (en) | 2010-03-19 | 2014-05-27 | Invisage Technologies, Inc. | Dark current reduction in image sensors via dynamic electrical biasing |
CN102428707B (zh) | 2010-03-19 | 2015-03-11 | 松下电器产业株式会社 | 立体视用图像对位装置和立体视用图像对位方法 |
US8310538B2 (en) | 2010-03-19 | 2012-11-13 | Fujifilm Corporation | Imaging apparatus, method, program, and recording medium used in the program |
US8558903B2 (en) | 2010-03-25 | 2013-10-15 | Apple Inc. | Accelerometer / gyro-facilitated video stabilization |
US8285033B2 (en) | 2010-04-01 | 2012-10-09 | Seiko Epson Corporation | Bi-affinity filter: a bilateral type filter for color images |
US8896668B2 (en) | 2010-04-05 | 2014-11-25 | Qualcomm Incorporated | Combining data from multiple image sensors |
US20110242342A1 (en) | 2010-04-05 | 2011-10-06 | Qualcomm Incorporated | Combining data from multiple image sensors |
US8600186B2 (en) | 2010-04-26 | 2013-12-03 | City University Of Hong Kong | Well focused catadioptric image acquisition |
US9053573B2 (en) | 2010-04-29 | 2015-06-09 | Personify, Inc. | Systems and methods for generating a virtual camera viewpoint for an image |
US20110267264A1 (en) | 2010-04-29 | 2011-11-03 | Mccarthy John | Display system with multiple optical sensors |
US20130250150A1 (en) | 2010-05-03 | 2013-09-26 | Michael R. Malone | Devices and methods for high-resolution image and video capture |
US9256974B1 (en) | 2010-05-04 | 2016-02-09 | Stephen P Hines | 3-D motion-parallax portable display software application |
US8885890B2 (en) | 2010-05-07 | 2014-11-11 | Microsoft Corporation | Depth map confidence filtering |
KR101756910B1 (ko) | 2010-05-11 | 2017-07-26 | 삼성전자주식회사 | 감쇠 패턴을 포함하는 마스크를 이용한 광 필드 영상 처리 장치 및 방법 |
KR20110124473A (ko) | 2010-05-11 | 2011-11-17 | 삼성전자주식회사 | 다중시점 영상을 위한 3차원 영상 생성 장치 및 방법 |
JP5545016B2 (ja) | 2010-05-12 | 2014-07-09 | ソニー株式会社 | 撮像装置 |
US20130147979A1 (en) | 2010-05-12 | 2013-06-13 | Pelican Imaging Corporation | Systems and methods for extending dynamic range of imager arrays by controlling pixel analog gain |
WO2011142774A1 (en) | 2010-05-14 | 2011-11-17 | Omnivision Technologies, Inc. | Alternative color image array and associated methods |
US8576293B2 (en) | 2010-05-18 | 2013-11-05 | Aptina Imaging Corporation | Multi-channel imager |
SG176327A1 (en) | 2010-05-20 | 2011-12-29 | Sony Corp | A system and method of image processing |
US8602887B2 (en) | 2010-06-03 | 2013-12-10 | Microsoft Corporation | Synthesis of information from multiple audiovisual sources |
US20120062697A1 (en) | 2010-06-09 | 2012-03-15 | Chemimage Corporation | Hyperspectral imaging sensor for tracking moving targets |
DE102010024666A1 (de) | 2010-06-18 | 2011-12-22 | Hella Kgaa Hueck & Co. | Verfahren zur optischen Selbstdiagnose eines Kamerasystems und Vorrichtung zur Durchführung eines solchen Verfahrens |
US20110310980A1 (en) | 2010-06-22 | 2011-12-22 | Qualcomm Mems Technologies, Inc. | Apparatus and methods for processing frames of video data across a display interface using a block-based encoding scheme and a tag id |
CN102184720A (zh) | 2010-06-22 | 2011-09-14 | 上海盈方微电子有限公司 | 一种支持多层多格式输入的图像合成显示的方法及装置 |
KR20120000485A (ko) | 2010-06-25 | 2012-01-02 | 삼성전자주식회사 | 예측 모드를 이용한 깊이 영상 부호화 장치 및 방법 |
CN101883291B (zh) | 2010-06-29 | 2012-12-19 | 上海大学 | 感兴趣区域增强的视点绘制方法 |
EP2403234A1 (en) | 2010-06-29 | 2012-01-04 | Koninklijke Philips Electronics N.V. | Method and system for constructing a compound image from data obtained by an array of image capturing devices |
US8493432B2 (en) | 2010-06-29 | 2013-07-23 | Mitsubishi Electric Research Laboratories, Inc. | Digital refocusing for wide-angle images using axial-cone cameras |
JP5492300B2 (ja) | 2010-06-30 | 2014-05-14 | 富士フイルム株式会社 | 立体視表示用撮像の際の撮像領域内の障害物を判定する装置、方法およびプログラム |
JP5392199B2 (ja) | 2010-07-09 | 2014-01-22 | ソニー株式会社 | 画像処理装置および方法 |
US9406132B2 (en) | 2010-07-16 | 2016-08-02 | Qualcomm Incorporated | Vision-based quality metric for three dimensional video |
GB2482022A (en) | 2010-07-16 | 2012-01-18 | St Microelectronics Res & Dev | Method for measuring resolution and aberration of lens and sensor |
US8386964B2 (en) | 2010-07-21 | 2013-02-26 | Microsoft Corporation | Interactive image matting |
US20120019700A1 (en) | 2010-07-26 | 2012-01-26 | American Technologies Network Corporation | Optical system with automatic mixing of daylight and thermal vision digital video signals |
US20120026342A1 (en) | 2010-07-27 | 2012-02-02 | Xiaoguang Yu | Electronic system communicating with image sensor |
US20120026451A1 (en) | 2010-07-29 | 2012-02-02 | Lensvector Inc. | Tunable liquid crystal lens with single sided contacts |
US8605136B2 (en) | 2010-08-10 | 2013-12-10 | Sony Corporation | 2D to 3D user interface content data conversion |
CN102375199B (zh) | 2010-08-11 | 2015-06-03 | 鸿富锦精密工业(深圳)有限公司 | 相机模组 |
US8428342B2 (en) | 2010-08-12 | 2013-04-23 | At&T Intellectual Property I, L.P. | Apparatus and method for providing three dimensional media content |
US8836793B1 (en) | 2010-08-13 | 2014-09-16 | Opto-Knowledge Systems, Inc. | True color night vision (TCNV) fusion |
US8493482B2 (en) | 2010-08-18 | 2013-07-23 | Apple Inc. | Dual image sensor image processing system and method |
US8665341B2 (en) | 2010-08-27 | 2014-03-04 | Adobe Systems Incorporated | Methods and apparatus for rendering output images with simulated artistic effects from focused plenoptic camera data |
US8724000B2 (en) | 2010-08-27 | 2014-05-13 | Adobe Systems Incorporated | Methods and apparatus for super-resolution in integral photography |
US8749694B2 (en) | 2010-08-27 | 2014-06-10 | Adobe Systems Incorporated | Methods and apparatus for rendering focused plenoptic camera data using super-resolved demosaicing |
GB2483434A (en) | 2010-08-31 | 2012-03-14 | Sony Corp | Detecting stereoscopic disparity by comparison with subset of pixel change points |
JP5140210B2 (ja) | 2010-08-31 | 2013-02-06 | パナソニック株式会社 | 撮影装置および画像処理方法 |
US20120056982A1 (en) | 2010-09-08 | 2012-03-08 | Microsoft Corporation | Depth camera based on structured light and stereo vision |
US9013550B2 (en) | 2010-09-09 | 2015-04-21 | Qualcomm Incorporated | Online reference generation and tracking for multi-user augmented reality |
WO2012036902A1 (en) | 2010-09-14 | 2012-03-22 | Thomson Licensing | Compression methods and apparatus for occlusion data |
US9013634B2 (en) | 2010-09-14 | 2015-04-21 | Adobe Systems Incorporated | Methods and apparatus for video completion |
US9565415B2 (en) * | 2010-09-14 | 2017-02-07 | Thomson Licensing | Method of presenting three-dimensional content with disparity adjustments |
US8780251B2 (en) | 2010-09-20 | 2014-07-15 | Canon Kabushiki Kaisha | Image capture with focus adjustment |
JP5392415B2 (ja) | 2010-09-22 | 2014-01-22 | 富士通株式会社 | ステレオ画像生成装置、ステレオ画像生成方法及びステレオ画像生成用コンピュータプログラム |
US20120086803A1 (en) | 2010-10-11 | 2012-04-12 | Malzbender Thomas G | Method and system for distance estimation using projected symbol sequences |
US20140192238A1 (en) | 2010-10-24 | 2014-07-10 | Linx Computational Imaging Ltd. | System and Method for Imaging and Image Processing |
US8531535B2 (en) | 2010-10-28 | 2013-09-10 | Google Inc. | Methods and systems for processing a video for stabilization and retargeting |
JP5657343B2 (ja) | 2010-10-28 | 2015-01-21 | 株式会社ザクティ | 電子機器 |
US9876953B2 (en) | 2010-10-29 | 2018-01-23 | Ecole Polytechnique Federale De Lausanne (Epfl) | Omnidirectional sensor array system |
US9137503B2 (en) | 2010-11-03 | 2015-09-15 | Sony Corporation | Lens and color filter arrangement, super-resolution camera system and method |
US9065991B2 (en) | 2010-11-04 | 2015-06-23 | Lensvector Inc. | Methods of adjustment free manufacture of focus free camera modules |
US20120113232A1 (en) | 2010-11-10 | 2012-05-10 | Sony Pictures Technologies Inc. | Multiple camera system and method for selectable interaxial separation |
WO2012064106A2 (en) | 2010-11-12 | 2012-05-18 | Samsung Electronics Co., Ltd. | Method and apparatus for video stabilization by compensating for view direction of camera |
MY150361A (en) | 2010-12-03 | 2013-12-31 | Mimos Berhad | Method of image segmentation using intensity and depth information |
US20130258067A1 (en) | 2010-12-08 | 2013-10-03 | Thomson Licensing | System and method for trinocular depth acquisition with triangular sensor |
US8878950B2 (en) | 2010-12-14 | 2014-11-04 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using super-resolution processes |
JP5963422B2 (ja) | 2010-12-17 | 2016-08-03 | キヤノン株式会社 | 撮像装置、表示装置、コンピュータプログラムおよび立体像表示システム |
US9177381B2 (en) * | 2010-12-22 | 2015-11-03 | Nani Holdings IP, LLC | Depth estimate determination, systems and methods |
US8682107B2 (en) | 2010-12-22 | 2014-03-25 | Electronics And Telecommunications Research Institute | Apparatus and method for creating 3D content for oriental painting |
US8565709B2 (en) | 2010-12-30 | 2013-10-22 | Apple Inc. | Digital signal filter |
TWI535292B (zh) | 2010-12-31 | 2016-05-21 | 派力肯影像公司 | 使用具有異質的成像器的整體式相機陣列的影像捕捉和處理 |
JP5699609B2 (ja) | 2011-01-06 | 2015-04-15 | ソニー株式会社 | 画像処理装置および画像処理方法 |
EP2666048A4 (en) | 2011-01-20 | 2014-06-04 | Fivefocal Llc | PASSIV ATHERMALIZED INFRARED IMAGING SYSTEM AND MANUFACTURING METHOD THEREFOR |
US8717467B2 (en) | 2011-01-25 | 2014-05-06 | Aptina Imaging Corporation | Imaging systems with array cameras for depth sensing |
US8581995B2 (en) | 2011-01-25 | 2013-11-12 | Aptina Imaging Corporation | Method and apparatus for parallax correction in fused array imaging systems |
JP5594477B2 (ja) * | 2011-01-26 | 2014-09-24 | Nltテクノロジー株式会社 | 画像表示装置、画像表示方法、及びプログラム |
EP2668617A1 (en) | 2011-01-27 | 2013-12-04 | Metaio GmbH | Method for determining correspondences between a first and a second image, and method for determining the pose of a camera |
US20120200726A1 (en) | 2011-02-09 | 2012-08-09 | Research In Motion Limited | Method of Controlling the Depth of Field for a Small Sensor Camera Using an Extension for EDOF |
CA2767023C (en) | 2011-02-09 | 2014-09-09 | Research In Motion Limited | Increased low light sensitivity for image sensors by combining quantum dot sensitivity to visible and infrared light |
US8698885B2 (en) | 2011-02-14 | 2014-04-15 | Intuitive Surgical Operations, Inc. | Methods and apparatus for demosaicing images with highly correlated color channels |
US20140176592A1 (en) | 2011-02-15 | 2014-06-26 | Lytro, Inc. | Configuring two-dimensional image processing based on light-field parameters |
US8406548B2 (en) | 2011-02-28 | 2013-03-26 | Sony Corporation | Method and apparatus for performing a blur rendering process on an image |
EP2683166B1 (en) | 2011-02-28 | 2017-12-13 | Fujifilm Corporation | Color imaging device |
US8537245B2 (en) | 2011-03-04 | 2013-09-17 | Hand Held Products, Inc. | Imaging and decoding device with quantum dot imager |
CA2769358C (en) | 2011-03-08 | 2016-06-07 | Research In Motion Limited | Quantum dot image sensor with dummy pixels used for intensity calculations |
US9565449B2 (en) | 2011-03-10 | 2017-02-07 | Qualcomm Incorporated | Coding multiview video plus depth content |
KR101792501B1 (ko) | 2011-03-16 | 2017-11-21 | 한국전자통신연구원 | 특징기반의 스테레오 매칭 방법 및 장치 |
US8824821B2 (en) | 2011-03-28 | 2014-09-02 | Sony Corporation | Method and apparatus for performing user inspired visual effects rendering on an image |
US20120249853A1 (en) | 2011-03-28 | 2012-10-04 | Marc Krolczyk | Digital camera for reviewing related images |
US8422770B2 (en) | 2011-03-30 | 2013-04-16 | Mckesson Financial Holdings | Method, apparatus and computer program product for displaying normalized medical images |
US9030528B2 (en) | 2011-04-04 | 2015-05-12 | Apple Inc. | Multi-zone imaging sensor and lens array |
FR2974449A1 (fr) | 2011-04-22 | 2012-10-26 | Commissariat Energie Atomique | Circuit integre imageur et dispositif de capture d'images stereoscopiques |
US20120274626A1 (en) | 2011-04-29 | 2012-11-01 | Himax Media Solutions, Inc. | Stereoscopic Image Generating Apparatus and Method |
EP2705495B1 (en) | 2011-05-04 | 2015-07-08 | Sony Ericsson Mobile Communications AB | Method, graphical user interface, and computer program product for processing of a light field image |
KR101973822B1 (ko) | 2011-05-11 | 2019-04-29 | 포토네이션 케이맨 리미티드 | 어레이 카메라 이미지 데이터를 송신 및 수신하기 위한 시스템들 및 방법들 |
US8843346B2 (en) | 2011-05-13 | 2014-09-23 | Amazon Technologies, Inc. | Using spatial information with device interaction |
US8629901B2 (en) | 2011-05-19 | 2014-01-14 | National Taiwan University | System and method of revising depth of a 3D image pair |
US20120293489A1 (en) | 2011-05-20 | 2012-11-22 | Himax Technologies Limited | Nonlinear depth remapping system and method thereof |
JP5797016B2 (ja) | 2011-05-30 | 2015-10-21 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JP5762142B2 (ja) | 2011-05-31 | 2015-08-12 | キヤノン株式会社 | 撮像装置、画像処理装置およびその方法 |
US8648919B2 (en) | 2011-06-06 | 2014-02-11 | Apple Inc. | Methods and systems for image stabilization |
US8823813B2 (en) | 2011-06-06 | 2014-09-02 | Apple Inc. | Correcting rolling shutter using image stabilization |
CN103609102B (zh) | 2011-06-15 | 2016-09-28 | 微软技术许可有限责任公司 | 高分辨率多光谱图像捕捉 |
JP2013005259A (ja) | 2011-06-17 | 2013-01-07 | Sony Corp | 画像処理装置、および画像処理方法、並びにプログラム |
JP2014521117A (ja) | 2011-06-28 | 2014-08-25 | ペリカン イメージング コーポレイション | アレイカメラで使用するための光学配列 |
US20130265459A1 (en) | 2011-06-28 | 2013-10-10 | Pelican Imaging Corporation | Optical arrangements for use with an array camera |
US8773513B2 (en) | 2011-07-01 | 2014-07-08 | Seiko Epson Corporation | Context and epsilon stereo constrained correspondence matching |
US9300946B2 (en) | 2011-07-08 | 2016-03-29 | Personify, Inc. | System and method for generating a depth map and fusing images from a camera array |
JP5854673B2 (ja) * | 2011-07-12 | 2016-02-09 | キヤノン株式会社 | 固体撮像装置 |
JP5780865B2 (ja) | 2011-07-14 | 2015-09-16 | キヤノン株式会社 | 画像処理装置、撮像システム、画像処理システム |
JP2013024886A (ja) | 2011-07-14 | 2013-02-04 | Sanyo Electric Co Ltd | 撮像装置 |
WO2013012335A1 (en) * | 2011-07-21 | 2013-01-24 | Ziv Attar | Imaging device for motion detection of objects in a scene, and method for motion detection of objects in a scene |
US9363535B2 (en) | 2011-07-22 | 2016-06-07 | Qualcomm Incorporated | Coding motion depth maps with depth range variation |
US9264689B2 (en) | 2011-08-04 | 2016-02-16 | Semiconductor Components Industries, Llc | Systems and methods for color compensation in multi-view video |
JP2014529214A (ja) | 2011-08-09 | 2014-10-30 | サムスン エレクトロニクス カンパニー リミテッド | 多視点ビデオデータの深度マップ符号化方法及びその装置、復号化方法及びその装置 |
US8432435B2 (en) | 2011-08-10 | 2013-04-30 | Seiko Epson Corporation | Ray image modeling for fast catadioptric light field rendering |
US8866951B2 (en) | 2011-08-24 | 2014-10-21 | Aptina Imaging Corporation | Super-resolution imaging systems |
US9009952B2 (en) | 2011-08-29 | 2015-04-21 | Asm Technology Singapore Pte. Ltd. | Apparatus for assembling a lens module and an image sensor to form a camera module, and a method of assembling the same |
US8704895B2 (en) | 2011-08-29 | 2014-04-22 | Qualcomm Incorporated | Fast calibration of displays using spectral-based colorimetrically calibrated multicolor camera |
WO2013043751A1 (en) | 2011-09-19 | 2013-03-28 | Pelican Imaging Corporation | Systems and methods for controlling aliasing in images captured by an array camera for use in super resolution processing using pixel apertures |
US9100639B2 (en) | 2011-09-20 | 2015-08-04 | Panasonic Intellectual Property Management Co., Ltd. | Light field imaging device and image processing device |
CN103828361B (zh) | 2011-09-21 | 2015-04-29 | 富士胶片株式会社 | 图像处理装置、方法,立体图像获取装置,便携式电子设备,打印机和立体图像播放器装置 |
US8724893B2 (en) | 2011-09-27 | 2014-05-13 | Thomson Licensing | Method and system for color look up table generation |
US8908083B2 (en) | 2011-09-28 | 2014-12-09 | Apple Inc. | Dynamic autofocus operations |
IN2014CN02708A (ko) | 2011-09-28 | 2015-08-07 | Pelican Imaging Corp | |
JP5831105B2 (ja) | 2011-09-30 | 2015-12-09 | ソニー株式会社 | 撮像装置及び撮像方法 |
SG11201401363UA (en) | 2011-10-11 | 2014-05-29 | Pelican Imaging Corp | Lens stack arrays including adaptive optical elements |
EP2582128A3 (en) | 2011-10-12 | 2013-06-19 | Canon Kabushiki Kaisha | Image-capturing device |
US20130107061A1 (en) | 2011-10-31 | 2013-05-02 | Ankit Kumar | Multi-resolution ip camera |
JP5149435B1 (ja) | 2011-11-04 | 2013-02-20 | 株式会社東芝 | 映像処理装置および映像処理方法 |
US9692991B2 (en) | 2011-11-04 | 2017-06-27 | Qualcomm Incorporated | Multispectral imaging system |
EP2590138B1 (en) | 2011-11-07 | 2019-09-11 | Flir Systems AB | Gas visualization arrangements, devices, and methods |
WO2013072875A2 (en) | 2011-11-15 | 2013-05-23 | Technion Research & Development Foundation Ltd. | Method and system for transmitting light |
US20130121559A1 (en) | 2011-11-16 | 2013-05-16 | Sharp Laboratories Of America, Inc. | Mobile device with three dimensional augmented reality |
US20130127988A1 (en) | 2011-11-17 | 2013-05-23 | Sen Wang | Modifying the viewpoint of a digital image |
US9661310B2 (en) | 2011-11-28 | 2017-05-23 | ArcSoft Hanzhou Co., Ltd. | Image depth recovering method and stereo image fetching device thereof |
JP6019568B2 (ja) | 2011-11-28 | 2016-11-02 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びに、プログラム |
EP2600316A1 (en) | 2011-11-29 | 2013-06-05 | Inria Institut National de Recherche en Informatique et en Automatique | Method, system and software program for shooting and editing a film comprising at least one image of a 3D computer-generated animation |
KR101862404B1 (ko) | 2011-12-09 | 2018-05-29 | 엘지이노텍 주식회사 | 스테레오 영상의 노이즈 제거장치 및 방법 |
US9117295B2 (en) * | 2011-12-20 | 2015-08-25 | Adobe Systems Incorporated | Refinement of depth maps by fusion of multiple estimates |
WO2013099169A1 (ja) | 2011-12-27 | 2013-07-04 | パナソニック株式会社 | ステレオ撮影装置 |
US8941722B2 (en) | 2012-01-03 | 2015-01-27 | Sony Corporation | Automatic intelligent focus control of video |
WO2013119706A1 (en) | 2012-02-06 | 2013-08-15 | Pelican Imaging Corporation | Systems and methods for extending dynamic range of imager arrays by controlling pixel analog gain |
US9172889B2 (en) | 2012-02-09 | 2015-10-27 | Semiconductor Components Industries, Llc | Imaging systems and methods for generating auto-exposed high-dynamic-range images |
WO2013126578A1 (en) | 2012-02-21 | 2013-08-29 | Pelican Imaging Corporation | Systems and methods for the manipulation of captured light field image data |
JP5860304B2 (ja) | 2012-02-23 | 2016-02-16 | キヤノン株式会社 | 撮像装置及びその制御方法、プログラム、並びに記憶媒体 |
JP5924978B2 (ja) | 2012-02-28 | 2016-05-25 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
JP6112824B2 (ja) | 2012-02-28 | 2017-04-12 | キヤノン株式会社 | 画像処理方法および装置、プログラム。 |
US8831377B2 (en) | 2012-02-28 | 2014-09-09 | Lytro, Inc. | Compensating for variation in microlens position during light-field image processing |
EP2637139A1 (en) | 2012-03-05 | 2013-09-11 | Thomson Licensing | Method and apparatus for bi-layer segmentation |
CN104169965B (zh) | 2012-04-02 | 2018-07-03 | 英特尔公司 | 用于多拍摄装置系统中图像变形参数的运行时调整的系统、方法和计算机程序产品 |
CN104350408B (zh) | 2012-04-13 | 2018-04-06 | 自动化工程机械公司 | 使用连续运动扫描和时间插值的主动对准 |
WO2013158636A1 (en) | 2012-04-16 | 2013-10-24 | Azizian Mahdi | Dual-mode stereo imaging system for tracking and control in surgical and interventional procedures |
US8994845B2 (en) | 2012-04-27 | 2015-03-31 | Blackberry Limited | System and method of adjusting a camera based on image data |
US9210392B2 (en) | 2012-05-01 | 2015-12-08 | Pelican Imaging Coporation | Camera modules patterned with pi filter groups |
CN104335246B (zh) | 2012-05-01 | 2018-09-04 | Fotonation开曼有限公司 | 用pi滤光器群组来形成图案的相机模块 |
US20150085073A1 (en) | 2012-05-02 | 2015-03-26 | Koninklijke Philips N.V. | Quality metric for processing 3d video |
WO2013169671A1 (en) | 2012-05-09 | 2013-11-14 | Lytro, Inc. | Optimization of optical systems for improved light field capture and manipulation |
US9846960B2 (en) | 2012-05-31 | 2017-12-19 | Microsoft Technology Licensing, Llc | Automated camera array calibration |
US9179126B2 (en) | 2012-06-01 | 2015-11-03 | Ostendo Technologies, Inc. | Spatio-temporal light field cameras |
EP2859528A4 (en) | 2012-06-08 | 2016-02-10 | Nokia Technologies Oy | MULTI-IMAGE IMAGE CALIBRATION DEVICE |
EP2677734A3 (en) | 2012-06-18 | 2016-01-13 | Sony Mobile Communications AB | Array camera imaging system and method |
JP5929553B2 (ja) | 2012-06-28 | 2016-06-08 | ソニー株式会社 | 画像処理装置、撮像装置、画像処理方法およびプログラム |
WO2014005123A1 (en) | 2012-06-28 | 2014-01-03 | Pelican Imaging Corporation | Systems and methods for detecting defective camera arrays, optic arrays, and sensors |
US8896594B2 (en) | 2012-06-30 | 2014-11-25 | Microsoft Corporation | Depth sensing with depth-adaptive illumination |
US20140002674A1 (en) | 2012-06-30 | 2014-01-02 | Pelican Imaging Corporation | Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors |
US9147251B2 (en) | 2012-08-03 | 2015-09-29 | Flyby Media, Inc. | Systems and methods for efficient 3D tracking of weakly textured planar surfaces for augmented reality applications |
US8988566B2 (en) | 2012-08-09 | 2015-03-24 | Omnivision Technologies, Inc. | Lens array for partitioned image sensor having color filters |
WO2014031795A1 (en) | 2012-08-21 | 2014-02-27 | Pelican Imaging Corporation | Systems and methods for parallax detection and correction in images captured using array cameras |
US20140055632A1 (en) | 2012-08-23 | 2014-02-27 | Pelican Imaging Corporation | Feature based high resolution motion estimation from low resolution images captured using an array source |
CN104584545B (zh) | 2012-08-31 | 2017-05-31 | 索尼公司 | 图像处理装置、图像处理方法、以及信息处理装置 |
US9214013B2 (en) | 2012-09-14 | 2015-12-15 | Pelican Imaging Corporation | Systems and methods for correcting user identified artifacts in light field images |
US9373088B2 (en) | 2012-09-17 | 2016-06-21 | The Board Of Trustees Of The Leland Stanford Junior University | Brain machine interface utilizing a discrete action state decoder in parallel with a continuous decoder for a neural prosthetic device |
US9143673B2 (en) | 2012-09-19 | 2015-09-22 | Google Inc. | Imaging device with a plurality of pixel arrays |
EP2901671A4 (en) | 2012-09-28 | 2016-08-24 | Pelican Imaging Corp | CREATING IMAGES FROM LIGHT FIELDS USING VIRTUAL POINTS OF VIEW |
TW201415879A (zh) | 2012-10-12 | 2014-04-16 | Wintek Corp | 影像擷取裝置 |
WO2014070927A2 (en) | 2012-10-31 | 2014-05-08 | Invisage Technologies, Inc. | Expanded-field-of-view image and video capture |
WO2014078443A1 (en) | 2012-11-13 | 2014-05-22 | Pelican Imaging Corporation | Systems and methods for array camera focal plane control |
KR101954192B1 (ko) | 2012-11-15 | 2019-03-05 | 엘지전자 주식회사 | 어레이 카메라, 휴대 단말기 및 그 동작 방법 |
US9076205B2 (en) | 2012-11-19 | 2015-07-07 | Adobe Systems Incorporated | Edge direction and curve based image de-blurring |
US9924142B2 (en) | 2012-11-21 | 2018-03-20 | Omnivision Technologies, Inc. | Camera array systems including at least one bayer type camera and associated methods |
CN105556944B (zh) | 2012-11-28 | 2019-03-08 | 核心光电有限公司 | 多孔径成像系统和方法 |
US9001226B1 (en) | 2012-12-04 | 2015-04-07 | Lytro, Inc. | Capturing and relighting images using multiple devices |
US9088369B2 (en) | 2012-12-28 | 2015-07-21 | Synergy Microwave Corporation | Self injection locked phase locked looped optoelectronic oscillator |
US20140183334A1 (en) | 2013-01-03 | 2014-07-03 | Visera Technologies Company Limited | Image sensor for light field device and manufacturing method thereof |
US9568713B2 (en) | 2013-01-05 | 2017-02-14 | Light Labs Inc. | Methods and apparatus for using multiple optical chains in parallel to support separate color-capture |
KR20140094395A (ko) | 2013-01-22 | 2014-07-30 | 삼성전자주식회사 | 복수 개의 마이크로렌즈를 사용하여 촬영하는 촬영 장치 및 그 촬영 방법 |
US9769365B1 (en) | 2013-02-15 | 2017-09-19 | Red.Com, Inc. | Dense field imaging |
US9462164B2 (en) | 2013-02-21 | 2016-10-04 | Pelican Imaging Corporation | Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information |
US9374512B2 (en) | 2013-02-24 | 2016-06-21 | Pelican Imaging Corporation | Thin form factor computational array cameras and modular array cameras |
US20150002734A1 (en) | 2013-07-01 | 2015-01-01 | Motorola Mobility Llc | Electronic Device with Modulated Light Flash Operation for Rolling Shutter Image Sensor |
US9638883B1 (en) | 2013-03-04 | 2017-05-02 | Fotonation Cayman Limited | Passive alignment of array camera modules constructed from lens stack arrays and sensors based upon alignment information obtained during manufacture of array camera modules using an active alignment process |
WO2014138697A1 (en) | 2013-03-08 | 2014-09-12 | Pelican Imaging Corporation | Systems and methods for high dynamic range imaging using array cameras |
US8866912B2 (en) | 2013-03-10 | 2014-10-21 | Pelican Imaging Corporation | System and methods for calibration of an array camera using a single captured image |
US9521416B1 (en) | 2013-03-11 | 2016-12-13 | Kip Peli P1 Lp | Systems and methods for image data compression |
WO2014160142A1 (en) | 2013-03-13 | 2014-10-02 | Pelican Imaging Corporation | Systems and methods for using alignment to increase sampling diversity of cameras in an array camera module |
US9106784B2 (en) | 2013-03-13 | 2015-08-11 | Pelican Imaging Corporation | Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing |
US9519972B2 (en) | 2013-03-13 | 2016-12-13 | Kip Peli P1 Lp | Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies |
WO2014164550A2 (en) | 2013-03-13 | 2014-10-09 | Pelican Imaging Corporation | System and methods for calibration of an array camera |
US9888194B2 (en) | 2013-03-13 | 2018-02-06 | Fotonation Cayman Limited | Array camera architecture implementing quantum film image sensors |
WO2014159779A1 (en) | 2013-03-14 | 2014-10-02 | Pelican Imaging Corporation | Systems and methods for reducing motion blur in images or video in ultra low light with array cameras |
US9100586B2 (en) | 2013-03-14 | 2015-08-04 | Pelican Imaging Corporation | Systems and methods for photometric normalization in array cameras |
US20140267286A1 (en) | 2013-03-15 | 2014-09-18 | Pelican Imaging Corporation | Systems and Methods for Providing an Array Projector |
US9445003B1 (en) | 2013-03-15 | 2016-09-13 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information |
US9497370B2 (en) | 2013-03-15 | 2016-11-15 | Pelican Imaging Corporation | Array camera architecture implementing quantum dot color filters |
US9497429B2 (en) | 2013-03-15 | 2016-11-15 | Pelican Imaging Corporation | Extended color processing on pelican array cameras |
US9633442B2 (en) | 2013-03-15 | 2017-04-25 | Fotonation Cayman Limited | Array cameras including an array camera module augmented with a separate camera |
US10122993B2 (en) | 2013-03-15 | 2018-11-06 | Fotonation Limited | Autofocus system for a conventional camera that uses depth information from an array camera |
EP2973476A4 (en) | 2013-03-15 | 2017-01-18 | Pelican Imaging Corporation | Systems and methods for stereo imaging with camera arrays |
WO2014144157A1 (en) | 2013-03-15 | 2014-09-18 | Pelican Imaging Corporation | Optical arrangements for use with an array camera |
WO2014181220A1 (en) | 2013-05-10 | 2014-11-13 | Koninklijke Philips N.V. | Method of encoding a video data signal for use with a multi-view rendering device |
KR102103983B1 (ko) | 2013-07-31 | 2020-04-23 | 삼성전자주식회사 | 시프트된 마이크로 렌즈 어레이를 구비하는 라이트 필드 영상 획득 장치 |
US9898856B2 (en) | 2013-09-27 | 2018-02-20 | Fotonation Cayman Limited | Systems and methods for depth-assisted perspective distortion correction |
US20150098079A1 (en) | 2013-10-09 | 2015-04-09 | Hilti Aktiengesellschaft | System and method for camera based position and orientation measurement |
US20150104101A1 (en) | 2013-10-14 | 2015-04-16 | Apple Inc. | Method and ui for z depth image segmentation |
US9185276B2 (en) | 2013-11-07 | 2015-11-10 | Pelican Imaging Corporation | Methods of manufacturing array camera modules incorporating independently aligned lens stacks |
US10119808B2 (en) | 2013-11-18 | 2018-11-06 | Fotonation Limited | Systems and methods for estimating depth from projected texture using camera arrays |
WO2015081279A1 (en) | 2013-11-26 | 2015-06-04 | Pelican Imaging Corporation | Array camera configurations incorporating multiple constituent array cameras |
US9979878B2 (en) | 2014-02-21 | 2018-05-22 | Light Labs Inc. | Intuitive camera user interface methods and apparatus |
JP6211435B2 (ja) | 2014-02-26 | 2017-10-11 | 株式会社アドバンテスト | 半導体装置の製造方法 |
US10089740B2 (en) | 2014-03-07 | 2018-10-02 | Fotonation Limited | System and methods for depth regularization and semiautomatic interactive matting using RGB-D images |
WO2015149040A1 (en) | 2014-03-28 | 2015-10-01 | Dorin Panescu | Quantitative three-dimensional imaging of surgical scenes |
WO2015183824A1 (en) | 2014-05-26 | 2015-12-03 | Pelican Imaging Corporation | Autofocus system for a conventional camera that uses depth information from an array camera |
US9521319B2 (en) | 2014-06-18 | 2016-12-13 | Pelican Imaging Corporation | Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor |
US9992483B2 (en) | 2014-09-03 | 2018-06-05 | Intel Corporation | Imaging architecture for depth camera mode with mode switching |
JP2017531976A (ja) | 2014-09-29 | 2017-10-26 | フォトネイション ケイマン リミテッド | アレイカメラを動的に較正するためのシステム及び方法 |
US11315321B2 (en) | 2018-09-07 | 2022-04-26 | Intel Corporation | View dependent 3D reconstruction mechanism |
-
2013
- 2013-08-21 WO PCT/US2013/056065 patent/WO2014031795A1/en active Application Filing
- 2013-08-21 CN CN201710550511.4A patent/CN107346061B/zh active Active
- 2013-08-21 KR KR1020157006433A patent/KR102111181B1/ko active IP Right Grant
- 2013-08-21 EP EP13830945.5A patent/EP2888720B1/en active Active
- 2013-08-21 SG SG11201500910RA patent/SG11201500910RA/en unknown
- 2013-08-21 CA CA2881131A patent/CA2881131A1/en not_active Abandoned
- 2013-08-21 AU AU2013305770A patent/AU2013305770A1/en not_active Abandoned
- 2013-08-21 CN CN201380048735.5A patent/CN104662589B/zh active Active
- 2013-08-21 EP EP23185907.5A patent/EP4296963A3/en active Pending
- 2013-08-21 US US13/972,881 patent/US8619082B1/en active Active
- 2013-08-21 EP EP21155002.5A patent/EP3869797B1/en active Active
- 2013-12-30 US US14/144,458 patent/US8780113B1/en active Active
-
2014
- 2014-07-11 US US14/329,754 patent/US9240049B2/en active Active
- 2014-10-28 US US14/526,398 patent/US9147254B2/en active Active
- 2014-10-28 US US14/526,364 patent/US9123117B2/en active Active
- 2014-10-28 US US14/526,392 patent/US9235900B2/en active Active
- 2014-10-28 US US14/526,407 patent/US9129377B2/en active Active
- 2014-10-28 US US14/526,377 patent/US9123118B2/en active Active
-
2016
- 2016-01-05 US US14/988,680 patent/US9858673B2/en active Active
-
2017
- 2017-12-29 US US15/858,974 patent/US10380752B2/en active Active
-
2019
- 2019-08-09 US US16/537,369 patent/US10909707B2/en active Active
-
2021
- 2021-01-29 US US17/162,542 patent/US20210150748A1/en active Granted
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060054782A1 (en) | 2004-08-25 | 2006-03-16 | Olsen Richard I | Apparatus for multiple camera devices and method of operating same |
US20110080487A1 (en) | 2008-05-20 | 2011-04-07 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
US20110122308A1 (en) | 2009-11-20 | 2011-05-26 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
US20120012748A1 (en) | 2010-05-12 | 2012-01-19 | Pelican Imaging Corporation | Architectures for imager arrays and array cameras |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11412158B2 (en) | 2008-05-20 | 2022-08-09 | Fotonation Limited | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
US11792538B2 (en) | 2008-05-20 | 2023-10-17 | Adeia Imaging Llc | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
US11423513B2 (en) | 2010-12-14 | 2022-08-23 | Fotonation Limited | Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers |
US11875475B2 (en) | 2010-12-14 | 2024-01-16 | Adeia Imaging Llc | Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers |
US11729365B2 (en) | 2011-09-28 | 2023-08-15 | Adela Imaging LLC | Systems and methods for encoding image files containing depth maps stored as metadata |
US11272161B2 (en) | 2013-03-10 | 2022-03-08 | Fotonation Limited | System and methods for calibration of an array camera |
US11570423B2 (en) | 2013-03-10 | 2023-01-31 | Adeia Imaging Llc | System and methods for calibration of an array camera |
US11699273B2 (en) | 2019-09-17 | 2023-07-11 | Intrinsic Innovation Llc | Systems and methods for surface modeling using polarization cues |
US11525906B2 (en) | 2019-10-07 | 2022-12-13 | Intrinsic Innovation Llc | Systems and methods for augmentation of sensor systems and imaging systems with polarization |
US11842495B2 (en) | 2019-11-30 | 2023-12-12 | Intrinsic Innovation Llc | Systems and methods for transparent object segmentation using polarization cues |
US11302012B2 (en) | 2019-11-30 | 2022-04-12 | Boston Polarimetrics, Inc. | Systems and methods for transparent object segmentation using polarization cues |
US11580667B2 (en) | 2020-01-29 | 2023-02-14 | Intrinsic Innovation Llc | Systems and methods for characterizing object pose detection and measurement systems |
US11797863B2 (en) | 2020-01-30 | 2023-10-24 | Intrinsic Innovation Llc | Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images |
US11953700B2 (en) | 2020-05-27 | 2024-04-09 | Intrinsic Innovation Llc | Multi-aperture polarization optical systems using beam splitters |
US11290658B1 (en) | 2021-04-15 | 2022-03-29 | Boston Polarimetrics, Inc. | Systems and methods for camera exposure control |
US11954886B2 (en) | 2021-04-15 | 2024-04-09 | Intrinsic Innovation Llc | Systems and methods for six-degree of freedom pose estimation of deformable objects |
US11683594B2 (en) | 2021-04-15 | 2023-06-20 | Intrinsic Innovation Llc | Systems and methods for camera exposure control |
US11689813B2 (en) | 2021-07-01 | 2023-06-27 | Intrinsic Innovation Llc | Systems and methods for high dynamic range imaging using crossed polarizers |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10909707B2 (en) | System and methods for measuring depth using an array of independently controllable cameras | |
US9800856B2 (en) | Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies | |
US9214013B2 (en) | Systems and methods for correcting user identified artifacts in light field images | |
CN107077743B (zh) | 用于阵列相机的动态校准的系统和方法 | |
US9462164B2 (en) | Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information | |
CN103069250B (zh) | 三维测量设备、三维测量方法 | |
CN110827338B (zh) | 一种分区域自适应匹配的光场数据深度重建方法 | |
Mustaniemi et al. | Parallax correction via disparity estimation in a multi-aperture camera | |
Lu et al. | Interpolation error as a quality metric for stereo: Robust, or not? |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
N231 | Notification of change of applicant | ||
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |