KR101992527B1 - Method and Apparatus for Depth Image Estimation of Light Fields - Google Patents

Method and Apparatus for Depth Image Estimation of Light Fields Download PDF

Info

Publication number
KR101992527B1
KR101992527B1 KR1020170068324A KR20170068324A KR101992527B1 KR 101992527 B1 KR101992527 B1 KR 101992527B1 KR 1020170068324 A KR1020170068324 A KR 1020170068324A KR 20170068324 A KR20170068324 A KR 20170068324A KR 101992527 B1 KR101992527 B1 KR 101992527B1
Authority
KR
South Korea
Prior art keywords
cost
patch
data
light field
measuring
Prior art date
Application number
KR1020170068324A
Other languages
Korean (ko)
Other versions
KR20180131787A (en
Inventor
박인규
윌리엄
Original Assignee
인하대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인하대학교 산학협력단 filed Critical 인하대학교 산학협력단
Priority to KR1020170068324A priority Critical patent/KR101992527B1/en
Publication of KR20180131787A publication Critical patent/KR20180131787A/en
Application granted granted Critical
Publication of KR101992527B1 publication Critical patent/KR101992527B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

라이트필드 깊이 영상 추정 방법 및 장치가 제시된다. 본 발명에서 제안하는 라이트필드 깊이 영상 추정 방법은 각패치의 화소의 깊이 라벨 후보를 위한 데이터 비용 추정을 위해 각패치, 재초점 영상을 포함하는 라이트필드 영상의 속성을 이용하여 데이터 비용을 측정하는 단계, 각패치의 화소 간 대응 관계에서의 데이터 비용을 계산하기 위해 각엔트로피 비용을 계산함으로써 각패치의 화소 색상의 일관성을 측정하는 단계, 폐색 현상에 대하여 일관성을 갖는 각패치의 화소를 얻기 위해 적응적 비초점 비용을 측정하는 단계, 라이트필드 영상의 속성을 이용하여 측정된 데이터 비용, 깊이 라벨 후보에 대한 적합도를 측정하는 데이터 비용, 인접 화소 간의 평탄성을 유지하기 위한 데이터 비용을 이용하여, 각엔트로피 비용 및 적응적 비초점 비용을 정규화하고 통합함으로써 최종 데이터 비용을 형성하는 단계를 포함한다.A light field depth image estimation method and apparatus are presented. The light field depth image estimation method proposed in the present invention includes a step of measuring a data cost using attributes of a light field image including each patch and a refocus image for estimating a data cost for a depth label candidate of a pixel of each patch Measuring the consistency of pixel colors of each patch by calculating each entropy cost to calculate the data cost in the corresponding relationship between pixels of each patch; Measuring the unfocused cost, measuring the data cost using the properties of the light field image, the data cost measuring the fitness for the depth label candidate, and the data cost for maintaining flatness between adjacent pixels, And adaptive unfocused costs to form the final data cost. And a step.

Description

라이트필드 깊이 영상 추정 방법 및 장치{Method and Apparatus for Depth Image Estimation of Light Fields}FIELD OF THE INVENTION [0001] The present invention relates to a light field depth image estimation method and apparatus,

본 발명은 라이트필드 깊이 영상 추정 방법 및 장치에 관한 것으로, 더욱 상세하게는 폐색에 더 강하고 잡음에 덜 민감한 라이트필드 깊이 추정 방법 및 장치에 관한 것이다.Field of the Invention [0002] The present invention relates to a method and apparatus for estimating a light field depth image, and more particularly, to a method and apparatus for estimating a light field depth that is more resistant to occlusion and less sensitive to noise.

4D 라이트필드 카메라는 공간에 존재하는 빛의 많은 정보를 얻을 수 있기 때문에 영상 획득에 유망한 기술이다. 라이트필드 카메라는 기존의 기술과 다르게 화소에 누적된 광선의 밝기가 아닌 각각의 방향성을 가진 광선의 밝기를 취득한다. 상업적 라이트필드 카메라는 기존 라이트필드 카메라보다 크기가 작고 조작이 편리하여 라이트필드 분야의 연구와 일반 소비자들이 많은 관심을 보인다. 종래기술에서는 EPI(Epipolar Plane Image), 각패치(angular patch), 영상 재초점과 같은 라이트필드의 다양한 특징으로 깊이 추정 알고리즘을 개발해 왔다. 하지만, 기존의 기술은 두 가지의 중요한 가정: 컬러 일관성(대응점 정보), 초점 일치(비초점 정보)를 만족하지 못해 폐색(occlusion)에 관한 문제점이 있다. 따라서 폐색과 잡음이 존재하는 경우에 있어서, 강인한 깊이 추정 기법을 필요로 한다. 4D light field cameras are a promising technology for acquiring images because they can get a lot of information about light in space. The light field camera acquires the brightness of each directional light beam rather than the brightness of the light ray accumulated in the pixel unlike the existing technology. The commercial light field camera is smaller than the existing light field camera and is convenient to operate, so the research in the field of light field and the consumer show a lot of interest. In the prior art, depth estimation algorithms have been developed with various features of light fields such as EPI (Epipolar Plane Image), angular patch, and image refocusing. However, existing techniques have problems with occlusion because they fail to satisfy two important assumptions: color consistency (correspondence point information) and focus agreement (non-focus information). Therefore, robust depth estimation techniques are needed in the presence of occlusion and noise.

본 발명이 이루고자 하는 기술적 과제는 폐색과 잡음에 강인한 두 가지의 새로운 데이터 비용을 위해, 대응관계(correspondence)와 비초점(defocus) 정보, 기존 대응 비용보다 잡음에 덜 민감하고 폐색 지역을 효과적으로 처리하는 각엔트로피(angular entropy) 비용 및 기존 기술을 개선하여 잡음과 폐색에 강한 적응적인 비초첨 비용(adaptive defocus cost)을 이용하고, 비용 볼륨 필터링(cost volume filtering)과 그래프 컷(graph cut)을 후처리 과정으로서 수행하여 얻어진 데이터 비용을 최적화는 방법 및 장치를 제공하는데 있다. SUMMARY OF THE INVENTION The present invention is directed to a method and apparatus for providing two new data costs robust to occlusion and noise, including correspondence and defocus information, less noise sensitivity than existing countermeasures, The cost of each angular entropy and the existing technology are improved to use the adaptive defocus cost which is strongly resistant to noise and occlusion and the cost volume filtering and the graph cut are postprocessed And to provide a method and apparatus for optimizing the data cost obtained by performing as a process.

일 측면에 있어서, 본 발명에서 제안하는 라이트필드 깊이 영상 추정 방법은 각패치의 화소의 깊이 라벨 후보를 위한 데이터 비용 추정을 위해 각패치, 재초점 영상을 포함하는 라이트필드 영상의 속성을 이용하여 데이터 비용을 측정하는 단계, 각패치의 화소 간 대응 관계에서의 데이터 비용을 계산하기 위해 각엔트로피 비용을 계산함으로써 각패치의 화소 색상의 일관성을 측정하는 단계, 폐색 현상에 대하여 일관성을 갖는 각패치의 화소를 얻기 위해 적응적 비초점 비용을 측정하는 단계, 라이트필드 영상의 속성을 이용하여 측정된 각엔트로피 비용 및 적응적 비초점 비용을 정규화하고 통합함으로써 최종 데이터 비용을 형성하는 단계를 포함한다. In one aspect, the light field depth image estimating method proposed by the present invention estimates data cost for a depth label candidate of a pixel of each patch by using attributes of a light field image including each patch and a refocus image, Measuring the cost of each patch, calculating the entropy cost to calculate the data cost in the corresponding relationship between pixels of each patch, measuring the consistency of the pixel color of each patch, determining the pixel of each patch having consistency with the occlusion phenomenon Measuring the adaptive non-focal cost to obtain the final data cost, normalizing and integrating each entropy cost and the adaptive non-focal cost measured using the attributes of the light field image to form the final data cost.

각패치의 화소 간 대응 관계에서의 데이터 비용을 계산하기 위해 각엔트로피 비용을 계산함으로써 각패치의 화소 색상의 일관성을 측정하는 단계는 각엔트로피 비용을 측정하여 각패치의 화소 색상의 일관성 평가에 사용하고, 각엔트로피 비용은 히스토그램을 구간으로 나누지 않고 RGB 각 채널에서 독립적으로 계산한다. The step of measuring the consistency of pixel colors of each patch by calculating each entropy cost to calculate the data cost in the correspondence relationship between pixels of each patch is used for the consistency evaluation of pixel colors of each patch by measuring each entropy cost , Each entropy cost is calculated independently for each channel of RGB without dividing the histogram into sections.

폐색 현상에 대하여 일관성을 갖는 각패치의 화소를 얻기 위해 적응적 비초점 비용을 측정하는 단계는 적응적 비초점 비용을 위해 폐색에 의한 영향을 받은 전체 영역을 복수 개의 부영역으로 나누어 최소 비용을 계산함으로써, 원본 패치 중 폐색에 영향을 받지 않고 블러 효과가 없는 보조 패치를 찾는 단계를 포함한다. The step of measuring the adaptive non-focal cost to obtain the pixels of each patch having consistency with the occlusion phenomenon may include calculating the minimum cost by dividing the entire region affected by the occlusion into a plurality of sub-regions for the adaptive non-focal cost Thereby finding an auxiliary patch which is not affected by the occlusion of the original patch and has no blurring effect.

원본 패치 중 폐색에 영향을 받지 않고 블러 효과가 없는 보조 패치를 찾는 단계는 폐색 영역의 전경과 배경을 구분하기 위해 최소 비용을 갖는 보조 패치의 평균 색상과 중심 화소 색상의 차이를 나타내는 추가적 비용을 계산한다. The step of finding the auxiliary patch without blur effect without being influenced by the occlusion of the original patch calculates the additional cost representing the difference between the average color of the auxiliary patch having the minimum cost and the center pixel color to distinguish the foreground and background of the occlusion region do.

폐색 현상에 대하여 일관성을 갖는 각패치의 화소를 얻기 위해 적응적 비초점 비용을 측정하는 단계는 잡음을 제거하기 위해 원본 패치 내의 모든 보조 패치 관하여, 각 보조 패치에서 비초점 비용을 계산하고, 최소 비용을 가진 보조 패치를 찾는다.Measuring the adaptive non-focal cost to obtain pixels of each patch that are consistent with the occlusion phenomenon includes calculating the non-focal cost for each of the auxiliary patches in the original patch to remove noise, Find the secondary patch with.

또 다른 일 측면에 있어서, 본 발명에서 제안하는 라이트필드 깊이 영상 추정 장치는 각패치의 화소의 깊이 라벨 후보를 위한 데이터 비용 추정을 위해 각패치, 재초점 영상을 포함하는 라이트필드 영상의 속성을 이용하여 데이터 비용을 측정하고; 각패치의 화소 간 대응 관계에서의 데이터 비용을 계산하기 위해 각엔트로피 비용을 계산함으로써 각패치의 화소 색상의 일관성을 측정하고; 폐색 현상에 대하여 일관성을 갖는 각패치의 화소를 얻기 위해 적응적 비초점 비용을 측정하는 데이터 비용 계산부 및 라이트필드 영상의 속성을 이용하여 측정된 각엔트로피 비용 및 적응적 비초점 비용을 정규화하고 통합함으로써 최종 데이터 비용을 형성하는 최종 데이터 비용 통합부를 포함한다. In another aspect, the light field depth image estimating apparatus proposed in the present invention uses attributes of a light field image including each patch and a refocus image to estimate a data cost for a depth label candidate of a pixel of each patch To measure data costs; Measure the consistency of pixel colors of each patch by calculating each entropy cost to calculate the data cost in the corresponding relationship between pixels of each patch; A data cost calculator for measuring the adaptive non-focal cost to obtain the pixels of each patch having consistency with the occlusion phenomenon, and the entropy cost and the adaptive non-focal cost measured using the attributes of the light field image, Thereby forming a final data cost.

데이터 비용 계산부는 각엔트로피 비용을 측정하여 각패치의 화소 색상의 일관성 평가에 사용하고, 각엔트로피 비용은 히스토그램을 구간으로 나누지 않고 RGB 각 채널에서 독립적으로 계산한다. The data cost calculator measures each entropy cost and uses it to evaluate the consistency of the pixel colors of each patch. Each entropy cost is independently calculated for each channel of RGB without dividing the histogram into sections.

데이터 비용 계산부는 적응적 비초점 비용을 위해 폐색에 의한 영향을 받은 전체 영역을 복수 개의 부영역으로 나누어 최소 비용을 계산함으로써, 원본 패치 중 폐색에 영향을 받지 않고 블러 효과가 없는 보조 패치를 찾고, 폐색 영역의 전경과 배경을 구분하기 위해 최소 비용을 갖는 보조 패치의 평균 색상과 중심 화소 색상의 차이를 나타내는 추가적 비용을 계산하거나, 또는 잡음을 제거하기 위해 원본 패치 내의 모든 보조 패치 관하여, 각 보조 패치에서 비초점 비용을 계산하고, 최소 비용을 가진 보조 패치를 찾는다. The data cost calculator finds an auxiliary patch that is not affected by the occlusion of the original patch and has no blurring effect by calculating the minimum cost by dividing the entire area affected by the occlusion by a plurality of subregions for the adaptive unfocussed cost, In order to distinguish the foreground and the background of the occlusion region, it is necessary to calculate the additional cost indicating the difference between the average color and the center pixel color of the auxiliary patch having the minimum cost, or to calculate the supplementary patch with respect to all auxiliary patches in the original patch, , And finds a secondary patch with the lowest cost.

본 발명의 실시예들에 따르면 폐색과 잡음에 강인한 두 가지의 새로운 데이터 비용을 위해, 대응관계(correspondence)와 비초점(defocus) 정보, 기존 대응 비용보다 잡음에 덜 민감하고 폐색 지역을 효과적으로 처리하는 각엔트로피(angular entropy) 비용 및 기존 기술을 개선하여 잡음과 폐색에 강한 적응적인 비초첨 비용(adaptive defocus cost)을 이용하고, 비용 볼륨 필터링(cost volume filtering)과 그래프 컷(graph cut)을 후처리 과정으로서 수행하여 데이터 비용을 최적화할 수 있다.According to embodiments of the present invention, for two new data costs that are robust to occlusion and noise, there is a need to provide for both correspondence and defocus information, less susceptibility to noise than existing counterfeit costs, The cost of each angular entropy and the existing technology are improved to use the adaptive defocus cost which is strongly resistant to noise and occlusion and the cost volume filtering and the graph cut are postprocessed It can be performed as a process to optimize the data cost.

도 1은 본 발명의 일 실시예에 따른 라이트필드 깊이 영상 추정 방법을 설명하기 위한 흐름도이다.
도 2는 본 발명의 일 실시예에 따른 각패치 분석을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 각패치 분석의 데이터 비용 곡선을 나타내는 도면이다.
도 4는 본 발명의 일 실시예에 따른 비초점 비용 분석을 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 라이트필드 깊이 영상 추정 장치를 나타내는 도면이다.
도 6은 본 발명의 일 실시예에 따른 통합 데이터 비용을 사용한 최적화된 깊이 지도의 비교 결과를 나타내는 도면이다.
도 7은 본 발명의 일 실시예에 따른 도 10의 결과에 대해 전역적 최적화를 수행하여 생성된 깊이 지도 비교 결과를 나타내는 도면이다.
1 is a flowchart illustrating a light field depth image estimation method according to an embodiment of the present invention.
2 is a diagram for explaining each patch analysis according to an embodiment of the present invention.
3 is a diagram illustrating a data cost curve of each patch analysis according to an embodiment of the present invention.
4 is a diagram for explaining an unfocused cost analysis according to an embodiment of the present invention.
5 is a view illustrating a light field depth image estimating apparatus according to an embodiment of the present invention.
FIG. 6 is a diagram illustrating a comparison result of an optimized depth map using an integrated data cost according to an exemplary embodiment of the present invention.
FIG. 7 is a diagram illustrating a depth map comparison result generated by performing global optimization on the result of FIG. 10 according to an embodiment of the present invention.

깊이 추정은 라이트필드 응용의 대표적인 분야이다. 다양한 라이트필드 속성을 이용한 몇 가지 알고리즘이 개발되었으나 폐색이 나타나고 잡음이 존재하는 데이터를 다루는 데에는 기존의 기법이 잘 동작하지 않는다. 본 발명에서는 폐색에 더 강하고 잡음에 덜 민감한 라이트필드 깊이 추정 방법을 제안한다. 제안하는 기법에서는 두 가지 새로운 데이터 비용을 제안하고, 두 가지 새로운 데이터 비용들은 각각의 각패치(angular patch) 와 영상 재초점 기법을 사용해 측정된다. 각엔트로피(angular entropy, AE)는 낮은 비용으로 각패치의 잡음과 폐색의 영향을 줄인다. 적응적 비초점(adaptive defocus, AD)은 잡음에 강건함을 유지하면서 폐색 부분에 낮은 비용을 제공한다. 두 가지 데이터 비용의 통합을 통해 본 발명에 따른 라이트필드 깊이 추정은 폐색과 잡음에 강인하도록 동작한다. 후처리 과정으로서 비용 볼륨 필터링(cost volume filtering)과 그래프 컷(graph cut) 최적화는 깊이 지도의 정확성을 개선하는데 적용된다. 제안된 방법은 기존의 라이트필드 깊이 추정방법에 비해 질적, 양적으로 모두 뛰어난 성능을 가진다. 이하, 본 발명의 실시 예를 첨부된 도면을 참조하여 상세하게 설명한다.
Depth estimation is a typical field of light field applications. Several algorithms have been developed using various light field properties, but the existing techniques do not work well for occlusion and handling noise-dominated data. The present invention proposes a light field depth estimation method that is more robust in occlusion and less sensitive to noise. The proposed technique proposes two new data costs, and two new data costs are measured using each angular patch and image refocusing technique. Each entropy (AE) reduces the effect of noise and occlusion on each patch at low cost. Adaptive defocus (AD) provides low cost of occlusion while maintaining robustness to noise. Through the integration of the two data costs, the light field depth estimation according to the present invention operates to be robust to occlusion and noise. As a post-processing, cost volume filtering and graph cut optimization are applied to improve the accuracy of depth maps. The proposed method has superior performance both qualitatively and quantitatively compared with the existing light field depth estimation method. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 라이트필드 깊이 영상 추정 방법을 설명하기 위한 흐름도이다. 1 is a flowchart illustrating a light field depth image estimation method according to an embodiment of the present invention.

폐색과 잡음에 강인한 두 가지의 새로운 데이터 비용을 측정하기 위해 본 발명에서는 대응관계(correspondence)와 비초점(defocus) 정보를 이용한다. 각엔트로피(angular entropy) 비용은 기존 대응 비용보다 잡음에 덜 민감하고 폐색 지역을 효과적으로 처리한다. 적응적인 비초첨 비용(adaptive defocus cost)은 기존 기술을 개선하여 역시 잡음과 폐색에 강하다. 이를 통합하여 획득한 데이터 비용은 비용 볼륨 필터링(cost volume filtering)과 그래프 컷(graph cut)을 후처리 과정으로서 수행하여 최적화한다. To measure two new data costs robust to occlusion and noise, the present invention uses correspondence and defocus information. Each angular entropy cost is less susceptible to noise than the existing countermeasures and effectively addresses the occluded area. The adaptive defocus cost is also resistant to noise and occlusion by improving the existing technology. The data cost obtained by integrating them is optimized by performing cost volume filtering and graph cut as a post-processing process.

제안하는 개선된 데이터 비용은 각엔트로피(angular entropy, AE)와 적응적 비초점(adaptive defocus, AD)의 두 가지이다. 각 데이터 비용에서 인접한 화소는 중앙 화소 값과 유사한 컬러 값을 가져야 한다. 각패치의 모든 화소를 그대로 사용하기보다 AE는 각각의 화소에 색상 유사도에 따라 가중치를 부여한다. 따라서 각패치의 폐색을 유도하는 화소는 엔트로피 계산에서 더 적은 영향을 주도록 한다. 폐색은 재초점 영상이 흐려지는 결과를 만들기 때문에 본 발명에서는 원본 재초점 패치를 보조 패치로 나누고 보조 패치에 기존의 비초점 비용을 측정한다. 그리고 색상 유사성 제약조건을 각 보조 패치 비용에 추가한다. AD는 블러가 발생하지 않는 보조 패치들의 비용 중 최소의 비용으로 계산된다. The proposed improved data cost is divided into two categories: angular entropy (AE) and adaptive defocus (AD). At each data cost, adjacent pixels should have a color value similar to the center pixel value. Rather than using all pixels of each patch as they are, AE weights each pixel according to the color similarity. Thus, the pixels that induce occlusion of each patch have less effect on the entropy calculation. In the present invention, the original refocusing patch is divided into auxiliary patches and the existing nonfocusing cost is measured in the auxiliary patch since the occlusion results in blurred refocused images. And adds a color similarity constraint to each auxiliary patch cost. AD is calculated as the lowest cost of the non-blur auxiliary patches.

본 발명의 실시예에 따르면, 정확한 성능 측정을 위해 제안된 데이터 비용과 기존 데이터 비용의 광범위한 비교를 수행한다. 정량적인 성능 평가는 일반적으로 통용되는 라이트필드 데이터셋을 이용하여 수행한다. 또한, 다양한 실험을 위한 라이트필드 영상은 리트로 일룸(Lytro Illum) 카메라를 이용하여 직접 취득하였다. 정량적 평가를 위해 영상의 모든 화소와 폐색 지역의 화소를 사용하여 최소 제곱 오차(mean square error, MSE)와 불량 화소 비율(bad pixel percentage, BP)을 측정하였다. 실험결과를 통해 제안된 방법의 데이터 비용이 기존 접근법에 비해 폐색지역과 잡음 영상에서 뛰어난 성능을 가짐을 확인할 수 있다. According to an embodiment of the present invention, an extensive comparison of the proposed data cost and the existing data cost is performed for accurate performance measurement. Quantitative performance evaluation is performed using commonly used light field datasets. In addition, light field images for various experiments were acquired directly using a Lytro Illum camera. For quantitative evaluation, mean square error (MSE) and bad pixel percentage (BP) were measured using all the pixels of the image and the pixels of the occlusion region. Experimental results show that the data cost of the proposed method is superior to that of the conventional approach in occluded areas and noise images.

본 발명은 라이트필드 각패치와 재초점 영상의 정확한 관측이 가능하도록 폐색과 잡음에 강한 라이트필드 깊이 추정을 위한 새로운 데이터 비용인 각엔트로피(angular entropy, AE) 비용과 적응적 비초점(adaptive defocus, AE) 비용을 제안한다. The present invention provides a new data cost, angular entropy (AE) cost and adaptive defocus (AE) cost for obstruction and noise-robust light field depth estimation, which allows accurate observation of light field patches and refocused images, AE) costs.

제안하는 라이트필드 깊이 영상 추정 방법은 각패치의 화소의 깊이 라벨 후보를 위한 데이터 비용 추정을 위해 각패치, 재초점 영상을 포함하는 라이트필드 영상의 속성을 이용하여 데이터 비용을 측정하는 단계(110), 각패치의 화소의 깊이 라벨 후보에 대한 적합도를 측정하는 데이터 비용 및 인접 화소 간의 평탄성을 유지하기 위한 데이터 비용을 측정하는 단계(120), 각패치의 화소 간 대응 관계에서의 데이터 비용을 계산하기 위해 각엔트로피 비용을 계산함으로써 각패치의 화소 색상의 일관성을 측정하는 단계(130), 폐색 현상에 대하여 일관성을 갖는 각패치의 화소를 얻기 위해 적응적 비초점 비용을 측정하는 단계(140) 및 라이트필드 영상의 속성을 이용하여 측정된 데이터 비용, 깊이 라벨 후보에 대한 적합도를 측정하는 데이터 비용, 인접 화소 간의 평탄성을 유지하기 위한 데이터 비용을 이용하여, 각엔트로피 비용 및 적응적 비초점(AD) 비용을 정규화하고 통합함으로써 최종 데이터 비용을 형성하는 단계(150)를 포함한다. The proposed light field depth image estimation method includes a step 110 of measuring a data cost using attributes of a light field image including each patch and a refocus image for estimating a data cost for a depth label candidate of a pixel of each patch, A step 120 of measuring a data cost for measuring a fitness for a depth label candidate of a pixel of each patch and a data cost for maintaining flatness between adjacent pixels, calculating a data cost in a correspondence relationship between pixels of each patch (130) measuring coherence of the pixel color of each patch by calculating the entropy cost for each patch, measuring 140 an adaptive non-focal cost to obtain pixels of each patch that are consistent with the occlusion phenomenon, The cost of the data measured using the attribute of the field image, the cost of the data for measuring the fitness for the depth label candidate, Using the data costs for maintaining the flatness of, and by normalizing the respective entropy cost and adaptive non-focus (AD) cost and integrating a step 150 to form the final cost data.

단계(110)에서, 각패치의 화소의 깊이 라벨 후보를 위한 데이터 비용 추정을 위해 각패치, 재초점 영상을 포함하는 라이트필드 영상의 속성을 이용하여 데이터 비용을 측정한다. At step 110, the data cost is measured using the attributes of the light field image including each patch, refocused image for estimating the data cost for the depth label candidates of the pixels of each patch.

라이트필드 영상의 3가지 속성(예를 들어, EPI, 각패치, 재초점 영상)은 깊이 추정에서 데이터 비용을 측정하기 위해 사용된다. 본 발명에서는 각각의 깊이 라벨 후보를 위한 데이터 비용 추정을 위해 각패치와 재초점 영상을 사용하였다. 각패치를 만들기 위해 라이트필드

Figure 112017052452066-pat00001
의 각각의 화소는 깊이 라벨 후보
Figure 112017052452066-pat00002
를 기반으로 변형된(sheared) 라이트필드 영상
Figure 112017052452066-pat00003
에 다시 대응된다. 이 과정은 다음 수식과 같이 표현된다.Three attributes of the light field image (e. G., EPI, each patch, refocused image) are used to measure the data cost in depth estimation. In the present invention, each patch and refocused image are used to estimate the data cost for each depth label candidate. Light field to make each patch
Figure 112017052452066-pat00001
Each pixel of the depth label candidate
Figure 112017052452066-pat00002
A sheared light field image
Figure 112017052452066-pat00003
Lt; / RTI > This process is expressed as:

Figure 112017052452066-pat00004
Figure 112017052452066-pat00004

Figure 112017052452066-pat00005
Figure 112017052452066-pat00005

Figure 112017052452066-pat00006
Figure 112017052452066-pat00006

여기서

Figure 112017052452066-pat00007
는 중심 핀홀 영상의 위치를 의미한다. 또한
Figure 112017052452066-pat00008
Figure 112017052452066-pat00009
는 각각 단위 변위(disparity) 라벨
Figure 112017052452066-pat00010
에 대한
Figure 112017052452066-pat00011
Figure 112017052452066-pat00012
축 방향의 이동 값이다.
Figure 112017052452066-pat00013
는 변위가 없을 때의 변위 라벨
Figure 112017052452066-pat00014
값을 나타낸다. 이동 값은 라이트필드 영상의 서브어퍼쳐(subaperture) 영상과 중심 핀홀 영상의 거리가 증가할수록 증가한다. 일반성을 잃지 않는 한에서 본 발명의 실시예에 따른 깊이 및 변위 값은 실제 깊이 값이 아닌 라이트필드 깊이 라벨 값
Figure 112017052452066-pat00015
을 의미한다. 각패치는 아래와 같이 변형된 라이트필드로부터 각 영상의 화소를 추출하여 생성될 수 있다. here
Figure 112017052452066-pat00007
Is the position of the center pinhole image. Also
Figure 112017052452066-pat00008
Wow
Figure 112017052452066-pat00009
Are each a unit disparity label
Figure 112017052452066-pat00010
For
Figure 112017052452066-pat00011
Wow
Figure 112017052452066-pat00012
And is a movement value in the axial direction.
Figure 112017052452066-pat00013
Is the displacement label when there is no displacement
Figure 112017052452066-pat00014
Value. The shift value increases as the distance between the subaperture image of the light field image and the center pinhole image increases. As long as the generality is not lost, the depth and displacement values according to the embodiment of the present invention are not the actual depth values but the light field depth label values
Figure 112017052452066-pat00015
. Each patch can be generated by extracting pixels of each image from a modified light field as described below.

Figure 112017052452066-pat00016
Figure 112017052452066-pat00016

여기서

Figure 112017052452066-pat00017
는 깊이 라벨
Figure 112017052452066-pat00018
에서의 화소
Figure 112017052452066-pat00019
의 각패치를 의미한다. 재초점 영상
Figure 112017052452066-pat00020
는 아래 정의와 같이 모든 화소의 각패치의 평균으로 계산된다..here
Figure 112017052452066-pat00017
Depth label
Figure 112017052452066-pat00018
Pixel
Figure 112017052452066-pat00019
Respectively. Refocus imaging
Figure 112017052452066-pat00020
Is calculated as the average of each patch of every pixel as defined below.

Figure 112017052452066-pat00021
Figure 112017052452066-pat00021

여기서

Figure 112017052452066-pat00022
는 각패치의 화소의 수이다.here
Figure 112017052452066-pat00022
Is the number of pixels of each patch.

단계(120)에서, 각패치의 화소의 깊이 라벨 후보에 대한 적합도를 측정하는 데이터 비용 및 인접 화소 간의 평탄성을 유지하기 위한 데이터 비용을 측정한다. In step 120, the data cost for measuring the fitness for the depth label candidates of the pixels of each patch and the data cost for maintaining flatness between adjacent pixels are measured.

본 발명의 실시예에 따른 라이트필드 깊이 추정은 아래와 같이 MAP-MRF 구조에서 모델링된다. The light field depth estimation according to an embodiment of the present invention is modeled in the MAP-MRF structure as follows.

Figure 112017052452066-pat00023
Figure 112017052452066-pat00023

여기서 α(P) 와 N(p)는 화소 p의 깊이 라벨과 인접 화소의 집합이다. Eunary(p, α(p))는 주어진 화소p의 깊이 라벨 α가 얼마나 적합한가를 측정하는 데이터 비용이다. Eunary는 이웃 화소 간에 평탄성을 유지하기 위한 비용이다. 그리고 λ는 두 비용 간의 위한 가중치이다Where α (P) and N (p) are the set of pixel depth labels and adjacent pixels. E unary (p, α (p)) is the data cost that measures how well the depth label α of a given pixel p is. E unary is the cost to maintain flatness between neighboring pixels. And λ is a weight for the two costs

단계(130)에서, 각패치의 화소 간 대응 관계에서의 데이터 비용을 계산하기 위해 각엔트로피 비용을 계산함으로써 각패치의 화소 색상의 일관성을 측정한다. 이때, 제약된 각엔트로피 비용을 측정하여 각패치의 화소 색상의 일관성 평가에 사용하고, 제약된 각엔트로피 비용은 히스토그램을 구간으로 나누지 않고 RGB 각 채널에서 독립적으로 계산할 수 있다. In step 130, the consistency of pixel colors of each patch is measured by calculating the entropy cost to calculate the data cost in the corresponding relationship between pixels of each patch. At this time, the constrained entropy cost is measured and used for the consistency evaluation of the pixel color of each patch, and the constrained entropy cost can be independently calculated for each RGB channel without dividing the histogram into sections.

단계(140)에서, 폐색 현상에 대하여 일관성을 갖는 각패치의 화소를 얻기 위해 적응적 비초점 비용을 측정한다. 이때, 적응적 비초점 비용을 위해 폐색에 의한 영향을 받은 전체 영역을 복수 개의 부영역으로 나누어 최소 비용을 계산함으로써, 원본 패치 중 폐색에 영향을 받지 않고 블러 효과가 없는 보조 패치를 찾는다. 그리고, 폐색 영역의 전경과 배경을 구분하기 위해 최소 비용을 갖는 보조 패치의 평균 색상과 중심 화소 색상의 차이를 나타내는 추가적 비용을 계산한다. In step 140, the adaptive non-focal cost is measured to obtain pixels of each patch that are consistent with occlusion phenomena. At this time, for the adaptive non-focal cost, the total area affected by the occlusion is divided into a plurality of sub-areas and the minimum cost is calculated to find an auxiliary patch that is not affected by the occlusion of the original patch and has no blurring effect. Then, the additional cost is calculated to show the difference between the average color of the auxiliary patch having the minimum cost and the center pixel color to distinguish the foreground and the background of the occlusion region.

또는, 단계(140)에서, 잡음을 제거하기 위해 원본 패치 내의 모든 보조 패치 관하여, 각 보조 패치에서 비초점 비용을 계산하고, 최소 비용을 가진 보조 패치를 찾는다. Alternatively, in step 140, for each auxiliary patch in the original patch to remove noise, calculate the unfocused cost in each auxiliary patch and find the auxiliary patch with the lowest cost.

우선 화소 간 대응 관계에서의 데이터 비용 C(p, α(p))을 위해서 제약된 각엔트로피를 계산함으로써 각패치의 화소 색상의 일관성을 측정한다. 다음으로 폐색 현상에 대해 강인한 결과를 얻기 위해 제약된 적응적 비초점 (CAD) D(p, α(p))를 측정한다. The consistency of pixel colors of each patch is measured by calculating constrained entropy for the data cost C (p,? (P)) in the correspondence relationship between pixels. Next, the constrained adaptive nonfocus (CAD) D (p, α (p)) is measured to obtain robust results for occlusion phenomena.

단계(150)에서, 라이트필드 영상의 속성을 이용하여 측정된 각엔트로피 비용 및 적응적 비초점(AD) 비용을 정규화하고 통합함으로써 최종 데이터 비용을 형성한다. At step 150, the final data cost is formed by normalizing and integrating each entropy cost and adaptive non-focus (AD) cost measured using the attributes of the light field image.

각 데이터 비용은 정규화되고 통합되어 최종 데이터 비용을 형성한다. 최종 데이터 비용과 평탄화 비용은 아래와 같이 정의된다. Each data cost is normalized and integrated to form the final data cost. The final data cost and flattening cost are defined as follows.

Figure 112017052452066-pat00024
Figure 112017052452066-pat00024

Figure 112017052452066-pat00025
Figure 112017052452066-pat00025

여기서 ▽I(p,q)는 화소 p와 q의 밝기 차이고, τ는 평탄화 비용의 임계값, β는 두 데이터 비용 사이의 가중치이다. 데이터 비용 볼륨은 에지 보존 필터(edge-preserving filter)를 사용하여 평탄화된다. 이후 에너지 함수를 최적화하기 위해 그래프 컷(graph cut)을 수행한다.
Where ∇I (p, q) is the brightness difference between pixels p and q, τ is the threshold of the flattening cost, and β is the weight between the two data costs. The data cost volume is flattened using an edge-preserving filter. We then perform a graph cut to optimize the energy function.

도 2는 본 발명의 일 실시예에 따른 각패치 분석을 설명하기 위한 도면이다. 2 is a diagram for explaining each patch analysis according to an embodiment of the present invention.

도 2(a)는 공간 패치의 중앙 핀홀 영상, 도 2(b)는 각패치와 (a=8)에서의 히스토그램, 도 2(c)는 각패치와 (a=28

Figure 112017052452066-pat00026
)에서의 히스토그램, 도 2(d)는 각패치와 (a=48)에서의 히스토그램을 나타낸다. 첫 번째 열은 폐색이 없는 실시예이고, 두 번째 열은 다중 폐색이 존재하는 실시예이며, 참값 a는 8이다.Fig. 2 (a) shows a central pinhole image of a spatial patch, Fig. 2 (b) shows a histogram at each patch and a = 8,
Figure 112017052452066-pat00026
2 (d) shows a histogram at each patch and (a = 48). The first row is an embodiment without occlusion, the second row is an embodiment with multiple occlusion, and the true value a is 8.

기존의 대응관계 데이터 비용은 폐색을 고려하지 않고 각패치 사이의 화소 간 유사도를 측정한다. 폐색 영역이 넓어져 각패치에 영향을 줄 때, 각패치의 화소의 컬러 일관성은 깨지게 된다. 그러나 다수의 화소는 여전히 컬러 일관성을 유지한다. 따라서, 주가 되는 다수 화소의 밝기의 확률 분포로부터 컬러 일관성을 계산하기 위해 새로운 대응관계 데이터 비용을 제안한다. The existing correspondence data cost measures the similarity between pixels between each patch without considering the occlusion. When the occlusion area is widened to affect each patch, the color consistency of the pixels of each patch is broken. However, many pixels still maintain color consistency. Therefore, a new corresponding relationship data cost is proposed to calculate the color consistency from the probability distribution of the brightness of the main pixels.

도 2는 임의의 화소의 각패치의 몇 가지 깊이 라벨 후보에서의 밝기 값의 히스토그램을 보여준다. 폐색이 없는 첫 번째 열에서 보인 바와 같이 정확한 깊이 값(

Figure 112017052452066-pat00027
)을 갖는 각패치는 단일 색상을 갖는다. 그리고 밝기 히스토그램은 도 2(b)와 같이 높은 정점을 갖는다. 이러한 관찰을 통해 각엔트로피 비용(AE)이라 하는 각패치의 엔트로피를 측정하고, 이를 컬러 일관성 평가에 사용한다. 라이트필드는 기존의 다중 뷰 스테레오 셋보다 훨씬 더 많은 뷰를 생성하기 때문에, 각패치는 엔트로피가 안정적으로 계산되기에 충분한 화소를 포함한다. 각엔트로피 비용 H는 아래의 수식에 의해 구해진다. Fig. 2 shows a histogram of brightness values at several depth label candidates of each patch of a given pixel. As shown in the first column without occlusion, the exact depth value (
Figure 112017052452066-pat00027
) Has a single color. And the brightness histogram has a high peak as shown in FIG. 2 (b). Through this observation, entropy of each patch called each entropy cost (AE) is measured and used for color consistency evaluation. Since the light field generates much more views than the conventional multi-view stereo set, each patch contains enough pixels for the entropy to be calculated stably. Each entropy cost H is obtained by the following equation.

Figure 112017052452066-pat00028
Figure 112017052452066-pat00028

여기서 h(i)는 각패치 Au p의 밝기 i의 확률이다. 기존방법과는 다르게, 본 발명에서의 엔트로피 비용은 히스토그램을 구간으로 나누지 않고 RGB 각 채널에서 독립적으로 계산한다.Where h (i) is the probability of the brightness i of each patch A u p . Unlike the conventional method, the entropy cost in the present invention independently calculates the histogram in each of the RGB channels without dividing the histogram into sections.

각엔트로피 비용은 다수를 점하는 화들의 밝기 분포에 의존하므로 역시 폐색에 강인하다. 예를 들어, 도 2의 두 번째 행은 폐색 영역이 존재하지만 참값 α에서 밝기 히스토그램이 여전히 높은 정점을 보이는 각패치를 보여준다. 각패치에 다중 폐색이 존재하더라도 제안된 데이터 비용은 최선의 반응 결과를 보인다. 폐색되지 않은 화소가 각패치에서 우세하게 존재하는 한, 각엔트로피 비용은 낮은 값을 보인다.
Each entropy cost is also robust to occlusion, since it depends on the distribution of the brightness of the multitude of episodes. For example, the second row of FIG. 2 shows each patch in which the brightness histogram still shows a high peak at true value alpha although the occlusion region is present. The proposed data cost shows the best response even though there are multiple occlusions in each patch. As long as the unobstructed pixels are dominant in each patch, the entropy cost is low.

도 3은 본 발명의 일 실시예에 따른 각패치 분석의 데이터 비용 곡선을 나타내는 도면이다. 3 is a diagram illustrating a data cost curve of each patch analysis according to an embodiment of the present invention.

폐색이 있을 때와 폐색이 없을 때의 각패치의 데이터 비용 곡선을 각각 도 3(a)와 도 3(b)에 나타내었다.
The data cost curves of the patches when there is occlusion and when there is no occlusion are shown in Figs. 3 (a) and 3 (b), respectively.

도 4는 본 발명의 일 실시예에 따른 비초점 비용 분석을 설명하기 위한 도면이다. 4 is a diagram for explaining an unfocused cost analysis according to an embodiment of the present invention.

도 4(a)는 중앙 핀홀 영상과 공간 패치, 도 4(b)는 데이터 비용 곡선 비교, 도 4(c) 내지 도 4(f)는 재초점 영상의 공간 패치(a = 7, 28, 48, 67), 도 4(g) 내지 도 4(j)는 도 4(a)의 공간 패치와 도 4(c) 내지 도 4(f)의 공간 패치간 차이 지도를 나타내고, 빨간 박스는 최소 보조 패치를 의미하며, 참값 a는 27이다.Fig. 4 (a) shows the center pinhole image and the spatial patch, Fig. 4 (b) shows the data cost curve comparison and Figs. 4 (c) 4 (a) and 4 (c) to 4 (f) show the difference map between the spatial patch of FIG. 4 (a) and the spatial patch of FIG. 4 Patch, and the true value a is 27.

라이트필드 깊이 추정을 위한 기존의 비초점 비용은 잡음이 있는 장면에 강하지만 폐색이 존재하는 경우에는 잘 동작하지 않는다. 이것은 폐색으로 흐려진 재초점 영상이 기존의 데이터 비용의 모호성을 증가시키기 때문이다. 도 4(a), 도 4(c) 내지 도 4(f)는 각각 중앙 핀홀 영상과 재초점 영상을 보여준다. 명확한 관찰을 위해서 도 4(g) 내지 도 4(j)에 중앙 영상과 재초점 영상 사이의 차이 지도를 보인 바와 같이, 참값이 아닌 깊이(a = 67)에서 참값 깊이(a = 27)보다 더 적은 비용을 보이는 오류가 존재한다. The existing non-focal cost for light field depth estimation is robust to noisy scenes but does not work well in the presence of occlusions. This is because blurred refocused images increase the ambiguity of existing data costs. 4 (a), 4 (c) to 4 (f) show a center pinhole image and a refocus image, respectively. 4 (g) to 4 (j) show a difference map between the central image and the refocused image for a clear observation, the difference between the true value depth (a = 27) There are errors that show little cost.

이러한 문제를 해결하기 위해 잡음과 폐색에 동시에 강인한 적응적 비초점(adaptive defocus, AD) 비용을 제안하였다. 도 4의 분석을 기반으로 적응적 비초점 비용은 전체 영역을 분할한 부영역(subregion)에서의 최소 비용을 찾는다. 다시 말해, 폐색에 의해 흐려진 영향을 받은 전체 지역(15 × 15)에서의 비용을 측정하지 않고 원본 패치(15 × 15)를 9개의 보조 패치(5 × 5)로 나누어 폐색에 영향을 받지 않아 블러 효과가 없는 보조 패치를 찾는다. 이때, 아래와 같이 독립적으로 각 보조 패치 Nc(p)의 비초점 비용 Dc res(p,α)를 측정한다.To solve this problem, we proposed adaptive defocus (AD) cost that is robust to both noise and occlusion. Based on the analysis of FIG. 4, the adaptive unfocused cost finds the minimum cost in the subregion in which the entire region is divided. In other words, the original patch (15 × 15) was divided into 9 auxiliary patches (5 × 5) without measuring the cost in the entire area (15 × 15) affected by the occlusion, so that the blur Look for secondary patches that have no effect. At this time, the measurement of each auxiliary patch N c (p) ratio c res focus cost D (p, α) of independently as follows.

Figure 112017052452066-pat00029
Figure 112017052452066-pat00029

c는 보조 패치의 색인이며 p는 중심 핀홀 영상이다. 초기 비초점 비용(ID)은 상기 식의 비용을 최소로 하는 보조 패치에서의 비용으로 계산된다. c is the index of the auxiliary patch and p is the center pinhole image. The initial unfocus cost (ID) is calculated as the cost in the auxiliary patch that minimizes the cost of the equation.

그러나 초기 비용은 여전히 도 4(b)와 같이 폐색 영역의 전경과 배경을 구분할 수 없는 모호함을 가진다. 두 가지 경우를 구분하기 위해 최소 비용을 가지는 보조 패치의 평균 색상과 중심 화소 색상 p(p)의 차이를 나타내는 추가적 비용인

Figure 112017052452066-pat00030
을 이용한다. 공식은 다음과 같다. However, the initial cost still has an ambiguity that can not distinguish the foreground and background of the occlusion region as shown in Fig. 4 (b). In order to distinguish between the two cases, the additional cost, which represents the difference between the average color of the auxiliary patch with the least cost and the center pixel color p (p)
Figure 112017052452066-pat00030
. The formula is as follows.

Figure 112017052452066-pat00031
Figure 112017052452066-pat00031

AD는 다음과 같이 유도된다.AD is derived as follows.

Figure 112017052452066-pat00032
Figure 112017052452066-pat00032

여기서

Figure 112017052452066-pat00033
는 두 비용 항의 상대적인 영향을 조절하는 상수이다. 도 4(b)에 제시한 바와 같이, 제안된 적응적 비초점 비용(AD)은 비초점 비용(CD)에 비해 참값에서 최소 비용을 가진다.
here
Figure 112017052452066-pat00033
Is a constant that regulates the relative effect of the two cost terms. As shown in FIG. 4 (b), the proposed adaptive non-focal cost (AD) has a minimum cost in the true value compared to the non-focal cost (CD).

도 5는 본 발명의 일 실시예에 따른 라이트필드 깊이 영상 추정 장치를 나타내는 도면이다. 5 is a view illustrating a light field depth image estimating apparatus according to an embodiment of the present invention.

제안하는 라이트필드 깊이 영상 추정 장치(500)는 데이터 비용 계산부(510) 및 최종 데이터 비용 통합부(520)를 포함한다. The proposed light field depth image estimating apparatus 500 includes a data cost calculating unit 510 and a final data cost integrating unit 520.

데이터 비용 계산부(510)는 각패치의 화소의 깊이 라벨 후보를 위한 데이터 비용 추정을 위해 각패치, 재초점 영상을 포함하는 라이트필드 영상의 속성을 이용하여 데이터 비용을 측정한다. 또한, 각패치의 화소 간 대응 관계에서의 데이터 비용을 계산하기 위해 제약된 각엔트로피 비용을 계산함으로써 각패치의 화소 색상의 일관성을 측정하고, 폐색 현상에 대하여 일관성을 갖는 각패치의 화소를 얻기 위해 제약된 적응적 비초점 비용을 측정한다. The data cost calculation unit 510 measures the data cost using the attributes of the light field image including each patch and the refocused image to estimate the data cost for the depth label candidates of the pixels of each patch. Also, by calculating the constrained entropy cost to calculate the data cost in the correspondence relationship between pixels of each patch, it is possible to measure the consistency of pixel colors of each patch and to obtain pixels of each patch having consistency with the occlusion phenomenon The constrained adaptive non-focal cost is measured.

최종 데이터 비용 통합부(520)는 라이트필드 영상의 속성을 이용하여 측정된 각엔트로피 비용 및 적응적 비초점 비용을 정규화하고 통합함으로써 최종 데이터 비용을 형성한다. The final data cost integrating unit 520 forms the final data cost by normalizing and integrating each entropy cost and the adaptive non-focal cost measured using the attributes of the light field image.

데이터 비용 계산부(510)는 각패치의 화소의 깊이 라벨 후보를 위한 데이터 비용 추정을 위해 각패치, 재초점 영상을 포함하는 라이트필드 영상의 속성을 이용하여 데이터 비용을 측정한다. The data cost calculation unit 510 measures the data cost using the attributes of the light field image including each patch and the refocused image to estimate the data cost for the depth label candidates of the pixels of each patch.

라이트필드 영상의 3가지 속성(예를 들어, EPI, 각패치, 재초점 영상)은 깊이 추정에서 데이터 비용을 측정하기 위해 사용된다. 본 발명에서는 각각의 깊이 라벨 후보를 위한 데이터 비용 추정을 위해 각패치와 재초점 영상을 사용하였다. 각패치를 만들기 위해 라이트필드

Figure 112017052452066-pat00034
의 각각의 화소는 깊이 라벨 후보
Figure 112017052452066-pat00035
를 기반으로 변형된(sheared) 라이트필드 영상
Figure 112017052452066-pat00036
에 다시 대응된다. 이 과정은 앞서 설명된 것과 같이 수학식(1) 내지 수학식(3)으로 표현된다. Three attributes of the light field image (e. G., EPI, each patch, refocused image) are used to measure the data cost in depth estimation. In the present invention, each patch and refocused image are used to estimate the data cost for each depth label candidate. Light field to make each patch
Figure 112017052452066-pat00034
Each pixel of the depth label candidate
Figure 112017052452066-pat00035
A sheared light field image
Figure 112017052452066-pat00036
Lt; / RTI > This process is expressed by Equations (1) to (3) as described above.

이동 값은 라이트필드 영상의 서브어퍼쳐(subaperture) 영상과 중심 핀홀 영상의 거리가 증가할수록 증가한다. 일반성을 잃지 않는 한에서 본 발명의 실시예에 따른 깊이 및 변위 값은 실제 깊이 값이 아닌 라이트필드 깊이 라벨 값

Figure 112017052452066-pat00037
을 의미한다. 각패치는 수학식(4)와 같이 변형된 라이트필드로부터 각 영상의 화소를 추출하여 생성될 수 있다. The shift value increases as the distance between the subaperture image of the light field image and the center pinhole image increases. As long as the generality is not lost, the depth and displacement values according to the embodiment of the present invention are not the actual depth values but the light field depth label values
Figure 112017052452066-pat00037
. Each patch can be generated by extracting pixels of each image from a modified light field as shown in Equation (4).

재초점 영상

Figure 112017052452066-pat00038
는 수학식(5)와 같이 모든 화소의 각패치의 평균으로 계산된다..Refocus imaging
Figure 112017052452066-pat00038
Is calculated as an average of each patch of all the pixels as shown in equation (5).

이후, 데이터 비용 계산부(510)는 각패치의 화소의 깊이 라벨 후보에 대한 적합도를 측정하는 데이터 비용 및 인접 화소 간의 평탄성을 유지하기 위한 데이터 비용을 측정한다. Then, the data cost calculation unit 510 measures the data cost for measuring the fitness for the depth label candidate of the pixel of each patch and the data cost for maintaining the flatness among the adjacent pixels.

본 발명의 실시예에 따른 라이트필드 깊이 추정은 수학식(6)과 같이 MAP-MRF 구조에서 모델링된다. The light field depth estimation according to the embodiment of the present invention is modeled in the MAP-MRF structure as in Equation (6).

Figure 112017052452066-pat00039
Figure 112017052452066-pat00039

여기서 α(p)와 N(p)는 화소 p의 깊이 라벨과 인접 화소의 집합이다. Ebinary(p,α(p))는 주어진 화소p의 깊이 라벨 α가 얼마나 적합한가를 측정하는 데이터 비용이다. Ebinary는 이웃 화소 간에 평탄성을 유지하기 위한 비용이다. 그리고 λ는 두 비용 간의 위한 가중치이다Where α (p) and N (p) are the set of depth labels and adjacent pixels of pixel p. E binary (p, α (p)) is the data cost that measures how well the depth label α of a given pixel p is. E binary is the cost to maintain flatness between neighboring pixels. And λ is a weight for the two costs

데이터 비용 계산부(510)는 각패치의 화소 간 대응 관계에서의 데이터 비용을 계산하기 위해 각엔트로피 비용을 계산함으로써 각패치의 화소 색상의 일관성을 측정한다. 이때, 제약된 각엔트로피 비용을 측정하여 각패치의 화소 색상의 일관성 평가에 사용하고, 제약된 각엔트로피 비용은 히스토그램을 구간으로 나누지 않고 RGB 각 채널에서 독립적으로 계산한다. The data cost calculation unit 510 measures the consistency of pixel colors of each patch by calculating the entropy cost to calculate the data cost in the corresponding relationship between pixels of each patch. At this time, each constrained entropy cost is measured and used for the consistency evaluation of pixel colors of each patch, and each constrained entropy cost is independently calculated for each RGB channel without dividing the histogram into sections.

그리고, 폐색 현상에 대하여 일관성을 갖는 각패치의 화소를 얻기 위해 적응적 비초점 비용을 측정한다. 이때, 적응적 비초점 비용을 위해 폐색에 의한 영향을 받은 전체 영역을 복수 개의 부영역으로 나누어 최소 비용을 계산함으로써, 원본 패치 중 폐색에 영향을 받지 않고 블러 효과가 없는 보조 패치를 찾는다. 그리고, 폐색 영역의 전경과 배경을 구분하기 위해 최소 비용을 갖는 보조 패치의 평균 색상과 중심 화소 색상의 차이를 나타내는 추가적 비용을 계산한다. Then, the adaptive non-focal cost is measured to obtain pixels of each patch that are consistent with the occlusion phenomenon. At this time, for the adaptive non-focal cost, the total area affected by the occlusion is divided into a plurality of sub-areas and the minimum cost is calculated to find an auxiliary patch that is not affected by the occlusion of the original patch and has no blurring effect. Then, the additional cost is calculated to show the difference between the average color of the auxiliary patch having the minimum cost and the center pixel color to distinguish the foreground and the background of the occlusion region.

또는, 데이터 비용 계산부(510)는 잡음을 제거하기 위해 원본 패치 내의 모든 보조 패치 관하여, 각 보조 패치에서 비초점 비용을 계산하고, 최소 비용을 가진 보조 패치를 찾을 수도 있다. Alternatively, the data cost calculator 510 may calculate the non-focal cost for each auxiliary patch, and find the auxiliary patch with the lowest cost, for all auxiliary patches in the original patch to remove noise.

우선 화소 간 대응 관계에서의 데이터 비용

Figure 112017052452066-pat00040
을 위해서 제약된 각엔트로피를 계산함으로써 각패치의 화소 색상의 일관성을 측정한다. 다음으로 폐색 현상에 대해 강인한 결과를 얻기 위해 적응적 비초점(AD)
Figure 112017052452066-pat00041
를 측정한다. The data cost in the pixel-to-pixel correspondence relationship
Figure 112017052452066-pat00040
, The consistency of the pixel colors of each patch is measured by calculating each constrained entropy. Next, adaptive non-focus (AD)
Figure 112017052452066-pat00041
.

최종 데이터 비용 통합부(520)는 라이트필드 영상의 속성을 이용하여 측정된 각엔트로피 비용 및 적응적 비초점 비용을 정규화하고 통합함으로써 최종 데이터 비용을 형성한다. The final data cost integrating unit 520 forms the final data cost by normalizing and integrating each entropy cost and the adaptive non-focal cost measured using the attributes of the light field image.

각 데이터 비용은 정규화되고 통합되어 최종 데이터 비용을 형성한다. 최종 데이터 비용과 평탄화 비용은 수학식(7) 및 수학식(8)과 같이 정의된다. Each data cost is normalized and integrated to form the final data cost. The final data cost and flattening cost are defined by equations (7) and (8).

데이터 비용 볼륨은 에지 보존 필터(edge-preserving filter)를 사용하여 평탄화된다. 이후 에너지 함수를 최적화하기 위해 그래프 컷(graph cut)을 수행한다.
The data cost volume is flattened using an edge-preserving filter. We then perform a graph cut to optimize the energy function.

도 6은 본 발명의 일 실시예에 따른 통합 데이터 비용을 사용한 최적화된 깊이 지도의 비교 결과를 나타내는 도면이다. FIG. 6 is a diagram illustrating a comparison result of an optimized depth map using an integrated data cost according to an exemplary embodiment of the present invention.

도 6(a)는 V-LO, 도 6(b)는 SSD B-PRD, 도 6(c)는 SSD P-GRAD, 도 6(d)는 OV-OPRD, 도 6(e)는 AE-AD을 나타내고, 각 도면의 왼쪽 프레임은 잡음이 없는 라이트필드, 오른쪽 프레임은 분산 0.10의 잡음이 있는 라이트필드를 나타낸다. 6D is a V-LO, FIG. 6B is a SSD B-PRD, FIG. 6C is a SSD P-GRAD, FIG. 6D is a OV- OPRD, AD, the left frame of each drawing shows a light field with no noise, and the right frame shows a light field with noise of dispersion 0.10.

제안된 알고리즘은 Intel i7 4770 @ 3.4 GHz with 16 GB RAM에서 구현되어 수행되었다. 제안된 데이터 비용의 결과는 최근의 기존 라이트필드 깊이 추정 데이터 비용과 비교하여 성능을 비교하였다. 본 발명에서는 16개(10개는 대응 비용 6개는 비초점 비용)의 개별적인 데이터 비용과 6개의 통합된 데이터 비용을 비교했다. The proposed algorithm is implemented in Intel i7 4770 @ 3.4 GHz with 16 GB RAM. The results of the proposed data cost are compared with those of the current light field depth estimation data. In the present invention, we compared the individual data costs of 16 (10 corresponding to 6 non-focal costs) and 6 integrated data costs.

기존의 깊이 추정 방법은 다양한 최적화 방법을 적용하기 때문에 공정한 비교를 하는데 어려움이 있다. 본 발명에서는 우선 각각의 데이터 비용의 특성을 확인하기 위해 전역적 최적화 없이 깊이 추정 결과를 비교했다. 그리고 전역적으로 최적화된 깊이는 다양한 테스트 데이터를 사용하여 비교된다. 이때, 세 가지 전역적 최적화 방법인 그래프 컷(GC), 에지 보존 필터(EPF), 에지 보존 필터와 그래프 컷(EPF-GC)의 조합을 이용한다. 정량적 평가는 아래와 같이 정의되는 최소제곱오차(MSE)와 오류 화소비율(BP)를 이용한다. Conventional depth estimation methods have difficulty in making a fair comparison because various optimization methods are applied. In the present invention, depth estimation results are compared without global optimization to check the characteristics of each data cost. And globally optimized depths are compared using various test data. At this time, a combination of three global optimization methods, a graph cut (GC), an edge preservation filter (EPF), and an edge preservation filter and a graph cut (EPF-GC) are used. The quantitative evaluation uses the minimum square error (MSE) and error pixel ratio (BP) defined as follows.

Figure 112017052452066-pat00042
Figure 112017052452066-pat00042

Figure 112017052452066-pat00043
Figure 112017052452066-pat00043

여기서

Figure 112017052452066-pat00044
Figure 112017052452066-pat00045
는 화소
Figure 112017052452066-pat00046
에서의 참값 깊이와 계산된 깊이이다.
Figure 112017052452066-pat00047
는 깊이 오류를 판단하기 위한 임계값이다. 폐색지역에서의 강인함을 평가하기 위해, 폐색 지도에
Figure 112017052452066-pat00048
Figure 112017052452066-pat00049
를 측정한다 (각각
Figure 112017052452066-pat00050
Figure 112017052452066-pat00051
). 폐색 지도 O는 참값 깊이 지도에서 급격한 변화를 edge 주변 영역을 추출하여 만든다. here
Figure 112017052452066-pat00044
Wow
Figure 112017052452066-pat00045
The pixel
Figure 112017052452066-pat00046
And the calculated depth.
Figure 112017052452066-pat00047
Is a threshold value for judging a depth error. To assess robustness in the occluded area,
Figure 112017052452066-pat00048
Wow
Figure 112017052452066-pat00049
(Each
Figure 112017052452066-pat00050
Wow
Figure 112017052452066-pat00051
). The occlusion map O makes a sudden change in the true value depth map by extracting the area around the edge.

기존의 4D 라이트필드 데이터셋을 이용하여 합성 데이터셋을 생성하였다. 그리고 실제 라이트필드 영상은 리트로 일룸 카메라를 이용해 취득하였다. 실험에 사용된 파리미터는

Figure 112017052452066-pat00052
,
Figure 112017052452066-pat00053
,
Figure 112017052452066-pat00054
,
Figure 112017052452066-pat00055
,
Figure 112017052452066-pat00056
로 설정하였으며, 비용단면(cost slice) 필터링을 위해
Figure 112017052452066-pat00057
Figure 112017052452066-pat00058
로 설정했다. 모든 데이터 셋에서의 깊이 조사 범위는 1, 2, 3, . . . , 74, 75이다.Composite datasets were generated using existing 4D light field datasets. The actual light field image was acquired using a retro-room camera. The parameters used in the experiment are
Figure 112017052452066-pat00052
,
Figure 112017052452066-pat00053
,
Figure 112017052452066-pat00054
,
Figure 112017052452066-pat00055
,
Figure 112017052452066-pat00056
And for cost slice filtering.
Figure 112017052452066-pat00057
and
Figure 112017052452066-pat00058
Respectively. The depth survey ranges for all data sets are 1, 2, 3,. . . , 74, and 75, respectively.

질적 평가를 위해, 잡음이 없거나 잡음이 있는 모나(Mona) 데이터 셋에 대해 최적화된 통합 데이터 비용에 의한 깊이 지도를 도 6에 보인다. 제안된 데이터 비용은 모든 데이터 셋과 잡음 수준에 대해 가장 우수한 수행결과를 보인다.
For qualitative evaluation, a depth map with an integrated data cost optimized for a noisy or noisy Mona data set is shown in FIG. The proposed data cost shows the best performance results for all datasets and noise levels.

도 7(c)는 V-LO, 도 7(d)는 SSD B-PRD, 도 7(c)는 SSD P-GRAD, 도 7(d)는 OV-OPRD, 도 7(e)는 AE-AD를 나타낸다. 도 7은 각각의 통합된 데이터 비용에 대해 전역적으로 최적화한 깊이 지도를 보여준다. 제안된 방법이 다른 방법들에 비해 얇은 물체의 가장자리를 더 잘 보존하는 것을 확인할 수 있다.
7D, 7D and 7E show V-LO, SSD B-PRD, SSD P-GRAD, OV-OPRD and AE- AD. Figure 7 shows a globally optimized depth map for each integrated data cost. It can be seen that the proposed method preserves the edges of thin objects better than other methods.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다.  또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다.  이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다.  예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다.  또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA) A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다.  소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다.  소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device As shown in FIG. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다.  상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.  상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.  컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.  프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.  The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다.  예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (7)

각패치의 화소의 깊이 라벨 후보를 위한 데이터 비용 추정을 위해 각패치, 재초점 영상을 포함하는 라이트필드 영상의 속성을 이용하여 데이터 비용을 측정하는 단계;
각패치의 화소의 깊이 라벨 후보에 대한 적합도를 측정하는 데이터 비용 및 인접 화소 간의 평탄성을 유지하기 위한 데이터 비용을 측정하는 단계;
각패치의 화소 간 대응 관계에서의 데이터 비용을 계산하기 위해 각엔트로피(AE) 비용을 계산함으로써 각패치의 화소 색상의 일관성을 측정하는 단계;
폐색 현상에 대하여 일관성을 갖는 각패치의 화소를 얻기 위해 적응적 비초점(AD) 비용을 측정하는 단계; 및
라이트필드 영상의 속성을 이용하여 측정된 각엔트로피 비용 및 적응적 비초점비용을 정규화하고 통합함으로써 최종 데이터 비용을 형성하는 단계
를 포함하고,
라이트필드 영상의 속성을 이용하여 측정된 각엔트로피 비용 및 적응적 비초점비용을 정규화하고 통합함으로써 최종 데이터 비용을 형성하는 단계는,
라이트필드 영상의 속성을 이용하여 측정된 데이터 비용, 깊이 라벨 후보에 대한 적합도를 측정하는 데이터 비용 및 인접 화소 간의 평탄성을 유지하기 위한 데이터 비용을 이용하여, 각엔트로피 비용 및 적응적 비초점 비용을 정규화하고 통합함으로써 최종 데이터 비용을 형성하고,
각패치의 화소 간 대응 관계에서의 데이터 비용을 계산하기 위해 각엔트로피 비용을 계산함으로써 각패치의 화소 색상의 일관성을 측정하는 단계는,
다수 각패치의 밝기의 확률 분포로부터 컬러 일관성을 계산하기 위하여, 정확한 깊이 값 및 단일 색상을 갖는 각패치의 밝기 히스토그램에 대한 관찰을 통해 각엔트로피 비용을 측정하여 색상의 일관성 평가에 사용하고, 각엔트로피 비용은 히스토그램을 구간으로 나누지 않고 RGB 각 채널에서 독립적으로 계산하는
라이트필드 깊이 영상 추정 방법.
Measuring a data cost using attributes of a light field image including each patch and a refocus image for estimating a data cost for a depth label candidate of a pixel of each patch;
Measuring a data cost for measuring a fitness for a depth label candidate of a pixel of each patch and a data cost for maintaining flatness between adjacent pixels;
Measuring coherence of pixel colors of each patch by calculating each entropy (AE) cost to calculate a data cost in a corresponding relationship between pixels of each patch;
Measuring an adaptive non-focussing (AD) cost to obtain pixels of each patch that are consistent with the occlusion phenomenon; And
Forming the final data cost by normalizing and integrating each entropy cost and the adaptive non-focal cost measured using the attributes of the light field image
Lt; / RTI >
The step of normalizing and integrating each entropy cost and the adaptive non-focal cost measured using the attributes of the light field image to form a final data cost,
The entropy cost and the adaptive non-focal cost are normalized by using the data cost measured using the attributes of the light field image, the data cost measuring the fitness for the depth label candidate, and the data cost for maintaining flatness between adjacent pixels To form the final data cost,
Measuring the consistency of pixel colors of each patch by calculating each entropy cost to calculate a data cost in a corresponding relationship between pixels of each patch,
In order to calculate color consistency from the probability distributions of the brightness of a plurality of patches, each entropy cost is measured by observing the brightness histogram of each patch having an accurate depth value and a single color, and is used for color consistency evaluation, Cost does not divide the histogram into sections but calculates independently for each channel of RGB
Light field depth image estimation method.
삭제delete 제1항에 있어서,
폐색 현상에 대하여 일관성을 갖는 각패치의 화소를 얻기 위해 적응적 비초점 비용을 측정하는 단계는,
적응적 비초점 비용을 위해 폐색에 의한 영향을 받은 전체 영역을 복수 개의 부영역으로 나누어 최소 비용을 계산함으로써, 원본 패치 중 폐색에 영향을 받지 않고 블러 효과가 없는 보조 패치를 찾는 단계
를 포함하는 라이트필드 깊이 영상 추정 방법.
The method according to claim 1,
Measuring the adaptive non-focal cost to obtain a pixel of each patch that is consistent with the occlusion phenomenon,
For the adaptive unfocussed cost, finding the auxiliary patch without blur effect without being affected by the occlusion of the original patch by calculating the minimum cost by dividing the whole area affected by the occlusion into a plurality of subregions
/ RTI > wherein the light field depth image estimating method comprises:
제3항에 있어서,
원본 패치 중 폐색에 영향을 받지 않고 블러 효과가 없는 보조 패치를 찾는 단계는,
폐색 영역의 전경과 배경을 구분하기 위해 최소 비용을 갖는 보조 패치의 평균 색상과 중심 화소 색상의 차이를 나타내는 추가적 비용을 계산하는
라이트필드 깊이 영상 추정 방법.
The method of claim 3,
The step of finding an auxiliary patch that is not affected by occlusion of the original patch and has no blur effect,
To further distinguish the foreground and background of the occlusion region, an additional cost is calculated that represents the difference between the average color of the auxiliary patch with the least cost and the center pixel color
Light field depth image estimation method.
각패치의 화소의 깊이 라벨 후보를 위한 데이터 비용 추정을 위해 각패치, 재초점 영상을 포함하는 라이트필드 영상의 속성을 이용하여 데이터 비용을 측정하고; 각패치의 화소의 깊이 라벨 후보에 대한 적합도를 측정하는 데이터 비용 및 인접 화소 간의 평탄성을 유지하기 위한 데이터 비용을 측정하고; 각패치의 화소 간 대응 관계에서의 데이터 비용을 계산하기 위해 각엔트로피(AE) 비용을 계산함으로써 각패치의 화소 색상의 일관성을 측정하고; 폐색 현상에 대하여 일관성을 갖는 각패치의 화소를 얻기 위해 적응적 비초점(AD) 비용을 측정하는 데이터 비용 계산부; 및
영상의 속성을 이용하여 측정된 각엔트로피 비용 및 적응적 비초점 비용을 정규화하고 통합함으로써 최종 데이터 비용을 형성하는 최종 데이터 비용 통합부
를 포함하고,
최종 데이터 비용 통합부는,
라이트필드 영상의 속성을 이용하여 측정된 데이터 비용, 깊이 라벨 후보에 대한 적합도를 측정하는 데이터 비용 및 인접 화소 간의 평탄성을 유지하기 위한 데이터 비용을 이용하여, 각엔트로피 비용 및 적응적 비초점 비용을 정규화하고 통합함으로써 최종 데이터 비용을 형성하고,
데이터 비용 계산부는,
다수 각패치의 밝기의 확률 분포로부터 컬러 일관성을 계산하기 위하여, 정확한 깊이 값 및 단일 색상을 갖는 각패치의 밝기 히스토그램에 대한 관찰을 통해 각엔트로피 비용을 측정하여 색상의 일관성 평가에 사용하고, 각엔트로피 비용은 히스토그램을 구간으로 나누지 않고 RGB 각 채널에서 독립적으로 계산하는
라이트필드 깊이 영상 추정 장치.
Measuring a data cost using attributes of a light field image including each patch, a refocused image for estimating a data cost for a depth label candidate of a pixel of each patch; Measuring a data cost for measuring a fitness for a depth label candidate of a pixel of each patch and a data cost for maintaining flatness between adjacent pixels; Measure the consistency of the pixel colors of each patch by calculating the entropy (AE) cost to calculate the data cost in the pixel-to-pixel correspondence of each patch; A data cost calculator for measuring an adaptive non-focus (AD) cost to obtain pixels of each patch that are consistent with the occlusion phenomenon; And
A final data cost integrator that forms a final data cost by normalizing and integrating each entropy cost and adaptive non-focal cost measured using the attributes of the image,
Lt; / RTI >
The final data cost consolidator,
The entropy cost and the adaptive non-focal cost are normalized by using the data cost measured using the attributes of the light field image, the data cost measuring the fitness for the depth label candidate, and the data cost for maintaining flatness between adjacent pixels To form the final data cost,
The data cost calculator,
In order to calculate color consistency from the probability distributions of the brightness of a plurality of patches, each entropy cost is measured by observing the brightness histogram of each patch having an accurate depth value and a single color, and is used for color consistency evaluation, Cost does not divide the histogram into sections but calculates independently for each channel of RGB
Light field depth image estimator.
삭제delete 제5항에 있어서,
데이터 비용 계산부는,
적응적 비초점 비용을 위해 폐색에 의한 영향을 받은 전체 영역을 복수 개의 부영역으로 나누어 최소 비용을 계산함으로써, 원본 패치 중 폐색에 영향을 받지 않고 블러 효과가 없는 보조 패치를 찾고,
폐색 영역의 전경과 배경을 구분하기 위해 최소 비용을 갖는 보조 패치의 평균 색상과 중심 화소 색상의 차이를 나타내는 추가적 비용을 계산하는
라이트필드 깊이 영상 추정 장치.
6. The method of claim 5,
The data cost calculator,
For the adaptive unfocussed cost, we calculate the minimum cost by dividing the whole area affected by the occlusion into a plurality of sub - regions and find the auxiliary patches without blur effect without being affected by the occlusion of the original patches.
To further distinguish the foreground and background of the occlusion region, an additional cost is calculated that represents the difference between the average color of the auxiliary patch with the least cost and the center pixel color
Light field depth image estimator.
KR1020170068324A 2017-06-01 2017-06-01 Method and Apparatus for Depth Image Estimation of Light Fields KR101992527B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170068324A KR101992527B1 (en) 2017-06-01 2017-06-01 Method and Apparatus for Depth Image Estimation of Light Fields

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170068324A KR101992527B1 (en) 2017-06-01 2017-06-01 Method and Apparatus for Depth Image Estimation of Light Fields

Publications (2)

Publication Number Publication Date
KR20180131787A KR20180131787A (en) 2018-12-11
KR101992527B1 true KR101992527B1 (en) 2019-06-24

Family

ID=64671944

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170068324A KR101992527B1 (en) 2017-06-01 2017-06-01 Method and Apparatus for Depth Image Estimation of Light Fields

Country Status (1)

Country Link
KR (1) KR101992527B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102294806B1 (en) * 2021-03-31 2021-08-27 인하대학교 산학협력단 Method and Apparatus for Synthesis of Face Light Field On-Device

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Michael W. Tao et al., "Depth from Shading, Defocus, and Correspondence Using Light-Field Angular Coherence", CVPR, 1940-1948(9pages), 2015.06.30*
Ting-Chun Wang et al., "Occlusion-Aware Depth Estimation Using Light-Field Cameras", ICCV, 9pages, 2015.12.31.*
Vaibhav Vaish et al., "Reconstructing Occluded Surfaces using Synthetic Apertures:Stereo, Focus and Robust Measures", CVPR-Volume 2, 2331-2338(8pages), 2006.06.22*

Also Published As

Publication number Publication date
KR20180131787A (en) 2018-12-11

Similar Documents

Publication Publication Date Title
Tosic et al. Light field scale-depth space transform for dense depth estimation
CN107784663B (en) Depth information-based related filtering tracking method and device
US8737769B2 (en) Reconstruction of sparse data
US20110176722A1 (en) System and method of processing stereo images
US9798951B2 (en) Apparatus, method, and processor for measuring change in distance between a camera and an object
CN109544599B (en) Three-dimensional point cloud registration method based on camera pose estimation
US8330852B2 (en) Range measurement using symmetric coded apertures
JP5939056B2 (en) Method and apparatus for positioning a text region in an image
KR101854048B1 (en) Method and device for measuring confidence of depth map by stereo matching
KR20170091496A (en) Method and apparatus for processing binocular image
US10540750B2 (en) Electronic device with an upscaling processor and associated method
KR20190030456A (en) Mehtod and apparatus for stereo matching
KR101968406B1 (en) Method and Apparatus for Robust Depth Image Estimation of Light Fields
KR20110133416A (en) Video processing method for 3d display based on multi-thread scheme
Lo et al. Depth map super-resolution via Markov random fields without texture-copying artifacts
Haq et al. An edge-aware based adaptive multi-feature set extraction for stereo matching of binocular images
KR20220140669A (en) Method and apparatus for measuring image quality base on perceptual sensitivity
KR101992527B1 (en) Method and Apparatus for Depth Image Estimation of Light Fields
US9082176B2 (en) Method and apparatus for temporally-consistent disparity estimation using detection of texture and motion
JP6272219B2 (en) Image processing apparatus, image processing method, and program
KR102240570B1 (en) Method and apparatus for generating spanning tree,method and apparatus for stereo matching,method and apparatus for up-sampling,and method and apparatus for generating reference pixel
US11475233B2 (en) Image processing device and image processing method
US10332259B2 (en) Image processing apparatus, image processing method, and program
CN112733624A (en) People stream density detection method, system storage medium and terminal for indoor dense scene
RU2517727C2 (en) Method of calculating movement with occlusion corrections

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant