WO2016117716A1 - Method and apparatus for extracting depth information from image - Google Patents

Method and apparatus for extracting depth information from image Download PDF

Info

Publication number
WO2016117716A1
WO2016117716A1 PCT/KR2015/000556 KR2015000556W WO2016117716A1 WO 2016117716 A1 WO2016117716 A1 WO 2016117716A1 KR 2015000556 W KR2015000556 W KR 2015000556W WO 2016117716 A1 WO2016117716 A1 WO 2016117716A1
Authority
WO
WIPO (PCT)
Prior art keywords
patch
image
blur
point spread
psf
Prior art date
Application number
PCT/KR2015/000556
Other languages
French (fr)
Korean (ko)
Inventor
이영민
박현상
경종민
Original Assignee
재단법인 다차원 스마트 아이티 융합시스템 연구단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 다차원 스마트 아이티 융합시스템 연구단 filed Critical 재단법인 다차원 스마트 아이티 융합시스템 연구단
Priority to PCT/KR2015/000556 priority Critical patent/WO2016117716A1/en
Priority to KR1020177019922A priority patent/KR20170120567A/en
Publication of WO2016117716A1 publication Critical patent/WO2016117716A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof

Definitions

  • the present invention relates to a method and apparatus for extracting depth information from an image, and more particularly to extracting depth information based on images photographed using different apertures of a dual aperture system.
  • CMOS Image Sensor which can be included in object image capturing devices that are used in recent years due to the spread of digital cameras, is a device that converts an external optical image signal into an electrical image signal. Compared to the coupled device, it can operate at low voltage and consumes less power.
  • the CMOS image sensor has been used in various fields such as not only digital cameras but also various portable device devices due to the advantage of integration.
  • the use of a filter to block infrared rays is required.
  • the human eye perceives an object by reflecting or absorbing infrared rays and ultraviolet rays and transmitting only visible light in the light component, whereas optical devices such as digital cameras can capture object images by transmitting all light.
  • ultraviolet light can be selectively blocked by a sunscreen coating applied to the lens.
  • the use of an IR cut-off filter is required to selectively block infrared rays (IR) in optical devices.
  • the single lens dual aperture camera system may include an IR blocking filter for selectively blocking infrared rays in addition to the aperture for adjusting the amount of light such as visible light.
  • various techniques such as comparing or analyzing multiview images or selectively controlling an IR cut filter to compare or analyze an infrared channel image and a color channel image acquired Can be utilized.
  • depth information from an image is selectively used by using point spreading functions having different standard deviations. Can be extracted.
  • Algorithms for extracting the distance information or depth information of the existing object are to operate on all of the point spreading functions, and according to the method and apparatus according to the exemplary embodiment of the present invention, the calculations have different standard deviations. Depth information may be extracted from the image by selectively using the diffusion functions.
  • distance information of an object or depth information of an object may be extracted.
  • Existing distance information extraction algorithms are inefficient because they require a significant amount of computation.
  • the amount of computation can be greatly reduced compared to the existing distance information extraction algorithm, and at the same time, the accuracy is not greatly reduced.
  • FIG. 1 is a schematic diagram of a single lens dual aperture camera system.
  • FIG. 2 is a conceptual diagram of a conventional distance information extraction algorithm.
  • FIG. 3 is a flowchart illustrating a method for extracting depth information from an image according to an embodiment of the present invention.
  • FIG. 4 is a conceptual diagram of an algorithm for extracting depth information from an image according to an embodiment of the present invention.
  • FIG. 5 is a graph illustrating an interpolation method according to an embodiment of the present invention.
  • FIG. 6 is a schematic diagram of an interpolation method according to an embodiment of the present invention.
  • FIG. 7 is a block diagram of an apparatus for extracting depth information from an image according to an embodiment of the present invention.
  • a method for extracting depth information from an image may include obtaining a first image of an object using a first aperture and using a second aperture to obtain a second image of the object.
  • PSF point spreading function
  • the first patch of a predetermined area set on the first image may be an image area set to a predetermined area to include an edge of an object included in the first image.
  • Each of the first point spread function (PSF) and the second point spread function (PSF) according to an embodiment of the present invention may have N different standard deviation values when the depth resolution is N (N is a natural number). It may be any one of the point spreading function.
  • Acquiring the third blur patch through interpolation of the first blur patch and the second blur patch, respectively, may include a first point spread function PSF and a second point spread function PSF. Interpolating with a weighted average of) to obtain a third blur patch.
  • An apparatus for extracting depth information from an image may be configured to obtain a first image of an object using a first aperture, and a second image of an object using a second aperture.
  • PSF point spreading function
  • an interpolation unit that interpolates the second blur patch, the first blur patch, the second blur patch, or the third blur patch, and a depth estimation unit for estimating depth information based on the set second patch, wherein the third blur patch includes: Interpolation And it may be obtained by the blur patch obtaining unit based on the interpolation performed by the.
  • the first patch of a predetermined area set on the first image may be an image area set to a predetermined area to include an edge of an object included in the first image.
  • Each of the first point spread function (PSF) and the second point spread function (PSF) according to an embodiment of the present invention has point spread functions having N different standard deviation values when the depth resolution is N. Any one of which, N may be a natural number.
  • the interpolator may perform interpolation as a weighted average of the first point spread function PSF and the second point spread function PSF.
  • a computer-readable recording medium having recorded thereon a program for executing the above-described method on a computer can be provided.
  • any part of the specification is to “include” any component, this means that it may further include other components, except to exclude other components unless otherwise stated.
  • the terms “... unit”, “module”, etc. described in the specification mean a unit for processing at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software. .
  • FIG. 1 is a schematic diagram of a single lens dual aperture camera system.
  • the user may acquire a color channel image and an infrared channel image using the single lens dual aperture camera system 100 as shown in FIG. 1.
  • the barrel 140 may include an aperture 110 for adjusting the amount of visible light to be transmitted, a writing line blocking filter 120 for selectively blocking infrared rays, and at least one lens 130.
  • Light passing through the iris and the lens may be sensed by the CMOS image sensor 150.
  • the CMOS image sensor 150 may be connected to other electronic modules through, for example, a PCB.
  • the color channel image and the infrared channel image may be acquired according to the component and amount of light detected by the CMOS image sensor.
  • the color channel image may be referred to as the color image for the object, and the infrared channel image may be referred to as the infrared image.
  • An image acquired by the aperture having a small aperture may have a smaller degree of blurring according to the object distance from the focal length than an image obtained by the aperture having a large aperture.
  • the distance information of the object may be obtained by obtaining a color channel image and an infrared channel image, extracting an edge of the object from the obtained images, and performing depth estimation on the extracted edge.
  • Depth information of the object in the image may be obtained by comparing and analyzing the color channel image and the infrared channel image. In other words, distance information of the object may be obtained based on the edges of the color channel image and the infrared channel image.
  • FIG. 2 is a conceptual diagram of a conventional distance information extraction algorithm.
  • the blurred image may be obtained through calculation with point spread functions having different standard deviations with respect to a predetermined area (eg, a box area) in the infrared image 10.
  • the predetermined area may be referred to as a patch or the like.
  • Such an operation may include a convolution operation.
  • each of the point spreading functions having ten different standard deviation values e.g., sigma 0 to sigma 9
  • a convolution operation with a predetermined area in infrared image 10.
  • the comparison of the images with a predetermined area in the color image 20 Similarity and distance values (eg, PSF index) can be obtained.
  • Distance information of the object may be estimated using the obtained similarity and distance value.
  • the conventional distance information extraction algorithm increases computational complexity in terms of the need to perform operations on all of the point spreading functions having different standard deviation values, thereby increasing the complexity and thus reducing the efficiency of distance information extraction.
  • FIG. 3 is a flowchart illustrating a method for extracting depth information from an image according to an embodiment of the present invention.
  • a method for extracting depth information from an image may include obtaining a first image of an object using a first aperture and using a second aperture to obtain a second image of the object.
  • Acquiring (S100), setting a first patch of a predetermined area on the first image (S200), and a first blur patch for the first patch based on a first point spread function (PSF)
  • PSD point spread function
  • S300 second point spread function
  • the first patch of the predetermined area set on the first image may be an image area set to a predetermined area to include an edge of an object included in the first image.
  • FIG. 4 is a conceptual diagram of an algorithm for extracting depth information from an image according to an embodiment of the present invention.
  • a first image of an object may be obtained using the first aperture.
  • the first aperture may be an infrared (IR) blocking filter or the like for selectively blocking infrared rays.
  • the first image may be an infrared image, but is not necessarily limited thereto.
  • a second image of the object may be acquired using the second aperture.
  • the second aperture may be an aperture generally used in a camera system or the like.
  • the infrared image is referred to as an example of the first image
  • the color channel image is referred to as an example of the second image, but is not necessarily limited thereto.
  • the method according to an embodiment of the present invention may be generally used in a dual aperture (DA) system capable of capturing an image using different apertures.
  • DA dual aperture
  • a first patch 11 of a predetermined area may be set on the first image 10.
  • the first patch 11 having a predetermined area set on the first image 10 may be an image area set to a predetermined area to include at least one edge in the first image 10.
  • the first blur patch 1 for the first patch 11 may be obtained based on the first point spread function (PSF).
  • the first blur patch 1 may be obtained through a combination of the first point spread function PSF having the first standard deviation value (eg, ⁇ 0) and the first patch 11.
  • the combination of the first point spread function PSF and the first patch 11 may include a convolution operation C1.
  • a second blur patch 2 for the first patch 11 may be obtained based on the second point spread function PSF.
  • the second blur patch 2 can be obtained through a combination of the first point 11 and the second point spread function PSF having a second standard deviation value (eg, sigma 2).
  • the combination of the second point spread function PSF and the first patch 11 may include a convolution operation C2.
  • the blur patch obtained through the combination with the point spread function (PSF) may be referred to as a basis.
  • the third blur patch 3 may be obtained through interpolation of the obtained first blur patch 1 and the second blur patch 2, respectively.
  • the third blur patch 3 may be obtained through the interpolation process I1 of the results of the convolutional operations C1 and C2.
  • each of the first point spread function PSF and the second point spread function PSF has a point spread having N different standard deviation values when the depth resolution is N. It can be any one of the functions. In this case, N may be a natural number.
  • the second patch 21 may be set on the second image 20 to correspond to the first patch 11.
  • the location and area in the second image 20 of the second patch 21 may be a patch that is the same as at least one of the location and area of the first patch 11.
  • Depth information may be estimated based on each of the first blur patch, the second blur patch, or the third blur patch and the second patch. As shown in FIG. 4, depth information may be estimated through similarity analysis between each of the blur patches and the second patch. For example, for each of the blur patches (eg, the first blur patch, the second blur patch, or the third blur patch, etc.), the comparison between the patches through the comparison with the second patch 21 in the second image 20 is possible. Similarity and distance values (eg, PSF index) can be obtained. The acquired similarity and distance value (eg, PSF index) may be included in the depth information.
  • Similarity and distance values eg, PSF index
  • An interpolation process I1 of the first blur patch and the second blur patch, respectively, according to an embodiment of the present invention may include interpolation as a weighted average of the first point spread function and the second point spread function.
  • FIG. 5 is a graph illustrating an interpolation method according to an embodiment of the present invention.
  • Point spread function (PSF) according to an embodiment of the present invention can be defined by the following equation (1).
  • Interpolation may be performed through a weighted average of the first point spread function f1 and the second point spread function f2.
  • the interpolation function f3 is a weighted average of the first point spread function f1 and the second point spread function f2, and can be defined by the following equation (2).
  • ⁇ , ⁇ represent coefficients of the coefficient of weighted average.
  • the first point spread function f1 has a first standard deviation value (eg, ⁇ a)
  • the second point spread function f2 has a second standard deviation value (eg, ⁇ b).
  • the interpolation function f3 which can be obtained as the weighted average of the first point spreading function f1 and the second point spreading function f2, is determined by the first standard deviation value? It can be set to approximate a point spread function f4 having a standard deviation value sigma c between two standard deviation values sigma b.
  • FIG. 6 is a schematic diagram of an interpolation method according to an embodiment of the present invention.
  • the spreading function may be used to obtain an n + 1th blur patch.
  • the at least one blur patch Pk between the n th blur patch and the n th +1 th blur patch is a result of the convolution operation of the point spread function having the n th standard deviation value ⁇ n and the first patch 11 and the n th blur patch. It can be obtained as a weighted average of a point spread function having a +1 standard deviation value sigma n + 1 and the result of the convolution operation of the first patch 11.
  • the blur patch Bk obtainable through operation with the point spread function f4 having the standard deviation value ⁇ k between the nth standard deviation value ⁇ n and the n + 1th standard deviation value ⁇ n + 1 ) May be obtained approximately similar to the above-described blur patch Pk.
  • the above-described interpolation process related to FIG. 6 may be represented by Equations 3 to 6 below.
  • FIG. 7 is a block diagram of an apparatus for extracting depth information from an image according to an embodiment of the present invention.
  • the apparatus 700 for extracting depth information from an image acquires a first image of an object using a first aperture, and a second image of the object using a second aperture.
  • the third blur patch may be obtained by the blur patch acquirer 730 based on the interpolation performed by the interpolator 740.
  • the first patch of a predetermined area set on the first image may be an image area set to a predetermined area to include an edge of an object included in the first image.
  • Each of the first point spread function (PSF) and the second point spread function (PSF) according to an embodiment of the present invention has N different standard deviation values when the depth resolution is N (N is a natural number). It may be any one of the point spreading function. In other words, only some of the point spreading functions having N different standard deviation values may be combined with the first patch. Such combination may include convolution operations.
  • the interpolator 740 may perform interpolation as a weighted average of the first blur patch and the second blur patch.
  • the above-described method may be applied. Therefore, with respect to the apparatus, the description of the same contents as those of the above-described method is omitted.

Abstract

As an embodiment of the present invention, a method and apparatus for extracting depth information from an image is disclosed, the method comprising the steps of: acquiring a first image of an object using a first aperture and acquiring a second image of the object using a second aperture; configuring a first patch having a predetermined area on the first image; acquiring a first blurred patch for the first patch on the basis of a first point spread function (PSF) and acquiring a second blurred patch for the first patch on the basis of a second point spread function (PSF); acquiring a third blurred patch through interpolation of the acquired first and second blurred patches; configuring a second patch on the second image such that the second patch corresponds to the first patch; and estimating depth information on the basis of each of the first, second, and third blurred patches and the second patch.

Description

이미지로부터 심도 정보를 추출하기 위한 방법 및 장치Method and apparatus for extracting depth information from an image
본 발명은 이미지로부터 심도(depth) 정보를 추출하기 위한 방법 및 장치에 관한 것으로, 더욱 특정하게는 이중 조리개 시스템의 서로 다른 조리개를 이용하여 촬영된 이미지들에 기초하여 심도 정보를 추출하는데 있어서, 상이한 표준편차를 갖는 점 확산 함수들을 선택적으로 이용하여 이미지로부터 심도 정보를 추출하기 위한 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for extracting depth information from an image, and more particularly to extracting depth information based on images photographed using different apertures of a dual aperture system. A method and apparatus for extracting depth information from an image using selectively point spreading functions having standard deviations.
디지털 카메라의 보급 확대 등에 따라 근래들어 많이 사용되는 객체 이미지 촬상 장치에 포함될 수 있는 씨모스 이미지 센서(CMOS Image Sensor, CIS)는 외부의 광학 영상 신호를 전기 영상 신호로 변환하는 장치로써, CCD(Charge-Coupled Device)에 비하여 저전압에서 동작이 가능하고 소비 전력이 적다는 이점이 있다. 또한, 씨모스 이미지 센서(CIS)는 집적화에 유리한 장점으로 인해 디지털 카메라뿐만 아니라 각종 휴대용 디바이스 기기 등 다양한 분야에서 사용되고 있다.CMOS Image Sensor (CIS), which can be included in object image capturing devices that are used in recent years due to the spread of digital cameras, is a device that converts an external optical image signal into an electrical image signal. Compared to the coupled device, it can operate at low voltage and consumes less power. In addition, the CMOS image sensor (CIS) has been used in various fields such as not only digital cameras but also various portable device devices due to the advantage of integration.
일반적인 객체 이미지 촬상 장치에서는 적외선을 차단해 주기 위한 필터의 사용이 요구된다. 사람의 눈은 적외선과 자외선을 반사하거나 흡수하여 빛의 성분 중에 가시광선만을 투과시켜 봄으로써 물체를 인지하는 반면, 디지털 카메라 등의 광학기기는 모든 빛을 투과하여 객체 이미지를 촬상할 수 있다. 객체 이미지 촬상 장치와 같은 광학기기에서 자외선은 렌즈에 적용된 자외선 차단 코팅으로써 선택적으로 차단시킬 수 있다. 그러나, 광학기기에서 적외선(IR)을 선택적으로 차단하기 위해서는 IR 차단 필터(IR cut-off filter)의 사용이 요구된다. 예를 들어, 단일 렌즈 이중 조리개 카메라 시스템에는 가시 광선 등의 광량을 조절하기 위한 조리개 이외에 적외선을 선택적으로 차단하기 위한 IR 차단 필터가 포함될 수 있다. In general object image pickup devices, the use of a filter to block infrared rays is required. The human eye perceives an object by reflecting or absorbing infrared rays and ultraviolet rays and transmitting only visible light in the light component, whereas optical devices such as digital cameras can capture object images by transmitting all light. In optical devices such as object image pickup devices, ultraviolet light can be selectively blocked by a sunscreen coating applied to the lens. However, the use of an IR cut-off filter is required to selectively block infrared rays (IR) in optical devices. For example, the single lens dual aperture camera system may include an IR blocking filter for selectively blocking infrared rays in addition to the aperture for adjusting the amount of light such as visible light.
객체에 대한 깊이 정보 또는 심도 정보를 획득하기 위해서는 다시점(multiview) 이미지들을 비교 또는 분석하거나 IR 차단 필터를 선택적으로 제어하여 획득된 적외선 채널 영상과 컬러 채널 영상을 비교 또는 분석하는 등의 다양한 기법이 활용될 수 있다. In order to obtain depth information or depth information about an object, various techniques such as comparing or analyzing multiview images or selectively controlling an IR cut filter to compare or analyze an infrared channel image and a color channel image acquired Can be utilized.
본 발명의 일 실시예에 따르면, 이중 조리개 시스템의 서로 다른 조리개를 이용하여 촬영된 이미지들에 기초하여 심도 정보를 추출하는데 있어서, 상이한 표준편차를 갖는 점 확산 함수들을 선택적으로 이용하여 이미지로부터 심도 정보를 추출할 수 있다. According to an embodiment of the present invention, in extracting depth information based on images photographed using different apertures of a dual aperture system, depth information from an image is selectively used by using point spreading functions having different standard deviations. Can be extracted.
기존의 객체의 거리 정보 또는 깊이 정보의 추출 알고리즘들은 각각의 점 확산 함수 모두에 대하여 연산을 하도록 되어 있어서 연산량이 과도한 것에 비하여 본 발명의 일 실시예에 따른 방법 및 장치에 의하면 상이한 표준편차를 갖는 점 확산 함수들을 선택적으로 이용하여 이미지로부터 심도 정보를 추출할 수 있다.Algorithms for extracting the distance information or depth information of the existing object are to operate on all of the point spreading functions, and according to the method and apparatus according to the exemplary embodiment of the present invention, the calculations have different standard deviations. Depth information may be extracted from the image by selectively using the diffusion functions.
단일 렌즈 이중 조리개 카메라 시스템을 이용하면 사물의 거리정보 또는 객체의 심도(depth) 정보를 추출할 수 있다. 기존의 거리 정보 추출 알고리즘들은 상당한 연산량이 요구되는바 비효율적이다. 본 발명의 일 실시예에 따르면, 기존의 거리 정보 추출 알고리즘에 비하여 연산량을 대폭 감소시킬 수 있고, 동시에 정확도는 크게 손실되지 않는다는 효과가 있다.Using a single lens dual aperture camera system, distance information of an object or depth information of an object may be extracted. Existing distance information extraction algorithms are inefficient because they require a significant amount of computation. According to an embodiment of the present invention, the amount of computation can be greatly reduced compared to the existing distance information extraction algorithm, and at the same time, the accuracy is not greatly reduced.
도 1은 단일 렌즈 이중 조리개 카메라 시스템의 개략도이다. 1 is a schematic diagram of a single lens dual aperture camera system.
도 2는 종래의 거리 정보 추출 알고리즘의 개념도이다. 2 is a conceptual diagram of a conventional distance information extraction algorithm.
도 3은 본 발명의 일 실시예에 따라 이미지로부터 심도 정보를 추출하기 위한 방법을 나타낸 순서도이다. 3 is a flowchart illustrating a method for extracting depth information from an image according to an embodiment of the present invention.
도 4는 본 발명의 일 실시예에 따라 이미지로부터 심도 정보를 추출하기 위한 알고리즘의 개념도이다. 4 is a conceptual diagram of an algorithm for extracting depth information from an image according to an embodiment of the present invention.
도 5는 본 발명의 일 실시예에 따른 보간 방법을 설명하기 위한 그래프이다. 5 is a graph illustrating an interpolation method according to an embodiment of the present invention.
도 6은 본 발명의 일 실시예에 따른 보간 방법의 개략도이다. 6 is a schematic diagram of an interpolation method according to an embodiment of the present invention.
도 7은 본 발명의 일 실시예에 따라 이미지로부터 심도 정보를 추출하기 위한 장치의 블록도이다.7 is a block diagram of an apparatus for extracting depth information from an image according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 이미지로부터 심도(depth) 정보를 추출하기 위한 방법은, 제 1 조리개를 이용하여 객체에 대한 제 1 이미지를 획득하고, 제 2 조리개를 이용하여 객체에 대한 제 2 이미지를 획득하는 단계, 제 1 이미지 상에서 소정 면적의 제 1 패치를 설정하는 단계, 제 1 점 확산 함수(PSF) 에 기초하여 설정된 제 1 패치에 대한 제 1 블러 패치를 획득하고, 제 2 점 확산 함수(PSF)에 기초하여 설정된 제 1 패치에 대한 제 2 블러 패치를 획득하는 단계, 각각 획득된 제 1 블러 패치와 제 2 블러 패치의 보간을 통하여 제 3 블러 패치를 획득하는 단계, 제 2 이미지 상에서 제 1 패치에 상응하게 제 2 패치를 설정하는 단계 및 제 1 블러 패치, 제 2 블러 패치 또는 제 3 블러 패치 각각과 제 2 패치에 기초하여 심도 정보를 추정하는 단계를 포함할 수 있다. A method for extracting depth information from an image according to an exemplary embodiment of the present invention may include obtaining a first image of an object using a first aperture and using a second aperture to obtain a second image of the object. Obtaining a first blur patch for the set first patch based on the first point spreading function (PSF), and obtaining a second point spreading function on the first image. Obtaining a second blur patch for the first patch set based on the (PSF), obtaining a third blur patch through interpolation of the obtained first blur patch and the second blur patch, respectively, on the second image Setting a second patch corresponding to the first patch, and estimating depth information based on each of the first blur patch, the second blur patch, or the third blur patch, and the second patch.
본 발명의 일 실시예에 따른 제 1 이미지 상에서 설정된 소정 면적의 제 1 패치는, 제 1 이미지에 포함된 객체의 에지가 포함되도록 소정 면적으로 설정된 이미지 영역일 수 있다. The first patch of a predetermined area set on the first image according to an embodiment of the present invention may be an image area set to a predetermined area to include an edge of an object included in the first image.
본 발명의 일 실시예에 따른 제 1 점 확산 함수(PSF)와 제 2 점 확산 함수(PSF) 각각은 심도 분해능(depth resolution)이 N일 때 (N은 자연수), N개의 상이한 표준편차 값을 갖는 점 확산 함수들 중 어느 하나일 수 있다. Each of the first point spread function (PSF) and the second point spread function (PSF) according to an embodiment of the present invention may have N different standard deviation values when the depth resolution is N (N is a natural number). It may be any one of the point spreading function.
본 발명의 일 실시예에 따른 각각 획득된 제 1 블러 패치와 제 2 블러 패치의 보간을 통하여 제 3 블러 패치를 획득하는 단계는, 제 1 점 확산 함수(PSF)와 제 2 점 확산 함수(PSF)의 가중 평균으로써 보간하여 제 3 블러 패치를 획득하는 단계를 포함할 수 있다.Acquiring the third blur patch through interpolation of the first blur patch and the second blur patch, respectively, according to an embodiment of the present invention, may include a first point spread function PSF and a second point spread function PSF. Interpolating with a weighted average of) to obtain a third blur patch.
본 발명의 일 실시예에 따른 이미지로부터 심도(depth) 정보를 추출하기 위한 장치는, 제 1 조리개를 이용하여 객체에 대한 제 1 이미지를 획득하고, 제 2 조리개를 이용하여 객체에 대한 제 2 이미지를 획득하는 이미지획득부, 제 1 이미지 상에서 소정 면적의 제 1 패치를 설정하고, 제 2 이미지 상에서 제 1 패치에 상응하게 제 2 패치를 설정하는 패치설정부, 제 1 점 확산 함수(PSF) 에 기초하여 제 1 패치에 대한 제 1 블러 패치를 획득하고, 제 2 점 확산 함수(PSF)에 기초하여 제 1 패치에 대한 제 2 블러 패치를 획득하는 블러패치획득부, 각각 획득된 제 1 블러 패치와 제 2 블러 패치를 보간하는 보간부, 제 1 블러 패치, 제 2 블러 패치 또는 제 3 블러 패치 각각과 설정된 제 2 패치에 기초하여 심도 정보를 추정하는 심도추정부를 포함하고, 제 3 블러 패치는 보간부에 의한 보간 수행에 기초하여 블러패치획득부에 의하여 획득될 수 있다. An apparatus for extracting depth information from an image according to an exemplary embodiment of the present disclosure may be configured to obtain a first image of an object using a first aperture, and a second image of an object using a second aperture. An image acquisition unit for acquiring an image, a patch setting unit for setting a first patch having a predetermined area on the first image, and setting a second patch corresponding to the first patch on the second image, and a first point spreading function A blur patch acquisition unit obtaining a first blur patch for the first patch based on the first blur patch, and obtaining a second blur patch for the first patch based on the second point spreading function (PSF), respectively. And an interpolation unit that interpolates the second blur patch, the first blur patch, the second blur patch, or the third blur patch, and a depth estimation unit for estimating depth information based on the set second patch, wherein the third blur patch includes: Interpolation And it may be obtained by the blur patch obtaining unit based on the interpolation performed by the.
본 발명의 일 실시예에 따른 제 1 이미지 상에서 설정된 소정 면적의 제 1 패치는, 제 1 이미지에 포함된 객체의 에지가 포함되도록 소정 면적으로 설정된 이미지 영역일 수 있다. The first patch of a predetermined area set on the first image according to an embodiment of the present invention may be an image area set to a predetermined area to include an edge of an object included in the first image.
본 발명의 일 실시예에 따른 제 1 점 확산 함수(PSF)와 제 2 점 확산 함수(PSF) 각각은 심도 분해능(depth resolution)이 N일 때, N개의 상이한 표준편차 값을 갖는 점 확산 함수들 중 어느 하나이고, N은 자연수일 수 있다.  Each of the first point spread function (PSF) and the second point spread function (PSF) according to an embodiment of the present invention has point spread functions having N different standard deviation values when the depth resolution is N. Any one of which, N may be a natural number.
본 발명의 일 실시예에 따른 보간부는 제 1 점 확산 함수(PSF)와 제 2 점 확산 함수(PSF)의 가중 평균으로써 보간을 수행할 수 있다. The interpolator according to an embodiment of the present invention may perform interpolation as a weighted average of the first point spread function PSF and the second point spread function PSF.
한편, 본 발명의 일 실시예에 의하면, 전술한 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공할 수 있다. Meanwhile, according to an embodiment of the present invention, a computer-readable recording medium having recorded thereon a program for executing the above-described method on a computer can be provided.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다. Terms used herein will be briefly described and the present invention will be described in detail.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the present invention have been selected as widely used general terms as possible in consideration of the functions in the present invention, but this may vary according to the intention or precedent of the person skilled in the art, the emergence of new technologies and the like. In addition, in certain cases, there is also a term arbitrarily selected by the applicant, in which case the meaning will be described in detail in the description of the invention. Therefore, the terms used in the present invention should be defined based on the meanings of the terms and the contents throughout the present invention, rather than the names of the simple terms.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When any part of the specification is to "include" any component, this means that it may further include other components, except to exclude other components unless otherwise stated. In addition, the terms "... unit", "module", etc. described in the specification mean a unit for processing at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software. .
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.
이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.
도 1은 단일 렌즈 이중 조리개 카메라 시스템의 개략도이다. 1 is a schematic diagram of a single lens dual aperture camera system.
도 1에서와 같은 단일 렌즈 이중 조리개 카메라 시스템(100)을 이용하여 사용자는 컬러 채널 이미지와 적외선 채널 이미지를 획득할 수 있다. 경통(140)에는 투과될 가시광선의 양을 조절하기 위한 조리개(110)와 적외선을 선택적으로 차단하기 위한 적어선 차단 필터(120) 및 적어도 하나의 렌즈(130)가 삽입될 수 있다. 조리개와 렌즈를 통과한 빛은 씨모스 이미지 센서(CMOS Image Sensor, CIS)(150)에서 센싱될 수 있다. 이러한 씨모스 이미지 센서(150)는 예컨대, PCB와 같은 기판을 통하여 다른 전자 모듈들과 연결될 수 있다. The user may acquire a color channel image and an infrared channel image using the single lens dual aperture camera system 100 as shown in FIG. 1. The barrel 140 may include an aperture 110 for adjusting the amount of visible light to be transmitted, a writing line blocking filter 120 for selectively blocking infrared rays, and at least one lens 130. Light passing through the iris and the lens may be sensed by the CMOS image sensor 150. The CMOS image sensor 150 may be connected to other electronic modules through, for example, a PCB.
씨모스 이미지 센서에서 검출된 빛의 성분 및 양에 따라 컬러 채널 이미지와 적외선 채널 이미지가 획득될 수 있다. 컬러 채널 이미지는 객체에 대한 컬러 이미지로 지칭될 수 있고, 적외선 채널 이미지는 적외선 이미지로 지칭될 수 있다. 작은 구경의 조리개로 획득한 이미지는 큰 구경의 조리개로 획득한 이미지보다 초점 거리로부터의 객체 거리에 따른 블러의 정도가 더 적을 수 있다. The color channel image and the infrared channel image may be acquired according to the component and amount of light detected by the CMOS image sensor. The color channel image may be referred to as the color image for the object, and the infrared channel image may be referred to as the infrared image. An image acquired by the aperture having a small aperture may have a smaller degree of blurring according to the object distance from the focal length than an image obtained by the aperture having a large aperture.
컬러 채널 이미지와 적외선 채널 이미지를 획득하고, 획득된 이미지들로부터 객체의 에지를 추출하며, 추출된 에지에 대하여 심도 추정을 수행함으로써 객체의 거리 정보가 획득될 수 있다. 컬러 채널 이미지와 적외선 채널 이미지의 비교, 분석을 통하여 이미지 내에서의 객체의 심도 정보를 획득할 수 있다. 다시 말해서, 컬러 채널 이미지와 적외선 채널 이미지의 에지에 기초하여 객체의 거리 정보가 획득될 수 있다. 종래에도 객체의 거리 정보를 획득하기 위한 거리 정보 추출 알고리즘이 존재하였지만, 상당한 연산량이 소모된다는 점에서 문제가 있다. The distance information of the object may be obtained by obtaining a color channel image and an infrared channel image, extracting an edge of the object from the obtained images, and performing depth estimation on the extracted edge. Depth information of the object in the image may be obtained by comparing and analyzing the color channel image and the infrared channel image. In other words, distance information of the object may be obtained based on the edges of the color channel image and the infrared channel image. Although a distance information extraction algorithm for obtaining distance information of an object has existed in the past, there is a problem in that a considerable amount of computation is consumed.
도 2는 종래의 거리 정보 추출 알고리즘의 개념도이다. 2 is a conceptual diagram of a conventional distance information extraction algorithm.
적외선 이미지(10) 내의 소정 영역(예컨대, 박스 영역)에 대하여 상이한 표준 편차를 갖는 점 확산 함수(Point Spread Function)들과의 연산을 통하여 블러링된 이미지가 획득될 수 있다. 소정 영역은 패치 등으로 지칭될 수 있다. 이러한 연산은 컨벌루션 연산을 포함할 수 있다. 예를 들어, 심도 분해능(depth resolution) 10에 대하여, 10개의 상이한 표준편차 값(예컨대, σ0 내지 σ9)을 갖는 점 확산 함수들 각각이 적외선 이미지(10) 내의 소정 영역과 컨벌루션 연산이 수행될 수 있다. 10개의 상이한 표준편차 값(예컨대, σ0 내지 σ9)을 갖는 점 확산 함수들과의 연산을 통하여 획득된 블러링된 패치들 각각에 대하여 컬러 이미지(20) 내의 소정 영역과의 비교를 통하여 이미지들 간의 유사도와 거리값(예컨대, PSF index)이 획득될 수 있다. 획득된 유사도와 거리값을 이용하여 객체의 거리 정보가 추정될 수 있다. 이러한 종래의 거리 정보 추출 알고리즘은 전술한 바와 같이 상이한 표준편차 값을 갖는 점 확산 함수들 모두에 대하여 연산을 수행해야 한다는 점에서 연산량이 증가되고, 복잡도가 높아지게 되어 거리 정보 추출 효율이 떨어질 수 있다. The blurred image may be obtained through calculation with point spread functions having different standard deviations with respect to a predetermined area (eg, a box area) in the infrared image 10. The predetermined area may be referred to as a patch or the like. Such an operation may include a convolution operation. For example, for depth resolution 10, each of the point spreading functions having ten different standard deviation values (e.g., sigma 0 to sigma 9) may be subjected to a convolution operation with a predetermined area in infrared image 10. have. For each of the blurred patches obtained through operation with point spreading functions having ten different standard deviation values (e.g., sigma 0 to sigma 9), the comparison of the images with a predetermined area in the color image 20 Similarity and distance values (eg, PSF index) can be obtained. Distance information of the object may be estimated using the obtained similarity and distance value. As described above, the conventional distance information extraction algorithm increases computational complexity in terms of the need to perform operations on all of the point spreading functions having different standard deviation values, thereby increasing the complexity and thus reducing the efficiency of distance information extraction.
도 3은 본 발명의 일 실시예에 따라 이미지로부터 심도 정보를 추출하기 위한 방법을 나타낸 순서도이다. 3 is a flowchart illustrating a method for extracting depth information from an image according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 이미지로부터 심도(depth) 정보를 추출하기 위한 방법은, 제 1 조리개를 이용하여 객체에 대한 제 1 이미지를 획득하고, 제 2 조리개를 이용하여 객체에 대한 제 2 이미지를 획득하는 단계(S100), 제 1 이미지 상에서 소정 면적의 제 1 패치를 설정하는 단계(S200), 제 1 점 확산 함수(Point Spread Function, PSF) 에 기초하여 제 1 패치에 대한 제 1 블러 패치를 획득하고, 제 2 점 확산 함수(PSF)에 기초하여 제 1 패치에 대한 제 2 블러 패치를 획득하는 단계(S300), 각각 획득된 제 1 블러 패치와 제 2 블러 패치의 보간을 통하여 제 3 블러 패치를 획득하는 단계(S400), 제 2 이미지 상에서 제 1 패치에 상응하게 제 2 패치를 설정하는 단계(S500) 및 제 1 블러 패치, 제 2 블러 패치 또는 제 3 블러 패치 각각과 제 2 패치에 기초하여 심도 정보를 추정하는 단계(S600)를 포함할 수 있다. 제 1 이미지 상에서 설정된 소정 면적의 제 1 패치는, 제 1 이미지에 포함된 객체의 에지가 포함되도록 소정 면적으로 설정된 이미지 영역일 수 있다. 본 발명의 일 실시예에 따른 이미지로부터 심도 정보를 추출하기 위한 방법에 대하여는 이하 도 4를 참고하여 상술한다. A method for extracting depth information from an image according to an exemplary embodiment of the present invention may include obtaining a first image of an object using a first aperture and using a second aperture to obtain a second image of the object. Acquiring (S100), setting a first patch of a predetermined area on the first image (S200), and a first blur patch for the first patch based on a first point spread function (PSF) And obtaining a second blur patch for the first patch based on the second point spread function (PSF) (S300), respectively, by interpolating the obtained first blur patch and the second blur patch. Acquiring a blur patch (S400), setting a second patch corresponding to the first patch on the second image (S500), and each of the first blur patch, the second blur patch, or the third blur patch and the second patch. Estimating depth information based on S600) may be included. The first patch of the predetermined area set on the first image may be an image area set to a predetermined area to include an edge of an object included in the first image. A method for extracting depth information from an image according to an embodiment of the present invention will be described with reference to FIG. 4 below.
도 4는 본 발명의 일 실시예에 따라 이미지로부터 심도 정보를 추출하기 위한 알고리즘의 개념도이다. 4 is a conceptual diagram of an algorithm for extracting depth information from an image according to an embodiment of the present invention.
본 발명의 일 실시예에 따라 제 1 조리개를 이용하여 객체에 대한 제 1 이미지가 획득될 수 있다. 제 1 조리개는 적외선을 선택적으로 차단하기 위한 적외선(IR) 차단 필터 등일 수 있다. 제 1 이미지는 적외선 이미지일 수 있지만, 반드시 이에 제한되는 것은 아니다. 또한, 제 2 조리개를 이용하여 객체에 대한 제 2 이미지를 획득할 수 있다. 제 2 조리개는 카메라 시스템 등에서 일반적으로 사용되는 조리개일 수 있다. 또한, 설명의 편의상 제 1 이미지의 예로써 적외선 이미지를 언급하였고, 제 2 이미지의 예로써 컬러 채널 이미지로 언급하였을 뿐, 반드시 이에 제한되는 것은 아니다. 다시 말해서, 본 발명의 일 실시예에 따른 방법은 서로 다른 조리개를 이용하여 이미지의 촬영이 가능한 이중 조리개(DA, Dual Aperture) 시스템에 전반적으로 활용될 수 있다. According to an embodiment of the present invention, a first image of an object may be obtained using the first aperture. The first aperture may be an infrared (IR) blocking filter or the like for selectively blocking infrared rays. The first image may be an infrared image, but is not necessarily limited thereto. In addition, a second image of the object may be acquired using the second aperture. The second aperture may be an aperture generally used in a camera system or the like. In addition, for convenience of description, the infrared image is referred to as an example of the first image, and the color channel image is referred to as an example of the second image, but is not necessarily limited thereto. In other words, the method according to an embodiment of the present invention may be generally used in a dual aperture (DA) system capable of capturing an image using different apertures.
제 1 이미지(10) 상에서 소정 면적의 제 1 패치(11)가 설정될 수 있다. 제 1 이미지(10) 상에서 설정된 소정 면적의 제 1 패치(11)는, 제 1 이미지(10) 내의 적어도 하나의 에지가 포함되도록 소정 면적으로 설정된 이미지 영역일 수 있다. A first patch 11 of a predetermined area may be set on the first image 10. The first patch 11 having a predetermined area set on the first image 10 may be an image area set to a predetermined area to include at least one edge in the first image 10.
제 1 점 확산 함수(Point Spread Function, PSF)에 기초하여 제 1 패치(11)에 대한 제 1 블러 패치(1)가 획득될 수 있다. 제 1 표준편차 값(예컨대, σ0)을 갖는 제 1 점 확산 함수(PSF)와 제 1 패치(11)의 조합을 통하여 제 1 블러 패치(1)가 획득될 수 있다. 제 1 점 확산 함수(PSF)와 제 1 패치(11)의 조합에는 컨벌루션 연산(C1) 등이 포함될 수 있다. 또한, 제 2 점 확산 함수(PSF)에 기초하여 제 1 패치(11)에 대한 제 2 블러 패치(2)가 획득될 수 있다. 제 2 표준편차 값(예컨대, σ2)을 갖는 제 2 점 확산 함수(PSF)와 제 1 패치(11)의 조합을 통하여 제 2 블러 패치(2)가 획득될 수 있다. 제 2 점 확산 함수(PSF)와 제 1 패치(11)의 조합에는 컨벌루션 연산(C2) 등이 포함될 수 있다. 점 확산 함수(PSF)와의 조합을 통하여 획득된 블러 패치는 베이시스(basis)로 지칭될 수도 있다.The first blur patch 1 for the first patch 11 may be obtained based on the first point spread function (PSF). The first blur patch 1 may be obtained through a combination of the first point spread function PSF having the first standard deviation value (eg, σ 0) and the first patch 11. The combination of the first point spread function PSF and the first patch 11 may include a convolution operation C1. In addition, a second blur patch 2 for the first patch 11 may be obtained based on the second point spread function PSF. The second blur patch 2 can be obtained through a combination of the first point 11 and the second point spread function PSF having a second standard deviation value (eg, sigma 2). The combination of the second point spread function PSF and the first patch 11 may include a convolution operation C2. The blur patch obtained through the combination with the point spread function (PSF) may be referred to as a basis.
본 발명의 일 실시예에 따르면, 각각 획득된 제 1 블러 패치(1)와 제 2 블러 패치(2)의 보간을 통하여 제 3 블러 패치(3)가 획득될 수 있다. 다시 말해서, 컨벌루션 연산(C1 및 C2) 결과들의 보간 과정(I1)을 통하여 제 3 블러 패치(3)가 획득될 수 있다. 앞서 예로 언급한 바와 같이, 10개의 상이한 표준편차 값(예컨대, σ0 내지 σ9)을 갖는 모든 점 확산 함수들 각각에 대하여 컨벌루션을 수행하는 종래의 거리 추정 방법에 비하여, 본 발명의 일 실시예에 따른 심도 정보 추출 방법은 점 확산 함수들 중 일부(예컨대, σ0, σ2, σ5 및 σ9)에 대하여 제 1 패치(11)와의 컨벌루션 연산을 수행한다는 점에서 연산량이 대폭 축소될 수 있고, 연산의 복잡도도 감소될 수 있다. 도 4에서와 같이, 예를 들어, 제 1 점 확산 함수(PSF)와 제 2 점 확산 함수(PSF) 각각은 심도 분해능(depth resolution)이 N일 때, N개의 상이한 표준편차 값을 갖는 점 확산 함수들 중 어느 하나일 수 있다. 이때, N은 자연수일 수 있다. According to an embodiment of the present invention, the third blur patch 3 may be obtained through interpolation of the obtained first blur patch 1 and the second blur patch 2, respectively. In other words, the third blur patch 3 may be obtained through the interpolation process I1 of the results of the convolutional operations C1 and C2. As mentioned in the foregoing example, compared to the conventional distance estimation method of performing convolution for each of all the point spread functions having ten different standard deviation values (e.g., sigma 0 to sigma 9), according to an embodiment of the present invention The depth information extraction method can greatly reduce the amount of computation in that it performs a convolution operation with the first patch 11 on some of the point spread functions (eg, sigma 0, sigma 2, sigma 5 and sigma 9), and the complexity of the operation Can be reduced. As shown in FIG. 4, for example, each of the first point spread function PSF and the second point spread function PSF has a point spread having N different standard deviation values when the depth resolution is N. It can be any one of the functions. In this case, N may be a natural number.
본 발명의 일 실시예에 따르면 제 2 이미지(20) 상에서 제 1 패치(11)에 상응하게 제 2 패치(21)가 설정될 수 있다. 제 2 패치(21)의 제 2 이미지(20) 내에서 위치 및 면적은 제 1 패치(11)의 위치 및 면적 중 적어도 하나와 동일한 패치일 수 있다. According to an embodiment of the present invention, the second patch 21 may be set on the second image 20 to correspond to the first patch 11. The location and area in the second image 20 of the second patch 21 may be a patch that is the same as at least one of the location and area of the first patch 11.
제 1 블러 패치, 제 2 블러 패치 또는 제 3 블러 패치 각각과 제 2 패치에 기초하여 심도 정보가 추정될 수 있다. 도 4에 도시된 바와 같이, 각각의 블러 패치와 제 2 패치와의 유사도 분석을 통하여 심도 정보가 추정될 수 있다. 예를 들면, 블러 패치들(예컨대, 제 1 블러 패치, 제 2 블러 패치 또는 제 3 블러 패치 등) 각각에 대하여 제 2 이미지(20) 내의 제 2 패치(21)과의 비교를 통하여 패치들 간의 유사도와 거리값(예컨대, PSF index)이 획득될 수 있다. 획득된 유사도와 거리값(예컨대, PSF index)은 심도 정보에 포함될 수 있다. Depth information may be estimated based on each of the first blur patch, the second blur patch, or the third blur patch and the second patch. As shown in FIG. 4, depth information may be estimated through similarity analysis between each of the blur patches and the second patch. For example, for each of the blur patches (eg, the first blur patch, the second blur patch, or the third blur patch, etc.), the comparison between the patches through the comparison with the second patch 21 in the second image 20 is possible. Similarity and distance values (eg, PSF index) can be obtained. The acquired similarity and distance value (eg, PSF index) may be included in the depth information.
본 발명의 일 실시예에 따른 각각 획득된 제 1 블러 패치와 제 2 블러 패치의 보간 과정(I1)에는 제 1 점 확산 함수와 제 2 점 확산 함수의 가중 평균으로써의 보간이 포함될 수 있다. An interpolation process I1 of the first blur patch and the second blur patch, respectively, according to an embodiment of the present invention may include interpolation as a weighted average of the first point spread function and the second point spread function.
도 5는 본 발명의 일 실시예에 따른 보간 방법을 설명하기 위한 그래프이다. 5 is a graph illustrating an interpolation method according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 점 확산 함수(PSF)는 다음의 수학식 1로 정의될 수 있다. Point spread function (PSF) according to an embodiment of the present invention can be defined by the following equation (1).
수학식 1
Figure PCTKR2015000556-appb-M000001
Equation 1
Figure PCTKR2015000556-appb-M000001
x,y는 PSF의 평면상 위치 좌표를 나타내고, σk는 표준편차(standard deviation)를 나타낸다. 제 1 점 확산 함수(f1)와 제 2 점 확산 함수(f2)의 가중 평균을 통하여 보간이 수행될 수 있다. 다시 말해서, 보간 함수(f3)는 제 1 점 확산 함수(f1)와 제 2 점 확산 함수(f2)의 가중 평균으로써, 다음의 수학식 2로 정의될 수 있다. x, y represents the on-plane position coordinates of the PSF, and σ k represents the standard deviation. Interpolation may be performed through a weighted average of the first point spread function f1 and the second point spread function f2. In other words, the interpolation function f3 is a weighted average of the first point spread function f1 and the second point spread function f2, and can be defined by the following equation (2).
수학식 2
Figure PCTKR2015000556-appb-M000002
Equation 2
Figure PCTKR2015000556-appb-M000002
α,β는 가중 평균(coefficient of weighted average)의 계수를 나타낸다. 예를 들어, 도 5b에서와 같이, 제 1 점 확산 함수(f1)가 제 1 표준편차 값(예컨대, σa)을 갖고, 제 2 점 확산 함수(f2)가 제 2 표준편차 값(예컨대, σb)을 갖는다면, 제 1 점 확산 함수(f1)와 제 2 점 확산 함수(f2)의 가중 평균으로써 획득될 수 있는 보간 함수(f3)는 가중 계수에 따라 제 1 표준편차 값(σa)과 제 2 표준편차 값(σb) 사이의 표준편차 값(σc)을 갖는 점 확산 함수(f4)와 근사화되도록 설정될 수 있다. 다시 말해서, 본 발명의 일 실시예에 따른 가중 계수의 조정에 따른 보간으로써 종래의 컨벌루션 연산 결과와 근사화된 결과를 획득할 수 있다. 그러므로, 본 발명의 일 실시예에 따르면 종래 대비 연산량을 대폭 축소시킬 수 있다. α, β represent coefficients of the coefficient of weighted average. For example, as in FIG. 5B, the first point spread function f1 has a first standard deviation value (eg, σa), and the second point spread function f2 has a second standard deviation value (eg, σb). ), The interpolation function f3, which can be obtained as the weighted average of the first point spreading function f1 and the second point spreading function f2, is determined by the first standard deviation value? It can be set to approximate a point spread function f4 having a standard deviation value sigma c between two standard deviation values sigma b. In other words, it is possible to obtain a result approximated with a conventional convolution operation result by interpolation according to the adjustment of the weighting coefficient according to an embodiment of the present invention. Therefore, according to one embodiment of the present invention, the amount of computation can be greatly reduced compared to the conventional art.
도 6은 본 발명의 일 실시예에 따른 보간 방법의 개략도이다. 6 is a schematic diagram of an interpolation method according to an embodiment of the present invention.
적외선 이미지 상의 제 1 패치(11)에 대하여 제 n 표준편차 값(σn)을 갖는 점 확산 함수를 이용하여 제 n 블러 패치를 획득하고, 제 n+1 표준편차 값(σn+1)을 갖는 점 확산 함수를 이용하여 제 n+1 블러 패치를 획득할 수 있다. 제 n 블러 패치와 제 n+1 블러 패치 사이의 적어도 하나의 블러 패치(Pk)는 제 n 표준편차 값(σn)을 갖는 점 확산 함수와 제 1 패치(11)의 컨볼루션 연산 결과와 제 n+1 표준편차 값(σn+1)을 갖는 점 확산 함수와 제 1 패치(11)의 컨볼루션 연산 결과에 대한 가중 평균으로써 획득될 수 있다. 다시 말해서, 제 n 표준편차 값(σn)과 제 n+1 표준편차 값(σn+1) 사이의 표준편차 값(σk)을 갖는 점 확산 함수(f4)와의 연산을 통하여 획득 가능한 블러 패치(Bk)는 전술한 블러 패치(Pk)와 근사하게 획득될 수 있다. 도 6과 관련된 전술한 보간 과정은 다음의 수학식 3 내지 수학식 6으로 표현될 수 있다. Obtain an nth blur patch using a point spread function having an n th standard deviation value σ n for the first patch 11 on the infrared image, and a point having an n + 1 th standard deviation value σ n + 1 The spreading function may be used to obtain an n + 1th blur patch. The at least one blur patch Pk between the n th blur patch and the n th +1 th blur patch is a result of the convolution operation of the point spread function having the n th standard deviation value σ n and the first patch 11 and the n th blur patch. It can be obtained as a weighted average of a point spread function having a +1 standard deviation value sigma n + 1 and the result of the convolution operation of the first patch 11. In other words, the blur patch Bk obtainable through operation with the point spread function f4 having the standard deviation value σk between the nth standard deviation value σn and the n + 1th standard deviation value σn + 1 ) May be obtained approximately similar to the above-described blur patch Pk. The above-described interpolation process related to FIG. 6 may be represented by Equations 3 to 6 below.
수학식 3
Figure PCTKR2015000556-appb-M000003
Equation 3
Figure PCTKR2015000556-appb-M000003
수학식 4
Figure PCTKR2015000556-appb-M000004
Equation 4
Figure PCTKR2015000556-appb-M000004
수학식 5
Figure PCTKR2015000556-appb-M000005
Equation 5
Figure PCTKR2015000556-appb-M000005
수학식 6
Figure PCTKR2015000556-appb-M000006
Equation 6
Figure PCTKR2015000556-appb-M000006
도 7은 본 발명의 일 실시예에 따라 이미지로부터 심도 정보를 추출하기 위한 장치의 블록도이다. 7 is a block diagram of an apparatus for extracting depth information from an image according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 이미지로부터 심도 정보를 추출하기 위한 장치(700)는, 제 1 조리개를 이용하여 객체에 대한 제 1 이미지를 획득하고, 제 2 조리개를 이용하여 객체에 대한 제 2 이미지를 획득하는 이미지획득부(710), 제 1 이미지 상에서 소정 면적의 제 1 패치를 설정하고, 제 2 이미지 상에서 제 1 패치에 상응하게 제 2 패치를 설정하는 패치설정부(720), 제 1 점 확산 함수(PSF) 에 기초하여 설정된 제 1 패치에 대한 제 1 블러 패치를 획득하고, 제 2 점 확산 함수(PSF)에 기초하여 설정된 제 1 패치에 대한 제 2 블러 패치를 획득하는 블러패치획득부(730), 각각 획득된 제 1 블러 패치와 제 2 블러 패치를 보간하는 보간부(740), 제 1 블러 패치, 제 2 블러 패치 또는 제 3 블러 패치 각각과 설정된 제 2 패치에 기초하여 심도 정보를 추정하는 심도추정부(750)를 포함할 수 있다. 제 3 블러 패치는 보간부(740)에 의한 보간 수행에 기초하여 블러패치획득부(730)에 의하여 획득될 수 있다. The apparatus 700 for extracting depth information from an image according to an embodiment of the present invention acquires a first image of an object using a first aperture, and a second image of the object using a second aperture. An image acquisition unit 710 for acquiring a second image, a patch setting unit 720 for setting a first patch having a predetermined area on a first image, and setting a second patch corresponding to the first patch on a second image, and a first point A blur patch acquisition unit that obtains a first blur patch for the first patch set based on the spread function PSF, and obtains a second blur patch for the first patch set based on the second point spread function PSF. 730, depth information based on the obtained interpolation unit 740 for interpolating the first blur patch and the second blur patch, the first blur patch, the second blur patch, or the third blur patch, respectively, and the set second patch; Depth Estimation (750) It can hamhal. The third blur patch may be obtained by the blur patch acquirer 730 based on the interpolation performed by the interpolator 740.
본 발명의 일 실시예에 따른 제 1 이미지 상에서 설정된 소정 면적의 제 1 패치는, 제 1 이미지에 포함된 객체의 에지가 포함되도록 소정 면적으로 설정된 이미지 영역일 수 있다. The first patch of a predetermined area set on the first image according to an embodiment of the present invention may be an image area set to a predetermined area to include an edge of an object included in the first image.
본 발명의 일 실시예에 따른 제 1 점 확산 함수(PSF)와 제 2 점 확산 함수(PSF) 각각은 심도 분해능(depth resolution)이 N(N은 자연수)일 때, N개의 상이한 표준편차 값을 갖는 점 확산 함수들 중 어느 하나일 수 있다. 다시 말해서, N개의 상이한 표준편차 값을 갖는 점 확산 함수들 중 일부만이 제 1 패치와 조합이 수행될 수 있다. 이러한 조합은 컨벌루션 연산을 포함할 수 있다. Each of the first point spread function (PSF) and the second point spread function (PSF) according to an embodiment of the present invention has N different standard deviation values when the depth resolution is N (N is a natural number). It may be any one of the point spreading function. In other words, only some of the point spreading functions having N different standard deviation values may be combined with the first patch. Such combination may include convolution operations.
보간부(740)는 제 1 블러 패치와 제 2 블러 패치의 가중 평균으로써 보간을 수행할 수 있다. The interpolator 740 may perform interpolation as a weighted average of the first blur patch and the second blur patch.
본 발명의 일 실시예에 따른 장치와 관련하여서는 전술한 방법에 대한 내용이 적용될 수 있다. 따라서, 장치와 관련하여, 전술한 방법에 대한 내용과 동일한 내용에 대하여는 설명을 생략하였다.With regard to the apparatus according to an embodiment of the present invention, the above-described method may be applied. Therefore, with respect to the apparatus, the description of the same contents as those of the above-described method is omitted.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. The foregoing description of the present invention is intended for illustration, and it will be understood by those skilled in the art that the present invention may be easily modified in other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is shown by the following claims rather than the above description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention. do.

Claims (9)

  1. 이미지로부터 심도(depth) 정보를 추출하기 위한 방법에 있어서, In the method for extracting depth information from an image,
    제 1 조리개를 이용하여 객체에 대한 제 1 이미지를 획득하고, 제 2 조리개를 이용하여 객체에 대한 제 2 이미지를 획득하는 단계; Acquiring a first image of the object using the first aperture and acquiring a second image of the object using the second aperture;
    상기 제 1 이미지 상에서 소정 면적의 제 1 패치를 설정하는 단계; Setting a first patch of a predetermined area on the first image;
    제 1 점 확산 함수(Point Spread Function, PSF) 에 기초하여 상기 설정된 제 1 패치에 대한 제 1 블러 패치를 획득하고, 제 2 점 확산 함수(PSF)에 기초하여 상기 설정된 제 1 패치에 대한 제 2 블러 패치를 획득하는 단계;Obtain a first blur patch for the set first patch based on a first point spread function (PSF), and generate a second blur patch for the set first patch based on a second point spread function (PSF) Obtaining a blur patch;
    상기 각각 획득된 제 1 블러 패치와 제 2 블러 패치의 보간을 통하여 제 3 블러 패치를 획득하는 단계; Obtaining a third blur patch through interpolation of the obtained first blur patch and the second blur patch;
    상기 제 2 이미지 상에서 상기 제 1 패치에 상응하게 제 2 패치를 설정하는 단계; 및Setting a second patch corresponding to the first patch on the second image; And
    상기 제 1 블러 패치, 상기 제 2 블러 패치 또는 상기 제 3 블러 패치 각각과 상기 설정된 제 2 패치에 기초하여 심도 정보를 추정하는 단계를 포함하는 방법. Estimating depth information based on each of the first blur patch, the second blur patch, or the third blur patch, and the set second patch.
  2. 제 1 항에 있어서, The method of claim 1,
    상기 제 1 이미지 상에서 설정된 소정 면적의 제 1 패치는, 상기 제 1 이미지에 포함된 객체의 에지가 포함되도록 소정 면적으로 설정된 이미지 영역인 방법. And a first patch of a predetermined area set on the first image is an image area set to a predetermined area to include an edge of an object included in the first image.
  3. 제 1 항에 있어서, The method of claim 1,
    상기 제 1 점 확산 함수(PSF)와 상기 제 2 점 확산 함수(PSF) 각각은 심도 분해능(depth resolution)이 N일 때, N개의 상이한 표준편차 값을 갖는 점 확산 함수들 중 어느 하나이고, N은 자연수인 방법. Each of the first point spread function PSF and the second point spread function PSF is any one of N point spread functions having N different standard deviation values when the depth resolution is N, and N Is a natural number.
  4. 제 1 항에 있어서, The method of claim 1,
    상기 각각 획득된 제 1 블러 패치와 제 2 블러 패치의 보간을 통하여 제 3 블러 패치를 획득하는 단계는,Acquiring a third blur patch through interpolation of the obtained first blur patch and the second blur patch,
    상기 제 1 점 확산 함수(PSF)와 상기 제 2 점 확산 함수(PSF)의 가중 평균으로써 보간하여 제 3 블러 패치를 획득하는 단계를 포함하는 방법. Interpolating as a weighted average of the first point spread function (PSF) and the second point spread function (PSF) to obtain a third blur patch.
  5. 이미지로부터 심도(depth) 정보를 추출하기 위한 장치에 있어서, An apparatus for extracting depth information from an image, the apparatus comprising:
    제 1 조리개를 이용하여 객체에 대한 제 1 이미지를 획득하고, 제 2 조리개를 이용하여 객체에 대한 제 2 이미지를 획득하는 이미지획득부; An image acquisition unit for acquiring a first image of the object using the first aperture and acquiring a second image of the object using the second aperture;
    상기 제 1 이미지 상에서 소정 면적의 제 1 패치를 설정하고, 상기 제 2 이미지 상에서 상기 제 1 패치에 상응하게 제 2 패치를 설정하는 패치설정부; A patch setting unit configured to set a first patch having a predetermined area on the first image and to set a second patch corresponding to the first patch on the second image;
    제 1 점 확산 함수(PSF) 에 기초하여 상기 설정된 제 1 패치에 대한 제 1 블러 패치를 획득하고, 제 2 점 확산 함수(PSF)에 기초하여 상기 설정된 제 1 패치에 대한 제 2 블러 패치를 획득하는 블러패치획득부;Obtain a first blur patch for the set first patch based on a first point spread function (PSF) and obtain a second blur patch for the set first patch based on a second point spread function (PSF) Blur patch acquisition unit;
    상기 각각 획득된 제 1 블러 패치와 제 2 블러 패치를 보간하는 보간부; 및An interpolator configured to interpolate the obtained first and second blur patches; And
    상기 제 1 블러 패치, 상기 제 2 블러 패치 또는 제 3 블러 패치 각각과 상기 설정된 제 2 패치에 기초하여 심도 정보를 추정하는 심도추정부를 포함하고, A depth estimation unit for estimating depth information based on each of the first blur patch, the second blur patch, or the third blur patch, and the set second patch;
    상기 제 3 블러 패치는 상기 보간부에 의한 보간 수행에 기초하여 상기 블러패치획득부에 의하여 획득되는 장치.The third blur patch is obtained by the blur patch acquisition unit based on the interpolation performed by the interpolation unit.
  6. 제 5 항에 있어서, The method of claim 5, wherein
    상기 제 1 이미지 상에서 설정된 소정 면적의 제 1 패치는, 상기 제 1 이미지에 포함된 객체의 에지가 포함되도록 소정 면적으로 설정된 이미지 영역인 장치.And a first patch of a predetermined area set on the first image is an image area set to a predetermined area to include an edge of an object included in the first image.
  7. 제 5 항에 있어서, The method of claim 5, wherein
    상기 제 1 점 확산 함수(PSF)와 상기 제 2 점 확산 함수(PSF) 각각은 심도 분해능(depth resolution)이 N일 때, N개의 상이한 표준편차 값을 갖는 점 확산 함수들 중 어느 하나이고, N은 자연수인 장치.Each of the first point spread function PSF and the second point spread function PSF is any one of N point spread functions having N different standard deviation values when the depth resolution is N, and N Is a device that is a natural number.
  8. 제 5 항에 있어서, The method of claim 5, wherein
    상기 보간부는 상기 제 1 점 확산 함수(PSF)와 상기 제 2 점 확산 함수(PSF)의 가중 평균으로써 보간을 수행하는 장치.And the interpolation unit performs interpolation as a weighted average of the first point spread function (PSF) and the second point spread function (PSF).
  9. 제 1 항 내지 제 4 항 중 어느 한 항의 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체. A computer-readable recording medium having recorded thereon a program for implementing the method of any one of claims 1 to 4.
PCT/KR2015/000556 2015-01-20 2015-01-20 Method and apparatus for extracting depth information from image WO2016117716A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2015/000556 WO2016117716A1 (en) 2015-01-20 2015-01-20 Method and apparatus for extracting depth information from image
KR1020177019922A KR20170120567A (en) 2015-01-20 2015-01-20 Method and apparatus for extracting depth information from an image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2015/000556 WO2016117716A1 (en) 2015-01-20 2015-01-20 Method and apparatus for extracting depth information from image

Publications (1)

Publication Number Publication Date
WO2016117716A1 true WO2016117716A1 (en) 2016-07-28

Family

ID=56417241

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/000556 WO2016117716A1 (en) 2015-01-20 2015-01-20 Method and apparatus for extracting depth information from image

Country Status (2)

Country Link
KR (1) KR20170120567A (en)
WO (1) WO2016117716A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008211679A (en) * 2007-02-27 2008-09-11 Kyocera Corp Imaging apparatus and method thereof
US20130033578A1 (en) * 2010-02-19 2013-02-07 Andrew Augustine Wajs Processing multi-aperture image data
KR20130038300A (en) * 2010-10-05 2013-04-17 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 Generation of depth data based on spatial light pattern
JP2013520854A (en) * 2010-02-19 2013-06-06 デュアル・アパーチャー・インコーポレーテッド Multi-aperture image data processing
KR101290197B1 (en) * 2012-02-21 2013-07-30 중앙대학교 산학협력단 Apparatus and method for estimating depth information of image

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008211679A (en) * 2007-02-27 2008-09-11 Kyocera Corp Imaging apparatus and method thereof
US20130033578A1 (en) * 2010-02-19 2013-02-07 Andrew Augustine Wajs Processing multi-aperture image data
JP2013520854A (en) * 2010-02-19 2013-06-06 デュアル・アパーチャー・インコーポレーテッド Multi-aperture image data processing
KR20130038300A (en) * 2010-10-05 2013-04-17 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 Generation of depth data based on spatial light pattern
KR101290197B1 (en) * 2012-02-21 2013-07-30 중앙대학교 산학협력단 Apparatus and method for estimating depth information of image

Also Published As

Publication number Publication date
KR20170120567A (en) 2017-10-31

Similar Documents

Publication Publication Date Title
WO2019105262A1 (en) Background blur processing method, apparatus, and device
CN109005366A (en) Camera module night scene image pickup processing method, device, electronic equipment and storage medium
WO2017131343A1 (en) A device for and method of enhancing quality of an image
EP3480784B1 (en) Image processing method, and device
WO2016003253A1 (en) Method and apparatus for image capturing and simultaneous depth extraction
CN108804658B (en) Image processing method and device, storage medium and electronic equipment
CN109685853B (en) Image processing method, image processing device, electronic equipment and computer readable storage medium
KR20110025621A (en) Image processing apparatus, image processing method and computer readable-medium
US10268108B2 (en) Function enhancement device, attaching/detaching structure for function enhancement device, and function enhancement system
CN104598120B (en) Color sample method and touch-control control device
WO2019029573A1 (en) Image blurring method, computer-readable storage medium and computer device
WO2020017825A1 (en) Method of combining content from multiple frames and electronic device therefor
US9854187B2 (en) Image processing apparatus, filter acquisition apparatus, image processing method, filter acquisition method, program, and recording medium
WO2022151813A1 (en) Electronic device, front image signal processor, and image processing method
CN109302566A (en) A kind of method, apparatus and terminal device of determining screening-mode
WO2013047954A1 (en) Image-capturing device and method for stabilizing images by using global motion obtained from features in background
EP3164992A1 (en) Method and apparatus for image capturing and simultaneous depth extraction
WO2015069063A1 (en) Method and system for creating a camera refocus effect
CN109068060B (en) Image processing method and device, terminal device and computer readable storage medium
CN111654686B (en) Method for removing color noise of image, method for removing color noise of video and related device
WO2016117716A1 (en) Method and apparatus for extracting depth information from image
CN107464225B (en) Image processing method, image processing device, computer-readable storage medium and mobile terminal
WO2016021830A1 (en) Method and device for correcting motion information collected by nui device
CN115835034B (en) White balance processing method and electronic equipment
CN110266967A (en) Image processing method, device, storage medium and electronic equipment

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15878971

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20177019922

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15878971

Country of ref document: EP

Kind code of ref document: A1