KR20170120567A - Method and apparatus for extracting depth information from an image - Google Patents

Method and apparatus for extracting depth information from an image Download PDF

Info

Publication number
KR20170120567A
KR20170120567A KR1020177019922A KR20177019922A KR20170120567A KR 20170120567 A KR20170120567 A KR 20170120567A KR 1020177019922 A KR1020177019922 A KR 1020177019922A KR 20177019922 A KR20177019922 A KR 20177019922A KR 20170120567 A KR20170120567 A KR 20170120567A
Authority
KR
South Korea
Prior art keywords
patch
image
blur
point spread
spread function
Prior art date
Application number
KR1020177019922A
Other languages
Korean (ko)
Inventor
이영민
박현상
경종민
Original Assignee
재단법인 다차원 스마트 아이티 융합시스템 연구단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 다차원 스마트 아이티 융합시스템 연구단 filed Critical 재단법인 다차원 스마트 아이티 융합시스템 연구단
Publication of KR20170120567A publication Critical patent/KR20170120567A/en

Links

Images

Classifications

    • H04N13/0207
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • H04N13/0022
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof

Abstract

본 발명의 일 실시예로써, 제 1 조리개를 이용하여 객체에 대한 제 1 이미지를 획득하고, 제 2 조리개를 이용하여 객체에 대한 제 2 이미지를 획득하는 단계, 제 1 이미지 상에서 소정 면적의 제 1 패치를 설정하는 단계, 제 1 점 확산 함수(PSF) 에 기초하여 제 1 패치에 대한 제 1 블러 패치를 획득하고, 제 2 점 확산 함수(PSF)에 기초하여 제 1 패치에 대한 제 2 블러 패치를 획득하는 단계, 각각 획득된 제 1 블러 패치와 제 2 블러 패치의 보간을 통하여 제 3 블러 패치를 획득하는 단계, 제 2 이미지 상에서 제 1 패치에 상응하게 제 2 패치를 설정하는 단계 및 제 1 블러 패치, 제 2 블러 패치 또는 제 3 블러 패치 각각과 제 2 패치에 기초하여 심도 정보를 추청하는 단계를 포함하는 이미지로부터 심도(depth) 정보를 추출하기 위한 방법 및 장치가 개시된다.In one embodiment of the present invention, there is provided a method of acquiring a first image of an object using a first iris, acquiring a second image of the object using a second iris, Obtaining a first blur patch for a first patch based on a first point spread function (PSF), and obtaining a second blur patch for a first patch based on a second point spread function (PSF) Acquiring a third blur patch through interpolation of the obtained first blur patch and second blur patch respectively, setting a second patch on the second image corresponding to the first patch, A method and apparatus are disclosed for extracting depth information from an image comprising the step of chasing depth information based on each of a blur patch, a second blur patch or a third blur patch and a second patch.

Description

이미지로부터 심도 정보를 추출하기 위한 방법 및 장치Method and apparatus for extracting depth information from an image

본 발명은 이미지로부터 심도(depth) 정보를 추출하기 위한 방법 및 장치에 관한 것으로, 더욱 특정하게는 이중 조리개 시스템의 서로 다른 조리개를 이용하여 촬영된 이미지들에 기초하여 심도 정보를 추출하는데 있어서, 상이한 표준편차를 갖는 점 확산 함수들을 선택적으로 이용하여 이미지로부터 심도 정보를 추출하기 위한 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for extracting depth information from an image, and more particularly to extracting depth information based on images photographed using different diaphragms of a double-iris system, To a method and apparatus for extracting depth information from an image selectively using point spread functions having standard deviation.

디지털 카메라의 보급 확대 등에 따라 근래들어 많이 사용되는 객체 이미지 촬상 장치에 포함될 수 있는 씨모스 이미지 센서(CMOS Image Sensor, CIS)는 외부의 광학 영상 신호를 전기 영상 신호로 변환하는 장치로써, CCD(Charge-Coupled Device)에 비하여 저전압에서 동작이 가능하고 소비 전력이 적다는 이점이 있다. 또한, 씨모스 이미지 센서(CIS)는 집적화에 유리한 장점으로 인해 디지털 카메라뿐만 아니라 각종 휴대용 디바이스 기기 등 다양한 분야에서 사용되고 있다.CMOS image sensor (CIS), which can be included in an object image pickup device widely used in recent years due to expansion of digital cameras, is an apparatus for converting an external optical image signal into an electric image signal, -Coupled Device), it is possible to operate at a low voltage and the power consumption is low. In addition, the CMOS image sensor (CIS) is used in various fields such as digital cameras as well as various portable device devices because of advantages advantageous in integration.

일반적인 객체 이미지 촬상 장치에서는 적외선을 차단해 주기 위한 필터의 사용이 요구된다. 사람의 눈은 적외선과 자외선을 반사하거나 흡수하여 빛의 성분 중에 가시광선만을 투과시켜 봄으로써 물체를 인지하는 반면, 디지털 카메라 등의 광학기기는 모든 빛을 투과하여 객체 이미지를 촬상할 수 있다. 객체 이미지 촬상 장치와 같은 광학기기에서 자외선은 렌즈에 적용된 자외선 차단 코팅으로써 선택적으로 차단시킬 수 있다. 그러나, 광학기기에서 적외선(IR)을 선택적으로 차단하기 위해서는 IR 차단 필터(IR cut-off filter)의 사용이 요구된다. 예를 들어, 단일 렌즈 이중 조리개 카메라 시스템에는 가시 광선 등의 광량을 조절하기 위한 조리개 이외에 적외선을 선택적으로 차단하기 위한 IR 차단 필터가 포함될 수 있다. In a general object image pickup apparatus, it is required to use a filter for blocking infrared rays. A human eye recognizes an object by reflecting and absorbing infrared rays and ultraviolet rays and transmitting only visible rays through a light component, while an optical instrument such as a digital camera transmits all the light to capture an object image. In an optical device such as an object imaging device, ultraviolet light can be selectively blocked by an ultraviolet shielding coating applied to the lens. However, the use of an IR cut-off filter is required to selectively block infrared (IR) from optical devices. For example, a single-lens double-iris camera system may include an iris filter for selectively blocking infrared rays in addition to a diaphragm for adjusting the amount of light such as visible light.

객체에 대한 깊이 정보 또는 심도 정보를 획득하기 위해서는 다시점(multiview) 이미지들을 비교 또는 분석하거나 IR 차단 필터를 선택적으로 제어하여 획득된 적외선 채널 영상과 컬러 채널 영상을 비교 또는 분석하는 등의 다양한 기법이 활용될 수 있다.In order to acquire depth information or depth information of an object, various techniques such as comparing or analyzing multiview images or selectively comparing IR channel images with color channel images obtained by selectively controlling IR blocking filters Can be utilized.

본 발명의 일 실시예에 따르면, 이중 조리개 시스템의 서로 다른 조리개를 이용하여 촬영된 이미지들에 기초하여 심도 정보를 추출하는데 있어서, 상이한 표준편차를 갖는 점 확산 함수들을 선택적으로 이용하여 이미지로부터 심도 정보를 추출할 수 있다. According to an embodiment of the present invention, in extracting depth information based on images photographed using different diaphragms of a double diaphragm system, depth diffusion functions having different standard deviations are selectively used to extract depth information Can be extracted.

기존의 객체의 거리 정보 또는 깊이 정보의 추출 알고리즘들은 각각의 점 확산 함수 모두에 대하여 연산을 하도록 되어 있어서 연산량이 과도한 것에 비하여 본 발명의 일 실시예에 따른 방법 및 장치에 의하면 상이한 표준편차를 갖는 점 확산 함수들을 선택적으로 이용하여 이미지로부터 심도 정보를 추출할 수 있다.Extraction algorithms for distance information or depth information of an existing object are designed to perform computations for each of the point spread functions, so that the computation amount is excessive, and according to the method and apparatus according to an embodiment of the present invention, The depth information can be extracted from the image by selectively using the diffusion functions.

단일 렌즈 이중 조리개 카메라 시스템을 이용하면 사물의 거리정보 또는 객체의 심도(depth) 정보를 추출할 수 있다. 기존의 거리 정보 추출 알고리즘들은 상당한 연산량이 요구되는바 비효율적이다. 본 발명의 일 실시예에 따르면, 기존의 거리 정보 추출 알고리즘에 비하여 연산량을 대폭 감소시킬 수 있고, 동시에 정확도는 크게 손실되지 않는다는 효과가 있다.The single-lens double-iris camera system can extract distance information of an object or depth information of an object. Conventional distance information extraction algorithms are inefficient because a considerable amount of computation is required. According to the embodiment of the present invention, there is an effect that the amount of computation can be greatly reduced as compared with the existing distance information extraction algorithm, and at the same time, the accuracy is not greatly lost.

도 1은 단일 렌즈 이중 조리개 카메라 시스템의 개략도이다.
도 2는 종래의 거리 정보 추출 알고리즘의 개념도이다.
도 3은 본 발명의 일 실시예에 따라 이미지로부터 심도 정보를 추출하기 위한 방법을 나타낸 순서도이다.
도 4는 본 발명의 일 실시예에 따라 이미지로부터 심도 정보를 추출하기 위한 알고리즘의 개념도이다.
도 5는 본 발명의 일 실시예에 따른 보간 방법을 설명하기 위한 그래프이다.
도 6은 본 발명의 일 실시예에 따른 보간 방법의 개략도이다.
도 7은 본 발명의 일 실시예에 따라 이미지로부터 심도 정보를 추출하기 위한 장치의 블록도이다.
Figure 1 is a schematic diagram of a single lens double-iris camera system.
2 is a conceptual diagram of a conventional distance information extraction algorithm.
3 is a flowchart illustrating a method for extracting depth information from an image in accordance with an embodiment of the present invention.
4 is a conceptual diagram of an algorithm for extracting depth information from an image in accordance with an embodiment of the present invention.
5 is a graph for explaining an interpolation method according to an embodiment of the present invention.
6 is a schematic diagram of an interpolation method according to an embodiment of the present invention.
7 is a block diagram of an apparatus for extracting depth information from an image in accordance with an embodiment of the present invention.

발명의 실시를 위한 최선의 형태Best Mode for Carrying Out the Invention

본 발명의 일 실시예에 따른 이미지로부터 심도(depth) 정보를 추출하기 위한 방법은, 제 1 조리개를 이용하여 객체에 대한 제 1 이미지를 획득하고, 제 2 조리개를 이용하여 객체에 대한 제 2 이미지를 획득하는 단계, 제 1 이미지 상에서 소정 면적의 제 1 패치를 설정하는 단계, 제 1 점 확산 함수(PSF) 에 기초하여 설정된 제 1 패치에 대한 제 1 블러 패치를 획득하고, 제 2 점 확산 함수(PSF)에 기초하여 설정된 제 1 패치에 대한 제 2 블러 패치를 획득하는 단계, 각각 획득된 제 1 블러 패치와 제 2 블러 패치의 보간을 통하여 제 3 블러 패치를 획득하는 단계, 제 2 이미지 상에서 제 1 패치에 상응하게 제 2 패치를 설정하는 단계 및 제 1 블러 패치, 제 2 블러 패치 또는 제 3 블러 패치 각각과 제 2 패치에 기초하여 심도 정보를 추정하는 단계를 포함할 수 있다. A method for extracting depth information from an image in accordance with an embodiment of the present invention includes obtaining a first image for an object using a first iris and for obtaining a second image for an object using a second iris, Obtaining a first blur patch for a first patch set based on a first point spread function (PSF), acquiring a first blur patch for a first patch based on a first point spread function (PSF) Acquiring a second blur patch for a first patch set based on a second blur patch (PSF), acquiring a third blur patch through interpolation of the obtained first blur patch and second blur patch respectively, Setting the second patch corresponding to the first patch, and estimating the depth information based on each of the first blur patch, the second blur patch or the third blur patch, and the second patch.

본 발명의 일 실시예에 따른 제 1 이미지 상에서 설정된 소정 면적의 제 1 패치는, 제 1 이미지에 포함된 객체의 에지가 포함되도록 소정 면적으로 설정된 이미지 영역일 수 있다. The first patch of the predetermined area set on the first image according to an embodiment of the present invention may be an image area set to a predetermined area so that the edge of the object included in the first image is included.

본 발명의 일 실시예에 따른 제 1 점 확산 함수(PSF)와 제 2 점 확산 함수(PSF) 각각은 심도 분해능(depth resolution)이 N일 때 (N은 자연수), N개의 상이한 표준편차 값을 갖는 점 확산 함수들 중 어느 하나일 수 있다. Each of the first point spread function PSF and the second point spread function PSF according to an exemplary embodiment of the present invention has N different standard deviation values when the depth resolution is N (N is a natural number) / RTI > may be any of the point spread functions having < RTI ID = 0.0 >

본 발명의 일 실시예에 따른 각각 획득된 제 1 블러 패치와 제 2 블러 패치의 보간을 통하여 제 3 블러 패치를 획득하는 단계는, 제 1 점 확산 함수(PSF)와 제 2 점 확산 함수(PSF)의 가중 평균으로써 보간하여 제 3 블러 패치를 획득하는 단계를 포함할 수 있다.The step of acquiring the third blur patch through interpolation of the obtained first blur patch and second blur patch, respectively, according to an embodiment of the present invention includes acquiring a first blur patch (PSF) and a second point spread function ) To obtain a third blur patch.

본 발명의 일 실시예에 따른 이미지로부터 심도(depth) 정보를 추출하기 위한 장치는, 제 1 조리개를 이용하여 객체에 대한 제 1 이미지를 획득하고, 제 2 조리개를 이용하여 객체에 대한 제 2 이미지를 획득하는 이미지획득부, 제 1 이미지 상에서 소정 면적의 제 1 패치를 설정하고, 제 2 이미지 상에서 제 1 패치에 상응하게 제 2 패치를 설정하는 패치설정부, 제 1 점 확산 함수(PSF) 에 기초하여 제 1 패치에 대한 제 1 블러 패치를 획득하고, 제 2 점 확산 함수(PSF)에 기초하여 제 1 패치에 대한 제 2 블러 패치를 획득하는 블러패치획득부, 각각 획득된 제 1 블러 패치와 제 2 블러 패치를 보간하는 보간부, 제 1 블러 패치, 제 2 블러 패치 또는 제 3 블러 패치 각각과 설정된 제 2 패치에 기초하여 심도 정보를 추정하는 심도추정부를 포함하고, 제 3 블러 패치는 보간부에 의한 보간 수행에 기초하여 블러패치획득부에 의하여 획득될 수 있다. An apparatus for extracting depth information from an image in accordance with an embodiment of the present invention includes a first image acquisition unit for acquiring a first image for an object using a first iris and a second image for an object using a second iris, A patch setting unit for setting a first patch of a predetermined area on the first image and setting a second patch on the second image in correspondence with the first patch, a first point spread function (PSF) A blur patch acquiring unit acquiring a first blur patch for the first patch based on the second point spread function (PSF) and acquiring a second blur patch for the first patch based on the second point spread function (PSF) And a depth estimation unit for estimating depth information based on the interpolation unit interpolating the second blur patch, the first blur patch, the second blur patch or the third blur patch and the set second patch, and the third blur patch Interpolation And it may be obtained by the blur patch obtaining unit based on the interpolation performed by the.

본 발명의 일 실시예에 따른 제 1 이미지 상에서 설정된 소정 면적의 제 1 패치는, 제 1 이미지에 포함된 객체의 에지가 포함되도록 소정 면적으로 설정된 이미지 영역일 수 있다. The first patch of the predetermined area set on the first image according to an embodiment of the present invention may be an image area set to a predetermined area so that the edge of the object included in the first image is included.

본 발명의 일 실시예에 따른 제 1 점 확산 함수(PSF)와 제 2 점 확산 함수(PSF) 각각은 심도 분해능(depth resolution)이 N일 때, N개의 상이한 표준편차 값을 갖는 점 확산 함수들 중 어느 하나이고, N은 자연수일 수 있다.  Each of the first point spread function PSF and the second point spread function PSF according to an exemplary embodiment of the present invention includes N point spread functions having N different standard deviation values when the depth resolution is N, , And N may be a natural number.

본 발명의 일 실시예에 따른 보간부는 제 1 점 확산 함수(PSF)와 제 2 점 확산 함수(PSF)의 가중 평균으로써 보간을 수행할 수 있다. The interpolator according to an exemplary embodiment of the present invention may perform interpolation using a weighted average of a first point spread function (PSF) and a second point spread function (PSF).

한편, 본 발명의 일 실시예에 의하면, 전술한 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공할 수 있다. According to another aspect of the present invention, there is provided a computer-readable recording medium storing a program for causing a computer to execute the above-described method.

발명의 실시를 위한 형태DETAILED DESCRIPTION OF THE INVENTION

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다. The terms used in this specification will be briefly described and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments. Also, in certain cases, there may be a term selected arbitrarily by the applicant, in which case the meaning thereof will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term, not on the name of a simple term, but on the entire contents of the present invention.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When an element is referred to as "including" an element throughout the specification, it is to be understood that the element may include other elements, without departing from the spirit or scope of the present invention. Also, the terms "part," " module, "and the like described in the specification mean units for processing at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software .

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 단일 렌즈 이중 조리개 카메라 시스템의 개략도이다. Figure 1 is a schematic diagram of a single lens double-iris camera system.

도 1에서와 같은 단일 렌즈 이중 조리개 카메라 시스템(100)을 이용하여 사용자는 컬러 채널 이미지와 적외선 채널 이미지를 획득할 수 있다. 경통(140)에는 투과될 가시광선의 양을 조절하기 위한 조리개(110)와 적외선을 선택적으로 차단하기 위한 적어선 차단 필터(120) 및 적어도 하나의 렌즈(130)가 삽입될 수 있다. 조리개와 렌즈를 통과한 빛은 씨모스 이미지 센서(CMOS Image Sensor, CIS)(150)에서 센싱될 수 있다. 이러한 씨모스 이미지 센서(150)는 예컨대, PCB와 같은 기판을 통하여 다른 전자 모듈들과 연결될 수 있다. The user can obtain a color channel image and an infrared channel image using the single lens double iris camera system 100 as shown in FIG. The lens barrel 140 may include a diaphragm 110 for adjusting the amount of visible light to be transmitted, a light blocking filter 120 for selectively blocking infrared rays, and at least one lens 130. The aperture and the light passing through the lens can be sensed in a CMOS image sensor (CIS) 150. Such a CMOS image sensor 150 may be connected to other electronic modules, for example, via a substrate such as a PCB.

씨모스 이미지 센서에서 검출된 빛의 성분 및 양에 따라 컬러 채널 이미지와 적외선 채널 이미지가 획득될 수 있다. 컬러 채널 이미지는 객체에 대한 컬러 이미지로 지칭될 수 있고, 적외선 채널 이미지는 적외선 이미지로 지칭될 수 있다. 작은 구경의 조리개로 획득한 이미지는 큰 구경의 조리개로 획득한 이미지보다 초점 거리로부터의 객체 거리에 따른 블러의 정도가 더 적을 수 있다. A color channel image and an infrared channel image can be obtained according to the amount and amount of light detected by the CMOS image sensor. The color channel image may be referred to as a color image for an object, and the infrared channel image may be referred to as an infrared image. An image acquired with a small aperture aperture may have less blur than an image acquired with a large aperture aperture, depending on the object distance from the focal distance.

컬러 채널 이미지와 적외선 채널 이미지를 획득하고, 획득된 이미지들로부터 객체의 에지를 추출하며, 추출된 에지에 대하여 심도 추정을 수행함으로써 객체의 거리 정보가 획득될 수 있다. 컬러 채널 이미지와 적외선 채널 이미지의 비교, 분석을 통하여 이미지 내에서의 객체의 심도 정보를 획득할 수 있다. 다시 말해서, 컬러 채널 이미지와 적외선 채널 이미지의 에지에 기초하여 객체의 거리 정보가 획득될 수 있다. 종래에도 객체의 거리 정보를 획득하기 위한 거리 정보 추출 알고리즘이 존재하였지만, 상당한 연산량이 소모된다는 점에서 문제가 있다. The distance information of the object can be obtained by acquiring the color channel image and the infrared channel image, extracting the edge of the object from the obtained images, and performing the depth estimation on the extracted edge. The depth information of the object in the image can be obtained by comparing and analyzing the color channel image and the infrared channel image. In other words, the distance information of the object can be obtained based on the edge of the color channel image and the infrared channel image. Conventionally, there is a distance information extraction algorithm for obtaining distance information of an object, but there is a problem in that a considerable calculation amount is consumed.

도 2는 종래의 거리 정보 추출 알고리즘의 개념도이다. 2 is a conceptual diagram of a conventional distance information extraction algorithm.

적외선 이미지(10) 내의 소정 영역(예컨대, 박스 영역)에 대하여 상이한 표준 편차를 갖는 점 확산 함수(Point Spread Function)들과의 연산을 통하여 블러링된 이미지가 획득될 수 있다. 소정 영역은 패치 등으로 지칭될 수 있다. 이러한 연산은 컨벌루션 연산을 포함할 수 있다. 예를 들어, 심도 분해능(depth resolution) 10에 대하여, 10개의 상이한 표준편차 값(예컨대, σ0 내지 σ9)을 갖는 점 확산 함수들 각각이 적외선 이미지(10) 내의 소정 영역과 컨벌루션 연산이 수행될 수 있다. 10개의 상이한 표준편차 값(예컨대, σ0 내지 σ9)을 갖는 점 확산 함수들과의 연산을 통하여 획득된 블러링된 패치들 각각에 대하여 컬러 이미지(20) 내의 소정 영역과의 비교를 통하여 이미지들 간의 유사도와 거리값(예컨대, PSF index)이 획득될 수 있다. 획득된 유사도와 거리값을 이용하여 객체의 거리 정보가 추정될 수 있다. 이러한 종래의 거리 정보 추출 알고리즘은 전술한 바와 같이 상이한 표준편차 값을 갖는 점 확산 함수들 모두에 대하여 연산을 수행해야 한다는 점에서 연산량이 증가되고, 복잡도가 높아지게 되어 거리 정보 추출 효율이 떨어질 수 있다. A blurred image can be obtained through an operation with a point spread function having a different standard deviation with respect to a predetermined area (for example, a box area) in the infrared image 10. The predetermined area may be referred to as a patch or the like. Such an operation may include a convolution operation. For example, for a depth resolution of 10, each of the point spread functions having ten different standard deviation values (e.g.,? 0 to? 9) can be convoluted with a predetermined area in the infrared image 10 have. For each of the blurred patches obtained through operation with the point spread functions having ten different standard deviation values (e.g., 0 to 9) The similarity and distance values (e.g., PSF index) may be obtained. The distance information of the object can be estimated using the obtained similarity and distance values. As described above, the conventional distance information extraction algorithm has to be operated on all of the point spread functions having different standard deviation values, so that the calculation amount is increased and the complexity is increased, so that the distance information extraction efficiency may be lowered.

도 3은 본 발명의 일 실시예에 따라 이미지로부터 심도 정보를 추출하기 위한 방법을 나타낸 순서도이다. 3 is a flowchart illustrating a method for extracting depth information from an image in accordance with an embodiment of the present invention.

본 발명의 일 실시예에 따른 이미지로부터 심도(depth) 정보를 추출하기 위한 방법은, 제 1 조리개를 이용하여 객체에 대한 제 1 이미지를 획득하고, 제 2 조리개를 이용하여 객체에 대한 제 2 이미지를 획득하는 단계(S100), 제 1 이미지 상에서 소정 면적의 제 1 패치를 설정하는 단계(S200), 제 1 점 확산 함수(Point Spread Function, PSF) 에 기초하여 제 1 패치에 대한 제 1 블러 패치를 획득하고, 제 2 점 확산 함수(PSF)에 기초하여 제 1 패치에 대한 제 2 블러 패치를 획득하는 단계(S300), 각각 획득된 제 1 블러 패치와 제 2 블러 패치의 보간을 통하여 제 3 블러 패치를 획득하는 단계(S400), 제 2 이미지 상에서 제 1 패치에 상응하게 제 2 패치를 설정하는 단계(S500) 및 제 1 블러 패치, 제 2 블러 패치 또는 제 3 블러 패치 각각과 제 2 패치에 기초하여 심도 정보를 추정하는 단계(S600)를 포함할 수 있다. 제 1 이미지 상에서 설정된 소정 면적의 제 1 패치는, 제 1 이미지에 포함된 객체의 에지가 포함되도록 소정 면적으로 설정된 이미지 영역일 수 있다. 본 발명의 일 실시예에 따른 이미지로부터 심도 정보를 추출하기 위한 방법에 대하여는 이하 도 4를 참고하여 상술한다. A method for extracting depth information from an image in accordance with an embodiment of the present invention includes obtaining a first image for an object using a first iris and for obtaining a second image for an object using a second iris, (S200) of setting a first patch of a predetermined area on the first image (S200); acquiring a first blur patch for the first patch based on a first point spread function (PSF) (S300) of acquiring a second blur patch for the first patch based on the second point spread function (PSF), and acquiring a second blur patch for the third patch through the interpolation of the obtained first blur patch and the second blur patch (S500) of setting a second patch corresponding to the first patch on the second image (S500); acquiring a blur patch, a second blur patch or a third blur patch, and a second patch And estimating the depth information based on the depth information S600). The first patch of the predetermined area set on the first image may be an image area set to a predetermined area so that the edge of the object included in the first image is included. A method for extracting depth information from an image according to an embodiment of the present invention will be described below with reference to FIG.

도 4는 본 발명의 일 실시예에 따라 이미지로부터 심도 정보를 추출하기 위한 알고리즘의 개념도이다. 4 is a conceptual diagram of an algorithm for extracting depth information from an image in accordance with an embodiment of the present invention.

본 발명의 일 실시예에 따라 제 1 조리개를 이용하여 객체에 대한 제 1 이미지가 획득될 수 있다. 제 1 조리개는 적외선을 선택적으로 차단하기 위한 적외선(IR) 차단 필터 등일 수 있다. 제 1 이미지는 적외선 이미지일 수 있지만, 반드시 이에 제한되는 것은 아니다. 또한, 제 2 조리개를 이용하여 객체에 대한 제 2 이미지를 획득할 수 있다. 제 2 조리개는 카메라 시스템 등에서 일반적으로 사용되는 조리개일 수 있다. 또한, 설명의 편의상 제 1 이미지의 예로써 적외선 이미지를 언급하였고, 제 2 이미지의 예로써 컬러 채널 이미지로 언급하였을 뿐, 반드시 이에 제한되는 것은 아니다. 다시 말해서, 본 발명의 일 실시예에 따른 방법은 서로 다른 조리개를 이용하여 이미지의 촬영이 가능한 이중 조리개(DA, Dual Aperture) 시스템에 전반적으로 활용될 수 있다. A first image for the object may be obtained using the first diaphragm in accordance with an embodiment of the present invention. The first diaphragm may be an infrared (IR) cutoff filter for selectively blocking infrared rays. The first image may be an infrared image, but is not necessarily limited thereto. Also, a second image for the object can be obtained using the second aperture. The second diaphragm may be a diaphragm normally used in a camera system or the like. Also, for convenience of explanation, an infrared image is referred to as an example of a first image, and the color channel image is described as an example of a second image, but the present invention is not limited thereto. In other words, the method according to one embodiment of the present invention can be generally used in a dual aperture (DA) system capable of taking an image using different diaphragms.

제 1 이미지(10) 상에서 소정 면적의 제 1 패치(11)가 설정될 수 있다. 제 1 이미지(10) 상에서 설정된 소정 면적의 제 1 패치(11)는, 제 1 이미지(10) 내의 적어도 하나의 에지가 포함되도록 소정 면적으로 설정된 이미지 영역일 수 있다. A first patch 11 of a predetermined area may be set on the first image 10. [ The first patch 11 of a predetermined area set on the first image 10 may be an image area set to a predetermined area so that at least one edge in the first image 10 is included.

제 1 점 확산 함수(Point Spread Function, PSF)에 기초하여 제 1 패치(11)에 대한 제 1 블러 패치(1)가 획득될 수 있다. 제 1 표준편차 값(예컨대, σ0)을 갖는 제 1 점 확산 함수(PSF)와 제 1 패치(11)의 조합을 통하여 제 1 블러 패치(1)가 획득될 수 있다. 제 1 점 확산 함수(PSF)와 제 1 패치(11)의 조합에는 컨벌루션 연산(C1) 등이 포함될 수 있다. 또한, 제 2 점 확산 함수(PSF)에 기초하여 제 1 패치(11)에 대한 제 2 블러 패치(2)가 획득될 수 있다. 제 2 표준편차 값(예컨대, σ2)을 갖는 제 2 점 확산 함수(PSF)와 제 1 패치(11)의 조합을 통하여 제 2 블러 패치(2)가 획득될 수 있다. 제 2 점 확산 함수(PSF)와 제 1 패치(11)의 조합에는 컨벌루션 연산(C2) 등이 포함될 수 있다. 점 확산 함수(PSF)와의 조합을 통하여 획득된 블러 패치는 베이시스(basis)로 지칭될 수도 있다.The first blur patch 1 for the first patch 11 can be obtained based on the first point spread function (PSF). The first blur patch 1 can be obtained through a combination of the first point spread function PSF having the first standard deviation value (e.g.,? 0) and the first patch 11. The combination of the first point spread function (PSF) and the first patch 11 may include a convolution operation (C1) or the like. Further, the second blur patch 2 for the first patch 11 can be obtained based on the second point spread function (PSF). The second blur patch 2 can be obtained through the combination of the first point patch 11 and the second point spread function PSF having the second standard deviation value (e.g.,? 2). The combination of the second point spread function (PSF) and the first patch 11 may include a convolution operation (C2) or the like. A blur patch obtained through combination with a point spread function (PSF) may be referred to as a basis.

본 발명의 일 실시예에 따르면, 각각 획득된 제 1 블러 패치(1)와 제 2 블러 패치(2)의 보간을 통하여 제 3 블러 패치(3)가 획득될 수 있다. 다시 말해서, 컨벌루션 연산(C1 및 C2) 결과들의 보간 과정(I1)을 통하여 제 3 블러 패치(3)가 획득될 수 있다. 앞서 예로 언급한 바와 같이, 10개의 상이한 표준편차 값(예컨대, σ0 내지 σ9)을 갖는 모든 점 확산 함수들 각각에 대하여 컨벌루션을 수행하는 종래의 거리 추정 방법에 비하여, 본 발명의 일 실시예에 따른 심도 정보 추출 방법은 점 확산 함수들 중 일부(예컨대, σ0, σ2, σ5 및 σ9)에 대하여 제 1 패치(11)와의 컨벌루션 연산을 수행한다는 점에서 연산량이 대폭 축소될 수 있고, 연산의 복잡도도 감소될 수 있다. 도 4에서와 같이, 예를 들어, 제 1 점 확산 함수(PSF)와 제 2 점 확산 함수(PSF) 각각은 심도 분해능(depth resolution)이 N일 때, N개의 상이한 표준편차 값을 갖는 점 확산 함수들 중 어느 하나일 수 있다. 이때, N은 자연수일 수 있다.According to an embodiment of the present invention, the third blur patch 3 can be obtained through interpolation of the obtained first blur patch 1 and second blur patch 2, respectively. In other words, the third blur patch 3 can be obtained through the interpolation process I1 of the convolution operation (C1 and C2) results. As mentioned earlier, as compared to the conventional distance estimation method of performing convolution for each of all the point spread functions having ten different standard deviation values (e.g., 0 to 9), according to an embodiment of the present invention Since the depth information extraction method performs a convolution operation with respect to a part of the point spread functions (e.g.,? 0,? 2,? 5 and? 9) with the first patch 11, the amount of computation can be greatly reduced, Can be reduced. As shown in FIG. 4, for example, each of the first point spread function PSF and the second point spread function PSF has a point spread having N different standard deviation values when the depth resolution is N, Functions. ≪ / RTI > At this time, N may be a natural number.

본 발명의 일 실시예에 따르면 제 2 이미지(20) 상에서 제 1 패치(11)에 상응하게 제 2 패치(21)가 설정될 수 있다. 제 2 패치(21)의 제 2 이미지(20) 내에서 위치 및 면적은 제 1 패치(11)의 위치 및 면적 중 적어도 하나와 동일한 패치일 수 있다. According to an embodiment of the present invention, the second patch 21 may be set on the second image 20 in correspondence with the first patch 11. The position and area in the second image 20 of the second patch 21 may be the same patch as at least one of the position and the area of the first patch 11. [

제 1 블러 패치, 제 2 블러 패치 또는 제 3 블러 패치 각각과 제 2 패치에 기초하여 심도 정보가 추정될 수 있다. 도 4에 도시된 바와 같이, 각각의 블러 패치와 제 2 패치와의 유사도 분석을 통하여 심도 정보가 추정될 수 있다. 예를 들면, 블러 패치들(예컨대, 제 1 블러 패치, 제 2 블러 패치 또는 제 3 블러 패치 등) 각각에 대하여 제 2 이미지(20) 내의 제 2 패치(21)과의 비교를 통하여 패치들 간의 유사도와 거리값(예컨대, PSF index)이 획득될 수 있다. 획득된 유사도와 거리값(예컨대, PSF index)은 심도 정보에 포함될 수 있다. Depth information can be estimated based on each of the first blur patch, the second blur patch or the third blur patch and the second patch. As shown in FIG. 4, the depth information can be estimated through the similarity analysis between each blur patch and the second patch. For example, for each of the blur patches (e.g., the first blur patch, the second blur patch, or the third blur patch), a comparison is made between the patches through the comparison with the second patch 21 in the second image 20 The similarity and distance values (e.g., PSF index) may be obtained. The acquired similarity and distance values (e.g., PSF index) may be included in the depth information.

본 발명의 일 실시예에 따른 각각 획득된 제 1 블러 패치와 제 2 블러 패치의 보간 과정(I1)에는 제 1 점 확산 함수와 제 2 점 확산 함수의 가중 평균으로써의 보간이 포함될 수 있다. Interpolation (I1) of the obtained first blur patch and second blur patch according to an embodiment of the present invention may include interpolation as a weighted average of a first point spread function and a second point spread function.

도 5는 본 발명의 일 실시예에 따른 보간 방법을 설명하기 위한 그래프이다. 5 is a graph for explaining an interpolation method according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 점 확산 함수(PSF)는 다음의 수학식 1로 정의될 수 있다. The PSF according to an embodiment of the present invention can be defined by the following equation (1).

Figure pct00001
Figure pct00001

x,y는 PSF의 평면상 위치 좌표를 나타내고, σk는 표준편차(standard deviation)를 나타낸다. 제 1 점 확산 함수(f1)와 제 2 점 확산 함수(f2)의 가중 평균을 통하여 보간이 수행될 수 있다. 다시 말해서, 보간 함수(f3)는 제 1 점 확산 함수(f1)와 제 2 점 확산 함수(f2)의 가중 평균으로써, 다음의 수학식 2로 정의될 수 있다. x and y represent the positional coordinates on the plane of the PSF, and σk represents the standard deviation. Interpolation can be performed through the weighted average of the first point spread function f1 and the second point spread function f2. In other words, the interpolation function f3 is a weighted average of the first point spread function f1 and the second point spread function f2, and can be defined by the following equation (2).

Figure pct00002
Figure pct00002

α,β는 가중 평균(coefficient of weighted average)의 계수를 나타낸다. 예를 들어, 도 5b에서와 같이, 제 1 점 확산 함수(f1)가 제 1 표준편차 값(예컨대, σa)을 갖고, 제 2 점 확산 함수(f2)가 제 2 표준편차 값(예컨대, σb)을 갖는다면, 제 1 점 확산 함수(f1)와 제 2 점 확산 함수(f2)의 가중 평균으로써 획득될 수 있는 보간 함수(f3)는 가중 계수에 따라 제 1 표준편차 값(σa)과 제 2 표준편차 값(σb) 사이의 표준편차 값(σc)을 갖는 점 확산 함수(f4)와 근사화되도록 설정될 수 있다. 다시 말해서, 본 발명의 일 실시예에 따른 가중 계수의 조정에 따른 보간으로써 종래의 컨벌루션 연산 결과와 근사화된 결과를 획득할 수 있다. 그러므로, 본 발명의 일 실시예에 따르면 종래 대비 연산량을 대폭 축소시킬 수 있다. α and β denote the coefficients of the weighted average. For example, as shown in FIG. 5B, when the first point spread function f1 has a first standard deviation value (e.g.,? A) and the second point spread function f2 has a second standard deviation value (e.g.,? B The interpolation function f3 that can be obtained by the weighted average of the first point spread function f1 and the second point spread function f2 can be obtained by multiplying the first standard deviation value a by the weight coefficient, And a point spread function f4 having a standard deviation value? C between two standard deviation values? B. In other words, it is possible to obtain a result approximated to the conventional convolution operation result by interpolation according to the adjustment of the weighting coefficient according to an embodiment of the present invention. Therefore, according to the embodiment of the present invention, the amount of computation can be greatly reduced compared to the conventional art.

도 6은 본 발명의 일 실시예에 따른 보간 방법의 개략도이다. 6 is a schematic diagram of an interpolation method according to an embodiment of the present invention.

적외선 이미지 상의 제 1 패치(11)에 대하여 제 n 표준편차 값(σn)을 갖는 점 확산 함수를 이용하여 제 n 블러 패치를 획득하고, 제 n+1 표준편차 값(σn+1)을 갖는 점 확산 함수를 이용하여 제 n+1 블러 패치를 획득할 수 있다. 제 n 블러 패치와 제 n+1 블러 패치 사이의 적어도 하나의 블러 패치(Pk)는 제 n 표준편차 값(σn)을 갖는 점 확산 함수와 제 1 패치(11)의 컨볼루션 연산 결과와 제 n+1 표준편차 값(σn+1)을 갖는 점 확산 함수와 제 1 패치(11)의 컨볼루션 연산 결과에 대한 가중 평균으로써 획득될 수 있다. 다시 말해서, 제 n 표준편차 값(σn)과 제 n+1 표준편차 값(σn+1) 사이의 표준편차 값(σk)을 갖는 점 확산 함수(f4)와의 연산을 통하여 획득 가능한 블러 패치(Bk)는 전술한 블러 패치(Pk)와 근사하게 획득될 수 있다. 도 6과 관련된 전술한 보간 과정은 다음의 수학식 3 내지 수학식 6으로 표현될 수 있다. An n-th blur patch is acquired using a point spread function having an n-th standard deviation value (? N) with respect to the first patch (11) on an infrared image, and a point having an n + 1 standard deviation value It is possible to acquire the (n + 1) -th blur patch using the diffusion function. At least one blur patch Pk between the n-th blur patch and the (n + 1) -th blur patch includes a point spread function having an n-th standard deviation value? N, a convolution operation result of the first patch 11, Can be obtained as a weighted average of a point spread function having a +1 standard deviation value (? N + 1) and a convolution operation result of the first patch (11). In other words, a blur patch Bk (n) obtained through an operation with a point spread function f4 having a standard deviation value sigk between the nth standard deviation value sigma n and the n + 1 standard deviation value sigma n + Can be obtained in approximation to the blur patch Pk described above. The above-described interpolation process related to FIG. 6 can be expressed by the following equations (3) to (6).

Figure pct00003
Figure pct00003

Figure pct00004
Figure pct00004

Figure pct00005
Figure pct00005

Figure pct00006
Figure pct00006

도 7은 본 발명의 일 실시예에 따라 이미지로부터 심도 정보를 추출하기 위한 장치의 블록도이다. 7 is a block diagram of an apparatus for extracting depth information from an image in accordance with an embodiment of the present invention.

본 발명의 일 실시예에 따른 이미지로부터 심도 정보를 추출하기 위한 장치(700)는, 제 1 조리개를 이용하여 객체에 대한 제 1 이미지를 획득하고, 제 2 조리개를 이용하여 객체에 대한 제 2 이미지를 획득하는 이미지획득부(710), 제 1 이미지 상에서 소정 면적의 제 1 패치를 설정하고, 제 2 이미지 상에서 제 1 패치에 상응하게 제 2 패치를 설정하는 패치설정부(720), 제 1 점 확산 함수(PSF) 에 기초하여 설정된 제 1 패치에 대한 제 1 블러 패치를 획득하고, 제 2 점 확산 함수(PSF)에 기초하여 설정된 제 1 패치에 대한 제 2 블러 패치를 획득하는 블러패치획득부(730), 각각 획득된 제 1 블러 패치와 제 2 블러 패치를 보간하는 보간부(740), 제 1 블러 패치, 제 2 블러 패치 또는 제 3 블러 패치 각각과 설정된 제 2 패치에 기초하여 심도 정보를 추정하는 심도추정부(750)를 포함할 수 있다. 제 3 블러 패치는 보간부(740)에 의한 보간 수행에 기초하여 블러패치획득부(730)에 의하여 획득될 수 있다. An apparatus 700 for extracting depth information from an image in accordance with an embodiment of the present invention includes means for obtaining a first image for an object using a first iris and a second image for an object using a second iris, A patch setting unit 720 that sets a first patch of a predetermined area on the first image and sets a second patch on the second image in accordance with the first patch, Acquiring a first blur patch for a first patch set based on a diffusion function (PSF) and acquiring a second blur patch for a first patch set based on a second point spread function (PSF) An interpolation section 740 for interpolating the obtained first blur patch and the second blur patch, respectively, and depth information 730 based on the first blur patch, the second blur patch or the third blur patch, A depth estimator 750 for estimating a depth It can hamhal. The third blur patch may be acquired by the blur patch acquisition section 730 based on the interpolation performed by the interpolation section 740. [

본 발명의 일 실시예에 따른 제 1 이미지 상에서 설정된 소정 면적의 제 1 패치는, 제 1 이미지에 포함된 객체의 에지가 포함되도록 소정 면적으로 설정된 이미지 영역일 수 있다. The first patch of the predetermined area set on the first image according to an embodiment of the present invention may be an image area set to a predetermined area so that the edge of the object included in the first image is included.

본 발명의 일 실시예에 따른 제 1 점 확산 함수(PSF)와 제 2 점 확산 함수(PSF) 각각은 심도 분해능(depth resolution)이 N(N은 자연수)일 때, N개의 상이한 표준편차 값을 갖는 점 확산 함수들 중 어느 하나일 수 있다. 다시 말해서, N개의 상이한 표준편차 값을 갖는 점 확산 함수들 중 일부만이 제 1 패치와 조합이 수행될 수 있다. 이러한 조합은 컨벌루션 연산을 포함할 수 있다.Each of the first point spread function PSF and the second point spread function PSF according to an embodiment of the present invention has N different standard deviation values when the depth resolution is N (N is a natural number) / RTI > may be any of the point spread functions having < RTI ID = 0.0 > In other words, only some of the point spread functions having N different standard deviation values can be combined with the first patch. Such a combination may include a convolution operation.

보간부(740)는 제 1 블러 패치와 제 2 블러 패치의 가중 평균으로써 보간을 수행할 수 있다.Interpolator 740 may perform interpolation as a weighted average of the first blur patch and the second blur patch.

본 발명의 일 실시예에 따른 장치와 관련하여서는 전술한 방법에 대한 내용이 적용될 수 있다. 따라서, 장치와 관련하여, 전술한 방법에 대한 내용과 동일한 내용에 대하여는 설명을 생략하였다.The contents of the above-described method can be applied in connection with the apparatus according to an embodiment of the present invention. Therefore, the description of the same contents as those of the above-described method with respect to the apparatus is omitted.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

Claims (9)

이미지로부터 심도(depth) 정보를 추출하기 위한 방법에 있어서,
제 1 조리개를 이용하여 객체에 대한 제 1 이미지를 획득하고, 제 2 조리개를 이용하여 객체에 대한 제 2 이미지를 획득하는 단계;
상기 제 1 이미지 상에서 소정 면적의 제 1 패치를 설정하는 단계;
제 1 점 확산 함수(Point Spread Function, PSF) 에 기초하여 상기 설정된 제 1 패치에 대한 제 1 블러 패치를 획득하고, 제 2 점 확산 함수(PSF)에 기초하여 상기 설정된 제 1 패치에 대한 제 2 블러 패치를 획득하는 단계;
상기 각각 획득된 제 1 블러 패치와 제 2 블러 패치의 보간을 통하여 제 3 블러 패치를 획득하는 단계;
상기 제 2 이미지 상에서 상기 제 1 패치에 상응하게 제 2 패치를 설정하는 단계; 및
상기 제 1 블러 패치, 상기 제 2 블러 패치 또는 상기 제 3 블러 패치 각각과 상기 설정된 제 2 패치에 기초하여 심도 정보를 추정하는 단계를 포함하는 방법.
A method for extracting depth information from an image,
Obtaining a first image for the object using the first aperture and acquiring a second image for the object using the second aperture;
Setting a first patch of a predetermined area on the first image;
Acquiring a first blur patch for the set first patch based on a first point spread function (PSF), and obtaining a second blur patch for the second patch based on the second point spread function (PSF) Obtaining a blur patch;
Acquiring a third blur patch through interpolation of the obtained first blur patch and second blur patch, respectively;
Setting a second patch on the second image corresponding to the first patch; And
Estimating depth information based on each of the first blur patch, the second blur patch or the third blur patch and the set second patch.
제 1 항에 있어서,
상기 제 1 이미지 상에서 설정된 소정 면적의 제 1 패치는, 상기 제 1 이미지에 포함된 객체의 에지가 포함되도록 소정 면적으로 설정된 이미지 영역인 방법.
The method according to claim 1,
Wherein the first patch of the predetermined area set on the first image is an image area set to a predetermined area such that an edge of the object included in the first image is included.
제 1 항에 있어서,
상기 제 1 점 확산 함수(PSF)와 상기 제 2 점 확산 함수(PSF) 각각은 심도 분해능(depth resolution)이 N일 때, N개의 상이한 표준편차 값을 갖는 점 확산 함수들 중 어느 하나이고, N은 자연수인 방법.
The method according to claim 1,
Wherein each of the first point spread function PSF and the second point spread function PSF is one of a point spread function having N different standard deviation values when the depth resolution is N, Is a natural number.
제 1 항에 있어서,
상기 각각 획득된 제 1 블러 패치와 제 2 블러 패치의 보간을 통하여 제 3 블러 패치를 획득하는 단계는,
상기 제 1 점 확산 함수(PSF)와 상기 제 2 점 확산 함수(PSF)의 가중 평균으로써 보간하여 제 3 블러 패치를 획득하는 단계를 포함하는 방법.
The method according to claim 1,
Wherein acquiring the third blur patch through interpolation of the obtained first blur patch and second blur patch, respectively,
Interpolating the first point spread function (PSF) and the second point spread function (PSF) to obtain a third blur patch.
이미지로부터 심도(depth) 정보를 추출하기 위한 장치에 있어서,
제 1 조리개를 이용하여 객체에 대한 제 1 이미지를 획득하고, 제 2 조리개를 이용하여 객체에 대한 제 2 이미지를 획득하는 이미지획득부;
상기 제 1 이미지 상에서 소정 면적의 제 1 패치를 설정하고, 상기 제 2 이미지 상에서 상기 제 1 패치에 상응하게 제 2 패치를 설정하는 패치설정부;
제 1 점 확산 함수(PSF) 에 기초하여 상기 설정된 제 1 패치에 대한 제 1 블러 패치를 획득하고, 제 2 점 확산 함수(PSF)에 기초하여 상기 설정된 제 1 패치에 대한 제 2 블러 패치를 획득하는 블러패치획득부;
상기 각각 획득된 제 1 블러 패치와 제 2 블러 패치를 보간하는 보간부; 및
상기 제 1 블러 패치, 상기 제 2 블러 패치 또는 제 3 블러 패치 각각과 상기 설정된 제 2 패치에 기초하여 심도 정보를 추정하는 심도추정부를 포함하고,
상기 제 3 블러 패치는 상기 보간부에 의한 보간 수행에 기초하여 상기 블러패치획득부에 의하여 획득되는 장치.
An apparatus for extracting depth information from an image,
An image acquiring unit acquiring a first image for the object using the first iris and acquiring a second image for the object using the second iris;
A patch setting unit that sets a first patch of a predetermined area on the first image and sets a second patch on the second image in accordance with the first patch;
Acquiring a first blur patch for the set first patch based on a first point spread function (PSF), acquiring a second blur patch for the set first patch based on a second point spread function (PSF) A blur patch acquisition unit;
An interpolator interpolating the obtained first blur patch and the second blur patch; And
And a depth estimation unit for estimating depth information based on each of the first blur patch, the second blur patch or the third blur patch and the set second patch,
And the third blur patch is obtained by the blur patch acquisition section based on interpolation performed by the interpolation section.
제 5 항에 있어서,
상기 제 1 이미지 상에서 설정된 소정 면적의 제 1 패치는, 상기 제 1 이미지에 포함된 객체의 에지가 포함되도록 소정 면적으로 설정된 이미지 영역인 장치.
6. The method of claim 5,
Wherein the first patch of the predetermined area set on the first image is an image area set to a predetermined area so that an edge of the object included in the first image is included.
제 5 항에 있어서,
상기 제 1 점 확산 함수(PSF)와 상기 제 2 점 확산 함수(PSF) 각각은 심도 분해능(depth resolution)이 N일 때, N개의 상이한 표준편차 값을 갖는 점 확산 함수들 중 어느 하나이고, N은 자연수인 장치.
6. The method of claim 5,
Wherein each of the first point spread function PSF and the second point spread function PSF is one of a point spread function having N different standard deviation values when the depth resolution is N, Is a natural number.
제 5 항에 있어서,
상기 보간부는 상기 제 1 점 확산 함수(PSF)와 상기 제 2 점 확산 함수(PSF)의 가중 평균으로써 보간을 수행하는 장치.
6. The method of claim 5,
Wherein the interpolator performs interpolation as a weighted average of the first point spread function (PSF) and the second point spread function (PSF).
제 1 항 내지 제 4 항 중 어느 한 항의 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체. A computer-readable recording medium on which a program for implementing the method of any one of claims 1 to 4 is recorded.
KR1020177019922A 2015-01-20 2015-01-20 Method and apparatus for extracting depth information from an image KR20170120567A (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2015/000556 WO2016117716A1 (en) 2015-01-20 2015-01-20 Method and apparatus for extracting depth information from image

Publications (1)

Publication Number Publication Date
KR20170120567A true KR20170120567A (en) 2017-10-31

Family

ID=56417241

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177019922A KR20170120567A (en) 2015-01-20 2015-01-20 Method and apparatus for extracting depth information from an image

Country Status (2)

Country Link
KR (1) KR20170120567A (en)
WO (1) WO2016117716A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4818957B2 (en) * 2007-02-27 2011-11-16 京セラ株式会社 Imaging apparatus and method thereof
EP2537332A1 (en) * 2010-02-19 2012-12-26 Dual Aperture, Inc. Processing multi-aperture image data
EP2537345A1 (en) * 2010-02-19 2012-12-26 Dual Aperture, Inc. Processing multi-aperture image data
KR101494066B1 (en) * 2010-10-05 2015-02-16 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 Generation of depth data based on spatial light pattern
KR101290197B1 (en) * 2012-02-21 2013-07-30 중앙대학교 산학협력단 Apparatus and method for estimating depth information of image

Also Published As

Publication number Publication date
WO2016117716A1 (en) 2016-07-28

Similar Documents

Publication Publication Date Title
JP7003238B2 (en) Image processing methods, devices, and devices
JP4186699B2 (en) Imaging apparatus and image processing apparatus
EP3480784B1 (en) Image processing method, and device
CN110493527B (en) Body focusing method and device, electronic equipment and storage medium
US8422827B2 (en) Image correction apparatus and image correction method
JP5968073B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
WO2015184408A1 (en) Scene motion correction in fused image systems
JP5766077B2 (en) Image processing apparatus and image processing method for noise reduction
JP2006157908A (en) Sensing apparatus, method for sensing energy field and camera
CN110349163B (en) Image processing method and device, electronic equipment and computer readable storage medium
CN109685853B (en) Image processing method, image processing device, electronic equipment and computer readable storage medium
JP2014138290A (en) Imaging device and imaging method
CN109559352B (en) Camera calibration method, device, electronic equipment and computer-readable storage medium
JP2004222231A (en) Image processing apparatus and image processing program
CN110490196A (en) Subject detection method and apparatus, electronic equipment, computer readable storage medium
CN110365897B (en) Image correction method and device, electronic equipment and computer readable storage medium
US8582912B2 (en) Systems and methods for calculating image sharpness measurements
JP5591090B2 (en) Image processing apparatus and method
CN109697737B (en) Camera calibration method, device, electronic equipment and computer-readable storage medium
JP2017139646A (en) Imaging apparatus
CN106993111B (en) Image pickup apparatus, image pickup method, and recording medium
JP4668863B2 (en) Imaging device
CN117058183A (en) Image processing method and device based on double cameras, electronic equipment and storage medium
JP6099973B2 (en) Subject area tracking device, control method thereof, and program
JP7208379B2 (en) Calibration method

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right