KR20150107571A - Image pickup apparatus and image pickup method of generating image having depth information - Google Patents

Image pickup apparatus and image pickup method of generating image having depth information Download PDF

Info

Publication number
KR20150107571A
KR20150107571A KR1020140135120A KR20140135120A KR20150107571A KR 20150107571 A KR20150107571 A KR 20150107571A KR 1020140135120 A KR1020140135120 A KR 1020140135120A KR 20140135120 A KR20140135120 A KR 20140135120A KR 20150107571 A KR20150107571 A KR 20150107571A
Authority
KR
South Korea
Prior art keywords
image
depth
distance
image sensor
main lens
Prior art date
Application number
KR1020140135120A
Other languages
Korean (ko)
Other versions
KR102228456B1 (en
Inventor
박경태
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to CN201580013807.1A priority Critical patent/CN106105193B/en
Priority to PCT/KR2015/001572 priority patent/WO2015137635A1/en
Priority to US14/626,289 priority patent/US10375292B2/en
Publication of KR20150107571A publication Critical patent/KR20150107571A/en
Application granted granted Critical
Publication of KR102228456B1 publication Critical patent/KR102228456B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/236Image signal generators using stereoscopic image cameras using a single 2D image sensor using varifocal lenses or mirrors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps

Abstract

Disclosed are an image pickup apparatus of generating an image having depth information and an image pickup method to improve the resolution of an image having depth information generated by a light field technique. An image pickup apparatus according to the disclosed embodiment obtains images having different depths of a focus by moving a main lens, and can extract depth information from each of the images obtained by that. According to an image pickup apparatus and an image pickup method according to the disclosed embodiment, several imaging processes are performed by changing the position of the main lens. Thereby, different images can be obtained. So, it has no need to increase the size of a micro lens to increase the number of images at different points.

Description

깊이 정보를 갖는 영상을 생성하는 영상 획득 장치 및 영상 획득 방법 {Image pickup apparatus and image pickup method of generating image having depth information}TECHNICAL FIELD The present invention relates to an image capturing apparatus and an image capturing apparatus for generating an image having depth information,

개시된 실시예들은 깊이 정보를 갖는 영상을 생성하는 영상 획득 장치 및 영상 획득 방법에 관한 것으로서, 더욱 상세하게는 라이트 필드 기술을 이용하여 생성된 깊이 정보를 갖는 영상의 해상도를 향상시킬 수 있는 영상 획득 장치 및 영상 획득 방법에 관한 것이다.The disclosed embodiments relate to an image acquiring apparatus and an image acquiring method for generating an image having depth information, and more particularly, to an image acquiring apparatus and an image acquiring method capable of improving resolution of an image having depth information generated using a light field technique, And an image acquiring method.

일반적인 2차원(2D) 카메라는 대물렌즈를 통해 들어온 빛의 세기 정보를 이미지 센서로 획득하여 영상을 생성한다. 예를 들어, 피사체의 한 점으로부터 오는 다수의 광선들을 대물렌즈를 이용하여 이미지 센서의 한 점에 모아 일정 시간 동안 누적함으로써, 상기 피사체의 한 점에 대한 빛의 세기 정보를 얻을 수 있으며, 이미지 센서의 다수의 화소들로부터 얻은 빛의 세기 정보를 이용하여 하나의 영상을 만들 수 있다. 그러나, 이러한 2D 카메라의 영상 획득 방식으로는 피사체의 한 점으로부터 오는 개개의 광선들의 세기와 방향에 대한 정보를 얻을 수는 없다.A typical two-dimensional (2D) camera acquires intensity information of light received through an objective lens with an image sensor to generate an image. For example, the light intensity information for one point of the subject can be obtained by collecting a plurality of rays coming from a point of the object on a point of the image sensor by using an objective lens and accumulating for a predetermined time, It is possible to make one image by using the intensity information of the light obtained from the plurality of pixels of the image. However, with this 2D camera image acquisition method, information on the intensity and direction of individual rays coming from a point of the object can not be obtained.

라이트 필드(light field) 기술은 피사체의 한 점으로부터 오는 다수의 광선들의 개별적인 세기와 방향에 대한 정보를 획득함으로써 임의의 시점(view point)이나 임의의 초점에 해당하는 영상을 생성할 수 있도록 하는 기술이다. 라이트 필드 기술을 이용하면 피사체의 다수의 시점에 대한 정보 및 피사체의 깊이 정보를 얻을 수 있는 3차원(3D) 카메라 또는 화각 내의 모든 피사체들에 임의로 초점을 맞출 수 있는 리포커싱(refocusing) 효과를 갖는 카메라를 구현할 수 있다.A light field technique is a technique that allows to generate images corresponding to an arbitrary point of view or an arbitrary focus by acquiring information about the individual intensities and directions of a plurality of rays from a point of the object to be. The light field technique has a refocusing effect that can arbitrarily focus on all subjects in a three-dimensional (3D) camera or a field of view, which can obtain information on a plurality of viewpoints of a subject and depth information of the subject The camera can be implemented.

라이트 필드 기술이 적용된 카메라는 통상적으로 주 렌즈와 마이크로 렌즈 어레이를 이용하여 구현될 수 있다. 예를 들어, 2차원 배열된 다수의 마이크로 렌즈들을 갖는 마이크로 렌즈 어레이가 주 렌즈와 이미지 센서 사이에 배치될 수 있다. 여기서, 마이크로 렌즈 어레이 내의 하나의 마이크로 렌즈는 이미지 센서의 다수의 화소들과 대응할 수 있다. 따라서, 하나의 마이크로 렌즈에 대응하는 다수의 화소들에서 각각 서로 다른 시점의 영상을 얻을 수 있다. 예컨대, 하나의 마이크로 렌즈가 7×7개의 화소를 덮는 경우에는, 시점이 서로 다른 7×7개의 영상을 동시에 얻을 수 있다.A camera to which the light field technique is applied can be typically implemented using a main lens and a microlens array. For example, a microlens array having a plurality of microlenses arranged two-dimensionally can be disposed between the main lens and the image sensor. Here, one microlens in the microlens array may correspond to a plurality of pixels of the image sensor. Accordingly, images at different points in time can be obtained from a plurality of pixels corresponding to one micro lens. For example, when one microlens covers 7 占 7 pixels, 7 占 7 images having different viewpoints can be obtained at the same time.

그런데, 라이트 필드 카메라에서 영상의 해상도는 이미지 센서의 화소 피치에 의해 결정되는 것이 아니라 마이크로 렌즈의 피치에 의해 결정된다. 예를 들어, 마이크로 렌즈의 크기가 증가하면 영상의 해상도가 낮아지고 마이크로 렌즈의 크기가 감소하면 영상의 해상도가 높아진다. 따라서, 시점이 서로 다른 영상들의 개수를 증가시키기 위해서 마이크로 렌즈의 크기를 증가시키면 영상의 해상도가 저하되며, 영상의 해상도를 증가시키기 위하여 마이크로 렌즈의 크기를 작게 하면 동시에 얻을 수 있는 시점이 서로 다른 영상들의 개수가 감소하게 된다. 결과적으로, 영상의 해상도와 시차 검출 능력 사이에 트레이트 오프가 발생하게 된다.However, in a light field camera, the resolution of an image is determined not by the pixel pitch of the image sensor but by the pitch of the microlens. For example, as the size of the microlens increases, the resolution of the image decreases. When the size of the microlens decreases, the resolution of the image increases. Therefore, if the size of the microlens is increased to increase the number of images having different viewpoints, the resolution of the image is lowered. If the size of the microlens is decreased to increase the resolution of the image, As shown in FIG. As a result, a trade-off occurs between the resolution of the image and the parallax detection capability.

라이트 필드 기술을 이용하여 생성된 깊이 정보를 갖는 영상의 해상도를 향상시킬 수 있는 영상 획득 장치 및 영상 획득 방법을 제공한다.There is provided an image acquiring apparatus and an image acquiring method capable of improving resolution of an image having depth information generated using a light field technique.

일 실시예에 따른 영상 취득 장치는, 입사광을 집광시키는 주 렌즈; 입사광을 감지하여 영상을 형성하기 위한 2차원 배열된 다수의 화소들을 구비하는 이미지 센서; 상기 주 렌즈와 이미지 센서 사이에 배치된 것으로, 2차원 배열된 다수의 마이크로 렌즈들을 구비하는 마이크로 렌즈 어레이; 및 상기 이미지 센서로부터 영상 신호를 받아 영상을 생성하는 제어부;를 포함하며, 여기서 상기 제어부는 상기 주 렌즈와 이미지 센서 사이의 거리를 변화시켜 피사체 심도가 상이한 다수의 영상을 취득하고 상기 취득된 다수의 영상 중 적어도 하나로부터 각각 적어도 하나의 깊이 맵을 생성하도록 구성될 수 있다.According to an embodiment of the present invention, there is provided an image acquisition apparatus including: a main lens for condensing incident light; An image sensor having a plurality of two-dimensionally arranged pixels for detecting an incident light to form an image; A microlens array disposed between the main lens and the image sensor, the microlens array having a plurality of microlenses arranged two-dimensionally; And a control unit for receiving an image signal from the image sensor and generating an image, wherein the control unit acquires a plurality of images having different subject depths by changing a distance between the main lens and the image sensor, And generate at least one depth map each from at least one of the images.

상기 각각의 마이크로 렌즈는 상기 이미지 센서의 적어도 2개의 화소와 대응하도록 배치될 수 있다.Each of the microlenses may be arranged to correspond to at least two pixels of the image sensor.

상기 제어부는 동일한 마이크로 렌즈에 대응하여 배치된 적어도 2개의 화소들의 출력들을 각각 이용하여 깊이 맵을 생성하고, 동일한 마이크로 렌즈에 대응하여 배치된 적어도 2개의 화소들의 출력들을 합산하여 영상을 생성하도록 구성될 수 있다.The control unit is configured to generate a depth map by using outputs of at least two pixels arranged corresponding to the same microlens, and to generate an image by summing outputs of at least two pixels arranged corresponding to the same microlens .

또한, 상기 제어부는 초점심도(DOF)를 기본 스텝 단위로 하여 상기 주 렌즈와 이미지 센서 사이의 거리를 변화시키도록 구성될 수 있다.In addition, the controller may be configured to vary the distance between the main lens and the image sensor, with the depth of focus (DOF) as a basic step unit.

상기 제어부는, 상기 주 렌즈와 이미지 센서 사이의 거리를 초점심도 단위로 변화시킬 때마다 상기 이미지 센서를 통해 영상을 취득하고 깊이 맵을 생성함으로써, 무한 거리에서 최단초점거리까지 위치한 모든 피사체에 대해 초점이 맞는 영상을 취득하도록 구성될 수 있다.Wherein the control unit acquires an image through the image sensor and generates a depth map every time the distance between the main lens and the image sensor is changed in increments of depth of focus, May be configured to acquire the correct image.

상기 제어부는 상기 주 렌즈와 이미지 센서 사이의 거리를 초점심도 단위로 변화시킬 때마다 생성된 각각의 깊이 맵에서 깊이 값이 최소인 피사체 영역을 기억하도록 구성될 수 있다.The control unit may be configured to store a subject area having a minimum depth value in each depth map generated each time the distance between the main lens and the image sensor is changed in units of depth of focus.

상기 제어부는, 상기 다수의 영상 내에서 특정한 피사체 영역이 선택되었을 때, 상기 선택된 피사체 영역에 대해 깊이 값이 최소가 되는 깊이 맵을 선택하고 선택된 깊이 맵에 대응하는 영상을 출력하도록 구성될 수 있다.The controller may select a depth map having a minimum depth value with respect to the selected subject area and output an image corresponding to the selected depth map when a specific subject area is selected in the plurality of images.

과초점 거리에 초점을 맞출 때의 상기 주 렌즈와 이미지 센서 사이의 거리를 Dh라 하고, 최단초점거리에 초점을 맞출 때의 상기 주 렌즈와 이미지 센서 사이의 거리를 Dc라 할 때, 상기 제어부는 상기 주 렌즈와 이미지 센서 사이의 거리를 Dh와 Dc 사이에서 초점심도 단위로 변화시키도록 구성될 수 있다.And a distance between the main lens and the image sensor when focusing on the shortest focal length is Dh and a distance between the main lens and the image sensor when the focal point is focused on the shortest focal distance is Dc, And the distance between the main lens and the image sensor is changed in units of depth of focus between Dh and Dc.

상기 제어부는 초기에 상기 주 렌즈와 이미지 센서 사이의 거리를 Dh로 선택하고 상기 주 렌즈와 이미지 센서 사이의 거리가 Dc가 될 때까지 상기 주 렌즈와 이미지 센서 사이의 거리를 초점심도 단위로 순차적으로 변화시키도록 구성될 수 있다.Wherein the control unit initially selects the distance Dh between the main lens and the image sensor and sequentially sets the distance between the main lens and the image sensor to the depth of focus until the distance between the main lens and the image sensor becomes Dc Or the like.

또한, 상기 제어부는 초기에 상기 주 렌즈와 이미지 센서 사이의 거리를 Dh로 선택하여 영상 및 깊이 맵을 얻고, 상기 깊이 맵을 분석하여 피사체가 존재하는 피사체 심도에 대해서만 영상을 얻도록 상기 주 렌즈와 이미지 센서 사이의 거리를 초점심도 단위로 조절하도록 구성될 수 있다.Also, the control unit initially obtains an image and a depth map by selecting a distance Dh between the main lens and the image sensor, analyzes the depth map, and obtains an image only for a subject depth in which the subject exists. And adjust the distance between the image sensors in units of depth of focus.

예를 들어, 상기 초점심도는 2×(상기 주 렌즈의 개구율)×허용착란원(CoC)에 의해 결정되며, 허용착란원의 크기는 상기 마이크로 렌즈의 피치 1개 또는 피치 2개와 같을 수 있다.For example, the depth of focus is determined by 2 × (aperture ratio of the main lens) × allowable confusion circle (CoC), and the size of the allowable confusion circle may be equal to one pitch or two pitches of the microlenses.

상기 제어부는, 과초점 거리에 초점을 맞추어 취득한 초기 영상의 깊이 맵을 통해 초기 영상 내의 배경과 후보 관심 피사체를 식별하고, 식별된 관심 피사체 중에서 미리 지정된 조건에 따라 관심 피사체를 선택하고, 선택된 관심 피사체들의 각각의 깊이 값을 이용하여 선택된 관심 피사체가 존재하는 피사체 심도 구간에 대해 촬영을 수행하도록 구성될 수 있다.The control unit may identify the background of the initial image and the candidate object of interest through the depth map of the initial image obtained by focusing on the focal length, select an object of interest according to a predefined condition among the identified objects of interest, And the depth value of each of the depths of the selected object.

또한, 상기 제어부는 배터리 및 메모리 잔량에 따라 선택된 관심 피사체의 개수를 조절하도록 구성될 수 있다.In addition, the controller may be configured to adjust the number of objects of interest selected according to the battery and the remaining amount of memory.

한편, 주 렌즈, 이미지 센서 및 상기 주 렌즈와 이미지 센서 사이에 배치되며 2차원 배열된 다수의 마이크로 렌즈들을 구비하는 마이크로 렌즈를 포함하는 영상 취득 장치의 일 실시예에 따른 영상 취득 방법은, 상기 주 렌즈와 이미지 센서 사이의 거리를 변화시키는 단계; 상기 주 렌즈와 이미지 센서 사이의 거리가 변화할 때마다 영상을 취득함으로써 피사체 심도가 상이한 다수의 영상을 취득하는 단계; 및 상기 취득된 다수의 영상 중 적어도 하나로부터 각각 적어도 하나의 깊이 맵을 생성하는 단계;를 포함할 수 있다.Meanwhile, an image acquisition method according to an embodiment of the image acquisition apparatus including a main lens, an image sensor, and a microlens disposed between the main lens and the image sensor and having a plurality of microlenses arrayed in two dimensions, Changing a distance between the lens and the image sensor; Acquiring a plurality of images having different object depths by acquiring an image every time the distance between the main lens and the image sensor changes; And generating at least one depth map from at least one of the plurality of acquired images, respectively.

상기 각각의 마이크로 렌즈는 상기 이미지 센서의 적어도 2개의 화소와 대응하도록 배치될 수 있다.Each of the microlenses may be arranged to correspond to at least two pixels of the image sensor.

상기 영상 취득 방법은, 동일한 마이크로 렌즈에 대응하여 배치된 적어도 2개의 화소들의 출력들을 각각 이용하여 깊이 맵을 생성하는 단계; 및 동일한 마이크로 렌즈에 대응하여 배치된 적어도 2개의 화소들의 출력들을 합산하여 영상을 생성하는 단계;를 포함할 수 있다.The image capturing method includes: generating a depth map using outputs of at least two pixels arranged corresponding to the same microlens; And generating an image by summing outputs of at least two pixels arranged corresponding to the same microlens.

상기 주 렌즈와 이미지 센서 사이의 거리는 초점심도(DOF)를 기본 스텝 단위로 하여 변화할 수 있다.The distance between the main lens and the image sensor may be changed by a basic step unit of depth of focus (DOF).

상기 영상 취득 방법에 따르면, 상기 주 렌즈와 이미지 센서 사이의 거리를 초점심도 단위로 변화시킬 때마다 영상을 취득하고 깊이 맵을 생성함으로써, 무한 거리에서 최단초점거리까지 위치한 모든 피사체에 대해 초점이 맞는 영상을 취득할 수 있다.According to the image capturing method, every time the distance between the main lens and the image sensor is changed in units of depth of focus, an image is acquired and a depth map is generated. Thus, all objects located from an infinite distance to a shortest focal distance are focused The image can be acquired.

상기 영상 취득 방법은, 상기 주 렌즈와 이미지 센서 사이의 거리를 초점심도 단위로 변화시킬 때마다 생성된 각각의 깊이 맵에서 깊이 값이 최소인 피사체 영역을 기억하는 단계를 더 포함할 수 있다.The image capturing method may further include storing a subject area having a minimum depth value in each of the generated depth maps each time the distance between the main lens and the image sensor is changed in units of depth of focus.

상기 영상 취득 방법은, 상기 다수의 영상 내에서 특정한 피사체 영역을 선택하는 단계; 상기 선택된 피사체 영역에 대해 깊이 값이 최소가 되는 깊이 맵을 선택하는 단계; 및 상기 선택된 깊이 맵에 대응하는 영상을 출력하는 단계;를 더 포함할 수 있다.The image capturing method includes: selecting a specific subject area within the plurality of images; Selecting a depth map having a minimum depth value for the selected subject area; And outputting an image corresponding to the selected depth map.

상기 영상 취득 방법에 따르면, 과초점 거리에 초점을 맞출 때의 상기 주 렌즈와 이미지 센서 사이의 거리를 Dh라 하고, 최단초점거리에 초점을 맞출 때의 상기 주 렌즈와 이미지 센서 사이의 거리를 Dc라 할 때, 상기 주 렌즈와 이미지 센서 사이의 거리를 Dh와 Dc 사이에서 초점심도 단위로 변화시킬 수 있다.According to the image acquisition method, the distance between the main lens and the image sensor when focusing on the over focal distance is Dh, and the distance between the main lens and the image sensor when focusing on the shortest focal distance is Dc , The distance between the main lens and the image sensor can be changed in units of depth of focus between Dh and Dc.

상기 주 렌즈와 이미지 센서 사이의 거리를 변화시키는 단계는, 상기 주 렌즈와 이미지 센서 사이의 거리를 Dh로 선택하는 초기 단계; 및 상기 주 렌즈와 이미지 센서 사이의 거리가 Dc가 될 때까지 상기 주 렌즈와 이미지 센서 사이의 거리를 초점심도 단위로 순차적으로 변화시키는 단계;를 포함할 수 있다.The step of changing the distance between the main lens and the image sensor may include an initial step of selecting a distance between the main lens and the image sensor as Dh; And sequentially changing the distance between the main lens and the image sensor in units of depth of focus until the distance between the main lens and the image sensor becomes Dc.

또한, 상기 주 렌즈와 이미지 센서 사이의 거리를 변화시키는 단계는, 상기 주 렌즈와 이미지 센서 사이의 거리를 Dh로 선택하는 초기 단계; 및 상기 초기 단계에서 얻은 깊이 맵을 분석하여 피사체가 존재하는 피사체 심도에 대해서만 영상을 얻도록 상기 주 렌즈와 이미지 센서 사이의 거리를 초점심도 단위로 변화시키는 단계;를 포함할 수 있다.Also, the step of changing the distance between the main lens and the image sensor may include an initial step of selecting a distance Dh between the main lens and the image sensor; And a step of analyzing the depth map obtained in the initial step to change the distance between the main lens and the image sensor in units of depth of focus so that an image is obtained only for a subject depth in which the subject exists.

상기 영상 취득 방법은, 과초점 거리에 초점을 맞추어 초기 영상을 취득하는 단계; 상기 취득한 초기 영상의 깊이 맵을 통해 초기 영상 내의 배경과 후보 관심 피사체를 식별하는 단계; 식별된 관심 피사체 중에서 미리 지정된 조건에 따라 관심 피사체를 선택하는 단계; 및 선택된 관심 피사체들의 각각의 깊이 값을 이용하여 선택된 관심 피사체가 존재하는 피사체 심도 구간에 대해 촬영을 수행하는 단계;를 더 포함할 수 있다.The image acquisition method includes: acquiring an initial image by focusing on a focal length; Identifying a background in the initial image and a candidate object of interest through a depth map of the acquired initial image; Selecting an object of interest according to a predetermined condition among the identified objects of interest; And performing a photographing operation on a subject depth range in which an object of interest is present using the depth values of the selected objects of interest.

또한, 상기 영상 취득 방법은, 배터리 및 메모리 잔량을 검사하는 단계; 및 배터리 및 메모리 잔량에 따라 선택된 관심 피사체의 개수를 조절하는 단계;를 더 포함할 수 있다.Further, the image acquiring method may include: checking a battery and a remaining amount of memory; And adjusting the number of objects of interest selected according to the battery and the remaining amount of memory.

또한, 일 실시예에 따른 리포커싱 방법은, 피사체 심도가 상이한 다수의 영상을 각각 취득하는 단계; 상기 각각의 취득된 영상으로부터 깊이 맵을 각각 생성하는 단계; 상기 각각의 깊이 맵에서 깊이 값이 최소인 피사체 영역을 기억하는 단계; 상기 다수의 영상 내에서 특정한 피사체 영역을 선택하는 단계; 상기 선택된 피사체 영역에 대해 깊이 값이 최소가 되는 깊이 맵을 선택하는 단계; 및 상기 선택된 깊이 맵에 대응하는 영상을 출력하는 단계;를 포함할 수 있다.According to an embodiment of the present invention, there is provided a method of re-focusing, comprising: acquiring a plurality of images each having a different depth of field; Generating a depth map from each of the acquired images; Storing a subject area having a minimum depth value in each of the depth maps; Selecting a specific subject area within the plurality of images; Selecting a depth map having a minimum depth value for the selected subject area; And outputting an image corresponding to the selected depth map.

개시된 실시예에 따른 영상 획득 장치는 주 렌즈와 이미지 센서 사이에 배치된 마이크로 렌즈 어레이를 포함한다. 여기서, 마이크로 렌즈 어레이의 하나의 마이크로 렌즈는 이미지 센서의 2개 이상의 화소 또는 4개 이상의 화소와 대응할 수 있다. 또한, 개시된 실시예에 따른 영상 획득 장치는 주 렌즈를 이동시켜 피사체 심도(depth of field)가 다른 다수의 영상을 취득하고, 이렇게 취득된 각각의 영상으로부터 깊이 정보를 추출할 수 있다. 개시된 실시예에 따른 영상 획득 장치 및 영상 획득 방법에 따르면, 주 렌즈의 위치를 변화시켜 다수 회의 촬영을 수행함으로써 시점이 서로 다른 다수의 영상들을 얻을 수 있기 때문에, 시점이 서로 다른 영상들의 개수를 증가시키기 위하여 마이크로 렌즈의 크기를 증가시킬 필요가 없다. 따라서 시점이 서로 다른 영상들의 개수를 감소시키기 않으면서 마이크로 렌즈의 크기를 최소화하여 영상의 해상도 저하를 억제시키는 것이 가능하다.An image acquisition device according to the disclosed embodiment includes a microlens array disposed between a main lens and an image sensor. Here, one microlens of the microlens array may correspond to two or more pixels or four or more pixels of the image sensor. In addition, the image acquiring apparatus according to the disclosed embodiment can acquire a plurality of images having different depth of fields by moving the main lens, and extract depth information from each of the acquired images. According to the image acquiring apparatus and the image acquiring method according to the disclosed embodiments, since a plurality of images having different viewpoints can be obtained by performing a plurality of photographing operations by changing the position of the main lens, There is no need to increase the size of the microlenses. Therefore, it is possible to minimize the resolution of the image by minimizing the size of the microlens without reducing the number of images having different viewpoints.

도 1은 일 실시예에 따른 영상 획득 장치의 예시적인 구성을 개략적으로 도시한다.
도 2a는 이미지 센서의 화소들과 개개의 마이크로 렌즈 사이의 예시적인 위치 관계를 도시한다.
도 2b는 이미지 센서의 화소들과 개개의 마이크로 렌즈 사이의 다른 예시적인 위치 관계를 도시한다.
도 3은 도 1에 도시된 영상 획득 장치에 의해 촬영되는 다수의 피사체들의 위치를 예시적으로 도시한다.
도 4a 내지 도 4c는 피사체와 영상 획득 장치의 거리에 따른 포커싱 상태를 예시적으로 도시한다.
도 5는 주 렌즈에 의해 형성된 상(image)이 마이크로 렌즈 어레이의 후방에 위치하는 경우에 2개의 화소열 사이의 상의 위치 차이를 도시한다.
도 6은 주 렌즈에 의해 형성된 상이 마이크로 렌즈 어레이 위에 정확하게 위치하는 경우에 2개의 화소열 사이의 상의 위치 차이를 도시한다.
도 7은 주 렌즈에 의해 형성된 상이 마이크로 렌즈 어레이의 전방에 위치하는 경우에 2개의 화소열 사이의 상의 위치 차이를 도시한다.
도 8a 내지 도 8d는 도 3에 도시된 피사체들을 촬영하여 얻은 영상의 깊이 맵(depth map)을 예시적으로 도시한다.
도 9는 일 실시예에 따른 영상 획득 방법에 따라 주 렌즈의 위치를 이동시켜 순차적으로 포커스 브라케팅(focus bracketing)을 수행하는 과정을 도시한다.
도 10 및 도 11은 허용착란원(circle of confusion; CoC)과 초점심도(depth of focus; DOF) 사이의 관계를 도시한다.
도 12는 허용착란원의 크기를 마이크로 렌즈의 피치 1개로 설정한 경우에 피사체의 거리에 따라 피사체가 이미지 센서에 맺힐 때의 광 스팟 크기를 나타내는 그래프이다.
도 13은 허용착란원의 크기를 마이크로 렌즈의 피치 2개로 설정한 경우에 피사체의 거리에 따라 피사체가 이미지 센서에 맺힐 때의 광 스팟 크기를 나타내는 그래프이다.
도 14는 다른 실시예에 따른 영상 획득 방법에 따라 피사체가 존재하는 피사체 심도에 대해서만 포커스 브라케팅을 수행하는 과정을 도시한다.
도 15a 내지 도 15c는 도 14에 도시된 피사체들을 촬영하여 얻은 영상의 깊이 맵을 예시적으로 도시한다.
도 16은 2개의 중심 피사체가 있는 영상의 깊이 맵을 예시적으로 보인다.
도 17은 관심 피사체를 자동으로 선택하여 선택된 관심 피사체가 존재하는 피사체 심도에 대해서만 포커스 브라케팅 동작을 수행하는 과정을 보이는 예시적인 흐름도이다.
도 18은 다수의 관심 피사체들이 고르게 분포하는 영상의 깊이 맵을 예시적으로 보인다.
도 19는 포커스 브라케팅 스텝을 최소화하기 위하여 핵심 피사체만을 자동으로 선택하여 선택된 핵심 피사체가 존재하는 피사체 심도에 대해서만 포커스 브라케팅 동작을 수행하는 과정을 보이는 예시적인 흐름도이다.
Figure 1 schematically illustrates an exemplary configuration of an image acquisition device according to one embodiment.
2A shows an exemplary positional relationship between pixels of an image sensor and individual microlenses.
Figure 2B shows another exemplary positional relationship between the pixels of the image sensor and the individual microlenses.
Fig. 3 exemplarily shows the positions of a plurality of objects photographed by the image acquiring apparatus shown in Fig.
4A to 4C illustrate exemplary focusing states according to distances between a subject and an image capturing apparatus.
5 shows the positional difference between the two pixel columns when an image formed by the main lens is located behind the micro lens array.
Figure 6 shows the positional difference of the image between two rows of pixels when the image formed by the primary lens is correctly located on the microlens array.
7 shows the positional difference between the two pixel columns in the case where the image formed by the main lens is located in front of the microlens array.
8A to 8D illustrate a depth map of an image obtained by photographing the subjects shown in FIG.
FIG. 9 illustrates a process of sequentially performing focus bracketing by moving a position of a main lens according to an image acquisition method according to an embodiment.
Figures 10 and 11 show the relationship between the circle of confusion (CoC) and the depth of focus (DOF).
12 is a graph showing a light spot size when a subject is formed on the image sensor according to the distance of the subject when the size of the allowable confusion circle is set to one microlens pitch.
13 is a graph showing the size of a light spot when a subject is formed on the image sensor according to the distance of the subject when the size of the allowable confusion circle is set to two pitches of microlenses.
FIG. 14 illustrates a process of performing focus bracketing only on a subject depth at which a subject exists according to an image acquisition method according to another embodiment.
FIGS. 15A to 15C illustrate a depth map of an image obtained by photographing the subjects shown in FIG. 14 by way of example.
FIG. 16 exemplarily shows a depth map of an image having two central subjects.
FIG. 17 is an exemplary flowchart illustrating a process of automatically performing a focus bracketing operation only on an object depth in which an object of interest is selected by automatically selecting an object of interest.
FIG. 18 exemplarily shows a depth map of an image in which a plurality of objects of interest are uniformly distributed.
19 is an exemplary flowchart illustrating a process of automatically performing a focus bracketing operation only on a subject depth in which a selected core subject exists by automatically selecting only a core subject in order to minimize a focus bracketing step.

이하, 첨부된 도면들을 참조하여,깊이 정보를 갖는 영상을 생성하는 영상 획득 장치 및 영상 획득 방법에 대해 상세하게 설명한다. 이하의 도면들에서 동일한 참조부호는 동일한 구성요소를 지칭하며, 도면상에서 각 구성요소의 크기는 설명의 명료성과 편의상 과장되어 있을 수 있다. 또한, 이하에 설명되는 실시예는 단지 예시적인 것에 불과하며, 이러한 실시예들로부터 다양한 변형이 가능하다. 또한 이하에서 설명하는 층 구조에서, "상부" 나 "상"이라고 기재된 표현은 접촉하여 바로 위에 있는 것뿐만 아니라 비접촉으로 위에 있는 것도 포함할 수 있다.Hereinafter, an image acquiring apparatus and an image acquiring method for generating an image having depth information will be described in detail with reference to the accompanying drawings. In the following drawings, like reference numerals refer to like elements, and the size of each element in the drawings may be exaggerated for clarity and convenience of explanation. Furthermore, the embodiments described below are merely illustrative, and various modifications are possible from these embodiments. Also, in the layer structures described below, the expressions "top" or "on top"

도 1은 일 실시예에 따른 영상 획득 장치(100)의 예시적인 구성을 개략적으로 도시하고 있다. 도 1을 참조하면, 본 실시예에 따른 영상 획득 장치(100)는 입사광을 집광시키는 주 렌즈(110), 입사광을 감지하여 영상을 형성하기 위하여 2차원 배열된 다수의 화소를 갖는 이미지 센서(130), 및 상기 주 렌즈(110)와 이미지 센서(130) 사이에 배치된 마이크로 렌즈 어레이(120)를 포함할 수 있다. 또한, 영상 획득 장치(100)는 피사체에 대한 포커싱을 위해 주 렌즈(110)를 이동시키는 액추에이터(115), 상기 액추에이터(115)에 동작 신호를 제공하는 구동부(141), 및 상기 이미지 센서(130)로부터 영상 신호를 받아 깊이 정보를 갖는 영상을 생성하는 제어부(140)를 더 포함할 수 있다. 제어부(140)는 또한 상기 구동부(141)와 액추에이터(115)의 동작을 제어하여 주 렌즈(100)와 이미지 센서(130) 사이의 거리를 변화시키는 역할도 할 수 있다.1 schematically illustrates an exemplary configuration of an image acquisition device 100 according to one embodiment. 1, an image capturing apparatus 100 according to the present embodiment includes a main lens 110 for condensing incident light, an image sensor 130 having a plurality of pixels arranged two-dimensionally to form an image by detecting incident light, And a microlens array 120 disposed between the main lens 110 and the image sensor 130. [ The image capturing apparatus 100 includes an actuator 115 for moving the main lens 110 for focusing on a subject, a driving unit 141 for providing an operation signal to the actuator 115, And a controller 140 receiving the image signal from the image processor 140 and generating an image having depth information. The control unit 140 may also control the operation of the driving unit 141 and the actuator 115 to change the distance between the main lens 100 and the image sensor 130.

도 1에는 편의상 주 렌즈(110)가 하나의 단일 렌즈 소자로 구성된 것으로 도시되어 있지만, 수차 등의 보정을 위하여 주 렌즈(110)는 다수의 렌즈 소자들을 포함할 수도 있다. 또한, 주 렌즈(110)가 다수의 렌즈 소자들을 포함하는 경우, 액추에이터(115)는 주 렌즈(110)의 전체를 이동시킬 수도 있지만, 다수의 렌즈 소자들 중에서 일부의 렌즈 소자만 이동시키는 것도 가능하다. 따라서, 이하의 설명에서 주 렌즈(110)가 이동한다는 의미는 주 렌즈(110)의 전체 렌즈 소자들이 함께 이동하는 경우뿐만 아니라 주 렌즈(110)의 일부 렌즈 소자만이 이동하는 경우도 포함하는 것으로 이해하여야 한다.Although FIG. 1 illustrates the primary lens 110 as being composed of one single lens element for convenience, the primary lens 110 may include a plurality of lens elements for correction of aberrations and the like. In addition, when the main lens 110 includes a plurality of lens elements, the actuator 115 may move the entire main lens 110, but it is also possible to move only some lens elements among the plurality of lens elements Do. Therefore, in the following description, the movement of the main lens 110 means that not only all the lens elements of the main lens 110 move together but also only some lens elements of the main lens 110 move I must understand.

또한, 액추에이터(115)는 주 렌즈(110) 대신에 마이크로 렌즈 어레이(120)와 이미지 센서(130)에 배치되어 마이크로 렌즈 어레이(120)와 이미지 센서(130)를 이동시킬 수도 있다. 이 경우, 제어부(140)는 주 렌즈(100)와 이미지 센서(130) 사이의 거리를 변화시키기 위해, 주 렌즈(110) 대신에 마이크로 렌즈 어레이(120)와 이미지 센서(130)의 이동을 제어할 수 있다. 이하의 설명에서는 편의상 주 렌즈(100)가 이동하는 것으로 기술하지만, 이는 이미지 센서(130)에 대한 주 렌즈(100)의 상대적인 이동이며 주 렌즈(100)와 이미지 센서(130) 사이의 거리가 변화한다는 것으로 이해하여야 한다.The actuator 115 may be disposed in the microlens array 120 and the image sensor 130 instead of the main lens 110 to move the microlens array 120 and the image sensor 130. In this case, the control unit 140 controls the movement of the microlens array 120 and the image sensor 130 instead of the main lens 110 to change the distance between the main lens 100 and the image sensor 130 can do. The description below refers to the movement of the main lens 100 for the sake of convenience, but it is a relative movement of the main lens 100 with respect to the image sensor 130 and a change in the distance between the main lens 100 and the image sensor 130 .

마이크로 렌즈 어레이(120)는 2차원 배열된 다수의 마이크로 렌즈(121)들을 포함할 수 있다. 일반적인 라이트 필드 기술과 마찬가지로, 상기 마이크로 렌즈 어레이(120)는 주 렌즈(110)와 이미지 센서(130) 사이에 배치될 수 있다. 마이크로 렌즈 어레이(120) 내의 다수의 마이크로 렌즈(121)들은 모두 초점거리와 직경이 동일할 수 있다.The microlens array 120 may include a plurality of microlenses 121 arranged in two dimensions. Like the normal light field technique, the microlens array 120 may be disposed between the main lens 110 and the image sensor 130. [ The plurality of microlenses 121 in the microlens array 120 may all have the same focal length and diameter.

이미지 센서(130)는 입사광의 세기를 전기적인 신호로 변환하여 출력한다. 예컨대, 이미지 센서(130)는 CCD(charge-coupled device) 또는 CMOS(complementary metal oxide semiconductor) 이미지 센서일 수 있다. 이미지 센서(130)는 2차원 배열된 다수의 화소들을 포함할 수 있다. 각각의 화소는 독립적으로 입사광을 감지하여 입사광의 세기에 따라 전기적인 신호를 출력할 수 있다.The image sensor 130 converts the intensity of the incident light into an electrical signal and outputs the electrical signal. For example, the image sensor 130 may be a charge-coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) image sensor. The image sensor 130 may include a plurality of pixels arranged two-dimensionally. Each pixel independently senses incident light and can output an electrical signal according to the intensity of the incident light.

제어부(140)는 이미지 센서(130)의 다수의 화소들로부터 출력된 전기적인 신호들을 처리하여 영상을 생성할 수 있다. 또한, 제어부(140)는 영상 내의 피사체에 대한 깊이 정보를 추출하여 깊이 맵(depth map)을 생성하고, 피사체 심도가 상이한 다수의 영상들을 얻기 위하여 상기 깊이 맵을 기초로 구동부(141)를 통해 액추에이터(115)를 제어하여 포커스 브라케팅(focus bracketing) 동작을 수행할 수 있다. 또한, 제어부(140)는 피사체 심도가 상이한 다수의 영상들을 이용하여, 사용자의 명령에 따라 특정 피사체에 초점을 맞추는 리포커싱 기능을 수행할 수도 있다. 이러한 동작들에 대해서는 후에 보다 상세하게 설명한다.The control unit 140 may process electrical signals output from the plurality of pixels of the image sensor 130 to generate an image. In addition, the controller 140 extracts depth information of a subject in the image to generate a depth map, and generates an image based on the depth map, The control unit 115 may control the focus bracketing operation. In addition, the control unit 140 may perform a re-focusing function to focus on a specific subject according to a user's command using a plurality of images having different depths of the subject. These operations will be described later in more detail.

영상 내의 다수의 피사체들에 대한 깊이 정보를 얻기 위하여, 마이크로 렌즈 어레이(120) 내의 각각의 마이크로 렌즈(121)는 이미지 센서(130)의 적어도 2개의 화소가 대응할 수 있다. 그러면 하나의 마이크로 렌즈(121)에 대응하는 이미지 센서(130)의 적어도 2개의 화소는 동일한 피사체에 대해 시차가 상이한 광선을 각각 검출할 수 있다.At least two pixels of the image sensor 130 may correspond to each microlens 121 in the microlens array 120 in order to obtain depth information on a plurality of objects in the image. Then, at least two pixels of the image sensor 130 corresponding to one micro lens 121 can detect light beams having different parallaxes for the same object, respectively.

예를 들어, 도 2a는 이미지 센서(130)의 화소(131a, 131b)들과 개개의 마이크로 렌즈(121) 사이의 예시적인 위치 관계를 도시하고 있다. 도 2a에 도시된 바와 같이, 하나의 마이크로 렌즈(121)에 대해 단지 2개의 화소(131a, 131b)만이 수평 방향으로 배치되는 것이 가능하다. 하나의 마이크로 렌즈(121)에 대응하는 2개의 화소(131a, 131b)는 피사체의 동일한 한 점에서 나오며 시점이 서로 다른 빛을 각각 감지할 수 있다. 예컨대, 좌측의 화소(131a)는 주 렌즈(110)의 입사동(entrance pupil)의 우측 영역을 통과한 광선을 감지하며, 우측의 화소(131b)는 주 렌즈의 입사동의 좌측 영역을 통과한 광선을 감지할 수 있다. 이 경우, 수평 방향의 시점이 서로 다른 2개의 영상을 얻을 수 있다. 그러나, 이렇게 얻은 2개의 영상은 수직 방향으로는 시차가 없이 동일한 시점을 갖는다. 따라서 수평 방향으로 배열되어 있는 피사체들 사이의 깊이 정보는 얻을 수 있지만, 수직 방향으로 배열되어 있는 피사체들 사이의 깊이 정보는 얻을 수 없다.2A shows an exemplary positional relationship between the pixels 131a and 131b of the image sensor 130 and the individual microlenses 121. As shown in FIG. As shown in FIG. 2A, only two pixels 131a and 131b can be arranged in the horizontal direction with respect to one microlens 121. The two pixels 131a and 131b corresponding to one microlens 121 can sense light at different points of view from the same point of the object. For example, the left pixel 131a senses a light ray passing through the right area of the entrance pupil of the main lens 110, and the right pixel 131b senses a light ray passing through the left area of the incident lens of the main lens. Lt; / RTI > In this case, two images having different viewpoints in the horizontal direction can be obtained. However, the two images thus obtained have the same viewpoint in the vertical direction with no time difference. Therefore, depth information between objects arranged in the horizontal direction can be obtained, but depth information between objects arranged in the vertical direction can not be obtained.

도 2b는 이미지 센서(130)의 화소(131a, 131b, 131c, 131d)들과 개개의 마이크로 렌즈(121) 사이의 다른 예시적인 위치 관계를 도시하고 있다. 도 2b를 참조하면, 하나의 마이크로 렌즈(121)에 대해 2×2로 배열된 4개의 화소(131a, 131b, 131c, 131d)들이 배치될 수도 있다. 이 경우에는 수평 방향의 시차뿐만 아니라 수직 방향의 시차도 얻을 수 있다. 따라서 수평 방향으로 배열되어 있는 피사체들 사이의 깊이 정보와 수직 방향으로 배열되어 있는 피사체들 사이의 깊이 정보를 모두 얻는 것이 가능하다.FIG. 2B shows another exemplary positional relationship between the pixels 131a, 131b, 131c, and 131d of the image sensor 130 and the individual microlenses 121. FIG. Referring to FIG. 2B, four pixels 131a, 131b, 131c, and 131d arranged in a 2 × 2 matrix may be disposed on one microlens 121. In this case, not only the parallax in the horizontal direction but also the parallax in the vertical direction can be obtained. Therefore, it is possible to obtain both the depth information between the objects arranged in the horizontal direction and the depth information between the objects arranged in the vertical direction.

한편, 일반적인 컬러 영상을 생성할 때, 각각의 마이크로 렌즈(121)는 컬러 영상의 단위 화소에 대응하게 된다. 예를 들어, 하나의 마이크로 렌즈(121)에 대해 배치된 2개의 화소(131a, 131b) 또는 4개의 화소(131a, 131b, 131c, 131d)의 출력을 합산하여 하나의 컬러 영상 신호를 얻을 수 있다. 즉, 제어부(140)는 하나의 마이크로 렌즈(121)에 대해 배치된 다수의 화소(131a, 131b, 131c, 131d)들의 출력들을 각각 이용하여 깊이 정보를 생성하고, 하나의 마이크로 렌즈(121)에 대해 배치된 다수의 화소(131a, 131b, 131c, 131d)들의 출력들을 합산하여 컬러 영상을 생성할 수 있다. 이를 위하여, 하나의 마이크로 렌즈(121)에 대해 배치된 다수의 화소(131a, 131b, 131c, 131d)들에는 동일한 컬러 필터가 배치될 수 있다. 예를 들어, 제 1 마이크로 렌즈(121)에 대해 배치된 다수의 화소(131a, 131b, 131c, 131d)들에는 적색 컬러 필터가 배치되고, 제 2 마이크로 렌즈(122)에 대해 배치된 화소(132a, 132b, 132c, 132d)들에는 녹색 컬러 필터가 배치되며, 제 3 마이크로 렌즈(123)에 대해 배치된 화소(133a, 133b, 133c, 133d)들에는 청색 컬러 필터가 배치될 수 있다. 즉, 하나의 마이크로 렌즈(121)에 대해 배치된 다수의 화소(131a, 131b, 131c, 131d)들은 동일한 색의 빛을 감지하도록 구성될 수 있다.On the other hand, when a general color image is generated, each microlens 121 corresponds to a unit pixel of a color image. For example, one color image signal can be obtained by summing outputs of two pixels 131a and 131b or four pixels 131a, 131b, 131c, and 131d disposed on one microlens 121 . That is, the controller 140 generates depth information using the outputs of the plurality of pixels 131a, 131b, 131c, and 131d disposed on one microlens 121, and outputs the depth information to one microlens 121 The color image can be generated by summing the outputs of the plurality of pixels 131a, 131b, 131c, and 131d arranged. For this purpose, the same color filter may be disposed in the plurality of pixels 131a, 131b, 131c, and 131d disposed to one microlens 121. [ For example, a red color filter is disposed on the plurality of pixels 131a, 131b, 131c, and 131d disposed with respect to the first microlens 121, and pixels 132a 132b, 132c and 132d are arranged with a green color filter and the pixels 133a, 133b, 133c and 133d arranged with respect to the third micro lens 123 are arranged with a blue color filter. That is, the plurality of pixels 131a, 131b, 131c, and 131d disposed for one microlens 121 may be configured to sense light of the same color.

상술한 바와 같이, 이미지 센서(130)의 실제 해상도와 관계 없이 컬러 영상의 해상도는 마이크로 렌즈 어레이(120) 내의 각각의 마이크로 렌즈(121)의 크기에 의해 결정된다. 예컨대, 도 2a의 경우에 컬러 영상의 해상도는 이미지 센서(130)의 실제 해상도의 1/2이며, 도 2b의 경우에는 컬러 영상의 해상도가 이미지 센서(130)의 실제 해상도의 1/4이 된다. 도 2a 및 도 2b에는 예시적으로 하나의 마이크로 렌즈(121)에 대해 2개의 화소(131a, 131b) 또는 4개의 화소(131a, 131b, 131c, 131d)가 배치되는 것으로 도시되어 있지만, 동시에 더 많은 시점을 갖는 다수의 영상들을 얻기 위하여 하나의 마이크로 렌즈(121)에 대해 배치되는 이미지 센서(130)의 화소의 개수를 증가시킬 수도 있다. 그러나 컬러 영상의 해상도는 그만큼 낮아지게 될 수 있다.The resolution of the color image is determined by the size of each microlens 121 in the microlens array 120 regardless of the actual resolution of the image sensor 130. [ 2A, the resolution of the color image is 1/2 of the actual resolution of the image sensor 130, and in FIG. 2B, the resolution of the color image is 1/4 of the actual resolution of the image sensor 130 . 2A and 2B illustratively show two pixels 131a and 131b or four pixels 131a, 131b, 131c and 131d arranged on one microlens 121, but at the same time, The number of pixels of the image sensor 130 disposed for one microlens 121 may be increased to obtain a plurality of images having a viewpoint. However, the resolution of the color image can be reduced as much.

본 실시예에 따른 영상 획득 장치(100)는 컬러 영상의 해상도 저하를 억제하면서 시점이 다른 다수의 영상들을 얻기 위하여 포커스 브라케팅을 통해 피사체 심도가 다른 다수의 영상을 취득한다. 이하, 본 실시예에 따른 영상 획득 장치(100)의 구체적인 동작 방법에 대해 상세하게 설명한다.The image capturing apparatus 100 according to the present embodiment acquires a plurality of images having different depths of focus through focus bracketing to obtain a plurality of images having different viewpoints while suppressing the resolution degradation of the color image. Hereinafter, a specific operation method of the image acquisition apparatus 100 according to the present embodiment will be described in detail.

먼저, 도 3은 본 실시예에 따른 영상 획득 장치(100)에 의해 촬영되는 다수의 피사체들의 위치를 예시적으로 도시하고 있다. 예를 들어, 영상 획득 장치(100)와의 거리 D1에 제 1 피사체(210)가 배치되어 있으며, 거리 D2에 제 2 피사체(220)가 배치되어 있고, 거리 D3에 제 3 피사체(230)가 배치되어 있다고 가정한다. 도 3에서 D0는 과초점 거리(hyperfocal distance)를 나타낸다. 과초점 거리는 카메라의 초점을 무한대에 맞추었을 때 상이 선명하게 맺히게 되는 카메라로부터 가장 짧은 거리이다. 따라서, D0보다 멀리 있는 피사체들에 대해서는 영상 획득 장치(100)의 초점을 무한대로 맞추었을 때 영상 획득 장치(100)와의 거리에 관계 없이 항상 선명한 상이 형성된다.3 illustrates an example of the position of a plurality of objects photographed by the image capturing apparatus 100 according to the present embodiment. For example, a first subject 210 is disposed at a distance D1 from the image capturing apparatus 100, a second subject 220 is disposed at a distance D2, and a third subject 230 is placed at a distance D3 . In Fig. 3, D0 represents the hyperfocal distance. And focal length are the shortest distances from the camera where the image is clearly defined when the focus of the camera is set to infinity. Therefore, when the focal point of the image capturing apparatus 100 is set to infinity for a subject farther than D0, a clear image is always formed irrespective of the distance to the image capturing apparatus 100. [

통상적인 카메라를 이용하여 상기 피사체(210, 220, 230)들을 촬영하여 얻은 영상에는, 일반적으로 피사체(210, 220, 230)들이 2차원 평면 상에 표시되기 때문에 피사체(210, 220, 230)들의 정확한 거리 정보는 사라지게 된다. 단지, 정확하게 초점이 맞은 피사체만이 선명하게 표시되고 초점이 맞지 않은 피사체는 블러(blur)가 발생하여 흐릿하게 보이므로, 초점이 맞지 않은 피사체가 초점이 맞은 피사체의 전방 또는 후방에 위치한다는 정도만을 알 수 있다.Since the images obtained by photographing the subjects 210, 220 and 230 using a conventional camera are generally displayed on the two-dimensional plane of the subjects 210, 220 and 230, the images of the subjects 210, 220 and 230 The exact distance information will disappear. However, since only a correctly-focused subject is clearly displayed, and an unfocused subject appears blurred due to blur, only an unfocused subject is located in front of or behind the focused subject Able to know.

반면, 본 실시예에 따른 영상 획득 장치(100)의 경우에는, 도 4a 내지 도 4c 및 도 5 내지 도 7을 통해 설명하는 바와 같이 깊이 정보를 얻을 수 있기 때문에, 피사체(210, 220, 230)들의 거리를 알 수 있다. 여기서, 도 4a 내지 도 4c는 피사체(210, 220, 230)와 영상 획득 장치(100)의 거리에 따른 포커싱 상태를 예시적으로 도시하고 있다. 도 4a 내지 도 4c에서는 단지 편의상 제 2 피사체(220)에만 초점이 맞았다고 가정한다. 또한, 도 5는 주 렌즈(110)에 의해 형성된 상(image)이 마이크로 렌즈 어레이(120)의 후방에 위치하는 경우에 2개의 화소열 사이의 상의 위치 차이를 도시하고 있으며, 도 6은 주 렌즈(110)에 의해 형성된 상이 마이크로 렌즈 어레이(120) 위에 정확하게 위치하는 경우에 2개의 화소열 사이의 상의 위치 차이를 도시하고 있고, 도 7은 주 렌즈(110)에 의해 형성된 상이 마이크로 렌즈 어레이(120)의 전방에 위치하는 경우에 2개의 화소열 사이의 상의 위치 차이를 도시하고 있다.On the other hand, in the case of the image capturing apparatus 100 according to the present embodiment, since depth information can be obtained as described with reference to FIGS. 4A to 4C and FIGS. 5 to 7, The distance between them. 4A to 4C illustrate focusing states according to the distances between the objects 210, 220, and 230 and the image capturing apparatus 100. FIG. 4A to 4C, it is assumed that only the second object 220 is focused for convenience. 5 shows the positional difference between the two pixel columns when an image formed by the main lens 110 is located behind the microlens array 120. Fig. 7 shows the positional difference between the two pixel columns when the image formed by the main lens 110 is accurately positioned on the microlens array 120 and FIG. The positional difference between the two pixel columns is shown.

일반적으로 렌즈의 초점길이는 입사광이 평행광인 경우(즉, 피사체가 무한대에 위치한 경우)를 가정한 것이다. 따라서, 실제 피사체는 렌즈의 초점길이보다 먼 거리에 상이 맺히게 되며, 피사체와 렌즈 사이의 거리가 가까워질수록 피사체의 상이 맺히는 거리는 길어지게 된다. 예컨대, 도 4a를 참조하면, 영상 획득 장치(100)에 가장 가까이 위치한 제 1 피사체(210)는 마이크로 렌즈 어레이(120)를 지나서 상(210')이 형성된다. 이 경우, 마이크로 렌즈 어레이(120)가 제 1 피사체(210)의 상(210')을 이미지 센서(130)에 정확히 맺지 못하기 때문에, 이미지 센서(130)에 의해 출력된 영상에서 제 1 피사체(210)는 흐릿하게 나타난다.In general, the focal length of a lens assumes that the incident light is parallel light (i.e., the object is located at infinity). Accordingly, the actual object is formed at a distance longer than the focal length of the lens, and the closer the distance between the object and the lens is, the longer the distance at which the image of the object is formed becomes longer. For example, referring to FIG. 4A, a first object 210 located closest to the image acquisition device 100 is formed through the microlens array 120 to form an image 210 '. In this case, since the microlens array 120 can not correctly capture the image 210 'of the first object 210 on the image sensor 130, the image of the first subject 210' 210) appear blurry.

통상적인 카메라로는 단지 제 1 피사체(210)에 초점이 맞지 않았다는 정보만을 얻게 된다. 그러나, 도 5를 참조하면, 본 실시예에 따른 영상 획득 장치(100)의 경우, 마이크로 렌즈 어레이(120)의 한 열(column)의 마이크로 렌즈들 내에 배열된 좌측 화소열(130a)과 우측 화소열(130b) 사이에 시차가 존재하기 때문에, 좌측 화소열(130a)과 우측 화소열(130b)이 각각 생성하는 영상 신호들 사이에 깊이 차이, 즉 화소 불일치(pixel disparity)가 발생하게 된다. 이러한 화소 불일치는 제 1 피사체(210)에 대한 깊이 값으로 역산될 수 있다. 따라서, 본 실시예에 따른 영상 획득 장치(100)는 제 1 피사체(210)에 대한 깊이 정보를 얻을 수 있다.The conventional camera only obtains information that the first subject 210 is out of focus. 5, in the case of the image acquisition apparatus 100 according to the present embodiment, the left pixel column 130a and the right pixel column 130b arranged in the microlenses of one column of the microlens array 120, A pixel disparity occurs between the video signals generated by the left pixel column 130a and the right pixel column 130b due to the parallax between the columns 130b. Such a pixel mismatch may be inversely multiplied by the depth value for the first object 210. Therefore, the image acquisition apparatus 100 according to the present embodiment can obtain depth information on the first object 210. [

또한, 도 4b를 참조하면, 제 1 피사체(210)보다 멀리 떨어져 있는 제 2 피사체(220)의 상(220')은 정확하게 마이크로 렌즈 어레이(120) 위에 형성된다. 이 경우, 마이크로 렌즈 어레이(120)는 제 2 피사체(220)의 상(220')을 정확하게 이미지 센서(130)에 맺을 수 있다. 따라서, 이미지 센서(130)에 의해 출력된 영상에서 제 2 피사체(220)는 선명하게 표시된다. 그리고 이 경우에는, 도 6에 도시된 바와 같이, 마이크로 렌즈 어레이(120)의 한 열의 마이크로 렌즈들 내에 배열된 좌측 화소열(130a)과 우측 화소열(130b)이 각각 생성하는 영상 신호들 사이에 깊이 차이가 없으므로 화소 불일치가 발생하지 않는다. 따라서 제 2 피사체(220)에 대한 깊이 값은 0(zero)이 된다.4B, an image 220 'of a second subject 220 farther from the first subject 210 is formed on the microlens array 120 precisely. In this case, the microlens array 120 can accurately connect the image 220 'of the second subject 220 to the image sensor 130. Therefore, the second subject 220 is clearly displayed in the image output by the image sensor 130. [ In this case, as shown in FIG. 6, between the image signals generated by the left pixel column 130a and the right pixel column 130b, which are arranged in the microlenses of one row of the microlens array 120, Since there is no depth difference, pixel mismatch does not occur. Accordingly, the depth value of the second subject 220 becomes zero.

또한, 도 4c를 참조하면, 제 2 피사체(220)보다 더 멀리 떨어져 있는 제 3 피사체(230)의 상(230')은 마이크로 렌즈 어레이(120)의 전방에 형성된다. 그러면, 마이크로 렌즈 어레이(120)가 제 3 피사체(230)의 상(230')을 이미지 센서(130)에 정확히 맺지 못하며, 이미지 센서(130)에 의해 출력된 영상에서 제 3 피사체(230)는 흐릿하게 나타난다. 그리고, 도 7을 참조하면, 마이크로 렌즈 어레이(120)의 한 열의 마이크로 렌즈들 내에 배열된 좌측 화소열(130a)과 우측 화소열(130b)이 각각 생성하는 영상 신호들 사이에 깊이 차이가 발생한다. 여기서, 도 5의 경우와 비교할 때, 도 7에서 좌측 화소열(130a)과 우측 화소열(130b)과 사이의 깊이 차이의 방향이 도 5와 반대이다. 예를 들어, 도 5의 경우에 깊이 값을 음(-)으로 정하고 도 7의 경우에 깊이 값을 양(+)으로 정할 수 있다. 따라서, 깊이 값이 음이면 피사체가 더 가까이 위치하고 깊이 값이 양이면 피사차가 더 멀리 위치한다는 것을 알 수 있다. 디포커스(defocus)가 크게 발생할수록 시차도 크게 발생하여 화소 불일치가 증가하게 된다. 따라서 깊이 값의 크기로부터 피사체의 거리도 대략적으로 알 수 있다.4C, an image 230 'of a third subject 230 further away from the second subject 220 is formed in front of the microlens array 120. The microlens array 120 can not accurately capture the image 230 'of the third object 230 on the image sensor 130 and the third object 230 on the image output by the image sensor 130 It appears dim. Referring to FIG. 7, a depth difference is generated between image signals generated by the left pixel column 130a and the right pixel column 130b, which are arranged in the microlenses of one row of the microlens array 120 . 5, the direction of the depth difference between the left pixel column 130a and the right pixel column 130b in FIG. 7 is opposite to that in FIG. For example, in the case of FIG. 5, the depth value is defined as negative (-), and in FIG. 7, the depth value may be defined as positive (+). Therefore, if the depth value is negative, it can be seen that the subject is closer and the depth value is greater, the subject is farther away. The greater the defocus, the greater the parallax and the greater the pixel mismatch. Therefore, the distance of the subject can be roughly known from the depth value.

상술한 방식으로, 본 실시예에 따른 영상 획득 장치(100)는 피사체에 대한 깊이 맵을 생성할 수 있으며, 깊이 정보를 갖는 영상을 얻을 수 있다. 깊이 맵에서 초점이 맞는 피사체의 깊이 값은 0이 되며, 초점이 맞는 피사체보다 전방에 배치된 피사체의 깊이 값은 음의 값을 가질 수 있고, 초점이 맞는 피사체보다 후방에 배치된 피사체에 대한 깊이 값은 양의 값을 가질 수 있다. 또한, 초점이 맞는 피사체와의 거리가 멀어질수록 깊이 값의 크기가 증가할 수 있다.In the above-described manner, the image capturing apparatus 100 according to the present embodiment can generate a depth map for a subject and obtain an image having depth information. The depth value of the subject that is focused on the depth map is 0 and the depth value of the subject positioned ahead of the focused subject is negative and the depth value of the subject positioned behind the focused subject The value can have a positive value. In addition, as the distance from the focused object increases, the depth value may increase.

도 8a 내지 도 8d는 도 3에 도시된 피사체(210, 220, 230)들을 촬영하여 얻은 영상의 깊이 맵들을 예시적으로 도시하고 있다. 예를 들어, 도 8a는 영상 획득 장치(100)가 거리 D0, 즉 과초점 거리에 초점을 맞춘 상태에서 얻은 깊이 맵(300)을 도시하고 있다. 이 경우, 깊이 맵(300)에서 각각의 피사체(210, 220, 230)에 대한 깊이 값(211, 221, 231)들은 모두 음의 깊이 값을 갖게 된다. 또한, 도 8b는 거리 D3에 있는 제 3 피사체(230)에 초점을 맞춘 상태에서 얻은 깊이 맵(310)을 도시하고 있다. 깊이 맵(310)에서 제 3 피사체(230)의 깊이 값(231)은 0이 되며, 나머지 피사체(210, 220)들의 깊이 값(211, 221)은 음의 값을 갖게 된다. 또한, 도 8c는 거리 D2에 있는 제 2 피사체(220)에 초점을 맞춘 상태에서 얻은 깊이 맵(320)을 도시하고 있다. 깊이 맵(320)에서 제 2 피사체(220)의 깊이 값(221)은 0이 되며, 제 1 피사체(210)의 깊이 값(211)은 음의 값을 갖고, 제 3 피사체(230)의 깊이 값(231)은 양의 값을 갖는다. 마지막으로, 도 8d는 거리 D1에 있는 제 1 피사체(210)에 초점을 맞춘 상태에서 얻은 깊이 맵(330)을 도시하고 있다. 깊이 맵(330)에서 제 1 피사체(210)의 깊이 값(211)은 0이 되며, 나머지 피사체(220, 230)들의 깊이 값(221, 231)들은 양의 값을 갖는다는 것을 알 수 있다.8A to 8D illustrate depth maps of an image obtained by photographing the subjects 210, 220 and 230 shown in FIG. For example, FIG. 8A shows a depth map 300 obtained with the image acquisition apparatus 100 focused on a distance D0, i.e., a focal length. In this case, the depth values 211, 221, and 231 for each of the subjects 210, 220, and 230 in the depth map 300 all have negative depth values. 8B shows a depth map 310 obtained by focusing on the third subject 230 at the distance D3. The depth value 231 of the third subject 230 becomes 0 in the depth map 310 and the depth values 211 and 221 of the remaining subjects 210 and 220 become negative values. Also, FIG. 8C shows the depth map 320 obtained while focusing on the second object 220 at the distance D2. The depth value 221 of the second subject 220 becomes 0 in the depth map 320 and the depth value 211 of the first subject 210 has a negative value and the depth value 221 of the third subject 230 The value 231 has a positive value. Finally, FIG. 8D shows a depth map 330 obtained with focus on the first subject 210 at distance D1. The depth value 211 of the first subject 210 is 0 in the depth map 330 and the depth values 221 and 231 of the remaining subjects 220 and 230 have a positive value.

상술한 바와 같이, 깊이 맵 내에서 깊이 값이 0인 피사체에 대해서는 초점이 맞은 것이라고 판단할 수 있다. 또한, 깊이 값의 크기 및 부호를 통해 초점이 맞지 않은 피사체가 초점이 맞은 피사체에 대해 전방 또는 후방에 어느 정도의 거리만큼 떨어져 있는 지 알 수 있다. 따라서, 서로 다른 거리에 있는 피사체들에 대해 각각 초점이 맞는 다수의 영상을 구하면, 사용자가 선택한 피사체에 초점이 맞는 영상을 디스플레이 하는 것이 가능하다.As described above, it can be determined that a subject having a depth value of 0 in the depth map is focused. In addition, the magnitude and sign of the depth value can be used to know how far away the subject is out of focus from the front or back of the focused subject. Accordingly, it is possible to display an image focused on a subject selected by the user by obtaining a plurality of images each focused on subjects at different distances.

서로 다른 거리에 있는 다수의 피사체들 중에서 사용자가 선택한 특정한 피사체에 대해서만 초점이 맞은 선명한 영상으로 처리하고 나머지 피사체에 대해서는 초점이 맞지 않은 흐릿한 영상으로 처리하는 것을 리포커싱(refocusing)이라고 한다. 리포커싱을 수행하기 위해서는 기본적으로 2가지 정보, 즉, 서로 다른 거리에 있는 다수의 피사체들에 각각 초점이 맞은 다수의 영상, 및 각각의 피사체들 사이의 거리 정보를 포함하고 있는 깊이 맵이 요구된다. 깊이 맵이 없는 경우에는, 서로 다른 거리에 있는 다수의 피사체들에 각각 초점이 맞은 다수의 영상을 취득하더라도, 사용자가 선택한 특정한 피사체에 대해 초점이 맞은 영상을 후처리나 컴퓨터 알고리즘 연산을 통해 자동적으로 선택하는 것이 불가능하다. 깊이 맵이 없으면 어떠한 피사체에 대해 초점이 맞은 것인지 알 수 없기 때문이다. 따라서, 통상적인 카메라를 이용하여 피사체 심도를 달리하는 다수의 영상을 얻더라도 깊이 맵이 없기 때문에 리포커싱을 수행할 수는 없다. 이러한 점에서, 리포커싱 기능은 라이트 필드 카메라의 대표적인 기능이다. 통상적으로 라이트 필드 카메라는 리포커싱 기능을 위하여 1회의 촬영으로 시점이 다른 다수의 영상을 한꺼번에 취득하는데, 이로 인해 각각의 영상의 해상도가 저하될 수 있다.It is called refocusing that a sharp image that focuses only on a specific subject selected by the user from a plurality of subjects at different distances is processed and a blurred image which is not focused on the remaining subject is processed. In order to perform re-focusing, basically two pieces of information are required: a plurality of images each focused on a plurality of subjects at different distances, and a depth map including distance information between each of the subjects . In the case where there is no depth map, even if a plurality of images focused on a plurality of subjects at different distances are acquired, an image focused on a specific user selected by the user is automatically processed It is impossible to choose. Without a depth map, you can not know which subject was in focus. Therefore, even if a plurality of images having different subject depths are obtained by using a conventional camera, there is no depth map, so it is impossible to perform re-focusing. In this respect, the re-focusing function is a typical function of the light field camera. In general, a light field camera acquires a plurality of images at different times at one time in order to perform a re-focusing function, thereby reducing the resolution of each image.

본 실시예에 따른 영상 획득 장치(100)는, 1회의 촬영으로 시점이 다른 다수의 영상을 동시에 취득하는 대신, 포커스 브라케팅을 통해 시간차를 두고 피사체 심도를 달리하여 시점이 다른 다수의 영상을 취득할 수 있다. 예를 들어, 도 9는 일 실시예에 따른 영상 획득 방법에 따라 주 렌즈(110)의 위치를 이동시켜 순차적으로 피사체 심도를 변화시켜 포커스 브라케팅을 수행하는 예시적으로 과정을 도시하고 있다. 도 9를 참조하면, 먼저 ①로 표시된 거리에 초점이 맞도록 주 렌즈(110)의 위치를 이동시켜 촬영을 수행한 다음, 다시 주 렌즈(110)의 위치를 이동시켜 ②로 표시된 거리에 초점을 맞추어 촬영을 수행하고, 이어서 차례대로 ③, ④, ⑤로 표시된 거리에 맞도록 주 렌즈(110)를 이동시켜 각각 촬영을 수행할 수 있다. 도 9에는 화살표로 표시된 바와 같이 먼 쪽으로부터 가까운 쪽으로 포커스 브라케팅이 수행되는 것으로 도시되어 있으나, 반대로 가까운 쪽부터 먼 쪽으로 포커스 브라케팅을 수행하는 것도 가능하다.The image acquiring apparatus 100 according to the present embodiment acquires a plurality of images having different viewpoints at different time points with different focus depths through focus bracketing instead of acquiring a plurality of images having different viewpoints at the same time . For example, FIG. 9 illustrates an exemplary process of performing focus bracketing by moving a position of a main lens 110 according to an image acquisition method according to an embodiment, and sequentially changing a subject depth. 9, first, the position of the main lens 110 is moved so as to focus on the distance indicated by (1), and then the position of the main lens 110 is moved again to focus on the distance indicated by And then the main lens 110 is moved so as to correspond to the distances indicated by ③, ④ and ⑤, respectively, and the photographing can be performed respectively. Although focus bracketing is shown as being performed from the far side to the near side as shown by arrows in FIG. 9, it is also possible to perform focus bracketing from the near side to the far side.

피사체 심도를 조정하여 영상을 촬영함으로써 하나의 포커스 브라케팅 단계가 완료되면, 제어부(140)는 컬러 영상을 생성할 수 있으며, 촬영된 영상으로부터 영상처리를 통해 깊이 맵을 계산할 수 있다. 깊이 맵을 계산한 후에는, 영상 내에서 깊이 값에 따라 다수의 영역들을 구별할 수 있으며, 특히 영상 내에서 깊이 값이 0이 되는 영역 또는 깊이 값이 최소인 영역을 식별하여 메모리에 저장할 수 있다. 이러한 방식으로 포커스 브라케팅 동작이 완전히 종료될 때까지, 각각의 포커스 브라케팅 단계마다 컬러 영상과 깊이 맵을 구하고 깊이 값이 0인 초점이 맞는 영역 또는 깊이 값이 최소인 영역을 기억하여 둘 수 있다.When the focus bracketing step is completed by capturing an image by adjusting the subject depth, the controller 140 can generate a color image and calculate a depth map from the captured image through image processing. After calculating the depth map, a plurality of regions can be distinguished according to the depth value in the image. In particular, a region having a depth value of 0 or a region having a minimum depth value can be identified and stored in a memory . In this manner, the color image and the depth map can be obtained for each focus bracketing step until the focus bracketing operation is completely terminated, and an area in which the depth value is zero or a region having the minimum depth value can be stored.

포커스 브라케팅 동작이 완전히 종료된 후에는, 사용자가 관심 영역에서 초점이 맞는 영상을 얻어내기 위한 리포커싱 명령을 수행할 수 있다. 사용자가 선택한 영역에 대해 초점이 맞는 영상을 선택하는 기준은 깊이 맵이 된다. 예를 들어, 영상 내에서 임의의 위치에 있는 피사체를 사용자가 선택하면, 포커스 브라케팅을 통해 얻은 모든 깊이 맵을 참조하여 사용자가 선택한 피사체 영역에 대한 깊이 값을 비교한다. 그런 후, 사용자가 선택한 피사체 영역에 대한 깊이 값이 0이거나 또는 최소가 되는 깊이 맵을 선택하고, 선택된 깊이 맵에 대응하는 컬러 영상을 선택하여 출력하거나 화면에 디스플레이 함으로써 리포커싱 기능을 수행할 수 있다. 이러한 방식으로 선택된 컬러 영상은 사용자의 명령에 따라 별도로 저장될 수 있다. 또한 다른 관심 영역에 대한 리포커싱 동작을 더 수행할 수도 있다.After the focus bracketing operation is completely terminated, the user can perform a re-focusing command to obtain a focused image in the region of interest. The criterion for selecting an image focused on the area selected by the user is the depth map. For example, when the user selects an object at an arbitrary position in the image, the depth value of the selected object area is compared with all depth maps obtained through focus bracketing. Thereafter, a depth map in which the depth value is 0 or minimum for the object region selected by the user is selected, and a color image corresponding to the selected depth map is selected and output or displayed on the screen to perform the re-focusing function . The color image selected in this way can be stored separately according to the user's command. It is also possible to further perform a re-focusing operation for another area of interest.

리포커싱 동작의 또 다른 기능은 블러링 효과의 강화(blurring enhancement)이다. 즉, 상술한 리포커싱 동작을 통해 원하는 컬러 영상을 선택한 후에, 블러 스케일 팩터(blur scale factor)를 조정하여 영상 내에 초점이 맞은 피사체를 제외하고 다른 피사체에 대해 깊이 값의 크기에 비례하여 블러링 효과를 강화할 수 있다. 예를 들어, 도 8c에 도시된 깊이 맵(320)에 대응하는 컬러 영상이 선택되었다고 가정하면, 초점이 맞아서 깊이 값이 0인 제 2 피사체(220)의 영상을 그대로 두고, 제 2 피사체의 전방 및 후방에 배치된 다른 피사체(210, 230)의 영상에 대해서는 영상 처리를 통해 블러 스케일 팩터(blur scale factor)만큼 블러링 효과를 증가 또는 감소시킬 수 있다. 이러한 동작은 각각의 컬러 영상마다 그에 대응하는 깊이 정보를 갖기 때문에 가능한 것이다. 깊이 맵 내의 깊이 값들에 블러 스케일 팩터를 곱하면, 초점이 맞는 영상에 대해서는 깊이 값이 0이므로 블러 스케일 팩터의 값이 관계 없이 항상 0을 유지하지만, 깊이 값이 0이 아닌 영역에 대해서는 블러 스케일 팩터에 비례하여 깊이 값이 변화할 수 있다. 따라서, 깊이 맵의 스케일링된 깊이 값에 따라 컬러 영상의 블러 량을 연동시키는 알고리즘을 적용하면 간단하게 블러링 효과를 강화할 수 있다. 만약 깊이 맵 내에 0인 깊이 값이 존재하지 않을 경우에는 최소 깊이 값을 0으로 조정하는 것도 가능하다.Another function of the re-focusing operation is blurring enhancement. That is, after a desired color image is selected through the above-described re-focusing operation, a blur scale factor is adjusted so that a blurring effect is obtained in proportion to the magnitude of the depth value with respect to other subjects, . For example, if it is assumed that a color image corresponding to the depth map 320 shown in FIG. 8C is selected, the image of the second subject 220 with the depth value of 0 is left as it is, The blurring effect can be increased or decreased by a blur scale factor through image processing for images of other objects 210 and 230 disposed at the rear side and the rear side. This operation is possible because each color image has corresponding depth information for each color image. If the blur scale factor is multiplied by the depth values in the depth map, the blur scale factor is always 0 regardless of the value of the blur scale factor because the depth value is 0 for the focused image, The depth value can be changed in proportion to the depth of the film. Therefore, the blurring effect can be enhanced simply by applying an algorithm that interlocks the amount of blur in the color image according to the scaled depth value of the depth map. It is also possible to adjust the minimum depth value to 0 if there is no depth value of 0 in the depth map.

상술한 바와 같이, 본 실시예에 따른 영상 획득 장치(100)에 따르면, 주 렌즈(100)의 위치를 변화시켜 초점을 조절하면서 다수 회의 촬영을 수행함으로써 피사체 심도 또는 시점이 서로 다른 다수의 영상들을 얻을 수 있기 때문에, 시점이 서로 다른 영상들의 개수를 증가시키기 위하여 개개의 마이크로 렌즈(121)의 크기를 증가시킬 필요가 없다. 따라서, 마이크로 렌즈(121)의 크기를 이미지 센서(130)의 화소 크기의 2배 또는 4배 정도로 최소화하여 영상의 해상도 저하를 억제시키면서, 시점이 서로 다른 영상들의 개수를 충분히 확보하는 것이 가능하다.As described above, according to the image capturing apparatus 100 according to the present embodiment, by performing a plurality of photographs while adjusting the focus by changing the position of the main lens 100, a plurality of images It is not necessary to increase the size of the individual microlenses 121 in order to increase the number of images having different viewpoints. Accordingly, it is possible to minimize the size of the microlens 121 to about twice or four times the pixel size of the image sensor 130, thereby suppressing the resolution degradation of the image, and sufficiently securing the number of images having different viewpoints.

한편, 포커스 브라케팅 동작을 수행하는 데 있어서, 모든 피사체들의 각각에 대해 각각 초점이 맞는 다수의 영상들을 얻어야 하므로 브라케팅 스텝을 최적으로 결정하는 것이 중요할 수 있다. 브라케팅 스텝이 너무 짧으면 동일한 피사체에 대해 초점이 맞는 다수의 잉여 영상들이 산출되고 촬영 횟수가 지나치게 많아지며, 브라케팅 스텝이 너무 크면 일부 피사체에 대해서는 정확히 초점이 맞는 영상을 얻지 못할 수도 있다.On the other hand, in performing the focus bracketing operation, it is important to determine the bracketing step optimally since it is necessary to acquire a plurality of images each focused on each of all subjects. If the bracketing step is too short, a number of surplus images that are focused on the same subject are calculated and the number of times of shooting is too large. If the bracketing step is too large, it may not be possible to obtain an image that is focused accurately on some subjects.

최적의 브라케팅 스텝을 도출하기 위해, 허용착란원(circle of confusion; CoC)과 초점심도(depth of focus; DOF)의 관계에 대해 먼저 살펴본다. 이론적으로 렌즈의 해상 능력을 나타내는 광 스팟의 크기는 회절 한계에 도달하기 때문에, 주 렌즈(110)의 수차 및 조립 편차를 고려할 때 이론적인 광 스팟의 크기를 얻는 것은 현실적으로 불가능하다. 따라서, 회절 한계보다는 크지만 사용자가 눈으로 판단했을 때 초점이 맞았다고 인식하는 척도로 허용착란원을 통상적으로 사용한다. 예를 들어, 이미지 센서(130)에 맺힌 광 스팟의 크기가 허용착란원보다 작은 경우 사용자는 영상의 초점이 맞았다고 판단하게 되는 것이다.The relationship between the circle of confusion (CoC) and the depth of focus (DOF) is first discussed to derive the optimal bracketing step. It is practically impossible to obtain the theoretical size of the light spot in consideration of the aberration of the main lens 110 and the assembly deviation because the size of the light spot that theoretically indicates the resolving power of the lens reaches the diffraction limit. Therefore, the allowable confinement circle is usually used as a scale that is larger than the diffraction limit but is recognized as being in focus when the user judges by eye. For example, when the size of the light spot formed on the image sensor 130 is smaller than the allowable confusion circle, the user determines that the image is focused.

도 10 및 도 11은 허용착란원과 초점심도 사이의 관계를 도시하는 것으로, 도 10은 주 렌즈(110)에 의해 광 스팟이 형성되는 영역(A)을 개략적으로 나타내고 있고, 도 11은 도 10에 도시된 영역(A)을 확대하여 보이고 있다. 도 10 및 도 11을 참조하면, S는 이론적인 회절 한계인 광 스팟을 나타내며, CoC는 초점이 맞은 것으로 인정되는 허용착란원을 나타내고, DOF는 허용착란원이 유지되는 구간, 즉 초점이 맞았다고 인정되는 구간인 초점심도를 나타낸다. 도 11에 표시된 바와 같이, 초점심도는 주 렌즈(110)의 F 수(F number)(개구율)와 허용착란원의 크기에 의해 결정된다(즉 DOF = 2×F 수×CoC).Figs. 10 and 11 show the relationship between the allowable confusion circle and the depth of focus. Fig. 10 schematically shows a region A where the light spot is formed by the main lens 110, Fig. 11 is a cross- The area A shown in Fig. Referring to Figs. 10 and 11, S represents a light spot that is the theoretical diffraction limit, CoC represents a permitted confusion circle recognized as focused, and DOF represents the interval during which the permitted confusion circle is maintained, i.e., Which indicates the depth of focus, which is an acceptable section. As shown in Fig. 11, the depth of focus is determined by the F number (aperture ratio) of the main lens 110 and the size of the allowable confusion circle (i.e., DOF = 2 x F x CoC).

예를 들어, 주 렌즈(110)의 초점거리가 4.2mm, 주 렌즈(110)의 F 수가 2.2, 마이크로 렌즈(121)의 피치가 2.24um라고 가정하면, 540nm의 파장을 갖는 녹색광에 대한 이론적인 광 스팟의 크기는 회절 한계인 1.45um (=1.22×F 수×파장)가 된다. 또한, CoC의 크기를 마이크로 렌즈(121)의 피치 1개(즉, 컬러 영상의 1개 단위 화소의 크기)에 해당하는 것으로 설정하면 DOF는 2×2.2×2.24um = 9.856um가 될 수 있고, CoC의 크기를 마이크로 렌즈(121)의 피치 2개(즉, 컬러 영상의 2개 단위 화소의 크기)에 해당하는 것으로 설정하면 DOF는 2×2.2×4.48um = 19.712um가 될 수 있다.For example, assuming that the focal length of the main lens 110 is 4.2 mm, the F number of the main lens 110 is 2.2, and the pitch of the microlens 121 is 2.24 micrometers, the theoretical value for green light having a wavelength of 540 nm The size of the optical spot is 1.45um (= 1.22xF number x wavelength) which is the diffraction limit. Further, if the size of the CoC is set to correspond to one pitch of the microlenses 121 (that is, the size of one unit pixel of the color image), the DOF can be 2 x 2.2 x 2.24 um = 9.856 um, If the size of the CoC is set to correspond to two pitches of the microlenses 121 (i.e., the size of two unit pixels of the color image), the DOF can be 2 x 2.2 x 4.48 um = 19.712 um.

임의의 거리에 위치한 피사체에 대해 이미지 센서(130) 상에서 초점이 맞은 영상으로 취득하기 위해서는 피사체의 결상 위치가 DOF 구간 내에만 들어오게 하면 된다. 따라서, 무한 거리부터 최단초점거리(closest focusing distance)까지 위치한 모든 피사체들에 대해 각각 초점이 맞는 영상들을 얻기 위해, DOF 구간 내에 결상되는 모든 피사체는 초점이 맞는다 점을 이용하여 주 렌즈(110)의 초점 조절을 위한 구동 간격을 DOF 단위로 최적화할 수 있다. 예를 들어, 과초점 거리 이상의 거리에 대해 초점을 맞출 수 있는 지점을 주 렌즈(110)의 초점 구동을 위한 초기 위치로 설정하고, 포커스 브라케팅의 각 스텝이 진행될 때마다 초기 위치로부터 DOF 단위로 주 렌즈(110)의 위치를 변화시킬 수 있다. 이러한 방식으로 포커스 브라케팅 동작이 완전히 종료되는 지점(즉, 최단초점거리에 대해 초점을 맞출 수 있는 지점)까지 DOF 단위로 포커스 브라케팅의 각 스텝을 진행할 수 있다.In order to acquire an image focused on the image sensor 130 with respect to a subject located at an arbitrary distance, the imaging position of the subject may be within the DOF section. Therefore, in order to obtain images that are focused on all the objects located from the infinite distance to the closest focusing distance, all the objects focused within the DOF section are focused on the main lens 110 The drive interval for focus adjustment can be optimized in DOF units. For example, a point at which focus can be focused with respect to a distance over the focal length is set as an initial position for driving the focus of the main lens 110, and the focus bracketing is performed every week The position of the lens 110 can be changed. In this way, each step of focus bracketing can be performed in DOF units to the point where the focus bracketing operation is completely terminated (that is, the point where the focus can be focused on the shortest focal distance).

그러면 포커스 브라케팅을 위한 총 스텝의 수는 (총 궤적)/(DOF)로 정의될 수 있다. 예컨대, 주 렌즈(110)의 초점거리가 4.2mm, 주 렌즈(110)의 F 수가 2.2, 마이크로 렌즈(121)의 피치가 2.24um라고 가정하면, 과초점 거리에 초점을 맞출 때 주 렌즈(110)와 이미지 센서(130) 사이의 거리는 초점거리와 동일한 4.2mm가 된다. 또한, 최단초점거리를 10cm라고 가정하면, 최단초점거리에 초점을 맞출 때 이미지 센서(130)와 주 렌즈(110) 사이의 거리는 렌즈 방정식에 의해 4.3841mm로 계산된다. 따라서, 무한 거리에서 최단초점거리까지의 모든 피사체에 대해 초점이 맞은 영상을 얻기 위한 포커스 브라케팅 동작을 위한 초점 구동의 총 궤적은 4.3841mm와 4.2mm의 차인 184.1um가 된다.Then the total number of steps for focus bracketing can be defined as (total trajectory) / (DOF). For example, assuming that the focal length of the main lens 110 is 4.2 mm, the F number of the main lens 110 is 2.2, and the pitch of the micro lens 121 is 2.24 um, And the image sensor 130 is 4.2 mm, which is the same as the focal distance. Further, assuming that the shortest focal distance is 10 cm, the distance between the image sensor 130 and the main lens 110 when focusing on the shortest focal distance is calculated as 4.3841 mm by the lens equation. Therefore, the total trajectory of the focus drive for the focus bracketing operation to obtain the focused image for all subjects from the infinite distance to the shortest focal distance is 184.1 um which is a difference of 4.3841 mm and 4.2 mm.

이제, 위에서 예시된 주 렌즈(110)의 포커스 브라케팅 동작을 위한 초점 구동의 총 궤적과 DOF를 알고 있으므로, 포커스 브라케팅 동작을 위한 총 스텝의 수를 구할 수 있다. 예를 들어, 허용착란원(CoC)의 크기를 마이크로 렌즈(121)의 피치 1개로 설정한 경우에 DOF는 9.856um이므로, 포커스 브라케팅 동작을 위한 총 스텝의 수는 184.1um/9.856um = 18.7로 계산되어 초기 위치를 포함하여 총 19 스텝이 될 수 있다. 과초점 거리에 초점을 맞출 때의 주 렌즈(110)와 이미지 센서(130) 사이의 거리를 Dh라 하고, 최단초점거리에 초점을 맞출 때 주 렌즈(110)와 이미지 센서(130) 사이의 거리를 Dc라 할 때, 주 렌즈(110)와 이미지 센서(130) 사이의 거리가 Dh와 Dc 사이에서 DOF 단위로 19 스텝만큼 변화할 수 있다. 위와 동일한 방식으로, 허용착란원(CoC)의 크기를 마이크로 렌즈(121)의 피치 2개로 설정한 경우에는 DOF는 19.712um이므로, 포커스 브라케팅 동작의 총 스텝 수는 184.1um/19.712um = 9.4로 계산되어 초기 위치를 포함하여 총 10 스텝이 될 수 있다. 즉, 주 렌즈(110)와 이미지 센서(130) 사이의 거리가 Dh와 Dc 사이에서 DOF 단위로 10 스텝만큼 변화할 수 있다.Now, since the total trajectory and the DOF of the focus drive for the focus bracketing operation of the main lens 110 illustrated above are known, the total number of steps for the focus bracketing operation can be obtained. For example, when the size of the allowable confocal circle CoC is set to one pitch of the microlenses 121, the DOF is 9.856 um, so that the total number of steps for the focus bracketing operation is 184.1 um / 9.856 um = 18.7 It can be calculated and total 19 steps including initial position. The distance between the main lens 110 and the image sensor 130 when focusing on the focal length is Dh and the distance between the main lens 110 and the image sensor 130 when focusing on the shortest focal distance, The distance between the main lens 110 and the image sensor 130 can be changed by 19 steps in units of DOF between Dh and Dc. In the same manner as above, when the size of the allowable confusion circle CoC is set to two pitches of the microlens 121, the DOF is 19.712 um, so that the total number of steps of the focus bracketing operation is calculated as 184.1 um / 19.712 um = 9.4 And can be a total of 10 steps including the initial position. That is, the distance between the main lens 110 and the image sensor 130 can be changed by 10 steps in DOF between Dh and Dc.

도 12는 허용착란원의 크기를 마이크로 렌즈(121)의 피치 1개로 설정한 경우에 피사체의 거리에 따라 피사체가 이미지 센서(130)에 맺힐 때의 광 스팟 크기를 나타내는 그래프이다. 도 12의 그래프에서 세로축은 광 스팟의 크기를 컬러 영상의 단위 화소의 크기(마이크로 렌즈(121)의 피치)로 환산한 것으로, 회절 한계를 고려하지 않은 이상적인 광선이 초점 위치에 집광될 때 광 스팟의 크기가 화소 0개의 크기와 같다고 가정하였다. 또한, 도 12의 그래프는 거리가 5m인 지점에서 최단초점거리인 20cm까지에 대해 10스텝의 포커스 브라케팅 동작을 수행하여 얻은 것이다.12 is a graph showing the size of the light spot when the subject is formed on the image sensor 130 according to the distance of the subject when the size of the allowable confusion circle is set to one pitch of the micro lenses 121. FIG. In the graph of FIG. 12, the vertical axis represents the size of the light spot as the unit pixel size of the color image (the pitch of the microlenses 121), and when the ideal light without considering the diffraction limit is condensed at the focus position, Is equal to the size of pixel 0. Also, the graph of FIG. 12 is obtained by performing a focus bracketing operation of 10 steps for a distance of 5 m to a shortest focal distance of 20 cm.

도 12의 그래프를 참조하면, 포커스 브라케팅의 초기 위치에서는 무한 거리에서부터 과초점 거리까지에 위치한 피사체가 만드는 광 스팟의 크기가 컬러 영상의 하나의 단위 화소 내에 들어오게 된다. 과초점 거리보다 짧은 거리에 위치한 피사체가 만드는 광 스팟의 크기는 컬러 영상의 하나의 단위 화소의 크기보다 커지게 되어 결과적으로 블러가 발생하게 된다. 따라서, 포커스 브라케팅의 초기 위치에서는 과초점 거리보다 먼 거리에 위치한 피사체에 대해 초점이 맞은 영상을 취득할 수 있다.Referring to the graph of FIG. 12, at the initial position of the focus bracketing, the size of the light spot produced by the subject located from the infinite distance to the focal distance enters into one unit pixel of the color image. And the size of a light spot formed by a subject located at a distance shorter than the focal distance becomes greater than the size of one unit pixel of the color image, resulting in blur. Therefore, at the initial position of the focus bracketing, it is possible to acquire an image focused on a subject located farther than the over focal distance.

두 번째 포커스 브라케팅(1DOF Bracket offset)은 초기 포커스 브라케팅 위치에서 주 렌즈(110)를 하나의 DOF만큼 이동시킨 위치에서 수행된다. 도 12를 참조하면, 광 스팟의 크기가 컬러 영상의 하나의 단위 화소 내에 들어오게 되는 피사체의 심도가 이동한 것을 알 수 있다. 동일한 방식으로, "9DOF Bracket offset"까지 주 렌즈(110)의 위치를 하나의 DOF 단위로 차례로 이동시키게 되면, 20cm의 물체거리까지 초점이 맞는 피사체의 거리가 지속적으로 유지된다. 따라서 DOF 단위로 포커스 브라케팅을 수행할 때 무한 거리에서 최단초점거리까지 위치한 모든 피사체에 대해 초점이 맞는 영상을 얻을 수 있다.The second focus bracket offset (1 DOF Bracket offset) is performed at a position where the main lens 110 is shifted by one DOF at the initial focus bracketing position. Referring to FIG. 12, it can be seen that the depth of a subject in which the size of a light spot enters a unit pixel of a color image is shifted. In the same manner, when the position of the main lens 110 is sequentially moved by one DOF unit up to the "9 DOF Bracket offset", the distance of the focused object is continuously maintained up to an object distance of 20 cm. Therefore, when focus bracketing is performed in units of DOF, it is possible to obtain a focused image for all objects located from infinite distance to the shortest focal distance.

포커스 브라케팅의 초기 위치인 과초점 거리는 (초점거리×초점거리)/(F 수×CoC)이다. 예를 들어, 주 렌즈(110)의 초점거리가 4.2mm, F 수가 2.2일 때, 허용착란원의 크기를 마이크로 렌즈(121)의 피치 1개로 설정하면, 과초점 거리는 3.6m가 될 수 있다. 또한, 허용착란원의 크기를 마이크로 렌즈(121)의 피치 2개로 설정하면, 과초점 거리는 1.8m가 될 수 있다. 아래의 표 1은 도 12에 도시된 그래프를 기반으로 각각의 포커스 브라케팅 스텝에 대해 초점이 맞는 피사체의 심도를 표시한 것이다. 표 1에 정리된 바와 같이, DOF 단위로 주 렌즈(110)의 위치를 차례로 변화시키면서 포커스 브라케팅을 수행할 때, 무한 거리에서 최단초점거리까지 초점이 맞는 영상을 얻을 수 있다.The over focal distance, which is the initial position of the focus bracketing, is (focal length x focal length) / (F x CoC). For example, when the focal distance of the main lens 110 is 4.2 mm and the F number is 2.2, if the size of the allowable confusion circle is set to one pitch of the microlens 121, the over focal distance can be 3.6 m. Further, when the size of the allowable confusion circle is set to two pitches of the microlenses 121, the over focal distance can be 1.8 m. Table 1 below shows the depth of the subject focused on each focus bracketing step based on the graph shown in FIG. As shown in Table 1, when focus bracketing is performed while sequentially changing the position of the main lens 110 in units of DOF, it is possible to obtain a focused image from an infinite distance to a shortest focal distance.

Figure pat00001
Figure pat00001

또한, 도 13은 허용착란원의 크기를 마이크로 렌즈(121)의 피치 2개로 설정한 경우에 피사체의 거리에 따라 피사체가 이미지 센서(130)에 맺힐 때의 광 스팟 크기를 나타내는 그래프이다. 도 13의 그래프는 도 12의 그래프와 동일한 방식으로 얻은 것이며, 단지 허용착란원의 크기가 마이크로 렌즈(121)의 피치 2개인 경우를 고려한 것이다. 도 13을 참조하면, 허용착란원의 크기가 2배로 커지면, 도 12의 경우에 비하여 DOF가 2배로 증가하게 되어 포커스 브라케팅시 각각의 스텝의 피사체 심도가 증가한다는 것을 알 수 있다.13 is a graph showing the size of the light spot when the subject is formed on the image sensor 130 according to the distance of the subject when the size of the allowable confusion circle is set to two pitches of the micro lenses 121. [ The graph of FIG. 13 is obtained in the same manner as the graph of FIG. 12, and only the case where the size of the allowable confusion circle is two pitches of the microlenses 121 is considered. Referring to FIG. 13, when the size of the allowable confusion circle is doubled, DOF increases twice as compared with the case of FIG. 12, which shows that the subject depth of each step increases during focus bracketing.

아래의 표 2는 도 13에 도시된 그래프를 기반으로 각각의 포커스 브라케팅 스텝에 대해 초점이 맞는 피사체의 심도를 표시한 것이다. 표 2에 정리된 바와 같이, DOF 단위로 주 렌즈(110)의 위치를 차례로 변화시키면서 포커스 브라케팅을 수행할 때, 무한 거리에서 최단초점거리까지 초점이 맞는 영상을 얻을 수 있다.Table 2 below shows the depth of the subject focused on each focus bracketing step based on the graph shown in FIG. As shown in Table 2, when focus bracketing is performed while sequentially changing the position of the main lens 110 in units of DOF, it is possible to obtain a focused image from an infinite distance to a shortest focal distance.

Figure pat00002
Figure pat00002

위의 표 1 및 표 2에서 예시된 수치는 주 렌즈(110)의 초점거리가 4.2mm, 주 렌즈(110)의 F 수가 2.2, 마이크로 렌즈(121)의 피치가 2.24um라고 가정하여 얻은 것이다. 그러나, 이러한 수치들은 단지 이해를 돕기 위해 예시된 것이며, 본 실시예는 위에서 예시된 수치에 한정되는 것은 아니다. 설계에 따라 주 렌즈(110)의 초점거리와 F 수, 및 마이크로 렌즈(121)의 피치가 달라질 수도 있다. 그러한 설계의 변화와 관계 없이, 과초점 거리에서 최단초점거리까지 포커스 브라케팅 동작을 수행할 때 각각의 포커스 브라케팅 스텝에서 주 렌즈(110)의 위치 변화는 DOF 단위로 이루어질 수 있다.The numerical values shown in Tables 1 and 2 are obtained assuming that the focal length of the main lens 110 is 4.2 mm, the F number of the main lens 110 is 2.2, and the pitch of the micro lenses 121 is 2.24. However, these numerical values are merely illustrative examples, and the present embodiment is not limited to the values exemplified above. Depending on the design, the focal length of the main lens 110, the F number, and the pitch of the microlenses 121 may be different. Regardless of such design changes, the positional change of the main lens 110 in each focus bracketing step can be done in DOF when performing the focus bracketing operation from the over focal distance to the shortest focal distance.

표 1 및 표 2에서는 포커스 브라케팅 스텝의 수를 최적화하기 위하여, 컬러 영상에서 초점이 맞았다고 인정하는 범위를 허용착란원을 기초로 설정하고, 각각의 포커스 브라케팅 스텝에서 DOF 내에 상이 맺히는 피사체 심도를 구하였다. 그러나, 도 8a 내지 도 8d에서 설명한 깊이 맵에서 피사체에 대한 거리 정보는 표 1 및 표 2에 표시된 피사체 심도 구간에 비하여 훨씬 정밀하게 구할 수 있다. 예를 들어, 임의의 피사체에 대한 깊이 값은 인접한 화소에서 얻은 깊이 값 정보들 사이의 차이를 기초로 보간법(interpolation) 등을 이용하여 서브 화소 단위로 계산하는 것이 가능하다.In Table 1 and Table 2, to optimize the number of focus bracketing steps, we set the range in which the color image is considered to be in focus based on the allowable confusion circle, and calculate the depth of the object that forms an image in the DOF in each focus bracketing step Respectively. However, the distance information on the subject in the depth map described in FIGS. 8A to 8D can be obtained more accurately than the depth of field shown in Tables 1 and 2. For example, the depth value for an arbitrary subject can be calculated on a sub-pixel basis using interpolation or the like based on the difference between depth value information obtained from adjacent pixels.

한편, 도 9 내지 도 13을 기초로 설명한 순차적인 포커스 브라케팅 동작은 영상 획득 장치(100)의 시야 내에서 피사체들을 식별하기가 어렵거나 또는 식별 가능한 피사체의 수가 매우 많을 때 적용될 수 있다. 만약 영상 획득 장치(100)의 시야 내에 식별 가능한 피사체의 수가 적을 경우에는 피사체가 존재하는 거리에 대해서만 포커스 브라케팅 스텝을 조정하여 포커스 브라케팅 동작을 수행할 수도 있다. 예를 들어, 도 14는 다른 실시예에 따른 영상 획득 방법에 따라 피사체가 존재하는 피사체 심도에 대해서만 포커스 브라케팅 동작을 수행하는 과정을 예시적으로 도시하고 있다. 또한, 도 15a 내지 도 15c는 도 14에 도시된 피사체들을 촬영하여 얻은 영상의 깊이 맵들을 예시적으로 도시하고 있다.The sequential focus bracketing operation described with reference to FIGS. 9 to 13 can be applied when it is difficult to identify the subjects in the field of view of the image capturing apparatus 100 or when the number of identifiable subjects is very large. If the number of identifiable subjects is small in the field of view of the image acquisition apparatus 100, the focus bracketing operation may be performed by adjusting the focus bracketing step only for a distance at which the subject exists. For example, FIG. 14 exemplarily shows a process of performing a focus bracketing operation only on a subject depth where a subject exists in accordance with an image acquisition method according to another embodiment. 15A to 15C illustrate depth maps of an image obtained by photographing the subjects shown in FIG. 14. FIG.

도 14에 도시된 바와 같이, 영상 획득 장치(100)와의 거리 D1에 제 1 피사체(210)가 배치되어 있으며, 거리 D3에 제 3 피사체(230)가 배치되어 있다고 가정한다. 도 14에서 D0는 과초점 거리를 나타낸다. 또한, 도 15a는 과초점 거리에 초점을 맞춘 상태에서 얻은 깊이 맵(340)을 도시하고 있다. 이 경우, 깊이 맵(340)에서 각각의 피사체(210, 230)에 대한 깊이 값(211, 231)들은 모두 음의 값을 갖고, 과초점 거리와의 거리가 멀수록 깊이 값의 절대적인 크기가 증가한다. 도 15b는 제 3 피사체(230)에 초점을 맞춘 상태에서 얻은 깊이 맵(350)을 도시하고 있다. 상기 깊이 맵(350)에서 제 3 피사체(230)의 깊이 값(231)은 0이고 제 1 피사체(210)의 깊이 값(211, 221)은 음의 값을 갖는다. 또한, 도 15c는 제 1 피사체(210)에 초점을 맞춘 상태에서 얻은 깊이 맵(360)을 도시하고 있다. 상기 깊이 맵(360)에서 제 1 피사체(210)의 깊이 값(211)은 0이며 제 3 피사체(230)의 깊이 값(231)은 양의 값을 갖는다.As shown in FIG. 14, it is assumed that a first subject 210 is disposed at a distance D1 from the image capturing apparatus 100, and a third subject 230 is disposed at a distance D3. In Fig. 14, D0 represents the focal length. 15A also shows a depth map 340 obtained with focus on the focal length. In this case, the depth values 211 and 231 for each of the subjects 210 and 230 in the depth map 340 have negative values, and the absolute value of the depth value increases as the distance from the focal length increases. do. FIG. 15B shows a depth map 350 obtained by focusing on the third object 230. FIG. The depth value 231 of the third subject 230 in the depth map 350 is 0 and the depth values 211 and 221 of the first subject 210 are negative values. Fig. 15C shows a depth map 360 obtained by focusing on the first object 210. Fig. The depth value 211 of the first object 210 in the depth map 360 is 0 and the depth value 231 of the third object 230 is a positive value.

본 실시예에 따른 영상 획득 방법에서, 관심 피사체가 존재하는 거리를 미리 측정하고 피사체가 존재하는 피사체 심도로 포커스 브라케팅 스텝을 건너뛰는 방식으로 포커스 브라케팅 동작을 수행한다. 이를 위하여, 먼저 영상 획득 장치(100)의 초점을 과초점 거리에 맞추어 컬러 영상을 취득하고 컬러 영상으로부터 도 15a와 같은 깊이 맵(340)을 생성한다. 제어부(140)는 깊이 맵(340)을 분석하여 2개의 피사체(210, 230)들의 거리를 계산하고, 2개의 피사체(210, 230)들이 한 번에 포커싱 할 수 있는 1개의 DOF 구간 내에 있는 지를 검토한다.In the image acquiring method according to the present embodiment, a focus bracketing operation is performed by measuring a distance in which an object of interest exists in advance, and skipping the focus bracketing step with the subject depth at which the subject exists. To do this, first, a color image is acquired by adjusting the focal point of the image capturing apparatus 100 to a focal length, and a depth map 340 as shown in FIG. 15A is generated from the color image. The control unit 140 analyzes the depth map 340 to calculate the distances of the two subjects 210 and 230 and determines whether the two subjects 210 and 230 are within one DOF interval that can focus at one time Review.

2개의 피사체(210, 230)들이 한번에 포커싱 할 수 없는 거리만큼 떨어져 있으면, 2개의 피사체(210, 230)에 대해 각각 포커스 브라케팅 스텝을 수행한다. 예를 들어, 제 3 피사체(230)에 대해 초점을 맞출 수 있는 피사체 심도로 포커스 브라케팅 스텝을 수행하여 컬러 영상 및 도 15b에 도시된 깊이 맵(350)을 얻는다. 그런 후, 제 1 피사체(210)에 대해 초점을 맞출 수 있는 피사체 심도로 포커스 브라케팅 스텝을 수행하여 컬러 영상 및 도 15c에 도시된 깊이 맵(360)을 얻는다. 이러한 방식으로 모든 피사체(210, 230)들에 대해 포커스 브라케팅 스텝을 수행한 후에 포커스 브라케팅 동작이 종료될 수 있다.If the two subjects 210 and 230 are separated by a distance that can not be focused at one time, the focus bracketing step is performed on the two subjects 210 and 230, respectively. For example, the focus bracketing step is performed with the subject depth that can focus on the third subject 230 to obtain the color image and the depth map 350 shown in FIG. 15B. Then, a focus bracketing step is performed with the subject depth at which the first subject 210 can be focused, thereby obtaining the color image and the depth map 360 shown in FIG. 15C. In this manner, the focus bracketing operation can be terminated after the focus bracketing step is performed on all of the subjects 210 and 230.

무한 거리에서 최단초점거리까지의 피사체에 대해 DOF 단위로 순차적으로 포커스 브라케팅 스텝을 수행하는 도 9에 도시된 방법과 달리, 도 14에 도시된 방법은 과초점 거리에 대한 포커스 브라케팅 스텝을 먼저 수행한 후에 실제 피사체가 존재하는 곳에 대해서만 포커스 브라케팅 스텝을 수행한다. 그러나, 도 14에 도시된 방법의 경우에도, 도 9에 도시된 방법과 마찬가지로 DOF 단위로 포커스 브라케팅의 각 스텝을 진행한다. 따라서, 각각의 포커스 브라케팅 스텝을 진행하는 동안 주 렌즈(110)의 초점 위치는 DOF 1개 간격 또는 DOF의 정수배 간격으로 이동할 수 있다. 예를 들어, 영상 취득 장치(100)와 제 1 피사체(210)의 거리가 50cm이고, 제 3 피사체(230)의 거리가 1.5m라고 가정하면, 도 14에 도시된 방법에 따르면 표 1의 예를 참조할 때, 과초점 거리에 대한 포커스 브라케팅 스텝, 2번째 포커스 브라케팅 스텝 및 3번째 포커스 브라케팅 스텝만을 수행할 수 있다.Unlike the method shown in Fig. 9 in which the focus bracketing step is performed sequentially in units of DOF for an object from an infinite distance to a shortest focal distance, the method shown in Fig. 14 performs the focus bracketing step for the over focal distance first Perform the focus bracketing step only when there is an actual subject. However, in the case of the method shown in Fig. 14, each step of focus bracketing is performed in DOF units as in the method shown in Fig. Therefore, the focus position of the main lens 110 can be moved by an interval of DOF or an integral multiple of the DOF while proceeding with each focus bracketing step. For example, assuming that the distance between the image capturing apparatus 100 and the first subject 210 is 50 cm and the distance between the third subject 230 and the image capturing apparatus 100 is 1.5 m, according to the method shown in FIG. 14, , It is possible to perform only the focus bracketing step, the second focus bracketing step and the third focus bracketing step for the over-focus distance.

도 14에 도시된 방법에 따르면, 피사체의 수가 적은 경우나 또는 일부 피사체 심도 구간 내에 피사체가 존재하지 않는 경우에는 포커스 브라케팅 동작의 효율을 향상시킬 수 있다. 예를 들어, 영상 취득 장치(100)에 가장 가까운 피사체가 영상 취득 장치(100)로부터 50cm 떨어져 있는 경우, 표 1의 예에서 포커스 브라케팅 동작을 5번째 스텝까지만 수행하고 종료할 수 있다. 특히, 표 1 및 표 2에서 알 수 있듯이, 영상 취득 장치(100)에 가까워질수록 피사체 심도 구간이 좁아지면서 초점이 맞는 영상을 얻기 위한 포커스 브라케팅 스텝의 수가 증가한다. 따라서, 지근 거리에서 피사체의 존재 유무를 미리 판단하고, 지근 거리에 피사체가 없을 경우에는 지근 거리에 대한 포커스 브라케팅 스텝들을 생략함으로써 포커스 브라케팅 동작의 효율을 향상시킬 수 있다.According to the method shown in FIG. 14, the efficiency of the focus bracketing operation can be improved when the number of subjects is small, or when the subject does not exist in a part of the subject depth range. For example, when the object closest to the image capturing apparatus 100 is 50 cm away from the image capturing apparatus 100, the focus bracketing operation can be performed only up to the fifth step in the example of Table 1 and terminated. Particularly, as can be seen from Tables 1 and 2, as the depth of field of a subject becomes narrower toward the image capturing apparatus 100, the number of focus bracketing steps for obtaining a focused image increases. Accordingly, the presence or absence of the subject can be determined in advance at the closest distance, and the focus bracketing operation can be improved by omitting the focus bracketing steps for the closest distance when the subject is not present at the closest distance.

지금까지 설명한 포커스 브라케팅 동작은 제어부(140)가 구동부(141)와 액추에이터(115)를 제어하여 주 렌즈(110)를 이동시킴으로써 수행될 수 있다. 또한, 제어부(140)는 과초점 거리에 대한 초기 포커스 브라케팅 스텝을 수행한 후에, 도 9에 도시된 방법에 따라 모든 포커스 브라케팅 스텝을 순차적으로 진행할 것인지 또는 도 14에 도시된 방법에 따라 일부의 포커스 브라케팅 스텝만을 수행하고 나머지 포커스 브라케팅 스텝을 건너뛸 것인지 판단할 수 있다.The focus bracketing operation described so far can be performed by the control unit 140 controlling the driving unit 141 and the actuator 115 to move the main lens 110. In addition, after performing the initial focus bracketing step on the over focal length, the control unit 140 determines whether to proceed all the focus bracketing steps in sequence according to the method shown in Fig. 9, or in accordance with the method shown in Fig. 14, It is possible to perform only the bracketing step and judge whether to skip the remaining focus bracketing step.

예를 들어, 초기 포커스 브라케팅 스텝을 수행하여 얻은 컬러 영상 및 깊이 맵을 분석하여, 표 1 또는 표 2에 예시된 모든 피사체 심도 구간 내에 피사체가 존재하는 경우나 또는 피사체들을 특정하거나 식별하기 어려운 경우에는 도 9에 도시된 방법에 따라 모든 포커스 브라케팅 스텝을 순차적으로 진행할 수 있다. 또한, 표 1 또는 표 2에 예시된 일부 피사체 심도 구간에만 피사체가 존재하는 경우에는 도 14에 도시된 방법에 따라 일부의 포커스 브라케팅 스텝만을 수행하고 나머지 포커스 브라케팅 스텝을 건너뛸 수도 있다.For example, if the color image and the depth map obtained by performing the initial focus bracketing step are analyzed and it is difficult to identify or identify the subject in all of the subject depth ranges shown in Table 1 or Table 2 All focus bracketing steps can be sequentially performed according to the method shown in FIG. In the case where the subject exists only in some object depth regions illustrated in Table 1 or Table 2, only a part of focus bracketing steps may be performed according to the method shown in FIG. 14, and the remaining focus bracketing steps may be skipped.

도 9 내지 도 13을 참조하여 설명한 실시예의 경우, 피사체의 존재 여부와 관계 없이 모든 포커스 브라케팅 스텝들을 순차적으로 수행한다. 그리고, 도 14 및 도 15a 내지 도 15c를 참조하여 설명한 실시예의 경우, 포커스 브라케팅 동작의 효율을 향상시키기 위하여, 피사체가 존재하는 피사체 심도 구간에 대해서만 포커스 브라케팅 스텝을 수행한다. 그러나, 도 14 및 도 15a 내지 도 15c에서 설명한 실시예의 경우에도, 피사체가 존재하는 모든 피사체 심도 구간에 대해서 포커스 브라케팅 스텝을 수행하므로, 경우에 따라 수행할 포커스 브라케팅 스텝의 개수가 많아질 수 있다.In the embodiment described with reference to FIGS. 9 to 13, all focus bracketing steps are sequentially performed regardless of the presence or absence of a subject. In the embodiment described with reference to FIG. 14 and FIGS. 15A to 15C, in order to improve the efficiency of the focus bracketing operation, the focus bracketing step is performed only on the subject depth range in which the subject exists. However, in the embodiment described with reference to FIG. 14 and FIGS. 15A to 15C, since the focus bracketing step is performed on all subject depth ranges in which the subject exists, the number of focus bracketing steps to be performed may be increased in some cases.

포커스 브라케팅 동작의 효율을 더욱 향상시키기 위하여, 일부의 피사체가 존재하는 피사체 심도 구간에 대해서만 포커스 브라케팅 스텝을 수행할 수도 있다. 예를 들어, 초기 포커스 브라케팅 스텝을 수행하여 얻은 컬러 영상에서 사용자가 관심 있는 피사체를 선택하면, 선택된 피사체에 대해서만 도 14에 도시된 방법에 따라 포커스 브라케팅 스텝을 수행할 수도 있다.In order to further improve the efficiency of the focus bracketing operation, the focus bracketing step may be performed only on a subject depth range in which some subjects exist. For example, if the user selects a subject of interest in the color image obtained by performing the initial focus bracketing step, the focus bracketing step may be performed according to the method shown in FIG. 14 only for the selected subject.

또한, 피사체를 선택하는 과정을 자동으로 수행하는 것도 가능하다. 예를 들어, 도 16은 영상 획득 장치(100)의 초점을 과초점 거리에 맞추어 얻은, 2개의 중심 피사체가 있는 영상의 깊이 맵을 예시적으로 도시하고 있다. 도 16에서 알 수 있는 바와 같이, 배경에 해당하는 피사계(field)는 비교적 균일한 깊이 값을 가지며, 바닥에 해당하는 피사계는 점진적으로 변화하는 깊이 값을 갖는다. 그리고, 2개의 중심 피사체가 존재하는 영역은 배경 영역의 깊이 값과 명백하게 다른 깊이 값을 갖는다. 배경 영역의 깊이 값과 동일하거나 유사한 깊이 값을 갖는 피사체가 영상 내에 존재할 수도 있지만, 배경 영역의 깊이 값과 명백히 다른 깊이 값을 갖는 피사체가 존재하고 있다면, 일반적으로 촬영자의 의도는 배경 영역의 깊이 값과 명백히 다른 깊이 값을 갖는 피사체에 관심이 있다고 판단할 수 있다. 또한, 깊이 값이 점진적으로 변화하는 영역도 역시 일반적으로 촬영자의 관심 영역이 아니라고 판단할 수 있다.It is also possible to automatically perform the process of selecting a subject. For example, FIG. 16 exemplarily shows a depth map of an image with two central subjects obtained by adjusting the focus of the image capturing apparatus 100 to the focal length. As can be seen from FIG. 16, the field corresponding to the background has a relatively uniform depth value, and the field corresponding to the bottom has a gradually changing depth value. And, the area where the two central subjects exist has a depth value that is obviously different from the depth value of the background area. A subject having a depth value equal to or similar to the depth value of the background area may exist in the image but if there is a subject having a depth value that is clearly different from the depth value of the background area, And a subject having an apparently different depth value. It is also possible to judge that the region in which the depth value gradually changes is also not generally the region of interest of the photographer.

이러한 점을 근거로, 촬영자가 관심을 두고 있는 피사체(이하, 관심 피사체)를 결정하고, 관심 피사체의 심도 구간에 대해 포커스 브라케팅 동작을 수행함으로써 포커스 브라케팅 스텝의 수를 최소화할 수 있다. 또한, 포커스 브라케팅 스텝의 수를 더욱 줄이기 위하여, 다수의 관심 피사체 중에서도 사용자의 선호에 따라 일부의 관심 피사체만을 선택하여 선택된 관심 피사체에 대해 포커스 브라케팅 동작을 수행할 수 있다. 그러면 영상 획득 장치(100)의 포커스 브라케팅 동작으로 인한 프로세서의 연산 회수, 및 전력과 메모리의 소모를 줄일 수 있다.Based on this point, it is possible to minimize the number of focus bracketing steps by determining a subject (hereinafter referred to as an interested subject) that the photographer is interested in and performing a focus bracketing operation on the depth range of the subject of interest. Also, in order to further reduce the number of focus bracketing steps, a focus bracketing operation may be performed on a selected object of interest by selecting only a part of the object of interest according to the user's preference among a plurality of objects of interest. Thus, the number of operations of the processor due to the focus bracketing operation of the image capturing apparatus 100, and power consumption and memory consumption can be reduced.

구체적으로, 도 17은 관심 피사체를 자동으로 선택하여 선택된 관심 피사체가 존재하는 피사체 심도에 대해서만 포커스 브라케팅 동작을 수행하는 과정을 보이는 예시적인 흐름도이다. 도 17을 참조하면, 먼저 피사체 식별 단계(S10)에서, 영상 획득 장치(100)의 초점을 과초점 거리에 맞추어 얻은 초기 영상의 깊이 맵을 통해 배경과 후보 관심 피사체를 구별한다. 예를 들어, 초기 영상 내에서 배경 영역의 깊이 값과 명백히 다른 깊이 값을 가지며 깊이 값이 점진적으로 변화하지 않는 영역에 관심 피사체가 있다고 식별할 수 있다. 예를 들어, 세일런시(saliency) 물체 검출 알고리즘 등을 이용하여 주변과 비교하여 두드러지거나 돋보이는 윤곽을 추출하여 관심 피사체를 식별할 수 있다.Specifically, FIG. 17 is an exemplary flowchart illustrating a process of automatically performing a focus bracketing operation only on a subject depth in which an object of interest is selected by automatically selecting an object of interest. Referring to FIG. 17, in the object identifying step (S10), the background and the candidate object of interest are distinguished through the depth map of the initial image obtained by matching the focus of the image capturing apparatus 100 with the focal length. For example, it can be identified that there is an object of interest in an area that has a depth value that is distinctly different from the depth value of the background area in the initial image and in which the depth value does not change progressively. For example, a saliency object detection algorithm or the like can be used to identify a subject of interest by extracting a prominent or prominent outline compared to the surroundings.

다음으로, 피사체 선정 단계(S11)에서는, 피사체 식별 단계(S10)에서 식별된 후보 관심 피사체들 중에서 포커스 브라케팅 동작을 통해 촬영할 관심 피사체를 선택할 수 있다. 이를 위해, 제어부(140)는 메모리(도시되지 않음)에 저장되어 있는 사용자가 촬영한 영상들의 히스토리를 미리 분석하여 사용자의 의도 또는 선호도를 파악하고 그 결과를 메모리 등에 기억할 수 있다. 예를 들어, 촬영된 영상들에 대해 세일런시 물체 검출 알고리즘을 적용하여, 촬영된 영상들 내에서 가장 많이 나타나는 물체들을 메모리에 저장할 수 있다. 예를 들어, 촬영된 영상들 내에서, 인물, 꽃, 곤충, 새 등과 같은 다양한 종류의 물체들을 추출하여 분류할 수 있다. 그러면, 제어부(140)는 피사체 식별 단계(S10)에서 식별된 후보 관심 피사체들 중에서 메모리에 저장된 사용자의 선호 물체와 일치하는 피사체를 선택할 수 있다. 최종적으로 선택되는 관심 피사체들의 개수는 사용자의 설정에 따라, 예를 들어, 5개 이내와 같이 미리 정해져 있을 수 있다. 또는, 초기 영상 내의 위치 또는 크기와 같이 사용자가 미리 설정한 조건을 만족하는 피사체들을 모두 관심 피사체로 선택할 수도 있다.Next, in the object selecting step S11, an interested object to be photographed through the focus bracketing operation can be selected from the candidate objects of interest identified in the object identifying step S10. For this, the controller 140 may analyze the history of the images taken by the user stored in the memory (not shown) in advance to determine the intention or preference of the user, and store the result in a memory or the like. For example, a salient object detection algorithm may be applied to photographed images to store the objects that are most frequently displayed in photographed images in a memory. For example, various types of objects such as a person, flower, insect, bird, etc. can be extracted and classified within photographed images. Then, the control unit 140 can select a subject matching the user's favorite objects stored in the memory among the candidate interesting subjects identified in the subject identifying step S10. The number of the objects of interest to be finally selected may be predetermined, for example, within five, depending on the setting of the user. Alternatively, it is possible to select all the objects satisfying the condition preset by the user, such as the position or size in the initial image, as the object of interest.

또한, 사용자의 선호 물체와 일치하는 관심 피사체가 없는 경우에는, 예를 들어, 초기 영상의 중앙에 가장 가까운 순서대로 다수의 관심 피사체를 선택할 수도 있으며, 또는 초기 영상의 중심 부근에 배열된 다수의 관심 피사체들 중에서 크기가 가장 큰 순서대로 다수의 관심 피사체를 선택할 수도 있다. 또한, 예를 들어, 도 18에 도시된 바와 같이, 다수의 관심 피사체들이 초기 영상의 전체 영역에 고르게 분포하는 경우에는, 전체 관심 피사체들의 모두 선택할 수도 있다.If there is no object of interest that matches the user's preferred object, for example, a plurality of objects of interest may be selected in the order closest to the center of the initial image, or a plurality of interest objects arranged in the vicinity of the center of the initial image A plurality of interesting objects may be selected in the order of the largest size among the objects. Further, for example, as shown in FIG. 18, if a plurality of objects of interest are uniformly distributed over the entire area of the initial image, all the objects of interest may be selected.

피사체 식별 단계(S10)에서 식별된 관심 피사체의 개수가 단지 하나이거나 또는 사용자가 미리 설정한 관심 피사체의 개수보다 작을 경우에는, 피사체 선정 단계(S11)를 생략하고, 피사체 식별 단계(S10)에서 식별된 관심 피사체를 모두 선택할 수도 있다.If the number of the objects of interest identified in the object identifying step S10 is only one or less than the number of objects of interest preset by the user, the object selecting step S11 is skipped and the object identifying step S10 All of the objects of interest can be selected.

그런 후, 포커스 브라케팅 단계(S12)에서는, 최종적으로 선택된 관심 피사체들의 각각의 깊이 값을 이용하여, 최종적으로 선택된 관심 피사체가 존재하는 피사체 심도 구간에 대해서만 포커스 브라케팅 스텝을 수행할 수도 있다. 그리고, 각각의 포커스 브라케팅 스텝에서 촬영된 영상들을 메모리에 저장할 수 있다(S13).Then, in the focus bracketing step S12, it is possible to perform the focus bracketing step only for the subject depth range in which the finally selected interesting subject exists, using the depth value of each of the finally selected interesting subjects. Then, the images photographed in the respective focus bracketing steps can be stored in the memory (S13).

한편, 다수의 포커스 브라케팅 스텝을 수행하게 되면, 영상 획득 장치(100)의 전력 및 메모리 소비가 증가하고 제어부(140)의 프로세서 연산이 많아진다. 따라서, 포커스 브라케팅 동작을 수행하기에 배터리 및 메모리의 잔량이 부족해질 수 있다. 따라서, 포커스 브라케팅 동작을 수행하기 전에 배터리 및 메모리를 체크하여 배터리 및 메모리가 부족하다고 판단되면, 포커스 브라케팅 스텝의 개수를 제한할 수 있다.On the other hand, if a plurality of focus bracketing steps are performed, power consumption and memory consumption of the image capturing apparatus 100 increase, and the number of processor operations of the control unit 140 increases. Therefore, the remaining amount of the battery and the memory may be insufficient to perform the focus bracketing operation. Therefore, it is possible to limit the number of focus bracketing steps when it is determined that the battery and the memory are insufficient by checking the battery and the memory before performing the focus bracketing operation.

예를 들어, 도 19는 포커스 브라케팅 스텝을 최소화하기 위하여 핵심 피사체만을 자동으로 선택하여 선택된 핵심 피사체가 존재하는 피사체 심도에 대해서만 포커스 브라케팅을 수행하는 과정을 보이는 예시적인 흐름도이다. 도 19를 참조하면, 먼저 배터리 및 메모리 체크 단계(S20)에서 영상 획득 장치(100)의 배터리 및 메모리 잔량을 검사한다. 만약, 배터리 및 메모리 잔량이 포커스 브라케팅 동작을 수행하기에 충분하다고 판단되면, 도 17에 도시된 과정에 따라 포커스 브라케팅 동작을 수행할 수 있다. 그러나, 배터리 및 메모리 잔량이 부족하다고 판단되면, 도 19에 도시된 포커스 브라케팅 동작, 즉 단계(S21) 내지 단계(S24)을 수행할 수 있다.For example, FIG. 19 is an exemplary flowchart illustrating a process of automatically performing focus bracketing only on a subject depth where a selected core subject exists by automatically selecting only a core subject in order to minimize a focus bracketing step. Referring to FIG. 19, the battery and memory remaining amount of the image capturing apparatus 100 are checked in a battery and memory check step (S20). If it is determined that the battery and the remaining amount of memory are sufficient to perform the focus bracketing operation, the focus bracketing operation can be performed according to the procedure shown in FIG. However, if it is determined that the battery and the remaining amount of memory are insufficient, the focus bracketing operation shown in Fig. 19, that is, steps S21 to S24 may be performed.

피사체 식별 단계(S21)는, 도 17에서 설명한 피사체 식별 단계(S10)와 동일하게 수행될 수 있다. 피사체 선정 최소화 단계(S22)는 도 17에서 설명한 피사체 선정 단계(S11)와 동일한 알고리즘에 따라 수행되지만, 최종적으로 선택되는 관심 피사체의 개수를, 예를 들어, 사용자의 설정에 따라 1개 또는 2개 등으로 제한한다. 예를 들어, 다수의 후보 관심 피사체가 존재하는 경우, 사용자의 설정에 따라, 그 중에서 초기 영상의 중앙에 가장 가까운 1개 또는 2개의 관심 피사체를 선택할 수도 있으며, 또는 크기가 가장 큰 1개 또는 2개의 관심 피사체를 선택할 수도 있다. 피사체 식별 단계(S10)에서 식별된 관심 피사체의 개수가 단지 1개 또는 2개일 경우에는, 피사체 선정 단계(S11)를 생략하고, 피사체 식별 단계(S10)에서 식별된 관심 피사체를 모두 선택할 수도 있다.The subject identifying step S21 may be performed in the same manner as the subject identifying step S10 described with reference to FIG. The object selection minimizing step S22 is performed according to the same algorithm as the object selecting step S11 described with reference to FIG. 17, but the number of the objects of interest finally selected may be one or two, for example, . For example, when there are a plurality of candidate interesting objects, one or two interesting objects closest to the center of the initial image may be selected, or one or two largest objects may be selected according to the user's setting, You can also select objects of interest. If the number of objects of interest identified in the object identifying step S10 is only one or two, the object selecting step S11 may be omitted and all objects of interest identified in the object identifying step S10 may be selected.

그런 후, 포커스 브라케팅 단계(S23)에서는, 최종적으로 선택된 관심 피사체들의 각각의 깊이 값을 이용하여, 최종적으로 선택된 관심 피사체가 존재하는 피사체 심도 구간에 대해서만 포커스 브라케팅 스텝을 수행할 수도 있다. 그리고, 각각의 포커스 브라케팅 스텝에서 촬영된 영상들을 메모리에 저장할 수 있다(S24).Then, in the focus bracketing step S23, the focus bracketing step may be performed only on the subject depth range in which the finally selected interesting subject exists, using the depth values of the finally selected interesting subjects. Then, the images photographed in the respective focus bracketing steps can be stored in the memory (S24).

지금까지, 본 발명의 이해를 돕기 위하여 깊이 정보를 갖는 영상을 생성하는 영상 획득 장치 및 영상 획득 방법에 대한 예시적인 실시예가 설명되고 첨부된 도면에 도시되었다. 그러나, 이러한 실시예는 단지 본 발명을 예시하기 위한 것이고 이를 제한하지 않는다는 점이 이해되어야 할 것이다. 그리고 본 발명은 도시되고 설명된 설명에 국한되지 않는다는 점이 이해되어야 할 것이다. 이는 다양한 다른 변형이 본 기술분야에서 통상의 지식을 가진 자에게 일어날 수 있기 때문이다.Up to now, an exemplary embodiment of an image acquiring apparatus and an image acquiring method for generating an image having depth information in order to facilitate understanding of the present invention has been described and shown in the accompanying drawings. It should be understood, however, that such embodiments are merely illustrative of the present invention and not limiting thereof. And it is to be understood that the invention is not limited to the details shown and described. Since various other modifications may occur to those of ordinary skill in the art.

100.....영상 획득 장치 110.....주 렌즈
115.....액추에이터 120.....마이크로 렌즈 어레이
121.....마이크로 렌즈 130.....이미지 센서
131, 132, 133, 134.....화소 140.....제어부
141.....구동부
100 ..... Image acquisition device 110 ..... Main lens
115 ..... Actuator 120 ..... Micro lens array
121 ..... Micro lens 130 ..... Image sensor
131, 132, 133, 134 ..... pixel 140 ..... control unit
141 ..... drive

Claims (27)

입사광을 집광시키는 주 렌즈;
입사광을 감지하여 영상을 형성하기 위한 2차원 배열된 다수의 화소들을 구비하는 이미지 센서;
상기 주 렌즈와 이미지 센서 사이에 배치된 것으로, 2차원 배열된 다수의 마이크로 렌즈들을 구비하는 마이크로 렌즈 어레이; 및
상기 이미지 센서로부터 영상 신호를 받아 영상을 생성하는 제어부;를 포함하며,
상기 제어부는 상기 주 렌즈와 이미지 센서 사이의 거리를 변화시켜 피사체 심도가 상이한 다수의 영상을 취득하고 상기 취득된 다수의 영상 중 적어도 하나로부터 각각 적어도 하나의 깊이 맵을 생성하도록 구성된 영상 취득 장치.
A main lens for condensing incident light;
An image sensor having a plurality of two-dimensionally arranged pixels for detecting an incident light to form an image;
A microlens array disposed between the main lens and the image sensor, the microlens array having a plurality of microlenses arranged two-dimensionally; And
And a controller for receiving an image signal from the image sensor and generating an image,
Wherein the control unit is configured to acquire a plurality of images having different subject depths by varying a distance between the main lens and the image sensor and to generate at least one depth map from at least one of the acquired images.
제 1 항에 있어서,
상기 각각의 마이크로 렌즈는 상기 이미지 센서의 적어도 2개의 화소와 대응하도록 배치되는 영상 취득 장치.
The method according to claim 1,
Wherein each of the microlenses is arranged to correspond to at least two pixels of the image sensor.
제 2 항에 있어서,
상기 제어부는 동일한 마이크로 렌즈에 대응하여 배치된 적어도 2개의 화소들의 출력들을 각각 이용하여 깊이 맵을 생성하고, 동일한 마이크로 렌즈에 대응하여 배치된 적어도 2개의 화소들의 출력들을 합산하여 영상을 생성하도록 구성된 영상 취득 장치.
3. The method of claim 2,
Wherein the control unit is configured to generate a depth map by using outputs of at least two pixels arranged corresponding to the same microlens and to generate an image by summing outputs of at least two pixels arranged corresponding to the same microlens, Acquisition device.
제 1 항에 있어서,
상기 제어부는 초점심도(DOF)를 기본 스텝 단위로 하여 상기 주 렌즈와 이미지 센서 사이의 거리를 변화시키도록 구성된 영상 취득 장치.
The method according to claim 1,
Wherein the control unit is configured to change the distance between the main lens and the image sensor by using a depth of focus (DOF) as a basic step unit.
제 4 항에 있어서,
상기 제어부는, 상기 주 렌즈와 이미지 센서 사이의 거리를 초점심도 단위로 변화시킬 때마다 상기 이미지 센서를 통해 영상을 취득하고 깊이 맵을 생성함으로써, 무한 거리에서 최단초점거리까지 위치한 모든 피사체에 대해 초점이 맞는 영상을 취득하도록 구성된 영상 취득 장치.
5. The method of claim 4,
Wherein the control unit acquires an image through the image sensor and generates a depth map every time the distance between the main lens and the image sensor is changed in increments of depth of focus, And acquires a matching image.
제 5 항에 있어서,
상기 제어부는 상기 주 렌즈와 이미지 센서 사이의 거리를 초점심도 단위로 변화시킬 때마다 생성된 각각의 깊이 맵에서 깊이 값이 최소인 피사체 영역을 기억하도록 구성된 영상 취득 장치.
6. The method of claim 5,
Wherein the control unit is configured to store a subject area having a minimum depth value in each depth map generated each time the distance between the main lens and the image sensor is changed in units of depth of focus.
제 6 항에 있어서,
상기 제어부는, 상기 다수의 영상 내에서 특정한 피사체 영역이 선택되었을 때, 상기 선택된 피사체 영역에 대해 깊이 값이 최소가 되는 깊이 맵을 선택하고 선택된 깊이 맵에 대응하는 영상을 출력하도록 구성된 영상 취득 장치.
The method according to claim 6,
Wherein the control unit selects a depth map having a minimum depth value with respect to the selected subject area and outputs an image corresponding to the selected depth map when a specific subject area is selected in the plurality of images.
제 4 항에 있어서,
과초점 거리에 초점을 맞출 때의 상기 주 렌즈와 이미지 센서 사이의 거리를 Dh라 하고, 최단초점거리에 초점을 맞출 때의 상기 주 렌즈와 이미지 센서 사이의 거리를 Dc라 할 때, 상기 제어부는 상기 주 렌즈와 이미지 센서 사이의 거리를 Dh와 Dc 사이에서 초점심도 단위로 변화시키도록 구성된 영상 취득 장치.
5. The method of claim 4,
And a distance between the main lens and the image sensor when focusing on the shortest focal length is Dh and a distance between the main lens and the image sensor when the focal point is focused on the shortest focal distance is Dc, And a distance between the main lens and the image sensor is changed in units of depth of focus between Dh and Dc.
제 8 항에 있어서,
상기 제어부는 초기에 상기 주 렌즈와 이미지 센서 사이의 거리를 Dh로 선택하고 상기 주 렌즈와 이미지 센서 사이의 거리가 Dc가 될 때까지 상기 주 렌즈와 이미지 센서 사이의 거리를 초점심도 단위로 순차적으로 변화시키도록 구성된 영상 취득 장치.
9. The method of claim 8,
Wherein the control unit initially selects the distance Dh between the main lens and the image sensor and sequentially sets the distance between the main lens and the image sensor to the depth of focus until the distance between the main lens and the image sensor becomes Dc The image capturing device configured to change the image capturing device.
제 8 항에 있어서,
상기 제어부는 초기에 상기 주 렌즈와 이미지 센서 사이의 거리를 Dh로 선택하여 영상 및 깊이 맵을 얻고, 상기 깊이 맵을 분석하여 피사체가 존재하는 피사체 심도에 대해서만 영상을 얻도록 상기 주 렌즈와 이미지 센서 사이의 거리를 초점심도 단위로 조절하도록 구성된 영상 취득 장치.
9. The method of claim 8,
The control unit initially obtains an image and a depth map by selecting the distance between the main lens and the image sensor as Dh and analyzes the depth map to obtain an image only for a subject depth in which the subject exists, To the depth of focus unit.
제 4 항에 있어서,
상기 초점심도는 2×(상기 주 렌즈의 개구율)×허용착란원(CoC)에 의해 결정되며, 허용착란원의 크기는 상기 마이크로 렌즈의 피치 1개 또는 피치 2개와 같은 영상 취득 장치.
5. The method of claim 4,
Wherein the depth of focus is determined by 2 占 (aperture ratio of the main lens) 占 allowable confusion circle (CoC), and the size of the allowable confusion circle is one pitch or two pitches of the microlenses.
제 4 항에 있어서,
상기 제어부는, 과초점 거리에 초점을 맞추어 취득한 초기 영상의 깊이 맵을 통해 초기 영상 내의 배경과 후보 관심 피사체를 식별하고, 식별된 관심 피사체 중에서 미리 지정된 조건에 따라 관심 피사체를 선택하고, 선택된 관심 피사체들의 각각의 깊이 값을 이용하여 선택된 관심 피사체가 존재하는 피사체 심도 구간에 대해 촬영을 수행하도록 구성된 영상 취득 장치.
5. The method of claim 4,
The control unit may identify the background of the initial image and the candidate object of interest through the depth map of the initial image obtained by focusing on the focal length, select an object of interest according to a predefined condition among the identified objects of interest, And the depth value of each of the plurality of subject depths is used.
제 12 항에 있어서,
상기 제어부는 배터리 및 메모리 잔량에 따라 선택된 관심 피사체의 개수를 조절하도록 구성된 영상 취득 장치.
13. The method of claim 12,
Wherein the control unit is configured to adjust the number of objects of interest selected according to a battery and a remaining amount of memory.
주 렌즈, 이미지 센서 및 상기 주 렌즈와 이미지 센서 사이에 배치되며 2차원 배열된 다수의 마이크로 렌즈들을 구비하는 마이크로 렌즈를 포함하는 영상 취득 장치의 영상 취득 방법에 있어서,
상기 주 렌즈와 이미지 센서 사이의 거리를 변화시키는 단계;
상기 주 렌즈와 이미지 센서 사이의 거리가 변화할 때마다 영상을 취득함으로써 피사체 심도가 상이한 다수의 영상을 취득하는 단계; 및
상기 취득된 다수의 영상 중 적어도 하나로부터 각각 적어도 하나의 깊이 맵을 생성하는 단계;를 포함하는 영상 취득 방법.
A method for acquiring an image of an image acquisition apparatus including a main lens, an image sensor, and a microlens disposed between the main lens and the image sensor and including a plurality of microlenses arranged two-
Changing a distance between the main lens and the image sensor;
Acquiring a plurality of images having different object depths by acquiring an image every time the distance between the main lens and the image sensor changes; And
And generating at least one depth map from at least one of the plurality of acquired images.
제 14 항에 있어서,
상기 각각의 마이크로 렌즈는 상기 이미지 센서의 적어도 2개의 화소와 대응하도록 배치되는 영상 취득 방법.
15. The method of claim 14,
Wherein each of the microlenses is arranged to correspond to at least two pixels of the image sensor.
제 15 항에 있어서,
동일한 마이크로 렌즈에 대응하여 배치된 적어도 2개의 화소들의 출력들을 각각 이용하여 깊이 맵을 생성하는 단계; 및
동일한 마이크로 렌즈에 대응하여 배치된 적어도 2개의 화소들의 출력들을 합산하여 영상을 생성하는 단계;를 포함하는 영상 취득 방법.
16. The method of claim 15,
Generating a depth map using the outputs of at least two pixels arranged corresponding to the same microlens, respectively; And
And summing outputs of at least two pixels arranged corresponding to the same microlens to generate an image.
제 14 항에 있어서,
상기 주 렌즈와 이미지 센서 사이의 거리는 초점심도(DOF)를 기본 스텝 단위로 하여 변화하는 영상 취득 방법.
15. The method of claim 14,
Wherein the distance between the main lens and the image sensor changes with a depth of focus (DOF) as a unit of a basic step.
제 17 항에 있어서,
상기 주 렌즈와 이미지 센서 사이의 거리를 초점심도 단위로 변화시킬 때마다 영상을 취득하고 깊이 맵을 생성함으로써, 무한 거리에서 최단초점거리까지 위치한 모든 피사체에 대해 초점이 맞는 영상을 취득하는 영상 취득 방법.
18. The method of claim 17,
Acquiring an image every time the distance between the main lens and the image sensor is changed in units of depth of focus, and generating a depth map, thereby acquiring an image focused on all objects located from an infinite distance to a shortest focal distance .
제 18 항에 있어서,
상기 주 렌즈와 이미지 센서 사이의 거리를 초점심도 단위로 변화시킬 때마다 생성된 각각의 깊이 맵에서 깊이 값이 최소인 피사체 영역을 기억하는 단계를 더 포함하는 영상 취득 방법.
19. The method of claim 18,
Further comprising the step of storing a subject area having a minimum depth value in each generated depth map each time the distance between the main lens and the image sensor is changed in units of depth of focus.
제 19 항에 있어서,
상기 다수의 영상 내에서 특정한 피사체 영역을 선택하는 단계;
상기 선택된 피사체 영역에 대해 깊이 값이 최소가 되는 깊이 맵을 선택하는 단계; 및
상기 선택된 깊이 맵에 대응하는 영상을 출력하는 단계;를 더 포함하는 영상 취득 방법.
20. The method of claim 19,
Selecting a specific subject area within the plurality of images;
Selecting a depth map having a minimum depth value for the selected subject area; And
And outputting an image corresponding to the selected depth map.
제 17 항에 있어서,
과초점 거리에 초점을 맞출 때의 상기 주 렌즈와 이미지 센서 사이의 거리를 Dh라 하고, 최단초점거리에 초점을 맞출 때의 상기 주 렌즈와 이미지 센서 사이의 거리를 Dc라 할 때, 상기 주 렌즈와 이미지 센서 사이의 거리를 Dh와 Dc 사이에서 초점심도 단위로 변화시키는 영상 취득 방법.
18. The method of claim 17,
And the distance between the main lens and the image sensor when focusing on the shortest focal distance is Dh and the distance between the main lens and the image sensor when the focal point is focused on the shortest focal distance is Dc, And the image sensor is changed in units of depth of focus between Dh and Dc.
제 21 항에 있어서,
상기 주 렌즈와 이미지 센서 사이의 거리를 변화시키는 단계는:
상기 주 렌즈와 이미지 센서 사이의 거리를 Dh로 선택하는 초기 단계; 및
상기 주 렌즈와 이미지 센서 사이의 거리가 Dc가 될 때까지 상기 주 렌즈와 이미지 센서 사이의 거리를 초점심도 단위로 순차적으로 변화시키는 단계;를 포함하는 영상 취득 방법.
22. The method of claim 21,
Wherein changing the distance between the main lens and the image sensor comprises:
An initial step of selecting a distance Dh between the main lens and the image sensor; And
And sequentially changing the distance between the main lens and the image sensor in units of depth of focus until the distance between the main lens and the image sensor becomes Dc.
제 21 항에 있어서,
상기 주 렌즈와 이미지 센서 사이의 거리를 변화시키는 단계는:
상기 주 렌즈와 이미지 센서 사이의 거리를 Dh로 선택하는 초기 단계; 및
상기 초기 단계에서 얻은 깊이 맵을 분석하여 피사체가 존재하는 피사체 심도에 대해서만 영상을 얻도록 상기 주 렌즈와 이미지 센서 사이의 거리를 초점심도 단위로 변화시키는 단계;를 포함하는 영상 취득 방법.
22. The method of claim 21,
Wherein changing the distance between the main lens and the image sensor comprises:
An initial step of selecting a distance Dh between the main lens and the image sensor; And
And changing a distance between the main lens and the image sensor in units of depth of focus to analyze the depth map obtained in the initial step to obtain an image only for the depth of the subject in which the subject exists.
제 17 항에 있어서,
상기 초점심도는 2×(상기 주 렌즈의 개구율)×허용착란원(CoC)에 의해 결정되며, 허용착란원의 크기는 상기 마이크로 렌즈의 피치 1개 또는 피치 2개와 같은 영상 취득 방법.
18. The method of claim 17,
Wherein the depth of focus is determined by 2 占 (aperture ratio of the main lens) 占 allowable confusion circle (CoC), and the size of the allowable confusion circle is one pitch or two pitches of the microlenses.
제 17 항에 있어서,
과초점 거리에 초점을 맞추어 초기 영상을 취득하는 단계;
상기 취득한 초기 영상의 깊이 맵을 통해 초기 영상 내의 배경과 후보 관심 피사체를 식별하는 단계;
식별된 관심 피사체 중에서 미리 지정된 조건에 따라 관심 피사체를 선택하는 단계; 및
선택된 관심 피사체들의 각각의 깊이 값을 이용하여 선택된 관심 피사체가 존재하는 피사체 심도 구간에 대해 촬영을 수행하는 단계;를 더 포함하는 영상 취득 방법.
18. The method of claim 17,
And acquiring an initial image by focusing on a focal distance;
Identifying a background in the initial image and a candidate object of interest through a depth map of the acquired initial image;
Selecting an object of interest according to a predetermined condition among the identified objects of interest; And
And photographing the subject depth range in which the selected subject matter of interest is present using the depth values of the selected objects of interest.
제 25 항에 있어서,
배터리 및 메모리 잔량을 검사하는 단계; 및
배터리 및 메모리 잔량에 따라 선택된 관심 피사체의 개수를 조절하는 단계;를 더 포함하는 영상 취득 방법.
26. The method of claim 25,
Inspecting the remaining capacity of the battery and the memory; And
And adjusting the number of objects of interest selected according to the battery and the remaining amount of memory.
피사체 심도가 상이한 다수의 영상을 각각 취득하는 단계;
상기 각각의 취득된 영상으로부터 깊이 맵을 각각 생성하는 단계;
상기 각각의 깊이 맵에서 깊이 값이 최소인 피사체 영역을 기억하는 단계;
상기 다수의 영상 내에서 특정한 피사체 영역을 선택하는 단계;
상기 선택된 피사체 영역에 대해 깊이 값이 최소가 되는 깊이 맵을 선택하는 단계; 및
상기 선택된 깊이 맵에 대응하는 영상을 출력하는 단계;를 포함하는 리포커싱 방법.
Acquiring a plurality of images each having a different subject depth;
Generating a depth map from each of the acquired images;
Storing a subject area having a minimum depth value in each of the depth maps;
Selecting a specific subject area within the plurality of images;
Selecting a depth map having a minimum depth value for the selected subject area; And
And outputting an image corresponding to the selected depth map.
KR1020140135120A 2014-03-13 2014-10-07 Image pickup apparatus and image pickup method of generating image having depth information KR102228456B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201580013807.1A CN106105193B (en) 2014-03-13 2015-02-17 For generating the image pick up equipment and method of the image with depth information
PCT/KR2015/001572 WO2015137635A1 (en) 2014-03-13 2015-02-17 Image pickup apparatus and method for generating image having depth information
US14/626,289 US10375292B2 (en) 2014-03-13 2015-02-19 Image pickup apparatus and method for generating image having depth information

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20140029771 2014-03-13
KR1020140029771 2014-03-13

Publications (2)

Publication Number Publication Date
KR20150107571A true KR20150107571A (en) 2015-09-23
KR102228456B1 KR102228456B1 (en) 2021-03-16

Family

ID=54246038

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140135120A KR102228456B1 (en) 2014-03-13 2014-10-07 Image pickup apparatus and image pickup method of generating image having depth information

Country Status (2)

Country Link
KR (1) KR102228456B1 (en)
CN (1) CN106105193B (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180067627A (en) * 2015-11-20 2018-06-20 소니 주식회사 DEVICE AND METHOD FOR GENERATING PANORAMIC IMAGE
KR20190064152A (en) * 2017-11-30 2019-06-10 한국전자통신연구원 Device and method for generating hologram
KR20200114117A (en) * 2019-03-27 2020-10-07 서울대학교산학협력단 Distance measurement device and method
CN114375471A (en) * 2019-09-17 2022-04-19 夏普Nec显示器解决方案株式会社 Display control device, display device, and display control method

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106600529A (en) * 2016-11-28 2017-04-26 北京暴风魔镜科技有限公司 Method and device for acquiring full-focus panoramic image
CN107222734A (en) * 2017-06-30 2017-09-29 联想(北京)有限公司 A kind of image collecting device and electronic equipment
CN107238395A (en) * 2017-08-01 2017-10-10 珠海市微半导体有限公司 The light stream mileage sensor-based system and its focus depth adjusting method of mobile robot
DE102018103092A1 (en) * 2018-02-12 2019-08-14 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Focus setting display unit
CN108848295B (en) * 2018-08-31 2020-08-07 天津大学 Miniaturized ultrashort-focus visual imaging method
US11125993B2 (en) * 2018-12-10 2021-09-21 Facebook Technologies, Llc Optical hyperfocal reflective systems and methods, and augmented reality and/or virtual reality displays incorporating same
CN114125417A (en) * 2020-08-25 2022-03-01 北京小米移动软件有限公司 Image sensor, image pickup apparatus, image capturing method, image capturing apparatus, and storage medium
CN112285925A (en) * 2020-11-11 2021-01-29 南开大学 Variable-focus three-dimensional imaging system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090131466A (en) * 2008-06-18 2009-12-29 삼성전자주식회사 Apparatus and method for capturing digital image
US20100020187A1 (en) * 2006-04-04 2010-01-28 Georgiev Todor G Plenoptic camera
US20100141802A1 (en) * 2008-12-08 2010-06-10 Timothy Knight Light Field Data Acquisition Devices, and Methods of Using and Manufacturing Same
US20130088489A1 (en) * 2010-06-29 2013-04-11 Koninklijke Philips Electronics N.V. Method and system for producing a virtual output image from data obtained by an array of image capturing devices
WO2013167758A1 (en) * 2012-05-11 2013-11-14 Canon Kabushiki Kaisha Micro lens array and imaging apparatus

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100265385A1 (en) * 2009-04-18 2010-10-21 Knight Timothy J Light Field Camera Image, File and Configuration Data, and Methods of Using, Storing and Communicating Same
US7962033B2 (en) * 2008-01-23 2011-06-14 Adobe Systems Incorporated Methods and apparatus for full-resolution light-field capture and rendering
JP4524717B2 (en) * 2008-06-13 2010-08-18 富士フイルム株式会社 Image processing apparatus, imaging apparatus, image processing method, and program
JP4538766B2 (en) * 2008-08-21 2010-09-08 ソニー株式会社 Imaging device, display device, and image processing device
EP2244484B1 (en) * 2009-04-22 2012-03-28 Raytrix GmbH Digital imaging method for synthesizing an image using data recorded with a plenoptic camera
US8228417B1 (en) * 2009-07-15 2012-07-24 Adobe Systems Incorporated Focused plenoptic camera employing different apertures or filtering at different microlenses
KR101608970B1 (en) * 2009-11-27 2016-04-05 삼성전자주식회사 Apparatus and method for processing image using light field data
JP5699609B2 (en) * 2011-01-06 2015-04-15 ソニー株式会社 Image processing apparatus and image processing method
JP2013009274A (en) * 2011-06-27 2013-01-10 Canon Inc Image processing device, image processing method, and program
CN102314683B (en) * 2011-07-15 2013-01-16 清华大学 Computational imaging method and imaging system based on nonplanar image sensor
US9100639B2 (en) * 2011-09-20 2015-08-04 Panasonic Intellectual Property Management Co., Ltd. Light field imaging device and image processing device
CN103139470A (en) * 2011-11-30 2013-06-05 索尼公司 Digital imaging system
JP5681954B2 (en) * 2011-11-30 2015-03-11 パナソニックIpマネジメント株式会社 Imaging apparatus and imaging system
CN102739945B (en) * 2012-05-24 2014-09-03 上海理工大学 Optical field imaging device and method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100020187A1 (en) * 2006-04-04 2010-01-28 Georgiev Todor G Plenoptic camera
KR20090131466A (en) * 2008-06-18 2009-12-29 삼성전자주식회사 Apparatus and method for capturing digital image
US20100141802A1 (en) * 2008-12-08 2010-06-10 Timothy Knight Light Field Data Acquisition Devices, and Methods of Using and Manufacturing Same
US20130088489A1 (en) * 2010-06-29 2013-04-11 Koninklijke Philips Electronics N.V. Method and system for producing a virtual output image from data obtained by an array of image capturing devices
WO2013167758A1 (en) * 2012-05-11 2013-11-14 Canon Kabushiki Kaisha Micro lens array and imaging apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180067627A (en) * 2015-11-20 2018-06-20 소니 주식회사 DEVICE AND METHOD FOR GENERATING PANORAMIC IMAGE
KR20190064152A (en) * 2017-11-30 2019-06-10 한국전자통신연구원 Device and method for generating hologram
KR20200114117A (en) * 2019-03-27 2020-10-07 서울대학교산학협력단 Distance measurement device and method
CN114375471A (en) * 2019-09-17 2022-04-19 夏普Nec显示器解决方案株式会社 Display control device, display device, and display control method

Also Published As

Publication number Publication date
CN106105193B (en) 2019-01-11
KR102228456B1 (en) 2021-03-16
CN106105193A (en) 2016-11-09

Similar Documents

Publication Publication Date Title
KR102228456B1 (en) Image pickup apparatus and image pickup method of generating image having depth information
US10375292B2 (en) Image pickup apparatus and method for generating image having depth information
KR101632578B1 (en) Image capturing apparatus, image processing apparatus, and image processing method for generating auxiliary information for captured image
US10049439B2 (en) Image processing method, image processing apparatus, image capturing apparatus and non-transitory computer-readable storage medium
EP2709352B1 (en) Image pickup apparatus, image pickup system and method of controlling image pickup apparatus
US20130194387A1 (en) Image processing method, image processing apparatus and image-pickup apparatus
TWI577171B (en) Systems and methods for obtaining image depth information
JP6918485B2 (en) Image processing equipment and image processing methods, programs, storage media
US10395348B2 (en) Image pickup apparatus, image processing apparatus, and control method of image pickup apparatus
JP6381266B2 (en) IMAGING DEVICE, CONTROL DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2014153890A (en) Image processing apparatus, imaging apparatus, control method, and program
JP6415140B2 (en) Imaging apparatus and control method thereof
JP2015215571A (en) Imaging apparatus and control method thereof
JP6039301B2 (en) IMAGING DEVICE, IMAGING SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2016057421A (en) Focus adjustment device and focus adjustment method
KR20220012218A (en) Systems and methods for obtaining super macro images
JP2016071275A (en) Image-capturing device and focus control program
CN108540714B (en) Image capturing apparatus, image capturing system, image capturing apparatus control method, and storage medium
JP6530610B2 (en) Focusing device, imaging device, control method of focusing device, and program
JP5352003B2 (en) Image processing apparatus and image processing method
JP7019442B2 (en) Image pickup device and its control method
JP2017219786A (en) Control device, imaging device, control method, program, and storage medium
JP6714434B2 (en) Imaging device, control method thereof, program, and storage medium
JP2021152600A (en) Imaging apparatus and method for controlling the same, program, and storage medium
JP2018180187A (en) Imaging apparatus, imaging system, control method for imaging apparatus, and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant