KR102339662B1 - Image photographing apparatus and control methods thereof - Google Patents

Image photographing apparatus and control methods thereof Download PDF

Info

Publication number
KR102339662B1
KR102339662B1 KR1020150052446A KR20150052446A KR102339662B1 KR 102339662 B1 KR102339662 B1 KR 102339662B1 KR 1020150052446 A KR1020150052446 A KR 1020150052446A KR 20150052446 A KR20150052446 A KR 20150052446A KR 102339662 B1 KR102339662 B1 KR 102339662B1
Authority
KR
South Korea
Prior art keywords
sub
region
lens
pair
interest
Prior art date
Application number
KR1020150052446A
Other languages
Korean (ko)
Other versions
KR20160018331A (en
Inventor
이정원
강권정
김병호
최우석
김일도
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US14/822,418 priority Critical patent/US10078198B2/en
Publication of KR20160018331A publication Critical patent/KR20160018331A/en
Application granted granted Critical
Publication of KR102339662B1 publication Critical patent/KR102339662B1/en

Links

Images

Classifications

    • H04N5/23212
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/28Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for polarising
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/50Optics for phase object visualisation
    • G02B27/52Phase contrast optics
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B3/00Focusing arrangements of general interest for cameras, projectors or printers
    • G03B3/10Power-operated focusing

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

촬영 장치가 개시된다. 본 촬영 장치는, 렌즈를 통하여 입력되는 광을 수집하여 이미지를 감지하는 복수의 이미지 픽셀 및 위상을 감지하는 복수의 위상 감지 픽셀을 포함하는 이미지 센서 및 상기 이미지 센서 중 관심 영역(Region of Interest)을 복수의 서브 관심 영역으로 분할하고, 상기 복수의 서브 관심 영역 각각에 포함된 위상 감지 픽셀을 이용하여 상기 복수의 서브 관심 영역 각각에 대응되는 피사체에 대한 디스패리티(disparity) 정보를 산출하며, 상기 디스패리티 정보에 기초하여 상기 관심 영역 내의 초점 영역을 결정하는 프로세서를 포함한다. 그에 따라, 사용자의 편의성이 증대된다.A photographing apparatus is disclosed. The photographing apparatus includes an image sensor including a plurality of image pixels for sensing an image by collecting light input through a lens and a plurality of phase sensing pixels for detecting a phase, and a region of interest among the image sensors Divide into a plurality of sub-ROIs, calculate disparity information on a subject corresponding to each of the plurality of sub-ROIs by using a phase detection pixel included in each of the plurality of sub-ROIs, and and a processor for determining a focal region within the region of interest based on parity information. Accordingly, the user's convenience is increased.

Description

촬영 장치 및 그 제어 방법 { IMAGE PHOTOGRAPHING APPARATUS AND CONTROL METHODS THEREOF }Filming device and its control method { IMAGE PHOTOGRAPHING APPARATUS AND CONTROL METHODS THEREOF }

본 발명은 촬영 장치 및 그 제어 방법에 대한 것으로, 더욱 상세하게는 초점 영역을 자동으로 결정하여 피사체를 촬영하기 위한 촬영 장치 및 그 제어 방법에 대한 것이다.The present invention relates to a photographing apparatus and a method for controlling the same, and more particularly, to a photographing apparatus for photographing a subject by automatically determining a focus area and a method for controlling the same.

일반적으로, 초점을 맞추는 방식에는 콘트라스트 검출 방식(Contrast Auto Focus)과 위상차 검출 방식(Phase Auto Focus)이 있다.In general, focusing methods include a contrast detection method and a phase difference detection method (Phase Auto Focus).

도 1a는 콘트라스트 검출 방식을 설명하기 위한 도면이다. 콘트라스트 검출 방식은 초점이 정확한 사진은 윤곽이 뚜렷하여 콘트라스트가 올라가고, 반대로 초점이 맞지 않은 사진은 윤곽이 흐려져서 콘트라스트가 내려가는데, 이 특성을 이용하여 콘트라스트가 가장 높은 위치까지 렌즈 위치를 조정하는 것이다. 즉, 렌즈의 위치를 변경하면서 각 위치에 대한 콘트라스트를 측정하고 콘트라스트가 가장 높은 렌즈의 위치로 렌즈를 조정하여 초점을 맞추게 된다.1A is a diagram for explaining a contrast detection method. The contrast detection method is to adjust the lens position up to the position with the highest contrast by using this characteristic, in which the contour of an accurate-focused picture is clear and the contrast rises. That is, while changing the position of the lens, the contrast for each position is measured, and the lens is adjusted to the position of the lens having the highest contrast to achieve focus.

도 1b는 위상차 검출 방식을 설명하기 위한 도면이다. 위상차 검출 방식은 한 이미지 내에서 위상 감지 픽셀 간의 위상차를 이용하여 초점이 어느 정도 맞았는지를 판단한 후, 실제 포커스 위치를 검출해내는 방식이다.1B is a diagram for explaining a phase difference detection method. The phase difference detection method is a method of detecting the actual focus position after determining to what extent the focus is achieved by using the phase difference between the phase detection pixels in one image.

소형 카메라는 콘트라스트 검출 방식을 이용하였으나, 속도가 느리다는 단점이 있었고, DSLR(Digital Single-Lens Reflex)은 위상차 검출 방식을 이용하였으나, 콘트라스트 검출 방식에 비해 부정확하다는 단점이 있었다. 그에 따라, 최근에는 두 가지 방식을 혼합하여 초점을 구하는 방식이 개발되었다.Although the small camera used the contrast detection method, it had the disadvantage of being slow, and the DSLR (Digital Single-Lens Reflex) used the phase difference detection method, but had the disadvantage of being inaccurate compared to the contrast detection method. Accordingly, recently, a method for obtaining a focus by mixing the two methods has been developed.

다만, 두 가지 방식을 혼합하여 초점을 구하는 방식을 이용하더라도, DSLR은 도 2a와 같이 복수의 초점 영역을 제공하기 때문에 사용자가 복수의 초점 영역 중 어느 하나를 설정하지 않으면 원하는 피사체에 대한 초점을 맞출 수 없다는 문제가 있다. 즉, 초점을 맞추는 방식과 무관하게 초점 영역을 결정해야 하는 문제가 있다.However, even if the method of obtaining focus by mixing the two methods is used, since the DSLR provides a plurality of focus areas as shown in FIG. There is a problem that it cannot. That is, there is a problem in that a focus area must be determined regardless of a focusing method.

그리고, 소형 카메라에서는 도 2b와 같이 사람의 얼굴을 인식하여 초점 영역을 결정하는 기능이 제공될 수 있으나, 사람의 얼굴이 아니면 이러한 기능을 이용하는데 제약이 있다는 단점이 있다.In addition, a function of determining a focus area by recognizing a person's face may be provided in the small camera as shown in FIG. 2B, but there is a disadvantage in that there is a limitation in using such a function if it is not a human face.

또한, 소형 카메라의 경우 초점을 맞추기 위해 콘트라스트 검출 방식을 이용하면 도 1a와 같은 콘트라스트 값이 나올 수 있다. 이 경우 소형 카메라는 우측의 가장 높은 콘트라스트 값에 대응되는 렌즈 위치를 결정하게 된다. 다만, 이 경우에 사용자는 좌측의 두 번째로 높은 콘트라스트 값에 대응되는 렌즈 위치를 설정하고자 할 수도 있다. 이러한 문제점은 위상차 검출 방식을 추가적으로 이용한다고 해결할 수 있는 것은 아니며, 사용자가 원하는 피사체를 촬영할 수 없다는 문제가 있다.Also, in the case of a small camera, if a contrast detection method is used to focus, a contrast value as shown in FIG. 1A may be obtained. In this case, the small camera determines the lens position corresponding to the highest contrast value on the right. However, in this case, the user may want to set the lens position corresponding to the second highest contrast value from the left. This problem cannot be solved by additionally using the phase difference detection method, and there is a problem in that the subject cannot be photographed by the user.

본 발명은 상술한 문제점을 해결하기 위한 것으로, 본 발명의 목적은 복수의 피사체가 있는 경우에도 복수의 피사체에 대한 정보를 신속하게 분석하고 어느 하나의 피사체에 대한 초점 영역을 자동으로 결정하여 촬영을 수행하는 촬영 장치 및 그 제어 방법을 제공함에 있다.The present invention is to solve the above-described problems, and an object of the present invention is to quickly analyze information on a plurality of subjects even when there are a plurality of subjects and automatically determine a focus area for any one subject to perform shooting. An object of the present invention is to provide a photographing apparatus and a method for controlling the same.

이상과 같은 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 촬영 장치는, 렌즈를 통하여 입력되는 광을 수집하여 이미지를 감지하는 복수의 이미지 픽셀 및 위상을 감지하는 복수의 위상 감지 픽셀을 포함하는 이미지 센서 및 상기 이미지 센서 중 관심 영역(Region of Interest)을 복수의 서브 관심 영역으로 분할하고, 상기 복수의 서브 관심 영역 각각에 포함된 위상 감지 픽셀을 이용하여 상기 복수의 서브 관심 영역 각각에 대응되는 피사체에 대한 디스패리티(disparity) 정보를 산출하며, 상기 디스패리티 정보에 기초하여 상기 관심 영역 내의 초점 영역을 결정하는 프로세서를 포함한다.A photographing apparatus according to an embodiment of the present invention for achieving the above object includes a plurality of image pixels for detecting an image by collecting light input through a lens and a plurality of phase detection pixels for detecting a phase An image sensor and a region of interest among the image sensors are divided into a plurality of sub-regions of interest, and a phase detection pixel included in each of the plurality of sub-regions of interest is used to detect the plurality of sub-regions of interest. and a processor that calculates disparity information on the subject and determines a focus area within the ROI based on the disparity information.

또한, 상기 프로세서는, 상기 디스패리티 정보에 기초하여 상기 렌즈의 위치에 대응되는 상기 렌즈의 이동 거리 및 신뢰도 정보를 산출하여 상기 관심 영역 내의 초점 영역을 결정할 수 있다.Also, the processor may calculate a movement distance and reliability information of the lens corresponding to the position of the lens based on the disparity information to determine a focus area within the ROI.

그리고, 상기 프로세서는, 상기 관심 영역의 중심 서브 관심 영역과 주변 서브 관심 영역으로 구성된 제1 쌍, 상기 관심 영역의 좌측 서브 관심 영역과 우측 서브 관심 영역으로 구성된 제2 쌍 및 상기 관심 영역의 상측 서브 관심 영역과 하측 서브 관심 영역으로 구성된 제3 쌍으로 상기 관심 영역을 분할할 수 있다.In addition, the processor is configured to: a first pair consisting of a central sub-region of interest and a peripheral sub-region of the region of interest; a second pair consisting of a left sub region of interest and a right sub region of interest of the region of interest; and an upper sub region of the region of interest. The ROI may be divided into a third pair including a region of interest and a lower sub region of interest.

또한, 상기 프로세서는, 상기 제1 쌍 내지 제3 쌍에 포함된 서브 관심 영역들에 대해 초점을 맞추기 위한 상기 렌즈의 이동 거리를 산출하고, 상기 제1 쌍 내지 제3 쌍 중 렌즈의 이동 거리의 차이가 가장 큰 쌍을 판단하여, 상기 렌즈의 이동 거리의 차이가 가장 큰 쌍 중 하나의 서브 관심 영역을 초점 영역으로 결정할 수 있다.In addition, the processor calculates a movement distance of the lens for focusing on the sub-ROIs included in the first pair to the third pair, and calculates a movement distance of the lens among the first pair to the third pair. By determining the pair having the largest difference, one sub-ROI among the pair having the largest difference in the movement distance of the lens may be determined as the focus region.

그리고, 디스플레이 및 사용자 입력을 수신하는 사용자 인터페이스부를 더 포함하고, 상기 프로세서는, 상기 렌즈의 이동 거리의 차이가 가장 큰 쌍을 나타내는 UI를 디스플레이하도록 상기 디스플레이를 제어하고, 상기 렌즈의 이동 거리의 차이가 가장 큰 쌍 중 하나를 선택하는 사용자 입력이 수신되면, 선택된 상기 서브 관심 영역을 초점 영역으로 결정할 수 있다.And, further comprising a display and a user interface for receiving a user input, wherein the processor controls the display to display a UI indicating a pair having the largest difference in the movement distance of the lens, and the difference in the movement distance of the lens When a user input for selecting one of the largest pairs is received, the selected sub-ROI may be determined as a focus region.

또한, 상기 프로세서는, 상기 관심 영역을 동일한 크기의 M개의 행과 N개의 열로 분할하고, 인접한 서브 관심 영역에 대한 상기 렌즈의 이동 거리의 차이가 기설정된 크기 이하인 경우 상기 인접한 서브 관심 영역을 그룹화하여, 상기 관심 영역 내의 초점 영역을 결정할 수 있다.In addition, the processor divides the ROI into M rows and N columns of the same size, and groups the adjacent sub ROIs when a difference in movement distance of the lens with respect to the adjacent sub ROIs is less than or equal to a preset size. , a focal region within the ROI may be determined.

그리고, 상기 프로세서는, 피사체와의 거리가 가장 가까운 그룹, 신뢰도가 가장 높은 그룹 및 상기 서브 관심 영역이 가장 많이 그룹화된 그룹 중 하나의 그룹을 초점 영역으로 결정할 수 있다.In addition, the processor may determine, as the focus area, one of a group having the closest distance to the subject, a group having the highest reliability, and a group having the most sub-ROIs.

또한, 상기 프로세서는, 상기 서브 관심 영역의 신뢰도가 기설정된 신뢰도보다 큰 서브 관심 영역만을 그룹화할 수 있다.Also, the processor may group only the sub-ROIs in which the reliability of the sub-ROI is greater than a preset reliability.

그리고, 상기 렌즈의 이동 거리는, 상기 렌즈의 위치에 대해 위상차 검출 방식(Phase Auto Focus)으로 산출되는 상기 디스패리티 정보로부터 결정된 정보일 수 있다.In addition, the moving distance of the lens may be information determined from the disparity information calculated by a phase difference detection method (Phase Auto Focus) with respect to the position of the lens.

또한, 상기 프로세서는, 상기 복수의 서브 관심 영역 각각에 대응되는 두 개의 위상 감지 픽셀을 이용하여 이미지를 감지하고, 상기 두 개의 이미지를 크로스-코릴레이션(cross-correlation)하여 디스패리티 정보를 산출할 수 있다.In addition, the processor is configured to detect an image using two phase sensing pixels corresponding to each of the plurality of sub-ROIs, and cross-correlate the two images to calculate disparity information. can

한편, 본 발명의 일 실시 예에 따르면, 렌즈를 통하여 입력되는 광을 수집하여 이미지를 감지하는 복수의 이미지 픽셀 및 위상을 감지하는 복수의 위상 감지 픽셀을 포함하는 이미지 센서를 구비한 촬영 장치의 제어 방법에 있어서, 상기 이미지 센서 중 관심 영역(Region of Interest)을 복수의 서브 관심 영역으로 분할하는 단계, 상기 복수의 서브 관심 영역 각각에 포함된 위상 감지 픽셀을 이용하여 상기 복수의 서브 관심 영역 각각에 대응되는 피사체에 대한 디스패리티(disparity) 정보를 산출하는 단계 및 상기 디스패리티 정보에 기초하여 상기 관심 영역 내의 초점 영역을 결정하는 단계를 포함한다.Meanwhile, according to an embodiment of the present invention, the control of a photographing apparatus having an image sensor including a plurality of image pixels for sensing an image by collecting light input through a lens and a plurality of phase sensing pixels for detecting a phase In the method, dividing a region of interest in the image sensor into a plurality of sub-regions of interest; and calculating disparity information on a corresponding subject, and determining a focus area within the ROI based on the disparity information.

또한, 상기 초점 영역을 결정하는 단계는, 상기 디스패리티 정보에 기초하여 상기 렌즈의 위치에 대응되는 상기 렌즈의 이동 거리 및 신뢰도 정보를 산출하는 단계 및 상기 렌즈의 이동 거리 및 신뢰도 정보를 이용하여 상기 관심 영역 내의 초점 영역을 결정하는 단계를 포함할 수 있다.In addition, the determining of the focus area includes calculating a movement distance and reliability information of the lens corresponding to the position of the lens based on the disparity information, and using the movement distance and reliability information of the lens. determining a focal region within the region of interest.

그리고, 상기 복수의 서브 관심 영역으로 분할하는 단계는, 상기 관심 영역의 중심 서브 관심 영역과 주변 서브 관심 영역으로 구성된 제1 쌍, 상기 관심 영역의 좌측 서브 관심 영역과 우측 서브 관심 영역으로 구성된 제2 쌍 및 상기 관심 영역의 상측 서브 관심 영역과 하측 서브 관심 영역으로 구성된 제3 쌍으로 상기 관심 영역을 분할할 수 있다.And, the dividing into the plurality of sub-ROIs may include a first pair of a central sub-ROI and a peripheral sub-ROI of the ROI, and a second pair of the left sub-ROI and the right sub-ROI of the ROI. The ROI may be divided into a third pair including a pair and an upper sub ROI and a lower sub ROI of the ROI.

또한, 상기 초점 영역을 결정하는 단계는, 상기 제1 쌍 내지 제3 쌍에 포함된 서브 관심 영역들에 대해 초점을 맞추기 위한 상기 렌즈의 이동 거리를 산출하는 단계, 상기 제1 쌍 내지 제3 쌍 중 렌즈의 이동 거리의 차이가 가장 큰 쌍을 판단하는 단계 및 상기 렌즈의 이동 거리의 차이가 가장 큰 쌍 중 하나의 서브 관심 영역을 초점 영역으로 결정하는 단계를 포함할 수 있다.In addition, the determining of the focus area includes calculating a movement distance of the lens for focusing on sub-ROIs included in the first pair to the third pair, and the first pair to the third pair The method may include determining a pair having the largest difference in the movement distances of the lenses, and determining a sub-ROI of one of the pairs having the largest difference in the movement distances of the lenses as the focus area.

그리고, 상기 초점 영역을 결정하는 단계는, 상기 렌즈의 이동 거리의 차이가 가장 큰 쌍을 나타내는 UI를 디스플레이하는 단계, 상기 렌즈의 이동 거리의 차이가 가장 큰 쌍 중 하나를 선택하는 사용자 입력을 수신하는 단계 및 선택된 상기 서브 관심 영역을 초점 영역으로 결정하는 단계를 더 포함할 수 있다.In addition, the determining of the focus area includes displaying a UI indicating a pair having the largest difference in the movement distance of the lenses and receiving a user input for selecting one of the pair having the largest difference in the movement distance of the lenses The method may further include the step of: and determining the selected sub-ROI as a focus area.

또한, 상기 복수의 서브 관심 영역으로 분할하는 단계는, 상기 관심 영역을 동일한 크기의 M개의 행과 N개의 열로 분할하고, 상기 초점 영역을 결정하는 단계는, 인접한 서브 관심 영역에 대한 상기 렌즈의 이동 거리의 차이가 기설정된 크기 이하인 경우 상기 인접한 서브 관심 영역을 그룹화하여, 상기 관심 영역 내의 초점 영역을 결정할 수 있다.In addition, the dividing the ROI into the plurality of sub ROIs includes dividing the ROI into M rows and N columns of the same size, and the determining of the focus region includes movement of the lens with respect to the adjacent sub ROIs. When the distance difference is equal to or less than a preset size, the adjacent sub-ROIs may be grouped to determine a focus area within the ROI.

그리고, 상기 초점 영역을 결정하는 단계는, 피사체와의 거리가 가장 가까운 그룹, 신뢰도가 가장 높은 그룹 및 상기 서브 관심 영역이 가장 많이 그룹화된 그룹 중 하나의 그룹을 초점 영역으로 결정할 수 있다.In the determining of the focus area, one group among a group having the closest distance to the subject, a group having the highest reliability, and a group having the most sub-ROIs grouped may be determined as the focus area.

또한, 상기 초점 영역을 결정하는 단계는, 상기 서브 관심 영역의 신뢰도가 기설정된 신뢰도보다 큰 서브 관심 영역만을 그룹화할 수 있다.In addition, the determining of the focal region may include grouping only the sub-ROIs in which the reliability of the sub-ROI is greater than a preset reliability.

그리고, 상기 렌즈의 이동 거리는, 상기 렌즈의 위치에 대해 위상차 검출 방식(Phase Auto Focus)으로 산출되는 상기 디스패리티 정보로부터 결정된 정보일 수 있다.In addition, the moving distance of the lens may be information determined from the disparity information calculated by a phase difference detection method (Phase Auto Focus) with respect to the position of the lens.

또한, 상기 디스패리티 정보를 산출하는 단계는, 상기 복수의 서브 관심 영역 각각에 대응되는 두 개의 위상 감지 픽셀을 이용하여 이미지를 감지하고, 상기 두 개의 이미지를 크로스-코릴레이션(cross-correlation)하여 디스패리티 정보를 산출할 수 있다.In addition, the calculating of the disparity information may include detecting an image using two phase sensing pixels corresponding to each of the plurality of sub-ROIs, and cross-correlating the two images to Disparity information may be calculated.

이상과 같은 본 발명의 다양한 실시 예에 따르면, 촬영 장치는 좀더 신속하게 피사체에 대한 정보를 산출하고, 그에 따라 초점 영역을 자동으로 결정하여 사용자 만족도를 향상시킬 수 있다.According to various embodiments of the present disclosure as described above, the photographing apparatus may more rapidly calculate information about a subject, and automatically determine a focus area accordingly, thereby improving user satisfaction.

도 1은 콘트라스트 검출 방식 및 위상차 검출 방식을 설명하기 위한 도면이다.
도 2는 종래 초점 영역을 설정하는 방법의 문제점을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시 예에 따른 촬영 장치의 구성을 나타내는 블럭도이다.
도 4는 본 발명의 일 실시 예에 따른 이미지 센서를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시 예에 따른 관심 영역을 분할하여 초점 영역을 결정하는 방법을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시 예에 따른 디스패리티 정보로부터 렌즈의 이동 거리를 산출하는 방법을 설명하기 위한 도면이다.
도 7 및 도 8은 본 발명의 일 실시 예에 따른 초점을 맞추기 위한 렌즈의 이동 거리 및 신뢰도 정보를 산출하는 방법을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시 예에 따른 관심 영역을 지정하는 방법을 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시 예에 따른 관심 영역이 이미지 센서 전체인 경우 초점 영역을 결정하는 방법을 설명하기 위한 도면이다.
도 11은 본 발명의 일 실시 예에 따른 촬영 장치의 회로 구성을 도시한 블럭도이다.
도 12는 본 발명의 일 실시 예에 따른 렌즈의 이동 거리에 대한 정보를 보정하는 방법을 설명하기 위한 도면이다.
도 13은 본 발명의 일 실시 예에 따른 촬영 장치의 제어 방법을 설명하기 위한 순서도이다.
1 is a diagram for explaining a contrast detection method and a phase difference detection method.
2 is a view for explaining a problem of a method of setting a focus area according to the related art.
3 is a block diagram illustrating a configuration of a photographing apparatus according to an embodiment of the present invention.
4 is a view for explaining an image sensor according to an embodiment of the present invention.
5 is a diagram for explaining a method of determining a focus area by dividing an ROI according to an embodiment of the present invention.
6 is a diagram for explaining a method of calculating a movement distance of a lens from disparity information according to an embodiment of the present invention.
7 and 8 are diagrams for explaining a method of calculating a moving distance and reliability information of a lens for focusing according to an embodiment of the present invention.
9 is a diagram for explaining a method of designating a region of interest according to an embodiment of the present invention.
10 is a diagram for explaining a method of determining a focus area when an ROI is the entire image sensor according to an embodiment of the present invention.
11 is a block diagram illustrating a circuit configuration of a photographing apparatus according to an embodiment of the present invention.
12 is a view for explaining a method of correcting information on a movement distance of a lens according to an embodiment of the present invention.
13 is a flowchart illustrating a method of controlling a photographing apparatus according to an embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명에 대해 상세히 설명하도록 한다.Hereinafter, the present invention will be described in detail with reference to the drawings.

도 3은 본 발명의 일 실시 예에 따른 촬영 장치(100)의 구성을 나타내는 블럭도이다.3 is a block diagram illustrating the configuration of a photographing apparatus 100 according to an embodiment of the present invention.

도 3a에 따르면, 촬영 장치(100)는 이미지 센서(110) 및 프로세서(120)를 포함한다. 도 3a에서는 본 발명의 다양한 실시 예에 따른 동작에 관여하는 구성요소들에 대해서만 도시하였으며, 나머지 세부 구성요소들에 대한 도시는 생략하였다.Referring to FIG. 3A , the photographing apparatus 100 includes an image sensor 110 and a processor 120 . In FIG. 3A, only the components involved in the operation according to various embodiments of the present disclosure are illustrated, and the remaining detailed components are omitted.

이미지 센서(110)는 렌즈를 통하여 입력되는 광을 수집하여 이미지를 감지하는 복수의 이미지 픽셀 및 위상을 감지하는 복수의 위상 감지 픽셀을 포함할 수 있다. 이미지 센서(110)는 대부분의 영역이 이미지 픽셀로 구성되어 있어 이미지를 감지하는 역할을 한다. 그리고, 콘트라스트 검출 방식과 위상차 검출 방식에 기초하여 초점을 맞추기 위해, 이미지 센서(110)는 이미지 픽셀 사이에 일정 간격으로 위상 감지 픽셀을 포함할 수 있다. 이미지 센서(110)에 대한 구체적인 내용은 후술한다.The image sensor 110 may include a plurality of image pixels for sensing an image by collecting light input through a lens and a plurality of phase sensing pixels for detecting a phase. The image sensor 110 serves to detect an image since most of the area is composed of image pixels. In addition, in order to focus based on the contrast detection method and the phase difference detection method, the image sensor 110 may include phase detection pixels at regular intervals between image pixels. Details of the image sensor 110 will be described later.

프로세서(120)는 촬영 장치(100)의 전반적인 동작을 제어한다.The processor 120 controls the overall operation of the photographing apparatus 100 .

프로세서(120)는 일반적으로 장치의 제어를 담당하는 구성으로, 중앙처리장치, 마이크로 프로세서, 제어부 등과 혼용될 수 있으며, 장치의 전반적인 동작을 제어할 수 있도록 하는 것으로 통신부 등 다른 기능부와 함께 단일칩 시스템 (System-on-a-chip 또는 System on chip, SOC, SoC)으로 구현될 수 있다.The processor 120 is a configuration responsible for controlling the device in general, and may be mixed with a central processing unit, a microprocessor, a control unit, etc., and controls the overall operation of the device. It may be implemented as a system (System-on-a-chip or System on chip, SOC, SoC).

프로세서(120)는 이미지 센서 중 관심 영역(Region of Interest)을 복수의 서브 관심 영역으로 분할하고, 복수의 서브 관심 영역 각각에 포함된 위상 감지 픽셀을 이용하여 복수의 서브 관심 영역 각각에 대응되는 피사체에 대한 디스패리티(disparity) 정보를 산출하며, 디스패리티 정보에 기초하여 관심 영역 내의 초점 영역을 결정할 수 있다.The processor 120 divides a region of interest among the image sensors into a plurality of sub regions of interest, and uses a phase sensing pixel included in each of the plurality of sub regions of interest to be a subject corresponding to each of the plurality of sub regions of interest. Disparity information for , may be calculated, and a focus area within the ROI may be determined based on the disparity information.

또한, 프로세서(120)는 디스패리티 정보에 기초하여 렌즈의 위치에 대응되는 렌즈의 이동 거리 및 신뢰도 정보를 산출하여 관심 영역 내의 초점 영역을 결정할 수 있다.In addition, the processor 120 may determine a focus area within the ROI by calculating the movement distance and reliability information of the lens corresponding to the position of the lens based on the disparity information.

그리고, 프로세서(120)는 관심 영역의 중심 서브 관심 영역과 주변 서브 관심 영역으로 구성된 제1 쌍, 관심 영역의 좌측 서브 관심 영역과 우측 서브 관심 영역으로 구성된 제2 쌍 및 관심 영역의 상측 서브 관심 영역과 하측 서브 관심 영역으로 구성된 제3 쌍으로 관심 영역을 분할할 수 있다.In addition, the processor 120 generates a first pair consisting of a central sub-region of interest and a peripheral sub-region of the region of interest, a second pair consisting of a left sub-region and a right sub-region of the region of interest, and an upper sub-ROI of the region of interest. The ROI may be divided into a third pair including the ROI and the lower sub ROI.

또한, 프로세서(120)는 제1 쌍 내지 제3 쌍에 포함된 서브 관심 영역들에 대해 초점을 맞추기 위한 렌즈의 이동 거리를 산출하고, 제1 쌍 내지 제3 쌍 중 렌즈의 이동 거리의 차이가 가장 큰 쌍을 판단하여, 렌즈의 이동 거리의 차이가 가장 큰 쌍 중 하나의 서브 관심 영역을 초점 영역으로 결정할 수 있다.In addition, the processor 120 calculates a movement distance of the lens for focusing on the sub-ROIs included in the first pair to the third pair, and the difference between the movement distance of the lens among the first pair to the third pair is By determining the largest pair, a sub-ROI of one of the pairs having the largest difference in the lens movement distance may be determined as the focal region.

그리고, 촬영 장치(100)는 디스플레이 및 사용자 입력을 수신하는 사용자 인터페이스부를 더 포함하고, 프로세서(120)는 렌즈의 이동 거리의 차이가 가장 큰 쌍을 나타내는 UI를 디스플레이하도록 디스플레이를 제어하고, 렌즈의 이동 거리의 차이가 가장 큰 쌍 중 하나를 선택하는 사용자 입력이 수신되면, 선택된 서브 관심 영역을 초점 영역으로 결정할 수 있다.In addition, the photographing apparatus 100 further includes a display and a user interface for receiving a user input, and the processor 120 controls the display to display a UI indicating a pair having the greatest difference in movement distance of the lens, and When a user input for selecting one of the pairs having the largest difference in movement distance is received, the selected sub-ROI may be determined as the focus area.

또한, 프로세서(120)는 관심 영역을 동일한 크기의 M개의 행과 N개의 열로 분할하고, 인접한 서브 관심 영역에 대한 렌즈의 이동 거리의 차이가 기설정된 크기 이하인 경우 인접한 서브 관심 영역을 그룹화하여, 관심 영역 내의 초점 영역을 결정할 수 있다.In addition, the processor 120 divides the ROI into M rows and N columns of the same size, and groups adjacent sub ROIs when the difference in movement distances of lenses with respect to the adjacent sub ROIs is less than or equal to a preset size, A focus area within the area may be determined.

그리고, 프로세서(120)는 피사체와의 거리가 가장 가까운 그룹, 신뢰도가 가장 높은 그룹 및 서브 관심 영역이 가장 많이 그룹화된 그룹 중 하나의 그룹을 초점 영역으로 결정할 수 있다.In addition, the processor 120 may determine, as the focus area, one of a group having the closest distance to the subject, a group having the highest reliability, and a group having the most sub-ROIs.

또한, 프로세서(120)는 서브 관심 영역의 신뢰도가 기설정된 신뢰도보다 큰 서브 관심 영역만을 그룹화할 수 있다.Also, the processor 120 may group only the sub-ROIs in which the reliability of the sub-ROIs is greater than the preset reliability.

여기서, 렌즈의 이동 거리는, 초점을 맞추기 위해 콘트라스트 검출 방식으로 측정된 렌즈의 이동 거리에 기초하여, 렌즈의 위치에 대해 위상차 검출 방식으로 산출되는 디스패리티 정보로부터 결정된 정보일 수 있다.Here, the movement distance of the lens may be information determined from disparity information calculated by the phase difference detection method with respect to the position of the lens based on the movement distance of the lens measured by the contrast detection method for focusing.

그리고, 프로세서(120)는 복수의 서브 관심 영역 각각에 대응되는 두 개의 위상 감지 픽셀을 이용하여 이미지를 감지하고, 두 개의 이미지를 크로스-코릴레이션(cross-correlation)하여 디스패리티 정보를 산출할 수 있다.In addition, the processor 120 may detect an image using two phase detection pixels corresponding to each of the plurality of sub-ROIs, and cross-correlate the two images to calculate disparity information. have.

이하에서는 본 발명의 이해를 돕기 위한 기본 구성과 다양한 실시 예에 대하여 설명한다.Hereinafter, a basic configuration and various embodiments will be described to help the understanding of the present invention.

도 3b는 본 발명의 다른 실시 예에 따른 촬영 장치(100')의 세부 구성을 나타내는 블럭도이다. 도 3b에 따르면, 촬영 장치(100')는 이미지 센서(110), 프로세서(120), 디스플레이(130), 사용자 인터페이스부(140), 통신부(150), 저장부(155), 오디오 처리부(160), 이미지 처리부(170), 스피커(180), 버튼(181), 마이크(182)를 포함한다. 도 3b에 도시된 구성요소들 중 도 3a에 도시된 구성요소와 중복되는 부분에 대해서는 자세한 설명을 생략하도록 한다.3B is a block diagram illustrating a detailed configuration of a photographing apparatus 100' according to another embodiment of the present invention. Referring to FIG. 3B , the photographing apparatus 100 ′ includes an image sensor 110 , a processor 120 , a display 130 , a user interface unit 140 , a communication unit 150 , a storage unit 155 , and an audio processing unit 160 . ), an image processing unit 170 , a speaker 180 , a button 181 , and a microphone 182 . Among the components illustrated in FIG. 3B , detailed descriptions of parts overlapping with those illustrated in FIG. 3A will be omitted.

프로세서(120)는 저장부(155)에 저장된 각종 프로그램을 이용하여 촬영 장치(100)의 동작을 전반적으로 제어한다. The processor 120 controls the overall operation of the photographing apparatus 100 using various programs stored in the storage unit 155 .

구체적으로, 프로세서(120)는 RAM(121), ROM(122), 메인 CPU(123), 그래픽 처리부(124), 제1 내지 n 인터페이스(125-1 ~ 125-n), 버스(126)를 포함한다.Specifically, the processor 120 includes the RAM 121 , the ROM 122 , the main CPU 123 , the graphic processing unit 124 , the first to n interfaces 125-1 to 125-n, and the bus 126 . include

RAM(121), ROM(122), 메인 CPU(123), 그래픽 처리부(124), 제1 내지 n 인터페이스(125-1 ~ 125-n) 등은 버스(126)를 통해 서로 연결될 수 있다. The RAM 121 , the ROM 122 , the main CPU 123 , the graphic processing unit 124 , the first to n interfaces 125 - 1 to 125 -n, etc. may be connected to each other through the bus 126 .

제1 내지 n 인터페이스(125-1 내지 125-n)는 상술한 각종 구성요소들과 연결된다. 인터페이스들 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.The first to n-th interfaces 125-1 to 125-n are connected to the various components described above. One of the interfaces may be a network interface connected to an external device through a network.

메인 CPU(123)는 저장부(155)에 액세스하여, 저장부(155)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고, 저장부(155)에 저장된 각종 프로그램 등을 이용하여 다양한 동작을 수행한다.The main CPU 123 accesses the storage unit 155 and performs booting using the O/S stored in the storage unit 155 . Then, various operations are performed using various programs stored in the storage unit 155 .

ROM(122)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴온 명령이 입력되어 전원이 공급되면, 메인 CPU(123)는 ROM(122)에 저장된 명령어에 따라 저장부(155)에 저장된 O/S를 RAM(121)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU(123)는 저장부(155)에 저장된 각종 어플리케이션 프로그램을 RAM(121)에 복사하고, RAM(121)에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다. The ROM 122 stores an instruction set for system booting and the like. When a turn-on command is input and power is supplied, the main CPU 123 copies the O/S stored in the storage unit 155 to the RAM 121 according to the command stored in the ROM 122, and executes the O/S. Boot the system. When booting is completed, the main CPU 123 copies various application programs stored in the storage unit 155 to the RAM 121 , and executes the application programs copied to the RAM 121 to perform various operations.

그래픽 처리부(124)는 연산부(미도시) 및 렌더링부(미도시)를 이용하여 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다. 연산부(미도시)는 수신된 제어 명령에 기초하여 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산한다. 렌더링부(미도시)는 연산부(미도시)에서 연산한 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성한다. 렌더링부(미도시)에서 생성된 화면은 디스플레이(130)의 디스플레이 영역 내에 표시된다.The graphic processing unit 124 generates a screen including various objects such as icons, images, and texts by using a calculation unit (not shown) and a rendering unit (not shown). A calculation unit (not shown) calculates attribute values such as coordinate values, shape, size, color, etc. at which each object is to be displayed according to the layout of the screen based on the received control command. The rendering unit (not shown) generates screens of various layouts including objects based on the attribute values calculated by the calculation unit (not shown). The screen generated by the rendering unit (not shown) is displayed in the display area of the display 130 .

한편, 상술한 프로세서(120)의 동작은 저장부(155)에 저장된 프로그램에 의해 이루어질 수 있다.Meanwhile, the above-described operation of the processor 120 may be performed by a program stored in the storage unit 155 .

저장부(155)는 촬영 장치(100)를 구동시키기 위한 O/S(Operating System) 소프트웨어 모듈, 디스패리티 정보에 대응되는 렌즈의 이동거리 정보 및 신뢰도 정보, 관심 영역의 분할 방법에 대한 정보 및 사용자에게 제공될 UI 정보 등과 같이 다양한 데이터를 저장한다.The storage unit 155 includes an O/S (Operating System) software module for driving the photographing apparatus 100 , movement distance information and reliability information of a lens corresponding to disparity information, information on a method of dividing an ROI, and a user It stores various data such as UI information to be provided to users.

이 경우 프로세서(120)는 저장부(155)에 저장된 정보에 기초하여 초점 영역의 설정, 초점을 맞추기 위한 렌즈 위치의 조정 및 다양한 UI를 디스플레이할 수 있다.In this case, the processor 120 may set a focus area, adjust a lens position for focusing, and display various UIs based on the information stored in the storage unit 155 .

사용자 인터페이스부(140)는 다양한 사용자 인터렉션(interaction)을 수신한다. 여기서, 사용자 인터페이스부(140)는 촬영 장치(100)의 구현 예에 따라 다양한 형태로 구현 가능하다. 촬영 장치(100)가 고가의 촬영 장치(100)인 경우 사용자 인터페이스부(140)는 원격 제어 장치로부터 리모콘 신호를 수신하는 리모콘 수신부, 사용자 음성을 수신하는 마이크 등으로 구현 가능하다. 또한, 촬영 장치(100)가 터치 기반의 휴대 단말로 구현되는 경우 사용자 인터페이스부(140)는 터치패드와 상호 레이어 구조를 이루는 터치 스크린 형태로 구현될 수도 있다. 이 경우, 사용자 인터페이스부(140)는 상술한 디스플레이(130)로 사용될 수 있게 된다.The user interface unit 140 receives various user interactions. Here, the user interface unit 140 may be implemented in various forms according to an implementation example of the photographing apparatus 100 . When the photographing apparatus 100 is an expensive photographing apparatus 100, the user interface unit 140 may be implemented as a remote control receiver for receiving a remote control signal from a remote control device, a microphone for receiving a user's voice, or the like. In addition, when the photographing apparatus 100 is implemented as a touch-based portable terminal, the user interface unit 140 may be implemented in the form of a touch screen that forms a layer structure with a touch pad. In this case, the user interface unit 140 can be used as the above-described display 130 .

오디오 처리부(160)는 오디오 데이터에 대한 처리를 수행하는 구성요소이다. 오디오 처리부(160)에서는 오디오 데이터에 대한 디코딩이나 증폭, 노이즈 필터링 등과 같은 다양한 처리가 수행될 수 있다.The audio processing unit 160 is a component that processes audio data. In the audio processing unit 160 , various processes such as decoding, amplification, and noise filtering on audio data may be performed.

비디오 처리부(170)는 비디오 데이터에 대한 처리를 수행하는 구성요소이다. 비디오 처리부(170)에서는 비디오 데이터에 대한 디코딩, 스케일링, 노이즈 필터링, 프레임 레이트 변환, 해상도 변환 등과 같은 다양한 이미지 처리를 수행할 수 있다. The video processing unit 170 is a component that processes video data. The video processing unit 170 may perform various image processing, such as decoding, scaling, noise filtering, frame rate conversion, and resolution conversion, on video data.

스피커(180)는 오디오 처리부(160)에서 처리된 각종 오디오 데이터 뿐만 아니라 각종 알림 음이나 음성 메시지 등을 출력하는 구성요소이다.The speaker 180 is a component that outputs various types of audio data processed by the audio processing unit 160 as well as various notification sounds or voice messages.

버튼(181)은 촬영 장치(100)의 본체 외관의 전면부나 측면부, 배면부 등의 임의의 영역에 형성된 기계적 버튼, 터치 패드(210), 휠 등과 같은 다양한 유형의 버튼이 될 수 있다.The button 181 may be various types of buttons such as a mechanical button, a touch pad 210 , a wheel, etc. formed in an arbitrary area such as the front, side, or rear of the main body of the photographing apparatus 100 .

마이크(182)는 사용자 음성이나 기타 소리를 입력받아 오디오 데이터로 변환하기 위한 구성이다. 마이크(182)는 사용자 음성으로부터 제어 신호를 생성할 수도 있다.The microphone 182 is configured to receive a user's voice or other sound and convert it into audio data. The microphone 182 may generate a control signal from the user's voice.

이하에서는 본 발명의 이해를 돕기 위한 기본 구성과 다양한 실시 예에 대하여 설명한다.Hereinafter, a basic configuration and various embodiments will be described to help the understanding of the present invention.

도 4는 본 발명의 일 실시 예에 따른 이미지 센서(110)를 설명하기 위한 도면이다.4 is a diagram for explaining the image sensor 110 according to an embodiment of the present invention.

도 4에 따르면, 이미지 센서(110)는 복수의 이미지 픽셀 및 복수의 위상 감지 픽셀(410, 420)을 포함할 수 있다. 이미지 센서(110)는 대부분의 영역이 이미지 픽셀로 구성되어 있으며, 이미지 픽셀은 렌즈를 통하여 입력되는 광을 수집하여 이미지를 감지할 수 있다. 도 4에서는 위상차 픽셀이 일정 간격으로 거리를 두어 배치된 것으로 표현되었으나, 설명의 편의를 위한 것이며, 이미지 센서(110)에서 위상 감지 픽셀을 제외한 모든 영역에 이미지 픽셀이 배치될 수 있다.Referring to FIG. 4 , the image sensor 110 may include a plurality of image pixels and a plurality of phase detection pixels 410 and 420 . Most of the image sensor 110 is composed of image pixels, and the image pixels may detect an image by collecting light input through a lens. In FIG. 4 , it is expressed that the phase difference pixels are disposed at regular intervals, but for convenience of explanation, the image pixels may be disposed in all regions of the image sensor 110 except for the phase sensing pixels.

복수의 위상 감지 픽셀(410, 420)은 이미지 픽셀 사이에 일정 간격으로 배치되어 있으며, 피사체의 위상을 감지할 수 있다. 도 4는 이미지 센서(110)의 우측 상방에 위치한 복수의 픽셀 영역을 확대하여 나타내고 있으며, 복수의 픽셀 영역 중 복수의 위상 감지 픽셀(410, 420)을 제외한 나머지는 이미지 픽셀일 수 있다.The plurality of phase detection pixels 410 and 420 are disposed at regular intervals between image pixels, and may detect a phase of a subject. 4 shows an enlarged view of a plurality of pixel areas located on the upper right side of the image sensor 110 , and the remainder of the plurality of pixel areas except for the plurality of phase sensing pixels 410 and 420 may be image pixels.

도 4와 같이 일정 간격으로 복수의 위상 감지 픽셀이 배치되어 사용자가 이미지 센서(110)의 어느 부분을 초점 영역으로 결정하더라도 초점 영역에 대응되는 복수의 위상 감지 픽셀을 이용하여 위상차 검출 방식을 이용한 초점을 설정할 수 있게 된다. 도 4에서 도시된 위상 감지 픽셀의 간격은 일 실시 예에 불과하며, 더 좁은 간격 또는 더 넓은 간격으로 위상 감지 픽셀이 배치될 수도 있다.As shown in FIG. 4 , since a plurality of phase detection pixels are arranged at regular intervals, even if a user determines which part of the image sensor 110 as a focus area, a focus using a phase difference detection method using a plurality of phase detection pixels corresponding to the focus area can be set. The spacing of the phase detection pixels illustrated in FIG. 4 is only an example, and the phase detection pixels may be disposed at a narrower interval or a wider interval.

한편, 위상 감지 픽셀을 이용하여 초점을 설정하는 방법에 대하여는 후술한다.Meanwhile, a method of setting a focus using a phase sensing pixel will be described later.

도 5는 본 발명의 일 실시 예에 따른 관심 영역을 분할하여 초점 영역을 결정하는 방법을 설명하기 위한 도면이다.5 is a diagram for explaining a method of determining a focus area by dividing an ROI according to an embodiment of the present invention.

도 5에 따르면, 프로세서(120)는 이미지 센서(110) 중 관심 영역(10)을 복수의 서브 관심 영역으로 분할할 수 있다. 여기서, 관심 영역(10)은 이미지 센서(110)의 전체일 수도 있고, 이미지 센서(110)의 일부일 수도 있다. 도 5에서는 관심 영역(10)이 이미지 센서(110)의 일부인 것으로 설명한다. 관심 영역(10)이 이미지 센서(110)의 전체인 경우는 후술한다.Referring to FIG. 5 , the processor 120 may divide the ROI 10 of the image sensor 110 into a plurality of sub-ROIs. Here, the region of interest 10 may be the entire image sensor 110 or a part of the image sensor 110 . In FIG. 5 , the region of interest 10 is described as being a part of the image sensor 110 . A case in which the region of interest 10 is the entire image sensor 110 will be described later.

프로세서(120)는 관심 영역(10)의 중심 서브 관심 영역(11)과 주변 서브 관심 영역(12)으로 구성된 제1 쌍, 관심 영역(10)의 좌측 서브 관심 영역(13)과 우측 서브 관심 영역(14)으로 구성된 제2 쌍 및 관심 영역(10)의 상측 서브 관심 영역(15)과 하측 서브 관심 영역(16)으로 구성된 제3 쌍으로 관심 영역(10)을 분할할 수 있다. 다만, 이는 일 실시 예에 불과하고, 프로세서(120)는 각각의 서브 관심 영역이 중복되지 않도록 분할할 수도 있다.The processor 120 configures the first pair of the central sub-ROI 11 and the peripheral sub-ROI 12 of the region of interest 10 , the left sub-ROI 13 and the right sub-ROI of the region of interest 10 . The region of interest 10 may be divided into a second pair of ( 14 ) and a third pair consisting of an upper sub region of interest 15 and a lower sub region of interest 16 of the region of interest 10 . However, this is only an example, and the processor 120 may divide each sub-ROI so as not to overlap.

프로세서(120)는 복수의 서브 관심 영역 각각에 포함된 위상 감지 픽셀을 이용하여 복수의 서브 관심 영역 각각에 대응되는 피사체에 대한 디스패리티 정보를 산출할 수 있다. 디스패리티 정보는 복수의 위상 감지 픽셀에 의해 측정된 피사체 간의 위상차를 나타낸다. 예를 들어, 프로세서(120)는 중심 서브 관심 영역(11)에 대응되는 위상 감지 픽셀을 이용하여 디스패리티 정보를 산출할 수 있다. 이때, 중심 서브 관심 영역(11)에 대응되는 위상 감지 픽셀은 적어도 2 이상이다. 중심 서브 관심 영역(11)에 대응되는 제1 위상 감지 픽셀들에 의해 생성된 이미지와 제2 위상 감지 픽셀들에 의해 생성된 이미지를 크로스-코릴레이션(cross-correlation)하여 디스패리티 정보를 산출할 수 있다.The processor 120 may calculate disparity information on a subject corresponding to each of the plurality of sub-ROIs by using the phase sensing pixels included in each of the plurality of sub-ROIs. The disparity information indicates a phase difference between objects measured by a plurality of phase detection pixels. For example, the processor 120 may calculate disparity information by using a phase sensing pixel corresponding to the central sub-ROI 11 . In this case, the number of phase sensing pixels corresponding to the central sub-ROI 11 is at least two. Disparity information is calculated by cross-correlating the image generated by the first phase detection pixels and the image generated by the second phase detection pixels corresponding to the central sub-ROI 11 . can

프로세서(120)는 디스패리티 정보에 기초하여 관심 영역 내의 초점 영역을 결정할 수 있다. 예를 들어, 프로세서(120)는 제1 쌍 내지 제3 쌍에 포함된 서브 관심 영역들(11~16)에 대해 초점을 맞추기 위한 렌즈의 이동 거리를 산출하고, 제1 쌍 내지 제3 쌍 중 렌즈의 이동 거리의 차이가 가장 큰 쌍을 판단하여, 렌즈의 이동 거리의 차이가 가장 큰 쌍 중 하나의 서브 관심 영역을 초점 영역으로 결정할 수 있다. 디스패리티 정보로부터 렌즈의 이동 거리를 산출하는 방법은 도 6에서 설명한다.The processor 120 may determine a focus area within the ROI based on the disparity information. For example, the processor 120 calculates a movement distance of a lens for focusing on the sub-ROIs 11 to 16 included in the first pair to the third pair, and one of the first to third pairs. By determining the pair having the largest difference in the lens movement distances, one sub-ROI among the pair having the largest lens movement distance difference may be determined as the focal region. A method of calculating the movement distance of the lens from the disparity information will be described with reference to FIG. 6 .

프로세서(120)는 제1 쌍 내지 제3 쌍 중 어느 한 쌍의 렌즈의 이동 거리의 차이가 가장 크다고 판단할 수 있다. 예를 들어, 좌측 서브 관심 영역(13)의 이동 거리는 현재 렌즈의 위치로부터 -100 code이고, 우측 서브 관심 영역(14)의 이동 거리는 현재 렌즈의 위치로부터 100 code일 수 있고, 이 경우 제2 쌍의 렌즈의 이동 거리의 차이는 200 code일 수 있다. 이때, code는 렌즈의 위치를 나타내는 단위이다. 제1 쌍의 렌즈의 이동 거리의 차이가 100 code이고, 제3 쌍의 렌즈의 이동 거리의 차이가 134 code인 경우, 프로세서(120)는 제2 쌍의 렌즈의 이동 거리의 차이가 가장 크다고 판단할 수 있고, 좌측 서브 관심 영역(13) 또는 우측 서브 관심 영역(14) 중 어느 하나를 초점 영역으로 결정할 수 있다.The processor 120 may determine that the difference in the moving distances of any one pair of lenses among the first to third pairs is the largest. For example, the movement distance of the left sub region of interest 13 may be -100 codes from the current lens position, and the movement distance of the right sub region of interest 14 may be 100 codes from the current lens position, in this case the second pair The difference in the moving distance of the lens may be 200 codes. In this case, code is a unit indicating the position of the lens. When the difference between the moving distances of the first pair of lenses is 100 codes and the difference between the moving distances of the third pair of lenses is 134 codes, the processor 120 determines that the difference in the moving distances of the lenses of the second pair is the largest. , and either the left sub region of interest 13 or the right sub region of interest 14 may be determined as the focus region.

이때, 렌즈의 이동 거리의 차이가 크다는 것은 한 쌍의 서브 관심 영역 중 하나의 서브 관심 영역에 위치한 피사체는 가까이에 있고, 다른 하나의 서브 관심 영역에 위치한 피사체는 멀리 있다는 것을 의미하며, 이를 원근경합이라고 한다. 프로세서(120)는 원근경합이 있는 어느 한 쌍의 서브 관심 영역 중 하나의 서브 관심 영역을 선택할 수 있으나, 이는 일 실시 예에 불과하고, 렌즈의 이동 거리의 차이가 가장 작은 한 쌍의 서브 관심 영역 중 하나의 서브 관심 영역을 초점 영역으로 결정하는 구성도 가능하다.In this case, the large difference in the movement distance of the lenses means that the subject located in one sub-ROI of the pair of sub-ROIs is near and the subject located in the other sub-ROI is far away, and this results in perspective contention. It is said The processor 120 may select one sub-ROI from among a pair of sub-ROIs having perspective contention, but this is only an example, and the pair of sub-ROIs having the smallest difference in lens movement distance A configuration in which one sub-ROI is determined as a focus region is also possible.

프로세서(120)는 렌즈의 이동 거리의 차이가 가장 큰 쌍 중 피사체가 가까이에 위치한 서브 관심 영역을 초점 영역으로 결정할 수 있다. 렌즈의 위치는 약 0 ~ 500 code에 위치할 수 있고, 0 code에 가까울수록 먼 곳에 있는 피사체에 초점이 맞추어지고, 500 code에 가까울수록 가까운 곳에 있는 피사체에 초점이 맞게 된다. 이러한 특성을 이용하여, 프로세서(120)는 피사체가 가까이에 위치한 서브 관심 영역을 결정할 수 있게 된다. 다만, 이는 일 실시 예에 불과하고, 프로세서(120)는 피사체가 멀리 위치한 서브 관심 영역을 결정할 수도 있다.The processor 120 may determine, as a focus area, a sub-ROI in which a subject is located near a pair of pairs having the largest difference in movement distance of the lenses. The position of the lens can be located at about 0 ~ 500 code, the closer to 0 code, the more distant the subject is focused, and the closer to the 500 code, the closer the focus is to the subject. By using this characteristic, the processor 120 may determine a sub-ROI near the subject. However, this is only an example, and the processor 120 may determine a sub-ROI in which the subject is far away.

도 6은 본 발명의 일 실시 예에 따른 디스패리티 정보로부터 렌즈의 이동 거리를 산출하는 방법을 설명하기 위한 도면이다.6 is a diagram for explaining a method of calculating a movement distance of a lens from disparity information according to an embodiment of the present invention.

도 6a에 따르면, 복수의 위상 감지 픽셀을 이용하여 픽셀의 분포를 판단할 수 있다. 예를 들어, 제1 위상 감지 픽셀에 의한 픽셀의 분포는 좌측 그래프(610)일 수 있고, 제2 위상 감지 픽셀에 의한 픽셀의 분포는 우측 그래프(620)와 같을 수 있다.Referring to FIG. 6A , a distribution of pixels may be determined using a plurality of phase sensing pixels. For example, the distribution of pixels by the first phase sensing pixels may be the left graph 610 , and the distribution of pixels by the second phase sensing pixels may be the same as the right graph 620 .

프로세서(120)는 복수의 서브 관심 영역 각각에 대응되는 두 개의 위상 감지 픽셀을 이용하여 이미지를 감지하고, 두 개의 이미지를 크로스-코릴레이션(cross-correlation)하여 디스패리티 정보를 산출할 수 있다. 두 개의 이미지에 대한 크로스-코릴레이션 결과는 도 6a의 두 번째 도면이며, 아래쪽으로 볼록한 포물선의 형태일 수 있다.The processor 120 may detect an image using two phase detection pixels corresponding to each of the plurality of sub-ROIs, and may cross-correlate the two images to calculate disparity information. The cross-correlation result for the two images is the second diagram of FIG. 6A , and may be in the form of a parabola convex downward.

프로세서(120)는 크로스-코릴레이션 결과를 분석하고, y 값이 최저가 되는 x 값을 디스패리티 정보로 결정할 수 있다. 즉, 프로세서(120)는 두 이미지의 위상차를 디스패리티 정보로 결정할 수 있다.The processor 120 may analyze the cross-correlation result and determine an x value having the lowest y value as the disparity information. That is, the processor 120 may determine the phase difference between the two images as disparity information.

도 6b에 따르면, 프로세서(120)는 특정 피사체에 대한 디스패리티 정보를 저장부(155)에 저장하고 있을 수 있다. 디스패리티 값이 0인 지점(640)은 두 개의 위상 감지 픽셀을 이용하여 감지된 이미지의 위상차가 0인 지점이고, 렌즈를 이동할 필요가 없다. 디스패리티 값이 1인 지점(650)은 이미지의 위상차가 1인 지점이며, 이때 렌즈의 위치는 400 code이다. 디스패리티 값이 -1인 지점(660)은 이미지의 위상차가 -1인 지점이며, 이때 렌즈의 위치는 50 code이다. Referring to FIG. 6B , the processor 120 may store disparity information on a specific subject in the storage unit 155 . A point 640 having a disparity value of 0 is a point at which a phase difference of an image sensed using two phase detection pixels is 0, and there is no need to move a lens. A point 650 having a disparity value of 1 is a point having a phase difference of 1, and in this case, the position of the lens is 400 code. The point 660 at which the disparity value is -1 is the point at which the phase difference of the image is -1, and the position of the lens is 50 codes.

저장부(155)는 디스패리티 정보에 기초하여 피사체에 대응되는 렌즈의 이동 거리 정보를 저장하고 있을 수 있다. 이러한 정보는 렌즈의 위치, 색 온도 및 조리개 값에 따라 영향을 받게 되며, 이러한 외부 요소를 반영한 렌즈의 이동 거리 정보를 산출하는 방법에 대하여는 후술한다.The storage unit 155 may store movement distance information of a lens corresponding to the subject based on the disparity information. Such information is affected by the lens position, color temperature, and aperture value, and a method of calculating lens movement distance information reflecting these external factors will be described later.

도 7 및 도 8은 본 발명의 일 실시 예에 따른 초점을 맞추기 위한 렌즈의 이동 거리 및 신뢰도 정보를 산출하는 방법을 설명하기 위한 도면이다.7 and 8 are diagrams for explaining a method of calculating a moving distance and reliability information of a lens for focusing according to an embodiment of the present invention.

프로세서(120)는 디스패리티 정보에 기초하여 렌즈의 위치에 대응되는 렌즈의 이동 거리 및 신뢰도 정보를 산출하여 관심 영역(10) 내의 초점 영역을 결정할 수 있다. 렌즈의 이동 거리를 이용하여 관심 영역(10) 내의 초점 영역을 결정하는 방법은 상술하였고, 신뢰도 정보를 산출하여 관심 영역(10) 내의 초점 영역을 결정하는 방법에 대하여는 후술한다.The processor 120 may determine a focus area in the ROI 10 by calculating a movement distance and reliability information of a lens corresponding to a position of the lens based on the disparity information. The method of determining the focal region in the region of interest 10 using the moving distance of the lens has been described above, and the method of determining the focal region in the region of interest 10 by calculating reliability information will be described later.

도 7에 따르면, 렌즈의 위치에 대응되는 렌즈의 이동 거리를 알 수 있다. 이러한 정보는 저장부(155)에 저장되어 있을 수 있으며, 프로세서(120)는 저장부(155)에 저장된 정보에 기초하여 렌즈의 위치를 이동시켜 초점을 맞출 수 있다. 도 7에서 현재 렌즈의 위치가 350 code인 경우 렌즈의 이동 거리는 그래프의 y 값(710)일 수 있다.Referring to FIG. 7 , it is possible to know the movement distance of the lens corresponding to the position of the lens. Such information may be stored in the storage unit 155 , and the processor 120 may focus the lens by moving the position of the lens based on the information stored in the storage unit 155 . In FIG. 7 , when the current lens position is 350 code, the moving distance of the lens may be the y value 710 of the graph.

렌즈의 이동 거리는 디스패리티 정보에 대응될 수 있다. 예를 들어, 렌즈의 이동 거리는 디스패리티 정보에 정비례할 수 있다. 다만, 이는 일 실시 예에 불과하고, 렌즈의 이동 거리는 디스패리티 정보에 기초하여 산출될 수 있으나 정비례하지 않을 수 있다.The moving distance of the lens may correspond to disparity information. For example, the moving distance of the lens may be directly proportional to the disparity information. However, this is only an exemplary embodiment, and the movement distance of the lens may be calculated based on disparity information, but may not be directly proportional to the disparity information.

도 8에 따르면, 프로세서(120)는 크로스-코릴레이션 결과를 이용하여 신뢰도 정보를 산출할 수 있다. 프로세서(120)는 크로스-코릴레이션 커브의 최하 지점의 값을 노이즈로, 최하 지점과 인접한 특정 지점을 시그널로 간주하여 S/N(Signal to Noise) 비를 신뢰도로 산출할 수 있다.Referring to FIG. 8 , the processor 120 may calculate reliability information using the cross-correlation result. The processor 120 may calculate a signal to noise (S/N) ratio with reliability by considering a value of the lowest point of the cross-correlation curve as noise and a specific point adjacent to the lowest point as a signal.

예를 들어, 프로세서(120)는 도 8의 좌측 도면에서 제1 크로스-코릴레이션 커브(810)의 최하 지점의 값인 100을 노이즈로, 최하 지점과 인접한 특정 지점의 값인 200을 시그널로 간주할 수 있다. 제1 크로스-코릴레이션 커브(810)의 S/N 비는 (200-100)/100 = 1 로 계산될 수 있다.For example, in the left diagram of FIG. 8 , the processor 120 may regard 100, which is the value of the lowest point of the first cross-correlation curve 810, as noise, and 200, which is the value of a specific point adjacent to the lowest point, as a signal. have. The S/N ratio of the first cross-correlation curve 810 may be calculated as (200-100)/100=1.

동일하게, 프로세서(120)는 도 8의 우측 도면에서 제2 크로스-코릴레이션 커브(820)의 최하 지점의 값인 100을 노이즈로, 최하 지점과 인접한 특정 지점의 값인 400을 시그널로 간주할 수 있다. 제2 크로스-코릴레이션 커브(820)의 S/N 비는 (400-100)/100 = 3 으로 계산될 수 있다.Similarly, in the right diagram of FIG. 8 , the processor 120 may regard 100, which is the value of the lowest point of the second cross-correlation curve 820, as noise, and 400, which is the value of a specific point adjacent to the lowest point, as a signal. . The S/N ratio of the second cross-correlation curve 820 may be calculated as (400-100)/100=3.

프로세서(120)는 S/N 비가 3으로 나온 제2 크로스-코릴레이션 커브(820)에 대하여 신뢰도가 높다고 판단할 수 있다. 이때, 최하 지점과 인접한 특정 지점은 최하 지점의 x축 값으로부터 동일한 거리 만큼 떨어진 지점으로 설정될 수 있다. 신뢰도 정보로부터 관심 영역(10) 내의 초점 영역을 설정하는 방법은 후술한다.The processor 120 may determine that the second cross-correlation curve 820 having an S/N ratio of 3 has high reliability. In this case, a specific point adjacent to the lowest point may be set as a point separated by the same distance from the x-axis value of the lowest point. A method of setting a focus region in the region of interest 10 from the reliability information will be described later.

도 9는 본 발명의 일 실시 예에 따른 관심 영역(10)을 지정하는 방법을 설명하기 위한 도면이다.9 is a diagram for explaining a method of designating a region of interest 10 according to an embodiment of the present invention.

도 9에 따르면, 촬영 장치는 디스플레이(130)를 더 포함할 수 있다. 디스플레이(130)에는 관심 영역(10) 및 렌즈를 통하여 입력되는 광에 따른 이미지가 디스플레이될 수 있다.According to FIG. 9 , the photographing apparatus may further include a display 130 . An image according to the light input through the ROI 10 and the lens may be displayed on the display 130 .

관심 영역(10)은 사용자에 의해 지정될 수도 있고, 이전에 설정된 관심 영역(10)이 이후에 이용될 때 동일하게 적용될 수도 있다. 다만, 이에 한정되는 것은 아니고, 최초 사용 시에 설정된 관심 영역(10)이 계속하여 이용되거나, 사람의 얼굴을 인식한 후 인식된 얼굴 주위로 관심 영역(10)이 자동으로 설정될 수도 있다.The region of interest 10 may be designated by a user, and the same may be applied when the previously set region of interest 10 is used later. However, the present invention is not limited thereto, and the region of interest 10 set at the time of initial use may be continuously used, or the region of interest 10 may be automatically set around the recognized face after recognizing a human face.

관심 영역(10)이 사용자에 의해 지정되는 경우, 사용자는 터치 스크린을 터치하여 특정 영역을 설정할 수 있다. 이 경우, 디스플레이(130)는 터치 스크린일 수 있다. 터치 스크린을 이용하여 관심 영역(10)을 설정하는 경우, 사용자는 사각형의 궤적을 터치 스크린 상에 그릴 수도 있으나, 특정한 두 지점을 터치하여 관심 영역(10)을 설정할 수도 있다. 또한, 사용자가 터치하는 시간에 따라 특정 형태의 관심 영역(10)의 크기가 변경되는 구성도 가능하며, 그 밖의 다양한 방법으로 관심 영역(10)을 설정할 수 있다.When the region of interest 10 is designated by the user, the user may set the specific region by touching the touch screen. In this case, the display 130 may be a touch screen. When the region of interest 10 is set using the touch screen, the user may draw a square trajectory on the touch screen, or set the region of interest 10 by touching two specific points. In addition, a configuration in which the size of the specific shape of the ROI 10 is changed according to the user's touch time is also possible, and the ROI 10 may be set in various other methods.

또한, 사용자는 버튼(910)을 이용하여 관심 영역(10)을 지정할 수도 있다. 사용자는 버튼(910)을 이용하여 기설정된 크기의 관심 영역(10)을 이동시킬 수 있다. 관심 영역(10)의 크기는 버튼(910) 중 하나를 두 번 연속으로 누르는 동작을 통해 변경할 수도 있다. 예를 들어, 오른쪽 버튼을 두 번 연속으로 누르는 경우 관심 영역(10)의 오른쪽 변이 이동되어 관심 영역(10)의 크기가 변경될 수 있다. 도 9에는 버튼(910)이 4 방향 버튼인 것으로 도시되었으나, 이에 한정되는 것은 아니고, 조이스틱 형태의 버튼이 장치되어 있을 수도 있다. 또한, 관심 영역(10)은 사각형으로 표시되어 있으나, 이에 한정되는 것은 아니며, 원형 또는 삼각형일 수도 있다.Also, the user may designate the region of interest 10 by using the button 910 . The user may move the ROI 10 of a preset size by using the button 910 . The size of the region of interest 10 may be changed by pressing one of the buttons 910 twice in succession. For example, when the right button is pressed twice in succession, the right side of the ROI 10 may be moved to change the size of the ROI 10 . Although the button 910 is illustrated as a four-way button in FIG. 9 , the present invention is not limited thereto, and a joystick-shaped button may be provided. In addition, although the region of interest 10 is indicated by a quadrangle, it is not limited thereto, and may be a circle or a triangle.

사용자는 관심 영역(10)의 지정 뿐만 아니라 초점 영역을 설정할 수 있다. 예를 들어, 프로세서(120)는 렌즈의 이동 거리의 차이가 가장 큰 쌍을 나타내는 UI를 디스플레이하도록 디스플레이(130)를 제어할 수 있다. 도 9에 따르면, 프로세서(120)는 좌측 서브 관심 영역(13)과 우측 서브 관심 영역(14)을 디스플레이할 수 있다. 그리고, 렌즈의 이동 거리의 차이가 가장 큰 쌍 중 하나를 선택하는 사용자 입력이 수신되면, 프로세서(120)는 선택된 서브 관심 영역을 초점 영역으로 결정할 수 있다. 초점 영역의 선택 또한 상술한 바와 같이 사용자의 터치 또는 버튼 입력으로 가능하다.The user can designate the region of interest 10 as well as set the focus region. For example, the processor 120 may control the display 130 to display a UI indicating a pair having the largest difference in the movement distance of the lenses. Referring to FIG. 9 , the processor 120 may display the left sub-ROI 13 and the right sub-ROI 14 . In addition, when a user input for selecting one of a pair having the largest difference in movement distance of the lenses is received, the processor 120 may determine the selected sub-ROI as a focus area. The selection of the focus area is also possible by the user's touch or button input as described above.

도 10은 본 발명의 일 실시 예에 따른 관심 영역(10)이 이미지 센서(110) 전체인 경우 초점 영역을 결정하는 방법을 설명하기 위한 도면이다.10 is a diagram for explaining a method of determining a focus area when the area of interest 10 is the entire image sensor 110 according to an embodiment of the present invention.

도 10a에 따르면, 프로세서(120)는, 관심 영역(10)을 동일한 크기의 M개의 행과 N개의 열로 분할할 수 있다. 다만, 이에 한정되는 것은 아니며, 동일한 크기가 아닐 수도 있다. 또한, 사각형이 아닌 다양한 형태로 분할하는 구성도 가능하다. 그리고, 도 10a에는 각각의 분할된 영역이 겹쳐지지 않는 것으로 도시되어 있으나, 이에 한정되는 것은 아니며, 도 5에서와 같이 겹쳐지는 쌍이 존재하는 방식으로 분할될 수도 있다.Referring to FIG. 10A , the processor 120 may divide the ROI 10 into M rows and N columns of the same size. However, the present invention is not limited thereto, and may not have the same size. In addition, it is also possible to configure the division into various shapes other than a rectangle. In addition, although each divided region is illustrated as not overlapping in FIG. 10A , the present invention is not limited thereto, and may be divided in such a way that overlapping pairs exist as in FIG. 5 .

도 10b에 따르면, 프로세서(120)는 각각의 서브 관심 영역에 대한 렌즈의 이동 거리를 산출할 수 있다. 각각의 영역에 대한 렌즈의 이동 거리를 산출하는 방법은 상술하였으므로 생략한다.Referring to FIG. 10B , the processor 120 may calculate a movement distance of a lens for each sub-ROI. Since the method of calculating the moving distance of the lens for each area has been described above, it will be omitted.

그리고, 프로세서(120)는 인접한 서브 관심 영역에 대한 렌즈의 이동 거리의 차이가 기설정된 크기 이하인 경우 인접한 서브 관심 영역을 그룹화하여, 관심 영역 내의 초점 영역을 결정할 수 있다. 예를 들어, 제1 그룹 영역(1010) 및 제2 그룹 영역(1020)은 이동 거리의 차이가 2 이하인 경우에 그룹화된 영역을 나타낸다. 도 10b에서는 그룹화를 설명하기 위해 렌즈의 이동 거리를 대략적으로 나타내었으며, 얼마든지 다른 값을 가질 수 있다. 또한, 이동 거리의 차이가 2 이하인 경우로 가정하였으나, 이 역시 다른 값을 가질 수 있고, 사용자에 의해 설정될 수도 있다.In addition, when a difference in a movement distance of a lens with respect to an adjacent sub-ROI is less than or equal to a preset size, the processor 120 groups adjacent sub-ROIs to determine a focus area within the ROI. For example, the first group area 1010 and the second group area 1020 represent a grouped area when the difference between the moving distances is 2 or less. In FIG. 10B , the movement distance of the lens is roughly shown to explain grouping, and may have any number of different values. In addition, although it is assumed that the difference in the movement distance is 2 or less, this may also have a different value and may be set by the user.

또한, 프로세서(120)는 서브 관심 영역의 신뢰도가 기설정된 신뢰도보다 큰 서브 관심 영역만을 그룹화할 수도 있다.Also, the processor 120 may group only the sub-ROIs in which the reliability of the sub-ROIs is greater than the preset reliability.

프로세서(120)는 피사체와의 거리가 가장 가까운 그룹, 신뢰도가 가장 높은 그룹 및 서브 관심 영역이 가장 많이 그룹화된 그룹 중 하나의 그룹을 초점 영역으로 결정할 수 있다.The processor 120 may determine, as the focus area, one of a group having the closest distance to the subject, a group having the highest reliability, and a group having the most sub-ROIs.

피사체와의 거리가 가장 가까운 그룹이 기준인 경우, 프로세서(120)는 그룹화된 서브 관심 영역의 렌즈 이동 거리를 평균 내어 초점 영역을 결정할 수 있다. 피사체와의 거리에 대하여는 상술하였으므로 생략한다. 다만, 이에 한정되는 것은 아니며, 피사체와의 거리가 가장 먼 그룹이 선택될 수도 있다. 또한, 그룹에 한정되지 않고, 그룹화되지 않은 서브 관심 영역 중 하나가 선택될 수도 있다.When the group closest to the subject is the reference, the processor 120 may determine the focus area by averaging the lens movement distances of the grouped sub-ROIs. Since the distance to the subject has been described above, it is omitted. However, the present invention is not limited thereto, and a group having the longest distance from the subject may be selected. Also, it is not limited to a group, and one of the sub-ROIs that are not grouped may be selected.

신뢰도가 가장 높은 그룹이 기준이 경우도 유사하다. 신뢰도의 산출 방법은 상술하였고, 특정 그룹의 신뢰도 역시 상술한 바와 같이 평균값을 이용할 수 있다. 또한, 그룹에 한정되지 않고, 그룹화되지 않은 서브 관심 영역 중 하나가 선택될 수도 있다.The same is the case with the group with the highest reliability. The method of calculating the reliability has been described above, and the average value of the reliability of a specific group may also be used as described above. Also, it is not limited to a group, and one of the sub-ROIs that are not grouped may be selected.

서브 관심 영역이 가장 많이 그룹화된 그룹이 기준인 경우, 프로세서(120)는 각 그룹의 서브 관심 영역의 개수를 파악하여 초점 영역을 결정할 수 있다. 다만, 이에 한정되는 것은 아니며, 특정 개수인 그룹이 선택되는 구성도 가능하다. 또한, 동일한 개수의 그룹이 여러 그룹인 경우, 프로세서(120)는 여러 그룹 중에서 피사체와의 거리가 가장 가까운 그룹 및 신뢰도가 가장 높은 그룹 중 하나를 이용하여 초점 영역을 결정할 수도 있다.When the group in which the most sub-ROIs are grouped is a reference, the processor 120 may determine the focus area by determining the number of sub-ROIs in each group. However, the present invention is not limited thereto, and a configuration in which a specific number of groups is selected is also possible. Also, when the same number of groups is multiple, the processor 120 may determine the focus area by using one of the group having the closest distance to the subject and the group having the highest reliability among the multiple groups.

도 11은 본 발명의 일 실시 예에 따른 촬영 장치(100)의 회로 구성을 도시한 블럭도이다.11 is a block diagram illustrating a circuit configuration of the photographing apparatus 100 according to an embodiment of the present invention.

도 11을 참조하면, 촬영 장치(100)는 렌즈(111), 이미지 센서(110), TG(Timing Generator)(114), AFE(Analog Front End)(113), 모터 드라이버(115), 결합부(119), 입력부(190), 이미지 처리부(170), 통신부(150), 프로세서(120), 디스플레이부(130), SDRAM 모듈(117), 메모리 카드(118), USB 모듈(116)을 포함한다.Referring to FIG. 11 , the photographing apparatus 100 includes a lens 111 , an image sensor 110 , a timing generator (TG) 114 , an analog front end (AFE) 113 , a motor driver 115 , and a coupling unit. 119 , an input unit 190 , an image processing unit 170 , a communication unit 150 , a processor 120 , a display unit 130 , an SDRAM module 117 , a memory card 118 , and a USB module 116 . do.

렌즈(111)는, 피사체에 반사된 광이 입사하는 구성으로, 단 초점 렌즈를 포함하며, 도면에 도시되지는 않았으나, 촬영 장치(100)는 조리개(미도시)를 더 구비할 수 있다.The lens 111 is a configuration through which light reflected on a subject is incident, and includes a short focus lens, and although not shown in the drawings, the photographing apparatus 100 may further include an aperture (not shown).

조리개는 렌즈(111)를 통과하여 이미지 센서로 입사되는 광의 양을 조절하는 구성이다. 조리개는 입사되는 광량을 조정할 수 있도록 개구부의 크기를 점진적으로 증가 또는 감소시킬 수 있는 기계적인 구조를 갖는다. 이러한 조리개는 F 수치로 불리는 조리개 수치로 개방 정도를 표시하며, 조리개 값이 작을수록 개방 크기가 넓어지므로, 입사광의 양이 많아져 밝은 이미지를 생성할 수 있다.The diaphragm is a configuration that adjusts the amount of light incident to the image sensor through the lens 111 . The diaphragm has a mechanical structure that can gradually increase or decrease the size of the opening so that the amount of incident light can be adjusted. Such an iris indicates the degree of opening by an iris number called an F-number, and the smaller the diaphragm value, the wider the opening, so that the amount of incident light increases and a bright image can be generated.

이미지 센서(110)는 렌즈(111)를 통과한 피사체의 상이 결상되는 구성이다. 이미지 센서(110)는 매트릭스 형태로 배치된 복수의 픽셀을 포함한다. 복수의 픽셀 각각은 입사광에 따른 광전하를 축적하고, 광전하에 의한 상을 전기 신호로 출력한다. 이미지 센서(110)는 상보성 금속 산화물 반도체(Complementary Metal Oxide Semiconductor: CMOS) 또는 전하 결합 소자(Charge Coupled Device: CCD)로 구성될 수 있다.The image sensor 110 is configured to form an image of a subject passing through the lens 111 . The image sensor 110 includes a plurality of pixels arranged in a matrix form. Each of the plurality of pixels accumulates photocharges according to incident light, and outputs an image based on the photocharges as electrical signals. The image sensor 110 may be formed of a complementary metal oxide semiconductor (CMOS) or a charge coupled device (CCD).

또한, 이미지 센서(110)는 포토 다이오드(PD). 전송 트랜지스터(TX), 리셋 트렌지스터(RX), 플로우팅 확산 노드(FD)를 포함할 수 있다. 포토 다이오드(PD)는 피사체의 광학상에 대응하는 광전하를 생성하여 축적한다. 전송 트랜지스터(TX)는 전송 신호에 응답하여 포토 다이오드(PD)에 생성된 광전하를 플로우팅 확산 노드(FD)로 전송한다. 리셋 트랜지스터는 리셋 신호에 응답하여 플로우팅 확산 노드(FD)에 저장된 전하를 배출한다. 리셋 신호가 인가되기 전에 플로우팅 확산 노드(FD)에 저장된 전하가 출력되는데, CDS 이미지 센서의 경우 CDS(Correlated Double Sampling) 처리를 수행한다. 그리고, ADC가 CDS 처리가 수행된 아날로그 신호를 디지털 신호로 변환한다.In addition, the image sensor 110 is a photodiode (PD). It may include a transfer transistor TX, a reset transistor RX, and a floating diffusion node FD. The photodiode PD generates and accumulates photocharges corresponding to the optical image of the subject. The transfer transistor TX transmits the photocharge generated in the photodiode PD to the floating diffusion node FD in response to the transmission signal. The reset transistor discharges charges stored in the floating diffusion node FD in response to the reset signal. Charges stored in the floating diffusion node FD are output before the reset signal is applied. In the case of a CDS image sensor, correlated double sampling (CDS) processing is performed. Then, the ADC converts the analog signal on which CDS processing has been performed into a digital signal.

TG(Timing Generator 114)는, 이미지 센서(110)의 픽셀 데이터를 리드아웃(readout)하기 위한 타이밍 신호를 출력한다. TG(114)는 프로세서(120)에 의해 제어된다. The TG (Timing Generator 114 ) outputs a timing signal for reading out pixel data of the image sensor 110 . TG 114 is controlled by processor 120 .

AFE(Analog Front End, 113)는, 이미지 센서(110)로부터 출력된 피사체 상의 전기 신호를 샘플링하여 디지털화한다. AFE(Analog Front End, 113)는, 프로세서(120)에 의해 제어된다.An analog front end (AFE) 113 samples and digitizes an electrical signal on a subject output from the image sensor 110 . AFE (Analog Front End, 113 ) is controlled by the processor 120 .

다만, 상기와 같이 AFE(113)와 TG(114)를 대체할 수 있는 다른 구성으로 설계될 수도 있다. 특히, 이미지 센서(110)가 CMOS 형으로 구현되는 경우, 이러한 구성을 불필요할 수 있다. However, as described above, the AFE 113 and the TG 114 may be designed in a different configuration. In particular, when the image sensor 110 is implemented in a CMOS type, such a configuration may be unnecessary.

모터 드라이버(115)는, 위상차 픽셀을 리드아웃하여 계산된 정보에 기초하여 포커싱 렌즈를 구동하여 포커스를 맞춘다. 다만, 촬영 장치(100)가 스마트폰이나 셀룰러폰으로 구현되는 경우 포커싱을 위한 렌즈를 구동하지 않고 소프트웨어적으로 처리하고, 모터 드라이버(115)가 구비되지 않을 수 있다. The motor driver 115 drives a focusing lens based on information calculated by reading out the phase difference pixel to focus. However, when the photographing apparatus 100 is implemented as a smart phone or a cellular phone, the lens for focusing may not be driven and processed through software, and the motor driver 115 may not be provided.

이미지 처리부(170)는, 프로세서(120)의 제어에 의해 로우 이미지 데이터(RAW IMAGE DATA)를 이미지 처리하고, SDRAM(117)에 기록한다. 그리고, SDRAM(117)의 영상 처리된 데이터를 디스플레이(130)에 전달한다. The image processing unit 170 image-processes raw image data under the control of the processor 120 , and writes it in the SDRAM 117 . Then, the image-processed data of the SDRAM 117 is transferred to the display 130 .

위상차를 이용한 오토 포커싱을 하는 경우, 이미지 처리부(170)는 이미지 센서(110)에서 출력되어 AFE(113)에 의해 샘플링된 신호 중에서 이미지를 생성하기 위한 신호(일반 픽셀로부터 리드아웃된 신호)와 위상차를 계산하기 위한 신호(위상차 픽셀로부터 리드아웃된 신호)를 분리한다.In the case of auto-focusing using a phase difference, the image processing unit 170 outputs a signal (a signal read out from a normal pixel) for generating an image among signals output from the image sensor 110 and sampled by the AFE 113 and a phase difference Separate the signal (signal read out from the phase difference pixel) for calculating .

이미지 처리부(170)는, 로우 이미지 데이터를 처리하며, YCbCr 데이터로 만든다. 로우 이미지 데이터는 우선, 보정회로(미도시)에 의해 픽셀 결함이 보정된다. 보정회로는 보정 테이블을 참조하여, 픽셀 결함을 보정하는데, 보정테이블은 결함이 있는 픽셀의 어드레스가 등록되어 있다. 이 어드레스와 일치하는 픽셀에 대해서 주위의 픽셀로부터 보정을 수행한다.The image processing unit 170 processes the raw image data and makes it YCbCr data. In raw image data, pixel defects are first corrected by a correction circuit (not shown). The correction circuit corrects the pixel defect by referring to the correction table, in which the address of the defective pixel is registered. For pixels matching this address, correction is performed from surrounding pixels.

이미지 처리부(170)는 이미지의 블랙 레벨을 결정하는 OB 클램프 회로(미도시)를 포함한다. 이미지 센서(110)는 OB(Optical Black) 영역이 있으며, OB영역의 신호 평균값을 검출하여 각 픽셀값의 차이를 통해 블랙 레벨을 결정한다.The image processing unit 170 includes an OB clamp circuit (not shown) that determines the black level of the image. The image sensor 110 has an optical black (OB) region, detects an average signal value of the OB region, and determines a black level through a difference between pixel values.

또한, 이미지 처리부(170)는 감도비 조정 회로(미도시)를 이용하여 색상별로 상이한 감도비 조정을 수행한다. 감도비 조정 회로는 표준 광원 하에서 R,G,B색의 감도를 조정한다. 통상적으로 G의 게인값을 1로 고정하고 R, B의 감도를 이에 맞춘다. Also, the image processing unit 170 performs different sensitivity ratio adjustments for each color using a sensitivity ratio adjustment circuit (not shown). The sensitivity ratio adjustment circuit adjusts the sensitivity of R, G, and B colors under a standard light source. Usually, the gain value of G is fixed to 1 and the sensitivities of R and B are adjusted accordingly.

정지 이미지를 출력하는 경우 감도비 조정 후에 이미지 데이터를 출력버퍼를 통해 출력한다. 이 경우 인터레시스(interlace)방식으로 이미지를 생성하므로, 곧바로 후처리를 할 수 없는 반면, 라이브 뷰 이미지를 출력하는 경우에는 프로그래시브(progressive)방식으로 이미지를 생성하기 때문에 바로 후처리가 가능하다. When outputting a still image, after adjusting the sensitivity ratio, the image data is output through the output buffer. In this case, since the image is generated in an interlace method, post-processing cannot be performed immediately. On the other hand, in the case of outputting a live view image, post-processing is possible immediately because the image is generated in a progressive method. do.

또한, 이미지 처리부(170)는 수평 스킵 리드아웃 회로(미도시)를 이용하여 일부 픽셀 라인은 리드아웃하고 나머지 픽셀 라인은 스킵하는 스킵 리드아웃을 수행하므로, 로우 이미지의 픽셀 수가 감소된다.Also, since the image processing unit 170 performs skip readout in which some pixel lines are read out and the remaining pixel lines are skipped using a horizontal skip readout circuit (not shown), the number of pixels of a raw image is reduced.

이미지 처리부(170)는 WB조정회로(미도시)를 이용하여 이미지 데이터에 대한 화이트 밸런스(WB : White Balance)를 조정한다. 촬영 환경에 따라 조명광의 분광 분포가 다르므로 흰 피사체를 촬영해도 희게 표시되지 않을 수 있다. R,G,B 픽셀마다 상이한 게인값을 주어 신호 레벨을 맞춘다.The image processing unit 170 adjusts white balance (WB) for image data using a WB adjustment circuit (not shown). Since the spectral distribution of illumination light varies depending on the shooting environment, it may not be displayed white even when shooting a white subject. A different gain value is given to each R, G, and B pixel to match the signal level.

또한, 이미지 처리부(170)는 이미지 데이터에 대한 감마 보정을 수행한다. 감마 보정을 통해 디스플레이(130)의 출력에 맞는 계조 변환이 이루어진다. Also, the image processing unit 170 performs gamma correction on the image data. A grayscale conversion suitable for the output of the display 130 is performed through gamma correction.

또한, 이미지 처리부(170)는 색보간 회로(미도시)를 이용하여 1픽셀당 1색의 베이어 신호에서 1픽셀당 3색으로 이루어진 통상의 컬러 이미지 신호를 생성한다. Also, the image processing unit 170 generates a normal color image signal including three colors per pixel from a Bayer signal of one color per pixel by using a color interpolation circuit (not shown).

또한, 색변환/색보정 회로(미도시)를 이용하여 출력에 맞는 색공간 변환을 하고, 색보정을 한다. 필요에 따라 LUT(Look Up Table)을 이용할 수 있다. 색변환/색보정 후에 이미지 데이터는 YCbCr 데이터가 된다. In addition, a color space conversion suitable for the output is performed using a color conversion/color correction circuit (not shown), and color correction is performed. A look-up table (LUT) can be used as needed. After color conversion/color correction, the image data becomes YCbCr data.

이미지 처리부(170)는 해상도 변환 회로(미도시)를 이용하여 해상도를 변환하여 사이즈를 맞춘다.The image processing unit 170 adjusts the size by converting the resolution using a resolution conversion circuit (not shown).

이미지 처리부(170)는 공간 필터 회로(미도시)를 이용하여 이미지 데이터에 대한 공간 필터를 처리한다. Y신호의 엣지 강조가 이루어지고, Cb/CR 신호의 LPF(Low Pass Filter)처리를 수행한다. The image processing unit 170 processes a spatial filter for image data using a spatial filter circuit (not shown). Edge enhancement of the Y signal is performed, and LPF (Low Pass Filter) processing of the Cb/CR signal is performed.

또한, 이미지 처리부(170)는 CbCr스킵 리드아웃 회로(미도시)를 이용하여 Cb/Cr신호에 대해 스킵 리드아웃을 수행하여 YCbCr4:2:2의 이미지 데이터로 변환한다. 이미지 데이터는 출력버퍼를 통해 출력되고, 버스를 통해 SDRAM(117)에 기록된다. Also, the image processing unit 170 performs skip readout on the Cb/Cr signal using a CbCr skip readout circuit (not shown) to convert it into YCbCr4:2:2 image data. The image data is output through the output buffer, and is written to the SDRAM 117 through the bus.

정지 이미지의 경우, 인터레이스 방식으로 리드아웃이 수행될 수 있는데, 이 경우, 인접하는 픽셀 라인이 존재하지 않으므로 직접 색 보간을 처리할 수 없다. 따라서, 전처리가 끝난 후, 일단 출력버퍼를 통해 SDRAM(117)에 픽셀 라인 순서를 조정하여 프로그래시브 형태로 저장한다.In the case of a still image, readout may be performed in an interlaced manner. In this case, since adjacent pixel lines do not exist, direct color interpolation cannot be processed. Accordingly, after the pre-processing is completed, the pixel line order is adjusted in the SDRAM 117 through the output buffer and stored in a progressive form.

다만, 본 발명의 실시 예가 정지 이미지의 경우 인터레이스 방식에 한정하는 것은 아니며, 프로그래시브 방식으로 리드아웃하도록 구현될 수도 있다. However, the embodiment of the present invention is not limited to the interlace method in the case of a still image, and may be implemented to be read out in a progressive method.

한편, 정지 이미지의 경우, 촬영 후에 조그맣게 보여주는 프리뷰 이미지나, 썸네일 이미지를 생성할 필요가 있다. 이는 스킵 리드아웃처럼 일부 픽셀의 데이터를 생략하여 작성한다.On the other hand, in the case of a still image, it is necessary to generate a preview image or a thumbnail image that is displayed small after shooting. It is written by omitting data of some pixels like skip readout.

이미지 처리부(170)는 AF신호 보간 회로(미도시)를 이용하여 위상차 픽셀 부분을 일반 픽셀값으로 보간한다. 위상차 픽셀이 일반 픽셀 사이에 위치하므로, 해상도 열화가 발생할 수 있어 주변의 일반 픽셀을 이용하여 보간을 수행한다.The image processing unit 170 interpolates the phase difference pixel portion into a normal pixel value using an AF signal interpolation circuit (not shown). Since the phase difference pixel is located between normal pixels, resolution degradation may occur, so that interpolation is performed using surrounding normal pixels.

상술한 이미지 처리부(170)의 처리 과정에 기초하여, 이미지 처리부(170)는 프로세서(120)의 제어 하에 촬영 장치(100)를 통해 획득되는 복수의 이미지 중 하나의 이미지의 속성에 기초하여 나머지 이미지의 속성을 동일하게 조정할 수 있다.Based on the above-described processing process of the image processing unit 170 , the image processing unit 170 performs the remaining images based on the attribute of one of the plurality of images acquired through the photographing apparatus 100 under the control of the processor 120 . properties can be adjusted in the same way.

한편, 분리 회로(미도시)에서 분리된 위상차 픽셀의 신호는 일단 제1버스를 통해 SDRAM(117)에 기록된다. 복수의 픽셀 전부에 대해 리드아웃이 이루어지고, 분리가 이루어지므로, 짧은 기간 동안 각 위상차 픽셀 신호는 SDRAM(117)에 축적된다. Meanwhile, the signal of the phase difference pixel separated by the separation circuit (not shown) is once written to the SDRAM 117 through the first bus. Since readout and separation are performed for all of the plurality of pixels, each phase difference pixel signal is accumulated in the SDRAM 117 for a short period of time.

저장된 위상차 픽셀 신호는 제1버스를 통해 위상차 연산회로(미도시)로 입력된다. 위상차 연산 회로는, 위상차 픽셀 간의 위상차를 연산하고, 포커스 렌즈의 이동 방향과 이동량을 계산한다. 계산된 이동량은 위상차 연산회로 내의 레지스터에 일시적으로 기록되며, 프로세서(120 즉, CPU)가 독출한다.The stored phase difference pixel signal is input to a phase difference calculation circuit (not shown) through the first bus. The phase difference calculation circuit calculates the phase difference between phase difference pixels, and calculates the movement direction and movement amount of the focus lens. The calculated movement amount is temporarily written to a register in the phase difference calculation circuit, and is read by the processor 120 , that is, the CPU.

프로세서(120)는, 포커스 렌즈의 계산된 이동량을 읽어와서, 제어 명령을 생성한다. 생성된 제어 명령을 모터 드라이버(115)에 전달하여 포커스 렌즈를 구동한다.The processor 120 reads the calculated movement amount of the focus lens and generates a control command. The generated control command is transmitted to the motor driver 115 to drive the focus lens.

JPEG 코덱은, YCbCr 데이터를 압축한다. 그리고, 압축된 이미지 데이터는 SDRAM(117)에 기록된다. 프로세서(120)가 SDRAM(117)에 기록된 압축 이미지 데이터를 읽어와 메모리 카드(118)에 기록함으로써, 이미지 생성 절차가 종료된다. The JPEG codec compresses YCbCr data. Then, the compressed image data is recorded in the SDRAM 117 . When the processor 120 reads the compressed image data recorded in the SDRAM 117 and writes it to the memory card 118 , the image creation procedure ends.

통신부(150)는 다른 장치와 통신을 수행하기 위한 구성이다. 통신부(150)는 다양한 무선 통신 기술로 구현될 수 있다. 주로 통신부(150)는 디바이스간 중계 장치 없이 직접 통신을 수행하는 근거리 통신 모듈을 포함할 수 있다.The communication unit 150 is configured to communicate with other devices. The communication unit 150 may be implemented using various wireless communication technologies. Mainly, the communication unit 150 may include a short-distance communication module for performing direct communication without a device-to-device relay device.

결합부(119)는 다른 장치와 결합하여 고정되기 위하여 사용될 수 있으며, 결합부(119)를 통해 유선 통신을 수행할 수도 있게 된다. 다른 장치와 결합하여 사용되는 경우에 대해서는 후술하기로 한다.The coupling unit 119 may be used to be fixed in combination with other devices, and it may be possible to perform wired communication through the coupling unit 119 . The case where it is used in combination with other devices will be described later.

통신부(150)는 와이파이 다이렉트(WIFI DIRECT) 통신 모듈, 블루투스(bluetooth)모듈, 적외선 통신(IrDA, infrared data association)모듈, NFC(Near Field Communication)모듈, 지그비(Zigbee) 모듈 중 적어도 하나를 포함할 수 있다.The communication unit 150 may include at least one of a Wi-Fi Direct communication module, a Bluetooth module, an infrared data association (IrDA) module, a Near Field Communication (NFC) module, and a Zigbee module. can

다른 통신 기술 수단의 적용을 배제하는 것은 아니다. 예를 들어, 셀룰러 통신모듈, 3G(3세대) 이동통신 모듈, 4G(4세대) 이동통신 모듈, 4세대 LTE(Long Term Evolution) 통신 모듈 중 어느 하나를 포함할 수 있다.The application of other means of communication technology is not excluded. For example, it may include any one of a cellular communication module, a 3G (3rd generation) mobile communication module, a 4G (4th generation) mobile communication module, and a 4th generation Long Term Evolution (LTE) communication module.

USB 모듈(116)은 외부 장치와의 인터페이스를 제공한다. USB모듈(116)은 USB케이블을 통해 PC나 기타 외부 장치와 연결된 경우, 이미지 데이터의 송수신을 처리한다. 또한, 펌웨어 업그레이드를 수행하기 위한 펌웨어 송수신을 처리한다. The USB module 116 provides an interface with an external device. The USB module 116 processes transmission and reception of image data when connected to a PC or other external device through a USB cable. In addition, it processes firmware transmission/reception for performing firmware upgrade.

입력부(190)는 사용자 입력을 수신하기 위한 구성이다. 입력부(190)는 적어도 하나의 버튼을 포함할 수 있다. 또한, 입력부(190)는 디스플레이(130)에 위치하는 터치 스크린을 포함할 수 있다.The input unit 190 is configured to receive a user input. The input unit 190 may include at least one button. Also, the input unit 190 may include a touch screen positioned on the display 130 .

촬영 명령 또는 영상 캡쳐 명령뿐만 아니라, 입력부(190)는 촬영 영상의 배율을 조정하기 위한 사용자 명령을 입력받을 수 있다. In addition to the shooting command or the image capturing command, the input unit 190 may receive a user command for adjusting the magnification of the captured image.

촬영 배율 조정 명령은 촬영 장치(100)에 포함된 버튼을 누르는 사용자 명령일 수 있다. 예를 들면, 입력부(190)가 상 버튼 및 하 버튼을 포함하는 경우, 라이브뷰가 디스플레이되는 동안, 상 버튼을 누르는 사용자 명령이 입력되면, 라이브 뷰 영상이 확대될 수 있다.The photographing magnification adjustment command may be a user command for pressing a button included in the photographing apparatus 100 . For example, when the input unit 190 includes an up button and a down button, if a user command to press the up button is input while the live view is displayed, the live view image may be enlarged.

또한, 입력부(190)는 터치 스크린으로 구현되어, 디스플레이(130)를 통해, 촬영 영상의 배율을 조정하는 사용자 명령을 입력받을 수도 있다.Also, the input unit 190 may be implemented as a touch screen, and may receive a user command for adjusting the magnification of the captured image through the display 130 .

SDRAM(Synchronous Dynamic RAM 117) 은, 이미지를 저장하거나 CPU에 의한 이미지 작업에 이용된다. 본 발명의 일 실시 예에서, 시스템 클록의 상승단과 하강단 모두에서 출력이 나오도록 하여 상승단에서만 출력이 나오는 것에 비해 출력을 2배 향상시킬 수 있는 DDR SDRAM이 사용될 수 있다.SDRAM (Synchronous Dynamic RAM 117) is used to store images or image operations by the CPU. In an embodiment of the present invention, a DDR SDRAM capable of increasing the output by two times compared to outputting only from the rising end by allowing the output to come out from both the rising end and the falling end of the system clock may be used.

메모리 카드(118)는 플래시 메모리를 포함하여 구성될 수 있으며, 촬영 장치(100)에 착탈이 가능한 카드 형태로 구현될 수 있다. 그리고, 메모리 카드(118)는 촬영된 이미지 파일을 저장할 수 있다.The memory card 118 may include a flash memory, and may be implemented in the form of a card detachable from the photographing apparatus 100 . In addition, the memory card 118 may store the captured image file.

도 12는 본 발명의 일 실시 예에 따른 렌즈의 이동 거리에 대한 정보를 보정하는 방법을 설명하기 위한 도면이다.12 is a view for explaining a method of correcting information on a movement distance of a lens according to an embodiment of the present invention.

도 12에 대해 설명하기에 앞서 촬영 장치(100)는 초점을 맞추기 위해 콘트라스트 검출 방식 및 위상차 검출 방식을 모두 이용하는 장치인 것으로 가정한다.12 , it is assumed that the photographing apparatus 100 uses both a contrast detection method and a phase difference detection method for focusing.

그리고, 렌즈의 이동 거리는 초점을 맞추기 위해 콘트라스트 검출 방식으로 측정된 렌즈의 이동 거리에 기초하여, 렌즈의 위치에 대해 위상차 검출 방식으로 산출되는 디스패리티 정보로부터 결정된 정보일 수 있다.In addition, the movement distance of the lens may be information determined from disparity information calculated by the phase difference detection method with respect to the position of the lens based on the movement distance of the lens measured by the contrast detection method to focus.

상술하였듯이, 콘트라스트 검출 방식을 이용하는 경우 속도가 느리다는 단점이 있고, 위상차 검출 방식을 이용하는 경우 콘트라스트 검출 방식에 비해 상대적으로 부정확할 수 있다. 또한, 디스패리티 정보에 기초하여 피사체에 대응되는 렌즈의 이동 거리 정보는 렌즈의 위치, 색 온도 및 조리개 값에 따라 오차가 발생할 수 있다.As described above, when the contrast detection method is used, the speed is slow, and when the phase difference detection method is used, it may be relatively inaccurate compared to the contrast detection method. Also, based on the disparity information, the movement distance information of the lens corresponding to the subject may have an error depending on the position of the lens, the color temperature, and the aperture value.

프로세서(120)가 초점 영역을 결정하기 위해 위상 검출 방식을 이용하고, 그 결과인 디스패리티 정보로부터 피사체에 대응되는 렌즈의 이동 거리 정보는 선형적이지 않기 때문에 보정이 필요하며, 이러한 보정은 콘트라스트 검출 방식을 이용할 수 있다. 구체적으로, 콘트라스트 검출 방식을 이용하여 이미지 센서(110)의 특정 영역에 대하여 특정 피사체에 대한 정확한 초점 정보를 구하고, 렌즈의 위치에 따른 렌즈의 이동 거리를 계산해둘 수 있다. 그리고, 계산된 렌즈의 이동 거리에 기초하여 위상 검출 방식에 따른 디스패리티 정보를 대응되도록 보정할 수 있다.The processor 120 uses the phase detection method to determine the focus area, and from the resultant disparity information, the movement distance information of the lens corresponding to the subject is not linear, so correction is required, and such correction is contrast detection method can be used. Specifically, by using the contrast detection method, accurate focus information on a specific subject for a specific area of the image sensor 110 may be obtained, and a movement distance of the lens according to the position of the lens may be calculated. And, based on the calculated movement distance of the lens, disparity information according to the phase detection method may be corrected to correspond to the disparity information.

도 12a는 이미지 센서(110)의 특정 영역을 나타낸 도면으로, 특히 가운데 영역 및 4개의 구석 영역을 나타내었다. 보정은 각각의 영역에 대하여 이루어져야 하며, 도 12a에 도시된 바와 같이 5개의 영역에 한정되는 것은 아니다. 또한, 각각의 영역에서 피사체의 위치에 따라서도 보정이 필요하다. 즉, 보정된 렌즈의 이동 거리 정보는 초점 영역 및 피사체의 위치에 따라 보정된 정보일 수 있다.12A is a view illustrating a specific region of the image sensor 110, in particular, a center region and four corner regions. The correction should be made for each area, and is not limited to five areas as shown in FIG. 12A . Also, correction is required according to the position of the subject in each area. That is, the corrected lens movement distance information may be information corrected according to the focus area and the position of the subject.

도 12b는 도 12a의 좌측 상방 구석(1210)에 대한 렌즈의 이동 거리 정보에 대한 일 예이다. 콘트라스트 검출 방식을 이용하여 보정하기 전, 위상차 검출 방식에 의한 렌즈의 이동 거리에 대한 제1 그래프(1220)는 선형적이지 않다. 이는, 렌즈의 위치, 색 온도 및 조리개 값 등에 따라 오차가 발생하였기 때문이다. 이러한 오차 요인은 각각 영향을 미칠 수도 있고, 복합적으로 영향을 미칠 수도 있다. 또한, 상술한 오차 요인 외에도 다양한 오차 요인이 있을 수 있다.12B is an example of movement distance information of a lens with respect to the upper left corner 1210 of FIG. 12A . Before correction using the contrast detection method, the first graph 1220 for the moving distance of the lens by the phase difference detection method is not linear. This is because an error occurred depending on the position of the lens, color temperature, and aperture value. Each of these error factors may affect each or may have a composite effect. In addition, there may be various error factors in addition to the above-described error factors.

제2 그래프(1230)는 제1 그래프(1220)를 콘트라스트 검출 방식을 이용하여 보정한 그래프이다. 제2 그래프(1230)는 렌즈의 위치에 대하여 거의 선형적인 결과를 보여주고 있다. 이러한 정보는 저장부(155)에 저장되어 있을 수 있다.The second graph 1230 is a graph obtained by correcting the first graph 1220 using a contrast detection method. The second graph 1230 shows an almost linear result with respect to the position of the lens. Such information may be stored in the storage unit 155 .

즉, 촬영 장치(100)는 제조과정에서 이러한 정보가 저장되어 있을 수 있도록 제조된다. 프로세서(120)는 초점 영역을 결정하기 위하여 위상 검출 방식을 이용하는 경우, 저장된 정보에 기초하여 디스패리티 정보에 대응되는 렌즈의 이동 거리를 산출하게 된다.That is, the photographing apparatus 100 is manufactured so that such information can be stored during the manufacturing process. When the phase detection method is used to determine the focus area, the processor 120 calculates a movement distance of the lens corresponding to the disparity information based on the stored information.

도 13은 본 발명의 일 실시 예에 따른 촬영 장치(100)의 제어 방법을 설명하기 위한 순서도이다.13 is a flowchart illustrating a control method of the photographing apparatus 100 according to an embodiment of the present invention.

도 13에 따르면, 먼저, 이미지 센서 중 관심 영역을 복수의 서브 관심 영역으로 분할한다(S1310). 관심 영역은 이미지 센서의 전체 영역 또는 일부 영역일 수 있고, 사용자에 의해 설정될 수 있다.Referring to FIG. 13 , first, a region of interest among the image sensors is divided into a plurality of sub regions of interest ( S1310 ). The region of interest may be an entire region or a partial region of the image sensor, and may be set by a user.

그리고, 복수의 서브 관심 영역 각각에 포함된 위상 감지 픽셀을 이용하여 복수의 서브 관심 영역 각각에 대응되는 피사체에 대한 디스패리티 정보를 산출한다(S1320).Then, disparity information on a subject corresponding to each of the plurality of sub-ROIs is calculated using the phase sensing pixels included in each of the plurality of sub-ROIs ( S1320 ).

그리고, 디스패리티 정보에 기초하여 관심 영역 내의 초점 영역을 결정한다(S1330).Then, a focus area within the ROI is determined based on the disparity information (S1330).

또한, 초점 영역을 결정하는 단계(S1330)는, 디스패리티 정보에 기초하여 렌즈의 위치에 대응되는 렌즈의 이동 거리 및 신뢰도 정보를 산출하는 단계 및 렌즈의 이동 거리 및 신뢰도 정보를 이용하여 관심 영역 내의 초점 영역을 결정하는 단계를 포함할 수 있다.In addition, the step of determining the focus area ( S1330 ) includes calculating the moving distance and reliability information of the lens corresponding to the position of the lens based on the disparity information, and using the moving distance and reliability information of the lens within the ROI. Determining an area of focus may be included.

그리고, 복수의 서브 관심 영역으로 분할하는 단계(S1310)는, 관심 영역의 중심 서브 관심 영역과 주변 서브 관심 영역으로 구성된 제1 쌍, 관심 영역의 좌측 서브 관심 영역과 우측 서브 관심 영역으로 구성된 제2 쌍 및 관심 영역의 상측 서브 관심 영역과 하측 서브 관심 영역으로 구성된 제3 쌍으로 관심 영역을 분할할 수 있다.In addition, the step of dividing into a plurality of sub-ROIs ( S1310 ) may include a first pair of a central sub-ROI and a peripheral sub-ROI of the ROI, and a second pair of the left sub-ROI and right sub-ROI of the ROI. The ROI may be divided into a third pair including a pair and an upper sub-ROI and a lower sub-ROI of the ROI.

또한, 초점 영역을 결정하는 단계(S1330)는, 제1 쌍 내지 제3 쌍에 포함된 서브 관심 영역들에 대해 초점을 맞추기 위한 렌즈의 이동 거리를 산출하는 단계, 제1 쌍 내지 제3 쌍 중 렌즈의 이동 거리의 차이가 가장 큰 쌍을 판단하는 단계 및 렌즈의 이동 거리의 차이가 가장 큰 쌍 중 하나의 서브 관심 영역을 초점 영역으로 결정하는 단계를 포함할 수 있다.In addition, the step of determining the focus area ( S1330 ) includes calculating a movement distance of a lens for focusing on sub-ROIs included in the first pair to the third pair, among the first pair to the third pair. The method may include determining a pair having the largest difference in the movement distances of the lenses, and determining a sub-ROI of one of the pairs having the largest difference in the movement distances of the lenses as the focus area.

그리고, 초점 영역을 결정하는 단계(S1330)는, 렌즈의 이동 거리의 차이가 가장 큰 쌍을 나타내는 UI를 디스플레이하는 단계, 렌즈의 이동 거리의 차이가 가장 큰 쌍 중 하나를 선택하는 사용자 입력을 수신하는 단계 및 선택된 서브 관심 영역을 초점 영역으로 결정하는 단계를 더 포함할 수 있다.In the step of determining the focus area ( S1330 ), displaying a UI indicating the pair having the largest difference in the movement distance of the lenses, and receiving a user input for selecting one of the pair having the largest difference in the movement distance of the lenses The method may further include the step of: and determining the selected sub-ROI as a focus area.

또한, 복수의 서브 관심 영역으로 분할하는 단계(S1310)는, 관심 영역을 동일한 크기의 M개의 행과 N개의 열로 분할하고, 초점 영역을 결정하는 단계(S1330)는, 인접한 서브 관심 영역에 대한 렌즈의 이동 거리의 차이가 기설정된 크기 이하인 경우 인접한 서브 관심 영역을 그룹화하여, 관심 영역 내의 초점 영역을 결정할 수 있다.In addition, in the step of dividing the ROI into a plurality of sub-regions ( S1310 ), the ROI is divided into M rows and N columns of the same size, and the step of determining the focal region ( S1330 ) includes lenses for adjacent sub-regions of interest. When the difference in the movement distance of ' is equal to or less than a preset size, a focal region within the ROI may be determined by grouping adjacent sub-ROIs.

그리고, 초점 영역을 결정하는 단계(S1330)는, 피사체와의 거리가 가장 가까운 그룹, 신뢰도가 가장 높은 그룹 및 서브 관심 영역이 가장 많이 그룹화된 그룹 중 하나의 그룹을 초점 영역으로 결정할 수 있다.In the determining of the focus area ( S1330 ), one group among a group having the closest distance to the subject, a group having the highest reliability, and a group having the most sub-ROIs grouped may be determined as the focus area.

또한, 초점 영역을 결정하는 단계(S1330)는, 서브 관심 영역의 신뢰도가 기설정된 신뢰도보다 큰 서브 관심 영역만을 그룹화할 수 있다.In addition, in the step of determining the focal region ( S1330 ), only sub-ROIs for which the reliability of the sub-ROI is greater than a preset reliability may be grouped.

그리고, 렌즈의 이동 거리는, 초점을 맞추기 위해 콘트라스트 검출 방식으로 측정된 렌즈의 이동 거리에 기초하여, 렌즈의 위치에 대해 위상차 검출 방식으로 산출되는 디스패리티 정보로부터 결정된 정보일 수 있다.In addition, the movement distance of the lens may be information determined from disparity information calculated by the phase difference detection method with respect to the position of the lens based on the movement distance of the lens measured by the contrast detection method for focusing.

또한, 디스패리티 정보를 산출하는 단계(S1320)는, 복수의 서브 관심 영역 각각에 대응되는 두 개의 위상 감지 픽셀을 이용하여 이미지를 감지하고, 두 개의 이미지를 크로스-코릴레이션하여 디스패리티 정보를 산출할 수 있다.Also, in the step of calculating the disparity information ( S1320 ), an image is sensed using two phase detection pixels corresponding to each of the plurality of sub-ROIs, and the disparity information is calculated by cross-correlating the two images. can do.

이상과 같은 본 발명의 다양한 실시 예에 따르면, 촬영 장치는 좀더 신속하게 피사체에 대한 정보를 산출하고, 그에 따라 초점 영역을 자동으로 결정하여 사용자 만족도를 향상시킬 수 있다.According to various embodiments of the present disclosure as described above, the photographing apparatus may more rapidly calculate information about a subject, and automatically determine a focus area accordingly, thereby improving user satisfaction.

한편, 이러한 다양한 실시 예에 따른 방법들은 프로그래밍되어 각종 저장 매체에 저장될 수 있다. 이에 따라, 저장 매체를 실행하는 다양한 유형의 전자 장치에서 상술한 다양한 실시 예에 따른 방법들이 구현될 수 있다.Meanwhile, the methods according to various embodiments may be programmed and stored in various storage media. Accordingly, the methods according to the above-described various embodiments may be implemented in various types of electronic devices executing a storage medium.

구체적으로는, 본 발명의 일 실시 예에 따르면, 이미지 센서 중 관심 영역을 복수의 서브 관심 영역으로 분할하는 단계, 복수의 서브 관심 영역 각각에 포함된 위상 감지 픽셀을 이용하여 복수의 서브 관심 영역 각각에 대응되는 피사체에 대한 디스패리티 정보를 산출하는 단계 및 디스패리티 정보에 기초하여 관심 영역 내의 초점 영역을 결정하는 단계를 순차적으로 수행하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다. Specifically, according to an embodiment of the present invention, dividing the region of interest in the image sensor into a plurality of sub regions of interest, each of the plurality of sub regions of interest using phase sensing pixels included in each of the plurality of sub regions of interest A non-transitory computer readable medium storing a program for sequentially calculating disparity information on a subject corresponding to , and determining a focus area in a region of interest based on the disparity information may be provided.

비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.The non-transitory readable medium refers to a medium that stores data semi-permanently, rather than a medium that stores data for a short moment, such as a register, cache, memory, and the like, and can be read by a device. Specifically, the various applications or programs described above may be provided by being stored in a non-transitory readable medium such as a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.

또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention pertains without departing from the gist of the present invention as claimed in the claims In addition, various modifications are possible by those of ordinary skill in the art, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.

100 : 촬영 장치 110 : 이미지 센서
120 : 프로세서 130 : 디스플레이
140 : 사용자 인터페이스부 150 : 통신부
155 : 저장부 160 : 오디오 처리부
170 : 이미지 처리부 180 : 스피커
181 : 버튼 182 : 마이크
100: photographing device 110: image sensor
120: processor 130: display
140: user interface unit 150: communication unit
155: storage unit 160: audio processing unit
170: image processing unit 180: speaker
181: button 182: microphone

Claims (20)

렌즈를 통하여 입력되는 광을 수집하여 이미지를 감지하는 복수의 이미지 픽셀 및 위상을 감지하는 복수의 위상 감지 픽셀을 포함하는 이미지 센서; 및
상기 이미지 센서 중 관심 영역(Region of Interest)을 복수의 서브 관심 영역으로 분할하고, 상기 복수의 서브 관심 영역 각각에 포함된 위상 감지 픽셀을 이용하여 상기 복수의 서브 관심 영역 각각에 대응되는 피사체에 대한 디스패리티(disparity) 정보를 산출하며, 상기 디스패리티 정보에 기초하여 상기 관심 영역 내의 초점 영역을 결정하는 프로세서;를 포함하고,
상기 프로세서는,
상기 디스패리티 정보에 기초하여 상기 렌즈의 위치에 대응되는 상기 렌즈의 이동 거리를 산출하고,
상기 복수의 서브 관심 영역 중 인접한 서브 관심 영역에 대한 상기 렌즈의 이동 거리의 차이가 기 설정된 크기 이하인 서브 관심 영역들을 그룹화하는 것이 기초하여 상기 관심 영역 내의 초점 영역을 결정하는 촬영 장치.
an image sensor including a plurality of image pixels for sensing an image by collecting light input through a lens, and a plurality of phase sensing pixels for detecting a phase; and
A region of interest among the image sensor is divided into a plurality of sub-regions, and a phase detection pixel included in each of the plurality of sub-regions of interest is used to detect a subject corresponding to each of the plurality of sub-regions of interest. a processor that calculates disparity information and determines a focus area within the ROI based on the disparity information;
The processor is
calculating a movement distance of the lens corresponding to the position of the lens based on the disparity information;
and determining a focus area within the ROI based on grouping sub-ROIs in which a difference in movement distance of the lens with respect to an adjacent sub-ROI among the plurality of sub-ROIs is less than or equal to a preset size.
제1항에 있어서,
상기 프로세서는,
상기 디스패리티 정보에 기초하여 상기 렌즈의 이동 거리 및 신뢰도 정보를 산출하여 상기 관심 영역 내의 초점 영역을 결정하는 것을 특징으로 하는 촬영 장치.
According to claim 1,
The processor is
and determining a focus area within the ROI by calculating movement distance and reliability information of the lens based on the disparity information.
제1항에 있어서,
상기 프로세서는,
상기 관심 영역의 중심 서브 관심 영역과 주변 서브 관심 영역으로 구성된 제1 쌍, 상기 관심 영역의 좌측 서브 관심 영역과 우측 서브 관심 영역으로 구성된 제2 쌍 및 상기 관심 영역의 상측 서브 관심 영역과 하측 서브 관심 영역으로 구성된 제3 쌍으로 상기 관심 영역을 분할하는 것을 특징으로 하는 촬영 장치.
According to claim 1,
The processor is
A first pair consisting of a central sub-region of interest and a peripheral sub-region of the region of interest, a second pair consisting of a left sub-region and a right sub-region of the region of interest, and an upper sub-region of interest and a lower sub-region of the region of interest and dividing the region of interest into a third pair of regions.
제3항에 있어서,
상기 프로세서는,
상기 제1 쌍, 제2 쌍 및 제3 쌍에 포함된 서브 관심 영역들에 대해 초점을 맞추기 위한 상기 렌즈의 이동 거리를 산출하고, 상기 제1 쌍, 제2 쌍 및 제3 쌍 중 렌즈의 이동 거리의 차이가 가장 큰 쌍을 판단하여, 상기 렌즈의 이동 거리의 차이가 가장 큰 쌍 중 하나의 서브 관심 영역을 초점 영역으로 결정하는 것을 특징으로 하는 촬영 장치.
4. The method of claim 3,
The processor is
calculating a movement distance of the lens for focusing on sub-ROIs included in the first pair, the second pair, and the third pair, and moving the lens among the first pair, the second pair, and the third pair A photographing apparatus, characterized in that by determining a pair having the largest distance difference, and determining a sub-ROI of one of the pairs having the largest lens movement distance difference as a focus area.
제4항에 있어서,
디스플레이; 및
사용자 입력을 수신하는 사용자 인터페이스부;를 더 포함하고,
상기 프로세서는,
상기 렌즈의 이동 거리의 차이가 가장 큰 쌍을 나타내는 UI를 디스플레이하도록 상기 디스플레이를 제어하고, 상기 렌즈의 이동 거리의 차이가 가장 큰 쌍 중 하나를 선택하는 사용자 입력이 수신되면, 선택된 상기 서브 관심 영역을 초점 영역으로 결정하는 것을 특징으로 하는 촬영 장치.
5. The method of claim 4,
display; and
It further includes; a user interface unit for receiving a user input;
The processor is
The display is controlled to display a UI indicating the pair having the largest difference in the movement distance of the lenses, and when a user input for selecting one of the pair having the largest difference in the movement distance of the lenses is received, the selected sub-ROI A photographing apparatus, characterized in that it is determined as a focus area.
삭제delete 제2항에 있어서,
상기 프로세서는,
피사체와의 거리가 가장 가까운 그룹, 신뢰도가 가장 높은 그룹 및 상기 서브 관심 영역이 가장 많이 그룹화된 그룹 중 하나의 그룹을 초점 영역으로 결정하는 것을 특징으로 하는 촬영 장치.
3. The method of claim 2,
The processor is
The photographing apparatus of claim 1, wherein one of the group having the closest distance to the subject, the group having the highest reliability, and the group having the most sub-ROIs is determined as the focus area.
제2항에 있어서,
상기 프로세서는,
상기 서브 관심 영역의 신뢰도가 기설정된 신뢰도보다 큰 서브 관심 영역만을 그룹화하는 것을 특징으로 하는 촬영 장치.
3. The method of claim 2,
The processor is
and grouping only the sub-ROIs in which the reliability of the sub-ROI is greater than a preset reliability.
제1항에 있어서,
상기 렌즈의 이동 거리는,
상기 렌즈의 위치에 대해 위상차 검출 방식(Phase Auto Focus)으로 산출되는 상기 디스패리티 정보로부터 결정된 정보인 것을 특징으로 하는 촬영 장치.
According to claim 1,
The moving distance of the lens,
The photographing apparatus, characterized in that the information is determined from the disparity information calculated by a phase difference detection method (Phase Auto Focus) with respect to the position of the lens.
제1항에 있어서,
상기 프로세서는,
상기 복수의 서브 관심 영역 각각에 대응되는 두 개의 위상 감지 픽셀을 이용하여 이미지를 감지하고, 상기 두 개의 이미지를 크로스-코릴레이션(cross-correlation)하여 디스패리티 정보를 산출하는 것을 특징으로 하는 촬영 장치.
According to claim 1,
The processor is
An image pickup apparatus characterized in that an image is sensed using two phase detection pixels corresponding to each of the plurality of sub-ROIs, and disparity information is calculated by cross-correlating the two images. .
렌즈를 통하여 입력되는 광을 수집하여 이미지를 감지하는 복수의 이미지 픽셀 및 위상을 감지하는 복수의 위상 감지 픽셀을 포함하는 이미지 센서를 구비한 촬영 장치의 제어 방법에 있어서,
상기 이미지 센서 중 관심 영역(Region of Interest)을 복수의 서브 관심 영역으로 분할하는 단계;
상기 복수의 서브 관심 영역 각각에 포함된 위상 감지 픽셀을 이용하여 상기 복수의 서브 관심 영역 각각에 대응되는 피사체에 대한 디스패리티(disparity) 정보를 산출하는 단계; 및
상기 디스패리티 정보에 기초하여 상기 관심 영역 내의 초점 영역을 결정하는 단계;를 포함하고,
상기 초점 영역을 결정하는 단계는,
상기 디스패리티 정보에 기초하여 상기 렌즈의 위치에 대응되는 상기 렌즈의 이동 거리를 산출하는 단계; 및
상기 복수의 서브 관심 영역 중 인접한 서브 관심 영역에 대한 상기 렌즈의 이동 거리의 차이가 기 설정된 크기 이하인 서브 관심 영역들을 그룹화하는 것이 기초하여 상기 관심 영역 내의 초점 영역을 결정하는 단계; 를 포함하는 제어 방법.
A method of controlling a photographing apparatus having an image sensor including a plurality of image pixels for sensing an image by collecting light input through a lens, and a plurality of phase sensing pixels for detecting a phase,
dividing a region of interest in the image sensor into a plurality of sub regions of interest;
calculating disparity information on a subject corresponding to each of the plurality of sub-ROIs by using the phase sensing pixels included in each of the plurality of sub-ROIs; and
Determining a focal region within the ROI based on the disparity information;
Determining the focus area comprises:
calculating a movement distance of the lens corresponding to the position of the lens based on the disparity information; and
determining a focal region within the ROI based on grouping of sub-ROIs in which a difference in movement distance of the lens with respect to an adjacent sub-ROI among the plurality of sub-ROIs is less than or equal to a preset size; A control method comprising a.
제11항에 있어서,
상기 초점 영역을 결정하는 단계는,
상기 디스패리티 정보에 기초하여 상기 렌즈의 이동 거리 및 신뢰도 정보를 산출하는 단계; 및
상기 렌즈의 이동 거리 및 신뢰도 정보를 이용하여 상기 관심 영역 내의 초점 영역을 결정하는 단계;를 포함하는 것을 특징으로 하는 제어 방법.
12. The method of claim 11,
Determining the focus area comprises:
calculating the moving distance and reliability information of the lens based on the disparity information; and
and determining a focus area within the ROI by using the moving distance and reliability information of the lens.
제11항에 있어서,
상기 복수의 서브 관심 영역으로 분할하는 단계는,
상기 관심 영역의 중심 서브 관심 영역과 주변 서브 관심 영역으로 구성된 제1 쌍, 상기 관심 영역의 좌측 서브 관심 영역과 우측 서브 관심 영역으로 구성된 제2 쌍 및 상기 관심 영역의 상측 서브 관심 영역과 하측 서브 관심 영역으로 구성된 제3 쌍으로 상기 관심 영역을 분할하는 것을 특징으로 하는 제어 방법.
12. The method of claim 11,
The dividing into the plurality of sub-regions of interest comprises:
A first pair consisting of a central sub-region of interest and a peripheral sub-region of the region of interest, a second pair consisting of a left sub-region and a right sub-region of the region of interest, and an upper sub-region of interest and a lower sub-region of the region of interest and dividing the region of interest into a third pair of regions.
제13항에 있어서,
상기 초점 영역을 결정하는 단계는,
상기 제1 쌍, 제2 쌍 및 제3 쌍에 포함된 서브 관심 영역들에 대해 초점을 맞추기 위한 상기 렌즈의 이동 거리를 산출하는 단계;
상기 제1 쌍, 제2 쌍 및 제3 쌍 중 렌즈의 이동 거리의 차이가 가장 큰 쌍을 판단하는 단계; 및
상기 렌즈의 이동 거리의 차이가 가장 큰 쌍 중 하나의 서브 관심 영역을 초점 영역으로 결정하는 단계;를 포함하는 것을 특징으로 하는 제어 방법.
14. The method of claim 13,
Determining the focus area comprises:
calculating a movement distance of the lens for focusing on sub-ROIs included in the first pair, the second pair, and the third pair;
determining a pair having the largest difference in lens movement distance among the first pair, the second pair, and the third pair; and
and determining, as a focus region, one sub-ROI of a pair having the largest difference in movement distance of the lenses.
제14항에 있어서,
상기 초점 영역을 결정하는 단계는,
상기 렌즈의 이동 거리의 차이가 가장 큰 쌍을 나타내는 UI를 디스플레이하는 단계;
상기 렌즈의 이동 거리의 차이가 가장 큰 쌍 중 하나를 선택하는 사용자 입력을 수신하는 단계; 및
선택된 상기 서브 관심 영역을 초점 영역으로 결정하는 단계;를 더 포함하는 것을 특징으로 하는 제어 방법.
15. The method of claim 14,
Determining the focus area comprises:
displaying a UI indicating a pair having the largest difference in moving distances of the lenses;
receiving a user input for selecting one of the pairs having the largest difference in the moving distances of the lenses; and
and determining the selected sub-region of interest as a focus region.
삭제delete 제12항에 있어서,
상기 초점 영역을 결정하는 단계는,
피사체와의 거리가 가장 가까운 그룹, 신뢰도가 가장 높은 그룹 및 상기 서브 관심 영역이 가장 많이 그룹화된 그룹 중 하나의 그룹을 초점 영역으로 결정하는 것을 특징으로 하는 제어 방법.
13. The method of claim 12,
Determining the focus area comprises:
A control method, characterized in that one of a group having the closest distance to the subject, a group having the highest reliability, and a group having the most sub-ROIs is determined as a focus area.
제12항에 있어서,
상기 초점 영역을 결정하는 단계는,
상기 서브 관심 영역의 신뢰도가 기설정된 신뢰도보다 큰 서브 관심 영역만을 그룹화하는 것을 특징으로 하는 제어 방법.
13. The method of claim 12,
Determining the focus area comprises:
A control method, characterized in that grouping only the sub-ROIs in which the reliability of the sub-ROI is greater than a preset reliability.
제11항에 있어서,
상기 렌즈의 이동 거리는,
상기 렌즈의 위치에 대해 위상차 검출 방식(Phase Auto Focus)으로 산출되는 상기 디스패리티 정보로부터 결정된 정보인 것을 특징으로 하는 제어 방법.
12. The method of claim 11,
The moving distance of the lens,
The control method, characterized in that the information determined from the disparity information calculated by a phase difference detection method (Phase Auto Focus) with respect to the position of the lens.
제11항에 있어서,
상기 디스패리티 정보를 산출하는 단계는,
상기 복수의 서브 관심 영역 각각에 대응되는 두 개의 위상 감지 픽셀을 이용하여 이미지를 감지하고, 상기 두 개의 이미지를 크로스-코릴레이션(cross-correlation)하여 디스패리티 정보를 산출하는 것을 특징으로 하는 제어 방법.
12. The method of claim 11,
Calculating the disparity information comprises:
A control method, characterized in that an image is sensed using two phase detection pixels corresponding to each of the plurality of sub-ROIs, and disparity information is calculated by cross-correlating the two images. .
KR1020150052446A 2014-08-08 2015-04-14 Image photographing apparatus and control methods thereof KR102339662B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/822,418 US10078198B2 (en) 2014-08-08 2015-08-10 Photographing apparatus for automatically determining a focus area and a control method thereof

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201462034894P 2014-08-08 2014-08-08
US201462034914P 2014-08-08 2014-08-08
US62/034,894 2014-08-08
US62/034,914 2014-08-08

Publications (2)

Publication Number Publication Date
KR20160018331A KR20160018331A (en) 2016-02-17
KR102339662B1 true KR102339662B1 (en) 2021-12-16

Family

ID=55457582

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150052446A KR102339662B1 (en) 2014-08-08 2015-04-14 Image photographing apparatus and control methods thereof

Country Status (1)

Country Link
KR (1) KR102339662B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012234152A (en) * 2011-04-19 2012-11-29 Canon Inc Imaging apparatus and control method thereof

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5898501B2 (en) * 2012-01-13 2016-04-06 キヤノン株式会社 Image processing apparatus, imaging apparatus, control method, program, and recording medium

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012234152A (en) * 2011-04-19 2012-11-29 Canon Inc Imaging apparatus and control method thereof

Also Published As

Publication number Publication date
KR20160018331A (en) 2016-02-17

Similar Documents

Publication Publication Date Title
CN106576143B (en) Image capturing apparatus and image capturing method
US10078198B2 (en) Photographing apparatus for automatically determining a focus area and a control method thereof
US9392160B2 (en) Circuit and method providing wide dynamic-range operation of auto-focus(AF) focus state sensor elements, digital imaging device, and computer system including same
KR102121531B1 (en) Apparatus and Method for Controlling a Focus Detectable Image Sensor
JP5642433B2 (en) Imaging apparatus and image processing method
US10095941B2 (en) Vision recognition apparatus and method
KR101889932B1 (en) Apparatus and Method for photographing image
US20170132790A1 (en) Image photographing apparatus and method for controlling the same
KR20170060498A (en) Image photographing apparatus and method of controlling thereof
US20090322897A1 (en) Digital image processing apparatus having self-navigator function, and operation method of the digital image processing apparatus
KR20160032587A (en) Image photographing apparatus and photographing method thereof
US10438372B2 (en) Arithmetic method, imaging apparatus, and storage medium
US11140331B2 (en) Image capturing apparatus, control method for image capturing apparatus, and control program for image capturing apparatus
KR20150096224A (en) Solid image sensor, digital camera and method for preforming autofocus
KR101822462B1 (en) Method for providing user interface and image photographing apparatus thereof
US8681235B2 (en) Apparatus for processing digital image signal that obtains still image at desired point in time and method of controlling the apparatus
JP2024083407A (en) Video creation method
KR102368625B1 (en) Digital photographing apparatus and the method for the same
KR20130015422A (en) Method for providing reference image and image photographing device thereof
US20160212315A1 (en) Image capturing apparatus and control method thereof, and storage medium
KR102339662B1 (en) Image photographing apparatus and control methods thereof
KR20150146355A (en) transparent display apparatus, group play system using transparent display apparatus and performance methods thereof
US10939058B2 (en) Image processing apparatus, image processing method, and program
US10785411B2 (en) Image processing apparatus, image processing method, and storage medium
JP6577820B2 (en) Imaging apparatus, control method therefor, and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right